Tema 6. Evaluación de SRIs

28
1 Tema 6. Evaluación de SRIs Sistemas de Gestión Documental

description

Tema 6. Evaluación de SRIs. Sistemas de Gestión Documental. Introducción. No todos los SRI son iguales. Las diferencias se notarán, especialmente, en los resultados que ofrezcan. Determinar lo bueno o lo malo que es un SRI es una medida de evaluación, que debe realizarse de forma estricta. - PowerPoint PPT Presentation

Transcript of Tema 6. Evaluación de SRIs

Page 1: Tema 6. Evaluación de SRIs

1

Tema 6.Evaluación de SRIs

Sistemas de Gestión Documental

Page 2: Tema 6. Evaluación de SRIs

2

Introducción No todos los SRI son iguales. Las

diferencias se notarán, especialmente, en los resultados que ofrezcan.

Determinar lo bueno o lo malo que es un SRI es una medida de evaluación, que debe realizarse de forma estricta.

Existen mucha posibilidades de evaluar, y muchos elementos que someter a evaluación. Nos centraremos únicamente en evaluación de resultados.

Page 3: Tema 6. Evaluación de SRIs

3

Objetivos Ayudar al proceso de selección de un SRI. Monitorizar y evaluar la efectividad de los

SRI. Evaluar el proceso de generación de

consultas para su mejora. Proporcionar datos para los análisis

coste-beneficio de los SRI. Determinar los efectos de los cambios

realizados en un SRI.

Page 4: Tema 6. Evaluación de SRIs

4

Elementos de evaluación Gestor de consultas

Interpretación, evaluación de resultados.

Gestor de datos Velocidad de ejecución, espacio.

Proceso de creación de consultas Base de datos

Contenidos, estructura, ámbito.

Page 5: Tema 6. Evaluación de SRIs

5

Criterio de evaluación Para evaluar resultados, el criterio

de evaluación a considerar es la relevancia.

La relevancia se puede ver desde dos puntos de vista: Cercanía de la respuesta a la pregunta Valor o utilidad de la respuesta para el

usuario que formula la pregunta.

Page 6: Tema 6. Evaluación de SRIs

6

Medidas de evaluación Básicas

Precisión

Exhaustividad

Número de registros relevantes recuperadosP=

Número total de registros recuperados

Número de registros relevantes recuperadosP=

Número total de registros recuperados

Número de registros relevantes recuperadosE=

Número total de registros relevantes en la base de datos

Número de registros relevantes recuperadosE=

Número total de registros relevantes en la base de datos

Page 7: Tema 6. Evaluación de SRIs

7

Medidas de evaluación Avanzadas

Fallout

Exhaustividad Relevante Unica

Número de registros recuperados no relevantesFallout =

Número total de registros no relevantes en la base de datos

Número de registros recuperados no relevantesFallout =

Número total de registros no relevantes en la base de datos

Número de únicos relevantesE.R.U. =

Número de relevantes

Número de únicos relevantesE.R.U. =

Número de relevantes

Page 8: Tema 6. Evaluación de SRIs

8

Medidas de evaluación Avanzadas

Novelty Ratio Relevantes y no conocidos respecto a los

relevantes recuperados. Coverage

Relevantes recuperados respecto a los relevantes conocidos por el usuario a priori.

Sought Recall Relevantes revisados respecto a los relevantes

que el usuario hubiese querido examinar a priori.

Page 9: Tema 6. Evaluación de SRIs

9

TREC ¿Qué es TREC?

Text REtrieval Conference Conferencia que pretende apoyar en

la investigación de la recuperación de información.

Proporciona la infraestructura necesaria para una evaluación a gran escala de diferentes metodologías de recuperación de información.

Page 10: Tema 6. Evaluación de SRIs

10

TREC ¿Cómo funciona TREC?

Inscripción en la conferencia. Selección de ‘tracks’ en los que se desea

participar. Se obtiene un conjunto de prueba (datos,

preguntas y respuestas) para evaluar el SRI de cada participante.

Se somete el sistema del participante a las pruebas solicitadas, y se envían los resultados.

Se publican los resultados de cada participante en todos los ‘tracks’.

Page 11: Tema 6. Evaluación de SRIs

11

TREC ‘Topics’

Se distinguen Tópicos de Consultas Tópico es la necesidad de información. Consulta es la traducción del tópico.

Partes: número, título, descripción y narrativa.

Page 12: Tema 6. Evaluación de SRIs

12

TREC

Page 13: Tema 6. Evaluación de SRIs

13

TREC

Page 14: Tema 6. Evaluación de SRIs

14

TREC Cross-Language

Búsqueda ad hoc de documentos escritos en un idioma utilizando palabras en otro idioma diferente.

Page 15: Tema 6. Evaluación de SRIs

15

TREC Filtering

Para cada documento de un conjunto de documentos, decidir si se recupera (decisión binaria) en respuesta a una consulta.

Subtareas Adaptive filtering. Se parte de una consulta y un

conjunto de docs relevantes. Se analiza doc a doc y se decide para cada uno, se obtiene un juicio de relevancia, y se puede modificar el criterio de decisión en base a la respuesta.

Batch filtering. Igual que el anterior, pero sin feedback.

Routing. Se utiliza lógica no binaria.

Page 16: Tema 6. Evaluación de SRIs

16

TREC Interactive

Investigar la búsqueda como proceso interactivo donde se observa tanto el proceso como el resultado.

En la primera fase se observa como los usuarios actúan respecto a una serie de cuestiones planteadas.

En la segunda fase se utilizan los resultados obtenidos en aplicación a sistemas que ayuden a los usuarios en las búsquedas.

Page 17: Tema 6. Evaluación de SRIs

17

TREC Question answering

Investigar sistemas que contestan preguntas en lugar de devolver documentos.

Subtareas: Main. Recuperar la respuesta en 50 caracteres. List. Ensamblar un conjunto de resultados como

respuesta a la pregunta. Context. Respuesta a series de preguntas

enlazadas, lo que supone un conocimiento del contexto.

Page 18: Tema 6. Evaluación de SRIs

18

TREC Video

Promocionar el progreso en las búsquedas de contenido sobre el video digital.

Tareas: Shot boundary detection Known item search General search

Page 19: Tema 6. Evaluación de SRIs

19

TREC Web

Investigar el comportamiento de la recuperación de información en el web.

Tareas Ad hoc. Homepage finding.

Page 20: Tema 6. Evaluación de SRIs

20

TREC Medidas de evaluación

Se utilizan las medidas básicas de Precisión (Precision) y Exhaustividad (Recall) para las búsquedas ad hoc y búsquedas en el web.

Para otros ‘tracks’ se definen medidas y métricas alternativas que ofrezcan una mejor evaluación del funcionamiento del sistema.

Page 21: Tema 6. Evaluación de SRIs

21

TREC Medidas de evaluación

Evaluation Report Cross-language, ad hoc, web, routing

filtering. Resumen de estadísticas, Medias de

precisión-exhaustividad, Medias de precisión por documento, gráfico precisión-exhaustividad, histograma de precisión media según tópico.

Page 22: Tema 6. Evaluación de SRIs

22

TREC Medidas de evaluación

Otras medidas Informe de evaluación de question

answering Informe de evaluación de filtering Informe de evaluación de homepages

Page 23: Tema 6. Evaluación de SRIs

23

TREC Ejemplos de Informes

Evaluation Report Resultados de pruebas ad hoc Resultados de pruebas ad hoc para el

web Question answering Filtering Homepages

Page 24: Tema 6. Evaluación de SRIs

24

Page 25: Tema 6. Evaluación de SRIs

25

Page 26: Tema 6. Evaluación de SRIs

26

Page 27: Tema 6. Evaluación de SRIs

27

Page 28: Tema 6. Evaluación de SRIs

28