Tema 1. Modelos de RI avanzados
description
Transcript of Tema 1. Modelos de RI avanzados
1
Tema 1.Modelos de RI avanzados
Sistemas de Gestión Documental
2
Introducción IR: representación,
almacenamiento, organización y acceso a la información
Las Necesidades de Información NIC / NIOP Problema de caracterización Problema de formulación de consulta
3
Introducción Ejemplo de consulta
“Encontrar las páginas que contengan información sobre equipos de ajedrez que se enfrentan en torneos nacionales y tienen alguna subvención de algún tipo. La página debe contener información sobre el ranking nacional del equipo en los últimos 3 años y la dirección de e-mail o el teléfono del entrenador”.
La dificultad está en construir la consulta para que la entienda el SRI.
4
Introducción Information retrieval / Data
retrieval NIOP / NIC Lenguaje Natural / Lenguaje de
consulta Permite errores / No permite errores Información / Datos Inexacto / Exacto
5
Introducción Data retrieval
No resuelve el problema de la RI. Sólo devuelve datos sobre un tema. Es estructurado y nada ambiguo en cuanto a las consultas.
Information retrieval (RI) Trata de resolver la NI. Debe interpretar los
contenidos de los documentos y hacer un ranking de las respuestas. La consulta no es estructurada (LN) y es ambigua. La relevancia es el principal punto de interés.
6
Introducción RI: tema específico de bibliotecarios y
especialistas ??? Puntos originales de interés: indexación y
búsquedas Investigación actual: modelización,
clasificación, arquitectura de sistemas, interfaces de usuario, visualización de datos, filtraje, lenguajes, etc.
Desde los años 1990 explota el interés debido al nacimiento del World Wide Web.
7
Introducción Respecto al Web:
Es la BD Documental más grande del mundo
Presenta problemas: Nadie se hace responsable de los contenidos No es fácil buscar ni indexar No hay herramientas de soporte perfectas No se usa un lenguaje útil para las máquinas ...
8
Modelos de RI La RI se basa en la utilización de términos
índice para indexar y recuperar documentos. Indexar un documento puede consistir en
sustituir su contenido por un conjunto de términos índices que lo representan.
Recuperar puede consistir en especificar un conjunto de términos que deben hallarse entre los índices de un documento, estableciendo un ranking de relevancia.
9
Modelos de RI El problema de la RI será, pues, la
manera de predecir la relevancia de los documentos y su grado de relevancia (ranking).
Las distintas premisas utilizadas en el cálculo de la relevancia darán lugar a distintos ‘modelos’ de trabajo o de RI.
10
Modelos de RI Un modelo de RI se define como:
Es una cuádrupla [D,Q,F,R(qi,dj)], con: D es un conjunto de representaciones de documentos Q es un conjunto de representaciones de
necesidades de información de los usuarios F es un marco de modelado de documentos,
consultas y sus relaciones R(qi,dj) es una función de ranking que asocia un
número real con una consulta y un documento. El ranking define el orden en el que el documento satisface la consulta.
11
Modelos de RI Para construir un modelo
Analizar las representaciones de documentos y consultas
Concebir el marco en el que pueden ser representados
Construcción de función de ranking
Ejemplo: modelo de espacios vectoriales
12
Modelos de RI Algunos modelos clásicos:
Booleano (set theoretic) Vectorial (algebraico) Probabilístico (teoría de la
probabilidad)
Listas no solapadas Nodos próximos
Contenido
Estructura
13
Modelos de RITaxonomía de los modelos de RI
Recuperación: Búsqueda retrospectiva DSI
Navegación
MODELOS CLASICOS Booleano Espacios Vectoriales Probabilístico
MODELOS ESTRUCTURADOS Listas no solapadas Nodos próximos
NAVEGACION Plana Guía estructurada Hipertexto
TEORIA DE CONJUNTOS Conjuntos difusos Booleano extendido
ALGEBRAICO Vector generalizado Latent Semantic Indexing Redes Neuronales
PROBABILISTICO Redes de inferencia Redes de confianza
ACCI
ON
ES D
EL U
SUAR
IO
14
Modelos clásicos Los documentos se describen a través de
un conjunto de términos representativos llamados índices o términos índice.
Los índices son principalmente nombres, y se usan en menor medida verbos, adjetivos, adverbios, ...
Sin embargo, se pueden considerar todos los términos como importantes en una aproximación llamada ‘full text’.
15
Modelos clásicos No todos los términos son igualmente
importantes. Ej. Un término que aparece en todos los
documentos de una colección será menos importante que otro que aparezca sólo en unos pocos, puesto que ayuda a discernir.
El proceso de decidir la importancia de un término se puede realizar a través de la asignación de ‘pesos’ Para ki (término), dj (documento), wij 0 es el
peso asociado al término en el documento.
16
Modelos clásicos Definición. Sea t el número de términos índice en el
sistema, y ki un término índice genérico. K={k1,...,kt} es el conjunto de índices. Un peso wij>0 se asocia con cada término ki del documento dj. Para un término que no aparece en el documento, wij=0. Con cada documento dj hay asociado un vector de índices dj=(w1j,w2j,...,wtj). Además, definimos una función gi que devuelve el peso asociado con índice ki en un vector t-dimensional: gi(dj)=wij.
Los pesos de los términos son mutuamente independientes, esto es, sabiendo el peso wij, no podemos saber nada a priori del peso wi+1j. Esto es una simplificación válida para nuestro problema.
17
Modelo Booleano Modelo clásico basado en la teoría de
conjuntos y el álgebra de Boole. Es el modelo más simple. Los documentos se representan por
conjuntos de términos contenidos en ellos. Las consultas se expresan como
expresiones booleanas con una semántica clara y concreta.
Adoptado por muchos de los SRI tempranos.
18
Modelo Booleano Presenta algunos problemas:
Decisión binaria, sin escala de relevancia. wij {0,1}
Se basa más en data retrieval que en information retrieval.
Difícil traducir una NI a una expresión booleana. Las consultas son combinaciones de términos
usando operadores and, or y not. Además, hay que buscar una representación óptima a través de una FND (Forma Normal Disjunta).
19
Modelo Booleano Ejemplo de consulta en FND:
a b
c
Consulta genérica
q = ka ( kb kc )
Consulta FND
q = ka ( kb kc )
q = (ka kb ) (ka kc ) qfnd = (ka kb kc ) (ka kb kc ) (ka kb kc )
qfnd = (1,1,1) (1,1,0) (1,0,0)
20
Modelo Booleano Definición. Para el modelo booleano, los pesos de los términos
son binarios (wij {0,1}). Una consulta es una expresión booleana convencional. Si qfnd es la forma normal disjunta de una consulta, y qcc alguno de los componentes de esta fnd, la similitud de un documento dj con una consulta q se define como:
1 si qcc | (qcc qfnd ) (ki, gi(dj) = gi(qcc)) sim(dj,q) =
0 en otro caso
Si sim(dj,q)=1, entonces el documento se predice como relevante. En cualquier otro caso, el documento no es relevante.
21
Modelo Booleano Ejemplo
dj = (0,1,0) q = ka ( kb kc )
No hay respuesta parcial (1 ó 0) Resultado: sim(dj,q)=0
a b
c
22
Modelo Vectorial Asume que el uso de pesos binarios es
limitativo y propone un marco con posibilidad de relevancia parcial.
Por tanto, se asignan pesos no binarios a los términos en los documentos
Se pretende computar el grado de similitud entre documentos y consultas de forma gradual, y no absoluta.
El resultado será un conjunto de documentos respuesta a una consulta ordenados en ranking de relevancia.
23
Modelo Vectorial Definición. En el modelo vectorial, el peso wij que se asocia
a un par (ki,dj) es positivo y no binario. De igual modo, los pesos de los términos en una consulta se someten a los mismos pesos, de modo que wiq 0 es el peso asociado asociado al par [ki,q]. El vector q se define como q=(w1q, w2q,..., wtq) siendo t el número total de términos indexados en el sistema. De igual forma, el vector documento se representa por dj=(w1j,w2j,...,wtj)
Por tanto, un documento y una consulta se representan como vectores t-dimensionales (vectores en un espacio de t dimensiones, siendo t el número de términos indexados en la colección de documentos).
24
Modelo Vectorial La similitud entre documentos y consultas se
evalua a través de la correlación de los vectores que los representan, q y dj.
La correlación se puede definir a través del coseno del ángulo entre los vectores:
t
i iqt
i ij
t
i iqij
j
jj
ww
ww
qd
qdqdsim
12
12
1),(
25
Modelo Vectorial Sobre la fórmula del coseno
La norma del vector consulta no afecta al ranking porque es igual para todos los documentos, cosa que no pasa con la norma del vector documento
La similitud varía entre 0 y +1 puesto que así lo hacen los pesos de los términos de los vectores
26
Modelo Vectorial En este modelo, en lugar de predecir si
un documento es o no relevante, se proporciona un grado de relevancia.
Un documento podría ser recuperado sólo con una coincidencia parcial.
Se establece un umbral de relevancia para decidir cuando mostrar un documento como relevante.
El problema para obtener la relevancia consistirá en la forma de asignar pesos.
27
Modelo Vectorial Problema de clustering en IR: definir que
documentos son relevantes y que documentos no lo son. Se pueden usar dos medidas para ello: Similitud intra-cluster. Se puede utilizar como
medida la frecuencia de términos (tf). Diferencia inter-cluster. Se puede utilizar como
medida la frecuencia de documento inversa (idf).
Estas medidas (tf, idf) se pueden aplicar para el cálculo de los pesos de los términos.
28
Modelo Vectorial Definición. Sea N el total de
documentos de una colección, y ni los documentos en los que aparece el término ki. La frecuencia del término ki en el documento dj la denotamos por freqij. La frecuencia normalizada del término ki en el documento dj es f. El máximo se obtiene sobre los términos del documento. La frecuencia de documento inversa será idf.
El peso del término en documentos y consultas se calcula con estas fórmulas empíricas:
j
ij
freqfreq
fmax
ii n
Nidf log
iijij n
Nfw log
iq
iqiq n
Nfreqfreq
w logmax5,0
5,0
29
Modelo Vectorial Las principales ventajas del modelo son:
Se mejora el rendimiento con las fórmulas de obtención de pesos.
Se pueden recuperar documentos que se ‘aproximen’ a la consulta.
La fórmula del coseno proporciona, además, un ranking sobre la respuesta.
La principal desventaja es que considera los términos como independientes, lo que puede causar bajo rendimiento (en teoría).
30
Modelo Vectorial Como conclusión:
Es muy elástico como estrategia de ranking en colecciones generales.
Es difícil de mejorar sin expansión de consultas o relevance feedback.
En comparación con otros modelos, es superior o igual en rendimiento a las alternativas.
Es simple y rápido. Hoy en día, es uno de los más utilizados.
31
Modelo Probabilístico También se le llama ‘binary independence
retrieval model’. La idea del modelo es: dada una consulta,
existe exactamente un conjunto de documentos, y no otro, que satisface dicha consulta. Este conjunto es el ‘conjunto ideal’.
Por tanto, el problema de la RI será el proceso de especificar las propiedades del conjunto ideal.
32
Modelo Probabilístico El problema es que no conocemos
exactamente las propiedades del conjunto ideal.
Deberemos realizar una suposición inicial sobre estas propiedades para tratar de refinarlas consulta tras consulta.
Tras cada consulta, el usuario determinará los documentos que son relevantes, con lo que se podrá refinar la descripción del conjunto ideal.
33
Modelo Probabilístico Principio de probabilidad. Dada una consulta q y un
documento dj, el modelo probabilístico trata de determinar la probabilidad de que el usuario encuentre el documento relevante. El modelo asume que esta probabilidad de relevancia depende sólo de las representaciones del documento y de la consulta. El modelo también asume que hay un subconjunto de todos los documentos que el usuario prefiere como respuesta a su consulta. A este conjunto se le llama conjunto de respuesta ideal, y lo denotaremos por R. El conjunto R debería maximizar la probabilidad global de relevancia para el usuario. Los documentos que no pertenezcan al conjunto serán considerados como no relevantes para el usuario.
34
Modelo Probabilístico Definición. Para el modelo probabilístico, los pesos de
los términos índice son binarios (wij {0,1}, wiq {0,1}). Una consulta q es un subconjunto de términos índice. Sea R el conjunto de documentos conocidos (o inicialmente supuestos) como relevantes. Sea R’ el complemento de R. Sea P(R|dj) la probabilidad de que el documento dj sea relevante a la consulta q y P(R’|dj) la probabilidad de que dj no sea relevante a q. Entonces, la similitud del documento con la consulta se define como:
)'|()|(
)()'()'|(
)()()|(
)|'()|(
),(RdPRdP
dPRPRdP
dPRPRdP
dRPdRP
qdsimj
j
j
j
j
j
j
jj
35
Modelo Probabilístico Explicación.
P(R|dj) es la probabilidad de que dado un documento seleccionado, ese documento sea relevante para el usuario.
P(dj |R) es la probabilidad de seleccionar aleatoriamente el documento dj de entre los relevantes.
P(R) es la probabilidad de que seleccionando algún documento aleatoriamente de la colección, sea relevante.
P(dj) es la probabilidad de obtener el documento dj aleatoriamente seleccionando uno de entre toda la colección.
P(R’|dj), P(dj |R’), P(R’) son los análogos, aplicados a la no relevancia.
El cociente es ahora fácil de calcular con las probabilidades de que los términos del documento estén o no estén en los documentos de los conjuntos relevantes o no relevantes, según el caso.
36
Modelo Probabilístico Para que quede claro, un documento será relevante si:
P(R|dj) > P(R’|dj)o
P(dj|R) > P(dj|R’)
37
Modelo Probabilístico No podemos calcular exactamente
las probabilidades, y tenemos que hacer estimaciones
La relevancia de cada documento es independiente de la relevancia de otros
38
Modelo Probabilístico Ventajas
Los documentos se presentan en orden decreciente de probabilidad de relevancia.
Inconvenientes Hay que hacer una separación inicial de
documentos en relevantes y no relevantes. Es binario (no se consideran frecuencias de
aparición de términos en los documentos). Se asume la independencia de términos.
39
Comparación El modelo booleano es el más flojo
de todos los clásicos. No permite relevancias parciales y ofrece problemas de rendimiento.
El modelo vectorial ofrece mejores resultados que el probabilístico, pero para colecciones generalistas.
40
Modelos avanzados Conjuntos difusos Booleano extendido Espacio Vectorial Generalizado Latent Semantic Indexing Redes neuronales Redes de inferencia (inference network) Redes de confianza (belief network)
41
Conjuntos difusos La representación de un
documento a través de términos implica una representación vaga de la semántica del documento.
Por tanto, la relevancia de un documento con respecto a una consulta solo puede ser un valor aproximado, no exacto.
42
Conjuntos difusos Se puede definir un conjunto
difuso, de modo que cada documento tendrá un grado de pertenencia (<=1) a ese conjunto.
La relevancia equivaldrá al grado de pertenencia al conjunto, y será un valor comprendido entre 0 y 1.
43
Conjuntos difusos. Ejemplo. Se puede expandir un término de
una consulta a través de un tesauro.
es equivalente a
Se puede establecer una correlación entre los términos relacionados.
44
Conjuntos difusos. Ejemplo. El factor de correlación podría ser:
ni = num. de docs que contienen a kinl = num. de docs que contienen a klnil = num. de docs que contienen a ki y kl
illi
ilil nnn
nc
45
Conjuntos difusos. Ejemplo.
1...7,01,0...1.........7,0...13,01,0...3,01
...
2
1
21
t
t
k
kk
kkk
46
Conjuntos difusos. Ejemplo. Para cada término ki podemos definir
un conjunto difuso asociado, donde cada documento tendrá un grado de pertenencia.
El grado de pertenencia se puede calcular como la suma de los factores de correlación del término i con los términos que contiene el documento.
47
Conjuntos difusos. Ejemplo.
12,07,01,02,012,07,07,02,013,01,07,03,01
4
3
2
1
4321
kkkk
kkkk
jl jldk dk
ililij cc 11
d3=(0,4,2,15)
1,11,07,03,014131213 ccc
811,0189,01)9,03,07,0(1))1,01()7,01()3,01((1
))1()1()1((1 14131213
ccc
48
Conjuntos difusos. Ejemplo. El usuario realizará sus consultas de un
modo similar al modelo booleano. La consulta se transformará en una forma
normal disjunta. Los operadores AND y OR de la expresión
de la consulta se resuelven a través de: Cálculo del mínimo (and) o máximo (or) grado
de pertenencia. Operación matemática (sumas, productos)
sobre los coeficientes de correlación de los términos.
49
Conjuntos difusos En resumen
Correlación de términos Correlación de documentos con los
conjuntos difusos asociados a los términos Cálculos algebraicos para computar el grado
de pertenencia de un documento a un conjunto difuso definido para la consulta.
No es un modelo muy extendido entre los especialistas de RI.
No hay experimentos suficientemente amplios para comparar el modelo con otros
50
Booleano extendido El modelo booleno es simple y elegante,
pero al no permitir pesos, no se puede hacer ranking.
El tamaño del conjunto respuesta es demasiado grande o demasiado pequeño.
Como consecuencia, ya no se usa. El uso del modelo booleano con pesos y
relevancia parcial permite evitar alguno de estos problemas (combinación booleano – vectorial).
51
Booleano extendido Introducido en 1983 por Salton, Fox y Wu. Se basa en la idea de que la relevancia de
un documento para una consulta con un único término dependerá del peso del término en el documento.
Sin embargo, cuando se utilizan expresiones booleanas en la consulta, es necesario calcular la relevancia atendiendo a los pesos de distintos términos.
52
Booleano extendido
ky
kx(0,0)
(1,1)dj
2),(
22 yxdqsim or
cálculo basado en ladistancia euclídea
53
Booleano extendido
ky
kx(0,0)
(1,1)dj
2)1()1(1),(22 yxdqsim and
cálculo basado en ladistancia euclídea
54
Booleano extendido Los sub-modelos que se pueden
aplicar dentro del booleano extendido son: MMM (Mixed Min and Max) Paice P-Norm
Toman la idea de la lógica difusa que: dab=min(da,db) dab=max(da,db)
55
Booleano extendido MMM
Suaviza los operadores booleanos en el cálculo de relevancia para una consulta
)...()...(
21
21
nand
nor
kkkqkkkq
),...,,max(),...,,min(),(
),...,,min(),...,,max(),(
212211
212211
njjjandnjjjandjand
njjjornjjjorjor
wwwCwwwCdqsim
wwwCwwwCdqsim
2.0];8.0,5.0[1;1
11
2121
orand
andandoror
CCCCCC
56
Booleano extendido Paice
Muy similar una generalización al MMM. En lugar de considerar sólo los pesos máximo y mínimo para cada documento, considera todos los pesos:
n
i
i
n
iij
i
j
r
wrdqsim
1
1
1
1
),(
wij en orden descendente para ORy en orden ascendente para AND
r=1 para ANDr=0.7 para OR
n=2 al MMM
57
Booleano extendido P-Norm
Generaliza el cálculo basado en distancia euclídea extendiéndola a ‘distancia-p’.
Los operadores también tienen pesos, p[1,[ (coeficientes para indicar que son más o menos estrictos)
p=1 indica relajación, p=infinito indica obligación.
58
Booleano extendido
)...(
)...(
21
21
nppp
and
nppp
or
kkkq
kkkq
ppn
pp
jand
ppn
pp
jor
nxxxdqsim
nxxxdqsim
1
21
1
21
1...111),(
...),(
59
Booleano extendido Comparación de los sub-modelos:
Funcionan mejor cuando AND se interpreta de forma estricta, y OR se interpreta de forma menos estricta.
Son más efectivos que el booleano, pero también son computacionalmente más caros.
Los costes computacionales son: MMM < Paice < P-Norm
La eficiencia es: MMM < Paice < P-Norm
60
EV Generalizado Se supone que no tiene porque haber
independencia entre términos. Se descomponen los vectores (documentos)
en otros que son ortogonales (independientes).
Refleja el hecho de que términos co-ocurrentes están relacionados, y por tanto los vectores términos no tienen porque ser independientes.
Computacionalmente es más costoso, y no está demostrada una mejora clara.
61
Latent Semantic Indexing Plantea el problema de la indexación
usando términos: Documentos relevantes que no contengan
términos no serán recuperados Documentos que contengan los términos, pero
que no sean relevantes, serán recuperados. Se presenta la idea de utilizar conceptos en
lugar de términos para representar documentos y consultas.
Se mapean los vectores d y q en un espacio dimensional inferior de conceptos.
62
Redes Neuronales Es una buena técnica aplicada al
reconocimiento de patrones (ejemplo: OCR).
Cerebro = Conjunto de neuronas. Neurona = Unidad de procesamiento. Neurona tiene señal de entrada y señal de
salida. Redes de neuronas que interactúan con
señales. Se representan como grafos.
63
Redes Neuronales Cada nodo del grafo es una neurona,
y cada arco es una conexión sináptica. Los arcos tienen pesos, y los nodos
estados de activación. Según el estado de activación, el nodo
A puede enviar una señal al nodo B, con una intensidad que dependerá del peso del arco que une los nodos.
64
Redes Neuronales Ejemplo:
ka
kb
kc
k1
ka
kb
kc
kt
d1
dj
dj+1
dN
ConsultaTérminos Documentos
65
Redes Neuronales Los nodos consulta inician el proceso de
inferencia. Envían señales a los nodos término. Los nodos término envían señales a los nodos documento.
Los nodos documento pueden generar señales para los nodos término, los cuales pueden volver a enviar una señal a otros nodos documento.
El resultado es que se pueden recuperar documentos que no contengan términos de la consulta.
66
Redes bayesianas Redes de inferencia y Redes de
confianza. Basado en las redes bayesianas,
son una extensión de la aplicación de la teoría de la probabilidad a la RI.
Las redes de confianza generalizan las redes de inferencia.
67
Modelos estructurados Modelos de este tipo son:
Listas no solapadas Nodos próximos
Tratan de combinar la información del contenido del texto con la estructura del texto.
Se pierde la noción de relevancia, y estamos ante un data retrieval.
68
Modelos estructurados Ejemplo:
Un usuario tiene mucha memoria visual. Recuerda un documento donde aparece ‘holocausto atómico’ en cursiva, cerca de una imagen que tiene en la etiqueta la palabra ‘tierra’.
same-page(near(‘holocausto atómico’, Figure(etiqueta(‘tierra’)))
Se recuperarán aquellos documentos que satisfagan exactamente la consulta, por tanto no hay orden de relevancia en los resultados.
69
Modelos estructurados Aunque no se proporciona escala de
relevancia, este es un tema de investigación hoy en día, y se pude conseguir una relevancia parcial.
Cuanto más expresivo es el lenguaje de consulta, más ineficiente resulta.
Los documentos se estructuran en nodos (secciones), que pueden conocer tanto el autor como el usuario que busca.
70
Listas no solapadas Se divide el texto en zonas no solapadas,
y se forma una lista. Se generan múltiples listas atendiendo a
diferentes criterios de división. Cada lista se mantiene en una estructura
de datos diferente. Aunque dentro de una lista no se puedan
solapar regiones, sí que puede existir solapamiento de regiones en distintas listas.
71
Listas no solapadas
L0
L1
L2
L3
Capítulo
Sección
Subsección
Párrafo
72
Listas no solapadas Para resolver las búsquedas se usa un solo
fichero invertido donde cada componente estructural es una entrada en el índice.
Con cada índice se asocia una lista de regiones como ocurrencias.
El índice se puede combinar con el clásico fichero invertido que contiene las entradas de términos en los documentos.
73
Nodos próximos Es una generalización de las listas
no solapadas. Establece una jerarquía de regiones. Las búsquedas sobre las jerarquías
se pueden restringir a nodos próximos si se ha encontrado alguna coincidencia previa.
74
Nodos próximos
L0
L1
L2
L3
Capítulo
Sección
Subsección
Párrafo