Las Redes Neuronales como complemento al Análisis de Componentes Principales

Post on 10-Jan-2016

32 views 1 download

description

Las Redes Neuronales como complemento al Análisis de Componentes Principales. Ángel Berihuete Francisco Álvarez. Curso de doctorado 99-00 Principios de 1999. N.N. C.P.A. (Transformación Karhunen-Loève). Problema común en el reconocimiento de patrones estadísticos: Extracción de variables. - PowerPoint PPT Presentation

Transcript of Las Redes Neuronales como complemento al Análisis de Componentes Principales

Las Redes Neuronales como complemento al Análisis de Componentes Principales

Ángel Berihuete

Francisco Álvarez

C.P.A.(Transformación Karhunen-Loève)

Problema común en el reconocimiento de patrones estadísticos: Extracción de variables.

El espacio de de datos es transformado a un espacio de características.

Los datos están representados por el conjunto de variables que aportan mayor información intrínseca

Producimos una reducción de la dimensionalidad

N.N.

• Distintas topologías de Red Neuronal:

• Perceptrón (multicapa)

• S.O.M.

• Hopfield

• Aprendizajes:

• Supervisado

• No supervisado

Curso de doctorado 99-00

Principios de 1999

Topología de la red

Aprendizaje de la redSe actualizan los pesos de la red neuronal para conseguir la función deseada.

Curso de doctorado 00-01

Francisco Álvarez

Andrés Jiménez

Ángel Berihuete

• Problema común en el reconocimiento de patrones estadísticos: Extracción de variables.

• El espacio de de datos es transformado a un espacio de características.

• El conjunto está representado por el conjunto de variables con mayor información intrínseca

• Generamos una reducción de la dimensionalidad

• Distintas topologías de Red Neuronal:

• Perceptrón (multicapa)

• S.O.M.

• Mapas autoorganizados de Kohonen

• Aprendizajes:

• Supervisado

• No supervisado

¡Estamos de enhorabuena!

Una sola neurona lineal con un aprendizaje del tipo Hebb para sus pesos, puede evolucionar en un filtro para la primera componente principal de los datos. (Oja, 1982)

Generalización: Algoritmo G.H.A.

Red con dos niveles Red Progresiva Cada neurona en la capa de salida es lineal. l < m El aprendizaje es de tipo Hebbian Los pesos tienden a las componentes

principales de los datos

Abril de 2001Implementamos el algoritmo en Matlab

213

100

8

56

25

34

255

0

2 iteraciones 100 iteraciones 2000 iteraciones

¿Cómo aprende la red?

Reconstruyendo la imagen

21 3 100 256 25 69 101 12

• Ratio de compresión.

• Error mínimos cuadrados.

• Almacenamos la matriz de pesos para un una nueva foto.

Mejora del algoritmo: Filtro de Entropía

Seleccionamos los datos que tienen mayor entropía relativa dentro de la imagen.

• Menor tiempo de computación.• Obtenemos un error de mínimos cuadrados menor.

Nuevas líneas de investigación

• Análisis de Componentes Independientes.• Teoría de la información.• Programación en hardware paralelo.