Redes neuronales final

15
Reconocimiento de Huellas Digitales Presentación final Project Vote Redes Neuronales Carmen – Daniel Adán - Sergio

Transcript of Redes neuronales final

Page 1: Redes neuronales final

Reconocimiento de Huellas DigitalesPresentación final

Project Vote

Redes NeuronalesCarmen – Daniel

Adán - Sergio

Page 2: Redes neuronales final

Reconocimiento de Huellas Digitales

• En esta entrega se presentan las mejoras implementadas tanto en la red neuronal y en el procesamiento de huellas para su identificación.

Page 3: Redes neuronales final

Red Neuronal - Implementaciones

• Implementación de perceptrón simple (una sola neurona)

• La primera mejora con que cuenta esta nueva versión es que la neurona ya es manipulada como un objeto, lo que permite una mejor implementación de sus propiedades.

• Se terminó de implementar el conteo de total de aciertos y errores de la neurona en el total de corridas que el usuario haya definido al ejecutar el script.

Page 4: Redes neuronales final

• Otra de las principales mejoras conforme a la red implementada en medio curso es que ahora para esta implementación quedó atrás del uso de listas y en su lugar se hizo uso de la librería Numpy, la cual es especializada en el manejo de vectores. Y con la cual se comprobaron las facilidades que ofrece ésta en cuanto al uso y la manipulación de los mismos (vectores).

Page 5: Redes neuronales final

Otra característica que se mejoró es que ahora el usuario decide cuántas pruebas quiere que corra el script, esto para observar el desempeño del aprendizaje de la neurona. Mientras más pruebas se realicen, más notorio es este aprendizaje de la neurona.• Finalmente en la funcionalidad se logró

comprobar que al volver a ejecutar el script después de una primera ejecución, el aprendizaje de la neurona es más exacto que en la ejecución anterior.

Page 6: Redes neuronales final

Evidencia de aprendizaje

Page 7: Redes neuronales final

Mejoras Implementadas en cuanto a manipulación de huellas• Originalmente, al crear esto el archivo podría

contener grandes espacios de color blanco, es decir, unos en las orillas ya que varias imágenes contenían espacios en blanco a los lados. Aplicando la reducción se lograron eliminar esas filas para un mejor y más veloz procesamiento de los archivos al momento de comparar.

• Con esto mejoramos el procesamiento y la velocidad de los archivos.

Page 8: Redes neuronales final

Identificación de personas

• Se logró identificar a las personas por medio de los archivos generados comparándolos con los que ya están en la base de datos.

• Cada archivo tiene un nombre y se ingresa un archivo desconocido, con este archivo desconocido se comparan y regresar como resultado la coincidencia encontrada.

Page 9: Redes neuronales final

Red neuronal multicapa

Función de sigmoidal. La función de tangente hiperbólica se utiliza para obtener valores en el intervalo [-1,1] permite que la función se considere simétrica y que la red aprenda más rápido.

Page 10: Redes neuronales final

Red neuronal multicapa

Aquí se muestran las funciones de activación para las capas ocultas y las salidas utilizando la función tangente hiperbólica. Se saca la sumatoria del producto pesos y entradas y se le aplica la función.

Page 11: Redes neuronales final

Red neuronal multicapa

Función derivada de sigmoidal. Se utiliza para la fórmula del gradiente el cual es igual al producto del error que esta neurona genera y la derivada de la función de activación asociada.

Page 12: Redes neuronales final

Red neuronal multicapa

Para la capa de salida, se calculan los términos de error para la capa de salida, utilizando la regla delta que se define por el producto de la derivada de la función de activación por la diferencia del valor esperado y la función de activación

Page 13: Redes neuronales final

Red neuronal multicapa

En caso de la capa oculta, el error que se genera es desconocido, por lo tanto se debe emplear otro tipo de análisis que permita al algoritmo determinar el valor adecuado de delta en cada peso para que el error a la salida sea mínimo.Se dice entonces que el error se debe propagar de la capa de salida hacia la capa de entrada, por esto el algoritmo se llama back propagation.

Page 14: Redes neuronales final

Red neuronal multicapa

Page 15: Redes neuronales final

Problemas presentadosDebido a retrasos en la implementación de los datos recibidos por las huellas no pudimos entrenar nuestra red con dichos datos y nos limitamos meramente a probar el funcionamiento de tanto red como tratamiento de huellas por separado esperando poder implementar esta conjunción para la clase de Proyecto Integrador 2 (en caso que no muera el proyecto).