2. Reconocimiento de Huellas
Digitales
• En esta entrega se presentan las mejoras
implementadas tanto en la red neuronal y en el
procesamiento de huellas para su identificación.
3. Red Neuronal - Implementaciones
• Implementación de perceptrón simple (una sola
neurona)
• La primera mejora con que cuenta esta nueva
versión es que la neurona ya es manipulada como
un objeto, lo que permite una mejor
implementación de sus propiedades.
• Se terminó de implementar el conteo de total de
aciertos y errores de la neurona en el total de
corridas que el usuario haya definido al ejecutar
el script.
4. • Otra de las principales mejoras conforme a la red
implementada en medio curso es que ahora para
esta implementación quedó atrás del uso de listas
y en su lugar se hizo uso de la librería Numpy, la
cual es especializada en el manejo de vectores. Y
con la cual se comprobaron las facilidades que
ofrece ésta en cuanto al uso y la manipulación de
los mismos (vectores).
5. Otra característica que se mejoró es que ahora el
usuario decide cuántas pruebas quiere que corra el
script, esto para observar el desempeño del
aprendizaje de la neurona. Mientras más pruebas
se realicen, más notorio es este aprendizaje de la
neurona.
• Finalmente en la funcionalidad se logró
comprobar que al volver a ejecutar el script
después de una primera ejecución, el aprendizaje
de la neurona es más exacto que en la ejecución
anterior.
7. Mejoras Implementadas en cuanto
a manipulación de huellas
• Originalmente, al crear esto el archivo podría
contener grandes espacios de color blanco, es
decir, unos en las orillas ya que varias imágenes
contenían espacios en blanco a los lados.
Aplicando la reducción se lograron eliminar esas
filas para un mejor y más veloz procesamiento de
los archivos al momento de comparar.
• Con esto mejoramos el procesamiento y la
velocidad de los archivos.
8. Identificación de personas
• Se logró identificar a las personas por medio de
los archivos generados comparándolos con los
que ya están en la base de datos.
• Cada archivo tiene un nombre y se ingresa un
archivo desconocido, con este archivo
desconocido se comparan y regresar como
resultado la coincidencia encontrada.
9. Red neuronal multicapa
Función de sigmoidal. La función de tangente hiperbólica
se utiliza para obtener valores en el intervalo [-1,1]
permite que la función se considere simétrica y que la red
aprenda más rápido.
10. Red neuronal multicapa
Aquí se muestran las funciones de activación para las
capas ocultas y las salidas utilizando la función tangente
hiperbólica. Se saca la sumatoria del producto pesos y
entradas y se le aplica la función.
11. Red neuronal multicapa
Función derivada de sigmoidal. Se utiliza para la fórmula
del gradiente el cual es igual al producto del error que esta
neurona genera y la derivada de la función de activación
asociada.
12. Red neuronal multicapa
Para la capa de salida, se calculan los términos de error
para la capa de salida, utilizando la regla delta que se
define por el producto de la derivada de la función de
activación por la diferencia del valor esperado y la función
de activación
13. Red neuronal multicapa
En caso de la capa oculta, el error que se genera es desconocido, por lo
tanto se debe emplear otro tipo de análisis que permita al algoritmo
determinar el valor adecuado de delta en cada peso para que el error a
la salida sea mínimo.Se dice entonces que el error se debe propagar de
la capa de salida hacia la capa de entrada, por esto el algoritmo se
llama back propagation.
15. Problemas presentados
Debido a retrasos en la implementación de los datos recibidos por las
huellas no pudimos entrenar nuestra red con dichos datos y nos
limitamos meramente a probar el funcionamiento de tanto red como
tratamiento de huellas por separado esperando poder implementar
esta conjunción para la clase de Proyecto Integrador 2 (en caso que no
muera el proyecto).