Estrategia de prompts, primeras ideas para su construcción
Conceptos básicos de reconocimiento facial
1. INTEGRATES: JOSE LUIS FERNÁNDEZ BYRON FIGUEROA CESAR AUGUSTO PESANTEZ Tema: Conceptos básicos de procesamiento digital de imágenes y reconocimiento facial.
2. En la actualidad están muy difundidos los temas acerca de programas para el reconocimiento facial, mediante el procesamiento digital de imágenes; ¿Pero cómo es que funciona esta tecnología? Se utiliza herramientas de software para la realización de procesamiento de imágenes, en la actualidad OPENGL es una librería gráfica que nos ayudara para procesar. INTRODUCCION
3. Fundamentos Teóricos de Imágenes Percepción de colores Imágenes digitales Representación de colores en imágenes digitales Resolución de las imágenes digitales
4.
5. Conos.-los conos le permiten al cerebro percibir la tonalidad de los colores. Percepción de colores
6. Existen tres tipos de conos: El primero es sensible a la luz rojo/naranja el segundo es sensible a la luz verde el tercero es sensible a la luz azul/violeta Tipos de Conos
7. Debido a esta respuesta fisiológica, el ojo puede percibir una amplia gama de tonalidades por medio de la variación de solo tres colores: rojo verde y azul. Percepción de colores
8. La digitalización de imágenes es el proceso por medio del cual se convierte una imagen en un formato interpretable por las computadoras. Una imagen digital se puede obtener utilizando cámaras fotográficas digitales, escáneres, etcétera. Una imagen digital es un arreglo de dos dimensiones de píxeles (pictureelement) y un píxel es la unidad mínima que conforma una imagen digital. Imágenes digitales
9. En las imágenes digitales los colores primarios son el rojo (Red), el verde (Green) y el azul (Blue) y se utilizan las intensidades de luz para obtener nuevos colores. Esto dio lugar al sistema RGB. En imágenes digitales de color verdadero, se utilizan 8 bits (1 byte) para representar la intensidad de cada componente o canal de color, y por ser 3 componentes por color, se necesitan 24 bits (3 bytes) para formar un solo color, lo que es equivalente a un píxel. El sistema RGB no es el único utilizado en las imágenes digitales. Representación de colores en imágenes digitales
10. Otro sistema es el CMY (Cyan, Magenta, Yellow) utilizado para los medios impresos, expresa las intensidades de los colores cian, magenta y amarillo, es un sistema sustractivo porque el color negro se logra mezclando los tres colores y el blanco es la ausencia de color. Otro sistema es el YUV, que fue adoptado por NationalTelevisionSystemCommitee (NTSC) para la transmisión de señales de televisión a color. Su propósito es hacer uso de las características del ojo humano para maximizar la utilización de un ancho de banda definido. El sistema visual humano es más sensible a los cambios de intensidad del color que a los cambios de la tonalidad. Representación de colores en imágenes digitales
11. La resolución es un factor que se utiliza para convertir las dimensiones de una imagen física a píxeles de una imagen digital y viceversa. Si una fotografía es digitalizada a 300 dpi (Dots Per Inch) o puntos por pulgada, significa que por cada pulgada de la fotografía física original se van a obtener 300 píxeles en la imagen digitalizada. Si se imprime una imagen a 75 dpi, quiere decir que por cada 75 píxeles se imprimirá una pulgada sobre papel. Resolución de las imágenes digitales
12. La función diferencia es la base del reconocimiento de imágenes Existen diversas estrategias para reconocimiento de imágenes digitales de acuerdo al tipo de aplicación y de los recursos del sistema. Utilizando los conceptos derivados del OCR (OpticalCharacterRecognition), el primer paso para comparar dos imágenes se vectoriza cada imagen y cada cuadro para luego, comparar las formas de los objetos resultantes. Reconocimiento de imágenes
13. Método lineal La distancia D entre dos píxeles está dada por: D = (DR) + (DG)+ (DB) Esta distancia es calculada por cada píxel y por cada canal de color en las imágenes comparadas. Reconocimiento de imágenes
14. Método cuadrático Se puede acentuar el efecto de la diferencia de cada píxel utilizando una diferencia cuadrática o distancia euclidiana. D = (DR2 ) + (DG2 ) + (DB2 ) Como el objetivo es encontrar un valor significativo que nos indique que tan diferentes son dos imágenes, podemos eliminar el cálculo de la raíz cuadrada debido al siguiente teorema matemático: Si a2 > b2 entonces a > b Reconocimiento de imágenes
15. Método Cuadrático. Este requiere más procesamiento que el método lineal pero es el más utilizado por la calidad de sus resultados. Puede acentuarse aún más la diferencia utilizando diferentes potencias en la fórmula, pero usualmente no es necesario. En estos métodos presentados, se asume que las dos imágenes – parámetro tienen las mismas dimensiones y que cada píxel está compuesto por tres canales de color RGB. Reconocimiento de imágenes
16. Método Compuphase El grupo de investigación Compuphase en Holanda, determinó experimentalmente una fórmula que se aproxima mejor a nuestra percepción de colores. D = {(2* DR2 ) + (4 *DG2 ) + (3* DB2 )} Este método requiere mucho más capacidad de procesamiento que los dos anteriores y sus resultados no difieren mucho, por lo que debe utilizarse solo si se requiere de mayor precisión en la selección de imágenes. Reconocimiento de imágenes
17. la clasificación puede ser: supervisada, parcialmente supervisada no supervisada. Clasificación de Patrones
18. También es conocida como clasificación con aprendizaje. Se basa en la disponibilidad de áreas de entrenamiento. Se trata de áreas de las que se conoce a priori la clase a la que pertenecen y que servirán para generar una signatura espectral característica de cada una de las clases. Se denominan clases informacionales en contraposición a las clases espectrales que genera la clasificación no supervisada. Clasificación supervisada
19. También conocida como de aprendizaje parcial. En éstos problemas existe una muestra de objetos sólo en algunas de las clases definidas. Clasificación parcialmente supervisada
20. también conocida como clasificación sin aprendizaje. Se utilizan algoritmos de clasificación automática multivariante en los que los individuos más próximos se van agrupando formando clases. Clasificación no supervisada
21. Lo sistemas de reconocimiento facial están englobados dentro de las técnicas FRT (FaceRecognitionThecniques). Estas técnicas de aproximación al reconocimiento facial, pueden clasificarse en dos categorías según el tipo de aproximación holística o analítica. La aproximación holística (método de las eigenfaces) considera las propiedades globales del patrón, mientras que la segunda (eingenfeautres) considera un conjunto de características geométricas de la cara. Reconocimiento Facial
22. Detección comprende localizar la cara humana dentro de una imagen capturada por una video cámara y tomar esa cara y aislarla de los otros objetos en la imagen. Reconocimiento comprende en comparar la imagen facial capturada con imágenes que han sido guardadas en una base de datos. La tecnologia de reconocimiento básico involucra tanto a los 'eigenfeatures' (métrica facial, tecnicaanalitica) como a los 'eigenfaces‘(tecnicaholistica). Reconocimiento Facial
23. Videosurf: Es una aplicación que nos permitirá reconocer vídeos que estemos viendo. TinEye: Es un motor de búsqueda de imágenes. Facebook: tiene un programa de reconocimiento facial que permitirá agilizar el intercambio de imágenes entre los usuarios de la red social Google Goggles: Es una aplicación que nos facilita las búsquedas por medio de imágenes tomadas por la cámara del móvil. Aplicaciones de esta tecnología
24. Para entender lo que es el procesamiento digital de imágenes y reconocimiento facial tenemos que tener conceptos básico de la percepción de colores, que es una imagen digital, de que se trata la representación de colores en imágenes digitales, resolución de imágenes digitales, que técnicas se aplican para el reconocimiento de imágenes, que es el reconocimiento facial, y que tipo de tecnología se aplica para le reconocimiento facial. Resumen
25. R. Chellappa, C.L. Wilson, and S. Sirohey, “Human and machine recognition of faces: A survey,” Proc. IEEE, vol. 83, pp. 705–740, 1995. W. Zhao, R. Chellappa, A. Rosenfeld, and P.J. Phillips, “Facerecognition: A literaturesurvey,” CVL TechnicalReport, University of Maryland, 2000, <ftp://ftp.cfar.umd.edu/TRs/CVLReports 2000/TR4167-zhao.ps.gz> http://www.opengl.org/documentation/ http://www.face-rec.org Bibliografía