SlideShare una empresa de Scribd logo
1 de 118
Tema 11: reconocimiento de
objetos.
Tema presentado por: Jesualdo Ros, Gonzalo
García, Federico Sogorb y Luis Belzunce.
Antes de empezar...


¿Cuál es su origen?
¿Cómo funciona?
¿Para qué sirve? ¿Tiene algún uso?
Origen del reconocimiento
Diferenciación de características e identificación
de patrones para la clasificación.
Origen del reconocimiento
Diferenciación de características e identificación
de patrones para la clasificación.
Origen del reconocimiento
Diferenciación de características e identificación
de patrones para la clasificación.
Funcionamiento

Obtención de una
imagen por parte de
una cámara.
Procesado de la
imagen.
Reconocimiento de
patrones.
Funcionamiento

Obtención de una
imagen por parte de
una cámara.
Procesado de la
imagen.
Reconocimiento de
patrones.
Funcionamiento

Obtención de una
imagen por parte de
una cámara.
Procesado de la
imagen.
Reconocimiento de
patrones.
Utilidad

Identificación de
patrones para la
distinción de unos
objetos de otros.
Utilidad

Identificación de
patrones para la
distinción de unos
objetos de otros.
Utilidad

Identificación de
patrones para la
distinción de unos
objetos de otros.
¿Qué es?
Disciplina científica con un objetivo.
Clasificación de objetos en clases.
Se puede enfocar de tres formas:
    estadística.
    sintáctica o estructural.
    de redes neuronales.
Enfoques
Estadístico (o de la teoría   Sintáctico se basa en las
de decisión) & de redes       relaciones geométricas.
neuronales se basan en
                              Relaciones que van
lo mismo.
                              asociadas a la forma de
Extraer sus propiedades,      los objetos.
de forma cualitativa.
Esquema de un sistema de
reconocimiento.
Esquema de un sistema de
reconocimiento.
                  Fase de funcionamiento.




Fase de diseño.
Esquema de un sistema de
reconocimiento.
                                Fase de funcionamiento.




Fase de diseño.
                  Conjunto de
                   muestras
Esquema de un sistema de
reconocimiento.
                                                  Fase de funcionamiento.




Fase de diseño.
                  Conjunto de    Selección de
                   muestras     características
Esquema de un sistema de
reconocimiento.
                                                  Fase de funcionamiento.




Fase de diseño.
                  Conjunto de    Selección de          Diseño del clasificador:
                   muestras     características        funciones de decisión.
Esquema de un sistema de
reconocimiento.
                                                  Fase de funcionamiento.
Imagen digital




Fase de diseño.
                  Conjunto de    Selección de          Diseño del clasificador:
                   muestras     características        funciones de decisión.
Esquema de un sistema de
reconocimiento.
                                                   Fase de funcionamiento.
Imagen digital



Preprocesamiento




Fase de diseño.
                   Conjunto de    Selección de          Diseño del clasificador:
                    muestras     características        funciones de decisión.
Esquema de un sistema de
reconocimiento.
                                                    Fase de funcionamiento.
Imagen digital



Preprocesamiento        Segmentación




Fase de diseño.
                   Conjunto de     Selección de          Diseño del clasificador:
                    muestras      características        funciones de decisión.
Esquema de un sistema de
reconocimiento.
                                                    Fase de funcionamiento.
Imagen digital



                                          Extracción de
Preprocesamiento        Segmentación
                                          características




Fase de diseño.
                   Conjunto de     Selección de             Diseño del clasificador:
                    muestras      características           funciones de decisión.
Esquema de un sistema de
reconocimiento.
                                                    Fase de funcionamiento.
Imagen digital



                                          Extracción de
Preprocesamiento        Segmentación                             Clasificador
                                          características




Fase de diseño.
                   Conjunto de     Selección de             Diseño del clasificador:
                    muestras      características           funciones de decisión.
Esquema de un sistema de
reconocimiento.
                                                    Fase de funcionamiento.
Imagen digital



                                          Extracción de
Preprocesamiento        Segmentación                             Clasificador
                                          características




Fase de diseño.
                   Conjunto de     Selección de             Diseño del clasificador:
                    muestras      características           funciones de decisión.
Segmentación.

Dividir una imagen para aislar nuestro objeto.
Objetivo: simplificar la representación de la imagen
para un mejor estudio de la misma.
Etiquetado de pixeles con las mismas características
para agrupar sus propiedades.
Extracción de características

 Transformar la imagen de un objeto en un vector que
 defina sus cualidades, normalmente físicas.
 ¿Es el dato relevante?
 Los datos poco relevantes se eliminan para no interferir
 en el modelo.
Propiedades de las
características a extraer.
 Robustez: insensible al
 ruido de captura e
 iluminación.
 Discriminantes: que
 distingan objetos de
 distintas clases.
 Invariante ante
 traslación, rotación y
 escalado y perspectiva.
Propiedades de las
características a extraer.
 Robustez: insensible al
 ruido de captura e
 iluminación.
 Discriminantes: que
 distingan objetos de
 distintas clases.
 Invariante ante
 traslación, rotación y
 escalado y perspectiva.
Propiedades de las
características a extraer.
 Robustez: insensible al
 ruido de captura e
 iluminación.
 Discriminantes: que
 distingan objetos de
 distintas clases.
 Invariante ante
 traslación, rotación y
 escalado y perspectiva.
Un ejemplo...




Una posible utilización la vemos en el
reconocimiento de textos, en este caso tenemos
el patrón de las letras y comparamos con este
patrón el vector de atributos que obtenemos de
la imagen.
Clasificador

Partimos de un vector de atributos extraídos de la
imagen del objeto.
Clasifica las imágenes en las diferentes clases que se
contemplan.
Existen diferentes mecanismos de clasificación.
Diseño del clasificador.


 Algoritmos que toman la decisión de donde o como
 clasificar un objeto.
 El diseño más extendido es el de clasificadores por
 entrenamiento o aprendizaje máquina.
Algoritmos de decisión.
Clasificación.
Tipos de aprendizaje
automático
Aprendizaje deductivo
 Modelos generales           Modelo especifico

Aprendizaje inductivo
 Modelo especifico             Modelos generales

Aprendizaje por refuerzo
 Exploración autónoma y explotación de lo aprendido.
Aprendizaje inductivo

 El objetivo es generar
 un modelo general a
 partir de ejemplos
 específicos
 El conjunto de
 ejemplos se denomina
 conjunto de
 entrenamiento
Aprendizaje inductivo

 El objetivo es generar
 un modelo general a
 partir de ejemplos
 específicos
 El conjunto de
 ejemplos se denomina
 conjunto de
 entrenamiento
Concepto: Determinar el nuevo objeto a estudiar según
los atributos (hipótesis).

Instancia: Cada uno de los ejemplos de entrenamiento.

Atributo: Cada una de las medidas que forman el
vector de atributos de un ejemplo.
     Reales: Pueden tomar cualquier valor numérico en un rango.
     Discretos: Toman valores discretos ordenados: Por ejemplo la
     temperatura como alta, media o baja.
     Categóricos: Valores discretos no ordenados. Por ejemplo el color.

Clase: Es el atributo que buscamos determinar a partir
de los demás.
Ejemplo: modelado de la probabilidad
de fallo de una máquina.
  Clase: Comprobamos si falla.
  Atributos: Medidas por las que puede fallar:
      Temperatura.
      Nivel de Vibraciones.
      Horas de funcionamiento.
      Meses desde la última revisión.


  Instancias: Situaciones que han pasado anteriormente.
  Concepto: Relación entre las medidas y probabilidad de
  fallo. (IF-THEN)
Si el nivel de vibraciones es alto y la temperatura es alta,
entonces fallará.
Algoritmos de decisión.
Criterios de Selección del Modelo.
Capacidad de representación
y legibilidad.
 Capacidad de expresar varios conceptos diferentes.
 Frontera de decisión generada con cada modelo.
       Árboles de Decisión.
       Redes Neuronales.


 Facilidad con la que un humano puede leer e interpretar.
 A continuación, ejemplos con solo 2 atributos:
Árboles de decisión
Árboles de decisión
temp.




         vibración
Árboles de decisión
                          vibr.>120?
temp.




              fallará




        120   vibración
Árboles de decisión
                          vibr.>120?
                                       si
temp.




                                       F


              fallará




        120   vibración
Árboles de decisión
                                            vibr.>120?
                                       no                si
temp.




                                    temp.>95?            F
        fallará

95
                        fallará




                  120   vibración
Árboles de decisión
                                            vibr.>120?
                                       no                si
temp.




                                    temp.>95?            F
        fallará                                 si

95
                        fallará                 F



                  120   vibración
Árboles de decisión
                                                          vibr.>120?
                                                     no                si
temp.




                                                 temp.>95?             F
             fallará                                          si
                                            no
95
                             fallará     vibr.>70?            F
          no
        fallará



                  70   120   vibración
Árboles de decisión
                                                               vibr.>120?
                                                          no                si
temp.




                                                      temp.>95?             F
             fallará                                               si
                                                 no
95
                             fallará          vibr.>70?            F
          no                             no
        fallará
                                         NF
                  70   120   vibración
Árboles de decisión
                                                                     vibr.>120?
                                                                no                si
temp.




                                                            temp.>95?             F
             fallará                                                     si
                                                       no
95
                       fallará     fallará          vibr.>70?            F
          no                                   no               si
50      fallará
                                               NF           temp.>50?
                  70         120   vibración
Árboles de decisión
                                                                     vibr.>120?
                                                                no                si
temp.




                                                            temp.>95?             F
             fallará                                                     si
                                                       no
95
                       fallará     fallará          vibr.>70?            F
          no                                   no               si
50      fallará
                                               NF           temp.>50?
                  70         120   vibración            no                si

                                                                         F
Árboles de decisión
                                                                     vibr.>120?
                                                                no                si
temp.




                                                            temp.>95?             F
             fallará                                                     si
                                                       no
95
                       fallará     fallará          vibr.>70?            F
          no                                   no               si
50      fallará
                         no
                       fallará                 NF           temp.>50?
                  70         120   vibración            no                si

                                                       NF                F
Más facil de entender e interpretar.

Niveles altos, atributos importantes.

Rectas de las fronteras perpendiculares a los ejes.

Se pueden utilizar para proporcionar información.
Redes Neuronales

Fronteras más complejas.
Formado por grandes
tablas numéricas.
Imposibles de interpretar.
Se puede utilizar como
clasificador. No sirve para
proporcionar información.
Redes Neuronales

Fronteras más complejas.




                             temp.
Formado por grandes                        fallará
tablas numéricas.
                             95
                                                 fallará
Imposibles de interpretar.             no
                                                                 fallará

                             50      fallará
Se puede utilizar como                           no
clasificador. No sirve para                     fallará
proporcionar información.                      70          120   vibración
Computo ON-LINE

Tiempo necesario para clasificar un nuevo ejemplo.
      Árboles de Decisión: Tiempo para recorrer el árbol, evaluar las funciones
      de cada nodo una vez este clasificado.
      Redes Neuronales: Tiempo para realizar las operaciones incluidas en la
      red.
      Métodos Probabilísticos: Tiempo para calcular probabilidades.
Ejemplo
Tomamos imágenes aéreas tanto en el espectro visible
(RGB) como en el infrarrojo (I).
 Cada pixel tendrá un vector de 4 atributos.
 Según los atributos, cada pixel lo clasificamos.
        Río
        Montaña
        Coche
        Edificio

El tiempo de computo es muy importante al analizar
muchos pixeles.
Algoritmos de decisión.
Criterios de Selección del Algoritmo.
Computo OFF-LINE
Tiempo necesario para construir y/o ajustar el modelo
a partir de los ejemplos de entrenamiento.
      Árboles de Decisión: Tiempo necesario para elegir la estructura del árbol
      y los atributos a situar en cada uno de los nodos.
      Redes Neuronales: Tiempo necesario para ajustar los pesos de las
      conexiones.


Este tiempo no suele ser muy importante.
Consiste en generar el modelo, tarde lo que tarde.
Siempre que sea optimo y reduzca el tiempo ON-LINE.
Dificultad de ajustes de
parámetros.
 Muy fácil generar el modelo, ya que no hay parámetros
 que ajustar o que el modelo es poco sensible a la
 modificación de estos. (Árboles de decisión).
 Hay veces en los que hay que “podarlos”.
 Dificultades al ajustar el modelo para que nos de
 resultados óptimos, al disponer de muchos parámetros
 a ajustar o que es muy sensible a la modificación de
 los mismos. (Redes neuronales).
Robustez ante ejemplos de
entrenamiento ruidosos.
Base de datos muy grande, ejemplos mal etiquetados.
      Ejemplo: Maquina que no falló, etiquetada como que si lo hizo.


Los algoritmos de árboles de decisión o de redes
neuronales, pueden funcionar correctamente aunque
haya un porcentaje ruidoso en el conjunto.
Los algoritmos como el vecino más cercano, no
ofrecen buenos resultados.
Sobreajuste (OVERFITTING)

Problema muy común.
El modelo se ajusta demasiado a los ejemplos de
entrenamiento.
Es imposible generalizar.
Las fronteras de decisión muy complejas producen un
sobreajuste.
Correcta                   Sobreajustada
No consigue 100% de         Consigue el 100% de
clasificaciones correctas.   clasificaciones correctas.
Correctamente               Frontera artificial.
separadas.
Correcta                   Sobreajustada
No consigue 100% de         Consigue el 100% de
clasificaciones correctas.   clasificaciones correctas.
Correctamente               Frontera artificial.
separadas.
Correcta                   Sobreajustada
No consigue 100% de         Consigue el 100% de
clasificaciones correctas.   clasificaciones correctas.
Correctamente               Frontera artificial.
separadas.
Correcta                   Sobreajustada
No consigue 100% de         Consigue el 100% de
clasificaciones correctas.   clasificaciones correctas.
Correctamente               Frontera artificial.
separadas.
Correcta                   Sobreajustada
No consigue 100% de         Consigue el 100% de
clasificaciones correctas.   clasificaciones correctas.
Correctamente               Frontera artificial.
separadas.
Algoritmos de decisión.
Clasificación de los métodos.
Los métodos de aprendizaje inductivo se
clasifican en:

        Lazy                       Eager

 No construyen un         Construyen un modelo.
 modelo.
                          Parte del trabajo se hace
 Hacemos todo el          off-line, al recopilar todos
 procesamiento on-line.   los conjuntos de
                          entrenamiento.
 El vecino más cercano
 sería un ejemplo.        Como pueden ser los
                          árboles de decisión,
                          redes neuronales, etc.
Vecino más cercano
Clasificación
Vecino mas cercano
Consiste en...


 Modelo de clasificación inductivo basado en el método
 lazy
 No crea ningún modelo durante el entrenamiento, lo
 único que hace es almacenar en una base de datos los
 ejemplos de entrenamiento
 Consiste en clasificar elementos futuros únicamente
 comparando la instancia a clasificar con su lista de
 datos
Vecino mas cercano
Puede llevarse a cabo de dos formas:

 Clasificación directa con la instancia más cercana
 El nuevo ejemplo a clasificar se le asigna la clase de la
 instancia más cercana al mismo (1-NN).
 Clasificación teniendo en cuenta una región
 La nueva instancia debe ser clasificada según el
 máximo número de elementos de una clase dentro de
 una región (K-NN) donde K>1.
Vecino mas cercano
Aclaración

 En la gráfica aparecen       X2

 representados los                Instancias de entrenamiento
                                  
      Clase A
 ejemplos de                      
                                  
                                         Clase B
                                         Clase C
 entrenamiento que han            
                                  
                                         Nueva instancia por
                                       clasificar
 sido recopilados y de los
 cuales conocemos su
 clase, dentro del modelo
 tenemos introducido
 otro ejemplo, el cual
 deseamos clasificar
                                                          X1
Vecino mas cercano
Aclaración
 Método básico: solo un vecino 1-NN
          X2
                          Instancias de entrenamiento
                          
      Clase A
                          
      Clase B
                          
      Clase C
                          
      Nueva instancia por
                          
    clasificar




                                  Asignado el
                                  ejemplo mas
                                  cercano


                                                  X1
Vecino mas cercano
                             Si decidimos realizar una
                             clasificación la cuál no será
                             directamente el dato más
                             cercano, sino que se clasifica
                             según la clase que más se
                             repita dentro de una región,
Ejemplo aclaratorio          debemos dar valores al
                             parámetro K. Donde K debe ser
                             mayor que 1




                    X2
                         Instancias de entrenamiento
 K-NN                    
      Clase A
                         
      Clase B
 Asignamos la            
                         
                                Clase C
                                Nueva instancia por
 clase a la              
    clasificar

 mayoritaria de
 las K instancias
 mas cercanas                       Para este caso con k=5




                                                         X1
Vecino mas cercano
Ponderación de la función de distancia (K-NN)
 Consiste en dar mayor importancia a los vecinos más
 cercanos


 N: Numero de ejemplos de cada clase ponderados
 di: Distancia al ejemplo a clasificar
 Cuanto menor sea la distancia mayor será el factor de
 ponderación de la clase, damos más importancia a las
 distancias en un k-NN
Vecino mas cercano
Procedimiento de clasificación de una nueva instancia
                                                                         Normalmente distancias
 Calcular la distancia.                                                  euclídeas, pudiendo
                                                                         eliminar la raíz ya que
                                                                         busco la distancia mayor
                                                                         desde el ejemplo a
                                                                         clasificar hasta todos los
                                                                         ejemplos de
                                                                         entrenamiento
    Las distancias se miden en el espacio de atributos, por tanto trabajamos en
    tantas dimensiones como atributos tengamos.

 Elegir las K instancias más próximas y se asigna la clase
                                              Por tanto tenemos que calcular la distancia a
 mayoritaria entre las K instancias.          TODOS los ejemplos de entrenamiento, por
                                              tanto aunque tengamos un tiempo de computo
                                                            OFF-LINE corto, pues simplemente consiste en

 Por lo que hay que calcular la distancias a todos los ejemplos de
                                                            almacenar los datos, el tiempo de computo ON-
                                                            LINE es alto pues necesitamos medir para
                                                            TODOS los ejemplos que deseamos clasificar su
 entrenamiento (Alto tiempo de computo on-line)             distancia a TODAS las instancias de ejemplo


 Es importante la normalizaciónIMPORTANTE LA LOS
                              ES de los atributos (Atributos con
                              NORMALIZACIÓN DE
 mayor valor absoluto siempreATRIBUTOS CONQUE LOS sobre los demás)
                                prevalecen
                              ATRIBUTOS, YA
                                            MAYOR
                                       VALOR ABSOLUTO
                                       SIEMPRE PREVALECEN
                                       SOBRE LOS DEMÁS.
Vecino mas cercano
Ejemplo

  Weka hace uso de la siguiente formula para normalizar los
  atributos en el rango de 0 a 1



Teniendo en cuenta que poseemos la siguiente base de datos formada por 4
instancias (ejemplos de entrenamiento) donde cada una dice el una persona devuelve
                                              Menudo pastón cobra si
un préstamo según la edad y poder adquisitivo,abuelo
                                               determinar si una persona de 65 años
e ingresos de 25000€ devolverá el préstamo:

         Ejemplo          Salario           Edad   Devuelve el préstamo
                                                                  Aparentemente lo más
            1             100,000            55              Si   importante es la edad,
                                                                  por tanto inicialmente
            2             90,000             30             No    podríamos llegar a la
                                                                  conclusión que la clase del
            3             15,000             60              Si   ejemplo que deseamos
                                                                  clasificar sería SI, por
                                                                  tanto se le concedería el
            4             20,000             25             No    préstamo.
Vecino mas cercano
Ejemplo

Distancias:




 El ejemplo más cercano es el cuarto, por tanto la clase
 del ejemplo a clasificar sería que NO devolverá el
 préstamo
Vecino mas cercano
Reducir el tiempo de computo on-line


 Se reduce almacenando únicamente los elementos
 relevantes, normalmente los de la frontera

 Consiste en no guardar TODOS los ejemplos de
 entrenamiento, solo los más representativos que en
 principio son los que están cerca de la frontera entre 2
 clases
Vecino mas cercano
Características

  Capacidad de representación: Muy elevada, fronteras de decisión complejas.
  Legibilidad: Ninguna, no se crea modelo
  Tiempo de computo ON-LINE: Lento, es necesario calcular distancias a
  todos los ejemplos de entrenamiento.
  Tiempo de computo OFF-LINE: Rápido, solo el tiempo para almacenar todas
  las instancias de entrenamiento.
  Parámetros a ajustar: Solo el número de vecinos (K-NN)
  Robustez ante instancias de entrenamiento ruidosas:
     El 1-NN no es robusto.

     A medida que aumentamos K se vuelve más robusto

   Sobreajuste (overfitting): Es difícil que ocurra, más difícil con forme
  aumentamos K.
Arboles de decisión
Clasificación
Arboles de decisión
Consiste en...

  Dada una base de datos se construyen diagramas de
  construcciones lógicas, muy similares a los sistemas
  de predicción basados en reglas
  Se lee de arriba abajo y tienen las siguiente
  características:
         Representan funciones lógicas
(IF-THEN)
         Compuesto de nodos y ramas
         El NODO RAIZ es el nodo superior del árbol.
         Los nodos internos están formados por los atributos (medidas)
         Los nodos hojas están formados por las clases.
Arboles de decisión
Objetivo

   El objetivo en el aprendizaje automático consiste en la creación de un
   árbol de decisión a partir de un conjunto de instancias de entrenamiento
   Si partimos de un gráfico la obtención del árbol es sencilla ya que solo
   debemos satisfacer una serie de sentencias condicionales delalgoritmo
                                                          El ejemplo
                                                          un macabro
                                                                     gráfico es

                                                                                               para decidir quien
                                                                                               sobrevivirá cuando se
                                       Supervivientes del Titanic                              hunda el Titanic
Ingresos
                                                                                     Sexo
                                                                      Hombre                       Mujer


                         Sobrevive                                                             Sobrevive
                                                                      Edad
  20                                                   Edad<12                     Edad>12

           Sobrevive                                    Sobrevive
                                                                                    Ingresos
                        No sobrevive
                                                                 Ingresos<20                    Ingresos>20

           LAS SENTENCIAS IF-THEN PRODUCEN                          No sobrevive               Sobrevive
           FRONTERAS QUE TENGAN QUE SER
           PERPENDICULARES A LOS EJES
                  12                       Edad
Arboles de decisión
Entropía
 La entropía se utiliza para encontrar el parámetro más significativo
 en la caracterización de un clasificador.
 Consiste en obtener el porcentaje de ejemplos de cada clase que
 llega a cada nodo.                            Consiste en estimar cuanto de
                                                             separadas están las clases que me
                                        r                    llegan a un nodo esto consiste en
                                          i Porcentaje de instancias la Entropía, es decir, de
                                                             minimizar
                                         pertenecientes a la todos los ejemplos de
                                                             clase i
                                                             entrenamiento que me llegan a un
                                                             nodo habrá un número de ejemplos
                                         k  Numero de clases clasificados con una clase y otros
                                                             clasificados con las demás clases,
 Minimizar la Entropía consiste en que no haya mezclas de clases.
                                                             por tanto será mejor la elección de
                                                             un atributo, frente a otro, si
                                                             separa mejor las clases.
 La entropía será máxima si a un nodo le llega el mismo porcentaje
 de cada clase, si tenemos K clases:
Arboles de decisión
Ejemplo

 Partimos de un conjunto de entrenamiento formado por 7 instancias
 Las cuales definen si una máquina fallará o no, es decir, dos clases distintas.
                                          Horas de
  Temperatura   Nivel de vibraciones                    Meses desde revisión   Probabilidad de fallo
                                       funcionamiento

     ALTA              ALTO               <1000              > 1 MES                  fallará

     BAJA              BAJO               <1000              < 1 MES                no fallará

     ALTA              BAJO               >1000              > 1 MES                no fallará

     ALTA              BAJO               <1000              > 1 MES                no fallará

     BAJA              ALTO               <1000              > 1 MES                no fallará

     BAJA              ALTO               >1000              > 1 MES                  fallará

     ALTA              ALTO               <1000              < 1 MES                  fallará
Arboles de decisión
Ejemplo
                                                                               Nosotros lo haremos de
                                                                               forma visual pero el
   El siguiente paso es obtener una nueva tabla a partir de los ejemplos de entrenamiento donde
                                                                               algoritmo estudiará la
   podemos observar cuantas clases y de que tipo son, para cada atributo: entropía de cada
                                                                               atributo y decidirá su
                                                                               posición en los distintos
   Estudiando la base de datos para cada atributo se observa que el atributo que mejor separa un
                                                                               nodos
   número mayor de clases (Menor entropía) es el de
                                       Ya que existen tres vibraciones
                                                           de las
                                       siete instancias de
                                       entrenamiento definidas
                                       por Bajas Vibraciones, las
                                       cuales son de la misma              CLASE
       ATRIBUTO                  VALORES (ENTROPÍA NULA).
                                       clase
                                                                  fallará                  no fallaraá
                                    ALTO                            2                          2
     Temperatura
                                    BAJO                            1                          2
                                    ALTO                            3                          1
  Nivel de vibraciones
                                    BAJO                            0                          3
                                    < 1000                          2                          3
Horas de funcionamiento
                                    > 1000                          1                          1

                                   > 1 Mes                          2                          3
Meses desde la revisión
                                   < 1 Mes                          1                          1
Arboles de decisión
Ejemplo

Arbol hasta el momento:                         NIVEL DE
                                               VIBRACIÓN

                              ALTO                               BAJO


                              ?                               No fallará

                     No fallará 1 instancia                No fallará 3 instancia
                     Fallará    3 instancias               Fallará    0 instancias




  Por la derecha ya hemos acabado por que a la hojas solo le puede llegar
  una clase                                             ELECCIÓN DEL SIGUIENTE
                                                        ATRIBUTO TENIENDO EN
                                                                                     CUENTA QUE VAMOS A
  En cambio en la zona izquierda tenemos entropía distinta de cero, ya               ESTUDIAR LAS 4
                                                                                     INSTANCIAS QUE FALTAN
  que 25% de los ejemplos dice que la máquina fallara y el resto dice que            POR CLASIFICAR TENIENDO
                                                                                     EN CUENTA QUE LAS
  no.                                                                                VIBRACIONES SON ALTAS
Arboles de decisión
Ejemplo
Elección del siguiente atributo
                                                                  El siguiente atributo que
                                            CLASE
                                                                  aparte de reducir la entropía,
  ATRIBUTO       VALORES
                                                                  la minimiza en un mayor
                                  fallará           no fallaraá   número de casos es la
                                                                  Temperatura, por tanto
                  ALTO              2                   0
 Temperatura
                                                                  obtendríamos:
                  BAJO              1                   1
                                                                                      Nivel de vibración
                 < 1000             2                   1
   Horas de                                                                    ALTO                         BAJO
funcionamiento
                 > 1000             1                   0                    Temperatura             No fallará

                                                                   ALTO                    BAJO            (3,0)
                 > 1 Mes            2                   1
Meses desde                                                        Fallará                   ?
 la revisión
                 < 1 Mes            1                   0           (2,0)                  (1,1)
Arboles de decisión
Ejemplo
                                                                                                 Siguiendo con lo dicho hasta
                                                                                                 ahora, vamos acortando el
Elección del siguiente atributo                                                                  número de ejemplos d
                                                                                                 entrenamiento que no han sido
                                                                                                 clasificado, teniendo en cuenta
                                                                                               CLASE
        ATRIBUTO                VALORES                                                          que las vibraciones son ALTAS y
                                                                                 fallará         la temperatura BAJA, quedaría
                                                                                                               no fallaraá
                                                                                                 por clasificar 2 instancias de
                                     < 1000                                       0              entrenamiento 3
 Horas de funcionamiento
                                     > 1000                                       1                               0
                                   > 1 Mes                                        1                               1
  Meses desde la revisión
                                   < 1 Mes                                        0                               0



Arbol generado:                                     Nivel de vibración

                                             ALTO                         BAJO


                                       Temperatura                 No fallará

                            ALTO                         BAJO            (3,0)


                            Fallará                        Horas de
                                                        funcionamiento
                             (2,0)
                                              <1000                         >1000


                                     (1,0)    No fallará                   Fallará     (1,0)
Arboles de decisión     Mientras que el ID3 nunca produce
                        árboles demasiado grandes, sino
Poda (Pruning)          que dejan de crecer cuando TODOS
                        los nodos hoja contienen una sola
                        clase o cuando en un camino del
                        árbol se han utilizado todos los
                        atributos, el C4.5 puede repetir
                        atributos en el árbol               Hasta ahora hemos hablado de los

 Algoritmos utilizados para construir o ajustar el modelo
                                                            modelos de clasificación, pero
                                                            algunos de estos modelos poseen
                                                            distintitos algoritmos utilizados
 a partir de las instancias de entrenamiento                para construir o ajustar el
                                                            modelo a partir de las instancias
                                                            de entrenamiento, vamos a ver 2
                                                            algoritmos del clasificador que
      ID3: Atributos discretos. Deja de crecer cuando todos los nodos hoja
      contienen unas sola clase o cuando en un camino del árbol se han utilizado
      todos los atributos

      C4.5: Para atributos continuos o reales y discretos. Implementado en WEKA
      como J48. Puede repetir atributos en el árbol

 Un árbol demasiado grande puede producir
 sobreajuste, por tanto es necesario podar los árboles
Arboles de decisión
Poda (Pruning)

 Consiste en realizar un test estadístico que indica si el árbol
 podado funcionará previsiblemente mejor o peor que el árbol
 sin podar.
    Se considera el peor caso posible (peor situación posible dentro del
    rango previsible).
                                       El rango es mayor o menor en función de un parámetro que es
                                       ajustable denominado nivel de confianza que por defecto vale
    El rango es mayor o menor en función del nivel de confianza.
                                       0.25, es decir, estudia si es mejor podar un árbol para el 25%
                                       de los casos más desfavorables según una función de densidad
                                       de probabilidad gaussiana.

 Hay dos posibles tipos de poda:
    Reemplazo de un subárbol (un subárbol se sustituye por una hoja).
    Elevación de un subárbol (un subárbol se eleva en el árbol principal).
Arboles de decisión
Poda (Pruning)
                                                                             N1
              N1
                                         Elevación de
                                         un subárbol
     N2                N3                                          N2                  N4




 A        B        C            N4                             A         B        C*        D*

                            D        E

                                                          N1




                        Remplazo de                 A+B             N3


                        un subárbol
                                                               C              N4




                                                                         D             E
Arboles de decisión
Caracteristicas

  Capacidad de representación: No muy elevada, las superficies de decisión son
  siempre perpendiculares a los ejes.
  Legibilidad: Muy elevada, Uno de los mejores modelos en este sentido
  Tiempo de computo ON-LINE: Muy rápido, clasificar un nuevo ejemplo es tan sencillo
  como recorrer el árbol hasta alcanzar un nodo hoja.
  Tiempo de computo OFF-LINE: Rápido, tanto ID3 como C4.5 son algoritmos simples.
  Parámetros a ajustar: Fundamentalmente el nivel de confianza para la poda. Fácil de
  ajustar: el valor por defecto (25%) da buenos resultados.
  Robustez ante instancias de entrenamiento ruidosas: Robusto, cualquier ejemplo de
  entrenamiento ruidoso no va a afectar si hay suficientes instancias de entrenamiento.
  Sobreajuste (overfitting): No se produce siempre que se realice una poda del árbol
  C4.5.
Precisión del clasificador
Validación cruzada
Validación cruzada
Cross-validation
                                                                CROSS-VALIDATION




 Es una técnica utilizada para evaluar los resultados de
 un análisis estadístico y garantizar que son
 independientes de la partición entre datos de
 entrenamiento y prueba.                  Es una forma de
                                          Establecer si el modelo
                                                         generado funcionará mal


 Con la validación cruzada buscamos:                     Se utiliza en entornos
                                                         donde el objetivo principal
      Validar la solidez de un modelo determinado.       es la predicción y se quiere
                                                         estimar cómo de preciso
                                                         es un modelo que se
      Evaluar varios modelos de una instrucción única.   llevará a cabo a la
                                                         práctica.

      Generar varios modelos e identificar a continuación el mejor modelo
      basándose en estadísticas.
Validación cruzada
Consiste en...

 Consiste en repetir y calcular la media aritmética
 obtenida de las medidas de evaluación sobre
 diferentes particiones.
 Se calcula el porcentaje de aciertos sobre los datos no
 utilizados para generar el modelo para proporcionarnos
 una medida de cuan de preciso es. Por tanto el procedimiento
                                         de validación cruzada nos
                                         permite obtener una
                                         medida realista y utilizar
                                         todos los ejemplos de
                                         entrenamiento para
                                         generar el árbol
Validación cruzada
Consiste en...

 Consiste en repetir y calcular la media aritmética
 obtenida de las medidas de evaluación sobre
 diferentes particiones.
 Se calcula el porcentaje de aciertos sobre los datos no
 utilizados para generar el modelo para proporcionarnos
 una medida de cuan de preciso es. Por tanto el procedimiento
                                         de validación cruzada nos
                                         permite obtener una
                                         medida realista y utilizar

 Problema: No siempre tenemos un conjunto de
                                         todos los ejemplos de
                                         entrenamiento para
                                         generar el árbol
 entrenamiento grande
Validación cruzada
Pasos a seguir            Para generar por ejemplo
                          un árbol de decisión



1. Se divide los datos de entrenamiento en 10 grupos (por
   defecto) .
2. Separo un grupo y uso el resto (9) para generar el árbol,
   midiendo el porcentaje de clasificación del grupo que no ha
   sido utilizado para generar el árbol.
3. Repito el paso 2 para cada grupo
                                                      por tanto realizo el
                                                     paso 2 10 veces


4. Promedio todos los resultados, habiendo generado 10
   arboles
                                                                             No hay problema si el
5. El árbol definitivo se genera utilizando TODOS LOS GRUPOS.                 tiempo de computo OFF-
                                                                             LINE para generar el
                                                                             modelo es bajo como es
                                                                             en el caso de arboles de
                                                                             decisión
Clasificador bayesiano
Entrenamiento y decisión del clasificador
Razonamiento bayesiano
Clasificador bayesiano
 Enfoque probabilístico de la       Probabilidad de que un
 inferencia.                        patrón pertenezca a una
                                             clase
 Está basado en asumir que las
 incógnitas de interés siguen
 distribuciones probabilísticas.   Clase A             Clase C

 Se puede conseguir una
 solución óptima por medio de                Clase B
 estas distribuciones y datos
 observados.
Aprendizaje bayesiano
Consiste en...

 El aprendizaje se puede ver
 como el proceso de
                               Conocimiento previo
 encontrar la hipótesis más
 probable, dado un conjunto      Entrenamiento
 de ejemplos de
 entrenamiento y un
 conocimiento a priori sobre        Hipótesis
 la probabilidad de cada
 hipótesis.
                                  Clasificación
Aprendizaje bayesiano
Caracteristicas

 Cada ejemplo de entrenamiento afecta a la
                                                     Esto es más efectivo que
 probabilidad de las hipótesis.                      descartar directamente
                                                     las hipótesis
                                                     incompatibles.

 Se puede incluir conocimiento a priori:
   Probabilidad de cada hipótesis

   Distribución de probabilidades de los ejemplos.

 Una nueva instancia es clasificada como función de la
 predicción de múltiples hipótesis, ponderadas por sus
 probabilidades.
Teorema de Bayes
                                                    En la teoría de la probabilidad el
                                                    teorema de Bayes es un resultado
                                                    enunciado por Thomas Bayes en
                                                    1763 que expresa la probabilidad
                                                    condicional de un evento aleatorio A
                                                    dado B en términos de la distribución
                                                    de probabilidad condicional del evento
                                                    B dado A y la distribución de
                                                    probabilidad marginal de sólo A.

        Termino a calcular para     Termino a calcular a partir de
      clasificar un nuevo ejemplo   los ejemplos de entrenamiento

                                                 Thomas Bayes (Londres, Inglaterra, 1702 -
                                                 Tunbridge Wells, 1761) fue un matemático
 h Hipótesis (Objeto)                            británico.




 D Conjunto de valores de los atributos
Teorema de Bayes
Probabilidades

  P(h) Probabilidad a priori de un de los objetos
  P(D) Probabilidad a priori de que los atributos
 tengan unos ciertos valores
 P(h|D) Probabilidad a posteriori de que una instancia
                                        P(h|D)
                                        Dado que los atributos
                                        muestran ciertos valores.
 pertenezca a una clase                 Este es el dato a obtener para
                                        clasificar una nueva
                                        instancia

 P(D|h) Probabilidad a posteriori de que los atributos
 posean unos ciertos valores            P(D|h)
                                        Dado que la instancia
                                        pertenece a una cierta
                                        clase
Teorema de Bayes
Calculo de probabilidades

   P(h) La probabilidad a priori de una clase se puede
                                                    P(h)

   calcular como el porcentaje de ejemplos de
                                                    Fácil de calcular
                                                    Suponiendo que los
                                                    ejemplos de
   entrenamiento pertenecientes a esa clase.        entrenamiento se eligen
                                                    aleatoriamente



   P(D) Para estimar la probabilidad de que los     P(D)
   atributos tengan un cierto conjunto de valores esMuy difícil de calcular.
                                                    Para calcular la

   necesario disponer de un número extremadamente   distribución que siguen
                                                    una serie de atributos
                                                    necesitamos un conjunto
   elevado de ejemplos de entrenamiento.            de entrenamiento muy
                                                    grande


                  Si los atributos son continuos se ha de estimar
Estimar otros tipos de
distribuciones es funciones de densidad. Por lo general gausianas
complicadisimo
Teorema de Bayes
Calculo de probabilidades II


 P(D|h)
   Complicado de obtener
   Similar a estimar la probabilidad de que los atributos
   posean un cierto conjunto de valores
   Solo aplicable a una fracción de las instancias de
   entrenamiento: aquellas cuya clase es h
Aprendizaje bayesiano
Clase a la que pertenece una nueva instancia

 Por ejemplo aplicamos el teorema de Bayes para dos clases

                                                    Para mas ejemplos tan
                                                    solo tendríamos que
                                                    realizar varias
                                                    comprobaciones
                                                    siguiendo un algoritmo de
                                                    comparación para
                                                    obtener el máximo



 Con denominadores comunes tan solo hemos de calcular



 Por lo que la nueva instancia pertenece a la clase A
Aprendizaje bayesiano
Ventajas y desventajas
 Ventajas
   Es un aprendizaje casi optimo

 Desventajas
   Necesidad de un conocimiento a priori. Si no se tiene este
   conocimiento estas probabilidades han de ser estimadas.

   Coste computacional alto para generar el modelo. En el caso
   general es lineal con el número de hipótesis candidatas.

   Se ha de disponer de un gran número de ejemplos de
   entrenamiento
Clasificador bayesiano ingenuo
Naïve Bayes

 Método muy utilizado en la práctica.
 Permite aplicar el aprendizaje bayesiano incluso
 cuando el número de ejemplos disponible es pequeño.
 Se basa en:                                                                        Es a causa de estas
                                                                                    simplificaciones, que se
                                                                                    suelen resumir en la
   Suponer que todos los atributos son independientes                               hipótesis de
                                                                                    independencia entre las

   (más fácil estimar las probabilidades).
                                                                                    variables predictoras, que
                                                                                    recibe el apelativo de
                                                                                    ingenuo.


   En la practica esta suposición se cuando elen la gran
                     ¿Por qué es posible aplicar Naïve Bayes da
                     número de ejemplos es pequeño?

   mayoría de los casos atributos son independientes, se cumple:
                     Cuando dos
                         P(at =val,at =val )=P(at =val)⋅P(at =val )
                         Una función de densidad de probabilidad univariante es mucho
                         más fácil de estimar que una multivariante.
Aprendizaje bayesiano
Conclusiones
 Capacidad de representación alta: las fronteras de decisión pueden tener cualquier
 forma.

 Legibilidad: Baja, debido a que los modelos son funciones de densidad de
 probabilidad.

 Tiempo de computo on-line: Rápido una vez que el modelo ha sido estimado.

 Tiempo de computo off-line: Lento: es necesario estimar las funciones de densidad
 de probabilidad a partir de las instancias de entrenamiento.

 Parámetros a ajustar: Relacionados con el tipo de función de densidad de a ajustar
                                                                   Parametros
 probabilidad de los atributos.                                    Naïve Bayes es fácil de
                                                                   utilizar, pero en general
                                                                           el aprendizaje Bayesiano
                                                                           no lo es.
 Robustez ante instancias de entrenamiento ruidosas: Muy alta, dado que el
 método está basado en probabilidades.

 Sobrepujaste (overfitting): Imposible obtener sobreajuste al trabajar con
 probabilidades.
Reconocimiento de objetos
Basados en puntos significativos
Reconocimiento de objetos
Basados en puntos significativos




 Para cualquier objeto en una imagen, se pueden extraer una
 serie de puntos de interés para proporcionar una descripción
 del objeto.
 Es importante que las características extraídas de la imagen de
 entrenamiento sean detectables incluso bajo cambios de
                                                  Estos puntos
                                                  generalmente se
                                                  encuentran en regiones
 escala de la imagen, ruido e iluminación.        de alto contraste de la
                                                        imagen, tales como los
                                                        bordes del objeto.
Reconocimiento de objetos
Scale-invariant feature transform

 Se trata de un algoritmo para detectar y describir las
 características locales de las imágenes.
 Fue publicado por David Lowe en 1999.
 Los puntos clave de los objetos son extraídos de una
 serie de imágenes de referencia y almacenados en una
 base de datos. conalmacenan el conjunto de puntos significativos
                   Se
                      sus características para cada objeto


 El objeto se clasifica por el vecino mas cercano en la
 base de datos.
Reconocimiento de objetos
Basados en puntos significativos


                             Invariantes a la geometría:
                             Rotación, traslación, escala...

                             Invariantes a características
                             fotometricas: Brillo,
                             exposición...
Reconocimiento de objetos
Haar features
Haar-like features
Detectores basados en caracteristicas tipo Haar

 El esquema del algoritmo está inspirado en el modelo
 de Viola-Jones 2001 paradelaalgoritmos de objetos en tiempoViola y Michel Jones en
                  Una serie
                              detección
                                        propuesto por Paul
                                                             real


 Estos detectores se basan en una cascada de
 clasificadores que es explorada por toda la imagen en
 múltiples escalas y localizaciones. Boost Adaptative
                                     AdaBoost:



 Cada etapa de la cascada se basa en el uso de simples
 características tipo Haar seleccionadas y combinadas
 mediante AdaBoost durante el entrenamiento.
Haar-like features
Rapidez del clasificador

 La eficiencia de este esquema reside en el hecho de
 que los negativos van siendo eliminados
 progresivamente.

                             Si                   Si            Si
 Imagen      Clasificador 1        Clasificador 2
                                                       ......        Clasificador N   Positivo

                     No                   No                                 No

                                     Negativo
 Muy utilizado para la detección de objetos en tiempo real
Haar-like features
          Detección de caras


  son 12x12 para ojos1 y nariz,
   nuevamente de 2, 3 y 4).
 nsionadas con 10 etapas, una
   98% y una tasa de falsos
 a etapa ha sido entrenada con
 s, utilizando 900 ejemplos de
 st.
cabamos de dar en el último
a tasa de falsos positivos haya
                                                         Fig. 5.   Zonas de interés en una cara detectada para ojo izquierdo, o
magnitud respecto al detector
                                                                                  derecho, nariz y boca.
un descenso tan acusado? La por Paul Viola y
            Algunas características tipo Haar propuestas
  boca son elementos con Jones      Michel
                                           una
 que la de la cara entera, de                                                     III. RESULTADOS
 nformación estructural que

Más contenido relacionado

La actualidad más candente

Registros de control y estados de la CPU
Registros de control y estados de la CPURegistros de control y estados de la CPU
Registros de control y estados de la CPU
Ivan Porras
 

La actualidad más candente (20)

Deep learning based object detection
Deep learning based object detectionDeep learning based object detection
Deep learning based object detection
 
Registros de control y estados de la CPU
Registros de control y estados de la CPURegistros de control y estados de la CPU
Registros de control y estados de la CPU
 
Lenguajes de programación.ppt
Lenguajes de programación.pptLenguajes de programación.ppt
Lenguajes de programación.ppt
 
머신러닝의 개념과 실습
머신러닝의 개념과 실습머신러닝의 개념과 실습
머신러닝의 개념과 실습
 
Missing cone artifact removal in odt using unsupervised deep learning in the ...
Missing cone artifact removal in odt using unsupervised deep learning in the ...Missing cone artifact removal in odt using unsupervised deep learning in the ...
Missing cone artifact removal in odt using unsupervised deep learning in the ...
 
Graph Neural Network in practice
Graph Neural Network in practiceGraph Neural Network in practice
Graph Neural Network in practice
 
Deep residual learning for image recognition
Deep residual learning for image recognitionDeep residual learning for image recognition
Deep residual learning for image recognition
 
Conceptos poo (presentación1)
Conceptos poo (presentación1)Conceptos poo (presentación1)
Conceptos poo (presentación1)
 
Graph R-CNN for Scene Graph Generation
Graph R-CNN for Scene Graph GenerationGraph R-CNN for Scene Graph Generation
Graph R-CNN for Scene Graph Generation
 
Microsoft COCO: Common Objects in Context
Microsoft COCO: Common Objects in Context Microsoft COCO: Common Objects in Context
Microsoft COCO: Common Objects in Context
 
HABILIDADES DEL PENSAMIENTO
HABILIDADES DEL PENSAMIENTOHABILIDADES DEL PENSAMIENTO
HABILIDADES DEL PENSAMIENTO
 
Paradigmas de programación
Paradigmas de programaciónParadigmas de programación
Paradigmas de programación
 
polimorfismo
polimorfismopolimorfismo
polimorfismo
 
MCCALL, ISO 9126, ISO 25000
MCCALL, ISO 9126, ISO 25000MCCALL, ISO 9126, ISO 25000
MCCALL, ISO 9126, ISO 25000
 
Recurrent Neural Networks (RNN) | RNN LSTM | Deep Learning Tutorial | Tensorf...
Recurrent Neural Networks (RNN) | RNN LSTM | Deep Learning Tutorial | Tensorf...Recurrent Neural Networks (RNN) | RNN LSTM | Deep Learning Tutorial | Tensorf...
Recurrent Neural Networks (RNN) | RNN LSTM | Deep Learning Tutorial | Tensorf...
 
Object detection with deep learning
Object detection with deep learningObject detection with deep learning
Object detection with deep learning
 
[1312.5602] Playing Atari with Deep Reinforcement Learning
[1312.5602] Playing Atari with Deep Reinforcement Learning[1312.5602] Playing Atari with Deep Reinforcement Learning
[1312.5602] Playing Atari with Deep Reinforcement Learning
 
007 20151214 Deep Unsupervised Learning using Nonequlibrium Thermodynamics
007 20151214 Deep Unsupervised Learning using Nonequlibrium Thermodynamics007 20151214 Deep Unsupervised Learning using Nonequlibrium Thermodynamics
007 20151214 Deep Unsupervised Learning using Nonequlibrium Thermodynamics
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 I
 
PARADIGMA IMPERATIVO
PARADIGMA IMPERATIVOPARADIGMA IMPERATIVO
PARADIGMA IMPERATIVO
 

Similar a Reconocimiento de objetos

Diapositivas sig
Diapositivas sigDiapositivas sig
Diapositivas sig
bonita1084
 
Estrategias de prueba de software
Estrategias de prueba de softwareEstrategias de prueba de software
Estrategias de prueba de software
jtapiac
 
Diapositivas Visión por Computador: Visión 3D
Diapositivas Visión por Computador: Visión 3DDiapositivas Visión por Computador: Visión 3D
Diapositivas Visión por Computador: Visión 3D
Jaime Martínez Verdú
 

Similar a Reconocimiento de objetos (13)

Ingeniería del Software: Nuestro producto debe funcionar
Ingeniería del Software: Nuestro producto debe funcionarIngeniería del Software: Nuestro producto debe funcionar
Ingeniería del Software: Nuestro producto debe funcionar
 
Curse of dimensionality by MC Ivan Alejando Garcia
Curse of dimensionality by MC Ivan Alejando GarciaCurse of dimensionality by MC Ivan Alejando Garcia
Curse of dimensionality by MC Ivan Alejando Garcia
 
Presentacion pp
Presentacion ppPresentacion pp
Presentacion pp
 
Diapositivas sig
Diapositivas sigDiapositivas sig
Diapositivas sig
 
Haciendo visible lo invisible: imágenes en la plataforma ArcGIS
Haciendo visible lo invisible: imágenes en la plataforma ArcGISHaciendo visible lo invisible: imágenes en la plataforma ArcGIS
Haciendo visible lo invisible: imágenes en la plataforma ArcGIS
 
Estrategias de prueba de software
Estrategias de prueba de softwareEstrategias de prueba de software
Estrategias de prueba de software
 
Hoip10 presentacion diseño de soluciones de análisis de vídeo orientado a esc...
Hoip10 presentacion diseño de soluciones de análisis de vídeo orientado a esc...Hoip10 presentacion diseño de soluciones de análisis de vídeo orientado a esc...
Hoip10 presentacion diseño de soluciones de análisis de vídeo orientado a esc...
 
Diapositivas Visión por Computador: Visión 3D
Diapositivas Visión por Computador: Visión 3DDiapositivas Visión por Computador: Visión 3D
Diapositivas Visión por Computador: Visión 3D
 
03 proceso de desarrollo de software
03 proceso de desarrollo de software03 proceso de desarrollo de software
03 proceso de desarrollo de software
 
Cap3.diapositivas.jhina moya
Cap3.diapositivas.jhina moyaCap3.diapositivas.jhina moya
Cap3.diapositivas.jhina moya
 
Segementacion de imagenes
Segementacion de imagenesSegementacion de imagenes
Segementacion de imagenes
 
Segmentación de imágenes con matlab
Segmentación de imágenes con matlabSegmentación de imágenes con matlab
Segmentación de imágenes con matlab
 
Segmentacion de imagenes
Segmentacion de imagenesSegmentacion de imagenes
Segmentacion de imagenes
 

Reconocimiento de objetos

  • 1. Tema 11: reconocimiento de objetos. Tema presentado por: Jesualdo Ros, Gonzalo García, Federico Sogorb y Luis Belzunce.
  • 2. Antes de empezar... ¿Cuál es su origen? ¿Cómo funciona? ¿Para qué sirve? ¿Tiene algún uso?
  • 3. Origen del reconocimiento Diferenciación de características e identificación de patrones para la clasificación.
  • 4. Origen del reconocimiento Diferenciación de características e identificación de patrones para la clasificación.
  • 5. Origen del reconocimiento Diferenciación de características e identificación de patrones para la clasificación.
  • 6. Funcionamiento Obtención de una imagen por parte de una cámara. Procesado de la imagen. Reconocimiento de patrones.
  • 7. Funcionamiento Obtención de una imagen por parte de una cámara. Procesado de la imagen. Reconocimiento de patrones.
  • 8. Funcionamiento Obtención de una imagen por parte de una cámara. Procesado de la imagen. Reconocimiento de patrones.
  • 9. Utilidad Identificación de patrones para la distinción de unos objetos de otros.
  • 10. Utilidad Identificación de patrones para la distinción de unos objetos de otros.
  • 11. Utilidad Identificación de patrones para la distinción de unos objetos de otros.
  • 12. ¿Qué es? Disciplina científica con un objetivo. Clasificación de objetos en clases. Se puede enfocar de tres formas: estadística. sintáctica o estructural. de redes neuronales.
  • 13. Enfoques Estadístico (o de la teoría Sintáctico se basa en las de decisión) & de redes relaciones geométricas. neuronales se basan en Relaciones que van lo mismo. asociadas a la forma de Extraer sus propiedades, los objetos. de forma cualitativa.
  • 14. Esquema de un sistema de reconocimiento.
  • 15. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Fase de diseño.
  • 16. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Fase de diseño. Conjunto de muestras
  • 17. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Fase de diseño. Conjunto de Selección de muestras características
  • 18. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Fase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
  • 19. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Imagen digital Fase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
  • 20. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Imagen digital Preprocesamiento Fase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
  • 21. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Imagen digital Preprocesamiento Segmentación Fase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
  • 22. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Imagen digital Extracción de Preprocesamiento Segmentación características Fase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
  • 23. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Imagen digital Extracción de Preprocesamiento Segmentación Clasificador características Fase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
  • 24. Esquema de un sistema de reconocimiento. Fase de funcionamiento. Imagen digital Extracción de Preprocesamiento Segmentación Clasificador características Fase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
  • 25. Segmentación. Dividir una imagen para aislar nuestro objeto. Objetivo: simplificar la representación de la imagen para un mejor estudio de la misma. Etiquetado de pixeles con las mismas características para agrupar sus propiedades.
  • 26. Extracción de características Transformar la imagen de un objeto en un vector que defina sus cualidades, normalmente físicas. ¿Es el dato relevante? Los datos poco relevantes se eliminan para no interferir en el modelo.
  • 27. Propiedades de las características a extraer. Robustez: insensible al ruido de captura e iluminación. Discriminantes: que distingan objetos de distintas clases. Invariante ante traslación, rotación y escalado y perspectiva.
  • 28. Propiedades de las características a extraer. Robustez: insensible al ruido de captura e iluminación. Discriminantes: que distingan objetos de distintas clases. Invariante ante traslación, rotación y escalado y perspectiva.
  • 29. Propiedades de las características a extraer. Robustez: insensible al ruido de captura e iluminación. Discriminantes: que distingan objetos de distintas clases. Invariante ante traslación, rotación y escalado y perspectiva.
  • 30. Un ejemplo... Una posible utilización la vemos en el reconocimiento de textos, en este caso tenemos el patrón de las letras y comparamos con este patrón el vector de atributos que obtenemos de la imagen.
  • 31. Clasificador Partimos de un vector de atributos extraídos de la imagen del objeto. Clasifica las imágenes en las diferentes clases que se contemplan. Existen diferentes mecanismos de clasificación.
  • 32. Diseño del clasificador. Algoritmos que toman la decisión de donde o como clasificar un objeto. El diseño más extendido es el de clasificadores por entrenamiento o aprendizaje máquina.
  • 34. Tipos de aprendizaje automático Aprendizaje deductivo Modelos generales Modelo especifico Aprendizaje inductivo Modelo especifico Modelos generales Aprendizaje por refuerzo Exploración autónoma y explotación de lo aprendido.
  • 35. Aprendizaje inductivo El objetivo es generar un modelo general a partir de ejemplos específicos El conjunto de ejemplos se denomina conjunto de entrenamiento
  • 36. Aprendizaje inductivo El objetivo es generar un modelo general a partir de ejemplos específicos El conjunto de ejemplos se denomina conjunto de entrenamiento
  • 37. Concepto: Determinar el nuevo objeto a estudiar según los atributos (hipótesis). Instancia: Cada uno de los ejemplos de entrenamiento. Atributo: Cada una de las medidas que forman el vector de atributos de un ejemplo. Reales: Pueden tomar cualquier valor numérico en un rango. Discretos: Toman valores discretos ordenados: Por ejemplo la temperatura como alta, media o baja. Categóricos: Valores discretos no ordenados. Por ejemplo el color. Clase: Es el atributo que buscamos determinar a partir de los demás.
  • 38. Ejemplo: modelado de la probabilidad de fallo de una máquina. Clase: Comprobamos si falla. Atributos: Medidas por las que puede fallar: Temperatura. Nivel de Vibraciones. Horas de funcionamiento. Meses desde la última revisión. Instancias: Situaciones que han pasado anteriormente. Concepto: Relación entre las medidas y probabilidad de fallo. (IF-THEN) Si el nivel de vibraciones es alto y la temperatura es alta, entonces fallará.
  • 39. Algoritmos de decisión. Criterios de Selección del Modelo.
  • 40. Capacidad de representación y legibilidad. Capacidad de expresar varios conceptos diferentes. Frontera de decisión generada con cada modelo. Árboles de Decisión. Redes Neuronales. Facilidad con la que un humano puede leer e interpretar. A continuación, ejemplos con solo 2 atributos:
  • 43. Árboles de decisión vibr.>120? temp. fallará 120 vibración
  • 44. Árboles de decisión vibr.>120? si temp. F fallará 120 vibración
  • 45. Árboles de decisión vibr.>120? no si temp. temp.>95? F fallará 95 fallará 120 vibración
  • 46. Árboles de decisión vibr.>120? no si temp. temp.>95? F fallará si 95 fallará F 120 vibración
  • 47. Árboles de decisión vibr.>120? no si temp. temp.>95? F fallará si no 95 fallará vibr.>70? F no fallará 70 120 vibración
  • 48. Árboles de decisión vibr.>120? no si temp. temp.>95? F fallará si no 95 fallará vibr.>70? F no no fallará NF 70 120 vibración
  • 49. Árboles de decisión vibr.>120? no si temp. temp.>95? F fallará si no 95 fallará fallará vibr.>70? F no no si 50 fallará NF temp.>50? 70 120 vibración
  • 50. Árboles de decisión vibr.>120? no si temp. temp.>95? F fallará si no 95 fallará fallará vibr.>70? F no no si 50 fallará NF temp.>50? 70 120 vibración no si F
  • 51. Árboles de decisión vibr.>120? no si temp. temp.>95? F fallará si no 95 fallará fallará vibr.>70? F no no si 50 fallará no fallará NF temp.>50? 70 120 vibración no si NF F
  • 52. Más facil de entender e interpretar. Niveles altos, atributos importantes. Rectas de las fronteras perpendiculares a los ejes. Se pueden utilizar para proporcionar información.
  • 53. Redes Neuronales Fronteras más complejas. Formado por grandes tablas numéricas. Imposibles de interpretar. Se puede utilizar como clasificador. No sirve para proporcionar información.
  • 54. Redes Neuronales Fronteras más complejas. temp. Formado por grandes fallará tablas numéricas. 95 fallará Imposibles de interpretar. no fallará 50 fallará Se puede utilizar como no clasificador. No sirve para fallará proporcionar información. 70 120 vibración
  • 55. Computo ON-LINE Tiempo necesario para clasificar un nuevo ejemplo. Árboles de Decisión: Tiempo para recorrer el árbol, evaluar las funciones de cada nodo una vez este clasificado. Redes Neuronales: Tiempo para realizar las operaciones incluidas en la red. Métodos Probabilísticos: Tiempo para calcular probabilidades.
  • 56. Ejemplo Tomamos imágenes aéreas tanto en el espectro visible (RGB) como en el infrarrojo (I). Cada pixel tendrá un vector de 4 atributos. Según los atributos, cada pixel lo clasificamos. Río Montaña Coche Edificio El tiempo de computo es muy importante al analizar muchos pixeles.
  • 57. Algoritmos de decisión. Criterios de Selección del Algoritmo.
  • 58. Computo OFF-LINE Tiempo necesario para construir y/o ajustar el modelo a partir de los ejemplos de entrenamiento. Árboles de Decisión: Tiempo necesario para elegir la estructura del árbol y los atributos a situar en cada uno de los nodos. Redes Neuronales: Tiempo necesario para ajustar los pesos de las conexiones. Este tiempo no suele ser muy importante. Consiste en generar el modelo, tarde lo que tarde. Siempre que sea optimo y reduzca el tiempo ON-LINE.
  • 59. Dificultad de ajustes de parámetros. Muy fácil generar el modelo, ya que no hay parámetros que ajustar o que el modelo es poco sensible a la modificación de estos. (Árboles de decisión). Hay veces en los que hay que “podarlos”. Dificultades al ajustar el modelo para que nos de resultados óptimos, al disponer de muchos parámetros a ajustar o que es muy sensible a la modificación de los mismos. (Redes neuronales).
  • 60. Robustez ante ejemplos de entrenamiento ruidosos. Base de datos muy grande, ejemplos mal etiquetados. Ejemplo: Maquina que no falló, etiquetada como que si lo hizo. Los algoritmos de árboles de decisión o de redes neuronales, pueden funcionar correctamente aunque haya un porcentaje ruidoso en el conjunto. Los algoritmos como el vecino más cercano, no ofrecen buenos resultados.
  • 61. Sobreajuste (OVERFITTING) Problema muy común. El modelo se ajusta demasiado a los ejemplos de entrenamiento. Es imposible generalizar. Las fronteras de decisión muy complejas producen un sobreajuste.
  • 62. Correcta Sobreajustada No consigue 100% de Consigue el 100% de clasificaciones correctas. clasificaciones correctas. Correctamente Frontera artificial. separadas.
  • 63. Correcta Sobreajustada No consigue 100% de Consigue el 100% de clasificaciones correctas. clasificaciones correctas. Correctamente Frontera artificial. separadas.
  • 64. Correcta Sobreajustada No consigue 100% de Consigue el 100% de clasificaciones correctas. clasificaciones correctas. Correctamente Frontera artificial. separadas.
  • 65. Correcta Sobreajustada No consigue 100% de Consigue el 100% de clasificaciones correctas. clasificaciones correctas. Correctamente Frontera artificial. separadas.
  • 66. Correcta Sobreajustada No consigue 100% de Consigue el 100% de clasificaciones correctas. clasificaciones correctas. Correctamente Frontera artificial. separadas.
  • 68. Los métodos de aprendizaje inductivo se clasifican en: Lazy Eager No construyen un Construyen un modelo. modelo. Parte del trabajo se hace Hacemos todo el off-line, al recopilar todos procesamiento on-line. los conjuntos de entrenamiento. El vecino más cercano sería un ejemplo. Como pueden ser los árboles de decisión, redes neuronales, etc.
  • 70. Vecino mas cercano Consiste en... Modelo de clasificación inductivo basado en el método lazy No crea ningún modelo durante el entrenamiento, lo único que hace es almacenar en una base de datos los ejemplos de entrenamiento Consiste en clasificar elementos futuros únicamente comparando la instancia a clasificar con su lista de datos
  • 71. Vecino mas cercano Puede llevarse a cabo de dos formas: Clasificación directa con la instancia más cercana El nuevo ejemplo a clasificar se le asigna la clase de la instancia más cercana al mismo (1-NN). Clasificación teniendo en cuenta una región La nueva instancia debe ser clasificada según el máximo número de elementos de una clase dentro de una región (K-NN) donde K>1.
  • 72. Vecino mas cercano Aclaración En la gráfica aparecen X2 representados los Instancias de entrenamiento Clase A ejemplos de Clase B Clase C entrenamiento que han Nueva instancia por clasificar sido recopilados y de los cuales conocemos su clase, dentro del modelo tenemos introducido otro ejemplo, el cual deseamos clasificar X1
  • 73. Vecino mas cercano Aclaración Método básico: solo un vecino 1-NN X2 Instancias de entrenamiento Clase A Clase B Clase C Nueva instancia por clasificar Asignado el ejemplo mas cercano X1
  • 74. Vecino mas cercano Si decidimos realizar una clasificación la cuál no será directamente el dato más cercano, sino que se clasifica según la clase que más se repita dentro de una región, Ejemplo aclaratorio debemos dar valores al parámetro K. Donde K debe ser mayor que 1 X2 Instancias de entrenamiento K-NN Clase A Clase B Asignamos la Clase C Nueva instancia por clase a la clasificar mayoritaria de las K instancias mas cercanas Para este caso con k=5 X1
  • 75. Vecino mas cercano Ponderación de la función de distancia (K-NN) Consiste en dar mayor importancia a los vecinos más cercanos N: Numero de ejemplos de cada clase ponderados di: Distancia al ejemplo a clasificar Cuanto menor sea la distancia mayor será el factor de ponderación de la clase, damos más importancia a las distancias en un k-NN
  • 76. Vecino mas cercano Procedimiento de clasificación de una nueva instancia Normalmente distancias Calcular la distancia. euclídeas, pudiendo eliminar la raíz ya que busco la distancia mayor desde el ejemplo a clasificar hasta todos los ejemplos de entrenamiento Las distancias se miden en el espacio de atributos, por tanto trabajamos en tantas dimensiones como atributos tengamos. Elegir las K instancias más próximas y se asigna la clase Por tanto tenemos que calcular la distancia a mayoritaria entre las K instancias. TODOS los ejemplos de entrenamiento, por tanto aunque tengamos un tiempo de computo OFF-LINE corto, pues simplemente consiste en Por lo que hay que calcular la distancias a todos los ejemplos de almacenar los datos, el tiempo de computo ON- LINE es alto pues necesitamos medir para TODOS los ejemplos que deseamos clasificar su entrenamiento (Alto tiempo de computo on-line) distancia a TODAS las instancias de ejemplo Es importante la normalizaciónIMPORTANTE LA LOS ES de los atributos (Atributos con NORMALIZACIÓN DE mayor valor absoluto siempreATRIBUTOS CONQUE LOS sobre los demás) prevalecen ATRIBUTOS, YA MAYOR VALOR ABSOLUTO SIEMPRE PREVALECEN SOBRE LOS DEMÁS.
  • 77. Vecino mas cercano Ejemplo Weka hace uso de la siguiente formula para normalizar los atributos en el rango de 0 a 1 Teniendo en cuenta que poseemos la siguiente base de datos formada por 4 instancias (ejemplos de entrenamiento) donde cada una dice el una persona devuelve Menudo pastón cobra si un préstamo según la edad y poder adquisitivo,abuelo determinar si una persona de 65 años e ingresos de 25000€ devolverá el préstamo: Ejemplo Salario Edad Devuelve el préstamo Aparentemente lo más 1 100,000 55 Si importante es la edad, por tanto inicialmente 2 90,000 30 No podríamos llegar a la conclusión que la clase del 3 15,000 60 Si ejemplo que deseamos clasificar sería SI, por tanto se le concedería el 4 20,000 25 No préstamo.
  • 78. Vecino mas cercano Ejemplo Distancias: El ejemplo más cercano es el cuarto, por tanto la clase del ejemplo a clasificar sería que NO devolverá el préstamo
  • 79. Vecino mas cercano Reducir el tiempo de computo on-line Se reduce almacenando únicamente los elementos relevantes, normalmente los de la frontera Consiste en no guardar TODOS los ejemplos de entrenamiento, solo los más representativos que en principio son los que están cerca de la frontera entre 2 clases
  • 80. Vecino mas cercano Características Capacidad de representación: Muy elevada, fronteras de decisión complejas. Legibilidad: Ninguna, no se crea modelo Tiempo de computo ON-LINE: Lento, es necesario calcular distancias a todos los ejemplos de entrenamiento. Tiempo de computo OFF-LINE: Rápido, solo el tiempo para almacenar todas las instancias de entrenamiento. Parámetros a ajustar: Solo el número de vecinos (K-NN) Robustez ante instancias de entrenamiento ruidosas: El 1-NN no es robusto. A medida que aumentamos K se vuelve más robusto Sobreajuste (overfitting): Es difícil que ocurra, más difícil con forme aumentamos K.
  • 82. Arboles de decisión Consiste en... Dada una base de datos se construyen diagramas de construcciones lógicas, muy similares a los sistemas de predicción basados en reglas Se lee de arriba abajo y tienen las siguiente características: Representan funciones lógicas (IF-THEN) Compuesto de nodos y ramas El NODO RAIZ es el nodo superior del árbol. Los nodos internos están formados por los atributos (medidas) Los nodos hojas están formados por las clases.
  • 83. Arboles de decisión Objetivo El objetivo en el aprendizaje automático consiste en la creación de un árbol de decisión a partir de un conjunto de instancias de entrenamiento Si partimos de un gráfico la obtención del árbol es sencilla ya que solo debemos satisfacer una serie de sentencias condicionales delalgoritmo El ejemplo un macabro gráfico es para decidir quien sobrevivirá cuando se Supervivientes del Titanic hunda el Titanic Ingresos Sexo Hombre Mujer Sobrevive Sobrevive Edad 20 Edad<12 Edad>12 Sobrevive Sobrevive Ingresos No sobrevive Ingresos<20 Ingresos>20 LAS SENTENCIAS IF-THEN PRODUCEN No sobrevive Sobrevive FRONTERAS QUE TENGAN QUE SER PERPENDICULARES A LOS EJES 12 Edad
  • 84. Arboles de decisión Entropía La entropía se utiliza para encontrar el parámetro más significativo en la caracterización de un clasificador. Consiste en obtener el porcentaje de ejemplos de cada clase que llega a cada nodo. Consiste en estimar cuanto de separadas están las clases que me r llegan a un nodo esto consiste en i Porcentaje de instancias la Entropía, es decir, de minimizar pertenecientes a la todos los ejemplos de clase i entrenamiento que me llegan a un nodo habrá un número de ejemplos k Numero de clases clasificados con una clase y otros clasificados con las demás clases, Minimizar la Entropía consiste en que no haya mezclas de clases. por tanto será mejor la elección de un atributo, frente a otro, si separa mejor las clases. La entropía será máxima si a un nodo le llega el mismo porcentaje de cada clase, si tenemos K clases:
  • 85. Arboles de decisión Ejemplo Partimos de un conjunto de entrenamiento formado por 7 instancias Las cuales definen si una máquina fallará o no, es decir, dos clases distintas. Horas de Temperatura Nivel de vibraciones Meses desde revisión Probabilidad de fallo funcionamiento ALTA ALTO <1000 > 1 MES fallará BAJA BAJO <1000 < 1 MES no fallará ALTA BAJO >1000 > 1 MES no fallará ALTA BAJO <1000 > 1 MES no fallará BAJA ALTO <1000 > 1 MES no fallará BAJA ALTO >1000 > 1 MES fallará ALTA ALTO <1000 < 1 MES fallará
  • 86. Arboles de decisión Ejemplo Nosotros lo haremos de forma visual pero el El siguiente paso es obtener una nueva tabla a partir de los ejemplos de entrenamiento donde algoritmo estudiará la podemos observar cuantas clases y de que tipo son, para cada atributo: entropía de cada atributo y decidirá su posición en los distintos Estudiando la base de datos para cada atributo se observa que el atributo que mejor separa un nodos número mayor de clases (Menor entropía) es el de Ya que existen tres vibraciones de las siete instancias de entrenamiento definidas por Bajas Vibraciones, las cuales son de la misma CLASE ATRIBUTO VALORES (ENTROPÍA NULA). clase fallará no fallaraá ALTO 2 2 Temperatura BAJO 1 2 ALTO 3 1 Nivel de vibraciones BAJO 0 3 < 1000 2 3 Horas de funcionamiento > 1000 1 1 > 1 Mes 2 3 Meses desde la revisión < 1 Mes 1 1
  • 87. Arboles de decisión Ejemplo Arbol hasta el momento: NIVEL DE VIBRACIÓN ALTO BAJO ? No fallará No fallará 1 instancia No fallará 3 instancia Fallará 3 instancias Fallará 0 instancias Por la derecha ya hemos acabado por que a la hojas solo le puede llegar una clase ELECCIÓN DEL SIGUIENTE ATRIBUTO TENIENDO EN CUENTA QUE VAMOS A En cambio en la zona izquierda tenemos entropía distinta de cero, ya ESTUDIAR LAS 4 INSTANCIAS QUE FALTAN que 25% de los ejemplos dice que la máquina fallara y el resto dice que POR CLASIFICAR TENIENDO EN CUENTA QUE LAS no. VIBRACIONES SON ALTAS
  • 88. Arboles de decisión Ejemplo Elección del siguiente atributo El siguiente atributo que CLASE aparte de reducir la entropía, ATRIBUTO VALORES la minimiza en un mayor fallará no fallaraá número de casos es la Temperatura, por tanto ALTO 2 0 Temperatura obtendríamos: BAJO 1 1 Nivel de vibración < 1000 2 1 Horas de ALTO BAJO funcionamiento > 1000 1 0 Temperatura No fallará ALTO BAJO (3,0) > 1 Mes 2 1 Meses desde Fallará ? la revisión < 1 Mes 1 0 (2,0) (1,1)
  • 89. Arboles de decisión Ejemplo Siguiendo con lo dicho hasta ahora, vamos acortando el Elección del siguiente atributo número de ejemplos d entrenamiento que no han sido clasificado, teniendo en cuenta CLASE ATRIBUTO VALORES que las vibraciones son ALTAS y fallará la temperatura BAJA, quedaría no fallaraá por clasificar 2 instancias de < 1000 0 entrenamiento 3 Horas de funcionamiento > 1000 1 0 > 1 Mes 1 1 Meses desde la revisión < 1 Mes 0 0 Arbol generado: Nivel de vibración ALTO BAJO Temperatura No fallará ALTO BAJO (3,0) Fallará Horas de funcionamiento (2,0) <1000 >1000 (1,0) No fallará Fallará (1,0)
  • 90. Arboles de decisión Mientras que el ID3 nunca produce árboles demasiado grandes, sino Poda (Pruning) que dejan de crecer cuando TODOS los nodos hoja contienen una sola clase o cuando en un camino del árbol se han utilizado todos los atributos, el C4.5 puede repetir atributos en el árbol Hasta ahora hemos hablado de los Algoritmos utilizados para construir o ajustar el modelo modelos de clasificación, pero algunos de estos modelos poseen distintitos algoritmos utilizados a partir de las instancias de entrenamiento para construir o ajustar el modelo a partir de las instancias de entrenamiento, vamos a ver 2 algoritmos del clasificador que ID3: Atributos discretos. Deja de crecer cuando todos los nodos hoja contienen unas sola clase o cuando en un camino del árbol se han utilizado todos los atributos C4.5: Para atributos continuos o reales y discretos. Implementado en WEKA como J48. Puede repetir atributos en el árbol Un árbol demasiado grande puede producir sobreajuste, por tanto es necesario podar los árboles
  • 91. Arboles de decisión Poda (Pruning) Consiste en realizar un test estadístico que indica si el árbol podado funcionará previsiblemente mejor o peor que el árbol sin podar. Se considera el peor caso posible (peor situación posible dentro del rango previsible). El rango es mayor o menor en función de un parámetro que es ajustable denominado nivel de confianza que por defecto vale El rango es mayor o menor en función del nivel de confianza. 0.25, es decir, estudia si es mejor podar un árbol para el 25% de los casos más desfavorables según una función de densidad de probabilidad gaussiana. Hay dos posibles tipos de poda: Reemplazo de un subárbol (un subárbol se sustituye por una hoja). Elevación de un subárbol (un subárbol se eleva en el árbol principal).
  • 92. Arboles de decisión Poda (Pruning) N1 N1 Elevación de un subárbol N2 N3 N2 N4 A B C N4 A B C* D* D E N1 Remplazo de A+B N3 un subárbol C N4 D E
  • 93. Arboles de decisión Caracteristicas Capacidad de representación: No muy elevada, las superficies de decisión son siempre perpendiculares a los ejes. Legibilidad: Muy elevada, Uno de los mejores modelos en este sentido Tiempo de computo ON-LINE: Muy rápido, clasificar un nuevo ejemplo es tan sencillo como recorrer el árbol hasta alcanzar un nodo hoja. Tiempo de computo OFF-LINE: Rápido, tanto ID3 como C4.5 son algoritmos simples. Parámetros a ajustar: Fundamentalmente el nivel de confianza para la poda. Fácil de ajustar: el valor por defecto (25%) da buenos resultados. Robustez ante instancias de entrenamiento ruidosas: Robusto, cualquier ejemplo de entrenamiento ruidoso no va a afectar si hay suficientes instancias de entrenamiento. Sobreajuste (overfitting): No se produce siempre que se realice una poda del árbol C4.5.
  • 95. Validación cruzada Cross-validation CROSS-VALIDATION Es una técnica utilizada para evaluar los resultados de un análisis estadístico y garantizar que son independientes de la partición entre datos de entrenamiento y prueba. Es una forma de Establecer si el modelo generado funcionará mal Con la validación cruzada buscamos: Se utiliza en entornos donde el objetivo principal Validar la solidez de un modelo determinado. es la predicción y se quiere estimar cómo de preciso es un modelo que se Evaluar varios modelos de una instrucción única. llevará a cabo a la práctica. Generar varios modelos e identificar a continuación el mejor modelo basándose en estadísticas.
  • 96. Validación cruzada Consiste en... Consiste en repetir y calcular la media aritmética obtenida de las medidas de evaluación sobre diferentes particiones. Se calcula el porcentaje de aciertos sobre los datos no utilizados para generar el modelo para proporcionarnos una medida de cuan de preciso es. Por tanto el procedimiento de validación cruzada nos permite obtener una medida realista y utilizar todos los ejemplos de entrenamiento para generar el árbol
  • 97. Validación cruzada Consiste en... Consiste en repetir y calcular la media aritmética obtenida de las medidas de evaluación sobre diferentes particiones. Se calcula el porcentaje de aciertos sobre los datos no utilizados para generar el modelo para proporcionarnos una medida de cuan de preciso es. Por tanto el procedimiento de validación cruzada nos permite obtener una medida realista y utilizar Problema: No siempre tenemos un conjunto de todos los ejemplos de entrenamiento para generar el árbol entrenamiento grande
  • 98. Validación cruzada Pasos a seguir Para generar por ejemplo un árbol de decisión 1. Se divide los datos de entrenamiento en 10 grupos (por defecto) . 2. Separo un grupo y uso el resto (9) para generar el árbol, midiendo el porcentaje de clasificación del grupo que no ha sido utilizado para generar el árbol. 3. Repito el paso 2 para cada grupo por tanto realizo el paso 2 10 veces 4. Promedio todos los resultados, habiendo generado 10 arboles No hay problema si el 5. El árbol definitivo se genera utilizando TODOS LOS GRUPOS. tiempo de computo OFF- LINE para generar el modelo es bajo como es en el caso de arboles de decisión
  • 99. Clasificador bayesiano Entrenamiento y decisión del clasificador
  • 100. Razonamiento bayesiano Clasificador bayesiano Enfoque probabilístico de la Probabilidad de que un inferencia. patrón pertenezca a una clase Está basado en asumir que las incógnitas de interés siguen distribuciones probabilísticas. Clase A Clase C Se puede conseguir una solución óptima por medio de Clase B estas distribuciones y datos observados.
  • 101. Aprendizaje bayesiano Consiste en... El aprendizaje se puede ver como el proceso de Conocimiento previo encontrar la hipótesis más probable, dado un conjunto Entrenamiento de ejemplos de entrenamiento y un conocimiento a priori sobre Hipótesis la probabilidad de cada hipótesis. Clasificación
  • 102. Aprendizaje bayesiano Caracteristicas Cada ejemplo de entrenamiento afecta a la Esto es más efectivo que probabilidad de las hipótesis. descartar directamente las hipótesis incompatibles. Se puede incluir conocimiento a priori: Probabilidad de cada hipótesis Distribución de probabilidades de los ejemplos. Una nueva instancia es clasificada como función de la predicción de múltiples hipótesis, ponderadas por sus probabilidades.
  • 103. Teorema de Bayes En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763 que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A. Termino a calcular para Termino a calcular a partir de clasificar un nuevo ejemplo los ejemplos de entrenamiento Thomas Bayes (Londres, Inglaterra, 1702 - Tunbridge Wells, 1761) fue un matemático h Hipótesis (Objeto) británico. D Conjunto de valores de los atributos
  • 104. Teorema de Bayes Probabilidades P(h) Probabilidad a priori de un de los objetos P(D) Probabilidad a priori de que los atributos tengan unos ciertos valores P(h|D) Probabilidad a posteriori de que una instancia P(h|D) Dado que los atributos muestran ciertos valores. pertenezca a una clase Este es el dato a obtener para clasificar una nueva instancia P(D|h) Probabilidad a posteriori de que los atributos posean unos ciertos valores P(D|h) Dado que la instancia pertenece a una cierta clase
  • 105. Teorema de Bayes Calculo de probabilidades P(h) La probabilidad a priori de una clase se puede P(h) calcular como el porcentaje de ejemplos de Fácil de calcular Suponiendo que los ejemplos de entrenamiento pertenecientes a esa clase. entrenamiento se eligen aleatoriamente P(D) Para estimar la probabilidad de que los P(D) atributos tengan un cierto conjunto de valores esMuy difícil de calcular. Para calcular la necesario disponer de un número extremadamente distribución que siguen una serie de atributos necesitamos un conjunto elevado de ejemplos de entrenamiento. de entrenamiento muy grande Si los atributos son continuos se ha de estimar Estimar otros tipos de distribuciones es funciones de densidad. Por lo general gausianas complicadisimo
  • 106. Teorema de Bayes Calculo de probabilidades II P(D|h) Complicado de obtener Similar a estimar la probabilidad de que los atributos posean un cierto conjunto de valores Solo aplicable a una fracción de las instancias de entrenamiento: aquellas cuya clase es h
  • 107. Aprendizaje bayesiano Clase a la que pertenece una nueva instancia Por ejemplo aplicamos el teorema de Bayes para dos clases Para mas ejemplos tan solo tendríamos que realizar varias comprobaciones siguiendo un algoritmo de comparación para obtener el máximo Con denominadores comunes tan solo hemos de calcular Por lo que la nueva instancia pertenece a la clase A
  • 108. Aprendizaje bayesiano Ventajas y desventajas Ventajas Es un aprendizaje casi optimo Desventajas Necesidad de un conocimiento a priori. Si no se tiene este conocimiento estas probabilidades han de ser estimadas. Coste computacional alto para generar el modelo. En el caso general es lineal con el número de hipótesis candidatas. Se ha de disponer de un gran número de ejemplos de entrenamiento
  • 109. Clasificador bayesiano ingenuo Naïve Bayes Método muy utilizado en la práctica. Permite aplicar el aprendizaje bayesiano incluso cuando el número de ejemplos disponible es pequeño. Se basa en: Es a causa de estas simplificaciones, que se suelen resumir en la Suponer que todos los atributos son independientes hipótesis de independencia entre las (más fácil estimar las probabilidades). variables predictoras, que recibe el apelativo de ingenuo. En la practica esta suposición se cuando elen la gran ¿Por qué es posible aplicar Naïve Bayes da número de ejemplos es pequeño? mayoría de los casos atributos son independientes, se cumple: Cuando dos P(at =val,at =val )=P(at =val)⋅P(at =val ) Una función de densidad de probabilidad univariante es mucho más fácil de estimar que una multivariante.
  • 110. Aprendizaje bayesiano Conclusiones Capacidad de representación alta: las fronteras de decisión pueden tener cualquier forma. Legibilidad: Baja, debido a que los modelos son funciones de densidad de probabilidad. Tiempo de computo on-line: Rápido una vez que el modelo ha sido estimado. Tiempo de computo off-line: Lento: es necesario estimar las funciones de densidad de probabilidad a partir de las instancias de entrenamiento. Parámetros a ajustar: Relacionados con el tipo de función de densidad de a ajustar Parametros probabilidad de los atributos. Naïve Bayes es fácil de utilizar, pero en general el aprendizaje Bayesiano no lo es. Robustez ante instancias de entrenamiento ruidosas: Muy alta, dado que el método está basado en probabilidades. Sobrepujaste (overfitting): Imposible obtener sobreajuste al trabajar con probabilidades.
  • 111. Reconocimiento de objetos Basados en puntos significativos
  • 112. Reconocimiento de objetos Basados en puntos significativos Para cualquier objeto en una imagen, se pueden extraer una serie de puntos de interés para proporcionar una descripción del objeto. Es importante que las características extraídas de la imagen de entrenamiento sean detectables incluso bajo cambios de Estos puntos generalmente se encuentran en regiones escala de la imagen, ruido e iluminación. de alto contraste de la imagen, tales como los bordes del objeto.
  • 113. Reconocimiento de objetos Scale-invariant feature transform Se trata de un algoritmo para detectar y describir las características locales de las imágenes. Fue publicado por David Lowe en 1999. Los puntos clave de los objetos son extraídos de una serie de imágenes de referencia y almacenados en una base de datos. conalmacenan el conjunto de puntos significativos Se sus características para cada objeto El objeto se clasifica por el vecino mas cercano en la base de datos.
  • 114. Reconocimiento de objetos Basados en puntos significativos Invariantes a la geometría: Rotación, traslación, escala... Invariantes a características fotometricas: Brillo, exposición...
  • 116. Haar-like features Detectores basados en caracteristicas tipo Haar El esquema del algoritmo está inspirado en el modelo de Viola-Jones 2001 paradelaalgoritmos de objetos en tiempoViola y Michel Jones en Una serie detección propuesto por Paul real Estos detectores se basan en una cascada de clasificadores que es explorada por toda la imagen en múltiples escalas y localizaciones. Boost Adaptative AdaBoost: Cada etapa de la cascada se basa en el uso de simples características tipo Haar seleccionadas y combinadas mediante AdaBoost durante el entrenamiento.
  • 117. Haar-like features Rapidez del clasificador La eficiencia de este esquema reside en el hecho de que los negativos van siendo eliminados progresivamente. Si Si Si Imagen Clasificador 1 Clasificador 2 ...... Clasificador N Positivo No No No Negativo Muy utilizado para la detección de objetos en tiempo real
  • 118. Haar-like features Detección de caras son 12x12 para ojos1 y nariz, nuevamente de 2, 3 y 4). nsionadas con 10 etapas, una 98% y una tasa de falsos a etapa ha sido entrenada con s, utilizando 900 ejemplos de st. cabamos de dar en el último a tasa de falsos positivos haya Fig. 5. Zonas de interés en una cara detectada para ojo izquierdo, o magnitud respecto al detector derecho, nariz y boca. un descenso tan acusado? La por Paul Viola y Algunas características tipo Haar propuestas boca son elementos con Jones Michel una que la de la cara entera, de III. RESULTADOS nformación estructural que

Notas del editor

  1. \n
  2. Antes de empezar creo que es conveniente hablar de lo que sabemos o no acerca del reconocimiento de objetos, cosas como su funcionamiento, su utilidad y sus or&amp;#xED;genes.\n\nDe esta forma creo que lo adecuado es empezar por sus or&amp;#xED;genes.\n
  3. Se puede decir que el origen del reconocimiento de objetos surge de la necesidad del ser humano de diferenciar entre dos objetos similares o entre dos personas parecidas. Como bien puede ser diferenciar a dos hermanos gemelos o para diferenciar a dos animales de la misma especie. Lo que viene a ser el &amp;#x201C;&amp;#xBF;qui&amp;#xE9;n es qui&amp;#xE9;n?&amp;#x201D;.\n
  4. Se puede decir que el origen del reconocimiento de objetos surge de la necesidad del ser humano de diferenciar entre dos objetos similares o entre dos personas parecidas. Como bien puede ser diferenciar a dos hermanos gemelos o para diferenciar a dos animales de la misma especie. Lo que viene a ser el &amp;#x201C;&amp;#xBF;qui&amp;#xE9;n es qui&amp;#xE9;n?&amp;#x201D;.\n
  5. De forma muy b&amp;#xE1;sica y comparado con el humano un sistema de reconocimiento de objetos se compone de tres sencillos pasos. Para empezar un sistema de adquisici&amp;#xF3;n de im&amp;#xE1;genes captura una imagen del entorno deseado (que ser&amp;#xED;a el ojo), acto seguido esta imagen es enviada a una unidad de procesamiento (el cerebro) el cual se encarga de separar los objetos que se encuentran en nuestra imagen tras lo cual se recurren a los patrones de los que disponemos para diferenciarlos (en nuestro caso lo har&amp;#xED;amos recurriendo a la memoria).\n
  6. De forma muy b&amp;#xE1;sica y comparado con el humano un sistema de reconocimiento de objetos se compone de tres sencillos pasos. Para empezar un sistema de adquisici&amp;#xF3;n de im&amp;#xE1;genes captura una imagen del entorno deseado (que ser&amp;#xED;a el ojo), acto seguido esta imagen es enviada a una unidad de procesamiento (el cerebro) el cual se encarga de separar los objetos que se encuentran en nuestra imagen tras lo cual se recurren a los patrones de los que disponemos para diferenciarlos (en nuestro caso lo har&amp;#xED;amos recurriendo a la memoria).\n
  7. Una de las posibles utilidades de un sistema de reconocimiento de objetos puede ser el reconocimiento de patrones para la detecci&amp;#xF3;n de caras, separar los objetos de una imagen del fondo. Diferenciar en una fotograf&amp;#xED;a si la mariposa que en ella aparece es de un tipo u otro e incluso, en un grupo de mariposas, encontrar la que buscamos y descartar el resto.\n
  8. Una de las posibles utilidades de un sistema de reconocimiento de objetos puede ser el reconocimiento de patrones para la detecci&amp;#xF3;n de caras, separar los objetos de una imagen del fondo. Diferenciar en una fotograf&amp;#xED;a si la mariposa que en ella aparece es de un tipo u otro e incluso, en un grupo de mariposas, encontrar la que buscamos y descartar el resto.\n
  9. El reconocimiento de patrones es la disciplina cient&amp;#xED;fica cuyo objetivo es la clasificaci&amp;#xF3;n de objetos en un cierto n&amp;#xFA;mero de categor&amp;#xED;as, de esta forma cualquier tipo de medida que lo necesite ser&amp;#xE1; clasificada.\n\nPara ello existen 3 formas de hacerlo, que son con los enfoques estad&amp;#xED;stico, sint&amp;#xE1;ctico o estructural y mediante redes neuronales.\n
  10. Tanto el enfoque estad&amp;#xED;stico (t&amp;#xAA; de decisi&amp;#xF3;n) como el basado en redes neuronales utilizan patrones que se extraen de sus propiedades de naturaleza cualitativa, como por ejemplo el color, tama&amp;#xF1;o, densidad, peso, volumen que ocupan, etc.\n\nPor otro lado el enfoque sint&amp;#xE1;ctico se fundamenta en las relaciones geom&amp;#xE9;tricas asociadas a la forma de los objetos, lo que nos permite reconocer diferentes vistas de los mismos.\n
  11. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  12. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  13. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  14. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  15. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  16. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  17. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  18. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  19. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  20. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  21. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  22. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  23. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  24. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  25. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  26. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  27. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  28. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  29. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  30. En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y dise&amp;#xF1;o. Para &amp;#xE9;sta &amp;#xFA;ltima necesitamos un conjunto de muestras del objeto que queremos procesar, as&amp;#xED; pues para ello se debe realizar una selecci&amp;#xF3;n de caracter&amp;#xED;sticas y dise&amp;#xF1;ar el clasificador a partir de unas funciones de decisi&amp;#xF3;n que se explicar&amp;#xE1;n m&amp;#xE1;s adelante.\n\nPara la fase de funcionamiento se podr&amp;#xED;a decir que la primera etapa es casi la m&amp;#xE1;s importante, &amp;#xE9;sta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, tambi&amp;#xE9;n hay que operar con ella y hacerle operaciones como la detecci&amp;#xF3;n de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentaci&amp;#xF3;n se aisla al objeto, separ&amp;#xE1;ndolo del resto de la imagen. Acto seguido se extraen las caracter&amp;#xED;sticas que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificaci&amp;#xF3;n. Estas dos &amp;#xFA;ltimas etapas est&amp;#xE1;n intr&amp;#xED;nsicamente relacionadas con las vistas en la fase de dise&amp;#xF1;o ya que &amp;#xE9;stas son definidas y reguladas desde la etapa de dise&amp;#xF1;o.\n
  31. La segmentaci&amp;#xF3;n, como muy bien explicaron los compa&amp;#xF1;eros la semana pasada es el proceso por el cual se divide una imagen digital en varias partes u objetos y as&amp;#xED; poder separar nuestro objeto de estudio del fondo y del entorno.\n\nSu principal objetivo es simplificar la forma de representar una imagen para ayudarnos en su estudio.\n\nAs&amp;#xED; pues, mediante un etiquetado pixel a pixel podemos separar los puntos que comparte la misma etiqueta, los cuales, podemos afirmar que tendr&amp;#xE1;n grandes similitudes visuales.\n
  32. Se trata de transformar un objeto perteneciente a una imagen en un vector de atributos que lo defina, de forma que sea m&amp;#xE1;s f&amp;#xE1;cil compararlo con el resto de objetos a fin de diferenciarlo de ellos.\n\nInicialmente no sabemos si un dato ser&amp;#xE1; o no relevante, por tanto para generar un modelo introduciremos atributos y posteriormente podremos determinar si un atributo es o no relevante para la clasificaci&amp;#xF3;n.\n\nSi hay pocos ejemplos estos datos no relevantes pueden interferir en el modelo, por tanto debemos aumentar el numero de ejemplos de entrenamiento o realizar una etapa inicial de selecci&amp;#xF3;n de caracter&amp;#xED;sticas o atributos que influyan, dicho de otra forma, eliminar atributos poco relevantes o que induzcan a error.\n
  33. Cosas tales como el color, la forma geom&amp;#xE9;trica o el volumen son cosas que nos ayudan a diferenciar varios objetos. Pero a la hora de elegir las caracter&amp;#xED;sticas debemos tener en cuenta ciertas propiedades que nos ayuden a realizar de forma correcta nuestras tareas. De forma que no podemos elegir cualquiera, ya que puede inducirnos a error.\n\nLas principales propiedades que deben cumplir las caracter&amp;#xED;sticas que elijamos son las siguientes:\n=&gt;Robustez: la extracci&amp;#xF3;n debe ser insensible al ruido de captura e iluminaci&amp;#xF3;n, ya que en muchas ocasiones no se consigue limpiar la imagen al 100%\n=&gt;Discriminantes: las caracter&amp;#xED;sticas deben servir para distinguir objetos de clases distintas, de esta forma se entiende que no se puede distinguir entre un cami&amp;#xF3;n y un coche si la caracter&amp;#xED;stica que analizamos es el color de la carrocer&amp;#xED;a.\n=&gt;Invariante ante traslaci&amp;#xF3;n: los valores de las caracter&amp;#xED;sticas son independientes de la posici&amp;#xF3;n. Rotaci&amp;#xF3;n y escalado: caracter&amp;#xED;sticas independientes de la orientaci&amp;#xF3;n del objeto y de su tama&amp;#xF1;o. Perspectiva: transformaciones no lineales de deformaci&amp;#xF3;n.\n
  34. Cosas tales como el color, la forma geom&amp;#xE9;trica o el volumen son cosas que nos ayudan a diferenciar varios objetos. Pero a la hora de elegir las caracter&amp;#xED;sticas debemos tener en cuenta ciertas propiedades que nos ayuden a realizar de forma correcta nuestras tareas. De forma que no podemos elegir cualquiera, ya que puede inducirnos a error.\n\nLas principales propiedades que deben cumplir las caracter&amp;#xED;sticas que elijamos son las siguientes:\n=&gt;Robustez: la extracci&amp;#xF3;n debe ser insensible al ruido de captura e iluminaci&amp;#xF3;n, ya que en muchas ocasiones no se consigue limpiar la imagen al 100%\n=&gt;Discriminantes: las caracter&amp;#xED;sticas deben servir para distinguir objetos de clases distintas, de esta forma se entiende que no se puede distinguir entre un cami&amp;#xF3;n y un coche si la caracter&amp;#xED;stica que analizamos es el color de la carrocer&amp;#xED;a.\n=&gt;Invariante ante traslaci&amp;#xF3;n: los valores de las caracter&amp;#xED;sticas son independientes de la posici&amp;#xF3;n. Rotaci&amp;#xF3;n y escalado: caracter&amp;#xED;sticas independientes de la orientaci&amp;#xF3;n del objeto y de su tama&amp;#xF1;o. Perspectiva: transformaciones no lineales de deformaci&amp;#xF3;n.\n
  35. Un claro ejemplo es el que mostramos, se ve una imagen en la cual aparecen unas letras escritas a boli, esa ser&amp;#xED;a la imagen de la cual queremos realizar el reconocimiento de objetos, aunque en este ejemplo se trata de un reconocimiento de texto. En este segundo paso tenemos el vector de caracter&amp;#xED;sticas o atributos que se han extraido de la imagen. Dicho vector se enviar&amp;#xE1; al clasificador en el cual, tras aplicar los algoritmos necesarios para comparar nuestras caracter&amp;#xED;sticas con las de la base de datos, se obtendr&amp;#xE1; el texto digitalizado y se etiquetar&amp;#xE1; a cada letra asignandole su valor alfanumerico.\n
  36. El clasificador, como su propio nombre indica, se encarga de clasificar todos y cada uno de los objetos que le llegan y dividirlos en cada una de las clases que se hayan contemplado en la base de datos o en los patrones de referencia. Aqu&amp;#xED; llega la imagen adecuadamente tratada y extraida de su fondo y entorno. \n\nLa clasificaci&amp;#xF3;n parte de un vector de atributos obtenido mediante la extracci&amp;#xF3;n de caracter&amp;#xED;sticas, vector el cual es comparado con los existentes en las bibliotecas que usamos para clasificar nuestros objetos.\n\nLos mecanismos que se encargan de esta tarea son los que van a explicar mis compa&amp;#xF1;eros a continuaci&amp;#xF3;n, aunque antes hay que hacer referencia al dise&amp;#xF1;o de esta etapa.\n
  37. Se trata del algoritmo que se encarga de decidir la denominaci&amp;#xF3;n de un objeto (definir a qu&amp;#xE9; clase pertenece) a partir de las caracter&amp;#xED;sticas o atributos extra&amp;#xED;dos.\n\nM&amp;#xE1;s adelante se van a ver los diferentes algoritmos de decisi&amp;#xF3;n que podemos utilizar para la clasificaci&amp;#xF3;n de los objetos.\n\nPor cuesti&amp;#xF3;n de tiempo no vamos a poder tratar todas las formas de abordar la clasificaci&amp;#xF3;n, por eso nos vamos a centrar en el dise&amp;#xF1;o de clasificadores por entrenamiento de los mismos, es decir, en el aprendizaje m&amp;#xE1;quina.\n
  38. \n
  39. Clasificaci&amp;#xF3;n seg&amp;#xFA;n el paradigma\n-Aprendizaje Deductivo: Las t&amp;#xE9;cnicas del Aprendizaje Deductivo se basan en la transferencia de los conocimientos que un experto humano posee a un sistema inform&amp;#xE1;tico. Un ejemplo paradigm&amp;#xE1;tico de las metodolog&amp;#xED;as que utilizan tales t&amp;#xE9;cnicas lo constituyen los Sistemas Basados en el Conocimiento y, en particular, los Sistemas Expertos.\n\n-Aprendizaje Inductivo: Las t&amp;#xE9;cnicas de Aprendizaje Inductivo se basan en que el sistema pueda, autom&amp;#xE1;ticamente, conseguir los conocimientos necesarios a partir de ejemplos reales sobre la tarea que se desea modelizar. En este segundo tipo, los ejemplos los constituyen aquellas partes de los sistemas basados en los modelos ocultos de Markov o en las redes neuronales artificiales que son configuradas autom&amp;#xE1;ticamente a partir de muestras de aprendizaje.\n\n-Por refuerzo:\nEl sistema no recibe informaci&amp;#xF3;n de entrada, sino q intenta x si mismo obtener datos (EXPLORACI&amp;#xD3;N AUTONOMA) y su sistema de aprendizaje es mediante prueba y error.\nProblema:&amp;#xBF;EN QUE MOMENTO DEJAMOS DE APRENDER?\nSoluci&amp;#xF3;n de compromiso: Dilema entre la exploraci&amp;#xF3;n (continuar buscado nueva reglas) y la explotaci&amp;#xF3;n (utilizar las reglas aprendidas)\n\nDentro del aprendizaje inductivo encontramos:\n\nAprendizaje supervisado\nEl algoritmo produce una funci&amp;#xF3;n que establece una correspondencia entre las entradas y las salidas deseadas del sistema. Un ejemplo de este tipo de algoritmo es el problema de clasificaci&amp;#xF3;n, donde el sistema de aprendizaje trata de etiquetar (clasificar) una serie de vectores utilizando una entre varias categor&amp;#xED;as (clases). La base de conocimiento del sistema est&amp;#xE1; formada por ejemplos de etiquetados anteriores. Este tipo de aprendizaje puede llegar a ser muy &amp;#xFA;til en problemas de investigaci&amp;#xF3;n biologica, biologia computacional y bioinformatica.\nAprendizaje no supervisado\nTodo el proceso de modelado se lleva a cabo sobre un conjunto de ejemplos formado tan s&amp;#xF3;lo por entradas al sistema. No se tiene informaci&amp;#xF3;n sobre las categor&amp;#xED;as de esos ejemplos. Por lo tanto, en este caso, el sistema tiene que ser capaz de reconocer patrones para poder etiquetar las nuevas entradas.\nAprendizaje semisupervisado\nEste tipo de algoritmos combinan los dos algoritmos anteriores para poder clasificar de manera adecuada. Se tiene en cuenta los datos marcados y los no marcados.\nAprendizaje por refuerzo\nEl algoritmo aprende observando el mundo que le rodea. Su informaci&amp;#xF3;n de entrada es el feedback o retroalimentaci&amp;#xF3;n que obtiene del mundo exterior como respuesta a sus acciones. Por lo tanto, el sistema aprende a base de ensayo-error.\nTransducci&amp;#xF3;n\nSimilar al aprendizaje supervisado, pero no construye de forma expl&amp;#xED;cita una funci&amp;#xF3;n. Trata de predecir las categor&amp;#xED;as de los futuros ejemplos bas&amp;#xE1;ndose en los ejemplos de entrada, sus respectivas categor&amp;#xED;as y los ejemplos nuevos al sistema.\nAprendizaje multi-tarea\nM&amp;#xE9;todos de aprendizaje que usan conocimiento previamente aprendido por el sistema de cara a enfrentarse a problemas parecidos a los ya vistos.\n
  40. \n
  41. \n
  42. \n
  43. \n
  44. \n
  45. \n
  46. \n
  47. \n
  48. \n
  49. \n
  50. \n
  51. \n
  52. \n
  53. \n
  54. \n
  55. \n
  56. \n
  57. \n
  58. \n
  59. \n
  60. \n
  61. \n
  62. \n
  63. \n
  64. \n
  65. \n
  66. \n
  67. \n
  68. \n
  69. \n
  70. \n
  71. \n
  72. \n
  73. \n
  74. \n
  75. \n
  76. \n
  77. \n
  78. \n
  79. \n
  80. \n
  81. \n
  82. \n
  83. \n
  84. \n
  85. \n
  86. \n
  87. \n
  88. \n
  89. \n
  90. \n
  91. \n
  92. \n
  93. \n
  94. \n
  95. \n
  96. \n
  97. \n
  98. \n
  99. \n
  100. \n
  101. CONCEPTO: (OBTENER UN MODELO) \nEs obtener el modelo el cual queremos aprender a partir de los ejemplos de entrenamiento, tambi&amp;#xE9;n llamado hip&amp;#xF3;tesis. Seg&amp;#xFA;n los atributos, me dir&amp;#xE1; la clase del nuevo ejemplo que tenemos que estudiar, EL MODELO.\nLos conceptos (tipos de modelos) se expresan de diferentes formas:\n &amp;#xC1;rboles de decisi&amp;#xF3;n\n Listas de reglas\n Redes Neuronales\n Vecino m&amp;#xE1;s proximo\n Modelos bayesianos o probabil&amp;#xED;sticos.\n Etc.\nLas fronteras de decisi&amp;#xF3;n (frontera entre clases distintas de acuerdo con el modelo) que crea cada modelo, son diferentes. \n\n INSTANCIA: Cada uno de los ejemplos de entrenamiento vistos hasta ese momento.\n ATRIBUTO: Cada una de las medidas que forman el vector de atributos de un ejemplo, pueden ser:\n REALES: Puede tomar cualquier valor num&amp;#xE9;rico dentro de un rango.\n DISCRETO: Toman valores discretos ordenados.\nEj: La temperatura como {alta, media, baja}.\n CATEG&amp;#xD3;RICOS: Toma valores discretos no ordenados.\nEj: El color como {azul, rojo, amarillo}.\n CLASE: Es el atributo que debe deducirse a partir de los dem&amp;#xE1;s.\n
  102. an pasado anteriormente.\nEjemplo: modelado de la probabilidad de fallo de una m&amp;#xE1;quina.\n- Clases: Comprobamos si la m&amp;#xE1;quina puede fallar o no puede.\nAtributos: Son el conjunto de medidas con las que podemos ver si sucede:\nTemperatura.\nNivel de vibraciones.\nHoras de funcionamiento.\nMeses desde la &amp;#xFA;ltima revisi&amp;#xF3;n.\n- Instancias: Situaciones que han pasado anteriormente.\nConcepto: Relaci&amp;#xF3;n entre las medidas y la probabilidad de fallo (IF-THEN).\n\nSI nivel_vibraciones = ALTO &amp; temperatura = ALTA. ENTONCES va a fallar seguro.\n\n
  103. \n
  104. Es la capacidad de expresar varios conceptos diferentes, se estudia mediante la frontera de decisi&amp;#xF3;n generada con cada modelo (&amp;#xE1;rboles de decisi&amp;#xF3;n, redes neuronales, etc), unos ejemplos con solo 2 atributos podr&amp;#xED;an ser:\n\nInstant&amp;#xE1;neamente podemos ver lo que est&amp;#xE1; haciendo nuestro modelo, el problema fundamental de este clasificador es que las rectas que definen a las fronteras de decisi&amp;#xF3;n han de ser perpendiculares a los ejes. LOS &amp;#xC1;RBOLES SON F&amp;#xC1;CILES DE ENTENDER E INTERPRETAR, LOS NIVELES ALTOS DEL &amp;#xC1;RBOL INDICAN LOS ATRIBUTOS M&amp;#xC1;S IMPORTANTES. \nPUDIENDO UTILIZARSE PARA OFRECER INFORMACI&amp;#xD3;N.\nRedes neuronales. Tiene fronteras no lineales.\nMayor capacidad de representaci&amp;#xF3;n.\nPermiten representar conceptos m&amp;#xE1;s complejos que los arboles de decisi&amp;#xF3;n.\n\nSus fronteras son mucho m&amp;#xE1;s complejas, lo que hace que el modelo est&amp;#xE9; formado por grandes tablas num&amp;#xE9;ricas, siendo habitualmente imposible ver intuitivamente lo que est&amp;#xE1; haciendo el modelo. Son muy dif&amp;#xED;ciles o imposibles de interpretar, ya que hay m&amp;#xFA;ltiples conexiones entre neuronas con pesos diferentes, y no podemos ver que atributo influye m&amp;#xE1;s. \nSE PUEDE UTILIZAR COMO UN CLASIFICADOR, PERO NO PARA OFRECER INFORMACI&amp;#xD3;N.\n\n
  105. \n
  106. \n
  107. \n
  108. \n
  109. \n
  110. \n
  111. \n
  112. \n
  113. \n
  114. \n
  115. \n
  116. \n
  117. \n
  118. \n
  119. \n
  120. \n
  121. \n
  122. \n
  123. \n
  124. \n
  125. \n
  126. \n
  127. \n
  128. \n
  129. \n
  130. \n
  131. \n
  132. \n
  133. \n
  134. \n
  135. \n
  136. \n
  137. \n
  138. \n
  139. \n
  140. \n
  141. \n
  142. \n
  143. \n
  144. \n
  145. \n
  146. \n
  147. \n
  148. \n
  149. \n
  150. \n
  151. \n
  152. \n
  153. \n
  154. \n
  155. \n
  156. \n
  157. \n
  158. \n
  159. \n
  160. \n
  161. \n
  162. \n
  163. \n
  164. \n
  165. \n
  166. \n
  167. \n
  168. \n
  169. \n
  170. Arboles de decisi&amp;#xF3;n: tiempo necesario para elegir la estructura del &amp;#xE1;rbol y los atributos a situar en cada uno de los nodos.\nRedes Neuronales: tiempo necesario para ajustar los pesos de las conexiones.\n
  171. NOTA PARA ALDO:\n&amp;#x201C;Funcionando muy lejos del nivel &amp;#xF3;ptimo si no se establece todo bien, necesitamos un &amp;#xF3;ptimo entrenamiento de las redes neuronales (velocidad: tasa de aprendizaje, n&amp;#xBA; iteraciones de la red neuronal).&amp;#x201D; \n\nNo entiendo lo que dice gonzalo.\n
  172. Unos ejemplos de entrenamiento ruidosos, se producen cuando hay una base de datos muy grande y puede que hayan ejemplos mal etiquetados.\n
  173. A medida que a&amp;#xF1;adimos niveles al Arbol de decisi&amp;#xF3;n, las hip&amp;#xF3;tesis se refinan tanto que describen muy bien los ejemplos utilizados en el aprendizaje, pero el error de clasificaci&amp;#xF3;n puede aumentar al evaluar ejemplos.\nSe dice que una hip&amp;#xF3;tesis h se sobreajusta al conjunto de entrenamiento si existe alguna otra hip&amp;#xF3;tesis h&apos; tal que el error de h es menor que el de h&apos; sobre el conjunto de entrenamiento, pero es mayo sobre la distribuci&amp;#xF3;n completa de ejemplos del problema (entrenamiento + test).\nEs decir, clasifica muy bien los datos de entrenamiento pero luego no sabe generalizar al conjunto de test. Es debido a que aprende hasta el ruido del conjunto de entrenamiento, adapt&amp;#xE1;ndose a las regularidades del conjunto de entrenamiento).\n\n
  174. \n
  175. \n
  176. \n
  177. \n
  178. \n
  179. \n
  180. \n
  181. \n
  182. \n
  183. \n
  184. \n
  185. \n
  186. \n
  187. \n
  188. \n
  189. \n
  190. \n
  191. \n
  192. \n
  193. \n
  194. \n
  195. \n
  196. \n
  197. \n
  198. \n
  199. \n
  200. \n
  201. \n
  202. \n
  203. \n
  204. \n
  205. \n
  206. \n
  207. \n
  208. \n
  209. \n
  210. \n
  211. \n
  212. \n
  213. \n
  214. \n
  215. \n
  216. \n
  217. \n
  218. \n
  219. \n
  220. \n
  221. \n
  222. \n
  223. \n
  224. \n
  225. \n
  226. \n
  227. \n
  228. \n
  229. \n
  230. \n
  231. \n
  232. \n
  233. \n
  234. \n
  235. \n
  236. \n
  237. \n
  238. \n
  239. \n
  240. \n
  241. \n
  242. \n
  243. \n
  244. \n
  245. \n
  246. \n
  247. \n
  248. \n
  249. \n
  250. \n
  251. \n
  252. \n
  253. \n
  254. \n
  255. \n
  256. \n
  257. \n
  258. \n
  259. \n
  260. \n
  261. \n
  262. \n
  263. \n
  264. \n
  265. \n
  266. \n
  267. \n
  268. \n
  269. \n
  270. \n
  271. \n
  272. \n
  273. \n
  274. \n
  275. \n
  276. \n
  277. \n
  278. \n
  279. \n
  280. \n
  281. \n
  282. \n
  283. \n
  284. \n
  285. \n
  286. \n
  287. \n
  288. \n
  289. \n
  290. \n
  291. \n
  292. \n
  293. \n
  294. \n
  295. \n
  296. \n
  297. \n
  298. \n
  299. \n
  300. \n
  301. \n
  302. \n
  303. \n
  304. \n
  305. \n
  306. \n
  307. \n
  308. \n
  309. \n
  310. \n
  311. \n
  312. \n
  313. \n
  314. \n
  315. \n
  316. \n
  317. \n
  318. \n
  319. \n
  320. \n
  321. \n
  322. \n
  323. \n
  324. \n
  325. \n
  326. \n
  327. \n
  328. \n
  329. \n
  330. Un clasificador bayesiano es un clasificador de patrones basado en teor&amp;#xED;as estad&amp;#xED;sticas de aprendizaje. El aprendizaje bayesiano calcula la probabilidad de cada hip&amp;#xF3;tesis de los datos y realiza predicciones sobre estas bases. Es un aprendizaje casi &amp;#xF3;ptimo, pero requiere grandes cantidades de c&amp;#xE1;lculo debido a que el espacio de hip&amp;#xF3;tesis es normalmente muy grande, o incluso puede ser infinito.\n
  331. \n
  332. \n
  333. \n
  334. \n
  335. \n
  336. \n
  337. \n
  338. \n
  339. \n
  340. \n
  341. \n
  342. Otra caracter&amp;#xED;stica importante de estas caracter&amp;#xED;sticas es que las posiciones relativas entre ellos en la escena original no debe cambiar de una imagen a otra. Por ejemplo, si s&amp;#xF3;lo las cuatro esquinas de una puerta fueron utilizados como caracter&amp;#xED;sticas, que podr&amp;#xED;a funcionar independientemente de la posici&amp;#xF3;n de la puerta, pero si los puntos en el marco se utiliza tambi&amp;#xE9;n, el reconocimiento fallar&amp;#xED;a si la puerta est&amp;#xE1; abierta o cerrada\n\n\n
  343. David G. Lowe profesor del departamento de ciencias de la computaci&amp;#xF3;n de la University of British Columbia e investigador de visi&amp;#xF3;n artificial \nSe almacenan el conjunto de puntos significativos con sus caracter&amp;#xED;sticas para cada objeto\n
  344. \n
  345. \n
  346. Estos detectores se basan en una cascada de clasificadores que es explorada por toda la imagen en m&amp;#xFA;ltiples escalas y localizaciones. Cada etapa de la cascada se basa en el uso de simples caracter&amp;#xED;sticas tipo Haar (eficientemente computadas utilizando la imagen integral) seleccionadas y combinadas mediante AdaBoost durante el entrenamiento.\n
  347. La eficiencia de este esquema reside en el hecho de que los negativos (la inmensa mayor&amp;#xED;a de las ventanas a explorar) van siendo eliminados progresivamente (ver Fig. 2), de forma que las primeras etapas eliminan a un gran n&amp;#xFA;mero de ellos (los m&amp;#xE1;s f&amp;#xE1;ciles) con muy poco procesado. Esto permite que las etapas finales tengan tiempo suficiente para encargarse de clasificar correctamente los casos m&amp;#xE1;s dif&amp;#xED;ciles.\n\n
  348. \n