SlideShare una empresa de Scribd logo
1 de 62
Descargar para leer sin conexión
Aula: Redes Competitivas y
    Mapas de Kohonen
Antecedentes

     Los trabajos de Von der Malsburg (1973) trazan la
     auto organización de las células nerviosas.

      En 1975, Fukushima propuso el cognitron que es
     una red competitiva multicapa y auto organizada.

      Willshaw y von der Malsburg (1976) trabajaron
     sobre la formación de las conexiones neuronales
     mediante Autoorganización.

     Grossberg (1972, 1976) sobre la clasificación
     adaptativa de patrones.
2
Aprendizaje supervisado
 Se le suministra a la red un conjunto de datos de entrada y la
 respuesta esperada.

 Se comparan los datos obtenidos por el sistema con los datos
 de entrada aportados, con la respuesta esperada y se
 modifican los pesos en función del error obtenido.

 El conjunto de datos utilizados en el proceso de aprendizaje
 se denomina conjunto de entrenamiento (training set).

 Si los vectores de entrada utilizados no contienen la
 información idónea la red puede llegar a no aprender.




Mecanismos de aprendizaje
Aprendizaje no supervisado
  Sólo se aplica a la red neuronal los datos de entrada, sin indicarle
  la salida esperada.

  La red neuronal es capaz de reconocer algún tipo de estructura
  en el conjunto de datos de entrada (normalmente redundancia de
  datos) y de esta forma se produce auto-aprendizaje.

  Durante el proceso de aprendizaje la red autoorganizada debe
  descubrir por sí misma rasgos comunes, regularidades,
  correlaciones o categorías en los datos de entrada, incorporarlos
  a su estructura interna de conexiones.

  Se dice, por tanto, que las neuronas deben auto-organizarse en
  función de los estímulos (datos) procedentes del exterior.



Mecanismos de aprendizaje
Neurociencias Conceptos




La inspiración biológica
Humunculus, el hombrecito dentro del cerebro




La inspiración biológica
Humunculus, el hombrecito dentro del cerebro




La inspiración biológica
Cartas retinotópicas




 Hubel & Wiesel




La inspiración biológica
Cartas retinotópicas
Informaciones Multidimensionales




                La inspiración biológica
Sinestesia




             La inspiración biológica
Sinestesia




             La inspiración biológica
Proceso biológico




Si algunas regiones del espacio de entrada son mas usadas que otras y
reciben una rica variedad de estímulos estas se mapearan mejor.
(ej. Las manos de un pianista o un cirujano)
Autoorganización
 Cada nodo de la red tiene
 conexiones exicitatorias laterales
 con su vecinos mas próximos pero
 conexiones laterales inhibitorias con
 sus vecinos mas distantes.



 En el mapa topográfico cortical estas
 regiones crecerán , mientras que las
 regiones que no son usadas se
 harán mas pequeñas.




La inspiración biológica
El “sombrero mejicano”

         Respuesta Positiva

 +       (Excitación)



 -       Respuesta Negativa
         (Inhibición)




                  La inspiración biológica
El “sombrero mejicano”




               La inspiración biológica
Biológico
         Tomando la inspiración biológica




                Ejemplos              Red de Neuronas        Mapas Autoorganizados

                Estímulos del espacio Proceso de aprendizaje Al final del aprendizaje
                de entrada            por competición        neuronas con
                                                             características
 Bioinspirado




                                                             similares se ubican cerca
                                                             unas
                                                             de otras.



                                           La inspiración biológica
Redes No Supervisadas
Redes Competitivas.
Mapas de Kohonen-Self Organizing Maps (SOM).




“Generación de una taxonomía de datos sin
conocimientos previos”
Redes Neuronales Competitivas




La competición entre neuronas hará que una sola de ellas (ó
algunas en ciertos casos) sean las que aprendan.
De esta forma lograremos que cada unidad aprenda información
diferente, es decir se especialice.
Red neuronal competitiva

Una red competitiva está constituida por N sensores de
entrada, M unidades de proceso (neuronas artificiales), y
conexiones entre cada sensor y cada unidad de proceso,
de manera que la conexión entre el sensor j y la unidad
de proceso i tiene asociado un valor wij.
Regla de aprendizaje
Por lo tanto la regla de aprendizaje es la
siguiente:



Donde r es la unidad ganadora, del mayor
potencial sinaptico:
Interpretación Geométrica
Para entender mejor dicha regla de aprendizaje vamos a
realizar la siguiente interpretación geométrica.
Aplicaciones de sistemas
          organizados

“Clustering” ó agrupamiento.

Reducción de la dimensionalidad.

Detección de familiaridad (similitud entre un
valor nuevo y valores ya presentados).
Agrupamiento




Conjunto de datos representados en dos
dimensiones.
Creando el modelo bioinspirado
       Inspirándose en estos comportamientos biológicos se
       desarrollaron los mapas autoorganizados.

       Los Mapas Autoorganizados o SOM (Self-Organizing
       Maps) fueron creados por Teuvo Kohonen entre los
       años 1982 y 1990

       La idea se basa en un funcionamiento biológico de
       aprendizaje por competición, de forma que cuando un
       conjunto de datos de entrada se presenta a la red, los
       pesos de las neuronas se adaptan de forma que la
       clasificación presente en el espacio de entrada se
       preserva en la salida.
Red SOFM




Capa de entrada.
Capa de Competitiva.
Conexión entre cada entrada con todas las
neuronas.
SOFM (Self-organizing Feature Map)

También llamados Mapas Autorganizado de
Kohonen.
Aprendizaje de la red Kohonen

Calculamos la mínima distancia entre los pesos
y las entradas de nuestro sistema.




Por lo tanto:
Aprendizaje con vecindario

Adicionamos la capacidad de relación con las
neuronas vecinas tenemos:




:valor entero que marca el
limite del vecindario de
aprendizaje
Tipos de Vecindarios: Bidimensionales
Arquitectura SOM
      n       Capa de entrada
      …       Una por cada variable de entrada



              Capa de salida y competición
              No existe capa oculta



          n
          …

  m
  …
Un ejemplo de la arquitectura SOM

              Capa de entrada de tres dimensiones (x,y,z)




              Capa de salida y competición de 9 neuronas
Capa de entrada


                           Tabla con ejemplos

                           Estímulos del espacio
                           de entrada.

                           Una neurona por cada
                           dimensión, en este ejemplo 3.




           3
          R
               x   y   z
Capa de entrada


                                          Cada neurona de la capa de
                                          entrada esta conectada a
                                          todas las neuronas de la
                                          capa de salida.




                          3
                         R
                              x   y   z
Mapas autoorganizados/ Un ejemplo de la arquitectura SOM
Capa de entrada

  18.91   22.13   27.40


                                          Cada ejemplo es
                                          presentado a las neuronas
                                          de la capa de salida.

                                          Así se buscan las neuronas
                                          mas parecidas al vector de
                                          entrada mediante un
                                          proceso de competición.

                                          Finalmente se crean
                                          grupos con características
                          3               similares.
                          R
                              x   y   z
Mapas autoorganizados/ Un ejemplo de la arquitectura SOM
Capa de salida y competición
Entre las neuronas de la capa de salida, puede decirse que existen
conexiones laterales de excitación e inhibición implícitas, pues
aunque no estén conectadas, cada una de estas neuronas va a tener
cierta influencia sobre sus vecinas.




Mapas autoorganizados/ Un ejemplo de la arquitectura SOM
Capa de salida y competición
La influencia sobre vecinos se consigue a través de un proceso de competición
entre las neuronas y de la aplicación de una función denominada de vecindad.
                             2
                                 1
                                                 Cuadrada
                                         0




                                 2
                                     1
                                         0        Hexagonal



Mapas autoorganizados/ Un ejemplo de la arquitectura SOM
1.Determinar la topología del mapa
2. Determinar el tamaño del mapa
3. Escoger el tipo de vecindario




    2               2
        1               1
            0               0
4. Inicializar los pesos de las neuronas




                                    2
                                    R
                            x   y
Concepto de peso
Capa de Entrada                    Capa de Salida

Dos                                        w
Dimensiones                                         Dos
                  w2                  w1
                                                    Dimensiones
(x,y)                                 w2

                        w
                            w1
                                           w
Tres               w3
                                      w1            Dos
Dimensiones                 w w1
                                      w2
                                      w3            Dimensiones
(x,y,z)
                  w2

                                           w
n                                     w1
                                      w2            Dos
Dimensiones                           w3
                                                    Dimensiones
                                      …
(x,y,z, …, n)                         wn
Inicializar los pesos de las neuronas




t=0


                                         2
                                         R
                                x   y
Inicializar los pesos de las neuronas




t=0       0.2 0.3




                                         2
                                         R
                                x   y
Inicializar los pesos de las neuronas

               0.2 0.3   0.4 0.8   0.9 0.3   0.5 0.7   0.7 0.3   0.6 0.1




               0.6 0.7   0.2 0.7   0.9 0.4   0.6 0.7   0.5 0.3   0.2 0.3




               0.4 0.7   0.9 0.2   0.1 0.3   0.8 0.3   0.5 0.8   0.3 0.3


t=0
               0.2 0.6   0.6 0.6   0.7 0.4   0.5 0.5   0.5 0.6   0.6 0.3




               0.2 0.7   0.7 0.8   0.7 0.8   0.8 0.6   0.6 0.7   0.2 0.3




               0.2 0.7   0.2 0.3   0.9 0.3   0.9 0.7   0.2 0.3   0.7 0.8
Inicializar los pesos de las neuronas




                0.2   0.4   0.9   0.5   0.7   0.6
                0.3   0.8   0.3   0.7   0.3   0.1



                0.6   0.2   0.9   0.6   0.5   0.2


t=0
                0.7   0.7   0.4   0.7   0.3   0.3



                0.4   0.9   0.1   0.8   0.5   0.3
                0.7   0.2   0.3   0.3   0.8   0.3



                0.2   0.6   0.7   0.5   0.5   0.6
                0.6   0.6   0.4   0.5   0.6   0.3


                                                            2
                0.2
                0.7
                      0.7
                      0.8
                            0.7
                            0.8
                                  0.8
                                  0.6
                                        0.6
                                        0.7
                                              0.2
                                              0.3
                                                            R
                0.2
                0.7
                      0.2
                      0.3
                            0.9
                            0.3
                                  0.9
                                  0.7
                                        0.2
                                        0.3
                                              0.7
                                              0.8
                                                    x   y
Inicializar los pesos de las neuronas




                        0.2   0.4   0.9   0.5   0.7   0.6
                        0.3   0.8   0.3   0.7   0.3   0.1



                        0.6   0.2   0.9   0.6   0.5   0.2
                        0.7   0.7   0.4   0.7   0.3   0.3



                        0.4   0.9   0.1   0.8   0.5   0.3
                        0.7   0.2   0.3   0.3   0.8   0.3



                        0.2   0.6   0.7   0.5   0.5   0.6
                        0.6   0.6   0.4   0.5   0.6   0.3



                        0.2   0.7   0.7   0.8   0.6   0.2
                                                                    2
                        0.7   0.8   0.8   0.6   0.7   0.3
                                                                    R
                        0.2
                        0.7
                              0.2
                              0.3
                                    0.9
                                    0.3
                                          0.9
                                          0.7
                                                0.2
                                                0.3
                                                      0.7
                                                      0.8
                                                            x   y


Mapas autoorganizados/ Algoritmo de aprendizaje
Inicializar los pesos de las neuronas




                    0.2   0.4   0.9   0.5   0.7   0.6
1                   0.3   0.8   0.3   0.7   0.3   0.1



                    0.6   0.2   0.9   0.6   0.5   0.2
                    0.7   0.7   0.4   0.7   0.3   0.3



                    0.4   0.9   0.1   0.8   0.5   0.3
                    0.7   0.2   0.3   0.3   0.8   0.3


w2                  0.2   0.6   0.7   0.5   0.5   0.6
                    0.6   0.6   0.4   0.5   0.6   0.3



                    0.2   0.7   0.7   0.8   0.6   0.2
                                                                2
                    0.7   0.8   0.8   0.6   0.7   0.3
                                                                R
0      w1    1
                    0.2
                    0.7
                          0.2
                          0.3
                                0.9
                                0.3
                                      0.9
                                      0.7
                                            0.2
                                            0.3
                                                  0.7
                                                  0.8
                                                        x   y
5. Presentar una entrada a la red
                                                                 0.14 0.77




                             0.2   0.4   0.9   0.5   0.7   0.6
1                            0.3   0.8   0.3   0.7   0.3   0.1



                             0.6   0.2   0.9   0.6   0.5   0.2
                             0.7   0.7   0.4   0.7   0.3   0.3



                             0.4   0.9   0.1   0.8   0.5   0.3
                             0.7   0.2   0.3   0.3   0.8   0.3


w2                           0.2   0.6   0.7   0.5   0.5   0.6
                             0.6   0.6   0.4   0.5   0.6   0.3



                             0.2   0.7   0.7   0.8   0.6   0.2
                                                                                     2
                             0.7   0.8   0.8   0.6   0.7   0.3
                                                                                     R
0         w1       1
                             0.2
                             0.7
                                   0.2
                                   0.3
                                         0.9
                                         0.3
                                               0.9
                                               0.7
                                                     0.2
                                                     0.3
                                                           0.7
                                                           0.8
                                                                             x   y


     Mapas autoorganizados/ Algoritmo de aprendizaje
Presentar una entrada a la red
                                                                 0.14 0.77




                             0.2   0.4   0.9   0.5   0.7   0.6
1                            0.3   0.8   0.3   0.7   0.3   0.1



                             0.6   0.2   0.9   0.6   0.5   0.2
                             0.7   0.7   0.4   0.7   0.3   0.3



                             0.4   0.9   0.1   0.8   0.5   0.3
                             0.7   0.2   0.3   0.3   0.8   0.3


w2                           0.2   0.6   0.7   0.5   0.5   0.6
                             0.6   0.6   0.4   0.5   0.6   0.3



                             0.2   0.7   0.7   0.8   0.6   0.2
                                                                                     2
                             0.7   0.8   0.8   0.6   0.7   0.3
                                                                                     R
0         w1       1
                             0.2
                             0.7
                                   0.2
                                   0.3
                                         0.9
                                         0.3
                                               0.9
                                               0.7
                                                     0.2
                                                     0.3
                                                           0.7
                                                           0.8
                                                                             x   y


     Mapas autoorganizados/ Algoritmo de aprendizaje
6. Encontrar la neurona ganadora
                                                            0.14 0.77




                        0.2   0.4   0.9   0.5   0.7   0.6
                        0.3   0.8   0.3   0.7   0.3   0.1



                        0.6   0.2   0.9   0.6   0.5   0.2
                        0.7   0.7   0.4   0.7   0.3   0.3



                        0.4   0.9   0.1   0.8   0.5   0.3
                        0.7   0.2   0.3   0.3   0.8   0.3



                        0.2   0.6   0.7   0.5   0.5   0.6
                        0.6   0.6   0.4   0.5   0.6   0.3
                                                                                2
                        0.2
                        0.7
                              0.7
                              0.8
                                    0.7
                                    0.8
                                          0.8
                                          0.6
                                                0.6
                                                0.7
                                                      0.2
                                                      0.3
                                                                                R
                        0.2   0.2   0.9   0.9   0.2   0.7
                                                                        x   y
                        0.7   0.3   0.3   0.7   0.3   0.8




Mapas autoorganizados/ Algoritmo de aprendizaje
Ajustar los pesos de la neurona ganadora
 Ajustar los pesos de la neurona ganadora en la dirección del punto presente
 en la entrada.

 ∆W = α(t) (X – W) , también los pesos de las neuronas de la vecindad de la
 neurona ganadora.

 Pero con una tasa de aprendizaje reducida (Sombrero Mejicano) de manera
 que se especialice menos que la neurona ganadora.




Mapas autoorganizados/ Algoritmo de aprendizaje
7. Presentar otro ejemplo
                                                            0.09 0.71




                        0.2   0.4   0.9   0.5   0.7   0.6
                        0.3   0.8   0.3   0.7   0.3   0.1



                        0.6   0.2   0.9   0.6   0.5   0.2
                        0.7   0.7   0.4   0.7   0.3   0.3



                        0.4   0.9   0.1   0.8   0.5   0.3
                        0.7   0.2   0.3   0.3   0.8   0.3



                        0.2   0.6   0.7   0.5   0.5   0.6
                        0.6   0.6   0.4   0.5   0.6   0.3



                        0.2   0.7   0.7   0.8   0.6   0.2
                                                                                2
                        0.7   0.8   0.8   0.6   0.7   0.3
                                                                                R
                        0.2
                        0.7
                              0.2
                              0.3
                                    0.9
                                    0.3
                                          0.9
                                          0.7
                                                0.2
                                                0.3
                                                      0.7
                                                      0.8
                                                                        x   y


Mapas autoorganizados/ Algoritmo de aprendizaje
Presentar otro ejemplo
                                                            0.09 0.71




                        0.2   0.4   0.9   0.5   0.7   0.6
                        0.3   0.8   0.3   0.7   0.3   0.1



                        0.6   0.2   0.9   0.6   0.5   0.2
                        0.7   0.7   0.4   0.7   0.3   0.3



                        0.4   0.9   0.1   0.8   0.5   0.3
                        0.7   0.2   0.3   0.3   0.8   0.3



                        0.2   0.6   0.7   0.5   0.5   0.6
                        0.6   0.6   0.4   0.5   0.6   0.3



                        0.2   0.7   0.7   0.8   0.6   0.2
                                                                                2
                        0.7   0.8   0.8   0.6   0.7   0.3
                                                                                R
                        0.2
                        0.7
                              0.2
                              0.3
                                    0.9
                                    0.3
                                          0.9
                                          0.7
                                                0.2
                                                0.3
                                                      0.7
                                                      0.8
                                                                        x   y


Mapas autoorganizados/ Algoritmo de aprendizaje
BMU (Best match unit)




Mapas autoorganizados/ Algoritmo de aprendizaje
Repetir
 Reducir la vecindad de las neuronas y repetir 2 a 4 veces para todos los
 puntos por un cierto numero de iteraciones




Mapas autoorganizados/ Algoritmo de aprendizaje
Visualización y funcionamiento del mapa




                        0.2   0.4   0.9   0.5   0.7   0.6
                        0.3   0.8   0.3   0.7   0.3   0.1



                        0.6   0.2   0.9   0.6   0.5   0.2
                        0.7   0.7   0.4   0.7   0.3   0.3



                        0.4   0.9   0.1   0.8   0.5   0.3
                        0.7   0.2   0.3   0.3   0.8   0.3



                        0.2   0.6   0.7   0.5   0.5   0.6
                        0.6   0.6   0.4   0.5   0.6   0.3



                        0.2   0.7   0.7   0.8   0.6   0.2
                                                                    2
                        0.7   0.8   0.8   0.6   0.7   0.3
                                                                    R
                        0.2
                        0.7
                              0.2
                              0.3
                                    0.9
                                    0.3
                                          0.9
                                          0.7
                                                0.2
                                                0.3
                                                      0.7
                                                      0.8
                                                            x   y


Mapas autoorganizados/ Algoritmo de aprendizaje
Ejemplo




función de vecindad
Visualización y funcionamiento del mapa
•Una vez seleccionado el mapa óptimo, podemos pasar a la
fase de visualización observando en qué coordenadas del
mapa se encuentra la neurona asociada a cada patrón de
entrenamiento.

•Esto nos permite proyectar el espacio multidimensional de
entrada en un mapa bidimensional.

•Además de analizar la similitud entre los clusters o
agrupaciones de datos organizados por la propia red.

•Por este motivo, el modelo de mapa autoorganizado es
especialmente útil para establecer relaciones, desconocidas
previamente, entre conjuntos de datos.
Bondades de los mapas autoorganizados
 Clustering: Actuar como clasificadores, encontrando patrones en los datos
  de entrada y clasificándolos en grupos según estos patrones.

 Reducción de dimensión: Representar datos multidimensionales en
 espacios de mucha menor dimensión, normalmente una o dos
 dimensiones, preservando la topología de la entrada.

  Esto es muy útil cuando se trabaja con espacios multidimensionales (más
 de tres dimensiones) que el ser humano no es capaz de representar, como
 por ejemplo en problemas agro-ecológicos en los que intervienen
 numerosas variables como temperatura, precipitación, humedad relativa,
 etc.

 Pre-tratamiento de datos: SOM trabaja con ausencia de datos

 Análisis y comprensión de datos: SOM permite una presentación visual
 sobre las relaciones entre variables
Visualización y funcionamiento del mapa




                                                          2
                                                          R
                                                  x   y


Mapas autoorganizados/ Algoritmo de aprendizaje
Aplicacion

Más contenido relacionado

La actualidad más candente

REDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldREDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldESCOM
 
Geometría Computacional: Interseccción de segmentos
Geometría Computacional: Interseccción de segmentosGeometría Computacional: Interseccción de segmentos
Geometría Computacional: Interseccción de segmentosMiguel Sancho
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Informe N°2-Microcontroladores
Informe N°2-MicrocontroladoresInforme N°2-Microcontroladores
Informe N°2-MicrocontroladoresOmar Ruiz
 
Máquinas de turing y autómatas acotados
Máquinas de turing y autómatas acotadosMáquinas de turing y autómatas acotados
Máquinas de turing y autómatas acotadosBryan Chasiguano
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINEESCOM
 
Unidad No. 5 - Agentes Inteligentes
Unidad No. 5 - Agentes InteligentesUnidad No. 5 - Agentes Inteligentes
Unidad No. 5 - Agentes InteligentesMilton Klapp
 
Teoría De La Complejidad Algoritmica
Teoría De La Complejidad AlgoritmicaTeoría De La Complejidad Algoritmica
Teoría De La Complejidad AlgoritmicaRolf Pinto
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Codigo intermedio
Codigo intermedioCodigo intermedio
Codigo intermedioEmanuel Gs
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
Guía de ejercicios resueltos tema 2
Guía de ejercicios resueltos tema 2Guía de ejercicios resueltos tema 2
Guía de ejercicios resueltos tema 2Luis Zurita
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de AprendizajeESCOM
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 

La actualidad más candente (20)

REDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldREDES NEURONALES De Hopfield
REDES NEURONALES De Hopfield
 
Prolog
Prolog Prolog
Prolog
 
Geometría Computacional: Interseccción de segmentos
Geometría Computacional: Interseccción de segmentosGeometría Computacional: Interseccción de segmentos
Geometría Computacional: Interseccción de segmentos
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
 
Informe N°2-Microcontroladores
Informe N°2-MicrocontroladoresInforme N°2-Microcontroladores
Informe N°2-Microcontroladores
 
Máquinas de turing y autómatas acotados
Máquinas de turing y autómatas acotadosMáquinas de turing y autómatas acotados
Máquinas de turing y autómatas acotados
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINE
 
Unidad No. 5 - Agentes Inteligentes
Unidad No. 5 - Agentes InteligentesUnidad No. 5 - Agentes Inteligentes
Unidad No. 5 - Agentes Inteligentes
 
Arquitectura harvard
Arquitectura harvardArquitectura harvard
Arquitectura harvard
 
Teoría De La Complejidad Algoritmica
Teoría De La Complejidad AlgoritmicaTeoría De La Complejidad Algoritmica
Teoría De La Complejidad Algoritmica
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Codigo intermedio
Codigo intermedioCodigo intermedio
Codigo intermedio
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
Guía de ejercicios resueltos tema 2
Guía de ejercicios resueltos tema 2Guía de ejercicios resueltos tema 2
Guía de ejercicios resueltos tema 2
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 
Complejidad Computacional
Complejidad ComputacionalComplejidad Computacional
Complejidad Computacional
 
Pipelining
PipeliningPipelining
Pipelining
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 

Similar a Redes competitivas y mapas de Kohonen

Curso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 KohonenCurso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 Kohonenaskroll
 
Redes Neuronales de Base Radial aplicadas a la mejora de la calidad
Redes Neuronales de Base Radial aplicadas a la mejora de la calidadRedes Neuronales de Base Radial aplicadas a la mejora de la calidad
Redes Neuronales de Base Radial aplicadas a la mejora de la calidadUNIV OF PERU
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizadosJesus Rojas
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
Mapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenMapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenESCOM
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia competRichar León
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
Overview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsOverview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsRamiro Aduviri Velasco
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519lozanolc
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A daniatacho
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 

Similar a Redes competitivas y mapas de Kohonen (20)

Curso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 KohonenCurso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 Kohonen
 
Redes Neuronales de Base Radial aplicadas a la mejora de la calidad
Redes Neuronales de Base Radial aplicadas a la mejora de la calidadRedes Neuronales de Base Radial aplicadas a la mejora de la calidad
Redes Neuronales de Base Radial aplicadas a la mejora de la calidad
 
Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizados
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Mapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenMapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de Kohonen
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
 
Ap acompet
Ap acompetAp acompet
Ap acompet
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
Overview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsOverview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its Applications
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 

Último

EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveFagnerLisboa3
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesFundación YOD YOD
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdfIsabellaMontaomurill
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxJOSEMANUELHERNANDEZH11
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxpabonheidy28
 
9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudianteAndreaHuertas24
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx241521559
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...silviayucra2
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan JosephBRAYANJOSEPHPEREZGOM
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIAWilbisVega
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfsoporteupcology
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricKeyla Dolores Méndez
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíassuserf18419
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)GDGSucre
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafiosFundación YOD YOD
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024GiovanniJavierHidalg
 

Último (16)

EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento Protégeles
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdf
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptx
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docx
 
9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Joseph
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdf
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnología
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafios
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024
 

Redes competitivas y mapas de Kohonen

  • 1. Aula: Redes Competitivas y Mapas de Kohonen
  • 2. Antecedentes Los trabajos de Von der Malsburg (1973) trazan la auto organización de las células nerviosas. En 1975, Fukushima propuso el cognitron que es una red competitiva multicapa y auto organizada. Willshaw y von der Malsburg (1976) trabajaron sobre la formación de las conexiones neuronales mediante Autoorganización. Grossberg (1972, 1976) sobre la clasificación adaptativa de patrones. 2
  • 3. Aprendizaje supervisado Se le suministra a la red un conjunto de datos de entrada y la respuesta esperada. Se comparan los datos obtenidos por el sistema con los datos de entrada aportados, con la respuesta esperada y se modifican los pesos en función del error obtenido. El conjunto de datos utilizados en el proceso de aprendizaje se denomina conjunto de entrenamiento (training set). Si los vectores de entrada utilizados no contienen la información idónea la red puede llegar a no aprender. Mecanismos de aprendizaje
  • 4. Aprendizaje no supervisado Sólo se aplica a la red neuronal los datos de entrada, sin indicarle la salida esperada. La red neuronal es capaz de reconocer algún tipo de estructura en el conjunto de datos de entrada (normalmente redundancia de datos) y de esta forma se produce auto-aprendizaje. Durante el proceso de aprendizaje la red autoorganizada debe descubrir por sí misma rasgos comunes, regularidades, correlaciones o categorías en los datos de entrada, incorporarlos a su estructura interna de conexiones. Se dice, por tanto, que las neuronas deben auto-organizarse en función de los estímulos (datos) procedentes del exterior. Mecanismos de aprendizaje
  • 6. Humunculus, el hombrecito dentro del cerebro La inspiración biológica
  • 7. Humunculus, el hombrecito dentro del cerebro La inspiración biológica
  • 8. Cartas retinotópicas Hubel & Wiesel La inspiración biológica
  • 10. Informaciones Multidimensionales La inspiración biológica
  • 11. Sinestesia La inspiración biológica
  • 12. Sinestesia La inspiración biológica
  • 13. Proceso biológico Si algunas regiones del espacio de entrada son mas usadas que otras y reciben una rica variedad de estímulos estas se mapearan mejor. (ej. Las manos de un pianista o un cirujano)
  • 14. Autoorganización Cada nodo de la red tiene conexiones exicitatorias laterales con su vecinos mas próximos pero conexiones laterales inhibitorias con sus vecinos mas distantes. En el mapa topográfico cortical estas regiones crecerán , mientras que las regiones que no son usadas se harán mas pequeñas. La inspiración biológica
  • 15. El “sombrero mejicano” Respuesta Positiva + (Excitación) - Respuesta Negativa (Inhibición) La inspiración biológica
  • 16. El “sombrero mejicano” La inspiración biológica
  • 17. Biológico Tomando la inspiración biológica Ejemplos Red de Neuronas Mapas Autoorganizados Estímulos del espacio Proceso de aprendizaje Al final del aprendizaje de entrada por competición neuronas con características Bioinspirado similares se ubican cerca unas de otras. La inspiración biológica
  • 18. Redes No Supervisadas Redes Competitivas. Mapas de Kohonen-Self Organizing Maps (SOM). “Generación de una taxonomía de datos sin conocimientos previos”
  • 19. Redes Neuronales Competitivas La competición entre neuronas hará que una sola de ellas (ó algunas en ciertos casos) sean las que aprendan. De esta forma lograremos que cada unidad aprenda información diferente, es decir se especialice.
  • 20. Red neuronal competitiva Una red competitiva está constituida por N sensores de entrada, M unidades de proceso (neuronas artificiales), y conexiones entre cada sensor y cada unidad de proceso, de manera que la conexión entre el sensor j y la unidad de proceso i tiene asociado un valor wij.
  • 21. Regla de aprendizaje Por lo tanto la regla de aprendizaje es la siguiente: Donde r es la unidad ganadora, del mayor potencial sinaptico:
  • 22. Interpretación Geométrica Para entender mejor dicha regla de aprendizaje vamos a realizar la siguiente interpretación geométrica.
  • 23. Aplicaciones de sistemas organizados “Clustering” ó agrupamiento. Reducción de la dimensionalidad. Detección de familiaridad (similitud entre un valor nuevo y valores ya presentados).
  • 24. Agrupamiento Conjunto de datos representados en dos dimensiones.
  • 25. Creando el modelo bioinspirado Inspirándose en estos comportamientos biológicos se desarrollaron los mapas autoorganizados. Los Mapas Autoorganizados o SOM (Self-Organizing Maps) fueron creados por Teuvo Kohonen entre los años 1982 y 1990 La idea se basa en un funcionamiento biológico de aprendizaje por competición, de forma que cuando un conjunto de datos de entrada se presenta a la red, los pesos de las neuronas se adaptan de forma que la clasificación presente en el espacio de entrada se preserva en la salida.
  • 26. Red SOFM Capa de entrada. Capa de Competitiva. Conexión entre cada entrada con todas las neuronas.
  • 27. SOFM (Self-organizing Feature Map) También llamados Mapas Autorganizado de Kohonen.
  • 28. Aprendizaje de la red Kohonen Calculamos la mínima distancia entre los pesos y las entradas de nuestro sistema. Por lo tanto:
  • 29. Aprendizaje con vecindario Adicionamos la capacidad de relación con las neuronas vecinas tenemos: :valor entero que marca el limite del vecindario de aprendizaje
  • 30. Tipos de Vecindarios: Bidimensionales
  • 31. Arquitectura SOM n Capa de entrada … Una por cada variable de entrada Capa de salida y competición No existe capa oculta n … m …
  • 32. Un ejemplo de la arquitectura SOM Capa de entrada de tres dimensiones (x,y,z) Capa de salida y competición de 9 neuronas
  • 33. Capa de entrada Tabla con ejemplos Estímulos del espacio de entrada. Una neurona por cada dimensión, en este ejemplo 3. 3 R x y z
  • 34. Capa de entrada Cada neurona de la capa de entrada esta conectada a todas las neuronas de la capa de salida. 3 R x y z Mapas autoorganizados/ Un ejemplo de la arquitectura SOM
  • 35. Capa de entrada 18.91 22.13 27.40 Cada ejemplo es presentado a las neuronas de la capa de salida. Así se buscan las neuronas mas parecidas al vector de entrada mediante un proceso de competición. Finalmente se crean grupos con características 3 similares. R x y z Mapas autoorganizados/ Un ejemplo de la arquitectura SOM
  • 36. Capa de salida y competición Entre las neuronas de la capa de salida, puede decirse que existen conexiones laterales de excitación e inhibición implícitas, pues aunque no estén conectadas, cada una de estas neuronas va a tener cierta influencia sobre sus vecinas. Mapas autoorganizados/ Un ejemplo de la arquitectura SOM
  • 37. Capa de salida y competición La influencia sobre vecinos se consigue a través de un proceso de competición entre las neuronas y de la aplicación de una función denominada de vecindad. 2 1 Cuadrada 0 2 1 0 Hexagonal Mapas autoorganizados/ Un ejemplo de la arquitectura SOM
  • 39. 2. Determinar el tamaño del mapa
  • 40. 3. Escoger el tipo de vecindario 2 2 1 1 0 0
  • 41. 4. Inicializar los pesos de las neuronas 2 R x y
  • 42. Concepto de peso Capa de Entrada Capa de Salida Dos w Dimensiones Dos w2 w1 Dimensiones (x,y) w2 w w1 w Tres w3 w1 Dos Dimensiones w w1 w2 w3 Dimensiones (x,y,z) w2 w n w1 w2 Dos Dimensiones w3 Dimensiones … (x,y,z, …, n) wn
  • 43. Inicializar los pesos de las neuronas t=0 2 R x y
  • 44. Inicializar los pesos de las neuronas t=0 0.2 0.3 2 R x y
  • 45. Inicializar los pesos de las neuronas 0.2 0.3 0.4 0.8 0.9 0.3 0.5 0.7 0.7 0.3 0.6 0.1 0.6 0.7 0.2 0.7 0.9 0.4 0.6 0.7 0.5 0.3 0.2 0.3 0.4 0.7 0.9 0.2 0.1 0.3 0.8 0.3 0.5 0.8 0.3 0.3 t=0 0.2 0.6 0.6 0.6 0.7 0.4 0.5 0.5 0.5 0.6 0.6 0.3 0.2 0.7 0.7 0.8 0.7 0.8 0.8 0.6 0.6 0.7 0.2 0.3 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8
  • 46. Inicializar los pesos de las neuronas 0.2 0.4 0.9 0.5 0.7 0.6 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 t=0 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 2 0.2 0.7 0.7 0.8 0.7 0.8 0.8 0.6 0.6 0.7 0.2 0.3 R 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8 x y
  • 47. Inicializar los pesos de las neuronas 0.2 0.4 0.9 0.5 0.7 0.6 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 0.2 0.7 0.7 0.8 0.6 0.2 2 0.7 0.8 0.8 0.6 0.7 0.3 R 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8 x y Mapas autoorganizados/ Algoritmo de aprendizaje
  • 48. Inicializar los pesos de las neuronas 0.2 0.4 0.9 0.5 0.7 0.6 1 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 w2 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 0.2 0.7 0.7 0.8 0.6 0.2 2 0.7 0.8 0.8 0.6 0.7 0.3 R 0 w1 1 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8 x y
  • 49. 5. Presentar una entrada a la red 0.14 0.77 0.2 0.4 0.9 0.5 0.7 0.6 1 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 w2 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 0.2 0.7 0.7 0.8 0.6 0.2 2 0.7 0.8 0.8 0.6 0.7 0.3 R 0 w1 1 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8 x y Mapas autoorganizados/ Algoritmo de aprendizaje
  • 50. Presentar una entrada a la red 0.14 0.77 0.2 0.4 0.9 0.5 0.7 0.6 1 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 w2 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 0.2 0.7 0.7 0.8 0.6 0.2 2 0.7 0.8 0.8 0.6 0.7 0.3 R 0 w1 1 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8 x y Mapas autoorganizados/ Algoritmo de aprendizaje
  • 51. 6. Encontrar la neurona ganadora 0.14 0.77 0.2 0.4 0.9 0.5 0.7 0.6 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 2 0.2 0.7 0.7 0.8 0.7 0.8 0.8 0.6 0.6 0.7 0.2 0.3 R 0.2 0.2 0.9 0.9 0.2 0.7 x y 0.7 0.3 0.3 0.7 0.3 0.8 Mapas autoorganizados/ Algoritmo de aprendizaje
  • 52. Ajustar los pesos de la neurona ganadora Ajustar los pesos de la neurona ganadora en la dirección del punto presente en la entrada. ∆W = α(t) (X – W) , también los pesos de las neuronas de la vecindad de la neurona ganadora. Pero con una tasa de aprendizaje reducida (Sombrero Mejicano) de manera que se especialice menos que la neurona ganadora. Mapas autoorganizados/ Algoritmo de aprendizaje
  • 53. 7. Presentar otro ejemplo 0.09 0.71 0.2 0.4 0.9 0.5 0.7 0.6 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 0.2 0.7 0.7 0.8 0.6 0.2 2 0.7 0.8 0.8 0.6 0.7 0.3 R 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8 x y Mapas autoorganizados/ Algoritmo de aprendizaje
  • 54. Presentar otro ejemplo 0.09 0.71 0.2 0.4 0.9 0.5 0.7 0.6 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 0.2 0.7 0.7 0.8 0.6 0.2 2 0.7 0.8 0.8 0.6 0.7 0.3 R 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8 x y Mapas autoorganizados/ Algoritmo de aprendizaje
  • 55. BMU (Best match unit) Mapas autoorganizados/ Algoritmo de aprendizaje
  • 56. Repetir Reducir la vecindad de las neuronas y repetir 2 a 4 veces para todos los puntos por un cierto numero de iteraciones Mapas autoorganizados/ Algoritmo de aprendizaje
  • 57. Visualización y funcionamiento del mapa 0.2 0.4 0.9 0.5 0.7 0.6 0.3 0.8 0.3 0.7 0.3 0.1 0.6 0.2 0.9 0.6 0.5 0.2 0.7 0.7 0.4 0.7 0.3 0.3 0.4 0.9 0.1 0.8 0.5 0.3 0.7 0.2 0.3 0.3 0.8 0.3 0.2 0.6 0.7 0.5 0.5 0.6 0.6 0.6 0.4 0.5 0.6 0.3 0.2 0.7 0.7 0.8 0.6 0.2 2 0.7 0.8 0.8 0.6 0.7 0.3 R 0.2 0.7 0.2 0.3 0.9 0.3 0.9 0.7 0.2 0.3 0.7 0.8 x y Mapas autoorganizados/ Algoritmo de aprendizaje
  • 59. Visualización y funcionamiento del mapa •Una vez seleccionado el mapa óptimo, podemos pasar a la fase de visualización observando en qué coordenadas del mapa se encuentra la neurona asociada a cada patrón de entrenamiento. •Esto nos permite proyectar el espacio multidimensional de entrada en un mapa bidimensional. •Además de analizar la similitud entre los clusters o agrupaciones de datos organizados por la propia red. •Por este motivo, el modelo de mapa autoorganizado es especialmente útil para establecer relaciones, desconocidas previamente, entre conjuntos de datos.
  • 60. Bondades de los mapas autoorganizados Clustering: Actuar como clasificadores, encontrando patrones en los datos de entrada y clasificándolos en grupos según estos patrones. Reducción de dimensión: Representar datos multidimensionales en espacios de mucha menor dimensión, normalmente una o dos dimensiones, preservando la topología de la entrada. Esto es muy útil cuando se trabaja con espacios multidimensionales (más de tres dimensiones) que el ser humano no es capaz de representar, como por ejemplo en problemas agro-ecológicos en los que intervienen numerosas variables como temperatura, precipitación, humedad relativa, etc. Pre-tratamiento de datos: SOM trabaja con ausencia de datos Análisis y comprensión de datos: SOM permite una presentación visual sobre las relaciones entre variables
  • 61. Visualización y funcionamiento del mapa 2 R x y Mapas autoorganizados/ Algoritmo de aprendizaje