SlideShare una empresa de Scribd logo
1 de 47
Universidad Autónoma Del Estado De México
 Centro Universitario UAEM Valle de Chalco

                      TEMA:
                 Redes competitivas

                    MATERIA:
                 Redes Neuronales

                  INTEGRANTES:

                  Álvaro arias Vite
                Castro Pichardo Marta
           Enríquez Ramírez Ángel Alberto
           Juárez De La O José Emmanuel

                  PROFESOR(A):

             Alexa Bustamante Adriana

                    CARRERA:

        Ingeniería en computación 8 semestre
REDES COMPETITIVAS
Antecedentes

  Según estudios efectuados a lo largo del tiempo las neuronas
  Compiten unas con otras con el fin de llevar a cabo una tarea.
Por tanto las neuronas compiten para activarse quedando solo una
Esta competición se realiza en todas las capas de la red existiendo
Neuronas con conexiones de autoexcitación llamadas positivas y de
     Inhibición que son negativas que son las neuronas vecinas
El objetivo es categorizar los datos que se introducen a la red,
Clasificando información similar siendo de la misma categoría
           Y deben activar la misma neurona de salida
En 1973, Frank Rosenblatt creo su simple clasificador espontaneo, una red
De aprendizaje no supervisado basado en el perceptron el cual aprendía a
Clasificar vectores de entrada en dos clases con igual numero de términos
A finales de los 60´s y principios de los 70´s Stephen Grossberg introdujo
   Redes competitivas que usaban inhibición lateral obteniendo buenos
                                 resultados
En 1973 Christoph Von Der
introduce la regla del mapa de
organización propia Que permitía
a la red clasificar entradas donde
la neurona cercana a un
Vecindario de la neurona
ganadora respondieran a entradas
similares
Grossberg extendió el trabajo de Malsburg redescubriendo la regla de Instar.
Mostrando que la regla Instar removió la necesidad de renormalizar los pesos
En 1985 Rumelhart y Zisper utilizaban redes multicapa dividiendo cada capa
 En grupos de neuronas las cuales disponían de conexiones inhibitorias con
 Otras neuronas del mismo grupo y excitadoras con las de las demás capas
Una variación de aprendizaje en redes multicapa consiste en imponer una
Inhibición mutua entre neuronas cuando están a ciertas distancia unas de otras
RED DE KOHONEN

En el cerebro hay neuronas que se organizan en muchas zonas de forma que
 La información captada del entorno se representan internamente en forma
                        De mapas bidimensionales
El cerebro podría poseer la capacidad inherente de formar mapas topológicos
     De las informaciones recibidas del exterior algunas áreas del cerebro
  Podrían crear y ordenar neuronas especializadas con características de alto
                                     nivel
En 1982 Tuevo Kohonen presento un sistema semejante el cual era un modelo
  De red neuronal con capacidad de formar mapas de características al igual
                       Que como ocurre en el cerebro
El aprendizaje en el modelo de kohonen es de tipo off-line por lo que se
Distingue una capa de aprendizaje y otra de funcionamiento en la cual la
  De aprendizaje se fijan los valores de las conexiones entre la capa de
 Entrada y salida donde las de salida compiten por activarse y solo una
                             permanece activa
En la etapa de entrenamiento se presenta a la red informaciones de entrada
 Que servirán durante la fase de funcionamiento para clasificar nuevos datos
Que se presenten a la red, en el caso de existir mas patrones de entrenamiento
   Que neuronas de salida mas de uno deberá de asociarse a esa neurona
En este modelo el aprendizaje no concluye después de presentar todos los
Patrones de entrada, si no que hay que repetir el proceso varias veces hasta
Refinar el mapa topológico de salida, de manera que entre mas se presenten
  Los datos mas se reducirá la zona de neuronas que se deben de activar
El algoritmo de aprendizaje utilizado para establecer los valores de los pesos
   De las conexiones entre las N neuronas de entrada y las M de salida es:

      1. Se inicializan los pesos Wij con variables aleatorios pequeños

  2. Se presenta a la red una información de entrada en forma de vector

                             3. P=(p1,p2,…pn)
3. Se determina la neurona vencedora de la capa de salida la cual será i cuyo
     Vector de pesos Wi sea el mas parecido a la información de entrada.

4. Una vez localizada la neurona vencedora (i*) se actualizan los pesos de las
 Conexiones entre neurona de entrada y dicha neurona entrada y neuronas
                           Vecinas de la vencedora
El tamaño de X(q) se puede reducir en cada iteración del proceso de ajuste de
 Pesos, con lo que el conjunto de neuronas que pueden considerarse vecinas
                             Cada vez es menor
Como la regla instar. La kohonen
 habilita los pesos de una neurona a
 aprender un vector de entrada y de
 esta forma resolver aplicaciones de
    reconocimiento de patrones. En
   definitiva una red de kohonen es
  realizar una tarea de clasificación,
   puesto que la neurona de salida
activada ante una entrada representa
   la clase a la que pertenece dicha
        información de entrada
RED DE HAMMING

  La red de hamming es uno de los ejemplos mas simples de aprendizaje
competitivo, sin embargo su estructura es un poco compleja ya que emplea
                  Capas recurrentes en su segunda capa.
Las neuronas en la capa de salida
de esta red compiten una con otra
para Determinar la ganadora, esta
  indica el patrón prototipo mas
representativo En la entrada de la
                red
Esta red consiste en dos capas, la primera es una red instar que realiza la
Correlación entre el vector de entrada y los vectores prototipo y la segunda
  Realiza competición para determinan cual de los vectores prototipo esta
                         Mas cercano al de entrada
Capa 1: la red instar es capaz de clasificar solo un patrón, para que múltiples
Patrones sean reconocidos se necesitan múltiples instar y es precisamente de
    Esa forma como esta compuesta la primera capa de la red de hamming
Capa 2:en la capa 2 se utilizan múltiples instar, así se determina por medio de
    Una capa competitiva el patrón prototipo mas cercano. Las neuronas son
Inicializadas con la salida de la capa en realimentación. esta indica la correlación
               Entre los patrones prototipo y el vector de entrada.
Las neuronas compiten para determinar una ganadora, después de esto solo
Una neurona tendrá salida no cero y esta indica cual categoría de entrada fue
                           Presentada a la red
ESTRUCTUR GENERAL DE UNA RED COMPETITIVA
Las neuronas de la segunda capa de la red de Hamming, están en competición
Porque cada neurona se excita a si misma en inhibe a todas las otras neuronas.
  Para simplificar se definirá una nueva función de transferencia que hace el
                  Trabajo de una capa recurrente competitiva



                             a=compet(n)
Donde a es la salida total de la red y n es la entrada neta a la función de
Transferencia. Compet es una función de transferencia que encuentra el índice
i* de la neurona con la entrada neta mas grande y fija su salida en uno, todas
                      Las otras neuronas tienen salida 0.
Reemplazando la capa recurrente de la red de hamming, con una función
De transferencia competitiva, la presentación de una capa competitiva se
                    Simplifica de la siguiente forma.
REGLA DE APRENDIZAJE
Una regla de aprendizaje es la instar estudiada es el numeral 2.4.3
Para redes competitivas (a) tiene un valor diferente de cero solamente para
 La neurona ganadora (i=i*), de esta forma los mismos resultados serán
                Obtenidos utilizando la regla de kohonen
Así la fila de la matriz de pesos que este mas cercas al vector de entada
                   Se moverá hacia el vector de entrada
PROBLEMAS DE LAS REDES COMPETITIVAS
Estas redes competitivas son bastantes eficientes para resolver problemas
 De clasificación aunque estas presentan problemas como el de la posibilidad
   Que el vector de pesos inicial de una neurona se encuentre muy lejos de
Cualquiera de los vectores de entrara y por lo tanto nunca gane la competición
La consecuencia será la muerte
  de la neurona lo que no es
         recomendable
Pero existe una solución la cual consiste en adicionar una ganancia
 Negativa a la entrada neta de cada neurona y decrementar así la ganancia
Total cada vez que la neurona gane la competición a lo cual se le denomina
                                 “conciencia”
MAPAS DE ORGANIZACIÓN (SOM)
Se a estipulado que algunos sistemas
  biológicos realizan las operaciones
  Siguiendo un método llamado on-
center/off-surround el cual describe un
  Patrón de conexión entre neuronas
  donde center es el refuerzo de una
 Neurona a ella misma y sur round es
  cuando inhibe a las neuronas de su
               alrededor
Tratando de emular una actividad biológica, sin
 implementar conexiones Center y sur round , de
realimentación no lineal, kohonen diseño una red
    Conocida como mapa de auto organización
LEARNING VECTOR QUANTIZATION (LVQ)
Esta red es una hibrida la cual emplea tanto aprendizaje no supervisado
Como aprendizaje supervisado para clasificación de patrones. En esta red
 Cada neurona de la primera capa aprende un vector prototipo , la red
                  LVQ calcula la distancia directamente
Así la neurona con vector de pesos que este cercano al vector de entrada
 Tendrá Salida 1 y las otras salida 0 en esto la red LQV se comporta de la
     Misma manera que las redes competitivas , la diferencia esta en la
                               interpretación
La segunda capa se usa para combinar subclases dentro de una sola clase
  Una propiedad importante es el proceso de combinar subclases para
        Formar clases que le permite crear clases mas complejas
Esto a sido todo esperamos que la información aquí mostrada haya
                         sido de utilidad

                 No olviden suscribirse al canal
REFERENCIAS


http://medicinaycomplejidad.org/pdf/redes/Competitivas.pdf

Más contenido relacionado

La actualidad más candente

Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizadosJesus Rojas
 
Curso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 KohonenCurso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 Kohonenaskroll
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosESCOM
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVAESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosESCOM
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal DifusaESCOM
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla AprendizajeRoberth Figueroa-Diaz
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
 

La actualidad más candente (20)

Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizados
 
Curso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 KohonenCurso 2006 Sesion 1 Kohonen
Curso 2006 Sesion 1 Kohonen
 
Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Perceptrón
PerceptrónPerceptrón
Perceptrón
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVA
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 

Similar a Redes neuronales competitivas UAEM

Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia competRichar León
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAESCOM
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronaleseyyc
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes NeuronalesESCOM
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethanElik Castillo
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethanElik Castillo
 

Similar a Redes neuronales competitivas UAEM (20)

Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
Ap acompet
Ap acompetAp acompet
Ap acompet
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVA
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethan
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethan
 

Redes neuronales competitivas UAEM

  • 1. Universidad Autónoma Del Estado De México Centro Universitario UAEM Valle de Chalco TEMA: Redes competitivas MATERIA: Redes Neuronales INTEGRANTES: Álvaro arias Vite Castro Pichardo Marta Enríquez Ramírez Ángel Alberto Juárez De La O José Emmanuel PROFESOR(A): Alexa Bustamante Adriana CARRERA: Ingeniería en computación 8 semestre
  • 3. Antecedentes Según estudios efectuados a lo largo del tiempo las neuronas Compiten unas con otras con el fin de llevar a cabo una tarea. Por tanto las neuronas compiten para activarse quedando solo una
  • 4. Esta competición se realiza en todas las capas de la red existiendo Neuronas con conexiones de autoexcitación llamadas positivas y de Inhibición que son negativas que son las neuronas vecinas
  • 5. El objetivo es categorizar los datos que se introducen a la red, Clasificando información similar siendo de la misma categoría Y deben activar la misma neurona de salida
  • 6. En 1973, Frank Rosenblatt creo su simple clasificador espontaneo, una red De aprendizaje no supervisado basado en el perceptron el cual aprendía a Clasificar vectores de entrada en dos clases con igual numero de términos
  • 7. A finales de los 60´s y principios de los 70´s Stephen Grossberg introdujo Redes competitivas que usaban inhibición lateral obteniendo buenos resultados
  • 8. En 1973 Christoph Von Der introduce la regla del mapa de organización propia Que permitía a la red clasificar entradas donde la neurona cercana a un Vecindario de la neurona ganadora respondieran a entradas similares
  • 9. Grossberg extendió el trabajo de Malsburg redescubriendo la regla de Instar. Mostrando que la regla Instar removió la necesidad de renormalizar los pesos
  • 10. En 1985 Rumelhart y Zisper utilizaban redes multicapa dividiendo cada capa En grupos de neuronas las cuales disponían de conexiones inhibitorias con Otras neuronas del mismo grupo y excitadoras con las de las demás capas
  • 11. Una variación de aprendizaje en redes multicapa consiste en imponer una Inhibición mutua entre neuronas cuando están a ciertas distancia unas de otras
  • 12. RED DE KOHONEN En el cerebro hay neuronas que se organizan en muchas zonas de forma que La información captada del entorno se representan internamente en forma De mapas bidimensionales
  • 13. El cerebro podría poseer la capacidad inherente de formar mapas topológicos De las informaciones recibidas del exterior algunas áreas del cerebro Podrían crear y ordenar neuronas especializadas con características de alto nivel
  • 14. En 1982 Tuevo Kohonen presento un sistema semejante el cual era un modelo De red neuronal con capacidad de formar mapas de características al igual Que como ocurre en el cerebro
  • 15. El aprendizaje en el modelo de kohonen es de tipo off-line por lo que se Distingue una capa de aprendizaje y otra de funcionamiento en la cual la De aprendizaje se fijan los valores de las conexiones entre la capa de Entrada y salida donde las de salida compiten por activarse y solo una permanece activa
  • 16. En la etapa de entrenamiento se presenta a la red informaciones de entrada Que servirán durante la fase de funcionamiento para clasificar nuevos datos Que se presenten a la red, en el caso de existir mas patrones de entrenamiento Que neuronas de salida mas de uno deberá de asociarse a esa neurona
  • 17. En este modelo el aprendizaje no concluye después de presentar todos los Patrones de entrada, si no que hay que repetir el proceso varias veces hasta Refinar el mapa topológico de salida, de manera que entre mas se presenten Los datos mas se reducirá la zona de neuronas que se deben de activar
  • 18. El algoritmo de aprendizaje utilizado para establecer los valores de los pesos De las conexiones entre las N neuronas de entrada y las M de salida es: 1. Se inicializan los pesos Wij con variables aleatorios pequeños 2. Se presenta a la red una información de entrada en forma de vector 3. P=(p1,p2,…pn)
  • 19. 3. Se determina la neurona vencedora de la capa de salida la cual será i cuyo Vector de pesos Wi sea el mas parecido a la información de entrada. 4. Una vez localizada la neurona vencedora (i*) se actualizan los pesos de las Conexiones entre neurona de entrada y dicha neurona entrada y neuronas Vecinas de la vencedora
  • 20. El tamaño de X(q) se puede reducir en cada iteración del proceso de ajuste de Pesos, con lo que el conjunto de neuronas que pueden considerarse vecinas Cada vez es menor
  • 21. Como la regla instar. La kohonen habilita los pesos de una neurona a aprender un vector de entrada y de esta forma resolver aplicaciones de reconocimiento de patrones. En definitiva una red de kohonen es realizar una tarea de clasificación, puesto que la neurona de salida activada ante una entrada representa la clase a la que pertenece dicha información de entrada
  • 22. RED DE HAMMING La red de hamming es uno de los ejemplos mas simples de aprendizaje competitivo, sin embargo su estructura es un poco compleja ya que emplea Capas recurrentes en su segunda capa.
  • 23. Las neuronas en la capa de salida de esta red compiten una con otra para Determinar la ganadora, esta indica el patrón prototipo mas representativo En la entrada de la red
  • 24. Esta red consiste en dos capas, la primera es una red instar que realiza la Correlación entre el vector de entrada y los vectores prototipo y la segunda Realiza competición para determinan cual de los vectores prototipo esta Mas cercano al de entrada
  • 25. Capa 1: la red instar es capaz de clasificar solo un patrón, para que múltiples Patrones sean reconocidos se necesitan múltiples instar y es precisamente de Esa forma como esta compuesta la primera capa de la red de hamming
  • 26. Capa 2:en la capa 2 se utilizan múltiples instar, así se determina por medio de Una capa competitiva el patrón prototipo mas cercano. Las neuronas son Inicializadas con la salida de la capa en realimentación. esta indica la correlación Entre los patrones prototipo y el vector de entrada.
  • 27. Las neuronas compiten para determinar una ganadora, después de esto solo Una neurona tendrá salida no cero y esta indica cual categoría de entrada fue Presentada a la red
  • 28. ESTRUCTUR GENERAL DE UNA RED COMPETITIVA
  • 29. Las neuronas de la segunda capa de la red de Hamming, están en competición Porque cada neurona se excita a si misma en inhibe a todas las otras neuronas. Para simplificar se definirá una nueva función de transferencia que hace el Trabajo de una capa recurrente competitiva a=compet(n)
  • 30. Donde a es la salida total de la red y n es la entrada neta a la función de Transferencia. Compet es una función de transferencia que encuentra el índice i* de la neurona con la entrada neta mas grande y fija su salida en uno, todas Las otras neuronas tienen salida 0.
  • 31. Reemplazando la capa recurrente de la red de hamming, con una función De transferencia competitiva, la presentación de una capa competitiva se Simplifica de la siguiente forma.
  • 33. Una regla de aprendizaje es la instar estudiada es el numeral 2.4.3 Para redes competitivas (a) tiene un valor diferente de cero solamente para La neurona ganadora (i=i*), de esta forma los mismos resultados serán Obtenidos utilizando la regla de kohonen
  • 34. Así la fila de la matriz de pesos que este mas cercas al vector de entada Se moverá hacia el vector de entrada
  • 35. PROBLEMAS DE LAS REDES COMPETITIVAS
  • 36. Estas redes competitivas son bastantes eficientes para resolver problemas De clasificación aunque estas presentan problemas como el de la posibilidad Que el vector de pesos inicial de una neurona se encuentre muy lejos de Cualquiera de los vectores de entrara y por lo tanto nunca gane la competición
  • 37. La consecuencia será la muerte de la neurona lo que no es recomendable
  • 38. Pero existe una solución la cual consiste en adicionar una ganancia Negativa a la entrada neta de cada neurona y decrementar así la ganancia Total cada vez que la neurona gane la competición a lo cual se le denomina “conciencia”
  • 40. Se a estipulado que algunos sistemas biológicos realizan las operaciones Siguiendo un método llamado on- center/off-surround el cual describe un Patrón de conexión entre neuronas donde center es el refuerzo de una Neurona a ella misma y sur round es cuando inhibe a las neuronas de su alrededor
  • 41. Tratando de emular una actividad biológica, sin implementar conexiones Center y sur round , de realimentación no lineal, kohonen diseño una red Conocida como mapa de auto organización
  • 43. Esta red es una hibrida la cual emplea tanto aprendizaje no supervisado Como aprendizaje supervisado para clasificación de patrones. En esta red Cada neurona de la primera capa aprende un vector prototipo , la red LVQ calcula la distancia directamente
  • 44. Así la neurona con vector de pesos que este cercano al vector de entrada Tendrá Salida 1 y las otras salida 0 en esto la red LQV se comporta de la Misma manera que las redes competitivas , la diferencia esta en la interpretación
  • 45. La segunda capa se usa para combinar subclases dentro de una sola clase Una propiedad importante es el proceso de combinar subclases para Formar clases que le permite crear clases mas complejas
  • 46. Esto a sido todo esperamos que la información aquí mostrada haya sido de utilidad No olviden suscribirse al canal