Universidad Autónoma Del Estado De México
 Centro Universitario UAEM Valle de Chalco

                      TEMA:
                 Redes competitivas

                    MATERIA:
                 Redes Neuronales

                  INTEGRANTES:

                  Álvaro arias Vite
                Castro Pichardo Marta
           Enríquez Ramírez Ángel Alberto
           Juárez De La O José Emmanuel

                  PROFESOR(A):

             Alexa Bustamante Adriana

                    CARRERA:

        Ingeniería en computación 8 semestre
REDES COMPETITIVAS
Antecedentes

  Según estudios efectuados a lo largo del tiempo las neuronas
  Compiten unas con otras con el fin de llevar a cabo una tarea.
Por tanto las neuronas compiten para activarse quedando solo una
Esta competición se realiza en todas las capas de la red existiendo
Neuronas con conexiones de autoexcitación llamadas positivas y de
     Inhibición que son negativas que son las neuronas vecinas
El objetivo es categorizar los datos que se introducen a la red,
Clasificando información similar siendo de la misma categoría
           Y deben activar la misma neurona de salida
En 1973, Frank Rosenblatt creo su simple clasificador espontaneo, una red
De aprendizaje no supervisado basado en el perceptron el cual aprendía a
Clasificar vectores de entrada en dos clases con igual numero de términos
A finales de los 60´s y principios de los 70´s Stephen Grossberg introdujo
   Redes competitivas que usaban inhibición lateral obteniendo buenos
                                 resultados
En 1973 Christoph Von Der
introduce la regla del mapa de
organización propia Que permitía
a la red clasificar entradas donde
la neurona cercana a un
Vecindario de la neurona
ganadora respondieran a entradas
similares
Grossberg extendió el trabajo de Malsburg redescubriendo la regla de Instar.
Mostrando que la regla Instar removió la necesidad de renormalizar los pesos
En 1985 Rumelhart y Zisper utilizaban redes multicapa dividiendo cada capa
 En grupos de neuronas las cuales disponían de conexiones inhibitorias con
 Otras neuronas del mismo grupo y excitadoras con las de las demás capas
Una variación de aprendizaje en redes multicapa consiste en imponer una
Inhibición mutua entre neuronas cuando están a ciertas distancia unas de otras
RED DE KOHONEN

En el cerebro hay neuronas que se organizan en muchas zonas de forma que
 La información captada del entorno se representan internamente en forma
                        De mapas bidimensionales
El cerebro podría poseer la capacidad inherente de formar mapas topológicos
     De las informaciones recibidas del exterior algunas áreas del cerebro
  Podrían crear y ordenar neuronas especializadas con características de alto
                                     nivel
En 1982 Tuevo Kohonen presento un sistema semejante el cual era un modelo
  De red neuronal con capacidad de formar mapas de características al igual
                       Que como ocurre en el cerebro
El aprendizaje en el modelo de kohonen es de tipo off-line por lo que se
Distingue una capa de aprendizaje y otra de funcionamiento en la cual la
  De aprendizaje se fijan los valores de las conexiones entre la capa de
 Entrada y salida donde las de salida compiten por activarse y solo una
                             permanece activa
En la etapa de entrenamiento se presenta a la red informaciones de entrada
 Que servirán durante la fase de funcionamiento para clasificar nuevos datos
Que se presenten a la red, en el caso de existir mas patrones de entrenamiento
   Que neuronas de salida mas de uno deberá de asociarse a esa neurona
En este modelo el aprendizaje no concluye después de presentar todos los
Patrones de entrada, si no que hay que repetir el proceso varias veces hasta
Refinar el mapa topológico de salida, de manera que entre mas se presenten
  Los datos mas se reducirá la zona de neuronas que se deben de activar
El algoritmo de aprendizaje utilizado para establecer los valores de los pesos
   De las conexiones entre las N neuronas de entrada y las M de salida es:

      1. Se inicializan los pesos Wij con variables aleatorios pequeños

  2. Se presenta a la red una información de entrada en forma de vector

                             3. P=(p1,p2,…pn)
3. Se determina la neurona vencedora de la capa de salida la cual será i cuyo
     Vector de pesos Wi sea el mas parecido a la información de entrada.

4. Una vez localizada la neurona vencedora (i*) se actualizan los pesos de las
 Conexiones entre neurona de entrada y dicha neurona entrada y neuronas
                           Vecinas de la vencedora
El tamaño de X(q) se puede reducir en cada iteración del proceso de ajuste de
 Pesos, con lo que el conjunto de neuronas que pueden considerarse vecinas
                             Cada vez es menor
Como la regla instar. La kohonen
 habilita los pesos de una neurona a
 aprender un vector de entrada y de
 esta forma resolver aplicaciones de
    reconocimiento de patrones. En
   definitiva una red de kohonen es
  realizar una tarea de clasificación,
   puesto que la neurona de salida
activada ante una entrada representa
   la clase a la que pertenece dicha
        información de entrada
RED DE HAMMING

  La red de hamming es uno de los ejemplos mas simples de aprendizaje
competitivo, sin embargo su estructura es un poco compleja ya que emplea
                  Capas recurrentes en su segunda capa.
Las neuronas en la capa de salida
de esta red compiten una con otra
para Determinar la ganadora, esta
  indica el patrón prototipo mas
representativo En la entrada de la
                red
Esta red consiste en dos capas, la primera es una red instar que realiza la
Correlación entre el vector de entrada y los vectores prototipo y la segunda
  Realiza competición para determinan cual de los vectores prototipo esta
                         Mas cercano al de entrada
Capa 1: la red instar es capaz de clasificar solo un patrón, para que múltiples
Patrones sean reconocidos se necesitan múltiples instar y es precisamente de
    Esa forma como esta compuesta la primera capa de la red de hamming
Capa 2:en la capa 2 se utilizan múltiples instar, así se determina por medio de
    Una capa competitiva el patrón prototipo mas cercano. Las neuronas son
Inicializadas con la salida de la capa en realimentación. esta indica la correlación
               Entre los patrones prototipo y el vector de entrada.
Las neuronas compiten para determinar una ganadora, después de esto solo
Una neurona tendrá salida no cero y esta indica cual categoría de entrada fue
                           Presentada a la red
ESTRUCTUR GENERAL DE UNA RED COMPETITIVA
Las neuronas de la segunda capa de la red de Hamming, están en competición
Porque cada neurona se excita a si misma en inhibe a todas las otras neuronas.
  Para simplificar se definirá una nueva función de transferencia que hace el
                  Trabajo de una capa recurrente competitiva



                             a=compet(n)
Donde a es la salida total de la red y n es la entrada neta a la función de
Transferencia. Compet es una función de transferencia que encuentra el índice
i* de la neurona con la entrada neta mas grande y fija su salida en uno, todas
                      Las otras neuronas tienen salida 0.
Reemplazando la capa recurrente de la red de hamming, con una función
De transferencia competitiva, la presentación de una capa competitiva se
                    Simplifica de la siguiente forma.
REGLA DE APRENDIZAJE
Una regla de aprendizaje es la instar estudiada es el numeral 2.4.3
Para redes competitivas (a) tiene un valor diferente de cero solamente para
 La neurona ganadora (i=i*), de esta forma los mismos resultados serán
                Obtenidos utilizando la regla de kohonen
Así la fila de la matriz de pesos que este mas cercas al vector de entada
                   Se moverá hacia el vector de entrada
PROBLEMAS DE LAS REDES COMPETITIVAS
Estas redes competitivas son bastantes eficientes para resolver problemas
 De clasificación aunque estas presentan problemas como el de la posibilidad
   Que el vector de pesos inicial de una neurona se encuentre muy lejos de
Cualquiera de los vectores de entrara y por lo tanto nunca gane la competición
La consecuencia será la muerte
  de la neurona lo que no es
         recomendable
Pero existe una solución la cual consiste en adicionar una ganancia
 Negativa a la entrada neta de cada neurona y decrementar así la ganancia
Total cada vez que la neurona gane la competición a lo cual se le denomina
                                 “conciencia”
MAPAS DE ORGANIZACIÓN (SOM)
Se a estipulado que algunos sistemas
  biológicos realizan las operaciones
  Siguiendo un método llamado on-
center/off-surround el cual describe un
  Patrón de conexión entre neuronas
  donde center es el refuerzo de una
 Neurona a ella misma y sur round es
  cuando inhibe a las neuronas de su
               alrededor
Tratando de emular una actividad biológica, sin
 implementar conexiones Center y sur round , de
realimentación no lineal, kohonen diseño una red
    Conocida como mapa de auto organización
LEARNING VECTOR QUANTIZATION (LVQ)
Esta red es una hibrida la cual emplea tanto aprendizaje no supervisado
Como aprendizaje supervisado para clasificación de patrones. En esta red
 Cada neurona de la primera capa aprende un vector prototipo , la red
                  LVQ calcula la distancia directamente
Así la neurona con vector de pesos que este cercano al vector de entrada
 Tendrá Salida 1 y las otras salida 0 en esto la red LQV se comporta de la
     Misma manera que las redes competitivas , la diferencia esta en la
                               interpretación
La segunda capa se usa para combinar subclases dentro de una sola clase
  Una propiedad importante es el proceso de combinar subclases para
        Formar clases que le permite crear clases mas complejas
Esto a sido todo esperamos que la información aquí mostrada haya
                         sido de utilidad

                 No olviden suscribirse al canal
REFERENCIAS


http://medicinaycomplejidad.org/pdf/redes/Competitivas.pdf

redes competitivas

  • 1.
    Universidad Autónoma DelEstado De México Centro Universitario UAEM Valle de Chalco TEMA: Redes competitivas MATERIA: Redes Neuronales INTEGRANTES: Álvaro arias Vite Castro Pichardo Marta Enríquez Ramírez Ángel Alberto Juárez De La O José Emmanuel PROFESOR(A): Alexa Bustamante Adriana CARRERA: Ingeniería en computación 8 semestre
  • 2.
  • 3.
    Antecedentes Segúnestudios efectuados a lo largo del tiempo las neuronas Compiten unas con otras con el fin de llevar a cabo una tarea. Por tanto las neuronas compiten para activarse quedando solo una
  • 4.
    Esta competición serealiza en todas las capas de la red existiendo Neuronas con conexiones de autoexcitación llamadas positivas y de Inhibición que son negativas que son las neuronas vecinas
  • 5.
    El objetivo escategorizar los datos que se introducen a la red, Clasificando información similar siendo de la misma categoría Y deben activar la misma neurona de salida
  • 6.
    En 1973, FrankRosenblatt creo su simple clasificador espontaneo, una red De aprendizaje no supervisado basado en el perceptron el cual aprendía a Clasificar vectores de entrada en dos clases con igual numero de términos
  • 7.
    A finales delos 60´s y principios de los 70´s Stephen Grossberg introdujo Redes competitivas que usaban inhibición lateral obteniendo buenos resultados
  • 8.
    En 1973 ChristophVon Der introduce la regla del mapa de organización propia Que permitía a la red clasificar entradas donde la neurona cercana a un Vecindario de la neurona ganadora respondieran a entradas similares
  • 9.
    Grossberg extendió eltrabajo de Malsburg redescubriendo la regla de Instar. Mostrando que la regla Instar removió la necesidad de renormalizar los pesos
  • 10.
    En 1985 Rumelharty Zisper utilizaban redes multicapa dividiendo cada capa En grupos de neuronas las cuales disponían de conexiones inhibitorias con Otras neuronas del mismo grupo y excitadoras con las de las demás capas
  • 11.
    Una variación deaprendizaje en redes multicapa consiste en imponer una Inhibición mutua entre neuronas cuando están a ciertas distancia unas de otras
  • 12.
    RED DE KOHONEN Enel cerebro hay neuronas que se organizan en muchas zonas de forma que La información captada del entorno se representan internamente en forma De mapas bidimensionales
  • 13.
    El cerebro podríaposeer la capacidad inherente de formar mapas topológicos De las informaciones recibidas del exterior algunas áreas del cerebro Podrían crear y ordenar neuronas especializadas con características de alto nivel
  • 14.
    En 1982 TuevoKohonen presento un sistema semejante el cual era un modelo De red neuronal con capacidad de formar mapas de características al igual Que como ocurre en el cerebro
  • 15.
    El aprendizaje enel modelo de kohonen es de tipo off-line por lo que se Distingue una capa de aprendizaje y otra de funcionamiento en la cual la De aprendizaje se fijan los valores de las conexiones entre la capa de Entrada y salida donde las de salida compiten por activarse y solo una permanece activa
  • 16.
    En la etapade entrenamiento se presenta a la red informaciones de entrada Que servirán durante la fase de funcionamiento para clasificar nuevos datos Que se presenten a la red, en el caso de existir mas patrones de entrenamiento Que neuronas de salida mas de uno deberá de asociarse a esa neurona
  • 17.
    En este modeloel aprendizaje no concluye después de presentar todos los Patrones de entrada, si no que hay que repetir el proceso varias veces hasta Refinar el mapa topológico de salida, de manera que entre mas se presenten Los datos mas se reducirá la zona de neuronas que se deben de activar
  • 18.
    El algoritmo deaprendizaje utilizado para establecer los valores de los pesos De las conexiones entre las N neuronas de entrada y las M de salida es: 1. Se inicializan los pesos Wij con variables aleatorios pequeños 2. Se presenta a la red una información de entrada en forma de vector 3. P=(p1,p2,…pn)
  • 19.
    3. Se determinala neurona vencedora de la capa de salida la cual será i cuyo Vector de pesos Wi sea el mas parecido a la información de entrada. 4. Una vez localizada la neurona vencedora (i*) se actualizan los pesos de las Conexiones entre neurona de entrada y dicha neurona entrada y neuronas Vecinas de la vencedora
  • 20.
    El tamaño deX(q) se puede reducir en cada iteración del proceso de ajuste de Pesos, con lo que el conjunto de neuronas que pueden considerarse vecinas Cada vez es menor
  • 21.
    Como la reglainstar. La kohonen habilita los pesos de una neurona a aprender un vector de entrada y de esta forma resolver aplicaciones de reconocimiento de patrones. En definitiva una red de kohonen es realizar una tarea de clasificación, puesto que la neurona de salida activada ante una entrada representa la clase a la que pertenece dicha información de entrada
  • 22.
    RED DE HAMMING La red de hamming es uno de los ejemplos mas simples de aprendizaje competitivo, sin embargo su estructura es un poco compleja ya que emplea Capas recurrentes en su segunda capa.
  • 23.
    Las neuronas enla capa de salida de esta red compiten una con otra para Determinar la ganadora, esta indica el patrón prototipo mas representativo En la entrada de la red
  • 24.
    Esta red consisteen dos capas, la primera es una red instar que realiza la Correlación entre el vector de entrada y los vectores prototipo y la segunda Realiza competición para determinan cual de los vectores prototipo esta Mas cercano al de entrada
  • 25.
    Capa 1: lared instar es capaz de clasificar solo un patrón, para que múltiples Patrones sean reconocidos se necesitan múltiples instar y es precisamente de Esa forma como esta compuesta la primera capa de la red de hamming
  • 26.
    Capa 2:en lacapa 2 se utilizan múltiples instar, así se determina por medio de Una capa competitiva el patrón prototipo mas cercano. Las neuronas son Inicializadas con la salida de la capa en realimentación. esta indica la correlación Entre los patrones prototipo y el vector de entrada.
  • 27.
    Las neuronas compitenpara determinar una ganadora, después de esto solo Una neurona tendrá salida no cero y esta indica cual categoría de entrada fue Presentada a la red
  • 28.
    ESTRUCTUR GENERAL DEUNA RED COMPETITIVA
  • 29.
    Las neuronas dela segunda capa de la red de Hamming, están en competición Porque cada neurona se excita a si misma en inhibe a todas las otras neuronas. Para simplificar se definirá una nueva función de transferencia que hace el Trabajo de una capa recurrente competitiva a=compet(n)
  • 30.
    Donde a esla salida total de la red y n es la entrada neta a la función de Transferencia. Compet es una función de transferencia que encuentra el índice i* de la neurona con la entrada neta mas grande y fija su salida en uno, todas Las otras neuronas tienen salida 0.
  • 31.
    Reemplazando la caparecurrente de la red de hamming, con una función De transferencia competitiva, la presentación de una capa competitiva se Simplifica de la siguiente forma.
  • 32.
  • 33.
    Una regla deaprendizaje es la instar estudiada es el numeral 2.4.3 Para redes competitivas (a) tiene un valor diferente de cero solamente para La neurona ganadora (i=i*), de esta forma los mismos resultados serán Obtenidos utilizando la regla de kohonen
  • 34.
    Así la filade la matriz de pesos que este mas cercas al vector de entada Se moverá hacia el vector de entrada
  • 35.
    PROBLEMAS DE LASREDES COMPETITIVAS
  • 36.
    Estas redes competitivasson bastantes eficientes para resolver problemas De clasificación aunque estas presentan problemas como el de la posibilidad Que el vector de pesos inicial de una neurona se encuentre muy lejos de Cualquiera de los vectores de entrara y por lo tanto nunca gane la competición
  • 37.
    La consecuencia serála muerte de la neurona lo que no es recomendable
  • 38.
    Pero existe unasolución la cual consiste en adicionar una ganancia Negativa a la entrada neta de cada neurona y decrementar así la ganancia Total cada vez que la neurona gane la competición a lo cual se le denomina “conciencia”
  • 39.
  • 40.
    Se a estipuladoque algunos sistemas biológicos realizan las operaciones Siguiendo un método llamado on- center/off-surround el cual describe un Patrón de conexión entre neuronas donde center es el refuerzo de una Neurona a ella misma y sur round es cuando inhibe a las neuronas de su alrededor
  • 41.
    Tratando de emularuna actividad biológica, sin implementar conexiones Center y sur round , de realimentación no lineal, kohonen diseño una red Conocida como mapa de auto organización
  • 42.
  • 43.
    Esta red esuna hibrida la cual emplea tanto aprendizaje no supervisado Como aprendizaje supervisado para clasificación de patrones. En esta red Cada neurona de la primera capa aprende un vector prototipo , la red LVQ calcula la distancia directamente
  • 44.
    Así la neuronacon vector de pesos que este cercano al vector de entrada Tendrá Salida 1 y las otras salida 0 en esto la red LQV se comporta de la Misma manera que las redes competitivas , la diferencia esta en la interpretación
  • 45.
    La segunda capase usa para combinar subclases dentro de una sola clase Una propiedad importante es el proceso de combinar subclases para Formar clases que le permite crear clases mas complejas
  • 46.
    Esto a sidotodo esperamos que la información aquí mostrada haya sido de utilidad No olviden suscribirse al canal
  • 47.