Este documento describe diferentes tipos de redes neuronales competitivas, incluyendo las redes de Kohonen, Hamming, y LVQ. Explica cómo las neuronas en estas redes compiten entre sí para activarse, con solo una neurona ganadora que permanece activa. También cubre conceptos como la inhibición lateral, el aprendizaje no supervisado y reglas de aprendizaje como la regla de Kohonen.
1. Universidad Autónoma Del Estado De México
Centro Universitario UAEM Valle de Chalco
TEMA:
Redes competitivas
MATERIA:
Redes Neuronales
INTEGRANTES:
Álvaro arias Vite
Castro Pichardo Marta
Enríquez Ramírez Ángel Alberto
Juárez De La O José Emmanuel
PROFESOR(A):
Alexa Bustamante Adriana
CARRERA:
Ingeniería en computación 8 semestre
3. Antecedentes
Según estudios efectuados a lo largo del tiempo las neuronas
Compiten unas con otras con el fin de llevar a cabo una tarea.
Por tanto las neuronas compiten para activarse quedando solo una
4. Esta competición se realiza en todas las capas de la red existiendo
Neuronas con conexiones de autoexcitación llamadas positivas y de
Inhibición que son negativas que son las neuronas vecinas
5. El objetivo es categorizar los datos que se introducen a la red,
Clasificando información similar siendo de la misma categoría
Y deben activar la misma neurona de salida
6. En 1973, Frank Rosenblatt creo su simple clasificador espontaneo, una red
De aprendizaje no supervisado basado en el perceptron el cual aprendía a
Clasificar vectores de entrada en dos clases con igual numero de términos
7. A finales de los 60´s y principios de los 70´s Stephen Grossberg introdujo
Redes competitivas que usaban inhibición lateral obteniendo buenos
resultados
8. En 1973 Christoph Von Der
introduce la regla del mapa de
organización propia Que permitía
a la red clasificar entradas donde
la neurona cercana a un
Vecindario de la neurona
ganadora respondieran a entradas
similares
9. Grossberg extendió el trabajo de Malsburg redescubriendo la regla de Instar.
Mostrando que la regla Instar removió la necesidad de renormalizar los pesos
10. En 1985 Rumelhart y Zisper utilizaban redes multicapa dividiendo cada capa
En grupos de neuronas las cuales disponían de conexiones inhibitorias con
Otras neuronas del mismo grupo y excitadoras con las de las demás capas
11. Una variación de aprendizaje en redes multicapa consiste en imponer una
Inhibición mutua entre neuronas cuando están a ciertas distancia unas de otras
12. RED DE KOHONEN
En el cerebro hay neuronas que se organizan en muchas zonas de forma que
La información captada del entorno se representan internamente en forma
De mapas bidimensionales
13. El cerebro podría poseer la capacidad inherente de formar mapas topológicos
De las informaciones recibidas del exterior algunas áreas del cerebro
Podrían crear y ordenar neuronas especializadas con características de alto
nivel
14. En 1982 Tuevo Kohonen presento un sistema semejante el cual era un modelo
De red neuronal con capacidad de formar mapas de características al igual
Que como ocurre en el cerebro
15. El aprendizaje en el modelo de kohonen es de tipo off-line por lo que se
Distingue una capa de aprendizaje y otra de funcionamiento en la cual la
De aprendizaje se fijan los valores de las conexiones entre la capa de
Entrada y salida donde las de salida compiten por activarse y solo una
permanece activa
16. En la etapa de entrenamiento se presenta a la red informaciones de entrada
Que servirán durante la fase de funcionamiento para clasificar nuevos datos
Que se presenten a la red, en el caso de existir mas patrones de entrenamiento
Que neuronas de salida mas de uno deberá de asociarse a esa neurona
17. En este modelo el aprendizaje no concluye después de presentar todos los
Patrones de entrada, si no que hay que repetir el proceso varias veces hasta
Refinar el mapa topológico de salida, de manera que entre mas se presenten
Los datos mas se reducirá la zona de neuronas que se deben de activar
18. El algoritmo de aprendizaje utilizado para establecer los valores de los pesos
De las conexiones entre las N neuronas de entrada y las M de salida es:
1. Se inicializan los pesos Wij con variables aleatorios pequeños
2. Se presenta a la red una información de entrada en forma de vector
3. P=(p1,p2,…pn)
19. 3. Se determina la neurona vencedora de la capa de salida la cual será i cuyo
Vector de pesos Wi sea el mas parecido a la información de entrada.
4. Una vez localizada la neurona vencedora (i*) se actualizan los pesos de las
Conexiones entre neurona de entrada y dicha neurona entrada y neuronas
Vecinas de la vencedora
20. El tamaño de X(q) se puede reducir en cada iteración del proceso de ajuste de
Pesos, con lo que el conjunto de neuronas que pueden considerarse vecinas
Cada vez es menor
21. Como la regla instar. La kohonen
habilita los pesos de una neurona a
aprender un vector de entrada y de
esta forma resolver aplicaciones de
reconocimiento de patrones. En
definitiva una red de kohonen es
realizar una tarea de clasificación,
puesto que la neurona de salida
activada ante una entrada representa
la clase a la que pertenece dicha
información de entrada
22. RED DE HAMMING
La red de hamming es uno de los ejemplos mas simples de aprendizaje
competitivo, sin embargo su estructura es un poco compleja ya que emplea
Capas recurrentes en su segunda capa.
23. Las neuronas en la capa de salida
de esta red compiten una con otra
para Determinar la ganadora, esta
indica el patrón prototipo mas
representativo En la entrada de la
red
24. Esta red consiste en dos capas, la primera es una red instar que realiza la
Correlación entre el vector de entrada y los vectores prototipo y la segunda
Realiza competición para determinan cual de los vectores prototipo esta
Mas cercano al de entrada
25. Capa 1: la red instar es capaz de clasificar solo un patrón, para que múltiples
Patrones sean reconocidos se necesitan múltiples instar y es precisamente de
Esa forma como esta compuesta la primera capa de la red de hamming
26. Capa 2:en la capa 2 se utilizan múltiples instar, así se determina por medio de
Una capa competitiva el patrón prototipo mas cercano. Las neuronas son
Inicializadas con la salida de la capa en realimentación. esta indica la correlación
Entre los patrones prototipo y el vector de entrada.
27. Las neuronas compiten para determinar una ganadora, después de esto solo
Una neurona tendrá salida no cero y esta indica cual categoría de entrada fue
Presentada a la red
29. Las neuronas de la segunda capa de la red de Hamming, están en competición
Porque cada neurona se excita a si misma en inhibe a todas las otras neuronas.
Para simplificar se definirá una nueva función de transferencia que hace el
Trabajo de una capa recurrente competitiva
a=compet(n)
30. Donde a es la salida total de la red y n es la entrada neta a la función de
Transferencia. Compet es una función de transferencia que encuentra el índice
i* de la neurona con la entrada neta mas grande y fija su salida en uno, todas
Las otras neuronas tienen salida 0.
31. Reemplazando la capa recurrente de la red de hamming, con una función
De transferencia competitiva, la presentación de una capa competitiva se
Simplifica de la siguiente forma.
33. Una regla de aprendizaje es la instar estudiada es el numeral 2.4.3
Para redes competitivas (a) tiene un valor diferente de cero solamente para
La neurona ganadora (i=i*), de esta forma los mismos resultados serán
Obtenidos utilizando la regla de kohonen
34. Así la fila de la matriz de pesos que este mas cercas al vector de entada
Se moverá hacia el vector de entrada
36. Estas redes competitivas son bastantes eficientes para resolver problemas
De clasificación aunque estas presentan problemas como el de la posibilidad
Que el vector de pesos inicial de una neurona se encuentre muy lejos de
Cualquiera de los vectores de entrara y por lo tanto nunca gane la competición
38. Pero existe una solución la cual consiste en adicionar una ganancia
Negativa a la entrada neta de cada neurona y decrementar así la ganancia
Total cada vez que la neurona gane la competición a lo cual se le denomina
“conciencia”
40. Se a estipulado que algunos sistemas
biológicos realizan las operaciones
Siguiendo un método llamado on-
center/off-surround el cual describe un
Patrón de conexión entre neuronas
donde center es el refuerzo de una
Neurona a ella misma y sur round es
cuando inhibe a las neuronas de su
alrededor
41. Tratando de emular una actividad biológica, sin
implementar conexiones Center y sur round , de
realimentación no lineal, kohonen diseño una red
Conocida como mapa de auto organización
43. Esta red es una hibrida la cual emplea tanto aprendizaje no supervisado
Como aprendizaje supervisado para clasificación de patrones. En esta red
Cada neurona de la primera capa aprende un vector prototipo , la red
LVQ calcula la distancia directamente
44. Así la neurona con vector de pesos que este cercano al vector de entrada
Tendrá Salida 1 y las otras salida 0 en esto la red LQV se comporta de la
Misma manera que las redes competitivas , la diferencia esta en la
interpretación
45. La segunda capa se usa para combinar subclases dentro de una sola clase
Una propiedad importante es el proceso de combinar subclases para
Formar clases que le permite crear clases mas complejas
46. Esto a sido todo esperamos que la información aquí mostrada haya
sido de utilidad
No olviden suscribirse al canal