1. 1.2 REDES COMPETITIVAS 1.2.1 RED DE HAMMING, 1.2.2 CAPA COMPETITIVAS, 1.2.3 MAPAS AUTO-ORGANIZATIVOS (Trabajo de Investigación), 1.2.4 CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
2.
3.
4.
5.
6.
7. 1.2.1 Red de Hamming La red de Hamming consiste de dos capas. La primera realiza una correlación entre el vector de pesos y los vectores prototipo; y la segunda realiza una competencia para determinar cual de los vectores prototipos es el más cercano al vector de entrada.
8.
9. Capa 1 (Correlación) Si se quiere que la red reconozca el siguiente vector prototipo : Entonces en la capa 1, la matriz de pesos y el vector de umbral serán: Donde cada fila de W 1 representa un vector prototipo , el cual se quiere reconocer, y cada elemento de b 1 es igual al número de elementos en cada vector de entrada (R). W 1 w T 1 w T 2 w T S p 1 T p 2 T p Q T = = b 1 R R R =
10.
11. Capa 2 (Competición) La segunda capa es inicializada con la salida de la primera capa. Entonces la salida de la segunda capa se actualizará de acuerdo a la siguiente relación recurrente: La matriz de pesos de la segunda capa, W 2 será tal que los elementos de la diagonal son 1 y los restantes tendrán un valor negativo pequeño:
12. Capa 2 (Competición) La neurona con la condición inicial más grande ganará la competencia. La matriz W 2 produce una inhibición lateral , en la cual la salida de cada neurona tiene un efecto inhibitorio sobre todas las demás neuronas. Para una neurona de una entrada se tendrá:
27. APRENDIZAJE COMPETITIVO Este aprendizaje, realiza la categorización de los datos introducidos en la red. Las clases o categorías deben ser creadas por la propia red. Estas neuronas tienen asignado un peso total, que es la suma de todos los pesos que tienen a su entrada. Introducción
31. Introducción : INICIALIZACION La función initc toma una matriz de vectores de entrada P y un número de neuronas S y regresa pesos para una capa competitiva sin bias. W = initc ( P , S )
32. Introducción: EJEMPLO DE INICIALIZACIÓN Capa competitiva de 5 neuronas con 2 entradas en un intervalo de [ 0 , 10 ] y [ -3 , +3] : W = initc ( [ 0 10 ; -3 3] , 5 ) ;
33.
34.
35. Introducción : ENTRENAMIENTO Función trainc [ W , b ] = trainc ( W , P , tp ) ; TP = [ disp_freq max_pres lr bc ] ;
36.
37.
38.
39.
40. Capa Competitiva Al igual que en la capa competitiva de Hamming, el vector prototipo se almacena en las filas de W . Compet : a = 1 ; para la neurona con una n mayor. a = 0; para todas las otras neuronas.
41.
42.
43.
44. Aprendizaje Competitivo Regla Kohonen La fila de la matriz de pesos más cercana al vector de entrada se moverá hacia el vector de entra.
54. Ejercicio Una vez que la red aprende a agrupar los vectores de entrada, clasificará nuevos vectores. La capa competitiva asignará a cada vector de entrada p a alguna clase existente al producir una salida de 1 para la neurona cuyo vector de peso este más cercano a p .
57. Unidades Muertas Un problema con el aprendizaje competitivo es que las neuronas con pesos iniciales lejos del valor de cualquier entrada casi nunca ganan. Solución: Agregar un Umbral negativo a cada neurona, e incrementar la magnitud del umbral hasta que la neurona gane. Con lo cual la ganadora será más fuerte. A esto se le conoce por “conciencia” (conscience) Unidad Muerta
58. Estabilidad 1 w (0) 2 w (0) p 1 p 3 p 2 p 5 p 6 p 7 p 4 p 8 1 w (8) 2 w (8) p 1 p 3 p 2 p 5 p 6 p 7 p 4 p 8 Si los vectores de entrada no caen en clusters adecuados, entonces para rangos de aprendizaje grandes la presentación de cada vector de entrada modificará la configuración de tal manera que el sistema presentará una evolución continua.