El documento describe el algoritmo de aprendizaje vectorial cuantizado (LVQ), un método de aprendizaje supervisado para redes neuronales competitivas. LVQ usa dos capas de neuronas, una capa competitiva que aprende subclases y una capa lineal que combina las subclases en clases objetivo definidas por el usuario. El algoritmo entrena las redes moviendo los pesos de las neuronas hacia los patrones de entrada si clasifican correctamente y alejándolos si clasifican incorrectamente.
21. ARQUITECTURA DE LA LVQ. La entrada de red no es calculada mediante el producto punto de los vectores prototipos con la entrada. En vez de esto, la entrada de la red es la distancia negativa entre los vectores prototipos y la entrada.
22. Subclases Para la red LVQ, la neurona ganadora en la primera capa indica la subclase a la cual el vector de entrada pertenece. Posiblemente existan varias neuronas diferentes (subclases) las cuales hacen cada clase. La segunda capa de la red LVQ combina las subclases en una sola clase. Las columnas de W 2 representan subclases, y las filas representan clases. La matriz W 2 tiene un 1 en cada columna, con los otros elementos iguales a cero. La fila en la cual el 1 ocurre indica a cual clase pertenece la subclase apropiada. w k i 2 1 = subclase i es una parte de la clase k
23. Ejemplo • Subclases 1, 3 y 4 pertenecen a la clase 1. • Subclase 2 pertenece a la clase 2. • Subclases 5 y 6 pertenece a la clase 3. Una red competitiva de una sola capa puede crear regiones de clasificación convexas. La segunda capa de la red LVQ puede combinar las regiones convexas para crear categorías más complejas.
24. Aprendizaje LVQ Si el patrón de entrada se clasifica correctamente, entonces el peso ganador se moverá hacia el vector de entrada de acuerdo a la regla de aprendizaje de Kohonen. Si el patrón de entrada se clasifica incorrectamente, entonces el peso ganador se alejará del vector de entrada. El aprendizaje LVQ combina el aprendizaje competitivo con el aprendizaje supervisado. Se requiere un conjunto de ejemplos de entrenamiento para un comportamiento correcto de la red.
25. Ejemplo p 2 1 0 = t 2 0 1 = p 3 1 1 = t 3 1 0 =
26. Primera Iteración a 1 c o m p e t 0.25 0.75 T 0 1 T – – 0.75 0.75 T 0 1 T – – 1.00 0.25 T 0 1 T – – 0.50 0.25 T 0 1 T – – c o m p e t 0.354 – 0.791 – 1.25 – 0.901 – 1 0 0 0 = = = a 1 c o m p e t n 1 c o m p e t w 1 1 p 1 – – w 1 2 p 1 – – w 1 3 p 1 – – w 1 4 p 1 – – = =
27. Segunda capa Esta es la clase correcta, Por lo tanto el vector de pesos se moverá hacia el vector de entrada.
30. Practica 3 Características de los Mapas Auto - organizativos y la red LVQ
31.
32. Red LVQ 2 Si la neurona ganadora en la capa oculta clasifica incorrectamente la entrada actual, se moverá el vector de peso alejándose del vector de entrada. Sin embargo, también se ajustaran los pesos de las neuronas más cercanas al vector de entrada que lo clasificarían apropiadamente. Los pesos para esta segunda neurona deberían moverse hacia el vector de entrada.