1. Mapas autorganizativos.( Self-organizing Feature Map)
El orden para emular la actividad efervecente de un sistema biologico,
sin haberse a implementado las conecciones de retroalimentacion
no lineales centro-encendido/contorno-apagado, Kohenen diseñó la
simplificacion siguiente. La red de mapa auto-organizativo (SOFM)
primero determina a la neurona ganadora i* usando algun
procedimiento conforme al nivel competitivo. Despues, el peso de
los vectores para todas las neuronas dentro de una cierta cercania o
vecindario de la neurona ganadora son actualizados usando la
regla de Kohonen.
iW(q) = iW (q-1) + α(p(q) – iW(q-1))= (1-α) iW (q-1) + α p(q)
i ∈ Ni* (d)
donde la vecindad Ni* (d) contiene el indice para todas las neuronas
que radican dentro del radio d de la neurona ganadora i*:
Ni* (d) ={ j, dij ≤ d}
Cuando un vector p es presentado, el peso de la neurona ganadora
y de las vecindades se moverán hacia p. El resultado es que,
despues de muchas presentaciones, las neuronas de las vecindades
habrán aprendido vectores similares una de otra mutuamente.
Para demostrar el concepto de una vecindad, consideramos los
diagramas de la figura 1.El diagrama de la izquierda ilustra a una
vecindad de bidimensional deradio d=1 alrededor de la neurona
13. El diagrama de la derecha muestra una vecindad de radio
d=2.
2. La definición de esta vecindad será:
N13(1) = {8,12,13,14,18},
N13(2) = {3,7,8,9,11,12,13,14,15,17,18,19,23}.
Las neuronas en un SOFM no tienen que ser acomodadas en un
patron bidimensional. Esto es posible para el uso de un arreglo
unidimensional, o incluso de tres o más dimensiones. Para una
unidimension SOFM, una neurona solo tendrá dos vecinos dentro
de su radio de 1 (o un simple vecino si la neurona es la ultima de
la línea). Esto es posible para definir distancias en diferentes
caminos. Kohonen sugirió vecindarios rectangulares y hexagonales
para una implementación eficiente.
El desempeño de la red es insensible a la forma que tome el
vecindario.
Ahora vamos a demostrar el desempeño de una red SOFM.Enla
figura 2 se muestra una característica del mapa y la topología
bidimensional de estas neuronas.
El diagrama de laizquierda muestra el vector inicial depesos para
elmapa característico. Cada vector de pesos de tres elementos, esta
representado por un punto sobre la esfera. (Los pesos son
normalizados, por lo tanto esos caerán dentro de la superficie de
una esfera.) Los puntos de las neuronas de la vecindad son
conectadas por líneas, de esta manera tu puedes ver como la
topología física de la red esta acomodada en el espacio de
entrada.
El diagrama en la izquierda muestra una región cuadrada sobre la
superficie de la esfera. Aleatoriamente escogeremos vectores en
esta región y ellos representarán el mapa característico.
Cada vez que un vector es presentado, la neurona con el vector de
pesos más cerrados ganará la competencia. La neurona ganadora y
sus vecinos moverán su vector de pesos ya determinado hacia el
3. vector de entrada (y por lo tanto mutuamente entre ellas). Para este
ejemplo usaremos una vecindad con un radio de 1.
El vector de pesos tiene dos tendencias:
• La primera, ellos se extienden por fuera determinando el espacio
de entrada conforme mas vectores son presentados.
• La segunda, ellos se mueven hacia el vector de pesos de las
neuronas vecinas.
Estas dos tendencias trabajan juntas para reestructurar las neuronas
en el nivel, así ellas clasifican uniformente el espacio de entrada.
La serie de diagramas en la figura 3 puestra como los pesos de las
veinticinco neuronas se extienden por fuera determinando la
actividad del espacio de entrada y se organizan ellas mismas para
competir en esta topología.
En este ejemplo, el vector de entrada fueron generados con igual
probabilidad desde cualquier punto en el espacio de entrada. Por
lo tanto, las neuronas clasifican de forma general e igual las áreas del
espacio de entrada.
La figura 4 contiene más ejemplos de regiones de entrada y el
resultado son mapas caracteristicos despues de la auto-
organizarción.
Ocasionalmente los mapas característicos pueden fallar ajustando la
topología de su espacio de entrada. Esto usualmente ocurre cuando
dos partes de la red alteran la topología de separación de partes
del espacio de entrada, pero la red forma un giro entre estas. Un
ejemplo de esto es la firura 5.
Es dificil que este giro pueda ser removido, porque los dos finales
de la red hace que se formen clasificaciones estables de regiones
diferentes.
4. Perfeccionamiento de los mapas característicos.
De esta forma, hemos descrito solo el algoritmo más básico para
entrenar los mapas característicos. Ahora vamos a considerar
diversas tecnicas que pueden ser usadas para acelerar el
proceso de auto-organización y para formaralgo más confiable.
Un método para perfecionar eldesempeño de los mapas
característicos es el variar el tamaño de la duración de entrenamiento
del vecindario. Inicialmente, el tamaño del vecindario, d, es un grupo
grande. Conforme el entrenamiento progresa, d es gradualmente
reducido, hasta que este solo incluye la neurona ganadora. Esta
rapidez aumenta la auto-organización y hace de los giros en el
mapa algo muy dificil (improbable).
El indice de entrenamiento puede ser también cambiado al
aumentar el tiempo. Un valor inicial de 1 permite que las neuronas
entrenen pronto a los vectores presentados. Durante
aprendizaje, el indicador de entrenamiento es decrementado
acercandolo a 0, de esta forma el aprendizaje llega a
establecerse.
Otra alteración que acelera la auto-organización es el hacer que la
neurona ganadora utilice un valor de aprendizaje más grande que el
de las neuronas vecinas.
Finalmente, ambos niveles competitivos y los mapas característicos
frecuentemente usan una expresion alternativa para la entrada a la
red. En vez de utilizar el producto interno, ellos pueden
directamente calcular la distancia entre el vector de entrada y el
vector prototipo. La ventaja de usar la distancia es que los vectores
de entrada no necesitan ser normalizados.