SlideShare una empresa de Scribd logo
1 de 5
Mapas autorganizativos.( Self-organizing Feature Map)

El orden para emular la actividad efervecente de un sistema biologico,
sin haberse a implementado las conecciones de retroalimentacion
no lineales centro-encendido/contorno-apagado, Kohenen diseñó la
simplificacion siguiente. La red de mapa auto-organizativo (SOFM)
primero determina a la neurona ganadora i* usando algun
procedimiento conforme al nivel competitivo. Despues, el peso de
los vectores para todas las neuronas dentro de una cierta cercania o
vecindario de la neurona ganadora son actualizados usando la
regla de Kohonen.

 iW(q) = iW (q-1) + α(p(q) – iW(q-1))= (1-α) iW (q-1) + α p(q)

                                                           i ∈ Ni* (d)


donde la vecindad Ni* (d) contiene el indice para todas las neuronas
que radican dentro del radio d de la neurona ganadora i*:

                         Ni* (d) ={ j, dij ≤ d}

Cuando un vector p es presentado, el peso de la neurona ganadora
y de las vecindades se moverán hacia p. El resultado es que,
despues de muchas presentaciones, las neuronas de las vecindades
habrán aprendido vectores similares una de otra mutuamente.

Para demostrar el concepto de una vecindad, consideramos los
diagramas de la figura 1.El diagrama de la izquierda ilustra a una
vecindad de bidimensional deradio d=1 alrededor de la neurona
13. El diagrama de la derecha muestra una vecindad de radio
d=2.
La definición de esta vecindad será:

N13(1) = {8,12,13,14,18},

N13(2) = {3,7,8,9,11,12,13,14,15,17,18,19,23}.


Las neuronas en un SOFM no tienen que ser acomodadas en un
patron bidimensional. Esto es posible para el uso de un arreglo
unidimensional, o incluso de tres o más dimensiones. Para una
unidimension SOFM, una neurona solo tendrá dos vecinos dentro
de su radio de 1 (o un simple vecino si la neurona es la ultima de
la línea). Esto es posible para definir distancias en diferentes
caminos. Kohonen sugirió vecindarios rectangulares y hexagonales
para una implementación eficiente.

El desempeño de la red es insensible a la forma que tome el
vecindario.

Ahora vamos a demostrar el desempeño de una red SOFM.Enla
figura 2 se muestra    una característica del mapa y la topología
bidimensional de estas neuronas.

El diagrama de laizquierda muestra el vector inicial depesos para
elmapa característico. Cada vector de pesos de tres elementos, esta
representado por un punto sobre la esfera. (Los pesos son
normalizados, por lo tanto esos caerán dentro de la superficie de
una esfera.) Los puntos de las neuronas de la vecindad son
conectadas por líneas, de esta manera tu puedes ver como la
topología física de la red esta acomodada en el espacio de
entrada.

El diagrama en la izquierda muestra una región cuadrada sobre la
superficie de la esfera. Aleatoriamente escogeremos vectores en
esta región y ellos representarán el mapa característico.

Cada vez que un vector es presentado, la neurona con el vector de
pesos más cerrados ganará la competencia. La neurona ganadora y
sus vecinos moverán su vector de pesos ya determinado hacia el
vector de entrada (y por lo tanto mutuamente entre ellas). Para este
ejemplo usaremos una vecindad con un radio de 1.

El vector de pesos tiene dos tendencias:

• La primera, ellos se extienden por fuera determinando el espacio
  de entrada conforme mas vectores son presentados.

• La segunda, ellos se mueven        hacia el vector de pesos de las
  neuronas vecinas.

Estas dos tendencias trabajan juntas para reestructurar las neuronas
en el nivel, así ellas clasifican uniformente el espacio de entrada.

La serie de diagramas en la figura 3 puestra como los pesos de las
veinticinco neuronas se extienden por fuera determinando la
actividad del espacio de entrada y se organizan ellas mismas para
competir en esta topología.

En este ejemplo, el vector de entrada fueron generados con igual
probabilidad desde cualquier punto en el espacio de entrada. Por
lo tanto, las neuronas clasifican de forma general e igual las áreas del
espacio de entrada.

La figura 4 contiene más ejemplos de regiones de entrada y el
resultado son  mapas    caracteristicos despues de la auto-
organizarción.

Ocasionalmente los mapas característicos pueden fallar ajustando la
topología de su espacio de entrada. Esto usualmente ocurre cuando
dos partes de la red alteran la topología de separación de partes
del espacio de entrada, pero la red forma un giro entre estas. Un
ejemplo de esto es la firura 5.

Es dificil que este giro pueda ser removido, porque los dos finales
de la red hace que se formen clasificaciones estables de regiones
diferentes.
Perfeccionamiento de los mapas característicos.

De esta forma, hemos descrito solo el algoritmo más básico para
entrenar los mapas característicos. Ahora vamos a considerar
diversas tecnicas  que pueden ser usadas        para acelerar el
proceso de auto-organización y para formaralgo más confiable.

Un método para          perfecionar eldesempeño        de los mapas
característicos es el variar el tamaño de la duración de entrenamiento
del vecindario. Inicialmente, el tamaño del vecindario, d, es un grupo
grande. Conforme el entrenamiento progresa, d es gradualmente
reducido, hasta que este solo incluye la neurona ganadora. Esta
rapidez aumenta la auto-organización y hace de los giros en el
mapa algo muy dificil (improbable).

El indice de entrenamiento puede ser también cambiado al
aumentar el tiempo. Un valor inicial de 1 permite que las neuronas
entrenen pronto      a los      vectores presentados. Durante
aprendizaje, el indicador de entrenamiento es        decrementado
acercandolo a     0, de esta forma el aprendizaje          llega a
establecerse.

Otra alteración que acelera la auto-organización es el hacer que la
neurona ganadora utilice un valor de aprendizaje más grande que el
de las neuronas vecinas.

Finalmente, ambos niveles competitivos y los mapas característicos
frecuentemente usan una expresion alternativa para la entrada a la
red. En vez de         utilizar  el producto interno, ellos pueden
directamente calcular la distancia entre el vector de entrada y el
vector prototipo. La ventaja de usar la distancia es que los vectores
de entrada no necesitan ser normalizados.
redes neuronales Som

Más contenido relacionado

La actualidad más candente

REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGESCOM
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoESCOM
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 
Perceptron Multicapa back-propagation
 Perceptron Multicapa back-propagation  Perceptron Multicapa back-propagation
Perceptron Multicapa back-propagation Gin Pao
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla AprendizajeRoberth Figueroa-Diaz
 
Arquitectura RNA Perceptrón Multicapa aplicado a la predicción de inundaciones
Arquitectura RNA Perceptrón Multicapa aplicado a la predicción de inundacionesArquitectura RNA Perceptrón Multicapa aplicado a la predicción de inundaciones
Arquitectura RNA Perceptrón Multicapa aplicado a la predicción de inundacionesAndrea Lezcano
 
Diseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales ArtificialesDiseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 

La actualidad más candente (20)

REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Perceptron Multicapa back-propagation
 Perceptron Multicapa back-propagation  Perceptron Multicapa back-propagation
Perceptron Multicapa back-propagation
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
 
Arquitectura RNA Perceptrón Multicapa aplicado a la predicción de inundaciones
Arquitectura RNA Perceptrón Multicapa aplicado a la predicción de inundacionesArquitectura RNA Perceptrón Multicapa aplicado a la predicción de inundaciones
Arquitectura RNA Perceptrón Multicapa aplicado a la predicción de inundaciones
 
Diseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales ArtificialesDiseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Perceptrón multicapa entrenamienta en MatLab
Perceptrón multicapa entrenamienta en MatLabPerceptrón multicapa entrenamienta en MatLab
Perceptrón multicapa entrenamienta en MatLab
 

Destacado

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
Combining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COCombining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COESCOM
 
GAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsGAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsESCOM
 
Two algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksTwo algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Funciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldFunciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldESCOM
 
REDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldREDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
Introduccion a las redes neuronales
Introduccion a las redes neuronalesIntroduccion a las redes neuronales
Introduccion a las redes neuronalesHALCONPEREGRINO2
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESESCOM
 

Destacado (13)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
Combining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COCombining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets CO
 
GAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsGAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm Components
 
Two algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksTwo algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networks
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Funciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldFunciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes Hopfield
 
REDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldREDES NEURONALES De Hopfield
REDES NEURONALES De Hopfield
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
Introduccion a las redes neuronales
Introduccion a las redes neuronalesIntroduccion a las redes neuronales
Introduccion a las redes neuronales
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
 

Similar a redes neuronales Som

Mapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenMapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenESCOM
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosESCOM
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base RadialESCOM
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificialcarlos colque
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519lozanolc
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansigVanee2014
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaBrian Piragauta
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia competRichar León
 
Presentación forinvest 2013
Presentación forinvest 2013Presentación forinvest 2013
Presentación forinvest 2013Rankia
 
Tesis redes-neuronales.3.-capitulo2
Tesis redes-neuronales.3.-capitulo2Tesis redes-neuronales.3.-capitulo2
Tesis redes-neuronales.3.-capitulo2Omar Saba
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
Metodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosMetodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosESCOM
 
Utp ia_2014-2_s10_redes de funciones de base radial
 Utp ia_2014-2_s10_redes de funciones de base radial Utp ia_2014-2_s10_redes de funciones de base radial
Utp ia_2014-2_s10_redes de funciones de base radialjcbp_peru
 

Similar a redes neuronales Som (20)

Mapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenMapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de Kohonen
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Aprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simpleAprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simple
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificial
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
Presentación forinvest 2013
Presentación forinvest 2013Presentación forinvest 2013
Presentación forinvest 2013
 
Tesis redes-neuronales.3.-capitulo2
Tesis redes-neuronales.3.-capitulo2Tesis redes-neuronales.3.-capitulo2
Tesis redes-neuronales.3.-capitulo2
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Rna10
Rna10Rna10
Rna10
 
Metodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosMetodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas Difusos
 
Utp ia_2014-2_s10_redes de funciones de base radial
 Utp ia_2014-2_s10_redes de funciones de base radial Utp ia_2014-2_s10_redes de funciones de base radial
Utp ia_2014-2_s10_redes de funciones de base radial
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
Slidecats
SlidecatsSlidecats
Slidecats
 

Más de ESCOM

redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3ESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQESCOM
 
Unsupervised Slides
Unsupervised SlidesUnsupervised Slides
Unsupervised SlidesESCOM
 
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedREDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedESCOM
 
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedREDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedESCOM
 

Más de ESCOM (20)

redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
Unsupervised Slides
Unsupervised SlidesUnsupervised Slides
Unsupervised Slides
 
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedREDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
 
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedREDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
 

Último

c3.hu3.p1.p3.El ser humano como ser histórico.pptx
c3.hu3.p1.p3.El ser humano como ser histórico.pptxc3.hu3.p1.p3.El ser humano como ser histórico.pptx
c3.hu3.p1.p3.El ser humano como ser histórico.pptxMartín Ramírez
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxYeseniaRivera50
 
Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024IES Vicent Andres Estelles
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdfOswaldoGonzalezCruz
 
CIENCIAS NATURALES 4 TO ambientes .docx
CIENCIAS NATURALES 4 TO  ambientes .docxCIENCIAS NATURALES 4 TO  ambientes .docx
CIENCIAS NATURALES 4 TO ambientes .docxAgustinaNuez21
 
Estrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfEstrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfromanmillans
 
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Baker Publishing Company
 
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfMapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfvictorbeltuce
 
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docxPLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docxJUANSIMONPACHIN
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPELaura Chacón
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxjosetrinidadchavez
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 

Último (20)

c3.hu3.p1.p3.El ser humano como ser histórico.pptx
c3.hu3.p1.p3.El ser humano como ser histórico.pptxc3.hu3.p1.p3.El ser humano como ser histórico.pptx
c3.hu3.p1.p3.El ser humano como ser histórico.pptx
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
 
Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
 
CIENCIAS NATURALES 4 TO ambientes .docx
CIENCIAS NATURALES 4 TO  ambientes .docxCIENCIAS NATURALES 4 TO  ambientes .docx
CIENCIAS NATURALES 4 TO ambientes .docx
 
PPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptxPPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptx
 
Estrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfEstrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdf
 
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
 
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdfTema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
 
TL/CNL – 2.ª FASE .
TL/CNL – 2.ª FASE                       .TL/CNL – 2.ª FASE                       .
TL/CNL – 2.ª FASE .
 
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfMapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
 
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docxPLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
PLANIFICACION ANUAL 2024 - INICIAL UNIDOCENTE.docx
 
Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPE
 
DIA INTERNACIONAL DAS FLORESTAS .
DIA INTERNACIONAL DAS FLORESTAS         .DIA INTERNACIONAL DAS FLORESTAS         .
DIA INTERNACIONAL DAS FLORESTAS .
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 

redes neuronales Som

  • 1. Mapas autorganizativos.( Self-organizing Feature Map) El orden para emular la actividad efervecente de un sistema biologico, sin haberse a implementado las conecciones de retroalimentacion no lineales centro-encendido/contorno-apagado, Kohenen diseñó la simplificacion siguiente. La red de mapa auto-organizativo (SOFM) primero determina a la neurona ganadora i* usando algun procedimiento conforme al nivel competitivo. Despues, el peso de los vectores para todas las neuronas dentro de una cierta cercania o vecindario de la neurona ganadora son actualizados usando la regla de Kohonen. iW(q) = iW (q-1) + α(p(q) – iW(q-1))= (1-α) iW (q-1) + α p(q) i ∈ Ni* (d) donde la vecindad Ni* (d) contiene el indice para todas las neuronas que radican dentro del radio d de la neurona ganadora i*: Ni* (d) ={ j, dij ≤ d} Cuando un vector p es presentado, el peso de la neurona ganadora y de las vecindades se moverán hacia p. El resultado es que, despues de muchas presentaciones, las neuronas de las vecindades habrán aprendido vectores similares una de otra mutuamente. Para demostrar el concepto de una vecindad, consideramos los diagramas de la figura 1.El diagrama de la izquierda ilustra a una vecindad de bidimensional deradio d=1 alrededor de la neurona 13. El diagrama de la derecha muestra una vecindad de radio d=2.
  • 2. La definición de esta vecindad será: N13(1) = {8,12,13,14,18}, N13(2) = {3,7,8,9,11,12,13,14,15,17,18,19,23}. Las neuronas en un SOFM no tienen que ser acomodadas en un patron bidimensional. Esto es posible para el uso de un arreglo unidimensional, o incluso de tres o más dimensiones. Para una unidimension SOFM, una neurona solo tendrá dos vecinos dentro de su radio de 1 (o un simple vecino si la neurona es la ultima de la línea). Esto es posible para definir distancias en diferentes caminos. Kohonen sugirió vecindarios rectangulares y hexagonales para una implementación eficiente. El desempeño de la red es insensible a la forma que tome el vecindario. Ahora vamos a demostrar el desempeño de una red SOFM.Enla figura 2 se muestra una característica del mapa y la topología bidimensional de estas neuronas. El diagrama de laizquierda muestra el vector inicial depesos para elmapa característico. Cada vector de pesos de tres elementos, esta representado por un punto sobre la esfera. (Los pesos son normalizados, por lo tanto esos caerán dentro de la superficie de una esfera.) Los puntos de las neuronas de la vecindad son conectadas por líneas, de esta manera tu puedes ver como la topología física de la red esta acomodada en el espacio de entrada. El diagrama en la izquierda muestra una región cuadrada sobre la superficie de la esfera. Aleatoriamente escogeremos vectores en esta región y ellos representarán el mapa característico. Cada vez que un vector es presentado, la neurona con el vector de pesos más cerrados ganará la competencia. La neurona ganadora y sus vecinos moverán su vector de pesos ya determinado hacia el
  • 3. vector de entrada (y por lo tanto mutuamente entre ellas). Para este ejemplo usaremos una vecindad con un radio de 1. El vector de pesos tiene dos tendencias: • La primera, ellos se extienden por fuera determinando el espacio de entrada conforme mas vectores son presentados. • La segunda, ellos se mueven hacia el vector de pesos de las neuronas vecinas. Estas dos tendencias trabajan juntas para reestructurar las neuronas en el nivel, así ellas clasifican uniformente el espacio de entrada. La serie de diagramas en la figura 3 puestra como los pesos de las veinticinco neuronas se extienden por fuera determinando la actividad del espacio de entrada y se organizan ellas mismas para competir en esta topología. En este ejemplo, el vector de entrada fueron generados con igual probabilidad desde cualquier punto en el espacio de entrada. Por lo tanto, las neuronas clasifican de forma general e igual las áreas del espacio de entrada. La figura 4 contiene más ejemplos de regiones de entrada y el resultado son mapas caracteristicos despues de la auto- organizarción. Ocasionalmente los mapas característicos pueden fallar ajustando la topología de su espacio de entrada. Esto usualmente ocurre cuando dos partes de la red alteran la topología de separación de partes del espacio de entrada, pero la red forma un giro entre estas. Un ejemplo de esto es la firura 5. Es dificil que este giro pueda ser removido, porque los dos finales de la red hace que se formen clasificaciones estables de regiones diferentes.
  • 4. Perfeccionamiento de los mapas característicos. De esta forma, hemos descrito solo el algoritmo más básico para entrenar los mapas característicos. Ahora vamos a considerar diversas tecnicas que pueden ser usadas para acelerar el proceso de auto-organización y para formaralgo más confiable. Un método para perfecionar eldesempeño de los mapas característicos es el variar el tamaño de la duración de entrenamiento del vecindario. Inicialmente, el tamaño del vecindario, d, es un grupo grande. Conforme el entrenamiento progresa, d es gradualmente reducido, hasta que este solo incluye la neurona ganadora. Esta rapidez aumenta la auto-organización y hace de los giros en el mapa algo muy dificil (improbable). El indice de entrenamiento puede ser también cambiado al aumentar el tiempo. Un valor inicial de 1 permite que las neuronas entrenen pronto a los vectores presentados. Durante aprendizaje, el indicador de entrenamiento es decrementado acercandolo a 0, de esta forma el aprendizaje llega a establecerse. Otra alteración que acelera la auto-organización es el hacer que la neurona ganadora utilice un valor de aprendizaje más grande que el de las neuronas vecinas. Finalmente, ambos niveles competitivos y los mapas característicos frecuentemente usan una expresion alternativa para la entrada a la red. En vez de utilizar el producto interno, ellos pueden directamente calcular la distancia entre el vector de entrada y el vector prototipo. La ventaja de usar la distancia es que los vectores de entrada no necesitan ser normalizados.