SlideShare una empresa de Scribd logo
1 de 3
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
DILEMAS DE S. GROSSBERG
Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones.Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones.
Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos.Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos.
Esta teoría se aplica a sistemas competitivos
La teoría de la resonancia adaptativa se basa en la idea de hacer resonar la información de
entrada con los representantes o prototipos de las categorías que reconoce la red. Si entra en
resonancia con algunos, y es suficientemente similar, la red considera que pertenece a dicha
categoría y únicamente realiza una pequeña adaptación del prototipo almacenado incorporándole
algunas características del dato presentado en la entrada. Cuando no resuena con ninguno, esto
es, cuando no se parece a ningún representante de alguna categoría (recordados por la red hasta
ese momento), la red se encarga de crear una nueva categoría con el dato de entrada como
prototipo.
ARQUITECTURA DE LA RED ART
FUNCIONAMIENTO
1) Se presenta un vector de entrada.
2) Cada neurona de la capa de entrada recibe el valor del componente del vector de entrada y lo
envía a todas las neuronas de la capa de salida.
3) Cada neurona de la capa de salida compite con las demás de esta capa hasta que sólo una
permanece activa. Las conexiones laterales son las que permiten realizar esta competición, y
tienen un peso con un valor fijo - ε que debe ser menor que 1/M, donde M es el número de
neuronas de la capa de salida, para que la competición funcione correctamente:
Siendo f la función de transferencia de tipo escalón de las neuronas de salida.
Después de cierto número de iteraciones, se llega a un punto de estabilidad en la que una neurona
resulta vencedora, generando una salida de valor 1, mientras que en las demás neuronas la salida
es 0.
El valor de salida al final de la competición se pueden obtener más fácilmente mediante la
siguiente expresión:
4) La neurona vencedora envía su salida a través de las conexiones hacia atrás. Cada neurona
i-ésima de la capa de entrada recibe el valor:
Por tanto, al no influir el resto de las neuronas de salida por estar inactivas(0), en la capa de
entrada se reciben los valores de los pesos de las conexiones correspondientes.
5) Se compara la información de entrada con la categoría. Si la neurona de salida se ha activado.
Esta comparación se hace valorando la siguiente relación de semejanza:
Al trabajar con valores binarios, el producto aritmético equivale a la operación AND,
6) Se compara la relación de semejanza entre ambas informaciones con un parámetro de
vigilancia (ρ), el cual influirá en el número de clases que establecerá la red. Si no se cumple dicho
parámetro entonces la neurona vencedora se resetea, y se repite desde el paso número 2.
7) Si la semejanza es igual o mayor que el parámetro de vigilancia, entonces se asume que la
neurona que se ha activado a la salida es la que representa al vector de entrada, para después
proceder a ajustar los pesos de la red
APRENDIZAJE
El aprendizaje en el modelo ART es de tipo ON LINE, por lo que no se distingue entre etapa de
entrenamiento y de funcionamiento.
La red ART utiliza un aprendizaje no supervisado de tipo competitivo.
En este tipo de redes se pueden dar dos tipos de aprendizaje:
* Aprendizaje lento: ocurre cuando una información de entrada es asociada a una de las
categorías existentes.
* Aprendizaje rápido: se da cuando se establece una nueva categoría.
Inicialmente, cuando la red no ha aprendido nada se le asignan los siguientes pesos:
Después, cada vez que se presente un vector de entrada, se realiza el ajuste de los pesos de las
conexiones V de la neurona vencedora con cada una de las neuronas de entrada,en función de la
diferencia entre este vector y del representante, la variación de los pesos V se realiza según la
siguiente ecuación diferencial:
Si la neurona de salida no es la vencedora, el valor de su salida es cero, con lo que no debe
producir variación en el peso correspondiente. En caso contrario, si la neurona es la vencedora, su
salida es 1, con lo que la variación del peso de V sería de :
Los pesos de Wji se obtienen normalizando los anteriores.
Donde:
γ suele tener el valor de 0.5

Más contenido relacionado

La actualidad más candente

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
gueste7b261
 

La actualidad más candente (20)

Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
El Perceptron simple
El Perceptron simple El Perceptron simple
El Perceptron simple
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Redes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y KohonenRedes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y Kohonen
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Perceptron Multicapa back-propagation
 Perceptron Multicapa back-propagation  Perceptron Multicapa back-propagation
Perceptron Multicapa back-propagation
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
IRIN clase 140509
IRIN clase 140509IRIN clase 140509
IRIN clase 140509
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 

Destacado (9)

redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
Optimización con redes neuronales, lógica difusa y algoritmos genéticos
Optimización con redes neuronales, lógica difusa y algoritmos genéticos Optimización con redes neuronales, lógica difusa y algoritmos genéticos
Optimización con redes neuronales, lógica difusa y algoritmos genéticos
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Tema 7 Aprendizaje De Sistemas Difusos Con Algoritmos GenéTicos
Tema 7 Aprendizaje De Sistemas Difusos Con Algoritmos GenéTicosTema 7 Aprendizaje De Sistemas Difusos Con Algoritmos GenéTicos
Tema 7 Aprendizaje De Sistemas Difusos Con Algoritmos GenéTicos
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 

Similar a redes neuronales tipo Art3

Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
ESCOM
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
jcbp_peru
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
jcbp_peru
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
jcbp_peru
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
jcbp_peru
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
c09271
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 

Similar a redes neuronales tipo Art3 (20)

Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 

Más de ESCOM

Art2
Art2Art2
Art2
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
ESCOM
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
ESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
ESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
ESCOM
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
ESCOM
 
Unsupervised Slides
Unsupervised SlidesUnsupervised Slides
Unsupervised Slides
ESCOM
 
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedREDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
ESCOM
 
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedREDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
ESCOM
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
ESCOM
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
ESCOM
 

Más de ESCOM (18)

Art2
Art2Art2
Art2
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Unsupervised Slides
Unsupervised SlidesUnsupervised Slides
Unsupervised Slides
 
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedREDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
 
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedREDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
 

Último

SISTEMA RESPIRATORIO DEL CUERPO HUMANO triptico.docx
SISTEMA RESPIRATORIO DEL CUERPO HUMANO triptico.docxSISTEMA RESPIRATORIO DEL CUERPO HUMANO triptico.docx
SISTEMA RESPIRATORIO DEL CUERPO HUMANO triptico.docx
gesicavillanuevaqf
 

Último (20)

TRABAJO CON TRES O MAS FRACCIONES PARA NIÑOS
TRABAJO CON TRES O MAS FRACCIONES PARA NIÑOSTRABAJO CON TRES O MAS FRACCIONES PARA NIÑOS
TRABAJO CON TRES O MAS FRACCIONES PARA NIÑOS
 
La historia de la vida estudiantil a 102 años de la fundación de las Normales...
La historia de la vida estudiantil a 102 años de la fundación de las Normales...La historia de la vida estudiantil a 102 años de la fundación de las Normales...
La historia de la vida estudiantil a 102 años de la fundación de las Normales...
 
2.15. Calendario Civico Escolar 2024.docx
2.15. Calendario Civico Escolar 2024.docx2.15. Calendario Civico Escolar 2024.docx
2.15. Calendario Civico Escolar 2024.docx
 
RESPONSABILIDAD SOCIAL EN LAS ORGANIZACIONES (4).pdf
RESPONSABILIDAD SOCIAL EN LAS ORGANIZACIONES (4).pdfRESPONSABILIDAD SOCIAL EN LAS ORGANIZACIONES (4).pdf
RESPONSABILIDAD SOCIAL EN LAS ORGANIZACIONES (4).pdf
 
IMPLICACIONES BIOÉTICAS ANTE EL TRANSHUMANISMO A PARTIR DEL PENSAMIENTO FILOS...
IMPLICACIONES BIOÉTICAS ANTE EL TRANSHUMANISMO A PARTIR DEL PENSAMIENTO FILOS...IMPLICACIONES BIOÉTICAS ANTE EL TRANSHUMANISMO A PARTIR DEL PENSAMIENTO FILOS...
IMPLICACIONES BIOÉTICAS ANTE EL TRANSHUMANISMO A PARTIR DEL PENSAMIENTO FILOS...
 
SISTEMA RESPIRATORIO DEL CUERPO HUMANO triptico.docx
SISTEMA RESPIRATORIO DEL CUERPO HUMANO triptico.docxSISTEMA RESPIRATORIO DEL CUERPO HUMANO triptico.docx
SISTEMA RESPIRATORIO DEL CUERPO HUMANO triptico.docx
 
el poder del estado en el siglo XXI.pptx
el poder del estado en el siglo XXI.pptxel poder del estado en el siglo XXI.pptx
el poder del estado en el siglo XXI.pptx
 
a propósito de la globalización y sus efectos
a propósito de la globalización y sus efectosa propósito de la globalización y sus efectos
a propósito de la globalización y sus efectos
 
2. Entornos Virtuales de Aprendizaje.pptx
2. Entornos Virtuales de Aprendizaje.pptx2. Entornos Virtuales de Aprendizaje.pptx
2. Entornos Virtuales de Aprendizaje.pptx
 
Lección 1: Los complementos del Verbo ...
Lección 1: Los complementos del Verbo ...Lección 1: Los complementos del Verbo ...
Lección 1: Los complementos del Verbo ...
 
A propósito de la globalización y la financiarización del mundo
A propósito de la globalización y la financiarización del mundoA propósito de la globalización y la financiarización del mundo
A propósito de la globalización y la financiarización del mundo
 
LA GEOMETRÍA Y LOS SISTEMAS ANGULARES, APRENDER LEYENDO LA BIBLIA
LA GEOMETRÍA Y LOS SISTEMAS ANGULARES, APRENDER LEYENDO LA BIBLIALA GEOMETRÍA Y LOS SISTEMAS ANGULARES, APRENDER LEYENDO LA BIBLIA
LA GEOMETRÍA Y LOS SISTEMAS ANGULARES, APRENDER LEYENDO LA BIBLIA
 
Como construir los vínculos afectivos (Grupal)
Como construir los vínculos afectivos (Grupal)Como construir los vínculos afectivos (Grupal)
Como construir los vínculos afectivos (Grupal)
 
Cerebelo Anatomía y fisiología Clase presencial
Cerebelo Anatomía y fisiología Clase presencialCerebelo Anatomía y fisiología Clase presencial
Cerebelo Anatomía y fisiología Clase presencial
 
Seguridad y virus informáticos 12°B 2024
Seguridad y virus informáticos 12°B 2024Seguridad y virus informáticos 12°B 2024
Seguridad y virus informáticos 12°B 2024
 
proyecto semana de los Jardines, actividades a realizar para resaltar esta fecha
proyecto semana de los Jardines, actividades a realizar para resaltar esta fechaproyecto semana de los Jardines, actividades a realizar para resaltar esta fecha
proyecto semana de los Jardines, actividades a realizar para resaltar esta fecha
 
Tema 8 Estructura y composición de la Tierra 2024
Tema 8 Estructura y composición de la Tierra 2024Tema 8 Estructura y composición de la Tierra 2024
Tema 8 Estructura y composición de la Tierra 2024
 
Tipologías de vínculos afectivos (grupo)
Tipologías de vínculos afectivos (grupo)Tipologías de vínculos afectivos (grupo)
Tipologías de vínculos afectivos (grupo)
 
cuadernillo_cuentos_de_los_valores_elprofe20 (1).docx
cuadernillo_cuentos_de_los_valores_elprofe20 (1).docxcuadernillo_cuentos_de_los_valores_elprofe20 (1).docx
cuadernillo_cuentos_de_los_valores_elprofe20 (1).docx
 
Lec. 08 Esc. Sab. Luz desde el santuario
Lec. 08 Esc. Sab. Luz desde el santuarioLec. 08 Esc. Sab. Luz desde el santuario
Lec. 08 Esc. Sab. Luz desde el santuario
 

redes neuronales tipo Art3

  • 1. MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART) DILEMAS DE S. GROSSBERG Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones.Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones. Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos.Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos. Esta teoría se aplica a sistemas competitivos La teoría de la resonancia adaptativa se basa en la idea de hacer resonar la información de entrada con los representantes o prototipos de las categorías que reconoce la red. Si entra en resonancia con algunos, y es suficientemente similar, la red considera que pertenece a dicha categoría y únicamente realiza una pequeña adaptación del prototipo almacenado incorporándole algunas características del dato presentado en la entrada. Cuando no resuena con ninguno, esto es, cuando no se parece a ningún representante de alguna categoría (recordados por la red hasta ese momento), la red se encarga de crear una nueva categoría con el dato de entrada como prototipo. ARQUITECTURA DE LA RED ART FUNCIONAMIENTO 1) Se presenta un vector de entrada. 2) Cada neurona de la capa de entrada recibe el valor del componente del vector de entrada y lo envía a todas las neuronas de la capa de salida. 3) Cada neurona de la capa de salida compite con las demás de esta capa hasta que sólo una permanece activa. Las conexiones laterales son las que permiten realizar esta competición, y tienen un peso con un valor fijo - ε que debe ser menor que 1/M, donde M es el número de neuronas de la capa de salida, para que la competición funcione correctamente:
  • 2. Siendo f la función de transferencia de tipo escalón de las neuronas de salida. Después de cierto número de iteraciones, se llega a un punto de estabilidad en la que una neurona resulta vencedora, generando una salida de valor 1, mientras que en las demás neuronas la salida es 0. El valor de salida al final de la competición se pueden obtener más fácilmente mediante la siguiente expresión: 4) La neurona vencedora envía su salida a través de las conexiones hacia atrás. Cada neurona i-ésima de la capa de entrada recibe el valor: Por tanto, al no influir el resto de las neuronas de salida por estar inactivas(0), en la capa de entrada se reciben los valores de los pesos de las conexiones correspondientes. 5) Se compara la información de entrada con la categoría. Si la neurona de salida se ha activado. Esta comparación se hace valorando la siguiente relación de semejanza: Al trabajar con valores binarios, el producto aritmético equivale a la operación AND, 6) Se compara la relación de semejanza entre ambas informaciones con un parámetro de vigilancia (ρ), el cual influirá en el número de clases que establecerá la red. Si no se cumple dicho parámetro entonces la neurona vencedora se resetea, y se repite desde el paso número 2. 7) Si la semejanza es igual o mayor que el parámetro de vigilancia, entonces se asume que la neurona que se ha activado a la salida es la que representa al vector de entrada, para después proceder a ajustar los pesos de la red APRENDIZAJE El aprendizaje en el modelo ART es de tipo ON LINE, por lo que no se distingue entre etapa de entrenamiento y de funcionamiento. La red ART utiliza un aprendizaje no supervisado de tipo competitivo. En este tipo de redes se pueden dar dos tipos de aprendizaje: * Aprendizaje lento: ocurre cuando una información de entrada es asociada a una de las categorías existentes. * Aprendizaje rápido: se da cuando se establece una nueva categoría. Inicialmente, cuando la red no ha aprendido nada se le asignan los siguientes pesos: Después, cada vez que se presente un vector de entrada, se realiza el ajuste de los pesos de las conexiones V de la neurona vencedora con cada una de las neuronas de entrada,en función de la diferencia entre este vector y del representante, la variación de los pesos V se realiza según la siguiente ecuación diferencial:
  • 3. Si la neurona de salida no es la vencedora, el valor de su salida es cero, con lo que no debe producir variación en el peso correspondiente. En caso contrario, si la neurona es la vencedora, su salida es 1, con lo que la variación del peso de V sería de : Los pesos de Wji se obtienen normalizando los anteriores. Donde: γ suele tener el valor de 0.5