SlideShare una empresa de Scribd logo
1 de 3
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
DILEMAS DE S. GROSSBERG
Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones.Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones.
Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos.Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos.
Esta teoría se aplica a sistemas competitivos
La teoría de la resonancia adaptativa se basa en la idea de hacer resonar la información de
entrada con los representantes o prototipos de las categorías que reconoce la red. Si entra en
resonancia con algunos, y es suficientemente similar, la red considera que pertenece a dicha
categoría y únicamente realiza una pequeña adaptación del prototipo almacenado incorporándole
algunas características del dato presentado en la entrada. Cuando no resuena con ninguno, esto
es, cuando no se parece a ningún representante de alguna categoría (recordados por la red hasta
ese momento), la red se encarga de crear una nueva categoría con el dato de entrada como
prototipo.
ARQUITECTURA DE LA RED ART
FUNCIONAMIENTO
1) Se presenta un vector de entrada.
2) Cada neurona de la capa de entrada recibe el valor del componente del vector de entrada y lo
envía a todas las neuronas de la capa de salida.
3) Cada neurona de la capa de salida compite con las demás de esta capa hasta que sólo una
permanece activa. Las conexiones laterales son las que permiten realizar esta competición, y
tienen un peso con un valor fijo - ε que debe ser menor que 1/M, donde M es el número de
neuronas de la capa de salida, para que la competición funcione correctamente:
Siendo f la función de transferencia de tipo escalón de las neuronas de salida.
Después de cierto número de iteraciones, se llega a un punto de estabilidad en la que una neurona
resulta vencedora, generando una salida de valor 1, mientras que en las demás neuronas la salida
es 0.
El valor de salida al final de la competición se pueden obtener más fácilmente mediante la
siguiente expresión:
4) La neurona vencedora envía su salida a través de las conexiones hacia atrás. Cada neurona
i-ésima de la capa de entrada recibe el valor:
Por tanto, al no influir el resto de las neuronas de salida por estar inactivas(0), en la capa de
entrada se reciben los valores de los pesos de las conexiones correspondientes.
5) Se compara la información de entrada con la categoría. Si la neurona de salida se ha activado.
Esta comparación se hace valorando la siguiente relación de semejanza:
Al trabajar con valores binarios, el producto aritmético equivale a la operación AND,
6) Se compara la relación de semejanza entre ambas informaciones con un parámetro de
vigilancia (ρ), el cual influirá en el número de clases que establecerá la red. Si no se cumple dicho
parámetro entonces la neurona vencedora se resetea, y se repite desde el paso número 2.
7) Si la semejanza es igual o mayor que el parámetro de vigilancia, entonces se asume que la
neurona que se ha activado a la salida es la que representa al vector de entrada, para después
proceder a ajustar los pesos de la red
APRENDIZAJE
El aprendizaje en el modelo ART es de tipo ON LINE, por lo que no se distingue entre etapa de
entrenamiento y de funcionamiento.
La red ART utiliza un aprendizaje no supervisado de tipo competitivo.
En este tipo de redes se pueden dar dos tipos de aprendizaje:
* Aprendizaje lento: ocurre cuando una información de entrada es asociada a una de las
categorías existentes.
* Aprendizaje rápido: se da cuando se establece una nueva categoría.
Inicialmente, cuando la red no ha aprendido nada se le asignan los siguientes pesos:
Después, cada vez que se presente un vector de entrada, se realiza el ajuste de los pesos de las
conexiones V de la neurona vencedora con cada una de las neuronas de entrada,en función de la
diferencia entre este vector y del representante, la variación de los pesos V se realiza según la
siguiente ecuación diferencial:
Si la neurona de salida no es la vencedora, el valor de su salida es cero, con lo que no debe
producir variación en el peso correspondiente. En caso contrario, si la neurona es la vencedora, su
salida es 1, con lo que la variación del peso de V sería de :
Los pesos de Wji se obtienen normalizando los anteriores.
Donde:
γ suele tener el valor de 0.5

Más contenido relacionado

La actualidad más candente

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
gueste7b261
 

La actualidad más candente (20)

Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
El Perceptron simple
El Perceptron simple El Perceptron simple
El Perceptron simple
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Redes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y KohonenRedes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y Kohonen
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Perceptron Multicapa back-propagation
 Perceptron Multicapa back-propagation  Perceptron Multicapa back-propagation
Perceptron Multicapa back-propagation
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
IRIN clase 140509
IRIN clase 140509IRIN clase 140509
IRIN clase 140509
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 

Destacado (9)

redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
Optimización con redes neuronales, lógica difusa y algoritmos genéticos
Optimización con redes neuronales, lógica difusa y algoritmos genéticos Optimización con redes neuronales, lógica difusa y algoritmos genéticos
Optimización con redes neuronales, lógica difusa y algoritmos genéticos
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Tema 7 Aprendizaje De Sistemas Difusos Con Algoritmos GenéTicos
Tema 7 Aprendizaje De Sistemas Difusos Con Algoritmos GenéTicosTema 7 Aprendizaje De Sistemas Difusos Con Algoritmos GenéTicos
Tema 7 Aprendizaje De Sistemas Difusos Con Algoritmos GenéTicos
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 

Similar a redes neuronales tipo Art3

Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
ESCOM
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
jcbp_peru
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
jcbp_peru
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
jcbp_peru
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
jcbp_peru
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
c09271
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 

Similar a redes neuronales tipo Art3 (20)

Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 

Más de ESCOM

Art2
Art2Art2
Art2
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
ESCOM
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
ESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
ESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
ESCOM
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
ESCOM
 
Unsupervised Slides
Unsupervised SlidesUnsupervised Slides
Unsupervised Slides
ESCOM
 
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedREDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
ESCOM
 
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedREDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
ESCOM
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
ESCOM
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
ESCOM
 

Más de ESCOM (18)

Art2
Art2Art2
Art2
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Unsupervised Slides
Unsupervised SlidesUnsupervised Slides
Unsupervised Slides
 
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs UnsupervisedREDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
REDES NEURONALES APRENDIZAJE Supervised Vs Unsupervised
 
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No SupervisedREDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
REDES NEURONALES APRENDIZAJE Supervised Vs No Supervised
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
 

Último

2° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
2° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx2° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
2° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
candy torres
 
Las Preguntas Educativas entran a las Aulas CIAESA Ccesa007.pdf
Las Preguntas Educativas entran a las Aulas CIAESA  Ccesa007.pdfLas Preguntas Educativas entran a las Aulas CIAESA  Ccesa007.pdf
Las Preguntas Educativas entran a las Aulas CIAESA Ccesa007.pdf
Demetrio Ccesa Rayme
 
6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria
Wilian24
 
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACIONRESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
amelia poma
 
Lineamientos de la Escuela de la Confianza SJA Ccesa.pptx
Lineamientos de la Escuela de la Confianza  SJA  Ccesa.pptxLineamientos de la Escuela de la Confianza  SJA  Ccesa.pptx
Lineamientos de la Escuela de la Confianza SJA Ccesa.pptx
Demetrio Ccesa Rayme
 

Último (20)

MINEDU BASES JUEGOS ESCOLARES DEPORTIVOS PARADEPORTIVOS 2024.docx
MINEDU BASES JUEGOS ESCOLARES DEPORTIVOS PARADEPORTIVOS 2024.docxMINEDU BASES JUEGOS ESCOLARES DEPORTIVOS PARADEPORTIVOS 2024.docx
MINEDU BASES JUEGOS ESCOLARES DEPORTIVOS PARADEPORTIVOS 2024.docx
 
Presentación de la propuesta de clase.pdf
Presentación de la propuesta de clase.pdfPresentación de la propuesta de clase.pdf
Presentación de la propuesta de clase.pdf
 
Power Point E. S.: Los dos testigos.pptx
Power Point E. S.: Los dos testigos.pptxPower Point E. S.: Los dos testigos.pptx
Power Point E. S.: Los dos testigos.pptx
 
Lecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigosLecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigos
 
2° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
2° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx2° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
2° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
 
FICHA CUENTO BUSCANDO UNA MAMÁ 2024 MAESTRA JANET.pdf
FICHA CUENTO BUSCANDO UNA MAMÁ  2024 MAESTRA JANET.pdfFICHA CUENTO BUSCANDO UNA MAMÁ  2024 MAESTRA JANET.pdf
FICHA CUENTO BUSCANDO UNA MAMÁ 2024 MAESTRA JANET.pdf
 
AEC 2. Aventura en el Antiguo Egipto.pptx
AEC 2. Aventura en el Antiguo Egipto.pptxAEC 2. Aventura en el Antiguo Egipto.pptx
AEC 2. Aventura en el Antiguo Egipto.pptx
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
 
Las Preguntas Educativas entran a las Aulas CIAESA Ccesa007.pdf
Las Preguntas Educativas entran a las Aulas CIAESA  Ccesa007.pdfLas Preguntas Educativas entran a las Aulas CIAESA  Ccesa007.pdf
Las Preguntas Educativas entran a las Aulas CIAESA Ccesa007.pdf
 
AEC2. Egipto Antiguo. Adivina, Adivinanza.pptx
AEC2. Egipto Antiguo. Adivina, Adivinanza.pptxAEC2. Egipto Antiguo. Adivina, Adivinanza.pptx
AEC2. Egipto Antiguo. Adivina, Adivinanza.pptx
 
animalesdelaproincia de beunos aires.pdf
animalesdelaproincia de beunos aires.pdfanimalesdelaproincia de beunos aires.pdf
animalesdelaproincia de beunos aires.pdf
 
6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria
 
Sesión de clase APC: Los dos testigos.pdf
Sesión de clase APC: Los dos testigos.pdfSesión de clase APC: Los dos testigos.pdf
Sesión de clase APC: Los dos testigos.pdf
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
 
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACIONRESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
 
UNIDAD 3 -MAYO - IV CICLO para cuarto grado
UNIDAD 3 -MAYO - IV CICLO para cuarto gradoUNIDAD 3 -MAYO - IV CICLO para cuarto grado
UNIDAD 3 -MAYO - IV CICLO para cuarto grado
 
EFEMERIDES DEL MES DE MAYO PERIODICO MURAL.pdf
EFEMERIDES DEL MES DE MAYO PERIODICO MURAL.pdfEFEMERIDES DEL MES DE MAYO PERIODICO MURAL.pdf
EFEMERIDES DEL MES DE MAYO PERIODICO MURAL.pdf
 
El liderazgo en la empresa sostenible, introducción, definición y ejemplo.
El liderazgo en la empresa sostenible, introducción, definición y ejemplo.El liderazgo en la empresa sostenible, introducción, definición y ejemplo.
El liderazgo en la empresa sostenible, introducción, definición y ejemplo.
 
Novena de Pentecostés con textos de san Juan Eudes
Novena de Pentecostés con textos de san Juan EudesNovena de Pentecostés con textos de san Juan Eudes
Novena de Pentecostés con textos de san Juan Eudes
 
Lineamientos de la Escuela de la Confianza SJA Ccesa.pptx
Lineamientos de la Escuela de la Confianza  SJA  Ccesa.pptxLineamientos de la Escuela de la Confianza  SJA  Ccesa.pptx
Lineamientos de la Escuela de la Confianza SJA Ccesa.pptx
 

redes neuronales tipo Art3

  • 1. MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART) DILEMAS DE S. GROSSBERG Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones.Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones. Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos.Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos. Esta teoría se aplica a sistemas competitivos La teoría de la resonancia adaptativa se basa en la idea de hacer resonar la información de entrada con los representantes o prototipos de las categorías que reconoce la red. Si entra en resonancia con algunos, y es suficientemente similar, la red considera que pertenece a dicha categoría y únicamente realiza una pequeña adaptación del prototipo almacenado incorporándole algunas características del dato presentado en la entrada. Cuando no resuena con ninguno, esto es, cuando no se parece a ningún representante de alguna categoría (recordados por la red hasta ese momento), la red se encarga de crear una nueva categoría con el dato de entrada como prototipo. ARQUITECTURA DE LA RED ART FUNCIONAMIENTO 1) Se presenta un vector de entrada. 2) Cada neurona de la capa de entrada recibe el valor del componente del vector de entrada y lo envía a todas las neuronas de la capa de salida. 3) Cada neurona de la capa de salida compite con las demás de esta capa hasta que sólo una permanece activa. Las conexiones laterales son las que permiten realizar esta competición, y tienen un peso con un valor fijo - ε que debe ser menor que 1/M, donde M es el número de neuronas de la capa de salida, para que la competición funcione correctamente:
  • 2. Siendo f la función de transferencia de tipo escalón de las neuronas de salida. Después de cierto número de iteraciones, se llega a un punto de estabilidad en la que una neurona resulta vencedora, generando una salida de valor 1, mientras que en las demás neuronas la salida es 0. El valor de salida al final de la competición se pueden obtener más fácilmente mediante la siguiente expresión: 4) La neurona vencedora envía su salida a través de las conexiones hacia atrás. Cada neurona i-ésima de la capa de entrada recibe el valor: Por tanto, al no influir el resto de las neuronas de salida por estar inactivas(0), en la capa de entrada se reciben los valores de los pesos de las conexiones correspondientes. 5) Se compara la información de entrada con la categoría. Si la neurona de salida se ha activado. Esta comparación se hace valorando la siguiente relación de semejanza: Al trabajar con valores binarios, el producto aritmético equivale a la operación AND, 6) Se compara la relación de semejanza entre ambas informaciones con un parámetro de vigilancia (ρ), el cual influirá en el número de clases que establecerá la red. Si no se cumple dicho parámetro entonces la neurona vencedora se resetea, y se repite desde el paso número 2. 7) Si la semejanza es igual o mayor que el parámetro de vigilancia, entonces se asume que la neurona que se ha activado a la salida es la que representa al vector de entrada, para después proceder a ajustar los pesos de la red APRENDIZAJE El aprendizaje en el modelo ART es de tipo ON LINE, por lo que no se distingue entre etapa de entrenamiento y de funcionamiento. La red ART utiliza un aprendizaje no supervisado de tipo competitivo. En este tipo de redes se pueden dar dos tipos de aprendizaje: * Aprendizaje lento: ocurre cuando una información de entrada es asociada a una de las categorías existentes. * Aprendizaje rápido: se da cuando se establece una nueva categoría. Inicialmente, cuando la red no ha aprendido nada se le asignan los siguientes pesos: Después, cada vez que se presente un vector de entrada, se realiza el ajuste de los pesos de las conexiones V de la neurona vencedora con cada una de las neuronas de entrada,en función de la diferencia entre este vector y del representante, la variación de los pesos V se realiza según la siguiente ecuación diferencial:
  • 3. Si la neurona de salida no es la vencedora, el valor de su salida es cero, con lo que no debe producir variación en el peso correspondiente. En caso contrario, si la neurona es la vencedora, su salida es 1, con lo que la variación del peso de V sería de : Los pesos de Wji se obtienen normalizando los anteriores. Donde: γ suele tener el valor de 0.5