SlideShare una empresa de Scribd logo
1 de 4
EJEMPLO:

         Para este ejemplo utilizaremos ART1 con 4 neuronas en la capa de entrada y 2 neuronas en la capa de salida, está red por
lo que ya sabemos clasifica entradas o vectores binarios, el número de clasificaciones que puede hacer esta red está dada por el
número de neuronas de salida, en este caso tenemos 2 neuronas de salida, lo que significa que habrá y reconocerá 2 categorías y sus
variantes.

        Se utilizarán los siguientes vectores de entrada como patrones representados en forma de figuras:

                 Figura1:                         Figura2:                          Figura3:

                 1      2                         1         2                        1      2


                 3      4                         3         4                        3      4

              E1 = (1,1,0,0)                    E2 = (0,0,1,1)                    E3 = (1,1,1,0)

        Como se observa los píxeles negros son representados mediante el valor binario 1, y los blancos con el valor 0. Nuestra
red quedaría con la siguiente estructura:




        Donde :
        ρ es el parámetro de vigilancia, que tendrá el valor de 0.5.
        ε para asegurar la convergencia de la red esté suele tener un valor de 1/M, donde M es el número de neuronas de salida,
        esto es 1/M=1/2=0.5.

        Los pesos de las conexiones feedforward (wji) y feedback(vij) se inicializan con las siguientes ecuaciones :
                                                                    1
                                                       w ji =                                                                   (1)
                                                                  1+ N

                                                                vij = 1                                                         (2)
        Sustituyendo la ecuación (1) tenemos:
                                                              1   1
                                                   w ji =       =     = 0 .2
                                                            1+ N 1+ 4
        Donde N es el número de neuronas de entrada. Las matrices que representan estos pesos iniciales serían:
 w11   w21   0.2   0.2 
                                                                                                                               
                        v        v 21            v31         v 41  1 1 1 1                          w      w22   0.2   0.2 
                    V =  11                                       =                             w =  12         =
                        v
                         12      v 22            v32         v 42  1 1 1 1
                                                                                                       w     w23   0.2   0.2 
                                                                                                         13                    
                                                                                                        w
                                                                                                         14    w24   0.2
                                                                                                                            0.2 
                                                                                                                                  
         Ya inicializada la red, el vector de entrada es aplicado:
                                                                         N

                                                                        ∑w
                                                                         i =1
                                                                                 e (k )
                                                                                ji i                                                  (3)

        Utilizando la ecuación anterior, obtenemos los siguientes valores:
                                   4

                                 ∑w
                                  i =1
                                                 (1)
                                                 e
                                              1i i          = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
                                   4

                                 ∑w
                                  i =1
                                                 (1)
                                              2i ie         = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
        Como está es la primera información de entrada y los pesos wji son todos iguales, no hay ninguna neurona vencedora en la
competición, por lo cual se almacena en la primera neurona de la capa de salida, con la siguiente ecuación:
                                                                     vij* (t + 1) = vij* (t )ei( k )                                  (4)
        Sustituyendo la ecuación (4):
                                                                  v11 = v11e1(1) = (1)(1) = 1
                                                                  v 21 = v 21e21) = (1)(1) = 1
                                                                              (


                                                                  v31 = v31e31) = (1)(0) = 0
                                                                            (


                                                                  v 41 = v 41e41) = (1)(0) = 0
                                                                              (

        Así, los nuevos valores de V son:
                                                                          1 1 0 0 
                                                                       V =
                                                                          1 1 1 1 
                                                                                   
                                                                                  
        Así, para obtener los pesos de W se obtienen con la siguiente ecuación:

                                                                                                        (k )
                                                                                          vij* (t )ei
                                                                w j*i (t + 1) =             N                                         (5)
                                                                                   γ + ∑ vij* (t )ei( k )
                                                                                           i =1
        Sustituyendo la ecuación (5):

                                                      (1)
                                         v11e1                                        (1)(1)                  1
                        w11 =                                    =                                          =    = 0.4
                                         N
                                                                     0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                γ + ∑ vi1 (t )e1(1)
                                         i =1
                                                      (1)
                                         v 21e2                                       (1)(1)                  1
                        w12 =                                    =                                          =    = 0.4
                                          N
                                                                     0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                γ + ∑ vi1 (t )e1(1)
                                         i =1
                                                        (1)
                                           v31e3                                       (1)(0)                  0
                         w13 =                                    =                                          =    =0
                                             N
                                                                      0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                 γ + ∑ vi1 (t )e1(1)
                                           i =1
(1)
                                         v 41e4                                     (1)(0)                  0
                        w14 =                                  =                                          =    =0
                                         N
                                                                   0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                 γ + ∑ vi1 (t )e1(1)
                                         i =1


        Obteniéndose los nuevos valores de W:
                                                                        0 .4   0 .2 
                                                                                    
                                                                        0 .4   0 .2 
                                                                    W =
                                                                          0     0 .2 
                                                                                    
                                                                        0      0 .2 
                                                                                    
                Si a continuación se introduce el siguiente vector de entrada E2 se producirá la competición en las neuronas de
      salida, sustituyendo la ecuación (3) con los siguientes resultados:
                                   4

                                 ∑w
                                  i =1
                                             ( 2)
                                             e
                                          1i i           = (0.4)(0) + (0.4)(0) + (0)(1) + (0)(1) = 0
                                   4

                                 ∑w
                                  i =1
                                             ( 2)
                                          2i i  e        = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
         Por lo tanto resulta vencedora la segunda neurona de la capa de salida por lo que al sustituir la ecuación (4) y (5) el
resultado es el siguiente:
                                                                                            0.4 0 
                                                                                                   
                                             1 1 0 0                                      0.4 0 
                                          V =
                                             0 0 1 1
                                                                                       W =
                                                                                            0 0.4 
                                                                                                   
                                                                                            0 0.4 
                                                                                                   
         Por último, se presenta a la entrada el vector E3=(1,1,1,0) produciéndose la competición con la ecuación (3) con los
siguientes resultados
                                                     4                            4

                                                    ∑ w1i ei(3) = 0.8
                                                    i =1
                                                                                 ∑w
                                                                                 i =1
                                                                                           e( 3)
                                                                                         2i i      = 0.4

         Como se observa la neurona vencedora es la primera de la capa de salida, por lo utilizaremos la siguiente ecuación de
relación de semejanza:
                                                                                          E 3V1
                                                         Re lación de semejanza =                                             (6)
                                                                                           E3
        Sustituyendo la ecuación anterior tenemos:

                    E 3V1       e1( 3) v11 + e23) v 21 + e33) v31 + e43) v 41 (1)(1) + (1)(1) + (1)( 0 ) + ( 0 )( 0 )
                                                (         (          (
                            =                                                =                                        = 0.6
                     E3                  e1( 3) + e23) + e33) + e43)
                                                   (      (       (
                                                                                        1+1+1+ 0

         En este punto se deberá determinar si es suficiente la semejanza como para considerar que E 3=(1,1,1,0) es de la misma
clase que E1=(1,1,1,0), para lo cual habrá que tener en consideración el parámetro de vigilancia. El cual es de 0.5, entonces
0.6>0.5, por lo que se consideraría de la misma clase y se procedería a modificar los pesos de V y W de la primera neurona,
utilizando la ecuación (4) y la ecuación (5) para el ajuste de los pesos. Por lo que los nuevos valores serán:
 0 .4 0 
                                                                                       
                                          1 1 0 0                            0 .4 0 
                                       V =
                                          0 0 1 1
                                                                          W =
                                                                               0 0 .4 
                                                                                       
                                                                               0 0 .4 
                                                                                       
         En todo caso si quisiéramos que pudiera clasificar E3=(1,1,1,0) se tendría que aumentar una nueva neurona de salida. Si
esto se hiciera así, se ajustarían los pesos de esta tercera neurona de salida para que registrasen el prototipo de la nueva clase, con
los pasos anteriores. Obteniéndose los siguientes vectores:

                                                                              0.4 0 0.28 
                                    1 1 0 0                                             
                                                                            0.4 0 0.28 
                                V = 0 0 1 1                             W =
                                    1 1 1 0                                   0 0.4 0.28 
                                                                                        
                                                                              0 0.4   0 
                                                                                          

Más contenido relacionado

La actualidad más candente

Clase 2 ca 2011 03-31
Clase 2 ca 2011 03-31Clase 2 ca 2011 03-31
Clase 2 ca 2011 03-31Purocalculo
 
Trabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaTrabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaNilton jara chalco
 
Profesor aparicio sobre contornos
Profesor aparicio sobre contornosProfesor aparicio sobre contornos
Profesor aparicio sobre contornosedisflores
 
Ecuaciones diferenciales orden superior
Ecuaciones diferenciales orden superiorEcuaciones diferenciales orden superior
Ecuaciones diferenciales orden superiorJohana lopez
 
La Integral Indefinida
La  Integral IndefinidaLa  Integral Indefinida
La Integral IndefinidaERICK CONDE
 
Semana 1. introduccion a las ecuaciones diferenciales
Semana 1. introduccion a las ecuaciones diferencialesSemana 1. introduccion a las ecuaciones diferenciales
Semana 1. introduccion a las ecuaciones diferencialesnidia maldonado
 
Ecuaciones 2do orden
Ecuaciones 2do ordenEcuaciones 2do orden
Ecuaciones 2do ordenERICK CONDE
 
Ecuaciones (metodos de solucion)
Ecuaciones (metodos de solucion)Ecuaciones (metodos de solucion)
Ecuaciones (metodos de solucion)ERICK CONDE
 
Electronica Digital
Electronica DigitalElectronica Digital
Electronica Digitalpatgaliana
 
E.D de primer orden guia de estudio
E.D de primer orden guia de estudio E.D de primer orden guia de estudio
E.D de primer orden guia de estudio Salomon Rivera
 
1b ecuaciones%20 lineales%20y%20bernoulli
1b ecuaciones%20 lineales%20y%20bernoulli1b ecuaciones%20 lineales%20y%20bernoulli
1b ecuaciones%20 lineales%20y%20bernoulliJohn Giraldo
 
Ecuaciones de 1er orden
Ecuaciones de 1er ordenEcuaciones de 1er orden
Ecuaciones de 1er ordenVelmuz Buzz
 
Ecuaciones (conceptos)
Ecuaciones (conceptos)Ecuaciones (conceptos)
Ecuaciones (conceptos)ERICK CONDE
 

La actualidad más candente (18)

Clase 2 ca 2011 03-31
Clase 2 ca 2011 03-31Clase 2 ca 2011 03-31
Clase 2 ca 2011 03-31
 
Trabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaTrabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieria
 
Profesor aparicio sobre contornos
Profesor aparicio sobre contornosProfesor aparicio sobre contornos
Profesor aparicio sobre contornos
 
Ecuaciones diferenciales orden superior
Ecuaciones diferenciales orden superiorEcuaciones diferenciales orden superior
Ecuaciones diferenciales orden superior
 
La Integral Indefinida
La  Integral IndefinidaLa  Integral Indefinida
La Integral Indefinida
 
Semana 1. introduccion a las ecuaciones diferenciales
Semana 1. introduccion a las ecuaciones diferencialesSemana 1. introduccion a las ecuaciones diferenciales
Semana 1. introduccion a las ecuaciones diferenciales
 
Edo1er orden
Edo1er ordenEdo1er orden
Edo1er orden
 
Ecuaciones 2do orden
Ecuaciones 2do ordenEcuaciones 2do orden
Ecuaciones 2do orden
 
Ecuaciones (metodos de solucion)
Ecuaciones (metodos de solucion)Ecuaciones (metodos de solucion)
Ecuaciones (metodos de solucion)
 
Electronica Digital
Electronica DigitalElectronica Digital
Electronica Digital
 
E.D de primer orden guia de estudio
E.D de primer orden guia de estudio E.D de primer orden guia de estudio
E.D de primer orden guia de estudio
 
1b ecuaciones%20 lineales%20y%20bernoulli
1b ecuaciones%20 lineales%20y%20bernoulli1b ecuaciones%20 lineales%20y%20bernoulli
1b ecuaciones%20 lineales%20y%20bernoulli
 
Clase 01
Clase 01Clase 01
Clase 01
 
T6
T6T6
T6
 
Ecuaciones de 1er orden
Ecuaciones de 1er ordenEcuaciones de 1er orden
Ecuaciones de 1er orden
 
Ecudif semana-2
Ecudif semana-2Ecudif semana-2
Ecudif semana-2
 
Ecuaciones (conceptos)
Ecuaciones (conceptos)Ecuaciones (conceptos)
Ecuaciones (conceptos)
 
Edo1
Edo1Edo1
Edo1
 

Similar a MODELO DE RESONANCIA ADAPTATIVA EJEMPLO

4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_ordenmanuel Luna Urquizo
 
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12KALIUM academia
 
Algebra lienal
Algebra lienalAlgebra lienal
Algebra lienalosmir
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones linealesalgebra
 
Calculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaCalculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaalgebragr4
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1cesarmanosalvas
 
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02marcosgabo
 
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01marcosgabo
 
vectores y matrices.pdf
vectores y matrices.pdfvectores y matrices.pdf
vectores y matrices.pdfkaniaquintero2
 
2 bac vectores
2 bac vectores2 bac vectores
2 bac vectoresannyel100
 

Similar a MODELO DE RESONANCIA ADAPTATIVA EJEMPLO (20)

00053700
0005370000053700
00053700
 
áLgebra lin cap2a
áLgebra lin cap2aáLgebra lin cap2a
áLgebra lin cap2a
 
Las cónicas
Las cónicasLas cónicas
Las cónicas
 
Formulario
FormularioFormulario
Formulario
 
Redes+de+dos+puertos
Redes+de+dos+puertosRedes+de+dos+puertos
Redes+de+dos+puertos
 
4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden
 
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
 
Geometría en el espacio
Geometría en el espacioGeometría en el espacio
Geometría en el espacio
 
Algebra lienal
Algebra lienalAlgebra lienal
Algebra lienal
 
Vectores
VectoresVectores
Vectores
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
 
Calculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaCalculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociada
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1
 
Vectores
VectoresVectores
Vectores
 
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
 
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
 
vectores y matrices.pdf
vectores y matrices.pdfvectores y matrices.pdf
vectores y matrices.pdf
 
Vectores 3
Vectores 3Vectores 3
Vectores 3
 
2 bac vectores
2 bac vectores2 bac vectores
2 bac vectores
 
Algebra Pdf
Algebra PdfAlgebra Pdf
Algebra Pdf
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 

Último

Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxYeseniaRivera50
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptELENA GALLARDO PAÚLS
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFlor Idalia Espinoza Ortega
 
Movimientos Precursores de La Independencia en Venezuela
Movimientos Precursores de La Independencia en VenezuelaMovimientos Precursores de La Independencia en Venezuela
Movimientos Precursores de La Independencia en Venezuelacocuyelquemao
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPELaura Chacón
 
Procesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxProcesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxMapyMerma1
 
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Baker Publishing Company
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxjosetrinidadchavez
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialpatriciaines1993
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdfOswaldoGonzalezCruz
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxdanalikcruz2000
 
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...fcastellanos3
 
Marketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPMarketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPANEP - DETP
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIACarlos Campaña Montenegro
 

Último (20)

Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamica
 
Movimientos Precursores de La Independencia en Venezuela
Movimientos Precursores de La Independencia en VenezuelaMovimientos Precursores de La Independencia en Venezuela
Movimientos Precursores de La Independencia en Venezuela
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPE
 
Procesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxProcesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptx
 
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...Análisis de la Implementación de los Servicios Locales de Educación Pública p...
Análisis de la Implementación de los Servicios Locales de Educación Pública p...
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
 
Earth Day Everyday 2024 54th anniversary
Earth Day Everyday 2024 54th anniversaryEarth Day Everyday 2024 54th anniversary
Earth Day Everyday 2024 54th anniversary
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundial
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
 
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
 
Unidad 4 | Teorías de las Comunicación | MCDI
Unidad 4 | Teorías de las Comunicación | MCDIUnidad 4 | Teorías de las Comunicación | MCDI
Unidad 4 | Teorías de las Comunicación | MCDI
 
Marketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPMarketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETP
 
Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
 

MODELO DE RESONANCIA ADAPTATIVA EJEMPLO

  • 1. EJEMPLO: Para este ejemplo utilizaremos ART1 con 4 neuronas en la capa de entrada y 2 neuronas en la capa de salida, está red por lo que ya sabemos clasifica entradas o vectores binarios, el número de clasificaciones que puede hacer esta red está dada por el número de neuronas de salida, en este caso tenemos 2 neuronas de salida, lo que significa que habrá y reconocerá 2 categorías y sus variantes. Se utilizarán los siguientes vectores de entrada como patrones representados en forma de figuras: Figura1: Figura2: Figura3: 1 2 1 2 1 2 3 4 3 4 3 4 E1 = (1,1,0,0) E2 = (0,0,1,1) E3 = (1,1,1,0) Como se observa los píxeles negros son representados mediante el valor binario 1, y los blancos con el valor 0. Nuestra red quedaría con la siguiente estructura: Donde : ρ es el parámetro de vigilancia, que tendrá el valor de 0.5. ε para asegurar la convergencia de la red esté suele tener un valor de 1/M, donde M es el número de neuronas de salida, esto es 1/M=1/2=0.5. Los pesos de las conexiones feedforward (wji) y feedback(vij) se inicializan con las siguientes ecuaciones : 1 w ji = (1) 1+ N vij = 1 (2) Sustituyendo la ecuación (1) tenemos: 1 1 w ji = = = 0 .2 1+ N 1+ 4 Donde N es el número de neuronas de entrada. Las matrices que representan estos pesos iniciales serían:
  • 2.  w11 w21   0.2 0.2      v v 21 v31 v 41  1 1 1 1 w w22   0.2 0.2  V =  11 =  w =  12 = v  12 v 22 v32 v 42  1 1 1 1    w w23   0.2 0.2   13    w  14 w24   0.2   0.2   Ya inicializada la red, el vector de entrada es aplicado: N ∑w i =1 e (k ) ji i (3) Utilizando la ecuación anterior, obtenemos los siguientes valores: 4 ∑w i =1 (1) e 1i i = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 4 ∑w i =1 (1) 2i ie = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 Como está es la primera información de entrada y los pesos wji son todos iguales, no hay ninguna neurona vencedora en la competición, por lo cual se almacena en la primera neurona de la capa de salida, con la siguiente ecuación: vij* (t + 1) = vij* (t )ei( k ) (4) Sustituyendo la ecuación (4): v11 = v11e1(1) = (1)(1) = 1 v 21 = v 21e21) = (1)(1) = 1 ( v31 = v31e31) = (1)(0) = 0 ( v 41 = v 41e41) = (1)(0) = 0 ( Así, los nuevos valores de V son: 1 1 0 0  V = 1 1 1 1     Así, para obtener los pesos de W se obtienen con la siguiente ecuación: (k ) vij* (t )ei w j*i (t + 1) = N (5) γ + ∑ vij* (t )ei( k ) i =1 Sustituyendo la ecuación (5): (1) v11e1 (1)(1) 1 w11 = = = = 0.4 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 (1) v 21e2 (1)(1) 1 w12 = = = = 0.4 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 (1) v31e3 (1)(0) 0 w13 = = = =0 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1
  • 3. (1) v 41e4 (1)(0) 0 w14 = = = =0 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 Obteniéndose los nuevos valores de W:  0 .4 0 .2     0 .4 0 .2  W = 0 0 .2     0 0 .2    Si a continuación se introduce el siguiente vector de entrada E2 se producirá la competición en las neuronas de salida, sustituyendo la ecuación (3) con los siguientes resultados: 4 ∑w i =1 ( 2) e 1i i = (0.4)(0) + (0.4)(0) + (0)(1) + (0)(1) = 0 4 ∑w i =1 ( 2) 2i i e = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 Por lo tanto resulta vencedora la segunda neurona de la capa de salida por lo que al sustituir la ecuación (4) y (5) el resultado es el siguiente:  0.4 0    1 1 0 0  0.4 0  V = 0 0 1 1  W =   0 0.4     0 0.4    Por último, se presenta a la entrada el vector E3=(1,1,1,0) produciéndose la competición con la ecuación (3) con los siguientes resultados 4 4 ∑ w1i ei(3) = 0.8 i =1 ∑w i =1 e( 3) 2i i = 0.4 Como se observa la neurona vencedora es la primera de la capa de salida, por lo utilizaremos la siguiente ecuación de relación de semejanza: E 3V1 Re lación de semejanza = (6) E3 Sustituyendo la ecuación anterior tenemos: E 3V1 e1( 3) v11 + e23) v 21 + e33) v31 + e43) v 41 (1)(1) + (1)(1) + (1)( 0 ) + ( 0 )( 0 ) ( ( ( = = = 0.6 E3 e1( 3) + e23) + e33) + e43) ( ( ( 1+1+1+ 0 En este punto se deberá determinar si es suficiente la semejanza como para considerar que E 3=(1,1,1,0) es de la misma clase que E1=(1,1,1,0), para lo cual habrá que tener en consideración el parámetro de vigilancia. El cual es de 0.5, entonces 0.6>0.5, por lo que se consideraría de la misma clase y se procedería a modificar los pesos de V y W de la primera neurona, utilizando la ecuación (4) y la ecuación (5) para el ajuste de los pesos. Por lo que los nuevos valores serán:
  • 4.  0 .4 0    1 1 0 0  0 .4 0  V = 0 0 1 1  W =   0 0 .4     0 0 .4    En todo caso si quisiéramos que pudiera clasificar E3=(1,1,1,0) se tendría que aumentar una nueva neurona de salida. Si esto se hiciera así, se ajustarían los pesos de esta tercera neurona de salida para que registrasen el prototipo de la nueva clase, con los pasos anteriores. Obteniéndose los siguientes vectores:  0.4 0 0.28  1 1 0 0      0.4 0 0.28  V = 0 0 1 1 W = 1 1 1 0 0 0.4 0.28       0 0.4 0   