SlideShare una empresa de Scribd logo
1 de 4
EJEMPLO:

         Para este ejemplo utilizaremos ART1 con 4 neuronas en la capa de entrada y 2 neuronas en la capa de salida, está red por
lo que ya sabemos clasifica entradas o vectores binarios, el número de clasificaciones que puede hacer esta red está dada por el
número de neuronas de salida, en este caso tenemos 2 neuronas de salida, lo que significa que habrá y reconocerá 2 categorías y sus
variantes.

        Se utilizarán los siguientes vectores de entrada como patrones representados en forma de figuras:

                 Figura1:                         Figura2:                          Figura3:

                 1      2                         1         2                        1      2


                 3      4                         3         4                        3      4

              E1 = (1,1,0,0)                    E2 = (0,0,1,1)                    E3 = (1,1,1,0)

        Como se observa los píxeles negros son representados mediante el valor binario 1, y los blancos con el valor 0. Nuestra
red quedaría con la siguiente estructura:




        Donde :
        ρ es el parámetro de vigilancia, que tendrá el valor de 0.5.
        ε para asegurar la convergencia de la red esté suele tener un valor de 1/M, donde M es el número de neuronas de salida,
        esto es 1/M=1/2=0.5.

        Los pesos de las conexiones feedforward (wji) y feedback(vij) se inicializan con las siguientes ecuaciones :
                                                                    1
                                                       w ji =                                                                   (1)
                                                                  1+ N

                                                                vij = 1                                                         (2)
        Sustituyendo la ecuación (1) tenemos:
                                                              1   1
                                                   w ji =       =     = 0 .2
                                                            1+ N 1+ 4
        Donde N es el número de neuronas de entrada. Las matrices que representan estos pesos iniciales serían:
 w11   w21   0.2   0.2 
                                                                                                                               
                        v        v 21            v31         v 41  1 1 1 1                          w      w22   0.2   0.2 
                    V =  11                                       =                             w =  12         =
                        v
                         12      v 22            v32         v 42  1 1 1 1
                                                                                                       w     w23   0.2   0.2 
                                                                                                         13                    
                                                                                                        w
                                                                                                         14    w24   0.2
                                                                                                                            0.2 
                                                                                                                                  
         Ya inicializada la red, el vector de entrada es aplicado:
                                                                         N

                                                                        ∑w
                                                                         i =1
                                                                                 e (k )
                                                                                ji i                                                  (3)

        Utilizando la ecuación anterior, obtenemos los siguientes valores:
                                   4

                                 ∑w
                                  i =1
                                                 (1)
                                                 e
                                              1i i          = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
                                   4

                                 ∑w
                                  i =1
                                                 (1)
                                              2i ie         = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
        Como está es la primera información de entrada y los pesos wji son todos iguales, no hay ninguna neurona vencedora en la
competición, por lo cual se almacena en la primera neurona de la capa de salida, con la siguiente ecuación:
                                                                     vij* (t + 1) = vij* (t )ei( k )                                  (4)
        Sustituyendo la ecuación (4):
                                                                  v11 = v11e1(1) = (1)(1) = 1
                                                                  v 21 = v 21e21) = (1)(1) = 1
                                                                              (


                                                                  v31 = v31e31) = (1)(0) = 0
                                                                            (


                                                                  v 41 = v 41e41) = (1)(0) = 0
                                                                              (

        Así, los nuevos valores de V son:
                                                                          1 1 0 0 
                                                                       V =
                                                                          1 1 1 1 
                                                                                   
                                                                                  
        Así, para obtener los pesos de W se obtienen con la siguiente ecuación:

                                                                                                        (k )
                                                                                          vij* (t )ei
                                                                w j*i (t + 1) =             N                                         (5)
                                                                                   γ + ∑ vij* (t )ei( k )
                                                                                           i =1
        Sustituyendo la ecuación (5):

                                                      (1)
                                         v11e1                                        (1)(1)                  1
                        w11 =                                    =                                          =    = 0.4
                                         N
                                                                     0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                γ + ∑ vi1 (t )e1(1)
                                         i =1
                                                      (1)
                                         v 21e2                                       (1)(1)                  1
                        w12 =                                    =                                          =    = 0.4
                                          N
                                                                     0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                γ + ∑ vi1 (t )e1(1)
                                         i =1
                                                        (1)
                                           v31e3                                       (1)(0)                  0
                         w13 =                                    =                                          =    =0
                                             N
                                                                      0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                 γ + ∑ vi1 (t )e1(1)
                                           i =1
(1)
                                         v 41e4                                     (1)(0)                  0
                        w14 =                                  =                                          =    =0
                                         N
                                                                   0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                 γ + ∑ vi1 (t )e1(1)
                                         i =1


        Obteniéndose los nuevos valores de W:
                                                                        0 .4   0 .2 
                                                                                    
                                                                        0 .4   0 .2 
                                                                    W =
                                                                          0     0 .2 
                                                                                    
                                                                        0      0 .2 
                                                                                    
                Si a continuación se introduce el siguiente vector de entrada E2 se producirá la competición en las neuronas de
      salida, sustituyendo la ecuación (3) con los siguientes resultados:
                                   4

                                 ∑w
                                  i =1
                                             ( 2)
                                             e
                                          1i i           = (0.4)(0) + (0.4)(0) + (0)(1) + (0)(1) = 0
                                   4

                                 ∑w
                                  i =1
                                             ( 2)
                                          2i i  e        = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
         Por lo tanto resulta vencedora la segunda neurona de la capa de salida por lo que al sustituir la ecuación (4) y (5) el
resultado es el siguiente:
                                                                                            0.4 0 
                                                                                                   
                                             1 1 0 0                                      0.4 0 
                                          V =
                                             0 0 1 1
                                                                                       W =
                                                                                            0 0.4 
                                                                                                   
                                                                                            0 0.4 
                                                                                                   
         Por último, se presenta a la entrada el vector E3=(1,1,1,0) produciéndose la competición con la ecuación (3) con los
siguientes resultados
                                                     4                            4

                                                    ∑ w1i ei(3) = 0.8
                                                    i =1
                                                                                 ∑w
                                                                                 i =1
                                                                                           e( 3)
                                                                                         2i i      = 0.4

         Como se observa la neurona vencedora es la primera de la capa de salida, por lo utilizaremos la siguiente ecuación de
relación de semejanza:
                                                                                          E 3V1
                                                         Re lación de semejanza =                                             (6)
                                                                                           E3
        Sustituyendo la ecuación anterior tenemos:

                    E 3V1       e1( 3) v11 + e23) v 21 + e33) v31 + e43) v 41 (1)(1) + (1)(1) + (1)( 0 ) + ( 0 )( 0 )
                                                (         (          (
                            =                                                =                                        = 0.6
                     E3                  e1( 3) + e23) + e33) + e43)
                                                   (      (       (
                                                                                        1+1+1+ 0

         En este punto se deberá determinar si es suficiente la semejanza como para considerar que E 3=(1,1,1,0) es de la misma
clase que E1=(1,1,1,0), para lo cual habrá que tener en consideración el parámetro de vigilancia. El cual es de 0.5, entonces
0.6>0.5, por lo que se consideraría de la misma clase y se procedería a modificar los pesos de V y W de la primera neurona,
utilizando la ecuación (4) y la ecuación (5) para el ajuste de los pesos. Por lo que los nuevos valores serán:
 0 .4 0 
                                                                                       
                                          1 1 0 0                            0 .4 0 
                                       V =
                                          0 0 1 1
                                                                          W =
                                                                               0 0 .4 
                                                                                       
                                                                               0 0 .4 
                                                                                       
         En todo caso si quisiéramos que pudiera clasificar E3=(1,1,1,0) se tendría que aumentar una nueva neurona de salida. Si
esto se hiciera así, se ajustarían los pesos de esta tercera neurona de salida para que registrasen el prototipo de la nueva clase, con
los pasos anteriores. Obteniéndose los siguientes vectores:

                                                                              0.4 0 0.28 
                                    1 1 0 0                                             
                                                                            0.4 0 0.28 
                                V = 0 0 1 1                             W =
                                    1 1 1 0                                   0 0.4 0.28 
                                                                                        
                                                                              0 0.4   0 
                                                                                          

Más contenido relacionado

La actualidad más candente

Clase 2 ca 2011 03-31
Clase 2 ca 2011 03-31Clase 2 ca 2011 03-31
Clase 2 ca 2011 03-31Purocalculo
 
Trabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaTrabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaNilton jara chalco
 
Profesor aparicio sobre contornos
Profesor aparicio sobre contornosProfesor aparicio sobre contornos
Profesor aparicio sobre contornosedisflores
 
Ecuaciones diferenciales orden superior
Ecuaciones diferenciales orden superiorEcuaciones diferenciales orden superior
Ecuaciones diferenciales orden superiorJohana lopez
 
La Integral Indefinida
La  Integral IndefinidaLa  Integral Indefinida
La Integral IndefinidaERICK CONDE
 
Semana 1. introduccion a las ecuaciones diferenciales
Semana 1. introduccion a las ecuaciones diferencialesSemana 1. introduccion a las ecuaciones diferenciales
Semana 1. introduccion a las ecuaciones diferencialesnidia maldonado
 
Ecuaciones 2do orden
Ecuaciones 2do ordenEcuaciones 2do orden
Ecuaciones 2do ordenERICK CONDE
 
Ecuaciones (metodos de solucion)
Ecuaciones (metodos de solucion)Ecuaciones (metodos de solucion)
Ecuaciones (metodos de solucion)ERICK CONDE
 
Electronica Digital
Electronica DigitalElectronica Digital
Electronica Digitalpatgaliana
 
E.D de primer orden guia de estudio
E.D de primer orden guia de estudio E.D de primer orden guia de estudio
E.D de primer orden guia de estudio Salomon Rivera
 
1b ecuaciones%20 lineales%20y%20bernoulli
1b ecuaciones%20 lineales%20y%20bernoulli1b ecuaciones%20 lineales%20y%20bernoulli
1b ecuaciones%20 lineales%20y%20bernoulliJohn Giraldo
 
Ecuaciones de 1er orden
Ecuaciones de 1er ordenEcuaciones de 1er orden
Ecuaciones de 1er ordenVelmuz Buzz
 
Ecuaciones (conceptos)
Ecuaciones (conceptos)Ecuaciones (conceptos)
Ecuaciones (conceptos)ERICK CONDE
 

La actualidad más candente (18)

Clase 2 ca 2011 03-31
Clase 2 ca 2011 03-31Clase 2 ca 2011 03-31
Clase 2 ca 2011 03-31
 
Trabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaTrabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieria
 
Profesor aparicio sobre contornos
Profesor aparicio sobre contornosProfesor aparicio sobre contornos
Profesor aparicio sobre contornos
 
Ecuaciones diferenciales orden superior
Ecuaciones diferenciales orden superiorEcuaciones diferenciales orden superior
Ecuaciones diferenciales orden superior
 
La Integral Indefinida
La  Integral IndefinidaLa  Integral Indefinida
La Integral Indefinida
 
Semana 1. introduccion a las ecuaciones diferenciales
Semana 1. introduccion a las ecuaciones diferencialesSemana 1. introduccion a las ecuaciones diferenciales
Semana 1. introduccion a las ecuaciones diferenciales
 
Edo1er orden
Edo1er ordenEdo1er orden
Edo1er orden
 
Ecuaciones 2do orden
Ecuaciones 2do ordenEcuaciones 2do orden
Ecuaciones 2do orden
 
Ecuaciones (metodos de solucion)
Ecuaciones (metodos de solucion)Ecuaciones (metodos de solucion)
Ecuaciones (metodos de solucion)
 
Electronica Digital
Electronica DigitalElectronica Digital
Electronica Digital
 
E.D de primer orden guia de estudio
E.D de primer orden guia de estudio E.D de primer orden guia de estudio
E.D de primer orden guia de estudio
 
1b ecuaciones%20 lineales%20y%20bernoulli
1b ecuaciones%20 lineales%20y%20bernoulli1b ecuaciones%20 lineales%20y%20bernoulli
1b ecuaciones%20 lineales%20y%20bernoulli
 
Clase 01
Clase 01Clase 01
Clase 01
 
T6
T6T6
T6
 
Ecuaciones de 1er orden
Ecuaciones de 1er ordenEcuaciones de 1er orden
Ecuaciones de 1er orden
 
Ecudif semana-2
Ecudif semana-2Ecudif semana-2
Ecudif semana-2
 
Ecuaciones (conceptos)
Ecuaciones (conceptos)Ecuaciones (conceptos)
Ecuaciones (conceptos)
 
Edo1
Edo1Edo1
Edo1
 

Similar a MODELO DE RESONANCIA ADAPTATIVA EJEMPLO

4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_ordenmanuel Luna Urquizo
 
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12KALIUM academia
 
Algebra lienal
Algebra lienalAlgebra lienal
Algebra lienalosmir
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones linealesalgebra
 
Calculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaCalculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaalgebragr4
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1cesarmanosalvas
 
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02marcosgabo
 
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01marcosgabo
 
vectores y matrices.pdf
vectores y matrices.pdfvectores y matrices.pdf
vectores y matrices.pdfkaniaquintero2
 
2 bac vectores
2 bac vectores2 bac vectores
2 bac vectoresannyel100
 

Similar a MODELO DE RESONANCIA ADAPTATIVA EJEMPLO (20)

00053700
0005370000053700
00053700
 
áLgebra lin cap2a
áLgebra lin cap2aáLgebra lin cap2a
áLgebra lin cap2a
 
Las cónicas
Las cónicasLas cónicas
Las cónicas
 
Formulario
FormularioFormulario
Formulario
 
Redes+de+dos+puertos
Redes+de+dos+puertosRedes+de+dos+puertos
Redes+de+dos+puertos
 
4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden
 
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
 
Geometría en el espacio
Geometría en el espacioGeometría en el espacio
Geometría en el espacio
 
Algebra lienal
Algebra lienalAlgebra lienal
Algebra lienal
 
Vectores
VectoresVectores
Vectores
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
 
Calculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaCalculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociada
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1
 
Vectores
VectoresVectores
Vectores
 
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
Diapositivasredesiunidad3primerapartefondoblanco 100426230541-phpapp02
 
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
Diapositivasredesiunidad3primerapartefondoblanco 100426230447-phpapp01
 
vectores y matrices.pdf
vectores y matrices.pdfvectores y matrices.pdf
vectores y matrices.pdf
 
Vectores 3
Vectores 3Vectores 3
Vectores 3
 
2 bac vectores
2 bac vectores2 bac vectores
2 bac vectores
 
Algebra Pdf
Algebra PdfAlgebra Pdf
Algebra Pdf
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 

Último

Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticosisabeltrejoros
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptxFelicitasAsuncionDia
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdfDemetrio Ccesa Rayme
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 
Manual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfManual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfMaryRotonda1
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinavergarakarina022
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...JAVIER SOLIS NOYOLA
 

Último (20)

Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticos
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptx
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdf
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
Manual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdfManual - ABAS II completo 263 hojas .pdf
Manual - ABAS II completo 263 hojas .pdf
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karina
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
 

MODELO DE RESONANCIA ADAPTATIVA EJEMPLO

  • 1. EJEMPLO: Para este ejemplo utilizaremos ART1 con 4 neuronas en la capa de entrada y 2 neuronas en la capa de salida, está red por lo que ya sabemos clasifica entradas o vectores binarios, el número de clasificaciones que puede hacer esta red está dada por el número de neuronas de salida, en este caso tenemos 2 neuronas de salida, lo que significa que habrá y reconocerá 2 categorías y sus variantes. Se utilizarán los siguientes vectores de entrada como patrones representados en forma de figuras: Figura1: Figura2: Figura3: 1 2 1 2 1 2 3 4 3 4 3 4 E1 = (1,1,0,0) E2 = (0,0,1,1) E3 = (1,1,1,0) Como se observa los píxeles negros son representados mediante el valor binario 1, y los blancos con el valor 0. Nuestra red quedaría con la siguiente estructura: Donde : ρ es el parámetro de vigilancia, que tendrá el valor de 0.5. ε para asegurar la convergencia de la red esté suele tener un valor de 1/M, donde M es el número de neuronas de salida, esto es 1/M=1/2=0.5. Los pesos de las conexiones feedforward (wji) y feedback(vij) se inicializan con las siguientes ecuaciones : 1 w ji = (1) 1+ N vij = 1 (2) Sustituyendo la ecuación (1) tenemos: 1 1 w ji = = = 0 .2 1+ N 1+ 4 Donde N es el número de neuronas de entrada. Las matrices que representan estos pesos iniciales serían:
  • 2.  w11 w21   0.2 0.2      v v 21 v31 v 41  1 1 1 1 w w22   0.2 0.2  V =  11 =  w =  12 = v  12 v 22 v32 v 42  1 1 1 1    w w23   0.2 0.2   13    w  14 w24   0.2   0.2   Ya inicializada la red, el vector de entrada es aplicado: N ∑w i =1 e (k ) ji i (3) Utilizando la ecuación anterior, obtenemos los siguientes valores: 4 ∑w i =1 (1) e 1i i = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 4 ∑w i =1 (1) 2i ie = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 Como está es la primera información de entrada y los pesos wji son todos iguales, no hay ninguna neurona vencedora en la competición, por lo cual se almacena en la primera neurona de la capa de salida, con la siguiente ecuación: vij* (t + 1) = vij* (t )ei( k ) (4) Sustituyendo la ecuación (4): v11 = v11e1(1) = (1)(1) = 1 v 21 = v 21e21) = (1)(1) = 1 ( v31 = v31e31) = (1)(0) = 0 ( v 41 = v 41e41) = (1)(0) = 0 ( Así, los nuevos valores de V son: 1 1 0 0  V = 1 1 1 1     Así, para obtener los pesos de W se obtienen con la siguiente ecuación: (k ) vij* (t )ei w j*i (t + 1) = N (5) γ + ∑ vij* (t )ei( k ) i =1 Sustituyendo la ecuación (5): (1) v11e1 (1)(1) 1 w11 = = = = 0.4 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 (1) v 21e2 (1)(1) 1 w12 = = = = 0.4 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 (1) v31e3 (1)(0) 0 w13 = = = =0 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1
  • 3. (1) v 41e4 (1)(0) 0 w14 = = = =0 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 Obteniéndose los nuevos valores de W:  0 .4 0 .2     0 .4 0 .2  W = 0 0 .2     0 0 .2    Si a continuación se introduce el siguiente vector de entrada E2 se producirá la competición en las neuronas de salida, sustituyendo la ecuación (3) con los siguientes resultados: 4 ∑w i =1 ( 2) e 1i i = (0.4)(0) + (0.4)(0) + (0)(1) + (0)(1) = 0 4 ∑w i =1 ( 2) 2i i e = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 Por lo tanto resulta vencedora la segunda neurona de la capa de salida por lo que al sustituir la ecuación (4) y (5) el resultado es el siguiente:  0.4 0    1 1 0 0  0.4 0  V = 0 0 1 1  W =   0 0.4     0 0.4    Por último, se presenta a la entrada el vector E3=(1,1,1,0) produciéndose la competición con la ecuación (3) con los siguientes resultados 4 4 ∑ w1i ei(3) = 0.8 i =1 ∑w i =1 e( 3) 2i i = 0.4 Como se observa la neurona vencedora es la primera de la capa de salida, por lo utilizaremos la siguiente ecuación de relación de semejanza: E 3V1 Re lación de semejanza = (6) E3 Sustituyendo la ecuación anterior tenemos: E 3V1 e1( 3) v11 + e23) v 21 + e33) v31 + e43) v 41 (1)(1) + (1)(1) + (1)( 0 ) + ( 0 )( 0 ) ( ( ( = = = 0.6 E3 e1( 3) + e23) + e33) + e43) ( ( ( 1+1+1+ 0 En este punto se deberá determinar si es suficiente la semejanza como para considerar que E 3=(1,1,1,0) es de la misma clase que E1=(1,1,1,0), para lo cual habrá que tener en consideración el parámetro de vigilancia. El cual es de 0.5, entonces 0.6>0.5, por lo que se consideraría de la misma clase y se procedería a modificar los pesos de V y W de la primera neurona, utilizando la ecuación (4) y la ecuación (5) para el ajuste de los pesos. Por lo que los nuevos valores serán:
  • 4.  0 .4 0    1 1 0 0  0 .4 0  V = 0 0 1 1  W =   0 0 .4     0 0 .4    En todo caso si quisiéramos que pudiera clasificar E3=(1,1,1,0) se tendría que aumentar una nueva neurona de salida. Si esto se hiciera así, se ajustarían los pesos de esta tercera neurona de salida para que registrasen el prototipo de la nueva clase, con los pasos anteriores. Obteniéndose los siguientes vectores:  0.4 0 0.28  1 1 0 0      0.4 0 0.28  V = 0 0 1 1 W = 1 1 1 0 0 0.4 0.28       0 0.4 0   