SlideShare una empresa de Scribd logo
1 de 4
EJEMPLO : ART1

         Para este ejemplo utilizaremos ART1 con 4 neuronas en la capa de entrada y 2 neuronas en la capa de salida, está red por
lo ya sabemos clasifica entradas o vectores binarios, el número de clasificaciones que puede hacer esta red está dada por el número
de neuronas de salida, en este caso tenemos 2 neuronas de salida, lo que significa que habrá y reconocerá 2 categorías y sus
variantes.

        Se utilizarán los siguientes vectores de entrada como patrones representados en forma de figuras:

                 Figura1:                          Figura2:                         Figura3:

                 1      2                          1        2                        1      2


                 3      4                          3        4                        3      4

              E1 = (1,1,0,0)                     E2 = (0,0,1,1)                   E3 = (1,1,1,0)

        Como se observa los píxeles negros son representados mediante el valor binario 1, y los blancos con el valor 0. Nuestra
red quedaría con la siguiente estructura:




         Donde :
         ρ es el parámetro de vigilancia, que tendrá el valor de 0.5.
         ε para asegurar la convergencia de la red esté suele tener un valor de 1/M, donde M es el número de neuronas de salida,
esto es 1/M=1/2=0.5.

        Los pesos de las conexiones feedforward (wji) y feedback(vij) se inicializan con las siguientes ecuaciones :
                                                                    1
                                                       w ji =                                                                   (1)
                                                                  1+ N

                                                                vij = 1                                                         (2)
        Sustituyendo la ecuación (1) tenemos :
                                                              1   1
                                                   w ji =       =     = 0 .2
                                                            1+ N 1+ 4
        Donde N es el número de neuronas de entrada. Las matrices que representan estos pesos iniciales serían:
 w11   w21   0.2   0.2 
                                                                                                                               
                        v        v 21            v31         v 41  1 1 1 1                          w      w22   0.2   0.2 
                    V =  11                                       =                             w =  12         =
                        v
                         12      v 22            v32         v 42  1 1 1 1
                                                                                                       w     w23   0.2   0.2 
                                                                                                         13                    
                                                                                                        w
                                                                                                         14    w24   0.2
                                                                                                                            0.2 
                                                                                                                                  
         Ya inicializada la red, el vector de entrada es aplicado::
                                                                         N

                                                                        ∑w
                                                                         i =1
                                                                                 e (k )
                                                                                ji i                                                  (3)

        Utilizando la ecuación anterior, obtenemos los siguientes valores:
                                   4

                                 ∑w
                                  i =1
                                                 (1)
                                                 e
                                              1i i          = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
                                   4

                                 ∑w
                                  i =1
                                                 (1)
                                              2i ie         = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
        Como está es la primera información de entrada y los pesos wji son todos iguales, no hay ninguna neurona vencedora en la
competición, por lo cual se almacena en la primera neurona de la capa de salida, con la siguiente ecuación:
                                                                     vij* (t + 1) = vij* (t )ei( k )                                  (4)
        Sustituyendo la ecuación (4):
                                                                  v11 = v11e1(1) = (1)(1) = 1
                                                                  v 21 = v 21e21) = (1)(1) = 1
                                                                              (


                                                                  v31 = v31e31) = (1)(0) = 0
                                                                            (


                                                                  v 41 = v 41e41) = (1)(0) = 0
                                                                              (

        Así, los nuevos valores de V son:
                                                                          1 1 0 0 
                                                                       V =
                                                                          1 1 1 1 
                                                                                   
                                                                                  
        Así, para obtener los pesos de W se obtienen con la siguiente ecuación:

                                                                                                        (k )
                                                                                          vij* (t )ei
                                                                w j*i (t + 1) =             N                                         (5)
                                                                                   γ + ∑ vij* (t )ei( k )
                                                                                           i =1
        Sustituyendo la ecuación (5):

                                                      (1)
                                         v11e1                                        (1)(1)                  1
                        w11 =                                    =                                          =    = 0.4
                                         N
                                                                     0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                γ + ∑ vi1 (t )e1(1)
                                         i =1
                                                      (1)
                                         v 21e2                                       (1)(1)                  1
                        w12 =                                    =                                          =    = 0.4
                                          N
                                                                     0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                γ + ∑ vi1 (t )e1(1)
                                         i =1
                                                        (1)
                                           v31e3                                       (1)(0)                  0
                         w13 =                                    =                                          =    =0
                                             N
                                                                      0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                 γ + ∑ vi1 (t )e1(1)
                                           i =1
(1)
                                         v 41e4                                     (1)(0)                  0
                        w14 =                                  =                                          =    =0
                                         N
                                                                   0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                 γ + ∑ vi1 (t )e1(1)
                                         i =1


        Obteniéndose los nuevos valores de W:
                                                                        0 .4   0 .2 
                                                                                    
                                                                        0 .4   0 .2 
                                                                    W =
                                                                          0     0 .2 
                                                                                    
                                                                        0      0 .2 
                                                                                    
         Si a continuación se introduce el siguiente vector de entrada E 2 se producirá la competición en las neuronas de salida
,sustituyendo la ecuación (3) con los siguientes resultados:
                                   4

                                 ∑w
                                  i =1
                                             ( 2)
                                             e
                                          1i i           = (0.4)(0) + (0.4)(0) + (0)(1) + (0)(1) = 0
                                   4

                                 ∑w
                                  i =1
                                             ( 2)
                                          2i i  e        = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
         Por lo tanto resulta vencedora la segunda neurona de la capa de salida por lo que al sustituir la ecuación (3) y (4) el
resultado es el siguiente:
                                                                                            0.4 0 
                                                                                                   
                                             1 1 0 0                                      0.4 0 
                                          V =
                                             0 0 1 1
                                                                                       W =
                                                                                            0 0.4 
                                                                                                   
                                                                                            0 0.4 
                                                                                                   
         Por último, se presenta a la entrada el vector E3=(1,1,1,0) produciéndose la competición con la ecuación (3) con los
siguientes resultados
                                                     4                            4

                                                    ∑ w1i ei(3) = 0.8
                                                    i =1
                                                                                 ∑w
                                                                                 i =1
                                                                                           e( 3)
                                                                                         2i i      = 0.4

         Como se observa la neurona vencedora es la primera de la capa de salida, por lo utilizaremos la siguiente ecuación de
relación de semejanza:
                                                                                          E 3V1
                                                         Re lación de semejanza =                                             (6)
                                                                                           E3
        Sustituyendo la ecuación anterior tenemos:

                    E 3V1       e1( 3) v11 + e23) v 21 + e33) v31 + e43) v 41 (1)(1) + (1)(1) + (1)( 0 ) + ( 0 )( 0 )
                                                (         (          (
                            =                                                =                                        = 0.6
                     E3                  e1( 3) + e23) + e33) + e43)
                                                   (      (       (
                                                                                        1+1+1+ 0

         En este punto se deberá determinar si es suficiente la semejanza como para considerar que E 3=(1,1,1,0) es de la misma
clase que E1=(1,1,1,0), para lo cual habrá que tener en consideración el parámetro de vigilancia. El cual es de 0.5, entonces
0.6>0.5, por lo que se consideraría de la misma clase y se procedería a modificar los pesos de V y W de la primera neurona,
utilizando la ecuación (4) y la ecuación (5) para el ajuste de los pesos. Por lo que los nuevos valores serán:
 0 .4 0 
                                                                                       
                                          1 1 0 0                            0 .4 0 
                                       V =
                                          0 0 1 1
                                                                          W =
                                                                               0 0 .4 
                                                                                       
                                                                               0 0 .4 
                                                                                       
         En todo caso si quisiéramos que pudiera clasificar E3=(1,1,1,0) se tendría que aumentar una nueva neurona de salida. Si
esto se hiciera así, se ajustarían los pesos de esta tercera neurona de salida para que registrasen el prototipo de la nueva clase, con
los pasos anteriores. Obteniéndose los siguientes vectores:

                                                                              0.4 0 0.28 
                                    1 1 0 0                                             
                                                                            0.4 0 0.28 
                                V = 0 0 1 1                             W =
                                    1 1 1 0                                   0 0.4 0.28 
                                                                                        
                                                                              0 0.4   0 
                                                                                          

Más contenido relacionado

Similar a ejemplo red neuronal Art1

Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
algebra
 
Calculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaCalculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociada
algebragr4
 
2 bac vectores
2 bac vectores2 bac vectores
2 bac vectores
annyel100
 

Similar a ejemplo red neuronal Art1 (20)

MODELO DE RESONANCIA ADAPTATIVA EJEMPLO
MODELO DE RESONANCIA ADAPTATIVA EJEMPLOMODELO DE RESONANCIA ADAPTATIVA EJEMPLO
MODELO DE RESONANCIA ADAPTATIVA EJEMPLO
 
00053700
0005370000053700
00053700
 
áLgebra lin cap2a
áLgebra lin cap2aáLgebra lin cap2a
áLgebra lin cap2a
 
Las cónicas
Las cónicasLas cónicas
Las cónicas
 
Formulario
FormularioFormulario
Formulario
 
Geometría en el espacio
Geometría en el espacioGeometría en el espacio
Geometría en el espacio
 
Redes+de+dos+puertos
Redes+de+dos+puertosRedes+de+dos+puertos
Redes+de+dos+puertos
 
Ejerciciosed
EjerciciosedEjerciciosed
Ejerciciosed
 
Algebra lienal
Algebra lienalAlgebra lienal
Algebra lienal
 
Vectores
VectoresVectores
Vectores
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
 
4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden
 
Calculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaCalculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociada
 
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
 
Vectores
VectoresVectores
Vectores
 
Archivo con demostraciones de espacios vectoriales
Archivo con demostraciones de espacios vectorialesArchivo con demostraciones de espacios vectoriales
Archivo con demostraciones de espacios vectoriales
 
Al ap 02
Al ap 02Al ap 02
Al ap 02
 
vectores y matrices.pdf
vectores y matrices.pdfvectores y matrices.pdf
vectores y matrices.pdf
 
Vectores 3
Vectores 3Vectores 3
Vectores 3
 
2 bac vectores
2 bac vectores2 bac vectores
2 bac vectores
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
ESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
ESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
ESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
ESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
ESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
ESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
ESCOM
 
Art2
Art2Art2
Art2
ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
ESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
ESCOM
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
ESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 

Último

5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
MiNeyi1
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
RigoTito
 
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxConcepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Fernando Solis
 
Proyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdfProyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdf
patriciaines1993
 

Último (20)

PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024
 
2024 KIT DE HABILIDADES SOCIOEMOCIONALES.pdf
2024 KIT DE HABILIDADES SOCIOEMOCIONALES.pdf2024 KIT DE HABILIDADES SOCIOEMOCIONALES.pdf
2024 KIT DE HABILIDADES SOCIOEMOCIONALES.pdf
 
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
 
Infografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdfInfografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdf
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptx
 
Abril 2024 - Maestra Jardinera Ediba.pdf
Abril 2024 -  Maestra Jardinera Ediba.pdfAbril 2024 -  Maestra Jardinera Ediba.pdf
Abril 2024 - Maestra Jardinera Ediba.pdf
 
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJOACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
 
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxConcepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptx
 
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
Proyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdfProyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdf
 
LA LITERATURA DEL BARROCO 2023-2024pptx.pptx
LA LITERATURA DEL BARROCO 2023-2024pptx.pptxLA LITERATURA DEL BARROCO 2023-2024pptx.pptx
LA LITERATURA DEL BARROCO 2023-2024pptx.pptx
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
 

ejemplo red neuronal Art1

  • 1. EJEMPLO : ART1 Para este ejemplo utilizaremos ART1 con 4 neuronas en la capa de entrada y 2 neuronas en la capa de salida, está red por lo ya sabemos clasifica entradas o vectores binarios, el número de clasificaciones que puede hacer esta red está dada por el número de neuronas de salida, en este caso tenemos 2 neuronas de salida, lo que significa que habrá y reconocerá 2 categorías y sus variantes. Se utilizarán los siguientes vectores de entrada como patrones representados en forma de figuras: Figura1: Figura2: Figura3: 1 2 1 2 1 2 3 4 3 4 3 4 E1 = (1,1,0,0) E2 = (0,0,1,1) E3 = (1,1,1,0) Como se observa los píxeles negros son representados mediante el valor binario 1, y los blancos con el valor 0. Nuestra red quedaría con la siguiente estructura: Donde : ρ es el parámetro de vigilancia, que tendrá el valor de 0.5. ε para asegurar la convergencia de la red esté suele tener un valor de 1/M, donde M es el número de neuronas de salida, esto es 1/M=1/2=0.5. Los pesos de las conexiones feedforward (wji) y feedback(vij) se inicializan con las siguientes ecuaciones : 1 w ji = (1) 1+ N vij = 1 (2) Sustituyendo la ecuación (1) tenemos : 1 1 w ji = = = 0 .2 1+ N 1+ 4 Donde N es el número de neuronas de entrada. Las matrices que representan estos pesos iniciales serían:
  • 2.  w11 w21   0.2 0.2      v v 21 v31 v 41  1 1 1 1 w w22   0.2 0.2  V =  11 =  w =  12 = v  12 v 22 v32 v 42  1 1 1 1    w w23   0.2 0.2   13    w  14 w24   0.2   0.2   Ya inicializada la red, el vector de entrada es aplicado:: N ∑w i =1 e (k ) ji i (3) Utilizando la ecuación anterior, obtenemos los siguientes valores: 4 ∑w i =1 (1) e 1i i = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 4 ∑w i =1 (1) 2i ie = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 Como está es la primera información de entrada y los pesos wji son todos iguales, no hay ninguna neurona vencedora en la competición, por lo cual se almacena en la primera neurona de la capa de salida, con la siguiente ecuación: vij* (t + 1) = vij* (t )ei( k ) (4) Sustituyendo la ecuación (4): v11 = v11e1(1) = (1)(1) = 1 v 21 = v 21e21) = (1)(1) = 1 ( v31 = v31e31) = (1)(0) = 0 ( v 41 = v 41e41) = (1)(0) = 0 ( Así, los nuevos valores de V son: 1 1 0 0  V = 1 1 1 1     Así, para obtener los pesos de W se obtienen con la siguiente ecuación: (k ) vij* (t )ei w j*i (t + 1) = N (5) γ + ∑ vij* (t )ei( k ) i =1 Sustituyendo la ecuación (5): (1) v11e1 (1)(1) 1 w11 = = = = 0.4 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 (1) v 21e2 (1)(1) 1 w12 = = = = 0.4 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 (1) v31e3 (1)(0) 0 w13 = = = =0 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1
  • 3. (1) v 41e4 (1)(0) 0 w14 = = = =0 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 Obteniéndose los nuevos valores de W:  0 .4 0 .2     0 .4 0 .2  W = 0 0 .2     0 0 .2    Si a continuación se introduce el siguiente vector de entrada E 2 se producirá la competición en las neuronas de salida ,sustituyendo la ecuación (3) con los siguientes resultados: 4 ∑w i =1 ( 2) e 1i i = (0.4)(0) + (0.4)(0) + (0)(1) + (0)(1) = 0 4 ∑w i =1 ( 2) 2i i e = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 Por lo tanto resulta vencedora la segunda neurona de la capa de salida por lo que al sustituir la ecuación (3) y (4) el resultado es el siguiente:  0.4 0    1 1 0 0  0.4 0  V = 0 0 1 1  W =   0 0.4     0 0.4    Por último, se presenta a la entrada el vector E3=(1,1,1,0) produciéndose la competición con la ecuación (3) con los siguientes resultados 4 4 ∑ w1i ei(3) = 0.8 i =1 ∑w i =1 e( 3) 2i i = 0.4 Como se observa la neurona vencedora es la primera de la capa de salida, por lo utilizaremos la siguiente ecuación de relación de semejanza: E 3V1 Re lación de semejanza = (6) E3 Sustituyendo la ecuación anterior tenemos: E 3V1 e1( 3) v11 + e23) v 21 + e33) v31 + e43) v 41 (1)(1) + (1)(1) + (1)( 0 ) + ( 0 )( 0 ) ( ( ( = = = 0.6 E3 e1( 3) + e23) + e33) + e43) ( ( ( 1+1+1+ 0 En este punto se deberá determinar si es suficiente la semejanza como para considerar que E 3=(1,1,1,0) es de la misma clase que E1=(1,1,1,0), para lo cual habrá que tener en consideración el parámetro de vigilancia. El cual es de 0.5, entonces 0.6>0.5, por lo que se consideraría de la misma clase y se procedería a modificar los pesos de V y W de la primera neurona, utilizando la ecuación (4) y la ecuación (5) para el ajuste de los pesos. Por lo que los nuevos valores serán:
  • 4.  0 .4 0    1 1 0 0  0 .4 0  V = 0 0 1 1  W =   0 0 .4     0 0 .4    En todo caso si quisiéramos que pudiera clasificar E3=(1,1,1,0) se tendría que aumentar una nueva neurona de salida. Si esto se hiciera así, se ajustarían los pesos de esta tercera neurona de salida para que registrasen el prototipo de la nueva clase, con los pasos anteriores. Obteniéndose los siguientes vectores:  0.4 0 0.28  1 1 0 0      0.4 0 0.28  V = 0 0 1 1 W = 1 1 1 0 0 0.4 0.28       0 0.4 0   