SlideShare una empresa de Scribd logo
EJEMPLO : ART1

         Para este ejemplo utilizaremos ART1 con 4 neuronas en la capa de entrada y 2 neuronas en la capa de salida, está red por
lo ya sabemos clasifica entradas o vectores binarios, el número de clasificaciones que puede hacer esta red está dada por el número
de neuronas de salida, en este caso tenemos 2 neuronas de salida, lo que significa que habrá y reconocerá 2 categorías y sus
variantes.

        Se utilizarán los siguientes vectores de entrada como patrones representados en forma de figuras:

                 Figura1:                          Figura2:                         Figura3:

                 1      2                          1        2                        1      2


                 3      4                          3        4                        3      4

              E1 = (1,1,0,0)                     E2 = (0,0,1,1)                   E3 = (1,1,1,0)

        Como se observa los píxeles negros son representados mediante el valor binario 1, y los blancos con el valor 0. Nuestra
red quedaría con la siguiente estructura:




         Donde :
         ρ es el parámetro de vigilancia, que tendrá el valor de 0.5.
         ε para asegurar la convergencia de la red esté suele tener un valor de 1/M, donde M es el número de neuronas de salida,
esto es 1/M=1/2=0.5.

        Los pesos de las conexiones feedforward (wji) y feedback(vij) se inicializan con las siguientes ecuaciones :
                                                                    1
                                                       w ji =                                                                   (1)
                                                                  1+ N

                                                                vij = 1                                                         (2)
        Sustituyendo la ecuación (1) tenemos :
                                                              1   1
                                                   w ji =       =     = 0 .2
                                                            1+ N 1+ 4
        Donde N es el número de neuronas de entrada. Las matrices que representan estos pesos iniciales serían:
 w11   w21   0.2   0.2 
                                                                                                                               
                        v        v 21            v31         v 41  1 1 1 1                          w      w22   0.2   0.2 
                    V =  11                                       =                             w =  12         =
                        v
                         12      v 22            v32         v 42  1 1 1 1
                                                                                                       w     w23   0.2   0.2 
                                                                                                         13                    
                                                                                                        w
                                                                                                         14    w24   0.2
                                                                                                                            0.2 
                                                                                                                                  
         Ya inicializada la red, el vector de entrada es aplicado::
                                                                         N

                                                                        ∑w
                                                                         i =1
                                                                                 e (k )
                                                                                ji i                                                  (3)

        Utilizando la ecuación anterior, obtenemos los siguientes valores:
                                   4

                                 ∑w
                                  i =1
                                                 (1)
                                                 e
                                              1i i          = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
                                   4

                                 ∑w
                                  i =1
                                                 (1)
                                              2i ie         = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
        Como está es la primera información de entrada y los pesos wji son todos iguales, no hay ninguna neurona vencedora en la
competición, por lo cual se almacena en la primera neurona de la capa de salida, con la siguiente ecuación:
                                                                     vij* (t + 1) = vij* (t )ei( k )                                  (4)
        Sustituyendo la ecuación (4):
                                                                  v11 = v11e1(1) = (1)(1) = 1
                                                                  v 21 = v 21e21) = (1)(1) = 1
                                                                              (


                                                                  v31 = v31e31) = (1)(0) = 0
                                                                            (


                                                                  v 41 = v 41e41) = (1)(0) = 0
                                                                              (

        Así, los nuevos valores de V son:
                                                                          1 1 0 0 
                                                                       V =
                                                                          1 1 1 1 
                                                                                   
                                                                                  
        Así, para obtener los pesos de W se obtienen con la siguiente ecuación:

                                                                                                        (k )
                                                                                          vij* (t )ei
                                                                w j*i (t + 1) =             N                                         (5)
                                                                                   γ + ∑ vij* (t )ei( k )
                                                                                           i =1
        Sustituyendo la ecuación (5):

                                                      (1)
                                         v11e1                                        (1)(1)                  1
                        w11 =                                    =                                          =    = 0.4
                                         N
                                                                     0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                γ + ∑ vi1 (t )e1(1)
                                         i =1
                                                      (1)
                                         v 21e2                                       (1)(1)                  1
                        w12 =                                    =                                          =    = 0.4
                                          N
                                                                     0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                γ + ∑ vi1 (t )e1(1)
                                         i =1
                                                        (1)
                                           v31e3                                       (1)(0)                  0
                         w13 =                                    =                                          =    =0
                                             N
                                                                      0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                 γ + ∑ vi1 (t )e1(1)
                                           i =1
(1)
                                         v 41e4                                     (1)(0)                  0
                        w14 =                                  =                                          =    =0
                                         N
                                                                   0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5
                                 γ + ∑ vi1 (t )e1(1)
                                         i =1


        Obteniéndose los nuevos valores de W:
                                                                        0 .4   0 .2 
                                                                                    
                                                                        0 .4   0 .2 
                                                                    W =
                                                                          0     0 .2 
                                                                                    
                                                                        0      0 .2 
                                                                                    
         Si a continuación se introduce el siguiente vector de entrada E 2 se producirá la competición en las neuronas de salida
,sustituyendo la ecuación (3) con los siguientes resultados:
                                   4

                                 ∑w
                                  i =1
                                             ( 2)
                                             e
                                          1i i           = (0.4)(0) + (0.4)(0) + (0)(1) + (0)(1) = 0
                                   4

                                 ∑w
                                  i =1
                                             ( 2)
                                          2i i  e        = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4
         Por lo tanto resulta vencedora la segunda neurona de la capa de salida por lo que al sustituir la ecuación (3) y (4) el
resultado es el siguiente:
                                                                                            0.4 0 
                                                                                                   
                                             1 1 0 0                                      0.4 0 
                                          V =
                                             0 0 1 1
                                                                                       W =
                                                                                            0 0.4 
                                                                                                   
                                                                                            0 0.4 
                                                                                                   
         Por último, se presenta a la entrada el vector E3=(1,1,1,0) produciéndose la competición con la ecuación (3) con los
siguientes resultados
                                                     4                            4

                                                    ∑ w1i ei(3) = 0.8
                                                    i =1
                                                                                 ∑w
                                                                                 i =1
                                                                                           e( 3)
                                                                                         2i i      = 0.4

         Como se observa la neurona vencedora es la primera de la capa de salida, por lo utilizaremos la siguiente ecuación de
relación de semejanza:
                                                                                          E 3V1
                                                         Re lación de semejanza =                                             (6)
                                                                                           E3
        Sustituyendo la ecuación anterior tenemos:

                    E 3V1       e1( 3) v11 + e23) v 21 + e33) v31 + e43) v 41 (1)(1) + (1)(1) + (1)( 0 ) + ( 0 )( 0 )
                                                (         (          (
                            =                                                =                                        = 0.6
                     E3                  e1( 3) + e23) + e33) + e43)
                                                   (      (       (
                                                                                        1+1+1+ 0

         En este punto se deberá determinar si es suficiente la semejanza como para considerar que E 3=(1,1,1,0) es de la misma
clase que E1=(1,1,1,0), para lo cual habrá que tener en consideración el parámetro de vigilancia. El cual es de 0.5, entonces
0.6>0.5, por lo que se consideraría de la misma clase y se procedería a modificar los pesos de V y W de la primera neurona,
utilizando la ecuación (4) y la ecuación (5) para el ajuste de los pesos. Por lo que los nuevos valores serán:
 0 .4 0 
                                                                                       
                                          1 1 0 0                            0 .4 0 
                                       V =
                                          0 0 1 1
                                                                          W =
                                                                               0 0 .4 
                                                                                       
                                                                               0 0 .4 
                                                                                       
         En todo caso si quisiéramos que pudiera clasificar E3=(1,1,1,0) se tendría que aumentar una nueva neurona de salida. Si
esto se hiciera así, se ajustarían los pesos de esta tercera neurona de salida para que registrasen el prototipo de la nueva clase, con
los pasos anteriores. Obteniéndose los siguientes vectores:

                                                                              0.4 0 0.28 
                                    1 1 0 0                                             
                                                                            0.4 0 0.28 
                                V = 0 0 1 1                             W =
                                    1 1 1 0                                   0 0.4 0.28 
                                                                                        
                                                                              0 0.4   0 
                                                                                          

Más contenido relacionado

La actualidad más candente

10 Backpropagation Algorithm for Neural Networks (1).pptx
10 Backpropagation Algorithm for Neural Networks (1).pptx10 Backpropagation Algorithm for Neural Networks (1).pptx
10 Backpropagation Algorithm for Neural Networks (1).pptx
SaifKhan703888
 
Neural networks
Neural networksNeural networks
Neural networks
Slideshare
 
Insertion sort
Insertion sortInsertion sort
Insertion sort
MYER301
 

La actualidad más candente (20)

Tree_Definition.pptx
Tree_Definition.pptxTree_Definition.pptx
Tree_Definition.pptx
 
10 Backpropagation Algorithm for Neural Networks (1).pptx
10 Backpropagation Algorithm for Neural Networks (1).pptx10 Backpropagation Algorithm for Neural Networks (1).pptx
10 Backpropagation Algorithm for Neural Networks (1).pptx
 
Circular linked list
Circular linked list Circular linked list
Circular linked list
 
Max net
Max netMax net
Max net
 
Perform brute force
Perform brute forcePerform brute force
Perform brute force
 
4. avl
4. avl4. avl
4. avl
 
B+tree Data structures presentation
B+tree Data structures presentationB+tree Data structures presentation
B+tree Data structures presentation
 
Neural networks
Neural networksNeural networks
Neural networks
 
Binary Heap Tree, Data Structure
Binary Heap Tree, Data Structure Binary Heap Tree, Data Structure
Binary Heap Tree, Data Structure
 
Logic Gates
Logic GatesLogic Gates
Logic Gates
 
Linked list
Linked listLinked list
Linked list
 
Lec2
Lec2Lec2
Lec2
 
Merge sort
Merge sortMerge sort
Merge sort
 
Lec2
Lec2Lec2
Lec2
 
3.9 external sorting
3.9 external sorting3.9 external sorting
3.9 external sorting
 
Merge sort algorithm
Merge sort algorithmMerge sort algorithm
Merge sort algorithm
 
Stacks in c++
Stacks in c++Stacks in c++
Stacks in c++
 
Insertion sort
Insertion sortInsertion sort
Insertion sort
 
Circular linked list
Circular linked listCircular linked list
Circular linked list
 
Indexing Data Structure
Indexing Data StructureIndexing Data Structure
Indexing Data Structure
 

Similar a ejemplo red neuronal Art1

Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
algebra
 
Calculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaCalculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociada
algebragr4
 
2 bac vectores
2 bac vectores2 bac vectores
2 bac vectores
annyel100
 

Similar a ejemplo red neuronal Art1 (20)

MODELO DE RESONANCIA ADAPTATIVA EJEMPLO
MODELO DE RESONANCIA ADAPTATIVA EJEMPLOMODELO DE RESONANCIA ADAPTATIVA EJEMPLO
MODELO DE RESONANCIA ADAPTATIVA EJEMPLO
 
00053700
0005370000053700
00053700
 
áLgebra lin cap2a
áLgebra lin cap2aáLgebra lin cap2a
áLgebra lin cap2a
 
Las cónicas
Las cónicasLas cónicas
Las cónicas
 
Formulario
FormularioFormulario
Formulario
 
Geometría en el espacio
Geometría en el espacioGeometría en el espacio
Geometría en el espacio
 
Redes+de+dos+puertos
Redes+de+dos+puertosRedes+de+dos+puertos
Redes+de+dos+puertos
 
Ejerciciosed
EjerciciosedEjerciciosed
Ejerciciosed
 
Algebra lienal
Algebra lienalAlgebra lienal
Algebra lienal
 
Vectores
VectoresVectores
Vectores
 
Transformaciones lineales
Transformaciones linealesTransformaciones lineales
Transformaciones lineales
 
4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden4.respuesta de un_circuito_de_segundo_orden
4.respuesta de un_circuito_de_segundo_orden
 
Calculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociadaCalculo Aplicacion Lineal a partir matriz asociada
Calculo Aplicacion Lineal a partir matriz asociada
 
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12EXTREMADURA Selectividad MATEMÁTICAS II jun 12
EXTREMADURA Selectividad MATEMÁTICAS II jun 12
 
Vectores
VectoresVectores
Vectores
 
Archivo con demostraciones de espacios vectoriales
Archivo con demostraciones de espacios vectorialesArchivo con demostraciones de espacios vectoriales
Archivo con demostraciones de espacios vectoriales
 
Al ap 02
Al ap 02Al ap 02
Al ap 02
 
vectores y matrices.pdf
vectores y matrices.pdfvectores y matrices.pdf
vectores y matrices.pdf
 
Vectores 3
Vectores 3Vectores 3
Vectores 3
 
2 bac vectores
2 bac vectores2 bac vectores
2 bac vectores
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
ESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
ESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
ESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
ESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
ESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
ESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
ESCOM
 
Art2
Art2Art2
Art2
ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
ESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
ESCOM
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
ESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 

Último

Último (20)

Módulo No. 1 Salud mental y escucha activa FINAL 25ABR2024 técnicos.pptx
Módulo No. 1 Salud mental y escucha activa FINAL 25ABR2024 técnicos.pptxMódulo No. 1 Salud mental y escucha activa FINAL 25ABR2024 técnicos.pptx
Módulo No. 1 Salud mental y escucha activa FINAL 25ABR2024 técnicos.pptx
 
5º PARTE 3 SOY LECTOR -MD EDUCATIVO_240418_155445 (1).pdf
5º PARTE 3 SOY LECTOR -MD EDUCATIVO_240418_155445 (1).pdf5º PARTE 3 SOY LECTOR -MD EDUCATIVO_240418_155445 (1).pdf
5º PARTE 3 SOY LECTOR -MD EDUCATIVO_240418_155445 (1).pdf
 
Vínculo afectivo (labor expositivo de grupo )
Vínculo afectivo (labor expositivo de grupo )Vínculo afectivo (labor expositivo de grupo )
Vínculo afectivo (labor expositivo de grupo )
 
ACERTIJO LA RUTA DE LAS ADIVINANZAS OLÍMPICAS. Por JAVIER SOLIS NOYOLA
ACERTIJO LA RUTA DE LAS ADIVINANZAS OLÍMPICAS. Por JAVIER SOLIS NOYOLAACERTIJO LA RUTA DE LAS ADIVINANZAS OLÍMPICAS. Por JAVIER SOLIS NOYOLA
ACERTIJO LA RUTA DE LAS ADIVINANZAS OLÍMPICAS. Por JAVIER SOLIS NOYOLA
 
LA GEOMETRÍA Y LOS SISTEMAS ANGULARES, APRENDER LEYENDO LA BIBLIA
LA GEOMETRÍA Y LOS SISTEMAS ANGULARES, APRENDER LEYENDO LA BIBLIALA GEOMETRÍA Y LOS SISTEMAS ANGULARES, APRENDER LEYENDO LA BIBLIA
LA GEOMETRÍA Y LOS SISTEMAS ANGULARES, APRENDER LEYENDO LA BIBLIA
 
PROBLEMAS DE GENÉTICA CON ÁRBOLES GENEALÓGICOS.pdf
PROBLEMAS DE GENÉTICA  CON ÁRBOLES GENEALÓGICOS.pdfPROBLEMAS DE GENÉTICA  CON ÁRBOLES GENEALÓGICOS.pdf
PROBLEMAS DE GENÉTICA CON ÁRBOLES GENEALÓGICOS.pdf
 
Análisis de la situación actual .La Matriz de Perfil Competitivo (MPC)
Análisis de la situación actual .La Matriz de Perfil Competitivo (MPC)Análisis de la situación actual .La Matriz de Perfil Competitivo (MPC)
Análisis de la situación actual .La Matriz de Perfil Competitivo (MPC)
 
Presentación Revistas y Periódicos Digitales
Presentación Revistas y Periódicos DigitalesPresentación Revistas y Periódicos Digitales
Presentación Revistas y Periódicos Digitales
 
5.Deicticos Uno_Enfermería_EspanolAcademico
5.Deicticos Uno_Enfermería_EspanolAcademico5.Deicticos Uno_Enfermería_EspanolAcademico
5.Deicticos Uno_Enfermería_EspanolAcademico
 
PLAN DE MONITOREO Y ACOMAPÑAMIENTO DOCENTE
PLAN DE MONITOREO Y ACOMAPÑAMIENTO DOCENTEPLAN DE MONITOREO Y ACOMAPÑAMIENTO DOCENTE
PLAN DE MONITOREO Y ACOMAPÑAMIENTO DOCENTE
 
32 LECTURAS CORTAS PARA NIÑOS.pdf · versión 1.pdf
32 LECTURAS CORTAS PARA NIÑOS.pdf · versión 1.pdf32 LECTURAS CORTAS PARA NIÑOS.pdf · versión 1.pdf
32 LECTURAS CORTAS PARA NIÑOS.pdf · versión 1.pdf
 
Tema 8 Estructura y composición de la Tierra 2024
Tema 8 Estructura y composición de la Tierra 2024Tema 8 Estructura y composición de la Tierra 2024
Tema 8 Estructura y composición de la Tierra 2024
 
11.NEOLIBERALISMO: que es, ventajas, desventajas, consecuenciaspptx
11.NEOLIBERALISMO: que es, ventajas, desventajas, consecuenciaspptx11.NEOLIBERALISMO: que es, ventajas, desventajas, consecuenciaspptx
11.NEOLIBERALISMO: que es, ventajas, desventajas, consecuenciaspptx
 
Presentación Propuesta de Proyecto Social Colorido y Juvenil Multicolor y Neg...
Presentación Propuesta de Proyecto Social Colorido y Juvenil Multicolor y Neg...Presentación Propuesta de Proyecto Social Colorido y Juvenil Multicolor y Neg...
Presentación Propuesta de Proyecto Social Colorido y Juvenil Multicolor y Neg...
 
Creación WEB. Ideas clave para crear un sitio web
Creación WEB. Ideas clave para crear un sitio webCreación WEB. Ideas clave para crear un sitio web
Creación WEB. Ideas clave para crear un sitio web
 
LA ILIADA Y LA ODISEA.LITERATURA UNIVERSAL
LA ILIADA Y LA ODISEA.LITERATURA UNIVERSALLA ILIADA Y LA ODISEA.LITERATURA UNIVERSAL
LA ILIADA Y LA ODISEA.LITERATURA UNIVERSAL
 
Evaluación de los Factores Internos de la Organización
Evaluación de los Factores Internos de la OrganizaciónEvaluación de los Factores Internos de la Organización
Evaluación de los Factores Internos de la Organización
 
Lec. 08 Esc. Sab. Luz desde el santuario
Lec. 08 Esc. Sab. Luz desde el santuarioLec. 08 Esc. Sab. Luz desde el santuario
Lec. 08 Esc. Sab. Luz desde el santuario
 
Tipologías de vínculos afectivos (grupo)
Tipologías de vínculos afectivos (grupo)Tipologías de vínculos afectivos (grupo)
Tipologías de vínculos afectivos (grupo)
 
proyecto semana de los Jardines, actividades a realizar para resaltar esta fecha
proyecto semana de los Jardines, actividades a realizar para resaltar esta fechaproyecto semana de los Jardines, actividades a realizar para resaltar esta fecha
proyecto semana de los Jardines, actividades a realizar para resaltar esta fecha
 

ejemplo red neuronal Art1

  • 1. EJEMPLO : ART1 Para este ejemplo utilizaremos ART1 con 4 neuronas en la capa de entrada y 2 neuronas en la capa de salida, está red por lo ya sabemos clasifica entradas o vectores binarios, el número de clasificaciones que puede hacer esta red está dada por el número de neuronas de salida, en este caso tenemos 2 neuronas de salida, lo que significa que habrá y reconocerá 2 categorías y sus variantes. Se utilizarán los siguientes vectores de entrada como patrones representados en forma de figuras: Figura1: Figura2: Figura3: 1 2 1 2 1 2 3 4 3 4 3 4 E1 = (1,1,0,0) E2 = (0,0,1,1) E3 = (1,1,1,0) Como se observa los píxeles negros son representados mediante el valor binario 1, y los blancos con el valor 0. Nuestra red quedaría con la siguiente estructura: Donde : ρ es el parámetro de vigilancia, que tendrá el valor de 0.5. ε para asegurar la convergencia de la red esté suele tener un valor de 1/M, donde M es el número de neuronas de salida, esto es 1/M=1/2=0.5. Los pesos de las conexiones feedforward (wji) y feedback(vij) se inicializan con las siguientes ecuaciones : 1 w ji = (1) 1+ N vij = 1 (2) Sustituyendo la ecuación (1) tenemos : 1 1 w ji = = = 0 .2 1+ N 1+ 4 Donde N es el número de neuronas de entrada. Las matrices que representan estos pesos iniciales serían:
  • 2.  w11 w21   0.2 0.2      v v 21 v31 v 41  1 1 1 1 w w22   0.2 0.2  V =  11 =  w =  12 = v  12 v 22 v32 v 42  1 1 1 1    w w23   0.2 0.2   13    w  14 w24   0.2   0.2   Ya inicializada la red, el vector de entrada es aplicado:: N ∑w i =1 e (k ) ji i (3) Utilizando la ecuación anterior, obtenemos los siguientes valores: 4 ∑w i =1 (1) e 1i i = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 4 ∑w i =1 (1) 2i ie = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 Como está es la primera información de entrada y los pesos wji son todos iguales, no hay ninguna neurona vencedora en la competición, por lo cual se almacena en la primera neurona de la capa de salida, con la siguiente ecuación: vij* (t + 1) = vij* (t )ei( k ) (4) Sustituyendo la ecuación (4): v11 = v11e1(1) = (1)(1) = 1 v 21 = v 21e21) = (1)(1) = 1 ( v31 = v31e31) = (1)(0) = 0 ( v 41 = v 41e41) = (1)(0) = 0 ( Así, los nuevos valores de V son: 1 1 0 0  V = 1 1 1 1     Así, para obtener los pesos de W se obtienen con la siguiente ecuación: (k ) vij* (t )ei w j*i (t + 1) = N (5) γ + ∑ vij* (t )ei( k ) i =1 Sustituyendo la ecuación (5): (1) v11e1 (1)(1) 1 w11 = = = = 0.4 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 (1) v 21e2 (1)(1) 1 w12 = = = = 0.4 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 (1) v31e3 (1)(0) 0 w13 = = = =0 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1
  • 3. (1) v 41e4 (1)(0) 0 w14 = = = =0 N 0.5 + (1)(1) + (1)(1) + (1)(0) + (1)(0) 2.5 γ + ∑ vi1 (t )e1(1) i =1 Obteniéndose los nuevos valores de W:  0 .4 0 .2     0 .4 0 .2  W = 0 0 .2     0 0 .2    Si a continuación se introduce el siguiente vector de entrada E 2 se producirá la competición en las neuronas de salida ,sustituyendo la ecuación (3) con los siguientes resultados: 4 ∑w i =1 ( 2) e 1i i = (0.4)(0) + (0.4)(0) + (0)(1) + (0)(1) = 0 4 ∑w i =1 ( 2) 2i i e = (0.2)(1) + (0.2)(1) + (0.2)(0) + (0.2)(0) = 0.4 Por lo tanto resulta vencedora la segunda neurona de la capa de salida por lo que al sustituir la ecuación (3) y (4) el resultado es el siguiente:  0.4 0    1 1 0 0  0.4 0  V = 0 0 1 1  W =   0 0.4     0 0.4    Por último, se presenta a la entrada el vector E3=(1,1,1,0) produciéndose la competición con la ecuación (3) con los siguientes resultados 4 4 ∑ w1i ei(3) = 0.8 i =1 ∑w i =1 e( 3) 2i i = 0.4 Como se observa la neurona vencedora es la primera de la capa de salida, por lo utilizaremos la siguiente ecuación de relación de semejanza: E 3V1 Re lación de semejanza = (6) E3 Sustituyendo la ecuación anterior tenemos: E 3V1 e1( 3) v11 + e23) v 21 + e33) v31 + e43) v 41 (1)(1) + (1)(1) + (1)( 0 ) + ( 0 )( 0 ) ( ( ( = = = 0.6 E3 e1( 3) + e23) + e33) + e43) ( ( ( 1+1+1+ 0 En este punto se deberá determinar si es suficiente la semejanza como para considerar que E 3=(1,1,1,0) es de la misma clase que E1=(1,1,1,0), para lo cual habrá que tener en consideración el parámetro de vigilancia. El cual es de 0.5, entonces 0.6>0.5, por lo que se consideraría de la misma clase y se procedería a modificar los pesos de V y W de la primera neurona, utilizando la ecuación (4) y la ecuación (5) para el ajuste de los pesos. Por lo que los nuevos valores serán:
  • 4.  0 .4 0    1 1 0 0  0 .4 0  V = 0 0 1 1  W =   0 0 .4     0 0 .4    En todo caso si quisiéramos que pudiera clasificar E3=(1,1,1,0) se tendría que aumentar una nueva neurona de salida. Si esto se hiciera así, se ajustarían los pesos de esta tercera neurona de salida para que registrasen el prototipo de la nueva clase, con los pasos anteriores. Obteniéndose los siguientes vectores:  0.4 0 0.28  1 1 0 0      0.4 0 0.28  V = 0 0 1 1 W = 1 1 1 0 0 0.4 0.28       0 0.4 0   