SlideShare una empresa de Scribd logo
1 de 11
EJERCICIO DE UNA RED ART
Entrene una red ART con los siguientes
valores de entrada.






























0
1
1
3
0
0
1
2
0
1
0
1
PPP
Use los parámetros ζ=2, ρ=.6 s2
=3 (3
categorias)










=










=
==
+
=
+
=
1
1
1
1
1
1
1
1
1
25.
25.
25.
25.
25.
25.
25.
25.
25.
25.
4
1
31
1
1
1
ij
V
ij
W
Nij
W
ITERACIÓN 1:
1.- Se calcula la respuesta de la capa 1










===
0
1
0
1
11
PaPa
2.- Se calcula la entrada a la capa 2










=




















==
25.
25.
25.
0
1
0
25.
25.
25.
25.
25.
25.
25.
25.
25.
1
*
2
a
ij
Wa
Se activa la neurona con el valor mayor; o
en este caso puesto que todos los valores
son iguales se activa la del índice menor










=
0
0
1
2
a
3.- Se calcula el valor esperado










=




















==
1
1
1
0
0
1
1
1
1
1
1
1
1
1
1
2
*a
ji
V
j
V
4.- Se ajusta la salida a1
para incluir el
valor esperado L2-L1










=










∩










=∩=
0
1
0
1
1
1
0
1
0
1
1
j
VPa
5.- El subsistema de orientación determina
el grado de igualdad entre el valor
esperado y el patrón de entrada.
















<
=
adeotraform
aSi
a
0
21
1
0
ρ
1
2
0
2
1
2
0
1
1
2
0
2
1
2
0
1
6.1
1
1
2
2
1
1
=++=
=++=
=>==
P
a
p
a
ρ
6.- a0
=0 por lo que sé continuo con el paso
7
7.- Ocurre la resonancia, se actualiza la
fila j de Wij
1
21
1
−+
=
a
a
ij
jW
ζ
ζ










=










==
−+
=
25.
25.
0
25.
25.
1
25.
25.
0
0
1
0
1
112
1
2
ij
W
a
a
ij
jW
8.- Se actualiza la columna j de Vij










===
110
111
110
1
ij
Va
j
V
9.- Removemos el patrón de entrada,
restablecemos todas las neuronas
inhibidas en la capa 2 y regresamos al
paso 1 con un nuevo patrón de entrada.
ITERACIÓN 2:
1.- Se presenta P2










===
0
0
1
2
11
PaPa
2.- Calculamos la entrada a la capa 2










=




















==
25.
25.
0
0
0
1
25.
25.
0
25.
25.
1
25.
25.
0
1
*
2
a
ij
Wa
Se elige la neurona 2 como ganadora










=
0
1
0
2
a
3.- Se calcula el valor esperado L2-L1










=




















==
1
1
1
0
1
0
1
1
1
1
1
1
0
1
0
2
*a
ji
V
j
V
4.- Se ajusta la salida de la capa 2 para
incluir el valor esperado.










=










∩










=∩=
0
0
1
1
1
1
0
0
1
2
1
j
VPa
5.- El subsistema de orientación determina
el valor esperado y el patrón de entrada.
6.1
1
1
2
2
2
1
=>== ρ
p
a
6.- a0
=0 y se continua con el paso 7
7.- Ocurre la resonancia, se actualiza el
fija j de Wij










=










==
−+
=
25.
0
0
25.
0
1
25.
1
0
0
0
1
1
112
1
2
ij
W
a
a
ij
jW
8.- Se actualiza la columna j de Vij










===
100
101
110
1
ij
Va
j
V
9.- Restablecemos todas las neuronas
inhibidas y regresamos al paso 1 con un
nuevo patrón.
ITERACIÓN 3:
1.- Se presenta el patrón de entrada P3










===
0
1
1
3
11
PaPa
2.- Se calcula la entrada a la capa 2










=




















==
5.
1
1
0
1
1
25.
0
0
25.
0
1
25.
1
0
1
*
2
a
ij
Wa
Se activa la neurona en la capa 2 con la
entrada más grande si no se toma el del
índice mas pequeño.










=
0
0
1
2
a
3.- Se calcula el valor esperado L2-L1










=




















==
0
1
0
0
0
1
1
1
1
0
0
1
0
1
0
2
*a
ji
V
j
V
4.- La capa 2 esta activada, se ajusta la
salida de la capa para incluir el valor
esperado.










=










∩










=∩=
0
1
0
0
1
0
0
1
1
3
1
j
VPa
5.- El subsistema de orientación determina
el grado de comparación entre el valor
esperado y el patrón de entrada.
6.5.
2
1
2
2
3
1
=<== ρ
p
a
6.- a0
=1 se ajusta a2
1=0, se inhibe la
primera neurona y se regresa al paso 1.
1.- Se presenta el patrón de entrada P3










===
0
1
1
3
11
PaPa
2.- Se calcula la entrada a la capa 2










=




















==
5.
1
1
0
1
1
25.
0
0
25.
0
1
25.
1
0
1
*
2
a
ij
Wa
Se activa la neurona en la capa 2 con la
entrada más grande recordar que a2
=0 esta
inhibida por que la neurona ganadora es la
siguiente.










=
0
1
0
2
a
3.- Calculamos el valor esperado L2-L1, la
neurona j de la capa 2 esta activada.










=




















==
0
0
1
0
1
0
1
1
1
0
0
1
0
1
0
2
*a
ji
V
j
V
4.- Se ajusta la salida de la capa 1 para
incluir el valor esperado L2-L1










=










∩










=∩=
0
0
1
0
0
1
0
1
1
3
1
j
VPa
5.- El subsistema de orientación determina
el grado de comparación entre el valor
esperado y el patrón de entrada.
6.5.
2
1
2
2
3
1
=<== ρ
p
a
6.- a0
=1 se ajusta a2
2=0, se inhibe la
primera neurona y se regresa al paso 1.
1.- Se presenta el patrón de entrada P3










===
0
1
1
3
11
PaPa
2.- Se calcula la entrada a la capa 2










=




















==
5.
1
1
0
1
1
25.
0
0
25.
0
1
25.
1
0
1
*
2
a
ij
Wa
Se activa la neurona con el valor grande
recordar que a2
1=0, a2
2=0 están inhibidas
por lo que solo queda a2
3=1










=
1
0
0
2
a
3.- Calculamos el valor esperado










=




















==
1
1
1
1
0
0
1
1
1
0
0
1
0
1
0
2
*a
ji
V
j
V
4.- Se ajusta la salida de la capa 1 para
incluir el valor esperado L2-L1










=










∩










=∩=
0
1
1
1
1
1
0
1
1
3
1
j
VPa
5.- El subsistema de orientación determina
el grado de comparación entre el valor
esperado y el patrón de entrada.
6.1
2
2
2
2
3
1
=>== ρ
p
a
6.- a0
=0 y se continua con el paso 7
7.- Ocurre la resonancia, se actualiza el
fija j de Wij










=


















==
−+
=
0
0
0
32
0
1
32
1
0
0
3
2
3
2
1
3
2
122
1
2
ij
W
a
a
ij
jW
8.- Se actualiza la columna j de Vij










===
000
101
110
1
ij
Va
j
V
Los valores finales de las matrices son










=










=
000
101
110
03232
001
010
ij
V
ij
W

Más contenido relacionado

Similar a Ejercicio De Una Red Art

Red Neuronal Adaline
Red Neuronal AdalineRed Neuronal Adaline
Red Neuronal Adalinefernandoman
 
RED NERONAL ADALINE
RED NERONAL ADALINERED NERONAL ADALINE
RED NERONAL ADALINEESCOM
 
Matriz Asociada a la Aplicacion
Matriz Asociada a la AplicacionMatriz Asociada a la Aplicacion
Matriz Asociada a la Aplicacionalgebragr4
 
Miop u2 a2_aupc. algoritmo simplex-1
Miop u2 a2_aupc. algoritmo simplex-1Miop u2 a2_aupc. algoritmo simplex-1
Miop u2 a2_aupc. algoritmo simplex-1Aurelio Plancarte
 
Solucionario determinantes
Solucionario determinantesSolucionario determinantes
Solucionario determinantesalfonnavarro
 
Simulación en Ing. Eléctrica - Búsqueda de raíces
Simulación en Ing. Eléctrica - Búsqueda de raícesSimulación en Ing. Eléctrica - Búsqueda de raíces
Simulación en Ing. Eléctrica - Búsqueda de raícesCarlos Vergara Branje
 

Similar a Ejercicio De Una Red Art (6)

Red Neuronal Adaline
Red Neuronal AdalineRed Neuronal Adaline
Red Neuronal Adaline
 
RED NERONAL ADALINE
RED NERONAL ADALINERED NERONAL ADALINE
RED NERONAL ADALINE
 
Matriz Asociada a la Aplicacion
Matriz Asociada a la AplicacionMatriz Asociada a la Aplicacion
Matriz Asociada a la Aplicacion
 
Miop u2 a2_aupc. algoritmo simplex-1
Miop u2 a2_aupc. algoritmo simplex-1Miop u2 a2_aupc. algoritmo simplex-1
Miop u2 a2_aupc. algoritmo simplex-1
 
Solucionario determinantes
Solucionario determinantesSolucionario determinantes
Solucionario determinantes
 
Simulación en Ing. Eléctrica - Búsqueda de raíces
Simulación en Ing. Eléctrica - Búsqueda de raícesSimulación en Ing. Eléctrica - Búsqueda de raíces
Simulación en Ing. Eléctrica - Búsqueda de raíces
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 

Ejercicio De Una Red Art

  • 1. EJERCICIO DE UNA RED ART Entrene una red ART con los siguientes valores de entrada.                               0 1 1 3 0 0 1 2 0 1 0 1 PPP Use los parámetros ζ=2, ρ=.6 s2 =3 (3 categorias)           =           = == + = + = 1 1 1 1 1 1 1 1 1 25. 25. 25. 25. 25. 25. 25. 25. 25. 25. 4 1 31 1 1 1 ij V ij W Nij W ITERACIÓN 1: 1.- Se calcula la respuesta de la capa 1           === 0 1 0 1 11 PaPa 2.- Se calcula la entrada a la capa 2
  • 2.           =                     == 25. 25. 25. 0 1 0 25. 25. 25. 25. 25. 25. 25. 25. 25. 1 * 2 a ij Wa Se activa la neurona con el valor mayor; o en este caso puesto que todos los valores son iguales se activa la del índice menor           = 0 0 1 2 a 3.- Se calcula el valor esperado           =                     == 1 1 1 0 0 1 1 1 1 1 1 1 1 1 1 2 *a ji V j V 4.- Se ajusta la salida a1 para incluir el valor esperado L2-L1
  • 3.           =           ∩           =∩= 0 1 0 1 1 1 0 1 0 1 1 j VPa 5.- El subsistema de orientación determina el grado de igualdad entre el valor esperado y el patrón de entrada.                 < = adeotraform aSi a 0 21 1 0 ρ 1 2 0 2 1 2 0 1 1 2 0 2 1 2 0 1 6.1 1 1 2 2 1 1 =++= =++= =>== P a p a ρ 6.- a0 =0 por lo que sé continuo con el paso 7 7.- Ocurre la resonancia, se actualiza la fila j de Wij
  • 4. 1 21 1 −+ = a a ij jW ζ ζ           =           == −+ = 25. 25. 0 25. 25. 1 25. 25. 0 0 1 0 1 112 1 2 ij W a a ij jW 8.- Se actualiza la columna j de Vij           === 110 111 110 1 ij Va j V 9.- Removemos el patrón de entrada, restablecemos todas las neuronas inhibidas en la capa 2 y regresamos al paso 1 con un nuevo patrón de entrada. ITERACIÓN 2: 1.- Se presenta P2           === 0 0 1 2 11 PaPa 2.- Calculamos la entrada a la capa 2           =                     == 25. 25. 0 0 0 1 25. 25. 0 25. 25. 1 25. 25. 0 1 * 2 a ij Wa Se elige la neurona 2 como ganadora
  • 5.           = 0 1 0 2 a 3.- Se calcula el valor esperado L2-L1           =                     == 1 1 1 0 1 0 1 1 1 1 1 1 0 1 0 2 *a ji V j V 4.- Se ajusta la salida de la capa 2 para incluir el valor esperado.           =           ∩           =∩= 0 0 1 1 1 1 0 0 1 2 1 j VPa 5.- El subsistema de orientación determina el valor esperado y el patrón de entrada. 6.1 1 1 2 2 2 1 =>== ρ p a 6.- a0 =0 y se continua con el paso 7 7.- Ocurre la resonancia, se actualiza el fija j de Wij
  • 6.           =           == −+ = 25. 0 0 25. 0 1 25. 1 0 0 0 1 1 112 1 2 ij W a a ij jW 8.- Se actualiza la columna j de Vij           === 100 101 110 1 ij Va j V 9.- Restablecemos todas las neuronas inhibidas y regresamos al paso 1 con un nuevo patrón. ITERACIÓN 3: 1.- Se presenta el patrón de entrada P3           === 0 1 1 3 11 PaPa 2.- Se calcula la entrada a la capa 2           =                     == 5. 1 1 0 1 1 25. 0 0 25. 0 1 25. 1 0 1 * 2 a ij Wa Se activa la neurona en la capa 2 con la entrada más grande si no se toma el del índice mas pequeño.
  • 7.           = 0 0 1 2 a 3.- Se calcula el valor esperado L2-L1           =                     == 0 1 0 0 0 1 1 1 1 0 0 1 0 1 0 2 *a ji V j V 4.- La capa 2 esta activada, se ajusta la salida de la capa para incluir el valor esperado.           =           ∩           =∩= 0 1 0 0 1 0 0 1 1 3 1 j VPa 5.- El subsistema de orientación determina el grado de comparación entre el valor esperado y el patrón de entrada. 6.5. 2 1 2 2 3 1 =<== ρ p a 6.- a0 =1 se ajusta a2 1=0, se inhibe la primera neurona y se regresa al paso 1. 1.- Se presenta el patrón de entrada P3
  • 8.           === 0 1 1 3 11 PaPa 2.- Se calcula la entrada a la capa 2           =                     == 5. 1 1 0 1 1 25. 0 0 25. 0 1 25. 1 0 1 * 2 a ij Wa Se activa la neurona en la capa 2 con la entrada más grande recordar que a2 =0 esta inhibida por que la neurona ganadora es la siguiente.           = 0 1 0 2 a 3.- Calculamos el valor esperado L2-L1, la neurona j de la capa 2 esta activada.           =                     == 0 0 1 0 1 0 1 1 1 0 0 1 0 1 0 2 *a ji V j V 4.- Se ajusta la salida de la capa 1 para incluir el valor esperado L2-L1
  • 9.           =           ∩           =∩= 0 0 1 0 0 1 0 1 1 3 1 j VPa 5.- El subsistema de orientación determina el grado de comparación entre el valor esperado y el patrón de entrada. 6.5. 2 1 2 2 3 1 =<== ρ p a 6.- a0 =1 se ajusta a2 2=0, se inhibe la primera neurona y se regresa al paso 1. 1.- Se presenta el patrón de entrada P3           === 0 1 1 3 11 PaPa 2.- Se calcula la entrada a la capa 2           =                     == 5. 1 1 0 1 1 25. 0 0 25. 0 1 25. 1 0 1 * 2 a ij Wa Se activa la neurona con el valor grande recordar que a2 1=0, a2 2=0 están inhibidas por lo que solo queda a2 3=1
  • 10.           = 1 0 0 2 a 3.- Calculamos el valor esperado           =                     == 1 1 1 1 0 0 1 1 1 0 0 1 0 1 0 2 *a ji V j V 4.- Se ajusta la salida de la capa 1 para incluir el valor esperado L2-L1           =           ∩           =∩= 0 1 1 1 1 1 0 1 1 3 1 j VPa 5.- El subsistema de orientación determina el grado de comparación entre el valor esperado y el patrón de entrada. 6.1 2 2 2 2 3 1 =>== ρ p a 6.- a0 =0 y se continua con el paso 7 7.- Ocurre la resonancia, se actualiza el fija j de Wij
  • 11.           =                   == −+ = 0 0 0 32 0 1 32 1 0 0 3 2 3 2 1 3 2 122 1 2 ij W a a ij jW 8.- Se actualiza la columna j de Vij           === 000 101 110 1 ij Va j V Los valores finales de las matrices son           =           = 000 101 110 03232 001 010 ij V ij W