SlideShare una empresa de Scribd logo
1 de 25
Descargar para leer sin conexión
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 1
La Memoria de BAM/Hopfield
Uso de parte de la Información para recuperar el remanente
asociado
Capítulo 4
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 2
Memoria Asociativa
• Definición: Sean P pares de vectores
{(x1,y1),..,(xP,yP)} con xpRN e yp RK, conjunto
llamado muestra. Entonces la función
M: RNRK con N,K y P  N+ se llama una
Memoria Hetereoasociativa ssi:
– M(xp)=yp p=1,..,P
– M(x)=yp para todo x tal que ||x-xp||<|| x-xl||
l=1,..,P, lp
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 3
Memoria Asociativa
• Definición: Sean P pares de vectores
{(x1,y1),..,(xP,yP)} con xpRN e yp RK, conjunto
llamado muestra. Entonces la función
• M: RNRK se llama memoria asociativa
interpolativa ssi:
P
1,..,
p
,
)
(
entonces
si
ie,
,
)
(
que
tal
P
1,..,
p
y
)
( p


















p
p
K
N
p
p
p
y
x
M
y
x
x
e
d
e
y
d
x
M
e
d
x
M
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 4
Memoria Asociativa
La memoria asociativa interpolativa se puede
construir desde un conjunto ortonormal de
vectores {xp} , p=1,.. P. Entonces la función
M se define como
x
x
y
x
M
P
p
T
p
p 








 
1
)
(
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 5
Memoria Asociativa
• Definición:Sean un conjunto de P vectores
{x1,..,xP} con xpRN , N, PN+ conjunto llamado
muestra. Entonces la función M: RNRN se dice
que implementa una memoria autoasociativa
ssi:
p
l
P
l
x
x
x
x
x
x
x
M
x
M
l
p
p
p











,..,
1
||
||
||
||
:
)
(
P
1,..,
p
x
)
( p
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 6
La Arquitectura BAM
• BAM(Bidirectional Associative Memory):
Implementa una memoria asociativa
interpolativa y consiste en dos capas de
neuronas totalmente conectadas.
• La entrada y salida se pueden cambiar intercambiar ,
i.e., las direcciones de las flechas se invierten.
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 7
Estructura de una red BAM
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 8
La Arquitectura BAM
• Matriz de Pesos:
– {xp}p=1, P conjunto ortogonal.
• Salida de la red: y=W x
• Función de activación: f (x)=x
• Si {yp} es ortogonal, entonces la red es
reversible: x = Wt y
• La red puede ser usada como memoria
autoasociativa considerando xy,
entonces:



P
p
T
p
p x
y
W
1



P
p
T
p
p x
x
W
1
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 9
Dinámica de la BAM
– En las ANN-BAM los pesos no son ajustados
durante el período de entrenamiento. Se calculan
desde la partida a partir de un conjunto de
vectores a ser almacenados: {xp,yp}p=1,..,P
– Se usan vectores bipolares (con valores -1 o 1)
pertenecientes al espacio de Hamming.
– x = 2x* -1 ( con valores “0” o “1”)
– A partir de {xp } e {yp } ortonormales  BAM
– El proceso de  trabaja en tiempo discreto.
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 10
Distancia de Hamming
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 11
Procedimiento
• En t=0, x= 0 es aplicado a la red y se calcula y(0)=W x(0)
• La salida de las capas x e y son propagadas hacia adelante y atrás hasta
que se alcanza un estado estable usando:
0̂
))
1
(
(
))
(
(
:
estable
Condición
)
(
|
))
1
(
(
|
))
1
(
(
)
1
(
)
(
|
))
(
(
|
))
(
(
)
1
(
:
matricial
forma
0
)
1
(
:)
,
(
si
1
K
1,..,
j
,
0
)
1
(
:)
,
(
si
)
(
0
)
1
(
:)
,
(
si
1
))
1
(
:)
,
(
(
)
1
(
0
)
(
)
(:,
si
1
N
1,..,
i
,
0
)
(
)
(:,
si
)
(
0
)
(
)
(:,
si
1
))
(
)
(:,
(
)
1
(













































t
x
W
sign
t
y
W
sign
t
y
t
x
W
sign
t
x
W
sign
t
y
t
x
t
y
W
sign
t
y
W
sign
t
x
t
x
j
W
t
x
j
W
t
y
t
x
j
W
t
x
j
W
f
t
y
t
y
i
W
t
y
i
W
t
x
t
y
i
W
t
y
i
W
f
t
x
T
T
c
T
T
c
T
T
T
T
j
T
j
T
T
i
T
T
i
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 12
Procedimiento
– Cuando se trabaja en el proceso inverso y(0) es
aplicado a la red, x(0)=WT y(0) es calculado a
partir :
– El sistema resultante es un sistema dinámico :
–  Solución estable
– El proceso converge a la solución en tiempo finito
0̂
))
1
(
(
))
(
(
:
estable
Condición
)
(
|
))
1
(
(
|
))
1
(
(
)
1
(
)
(
|
))
(
(
|
))
(
(
)
1
(













t
y
W
sign
t
x
W
sign
t
x
t
Wy
sign
t
Wy
sign
t
x
t
y
t
Wx
sign
t
Wx
sign
t
y
T
T
C
C
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 13
Función de Energia de la BAM
• Función de Energía de la BAM:
E(x,y)=-yt W x
• Teorema:La función de energía tiene las
siguientes propiedades:


i
j
ji
w
E
ii
,
min |
|
)




  t
t E
E
E
iii 1
)
))
(
),
(
(
))
1
(
),
1
(
(
) 1 t
y
t
x
E
t
y
t
x
E
i t
t 



Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 14
Función de Lyapunov
Obervaciones
• Se puede verificar que la función de Energia es una
función de Lyapunov y por lo tanto el sistema dinámico
posee una solución estable.
• En esencia la matriz de pesos determina una superficie con
valles ( depresiones atractivas ) y colinas similares al BPL
• BAM se parece a un sistema fisico disipativo, en el que la
función E, corresponde a la energía del sistema fisico
• Inicialmente los cambios de E(x,y) son grandes y a medida
que los vectores x e y , van alcanzando su estado estable el
valor de E tiene cambios más pequeños
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 15
•Proposición: Si el patrón de entrada xl es igual al guardado {xp}
entonces se obtiene yl
DEM:
l
l
pl
P
p
p
P
p
l
t
p
p
y
y
sign
y
sign
x
x
y
sign
t
Wx
sign
y








)
(
)
(
)
(
))
(
(
1
1

Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 16
• Observación:
– El proceso de ejecución es convergente y la solución se
alcanza en tiempo finito.
– El numero máximo de vectores que pueden ser
guardados son 2N-1.
– Los vectores de Hamming son simétricos con respecto
a la notación 1. Por lo tanto el vector de Hamming
lleva la misma información que su complemento xc.
• Como xC = -x e yp= W xp,
se tiene: yp
C = - yp = W xp = W(-xp) = W xp
c
– La BAM guarda la dirección de los vectores de la
muestra y no sus valores.
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 17
El Algoritmo de la BAM
• Inicialización de la red: Calcular la matriz de pesos W.
• Red recursiva Forward:
– Dado x(0), calcular y(0) =W x(0)
– Calcular:
Hasta estabilizar la red
• Red recursiva Backward:
– Dado y(0), calcular x(0) = WT y(0)
– Calcular:
Hasta estabilizar la red.
)
(
|
))
1
(
(
|
))
1
(
(
)
1
(
)
(
|
))
(
(
|
))
(
(
)
1
(
t
y
t
x
W
sign
t
x
W
sign
t
y
t
x
t
y
W
sign
t
y
W
sign
t
x
c
T
T
c
T
T










)
(
|
))
1
(
(
|
))
1
(
(
)
1
(
)
(
|
))
(
(
|
))
(
(
)
1
(
t
x
t
Wy
sign
t
Wy
sign
t
x
t
y
t
Wx
sign
t
Wx
sign
t
y
C
C










Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 18
La Estructura de Memoria
Autoasociativa
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 19
Memoria de Hopfield Discreta
• Consiste en una memoria autoasociativa con
una capa totalmente conectada la que
adicionalmente recibe una señal de entrada
externa x.



P
p
T
p
p y
y
W
1
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 20
La Memoria de Hopfield
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 21
Memoria discreta de Hopfield
• Características:
– Trabaja con vectores binarios {0,1}.
– Matriz peso:
con la diagonal igual a 0.
– Función de actualización:
donde {tj}j=1,K = t es el vector umbral
– Notación matricial:





P
p
T
p
p y
y
W
1
)
1̂
2
)(
1̂
2
(































K
j
i
i
j
j
i
ji
K
j
i
i
j
j
i
ji
j
K
j
i
i
j
j
i
ji
j
t
x
y
w
t
x
y
w
t
y
t
x
y
w
t
y
1
1
1
si
0
si
)
(
si
1
)
1
(
)
(
|
)
(
|
]
|
)
(
|
1̂
)
(
[
2
1
)
1
(
)
)
(
(
)
(
t
y
t
A
t
A
t
A
t
y
t
x
t
Wy
sign
t
A
c
c









Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 22
Función de Energía
• Función de energía de la memoria discreta de
Hopfield:
• Teorema: Propiedades de la función de energía:
• El proceso de iteración converge en tiempo finito.
)
(
2
1
t
x
y
Wy
y
E T
T




)]
(
[
)]
1
(
[
) 1 t
y
E
t
y
E
i t
t 


K
w
E
ii
i
j
ji 

  |
|
2
1
)
,
min




  t
t E
E
E
iii 1
)
Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 23
Memoria Continua de Hopfield
• Función de activación:
• Inversa de la función de activación:
ganancia
de
parámetro
)
2
)
tanh(
1
(
)
(


 




a
a
f
]
1
ln[
2
1
)
(
)
1
(
y
y
y
f




Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 24
Memoria de Hopfield Continua
• Ecuación diferencial que describe la evolución:
• En aproximación de tiempo discreto, el
procedimiento de actualización:
a
t
x
Wy
dt
da
a
t
x
y
w
dt
da K
j
i
i
j
j
j
i
ji
j






 




1
:
matricial
Notación
1
1
)]
(
1̂
[
)
(
)
(
1̂
)
(
ln
1
)
(
)
(
)
1
( t
y
t
y
t
y
t
y
t
x
t
Wy
t
y
t
y 


















Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 25
Memoria de Hopfield Continua
• Función de Energía de la memoria de Hopfield:
• Teorema: Propiedades de la función de energia:
–
– El proceso iterativo es convergente.
– +, entonces se tiene el caso discreto
– 0, existe solo 1 estado estable
 

 








K
j
y
j
K
j
j
j
K
j
i
j
i
i
ji
j
j
dy
y
f
t
y
x
y
w
y
E
1 0
)
1
(
1
1
,
'
)
'
(
1
2
1

0
) 
dt
dE
i 





K
i
j
i
j
ji K
w
E
ii
1
,
min |
|
2
1
)
1̂
2
1

y

Más contenido relacionado

La actualidad más candente

Probabilidades ii 2021 a semana 6 clase 1
Probabilidades ii 2021 a semana 6 clase 1Probabilidades ii 2021 a semana 6 clase 1
Probabilidades ii 2021 a semana 6 clase 1aaroncuriaupamedina
 
Probabilidades ii 2021 a clase 1
Probabilidades ii 2021 a clase 1Probabilidades ii 2021 a clase 1
Probabilidades ii 2021 a clase 1aaroncuriaupamedina
 
Analisis numericoi tema4_matlab
Analisis numericoi tema4_matlabAnalisis numericoi tema4_matlab
Analisis numericoi tema4_matlabDivum Tyhuj
 
Met iterativos
Met iterativosMet iterativos
Met iterativosaressu
 
Teoria aditiva de numeros
Teoria aditiva de numerosTeoria aditiva de numeros
Teoria aditiva de numeroslgbarrerav
 
1 Principios De MecáNica CuáNtica
1  Principios De MecáNica CuáNtica1  Principios De MecáNica CuáNtica
1 Principios De MecáNica CuáNticaMARYAND14
 
Conjunt0s y sistm difusos
Conjunt0s y sistm difusosConjunt0s y sistm difusos
Conjunt0s y sistm difusosDiego
 
Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Cristhian Nasimba
 
Probabilidades ii 2021 a semana 3
Probabilidades ii 2021 a semana 3Probabilidades ii 2021 a semana 3
Probabilidades ii 2021 a semana 3aaroncuriaupamedina
 
Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)MiriJaneth
 

La actualidad más candente (17)

Probabilidades ii 2021 a semana 6 clase 1
Probabilidades ii 2021 a semana 6 clase 1Probabilidades ii 2021 a semana 6 clase 1
Probabilidades ii 2021 a semana 6 clase 1
 
Met iterativos
Met iterativosMet iterativos
Met iterativos
 
Capitulo01
Capitulo01Capitulo01
Capitulo01
 
Ecuación
EcuaciónEcuación
Ecuación
 
5 flujo (2)
5 flujo (2)5 flujo (2)
5 flujo (2)
 
Probabilidades ii 2021 a clase 1
Probabilidades ii 2021 a clase 1Probabilidades ii 2021 a clase 1
Probabilidades ii 2021 a clase 1
 
Series de fourier
Series de fourierSeries de fourier
Series de fourier
 
Analisis numericoi tema4_matlab
Analisis numericoi tema4_matlabAnalisis numericoi tema4_matlab
Analisis numericoi tema4_matlab
 
Met iterativos
Met iterativosMet iterativos
Met iterativos
 
Teoria aditiva de numeros
Teoria aditiva de numerosTeoria aditiva de numeros
Teoria aditiva de numeros
 
1 Principios De MecáNica CuáNtica
1  Principios De MecáNica CuáNtica1  Principios De MecáNica CuáNtica
1 Principios De MecáNica CuáNtica
 
Conjunt0s y sistm difusos
Conjunt0s y sistm difusosConjunt0s y sistm difusos
Conjunt0s y sistm difusos
 
Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121
 
Probabilidades ii 2021 a semana 3
Probabilidades ii 2021 a semana 3Probabilidades ii 2021 a semana 3
Probabilidades ii 2021 a semana 3
 
Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)
 
Esquemas Débilmente Completos y Estructuras Logarítmicas
Esquemas Débilmente Completos y Estructuras LogarítmicasEsquemas Débilmente Completos y Estructuras Logarítmicas
Esquemas Débilmente Completos y Estructuras Logarítmicas
 
Canal gaussiano BUEN AINFO
Canal gaussiano BUEN AINFOCanal gaussiano BUEN AINFO
Canal gaussiano BUEN AINFO
 

Similar a Memoria Asociativa y Autoasociativa en Redes Neuronales

S iy rn 2011-3 balotario de la pc1
S iy rn 2011-3 balotario de la pc1S iy rn 2011-3 balotario de la pc1
S iy rn 2011-3 balotario de la pc1jcbenitezp
 
S iy rn 2012-1 balotario de la pc1
S iy rn 2012-1 balotario de la pc1S iy rn 2012-1 balotario de la pc1
S iy rn 2012-1 balotario de la pc1c09271
 
REDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldREDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldESCOM
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptronjcbenitezp
 
Utp sirn_cap9_conjuntos difusos
 Utp sirn_cap9_conjuntos difusos Utp sirn_cap9_conjuntos difusos
Utp sirn_cap9_conjuntos difusosjcbenitezp
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONESCOM
 
Redes Neuronales de Base Radial aplicadas a la mejora de la calidad
Redes Neuronales de Base Radial aplicadas a la mejora de la calidadRedes Neuronales de Base Radial aplicadas a la mejora de la calidad
Redes Neuronales de Base Radial aplicadas a la mejora de la calidadUNIV OF PERU
 
Redes de neuronas recurrentes
Redes de neuronas recurrentesRedes de neuronas recurrentes
Redes de neuronas recurrentesSpacetoshare
 
Utp sirn_sl1 funciones de rna 2012-2
 Utp sirn_sl1 funciones de rna 2012-2 Utp sirn_sl1 funciones de rna 2012-2
Utp sirn_sl1 funciones de rna 2012-2jcbenitezp
 
Utp sirn_sl8 conjuntos difusos i
 Utp sirn_sl8 conjuntos difusos i Utp sirn_sl8 conjuntos difusos i
Utp sirn_sl8 conjuntos difusos ic09271
 
Utp sirn_sl8 conjuntos difusos i
 Utp sirn_sl8 conjuntos difusos i Utp sirn_sl8 conjuntos difusos i
Utp sirn_sl8 conjuntos difusos ic09271
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
Transparencias mest.
Transparencias mest.Transparencias mest.
Transparencias mest.antualv
 
Utp sirn_sl7 conjuntos difusos i 2012-2
 Utp sirn_sl7 conjuntos difusos i 2012-2 Utp sirn_sl7 conjuntos difusos i 2012-2
Utp sirn_sl7 conjuntos difusos i 2012-2jcbenitezp
 

Similar a Memoria Asociativa y Autoasociativa en Redes Neuronales (20)

S iy rn 2011-3 balotario de la pc1
S iy rn 2011-3 balotario de la pc1S iy rn 2011-3 balotario de la pc1
S iy rn 2011-3 balotario de la pc1
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
S iy rn 2012-1 balotario de la pc1
S iy rn 2012-1 balotario de la pc1S iy rn 2012-1 balotario de la pc1
S iy rn 2012-1 balotario de la pc1
 
REDES NEURONALES De Hopfield
REDES NEURONALES De HopfieldREDES NEURONALES De Hopfield
REDES NEURONALES De Hopfield
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptron
 
Utp sirn_cap9_conjuntos difusos
 Utp sirn_cap9_conjuntos difusos Utp sirn_cap9_conjuntos difusos
Utp sirn_cap9_conjuntos difusos
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
 
Fss2
Fss2Fss2
Fss2
 
Redes Neuronales de Base Radial aplicadas a la mejora de la calidad
Redes Neuronales de Base Radial aplicadas a la mejora de la calidadRedes Neuronales de Base Radial aplicadas a la mejora de la calidad
Redes Neuronales de Base Radial aplicadas a la mejora de la calidad
 
Redes de neuronas recurrentes
Redes de neuronas recurrentesRedes de neuronas recurrentes
Redes de neuronas recurrentes
 
Utp sirn_sl1 funciones de rna 2012-2
 Utp sirn_sl1 funciones de rna 2012-2 Utp sirn_sl1 funciones de rna 2012-2
Utp sirn_sl1 funciones de rna 2012-2
 
Mr1i 753-2007-2
Mr1i 753-2007-2Mr1i 753-2007-2
Mr1i 753-2007-2
 
Tesis matematica
Tesis matematicaTesis matematica
Tesis matematica
 
Utp sirn_sl8 conjuntos difusos i
 Utp sirn_sl8 conjuntos difusos i Utp sirn_sl8 conjuntos difusos i
Utp sirn_sl8 conjuntos difusos i
 
Utp sirn_sl8 conjuntos difusos i
 Utp sirn_sl8 conjuntos difusos i Utp sirn_sl8 conjuntos difusos i
Utp sirn_sl8 conjuntos difusos i
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Transparencias mest.
Transparencias mest.Transparencias mest.
Transparencias mest.
 
Tema03res
Tema03resTema03res
Tema03res
 
T1preliminaresrcalculofeb Jun2009uc
T1preliminaresrcalculofeb Jun2009ucT1preliminaresrcalculofeb Jun2009uc
T1preliminaresrcalculofeb Jun2009uc
 
Utp sirn_sl7 conjuntos difusos i 2012-2
 Utp sirn_sl7 conjuntos difusos i 2012-2 Utp sirn_sl7 conjuntos difusos i 2012-2
Utp sirn_sl7 conjuntos difusos i 2012-2
 

Más de Spacetoshare

Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on AlgorithmsSpacetoshare
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosSpacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemáticaSpacetoshare
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operacionesSpacetoshare
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamientoSpacetoshare
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesisSpacetoshare
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSSpacetoshare
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de EnsambladorSpacetoshare
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superiorSpacetoshare
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA Spacetoshare
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuacionesSpacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemáticaSpacetoshare
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejosSpacetoshare
 

Más de Spacetoshare (20)

EL HUECO.pdf
EL HUECO.pdfEL HUECO.pdf
EL HUECO.pdf
 
Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on Algorithms
 
Sums ADA
Sums ADASums ADA
Sums ADA
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmos
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Fórmulas ADA
Fórmulas ADAFórmulas ADA
Fórmulas ADA
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operaciones
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamiento
 
Ejercicios jess
Ejercicios jessEjercicios jess
Ejercicios jess
 
Sistemas Expertos
Sistemas ExpertosSistemas Expertos
Sistemas Expertos
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesis
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de Ensamblador
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superior
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuaciones
 
Determinantes
DeterminantesDeterminantes
Determinantes
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejos
 
Ejer
EjerEjer
Ejer
 

Último

Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxMaritzaRetamozoVera
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIACarlos Campaña Montenegro
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuaDANNYISAACCARVAJALGA
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfFrancisco158360
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxPryhaSalam
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxlclcarmen
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 

Último (20)

Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docx
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahua
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptxEXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
EXPANSIÓN ECONÓMICA DE OCCIDENTE LEÓN.pptx
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 

Memoria Asociativa y Autoasociativa en Redes Neuronales

  • 1. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 1 La Memoria de BAM/Hopfield Uso de parte de la Información para recuperar el remanente asociado Capítulo 4
  • 2. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 2 Memoria Asociativa • Definición: Sean P pares de vectores {(x1,y1),..,(xP,yP)} con xpRN e yp RK, conjunto llamado muestra. Entonces la función M: RNRK con N,K y P  N+ se llama una Memoria Hetereoasociativa ssi: – M(xp)=yp p=1,..,P – M(x)=yp para todo x tal que ||x-xp||<|| x-xl|| l=1,..,P, lp
  • 3. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 3 Memoria Asociativa • Definición: Sean P pares de vectores {(x1,y1),..,(xP,yP)} con xpRN e yp RK, conjunto llamado muestra. Entonces la función • M: RNRK se llama memoria asociativa interpolativa ssi: P 1,.., p , ) ( entonces si ie, , ) ( que tal P 1,.., p y ) ( p                   p p K N p p p y x M y x x e d e y d x M e d x M
  • 4. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 4 Memoria Asociativa La memoria asociativa interpolativa se puede construir desde un conjunto ortonormal de vectores {xp} , p=1,.. P. Entonces la función M se define como x x y x M P p T p p            1 ) (
  • 5. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 5 Memoria Asociativa • Definición:Sean un conjunto de P vectores {x1,..,xP} con xpRN , N, PN+ conjunto llamado muestra. Entonces la función M: RNRN se dice que implementa una memoria autoasociativa ssi: p l P l x x x x x x x M x M l p p p            ,.., 1 || || || || : ) ( P 1,.., p x ) ( p
  • 6. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 6 La Arquitectura BAM • BAM(Bidirectional Associative Memory): Implementa una memoria asociativa interpolativa y consiste en dos capas de neuronas totalmente conectadas. • La entrada y salida se pueden cambiar intercambiar , i.e., las direcciones de las flechas se invierten.
  • 7. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 7 Estructura de una red BAM
  • 8. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 8 La Arquitectura BAM • Matriz de Pesos: – {xp}p=1, P conjunto ortogonal. • Salida de la red: y=W x • Función de activación: f (x)=x • Si {yp} es ortogonal, entonces la red es reversible: x = Wt y • La red puede ser usada como memoria autoasociativa considerando xy, entonces:    P p T p p x y W 1    P p T p p x x W 1
  • 9. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 9 Dinámica de la BAM – En las ANN-BAM los pesos no son ajustados durante el período de entrenamiento. Se calculan desde la partida a partir de un conjunto de vectores a ser almacenados: {xp,yp}p=1,..,P – Se usan vectores bipolares (con valores -1 o 1) pertenecientes al espacio de Hamming. – x = 2x* -1 ( con valores “0” o “1”) – A partir de {xp } e {yp } ortonormales  BAM – El proceso de  trabaja en tiempo discreto.
  • 10. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 10 Distancia de Hamming
  • 11. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 11 Procedimiento • En t=0, x= 0 es aplicado a la red y se calcula y(0)=W x(0) • La salida de las capas x e y son propagadas hacia adelante y atrás hasta que se alcanza un estado estable usando: 0̂ )) 1 ( ( )) ( ( : estable Condición ) ( | )) 1 ( ( | )) 1 ( ( ) 1 ( ) ( | )) ( ( | )) ( ( ) 1 ( : matricial forma 0 ) 1 ( :) , ( si 1 K 1,.., j , 0 ) 1 ( :) , ( si ) ( 0 ) 1 ( :) , ( si 1 )) 1 ( :) , ( ( ) 1 ( 0 ) ( ) (:, si 1 N 1,.., i , 0 ) ( ) (:, si ) ( 0 ) ( ) (:, si 1 )) ( ) (:, ( ) 1 (                                              t x W sign t y W sign t y t x W sign t x W sign t y t x t y W sign t y W sign t x t x j W t x j W t y t x j W t x j W f t y t y i W t y i W t x t y i W t y i W f t x T T c T T c T T T T j T j T T i T T i
  • 12. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 12 Procedimiento – Cuando se trabaja en el proceso inverso y(0) es aplicado a la red, x(0)=WT y(0) es calculado a partir : – El sistema resultante es un sistema dinámico : –  Solución estable – El proceso converge a la solución en tiempo finito 0̂ )) 1 ( ( )) ( ( : estable Condición ) ( | )) 1 ( ( | )) 1 ( ( ) 1 ( ) ( | )) ( ( | )) ( ( ) 1 (              t y W sign t x W sign t x t Wy sign t Wy sign t x t y t Wx sign t Wx sign t y T T C C
  • 13. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 13 Función de Energia de la BAM • Función de Energía de la BAM: E(x,y)=-yt W x • Teorema:La función de energía tiene las siguientes propiedades:   i j ji w E ii , min | | )       t t E E E iii 1 ) )) ( ), ( ( )) 1 ( ), 1 ( ( ) 1 t y t x E t y t x E i t t    
  • 14. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 14 Función de Lyapunov Obervaciones • Se puede verificar que la función de Energia es una función de Lyapunov y por lo tanto el sistema dinámico posee una solución estable. • En esencia la matriz de pesos determina una superficie con valles ( depresiones atractivas ) y colinas similares al BPL • BAM se parece a un sistema fisico disipativo, en el que la función E, corresponde a la energía del sistema fisico • Inicialmente los cambios de E(x,y) son grandes y a medida que los vectores x e y , van alcanzando su estado estable el valor de E tiene cambios más pequeños
  • 15. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 15 •Proposición: Si el patrón de entrada xl es igual al guardado {xp} entonces se obtiene yl DEM: l l pl P p p P p l t p p y y sign y sign x x y sign t Wx sign y         ) ( ) ( ) ( )) ( ( 1 1 
  • 16. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 16 • Observación: – El proceso de ejecución es convergente y la solución se alcanza en tiempo finito. – El numero máximo de vectores que pueden ser guardados son 2N-1. – Los vectores de Hamming son simétricos con respecto a la notación 1. Por lo tanto el vector de Hamming lleva la misma información que su complemento xc. • Como xC = -x e yp= W xp, se tiene: yp C = - yp = W xp = W(-xp) = W xp c – La BAM guarda la dirección de los vectores de la muestra y no sus valores.
  • 17. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 17 El Algoritmo de la BAM • Inicialización de la red: Calcular la matriz de pesos W. • Red recursiva Forward: – Dado x(0), calcular y(0) =W x(0) – Calcular: Hasta estabilizar la red • Red recursiva Backward: – Dado y(0), calcular x(0) = WT y(0) – Calcular: Hasta estabilizar la red. ) ( | )) 1 ( ( | )) 1 ( ( ) 1 ( ) ( | )) ( ( | )) ( ( ) 1 ( t y t x W sign t x W sign t y t x t y W sign t y W sign t x c T T c T T           ) ( | )) 1 ( ( | )) 1 ( ( ) 1 ( ) ( | )) ( ( | )) ( ( ) 1 ( t x t Wy sign t Wy sign t x t y t Wx sign t Wx sign t y C C          
  • 18. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 18 La Estructura de Memoria Autoasociativa
  • 19. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 19 Memoria de Hopfield Discreta • Consiste en una memoria autoasociativa con una capa totalmente conectada la que adicionalmente recibe una señal de entrada externa x.    P p T p p y y W 1
  • 20. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 20 La Memoria de Hopfield
  • 21. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 21 Memoria discreta de Hopfield • Características: – Trabaja con vectores binarios {0,1}. – Matriz peso: con la diagonal igual a 0. – Función de actualización: donde {tj}j=1,K = t es el vector umbral – Notación matricial:      P p T p p y y W 1 ) 1̂ 2 )( 1̂ 2 (                                K j i i j j i ji K j i i j j i ji j K j i i j j i ji j t x y w t x y w t y t x y w t y 1 1 1 si 0 si ) ( si 1 ) 1 ( ) ( | ) ( | ] | ) ( | 1̂ ) ( [ 2 1 ) 1 ( ) ) ( ( ) ( t y t A t A t A t y t x t Wy sign t A c c         
  • 22. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 22 Función de Energía • Función de energía de la memoria discreta de Hopfield: • Teorema: Propiedades de la función de energía: • El proceso de iteración converge en tiempo finito. ) ( 2 1 t x y Wy y E T T     )] ( [ )] 1 ( [ ) 1 t y E t y E i t t    K w E ii i j ji     | | 2 1 ) , min       t t E E E iii 1 )
  • 23. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 23 Memoria Continua de Hopfield • Función de activación: • Inversa de la función de activación: ganancia de parámetro ) 2 ) tanh( 1 ( ) (         a a f ] 1 ln[ 2 1 ) ( ) 1 ( y y y f    
  • 24. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 24 Memoria de Hopfield Continua • Ecuación diferencial que describe la evolución: • En aproximación de tiempo discreto, el procedimiento de actualización: a t x Wy dt da a t x y w dt da K j i i j j j i ji j             1 : matricial Notación 1 1 )] ( 1̂ [ ) ( ) ( 1̂ ) ( ln 1 ) ( ) ( ) 1 ( t y t y t y t y t x t Wy t y t y                   
  • 25. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales 25 Memoria de Hopfield Continua • Función de Energía de la memoria de Hopfield: • Teorema: Propiedades de la función de energia: – – El proceso iterativo es convergente. – +, entonces se tiene el caso discreto – 0, existe solo 1 estado estable              K j y j K j j j K j i j i i ji j j dy y f t y x y w y E 1 0 ) 1 ( 1 1 , ' ) ' ( 1 2 1  0 )  dt dE i       K i j i j ji K w E ii 1 , min | | 2 1 ) 1̂ 2 1  y