SlideShare una empresa de Scribd logo
1 de 3
Descargar para leer sin conexión
REDES ELMAN
La red Elman tiene neuronas "tansig" en su capa recurrente y neuronas "purelin"
en su capa de salida. Esta combinación de funciones de transferencia le permite
a este tipo de redes aproximar cualquier función con una precisión arbitraria.
El único requerimiento es que en la capa oculta deben existir bastantes
neuronas.
      Debido a que una red Elman puede almacenar información que se puede
referenciar en un futuro, ésta puede aprender tanto patrones temporales como
patrones espaciales.

Creando una red Elman
      Una red Elman con 2 o más capas, puede ser creada con la función newelm.
Con esta función se crea e inicializa una red ELMAN.
Sintaxis:
      net = newelm(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF)
donde:

•   PR :      indica el rango de los vectores de entrada y es de la forma: [min
    max] min es el limite inferior y max el superior.
•   Si, i=1,...,N1 : es el número de neuronas en la i-ésima capa.
•   TFi, i=1,...,N1 : es el tipo de función de transferencia en la i-ésima capa. Su
    valor por default es ‘tansig’.
•   BTF : indica cual es la función de entrenamiento que se utilizará          para
    entrenar la red. La función por default es ‘traingdx’. Los valores posibles
    son los siguientes :
       traingd - Gradient descent backpropagation.
       traingdm - Gradient descent w/momentum backpropagation.
       traingda - Gradient descent w/adaptive lr backpropagation.
       traingdx - Gradient descent w/momentum & adaptive lr backpropagation.
•   BLF : indica que tipo de aprendizaje(función) será usado. Su valor por
    default es ‘learngdm’. Sus valores posibles son:
       learnbp - Backpropagation learning rule.
       learnbpm - Backpropagation learning rule with momentum.
•   PF : indica que función va a interpretar el error cuadrático medio. Su valor
    por default es ‘mse’. Algunos de sus valores posibles son:
       mse        - Mean squared error performance function.
       msereg     - Mean squared error w/reg performance function.
       dmse       - Mean squared error performance derivatives function.
       dmsereg - Mean squared error w/reg performance derivative function.

Entrenando una red Elman:
      La función para entrenar una red neuronal en general es train. TRAIN
entrena una red    NET de acuerdo a NET.trainFcn y NET.trainParam. Algunos de
estos parámetros se asignan en newelm y en caso de que no se den se toman los
que tienen por default. NET.trainFcn es el que indica que tipo de red se va a
entrenar, debido a que train puede entrenar cualquier tipo de red. Para las
redes Elman el valor de este parámetro es inicializado en Newelm.

Como ejemplo observe como se inicializan algunos valores:
net = newelm([-2 2],[10 1],{'tansig','purelin'},'traingdx');
net.trainParam.epochs = 500;
net.trainParam.show = 5;
net.trainParam.goal = 0.01;
net.performFcn = 'sse';
La sintaxis de train es:
      [net,tr] = train(NET,P,T,Pi,Ai)
donde:
NET : es la neurona a ser entrenada.
P: Son los vectores de entrada.
T : Son los vectores objetivo.
Pi y Ai son condiciones de retardo.

La función regresa la nueva red entrenada y opcionalmente        información   del
entrenamiento tal como el número de epochs el error alcanzado.

Tanto los vectores de entrada como los objetivo, tienen que estar en cierta
forma que se llama arreglo de celdas, por lo que se utiliza la función con2seq
para convertirlos a esta forma y así poder pasarlos como parámetros a train.
Ejemplo:
[net,tr] = train(net,Pentrada,Tobjetivo);

Simulación de una red Elman:
      Finalmente para simular una red neuronal se utiliza sim. Su sintaxis es:
[Y,Pf,Af] = sim(net,P,Pi,Ai)
net : es la red que se utilizará para la simulación.
P : Las entradas. Vectores de entrada.
Pi y Ai: son condiciones de retardo iniciales.

Regresa:
Y : Salidas. Una aproximación a los vectores objetivo.
Pf y Af son condiciones de retardo finales.

Pi, Ai, Pf, y Af son opcionales y solo son usados para redes que tienen retardo
en la entrada o en las capas.
Ejemplo:
Salidas = sim(net,Pentradas);


DETECCION DE AMPLITUD (APPELM1)
      Usando las funciones NEWELM, TRAIN y SIM, una red ELMAN es entrenada para
obtener la amplitud de una onda senoidal que esta siendo presentada en el
tiempo.

      Las entradas de la red son ondas senoidales con diferente amplitud.

      Se puede observar que sen(x), 2*sen(x),..., n*sen(x) son funciones
diferentes y que la red Elman lo que realmente esta haciendo es identificar
funciones, ya que cuando se presente una función de   entrada, la red debe
presentar una única salida para dicha entrada.

Continuando con el ejemplo, una vez inicializada y entrenada la red se puede
observar que no se alcanzó el mínimo error deseado, por lo que se recomiendan
tres cosas por hacer:

1.-   Más entremamiento aumentando el n£mero de epochs.
2.-   Tratar con pesos y bias iniciales diferentes.
3.-   Utilizar más neuronas en la capa oculta o recurrente.

La respuesta que tiene la red con las funciones con las que fue entrenada es muy
buena, pero cuando se le presentan funciones con las que no fue entrenada no es
muy buena. No generaliza muy bien.
Conclusiones y recomendaciones:
• La red Elman puede aprender a reconocer patrones variantes en el tiempo.
• En este ejemplos la red hizo un trabajo bastante bueno con solo 10
   neuronas en la capa recurrente y 500 epochs.
• Más neuronas recurrentes y tiempos mayores de entrenamientos pueden ser
   utilizados para incrementar la precisión de la red.
• Entrenando la red con m s funciones causar una red que generaliza       mucho
   mejor.

Más contenido relacionado

La actualidad más candente

Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
redes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpredes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpESCOM
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2jcbp_peru
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2jcbp_peru
 
Utp i_ay_se_sistemas difusos i 2013-3
 Utp i_ay_se_sistemas difusos i 2013-3 Utp i_ay_se_sistemas difusos i 2013-3
Utp i_ay_se_sistemas difusos i 2013-3jcbenitezp
 
Utp sirn_sl8 sistemas difusos i 2013-3
 Utp sirn_sl8 sistemas difusos i 2013-3 Utp sirn_sl8 sistemas difusos i 2013-3
Utp sirn_sl8 sistemas difusos i 2013-3jcbenitezp
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Algoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPAlgoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPESCOM
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón MulticapaESCOM
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINEESCOM
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base RadialESCOM
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna jcbp_peru
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptronc09271
 
Utp sirn_sl2 la rna perceptron
 Utp sirn_sl2 la rna perceptron Utp sirn_sl2 la rna perceptron
Utp sirn_sl2 la rna perceptronjcbenitezp
 
Utp ia_sl2 patrones de aprendizaje de las rna
 Utp ia_sl2 patrones de aprendizaje de las rna Utp ia_sl2 patrones de aprendizaje de las rna
Utp ia_sl2 patrones de aprendizaje de las rnajcbenitezp
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzadaDiego Guamán
 

La actualidad más candente (20)

Boletin3
Boletin3Boletin3
Boletin3
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
redes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpredes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbp
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2
 
Utp i_ay_se_sistemas difusos i 2013-3
 Utp i_ay_se_sistemas difusos i 2013-3 Utp i_ay_se_sistemas difusos i 2013-3
Utp i_ay_se_sistemas difusos i 2013-3
 
Utp sirn_sl8 sistemas difusos i 2013-3
 Utp sirn_sl8 sistemas difusos i 2013-3 Utp sirn_sl8 sistemas difusos i 2013-3
Utp sirn_sl8 sistemas difusos i 2013-3
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Algoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPAlgoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBP
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINE
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptron
 
Utp sirn_sl2 la rna perceptron
 Utp sirn_sl2 la rna perceptron Utp sirn_sl2 la rna perceptron
Utp sirn_sl2 la rna perceptron
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Utp ia_sl2 patrones de aprendizaje de las rna
 Utp ia_sl2 patrones de aprendizaje de las rna Utp ia_sl2 patrones de aprendizaje de las rna
Utp ia_sl2 patrones de aprendizaje de las rna
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 

Similar a REDES NEUROANLES ELMAN DEMO

Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Gustavo 07 redes neuronales matlab
Gustavo 07   redes neuronales matlabGustavo 07   redes neuronales matlab
Gustavo 07 redes neuronales matlabWige Marr
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlabInnoVacompu
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 

Similar a REDES NEUROANLES ELMAN DEMO (20)

Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Gustavo 07 redes neuronales matlab
Gustavo 07   redes neuronales matlabGustavo 07   redes neuronales matlab
Gustavo 07 redes neuronales matlab
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 

Último

LOS AMBIENTALISTAS todo por un mundo mejor
LOS AMBIENTALISTAS todo por un mundo mejorLOS AMBIENTALISTAS todo por un mundo mejor
LOS AMBIENTALISTAS todo por un mundo mejormrcrmnrojasgarcia
 
Si cuidamos el mundo, tendremos un mundo mejor.
Si cuidamos el mundo, tendremos un mundo mejor.Si cuidamos el mundo, tendremos un mundo mejor.
Si cuidamos el mundo, tendremos un mundo mejor.monthuerta17
 
ENSEÑAR ACUIDAR EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
ENSEÑAR ACUIDAR  EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.ENSEÑAR ACUIDAR  EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
ENSEÑAR ACUIDAR EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.karlazoegarciagarcia
 
Descripción Und Curso Inf.Médica - Diseño ExpAprendizaje2.pdf
Descripción Und Curso Inf.Médica - Diseño ExpAprendizaje2.pdfDescripción Und Curso Inf.Médica - Diseño ExpAprendizaje2.pdf
Descripción Und Curso Inf.Médica - Diseño ExpAprendizaje2.pdfCarol Andrea Eraso Guerrero
 
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptxfotofamilia008
 
Explicación del Modelo de Stephen Toulmin para elaborar argumentos
Explicación del  Modelo de Stephen Toulmin para elaborar argumentosExplicación del  Modelo de Stephen Toulmin para elaborar argumentos
Explicación del Modelo de Stephen Toulmin para elaborar argumentosINESDVERA
 
Apunte de clase Pisos y Revestimientos 3
Apunte de clase Pisos y Revestimientos 3Apunte de clase Pisos y Revestimientos 3
Apunte de clase Pisos y Revestimientos 3Gonella
 
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdfMEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdfJosé Hecht
 
Catálogo general de libros de la Editorial Albatros
Catálogo general de libros de la Editorial AlbatrosCatálogo general de libros de la Editorial Albatros
Catálogo general de libros de la Editorial AlbatrosGustavoCanevaro
 
Apunte de clase Pisos y Revestimientos 1
Apunte de clase Pisos y Revestimientos 1Apunte de clase Pisos y Revestimientos 1
Apunte de clase Pisos y Revestimientos 1Gonella
 
CALCULADORA CIENTIFICA - ANALISIS DE ARTEFACTOS
CALCULADORA CIENTIFICA - ANALISIS DE ARTEFACTOSCALCULADORA CIENTIFICA - ANALISIS DE ARTEFACTOS
CALCULADORA CIENTIFICA - ANALISIS DE ARTEFACTOSdarlingreserved
 
Descripción del Proceso de corte y soldadura
Descripción del Proceso de corte y soldaduraDescripción del Proceso de corte y soldadura
Descripción del Proceso de corte y soldaduraJose Sanchez
 
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).hebegris04
 
CARTEL CONMEMORATIVO DEL ECLIPSE SOLAR 2024 EN NAZAS , DURANGO. Autor y dise...
CARTEL CONMEMORATIVO DEL ECLIPSE SOLAR 2024 EN NAZAS , DURANGO.  Autor y dise...CARTEL CONMEMORATIVO DEL ECLIPSE SOLAR 2024 EN NAZAS , DURANGO.  Autor y dise...
CARTEL CONMEMORATIVO DEL ECLIPSE SOLAR 2024 EN NAZAS , DURANGO. Autor y dise...JAVIER SOLIS NOYOLA
 
La-cosmovision-del-curriculo-educativo-en-Venezuela (1).pptx
La-cosmovision-del-curriculo-educativo-en-Venezuela (1).pptxLa-cosmovision-del-curriculo-educativo-en-Venezuela (1).pptx
La-cosmovision-del-curriculo-educativo-en-Venezuela (1).pptxMAURICIO329243
 
Actividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 EducacionActividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 Educacionviviantorres91
 

Último (20)

LOS AMBIENTALISTAS todo por un mundo mejor
LOS AMBIENTALISTAS todo por un mundo mejorLOS AMBIENTALISTAS todo por un mundo mejor
LOS AMBIENTALISTAS todo por un mundo mejor
 
Acuerdo segundo periodo - Grado Sexto.pptx
Acuerdo segundo periodo - Grado Sexto.pptxAcuerdo segundo periodo - Grado Sexto.pptx
Acuerdo segundo periodo - Grado Sexto.pptx
 
Si cuidamos el mundo, tendremos un mundo mejor.
Si cuidamos el mundo, tendremos un mundo mejor.Si cuidamos el mundo, tendremos un mundo mejor.
Si cuidamos el mundo, tendremos un mundo mejor.
 
ENSEÑAR ACUIDAR EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
ENSEÑAR ACUIDAR  EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.ENSEÑAR ACUIDAR  EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
ENSEÑAR ACUIDAR EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
 
Sesión ¿Amor o egoísmo? Esa es la cuestión
Sesión  ¿Amor o egoísmo? Esa es la cuestiónSesión  ¿Amor o egoísmo? Esa es la cuestión
Sesión ¿Amor o egoísmo? Esa es la cuestión
 
Descripción Und Curso Inf.Médica - Diseño ExpAprendizaje2.pdf
Descripción Und Curso Inf.Médica - Diseño ExpAprendizaje2.pdfDescripción Und Curso Inf.Médica - Diseño ExpAprendizaje2.pdf
Descripción Und Curso Inf.Médica - Diseño ExpAprendizaje2.pdf
 
Acuerdo segundo periodo 2024 - Octavo.pptx
Acuerdo segundo periodo 2024 - Octavo.pptxAcuerdo segundo periodo 2024 - Octavo.pptx
Acuerdo segundo periodo 2024 - Octavo.pptx
 
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
 
Explicación del Modelo de Stephen Toulmin para elaborar argumentos
Explicación del  Modelo de Stephen Toulmin para elaborar argumentosExplicación del  Modelo de Stephen Toulmin para elaborar argumentos
Explicación del Modelo de Stephen Toulmin para elaborar argumentos
 
Apunte de clase Pisos y Revestimientos 3
Apunte de clase Pisos y Revestimientos 3Apunte de clase Pisos y Revestimientos 3
Apunte de clase Pisos y Revestimientos 3
 
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdfMEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
MEDIACIÓN INTERNACIONAL MF 1445 vl45.pdf
 
Catálogo general de libros de la Editorial Albatros
Catálogo general de libros de la Editorial AlbatrosCatálogo general de libros de la Editorial Albatros
Catálogo general de libros de la Editorial Albatros
 
Apunte de clase Pisos y Revestimientos 1
Apunte de clase Pisos y Revestimientos 1Apunte de clase Pisos y Revestimientos 1
Apunte de clase Pisos y Revestimientos 1
 
CALCULADORA CIENTIFICA - ANALISIS DE ARTEFACTOS
CALCULADORA CIENTIFICA - ANALISIS DE ARTEFACTOSCALCULADORA CIENTIFICA - ANALISIS DE ARTEFACTOS
CALCULADORA CIENTIFICA - ANALISIS DE ARTEFACTOS
 
Descripción del Proceso de corte y soldadura
Descripción del Proceso de corte y soldaduraDescripción del Proceso de corte y soldadura
Descripción del Proceso de corte y soldadura
 
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
HISTORIETA: AVENTURAS VERDES (ECOLOGÍA).
 
CARTEL CONMEMORATIVO DEL ECLIPSE SOLAR 2024 EN NAZAS , DURANGO. Autor y dise...
CARTEL CONMEMORATIVO DEL ECLIPSE SOLAR 2024 EN NAZAS , DURANGO.  Autor y dise...CARTEL CONMEMORATIVO DEL ECLIPSE SOLAR 2024 EN NAZAS , DURANGO.  Autor y dise...
CARTEL CONMEMORATIVO DEL ECLIPSE SOLAR 2024 EN NAZAS , DURANGO. Autor y dise...
 
La-cosmovision-del-curriculo-educativo-en-Venezuela (1).pptx
La-cosmovision-del-curriculo-educativo-en-Venezuela (1).pptxLa-cosmovision-del-curriculo-educativo-en-Venezuela (1).pptx
La-cosmovision-del-curriculo-educativo-en-Venezuela (1).pptx
 
Actividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 EducacionActividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 Educacion
 
¿Amor o egoísmo? Esa es la cuestión.pptx
¿Amor o egoísmo? Esa es la cuestión.pptx¿Amor o egoísmo? Esa es la cuestión.pptx
¿Amor o egoísmo? Esa es la cuestión.pptx
 

REDES NEUROANLES ELMAN DEMO

  • 1. REDES ELMAN La red Elman tiene neuronas "tansig" en su capa recurrente y neuronas "purelin" en su capa de salida. Esta combinación de funciones de transferencia le permite a este tipo de redes aproximar cualquier función con una precisión arbitraria. El único requerimiento es que en la capa oculta deben existir bastantes neuronas. Debido a que una red Elman puede almacenar información que se puede referenciar en un futuro, ésta puede aprender tanto patrones temporales como patrones espaciales. Creando una red Elman Una red Elman con 2 o más capas, puede ser creada con la función newelm. Con esta función se crea e inicializa una red ELMAN. Sintaxis: net = newelm(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF) donde: • PR : indica el rango de los vectores de entrada y es de la forma: [min max] min es el limite inferior y max el superior. • Si, i=1,...,N1 : es el número de neuronas en la i-ésima capa. • TFi, i=1,...,N1 : es el tipo de función de transferencia en la i-ésima capa. Su valor por default es ‘tansig’. • BTF : indica cual es la función de entrenamiento que se utilizará para entrenar la red. La función por default es ‘traingdx’. Los valores posibles son los siguientes : traingd - Gradient descent backpropagation. traingdm - Gradient descent w/momentum backpropagation. traingda - Gradient descent w/adaptive lr backpropagation. traingdx - Gradient descent w/momentum & adaptive lr backpropagation. • BLF : indica que tipo de aprendizaje(función) será usado. Su valor por default es ‘learngdm’. Sus valores posibles son: learnbp - Backpropagation learning rule. learnbpm - Backpropagation learning rule with momentum. • PF : indica que función va a interpretar el error cuadrático medio. Su valor por default es ‘mse’. Algunos de sus valores posibles son: mse - Mean squared error performance function. msereg - Mean squared error w/reg performance function. dmse - Mean squared error performance derivatives function. dmsereg - Mean squared error w/reg performance derivative function. Entrenando una red Elman: La función para entrenar una red neuronal en general es train. TRAIN entrena una red NET de acuerdo a NET.trainFcn y NET.trainParam. Algunos de estos parámetros se asignan en newelm y en caso de que no se den se toman los que tienen por default. NET.trainFcn es el que indica que tipo de red se va a entrenar, debido a que train puede entrenar cualquier tipo de red. Para las redes Elman el valor de este parámetro es inicializado en Newelm. Como ejemplo observe como se inicializan algunos valores: net = newelm([-2 2],[10 1],{'tansig','purelin'},'traingdx'); net.trainParam.epochs = 500; net.trainParam.show = 5; net.trainParam.goal = 0.01; net.performFcn = 'sse';
  • 2. La sintaxis de train es: [net,tr] = train(NET,P,T,Pi,Ai) donde: NET : es la neurona a ser entrenada. P: Son los vectores de entrada. T : Son los vectores objetivo. Pi y Ai son condiciones de retardo. La función regresa la nueva red entrenada y opcionalmente información del entrenamiento tal como el número de epochs el error alcanzado. Tanto los vectores de entrada como los objetivo, tienen que estar en cierta forma que se llama arreglo de celdas, por lo que se utiliza la función con2seq para convertirlos a esta forma y así poder pasarlos como parámetros a train. Ejemplo: [net,tr] = train(net,Pentrada,Tobjetivo); Simulación de una red Elman: Finalmente para simular una red neuronal se utiliza sim. Su sintaxis es: [Y,Pf,Af] = sim(net,P,Pi,Ai) net : es la red que se utilizará para la simulación. P : Las entradas. Vectores de entrada. Pi y Ai: son condiciones de retardo iniciales. Regresa: Y : Salidas. Una aproximación a los vectores objetivo. Pf y Af son condiciones de retardo finales. Pi, Ai, Pf, y Af son opcionales y solo son usados para redes que tienen retardo en la entrada o en las capas. Ejemplo: Salidas = sim(net,Pentradas); DETECCION DE AMPLITUD (APPELM1) Usando las funciones NEWELM, TRAIN y SIM, una red ELMAN es entrenada para obtener la amplitud de una onda senoidal que esta siendo presentada en el tiempo. Las entradas de la red son ondas senoidales con diferente amplitud. Se puede observar que sen(x), 2*sen(x),..., n*sen(x) son funciones diferentes y que la red Elman lo que realmente esta haciendo es identificar funciones, ya que cuando se presente una función de entrada, la red debe presentar una única salida para dicha entrada. Continuando con el ejemplo, una vez inicializada y entrenada la red se puede observar que no se alcanzó el mínimo error deseado, por lo que se recomiendan tres cosas por hacer: 1.- Más entremamiento aumentando el n£mero de epochs. 2.- Tratar con pesos y bias iniciales diferentes. 3.- Utilizar más neuronas en la capa oculta o recurrente. La respuesta que tiene la red con las funciones con las que fue entrenada es muy buena, pero cuando se le presentan funciones con las que no fue entrenada no es muy buena. No generaliza muy bien.
  • 3. Conclusiones y recomendaciones: • La red Elman puede aprender a reconocer patrones variantes en el tiempo. • En este ejemplos la red hizo un trabajo bastante bueno con solo 10 neuronas en la capa recurrente y 500 epochs. • Más neuronas recurrentes y tiempos mayores de entrenamientos pueden ser utilizados para incrementar la precisión de la red. • Entrenando la red con m s funciones causar una red que generaliza mucho mejor.