SlideShare una empresa de Scribd logo
1 de 2
Descargar para leer sin conexión
REDES RECURRENTES


La red recurrente Elman es una red de retropropagación de dos capas, con la adición de
una retroalimentación de la salida de la capa oculta con la entrada de la red (fig. 1). Esta
retroalimentación le permite a la red generar y detectar patrones variantes en el tiempo. La
red Elman tiene como función de activación el Tansigmoidal en su capa oculta y la función
lineal en su capa de salida lo que le permite aproximar cualquier función (Con un numero
finito de discontinuidades ) y cierta exactitud siempre que se tengan suficientes neuronas en
la capa oculta para el procesamiento.

La retroalimentación contiene un retraso que permite retener los valores del primer paso
para usarlos en el actual paso de procesamiento. Debido a que la red puede grabar
información para futura referencia es capaz de aprender patrones temporales tan bien como
patrones espaciales además de generarlos.




La función simuelm simula las redes Elman. Toma los pesos y los bias como argumentos y
la matriz de entradas P. La función puede ser usada para regresar las matrices de salida de
las dos capas o solo de una como ese muestra a continuación:

                        [A1 , A2] = simuelm( P , W1 , b1 , W2 , b2)
                           A2 = simuelm( P , W1 , b1 , W2 , b2)


INICIANDO LA RED ELMAN

La función initelm genera los pesos y bias iniciales para la red Elman. Esta función toma la
matriz de vectores de entrada P, el cual contiene información del numero y el rango de las
entradas, el numero de neuronas recurrentes s1 y el numero de neuronas de salida s2 como
argumento.
                         [W1 , b1 , W2 , b2] = initelm(P , s1 , s2)
La matriz P debe tener tantos renglones como entradas de la red a diseñar, es importante
que cada renglón tenga al menos dos elementos: el valor mínimo y el valor máximo que la
entrada va ha tener. Tener límites incorrectos no hace a la red inservible, pero afecta la
velocidad de aprendizaje.
Esta función también puede ser llamada con el vector de clases en vez del numero de
neuronas de salida.
                          [W1 , b1 , W2 , b2] = initelm(P , s1 , T)


ENTRENAMIENTO DE LA RED ELMAN

La función trainelm entrena la red Elman usando retropropagación (backpropagation) con
momento y con una taza de aprendizaje adaptativa (learning rate). Los argumentos que
recibe son los pesos y bias junto con la matriz de entradas y el vector de clases. El
entrenamiento regresa los nuevos pesos y bias.

                [W1 , b1 , W2 , b2] = trainelm( P , W1 , b1 , W2 , b2 , P , T)

trainelm también puede ser llamada con un vector adicional Tp que es usado para sobre
escribir los parametros de entrenamiento. Estos parámetros se listan enseguida.

             [W1 , b1 , W2 , b2] = trainelm( P , W1 , b1 , W2 , b2 , P , T , Tp)

   Tp(1) – Numero de iteraciones entre cada exhibición (default = 5)
   Tp(2) – Numero máximo de iteraciones para el entrenamiento (default = 500)
   Tp(3) – Mínimo error (default = 0.01)
   Tp(4) – La taza de aprendizaje inicial (defaul = 0.001)
   Tp(5) – Radio de crecimiento de la taza de aprendizaje (default = 1.05)
   Tp(6) – Radio de decrecimiento de la taza de aprendizaje (default = 0.7)
   Tp(7) – Momento (default = 0.95)
   Tp(8) – Radio de error (default = 1.04)

Esta función grafica el error y mantiene informado el avance del entrenamiento en la
ventana de comandos además de que también puede regresar el numero de ciclos de
entrenamiento ocurridos te y el vector que registra los errores que se tenían durante el
entrenamiento tr.

[W1 , b1 , W2 , b2 , te , tr] = trainelm( P , W1 , b1 , W2 , b2 , P , T , Tp)

Más contenido relacionado

La actualidad más candente

Llamadas a subalgoritmos
Llamadas a subalgoritmosLlamadas a subalgoritmos
Llamadas a subalgoritmosAbrirllave
 
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIAREDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIAESCOM
 
MUESTREO Y RECONSTRUCCION DE SEÑALES
MUESTREO Y RECONSTRUCCION DE SEÑALESMUESTREO Y RECONSTRUCCION DE SEÑALES
MUESTREO Y RECONSTRUCCION DE SEÑALESLinda Yesenia
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINEESCOM
 
Formato Para La Captura Y DescripcióN De Requerimientos
Formato Para La Captura  Y DescripcióN De RequerimientosFormato Para La Captura  Y DescripcióN De Requerimientos
Formato Para La Captura Y DescripcióN De RequerimientosJosse Perez
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de AprendizajeESCOM
 
Tema 2 teoría de la información y capacidad de canal
Tema 2   teoría de la información y capacidad de canalTema 2   teoría de la información y capacidad de canal
Tema 2 teoría de la información y capacidad de canalJosé Ramón Cerquides Bueno
 
Búsqueda Primero el Mejor
Búsqueda Primero el MejorBúsqueda Primero el Mejor
Búsqueda Primero el MejorTutor4uDev
 
Variance threshold based feature selection method
Variance threshold based feature selection methodVariance threshold based feature selection method
Variance threshold based feature selection methodNurul Amin Choudhury
 
Desarrollo momento 3
Desarrollo momento 3Desarrollo momento 3
Desarrollo momento 3Jose Rojas
 
Tecnicas de modulacion de pulsos
Tecnicas de modulacion de pulsosTecnicas de modulacion de pulsos
Tecnicas de modulacion de pulsosNathashaLeto
 
Lecture 7: Hidden Markov Models (HMMs)
Lecture 7: Hidden Markov Models (HMMs)Lecture 7: Hidden Markov Models (HMMs)
Lecture 7: Hidden Markov Models (HMMs)Marina Santini
 
backpropagation in neural networks
backpropagation in neural networksbackpropagation in neural networks
backpropagation in neural networksAkash Goel
 
Convolucion Tiempo Discreto
Convolucion Tiempo DiscretoConvolucion Tiempo Discreto
Convolucion Tiempo Discretoguest1e528d
 
Latches y flip flops
Latches y flip flopsLatches y flip flops
Latches y flip flopsJimmy Osores
 
Programación Orientada a Objetos en Java - Parte I 2015
Programación Orientada a Objetos en Java - Parte I 2015Programación Orientada a Objetos en Java - Parte I 2015
Programación Orientada a Objetos en Java - Parte I 2015Renny Batista
 
Laptop Price Prediction system
Laptop Price Prediction systemLaptop Price Prediction system
Laptop Price Prediction systemMDRIAZHASAN
 

La actualidad más candente (20)

Llamadas a subalgoritmos
Llamadas a subalgoritmosLlamadas a subalgoritmos
Llamadas a subalgoritmos
 
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIAREDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
 
MUESTREO Y RECONSTRUCCION DE SEÑALES
MUESTREO Y RECONSTRUCCION DE SEÑALESMUESTREO Y RECONSTRUCCION DE SEÑALES
MUESTREO Y RECONSTRUCCION DE SEÑALES
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
 
Memoria dinamica
Memoria dinamicaMemoria dinamica
Memoria dinamica
 
Formato Para La Captura Y DescripcióN De Requerimientos
Formato Para La Captura  Y DescripcióN De RequerimientosFormato Para La Captura  Y DescripcióN De Requerimientos
Formato Para La Captura Y DescripcióN De Requerimientos
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 
Tema 2 teoría de la información y capacidad de canal
Tema 2   teoría de la información y capacidad de canalTema 2   teoría de la información y capacidad de canal
Tema 2 teoría de la información y capacidad de canal
 
Búsqueda Primero el Mejor
Búsqueda Primero el MejorBúsqueda Primero el Mejor
Búsqueda Primero el Mejor
 
Variance threshold based feature selection method
Variance threshold based feature selection methodVariance threshold based feature selection method
Variance threshold based feature selection method
 
Desarrollo momento 3
Desarrollo momento 3Desarrollo momento 3
Desarrollo momento 3
 
Tecnicas de modulacion de pulsos
Tecnicas de modulacion de pulsosTecnicas de modulacion de pulsos
Tecnicas de modulacion de pulsos
 
Arreglos de registros
Arreglos de registros Arreglos de registros
Arreglos de registros
 
Lecture 7: Hidden Markov Models (HMMs)
Lecture 7: Hidden Markov Models (HMMs)Lecture 7: Hidden Markov Models (HMMs)
Lecture 7: Hidden Markov Models (HMMs)
 
Convolucion
ConvolucionConvolucion
Convolucion
 
backpropagation in neural networks
backpropagation in neural networksbackpropagation in neural networks
backpropagation in neural networks
 
Convolucion Tiempo Discreto
Convolucion Tiempo DiscretoConvolucion Tiempo Discreto
Convolucion Tiempo Discreto
 
Latches y flip flops
Latches y flip flopsLatches y flip flops
Latches y flip flops
 
Programación Orientada a Objetos en Java - Parte I 2015
Programación Orientada a Objetos en Java - Parte I 2015Programación Orientada a Objetos en Java - Parte I 2015
Programación Orientada a Objetos en Java - Parte I 2015
 
Laptop Price Prediction system
Laptop Price Prediction systemLaptop Price Prediction system
Laptop Price Prediction system
 

Destacado

Redes neuronales artificiales supervisadas y no supervisadas
Redes neuronales artificiales supervisadas y no supervisadasRedes neuronales artificiales supervisadas y no supervisadas
Redes neuronales artificiales supervisadas y no supervisadasUNIVERSIDAD SANTA MARIA
 
Visitando a literatura em redes neurais recorrentes
Visitando a literatura em redes neurais recorrentesVisitando a literatura em redes neurais recorrentes
Visitando a literatura em redes neurais recorrentesDiogenes Freitas
 
Recurrent Neural Networks. Part 1: Theory
Recurrent Neural Networks. Part 1: TheoryRecurrent Neural Networks. Part 1: Theory
Recurrent Neural Networks. Part 1: TheoryAndrii Gakhov
 
A Brief Introduction on Recurrent Neural Network and Its Application
A Brief Introduction on Recurrent Neural Network and Its ApplicationA Brief Introduction on Recurrent Neural Network and Its Application
A Brief Introduction on Recurrent Neural Network and Its ApplicationXiaohu ZHU
 

Destacado (6)

Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales artificiales supervisadas y no supervisadas
Redes neuronales artificiales supervisadas y no supervisadasRedes neuronales artificiales supervisadas y no supervisadas
Redes neuronales artificiales supervisadas y no supervisadas
 
Visitando a literatura em redes neurais recorrentes
Visitando a literatura em redes neurais recorrentesVisitando a literatura em redes neurais recorrentes
Visitando a literatura em redes neurais recorrentes
 
Aprendizaje Redes Neuronales
Aprendizaje Redes NeuronalesAprendizaje Redes Neuronales
Aprendizaje Redes Neuronales
 
Recurrent Neural Networks. Part 1: Theory
Recurrent Neural Networks. Part 1: TheoryRecurrent Neural Networks. Part 1: Theory
Recurrent Neural Networks. Part 1: Theory
 
A Brief Introduction on Recurrent Neural Network and Its Application
A Brief Introduction on Recurrent Neural Network and Its ApplicationA Brief Introduction on Recurrent Neural Network and Its Application
A Brief Introduction on Recurrent Neural Network and Its Application
 

Similar a REDES NEURONALES RECURRENTES Elman

REDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOREDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOESCOM
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2jcbp_peru
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2jcbp_peru
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlabInnoVacompu
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGESCOM
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificialesSpacetoshare
 

Similar a REDES NEURONALES RECURRENTES Elman (20)

Boletin3
Boletin3Boletin3
Boletin3
 
REDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOREDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMO
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Perceptrón multicapa entrenamienta en MatLab
Perceptrón multicapa entrenamienta en MatLabPerceptrón multicapa entrenamienta en MatLab
Perceptrón multicapa entrenamienta en MatLab
 
Actividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelynActividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelyn
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 

Último

5º SOY LECTOR PART1- MD EDUCATIVO.pdfde
5º SOY LECTOR PART1- MD  EDUCATIVO.pdfde5º SOY LECTOR PART1- MD  EDUCATIVO.pdfde
5º SOY LECTOR PART1- MD EDUCATIVO.pdfdeBelnRosales2
 
Descripción del Proceso de corte y soldadura
Descripción del Proceso de corte y soldaduraDescripción del Proceso de corte y soldadura
Descripción del Proceso de corte y soldaduraJose Sanchez
 
ENSEÑAR ACUIDAR EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
ENSEÑAR ACUIDAR  EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.ENSEÑAR ACUIDAR  EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
ENSEÑAR ACUIDAR EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.karlazoegarciagarcia
 
CARTEL DE BIENVENIDA AL ECLIPSE DE SOL A LA CIUDAD DE TORREON. Autor y diseña...
CARTEL DE BIENVENIDA AL ECLIPSE DE SOL A LA CIUDAD DE TORREON. Autor y diseña...CARTEL DE BIENVENIDA AL ECLIPSE DE SOL A LA CIUDAD DE TORREON. Autor y diseña...
CARTEL DE BIENVENIDA AL ECLIPSE DE SOL A LA CIUDAD DE TORREON. Autor y diseña...JAVIER SOLIS NOYOLA
 
'Diseño Curricular Misiones 2022 (2).pdf
'Diseño Curricular Misiones 2022 (2).pdf'Diseño Curricular Misiones 2022 (2).pdf
'Diseño Curricular Misiones 2022 (2).pdfJuana aranda
 
tema5 2eso 2024 Europa entre los siglos XII y XV
tema5 2eso 2024 Europa entre los siglos XII y XVtema5 2eso 2024 Europa entre los siglos XII y XV
tema5 2eso 2024 Europa entre los siglos XII y XVChema R.
 
revista dxn 2024.pdf--------------------
revista dxn 2024.pdf--------------------revista dxn 2024.pdf--------------------
revista dxn 2024.pdf--------------------fiorevega666
 
Concursos 2024 para educacion por el trabajo.pptx
Concursos 2024  para educacion por el trabajo.pptxConcursos 2024  para educacion por el trabajo.pptx
Concursos 2024 para educacion por el trabajo.pptxCarlosCornejo85
 
Actividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 EducacionActividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 Educacionviviantorres91
 
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptxfotofamilia008
 
EL MOVIMIENTO Y LA ENERGÍA EN LOS CUERPOS.pptx
EL MOVIMIENTO Y LA ENERGÍA EN LOS CUERPOS.pptxEL MOVIMIENTO Y LA ENERGÍA EN LOS CUERPOS.pptx
EL MOVIMIENTO Y LA ENERGÍA EN LOS CUERPOS.pptxduquemariact
 
Filosofía del gobierno del general Alfaro
Filosofía del gobierno del general AlfaroFilosofía del gobierno del general Alfaro
Filosofía del gobierno del general AlfaroJosé Luis Palma
 
Apunte de clase Pisos y Revestimientos 2
Apunte de clase Pisos y Revestimientos 2Apunte de clase Pisos y Revestimientos 2
Apunte de clase Pisos y Revestimientos 2Gonella
 

Último (20)

5º SOY LECTOR PART1- MD EDUCATIVO.pdfde
5º SOY LECTOR PART1- MD  EDUCATIVO.pdfde5º SOY LECTOR PART1- MD  EDUCATIVO.pdfde
5º SOY LECTOR PART1- MD EDUCATIVO.pdfde
 
Descripción del Proceso de corte y soldadura
Descripción del Proceso de corte y soldaduraDescripción del Proceso de corte y soldadura
Descripción del Proceso de corte y soldadura
 
Acuerdo segundo periodo 2024 - Octavo.pptx
Acuerdo segundo periodo 2024 - Octavo.pptxAcuerdo segundo periodo 2024 - Octavo.pptx
Acuerdo segundo periodo 2024 - Octavo.pptx
 
ENSEÑAR ACUIDAR EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
ENSEÑAR ACUIDAR  EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.ENSEÑAR ACUIDAR  EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
ENSEÑAR ACUIDAR EL MEDIO AMBIENTE ES ENSEÑAR A VALORAR LA VIDA.
 
CARTEL DE BIENVENIDA AL ECLIPSE DE SOL A LA CIUDAD DE TORREON. Autor y diseña...
CARTEL DE BIENVENIDA AL ECLIPSE DE SOL A LA CIUDAD DE TORREON. Autor y diseña...CARTEL DE BIENVENIDA AL ECLIPSE DE SOL A LA CIUDAD DE TORREON. Autor y diseña...
CARTEL DE BIENVENIDA AL ECLIPSE DE SOL A LA CIUDAD DE TORREON. Autor y diseña...
 
'Diseño Curricular Misiones 2022 (2).pdf
'Diseño Curricular Misiones 2022 (2).pdf'Diseño Curricular Misiones 2022 (2).pdf
'Diseño Curricular Misiones 2022 (2).pdf
 
Acuerdo segundo periodo - Grado Noveno.pptx
Acuerdo segundo periodo - Grado Noveno.pptxAcuerdo segundo periodo - Grado Noveno.pptx
Acuerdo segundo periodo - Grado Noveno.pptx
 
Sesión La guerra detrás de todas las guerras
Sesión  La guerra detrás de todas las guerrasSesión  La guerra detrás de todas las guerras
Sesión La guerra detrás de todas las guerras
 
tema5 2eso 2024 Europa entre los siglos XII y XV
tema5 2eso 2024 Europa entre los siglos XII y XVtema5 2eso 2024 Europa entre los siglos XII y XV
tema5 2eso 2024 Europa entre los siglos XII y XV
 
revista dxn 2024.pdf--------------------
revista dxn 2024.pdf--------------------revista dxn 2024.pdf--------------------
revista dxn 2024.pdf--------------------
 
¿Amor o egoísmo? Esa es la cuestión.pptx
¿Amor o egoísmo? Esa es la cuestión.pptx¿Amor o egoísmo? Esa es la cuestión.pptx
¿Amor o egoísmo? Esa es la cuestión.pptx
 
Concursos 2024 para educacion por el trabajo.pptx
Concursos 2024  para educacion por el trabajo.pptxConcursos 2024  para educacion por el trabajo.pptx
Concursos 2024 para educacion por el trabajo.pptx
 
PPT La guerra detrás de todas las guerras
PPT La guerra detrás de todas las guerrasPPT La guerra detrás de todas las guerras
PPT La guerra detrás de todas las guerras
 
Actividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 EducacionActividades eclipse solar 2024 Educacion
Actividades eclipse solar 2024 Educacion
 
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
4° SEM23 ANEXOS DEL DOCENTE 2023-2024.pptx
 
AO TEATRO, COM ANTÓNIO MOTA! _
AO TEATRO, COM ANTÓNIO MOTA!             _AO TEATRO, COM ANTÓNIO MOTA!             _
AO TEATRO, COM ANTÓNIO MOTA! _
 
EL MOVIMIENTO Y LA ENERGÍA EN LOS CUERPOS.pptx
EL MOVIMIENTO Y LA ENERGÍA EN LOS CUERPOS.pptxEL MOVIMIENTO Y LA ENERGÍA EN LOS CUERPOS.pptx
EL MOVIMIENTO Y LA ENERGÍA EN LOS CUERPOS.pptx
 
Act#24 TDLab. Bosques Contacto Verde 2024
Act#24 TDLab. Bosques Contacto Verde 2024Act#24 TDLab. Bosques Contacto Verde 2024
Act#24 TDLab. Bosques Contacto Verde 2024
 
Filosofía del gobierno del general Alfaro
Filosofía del gobierno del general AlfaroFilosofía del gobierno del general Alfaro
Filosofía del gobierno del general Alfaro
 
Apunte de clase Pisos y Revestimientos 2
Apunte de clase Pisos y Revestimientos 2Apunte de clase Pisos y Revestimientos 2
Apunte de clase Pisos y Revestimientos 2
 

REDES NEURONALES RECURRENTES Elman

  • 1. REDES RECURRENTES La red recurrente Elman es una red de retropropagación de dos capas, con la adición de una retroalimentación de la salida de la capa oculta con la entrada de la red (fig. 1). Esta retroalimentación le permite a la red generar y detectar patrones variantes en el tiempo. La red Elman tiene como función de activación el Tansigmoidal en su capa oculta y la función lineal en su capa de salida lo que le permite aproximar cualquier función (Con un numero finito de discontinuidades ) y cierta exactitud siempre que se tengan suficientes neuronas en la capa oculta para el procesamiento. La retroalimentación contiene un retraso que permite retener los valores del primer paso para usarlos en el actual paso de procesamiento. Debido a que la red puede grabar información para futura referencia es capaz de aprender patrones temporales tan bien como patrones espaciales además de generarlos. La función simuelm simula las redes Elman. Toma los pesos y los bias como argumentos y la matriz de entradas P. La función puede ser usada para regresar las matrices de salida de las dos capas o solo de una como ese muestra a continuación: [A1 , A2] = simuelm( P , W1 , b1 , W2 , b2) A2 = simuelm( P , W1 , b1 , W2 , b2) INICIANDO LA RED ELMAN La función initelm genera los pesos y bias iniciales para la red Elman. Esta función toma la matriz de vectores de entrada P, el cual contiene información del numero y el rango de las entradas, el numero de neuronas recurrentes s1 y el numero de neuronas de salida s2 como argumento. [W1 , b1 , W2 , b2] = initelm(P , s1 , s2)
  • 2. La matriz P debe tener tantos renglones como entradas de la red a diseñar, es importante que cada renglón tenga al menos dos elementos: el valor mínimo y el valor máximo que la entrada va ha tener. Tener límites incorrectos no hace a la red inservible, pero afecta la velocidad de aprendizaje. Esta función también puede ser llamada con el vector de clases en vez del numero de neuronas de salida. [W1 , b1 , W2 , b2] = initelm(P , s1 , T) ENTRENAMIENTO DE LA RED ELMAN La función trainelm entrena la red Elman usando retropropagación (backpropagation) con momento y con una taza de aprendizaje adaptativa (learning rate). Los argumentos que recibe son los pesos y bias junto con la matriz de entradas y el vector de clases. El entrenamiento regresa los nuevos pesos y bias. [W1 , b1 , W2 , b2] = trainelm( P , W1 , b1 , W2 , b2 , P , T) trainelm también puede ser llamada con un vector adicional Tp que es usado para sobre escribir los parametros de entrenamiento. Estos parámetros se listan enseguida. [W1 , b1 , W2 , b2] = trainelm( P , W1 , b1 , W2 , b2 , P , T , Tp)  Tp(1) – Numero de iteraciones entre cada exhibición (default = 5)  Tp(2) – Numero máximo de iteraciones para el entrenamiento (default = 500)  Tp(3) – Mínimo error (default = 0.01)  Tp(4) – La taza de aprendizaje inicial (defaul = 0.001)  Tp(5) – Radio de crecimiento de la taza de aprendizaje (default = 1.05)  Tp(6) – Radio de decrecimiento de la taza de aprendizaje (default = 0.7)  Tp(7) – Momento (default = 0.95)  Tp(8) – Radio de error (default = 1.04) Esta función grafica el error y mantiene informado el avance del entrenamiento en la ventana de comandos además de que también puede regresar el numero de ciclos de entrenamiento ocurridos te y el vector que registra los errores que se tenían durante el entrenamiento tr. [W1 , b1 , W2 , b2 , te , tr] = trainelm( P , W1 , b1 , W2 , b2 , P , T , Tp)