SlideShare una empresa de Scribd logo
UNIDAD VI Redes de propagación hacia delante  y aprendizaje supervisado 6.3 RED de Retro-propagación 6.3.1  Modelo y Arquitectura de la Red. 6.3.2  Algoritmo  de Aprendizaje.
6.3 RED De Retro-propagación 6.3.1  Modelo Y Arquitectura De La Red
Multilayer Perceptron R – S 1  – S 2  – S 3   Network
Arquitectura general de una red de propagación hacia atrás
 
ARQUITECTURA DE LA RBP Esta red puede utilizarse para “Aproximar una función”.  Puede aproximar cualquier función con un numero finito de discontinuidades.
Introducción En 1986, Rumelhart, Hinton y Williams formalizaron un método para que una red neuronal  aprendiera  la relación que existe entre los patrones de entrada a la red y las salidas correspondientes, utilizando más niveles de neuronas que los que utilizó Rosenblatt para desarrollar el Perceptron.
Introducción La red Back-Propagation está basada en la generalización de la regla delta. Al igual que el Perceptron, ADALINE y MADALINE, la red Back-Propagation se caracteriza por tener una arquitectura en niveles y conexiones estrictamente hacia adelante entre las neuronas.  Utilizan aprendizaje supervisado.
¿En que consiste la RBP?  Consiste en un aprendizaje de un conjunto predefinido de pares de entradas-salidas dados como ejemplo, empleando un ciclo  propagación-adaptación  de dos fases.
FASES Primero .-  se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red, se va propagando a través de todas las capas superiores hasta generar una salida. Después  se compara el resultado obtenido en las neuronas de salida con la salida que se desea obtener y se calcula un valor del error para cada neurona de salida.
FASES Segundo .- estos errores se transmiten hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida, recibiendo el porcentaje de error aproximado a la participación de la neurona intermedia en la salida original.
La importancia de este algoritmo consiste en su capacidad de auto adaptar los pesos de las neuronas de las capas intermedias para aprender la  relación  que existe entre un conjunto de patrones dados como ejemplo y sus salidas correspondientes. Importancia
Ya entrenada la red se podrá aplicar esa misma relación ( terminado el entrenamiento ), a nuevos vectores de entrada con ruido o incompletos, dando una salida activa si la nueva entrada es parecida a las presentadas durante el aprendizaje. Generalización
Regla Delta Generalizada Es una extensión de la regla delta propuesta por Widrow (1960). Se usa en redes con capas intermedias con conexiones hacia delante y cuyas células tienen funciones de activación continuas.  Estas funciones continuas son no decrecientes y derivables (la función sigmoidal pertenece a este tipo de funciones).
Superficie de error El algoritmo utiliza una superficie de error asociada a la red, buscando el estado de mínimo error a través del camino descendente de la superficie del error.
Superficie de error
Estructura y aprendizaje Capa de entrada con n neuronas. Capa de salida con m neuronas. Al menos una capa oculta de neuronas. Cada neurona de una capa recibe entradas de todas las neuronas de la capa anterior y envía su salida a todas las neuronas de la capa posterior. No hay conexiones hacia atrás  ni laterales entre neuronas de la misma capa.
Control de la convergencia La velocidad de aprendizaje se controla mediante   . Normalmente, debe ser un número entre 0.05 y 0.25. Velocidad de convergencia El valor de    se aumenta a medida que disminuye el error. Añadir un momento (sumar una fracción del ajuste de peso anterior al ajuste actual).
Si una red deja de aprender: Realizar un cambio en el número de neuronas ocultas. Volver a empezar con un conjunto distinto de pesos.
BPN vs. PERCEPTRON La salida de BPN puede tomar valores entre 0 y 1; el perceptrón sólo toma 0 o 1. Perceptrón y BPN normalmente empiezan con un conjunto de pesos aleatorios. El método de la regla delta generalizada para ajustar pesos es el mismo que el de la regla delta utilizada en el perceptrón y ADALINE. BPN usa neuronas con función de activación continua.
MATLAB RED BACKPROPAGATION
MODELO DE UNA NEURONA SE PUEDEN CREAR Y SIMULAR CON: initff y  simuff. LAS FUNCIONES DE ENTRENAMIENTO SON: trainbp (normal), trainbpx (rápida), trainlm (más rapida, mucha memoria de PC).
FUNCION DE TRANSFERENCIA La función lonsig: La función logsig(n) genera salidas 0 y 1 para entradas a la red neuronal que van desde un valor negativo a positivo, infinito. También se pueden utilizar las funciones: tansig(n) y purelin(n).
Si la ultima capa de una RBP tiene neuronas con funciones sigmoides entonces las salidas de la red estarán limitadas a un rango pequeño. Pero si se utilizan funciones lineales,  entonces la salida de la red podrá tomar cualquier valor. FUNCION DE TRANSFERENCIA
DERIVADAS DE LAS F. T.´S En una RBP es importante el poder calcular las derivadas de cualquier función de transferencia utilizada. Las derivas de las funciones lonsig, tansig y purelin  son:  deltalog, deltatan y deltalin. Tansig(‘delta’) ans=deltatan
... La función “simuff “.- Simula una red feedforward. “ Simuff”  toma las entradas de la red, P;  los pesos, W; el umbral, b, y la función de transferencia para tres capas, y  regresa las salidas de cada capa. Por ejemplo para simular dos capas: [a1, a2]=simuff(p, W1, b1, ‘tansig’, W2, b2, purelin’)
... Para calcular las salidas de una red de una, dos y tres capas: a=simuff(p, W, b, ‘tansig’) [a1, a2]=simuff(p, W1,B1, ‘logsig’, W2, b2, ‘purelin’) [a1, a2, a3]=simuff(p, W1,B1, ‘tansig’, W2, b2, ‘logsig’, W3, b3, ‘purelin’) a2=simuff(p, W1, b1, ‘tansig’, W2, b2, ‘purelin’)
INICIALIZACIÓN Para crear una red de dos capas con ocho neuronas ocultas tansig y cuatro neuronas de salida purelin, se tiene: [W1,b1,W2,b2]=initff(P,8, ‘tansig’, 4 ‘purelin’) donde es importante que P contenga los limites mínimo y máximo de cada entrada para que así los mejores W y b sean calculados.
INICIALIZACIÓN [W1,b1,W2,b2]=initff(P,5,’tansig’); Por ejemplo, una red de una capa con cinco neuronas puede tener dos entradas, una de las cuales siempre tiene valores en el intervalo [-10,+10], y la otra en [0,5]. [W1,b1,W2,b2]=initff(P, [-10 10; 0 5], ‘tansig’);
INICIALIZACIÓN Initff .-  Puede automáticamente establecer el numero de neuronas en la capa de salida al número de columnas de la matriz objetivo  T. [W1,b1,W2,b2]=initff(P,8,’tansig’,T,’purelin’);
Regla de Aprendizaje  de la BP Utilizada para entrenar redes no lineales multicapa se usa para llevar a cabo: La Aproximación de funciones, La asociación de patrones, y La clasificación de patrones.
Regla de Aprendizaje  de la BP Las derivadas del error (llamadas vectores delta) son calculadas para la capa de salida de la red, y entonces propagadas hacia atrás a través de la red hasta que los vectores delta están disponibles para cada capa oculta. Los cuales son calculados con las funciones: deltalin, deltalog,  y deltatan.
Regla de Aprendizaje  de la BP deltalin(a,e)   regresa el vector delta para una capa de salida de neuronas lineales con un vector de salida  a   y un vector de errores  e . deltalin(a,d,W)   regresa el vector delta para una capa oculta de neuronas lineales, con un vector de salida a, presedido de una capa con un vector delta d  y una matriz de pesos W.
Regla de Aprendizaje  de la BP deltalog(a,e)   Regresa deltas para una capa de salida logsig. deltalog(a,d,W)   Regresa deltas para una capa de oculta logsig. deltatan(a,e)   Regresa deltas para una capa de salida tansig. deltatan(a,d,W)   Regresa deltas para una capa de oculta tansig.
Regla de Aprendizaje  de la BP El cambio realizado en los pesos y los umbrales son calculados por  learnbp . El cambio lo realiza utilizando el vector delta de la capa, y su vector de la capa de entrada  p , de acuerdo a la regla:
6.3 RED De Retro-propagación 6.3.2  Algoritmo  de Aprendizaje y  Entrenamiento
Funcionamiento del Algoritmo de Aprendizaje Inicialice los pesos de la red con valores pequeños aleatorios. Presentar un patrón de entrada y especificar la salida deseada. Calcule los valores de ajuste de las unidades de salida en base al error observado.
Funcionamiento del Algoritmo de Aprendizaje Empezando por el nivel de salida, repita lo siguiente por cada nivel de la red, hasta llegar al primero de los niveles ocultos: Propague los valores de ajuste de regreso al nivel anterior. Actualice los pesos que hay entre los dos niveles. El proceso se repite hasta que el error resulta aceptablemente pequeño para cada uno de los patrones aprendidos.
Funcionamiento del Algoritmo de  Entrenamiento El método es exactamente el mismo que el de la regla delta utilizada en el Perceptrón y ADALINE.
Algoritmo de retropropagación Primer Paso
Algoritmo de retropropagación Segundo Paso
Algoritmo de retropropagación Tercer  Paso
Suponer que se quiere utilizar una  RNA (1-2-1)para aproximar la función :
Entrenamiento Si  p  = 1  y  entonces:
Entrenamiento La salida de la primera capa es:
Entrenamiento Mientras que la salida para la segunda capa es   :   Y se calcula el  error de la red que será de:
Entrenamiento Etapa 2  retropopagación de la sensibilidad.  Se necesita derivar las funciones de transferencia de las capas de la Red:
Entrenamiento El punto de inicio se encuentra en la segunda etapa   :   La sensibilidad de la primera capa se calcula  al retropropagar la sensibilidad desde la segunda capa :
Entrenamiento La etapa final del algoritmo conlleva la  actualización de los pesos   :
Entrenamiento La etapa final del algoritmo conlleva la  actualización de los pesos y umbrales,  para la capa de salida:
Entrenamiento Y para las capas ocultas:
Entrenamiento Estos resultados completan la primera iteración del algoritmo de la retropropagación. Se continuará iterando hasta que la diferencia entre la respuesta de la red y la función objetivo alcance algún nivel aceptable.
Consideraciones sobre el algoritmo de aprendizaje   Este  algoritmo   encuentra un valor mínimo de error (local o global) mediante pasos descendentes (gradiente descendente). Cada punto de la superficie corresponde a un conjunto de valores de los pesos de la red.
Consideraciones sobre el algoritmo de aprendizaje   Con el gradiente descendente, siempre que se realiza un cambio en todos los pesos de la red, se asegura el descenso por la superficie del error hasta encontrar el valle más cercano, lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo local de error.
Superficie de error
UNIDAD VI Redes de propagación hacia delante  y aprendizaje supervisado 6.4 Solución de problemas con MATLAB

Más contenido relacionado

La actualidad más candente

Tutorial de JFLAP
Tutorial de JFLAPTutorial de JFLAP
Tutorial de JFLAP
Sara Martínez Gómez
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
Levy GT
 
Recursividad directa e indirecta
Recursividad directa e indirectaRecursividad directa e indirecta
Recursividad directa e indirecta
Alvaro Enrique Ruano
 
Modelos de simulacion
Modelos de simulacionModelos de simulacion
Modelos de simulacion
francisxm
 
Los lenguajes aceptados para una maquina de turing
Los lenguajes aceptados para una maquina de turingLos lenguajes aceptados para una maquina de turing
Los lenguajes aceptados para una maquina de turing
Jonathan Bastidas
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
ESCOM
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
ESCOM
 
Modelos de Programacion
Modelos de ProgramacionModelos de Programacion
Modelos de Programacion
guideis_love
 
EJERCICIOS DE ALGORITMOS
EJERCICIOS DE ALGORITMOSEJERCICIOS DE ALGORITMOS
EJERCICIOS DE ALGORITMOS
1002pc3
 
1.4 software numerico
1.4 software numerico1.4 software numerico
1.4 software numerico
morenito9001
 
Metodo de Runge Kutta en Matlab
Metodo de Runge Kutta en Matlab Metodo de Runge Kutta en Matlab
Metodo de Runge Kutta en Matlab
Elvimar Alaya Garcia
 
Estados y transiciones de los procesos
Estados y transiciones de los procesosEstados y transiciones de los procesos
Estados y transiciones de los procesos
Alberto Ch
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
ESCOM
 
Estructura de Datos - Unidad 5 metodos de ordenamiento
Estructura de Datos - Unidad 5 metodos de ordenamientoEstructura de Datos - Unidad 5 metodos de ordenamiento
Estructura de Datos - Unidad 5 metodos de ordenamiento
José Antonio Sandoval Acosta
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Andrea Lezcano
 
Autómata de Pila
Autómata de Pila Autómata de Pila
Autómata de Pila
Edgar Jimenez
 
Automatas Finitos Deterministicos y No Deterministicos
Automatas Finitos Deterministicos y No DeterministicosAutomatas Finitos Deterministicos y No Deterministicos
Automatas Finitos Deterministicos y No Deterministicos
Rosviannis Barreiro
 
Simulacion de pi - monte carlo - buffon java
Simulacion de pi - monte carlo - buffon  javaSimulacion de pi - monte carlo - buffon  java
Simulacion de pi - monte carlo - buffon java
Nestor Paucar Carhuatanta
 
Ejercicios
EjerciciosEjercicios
Ejercicios
Ricardo Tejera
 
Tópicos Avanzados de Programación - Unidad 1 GUI
Tópicos Avanzados de Programación - Unidad 1 GUITópicos Avanzados de Programación - Unidad 1 GUI
Tópicos Avanzados de Programación - Unidad 1 GUI
José Antonio Sandoval Acosta
 

La actualidad más candente (20)

Tutorial de JFLAP
Tutorial de JFLAPTutorial de JFLAP
Tutorial de JFLAP
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Recursividad directa e indirecta
Recursividad directa e indirectaRecursividad directa e indirecta
Recursividad directa e indirecta
 
Modelos de simulacion
Modelos de simulacionModelos de simulacion
Modelos de simulacion
 
Los lenguajes aceptados para una maquina de turing
Los lenguajes aceptados para una maquina de turingLos lenguajes aceptados para una maquina de turing
Los lenguajes aceptados para una maquina de turing
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Modelos de Programacion
Modelos de ProgramacionModelos de Programacion
Modelos de Programacion
 
EJERCICIOS DE ALGORITMOS
EJERCICIOS DE ALGORITMOSEJERCICIOS DE ALGORITMOS
EJERCICIOS DE ALGORITMOS
 
1.4 software numerico
1.4 software numerico1.4 software numerico
1.4 software numerico
 
Metodo de Runge Kutta en Matlab
Metodo de Runge Kutta en Matlab Metodo de Runge Kutta en Matlab
Metodo de Runge Kutta en Matlab
 
Estados y transiciones de los procesos
Estados y transiciones de los procesosEstados y transiciones de los procesos
Estados y transiciones de los procesos
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 
Estructura de Datos - Unidad 5 metodos de ordenamiento
Estructura de Datos - Unidad 5 metodos de ordenamientoEstructura de Datos - Unidad 5 metodos de ordenamiento
Estructura de Datos - Unidad 5 metodos de ordenamiento
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Autómata de Pila
Autómata de Pila Autómata de Pila
Autómata de Pila
 
Automatas Finitos Deterministicos y No Deterministicos
Automatas Finitos Deterministicos y No DeterministicosAutomatas Finitos Deterministicos y No Deterministicos
Automatas Finitos Deterministicos y No Deterministicos
 
Simulacion de pi - monte carlo - buffon java
Simulacion de pi - monte carlo - buffon  javaSimulacion de pi - monte carlo - buffon  java
Simulacion de pi - monte carlo - buffon java
 
Ejercicios
EjerciciosEjercicios
Ejercicios
 
Tópicos Avanzados de Programación - Unidad 1 GUI
Tópicos Avanzados de Programación - Unidad 1 GUITópicos Avanzados de Programación - Unidad 1 GUI
Tópicos Avanzados de Programación - Unidad 1 GUI
 

Similar a RED NEURONAL Backpropagation

Boletin3
Boletin3Boletin3
Boletin3
Yin Quark
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
edeciofreitez
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
gueste7b261
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
c09271
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
hiperu2005
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
jcbp_peru
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
jcbp_peru
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
jcbp_peru
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
jcbp_peru
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
jcbp_peru
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
Michel Jraiche
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
jcbenitezp
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
jcbp_peru
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
ESCOM
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
Spacetoshare
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
InnoVacompu
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
Carlos Mendoza
 
Redes neuronales
Redes neuronalesRedes neuronales
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
ESCOM
 
REDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOREDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMO
ESCOM
 

Similar a RED NEURONAL Backpropagation (20)

Boletin3
Boletin3Boletin3
Boletin3
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
REDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOREDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMO
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
ESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
ESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
ESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
ESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
ESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
ESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
ESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
ESCOM
 
Art2
Art2Art2
Art2
ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
ESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
ESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 

Último

2. LA ENERGIA Y TIPOSGRADO SEXTO.SANTA TERESApptx
2. LA ENERGIA Y TIPOSGRADO SEXTO.SANTA TERESApptx2. LA ENERGIA Y TIPOSGRADO SEXTO.SANTA TERESApptx
2. LA ENERGIA Y TIPOSGRADO SEXTO.SANTA TERESApptx
nelsontobontrujillo
 
Enseñar a Nativos Digitales MP2 Ccesa007.pdf
Enseñar a Nativos Digitales MP2 Ccesa007.pdfEnseñar a Nativos Digitales MP2 Ccesa007.pdf
Enseñar a Nativos Digitales MP2 Ccesa007.pdf
Demetrio Ccesa Rayme
 
La Gatera de la Villa nº 52. Historia y patrimonio de Madrid.
La Gatera de la Villa nº 52. Historia y patrimonio de Madrid.La Gatera de la Villa nº 52. Historia y patrimonio de Madrid.
La Gatera de la Villa nº 52. Historia y patrimonio de Madrid.
La Gatera de la Villa
 
Escuelas Creativas Ken Robinson Ccesa007.pdf
Escuelas Creativas Ken Robinson   Ccesa007.pdfEscuelas Creativas Ken Robinson   Ccesa007.pdf
Escuelas Creativas Ken Robinson Ccesa007.pdf
Demetrio Ccesa Rayme
 
Como hacer que te pasen cosas buenas MRE3 Ccesa007.pdf
Como hacer que te pasen cosas buenas  MRE3  Ccesa007.pdfComo hacer que te pasen cosas buenas  MRE3  Ccesa007.pdf
Como hacer que te pasen cosas buenas MRE3 Ccesa007.pdf
Demetrio Ccesa Rayme
 
Lec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdfLec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdf
Alejandrino Halire Ccahuana
 
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Cátedra Banco Santander
 
Introducción a la seguridad básica (3 de julio de 2024)
Introducción a la seguridad básica (3 de julio de 2024)Introducción a la seguridad básica (3 de julio de 2024)
Introducción a la seguridad básica (3 de julio de 2024)
Cátedra Banco Santander
 
UT 3 LA PLANIFICACIÓN CURRICULAR DESDE LOS ELEMENTOS CURRICULARES.pptx
UT 3 LA PLANIFICACIÓN CURRICULAR DESDE LOS ELEMENTOS CURRICULARES.pptxUT 3 LA PLANIFICACIÓN CURRICULAR DESDE LOS ELEMENTOS CURRICULARES.pptx
UT 3 LA PLANIFICACIÓN CURRICULAR DESDE LOS ELEMENTOS CURRICULARES.pptx
Leonardo Salvatierra
 
Semana 1 Derecho a interponer recursos y reparación.
Semana 1 Derecho a interponer recursos y reparación.Semana 1 Derecho a interponer recursos y reparación.
Semana 1 Derecho a interponer recursos y reparación.
SergioAlfrediMontoya
 
Imagenes-en-la-Comunicacion-Didactica.pdf
Imagenes-en-la-Comunicacion-Didactica.pdfImagenes-en-la-Comunicacion-Didactica.pdf
Imagenes-en-la-Comunicacion-Didactica.pdf
ShimmyKoKoBop
 
Soluciones Examen de Selectividad. Geografía julio 2024 (Convocatoria Extraor...
Soluciones Examen de Selectividad. Geografía julio 2024 (Convocatoria Extraor...Soluciones Examen de Selectividad. Geografía julio 2024 (Convocatoria Extraor...
Soluciones Examen de Selectividad. Geografía julio 2024 (Convocatoria Extraor...
Juan Martín Martín
 
Curación de contenidos (1 de julio de 2024)
Curación de contenidos (1 de julio de 2024)Curación de contenidos (1 de julio de 2024)
Curación de contenidos (1 de julio de 2024)
Cátedra Banco Santander
 
EXPERIENCIA DE APRENDIZAJE N° 09 01 AL 19 DE JULIO.docx
EXPERIENCIA DE APRENDIZAJE N° 09 01 AL 19 DE JULIO.docxEXPERIENCIA DE APRENDIZAJE N° 09 01 AL 19 DE JULIO.docx
EXPERIENCIA DE APRENDIZAJE N° 09 01 AL 19 DE JULIO.docx
d33673240a
 
Aplicaciones móviles de grabación (2 de julio de 2024)
Aplicaciones móviles de grabación (2 de julio de 2024)Aplicaciones móviles de grabación (2 de julio de 2024)
Aplicaciones móviles de grabación (2 de julio de 2024)
Cátedra Banco Santander
 
DIBUJANDO CON MATEMÁTICA LA GIMNASIA OLÍMPICA. Por JAVIER SOLIS NOYOLA
DIBUJANDO CON MATEMÁTICA LA GIMNASIA OLÍMPICA. Por JAVIER SOLIS NOYOLADIBUJANDO CON MATEMÁTICA LA GIMNASIA OLÍMPICA. Por JAVIER SOLIS NOYOLA
DIBUJANDO CON MATEMÁTICA LA GIMNASIA OLÍMPICA. Por JAVIER SOLIS NOYOLA
JAVIER SOLIS NOYOLA
 
PLAN ANUAL DE TRABAJO (PAT) 2024 MINEDU PERÚ
PLAN ANUAL DE TRABAJO (PAT) 2024 MINEDU PERÚPLAN ANUAL DE TRABAJO (PAT) 2024 MINEDU PERÚ
PLAN ANUAL DE TRABAJO (PAT) 2024 MINEDU PERÚ
Ferrer17
 
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
nelsontobontrujillo
 
04. ESTADÍSTICA (comunicación) (J.C) 3.pptx
04. ESTADÍSTICA (comunicación) (J.C) 3.pptx04. ESTADÍSTICA (comunicación) (J.C) 3.pptx
04. ESTADÍSTICA (comunicación) (J.C) 3.pptx
jvcar1815
 
Transformando la Evaluacion con Inteligencia Artificial Ccesa007.pdf
Transformando la Evaluacion con Inteligencia Artificial  Ccesa007.pdfTransformando la Evaluacion con Inteligencia Artificial  Ccesa007.pdf
Transformando la Evaluacion con Inteligencia Artificial Ccesa007.pdf
Demetrio Ccesa Rayme
 

Último (20)

2. LA ENERGIA Y TIPOSGRADO SEXTO.SANTA TERESApptx
2. LA ENERGIA Y TIPOSGRADO SEXTO.SANTA TERESApptx2. LA ENERGIA Y TIPOSGRADO SEXTO.SANTA TERESApptx
2. LA ENERGIA Y TIPOSGRADO SEXTO.SANTA TERESApptx
 
Enseñar a Nativos Digitales MP2 Ccesa007.pdf
Enseñar a Nativos Digitales MP2 Ccesa007.pdfEnseñar a Nativos Digitales MP2 Ccesa007.pdf
Enseñar a Nativos Digitales MP2 Ccesa007.pdf
 
La Gatera de la Villa nº 52. Historia y patrimonio de Madrid.
La Gatera de la Villa nº 52. Historia y patrimonio de Madrid.La Gatera de la Villa nº 52. Historia y patrimonio de Madrid.
La Gatera de la Villa nº 52. Historia y patrimonio de Madrid.
 
Escuelas Creativas Ken Robinson Ccesa007.pdf
Escuelas Creativas Ken Robinson   Ccesa007.pdfEscuelas Creativas Ken Robinson   Ccesa007.pdf
Escuelas Creativas Ken Robinson Ccesa007.pdf
 
Como hacer que te pasen cosas buenas MRE3 Ccesa007.pdf
Como hacer que te pasen cosas buenas  MRE3  Ccesa007.pdfComo hacer que te pasen cosas buenas  MRE3  Ccesa007.pdf
Como hacer que te pasen cosas buenas MRE3 Ccesa007.pdf
 
Lec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdfLec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdf
 
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
 
Introducción a la seguridad básica (3 de julio de 2024)
Introducción a la seguridad básica (3 de julio de 2024)Introducción a la seguridad básica (3 de julio de 2024)
Introducción a la seguridad básica (3 de julio de 2024)
 
UT 3 LA PLANIFICACIÓN CURRICULAR DESDE LOS ELEMENTOS CURRICULARES.pptx
UT 3 LA PLANIFICACIÓN CURRICULAR DESDE LOS ELEMENTOS CURRICULARES.pptxUT 3 LA PLANIFICACIÓN CURRICULAR DESDE LOS ELEMENTOS CURRICULARES.pptx
UT 3 LA PLANIFICACIÓN CURRICULAR DESDE LOS ELEMENTOS CURRICULARES.pptx
 
Semana 1 Derecho a interponer recursos y reparación.
Semana 1 Derecho a interponer recursos y reparación.Semana 1 Derecho a interponer recursos y reparación.
Semana 1 Derecho a interponer recursos y reparación.
 
Imagenes-en-la-Comunicacion-Didactica.pdf
Imagenes-en-la-Comunicacion-Didactica.pdfImagenes-en-la-Comunicacion-Didactica.pdf
Imagenes-en-la-Comunicacion-Didactica.pdf
 
Soluciones Examen de Selectividad. Geografía julio 2024 (Convocatoria Extraor...
Soluciones Examen de Selectividad. Geografía julio 2024 (Convocatoria Extraor...Soluciones Examen de Selectividad. Geografía julio 2024 (Convocatoria Extraor...
Soluciones Examen de Selectividad. Geografía julio 2024 (Convocatoria Extraor...
 
Curación de contenidos (1 de julio de 2024)
Curación de contenidos (1 de julio de 2024)Curación de contenidos (1 de julio de 2024)
Curación de contenidos (1 de julio de 2024)
 
EXPERIENCIA DE APRENDIZAJE N° 09 01 AL 19 DE JULIO.docx
EXPERIENCIA DE APRENDIZAJE N° 09 01 AL 19 DE JULIO.docxEXPERIENCIA DE APRENDIZAJE N° 09 01 AL 19 DE JULIO.docx
EXPERIENCIA DE APRENDIZAJE N° 09 01 AL 19 DE JULIO.docx
 
Aplicaciones móviles de grabación (2 de julio de 2024)
Aplicaciones móviles de grabación (2 de julio de 2024)Aplicaciones móviles de grabación (2 de julio de 2024)
Aplicaciones móviles de grabación (2 de julio de 2024)
 
DIBUJANDO CON MATEMÁTICA LA GIMNASIA OLÍMPICA. Por JAVIER SOLIS NOYOLA
DIBUJANDO CON MATEMÁTICA LA GIMNASIA OLÍMPICA. Por JAVIER SOLIS NOYOLADIBUJANDO CON MATEMÁTICA LA GIMNASIA OLÍMPICA. Por JAVIER SOLIS NOYOLA
DIBUJANDO CON MATEMÁTICA LA GIMNASIA OLÍMPICA. Por JAVIER SOLIS NOYOLA
 
PLAN ANUAL DE TRABAJO (PAT) 2024 MINEDU PERÚ
PLAN ANUAL DE TRABAJO (PAT) 2024 MINEDU PERÚPLAN ANUAL DE TRABAJO (PAT) 2024 MINEDU PERÚ
PLAN ANUAL DE TRABAJO (PAT) 2024 MINEDU PERÚ
 
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
 
04. ESTADÍSTICA (comunicación) (J.C) 3.pptx
04. ESTADÍSTICA (comunicación) (J.C) 3.pptx04. ESTADÍSTICA (comunicación) (J.C) 3.pptx
04. ESTADÍSTICA (comunicación) (J.C) 3.pptx
 
Transformando la Evaluacion con Inteligencia Artificial Ccesa007.pdf
Transformando la Evaluacion con Inteligencia Artificial  Ccesa007.pdfTransformando la Evaluacion con Inteligencia Artificial  Ccesa007.pdf
Transformando la Evaluacion con Inteligencia Artificial Ccesa007.pdf
 

RED NEURONAL Backpropagation

  • 1. UNIDAD VI Redes de propagación hacia delante y aprendizaje supervisado 6.3 RED de Retro-propagación 6.3.1 Modelo y Arquitectura de la Red. 6.3.2 Algoritmo de Aprendizaje.
  • 2. 6.3 RED De Retro-propagación 6.3.1 Modelo Y Arquitectura De La Red
  • 3. Multilayer Perceptron R – S 1 – S 2 – S 3 Network
  • 4. Arquitectura general de una red de propagación hacia atrás
  • 5.  
  • 6. ARQUITECTURA DE LA RBP Esta red puede utilizarse para “Aproximar una función”. Puede aproximar cualquier función con un numero finito de discontinuidades.
  • 7. Introducción En 1986, Rumelhart, Hinton y Williams formalizaron un método para que una red neuronal aprendiera la relación que existe entre los patrones de entrada a la red y las salidas correspondientes, utilizando más niveles de neuronas que los que utilizó Rosenblatt para desarrollar el Perceptron.
  • 8. Introducción La red Back-Propagation está basada en la generalización de la regla delta. Al igual que el Perceptron, ADALINE y MADALINE, la red Back-Propagation se caracteriza por tener una arquitectura en niveles y conexiones estrictamente hacia adelante entre las neuronas. Utilizan aprendizaje supervisado.
  • 9. ¿En que consiste la RBP? Consiste en un aprendizaje de un conjunto predefinido de pares de entradas-salidas dados como ejemplo, empleando un ciclo propagación-adaptación de dos fases.
  • 10. FASES Primero .- se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red, se va propagando a través de todas las capas superiores hasta generar una salida. Después se compara el resultado obtenido en las neuronas de salida con la salida que se desea obtener y se calcula un valor del error para cada neurona de salida.
  • 11. FASES Segundo .- estos errores se transmiten hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida, recibiendo el porcentaje de error aproximado a la participación de la neurona intermedia en la salida original.
  • 12. La importancia de este algoritmo consiste en su capacidad de auto adaptar los pesos de las neuronas de las capas intermedias para aprender la relación que existe entre un conjunto de patrones dados como ejemplo y sus salidas correspondientes. Importancia
  • 13. Ya entrenada la red se podrá aplicar esa misma relación ( terminado el entrenamiento ), a nuevos vectores de entrada con ruido o incompletos, dando una salida activa si la nueva entrada es parecida a las presentadas durante el aprendizaje. Generalización
  • 14. Regla Delta Generalizada Es una extensión de la regla delta propuesta por Widrow (1960). Se usa en redes con capas intermedias con conexiones hacia delante y cuyas células tienen funciones de activación continuas. Estas funciones continuas son no decrecientes y derivables (la función sigmoidal pertenece a este tipo de funciones).
  • 15. Superficie de error El algoritmo utiliza una superficie de error asociada a la red, buscando el estado de mínimo error a través del camino descendente de la superficie del error.
  • 17. Estructura y aprendizaje Capa de entrada con n neuronas. Capa de salida con m neuronas. Al menos una capa oculta de neuronas. Cada neurona de una capa recibe entradas de todas las neuronas de la capa anterior y envía su salida a todas las neuronas de la capa posterior. No hay conexiones hacia atrás ni laterales entre neuronas de la misma capa.
  • 18. Control de la convergencia La velocidad de aprendizaje se controla mediante  . Normalmente, debe ser un número entre 0.05 y 0.25. Velocidad de convergencia El valor de  se aumenta a medida que disminuye el error. Añadir un momento (sumar una fracción del ajuste de peso anterior al ajuste actual).
  • 19. Si una red deja de aprender: Realizar un cambio en el número de neuronas ocultas. Volver a empezar con un conjunto distinto de pesos.
  • 20. BPN vs. PERCEPTRON La salida de BPN puede tomar valores entre 0 y 1; el perceptrón sólo toma 0 o 1. Perceptrón y BPN normalmente empiezan con un conjunto de pesos aleatorios. El método de la regla delta generalizada para ajustar pesos es el mismo que el de la regla delta utilizada en el perceptrón y ADALINE. BPN usa neuronas con función de activación continua.
  • 22. MODELO DE UNA NEURONA SE PUEDEN CREAR Y SIMULAR CON: initff y simuff. LAS FUNCIONES DE ENTRENAMIENTO SON: trainbp (normal), trainbpx (rápida), trainlm (más rapida, mucha memoria de PC).
  • 23. FUNCION DE TRANSFERENCIA La función lonsig: La función logsig(n) genera salidas 0 y 1 para entradas a la red neuronal que van desde un valor negativo a positivo, infinito. También se pueden utilizar las funciones: tansig(n) y purelin(n).
  • 24. Si la ultima capa de una RBP tiene neuronas con funciones sigmoides entonces las salidas de la red estarán limitadas a un rango pequeño. Pero si se utilizan funciones lineales, entonces la salida de la red podrá tomar cualquier valor. FUNCION DE TRANSFERENCIA
  • 25. DERIVADAS DE LAS F. T.´S En una RBP es importante el poder calcular las derivadas de cualquier función de transferencia utilizada. Las derivas de las funciones lonsig, tansig y purelin son: deltalog, deltatan y deltalin. Tansig(‘delta’) ans=deltatan
  • 26. ... La función “simuff “.- Simula una red feedforward. “ Simuff” toma las entradas de la red, P; los pesos, W; el umbral, b, y la función de transferencia para tres capas, y regresa las salidas de cada capa. Por ejemplo para simular dos capas: [a1, a2]=simuff(p, W1, b1, ‘tansig’, W2, b2, purelin’)
  • 27. ... Para calcular las salidas de una red de una, dos y tres capas: a=simuff(p, W, b, ‘tansig’) [a1, a2]=simuff(p, W1,B1, ‘logsig’, W2, b2, ‘purelin’) [a1, a2, a3]=simuff(p, W1,B1, ‘tansig’, W2, b2, ‘logsig’, W3, b3, ‘purelin’) a2=simuff(p, W1, b1, ‘tansig’, W2, b2, ‘purelin’)
  • 28. INICIALIZACIÓN Para crear una red de dos capas con ocho neuronas ocultas tansig y cuatro neuronas de salida purelin, se tiene: [W1,b1,W2,b2]=initff(P,8, ‘tansig’, 4 ‘purelin’) donde es importante que P contenga los limites mínimo y máximo de cada entrada para que así los mejores W y b sean calculados.
  • 29. INICIALIZACIÓN [W1,b1,W2,b2]=initff(P,5,’tansig’); Por ejemplo, una red de una capa con cinco neuronas puede tener dos entradas, una de las cuales siempre tiene valores en el intervalo [-10,+10], y la otra en [0,5]. [W1,b1,W2,b2]=initff(P, [-10 10; 0 5], ‘tansig’);
  • 30. INICIALIZACIÓN Initff .- Puede automáticamente establecer el numero de neuronas en la capa de salida al número de columnas de la matriz objetivo T. [W1,b1,W2,b2]=initff(P,8,’tansig’,T,’purelin’);
  • 31. Regla de Aprendizaje de la BP Utilizada para entrenar redes no lineales multicapa se usa para llevar a cabo: La Aproximación de funciones, La asociación de patrones, y La clasificación de patrones.
  • 32. Regla de Aprendizaje de la BP Las derivadas del error (llamadas vectores delta) son calculadas para la capa de salida de la red, y entonces propagadas hacia atrás a través de la red hasta que los vectores delta están disponibles para cada capa oculta. Los cuales son calculados con las funciones: deltalin, deltalog, y deltatan.
  • 33. Regla de Aprendizaje de la BP deltalin(a,e) regresa el vector delta para una capa de salida de neuronas lineales con un vector de salida a y un vector de errores e . deltalin(a,d,W) regresa el vector delta para una capa oculta de neuronas lineales, con un vector de salida a, presedido de una capa con un vector delta d y una matriz de pesos W.
  • 34. Regla de Aprendizaje de la BP deltalog(a,e) Regresa deltas para una capa de salida logsig. deltalog(a,d,W) Regresa deltas para una capa de oculta logsig. deltatan(a,e) Regresa deltas para una capa de salida tansig. deltatan(a,d,W) Regresa deltas para una capa de oculta tansig.
  • 35. Regla de Aprendizaje de la BP El cambio realizado en los pesos y los umbrales son calculados por learnbp . El cambio lo realiza utilizando el vector delta de la capa, y su vector de la capa de entrada p , de acuerdo a la regla:
  • 36. 6.3 RED De Retro-propagación 6.3.2 Algoritmo de Aprendizaje y Entrenamiento
  • 37. Funcionamiento del Algoritmo de Aprendizaje Inicialice los pesos de la red con valores pequeños aleatorios. Presentar un patrón de entrada y especificar la salida deseada. Calcule los valores de ajuste de las unidades de salida en base al error observado.
  • 38. Funcionamiento del Algoritmo de Aprendizaje Empezando por el nivel de salida, repita lo siguiente por cada nivel de la red, hasta llegar al primero de los niveles ocultos: Propague los valores de ajuste de regreso al nivel anterior. Actualice los pesos que hay entre los dos niveles. El proceso se repite hasta que el error resulta aceptablemente pequeño para cada uno de los patrones aprendidos.
  • 39. Funcionamiento del Algoritmo de Entrenamiento El método es exactamente el mismo que el de la regla delta utilizada en el Perceptrón y ADALINE.
  • 43. Suponer que se quiere utilizar una RNA (1-2-1)para aproximar la función :
  • 44. Entrenamiento Si p = 1 y entonces:
  • 45. Entrenamiento La salida de la primera capa es:
  • 46. Entrenamiento Mientras que la salida para la segunda capa es : Y se calcula el error de la red que será de:
  • 47. Entrenamiento Etapa 2 retropopagación de la sensibilidad. Se necesita derivar las funciones de transferencia de las capas de la Red:
  • 48. Entrenamiento El punto de inicio se encuentra en la segunda etapa : La sensibilidad de la primera capa se calcula al retropropagar la sensibilidad desde la segunda capa :
  • 49. Entrenamiento La etapa final del algoritmo conlleva la actualización de los pesos :
  • 50. Entrenamiento La etapa final del algoritmo conlleva la actualización de los pesos y umbrales, para la capa de salida:
  • 51. Entrenamiento Y para las capas ocultas:
  • 52. Entrenamiento Estos resultados completan la primera iteración del algoritmo de la retropropagación. Se continuará iterando hasta que la diferencia entre la respuesta de la red y la función objetivo alcance algún nivel aceptable.
  • 53. Consideraciones sobre el algoritmo de aprendizaje Este algoritmo encuentra un valor mínimo de error (local o global) mediante pasos descendentes (gradiente descendente). Cada punto de la superficie corresponde a un conjunto de valores de los pesos de la red.
  • 54. Consideraciones sobre el algoritmo de aprendizaje Con el gradiente descendente, siempre que se realiza un cambio en todos los pesos de la red, se asegura el descenso por la superficie del error hasta encontrar el valle más cercano, lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo local de error.
  • 56. UNIDAD VI Redes de propagación hacia delante y aprendizaje supervisado 6.4 Solución de problemas con MATLAB