SlideShare una empresa de Scribd logo
1 de 11
Descargar para leer sin conexión
MATLAB MAYO 5 DEL 2005
DIRECTOR: JAIRO PERTUZ CAMPO
EXPOSITORES: ANDRES FELIPE RESTREPO LONDOÑO
BIBIANA JANETH GALLEGO MORA
FACULTAD DE INGENIERIA DE SISTEMAS
IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL
Y EL ALGORITMO BACKPROPAGATION
UNIVERSIDAD DE MEDELLIN
MEDELLIN, MAYO DE 2005
OBJETIVO
Ilustrar el proceso de entrenamiento de
una red neuronal con el algoritmo
Backpropagation, mediante la
implementación de la función lógica XOR.
Demostrar que la velocidad de
entrenamiento para una representación
bipolar es mucho más rápida que una
representación binaria
Las interacciones son siempre hacia adelante
Se suele hablar de:
Redes de una sola capa (cuando no hay capas ocultas),
Ejemplo: El perceptrón simple
REDES FEEDFORWARD
Ejemplo: El perceptrón simple
Redes de múltiples capas (cuando hay capas ocultas): Ejemplos: el
perceptrón multicapa
REDES FEEDFORWARD
Procedimiento para encontrar el vector gradiente de una
función error asociada a la salida de la red con respecto
a los parámetros de la misma.
El nombre backpropagation surge pues del cálculo que
se hace en el sentido inverso de la red, propagándose
BACKPROPAGATION
se hace en el sentido inverso de la red, propagándose
desde los nodos de salida hacia los nodos de entrada
Esto permite poder aplicar a posteriori alguno de los
muchos métodos de optimización con gradiente para
obtener el comportamiento deseado de la red
El Backpropagation Standard es el algoritmo de descenso
del gradiente donde los pesos de la red son movidos a lo
largo de la dirección negativa del gradiente (Es donde se
minimiza para obtener T).
Existen varias técnicas como lo son:
• El algoritmo del gradiente conjugado.
• El algoritmo de Newton.
En ultima instancia lo que busca este algoritmo del
Backporgation es el entrenamiento de Redes Neuronales
Feedforward, con las cuales podemos resolver problemas
específicos como: Aproximación de Funciones,
clasificación, asociación de vectores, etc.
Las funciones de transferencia utilizadas para este algoritmo son:
• Log – sigmoid transfer function.
• Tan - sigmoid transfer function.
ELEMENTOS ESENCIALES DE LA RED
ENTRADAS: P
CONEXIONES SINAPTICAS PONDERADAS: Matriz peso (W)
BIAS: Sesgo (b)
SUMADOR: +
• Tan - sigmoid transfer function.
• Linear transfer function.
SALIDA DE LA RED: a
SALIDA DESEADA: T
Cuando hablamos de gradiente de una función, como requisito ésta debe ser
derivable, por ende estas funciones antes mencionadas tienen derivada.
El proceso de entrenamiento:
Agrupa los datos, entrena la red y posteriormente permite simular la respuesta
de la red para nuevas entradas.
P1 P2 XOR
0 0 0
P1 P2 XOR
-1 -1 -1
Representación Binaria Representación Bipolar
0 1 1
1 0 1
1 1 0
-1 1 1
1 -1 1
1 1 -1
EJERCICIO 1 DE APLICACIÓN CON BACKPROPAGATION
UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BINARIA Y SALIDA
BINARIA: 2 - 4 - 1
“Entrada y T deseado
>> p= [0 0 1 1; 0 1 0 1];
>> T= [0 1 1 0];
“Creacion de la red
>> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm');>> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm');
“Entrenamiento
>> net.trainParam.show = 25;
>> net.trainParam.lr =0.02;
>> net.trainParam.epochs = 400;
>> net.trainParam.goal = 1e-8;
>> [net,tr] = train(net,p,T);
“Simulación
>> a = sim (net,p);
>> e = T -round(a)
EJERCICIO 2 DE APLICACIÓN CON BACKPROPAGATION
UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BIPOLAR Y
SALIDA BIPOLAR: 2 - 4 - 1:
“Entradas y T deseado
>> p= [-1 -1 1 1; -1 1 -1 1];
>> T= [-1 1 1 -1];
“ Creación de la red
>> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm');>> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm');
“Entrenamiento
>> net.trainParam.show = 25;
>> net.trainParam.lr =0.02;
>> net.trainParam.epochs = 400;
>> net.trainParam.goal = 1e-8;
>> [net,tr] = train(net,p,T);
“Simulación
>> a = sim (net,p);
>> e = T -round(a)
COMENTARIOS FINALES
• La arquitectura neuronal (Red Feedforward) y el algoritmo de entrenamiento
empleado (Backpropagation), resultaron ser muy eficientes en la ejecución del
problema planteado.
• Pudimos comprobar que en esta aplicación, la velocidad de entrenamiento
correspondiente a la representación bipolar, resulta ser mucho más rápida que lacorrespondiente a la representación bipolar, resulta ser mucho más rápida que la
correspondiente a la representación binaria.

Más contenido relacionado

La actualidad más candente

Estabilidad de sistemas discretos
Estabilidad de sistemas discretosEstabilidad de sistemas discretos
Estabilidad de sistemas discretosingangelp
 
Señales de tiempo continuo y discreto MATLAB
Señales de tiempo continuo y discreto MATLABSeñales de tiempo continuo y discreto MATLAB
Señales de tiempo continuo y discreto MATLABJose Agustin Estrada
 
Clase 8- Diseño indirecto de Controladores digitales
Clase 8- Diseño indirecto de Controladores digitalesClase 8- Diseño indirecto de Controladores digitales
Clase 8- Diseño indirecto de Controladores digitalesUNEFA
 
Utp ia_2014-2_s10_redes de funciones de base radial
 Utp ia_2014-2_s10_redes de funciones de base radial Utp ia_2014-2_s10_redes de funciones de base radial
Utp ia_2014-2_s10_redes de funciones de base radialjcbp_peru
 
Lugar geometrico de las raices
Lugar geometrico de las raicesLugar geometrico de las raices
Lugar geometrico de las raicesAdan Aguirre
 
Sistema de comunicaciones via satelite 4
Sistema de comunicaciones via satelite 4Sistema de comunicaciones via satelite 4
Sistema de comunicaciones via satelite 4Enrique Zrt
 
Lab 01 - Análisis de señales - UNTECS
Lab 01 - Análisis de señales - UNTECSLab 01 - Análisis de señales - UNTECS
Lab 01 - Análisis de señales - UNTECSIng. Electrónica xD
 
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.Angel Perez
 
Realimentacion del estado
Realimentacion del estadoRealimentacion del estado
Realimentacion del estadoAdan Aguirre
 
Trasmisión por modulación angular2
Trasmisión por modulación angular2Trasmisión por modulación angular2
Trasmisión por modulación angular2Marco Mendoza López
 
2 Fundamentos de la Lógica Difusa
2 Fundamentos de la Lógica Difusa2 Fundamentos de la Lógica Difusa
2 Fundamentos de la Lógica DifusaESCOM
 
Electronica rectificadores
Electronica rectificadoresElectronica rectificadores
Electronica rectificadoresVelmuz Buzz
 

La actualidad más candente (20)

Programacion No Lineal
Programacion No LinealProgramacion No Lineal
Programacion No Lineal
 
Estabilidad de sistemas discretos
Estabilidad de sistemas discretosEstabilidad de sistemas discretos
Estabilidad de sistemas discretos
 
Señales de tiempo continuo y discreto MATLAB
Señales de tiempo continuo y discreto MATLABSeñales de tiempo continuo y discreto MATLAB
Señales de tiempo continuo y discreto MATLAB
 
Ejercicios transformada z
Ejercicios transformada zEjercicios transformada z
Ejercicios transformada z
 
Problemas sistemas lti
Problemas sistemas ltiProblemas sistemas lti
Problemas sistemas lti
 
Funciones De Transferencia
Funciones De TransferenciaFunciones De Transferencia
Funciones De Transferencia
 
Transistores
TransistoresTransistores
Transistores
 
Clase 8- Diseño indirecto de Controladores digitales
Clase 8- Diseño indirecto de Controladores digitalesClase 8- Diseño indirecto de Controladores digitales
Clase 8- Diseño indirecto de Controladores digitales
 
Cavidades Resonantes
Cavidades ResonantesCavidades Resonantes
Cavidades Resonantes
 
Utp ia_2014-2_s10_redes de funciones de base radial
 Utp ia_2014-2_s10_redes de funciones de base radial Utp ia_2014-2_s10_redes de funciones de base radial
Utp ia_2014-2_s10_redes de funciones de base radial
 
Lugar geometrico de las raices
Lugar geometrico de las raicesLugar geometrico de las raices
Lugar geometrico de las raices
 
Sistema de comunicaciones via satelite 4
Sistema de comunicaciones via satelite 4Sistema de comunicaciones via satelite 4
Sistema de comunicaciones via satelite 4
 
Sc capitulo5
Sc capitulo5Sc capitulo5
Sc capitulo5
 
Lab 01 - Análisis de señales - UNTECS
Lab 01 - Análisis de señales - UNTECSLab 01 - Análisis de señales - UNTECS
Lab 01 - Análisis de señales - UNTECS
 
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
 
Realimentacion del estado
Realimentacion del estadoRealimentacion del estado
Realimentacion del estado
 
8 2 convertidor-analogico_-digital
8 2 convertidor-analogico_-digital8 2 convertidor-analogico_-digital
8 2 convertidor-analogico_-digital
 
Trasmisión por modulación angular2
Trasmisión por modulación angular2Trasmisión por modulación angular2
Trasmisión por modulación angular2
 
2 Fundamentos de la Lógica Difusa
2 Fundamentos de la Lógica Difusa2 Fundamentos de la Lógica Difusa
2 Fundamentos de la Lógica Difusa
 
Electronica rectificadores
Electronica rectificadoresElectronica rectificadores
Electronica rectificadores
 

Destacado

RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A daniatacho
 
Tipos de búsquedas inteligentes redes semánticas en inteligencia artificial
Tipos de búsquedas inteligentes redes semánticas en inteligencia artificialTipos de búsquedas inteligentes redes semánticas en inteligencia artificial
Tipos de búsquedas inteligentes redes semánticas en inteligencia artificialjuan198
 
Fernando Echeverria(Que son las redes semánticas)
Fernando Echeverria(Que son las redes semánticas)Fernando Echeverria(Que son las redes semánticas)
Fernando Echeverria(Que son las redes semánticas)taniaibethmera
 
Redes semanticas evaluaciòn
Redes semanticas evaluaciònRedes semanticas evaluaciòn
Redes semanticas evaluaciònSILVIA ROSA
 
17 evaluacion heuristica basica
17 evaluacion heuristica basica17 evaluacion heuristica basica
17 evaluacion heuristica basicaUVM
 
Búsquedas heurísticas
Búsquedas heurísticasBúsquedas heurísticas
Búsquedas heurísticasLuis Álamo
 
6inteligenciaartificial
6inteligenciaartificial6inteligenciaartificial
6inteligenciaartificialescorpio_rmt25
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALESHB09
 
Equipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesEquipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesArgenis Vicent
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla AprendizajeRoberth Figueroa-Diaz
 
ejemplos de redes semánticas
ejemplos de redes semánticas ejemplos de redes semánticas
ejemplos de redes semánticas carmita97
 

Destacado (20)

RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Tipos de búsquedas inteligentes redes semánticas en inteligencia artificial
Tipos de búsquedas inteligentes redes semánticas en inteligencia artificialTipos de búsquedas inteligentes redes semánticas en inteligencia artificial
Tipos de búsquedas inteligentes redes semánticas en inteligencia artificial
 
Redes semanticas
Redes semanticasRedes semanticas
Redes semanticas
 
Fernando Echeverria(Que son las redes semánticas)
Fernando Echeverria(Que son las redes semánticas)Fernando Echeverria(Que son las redes semánticas)
Fernando Echeverria(Que son las redes semánticas)
 
Redes semanticas evaluaciòn
Redes semanticas evaluaciònRedes semanticas evaluaciòn
Redes semanticas evaluaciòn
 
17 evaluacion heuristica basica
17 evaluacion heuristica basica17 evaluacion heuristica basica
17 evaluacion heuristica basica
 
Nancy romero IA
Nancy romero IANancy romero IA
Nancy romero IA
 
Búsquedas heurísticas
Búsquedas heurísticasBúsquedas heurísticas
Búsquedas heurísticas
 
Inteligencia artificial isc
Inteligencia artificial iscInteligencia artificial isc
Inteligencia artificial isc
 
Los Mapas Conceptuales
Los Mapas ConceptualesLos Mapas Conceptuales
Los Mapas Conceptuales
 
6inteligenciaartificial
6inteligenciaartificial6inteligenciaartificial
6inteligenciaartificial
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
RPC - LLAMADAS REMOTAS
RPC - LLAMADAS REMOTASRPC - LLAMADAS REMOTAS
RPC - LLAMADAS REMOTAS
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Equipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesEquipo Redes Neuronales Artificiales
Equipo Redes Neuronales Artificiales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
ejemplos de redes semánticas
ejemplos de redes semánticas ejemplos de redes semánticas
ejemplos de redes semánticas
 

Similar a Implementacion de la funcion logica xor, mediante un modelo neuronal y el algoritmo backpropagation

Clasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigClasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigYeferson Torres Berru
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2jcbp_peru
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 

Similar a Implementacion de la funcion logica xor, mediante un modelo neuronal y el algoritmo backpropagation (20)

Clasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigClasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig Tansig
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2
 
Boletin3
Boletin3Boletin3
Boletin3
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Actividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelynActividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelyn
 

Más de Tribunal Electoral Provincia de Misiones (8)

E learning.
E  learning.E  learning.
E learning.
 
Womande johnlennon
Womande johnlennonWomande johnlennon
Womande johnlennon
 
Revista bolp9 2010
Revista bolp9 2010Revista bolp9 2010
Revista bolp9 2010
 
Revista bolp9 2010
Revista bolp9 2010Revista bolp9 2010
Revista bolp9 2010
 
Semana de mayo
Semana de mayoSemana de mayo
Semana de mayo
 
Aula Virtual
Aula VirtualAula Virtual
Aula Virtual
 
Inteligencia Artificial
Inteligencia ArtificialInteligencia Artificial
Inteligencia Artificial
 
ExtensiòN Universitaria Casos de Estudio
ExtensiòN Universitaria Casos de EstudioExtensiòN Universitaria Casos de Estudio
ExtensiòN Universitaria Casos de Estudio
 

Implementacion de la funcion logica xor, mediante un modelo neuronal y el algoritmo backpropagation

  • 1. MATLAB MAYO 5 DEL 2005 DIRECTOR: JAIRO PERTUZ CAMPO EXPOSITORES: ANDRES FELIPE RESTREPO LONDOÑO BIBIANA JANETH GALLEGO MORA FACULTAD DE INGENIERIA DE SISTEMAS IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION UNIVERSIDAD DE MEDELLIN MEDELLIN, MAYO DE 2005
  • 2. OBJETIVO Ilustrar el proceso de entrenamiento de una red neuronal con el algoritmo Backpropagation, mediante la implementación de la función lógica XOR. Demostrar que la velocidad de entrenamiento para una representación bipolar es mucho más rápida que una representación binaria
  • 3. Las interacciones son siempre hacia adelante Se suele hablar de: Redes de una sola capa (cuando no hay capas ocultas), Ejemplo: El perceptrón simple REDES FEEDFORWARD Ejemplo: El perceptrón simple
  • 4. Redes de múltiples capas (cuando hay capas ocultas): Ejemplos: el perceptrón multicapa REDES FEEDFORWARD
  • 5. Procedimiento para encontrar el vector gradiente de una función error asociada a la salida de la red con respecto a los parámetros de la misma. El nombre backpropagation surge pues del cálculo que se hace en el sentido inverso de la red, propagándose BACKPROPAGATION se hace en el sentido inverso de la red, propagándose desde los nodos de salida hacia los nodos de entrada Esto permite poder aplicar a posteriori alguno de los muchos métodos de optimización con gradiente para obtener el comportamiento deseado de la red
  • 6. El Backpropagation Standard es el algoritmo de descenso del gradiente donde los pesos de la red son movidos a lo largo de la dirección negativa del gradiente (Es donde se minimiza para obtener T). Existen varias técnicas como lo son: • El algoritmo del gradiente conjugado. • El algoritmo de Newton. En ultima instancia lo que busca este algoritmo del Backporgation es el entrenamiento de Redes Neuronales Feedforward, con las cuales podemos resolver problemas específicos como: Aproximación de Funciones, clasificación, asociación de vectores, etc.
  • 7. Las funciones de transferencia utilizadas para este algoritmo son: • Log – sigmoid transfer function. • Tan - sigmoid transfer function. ELEMENTOS ESENCIALES DE LA RED ENTRADAS: P CONEXIONES SINAPTICAS PONDERADAS: Matriz peso (W) BIAS: Sesgo (b) SUMADOR: + • Tan - sigmoid transfer function. • Linear transfer function. SALIDA DE LA RED: a SALIDA DESEADA: T Cuando hablamos de gradiente de una función, como requisito ésta debe ser derivable, por ende estas funciones antes mencionadas tienen derivada. El proceso de entrenamiento: Agrupa los datos, entrena la red y posteriormente permite simular la respuesta de la red para nuevas entradas.
  • 8. P1 P2 XOR 0 0 0 P1 P2 XOR -1 -1 -1 Representación Binaria Representación Bipolar 0 1 1 1 0 1 1 1 0 -1 1 1 1 -1 1 1 1 -1
  • 9. EJERCICIO 1 DE APLICACIÓN CON BACKPROPAGATION UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BINARIA Y SALIDA BINARIA: 2 - 4 - 1 “Entrada y T deseado >> p= [0 0 1 1; 0 1 0 1]; >> T= [0 1 1 0]; “Creacion de la red >> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm');>> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm'); “Entrenamiento >> net.trainParam.show = 25; >> net.trainParam.lr =0.02; >> net.trainParam.epochs = 400; >> net.trainParam.goal = 1e-8; >> [net,tr] = train(net,p,T); “Simulación >> a = sim (net,p); >> e = T -round(a)
  • 10. EJERCICIO 2 DE APLICACIÓN CON BACKPROPAGATION UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BIPOLAR Y SALIDA BIPOLAR: 2 - 4 - 1: “Entradas y T deseado >> p= [-1 -1 1 1; -1 1 -1 1]; >> T= [-1 1 1 -1]; “ Creación de la red >> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm');>> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm'); “Entrenamiento >> net.trainParam.show = 25; >> net.trainParam.lr =0.02; >> net.trainParam.epochs = 400; >> net.trainParam.goal = 1e-8; >> [net,tr] = train(net,p,T); “Simulación >> a = sim (net,p); >> e = T -round(a)
  • 11. COMENTARIOS FINALES • La arquitectura neuronal (Red Feedforward) y el algoritmo de entrenamiento empleado (Backpropagation), resultaron ser muy eficientes en la ejecución del problema planteado. • Pudimos comprobar que en esta aplicación, la velocidad de entrenamiento correspondiente a la representación bipolar, resulta ser mucho más rápida que lacorrespondiente a la representación bipolar, resulta ser mucho más rápida que la correspondiente a la representación binaria.