SlideShare una empresa de Scribd logo
Técnicas de inteligencia artificial
Aprendizaje:
Perceptrón multi-capa
Regla delta
Modelo computacional
Neuronas e hiperplanos
Entrenamiento como ajuste supervisado
No-separabilidad lineal
‘Backpropagation’
Perceptrones multi-capa
Funciones de activación derivables
‘Backpropagation’: explicación heurística
‘Backpropagation’: derivación matemática
Aplicaciones y consideraciones prácticas
Índice
 Regla delta
Modelo computacional
Neuronas e hiperplanos
Entrenamiento como ajuste supervisado
No-separabilidad lineal
 ‘Backpropagation’
Perceptrones multi-capa
Funciones de activación derivables
‘Backpropagation’: explicación heurística
‘Backpropagation’: derivación matemática
Aplicaciones y consideraciones prácticas
Indice
Modelo computacional
 Neurona biológica:
1. Entradas: dendritas.
2. Integración: en el soma. Dispositivos “todo-
o-nada” (solo se dispara salida si las
entradas superan un nivel (umbral)
3. Salidas: el axón transporta la señal de
salida a otras neuronas. Conecta con sus
dendritas a través de sinapsis.
 Neurona computacional:
1. Entradas: Números reales.
2. Integración: suma ponderada (net) por los
pesos sinápticos seguida de una función de
activación f(net)
3. Salida: resultado y=f(net)
Neuronas e hiperplanos
 Función de activación
“umbral”:
 Interpretación geométrica:
Considerando que el umbral
es un peso más con entrada
fija de -1, la neurona define
un hiperplano de forma que
los ejemplos etiquetados con
y=1 caen al lado positivo y los
etiquetados con y=0 al lado
negativo:
Entrenamiento
 Ajuste de hiperplanos: Dados dos
conjuntos de ejemplos
correspondientes a dos clases,
buscaremos su separación por un
hiperplano
 Regla delta:
 Permite ajustar iterativamente el
hiperplano.
 Se asume que el incremento de los
pesos es proporcional a la disparidad
entre la salida observada y la salida
deseada.
 Dicha proporcionalidad viene
modulada por la constante de
aprendizaje:
No-separabilidad lineal
 Única neurona:
 Existen situaciones en donde un único
hiperplano no puede separar los datos.
 P.e. cuando la frontera de decisión es
curva.
 Problemas de paridad:
 Suponiendo entradas binarias
(secuencias de 0s y 1s), la neurona
debería etiquetar con 1 aquellas
secuencias con un número impar de 1s y
con 0 aquellas con un número par.
 Ej: Problema de la XOR.
 Para resolver estos problemas es preciso
incorporar una capa adicional de
neuronas.
 Regla delta
Modelo computacional
Neuronas e hiperplanos
Entrenamiento como ajuste supervisado
No-separabilidad lineal
 ‘Backpropagation’
Perceptrones multi-capa
Funciones de activación derivables
‘Backpropagation’: explicación heurística
‘Backpropagation’: derivación matemática
Aplicaciones y consideraciones prácticas
Indice
Perceptrones multi-capa
 Estructura y capacidad:
 La capa adicional se denomina
capa oculta.
 Se demuestra que un
perceptrón con dos capas
ocultas puede aproximar
cualquier función.
 Interpretación geométrica:
 Problemas con regiones de
decisión más complejas exigen
distintas estrategias de
separación.
 Dichas estrategias las
proporcionan las capas ocultas.
 En la época en que se
desarrolló esta teoría no existía
un algoritmo práctico que
permitiese encontrar los pesos
asociados a todas y cada una de
las neuronas.
Funciones de activación derivables
 Para aplicar el algoritmo de entrenamiento multicapa es
necesario que la función de activación sea derivable
 Buscamos funciones derivables con forma similar al escalón
del perceptrón de una sola capa
Sigmoide Derivada
Backpropagation: explicación heurística
 Supongamos que al clasificar un ejemplo una neurona de la última capa
tiene una salida yk, siendo la deseada dk
 Dicha neurona es responsable de un error
 La regla de actualización de los pesos de la última capa será similar a la
regla delta ya vista
Error (delta) en capas intermedias
 Una neurona de una capa
intermedia contribuye en
los δ de las de la capa
siguiente
 Por tanto, para calcular su
δ necesitamos estos
Backpropagation: algoritmo
 Se aplica para cada
ejemplo del conj. de
entrenamiento. Se itera
hasta que el error baje de
un umbral
 Fases:
 Hacia delante: cálculo de la
salida de la red (los yk).
Cálculo de los δ en la última
capa
 Hacia atrás. Cálculo de los δ
de la capa en función de los
de la siguiente
 Finalmente, actualización de
los pesos de todas las capas
Backpropagation: derivación matemática
 El algoritmo es un descenso por
gradiente (de ahí que
necesitemos una función de
activación derivable)
 Minimización del error que se
produce al clasificar un ejemplo
(encontrar los wi óptimos). Dicho
error se puede formular como
 Habrá que modificar los wi en la
dirección opuesta al gradiente,
esto es
Derivación backpropagation: última capa
 Para un peso wjk de la última capa (aplicando la regla de la
cadena, ya que E depende de netk que a su vez depende de
wjk)
 Escribiendo como δ, tenemos una fórmula equiv. a la
regla delta del perceptrón de 1 capa:
 Para calcular δk, aplicamos de nuevo la regla de la cadena
(netk y→ k E)→
Derivación backpropagation: capas anteriores
 Para un peso wij de una capa anterior, el razonamiento inicial
es el mismo que antes y nos lleva a
 Aplicando la regla de la cadena para calcular δ
Convergencia de backpropagation
 Ajuste de la constante η
Valores muy pequeños: convergencia lenta
Valores grandes: riesgo de overshooting (saltarnos el
mínimo)
 Momento: en el cambio actual influye una fracción del
anterior. Mejora la convergencia evitando oscilaciones
Ejemplo de convergencia
 Problema del XOR
Prob.deconvergencia
iteraciones
Errorcuadráticomedio
η
Bibliografía
 Escolano et al. Inteligencia Artificial. Thomson-
Paraninfo 2003. Capítulo 4.
 Mitchell, Machine Learning. McGraw Hill,
Computer Science Series. 1997
 Reed, Marks, Neural Smithing. MIT Press, CA
Mass 1999

Más contenido relacionado

La actualidad más candente

Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
edeciofreitez
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
ESCOM
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
edeciofreitez
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Tribunal Electoral Provincia de Misiones
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
Andrea Lezcano
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
ESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
ESCOM
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
Spacetoshare
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
ESCOM
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
ESCOM
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
ESCOM
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
ESCOM
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
Vane Erraez
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
jcbp_peru
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
eyyc
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Kristyn Alessandra
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Sallycastroro
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
marrerosdelacruz
 

La actualidad más candente (20)

Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 

Destacado

REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
ESCOM
 
MPerceptron
MPerceptronMPerceptron
MPerceptron
butest
 
30 分鐘學會實作 Python Feature Selection
30 分鐘學會實作 Python Feature Selection30 分鐘學會實作 Python Feature Selection
30 分鐘學會實作 Python Feature Selection
James Huang
 
Pengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptronPengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptron
Arief Fatchul Huda
 
Ann chapter-3-single layerperceptron20021031
Ann chapter-3-single layerperceptron20021031Ann chapter-3-single layerperceptron20021031
Ann chapter-3-single layerperceptron20021031
frdos
 
Perceptron Slides
Perceptron SlidesPerceptron Slides
Perceptron Slides
ESCOM
 
Multi Layer Perceptron & Back Propagation
Multi Layer Perceptron & Back PropagationMulti Layer Perceptron & Back Propagation
Multi Layer Perceptron & Back Propagation
Sung-ju Kim
 
14 Machine Learning Single Layer Perceptron
14 Machine Learning Single Layer Perceptron14 Machine Learning Single Layer Perceptron
14 Machine Learning Single Layer Perceptron
Andres Mendez-Vazquez
 
Perceptron
PerceptronPerceptron
Perceptron
Nagarajan
 
Artificial Neural Network Lect4 : Single Layer Perceptron Classifiers
Artificial Neural Network Lect4 : Single Layer Perceptron ClassifiersArtificial Neural Network Lect4 : Single Layer Perceptron Classifiers
Artificial Neural Network Lect4 : Single Layer Perceptron Classifiers
Mohammed Bennamoun
 
Artificial intelligence NEURAL NETWORKS
Artificial intelligence NEURAL NETWORKSArtificial intelligence NEURAL NETWORKS
Artificial intelligence NEURAL NETWORKS
REHMAT ULLAH
 
Short Term Load Forecasting Using Multi Layer Perceptron
Short Term Load Forecasting Using Multi Layer Perceptron Short Term Load Forecasting Using Multi Layer Perceptron
Short Term Load Forecasting Using Multi Layer Perceptron
IJMER
 
Neural network & its applications
Neural network & its applications Neural network & its applications
Neural network & its applications
Ahmed_hashmi
 
Artificial neural networks
Artificial neural networksArtificial neural networks
Artificial neural networks
stellajoseph
 
Artificial neural network
Artificial neural networkArtificial neural network
Artificial neural network
DEEPASHRI HK
 

Destacado (15)

REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
 
MPerceptron
MPerceptronMPerceptron
MPerceptron
 
30 分鐘學會實作 Python Feature Selection
30 分鐘學會實作 Python Feature Selection30 分鐘學會實作 Python Feature Selection
30 分鐘學會實作 Python Feature Selection
 
Pengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptronPengenalan pola sederhana dg perceptron
Pengenalan pola sederhana dg perceptron
 
Ann chapter-3-single layerperceptron20021031
Ann chapter-3-single layerperceptron20021031Ann chapter-3-single layerperceptron20021031
Ann chapter-3-single layerperceptron20021031
 
Perceptron Slides
Perceptron SlidesPerceptron Slides
Perceptron Slides
 
Multi Layer Perceptron & Back Propagation
Multi Layer Perceptron & Back PropagationMulti Layer Perceptron & Back Propagation
Multi Layer Perceptron & Back Propagation
 
14 Machine Learning Single Layer Perceptron
14 Machine Learning Single Layer Perceptron14 Machine Learning Single Layer Perceptron
14 Machine Learning Single Layer Perceptron
 
Perceptron
PerceptronPerceptron
Perceptron
 
Artificial Neural Network Lect4 : Single Layer Perceptron Classifiers
Artificial Neural Network Lect4 : Single Layer Perceptron ClassifiersArtificial Neural Network Lect4 : Single Layer Perceptron Classifiers
Artificial Neural Network Lect4 : Single Layer Perceptron Classifiers
 
Artificial intelligence NEURAL NETWORKS
Artificial intelligence NEURAL NETWORKSArtificial intelligence NEURAL NETWORKS
Artificial intelligence NEURAL NETWORKS
 
Short Term Load Forecasting Using Multi Layer Perceptron
Short Term Load Forecasting Using Multi Layer Perceptron Short Term Load Forecasting Using Multi Layer Perceptron
Short Term Load Forecasting Using Multi Layer Perceptron
 
Neural network & its applications
Neural network & its applications Neural network & its applications
Neural network & its applications
 
Artificial neural networks
Artificial neural networksArtificial neural networks
Artificial neural networks
 
Artificial neural network
Artificial neural networkArtificial neural network
Artificial neural network
 

Similar a Aprendizaje Redes Neuronales

RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
ESCOM
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
Diego Guamán
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
Michel Jraiche
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
Carlos Mendoza
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Lucerow Cruzado Gonzalez
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificial
carlos colque
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Leccion 3 - Tema 2
Leccion 3 - Tema 2Leccion 3 - Tema 2
Leccion 3 - Tema 2
Michel Jraiche
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
jcbenitezp
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
jcbp_peru
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
jcbp_peru
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
jcbp_peru
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
Kempachi Zaraki
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
jcbenitezp
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
jcbp_peru
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
Brian Piragauta
 
Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3
JUANCHO_ANAYA
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
hugojoseavila
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
InnoVacompu
 

Similar a Aprendizaje Redes Neuronales (20)

RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificial
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Leccion 3 - Tema 2
Leccion 3 - Tema 2Leccion 3 - Tema 2
Leccion 3 - Tema 2
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 

Último

Proceso de obtenciòn de nitrogeno por el metodo Haber-Bosh
Proceso de obtenciòn de nitrogeno por el metodo Haber-BoshProceso de obtenciòn de nitrogeno por el metodo Haber-Bosh
Proceso de obtenciòn de nitrogeno por el metodo Haber-Bosh
shirllyleytonm
 
Kit del Analisis y Visualizacion de Datos.pdf
Kit del Analisis y Visualizacion de Datos.pdfKit del Analisis y Visualizacion de Datos.pdf
Kit del Analisis y Visualizacion de Datos.pdf
OMORDO
 
Ducto Barras para instalaciones electricas
Ducto Barras para instalaciones electricasDucto Barras para instalaciones electricas
Ducto Barras para instalaciones electricas
Edgar Najera
 
SESIÓN 3 ÓXIDOS-HIDRÓXIDOS trabajo virtual
SESIÓN 3 ÓXIDOS-HIDRÓXIDOS trabajo virtualSESIÓN 3 ÓXIDOS-HIDRÓXIDOS trabajo virtual
SESIÓN 3 ÓXIDOS-HIDRÓXIDOS trabajo virtual
JuanGavidia2
 
SLIDEHARE.docx..........................
SLIDEHARE.docx..........................SLIDEHARE.docx..........................
SLIDEHARE.docx..........................
azulsarase
 
INVENTARIO CEROO Y DINAMICAA FABRIL.pptx
INVENTARIO CEROO Y DINAMICAA FABRIL.pptxINVENTARIO CEROO Y DINAMICAA FABRIL.pptx
INVENTARIO CEROO Y DINAMICAA FABRIL.pptx
FernandoRodrigoEscal
 
Operaciones Básicas creadora Veronica Maiz
Operaciones Básicas creadora Veronica MaizOperaciones Básicas creadora Veronica Maiz
Operaciones Básicas creadora Veronica Maiz
carolina838317
 
Estilo Arquitectónico Ecléctico e Histórico, Roberto de la Roche.pdf
Estilo Arquitectónico Ecléctico e Histórico, Roberto de la Roche.pdfEstilo Arquitectónico Ecléctico e Histórico, Roberto de la Roche.pdf
Estilo Arquitectónico Ecléctico e Histórico, Roberto de la Roche.pdf
ElisaLen4
 
Sistemas eléctricos de potencia y transmisión
Sistemas eléctricos de potencia y transmisiónSistemas eléctricos de potencia y transmisión
Sistemas eléctricos de potencia y transmisión
MichaelLpezOrtiz
 
Estructura de un buque, tema de estudios generales de navegación
Estructura de un buque, tema de estudios generales de navegaciónEstructura de un buque, tema de estudios generales de navegación
Estructura de un buque, tema de estudios generales de navegación
AlvaroEduardoConsola1
 
Presentación- de motor a combustión -diesel.pptx
Presentación- de motor a combustión -diesel.pptxPresentación- de motor a combustión -diesel.pptx
Presentación- de motor a combustión -diesel.pptx
ronnyrocha223
 
Cargas de Cálculos Estructurales de un Puente
Cargas de Cálculos Estructurales de un PuenteCargas de Cálculos Estructurales de un Puente
Cargas de Cálculos Estructurales de un Puente
jemifermelgarejoaran1
 
diagrama de flujo. en el área de ingeniería
diagrama de flujo. en el área de ingenieríadiagrama de flujo. en el área de ingeniería
diagrama de flujo. en el área de ingeniería
karenperalta62
 
DIAGRAMA ELECTRICOS y circuito electrónicos
DIAGRAMA ELECTRICOS y circuito electrónicosDIAGRAMA ELECTRICOS y circuito electrónicos
DIAGRAMA ELECTRICOS y circuito electrónicos
LuisAngelGuarnizoBet
 
Enjoy Pasto Bot - "Tu guía virtual para disfrutar del Carnaval de Negros y Bl...
Enjoy Pasto Bot - "Tu guía virtual para disfrutar del Carnaval de Negros y Bl...Enjoy Pasto Bot - "Tu guía virtual para disfrutar del Carnaval de Negros y Bl...
Enjoy Pasto Bot - "Tu guía virtual para disfrutar del Carnaval de Negros y Bl...
Eliana Gomajoa
 
DIAGRAMA DE FLUJO DE ALGORITMO......
DIAGRAMA DE FLUJO   DE   ALGORITMO......DIAGRAMA DE FLUJO   DE   ALGORITMO......
DIAGRAMA DE FLUJO DE ALGORITMO......
taniarivera1015tvr
 
Semana 12 - Ley 29973 de las personas con discapacidad.pdf
Semana 12 - Ley 29973 de las personas con discapacidad.pdfSemana 12 - Ley 29973 de las personas con discapacidad.pdf
Semana 12 - Ley 29973 de las personas con discapacidad.pdf
SandyCuenca
 
EXPOSICIÓN NTP IEC 60364-1 - Orlando Chávez Chacaltana.pdf
EXPOSICIÓN NTP IEC 60364-1 - Orlando Chávez Chacaltana.pdfEXPOSICIÓN NTP IEC 60364-1 - Orlando Chávez Chacaltana.pdf
EXPOSICIÓN NTP IEC 60364-1 - Orlando Chávez Chacaltana.pdf
hugodennis88
 
PRINCIPALES CARACTERISTICAS DE EL PH.pptx
PRINCIPALES CARACTERISTICAS DE EL PH.pptxPRINCIPALES CARACTERISTICAS DE EL PH.pptx
PRINCIPALES CARACTERISTICAS DE EL PH.pptx
MONICADELROCIOMUNZON1
 
Calculo-de-Camaras-Frigorificas.pdf para trabajos
Calculo-de-Camaras-Frigorificas.pdf para trabajosCalculo-de-Camaras-Frigorificas.pdf para trabajos
Calculo-de-Camaras-Frigorificas.pdf para trabajos
JuanCarlos695207
 

Último (20)

Proceso de obtenciòn de nitrogeno por el metodo Haber-Bosh
Proceso de obtenciòn de nitrogeno por el metodo Haber-BoshProceso de obtenciòn de nitrogeno por el metodo Haber-Bosh
Proceso de obtenciòn de nitrogeno por el metodo Haber-Bosh
 
Kit del Analisis y Visualizacion de Datos.pdf
Kit del Analisis y Visualizacion de Datos.pdfKit del Analisis y Visualizacion de Datos.pdf
Kit del Analisis y Visualizacion de Datos.pdf
 
Ducto Barras para instalaciones electricas
Ducto Barras para instalaciones electricasDucto Barras para instalaciones electricas
Ducto Barras para instalaciones electricas
 
SESIÓN 3 ÓXIDOS-HIDRÓXIDOS trabajo virtual
SESIÓN 3 ÓXIDOS-HIDRÓXIDOS trabajo virtualSESIÓN 3 ÓXIDOS-HIDRÓXIDOS trabajo virtual
SESIÓN 3 ÓXIDOS-HIDRÓXIDOS trabajo virtual
 
SLIDEHARE.docx..........................
SLIDEHARE.docx..........................SLIDEHARE.docx..........................
SLIDEHARE.docx..........................
 
INVENTARIO CEROO Y DINAMICAA FABRIL.pptx
INVENTARIO CEROO Y DINAMICAA FABRIL.pptxINVENTARIO CEROO Y DINAMICAA FABRIL.pptx
INVENTARIO CEROO Y DINAMICAA FABRIL.pptx
 
Operaciones Básicas creadora Veronica Maiz
Operaciones Básicas creadora Veronica MaizOperaciones Básicas creadora Veronica Maiz
Operaciones Básicas creadora Veronica Maiz
 
Estilo Arquitectónico Ecléctico e Histórico, Roberto de la Roche.pdf
Estilo Arquitectónico Ecléctico e Histórico, Roberto de la Roche.pdfEstilo Arquitectónico Ecléctico e Histórico, Roberto de la Roche.pdf
Estilo Arquitectónico Ecléctico e Histórico, Roberto de la Roche.pdf
 
Sistemas eléctricos de potencia y transmisión
Sistemas eléctricos de potencia y transmisiónSistemas eléctricos de potencia y transmisión
Sistemas eléctricos de potencia y transmisión
 
Estructura de un buque, tema de estudios generales de navegación
Estructura de un buque, tema de estudios generales de navegaciónEstructura de un buque, tema de estudios generales de navegación
Estructura de un buque, tema de estudios generales de navegación
 
Presentación- de motor a combustión -diesel.pptx
Presentación- de motor a combustión -diesel.pptxPresentación- de motor a combustión -diesel.pptx
Presentación- de motor a combustión -diesel.pptx
 
Cargas de Cálculos Estructurales de un Puente
Cargas de Cálculos Estructurales de un PuenteCargas de Cálculos Estructurales de un Puente
Cargas de Cálculos Estructurales de un Puente
 
diagrama de flujo. en el área de ingeniería
diagrama de flujo. en el área de ingenieríadiagrama de flujo. en el área de ingeniería
diagrama de flujo. en el área de ingeniería
 
DIAGRAMA ELECTRICOS y circuito electrónicos
DIAGRAMA ELECTRICOS y circuito electrónicosDIAGRAMA ELECTRICOS y circuito electrónicos
DIAGRAMA ELECTRICOS y circuito electrónicos
 
Enjoy Pasto Bot - "Tu guía virtual para disfrutar del Carnaval de Negros y Bl...
Enjoy Pasto Bot - "Tu guía virtual para disfrutar del Carnaval de Negros y Bl...Enjoy Pasto Bot - "Tu guía virtual para disfrutar del Carnaval de Negros y Bl...
Enjoy Pasto Bot - "Tu guía virtual para disfrutar del Carnaval de Negros y Bl...
 
DIAGRAMA DE FLUJO DE ALGORITMO......
DIAGRAMA DE FLUJO   DE   ALGORITMO......DIAGRAMA DE FLUJO   DE   ALGORITMO......
DIAGRAMA DE FLUJO DE ALGORITMO......
 
Semana 12 - Ley 29973 de las personas con discapacidad.pdf
Semana 12 - Ley 29973 de las personas con discapacidad.pdfSemana 12 - Ley 29973 de las personas con discapacidad.pdf
Semana 12 - Ley 29973 de las personas con discapacidad.pdf
 
EXPOSICIÓN NTP IEC 60364-1 - Orlando Chávez Chacaltana.pdf
EXPOSICIÓN NTP IEC 60364-1 - Orlando Chávez Chacaltana.pdfEXPOSICIÓN NTP IEC 60364-1 - Orlando Chávez Chacaltana.pdf
EXPOSICIÓN NTP IEC 60364-1 - Orlando Chávez Chacaltana.pdf
 
PRINCIPALES CARACTERISTICAS DE EL PH.pptx
PRINCIPALES CARACTERISTICAS DE EL PH.pptxPRINCIPALES CARACTERISTICAS DE EL PH.pptx
PRINCIPALES CARACTERISTICAS DE EL PH.pptx
 
Calculo-de-Camaras-Frigorificas.pdf para trabajos
Calculo-de-Camaras-Frigorificas.pdf para trabajosCalculo-de-Camaras-Frigorificas.pdf para trabajos
Calculo-de-Camaras-Frigorificas.pdf para trabajos
 

Aprendizaje Redes Neuronales

  • 1. Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa
  • 2. Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal ‘Backpropagation’ Perceptrones multi-capa Funciones de activación derivables ‘Backpropagation’: explicación heurística ‘Backpropagation’: derivación matemática Aplicaciones y consideraciones prácticas Índice
  • 3.  Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal  ‘Backpropagation’ Perceptrones multi-capa Funciones de activación derivables ‘Backpropagation’: explicación heurística ‘Backpropagation’: derivación matemática Aplicaciones y consideraciones prácticas Indice
  • 4. Modelo computacional  Neurona biológica: 1. Entradas: dendritas. 2. Integración: en el soma. Dispositivos “todo- o-nada” (solo se dispara salida si las entradas superan un nivel (umbral) 3. Salidas: el axón transporta la señal de salida a otras neuronas. Conecta con sus dendritas a través de sinapsis.  Neurona computacional: 1. Entradas: Números reales. 2. Integración: suma ponderada (net) por los pesos sinápticos seguida de una función de activación f(net) 3. Salida: resultado y=f(net)
  • 5. Neuronas e hiperplanos  Función de activación “umbral”:  Interpretación geométrica: Considerando que el umbral es un peso más con entrada fija de -1, la neurona define un hiperplano de forma que los ejemplos etiquetados con y=1 caen al lado positivo y los etiquetados con y=0 al lado negativo:
  • 6. Entrenamiento  Ajuste de hiperplanos: Dados dos conjuntos de ejemplos correspondientes a dos clases, buscaremos su separación por un hiperplano  Regla delta:  Permite ajustar iterativamente el hiperplano.  Se asume que el incremento de los pesos es proporcional a la disparidad entre la salida observada y la salida deseada.  Dicha proporcionalidad viene modulada por la constante de aprendizaje:
  • 7. No-separabilidad lineal  Única neurona:  Existen situaciones en donde un único hiperplano no puede separar los datos.  P.e. cuando la frontera de decisión es curva.  Problemas de paridad:  Suponiendo entradas binarias (secuencias de 0s y 1s), la neurona debería etiquetar con 1 aquellas secuencias con un número impar de 1s y con 0 aquellas con un número par.  Ej: Problema de la XOR.  Para resolver estos problemas es preciso incorporar una capa adicional de neuronas.
  • 8.  Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal  ‘Backpropagation’ Perceptrones multi-capa Funciones de activación derivables ‘Backpropagation’: explicación heurística ‘Backpropagation’: derivación matemática Aplicaciones y consideraciones prácticas Indice
  • 9. Perceptrones multi-capa  Estructura y capacidad:  La capa adicional se denomina capa oculta.  Se demuestra que un perceptrón con dos capas ocultas puede aproximar cualquier función.  Interpretación geométrica:  Problemas con regiones de decisión más complejas exigen distintas estrategias de separación.  Dichas estrategias las proporcionan las capas ocultas.  En la época en que se desarrolló esta teoría no existía un algoritmo práctico que permitiese encontrar los pesos asociados a todas y cada una de las neuronas.
  • 10. Funciones de activación derivables  Para aplicar el algoritmo de entrenamiento multicapa es necesario que la función de activación sea derivable  Buscamos funciones derivables con forma similar al escalón del perceptrón de una sola capa Sigmoide Derivada
  • 11. Backpropagation: explicación heurística  Supongamos que al clasificar un ejemplo una neurona de la última capa tiene una salida yk, siendo la deseada dk  Dicha neurona es responsable de un error  La regla de actualización de los pesos de la última capa será similar a la regla delta ya vista
  • 12. Error (delta) en capas intermedias  Una neurona de una capa intermedia contribuye en los δ de las de la capa siguiente  Por tanto, para calcular su δ necesitamos estos
  • 13. Backpropagation: algoritmo  Se aplica para cada ejemplo del conj. de entrenamiento. Se itera hasta que el error baje de un umbral  Fases:  Hacia delante: cálculo de la salida de la red (los yk). Cálculo de los δ en la última capa  Hacia atrás. Cálculo de los δ de la capa en función de los de la siguiente  Finalmente, actualización de los pesos de todas las capas
  • 14. Backpropagation: derivación matemática  El algoritmo es un descenso por gradiente (de ahí que necesitemos una función de activación derivable)  Minimización del error que se produce al clasificar un ejemplo (encontrar los wi óptimos). Dicho error se puede formular como  Habrá que modificar los wi en la dirección opuesta al gradiente, esto es
  • 15. Derivación backpropagation: última capa  Para un peso wjk de la última capa (aplicando la regla de la cadena, ya que E depende de netk que a su vez depende de wjk)  Escribiendo como δ, tenemos una fórmula equiv. a la regla delta del perceptrón de 1 capa:  Para calcular δk, aplicamos de nuevo la regla de la cadena (netk y→ k E)→
  • 16. Derivación backpropagation: capas anteriores  Para un peso wij de una capa anterior, el razonamiento inicial es el mismo que antes y nos lleva a  Aplicando la regla de la cadena para calcular δ
  • 17. Convergencia de backpropagation  Ajuste de la constante η Valores muy pequeños: convergencia lenta Valores grandes: riesgo de overshooting (saltarnos el mínimo)  Momento: en el cambio actual influye una fracción del anterior. Mejora la convergencia evitando oscilaciones
  • 18. Ejemplo de convergencia  Problema del XOR Prob.deconvergencia iteraciones Errorcuadráticomedio η
  • 19. Bibliografía  Escolano et al. Inteligencia Artificial. Thomson- Paraninfo 2003. Capítulo 4.  Mitchell, Machine Learning. McGraw Hill, Computer Science Series. 1997  Reed, Marks, Neural Smithing. MIT Press, CA Mass 1999