SlideShare una empresa de Scribd logo
Inteligencia Artificial
(W0I9)
MSc. Ing. José C. Benítez P.
Sesión: 6
Adaline y Backpropagation
2
Sesión 6. Adaline y Backpropagation
Características de Adaline.
Regla de Aprendizaje (LMS). Regla Delta
Aplicaciones de Adaline.
Regla del Perceptron.
Backpropagation.
3
Adaline: Características
En 1960, en la Universidad de Stanford, Bernard
Widrow y Marcian Hoff, introdujeron la red ADALINE
(ADAptive LInear Neuron – ADAptive LINear Element) y
una regla de aprendizaje que llamaron LMS (Least
mean square).
La adaline es similar al perceptron, sólo que su función
de transferencia es lineal, en lugar del escalón.
Igual que el perceptrón, sólo puede resolver
problemas linealmente separables.
MADALINE: Multiple ADALINE
4
Adaline: Características
Objetivo:
Aplicar los principios de aprendizaje del rendimiento a redes
lineales de una sola capa.
El aprendizaje Widrow-Hoff es una aproximación del
algoritmo del Descenso por gradiente, en el cual el índice de
rendimiento es el error cuadrático medio.
Importancia del algoritmo:
Se usa ampliamente en aplicaciones de procesamiento de
señales.
Es el precursor del algoritmo Backpropagation para redes
multicapas.
5
Adaline: Características
Algoritmo LMS:
Es más poderoso que la regla de aprendizaje del
perceptron.
La regla de aprendizaje del perceptron garantiza
convergencia a una solución que clasifica correctamente
los patrones de entrenamiento. Esa red es sensible al
ruido, debido a que los patrones con frecuencia están muy
cerca de las fronteras de decisión.
El algoritmo LMS minimiza el error cuadrático medio,
desplaza las fronteras de decisión lejos de los patrones de
entrenamiento.
El algoritmo LMS tiene más aplicaciones prácticas que la
regla de aprendizaje del perceptron, especialmente en el
procesamiento digital de señales, como por ejemplo, para
cancelar echo en líneas telefónicas de larga distancia.
6
Adaline: Características
Algoritmo LMS:
La aplicación de este algoritmo a redes multicapas no
prosperó por lo que Widrow se dedicó a trabajar en el
campo del procesamiento digital adaptativo, y en 1980
comenzó su investigación con la aplicación de las Redes
al control adaptativo, usando backpropagation temporal,
descendiente del LMS.
7
Adaline: Características
• Tipo de aprendizaje: Supervisado (OFF Line).
• Tipo de aprendizaje: por corrección de error.
• Algoritmo de aprendizaje: Regla del Mínimo Error
Cuadrático Medio (LMS), o regla Delta, o regla de
Widrow-Hoff
• Función de transferencia: lineal (purelin).
• Procesamiento de información analógica, tanto de
entrada como de salida, utilizando una función de
Activación Lineal o Sigmoidal.
• También puede resolver problemas LS.
8
Adaline: Características
Es aplicada a estructuras Lineales:
Idea:
Modificación de Pesos para tratar de reducir la diferencia entre la
salida deseada y la actual (para cada patrón).
Se denomina LMS (Least mean squares): Minimo Error
Cuadrático Medio sobre todos los patrones de entrenamiento.
9
Adaline: Características
Cálculo de Pesos Óptimos
Sea el conjunto de entrenamiento:
(X,D): Patrones de entrada y salidas deseadas.
X : Conjunto de L vectores de dimensión n.
D: Salida Deseada.
Conjunto de L vectores de dimensión m (en este caso m=1).
Y: Salida Obtenida
Conjunto de L vectores de dimensión m ( en este caso m=1).
Se trata de minimizar: Sea Yk la salida obtenida para el patrón k.
10
Adaline: Características
11
Adaline: Características
12
Adaline: Características
Cálculo de W*: Método de Gradiente Descendente.
Diferentes Métodos:
Buscar por todo el espacio de pesos hasta
encontrar los que hiciesen el error mínimo.
Realizar una búsqueda aleatoria.
Realizar una búsqueda Dirigida.
Método:
Se inicializan los pesos aleatoriamente (pto. de
partida).
Se determina, la dirección de la pendiente más
pronunciada en dirección hacia abajo.
Se modifican los pesos para encontrarnos un
poco más abajo en la superficie.
13
Adaline: Características
14
Adaline: Características
15
Adaline: Algoritmo de Aprendizaje
1. Inicialización de pesos.
2. Se aplica un patrón de entrada (entradas y salida
deseada).
3. Se computa la salida lineal que se obtiene de la red.
4. Se calcula el error cometido para dicho patrón.
5. Se actualizan las conexiones mediante la ecuación
obtenida anteriormente.
6. Se repiten los pasos del 2 al 5 para todos los patrones
de entrenamiento.
7. Si el error cuadrático medio es un valor reducido
aceptable, termina el proceso. Sino se vuelve al paso 2.
16
Adaline: Aplicaciones
La principal aplicación de las redes tipo Adaline se encuentra
en el campo de procesamiento de señales. Concretamente
en el diseño de filtros capaces de eliminar ruido en señales
portadoras de información.
Otra aplicación es la de los filtros adaptativos: Predecir el
valor futuro de una señal a partir de su valor actual.
17
Adaline: Conclusiones
Una simple capa de PE lineales pueden realizar
aproximaciones a funciones lineales o asociación de
patrones.
Una simple capa de PE lineales puede ser entrenada
con algoritmo LMS.
Relaciones No Lineales entre entradas y salidas no
pueden ser representadas exactamente por redes
lineales. Dichas redes harán aproximaciones lineales.
Otro tipo de redes abordarán la resolución de
problemas no lineales.
18
Regla del Perceptron (Rosenblatt)
Supongamos un PE con una función de transferencia
del tipo Hardlimiter y en donde las entradas son
binarias o bipolares (mismo que Adaline pero con
esas restricciones).
La regla que rige el cambio de pesos es:
Wi(t+1) = Wi(t) Si la salida es correcta.
Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1.
Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1.
Sobre la regla anterior se han realizado diferentes
modificaciones:
19
Regla del Perceptron (Rosenblatt)
A)
Wi(t+1) = Wi(t) Si la salida es correcta.
Wi(t+1) = Wi(t) + µXi(t) Si la salida = -1 y debería de ser 1.
Wi(t+1) = Wi(t) - µXi(t) Si la salida = 1 y debería de ser -1.
Con µ [0,1], término de control de ganancia y velocidad
de aprendizaje.
B) Otra de las modificaciones propuestas fue sugerida
por Widrow and Hoff. Ellos propusieron una regla basada
en la regla Delta. (Es la más utilizada).
Tomando las entradas y salidas como bipolares tenemos
que el cambio en los pesos se produce de la manera
siguiente:
20
Regla del Perceptron (Rosenblatt)
21
Regla del Perceptron (Rosenblatt)
22
Red Backpropagation
• Fue primeramente propuesto por Paul Werbos en los
70s en una Tesis doctoral.
• Sin embargo, este algoritmo no fue conocido sino hasta
1980 año en que fue re-descubierto por David
Rumelhart, Geoffrey Hinton y Ronald William, también
David Parker y Yan Le Cun.
• Fue publicado “Procesos Distribuidos en Paralelo” por
David Rumelhart y Mc Clelland, y ampliamente
publicitado y usado el algoritmo Backpropagation.
• El perceptron multicapa entrenado por el algoritmo de
retro propagación es la red mas ampliamente usada.
23
Red Backpropagation
• En muchas situaciones del mundo real, nos
enfrentamos con información incompleta o con ruido, y
también es importante ser capaz de realizar
predicciones razonables sobre casos nuevos de
información disponible.
• La red de retro propagación adapta sus pesos, para
adquirir un entrenamiento a partir de un conjunto de
pares de patrones entrada/salida
• Después que la red ha aprendido ha esta se le puede
aplicar un conjunto de patrones de prueba, para ver
como esta generaliza a patrones no proporcionados.
24
Red Backpropagation
• Red feedforward, completamente conectada.
• El flujo de información fluye de la capa de entrada a la
de salida a través de la capa oculta.
• Cada unidad de procesamiento en la capa se conecta a
todas las de la siguiente capa.
• El nivel de activación en la capa de salida determina la
salida de la red.
• Las unidades producen valores reales basados en una
función sigmoide.
25
Red Backpropagation
• Si n=0 a=0.5, conforme n se incrementa la
salida se aproxima a 1, conforme n
disminuye, a se aproxima a 0.
• Funciones de transferencia (diferenciables)
• Sigmoidales,
• Lineales
n
e
a −
+
=
1
1
26
Red Backpropagation
• La función de error define una superficie en el espacio de
pesos, y estos son modificados sobre el gradiente de la
superficie
• Un mínimo local puede existir en la superficie de decisión:
esto significa que no hay teorema de convergencia para la
retropropagación (el espacio de pesos es lo
suficientemente grande que esto rara ves sucede)
• Las redes toman un periodo grande de entrenamiento y
muchos ejemplos.
• Además mientras la red generaliza, el sobre entrenamiento
puede generar un problema.
27
Red Backpropagation: Arquitectura
R – S1
– S2
– S3
Network
28
Red BP: Algoritmo de Aprendizaje
• Los pesos se ajustan después de ver los pares entrada/salida
del conjunto de entrenamiento.
• En el sentido directo la red permite un flujo de activación en
las capas.
• En la retropropagación, la salida actual es comparada con la
salida deseada, entonces se calcula el error para las unidades
de salida
• Entonces los pesos en la salida son ajustados para reducir el
error, esto da un error estimado para las neuronas ocultas y
así sucesivamente.
• Una época se define como el ajuste de los pesos para todos
los pares de entrenamientos, usualmente la red requiere
muchas épocas para su entrenamiento.
29
Red BP: Algoritmo de Aprendizaje
1. Inicialice los pesos de la red con valores pequeños aleatorios.
2. Presentar un patrón de entrada y especificar la salida
deseada.
3. Calcule los valores de ajuste de las unidades de salida en base
al error observado.
4. Empezando por el nivel de salida, repita lo siguiente por cada
nivel de la red, hasta llegar al primero de los niveles ocultos:
• Propague los valores de ajuste de regreso al nivel anterior
• Actualice los pesos que hay entre los dos niveles.
5. El proceso se repite hasta que el error resulta
aceptablemente pequeño para cada uno de los patrones
aprendidos.
30
Red BP: Algoritmo de Aprendizaje
Gradiente Descendente:
Después que se calcula el error, cada peso se ajusta en
proporción al gradiente del error, retropropagado de la
salidas a las entradas.
El cambio en los pesos reduce el error total.
Mínimo Local:
Entre mas unidades ocultas se tengan en red, menor es
la probabilidad de encontrar un mínimo local.
31
Red BP: Algoritmo de Aprendizaje
La superficie del error:
32
Red BP: Algoritmo de Aprendizaje
La superficie del error: En 2D
33
Red BP: Algoritmo de Aprendizaje
La superficie del error: En 3D
34
Red BP: Algoritmo de Aprendizaje
Selección de los Wij iniciales:
• El error retro propagado a través de la red es proporcional
al valor de los pesos.
• Si todos los pesos son iguales, entonces el error retro
propagado será igual, y todos los pesos serán actualizados
en la misma cantidad
• Si la solución al problema requiere que la red aprenda con
pesos diferentes, entonces el tener pesos iguales al inicio
previene a la red de aprender.
• Es también recomendable tener valores pequeños de
activación (umbral) en las unidades de procesamiento.
35
Red Backpropagation: Aplicaciones
Determinar si un hongo es venenoso
• Considera 8124 variedades de hongo
• Cada hongo es descrito usando 21 características.
36
Red Backpropagation: Aplicaciones
Diagnostico Medico
• Basado en Visión
por computadora.
• Los síntomas son las
entradas.
• Los síntomas son
trasladadas a un
punto en el espacio
de los patrones.
37
Red Backpropagation: Aplicaciones
38
Red Backpropagation: Ejemplo XOR
01
1
1
4
11
0
1
3
11
1
0
2
01
0
0
1
=





=
=





=
=





=
=





=
TP
TP
TP
TP
Diseñe una red de retropropagación que
solucione el problema de la OR-exclusiva
usando el algoritmo de retropropación
(regla delta generalizada)
39
Red Backpropagation: Ejemplo XOR
[ ] 27.102.188.0
66.1
19.0
12.287.0
12.292.0
22
11
=−=






−
=





−
−
=
bw
bw
01.0=α
Parámetros iniciales
Preguntas
Al término de la experiencia de aprendizaje el alumno debe ser
capaz de responder las siguientes preguntas:
1. ¿Cuáles son las características de la red Adaline?
2. Describir el algoritmo de aprendizaje de la red Adaline.
3. Comparar las características del Perceptron y de Adaline.
4. Comparar la regla de aprendizaje del Perceptron y de Adaline.
5. Listar cinco aplicaciones de las redes Adaline/Madaline.
6. ¿Cuáles son las características de la red Backpropagation?
7. Describir el algoritmo de aprendizaje de la red BP.
8. Comparar las características del Perceptron y de Adaline.
9. Comparar la regla de aprendizaje de Adaline y BP.
10. Listar cinco aplicaciones de las redes BP.
40
41
Sesión 6. Adaline y Backpropagation
Inteligencia Artificial
http://utpiayse.blogspot.com

Más contenido relacionado

La actualidad más candente

Utp sirn_2015-2 lab1
 Utp sirn_2015-2 lab1 Utp sirn_2015-2 lab1
Utp sirn_2015-2 lab1
jcbp_peru
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusa
jcbp_peru
 
Utp 2015-2_ia_lab3
 Utp 2015-2_ia_lab3 Utp 2015-2_ia_lab3
Utp 2015-2_ia_lab3
unijcbenitezp
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3
jcbenitezp
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
ESCOM
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Tribunal Electoral Provincia de Misiones
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
jcbp_peru
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
ESCOM
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
ESCOM
 
Boletin3
Boletin3Boletin3
Boletin3
Yin Quark
 
Woi9 ia 2015 1 balotario de la pc2
Woi9 ia 2015 1 balotario de la pc2Woi9 ia 2015 1 balotario de la pc2
Woi9 ia 2015 1 balotario de la pc2
jcbp_peru
 
Funciones de base Radial
Funciones de base RadialFunciones de base Radial
Funciones de base Radial
guestc50c2f
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radial
Jefferson Guillen
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINE
ESCOM
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Kristyn Alessandra
 
redes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpredes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbp
ESCOM
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
jcbp_peru
 
Variantes de BACKPROPAGATION
Variantes de BACKPROPAGATIONVariantes de BACKPROPAGATION
Variantes de BACKPROPAGATION
ESCOM
 
Red NEURONAL MADALINE
Red NEURONAL MADALINERed NEURONAL MADALINE
Red NEURONAL MADALINE
ESCOM
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
ESCOM
 

La actualidad más candente (20)

Utp sirn_2015-2 lab1
 Utp sirn_2015-2 lab1 Utp sirn_2015-2 lab1
Utp sirn_2015-2 lab1
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusa
 
Utp 2015-2_ia_lab3
 Utp 2015-2_ia_lab3 Utp 2015-2_ia_lab3
Utp 2015-2_ia_lab3
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
 
Boletin3
Boletin3Boletin3
Boletin3
 
Woi9 ia 2015 1 balotario de la pc2
Woi9 ia 2015 1 balotario de la pc2Woi9 ia 2015 1 balotario de la pc2
Woi9 ia 2015 1 balotario de la pc2
 
Funciones de base Radial
Funciones de base RadialFunciones de base Radial
Funciones de base Radial
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radial
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINE
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
redes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpredes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbp
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Variantes de BACKPROPAGATION
Variantes de BACKPROPAGATIONVariantes de BACKPROPAGATION
Variantes de BACKPROPAGATION
 
Red NEURONAL MADALINE
Red NEURONAL MADALINERed NEURONAL MADALINE
Red NEURONAL MADALINE
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
 

Destacado

Utp 2015-2_ia_s3_aprendizaje automatico
 Utp 2015-2_ia_s3_aprendizaje automatico Utp 2015-2_ia_s3_aprendizaje automatico
Utp 2015-2_ia_s3_aprendizaje automatico
jcbp_peru
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna
jcbp_peru
 
A152 w0i9 inteligenciaartificial
A152 w0i9 inteligenciaartificialA152 w0i9 inteligenciaartificial
A152 w0i9 inteligenciaartificial
jcbp_peru
 
Ia 2014 2 balotario de la pc1
Ia 2014 2 balotario de la pc1Ia 2014 2 balotario de la pc1
Ia 2014 2 balotario de la pc1
c09271
 
Utp 2015-1_ia_s1_introduccion ia
 Utp 2015-1_ia_s1_introduccion ia Utp 2015-1_ia_s1_introduccion ia
Utp 2015-1_ia_s1_introduccion ia
jcbp_peru
 
Utp ia_2015-1_s11-12_logica difusa y conjuntos difusos
 Utp ia_2015-1_s11-12_logica difusa y conjuntos difusos Utp ia_2015-1_s11-12_logica difusa y conjuntos difusos
Utp ia_2015-1_s11-12_logica difusa y conjuntos difusos
jcbp_peru
 
Utp ia_2015-2_s89_redes autorganizadas
 Utp ia_2015-2_s89_redes autorganizadas Utp ia_2015-2_s89_redes autorganizadas
Utp ia_2015-2_s89_redes autorganizadas
jcbp_peru
 
Ea13 reglas difusas
Ea13 reglas difusasEa13 reglas difusas
Ea13 reglas difusasjcbp_peru
 
Las tics
Las tics Las tics
Guia cluster
Guia clusterGuia cluster
Guia cluster
Feraldus Levy
 
Presentación actene2013
Presentación actene2013Presentación actene2013
Presentación actene2013
Enrique De Pablo Domingo
 
Consolidacion trabajo final_40
Consolidacion trabajo final_40Consolidacion trabajo final_40
Consolidacion trabajo final_40
Jeferson Roa Mera
 
Christmas
ChristmasChristmas
Cartilla de yois pedagogoa del movimiento
Cartilla de yois pedagogoa del movimientoCartilla de yois pedagogoa del movimiento
Cartilla de yois pedagogoa del movimiento
Viviana Acosta Macea
 
A152 wee2 procesamientodeimagenesyvisionartificial
A152 wee2 procesamientodeimagenesyvisionartificialA152 wee2 procesamientodeimagenesyvisionartificial
A152 wee2 procesamientodeimagenesyvisionartificial
jcbp_peru
 
Maravillas modernas el ordenador
Maravillas  modernas el ordenadorMaravillas  modernas el ordenador
Maravillas modernas el ordenador
PA Pmg
 
Capa de enlace de datos
Capa de enlace de datosCapa de enlace de datos
Capa de enlace de datos
jcbp_peru
 
Gestion ambiental 11b
Gestion ambiental 11bGestion ambiental 11b
Gestion ambiental 11b
Diana Blanco Guerra
 
Librosmasvendidos
LibrosmasvendidosLibrosmasvendidos
Librosmasvendidos
Alberto Berenguer Ferrández
 
Manual - Operador
Manual - OperadorManual - Operador
Manual - Operador
Guillermo Sevilla
 

Destacado (20)

Utp 2015-2_ia_s3_aprendizaje automatico
 Utp 2015-2_ia_s3_aprendizaje automatico Utp 2015-2_ia_s3_aprendizaje automatico
Utp 2015-2_ia_s3_aprendizaje automatico
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna
 
A152 w0i9 inteligenciaartificial
A152 w0i9 inteligenciaartificialA152 w0i9 inteligenciaartificial
A152 w0i9 inteligenciaartificial
 
Ia 2014 2 balotario de la pc1
Ia 2014 2 balotario de la pc1Ia 2014 2 balotario de la pc1
Ia 2014 2 balotario de la pc1
 
Utp 2015-1_ia_s1_introduccion ia
 Utp 2015-1_ia_s1_introduccion ia Utp 2015-1_ia_s1_introduccion ia
Utp 2015-1_ia_s1_introduccion ia
 
Utp ia_2015-1_s11-12_logica difusa y conjuntos difusos
 Utp ia_2015-1_s11-12_logica difusa y conjuntos difusos Utp ia_2015-1_s11-12_logica difusa y conjuntos difusos
Utp ia_2015-1_s11-12_logica difusa y conjuntos difusos
 
Utp ia_2015-2_s89_redes autorganizadas
 Utp ia_2015-2_s89_redes autorganizadas Utp ia_2015-2_s89_redes autorganizadas
Utp ia_2015-2_s89_redes autorganizadas
 
Ea13 reglas difusas
Ea13 reglas difusasEa13 reglas difusas
Ea13 reglas difusas
 
Las tics
Las tics Las tics
Las tics
 
Guia cluster
Guia clusterGuia cluster
Guia cluster
 
Presentación actene2013
Presentación actene2013Presentación actene2013
Presentación actene2013
 
Consolidacion trabajo final_40
Consolidacion trabajo final_40Consolidacion trabajo final_40
Consolidacion trabajo final_40
 
Christmas
ChristmasChristmas
Christmas
 
Cartilla de yois pedagogoa del movimiento
Cartilla de yois pedagogoa del movimientoCartilla de yois pedagogoa del movimiento
Cartilla de yois pedagogoa del movimiento
 
A152 wee2 procesamientodeimagenesyvisionartificial
A152 wee2 procesamientodeimagenesyvisionartificialA152 wee2 procesamientodeimagenesyvisionartificial
A152 wee2 procesamientodeimagenesyvisionartificial
 
Maravillas modernas el ordenador
Maravillas  modernas el ordenadorMaravillas  modernas el ordenador
Maravillas modernas el ordenador
 
Capa de enlace de datos
Capa de enlace de datosCapa de enlace de datos
Capa de enlace de datos
 
Gestion ambiental 11b
Gestion ambiental 11bGestion ambiental 11b
Gestion ambiental 11b
 
Librosmasvendidos
LibrosmasvendidosLibrosmasvendidos
Librosmasvendidos
 
Manual - Operador
Manual - OperadorManual - Operador
Manual - Operador
 

Similar a Utp 2015-2_ia_s6_adaline y backpropagation

Utp ia_2014-2_s5_adaline
 Utp ia_2014-2_s5_adaline Utp ia_2014-2_s5_adaline
Utp ia_2014-2_s5_adaline
jcbp_peru
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
ESCOM
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adaline
c09271
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagation
jcbp_peru
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
ESCOM
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
ESCOM
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
gueste7b261
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartif
anaisplani
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
edeciofreitez
 
Redes neuronales
Redes neuronalesRedes neuronales
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptron
jcbenitezp
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
Spacetoshare
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
Carlos Mendoza
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
eyyc
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Sallycastroro
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Lucerow Cruzado Gonzalez
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
marrerosdelacruz
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 

Similar a Utp 2015-2_ia_s6_adaline y backpropagation (20)

Utp ia_2014-2_s5_adaline
 Utp ia_2014-2_s5_adaline Utp ia_2014-2_s5_adaline
Utp ia_2014-2_s5_adaline
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adaline
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagation
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartif
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptron
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 

Más de jcbp_peru

It526 2017 1 balotario-s_ap2y3
It526 2017 1 balotario-s_ap2y3It526 2017 1 balotario-s_ap2y3
It526 2017 1 balotario-s_ap2y3
jcbp_peru
 
It526 2016 2 pc4 dom
It526 2016 2 pc4 domIt526 2016 2 pc4 dom
It526 2016 2 pc4 dom
jcbp_peru
 
It246 2016 2 practica calificada 4
It246 2016 2 practica calificada 4It246 2016 2 practica calificada 4
It246 2016 2 practica calificada 4
jcbp_peru
 
It246 2016 2 practica calificada 3
It246 2016 2 practica calificada 3It246 2016 2 practica calificada 3
It246 2016 2 practica calificada 3
jcbp_peru
 
It246 2016 2 practica calificada 2
It246 2016 2 practica calificada 2It246 2016 2 practica calificada 2
It246 2016 2 practica calificada 2
jcbp_peru
 
It526 2013 2 ep
It526 2013 2 epIt526 2013 2 ep
It526 2013 2 ep
jcbp_peru
 
It526 2016 1 ep
It526 2016 1 epIt526 2016 1 ep
It526 2016 1 ep
jcbp_peru
 
It526 2016 2 practica calificada 2
It526 2016 2 practica calificada 2It526 2016 2 practica calificada 2
It526 2016 2 practica calificada 2
jcbp_peru
 
33012 calvo tfw-figura-paterna-2015
33012 calvo tfw-figura-paterna-201533012 calvo tfw-figura-paterna-2015
33012 calvo tfw-figura-paterna-2015
jcbp_peru
 
It246 2016 2 practica calificada 1
It246 2016 2 practica calificada 1It246 2016 2 practica calificada 1
It246 2016 2 practica calificada 1
jcbp_peru
 
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacionUni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
jcbp_peru
 
Uni fiee ci 2016 02 sesion 2 servicios inalámbricos
Uni fiee ci 2016 02 sesion 2 servicios inalámbricosUni fiee ci 2016 02 sesion 2 servicios inalámbricos
Uni fiee ci 2016 02 sesion 2 servicios inalámbricos
jcbp_peru
 
Uni fiee ci 2016 02 sesion 1 espectro radioelèctrico
Uni fiee ci 2016 02 sesion 1 espectro radioelèctricoUni fiee ci 2016 02 sesion 1 espectro radioelèctrico
Uni fiee ci 2016 02 sesion 1 espectro radioelèctrico
jcbp_peru
 
Uni wc 2016 1 sesion 14 redes moviles 4 g
Uni wc 2016 1 sesion 14 redes moviles 4 gUni wc 2016 1 sesion 14 redes moviles 4 g
Uni wc 2016 1 sesion 14 redes moviles 4 g
jcbp_peru
 
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3g
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3gUni wc 2016 1 sesion 13 redes moviles 2 g y 3g
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3g
jcbp_peru
 
Lte whitepaper(1)
 Lte whitepaper(1) Lte whitepaper(1)
Lte whitepaper(1)
jcbp_peru
 
Redes moviles
Redes movilesRedes moviles
Redes moviles
jcbp_peru
 
Uni fiee ci sesion 12 cdma
Uni fiee ci sesion 12 cdmaUni fiee ci sesion 12 cdma
Uni fiee ci sesion 12 cdma
jcbp_peru
 
Uni fiee ci 2016 01 sesion 11 comunicaciones moviles
Uni fiee ci 2016 01 sesion 11 comunicaciones movilesUni fiee ci 2016 01 sesion 11 comunicaciones moviles
Uni fiee ci 2016 01 sesion 11 comunicaciones moviles
jcbp_peru
 
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacionUni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
jcbp_peru
 

Más de jcbp_peru (20)

It526 2017 1 balotario-s_ap2y3
It526 2017 1 balotario-s_ap2y3It526 2017 1 balotario-s_ap2y3
It526 2017 1 balotario-s_ap2y3
 
It526 2016 2 pc4 dom
It526 2016 2 pc4 domIt526 2016 2 pc4 dom
It526 2016 2 pc4 dom
 
It246 2016 2 practica calificada 4
It246 2016 2 practica calificada 4It246 2016 2 practica calificada 4
It246 2016 2 practica calificada 4
 
It246 2016 2 practica calificada 3
It246 2016 2 practica calificada 3It246 2016 2 practica calificada 3
It246 2016 2 practica calificada 3
 
It246 2016 2 practica calificada 2
It246 2016 2 practica calificada 2It246 2016 2 practica calificada 2
It246 2016 2 practica calificada 2
 
It526 2013 2 ep
It526 2013 2 epIt526 2013 2 ep
It526 2013 2 ep
 
It526 2016 1 ep
It526 2016 1 epIt526 2016 1 ep
It526 2016 1 ep
 
It526 2016 2 practica calificada 2
It526 2016 2 practica calificada 2It526 2016 2 practica calificada 2
It526 2016 2 practica calificada 2
 
33012 calvo tfw-figura-paterna-2015
33012 calvo tfw-figura-paterna-201533012 calvo tfw-figura-paterna-2015
33012 calvo tfw-figura-paterna-2015
 
It246 2016 2 practica calificada 1
It246 2016 2 practica calificada 1It246 2016 2 practica calificada 1
It246 2016 2 practica calificada 1
 
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacionUni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
 
Uni fiee ci 2016 02 sesion 2 servicios inalámbricos
Uni fiee ci 2016 02 sesion 2 servicios inalámbricosUni fiee ci 2016 02 sesion 2 servicios inalámbricos
Uni fiee ci 2016 02 sesion 2 servicios inalámbricos
 
Uni fiee ci 2016 02 sesion 1 espectro radioelèctrico
Uni fiee ci 2016 02 sesion 1 espectro radioelèctricoUni fiee ci 2016 02 sesion 1 espectro radioelèctrico
Uni fiee ci 2016 02 sesion 1 espectro radioelèctrico
 
Uni wc 2016 1 sesion 14 redes moviles 4 g
Uni wc 2016 1 sesion 14 redes moviles 4 gUni wc 2016 1 sesion 14 redes moviles 4 g
Uni wc 2016 1 sesion 14 redes moviles 4 g
 
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3g
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3gUni wc 2016 1 sesion 13 redes moviles 2 g y 3g
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3g
 
Lte whitepaper(1)
 Lte whitepaper(1) Lte whitepaper(1)
Lte whitepaper(1)
 
Redes moviles
Redes movilesRedes moviles
Redes moviles
 
Uni fiee ci sesion 12 cdma
Uni fiee ci sesion 12 cdmaUni fiee ci sesion 12 cdma
Uni fiee ci sesion 12 cdma
 
Uni fiee ci 2016 01 sesion 11 comunicaciones moviles
Uni fiee ci 2016 01 sesion 11 comunicaciones movilesUni fiee ci 2016 01 sesion 11 comunicaciones moviles
Uni fiee ci 2016 01 sesion 11 comunicaciones moviles
 
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacionUni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
 

Utp 2015-2_ia_s6_adaline y backpropagation

  • 1. Inteligencia Artificial (W0I9) MSc. Ing. José C. Benítez P. Sesión: 6 Adaline y Backpropagation
  • 2. 2 Sesión 6. Adaline y Backpropagation Características de Adaline. Regla de Aprendizaje (LMS). Regla Delta Aplicaciones de Adaline. Regla del Perceptron. Backpropagation.
  • 3. 3 Adaline: Características En 1960, en la Universidad de Stanford, Bernard Widrow y Marcian Hoff, introdujeron la red ADALINE (ADAptive LInear Neuron – ADAptive LINear Element) y una regla de aprendizaje que llamaron LMS (Least mean square). La adaline es similar al perceptron, sólo que su función de transferencia es lineal, en lugar del escalón. Igual que el perceptrón, sólo puede resolver problemas linealmente separables. MADALINE: Multiple ADALINE
  • 4. 4 Adaline: Características Objetivo: Aplicar los principios de aprendizaje del rendimiento a redes lineales de una sola capa. El aprendizaje Widrow-Hoff es una aproximación del algoritmo del Descenso por gradiente, en el cual el índice de rendimiento es el error cuadrático medio. Importancia del algoritmo: Se usa ampliamente en aplicaciones de procesamiento de señales. Es el precursor del algoritmo Backpropagation para redes multicapas.
  • 5. 5 Adaline: Características Algoritmo LMS: Es más poderoso que la regla de aprendizaje del perceptron. La regla de aprendizaje del perceptron garantiza convergencia a una solución que clasifica correctamente los patrones de entrenamiento. Esa red es sensible al ruido, debido a que los patrones con frecuencia están muy cerca de las fronteras de decisión. El algoritmo LMS minimiza el error cuadrático medio, desplaza las fronteras de decisión lejos de los patrones de entrenamiento. El algoritmo LMS tiene más aplicaciones prácticas que la regla de aprendizaje del perceptron, especialmente en el procesamiento digital de señales, como por ejemplo, para cancelar echo en líneas telefónicas de larga distancia.
  • 6. 6 Adaline: Características Algoritmo LMS: La aplicación de este algoritmo a redes multicapas no prosperó por lo que Widrow se dedicó a trabajar en el campo del procesamiento digital adaptativo, y en 1980 comenzó su investigación con la aplicación de las Redes al control adaptativo, usando backpropagation temporal, descendiente del LMS.
  • 7. 7 Adaline: Características • Tipo de aprendizaje: Supervisado (OFF Line). • Tipo de aprendizaje: por corrección de error. • Algoritmo de aprendizaje: Regla del Mínimo Error Cuadrático Medio (LMS), o regla Delta, o regla de Widrow-Hoff • Función de transferencia: lineal (purelin). • Procesamiento de información analógica, tanto de entrada como de salida, utilizando una función de Activación Lineal o Sigmoidal. • También puede resolver problemas LS.
  • 8. 8 Adaline: Características Es aplicada a estructuras Lineales: Idea: Modificación de Pesos para tratar de reducir la diferencia entre la salida deseada y la actual (para cada patrón). Se denomina LMS (Least mean squares): Minimo Error Cuadrático Medio sobre todos los patrones de entrenamiento.
  • 9. 9 Adaline: Características Cálculo de Pesos Óptimos Sea el conjunto de entrenamiento: (X,D): Patrones de entrada y salidas deseadas. X : Conjunto de L vectores de dimensión n. D: Salida Deseada. Conjunto de L vectores de dimensión m (en este caso m=1). Y: Salida Obtenida Conjunto de L vectores de dimensión m ( en este caso m=1). Se trata de minimizar: Sea Yk la salida obtenida para el patrón k.
  • 12. 12 Adaline: Características Cálculo de W*: Método de Gradiente Descendente. Diferentes Métodos: Buscar por todo el espacio de pesos hasta encontrar los que hiciesen el error mínimo. Realizar una búsqueda aleatoria. Realizar una búsqueda Dirigida. Método: Se inicializan los pesos aleatoriamente (pto. de partida). Se determina, la dirección de la pendiente más pronunciada en dirección hacia abajo. Se modifican los pesos para encontrarnos un poco más abajo en la superficie.
  • 15. 15 Adaline: Algoritmo de Aprendizaje 1. Inicialización de pesos. 2. Se aplica un patrón de entrada (entradas y salida deseada). 3. Se computa la salida lineal que se obtiene de la red. 4. Se calcula el error cometido para dicho patrón. 5. Se actualizan las conexiones mediante la ecuación obtenida anteriormente. 6. Se repiten los pasos del 2 al 5 para todos los patrones de entrenamiento. 7. Si el error cuadrático medio es un valor reducido aceptable, termina el proceso. Sino se vuelve al paso 2.
  • 16. 16 Adaline: Aplicaciones La principal aplicación de las redes tipo Adaline se encuentra en el campo de procesamiento de señales. Concretamente en el diseño de filtros capaces de eliminar ruido en señales portadoras de información. Otra aplicación es la de los filtros adaptativos: Predecir el valor futuro de una señal a partir de su valor actual.
  • 17. 17 Adaline: Conclusiones Una simple capa de PE lineales pueden realizar aproximaciones a funciones lineales o asociación de patrones. Una simple capa de PE lineales puede ser entrenada con algoritmo LMS. Relaciones No Lineales entre entradas y salidas no pueden ser representadas exactamente por redes lineales. Dichas redes harán aproximaciones lineales. Otro tipo de redes abordarán la resolución de problemas no lineales.
  • 18. 18 Regla del Perceptron (Rosenblatt) Supongamos un PE con una función de transferencia del tipo Hardlimiter y en donde las entradas son binarias o bipolares (mismo que Adaline pero con esas restricciones). La regla que rige el cambio de pesos es: Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1. Sobre la regla anterior se han realizado diferentes modificaciones:
  • 19. 19 Regla del Perceptron (Rosenblatt) A) Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + µXi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - µXi(t) Si la salida = 1 y debería de ser -1. Con µ [0,1], término de control de ganancia y velocidad de aprendizaje. B) Otra de las modificaciones propuestas fue sugerida por Widrow and Hoff. Ellos propusieron una regla basada en la regla Delta. (Es la más utilizada). Tomando las entradas y salidas como bipolares tenemos que el cambio en los pesos se produce de la manera siguiente:
  • 20. 20 Regla del Perceptron (Rosenblatt)
  • 21. 21 Regla del Perceptron (Rosenblatt)
  • 22. 22 Red Backpropagation • Fue primeramente propuesto por Paul Werbos en los 70s en una Tesis doctoral. • Sin embargo, este algoritmo no fue conocido sino hasta 1980 año en que fue re-descubierto por David Rumelhart, Geoffrey Hinton y Ronald William, también David Parker y Yan Le Cun. • Fue publicado “Procesos Distribuidos en Paralelo” por David Rumelhart y Mc Clelland, y ampliamente publicitado y usado el algoritmo Backpropagation. • El perceptron multicapa entrenado por el algoritmo de retro propagación es la red mas ampliamente usada.
  • 23. 23 Red Backpropagation • En muchas situaciones del mundo real, nos enfrentamos con información incompleta o con ruido, y también es importante ser capaz de realizar predicciones razonables sobre casos nuevos de información disponible. • La red de retro propagación adapta sus pesos, para adquirir un entrenamiento a partir de un conjunto de pares de patrones entrada/salida • Después que la red ha aprendido ha esta se le puede aplicar un conjunto de patrones de prueba, para ver como esta generaliza a patrones no proporcionados.
  • 24. 24 Red Backpropagation • Red feedforward, completamente conectada. • El flujo de información fluye de la capa de entrada a la de salida a través de la capa oculta. • Cada unidad de procesamiento en la capa se conecta a todas las de la siguiente capa. • El nivel de activación en la capa de salida determina la salida de la red. • Las unidades producen valores reales basados en una función sigmoide.
  • 25. 25 Red Backpropagation • Si n=0 a=0.5, conforme n se incrementa la salida se aproxima a 1, conforme n disminuye, a se aproxima a 0. • Funciones de transferencia (diferenciables) • Sigmoidales, • Lineales n e a − + = 1 1
  • 26. 26 Red Backpropagation • La función de error define una superficie en el espacio de pesos, y estos son modificados sobre el gradiente de la superficie • Un mínimo local puede existir en la superficie de decisión: esto significa que no hay teorema de convergencia para la retropropagación (el espacio de pesos es lo suficientemente grande que esto rara ves sucede) • Las redes toman un periodo grande de entrenamiento y muchos ejemplos. • Además mientras la red generaliza, el sobre entrenamiento puede generar un problema.
  • 27. 27 Red Backpropagation: Arquitectura R – S1 – S2 – S3 Network
  • 28. 28 Red BP: Algoritmo de Aprendizaje • Los pesos se ajustan después de ver los pares entrada/salida del conjunto de entrenamiento. • En el sentido directo la red permite un flujo de activación en las capas. • En la retropropagación, la salida actual es comparada con la salida deseada, entonces se calcula el error para las unidades de salida • Entonces los pesos en la salida son ajustados para reducir el error, esto da un error estimado para las neuronas ocultas y así sucesivamente. • Una época se define como el ajuste de los pesos para todos los pares de entrenamientos, usualmente la red requiere muchas épocas para su entrenamiento.
  • 29. 29 Red BP: Algoritmo de Aprendizaje 1. Inicialice los pesos de la red con valores pequeños aleatorios. 2. Presentar un patrón de entrada y especificar la salida deseada. 3. Calcule los valores de ajuste de las unidades de salida en base al error observado. 4. Empezando por el nivel de salida, repita lo siguiente por cada nivel de la red, hasta llegar al primero de los niveles ocultos: • Propague los valores de ajuste de regreso al nivel anterior • Actualice los pesos que hay entre los dos niveles. 5. El proceso se repite hasta que el error resulta aceptablemente pequeño para cada uno de los patrones aprendidos.
  • 30. 30 Red BP: Algoritmo de Aprendizaje Gradiente Descendente: Después que se calcula el error, cada peso se ajusta en proporción al gradiente del error, retropropagado de la salidas a las entradas. El cambio en los pesos reduce el error total. Mínimo Local: Entre mas unidades ocultas se tengan en red, menor es la probabilidad de encontrar un mínimo local.
  • 31. 31 Red BP: Algoritmo de Aprendizaje La superficie del error:
  • 32. 32 Red BP: Algoritmo de Aprendizaje La superficie del error: En 2D
  • 33. 33 Red BP: Algoritmo de Aprendizaje La superficie del error: En 3D
  • 34. 34 Red BP: Algoritmo de Aprendizaje Selección de los Wij iniciales: • El error retro propagado a través de la red es proporcional al valor de los pesos. • Si todos los pesos son iguales, entonces el error retro propagado será igual, y todos los pesos serán actualizados en la misma cantidad • Si la solución al problema requiere que la red aprenda con pesos diferentes, entonces el tener pesos iguales al inicio previene a la red de aprender. • Es también recomendable tener valores pequeños de activación (umbral) en las unidades de procesamiento.
  • 35. 35 Red Backpropagation: Aplicaciones Determinar si un hongo es venenoso • Considera 8124 variedades de hongo • Cada hongo es descrito usando 21 características.
  • 36. 36 Red Backpropagation: Aplicaciones Diagnostico Medico • Basado en Visión por computadora. • Los síntomas son las entradas. • Los síntomas son trasladadas a un punto en el espacio de los patrones.
  • 38. 38 Red Backpropagation: Ejemplo XOR 01 1 1 4 11 0 1 3 11 1 0 2 01 0 0 1 =      = =      = =      = =      = TP TP TP TP Diseñe una red de retropropagación que solucione el problema de la OR-exclusiva usando el algoritmo de retropropación (regla delta generalizada)
  • 39. 39 Red Backpropagation: Ejemplo XOR [ ] 27.102.188.0 66.1 19.0 12.287.0 12.292.0 22 11 =−=       − =      − − = bw bw 01.0=α Parámetros iniciales
  • 40. Preguntas Al término de la experiencia de aprendizaje el alumno debe ser capaz de responder las siguientes preguntas: 1. ¿Cuáles son las características de la red Adaline? 2. Describir el algoritmo de aprendizaje de la red Adaline. 3. Comparar las características del Perceptron y de Adaline. 4. Comparar la regla de aprendizaje del Perceptron y de Adaline. 5. Listar cinco aplicaciones de las redes Adaline/Madaline. 6. ¿Cuáles son las características de la red Backpropagation? 7. Describir el algoritmo de aprendizaje de la red BP. 8. Comparar las características del Perceptron y de Adaline. 9. Comparar la regla de aprendizaje de Adaline y BP. 10. Listar cinco aplicaciones de las redes BP. 40
  • 41. 41 Sesión 6. Adaline y Backpropagation Inteligencia Artificial http://utpiayse.blogspot.com