SlideShare una empresa de Scribd logo
1 de 23
Descargar para leer sin conexión
Inteligencia Artificial
(W0I9)
Sesión: 5
MSc. Ing. José C. Benítez P.
Red Adaline
2
Adaline
Características.
Regla de Aprendizaje (LMS). Regla Delta.
Aplicaciones.
Clasificación de vectores.
Tratamiento de Señales.
Madaline.
3
Adaline Características
En 1960, en la Universidad de Stanford, Bernard
Widrow y Marcian Hoff, introdujeron la red ADALINE
(ADAptive LInear Neuron – ADAptive LINear Element) y
una regla de aprendizaje que llamaron LMS (Least
mean square).
La adaline es similar al perceptron, sólo que su función
de transferencia es lineal, en lugar del escalón.
Igual que el perceptrón, sólo puede resolver
problemas linealmente separables.
ADALINE: ADAptive LINear Element.
ADALINE: Una única neurona de salida
MADALINE: Multiple ADALINE
4
Adaline Características
Objetivo:
Aplicar los principios de aprendizaje del rendimiento a redes
lineales de una sola capa.
El aprendizaje Widrow-Hoff es una aproximación del
algoritmo del Descenso por gradiente, en el cual el índice de
rendimiento es el error cuadrático medio.
Importancia del algoritmo:
Se usa ampliamente en aplicaciones de procesamiento de
señales.
Es el precursor del algoritmo Backpropagation para redes
multicapas.
5
Adaline Características
Algoritmo LMS:
Es más poderoso que la regla de aprendizaje del perceptron.
La regla de aprendizaje del perceptron garantiza convergencia a una
solución que clasifica correctamente los patrones de entrenamiento. Esa
red es sensible al ruido, debido a que los patrones con frecuencia están
muy cerca de las fronteras de decisión.
El algoritmo LMS minimiza el error cuadrático medio, desplaza las fronteras
de decisión lejos de los patrones de entrenamiento.
El algoritmo LMS tiene más aplicaciones prácticas que la regla de
aprendizaje del perceptron, especialmente en el procesamiento digital de
señales, como por ejemplo, para cancelar echo en líneas telefónicas de
larga distancia.
La aplicación de este algoritmo a redes multicapas no prosperó por lo que
Widrow se dedicó a trabajar en el campo del procesamiento digital
adaptativo, y en 1980 comenzó su investigación con la aplicación de las
Redes al control adaptativo, usando backpropagation temporal,
descendiente del LMS.
6
Adaline Características
• Tipo de aprendizaje: Supervisado (OFF Line).
• Tipo de aprendizaje: por corrección de error.
• Algoritmo de aprendizaje: Regla del Mínimo Error
Cuadrático Medio (LMS), o regla Delta, o regla de
Widrow-Hoff
• Función de transferencia: lineal (purelin).
• Procesamiento de información analógica, tanto de
entrada como de salida, utilizando una función de
Activación Lineal o Sigmoidal.
• También puede resolver problemas LS.
7
Adaline
Es aplicada a estructuras Lineales:
Idea:
Modificación de Pesos para tratar de reducir la diferencia entre la
salida deseada y la actual (para cada patrón).
Se denomina LMS (Least mean squares): Minimo Error
Cuadrático Medio sobre todos los patrones de entrenamiento.
8
Adaline
Cálculo de Pesos Óptimos
Sea el conjunto de entrenamiento:
(X,D): Patrones de entrada y salidas deseadas.
X : Conjunto de L vectores de dimensión n.
D: Salida Deseada.
Conjunto de L vectores de dimensión m (en este caso m=1).
Y: Salida Obtenida
Conjunto de L vectores de dimensión m ( en este caso m=1).
Se trata de minimizar: Sea Yk la salida obtenida para el patrón k.
9
Adaline
10
Adaline
11
Adaline
Cálculo de W*: Método de Gradiente Descendente.
Diferentes Métodos:
Buscar por todo el espacio de pesos hasta
encontrar los que hiciesen el error mínimo.
Realizar una búsqueda aleatoria.
Realizar una búsqueda Dirigida.
Método:
Se inicializan los pesos aleatoriamente (pto. de
partida).
Se determina, la dirección de la pendiente más
pronunciada en dirección hacia abajo.
Se modifican los pesos para encontrarnos un
poco más abajo en la superficie.
12
Adaline
13
Adaline
14
Adaline
Algoritmo:
1. Inicialización de pesos.
2. Se aplica un patrón de entrada (entradas y salida
deseada).
3. Se computa la salida lineal que se obtiene de la red.
4. Se calcula el error cometido para dicho patrón.
5. Se actualizan las conexiones mediante la ecuación
obtenida anteriormente.
6. Se repiten los pasos del 2 al 5 para todos los patrones
de entrenamiento.
7. Si el error cuadrático medio es un valor reducido
aceptable, termina el proceso. Sino se vuelve al paso 2.
15
Adaline
Aplicaciones:
La principal aplicación de las redes tipo Adaline se encuentra
en el campo de procesamiento de señales. Concretamente
en el diseño de filtros capaces de eliminar ruido en señales
portadoras de información.
Otra aplicación es la de los filtros adaptativos: Predecir el
valor futuro de una señal a partir de su valor actual.
16
Adaline
CONCLUSIONES
Una simple capa de PE lineales pueden realizar
aproximaciones a funciones lineales o asociación de
patrones.
Una simple capa de PE lineales puede ser entrenada
con algoritmo LMS.
Relaciones No Lineales entre entradas y salidas no
pueden ser representadas exactamente por redes
lineales. Dichas redes harán aproximaciones lineales.
Otro tipo de redes abordarán la resolución de
problemas no lineales.
17
Regla del Perceptron (Rosenblatt)
Supongamos un PE con una función de transferencia
del tipo Hardlimiter y en donde las entradas son
binarias o bipolares (mismo que Adaline pero con
esas restricciones).
La regla que rige el cambio de pesos es:
Wi(t+1) = Wi(t) Si la salida es correcta.
Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1.
Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1.
Sobre la regla anterior se han realizado diferentes
modificaciones:
18
Regla del Perceptron (Rosenblatt)
A)
Wi(t+1) = Wi(t) Si la salida es correcta.
Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1.
Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1.
Con µ [0,1], término de control de ganancia y velocidad
de aprendizaje.
B) Otra de las modificaciones propuestas fue sugerida
por Widrow and Hoff. Ellos propusieron una regla basada
en la regla Delta. (Es la más utilizada).
Tomando las entradas y salidas como bipolares tenemos
que el cambio en los pesos se produce de la manera
siguiente:
19
Regla del Perceptron (Rosenblatt)
20
Regla del Perceptron (Rosenblatt)
Resumen
Las Tareas que no cumplan las
indicaciones no serán considerados
por el profesor.
21
Realizar un resumen mediante mapas conceptuales (CMapTools)
de esta diapositiva.
Serán mejor consideradas los resúmenes que tengan información
extra a esta diapositiva.
Las fuentes adicionales utilizadas en el resumen se presentarán
en su carpeta personal del Dropbox y deben conservar el nombre
original y agregar al final _S5.
Las fuentes y los archivos *.cmap deben colocarse dentro de su
carpeta personal del Dropbox, dentro de una carpeta de nombre:
IA_PaternoM_S5
Preguntas
El resumen con mapas conceptuales solicitado de la Sesión al
menos debe responder las siguientes preguntas:
1. ¿Cuáles son las características de la red Adaline?
2. Describir el algoritmo de aprendizaje de la red Adaline.
3. Comparar las características del Perceptron y de Adaline.
4. Comparar la regla de aprendizaje del Perceptron y de Adaline.
5. Listar cinco aplicaciones de las redes Adaline/Madaline.
22
23
Sesión 5. Redes Adaline
Inteligencia Artificial
http://utpiayse.blogspot.com

Más contenido relacionado

La actualidad más candente

Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusajcbp_peru
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusajcbp_peru
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2jcbp_peru
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptronjcbp_peru
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanESCOM
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radialJefferson Guillen
 
Utp sirn_2015-2 lab1
 Utp sirn_2015-2 lab1 Utp sirn_2015-2 lab1
Utp sirn_2015-2 lab1jcbp_peru
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base RadialESCOM
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlinsJuan Pinzón
 
Funciones de base Radial
Funciones de base RadialFunciones de base Radial
Funciones de base Radialguestc50c2f
 
Utp ia_2014-2_s10_redes de funciones de base radial
 Utp ia_2014-2_s10_redes de funciones de base radial Utp ia_2014-2_s10_redes de funciones de base radial
Utp ia_2014-2_s10_redes de funciones de base radialjcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Matlab Neural Network Toolbox MATLAB
Matlab Neural Network Toolbox MATLABMatlab Neural Network Toolbox MATLAB
Matlab Neural Network Toolbox MATLABESCOM
 

La actualidad más candente (14)

Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusa
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusa
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radial
 
Utp sirn_2015-2 lab1
 Utp sirn_2015-2 lab1 Utp sirn_2015-2 lab1
Utp sirn_2015-2 lab1
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlins
 
Funciones de base Radial
Funciones de base RadialFunciones de base Radial
Funciones de base Radial
 
Utp ia_2014-2_s10_redes de funciones de base radial
 Utp ia_2014-2_s10_redes de funciones de base radial Utp ia_2014-2_s10_redes de funciones de base radial
Utp ia_2014-2_s10_redes de funciones de base radial
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Matlab Neural Network Toolbox MATLAB
Matlab Neural Network Toolbox MATLABMatlab Neural Network Toolbox MATLAB
Matlab Neural Network Toolbox MATLAB
 

Destacado

Utp pdi_2014-2 lab2
 Utp pdi_2014-2 lab2 Utp pdi_2014-2 lab2
Utp pdi_2014-2 lab2jcbp_peru
 
Utp pd_iy_va_sap6 operaciones morfologicas i
 Utp pd_iy_va_sap6 operaciones morfologicas i Utp pd_iy_va_sap6 operaciones morfologicas i
Utp pd_iy_va_sap6 operaciones morfologicas ijcbp_peru
 
Tarea 01 proyectos addison lenin tola gallegos
Tarea 01 proyectos   addison lenin tola gallegosTarea 01 proyectos   addison lenin tola gallegos
Tarea 01 proyectos addison lenin tola gallegosAddison TOla
 
Netvibes es un lector rss facebook
Netvibes es un lector rss facebookNetvibes es un lector rss facebook
Netvibes es un lector rss facebookMauro Garcia
 
Sirn oct 30_19_15[1]
Sirn oct 30_19_15[1]Sirn oct 30_19_15[1]
Sirn oct 30_19_15[1]jcbp_peru
 
Decimo semana 21
Decimo semana 21Decimo semana 21
Decimo semana 21Luis Cruz
 
Reproductores mp3 y mp4 multimedia digital
Reproductores mp3 y mp4 multimedia digitalReproductores mp3 y mp4 multimedia digital
Reproductores mp3 y mp4 multimedia digitalkarenyoc
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Presentación derechos del niño
Presentación derechos del niñoPresentación derechos del niño
Presentación derechos del niñoyennyenriquez
 
Ea14 algoritmos geneticos
Ea14 algoritmos geneticosEa14 algoritmos geneticos
Ea14 algoritmos geneticosjcbp_peru
 
Caso, la paz en colombia
Caso, la paz en colombiaCaso, la paz en colombia
Caso, la paz en colombiaBrendisca
 
El buen uso del internet
El buen uso del internetEl buen uso del internet
El buen uso del internetproculorico
 

Destacado (20)

Segunso indicador
Segunso indicadorSegunso indicador
Segunso indicador
 
Librosmasvendidos
LibrosmasvendidosLibrosmasvendidos
Librosmasvendidos
 
Utp pdi_2014-2 lab2
 Utp pdi_2014-2 lab2 Utp pdi_2014-2 lab2
Utp pdi_2014-2 lab2
 
Utp pd_iy_va_sap6 operaciones morfologicas i
 Utp pd_iy_va_sap6 operaciones morfologicas i Utp pd_iy_va_sap6 operaciones morfologicas i
Utp pd_iy_va_sap6 operaciones morfologicas i
 
Tarea 01 proyectos addison lenin tola gallegos
Tarea 01 proyectos   addison lenin tola gallegosTarea 01 proyectos   addison lenin tola gallegos
Tarea 01 proyectos addison lenin tola gallegos
 
Netvibes es un lector rss facebook
Netvibes es un lector rss facebookNetvibes es un lector rss facebook
Netvibes es un lector rss facebook
 
Intoleranciagluten modulo1
Intoleranciagluten modulo1Intoleranciagluten modulo1
Intoleranciagluten modulo1
 
Glosario
GlosarioGlosario
Glosario
 
Sirn oct 30_19_15[1]
Sirn oct 30_19_15[1]Sirn oct 30_19_15[1]
Sirn oct 30_19_15[1]
 
Decimo semana 21
Decimo semana 21Decimo semana 21
Decimo semana 21
 
Repositorios web
Repositorios webRepositorios web
Repositorios web
 
Reproductores mp3 y mp4 multimedia digital
Reproductores mp3 y mp4 multimedia digitalReproductores mp3 y mp4 multimedia digital
Reproductores mp3 y mp4 multimedia digital
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Repositorios
RepositoriosRepositorios
Repositorios
 
Presentación derechos del niño
Presentación derechos del niñoPresentación derechos del niño
Presentación derechos del niño
 
Ea14 algoritmos geneticos
Ea14 algoritmos geneticosEa14 algoritmos geneticos
Ea14 algoritmos geneticos
 
Caso, la paz en colombia
Caso, la paz en colombiaCaso, la paz en colombia
Caso, la paz en colombia
 
El buen uso del internet
El buen uso del internetEl buen uso del internet
El buen uso del internet
 
Librosmasvendidos
LibrosmasvendidosLibrosmasvendidos
Librosmasvendidos
 
Enfermedad laboral
Enfermedad  laboralEnfermedad  laboral
Enfermedad laboral
 

Similar a Utp ia_2014-2_s5_adaline

Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adalinec09271
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptronjcbenitezp
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagationjcbp_peru
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y AdalineSpacetoshare
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificialcarlos colque
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlabInnoVacompu
 
k vector search technique (spanish)
k vector search technique (spanish)k vector search technique (spanish)
k vector search technique (spanish)El Suizo
 
Redes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y KohonenRedes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y KohonenJefferson Guillen
 

Similar a Utp ia_2014-2_s5_adaline (20)

Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adaline
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptron
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagation
 
Plantilla ensayo
Plantilla ensayoPlantilla ensayo
Plantilla ensayo
 
Plantilla ensayo
Plantilla ensayoPlantilla ensayo
Plantilla ensayo
 
Plantilla ensayo
Plantilla ensayoPlantilla ensayo
Plantilla ensayo
 
Plantilla ensayo
Plantilla ensayoPlantilla ensayo
Plantilla ensayo
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y Adaline
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificial
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 
Optimizacion en IMRT
Optimizacion en IMRTOptimizacion en IMRT
Optimizacion en IMRT
 
k vector search technique (spanish)
k vector search technique (spanish)k vector search technique (spanish)
k vector search technique (spanish)
 
Redes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y KohonenRedes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y Kohonen
 
Boletin3
Boletin3Boletin3
Boletin3
 

Más de jcbp_peru

It526 2017 1 balotario-s_ap2y3
It526 2017 1 balotario-s_ap2y3It526 2017 1 balotario-s_ap2y3
It526 2017 1 balotario-s_ap2y3jcbp_peru
 
It526 2016 2 pc4 dom
It526 2016 2 pc4 domIt526 2016 2 pc4 dom
It526 2016 2 pc4 domjcbp_peru
 
It246 2016 2 practica calificada 4
It246 2016 2 practica calificada 4It246 2016 2 practica calificada 4
It246 2016 2 practica calificada 4jcbp_peru
 
It246 2016 2 practica calificada 3
It246 2016 2 practica calificada 3It246 2016 2 practica calificada 3
It246 2016 2 practica calificada 3jcbp_peru
 
It246 2016 2 practica calificada 2
It246 2016 2 practica calificada 2It246 2016 2 practica calificada 2
It246 2016 2 practica calificada 2jcbp_peru
 
It526 2013 2 ep
It526 2013 2 epIt526 2013 2 ep
It526 2013 2 epjcbp_peru
 
It526 2016 1 ep
It526 2016 1 epIt526 2016 1 ep
It526 2016 1 epjcbp_peru
 
It526 2016 2 practica calificada 2
It526 2016 2 practica calificada 2It526 2016 2 practica calificada 2
It526 2016 2 practica calificada 2jcbp_peru
 
33012 calvo tfw-figura-paterna-2015
33012 calvo tfw-figura-paterna-201533012 calvo tfw-figura-paterna-2015
33012 calvo tfw-figura-paterna-2015jcbp_peru
 
It246 2016 2 practica calificada 1
It246 2016 2 practica calificada 1It246 2016 2 practica calificada 1
It246 2016 2 practica calificada 1jcbp_peru
 
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacionUni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacionjcbp_peru
 
Uni fiee ci 2016 02 sesion 2 servicios inalámbricos
Uni fiee ci 2016 02 sesion 2 servicios inalámbricosUni fiee ci 2016 02 sesion 2 servicios inalámbricos
Uni fiee ci 2016 02 sesion 2 servicios inalámbricosjcbp_peru
 
Uni fiee ci 2016 02 sesion 1 espectro radioelèctrico
Uni fiee ci 2016 02 sesion 1 espectro radioelèctricoUni fiee ci 2016 02 sesion 1 espectro radioelèctrico
Uni fiee ci 2016 02 sesion 1 espectro radioelèctricojcbp_peru
 
Uni wc 2016 1 sesion 14 redes moviles 4 g
Uni wc 2016 1 sesion 14 redes moviles 4 gUni wc 2016 1 sesion 14 redes moviles 4 g
Uni wc 2016 1 sesion 14 redes moviles 4 gjcbp_peru
 
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3g
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3gUni wc 2016 1 sesion 13 redes moviles 2 g y 3g
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3gjcbp_peru
 
Lte whitepaper(1)
 Lte whitepaper(1) Lte whitepaper(1)
Lte whitepaper(1)jcbp_peru
 
Redes moviles
Redes movilesRedes moviles
Redes movilesjcbp_peru
 
Uni fiee ci sesion 12 cdma
Uni fiee ci sesion 12 cdmaUni fiee ci sesion 12 cdma
Uni fiee ci sesion 12 cdmajcbp_peru
 
Uni fiee ci 2016 01 sesion 11 comunicaciones moviles
Uni fiee ci 2016 01 sesion 11 comunicaciones movilesUni fiee ci 2016 01 sesion 11 comunicaciones moviles
Uni fiee ci 2016 01 sesion 11 comunicaciones movilesjcbp_peru
 
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacionUni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacionjcbp_peru
 

Más de jcbp_peru (20)

It526 2017 1 balotario-s_ap2y3
It526 2017 1 balotario-s_ap2y3It526 2017 1 balotario-s_ap2y3
It526 2017 1 balotario-s_ap2y3
 
It526 2016 2 pc4 dom
It526 2016 2 pc4 domIt526 2016 2 pc4 dom
It526 2016 2 pc4 dom
 
It246 2016 2 practica calificada 4
It246 2016 2 practica calificada 4It246 2016 2 practica calificada 4
It246 2016 2 practica calificada 4
 
It246 2016 2 practica calificada 3
It246 2016 2 practica calificada 3It246 2016 2 practica calificada 3
It246 2016 2 practica calificada 3
 
It246 2016 2 practica calificada 2
It246 2016 2 practica calificada 2It246 2016 2 practica calificada 2
It246 2016 2 practica calificada 2
 
It526 2013 2 ep
It526 2013 2 epIt526 2013 2 ep
It526 2013 2 ep
 
It526 2016 1 ep
It526 2016 1 epIt526 2016 1 ep
It526 2016 1 ep
 
It526 2016 2 practica calificada 2
It526 2016 2 practica calificada 2It526 2016 2 practica calificada 2
It526 2016 2 practica calificada 2
 
33012 calvo tfw-figura-paterna-2015
33012 calvo tfw-figura-paterna-201533012 calvo tfw-figura-paterna-2015
33012 calvo tfw-figura-paterna-2015
 
It246 2016 2 practica calificada 1
It246 2016 2 practica calificada 1It246 2016 2 practica calificada 1
It246 2016 2 practica calificada 1
 
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacionUni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
Uni fiee ci 2016 02 sesion 3y4 modelos deterministicos de propagacion
 
Uni fiee ci 2016 02 sesion 2 servicios inalámbricos
Uni fiee ci 2016 02 sesion 2 servicios inalámbricosUni fiee ci 2016 02 sesion 2 servicios inalámbricos
Uni fiee ci 2016 02 sesion 2 servicios inalámbricos
 
Uni fiee ci 2016 02 sesion 1 espectro radioelèctrico
Uni fiee ci 2016 02 sesion 1 espectro radioelèctricoUni fiee ci 2016 02 sesion 1 espectro radioelèctrico
Uni fiee ci 2016 02 sesion 1 espectro radioelèctrico
 
Uni wc 2016 1 sesion 14 redes moviles 4 g
Uni wc 2016 1 sesion 14 redes moviles 4 gUni wc 2016 1 sesion 14 redes moviles 4 g
Uni wc 2016 1 sesion 14 redes moviles 4 g
 
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3g
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3gUni wc 2016 1 sesion 13 redes moviles 2 g y 3g
Uni wc 2016 1 sesion 13 redes moviles 2 g y 3g
 
Lte whitepaper(1)
 Lte whitepaper(1) Lte whitepaper(1)
Lte whitepaper(1)
 
Redes moviles
Redes movilesRedes moviles
Redes moviles
 
Uni fiee ci sesion 12 cdma
Uni fiee ci sesion 12 cdmaUni fiee ci sesion 12 cdma
Uni fiee ci sesion 12 cdma
 
Uni fiee ci 2016 01 sesion 11 comunicaciones moviles
Uni fiee ci 2016 01 sesion 11 comunicaciones movilesUni fiee ci 2016 01 sesion 11 comunicaciones moviles
Uni fiee ci 2016 01 sesion 11 comunicaciones moviles
 
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacionUni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
Uni fiee ci 2016 01 sesion 10 modelos deterministicos de propagacion
 

Utp ia_2014-2_s5_adaline

  • 1. Inteligencia Artificial (W0I9) Sesión: 5 MSc. Ing. José C. Benítez P. Red Adaline
  • 2. 2 Adaline Características. Regla de Aprendizaje (LMS). Regla Delta. Aplicaciones. Clasificación de vectores. Tratamiento de Señales. Madaline.
  • 3. 3 Adaline Características En 1960, en la Universidad de Stanford, Bernard Widrow y Marcian Hoff, introdujeron la red ADALINE (ADAptive LInear Neuron – ADAptive LINear Element) y una regla de aprendizaje que llamaron LMS (Least mean square). La adaline es similar al perceptron, sólo que su función de transferencia es lineal, en lugar del escalón. Igual que el perceptrón, sólo puede resolver problemas linealmente separables. ADALINE: ADAptive LINear Element. ADALINE: Una única neurona de salida MADALINE: Multiple ADALINE
  • 4. 4 Adaline Características Objetivo: Aplicar los principios de aprendizaje del rendimiento a redes lineales de una sola capa. El aprendizaje Widrow-Hoff es una aproximación del algoritmo del Descenso por gradiente, en el cual el índice de rendimiento es el error cuadrático medio. Importancia del algoritmo: Se usa ampliamente en aplicaciones de procesamiento de señales. Es el precursor del algoritmo Backpropagation para redes multicapas.
  • 5. 5 Adaline Características Algoritmo LMS: Es más poderoso que la regla de aprendizaje del perceptron. La regla de aprendizaje del perceptron garantiza convergencia a una solución que clasifica correctamente los patrones de entrenamiento. Esa red es sensible al ruido, debido a que los patrones con frecuencia están muy cerca de las fronteras de decisión. El algoritmo LMS minimiza el error cuadrático medio, desplaza las fronteras de decisión lejos de los patrones de entrenamiento. El algoritmo LMS tiene más aplicaciones prácticas que la regla de aprendizaje del perceptron, especialmente en el procesamiento digital de señales, como por ejemplo, para cancelar echo en líneas telefónicas de larga distancia. La aplicación de este algoritmo a redes multicapas no prosperó por lo que Widrow se dedicó a trabajar en el campo del procesamiento digital adaptativo, y en 1980 comenzó su investigación con la aplicación de las Redes al control adaptativo, usando backpropagation temporal, descendiente del LMS.
  • 6. 6 Adaline Características • Tipo de aprendizaje: Supervisado (OFF Line). • Tipo de aprendizaje: por corrección de error. • Algoritmo de aprendizaje: Regla del Mínimo Error Cuadrático Medio (LMS), o regla Delta, o regla de Widrow-Hoff • Función de transferencia: lineal (purelin). • Procesamiento de información analógica, tanto de entrada como de salida, utilizando una función de Activación Lineal o Sigmoidal. • También puede resolver problemas LS.
  • 7. 7 Adaline Es aplicada a estructuras Lineales: Idea: Modificación de Pesos para tratar de reducir la diferencia entre la salida deseada y la actual (para cada patrón). Se denomina LMS (Least mean squares): Minimo Error Cuadrático Medio sobre todos los patrones de entrenamiento.
  • 8. 8 Adaline Cálculo de Pesos Óptimos Sea el conjunto de entrenamiento: (X,D): Patrones de entrada y salidas deseadas. X : Conjunto de L vectores de dimensión n. D: Salida Deseada. Conjunto de L vectores de dimensión m (en este caso m=1). Y: Salida Obtenida Conjunto de L vectores de dimensión m ( en este caso m=1). Se trata de minimizar: Sea Yk la salida obtenida para el patrón k.
  • 11. 11 Adaline Cálculo de W*: Método de Gradiente Descendente. Diferentes Métodos: Buscar por todo el espacio de pesos hasta encontrar los que hiciesen el error mínimo. Realizar una búsqueda aleatoria. Realizar una búsqueda Dirigida. Método: Se inicializan los pesos aleatoriamente (pto. de partida). Se determina, la dirección de la pendiente más pronunciada en dirección hacia abajo. Se modifican los pesos para encontrarnos un poco más abajo en la superficie.
  • 14. 14 Adaline Algoritmo: 1. Inicialización de pesos. 2. Se aplica un patrón de entrada (entradas y salida deseada). 3. Se computa la salida lineal que se obtiene de la red. 4. Se calcula el error cometido para dicho patrón. 5. Se actualizan las conexiones mediante la ecuación obtenida anteriormente. 6. Se repiten los pasos del 2 al 5 para todos los patrones de entrenamiento. 7. Si el error cuadrático medio es un valor reducido aceptable, termina el proceso. Sino se vuelve al paso 2.
  • 15. 15 Adaline Aplicaciones: La principal aplicación de las redes tipo Adaline se encuentra en el campo de procesamiento de señales. Concretamente en el diseño de filtros capaces de eliminar ruido en señales portadoras de información. Otra aplicación es la de los filtros adaptativos: Predecir el valor futuro de una señal a partir de su valor actual.
  • 16. 16 Adaline CONCLUSIONES Una simple capa de PE lineales pueden realizar aproximaciones a funciones lineales o asociación de patrones. Una simple capa de PE lineales puede ser entrenada con algoritmo LMS. Relaciones No Lineales entre entradas y salidas no pueden ser representadas exactamente por redes lineales. Dichas redes harán aproximaciones lineales. Otro tipo de redes abordarán la resolución de problemas no lineales.
  • 17. 17 Regla del Perceptron (Rosenblatt) Supongamos un PE con una función de transferencia del tipo Hardlimiter y en donde las entradas son binarias o bipolares (mismo que Adaline pero con esas restricciones). La regla que rige el cambio de pesos es: Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1. Sobre la regla anterior se han realizado diferentes modificaciones:
  • 18. 18 Regla del Perceptron (Rosenblatt) A) Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1. Con µ [0,1], término de control de ganancia y velocidad de aprendizaje. B) Otra de las modificaciones propuestas fue sugerida por Widrow and Hoff. Ellos propusieron una regla basada en la regla Delta. (Es la más utilizada). Tomando las entradas y salidas como bipolares tenemos que el cambio en los pesos se produce de la manera siguiente:
  • 19. 19 Regla del Perceptron (Rosenblatt)
  • 20. 20 Regla del Perceptron (Rosenblatt)
  • 21. Resumen Las Tareas que no cumplan las indicaciones no serán considerados por el profesor. 21 Realizar un resumen mediante mapas conceptuales (CMapTools) de esta diapositiva. Serán mejor consideradas los resúmenes que tengan información extra a esta diapositiva. Las fuentes adicionales utilizadas en el resumen se presentarán en su carpeta personal del Dropbox y deben conservar el nombre original y agregar al final _S5. Las fuentes y los archivos *.cmap deben colocarse dentro de su carpeta personal del Dropbox, dentro de una carpeta de nombre: IA_PaternoM_S5
  • 22. Preguntas El resumen con mapas conceptuales solicitado de la Sesión al menos debe responder las siguientes preguntas: 1. ¿Cuáles son las características de la red Adaline? 2. Describir el algoritmo de aprendizaje de la red Adaline. 3. Comparar las características del Perceptron y de Adaline. 4. Comparar la regla de aprendizaje del Perceptron y de Adaline. 5. Listar cinco aplicaciones de las redes Adaline/Madaline. 22
  • 23. 23 Sesión 5. Redes Adaline Inteligencia Artificial http://utpiayse.blogspot.com