SlideShare una empresa de Scribd logo
1 de 19
Descargar para leer sin conexión
Ing. José C. Benítez P.
Sesión 5
Inteligencia Artificial
(WOI9)
RNA Adaline
Algoritmos
Adaline
Características.
Regla de Aprendizaje (LMS). Regla Delta.
Aplicaciones.
Madaline.
Regla del Perceptron
Sesión 5. Temas
Adaline
Características.
Regla de Aprendizaje (LMS). Regla Delta.
Aplicaciones.
o Clasificación de vectores.
o Tratamiento de Señales.
Madaline.
Adaline Caracteristicas
• Es un tipo de aprendizaje OFF Line.
• Se enmarca dentro del tipo de aprendizaje por
corrección de error.
• Se utiliza para entrenar un Elemento Simple de
Procesado, con una función de transferencia lineal.
• Se le conoce también con el nombre de Regla de
Widrow-Hoff.
• Se pueden combinar un cierto nº de PEs en la capa
de salida (estructura con un cierto grado de
complejidad). La regla se aplica sobre cada uno de
los PE de manera individual.
Adaline
Es aplicada a estructuras Lineales:
Idea:
Modificación de Pesos para tratar de reducir la diferencia entre
la salida deseada y la actual (para cada patrón).
Se denomina LMS (Least mean squares): minimiza el Error
Cuadrático Medio sobre todos los patrones de entrenamiento.
Adaline
Cálculo de Pesos Óptimos
Sea el conjunto de entrenamiento:
(X,D): patrones de entrada y salidas deseadas.
X ---- conjunto de L vectores de dimensión n.
D ---- conjunto de L vectores de dimensión m (en este caso m=1). Salida Deseada.
Y ---- conjunto de L vectores de dimensión m ( en este caso m=1). Salida Obtenida
Se trata de minimizar: Sea Yk la salida obtenida para el patrón k.
Adaline
Adaline
Adaline
Cálculo de W*: Método de Gradiente Descendente.
Diferentes Métodos:
Buscar por todo el espacio de pesos hasta
encontrar los que hiciesen el error mínimo.
Realizar una búsqueda aleatoria.
Realizar una búsqueda Dirigida.
Método:
Se inicializan los pesos aleatoriamente (pto. de
partida).
Se determina, la dirección de la pendiente más
pronunciada en dirección hacia abajo.
Se modifican los pesos para encontrarnos un poco
más abajo en la superficie.
Adaline
Adaline
Adaline
Algoritmo:
1. Inicialización de pesos.
2. Se aplica un patrón de entrada (entradas y salida
deseada).
3. Se computa la salida lineal que se obtiene de la red.
4. Se calcula el error cometido para dicho patrón.
5. Se actualizan las conexiones mediante la ecuación
obtenida anteriormente.
6. Se repiten los pasos del 2 al 5 para todos los patrones
de entrenamiento.
7. Si el error cuadrático medio es un valor reducido
aceptable, termina el proceso. Sino se vuelve al paso 2.
Adaline
Aplicaciones:
La principal aplicación de las redes tipo Adaline se
encuentra en el campo de procesamiento de señales.
Concretamente en el diseño de filtros capaces de eliminar
ruido en señales portadoras de información.
Otra aplicación es la de los filtros adaptativos: Predecir el
valor futuro de una señal a partir de su valor actual.
Adaline
CONCLUSIONES
Una simple capa de PE lineales pueden realizar
aproximaciones a funciones lineales o asociación de
patrones.
Una simple capa de PE lineales puede ser entrenada
con algoritmo LMS.
Relaciones No Lineales entre entradas y salidas no
pueden ser representadas exactamente por redes
lineales. Dichas redes harán aproximaciones lineales.
Otro tipo de redes abordarán la resolución de
problemas no lineales.
Regla del Perceptron (Rosenblatt)
Supongamos un PE con una función de transferencia
del tipo Hardlimiter y en donde las entradas son
binarias o bipolares (mismo que Adaline pero con
esas restricciones).
La regla que rige el cambio de pesos es:
Wi(t+1) = Wi(t) Si la salida es correcta.
Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1.
Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1.
Sobre la regla anterior se han realizado diferentes
modificaciones:
Regla del Perceptron (Rosenblatt)
A)
Wi(t+1) = Wi(t) Si la salida es correcta.
Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1.
Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1.
Con µ [0,1], término de control de ganancia y velocidad
de aprendizaje.
B) Otra de las modificaciones propuestas fue sugerida
por Widrow and Hoff. Ellos propusieron una regla basada
en la regla Delta. (Es la más utilizada).
Tomando las entradas y salidas como bipolares tenemos
que el cambio en los pesos se produce de la manera
siguiente:
Regla del Perceptron (Rosenblatt)
Regla del Perceptron (Rosenblatt)
Sesión 5
Inteligencia Artificial

Más contenido relacionado

La actualidad más candente

Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Propiedades de la convolución
Propiedades de la convoluciónPropiedades de la convolución
Propiedades de la convoluciónYolanda Mora
 
Algoritmo prim
Algoritmo primAlgoritmo prim
Algoritmo primAbraham
 
Funciones singulares jesus badell
Funciones singulares jesus badellFunciones singulares jesus badell
Funciones singulares jesus badelljesus badell
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Tribunal Electoral Provincia de Misiones
 
teoremas de limites
teoremas de limitesteoremas de limites
teoremas de limitesluis vite
 
Analisis de circuitos: leyes de kirchhoff por mallas
Analisis de circuitos: leyes de kirchhoff por mallasAnalisis de circuitos: leyes de kirchhoff por mallas
Analisis de circuitos: leyes de kirchhoff por mallasJuans Sanabria
 
SeñAles Y Sistemas1
SeñAles Y Sistemas1SeñAles Y Sistemas1
SeñAles Y Sistemas1Matematissen
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radialJefferson Guillen
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base RadialESCOM
 
Automata Finito No Determinista
Automata Finito No DeterministaAutomata Finito No Determinista
Automata Finito No DeterministaJean Bernard
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Funciones de base Radial
Funciones de base RadialFunciones de base Radial
Funciones de base Radialguestc50c2f
 
Integración por sustitución
Integración por sustituciónIntegración por sustitución
Integración por sustitucióninsutecvirtual
 
Red Neuronal Adaline
Red Neuronal AdalineRed Neuronal Adaline
Red Neuronal Adalinefernandoman
 
diagramas de bloque y funciones de transferencia
 diagramas de bloque y funciones de transferencia diagramas de bloque y funciones de transferencia
diagramas de bloque y funciones de transferenciaJorge Luis Jaramillo
 

La actualidad más candente (20)

Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Aprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simpleAprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simple
 
Propiedades de la convolución
Propiedades de la convoluciónPropiedades de la convolución
Propiedades de la convolución
 
Algoritmo prim
Algoritmo primAlgoritmo prim
Algoritmo prim
 
Funciones singulares jesus badell
Funciones singulares jesus badellFunciones singulares jesus badell
Funciones singulares jesus badell
 
prueba
pruebaprueba
prueba
 
Sistemas Lineales
Sistemas LinealesSistemas Lineales
Sistemas Lineales
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
 
teoremas de limites
teoremas de limitesteoremas de limites
teoremas de limites
 
Analisis de circuitos: leyes de kirchhoff por mallas
Analisis de circuitos: leyes de kirchhoff por mallasAnalisis de circuitos: leyes de kirchhoff por mallas
Analisis de circuitos: leyes de kirchhoff por mallas
 
SeñAles Y Sistemas1
SeñAles Y Sistemas1SeñAles Y Sistemas1
SeñAles Y Sistemas1
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radial
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
Automata Finito No Determinista
Automata Finito No DeterministaAutomata Finito No Determinista
Automata Finito No Determinista
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Funciones de base Radial
Funciones de base RadialFunciones de base Radial
Funciones de base Radial
 
Integración por sustitución
Integración por sustituciónIntegración por sustitución
Integración por sustitución
 
Red Neuronal Adaline
Red Neuronal AdalineRed Neuronal Adaline
Red Neuronal Adaline
 
diagramas de bloque y funciones de transferencia
 diagramas de bloque y funciones de transferencia diagramas de bloque y funciones de transferencia
diagramas de bloque y funciones de transferencia
 

Similar a Utp ia_s5_adaline

Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptronjcbenitezp
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartifanaisplani
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y AdalineSpacetoshare
 
Inteligencia Artificial - Leonys B
Inteligencia Artificial - Leonys BInteligencia Artificial - Leonys B
Inteligencia Artificial - Leonys BJose Andres
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagationjcbp_peru
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Manual.ioii
Manual.ioiiManual.ioii
Manual.ioiiedgar
 
05 (power point)-héctor patiño
05 (power point)-héctor patiño05 (power point)-héctor patiño
05 (power point)-héctor patiñoAlejandro Perez
 
Utp ia_sl1 funciones de rna
 Utp ia_sl1 funciones de rna Utp ia_sl1 funciones de rna
Utp ia_sl1 funciones de rnajcbenitezp
 
Gradiente descendiente
Gradiente descendienteGradiente descendiente
Gradiente descendienteESCOM
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 

Similar a Utp ia_s5_adaline (20)

Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptron
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartif
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y Adaline
 
Inteligencia Artificial - Leonys B
Inteligencia Artificial - Leonys BInteligencia Artificial - Leonys B
Inteligencia Artificial - Leonys B
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagation
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Boletin3
Boletin3Boletin3
Boletin3
 
Manual.ioii
Manual.ioiiManual.ioii
Manual.ioii
 
05 (power point)-héctor patiño
05 (power point)-héctor patiño05 (power point)-héctor patiño
05 (power point)-héctor patiño
 
Utp ia_sl1 funciones de rna
 Utp ia_sl1 funciones de rna Utp ia_sl1 funciones de rna
Utp ia_sl1 funciones de rna
 
Gradiente descendiente
Gradiente descendienteGradiente descendiente
Gradiente descendiente
 
Lugar_geometrico_de_las_raices.pdf
Lugar_geometrico_de_las_raices.pdfLugar_geometrico_de_las_raices.pdf
Lugar_geometrico_de_las_raices.pdf
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 

Más de c09271

0121 2494-pys-50-11 (1)
0121 2494-pys-50-11 (1)0121 2494-pys-50-11 (1)
0121 2494-pys-50-11 (1)c09271
 
S01.s1 material
S01.s1   materialS01.s1   material
S01.s1 materialc09271
 
jcbenitezp
jcbenitezpjcbenitezp
jcbenitezpc09271
 
Pdi paterno m_lab1
Pdi paterno m_lab1Pdi paterno m_lab1
Pdi paterno m_lab1c09271
 
Ul rc_cap4_capa de red - encaminamiento ruteo
 Ul rc_cap4_capa de red - encaminamiento ruteo Ul rc_cap4_capa de red - encaminamiento ruteo
Ul rc_cap4_capa de red - encaminamiento ruteoc09271
 
Ul rc_cap3_el nivel de red en internet
 Ul rc_cap3_el nivel de red en internet Ul rc_cap3_el nivel de red en internet
Ul rc_cap3_el nivel de red en internetc09271
 
Ul rc_cap2_la capa de red
 Ul rc_cap2_la capa de red Ul rc_cap2_la capa de red
Ul rc_cap2_la capa de redc09271
 
X 4 prospeccion
X 4 prospeccionX 4 prospeccion
X 4 prospeccionc09271
 
Carrier ethernetessentials
Carrier ethernetessentialsCarrier ethernetessentials
Carrier ethernetessentialsc09271
 
Metro ethernet-services
Metro ethernet-servicesMetro ethernet-services
Metro ethernet-servicesc09271
 
Metroethernet redes-y-servicios
Metroethernet redes-y-serviciosMetroethernet redes-y-servicios
Metroethernet redes-y-serviciosc09271
 
Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial i
 Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial i Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial i
Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial ic09271
 
Ia 2014 2 balotario de la pc1
Ia 2014 2 balotario de la pc1Ia 2014 2 balotario de la pc1
Ia 2014 2 balotario de la pc1c09271
 
9275315981 reduce
9275315981 reduce9275315981 reduce
9275315981 reducec09271
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptronc09271
 
Utp 2014-2_pdi_sap2 iluminacion y modos de color
 Utp 2014-2_pdi_sap2 iluminacion y modos de color Utp 2014-2_pdi_sap2 iluminacion y modos de color
Utp 2014-2_pdi_sap2 iluminacion y modos de colorc09271
 
Utp 2014-2_ia_s2_intro a las rna
 Utp 2014-2_ia_s2_intro a las rna  Utp 2014-2_ia_s2_intro a las rna
Utp 2014-2_ia_s2_intro a las rna c09271
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2c09271
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2c09271
 

Más de c09271 (20)

0121 2494-pys-50-11 (1)
0121 2494-pys-50-11 (1)0121 2494-pys-50-11 (1)
0121 2494-pys-50-11 (1)
 
S01.s1 material
S01.s1   materialS01.s1   material
S01.s1 material
 
jcbenitezp
jcbenitezpjcbenitezp
jcbenitezp
 
Pdi paterno m_lab1
Pdi paterno m_lab1Pdi paterno m_lab1
Pdi paterno m_lab1
 
Ul rc_cap4_capa de red - encaminamiento ruteo
 Ul rc_cap4_capa de red - encaminamiento ruteo Ul rc_cap4_capa de red - encaminamiento ruteo
Ul rc_cap4_capa de red - encaminamiento ruteo
 
Ul rc_cap3_el nivel de red en internet
 Ul rc_cap3_el nivel de red en internet Ul rc_cap3_el nivel de red en internet
Ul rc_cap3_el nivel de red en internet
 
Ul rc_cap2_la capa de red
 Ul rc_cap2_la capa de red Ul rc_cap2_la capa de red
Ul rc_cap2_la capa de red
 
X 4 prospeccion
X 4 prospeccionX 4 prospeccion
X 4 prospeccion
 
Carrier ethernetessentials
Carrier ethernetessentialsCarrier ethernetessentials
Carrier ethernetessentials
 
64 66
64 6664 66
64 66
 
Metro ethernet-services
Metro ethernet-servicesMetro ethernet-services
Metro ethernet-services
 
Metroethernet redes-y-servicios
Metroethernet redes-y-serviciosMetroethernet redes-y-servicios
Metroethernet redes-y-servicios
 
Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial i
 Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial i Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial i
Utp pdi_2014-2_sap3 transformaciones básicas a nivel espacial i
 
Ia 2014 2 balotario de la pc1
Ia 2014 2 balotario de la pc1Ia 2014 2 balotario de la pc1
Ia 2014 2 balotario de la pc1
 
9275315981 reduce
9275315981 reduce9275315981 reduce
9275315981 reduce
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Utp 2014-2_pdi_sap2 iluminacion y modos de color
 Utp 2014-2_pdi_sap2 iluminacion y modos de color Utp 2014-2_pdi_sap2 iluminacion y modos de color
Utp 2014-2_pdi_sap2 iluminacion y modos de color
 
Utp 2014-2_ia_s2_intro a las rna
 Utp 2014-2_ia_s2_intro a las rna  Utp 2014-2_ia_s2_intro a las rna
Utp 2014-2_ia_s2_intro a las rna
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2
 

Utp ia_s5_adaline

  • 1. Ing. José C. Benítez P. Sesión 5 Inteligencia Artificial (WOI9) RNA Adaline
  • 2. Algoritmos Adaline Características. Regla de Aprendizaje (LMS). Regla Delta. Aplicaciones. Madaline. Regla del Perceptron Sesión 5. Temas
  • 3. Adaline Características. Regla de Aprendizaje (LMS). Regla Delta. Aplicaciones. o Clasificación de vectores. o Tratamiento de Señales. Madaline.
  • 4. Adaline Caracteristicas • Es un tipo de aprendizaje OFF Line. • Se enmarca dentro del tipo de aprendizaje por corrección de error. • Se utiliza para entrenar un Elemento Simple de Procesado, con una función de transferencia lineal. • Se le conoce también con el nombre de Regla de Widrow-Hoff. • Se pueden combinar un cierto nº de PEs en la capa de salida (estructura con un cierto grado de complejidad). La regla se aplica sobre cada uno de los PE de manera individual.
  • 5. Adaline Es aplicada a estructuras Lineales: Idea: Modificación de Pesos para tratar de reducir la diferencia entre la salida deseada y la actual (para cada patrón). Se denomina LMS (Least mean squares): minimiza el Error Cuadrático Medio sobre todos los patrones de entrenamiento.
  • 6. Adaline Cálculo de Pesos Óptimos Sea el conjunto de entrenamiento: (X,D): patrones de entrada y salidas deseadas. X ---- conjunto de L vectores de dimensión n. D ---- conjunto de L vectores de dimensión m (en este caso m=1). Salida Deseada. Y ---- conjunto de L vectores de dimensión m ( en este caso m=1). Salida Obtenida Se trata de minimizar: Sea Yk la salida obtenida para el patrón k.
  • 9. Adaline Cálculo de W*: Método de Gradiente Descendente. Diferentes Métodos: Buscar por todo el espacio de pesos hasta encontrar los que hiciesen el error mínimo. Realizar una búsqueda aleatoria. Realizar una búsqueda Dirigida. Método: Se inicializan los pesos aleatoriamente (pto. de partida). Se determina, la dirección de la pendiente más pronunciada en dirección hacia abajo. Se modifican los pesos para encontrarnos un poco más abajo en la superficie.
  • 12. Adaline Algoritmo: 1. Inicialización de pesos. 2. Se aplica un patrón de entrada (entradas y salida deseada). 3. Se computa la salida lineal que se obtiene de la red. 4. Se calcula el error cometido para dicho patrón. 5. Se actualizan las conexiones mediante la ecuación obtenida anteriormente. 6. Se repiten los pasos del 2 al 5 para todos los patrones de entrenamiento. 7. Si el error cuadrático medio es un valor reducido aceptable, termina el proceso. Sino se vuelve al paso 2.
  • 13. Adaline Aplicaciones: La principal aplicación de las redes tipo Adaline se encuentra en el campo de procesamiento de señales. Concretamente en el diseño de filtros capaces de eliminar ruido en señales portadoras de información. Otra aplicación es la de los filtros adaptativos: Predecir el valor futuro de una señal a partir de su valor actual.
  • 14. Adaline CONCLUSIONES Una simple capa de PE lineales pueden realizar aproximaciones a funciones lineales o asociación de patrones. Una simple capa de PE lineales puede ser entrenada con algoritmo LMS. Relaciones No Lineales entre entradas y salidas no pueden ser representadas exactamente por redes lineales. Dichas redes harán aproximaciones lineales. Otro tipo de redes abordarán la resolución de problemas no lineales.
  • 15. Regla del Perceptron (Rosenblatt) Supongamos un PE con una función de transferencia del tipo Hardlimiter y en donde las entradas son binarias o bipolares (mismo que Adaline pero con esas restricciones). La regla que rige el cambio de pesos es: Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1. Sobre la regla anterior se han realizado diferentes modificaciones:
  • 16. Regla del Perceptron (Rosenblatt) A) Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1. Con µ [0,1], término de control de ganancia y velocidad de aprendizaje. B) Otra de las modificaciones propuestas fue sugerida por Widrow and Hoff. Ellos propusieron una regla basada en la regla Delta. (Es la más utilizada). Tomando las entradas y salidas como bipolares tenemos que el cambio en los pesos se produce de la manera siguiente:
  • 17. Regla del Perceptron (Rosenblatt)
  • 18. Regla del Perceptron (Rosenblatt)