SlideShare una empresa de Scribd logo
1
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Perceptron y Adaline
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Sistema capaz de realizar tareas de clasificación de
forma automática
Perceptron
simple
• A partir de un número de ejemplos
etiquetados, el sistema determina
la ecuación del hiperplano
discrimininante
2
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Arquitectura
• Red monocapa con una o más neuronas de salida
conectadas a todas las entradas
y=
1, si 0
2
2
1
1 >
+
+ θ
x
w
x
w
- 1, si
x1
x2
w1
w2
y
θ
1
0
2
2
1
1 ≤
+
+ θ
x
w
x
w
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Arquitectura
• El perceptron equivale a un hiperplano de dimensión
n-1 capaz de separar las clases
– Si la salida del perceptron es +1, la entrada pertenecerá a una clase
(estará situada a un lado del hiperplano)
– Si la salida es -1, la entrada pertenecerá a la clase contraria (estará
situada al otro lado del hiperplano)
• La ecuación del hiperplano es: 0
2
2
1
1 =
+
+ θ
x
w
x
w
2
1
2
1
2
w
x
w
w
x
θ
−
−
=
Pendiente de la recta
Punto de corte con el
eje de ordenadas
En dos dimensiones es una recta
x1
x2
3
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• En general, para n dimensiones:
Arquitectura
0
....
2
2
1
1 =
+
+
+
+ θ
n
n x
w
x
w
x
w
x1
x2
w1
w2
y
θ
1
xn
…..
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Los datos son puntos en un espacio multidimensional
• Se dispone de un conjunto de observaciones (puntos) de los que se sabe
su categoría o clase
• Hay que determinar la ecuacion del hiperplano que deja a un lado los
ejemplos de un tipo y a otro los del otro
• La ecuacion del hiperplano se deduce a partir de los ejemplos
• Ejemplos: Puntos de
• Hiperplano:
Proceso
)
,...
,
(
: 2
1 n
n
x
x
x
ℜ
0
....
2
2
1
1 =
+
+
+
+ θ
n
nx
w
x
w
x
w
4
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Proceso iterativo supervisado
• Modicacion de los parámetros de la red (pesos y umbral), hasta encontrar
el hiperplano discriminante
• Numero finito de iteraciones
‰ Dado:
• Conjunto de ejemplos de entrenamiento etiquetados (clase A o B) y distribuidos
en un espacio multidimensional
Ejemplos: patrón p: Salida deseada para p:
‰ Encontrar hiperplano discriminante que separa las clases A y B
Encontrar los parámetros
Aprendizaje
n
ℜ
)
,....
,
( 2
1
p
n
p
p
p
x
x
x
x = )
( p
x
d
B
x
si
x
d
A
x
si
x
d p
p
p
p
∈
−
=
∈
= ,
1
)
(
;
,
1
)
(
0
....
2
2
1
1 =
+
+
+
+ θ
n
nx
w
x
w
x
w
θ
,
,....
, 2
1 n
w
w
w
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Algoritmo de Aprendizaje
• Se dispone de un conjunto de ejemplos de entrenamiento; cada uno de
ellos será un vector de entrada y una salida:
1. Empezar con valores aleatorios para los pesos y el umbral
2. Seleccionar un vector de entrada del conjunto de ejemplos de
entrenamiento
3. Si la red da una respuesta incorrecta.
Modicar wi de acuerdo a:
4. Si no se ha cumplido el criterio de finalización, volver a 2
}
1
,
1
{
)
(
)),
(
,
( −
=
χ
χ
χ d
d
)
(χ
d
y ≠
)
(χ
d
x
w i
i =
∆
)
(χ
θ d
=
∆
5
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Ejemplo: función AND
1
2
3
4
© Isasi 2002
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
• Valores iniciales:
Patron Salida Clasifica
(-1,-1|-1) f(-1 + (-1) + 0.5)=f(-1.5)=-1 Bien [-1=d(X)]
(+1,-1|-1) f(1 + (-1) + 0.5)=f(0.5)=+1 Mal [+1 ≠ d(X)]
Hay que ajustar pesos
1
2
© Isasi 2002
© Isasi 2002
6
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
0
2 - 0.5
2
© Isasi 2002
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Patron Salida Clasifica
(-1,+1|-1) f(0 + 2 - 0.5)=f(1.5)=1 Mal [1≠ d(X)]
Hay que ajustar pesos
3
Función AND
7
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
- 1.5
3
© Isasi 2002
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
Patron Salida Clasifica
(+1,+1|+1) f(1 + 1 - 1.5)=f(0.5)=1 Bien [1= d(X)]
Ya se ha completado un ciclo.
Hay que completar otro ciclo sin que se realicen ajustes:
Patron Salida Clasifica
(-1,-1|-1) f(-1 + (-1) - 1.5)=f(-3.5)=-1 Bien [-1=d(X)]
(+1,-1|-1) f(1 + (-1) - 1.5) =f(-1.5)=-1 Bien [-1=d(X)]
(-1,+1|-1) f(-1 + 1 - 1.5) =f(-1.5)=-1 Bien [-1=d(X)]
(+1,+1|+1) f(1 + 1 - 1.5) =f(0.5)=+1 Bien [+1=d(X)]
4
1
2
3
4
8
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
- 1.5
© Isasi 2002
Resultado final:
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• El perceptrón realiza tareas de clasificación salida binaria
• Si las salidas fueran números reales, estaríamos ante un problema
de regresión
(Applet de regresión: http://www.math.csusb.edu/faculty/stanton/m262/regress/regress.html)
• Aproximar una función cualquiera F(x) definida por un conjunto de
datos de entrada y su salida real correspondiente
• Los ejemplos de entrenamiento son conjuntos de valores:
(vector de entrada, salida real)
• Habrá que buscar la función tal que
)}
,
),....(
,
(
),
,
{( 2
2
1
1 m
m
y
x
y
x
y
x
P
r
r
r
=
)
(x
F
r
P
x
y
x
F i
i
i
∈
∀
=
r
r
,
)
(
Adaline: ADAptive LInear NEuron
9
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Desarrollado en 1960 por Widrow y Hoff
• Estructura prácticamente idéntica al perceptron, pero es un mecanismo
físico capaz de realizar aprendizaje
• Elemento combinador adaptativo lineal, que recibe todas las entradas, las
suma ponderadamente, y produce una salida
Adaline: ADAptive LInear NEuron
x1
x2
w1
w2
y
θ
1
xn
…..
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• La diferencia con el perceptron es la manera de utilizar la salida en
la regla de aprendizaje
• El perceptron utiliza la salida de la funcion umbral (binaria) para el
aprendizaje. Sólo se tiene en cuenta si se ha equivocado o no.
• En Adaline se utiliza directamente la salida de la red (real) teniendo
en cuenta cuánto se ha equivocado.
• Se utiliza la diferencia entre el valor real esperado d y la salida
producida por la red y.
Para un patrón de entrada xp, se tendrá en cuenta el error producido (dp-yp)
• El objetivo es obtener una red tal que yp=dp para todos los patrones
p
Adaline
10
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Será imposible conseguir una salida exacta porque y es una función
lineal, pero se minimizará el error cometido para todos los patrones
de entrenamiento
• Hay que elegir una medida de dicho error, p.ej.el error cuadrático
• La regla de aprendizaje será la REGLA DELTA
x1
x2
y
Adaline
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Regla Delta
• Los patrones de entrenamiento estan constituidos por pares de
valores que son el vector de entrada y su salida deseada
• La regla Delta utiliza la diferencia entre la salida producida para
cada patron (p) y la deseada
• Se calcula una funcion de error para todo el conjunto de patrones:
)
,
( d
x
r
)
( p
p
y
d −
Error cuadrático por patrón
Error global
11
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• La regla Delta busca el conjunto de pesos que minimiza la funcion
de error
• Se hará mediante un proceso iterativo donde se van presentando
los patrones uno a uno y se van modificando los parámetros de la
red mediante la regla del descenso del gradiente
• La idea es realizar un cambio en cada peso proporcional a la
derivada del error, medida en el patron actual, respecto del peso:
Regla Delta
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Regla Delta
12
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Aplicando la regla de la cadena queda:
2
)
(
2
1 p
p
p
y
d
E −
=
)
(
)
1
(
)
(
2
1
2 p
p
p
p
y
d
y
d −
−
=
−
×
−
×
θ
+
+
+
+
= ....
...
1
1
1
1 j
j
p
x
w
x
w
x
w
y
j
j
p
x
w
y
=
∂
∂
j
p
p
j
p x
y
d
w )
( −
=
∆ γ
Regla Delta
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
1. Inicializar los pesos de forma aleatoria
2. Introducir un patrón de entrada
3. Calcular la salida, compararla con la deseada y obtener la diferencia:
(dp - yp)
4. Para todos los pesos, multiplicar dicha diferencia por la entrada
correspondiente y ponderarla por la tasa de aprendizaje
5. Modicar el peso sumando al valor antiguo la cantidad obtenida en 4)
6. Si no se ha cumplido el criterio de convergencia, regresar a 2), si se han
acabado todos los patrones empezar de nuevo a introducir patrones
Algoritmo de aprendizaje
j
p
p
j
p x
y
d
w )
( −
=
∆ γ
j
p
p
j
p
w
w
wj ∆
+
= −1
13
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
En Perceptron la salida es binaria, en Adaline es real
En Adaline existe una medida de cuánto se ha equivocado la red, en
Perceptron sólo de si se ha equivocado o no
En Adaline hay una razón de aprendizaje γ para regular lo que va a afectar
cada equivocacion a la modicacion de los pesos. Es siempre un valor entre
0 y 1 para ponderar el aprendizaje
Perceptron vs. Adaline
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Ejemplo 1: Decodificador
binario-decimal
7
1
1
1
6
0
1
1
5
1
0
1
4
0
0
1
3
1
1
0
2
0
1
0
1
1
0
0
d
x3
x2
x1
Aproximar con Adaline la función que
realiza la decodificación binario-decimal
Vamos a utilizar como tasa de
aprendizaje 0.3 y los siguientes valores
de pesos:
w1=0.84
w2=0.39
w3=0.78
14
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Problemas no linelamente
separables: XOR
© Isasi 2002
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Problema XOR
© Isasi 2002
15
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Problema XOR
© Isasi 2002

Más contenido relacionado

La actualidad más candente

Numerical Analysis (Solution of Non-Linear Equations) part 2
Numerical Analysis (Solution of Non-Linear Equations) part 2Numerical Analysis (Solution of Non-Linear Equations) part 2
Numerical Analysis (Solution of Non-Linear Equations) part 2
Asad Ali
 
Método de romberg
Método de rombergMétodo de romberg
Método de romberg
Tensor
 
Neville
NevilleNeville
Neville
mat7731
 
Solution of non-linear equations
Solution of non-linear equationsSolution of non-linear equations
Solution of non-linear equationsZunAib Ali
 
Jacobi iteration method
Jacobi iteration methodJacobi iteration method
Jacobi iteration method
MONIRUL ISLAM
 
INTEGRATION-1.pptx
INTEGRATION-1.pptxINTEGRATION-1.pptx
INTEGRATION-1.pptx
SayanSen36
 
MéTodo De IteracióN De Punto Fijo
MéTodo De IteracióN De Punto FijoMéTodo De IteracióN De Punto Fijo
MéTodo De IteracióN De Punto Fijolisset neyra
 
Metodo de newton raphson-ANTONIO ZEGARRA
Metodo de newton raphson-ANTONIO ZEGARRAMetodo de newton raphson-ANTONIO ZEGARRA
Metodo de newton raphson-ANTONIO ZEGARRA
Antonio Zegarra Vargas
 
Histroy of partial differential equation
Histroy of partial differential equationHistroy of partial differential equation
Histroy of partial differential equation
amanullahkakar2
 
Métodos de Punto Fijo y Regla Falsa
Métodos de Punto Fijo y Regla FalsaMétodos de Punto Fijo y Regla Falsa
Métodos de Punto Fijo y Regla FalsaVictor Reyes
 
Secant method
Secant methodSecant method
Secant method
Zahra Saman
 
2.1 metodo de intervalo
2.1 metodo de intervalo2.1 metodo de intervalo
2.1 metodo de intervalomorenito9001
 
Matlab integración numérica, método del trapecio
Matlab integración numérica, método del trapecioMatlab integración numérica, método del trapecio
Matlab integración numérica, método del trapecio
Tensor
 
Interpolación Polinómica
Interpolación PolinómicaInterpolación Polinómica
Interpolación Polinómicalivysl
 
Cuestionario de Metodos
Cuestionario de  MetodosCuestionario de  Metodos
Cuestionario de Metodos
RAÚL ALBERTO CAMACHO
 
Langrange Interpolation Polynomials
Langrange Interpolation PolynomialsLangrange Interpolation Polynomials
Langrange Interpolation Polynomials
Sohaib H. Khan
 
7 procesos estocasticos
7 procesos estocasticos7 procesos estocasticos
7 procesos estocasticos
Francisco Sandoval
 
Errores de truncamiento
Errores de truncamientoErrores de truncamiento
Errores de truncamiento
Tensor
 
Método de la regla falsa (o metodo de la falsa posición) SN
Método de la regla falsa (o metodo de la falsa posición) SNMétodo de la regla falsa (o metodo de la falsa posición) SN
Método de la regla falsa (o metodo de la falsa posición) SN
Tensor
 
Presentacion metodos numerico teoria de errores
Presentacion metodos numerico teoria de errores Presentacion metodos numerico teoria de errores
Presentacion metodos numerico teoria de errores
mervismarin23
 

La actualidad más candente (20)

Numerical Analysis (Solution of Non-Linear Equations) part 2
Numerical Analysis (Solution of Non-Linear Equations) part 2Numerical Analysis (Solution of Non-Linear Equations) part 2
Numerical Analysis (Solution of Non-Linear Equations) part 2
 
Método de romberg
Método de rombergMétodo de romberg
Método de romberg
 
Neville
NevilleNeville
Neville
 
Solution of non-linear equations
Solution of non-linear equationsSolution of non-linear equations
Solution of non-linear equations
 
Jacobi iteration method
Jacobi iteration methodJacobi iteration method
Jacobi iteration method
 
INTEGRATION-1.pptx
INTEGRATION-1.pptxINTEGRATION-1.pptx
INTEGRATION-1.pptx
 
MéTodo De IteracióN De Punto Fijo
MéTodo De IteracióN De Punto FijoMéTodo De IteracióN De Punto Fijo
MéTodo De IteracióN De Punto Fijo
 
Metodo de newton raphson-ANTONIO ZEGARRA
Metodo de newton raphson-ANTONIO ZEGARRAMetodo de newton raphson-ANTONIO ZEGARRA
Metodo de newton raphson-ANTONIO ZEGARRA
 
Histroy of partial differential equation
Histroy of partial differential equationHistroy of partial differential equation
Histroy of partial differential equation
 
Métodos de Punto Fijo y Regla Falsa
Métodos de Punto Fijo y Regla FalsaMétodos de Punto Fijo y Regla Falsa
Métodos de Punto Fijo y Regla Falsa
 
Secant method
Secant methodSecant method
Secant method
 
2.1 metodo de intervalo
2.1 metodo de intervalo2.1 metodo de intervalo
2.1 metodo de intervalo
 
Matlab integración numérica, método del trapecio
Matlab integración numérica, método del trapecioMatlab integración numérica, método del trapecio
Matlab integración numérica, método del trapecio
 
Interpolación Polinómica
Interpolación PolinómicaInterpolación Polinómica
Interpolación Polinómica
 
Cuestionario de Metodos
Cuestionario de  MetodosCuestionario de  Metodos
Cuestionario de Metodos
 
Langrange Interpolation Polynomials
Langrange Interpolation PolynomialsLangrange Interpolation Polynomials
Langrange Interpolation Polynomials
 
7 procesos estocasticos
7 procesos estocasticos7 procesos estocasticos
7 procesos estocasticos
 
Errores de truncamiento
Errores de truncamientoErrores de truncamiento
Errores de truncamiento
 
Método de la regla falsa (o metodo de la falsa posición) SN
Método de la regla falsa (o metodo de la falsa posición) SNMétodo de la regla falsa (o metodo de la falsa posición) SN
Método de la regla falsa (o metodo de la falsa posición) SN
 
Presentacion metodos numerico teoria de errores
Presentacion metodos numerico teoria de errores Presentacion metodos numerico teoria de errores
Presentacion metodos numerico teoria de errores
 

Similar a Perceptron y Adaline

Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
edeciofreitez
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptronjcbenitezp
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
edeciofreitez
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINEESCOM
 
Red Neuronal Adaline
Red Neuronal AdalineRed Neuronal Adaline
Red Neuronal Adalinefernandoman
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
RED NERONAL ADALINE
RED NERONAL ADALINERED NERONAL ADALINE
RED NERONAL ADALINE
ESCOM
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
Andrea Lezcano
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adalinec09271
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
ESCOM
 
La Memoria de BAM/Hopfield
La Memoria de BAM/HopfieldLa Memoria de BAM/Hopfield
La Memoria de BAM/Hopfield
Spacetoshare
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Sistema de ed de primer orden
Sistema de ed de primer ordenSistema de ed de primer orden
Sistema de ed de primer orden
Cristian Monrroy Fuentes
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
Spacetoshare
 

Similar a Perceptron y Adaline (20)

Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
Rna10
Rna10Rna10
Rna10
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptron
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
 
Red Neuronal Adaline
Red Neuronal AdalineRed Neuronal Adaline
Red Neuronal Adaline
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
RED NERONAL ADALINE
RED NERONAL ADALINERED NERONAL ADALINE
RED NERONAL ADALINE
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Tema4
Tema4Tema4
Tema4
 
Mr1i 753-2007-2
Mr1i 753-2007-2Mr1i 753-2007-2
Mr1i 753-2007-2
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adaline
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
La Memoria de BAM/Hopfield
La Memoria de BAM/HopfieldLa Memoria de BAM/Hopfield
La Memoria de BAM/Hopfield
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Sistema de ed de primer orden
Sistema de ed de primer ordenSistema de ed de primer orden
Sistema de ed de primer orden
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 

Más de Spacetoshare

EL HUECO.pdf
EL HUECO.pdfEL HUECO.pdf
EL HUECO.pdf
Spacetoshare
 
Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on Algorithms
Spacetoshare
 
Sums ADA
Sums ADASums ADA
Sums ADA
Spacetoshare
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmos
Spacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
Spacetoshare
 
Fórmulas ADA
Fórmulas ADAFórmulas ADA
Fórmulas ADA
Spacetoshare
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operaciones
Spacetoshare
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamiento
Spacetoshare
 
Ejercicios jess
Ejercicios jessEjercicios jess
Ejercicios jess
Spacetoshare
 
Sistemas Expertos
Sistemas ExpertosSistemas Expertos
Sistemas Expertos
Spacetoshare
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesis
Spacetoshare
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
Spacetoshare
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de Ensamblador
Spacetoshare
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superior
Spacetoshare
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA
Spacetoshare
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuaciones
Spacetoshare
 
Determinantes
DeterminantesDeterminantes
Determinantes
Spacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
Spacetoshare
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejos
Spacetoshare
 

Más de Spacetoshare (20)

EL HUECO.pdf
EL HUECO.pdfEL HUECO.pdf
EL HUECO.pdf
 
Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on Algorithms
 
Sums ADA
Sums ADASums ADA
Sums ADA
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmos
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Fórmulas ADA
Fórmulas ADAFórmulas ADA
Fórmulas ADA
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operaciones
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamiento
 
Ejercicios jess
Ejercicios jessEjercicios jess
Ejercicios jess
 
Sistemas Expertos
Sistemas ExpertosSistemas Expertos
Sistemas Expertos
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesis
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de Ensamblador
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superior
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuaciones
 
Determinantes
DeterminantesDeterminantes
Determinantes
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejos
 
Ejer
EjerEjer
Ejer
 

Último

evalaución de reforzamiento de cuarto de secundaria de la competencia lee
evalaución de reforzamiento de cuarto de secundaria de la competencia leeevalaución de reforzamiento de cuarto de secundaria de la competencia lee
evalaución de reforzamiento de cuarto de secundaria de la competencia lee
MaribelGaitanRamosRa
 
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCIONCAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
MasielPMP
 
Fase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría AnalíticaFase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría Analítica
YasneidyGonzalez
 
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernándezPRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
Ruben53283
 
Proceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de PamplonaProceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de Pamplona
Edurne Navarro Bueno
 
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdfAsistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Demetrio Ccesa Rayme
 
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdfUn libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
sandradianelly
 
Texto_de_Aprendizaje-1ro_secundaria-2024.pdf
Texto_de_Aprendizaje-1ro_secundaria-2024.pdfTexto_de_Aprendizaje-1ro_secundaria-2024.pdf
Texto_de_Aprendizaje-1ro_secundaria-2024.pdf
ClaudiaAlcondeViadez
 
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptxc3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
Martín Ramírez
 
Libro infantil sapo y sepo un año entero pdf
Libro infantil sapo y sepo un año entero pdfLibro infantil sapo y sepo un año entero pdf
Libro infantil sapo y sepo un año entero pdf
danitarb
 
Friedrich Nietzsche. Presentación de 2 de Bachillerato.
Friedrich Nietzsche. Presentación de 2 de Bachillerato.Friedrich Nietzsche. Presentación de 2 de Bachillerato.
Friedrich Nietzsche. Presentación de 2 de Bachillerato.
pablomarin116
 
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNETPRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
CESAR MIJAEL ESPINOZA SALAZAR
 
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...
JAVIER SOLIS NOYOLA
 
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
20minutos
 
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdfINFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
Alejandrogarciapanta
 
Automatización de proceso de producción de la empresa Gloria SA (1).pptx
Automatización de proceso de producción de la empresa Gloria SA (1).pptxAutomatización de proceso de producción de la empresa Gloria SA (1).pptx
Automatización de proceso de producción de la empresa Gloria SA (1).pptx
GallardoJahse
 
El fundamento del gobierno de Dios. El amor
El fundamento del gobierno de Dios. El amorEl fundamento del gobierno de Dios. El amor
El fundamento del gobierno de Dios. El amor
Alejandrino Halire Ccahuana
 
Educar por Competencias GS2 Ccesa007.pdf
Educar por Competencias GS2 Ccesa007.pdfEducar por Competencias GS2 Ccesa007.pdf
Educar por Competencias GS2 Ccesa007.pdf
Demetrio Ccesa Rayme
 
True Mother's Speech at THE PENTECOST SERVICE..pdf
True Mother's Speech at THE PENTECOST SERVICE..pdfTrue Mother's Speech at THE PENTECOST SERVICE..pdf
True Mother's Speech at THE PENTECOST SERVICE..pdf
Mercedes Gonzalez
 
Fase 1, Lenguaje algebraico y pensamiento funcional
Fase 1, Lenguaje algebraico y pensamiento funcionalFase 1, Lenguaje algebraico y pensamiento funcional
Fase 1, Lenguaje algebraico y pensamiento funcional
YasneidyGonzalez
 

Último (20)

evalaución de reforzamiento de cuarto de secundaria de la competencia lee
evalaución de reforzamiento de cuarto de secundaria de la competencia leeevalaución de reforzamiento de cuarto de secundaria de la competencia lee
evalaución de reforzamiento de cuarto de secundaria de la competencia lee
 
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCIONCAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
CAPACIDADES SOCIOMOTRICES LENGUAJE, INTROYECCIÓN, INTROSPECCION
 
Fase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría AnalíticaFase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría Analítica
 
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernándezPRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
 
Proceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de PamplonaProceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de Pamplona
 
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdfAsistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
Asistencia Tecnica Cartilla Pedagogica DUA Ccesa007.pdf
 
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdfUn libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
 
Texto_de_Aprendizaje-1ro_secundaria-2024.pdf
Texto_de_Aprendizaje-1ro_secundaria-2024.pdfTexto_de_Aprendizaje-1ro_secundaria-2024.pdf
Texto_de_Aprendizaje-1ro_secundaria-2024.pdf
 
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptxc3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
 
Libro infantil sapo y sepo un año entero pdf
Libro infantil sapo y sepo un año entero pdfLibro infantil sapo y sepo un año entero pdf
Libro infantil sapo y sepo un año entero pdf
 
Friedrich Nietzsche. Presentación de 2 de Bachillerato.
Friedrich Nietzsche. Presentación de 2 de Bachillerato.Friedrich Nietzsche. Presentación de 2 de Bachillerato.
Friedrich Nietzsche. Presentación de 2 de Bachillerato.
 
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNETPRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
 
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...
ROMPECABEZAS DE ECUACIONES DE PRIMER GRADO OLIMPIADA DE PARÍS 2024. Por JAVIE...
 
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
 
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdfINFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
 
Automatización de proceso de producción de la empresa Gloria SA (1).pptx
Automatización de proceso de producción de la empresa Gloria SA (1).pptxAutomatización de proceso de producción de la empresa Gloria SA (1).pptx
Automatización de proceso de producción de la empresa Gloria SA (1).pptx
 
El fundamento del gobierno de Dios. El amor
El fundamento del gobierno de Dios. El amorEl fundamento del gobierno de Dios. El amor
El fundamento del gobierno de Dios. El amor
 
Educar por Competencias GS2 Ccesa007.pdf
Educar por Competencias GS2 Ccesa007.pdfEducar por Competencias GS2 Ccesa007.pdf
Educar por Competencias GS2 Ccesa007.pdf
 
True Mother's Speech at THE PENTECOST SERVICE..pdf
True Mother's Speech at THE PENTECOST SERVICE..pdfTrue Mother's Speech at THE PENTECOST SERVICE..pdf
True Mother's Speech at THE PENTECOST SERVICE..pdf
 
Fase 1, Lenguaje algebraico y pensamiento funcional
Fase 1, Lenguaje algebraico y pensamiento funcionalFase 1, Lenguaje algebraico y pensamiento funcional
Fase 1, Lenguaje algebraico y pensamiento funcional
 

Perceptron y Adaline

  • 1. 1 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Perceptron y Adaline Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Sistema capaz de realizar tareas de clasificación de forma automática Perceptron simple • A partir de un número de ejemplos etiquetados, el sistema determina la ecuación del hiperplano discrimininante
  • 2. 2 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Arquitectura • Red monocapa con una o más neuronas de salida conectadas a todas las entradas y= 1, si 0 2 2 1 1 > + + θ x w x w - 1, si x1 x2 w1 w2 y θ 1 0 2 2 1 1 ≤ + + θ x w x w Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Arquitectura • El perceptron equivale a un hiperplano de dimensión n-1 capaz de separar las clases – Si la salida del perceptron es +1, la entrada pertenecerá a una clase (estará situada a un lado del hiperplano) – Si la salida es -1, la entrada pertenecerá a la clase contraria (estará situada al otro lado del hiperplano) • La ecuación del hiperplano es: 0 2 2 1 1 = + + θ x w x w 2 1 2 1 2 w x w w x θ − − = Pendiente de la recta Punto de corte con el eje de ordenadas En dos dimensiones es una recta x1 x2
  • 3. 3 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • En general, para n dimensiones: Arquitectura 0 .... 2 2 1 1 = + + + + θ n n x w x w x w x1 x2 w1 w2 y θ 1 xn ….. Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Los datos son puntos en un espacio multidimensional • Se dispone de un conjunto de observaciones (puntos) de los que se sabe su categoría o clase • Hay que determinar la ecuacion del hiperplano que deja a un lado los ejemplos de un tipo y a otro los del otro • La ecuacion del hiperplano se deduce a partir de los ejemplos • Ejemplos: Puntos de • Hiperplano: Proceso ) ,... , ( : 2 1 n n x x x ℜ 0 .... 2 2 1 1 = + + + + θ n nx w x w x w
  • 4. 4 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Proceso iterativo supervisado • Modicacion de los parámetros de la red (pesos y umbral), hasta encontrar el hiperplano discriminante • Numero finito de iteraciones ‰ Dado: • Conjunto de ejemplos de entrenamiento etiquetados (clase A o B) y distribuidos en un espacio multidimensional Ejemplos: patrón p: Salida deseada para p: ‰ Encontrar hiperplano discriminante que separa las clases A y B Encontrar los parámetros Aprendizaje n ℜ ) ,.... , ( 2 1 p n p p p x x x x = ) ( p x d B x si x d A x si x d p p p p ∈ − = ∈ = , 1 ) ( ; , 1 ) ( 0 .... 2 2 1 1 = + + + + θ n nx w x w x w θ , ,.... , 2 1 n w w w Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Algoritmo de Aprendizaje • Se dispone de un conjunto de ejemplos de entrenamiento; cada uno de ellos será un vector de entrada y una salida: 1. Empezar con valores aleatorios para los pesos y el umbral 2. Seleccionar un vector de entrada del conjunto de ejemplos de entrenamiento 3. Si la red da una respuesta incorrecta. Modicar wi de acuerdo a: 4. Si no se ha cumplido el criterio de finalización, volver a 2 } 1 , 1 { ) ( )), ( , ( − = χ χ χ d d ) (χ d y ≠ ) (χ d x w i i = ∆ ) (χ θ d = ∆
  • 5. 5 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Ejemplo: función AND 1 2 3 4 © Isasi 2002 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND • Valores iniciales: Patron Salida Clasifica (-1,-1|-1) f(-1 + (-1) + 0.5)=f(-1.5)=-1 Bien [-1=d(X)] (+1,-1|-1) f(1 + (-1) + 0.5)=f(0.5)=+1 Mal [+1 ≠ d(X)] Hay que ajustar pesos 1 2 © Isasi 2002 © Isasi 2002
  • 6. 6 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND 0 2 - 0.5 2 © Isasi 2002 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Patron Salida Clasifica (-1,+1|-1) f(0 + 2 - 0.5)=f(1.5)=1 Mal [1≠ d(X)] Hay que ajustar pesos 3 Función AND
  • 7. 7 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND - 1.5 3 © Isasi 2002 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND Patron Salida Clasifica (+1,+1|+1) f(1 + 1 - 1.5)=f(0.5)=1 Bien [1= d(X)] Ya se ha completado un ciclo. Hay que completar otro ciclo sin que se realicen ajustes: Patron Salida Clasifica (-1,-1|-1) f(-1 + (-1) - 1.5)=f(-3.5)=-1 Bien [-1=d(X)] (+1,-1|-1) f(1 + (-1) - 1.5) =f(-1.5)=-1 Bien [-1=d(X)] (-1,+1|-1) f(-1 + 1 - 1.5) =f(-1.5)=-1 Bien [-1=d(X)] (+1,+1|+1) f(1 + 1 - 1.5) =f(0.5)=+1 Bien [+1=d(X)] 4 1 2 3 4
  • 8. 8 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND - 1.5 © Isasi 2002 Resultado final: Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • El perceptrón realiza tareas de clasificación salida binaria • Si las salidas fueran números reales, estaríamos ante un problema de regresión (Applet de regresión: http://www.math.csusb.edu/faculty/stanton/m262/regress/regress.html) • Aproximar una función cualquiera F(x) definida por un conjunto de datos de entrada y su salida real correspondiente • Los ejemplos de entrenamiento son conjuntos de valores: (vector de entrada, salida real) • Habrá que buscar la función tal que )} , ),....( , ( ), , {( 2 2 1 1 m m y x y x y x P r r r = ) (x F r P x y x F i i i ∈ ∀ = r r , ) ( Adaline: ADAptive LInear NEuron
  • 9. 9 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Desarrollado en 1960 por Widrow y Hoff • Estructura prácticamente idéntica al perceptron, pero es un mecanismo físico capaz de realizar aprendizaje • Elemento combinador adaptativo lineal, que recibe todas las entradas, las suma ponderadamente, y produce una salida Adaline: ADAptive LInear NEuron x1 x2 w1 w2 y θ 1 xn ….. Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • La diferencia con el perceptron es la manera de utilizar la salida en la regla de aprendizaje • El perceptron utiliza la salida de la funcion umbral (binaria) para el aprendizaje. Sólo se tiene en cuenta si se ha equivocado o no. • En Adaline se utiliza directamente la salida de la red (real) teniendo en cuenta cuánto se ha equivocado. • Se utiliza la diferencia entre el valor real esperado d y la salida producida por la red y. Para un patrón de entrada xp, se tendrá en cuenta el error producido (dp-yp) • El objetivo es obtener una red tal que yp=dp para todos los patrones p Adaline
  • 10. 10 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Será imposible conseguir una salida exacta porque y es una función lineal, pero se minimizará el error cometido para todos los patrones de entrenamiento • Hay que elegir una medida de dicho error, p.ej.el error cuadrático • La regla de aprendizaje será la REGLA DELTA x1 x2 y Adaline Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Regla Delta • Los patrones de entrenamiento estan constituidos por pares de valores que son el vector de entrada y su salida deseada • La regla Delta utiliza la diferencia entre la salida producida para cada patron (p) y la deseada • Se calcula una funcion de error para todo el conjunto de patrones: ) , ( d x r ) ( p p y d − Error cuadrático por patrón Error global
  • 11. 11 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • La regla Delta busca el conjunto de pesos que minimiza la funcion de error • Se hará mediante un proceso iterativo donde se van presentando los patrones uno a uno y se van modificando los parámetros de la red mediante la regla del descenso del gradiente • La idea es realizar un cambio en cada peso proporcional a la derivada del error, medida en el patron actual, respecto del peso: Regla Delta Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Regla Delta
  • 12. 12 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Aplicando la regla de la cadena queda: 2 ) ( 2 1 p p p y d E − = ) ( ) 1 ( ) ( 2 1 2 p p p p y d y d − − = − × − × θ + + + + = .... ... 1 1 1 1 j j p x w x w x w y j j p x w y = ∂ ∂ j p p j p x y d w ) ( − = ∆ γ Regla Delta Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 1. Inicializar los pesos de forma aleatoria 2. Introducir un patrón de entrada 3. Calcular la salida, compararla con la deseada y obtener la diferencia: (dp - yp) 4. Para todos los pesos, multiplicar dicha diferencia por la entrada correspondiente y ponderarla por la tasa de aprendizaje 5. Modicar el peso sumando al valor antiguo la cantidad obtenida en 4) 6. Si no se ha cumplido el criterio de convergencia, regresar a 2), si se han acabado todos los patrones empezar de nuevo a introducir patrones Algoritmo de aprendizaje j p p j p x y d w ) ( − = ∆ γ j p p j p w w wj ∆ + = −1
  • 13. 13 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 En Perceptron la salida es binaria, en Adaline es real En Adaline existe una medida de cuánto se ha equivocado la red, en Perceptron sólo de si se ha equivocado o no En Adaline hay una razón de aprendizaje γ para regular lo que va a afectar cada equivocacion a la modicacion de los pesos. Es siempre un valor entre 0 y 1 para ponderar el aprendizaje Perceptron vs. Adaline Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Ejemplo 1: Decodificador binario-decimal 7 1 1 1 6 0 1 1 5 1 0 1 4 0 0 1 3 1 1 0 2 0 1 0 1 1 0 0 d x3 x2 x1 Aproximar con Adaline la función que realiza la decodificación binario-decimal Vamos a utilizar como tasa de aprendizaje 0.3 y los siguientes valores de pesos: w1=0.84 w2=0.39 w3=0.78
  • 14. 14 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Problemas no linelamente separables: XOR © Isasi 2002 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Problema XOR © Isasi 2002
  • 15. 15 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Problema XOR © Isasi 2002