SlideShare una empresa de Scribd logo
1 de 15
Descargar para leer sin conexión
1
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Perceptron y Adaline
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Sistema capaz de realizar tareas de clasificación de
forma automática
Perceptron
simple
• A partir de un número de ejemplos
etiquetados, el sistema determina
la ecuación del hiperplano
discrimininante
2
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Arquitectura
• Red monocapa con una o más neuronas de salida
conectadas a todas las entradas
y=
1, si 0
2
2
1
1 >
+
+ θ
x
w
x
w
- 1, si
x1
x2
w1
w2
y
θ
1
0
2
2
1
1 ≤
+
+ θ
x
w
x
w
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Arquitectura
• El perceptron equivale a un hiperplano de dimensión
n-1 capaz de separar las clases
– Si la salida del perceptron es +1, la entrada pertenecerá a una clase
(estará situada a un lado del hiperplano)
– Si la salida es -1, la entrada pertenecerá a la clase contraria (estará
situada al otro lado del hiperplano)
• La ecuación del hiperplano es: 0
2
2
1
1 =
+
+ θ
x
w
x
w
2
1
2
1
2
w
x
w
w
x
θ
−
−
=
Pendiente de la recta
Punto de corte con el
eje de ordenadas
En dos dimensiones es una recta
x1
x2
3
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• En general, para n dimensiones:
Arquitectura
0
....
2
2
1
1 =
+
+
+
+ θ
n
n x
w
x
w
x
w
x1
x2
w1
w2
y
θ
1
xn
…..
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Los datos son puntos en un espacio multidimensional
• Se dispone de un conjunto de observaciones (puntos) de los que se sabe
su categoría o clase
• Hay que determinar la ecuacion del hiperplano que deja a un lado los
ejemplos de un tipo y a otro los del otro
• La ecuacion del hiperplano se deduce a partir de los ejemplos
• Ejemplos: Puntos de
• Hiperplano:
Proceso
)
,...
,
(
: 2
1 n
n
x
x
x
ℜ
0
....
2
2
1
1 =
+
+
+
+ θ
n
nx
w
x
w
x
w
4
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Proceso iterativo supervisado
• Modicacion de los parámetros de la red (pesos y umbral), hasta encontrar
el hiperplano discriminante
• Numero finito de iteraciones
‰ Dado:
• Conjunto de ejemplos de entrenamiento etiquetados (clase A o B) y distribuidos
en un espacio multidimensional
Ejemplos: patrón p: Salida deseada para p:
‰ Encontrar hiperplano discriminante que separa las clases A y B
Encontrar los parámetros
Aprendizaje
n
ℜ
)
,....
,
( 2
1
p
n
p
p
p
x
x
x
x = )
( p
x
d
B
x
si
x
d
A
x
si
x
d p
p
p
p
∈
−
=
∈
= ,
1
)
(
;
,
1
)
(
0
....
2
2
1
1 =
+
+
+
+ θ
n
nx
w
x
w
x
w
θ
,
,....
, 2
1 n
w
w
w
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Algoritmo de Aprendizaje
• Se dispone de un conjunto de ejemplos de entrenamiento; cada uno de
ellos será un vector de entrada y una salida:
1. Empezar con valores aleatorios para los pesos y el umbral
2. Seleccionar un vector de entrada del conjunto de ejemplos de
entrenamiento
3. Si la red da una respuesta incorrecta.
Modicar wi de acuerdo a:
4. Si no se ha cumplido el criterio de finalización, volver a 2
}
1
,
1
{
)
(
)),
(
,
( −
=
χ
χ
χ d
d
)
(χ
d
y ≠
)
(χ
d
x
w i
i =
∆
)
(χ
θ d
=
∆
5
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Ejemplo: función AND
1
2
3
4
© Isasi 2002
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
• Valores iniciales:
Patron Salida Clasifica
(-1,-1|-1) f(-1 + (-1) + 0.5)=f(-1.5)=-1 Bien [-1=d(X)]
(+1,-1|-1) f(1 + (-1) + 0.5)=f(0.5)=+1 Mal [+1 ≠ d(X)]
Hay que ajustar pesos
1
2
© Isasi 2002
© Isasi 2002
6
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
0
2 - 0.5
2
© Isasi 2002
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Patron Salida Clasifica
(-1,+1|-1) f(0 + 2 - 0.5)=f(1.5)=1 Mal [1≠ d(X)]
Hay que ajustar pesos
3
Función AND
7
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
- 1.5
3
© Isasi 2002
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
Patron Salida Clasifica
(+1,+1|+1) f(1 + 1 - 1.5)=f(0.5)=1 Bien [1= d(X)]
Ya se ha completado un ciclo.
Hay que completar otro ciclo sin que se realicen ajustes:
Patron Salida Clasifica
(-1,-1|-1) f(-1 + (-1) - 1.5)=f(-3.5)=-1 Bien [-1=d(X)]
(+1,-1|-1) f(1 + (-1) - 1.5) =f(-1.5)=-1 Bien [-1=d(X)]
(-1,+1|-1) f(-1 + 1 - 1.5) =f(-1.5)=-1 Bien [-1=d(X)]
(+1,+1|+1) f(1 + 1 - 1.5) =f(0.5)=+1 Bien [+1=d(X)]
4
1
2
3
4
8
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Función AND
- 1.5
© Isasi 2002
Resultado final:
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• El perceptrón realiza tareas de clasificación salida binaria
• Si las salidas fueran números reales, estaríamos ante un problema
de regresión
(Applet de regresión: http://www.math.csusb.edu/faculty/stanton/m262/regress/regress.html)
• Aproximar una función cualquiera F(x) definida por un conjunto de
datos de entrada y su salida real correspondiente
• Los ejemplos de entrenamiento son conjuntos de valores:
(vector de entrada, salida real)
• Habrá que buscar la función tal que
)}
,
),....(
,
(
),
,
{( 2
2
1
1 m
m
y
x
y
x
y
x
P
r
r
r
=
)
(x
F
r
P
x
y
x
F i
i
i
∈
∀
=
r
r
,
)
(
Adaline: ADAptive LInear NEuron
9
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Desarrollado en 1960 por Widrow y Hoff
• Estructura prácticamente idéntica al perceptron, pero es un mecanismo
físico capaz de realizar aprendizaje
• Elemento combinador adaptativo lineal, que recibe todas las entradas, las
suma ponderadamente, y produce una salida
Adaline: ADAptive LInear NEuron
x1
x2
w1
w2
y
θ
1
xn
…..
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• La diferencia con el perceptron es la manera de utilizar la salida en
la regla de aprendizaje
• El perceptron utiliza la salida de la funcion umbral (binaria) para el
aprendizaje. Sólo se tiene en cuenta si se ha equivocado o no.
• En Adaline se utiliza directamente la salida de la red (real) teniendo
en cuenta cuánto se ha equivocado.
• Se utiliza la diferencia entre el valor real esperado d y la salida
producida por la red y.
Para un patrón de entrada xp, se tendrá en cuenta el error producido (dp-yp)
• El objetivo es obtener una red tal que yp=dp para todos los patrones
p
Adaline
10
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Será imposible conseguir una salida exacta porque y es una función
lineal, pero se minimizará el error cometido para todos los patrones
de entrenamiento
• Hay que elegir una medida de dicho error, p.ej.el error cuadrático
• La regla de aprendizaje será la REGLA DELTA
x1
x2
y
Adaline
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Regla Delta
• Los patrones de entrenamiento estan constituidos por pares de
valores que son el vector de entrada y su salida deseada
• La regla Delta utiliza la diferencia entre la salida producida para
cada patron (p) y la deseada
• Se calcula una funcion de error para todo el conjunto de patrones:
)
,
( d
x
r
)
( p
p
y
d −
Error cuadrático por patrón
Error global
11
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• La regla Delta busca el conjunto de pesos que minimiza la funcion
de error
• Se hará mediante un proceso iterativo donde se van presentando
los patrones uno a uno y se van modificando los parámetros de la
red mediante la regla del descenso del gradiente
• La idea es realizar un cambio en cada peso proporcional a la
derivada del error, medida en el patron actual, respecto del peso:
Regla Delta
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Regla Delta
12
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
• Aplicando la regla de la cadena queda:
2
)
(
2
1 p
p
p
y
d
E −
=
)
(
)
1
(
)
(
2
1
2 p
p
p
p
y
d
y
d −
−
=
−
×
−
×
θ
+
+
+
+
= ....
...
1
1
1
1 j
j
p
x
w
x
w
x
w
y
j
j
p
x
w
y
=
∂
∂
j
p
p
j
p x
y
d
w )
( −
=
∆ γ
Regla Delta
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
1. Inicializar los pesos de forma aleatoria
2. Introducir un patrón de entrada
3. Calcular la salida, compararla con la deseada y obtener la diferencia:
(dp - yp)
4. Para todos los pesos, multiplicar dicha diferencia por la entrada
correspondiente y ponderarla por la tasa de aprendizaje
5. Modicar el peso sumando al valor antiguo la cantidad obtenida en 4)
6. Si no se ha cumplido el criterio de convergencia, regresar a 2), si se han
acabado todos los patrones empezar de nuevo a introducir patrones
Algoritmo de aprendizaje
j
p
p
j
p x
y
d
w )
( −
=
∆ γ
j
p
p
j
p
w
w
wj ∆
+
= −1
13
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
En Perceptron la salida es binaria, en Adaline es real
En Adaline existe una medida de cuánto se ha equivocado la red, en
Perceptron sólo de si se ha equivocado o no
En Adaline hay una razón de aprendizaje γ para regular lo que va a afectar
cada equivocacion a la modicacion de los pesos. Es siempre un valor entre
0 y 1 para ponderar el aprendizaje
Perceptron vs. Adaline
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Ejemplo 1: Decodificador
binario-decimal
7
1
1
1
6
0
1
1
5
1
0
1
4
0
0
1
3
1
1
0
2
0
1
0
1
1
0
0
d
x3
x2
x1
Aproximar con Adaline la función que
realiza la decodificación binario-decimal
Vamos a utilizar como tasa de
aprendizaje 0.3 y los siguientes valores
de pesos:
w1=0.84
w2=0.39
w3=0.78
14
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Problemas no linelamente
separables: XOR
© Isasi 2002
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Problema XOR
© Isasi 2002
15
Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007
Problema XOR
© Isasi 2002

Más contenido relacionado

La actualidad más candente

Análisis y síntesis de fourier resumen
Análisis y síntesis de fourier resumenAnálisis y síntesis de fourier resumen
Análisis y síntesis de fourier resumenmiguel rodriguez
 
Tarea2 juan delgadillo
Tarea2  juan delgadilloTarea2  juan delgadillo
Tarea2 juan delgadilloMurciGonzales
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINEESCOM
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
La importancia del algebra booleana en mi mercado laboral y practica profesional
La importancia del algebra booleana en mi mercado laboral y practica profesionalLa importancia del algebra booleana en mi mercado laboral y practica profesional
La importancia del algebra booleana en mi mercado laboral y practica profesionalRené Domínguez
 
Guia de ejercicios metodos de integracion
Guia de ejercicios metodos de integracionGuia de ejercicios metodos de integracion
Guia de ejercicios metodos de integracionAntonio Leopardi
 
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.Angel Perez
 
Sólidos de revolución con wolfram mathematica 7
Sólidos de revolución con wolfram mathematica 7Sólidos de revolución con wolfram mathematica 7
Sólidos de revolución con wolfram mathematica 7chavaortiz
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Circuito de Hamilton
Circuito de HamiltonCircuito de Hamilton
Circuito de HamiltonVicentino
 
Ejercicios resueltos 2011
Ejercicios resueltos 2011Ejercicios resueltos 2011
Ejercicios resueltos 2011Deyvid Atens
 

La actualidad más candente (20)

Análisis y síntesis de fourier resumen
Análisis y síntesis de fourier resumenAnálisis y síntesis de fourier resumen
Análisis y síntesis de fourier resumen
 
Lógica difusa
Lógica difusaLógica difusa
Lógica difusa
 
Tarea2 juan delgadillo
Tarea2  juan delgadilloTarea2  juan delgadillo
Tarea2 juan delgadillo
 
redes kohonen
redes kohonenredes kohonen
redes kohonen
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Teorema de cauchy
Teorema de cauchyTeorema de cauchy
Teorema de cauchy
 
Ajuste polinomial de curvas
Ajuste polinomial de curvasAjuste polinomial de curvas
Ajuste polinomial de curvas
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
La importancia del algebra booleana en mi mercado laboral y practica profesional
La importancia del algebra booleana en mi mercado laboral y practica profesionalLa importancia del algebra booleana en mi mercado laboral y practica profesional
La importancia del algebra booleana en mi mercado laboral y practica profesional
 
Presentacion De Serie De Fourier
Presentacion De Serie De FourierPresentacion De Serie De Fourier
Presentacion De Serie De Fourier
 
Guia de ejercicios metodos de integracion
Guia de ejercicios metodos de integracionGuia de ejercicios metodos de integracion
Guia de ejercicios metodos de integracion
 
Numeros complejos
Numeros complejosNumeros complejos
Numeros complejos
 
La función escalón unitario
La función escalón unitarioLa función escalón unitario
La función escalón unitario
 
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
Tabla de Dualidad Transformada Z, Transformada de LaPlace y Discreta.
 
Sólidos de revolución con wolfram mathematica 7
Sólidos de revolución con wolfram mathematica 7Sólidos de revolución con wolfram mathematica 7
Sólidos de revolución con wolfram mathematica 7
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Serie de Fourier
Serie de FourierSerie de Fourier
Serie de Fourier
 
Circuito de Hamilton
Circuito de HamiltonCircuito de Hamilton
Circuito de Hamilton
 
Ejercicios resueltos 2011
Ejercicios resueltos 2011Ejercicios resueltos 2011
Ejercicios resueltos 2011
 

Similar a Redes neuronales perceptrón y Adaline

Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptronjcbenitezp
 
Red Neuronal Adaline
Red Neuronal AdalineRed Neuronal Adaline
Red Neuronal Adalinefernandoman
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
RED NERONAL ADALINE
RED NERONAL ADALINERED NERONAL ADALINE
RED NERONAL ADALINEESCOM
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adalinec09271
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
La Memoria de BAM/Hopfield
La Memoria de BAM/HopfieldLa Memoria de BAM/Hopfield
La Memoria de BAM/HopfieldSpacetoshare
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificialesSpacetoshare
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 

Similar a Redes neuronales perceptrón y Adaline (20)

Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
Rna10
Rna10Rna10
Rna10
 
Utp sirn_s7_adaline y perceptron
 Utp sirn_s7_adaline y perceptron Utp sirn_s7_adaline y perceptron
Utp sirn_s7_adaline y perceptron
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Red Neuronal Adaline
Red Neuronal AdalineRed Neuronal Adaline
Red Neuronal Adaline
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
RED NERONAL ADALINE
RED NERONAL ADALINERED NERONAL ADALINE
RED NERONAL ADALINE
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Tema4
Tema4Tema4
Tema4
 
Mr1i 753-2007-2
Mr1i 753-2007-2Mr1i 753-2007-2
Mr1i 753-2007-2
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adaline
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
La Memoria de BAM/Hopfield
La Memoria de BAM/HopfieldLa Memoria de BAM/Hopfield
La Memoria de BAM/Hopfield
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Sistema de ed de primer orden
Sistema de ed de primer ordenSistema de ed de primer orden
Sistema de ed de primer orden
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 

Más de Spacetoshare

Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on AlgorithmsSpacetoshare
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosSpacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemáticaSpacetoshare
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operacionesSpacetoshare
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamientoSpacetoshare
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesisSpacetoshare
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSSpacetoshare
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de EnsambladorSpacetoshare
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superiorSpacetoshare
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA Spacetoshare
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuacionesSpacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemáticaSpacetoshare
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejosSpacetoshare
 

Más de Spacetoshare (20)

EL HUECO.pdf
EL HUECO.pdfEL HUECO.pdf
EL HUECO.pdf
 
Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on Algorithms
 
Sums ADA
Sums ADASums ADA
Sums ADA
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmos
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Fórmulas ADA
Fórmulas ADAFórmulas ADA
Fórmulas ADA
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operaciones
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamiento
 
Ejercicios jess
Ejercicios jessEjercicios jess
Ejercicios jess
 
Sistemas Expertos
Sistemas ExpertosSistemas Expertos
Sistemas Expertos
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesis
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de Ensamblador
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superior
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuaciones
 
Determinantes
DeterminantesDeterminantes
Determinantes
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejos
 
Ejer
EjerEjer
Ejer
 

Último

SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptxdeimerhdz21
 
plan de capacitacion docente AIP 2024 clllll.pdf
plan de capacitacion docente  AIP 2024          clllll.pdfplan de capacitacion docente  AIP 2024          clllll.pdf
plan de capacitacion docente AIP 2024 clllll.pdfenelcielosiempre
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 
Ecosistemas Natural, Rural y urbano 2021.pptx
Ecosistemas Natural, Rural y urbano  2021.pptxEcosistemas Natural, Rural y urbano  2021.pptx
Ecosistemas Natural, Rural y urbano 2021.pptxolgakaterin
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
plande accion dl aula de innovación pedagogica 2024.pdf
plande accion dl aula de innovación pedagogica 2024.pdfplande accion dl aula de innovación pedagogica 2024.pdf
plande accion dl aula de innovación pedagogica 2024.pdfenelcielosiempre
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
Ley 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularLey 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularMooPandrea
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...JAVIER SOLIS NOYOLA
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioELIASAURELIOCHAVEZCA1
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...JonathanCovena1
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdfDemetrio Ccesa Rayme
 

Último (20)

SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptx
 
plan de capacitacion docente AIP 2024 clllll.pdf
plan de capacitacion docente  AIP 2024          clllll.pdfplan de capacitacion docente  AIP 2024          clllll.pdf
plan de capacitacion docente AIP 2024 clllll.pdf
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
Ecosistemas Natural, Rural y urbano 2021.pptx
Ecosistemas Natural, Rural y urbano  2021.pptxEcosistemas Natural, Rural y urbano  2021.pptx
Ecosistemas Natural, Rural y urbano 2021.pptx
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
plande accion dl aula de innovación pedagogica 2024.pdf
plande accion dl aula de innovación pedagogica 2024.pdfplande accion dl aula de innovación pedagogica 2024.pdf
plande accion dl aula de innovación pedagogica 2024.pdf
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
Ley 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularLey 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circular
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literario
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdf
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 

Redes neuronales perceptrón y Adaline

  • 1. 1 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Perceptron y Adaline Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Sistema capaz de realizar tareas de clasificación de forma automática Perceptron simple • A partir de un número de ejemplos etiquetados, el sistema determina la ecuación del hiperplano discrimininante
  • 2. 2 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Arquitectura • Red monocapa con una o más neuronas de salida conectadas a todas las entradas y= 1, si 0 2 2 1 1 > + + θ x w x w - 1, si x1 x2 w1 w2 y θ 1 0 2 2 1 1 ≤ + + θ x w x w Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Arquitectura • El perceptron equivale a un hiperplano de dimensión n-1 capaz de separar las clases – Si la salida del perceptron es +1, la entrada pertenecerá a una clase (estará situada a un lado del hiperplano) – Si la salida es -1, la entrada pertenecerá a la clase contraria (estará situada al otro lado del hiperplano) • La ecuación del hiperplano es: 0 2 2 1 1 = + + θ x w x w 2 1 2 1 2 w x w w x θ − − = Pendiente de la recta Punto de corte con el eje de ordenadas En dos dimensiones es una recta x1 x2
  • 3. 3 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • En general, para n dimensiones: Arquitectura 0 .... 2 2 1 1 = + + + + θ n n x w x w x w x1 x2 w1 w2 y θ 1 xn ….. Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Los datos son puntos en un espacio multidimensional • Se dispone de un conjunto de observaciones (puntos) de los que se sabe su categoría o clase • Hay que determinar la ecuacion del hiperplano que deja a un lado los ejemplos de un tipo y a otro los del otro • La ecuacion del hiperplano se deduce a partir de los ejemplos • Ejemplos: Puntos de • Hiperplano: Proceso ) ,... , ( : 2 1 n n x x x ℜ 0 .... 2 2 1 1 = + + + + θ n nx w x w x w
  • 4. 4 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Proceso iterativo supervisado • Modicacion de los parámetros de la red (pesos y umbral), hasta encontrar el hiperplano discriminante • Numero finito de iteraciones ‰ Dado: • Conjunto de ejemplos de entrenamiento etiquetados (clase A o B) y distribuidos en un espacio multidimensional Ejemplos: patrón p: Salida deseada para p: ‰ Encontrar hiperplano discriminante que separa las clases A y B Encontrar los parámetros Aprendizaje n ℜ ) ,.... , ( 2 1 p n p p p x x x x = ) ( p x d B x si x d A x si x d p p p p ∈ − = ∈ = , 1 ) ( ; , 1 ) ( 0 .... 2 2 1 1 = + + + + θ n nx w x w x w θ , ,.... , 2 1 n w w w Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Algoritmo de Aprendizaje • Se dispone de un conjunto de ejemplos de entrenamiento; cada uno de ellos será un vector de entrada y una salida: 1. Empezar con valores aleatorios para los pesos y el umbral 2. Seleccionar un vector de entrada del conjunto de ejemplos de entrenamiento 3. Si la red da una respuesta incorrecta. Modicar wi de acuerdo a: 4. Si no se ha cumplido el criterio de finalización, volver a 2 } 1 , 1 { ) ( )), ( , ( − = χ χ χ d d ) (χ d y ≠ ) (χ d x w i i = ∆ ) (χ θ d = ∆
  • 5. 5 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Ejemplo: función AND 1 2 3 4 © Isasi 2002 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND • Valores iniciales: Patron Salida Clasifica (-1,-1|-1) f(-1 + (-1) + 0.5)=f(-1.5)=-1 Bien [-1=d(X)] (+1,-1|-1) f(1 + (-1) + 0.5)=f(0.5)=+1 Mal [+1 ≠ d(X)] Hay que ajustar pesos 1 2 © Isasi 2002 © Isasi 2002
  • 6. 6 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND 0 2 - 0.5 2 © Isasi 2002 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Patron Salida Clasifica (-1,+1|-1) f(0 + 2 - 0.5)=f(1.5)=1 Mal [1≠ d(X)] Hay que ajustar pesos 3 Función AND
  • 7. 7 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND - 1.5 3 © Isasi 2002 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND Patron Salida Clasifica (+1,+1|+1) f(1 + 1 - 1.5)=f(0.5)=1 Bien [1= d(X)] Ya se ha completado un ciclo. Hay que completar otro ciclo sin que se realicen ajustes: Patron Salida Clasifica (-1,-1|-1) f(-1 + (-1) - 1.5)=f(-3.5)=-1 Bien [-1=d(X)] (+1,-1|-1) f(1 + (-1) - 1.5) =f(-1.5)=-1 Bien [-1=d(X)] (-1,+1|-1) f(-1 + 1 - 1.5) =f(-1.5)=-1 Bien [-1=d(X)] (+1,+1|+1) f(1 + 1 - 1.5) =f(0.5)=+1 Bien [+1=d(X)] 4 1 2 3 4
  • 8. 8 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Función AND - 1.5 © Isasi 2002 Resultado final: Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • El perceptrón realiza tareas de clasificación salida binaria • Si las salidas fueran números reales, estaríamos ante un problema de regresión (Applet de regresión: http://www.math.csusb.edu/faculty/stanton/m262/regress/regress.html) • Aproximar una función cualquiera F(x) definida por un conjunto de datos de entrada y su salida real correspondiente • Los ejemplos de entrenamiento son conjuntos de valores: (vector de entrada, salida real) • Habrá que buscar la función tal que )} , ),....( , ( ), , {( 2 2 1 1 m m y x y x y x P r r r = ) (x F r P x y x F i i i ∈ ∀ = r r , ) ( Adaline: ADAptive LInear NEuron
  • 9. 9 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Desarrollado en 1960 por Widrow y Hoff • Estructura prácticamente idéntica al perceptron, pero es un mecanismo físico capaz de realizar aprendizaje • Elemento combinador adaptativo lineal, que recibe todas las entradas, las suma ponderadamente, y produce una salida Adaline: ADAptive LInear NEuron x1 x2 w1 w2 y θ 1 xn ….. Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • La diferencia con el perceptron es la manera de utilizar la salida en la regla de aprendizaje • El perceptron utiliza la salida de la funcion umbral (binaria) para el aprendizaje. Sólo se tiene en cuenta si se ha equivocado o no. • En Adaline se utiliza directamente la salida de la red (real) teniendo en cuenta cuánto se ha equivocado. • Se utiliza la diferencia entre el valor real esperado d y la salida producida por la red y. Para un patrón de entrada xp, se tendrá en cuenta el error producido (dp-yp) • El objetivo es obtener una red tal que yp=dp para todos los patrones p Adaline
  • 10. 10 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Será imposible conseguir una salida exacta porque y es una función lineal, pero se minimizará el error cometido para todos los patrones de entrenamiento • Hay que elegir una medida de dicho error, p.ej.el error cuadrático • La regla de aprendizaje será la REGLA DELTA x1 x2 y Adaline Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Regla Delta • Los patrones de entrenamiento estan constituidos por pares de valores que son el vector de entrada y su salida deseada • La regla Delta utiliza la diferencia entre la salida producida para cada patron (p) y la deseada • Se calcula una funcion de error para todo el conjunto de patrones: ) , ( d x r ) ( p p y d − Error cuadrático por patrón Error global
  • 11. 11 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • La regla Delta busca el conjunto de pesos que minimiza la funcion de error • Se hará mediante un proceso iterativo donde se van presentando los patrones uno a uno y se van modificando los parámetros de la red mediante la regla del descenso del gradiente • La idea es realizar un cambio en cada peso proporcional a la derivada del error, medida en el patron actual, respecto del peso: Regla Delta Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Regla Delta
  • 12. 12 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 • Aplicando la regla de la cadena queda: 2 ) ( 2 1 p p p y d E − = ) ( ) 1 ( ) ( 2 1 2 p p p p y d y d − − = − × − × θ + + + + = .... ... 1 1 1 1 j j p x w x w x w y j j p x w y = ∂ ∂ j p p j p x y d w ) ( − = ∆ γ Regla Delta Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 1. Inicializar los pesos de forma aleatoria 2. Introducir un patrón de entrada 3. Calcular la salida, compararla con la deseada y obtener la diferencia: (dp - yp) 4. Para todos los pesos, multiplicar dicha diferencia por la entrada correspondiente y ponderarla por la tasa de aprendizaje 5. Modicar el peso sumando al valor antiguo la cantidad obtenida en 4) 6. Si no se ha cumplido el criterio de convergencia, regresar a 2), si se han acabado todos los patrones empezar de nuevo a introducir patrones Algoritmo de aprendizaje j p p j p x y d w ) ( − = ∆ γ j p p j p w w wj ∆ + = −1
  • 13. 13 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 En Perceptron la salida es binaria, en Adaline es real En Adaline existe una medida de cuánto se ha equivocado la red, en Perceptron sólo de si se ha equivocado o no En Adaline hay una razón de aprendizaje γ para regular lo que va a afectar cada equivocacion a la modicacion de los pesos. Es siempre un valor entre 0 y 1 para ponderar el aprendizaje Perceptron vs. Adaline Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Ejemplo 1: Decodificador binario-decimal 7 1 1 1 6 0 1 1 5 1 0 1 4 0 0 1 3 1 1 0 2 0 1 0 1 1 0 0 d x3 x2 x1 Aproximar con Adaline la función que realiza la decodificación binario-decimal Vamos a utilizar como tasa de aprendizaje 0.3 y los siguientes valores de pesos: w1=0.84 w2=0.39 w3=0.78
  • 14. 14 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Problemas no linelamente separables: XOR © Isasi 2002 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Problema XOR © Isasi 2002
  • 15. 15 Redes de Neuronas. Perceptron y Adaline © José Mª Valls 2007 Problema XOR © Isasi 2002