SlideShare una empresa de Scribd logo
1 de 4
Descargar para leer sin conexión
Perceptrón
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
          Este artículo o sección tiene un estilo difícil de entender para los lectores
          interesados en el tema.
            Si puedes, por favor edítalo y contribuye a hacerlo más accesible para el público general, sin
            eliminar los detalles técnicos que interesan a los especialistas.




Perceptrón con 2 entradas

El Perceptrón es un tipo de red neuronal artificial desarrollado por Frank Rosenblatt,
también puede entenderse como perceptrón la neurona artificial y unidad básica de
inferencia en forma de discriminador lineal, que constituye este modelo de red neuronal
artificial, esto debido a que el perceptrón puede usarse como neurona dentro de un
perceptrón más grande u otro tipo de red neuronal artificial.

Contenido
[ocultar]

       1 Definición
       2 Aprendizaje
       3 Ejemplo
       4 Véase también



[editar] Definición
El perceptrón usa una matriz para representar las redes neuronales y es un discriminador
terciario que traza su entrada x (un vector binario) a un único valor de salida f(x) (un solo
valor binario) a través de dicha matriz.
Donde w es un vector de pesos reales y          es el producto punto (que computa una suma
ponderada). u es el 'umbral', el cual representa el grado de inhibición de la neurona, es un
término constante que no depende del valor que tome la entrada.

El valor de f(x) (0 o 1) se usa para clasificar x como un caso positivo o un caso negativo, en
el caso de un problema de clasificación binario. El umbral puede pensarse de como
compensar la función de activación, o dando un nivel bajo de actividad a la neurona del
rendimiento. La suma ponderada de las entradas debe producir un valor mayor que u para
cambiar la neurona de estado 0 a 1.

[editar] Aprendizaje
El algoritmo de aprendizaje es el mismo para todas las neuronas, todo lo que sigue se aplica
a una sola neurona en el aislamiento. Se definen algunas variables primero:

       el x(j) denota el elemento en la posición j en el vector de la entrada
       el w(j) el elemento en la posición j en el vector de peso
       el y denota la salida de la neurona
       el δ denota la salida esperada
       el α es una constante tal que 0 < α < 1


Los pesos son actualizados después de cada entrada según la regla de actualización
siguiente:




Por lo cual, el aprendizaje es modelado como la actualización del vector de peso después de
cada iteración, lo cual sólo tendrá lugar si la salida y difiere de la salida deseada δ. Para
considerar una neurona al interactuar en múltiples iteraciones debemos definir algunas
variables más:

       xi denota el vector de entrada para la iteración i
       wi denota el vector de peso para la iteración i
       yi denota la salida para la iteración i
                                                 denota un periodo de aprendizaje de m
       iteraciones

En cada iteración el vector de peso es actualizado como sigue:

       Para cada pareja ordenada (x,y) en
       Pasar (xi,yi,wi) a la regla de actualización w(j)' = w(j) + α(δ − y)x(j)
El periodo de aprendizaje Dm se dice que es separable linealmente si existe un valor
positivo γ y un vector de peso w tal que:                            para todos los i.

Novikoff (1962) probo que el algoritmo de aprendizaje converge después de un número
finito de iteraciones si los datos son separables linealmente y el número de errores esta


limitado a:          .

Sin embargo si los datos no son separables linealmente, la línea de algoritmo anterior no se
garantiza que converja.

[editar] Ejemplo
Considere las funciones AND y OR, estas funciones son linealmente separables y por lo
tanto pueden ser aprendidas por un perceptrón.




La función XOR no puede ser aprendida por un único perceptrón puesto que requiere al
menos de dos líneas para separar las clases (0 y 1). Debe utilizarse al menos una capa
adicional de perceptrones para permitir su aprendizaje.




[editar] Véase también
       Perceptrón multicapa
Perceptrón

Más contenido relacionado

La actualidad más candente

REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoESCOM
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla AprendizajeRoberth Figueroa-Diaz
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal DifusaESCOM
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosESCOM
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVAESCOM
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Red neuronal kohonen (Clasificación de colores)
Red neuronal kohonen (Clasificación de colores)Red neuronal kohonen (Clasificación de colores)
Red neuronal kohonen (Clasificación de colores)Ferney Hernandez
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificialesSpacetoshare
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizadosJesus Rojas
 

La actualidad más candente (20)

REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVA
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Red neuronal kohonen (Clasificación de colores)
Red neuronal kohonen (Clasificación de colores)Red neuronal kohonen (Clasificación de colores)
Red neuronal kohonen (Clasificación de colores)
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 
redes kohonen
redes kohonenredes kohonen
redes kohonen
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizados
 

Destacado

Romeo y julieta
Romeo y julietaRomeo y julieta
Romeo y julietakiwanari
 
Article sur les QR Code pour le magazine Forward (janvier 2012)
Article sur les QR Code pour le magazine Forward (janvier 2012)Article sur les QR Code pour le magazine Forward (janvier 2012)
Article sur les QR Code pour le magazine Forward (janvier 2012)Fred Colantonio
 
Bilan Moral 2006
Bilan Moral 2006Bilan Moral 2006
Bilan Moral 2006CQH
 
Www.referate.ro zone touristique-de_bucarest_3fe19
Www.referate.ro zone touristique-de_bucarest_3fe19Www.referate.ro zone touristique-de_bucarest_3fe19
Www.referate.ro zone touristique-de_bucarest_3fe19Grama Violeta
 
Le concept de_l_humanité_dans_la_sf
Le concept de_l_humanité_dans_la_sfLe concept de_l_humanité_dans_la_sf
Le concept de_l_humanité_dans_la_sffrizzole
 
EUROPAGES Brochure de Vente 2012
EUROPAGES Brochure de Vente 2012EUROPAGES Brochure de Vente 2012
EUROPAGES Brochure de Vente 2012EUROPAGES
 
Excel alberto cañadilla
Excel alberto cañadillaExcel alberto cañadilla
Excel alberto cañadilla_vk33
 
Guion pedagogico
Guion pedagogicoGuion pedagogico
Guion pedagogicoDAVIOCAMPO
 

Destacado (20)

Yeinnis y maria
Yeinnis y mariaYeinnis y maria
Yeinnis y maria
 
Whats Up Collector Insuffisance Cardiaque
Whats Up Collector Insuffisance CardiaqueWhats Up Collector Insuffisance Cardiaque
Whats Up Collector Insuffisance Cardiaque
 
Romeo y julieta
Romeo y julietaRomeo y julieta
Romeo y julieta
 
Sistemas 1c
Sistemas 1cSistemas 1c
Sistemas 1c
 
Présentation4
Présentation4Présentation4
Présentation4
 
Claude léveillé
Claude léveilléClaude léveillé
Claude léveillé
 
Article sur les QR Code pour le magazine Forward (janvier 2012)
Article sur les QR Code pour le magazine Forward (janvier 2012)Article sur les QR Code pour le magazine Forward (janvier 2012)
Article sur les QR Code pour le magazine Forward (janvier 2012)
 
Bilan Moral 2006
Bilan Moral 2006Bilan Moral 2006
Bilan Moral 2006
 
Tareas de gestion
Tareas de gestionTareas de gestion
Tareas de gestion
 
Www.referate.ro zone touristique-de_bucarest_3fe19
Www.referate.ro zone touristique-de_bucarest_3fe19Www.referate.ro zone touristique-de_bucarest_3fe19
Www.referate.ro zone touristique-de_bucarest_3fe19
 
Donner Sans Compte Rs
Donner Sans Compte RsDonner Sans Compte Rs
Donner Sans Compte Rs
 
Le concept de_l_humanité_dans_la_sf
Le concept de_l_humanité_dans_la_sfLe concept de_l_humanité_dans_la_sf
Le concept de_l_humanité_dans_la_sf
 
users
usersusers
users
 
EUROPAGES Brochure de Vente 2012
EUROPAGES Brochure de Vente 2012EUROPAGES Brochure de Vente 2012
EUROPAGES Brochure de Vente 2012
 
Presentacion selectividad
Presentacion selectividadPresentacion selectividad
Presentacion selectividad
 
Dermatologia en red
Dermatologia en redDermatologia en red
Dermatologia en red
 
08 balafon avril 2012
08 balafon avril 201208 balafon avril 2012
08 balafon avril 2012
 
Excel alberto cañadilla
Excel alberto cañadillaExcel alberto cañadilla
Excel alberto cañadilla
 
Guion pedagogico
Guion pedagogicoGuion pedagogico
Guion pedagogico
 
Red Communication
Red CommunicationRed Communication
Red Communication
 

Similar a Perceptrón

Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansigVanee2014
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptronjcbp_peru
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptronjcbp_peru
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAESCOM
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)ESCOM
 
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJECUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJEESCOM
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjairo0990
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQESCOM
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptronc09271
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptronhiperu2005
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A daniatacho
 

Similar a Perceptrón (20)

Tema4
Tema4Tema4
Tema4
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVA
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)
 
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJECUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Learning Vector Quantization LVQ
Learning Vector Quantization LVQLearning Vector Quantization LVQ
Learning Vector Quantization LVQ
 
Simple Harmonic Oscillator.docx
Simple Harmonic Oscillator.docxSimple Harmonic Oscillator.docx
Simple Harmonic Oscillator.docx
 
Rna10
Rna10Rna10
Rna10
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
 

Perceptrón

  • 1. Perceptrón De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Este artículo o sección tiene un estilo difícil de entender para los lectores interesados en el tema. Si puedes, por favor edítalo y contribuye a hacerlo más accesible para el público general, sin eliminar los detalles técnicos que interesan a los especialistas. Perceptrón con 2 entradas El Perceptrón es un tipo de red neuronal artificial desarrollado por Frank Rosenblatt, también puede entenderse como perceptrón la neurona artificial y unidad básica de inferencia en forma de discriminador lineal, que constituye este modelo de red neuronal artificial, esto debido a que el perceptrón puede usarse como neurona dentro de un perceptrón más grande u otro tipo de red neuronal artificial. Contenido [ocultar] 1 Definición 2 Aprendizaje 3 Ejemplo 4 Véase también [editar] Definición El perceptrón usa una matriz para representar las redes neuronales y es un discriminador terciario que traza su entrada x (un vector binario) a un único valor de salida f(x) (un solo valor binario) a través de dicha matriz.
  • 2. Donde w es un vector de pesos reales y es el producto punto (que computa una suma ponderada). u es el 'umbral', el cual representa el grado de inhibición de la neurona, es un término constante que no depende del valor que tome la entrada. El valor de f(x) (0 o 1) se usa para clasificar x como un caso positivo o un caso negativo, en el caso de un problema de clasificación binario. El umbral puede pensarse de como compensar la función de activación, o dando un nivel bajo de actividad a la neurona del rendimiento. La suma ponderada de las entradas debe producir un valor mayor que u para cambiar la neurona de estado 0 a 1. [editar] Aprendizaje El algoritmo de aprendizaje es el mismo para todas las neuronas, todo lo que sigue se aplica a una sola neurona en el aislamiento. Se definen algunas variables primero: el x(j) denota el elemento en la posición j en el vector de la entrada el w(j) el elemento en la posición j en el vector de peso el y denota la salida de la neurona el δ denota la salida esperada el α es una constante tal que 0 < α < 1 Los pesos son actualizados después de cada entrada según la regla de actualización siguiente: Por lo cual, el aprendizaje es modelado como la actualización del vector de peso después de cada iteración, lo cual sólo tendrá lugar si la salida y difiere de la salida deseada δ. Para considerar una neurona al interactuar en múltiples iteraciones debemos definir algunas variables más: xi denota el vector de entrada para la iteración i wi denota el vector de peso para la iteración i yi denota la salida para la iteración i denota un periodo de aprendizaje de m iteraciones En cada iteración el vector de peso es actualizado como sigue: Para cada pareja ordenada (x,y) en Pasar (xi,yi,wi) a la regla de actualización w(j)' = w(j) + α(δ − y)x(j)
  • 3. El periodo de aprendizaje Dm se dice que es separable linealmente si existe un valor positivo γ y un vector de peso w tal que: para todos los i. Novikoff (1962) probo que el algoritmo de aprendizaje converge después de un número finito de iteraciones si los datos son separables linealmente y el número de errores esta limitado a: . Sin embargo si los datos no son separables linealmente, la línea de algoritmo anterior no se garantiza que converja. [editar] Ejemplo Considere las funciones AND y OR, estas funciones son linealmente separables y por lo tanto pueden ser aprendidas por un perceptrón. La función XOR no puede ser aprendida por un único perceptrón puesto que requiere al menos de dos líneas para separar las clases (0 y 1). Debe utilizarse al menos una capa adicional de perceptrones para permitir su aprendizaje. [editar] Véase también Perceptrón multicapa