SlideShare una empresa de Scribd logo
Redes Neuronales
 ( El Perceptron)
Redes Neuronales
                 ( El Perceptron)

 Definición: Primer modelo de red neuronal
    artificial desarrollado por Rosemblat en 1958.
    Consta de un numero arbitrario de Capaz.
   El Perceptron Simple (P.S):Es un modelo
    unidireccional, compuesto por dos capas de
    neuronas, una sensorial o de entrada y otra de
    salida. La operación de una red de este tipo con
    “n” neuronas de entrada (Unidades de
    Procesamiento (U.P) y “m” de salida y su modo
    de entrenamiento es de tipo supervisado
El Perceptron


Arquitectura del Perceptron
El Perceptron


       El computo que ejecuta el perceptron es:
                                          n
                             yi (t ) = f (∑ wij x j ± u )
                                         j= 1
:
       Donde:
     yi (t ) : Es la salida de la i-esima U.P
    wij : Es el peso sináptico correspondiente a la j-esima
         entrada de la i-esima U.P
    x j : Es la componente j-esima del patrón de entrada
    u : : Representa un valor umbral
El Perceptron

       Regla de aprendizaje del Perceptron
    Determinar los pesos Sinápticos para que el
  dispositivo represente la relación entrada-salida lo
  mas fidedigna posible. La regla de aprendizaje
  permite corregir los pesos sinápticos para que
  alcancen los valore deseado, partiendo de un
  conjunto de pesos inicializados aleatoriamente.

                  δ wij = λ (ζ i − si ) x j
 λ : Regula la velocidad de aprendizaje (0≤ λ ≤1)
ζ : Es la componente i-esima del patrón de salida
   deseado
El Perceptron

Dinámica del perceptron
  El funcionamiento para ejecutar un patrón de la red es el
 siguiente:
  1. Se establece el patrón de entrada en los sensores, la
 capa de entrada.
 2. Se actualizan las neuronas de la capa de Salida.
  Las neuronas de actualizan de la siguiente manera:
 Sea el potencial de la neurona i,
 El peso asociado a la sinapsis que une la neurona i de la
 capa actual
 y j de la capa de sensores.
 El estado del sensor j
 Entonces
 Y el estado de la neurona es o bien la función escalón si las
 entradas de la red son binarias o bien la función signo si las
 entradas son bipolares {-1 ,1} estado-neurona J= Signo
 ( Sumatorio ( Peso(ij)*Estado(j))
El Perceptron

 Aprendizaje del perceptron
 Los pasos para que la red aprenda una lista de patrones
 son los siguientes
1 Tomar un patrón al azar de la lista.
 2 Se establece el patrón de entrada en los sensores, la
 capa de entrada.
 3 Se establecen los valores deseados en las neuronas
 de la capa de salida
 4 Se actualizan las neuronas de la capa de Salida.
 5 Solicitar que aprendan todas las sinapsis
 6 Si las sinapsis han cambiado volver al paso 1
 Si no han cambiado la red se ha estabilizado y paramos
El Perceptron

   Las sinapsis que une las neuronas i, j aprenderá de la
    siguiente manera:
   Sea
   Ei = el estado de la neurona de la capa de entrada i,
   Pij =
    El peso actual asociado a la sinapsis que une la neurona i
    de la capa de entrada y la neurona j de la capa de salida.
   Ej = El estado de la neurona de la capa de salida j
   Sj = El valor deseado para esa neurona
   Pijnuevo = El peso Pij actualizado.
   TASA =Es una constante entre 0 y 1 que indica cuanto
    aprende la red
El Perceptron


   Pijnuevo = El peso Pij actualizado.
   TASA =Es una constante entre 0 y 1 que indica cuanto
    aprende la red
   Pijnuevo = Pij + Tasa*(( Ej - Sj) *Ei)

           Hay que destacar que el perceptrón aprende solo
    cuando se equivoca al clasificar el patrón. Si clasifica
    correctamente el patrón, esto es , entonces con lo que no
     hay aprendizaje.
El Perceptron - Algoritmo
Leer Numero_de_Patrones:
 Numero_de_Entradas;
 Inicializar Pesos( i );
 Numero de Iteraciones;
1. Repita Hasta hay_error=Falso o Numero de iteraciones>500
   Hay_Error=Falso
   Repita desde patron=1 Hasta Numero_de_Patrones
   Leer Entradas, Leer Salida_Esperada, Neta=0
   Repita desde patron =1 Hasta Numero _de_Entradas
   Neta=Neta+( Pesos( I )* Entradas( I ) ) [Suma Ponderada]
   Neta=Neta+Umbral
   Si Neta ≥0 entonces Salida=1 [Funcion Escalon]
                Sino Salida=0
    Error=Salida_Esperada – Salida
     Si Error<>0 Entonces
        Pesos (i)= Pesos(i) + (Error*Entradas(i))
        Hay_Error=Verdadero
        Umbral=Umbral + Error
         Numero_de_Iteraciones = Numero_de_Iteraciones +1
El Modelo Adaline


Red ADALINE
       Las redes ADALINE (Adaptative Linear Element),
fueron desarrolladas por Bernie Widrow en la
Universidad de Stanford. Dicha red usa neuronas con
función de transferencia escalón, y está limitada a una
única neurona de salida. Su arquitectura es análoga a la
del Perceptron, difiere solo en el uso de otras funciones
de transferencia. El computo que ejecuta el ADALINE
es el siguiente
                         m
             sr = F (∑ rj x j )
                      w
                        j=1
El Modelo Adaline
 Donde F es una función de transferencia continua y
 diferenciable(tipicamente una función Sigmoidea,
 sigmoidea bipolar o la función Lineal)

           Función de Costo y Aprendizaje
Se emplea como función de costo, E(W), la suma de los
 cuadrados de los errores que comete el dispositivo,
 sobre todos los patrones de entrenamiento


  E (ϖ ) = 1 / 2∑ (ζ iu − siu ) 2 = 1 / 2∑ (ζ iu − F (∑ wik xku )) 2
                 iu                     iu             k
El Modelo Adaline

     La función tiende a cero cuando los pesos se hacen
mejores. Esta regla de aprendizaje se conoce como la
regla delta o de Widrow-Hoff o regla LMS (the Least
Mean Squared)

            Arquitectura del ADALINE
GRACIAS POR SU ATENCION

Más contenido relacionado

La actualidad más candente

Triggers en BD mysql
Triggers en BD mysqlTriggers en BD mysql
Triggers en BD mysql
Emerson Garay
 
TRIGGERS O DISPARADORES
TRIGGERS O DISPARADORESTRIGGERS O DISPARADORES
TRIGGERS O DISPARADORES
Lisbeth Ocaña Bueno
 
Servidor dhcp
Servidor dhcpServidor dhcp
Servidor dhcp
Ian Berzeker Tovar
 
SQLite
SQLiteSQLite
SQLite
maymania
 
Conclusiones sobre bases de datos
Conclusiones sobre bases de datosConclusiones sobre bases de datos
Conclusiones sobre bases de datos
lizemontoya
 
Taller de Base de Datos - Unidad 7 Conectividad
Taller de Base de Datos - Unidad 7 ConectividadTaller de Base de Datos - Unidad 7 Conectividad
Taller de Base de Datos - Unidad 7 Conectividad
José Antonio Sandoval Acosta
 
BD Biblioteca con mysql
BD Biblioteca con mysqlBD Biblioteca con mysql
BD Biblioteca con mysql
Emerson Garay
 
51036806 proyecto-ejemplo-ingenieria-de-software
51036806 proyecto-ejemplo-ingenieria-de-software51036806 proyecto-ejemplo-ingenieria-de-software
51036806 proyecto-ejemplo-ingenieria-de-software
Miguel Angel Rodriguez
 
Compiladores conceptos
Compiladores conceptosCompiladores conceptos
Compiladores conceptos
yan marco Vasquez Huayca
 
Proyecto De Base De Datos
Proyecto De Base De DatosProyecto De Base De Datos
Proyecto De Base De Datos
guesta67b7c
 
Organización y estructura interna del cpu
Organización y estructura interna del cpuOrganización y estructura interna del cpu
Organización y estructura interna del cpu
Isaí Beto Matz Mijes
 
Empresas con BDOO
Empresas con BDOOEmpresas con BDOO
Empresas con BDOO
tec lerdo
 
Diagrama entidad-relacion normalización
Diagrama entidad-relacion normalizaciónDiagrama entidad-relacion normalización
Diagrama entidad-relacion normalización
cintiap25
 
Lenguaje de ensamblador
Lenguaje de ensambladorLenguaje de ensamblador
Lenguaje de ensamblador
Wilman Diaz
 
Arquitectura de memorias RAM Y ROM
Arquitectura de memorias RAM Y ROMArquitectura de memorias RAM Y ROM
Arquitectura de memorias RAM Y ROM
YESENIA CETINA
 
Procedimientos almacenados en MySQL
Procedimientos almacenados en MySQLProcedimientos almacenados en MySQL
Procedimientos almacenados en MySQL
Miguel Angel Rivera Robledo
 
Presentación poo
Presentación pooPresentación poo
Presentación poo
Josue Sarabia
 
Conceptos de POO (Programacion Orientada a Objetos)
Conceptos de POO (Programacion Orientada a Objetos)Conceptos de POO (Programacion Orientada a Objetos)
Conceptos de POO (Programacion Orientada a Objetos)
Josue Lara Reyes
 
Diapositivas Modelo Relacional
Diapositivas Modelo RelacionalDiapositivas Modelo Relacional
Diapositivas Modelo Relacional
Wiliam Perez
 
Unidad II. Modelo de Datos
Unidad II. Modelo de DatosUnidad II. Modelo de Datos
Unidad II. Modelo de Datos
ucbasededatos
 

La actualidad más candente (20)

Triggers en BD mysql
Triggers en BD mysqlTriggers en BD mysql
Triggers en BD mysql
 
TRIGGERS O DISPARADORES
TRIGGERS O DISPARADORESTRIGGERS O DISPARADORES
TRIGGERS O DISPARADORES
 
Servidor dhcp
Servidor dhcpServidor dhcp
Servidor dhcp
 
SQLite
SQLiteSQLite
SQLite
 
Conclusiones sobre bases de datos
Conclusiones sobre bases de datosConclusiones sobre bases de datos
Conclusiones sobre bases de datos
 
Taller de Base de Datos - Unidad 7 Conectividad
Taller de Base de Datos - Unidad 7 ConectividadTaller de Base de Datos - Unidad 7 Conectividad
Taller de Base de Datos - Unidad 7 Conectividad
 
BD Biblioteca con mysql
BD Biblioteca con mysqlBD Biblioteca con mysql
BD Biblioteca con mysql
 
51036806 proyecto-ejemplo-ingenieria-de-software
51036806 proyecto-ejemplo-ingenieria-de-software51036806 proyecto-ejemplo-ingenieria-de-software
51036806 proyecto-ejemplo-ingenieria-de-software
 
Compiladores conceptos
Compiladores conceptosCompiladores conceptos
Compiladores conceptos
 
Proyecto De Base De Datos
Proyecto De Base De DatosProyecto De Base De Datos
Proyecto De Base De Datos
 
Organización y estructura interna del cpu
Organización y estructura interna del cpuOrganización y estructura interna del cpu
Organización y estructura interna del cpu
 
Empresas con BDOO
Empresas con BDOOEmpresas con BDOO
Empresas con BDOO
 
Diagrama entidad-relacion normalización
Diagrama entidad-relacion normalizaciónDiagrama entidad-relacion normalización
Diagrama entidad-relacion normalización
 
Lenguaje de ensamblador
Lenguaje de ensambladorLenguaje de ensamblador
Lenguaje de ensamblador
 
Arquitectura de memorias RAM Y ROM
Arquitectura de memorias RAM Y ROMArquitectura de memorias RAM Y ROM
Arquitectura de memorias RAM Y ROM
 
Procedimientos almacenados en MySQL
Procedimientos almacenados en MySQLProcedimientos almacenados en MySQL
Procedimientos almacenados en MySQL
 
Presentación poo
Presentación pooPresentación poo
Presentación poo
 
Conceptos de POO (Programacion Orientada a Objetos)
Conceptos de POO (Programacion Orientada a Objetos)Conceptos de POO (Programacion Orientada a Objetos)
Conceptos de POO (Programacion Orientada a Objetos)
 
Diapositivas Modelo Relacional
Diapositivas Modelo RelacionalDiapositivas Modelo Relacional
Diapositivas Modelo Relacional
 
Unidad II. Modelo de Datos
Unidad II. Modelo de DatosUnidad II. Modelo de Datos
Unidad II. Modelo de Datos
 

Similar a Perceptron parte 1

Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
edeciofreitez
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
Andrea Lezcano
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
gueste7b261
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y Adaline
Spacetoshare
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
Spacetoshare
 
Rna10
Rna10Rna10
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
Vane Erraez
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
Vanee2014
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
jcbp_peru
 
Perceptrón
PerceptrónPerceptrón
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
jcbp_peru
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
jcbp_peru
 
Boletin3
Boletin3Boletin3
Boletin3
Yin Quark
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
ESCOM
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
ESCOM
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
ESCOM
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
eyyc
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Sallycastroro
 

Similar a Perceptron parte 1 (20)

Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Perceptron y Adaline
Perceptron y AdalinePerceptron y Adaline
Perceptron y Adaline
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Rna10
Rna10Rna10
Rna10
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Perceptrón
PerceptrónPerceptrón
Perceptrón
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Boletin3
Boletin3Boletin3
Boletin3
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRONRedes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 

Más de edeciofreitez

Sistema Experto Ejemplo
Sistema Experto EjemploSistema Experto Ejemplo
Sistema Experto Ejemplo
edeciofreitez
 
La comunicacion didactica_en_los_chats_academicos
La comunicacion didactica_en_los_chats_academicosLa comunicacion didactica_en_los_chats_academicos
La comunicacion didactica_en_los_chats_academicos
edeciofreitez
 
Propuesta final del cuft
Propuesta final del cuftPropuesta final del cuft
Propuesta final del cuft
edeciofreitez
 
Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
edeciofreitez
 
Conjuntos regulares 04[1]
Conjuntos regulares 04[1]Conjuntos regulares 04[1]
Conjuntos regulares 04[1]
edeciofreitez
 
Clase afd
Clase afdClase afd
Clase afd
edeciofreitez
 
Modu saya 4
Modu saya 4Modu saya 4
Modu saya 4
edeciofreitez
 
Mod auto 4
Mod auto 4Mod auto 4
Mod auto 4
edeciofreitez
 
Mod auto 4
Mod auto 4Mod auto 4
Mod auto 4
edeciofreitez
 
Infografia
InfografiaInfografia
Infografia
edeciofreitez
 

Más de edeciofreitez (10)

Sistema Experto Ejemplo
Sistema Experto EjemploSistema Experto Ejemplo
Sistema Experto Ejemplo
 
La comunicacion didactica_en_los_chats_academicos
La comunicacion didactica_en_los_chats_academicosLa comunicacion didactica_en_los_chats_academicos
La comunicacion didactica_en_los_chats_academicos
 
Propuesta final del cuft
Propuesta final del cuftPropuesta final del cuft
Propuesta final del cuft
 
Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
 
Conjuntos regulares 04[1]
Conjuntos regulares 04[1]Conjuntos regulares 04[1]
Conjuntos regulares 04[1]
 
Clase afd
Clase afdClase afd
Clase afd
 
Modu saya 4
Modu saya 4Modu saya 4
Modu saya 4
 
Mod auto 4
Mod auto 4Mod auto 4
Mod auto 4
 
Mod auto 4
Mod auto 4Mod auto 4
Mod auto 4
 
Infografia
InfografiaInfografia
Infografia
 

Perceptron parte 1

  • 1. Redes Neuronales ( El Perceptron)
  • 2. Redes Neuronales ( El Perceptron)  Definición: Primer modelo de red neuronal artificial desarrollado por Rosemblat en 1958. Consta de un numero arbitrario de Capaz.  El Perceptron Simple (P.S):Es un modelo unidireccional, compuesto por dos capas de neuronas, una sensorial o de entrada y otra de salida. La operación de una red de este tipo con “n” neuronas de entrada (Unidades de Procesamiento (U.P) y “m” de salida y su modo de entrenamiento es de tipo supervisado
  • 4. El Perceptron El computo que ejecuta el perceptron es: n yi (t ) = f (∑ wij x j ± u ) j= 1 : Donde: yi (t ) : Es la salida de la i-esima U.P wij : Es el peso sináptico correspondiente a la j-esima entrada de la i-esima U.P x j : Es la componente j-esima del patrón de entrada u : : Representa un valor umbral
  • 5. El Perceptron Regla de aprendizaje del Perceptron Determinar los pesos Sinápticos para que el dispositivo represente la relación entrada-salida lo mas fidedigna posible. La regla de aprendizaje permite corregir los pesos sinápticos para que alcancen los valore deseado, partiendo de un conjunto de pesos inicializados aleatoriamente. δ wij = λ (ζ i − si ) x j λ : Regula la velocidad de aprendizaje (0≤ λ ≤1) ζ : Es la componente i-esima del patrón de salida deseado
  • 6. El Perceptron Dinámica del perceptron El funcionamiento para ejecutar un patrón de la red es el siguiente: 1. Se establece el patrón de entrada en los sensores, la capa de entrada. 2. Se actualizan las neuronas de la capa de Salida. Las neuronas de actualizan de la siguiente manera: Sea el potencial de la neurona i, El peso asociado a la sinapsis que une la neurona i de la capa actual y j de la capa de sensores. El estado del sensor j Entonces Y el estado de la neurona es o bien la función escalón si las entradas de la red son binarias o bien la función signo si las entradas son bipolares {-1 ,1} estado-neurona J= Signo ( Sumatorio ( Peso(ij)*Estado(j))
  • 7. El Perceptron Aprendizaje del perceptron Los pasos para que la red aprenda una lista de patrones son los siguientes 1 Tomar un patrón al azar de la lista. 2 Se establece el patrón de entrada en los sensores, la capa de entrada. 3 Se establecen los valores deseados en las neuronas de la capa de salida 4 Se actualizan las neuronas de la capa de Salida. 5 Solicitar que aprendan todas las sinapsis 6 Si las sinapsis han cambiado volver al paso 1 Si no han cambiado la red se ha estabilizado y paramos
  • 8. El Perceptron  Las sinapsis que une las neuronas i, j aprenderá de la siguiente manera:  Sea  Ei = el estado de la neurona de la capa de entrada i,  Pij = El peso actual asociado a la sinapsis que une la neurona i de la capa de entrada y la neurona j de la capa de salida.  Ej = El estado de la neurona de la capa de salida j  Sj = El valor deseado para esa neurona  Pijnuevo = El peso Pij actualizado.  TASA =Es una constante entre 0 y 1 que indica cuanto aprende la red
  • 9. El Perceptron  Pijnuevo = El peso Pij actualizado.  TASA =Es una constante entre 0 y 1 que indica cuanto aprende la red  Pijnuevo = Pij + Tasa*(( Ej - Sj) *Ei) Hay que destacar que el perceptrón aprende solo cuando se equivoca al clasificar el patrón. Si clasifica correctamente el patrón, esto es , entonces con lo que no hay aprendizaje.
  • 10. El Perceptron - Algoritmo Leer Numero_de_Patrones: Numero_de_Entradas; Inicializar Pesos( i ); Numero de Iteraciones; 1. Repita Hasta hay_error=Falso o Numero de iteraciones>500 Hay_Error=Falso Repita desde patron=1 Hasta Numero_de_Patrones Leer Entradas, Leer Salida_Esperada, Neta=0 Repita desde patron =1 Hasta Numero _de_Entradas Neta=Neta+( Pesos( I )* Entradas( I ) ) [Suma Ponderada] Neta=Neta+Umbral Si Neta ≥0 entonces Salida=1 [Funcion Escalon] Sino Salida=0 Error=Salida_Esperada – Salida Si Error<>0 Entonces Pesos (i)= Pesos(i) + (Error*Entradas(i)) Hay_Error=Verdadero Umbral=Umbral + Error Numero_de_Iteraciones = Numero_de_Iteraciones +1
  • 11. El Modelo Adaline Red ADALINE Las redes ADALINE (Adaptative Linear Element), fueron desarrolladas por Bernie Widrow en la Universidad de Stanford. Dicha red usa neuronas con función de transferencia escalón, y está limitada a una única neurona de salida. Su arquitectura es análoga a la del Perceptron, difiere solo en el uso de otras funciones de transferencia. El computo que ejecuta el ADALINE es el siguiente m sr = F (∑ rj x j ) w j=1
  • 12. El Modelo Adaline Donde F es una función de transferencia continua y diferenciable(tipicamente una función Sigmoidea, sigmoidea bipolar o la función Lineal) Función de Costo y Aprendizaje Se emplea como función de costo, E(W), la suma de los cuadrados de los errores que comete el dispositivo, sobre todos los patrones de entrenamiento E (ϖ ) = 1 / 2∑ (ζ iu − siu ) 2 = 1 / 2∑ (ζ iu − F (∑ wik xku )) 2 iu iu k
  • 13. El Modelo Adaline La función tiende a cero cuando los pesos se hacen mejores. Esta regla de aprendizaje se conoce como la regla delta o de Widrow-Hoff o regla LMS (the Least Mean Squared) Arquitectura del ADALINE
  • 14. GRACIAS POR SU ATENCION