SlideShare una empresa de Scribd logo
1 de 17
Descargar para leer sin conexión
Algoritmo del perceptron DISCRETO



VARIABLES

I             (nº de iteraciones)
K             (contador de ejemplos)
W[i:1..n+1]   (pesos del perceptron)
X[i:1..n]     (valores de la entrada en el ejemplo actual)
Y             (valor de la salida en el ejemplo actual)
SP            (salida del perceptrón con la entrada del ejemplo actual)
Error         (error en el ejemplo actual)
T             (Variable para indicar si el vector es correcto)
PASO 1: Inicialización de variables

PASO 2: Bucle de iteraciones (hasta condición de parada)

     Paso 2.1: Bucle de paso por todos los ejemplos

          2.1.0 Leer valores del ejemplo

          2.1.1 Calcular error en ese ejemplo

          2.1.2 Actualizar los pesos según el error de ese ejemplo

               2.1.2.1 Actualizar los pesos de las entradas

               2.1.2.2 Actualizar el bias (= -umbral)

          2.1.3 Incrementar contador de ejemplos

     Paso 2.2.: Ver si el vector de pesos es correcto

     Paso 2.3.: Incrementar el contador de iteraciones
PASO 3: Salida
PASO 1: Inicialización de variables

I=0;
Para i=1..n+1
     W[i]=<nº aleatorio (normalmente entre –1 y 1)> (muy importante que el nº sea aleatorio,
                                                               distinto en cada ejecución)
T=false




PASO 2: Bucle de iteraciones

Mientras (I < NºMaxIteraciones) y (no T)
Paso 2.1: Bucle de paso por todos los ejemplos

Abrir(<fichero de ejemplos>)
K=0
Mientras no este en el final del fichero
     2.1.0 Leer valores del ejemplo
     Leer(x[i] (i=1..n), y)
     2.1.1 Calcular error en ese ejemplo
     SP = W[n+1] + ∑ x[i] * W[i] (salida del perceptrón con la entrada del ejemplo h)
     Si SP < 0, entonces SP= 0, en otro caso SP=1
     Error = y - SP          (diferencia entre el valor de y en el ejemplo h y SP)

     2.1.2 Actualizar los pesos según el error de ese ejemplo
           2.1.2.1 Actualizar los pesos de las entradas
           Para cada i=1..n
                 W[i] = W[i] + x[i]*Error
           2.1.2.2 Actualizar el bias (= -umbral)
           W[n+1]=W[n+1] + Error
     2.1.3 Incrementar contador de ejemplos
           k=k+1
Cerrar(<fichero de ejemplos>)
Paso 2.2.: Ver si el vector de pesos es correcto

T= True
Abrir(<fichero de ejemplos>)
Mientras ( no este en el final del fichero y T)
      Leer(x[i] (i=1..n), y)
     SP = W[n+1] + ∑ x[i] * W[i]
     Si SP < 0, entonces SP= 0, en otro caso SP=1
     Error = y – SP
     Si Error ≠ 0, T = False
Cerrar(<fichero de ejemplos>)


Paso 2.3.: Incrementar el contador de iteraciones

I=I+1
PASO 3: Salida

    Escribe( “El perceptrón aprendido es el de pesos:” )
    Para i=1..n
         Escribe(“ W”,i,”=”,W[i])
    Escribe(“Con bias =”, W[n+1])
ALGORITMO del BOLSILLO para PERCEPTRON DISCRETO


VARIABLES

I                   (nº de iteraciones)
K                   (contador de ejemplos)
W[i:1..n+1]         (pesos del perceptron)
X[i:1..n]           (valores de la entrada en el ejemplo actual)
Y                   (valor de la salida en el ejemplo actual)
SP                  (salida del perceptrón con la entrada del ejemplo actual)
Error               (error en el ejemplo actual)

P                   (Variable para indicar porcentajes de aciertos de los pesos actuales)
P0                  (Variable para porcentajes de aciertos de los pesos del mejor perceptron)
W0[i:1..n+1]        (pesos del mejor perceptron)
PASO 1’: Inicialización de variables

I=0;
Para i=1..n+1
     W[i]=<nº aleatorio (normalmente entre –1 y 1)> (muy importante que el nº sea aleatorio,
                                                               distinto en cada ejecución)
P = MinimoPorcentajeAdmitido + 1

P0=0



PASO 2’: Bucle de iteraciones

Mientras (I < NºMaxIteraciones) y (P > MinimoPorcentajeAdmitido )
Paso 2.2.’: Ver si el vector de pesos es correcto

P=0
Abrir(<fichero de ejemplos>)
Mientras ( no este en el final del fichero)
      Leer(x[i] (i=1..n), y)
     SP = W[n+1] + ∑ x[i] * W[i]
     Si SP < 0, entonces SP= 0, en otro caso SP=1
     Error = y – SP
     Si Error ≠ 0, P = P +1
Cerrar(<fichero de ejemplo>)
Si P > P0,
     Para cada i=1..n
                 W0[i] = W[i]
                 P0 = P



Paso 2.3.: Incrementar el contador de iteraciones

I=I+1
PASO 3’: Salida

    Escribe( “El perceptrón aprendido es el de pesos:” )
    Para i=1..n
         Escribe(“ W”,i,”=”,W0[i])
    Escribe(“Con bias =”, W0[n+1])
Algoritmo del perceptron CONTINUO



VARIABLES

I             (nº de iteraciones)
K             (contador de ejemplos)
W[i:1..n+1]   (pesos del perceptron)
X[i:1..n]     (valores de la entrada en el ejemplo actual)
Y             (valor de la salida en el ejemplo actual)
SP            (salida del perceptrón con la entrada del ejemplo actual)
Error         (error en el ejemplo actual)
ECM           (error cuadrático medio)
PASO 1: Inicialización de variables

PASO 2: Bucle de iteraciones (hasta condición de parada)

     Paso 2.1: Bucle de paso por todos los ejemplos

          2.1.0 Leer valores del ejemplo

          2.1.1 Calcular error en ese ejemplo

          2.1.2 Actualizar los pesos según el error de ese ejemplo

               2.1.2.1 Actualizar los pesos de las entradas

               2.1.2.2 Actualizar el bias (= -umbral)

          2.1.3 Incrementar contador de ejemplos

     Paso 2.2.: Calcular Error Cuadratico Medio

     Paso 2.3.: Incrementar el contador de iteraciones
PASO 3: Salida
PASO 1: Inicialización de variables

I=0;
Para i=1..n+1
     W[i]=<nº aleatorio (normalmente entre –1 y 1)> (muy importante que el nº sea aleatorio,
                                                               distinto en cada ejecución)
ECM=E+1




PASO 2: Bucle de iteraciones

Mientras (I < NºMaxIteraciones) y (ErrorCuadraticoMedio > E)
Paso 2.1: Bucle de paso por todos los ejemplos

Abrir(<fichero de ejemplos>)
K=0
Mientras no este en el final del fichero
     2.1.0 Leer valores del ejemplo
     Leer(x[i] (i=1..n), y)
     2.1.1 Calcular error en ese ejemplo
     SP = W[n+1] + ∑ x[i] * W[i] (salida del perceptrón con la entrada del ejemplo h)
     SP= 1/(1+e^(-SP))
     Error = y - SP          (diferencia entre el valor de y en el ejemplo h y SP)

     2.1.2 Actualizar los pesos según el error de ese ejemplo
           2.1.2.1 Actualizar los pesos de las entradas
           Para cada i=1..n
                 W[i] = W[i] + γ*SP*(1-SP)*x[i]*Error
           2.1.2.2 Actualizar el bias (= -umbral)
           W[n+1]=W[n+1] + γ*SP*(1-SP)*Error
     2.1.3 Incrementar contador de ejemplos
           k=k+1
Cerrar(<fichero de ejemplos>)
Paso 2.2.: Calcular Error Cuadratico Medio

ECM=0;
Abrir(<fichero de ejemplos>)
Mientras no este en el final del fichero
      Leer(x[i] (i=1..n), y)
     SP = W[n+1] + ∑ x[i] * W[i]
     SP= 1/(1+e^(-SP))
     Error = y – SP
     ECM=ECM+(Error)^2
ECM=ECM/k
Cerrar(<fichero de ejemplos>)


Paso 2.3.: Incrementar el contador de iteraciones

I=I+1
PASO 3: Salida

    Escribe( “El perceptrón aprendido es el de pesos:” )
    Para i=1..n
         Escribe(“ W”,i,”=”,W[i])
    Escribe(“Con bias =”, W[n+1])
ALGORITMO DEL BOLSILLO PARA PERCEPTRON CONTINUO

1.-Primera Ejecución


I=1

MejorPerceptrón = APRENDIZAJE(<fichero de ejemplos>)

MenorError=ECM(W,<fichero de ejemplos>)

2.- Bucle del resto de las ejecuciones

Para i=2 hasta NºEjecuciones

      W=APRENDIZAJE(<fichero de ejemplos>)

      Error= ECM(W,<fichero de ejemplos>)

      Si Error < MenorError

           MejorPerceptrón=W
           MenorError= Error

Más contenido relacionado

Destacado

Trabajo de rocio diapositivas
Trabajo de rocio diapositivasTrabajo de rocio diapositivas
Trabajo de rocio diapositivas19802003
 
Mairany del mar meñaca valencia 1002
Mairany del mar meñaca valencia 1002Mairany del mar meñaca valencia 1002
Mairany del mar meñaca valencia 1002Mairany Valencia
 
APRENDIZAJE COLABORATIVO
APRENDIZAJE COLABORATIVOAPRENDIZAJE COLABORATIVO
APRENDIZAJE COLABORATIVOcardenasbelen
 
SÍMBOLOS PATRIOS DEL PERU
SÍMBOLOS PATRIOS DEL PERUSÍMBOLOS PATRIOS DEL PERU
SÍMBOLOS PATRIOS DEL PERUJorgecmen
 
Presentación de ask
Presentación de askPresentación de ask
Presentación de askNatalia Peña
 
Caso de estudio: Cafeteria Metromix
Caso de estudio: Cafeteria MetromixCaso de estudio: Cafeteria Metromix
Caso de estudio: Cafeteria MetromixRichardoToro
 
Por Una Vida Mejor "La Lactancia Materna"
Por Una Vida Mejor "La Lactancia Materna" Por Una Vida Mejor "La Lactancia Materna"
Por Una Vida Mejor "La Lactancia Materna" Guiller19z
 
Chris gardner juan felipe gamarra
Chris gardner   juan felipe gamarraChris gardner   juan felipe gamarra
Chris gardner juan felipe gamarrapipe112
 
Ermita de Santa Barbara - La Fresneda
Ermita de Santa Barbara - La FresnedaErmita de Santa Barbara - La Fresneda
Ermita de Santa Barbara - La Fresnedaruben esteve latorre
 
Como hacer un_pantallazo_tutorial
Como hacer un_pantallazo_tutorialComo hacer un_pantallazo_tutorial
Como hacer un_pantallazo_tutorialJavier zamora
 
Presentation10
Presentation10Presentation10
Presentation10montseldr
 
El emprendimiento social como marco de análisis –
El emprendimiento social como marco de análisis –El emprendimiento social como marco de análisis –
El emprendimiento social como marco de análisis –Carmen Trujillo Valverde
 
Curso de historia de méxico
Curso de historia de méxicoCurso de historia de méxico
Curso de historia de méxicoDC7RM
 

Destacado (20)

Las tics cristian lópez
Las tics cristian lópezLas tics cristian lópez
Las tics cristian lópez
 
Smarthphone mas vendido en el 2012
Smarthphone mas vendido en el 2012Smarthphone mas vendido en el 2012
Smarthphone mas vendido en el 2012
 
Trabajo de rocio diapositivas
Trabajo de rocio diapositivasTrabajo de rocio diapositivas
Trabajo de rocio diapositivas
 
Mairany del mar meñaca valencia 1002
Mairany del mar meñaca valencia 1002Mairany del mar meñaca valencia 1002
Mairany del mar meñaca valencia 1002
 
APRENDIZAJE COLABORATIVO
APRENDIZAJE COLABORATIVOAPRENDIZAJE COLABORATIVO
APRENDIZAJE COLABORATIVO
 
SÍMBOLOS PATRIOS DEL PERU
SÍMBOLOS PATRIOS DEL PERUSÍMBOLOS PATRIOS DEL PERU
SÍMBOLOS PATRIOS DEL PERU
 
Presentación de ask
Presentación de askPresentación de ask
Presentación de ask
 
Samsung galaxy siii
Samsung galaxy siiiSamsung galaxy siii
Samsung galaxy siii
 
Nvec2 span s
Nvec2 span sNvec2 span s
Nvec2 span s
 
Koha cerca
Koha cercaKoha cerca
Koha cerca
 
Presentación1
Presentación1Presentación1
Presentación1
 
Caso de estudio: Cafeteria Metromix
Caso de estudio: Cafeteria MetromixCaso de estudio: Cafeteria Metromix
Caso de estudio: Cafeteria Metromix
 
Por Una Vida Mejor "La Lactancia Materna"
Por Una Vida Mejor "La Lactancia Materna" Por Una Vida Mejor "La Lactancia Materna"
Por Una Vida Mejor "La Lactancia Materna"
 
Chris gardner juan felipe gamarra
Chris gardner   juan felipe gamarraChris gardner   juan felipe gamarra
Chris gardner juan felipe gamarra
 
Ermita de Santa Barbara - La Fresneda
Ermita de Santa Barbara - La FresnedaErmita de Santa Barbara - La Fresneda
Ermita de Santa Barbara - La Fresneda
 
Como hacer un_pantallazo_tutorial
Como hacer un_pantallazo_tutorialComo hacer un_pantallazo_tutorial
Como hacer un_pantallazo_tutorial
 
Presentation10
Presentation10Presentation10
Presentation10
 
El emprendimiento social como marco de análisis –
El emprendimiento social como marco de análisis –El emprendimiento social como marco de análisis –
El emprendimiento social como marco de análisis –
 
Bloque V: Fondable y Cartel.- Convivencia sin violencia
Bloque V:  Fondable y Cartel.- Convivencia sin violenciaBloque V:  Fondable y Cartel.- Convivencia sin violencia
Bloque V: Fondable y Cartel.- Convivencia sin violencia
 
Curso de historia de méxico
Curso de historia de méxicoCurso de historia de méxico
Curso de historia de méxico
 

Similar a Aprendizaje perceptron

Cálculo de pesos
Cálculo de pesosCálculo de pesos
Cálculo de pesosLevy GT
 
Metodos numéricos (euler, euler modificado, rk)
Metodos numéricos (euler, euler modificado, rk)Metodos numéricos (euler, euler modificado, rk)
Metodos numéricos (euler, euler modificado, rk)Beat Winehouse
 
Trabajo computacion runge kutta
Trabajo computacion runge kuttaTrabajo computacion runge kutta
Trabajo computacion runge kuttavictoriaalcazar
 
Conversion de numeros binarios a decimales
Conversion de numeros binarios a decimalesConversion de numeros binarios a decimales
Conversion de numeros binarios a decimalesAlejandro Hernández
 
C++ parcial 1 oscar mendoza-303
C++ parcial 1  oscar mendoza-303C++ parcial 1  oscar mendoza-303
C++ parcial 1 oscar mendoza-303Oscar711
 

Similar a Aprendizaje perceptron (10)

Cálculo de pesos
Cálculo de pesosCálculo de pesos
Cálculo de pesos
 
Interpolaion c++
Interpolaion c++Interpolaion c++
Interpolaion c++
 
Electrónica Digital
Electrónica DigitalElectrónica Digital
Electrónica Digital
 
Metodos numericos euler_euler_modificado
Metodos numericos euler_euler_modificadoMetodos numericos euler_euler_modificado
Metodos numericos euler_euler_modificado
 
Metodos numéricos (euler, euler modificado, rk)
Metodos numéricos (euler, euler modificado, rk)Metodos numéricos (euler, euler modificado, rk)
Metodos numéricos (euler, euler modificado, rk)
 
Trabajo computacion runge kutta
Trabajo computacion runge kuttaTrabajo computacion runge kutta
Trabajo computacion runge kutta
 
Conversion de numeros binarios a decimales
Conversion de numeros binarios a decimalesConversion de numeros binarios a decimales
Conversion de numeros binarios a decimales
 
Clase1
Clase1Clase1
Clase1
 
Presentacion sistema binario
Presentacion sistema binarioPresentacion sistema binario
Presentacion sistema binario
 
C++ parcial 1 oscar mendoza-303
C++ parcial 1  oscar mendoza-303C++ parcial 1  oscar mendoza-303
C++ parcial 1 oscar mendoza-303
 

Aprendizaje perceptron

  • 1. Algoritmo del perceptron DISCRETO VARIABLES I (nº de iteraciones) K (contador de ejemplos) W[i:1..n+1] (pesos del perceptron) X[i:1..n] (valores de la entrada en el ejemplo actual) Y (valor de la salida en el ejemplo actual) SP (salida del perceptrón con la entrada del ejemplo actual) Error (error en el ejemplo actual) T (Variable para indicar si el vector es correcto)
  • 2. PASO 1: Inicialización de variables PASO 2: Bucle de iteraciones (hasta condición de parada) Paso 2.1: Bucle de paso por todos los ejemplos 2.1.0 Leer valores del ejemplo 2.1.1 Calcular error en ese ejemplo 2.1.2 Actualizar los pesos según el error de ese ejemplo 2.1.2.1 Actualizar los pesos de las entradas 2.1.2.2 Actualizar el bias (= -umbral) 2.1.3 Incrementar contador de ejemplos Paso 2.2.: Ver si el vector de pesos es correcto Paso 2.3.: Incrementar el contador de iteraciones PASO 3: Salida
  • 3. PASO 1: Inicialización de variables I=0; Para i=1..n+1 W[i]=<nº aleatorio (normalmente entre –1 y 1)> (muy importante que el nº sea aleatorio, distinto en cada ejecución) T=false PASO 2: Bucle de iteraciones Mientras (I < NºMaxIteraciones) y (no T)
  • 4. Paso 2.1: Bucle de paso por todos los ejemplos Abrir(<fichero de ejemplos>) K=0 Mientras no este en el final del fichero 2.1.0 Leer valores del ejemplo Leer(x[i] (i=1..n), y) 2.1.1 Calcular error en ese ejemplo SP = W[n+1] + ∑ x[i] * W[i] (salida del perceptrón con la entrada del ejemplo h) Si SP < 0, entonces SP= 0, en otro caso SP=1 Error = y - SP (diferencia entre el valor de y en el ejemplo h y SP) 2.1.2 Actualizar los pesos según el error de ese ejemplo 2.1.2.1 Actualizar los pesos de las entradas Para cada i=1..n W[i] = W[i] + x[i]*Error 2.1.2.2 Actualizar el bias (= -umbral) W[n+1]=W[n+1] + Error 2.1.3 Incrementar contador de ejemplos k=k+1 Cerrar(<fichero de ejemplos>)
  • 5. Paso 2.2.: Ver si el vector de pesos es correcto T= True Abrir(<fichero de ejemplos>) Mientras ( no este en el final del fichero y T) Leer(x[i] (i=1..n), y) SP = W[n+1] + ∑ x[i] * W[i] Si SP < 0, entonces SP= 0, en otro caso SP=1 Error = y – SP Si Error ≠ 0, T = False Cerrar(<fichero de ejemplos>) Paso 2.3.: Incrementar el contador de iteraciones I=I+1
  • 6. PASO 3: Salida Escribe( “El perceptrón aprendido es el de pesos:” ) Para i=1..n Escribe(“ W”,i,”=”,W[i]) Escribe(“Con bias =”, W[n+1])
  • 7. ALGORITMO del BOLSILLO para PERCEPTRON DISCRETO VARIABLES I (nº de iteraciones) K (contador de ejemplos) W[i:1..n+1] (pesos del perceptron) X[i:1..n] (valores de la entrada en el ejemplo actual) Y (valor de la salida en el ejemplo actual) SP (salida del perceptrón con la entrada del ejemplo actual) Error (error en el ejemplo actual) P (Variable para indicar porcentajes de aciertos de los pesos actuales) P0 (Variable para porcentajes de aciertos de los pesos del mejor perceptron) W0[i:1..n+1] (pesos del mejor perceptron)
  • 8. PASO 1’: Inicialización de variables I=0; Para i=1..n+1 W[i]=<nº aleatorio (normalmente entre –1 y 1)> (muy importante que el nº sea aleatorio, distinto en cada ejecución) P = MinimoPorcentajeAdmitido + 1 P0=0 PASO 2’: Bucle de iteraciones Mientras (I < NºMaxIteraciones) y (P > MinimoPorcentajeAdmitido )
  • 9. Paso 2.2.’: Ver si el vector de pesos es correcto P=0 Abrir(<fichero de ejemplos>) Mientras ( no este en el final del fichero) Leer(x[i] (i=1..n), y) SP = W[n+1] + ∑ x[i] * W[i] Si SP < 0, entonces SP= 0, en otro caso SP=1 Error = y – SP Si Error ≠ 0, P = P +1 Cerrar(<fichero de ejemplo>) Si P > P0, Para cada i=1..n W0[i] = W[i] P0 = P Paso 2.3.: Incrementar el contador de iteraciones I=I+1
  • 10. PASO 3’: Salida Escribe( “El perceptrón aprendido es el de pesos:” ) Para i=1..n Escribe(“ W”,i,”=”,W0[i]) Escribe(“Con bias =”, W0[n+1])
  • 11. Algoritmo del perceptron CONTINUO VARIABLES I (nº de iteraciones) K (contador de ejemplos) W[i:1..n+1] (pesos del perceptron) X[i:1..n] (valores de la entrada en el ejemplo actual) Y (valor de la salida en el ejemplo actual) SP (salida del perceptrón con la entrada del ejemplo actual) Error (error en el ejemplo actual) ECM (error cuadrático medio)
  • 12. PASO 1: Inicialización de variables PASO 2: Bucle de iteraciones (hasta condición de parada) Paso 2.1: Bucle de paso por todos los ejemplos 2.1.0 Leer valores del ejemplo 2.1.1 Calcular error en ese ejemplo 2.1.2 Actualizar los pesos según el error de ese ejemplo 2.1.2.1 Actualizar los pesos de las entradas 2.1.2.2 Actualizar el bias (= -umbral) 2.1.3 Incrementar contador de ejemplos Paso 2.2.: Calcular Error Cuadratico Medio Paso 2.3.: Incrementar el contador de iteraciones
  • 13. PASO 3: Salida PASO 1: Inicialización de variables I=0; Para i=1..n+1 W[i]=<nº aleatorio (normalmente entre –1 y 1)> (muy importante que el nº sea aleatorio, distinto en cada ejecución) ECM=E+1 PASO 2: Bucle de iteraciones Mientras (I < NºMaxIteraciones) y (ErrorCuadraticoMedio > E)
  • 14. Paso 2.1: Bucle de paso por todos los ejemplos Abrir(<fichero de ejemplos>) K=0 Mientras no este en el final del fichero 2.1.0 Leer valores del ejemplo Leer(x[i] (i=1..n), y) 2.1.1 Calcular error en ese ejemplo SP = W[n+1] + ∑ x[i] * W[i] (salida del perceptrón con la entrada del ejemplo h) SP= 1/(1+e^(-SP)) Error = y - SP (diferencia entre el valor de y en el ejemplo h y SP) 2.1.2 Actualizar los pesos según el error de ese ejemplo 2.1.2.1 Actualizar los pesos de las entradas Para cada i=1..n W[i] = W[i] + γ*SP*(1-SP)*x[i]*Error 2.1.2.2 Actualizar el bias (= -umbral) W[n+1]=W[n+1] + γ*SP*(1-SP)*Error 2.1.3 Incrementar contador de ejemplos k=k+1 Cerrar(<fichero de ejemplos>)
  • 15. Paso 2.2.: Calcular Error Cuadratico Medio ECM=0; Abrir(<fichero de ejemplos>) Mientras no este en el final del fichero Leer(x[i] (i=1..n), y) SP = W[n+1] + ∑ x[i] * W[i] SP= 1/(1+e^(-SP)) Error = y – SP ECM=ECM+(Error)^2 ECM=ECM/k Cerrar(<fichero de ejemplos>) Paso 2.3.: Incrementar el contador de iteraciones I=I+1
  • 16. PASO 3: Salida Escribe( “El perceptrón aprendido es el de pesos:” ) Para i=1..n Escribe(“ W”,i,”=”,W[i]) Escribe(“Con bias =”, W[n+1])
  • 17. ALGORITMO DEL BOLSILLO PARA PERCEPTRON CONTINUO 1.-Primera Ejecución I=1 MejorPerceptrón = APRENDIZAJE(<fichero de ejemplos>) MenorError=ECM(W,<fichero de ejemplos>) 2.- Bucle del resto de las ejecuciones Para i=2 hasta NºEjecuciones W=APRENDIZAJE(<fichero de ejemplos>) Error= ECM(W,<fichero de ejemplos>) Si Error < MenorError MejorPerceptrón=W MenorError= Error