SlideShare una empresa de Scribd logo
1 de 4
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Sesgo en Backpropagation 
Una forma de ver las redes neuronales es como metafunciones que aceptan un 
número fijo de entradas numéricas y producen un número fijo de salidas numéricas. 
En la mayoría de los casos, las redes neuronales tienen una capa de neuronas 
ocultas, donde cada una de estas está conectada completamente con las neuronas 
de entrada y de salida. Asociado con cada neurona oculta y cada neurona de 
salida individual se encuentra un conjunto de valores de ponderación y un 
valor único llamado sesgo. Las ponderaciones y sesgos determinan los valores 
de salida para un conjunto dado de valores de entrada. 
La técnica más común para calcular las ponderaciones y sesgos óptimos se llama 
propagación inversa. Aunque existen muchas referencias excelentes que describen 
las matemáticas complejas que subyacen a la propagación inversa, hay pocas guías 
disponibles para los programadores, que describan claramente cómo programar el 
algoritmo de propagación inversa. Este artículo explica cómo implementar la 
propagación inversa. El lenguaje de programación en los ejemplos es C#, pero no 
debería ser difícil refactorizarlos a otros lenguajes. 
La mejor forma de ver mi objetivo es mirar la captura de pantalla de un programa de 
demostración en la Ilustración 1. Este programa crea una red neuronal que tiene 
tres neuronas de entrada, con una capa oculta de cuatro neuronas y dos neuronas 
de salida. Las redes neuronales con una sola capa oculta requieren de dos 
funciones de activación. En muchas situaciones, sin embargo, estas dos funciones 
son iguales, habitualmente la función sigmoidea. Pero en esta demostración, para 
ilustrar la relación entre las funciones de activación y la propagación inversa, empleo 
funciones de activación diferentes: la función sigmoidea para los cálculos de la capa 
de entrada a la oculta, y la tangente hiperbólica para los cálculos de la capa oculta 
a la de salida. 
1
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Ilustracion 1 Algoritmo de propagación inversa en acción 
2
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Una red neuronal 3-4-2 completamente conectada requiere de 3*4 + 4*2 = 20 
valores de ponderación y 4+2 = 6 valores de sesgo, lo que suma un total de 26 
ponderaciones y sesgos. Estas ponderaciones y sesgos se inicializan en valores 
más o menos arbitrarios. Los valores de entrada genéricos se establecen en 1,0, 
2,0 y 3,0. Con los valores iniciales de ponderación, sesgo y entrada, los valores de 
salida iniciales que calcula la red neuronal son {0,7225; -0,8779}. El programa de 
demostración supone que los dos valores de salida correctos son {-0,8500; 0,7500}. 
La finalidad del algoritmo de propagación inversa es encontrar un nuevo conjunto 
de ponderaciones y sesgos que generen resultados muy próximos a los valores 
correctos para las entradas {1,0; 2,0; 3,0}. 
La propagación inversa requiere de dos parámetros libres. La velocidad de 
aprendizaje, generalmente designada con la letra griega eta en la literatura sobre 
propagación inversa, controla la velocidad con la que el algoritmo converge en el 
cálculo final. El momento, designado generalmente con la letra griega alfa, permite 
que el algoritmo de propagación inversa evite las situaciones donde el algoritmo 
oscila sin converger en un cálculo final. El programa de demostración establece la 
velocidad de aprendizaje en 0,90 y el momento en 0,04. Normalmente estos valores 
se encuentran por ensayo y error. 
El proceso de encontrar el mejor conjunto de ponderaciones y sesgos para una red 
neuronal a veces se denomina entrenamiento de la red. En el caso de la 
propagación inversa, el entrenamiento es un proceso iterativo. En cada iteración, la 
propagación inversa calcula un nuevo conjunto de valores de ponderación y sesgo 
que, en teoría, generan valores de salida que estarán más cercanos a los valores 
esperados. Después de la primera iteración de entrenamiento del programa de 
demostración, el algoritmo de propagación inversa encontró los nuevos valores de 
ponderación y sesgo, que generaron los resultados nuevos {-0,8932; -0,8006}. El 
primer valor de salida de -0,8932 está mucho más cercano al primer valor esperado 
de -0,8500. El segundo valor nuevo de salida de -0,8006 sigue estando muy alejado 
del valor esperado de 0,7500. 
El proceso de entrenamiento se puede terminar de diferentes formas. El programa 
de demostración itera el entrenamiento hasta que la suma de las diferencias 
absolutas entre los valores de salida y los esperados sea menor que <= 0,01 o el 
entrenamiento llegue a 1.000 iteraciones. En la demostración, después de seis 
iteraciones de entrenamiento, la propagación inversa encontró un conjunto de 
valores de ponderación y sesgo que generaron salidas de {-0,8423; 0,7481}; muy 
próximas a los valores esperados de {-0,8500; 0,7500}. 
3
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
4 
Bibliografía 
“Profundización en las redes neuronales”, en 
msdn.microsoft.com/magazine/hh975375.) El código del programa que aparece en 
la Ilustración 1 es demasiado extenso para presentarlo en este artículo, de modo 
que me concentraré en explicar las partes claves del algoritmo. El código fuente 
completo para el programa de demostración está disponible en 
archive.msdn.microsoft.com/mag201210TestRun.

Más contenido relacionado

Destacado

Derechos de los estudiantes universitario.
Derechos de los estudiantes universitario.Derechos de los estudiantes universitario.
Derechos de los estudiantes universitario.ariana_gq96
 
Presentación1 (1)
Presentación1 (1)Presentación1 (1)
Presentación1 (1)auddi
 
El arte a nuestro alrededor
El arte a nuestro alrededorEl arte a nuestro alrededor
El arte a nuestro alrededorriicardo_n
 
Tiempos perfectos
Tiempos perfectosTiempos perfectos
Tiempos perfectosmisderecho
 
Boletin 10 adquisiciones 2015 1 contaduria
Boletin 10 adquisiciones 2015 1 contaduriaBoletin 10 adquisiciones 2015 1 contaduria
Boletin 10 adquisiciones 2015 1 contaduriaDocente Contaduría
 
Fotos de mi familia y mías
Fotos de mi familia y mías   Fotos de mi familia y mías
Fotos de mi familia y mías Lissette Ochoa
 
Proyecto TIC para fortalecer el Trabajo Colectivo
Proyecto TIC para fortalecer el Trabajo ColectivoProyecto TIC para fortalecer el Trabajo Colectivo
Proyecto TIC para fortalecer el Trabajo ColectivoMontserratAguila
 
Piensaenunnumero
PiensaenunnumeroPiensaenunnumero
Piensaenunnumeroconillet
 
Proyecto iava Fortalecimiento de los valores en la educación
Proyecto iava Fortalecimiento de los valores en la educaciónProyecto iava Fortalecimiento de los valores en la educación
Proyecto iava Fortalecimiento de los valores en la educaciónMarygelPerez
 
MAPA CONCEPTUAL ANDRÉS SÁNCHEZ
MAPA CONCEPTUAL ANDRÉS SÁNCHEZMAPA CONCEPTUAL ANDRÉS SÁNCHEZ
MAPA CONCEPTUAL ANDRÉS SÁNCHEZandrescorage
 

Destacado (20)

Derechos de los estudiantes universitario.
Derechos de los estudiantes universitario.Derechos de los estudiantes universitario.
Derechos de los estudiantes universitario.
 
Presentación1 (1)
Presentación1 (1)Presentación1 (1)
Presentación1 (1)
 
El arte a nuestro alrededor
El arte a nuestro alrededorEl arte a nuestro alrededor
El arte a nuestro alrededor
 
presentación personal
presentación personal presentación personal
presentación personal
 
Tiempos perfectos
Tiempos perfectosTiempos perfectos
Tiempos perfectos
 
Normas apa
Normas apaNormas apa
Normas apa
 
Terapia do elogio
Terapia do elogioTerapia do elogio
Terapia do elogio
 
los valores en la educación primaria
los valores en la educación primarialos valores en la educación primaria
los valores en la educación primaria
 
Boletin 10 adquisiciones 2015 1 contaduria
Boletin 10 adquisiciones 2015 1 contaduriaBoletin 10 adquisiciones 2015 1 contaduria
Boletin 10 adquisiciones 2015 1 contaduria
 
Fotos de mi familia y mías
Fotos de mi familia y mías   Fotos de mi familia y mías
Fotos de mi familia y mías
 
Proyecto TIC para fortalecer el Trabajo Colectivo
Proyecto TIC para fortalecer el Trabajo ColectivoProyecto TIC para fortalecer el Trabajo Colectivo
Proyecto TIC para fortalecer el Trabajo Colectivo
 
Otimismo sempre
Otimismo sempreOtimismo sempre
Otimismo sempre
 
Presentation
PresentationPresentation
Presentation
 
O barbeiro
O barbeiro O barbeiro
O barbeiro
 
O lugar certo
O lugar certoO lugar certo
O lugar certo
 
Piensaenunnumero
PiensaenunnumeroPiensaenunnumero
Piensaenunnumero
 
Proyecto iava Fortalecimiento de los valores en la educación
Proyecto iava Fortalecimiento de los valores en la educaciónProyecto iava Fortalecimiento de los valores en la educación
Proyecto iava Fortalecimiento de los valores en la educación
 
Diplomado en linea iava
Diplomado en linea iavaDiplomado en linea iava
Diplomado en linea iava
 
MAPA CONCEPTUAL ANDRÉS SÁNCHEZ
MAPA CONCEPTUAL ANDRÉS SÁNCHEZMAPA CONCEPTUAL ANDRÉS SÁNCHEZ
MAPA CONCEPTUAL ANDRÉS SÁNCHEZ
 
los valores para la vida
los valores para la vida los valores para la vida
los valores para la vida
 

Similar a Sesgo BacoProgpagation

Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3JUANCHO_ANAYA
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzadaDiego Guamán
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaBrian Piragauta
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Redes Neuronales - Robótica
Redes Neuronales - RobóticaRedes Neuronales - Robótica
Redes Neuronales - RobóticaJoaquinMontoro
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Raul
 
Metodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosMetodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosESCOM
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlinsJuan Pinzón
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Presentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaPresentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaUniversidad CEU Cardenal Herrera
 

Similar a Sesgo BacoProgpagation (20)

Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Redes Neuronales - Robótica
Redes Neuronales - RobóticaRedes Neuronales - Robótica
Redes Neuronales - Robótica
 
Aprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simpleAprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simple
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
 
Metodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosMetodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas Difusos
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
Clase 05 (2)
Clase 05 (2)Clase 05 (2)
Clase 05 (2)
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlins
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Rna10
Rna10Rna10
Rna10
 
Presentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaPresentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática Valencia
 

Más de Levy GT

Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Teoremas perceptron multicapa
Teoremas perceptron multicapaTeoremas perceptron multicapa
Teoremas perceptron multicapaLevy GT
 
Como se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaComo se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaLevy GT
 
El sesgo en la Backpropagation
El sesgo en la BackpropagationEl sesgo en la Backpropagation
El sesgo en la BackpropagationLevy GT
 
Derivada de un punto
Derivada de un puntoDerivada de un punto
Derivada de un puntoLevy GT
 
Derivada perceptron repecto u w
Derivada perceptron repecto u wDerivada perceptron repecto u w
Derivada perceptron repecto u wLevy GT
 
Derivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETDerivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETLevy GT
 
Comprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalComprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalLevy GT
 
Investigacion e momento
Investigacion e momentoInvestigacion e momento
Investigacion e momentoLevy GT
 
Fibonacci Serie
Fibonacci SerieFibonacci Serie
Fibonacci SerieLevy GT
 
Factorial de un número
Factorial de un númeroFactorial de un número
Factorial de un númeroLevy GT
 
Función sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteFunción sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteLevy GT
 
Backprogation actualizacion pesos
Backprogation actualizacion pesosBackprogation actualizacion pesos
Backprogation actualizacion pesosLevy GT
 
Desmostracion BACKPROPAGATION
Desmostracion  BACKPROPAGATIONDesmostracion  BACKPROPAGATION
Desmostracion BACKPROPAGATIONLevy GT
 
Desmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotDesmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotLevy GT
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronalesLevy GT
 
Matriz traspuesta
Matriz traspuestaMatriz traspuesta
Matriz traspuestaLevy GT
 
Cálculo de pesos
Cálculo de pesosCálculo de pesos
Cálculo de pesosLevy GT
 
Progrma de operación and con numeros binarios
Progrma de operación and con numeros binariosProgrma de operación and con numeros binarios
Progrma de operación and con numeros binariosLevy GT
 

Más de Levy GT (20)

Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Teoremas perceptron multicapa
Teoremas perceptron multicapaTeoremas perceptron multicapa
Teoremas perceptron multicapa
 
Como se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaComo se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron Multicapa
 
El sesgo en la Backpropagation
El sesgo en la BackpropagationEl sesgo en la Backpropagation
El sesgo en la Backpropagation
 
Derivada de un punto
Derivada de un puntoDerivada de un punto
Derivada de un punto
 
Derivada perceptron repecto u w
Derivada perceptron repecto u wDerivada perceptron repecto u w
Derivada perceptron repecto u w
 
Derivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETDerivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NET
 
Comprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalComprobacion de pesos Red Neuronal
Comprobacion de pesos Red Neuronal
 
Investigacion e momento
Investigacion e momentoInvestigacion e momento
Investigacion e momento
 
Fibonacci Serie
Fibonacci SerieFibonacci Serie
Fibonacci Serie
 
Factorial de un número
Factorial de un númeroFactorial de un número
Factorial de un número
 
Función sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteFunción sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsante
 
Backprogation actualizacion pesos
Backprogation actualizacion pesosBackprogation actualizacion pesos
Backprogation actualizacion pesos
 
Desmostracion BACKPROPAGATION
Desmostracion  BACKPROPAGATIONDesmostracion  BACKPROPAGATION
Desmostracion BACKPROPAGATION
 
Desmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotDesmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplot
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
Matriz traspuesta
Matriz traspuestaMatriz traspuesta
Matriz traspuesta
 
Recta
RectaRecta
Recta
 
Cálculo de pesos
Cálculo de pesosCálculo de pesos
Cálculo de pesos
 
Progrma de operación and con numeros binarios
Progrma de operación and con numeros binariosProgrma de operación and con numeros binarios
Progrma de operación and con numeros binarios
 

Último

El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVEl proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVSebastianPaez47
 
Curso intensivo de soldadura electrónica en pdf
Curso intensivo de soldadura electrónica  en pdfCurso intensivo de soldadura electrónica  en pdf
Curso intensivo de soldadura electrónica en pdfFernandaGarca788912
 
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICA
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICAINTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICA
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICAJOSLUISCALLATAENRIQU
 
nom-028-stps-2012-nom-028-stps-2012-.pdf
nom-028-stps-2012-nom-028-stps-2012-.pdfnom-028-stps-2012-nom-028-stps-2012-.pdf
nom-028-stps-2012-nom-028-stps-2012-.pdfDiegoMadrigal21
 
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASTEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASfranzEmersonMAMANIOC
 
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptaCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptCRISTOFERSERGIOCANAL
 
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptMarianoSanchez70
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfmatepura
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxEduardoSnchezHernnde5
 
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023RonaldoPaucarMontes
 
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfTAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfAntonioGonzalezIzqui
 
presentacion medidas de seguridad riesgo eléctrico
presentacion medidas de seguridad riesgo eléctricopresentacion medidas de seguridad riesgo eléctrico
presentacion medidas de seguridad riesgo eléctricoalexcala5
 
Procesos-de-la-Industria-Alimentaria-Envasado-en-la-Produccion-de-Alimentos.pptx
Procesos-de-la-Industria-Alimentaria-Envasado-en-la-Produccion-de-Alimentos.pptxProcesos-de-la-Industria-Alimentaria-Envasado-en-la-Produccion-de-Alimentos.pptx
Procesos-de-la-Industria-Alimentaria-Envasado-en-la-Produccion-de-Alimentos.pptxJuanPablo452634
 
desarrollodeproyectoss inge. industrial
desarrollodeproyectoss  inge. industrialdesarrollodeproyectoss  inge. industrial
desarrollodeproyectoss inge. industrialGibranDiaz7
 
hitos del desarrollo psicomotor en niños.docx
hitos del desarrollo psicomotor en niños.docxhitos del desarrollo psicomotor en niños.docx
hitos del desarrollo psicomotor en niños.docxMarcelaArancibiaRojo
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxClaudiaPerez86192
 
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptxPPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptxSergioGJimenezMorean
 
DOCUMENTO PLAN DE RESPUESTA A EMERGENCIAS MINERAS
DOCUMENTO PLAN DE RESPUESTA A EMERGENCIAS MINERASDOCUMENTO PLAN DE RESPUESTA A EMERGENCIAS MINERAS
DOCUMENTO PLAN DE RESPUESTA A EMERGENCIAS MINERASPersonalJesusGranPod
 
Calavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfCalavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfyoseka196
 
ECONOMIA APLICADA SEMANA 555555555555555555.pdf
ECONOMIA APLICADA SEMANA 555555555555555555.pdfECONOMIA APLICADA SEMANA 555555555555555555.pdf
ECONOMIA APLICADA SEMANA 555555555555555555.pdffredyflores58
 

Último (20)

El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVEl proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
 
Curso intensivo de soldadura electrónica en pdf
Curso intensivo de soldadura electrónica  en pdfCurso intensivo de soldadura electrónica  en pdf
Curso intensivo de soldadura electrónica en pdf
 
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICA
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICAINTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICA
INTEGRALES TRIPLES CLASE TEORICA Y PRÁCTICA
 
nom-028-stps-2012-nom-028-stps-2012-.pdf
nom-028-stps-2012-nom-028-stps-2012-.pdfnom-028-stps-2012-nom-028-stps-2012-.pdf
nom-028-stps-2012-nom-028-stps-2012-.pdf
 
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIASTEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
TEXTURA Y DETERMINACION DE ROCAS SEDIMENTARIAS
 
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.pptaCARGA y FUERZA UNI 19 marzo 2024-22.ppt
aCARGA y FUERZA UNI 19 marzo 2024-22.ppt
 
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
 
ECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdfECONOMIA APLICADA SEMANA 555555555544.pdf
ECONOMIA APLICADA SEMANA 555555555544.pdf
 
Flujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptxFlujo multifásico en tuberias de ex.pptx
Flujo multifásico en tuberias de ex.pptx
 
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
 
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfTAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
 
presentacion medidas de seguridad riesgo eléctrico
presentacion medidas de seguridad riesgo eléctricopresentacion medidas de seguridad riesgo eléctrico
presentacion medidas de seguridad riesgo eléctrico
 
Procesos-de-la-Industria-Alimentaria-Envasado-en-la-Produccion-de-Alimentos.pptx
Procesos-de-la-Industria-Alimentaria-Envasado-en-la-Produccion-de-Alimentos.pptxProcesos-de-la-Industria-Alimentaria-Envasado-en-la-Produccion-de-Alimentos.pptx
Procesos-de-la-Industria-Alimentaria-Envasado-en-la-Produccion-de-Alimentos.pptx
 
desarrollodeproyectoss inge. industrial
desarrollodeproyectoss  inge. industrialdesarrollodeproyectoss  inge. industrial
desarrollodeproyectoss inge. industrial
 
hitos del desarrollo psicomotor en niños.docx
hitos del desarrollo psicomotor en niños.docxhitos del desarrollo psicomotor en niños.docx
hitos del desarrollo psicomotor en niños.docx
 
Comite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptxComite Operativo Ciberseguridad 012020.pptx
Comite Operativo Ciberseguridad 012020.pptx
 
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptxPPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
PPT SERVIDOR ESCUELA PERU EDUCA LINUX v7.pptx
 
DOCUMENTO PLAN DE RESPUESTA A EMERGENCIAS MINERAS
DOCUMENTO PLAN DE RESPUESTA A EMERGENCIAS MINERASDOCUMENTO PLAN DE RESPUESTA A EMERGENCIAS MINERAS
DOCUMENTO PLAN DE RESPUESTA A EMERGENCIAS MINERAS
 
Calavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfCalavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdf
 
ECONOMIA APLICADA SEMANA 555555555555555555.pdf
ECONOMIA APLICADA SEMANA 555555555555555555.pdfECONOMIA APLICADA SEMANA 555555555555555555.pdf
ECONOMIA APLICADA SEMANA 555555555555555555.pdf
 

Sesgo BacoProgpagation

  • 1. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Sesgo en Backpropagation Una forma de ver las redes neuronales es como metafunciones que aceptan un número fijo de entradas numéricas y producen un número fijo de salidas numéricas. En la mayoría de los casos, las redes neuronales tienen una capa de neuronas ocultas, donde cada una de estas está conectada completamente con las neuronas de entrada y de salida. Asociado con cada neurona oculta y cada neurona de salida individual se encuentra un conjunto de valores de ponderación y un valor único llamado sesgo. Las ponderaciones y sesgos determinan los valores de salida para un conjunto dado de valores de entrada. La técnica más común para calcular las ponderaciones y sesgos óptimos se llama propagación inversa. Aunque existen muchas referencias excelentes que describen las matemáticas complejas que subyacen a la propagación inversa, hay pocas guías disponibles para los programadores, que describan claramente cómo programar el algoritmo de propagación inversa. Este artículo explica cómo implementar la propagación inversa. El lenguaje de programación en los ejemplos es C#, pero no debería ser difícil refactorizarlos a otros lenguajes. La mejor forma de ver mi objetivo es mirar la captura de pantalla de un programa de demostración en la Ilustración 1. Este programa crea una red neuronal que tiene tres neuronas de entrada, con una capa oculta de cuatro neuronas y dos neuronas de salida. Las redes neuronales con una sola capa oculta requieren de dos funciones de activación. En muchas situaciones, sin embargo, estas dos funciones son iguales, habitualmente la función sigmoidea. Pero en esta demostración, para ilustrar la relación entre las funciones de activación y la propagación inversa, empleo funciones de activación diferentes: la función sigmoidea para los cálculos de la capa de entrada a la oculta, y la tangente hiperbólica para los cálculos de la capa oculta a la de salida. 1
  • 2. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Ilustracion 1 Algoritmo de propagación inversa en acción 2
  • 3. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Una red neuronal 3-4-2 completamente conectada requiere de 3*4 + 4*2 = 20 valores de ponderación y 4+2 = 6 valores de sesgo, lo que suma un total de 26 ponderaciones y sesgos. Estas ponderaciones y sesgos se inicializan en valores más o menos arbitrarios. Los valores de entrada genéricos se establecen en 1,0, 2,0 y 3,0. Con los valores iniciales de ponderación, sesgo y entrada, los valores de salida iniciales que calcula la red neuronal son {0,7225; -0,8779}. El programa de demostración supone que los dos valores de salida correctos son {-0,8500; 0,7500}. La finalidad del algoritmo de propagación inversa es encontrar un nuevo conjunto de ponderaciones y sesgos que generen resultados muy próximos a los valores correctos para las entradas {1,0; 2,0; 3,0}. La propagación inversa requiere de dos parámetros libres. La velocidad de aprendizaje, generalmente designada con la letra griega eta en la literatura sobre propagación inversa, controla la velocidad con la que el algoritmo converge en el cálculo final. El momento, designado generalmente con la letra griega alfa, permite que el algoritmo de propagación inversa evite las situaciones donde el algoritmo oscila sin converger en un cálculo final. El programa de demostración establece la velocidad de aprendizaje en 0,90 y el momento en 0,04. Normalmente estos valores se encuentran por ensayo y error. El proceso de encontrar el mejor conjunto de ponderaciones y sesgos para una red neuronal a veces se denomina entrenamiento de la red. En el caso de la propagación inversa, el entrenamiento es un proceso iterativo. En cada iteración, la propagación inversa calcula un nuevo conjunto de valores de ponderación y sesgo que, en teoría, generan valores de salida que estarán más cercanos a los valores esperados. Después de la primera iteración de entrenamiento del programa de demostración, el algoritmo de propagación inversa encontró los nuevos valores de ponderación y sesgo, que generaron los resultados nuevos {-0,8932; -0,8006}. El primer valor de salida de -0,8932 está mucho más cercano al primer valor esperado de -0,8500. El segundo valor nuevo de salida de -0,8006 sigue estando muy alejado del valor esperado de 0,7500. El proceso de entrenamiento se puede terminar de diferentes formas. El programa de demostración itera el entrenamiento hasta que la suma de las diferencias absolutas entre los valores de salida y los esperados sea menor que <= 0,01 o el entrenamiento llegue a 1.000 iteraciones. En la demostración, después de seis iteraciones de entrenamiento, la propagación inversa encontró un conjunto de valores de ponderación y sesgo que generaron salidas de {-0,8423; 0,7481}; muy próximas a los valores esperados de {-0,8500; 0,7500}. 3
  • 4. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz 4 Bibliografía “Profundización en las redes neuronales”, en msdn.microsoft.com/magazine/hh975375.) El código del programa que aparece en la Ilustración 1 es demasiado extenso para presentarlo en este artículo, de modo que me concentraré en explicar las partes claves del algoritmo. El código fuente completo para el programa de demostración está disponible en archive.msdn.microsoft.com/mag201210TestRun.