SlideShare una empresa de Scribd logo
1 de 4
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Una forma de ver las redes neuronales es como metafunciones que aceptan un 
número fijo de entradas numéricas y producen un número fijo de salidas numéricas. 
En la mayoría de los casos, las redes neuronales tienen una capa de neuronas 
ocultas, donde cada una de estas está conectada completamente con las neuronas 
de entrada y de salida. Asociado con cada neurona oculta y cada neurona de 
salida individual se encuentra un conjunto de valores de ponderación y un 
valor único llamado sesgo. Las ponderaciones y sesgos determinan los valores 
de salida para un conjunto dado de valores de entrada. 
La técnica más común para calcular las ponderaciones y sesgos óptimos se llama 
propagación inversa. Aunque existen muchas referencias excelentes que describen 
las matemáticas complejas que subyacen a la propagación inversa, hay pocas guías 
disponibles para los programadores, que describan claramente cómo programar el 
algoritmo de propagación inversa. Este artículo explica cómo implementar la 
propagación inversa. El lenguaje de programación en los ejemplos es C#, pero no 
debería ser difícil refactorizarlos a otros lenguajes. 
La mejor forma de ver mi objetivo es mirar la captura de pantalla de un programa de 
demostración en la Ilustración 1. Este programa crea una red neuronal que tiene 
tres neuronas de entrada, con una capa oculta de cuatro neuronas y dos neuronas 
de salida. Las redes neuronales con una sola capa oculta requieren de dos 
funciones de activación. En muchas situaciones, sin embargo, estas dos funciones 
son iguales, habitualmente la función sigmoidea. Pero en esta demostración, para 
ilustrar la relación entre las funciones de activación y la propagación inversa, empleo 
funciones de activación diferentes: la función sigmoidea para los cálculos de la capa 
de entrada a la oculta, y la tangente hiperbólica para los cálculos de la capa oculta 
a la de salida.
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Ilustracion 1 Algoritmo de propagación inversa en acción
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Una red neuronal 3-4-2 completamente conectada requiere de 3*4 + 4*2 = 20 
valores de ponderación y 4+2 = 6 valores de sesgo, lo que suma un total de 26 
ponderaciones y sesgos. Estas ponderaciones y sesgos se inicializan en valores 
más o menos arbitrarios. Los valores de entrada genéricos se establecen en 1,0, 
2,0 y 3,0. Con los valores iniciales de ponderación, sesgo y entrada, los valores de 
salida iniciales que calcula la red neuronal son {0,7225; -0,8779}. El programa de 
demostración supone que los dos valores de salida correctos son {-0,8500; 0,7500}. 
La finalidad del algoritmo de propagación inversa es encontrar un nuevo conjunto 
de ponderaciones y sesgos que generen resultados muy próximos a los valores 
correctos para las entradas {1,0; 2,0; 3,0}. 
La propagación inversa requiere de dos parámetros libres. La velocidad de 
aprendizaje, generalmente designada con la letra griega eta en la literatura sobre 
propagación inversa, controla la velocidad con la que el algoritmo converge en el 
cálculo final. El momento, designado generalmente con la letra griega alfa, permite 
que el algoritmo de propagación inversa evite las situaciones donde el algoritmo 
oscila sin converger en un cálculo final. El programa de demostración establece la 
velocidad de aprendizaje en 0,90 y el momento en 0,04. Normalmente estos valores 
se encuentran por ensayo y error. 
El proceso de encontrar el mejor conjunto de ponderaciones y sesgos para una red 
neuronal a veces se denomina entrenamiento de la red. En el caso de la 
propagación inversa, el entrenamiento es un proceso iterativo. En cada iteración, la 
propagación inversa calcula un nuevo conjunto de valores de ponderación y sesgo 
que, en teoría, generan valores de salida que estarán más cercanos a los valores 
esperados. Después de la primera iteración de entrenamiento del programa de 
demostración, el algoritmo de propagación inversa encontró los nuevos valores de 
ponderación y sesgo, que generaron los resultados nuevos {-0,8932; -0,8006}. El 
primer valor de salida de -0,8932 está mucho más cercano al primer valor esperado 
de -0,8500. El segundo valor nuevo de salida de -0,8006 sigue estando muy alejado 
del valor esperado de 0,7500. 
El proceso de entrenamiento se puede terminar de diferentes formas. El programa 
de demostración itera el entrenamiento hasta que la suma de las diferencias 
absolutas entre los valores de salida y los esperados sea menor que <= 0,01 o el 
entrenamiento llegue a 1.000 iteraciones. En la demostración, después de seis 
iteraciones de entrenamiento, la propagación inversa encontró un conjunto de 
valores de ponderación y sesgo que generaron salidas de {-0,8423; 0,7481}; muy 
próximas a los valores esperados de {-0,8500; 0,7500}.
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Bibliografía 
“Profundización en las redes neuronales”, en 
msdn.microsoft.com/magazine/hh975375.) El código del programa que aparece en 
la Ilustración 1 es demasiado extenso para presentarlo en este artículo, de modo 
que me concentraré en explicar las partes claves del algoritmo. El código fuente 
completo para el programa de demostración está disponible en 
archive.msdn.microsoft.com/mag201210TestRun.

Más contenido relacionado

La actualidad más candente

Independencia tecnologica
Independencia tecnologicaIndependencia tecnologica
Independencia tecnologicadalisyibeli
 
El ciclo de instruccion
El ciclo de instruccionEl ciclo de instruccion
El ciclo de instruccionERICA2c3
 
Constructores & excepciones
Constructores & excepcionesConstructores & excepciones
Constructores & excepcionesJuan Mancilla
 
Vinculacion del pnf inf Diapositiva
Vinculacion del pnf inf DiapositivaVinculacion del pnf inf Diapositiva
Vinculacion del pnf inf Diapositiva619jesus
 
Vinculacion del pnf inf
Vinculacion del pnf infVinculacion del pnf inf
Vinculacion del pnf infGabrielZerpa8
 
Software Libre y su Rol en el Desarrollo Tecnológico del País.pdf
Software Libre y su Rol en el Desarrollo Tecnológico del País.pdfSoftware Libre y su Rol en el Desarrollo Tecnológico del País.pdf
Software Libre y su Rol en el Desarrollo Tecnológico del País.pdfJosthinRodrguez
 
POLÍTICA PÚBLICA PARA LA ADQUISICIÓN Y USO DEL HARDWARE EN LA ADMINISTRACIÓN ...
POLÍTICA PÚBLICA PARA LA ADQUISICIÓN Y USO DEL HARDWARE EN LA ADMINISTRACIÓN ...POLÍTICA PÚBLICA PARA LA ADQUISICIÓN Y USO DEL HARDWARE EN LA ADMINISTRACIÓN ...
POLÍTICA PÚBLICA PARA LA ADQUISICIÓN Y USO DEL HARDWARE EN LA ADMINISTRACIÓN ...Yesy Diaz
 
Capacitación de recurso humano en software libre
Capacitación de recurso humano en software libreCapacitación de recurso humano en software libre
Capacitación de recurso humano en software libreAnderson Castellano
 
Parte 4 Máquinas De Turing
Parte 4  Máquinas De  TuringParte 4  Máquinas De  Turing
Parte 4 Máquinas De TuringRicardo Quintero
 
Autómatas probabilísticos
Autómatas probabilísticosAutómatas probabilísticos
Autómatas probabilísticosMerlyn Perez
 
direccionamiento microcontroladores pic
direccionamiento microcontroladores picdireccionamiento microcontroladores pic
direccionamiento microcontroladores piczfsasfasd
 
Arquitectura de los computadores
Arquitectura de los computadoresArquitectura de los computadores
Arquitectura de los computadoresJ David Martinez
 

La actualidad más candente (20)

Independencia tecnologica
Independencia tecnologicaIndependencia tecnologica
Independencia tecnologica
 
El ciclo de instruccion
El ciclo de instruccionEl ciclo de instruccion
El ciclo de instruccion
 
Automatas de pila
Automatas de pilaAutomatas de pila
Automatas de pila
 
Constructores & excepciones
Constructores & excepcionesConstructores & excepciones
Constructores & excepciones
 
1985 microprocesador 80386
1985 microprocesador 803861985 microprocesador 80386
1985 microprocesador 80386
 
Vinculacion del pnf inf Diapositiva
Vinculacion del pnf inf DiapositivaVinculacion del pnf inf Diapositiva
Vinculacion del pnf inf Diapositiva
 
Vinculacion del pnf inf
Vinculacion del pnf infVinculacion del pnf inf
Vinculacion del pnf inf
 
Software Libre y su Rol en el Desarrollo Tecnológico del País.pdf
Software Libre y su Rol en el Desarrollo Tecnológico del País.pdfSoftware Libre y su Rol en el Desarrollo Tecnológico del País.pdf
Software Libre y su Rol en el Desarrollo Tecnológico del País.pdf
 
Que es un workflow
Que es un workflowQue es un workflow
Que es un workflow
 
POLÍTICA PÚBLICA PARA LA ADQUISICIÓN Y USO DEL HARDWARE EN LA ADMINISTRACIÓN ...
POLÍTICA PÚBLICA PARA LA ADQUISICIÓN Y USO DEL HARDWARE EN LA ADMINISTRACIÓN ...POLÍTICA PÚBLICA PARA LA ADQUISICIÓN Y USO DEL HARDWARE EN LA ADMINISTRACIÓN ...
POLÍTICA PÚBLICA PARA LA ADQUISICIÓN Y USO DEL HARDWARE EN LA ADMINISTRACIÓN ...
 
Capacitación de recurso humano en software libre
Capacitación de recurso humano en software libreCapacitación de recurso humano en software libre
Capacitación de recurso humano en software libre
 
Operaciones Sobre Procesos
Operaciones Sobre ProcesosOperaciones Sobre Procesos
Operaciones Sobre Procesos
 
Parte 4 Máquinas De Turing
Parte 4  Máquinas De  TuringParte 4  Máquinas De  Turing
Parte 4 Máquinas De Turing
 
Código intermedio
Código intermedioCódigo intermedio
Código intermedio
 
Trabajo sobre Flip Flop
Trabajo sobre Flip FlopTrabajo sobre Flip Flop
Trabajo sobre Flip Flop
 
Autómatas probabilísticos
Autómatas probabilísticosAutómatas probabilísticos
Autómatas probabilísticos
 
2.5 Ciclo do While
2.5 Ciclo do While2.5 Ciclo do While
2.5 Ciclo do While
 
direccionamiento microcontroladores pic
direccionamiento microcontroladores picdireccionamiento microcontroladores pic
direccionamiento microcontroladores pic
 
Arquitectura de los computadores
Arquitectura de los computadoresArquitectura de los computadores
Arquitectura de los computadores
 
Practica 7 Flip Flop
Practica 7 Flip FlopPractica 7 Flip Flop
Practica 7 Flip Flop
 

Similar a Sesgo en una Red Neuronal Artificial

Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3JUANCHO_ANAYA
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaBrian Piragauta
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzadaDiego Guamán
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
 
Redes Neuronales - Robótica
Redes Neuronales - RobóticaRedes Neuronales - Robótica
Redes Neuronales - RobóticaJoaquinMontoro
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Metodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosMetodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosESCOM
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlinsJuan Pinzón
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Raul
 

Similar a Sesgo en una Red Neuronal Artificial (20)

Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Aprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simpleAprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simple
 
Redes Neuronales - Robótica
Redes Neuronales - RobóticaRedes Neuronales - Robótica
Redes Neuronales - Robótica
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
Metodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosMetodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas Difusos
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlins
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig
 
Rna10
Rna10Rna10
Rna10
 

Más de Levy GT

Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Teoremas perceptron multicapa
Teoremas perceptron multicapaTeoremas perceptron multicapa
Teoremas perceptron multicapaLevy GT
 
Como se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaComo se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaLevy GT
 
El sesgo en la Backpropagation
El sesgo en la BackpropagationEl sesgo en la Backpropagation
El sesgo en la BackpropagationLevy GT
 
Derivada de un punto
Derivada de un puntoDerivada de un punto
Derivada de un puntoLevy GT
 
Derivada perceptron repecto u w
Derivada perceptron repecto u wDerivada perceptron repecto u w
Derivada perceptron repecto u wLevy GT
 
Derivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETDerivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETLevy GT
 
Comprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalComprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalLevy GT
 
Sesgo BacoProgpagation
Sesgo BacoProgpagationSesgo BacoProgpagation
Sesgo BacoProgpagationLevy GT
 
Investigacion e momento
Investigacion e momentoInvestigacion e momento
Investigacion e momentoLevy GT
 
Fibonacci Serie
Fibonacci SerieFibonacci Serie
Fibonacci SerieLevy GT
 
Factorial de un número
Factorial de un númeroFactorial de un número
Factorial de un númeroLevy GT
 
Función sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteFunción sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteLevy GT
 
Backprogation actualizacion pesos
Backprogation actualizacion pesosBackprogation actualizacion pesos
Backprogation actualizacion pesosLevy GT
 
Desmostracion BACKPROPAGATION
Desmostracion  BACKPROPAGATIONDesmostracion  BACKPROPAGATION
Desmostracion BACKPROPAGATIONLevy GT
 
Desmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotDesmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotLevy GT
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronalesLevy GT
 
Matriz traspuesta
Matriz traspuestaMatriz traspuesta
Matriz traspuestaLevy GT
 
Cálculo de pesos
Cálculo de pesosCálculo de pesos
Cálculo de pesosLevy GT
 

Más de Levy GT (20)

Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Teoremas perceptron multicapa
Teoremas perceptron multicapaTeoremas perceptron multicapa
Teoremas perceptron multicapa
 
Como se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaComo se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron Multicapa
 
El sesgo en la Backpropagation
El sesgo en la BackpropagationEl sesgo en la Backpropagation
El sesgo en la Backpropagation
 
Derivada de un punto
Derivada de un puntoDerivada de un punto
Derivada de un punto
 
Derivada perceptron repecto u w
Derivada perceptron repecto u wDerivada perceptron repecto u w
Derivada perceptron repecto u w
 
Derivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETDerivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NET
 
Comprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalComprobacion de pesos Red Neuronal
Comprobacion de pesos Red Neuronal
 
Sesgo BacoProgpagation
Sesgo BacoProgpagationSesgo BacoProgpagation
Sesgo BacoProgpagation
 
Investigacion e momento
Investigacion e momentoInvestigacion e momento
Investigacion e momento
 
Fibonacci Serie
Fibonacci SerieFibonacci Serie
Fibonacci Serie
 
Factorial de un número
Factorial de un númeroFactorial de un número
Factorial de un número
 
Función sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteFunción sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsante
 
Backprogation actualizacion pesos
Backprogation actualizacion pesosBackprogation actualizacion pesos
Backprogation actualizacion pesos
 
Desmostracion BACKPROPAGATION
Desmostracion  BACKPROPAGATIONDesmostracion  BACKPROPAGATION
Desmostracion BACKPROPAGATION
 
Desmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotDesmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplot
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
Matriz traspuesta
Matriz traspuestaMatriz traspuesta
Matriz traspuesta
 
Recta
RectaRecta
Recta
 
Cálculo de pesos
Cálculo de pesosCálculo de pesos
Cálculo de pesos
 

Último

Linealización de sistemas no lineales.pdf
Linealización de sistemas no lineales.pdfLinealización de sistemas no lineales.pdf
Linealización de sistemas no lineales.pdfrolandolazartep
 
4.6 DEFINICION DEL PROBLEMA DE ASIGNACION.pptx
4.6 DEFINICION DEL PROBLEMA DE ASIGNACION.pptx4.6 DEFINICION DEL PROBLEMA DE ASIGNACION.pptx
4.6 DEFINICION DEL PROBLEMA DE ASIGNACION.pptxGARCIARAMIREZCESAR
 
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa  tipos y funcionamientoCaldera Recuperadora de químicos en celulosa  tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa tipos y funcionamientoRobertoAlejandroCast6
 
SSOMA, seguridad y salud ocupacional. SST
SSOMA, seguridad y salud ocupacional. SSTSSOMA, seguridad y salud ocupacional. SST
SSOMA, seguridad y salud ocupacional. SSTGestorManpower
 
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVEl proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVSebastianPaez47
 
Calavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfCalavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfyoseka196
 
Una estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTUna estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTFundación YOD YOD
 
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaSesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaXimenaFallaLecca1
 
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Francisco Javier Mora Serrano
 
Introducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptIntroducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptEduardoCorado
 
CICLO DE DEMING que se encarga en como mejorar una empresa
CICLO DE DEMING que se encarga en como mejorar una empresaCICLO DE DEMING que se encarga en como mejorar una empresa
CICLO DE DEMING que se encarga en como mejorar una empresaSHERELYNSAMANTHAPALO1
 
Tiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IITiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IILauraFernandaValdovi
 
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfTAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfAntonioGonzalezIzqui
 
Residente de obra y sus funciones que realiza .pdf
Residente de obra y sus funciones que realiza  .pdfResidente de obra y sus funciones que realiza  .pdf
Residente de obra y sus funciones que realiza .pdfevin1703e
 
Seleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSeleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSaulSantiago25
 
estadisticasII Metodo-de-la-gran-M.pdf
estadisticasII   Metodo-de-la-gran-M.pdfestadisticasII   Metodo-de-la-gran-M.pdf
estadisticasII Metodo-de-la-gran-M.pdfFlorenciopeaortiz
 
Sesion 02 Patentes REGISTRO EN INDECOPI PERU
Sesion 02 Patentes REGISTRO EN INDECOPI PERUSesion 02 Patentes REGISTRO EN INDECOPI PERU
Sesion 02 Patentes REGISTRO EN INDECOPI PERUMarcosAlvarezSalinas
 
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALCHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALKATHIAMILAGRITOSSANC
 
Elaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfElaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfKEVINYOICIAQUINOSORI
 

Último (20)

Linealización de sistemas no lineales.pdf
Linealización de sistemas no lineales.pdfLinealización de sistemas no lineales.pdf
Linealización de sistemas no lineales.pdf
 
4.6 DEFINICION DEL PROBLEMA DE ASIGNACION.pptx
4.6 DEFINICION DEL PROBLEMA DE ASIGNACION.pptx4.6 DEFINICION DEL PROBLEMA DE ASIGNACION.pptx
4.6 DEFINICION DEL PROBLEMA DE ASIGNACION.pptx
 
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa  tipos y funcionamientoCaldera Recuperadora de químicos en celulosa  tipos y funcionamiento
Caldera Recuperadora de químicos en celulosa tipos y funcionamiento
 
SSOMA, seguridad y salud ocupacional. SST
SSOMA, seguridad y salud ocupacional. SSTSSOMA, seguridad y salud ocupacional. SST
SSOMA, seguridad y salud ocupacional. SST
 
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kVEl proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
El proyecto “ITC SE Lambayeque Norte 220 kV con seccionamiento de la LT 220 kV
 
Calavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdfCalavera calculo de estructuras de cimentacion.pdf
Calavera calculo de estructuras de cimentacion.pdf
 
Una estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NISTUna estrategia de seguridad en la nube alineada al NIST
Una estrategia de seguridad en la nube alineada al NIST
 
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaSesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
 
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
Hanns Recabarren Diaz (2024), Implementación de una herramienta de realidad v...
 
Introducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.pptIntroducción a los sistemas neumaticos.ppt
Introducción a los sistemas neumaticos.ppt
 
CICLO DE DEMING que se encarga en como mejorar una empresa
CICLO DE DEMING que se encarga en como mejorar una empresaCICLO DE DEMING que se encarga en como mejorar una empresa
CICLO DE DEMING que se encarga en como mejorar una empresa
 
Tiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo IITiempos Predeterminados MOST para Estudio del Trabajo II
Tiempos Predeterminados MOST para Estudio del Trabajo II
 
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdfTAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
TAREA 8 CORREDOR INTEROCEÁNICO DEL PAÍS.pdf
 
Residente de obra y sus funciones que realiza .pdf
Residente de obra y sus funciones que realiza  .pdfResidente de obra y sus funciones que realiza  .pdf
Residente de obra y sus funciones que realiza .pdf
 
Seleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusiblesSeleccion de Fusibles en media tension fusibles
Seleccion de Fusibles en media tension fusibles
 
estadisticasII Metodo-de-la-gran-M.pdf
estadisticasII   Metodo-de-la-gran-M.pdfestadisticasII   Metodo-de-la-gran-M.pdf
estadisticasII Metodo-de-la-gran-M.pdf
 
Sesion 02 Patentes REGISTRO EN INDECOPI PERU
Sesion 02 Patentes REGISTRO EN INDECOPI PERUSesion 02 Patentes REGISTRO EN INDECOPI PERU
Sesion 02 Patentes REGISTRO EN INDECOPI PERU
 
VALORIZACION Y LIQUIDACION MIGUEL SALINAS.pdf
VALORIZACION Y LIQUIDACION MIGUEL SALINAS.pdfVALORIZACION Y LIQUIDACION MIGUEL SALINAS.pdf
VALORIZACION Y LIQUIDACION MIGUEL SALINAS.pdf
 
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONALCHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
CHARLA DE INDUCCIÓN SEGURIDAD Y SALUD OCUPACIONAL
 
Elaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfElaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdf
 

Sesgo en una Red Neuronal Artificial

  • 1. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Una forma de ver las redes neuronales es como metafunciones que aceptan un número fijo de entradas numéricas y producen un número fijo de salidas numéricas. En la mayoría de los casos, las redes neuronales tienen una capa de neuronas ocultas, donde cada una de estas está conectada completamente con las neuronas de entrada y de salida. Asociado con cada neurona oculta y cada neurona de salida individual se encuentra un conjunto de valores de ponderación y un valor único llamado sesgo. Las ponderaciones y sesgos determinan los valores de salida para un conjunto dado de valores de entrada. La técnica más común para calcular las ponderaciones y sesgos óptimos se llama propagación inversa. Aunque existen muchas referencias excelentes que describen las matemáticas complejas que subyacen a la propagación inversa, hay pocas guías disponibles para los programadores, que describan claramente cómo programar el algoritmo de propagación inversa. Este artículo explica cómo implementar la propagación inversa. El lenguaje de programación en los ejemplos es C#, pero no debería ser difícil refactorizarlos a otros lenguajes. La mejor forma de ver mi objetivo es mirar la captura de pantalla de un programa de demostración en la Ilustración 1. Este programa crea una red neuronal que tiene tres neuronas de entrada, con una capa oculta de cuatro neuronas y dos neuronas de salida. Las redes neuronales con una sola capa oculta requieren de dos funciones de activación. En muchas situaciones, sin embargo, estas dos funciones son iguales, habitualmente la función sigmoidea. Pero en esta demostración, para ilustrar la relación entre las funciones de activación y la propagación inversa, empleo funciones de activación diferentes: la función sigmoidea para los cálculos de la capa de entrada a la oculta, y la tangente hiperbólica para los cálculos de la capa oculta a la de salida.
  • 2. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Ilustracion 1 Algoritmo de propagación inversa en acción
  • 3. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Una red neuronal 3-4-2 completamente conectada requiere de 3*4 + 4*2 = 20 valores de ponderación y 4+2 = 6 valores de sesgo, lo que suma un total de 26 ponderaciones y sesgos. Estas ponderaciones y sesgos se inicializan en valores más o menos arbitrarios. Los valores de entrada genéricos se establecen en 1,0, 2,0 y 3,0. Con los valores iniciales de ponderación, sesgo y entrada, los valores de salida iniciales que calcula la red neuronal son {0,7225; -0,8779}. El programa de demostración supone que los dos valores de salida correctos son {-0,8500; 0,7500}. La finalidad del algoritmo de propagación inversa es encontrar un nuevo conjunto de ponderaciones y sesgos que generen resultados muy próximos a los valores correctos para las entradas {1,0; 2,0; 3,0}. La propagación inversa requiere de dos parámetros libres. La velocidad de aprendizaje, generalmente designada con la letra griega eta en la literatura sobre propagación inversa, controla la velocidad con la que el algoritmo converge en el cálculo final. El momento, designado generalmente con la letra griega alfa, permite que el algoritmo de propagación inversa evite las situaciones donde el algoritmo oscila sin converger en un cálculo final. El programa de demostración establece la velocidad de aprendizaje en 0,90 y el momento en 0,04. Normalmente estos valores se encuentran por ensayo y error. El proceso de encontrar el mejor conjunto de ponderaciones y sesgos para una red neuronal a veces se denomina entrenamiento de la red. En el caso de la propagación inversa, el entrenamiento es un proceso iterativo. En cada iteración, la propagación inversa calcula un nuevo conjunto de valores de ponderación y sesgo que, en teoría, generan valores de salida que estarán más cercanos a los valores esperados. Después de la primera iteración de entrenamiento del programa de demostración, el algoritmo de propagación inversa encontró los nuevos valores de ponderación y sesgo, que generaron los resultados nuevos {-0,8932; -0,8006}. El primer valor de salida de -0,8932 está mucho más cercano al primer valor esperado de -0,8500. El segundo valor nuevo de salida de -0,8006 sigue estando muy alejado del valor esperado de 0,7500. El proceso de entrenamiento se puede terminar de diferentes formas. El programa de demostración itera el entrenamiento hasta que la suma de las diferencias absolutas entre los valores de salida y los esperados sea menor que <= 0,01 o el entrenamiento llegue a 1.000 iteraciones. En la demostración, después de seis iteraciones de entrenamiento, la propagación inversa encontró un conjunto de valores de ponderación y sesgo que generaron salidas de {-0,8423; 0,7481}; muy próximas a los valores esperados de {-0,8500; 0,7500}.
  • 4. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Bibliografía “Profundización en las redes neuronales”, en msdn.microsoft.com/magazine/hh975375.) El código del programa que aparece en la Ilustración 1 es demasiado extenso para presentarlo en este artículo, de modo que me concentraré en explicar las partes claves del algoritmo. El código fuente completo para el programa de demostración está disponible en archive.msdn.microsoft.com/mag201210TestRun.