SlideShare una empresa de Scribd logo
1 de 7
¿Cómo mejorar la forma en que las
redes neuronales aprendan de los
errores rápidamente?
La técnica o metodología que utilizaremos, es la conocida como la función
de costo de Entropía Cruzada.
Por supuesto, con esta técnica solo cubrimos una de las muchas hoy
existen; muchas técnicas de las que se han desarrollado para su uso en
redes neuronales. La filosofía y/o secreto es que la mejor entrada a la gran
cantidad de técnicas disponibleses el estudio en profundidadde algunasde
las más importantes. Con esto podrá profundizar su comprensión de los
problemas que pueden surgir cuando usa redes neuronales.
Con este artículo logrará quedar preparado para aprender rápidamente
otras técnicas, según lo requiera.
La función de costo de entropía cruzada:
Idealmente, esperamos que nuestras redes neuronales aprendan
rápidamente de sus errores. ¿Es esto lo que sucede en la práctica? Para
poderles responder a esta pregunta, veamos un ejemplo. El ej. involucra
una neurona con solo una entrada:
Entrenaremos a esta neurona para que haga algo muy sencillo: llevar la
entrada a la salida 0. Por supuesto, esta es una tarea tan trivial que
podríamos descubrir fácilmenteun peso y un sesgo apropiados a mano, sin
utilizar un algoritmo de aprendizaje. Sin embargo, resulta interesante usar
el descenso en forma de degradé para intentar aprender un peso y un
sesgo. Así que démosle un vistazo a cómo aprende nuestra neurona.
En este caso elegiremos el peso inicial y el sesgo inicial para que tome un
valor igual a 0,9. Estos valores son tomados referencialmente para
comenzar a aprender, no fueron elegidos para que fueran especiales de
ninguna manera. La salida inicial de la neurona es 0,82, por lo que se
necesitará bastante aprendizajeantes de que nuestra neurona se acerque
a una salida deseada con valor 0.
La tasa de aprendizajees η=0.150.60.60.90.90.820.820.00.00.00.0η=0,15
El costo es la función de costo cuadrático, más adelante estaremos
publicando la forma exacta de la función de costo, por lo que no hay
necesidad de buscar la definición.
Como podrán notar, nuestra neurona aprende rápidamente, con un peso y
sesgo que reduce el costo y genera un rendimiento de la neurona
considerablemente precisa. Pero esa no es la salida deseada, 0,09, pero no
podemos precisar que es perfecta, sino que es bastante
buena. Supongamos, sin embargo, que en su lugar elegimos que tanto el
peso inicial como el sesgo inicial sean 2,0. En este caso, la salida inicial
es 0,98, lo cual no es una buena salida y eso es malo.
Aunque este ejemplo usa la misma tasa de aprendizaje, podemos observar
que el aprendizaje comienza mucho más lento. De hecho, durante las, los
pesos y sesgos no cambian mucho. Luego, comienza el aprendizaje e igual
que en nuestro primer ejemplo, la salida de nuestra neurona se acerca
rápidamente a 0,0.
η=0.15η=0.150.0
Este comportamiento es extraño en contraste con el aprendizaje
humano. Por lo general, a menudo aprendemos más rápido cuando
estamos muy equivocados acerca de algo. Pero acabamos de ver que
nuestra neurona artificial tiene muchas más dificultades para hacerlo
cuandoestá muy mal, es decirtienemucha másdificultadquecuandoestá
un poco mal. Además, resulta queeste comportamiento ocurreno solo en
este modelo, sino en redes más generales. ¿Por qué el aprendizajees tan
lento? ¿Y podemos encontrar una manera de evitar esta desaceleración
en el aprendizaje?
Para comprender el origen del problema, considere que nuestra neurona
aprende cambiando el peso y el sesgo a una tasa determinada por las
derivadas parciales de la función de costo, y ∂C/∂b.
El desafío es entender por qué “El aprender para una neurona es lento”,
para entender eso, calculemos las derivadas parciales. Recuerde que
estamos usando la función de costo cuadrático, que es la ecuación que
viene dada por ∂C/∂w, ∂C/∂w, ∂C/∂b, ∂C/∂b donde a es la salida de la
neurona cuando se usa la entrada de entrenamiento x=1, e y=0, es la salida
deseada correspondiente. Para escribir esto más explícitamente en
términos de peso y sesgo, recuerde que a=σ(z), donde z=wx+b. Usando la
regla de la cadena para diferenciar con respecto al peso y al sesgo que
obtenemos.
ax=1, x=1, y=0, a=σ(z), z=wx+b donde he sustituido x=1 e y=0. Para
comprender el comportamiento de estas expresiones, veamos más de
cerca el término σ′(z)enel lado derecho. Recordemosla forma dela función
σ:
Podemos ver en este gráfico que cuando la salida de nuestra neurona es
cercana a a, la curva se vuelve muy plana, por lo que σ′(z) se vuelve muy
pequeña. Las ecuaciones expuestas anteriormente nos dicen
que ∂C/∂w y ∂C/∂b se vuelven muy pequeñas. Este es el origen de la
desaceleración delaprendizaje.Además,como veremosun pocomás tarde,
la ralentización del aprendizaje ocurre esencialmente por la misma razón
en redes neuronales más generales, no solo en este ejemplo con el que
hemos estado exponiendo.
Según todo lo demostrado presentamos la función de costo de
entropía cruzada:
¿Cómo podemos corregir la desaceleración del aprendizaje de nuestra
neurona? Resulta que podemos resolver el problema reemplazando el
costo cuadrático con una función de costo diferente, conocida como
entropía cruzada. Para entender la entropía cruzada, alejémonos un poco
de nuestro modelo expuesto anteriormente. En su lugar, supondremos que
estamostratando de entrenar una neurona con variasvariablesde entrada,
los pesos correspondientes w1,w2,... , y un sesgo, b : x1,x2,….
La salida de nuestra neuronaes dondez=∑jwjxj+b,esla suma ponderadade
las entradas. Definimos la función de costo de entropía cruzada para esta
neurona por a=σ(z), z=∑jwjxj+b, donde n es el número total de elementos
de datos de entrenamiento, la suma es sobre todas las entradas de
entrenamiento x e y es la salida deseada correspondiente.
No es obvio que la expresión corrige el problema de desaceleración del
aprendizaje. Dehecho, francamente, ni siquiera es obvio que tenga sentido
llamar a esto una función de costo. Antes de abordar la desaceleración del
aprendizaje, veamos en qué sentido la entropía cruzada puede
interpretarse como una función de costo.
Aplicamos esta función para medir su resultado sobreel aprendizaje:
¡Un Éxito! Esta vez, nuestra neurona aprendió rápidamente, tal como
esperábamos. Si pueden observar de cerca, pueden ver que la pendiente
de la curva decosto fue mucho más pronunciada inicialmente que la región
plana inicial en la curva correspondiente para el costo cuadrático. Es esa
inclinación la que nos da como resultado de la entropía cruzada, evitando
que nos atasquemos justo cuando esperamos que nuestra neurona
aprenda más rápido, es decir, cuando la neurona comienza mal.
Los gráficosnosevidencian de cómo cambia la velocidad deaprendizaje.En
particular, cuando usamos el costo cuadrático, el aprendizaje es más
lento cuando la neurona está inequívocamente equivocada, ya que la
neurona seacerca a la salida correcta; mientrasque con la entropía cruzada
el aprendizaje es más rápido cuando la neurona está inequívocamente
equivocada.
∑j evita una relentización del aprendizajeen redes de muchas neuronas.
"Espero que este artículo le haya sido de interés y les pueda servir
para aplicarlo en algún modelo."
Escrito por Cristian Martín D´Agata

Más contenido relacionado

La actualidad más candente

Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentumESCOM
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINEESCOM
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Tribunal Electoral Provincia de Misiones
 
How to Think Like a Computer Scientist
How to Think Like a Computer ScientistHow to Think Like a Computer Scientist
How to Think Like a Computer Scientistjoanem28
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINEESCOM
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusajcbp_peru
 
Tutorial basico de vbscript by novlucker parte5
Tutorial basico de vbscript by novlucker parte5Tutorial basico de vbscript by novlucker parte5
Tutorial basico de vbscript by novlucker parte5Leo Alvavel
 
Jyoc java-cap04 vectores (arrays)
Jyoc java-cap04 vectores (arrays)Jyoc java-cap04 vectores (arrays)
Jyoc java-cap04 vectores (arrays)Jyoc X
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla AprendizajeRoberth Figueroa-Diaz
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 

La actualidad más candente (20)

Recursividad
RecursividadRecursividad
Recursividad
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
 
Perceptrón
PerceptrónPerceptrón
Perceptrón
 
Implicit
ImplicitImplicit
Implicit
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
 
How to Think Like a Computer Scientist
How to Think Like a Computer ScientistHow to Think Like a Computer Scientist
How to Think Like a Computer Scientist
 
Lenguaje c tarea 5
Lenguaje c tarea 5Lenguaje c tarea 5
Lenguaje c tarea 5
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINE
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusa
 
Tutorial basico de vbscript by novlucker parte5
Tutorial basico de vbscript by novlucker parte5Tutorial basico de vbscript by novlucker parte5
Tutorial basico de vbscript by novlucker parte5
 
Jyoc java-cap04 vectores (arrays)
Jyoc java-cap04 vectores (arrays)Jyoc java-cap04 vectores (arrays)
Jyoc java-cap04 vectores (arrays)
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 

Similar a Mejores Tecnicas en Redes Neuronales

Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
SUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxSUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxssuserd2a0fa
 
SUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxSUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxssuserd2a0fa
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje AsociativoESCOM
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVAESCOM
 
Ejercicios detallados del obj 1 mat iii 733
Ejercicios detallados del obj 1 mat iii  733 Ejercicios detallados del obj 1 mat iii  733
Ejercicios detallados del obj 1 mat iii 733 Jonathan Mejías
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansigVanee2014
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Aplicación de la Derivada
Aplicación de la DerivadaAplicación de la Derivada
Aplicación de la DerivadalourdesNuez22
 
Engaños matematicos curiosos
Engaños matematicos curiososEngaños matematicos curiosos
Engaños matematicos curiososMarco Campoverde
 
Metodo de la secante en scilab
Metodo de la secante en scilabMetodo de la secante en scilab
Metodo de la secante en scilabTensor
 
Examen resuelto metodos numericos
Examen resuelto metodos numericosExamen resuelto metodos numericos
Examen resuelto metodos numericosRosand Roque Ch.
 
Examen resuelto metodos numericos
Examen resuelto metodos numericosExamen resuelto metodos numericos
Examen resuelto metodos numericosUNA PUNO PERU
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 

Similar a Mejores Tecnicas en Redes Neuronales (20)

Aprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simpleAprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simple
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
SUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxSUMAS EN SYMPY.docx
SUMAS EN SYMPY.docx
 
SUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxSUMAS EN SYMPY.docx
SUMAS EN SYMPY.docx
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVA
 
Cap5 lec2
Cap5 lec2Cap5 lec2
Cap5 lec2
 
Simple Harmonic Oscillator.docx
Simple Harmonic Oscillator.docxSimple Harmonic Oscillator.docx
Simple Harmonic Oscillator.docx
 
Ejercicios detallados del obj 1 mat iii 733
Ejercicios detallados del obj 1 mat iii  733 Ejercicios detallados del obj 1 mat iii  733
Ejercicios detallados del obj 1 mat iii 733
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Aplicación de la Derivada
Aplicación de la DerivadaAplicación de la Derivada
Aplicación de la Derivada
 
Engaños matematicos curiosos
Engaños matematicos curiososEngaños matematicos curiosos
Engaños matematicos curiosos
 
Tema4
Tema4Tema4
Tema4
 
Actividad no9. 1er parcial lema evelyn
Actividad no9. 1er parcial lema evelynActividad no9. 1er parcial lema evelyn
Actividad no9. 1er parcial lema evelyn
 
Rna10
Rna10Rna10
Rna10
 
Metodo de la secante en scilab
Metodo de la secante en scilabMetodo de la secante en scilab
Metodo de la secante en scilab
 
Examen resuelto metodos numericos
Examen resuelto metodos numericosExamen resuelto metodos numericos
Examen resuelto metodos numericos
 
Examen resuelto metodos numericos
Examen resuelto metodos numericosExamen resuelto metodos numericos
Examen resuelto metodos numericos
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 

Último

Fresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaFresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaDanyAguayo1
 
cgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfcgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfSergioSanto4
 
Cabeza ósea - Anatomía Veterinaria - UNRC
Cabeza ósea - Anatomía Veterinaria - UNRCCabeza ósea - Anatomía Veterinaria - UNRC
Cabeza ósea - Anatomía Veterinaria - UNRCspeckledpelt
 
INTRODUCCION A LA ANATOMIA Y PLANOS ANATOMICOS.pptx
INTRODUCCION A LA ANATOMIA Y PLANOS ANATOMICOS.pptxINTRODUCCION A LA ANATOMIA Y PLANOS ANATOMICOS.pptx
INTRODUCCION A LA ANATOMIA Y PLANOS ANATOMICOS.pptxpipecalderon92
 
Examen Leyes de Newton Ciclo escolar 2023-2024.docx
Examen Leyes de Newton Ciclo escolar 2023-2024.docxExamen Leyes de Newton Ciclo escolar 2023-2024.docx
Examen Leyes de Newton Ciclo escolar 2023-2024.docxArgenisGarcia21
 
Diálisis peritoneal en los pacientes delicados de salud
Diálisis peritoneal en los pacientes delicados de saludDiálisis peritoneal en los pacientes delicados de salud
Diálisis peritoneal en los pacientes delicados de saludFernandoACamachoCher
 
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...frank0071
 
Codigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxCodigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxSergioSanto4
 
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...Champs Elysee Roldan
 
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptxllacza2004
 
inspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriinspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriManrriquezLujanYasbe
 
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Juan Carlos Fonseca Mata
 
Diario experiencias Quehacer Científico y tecnológico vf.docx
Diario experiencias Quehacer Científico y tecnológico vf.docxDiario experiencias Quehacer Científico y tecnológico vf.docx
Diario experiencias Quehacer Científico y tecnológico vf.docxJulieta624646
 
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptxTEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptxXavierCrdenasGarca
 
el amor en los tiempos del colera (resumen).pptx
el amor en los tiempos del colera (resumen).pptxel amor en los tiempos del colera (resumen).pptx
el amor en los tiempos del colera (resumen).pptxhectoralvarado79
 
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfSEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfPC0121
 
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)s.calleja
 
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...ocanajuanpablo0
 
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdfHobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdffrank0071
 
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPerfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPieroalex1
 

Último (20)

Fresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaFresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontología
 
cgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfcgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdf
 
Cabeza ósea - Anatomía Veterinaria - UNRC
Cabeza ósea - Anatomía Veterinaria - UNRCCabeza ósea - Anatomía Veterinaria - UNRC
Cabeza ósea - Anatomía Veterinaria - UNRC
 
INTRODUCCION A LA ANATOMIA Y PLANOS ANATOMICOS.pptx
INTRODUCCION A LA ANATOMIA Y PLANOS ANATOMICOS.pptxINTRODUCCION A LA ANATOMIA Y PLANOS ANATOMICOS.pptx
INTRODUCCION A LA ANATOMIA Y PLANOS ANATOMICOS.pptx
 
Examen Leyes de Newton Ciclo escolar 2023-2024.docx
Examen Leyes de Newton Ciclo escolar 2023-2024.docxExamen Leyes de Newton Ciclo escolar 2023-2024.docx
Examen Leyes de Newton Ciclo escolar 2023-2024.docx
 
Diálisis peritoneal en los pacientes delicados de salud
Diálisis peritoneal en los pacientes delicados de saludDiálisis peritoneal en los pacientes delicados de salud
Diálisis peritoneal en los pacientes delicados de salud
 
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
 
Codigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxCodigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptx
 
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
 
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
 
inspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriinspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteri
 
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
 
Diario experiencias Quehacer Científico y tecnológico vf.docx
Diario experiencias Quehacer Científico y tecnológico vf.docxDiario experiencias Quehacer Científico y tecnológico vf.docx
Diario experiencias Quehacer Científico y tecnológico vf.docx
 
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptxTEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
 
el amor en los tiempos del colera (resumen).pptx
el amor en los tiempos del colera (resumen).pptxel amor en los tiempos del colera (resumen).pptx
el amor en los tiempos del colera (resumen).pptx
 
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfSEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
 
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
 
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
PARES CRANEALES. ORIGEN REAL Y APARENTE, TRAYECTO E INERVACIÓN. CLASIFICACIÓN...
 
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdfHobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
 
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPerfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
 

Mejores Tecnicas en Redes Neuronales

  • 1. ¿Cómo mejorar la forma en que las redes neuronales aprendan de los errores rápidamente? La técnica o metodología que utilizaremos, es la conocida como la función de costo de Entropía Cruzada. Por supuesto, con esta técnica solo cubrimos una de las muchas hoy existen; muchas técnicas de las que se han desarrollado para su uso en redes neuronales. La filosofía y/o secreto es que la mejor entrada a la gran cantidad de técnicas disponibleses el estudio en profundidadde algunasde las más importantes. Con esto podrá profundizar su comprensión de los problemas que pueden surgir cuando usa redes neuronales. Con este artículo logrará quedar preparado para aprender rápidamente otras técnicas, según lo requiera. La función de costo de entropía cruzada: Idealmente, esperamos que nuestras redes neuronales aprendan rápidamente de sus errores. ¿Es esto lo que sucede en la práctica? Para
  • 2. poderles responder a esta pregunta, veamos un ejemplo. El ej. involucra una neurona con solo una entrada: Entrenaremos a esta neurona para que haga algo muy sencillo: llevar la entrada a la salida 0. Por supuesto, esta es una tarea tan trivial que podríamos descubrir fácilmenteun peso y un sesgo apropiados a mano, sin utilizar un algoritmo de aprendizaje. Sin embargo, resulta interesante usar el descenso en forma de degradé para intentar aprender un peso y un sesgo. Así que démosle un vistazo a cómo aprende nuestra neurona. En este caso elegiremos el peso inicial y el sesgo inicial para que tome un valor igual a 0,9. Estos valores son tomados referencialmente para comenzar a aprender, no fueron elegidos para que fueran especiales de ninguna manera. La salida inicial de la neurona es 0,82, por lo que se necesitará bastante aprendizajeantes de que nuestra neurona se acerque a una salida deseada con valor 0. La tasa de aprendizajees η=0.150.60.60.90.90.820.820.00.00.00.0η=0,15 El costo es la función de costo cuadrático, más adelante estaremos publicando la forma exacta de la función de costo, por lo que no hay necesidad de buscar la definición. Como podrán notar, nuestra neurona aprende rápidamente, con un peso y sesgo que reduce el costo y genera un rendimiento de la neurona considerablemente precisa. Pero esa no es la salida deseada, 0,09, pero no
  • 3. podemos precisar que es perfecta, sino que es bastante buena. Supongamos, sin embargo, que en su lugar elegimos que tanto el peso inicial como el sesgo inicial sean 2,0. En este caso, la salida inicial es 0,98, lo cual no es una buena salida y eso es malo. Aunque este ejemplo usa la misma tasa de aprendizaje, podemos observar que el aprendizaje comienza mucho más lento. De hecho, durante las, los pesos y sesgos no cambian mucho. Luego, comienza el aprendizaje e igual que en nuestro primer ejemplo, la salida de nuestra neurona se acerca rápidamente a 0,0. η=0.15η=0.150.0 Este comportamiento es extraño en contraste con el aprendizaje humano. Por lo general, a menudo aprendemos más rápido cuando estamos muy equivocados acerca de algo. Pero acabamos de ver que nuestra neurona artificial tiene muchas más dificultades para hacerlo cuandoestá muy mal, es decirtienemucha másdificultadquecuandoestá un poco mal. Además, resulta queeste comportamiento ocurreno solo en este modelo, sino en redes más generales. ¿Por qué el aprendizajees tan lento? ¿Y podemos encontrar una manera de evitar esta desaceleración en el aprendizaje? Para comprender el origen del problema, considere que nuestra neurona aprende cambiando el peso y el sesgo a una tasa determinada por las derivadas parciales de la función de costo, y ∂C/∂b. El desafío es entender por qué “El aprender para una neurona es lento”, para entender eso, calculemos las derivadas parciales. Recuerde que estamos usando la función de costo cuadrático, que es la ecuación que
  • 4. viene dada por ∂C/∂w, ∂C/∂w, ∂C/∂b, ∂C/∂b donde a es la salida de la neurona cuando se usa la entrada de entrenamiento x=1, e y=0, es la salida deseada correspondiente. Para escribir esto más explícitamente en términos de peso y sesgo, recuerde que a=σ(z), donde z=wx+b. Usando la regla de la cadena para diferenciar con respecto al peso y al sesgo que obtenemos. ax=1, x=1, y=0, a=σ(z), z=wx+b donde he sustituido x=1 e y=0. Para comprender el comportamiento de estas expresiones, veamos más de cerca el término σ′(z)enel lado derecho. Recordemosla forma dela función σ: Podemos ver en este gráfico que cuando la salida de nuestra neurona es cercana a a, la curva se vuelve muy plana, por lo que σ′(z) se vuelve muy pequeña. Las ecuaciones expuestas anteriormente nos dicen que ∂C/∂w y ∂C/∂b se vuelven muy pequeñas. Este es el origen de la desaceleración delaprendizaje.Además,como veremosun pocomás tarde, la ralentización del aprendizaje ocurre esencialmente por la misma razón
  • 5. en redes neuronales más generales, no solo en este ejemplo con el que hemos estado exponiendo. Según todo lo demostrado presentamos la función de costo de entropía cruzada: ¿Cómo podemos corregir la desaceleración del aprendizaje de nuestra neurona? Resulta que podemos resolver el problema reemplazando el costo cuadrático con una función de costo diferente, conocida como entropía cruzada. Para entender la entropía cruzada, alejémonos un poco de nuestro modelo expuesto anteriormente. En su lugar, supondremos que estamostratando de entrenar una neurona con variasvariablesde entrada, los pesos correspondientes w1,w2,... , y un sesgo, b : x1,x2,…. La salida de nuestra neuronaes dondez=∑jwjxj+b,esla suma ponderadade las entradas. Definimos la función de costo de entropía cruzada para esta neurona por a=σ(z), z=∑jwjxj+b, donde n es el número total de elementos de datos de entrenamiento, la suma es sobre todas las entradas de entrenamiento x e y es la salida deseada correspondiente. No es obvio que la expresión corrige el problema de desaceleración del aprendizaje. Dehecho, francamente, ni siquiera es obvio que tenga sentido llamar a esto una función de costo. Antes de abordar la desaceleración del aprendizaje, veamos en qué sentido la entropía cruzada puede interpretarse como una función de costo. Aplicamos esta función para medir su resultado sobreel aprendizaje:
  • 6. ¡Un Éxito! Esta vez, nuestra neurona aprendió rápidamente, tal como esperábamos. Si pueden observar de cerca, pueden ver que la pendiente de la curva decosto fue mucho más pronunciada inicialmente que la región plana inicial en la curva correspondiente para el costo cuadrático. Es esa inclinación la que nos da como resultado de la entropía cruzada, evitando que nos atasquemos justo cuando esperamos que nuestra neurona aprenda más rápido, es decir, cuando la neurona comienza mal. Los gráficosnosevidencian de cómo cambia la velocidad deaprendizaje.En particular, cuando usamos el costo cuadrático, el aprendizaje es más lento cuando la neurona está inequívocamente equivocada, ya que la neurona seacerca a la salida correcta; mientrasque con la entropía cruzada el aprendizaje es más rápido cuando la neurona está inequívocamente equivocada.
  • 7. ∑j evita una relentización del aprendizajeen redes de muchas neuronas. "Espero que este artículo le haya sido de interés y les pueda servir para aplicarlo en algún modelo." Escrito por Cristian Martín D´Agata