SlideShare una empresa de Scribd logo
1 de 28
OCTUBRE 2002 ESCOM IPN 1
*** Efectos No
Deseables enel
Entrenamiento ***
OCTUBRE 2002 ESCOM IPN 2
• El uso de muchas neuronas ocultas
pueden causar overfitting.
• Esto es que en vez de que se aprenda
patrones generales necesario para
producir una decisión correcta. La red se
enfoca excesivamente en idiosincrasias de
ejemplos individuales. Particulariza.
OCTUBRE 2002 ESCOM IPN 3
• La calidad de la red a menudo alcanza
un pico conforme el entrenamiento
progresa y entonces se deteriora
• Reducir el numero de neuronas ocultas a
tal punto que la red no tenga la capacidad
de aprender idiosincrasias, o bien
incremente el tamaño y la variedad del
conjunto de entrenamiento.
OCTUBRE 2002 ESCOM IPN 4
Overfitting
• Una red que es demasiado compleja puede
seguir el ruido, y no a una señal;
produciendo overfitting.
• El overfitting puede conducir fácilmente a
predicciones que están lejos del rango de
los datos de entrenamiento.
• También puede producir predicciones
extravagantes en Perceptrones Multicapa
con datos libres de ruido
OCTUBRE 2002 ESCOM IPN 5
OCTUBRE 2002 ESCOM IPN 6
• El overfitting no esta confinado a
redes neuronales con capas
ocultas.
• El overfitting puede ocurrir en
redes sin capas ocultas.
• El overfitting puede ocurrir
cuando se tienen las siguientes
condiciones:
OCTUBRE 2002 ESCOM IPN 7
• Cuando el numero de variables de
entrada (y por lo tanto el número
de pesos) es grande respecto al
numero de casos de
entrenamiento. Se debe tener una
relación de 10 a 1 del numero de
casos de entrenamiento respecto al
numero de variables de entrada.
OCTUBRE 2002 ESCOM IPN 8
• Cuando las variables de entrada
están altamente correlacionadas
entre si (Multicolinealidad*). Esto
puede causar que los pesos se
hagan extremadamente grandes
• *Multicollinearity: en Estadística
OCTUBRE 2002 ESCOM IPN 9
• La mejor forma de evitar el overfitting es
usar lotes de datos de entrenamiento.
• Por ejemplo ; Tener una relación de 30
veces los casos de entrenamiento respecto
al número de pesos en la red .
• Para datos libres de ruido con una
relación de 5 veces el número de casos de
entrenamiento respecto al numero de pesos
en la red, será suficiente.
OCTUBRE 2002 ESCOM IPN 10
OCTUBRE 2002 ESCOM IPN 11
OCTUBRE 2002 ESCOM IPN 12
Underfitting
• Cuando una red no resulta lo
suficientemente compleja puede fallar en
detectar completamente una señal en un
conjunto de datos complicados.
• El efecto de underfitting produce un
excesivo umbral en las salidas.
OCTUBRE 2002 ESCOM IPN 13
Alternativas para evitar
Underfitting & Overfitting
• a) Selección del modelo
• b) Jittering
• c) Detención temprana
• d) Degradación de Pesos
• e) Aprendizaje Bayesiano
• f) Combinación de Redes
OCTUBRE 2002 ESCOM IPN 14
a) Selección del modelo
• Se relaciona con el número de pesos,
número de neuronas ocultas y numero
de capas. El numero de pesos esta
relacionado con el numero de casos de
entrenamiento. A mayor numero de
pesos mayor numero de caso de
entrenamiento
OCTUBRE 2002 ESCOM IPN 15
b) Jitte ring
(entrenamiento con ruido)
• Es un ruido artificial entregado a las
entradas de forma deliberada durante el
entrenamiento.
• Se puede tomar cualquier caso de
entrenamiento y generar mas casos de
entrenamiento al agregarle pequeñas
cantidades de ruido (Jittering) a las entradas.
OCTUBRE 2002 ESCOM IPN 16
• Demasiado ruido (jitter) producirá
basura.
• Muy poco ruido (jitter) producirá
muy poco efecto.
• Entre mas caso de entrenamiento
se tengan menorruido sera
necesario
OCTUBRE 2002 ESCOM IPN 17
c) “Detención Temprana” o
“Entrenamiento Detenido”
• Se procede de la forma siguiente:
1) Se divide el conjunto de datos
disponible en grupos de
entrenamiento y de validación.
2) Usar un gran numero de unidades
ocultas.
OCTUBRE 2002 ESCOM IPN 18
3) Usar una razón de aprendizaje
pequeña.
4) Calcular periódicamente la razón
del error de validación durante el
entrenamiento.
5) Detener el entrenamiento cuando
la razón del error de validación
comience a incrementarse (subir).
OCTUBRE 2002 ESCOM IPN 19
Ventajas de la
“Detención Temprana”
• Es un método rápido
• Se puede aplicar exitosamente a redes
donde el numero de pesos excede por
mucho al numero de patrones muestra
• Requiere de una mejor decisión del
usuario: Que proporción de casos de
validación usar.
OCTUBRE 2002 ESCOM IPN 20
Aspectos No resueltos en la
“Detención Temprana”
• Cuantos casos asignar al conjunto de
entrenamiento y al de validación.
• Separar los datos en los dos conjuntos
anteriores de forma aleatorio o por
algún algoritmo sistemático.
• Como decidir cuando el error de
validación comenzó a crecer
OCTUBRE 2002 ESCOM IPN 21
• La alternativa mas segura es entrenar
hasta al convergencia, entonces
regresar hasta la iteración donde se
tuvo el error de validación mas bajo.
OCTUBRE 2002 ESCOM IPN 22
d) Degradación de Pesos
• La degradación de pesos agrega un
termino de penalización a la función de
error.
• Usualmente, la penalización es la
suma cuadrática de los pesos veces
una constante de degradación.
• Penaliza a pesos grandes.
OCTUBRE 2002 ESCOM IPN 23
• El termino de penalización de la
degradación de pesos causa que los pesos
converjan a pequeños valores absolutos.
22
2
cw
w
sum
i
i
i
+
=Donde:
Wi es el i-esimo peso,
C es una constante especificada por el usuario.
Los valores grandes de los pesos pueden
conducir a una varianza excesiva de la salida.
OCTUBRE 2002 ESCOM IPN 24
e) Aprendizaje Bayesiano
• La escuela Bayesiana de estadística esta
basada en un diferente punto de vista de lo
que significa aprender de los datos.
• Típicamente el propósito del entrenamiento
es hacer predicciones de casos futuros, en el
cual únicamente se conozcan las entradas.
Como resultado del entrenamiento se
obtienen un conjunto de pesos.
OCTUBRE 2002 ESCOM IPN 25
• En contraste, en el entrenamiento
bayesiano, el resultado es una distribución
posterior sobre los pesos de la red.
• Si las entradas a la red son ajustadas a los
valores de un nuevo caso, la distribución
posterior de los pesos de la red dará un
incremento en la distribución de las salidas
en la red, lo que se conoce como
distribución predictiva.
• El método Bayesianos se aplica
principalmente a otros tipos de redes:
RBFN, y Maquina de Bolzmann.
OCTUBRE 2002 ESCOM IPN 26
f) Combinación de Redes
• Estos métodos son actualmente
objeto de investigación activa.
• Boosting: remedio para
underfitting
• Bagging: remedio para overfitting
o inestabilidad.
OCTUBRE 2002 ESCOM IPN 27
Dudas ???
OCTUBRE 2002 ESCOM IPN 28
Hasta la próxima !!!

Más contenido relacionado

Destacado

Clips parte4 resumen
Clips parte4 resumenClips parte4 resumen
Clips parte4 resumen
norma8avila
 
1. introduccion 1x
1. introduccion 1x1. introduccion 1x
1. introduccion 1x
norma8avila
 
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTESPANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
ESCOM
 
2. introduccion 2x
2. introduccion 2x2. introduccion 2x
2. introduccion 2x
norma8avila
 
1. sistemas computacionales parte1
1. sistemas computacionales parte11. sistemas computacionales parte1
1. sistemas computacionales parte1
norma8avila
 
Algoritmos Genéticos
Algoritmos GenéticosAlgoritmos Genéticos
Algoritmos Genéticos
ESCOM
 
5. repres e infer parte2
5. repres e infer parte25. repres e infer parte2
5. repres e infer parte2
norma8avila
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Reglas y hechos IA
Reglas y hechos IAReglas y hechos IA
Reglas y hechos IA
Luis Álamo
 

Destacado (20)

Clips parte4 resumen
Clips parte4 resumenClips parte4 resumen
Clips parte4 resumen
 
6. repres e infer parte3
6. repres e infer parte36. repres e infer parte3
6. repres e infer parte3
 
1. introduccion 1x
1. introduccion 1x1. introduccion 1x
1. introduccion 1x
 
5. introduccion parte 4
5. introduccion parte 45. introduccion parte 4
5. introduccion parte 4
 
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTESPANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
 
2. introduccion 2x
2. introduccion 2x2. introduccion 2x
2. introduccion 2x
 
1. sistemas computacionales parte1
1. sistemas computacionales parte11. sistemas computacionales parte1
1. sistemas computacionales parte1
 
Ing. sist. basados conocimient ox
Ing. sist. basados conocimient oxIng. sist. basados conocimient ox
Ing. sist. basados conocimient ox
 
Algoritmos Genéticos
Algoritmos GenéticosAlgoritmos Genéticos
Algoritmos Genéticos
 
4. repres e infer parte1
4. repres e infer parte14. repres e infer parte1
4. repres e infer parte1
 
5. repres e infer parte2
5. repres e infer parte25. repres e infer parte2
5. repres e infer parte2
 
Patio 77
Patio 77Patio 77
Patio 77
 
4. introducciónx
4. introducciónx4. introducciónx
4. introducciónx
 
4. aprendizaje
4. aprendizaje4. aprendizaje
4. aprendizaje
 
0. reglas del juego
0. reglas del juego0. reglas del juego
0. reglas del juego
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
7. repres e infer parte4
7. repres e infer parte47. repres e infer parte4
7. repres e infer parte4
 
4. aprendizaje
4. aprendizaje4. aprendizaje
4. aprendizaje
 
Reglas y hechos IA
Reglas y hechos IAReglas y hechos IA
Reglas y hechos IA
 
5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]
 

Similar a REDES NEURONALES ENTRENAMIENTO Efectos No Deseados

Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
ESCOM
 
Diseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales ArtificialesDiseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales Artificiales
ESCOM
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagation
jcbp_peru
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Implementación de un módulo para el entrenamiento y evaluación de redes neuro...
Implementación de un módulo para el entrenamiento y evaluación de redes neuro...Implementación de un módulo para el entrenamiento y evaluación de redes neuro...
Implementación de un módulo para el entrenamiento y evaluación de redes neuro...
Adrián Palacios Corella
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
jcbenitezp
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
jcbp_peru
 
Deteccion de esquema de modulacion qam en sistemas de transmision dvb c
Deteccion de esquema de modulacion qam en sistemas de transmision dvb cDeteccion de esquema de modulacion qam en sistemas de transmision dvb c
Deteccion de esquema de modulacion qam en sistemas de transmision dvb c
Mao Herrera
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
jcbp_peru
 

Similar a REDES NEURONALES ENTRENAMIENTO Efectos No Deseados (20)

Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Diseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales ArtificialesDiseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagation
 
Presentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaPresentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática Valencia
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
Deep Learning Notes
Deep Learning NotesDeep Learning Notes
Deep Learning Notes
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Implementación de un módulo para el entrenamiento y evaluación de redes neuro...
Implementación de un módulo para el entrenamiento y evaluación de redes neuro...Implementación de un módulo para el entrenamiento y evaluación de redes neuro...
Implementación de un módulo para el entrenamiento y evaluación de redes neuro...
 
Actividad no9. 1er parcial lema evelyn
Actividad no9. 1er parcial lema evelynActividad no9. 1er parcial lema evelyn
Actividad no9. 1er parcial lema evelyn
 
Report erikk
Report erikkReport erikk
Report erikk
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Deteccion de esquema de modulacion qam en sistemas de transmision dvb c
Deteccion de esquema de modulacion qam en sistemas de transmision dvb cDeteccion de esquema de modulacion qam en sistemas de transmision dvb c
Deteccion de esquema de modulacion qam en sistemas de transmision dvb c
 
Presentacion inteligencia artificial tecnologica futurista azul y violeta.pptx
Presentacion inteligencia artificial tecnologica futurista azul y violeta.pptxPresentacion inteligencia artificial tecnologica futurista azul y violeta.pptx
Presentacion inteligencia artificial tecnologica futurista azul y violeta.pptx
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Certificacion de cableado
Certificacion de cableadoCertificacion de cableado
Certificacion de cableado
 

Más de ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
ESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
ESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
ESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
ESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
ESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
ESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
ESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
ESCOM
 
Art2
Art2Art2
Art2
ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
ESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
ESCOM
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
ESCOM
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
ESCOM
 

Más de ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
 

Último

🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
EliaHernndez7
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
RigoTito
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
El Fortí
 

Último (20)

Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativa
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
 
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literario
 
Unidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la InvestigaciónUnidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la Investigación
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 
Supuestos_prácticos_funciones.docx
Supuestos_prácticos_funciones.docxSupuestos_prácticos_funciones.docx
Supuestos_prácticos_funciones.docx
 
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdfTema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
 
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJOACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VS
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VSSEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VS
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VS
 
Interpretación de cortes geológicos 2024
Interpretación de cortes geológicos 2024Interpretación de cortes geológicos 2024
Interpretación de cortes geológicos 2024
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptx
 
Tema 11. Dinámica de la hidrosfera 2024
Tema 11.  Dinámica de la hidrosfera 2024Tema 11.  Dinámica de la hidrosfera 2024
Tema 11. Dinámica de la hidrosfera 2024
 
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
 

REDES NEURONALES ENTRENAMIENTO Efectos No Deseados

  • 1. OCTUBRE 2002 ESCOM IPN 1 *** Efectos No Deseables enel Entrenamiento ***
  • 2. OCTUBRE 2002 ESCOM IPN 2 • El uso de muchas neuronas ocultas pueden causar overfitting. • Esto es que en vez de que se aprenda patrones generales necesario para producir una decisión correcta. La red se enfoca excesivamente en idiosincrasias de ejemplos individuales. Particulariza.
  • 3. OCTUBRE 2002 ESCOM IPN 3 • La calidad de la red a menudo alcanza un pico conforme el entrenamiento progresa y entonces se deteriora • Reducir el numero de neuronas ocultas a tal punto que la red no tenga la capacidad de aprender idiosincrasias, o bien incremente el tamaño y la variedad del conjunto de entrenamiento.
  • 4. OCTUBRE 2002 ESCOM IPN 4 Overfitting • Una red que es demasiado compleja puede seguir el ruido, y no a una señal; produciendo overfitting. • El overfitting puede conducir fácilmente a predicciones que están lejos del rango de los datos de entrenamiento. • También puede producir predicciones extravagantes en Perceptrones Multicapa con datos libres de ruido
  • 6. OCTUBRE 2002 ESCOM IPN 6 • El overfitting no esta confinado a redes neuronales con capas ocultas. • El overfitting puede ocurrir en redes sin capas ocultas. • El overfitting puede ocurrir cuando se tienen las siguientes condiciones:
  • 7. OCTUBRE 2002 ESCOM IPN 7 • Cuando el numero de variables de entrada (y por lo tanto el número de pesos) es grande respecto al numero de casos de entrenamiento. Se debe tener una relación de 10 a 1 del numero de casos de entrenamiento respecto al numero de variables de entrada.
  • 8. OCTUBRE 2002 ESCOM IPN 8 • Cuando las variables de entrada están altamente correlacionadas entre si (Multicolinealidad*). Esto puede causar que los pesos se hagan extremadamente grandes • *Multicollinearity: en Estadística
  • 9. OCTUBRE 2002 ESCOM IPN 9 • La mejor forma de evitar el overfitting es usar lotes de datos de entrenamiento. • Por ejemplo ; Tener una relación de 30 veces los casos de entrenamiento respecto al número de pesos en la red . • Para datos libres de ruido con una relación de 5 veces el número de casos de entrenamiento respecto al numero de pesos en la red, será suficiente.
  • 12. OCTUBRE 2002 ESCOM IPN 12 Underfitting • Cuando una red no resulta lo suficientemente compleja puede fallar en detectar completamente una señal en un conjunto de datos complicados. • El efecto de underfitting produce un excesivo umbral en las salidas.
  • 13. OCTUBRE 2002 ESCOM IPN 13 Alternativas para evitar Underfitting & Overfitting • a) Selección del modelo • b) Jittering • c) Detención temprana • d) Degradación de Pesos • e) Aprendizaje Bayesiano • f) Combinación de Redes
  • 14. OCTUBRE 2002 ESCOM IPN 14 a) Selección del modelo • Se relaciona con el número de pesos, número de neuronas ocultas y numero de capas. El numero de pesos esta relacionado con el numero de casos de entrenamiento. A mayor numero de pesos mayor numero de caso de entrenamiento
  • 15. OCTUBRE 2002 ESCOM IPN 15 b) Jitte ring (entrenamiento con ruido) • Es un ruido artificial entregado a las entradas de forma deliberada durante el entrenamiento. • Se puede tomar cualquier caso de entrenamiento y generar mas casos de entrenamiento al agregarle pequeñas cantidades de ruido (Jittering) a las entradas.
  • 16. OCTUBRE 2002 ESCOM IPN 16 • Demasiado ruido (jitter) producirá basura. • Muy poco ruido (jitter) producirá muy poco efecto. • Entre mas caso de entrenamiento se tengan menorruido sera necesario
  • 17. OCTUBRE 2002 ESCOM IPN 17 c) “Detención Temprana” o “Entrenamiento Detenido” • Se procede de la forma siguiente: 1) Se divide el conjunto de datos disponible en grupos de entrenamiento y de validación. 2) Usar un gran numero de unidades ocultas.
  • 18. OCTUBRE 2002 ESCOM IPN 18 3) Usar una razón de aprendizaje pequeña. 4) Calcular periódicamente la razón del error de validación durante el entrenamiento. 5) Detener el entrenamiento cuando la razón del error de validación comience a incrementarse (subir).
  • 19. OCTUBRE 2002 ESCOM IPN 19 Ventajas de la “Detención Temprana” • Es un método rápido • Se puede aplicar exitosamente a redes donde el numero de pesos excede por mucho al numero de patrones muestra • Requiere de una mejor decisión del usuario: Que proporción de casos de validación usar.
  • 20. OCTUBRE 2002 ESCOM IPN 20 Aspectos No resueltos en la “Detención Temprana” • Cuantos casos asignar al conjunto de entrenamiento y al de validación. • Separar los datos en los dos conjuntos anteriores de forma aleatorio o por algún algoritmo sistemático. • Como decidir cuando el error de validación comenzó a crecer
  • 21. OCTUBRE 2002 ESCOM IPN 21 • La alternativa mas segura es entrenar hasta al convergencia, entonces regresar hasta la iteración donde se tuvo el error de validación mas bajo.
  • 22. OCTUBRE 2002 ESCOM IPN 22 d) Degradación de Pesos • La degradación de pesos agrega un termino de penalización a la función de error. • Usualmente, la penalización es la suma cuadrática de los pesos veces una constante de degradación. • Penaliza a pesos grandes.
  • 23. OCTUBRE 2002 ESCOM IPN 23 • El termino de penalización de la degradación de pesos causa que los pesos converjan a pequeños valores absolutos. 22 2 cw w sum i i i + =Donde: Wi es el i-esimo peso, C es una constante especificada por el usuario. Los valores grandes de los pesos pueden conducir a una varianza excesiva de la salida.
  • 24. OCTUBRE 2002 ESCOM IPN 24 e) Aprendizaje Bayesiano • La escuela Bayesiana de estadística esta basada en un diferente punto de vista de lo que significa aprender de los datos. • Típicamente el propósito del entrenamiento es hacer predicciones de casos futuros, en el cual únicamente se conozcan las entradas. Como resultado del entrenamiento se obtienen un conjunto de pesos.
  • 25. OCTUBRE 2002 ESCOM IPN 25 • En contraste, en el entrenamiento bayesiano, el resultado es una distribución posterior sobre los pesos de la red. • Si las entradas a la red son ajustadas a los valores de un nuevo caso, la distribución posterior de los pesos de la red dará un incremento en la distribución de las salidas en la red, lo que se conoce como distribución predictiva. • El método Bayesianos se aplica principalmente a otros tipos de redes: RBFN, y Maquina de Bolzmann.
  • 26. OCTUBRE 2002 ESCOM IPN 26 f) Combinación de Redes • Estos métodos son actualmente objeto de investigación activa. • Boosting: remedio para underfitting • Bagging: remedio para overfitting o inestabilidad.
  • 27. OCTUBRE 2002 ESCOM IPN 27 Dudas ???
  • 28. OCTUBRE 2002 ESCOM IPN 28 Hasta la próxima !!!