SlideShare una empresa de Scribd logo
1 de 24
CIMEPB - Centro de Procesos Básicos, Metodología y Educación
Facultad de Psicología – U.N.M.D.P.
En base a A Practical Guide to Neural Nets
M.Nelson yW.Illingworth
REDES NEURONALES
Dr. Jorge Vivas
El elemento de Proceso Simple (PE)
O NeuronaArtificial
Entradas 1
2 Salida
3
4
A) LOS COMPONENTES BÁSICOS
PE
• Evaluar señales de entrada determinando en “peso” de cada una.
• Calcula el total para cualquier combinación de entradas y lo compara
para cualquier nivel.
• Determina que salida debe realizar
1) FUNCIONES
(3 de las 150 funciones reales)
• Las E ingresan simultáneamente al PE. De acuerdo a un
umbral la neurona “dispara o no” una salida. Varias Entradas
una sola Salida.
• Algunas Redes aceptan la inclusión de mecanismos para
otras influencias distintas de las Entradas.
• Estos extra-inputs se llaman términos de predisposición o
forzamiento. Incluye los de olvido para desaprender.
2) ENTRADAS Y SALIDAS
• Cada Entrada puede tener un Peso relativo que afecta el
impacto como entrada.
• Los Pesos son Coeficientes Adaptativos dentro de la red.
Determinan la intensidad de la Entrada (Fuerza de la
conexión).
• El Peso inicial para un PE puede ser modificado en función
de las E y las propias reglas de modificación de la red.
3) FACTOR PESO
• La Entrada Total en un PE es el producto de dos vectores:
(e1 , e2, e 3 . . . e n) y (P1 , P2, P3 . . . Pn) E1 = e1 * P1 ; E2 = e1 * P1 etc
• La EntradaTotal es el escalar E1 + E2 . . .En.
• Donde: Si los vectores van en el mismo sentido el producto
es el máximo. Si apuntan en sentidos opuestos el producto es
mínimo.
3) FACTOR PESO
• Si ∑ eX * PX es mayor que el umbral entonces genera una
señal de salida.
e1 P1
e2 P2 S= ∑ eX * PX
e3 p3
p4
e4
4) FUNCIONES NEURONALES
a) Función Sumatoria
• El resultado de la ∑ debería ingresar a una Función de Activación
antes que a una función deTransferencia. Esto permite variar la salida en
función del tiempo y la experiencia
e1 P1
e2 P2 S= ∑ eX * PX
e3 p3
p4
e4
4) FUNCIONES NEURONALES
b) Función de Activación
∑ T
• El Umbral o Función de Transferencia es generalmente no
lineal. Las funciones lineales son limitadas y no muy útiles
(x or) para decidir si se prende una célula fotoeléctrica.
• Las Funciones de Transferencia más utilizadas son las
escalonadas, en rampa o las sigmoideas.
• O las decisiones en base a lógica difusa.
4) FUNCIONES NEURONALES
c) Función de Transferencia
1 1
1
-1
X < 0 ^Y = -1 X < 0 ^Y = 0 Y = 1 / (1 + e x
)
X > 0 ^Y = 1 0 ≤ X ≤ 1 ^Y = X
X > 1 ^ Y = 1
4) FUNCIONES NEURONALES
c) Función de Transferencia
5) COMBINANDO ELEMENTOS PEs
• Si se combinan varios PEs da lugar a una “capa”.
• Las entradas se conectan a varios nodos (Pes) con distinto peso. La
salida sigue por un nodo.
• Una Capa
6) COMBINANDO CAPAS
• Se pueden interconectar varias capas. La capa que recibe las
entradas se llama “capa de entrada” y su función es un buffer de
inputs. La “capa de salida” genera los outputs.
• Entre una y otra puede haber n“capas ocultas”.
• Las interconexiones se ponderan por un peso asociado a cada
conexión particular.
• Una red es “full connected”si para cada salida de una capa
existe una conexión para cada nodo de la próxima capa.
6) COMBINANDO CAPAS
7) OPCIONES DE CONECTIVIDAD
• La conectividad alude a como las salidas pueden ser usadas
como canales para ser entradas de otras neuronas:
1. Si la salida de un PE no puede ser entrada de un PE de la misma
capa o de capas precedentes de llama “feedforward”.
2. Si una salida puede ser entrada de su misma capa o de capas
precedentes se llama “feedback”. (Recursivas).
8) FILTROS
• Las capas pueden actuar como filtros generando representaciones
intermedias. Ej. La Matriz de puntos de la letra “A” (5 por 7).
• La salida activa una representación ASCII 0100 0001
. . • . .
. • . • .
• . . . •
• . . . •
• • • • •
• . . . •
• . . . •
B) LOS MECANISMOS BÁSICOS
DE APRENDIZAJE
• La Función deTransferencia se establece en el diseño y no
puede ser modificada durante la ejecución (para cada PE).
• Cada PE puede ajustar su peso dinámicamente
• Cuando muchos PE´s ajustan su peso colectivamente se dice que
la red se ensambla “inteligentemente”.
• Esto se logra por medio de distintos mecanismos de
Aprendizaje
MODOS Y RANGOS DE APRENDIZAJE
 Los Modos aprendizajes pueden ser:
1.Supervisado: Con un tutor que REFUERZA hasta congelar los
pesos.
2.No supervisado: Aprende de detectar regularidades.
Los Rangos de aprendizaje pueden ser:
1.Rápido: Poco training → Discriminación baja.
2.Lento: Mucho training (off line) → Discriminación fina.
El rango es una medida de CONVERGENCIA de la red
TÉCNICAS DE ENTRENAMIENTO
• Las Redes Aprenden la relación entre Entradas y Salidas
“mirando” ejemplos de varias Entradas y Salidas.
• La habilidad para determinar como procesar los datos de
entrada se llama “autoorganización”.
• El proceso por el cual lo logran se denomina “adaptación” o
“aprendizaje”
LEYES DE APRENDIZAJE
Ley de Hebb y Regla Delta
• Ley de Hebb:
Si un PE recibe un input de otro PE y si ambos son altamente
activos (= signo), el peso entre los PE´s debería potenciarse
• Regla DELTA:
Para un PE la regla continuamente modifica el nivel de
discrepancia (DELTA) entre el output deseado y el output real
corriente (Ej.Windrow & Hoff – Adaline)
LEYES DE APRENDIZAJE
Regla del descenso y Kohonen
• Regla del descenso del gradiente:
Los pesos son modificados por un monto proporcional a la primera
derivada del error respecto del peso.
• Ley de Aprendizaje de Kohonen:
Los PE´s compiten entre sí para tener oportunidad de aprendizaje. El PE
con mayor salida se declara “ganador” y obtiene la posibilidad de: 1)
inhibir a los competidores 2) ajustar sus pesos con los de sus vecinos
(aliados).
El ganador se define como quien tienen la mas estrecha coincidencia
con los patrones de entrada. Las leyes Kohonen modelan la distribución
de los inputs.
LEYES DE APRENDIZAJE
Propagacíón hacia atrás
• Aprendizaje Back Propagation (dos fases con 3 o más capas):
1)Fase Forward: El input es propagado hacia la salida. Calcula el
valor del output para cada PE. Se compara con el valor deseado y
se calcula el error.
2)Fase Backward: el error es ejecutado en dirección hacia atrás.
LEYES DE APRENDIZAJE
Red de Grossberg
• Teoría del Refuerzo (Simula Pavlov):
El PE es condicionado para que ciertos inputs trabajen como
REFUERZOS y otros como INHIBIDORES.
La salida se mide por frecuencia más que por intensidad
c) Qué podemos hacer con Redes
Neuronales? Aplicaciones
• Reconocimiento de Caracteres: El reconocimiento de caracteres es cada vez más importante en
nuestra sociedad. Los dispositivos manuales como la Palm Pilot son cada vez más populares. Las
redes neuronales se pueden utilizar para reconocer caracteres manuscritos.
• Medicina: Una de las áreas que ha ganado la atención es el diagnóstico cardiopulmonar. Un
paciente puede tener chequeos regulares en un área particular, aumentando la posibilidad de
detectar una enfermedad o una disfunción. Los datos pueden incluir ritmo cardíaco, la presión
arterial, el ritmo respiratorio, etc. Los modelos pueden incluir variaciones de edad, sexo y
actividad física. Los datos de cada individuo se comparan con los datos anteriores y/o a los datos
de los varios modelos genéricos. Las desviaciones de la norma se comparan a las causas sabidas de
las desviaciones para cada dolencia. La red neuronal puede aprender estudiando las diversas
condiciones y modelos, combinándolos para formar un cuadro conceptual completo y después
diagnostica la condición de un paciente basada sobre los modelos.
• Compresión de imagen: La redes neuronales pueden recibir y procesar extensas cantidades de
información inmediatamente, haciéndolas útiles en la compresión de imagen. Con la explosión del
Internet y más sitios usando más imágenes en sus sitios, las redes son una alternativa eficaz.
c) Qué podemos hacer con Redes
Neuronales? Aplicaciones
• El problema del viajante: Es bastante interesante. Las redes pueden ayudar a resolver estos
problemas de optimización, pero solo hasta cierto grado de aproximación.
• La nariz electrónica: La idea de una nariz química puede parecer un poco absurda, pero tiene
varios usos en el mundo real. La nariz electrónica se compone de un sistema de detección químico
y de una red que reconoce ciertos patrones de productos químicos. Un olor se pasa sobre el arsenal
químico del sensor, se traducen de formato y la red identifica el producto químico.
• Seguridad: Ya de usa el CATCH. U n acrónimo para el seguimiento y caracterización de
homicidios. Aprende sobre un crimen existente, su localización y las características particulares. Se
subdivide en diversas herramientas, que ponen énfasis en una característica o grupo de ellas.
Permite que el usuario quite ciertas características que determine que no tienen relación.
• Predicción de la bolsa: El negocio cotidiano de la bolsa es extremadamente complicado. Muchos
factores pesan para que una acción suba o baje en cualquier momento. Dado que las redes
neuronales pueden examinar mucha información rápidamente y ordenarla, pueden ser utilizadas
para predecir precios de las acciones.

Más contenido relacionado

La actualidad más candente

Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla AprendizajeRoberth Figueroa-Diaz
 
Redes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y KohonenRedes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y KohonenJefferson Guillen
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón MulticapaESCOM
 
El Perceptron simple
El Perceptron simple El Perceptron simple
El Perceptron simple mcastillox
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Tribunal Electoral Provincia de Misiones
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de AprendizajeESCOM
 
Red neuronal kohonen (Clasificación de colores)
Red neuronal kohonen (Clasificación de colores)Red neuronal kohonen (Clasificación de colores)
Red neuronal kohonen (Clasificación de colores)Ferney Hernandez
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna jcbp_peru
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosESCOM
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A daniatacho
 
IRIN clase 140509
IRIN clase 140509IRIN clase 140509
IRIN clase 140509matallanas
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
 

La actualidad más candente (20)

Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
Redes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y KohonenRedes Adeline, Hopfield y Kohonen
Redes Adeline, Hopfield y Kohonen
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
El Perceptron simple
El Perceptron simple El Perceptron simple
El Perceptron simple
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 
Red neuronal kohonen (Clasificación de colores)
Red neuronal kohonen (Clasificación de colores)Red neuronal kohonen (Clasificación de colores)
Red neuronal kohonen (Clasificación de colores)
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
 
IRIN clase 140509
IRIN clase 140509IRIN clase 140509
IRIN clase 140509
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
 

Similar a Redes neuronales

presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturasJhonatan Navarro
 
IA - Redes Neuronales
IA - Redes NeuronalesIA - Redes Neuronales
IA - Redes Neuronalesmartinp
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartifanaisplani
 
Presentación forinvest 2013
Presentación forinvest 2013Presentación forinvest 2013
Presentación forinvest 2013Rankia
 
Manual NeuroSolutions
Manual NeuroSolutionsManual NeuroSolutions
Manual NeuroSolutionsESCOM
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagationjcbp_peru
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronalesLevy GT
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronaleseyyc
 

Similar a Redes neuronales (20)

presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturas
 
2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II
 
IA - Redes Neuronales
IA - Redes NeuronalesIA - Redes Neuronales
IA - Redes Neuronales
 
110641.ppt
110641.ppt110641.ppt
110641.ppt
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartif
 
Presentación forinvest 2013
Presentación forinvest 2013Presentación forinvest 2013
Presentación forinvest 2013
 
Manual NeuroSolutions
Manual NeuroSolutionsManual NeuroSolutions
Manual NeuroSolutions
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagation
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 

Último

FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDUFICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDUgustavorojas179704
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxlclcarmen
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxYeseniaRivera50
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
plan-de-trabajo-colegiado en una institucion educativa
plan-de-trabajo-colegiado en una institucion educativaplan-de-trabajo-colegiado en una institucion educativa
plan-de-trabajo-colegiado en una institucion educativafiorelachuctaya2
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFlor Idalia Espinoza Ortega
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxdanalikcruz2000
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.DaluiMonasterio
 
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxPPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxOscarEduardoSanchezC
 

Último (20)

Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDUFICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
Unidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDIUnidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDI
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
plan-de-trabajo-colegiado en una institucion educativa
plan-de-trabajo-colegiado en una institucion educativaplan-de-trabajo-colegiado en una institucion educativa
plan-de-trabajo-colegiado en una institucion educativa
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamica
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.
 
Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptxPPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
PPT GESTIÓN ESCOLAR 2024 Comités y Compromisos.pptx
 

Redes neuronales

  • 1. CIMEPB - Centro de Procesos Básicos, Metodología y Educación Facultad de Psicología – U.N.M.D.P. En base a A Practical Guide to Neural Nets M.Nelson yW.Illingworth REDES NEURONALES Dr. Jorge Vivas
  • 2. El elemento de Proceso Simple (PE) O NeuronaArtificial Entradas 1 2 Salida 3 4 A) LOS COMPONENTES BÁSICOS PE
  • 3. • Evaluar señales de entrada determinando en “peso” de cada una. • Calcula el total para cualquier combinación de entradas y lo compara para cualquier nivel. • Determina que salida debe realizar 1) FUNCIONES (3 de las 150 funciones reales)
  • 4. • Las E ingresan simultáneamente al PE. De acuerdo a un umbral la neurona “dispara o no” una salida. Varias Entradas una sola Salida. • Algunas Redes aceptan la inclusión de mecanismos para otras influencias distintas de las Entradas. • Estos extra-inputs se llaman términos de predisposición o forzamiento. Incluye los de olvido para desaprender. 2) ENTRADAS Y SALIDAS
  • 5. • Cada Entrada puede tener un Peso relativo que afecta el impacto como entrada. • Los Pesos son Coeficientes Adaptativos dentro de la red. Determinan la intensidad de la Entrada (Fuerza de la conexión). • El Peso inicial para un PE puede ser modificado en función de las E y las propias reglas de modificación de la red. 3) FACTOR PESO
  • 6. • La Entrada Total en un PE es el producto de dos vectores: (e1 , e2, e 3 . . . e n) y (P1 , P2, P3 . . . Pn) E1 = e1 * P1 ; E2 = e1 * P1 etc • La EntradaTotal es el escalar E1 + E2 . . .En. • Donde: Si los vectores van en el mismo sentido el producto es el máximo. Si apuntan en sentidos opuestos el producto es mínimo. 3) FACTOR PESO
  • 7. • Si ∑ eX * PX es mayor que el umbral entonces genera una señal de salida. e1 P1 e2 P2 S= ∑ eX * PX e3 p3 p4 e4 4) FUNCIONES NEURONALES a) Función Sumatoria
  • 8. • El resultado de la ∑ debería ingresar a una Función de Activación antes que a una función deTransferencia. Esto permite variar la salida en función del tiempo y la experiencia e1 P1 e2 P2 S= ∑ eX * PX e3 p3 p4 e4 4) FUNCIONES NEURONALES b) Función de Activación ∑ T
  • 9. • El Umbral o Función de Transferencia es generalmente no lineal. Las funciones lineales son limitadas y no muy útiles (x or) para decidir si se prende una célula fotoeléctrica. • Las Funciones de Transferencia más utilizadas son las escalonadas, en rampa o las sigmoideas. • O las decisiones en base a lógica difusa. 4) FUNCIONES NEURONALES c) Función de Transferencia
  • 10. 1 1 1 -1 X < 0 ^Y = -1 X < 0 ^Y = 0 Y = 1 / (1 + e x ) X > 0 ^Y = 1 0 ≤ X ≤ 1 ^Y = X X > 1 ^ Y = 1 4) FUNCIONES NEURONALES c) Función de Transferencia
  • 11. 5) COMBINANDO ELEMENTOS PEs • Si se combinan varios PEs da lugar a una “capa”. • Las entradas se conectan a varios nodos (Pes) con distinto peso. La salida sigue por un nodo. • Una Capa
  • 12. 6) COMBINANDO CAPAS • Se pueden interconectar varias capas. La capa que recibe las entradas se llama “capa de entrada” y su función es un buffer de inputs. La “capa de salida” genera los outputs. • Entre una y otra puede haber n“capas ocultas”. • Las interconexiones se ponderan por un peso asociado a cada conexión particular. • Una red es “full connected”si para cada salida de una capa existe una conexión para cada nodo de la próxima capa.
  • 14. 7) OPCIONES DE CONECTIVIDAD • La conectividad alude a como las salidas pueden ser usadas como canales para ser entradas de otras neuronas: 1. Si la salida de un PE no puede ser entrada de un PE de la misma capa o de capas precedentes de llama “feedforward”. 2. Si una salida puede ser entrada de su misma capa o de capas precedentes se llama “feedback”. (Recursivas).
  • 15. 8) FILTROS • Las capas pueden actuar como filtros generando representaciones intermedias. Ej. La Matriz de puntos de la letra “A” (5 por 7). • La salida activa una representación ASCII 0100 0001 . . • . . . • . • . • . . . • • . . . • • • • • • • . . . • • . . . •
  • 16. B) LOS MECANISMOS BÁSICOS DE APRENDIZAJE • La Función deTransferencia se establece en el diseño y no puede ser modificada durante la ejecución (para cada PE). • Cada PE puede ajustar su peso dinámicamente • Cuando muchos PE´s ajustan su peso colectivamente se dice que la red se ensambla “inteligentemente”. • Esto se logra por medio de distintos mecanismos de Aprendizaje
  • 17. MODOS Y RANGOS DE APRENDIZAJE  Los Modos aprendizajes pueden ser: 1.Supervisado: Con un tutor que REFUERZA hasta congelar los pesos. 2.No supervisado: Aprende de detectar regularidades. Los Rangos de aprendizaje pueden ser: 1.Rápido: Poco training → Discriminación baja. 2.Lento: Mucho training (off line) → Discriminación fina. El rango es una medida de CONVERGENCIA de la red
  • 18. TÉCNICAS DE ENTRENAMIENTO • Las Redes Aprenden la relación entre Entradas y Salidas “mirando” ejemplos de varias Entradas y Salidas. • La habilidad para determinar como procesar los datos de entrada se llama “autoorganización”. • El proceso por el cual lo logran se denomina “adaptación” o “aprendizaje”
  • 19. LEYES DE APRENDIZAJE Ley de Hebb y Regla Delta • Ley de Hebb: Si un PE recibe un input de otro PE y si ambos son altamente activos (= signo), el peso entre los PE´s debería potenciarse • Regla DELTA: Para un PE la regla continuamente modifica el nivel de discrepancia (DELTA) entre el output deseado y el output real corriente (Ej.Windrow & Hoff – Adaline)
  • 20. LEYES DE APRENDIZAJE Regla del descenso y Kohonen • Regla del descenso del gradiente: Los pesos son modificados por un monto proporcional a la primera derivada del error respecto del peso. • Ley de Aprendizaje de Kohonen: Los PE´s compiten entre sí para tener oportunidad de aprendizaje. El PE con mayor salida se declara “ganador” y obtiene la posibilidad de: 1) inhibir a los competidores 2) ajustar sus pesos con los de sus vecinos (aliados). El ganador se define como quien tienen la mas estrecha coincidencia con los patrones de entrada. Las leyes Kohonen modelan la distribución de los inputs.
  • 21. LEYES DE APRENDIZAJE Propagacíón hacia atrás • Aprendizaje Back Propagation (dos fases con 3 o más capas): 1)Fase Forward: El input es propagado hacia la salida. Calcula el valor del output para cada PE. Se compara con el valor deseado y se calcula el error. 2)Fase Backward: el error es ejecutado en dirección hacia atrás.
  • 22. LEYES DE APRENDIZAJE Red de Grossberg • Teoría del Refuerzo (Simula Pavlov): El PE es condicionado para que ciertos inputs trabajen como REFUERZOS y otros como INHIBIDORES. La salida se mide por frecuencia más que por intensidad
  • 23. c) Qué podemos hacer con Redes Neuronales? Aplicaciones • Reconocimiento de Caracteres: El reconocimiento de caracteres es cada vez más importante en nuestra sociedad. Los dispositivos manuales como la Palm Pilot son cada vez más populares. Las redes neuronales se pueden utilizar para reconocer caracteres manuscritos. • Medicina: Una de las áreas que ha ganado la atención es el diagnóstico cardiopulmonar. Un paciente puede tener chequeos regulares en un área particular, aumentando la posibilidad de detectar una enfermedad o una disfunción. Los datos pueden incluir ritmo cardíaco, la presión arterial, el ritmo respiratorio, etc. Los modelos pueden incluir variaciones de edad, sexo y actividad física. Los datos de cada individuo se comparan con los datos anteriores y/o a los datos de los varios modelos genéricos. Las desviaciones de la norma se comparan a las causas sabidas de las desviaciones para cada dolencia. La red neuronal puede aprender estudiando las diversas condiciones y modelos, combinándolos para formar un cuadro conceptual completo y después diagnostica la condición de un paciente basada sobre los modelos. • Compresión de imagen: La redes neuronales pueden recibir y procesar extensas cantidades de información inmediatamente, haciéndolas útiles en la compresión de imagen. Con la explosión del Internet y más sitios usando más imágenes en sus sitios, las redes son una alternativa eficaz.
  • 24. c) Qué podemos hacer con Redes Neuronales? Aplicaciones • El problema del viajante: Es bastante interesante. Las redes pueden ayudar a resolver estos problemas de optimización, pero solo hasta cierto grado de aproximación. • La nariz electrónica: La idea de una nariz química puede parecer un poco absurda, pero tiene varios usos en el mundo real. La nariz electrónica se compone de un sistema de detección químico y de una red que reconoce ciertos patrones de productos químicos. Un olor se pasa sobre el arsenal químico del sensor, se traducen de formato y la red identifica el producto químico. • Seguridad: Ya de usa el CATCH. U n acrónimo para el seguimiento y caracterización de homicidios. Aprende sobre un crimen existente, su localización y las características particulares. Se subdivide en diversas herramientas, que ponen énfasis en una característica o grupo de ellas. Permite que el usuario quite ciertas características que determine que no tienen relación. • Predicción de la bolsa: El negocio cotidiano de la bolsa es extremadamente complicado. Muchos factores pesan para que una acción suba o baje en cualquier momento. Dado que las redes neuronales pueden examinar mucha información rápidamente y ordenarla, pueden ser utilizadas para predecir precios de las acciones.