SlideShare una empresa de Scribd logo
1 de 43
Descargar para leer sin conexión
Introducción a las Redes Neuronales Artificiales
INTRODUCCIÓN A LAS
REDES NEURONALES Y
SUS APLICACIONES
Introducción a las Redes Neuronales Artificiales
Una red neuronal artificial es una herramienta diseñada para
emular la forma en que el cerebro humano funciona
¿ Cómo funciona el cerebro humano ?
¿ Cómo aprende el ser humano ?
¿ Dónde se guarda el conocimiento ?
¿Por qué es tan eficiente el cerebro humano ?
Introducción
Introducción a las Redes Neuronales Artificiales
El cerebro está compuesto por una gran cantidad de elementos básicos
denominados neuronas
Básicamente las neuronas están formadas por:
• Un cuerpo central o Núcleo
• Un mecanismo de conexión con
otras neuronas (sinapsis):
Axón y dendritas
Introducción
Introducción a las Redes Neuronales Artificiales
http://www.4colorvision.com/pix/pyramidpix.gif
Introducción
Introducción a las Redes Neuronales Artificiales
Los estímulos recibidos en el cerebro son
transmitidos entre las neuronas mediante las
conexiones sinápticas.
Cuando una neurona es estimulada libera una
pequeña cantidad de un componente químico
(neurotransmisor). Este viaja a través del axón
hasta llegar a las dendritas de otras neuronas en las
cuales el proceso se repite.
Este proceso sirve para incrementar o
disminuir la relación entre las neuronas
involucradas en el.
Así, ante un determinado estímulo ciertas
neuronas se activan y otras se inhiben
Introducción
Introducción a las Redes Neuronales Artificiales
Estímulo 1
Respuesta
Estímulo 2
Respuesta
Ejemplo
Introducción
Introducción a las Redes Neuronales Artificiales
Mediante un proceso de aprendizaje se logran establecer los
niveles correctos de activación-inhibición de las neuronas
Cuando este proceso se completa entonces ante determinados
estímulos sabemos como responder y “aprendemos”
El “conocimiento” adquirido está entonces en los niveles de
relación entre las neuronas logrados durante el proceso de
aprendizaje
El cerebro es “entrenado” por repetición de estímulos !
Ejemplo: Los niños !
Introducción
Introducción a las Redes Neuronales Artificiales
Introducción
¿ Cómo puede ser el cerebro tan eficiente ?
Por la enorme cantidad de neuronas (aprox. 100 billones) y
la manera en que están interconectadas (aprox. 60 trillones
de sinapsis)
Por la capacidad de organizarse, construir reglas y aprender
de la experiencia
¿ Qué es y cómo construir una red neuronal artificial?
Introducción a las Redes Neuronales Artificiales
Introducción
Emulando entonces el funcionamiento del cerebro construiremos
redes neuronales artificiales interconectando elementos de
procesamiento más básicos como las neuronas.
Feedforward neural network Kohonen network
Hopfield network
Para entender las redes neuronales artificiales es necesario
entender y modelar las unidades más básicas o neuronas
artificiales
Introducción a las Redes Neuronales Artificiales
Is a massive parallel distributed
processor that has a natural propensity
for storing experimental knowledge and
making available for use (Haykin, 1994)
Redes Neuronales Artificiales
Introducción
Introducción a las Redes Neuronales Artificiales
Beneficios de usar RNA
• Generalización: Capacidad para producir respuestas
razonables a estimulos no presentados durante su
entrenamiento.
• Adaptabilidad: La red puede ser construida para
adaptar sus pesos sinápticos al medio ambiente (re-
entrenar).
• Robusta: Por su caracter distributivo, una red maneja
muy bien daños a su estructura (ruido).
• Complejidad: Puede capturar comportamiento complejo
que no es posible con métodos tradicionales.
• No-paramétrico: No hace suposiciones a priori.
Introducción
Introducción a las Redes Neuronales Artificiales
MODELO DE UNA
NEURONA
Introducción a las Redes Neuronales Artificiales
Modelo de una neurona
Dendritas:
Para recibir el estímulo o
establecer las conexiones
sinápticas
Núcleo:
Para procesar la
información
Axón:
Para enviar la
respuesta
Cada dendrita tendrá un peso jw
para guardar el conocimiento adquirido
Pesos sinápticos:
1w
2w
mw

Introducción a las Redes Neuronales Artificiales
Modelo de una neurona
Los estímulos se consideran vectores
),,,( 21 mxxx 
Cada entrada del vector corresponde a un estímulo o variable en particular de la cual
se tiene cierta cantidad de observaciones o valores.
Cuando se recibe el estímulo, cada entrada de este es multiplicada por el
correspondiente peso sináptico de la dendrita que recibe dicho valor, y luego cada
uno de estos resultados se suman.


m
j
jjmm xwxwxwxw
1
2211 
1x
2x
mx
 
1w
2w
mw
Este valor se considera como el
estímulo que recibe la neurona
Introducción a las Redes Neuronales Artificiales
Modelo de una neurona
El estímulo es procesado en el núcleo mediante la operación
 bWXbxw t
m
j
jj 










1
 Se denomina función de transferencia o activación
b es el parámetro de sesgo o bias
1x
2x
mx
 
1w
2w
mw
  bWXt

Este valor se considera como la
respuesta de la neurona al
estímulo recibido
Introducción a las Redes Neuronales Artificiales
Modelo de una neurona
En conclusión, los parámetros del modelo de una neurona son:
• El conjunto de pesos sinápticos W
• La función de transferencia 
• El parámetro de sesgo b
 WXxwbxw t
m
j
m
j
jjjj  

















   01
Este puede ser considerado como un peso sináptico asociado a
una dendrita que recibe siempre el estímulo 10 x
bw 0













mx
x
X

1
1













mw
w
b
W

1
Introducción a las Redes Neuronales Artificiales
ACERCA DE LA FUNCIÓN
DE ACTIVACIÓN
Introducción a las Redes Neuronales Artificiales
La función de activación
La función de activación se utiliza para limitar el rango de valores de
la respuesta de la neurona.
Generalmente los rangos de valores se limitan a [0,1] o [-1,1], sin
embargo otros rangos son posibles de acuerdo a la aplicación o
problema a resolver.
Existen diversas funciones de activación y la decisión entre una u
otra dependerá nuevamente de la aplicación o problema a resolver.
Existen funciones de activación comúnmente utilizadas y con las
cuales se han obtenido resultados satisfactorios en diversas
aplicaciones.
Introducción a las Redes Neuronales Artificiales
La función de activación
La función Umbral o threshold function
Esta función está definida como






00
01
)(
xsi
xsi
x
La respuesta de la neurona es entonces 1 o 0.
Estos valores se pueden asociar a verdadero o falso y esta condición
dependerá de si
bWX t
 o bWX t

En matlab la función se denomina
hard-limit function
Generalmente se utiliza para establecer criterios de clasificación. Por
ejemplo, 1=Elemento tipo A, 0=Elemento tipo B
Introducción a las Redes Neuronales Artificiales
La función de activación
-1
-1 1
1











1
1
0
W
yxbWXt












y
xX
1
0bWX t
0bWX t
1 =
0 =
Introducción a las Redes Neuronales Artificiales
La función de activación
Ejemplo:














0
1
1
0
X













5.0
1
1
8.0
Westímulo Pesos sinápticos sesgo 1b
Cuál es la respuesta de la neurona si se utiliza la función umbral ?
115.0*01*11*18.0*0 bWX t
  01 
Introducción a las Redes Neuronales Artificiales
La función de activación
La función signo
Esta función está definida como









01
00
01
)(
xsi
xsi
xsi
x
La respuesta de la neurona es entonces -1, 0 o 1.
1

En matlab la función se
denomina hardlimits
-1
Introducción a las Redes Neuronales Artificiales
-1
-1 1
1
0bWX t
0bWX t
yxbWXt

0bWX t
1 =
-1 =
0 =
La función de activación
Introducción a las Redes Neuronales Artificiales
Ejemplo:














0
1
1
0
X













5.0
1
1
8.0
Westímulo Pesos sinápticos sesgo 1b
Cuál es la respuesta de la neurona si se utiliza la función signo ?
115.0*01*11*18.0*0 bWX t
  11 
La función de activación
Introducción a las Redes Neuronales Artificiales
La función logística
Esta función está definida como
 
 x
x




exp1
1
0,  Rx
Es una de las funciones más utilizadas en la construcción de redes neuronales
Es continua a valores en [0, 1] e infinitamente diferenciable
0
0.2
0.4
0.6
0.8
1
1.2
1.4
-10 -5 0 5 10
3
1
3.0
La función de activación
Es la versión continua de la función umbral y se utiliza en problemas de aproximación
En matlab la función se
denomina logsig

Introducción a las Redes Neuronales Artificiales
Ejemplo:














0
1
1
0
X













5.0
1
1
8.0
Westímulo Pesos sinápticos sesgo 1b
Cuál es la respuesta de la neurona si se utiliza la función logística con
parámetro 1 ?
115.0*01*11*18.0*0 bWX t
La función de activación
 
 
2689.0
1exp1
1
1 


Introducción a las Redes Neuronales Artificiales
La función de activación
La función tangente hiperbólica
Esta función está definida como
   
 x
x
xx






exp1
exp1
)2/tanh(
Es la versión continua de la función signo y se usa en problemas de aproximación
Es importante por sus propiedades analíticas
-1.5
-1
-0.5
0
0.5
1
1.5
-10 -5 0 5 10
0,  Rx
3
1
3.0
Es continua a valores en [-1, 1] e infinitamente diferenciable
En matlab la función se
denomina tansig

Introducción a las Redes Neuronales Artificiales
La función de activación
Ejemplo:














0
1
1
0
X













5.0
1
1
8.0
Westímulo Pesos sinápticos sesgo 1b
Cuál es la respuesta de la neurona si se utiliza la función tangente
hiperbólica con parámetro 2 ?
115.0*01*11*18.0*0 bWX t
   
 
76159.0
2exp1
2exp1
1 



Introducción a las Redes Neuronales Artificiales
La función de activación
La función Lineal
Esta función está definida como
  xx 
No limita la respuesta de la neurona
Rx
Se utiliza en problemas de aproximación o estimación lineal
En matlab la función se
denomina purelin

21
1
3
2
3
Introducción a las Redes Neuronales Artificiales
La función de activación
Una regresión lineal simple puede ser vista como la respuesta de una
neurona con función de activación lineal







x
X
1







a
b
W baxWX t

   baxWXt

x
1
a
b
Introducción a las Redes Neuronales Artificiales
La función de activación
La función Lineal acotada
Esta función está definida como
 









1
10
00
1 xsi
xsix
xsi
x

1
1
En matlab la función se
denomina satlin (saturating
linear)
Introducción a las Redes Neuronales Artificiales
La función de activación

1
1
-1
-1
La función Lineal acotada simétrica
Esta función está definida como
 









1
11
11
1 xsi
xsix
xsi
x
En matlab la función se
denomina satlins (symmetric
saturating linear
Introducción a las Redes Neuronales Artificiales
La función de activación
115.0*01*11*18.0*0 bWX t
Función de activación Respuesta
Estímulo
Umbral o threshold 0
Signo -1
logística 0.2689
Tangente Hiperbólica -0.76159
Lineal
Lineal Acotada Simétrica
Lineal Acotada
-1
0
-1
La escogencia de la función de activación depende de la
aplicación o problema a resolver !
Introducción a las Redes Neuronales Artificiales
ACERCA DE LOS PESOS
SINÁPTICOS

1w
2w
mw

Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos
Recordemos que los pesos sinápticos sirven para guardar el
conocimiento adquirido.
En analogía con el funcionamiento del cerebro, los valores de los
pesos sinápticos se obtienen mediante un proceso de aprendizaje.
Este proceso de aprendizaje puede ser dividido en: Paradigmas de
aprendizaje y algoritmos de entrenamiento.
• Paradigmas de aprendizaje
Corresponden a la manera en que la red neuronal interactúa o se
relaciona con el ambiente en el cual opera. Básicamente existen 2
tipos de paradigmas:
Aprendizaje supervisado (Supervised learning)
Aprendizaje no supervisado (Non supervised learning)
Introducción a las Redes Neuronales Artificiales
Son técnicas matemáticas o heurísticas bien establecidas a través de
los cuales se obtienen los valores de los pesos sinápticos y el
parámetro de sesgo. Estos algoritmos NO modifican la función de
activación elegida para el modelo de red neuronal que se entrena.
• Algoritmos de entrenamiento
y se diferencian uno de otro en la forma en que dicha corrección es
obtenida
Los pesos sinápticos
Existen una amplia variedad de algoritmos de entrenamiento cada cual
con sus fortalezas y debilidades.
WWW  viejonuevo
Lo que hacen es modificar los pesos sinápticos utilizando el valor
anterior de este mas un factor de corrección
Distintos paradigmas de aprendizaje junto con distintos algoritmos de
entrenamiento producen diversas redes neuronales
Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos
Existen muchos algoritmos de entrenamiento, algunos de los cuales
se mencionan aqui:
•Error correction learning or delta rule: es un aprendizaje supervisado,
en donde se usa el error obtenido en la presentación del estímulo para
determinar el factor de corrección.
•Competitive learning: las neuronas compiten entre si para hacerse activas
estableciendo. Solo una se activa a la vez (especialización).
•Hebbian learning: correlaciona la actividad pre y post sináptica (si ambas
neuronas se activan se fortalece la conexión y se debilita en caso contrario).
Aquí el factor de corrección es multiplicativo entre la actividad pre y post
sináptica.
•Memory Based learning: la red almacena data ya procesada en memoria. Un
nuevo patrón es procesado según su cercanía (en sentido euclideo) a un patrón
en memoria.
Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos
Error correction learning or delta rule
Se utiliza bajo un paradigma de entrenamiento supervisado.
La respuesta de la red neuronal se compara con la respuesta
deseada y el error cometido se utiliza para modificar los pesos
sinápticos
1x
2x
mx
 
1kw
2kw
kmw
   jkjkk xwY 
Neuron k
        jkkjkj xeww 1
 = Constante de aprendizaje
 kkk Yde Error cometido
kjw
Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos
Hebbian learning or activity product rule
Es el postulado de entrenamiento más antiguo y se basa en consideraciones
desarrolladas por Hebb, D.O (1949) en su libro The organization of behavior: A
neuropsychological theory
El postulado de Hebb establece que:
Cuando dos neuronas conectadas (sinápsis) se activan
simultáneamente, la relación entre estas se fortalece. En caso
contrario, la relación se debilita o es eliminada.
La formulación matemática apropiada es establecer entonces la correlación
entre el estimulo de entrada y la respuesta a dicho estímulo y utilizar esta
información para actualizar el valor de los pesos sinápticos
        jkkjkj xyww 1
kjw
jx
kY
kjw
Neuron k
Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos
Competitive Learning
En este tipo de algoritmos se establece un mecanismo de competencia
entre las neuronas y la respuesta de la red ante un determinado estímulo
proviene exclusivamente de la neurona ganadora
 tX Es esta característica la que hace que
este tipo de algoritmos sean apropiados
para descubrir patrones en un conjunto
de datos y que por lo tanto sean usados
para clasificación
         ][1 tWtXttWtW jjj  
kjw
Introducción a las Redes Neuronales Artificiales
• En este tipo de entrenamiento las experiencias pasadas están
almacenadas en la “memoria” de ejemplos que han sido clasificados
correctamente.
• En este tipo de entrenamiento un nuevo patrón de entrada es
comparado con k patrones cercanos (concepto de vecindad) y luego es
asignado la clasificación más frecuente en la vecindad.
Las RBF utilizan este tipo de postulado en su entrenamiento, al igual que
las redes SOM
Distancias
• Euclidea : ||x-y||
• Producto interno : xt*y
Los pesos sinápticos
Memory based learning
x
y
||x-y||
xTy
Introducción a las Redes Neuronales Artificiales
Arquitecturas
• Una capa, feedforward
• Multicapa feedforward
• Redes recurrentes
Arquitecturas
Introducción a las Redes Neuronales Artificiales
Qué tipos de problemas se pueden resolver?
• Asociación de patrones: escritura. La red es presentada con
muchos ejemplos de un patron hasta “guardar” el patron, luego al
ser presentado una versión con ruido esta es capaz de reconocer el
patrón.
• Clasificación: una la red es entrenada con ejemplos de clasificación
conocida.
• Aproximación de funciones. Identificación, problemas inversos.
• Control: se conoce una señal de referencia y el objetivo es ajustar
los parámetros libres para seguir la salida deseada.
• Filtro: son útiles en predicciones.
Problemas

Más contenido relacionado

La actualidad más candente

REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBREDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBESCOM
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINRossy Faican Cango
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Raul
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
 
Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinDiego Guamán
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Juan Carlos Gonzalez Ortiz
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoESCOM
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A daniatacho
 
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Henry Quezada
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de AprendizajeESCOM
 
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Diego Paúl Cuenca Quezada
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 

La actualidad más candente (20)

Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBREDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELIN
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig
 
Rn
RnRn
Rn
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 
Rna10
Rna10Rna10
Rna10
 
Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y Purelin
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
 
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
 
REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 

Destacado

Destacado (7)

Typical food from Murcia(Colegio Antonio de Nebrija)
Typical food from Murcia(Colegio Antonio de Nebrija)Typical food from Murcia(Colegio Antonio de Nebrija)
Typical food from Murcia(Colegio Antonio de Nebrija)
 
Prezentacja 1
Prezentacja 1Prezentacja 1
Prezentacja 1
 
Mow presentation
Mow presentationMow presentation
Mow presentation
 
A welsh school
A welsh schoolA welsh school
A welsh school
 
Our home (Colegio Antonio de Nebrija)
Our home (Colegio Antonio de Nebrija)Our home (Colegio Antonio de Nebrija)
Our home (Colegio Antonio de Nebrija)
 
Wales village
Wales villageWales village
Wales village
 
Tamara montoya 1º ESO B
Tamara montoya 1º ESO BTamara montoya 1º ESO B
Tamara montoya 1º ESO B
 

Similar a Intro redes neuronales

Overview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsOverview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsRamiro Aduviri Velasco
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturasJhonatan Navarro
 
Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2UNEFA
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
Especializacion Ii Redes Neuronales Artificiales
Especializacion Ii  Redes Neuronales ArtificialesEspecializacion Ii  Redes Neuronales Artificiales
Especializacion Ii Redes Neuronales Artificialesjose haar
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesjjjss
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronaleslennydan11
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansigVanee2014
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal ArtificialJORGE ARMANDO
 

Similar a Intro redes neuronales (20)

Overview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsOverview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its Applications
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
Presentación redes neuronales
Presentación redes neuronalesPresentación redes neuronales
Presentación redes neuronales
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
 
Funciones poslin y purelin
Funciones poslin y purelinFunciones poslin y purelin
Funciones poslin y purelin
 
presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturas
 
Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Especializacion Ii Redes Neuronales Artificiales
Especializacion Ii  Redes Neuronales ArtificialesEspecializacion Ii  Redes Neuronales Artificiales
Especializacion Ii Redes Neuronales Artificiales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Tema3dm
Tema3dmTema3dm
Tema3dm
 
110641.ppt
110641.ppt110641.ppt
110641.ppt
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal Artificial
 

Último

Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptELENA GALLARDO PAÚLS
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPELaura Chacón
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscaeliseo91
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para eventoDiegoMtsS
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosCesarFernandez937857
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticosisabeltrejoros
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinavergarakarina022
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxinformacionasapespu
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIACarlos Campaña Montenegro
 

Último (20)

Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPE
 
Razonamiento Matemático 1. Deta del año 2020
Razonamiento Matemático 1. Deta del año 2020Razonamiento Matemático 1. Deta del año 2020
Razonamiento Matemático 1. Deta del año 2020
 
La Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdfLa Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdf
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fisca
 
programa dia de las madres 10 de mayo para evento
programa dia de las madres 10 de mayo  para eventoprograma dia de las madres 10 de mayo  para evento
programa dia de las madres 10 de mayo para evento
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos Básicos
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticos
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karina
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
 

Intro redes neuronales

  • 1. Introducción a las Redes Neuronales Artificiales INTRODUCCIÓN A LAS REDES NEURONALES Y SUS APLICACIONES
  • 2. Introducción a las Redes Neuronales Artificiales Una red neuronal artificial es una herramienta diseñada para emular la forma en que el cerebro humano funciona ¿ Cómo funciona el cerebro humano ? ¿ Cómo aprende el ser humano ? ¿ Dónde se guarda el conocimiento ? ¿Por qué es tan eficiente el cerebro humano ? Introducción
  • 3. Introducción a las Redes Neuronales Artificiales El cerebro está compuesto por una gran cantidad de elementos básicos denominados neuronas Básicamente las neuronas están formadas por: • Un cuerpo central o Núcleo • Un mecanismo de conexión con otras neuronas (sinapsis): Axón y dendritas Introducción
  • 4. Introducción a las Redes Neuronales Artificiales http://www.4colorvision.com/pix/pyramidpix.gif Introducción
  • 5. Introducción a las Redes Neuronales Artificiales Los estímulos recibidos en el cerebro son transmitidos entre las neuronas mediante las conexiones sinápticas. Cuando una neurona es estimulada libera una pequeña cantidad de un componente químico (neurotransmisor). Este viaja a través del axón hasta llegar a las dendritas de otras neuronas en las cuales el proceso se repite. Este proceso sirve para incrementar o disminuir la relación entre las neuronas involucradas en el. Así, ante un determinado estímulo ciertas neuronas se activan y otras se inhiben Introducción
  • 6. Introducción a las Redes Neuronales Artificiales Estímulo 1 Respuesta Estímulo 2 Respuesta Ejemplo Introducción
  • 7. Introducción a las Redes Neuronales Artificiales Mediante un proceso de aprendizaje se logran establecer los niveles correctos de activación-inhibición de las neuronas Cuando este proceso se completa entonces ante determinados estímulos sabemos como responder y “aprendemos” El “conocimiento” adquirido está entonces en los niveles de relación entre las neuronas logrados durante el proceso de aprendizaje El cerebro es “entrenado” por repetición de estímulos ! Ejemplo: Los niños ! Introducción
  • 8. Introducción a las Redes Neuronales Artificiales Introducción ¿ Cómo puede ser el cerebro tan eficiente ? Por la enorme cantidad de neuronas (aprox. 100 billones) y la manera en que están interconectadas (aprox. 60 trillones de sinapsis) Por la capacidad de organizarse, construir reglas y aprender de la experiencia ¿ Qué es y cómo construir una red neuronal artificial?
  • 9. Introducción a las Redes Neuronales Artificiales Introducción Emulando entonces el funcionamiento del cerebro construiremos redes neuronales artificiales interconectando elementos de procesamiento más básicos como las neuronas. Feedforward neural network Kohonen network Hopfield network Para entender las redes neuronales artificiales es necesario entender y modelar las unidades más básicas o neuronas artificiales
  • 10. Introducción a las Redes Neuronales Artificiales Is a massive parallel distributed processor that has a natural propensity for storing experimental knowledge and making available for use (Haykin, 1994) Redes Neuronales Artificiales Introducción
  • 11. Introducción a las Redes Neuronales Artificiales Beneficios de usar RNA • Generalización: Capacidad para producir respuestas razonables a estimulos no presentados durante su entrenamiento. • Adaptabilidad: La red puede ser construida para adaptar sus pesos sinápticos al medio ambiente (re- entrenar). • Robusta: Por su caracter distributivo, una red maneja muy bien daños a su estructura (ruido). • Complejidad: Puede capturar comportamiento complejo que no es posible con métodos tradicionales. • No-paramétrico: No hace suposiciones a priori. Introducción
  • 12. Introducción a las Redes Neuronales Artificiales MODELO DE UNA NEURONA
  • 13. Introducción a las Redes Neuronales Artificiales Modelo de una neurona Dendritas: Para recibir el estímulo o establecer las conexiones sinápticas Núcleo: Para procesar la información Axón: Para enviar la respuesta Cada dendrita tendrá un peso jw para guardar el conocimiento adquirido Pesos sinápticos: 1w 2w mw 
  • 14. Introducción a las Redes Neuronales Artificiales Modelo de una neurona Los estímulos se consideran vectores ),,,( 21 mxxx  Cada entrada del vector corresponde a un estímulo o variable en particular de la cual se tiene cierta cantidad de observaciones o valores. Cuando se recibe el estímulo, cada entrada de este es multiplicada por el correspondiente peso sináptico de la dendrita que recibe dicho valor, y luego cada uno de estos resultados se suman.   m j jjmm xwxwxwxw 1 2211  1x 2x mx   1w 2w mw Este valor se considera como el estímulo que recibe la neurona
  • 15. Introducción a las Redes Neuronales Artificiales Modelo de una neurona El estímulo es procesado en el núcleo mediante la operación  bWXbxw t m j jj            1  Se denomina función de transferencia o activación b es el parámetro de sesgo o bias 1x 2x mx   1w 2w mw   bWXt  Este valor se considera como la respuesta de la neurona al estímulo recibido
  • 16. Introducción a las Redes Neuronales Artificiales Modelo de una neurona En conclusión, los parámetros del modelo de una neurona son: • El conjunto de pesos sinápticos W • La función de transferencia  • El parámetro de sesgo b  WXxwbxw t m j m j jjjj                       01 Este puede ser considerado como un peso sináptico asociado a una dendrita que recibe siempre el estímulo 10 x bw 0              mx x X  1 1              mw w b W  1
  • 17. Introducción a las Redes Neuronales Artificiales ACERCA DE LA FUNCIÓN DE ACTIVACIÓN
  • 18. Introducción a las Redes Neuronales Artificiales La función de activación La función de activación se utiliza para limitar el rango de valores de la respuesta de la neurona. Generalmente los rangos de valores se limitan a [0,1] o [-1,1], sin embargo otros rangos son posibles de acuerdo a la aplicación o problema a resolver. Existen diversas funciones de activación y la decisión entre una u otra dependerá nuevamente de la aplicación o problema a resolver. Existen funciones de activación comúnmente utilizadas y con las cuales se han obtenido resultados satisfactorios en diversas aplicaciones.
  • 19. Introducción a las Redes Neuronales Artificiales La función de activación La función Umbral o threshold function Esta función está definida como       00 01 )( xsi xsi x La respuesta de la neurona es entonces 1 o 0. Estos valores se pueden asociar a verdadero o falso y esta condición dependerá de si bWX t  o bWX t  En matlab la función se denomina hard-limit function Generalmente se utiliza para establecer criterios de clasificación. Por ejemplo, 1=Elemento tipo A, 0=Elemento tipo B
  • 20. Introducción a las Redes Neuronales Artificiales La función de activación -1 -1 1 1            1 1 0 W yxbWXt             y xX 1 0bWX t 0bWX t 1 = 0 =
  • 21. Introducción a las Redes Neuronales Artificiales La función de activación Ejemplo:               0 1 1 0 X              5.0 1 1 8.0 Westímulo Pesos sinápticos sesgo 1b Cuál es la respuesta de la neurona si se utiliza la función umbral ? 115.0*01*11*18.0*0 bWX t   01 
  • 22. Introducción a las Redes Neuronales Artificiales La función de activación La función signo Esta función está definida como          01 00 01 )( xsi xsi xsi x La respuesta de la neurona es entonces -1, 0 o 1. 1  En matlab la función se denomina hardlimits -1
  • 23. Introducción a las Redes Neuronales Artificiales -1 -1 1 1 0bWX t 0bWX t yxbWXt  0bWX t 1 = -1 = 0 = La función de activación
  • 24. Introducción a las Redes Neuronales Artificiales Ejemplo:               0 1 1 0 X              5.0 1 1 8.0 Westímulo Pesos sinápticos sesgo 1b Cuál es la respuesta de la neurona si se utiliza la función signo ? 115.0*01*11*18.0*0 bWX t   11  La función de activación
  • 25. Introducción a las Redes Neuronales Artificiales La función logística Esta función está definida como    x x     exp1 1 0,  Rx Es una de las funciones más utilizadas en la construcción de redes neuronales Es continua a valores en [0, 1] e infinitamente diferenciable 0 0.2 0.4 0.6 0.8 1 1.2 1.4 -10 -5 0 5 10 3 1 3.0 La función de activación Es la versión continua de la función umbral y se utiliza en problemas de aproximación En matlab la función se denomina logsig 
  • 26. Introducción a las Redes Neuronales Artificiales Ejemplo:               0 1 1 0 X              5.0 1 1 8.0 Westímulo Pesos sinápticos sesgo 1b Cuál es la respuesta de la neurona si se utiliza la función logística con parámetro 1 ? 115.0*01*11*18.0*0 bWX t La función de activación     2689.0 1exp1 1 1   
  • 27. Introducción a las Redes Neuronales Artificiales La función de activación La función tangente hiperbólica Esta función está definida como      x x xx       exp1 exp1 )2/tanh( Es la versión continua de la función signo y se usa en problemas de aproximación Es importante por sus propiedades analíticas -1.5 -1 -0.5 0 0.5 1 1.5 -10 -5 0 5 10 0,  Rx 3 1 3.0 Es continua a valores en [-1, 1] e infinitamente diferenciable En matlab la función se denomina tansig 
  • 28. Introducción a las Redes Neuronales Artificiales La función de activación Ejemplo:               0 1 1 0 X              5.0 1 1 8.0 Westímulo Pesos sinápticos sesgo 1b Cuál es la respuesta de la neurona si se utiliza la función tangente hiperbólica con parámetro 2 ? 115.0*01*11*18.0*0 bWX t       76159.0 2exp1 2exp1 1    
  • 29. Introducción a las Redes Neuronales Artificiales La función de activación La función Lineal Esta función está definida como   xx  No limita la respuesta de la neurona Rx Se utiliza en problemas de aproximación o estimación lineal En matlab la función se denomina purelin  21 1 3 2 3
  • 30. Introducción a las Redes Neuronales Artificiales La función de activación Una regresión lineal simple puede ser vista como la respuesta de una neurona con función de activación lineal        x X 1        a b W baxWX t     baxWXt  x 1 a b
  • 31. Introducción a las Redes Neuronales Artificiales La función de activación La función Lineal acotada Esta función está definida como            1 10 00 1 xsi xsix xsi x  1 1 En matlab la función se denomina satlin (saturating linear)
  • 32. Introducción a las Redes Neuronales Artificiales La función de activación  1 1 -1 -1 La función Lineal acotada simétrica Esta función está definida como            1 11 11 1 xsi xsix xsi x En matlab la función se denomina satlins (symmetric saturating linear
  • 33. Introducción a las Redes Neuronales Artificiales La función de activación 115.0*01*11*18.0*0 bWX t Función de activación Respuesta Estímulo Umbral o threshold 0 Signo -1 logística 0.2689 Tangente Hiperbólica -0.76159 Lineal Lineal Acotada Simétrica Lineal Acotada -1 0 -1 La escogencia de la función de activación depende de la aplicación o problema a resolver !
  • 34. Introducción a las Redes Neuronales Artificiales ACERCA DE LOS PESOS SINÁPTICOS  1w 2w mw 
  • 35. Introducción a las Redes Neuronales Artificiales Los pesos sinápticos Recordemos que los pesos sinápticos sirven para guardar el conocimiento adquirido. En analogía con el funcionamiento del cerebro, los valores de los pesos sinápticos se obtienen mediante un proceso de aprendizaje. Este proceso de aprendizaje puede ser dividido en: Paradigmas de aprendizaje y algoritmos de entrenamiento. • Paradigmas de aprendizaje Corresponden a la manera en que la red neuronal interactúa o se relaciona con el ambiente en el cual opera. Básicamente existen 2 tipos de paradigmas: Aprendizaje supervisado (Supervised learning) Aprendizaje no supervisado (Non supervised learning)
  • 36. Introducción a las Redes Neuronales Artificiales Son técnicas matemáticas o heurísticas bien establecidas a través de los cuales se obtienen los valores de los pesos sinápticos y el parámetro de sesgo. Estos algoritmos NO modifican la función de activación elegida para el modelo de red neuronal que se entrena. • Algoritmos de entrenamiento y se diferencian uno de otro en la forma en que dicha corrección es obtenida Los pesos sinápticos Existen una amplia variedad de algoritmos de entrenamiento cada cual con sus fortalezas y debilidades. WWW  viejonuevo Lo que hacen es modificar los pesos sinápticos utilizando el valor anterior de este mas un factor de corrección Distintos paradigmas de aprendizaje junto con distintos algoritmos de entrenamiento producen diversas redes neuronales
  • 37. Introducción a las Redes Neuronales Artificiales Los pesos sinápticos Existen muchos algoritmos de entrenamiento, algunos de los cuales se mencionan aqui: •Error correction learning or delta rule: es un aprendizaje supervisado, en donde se usa el error obtenido en la presentación del estímulo para determinar el factor de corrección. •Competitive learning: las neuronas compiten entre si para hacerse activas estableciendo. Solo una se activa a la vez (especialización). •Hebbian learning: correlaciona la actividad pre y post sináptica (si ambas neuronas se activan se fortalece la conexión y se debilita en caso contrario). Aquí el factor de corrección es multiplicativo entre la actividad pre y post sináptica. •Memory Based learning: la red almacena data ya procesada en memoria. Un nuevo patrón es procesado según su cercanía (en sentido euclideo) a un patrón en memoria.
  • 38. Introducción a las Redes Neuronales Artificiales Los pesos sinápticos Error correction learning or delta rule Se utiliza bajo un paradigma de entrenamiento supervisado. La respuesta de la red neuronal se compara con la respuesta deseada y el error cometido se utiliza para modificar los pesos sinápticos 1x 2x mx   1kw 2kw kmw    jkjkk xwY  Neuron k         jkkjkj xeww 1  = Constante de aprendizaje  kkk Yde Error cometido kjw
  • 39. Introducción a las Redes Neuronales Artificiales Los pesos sinápticos Hebbian learning or activity product rule Es el postulado de entrenamiento más antiguo y se basa en consideraciones desarrolladas por Hebb, D.O (1949) en su libro The organization of behavior: A neuropsychological theory El postulado de Hebb establece que: Cuando dos neuronas conectadas (sinápsis) se activan simultáneamente, la relación entre estas se fortalece. En caso contrario, la relación se debilita o es eliminada. La formulación matemática apropiada es establecer entonces la correlación entre el estimulo de entrada y la respuesta a dicho estímulo y utilizar esta información para actualizar el valor de los pesos sinápticos         jkkjkj xyww 1 kjw jx kY kjw Neuron k
  • 40. Introducción a las Redes Neuronales Artificiales Los pesos sinápticos Competitive Learning En este tipo de algoritmos se establece un mecanismo de competencia entre las neuronas y la respuesta de la red ante un determinado estímulo proviene exclusivamente de la neurona ganadora  tX Es esta característica la que hace que este tipo de algoritmos sean apropiados para descubrir patrones en un conjunto de datos y que por lo tanto sean usados para clasificación          ][1 tWtXttWtW jjj   kjw
  • 41. Introducción a las Redes Neuronales Artificiales • En este tipo de entrenamiento las experiencias pasadas están almacenadas en la “memoria” de ejemplos que han sido clasificados correctamente. • En este tipo de entrenamiento un nuevo patrón de entrada es comparado con k patrones cercanos (concepto de vecindad) y luego es asignado la clasificación más frecuente en la vecindad. Las RBF utilizan este tipo de postulado en su entrenamiento, al igual que las redes SOM Distancias • Euclidea : ||x-y|| • Producto interno : xt*y Los pesos sinápticos Memory based learning x y ||x-y|| xTy
  • 42. Introducción a las Redes Neuronales Artificiales Arquitecturas • Una capa, feedforward • Multicapa feedforward • Redes recurrentes Arquitecturas
  • 43. Introducción a las Redes Neuronales Artificiales Qué tipos de problemas se pueden resolver? • Asociación de patrones: escritura. La red es presentada con muchos ejemplos de un patron hasta “guardar” el patron, luego al ser presentado una versión con ruido esta es capaz de reconocer el patrón. • Clasificación: una la red es entrenada con ejemplos de clasificación conocida. • Aproximación de funciones. Identificación, problemas inversos. • Control: se conoce una señal de referencia y el objetivo es ajustar los parámetros libres para seguir la salida deseada. • Filtro: son útiles en predicciones. Problemas