SlideShare una empresa de Scribd logo
POSLIN Y PURELIN
Faicán Rosa
Ingeniería en Sistemas
Loayza Freddy
Ingeniería en Sistemas
La utlización de las Funciones de Transferencia dependerá del problema que se trata de resolver
mediante la utilización de la red neuronal, tener un conocimiento claro del funcionamiento de
cada una de estas funciones así como también de los tipos de entrenamiento y los adecuados
para aplicar en la resolución de problemas debido a que existen varias funciones.
Introducción
Presentar soluciones a poblemas de la vida diaria como
lo hace el cerebro humano es una solución que se plantea
dentro del creciente avance tecnológico.
Los ordenadores son capaces de realizar 100 millones de
operaciones en coma flotante por segundo y son capaces de
entender el significado de las formas visuales o de distinguir
entre distintas clases de objetos.
Los sistemas de cómputo son exitosos en la resolución
de problemas matemáticos o científicos, en la creación,
manipulación y mantenimiento de bases de datos, en
comunicaciones electrónicas, en el procesamiento de textos,
gráficos y auto edición, incluso en funciones de control de
electrodomésticos, haciéndolos más eficientes y fáciles de
usar, pero definitivamente tienen una gran incapacidad para
interpretar el mundo.
Esta dificultad de los sistemas de computo ha hecho
que un gran número de investigadores centre su atención
en el desarrollo de nuevos sistemas de tratamiento de la
información, que permitan solucionar problemas cotidianos,
tal como lo hace el cerebro humano.
Redes Neuronales - Historia
Figura 1. Neurona
Fuente: Introducción a Las redes neuronales
Fue en 1943, cuando Warren McCulloch y Walter Pitts
propusieron el clásico modelo de neurona en el que se
basan las redes neuronales actuales. En 1949 en el libro The
Organization of Behavior, se presenta la regla de aprnedizaje
de Donald Hebb.(Tomás, s.f.)
En 1956, se da la primera conferencia sobre Inteligencia
Artificial (IA). se presenta la primera simulación de una
red neuronal, aunque aún no se podían interpretar los datos
resultantes.
En 1957, Frank Rosenblatt presentó el Perceptrón,
una red neuronal con aprendizaje supervisado cuya regla
de aprendizaje era una modificación de la propuesta por
Hebb. Trabaja con patrones de entrada binarios, y su
funcionamiento se realiza en dos fases: una de entradas y la
salidas deseadas.
En 1959, Widrow publica una teoría sobre la adaptación
neuronal y modelos inspirados en esa teoría, el Adaline
(Adaptative Linear Neuron) y el Madaline (Multiple
Adaline) estos modelos fueron usados por primera ves en un
problema real.(Villasana, s.f.)
En los 60, se proponen los modelos supervisados Adaline
Y Madaline.
En 1962, Rosemblatt publica los resultados de un gran
proyecto de investigación, el desarrollo del Perceptrón, un
identificador de patrones ópticos binarios, y salida binaria.
Las capacidades del Perceptrón se extendieron al desarrollar
la regla de aprendizaje Delta, que permitía emplear señales
continuas de entrada y salida.
Stephen Grossberg realiza el proyecto Avalancha el cual
consiste en elementos discretos con actividad que varía
con el tiempo, el cual permitió en su momento el resolver
actividades como reconocimiento continuo del habla y
aprendizaje del movimiento de los dedos de un robot.(Carlos
Pérez Ruiz, s.f.)
Actualmente existen numerosos trabajos que se publican
con cierta frecuencia e igualmente se lanzan al mercado pro-
Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
ductos nuevos tanto de hardware como de software, sobre
todo para simulación y reconocimiento de patrones.
Redes Neuronales Artificiales
Modelos matemáticos, computacionales, artificiales, idea-
les de una red neuronal empleados en estadística, psicología
cognitiva e inteligencia artificial.(Ledesma, s.f.)
Elementos
Figura 2. Elementos de una red neuronales
Fuente: Universidad de Santa María
Redes Lineales
Las caracteristicas del perceptrón son similiares a las
redes lineales, pero su función de transferencia es lineal, no
se limita a las salidas entre 0 y 1.
La clasificación lineal y el Filtramiento Adaptativo se
constituyen como las aplicaciones mas comunes dentro de
las redes lineales.(Navarro, s.f.)
Función de Transferencia
Las entradas a la red serán presentadas en el vector p, que
para el caso de una sola neurona contiene un solo elemento,
w sigue representando los pesos y la nueva entrada b es una
ganancia que refuerza la salida del sumador n, la cual es
la salida neta de la red; la salida total está determinada por
la función de transferencia , la cual puede ser una función
lineal o no lineal de n, y que es escogida dependiendo de
las especificaciones del problema que la neurona tenga que
resolver; aunque las RNA se inspiren en modelos biológicos
no existe ninguna limitación para realizar modificaciones en
las funciones de salida.(Gómez, s.f.)
Si la última capa de la Red Backpropagation tiene
neuronas con funciones sigmoides entonces las salidas de la
Figura 3. Neurona
Fuente: Universidad Tecnológica Nacional
red estarán limitadas en un rango pequeño.
Pero si se utiliza funciones lineales entonces las salidas de
la red podrán tomar valores diferentes.(Palacios, Junio 2000)
Funcion de Activación
Es quizás la característica principal o definitoria de las
neuronas, usándose diferentes tipos de funciones, como
simples funciones de umbral a funciones no lineales.
Encargándose de recalcular el nivel o estado de activación
de la neurona en función de la entrada total.(Araya, s.f.)
Además de otras funciones es necesario tener otras
extensiones que permitan calcular la activación en función
de la entrada total y funciones de salida calculan la salida en
función de la activación.(Crespo, s.f.)
La función de activación calcula la activación de la unidad
en función de la entrada total y la activación previa, aunque
en la mayor parte de los casos es simplemente una función no
decreciente de la entrada total. Los tipos de función más em-
pleados son: la función escalón, función lineal y la función
sigmoidal.(Paredes, s.f.)
Funciones Derivativas de las Funciones de Activación
En Backpropagation es importante poder calcular el
derivado de cualquier función de transferencia utilizada.
Cada una de las funciones como: tangencial, logaritmica y
purelin tienen una funcion derivatica que les corresponde:
dtansig, dlogsig, dpurelin.(Mera, s.f.)
Para obtener la función derivativa asociada a cada función
de transferencia se debe llamar a la función de transferencia
y a la función en Matlab ’deriv’.
Ejemplo:
tansig=’deriv’
ans=dtansig
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
2
Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
Las tres funciones de transferencia descritas anteriormen-
te son usadas normalmente para backpropagation, pero pue-
den crearse otras funciones diferentes y y usarse como back-
propagation si así se desea.(Ojeda, 2007)
Funcion de Activación Positiva Poslin
El algoritmo que utiliza la función de transferencia poslin
retorna la salida n si n es mayor o igual a cero y cero si es
menor o igual a cero.
Figura 4. Poslin
Fuente: Escuela Politécnica Nacional
Figura 5. Función Poslin en Matlab
Fuente: Escuela Politécnica Nacional
Funcion de Activación Purelin
De ves en cuando, el purelin o función de traslado lineal
se usa en redes Backpropagation.
Síntaxis
A=purelin(N,FP)
Donde N es una matriz SxQ de la entrada neta (columna)
vectores y FP es la estructura de la función de parámetros
(ignorada). Y devuelve A, la matriz SxQ de elementos igual
a N.(Collantes, Venezuela 2001)
Figura 6. Purelin
Fuente: Tutorial de redes neuronales Universidad
Tecnológica de Pereira
Donde K es el factor de amplificación en la región lineal
de operación.
La salida de una Función de Transferencia Lineal es igual
a su entrada.
En la gráfica se observa la salida a de la red comparada
con la entrada p más un valor de ganancia b, neuronas
Figura 7. Función Purelin en Matlab
Fuente: Tutorial de redes neuronales Universidad
Tecnológica de Pereira
que emplean está función son utlizadas en la red tipo
Adalin.(Cabrera, Agosto 2007)
Funciones de aprendizaje
Aprendizaje es el proceso por el cuál una red neuronal
aprende y modifica sus pesos con relación a las entradas que
reciben.
Los cambios que suceden en el proceso de aprendizaje
son la modificación, eliminación y creación y concexión
entre neuronas.
Las funciones de aprendizaje son:
1. Supervisado: - Entrada, Salida, Objetivo
A la red se le proporciona un conjunto de ejemplos del
comportamiento propio de la red. Tiene un supervisor
o agente externo, maestro el cual indica que salidas
debe generar la red. (inputs, targets).
a) Correción de error
b) Estocastico
c) por Refuerzo
2. No Supervisado: - Entrada, Salida
Las entradas son las únicas disponibles para el apren-
dizaje, el algoritmo de la red aprende a categorizar las
entradas. (clustering)(Meschino, 2006)
a) Asociativo
b) Competitivo
c) Cooperativo
3. Por Reforzamiento: - Recompensa, Castigo
A la red se proporciona un grado de desempeño de la
misma.
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
3
Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
Algoritmos de entrenamiento implementados por Matlab
Lista que resume las funciones para entrenamiento de re-
des con retro propagación que contiene el ‘Neural Network
Toolbox’ de Matlab:
1. Traingd: Usarse en entrenamiento de modo incremen-
tal.
2. Traingdm: Más rápido que Traingd, modo incremen-
tal.
3. Traingdx: Tasa de aprendizaje adaptativa, usado en
modo de entrenamiento por lotes.
4. Trainrp: Backpropagation flexible, algoritmo de entre-
namiento por lotes.
5. Trainlm: El algoritmo de entrenamiento más rápido
para redes de tamaño moderado.
6. Trainbr: Regularización Bayesiana.
Ejemplo Práctico
El presente ejemplo tiene como objetivo demostrar la
aplicación de las funciones POSLIN y PURELIN a través
del manejo de una interfaz gráfica.
Se muestra un grupo de pantallas en las cuales se describe
los datos a ingresar y las salidas que se tendrán como
resultado a estos ingresos.
Figura 8. Pantalla Principal
En esta pantalla se puede escoger la funciones que se
desea asi como tambien el entrenamiento, se puede ingre-
sar el número de capas, el número de neuronas por capa y el
valor de las entradas.
Se muestra una pantalla con datos ya ingresados asi como
también la respectiva gráfica.
Se muestra la Red Neuronal en báse a los datos anteriormente
ingresados.
Figura 9. Pantalla Principal con Datos
Figura 10. Gráfica de la Red Neuronal
Código en Matlab del ejemplo
AQUI SE SELECCIONA EL TIPO DE ENTRENA-
MIENTO QUE VA A TENER EL EJERCICIO.
function selecTipoEntrenamientCallback(hObject, eventdata, handles)
DENTRO DE ESTAS VARIABLES SE ALMACENA
EL VALOR OBTENIDO DEL COMBO BOX.
val = get(hObject,’Value’); str = get(hObject,’String’);
SE COMPARA EL VALOR, PARA ASIGNAR EL TIPO
DE ENTRENAMIENTO SEGÚN SEA EL CASO.
switch strval
case ’traingd’
handles.currentdat = traingd ;
guidata(hObject, handles);
case traingdx
handles.currentdat = traingdx ;
guidata(hObject, handles);
case trainc
handles.currentdat = trainc ;
guidata(hObject, handles);
end
guidata(hObject, handles);
CAJA DE TEXTO DONDE SE INGRESA EL NÚMERO
DE CAPAS A USAR.
function txtNumCapasCallback(hObject, eventdata, handles)
DENTRO DE ESTA VARIABLE SE ALMACENA EL
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
4
Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
VALOR INGRESADO.
NewStrVal=get(hObject,’String’);
SE TRANSFORMA EL VALOR OBTENIDO DE
STRING A UN VALOR NUMÉRICO
NewVal = str2double(NewStrVal);
SE ALMACENA LOS VALORES TRANSFORMADOS
ANTERIORMENTE COMO PUNTEROS
handles.numcapas=NewVal; guidata(hObject,handles);
CAJA DE TEXTO DONDE SE INGRESA EL NÚMERO
DE NEURONAS POR CAPA.
function txtNumNeuronasCallback(hObject, eventdata, handles)
NewS trVal = get(hObject, S tring );
NewVal = str2double(NewS trVal);
handles.numneuronas = NewVal;
guidata(hObject, handles);
CAJA DE TEXTO DONDE SE INGRESA EL VALOR
DE LAS ENTRADAS.
function txtValorPCallback(hObject, eventdata, handles)
NewS trVal = get(hObject, S tring );
handles.valorP = NewS trVal;
guidata(hObject, handles);
function txtFuncionActivacionCallback(hObject,
eventdata, handles)
NewS trVal = get(hObject, S tring );
handles.FuncionActivacion = NewS trVal;
guidata(hObject, handles);
BOTÓN DONDE SE GRAFICA LA RED NEURONAL
Y SE CALCULA LOS VALORES DEACUERDO A LA
FUNCIÓN DE ACTIVACIÓN
function btnCalculoCallback(hObject, eventdata, handles)
vv = str2num(get(handles.txtValorP,’String’));
aa=length(vv);
disp(aa);
if (a==aa)
CREACIÓN DE LA RED NEURONAL, AQUI SE
DEFINE EN RANGO DE ENTRADA MÁXIMO Y
MÍNIMO, NÚMERO DE NEURONAS POR CAPA, LA
FUNCIÓN DE ACTIVACIÓN SELECCIONADA Y EL
TIPO DE APRENDIZAJE.
net=newff(minmax(vv),handles.nca,
handles.faa,handles.currentdat);
epochs = str2num(get(handles.mni,’String’));
error= str2num(get(handles.txterrorp,’String’));
shows = str2num(get(handles.ivr,’String’));
lr = str2num(get(handles.lr,’String’));
Si se quiere modificar algunos de los parámetros de
entrenamiento predefinidos se hace así.
net.trainParam.show = 500;
net.trainParam.maxf ail = 3;
net.trainParam.lr = lr;
net.trainParam.epochs = epochs;
net.trainParam.goal = error;
a = sim(net, vv);
view(net);
plot(vv);
fff= mat2str(vv);
numCap=str2num(get(handles.txtNumCapas,’String’));
set(handles.txtFunActi,’string’,handles.faa);
set(handles.tipoEntre,’string’,handles.currentdat);
set(handles.txtnumCapasss, string , numCap);
set(handles.txtp, string , f f f);
else
msgbox(’Las Entradas no son iguale a las salidas’,’Error’);
function sliderFuncionActivacionCallback(hObject,
eventdata, handles)
val = get(hObject,’Value’);
str = get(hObject,’String’);
switch strval
case ’poslin’
handles.currentdata = poslin ;
guidata(hObject, handles);
case purelin
handles.currentdata = purelin ;
guidata(hObject, handles);
end
guidata(hObject, handles);
BOTÓN PARA INGRESAR EL NÚMERO DE NEURO-
NAS, SE PRESENTA OTRA PANATALLA.
function btnNumNeurnasCallback(hObject, eventdata, handles)
nueroCapasarreglo=[];
funconActivacionarreglo=;
numCapas=str2num(get(handles.txtNumCapas,’String’));
for cont=1:1: numCapas
entrad=inputdlg(’Numero de neuronas’,’Numero de Neuro-
nas’,1,’0’);
nueroCapasarreglo=[nueroCapasarreglo
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
5
Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz
str2num(entrad1,1)];
funconActivacionarreglo(cont)=handles.currentdata;
end
nueroCapasarreglo;
handles.nca = nueroCapasarreglo;
guidata(hObject, handles);
funconActivacionarreglo;
handles.faa=funconActivacionarreglo;
guidata(hObject,handles);
f= mat2str(nueroCapasarreglo);
set(handles.txtNumNeuronas,’string’,f);
Referencias
Araya, S. (s.f.). ELO 307: Proyecto de Titulación.
Cabrera, S. S. (Agosto 2007). Redes neuronales aplicada a la Esti-
mación de la Probabilidad.
Carlos Pérez Ruiz, B. E. P. (s.f.). Estudio SALCER Inteligencia
Artificial.
Collantes, J. (Venezuela 2001). Predicción con Redes Neuronales.
Crespo, E. Q. (s.f.). DESARROLLO DE UN MODELO PARA LA
LOCALIZACIÓN DE FALLAS EN SISTEMAS DE TRANS-
MISION DE ENERGIA ELECTRICA UTILIZANDO TECNI-
CAS DE INTELIGENCIA ARTIFICIAL.
Gómez, M. D. (s.f.).
Ledesma, D. S. (s.f.). Las Redes Neuronales - Implementación y
consideraciones prácticas.
Mera, O. (s.f.). SISTEMA TRADUCTOR DE LENGUAJE FO-
NÉTICO A LENGUAJE DE SEÑAS A TRAVÉS DE REDES
NEURONALES.
Meschino, G. (2006). Redes Neuronales en Matlab.
Navarro, Y. G. (s.f.). Redes Neuronales Artificiales.
Ojeda, L. R. (2007). Matlab conceptos básicos y programación.
Palacios, F. (Junio 2000). Redes Neuronales Artificiales y Métodos
de Estinación de Funciones.
Paredes, C. (s.f.).
Tomás, V. A. (s.f.). Introducción a las redes neuronales artificiales.
Descargado de http://www.slideshare.net/mentelibre/
introduccion-a-las-redes-neuronales-artificiales
Villasana, M. (s.f.). Introducción a las Redes Neuronales (Neura-
les). Descargado de http://www.mathworks.com/access/
UNIVERSIDAD NACIONAL DE LOJA
fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec
6

Más contenido relacionado

La actualidad más candente

3.PCM Digitalizacion de señal analogica
3.PCM Digitalizacion de señal analogica3.PCM Digitalizacion de señal analogica
3.PCM Digitalizacion de señal analogica
Edison Coimbra G.
 
Circuitos secuenciales sincronos y asincronos
Circuitos secuenciales sincronos y asincronosCircuitos secuenciales sincronos y asincronos
Circuitos secuenciales sincronos y asincronos
Alexa Ramirez
 
Modulación AM - PM - FM
Modulación AM - PM - FMModulación AM - PM - FM
Modulación AM - PM - FM
Manuel Carreño (E.Fortuna, Oteima)
 
Instalacion y mantenimiento de circuitos de transformadores
Instalacion y mantenimiento de circuitos de transformadoresInstalacion y mantenimiento de circuitos de transformadores
Instalacion y mantenimiento de circuitos de transformadores
Juan Simon
 
Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacity
nica2009
 
Señales y sistemas
Señales y sistemasSeñales y sistemas
Señales y sistemas
MateoLeonidez
 
Transformadores ideales
Transformadores idealesTransformadores ideales
Transformadores ideales
Jesús Hinojos
 
Sumador de 2bits
Sumador de 2bitsSumador de 2bits
Sumador de 2bits
Josue Lemon
 
Ensayo Transformada Z
Ensayo Transformada ZEnsayo Transformada Z
Ensayo Transformada Z
antonluis
 
Diagramas de Flujo de Señales
Diagramas de Flujo de SeñalesDiagramas de Flujo de Señales
Diagramas de Flujo de Señales
Jesus Jimenez
 
analisis-y-simulacion-de-sistema-discreto-con-matlab
 analisis-y-simulacion-de-sistema-discreto-con-matlab analisis-y-simulacion-de-sistema-discreto-con-matlab
analisis-y-simulacion-de-sistema-discreto-con-matlab
alvaro valdivia casa
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
ESCOM
 
Lab 1 Medida de Ondas Estacionarias Antenas Dipolo
Lab 1 Medida de Ondas Estacionarias Antenas DipoloLab 1 Medida de Ondas Estacionarias Antenas Dipolo
Lab 1 Medida de Ondas Estacionarias Antenas Dipolo
David Andres Rincon
 
Autómatas de Pila
Autómatas de PilaAutómatas de Pila
Autómatas de Pila
Pablo Guerra
 
Semaforo
SemaforoSemaforo
Semaforo
Franco Snipes
 
4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo
Edison Coimbra G.
 
Sistema de colas mmc
Sistema de colas mmcSistema de colas mmc
Sistema de colas mmc
José Mendoza
 
8 2 convertidor-analogico_-digital
8 2 convertidor-analogico_-digital8 2 convertidor-analogico_-digital
8 2 convertidor-analogico_-digital
Zack Rodriguez Paredes
 
Importancia del sistema digital
Importancia del sistema digitalImportancia del sistema digital
Importancia del sistema digital
salaverriajose
 
Prueba de huecos o de distancia
Prueba de huecos o de distanciaPrueba de huecos o de distancia
Prueba de huecos o de distancia
alejandro02912010
 

La actualidad más candente (20)

3.PCM Digitalizacion de señal analogica
3.PCM Digitalizacion de señal analogica3.PCM Digitalizacion de señal analogica
3.PCM Digitalizacion de señal analogica
 
Circuitos secuenciales sincronos y asincronos
Circuitos secuenciales sincronos y asincronosCircuitos secuenciales sincronos y asincronos
Circuitos secuenciales sincronos y asincronos
 
Modulación AM - PM - FM
Modulación AM - PM - FMModulación AM - PM - FM
Modulación AM - PM - FM
 
Instalacion y mantenimiento de circuitos de transformadores
Instalacion y mantenimiento de circuitos de transformadoresInstalacion y mantenimiento de circuitos de transformadores
Instalacion y mantenimiento de circuitos de transformadores
 
Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacity
 
Señales y sistemas
Señales y sistemasSeñales y sistemas
Señales y sistemas
 
Transformadores ideales
Transformadores idealesTransformadores ideales
Transformadores ideales
 
Sumador de 2bits
Sumador de 2bitsSumador de 2bits
Sumador de 2bits
 
Ensayo Transformada Z
Ensayo Transformada ZEnsayo Transformada Z
Ensayo Transformada Z
 
Diagramas de Flujo de Señales
Diagramas de Flujo de SeñalesDiagramas de Flujo de Señales
Diagramas de Flujo de Señales
 
analisis-y-simulacion-de-sistema-discreto-con-matlab
 analisis-y-simulacion-de-sistema-discreto-con-matlab analisis-y-simulacion-de-sistema-discreto-con-matlab
analisis-y-simulacion-de-sistema-discreto-con-matlab
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
Lab 1 Medida de Ondas Estacionarias Antenas Dipolo
Lab 1 Medida de Ondas Estacionarias Antenas DipoloLab 1 Medida de Ondas Estacionarias Antenas Dipolo
Lab 1 Medida de Ondas Estacionarias Antenas Dipolo
 
Autómatas de Pila
Autómatas de PilaAutómatas de Pila
Autómatas de Pila
 
Semaforo
SemaforoSemaforo
Semaforo
 
4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo
 
Sistema de colas mmc
Sistema de colas mmcSistema de colas mmc
Sistema de colas mmc
 
8 2 convertidor-analogico_-digital
8 2 convertidor-analogico_-digital8 2 convertidor-analogico_-digital
8 2 convertidor-analogico_-digital
 
Importancia del sistema digital
Importancia del sistema digitalImportancia del sistema digital
Importancia del sistema digital
 
Prueba de huecos o de distancia
Prueba de huecos o de distanciaPrueba de huecos o de distancia
Prueba de huecos o de distancia
 

Destacado

Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y Purelin
Diego Guamán
 
Funciones poslin y purelin
Funciones poslin y purelinFunciones poslin y purelin
Funciones poslin y purelin
Noemy Tillaguango
 
Purelin y poslin
Purelin y poslinPurelin y poslin
Purelin y poslin
KathyRamon04
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
Vane Erraez
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
ESCOM
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
jcbenitezp
 
Aprendizaje Asociativo Hebbiano
Aprendizaje Asociativo HebbianoAprendizaje Asociativo Hebbiano
Aprendizaje Asociativo Hebbiano
ESCOM
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
ESCOM
 
IRIN clase 140509
IRIN clase 140509IRIN clase 140509
IRIN clase 140509
matallanas
 

Destacado (9)

Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y Purelin
 
Funciones poslin y purelin
Funciones poslin y purelinFunciones poslin y purelin
Funciones poslin y purelin
 
Purelin y poslin
Purelin y poslinPurelin y poslin
Purelin y poslin
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Aprendizaje Asociativo Hebbiano
Aprendizaje Asociativo HebbianoAprendizaje Asociativo Hebbiano
Aprendizaje Asociativo Hebbiano
 
REDES NEURONALES Aprendizaje Asociativo
REDES NEURONALES Aprendizaje  AsociativoREDES NEURONALES Aprendizaje  Asociativo
REDES NEURONALES Aprendizaje Asociativo
 
IRIN clase 140509
IRIN clase 140509IRIN clase 140509
IRIN clase 140509
 

Similar a Función de Activación POSLIN y PURELIN

Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Sheyli Patiño
 
Funciones_ hardlim_hardlims
Funciones_ hardlim_hardlimsFunciones_ hardlim_hardlims
Funciones_ hardlim_hardlims
Paola Morocho Arévalo
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
Vanee2014
 
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Henry Quezada
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
InnoVacompu
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
lozanolc
 
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Juan Carlos Gonzalez Ortiz
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Ana Mora
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
Noemy Tillaguango
 
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Diego Paúl Cuenca Quezada
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
Luis Álamo
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
Noemy Tillaguango
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
lennydan11
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
lennydan11
 
Slidecats
SlidecatsSlidecats
Slidecats
JannineRamirez
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
Brian Piragauta
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
Jefferson Guillen
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Jhon James Cano
 
Redes neuronales y Computación Móvil
Redes neuronales y Computación MóvilRedes neuronales y Computación Móvil
Redes neuronales y Computación Móvil
VICTOR VIERA BALANTA
 

Similar a Función de Activación POSLIN y PURELIN (20)

Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 
Funciones_ hardlim_hardlims
Funciones_ hardlim_hardlimsFunciones_ hardlim_hardlims
Funciones_ hardlim_hardlims
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
 
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
 
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Slidecats
SlidecatsSlidecats
Slidecats
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales y Computación Móvil
Redes neuronales y Computación MóvilRedes neuronales y Computación Móvil
Redes neuronales y Computación Móvil
 

Último

Focos SSO Fin de Semana del 31 MAYO A al 02 de JUNIO de 2024.pdf
Focos SSO Fin de Semana del 31 MAYO A  al 02 de JUNIO  de 2024.pdfFocos SSO Fin de Semana del 31 MAYO A  al 02 de JUNIO  de 2024.pdf
Focos SSO Fin de Semana del 31 MAYO A al 02 de JUNIO de 2024.pdf
PatoLokooGuevara
 
ilovepdf_merged (2) (1)-4-51.pdfORLANDOMARTIN
ilovepdf_merged (2) (1)-4-51.pdfORLANDOMARTINilovepdf_merged (2) (1)-4-51.pdfORLANDOMARTIN
ilovepdf_merged (2) (1)-4-51.pdfORLANDOMARTIN
OrlandoRomanEcheandi
 
Equipo 4. Mezclado de Polímeros quimica de polimeros.pptx
Equipo 4. Mezclado de Polímeros quimica de polimeros.pptxEquipo 4. Mezclado de Polímeros quimica de polimeros.pptx
Equipo 4. Mezclado de Polímeros quimica de polimeros.pptx
angiepalacios6170
 
GRAFICAS AÑOSsssssssss (2022 - 2023).pdf
GRAFICAS AÑOSsssssssss (2022 - 2023).pdfGRAFICAS AÑOSsssssssss (2022 - 2023).pdf
GRAFICAS AÑOSsssssssss (2022 - 2023).pdf
Jose Calderas
 
Clase de termodinamica sobre cabios de fase
Clase de termodinamica sobre cabios de faseClase de termodinamica sobre cabios de fase
Clase de termodinamica sobre cabios de fase
EmilyLloydCerda
 
Calculo-de-Camaras-Frigorificas.pdf para trabajos
Calculo-de-Camaras-Frigorificas.pdf para trabajosCalculo-de-Camaras-Frigorificas.pdf para trabajos
Calculo-de-Camaras-Frigorificas.pdf para trabajos
JuanCarlos695207
 
DIAGRAMA ELECTRICOS y circuito electrónicos
DIAGRAMA ELECTRICOS y circuito electrónicosDIAGRAMA ELECTRICOS y circuito electrónicos
DIAGRAMA ELECTRICOS y circuito electrónicos
LuisAngelGuarnizoBet
 
COMPARACION DE PRECIOS TENIENDO COMO REFERENTE LA OSCE
COMPARACION DE PRECIOS TENIENDO COMO REFERENTE LA OSCECOMPARACION DE PRECIOS TENIENDO COMO REFERENTE LA OSCE
COMPARACION DE PRECIOS TENIENDO COMO REFERENTE LA OSCE
jhunior lopez rodriguez
 
Infografia - Hugo Hidalgo - Construcción
Infografia - Hugo Hidalgo - ConstrucciónInfografia - Hugo Hidalgo - Construcción
Infografia - Hugo Hidalgo - Construcción
MaraManuelaUrribarri
 
AUTOCAD 2D - UA1 DE NIVEL INTERMEDIO CON
AUTOCAD 2D - UA1 DE NIVEL INTERMEDIO CONAUTOCAD 2D - UA1 DE NIVEL INTERMEDIO CON
AUTOCAD 2D - UA1 DE NIVEL INTERMEDIO CON
FreddyJuniorOrtechoC
 
Taller de Robots Velocistas2 esquema....
Taller de Robots Velocistas2 esquema....Taller de Robots Velocistas2 esquema....
Taller de Robots Velocistas2 esquema....
lawjose243
 
Cuadro sinoptico de clasificacion de las industrias.pdf
Cuadro sinoptico de clasificacion de las industrias.pdfCuadro sinoptico de clasificacion de las industrias.pdf
Cuadro sinoptico de clasificacion de las industrias.pdf
LizetGuadalupeHernan
 
Aletas de Transferencia de Calor o Superficies Extendidas.pdf
Aletas de Transferencia de Calor o Superficies Extendidas.pdfAletas de Transferencia de Calor o Superficies Extendidas.pdf
Aletas de Transferencia de Calor o Superficies Extendidas.pdf
JuanAlbertoLugoMadri
 
INVENTARIO CEROO Y DINAMICAA FABRIL.pptx
INVENTARIO CEROO Y DINAMICAA FABRIL.pptxINVENTARIO CEROO Y DINAMICAA FABRIL.pptx
INVENTARIO CEROO Y DINAMICAA FABRIL.pptx
FernandoRodrigoEscal
 
Sesión 03 universidad cesar vallejo 2024
Sesión 03 universidad cesar vallejo 2024Sesión 03 universidad cesar vallejo 2024
Sesión 03 universidad cesar vallejo 2024
FantasticVideo1
 
Infografia de operaciones basicas de la construccion.pdf
Infografia de operaciones basicas de la construccion.pdfInfografia de operaciones basicas de la construccion.pdf
Infografia de operaciones basicas de la construccion.pdf
DanielMelndez19
 
PRES 3. METROLOGÍA DE GASES Y RADIACIONES IONIZANTES.pptx
PRES 3. METROLOGÍA DE GASES Y RADIACIONES IONIZANTES.pptxPRES 3. METROLOGÍA DE GASES Y RADIACIONES IONIZANTES.pptx
PRES 3. METROLOGÍA DE GASES Y RADIACIONES IONIZANTES.pptx
brandonsinael
 
Infografía de operaciones básicas....pdf
Infografía de operaciones básicas....pdfInfografía de operaciones básicas....pdf
Infografía de operaciones básicas....pdf
jahirrtorresa
 
exposicion sobre los tipos de cortes de rolas para la produccion de chapas
exposicion sobre los tipos de cortes de rolas para la produccion de chapasexposicion sobre los tipos de cortes de rolas para la produccion de chapas
exposicion sobre los tipos de cortes de rolas para la produccion de chapas
raul958375
 
PRIMERA Y SEGUNDA LEY DE LA TERMODINÁMICA
PRIMERA Y SEGUNDA LEY DE LA TERMODINÁMICAPRIMERA Y SEGUNDA LEY DE LA TERMODINÁMICA
PRIMERA Y SEGUNDA LEY DE LA TERMODINÁMICA
carmenquintana18
 

Último (20)

Focos SSO Fin de Semana del 31 MAYO A al 02 de JUNIO de 2024.pdf
Focos SSO Fin de Semana del 31 MAYO A  al 02 de JUNIO  de 2024.pdfFocos SSO Fin de Semana del 31 MAYO A  al 02 de JUNIO  de 2024.pdf
Focos SSO Fin de Semana del 31 MAYO A al 02 de JUNIO de 2024.pdf
 
ilovepdf_merged (2) (1)-4-51.pdfORLANDOMARTIN
ilovepdf_merged (2) (1)-4-51.pdfORLANDOMARTINilovepdf_merged (2) (1)-4-51.pdfORLANDOMARTIN
ilovepdf_merged (2) (1)-4-51.pdfORLANDOMARTIN
 
Equipo 4. Mezclado de Polímeros quimica de polimeros.pptx
Equipo 4. Mezclado de Polímeros quimica de polimeros.pptxEquipo 4. Mezclado de Polímeros quimica de polimeros.pptx
Equipo 4. Mezclado de Polímeros quimica de polimeros.pptx
 
GRAFICAS AÑOSsssssssss (2022 - 2023).pdf
GRAFICAS AÑOSsssssssss (2022 - 2023).pdfGRAFICAS AÑOSsssssssss (2022 - 2023).pdf
GRAFICAS AÑOSsssssssss (2022 - 2023).pdf
 
Clase de termodinamica sobre cabios de fase
Clase de termodinamica sobre cabios de faseClase de termodinamica sobre cabios de fase
Clase de termodinamica sobre cabios de fase
 
Calculo-de-Camaras-Frigorificas.pdf para trabajos
Calculo-de-Camaras-Frigorificas.pdf para trabajosCalculo-de-Camaras-Frigorificas.pdf para trabajos
Calculo-de-Camaras-Frigorificas.pdf para trabajos
 
DIAGRAMA ELECTRICOS y circuito electrónicos
DIAGRAMA ELECTRICOS y circuito electrónicosDIAGRAMA ELECTRICOS y circuito electrónicos
DIAGRAMA ELECTRICOS y circuito electrónicos
 
COMPARACION DE PRECIOS TENIENDO COMO REFERENTE LA OSCE
COMPARACION DE PRECIOS TENIENDO COMO REFERENTE LA OSCECOMPARACION DE PRECIOS TENIENDO COMO REFERENTE LA OSCE
COMPARACION DE PRECIOS TENIENDO COMO REFERENTE LA OSCE
 
Infografia - Hugo Hidalgo - Construcción
Infografia - Hugo Hidalgo - ConstrucciónInfografia - Hugo Hidalgo - Construcción
Infografia - Hugo Hidalgo - Construcción
 
AUTOCAD 2D - UA1 DE NIVEL INTERMEDIO CON
AUTOCAD 2D - UA1 DE NIVEL INTERMEDIO CONAUTOCAD 2D - UA1 DE NIVEL INTERMEDIO CON
AUTOCAD 2D - UA1 DE NIVEL INTERMEDIO CON
 
Taller de Robots Velocistas2 esquema....
Taller de Robots Velocistas2 esquema....Taller de Robots Velocistas2 esquema....
Taller de Robots Velocistas2 esquema....
 
Cuadro sinoptico de clasificacion de las industrias.pdf
Cuadro sinoptico de clasificacion de las industrias.pdfCuadro sinoptico de clasificacion de las industrias.pdf
Cuadro sinoptico de clasificacion de las industrias.pdf
 
Aletas de Transferencia de Calor o Superficies Extendidas.pdf
Aletas de Transferencia de Calor o Superficies Extendidas.pdfAletas de Transferencia de Calor o Superficies Extendidas.pdf
Aletas de Transferencia de Calor o Superficies Extendidas.pdf
 
INVENTARIO CEROO Y DINAMICAA FABRIL.pptx
INVENTARIO CEROO Y DINAMICAA FABRIL.pptxINVENTARIO CEROO Y DINAMICAA FABRIL.pptx
INVENTARIO CEROO Y DINAMICAA FABRIL.pptx
 
Sesión 03 universidad cesar vallejo 2024
Sesión 03 universidad cesar vallejo 2024Sesión 03 universidad cesar vallejo 2024
Sesión 03 universidad cesar vallejo 2024
 
Infografia de operaciones basicas de la construccion.pdf
Infografia de operaciones basicas de la construccion.pdfInfografia de operaciones basicas de la construccion.pdf
Infografia de operaciones basicas de la construccion.pdf
 
PRES 3. METROLOGÍA DE GASES Y RADIACIONES IONIZANTES.pptx
PRES 3. METROLOGÍA DE GASES Y RADIACIONES IONIZANTES.pptxPRES 3. METROLOGÍA DE GASES Y RADIACIONES IONIZANTES.pptx
PRES 3. METROLOGÍA DE GASES Y RADIACIONES IONIZANTES.pptx
 
Infografía de operaciones básicas....pdf
Infografía de operaciones básicas....pdfInfografía de operaciones básicas....pdf
Infografía de operaciones básicas....pdf
 
exposicion sobre los tipos de cortes de rolas para la produccion de chapas
exposicion sobre los tipos de cortes de rolas para la produccion de chapasexposicion sobre los tipos de cortes de rolas para la produccion de chapas
exposicion sobre los tipos de cortes de rolas para la produccion de chapas
 
PRIMERA Y SEGUNDA LEY DE LA TERMODINÁMICA
PRIMERA Y SEGUNDA LEY DE LA TERMODINÁMICAPRIMERA Y SEGUNDA LEY DE LA TERMODINÁMICA
PRIMERA Y SEGUNDA LEY DE LA TERMODINÁMICA
 

Función de Activación POSLIN y PURELIN

  • 1. POSLIN Y PURELIN Faicán Rosa Ingeniería en Sistemas Loayza Freddy Ingeniería en Sistemas La utlización de las Funciones de Transferencia dependerá del problema que se trata de resolver mediante la utilización de la red neuronal, tener un conocimiento claro del funcionamiento de cada una de estas funciones así como también de los tipos de entrenamiento y los adecuados para aplicar en la resolución de problemas debido a que existen varias funciones. Introducción Presentar soluciones a poblemas de la vida diaria como lo hace el cerebro humano es una solución que se plantea dentro del creciente avance tecnológico. Los ordenadores son capaces de realizar 100 millones de operaciones en coma flotante por segundo y son capaces de entender el significado de las formas visuales o de distinguir entre distintas clases de objetos. Los sistemas de cómputo son exitosos en la resolución de problemas matemáticos o científicos, en la creación, manipulación y mantenimiento de bases de datos, en comunicaciones electrónicas, en el procesamiento de textos, gráficos y auto edición, incluso en funciones de control de electrodomésticos, haciéndolos más eficientes y fáciles de usar, pero definitivamente tienen una gran incapacidad para interpretar el mundo. Esta dificultad de los sistemas de computo ha hecho que un gran número de investigadores centre su atención en el desarrollo de nuevos sistemas de tratamiento de la información, que permitan solucionar problemas cotidianos, tal como lo hace el cerebro humano. Redes Neuronales - Historia Figura 1. Neurona Fuente: Introducción a Las redes neuronales Fue en 1943, cuando Warren McCulloch y Walter Pitts propusieron el clásico modelo de neurona en el que se basan las redes neuronales actuales. En 1949 en el libro The Organization of Behavior, se presenta la regla de aprnedizaje de Donald Hebb.(Tomás, s.f.) En 1956, se da la primera conferencia sobre Inteligencia Artificial (IA). se presenta la primera simulación de una red neuronal, aunque aún no se podían interpretar los datos resultantes. En 1957, Frank Rosenblatt presentó el Perceptrón, una red neuronal con aprendizaje supervisado cuya regla de aprendizaje era una modificación de la propuesta por Hebb. Trabaja con patrones de entrada binarios, y su funcionamiento se realiza en dos fases: una de entradas y la salidas deseadas. En 1959, Widrow publica una teoría sobre la adaptación neuronal y modelos inspirados en esa teoría, el Adaline (Adaptative Linear Neuron) y el Madaline (Multiple Adaline) estos modelos fueron usados por primera ves en un problema real.(Villasana, s.f.) En los 60, se proponen los modelos supervisados Adaline Y Madaline. En 1962, Rosemblatt publica los resultados de un gran proyecto de investigación, el desarrollo del Perceptrón, un identificador de patrones ópticos binarios, y salida binaria. Las capacidades del Perceptrón se extendieron al desarrollar la regla de aprendizaje Delta, que permitía emplear señales continuas de entrada y salida. Stephen Grossberg realiza el proyecto Avalancha el cual consiste en elementos discretos con actividad que varía con el tiempo, el cual permitió en su momento el resolver actividades como reconocimiento continuo del habla y aprendizaje del movimiento de los dedos de un robot.(Carlos Pérez Ruiz, s.f.) Actualmente existen numerosos trabajos que se publican con cierta frecuencia e igualmente se lanzan al mercado pro-
  • 2. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz ductos nuevos tanto de hardware como de software, sobre todo para simulación y reconocimiento de patrones. Redes Neuronales Artificiales Modelos matemáticos, computacionales, artificiales, idea- les de una red neuronal empleados en estadística, psicología cognitiva e inteligencia artificial.(Ledesma, s.f.) Elementos Figura 2. Elementos de una red neuronales Fuente: Universidad de Santa María Redes Lineales Las caracteristicas del perceptrón son similiares a las redes lineales, pero su función de transferencia es lineal, no se limita a las salidas entre 0 y 1. La clasificación lineal y el Filtramiento Adaptativo se constituyen como las aplicaciones mas comunes dentro de las redes lineales.(Navarro, s.f.) Función de Transferencia Las entradas a la red serán presentadas en el vector p, que para el caso de una sola neurona contiene un solo elemento, w sigue representando los pesos y la nueva entrada b es una ganancia que refuerza la salida del sumador n, la cual es la salida neta de la red; la salida total está determinada por la función de transferencia , la cual puede ser una función lineal o no lineal de n, y que es escogida dependiendo de las especificaciones del problema que la neurona tenga que resolver; aunque las RNA se inspiren en modelos biológicos no existe ninguna limitación para realizar modificaciones en las funciones de salida.(Gómez, s.f.) Si la última capa de la Red Backpropagation tiene neuronas con funciones sigmoides entonces las salidas de la Figura 3. Neurona Fuente: Universidad Tecnológica Nacional red estarán limitadas en un rango pequeño. Pero si se utiliza funciones lineales entonces las salidas de la red podrán tomar valores diferentes.(Palacios, Junio 2000) Funcion de Activación Es quizás la característica principal o definitoria de las neuronas, usándose diferentes tipos de funciones, como simples funciones de umbral a funciones no lineales. Encargándose de recalcular el nivel o estado de activación de la neurona en función de la entrada total.(Araya, s.f.) Además de otras funciones es necesario tener otras extensiones que permitan calcular la activación en función de la entrada total y funciones de salida calculan la salida en función de la activación.(Crespo, s.f.) La función de activación calcula la activación de la unidad en función de la entrada total y la activación previa, aunque en la mayor parte de los casos es simplemente una función no decreciente de la entrada total. Los tipos de función más em- pleados son: la función escalón, función lineal y la función sigmoidal.(Paredes, s.f.) Funciones Derivativas de las Funciones de Activación En Backpropagation es importante poder calcular el derivado de cualquier función de transferencia utilizada. Cada una de las funciones como: tangencial, logaritmica y purelin tienen una funcion derivatica que les corresponde: dtansig, dlogsig, dpurelin.(Mera, s.f.) Para obtener la función derivativa asociada a cada función de transferencia se debe llamar a la función de transferencia y a la función en Matlab ’deriv’. Ejemplo: tansig=’deriv’ ans=dtansig UNIVERSIDAD NACIONAL DE LOJA fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec 2
  • 3. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz Las tres funciones de transferencia descritas anteriormen- te son usadas normalmente para backpropagation, pero pue- den crearse otras funciones diferentes y y usarse como back- propagation si así se desea.(Ojeda, 2007) Funcion de Activación Positiva Poslin El algoritmo que utiliza la función de transferencia poslin retorna la salida n si n es mayor o igual a cero y cero si es menor o igual a cero. Figura 4. Poslin Fuente: Escuela Politécnica Nacional Figura 5. Función Poslin en Matlab Fuente: Escuela Politécnica Nacional Funcion de Activación Purelin De ves en cuando, el purelin o función de traslado lineal se usa en redes Backpropagation. Síntaxis A=purelin(N,FP) Donde N es una matriz SxQ de la entrada neta (columna) vectores y FP es la estructura de la función de parámetros (ignorada). Y devuelve A, la matriz SxQ de elementos igual a N.(Collantes, Venezuela 2001) Figura 6. Purelin Fuente: Tutorial de redes neuronales Universidad Tecnológica de Pereira Donde K es el factor de amplificación en la región lineal de operación. La salida de una Función de Transferencia Lineal es igual a su entrada. En la gráfica se observa la salida a de la red comparada con la entrada p más un valor de ganancia b, neuronas Figura 7. Función Purelin en Matlab Fuente: Tutorial de redes neuronales Universidad Tecnológica de Pereira que emplean está función son utlizadas en la red tipo Adalin.(Cabrera, Agosto 2007) Funciones de aprendizaje Aprendizaje es el proceso por el cuál una red neuronal aprende y modifica sus pesos con relación a las entradas que reciben. Los cambios que suceden en el proceso de aprendizaje son la modificación, eliminación y creación y concexión entre neuronas. Las funciones de aprendizaje son: 1. Supervisado: - Entrada, Salida, Objetivo A la red se le proporciona un conjunto de ejemplos del comportamiento propio de la red. Tiene un supervisor o agente externo, maestro el cual indica que salidas debe generar la red. (inputs, targets). a) Correción de error b) Estocastico c) por Refuerzo 2. No Supervisado: - Entrada, Salida Las entradas son las únicas disponibles para el apren- dizaje, el algoritmo de la red aprende a categorizar las entradas. (clustering)(Meschino, 2006) a) Asociativo b) Competitivo c) Cooperativo 3. Por Reforzamiento: - Recompensa, Castigo A la red se proporciona un grado de desempeño de la misma. UNIVERSIDAD NACIONAL DE LOJA fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec 3
  • 4. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz Algoritmos de entrenamiento implementados por Matlab Lista que resume las funciones para entrenamiento de re- des con retro propagación que contiene el ‘Neural Network Toolbox’ de Matlab: 1. Traingd: Usarse en entrenamiento de modo incremen- tal. 2. Traingdm: Más rápido que Traingd, modo incremen- tal. 3. Traingdx: Tasa de aprendizaje adaptativa, usado en modo de entrenamiento por lotes. 4. Trainrp: Backpropagation flexible, algoritmo de entre- namiento por lotes. 5. Trainlm: El algoritmo de entrenamiento más rápido para redes de tamaño moderado. 6. Trainbr: Regularización Bayesiana. Ejemplo Práctico El presente ejemplo tiene como objetivo demostrar la aplicación de las funciones POSLIN y PURELIN a través del manejo de una interfaz gráfica. Se muestra un grupo de pantallas en las cuales se describe los datos a ingresar y las salidas que se tendrán como resultado a estos ingresos. Figura 8. Pantalla Principal En esta pantalla se puede escoger la funciones que se desea asi como tambien el entrenamiento, se puede ingre- sar el número de capas, el número de neuronas por capa y el valor de las entradas. Se muestra una pantalla con datos ya ingresados asi como también la respectiva gráfica. Se muestra la Red Neuronal en báse a los datos anteriormente ingresados. Figura 9. Pantalla Principal con Datos Figura 10. Gráfica de la Red Neuronal Código en Matlab del ejemplo AQUI SE SELECCIONA EL TIPO DE ENTRENA- MIENTO QUE VA A TENER EL EJERCICIO. function selecTipoEntrenamientCallback(hObject, eventdata, handles) DENTRO DE ESTAS VARIABLES SE ALMACENA EL VALOR OBTENIDO DEL COMBO BOX. val = get(hObject,’Value’); str = get(hObject,’String’); SE COMPARA EL VALOR, PARA ASIGNAR EL TIPO DE ENTRENAMIENTO SEGÚN SEA EL CASO. switch strval case ’traingd’ handles.currentdat = traingd ; guidata(hObject, handles); case traingdx handles.currentdat = traingdx ; guidata(hObject, handles); case trainc handles.currentdat = trainc ; guidata(hObject, handles); end guidata(hObject, handles); CAJA DE TEXTO DONDE SE INGRESA EL NÚMERO DE CAPAS A USAR. function txtNumCapasCallback(hObject, eventdata, handles) DENTRO DE ESTA VARIABLE SE ALMACENA EL UNIVERSIDAD NACIONAL DE LOJA fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec 4
  • 5. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz VALOR INGRESADO. NewStrVal=get(hObject,’String’); SE TRANSFORMA EL VALOR OBTENIDO DE STRING A UN VALOR NUMÉRICO NewVal = str2double(NewStrVal); SE ALMACENA LOS VALORES TRANSFORMADOS ANTERIORMENTE COMO PUNTEROS handles.numcapas=NewVal; guidata(hObject,handles); CAJA DE TEXTO DONDE SE INGRESA EL NÚMERO DE NEURONAS POR CAPA. function txtNumNeuronasCallback(hObject, eventdata, handles) NewS trVal = get(hObject, S tring ); NewVal = str2double(NewS trVal); handles.numneuronas = NewVal; guidata(hObject, handles); CAJA DE TEXTO DONDE SE INGRESA EL VALOR DE LAS ENTRADAS. function txtValorPCallback(hObject, eventdata, handles) NewS trVal = get(hObject, S tring ); handles.valorP = NewS trVal; guidata(hObject, handles); function txtFuncionActivacionCallback(hObject, eventdata, handles) NewS trVal = get(hObject, S tring ); handles.FuncionActivacion = NewS trVal; guidata(hObject, handles); BOTÓN DONDE SE GRAFICA LA RED NEURONAL Y SE CALCULA LOS VALORES DEACUERDO A LA FUNCIÓN DE ACTIVACIÓN function btnCalculoCallback(hObject, eventdata, handles) vv = str2num(get(handles.txtValorP,’String’)); aa=length(vv); disp(aa); if (a==aa) CREACIÓN DE LA RED NEURONAL, AQUI SE DEFINE EN RANGO DE ENTRADA MÁXIMO Y MÍNIMO, NÚMERO DE NEURONAS POR CAPA, LA FUNCIÓN DE ACTIVACIÓN SELECCIONADA Y EL TIPO DE APRENDIZAJE. net=newff(minmax(vv),handles.nca, handles.faa,handles.currentdat); epochs = str2num(get(handles.mni,’String’)); error= str2num(get(handles.txterrorp,’String’)); shows = str2num(get(handles.ivr,’String’)); lr = str2num(get(handles.lr,’String’)); Si se quiere modificar algunos de los parámetros de entrenamiento predefinidos se hace así. net.trainParam.show = 500; net.trainParam.maxf ail = 3; net.trainParam.lr = lr; net.trainParam.epochs = epochs; net.trainParam.goal = error; a = sim(net, vv); view(net); plot(vv); fff= mat2str(vv); numCap=str2num(get(handles.txtNumCapas,’String’)); set(handles.txtFunActi,’string’,handles.faa); set(handles.tipoEntre,’string’,handles.currentdat); set(handles.txtnumCapasss, string , numCap); set(handles.txtp, string , f f f); else msgbox(’Las Entradas no son iguale a las salidas’,’Error’); function sliderFuncionActivacionCallback(hObject, eventdata, handles) val = get(hObject,’Value’); str = get(hObject,’String’); switch strval case ’poslin’ handles.currentdata = poslin ; guidata(hObject, handles); case purelin handles.currentdata = purelin ; guidata(hObject, handles); end guidata(hObject, handles); BOTÓN PARA INGRESAR EL NÚMERO DE NEURO- NAS, SE PRESENTA OTRA PANATALLA. function btnNumNeurnasCallback(hObject, eventdata, handles) nueroCapasarreglo=[]; funconActivacionarreglo=; numCapas=str2num(get(handles.txtNumCapas,’String’)); for cont=1:1: numCapas entrad=inputdlg(’Numero de neuronas’,’Numero de Neuro- nas’,1,’0’); nueroCapasarreglo=[nueroCapasarreglo UNIVERSIDAD NACIONAL DE LOJA fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec 5
  • 6. Loaiza Freddy- Faicán Rosa Tutor: Ing Henry Paz str2num(entrad1,1)]; funconActivacionarreglo(cont)=handles.currentdata; end nueroCapasarreglo; handles.nca = nueroCapasarreglo; guidata(hObject, handles); funconActivacionarreglo; handles.faa=funconActivacionarreglo; guidata(hObject,handles); f= mat2str(nueroCapasarreglo); set(handles.txtNumNeuronas,’string’,f); Referencias Araya, S. (s.f.). ELO 307: Proyecto de Titulación. Cabrera, S. S. (Agosto 2007). Redes neuronales aplicada a la Esti- mación de la Probabilidad. Carlos Pérez Ruiz, B. E. P. (s.f.). Estudio SALCER Inteligencia Artificial. Collantes, J. (Venezuela 2001). Predicción con Redes Neuronales. Crespo, E. Q. (s.f.). DESARROLLO DE UN MODELO PARA LA LOCALIZACIÓN DE FALLAS EN SISTEMAS DE TRANS- MISION DE ENERGIA ELECTRICA UTILIZANDO TECNI- CAS DE INTELIGENCIA ARTIFICIAL. Gómez, M. D. (s.f.). Ledesma, D. S. (s.f.). Las Redes Neuronales - Implementación y consideraciones prácticas. Mera, O. (s.f.). SISTEMA TRADUCTOR DE LENGUAJE FO- NÉTICO A LENGUAJE DE SEÑAS A TRAVÉS DE REDES NEURONALES. Meschino, G. (2006). Redes Neuronales en Matlab. Navarro, Y. G. (s.f.). Redes Neuronales Artificiales. Ojeda, L. R. (2007). Matlab conceptos básicos y programación. Palacios, F. (Junio 2000). Redes Neuronales Artificiales y Métodos de Estinación de Funciones. Paredes, C. (s.f.). Tomás, V. A. (s.f.). Introducción a las redes neuronales artificiales. Descargado de http://www.slideshare.net/mentelibre/ introduccion-a-las-redes-neuronales-artificiales Villasana, M. (s.f.). Introducción a las Redes Neuronales (Neura- les). Descargado de http://www.mathworks.com/access/ UNIVERSIDAD NACIONAL DE LOJA fploaizaa@unl.edu.ec, rvfaicanc@unl.edu.ec 6