SlideShare una empresa de Scribd logo
1 
Aplicaci´on de las funciones de activaci´on poslin y 
purelin para clasificar figuras geom´etricas y 
coordenadas geograficas 
Application of activation functions poslin and 
purelin to classify geometric figures and 
geographical coordinates 
D. Guam´an, Member, IEEE, 
B. Cabrera, Member, IEEE, 
H. Paz , Tutor 
Res´umen—El presente trabajo muestra brevemente la apli-caci 
´on de las redes neuronales artificiales, en la soluci´on de 
problemas reales en cualquier ´area del conocimiento humano, 
haciendo ´enfasis en las funciones de activaci´on poslin y purelin 
Abstract—This article briefly describes the application of 
artificial neural networks to solve real problems in any area 
of human knowledge, emphasizing functions on activation poslin 
and purelin. 
Palabras clave—perceptr´on, retropropagaci´on, funcion de en-trenamiento, 
capa de entrada, capa oculta, capa de salida, 
simulacion 
Index Terms—perceptron, backpropagation, training function, 
input layer, hidden layer, output layer, simulation 
I. INTRODUCCI´O 
N 
En la actualidad existe un extenso n´umero de problemas en 
ciencia e ingenier´ıa que implican la obtenci´on o extracci´on 
de informaci´on a partir de datos inciertos y complejos, para 
la gran mayor´ıa de estos inconvenientes, las operaciones 
matem´aticas complejas y aproximaciones tradicionales 
resultan ineficientes. 
Durante varias d´ecadas se intent´o brindar la soluci´on a 
estos problemas mediante la aplicaci´on de algoritmos, pero 
los inesperados resultados que fueron muy desalentadores en 
visi´on artificial y otras ´areas, provocaron que en la d´ecada de 
los 70 se percatasen de la imposibilidad de manejar todas las 
combinaciones posibles en situaciones reales al trabajar con 
estas estructuras algor´ıtmicas, debido al casi infinito n´umero 
de perturbaciones que pueden existir. 
El cerebro humano resulta ser uno de los ´organos que 
mayor inter´es ha causado entre los cient´ıficos de todas las 
D. Guam´an, Universidad Nacional de Loja, Loja, Ecuador, E-mail: 
dvguamanj@unl.edu.ec 
B. Cabrera, Universidad Nacional de Loja, 
Loja, Ecuador, E-mail: bgcabreraj@unl.edu.ec 
´epocas, siendo objeto de simulaci´on y modelizaci´on desde la 
aparici´on de los primeros ordenadores. 
De esta manera fueron como surgieron dos formas m´as 
exactas de aproximarce al comportamiento biol´ogico: 
Redes Neuronales: En las cuales se trata de reproducir el 
esquema neuronal humano, tanto en sus unidades de proceso 
conocidas como neuronas, como en sus conexiones y modo 
de establecerlas 
Sistemas Inteligentes:En los que la aproximaci´on a la 
experiencia se establece a trav´es de: 
Una lista de reglas memorizadas basadas en diagramas de 
dependencias entre variables del sistema. 
Capacidad para inferir conclusiones de esas reglas utilizables 
como soluci´on a preguntas planteadas al sistema (consejos)[1] 
Este trabajo est´a estructurado de la siguiente forma: en 
la Secci´on II(ESTADO DEL ARTE) se docuementa toda la 
informaci´on importante y b´asica acerca de las redes neuronales 
artificiales, en la secci´on III(CASO DE ESTUDIO) se hace 
referencia a los problemas que se quieren resolver mediante 
la aplicaci´on de las funciones de activaci´on poslin y purelin 
mediante el empleo de diferentes tem´aticas tratadas en el 
ESTADO DEL ARTE y las cu´ales han sido aplicadas en 
dichos casos de estudio, en la secci´on IV(RESULTADOS) 
se hace menci´on y se demuestran los resultados obtenidos 
del caso de estudio que se ha realizado, en la secci´on 
V(CONCLUSIONES) se presentan las conclusiones a las 
que se han llegado al realizar este trabajo, en la secci´on 
VI(RECOMENDACIONES) se plantean las diferentes sug-erencias 
que se han logrado determinar con el desarrollo 
del trabajo y finalmente en la secci´on VII(TRABAJOS FU-TUROS) 
se mencionan los trabajos futuros que se pueden 
realizar, tomando como base este estudio planteado
2 
Para la realizaci´on de este trabajo se emple´o la herramienta 
Matlab, en la cual se hizo la construcci´on de redes neuronales 
para simular la soluci´on de problemas reales, los mismos que 
se detallar´an m´as adelante con sus respectivos resultados. 
II. ESTADO DEL ARTE 
A. Fundamentos biol´ogicos 
Una neurona biol´ogica en la anatom´ıa humana es una c´elula 
especializada en procesar informaci´on, la cu´al est´a compuesta 
por: el cuerpo de la c´elula conocido como soma y dos tipos de 
ramificaciones: el ax´on y las dentritas como se muestra en la 
Fig. 1, la neurona recibe se˜nales(impulsos) de otras neuronas 
a trav´es de sus dentritas y transmite se˜nales generadas por el 
cuerpo de la c´elula a trav´es del ax´on. [2] 
Fig. 1. Estructura de una neurona biol´ogica 
B. Red Neuronal Artificial 
Una red neuronal artificial se puede definir como un modelo 
conexionista cuyos elementos o nodos, conectados entre s´ı, 
simulan las funciones desempe˜nadas por las c´elulas cerebrales 
las cuales se denominan neuronas.[3] 
Tambi´en se pueden definir como sistemas de computaci´on 
que constan de un gran n´umero de elementos simples, muy 
interconectados, que procesan la informaci´on respondiendo 
din´amicamente frente a unos est´ımulos externos.[1] 
La neurona artificial es una unidad procesadora con cuatro 
elementos funcionales como se muestra en la Fig. 2: 
Fig. 2. Estructura de una neurona artificial 
En donde: 
 El receptor: Es en donde llegan una o varias se˜nales de 
entrada xi, que generalmente proceden de otras neuronas 
y que son amplificadas o atenuadas cada una de ellas 
con arreglo a un factor de peso wi ,que constituye la 
conectividad entre la neurona fuente de donde provienen 
y la neurona de destino. 
 El sumador:Es el encargado de efectuar la suma alge-braica 
de las se˜nales de entrada, penetrandolas de acuerdo 
con su peso, aplicando la siguiente expresi´on: 
 Funci´on de activaci´on: Que aplica una funci´on a la 
salida del simulador para decidir si la neurona se activa, 
disparando una salida o no. 
 La salida: Es el que produce la se˜nal, de acuerdo con 
el elemento anterior, que constituye en s´ı la salida de la 
neurona.[4] 
En la Fig 3 se muestra la semejanza entre una neurona 
biol´ogica natural y su simulaci´on o representaci´on artificial: 
Fig. 3. Analog´ıas entre neuronas biol´ogica y artificial [3] 
C. Principales topolog´ıas 
La arquitectura de una red neuronal consiste en la orga-nizaci 
´on y disposici´on de las neuronas, formando capas o 
agrupaciones de neuronas m´as o menos alejadas en la entrada y 
salida de dicha red. Los principales par´ametros fundamentales 
de la red son: el n´umero de capas, el n´umero de neuronas por 
capa, el grado de conectividad y el tipo de conexiones entre 
neuronas. 
 Redes Monocapara En las redes monocapa, se estable-cen 
conexiones entre las neuronas que pertenecen a la 
´unica capa que constituye la red. Las redes monocapas 
se utilizan generalmente en tareas relacionadas con lo que 
se conoce como auto asociaci´on (regenerar informaci´on 
de entrada que se presenta a la red de forma incompleta o 
distorsionada). Como por ejemplo: Perceptron, Adaline. 
– Perceptron: El modelo biol´ogico m´as simple de un 
perceptr´on es una neurona y viceversa. Es decir, el 
modelo matem´atico m´as simple de una neurona es un 
perceptr´on. El perceptr´on puede resolver solamente 
problemas que sean linealmente separables, osea que 
cuyas salidas est´en clasificadas en dos categor´ıas 
diferentes y que permitan que su espacio de entrada 
sea divido en estas dos regiones, es decir la lim-itaci 
´on de este algoritmo es que si dibujamos en un 
plot , se deben poder separar con un hiperplano los 
elementos ”deseados” , como los ”no deseados”.[4] 
 Redes Multicapa La red neuronal conocida como Per-ceptron 
Multicapa en un modelo neuronal con propa-gaci 
´on hacia adelante, que se caracteriza por su organi-zaci 
´on en capas de celdas disjuntas, de forma que ninguna
3 
salida neuronal constituye una entrada para las neuronas 
de la misma capa o de capas previas, evit´andose as´ı 
las conexiones hacia atr´as o autorecurrentes. Se carac-teriza 
por su organizaci´on en capas de celdas disjun-tas, 
de forma que ninguna salida neuronal constituye 
una entrada para las neuronas de la misma capa o de 
capas previas, evit´andose as´ı las conexiones hacia atr´as 
o autorecurrentes. Esto permite resolver problemas que 
no son linealmente separables, lo cual es la principal 
limitaci´on del perceptr´on, esta red permite establecer 
regiones de decisi´on mucho m´as complejas que las de 
dos semiplanos, como lo hace el Perceptr´on de un solo 
nivel. [5] 
– Backpropagation: El algoritmo de Retropogacion 
de errores constituye el modelo de aprendizaje de 
la red Perceptron Multicapa m´as utilizado en la 
pr´actica, debido a su sencillez y eficacia para la 
resoluci´on de problemas m´as complejos. Este al-goritmo 
est´a basado en el m´etodo del gradiente 
descendente, que constituye a su vez uno de los 
m´etodos de optimizaci´on de funciones multivalentes 
m´as antiguos y conocidos. De forma simplificada, 
este algoritmo consiste en el aprendizaje de un 
conjunto predefinido de patrones de entrada-salida, 
empleando un ciclo “propagaci´on - adaptaci´on” con 
dos fases diferenciadas como son las de aprendizaje 
hacia adelante y aprendizaje hacia atr´as. [6] 
D. Funci´on de Activaci´on 
Para este caso de estudio, utilizaremos las funciones de 
activaci´on poslin y purelin, pero previamente conozcamos con 
m´as detalle qu´e es esta funci´on 
La funci´on de activaci´on se utiliza para limitar el rango de 
valores de la respuesta de la neurona.Generalmente los rangos 
de valores se limitan a [0,1] o [-1,1], sin embargo otros rangos 
son posibles de acuerdo a la aplicaci´on o problema a resolver. 
Existen diversas funciones de activaci´on y la decisi´on entre una 
u otra depender´a nuevamente de la aplicaci´on o problema a re-solver. 
Existen funciones de activaci´on com´unmente utilizadas 
y con las cuales se han obtenido resultados satisfactorios en 
diversas aplicaciones.[7] 
 Funci´on lineal positiva (Poslin) El algoritmo que utiliza 
la funci´on de activaci´on poslin devuelve la salida n si n 
es mayor o igual a cero y retorna cero si n es menor a 
cero 
Y su representaci´on gr´afica esta definida como se muestra 
en la Fig. 4 
En la documentaci´on de matlab 2014 podemos encontrar 
la siguientes l´ıneas de c´odigo para recibir informaci´on 
de esta funci´on. 
Fig. 4. Gr´afica Funci´on Poslin 
Sintaxis: 
A = poslin (N, FP) 
donde: 
N: matriz de entrada 
FP: par´ametros de la funci´on, aunque este valor no es 
necesario 
Descripci´on: 
info = poslin (code), devuelve informaci´on de esta 
funci´on: 
poslin(’name’): Devuelve el nombre de esta funci´on 
poslin(’output’,FP): Retorna el rango de salida, sus 
m´aximos y m´ınimos 
poslin(’active’,FP): Retorna los m´aximos y m´ınimos del 
rango activo 
poslin(’fullderiv’): Devuelve 1 o 0 
poslin(’fpnames’): Devuelve los nombres de los 
par´ametros de la funci´on 
poslin(’fpdefaults’) : Devuelve los par´ametros de la 
funci´on por defecto [8] 
 Funci´on lineal (Purelin) La salida de una funci´on de 
transferencia lineal es igual a su entrada 
a=n 
Y su representaci´on gr´afica est´a dada por la Fig. 5 
Fig. 5. Gr´afica Funci´on Purelin 
Al igual que en la funci´on de activaci´on anterior, existe 
en la documentaci´on oficial de matlab 2014 sentencias 
que permiten obtener informaci´on de esta funci´on 
Sintaxis:
4 
A = purelin (N, FP) 
donde: 
N: matriz de entrada 
FP: par´ametros de la funci´on, aunque este valor no es 
necesario[9] 
La Fig. 6 muestra las principales funciones de activaci´on 
empleadas en el entrenamiento de redes neuronales 
Fig. 6. Funciones de Activaci´on 
E. Aprendizaje 
Una de las principales caracter´ısticas y de vital importancia 
de una red neuronal es su capacidad de aprendizaje, el apren-dizaje 
permite que la red modifique su propia estructura(matriz 
de pesos) adapt´andola hasta conseguir un algoritmo de eje-cuci 
´on. 
El aprendizaje consiste en hacer cambios en los pesos de 
las conexiones entre las neuronas de la red hasta conseguir la 
respuesta deseada, mientras que el entrenamiento resulta ser el 
procedimiento por el cual la red aprende, donde el aprendizaje 
es el resultado final de ese proceso, llegando a la conclusi´on 
que el primero es un procedimiento externo a la red, y el 
segundo, un procedimiento o actividad interna, se distinguen 
tres tipos de aprendizaje: 
 Aprendizaje Supervisado: Donde un conjunto conocido 
de datos de entrada-salida se utiliza para iterativamente 
ajustar los pesos de la red. 
 Aprendizaje No Supervisado:Donde ´unicamente se 
disponen de datos de entrada y una funci´on de coste a 
minimizar. 
 Aprendizaje Reforzado:Situado a medio camino entre 
el aprendizaje supervisado y no supervisado. En este 
aprendizaje la informaci´on proporcionada a la red es 
m´ınima, limit´andose a indicar si la respuesta de la red 
es correcta o incorrecta.[11] 
Alguno tipos de funciones de aprendizaje que tenemos 
disponibles en matlab son los siguientes: 
trainb : Entrenamiento con regla de aprendizaje del peso 
y del bias 
trainbr :regularizaci´on bayesiana 
trainc : Funciones ascendentes de entrenamiento c´ıclico 
traincgf : Backpropagation conyugal del gradiente de 
Fletcher-Powell traingd :Backpropagation de la pendiente 
del gradiente 
traingdm : Pendiente del gradiente con el backpropaga-tion 
del ´ımpetu 
traingda :Pendiente del gradiente con el backpropagation 
adaptativo 
trainlm : Backpropagation de Levenberg-Marquardt, 
trainlm es el algoritmo m´as r´apido de propagaci´on hacia 
atr´as, y es muy recomendable como primera elecci´on su-pervisada 
del algoritmo, aunque s´ı requiere m´as memoria 
que otros algoritmos. 
trainoss: Backpropagation secante de un solo paso 
trains :Funciones incrementales del entrenamiento 
w/learning secuencial[12] 
III. CASO DE ESTUDIO 
Para entender mejor la funciones de activaci´on purelin y 
poslin hemos planteado un ejemplo para cada una, las cuales 
se detallan a continuaci´on 
A. Clasificador de figuras geom´etricas b´asicas usando poslin 
Con este ejemplo pr´actico, se pretende realizar una 
clasificaci´on entre 5 figuras geom´etricas b´asicas; cuadrado, 
tri´angulo, c´ırculo, recta y punto, para lo cual se hizo uso 
de la funci´on de activaci´on lineal positiva (poslin), para la 
realizaci´on de esta demostraci´on se emple´o la siguiente entrada 
como se muestra en la Fig. 7: 
Fig. 7. Datos de entrada 
En donde v1, v2, v3, v4 son las variables de entrada para la 
red neuronal, las mismas que representan los v´ertices de cada
5 
figura geom´etrica, y en funci´on de estos v´ertices las neuronas 
van a entrenar y as´ı llegar a un aprendizaje, que est´a dado por 
los siguientes datos de salida, que se pueden apreciar en la 
Fig. 8: 
Fig. 8. Salida Deseada 
Con la herramienta Matlab, se hizo la codificaci´on de este 
problema de la siguiente forma: 
 Primeramente se hizo el ingreso de la matriz de entrada 
y de salida, tal como se muestra a continuaci´on: 
 Seguidamente se cre´o la red que es de tipo backpropa-gation, 
que es una red multicapa, mediante el comando 
newff, como se detalla: 
En donde: 
[0 1; 0 1; 0 1; 0 1]= Representa la matriz de valores 
m´aximos y m´ınimos para cada una de las neurona de 
entrada 
[55,1]= N´umero de neuronas para cada una de las 
capas, en este caso 55 para la capa oculta y 1 para 
la capa de salida, las neuronas en la capa oculta son 
totalmente independientes de las entradas o salidas, para 
este caso se necesito de esa cantidad para resolver el 
problema. 
[’poslin’ ’poslin’]= Aqu´ı se especifica la funci´on 
de activaci´on con la que va a trabajar cada capa. 
[trainlm]= Se especifica el algoritmo de entrenamiento 
a utilizar 
 Seguidamente se establecieron algunos par´ametros, cor-respondientes 
al entrenamiento: 
En donde la primera sentencia epochs=1000 indica el 
n´umero m´aximo de iteraciones que tiene la neurona para 
realizar su aprendizaje, el show=5 es el intervalo de 
visualizaci´on de los resultados y en la ´ultima sentencia 
se procede a entrenar la red respecto a sus entradas y 
salida, con la finalidad de que realice la clasificaci´on. 
 Finalmente con el comando sim, se verifica si el apren-dizaje 
de mi red neuronal fue el correcto, al comparar 
con los datos de salida, el comando es el siguiente: 
simulaci´on = sim(red,entradaPoslin) 
En el cual se env´ıa como par´ametros el nombre de la red 
y los datos de entrada. 
B. Clasificador de coordenadas de localizaci´on, en un plano 
catogr´afico 
Con este ejemplo se pretende demostrar la utilizaci´on de la 
funcion de activaci´on purelin, para determinar puntos en un 
mapa cartogr´afico referenciados mediante 2 ecuaciones que 
van a representar la longitud y la latitud de dichos puntos, 
como se muestra en la Fig. 9 
Fig. 9. Ecuaciones Lineales 
As´ı mismo utilizando la herramienta Matlab se procedi´o la 
codificaci´on del ejemplo con la aplicaci´on de redes neuronales. 
A continuaci´on graficamos los puntos de las entradas ingre-sadas 
con el comando: 
En donde se dibuja un vector de abscisas “x” y ordenadas 
“y” ‘o’ , dibuja c´ırculos en los puntos marcados en el plano.
6 
Ahora crearemos nuestro perceptr´on multicapa. 
En donde: 
[-3 3;-3 3]: valores m´ınimo y m´aximo de la variable 
[1 2]: N´umero de neuronas para cada una de las capas, aqu´ı 
se utiliz´o 1 neurona para la capa oculta y 2 para la capa de 
salida. 
’purelin’ ’purelin’: Se especifica la funcion de activacion 
que se va a utilizar, en este caso se utilizo purelin para las 2 
entradas. 
trainlm: algoritmo de entrenamiento de la red. 
Seguidamente como se muestra en la Fig. 10 se es-tablecieron 
algunos par´ametros, correspondientes al entre-namiento: 
En donde la primera sentencia epochs=1000 indica 
el n´umero m´aximo de iteraciones que tiene la neurona para 
realizar su aprendizaje, el show=5 es el intervalo de visual-izaci 
´on de los resultados y en la ´ultima sentencia se procede 
a entrenar la red respecto a sus entradas y salidas. 
Fig. 10. Par´ametros de Entrenamiento 
Graficamos la l´ınea de separaci´on que tiene el perceptr´on 
y finalmente simulamos nuestra red, para comprobar si el 
aprendizaje de mi red neuronal fue el correcto, al comparar 
los datos de salida, con la salida deseada y verificar que las 
coordenadas son las correctas..[13] 
IV. RESULTADOS 
En esta parte se muestran los resultados obtenidos de cada 
uno de los casos de estudio: 
 Resultados del clasificador de figuras geom´etricas 
b´asicas 
Al ejecutar las l´ıneas de c´odigo que se establecieron en 
el punto anterior, se obtuvo lo siguiente: 
Simulaci´on 
4 3 3 2 3 2 2 1 3 2 2 1 2 1 1 0 
SalidaDeseada 
4 3 3 2 3 2 2 1 3 2 2 1 2 1 1 0 
Lo que permite identificar a simple vista que la red 
neuronal aprendi´o correctamente ya que la salida obtenida 
(simulaci´on) es igual a la deseada, como se meustra en 
la Fig 11 pero para comprobar que se est´a clasificando 
correctamente se debe ingresar el comando sim de la 
siguiente forma en la ventana de comandos de Matlab 
Fig. 11. Probando comando sim 
Donde se puede verficar que el resultado es igual a 3, 
lo que indica claramente que la figura que se ana˜niz´o 
tiene tres v´ertices, es decir se trata de un tri´angulo, ahora 
probemeos nuevamente el comando con otro valor, como 
se muestra en la Fig 12 
Fig. 12. Probando comando sim 
Verificando que el resultado es 4, lo que indica que se 
trata de un cuadrado, en la Fig. 13 se denota el diagrama 
obtenido de la red neuronal: 
Fig. 13. Diagrama de la red 
En donde se puede apreciar el n´umero de entrados que 
en este caso son 4 , debido a los 4 v´ertices, la capa oculta 
con 55 neuronas y la de salida con 1, a continuaci´on en 
la Fig, 14 se detalla el progreso del entrenamiento de la 
red neuronal: 
En la cual se identifica, que la red neuronal aprendi´o 
en 7 iteraciones la forma de c´omo clasificar las figuras 
geom´etricas seg´un las entradas y salida previstas. 
 Resultados del clasificador de coordenadas 
Al ejecutar las lineas de codigo de la simulaci´on se 
obtuvo lo que se muestra en la Fig. 15.
7 
Fig. 14. Progreso de entrenamiento 
Fig. 15. Comparaci´on entre salida deseada y obtenida 
Lo que permite identificar a simple vista que la red 
neuronal aprendi´o correctamente ya que la salida obtenida 
(simulaci´on) es igual a la deseada, lo cual se puede 
verificar memdiante el comando sim, para simular 2 
posiciones cualquiera, como se muestra en la Fig. 16 
Fig. 16. Localizando posiciones 
Donde se puede identificar las 2 coordenadas (-3,-38) 
y (3,-28), que reflejan las coordenadas de mi poscion 
antigua y mi posici´on actual respectivamente, con mas 
claridad se puede identificar con la Fig. 17. 
A continuaci´on en la Gig. 18 se presenta el diagrama 
obtenido de la red neuronal. 
En donde se puede apreciar el n´umero de entrados que 
en este caso son 2 , debido a las 2 ecuaciones, la capa 
oculta con 2 neuronas y la de salida con 2, y en la figura 
que se muestra a continuaci´on se detalla el progreso del 
entrenamiento de la red neuronal: 
En la cual se identifica, que la red neuronal aprendi´o 
en 6 iteraciones la forma de c´omo calcular los valores 
de “y” de las ecuaci´ones lineales seg´un las entradas y 
salida prevista, con el objetivo de localizar las posiciones 
anitiguas y actuales.[13] 
Fig. 17. Posiciones en el plano 
Fig. 18. Diagrama de la red neuronal 
Fig. 19. Progreso de entrenamiento neuronal 
V. CONCLUSIONES 
Se determin´o que las redes neuronales artificiales resultan 
ser un conjunto estructural de elementos, que interact´uan 
entre s´ı, para simular el comportamiento de raciocinio del ser 
humano, con el prop´osito de elaborar sistemas inteligentes 
que aprendan en base a errores y brinden soluciones eficientes 
y exactas. 
El uso de tipos de redes neuronales var´ıa de acuerdo a 
la soluci´on de problemas y al uso de funciones de activaci´on, 
ya que para estos 2 casos pr´acticos se pudo entender que 
con un perceptr´on simple la neurona no aprend´ıa y ocupaba 
las 1000 iteraciones de aprendizaje que se le asignaban 
mediante la sentencia red.trainParam.epochs=1000;por lo 
que se opt´o por el perceptr´on multicapa para resolver estos 
problemas y lograr que la red neuronal aprenda correctamente. 
La utilizaci´on de las funciones de activaci´on poslin y 
purelin demostraron ser eficientes para la soluci´on de 
problemas linealmente separables, en donde la funcion poslin 
trabaja con valores que est´an por encima del eje de las x es 
decir con valores positivos de ah´ı su nombre de linealmente 
positiva, lo que fue muy factible para emplearlo en el 
clasificador de figuras ya que se trabajaba con v´ertices donde
8 
no se necesita de valores negativos para determinar el tipo de 
figura, mientras que purelin trabaja con valores positivos y 
negativos que la hace eficiente para determinar los valores de 
“y” de ecuaciones de primer grado, y obtener los puntos de 
localizaci´on en el plano para su respectiva gr´afica. 
VI. RECOMENDACIONES 
Al momento que la red neuronal est´a aprendiendo en base 
a sus entradas y salidas, es posible que este aprendizaje sea 
err´onero, por eso se recomienda variar los valores m´aximos 
y m´ınimos o aumentar las neuronas en la capa oculta, ya que 
en ciertos problemas el aprendizaje es mejor cuando hay mas 
neuronas interactuando entre s´ı. 
Para la resoluci´on de cualquier problema es recomendable 
hacer la respectiva simulaci´on del comportamiento de las 
redes, con el fin de comprobar si las salidas obtenidas son 
iguales a las deseadas. 
Se debe utilizar una funci´on de activaci´on referente al 
problema que se pretenda solucionar, sobre todo conocer que 
tipos de redes neuronales trabajan con ciertas funciones de 
activaci´on, ya que algunos problemas necesitan de un solo 
perceptron para solucionarce, as´ı como otros pueden necesitar 
de perceptrones multicapa para llegar a un aprendizaje 
eficiente. 
Utilizar este trabajo como material de estudio para los 
estudiantes, con el plan de seguir investigando m´as a fondo 
acerca del mundo de la inteligencia artificial. 
Para el dise˜no y resoluci´on de problemas con redes neuronales 
se aconseja utilizar la potente herramienta de Matlab, ya que 
esta cuenta con un sin n´umero de funciones y m´etodos que 
nos facilitan el aprendizaje del mismo. 
VII. TRABAJOS FUTUROS 
 Aplicaci´on de las redes neuronales artificailes y las 
funciones de activaci´on poslin y purelin para resolver 
problemas de clasificaci´on linealmente separable, 
en lo que se refiere a la categorizaci´on de peatones 
y aut´omoviles de las diferentes calles y avenidas de Loja. 
 Implementaci´on de redes neuronales y tecnlog´ıa web, 
para la creaci´on de sistemas inteligentes de apoyo a la 
toma de decisiones, y que ayuden mediante inm´otica a 
realizar procesos autom´aticos frente a cualquier est´ımulo 
u agente externo e interno del medio. 
REFERENCIAS 
[1] R. Diez,A. G´omez N. Mart´ınez , La accesibilidad en los portales 
universitarios, [En linea] link:http://books.google.es/books?id= 
RKqLMCw3IUkCpg=PA26dq=redes+neuronales+artificialeshl= 
essa=Xei=2mJVVOzULMOVNtipgOAJved=0CCgQ6AEwAQ#v= 
onepageqf=false, consulta realizada 1-Oct-2014 
[2] P. Ponce, Inteligencia Artificial, con aplicaciones a la ingenier´ıa, [Of 
line], consulta realizada 1-Oct-14 
[3] R.Beltr´a, Bioinform´atica simulaci´on.vida artificial e inteligencia artifi-cial, 
[En linea] link:http://books.google.es/books?id=U4pwetEPmpQC 
printsec=frontcoverdq=redes+neuronales+artificialeshl=essa=X 
ei=2mJVVOzULMOVNtipgOAJved=0CDUQ6AEwAw#v=onepage 
q=redes%20neuronales%20artificialesf=false, consulta realizada 
1-Oct-2014 
[4] F. Lara, Fundamentos de redes neuronales artificiales, [En linea] 
link: http://conceptos.sociales.unam.mx/conceptos final/598trabajo.pdf 
, consulta realizada 1-Oct-14 
[5] J. Dami´an, Redes Neuronales: Conceptos B´asicos y Aplicaciones, 
[En linea] link: http://www.frro.utn.edu.ar/repositorio/catedras/quimica/ 
5 anio/orientadora1/monograias/matich-redesneuronales.pdf, consulta 
realizada 1-Oct-2014 
[6] R. Florez, J. Fern´andez, Las redes neuronales artificiales, 
fundamentos te´oricos y aplicaciones pr´acticas, [En linea] link: 
http://books.google.com.ec/books?id=X0uLwi1Ap4QCprintsec= 
frontcoverhl=es#v=onepageqf=false,consulta realizada 1-Oct-14 
[7] M. Villasana, Introducci´on a las redes neuronales, [En 
linea] link:http://es.slideshare.net/HALCONPEREGRINO2/ 
introduccion-a-las-redes-neuronales, consulta realizada 1-Oct-14 
[8] MathWorks, Documentaci´on oficial de Matlab, [En linea] 
link:link:http://www.mathworks.com/help/nnet/ref/poslin.html, consulta 
realizada 1-Oct-14 
[9] MathWorks, Purelin, [En linea] link: http://www.mathworks.com/help/ 
nnet/ref/purelin.html , consulta realizada 1-Oct-14 
[10] F. Tanco, Introducci´on a las redes neuronales artificiales, [En linea] 
link: http://www.secyt.frba.utn.edu.ar/gia/RNA.pdf , consulta realizada 
1-Oct-14 
[11] MathWorks, Redes Neuronales artificiales con matlab , [En linea] 
link: http://es.mathworks.com/discovery/redes-neuronales.html ,consulta 
realizada 1-Oct-14 
[12] MathWorks, Docuemntaci´on toolbox de Matlab , [En linea] link: 
http://es.mathworks.com/help/nnet/functionlist.html ,consulta realizada 
1-Oct-14 
[13] D. Guaman-B. Cabrera, C´odigo fuente del clasificador de figurasgeom-petricas 
y el clasificador de localizaciones geogr´aficas, [En linea] link: 
https://code.google.com/p/mi-proyecto-purelin-posling/source/browse/ 
Diego Guam´an 
Estudiante de la Carrera de Ingenier´ıa en Sistemas de la 
Universidad Nacional de Loja, Provincia de Loja, Ciudad Loja, 
Ecuador, 2014. 
Byron Cabrera 
Estudiante de la Carrera de Ingenier´ıa en Sistemas de la 
Universidad Nacional de Loja, Provincia de Loja, Ciudad Loja, 
Ecuador, 2014.

Más contenido relacionado

La actualidad más candente

Funciones_ hardlim_hardlims
Funciones_ hardlim_hardlimsFunciones_ hardlim_hardlims
Funciones_ hardlim_hardlims
Paola Morocho Arévalo
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
ESCOM
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
Brian Piragauta
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Andrea Lezcano
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
Richar León
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
Jefferson Guillen
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
ESCOM
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
lennydan11
 
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Juan Carlos Gonzalez Ortiz
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
ESCOM
 
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Diego Paúl Cuenca Quezada
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
Noemy Tillaguango
 
Cálculo de variación de voltaje con función purelin y variación de velocidad ...
Cálculo de variación de voltaje con función purelin y variación de velocidad ...Cálculo de variación de voltaje con función purelin y variación de velocidad ...
Cálculo de variación de voltaje con función purelin y variación de velocidad ...
kathyR04
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
daniatacho
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
Tesis redes-neuronales.3.-capitulo2
Tesis redes-neuronales.3.-capitulo2Tesis redes-neuronales.3.-capitulo2
Tesis redes-neuronales.3.-capitulo2
Omar Saba
 

La actualidad más candente (19)

Funciones_ hardlim_hardlims
Funciones_ hardlim_hardlimsFunciones_ hardlim_hardlims
Funciones_ hardlim_hardlims
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
 
Cálculo de variación de voltaje con función purelin y variación de velocidad ...
Cálculo de variación de voltaje con función purelin y variación de velocidad ...Cálculo de variación de voltaje con función purelin y variación de velocidad ...
Cálculo de variación de voltaje con función purelin y variación de velocidad ...
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Tesis redes-neuronales.3.-capitulo2
Tesis redes-neuronales.3.-capitulo2Tesis redes-neuronales.3.-capitulo2
Tesis redes-neuronales.3.-capitulo2
 

Similar a Funciones de activacion Poslin y Purelin

Funciones poslin y purelin
Funciones poslin y purelinFunciones poslin y purelin
Funciones poslin y purelin
Noemy Tillaguango
 
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Henry Quezada
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Abrahm Garcia
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
lozanolc
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlins
Christian Lara
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
Redes Neuronales con Android
Redes Neuronales con AndroidRedes Neuronales con Android
Redes Neuronales con Android
VICTOR VIERA BALANTA
 
Redes neuronales y Computación Móvil
Redes neuronales y Computación MóvilRedes neuronales y Computación Móvil
Redes neuronales y Computación Móvil
VICTOR VIERA BALANTA
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
santigo mariño
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
santigo mariño
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
santigo mariño
 
redes neuronales y artificales.pdf
redes neuronales y artificales.pdfredes neuronales y artificales.pdf
redes neuronales y artificales.pdf
WildrChoquegomez
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal Artificial
JORGE ARMANDO
 
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...zeithy
 

Similar a Funciones de activacion Poslin y Purelin (20)

Funciones poslin y purelin
Funciones poslin y purelinFunciones poslin y purelin
Funciones poslin y purelin
 
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlins
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Redes Neuronales con Android
Redes Neuronales con AndroidRedes Neuronales con Android
Redes Neuronales con Android
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales y Computación Móvil
Redes neuronales y Computación MóvilRedes neuronales y Computación Móvil
Redes neuronales y Computación Móvil
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
110641.ppt
110641.ppt110641.ppt
110641.ppt
 
redes neuronales y artificales.pdf
redes neuronales y artificales.pdfredes neuronales y artificales.pdf
redes neuronales y artificales.pdf
 
Libro del-curso
Libro del-cursoLibro del-curso
Libro del-curso
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Red Neuronal Artificial
Red Neuronal ArtificialRed Neuronal Artificial
Red Neuronal Artificial
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
UTILIZACIÓN DE LA TECNOLOGÍA DE REDES NEURONALES PARA LA RESOLUCIÓN DE PROBLE...
 

Último

FORTI-JUNIO 2024. CIENCIA, EDUCACION, CULTURA,pdf
FORTI-JUNIO 2024. CIENCIA, EDUCACION, CULTURA,pdfFORTI-JUNIO 2024. CIENCIA, EDUCACION, CULTURA,pdf
FORTI-JUNIO 2024. CIENCIA, EDUCACION, CULTURA,pdf
El Fortí
 
Proceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de PamplonaProceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de Pamplona
Edurne Navarro Bueno
 
1º GRADO CONCLUSIONES DESCRIPTIVAS PRIMARIA.docx
1º GRADO CONCLUSIONES DESCRIPTIVAS  PRIMARIA.docx1º GRADO CONCLUSIONES DESCRIPTIVAS  PRIMARIA.docx
1º GRADO CONCLUSIONES DESCRIPTIVAS PRIMARIA.docx
FelixCamachoGuzman
 
CALENDARIZACION DEL MES DE JUNIO - JULIO 24
CALENDARIZACION DEL MES DE JUNIO - JULIO 24CALENDARIZACION DEL MES DE JUNIO - JULIO 24
CALENDARIZACION DEL MES DE JUNIO - JULIO 24
auxsoporte
 
Examen Lengua y Literatura EVAU Andalucía.pdf
Examen Lengua y Literatura EVAU Andalucía.pdfExamen Lengua y Literatura EVAU Andalucía.pdf
Examen Lengua y Literatura EVAU Andalucía.pdf
20minutos
 
El lugar mas bonito del mundo resumen del libro
El lugar mas bonito del mundo resumen del libroEl lugar mas bonito del mundo resumen del libro
El lugar mas bonito del mundo resumen del libro
Distea V región
 
MIP PAPA Rancha Papa.pdf.....y caracteristicas
MIP PAPA  Rancha Papa.pdf.....y caracteristicasMIP PAPA  Rancha Papa.pdf.....y caracteristicas
MIP PAPA Rancha Papa.pdf.....y caracteristicas
jheisonraulmedinafer
 
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
20minutos
 
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdfINFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
Alejandrogarciapanta
 
UNIDAD DE APRENDIZAJE DEL MES Junio 2024
UNIDAD DE APRENDIZAJE DEL MES  Junio 2024UNIDAD DE APRENDIZAJE DEL MES  Junio 2024
UNIDAD DE APRENDIZAJE DEL MES Junio 2024
EdwardYumbato1
 
CONCLUSIONES-DESCRIPTIVAS NIVEL PRIMARIA
CONCLUSIONES-DESCRIPTIVAS NIVEL PRIMARIACONCLUSIONES-DESCRIPTIVAS NIVEL PRIMARIA
CONCLUSIONES-DESCRIPTIVAS NIVEL PRIMARIA
BetzabePecheSalcedo1
 
Educar por Competencias GS2 Ccesa007.pdf
Educar por Competencias GS2 Ccesa007.pdfEducar por Competencias GS2 Ccesa007.pdf
Educar por Competencias GS2 Ccesa007.pdf
Demetrio Ccesa Rayme
 
Semana 10-TSM-del 27 al 31 de mayo 2024.pptx
Semana 10-TSM-del 27 al 31 de mayo 2024.pptxSemana 10-TSM-del 27 al 31 de mayo 2024.pptx
Semana 10-TSM-del 27 al 31 de mayo 2024.pptx
LorenaCovarrubias12
 
El Liberalismo económico en la sociedad y en el mundo
El Liberalismo económico en la sociedad y en el mundoEl Liberalismo económico en la sociedad y en el mundo
El Liberalismo económico en la sociedad y en el mundo
SandraBenitez52
 
Junio 2024 Fotocopiables Ediba actividades
Junio 2024 Fotocopiables Ediba actividadesJunio 2024 Fotocopiables Ediba actividades
Junio 2024 Fotocopiables Ediba actividades
cintiat3400
 
Mapa_Conceptual de los fundamentos de la evaluación educativa
Mapa_Conceptual de los fundamentos de la evaluación educativaMapa_Conceptual de los fundamentos de la evaluación educativa
Mapa_Conceptual de los fundamentos de la evaluación educativa
TatianaVanessaAltami
 
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdfUn libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
sandradianelly
 
Fase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría AnalíticaFase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría Analítica
YasneidyGonzalez
 
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernándezPRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
Ruben53283
 
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptxc3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
Martín Ramírez
 

Último (20)

FORTI-JUNIO 2024. CIENCIA, EDUCACION, CULTURA,pdf
FORTI-JUNIO 2024. CIENCIA, EDUCACION, CULTURA,pdfFORTI-JUNIO 2024. CIENCIA, EDUCACION, CULTURA,pdf
FORTI-JUNIO 2024. CIENCIA, EDUCACION, CULTURA,pdf
 
Proceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de PamplonaProceso de admisiones en escuelas infantiles de Pamplona
Proceso de admisiones en escuelas infantiles de Pamplona
 
1º GRADO CONCLUSIONES DESCRIPTIVAS PRIMARIA.docx
1º GRADO CONCLUSIONES DESCRIPTIVAS  PRIMARIA.docx1º GRADO CONCLUSIONES DESCRIPTIVAS  PRIMARIA.docx
1º GRADO CONCLUSIONES DESCRIPTIVAS PRIMARIA.docx
 
CALENDARIZACION DEL MES DE JUNIO - JULIO 24
CALENDARIZACION DEL MES DE JUNIO - JULIO 24CALENDARIZACION DEL MES DE JUNIO - JULIO 24
CALENDARIZACION DEL MES DE JUNIO - JULIO 24
 
Examen Lengua y Literatura EVAU Andalucía.pdf
Examen Lengua y Literatura EVAU Andalucía.pdfExamen Lengua y Literatura EVAU Andalucía.pdf
Examen Lengua y Literatura EVAU Andalucía.pdf
 
El lugar mas bonito del mundo resumen del libro
El lugar mas bonito del mundo resumen del libroEl lugar mas bonito del mundo resumen del libro
El lugar mas bonito del mundo resumen del libro
 
MIP PAPA Rancha Papa.pdf.....y caracteristicas
MIP PAPA  Rancha Papa.pdf.....y caracteristicasMIP PAPA  Rancha Papa.pdf.....y caracteristicas
MIP PAPA Rancha Papa.pdf.....y caracteristicas
 
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
Horarios y fechas de la PAU 2024 en la Comunidad Valenciana.
 
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdfINFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
INFORME MINEDU DEL PRIMER SIMULACRO 2024.pdf
 
UNIDAD DE APRENDIZAJE DEL MES Junio 2024
UNIDAD DE APRENDIZAJE DEL MES  Junio 2024UNIDAD DE APRENDIZAJE DEL MES  Junio 2024
UNIDAD DE APRENDIZAJE DEL MES Junio 2024
 
CONCLUSIONES-DESCRIPTIVAS NIVEL PRIMARIA
CONCLUSIONES-DESCRIPTIVAS NIVEL PRIMARIACONCLUSIONES-DESCRIPTIVAS NIVEL PRIMARIA
CONCLUSIONES-DESCRIPTIVAS NIVEL PRIMARIA
 
Educar por Competencias GS2 Ccesa007.pdf
Educar por Competencias GS2 Ccesa007.pdfEducar por Competencias GS2 Ccesa007.pdf
Educar por Competencias GS2 Ccesa007.pdf
 
Semana 10-TSM-del 27 al 31 de mayo 2024.pptx
Semana 10-TSM-del 27 al 31 de mayo 2024.pptxSemana 10-TSM-del 27 al 31 de mayo 2024.pptx
Semana 10-TSM-del 27 al 31 de mayo 2024.pptx
 
El Liberalismo económico en la sociedad y en el mundo
El Liberalismo económico en la sociedad y en el mundoEl Liberalismo económico en la sociedad y en el mundo
El Liberalismo económico en la sociedad y en el mundo
 
Junio 2024 Fotocopiables Ediba actividades
Junio 2024 Fotocopiables Ediba actividadesJunio 2024 Fotocopiables Ediba actividades
Junio 2024 Fotocopiables Ediba actividades
 
Mapa_Conceptual de los fundamentos de la evaluación educativa
Mapa_Conceptual de los fundamentos de la evaluación educativaMapa_Conceptual de los fundamentos de la evaluación educativa
Mapa_Conceptual de los fundamentos de la evaluación educativa
 
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdfUn libro sin recetas, para la maestra y el maestro Fase 3.pdf
Un libro sin recetas, para la maestra y el maestro Fase 3.pdf
 
Fase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría AnalíticaFase 3; Estudio de la Geometría Analítica
Fase 3; Estudio de la Geometría Analítica
 
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernándezPRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
PRÁCTICAS PEDAGOGÍA.pdf_Educación Y Sociedad_AnaFernández
 
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptxc3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
 

Funciones de activacion Poslin y Purelin

  • 1. 1 Aplicaci´on de las funciones de activaci´on poslin y purelin para clasificar figuras geom´etricas y coordenadas geograficas Application of activation functions poslin and purelin to classify geometric figures and geographical coordinates D. Guam´an, Member, IEEE, B. Cabrera, Member, IEEE, H. Paz , Tutor Res´umen—El presente trabajo muestra brevemente la apli-caci ´on de las redes neuronales artificiales, en la soluci´on de problemas reales en cualquier ´area del conocimiento humano, haciendo ´enfasis en las funciones de activaci´on poslin y purelin Abstract—This article briefly describes the application of artificial neural networks to solve real problems in any area of human knowledge, emphasizing functions on activation poslin and purelin. Palabras clave—perceptr´on, retropropagaci´on, funcion de en-trenamiento, capa de entrada, capa oculta, capa de salida, simulacion Index Terms—perceptron, backpropagation, training function, input layer, hidden layer, output layer, simulation I. INTRODUCCI´O N En la actualidad existe un extenso n´umero de problemas en ciencia e ingenier´ıa que implican la obtenci´on o extracci´on de informaci´on a partir de datos inciertos y complejos, para la gran mayor´ıa de estos inconvenientes, las operaciones matem´aticas complejas y aproximaciones tradicionales resultan ineficientes. Durante varias d´ecadas se intent´o brindar la soluci´on a estos problemas mediante la aplicaci´on de algoritmos, pero los inesperados resultados que fueron muy desalentadores en visi´on artificial y otras ´areas, provocaron que en la d´ecada de los 70 se percatasen de la imposibilidad de manejar todas las combinaciones posibles en situaciones reales al trabajar con estas estructuras algor´ıtmicas, debido al casi infinito n´umero de perturbaciones que pueden existir. El cerebro humano resulta ser uno de los ´organos que mayor inter´es ha causado entre los cient´ıficos de todas las D. Guam´an, Universidad Nacional de Loja, Loja, Ecuador, E-mail: dvguamanj@unl.edu.ec B. Cabrera, Universidad Nacional de Loja, Loja, Ecuador, E-mail: bgcabreraj@unl.edu.ec ´epocas, siendo objeto de simulaci´on y modelizaci´on desde la aparici´on de los primeros ordenadores. De esta manera fueron como surgieron dos formas m´as exactas de aproximarce al comportamiento biol´ogico: Redes Neuronales: En las cuales se trata de reproducir el esquema neuronal humano, tanto en sus unidades de proceso conocidas como neuronas, como en sus conexiones y modo de establecerlas Sistemas Inteligentes:En los que la aproximaci´on a la experiencia se establece a trav´es de: Una lista de reglas memorizadas basadas en diagramas de dependencias entre variables del sistema. Capacidad para inferir conclusiones de esas reglas utilizables como soluci´on a preguntas planteadas al sistema (consejos)[1] Este trabajo est´a estructurado de la siguiente forma: en la Secci´on II(ESTADO DEL ARTE) se docuementa toda la informaci´on importante y b´asica acerca de las redes neuronales artificiales, en la secci´on III(CASO DE ESTUDIO) se hace referencia a los problemas que se quieren resolver mediante la aplicaci´on de las funciones de activaci´on poslin y purelin mediante el empleo de diferentes tem´aticas tratadas en el ESTADO DEL ARTE y las cu´ales han sido aplicadas en dichos casos de estudio, en la secci´on IV(RESULTADOS) se hace menci´on y se demuestran los resultados obtenidos del caso de estudio que se ha realizado, en la secci´on V(CONCLUSIONES) se presentan las conclusiones a las que se han llegado al realizar este trabajo, en la secci´on VI(RECOMENDACIONES) se plantean las diferentes sug-erencias que se han logrado determinar con el desarrollo del trabajo y finalmente en la secci´on VII(TRABAJOS FU-TUROS) se mencionan los trabajos futuros que se pueden realizar, tomando como base este estudio planteado
  • 2. 2 Para la realizaci´on de este trabajo se emple´o la herramienta Matlab, en la cual se hizo la construcci´on de redes neuronales para simular la soluci´on de problemas reales, los mismos que se detallar´an m´as adelante con sus respectivos resultados. II. ESTADO DEL ARTE A. Fundamentos biol´ogicos Una neurona biol´ogica en la anatom´ıa humana es una c´elula especializada en procesar informaci´on, la cu´al est´a compuesta por: el cuerpo de la c´elula conocido como soma y dos tipos de ramificaciones: el ax´on y las dentritas como se muestra en la Fig. 1, la neurona recibe se˜nales(impulsos) de otras neuronas a trav´es de sus dentritas y transmite se˜nales generadas por el cuerpo de la c´elula a trav´es del ax´on. [2] Fig. 1. Estructura de una neurona biol´ogica B. Red Neuronal Artificial Una red neuronal artificial se puede definir como un modelo conexionista cuyos elementos o nodos, conectados entre s´ı, simulan las funciones desempe˜nadas por las c´elulas cerebrales las cuales se denominan neuronas.[3] Tambi´en se pueden definir como sistemas de computaci´on que constan de un gran n´umero de elementos simples, muy interconectados, que procesan la informaci´on respondiendo din´amicamente frente a unos est´ımulos externos.[1] La neurona artificial es una unidad procesadora con cuatro elementos funcionales como se muestra en la Fig. 2: Fig. 2. Estructura de una neurona artificial En donde: El receptor: Es en donde llegan una o varias se˜nales de entrada xi, que generalmente proceden de otras neuronas y que son amplificadas o atenuadas cada una de ellas con arreglo a un factor de peso wi ,que constituye la conectividad entre la neurona fuente de donde provienen y la neurona de destino. El sumador:Es el encargado de efectuar la suma alge-braica de las se˜nales de entrada, penetrandolas de acuerdo con su peso, aplicando la siguiente expresi´on: Funci´on de activaci´on: Que aplica una funci´on a la salida del simulador para decidir si la neurona se activa, disparando una salida o no. La salida: Es el que produce la se˜nal, de acuerdo con el elemento anterior, que constituye en s´ı la salida de la neurona.[4] En la Fig 3 se muestra la semejanza entre una neurona biol´ogica natural y su simulaci´on o representaci´on artificial: Fig. 3. Analog´ıas entre neuronas biol´ogica y artificial [3] C. Principales topolog´ıas La arquitectura de una red neuronal consiste en la orga-nizaci ´on y disposici´on de las neuronas, formando capas o agrupaciones de neuronas m´as o menos alejadas en la entrada y salida de dicha red. Los principales par´ametros fundamentales de la red son: el n´umero de capas, el n´umero de neuronas por capa, el grado de conectividad y el tipo de conexiones entre neuronas. Redes Monocapara En las redes monocapa, se estable-cen conexiones entre las neuronas que pertenecen a la ´unica capa que constituye la red. Las redes monocapas se utilizan generalmente en tareas relacionadas con lo que se conoce como auto asociaci´on (regenerar informaci´on de entrada que se presenta a la red de forma incompleta o distorsionada). Como por ejemplo: Perceptron, Adaline. – Perceptron: El modelo biol´ogico m´as simple de un perceptr´on es una neurona y viceversa. Es decir, el modelo matem´atico m´as simple de una neurona es un perceptr´on. El perceptr´on puede resolver solamente problemas que sean linealmente separables, osea que cuyas salidas est´en clasificadas en dos categor´ıas diferentes y que permitan que su espacio de entrada sea divido en estas dos regiones, es decir la lim-itaci ´on de este algoritmo es que si dibujamos en un plot , se deben poder separar con un hiperplano los elementos ”deseados” , como los ”no deseados”.[4] Redes Multicapa La red neuronal conocida como Per-ceptron Multicapa en un modelo neuronal con propa-gaci ´on hacia adelante, que se caracteriza por su organi-zaci ´on en capas de celdas disjuntas, de forma que ninguna
  • 3. 3 salida neuronal constituye una entrada para las neuronas de la misma capa o de capas previas, evit´andose as´ı las conexiones hacia atr´as o autorecurrentes. Se carac-teriza por su organizaci´on en capas de celdas disjun-tas, de forma que ninguna salida neuronal constituye una entrada para las neuronas de la misma capa o de capas previas, evit´andose as´ı las conexiones hacia atr´as o autorecurrentes. Esto permite resolver problemas que no son linealmente separables, lo cual es la principal limitaci´on del perceptr´on, esta red permite establecer regiones de decisi´on mucho m´as complejas que las de dos semiplanos, como lo hace el Perceptr´on de un solo nivel. [5] – Backpropagation: El algoritmo de Retropogacion de errores constituye el modelo de aprendizaje de la red Perceptron Multicapa m´as utilizado en la pr´actica, debido a su sencillez y eficacia para la resoluci´on de problemas m´as complejos. Este al-goritmo est´a basado en el m´etodo del gradiente descendente, que constituye a su vez uno de los m´etodos de optimizaci´on de funciones multivalentes m´as antiguos y conocidos. De forma simplificada, este algoritmo consiste en el aprendizaje de un conjunto predefinido de patrones de entrada-salida, empleando un ciclo “propagaci´on - adaptaci´on” con dos fases diferenciadas como son las de aprendizaje hacia adelante y aprendizaje hacia atr´as. [6] D. Funci´on de Activaci´on Para este caso de estudio, utilizaremos las funciones de activaci´on poslin y purelin, pero previamente conozcamos con m´as detalle qu´e es esta funci´on La funci´on de activaci´on se utiliza para limitar el rango de valores de la respuesta de la neurona.Generalmente los rangos de valores se limitan a [0,1] o [-1,1], sin embargo otros rangos son posibles de acuerdo a la aplicaci´on o problema a resolver. Existen diversas funciones de activaci´on y la decisi´on entre una u otra depender´a nuevamente de la aplicaci´on o problema a re-solver. Existen funciones de activaci´on com´unmente utilizadas y con las cuales se han obtenido resultados satisfactorios en diversas aplicaciones.[7] Funci´on lineal positiva (Poslin) El algoritmo que utiliza la funci´on de activaci´on poslin devuelve la salida n si n es mayor o igual a cero y retorna cero si n es menor a cero Y su representaci´on gr´afica esta definida como se muestra en la Fig. 4 En la documentaci´on de matlab 2014 podemos encontrar la siguientes l´ıneas de c´odigo para recibir informaci´on de esta funci´on. Fig. 4. Gr´afica Funci´on Poslin Sintaxis: A = poslin (N, FP) donde: N: matriz de entrada FP: par´ametros de la funci´on, aunque este valor no es necesario Descripci´on: info = poslin (code), devuelve informaci´on de esta funci´on: poslin(’name’): Devuelve el nombre de esta funci´on poslin(’output’,FP): Retorna el rango de salida, sus m´aximos y m´ınimos poslin(’active’,FP): Retorna los m´aximos y m´ınimos del rango activo poslin(’fullderiv’): Devuelve 1 o 0 poslin(’fpnames’): Devuelve los nombres de los par´ametros de la funci´on poslin(’fpdefaults’) : Devuelve los par´ametros de la funci´on por defecto [8] Funci´on lineal (Purelin) La salida de una funci´on de transferencia lineal es igual a su entrada a=n Y su representaci´on gr´afica est´a dada por la Fig. 5 Fig. 5. Gr´afica Funci´on Purelin Al igual que en la funci´on de activaci´on anterior, existe en la documentaci´on oficial de matlab 2014 sentencias que permiten obtener informaci´on de esta funci´on Sintaxis:
  • 4. 4 A = purelin (N, FP) donde: N: matriz de entrada FP: par´ametros de la funci´on, aunque este valor no es necesario[9] La Fig. 6 muestra las principales funciones de activaci´on empleadas en el entrenamiento de redes neuronales Fig. 6. Funciones de Activaci´on E. Aprendizaje Una de las principales caracter´ısticas y de vital importancia de una red neuronal es su capacidad de aprendizaje, el apren-dizaje permite que la red modifique su propia estructura(matriz de pesos) adapt´andola hasta conseguir un algoritmo de eje-cuci ´on. El aprendizaje consiste en hacer cambios en los pesos de las conexiones entre las neuronas de la red hasta conseguir la respuesta deseada, mientras que el entrenamiento resulta ser el procedimiento por el cual la red aprende, donde el aprendizaje es el resultado final de ese proceso, llegando a la conclusi´on que el primero es un procedimiento externo a la red, y el segundo, un procedimiento o actividad interna, se distinguen tres tipos de aprendizaje: Aprendizaje Supervisado: Donde un conjunto conocido de datos de entrada-salida se utiliza para iterativamente ajustar los pesos de la red. Aprendizaje No Supervisado:Donde ´unicamente se disponen de datos de entrada y una funci´on de coste a minimizar. Aprendizaje Reforzado:Situado a medio camino entre el aprendizaje supervisado y no supervisado. En este aprendizaje la informaci´on proporcionada a la red es m´ınima, limit´andose a indicar si la respuesta de la red es correcta o incorrecta.[11] Alguno tipos de funciones de aprendizaje que tenemos disponibles en matlab son los siguientes: trainb : Entrenamiento con regla de aprendizaje del peso y del bias trainbr :regularizaci´on bayesiana trainc : Funciones ascendentes de entrenamiento c´ıclico traincgf : Backpropagation conyugal del gradiente de Fletcher-Powell traingd :Backpropagation de la pendiente del gradiente traingdm : Pendiente del gradiente con el backpropaga-tion del ´ımpetu traingda :Pendiente del gradiente con el backpropagation adaptativo trainlm : Backpropagation de Levenberg-Marquardt, trainlm es el algoritmo m´as r´apido de propagaci´on hacia atr´as, y es muy recomendable como primera elecci´on su-pervisada del algoritmo, aunque s´ı requiere m´as memoria que otros algoritmos. trainoss: Backpropagation secante de un solo paso trains :Funciones incrementales del entrenamiento w/learning secuencial[12] III. CASO DE ESTUDIO Para entender mejor la funciones de activaci´on purelin y poslin hemos planteado un ejemplo para cada una, las cuales se detallan a continuaci´on A. Clasificador de figuras geom´etricas b´asicas usando poslin Con este ejemplo pr´actico, se pretende realizar una clasificaci´on entre 5 figuras geom´etricas b´asicas; cuadrado, tri´angulo, c´ırculo, recta y punto, para lo cual se hizo uso de la funci´on de activaci´on lineal positiva (poslin), para la realizaci´on de esta demostraci´on se emple´o la siguiente entrada como se muestra en la Fig. 7: Fig. 7. Datos de entrada En donde v1, v2, v3, v4 son las variables de entrada para la red neuronal, las mismas que representan los v´ertices de cada
  • 5. 5 figura geom´etrica, y en funci´on de estos v´ertices las neuronas van a entrenar y as´ı llegar a un aprendizaje, que est´a dado por los siguientes datos de salida, que se pueden apreciar en la Fig. 8: Fig. 8. Salida Deseada Con la herramienta Matlab, se hizo la codificaci´on de este problema de la siguiente forma: Primeramente se hizo el ingreso de la matriz de entrada y de salida, tal como se muestra a continuaci´on: Seguidamente se cre´o la red que es de tipo backpropa-gation, que es una red multicapa, mediante el comando newff, como se detalla: En donde: [0 1; 0 1; 0 1; 0 1]= Representa la matriz de valores m´aximos y m´ınimos para cada una de las neurona de entrada [55,1]= N´umero de neuronas para cada una de las capas, en este caso 55 para la capa oculta y 1 para la capa de salida, las neuronas en la capa oculta son totalmente independientes de las entradas o salidas, para este caso se necesito de esa cantidad para resolver el problema. [’poslin’ ’poslin’]= Aqu´ı se especifica la funci´on de activaci´on con la que va a trabajar cada capa. [trainlm]= Se especifica el algoritmo de entrenamiento a utilizar Seguidamente se establecieron algunos par´ametros, cor-respondientes al entrenamiento: En donde la primera sentencia epochs=1000 indica el n´umero m´aximo de iteraciones que tiene la neurona para realizar su aprendizaje, el show=5 es el intervalo de visualizaci´on de los resultados y en la ´ultima sentencia se procede a entrenar la red respecto a sus entradas y salida, con la finalidad de que realice la clasificaci´on. Finalmente con el comando sim, se verifica si el apren-dizaje de mi red neuronal fue el correcto, al comparar con los datos de salida, el comando es el siguiente: simulaci´on = sim(red,entradaPoslin) En el cual se env´ıa como par´ametros el nombre de la red y los datos de entrada. B. Clasificador de coordenadas de localizaci´on, en un plano catogr´afico Con este ejemplo se pretende demostrar la utilizaci´on de la funcion de activaci´on purelin, para determinar puntos en un mapa cartogr´afico referenciados mediante 2 ecuaciones que van a representar la longitud y la latitud de dichos puntos, como se muestra en la Fig. 9 Fig. 9. Ecuaciones Lineales As´ı mismo utilizando la herramienta Matlab se procedi´o la codificaci´on del ejemplo con la aplicaci´on de redes neuronales. A continuaci´on graficamos los puntos de las entradas ingre-sadas con el comando: En donde se dibuja un vector de abscisas “x” y ordenadas “y” ‘o’ , dibuja c´ırculos en los puntos marcados en el plano.
  • 6. 6 Ahora crearemos nuestro perceptr´on multicapa. En donde: [-3 3;-3 3]: valores m´ınimo y m´aximo de la variable [1 2]: N´umero de neuronas para cada una de las capas, aqu´ı se utiliz´o 1 neurona para la capa oculta y 2 para la capa de salida. ’purelin’ ’purelin’: Se especifica la funcion de activacion que se va a utilizar, en este caso se utilizo purelin para las 2 entradas. trainlm: algoritmo de entrenamiento de la red. Seguidamente como se muestra en la Fig. 10 se es-tablecieron algunos par´ametros, correspondientes al entre-namiento: En donde la primera sentencia epochs=1000 indica el n´umero m´aximo de iteraciones que tiene la neurona para realizar su aprendizaje, el show=5 es el intervalo de visual-izaci ´on de los resultados y en la ´ultima sentencia se procede a entrenar la red respecto a sus entradas y salidas. Fig. 10. Par´ametros de Entrenamiento Graficamos la l´ınea de separaci´on que tiene el perceptr´on y finalmente simulamos nuestra red, para comprobar si el aprendizaje de mi red neuronal fue el correcto, al comparar los datos de salida, con la salida deseada y verificar que las coordenadas son las correctas..[13] IV. RESULTADOS En esta parte se muestran los resultados obtenidos de cada uno de los casos de estudio: Resultados del clasificador de figuras geom´etricas b´asicas Al ejecutar las l´ıneas de c´odigo que se establecieron en el punto anterior, se obtuvo lo siguiente: Simulaci´on 4 3 3 2 3 2 2 1 3 2 2 1 2 1 1 0 SalidaDeseada 4 3 3 2 3 2 2 1 3 2 2 1 2 1 1 0 Lo que permite identificar a simple vista que la red neuronal aprendi´o correctamente ya que la salida obtenida (simulaci´on) es igual a la deseada, como se meustra en la Fig 11 pero para comprobar que se est´a clasificando correctamente se debe ingresar el comando sim de la siguiente forma en la ventana de comandos de Matlab Fig. 11. Probando comando sim Donde se puede verficar que el resultado es igual a 3, lo que indica claramente que la figura que se ana˜niz´o tiene tres v´ertices, es decir se trata de un tri´angulo, ahora probemeos nuevamente el comando con otro valor, como se muestra en la Fig 12 Fig. 12. Probando comando sim Verificando que el resultado es 4, lo que indica que se trata de un cuadrado, en la Fig. 13 se denota el diagrama obtenido de la red neuronal: Fig. 13. Diagrama de la red En donde se puede apreciar el n´umero de entrados que en este caso son 4 , debido a los 4 v´ertices, la capa oculta con 55 neuronas y la de salida con 1, a continuaci´on en la Fig, 14 se detalla el progreso del entrenamiento de la red neuronal: En la cual se identifica, que la red neuronal aprendi´o en 7 iteraciones la forma de c´omo clasificar las figuras geom´etricas seg´un las entradas y salida previstas. Resultados del clasificador de coordenadas Al ejecutar las lineas de codigo de la simulaci´on se obtuvo lo que se muestra en la Fig. 15.
  • 7. 7 Fig. 14. Progreso de entrenamiento Fig. 15. Comparaci´on entre salida deseada y obtenida Lo que permite identificar a simple vista que la red neuronal aprendi´o correctamente ya que la salida obtenida (simulaci´on) es igual a la deseada, lo cual se puede verificar memdiante el comando sim, para simular 2 posiciones cualquiera, como se muestra en la Fig. 16 Fig. 16. Localizando posiciones Donde se puede identificar las 2 coordenadas (-3,-38) y (3,-28), que reflejan las coordenadas de mi poscion antigua y mi posici´on actual respectivamente, con mas claridad se puede identificar con la Fig. 17. A continuaci´on en la Gig. 18 se presenta el diagrama obtenido de la red neuronal. En donde se puede apreciar el n´umero de entrados que en este caso son 2 , debido a las 2 ecuaciones, la capa oculta con 2 neuronas y la de salida con 2, y en la figura que se muestra a continuaci´on se detalla el progreso del entrenamiento de la red neuronal: En la cual se identifica, que la red neuronal aprendi´o en 6 iteraciones la forma de c´omo calcular los valores de “y” de las ecuaci´ones lineales seg´un las entradas y salida prevista, con el objetivo de localizar las posiciones anitiguas y actuales.[13] Fig. 17. Posiciones en el plano Fig. 18. Diagrama de la red neuronal Fig. 19. Progreso de entrenamiento neuronal V. CONCLUSIONES Se determin´o que las redes neuronales artificiales resultan ser un conjunto estructural de elementos, que interact´uan entre s´ı, para simular el comportamiento de raciocinio del ser humano, con el prop´osito de elaborar sistemas inteligentes que aprendan en base a errores y brinden soluciones eficientes y exactas. El uso de tipos de redes neuronales var´ıa de acuerdo a la soluci´on de problemas y al uso de funciones de activaci´on, ya que para estos 2 casos pr´acticos se pudo entender que con un perceptr´on simple la neurona no aprend´ıa y ocupaba las 1000 iteraciones de aprendizaje que se le asignaban mediante la sentencia red.trainParam.epochs=1000;por lo que se opt´o por el perceptr´on multicapa para resolver estos problemas y lograr que la red neuronal aprenda correctamente. La utilizaci´on de las funciones de activaci´on poslin y purelin demostraron ser eficientes para la soluci´on de problemas linealmente separables, en donde la funcion poslin trabaja con valores que est´an por encima del eje de las x es decir con valores positivos de ah´ı su nombre de linealmente positiva, lo que fue muy factible para emplearlo en el clasificador de figuras ya que se trabajaba con v´ertices donde
  • 8. 8 no se necesita de valores negativos para determinar el tipo de figura, mientras que purelin trabaja con valores positivos y negativos que la hace eficiente para determinar los valores de “y” de ecuaciones de primer grado, y obtener los puntos de localizaci´on en el plano para su respectiva gr´afica. VI. RECOMENDACIONES Al momento que la red neuronal est´a aprendiendo en base a sus entradas y salidas, es posible que este aprendizaje sea err´onero, por eso se recomienda variar los valores m´aximos y m´ınimos o aumentar las neuronas en la capa oculta, ya que en ciertos problemas el aprendizaje es mejor cuando hay mas neuronas interactuando entre s´ı. Para la resoluci´on de cualquier problema es recomendable hacer la respectiva simulaci´on del comportamiento de las redes, con el fin de comprobar si las salidas obtenidas son iguales a las deseadas. Se debe utilizar una funci´on de activaci´on referente al problema que se pretenda solucionar, sobre todo conocer que tipos de redes neuronales trabajan con ciertas funciones de activaci´on, ya que algunos problemas necesitan de un solo perceptron para solucionarce, as´ı como otros pueden necesitar de perceptrones multicapa para llegar a un aprendizaje eficiente. Utilizar este trabajo como material de estudio para los estudiantes, con el plan de seguir investigando m´as a fondo acerca del mundo de la inteligencia artificial. Para el dise˜no y resoluci´on de problemas con redes neuronales se aconseja utilizar la potente herramienta de Matlab, ya que esta cuenta con un sin n´umero de funciones y m´etodos que nos facilitan el aprendizaje del mismo. VII. TRABAJOS FUTUROS Aplicaci´on de las redes neuronales artificailes y las funciones de activaci´on poslin y purelin para resolver problemas de clasificaci´on linealmente separable, en lo que se refiere a la categorizaci´on de peatones y aut´omoviles de las diferentes calles y avenidas de Loja. Implementaci´on de redes neuronales y tecnlog´ıa web, para la creaci´on de sistemas inteligentes de apoyo a la toma de decisiones, y que ayuden mediante inm´otica a realizar procesos autom´aticos frente a cualquier est´ımulo u agente externo e interno del medio. REFERENCIAS [1] R. Diez,A. G´omez N. Mart´ınez , La accesibilidad en los portales universitarios, [En linea] link:http://books.google.es/books?id= RKqLMCw3IUkCpg=PA26dq=redes+neuronales+artificialeshl= essa=Xei=2mJVVOzULMOVNtipgOAJved=0CCgQ6AEwAQ#v= onepageqf=false, consulta realizada 1-Oct-2014 [2] P. Ponce, Inteligencia Artificial, con aplicaciones a la ingenier´ıa, [Of line], consulta realizada 1-Oct-14 [3] R.Beltr´a, Bioinform´atica simulaci´on.vida artificial e inteligencia artifi-cial, [En linea] link:http://books.google.es/books?id=U4pwetEPmpQC printsec=frontcoverdq=redes+neuronales+artificialeshl=essa=X ei=2mJVVOzULMOVNtipgOAJved=0CDUQ6AEwAw#v=onepage q=redes%20neuronales%20artificialesf=false, consulta realizada 1-Oct-2014 [4] F. Lara, Fundamentos de redes neuronales artificiales, [En linea] link: http://conceptos.sociales.unam.mx/conceptos final/598trabajo.pdf , consulta realizada 1-Oct-14 [5] J. Dami´an, Redes Neuronales: Conceptos B´asicos y Aplicaciones, [En linea] link: http://www.frro.utn.edu.ar/repositorio/catedras/quimica/ 5 anio/orientadora1/monograias/matich-redesneuronales.pdf, consulta realizada 1-Oct-2014 [6] R. Florez, J. Fern´andez, Las redes neuronales artificiales, fundamentos te´oricos y aplicaciones pr´acticas, [En linea] link: http://books.google.com.ec/books?id=X0uLwi1Ap4QCprintsec= frontcoverhl=es#v=onepageqf=false,consulta realizada 1-Oct-14 [7] M. Villasana, Introducci´on a las redes neuronales, [En linea] link:http://es.slideshare.net/HALCONPEREGRINO2/ introduccion-a-las-redes-neuronales, consulta realizada 1-Oct-14 [8] MathWorks, Documentaci´on oficial de Matlab, [En linea] link:link:http://www.mathworks.com/help/nnet/ref/poslin.html, consulta realizada 1-Oct-14 [9] MathWorks, Purelin, [En linea] link: http://www.mathworks.com/help/ nnet/ref/purelin.html , consulta realizada 1-Oct-14 [10] F. Tanco, Introducci´on a las redes neuronales artificiales, [En linea] link: http://www.secyt.frba.utn.edu.ar/gia/RNA.pdf , consulta realizada 1-Oct-14 [11] MathWorks, Redes Neuronales artificiales con matlab , [En linea] link: http://es.mathworks.com/discovery/redes-neuronales.html ,consulta realizada 1-Oct-14 [12] MathWorks, Docuemntaci´on toolbox de Matlab , [En linea] link: http://es.mathworks.com/help/nnet/functionlist.html ,consulta realizada 1-Oct-14 [13] D. Guaman-B. Cabrera, C´odigo fuente del clasificador de figurasgeom-petricas y el clasificador de localizaciones geogr´aficas, [En linea] link: https://code.google.com/p/mi-proyecto-purelin-posling/source/browse/ Diego Guam´an Estudiante de la Carrera de Ingenier´ıa en Sistemas de la Universidad Nacional de Loja, Provincia de Loja, Ciudad Loja, Ecuador, 2014. Byron Cabrera Estudiante de la Carrera de Ingenier´ıa en Sistemas de la Universidad Nacional de Loja, Provincia de Loja, Ciudad Loja, Ecuador, 2014.