Simulación de Recepción de llamadas del ECU911 para dar un servicio a la ciudadanía, aplicando funciones de
activación tansig y logsig en Redes Neuronales.
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
Redes Neuronales: Funciones de Activación
Hardlim para simular un circuito con sensor de
movimiento y Hardlims para determinar si una
persona es diabética en Matlab
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
El presente artículo se presenta dos casos de estudio (problemas), en el cual se utiliza las funciones de transferencia HARDLIM y HARDLIMS, mismas que son para resolver problemas linealmente separables.
Simulación de Recepción de llamadas del ECU911 para dar un servicio a la ciudadanía, aplicando funciones de
activación tansig y logsig en Redes Neuronales.
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
Redes Neuronales: Funciones de Activación
Hardlim para simular un circuito con sensor de
movimiento y Hardlims para determinar si una
persona es diabética en Matlab
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
El presente artículo se presenta dos casos de estudio (problemas), en el cual se utiliza las funciones de transferencia HARDLIM y HARDLIMS, mismas que son para resolver problemas linealmente separables.
Este articulo trata sobre la neurona artificial, su historia, características, y estructura. Además se podrá apreciar las funciones de activación hardlim y hardlims en un ejemplo práctico para la clasificación de personas, en donde también se usó la herramienta MATLAB.
Existen muchos métodos o algoritmos para entrenar perceptron multicapas, sin embargo en este caso se mostrará la optimización de las respuestas al intentar entrenar una RNA Multicapa empleando el algoritmo de Simulated Annealing
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
Presentación para cátedra de Inteligencia Artificial.
Tema de la clase: Redes Neuronales de Aprendizaje Supervisado, más específicamente. Perceptron Simple.
Author: Andrea Lezcano
Tutor de Cátedra: Ing. Sergio Pohlmann
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
1. - Introducción a las Redes Neuronales.
1.1.- Redes Neuronales Artificiales (Artificial
Neural Networks).
1.2.- Neuronas biológicas.
1.3.- ¿Qué es una red neuronal?
1.4.- Tipos de redes neuronales.
1.5.- Aplicaciones.
2. - Aplicación al diseño de controladores
difusos.
2.1.- Arquitectura ANFIS.
2.2.- Controlador neurodifuso adaptativo.
2.3.- Otros ejemplos de aplicación.
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Juan Carlos Gonzalez Ortiz
En el presente artículo se estudian las funciones de activación Satlin y Satlins, haciendo un mayor énfasis en la función Satlin porque es parte de la estructura del modelo de red neuronal Hopfield.
Matlab es utilizada para implementar la red de Hopfield que permiten el reconociemiento de un patrón incompleto que ha sido ingresado, y se relaciona con el patrón almacenado en la memoria y lo asocia con el que mas se parezca.
Este articulo trata sobre la neurona artificial, su historia, características, y estructura. Además se podrá apreciar las funciones de activación hardlim y hardlims en un ejemplo práctico para la clasificación de personas, en donde también se usó la herramienta MATLAB.
Existen muchos métodos o algoritmos para entrenar perceptron multicapas, sin embargo en este caso se mostrará la optimización de las respuestas al intentar entrenar una RNA Multicapa empleando el algoritmo de Simulated Annealing
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
Presentación para cátedra de Inteligencia Artificial.
Tema de la clase: Redes Neuronales de Aprendizaje Supervisado, más específicamente. Perceptron Simple.
Author: Andrea Lezcano
Tutor de Cátedra: Ing. Sergio Pohlmann
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
1. - Introducción a las Redes Neuronales.
1.1.- Redes Neuronales Artificiales (Artificial
Neural Networks).
1.2.- Neuronas biológicas.
1.3.- ¿Qué es una red neuronal?
1.4.- Tipos de redes neuronales.
1.5.- Aplicaciones.
2. - Aplicación al diseño de controladores
difusos.
2.1.- Arquitectura ANFIS.
2.2.- Controlador neurodifuso adaptativo.
2.3.- Otros ejemplos de aplicación.
Reconocimiento de Patrones Incompletos Mediante Funciones de Activación Satli...Juan Carlos Gonzalez Ortiz
En el presente artículo se estudian las funciones de activación Satlin y Satlins, haciendo un mayor énfasis en la función Satlin porque es parte de la estructura del modelo de red neuronal Hopfield.
Matlab es utilizada para implementar la red de Hopfield que permiten el reconociemiento de un patrón incompleto que ha sido ingresado, y se relaciona con el patrón almacenado en la memoria y lo asocia con el que mas se parezca.
Las redes neuronales artificiales son objetos matemáticos o computacionales que se definen en un intento de simular el cerebro humano en un ordenador.
Computacionalmente suponen un modelo distinto a la tradicional máquina de Turing o de procesamiento en serie. Una red neuronal artificial permite un procesamiento altamente paralelo, al menos en teoría (es claro que si se
implementan en un ordenador convencional con su procesamiento en serie, el procesamiento de la información deja de ser realmente paralelo)
Redes neuronales Luis Lozano CI 22.840.519lozanolc
Las redes neuronales artificiales RNA buscan imitar el comportamiento de las redes neuronales de las personas, y aplicarlas en las computadoras, esta presentación es una introducción a esta rama de la Inteligencia Artificial que cada dia toma mas importancia en el desarrollo de computadores de 6ta generación
Una red neuronal artificial (ANN) es un esquema de computación distribuida inspirada en la estructura del sistema nervioso de los seres humanos. La arquitectura de una red neuronal es formada conectando múltiples procesadores elementales, siendo éste un sistema adaptivo que pose un algoritmo para ajustar sus pesos (parámetros libres) para alcanzar los requerimientos de desempeño del problema basado en muestras representativas.
Instrucciones del procedimiento para la oferta y la gestión conjunta del proceso de admisión a los centros públicos de primer ciclo de educación infantil de Pamplona para el curso 2024-2025.
Un libro sin recetas, para la maestra y el maestro Fase 3.pdfsandradianelly
Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestra y el maestro Fase 3Un libro sin recetas, para la maestr
c3.hu3.p3.p2.Superioridad e inferioridad en la sociedad.pptx
Funciones de activacion Poslin y Purelin
1. 1
Aplicaci´on de las funciones de activaci´on poslin y
purelin para clasificar figuras geom´etricas y
coordenadas geograficas
Application of activation functions poslin and
purelin to classify geometric figures and
geographical coordinates
D. Guam´an, Member, IEEE,
B. Cabrera, Member, IEEE,
H. Paz , Tutor
Res´umen—El presente trabajo muestra brevemente la apli-caci
´on de las redes neuronales artificiales, en la soluci´on de
problemas reales en cualquier ´area del conocimiento humano,
haciendo ´enfasis en las funciones de activaci´on poslin y purelin
Abstract—This article briefly describes the application of
artificial neural networks to solve real problems in any area
of human knowledge, emphasizing functions on activation poslin
and purelin.
Palabras clave—perceptr´on, retropropagaci´on, funcion de en-trenamiento,
capa de entrada, capa oculta, capa de salida,
simulacion
Index Terms—perceptron, backpropagation, training function,
input layer, hidden layer, output layer, simulation
I. INTRODUCCI´O
N
En la actualidad existe un extenso n´umero de problemas en
ciencia e ingenier´ıa que implican la obtenci´on o extracci´on
de informaci´on a partir de datos inciertos y complejos, para
la gran mayor´ıa de estos inconvenientes, las operaciones
matem´aticas complejas y aproximaciones tradicionales
resultan ineficientes.
Durante varias d´ecadas se intent´o brindar la soluci´on a
estos problemas mediante la aplicaci´on de algoritmos, pero
los inesperados resultados que fueron muy desalentadores en
visi´on artificial y otras ´areas, provocaron que en la d´ecada de
los 70 se percatasen de la imposibilidad de manejar todas las
combinaciones posibles en situaciones reales al trabajar con
estas estructuras algor´ıtmicas, debido al casi infinito n´umero
de perturbaciones que pueden existir.
El cerebro humano resulta ser uno de los ´organos que
mayor inter´es ha causado entre los cient´ıficos de todas las
D. Guam´an, Universidad Nacional de Loja, Loja, Ecuador, E-mail:
dvguamanj@unl.edu.ec
B. Cabrera, Universidad Nacional de Loja,
Loja, Ecuador, E-mail: bgcabreraj@unl.edu.ec
´epocas, siendo objeto de simulaci´on y modelizaci´on desde la
aparici´on de los primeros ordenadores.
De esta manera fueron como surgieron dos formas m´as
exactas de aproximarce al comportamiento biol´ogico:
Redes Neuronales: En las cuales se trata de reproducir el
esquema neuronal humano, tanto en sus unidades de proceso
conocidas como neuronas, como en sus conexiones y modo
de establecerlas
Sistemas Inteligentes:En los que la aproximaci´on a la
experiencia se establece a trav´es de:
Una lista de reglas memorizadas basadas en diagramas de
dependencias entre variables del sistema.
Capacidad para inferir conclusiones de esas reglas utilizables
como soluci´on a preguntas planteadas al sistema (consejos)[1]
Este trabajo est´a estructurado de la siguiente forma: en
la Secci´on II(ESTADO DEL ARTE) se docuementa toda la
informaci´on importante y b´asica acerca de las redes neuronales
artificiales, en la secci´on III(CASO DE ESTUDIO) se hace
referencia a los problemas que se quieren resolver mediante
la aplicaci´on de las funciones de activaci´on poslin y purelin
mediante el empleo de diferentes tem´aticas tratadas en el
ESTADO DEL ARTE y las cu´ales han sido aplicadas en
dichos casos de estudio, en la secci´on IV(RESULTADOS)
se hace menci´on y se demuestran los resultados obtenidos
del caso de estudio que se ha realizado, en la secci´on
V(CONCLUSIONES) se presentan las conclusiones a las
que se han llegado al realizar este trabajo, en la secci´on
VI(RECOMENDACIONES) se plantean las diferentes sug-erencias
que se han logrado determinar con el desarrollo
del trabajo y finalmente en la secci´on VII(TRABAJOS FU-TUROS)
se mencionan los trabajos futuros que se pueden
realizar, tomando como base este estudio planteado
2. 2
Para la realizaci´on de este trabajo se emple´o la herramienta
Matlab, en la cual se hizo la construcci´on de redes neuronales
para simular la soluci´on de problemas reales, los mismos que
se detallar´an m´as adelante con sus respectivos resultados.
II. ESTADO DEL ARTE
A. Fundamentos biol´ogicos
Una neurona biol´ogica en la anatom´ıa humana es una c´elula
especializada en procesar informaci´on, la cu´al est´a compuesta
por: el cuerpo de la c´elula conocido como soma y dos tipos de
ramificaciones: el ax´on y las dentritas como se muestra en la
Fig. 1, la neurona recibe se˜nales(impulsos) de otras neuronas
a trav´es de sus dentritas y transmite se˜nales generadas por el
cuerpo de la c´elula a trav´es del ax´on. [2]
Fig. 1. Estructura de una neurona biol´ogica
B. Red Neuronal Artificial
Una red neuronal artificial se puede definir como un modelo
conexionista cuyos elementos o nodos, conectados entre s´ı,
simulan las funciones desempe˜nadas por las c´elulas cerebrales
las cuales se denominan neuronas.[3]
Tambi´en se pueden definir como sistemas de computaci´on
que constan de un gran n´umero de elementos simples, muy
interconectados, que procesan la informaci´on respondiendo
din´amicamente frente a unos est´ımulos externos.[1]
La neurona artificial es una unidad procesadora con cuatro
elementos funcionales como se muestra en la Fig. 2:
Fig. 2. Estructura de una neurona artificial
En donde:
El receptor: Es en donde llegan una o varias se˜nales de
entrada xi, que generalmente proceden de otras neuronas
y que son amplificadas o atenuadas cada una de ellas
con arreglo a un factor de peso wi ,que constituye la
conectividad entre la neurona fuente de donde provienen
y la neurona de destino.
El sumador:Es el encargado de efectuar la suma alge-braica
de las se˜nales de entrada, penetrandolas de acuerdo
con su peso, aplicando la siguiente expresi´on:
Funci´on de activaci´on: Que aplica una funci´on a la
salida del simulador para decidir si la neurona se activa,
disparando una salida o no.
La salida: Es el que produce la se˜nal, de acuerdo con
el elemento anterior, que constituye en s´ı la salida de la
neurona.[4]
En la Fig 3 se muestra la semejanza entre una neurona
biol´ogica natural y su simulaci´on o representaci´on artificial:
Fig. 3. Analog´ıas entre neuronas biol´ogica y artificial [3]
C. Principales topolog´ıas
La arquitectura de una red neuronal consiste en la orga-nizaci
´on y disposici´on de las neuronas, formando capas o
agrupaciones de neuronas m´as o menos alejadas en la entrada y
salida de dicha red. Los principales par´ametros fundamentales
de la red son: el n´umero de capas, el n´umero de neuronas por
capa, el grado de conectividad y el tipo de conexiones entre
neuronas.
Redes Monocapara En las redes monocapa, se estable-cen
conexiones entre las neuronas que pertenecen a la
´unica capa que constituye la red. Las redes monocapas
se utilizan generalmente en tareas relacionadas con lo que
se conoce como auto asociaci´on (regenerar informaci´on
de entrada que se presenta a la red de forma incompleta o
distorsionada). Como por ejemplo: Perceptron, Adaline.
– Perceptron: El modelo biol´ogico m´as simple de un
perceptr´on es una neurona y viceversa. Es decir, el
modelo matem´atico m´as simple de una neurona es un
perceptr´on. El perceptr´on puede resolver solamente
problemas que sean linealmente separables, osea que
cuyas salidas est´en clasificadas en dos categor´ıas
diferentes y que permitan que su espacio de entrada
sea divido en estas dos regiones, es decir la lim-itaci
´on de este algoritmo es que si dibujamos en un
plot , se deben poder separar con un hiperplano los
elementos ”deseados” , como los ”no deseados”.[4]
Redes Multicapa La red neuronal conocida como Per-ceptron
Multicapa en un modelo neuronal con propa-gaci
´on hacia adelante, que se caracteriza por su organi-zaci
´on en capas de celdas disjuntas, de forma que ninguna
3. 3
salida neuronal constituye una entrada para las neuronas
de la misma capa o de capas previas, evit´andose as´ı
las conexiones hacia atr´as o autorecurrentes. Se carac-teriza
por su organizaci´on en capas de celdas disjun-tas,
de forma que ninguna salida neuronal constituye
una entrada para las neuronas de la misma capa o de
capas previas, evit´andose as´ı las conexiones hacia atr´as
o autorecurrentes. Esto permite resolver problemas que
no son linealmente separables, lo cual es la principal
limitaci´on del perceptr´on, esta red permite establecer
regiones de decisi´on mucho m´as complejas que las de
dos semiplanos, como lo hace el Perceptr´on de un solo
nivel. [5]
– Backpropagation: El algoritmo de Retropogacion
de errores constituye el modelo de aprendizaje de
la red Perceptron Multicapa m´as utilizado en la
pr´actica, debido a su sencillez y eficacia para la
resoluci´on de problemas m´as complejos. Este al-goritmo
est´a basado en el m´etodo del gradiente
descendente, que constituye a su vez uno de los
m´etodos de optimizaci´on de funciones multivalentes
m´as antiguos y conocidos. De forma simplificada,
este algoritmo consiste en el aprendizaje de un
conjunto predefinido de patrones de entrada-salida,
empleando un ciclo “propagaci´on - adaptaci´on” con
dos fases diferenciadas como son las de aprendizaje
hacia adelante y aprendizaje hacia atr´as. [6]
D. Funci´on de Activaci´on
Para este caso de estudio, utilizaremos las funciones de
activaci´on poslin y purelin, pero previamente conozcamos con
m´as detalle qu´e es esta funci´on
La funci´on de activaci´on se utiliza para limitar el rango de
valores de la respuesta de la neurona.Generalmente los rangos
de valores se limitan a [0,1] o [-1,1], sin embargo otros rangos
son posibles de acuerdo a la aplicaci´on o problema a resolver.
Existen diversas funciones de activaci´on y la decisi´on entre una
u otra depender´a nuevamente de la aplicaci´on o problema a re-solver.
Existen funciones de activaci´on com´unmente utilizadas
y con las cuales se han obtenido resultados satisfactorios en
diversas aplicaciones.[7]
Funci´on lineal positiva (Poslin) El algoritmo que utiliza
la funci´on de activaci´on poslin devuelve la salida n si n
es mayor o igual a cero y retorna cero si n es menor a
cero
Y su representaci´on gr´afica esta definida como se muestra
en la Fig. 4
En la documentaci´on de matlab 2014 podemos encontrar
la siguientes l´ıneas de c´odigo para recibir informaci´on
de esta funci´on.
Fig. 4. Gr´afica Funci´on Poslin
Sintaxis:
A = poslin (N, FP)
donde:
N: matriz de entrada
FP: par´ametros de la funci´on, aunque este valor no es
necesario
Descripci´on:
info = poslin (code), devuelve informaci´on de esta
funci´on:
poslin(’name’): Devuelve el nombre de esta funci´on
poslin(’output’,FP): Retorna el rango de salida, sus
m´aximos y m´ınimos
poslin(’active’,FP): Retorna los m´aximos y m´ınimos del
rango activo
poslin(’fullderiv’): Devuelve 1 o 0
poslin(’fpnames’): Devuelve los nombres de los
par´ametros de la funci´on
poslin(’fpdefaults’) : Devuelve los par´ametros de la
funci´on por defecto [8]
Funci´on lineal (Purelin) La salida de una funci´on de
transferencia lineal es igual a su entrada
a=n
Y su representaci´on gr´afica est´a dada por la Fig. 5
Fig. 5. Gr´afica Funci´on Purelin
Al igual que en la funci´on de activaci´on anterior, existe
en la documentaci´on oficial de matlab 2014 sentencias
que permiten obtener informaci´on de esta funci´on
Sintaxis:
4. 4
A = purelin (N, FP)
donde:
N: matriz de entrada
FP: par´ametros de la funci´on, aunque este valor no es
necesario[9]
La Fig. 6 muestra las principales funciones de activaci´on
empleadas en el entrenamiento de redes neuronales
Fig. 6. Funciones de Activaci´on
E. Aprendizaje
Una de las principales caracter´ısticas y de vital importancia
de una red neuronal es su capacidad de aprendizaje, el apren-dizaje
permite que la red modifique su propia estructura(matriz
de pesos) adapt´andola hasta conseguir un algoritmo de eje-cuci
´on.
El aprendizaje consiste en hacer cambios en los pesos de
las conexiones entre las neuronas de la red hasta conseguir la
respuesta deseada, mientras que el entrenamiento resulta ser el
procedimiento por el cual la red aprende, donde el aprendizaje
es el resultado final de ese proceso, llegando a la conclusi´on
que el primero es un procedimiento externo a la red, y el
segundo, un procedimiento o actividad interna, se distinguen
tres tipos de aprendizaje:
Aprendizaje Supervisado: Donde un conjunto conocido
de datos de entrada-salida se utiliza para iterativamente
ajustar los pesos de la red.
Aprendizaje No Supervisado:Donde ´unicamente se
disponen de datos de entrada y una funci´on de coste a
minimizar.
Aprendizaje Reforzado:Situado a medio camino entre
el aprendizaje supervisado y no supervisado. En este
aprendizaje la informaci´on proporcionada a la red es
m´ınima, limit´andose a indicar si la respuesta de la red
es correcta o incorrecta.[11]
Alguno tipos de funciones de aprendizaje que tenemos
disponibles en matlab son los siguientes:
trainb : Entrenamiento con regla de aprendizaje del peso
y del bias
trainbr :regularizaci´on bayesiana
trainc : Funciones ascendentes de entrenamiento c´ıclico
traincgf : Backpropagation conyugal del gradiente de
Fletcher-Powell traingd :Backpropagation de la pendiente
del gradiente
traingdm : Pendiente del gradiente con el backpropaga-tion
del ´ımpetu
traingda :Pendiente del gradiente con el backpropagation
adaptativo
trainlm : Backpropagation de Levenberg-Marquardt,
trainlm es el algoritmo m´as r´apido de propagaci´on hacia
atr´as, y es muy recomendable como primera elecci´on su-pervisada
del algoritmo, aunque s´ı requiere m´as memoria
que otros algoritmos.
trainoss: Backpropagation secante de un solo paso
trains :Funciones incrementales del entrenamiento
w/learning secuencial[12]
III. CASO DE ESTUDIO
Para entender mejor la funciones de activaci´on purelin y
poslin hemos planteado un ejemplo para cada una, las cuales
se detallan a continuaci´on
A. Clasificador de figuras geom´etricas b´asicas usando poslin
Con este ejemplo pr´actico, se pretende realizar una
clasificaci´on entre 5 figuras geom´etricas b´asicas; cuadrado,
tri´angulo, c´ırculo, recta y punto, para lo cual se hizo uso
de la funci´on de activaci´on lineal positiva (poslin), para la
realizaci´on de esta demostraci´on se emple´o la siguiente entrada
como se muestra en la Fig. 7:
Fig. 7. Datos de entrada
En donde v1, v2, v3, v4 son las variables de entrada para la
red neuronal, las mismas que representan los v´ertices de cada
5. 5
figura geom´etrica, y en funci´on de estos v´ertices las neuronas
van a entrenar y as´ı llegar a un aprendizaje, que est´a dado por
los siguientes datos de salida, que se pueden apreciar en la
Fig. 8:
Fig. 8. Salida Deseada
Con la herramienta Matlab, se hizo la codificaci´on de este
problema de la siguiente forma:
Primeramente se hizo el ingreso de la matriz de entrada
y de salida, tal como se muestra a continuaci´on:
Seguidamente se cre´o la red que es de tipo backpropa-gation,
que es una red multicapa, mediante el comando
newff, como se detalla:
En donde:
[0 1; 0 1; 0 1; 0 1]= Representa la matriz de valores
m´aximos y m´ınimos para cada una de las neurona de
entrada
[55,1]= N´umero de neuronas para cada una de las
capas, en este caso 55 para la capa oculta y 1 para
la capa de salida, las neuronas en la capa oculta son
totalmente independientes de las entradas o salidas, para
este caso se necesito de esa cantidad para resolver el
problema.
[’poslin’ ’poslin’]= Aqu´ı se especifica la funci´on
de activaci´on con la que va a trabajar cada capa.
[trainlm]= Se especifica el algoritmo de entrenamiento
a utilizar
Seguidamente se establecieron algunos par´ametros, cor-respondientes
al entrenamiento:
En donde la primera sentencia epochs=1000 indica el
n´umero m´aximo de iteraciones que tiene la neurona para
realizar su aprendizaje, el show=5 es el intervalo de
visualizaci´on de los resultados y en la ´ultima sentencia
se procede a entrenar la red respecto a sus entradas y
salida, con la finalidad de que realice la clasificaci´on.
Finalmente con el comando sim, se verifica si el apren-dizaje
de mi red neuronal fue el correcto, al comparar
con los datos de salida, el comando es el siguiente:
simulaci´on = sim(red,entradaPoslin)
En el cual se env´ıa como par´ametros el nombre de la red
y los datos de entrada.
B. Clasificador de coordenadas de localizaci´on, en un plano
catogr´afico
Con este ejemplo se pretende demostrar la utilizaci´on de la
funcion de activaci´on purelin, para determinar puntos en un
mapa cartogr´afico referenciados mediante 2 ecuaciones que
van a representar la longitud y la latitud de dichos puntos,
como se muestra en la Fig. 9
Fig. 9. Ecuaciones Lineales
As´ı mismo utilizando la herramienta Matlab se procedi´o la
codificaci´on del ejemplo con la aplicaci´on de redes neuronales.
A continuaci´on graficamos los puntos de las entradas ingre-sadas
con el comando:
En donde se dibuja un vector de abscisas “x” y ordenadas
“y” ‘o’ , dibuja c´ırculos en los puntos marcados en el plano.
6. 6
Ahora crearemos nuestro perceptr´on multicapa.
En donde:
[-3 3;-3 3]: valores m´ınimo y m´aximo de la variable
[1 2]: N´umero de neuronas para cada una de las capas, aqu´ı
se utiliz´o 1 neurona para la capa oculta y 2 para la capa de
salida.
’purelin’ ’purelin’: Se especifica la funcion de activacion
que se va a utilizar, en este caso se utilizo purelin para las 2
entradas.
trainlm: algoritmo de entrenamiento de la red.
Seguidamente como se muestra en la Fig. 10 se es-tablecieron
algunos par´ametros, correspondientes al entre-namiento:
En donde la primera sentencia epochs=1000 indica
el n´umero m´aximo de iteraciones que tiene la neurona para
realizar su aprendizaje, el show=5 es el intervalo de visual-izaci
´on de los resultados y en la ´ultima sentencia se procede
a entrenar la red respecto a sus entradas y salidas.
Fig. 10. Par´ametros de Entrenamiento
Graficamos la l´ınea de separaci´on que tiene el perceptr´on
y finalmente simulamos nuestra red, para comprobar si el
aprendizaje de mi red neuronal fue el correcto, al comparar
los datos de salida, con la salida deseada y verificar que las
coordenadas son las correctas..[13]
IV. RESULTADOS
En esta parte se muestran los resultados obtenidos de cada
uno de los casos de estudio:
Resultados del clasificador de figuras geom´etricas
b´asicas
Al ejecutar las l´ıneas de c´odigo que se establecieron en
el punto anterior, se obtuvo lo siguiente:
Simulaci´on
4 3 3 2 3 2 2 1 3 2 2 1 2 1 1 0
SalidaDeseada
4 3 3 2 3 2 2 1 3 2 2 1 2 1 1 0
Lo que permite identificar a simple vista que la red
neuronal aprendi´o correctamente ya que la salida obtenida
(simulaci´on) es igual a la deseada, como se meustra en
la Fig 11 pero para comprobar que se est´a clasificando
correctamente se debe ingresar el comando sim de la
siguiente forma en la ventana de comandos de Matlab
Fig. 11. Probando comando sim
Donde se puede verficar que el resultado es igual a 3,
lo que indica claramente que la figura que se ana˜niz´o
tiene tres v´ertices, es decir se trata de un tri´angulo, ahora
probemeos nuevamente el comando con otro valor, como
se muestra en la Fig 12
Fig. 12. Probando comando sim
Verificando que el resultado es 4, lo que indica que se
trata de un cuadrado, en la Fig. 13 se denota el diagrama
obtenido de la red neuronal:
Fig. 13. Diagrama de la red
En donde se puede apreciar el n´umero de entrados que
en este caso son 4 , debido a los 4 v´ertices, la capa oculta
con 55 neuronas y la de salida con 1, a continuaci´on en
la Fig, 14 se detalla el progreso del entrenamiento de la
red neuronal:
En la cual se identifica, que la red neuronal aprendi´o
en 7 iteraciones la forma de c´omo clasificar las figuras
geom´etricas seg´un las entradas y salida previstas.
Resultados del clasificador de coordenadas
Al ejecutar las lineas de codigo de la simulaci´on se
obtuvo lo que se muestra en la Fig. 15.
7. 7
Fig. 14. Progreso de entrenamiento
Fig. 15. Comparaci´on entre salida deseada y obtenida
Lo que permite identificar a simple vista que la red
neuronal aprendi´o correctamente ya que la salida obtenida
(simulaci´on) es igual a la deseada, lo cual se puede
verificar memdiante el comando sim, para simular 2
posiciones cualquiera, como se muestra en la Fig. 16
Fig. 16. Localizando posiciones
Donde se puede identificar las 2 coordenadas (-3,-38)
y (3,-28), que reflejan las coordenadas de mi poscion
antigua y mi posici´on actual respectivamente, con mas
claridad se puede identificar con la Fig. 17.
A continuaci´on en la Gig. 18 se presenta el diagrama
obtenido de la red neuronal.
En donde se puede apreciar el n´umero de entrados que
en este caso son 2 , debido a las 2 ecuaciones, la capa
oculta con 2 neuronas y la de salida con 2, y en la figura
que se muestra a continuaci´on se detalla el progreso del
entrenamiento de la red neuronal:
En la cual se identifica, que la red neuronal aprendi´o
en 6 iteraciones la forma de c´omo calcular los valores
de “y” de las ecuaci´ones lineales seg´un las entradas y
salida prevista, con el objetivo de localizar las posiciones
anitiguas y actuales.[13]
Fig. 17. Posiciones en el plano
Fig. 18. Diagrama de la red neuronal
Fig. 19. Progreso de entrenamiento neuronal
V. CONCLUSIONES
Se determin´o que las redes neuronales artificiales resultan
ser un conjunto estructural de elementos, que interact´uan
entre s´ı, para simular el comportamiento de raciocinio del ser
humano, con el prop´osito de elaborar sistemas inteligentes
que aprendan en base a errores y brinden soluciones eficientes
y exactas.
El uso de tipos de redes neuronales var´ıa de acuerdo a
la soluci´on de problemas y al uso de funciones de activaci´on,
ya que para estos 2 casos pr´acticos se pudo entender que
con un perceptr´on simple la neurona no aprend´ıa y ocupaba
las 1000 iteraciones de aprendizaje que se le asignaban
mediante la sentencia red.trainParam.epochs=1000;por lo
que se opt´o por el perceptr´on multicapa para resolver estos
problemas y lograr que la red neuronal aprenda correctamente.
La utilizaci´on de las funciones de activaci´on poslin y
purelin demostraron ser eficientes para la soluci´on de
problemas linealmente separables, en donde la funcion poslin
trabaja con valores que est´an por encima del eje de las x es
decir con valores positivos de ah´ı su nombre de linealmente
positiva, lo que fue muy factible para emplearlo en el
clasificador de figuras ya que se trabajaba con v´ertices donde
8. 8
no se necesita de valores negativos para determinar el tipo de
figura, mientras que purelin trabaja con valores positivos y
negativos que la hace eficiente para determinar los valores de
“y” de ecuaciones de primer grado, y obtener los puntos de
localizaci´on en el plano para su respectiva gr´afica.
VI. RECOMENDACIONES
Al momento que la red neuronal est´a aprendiendo en base
a sus entradas y salidas, es posible que este aprendizaje sea
err´onero, por eso se recomienda variar los valores m´aximos
y m´ınimos o aumentar las neuronas en la capa oculta, ya que
en ciertos problemas el aprendizaje es mejor cuando hay mas
neuronas interactuando entre s´ı.
Para la resoluci´on de cualquier problema es recomendable
hacer la respectiva simulaci´on del comportamiento de las
redes, con el fin de comprobar si las salidas obtenidas son
iguales a las deseadas.
Se debe utilizar una funci´on de activaci´on referente al
problema que se pretenda solucionar, sobre todo conocer que
tipos de redes neuronales trabajan con ciertas funciones de
activaci´on, ya que algunos problemas necesitan de un solo
perceptron para solucionarce, as´ı como otros pueden necesitar
de perceptrones multicapa para llegar a un aprendizaje
eficiente.
Utilizar este trabajo como material de estudio para los
estudiantes, con el plan de seguir investigando m´as a fondo
acerca del mundo de la inteligencia artificial.
Para el dise˜no y resoluci´on de problemas con redes neuronales
se aconseja utilizar la potente herramienta de Matlab, ya que
esta cuenta con un sin n´umero de funciones y m´etodos que
nos facilitan el aprendizaje del mismo.
VII. TRABAJOS FUTUROS
Aplicaci´on de las redes neuronales artificailes y las
funciones de activaci´on poslin y purelin para resolver
problemas de clasificaci´on linealmente separable,
en lo que se refiere a la categorizaci´on de peatones
y aut´omoviles de las diferentes calles y avenidas de Loja.
Implementaci´on de redes neuronales y tecnlog´ıa web,
para la creaci´on de sistemas inteligentes de apoyo a la
toma de decisiones, y que ayuden mediante inm´otica a
realizar procesos autom´aticos frente a cualquier est´ımulo
u agente externo e interno del medio.
REFERENCIAS
[1] R. Diez,A. G´omez N. Mart´ınez , La accesibilidad en los portales
universitarios, [En linea] link:http://books.google.es/books?id=
RKqLMCw3IUkCpg=PA26dq=redes+neuronales+artificialeshl=
essa=Xei=2mJVVOzULMOVNtipgOAJved=0CCgQ6AEwAQ#v=
onepageqf=false, consulta realizada 1-Oct-2014
[2] P. Ponce, Inteligencia Artificial, con aplicaciones a la ingenier´ıa, [Of
line], consulta realizada 1-Oct-14
[3] R.Beltr´a, Bioinform´atica simulaci´on.vida artificial e inteligencia artifi-cial,
[En linea] link:http://books.google.es/books?id=U4pwetEPmpQC
printsec=frontcoverdq=redes+neuronales+artificialeshl=essa=X
ei=2mJVVOzULMOVNtipgOAJved=0CDUQ6AEwAw#v=onepage
q=redes%20neuronales%20artificialesf=false, consulta realizada
1-Oct-2014
[4] F. Lara, Fundamentos de redes neuronales artificiales, [En linea]
link: http://conceptos.sociales.unam.mx/conceptos final/598trabajo.pdf
, consulta realizada 1-Oct-14
[5] J. Dami´an, Redes Neuronales: Conceptos B´asicos y Aplicaciones,
[En linea] link: http://www.frro.utn.edu.ar/repositorio/catedras/quimica/
5 anio/orientadora1/monograias/matich-redesneuronales.pdf, consulta
realizada 1-Oct-2014
[6] R. Florez, J. Fern´andez, Las redes neuronales artificiales,
fundamentos te´oricos y aplicaciones pr´acticas, [En linea] link:
http://books.google.com.ec/books?id=X0uLwi1Ap4QCprintsec=
frontcoverhl=es#v=onepageqf=false,consulta realizada 1-Oct-14
[7] M. Villasana, Introducci´on a las redes neuronales, [En
linea] link:http://es.slideshare.net/HALCONPEREGRINO2/
introduccion-a-las-redes-neuronales, consulta realizada 1-Oct-14
[8] MathWorks, Documentaci´on oficial de Matlab, [En linea]
link:link:http://www.mathworks.com/help/nnet/ref/poslin.html, consulta
realizada 1-Oct-14
[9] MathWorks, Purelin, [En linea] link: http://www.mathworks.com/help/
nnet/ref/purelin.html , consulta realizada 1-Oct-14
[10] F. Tanco, Introducci´on a las redes neuronales artificiales, [En linea]
link: http://www.secyt.frba.utn.edu.ar/gia/RNA.pdf , consulta realizada
1-Oct-14
[11] MathWorks, Redes Neuronales artificiales con matlab , [En linea]
link: http://es.mathworks.com/discovery/redes-neuronales.html ,consulta
realizada 1-Oct-14
[12] MathWorks, Docuemntaci´on toolbox de Matlab , [En linea] link:
http://es.mathworks.com/help/nnet/functionlist.html ,consulta realizada
1-Oct-14
[13] D. Guaman-B. Cabrera, C´odigo fuente del clasificador de figurasgeom-petricas
y el clasificador de localizaciones geogr´aficas, [En linea] link:
https://code.google.com/p/mi-proyecto-purelin-posling/source/browse/
Diego Guam´an
Estudiante de la Carrera de Ingenier´ıa en Sistemas de la
Universidad Nacional de Loja, Provincia de Loja, Ciudad Loja,
Ecuador, 2014.
Byron Cabrera
Estudiante de la Carrera de Ingenier´ıa en Sistemas de la
Universidad Nacional de Loja, Provincia de Loja, Ciudad Loja,
Ecuador, 2014.