Recepci´on de llamadas del ECU911 para dar un
servicio a la ciudadan´ıa, aplicando funciones de
activaci´on tansig y logsig
R´aul G´omez,A. Jonathan. Arrobo,A.
Resumen—This article will be based on the activation fun-
ctions, which allow more flexibility in the system. For what
two activation functions are logarithmic sigmoid (logsig) and
sigmoidal tangent (tansig) was used. Be used for the neurons
of the hidden layer activation function tansig and neurons of the
output layer logsig the activation function. Input values these two
functions are provided and can be of the negative infinity and
positive infinity, the function exits logsig is in the range 0 to 1
and the functions tansig from -1 to 1.
Index Terms—Tansig, Logsig, redes neuronales, matlab,
Ecu911, artificiales.
I. INTRODUCCI ´ON
EN la actualidad las aplicacione con Redes neuronales
Artificiales han tomado mayor inter´es en nuestra socie-
dad, el objetivo de estas es llegar a dise˜nar m´aquinas con
elementos neuronales de procesamiento paralelo, de modo que
el comportamiento global de esa red .emule”, de la forma m´as
fiel posible, los sistemas neuronales de los animales. Por lo
nuestro grupo vamos a realizar la emulaci´on del ECU911 los
datos de entrada son las llamadas que realiza la ciudadan´ıa y
los de salida las servicio que da el mismo.
II. ESTADO DEL ARTE
II-A. Red Neuronal Artificial
Las RNA se definen como sistemas de mapeos no lineales
cuya estructura se basa en principios observados en los siste-
mas nerviosos de humanos y animales. Constan de un n´umero
grande de procesadores simples ligados por conexiones con
pesos. Las unidades de procesamiento se denominan neuronas.
Cada unidad recibe entradas de otros nodos y genera una
salida simple escalar que depende de la informaci´on local
disponible, guardada internamente o que llega a trav´es de
las conexiones con pesos. Pueden realizarse muchas funciones
complejas dependiendo de las conexiones.
II-A1. Caracter´ısticas:
Un conjunto de unidades de procesamiento o neuronas.
Un estado de activaci´on para cada unidad, equivalente a
la salida de la unidad.
R´aul G´omez,A. Universidad Nacional de Loja, Loja, Ecuador, ragome-
za@unl.edu.ec
Jonathan. Arrobo,A. Universidad Nacional de Loja, Loja, Ecuador, jbarro-
boa@unl.edu.ec
Figura 1. Redes de Neuronas Artificiales-ISASI
Conexiones entre las unidades, generalmente definidas
por un peso que determina el efecto de una se˜nal de
entrada en la unidad
Una regla de propagaci´on, que determina la entrada
efectiva de una unidad a partir de las entradas externas.
Una funci´on de activaci´on que actualiza el nuevo nivel de
activaci´on bas´andose en la entrada efectiva y la activaci´on
anterior.
Una entrada externa que corresponde a un t´ermino de-
terminado como bias para cada unidad.
Un m´etodo para reunir la informaci´on, correspondiente
a la regla del aprendizaje
Un ambiente en el que el sistema va a operar, con se˜nales
de entrada e incluso se˜nales de error.
La funci´on f puede ser sigmoidal, tangente hiperb´olica,
escal´on, entre otras. En MATLAB se tiene diferentes funciones
de activaci´on como tansig, hardlim y purelin, entre otras,
lo cual facilita las aproximaciones que se requieran hacer,
empleando RNA.
II-A2. Funciones de Activaci´on:
Funci´on Tangente hiperb´olica
La funci´on de activaci´on tangente hiperb´olica se emplea en
los casos que presentan variaciones suaves de valores positivos
y negativos de la se˜nal a clasificar. Como se puede ver en
su descripci´on en la figura 2 ,es una de las funciones m´as
empleadas en entrenamientos supervisados, como en el caso
del entrenamiento de retropropagaci´on del error.
Debe tenerse cuidado de emplear esta figura entre los
umbrales positivos y negativos antes de la saturaci´on, de otra
forma la salida siempre genera valores saturados iguales a 1
y 21.
Figura 2. Funci´on tangente hiperb´olica
Funci´on Sigmoidal
Con la funci´on sigmoidal el valor dado por la funci´on es
cercano a uno de los valores asint´oticos. Esto hace que en
la mayor´ıa de los casos, el valor de salida est´e comprendido
en la zona alta o baja del sigmoide. De hecho, cuando la
pendiente es elevada, esta funci´on tiende a la funci´on escal´on.
Sin embargo, la importancia de la funci´on sigmoidal es
que su derivada siempre es positiva y cercana a cero para
los valores grandes positivos o negativos; adem´as, toma su
valor m´aximo cuando x=0. Esto hace que se puedan utilizar
reglas de aprendizaje definidas para las funciones escal´on,
con la ventaja, respecto a esta funci´on, de que la derivada
est´a definida en todo el intervalo (v´ease la figura 3). (Cruz,
2010)
Figura 3. Inteligencia Artificial con Aplicaciones a la Ingenier´ıa - Ponce
II-B. Aprendizaje
El esquema de aprendizaje de una red es lo que determina
el tipo de problemas que ser´a capaz de resolver. La capacidad
de una red para resolver un problema estar´a ligada de forma
fundamental al tipo de ejemplos de que dispone en el proceso
de aprendizaje. El aprendizaje consiste en la determinaci´on de
los valores precisos de los pesos para todas sus conexiones,
que la capacite para la resoluci´on eficiente de un problema.
El criterio de convergencia depende del tipo de red utilizada
o del tipo de problema a resolver. Dependiendo del esquema
de aprendizaje y del problema a resolver, se pueden distinguir
tres tipos de esquemas de aprendizaje:
Aprendizaje Supervisado:
En este tipo de esquema, los datos del conjunto de apren-
dizaje tienen dos tipos de atributos: Los datos propiamente
dichos y cierta informaci´on relativa a la soluci´on del problema.
Figura 4. Aprendizaje supervisado
Aprendizaje no Supervisado(Autoorganizado):
En este aprendizaje los datos del conjunto de aprendizaje
s´olo tienen informaci´on de los ejemplos, y no hay nada que
permita guiar en el proceso de aprendizaje.La red trata de
determinar caracter´ısticas de los datos del conjunto de entrena-
miento: rajos significativos, regularidades o redundancias. La
red se ajusta dependiendo ´unicamente de los valores recibidos
como entrada.
Figura 5. Aprendizaje No Supervisado
Aprendizaje por Refuerzo:
Es una variable del aprendizaje supervisado en el que no
se dispone de informaci´on concreta del error cometido por la
red para cada ejemplo de aprendizaje. Si no que simplemente
se determina si la salida producida para dicho patr´on es o no
adecuada.(Vi˜nuela. Le´on, 2004)
II-B1. Caso de estudio: Se realizo un ejemplo en matlab
simulando al ECU911 de la ciudad de loja, para este ejemplo
hemos tomado como datos de entrada a las llamadas que
realiza la ciudadan´ıa cuando necesitan algunos de los servicios
que ofrece el ECU911 y los datos de salida son los servicios
que brinda a la ciudadan´ıa.
II-B2. Resultados:
Entradas
Incendio =I
Accidente Transito =AT
Inundaciones =INN
Deslaves =D
Atentado=A
Salidas
Polic´ıa Nacional = P
Fuerzas Armadas = FA
Cuerpo de Bomberos = CB
Cruz Roja = CR
La red Neuronal se entrena en base a las llamadas que recibe
y enviar´a a uno o varios servicios de los que ellos ofrecen, A
continuaci´on de describe las combinaciones de las entradas y
salidas.
Figura 6. Entradas y salidas del ECU911
Esta es una neurona no supervisada por lo que vamos a
ingresar los valores de entrada como de salida, de la Tabla 1
separamos los valores de entrada y salida en matrices para el
entrenamiento de la neurona.
Entrada
P= [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 ; 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 1
1 1 1 1 1 1 1 ; 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1
1 0 0 0 0 1 1 1 1 ; 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0
0 1 1 0 0 1 1 0 0 1 1 ; 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0
1 0 1 0 1 0 1 0 1 0 1 0 1 ];
Salida
T=[0 0 1 1 1 1 1 1 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1; 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
0 1 0 1 0 1; 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0
1 1 1 1 1 1 1 1; 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0
0 0 1 1 1 1 1 1 1 1];
Para solucionar este problema vamos a utilizar un per-
ceptr´on multicapas de 3 niveles con 5 capas de entrada 2
capas ocultas y 4 capas de salida como se describe en la figura
siguiente.
Figura 7. Perceptr´on Multicapas
Las funciones de activaci´on que utilizamos son logsig y
tansig para que nos permitan dar mayor flexibilidad al sistema,
y por tanto mayor capacidad.
Luego de tener claro las funciones que vamos a utilizar
llamamos al m´etodo newff de matlab para Crear una red
tipo Backpropagation, requiere que le sean especificados los
siguientes par´ametros.
newff: (PR,[S1 S2...SNl],TF1 TF2...TFNl,BTF)
PR : Matriz de valores m´aximos y m´ınimos de cada uno
de las R neuronas de entrada.
Si: N´umero de neuronas para cada una de las capas.
TFi : Funci´on de transferencia a utilizar en cada una de
las capas
BTF : Algoritmo de entrenamiento a utilizar, por defecto
Traingd Algoritmo de pasos descendientes, que actualiza
pesos y ganancias vari´andolos en la direcci´on negativa del
gradiente de la funci´on del error. Es un algoritmo de aprendi-
zaje muy lento Para actualizar los pesos llamamos al m´etodo
train, que requiere de la siguiente par´ametros:
net.trainParam.epochs: M´aximo n´umero de iteraciones
para obtener convergencia
net.trainParam.goal: Error m´aximo permitido
net.trainParam.lr: Rata de aprendizaje
net.trainParam.max-fail: M´aximo n´umero de fallas
net.trainParam.min-grad: M´ınimo rendimiento del gra-
diente
net.trainParam.show: Intervalo de visualizaci´on de los
resultados
net.trainParam.time: M´aximo tiempo de entrenamiento
en segundo
net.trainParam.show=5;
net.trainParam.epochs=1000;
net= train(net , P , T);
Obtener los valores de pesos y el bias
pesos = net.iw1,1;
bias=net.b1;
II-C. Interfaz Gr´afica
Interfaz general de la Neurona donde se simula el compor-
tamiento de la neurona y gr´afica sus valores de entrada como
de salida.
Figura 8. Interfaz General
II-C1. Bot´on Entrenar Red: Este bot´on me permite en-
trenar la red y me muestra las interacciones que realiz´o para
que la red est´e bien entrenada, se vayan modificando los pesos
y cumpla con todas las salidas deseadas.
Figura 9. Red Neuronal
Figura 10. Numero Iteraciones
II-C2. Lista de Eventos: Aqu´ı se encuentran todos los
tipos de llamadas que puede hacer la ciudadan´ıa al ECU911,
pueden seleccionar varios tipos de llamadas y as´ı mismo de-
pendiendo de la llamada que sea se le enviar´a varios servicio.
Figura 11. Eventos Disponibles
II-C3. Bot´on Enviar: Este bot´on es para simular la red,
le envi´o a la red los valores que se seleccion´o en el checkbox
de eventos para ver si mi red esta bien entrenada.
Figura 12. Bot´on Enviar
II-C4. Acciones: Es un cuadro donde se visualiza el tipo
de servicio que se va a prestar a la ciudadania, este seria el
resultado de la red.
Figura 13. Acciones Disponibles
III. CONCLUSIONES
Aplicar la funci´on tansig ha sido de mucha importancia
para el entrenamiento de las redes neuronales, sobre todo
porque ayuda a resolver variaciones suaves de los valores
positivos y negativos.
Mientras que aplicar la funci´on logsig me ayuda a entre-
nar la red, estos valores de salida est´an comprendidos en
los valores alto y bajo de sigmoide
IV. RECOMENDACIONES
Es importante recomendar que para resolver problemas
complejos se utilice redes neuronales con funciones de
activaci´on logsig y tansig.
Es recomendable identificar el ejemplo y definir si es
una simple o complejo en ejemplo de acuerdo a ello, se
puede resolver los mismos utilizando logsig y tansig.
REFERENCIAS
[1] Cruz, P. P. (2010). INTELIGENCIA ARTIFICIAL CON APLICACIO-
NES A LA INGENIERIA. M´exico: Alfaomega Grupo Editor, S.A. de
C.V.
[2] Vi˜nuela, P. I., y Le´on, I. M. (2004). Redes Neuronales Artificiales Un
Enfoque Pr´actico. Madrid: PEARSON EDUCACI ´ON S.A.
[3] M´exico, U. d. (Mayo de 1995). Server Proton. Obtenido de
http://proton.ucting.udg.mx/
BIOGRAF´IA
Ra´ul Alexander G´omez Armijos ,estudiante de la
Carrera de Ingenier´ıa en Sistemas de la Universidad
Nacional de Loja, Desarrollo WEB , Conocedor de
Software Libre , Bases de Datos .
Provincia de Loja, Ciudad Loja - Ecuador, 2014.
Jhonatan Arrobo ,estudiante de la Carrera de In-
genier´ıa en Sistemas de la Universidad Nacional
de Loja, Desarrollo WEB , Conocedor de Software
Libre , Bases de Datos .
Provincia de Loja, Ciudad Loja - Ecuador, 2014.

Funciones de Activación Tansig y Logsig

  • 1.
    Recepci´on de llamadasdel ECU911 para dar un servicio a la ciudadan´ıa, aplicando funciones de activaci´on tansig y logsig R´aul G´omez,A. Jonathan. Arrobo,A. Resumen—This article will be based on the activation fun- ctions, which allow more flexibility in the system. For what two activation functions are logarithmic sigmoid (logsig) and sigmoidal tangent (tansig) was used. Be used for the neurons of the hidden layer activation function tansig and neurons of the output layer logsig the activation function. Input values these two functions are provided and can be of the negative infinity and positive infinity, the function exits logsig is in the range 0 to 1 and the functions tansig from -1 to 1. Index Terms—Tansig, Logsig, redes neuronales, matlab, Ecu911, artificiales. I. INTRODUCCI ´ON EN la actualidad las aplicacione con Redes neuronales Artificiales han tomado mayor inter´es en nuestra socie- dad, el objetivo de estas es llegar a dise˜nar m´aquinas con elementos neuronales de procesamiento paralelo, de modo que el comportamiento global de esa red .emule”, de la forma m´as fiel posible, los sistemas neuronales de los animales. Por lo nuestro grupo vamos a realizar la emulaci´on del ECU911 los datos de entrada son las llamadas que realiza la ciudadan´ıa y los de salida las servicio que da el mismo. II. ESTADO DEL ARTE II-A. Red Neuronal Artificial Las RNA se definen como sistemas de mapeos no lineales cuya estructura se basa en principios observados en los siste- mas nerviosos de humanos y animales. Constan de un n´umero grande de procesadores simples ligados por conexiones con pesos. Las unidades de procesamiento se denominan neuronas. Cada unidad recibe entradas de otros nodos y genera una salida simple escalar que depende de la informaci´on local disponible, guardada internamente o que llega a trav´es de las conexiones con pesos. Pueden realizarse muchas funciones complejas dependiendo de las conexiones. II-A1. Caracter´ısticas: Un conjunto de unidades de procesamiento o neuronas. Un estado de activaci´on para cada unidad, equivalente a la salida de la unidad. R´aul G´omez,A. Universidad Nacional de Loja, Loja, Ecuador, ragome- za@unl.edu.ec Jonathan. Arrobo,A. Universidad Nacional de Loja, Loja, Ecuador, jbarro- boa@unl.edu.ec Figura 1. Redes de Neuronas Artificiales-ISASI Conexiones entre las unidades, generalmente definidas por un peso que determina el efecto de una se˜nal de entrada en la unidad Una regla de propagaci´on, que determina la entrada efectiva de una unidad a partir de las entradas externas. Una funci´on de activaci´on que actualiza el nuevo nivel de activaci´on bas´andose en la entrada efectiva y la activaci´on anterior. Una entrada externa que corresponde a un t´ermino de- terminado como bias para cada unidad. Un m´etodo para reunir la informaci´on, correspondiente a la regla del aprendizaje Un ambiente en el que el sistema va a operar, con se˜nales de entrada e incluso se˜nales de error. La funci´on f puede ser sigmoidal, tangente hiperb´olica, escal´on, entre otras. En MATLAB se tiene diferentes funciones de activaci´on como tansig, hardlim y purelin, entre otras, lo cual facilita las aproximaciones que se requieran hacer, empleando RNA. II-A2. Funciones de Activaci´on: Funci´on Tangente hiperb´olica La funci´on de activaci´on tangente hiperb´olica se emplea en los casos que presentan variaciones suaves de valores positivos y negativos de la se˜nal a clasificar. Como se puede ver en su descripci´on en la figura 2 ,es una de las funciones m´as empleadas en entrenamientos supervisados, como en el caso del entrenamiento de retropropagaci´on del error. Debe tenerse cuidado de emplear esta figura entre los umbrales positivos y negativos antes de la saturaci´on, de otra forma la salida siempre genera valores saturados iguales a 1 y 21.
  • 2.
    Figura 2. Funci´ontangente hiperb´olica Funci´on Sigmoidal Con la funci´on sigmoidal el valor dado por la funci´on es cercano a uno de los valores asint´oticos. Esto hace que en la mayor´ıa de los casos, el valor de salida est´e comprendido en la zona alta o baja del sigmoide. De hecho, cuando la pendiente es elevada, esta funci´on tiende a la funci´on escal´on. Sin embargo, la importancia de la funci´on sigmoidal es que su derivada siempre es positiva y cercana a cero para los valores grandes positivos o negativos; adem´as, toma su valor m´aximo cuando x=0. Esto hace que se puedan utilizar reglas de aprendizaje definidas para las funciones escal´on, con la ventaja, respecto a esta funci´on, de que la derivada est´a definida en todo el intervalo (v´ease la figura 3). (Cruz, 2010) Figura 3. Inteligencia Artificial con Aplicaciones a la Ingenier´ıa - Ponce II-B. Aprendizaje El esquema de aprendizaje de una red es lo que determina el tipo de problemas que ser´a capaz de resolver. La capacidad de una red para resolver un problema estar´a ligada de forma fundamental al tipo de ejemplos de que dispone en el proceso de aprendizaje. El aprendizaje consiste en la determinaci´on de los valores precisos de los pesos para todas sus conexiones, que la capacite para la resoluci´on eficiente de un problema. El criterio de convergencia depende del tipo de red utilizada o del tipo de problema a resolver. Dependiendo del esquema de aprendizaje y del problema a resolver, se pueden distinguir tres tipos de esquemas de aprendizaje: Aprendizaje Supervisado: En este tipo de esquema, los datos del conjunto de apren- dizaje tienen dos tipos de atributos: Los datos propiamente dichos y cierta informaci´on relativa a la soluci´on del problema. Figura 4. Aprendizaje supervisado Aprendizaje no Supervisado(Autoorganizado): En este aprendizaje los datos del conjunto de aprendizaje s´olo tienen informaci´on de los ejemplos, y no hay nada que permita guiar en el proceso de aprendizaje.La red trata de determinar caracter´ısticas de los datos del conjunto de entrena- miento: rajos significativos, regularidades o redundancias. La red se ajusta dependiendo ´unicamente de los valores recibidos como entrada. Figura 5. Aprendizaje No Supervisado Aprendizaje por Refuerzo: Es una variable del aprendizaje supervisado en el que no se dispone de informaci´on concreta del error cometido por la red para cada ejemplo de aprendizaje. Si no que simplemente se determina si la salida producida para dicho patr´on es o no adecuada.(Vi˜nuela. Le´on, 2004) II-B1. Caso de estudio: Se realizo un ejemplo en matlab simulando al ECU911 de la ciudad de loja, para este ejemplo hemos tomado como datos de entrada a las llamadas que realiza la ciudadan´ıa cuando necesitan algunos de los servicios que ofrece el ECU911 y los datos de salida son los servicios que brinda a la ciudadan´ıa. II-B2. Resultados: Entradas Incendio =I Accidente Transito =AT Inundaciones =INN Deslaves =D Atentado=A Salidas Polic´ıa Nacional = P Fuerzas Armadas = FA Cuerpo de Bomberos = CB Cruz Roja = CR
  • 3.
    La red Neuronalse entrena en base a las llamadas que recibe y enviar´a a uno o varios servicios de los que ellos ofrecen, A continuaci´on de describe las combinaciones de las entradas y salidas. Figura 6. Entradas y salidas del ECU911 Esta es una neurona no supervisada por lo que vamos a ingresar los valores de entrada como de salida, de la Tabla 1 separamos los valores de entrada y salida en matrices para el entrenamiento de la neurona. Entrada P= [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 ; 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 ; 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 ; 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 ; 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 ]; Salida T=[0 0 1 1 1 1 1 1 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1; 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1; 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1; 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1]; Para solucionar este problema vamos a utilizar un per- ceptr´on multicapas de 3 niveles con 5 capas de entrada 2 capas ocultas y 4 capas de salida como se describe en la figura siguiente. Figura 7. Perceptr´on Multicapas Las funciones de activaci´on que utilizamos son logsig y tansig para que nos permitan dar mayor flexibilidad al sistema, y por tanto mayor capacidad. Luego de tener claro las funciones que vamos a utilizar llamamos al m´etodo newff de matlab para Crear una red tipo Backpropagation, requiere que le sean especificados los siguientes par´ametros. newff: (PR,[S1 S2...SNl],TF1 TF2...TFNl,BTF) PR : Matriz de valores m´aximos y m´ınimos de cada uno de las R neuronas de entrada. Si: N´umero de neuronas para cada una de las capas. TFi : Funci´on de transferencia a utilizar en cada una de las capas BTF : Algoritmo de entrenamiento a utilizar, por defecto Traingd Algoritmo de pasos descendientes, que actualiza pesos y ganancias vari´andolos en la direcci´on negativa del gradiente de la funci´on del error. Es un algoritmo de aprendi- zaje muy lento Para actualizar los pesos llamamos al m´etodo train, que requiere de la siguiente par´ametros: net.trainParam.epochs: M´aximo n´umero de iteraciones para obtener convergencia net.trainParam.goal: Error m´aximo permitido net.trainParam.lr: Rata de aprendizaje net.trainParam.max-fail: M´aximo n´umero de fallas net.trainParam.min-grad: M´ınimo rendimiento del gra- diente net.trainParam.show: Intervalo de visualizaci´on de los resultados net.trainParam.time: M´aximo tiempo de entrenamiento en segundo net.trainParam.show=5; net.trainParam.epochs=1000; net= train(net , P , T); Obtener los valores de pesos y el bias pesos = net.iw1,1; bias=net.b1;
  • 4.
    II-C. Interfaz Gr´afica Interfazgeneral de la Neurona donde se simula el compor- tamiento de la neurona y gr´afica sus valores de entrada como de salida. Figura 8. Interfaz General II-C1. Bot´on Entrenar Red: Este bot´on me permite en- trenar la red y me muestra las interacciones que realiz´o para que la red est´e bien entrenada, se vayan modificando los pesos y cumpla con todas las salidas deseadas. Figura 9. Red Neuronal Figura 10. Numero Iteraciones II-C2. Lista de Eventos: Aqu´ı se encuentran todos los tipos de llamadas que puede hacer la ciudadan´ıa al ECU911, pueden seleccionar varios tipos de llamadas y as´ı mismo de- pendiendo de la llamada que sea se le enviar´a varios servicio. Figura 11. Eventos Disponibles II-C3. Bot´on Enviar: Este bot´on es para simular la red, le envi´o a la red los valores que se seleccion´o en el checkbox de eventos para ver si mi red esta bien entrenada. Figura 12. Bot´on Enviar II-C4. Acciones: Es un cuadro donde se visualiza el tipo de servicio que se va a prestar a la ciudadania, este seria el resultado de la red. Figura 13. Acciones Disponibles III. CONCLUSIONES Aplicar la funci´on tansig ha sido de mucha importancia para el entrenamiento de las redes neuronales, sobre todo porque ayuda a resolver variaciones suaves de los valores positivos y negativos. Mientras que aplicar la funci´on logsig me ayuda a entre- nar la red, estos valores de salida est´an comprendidos en los valores alto y bajo de sigmoide IV. RECOMENDACIONES Es importante recomendar que para resolver problemas complejos se utilice redes neuronales con funciones de activaci´on logsig y tansig. Es recomendable identificar el ejemplo y definir si es una simple o complejo en ejemplo de acuerdo a ello, se puede resolver los mismos utilizando logsig y tansig.
  • 5.
    REFERENCIAS [1] Cruz, P.P. (2010). INTELIGENCIA ARTIFICIAL CON APLICACIO- NES A LA INGENIERIA. M´exico: Alfaomega Grupo Editor, S.A. de C.V. [2] Vi˜nuela, P. I., y Le´on, I. M. (2004). Redes Neuronales Artificiales Un Enfoque Pr´actico. Madrid: PEARSON EDUCACI ´ON S.A. [3] M´exico, U. d. (Mayo de 1995). Server Proton. Obtenido de http://proton.ucting.udg.mx/ BIOGRAF´IA Ra´ul Alexander G´omez Armijos ,estudiante de la Carrera de Ingenier´ıa en Sistemas de la Universidad Nacional de Loja, Desarrollo WEB , Conocedor de Software Libre , Bases de Datos . Provincia de Loja, Ciudad Loja - Ecuador, 2014. Jhonatan Arrobo ,estudiante de la Carrera de In- genier´ıa en Sistemas de la Universidad Nacional de Loja, Desarrollo WEB , Conocedor de Software Libre , Bases de Datos . Provincia de Loja, Ciudad Loja - Ecuador, 2014.