SlideShare una empresa de Scribd logo
1 de 7
Descargar para leer sin conexión
1
La funci´on de Transferencia Compet usando Matlab
E. Largo1
R. Le´on2
H. Paz3
Resumen—Este art´ıculo brinda un enfoque a la funci´on
de transferencia compet utilizada en inteligencia artificial
espec´ıficamente redes neuronales, tiene como objetivo dar a
conocer de forma clara lo que es la funci´on compet, se explica
su funcionamiento y utilizaci´on; as´ı como un ejemplo ilustrativo
haciendo uso del software Matlab.
Index Terms—Neurona, funci´on de activaci´on, redes neurona-
les, capa oculta, aprendizaje supervisado y no supervisado.
I. INTRODUCCI ´ON
EN el presente documento se va a describir la funci´on
compet, cual es su utilizaci´on y funcionamiento, para
esto se explica algunos conceptos b´asicos de relaci´on directa
con las redes neuronales, las funciones de activaci´on, tipos
de aprendizaje de manera que se facilite su comprensi´on a
trav´es de una amnera clara y sencilla. Cu´al es el sentido de
utilizar este tipo de redes y cual es el beneficio que aportan.
Por ultimo se realiza una aplicaci´on pr´actica utilizando una
herramienta de software como es Matlab, se describe los
comandos y sentencias utilizados en el desarrollo de la misma.
II. REDES NEURONALES AUTO ORGANIZADAS[1]
Antes de empezar hablar sobre las redes auto organizadas
debemos hacer una relaci´on entre estas y el cerebro humano.
El cerebro humano est´a dividido en ´areas y su estructura de-
pende de la funci´on que tienen, las conexiones entre neuronas
se realizan de acuerdo a una estructura, esta organizaci´on se
la conoce como mapa.
Estos mapas tienen la caracter´ıstica de ser autonomos o auto
organizados, es decir que no tienen una referencia en cuanto
a los patrones ingresados, es por eso que el cerebro tiene la
capacidad de procesar informaci´on sin tener una referencia de
salida que podr´ıa tener, si no mas bien la organiza o clasifica
de acuerdo a sus caracter´ısticas y la localiza en ciertas ´areas,
por ejemplo cuando nos dicen que a trav´es de la observaci´on
obtengamos un an´alisis, esta informaci´on va al cerebro y se
localiza en una ´area donde un sentido pueda procesarla sin
tener una referencia de la informaci´on de salida, estos procesos
de localizaci´on ocurrir´an con toda la nueva informaci´on que
ingresa al cerebro.
El comportamiento visto anteriormente lo toman las redes
1E. Largo, Universidad Nacional de Loja, Loja, Ecuador eolar-
gor@unl.edu.ec
2R. Le´on, Universidad Nacional de Loja, Loja, Ecuador
mrleonr@unl.edu.ec
3Tutor. H. Paz, Universidad Nacional de Loja, Loja, Ecuador
hpaz@unl.edu.ec
autoorganizadas, estas redes pueden aprender a detectar re-
gularidades y correlaciones en los datos de entrada y adaptar
su respuesta futura de acuerdo con los datos de entrada. Las
neuronas de una red competitiva aprenden a reconocer grupos
de vectores de datos de entrada similares.
Figura 1. Representaci´on de las ´areas del cerebro.
Como se aprecia en la figura 1 los diferentes n´umeros
corresponden:
1. Pensamiento.
2. Planificaci´on de acciones.
3. Funciones motoras.
4. Mapa somatosensorial.
5. Habla.
6. O´ıdo primario.
7. Reconocimiento de palabras.
8. Movimientos de los ojos.
9. Visi´on
III. APRENDIZAJE SUPERVISADO [2]
Este tipo de aprendizaje consiste en proporcionar los pa-
trones de entrada y la salida deseada. Para llegar a obtener
la salida requerida se utiliza una f´ormula matem´atica de
minimizaci´on de errores de manera que se pueda obtener un
resultado lo m´as acercado posible a la salida deseada. Pasos
para el aprendizaje:
1. Se inicializa los pesos de forma aleatoria para cada
patr´on.
2. Realizar el c´alculo de la salida a partir del patr´on de
entrada y los pesos aleatorios.
3. Encontrar el error de calculo entre la salida deseada y
la salida actual.
4. Ajustar los pesos usando la regla de aprendizaje para
disminuir el error medio.
5. Si el error es mayor de cierto criterio volver al paso 2.
IV. APRENDIZAJE NO SUPERVISADO [3]
En este tipo de aprendizaje no se conoce o no se le indica
a la red cual es la salida deseada ´unicamente nos limitamos a
darle los patrones de entrada, lo que hace la red estos casos
2
es categorizar las entradas compara los patrones de entrada
con patrones ya establecidos y los organiza de acuerdo a la
similitud entre el patron de entrada y el establecido.
V. REDES MULTICAPA
Una red multicapa es una red de alimentaci´on hacia adelante
o tambi´en conocida como feedforward esta red se compone
de una capa de unidades de entrada llamadas sensores y otra
capa de unidades de salida y un n´umero determinado de
capas intermedias de unidades de proceso, tambi´en llamadas
capas ocultas porque no tienen conexiones con el exterior.
Cada sensor de entrada est´a conectado con las unidades de la
segunda capa, y cada unidad de proceso de la segunda capa
est´a conectada con las unidades de la primera capa y con las
unidades de la tercera capa, as´ı sucesivamente. Las unidades
de salida est´an conectadas solamente con las unidades de la
´ultima capa oculta, como se muestra en la figura 2.
Un aspecto importante de la competici´on es que lleva a la
optimizaci´on a nivel local sin necesidad de utilizar una serie de
recursos en un control global. Esto es de especial importancia
en los sistemas distribuidos en los que supone un enorme coste.
Figura 2. Topolog´ıa de un Perceptr´on Multicapa.
VI. REDES NEURONALES COMPETITIVAS [4]
En este tipo de redes a diferencia de otro tipo de redes en
las cuales todas las neuronas colaboran entre si de manera
que a trav´es del aprendizaje se pueda dar una representaci´on
al patr´on de entrada, en el caso de una red competitiva las
neuronas compiten unas con otras de manera que solo una se
activa; dicho de otra manera solo esta neurona ser´a capaz de
representar el patr´on de entrada. el objetivo de que una neurona
compita por ser la ganadora es que es puede representar en un
grupo o categor´ıa.
VI-A. Estructura de una Red Competitiva
Una red competitiva est´a constituida por N sensores de
entrada, M unidades de proceso (neuronas artificiales), y
conexiones entre cada sensor y cada unidad de proceso, de
manera que la conexi´on entre el sensor j y la unidad de
proceso i tiene asociado un valor wij.
Figura 3. Arquitectura de la red.
Se han desarrollado algunos modelos basados en redes
auto organizadas que funcionan como una red competitiva,
continuaci´on se menciona algunos de ellos.
VI-B. Red de Kohonen
Este tipo de redes fue presentado por Tuevo Kohonen
en 1982 se basan en la zonas en en que esta divido el
cerebro humano, este tipo de redes utiliza un aprendizaje
no supervisado y es de tipo competitivo, esto significa que
las neuronas de la capa de salida compiten entre si por
activarse quedando solo una de ellas ganadora, los pesos
de las conexiones se ajustan de acuerdo a la neurona ganadora.
El modelo tiene dos variantes:
LVQ (learning vector quantization)
TPM o SOM (topologic preserving map, o selforganizing
map).
Los vectores de entrada a la red pueden ser de diferentes
dimensiones, siendo en el caso de LVQ de una dimensi´on, y
en el caso de TPM bidimensionales o incluso tridimensionales.
Arquitectura LVQ: Se trata de una red de dos capas
con N neuronas de entrada y M de salida. Cada una de las N
neuronas de entrada se conecta a las M de salida mediante
conexiones hacia delante. Entre las neuronas de las capas de
salida existen conexiones laterales, ya que cada una de ellas
tiene influencia sobre sus vecinas a la hora de calcular los
pesos de las conexiones hacia delante entre la capa de salida
y la capa de entrada.
Figura 4. Arquitectura LVQ.
En las neuronas de la capa de salida, cada neurona
est´a conectada con otras de su entorno, de manera que
produce una excitaci´on en las m´as pr´oximas y una inhibici´on
3
en las m´as alejadas. Tanto la excitaci´on como la inhibici´on
laterales son gradualmente m´as d´ebiles a medida que nos
alejamos de la neurona en cuesti´on.
Arquitectura SOM: Trata de establecer una correspon-
dencia entre los datos de entrada y un espacio bidimensional
de salida, de modo que ante datos con caracter´ısticas comunes
se activen neuronas situadas en zonas pr´oximas de la capa de
salida.
Cada neurona de la capa de entrada est´a conectada con cada
una de las neuronas de la capa de salida mediante pesos.
Las interacciones laterales siguen existiendo en relaci´on con la
distancia que se toma como una zona bidimensional alrededor
de la neurona.
Figura 5. Arquitectura de la red.
VI-C. Aplicaciones de la red de Kohonen
Las aplicaciones que mas destacan de los mapas de Kohonen
son las relacionadas con el reconocimiento de patrones, o
extracci´on de caracter´ısticas, por ejemplo:
Reconocimiento de voz
Codificaci´on de datos
Compresi´on de im´agenes
Resoluci´on de problemas de optimizaci´on
VI-D. Red de Hamming
Este tipo de red es uno de los ejemplos m´as sencillos de
aprendizaje competitivo aunque se dice que su estructura es
complejo debido a que emplea el concepto de capas recurrente
en su segunda capa. Las neuronas en la capa de salida de esta
red compiten unas con otras para determinar la ganadora, la
cual ´ındica el patr´on prototipo m´as representativo en la entrada
de la red, la competici´on es implementada por inhibici´on
lateral (un conjunto de conexiones negativas entre las neuronas
en la capa de salida). Esta red consiste en dos capas; la primera
capa, la cual es una red Instar, realiza la correlaci´on entre el
vector de entrada y los vectores prototipo, la segunda capa
realiza la competici´on para determinar cual de los vectores
prototipo est´a m´as cercano al vector de entrada.
Figura 6. Red de Hamming.
Capa 1: La red Instar es capaz de clasificar solo un
patr´on; para que m´ultiples patrones sean reconocidos se ne-
cesitan m´ultiples Instar y es precisamente de esa forma como
est´a compuesta la primera capa de la red de Hamming. Para
una mejor comprensi´on de su funcionamiento se partir´a de
unos vectores prototipo que la red debe clasificar.
Figura 7. Vectores prototipo.
La matriz de pesos W1 y el vector de ganancias b1 para la
capa uno ser´an:
Figura 8. Matriz de pesos y vector ganancias.
Donde cada fila de W1 representa un vector prototipo, el cual
deseamos reconocer y cada elemento b1 es igual al n´umero
de elementos en cada vector de entrada (R) (el n´umero de
neuronas S es igual al n´umero de vectores prototipo Q).
As´ı la salida de la primera capa ser´a:
Figura 9. Salida capa 1.
La salida de la capa 1 es igual al producto punto de los
vectores prototipo con la entrada m´as el vectorR; este
producto indica cuan cercano est´a cada vector de entrada a
los patrones prototipo.
Capa 2: La red Instar emplea una funci´on de transfe-
rencia poslin para decidir si el vector de entrada estaba lo
suficientemente cerca al vector prototipo. En la capa 2 de la
red de Hamming. Se utilizan m´ultiples Instar, as´ı se determi-
nar´a por medio de una capa competitiva el patr´on prototipo
4
m´as cercano. Las neuronas en esta capa son inicializadas
con la salida de la capa en realimentaci´on, la cual ´ındica
la correlaci´on entre los patrones prototipo y el vector de
entrada. Las neuronas compiten unas con otras para determinar
una ganadora; despu´es de la competici´on solo una neurona
tendr´a una salida de no cero. La neurona ganadora ´ındica
cual categor´ıa de entrada fue presentada a la red (cada vector
prototipo representa una categor´ıa).
VII. EJEMPLO EN MATLAB
Para reforzar la teor´ıa que se ha expuesto en este art´ıculo
se plantea un ejercicio aplicando la funci´on de transferencia
compet de redes neuronales, la cu´al nos permitir´a dar a
conocer la neurona ganadora y los clusters posibles.
Desarrollo de M´etodo newc
M´etodos de Soluci´on El software desarrollado para
su correcto funcionamiento se requiere que el usuario
seleccione si desea dar soluci´on a trav´es de newc o newff.
Figura 10. M´etodo newc de resoluci´on del problema.
Datos entrada de la neurona newc En esta pantalla
tenemos que ingresar algunos datos como son: n´umero
de neuronas, los vectores de entrada, n´umero de itera-
ciones, n´umero de clusteres para cada neurona y valores
m´aximos y m´ınimos, estos valores se los puede elegir
por defecto o tambien digitarlos.
Figura 11. Ingreso de Datos Pantalla No 1.
Figura 12. Ingreso de Datos Pantalla No 2.
Resolver con newc Una vez que se tenga resueltos los
dos pasos anteriores se procede a procesar los datos
ingresados dando click en el bot´on.
Figura 13. Bot´on que ejecuta las acciones del m´etodo newc.
Luego de que el programa realice las operaciones esta-
blecidas a trav´es del m´etdo newc, se procede a presentar
los resultados; los valores y las neuronas ganadoras.
Figura 14. Neuronas ganadoras.
Ahora se procede a plotear los puntos de los clusters, los
puntos ingresados por el usuario y las neuronas.
Figura 15. Gr´afico inicial con valores de entrada.
5
Figura 16. Gr´afico final con neuronas resultantes.
Desarrollo de M´etodo newff
M´etodos de Soluci´on Si se decide dar soluci´on al
ejemplo por el m´etodo newff, realizamos la siguiente
acci´on.
Figura 17. M´etodo newff de resoluci´on del problema.
Datos de Entrada de la Neurona Este m´etodo tambien
requiere de valores de entrada tales como: matriz de
entrada, los valores m´aximos y m´ınimos, n´umero de
capas y la funci´on de entrenamiento.
Figura 18. Ingreso de matriz.
Figura 19. Ingreso de valores m´aximos y m´ınimos.
Figura 20. Ingreso de capas, neuronas y funci´on de entrenamiento.
Resolver con newff Luego de realizar todos los procesos
con los datos de entrada se tiene pertinencia para poder
dar soluci´on al problema
Figura 21. btnnewff.
Luego se presentan los valores de las neuronas ganadoras
y su respectiva gr´afica de los puntos de los clusters,
puntos ingresados por el usuario y neuronas. Dando
soluci´on al problema eficazmente.
C´odigo del bot´on Compet
Figura 22. C´odigo Boton Compet No. 1
6
Figura 23. C´odigo Boton Compet No. 2
C´odigo del bot´on Newc
Figura 24. C´odigo Boton Newc No. 1
Figura 25. C´odigo Boton Newc No. 2
VIII. CONCLUSIONES
Las redes competitivas utilizan un aprendizaje no super-
visado.
Reducci´on de tiempo en resoluci´on de procesos.
Optimizaci´on de recursos inform´aticos tales como: me-
mor´ıa, disco y procesador.
REFERENCIAS
[1] G. E. Pablo, .Aplicaciones de las Redes Neuronales en
las Finanzas”, pp. 24, 03/05/2014. [En linea]. Disponible
en:http://eprints.ucm.es/6767/1/0205.pdf
[2] B. Alfonso, .Aprendizaje supervisado en redes neuronales”, 03/05/2014.
[En linea]. Disponible en: http://www.redes-neuronales.com.es/tutorial-
redes-neuronales/aprendizaje-supervisado-en-redes-neuronales.htm
[3] B. Alfonso. .Aprendizaje no supervisado”, 03/05/2014. [En li-
nea]. Disponible en: http://www.redes-neuronales.com.es/tutorial-redes-
neuronales/aprendizaje-no-supervisado-en-redes-neuronales.htm
[4] Redes Competitivas”, 03/05/2014. [En linea]. Disponible en:
http://medicinaycomplejidad.org/pdf/redes/Competitivas.pdf
7
BIOGRAF´IA
Elivar Largo R´ıos Estudiante de la Carrera de
Ingier´ıa en Sistemas, D´ecimo M´odulo.
Loja, Ciudad Loja - Ecuador, 2014.
Mario Richar Le´on Ram´on , estudiante de la
Carrera de Ingier´ıa en Sistemas, D´ecimo M´odulo.
Loja, Ciudad Loja - Ecuador, 2014.

Más contenido relacionado

La actualidad más candente

Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Raul
 
Funciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabFunciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabGabyta Rodríguez
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Introduccion a las redes neuronales
Introduccion a las redes neuronalesIntroduccion a las redes neuronales
Introduccion a las redes neuronalesHALCONPEREGRINO2
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)ESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes NeuronalesESCOM
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes NeuronalesDavid852
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 

La actualidad más candente (20)

Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig
 
Funciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabFunciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en Matlab
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Introduccion a las redes neuronales
Introduccion a las redes neuronalesIntroduccion a las redes neuronales
Introduccion a las redes neuronales
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Ap acompet
Ap acompetAp acompet
Ap acompet
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 

Destacado

Los peores vestidos del oscar 2015
Los peores vestidos del oscar 2015Los peores vestidos del oscar 2015
Los peores vestidos del oscar 2015Ottavio Cautilli
 
Reglamento 2013 v1.2
Reglamento 2013 v1.2Reglamento 2013 v1.2
Reglamento 2013 v1.2formulazero
 
Ottavio cautilli fotos de barcelona
Ottavio cautilli fotos de barcelonaOttavio cautilli fotos de barcelona
Ottavio cautilli fotos de barcelonaOttavio Cautilli
 
REGULAMENTO GERAL - OURO-SC
REGULAMENTO GERAL - OURO-SCREGULAMENTO GERAL - OURO-SC
REGULAMENTO GERAL - OURO-SCROBSON MASSON
 
Agropecuária regista aumento na geração de empregos
Agropecuária regista aumento na geração de empregosAgropecuária regista aumento na geração de empregos
Agropecuária regista aumento na geração de empregosAgricultura Sao Paulo
 
Media magazine codes and conventions
Media magazine codes and conventionsMedia magazine codes and conventions
Media magazine codes and conventionsAbbiestrich
 
Sesión de comunicaciòn 1 de julio gotitas de lluvia
Sesión  de comunicaciòn 1 de julio gotitas de lluviaSesión  de comunicaciòn 1 de julio gotitas de lluvia
Sesión de comunicaciòn 1 de julio gotitas de lluviaShela Sedano
 
Ebook Google Zero Moment of Truth - ZMOT
Ebook Google Zero Moment of Truth - ZMOTEbook Google Zero Moment of Truth - ZMOT
Ebook Google Zero Moment of Truth - ZMOTNeo Consulting
 
Variação Linguística
Variação LinguísticaVariação Linguística
Variação LinguísticaSilmatuk
 
Abc criação de galinhas caipiras
Abc criação de galinhas caipirasAbc criação de galinhas caipiras
Abc criação de galinhas caipirasLenildo Araujo
 
Sage Intelligence 40 Microsoft Excel Tips and Tricks
Sage Intelligence 40 Microsoft Excel Tips and TricksSage Intelligence 40 Microsoft Excel Tips and Tricks
Sage Intelligence 40 Microsoft Excel Tips and TricksBurCom Consulting Ltd.
 
Prospectacion A Su Alcance
Prospectacion A Su AlcanceProspectacion A Su Alcance
Prospectacion A Su AlcanceJOAQUIN MARTINEZ
 
Guia alimentar de dietas vegetarianas para adultos, 2012
Guia alimentar de dietas vegetarianas para adultos, 2012Guia alimentar de dietas vegetarianas para adultos, 2012
Guia alimentar de dietas vegetarianas para adultos, 2012Dr. Benevenuto
 

Destacado (20)

Los peores vestidos del oscar 2015
Los peores vestidos del oscar 2015Los peores vestidos del oscar 2015
Los peores vestidos del oscar 2015
 
Reglamento 2013 v1.2
Reglamento 2013 v1.2Reglamento 2013 v1.2
Reglamento 2013 v1.2
 
Ottavio cautilli
Ottavio cautilliOttavio cautilli
Ottavio cautilli
 
Cv
CvCv
Cv
 
Andres coronel
Andres coronelAndres coronel
Andres coronel
 
Ottavio cautilli fotos de barcelona
Ottavio cautilli fotos de barcelonaOttavio cautilli fotos de barcelona
Ottavio cautilli fotos de barcelona
 
REGULAMENTO GERAL - OURO-SC
REGULAMENTO GERAL - OURO-SCREGULAMENTO GERAL - OURO-SC
REGULAMENTO GERAL - OURO-SC
 
Recurso educativo tics
Recurso educativo ticsRecurso educativo tics
Recurso educativo tics
 
Agropecuária regista aumento na geração de empregos
Agropecuária regista aumento na geração de empregosAgropecuária regista aumento na geração de empregos
Agropecuária regista aumento na geração de empregos
 
Tarefa 9 1 Em
Tarefa 9   1 EmTarefa 9   1 Em
Tarefa 9 1 Em
 
Media magazine codes and conventions
Media magazine codes and conventionsMedia magazine codes and conventions
Media magazine codes and conventions
 
Gothic
GothicGothic
Gothic
 
Sesión de comunicaciòn 1 de julio gotitas de lluvia
Sesión  de comunicaciòn 1 de julio gotitas de lluviaSesión  de comunicaciòn 1 de julio gotitas de lluvia
Sesión de comunicaciòn 1 de julio gotitas de lluvia
 
Ebook Google Zero Moment of Truth - ZMOT
Ebook Google Zero Moment of Truth - ZMOTEbook Google Zero Moment of Truth - ZMOT
Ebook Google Zero Moment of Truth - ZMOT
 
Variação Linguística
Variação LinguísticaVariação Linguística
Variação Linguística
 
Abc criação de galinhas caipiras
Abc criação de galinhas caipirasAbc criação de galinhas caipiras
Abc criação de galinhas caipiras
 
Sage Intelligence 40 Microsoft Excel Tips and Tricks
Sage Intelligence 40 Microsoft Excel Tips and TricksSage Intelligence 40 Microsoft Excel Tips and Tricks
Sage Intelligence 40 Microsoft Excel Tips and Tricks
 
JoshWilliams-Resume
JoshWilliams-ResumeJoshWilliams-Resume
JoshWilliams-Resume
 
Prospectacion A Su Alcance
Prospectacion A Su AlcanceProspectacion A Su Alcance
Prospectacion A Su Alcance
 
Guia alimentar de dietas vegetarianas para adultos, 2012
Guia alimentar de dietas vegetarianas para adultos, 2012Guia alimentar de dietas vegetarianas para adultos, 2012
Guia alimentar de dietas vegetarianas para adultos, 2012
 

Similar a Función de transferencia compet

Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethanElik Castillo
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519lozanolc
 
Redes neuronales maria jose paredes
Redes neuronales maria jose paredesRedes neuronales maria jose paredes
Redes neuronales maria jose paredesmajito269
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronalesLevy GT
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronalesLevy GT
 
IA - Redes Neuronales
IA - Redes NeuronalesIA - Redes Neuronales
IA - Redes Neuronalesmartinp
 
presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturasJhonatan Navarro
 
06mem inteligencia artificial redes neuronales y sus aplicciones
06mem inteligencia artificial redes neuronales y sus aplicciones06mem inteligencia artificial redes neuronales y sus aplicciones
06mem inteligencia artificial redes neuronales y sus apliccionesjcbp_peru
 
Lectura ia rna y aplicaciones 2 as_06mem
Lectura ia rna y aplicaciones 2 as_06memLectura ia rna y aplicaciones 2 as_06mem
Lectura ia rna y aplicaciones 2 as_06memjcbp_peru
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesjjjss
 

Similar a Función de transferencia compet (20)

redes competitivas
redes competitivasredes competitivas
redes competitivas
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethan
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
 
Inteligencia Artificial.pptx
Inteligencia Artificial.pptxInteligencia Artificial.pptx
Inteligencia Artificial.pptx
 
Redes neuronales maria jose paredes
Redes neuronales maria jose paredesRedes neuronales maria jose paredes
Redes neuronales maria jose paredes
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
IA - Redes Neuronales
IA - Redes NeuronalesIA - Redes Neuronales
IA - Redes Neuronales
 
presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturas
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
06mem
06mem06mem
06mem
 
06mem inteligencia artificial redes neuronales y sus aplicciones
06mem inteligencia artificial redes neuronales y sus aplicciones06mem inteligencia artificial redes neuronales y sus aplicciones
06mem inteligencia artificial redes neuronales y sus aplicciones
 
Lectura ia rna y aplicaciones 2 as_06mem
Lectura ia rna y aplicaciones 2 as_06memLectura ia rna y aplicaciones 2 as_06mem
Lectura ia rna y aplicaciones 2 as_06mem
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Tema3dm
Tema3dmTema3dm
Tema3dm
 

Último

GUÍA SIANET - Agenda - Tareas - Archivos - Participaciones - Notas.pdf
GUÍA SIANET - Agenda - Tareas - Archivos - Participaciones - Notas.pdfGUÍA SIANET - Agenda - Tareas - Archivos - Participaciones - Notas.pdf
GUÍA SIANET - Agenda - Tareas - Archivos - Participaciones - Notas.pdfNELLYKATTY
 
PSICOLOGÍA. UNA INTRODUCCIÓN. ALCIRA ORSINI Y LETICIA BOSSELLINI 3.pdf
PSICOLOGÍA. UNA INTRODUCCIÓN. ALCIRA ORSINI Y LETICIA BOSSELLINI 3.pdfPSICOLOGÍA. UNA INTRODUCCIÓN. ALCIRA ORSINI Y LETICIA BOSSELLINI 3.pdf
PSICOLOGÍA. UNA INTRODUCCIÓN. ALCIRA ORSINI Y LETICIA BOSSELLINI 3.pdfCarlosAntonio456574
 
PROGRAMACIÓN CURRICULAR ANUAL DE CIENCIA Y TECNOLOGÍA
PROGRAMACIÓN CURRICULAR ANUAL DE CIENCIA Y TECNOLOGÍAPROGRAMACIÓN CURRICULAR ANUAL DE CIENCIA Y TECNOLOGÍA
PROGRAMACIÓN CURRICULAR ANUAL DE CIENCIA Y TECNOLOGÍAJoaqunSolrzano
 
CARPETA PEDAGÓGICA 2024.docx para educacion
CARPETA PEDAGÓGICA 2024.docx para educacionCARPETA PEDAGÓGICA 2024.docx para educacion
CARPETA PEDAGÓGICA 2024.docx para educacionCarolVigo1
 
Semana Santa en Popayán para el año 2024
Semana Santa en Popayán para el año 2024Semana Santa en Popayán para el año 2024
Semana Santa en Popayán para el año 2024yaco173
 
Anna Llenas Serra. El monstruo de colores. Doctor de emociones.pdf
Anna Llenas Serra. El monstruo de colores. Doctor de emociones.pdfAnna Llenas Serra. El monstruo de colores. Doctor de emociones.pdf
Anna Llenas Serra. El monstruo de colores. Doctor de emociones.pdfSaraGabrielaPrezPonc
 
Escrito administrativo técnico y comerciales
Escrito administrativo técnico y comercialesEscrito administrativo técnico y comerciales
Escrito administrativo técnico y comercialesmelanieteresacontrer
 
ficha de aplicacion para estudiantes El agua para niños de primaria
ficha de aplicacion para estudiantes El agua para niños de primariaficha de aplicacion para estudiantes El agua para niños de primaria
ficha de aplicacion para estudiantes El agua para niños de primariamichel carlos Capillo Dominguez
 
Organizaciones Sociales formales y no formales
Organizaciones Sociales formales y no formalesOrganizaciones Sociales formales y no formales
Organizaciones Sociales formales y no formalesUniversidad del Istmo
 
COMO SI EL RUIDO PUDIERA MOLESTAR 4TO SECUENCIA.docx
COMO SI EL RUIDO PUDIERA MOLESTAR 4TO SECUENCIA.docxCOMO SI EL RUIDO PUDIERA MOLESTAR 4TO SECUENCIA.docx
COMO SI EL RUIDO PUDIERA MOLESTAR 4TO SECUENCIA.docxAngeles Feu
 
Tema 4 Rocas sedimentarias, características y clasificación
Tema 4 Rocas sedimentarias, características y clasificaciónTema 4 Rocas sedimentarias, características y clasificación
Tema 4 Rocas sedimentarias, características y clasificaciónIES Vicent Andres Estelles
 
Evaluacion Diagnostica Matematica 2do C1 Secundaria Ccesa007.pdf
Evaluacion Diagnostica Matematica 2do C1 Secundaria Ccesa007.pdfEvaluacion Diagnostica Matematica 2do C1 Secundaria Ccesa007.pdf
Evaluacion Diagnostica Matematica 2do C1 Secundaria Ccesa007.pdfDemetrio Ccesa Rayme
 
Ejemplo de trabajo de TIC´s CON VARIAS OPCIONES DE LAS TAREAS
Ejemplo de trabajo de TIC´s CON VARIAS OPCIONES DE LAS TAREASEjemplo de trabajo de TIC´s CON VARIAS OPCIONES DE LAS TAREAS
Ejemplo de trabajo de TIC´s CON VARIAS OPCIONES DE LAS TAREASJavier Sanchez
 
Los escritos administrativos, técnicos y comerciales
Los escritos administrativos, técnicos y comercialesLos escritos administrativos, técnicos y comerciales
Los escritos administrativos, técnicos y comercialeshanda210618
 
TECNOLOGÍA EDUCATIVA, USO DE LAS TIC.pptx
TECNOLOGÍA EDUCATIVA, USO DE LAS TIC.pptxTECNOLOGÍA EDUCATIVA, USO DE LAS TIC.pptx
TECNOLOGÍA EDUCATIVA, USO DE LAS TIC.pptxFranciscoCruz296518
 
Evaluacion Diagnostica Matematica 5to C1 Secundaria Ccesa007.pdf
Evaluacion Diagnostica Matematica 5to  C1 Secundaria Ccesa007.pdfEvaluacion Diagnostica Matematica 5to  C1 Secundaria Ccesa007.pdf
Evaluacion Diagnostica Matematica 5to C1 Secundaria Ccesa007.pdfDemetrio Ccesa Rayme
 
EL ECLIPSE DE LA PAZ (cuento literario). Autor y diseñador JAVIER SOLIS NOYOLA
EL ECLIPSE DE LA PAZ (cuento literario). Autor y diseñador JAVIER SOLIS NOYOLAEL ECLIPSE DE LA PAZ (cuento literario). Autor y diseñador JAVIER SOLIS NOYOLA
EL ECLIPSE DE LA PAZ (cuento literario). Autor y diseñador JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 

Último (20)

GUÍA SIANET - Agenda - Tareas - Archivos - Participaciones - Notas.pdf
GUÍA SIANET - Agenda - Tareas - Archivos - Participaciones - Notas.pdfGUÍA SIANET - Agenda - Tareas - Archivos - Participaciones - Notas.pdf
GUÍA SIANET - Agenda - Tareas - Archivos - Participaciones - Notas.pdf
 
PSICOLOGÍA. UNA INTRODUCCIÓN. ALCIRA ORSINI Y LETICIA BOSSELLINI 3.pdf
PSICOLOGÍA. UNA INTRODUCCIÓN. ALCIRA ORSINI Y LETICIA BOSSELLINI 3.pdfPSICOLOGÍA. UNA INTRODUCCIÓN. ALCIRA ORSINI Y LETICIA BOSSELLINI 3.pdf
PSICOLOGÍA. UNA INTRODUCCIÓN. ALCIRA ORSINI Y LETICIA BOSSELLINI 3.pdf
 
PROGRAMACIÓN CURRICULAR ANUAL DE CIENCIA Y TECNOLOGÍA
PROGRAMACIÓN CURRICULAR ANUAL DE CIENCIA Y TECNOLOGÍAPROGRAMACIÓN CURRICULAR ANUAL DE CIENCIA Y TECNOLOGÍA
PROGRAMACIÓN CURRICULAR ANUAL DE CIENCIA Y TECNOLOGÍA
 
CARPETA PEDAGÓGICA 2024.docx para educacion
CARPETA PEDAGÓGICA 2024.docx para educacionCARPETA PEDAGÓGICA 2024.docx para educacion
CARPETA PEDAGÓGICA 2024.docx para educacion
 
Semana Santa en Popayán para el año 2024
Semana Santa en Popayán para el año 2024Semana Santa en Popayán para el año 2024
Semana Santa en Popayán para el año 2024
 
Anna Llenas Serra. El monstruo de colores. Doctor de emociones.pdf
Anna Llenas Serra. El monstruo de colores. Doctor de emociones.pdfAnna Llenas Serra. El monstruo de colores. Doctor de emociones.pdf
Anna Llenas Serra. El monstruo de colores. Doctor de emociones.pdf
 
SITUACIÓN ACTUAL DE LA INVESTIGACIÓN. ENFERMERÍA
SITUACIÓN ACTUAL DE LA INVESTIGACIÓN. ENFERMERÍASITUACIÓN ACTUAL DE LA INVESTIGACIÓN. ENFERMERÍA
SITUACIÓN ACTUAL DE LA INVESTIGACIÓN. ENFERMERÍA
 
Escrito administrativo técnico y comerciales
Escrito administrativo técnico y comercialesEscrito administrativo técnico y comerciales
Escrito administrativo técnico y comerciales
 
ficha de aplicacion para estudiantes El agua para niños de primaria
ficha de aplicacion para estudiantes El agua para niños de primariaficha de aplicacion para estudiantes El agua para niños de primaria
ficha de aplicacion para estudiantes El agua para niños de primaria
 
Organizaciones Sociales formales y no formales
Organizaciones Sociales formales y no formalesOrganizaciones Sociales formales y no formales
Organizaciones Sociales formales y no formales
 
COMO SI EL RUIDO PUDIERA MOLESTAR 4TO SECUENCIA.docx
COMO SI EL RUIDO PUDIERA MOLESTAR 4TO SECUENCIA.docxCOMO SI EL RUIDO PUDIERA MOLESTAR 4TO SECUENCIA.docx
COMO SI EL RUIDO PUDIERA MOLESTAR 4TO SECUENCIA.docx
 
Tema 5.- BASES DE DATOS Y GESTIÓN DE LA INF. PARA EL MARKETING.pdf
Tema 5.- BASES DE DATOS Y GESTIÓN DE LA INF. PARA EL MARKETING.pdfTema 5.- BASES DE DATOS Y GESTIÓN DE LA INF. PARA EL MARKETING.pdf
Tema 5.- BASES DE DATOS Y GESTIÓN DE LA INF. PARA EL MARKETING.pdf
 
Tema 4 Rocas sedimentarias, características y clasificación
Tema 4 Rocas sedimentarias, características y clasificaciónTema 4 Rocas sedimentarias, características y clasificación
Tema 4 Rocas sedimentarias, características y clasificación
 
Evaluacion Diagnostica Matematica 2do C1 Secundaria Ccesa007.pdf
Evaluacion Diagnostica Matematica 2do C1 Secundaria Ccesa007.pdfEvaluacion Diagnostica Matematica 2do C1 Secundaria Ccesa007.pdf
Evaluacion Diagnostica Matematica 2do C1 Secundaria Ccesa007.pdf
 
Ejemplo de trabajo de TIC´s CON VARIAS OPCIONES DE LAS TAREAS
Ejemplo de trabajo de TIC´s CON VARIAS OPCIONES DE LAS TAREASEjemplo de trabajo de TIC´s CON VARIAS OPCIONES DE LAS TAREAS
Ejemplo de trabajo de TIC´s CON VARIAS OPCIONES DE LAS TAREAS
 
Los escritos administrativos, técnicos y comerciales
Los escritos administrativos, técnicos y comercialesLos escritos administrativos, técnicos y comerciales
Los escritos administrativos, técnicos y comerciales
 
TECNOLOGÍA EDUCATIVA, USO DE LAS TIC.pptx
TECNOLOGÍA EDUCATIVA, USO DE LAS TIC.pptxTECNOLOGÍA EDUCATIVA, USO DE LAS TIC.pptx
TECNOLOGÍA EDUCATIVA, USO DE LAS TIC.pptx
 
Sesión de clase ES: Adoración sin fin...
Sesión de clase ES: Adoración sin fin...Sesión de clase ES: Adoración sin fin...
Sesión de clase ES: Adoración sin fin...
 
Evaluacion Diagnostica Matematica 5to C1 Secundaria Ccesa007.pdf
Evaluacion Diagnostica Matematica 5to  C1 Secundaria Ccesa007.pdfEvaluacion Diagnostica Matematica 5to  C1 Secundaria Ccesa007.pdf
Evaluacion Diagnostica Matematica 5to C1 Secundaria Ccesa007.pdf
 
EL ECLIPSE DE LA PAZ (cuento literario). Autor y diseñador JAVIER SOLIS NOYOLA
EL ECLIPSE DE LA PAZ (cuento literario). Autor y diseñador JAVIER SOLIS NOYOLAEL ECLIPSE DE LA PAZ (cuento literario). Autor y diseñador JAVIER SOLIS NOYOLA
EL ECLIPSE DE LA PAZ (cuento literario). Autor y diseñador JAVIER SOLIS NOYOLA
 

Función de transferencia compet

  • 1. 1 La funci´on de Transferencia Compet usando Matlab E. Largo1 R. Le´on2 H. Paz3 Resumen—Este art´ıculo brinda un enfoque a la funci´on de transferencia compet utilizada en inteligencia artificial espec´ıficamente redes neuronales, tiene como objetivo dar a conocer de forma clara lo que es la funci´on compet, se explica su funcionamiento y utilizaci´on; as´ı como un ejemplo ilustrativo haciendo uso del software Matlab. Index Terms—Neurona, funci´on de activaci´on, redes neurona- les, capa oculta, aprendizaje supervisado y no supervisado. I. INTRODUCCI ´ON EN el presente documento se va a describir la funci´on compet, cual es su utilizaci´on y funcionamiento, para esto se explica algunos conceptos b´asicos de relaci´on directa con las redes neuronales, las funciones de activaci´on, tipos de aprendizaje de manera que se facilite su comprensi´on a trav´es de una amnera clara y sencilla. Cu´al es el sentido de utilizar este tipo de redes y cual es el beneficio que aportan. Por ultimo se realiza una aplicaci´on pr´actica utilizando una herramienta de software como es Matlab, se describe los comandos y sentencias utilizados en el desarrollo de la misma. II. REDES NEURONALES AUTO ORGANIZADAS[1] Antes de empezar hablar sobre las redes auto organizadas debemos hacer una relaci´on entre estas y el cerebro humano. El cerebro humano est´a dividido en ´areas y su estructura de- pende de la funci´on que tienen, las conexiones entre neuronas se realizan de acuerdo a una estructura, esta organizaci´on se la conoce como mapa. Estos mapas tienen la caracter´ıstica de ser autonomos o auto organizados, es decir que no tienen una referencia en cuanto a los patrones ingresados, es por eso que el cerebro tiene la capacidad de procesar informaci´on sin tener una referencia de salida que podr´ıa tener, si no mas bien la organiza o clasifica de acuerdo a sus caracter´ısticas y la localiza en ciertas ´areas, por ejemplo cuando nos dicen que a trav´es de la observaci´on obtengamos un an´alisis, esta informaci´on va al cerebro y se localiza en una ´area donde un sentido pueda procesarla sin tener una referencia de la informaci´on de salida, estos procesos de localizaci´on ocurrir´an con toda la nueva informaci´on que ingresa al cerebro. El comportamiento visto anteriormente lo toman las redes 1E. Largo, Universidad Nacional de Loja, Loja, Ecuador eolar- gor@unl.edu.ec 2R. Le´on, Universidad Nacional de Loja, Loja, Ecuador mrleonr@unl.edu.ec 3Tutor. H. Paz, Universidad Nacional de Loja, Loja, Ecuador hpaz@unl.edu.ec autoorganizadas, estas redes pueden aprender a detectar re- gularidades y correlaciones en los datos de entrada y adaptar su respuesta futura de acuerdo con los datos de entrada. Las neuronas de una red competitiva aprenden a reconocer grupos de vectores de datos de entrada similares. Figura 1. Representaci´on de las ´areas del cerebro. Como se aprecia en la figura 1 los diferentes n´umeros corresponden: 1. Pensamiento. 2. Planificaci´on de acciones. 3. Funciones motoras. 4. Mapa somatosensorial. 5. Habla. 6. O´ıdo primario. 7. Reconocimiento de palabras. 8. Movimientos de los ojos. 9. Visi´on III. APRENDIZAJE SUPERVISADO [2] Este tipo de aprendizaje consiste en proporcionar los pa- trones de entrada y la salida deseada. Para llegar a obtener la salida requerida se utiliza una f´ormula matem´atica de minimizaci´on de errores de manera que se pueda obtener un resultado lo m´as acercado posible a la salida deseada. Pasos para el aprendizaje: 1. Se inicializa los pesos de forma aleatoria para cada patr´on. 2. Realizar el c´alculo de la salida a partir del patr´on de entrada y los pesos aleatorios. 3. Encontrar el error de calculo entre la salida deseada y la salida actual. 4. Ajustar los pesos usando la regla de aprendizaje para disminuir el error medio. 5. Si el error es mayor de cierto criterio volver al paso 2. IV. APRENDIZAJE NO SUPERVISADO [3] En este tipo de aprendizaje no se conoce o no se le indica a la red cual es la salida deseada ´unicamente nos limitamos a darle los patrones de entrada, lo que hace la red estos casos
  • 2. 2 es categorizar las entradas compara los patrones de entrada con patrones ya establecidos y los organiza de acuerdo a la similitud entre el patron de entrada y el establecido. V. REDES MULTICAPA Una red multicapa es una red de alimentaci´on hacia adelante o tambi´en conocida como feedforward esta red se compone de una capa de unidades de entrada llamadas sensores y otra capa de unidades de salida y un n´umero determinado de capas intermedias de unidades de proceso, tambi´en llamadas capas ocultas porque no tienen conexiones con el exterior. Cada sensor de entrada est´a conectado con las unidades de la segunda capa, y cada unidad de proceso de la segunda capa est´a conectada con las unidades de la primera capa y con las unidades de la tercera capa, as´ı sucesivamente. Las unidades de salida est´an conectadas solamente con las unidades de la ´ultima capa oculta, como se muestra en la figura 2. Un aspecto importante de la competici´on es que lleva a la optimizaci´on a nivel local sin necesidad de utilizar una serie de recursos en un control global. Esto es de especial importancia en los sistemas distribuidos en los que supone un enorme coste. Figura 2. Topolog´ıa de un Perceptr´on Multicapa. VI. REDES NEURONALES COMPETITIVAS [4] En este tipo de redes a diferencia de otro tipo de redes en las cuales todas las neuronas colaboran entre si de manera que a trav´es del aprendizaje se pueda dar una representaci´on al patr´on de entrada, en el caso de una red competitiva las neuronas compiten unas con otras de manera que solo una se activa; dicho de otra manera solo esta neurona ser´a capaz de representar el patr´on de entrada. el objetivo de que una neurona compita por ser la ganadora es que es puede representar en un grupo o categor´ıa. VI-A. Estructura de una Red Competitiva Una red competitiva est´a constituida por N sensores de entrada, M unidades de proceso (neuronas artificiales), y conexiones entre cada sensor y cada unidad de proceso, de manera que la conexi´on entre el sensor j y la unidad de proceso i tiene asociado un valor wij. Figura 3. Arquitectura de la red. Se han desarrollado algunos modelos basados en redes auto organizadas que funcionan como una red competitiva, continuaci´on se menciona algunos de ellos. VI-B. Red de Kohonen Este tipo de redes fue presentado por Tuevo Kohonen en 1982 se basan en la zonas en en que esta divido el cerebro humano, este tipo de redes utiliza un aprendizaje no supervisado y es de tipo competitivo, esto significa que las neuronas de la capa de salida compiten entre si por activarse quedando solo una de ellas ganadora, los pesos de las conexiones se ajustan de acuerdo a la neurona ganadora. El modelo tiene dos variantes: LVQ (learning vector quantization) TPM o SOM (topologic preserving map, o selforganizing map). Los vectores de entrada a la red pueden ser de diferentes dimensiones, siendo en el caso de LVQ de una dimensi´on, y en el caso de TPM bidimensionales o incluso tridimensionales. Arquitectura LVQ: Se trata de una red de dos capas con N neuronas de entrada y M de salida. Cada una de las N neuronas de entrada se conecta a las M de salida mediante conexiones hacia delante. Entre las neuronas de las capas de salida existen conexiones laterales, ya que cada una de ellas tiene influencia sobre sus vecinas a la hora de calcular los pesos de las conexiones hacia delante entre la capa de salida y la capa de entrada. Figura 4. Arquitectura LVQ. En las neuronas de la capa de salida, cada neurona est´a conectada con otras de su entorno, de manera que produce una excitaci´on en las m´as pr´oximas y una inhibici´on
  • 3. 3 en las m´as alejadas. Tanto la excitaci´on como la inhibici´on laterales son gradualmente m´as d´ebiles a medida que nos alejamos de la neurona en cuesti´on. Arquitectura SOM: Trata de establecer una correspon- dencia entre los datos de entrada y un espacio bidimensional de salida, de modo que ante datos con caracter´ısticas comunes se activen neuronas situadas en zonas pr´oximas de la capa de salida. Cada neurona de la capa de entrada est´a conectada con cada una de las neuronas de la capa de salida mediante pesos. Las interacciones laterales siguen existiendo en relaci´on con la distancia que se toma como una zona bidimensional alrededor de la neurona. Figura 5. Arquitectura de la red. VI-C. Aplicaciones de la red de Kohonen Las aplicaciones que mas destacan de los mapas de Kohonen son las relacionadas con el reconocimiento de patrones, o extracci´on de caracter´ısticas, por ejemplo: Reconocimiento de voz Codificaci´on de datos Compresi´on de im´agenes Resoluci´on de problemas de optimizaci´on VI-D. Red de Hamming Este tipo de red es uno de los ejemplos m´as sencillos de aprendizaje competitivo aunque se dice que su estructura es complejo debido a que emplea el concepto de capas recurrente en su segunda capa. Las neuronas en la capa de salida de esta red compiten unas con otras para determinar la ganadora, la cual ´ındica el patr´on prototipo m´as representativo en la entrada de la red, la competici´on es implementada por inhibici´on lateral (un conjunto de conexiones negativas entre las neuronas en la capa de salida). Esta red consiste en dos capas; la primera capa, la cual es una red Instar, realiza la correlaci´on entre el vector de entrada y los vectores prototipo, la segunda capa realiza la competici´on para determinar cual de los vectores prototipo est´a m´as cercano al vector de entrada. Figura 6. Red de Hamming. Capa 1: La red Instar es capaz de clasificar solo un patr´on; para que m´ultiples patrones sean reconocidos se ne- cesitan m´ultiples Instar y es precisamente de esa forma como est´a compuesta la primera capa de la red de Hamming. Para una mejor comprensi´on de su funcionamiento se partir´a de unos vectores prototipo que la red debe clasificar. Figura 7. Vectores prototipo. La matriz de pesos W1 y el vector de ganancias b1 para la capa uno ser´an: Figura 8. Matriz de pesos y vector ganancias. Donde cada fila de W1 representa un vector prototipo, el cual deseamos reconocer y cada elemento b1 es igual al n´umero de elementos en cada vector de entrada (R) (el n´umero de neuronas S es igual al n´umero de vectores prototipo Q). As´ı la salida de la primera capa ser´a: Figura 9. Salida capa 1. La salida de la capa 1 es igual al producto punto de los vectores prototipo con la entrada m´as el vectorR; este producto indica cuan cercano est´a cada vector de entrada a los patrones prototipo. Capa 2: La red Instar emplea una funci´on de transfe- rencia poslin para decidir si el vector de entrada estaba lo suficientemente cerca al vector prototipo. En la capa 2 de la red de Hamming. Se utilizan m´ultiples Instar, as´ı se determi- nar´a por medio de una capa competitiva el patr´on prototipo
  • 4. 4 m´as cercano. Las neuronas en esta capa son inicializadas con la salida de la capa en realimentaci´on, la cual ´ındica la correlaci´on entre los patrones prototipo y el vector de entrada. Las neuronas compiten unas con otras para determinar una ganadora; despu´es de la competici´on solo una neurona tendr´a una salida de no cero. La neurona ganadora ´ındica cual categor´ıa de entrada fue presentada a la red (cada vector prototipo representa una categor´ıa). VII. EJEMPLO EN MATLAB Para reforzar la teor´ıa que se ha expuesto en este art´ıculo se plantea un ejercicio aplicando la funci´on de transferencia compet de redes neuronales, la cu´al nos permitir´a dar a conocer la neurona ganadora y los clusters posibles. Desarrollo de M´etodo newc M´etodos de Soluci´on El software desarrollado para su correcto funcionamiento se requiere que el usuario seleccione si desea dar soluci´on a trav´es de newc o newff. Figura 10. M´etodo newc de resoluci´on del problema. Datos entrada de la neurona newc En esta pantalla tenemos que ingresar algunos datos como son: n´umero de neuronas, los vectores de entrada, n´umero de itera- ciones, n´umero de clusteres para cada neurona y valores m´aximos y m´ınimos, estos valores se los puede elegir por defecto o tambien digitarlos. Figura 11. Ingreso de Datos Pantalla No 1. Figura 12. Ingreso de Datos Pantalla No 2. Resolver con newc Una vez que se tenga resueltos los dos pasos anteriores se procede a procesar los datos ingresados dando click en el bot´on. Figura 13. Bot´on que ejecuta las acciones del m´etodo newc. Luego de que el programa realice las operaciones esta- blecidas a trav´es del m´etdo newc, se procede a presentar los resultados; los valores y las neuronas ganadoras. Figura 14. Neuronas ganadoras. Ahora se procede a plotear los puntos de los clusters, los puntos ingresados por el usuario y las neuronas. Figura 15. Gr´afico inicial con valores de entrada.
  • 5. 5 Figura 16. Gr´afico final con neuronas resultantes. Desarrollo de M´etodo newff M´etodos de Soluci´on Si se decide dar soluci´on al ejemplo por el m´etodo newff, realizamos la siguiente acci´on. Figura 17. M´etodo newff de resoluci´on del problema. Datos de Entrada de la Neurona Este m´etodo tambien requiere de valores de entrada tales como: matriz de entrada, los valores m´aximos y m´ınimos, n´umero de capas y la funci´on de entrenamiento. Figura 18. Ingreso de matriz. Figura 19. Ingreso de valores m´aximos y m´ınimos. Figura 20. Ingreso de capas, neuronas y funci´on de entrenamiento. Resolver con newff Luego de realizar todos los procesos con los datos de entrada se tiene pertinencia para poder dar soluci´on al problema Figura 21. btnnewff. Luego se presentan los valores de las neuronas ganadoras y su respectiva gr´afica de los puntos de los clusters, puntos ingresados por el usuario y neuronas. Dando soluci´on al problema eficazmente. C´odigo del bot´on Compet Figura 22. C´odigo Boton Compet No. 1
  • 6. 6 Figura 23. C´odigo Boton Compet No. 2 C´odigo del bot´on Newc Figura 24. C´odigo Boton Newc No. 1 Figura 25. C´odigo Boton Newc No. 2 VIII. CONCLUSIONES Las redes competitivas utilizan un aprendizaje no super- visado. Reducci´on de tiempo en resoluci´on de procesos. Optimizaci´on de recursos inform´aticos tales como: me- mor´ıa, disco y procesador. REFERENCIAS [1] G. E. Pablo, .Aplicaciones de las Redes Neuronales en las Finanzas”, pp. 24, 03/05/2014. [En linea]. Disponible en:http://eprints.ucm.es/6767/1/0205.pdf [2] B. Alfonso, .Aprendizaje supervisado en redes neuronales”, 03/05/2014. [En linea]. Disponible en: http://www.redes-neuronales.com.es/tutorial- redes-neuronales/aprendizaje-supervisado-en-redes-neuronales.htm [3] B. Alfonso. .Aprendizaje no supervisado”, 03/05/2014. [En li- nea]. Disponible en: http://www.redes-neuronales.com.es/tutorial-redes- neuronales/aprendizaje-no-supervisado-en-redes-neuronales.htm [4] Redes Competitivas”, 03/05/2014. [En linea]. Disponible en: http://medicinaycomplejidad.org/pdf/redes/Competitivas.pdf
  • 7. 7 BIOGRAF´IA Elivar Largo R´ıos Estudiante de la Carrera de Ingier´ıa en Sistemas, D´ecimo M´odulo. Loja, Ciudad Loja - Ecuador, 2014. Mario Richar Le´on Ram´on , estudiante de la Carrera de Ingier´ıa en Sistemas, D´ecimo M´odulo. Loja, Ciudad Loja - Ecuador, 2014.