SlideShare una empresa de Scribd logo
1 de 10
Descargar para leer sin conexión
Neural Network Toolbox
Sistemas Conexionistas - Curso 08/09
La Neural Network Toolbox es un paquete de Matlab que contiene una serie de funciones
para crear y trabajar con redes de neuronas artificiales. Con help nnet se obtiene la lista
de todas las funciones de este paquete.
1. Adaline
1.1. Funciones generales
mse Calcula el error cuadr´atico medio y se utiliza para evaluar la precisi´on de una red de
neuronas.
error = mse(salida_deseada - salida_obtenida)
maxlinlr Calcula la velocidad m´axima de aprendizaje para una red lineal. Toma como
par´ametro obligatorio los patrones de entrada a la red, los cuales se disponen en una
matriz en la que cada columna representa un patr´on de entrada.
P = [e11 e12; e21 e22]
lr = maxlinlr(P)
lr = maxlinlr(P,’bias’)
learnwh Algoritmo de aprendizaje LMS (Widrow-Hoff). En un ciclo de aprendizaje, cal-
cula la variaci´on de los pesos como dw = lr ∗ e ∗ p y la variaci´on del bias como
db = lr ∗ e. Su sintaxis es:
dW = learnwh(W,P,[],[],[],T,E,[],[],[],LP,[]);
donde
W es la matriz de pesos de tama˜no SxR, cada fila representa los pesos de un
elemento de procesado
P es la matriz de entrada de tama˜no RxQ, cada columna representa un patr´on
de entrada
T es la matriz de salidas deseadas de tama˜no SxQ, cada columna representa
una salida deseada
E es la matriz de errores de tama˜no SxQ, con un error por columna
LP es una estructura que contiene los par´ametros de aprendizaje. En concreto:
• LP.lr es la velocidad de aprendizaje (learning rate)
• LP.mc es el momento (momentum constant)
• LP.dr es la tasa de decaimiento (decay rate)
Esta funci´on devuelve una matriz de tama˜no SxR que contiene el incremento de los
pesos.
2. Perceptr´on multicapa
2.1. Creaci´on
El comando newff crea una red de neuronas de tipo feedforward.
En la versi´on 6 de la Neural Network Toolbox (laboratorio de pr´acticas), su sintaxis es:
net = newff(P, T, [S1 S2...S(N - 1)],{TF1 TF2...TFN},BTF,BLF,PF)
P Matriz con los patrones de entrada
T Matriz con las salidas deseadas
Si Tama˜no de la capa i (s´olo capas ocultas)
TFi Funci´on de transferencia de la capa i, por defecto es ’tansig’ para las capas ocultas
y ’purelin’ para la capa de salida.
2
BTF Funci´on de entrenamiento, por defecto ’trainlm’.
BLF Funci´on de aprendizaje de los pesos/bias, por defecto ’learngdm’.
PF Funci´on de evaluaci´on, por defecto ’mse’
Esta funci´on devuelve una red feedforward con N capas.
Para versiones anteriores de la Neural Network Toolbox, la sintaxis cambia:
net = newff(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF)
PR Matriz con los valores m´ınimo y m´aximo de cada una de las componentes de los
patrones de entrada
Si Tama˜no de la capa i
TFi Funci´on de transferencia de la capa i, por defecto es ’tansig’.
BTF Funci´on de entrenamiento, por defecto ’trainlm’.
BLF Funci´on de aprendizaje de los pesos/bias, por defecto ’learngdm’.
PF Funci´on de evaluaci´on, por defecto ’mse’
Esta funci´on devuelve una red feedforward con N capas.
Funciones de transferencia
Un elemento de procesado tiene N entradas. La suma de estas entradas ponderadas por los
pesos y el bias constituye la entrada a la funci´on de transferencia, la cual determina c´omo
ser´an las salidas del elemento de procesado. Los elementos de procesado pueden utilizar
cualquier tipo de funci´on de transferencia diferenciable para generar su salida, por ejemplo:
3
La funci´on de transferencia de una capa se establece al crear la red o bien alterando el
valor del par´ametro NET.layers{i}.transferFcn en una red existente.
Es muy importante que la funci´on de transferencia se adec´ue al problema a resolver.
2.2. Entrenamiento
Una vez creada la red, el siguiente paso es realizar el entrenamiento con los patrones de
entrada y las salidas deseadas. Existen dos tipos de entrenamiento:
Est´atico En cada ciclo de entrenamiento se recalculan los pesos de la red tras presentar
todos los patrones de entrenamiento. Se realiza con la funci´on train:
[net,TR,Y,E] = train(NET,P,T)
Los par´ametros de entrada son:
NET Una red inicializada
P Los patrones de entrada
T Las salidas deseadas
Y los par´ametros de salida son:
4
net Red entrenada
TR Error en funci´on de la iteraci´on
Y Salida de la red
E Errores de la red
Adaptativo En cada ciclo de entrenamiento se recalculan los pesos tras presentar cada
uno de los patrones de entrenamiento. Se realiza con la funci´on adapt, cuya sintaxis
es la siguiente:
[net,Y,E] = adapt(NET,P,T)
Los par´ametros de entrada son:
NET Una red inicializada
P Los patrones de entrada
T Las salidas deseadas
Y los par´ametros de salida son:
net Red entrenada
Y Salida de la red
E Errores de la red
Antes de utilizar este tipo de entrenamiento es necesario especificar el n´umero de
pasadas de entrenamiento adaptativo con NET.adaptParam.passes.
Funciones de entrenamiento
Existen diversos m´etodos para realizar el entrenamiento est´atico de una red de neuronas.
Estos m´etodos se basan en algoritmos que intentan minimizar el error en base a diversas
t´ecnicas. Cada uno de estos m´etodos presenta sus ventajas e inconvenientes en cuanto a
5
convergencia y coste computacional1
. Algunas funciones de entrenamiento son trainlm,
traingd, traingdx, trainbr, etc
Al igual que las funciones de transferencia, la funci´on de entrenamiento se establece al
crear la red o bien alterando el valor del par´ametro NET.transferFcn
2.3. Utilizaci´on
Tras la fase de entrenamiento, la red est´a lista para ser usada, es decir, la red es capaz de
producir una salida adecuada a un conjunto de patrones de entrada. La funci´on sim es la
encargada de pasar un conjunto de patrones de entrada a la red y de obtener su salida:
Y = sim(NET,P)
Donde
NET representa una red entrenada
P es el conjunto de patrones de entrada
Y es la salida de la red
3. Redes de base radial
3.1. Creaci´on
Las redes de base radial pueden ser creadas con los comandos newrbe o newrb.
La funci´on newrbe crea una red de base radial con tantas neuronas como patrones de
entrada. Su sintaxis es:
net = newrbe(P,T,SPREAD)
donde
1
El cap´ıtulo 5 del manual de referencia hace una comparativa entre los distintos algoritmos de entre-
namiento.
6
P es una matriz con los patrones de entrada
T es una matriz con las salidas deseadas
SPREAD difusi´on de las funciones de base radial, por defecto 1
El valor de SPREAD determina el ancho del ´area del espacio de entrada al que cada neurona
responde. Por ejemplo, si SPREAD toma valor 4, cada neurona de la capa de neuronas de
base radial responder´a con valores de 0.5 o superiores a cada patr´on de entrada situado a
una distancia de 4 del vector de pesos. Este par´ametro debe ser lo suficientemente grande
como para que las neuronas puedan responder fuertemente a regiones solapadas del espacio
de entrada, mejorando as´ı la capacidad de generalizaci´on. No obstante, si este valor es
demasiado grande, todas las neuronas de la capa de base radial tomar´an como salida valores
cercanos a 1 con todos los patrones de entrada, perdiendo as´ı la informaci´on almacenada
en la capa de base radial.
La funci´on newrb crea una red de base radial a˜nadiendo una neurona en cada iteraci´on. La
red a˜nade una nueva neurona hasta que el error total de la red alcanza un error objetivo
o bien se alcanza un n´umero m´aximo de neuronas (por defecto, el n´umero de patrones de
entrada). La sintaxis es:
net = newrb(P,T,GOAL,SPREAD,MN)
donde
P es una matriz con los patrones de entrada
T es una matriz con las salidas deseadas
GOAL error cuadr´atico medio objetivo, por defecto 0.0
SPREAD difusi´on de las funciones de base radial, por defecto 1
MN m´aximo n´umero de neuronas, por defecto, el mismo n´umero de patrones de entrada
Esta funci´on crea un dise˜no m´as eficiente de las redes de base radial.
7
3.2. Entrenamiento
En este tipo de redes no es necesario realizar expl´ıcitamente un entrenamiento.
En caso de redes creadas con newrbe, los pesos de la capa de base radial se inicializan
con los valores de los patrones y los bias de cada neurona a 0.8326/SPREAD. Los pesos
de la capa lineal se obtienen simulando las salidas de la primera capa y resolviendo una
expresi´on lineal.
En la creaci´on de redes con newrb, se realiza el siguiente proceso iterativo hasta que el
error alcanza el error objetivo o bien se alcanza el m´aximo n´umero de neuronas:
1. La red se simula
2. Se localiza el patr´on de entrada con mayor error y se a˜nade una neurona en la capa
de base radial con los pesos de dicho patr´on
3. Se recalculan los pesos de la capa lineal para minimizar el error cometido
3.3. Utilizaci´on
La funci´on sim, descrita en el apartado anterior se utiliza para aplicar una red de base
radial a nuevos patrones de entrada.
4. Mapas autoorganizativos
4.1. Creaci´on
La funci´on newsom se utiliza para crear un mapa autoorganizativo. Su sintaxis es:
NET = newsom(PR, [D1, D2, ...], TFCN)
Los par´ametros de esta funci´on son:
PR es una matriz con los valores m´aximos y m´ınimos de las entradas
Di es la dimensi´on de la i-´esima capa
TFCN representa la topolog´ıa (gridtop,hextop o randtop)
8
La funci´on newsom devuelve un mapa autoorganizativo.
Algunos par´ametros de inter´es de la nueva red son:
NET.trainParam.epochs M´aximo n´umero de ciclos de entrenamiento
La funci´on plotsom dibuja mapas autoorganizativos:
plotsom(net.layers{i}.positions) representa la posici´on de los elementos de pro-
cesado de la capa i-´esima del mapa autoorganizativo. Cada elemento de procesado
est´a situado a una distancia eucl´ıdea de 1 con respecto a sus vecinos.
plotsom(net.IW{i,j}, net.layers{i}.distances) representa la posici´on real de
cada elemento de procesado con respecto a sus vecinos en la capa i-´esima.
4.2. Entrenamiento
Se utiliza la funci´on train descrita anteriormente.
4.3. Utilizaci´on
La funci´on sim descrita en el apartado Perceptr´on permite aplicar el mapa autoorganizativo
entrenado a un nuevo conjunto de patrones. En este caso, la funci´on sim devuelve no
un valor sino un vector con tantas posiciones como elementos de procesado. Todas las
posiciones de este vector est´an ocupadas por ceros excepto la posici´on correspondiente al
elemento de procesado activado en la capa competitiva, el cual toma valor uno. En estas
casos Matlab muestra ´unicamente el ´ındice con valor uno:
>> Y = sim(net,X)
9
Y =
(18,1) 1
A veces es necesario extraer el ´ındice correspondiente al elemento de procesado activado.
Para ello se utiliza la funci´on vec2ind:
>> vec2ind(Y)
ans =
18
10

Más contenido relacionado

La actualidad más candente

Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Woi9 ia 2015 1 balotario de la pc2
Woi9 ia 2015 1 balotario de la pc2Woi9 ia 2015 1 balotario de la pc2
Woi9 ia 2015 1 balotario de la pc2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3jcbenitezp
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanESCOM
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
REDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOREDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOESCOM
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINEESCOM
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Funciones de base Radial
Funciones de base RadialFunciones de base Radial
Funciones de base Radialguestc50c2f
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINEESCOM
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptronc09271
 
Utp sirn_sl8 sistemas difusos i 2013-3
 Utp sirn_sl8 sistemas difusos i 2013-3 Utp sirn_sl8 sistemas difusos i 2013-3
Utp sirn_sl8 sistemas difusos i 2013-3jcbenitezp
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radialJefferson Guillen
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 

La actualidad más candente (20)

Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Woi9 ia 2015 1 balotario de la pc2
Woi9 ia 2015 1 balotario de la pc2Woi9 ia 2015 1 balotario de la pc2
Woi9 ia 2015 1 balotario de la pc2
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3
 
Perceptrón multicapa entrenamienta en MatLab
Perceptrón multicapa entrenamienta en MatLabPerceptrón multicapa entrenamienta en MatLab
Perceptrón multicapa entrenamienta en MatLab
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Utp 2015-2_ia_lab3
 Utp 2015-2_ia_lab3 Utp 2015-2_ia_lab3
Utp 2015-2_ia_lab3
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
REDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOREDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMO
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Funciones de base Radial
Funciones de base RadialFunciones de base Radial
Funciones de base Radial
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINE
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptron
 
Utp sirn_sl8 sistemas difusos i 2013-3
 Utp sirn_sl8 sistemas difusos i 2013-3 Utp sirn_sl8 sistemas difusos i 2013-3
Utp sirn_sl8 sistemas difusos i 2013-3
 
Redes neuronales artificiales de base radial
Redes neuronales artificiales de base radialRedes neuronales artificiales de base radial
Redes neuronales artificiales de base radial
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 

Destacado

Fotografías paquete turistico nº 1 b
Fotografías paquete turistico nº 1 bFotografías paquete turistico nº 1 b
Fotografías paquete turistico nº 1 bjcams
 
Curso estad multiv trujillo mod
Curso estad multiv trujillo modCurso estad multiv trujillo mod
Curso estad multiv trujillo modcolbiol
 
하루일과 계획표
하루일과 계획표하루일과 계획표
하루일과 계획표Whitestocking
 
Πειραματικό Σερρών, Μαθητική εφημερίδα ΣΤ΄2 σχ. έτος 2013-14
Πειραματικό Σερρών, Μαθητική εφημερίδα ΣΤ΄2   σχ. έτος 2013-14Πειραματικό Σερρών, Μαθητική εφημερίδα ΣΤ΄2   σχ. έτος 2013-14
Πειραματικό Σερρών, Μαθητική εφημερίδα ΣΤ΄2 σχ. έτος 2013-14kastanos
 
Fotografías paquete turistico nº 3
Fotografías paquete turistico nº 3Fotografías paquete turistico nº 3
Fotografías paquete turistico nº 3jcams
 
Presentación 001 prueba
Presentación 001 pruebaPresentación 001 prueba
Presentación 001 pruebajcams
 
Programación del curso taller 01 diciembre 2012
Programación del curso taller 01 diciembre 2012Programación del curso taller 01 diciembre 2012
Programación del curso taller 01 diciembre 2012colbiol
 
Jak jsme si vybrali Apache Derby
Jak jsme si vybrali Apache DerbyJak jsme si vybrali Apache Derby
Jak jsme si vybrali Apache DerbyLukáš Petrlík
 
Salas comunes
Salas comunesSalas comunes
Salas comunesjcams
 
5월 3주차 중부총괄팀 소식지
5월 3주차 중부총괄팀 소식지5월 3주차 중부총괄팀 소식지
5월 3주차 중부총괄팀 소식지Kim Jiyu
 
Estrategia de estudio
Estrategia de estudioEstrategia de estudio
Estrategia de estudioAmairani5
 
Resolucion
ResolucionResolucion
Resolucioncolbiol
 
Colegiode biologos
Colegiode biologosColegiode biologos
Colegiode biologoscolbiol
 
ruta 7 faros, prueba
ruta 7 faros, pruebaruta 7 faros, prueba
ruta 7 faros, pruebajcams
 
Curso estad multiv_trujillo
Curso estad multiv_trujilloCurso estad multiv_trujillo
Curso estad multiv_trujillocolbiol
 
Presentación del alojamiento
Presentación del alojamientoPresentación del alojamiento
Presentación del alojamientojcams
 
Sílabos quimica senescyt
Sílabos quimica senescytSílabos quimica senescyt
Sílabos quimica senescytjennyrojasp
 
Fotografías paquete turistico nº 2
Fotografías paquete turistico nº 2Fotografías paquete turistico nº 2
Fotografías paquete turistico nº 2jcams
 

Destacado (20)

Fotografías paquete turistico nº 1 b
Fotografías paquete turistico nº 1 bFotografías paquete turistico nº 1 b
Fotografías paquete turistico nº 1 b
 
Kerja sama membentuk rukun warga bebas sampah
Kerja sama membentuk rukun warga bebas sampahKerja sama membentuk rukun warga bebas sampah
Kerja sama membentuk rukun warga bebas sampah
 
Curso estad multiv trujillo mod
Curso estad multiv trujillo modCurso estad multiv trujillo mod
Curso estad multiv trujillo mod
 
하루일과 계획표
하루일과 계획표하루일과 계획표
하루일과 계획표
 
Πειραματικό Σερρών, Μαθητική εφημερίδα ΣΤ΄2 σχ. έτος 2013-14
Πειραματικό Σερρών, Μαθητική εφημερίδα ΣΤ΄2   σχ. έτος 2013-14Πειραματικό Σερρών, Μαθητική εφημερίδα ΣΤ΄2   σχ. έτος 2013-14
Πειραματικό Σερρών, Μαθητική εφημερίδα ΣΤ΄2 σχ. έτος 2013-14
 
Fotografías paquete turistico nº 3
Fotografías paquete turistico nº 3Fotografías paquete turistico nº 3
Fotografías paquete turistico nº 3
 
Presentación 001 prueba
Presentación 001 pruebaPresentación 001 prueba
Presentación 001 prueba
 
Programación del curso taller 01 diciembre 2012
Programación del curso taller 01 diciembre 2012Programación del curso taller 01 diciembre 2012
Programación del curso taller 01 diciembre 2012
 
Jak jsme si vybrali Apache Derby
Jak jsme si vybrali Apache DerbyJak jsme si vybrali Apache Derby
Jak jsme si vybrali Apache Derby
 
Salas comunes
Salas comunesSalas comunes
Salas comunes
 
5월 3주차 중부총괄팀 소식지
5월 3주차 중부총괄팀 소식지5월 3주차 중부총괄팀 소식지
5월 3주차 중부총괄팀 소식지
 
Estrategia de estudio
Estrategia de estudioEstrategia de estudio
Estrategia de estudio
 
Resolucion
ResolucionResolucion
Resolucion
 
Colegiode biologos
Colegiode biologosColegiode biologos
Colegiode biologos
 
ruta 7 faros, prueba
ruta 7 faros, pruebaruta 7 faros, prueba
ruta 7 faros, prueba
 
Curso estad multiv_trujillo
Curso estad multiv_trujilloCurso estad multiv_trujillo
Curso estad multiv_trujillo
 
Presentación del alojamiento
Presentación del alojamientoPresentación del alojamiento
Presentación del alojamiento
 
Sílabos quimica senescyt
Sílabos quimica senescytSílabos quimica senescyt
Sílabos quimica senescyt
 
Fotografías paquete turistico nº 2
Fotografías paquete turistico nº 2Fotografías paquete turistico nº 2
Fotografías paquete turistico nº 2
 
Pelatihan mengelola sampah kawasan
Pelatihan mengelola  sampah kawasanPelatihan mengelola  sampah kawasan
Pelatihan mengelola sampah kawasan
 

Similar a Boletin3

Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlabInnoVacompu
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp ia_sl4 la rna perceptron
 Utp ia_sl4 la rna perceptron Utp ia_sl4 la rna perceptron
Utp ia_sl4 la rna perceptronjcbenitezp
 
redes neuronales perceptron
redes neuronales  perceptronredes neuronales  perceptron
redes neuronales perceptronMarc Llanos
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlinsJuan Pinzón
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificialesSpacetoshare
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal DifusaESCOM
 
Gustavo 07 redes neuronales matlab
Gustavo 07   redes neuronales matlabGustavo 07   redes neuronales matlab
Gustavo 07 redes neuronales matlabWige Marr
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptronjcbp_peru
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2jcbp_peru
 

Similar a Boletin3 (20)

Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Actividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelynActividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelyn
 
Utp ia_sl4 la rna perceptron
 Utp ia_sl4 la rna perceptron Utp ia_sl4 la rna perceptron
Utp ia_sl4 la rna perceptron
 
redes neuronales perceptron
redes neuronales  perceptronredes neuronales  perceptron
redes neuronales perceptron
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlins
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
Gustavo 07 redes neuronales matlab
Gustavo 07   redes neuronales matlabGustavo 07   redes neuronales matlab
Gustavo 07 redes neuronales matlab
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2
 

Último

Buscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webBuscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webDecaunlz
 
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdfFernandaHernandez312615
 
locomotas v siclo.ppt de ingenieria de minas
locomotas v siclo.ppt de ingenieria de minaslocomotas v siclo.ppt de ingenieria de minas
locomotas v siclo.ppt de ingenieria de minasMirkaCBauer
 
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsxactividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx241532171
 
Institucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenaInstitucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenadanielaerazok
 
COMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfCOMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfOscarBlas6
 
Historia de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellaHistoria de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellajuancamilo3111391
 
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxrodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxssuser61dda7
 
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxPRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxRodriguezLucero
 
3Mayo2023 Taller construcción de Prototipos.pptx
3Mayo2023 Taller construcción de Prototipos.pptx3Mayo2023 Taller construcción de Prototipos.pptx
3Mayo2023 Taller construcción de Prototipos.pptxadso2024sena
 
CamposGarcia_MariaMagdalena_M1S3AI6.pptx
CamposGarcia_MariaMagdalena_M1S3AI6.pptxCamposGarcia_MariaMagdalena_M1S3AI6.pptx
CamposGarcia_MariaMagdalena_M1S3AI6.pptx241518192
 
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAINSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAdanielaerazok
 
institucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenainstitucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenajuniorcuellargomez
 
El uso de las tic en la vida continúa , ambiente positivo y negativo.
El uso de las tic  en la vida continúa , ambiente positivo y negativo.El uso de las tic  en la vida continúa , ambiente positivo y negativo.
El uso de las tic en la vida continúa , ambiente positivo y negativo.ayalayenifer617
 
libro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdflibro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdfFAUSTODANILOCRUZCAST
 
FLUIDEZ-Teatro-Leido-4to-Grado-El-leon-y-el-raton- (1).pdf
FLUIDEZ-Teatro-Leido-4to-Grado-El-leon-y-el-raton- (1).pdfFLUIDEZ-Teatro-Leido-4to-Grado-El-leon-y-el-raton- (1).pdf
FLUIDEZ-Teatro-Leido-4to-Grado-El-leon-y-el-raton- (1).pdfYuriFuentesMartinez2
 
Producto académico 03 - Habilidades Comunicativas.pptx
Producto académico 03 - Habilidades Comunicativas.pptxProducto académico 03 - Habilidades Comunicativas.pptx
Producto académico 03 - Habilidades Comunicativas.pptx46828205
 
MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.imejia2411
 

Último (18)

Buscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webBuscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la web
 
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
 
locomotas v siclo.ppt de ingenieria de minas
locomotas v siclo.ppt de ingenieria de minaslocomotas v siclo.ppt de ingenieria de minas
locomotas v siclo.ppt de ingenieria de minas
 
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsxactividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
 
Institucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenaInstitucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalena
 
COMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfCOMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdf
 
Historia de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellaHistoria de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ella
 
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxrodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
 
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxPRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
 
3Mayo2023 Taller construcción de Prototipos.pptx
3Mayo2023 Taller construcción de Prototipos.pptx3Mayo2023 Taller construcción de Prototipos.pptx
3Mayo2023 Taller construcción de Prototipos.pptx
 
CamposGarcia_MariaMagdalena_M1S3AI6.pptx
CamposGarcia_MariaMagdalena_M1S3AI6.pptxCamposGarcia_MariaMagdalena_M1S3AI6.pptx
CamposGarcia_MariaMagdalena_M1S3AI6.pptx
 
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAINSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
 
institucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenainstitucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalena
 
El uso de las tic en la vida continúa , ambiente positivo y negativo.
El uso de las tic  en la vida continúa , ambiente positivo y negativo.El uso de las tic  en la vida continúa , ambiente positivo y negativo.
El uso de las tic en la vida continúa , ambiente positivo y negativo.
 
libro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdflibro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdf
 
FLUIDEZ-Teatro-Leido-4to-Grado-El-leon-y-el-raton- (1).pdf
FLUIDEZ-Teatro-Leido-4to-Grado-El-leon-y-el-raton- (1).pdfFLUIDEZ-Teatro-Leido-4to-Grado-El-leon-y-el-raton- (1).pdf
FLUIDEZ-Teatro-Leido-4to-Grado-El-leon-y-el-raton- (1).pdf
 
Producto académico 03 - Habilidades Comunicativas.pptx
Producto académico 03 - Habilidades Comunicativas.pptxProducto académico 03 - Habilidades Comunicativas.pptx
Producto académico 03 - Habilidades Comunicativas.pptx
 
MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.
 

Boletin3

  • 1. Neural Network Toolbox Sistemas Conexionistas - Curso 08/09 La Neural Network Toolbox es un paquete de Matlab que contiene una serie de funciones para crear y trabajar con redes de neuronas artificiales. Con help nnet se obtiene la lista de todas las funciones de este paquete. 1. Adaline 1.1. Funciones generales mse Calcula el error cuadr´atico medio y se utiliza para evaluar la precisi´on de una red de neuronas. error = mse(salida_deseada - salida_obtenida) maxlinlr Calcula la velocidad m´axima de aprendizaje para una red lineal. Toma como par´ametro obligatorio los patrones de entrada a la red, los cuales se disponen en una matriz en la que cada columna representa un patr´on de entrada. P = [e11 e12; e21 e22] lr = maxlinlr(P) lr = maxlinlr(P,’bias’) learnwh Algoritmo de aprendizaje LMS (Widrow-Hoff). En un ciclo de aprendizaje, cal- cula la variaci´on de los pesos como dw = lr ∗ e ∗ p y la variaci´on del bias como db = lr ∗ e. Su sintaxis es: dW = learnwh(W,P,[],[],[],T,E,[],[],[],LP,[]); donde
  • 2. W es la matriz de pesos de tama˜no SxR, cada fila representa los pesos de un elemento de procesado P es la matriz de entrada de tama˜no RxQ, cada columna representa un patr´on de entrada T es la matriz de salidas deseadas de tama˜no SxQ, cada columna representa una salida deseada E es la matriz de errores de tama˜no SxQ, con un error por columna LP es una estructura que contiene los par´ametros de aprendizaje. En concreto: • LP.lr es la velocidad de aprendizaje (learning rate) • LP.mc es el momento (momentum constant) • LP.dr es la tasa de decaimiento (decay rate) Esta funci´on devuelve una matriz de tama˜no SxR que contiene el incremento de los pesos. 2. Perceptr´on multicapa 2.1. Creaci´on El comando newff crea una red de neuronas de tipo feedforward. En la versi´on 6 de la Neural Network Toolbox (laboratorio de pr´acticas), su sintaxis es: net = newff(P, T, [S1 S2...S(N - 1)],{TF1 TF2...TFN},BTF,BLF,PF) P Matriz con los patrones de entrada T Matriz con las salidas deseadas Si Tama˜no de la capa i (s´olo capas ocultas) TFi Funci´on de transferencia de la capa i, por defecto es ’tansig’ para las capas ocultas y ’purelin’ para la capa de salida. 2
  • 3. BTF Funci´on de entrenamiento, por defecto ’trainlm’. BLF Funci´on de aprendizaje de los pesos/bias, por defecto ’learngdm’. PF Funci´on de evaluaci´on, por defecto ’mse’ Esta funci´on devuelve una red feedforward con N capas. Para versiones anteriores de la Neural Network Toolbox, la sintaxis cambia: net = newff(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF) PR Matriz con los valores m´ınimo y m´aximo de cada una de las componentes de los patrones de entrada Si Tama˜no de la capa i TFi Funci´on de transferencia de la capa i, por defecto es ’tansig’. BTF Funci´on de entrenamiento, por defecto ’trainlm’. BLF Funci´on de aprendizaje de los pesos/bias, por defecto ’learngdm’. PF Funci´on de evaluaci´on, por defecto ’mse’ Esta funci´on devuelve una red feedforward con N capas. Funciones de transferencia Un elemento de procesado tiene N entradas. La suma de estas entradas ponderadas por los pesos y el bias constituye la entrada a la funci´on de transferencia, la cual determina c´omo ser´an las salidas del elemento de procesado. Los elementos de procesado pueden utilizar cualquier tipo de funci´on de transferencia diferenciable para generar su salida, por ejemplo: 3
  • 4. La funci´on de transferencia de una capa se establece al crear la red o bien alterando el valor del par´ametro NET.layers{i}.transferFcn en una red existente. Es muy importante que la funci´on de transferencia se adec´ue al problema a resolver. 2.2. Entrenamiento Una vez creada la red, el siguiente paso es realizar el entrenamiento con los patrones de entrada y las salidas deseadas. Existen dos tipos de entrenamiento: Est´atico En cada ciclo de entrenamiento se recalculan los pesos de la red tras presentar todos los patrones de entrenamiento. Se realiza con la funci´on train: [net,TR,Y,E] = train(NET,P,T) Los par´ametros de entrada son: NET Una red inicializada P Los patrones de entrada T Las salidas deseadas Y los par´ametros de salida son: 4
  • 5. net Red entrenada TR Error en funci´on de la iteraci´on Y Salida de la red E Errores de la red Adaptativo En cada ciclo de entrenamiento se recalculan los pesos tras presentar cada uno de los patrones de entrenamiento. Se realiza con la funci´on adapt, cuya sintaxis es la siguiente: [net,Y,E] = adapt(NET,P,T) Los par´ametros de entrada son: NET Una red inicializada P Los patrones de entrada T Las salidas deseadas Y los par´ametros de salida son: net Red entrenada Y Salida de la red E Errores de la red Antes de utilizar este tipo de entrenamiento es necesario especificar el n´umero de pasadas de entrenamiento adaptativo con NET.adaptParam.passes. Funciones de entrenamiento Existen diversos m´etodos para realizar el entrenamiento est´atico de una red de neuronas. Estos m´etodos se basan en algoritmos que intentan minimizar el error en base a diversas t´ecnicas. Cada uno de estos m´etodos presenta sus ventajas e inconvenientes en cuanto a 5
  • 6. convergencia y coste computacional1 . Algunas funciones de entrenamiento son trainlm, traingd, traingdx, trainbr, etc Al igual que las funciones de transferencia, la funci´on de entrenamiento se establece al crear la red o bien alterando el valor del par´ametro NET.transferFcn 2.3. Utilizaci´on Tras la fase de entrenamiento, la red est´a lista para ser usada, es decir, la red es capaz de producir una salida adecuada a un conjunto de patrones de entrada. La funci´on sim es la encargada de pasar un conjunto de patrones de entrada a la red y de obtener su salida: Y = sim(NET,P) Donde NET representa una red entrenada P es el conjunto de patrones de entrada Y es la salida de la red 3. Redes de base radial 3.1. Creaci´on Las redes de base radial pueden ser creadas con los comandos newrbe o newrb. La funci´on newrbe crea una red de base radial con tantas neuronas como patrones de entrada. Su sintaxis es: net = newrbe(P,T,SPREAD) donde 1 El cap´ıtulo 5 del manual de referencia hace una comparativa entre los distintos algoritmos de entre- namiento. 6
  • 7. P es una matriz con los patrones de entrada T es una matriz con las salidas deseadas SPREAD difusi´on de las funciones de base radial, por defecto 1 El valor de SPREAD determina el ancho del ´area del espacio de entrada al que cada neurona responde. Por ejemplo, si SPREAD toma valor 4, cada neurona de la capa de neuronas de base radial responder´a con valores de 0.5 o superiores a cada patr´on de entrada situado a una distancia de 4 del vector de pesos. Este par´ametro debe ser lo suficientemente grande como para que las neuronas puedan responder fuertemente a regiones solapadas del espacio de entrada, mejorando as´ı la capacidad de generalizaci´on. No obstante, si este valor es demasiado grande, todas las neuronas de la capa de base radial tomar´an como salida valores cercanos a 1 con todos los patrones de entrada, perdiendo as´ı la informaci´on almacenada en la capa de base radial. La funci´on newrb crea una red de base radial a˜nadiendo una neurona en cada iteraci´on. La red a˜nade una nueva neurona hasta que el error total de la red alcanza un error objetivo o bien se alcanza un n´umero m´aximo de neuronas (por defecto, el n´umero de patrones de entrada). La sintaxis es: net = newrb(P,T,GOAL,SPREAD,MN) donde P es una matriz con los patrones de entrada T es una matriz con las salidas deseadas GOAL error cuadr´atico medio objetivo, por defecto 0.0 SPREAD difusi´on de las funciones de base radial, por defecto 1 MN m´aximo n´umero de neuronas, por defecto, el mismo n´umero de patrones de entrada Esta funci´on crea un dise˜no m´as eficiente de las redes de base radial. 7
  • 8. 3.2. Entrenamiento En este tipo de redes no es necesario realizar expl´ıcitamente un entrenamiento. En caso de redes creadas con newrbe, los pesos de la capa de base radial se inicializan con los valores de los patrones y los bias de cada neurona a 0.8326/SPREAD. Los pesos de la capa lineal se obtienen simulando las salidas de la primera capa y resolviendo una expresi´on lineal. En la creaci´on de redes con newrb, se realiza el siguiente proceso iterativo hasta que el error alcanza el error objetivo o bien se alcanza el m´aximo n´umero de neuronas: 1. La red se simula 2. Se localiza el patr´on de entrada con mayor error y se a˜nade una neurona en la capa de base radial con los pesos de dicho patr´on 3. Se recalculan los pesos de la capa lineal para minimizar el error cometido 3.3. Utilizaci´on La funci´on sim, descrita en el apartado anterior se utiliza para aplicar una red de base radial a nuevos patrones de entrada. 4. Mapas autoorganizativos 4.1. Creaci´on La funci´on newsom se utiliza para crear un mapa autoorganizativo. Su sintaxis es: NET = newsom(PR, [D1, D2, ...], TFCN) Los par´ametros de esta funci´on son: PR es una matriz con los valores m´aximos y m´ınimos de las entradas Di es la dimensi´on de la i-´esima capa TFCN representa la topolog´ıa (gridtop,hextop o randtop) 8
  • 9. La funci´on newsom devuelve un mapa autoorganizativo. Algunos par´ametros de inter´es de la nueva red son: NET.trainParam.epochs M´aximo n´umero de ciclos de entrenamiento La funci´on plotsom dibuja mapas autoorganizativos: plotsom(net.layers{i}.positions) representa la posici´on de los elementos de pro- cesado de la capa i-´esima del mapa autoorganizativo. Cada elemento de procesado est´a situado a una distancia eucl´ıdea de 1 con respecto a sus vecinos. plotsom(net.IW{i,j}, net.layers{i}.distances) representa la posici´on real de cada elemento de procesado con respecto a sus vecinos en la capa i-´esima. 4.2. Entrenamiento Se utiliza la funci´on train descrita anteriormente. 4.3. Utilizaci´on La funci´on sim descrita en el apartado Perceptr´on permite aplicar el mapa autoorganizativo entrenado a un nuevo conjunto de patrones. En este caso, la funci´on sim devuelve no un valor sino un vector con tantas posiciones como elementos de procesado. Todas las posiciones de este vector est´an ocupadas por ceros excepto la posici´on correspondiente al elemento de procesado activado en la capa competitiva, el cual toma valor uno. En estas casos Matlab muestra ´unicamente el ´ındice con valor uno: >> Y = sim(net,X) 9
  • 10. Y = (18,1) 1 A veces es necesario extraer el ´ındice correspondiente al elemento de procesado activado. Para ello se utiliza la funci´on vec2ind: >> vec2ind(Y) ans = 18 10