SlideShare una empresa de Scribd logo
1 de 7
NEURAL NETWORK TOOLBOX
Neural Network Toolbox
>> load house_dataset
 La red backpropagation más comunmente utilizada
posee una capa oculta con 20 neuronas.
>> newff(houseInputs, houseTargets, 20);
 La cantidad de neuronas de entrada tanto como la de
salida quedan determinadas por las características del
dataset.
>> net = train(net, houseInput, houseTargets)
Neural Network Toolbox
Neural Network Toolbox
 El dataset es dividido aleatoriamente en tres
conjuntos:
– 60% de los datos se utilizan para entrenamiento.
– 20% de los datos se utilizan para validación.
– 20% de los datos se utilizan para test.
 El entrenamiento continúa mientras se reduce
el error de validación.
 Esta es una técnica muy utilizada para evitar el
sobreentrenamiento.
Neural Network Toolbox
 Una vez entrenada la red, se la puede utilizar:
>> y = sim(net, p);
 Para un conjunto de nuevos datos se espera
un error similar al calculado para el conjunto
de test.
 Se puede mejorar la precisión de una red.
Neural Network Toolbox
 Se puede inicializar nuevamente la red para
volver a entrenar:
>> net.IW{1, 1}(1:2, 1:2)
-0.5815 0.2696
-0.2799 -0.4926
>> net = init(net);
>> net.IW{1, 1}(1:2, 1:2)
-0.0047 0.2063
0.4592 -0.4419
Neural Network Toolbox
 Una segunda estrategia es cambiar el número
de capas y neuronas internas.
– Se puede agregar como cuarto argumento un
arreglo con los nombres de las funciones
transferencia a usar en cada capa.
 Por último, usar datos adicionales
generalmente mejora el aprendizaje.

Más contenido relacionado

Similar a Network toolbox

Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2jcbp_peru
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2jcbp_peru
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Utp sirn_sl4 la rna percetron 2012-2
 Utp sirn_sl4 la rna percetron 2012-2 Utp sirn_sl4 la rna percetron 2012-2
Utp sirn_sl4 la rna percetron 2012-2c09271
 
Presentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaPresentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaUniversidad CEU Cardenal Herrera
 
05 (power point)-héctor patiño
05 (power point)-héctor patiño05 (power point)-héctor patiño
05 (power point)-héctor patiñoAlejandro Perez
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
redes neuronales perceptron
redes neuronales  perceptronredes neuronales  perceptron
redes neuronales perceptronMarc Llanos
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptronc09271
 
Utp ia_sl4 la rna perceptron
 Utp ia_sl4 la rna perceptron Utp ia_sl4 la rna perceptron
Utp ia_sl4 la rna perceptronjcbenitezp
 
Manual NeuroSolutions
Manual NeuroSolutionsManual NeuroSolutions
Manual NeuroSolutionsESCOM
 

Similar a Network toolbox (20)

Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Rna10
Rna10Rna10
Rna10
 
Actividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelynActividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelyn
 
Boletin3
Boletin3Boletin3
Boletin3
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Utp sirn_sl4 la rna percetron 2012-2
 Utp sirn_sl4 la rna percetron 2012-2 Utp sirn_sl4 la rna percetron 2012-2
Utp sirn_sl4 la rna percetron 2012-2
 
Presentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaPresentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática Valencia
 
05 (power point)-héctor patiño
05 (power point)-héctor patiño05 (power point)-héctor patiño
05 (power point)-héctor patiño
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
redes neuronales perceptron
redes neuronales  perceptronredes neuronales  perceptron
redes neuronales perceptron
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptron
 
Utp ia_sl4 la rna perceptron
 Utp ia_sl4 la rna perceptron Utp ia_sl4 la rna perceptron
Utp ia_sl4 la rna perceptron
 
Manual NeuroSolutions
Manual NeuroSolutionsManual NeuroSolutions
Manual NeuroSolutions
 

Network toolbox

  • 2. Neural Network Toolbox >> load house_dataset  La red backpropagation más comunmente utilizada posee una capa oculta con 20 neuronas. >> newff(houseInputs, houseTargets, 20);  La cantidad de neuronas de entrada tanto como la de salida quedan determinadas por las características del dataset. >> net = train(net, houseInput, houseTargets)
  • 4. Neural Network Toolbox  El dataset es dividido aleatoriamente en tres conjuntos: – 60% de los datos se utilizan para entrenamiento. – 20% de los datos se utilizan para validación. – 20% de los datos se utilizan para test.  El entrenamiento continúa mientras se reduce el error de validación.  Esta es una técnica muy utilizada para evitar el sobreentrenamiento.
  • 5. Neural Network Toolbox  Una vez entrenada la red, se la puede utilizar: >> y = sim(net, p);  Para un conjunto de nuevos datos se espera un error similar al calculado para el conjunto de test.  Se puede mejorar la precisión de una red.
  • 6. Neural Network Toolbox  Se puede inicializar nuevamente la red para volver a entrenar: >> net.IW{1, 1}(1:2, 1:2) -0.5815 0.2696 -0.2799 -0.4926 >> net = init(net); >> net.IW{1, 1}(1:2, 1:2) -0.0047 0.2063 0.4592 -0.4419
  • 7. Neural Network Toolbox  Una segunda estrategia es cambiar el número de capas y neuronas internas. – Se puede agregar como cuarto argumento un arreglo con los nombres de las funciones transferencia a usar en cada capa.  Por último, usar datos adicionales generalmente mejora el aprendizaje.