SlideShare una empresa de Scribd logo
REDES NEURONALES ARTIFICIALES
María Jesús de la Fuente
Dpto. Ingeniería de Sistemas y Automática
Universidad de Valladolid
ÍNDICE
Introducción
Clasificación de redes neuronales:
Estructura
Entrenamiento
Aplicación de las redes neuronales a la identificación de sistemas
Las redes neuronales en el control
REDES NEURONALES
Neurona: base del funcionamiento del cerebro.
Sistema de procesamiento cerebral de la información:
Complejo, No lineal y Paralelo.
Elementos de que consta: sinapsis, axón, dentritas y soma o
cuerpo
NEURONA ARTIFICIAL
Neurona artificial: unidad de procesamiento de la información, es
un dispositivo simple de cálculo que ante un vector de entradas
proporciona una única salida.
Elementos:
Conjunto de entradas, xj
Pesos sinápticos, wi
Función de activación:
w1·x1+ w2·x2+ ... + wn·xn = a
Función de transferencia:
y = F (w1·x1+ w2·x2+ ... + wn·xn )
Bias o polarización: entrada constate de magnitud 1, y peso b
que se introduce en el sumador
a
y
NEURONA ARTIFICIAL
Principales funciones de transferencia:
Lineal: y=ka
Escalón: y = 0 si a<0; y=1 si a>=0
Sigmoide
Gaussiana.
RNA de una capa
Una neurona aislada dispone de poca potencia de cálculo.
Los nodos se conectan mediante la sinapsis
Las neuronas se agrupan formando una estructura llamada capa.
Los pesos pasan a ser matrices W (n x m)
La salida de la red es un vector: Y=(y1, y2, ... , yn)T
Y=F(W·X+b)
a1
a2
an
y1
y2
yn
RNA Multicapa
Redes multicapa: capas en cascada.
Tipos de capas:
Entrada
Salida
Oculta
No hay realimentación => redred
feedforwardfeedforward
Salida depende de entradas y pesos.
Si hay realimentación => red recurrentered recurrente
Efecto memoria
Salida depende también de la historia
pasada.
Una RNA es un aproximador general de
funciones no lineales.
Entrenamiento I
Entrenamiento: proceso de aprendizaje de la red.
Objetivo: tener un comportamiento deseado.
Método:
Uso de un algoritmo para el ajuste de los parámetros libres de
la red: los pesos y las bias.
Convergencia: salidas de la red = salidas deseadas.
Tipos de entrenamiento:
Supervisado.
Pares de entrenamiento: entrada - salida deseada.
Error por cada par que se utiliza para ajustar parámetros
No-supervisado.
Solamente conjunto de entradas.
Salidas: la agrupación o clasificación por clases
Reforzado.
Perceptrones
McCulloch y Pitts, en 1943, publicaron el primer estudio sobre
RNA.
El elemento central: perceptrón.
Solo permite discriminar entre dos clases
linealmente separables: XOR.
0.5= a = w1·x1 + w2·x2
No hay combinación de x1 y x2 que resuelva este
problema.
Solución: más capas o funciones de transferencia no lineales.
a
y
Aprendizaje del Perceptrón.
Algoritmo supervisado:
Aplicar patrón de entrada y calcular salida de la red
Si salida correcta, volver a 1
Si salida incorrecta
0 sumar a cada peso su entrada
1 restar a cada peso su entrada
Volver a 1
Proceso iterativo, si el problema es linealmente separable este
algoritmo converge en un tiempo finito.
Nos da los pesos y las bias de la red que resuelve el problema.
Regla delta
Generalización del algoritmo del perceptrón para sistemas con
entradas y salidas continuas.
Se define: δ=T-A= (salidas deseadas - salidas de la red).
Minimiza una función de coste basada en ese vector de error:
∆i=δ lr xi
Wi(n+1) = Wi(n) + ∆ i
Razón de aprendizaje lr
Si las neuronas son
lineales=> un único mínimo
Redes Neuronales Lineales.
Función de transferencia lineal.
Algoritmo de entrenamiento de Widrow-Hoff o Delta, tiene en
cuenta la magnitud del error.
Entrenamiento:
Suma de los cuadrados de los errores sea mínima.
Superficie de error con mínimo único.
Algoritmo tipo gradiente.
Aproximan funciones lineales.
Backpropagation
Clave en el resurgimiento de las redes neuronales.
Primera descripción del algoritmo fue dada por Werbos en 1974
Generalización del algoritmo de Widrow-Hoff para redes multicapa
con funciones de transferencia no-lineales y diferenciables.
1989 Hornik, Stinchcombe y White
Una red neuronal con una capa de sigmoides es capaz de
aproximar cualquier función con un número finito de
discontinuidades
Propiedad de la generalización.
La función de transferencia es no-lineal, la superficie de error tiene
varios mínimos locales.
Red Perceptron Multicapa (MLP)
Función acotada, monótona creciente y diferenciable.
Red de tipo feedforward.
Suficiente con dos capas.
a
y
Algoritmo backpropagation I
Descripción:
Tras inicializar los pesos de forma aleatoria y con valores
pequeños, seleccionamos el primer par de entrenamiento.
Calculamos la salida de la red
Calculamos la diferencia entre la salida real de la red y la salida
deseada, con lo que obtenemos el vector de error
Ajustamos los pesos de la red de forma que se minimice el
error
Repetimos los tres pasos anteriores para cada par de
entrenamiento hasta que el error para todos los conjuntos de
entrenamiento sea aceptable.
Descenso por la superficie del error
Cálculo de derivadas del error respecto de los pesos y de las bias.
AdelanteAtrás
Algoritmo backpropagation II
Detalles:
SSE: E=ΣEp=Σ (ypk-opk)2
∆wij=-η ∂Ε/ ∂wij
Pasos:
Inicialización:
Construcción de la red.
Inicialización aleatoria de pesos y umbrales (-0.5, 0.5)
Criterio de terminación (número máximo de iteraciones,…).
Contador de iteraciones n=0.
Fase hacia delante:
Calcular la salida de la red para cada patrón de entrada.
Calcular el error total cometido (SSE)
Si la condición de terminación se satisface, parar
Fase hacia atrás:
Algoritmo backpropagation III
Fase hacia atrás:
Incrementar el contador n=n+1.
Paca cada neurona de salida calcualr: δk=(ok-yk)f’(netk) donde
netj=Σiwijxi+bj
Para cada unidad oculta, calcular δj=f’(netj)Σkδkwjk
Actualizar pesos: ∆wij(n+1)=ηδjoi+α∆wij(n)
Volver a la fase hacia delante.
Inconvenientes del algoritmo backpropagation:
Tiempo de entrenamiento no acotado.
Dependiente de las condiciones iniciales:
Parálisis de la red.
Mínimos locales.
Algoritmo Backpropagation IV
Underfitting.
Memorización o Sobreaprendizaje.
Caracterización de la red. ¿Cuantas capas, cuantas neuronas
en cada capa,…?
Redes Neuronales no supervisadas I
Autoorganizativas: durante el proceso de aprendizaje la red debe
descubrir por si misma regularidades o categorías => la red debe
autoorganizarse en función de las señales procedentes del
entorno.
Mapa de Rasgos Autoorganizados, SOM (Kohonen, 80)
Características:
Red competitiva
Arquitectura unidireccional de dos capas:
Capa de entrada: m neuronas una por cada vector de
entrada.
Capa segunda se realiza el procesamiento, formando el
mapa de rasgos. Tiene nx X ny neuronas operando en
paralelo.
Todas las neuronas de entrada están conectadas a las
neuronas de la segunda capa, a través de los pesos wij
Redes Neuronales No-Supervisadas II
Cada neurona (i,j) calcula la similitud entre el vector de entradas y
su vector de pesos
Vence la neurona cuyo vector de pesos es más similar al vector de
entrada.
Cada neurona sirva para detectar alguna característica del vector
de entrada.
Función de vecindad:
relación entre neuronas
próximas en el mapa.
RNA no supervisadas III
Aprendizaje:
Inicialización de los pesos wij
Presentación de las entradas x(t)
Cada neurona calcula, la similitud entre su vector de pesos wij y
el vector de entrada x, usando la distancia Euclídea
Determinación de la neurona ganadora:
Actualización de los pesos de la neurona ganadora y sus
vecinas
Las demás neuronas no actualizan su peso
Si se ha alcanzado el número de iteraciones parar, si no volver
VENTAJAS
Ventajas de las RNA:
Aprendizaje adaptativo: lo necesario es aplicar un buen
algoritmo y disponer de patrones (pares) de entrenamiento.
Auto-organización => conduce a la generalización
Tolerancia a fallos: las redes pueden aprender patrones que
contienen ruido, distorsión o que están incompletos.
Operación en tiempo real: procesan gran cantidad de datos en
poco tiempo.
Facilidad de inserción en tecnología ya existente.
APLICACIONES
Detección de patrones.
Filtrado de señales
Segmentación de datos
Control
Identificación.
Redes Neuronales en
identificación de sistemas
Identificación de sistemas
La identificación consiste en calcular un modelo del sistema en
base a datos experimentales.
Pasos:
Seleccionar una clase de modelos (CARIMA, Box-Jenkis,...)
Obtener un conjunto de datos experimentales
Seleccionar un modelo de la clase elegida
Estimar los parámetros (método de Identificación: LS,RLS,IV,...)
Validación (exactitud, adecuación de uso)
Sistema
Entrada: u(t) Salida: y(t)
RNA que representan el tiempo
Representación del tiempo.
Tratamiento de señales.
Identificación de modelos dinámicos
Control de sistemas.
Redes dinámicas:
Respuesta a:
Las entradas actuales
La historia pasada del sistema.
Dotar de memoria a la red:
Introduciendo directamente en la red tanto la señal actual
como los valores pasados.
Mediante conexiones recurrentes.
Red PML con ventana temporal
Ventanas de datos pasadas de las entradas y de las salidas.
Ventajas:
Algoritmo simple es suficiente
No problemas de realimentación
Desventajas
Información útil debe “caber” en la ventana temporal
Muchas entradas Sobreparametrización
u(t)
u(t-1)
u(t-2)
…
u(t-m)
y(t-1)
y(t-2)
…
ym (t)
Redes neuronales recurrentes
Redes neuronales parcialmente
recurrentes:
Conexiones recurrentes con
valores fijos
Algoritmo de aprendizaje “ve”
una red perceptrón multicapa
Ejemplos:
Jordan
Elman
Redes neuronales recurrentes:
Todas las neuronas
interconectadas
Computacionalmente costoso
Estructuras neuronales para la
identificación
Determinación o elección de la estructura del modelo.
¿Es necesario un modelo neuronal?
Nos basamos en modelos establecidos en el caso lineal
Diseño:
Variables que forman parte del regresor ϕ(t)
Función no-lineal g(·,·) desde el espacio de regresiones al
espacio de salida NO en modelos lineales
y(t)=g(θ,ϕ(t))+e(t)
Estructura de caja negra: modelo de entrada- salida.
Elementos del regresor:
Entradas pasadas u(t-k)
Salidas pasadas medidas: y(t-k)
Salidas pasadas calculadas por el modelo: ÿu(t-k|θ)
Residuos pasados calculados: εu(t-k)=y(t-k)-ÿu(t-k|θ)
Modelo NARX
Ventajas:
Puede aproximar cualquier sistema no-lineal arbitrariamente
bien
No recurrente.
Desventajas:
Vector de regresión puede ser grande
No se modela el ruido
ut
g
yt
)(ˆ ty
yt
ϕ(t)=[y(t-1) ... y(t-n) u(t-k) ... u(t-m-k+1)]T
)),(,()(ˆ tgty ϕθ=
Modelo NOE
ut
g
t
yˆ
yt
)(ˆ ty
yt
T
kmtuktuntytyt )]1(...)()|(ˆ...)|1(ˆ[)( +−−−−−= θθϕ
)),(()|(ˆ θϕθ tgty =
Corresponde a una red recurrente, ya que parte de las entradas
constituye la salida de la propia red.
Comprobación difícil para modelo de predicción estable
Entrenamiento laborioso por cálculo correcto de gradientes
Validación
Validación: es el proceso de comprobación de la utilidad de modelo
obtenido:
Si el modelo concuerda con los datos observados
Si servirá al propósito para el que fue creado
Si describe el sistema real
Enfoque neuronal:
Conjunto de datos de entrenamiento
Conjunto de datos de test.
Conjunto de datos de validación.
Enfoque basado en correlaciones:
Test de blancura de los residuos
…
Ejemplo I
Transforma un producto A en otro B
Reacción química exotérmica
Se controla la temperatura mediante
una camisa por la
que circula un refrigerante
Salidas:
Ca Cb Tl Tr
Entradas:
Manipulables: Fl Fr
Perturbaciones medibles:
Ca0 Tl0 Tr0
Camisa
Reactor
Fl, Ca0, Tl0
Fr, Tr0
Ca, Cb, Tl Tr
A B
Ejemplo II
El periodo de muestreo es T = 0.2 horas
Las entradas han de ser tales que provoquen todas las salidas de
interés
Ejemplo III
Se normalizan los datos de entrada y salida
Se entrenan cuatro redes, cada una modela una salida
Se usa el algoritmo backpropagation
R.N.A. Elman
R.N.A. Elman
R.N.A. Elman
R.N.A. Elman
Ca
Cb
Tl
Tr
Fl
Fr
Ca0
Tl0
Tr0
Ejemplo IV
Validación del modelo.
De forma neuronal: test son saltos en Fr
Ejemplo V
Correlaciones: blancura de los residuos

Más contenido relacionado

La actualidad más candente

Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
Jefferson Guillen
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
ESCOM
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
Levy GT
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
ESCOM
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVA
ESCOM
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Andrea Lezcano
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
edeciofreitez
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
ESCOM
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
ESCOM
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
ESCOM
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
ESCOM
 
Redes de neuronas recurrentes
Redes de neuronas recurrentesRedes de neuronas recurrentes
Redes de neuronas recurrentes
Spacetoshare
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
daniatacho
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Ana Mora
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
edeciofreitez
 

La actualidad más candente (15)

Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
TEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVATEORÍA DE RESONANCIA ADAPTATIVA
TEORÍA DE RESONANCIA ADAPTATIVA
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Redes de neuronas recurrentes
Redes de neuronas recurrentesRedes de neuronas recurrentes
Redes de neuronas recurrentes
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 

Similar a Redes neuronales

Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
edeciofreitez
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
ESCOM
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
Kempachi Zaraki
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
ESCOM
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
jairo0990
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
jhymermartinez
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartif
anaisplani
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
jcbenitezp
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
jcbp_peru
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
c09271
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
hiperu2005
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
ESCOM
 
Boletin3
Boletin3Boletin3
Boletin3
Yin Quark
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
Diego Guamán
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
Jorge Miguel Lazaro Suarez
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
ESCOM
 
Inteligencia Artificial Clase 3
Inteligencia Artificial Clase 3Inteligencia Artificial Clase 3
Inteligencia Artificial Clase 3
UNEFA
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
ESCOM
 
Redes final
Redes finalRedes final
Redes final
Eduardo Triana
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
jcbenitezp
 

Similar a Redes neuronales (20)

Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartif
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Boletin3
Boletin3Boletin3
Boletin3
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
Inteligencia Artificial Clase 3
Inteligencia Artificial Clase 3Inteligencia Artificial Clase 3
Inteligencia Artificial Clase 3
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
Redes final
Redes finalRedes final
Redes final
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 

Último

ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLAACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
JAVIER SOLIS NOYOLA
 
Matriz de relación mixta DO - Adaptación
Matriz de relación mixta DO - AdaptaciónMatriz de relación mixta DO - Adaptación
Matriz de relación mixta DO - Adaptación
JonathanCovena1
 
CUIDADO INTEGRAL DE SALUD DE LA FAMILIA.pdf
CUIDADO INTEGRAL DE SALUD DE LA FAMILIA.pdfCUIDADO INTEGRAL DE SALUD DE LA FAMILIA.pdf
CUIDADO INTEGRAL DE SALUD DE LA FAMILIA.pdf
JovannyAguilarGestor
 
Reglamento del salón - Intensa-mente.pdf
Reglamento del salón - Intensa-mente.pdfReglamento del salón - Intensa-mente.pdf
Reglamento del salón - Intensa-mente.pdf
Adri G Ch
 
Fichero Léxico / Pandemia Lingüística / USCO
Fichero Léxico / Pandemia Lingüística / USCOFichero Léxico / Pandemia Lingüística / USCO
Fichero Léxico / Pandemia Lingüística / USCO
mariahernandez632951
 
Aplicaciones móviles de grabación (2 de julio de 2024)
Aplicaciones móviles de grabación (2 de julio de 2024)Aplicaciones móviles de grabación (2 de julio de 2024)
Aplicaciones móviles de grabación (2 de julio de 2024)
Cátedra Banco Santander
 
Lec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdfLec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdf
Alejandrino Halire Ccahuana
 
03. SESION PERSONAL-PRIMEROS POBLADORES DEL PERÚ.docx
03. SESION PERSONAL-PRIMEROS POBLADORES  DEL PERÚ.docx03. SESION PERSONAL-PRIMEROS POBLADORES  DEL PERÚ.docx
03. SESION PERSONAL-PRIMEROS POBLADORES DEL PERÚ.docx
Giuliana500489
 
Cultura Organizacional con Responsabilidad Social Empresarial.pdf
Cultura Organizacional con Responsabilidad Social Empresarial.pdfCultura Organizacional con Responsabilidad Social Empresarial.pdf
Cultura Organizacional con Responsabilidad Social Empresarial.pdf
JonathanCovena1
 
diapositivas paco yunque.pptx cartelera literaria
diapositivas paco yunque.pptx cartelera literariadiapositivas paco yunque.pptx cartelera literaria
diapositivas paco yunque.pptx cartelera literaria
TheeffitaSantosMedin
 
Lecciones 02 Un día en el ministerio de Jesús.docx
Lecciones 02 Un día en el ministerio de Jesús.docxLecciones 02 Un día en el ministerio de Jesús.docx
Lecciones 02 Un día en el ministerio de Jesús.docx
Alejandrino Halire Ccahuana
 
Filigramma #17, revista literaria del Círculo de Escritores Sabersinfin
Filigramma #17, revista literaria del Círculo de Escritores SabersinfinFiligramma #17, revista literaria del Círculo de Escritores Sabersinfin
Filigramma #17, revista literaria del Círculo de Escritores Sabersinfin
Sabersinfin Portal
 
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Cátedra Banco Santander
 
Curación de contenidos (1 de julio de 2024)
Curación de contenidos (1 de julio de 2024)Curación de contenidos (1 de julio de 2024)
Curación de contenidos (1 de julio de 2024)
Cátedra Banco Santander
 
Plataformas de vídeo online (2 de julio de 2024)
Plataformas de vídeo online (2 de julio de 2024)Plataformas de vídeo online (2 de julio de 2024)
Plataformas de vídeo online (2 de julio de 2024)
Cátedra Banco Santander
 
LABERINTOS DE DISCIPLINAS OLÍMPICAS. Por JAVIER SOLIS NOYOLA
LABERINTOS DE DISCIPLINAS OLÍMPICAS.  Por JAVIER SOLIS NOYOLALABERINTOS DE DISCIPLINAS OLÍMPICAS.  Por JAVIER SOLIS NOYOLA
LABERINTOS DE DISCIPLINAS OLÍMPICAS. Por JAVIER SOLIS NOYOLA
JAVIER SOLIS NOYOLA
 
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdfInforme de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Demetrio Ccesa Rayme
 
Fundamentos del diseño audiovisual para presentaciones y vídeos (2 de julio d...
Fundamentos del diseño audiovisual para presentaciones y vídeos (2 de julio d...Fundamentos del diseño audiovisual para presentaciones y vídeos (2 de julio d...
Fundamentos del diseño audiovisual para presentaciones y vídeos (2 de julio d...
Cátedra Banco Santander
 
fichas descriptivas para primaria 2023-2024
fichas descriptivas para primaria 2023-2024fichas descriptivas para primaria 2023-2024
fichas descriptivas para primaria 2023-2024
Verito51
 
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
nelsontobontrujillo
 

Último (20)

ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLAACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
ACERTIJO MATEMÁTICO DEL MEDALLERO OLÍMPICO. Por JAVIER SOLIS NOYOLA
 
Matriz de relación mixta DO - Adaptación
Matriz de relación mixta DO - AdaptaciónMatriz de relación mixta DO - Adaptación
Matriz de relación mixta DO - Adaptación
 
CUIDADO INTEGRAL DE SALUD DE LA FAMILIA.pdf
CUIDADO INTEGRAL DE SALUD DE LA FAMILIA.pdfCUIDADO INTEGRAL DE SALUD DE LA FAMILIA.pdf
CUIDADO INTEGRAL DE SALUD DE LA FAMILIA.pdf
 
Reglamento del salón - Intensa-mente.pdf
Reglamento del salón - Intensa-mente.pdfReglamento del salón - Intensa-mente.pdf
Reglamento del salón - Intensa-mente.pdf
 
Fichero Léxico / Pandemia Lingüística / USCO
Fichero Léxico / Pandemia Lingüística / USCOFichero Léxico / Pandemia Lingüística / USCO
Fichero Léxico / Pandemia Lingüística / USCO
 
Aplicaciones móviles de grabación (2 de julio de 2024)
Aplicaciones móviles de grabación (2 de julio de 2024)Aplicaciones móviles de grabación (2 de julio de 2024)
Aplicaciones móviles de grabación (2 de julio de 2024)
 
Lec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdfLec. 02 Un día en el ministerio de Jesús.pdf
Lec. 02 Un día en el ministerio de Jesús.pdf
 
03. SESION PERSONAL-PRIMEROS POBLADORES DEL PERÚ.docx
03. SESION PERSONAL-PRIMEROS POBLADORES  DEL PERÚ.docx03. SESION PERSONAL-PRIMEROS POBLADORES  DEL PERÚ.docx
03. SESION PERSONAL-PRIMEROS POBLADORES DEL PERÚ.docx
 
Cultura Organizacional con Responsabilidad Social Empresarial.pdf
Cultura Organizacional con Responsabilidad Social Empresarial.pdfCultura Organizacional con Responsabilidad Social Empresarial.pdf
Cultura Organizacional con Responsabilidad Social Empresarial.pdf
 
diapositivas paco yunque.pptx cartelera literaria
diapositivas paco yunque.pptx cartelera literariadiapositivas paco yunque.pptx cartelera literaria
diapositivas paco yunque.pptx cartelera literaria
 
Lecciones 02 Un día en el ministerio de Jesús.docx
Lecciones 02 Un día en el ministerio de Jesús.docxLecciones 02 Un día en el ministerio de Jesús.docx
Lecciones 02 Un día en el ministerio de Jesús.docx
 
Filigramma #17, revista literaria del Círculo de Escritores Sabersinfin
Filigramma #17, revista literaria del Círculo de Escritores SabersinfinFiligramma #17, revista literaria del Círculo de Escritores Sabersinfin
Filigramma #17, revista literaria del Círculo de Escritores Sabersinfin
 
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
Licencias de contenidos y propiedad intelectual (1 de julio de 2024)
 
Curación de contenidos (1 de julio de 2024)
Curación de contenidos (1 de julio de 2024)Curación de contenidos (1 de julio de 2024)
Curación de contenidos (1 de julio de 2024)
 
Plataformas de vídeo online (2 de julio de 2024)
Plataformas de vídeo online (2 de julio de 2024)Plataformas de vídeo online (2 de julio de 2024)
Plataformas de vídeo online (2 de julio de 2024)
 
LABERINTOS DE DISCIPLINAS OLÍMPICAS. Por JAVIER SOLIS NOYOLA
LABERINTOS DE DISCIPLINAS OLÍMPICAS.  Por JAVIER SOLIS NOYOLALABERINTOS DE DISCIPLINAS OLÍMPICAS.  Por JAVIER SOLIS NOYOLA
LABERINTOS DE DISCIPLINAS OLÍMPICAS. Por JAVIER SOLIS NOYOLA
 
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdfInforme de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
Informe de Evaluacion Diagnostica de Comunicacion 1-5 Ccesa007.pdf
 
Fundamentos del diseño audiovisual para presentaciones y vídeos (2 de julio d...
Fundamentos del diseño audiovisual para presentaciones y vídeos (2 de julio d...Fundamentos del diseño audiovisual para presentaciones y vídeos (2 de julio d...
Fundamentos del diseño audiovisual para presentaciones y vídeos (2 de julio d...
 
fichas descriptivas para primaria 2023-2024
fichas descriptivas para primaria 2023-2024fichas descriptivas para primaria 2023-2024
fichas descriptivas para primaria 2023-2024
 
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
1. QUE ES UNA ESTRUCTURAOCTAVOASANTA TERESA .pptx
 

Redes neuronales

  • 1. REDES NEURONALES ARTIFICIALES María Jesús de la Fuente Dpto. Ingeniería de Sistemas y Automática Universidad de Valladolid
  • 2. ÍNDICE Introducción Clasificación de redes neuronales: Estructura Entrenamiento Aplicación de las redes neuronales a la identificación de sistemas Las redes neuronales en el control
  • 3. REDES NEURONALES Neurona: base del funcionamiento del cerebro. Sistema de procesamiento cerebral de la información: Complejo, No lineal y Paralelo. Elementos de que consta: sinapsis, axón, dentritas y soma o cuerpo
  • 4. NEURONA ARTIFICIAL Neurona artificial: unidad de procesamiento de la información, es un dispositivo simple de cálculo que ante un vector de entradas proporciona una única salida. Elementos: Conjunto de entradas, xj Pesos sinápticos, wi Función de activación: w1·x1+ w2·x2+ ... + wn·xn = a Función de transferencia: y = F (w1·x1+ w2·x2+ ... + wn·xn ) Bias o polarización: entrada constate de magnitud 1, y peso b que se introduce en el sumador a y
  • 5. NEURONA ARTIFICIAL Principales funciones de transferencia: Lineal: y=ka Escalón: y = 0 si a<0; y=1 si a>=0 Sigmoide Gaussiana.
  • 6. RNA de una capa Una neurona aislada dispone de poca potencia de cálculo. Los nodos se conectan mediante la sinapsis Las neuronas se agrupan formando una estructura llamada capa. Los pesos pasan a ser matrices W (n x m) La salida de la red es un vector: Y=(y1, y2, ... , yn)T Y=F(W·X+b) a1 a2 an y1 y2 yn
  • 7. RNA Multicapa Redes multicapa: capas en cascada. Tipos de capas: Entrada Salida Oculta No hay realimentación => redred feedforwardfeedforward Salida depende de entradas y pesos. Si hay realimentación => red recurrentered recurrente Efecto memoria Salida depende también de la historia pasada. Una RNA es un aproximador general de funciones no lineales.
  • 8. Entrenamiento I Entrenamiento: proceso de aprendizaje de la red. Objetivo: tener un comportamiento deseado. Método: Uso de un algoritmo para el ajuste de los parámetros libres de la red: los pesos y las bias. Convergencia: salidas de la red = salidas deseadas. Tipos de entrenamiento: Supervisado. Pares de entrenamiento: entrada - salida deseada. Error por cada par que se utiliza para ajustar parámetros No-supervisado. Solamente conjunto de entradas. Salidas: la agrupación o clasificación por clases Reforzado.
  • 9. Perceptrones McCulloch y Pitts, en 1943, publicaron el primer estudio sobre RNA. El elemento central: perceptrón. Solo permite discriminar entre dos clases linealmente separables: XOR. 0.5= a = w1·x1 + w2·x2 No hay combinación de x1 y x2 que resuelva este problema. Solución: más capas o funciones de transferencia no lineales. a y
  • 10. Aprendizaje del Perceptrón. Algoritmo supervisado: Aplicar patrón de entrada y calcular salida de la red Si salida correcta, volver a 1 Si salida incorrecta 0 sumar a cada peso su entrada 1 restar a cada peso su entrada Volver a 1 Proceso iterativo, si el problema es linealmente separable este algoritmo converge en un tiempo finito. Nos da los pesos y las bias de la red que resuelve el problema.
  • 11. Regla delta Generalización del algoritmo del perceptrón para sistemas con entradas y salidas continuas. Se define: δ=T-A= (salidas deseadas - salidas de la red). Minimiza una función de coste basada en ese vector de error: ∆i=δ lr xi Wi(n+1) = Wi(n) + ∆ i Razón de aprendizaje lr Si las neuronas son lineales=> un único mínimo
  • 12. Redes Neuronales Lineales. Función de transferencia lineal. Algoritmo de entrenamiento de Widrow-Hoff o Delta, tiene en cuenta la magnitud del error. Entrenamiento: Suma de los cuadrados de los errores sea mínima. Superficie de error con mínimo único. Algoritmo tipo gradiente. Aproximan funciones lineales.
  • 13. Backpropagation Clave en el resurgimiento de las redes neuronales. Primera descripción del algoritmo fue dada por Werbos en 1974 Generalización del algoritmo de Widrow-Hoff para redes multicapa con funciones de transferencia no-lineales y diferenciables. 1989 Hornik, Stinchcombe y White Una red neuronal con una capa de sigmoides es capaz de aproximar cualquier función con un número finito de discontinuidades Propiedad de la generalización. La función de transferencia es no-lineal, la superficie de error tiene varios mínimos locales.
  • 14. Red Perceptron Multicapa (MLP) Función acotada, monótona creciente y diferenciable. Red de tipo feedforward. Suficiente con dos capas. a y
  • 15. Algoritmo backpropagation I Descripción: Tras inicializar los pesos de forma aleatoria y con valores pequeños, seleccionamos el primer par de entrenamiento. Calculamos la salida de la red Calculamos la diferencia entre la salida real de la red y la salida deseada, con lo que obtenemos el vector de error Ajustamos los pesos de la red de forma que se minimice el error Repetimos los tres pasos anteriores para cada par de entrenamiento hasta que el error para todos los conjuntos de entrenamiento sea aceptable. Descenso por la superficie del error Cálculo de derivadas del error respecto de los pesos y de las bias. AdelanteAtrás
  • 16. Algoritmo backpropagation II Detalles: SSE: E=ΣEp=Σ (ypk-opk)2 ∆wij=-η ∂Ε/ ∂wij Pasos: Inicialización: Construcción de la red. Inicialización aleatoria de pesos y umbrales (-0.5, 0.5) Criterio de terminación (número máximo de iteraciones,…). Contador de iteraciones n=0. Fase hacia delante: Calcular la salida de la red para cada patrón de entrada. Calcular el error total cometido (SSE) Si la condición de terminación se satisface, parar Fase hacia atrás:
  • 17. Algoritmo backpropagation III Fase hacia atrás: Incrementar el contador n=n+1. Paca cada neurona de salida calcualr: δk=(ok-yk)f’(netk) donde netj=Σiwijxi+bj Para cada unidad oculta, calcular δj=f’(netj)Σkδkwjk Actualizar pesos: ∆wij(n+1)=ηδjoi+α∆wij(n) Volver a la fase hacia delante. Inconvenientes del algoritmo backpropagation: Tiempo de entrenamiento no acotado. Dependiente de las condiciones iniciales: Parálisis de la red. Mínimos locales.
  • 18. Algoritmo Backpropagation IV Underfitting. Memorización o Sobreaprendizaje. Caracterización de la red. ¿Cuantas capas, cuantas neuronas en cada capa,…?
  • 19. Redes Neuronales no supervisadas I Autoorganizativas: durante el proceso de aprendizaje la red debe descubrir por si misma regularidades o categorías => la red debe autoorganizarse en función de las señales procedentes del entorno. Mapa de Rasgos Autoorganizados, SOM (Kohonen, 80) Características: Red competitiva Arquitectura unidireccional de dos capas: Capa de entrada: m neuronas una por cada vector de entrada. Capa segunda se realiza el procesamiento, formando el mapa de rasgos. Tiene nx X ny neuronas operando en paralelo. Todas las neuronas de entrada están conectadas a las neuronas de la segunda capa, a través de los pesos wij
  • 20. Redes Neuronales No-Supervisadas II Cada neurona (i,j) calcula la similitud entre el vector de entradas y su vector de pesos Vence la neurona cuyo vector de pesos es más similar al vector de entrada. Cada neurona sirva para detectar alguna característica del vector de entrada. Función de vecindad: relación entre neuronas próximas en el mapa.
  • 21. RNA no supervisadas III Aprendizaje: Inicialización de los pesos wij Presentación de las entradas x(t) Cada neurona calcula, la similitud entre su vector de pesos wij y el vector de entrada x, usando la distancia Euclídea Determinación de la neurona ganadora: Actualización de los pesos de la neurona ganadora y sus vecinas Las demás neuronas no actualizan su peso Si se ha alcanzado el número de iteraciones parar, si no volver
  • 22. VENTAJAS Ventajas de las RNA: Aprendizaje adaptativo: lo necesario es aplicar un buen algoritmo y disponer de patrones (pares) de entrenamiento. Auto-organización => conduce a la generalización Tolerancia a fallos: las redes pueden aprender patrones que contienen ruido, distorsión o que están incompletos. Operación en tiempo real: procesan gran cantidad de datos en poco tiempo. Facilidad de inserción en tecnología ya existente.
  • 23. APLICACIONES Detección de patrones. Filtrado de señales Segmentación de datos Control Identificación.
  • 25. Identificación de sistemas La identificación consiste en calcular un modelo del sistema en base a datos experimentales. Pasos: Seleccionar una clase de modelos (CARIMA, Box-Jenkis,...) Obtener un conjunto de datos experimentales Seleccionar un modelo de la clase elegida Estimar los parámetros (método de Identificación: LS,RLS,IV,...) Validación (exactitud, adecuación de uso) Sistema Entrada: u(t) Salida: y(t)
  • 26. RNA que representan el tiempo Representación del tiempo. Tratamiento de señales. Identificación de modelos dinámicos Control de sistemas. Redes dinámicas: Respuesta a: Las entradas actuales La historia pasada del sistema. Dotar de memoria a la red: Introduciendo directamente en la red tanto la señal actual como los valores pasados. Mediante conexiones recurrentes.
  • 27. Red PML con ventana temporal Ventanas de datos pasadas de las entradas y de las salidas. Ventajas: Algoritmo simple es suficiente No problemas de realimentación Desventajas Información útil debe “caber” en la ventana temporal Muchas entradas Sobreparametrización u(t) u(t-1) u(t-2) … u(t-m) y(t-1) y(t-2) … ym (t)
  • 28. Redes neuronales recurrentes Redes neuronales parcialmente recurrentes: Conexiones recurrentes con valores fijos Algoritmo de aprendizaje “ve” una red perceptrón multicapa Ejemplos: Jordan Elman Redes neuronales recurrentes: Todas las neuronas interconectadas Computacionalmente costoso
  • 29. Estructuras neuronales para la identificación Determinación o elección de la estructura del modelo. ¿Es necesario un modelo neuronal? Nos basamos en modelos establecidos en el caso lineal Diseño: Variables que forman parte del regresor ϕ(t) Función no-lineal g(·,·) desde el espacio de regresiones al espacio de salida NO en modelos lineales y(t)=g(θ,ϕ(t))+e(t) Estructura de caja negra: modelo de entrada- salida. Elementos del regresor: Entradas pasadas u(t-k) Salidas pasadas medidas: y(t-k) Salidas pasadas calculadas por el modelo: ÿu(t-k|θ) Residuos pasados calculados: εu(t-k)=y(t-k)-ÿu(t-k|θ)
  • 30. Modelo NARX Ventajas: Puede aproximar cualquier sistema no-lineal arbitrariamente bien No recurrente. Desventajas: Vector de regresión puede ser grande No se modela el ruido ut g yt )(ˆ ty yt ϕ(t)=[y(t-1) ... y(t-n) u(t-k) ... u(t-m-k+1)]T )),(,()(ˆ tgty ϕθ=
  • 31. Modelo NOE ut g t yˆ yt )(ˆ ty yt T kmtuktuntytyt )]1(...)()|(ˆ...)|1(ˆ[)( +−−−−−= θθϕ )),(()|(ˆ θϕθ tgty = Corresponde a una red recurrente, ya que parte de las entradas constituye la salida de la propia red. Comprobación difícil para modelo de predicción estable Entrenamiento laborioso por cálculo correcto de gradientes
  • 32. Validación Validación: es el proceso de comprobación de la utilidad de modelo obtenido: Si el modelo concuerda con los datos observados Si servirá al propósito para el que fue creado Si describe el sistema real Enfoque neuronal: Conjunto de datos de entrenamiento Conjunto de datos de test. Conjunto de datos de validación. Enfoque basado en correlaciones: Test de blancura de los residuos …
  • 33. Ejemplo I Transforma un producto A en otro B Reacción química exotérmica Se controla la temperatura mediante una camisa por la que circula un refrigerante Salidas: Ca Cb Tl Tr Entradas: Manipulables: Fl Fr Perturbaciones medibles: Ca0 Tl0 Tr0 Camisa Reactor Fl, Ca0, Tl0 Fr, Tr0 Ca, Cb, Tl Tr A B
  • 34. Ejemplo II El periodo de muestreo es T = 0.2 horas Las entradas han de ser tales que provoquen todas las salidas de interés
  • 35. Ejemplo III Se normalizan los datos de entrada y salida Se entrenan cuatro redes, cada una modela una salida Se usa el algoritmo backpropagation R.N.A. Elman R.N.A. Elman R.N.A. Elman R.N.A. Elman Ca Cb Tl Tr Fl Fr Ca0 Tl0 Tr0
  • 36. Ejemplo IV Validación del modelo. De forma neuronal: test son saltos en Fr