SlideShare una empresa de Scribd logo
1 de 37
REDES NEURONALES ARTIFICIALES
María Jesús de la Fuente
Dpto. Ingeniería de Sistemas y Automática
Universidad de Valladolid
ÍNDICE
 Introducción
 Clasificación de redes neuronales:
 Estructura
 Entrenamiento
 Aplicación de las redes neuronales a la identificación de sistemas
 Las redes neuronales en el control
REDES NEURONALES
 Neurona: base del funcionamiento del cerebro.
 Sistema de procesamiento cerebral de la información:
 Complejo, No lineal y Paralelo.
 Elementos de que consta: sinapsis, axón, dentritas y soma o cuerpo
NEURONA ARTIFICIAL
 Neurona artificial: unidad de procesamiento de la información, es
un dispositivo simple de cálculo que ante un vector de entradas
proporciona una única salida.
 Elementos:
 Conjunto de entradas, xj
 Pesos sinápticos, wi
 Función de activación:
w1·x1+ w2·x2 + ... + wn·xn = a
 Función de transferencia:
y = F (w1·x1+ w2·x2 + ... + wn·xn )
 Bias o polarización: entrada constate de magnitud 1, y peso b
que se introduce en el sumador
a
y
NEURONA ARTIFICIAL
 Principales funciones de transferencia:
 Lineal: y=ka
 Escalón: y = 0 si a<0; y=1 si a>=0
 Sigmoide
 Gaussiana.
RNA de una capa
 Una neurona aislada dispone de poca potencia de cálculo.
 Los nodos se conectan mediante la sinapsis
 Las neuronas se agrupan formando una estructura llamada capa.
 Los pesos pasan a ser matrices W (n x m)
 La salida de la red es un vector: Y=(y1, y2, ... , yn)T
 Y=F(W·X+b)
a1
a2
an
y1
y2
yn
RNA Multicapa
 Redes multicapa: capas en cascada.
 Tipos de capas:
 Entrada
 Salida
 Oculta
 No hay realimentación => red
feedforward
 Salida depende de entradas y pesos.
 Si hay realimentación => red recurrente
 Efecto memoria
 Salida depende también de la historia
pasada.
 Una RNA es un aproximador general de
funciones no lineales.
Entrenamiento I
 Entrenamiento: proceso de aprendizaje de la red.
 Objetivo: tener un comportamiento deseado.
 Método:
 Uso de un algoritmo para el ajuste de los parámetros libres de
la red: los pesos y las bias.
 Convergencia: salidas de la red = salidas deseadas.
 Tipos de entrenamiento:
 Supervisado.
Pares de entrenamiento: entrada - salida deseada.
Error por cada par que se utiliza para ajustar parámetros
 No-supervisado.
Solamente conjunto de entradas.
Salidas: la agrupación o clasificación por clases
 Reforzado.
Perceptrones
 McCulloch y Pitts, en 1943, publicaron el primer estudio sobre RNA.
 El elemento central: perceptrón.
 Solo permite discriminar entre dos clases
linealmente separables: XOR.
 0.5= a = w1·x1 + w2·x2
 No hay combinación de x1 y x2 que resuelva
este problema.
 Solución: más capas o funciones de transferencia no lineales.
a
y
Aprendizaje del Perceptrón.
 Algoritmo supervisado:
 Aplicar patrón de entrada y calcular salida de la red
 Si salida correcta, volver a 1
 Si salida incorrecta
0  sumar a cada peso su entrada
1  restar a cada peso su entrada
 Volver a 1
 Proceso iterativo, si el problema es linealmente separable este
algoritmo converge en un tiempo finito.
 Nos da los pesos y las bias de la red que resuelve el problema.
Regla delta
 Generalización del algoritmo del perceptrón para sistemas con
entradas y salidas continuas.
 Se define: d=T-A= (salidas deseadas - salidas de la red).
 Minimiza una función de coste basada en ese vector de error:
 Di =d lr xi
 Wi (n+1) = Wi (n) + D i
 Razón de aprendizaje lr
 Si las neuronas son
lineales=> un único
mínimo
Redes Neuronales Lineales.
 Función de transferencia lineal.
 Algoritmo de entrenamiento de Widrow-Hoff o Delta, tiene en
cuenta la magnitud del error.
 Entrenamiento:
 Suma de los cuadrados de los errores sea mínima.
 Superficie de error con mínimo único.
 Algoritmo tipo gradiente.
 Aproximan funciones lineales.
Backpropagation
 Clave en el resurgimiento de las redes neuronales.
 Primera descripción del algoritmo fue dada por Werbos en 1974
 Generalización del algoritmo de Widrow-Hoff para redes multicapa
con funciones de transferencia no-lineales y diferenciables.
 1989 Hornik, Stinchcombe y White
 Una red neuronal con una capa de sigmoides es capaz de
aproximar cualquier función con un número finito de
discontinuidades
 Propiedad de la generalización.
 La función de transferencia es no-lineal, la superficie de error tiene
varios mínimos locales.
Red Perceptron Multicapa (MLP)
 Función acotada, monótona creciente y diferenciable.
 Red de tipo feedforward.
 Suficiente con dos capas.
a
y
Algoritmo backpropagation I
 Descripción:
 Tras inicializar los pesos de forma aleatoria y con valores
pequeños, seleccionamos el primer par de entrenamiento.
 Calculamos la salida de la red
 Calculamos la diferencia entre la salida real de la red y la salida
deseada, con lo que obtenemos el vector de error
 Ajustamos los pesos de la red de forma que se minimice el error
 Repetimos los tres pasos anteriores para cada par de
entrenamiento hasta que el error para todos los conjuntos de
entrenamiento sea aceptable.
 Descenso por la superficie del error
 Cálculo de derivadas del error respecto de los pesos y de las bias.
Adelante
Atrás
Algoritmo backpropagation II
 Detalles:
 SSE: E=SEp=S (ypk-opk)2
 Dwij=-h E/ wij
 Pasos:
 Inicialización:
Construcción de la red.
Inicialización aleatoria de pesos y umbrales (-0.5, 0.5)
Criterio de terminación (número máximo de iteraciones,…).
Contador de iteraciones n=0.
 Fase hacia delante:
Calcular la salida de la red para cada patrón de entrada.
Calcular el error total cometido (SSE)
Si la condición de terminación se satisface, parar
 Fase hacia atrás:
Algoritmo backpropagation III
 Fase hacia atrás:
Incrementar el contador n=n+1.
Paca cada neurona de salida calcualr: dk=(ok-yk)f’(netk)
donde netj=Siwijxi+bj
Para cada unidad oculta, calcular dj=f’(netj)Skdkwjk
Actualizar pesos: Dwij(n+1)=hdjoi+aDwij(n)
Volver a la fase hacia delante.
 Inconvenientes del algoritmo backpropagation:
 Tiempo de entrenamiento no acotado.
 Dependiente de las condiciones iniciales:
Parálisis de la red.
Mínimos locales.
Algoritmo Backpropagation IV
 Underfitting.
 Memorización o Sobreaprendizaje.
 Caracterización de la red. ¿Cuantas capas, cuantas neuronas en
cada capa,…?
Redes Neuronales no supervisadas I
 Autoorganizativas: durante el proceso de aprendizaje la red debe
descubrir por si misma regularidades o categorías => la red debe
autoorganizarse en función de las señales procedentes del entorno.
 Mapa de Rasgos Autoorganizados, SOM (Kohonen, 80)
 Características:
 Red competitiva
 Arquitectura unidireccional de dos capas:
Capa de entrada: m neuronas una por cada vector de
entrada.
Capa segunda se realiza el procesamiento, formando el
mapa de rasgos. Tiene nx X ny neuronas operando en
paralelo.
Todas las neuronas de entrada están conectadas a las
neuronas de la segunda capa, a través de los pesos wij
Redes Neuronales No-Supervisadas II
 Cada neurona (i,j) calcula la similitud entre el vector de entradas y
su vector de pesos
 Vence la neurona cuyo vector de pesos es más similar al vector de
entrada.
 Cada neurona sirva para detectar alguna característica del vector de
entrada.
 Función de vecindad:
relación entre neuronas
próximas en el mapa.
RNA no supervisadas III
 Aprendizaje:
 Inicialización de los pesos wij
 Presentación de las entradas x(t)
 Cada neurona calcula, la similitud entre su vector de pesos wij y
el vector de entrada x, usando la distancia Euclídea
 Determinación de la neurona ganadora:
 Actualización de los pesos de la neurona ganadora y sus vecinas
 Las demás neuronas no actualizan su peso
 Si se ha alcanzado el número de iteraciones parar, si no volver al
paso 2.
VENTAJAS
 Ventajas de las RNA:
 Aprendizaje adaptativo: lo necesario es aplicar un buen
algoritmo y disponer de patrones (pares) de entrenamiento.
 Auto-organización => conduce a la generalización
 Tolerancia a fallos: las redes pueden aprender patrones que
contienen ruido, distorsión o que están incompletos.
 Operación en tiempo real: procesan gran cantidad de datos en
poco tiempo.
 Facilidad de inserción en tecnología ya existente.
APLICACIONES
 Detección de patrones.
 Filtrado de señales
 Segmentación de datos
 Control
 Identificación.
Redes Neuronales en
identificación de sistemas
Identificación de sistemas
 La identificación consiste en calcular un modelo del sistema en base
a datos experimentales.
 Pasos:
 Seleccionar una clase de modelos (CARIMA, Box-Jenkis,...)
 Obtener un conjunto de datos experimentales
 Seleccionar un modelo de la clase elegida
 Estimar los parámetros (método de Identificación: LS,RLS,IV,...)
 Validación (exactitud, adecuación de uso)
Sistema
Entrada: u(t) Salida: y(t)
RNA que representan el tiempo
 Representación del tiempo.
 Tratamiento de señales.
 Identificación de modelos dinámicos
 Control de sistemas.
 Redes dinámicas:
 Respuesta a:
Las entradas actuales
La historia pasada del sistema.
 Dotar de memoria a la red:
Introduciendo directamente en la red tanto la señal actual
como los valores pasados.
Mediante conexiones recurrentes.
Red PML con ventana temporal
 Ventanas de datos pasadas de las entradas y de las salidas.
 Ventajas:
 Algoritmo simple es suficiente
 No problemas de realimentación
 Desventajas
 Información útil debe “caber” en la ventana temporal
 Muchas entradas  Sobreparametrización
u(t)
u(t-1)
u(t-2)
…
u(t-m)
y(t-1)
y(t-2)
…
ym (t)
Redes neuronales recurrentes
 Redes neuronales parcialmente
recurrentes:
 Conexiones recurrentes con
valores fijos
 Algoritmo de aprendizaje “ve”
una red perceptrón multicapa
 Ejemplos:
Jordan
Elman
 Redes neuronales recurrentes:
 Todas las neuronas
interconectadas
 Computacionalmente costoso
Estructuras neuronales para la
identificación
 Determinación o elección de la estructura del modelo.
 ¿Es necesario un modelo neuronal?
 Nos basamos en modelos establecidos en el caso lineal
 Diseño:
 Variables que forman parte del regresor (t)
 Función no-lineal g(·,·) desde el espacio de regresiones al
espacio de salida  NO en modelos lineales
 y(t)=g(q,(t))+e(t)
 Estructura de caja negra: modelo de entrada- salida.
 Elementos del regresor:
 Entradas pasadas u(t-k)
 Salidas pasadas medidas: y(t-k)
 Salidas pasadas calculadas por el modelo: ÿu(t-k|q)
 Residuos pasados calculados: eu(t-k)=y(t-k)-ÿu(t-k|q)
Modelo NARX
 Ventajas:
 Puede aproximar cualquier sistema no-lineal arbitrariamente
bien
 No recurrente.
 Desventajas:
 Vector de regresión puede ser grande
 No se modela el ruido
ut
g
yt
)
(
ˆ t
y
yt
(t)=[y(t-1) ... y(t-n) u(t-k) ... u(t-m-k+1)]T
)),
(
,
(
)
(
ˆ t
g
t
y 
q

Modelo NOE
ut
g
t
ŷ
yt
)
(
ˆ t
y
yt
T
k
m
t
u
k
t
u
n
t
y
t
y
t )]
1
(
...
)
(
)
|
(
ˆ
...
)
|
1
(
ˆ
[
)
( 





 q
q

)
),
(
(
)
|
(
ˆ q

q t
g
t
y 
 Corresponde a una red recurrente, ya que parte de las entradas
constituye la salida de la propia red.
 Comprobación difícil para modelo de predicción estable
 Entrenamiento laborioso por cálculo correcto de gradientes
Validación
 Validación: es el proceso de comprobación de la utilidad de modelo
obtenido:
 Si el modelo concuerda con los datos observados
 Si servirá al propósito para el que fue creado
 Si describe el sistema real
 Enfoque neuronal:
 Conjunto de datos de entrenamiento
 Conjunto de datos de test.
 Conjunto de datos de validación.
 Enfoque basado en correlaciones:
 Test de blancura de los residuos
 …
Ejemplo I
 Transforma un producto A en otro B
 Reacción química exotérmica
 Se controla la temperatura mediante
una camisa por la que circula un
refrigerante
 Salidas:
 Ca Cb Tl Tr
 Entradas:
 Manipulables: Fl Fr
 Perturbaciones medibles:
Ca0 Tl0 Tr0
Camisa
Reactor
Fl, Ca0, Tl0
Fr, Tr0
Ca, Cb, Tl Tr
A B
Ejemplo II
 El periodo de muestreo es T = 0.2 horas
 Las entradas han de ser tales que provoquen todas las salidas de
interés
Ejemplo III
 Se normalizan los datos de entrada y salida
 Se entrenan cuatro redes, cada una modela una salida
 Se usa el algoritmo backpropagation
R.N.A. Elman
R.N.A. Elman
R.N.A. Elman
R.N.A. Elman
Ca
Cb
Tl
Tr
Fl
Fr
Ca0
Tl0
Tr0
Ejemplo IV
 Validación del modelo.
 De forma neuronal: test son saltos en Fr
Ejemplo V
 Correlaciones: blancura de los residuos

Más contenido relacionado

La actualidad más candente

Capitulo 1
Capitulo 1Capitulo 1
Capitulo 1kurt9123
 
Método numéricos para diferenciación e integración.
Método numéricos para diferenciación e integración.Método numéricos para diferenciación e integración.
Método numéricos para diferenciación e integración.Javier Maita
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
S13.s2 - PPT Ecuaciones de Maxwell y Ondas Electromagnéticas.pdf
S13.s2 - PPT Ecuaciones de Maxwell y Ondas Electromagnéticas.pdfS13.s2 - PPT Ecuaciones de Maxwell y Ondas Electromagnéticas.pdf
S13.s2 - PPT Ecuaciones de Maxwell y Ondas Electromagnéticas.pdfNADYAA7
 
RepresentacióN De Datos En Un Sistema Computacional
RepresentacióN De Datos En Un Sistema ComputacionalRepresentacióN De Datos En Un Sistema Computacional
RepresentacióN De Datos En Un Sistema ComputacionalGerardo González
 
Ondas estacionarias en una cuerda labo de fisica.docx
Ondas estacionarias en una cuerda labo de fisica.docxOndas estacionarias en una cuerda labo de fisica.docx
Ondas estacionarias en una cuerda labo de fisica.docxRafael Pico
 
Introducción a las redes convolucionales
Introducción a las redes convolucionalesIntroducción a las redes convolucionales
Introducción a las redes convolucionalesJoseAlGarcaGutierrez
 
Metodo De Taylor
Metodo De TaylorMetodo De Taylor
Metodo De TaylorJoonser
 
10 ejercicios-de-do-while
10 ejercicios-de-do-while10 ejercicios-de-do-while
10 ejercicios-de-do-whileDelvi Ramirez
 
Diseño de algoritmos usando pseint
Diseño de algoritmos usando pseintDiseño de algoritmos usando pseint
Diseño de algoritmos usando pseintDaniel Zavala
 
Transparencias mest.
Transparencias mest.Transparencias mest.
Transparencias mest.antualv
 

La actualidad más candente (20)

Unidad 2: Clases y objetos Ejercicio 3
Unidad 2: Clases y objetos Ejercicio 3Unidad 2: Clases y objetos Ejercicio 3
Unidad 2: Clases y objetos Ejercicio 3
 
Estructuras de Datos (Arreglos)
Estructuras de Datos (Arreglos)Estructuras de Datos (Arreglos)
Estructuras de Datos (Arreglos)
 
PUNTO FIJO
PUNTO FIJOPUNTO FIJO
PUNTO FIJO
 
Matrices pseint
Matrices   pseintMatrices   pseint
Matrices pseint
 
Capitulo 1
Capitulo 1Capitulo 1
Capitulo 1
 
Vectores y Matrices
Vectores y MatricesVectores y Matrices
Vectores y Matrices
 
Método numéricos para diferenciación e integración.
Método numéricos para diferenciación e integración.Método numéricos para diferenciación e integración.
Método numéricos para diferenciación e integración.
 
Reporte de codigo productos medios
Reporte de codigo productos mediosReporte de codigo productos medios
Reporte de codigo productos medios
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
S13.s2 - PPT Ecuaciones de Maxwell y Ondas Electromagnéticas.pdf
S13.s2 - PPT Ecuaciones de Maxwell y Ondas Electromagnéticas.pdfS13.s2 - PPT Ecuaciones de Maxwell y Ondas Electromagnéticas.pdf
S13.s2 - PPT Ecuaciones de Maxwell y Ondas Electromagnéticas.pdf
 
RepresentacióN De Datos En Un Sistema Computacional
RepresentacióN De Datos En Un Sistema ComputacionalRepresentacióN De Datos En Un Sistema Computacional
RepresentacióN De Datos En Un Sistema Computacional
 
Clases Genéricas en Java
Clases Genéricas en JavaClases Genéricas en Java
Clases Genéricas en Java
 
Ondas estacionarias en una cuerda labo de fisica.docx
Ondas estacionarias en una cuerda labo de fisica.docxOndas estacionarias en una cuerda labo de fisica.docx
Ondas estacionarias en una cuerda labo de fisica.docx
 
Ejercicios de algoritmos
Ejercicios de algoritmosEjercicios de algoritmos
Ejercicios de algoritmos
 
Introducción a las redes convolucionales
Introducción a las redes convolucionalesIntroducción a las redes convolucionales
Introducción a las redes convolucionales
 
5 metodos y parametros
5 metodos y parametros5 metodos y parametros
5 metodos y parametros
 
Metodo De Taylor
Metodo De TaylorMetodo De Taylor
Metodo De Taylor
 
10 ejercicios-de-do-while
10 ejercicios-de-do-while10 ejercicios-de-do-while
10 ejercicios-de-do-while
 
Diseño de algoritmos usando pseint
Diseño de algoritmos usando pseintDiseño de algoritmos usando pseint
Diseño de algoritmos usando pseint
 
Transparencias mest.
Transparencias mest.Transparencias mest.
Transparencias mest.
 

Similar a Redes neuronales artificiales

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronaleseyyc
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGESCOM
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjairo0990
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptronc09271
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptronhiperu2005
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptronjcbp_peru
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de HammingESCOM
 

Similar a Redes neuronales artificiales (20)

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Boletin3
Boletin3Boletin3
Boletin3
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 

Más de Spacetoshare

Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on AlgorithmsSpacetoshare
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosSpacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemáticaSpacetoshare
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operacionesSpacetoshare
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamientoSpacetoshare
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesisSpacetoshare
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSSpacetoshare
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de EnsambladorSpacetoshare
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superiorSpacetoshare
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA Spacetoshare
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuacionesSpacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemáticaSpacetoshare
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejosSpacetoshare
 

Más de Spacetoshare (20)

EL HUECO.pdf
EL HUECO.pdfEL HUECO.pdf
EL HUECO.pdf
 
Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on Algorithms
 
Sums ADA
Sums ADASums ADA
Sums ADA
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmos
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Fórmulas ADA
Fórmulas ADAFórmulas ADA
Fórmulas ADA
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operaciones
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamiento
 
Ejercicios jess
Ejercicios jessEjercicios jess
Ejercicios jess
 
Sistemas Expertos
Sistemas ExpertosSistemas Expertos
Sistemas Expertos
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesis
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de Ensamblador
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superior
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuaciones
 
Determinantes
DeterminantesDeterminantes
Determinantes
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejos
 
Ejer
EjerEjer
Ejer
 

Último

OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxjosetrinidadchavez
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...fcastellanos3
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdfOswaldoGonzalezCruz
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
Marketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPMarketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPANEP - DETP
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...JAVIER SOLIS NOYOLA
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxYeseniaRivera50
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
Procesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxProcesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxMapyMerma1
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFlor Idalia Espinoza Ortega
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 

Último (20)

OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
Marketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETPMarketing y servicios 2ºBTP Cocina DGETP
Marketing y servicios 2ºBTP Cocina DGETP
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
 
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdfTema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
Procesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptxProcesos Didácticos en Educación Inicial .pptx
Procesos Didácticos en Educación Inicial .pptx
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamica
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 

Redes neuronales artificiales

  • 1. REDES NEURONALES ARTIFICIALES María Jesús de la Fuente Dpto. Ingeniería de Sistemas y Automática Universidad de Valladolid
  • 2. ÍNDICE  Introducción  Clasificación de redes neuronales:  Estructura  Entrenamiento  Aplicación de las redes neuronales a la identificación de sistemas  Las redes neuronales en el control
  • 3. REDES NEURONALES  Neurona: base del funcionamiento del cerebro.  Sistema de procesamiento cerebral de la información:  Complejo, No lineal y Paralelo.  Elementos de que consta: sinapsis, axón, dentritas y soma o cuerpo
  • 4. NEURONA ARTIFICIAL  Neurona artificial: unidad de procesamiento de la información, es un dispositivo simple de cálculo que ante un vector de entradas proporciona una única salida.  Elementos:  Conjunto de entradas, xj  Pesos sinápticos, wi  Función de activación: w1·x1+ w2·x2 + ... + wn·xn = a  Función de transferencia: y = F (w1·x1+ w2·x2 + ... + wn·xn )  Bias o polarización: entrada constate de magnitud 1, y peso b que se introduce en el sumador a y
  • 5. NEURONA ARTIFICIAL  Principales funciones de transferencia:  Lineal: y=ka  Escalón: y = 0 si a<0; y=1 si a>=0  Sigmoide  Gaussiana.
  • 6. RNA de una capa  Una neurona aislada dispone de poca potencia de cálculo.  Los nodos se conectan mediante la sinapsis  Las neuronas se agrupan formando una estructura llamada capa.  Los pesos pasan a ser matrices W (n x m)  La salida de la red es un vector: Y=(y1, y2, ... , yn)T  Y=F(W·X+b) a1 a2 an y1 y2 yn
  • 7. RNA Multicapa  Redes multicapa: capas en cascada.  Tipos de capas:  Entrada  Salida  Oculta  No hay realimentación => red feedforward  Salida depende de entradas y pesos.  Si hay realimentación => red recurrente  Efecto memoria  Salida depende también de la historia pasada.  Una RNA es un aproximador general de funciones no lineales.
  • 8. Entrenamiento I  Entrenamiento: proceso de aprendizaje de la red.  Objetivo: tener un comportamiento deseado.  Método:  Uso de un algoritmo para el ajuste de los parámetros libres de la red: los pesos y las bias.  Convergencia: salidas de la red = salidas deseadas.  Tipos de entrenamiento:  Supervisado. Pares de entrenamiento: entrada - salida deseada. Error por cada par que se utiliza para ajustar parámetros  No-supervisado. Solamente conjunto de entradas. Salidas: la agrupación o clasificación por clases  Reforzado.
  • 9. Perceptrones  McCulloch y Pitts, en 1943, publicaron el primer estudio sobre RNA.  El elemento central: perceptrón.  Solo permite discriminar entre dos clases linealmente separables: XOR.  0.5= a = w1·x1 + w2·x2  No hay combinación de x1 y x2 que resuelva este problema.  Solución: más capas o funciones de transferencia no lineales. a y
  • 10. Aprendizaje del Perceptrón.  Algoritmo supervisado:  Aplicar patrón de entrada y calcular salida de la red  Si salida correcta, volver a 1  Si salida incorrecta 0  sumar a cada peso su entrada 1  restar a cada peso su entrada  Volver a 1  Proceso iterativo, si el problema es linealmente separable este algoritmo converge en un tiempo finito.  Nos da los pesos y las bias de la red que resuelve el problema.
  • 11. Regla delta  Generalización del algoritmo del perceptrón para sistemas con entradas y salidas continuas.  Se define: d=T-A= (salidas deseadas - salidas de la red).  Minimiza una función de coste basada en ese vector de error:  Di =d lr xi  Wi (n+1) = Wi (n) + D i  Razón de aprendizaje lr  Si las neuronas son lineales=> un único mínimo
  • 12. Redes Neuronales Lineales.  Función de transferencia lineal.  Algoritmo de entrenamiento de Widrow-Hoff o Delta, tiene en cuenta la magnitud del error.  Entrenamiento:  Suma de los cuadrados de los errores sea mínima.  Superficie de error con mínimo único.  Algoritmo tipo gradiente.  Aproximan funciones lineales.
  • 13. Backpropagation  Clave en el resurgimiento de las redes neuronales.  Primera descripción del algoritmo fue dada por Werbos en 1974  Generalización del algoritmo de Widrow-Hoff para redes multicapa con funciones de transferencia no-lineales y diferenciables.  1989 Hornik, Stinchcombe y White  Una red neuronal con una capa de sigmoides es capaz de aproximar cualquier función con un número finito de discontinuidades  Propiedad de la generalización.  La función de transferencia es no-lineal, la superficie de error tiene varios mínimos locales.
  • 14. Red Perceptron Multicapa (MLP)  Función acotada, monótona creciente y diferenciable.  Red de tipo feedforward.  Suficiente con dos capas. a y
  • 15. Algoritmo backpropagation I  Descripción:  Tras inicializar los pesos de forma aleatoria y con valores pequeños, seleccionamos el primer par de entrenamiento.  Calculamos la salida de la red  Calculamos la diferencia entre la salida real de la red y la salida deseada, con lo que obtenemos el vector de error  Ajustamos los pesos de la red de forma que se minimice el error  Repetimos los tres pasos anteriores para cada par de entrenamiento hasta que el error para todos los conjuntos de entrenamiento sea aceptable.  Descenso por la superficie del error  Cálculo de derivadas del error respecto de los pesos y de las bias. Adelante Atrás
  • 16. Algoritmo backpropagation II  Detalles:  SSE: E=SEp=S (ypk-opk)2  Dwij=-h E/ wij  Pasos:  Inicialización: Construcción de la red. Inicialización aleatoria de pesos y umbrales (-0.5, 0.5) Criterio de terminación (número máximo de iteraciones,…). Contador de iteraciones n=0.  Fase hacia delante: Calcular la salida de la red para cada patrón de entrada. Calcular el error total cometido (SSE) Si la condición de terminación se satisface, parar  Fase hacia atrás:
  • 17. Algoritmo backpropagation III  Fase hacia atrás: Incrementar el contador n=n+1. Paca cada neurona de salida calcualr: dk=(ok-yk)f’(netk) donde netj=Siwijxi+bj Para cada unidad oculta, calcular dj=f’(netj)Skdkwjk Actualizar pesos: Dwij(n+1)=hdjoi+aDwij(n) Volver a la fase hacia delante.  Inconvenientes del algoritmo backpropagation:  Tiempo de entrenamiento no acotado.  Dependiente de las condiciones iniciales: Parálisis de la red. Mínimos locales.
  • 18. Algoritmo Backpropagation IV  Underfitting.  Memorización o Sobreaprendizaje.  Caracterización de la red. ¿Cuantas capas, cuantas neuronas en cada capa,…?
  • 19. Redes Neuronales no supervisadas I  Autoorganizativas: durante el proceso de aprendizaje la red debe descubrir por si misma regularidades o categorías => la red debe autoorganizarse en función de las señales procedentes del entorno.  Mapa de Rasgos Autoorganizados, SOM (Kohonen, 80)  Características:  Red competitiva  Arquitectura unidireccional de dos capas: Capa de entrada: m neuronas una por cada vector de entrada. Capa segunda se realiza el procesamiento, formando el mapa de rasgos. Tiene nx X ny neuronas operando en paralelo. Todas las neuronas de entrada están conectadas a las neuronas de la segunda capa, a través de los pesos wij
  • 20. Redes Neuronales No-Supervisadas II  Cada neurona (i,j) calcula la similitud entre el vector de entradas y su vector de pesos  Vence la neurona cuyo vector de pesos es más similar al vector de entrada.  Cada neurona sirva para detectar alguna característica del vector de entrada.  Función de vecindad: relación entre neuronas próximas en el mapa.
  • 21. RNA no supervisadas III  Aprendizaje:  Inicialización de los pesos wij  Presentación de las entradas x(t)  Cada neurona calcula, la similitud entre su vector de pesos wij y el vector de entrada x, usando la distancia Euclídea  Determinación de la neurona ganadora:  Actualización de los pesos de la neurona ganadora y sus vecinas  Las demás neuronas no actualizan su peso  Si se ha alcanzado el número de iteraciones parar, si no volver al paso 2.
  • 22. VENTAJAS  Ventajas de las RNA:  Aprendizaje adaptativo: lo necesario es aplicar un buen algoritmo y disponer de patrones (pares) de entrenamiento.  Auto-organización => conduce a la generalización  Tolerancia a fallos: las redes pueden aprender patrones que contienen ruido, distorsión o que están incompletos.  Operación en tiempo real: procesan gran cantidad de datos en poco tiempo.  Facilidad de inserción en tecnología ya existente.
  • 23. APLICACIONES  Detección de patrones.  Filtrado de señales  Segmentación de datos  Control  Identificación.
  • 25. Identificación de sistemas  La identificación consiste en calcular un modelo del sistema en base a datos experimentales.  Pasos:  Seleccionar una clase de modelos (CARIMA, Box-Jenkis,...)  Obtener un conjunto de datos experimentales  Seleccionar un modelo de la clase elegida  Estimar los parámetros (método de Identificación: LS,RLS,IV,...)  Validación (exactitud, adecuación de uso) Sistema Entrada: u(t) Salida: y(t)
  • 26. RNA que representan el tiempo  Representación del tiempo.  Tratamiento de señales.  Identificación de modelos dinámicos  Control de sistemas.  Redes dinámicas:  Respuesta a: Las entradas actuales La historia pasada del sistema.  Dotar de memoria a la red: Introduciendo directamente en la red tanto la señal actual como los valores pasados. Mediante conexiones recurrentes.
  • 27. Red PML con ventana temporal  Ventanas de datos pasadas de las entradas y de las salidas.  Ventajas:  Algoritmo simple es suficiente  No problemas de realimentación  Desventajas  Información útil debe “caber” en la ventana temporal  Muchas entradas  Sobreparametrización u(t) u(t-1) u(t-2) … u(t-m) y(t-1) y(t-2) … ym (t)
  • 28. Redes neuronales recurrentes  Redes neuronales parcialmente recurrentes:  Conexiones recurrentes con valores fijos  Algoritmo de aprendizaje “ve” una red perceptrón multicapa  Ejemplos: Jordan Elman  Redes neuronales recurrentes:  Todas las neuronas interconectadas  Computacionalmente costoso
  • 29. Estructuras neuronales para la identificación  Determinación o elección de la estructura del modelo.  ¿Es necesario un modelo neuronal?  Nos basamos en modelos establecidos en el caso lineal  Diseño:  Variables que forman parte del regresor (t)  Función no-lineal g(·,·) desde el espacio de regresiones al espacio de salida  NO en modelos lineales  y(t)=g(q,(t))+e(t)  Estructura de caja negra: modelo de entrada- salida.  Elementos del regresor:  Entradas pasadas u(t-k)  Salidas pasadas medidas: y(t-k)  Salidas pasadas calculadas por el modelo: ÿu(t-k|q)  Residuos pasados calculados: eu(t-k)=y(t-k)-ÿu(t-k|q)
  • 30. Modelo NARX  Ventajas:  Puede aproximar cualquier sistema no-lineal arbitrariamente bien  No recurrente.  Desventajas:  Vector de regresión puede ser grande  No se modela el ruido ut g yt ) ( ˆ t y yt (t)=[y(t-1) ... y(t-n) u(t-k) ... u(t-m-k+1)]T )), ( , ( ) ( ˆ t g t y  q 
  • 31. Modelo NOE ut g t ŷ yt ) ( ˆ t y yt T k m t u k t u n t y t y t )] 1 ( ... ) ( ) | ( ˆ ... ) | 1 ( ˆ [ ) (        q q  ) ), ( ( ) | ( ˆ q  q t g t y   Corresponde a una red recurrente, ya que parte de las entradas constituye la salida de la propia red.  Comprobación difícil para modelo de predicción estable  Entrenamiento laborioso por cálculo correcto de gradientes
  • 32. Validación  Validación: es el proceso de comprobación de la utilidad de modelo obtenido:  Si el modelo concuerda con los datos observados  Si servirá al propósito para el que fue creado  Si describe el sistema real  Enfoque neuronal:  Conjunto de datos de entrenamiento  Conjunto de datos de test.  Conjunto de datos de validación.  Enfoque basado en correlaciones:  Test de blancura de los residuos  …
  • 33. Ejemplo I  Transforma un producto A en otro B  Reacción química exotérmica  Se controla la temperatura mediante una camisa por la que circula un refrigerante  Salidas:  Ca Cb Tl Tr  Entradas:  Manipulables: Fl Fr  Perturbaciones medibles: Ca0 Tl0 Tr0 Camisa Reactor Fl, Ca0, Tl0 Fr, Tr0 Ca, Cb, Tl Tr A B
  • 34. Ejemplo II  El periodo de muestreo es T = 0.2 horas  Las entradas han de ser tales que provoquen todas las salidas de interés
  • 35. Ejemplo III  Se normalizan los datos de entrada y salida  Se entrenan cuatro redes, cada una modela una salida  Se usa el algoritmo backpropagation R.N.A. Elman R.N.A. Elman R.N.A. Elman R.N.A. Elman Ca Cb Tl Tr Fl Fr Ca0 Tl0 Tr0
  • 36. Ejemplo IV  Validación del modelo.  De forma neuronal: test son saltos en Fr
  • 37. Ejemplo V  Correlaciones: blancura de los residuos