REDES NEURONALES Y LOGICA DIFUSA APLICADAS A LOS SISTEMAS DE CONTROL  VISION-2009  Universidad San Martín de Porres  Capitán de Fragata  Enrique Arnáez Braschi
Introducción  La  Automatización  es  parte  de  la  continua revolución industrial.  Sus conceptos datan desde el siglo XVIII. Emplean la tecnología vigente para evolucionar al mismo ritmo que el mundo.
Introducción  El concepto de realimentación o feedback nos  es  común,  inclusive  en  campos sociales o económicos.  Bajo este hecho, podemos indicar  que  la  Ingeniería de  Control  ha  ayudado  a otras áreas.
Introducción  Sin  embargo,  la  realidad  es que  la  Ingeniería  de  Control se ha nutrido  de todas ellas :  Matemáticas,  física,  electricidad,  electrónica,  mecánica,  hidráulica  y  química  entre  otras,  y últimamente de la informática e inteligencia artificial.
Introducción  En  esta  exposición,  vamos  a  apreciar  la interacción  entre las Redes Neuronales  y la Lógica Difusa con la Ingeniería de Control, aplicadas  al  caso  del  Péndulo  invertido, para lo cual haremos un breve repaso de los  conceptos  más  importantes  de  cada uno de estos temas.
Sumario  Control Moderno  Lógica Difusa  Redes Neuronales  Control Difuso  Sistema  Modelo de  Control de  Espacio de  Estados  Estados  Neuro-Control  Neuro-Sistema  Péndulo Invertido
Péndulo invertido  Uno  de  los  problemas  clásicos  del  control  moderno.  Robert  Hutchings  Goddard  (1882-1945)  fue  uno  de  los pioneros en el campo de los cohetes.
Péndulo invertido  Conceptos  para  la correcta actitud de  vuelo  vertical de un cohete.  Von Braun  Bombas V-1
Péndulo invertido
Sistemas de Control     Estabilidad y controlabilidad.     El resultado de un sistema con controlador hace que las variables de estado lleven sus  valores a cero   .     Ese  caso  no  es  el  real  para  los  sistemas industriales.     Las  salidas  deben  tender  a   valores diferentes que cero   o que sigan un patrón determinado de referencia.
Fuzzy Logic  Lotfi  A . Zadeh  . Matemático, profesor  de  la  Universidad de  Berkeley,  famoso  por introducir  en1965  la  teoría de conjuntos difusos o lógica difusa (f uzzy logic) .
Fuzzy Logic  En 1965 escribe Fuzzy Sets, un artículo  que  presenta  las nociones  de  la  lógica  difusa, (esperaba que las aplicaciones serían en lingüística, psicología, sociología,  filosofía  y  campos afines).  1970,  empezó  a  pensar  que  podía  haber  algunas  aplicaciones  en  control.  En 1972escribe  un  artículo  "A rationale for Fuzzy Control".
Concepto de Origen  El origen está dado en esta apreciación:  “ Por  qué  siempre  tratamos  de  plantear soluciones  matemáticas  para  los  modelos,  si más fácil es tratar de explicarlo con palabras, las cuales han sido perfeccionadas en un proceso de millones de años?”
Comparación  Partiendo  de  la  apreciación  anterior,  y  tratando  de realizar operaciones con palabras, recurrimos a la Lógica Tradicional o ‘Crisp’.  Esta herramienta plantea la segunda apreciación:  Lógica Tradicional o Crisp
Fuzzy Logic  1.  El cuadro de la Izquierda es Azul.  2.  El Cuadro de la Derecha no es exactamente del mismo color que el de la Izquierda.  Inferencia: Si el cuadro de la derecha no es del mismo color que el de la izquierda, entonces el cuadro de la derecha no es azul.  ≠
Algoritmo del Sistema Difuso  Normalización  Funciones de  Fuzzificación  Membresía  Procesamiento o  F. A. M.  Razonamiento Defuzzificación Denormalización
o   Modela Sistemas muy complejos.  o   Utiliza la experiencia humana.
Entrada de Datos Reales Fuzzificación  Operaciones  Difusas  y Condicionales (IF - THEN)  Defuzzificación  Salida con Datos Reales
Componentes de una Función de Membresía  Variable Lingüística Términos Lingüísticos
Fuzzificación  Valores  Difusos  x o  =  32  Valor Crisp
Reglas Difusas  La condición de inferencia donde radica el conocimiento  ‘ IF-THEN’  IF [( x is large ) AND ( y is cold )] THEN ( z is good )  Es importante saber que existen varias reglas para cada sistema.  Las  reglas  son  construidas  basándose  en  la experiencia obtenida con autoridad, por ejemplo:  Si estoy rápido y la esquina es próxima entonces la presión sobre el pedal del freno es fuerte.
F.A.M. (Fuzzy Associative Memory)  FAM = Reglas en forma de Matriz  En caso que hayan más de 2 variables a relacionar con las reglas difusas, se deberán armar varias FAM de 2 dimensiones.  Nunca  matrices  de  más  de2 dimensiones.
F.A.M. (Fuzzy Associative Memory)  Entrada 1:   Temperatura  Caliente - Media - Fría  Entrada 2:   Velocidad  Rápida - Lenta - Parada  Salida:  Voltaje  Positivo – Zero - Negativo  Temp \  Vel  R  L  P  C  Neg  Zero  Pos  M  Zero  Zero  Pos  F  Pos  Pos  Pos
Defuzzificación  Luego de las Operaciones Difusas y de haber usado las regles difusas, tenemos un valor difuso de salida que lo debemos convertir en un valor Crisp. Ese procedimiento se conoce con el nombre de Defuzzificación.  Fuzzificación  Defuzzificación
Defuzzificación  Método Centroide  m  *  z    m  dz  z  ∫  El  método  centroide  también  es llamado  centro  de  área,  centro  de gravedad o método de Sugeno, es el método más usado y más potente.
Trabajo de un Sistema  Difuso  Análisis del Sistema.  Determinar las variables de entrada/salida y sus escalas. Determinar el universo de discursión de cada variable. Estructurar las funciones de membresía.  Elaborar la Memoria Asociativa Difusa. Armar la base de Reglas Difusas. Operaciones Difusas.  Defuzzificación y desescalamiento.
Fuzzy Logic
Fuzzy Logic
Fuzzificación de 2 valores de entrada  Cond. Iniciales: 1º = 0.0175 rad. y -4º/s = -0.0698 rad/seg.  x1 = Posicion Angular  x2 = Velocidad Angular  1  1  0.9  0.9  0.8  0.8  0.7  0.7  0.6  0.6  0.5  0.5  0.4  0.4  0.3  0.3  0.2  0.2  0.1  0.1  0  0  -0.4  -0.3  -0.2  -0.1  0  0.1  0.2  0.3  0.4  -0.2  -0.15  -0.1  -0.05  0  0.05  0.1  0.15  0.2  m      0  00  N  ,  0  94  Z  ,  0  06  P        0  47  N  ,  0  53  Z  ,  0  00  P    q  m  &  q
Reglas y Operaciones Difusas  x 1  \  x 2  P  Z  N  P  GP  P  Z  Z  P  Z  N  N  Z  N  GN  m      0  00  N  ,  0  94  Z  ,  0  06  P        0  47  N  ,0  53  Z  ,  0  00  P    q  m  &  q  Se aplica la función  mínimo   para la intersección de las entradas.    0  00  GP  0  05  P  0  06  Z        FAM    0  00  P  0  53  Z  0  47  N        0  00  Z  0  00  N  0  00  GN  
Reglas y Operaciones Difusas  x 1  \  x 2  P  Z  N  P  GP  P  Z  Z  P  Z  N  N  Z  N  GN  m      0  00  N  ,  0  94  Z  ,  0  06  P        0  47  N  ,0  53  Z  ,  0  00  P    q  m  &  q  Se aplica la función  mínimo   para la intersección de las entradas.    0  00  GP  0  05  P  0  06  Z        FAM    0  00  P  0  53  Z  0  47  N        0  00  Z  0  00  N  0  00  GN  
Reglas y Operaciones Difusas  x 1  \  x 2  P  Z  N  P  GP  P  Z  Z  P  Z  N  N  Z  N  GN  m      0  00  N  ,  0  94  Z  ,  0  06  P        0  47  N  ,0  53  Z  ,  0  00  P    q  m  &  q  Se aplica la función  mínimo   para la intersección de las entradas.    0  00  GP  0  05  P  0  06  Z        FAM    0  00  P  0  53  Z  0  47  N        0  00  Z  0  00  N  0  00  GN  
Defuzzificación  u = Voltaje de entrada  1  0.9 0.8 0.7  0.6  m  zdz  z  *  ∫  z    0.5  m  dz  0.4  z  ∫  0.3 0.2 0.1 0  -20  -15  -10  -5  0  5  10  15  20
Definición de Redes Neuronales  Las  Redes  Neuronales  (NN)  son  parte  de  la  Inteligencia  Artificial  (AI)  caracterizadas  por  su  capacidad  de  aprendizaje,  su  velocidad mediante  el  procesamiento masivo en paralelo de datos y por la facilidad del modelado de  sistemas  o  controladores altamente no-lineales.
Comparación de Neuronas  Neurona Humana  Red Neuronal
Neurona Artificial  n      y  f  x k w    b  ∑  k  k    k   1    x 1  w 1  x 2  Inputs  x 3  Sum  f()  Output  w n  x n  bias  Artificial Neuron
n      y  f  x k w    b  ∑    k  k      k    1    Función de Activación  Linear Activation Function  Hyperbolic Tangent Activation Function  5  1  4  0.8  3  0.6  2  0.4  1  0.2  0  0  -1  -0.2  -2  -0.4  -3  -0.6  -4  -0.8  -5  -1  -5  0  5  -3  -2  -1  0  1  2  3  x  x  x  -  x  -  e  f (x  )    x  f (x  )    tanh(  x)  e  x  -  x  e    e
n      y  f  x k w    b  ∑    k  k      k    1    Función de Activación  Logistic Activation Function  Thresh Activation Function  1  1  0.9  0.9  0.8  0.8  0.7  0.7  0.6  0.6  0.5  0.5  0.4  0.4  0.3  0.3  0.2  0.2  0.1  0.1  0  0  -5  0  5  -5  0  5  x  x  1    1  x  ‡  0  f  (  x  )    F  (  x  )     1    exp(  -  b  x  )  0  x    0 
Perceptrón  El Perceptrón busca la clasificación lineal de los patrones a ser entrenados, es decir procura separarlos por una línea en el plano, un ejemplo claro se tiene en la operación lógica AND:  x 1   x 2  y  A   0  0  0  B   0  1  0  C   1  0  0  D   1  1  1    1  v  ‡  1  y  (  t  )    F  (  v  )      0  v    1  
Perceptrón: Ejemplo  Tenemos  los  siguientes  Inicializamos  el  perceptrón  patrones  y  sus  respectivos  con los siguientes valores:  objetivos:  x 1  -0.1   x 1  x 2  y d  y   0.0  -0.4  0  0.8  x 2  -0.5   -0.3  -0.2  0   0.5  1.3  1   1.0  -1.3  1… y lo entrenamos.
Perceptrón: Ejemplo   x 1  x 2  y d   0.0  -0.4  0  (*)   -0.3  -0.2  0  (*)   0.5  1.3  1  (+)   1.0  -1.3  1  (+)
Perceptrón: Ejemplo   x 1  x 2  y d   0.0  -0.4  0  (*)   -0.3  -0.2  0  (*)   0.5  1.3  1  (+)   1.0  -1.3  1  (+)
Perceptrón: Ejemplo  Luego del Entrenamiento  x 1  -0.1  y  0.8  x 2  -0.5
Perceptrón  Todo funcionó bien hasta que alguien probó la simple operación X-OR:  x 1   x 2  y  A   0  0  0  B   0  1  1  C   1  0  1    1  v  ‡  1  y  (  t  )    F  (  v  )    D   1  1  0    0  v    1  
Redes Neuronales Descartadas
Separabilidad Lineal  Funciones  Porcentaje de  # de bits  Cantidad de  Linealmente  Trabajo del  Funciones  Separables  Perceptrón (%)  2  16  14  87  3  256  104  40  4  65536  1882  3  5  10E+09  94572  0.00002  Un perceptrón es capaz de aprender todo lo que pueda representar.
Aplicación de las Redes  Muchos años después se inventó el MLP, y solucionó el problema, VIENE EL AUGE DE LAS NN:  x 1   x 2  y  A   0  0  0  B   0  1  1    1  v  ‡  1  C   1  0  1  y  (  t  )    F  (  v  )      D   1  1  0  0  v    1  
T  T  f    W  s  (  V  x  )  (  x  )  Perceptrón de Múltiple Capa (MLP)  Pesos  • Trabaja en paralelo.  • Usan  al  Algoritmos  como  el  de  Back-  propagation para darle el  Entradas  Salidas     en  base  al  Reales  Reales  error retro-propagado.  • Utiliza  patrones  de Entrenamiento.  Neuronas  Neuronas  • Modela  Sistemas  No-  No-LinealesLineales  Lineales.
Perceptrón de Múltiple Capa (MLP)  -  -  h  h    x  ·  V    -  h    s  h            y    h  ·  W  -    y    s  h  ·  W  h          y    s    x  ·  V   ·  W
Algoritmo de Backpropagation  Se escoge una función  J    e 2  de costo a optimizar, y  2  la elección es el error  2  e      y d -   y    cuadrático (MMC)  ¶  J  Algoritmo de Backpropagation  w  (  N    1  )    w  (  N  )    h  ¶  w
Algoritmo de Backpropagation  ¶  J  w  (  N    1  )    w  (  N  )    h  ¶  w  2  ¶  J  ¶  J  ¶  e  ¶  F  ¶  y  Aplicando la Regla de la Cadena:          2  ¶  w  ¶  e  ¶  F  ¶  y  ¶  w    ¶  J  ¶  y  ¶  (  h  ·  w  )      1  2      h  ¶  e  ¶  w  ¶  w  2  ¶  e  ¶  F  2  (  y d   -  y  )  Derivada de la Función de Salida  ¶  F   ¶  y  ¶  J      (  1  )  2  (  y  -  y  )  (  Derivada  )  h  d  ¶  w
Algoritmo de Backpropagation  •  La Ecuación anterior se itera hasta obtener un error aceptable (de 3 a 5%).  •  Un  error  menor  no  permite  una  buena  ‘ generalización’.  •  Cuando  se  obtiene  el  error  deseado  se guardan los pesos para aplicarlos en el trabajo deseado.  y    s    x  ·  V   ·  W
Características Principales  1.  Son dispositivos no-lineales. 2.  Pueden aprender un mapeo. 3.  Son adaptables.  4.  Las respuestas están basadas en evidencia. 5.  Usan  contexto,  es  decir,  a  más  información,  la respuesta es más veloz y mejor.
Características Principales  6.  Son  tolerantes  a  fallas,  o  sea,  que  la  falla  es degradada.  7.  Su diseño y análisis es uniforme. 8.  Tienen analogía neuro-biológica.  9.  Su  procesamiento  es  masivamente  paralelo, distribuido y realizado con operaciones individuales simples.  10. Aprenden por sí mismas. 11. Tienen capacidad de generalizar
Aplicaciones más Comunes  •  Representación  de  comportamientos  de  funciones  lineales y no-lineales.  •  Identificación de Patrones o Sistemas.  •  Sistemas de Control.  •  Reconocimiento de Imágenes.  •  Reconocimiento de Caracteres.  •  Reconstrucción de datos.
Aplicaciones más Comunes  •  Predicción  y  Recomendación  para  la  Toma  de Decisiones.  •  Simulación de Modelos Económicos y Financieros. •  Clasificación de Objetos.  •  Administración de Anestesia según el  Comportamiento de la Presión Arterial.  •  Predicciones Climatológicas.
Aplicaciones más Comunes
Aplicaciones más Comunes
Aplicaciones más Comunes
Aplicaciones más Comunes
Neuro Sistema
Diseño de la Red Neuronal
Estructura de Red Neuronal
Entrenamiento
Diseño de la Red Neuronal del Neuro Controlador
Estructura de Red Neuronal del Controlador
Entrenamiento
Prueba del Sistema Completo  Control de  Péndulo  Estados  Invertido  Neuro-Control  Neuro-Sistema
Comentarios Finales     El  ingenio  permite  emplear  herramientas actuales en teorías antiguas.     El Control Moderno se debe complementar con los  avances  tecnológicos  para  optimizar  su comportamiento.     La  Lógica  Difusa  facilita  el  diseño  de  controladores  no-lineales  evitando  el  modelamiento matemático.     Las Redes Neuronales otorgan la capacidad de adaptación mediante su propio aprendizaje.
Comentarios Finales     Es factible emplear una Red Neuronal para que aprenda  el  comportamiento  del  Controlador Difuso y potencie el sistema con el razonamiento y la adaptatibilidad.     Los retos de ingeniería deben ser considerados como un estímulo para el ingeniero peruano en vez de verlos como un obstáculo.

Logica Difusa e Inteligencia Artificial

  • 1.
    REDES NEURONALES YLOGICA DIFUSA APLICADAS A LOS SISTEMAS DE CONTROL VISION-2009 Universidad San Martín de Porres Capitán de Fragata Enrique Arnáez Braschi
  • 2.
    Introducción La Automatización es parte de la continua revolución industrial. Sus conceptos datan desde el siglo XVIII. Emplean la tecnología vigente para evolucionar al mismo ritmo que el mundo.
  • 3.
    Introducción Elconcepto de realimentación o feedback nos es común, inclusive en campos sociales o económicos. Bajo este hecho, podemos indicar que la Ingeniería de Control ha ayudado a otras áreas.
  • 4.
    Introducción Sin embargo, la realidad es que la Ingeniería de Control se ha nutrido de todas ellas : Matemáticas, física, electricidad, electrónica, mecánica, hidráulica y química entre otras, y últimamente de la informática e inteligencia artificial.
  • 5.
    Introducción En esta exposición, vamos a apreciar la interacción entre las Redes Neuronales y la Lógica Difusa con la Ingeniería de Control, aplicadas al caso del Péndulo invertido, para lo cual haremos un breve repaso de los conceptos más importantes de cada uno de estos temas.
  • 6.
    Sumario ControlModerno Lógica Difusa Redes Neuronales Control Difuso Sistema Modelo de Control de Espacio de Estados Estados Neuro-Control Neuro-Sistema Péndulo Invertido
  • 7.
    Péndulo invertido Uno de los problemas clásicos del control moderno. Robert Hutchings Goddard (1882-1945) fue uno de los pioneros en el campo de los cohetes.
  • 8.
    Péndulo invertido Conceptos para la correcta actitud de vuelo vertical de un cohete. Von Braun Bombas V-1
  • 9.
  • 10.
    Sistemas de Control  Estabilidad y controlabilidad.  El resultado de un sistema con controlador hace que las variables de estado lleven sus valores a cero .  Ese caso no es el real para los sistemas industriales.  Las salidas deben tender a valores diferentes que cero o que sigan un patrón determinado de referencia.
  • 11.
    Fuzzy Logic Lotfi A . Zadeh . Matemático, profesor de la Universidad de Berkeley, famoso por introducir en1965 la teoría de conjuntos difusos o lógica difusa (f uzzy logic) .
  • 12.
    Fuzzy Logic En 1965 escribe Fuzzy Sets, un artículo que presenta las nociones de la lógica difusa, (esperaba que las aplicaciones serían en lingüística, psicología, sociología, filosofía y campos afines). 1970, empezó a pensar que podía haber algunas aplicaciones en control. En 1972escribe un artículo "A rationale for Fuzzy Control".
  • 13.
    Concepto de Origen El origen está dado en esta apreciación: “ Por qué siempre tratamos de plantear soluciones matemáticas para los modelos, si más fácil es tratar de explicarlo con palabras, las cuales han sido perfeccionadas en un proceso de millones de años?”
  • 14.
    Comparación Partiendo de la apreciación anterior, y tratando de realizar operaciones con palabras, recurrimos a la Lógica Tradicional o ‘Crisp’. Esta herramienta plantea la segunda apreciación: Lógica Tradicional o Crisp
  • 15.
    Fuzzy Logic 1. El cuadro de la Izquierda es Azul. 2. El Cuadro de la Derecha no es exactamente del mismo color que el de la Izquierda. Inferencia: Si el cuadro de la derecha no es del mismo color que el de la izquierda, entonces el cuadro de la derecha no es azul. ≠
  • 16.
    Algoritmo del SistemaDifuso Normalización Funciones de Fuzzificación Membresía Procesamiento o F. A. M. Razonamiento Defuzzificación Denormalización
  • 17.
    o Modela Sistemas muy complejos. o Utiliza la experiencia humana.
  • 18.
    Entrada de DatosReales Fuzzificación Operaciones Difusas y Condicionales (IF - THEN) Defuzzificación Salida con Datos Reales
  • 19.
    Componentes de unaFunción de Membresía Variable Lingüística Términos Lingüísticos
  • 20.
    Fuzzificación Valores Difusos x o = 32 Valor Crisp
  • 21.
    Reglas Difusas La condición de inferencia donde radica el conocimiento ‘ IF-THEN’ IF [( x is large ) AND ( y is cold )] THEN ( z is good ) Es importante saber que existen varias reglas para cada sistema. Las reglas son construidas basándose en la experiencia obtenida con autoridad, por ejemplo: Si estoy rápido y la esquina es próxima entonces la presión sobre el pedal del freno es fuerte.
  • 22.
    F.A.M. (Fuzzy AssociativeMemory) FAM = Reglas en forma de Matriz En caso que hayan más de 2 variables a relacionar con las reglas difusas, se deberán armar varias FAM de 2 dimensiones. Nunca matrices de más de2 dimensiones.
  • 23.
    F.A.M. (Fuzzy AssociativeMemory) Entrada 1: Temperatura Caliente - Media - Fría Entrada 2: Velocidad Rápida - Lenta - Parada Salida: Voltaje Positivo – Zero - Negativo Temp \ Vel R L P C Neg Zero Pos M Zero Zero Pos F Pos Pos Pos
  • 24.
    Defuzzificación Luegode las Operaciones Difusas y de haber usado las regles difusas, tenemos un valor difuso de salida que lo debemos convertir en un valor Crisp. Ese procedimiento se conoce con el nombre de Defuzzificación. Fuzzificación Defuzzificación
  • 25.
    Defuzzificación MétodoCentroide m * z  m dz z ∫ El método centroide también es llamado centro de área, centro de gravedad o método de Sugeno, es el método más usado y más potente.
  • 26.
    Trabajo de unSistema Difuso Análisis del Sistema. Determinar las variables de entrada/salida y sus escalas. Determinar el universo de discursión de cada variable. Estructurar las funciones de membresía. Elaborar la Memoria Asociativa Difusa. Armar la base de Reglas Difusas. Operaciones Difusas. Defuzzificación y desescalamiento.
  • 27.
  • 28.
  • 29.
    Fuzzificación de 2valores de entrada Cond. Iniciales: 1º = 0.0175 rad. y -4º/s = -0.0698 rad/seg. x1 = Posicion Angular x2 = Velocidad Angular 1 1 0.9 0.9 0.8 0.8 0.7 0.7 0.6 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 0 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 m   0 00 N , 0 94 Z , 0 06 P    0 47 N , 0 53 Z , 0 00 P  q m & q
  • 30.
    Reglas y OperacionesDifusas x 1 \ x 2 P Z N P GP P Z Z P Z N N Z N GN m   0 00 N , 0 94 Z , 0 06 P    0 47 N ,0 53 Z , 0 00 P  q m & q Se aplica la función mínimo para la intersección de las entradas.  0 00 GP 0 05 P 0 06 Z    FAM  0 00 P 0 53 Z 0 47 N    0 00 Z 0 00 N 0 00 GN 
  • 31.
    Reglas y OperacionesDifusas x 1 \ x 2 P Z N P GP P Z Z P Z N N Z N GN m   0 00 N , 0 94 Z , 0 06 P    0 47 N ,0 53 Z , 0 00 P  q m & q Se aplica la función mínimo para la intersección de las entradas.  0 00 GP 0 05 P 0 06 Z    FAM  0 00 P 0 53 Z 0 47 N    0 00 Z 0 00 N 0 00 GN 
  • 32.
    Reglas y OperacionesDifusas x 1 \ x 2 P Z N P GP P Z Z P Z N N Z N GN m   0 00 N , 0 94 Z , 0 06 P    0 47 N ,0 53 Z , 0 00 P  q m & q Se aplica la función mínimo para la intersección de las entradas.  0 00 GP 0 05 P 0 06 Z    FAM  0 00 P 0 53 Z 0 47 N    0 00 Z 0 00 N 0 00 GN 
  • 33.
    Defuzzificación u= Voltaje de entrada 1 0.9 0.8 0.7 0.6 m zdz z * ∫ z  0.5 m dz 0.4 z ∫ 0.3 0.2 0.1 0 -20 -15 -10 -5 0 5 10 15 20
  • 34.
    Definición de RedesNeuronales Las Redes Neuronales (NN) son parte de la Inteligencia Artificial (AI) caracterizadas por su capacidad de aprendizaje, su velocidad mediante el procesamiento masivo en paralelo de datos y por la facilidad del modelado de sistemas o controladores altamente no-lineales.
  • 35.
    Comparación de Neuronas Neurona Humana Red Neuronal
  • 36.
    Neurona Artificial n   y f x k w  b ∑ k k  k  1  x 1 w 1 x 2 Inputs x 3 Sum f() Output w n x n bias Artificial Neuron
  • 37.
    n   y f x k w  b ∑  k k   k  1  Función de Activación Linear Activation Function Hyperbolic Tangent Activation Function 5 1 4 0.8 3 0.6 2 0.4 1 0.2 0 0 -1 -0.2 -2 -0.4 -3 -0.6 -4 -0.8 -5 -1 -5 0 5 -3 -2 -1 0 1 2 3 x x x - x - e f (x )  x f (x )  tanh( x) e x - x e  e
  • 38.
    n   y f x k w  b ∑  k k   k  1  Función de Activación Logistic Activation Function Thresh Activation Function 1 1 0.9 0.9 0.8 0.8 0.7 0.7 0.6 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 0 -5 0 5 -5 0 5 x x 1  1 x ‡ 0 f ( x )  F ( x )  1  exp( - b x ) 0 x  0 
  • 39.
    Perceptrón ElPerceptrón busca la clasificación lineal de los patrones a ser entrenados, es decir procura separarlos por una línea en el plano, un ejemplo claro se tiene en la operación lógica AND: x 1 x 2 y A 0 0 0 B 0 1 0 C 1 0 0 D 1 1 1  1 v ‡ 1 y ( t )  F ( v )   0 v  1 
  • 40.
    Perceptrón: Ejemplo Tenemos los siguientes Inicializamos el perceptrón patrones y sus respectivos con los siguientes valores: objetivos: x 1 -0.1  x 1 x 2 y d y  0.0 -0.4 0 0.8 x 2 -0.5  -0.3 -0.2 0  0.5 1.3 1  1.0 -1.3 1… y lo entrenamos.
  • 41.
    Perceptrón: Ejemplo  x 1 x 2 y d  0.0 -0.4 0 (*)  -0.3 -0.2 0 (*)  0.5 1.3 1 (+)  1.0 -1.3 1 (+)
  • 42.
    Perceptrón: Ejemplo  x 1 x 2 y d  0.0 -0.4 0 (*)  -0.3 -0.2 0 (*)  0.5 1.3 1 (+)  1.0 -1.3 1 (+)
  • 43.
    Perceptrón: Ejemplo Luego del Entrenamiento x 1 -0.1 y 0.8 x 2 -0.5
  • 44.
    Perceptrón Todofuncionó bien hasta que alguien probó la simple operación X-OR: x 1 x 2 y A 0 0 0 B 0 1 1 C 1 0 1  1 v ‡ 1 y ( t )  F ( v )  D 1 1 0  0 v  1 
  • 45.
  • 46.
    Separabilidad Lineal Funciones Porcentaje de # de bits Cantidad de Linealmente Trabajo del Funciones Separables Perceptrón (%) 2 16 14 87 3 256 104 40 4 65536 1882 3 5 10E+09 94572 0.00002 Un perceptrón es capaz de aprender todo lo que pueda representar.
  • 47.
    Aplicación de lasRedes Muchos años después se inventó el MLP, y solucionó el problema, VIENE EL AUGE DE LAS NN: x 1 x 2 y A 0 0 0 B 0 1 1  1 v ‡ 1 C 1 0 1 y ( t )  F ( v )   D 1 1 0 0 v  1 
  • 48.
    T T f  W s ( V x ) ( x ) Perceptrón de Múltiple Capa (MLP) Pesos • Trabaja en paralelo. • Usan al Algoritmos como el de Back- propagation para darle el Entradas Salidas  en base al Reales Reales error retro-propagado. • Utiliza patrones de Entrenamiento. Neuronas Neuronas • Modela Sistemas No- No-LinealesLineales Lineales.
  • 49.
    Perceptrón de MúltipleCapa (MLP) - - h h  x · V  - h  s h      y  h · W -  y  s h · W h     y  s  x · V  · W
  • 50.
    Algoritmo de Backpropagation Se escoge una función J  e 2 de costo a optimizar, y 2 la elección es el error 2 e   y d - y  cuadrático (MMC) ¶ J Algoritmo de Backpropagation w ( N  1 )  w ( N )  h ¶ w
  • 51.
    Algoritmo de Backpropagation ¶ J w ( N  1 )  w ( N )  h ¶ w 2 ¶ J ¶ J ¶ e ¶ F ¶ y Aplicando la Regla de la Cadena:     2 ¶ w ¶ e ¶ F ¶ y ¶ w  ¶ J ¶ y ¶ ( h · w )   1 2   h ¶ e ¶ w ¶ w 2 ¶ e ¶ F 2 ( y d - y ) Derivada de la Función de Salida ¶ F  ¶ y ¶ J   ( 1 ) 2 ( y - y ) ( Derivada ) h d ¶ w
  • 52.
    Algoritmo de Backpropagation • La Ecuación anterior se itera hasta obtener un error aceptable (de 3 a 5%). • Un error menor no permite una buena ‘ generalización’. • Cuando se obtiene el error deseado se guardan los pesos para aplicarlos en el trabajo deseado. y  s  x · V  · W
  • 53.
    Características Principales 1. Son dispositivos no-lineales. 2. Pueden aprender un mapeo. 3. Son adaptables. 4. Las respuestas están basadas en evidencia. 5. Usan contexto, es decir, a más información, la respuesta es más veloz y mejor.
  • 54.
    Características Principales 6. Son tolerantes a fallas, o sea, que la falla es degradada. 7. Su diseño y análisis es uniforme. 8. Tienen analogía neuro-biológica. 9. Su procesamiento es masivamente paralelo, distribuido y realizado con operaciones individuales simples. 10. Aprenden por sí mismas. 11. Tienen capacidad de generalizar
  • 55.
    Aplicaciones más Comunes • Representación de comportamientos de funciones lineales y no-lineales. • Identificación de Patrones o Sistemas. • Sistemas de Control. • Reconocimiento de Imágenes. • Reconocimiento de Caracteres. • Reconstrucción de datos.
  • 56.
    Aplicaciones más Comunes • Predicción y Recomendación para la Toma de Decisiones. • Simulación de Modelos Económicos y Financieros. • Clasificación de Objetos. • Administración de Anestesia según el Comportamiento de la Presión Arterial. • Predicciones Climatológicas.
  • 57.
  • 58.
  • 59.
  • 60.
  • 61.
  • 62.
    Diseño de laRed Neuronal
  • 63.
  • 64.
  • 65.
    Diseño de laRed Neuronal del Neuro Controlador
  • 66.
    Estructura de RedNeuronal del Controlador
  • 67.
  • 68.
    Prueba del SistemaCompleto Control de Péndulo Estados Invertido Neuro-Control Neuro-Sistema
  • 69.
    Comentarios Finales  El ingenio permite emplear herramientas actuales en teorías antiguas.  El Control Moderno se debe complementar con los avances tecnológicos para optimizar su comportamiento.  La Lógica Difusa facilita el diseño de controladores no-lineales evitando el modelamiento matemático.  Las Redes Neuronales otorgan la capacidad de adaptación mediante su propio aprendizaje.
  • 70.
    Comentarios Finales  Es factible emplear una Red Neuronal para que aprenda el comportamiento del Controlador Difuso y potencie el sistema con el razonamiento y la adaptatibilidad.  Los retos de ingeniería deben ser considerados como un estímulo para el ingeniero peruano en vez de verlos como un obstáculo.