SlideShare una empresa de Scribd logo
1 de 174
Descargar para leer sin conexión
Depto. de Ingenier´ıa de Sistemas y Autom´atica
APUNTES DE INGENIER´IA DE CONTROL
AN´ALISIS Y CONTROL DE SISTEMAS EN ESPACIO DE ESTADO
IDENTIFICACI´ON DE SISTEMAS
CONTROL ADAPTATIVO
CONTROL PREDICTIVO
Daniel Rodr´ıguez Ram´ırez
Carlos Bord´ons Alba
Rev. 5/05/2005
´Indice general
Lista de figuras IX
1. Control de sistemas discretos en el espacio de estados 1
1.1. Representaci´on de sistemas discretos en el espacio de estados . . . . . . 1
1.2. Obtenci´on de la representaci´on de en espacio de estados de sistemas
discretos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. M´etodo de programaci´on directa . . . . . . . . . . . . . . . . . . 3
1.2.2. M´etodo de programaci´on anidada . . . . . . . . . . . . . . . . . 5
1.3. La representaci´on en espacio de estados de un sistema no es ´unica . . . 6
1.4. Resoluci´on de las ecuaciones del espacio de estados . . . . . . . . . . . 7
1.4.1. Procedimiento recursivo . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2. Matriz de transici´on de estados . . . . . . . . . . . . . . . . . . 8
1.4.3. M´etodo basado en la transformada Z . . . . . . . . . . . . . . . 9
1.4.3.1. Procedimiento alternativo para calcular (zI − G)−1
. . 10
1.5. Discretizaci´on de las ecuaciones de estado continuas . . . . . . . . . . . 12
1.6. Controlabilidad y Observabilidad . . . . . . . . . . . . . . . . . . . . . 15
i
ii ´INDICE GENERAL
1.6.1. Controlabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.2. Controlabilidad de la salida completa . . . . . . . . . . . . . . . 17
1.6.3. Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.4. Principio de Dualidad . . . . . . . . . . . . . . . . . . . . . . . 19
1.7. Transformaci´on de un sistema en formas can´onicas . . . . . . . . . . . 19
1.7.1. Obtenci´on de la forma can´onica controlable . . . . . . . . . . . 20
1.7.2. Obtenci´on de la forma can´onica observable . . . . . . . . . . . . 20
1.8. Colocaci´on de polos mediante realimentaci´on del vector de estados . . . 21
1.8.1. Condici´on necesaria y suficiente para la colocaci´on arbitraria de
polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8.2. Procedimientos para calcular K . . . . . . . . . . . . . . . . . . 22
1.8.2.1. Procedimiento alternativo: la f´ormula de Ackermann . 24
1.8.3. Control Dead-Beat . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.9. Observadores del estado . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.9.1. Procedimiento iterativo para la estimaci´on del estado . . . . . . 28
1.9.2. Observador del estado completo . . . . . . . . . . . . . . . . . . 30
1.9.2.1. C´alculo de Ke . . . . . . . . . . . . . . . . . . . . . . . 32
1.9.2.2. Comentarios acerca del papel de Ke . . . . . . . . . . 34
1.9.2.3. Efectos de la adici´on del observador . . . . . . . . . . . 35
1.9.3. Observador de orden m´ınimo . . . . . . . . . . . . . . . . . . . . 36
1.10. Control ´optimo LQR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
´INDICE GENERAL iii
1.10.1. Soluci´on de la ecuaci´on de Riccatti . . . . . . . . . . . . . . . . 43
1.11. Filtro de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2. Modelos de procesos y perturbaciones 45
2.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2. Perturbaciones deterministas a trozos . . . . . . . . . . . . . . . . . . . 46
2.3. Procesos estoc´asticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4. Modelos de procesos con ruidos . . . . . . . . . . . . . . . . . . . . . . 48
3. Introducci´on a la identificaci´on de sistemas 51
3.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2. Ideas b´asicas sobre identificaci´on de sistemas . . . . . . . . . . . . . . . 52
3.2.1. Planificaci´on de los experimentos . . . . . . . . . . . . . . . . . 52
3.2.2. Selecci´on del tipo de modelo . . . . . . . . . . . . . . . . . . . . 53
3.2.3. Elecci´on de un criterio . . . . . . . . . . . . . . . . . . . . . . . 54
3.2.4. Estimaci´on de los par´ametros . . . . . . . . . . . . . . . . . . . 54
3.2.4.1. Identificaci´on en l´ınea . . . . . . . . . . . . . . . . . . 54
3.2.4.2. Identificaci´on fuera de l´ınea . . . . . . . . . . . . . . . 55
3.2.5. Validaci´on del modelo . . . . . . . . . . . . . . . . . . . . . . . 55
3.2.6. Resumen del proceso de identificaci´on . . . . . . . . . . . . . . . 57
3.3. Algunas propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
iv ´INDICE GENERAL
3.3.1. Excitaci´on persistente . . . . . . . . . . . . . . . . . . . . . . . 58
3.3.2. Convergencia e identificabilidad . . . . . . . . . . . . . . . . . . 59
3.3.2.1. Identificaci´on en bucle cerrado . . . . . . . . . . . . . . 60
3.3.3. Niveles de supervisi´on y acondicionamiento . . . . . . . . . . . . 62
4. Identificaci´on por m´ınimos cuadrados 63
4.1. El m´etodo de los m´ınimos cuadrados . . . . . . . . . . . . . . . . . . . 63
4.2. Algoritmo recursivo para identificaci´on en linea . . . . . . . . . . . . . 65
4.3. Interpretaci´on estad´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.4. M´ınimos cuadrados ponderados . . . . . . . . . . . . . . . . . . . . . . 70
4.5. M´ınimos cuadrados extendidos y generalizados . . . . . . . . . . . . . . 71
4.6. Estimaci´on de los valores de continua . . . . . . . . . . . . . . . . . . . 72
4.6.1. Utilizaci´on de los incrementos de las variables . . . . . . . . . . 73
4.6.2. C´alculo de los valores medios . . . . . . . . . . . . . . . . . . . 73
4.6.3. Estimaci´on de una constante . . . . . . . . . . . . . . . . . . . . 73
4.7. Importancia del orden del modelo . . . . . . . . . . . . . . . . . . . . . 74
4.8. Identificaci´on de sistemas con retardo o no lineales . . . . . . . . . . . . 77
4.9. Consideraciones finales . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5. Introducci´on al control adaptativo 81
5.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . . 81
´INDICE GENERAL v
5.1.1. Clasificaci´on grosso modo de los sistemas de control adaptativo . 82
5.2. Justificaci´on del uso de control adaptativo . . . . . . . . . . . . . . . . 84
5.3. Control adaptativo por modelo de referencia (MRAC) . . . . . . . . . . 87
5.3.1. La regla del MIT . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6. Reguladores Autoajustables (STR) 93
6.1. Introducci´on. Estructura general de los STR . . . . . . . . . . . . . . . 93
6.1.1. Algoritmos con estructura impl´ıcita y expl´ıcita . . . . . . . . . . 95
6.2. Control por M´ınima Varianza . . . . . . . . . . . . . . . . . . . . . . . 96
6.2.1. El regulador de m´ınima varianza generalizado . . . . . . . . . . 99
6.3. Asignaci´on de polos y ceros . . . . . . . . . . . . . . . . . . . . . . . . 100
6.3.1. Algoritmo con estructura impl´ıcita. . . . . . . . . . . . . . . . . 103
6.3.2. Algoritmo con estructura expl´ıcita . . . . . . . . . . . . . . . . . 104
7. Controladores PID con autoajuste y Ajuste por tabla 105
7.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.2. Funci´on de autoajuste (autotuning) . . . . . . . . . . . . . . . . . . . . 105
7.3. Funciones de autoajuste para PIDs . . . . . . . . . . . . . . . . . . . . 107
7.3.1. T´ecnicas de ajuste basadas en la respuesta transitoria . . . . . . 108
7.3.2. M´etodos basados en las oscilaciones producidas al realimentar
con un rel´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.4. La t´ecnica de ajuste por tabla o gain scheduling . . . . . . . . . . . . . 110
vi ´INDICE GENERAL
7.5. Controladores adaptativos industriales . . . . . . . . . . . . . . . . . . 113
7.5.1. SattControl ECA40 y Fisher-Rosemount DPR900 . . . . . . . . 115
7.5.2. Foxboro EXACT . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.5.3. ABB Novatune . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
8. Control Predictivo Basado en Modelo (MPC) 117
8.1. Perspectiva hist´orica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.2. Conceptos b´asicos de control predictivo . . . . . . . . . . . . . . . . . . 118
8.3. Estrategia de los controladores predictivos . . . . . . . . . . . . . . . . 119
8.4. Elementos b´asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.4.1. Modelo de predicci´on . . . . . . . . . . . . . . . . . . . . . . . . 122
8.4.1.1. Respuestas libre y forzada . . . . . . . . . . . . . . . . 125
8.4.2. Funci´on objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8.4.3. Obtenci´on de la ley de control . . . . . . . . . . . . . . . . . . . 129
8.5. Revisi´on de los principales algoritmos . . . . . . . . . . . . . . . . . . . 130
8.5.0.1. Dynamic Matrix Control . . . . . . . . . . . . . . . . . 130
8.5.0.2. Model Algorithmic Control . . . . . . . . . . . . . . . 131
8.5.0.3. Predictive Functional Control . . . . . . . . . . . . . . 131
8.5.0.4. Extended Prediction Self Adaptive Control . . . . . . 132
8.5.0.5. Extended Horizon Adaptive Control . . . . . . . . . . 133
8.5.0.6. Generalized Predictive Control . . . . . . . . . . . . . 134
´INDICE GENERAL vii
9. Controladores predictivos 135
9.1. Dynamic Matrix Control . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9.1.1. Predicci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9.1.2. Perturbaciones medibles . . . . . . . . . . . . . . . . . . . . . . 137
9.1.3. Algoritmo de control . . . . . . . . . . . . . . . . . . . . . . . . 138
9.1.3.1. El caso con restricciones . . . . . . . . . . . . . . . . . 140
9.1.3.2. Extensi´on al caso multivariable . . . . . . . . . . . . . 141
9.2. Control Predictivo Generalizado . . . . . . . . . . . . . . . . . . . . . . 141
9.2.1. Formulaci´on del Control Predictivo Generalizado . . . . . . . . 142
9.2.1.1. Predicci´on ´optima . . . . . . . . . . . . . . . . . . . . 143
9.2.1.2. Obtenci´on de la ley de control . . . . . . . . . . . . . . 146
9.2.2. Ejemplo de c´alculo . . . . . . . . . . . . . . . . . . . . . . . . . 147
9.2.3. Caso multivariable . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.Otros aspectos del Control Predictivo 151
10.1. Restricciones en Control Predictivo . . . . . . . . . . . . . . . . . . . . 151
10.1.1. Tratamiento convencional de restricciones . . . . . . . . . . . . 151
10.1.2. Restricciones en Control Predictivo . . . . . . . . . . . . . . . . 153
10.1.3. Resoluci´on del problema . . . . . . . . . . . . . . . . . . . . . . 155
10.1.4. Gesti´on de restricciones . . . . . . . . . . . . . . . . . . . . . . 156
10.1.4.1. T´ecnicas de b´usqueda de soluciones factibles . . . . . . 157
viii ´INDICE GENERAL
´Indice de figuras
1.1. Diagrama de bloques de la representaci´on en espacio de estados de un
sistema LTI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Diagrama de bloques de un sistema controlado por una realimentaci´on
del vector de estados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3. Diagrama de bloques de un sistema LTI controlado mediante una reali-
mentaci´on del vector de estados que estima el estado con un observador. 31
1.4. Diagrama de bloques de un observador de orden completo. . . . . . . . 31
2.1. Procesos estoc´asticos: realizaciones y variables aleatorias. . . . . . . . 47
2.2. Modelo de Box-Jenkins. . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.1. Esquema de la identificaci´on en l´ınea. . . . . . . . . . . . . . . . . . . 55
3.2. Diagrama de flujo del proceso de identificaci´on. . . . . . . . . . . . . . 57
3.3. Ejemplo de se˜nal de entrada del tipo PRBSS. . . . . . . . . . . . . . . 59
4.1. Diagrama de flujo del proceso de identificaci´on mediante m´ınimos cuadra-
dos recursivos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2. Diagrama de Bode de un sistema de segundo orden (linea continua) y
de un modelo de primer orden estimado para una entrada senoidal de
frecuencia ω = 0,2 rad × s−1
. . . . . . . . . . . . . . . . . . . . . . . . 75
ix
x ´INDICE DE FIGURAS
4.3. Misma situaci´on que en la figura 4.2 pero con una se˜nal de entrada
senoidal de frecuencia ω = 1 rad × s−1
. . . . . . . . . . . . . . . . . . . 75
4.4. Evoluci´on de los par´ametros identificados en un caso de sobreparametrizaci´on.
76
4.5. Evoluci´on de unos par´ametros frente a otros para el modelo sobreparametriza-
do. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.1. Configuraci´on gen´erica de un controlador adaptativo. . . . . . . . . . . 82
5.2. Sistema realimentado con actuador con caracter´ıstica v = f(u). . . . . 84
5.3. Sistema realimentado con actuador con caracter´ıstica v = f(u). . . . . 85
5.4. Respuestas en bucle abierto (izquierda) y cerrado (derecha) del sistema
dado en (5.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.5. Respuestas en bucle abierto (izquierda) y cerrado (derecha) del sistema
dado en (5.2). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.6. Configuraci´on gen´erica de un controlador adaptativo por modelo de re-
ferencia (MRAC). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.1. Configuraci´on gen´erica de un regulador o controlador autoajustable. . 94
6.2. Configuraci´on gen´erica de un regulador o controlador autoajustable. . 95
6.3. Divisi´on de polinomios para el ejemplo 6.2. . . . . . . . . . . . . . . . 99
6.4. Estructura para la asignaci´on de polos y ceros. . . . . . . . . . . . . . 101
7.1. PID industrial moderno con funci´on de autoajuste (ABB modelo ECA). 107
7.2. Determinaci´on de T y L por ´areas. . . . . . . . . . . . . . . . . . . . . 109
7.3. Estructura usada en el m´etodo basado en oscilaciones de rel´e. . . . . . 110
´INDICE DE FIGURAS xi
7.4. Configuraci´on gen´erica de un controlador adaptativo con adaptaci´on en
bucle abierto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.5. Curva de pH para una soluci´on de HCl 0.001 M y NaOH 0.001 M. . . 112
7.6. Caracter´ıstica aproximada de una sonda lambda . . . . . . . . . . . . 113
7.7. La herramienta Novatune se comercializa actualmente con el sistema
Advant 410 de ABB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
8.1. Estrategia del Control Predictivo . . . . . . . . . . . . . . . . . . . . . 120
8.2. Estructura b´asica del MPC . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.3. Respuesta impulsional y ante escal´on . . . . . . . . . . . . . . . . . . . 123
8.4. Respuestas libre y forzada . . . . . . . . . . . . . . . . . . . . . . . . . 126
8.5. Trayectoria de referencia . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.6. Puntos de coincidencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
9.1. Ley de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
9.2. Punto de operaci´on ´optimo de un proceso t´ıpico . . . . . . . . . . . . . 140
10.1. Restricciones y punto de operaci´on ´optimo . . . . . . . . . . . . . . . . 152
10.2. Restricciones en la se˜nal de control . . . . . . . . . . . . . . . . . . . . 153
10.3. Gesti´on de restricciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
xii ´INDICE DE FIGURAS
Cap´ıtulo 1
Control de sistemas discretos en el
espacio de estados
1.1. Representaci´on de sistemas discretos en el es-
pacio de estados
El m´etodo de espacio de estados est´a basado en la descripci´on del sistema mediante
n ecuaciones en diferencias, que se agrupan en una ecuaci´on vectorial matricial en
diferencias.
Definici´on 1.1 Concepto de estado: El estado de un sistema din´amico es el con-
junto m´as peque˜no de variables (llamadas variables de estado) tal que, el conocimiento
de esas variables en un determinado instante t0 junto con el conocimiento de los valores
de la se˜nal de entrada para los instantes t ≥ t0, permite determinar el comportamiento
y evoluci´on del sistema para cualquier instante de tiempo t ≥ t0.
Las variables de estado se agrupan en el llamado vector de estado y el espacio n-
dimensional que determinan los posibles valores de esas variables, se denomina espacio
de estados.
La din´amica de un sistema se puede describir en funci´on del valor del vector de
estados y de la se˜nal de entrada (asumiendo que el sistema es no aut´onomo mediante
1
2OBTENCI ´ON DE LA REPRESENTACI ´ON DE EN ESPACIO DE ESTADOS DE SISTEMAS DISCRETOS
unas ecuaciones que tendr´an la forma:
x(k + 1) = f(x(k), u(k), k)
y(k) = g(x(k), u(k), k)
donde la notaci´on ξ(k) indica el valor tomado por ξ en el instante de tiempo tk y f y g
pueden ser cualquier tipo de funci´on. No obstante en esta asignatura nos centraremos
en los Sistemas Lineales e Invariantes en el tiempo (LTI). Este tipo de sistemas son
descritos mediante las siguientes ecuaciones:
x(k + 1) = Gx(k) + Hu(k) (1.1)
y(k) = Cx(k) + Du(k)
que corresponder´ıan al diagrama de bloques:
x(k+1) +
+
D
H
u(k)
z-1  C
G
+
+
x(k)
Figura 1.1: Diagrama de bloques de la representaci´on en espacio de estados de un sistema LTI.
1.2. Obtenci´on de la representaci´on de en espacio
de estados de sistemas discretos
Partiremos de un sistema discreto descrito por:
y(k)+a1y(k−1)+a2y(k−2)+· · ·+any(k−n) = b0u(k)+b1u(k−1)+· · ·+bnu(k−n) (1.2)
Es bien conocido de anteriores temas de la asignatura que este sistema puede ser
descrito por la siguiente funci´on de transferencia:
G(z) =
Y (z)
U(z)
=
b0 + b1z−1
+ b2z−2
+ · · · + bnz−n
1 + a1z−1 + a2z−2 + · · · + anz−n
(1.3)
A continuaci´on se expondr´an dos de los m´etodos disponibles para obtener la repre-
sentaci´on en espacio de estados del sistema descrito por (1.3).
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 3
1.2.1. M´etodo de programaci´on directa
Parte de la premisa que la funci´on de transferencia (1.3) puede reescribirse como:
G(z) = b0 +
(b1 − a1b0)z−1
+ (b2 − a2b0)z−2
+ · · · + (bn − anb0)z−n
1 + a1z−1 + a2z−2 + · · · + anz−n
(1.4)
teniendo en cuenta que G(z) = Y (z)
U(z)
se obtiene:
Y (z) = b0U(z) +
(b1 − a1b0)z−1
+ (b2 − a2b0)z−2
+ · · · + (bn − anb0)z−n
1 + a1z−1 + a2z−2 + · · · + anz−n
U(z) (1.5)
que a su vez se puede expresar como:
Y (z) = b0U(z) + ˜Y (z)U(z) (1.6)
con:
˜Y (z) =
(b1 − a1b0)z−1
+ (b2 − a2b0)z−2
+ · · · + (bn − anb0)z−n
1 + a1z−1 + a2z−2 + · · · + anz−n
(1.7)
Por otra parte, teniendo en cuenta la expresi´on de ˜Y (z) se puede definir un Q(z) que
cumple que:
Q(z) =
˜Y (z)
(b1 − a1b0)z−1 + · · · + (bn − anb0)z−n
=
U(z)
1 + a1z−1 + · · · + anz−n
(1.8)
De ah´ı se obtiene que:
Q(z) = −a1z−1
Q(z) − a2z−2
Q(z) − · · · − anz−n
Q(z) + U(z) (1.9)
˜Y (z) = (b1 − a1b0)z−1
Q(z) + (b2 − a2b0)z−2
Q(z) + · · · + (bn − anb0)z−n
Q(z) (1.10)
A continuaci´on se eligen las variables de estado como:
X1(z) = z−n
Q(z) (1.11)
X2(z) = z−(n−1)
Q(z)
· · ·
Xn(z) = z−1
Q(z)
lo que teniendo en cuenta las propiedades de la transformada Z, implica que:
zX1(z) = X2(z)
zX2(z) = X3(z)
· · ·
zXn−1(z) = Xn(z)
4OBTENCI ´ON DE LA REPRESENTACI ´ON DE EN ESPACIO DE ESTADOS DE SISTEMAS DISCRETOS
lo que a su vez equivale a:
x1(k + 1) = x2(k) (1.12)
x2(k + 1) = x3(k)
· · ·
xn−1(k + 1) = xn(k)
N´otese que seg´un la ´ultima igualdad de (1.11) se tiene que Q(z) = zXn(z), luego
teniendo en cuenta esto y el resto de las igualdades de (1.11) podemos reescribir la
expresi´on de Q(z) en (1.9) como:
zXn(z) = −a1Xn(z) − a2Xn−1(z) − · · · − anX1(z) + U(z) (1.13)
o lo que es lo mismo:
xn(k + 1) = −anx1(k) − an−1x2(k) − · · · − a1xn(k) + u(k) (1.14)
De esta manera y si tenemos en cuenta (1.12) obtenemos la siguiente expresi´on de la
ecuaci´on de estado:







x1(k + 1)
x2(k + 1)
...
xn−1(k + 1)
xn(k + 1)







=







0 1 0 · · · 0
0 0 1 · · · 0
...
...
...
...
0 0 0 · · · 1
−an −an−1 −an−2 · · · −a1














x1(k)
x2(k)
...
xn−1(k)
xn(k)







+







0
0
...
0
1







u(k)
(1.15)
Por otra parte, podemos reescribir tambi´en (1.10) teniendo en cuenta las igualdades
de (1.11) de manera que:
˜Y (z) = (b1 − a1b0)Xn(z) + (b2 − a2b0)Xn−1(z) + · · · + (bn − anb0)X1(z) (1.16)
Esto se puede llevar a la ecuaci´on (1.6) de manera que antitransformando se obtiene:
y(k) = (bn −anb0)x1(k)+(bn−1 −an−1b0)x2(k)+· · ·+(b1 −a1b0)xn(k)+b0u(k) (1.17)
lo cual se puede escribir como:
y(k) = bn − anb0 bn−1 − an−1b0 · · · b1 − a1b0







x1(k)
x2(k)
...
xn−1(k)
xn(k)







+ b0u(k) (1.18)
Las ecuaciones (1.15) y (1.18) forman una representaci´on en espacio de estados del
sistema descrito por la funci´on de transferencia (1.3) que se denomina forma can´onica
controlable.
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 5
1.2.2. M´etodo de programaci´on anidada
En este caso se parte de que de la funci´on de transferencia (1.3) se obtiene la
siguiente ecuaci´on:
Y (z) − b0U(z) + z−1
(a1Y (z) − b1U(z)) + · · · + z−n
(anY (z) − bnU(z)) = 0 (1.19)
que a su vez se puede reescribir como:
Y (z) = b0U(z) + z−1
b1U(z) − a1Y (z) + z−1
(b2U(z) − a2Y (z) (1.20)
+z−1
(b3U(z) − a3Y (z) + · · ·)
Teniendo en cuenta esto se definen las siguientes variables de estado:
Xn(z) = z−1
(b1U(z) − a1Y (z) + Xn−1(z)) (1.21)
Xn−1(z) = z−1
(b2U(z) − a2Y (z) + Xn−2(z))
...
X2(z) = z−1
(bn−1U(z) − an−1Y (z) + X1(z))
X1(z) = z−1
(bnU(z) − anY (z))
N´otese que seg´un esta definici´on de las variables de estado la expresi´on (1.20) se puede
reescribir en forma condensada como:
Y (z) = b0U(z) + Xn(z) (1.22)
Sustituyendo esta expresi´on en la definici´on de las variables de estado (1.21) y multi-
plicando por z en ambos lados de cada igualdad se obtiene:
zXn(z) = Xn−1(z) − a1Xn(z) + (b1 − a1b0)U(z)
zXn−1(z) = Xn−2(z) − a2Xn(z) + (b2 − a2b0)U(z)
...
zX2(z) = X1(z) − an−1Xn(z) + (bn−1 − an−1b0)U(z)
zX1(z) = −anXn(z) + (bn − anb0)U(z)
Antitransformando lo anterior:
x1(k + 1) = −anxn(k) + (bn − anb0)u(k) (1.23)
x2(k + 1) = x1(k) − an−1xn(k) + (bn−1 − an−1b0)u(k)
...
xn−1(k + 1) = xn−2(k) − a2xn(k) + (b2 − a2b0)u(k)
xn(k + 1) = xn−1(k) − a1xn(k) + (b1 − a1b0)u(k)
6 LA REPRESENTACI ´ON EN ESPACIO DE ESTADOS DE UN SISTEMA NO ES ´UNICA
Antitransformando tambi´en la expresi´on (1.22) se obtiene:
y(k) = xn(k) + b0u(k) (1.24)
Finalmente, agrupando las dos expresiones anteriores se obtiene:







x1(k + 1)
x2(k + 1)
...
xn−1(k + 1)
xn(k + 1)







=







0 0 · · · 0 0 −an
1 0 · · · 0 0 −an−1
...
...
...
...
...
0 0 · · · 1 0 −a2
0 0 · · · 0 1 −a1














x1(k)
x2(k)
...
xn−1(k)
xn(k)







+







bn − anb0
bn−1 − an−1b0
...
b2 − a2b0
b1 − a1b0







u(k)
y(k) = 0 0 · · · 0 1







x1(k)
x2(k)
...
xn−1(k)
xn(k)







+ b0u(k) (1.25)
A esta representaci´on en espacio de estados del sistema descrito por la funci´on de
transferencia (1.3) se la denomina forma can´onica observable.
1.3. La representaci´on en espacio de estados de un
sistema no es ´unica
Se ha comprobado que a un mismo sistema descrito por su funci´on de transferencia
le corresponden, al menos, dos representaciones en espacio de estado distintas. De
hecho, la representaci´on en espacio de estados de un sistema no es ´unica. Por ejemplo,
podemos tomar otras variables de estado que describan la din´amica del sistema que
sean a su vez combinaciones lineales de las variables de estado originales, o considerar
que ´estas son a su vez combinaciones lineales de otras. Dicho de otro modo, dado un
sistema LTI como el descrito en (1.1) podemos considerar que el vector de estado x(k)
est´a relacionado con otro vector ˜x(k) con variables de estado distintas mediante una
transformaci´on:
x(k) = P ˜x(k) (1.26)
donde P es una matriz invertible. Esto se puede llevar a la ecuaci´on de estado del
sistema de manera que obtendr´ıamos:
P ˜x(k + 1) = GP ˜x(k) + Hu(k)
Premultiplicando por P−1
:
˜x(k + 1) = P−1
GP ˜x(k) + P−1
Hu(k)
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 7
por lo que la ecuaci´on de estado se puede expresar como:
˜x(k + 1) = ˜G˜x(k) + ˜Hu(k) (1.27)
con ˜G = P−1
GP y ˜H = P−1
H. De la misma manera la ecuaci´on, de la salida del
sistema se puede expresar como:
y(k) = ˜C˜x(k) + ˜Du(k) (1.28)
con ˜C = CP y ˜D = D. As´ı pues, las ecuaciones (1.27) y (1.28) describen una repre-
sentaci´on del sistema en espacio de estados que es diferente de la original pero equiva-
lente a ella1
.
1.4. Resoluci´on de las ecuaciones del espacio de es-
tados
En esta secci´on se trata el tema de la resoluci´on de las ecuaciones de estado. Es
decir, se presentar´an procedimientos para obtener el valor del vector de estado para
un determinado instante de tiempo k > 0 a partir del valor de x(0), es decir, del valor
inicial del vector de estados.
1.4.1. Procedimiento recursivo
Iterando las ecuaciones del estado para un sistema LTI como (1.1) a partir de k = 0:
x(1) = Gx(0) + Hu(0)
x(2) = Gx(1) + Hu(1) = G2
x(0) + GHu(0) + Hu(1)
x(3) = Gx(2) + Hu(2) = G3
x(0) + G2
Hu(0) + GHu(1) + Hu(2)
...
generalizando para cualquier k > 0:
x(k) = Gk
x(0) +
k−1
j=0
Gk−j−1
Hu(j) (1.29)
1
Obs´ervese que en la ecuaci´on (1.28) el estado aparece con ˜, indicando que el vector de estados
es diferente al original. La salida sin embargo si coincide con la del sistema original pues ambas
representaciones son equivalentes.
8 RESOLUCI ´ON DE LAS ECUACIONES DEL ESPACIO DE ESTADOS
Obs´ervese que x(k) depende del estado inicial y de los valores de la entrada. Por otra
parte, la salida se puede expresar como:
y(k) = CGk
x(0) + C
k−1
j=0
Gk−j−1
Hu(j) + Du(k) (1.30)
1.4.2. Matriz de transici´on de estados
Consid´erese la ecuaci´on:
x(k + 1) = Gx(k) (1.31)
En este caso, al no tener se˜nal de entrada la soluci´on de la ecuaci´on viene dada por:
x(k) = Ψ(k)x(0)
con:
Ψ(k + 1) = GΨ(k) Ψ(0) = I
es decir:
Ψ(k) = Gk
A Ψ(k) se le llama la matriz de transici´on de estados y contiene toda la informaci´on
sobre los movimientos libres del sistema descrito por (1.31). Estos movimientos libres
se refieren a los cambios de estado o evoluci´on del estado del sistema en ausencia de
entrada.
En t´erminos de Ψ(k) la soluci´on de la ecuaci´on de estados para el sistema (1.1)
viene dada por:
x(k) = Ψ(k)x(0) +
k−1
j=0
Ψ(k − j − 1)Hu(j) (1.32)
= Ψ(k)x(0) +
k−1
j=0
Ψ(j)Hu(k − j − 1)
lo que lleva a:
y(k) = CΨ(k)x(0) + C
k−1
j=0
Ψ(j)Hu(k − j − 1) + Du(k) (1.33)
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 9
1.4.3. M´etodo basado en la transformada Z
Aplicando la transformada Z a ambos lados de la ecuaci´on de estados del sistema
(1.1) se obtiene:
zX(z) − zx(0) = GX(z) + HU(z)
y de ah´ı:
(zI − G)X(z) = zx(0) + HU(Z)
Premultiplicando por (zI − G)−1
:
X(z) = (zI − G)−1
zx(0) + (zI − G)−1
HU(Z)
y antitransformando:
x(k) = Z−1
(zI − G)−1
z x(0) + Z−1
(zI − G)−1
HU(z)
Esta ecuaci´on la podemos comparar con la soluci´on mediante el procedimiento recursivo
indicado en la ecuaci´on (1.29), e identificando t´erminos tenemos que:
Gk
= Z−1
(zI − G)−1
z y
k−1
j=0
Gk−j−1
Hu(j) = Z−1
(zI − G)−1
HU(z) (1.34)
La dificultad de este m´etodo consiste en realizar la transformada Z de las expresiones
anteriores. Para ilustrar el procedimiento consid´erese el siguiente ejemplo:
Ejemplo 1.1
Dado un sistema LTI como (1.1) con:
G =
0 1
−0,16 −1
H =
1
1
C = 1 0
Se pide calcular Ψ(k) = GK
= Z−1
{(zI − G)−1
z}. En primer lugar calculamos:
(zI − G)−1
=
z −1
0,16 z + 1
=
z+1
(z+0,2)(z+0,8)
1
(z+0,2)(z+0,8)
−0,16
(z+0,2)(z+0,8)
z
(z+0,2)(z+0,8)
=
4
3
1
z+0,2
− 1
3
1
z+0,8
5
3
1
z+0,2
− 5
3
1
z+0,8
−0,8
3
1
z+0,2
+ 0,8
3
1
z+0,8
−1
3
1
z+0,2
+ 4
3
1
z+0,8
(1.35)
10 RESOLUCI ´ON DE LAS ECUACIONES DEL ESPACIO DE ESTADOS
Multiplicando lo anterior por z y antitransformando se obtiene:
Ψ(k) = Gk
= Z−1
(zI − G)−1
z =
4
3
(−0,2)k
− 1
3
(−0,8)k 5
3
(−0,2)k
− 5
3
(−0,8)k
−0,8
3
(−0,2)k
+ 0,8
3
(−0,8)k
−1
3
(−0,2)k
+ 4
3
(−0,8)k
(1.36)
El ejemplo se puede completar resolviendo completamente la ecuaci´on de estado y la
de la salida para una se˜nal de entrada dada por:
u(k) = 1 k = 0, 1, 2, · · · x(0) =
1
−1
Teniendo en cuenta la transformada Z de la entrada (escal´on unitario) y que se sabe
que:
X(z) = (zI − G)−1
[zx(0) + HU(z)]
se calcula:
zx(0) + HU(z) =
z
−z
+
z
z−1
z
z−1
=
z2
z−1
−z2+2z
z−1
que premultiplicado por el resultado de la ecuaci´on (1.35) lleva a:
X(z) =
− 17
6
z
z+0,2
+
22
9
z
z+0,8
+
25
18
z
z−1
3,4
6
z
z+0,2
+
− 17,6
9
z
z+0,8
+
7
18
z
z−1
y de ahi, antitransformando:
x(k) =
−17
6
(−0,2)k
+ 22
9
(−0,8)k
+ 25
18
3,4
6
(−0,2)k
− 17,6
9
(−0,8)k
+ 7
18
Finalmente la ecuaci´on de salida ser´a:
y(k) = 1 0 x(k)
= −
17
6
(−0,2)k
+
22
9
(−0,8)k
+
25
18
1.4.3.1. Procedimiento alternativo para calcular (zI − G)−1
Se observa en el ejemplo 1.1 que gran parte del c´alculo se emplea en calcular (zI −
G)−1
. Esto puede ser muy engorroso cuando el orden de las matrices involucradas es
superior a 3. A continuaci´on se detalla un procedimiento alternativo para esos casos.
En primer lugar es conocido que, por definici´on de matriz inversa:
(zI − G)−1
=
Adj(zI − G)
|zI − G|
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 11
donde ((Adj)) indica la matriz adjunta. El determinante |zI − G| se puede expresar
como:
|zI − G| = zn
+ a1zn−1
+ a2zn−2
+ · · · + an
Por otra parte se puede demostrar que:
Adj(zI − G) = Izn−1
+ H1zn−2
+ H2zn−3
+ · · · + Hn−1
donde las matrices Hi se calculan mediante:
H1 = G + a1I
H2 = GH1 + a2I
...
Hn−1 = GHn−1 + an−1I
Hn = GHn−1 + anI = 0
y los ai se calculan a su vez como:
a1 = −traza(G)
a2 = −
1
2
traza(GH1)
a3 = −
1
3
traza(GH2)
...
an = −
1
n
traza(GHn−1)
Ejemplo 1.2
A continuaci´on se calcular´a la inversa de (zI − G) para el ejemplo 1.1 mediante este
procedimiento alternativo. Dado que el orden de la matriz es n = 2, se tiene que:
|zI − G| = z2
+ a1z + a2
Adj(zI − G) = Iz + H1
donde:
a1 = −traza(G)
a2 = −1
2
traza(GH1)
H1 = G + a1I
La traza de G es igual a 1, luego a1 = 1 y de ah´ı se obtiene que H1 = G + I, con lo
que se puede calcular:
a2 = −
1
2
traza
0 1
−0,16 −1
1 1
−0,16 0
= 0,16
12 DISCRETIZACI ´ON DE LAS ECUACIONES DE ESTADO CONTINUAS
con lo que se obtiene:
Adj(zI − G) = Iz +
1 1
−0,16 0
=
z + 1 1
−0,16 z
|zI −G| = z2
+z+0,16 = (z+0,2)(z+0,8)
Finalmente:
(zI − G)−1
=
z + 1 1
−0,16 z
(z + 0,2)(z + 0,8)
que evidentemente es el mismo resultado obtenido en el ejemplo 1.1.
1.5. Discretizaci´on de las ecuaciones de estado con-
tinuas
En esta secci´on veremos c´omo se puede pasar de un modelo en espacio de estado
continuo a discreto. Se partir´a de un sistema lineal e invariante en el tiempo continuo:
˙x = Ax + Bu
y = Cx + Du
(1.37)
Supondremos que la entrada s´olo cambia en ciertos instantes igualmente espaciados en
el tiempo, es decir, s´olo puede cambiar en t = kT, para k = 0, 1, 2, · · ·. Al discretizar
la ecuaci´on de estado ´esta tomar´a la forma:
x((k + 1)T) = G(T)x(kT) + H(T)u(kT) (1.38)
donde puede observarse que las matrices G y H dependen del tiempo de muestreo T.
Para determinar el valor de G(T) y H(T) usaremos la soluci´on de la ecuaci´on de estado
en tiempo continuo:
x(t) = eAt
x(0) + eAt
t
0
e−Aτ
Bu(τ)dτ (1.39)
Supondremos que la entrada u(t) es muestreada mediante un mantenedor de orden
cero, por lo que se cumple que:
u(t) = u(kT) para kT ≤ t ≤ kT + T (1.40)
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 13
Se tiene que:
x((k + 1)T) = eA(k+1)T
x(0) + eA(k+1)T
(k+1)T
0
e−Aτ
Bu(τ)dτ (1.41)
x(kT) = eAkT
x(0) + eAkT
kT
0
e−Aτ
Bu(τ)dτ (1.42)
Mutiplicando la ecuaci´on (1.42) por eAT
y rest´andola de la ecuaci´on (1.41) se obtiene:
x((k + 1)T) = eAT
x(kT) + eA(k+1)T
(k+1)T
kT
e−Aτ
Bu(τ)dτ (1.43)
Teniendo en cuenta la suposici´on de que u(t) es constante en el intervalo de integraci´on
(ver (1.40)) se puede sustituir u(τ) por u(kT). Aplicando esto y operando se llega a:
x((k + 1)T) = eAT
x(kT) + eAT
T
0
e−Aτ
Bu(kT)dτ
= eAT
x(kT) +
T
0
e−Aλ
Bu(kT)dλ (1.44)
donde λ = T − τ. Sea:
G(T) = eAT
H(T) =
T
0
eAλ
dλ B
(1.45)
entonces la ecuaci´on (1.44) queda:
x((k + 1)T) = G(T)x(kT) + H(T)u(kT) (1.46)
que es la ecuaci´on a la que ten´ıamos que llegar y por tanto se ha obtenido la ecuaci´on
de estado continuo discretizada.
En el caso particular (aunque muy com´un, y por tanto interesante) de que A sea
una matriz invertible se tiene que:
H(T) = eAT
− I A−1
B
Por otra parte, la ecuaci´on de la salida al ser discretizada queda:
y(kT) = Cx(kT) + Du(kT) (1.47)
con C, D matrices constantes e iguales a la de la ecuaci´on en tiempo continuo.
Existen diferentes m´etodos para calcular eAT
. Quiz´as el m´as sencillo de aplicar
cuando se trata de calcular la exponencial con papel y l´apiz sea utilizar la equivalencia:
eAt
= L−1
(sI − A)−1
(1.48)
14 DISCRETIZACI ´ON DE LAS ECUACIONES DE ESTADO CONTINUAS
donde L−1
indica la transformada de Laplace inversa. Desde el punto de vista pr´actico
el m´etodo consistir´ıa en calcular (sI−A)−1
(n´otese que puede emplearse el m´etodo para
calcular (zI − G)−1
dado en la secci´on 1.4.3.1) y aplicar a posteriori la transformada
de Laplace inversa a cada elemento de la matriz.
Ejemplo 1.3
Se ilustrar´a en este ejemplo el c´alculo de eAt
siendo:
A =
0 1
0 −2
Para ello se calcula:
(sI − A) =
s 0
0 s
−
0 1
0 −2
=
s −1
0 s + 2
y aplicando los m´etodos vistos en la secci´on 1.5 y subsiguientes se calcula la inversa:
(sI − A)−1
=
1
s
1
s(s+2)
0 1
(s+2)
Finalmente se aplica la transformada inversa de Laplace a cada elemento de la matriz
anterior de manera que se obtiene:
eAt
= L−1
(sI − A)−1
=
1 1
2
(1 − e−2t
)
0 e−2t
Ejemplo 1.4
Como ejemplo de discretizaci´on de las ecuaciones de estado en tiempo continuo, con-
sid´erese el siguiente sistema:
˙x = −ax + u
y = x
Usando las expresiones de (1.45) se obtiene:
G(T) = eAT
= e−aT
y
H(T) =
T
0
eAλ
dλ B
=
T
0
e−aλ
dλ
= 1−e−aT
a
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 15
Luego:
x(k + 1) = e−aT
x(k) + 1−e−aT
a
u(k)
y(k) = x(k)
1.6. Controlabilidad y Observabilidad
En esta secci´on se pasan a tratar dos conceptos clave en el estudio de sistemas
din´amicos, la controlabilidad y la observabilidad. El primero se refiere a la existencia
de una secuencia de actuaciones para llevar el sistema a un estado arbitrario. Por
otro lado, la observabilidad tiene que ver con la posibilidad de determinar el valor del
vector de estados de un sistema a partir de observaciones de las salidas y la entradas
de dicho sistema. Ambos conceptos se deben a Kalman y son claves en estrategias de
control como la colocaci´on de polos por realimentaci´on del vector de estados o el control
´optimo.
1.6.1. Controlabilidad
Definici´on 1.2 Un sistema de control es completamente controlable o de estado com-
pletamente controlable, si es posible transferir al sistema desde un estado inicial ar-
bitrario a cualquier estado deseado en un tiempo finito. Tambi´en puede decirse que
ser´a completamente controlable, si cada variable de estado se puede controlar en un
tiempo finito por una se˜nal de control que no est´e sujeta a ning´un tipo de restricci´on.
Como es habitual nos centraremos en el estudio de la controlabilidad de sistemas
LTI:
x((k + 1)T) = Gx(kT) + Hu(kT) (1.49)
siendo la se˜nal u(kT) constante en el intervalo de tiempo kT ≤ t ≤ (k + 1)T. En este
caso, la controlabilidad de estado completo implica que existe una se˜nal de control
constante entre cada tiempo de muestreo que transfiere al sistema, desde un estado
x(kT) cualquiera a un estado deseado xf en como mucho n periodos de muestreo,
donde n es el tama˜no del vector de estados.
Recordemos que la soluci´on de la ecuaci´on de estados es:
x(nT) = Gn
x(0) +
n−1
j=0
Gn−j−1
Hu(jT)
16 CONTROLABILIDAD Y OBSERVABILIDAD
= Gn
x(0) + Gn−1
Hu(0) + Gn−2
Hu(T) + · · · + Hu((n − 1)T)
de ah´ı se obtiene:
x(nT) − Gn
x(0) = H
... GH
... · · ·
... Gn−1
H





u((n − 1)T)
u((n − 2)T)
...
u(0)





(1.50)
donde la matriz
Mc = H
... GH
... · · ·
... Gn−1
H (1.51)
es la llamada matriz de controlabilidad.
Sup´ongase un estado final arbitrario x(nT) = xf . Si el sistema fuera controlable
deber´ıa existir un vector de actuaciones que al multiplicarlo por la matriz de controla-
bilidad (1.51) diese como resultado xf − Gn
x(0). Como xf y x(0) pueden ser cualquier
par de valores del vector de estado, es f´acil entender que xf −Gn
x(0) puede ser cualquier
vector de Rn
. De esto se desprende que para que el sistema sea controlable, el espa-
cio de vectores generado por los vectores que forman la matriz de controlabilidad (es
decir, sus columnas) debe ser todo Rn
. La condici´on necesaria y suficiente para que
se cumpla esto es que el rango de la matriz de controlabilidad sea n. Este resultado
permite enunciar el siguiente lema.
Lema 1.1 Dado un sistema LTI de orden n representado por (1.49), es condici´on
necesaria y suficiente para que el sistema sea completamente controlable que el rango
de la matriz de controlabilidad (1.51) sea igual a n.
Comentario 1.1 El sistema que cumpla la condici´on establecida en el lema 1.1 po-
dr´a alcanzar cualquier estado como m´aximo en n periodos de muestreo, pero s´olo si no
existen restricciones sobre la se˜nal de control. En caso contrario, se tardar´ıa m´as.
Si el sistema es controlable, se podr´a determinar la secuencia de valores de la entrada
necesaria para llevar al sistema a xf resolviendo el sistema de ecuaciones (1.50).
Por otra parte, la controlabilidad se puede comprobar a partir de la funci´on de
transferencia de un sistema observando si hay cancelaciones de polos y ceros. En el
caso de que las hubiese, el sistema no ser´ıa controlable. Por tanto, el sistema
Y (z)
U(z)
=
z + 0,2
(z + 0,8)(z + 0,2)
no ser´ıa controlable pues existe una cancelaci´on de un polo con un cero.
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 17
1.6.2. Controlabilidad de la salida completa
En control autom´atico el objetivo m´as com´un es controlar la evoluci´on de la salida
del sistema. Se puede demostrar que la controlabilidad del estado no implica la contro-
labilidad de la salida. Sin embargo, podemos comprobar dicha controlabilidad de una
manera an´aloga a la de la controlabilidad del estado completo. Sea un sistema cuya
ecuaci´on de estado es (1.49) y la ecuaci´on de la salida es:
y(kT) = Cx(kT) (1.52)
La condici´on para comprobar la controlabilidad de la salida completa ser´ıa que
Rango CH
... CGH
... · · ·
... CGn−1
H = m (1.53)
donde m es el n´umero de salidas. Por otra parte, si la ecuaci´on de la salida es:
y(kT) = Cx(kT) + Du(kT) (1.54)
la condici´on a comprobar ser´ıa:
Rango D
... CH
... CGH
... · · ·
... CGn−1
H = m (1.55)
N´otese que en esta segunda forma de la ecuaci´on de salida, la presencia del t´ermino
Du(kT) no empeora la controlabidad del sistema, sino justo lo contrario. De hecho, al
introducirse una columna extra en la matriz de controlabilidad (la correspondiente a
D), se puede dar el caso que se pase de tener m−1 columnas linealmente independientes
a tener m, por lo que se lograr´ıa la controlabilidad de la salida. Dicho de otra manera,
encontrar m vectores linealmente independientes siempre ser´a igual o m´as f´acil entre
n + 1 vectores que entre s´olo n de esos vectores.
1.6.3. Observabilidad
Consid´erese un sistema aut´onomo:
x((k + 1)T) = Gx(kT)
y(kT) = Cx(kT)
(1.56)
Definici´on 1.3 El sistema aut´onomo (1.56) es completamente observable si todo es-
tado inicial x(0) se puede determinar de la observaci´on de y(kT) durante un n´umero
finito de intervalos de muestreo. Para que ello ocurra, cada transici´on del estado debe
afectar a todos los elementos del vector de salida.
18 CONTROLABILIDAD Y OBSERVABILIDAD
La observabilidad juega un papel esencial en el control de aquellos sistemas en los
que algunas de las variables de estado no son accesibles, es decir, no son medibles
directamente. N´otese que se ha considerado un sistema aut´onomo. La raz´on de esto es
que la observabilidad de un sistema no aut´onomo se reduce a la del sistema aut´onomo
equivalente.
Se sabe que la soluci´on de la ecuaci´on de estado para el sistema aut´onomo (1.56)
es:
x(kT) = Gk
x(0)
y de ah´ı
y(kT) = CGk
x(0)
La observabilidad completa implica que usando
y(0), y(T), y(2T), · · · , y((n − 1)T)
se pueden determinar
x1(0), x2(0), · · · , xn(0)
donde xi(0) indica la i´esima componente de x(0). Es decir el sistema es completamente
observable si las ecuaciones:
y(0) = Cx(0)
y(T) = CGx(0)
...
y((n − 1)T) = CGn−1
x(0)
permiten determinar x1(0), x2(0), · · · , xn(0). Como y(kT) es un m-vector (asumiendo
que el sistema tiene m salidas) el sistema de ecuaciones anterior es en realidad un
sistema de n × m ecuaciones, en las que las inc´ognitas son las n componentes de x(0).
Para que la soluci´on de este sistema sea ´unica debe haber entre ellas n ecuaciones
linealmente independientes. Esto se traduce en la siguiente condici´on de observabilidad
completa:
Rango C∗ ... G∗
C∗ ... · · ·
... (G∗
)n−1
C∗ = n (1.57)
donde ∗
indica la conjugada traspuesta de una matriz y a la matriz que aparece en la
condici´on se la llama matriz de observabilidad.
Por otra parte, de una manera an´aloga a la de la controlabilidad, la observabilidad
de un sistema a partir de su funci´on de transferencia se puede asegurar si ´esta no
presenta cancelaciones de polos y ceros.
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 19
Finalmente, se enuncia a continuaci´on una propiedad que ser´a ´util para poder obte–
ner la representaci´on de un sistema en forma can´onica, sin que por ello pueda argu-
mentarse que existe la posibilidad de variar la controlabilidad u observabilidad del
mismo.
Propiedad 1.1 Sea un sistema LTI dado en la forma usual (1.1), cuya matriz de
controlabilidad es M y la de observabilidad es N. Si se define una transformaci´on
como (1.26) con:
ˆG = P−1
GP
ˆH = P−1
H
ˆC = CP
siendo P una matriz invertible, entonces las matrices de controlabilidad y observabilidad
del sistema equivalente tienen el mismo rango que M y N.
1.6.4. Principio de Dualidad
Este principio, que es debido a Kalman, relaciona la controlabilidad y observabilidad
de un sistema con la de otro sistema llamado dual del primero. Sea un sistema S1:
S1 :
x((k + 1)T) = Gx(kT) + Hu(kT)
y(kT) = Cx(kT)
(1.58)
Sea S2 el sistema dual de S1:
S2 :
ˆx((k + 1)T) = G∗
ˆx(kT) + C∗
ˆu(kT)
ˆy(kT) = H∗
ˆx(kT)
(1.59)
Entonces se puede afirmar que2
:
SI S1
CONTROLABLE
OBSERVABLE
ENTONCES S2
OBSERVABLE
CONTROLABLE
1.7. Transformaci´on de un sistema en formas can´onicas
Sea un sistema controlable y observable:
x(k + 1) = Gx(k) + Hu(k)
y(k) = Cx(k) + Du(k)
(1.60)
2
N´otese que los sistemas S1 y S2 son diferentes, es decir, S2 no es una representaci´on alternativa
de S1.
20 TRANSFORMACI ´ON DE UN SISTEMA EN FORMAS CAN ´ONICAS
A continuaci´on, se ver´a el procedimiento para obtener las formas can´onicas a partir de
ese sistema.
1.7.1. Obtenci´on de la forma can´onica controlable
Sea una matriz de transformaci´on T = MW con:
M = H
... GH
... · · ·
... Gn−1
H W =







an−1 an−2 · · · a1 1
an−2 an−3 · · · 1 0
...
...
...
...
a1 1 · · · 0 0
1 0 · · · 0 0







donde los coeficientes ai son los coeficientes de la ecuaci´on caracter´ıstica del sistema,
es decir:
|zI − G| = zn
+ a1zn−1
+ · · · + an−1z + an = 0
Se define el estado x(k) en funci´on de la transformaci´on de otro vector de estados ˆx(k):
x(k) = T ˆx(k)
Entonces el sistema:
ˆx(k + 1) = ˆGˆx(k) + ˆHu(k)
y(k) = ˆCx(k) + ˆDu(k)
(1.61)
con ˆG = T−1
GT, ˆH = T−1
H, ˆC = CT, ˆD = D est´a en forma can´onica controlable.
1.7.2. Obtenci´on de la forma can´onica observable
En este caso la matriz de transformaci´on es:
Q = (WN∗
)−1
con
N = C∗ ... G∗
C∗ ... · · ·
... (G∗
)n−1
C∗
Sea ˆG = Q−1
GQ, ˆH = Q−1
H, ˆC = CQ, ˆD = D y def´ınase el estado x(k) como
x(k) = Qˆx(k). Entonces el sistema (1.61) est´a en forma can´onica observable.
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 21
1.8. Colocaci´on de polos mediante realimentaci´on
del vector de estados
En esta secci´on se presentar´a una estrategia de control que permite elegir la situaci´on
de los polos de bucle cerrado del sistema, mediante la realimentaci´on lineal del vector
de estados. Se ver´a que la condici´on necesaria para que esto se pueda conseguir es que
el sistema sea controlable. Por otra parte, se asumir´a que todas las variables de estados
son accesibles, es decir, podemos medirlas directamente sin tener que estimarlas por
otros procedimientos.
1.8.1. Condici´on necesaria y suficiente para la colocaci´on ar-
bitraria de polos
Sea un sistema LTI:
x(k + 1) = Gx(k) + Hu(k)
Se escoge una ley de control que tiene la forma:
u(k) = −Kx(k)
es decir, la se˜nal de control se obtiene de la realimentaci´on negativa del vector de
estados multiplicado por una cierta matriz de ganancias K. Este tipo de ley de control
se la denomina usualmente realimentaci´on del vector de estados. Con esta ley de control
el sistema en bucle cerrado quedar´ıa:
x(k+1)
H z-1¡
G
+
+
x(k)
-K
u(k)
Figura 1.2: Diagrama de bloques de un sistema controlado por una realimentaci´on del vector de
estados.
y la ecuaci´on de estado del sistema en bucle cerrado resultar´ıa ser:
x(k + 1) = (G − HK)x(k)
22 COLOCACI ´ON DE POLOS MEDIANTE REALIMENTACI ´ON DEL VECTOR DE ESTADOS
De manera an´aloga a lo que se da en sistemas continuos, los autovalores de (G − HK)
son (o coinciden con) los polos de bucle cerrado del sistema. Por tanto, lo que buscamos
es ver que condici´on es necesario cumplir para que exista una matriz de ganancias K
determinada, que nos permita colocar los autovalores de (G − HK) en unos valores
elegidos a voluntad.
Lema 1.2 Se demuestra que la condici´on necesaria y suficiente para que por medio de
una realimentaci´on del vector de estados puedan escogerse los polos de bucle cerrado
(es decir, los autovalores de (G−HK)) es que el sistema en bucle abierto sea de estado
completamente controlable. Si esta condici´on no se cumple, no se podr´an elegir todos
los polos de bucle cerrado.
1.8.2. Procedimientos para calcular K
Sean µ1,µ2,· · ·,µn los valores deseados para los polos de bucle cerrado, es decir,
para los autovalores de (G−HK). Aquellos que sean complejos siempre ir´an por pares
conjugados. La ecuaci´on caracter´ıstica del sistema en bucle abierto es:
|zI − G| = zn
+ a1zn−1
+ · · · + an = 0
Se define una matriz de transformaci´on T = MW exactamente igual que la matriz
de transformaci´on necesaria para obtener la forma can´onica controlable descrita en la
secci´on 1.7.1. Se obtiene:
T−1
GT = ˆG =







0 1 0 · · · 0
0 0 1 · · · 0
...
...
...
...
0 0 0 · · · 1
−an −an−1 −an−2 · · · −a1







T−1
H = ˆH =







0
0
...
0
1







Se define a continuaci´on:
ˆK = KT = δn δn−1 · · · δ1
Entonces:
ˆH ˆK =





0
0
...
1





δn δn−1 · · · δ1 =







0 0 · · · 0
0 0 · · · 0
...
...
...
0 0 · · · 0
δn δn−1 · · · δ1







CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 23
Por otra parte, la ecuaci´on caracter´ıstica del sistema en B.C. es:
|zI − G − HK| = |zI − ˆG + ˆHK|
= z







1 0 · · · 0
0 1 · · · 0
...
...
...
0 0 · · · 0
0 0 · · · 1







−







0 1 0 · · · 0
0 0 1 · · · 0
...
...
...
...
0 0 0 · · · 1
−an −an−1 −an−2 · · · −a1







+







0 0 · · · 0
0 0 · · · 0
...
...
...
0 0 · · · 0
δn δn−1 · · · δ1







=
z −1 · · · 0
0 z · · · 0
...
...
...
0 0 · · · −1
an + δn an−1 + δn−1 · · · z + a1 + δ1
= zn
+ (a1 + δ1)zn−1
+ · · · + (an−1 + δn−1)z + (an + δn) = 0
A su vez, la ecuaci´on caracter´ıstica correspondiente a los autovalores deseados ser´a:
(z − µ1)(z − µ2) · · · (z − µn) = zn
+ α1zn−1
+ α2zn−2
+ · · · + αn−1 + αn = 0
Igualando los coeficientes de ambas ecuaciones caracter´ısticas:
α1 = a1 + δ1
α2 = a2 + δ2
...
αn = an + δn
se obtiene la siguiente expresi´on para K:
K = ˆKT−1
= δn δn−1 · · · δ1 T−1
= αn − an
...αn−1 − an−1
... · · ·
...α1 − a1
T−1
(1.62)
que coloca los polos de bucle cerrado del sistema en los valores deseados. N´otese
que si el sistema en bucle abierto viene dado en forma can´onica controlable, se verifica
que T = I = T−1
.
24 COLOCACI ´ON DE POLOS MEDIANTE REALIMENTACI ´ON DEL VECTOR DE ESTADOS
1.8.2.1. Procedimiento alternativo: la f´ormula de Ackermann
Existen otros procedimientos alternativos para el c´alculo de la matriz K. Aqu´ı men-
cionaremos uno muy conocido, el que emplea la f´ormula de Ackermann. Seg´un esto, la
expresi´on para K tomar´ıa la forma:
K = 0 0 · · · 0 1 H
... GH
... · · ·
... Gn−1
H
−1
φ(G)
donde:
φ(G) = Gn
+ α1Gn−1
+ · · · + αn−1G + αnI
Los coeficientes αi se calcular´an como en el apartado anterior.
Finalmente, otro procedimiento que puede ser ´util para sistemas de bajo orden
consiste en tomar
K = k1 k2 · · · kn
plantear la ecuaci´on caracter´ıstica en funci´on de los ki:
|zI − G + HK| = 0
e igualar a los coeficientes de
zn
+ α1zn−1
+ α2zn−2
+ · · · + αn−1 + αn = 0
1.8.3. Control Dead-Beat
Este es un tipo de control que resulta ser un caso particular del control por colo-
caci´on de polos.
Definici´on 1.4 Dado un sistema LTI, entenderemos como control dead-beat aquel que
consigue llevar el estado a cero en como m´aximo n intervalos de muestreo, donde n es
el orden del sistema.
Para obtener este tipo de control se deben especificar los polos de bucle cerrado con-
forme a lo que se establece en el siguiente lema.
Lema 1.3 Se demuestra que si se escogen los polos de bucle cerrado de manera que
est´en todos en el origen (es decir, todos los autovalores de (G − HK) igual a cero) se
consigue un control dead-beat.
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 25
Esto se lleva a la pr´actica con una matriz de realimentaci´on del vector de estados
calculada mediante:
K = −an −an−1 · · · −a1 T−1
Este tipo de control no goza de una reputaci´on excesivamente favorable porque habit-
ualmente se precisa de una se˜nal de control de amplitud muy grande para obtener la
respuesta dead-beat. De hecho en este tipo de control, el ´unico par´ametro de dise˜no
que se ha de elegir es el tiempo de muestreo. Si ´este es muy peque˜no, los n intervalos
de muestreo supondr´an un tiempo total muy corto, de manera que para llevar el estado
a cero partiendo de un estado inicial arbitrario se precisar´a un valor muy alto de la
se˜nal.
Ejemplo 1.5
Sea un sistema
x(k + 1) = Gx(k) + Hu(k)
con
G =
0 1
−0,16 −1
0
1
Se desea determinar una matriz K, tal que los polos de bucle cerrado sean el par
complejo conjugado z = 0,5 ± j0,5.
En primer lugar hay que determinar la controlabilidad del sistema. Para ello, se
forma la matriz de controlabilidad:
H
... GH =
0 1
1 −1
cuyo rango es igual a dos (basta comprobar que su determinante es distinto de cero),
por lo que el sistema es controlable y se puede proceder a calcular K. La ecuaci´on
caracter´ıstica de bucle cerrado deseada es:
|zI − G + HK| = (z − 0,5 − j0,5)(z − 0,5 + j0,5) = z2
− z + 0,5 = 0 (1.63)
por tanto, los coeficientes αi son en este caso α1 = −1 y α2 = 0,5. Por otra parte, la
ecuaci´on caracter´ıstica de bucle abierto del sistema es:
|zI − G| =
z −1
0,16 z + 1
por lo que los coeficientes ai son a1 = 1 y a2 = 0,16. A partir de aqu´ı se puede aplicar
cualquiera de los m´etodos explicados anteriormente.
26 COLOCACI ´ON DE POLOS MEDIANTE REALIMENTACI ´ON DEL VECTOR DE ESTADOS
M´etodo 1
K = α2 − a2
... α1 − a1
T−1
Obs´ervese que el sistema viene dado en forma can´onica controlable, por lo que T = I
y por tanto:
K = 0,34 −2
M´etodo 2 (f´ormula de Ackermann)
En este caso la f´ormula de Ackermann ser´ıa:
K = 0 1 H
... GH
−1
φ(G)
donde φ(G) es
φ(G) = G2
− G + 0,5I
=
−0,16 −1
0,16 0,84
−
0 1
−0,16 −1
+
0,5 0
0 0,5
=
0,34 −2
0,32 2,34
por lo que
K = 0 1
0 1
1 −1
−1
0,34 −2
0,32 2,34
= 0,34 −2
M´etodo 3
Este procedimiento es apropiado para sistemas de bajo orden como el que nos ocupa.
En primer lugar, se toma K = [k1 k2] y se formula la ecuaci´on caracter´ıstica de bucle
cerrado en funci´on de K:
|zI − G + HK| =
z 0
0 z
−
0 1
−0,16 −1
+
0
1
k1 k2
=
z −1
0,16 + k1 z + 1 + k2
= z2
+ (1 + k2)z + k1 + 0,16 = 0
la comparamos con la ecuaci´on caracter´ıstica deseada (1.63) e identificamos coeficientes:
1 + k2 = −1
k1 + 0,16 = 0,5
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 27
de donde se obtiene que k1 = 0,34 y k2 = −2, por lo que se tiene ya el valor de K, que
evidentemente coincide con el obtenido mediante los dos m´etodos anteriores.
Ejemplo 1.6
Calcular para el mismo sistema del ejemplo anterior la matriz K que conlleva un
control dead-beat, y comprobarlo calculando la evoluci´on del sistema a partir de un
estado inicial arbitrario.
En este caso:
K = −a2 −a1 T−1
= −0,16 −1
Vamos a verificar que el control es dead-beat. Para ello, obtenemos la ecuaci´on de
estado del sistema en bucle cerrado:
x1(k + 1)
x2(k + 1)
=
0 1
−0,16 − 1
x1(k)
x2(k)
+
0
1
0,16 1
x1(k)
x2(k)
=
0 1
0 0
x1(k)
x2(k)
Supongamos ahora que el estado inicial es
x1(0)
x2(0)
=
a
b
entonces se tiene que:
x1(1)
x2(1)
=
0 1
0 0
a
b
=
b
0
e iterando una vez m´as:
x1(2)
x2(2)
=
0 1
0 0
b
0
=
0
0
luego este control lleva al estado a cero en 2 pasos y es efectivamente un control dead-
beat.
1.9. Observadores del estado
En el control por colocaci´on de polos se asume que el estado se puede medir direc-
tamente. En ocasiones, sin embargo, puede que esta suposici´on no se cumpla y todas
28 OBSERVADORES DEL ESTADO
o algunas de las variables de estado no puedan ser medidas. Es decir, puede que haya
variables de estado no accesibles. En cualquier caso, para poder controlar el sistema se
deber´an estimar los valores de esas variables de estado no accesibles. Este proceso de
estimaci´on es lo que se conoce como observaci´on.
Un observador del estado es un subsistema del sistema de control, que realiza la
estimaci´on de las variables de estado bas´andose en los valores medidos (observados) de
las salidas y la se˜nal de control. Se distinguen tres tipos de observadores, en funci´on
de las variables de estado que se estimen:
1. Observador del estado completo. Es aqu´el que estima todas las variables de esta-
do.
2. Observador de orden m´ınimo. En este caso s´olo se estiman aquellas variables de
estado que no son accesibles.
3. Observador de orden reducido. Este tipo de observador estima todas las variables
no accesibles y algunas de las accesibles.
En esta asignatura nos centraremos en los dos primeros tipos de observadores. Como
en el caso de la colocaci´on de polos, formularemos en primer lugar las condiciones para
que se pueda llevar a cabo la observaci´on.
Lema 1.4 Condici´on necesaria y suficiente para la observaci´on del estado. Dado un
sistema LTI, se puede determinar x(k + 1) a partir de y(k), y(k − 1),· · ·,y(k − n + 1) y
u(k),u(k − 1),· · ·,u(k − n + 1), donde n es el orden del sistema, s´ı y s´olo s´ı, el sistema
es completamente observable.
Por tanto x(k + 1) se puede determinar, si el sistema es observable, en n pasos. Sin
embargo, no debe olvidarse que sobre el sistema act´uan ruidos y perturbaciones. Por
esta raz´on no es posible utilizar un procedimiento algebraico para determinar el estado,
sino que se ha de acudir a un procedimiento iterativo para estimarlo.
1.9.1. Procedimiento iterativo para la estimaci´on del estado
Sea un sistema LTI
x(k + 1) = Gx(k) + Hu(k)
y(k) = Cx(k)
(1.64)
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 29
Si se dispone de una aproximaci´on del estado en k, que denotaremos ˆx(k), ´esta evolu-
cionar´a seg´un la din´amica del sistema
ˆx(k + 1) = Gˆx(k) + Hu(k)
ˆy(k) = Cˆx(k)
(1.65)
Si las condiciones iniciales son las mismas, es decir, si x(0) = ˆx(0) entonces se verifica
que x(k) = ˆx(k). Sin embargo, si las condiciones iniciales son diferentes entonces, de
manera general, x(k) = ˆx(k). Podemos pues, definir el error de estimaci´on en k como:
e(k) = x(k) − ˆx(k)
Restando la ecuaci´on de estado aproximada (1.65) de la real (1.64):
x(k + 1) − ˆx(k + 1) = G (x(k) − ˆx(k))
que teniendo en cuenta la definici´on del error de aproximaci´on es equivalente a:
e(k + 1) = Ge(k)
que se puede considerar como un sistema din´amico aut´onomo. Si G es una matriz
estable (es decir, si sus autovalores est´an dentro del c´ırculo unidad) el ((estado)) de este
sistema tiende a cero, es decir:
e(k) → 0 ⇒ ˆx(k) → x(k)
Por tanto, si el sistema es estable, la propia din´amica del sistema hace que la aproxi-
maci´on del estado tienda al valor real del mismo. Esto quiere decir que podr´ıamos usar
la propia ecuaci´on del sistema para obtener en cualquier instante k una aproximaci´on
del estado, cuyo error ir´ıa decayendo a lo largo del tiempo. Esta convergencia al valor
real, sin embargo, puede ser muy lenta, y por otra parte no siempre se tratar´a con
sistemas estables. Por tanto, esta estrategia no es muy aconsejable.
N´otese que en el esquema que se ha presentado, no se hace uso de la salida del sis-
tema, que siempre ser´a accesible. Esto puede ser aprovechado para mejorar el rendimien-
to del observador introduci´endose un t´ermino corrector, de manera que la ecuaci´on para
obtener la aproximaci´on del estado para el instante k + 1 ser´ıa:
ˆx(k + 1) = Gˆx(k) + Hu(k) + Ke (y(k) − Cˆx(k))
donde Ke es una matriz de ponderaci´on o ganancia. Este t´ermino se puede elegir de
manera que se mejore el rendimiento, incluso si existen discrepancias entre las matrices
del sistema y las del proceso real al que dicho sistema representa.
30 OBSERVADORES DEL ESTADO
1.9.2. Observador del estado completo
Sea un sistema LTI observable (1.64) con una ley de control por realimentaci´on
negativa del vector de estados,
u(k) = −Kx(k)
siendo el estado del sistema x(k) no accesible pero s´ı observable. Por tanto, podemos
sustituir el valor del estado por una aproximaci´on de manera que
u(k) = −Kˆx(k)
y de ah´ı, aplicando las consideraciones de la secci´on 1.9.1 se obtiene
ˆx(k + 1) = Gˆx(k) + Hu(k) + Ke (y(k) − ˆy(k))
= (G − KeC)ˆx(k) + Hu(k) + Key(k)
= (G − KeC − HK)ˆx(k) + Key(k)
(1.66)
´Esta es la llamada ecuaci´on del observador predictivo. La palabra predictivo se utiliza
para indicar que la estimaci´on del valor futuro del estado en k +1, se realiza utilizando
informaci´on disponible en el instante k. A los autovalores de la matriz (G − KeC)
se les suele denominar polos del observador, y como se hizo en la secci´on 1.9.1, se
ver´a a continuaci´on que marcan la din´amica de la evoluci´on del error de observaci´on.
En efecto, si se resta la ecuaci´on del observador de la del sistema real (1.64) se llega a
que
e(k + 1) = (G − KeC)e(k)
de lo que puede observarse que los polos del observador determinan la din´amica del
error. Si G − KeC es estable, el error converger´a a cero independientemente de la
estimaci´on del estado inicial ˆx(0).
La ecuaci´on del observador y del propio sistema en espacio de estados controlado
por la realimentaci´on lineal del vector de estados, pueden representarse mediante un
diagrama de bloques que se ilustra en las figuras 1.3 y 1.4.
Finalmente, es evidente que interesa que la estimaci´on del estado converja r´apida-
mente al valor real de dicho estado. Una manera evidente de lograr esto es colocar todos
los polos del observador en cero, de manera que se consiga que el error de aproximaci´on
muestre una respuesta dead-beat. Esto se consigue eligiendo de manera apropiada Ke.
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 31
x(k+1)
+
H
u(k)
z-1¢ C
G
+
+
x(k)
OBSERVADOR
y(k)
y(k)
-K
u(k)
(k)x£
u(k)
Figura 1.3: Diagrama de bloques de un sistema LTI controlado mediante una realimentaci´on del vector
de estados que estima el estado con un observador.
x(k+1) +
Hu(k)
z-1¤ C
G
+
+
Ke
(k)x¥
(k)y¦
y(k)-+
+
(k)x§
Figura 1.4: Diagrama de bloques de un observador de orden completo.
32 OBSERVADORES DEL ESTADO
1.9.2.1. C´alculo de Ke
El procedimiento para elegir Ke de manera que se coloquen los polos del observador
en unos valores especificados es an´alogo al de la colocaci´on de polos vista en la secci´on
1.8. Si la ecuaci´on caracter´ıstica deseada del observador es:
zn
+ α1zn−1
+ · · · + αn−1z + αn = 0
y la del sistema es
zn
+ +a1zn−1
+ · · · + an−1z + an = 0
entonces
Ke = (WN∗
)−1





αn − an
αn−1 − an−1
...
α1 − a1





(1.67)
donde
W =







an−1 an−2 · · · a1 1
an−2 an−3 · · · 1 0
...
...
...
...
a1 1 · · · 0 0
1 0 · · · 0 0







N = C∗ ... G∗
C∗ ... · · ·
... (G∗
)n−1
C∗
es decir, la misma matriz W empleada en la colocaci´on de polos y la matriz de ob-
servabilidad3
. N´otese que si el sistema viene indicado en forma can´onica observable
(WN∗
)−1
= I. Tambi´en puede emplearse la f´ormula de Ackermann, que para este caso
es:
Ke = φ(G)





C
CG
...
CGn−1





−1 




0
0
...
1





donde
φ(G) = Gn
+ α1Gn−1
+ · · · + αn−1G + αnI = 0
Ejemplo 1.7
Consid´erese un sistema como (1.64) con
G =
1 1
0 1
H =
0,5
1
C = 1 0
3
A fin de obtener un texto m´as legible se evita en lo posible hacer referencias a material anterior,
a´un a pesar de que esto pueda alargar la exposici´on del tema al repetirse ecuaciones y expresiones.
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 33
dise˜naremos un observador del estado. En primer lugar, se ha de comprobar que el
sistema es observable. Para ello se comprueba que
rango C∗ ... G∗
C∗ = rango
1 1
0 1
= 2
luego el sistema es completamente observable. El siguiente paso es hallar la ecuaci´on
caracter´ıstica del sistema en bucle abierto:
|zI − G| =
z 0
0 z
−
1 1
0 1
= z2
− 2z + 1 = 0
luego a1 = −2 y a2 = 1. Deseamos que el observador tenga una respuesta dead-beat,
luego la ecuaci´on caracter´ıstica deseada del observador ser´a:
z2
= 0 ⇒ α1 = α2 = 0
A continuaci´on se calcular´a Ke:
Ke = (WN∗
)−1 −1
2
con
N =
1 1
0 1
W =
a1 1
1 0
=
−2 1
1 0
resultando
Ke =
2
1
C´alculo de Ke mediante la f´ormula de Ackermann
En este caso la f´ormula de Ackermann es:
Ke = φ(G)
C
CG
−1
0
1
con
φ(G) = G2
+ α1G + α2I = G2
resultando
Ke =
1 1
0 1
2
1 0
1 1
−1
0
1
=
2
1
que evidentemente es el mismo resultado que el obtenido con el procedimiento anterior.
34 OBSERVADORES DEL ESTADO
Estudio de la evoluci´on del error de estimaci´on
Vamos a comprobar que el error cae a cero seg´un una respuesta dead-beat. Sea
x(0) =
a1
b1
ˆx(0) =
a2
b2
entonces
e(0) = x(0) − ˆx(0) =
a1 − a2
b1 − b2
=
a
b
adem´as se tiene que
G − KeC =
−1 1
−1 1
el error evoluciona, por tanto, seg´un
e1(k + 1)
e2(k + 1)
=
−1 1
−1 1
e1(k)
e2(k)
por lo que se calcula la evoluci´on de este error:
e1(1)
e2(1)
=
−1 1
−1 1
a
b
=
−a + b
−a + b
e1(2)
e2(2)
=
−1 1
−1 1
−a + b
−a + b
=
0
0
luego, tal y como se pretend´ıa, la estimaci´on del vector de estados coincide con el
valor real de dicho vector dos tiempos de muestreo despu´es de iniciarse la estimaci´on.
Finalmente, la ecuaci´on del observador es:
ˆx1(k + 1)
ˆx1(k + 1)
=
−1 1
−1 1
ˆx1(k)
ˆx1(k)
+
0,5
1
u(k) +
2
1
y(k)
1.9.2.2. Comentarios acerca del papel de Ke
Se ha visto que Ke se utiliza para corregir la estimaci´on, disminuyendo el efecto de
las incertidumbres que se tengan sobre la din´amica real de la planta. Si estas incer-
tidumbres son importantes (es decir, si se tiene poca confianza en que el modelo de la
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 35
planta coincida con la din´amica real de la misma) este t´ermino corrector deber´ıa tomar
un valor alto. Sin embargo, si la se˜nal de salida est´a contaminada por perturbaciones y
ruido en general procedente, por ejemplo, de los sensores de medida, entonces la se˜nal
de salida no es fiable en el sentido de que no proviene ´unicamente de la din´amica real de
la planta. Por tanto, en estas situaciones el t´ermino corrector deber´ıa ser m´as peque˜no.
Al seleccionar Ke se debe pensar no s´olo en reducir el error en base a una correcci´on
en´ergica, sino que hay que tener en cuenta que cuando hay ruidos o perturbaciones,
una ganancia Ke alta no contribuir´ıa a reducir el error, porque las correcciones no ir´ıan
en la ((direcci´on)) correcta. Es decir, hay que llegar a un compromiso entre la velocidad
de respuesta y la sensibilidad a ruidos y perturbaciones.
1.9.2.3. Efectos de la adici´on del observador
Hemos supuesto que al no disponerse de x(k) para calcular la se˜nal de control, se
usa el observador para producir una estimaci´on ˆx(k), de manera que
u(k) = −Kˆx(k) (1.68)
Cabe preguntarse si al usar el observador, se colocan los polos del sistema en el sitio
que se pretende al calcularse la ganancia de realimentaci´on del vector de estado K.
¿Que efectos tiene el observador sobre los polos de bucle cerrado? Para estudiar esto,
se analizar´a el efecto que tiene la adici´on del observador sobre la ecuaci´on caracter´ıstica
del sistema en bucle cerrado.
Sea el sistema (1.64) controlado mediante (1.68). La ecuaci´on de estado puede
reescribirse como:
x(k + 1) = Gx(k) − HKˆx(k)
= (G − HK)x(k) + HK(x(k) − ˆx(k))
= (G − HK)x(k) + HKe(k)
donde e(k) es el error de observaci´on en el instante k. Recordemos que el error de
observaci´on viene dado por:
e(k + 1) = (G − KeC)e(k)
La ecuaci´on de estado y la del error, se pueden combinar en la ecuaci´on de un sistema
aut´onomo aumentado que describe la din´amica del sistema observado (es decir, de todo
el conjunto sistema-controlador-observador):
x(k + 1)
e(k + 1)
=
G − HK HK
0 G − KeC
x(k)
e(k)
36 OBSERVADORES DEL ESTADO
La ecuaci´on caracter´ıstica de este sistema es
zI − G + HK −HK
0 zI − G + KeC
= 0
es decir,
|zI − G + HK||zI − G + KeC| = 0
Dado que las ra´ıces de esta ecuaci´on son las ra´ıces de cada uno de los dos determinantes
que aparecen, esto implica que los polos del sistema completo son los polos del sistema
en bucle cerrado, tal y como se han colocado mediante el dise˜no de K junto con los
polos del observador. Por tanto, la colocaci´on de polos y la observaci´on son dos cosas
independientes, porque la adici´on del observador no modifica los polos de bucle cerrado
del sistema tal y como se eligieron al dise˜nar K. Por tanto:
Los polos del sistema se eligen para que se cumplan las especificaciones del sistema
de control.
Los polos del observador se escogen de manera que la respuesta del observador
sea m´as r´apida que la del sistema (para que esta ´ultima resulte dominante),
t´ıpicamente 4 o 5 veces m´as r´apida.
1.9.3. Observador de orden m´ınimo
Sup´ongase que x(k) es un n-vector y que y(k) es un m-vector. Como las m salidas
son combinaciones lineales del estado, hay m variables que no necesitan ser estimadas.
El observador de orden m´ınimo ser´a el que estime las n − m restantes.
Para dise˜nar el observador de orden m´ınimo estableceremos una partici´on del vector
de estados:
x(k) =


xa(k)
· · ·
xb(k)


donde el m-vector xa(k) son las variables medibles (accesibles) y el n − m-vector xb(k)
son las variables no medibles (no accesibles). Esta partici´on del vector de estados
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 37
determina una partici´on en la ecuaci´on de estados:


xa(k + 1)
· · ·
xb(k + 1)

 =




Gaa
... Gab
· · ·
... · · ·
Gba
... Gbb






xa(k)
· · ·
xb(k)

 +


Ha
· · ·
Hb

 u(k)
y(k) = I
... 0


xa(k)
· · ·
xb(k)


donde Gaa ∈ Rm×m
, Gab ∈ Rm×(n−m)
, Gba ∈ R(n−m)×m
, Gbb ∈ R(n−m)×(n−m)
, Ha ∈
Rm×1
, Hb ∈ R(n−m)×1
. La ecuaci´on de la parte del estado que es accesible (medible)
ser´ıa:
xa(k + 1) = Gaaxa(k) + Gabxb(k) + Hau(k)
N´otese que en esta ecuaci´on hay t´erminos que no son medibles, por lo tanto la podemos
reescribir agrupando los t´erminos medibles a la izquierda y los no medibles a la derecha:
xa(k + 1) − Gaaxa(k) − Hau(k) = Gabxb(k) (1.69)
Por otro lado, la parte del vector de estados que no se puede medir se puede escribir
como:
xb(k + 1) = Gbaxa(k) + Gbbxb(k) + Hbu(k)
Obs´ervese que en esta ecuaci´on, los t´erminos que dependen de xa(k) y u(k) son cono-
cidos mientras que el t´ermino que depende de xb(k) es desconocido. Esta ecuaci´on la
podemos reescribir como
xb(k + 1) = Gbbxb(k) + [Gbaxa(k) + Hbu(k)] (1.70)
El dise˜no del observador de orden m´ınimo se realiza tomando como referencia el del
observador de orden completo, cuya ecuaci´on de estados es
x(k + 1) = Gx(k) + Hu(k)
En el caso del observador de orden m´ınimo, la ecuaci´on (1.70), es decir, la ecuaci´on
que describe la evoluci´on de la parte del estado no medible, es la que hace el papel
de ecuaci´on de estado. Por otra parte, se conoce que la ecuaci´on de salida para el
observador de orden completo es:
y(k) = Cx(k)
donde y(k) es medible y Cx(k) es no medible (por serlo x(k)). Obs´ervese que se puede
establecer un paralelismo entre los t´erminos de esta ecuaci´on y los de la ecuaci´on (1.69).
En el caso del observador de orden m´ınimo, por tanto, se considera como ecuaci´on de
salida la ecuaci´on (1.69).
38 OBSERVADORES DEL ESTADO
Recordemos que la ecuaci´on del observador de orden completo es
ˆx(k + 1) = (G − KeC)ˆx(k) + Hu(k) + Key(k)
Comparando las ecuaciones de estado y salida del observador de orden completo y las
del observador de orden m´ınimo, se establecen las siguientes analog´ıas:
Observador de orden completo Observador de orden m´ınimo
ˆx(k) ˆxb(k)
G Gbb
Hu(k) Gbaxa(k) + Hbu(k)
y(k) xa(k + 1) − Gaaxa(k) − Hau(k)
C Gab
Ke ∈ Rn×m
Ke ∈ R(n−m)×m
Teniendo en cuenta esto, se obtiene
ˆxb(k+1) = (Gbb−KeGab)ˆxb(k)+Gbaxa(k)+Hbu(k)+Ke [xa(k + 1) − Gaaxa(k) − Hau(k)]
(1.71)
Adem´as, de la ecuaci´on del sistema sabemos que
y(k) = xa(k)
luego, aplicando esto en la ecuaci´on (1.71) se obtiene
ˆxb(k + 1) = (Gbb − KeGab)ˆxb(k) + Key(k + 1) + (Gba − KeGaa)y(k) + (Hb − KeHa)u(k)
que ser´ıa la ecuaci´on del observador de orden m´ınimo. Los polos del observador de
orden m´ınimo ser´ıan los autovalores de (Gbb − KeGab). Obs´ervese, sin embargo, que en
esta ecuaci´on aparece un t´ermino que multiplica a y(k + 1). Como es l´ogico el valor
de la salida en k + 1 no est´a disponible en el instante k, por lo que esta ecuaci´on ha
de ser modificada. Se puede demostrar (no se har´a aqu´ı), que esta ecuaci´on se puede
reescribir como:
ˆxb(k) = ˆη(k) + Kexa(k)
ˆη(k + 1) = (Gbb − KeGab)ˆη(k) + [(Gbb − KeGab)Ke + Gba − KeGaa] y(k)
+(Hb − KeHa)u(k)
(1.72)
La ecuaci´on caracter´ıstica del observador de orden m´ınimo es:
|zI − Gbb + KeGab| = 0
y como en el caso del observador de orden completo, Ke se puede elegir para colocar
los polos del observador donde se desee mediante los m´etodos indicados en la secci´on
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 39
1.9.2.1. Por ejemplo, si la salida y(k) es un escalar, es decir m = 1, se tienen que estimar
n − 1 variables. La f´ormula de Ackermann, por ejemplo, quedar´ıa:
Ke = φ(Gbb)





Gab
GabGbb
...
GabGn−2
bb





−1 




0
0
...
1





donde
φ(Gbb) = Gn−1
bb + α1Gn−2
bb + · · · + αn−1I
De manera an´aloga a la del observador de orden completo, se comprueba que la ecuaci´on
caracter´ıstica del conjunto formado por el observador de orden m´ınimo y el sistema
controlado por una realimentaci´on lineal del vector de estados es:
|zI − G + HK||zI − Gbb + KeGab| = 0
por lo que, nuevamente se ve que los problemas de dise˜no del controlador y del obser-
vador son independientes.
Ejemplo 1.8
Sea un sistema LTI cuyas matrices son
G =
1 0,2
0 1
H =
0,02
0,2
C = 1 0
se pide
1. Dise˜nar un controlador que coloque los polos de bucle cerrado en z = 0,6 ± j0,4.
2. Asumiendo que y(k) = x1(k) es el ´unico estado accesible, dise˜nar un observador
de orden m´ınimo con respuesta dead-beat.
En primer lugar, se ha de comprobar la controlabilidad y observabilidad del sistema:
rango H
... GH = rango
0,02 0,06
0,2 0,2
= 2
rango C∗ ... G∗
C∗ = rango
1 1
0 0,2
= 2
Luego el sistema cumple ambas condiciones. La ecuaci´on caracter´ıstica del controlador
es:
|zI − G| =
z − 1 −0,2
0 z − 1
= z2
− 2z + 1
40 OBSERVADORES DEL ESTADO
luego a1 = −2 y a2 = 1. La ecuaci´on caracter´ıstica de bucle cerrado deseada es:
(z − 0,6 − j0,4)(z − 0,6 + j0,4) = z2
− 1,2z + 0,52
luego α1 = −1,2 y α2 = 0,52. Por tanto,
K = α2 − a2 α1 − a1 T−1
= −0,48 0,8 T−1
donde la matriz T se calcula como
T = H
... GH
a1 1
1 0
=
0,02 0,02
−0,2 0,2
y
T−1
=
25 −2,5
25 2,5
lo que lleva a
K = 8 3,2
la ley de control se formular´a por tanto, como
u(k) = −Kˆx(k)
= − 8 3,2
x1(k)
ˆx2(k)
= − 8 3,2
y(k)
ˆx2(k)
En cuanto al observador de orden m´ınimo, ´este estimar´a una sola variable, por lo
que es de orden 1. La partici´on de la ecuaci´on de estado en este caso ser´a:




Gaa
... Gab
· · ·
... · · ·
Gba
... Gbb



 =




1
... 0,2
· · ·
... · · ·
0
... 1






Ha
· · ·
Hb

 =


0,02
· · ·
0,2


La ecuaci´on caracter´ıstica deseada del observador es
Φ(z) = z = 0
luego
Ke = φ(Gbb)[Gab]−1
[1] = (1)(0,2)−1
(1) = 5
Las ecuaciones del observador ser´ıan
ˆη(k + 1) = (Gbb − KeGab)ˆη(k) + [(Gbb − KeGab)Ke + Gba − KeGaa] y(k)
+(Hb − KeHa)u(k)
= (1 − 5 × 0,2)ˆη(k) + [(1 − 5 × 0,2) × 5 + 0 − 5 × 1] y(k) + (0,2 − 5 × 0,02)u(k)
= −5y(k) + 0,1u(k)
ˆx2(k) = Key(k) + ˆη(k)
= 5y(k) + ˆη(k)
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 41
y la ley de control ser´a por tanto,
u(k) = −Kˆx(k)
= −8y(k) − 3,2ˆx2(k)
= −8y(k) − 3,2(5y(k) + ˆη(k))
= −24y(k) − 3,2ˆη(k)
1.10. Control ´optimo LQR
Las t´ecnicas de control ´optimo conforman una de las ramas del control autom´atico
m´as importantes en el desarrollo de las estrategias modernas de control m´as utilizadas
hoy en d´ıa. Se han escrito numerosas monograf´ıas dedicadas a su estudio, y se ha
publicado una ingente cantidad de art´ıculos en revistas especializadas. No obstante,
en estos apuntes s´olo se dar´a una pincelada sobre este particular, centr´andonos en el
caso particular del control LQR con horizonte infinito, tambi´en conocido como LQR
de r´egimen permanente.
Las estrategias de control ´optimo calculan la ley de control de manera que se opti-
miza una cierta medida del rendimiento del controlador. Se parte de un sistema descrito
por
x(k + 1) = Gx(k) + Hu(k)
El objetivo es calcular una ley de control
u(k) = −Kx(k)
de tal manera que se minimiza el funcional (que expresa un ´ındice de funcionamiento)
J =
1
2
∞
k=0
(x∗
(k)Qx(k) + u∗
(k)Ru(k)) (1.73)
siendo Q y R matrices de ponderaci´on que cumplen que Q∗
= Q > 0, R∗
= R > 0.
N´otese que este ´ındice de funcionamiento pondera la diferencia entre el estado y el ori-
gen el instante inicial, hasta un tiempo infinito. Por tanto, cuanto m´as r´apido se llegue
al origen menor valor de J se tendr´a. Esto implica que al minimizarse J, se encon-
trar´a la ley de control que lleva el estado al origen m´as r´apidamente y manteni´endolo
42 CONTROL ´OPTIMO LQR
siempre lo m´as cerca posible del origen4
. Por otra parte, se observa que en el funcional
hay otro t´ermino que pondera el valor de la secuencia de se˜nales de actuaci´on. Este
t´ermino impide que se obtenga una ley de control que lleve el estado al origen a expen-
sas de una actuaci´on muy grande. Al minimizarse J, por tanto, se conseguir´a una ley de
control que por una parte acerque el estado al origen lo mas r´apido posible, pero man-
teniendo un nivel de actuaciones moderado, encontr´andose por tanto, una soluci´on de
compromiso entre el rendimiento del controlador y su nivel de actuaci´on. El sentido de
este compromiso puede venir dictado por diferentes razones, como por ejemplo moderar
el gasto de energ´ıa o combustible necesario para proporcionar la se˜nal de actuaci´on.
Existen razones m´as sutiles pero no por ello menos importantes para incorporar esta
ponderaci´on del esfuerzo de control. Por ejemplo, cuando existen discrepancias entre
el modelo del sistema y su din´amica real (algo que ocurre casi siempre, pues los mode-
los matem´aticos no pueden recoger todas las complejidades de los sistemas o procesos
reales) esta ponderaci´on del esfuerzo de control resulta en un sistema m´as estable.
Para calcular la ley de control que minimiza el ´ındice (1.73) se define una matriz P
que satisface la siguiente ecuaci´on de Riccatti:
P = Q + G∗
PG − G∗
PH(R + H∗
PH)−1
H∗
PG (1.74)
La soluci´on de esta ecuaci´on es una matriz P que es herm´ıtica y definida positiva. Se
demuestra que la matriz
K = (R + H∗
PH)−1
H∗
PG
es la que minimiza el ´ındice (1.73) mediante la ley de control
u(k) = −(R + H∗
PH)−1
H∗
PGx(k)
La ecuaci´on de estado del sistema en bucle cerrado ser´a por tanto:
x(k + 1) = (G − H(R + H∗
PH)−1
H∗
PG) x(k)
= (I + HR−1
H∗
P)−1
Gx(k)
Para este desarrollo se ha empleado el lema de inversi´on
(A + BC)−1
= A−1
− A−1
B(I + CA−1
B)−1
CA
con A = I, B = H y C = R−1
H∗
P.
4 ´Esta es una interpretaci´on que hay que tomar con cierto cuidado, pues puede que se obtenga una
ley de control que provoque que el estado no se acerque al origen todo lo posible al principio pero que
lo lleve a dicho origen muy r´apidamente en los instantes siguientes, manteniendo pues el valor de J
muy bajo.
CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 43
1.10.1. Soluci´on de la ecuaci´on de Riccatti
Para calcular la ley de control ´optima LQR en r´egimen permanente es necesario
resolver la ecuaci´on de Riccatti (1.74). Esto no es algo trivial en general, pero si pode-
mos resolverla f´acilmente si se dispone de un computador. Para ello formularemos un
proceso iterativo en que tomando como valor inicial de P = 0 (es decir una matriz de
ceros) se calcular´a el valor de la matriz P en el paso i + 1 como
Pi+1 = Q + G∗
PiG − G∗
PiH (R + H∗
PiH)−1
H∗
PiG
La condici´on de parada del bucle o proceso iterativo ser´a que Pi+1 − Pi ≈ 0, esto es,
que la diferencia entre Pi+1 y Pi sea una matriz cuyos elementos est´en todos cerca del
cero.
1.11. Filtro de Kalman
El filtro de Kalman es un estimador del estado (en realidad tambi´en se puede
interpretar como filtro y como predictor), que tiene en cuenta la presencia de ruidos
en la ecuaci´on de estados y la salida. En este sentido es un estimador ´optimo, pues
la estimaci´on obtenida tiene el menor error posible teniendo en cuenta que al haber
ruidos actuando, nunca se podr´a obtener una estimaci´on perfecta. Al igual que en el
caso del control LQR no se entrar´a en profundidad en el estudio de este estimador, sino
que s´olo se presentar´a la formulaci´on de un caso particular, el filtro de Kalman para
r´egimen permanente.
Sea un sistema:
x(k + 1) = Gx(k) + Hu(k) + ω(k)
y(k) = Cx(k) + (k)
donde ω(k) y (k) son variables aleatorios que act´uan como ruidos aditivos. Se de-
muestra que se puede obtener una estimaci´on ´optima del vector de estados mediante
el siguiente esquema:
ˆx(k + 1) = Gˆx(k) + Hu(k) + Ke(k) (y(k) − Cˆx(k))
Ke(k) = GPkC∗
(R + CPkC∗
)−1
Pk+1 = Q + (G − Ke(k)C) PkG∗
(1.75)
donde
R = E { (k) ∗
(k)}
Q = E {ω(k)ω∗
(k)}
P0 = E { (0) ∗
(0)}
44 FILTRO DE KALMAN
donde E {·} denota la esperanza matem´atica y R,Q se asumen constantes. Se demuestra
que conforme k → ∞:
Pk+1 → P
Ke(k) → Ke
donde P y Ke son matrices constantes y adem´as P es semidefinida positiva. Usando
esto, las ecuaciones de estimaci´on (1.75) se pueden reescribir como:
ˆx(k + 1) = Gˆx(k) + Hu(k) + Ke (y(k) − Cˆx(k))
Ke = GPC∗
(R + CPC∗
)−1
P = Q + GPG∗
− GPC∗
(R + CPC∗
)−1
CPG∗
(1.76)
que son las ecuaciones del filtro de Kalman de r´egimen permanente. N´otese que para
resolver la ecuaci´on de Riccatti se puede usar el mismo m´etodo usado en el LQR.
Cap´ıtulo 2
Modelos de procesos y
perturbaciones
2.1. Introducci´on
En este cap´ıtulo se expondr´an diversos tipos de formas de modelar perturbaciones
y procesos cuya evoluci´on se ve afectada por perturbaciones. Es importante tener en
cuenta que los modelos de procesos con perturbaciones tienen su origen en el modelado
de perturbaciones y no al rev´es.
En la teor´ıa cl´asica del control autom´atico siempre se ha tenido en cuenta el com-
portamiento de los sistemas frente a perturbaciones a la hora de dise˜nar sistemas de
control. Dichas perturbaciones se modelaban siempre de manera muy simplificada. Es
por tanto com´un en esta teor´ıa el considerar que las perturbaciones van a tener la
forma de
Pulsos.
Escalones.
Rampas.
Sinusoides.
Todos estos modelos tienen en com´un que son absolutamente predecibles en su evolu-
ci´on en funci´on de las condiciones iniciales. Es decir, en cuanto la perturbaci´on aparece
45
46 PERTURBACIONES DETERMINISTAS A TROZOS
podemos predecir su evoluci´on futura. Es una suposici´on com´un en estos casos, consi–
derar que estas perturbaciones vienen generadas por sistemas din´amicos.
2.2. Perturbaciones deterministas a trozos
Como fuente de perturbaciones con una mayor variabilidad que los modelos cl´asicos
antes comentados, se pueden considerar las perturbaciones deterministas a trozos. Sur-
gen de la necesidad de estudiar el efecto de perturbaciones m´as realistas en sistemas
de control que se basan en alg´un tipo de esquema predictivo para calcular la se˜nal
de control. En este tipo de sistemas, el considerar una perturbaci´on absolutamente
predecible (como en el caso de los modelos cl´asicos) no tiene utilidad alguna, pues se
pueden considerar directamente en el c´alculo de la ley de control.
Los modelos de perturbaciones deterministas a trozos parten de la suposici´on de
que son generados por un sistema lineal, en el que la entrada es cero excepto en ciertos
instantes de tiempo separados por m´as de n tiempos de muestreo, donde n es el orden
del sistema:
y(k) =
C(z−1
)
A(z−1)
w(k)
suponi´endose que el grado de C(z−1
) es igual al grado de A(z−1
). Si la entrada es
cero excepto en ciertos instantes de tiempo que est´an separados, quiere decir que la
se˜nal w(k) es un tren de pulsos. La amplitud y momento de aparici´on de esos pulsos
son desconocidos. Esto es lo que le da variabilidad a la fuente de perturbaciones. Sin
embargo, una vez que aparecen y se conoce la amplitud del pulso, la evoluci´on de la
salida y(k) es perfectamente predecible pues la din´amica del sistema es conocida. De
ah´ı el nombre de determinista a trozos.
2.3. Procesos estoc´asticos
Es natural utilizar el concepto de aleatorio o estoc´astico1
para describir una amplia
clase de perturbaciones, suficientemente realistas para formular problemas de predic-
ci´on con postulados cercanos a la realidad.
1
Estoc´astico: relativo a una variable aleatoria; algo que sigue una determinada distribuci´on de
probabilidad, usualmente con varianza finita.
CAP´ITULO 2. MODELOS DE PROCESOS Y PERTURBACIONES 47
El concepto de proceso estoc´astico es complejo y alcanza su madurez en los trabajos
de Kolmogorov (1930). Aqu´ı presentaremos s´olo algunas ideas b´asicas. Un proceso
estoc´astico puede ser considerado como una funci´on de dos variables
X(t, w)
donde t es la variable tiempo con su significado habitual y w es una variable aleatoria.
Si consideramos un valor fijo de w, esto es w = w0 y dejamos la variable t libre, lo que
denotaremos como
X(:, w0)
estaremos hablando de una ((realizaci´on)) del proceso. Esta realizaci´on es una funci´on
temporal com´un sin ning´un tipo de car´acter aleatorio una vez que se conoce que w =
w0. Si por otra parte se considera un instante de tiempo fijo, es decir t = t0, que
denotaremos como
X(t0, :) X(t0)
tendremos una variable aleatoria. Se puede considerar por tanto, que la evoluci´on del
proceso est´a dictada por un generador de se˜nales aleatorias. En la figura 2.1 se ilustran
estos conceptos. Puede observarse que el valor de la funci´on en cada instante es un
valor aleatorio que en la figura se considera variable en un determinado rango. Por
otra parte, cuando se habla de una realizaci´on no es m´as que una funci´on com´un que
depende de t.
t0
t1
t2
t3
t4
w=w0
......
Figura 2.1: Procesos estoc´asticos: realizaciones y variables aleatorias.
Definici´on 2.1 Se denomina proceso estoc´astico determinista, a aqu´el cuya evoluci´on
puede ser predicha exactamente con un predictor lineal 2
en base a medidas pasadas.
En estos procesos, el car´acter estoc´astico s´olo se manifiesta en la aleatoriedad de las
condiciones iniciales. Para aplicaciones basadas en predicci´on no son muy interesantes.
2
Es decir, haciendo evolucionar hacia delante un modelo lineal.
48 MODELOS DE PROCESOS CON RUIDOS
Definici´on 2.2 Se denomina proceso estoc´astico estacionario, a aqu´el cuya distribu-
ci´on estad´ıstica para X(t1), X(t2),...,X(tn) es la misma que para X(t1 + τ), X(t2 +
τ),...,X(tn + τ). Es decir, su distribuci´on no var´ıa con el tiempo.
Definici´on 2.3 Se denomina ruido blanco discreto, a un proceso aleatorio que se puede
considerar como una secuencia cuyos elementos son variables aleatorias independientes
entre s´ı cuya distribuci´on es id´entica. Se suele suponer que
E {x(k)} = 0
es decir, que el valor esperado es cero y adem´as
E {x(i)x(j)} =
0 si i = j (por ser variables independientes)
σ2
si i = j
Al ruido blanco se le suele considerar prototipo de una se˜nal impredecible.
2.4. Modelos de procesos con ruidos
En esta secci´on veremos c´omo se pueden generar diversos tipos de procesos es-
toc´asticos, cuando a un sistema lineal se le inyecta un ruido blanco v(k) adem´as de
una entrada externa u(k) a trav´es de sendas funciones de transferencia.
El caso m´as general es el llamado modelo de Box-Jenkins, el cual se ilustra en la
figura 2.2. Esta estructura es demasiado general, y normalmente se utilizan diversas
¨©
¨©

−
−
 



−
−

!

v(k)
u(k)
y(k)
Figura 2.2: Modelo de Box-Jenkins.
simplificaciones de las cuales veremos a continuaci´on las m´as comunes:
CAP´ITULO 2. MODELOS DE PROCESOS Y PERTURBACIONES 49
Modelo de Media M´ovil (MA : Moving Average). Es el caso m´as sencillo y viene
descrito por
y(k) = v(k) + c1v(k − 1) + c2v(k − 2) + · · · + cnv(k − n)
Con este modelo se pueden describir muchos tipos de perturbaciones aleato-
rias. Sin embargo, no incluye a los valores pasados de la salida por lo que no
servir´a para modelar procesos que tengan din´amica.
Modelo Autoregresivo (AR). Viene descrito por
y(k) + d1y(k − 1) + d2y(k − 2) + · · · + dny(k − n) = v(k)
En este caso, la parte aleatoria correspondiente a la perturbaci´on tiene una es-
tructura muy simple porque no depende de los valores pasados.
Modelo Autoregresivo de Media M´ovil (ARMA). Es la combinaci´on de los dos
anteriores, por lo que tomar´a la forma
y(k) + d1y(k − 1) + · · · + dny(k − n) = v(k) + c1v(k − 1)
+c2v(k − 2) + · · · + cnv(k − n)
Este modelo permite describir procesos m´as ricos que los anteriores. Sin embargo,
desde el punto de vista del control es interesante poder considerar el efecto de una
entrada externa, por lo que se considera el siguiente tipo de modelos de procesos
con ruidos.
Modelo Autoregresivo de Media M´ovil con una entrada ex´ogena (ARMAX). Tam-
bi´en llamado modelo CARMA (Controlled ARMA). Viene descrito por
y(k) + a1y(k − 1) + · · · + any(k − n) = b1u(k − 1) + · · · + bnu(k − n)
+v(k) + c1v(k − 1) + · · · + cnv(k − n)
Modelo Autoregresivo con entrada ex´ogena para m´ınimos cuadrados (ARX-LS).
Este modelo surge como versi´on simplificada del anterior, para el caso en el que
no se necesita que la fuente de perturbaciones tenga una estructura tan compleja.
Viene descrito por
y(k) + a1y(k − 1) + · · · + any(k − n) = b1u(k − 1) + · · · + bnu(k − n) + v(k)
Como su nombre indica se utiliza en la identificaci´on por el m´etodo de los m´ınimos
cuadrados (v´ease el tema 4).
50 MODELOS DE PROCESOS CON RUIDOS
Modelo Autoregresivo de Media M´ovil integrada y con una entrada ex´ogena
(ARIMAX o CARIMA). Este modelo incorpora un integrador en la fuente de
perturbaciones, por lo que viene descrito por
y(k) + a1y(k − 1) + · · · + any(k − n) = b1u(k − 1) + · · · + bnu(k − n)
+
v(k) + c1v(k − 1) + · · · + cnv(k − n)
∆
donde ∆ = 1−z−1
. Este tipo de modelos es ´util en esquemas de control predictivo
para formular leyes de control que incorporen un efecto integral, de manera que
sean capaces de rechazar perturbaciones en escal´on.
Los modelos anteriores pueden escribirse en forma condensada utilizando polinomios
en z−1
tal y como se muestra en la siguiente tabla resumen:
Modelo Expresi´on
MA y(k) = C(z−1
)v(k)
AR D(z−1
)y(k) = v(k)
ARMA D(z−1
)y(k) = C(z−1
)v(k)
ARMAX A(z−1
)y(k) = B(z−1
)u(k − 1) + C(z−1
)v(k)
ARX-LS A(z−1
)y(k) = B(z−1
)u(k − 1) + v(k)
ARIMAX A(z−1
)y(k) = B(z−1
)u(k − 1) + C(z−1)v(k)
∆
Cuando en los modelos anteriores el polinomio que convoluciona con la se˜nal v(k) es
distinto de la unidad se habla de ruido coloreado, y en caso contrario, de ruido blanco.
Cap´ıtulo 3
Introducci´on a la identificaci´on de
sistemas
3.1. Introducci´on
Un modelo de un proceso es una forma de resumir el conocimiento que se tiene
sobre su din´amica, y por tanto es una herramienta importante en el dise˜no y an´alisis
de sistemas de control. Sin embargo, al construir modelos estamos obteniendo repre-
sentaciones simplificadas de la din´amica real del proceso. Un solo modelo no suele ser
suficiente para describir un proceso. Por otra parte, seg´un sea el uso destinado al mod-
elo este deber´a ser mas o menos detallado. Por tanto, se establece una jerarqu´ıa de
modelos que describe al proceso con mayor o menor detalle.
Hay dos maneras de abordar la construcci´on de un modelo: obtenerlo mediante
principios y leyes f´ısicas que describan la din´amica del proceso, o bien obtenerlo me-
diante experimentaci´on sobre el proceso que se quiere modelar. La primera opci´on
requiere un conocimiento muy preciso del proceso que se quiere modelar. Por ejemplo,
hay que elegir las variables que vayan a ser los estados del sistema, y esto puede ser un
problema. Es, en general un proceso complicado y muy arduo, excepto en casos muy
simples. Normalmente, se debe combinar con la otra estrategia que es la denominada
identificaci´on de sistemas. Esta estrategia ser´a el objeto de este tema.
51
52 IDEAS B ´ASICAS SOBRE IDENTIFICACI ´ON DE SISTEMAS
3.2. Ideas b´asicas sobre identificaci´on de sistemas
La identificaci´on de sistemas es la aproximaci´on experimental al modelado de sis-
temas. Consiste en obtener un modelo a partir de observaciones obtenidas directamente
del propio sistema que se pretende modelar. La identificaci´on de un sistema conlleva
una serie de actividades y herramientas, de las que podemos destacar:
Planificaci´on de los experimentos.
Selecci´on del tipo de modelo.
Elecci´on de un criterio para expresar la bondad del modelo que se va a obtener.
Estimaci´on de los par´ametros del modelo.
Validaci´on del modelo obtenido.
A continuaci´on, se ir´an desglosando las principales ideas de cada uno de estos aspectos.
3.2.1. Planificaci´on de los experimentos
Dado que la identificaci´on de sistemas involucra experimentar con el proceso a mod-
elar, es necesario tener en cuenta que, en general, es muy costoso experimentar con pro-
cesos industriales. Por tanto, es necesario elegir una t´ecnica que nos sea lo m´as rentable
desde el punto de vista del tipo de experimentos necesarios. Algunas t´ecnicas son muy
sencillas, en el sentido de que una vez hecho el experimento es f´acil obtener el modelo.
Estas t´ecnicas, sin embargo, requieren que en los experimentos se utilicen se˜nales de
entradas preestablecidas de manera muy precisa: pulsos, sinusoides, etc. . . Puede que
el proceso a modelar no pueda ser sometido a este tipo de entradas por consideraciones
de seguridad o motivos econ´omicos. Otras t´ecnicas de identificaci´on pueden emplear
casi cualquier tipo de se˜nal de entrada (es decir, son menos exigentes en el tipo de
experimentos necesarios), pero una vez realizado el experimento es m´as complicado
obtener el modelo. Como comentario general, es necesario que en el experimento se
utilicen se˜nales de entrada que exciten todos los modos del sistema. M´as all´a de eso,
un buen m´etodo de identificaci´on debe ser insensible a las caracter´ısticas de la entrada.
Otro aspecto es que a veces no se puede identificar en bucle abierto y hay que hacerlo
en bucle cerrado. Esto no es siempre posible, pues aunque el sistema sea identificable en
CAP´ITULO 3. INTRODUCCI ´ON A LA IDENTIFICACI ´ON DE SISTEMAS 53
bucle abierto esta propiedad puede perderse en bucle cerrado. Esto ocurre, por ejemplo,
si los perfiles de la consigna o referencia que se usan son muy simples. Tambi´en, si los
lazos de control son demasiado simples. En general, cuanto m´as complejos sean los
lazos de control y m´as se mueva la consigna, m´as f´acil ser´a la identificaci´on en bucle
cerrado.
3.2.2. Selecci´on del tipo de modelo
En teor´ıa, la selecci´on del tipo de modelo deber´ıa venir dada por un conocimiento
del proceso y de las perturbaciones que deban ser tenidas en cuenta. Dependiendo de
si conocemos mucho o poco la estructura del proceso elegiremos entre uno u otro tipo
de modelo. En general, los modelos los clasificaremos como:
Modelos de Caja Blanca. Son los obtenidos a partir de leyes f´ısicas (esto no ser´ıa
realmente identificaci´on porque no se estar´ıan haciendo experimentos).
Modelos de Caja Negra. En estos modelos se postula una estructura matematica
con una serie de par´ametros libres, a los cuales se les da valor a partir de los
datos obtenidos en los experimentos.
Modelos de Caja Gris. Corresponden a un tipo intermedio entre los dos anteriores.
Parte del modelo se obtiene mediante leyes f´ısicas y otra parte, se ajusta usando
medidas experimentales. Por ejemplo, mediante leyes f´ısicas podemos determinar
la estructura del modelo (o de parte de ´el) y usar experimentos para terminar de
caracterizar el modelo.
Tambi´en se pueden clasificar los tipos de modelos en param´etricos y no param´etri-
cos. En los primeros se tienen una serie de par´ametros que hay que ajustar. Por ejemplo,
en una funci´on de transferencia se tendr´ıan que ajustar el orden y los coeficientes de
los polinomios. En modelos de espacio de estados tendr´ıamos la misma situaci´on pero
con las matrices del sistema. En los modelos no param´etricos, el modelo no tiene una
serie de par´ametros que definen la din´amica sino que se compone de una cantidad de
informaci´on sobre la misma, por ejemplo los modelos basados en la respuesta en fre-
cuencia de un sistema. En el caso que aqu´ı nos ocupa los modelos que emplearemos
ser´an de caja negra y param´etricos.
54 IDEAS B ´ASICAS SOBRE IDENTIFICACI ´ON DE SISTEMAS
3.2.3. Elecci´on de un criterio
En el proceso de estimaci´on del modelo y su subsiguiente validaci´on es necesario
contar con un criterio que exprese la bondad del ajuste del modelo a los datos, es
decir, que exprese la calidad del modelo obtenido. Normalmente, se utilizan criterios
que toman la forma:
J(θ) =
N
k=1
g(e(k))
donde θ es el vector de par´ametros que se trata de ajustar, e(k) es el error de estimaci´on
para la medida k, N es el n´umero de observaciones o medidas disponibles y g(·) es una
funci´on usualmente cuadr´atica.
Usualmente, el proceso de ajuste del modelo se realiza de manera que se busca el
valor del vector de par´ametros θ que hace m´ınimo al ´ındice o criterio J(θ). El m´etodo
m´as antiguo que emplea esta estrategia es el de los m´ınimos cuadrados, debido a Gauss.
Por otra parte, cuando los procesos se describen mediante modelos estoc´asticos, el
problema es de estimaci´on estad´ıstica. Un m´etodo muy popular en este caso, es el del
estimador de m´axima verosimilitud.
3.2.4. Estimaci´on de los par´ametros
Para resolver el problema de estimaci´on de los par´ametros del modelo se requiere
de los elementos comentados anteriormente: datos experimentales, un tipo de modelo
y un criterio. Estimar los par´ametros es resolver un problema de optimizaci´on en el
cual, el mejor modelo es el que hace m´ınimo el criterio. Es necesario tener en cuenta
que el modelo obtenido depender´a de los elementos anteriores, como por ejemplo de la
amplitud y contenido frecuencial de la se˜nal de entrada. Hay diversas formas de llevar
a cabo el proceso de estimaci´on. Una distinci´on amplia, es aquella que distingue entre
identificaci´on en l´ınea e identificaci´on fuera de l´ınea.
3.2.4.1. Identificaci´on en l´ınea
En los m´etodos de identificaci´on en l´ınea la estimaci´on se efect´ua usando medidas
que se van obteniendo en tiempo real, y normalmente se usan c´alculos recursivos.
El esquema de este tipo de identificaci´on ser´ıa el mostrado en la figura 3.1. En este
esquema aparece un nivel de supervisi´on que es necesario para evitar, por ejemplo, que
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4
Apuntes ic4

Más contenido relacionado

La actualidad más candente

La actualidad más candente (17)

Pendulo invertido rotante
Pendulo invertido rotantePendulo invertido rotante
Pendulo invertido rotante
 
Volantesde inercia
Volantesde inerciaVolantesde inercia
Volantesde inercia
 
Materia investigación operativa 2
Materia investigación operativa 2Materia investigación operativa 2
Materia investigación operativa 2
 
Heuristicos Para Vrp
Heuristicos Para VrpHeuristicos Para Vrp
Heuristicos Para Vrp
 
Tesis doctoral robotica
Tesis doctoral roboticaTesis doctoral robotica
Tesis doctoral robotica
 
Geoestadística con R
Geoestadística con RGeoestadística con R
Geoestadística con R
 
Manual de uso ha120 px ha16x ha16spx ha16px ha18spx ha18px ha20px ha260...
Manual de uso ha120 px  ha16x  ha16spx  ha16px ha18spx  ha18px  ha20px  ha260...Manual de uso ha120 px  ha16x  ha16spx  ha16px ha18spx  ha18px  ha20px  ha260...
Manual de uso ha120 px ha16x ha16spx ha16px ha18spx ha18px ha20px ha260...
 
Apuntes resistencia de_materiales
Apuntes resistencia de_materialesApuntes resistencia de_materiales
Apuntes resistencia de_materiales
 
Metodos de la fisica matematica
Metodos de la fisica matematicaMetodos de la fisica matematica
Metodos de la fisica matematica
 
Curso edps
Curso edpsCurso edps
Curso edps
 
Calculo tensorial bueno
Calculo tensorial buenoCalculo tensorial bueno
Calculo tensorial bueno
 
Gil control
Gil controlGil control
Gil control
 
Triangulateracion
TriangulateracionTriangulateracion
Triangulateracion
 
Tiida 2009-ec-pdf
Tiida 2009-ec-pdfTiida 2009-ec-pdf
Tiida 2009-ec-pdf
 
Control
ControlControl
Control
 
Apunte matematica-aplicada-edp (1)
Apunte matematica-aplicada-edp (1)Apunte matematica-aplicada-edp (1)
Apunte matematica-aplicada-edp (1)
 
Apunte matematica-aplicada-edp
Apunte matematica-aplicada-edpApunte matematica-aplicada-edp
Apunte matematica-aplicada-edp
 

Destacado

ciclo del agua
ciclo del agua ciclo del agua
ciclo del agua lucyunid
 
Contribution to the Business Awards
Contribution to the Business AwardsContribution to the Business Awards
Contribution to the Business AwardsAzam Ghaffar
 
Estaciones #3 de inducción
Estaciones #3 de inducciónEstaciones #3 de inducción
Estaciones #3 de inducciónYEISONAYALA
 
Pulses for personal wellness and global appeal
Pulses for personal wellness and global appealPulses for personal wellness and global appeal
Pulses for personal wellness and global appealEllen Kanner
 
ang misyon ng pamilya sa pagbigay ng edukasyon paggabay sa pagpapasiya at pag...
ang misyon ng pamilya sa pagbigay ng edukasyon paggabay sa pagpapasiya at pag...ang misyon ng pamilya sa pagbigay ng edukasyon paggabay sa pagpapasiya at pag...
ang misyon ng pamilya sa pagbigay ng edukasyon paggabay sa pagpapasiya at pag...irene sorila
 
Endüstri Dört - Katalog www.endustridort.com
Endüstri Dört - Katalog www.endustridort.comEndüstri Dört - Katalog www.endustridort.com
Endüstri Dört - Katalog www.endustridort.comEndüstri Dört
 
Updated CV - Usama finall
Updated CV - Usama finallUpdated CV - Usama finall
Updated CV - Usama finallUsama Sultan
 
Party hall for rent
Party hall for rentParty hall for rent
Party hall for rentit
 
Торговая идея - продажа сои
Торговая идея - продажа соиТорговая идея - продажа сои
Торговая идея - продажа соиЮранд Резников
 

Destacado (14)

ciclo del agua
ciclo del agua ciclo del agua
ciclo del agua
 
Contribution to the Business Awards
Contribution to the Business AwardsContribution to the Business Awards
Contribution to the Business Awards
 
Estaciones #3 de inducción
Estaciones #3 de inducciónEstaciones #3 de inducción
Estaciones #3 de inducción
 
Pulses for personal wellness and global appeal
Pulses for personal wellness and global appealPulses for personal wellness and global appeal
Pulses for personal wellness and global appeal
 
ang misyon ng pamilya sa pagbigay ng edukasyon paggabay sa pagpapasiya at pag...
ang misyon ng pamilya sa pagbigay ng edukasyon paggabay sa pagpapasiya at pag...ang misyon ng pamilya sa pagbigay ng edukasyon paggabay sa pagpapasiya at pag...
ang misyon ng pamilya sa pagbigay ng edukasyon paggabay sa pagpapasiya at pag...
 
Endüstri Dört - Katalog www.endustridort.com
Endüstri Dört - Katalog www.endustridort.comEndüstri Dört - Katalog www.endustridort.com
Endüstri Dört - Katalog www.endustridort.com
 
Contexto sena
Contexto sena  Contexto sena
Contexto sena
 
BABA CV 2017
BABA CV 2017BABA CV 2017
BABA CV 2017
 
mk
mkmk
mk
 
Updated CV - Usama finall
Updated CV - Usama finallUpdated CV - Usama finall
Updated CV - Usama finall
 
Party hall for rent
Party hall for rentParty hall for rent
Party hall for rent
 
Mini software deportes
Mini software deportesMini software deportes
Mini software deportes
 
LNG Penetration
LNG PenetrationLNG Penetration
LNG Penetration
 
Торговая идея - продажа сои
Торговая идея - продажа соиТорговая идея - продажа сои
Торговая идея - продажа сои
 

Similar a Apuntes ic4

Apuntes ingenieria control_cuarto_ingeniero_industrial
Apuntes ingenieria control_cuarto_ingeniero_industrialApuntes ingenieria control_cuarto_ingeniero_industrial
Apuntes ingenieria control_cuarto_ingeniero_industrialMarco Sains
 
Manual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitariosManual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitarioscspeirl2016
 
Gestión moderna del mantenimiento
Gestión moderna del mantenimientoGestión moderna del mantenimiento
Gestión moderna del mantenimientoRobert Almeyda
 
Manual ingeniero mantenimiento
Manual ingeniero mantenimientoManual ingeniero mantenimiento
Manual ingeniero mantenimientoGREAT PERU PERU
 
notas de análisis numerico
notas de análisis numericonotas de análisis numerico
notas de análisis numericoxino7
 
Libro programación-en-c++
Libro programación-en-c++Libro programación-en-c++
Libro programación-en-c++Andres Escobar
 
Introduccion a la_programacion_con_c
Introduccion a la_programacion_con_cIntroduccion a la_programacion_con_c
Introduccion a la_programacion_con_cAbefo
 
LIBRO DE CONTROL.pdf
LIBRO DE CONTROL.pdfLIBRO DE CONTROL.pdf
LIBRO DE CONTROL.pdfDavidGallo37
 
teoria_Simulacion.pdf
teoria_Simulacion.pdfteoria_Simulacion.pdf
teoria_Simulacion.pdfUGMA
 
SISTEMA DE INSPECCIÓN DE PANTÓGRAFOS MEDIANTE VISIÓN ARTIFICIAL
SISTEMA DE INSPECCIÓN DE PANTÓGRAFOS MEDIANTE VISIÓN ARTIFICIALSISTEMA DE INSPECCIÓN DE PANTÓGRAFOS MEDIANTE VISIÓN ARTIFICIAL
SISTEMA DE INSPECCIÓN DE PANTÓGRAFOS MEDIANTE VISIÓN ARTIFICIALÍcaro Álvarez Giménez
 
TesisCSP.pdf
TesisCSP.pdfTesisCSP.pdf
TesisCSP.pdfctarquino
 

Similar a Apuntes ic4 (20)

Apuntes ingenieria control_cuarto_ingeniero_industrial
Apuntes ingenieria control_cuarto_ingeniero_industrialApuntes ingenieria control_cuarto_ingeniero_industrial
Apuntes ingenieria control_cuarto_ingeniero_industrial
 
curso sistemas de control
curso sistemas de controlcurso sistemas de control
curso sistemas de control
 
Memoria
MemoriaMemoria
Memoria
 
CONTROLADORES
CONTROLADORESCONTROLADORES
CONTROLADORES
 
investigacion operativa
investigacion operativainvestigacion operativa
investigacion operativa
 
Teoriapto
TeoriaptoTeoriapto
Teoriapto
 
Manual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitariosManual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitarios
 
5 (1)
5 (1)5 (1)
5 (1)
 
Gestión moderna del mantenimiento
Gestión moderna del mantenimientoGestión moderna del mantenimiento
Gestión moderna del mantenimiento
 
Manual ingeniero mantenimiento
Manual ingeniero mantenimientoManual ingeniero mantenimiento
Manual ingeniero mantenimiento
 
Rarepaso
RarepasoRarepaso
Rarepaso
 
notas de análisis numerico
notas de análisis numericonotas de análisis numerico
notas de análisis numerico
 
Libro programación-en-c++
Libro programación-en-c++Libro programación-en-c++
Libro programación-en-c++
 
Introduccion a la_programacion_con_c
Introduccion a la_programacion_con_cIntroduccion a la_programacion_con_c
Introduccion a la_programacion_con_c
 
LIBRO DE CONTROL.pdf
LIBRO DE CONTROL.pdfLIBRO DE CONTROL.pdf
LIBRO DE CONTROL.pdf
 
teoria_Simulacion.pdf
teoria_Simulacion.pdfteoria_Simulacion.pdf
teoria_Simulacion.pdf
 
Documento_Diaz_de_Argandona_Ignacio
Documento_Diaz_de_Argandona_IgnacioDocumento_Diaz_de_Argandona_Ignacio
Documento_Diaz_de_Argandona_Ignacio
 
SISTEMA DE INSPECCIÓN DE PANTÓGRAFOS MEDIANTE VISIÓN ARTIFICIAL
SISTEMA DE INSPECCIÓN DE PANTÓGRAFOS MEDIANTE VISIÓN ARTIFICIALSISTEMA DE INSPECCIÓN DE PANTÓGRAFOS MEDIANTE VISIÓN ARTIFICIAL
SISTEMA DE INSPECCIÓN DE PANTÓGRAFOS MEDIANTE VISIÓN ARTIFICIAL
 
TesisCSP.pdf
TesisCSP.pdfTesisCSP.pdf
TesisCSP.pdf
 
Scd 13-14 todo
Scd 13-14 todoScd 13-14 todo
Scd 13-14 todo
 

Último

SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxinformacionasapespu
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxlclcarmen
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdfgimenanahuel
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxlclcarmen
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosCesarFernandez937857
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 

Último (20)

Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf
 
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptxSINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
SINTAXIS DE LA ORACIÓN SIMPLE 2023-2024.pptx
 
Informatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos BásicosInformatica Generalidades - Conceptos Básicos
Informatica Generalidades - Conceptos Básicos
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 

Apuntes ic4

  • 1. Depto. de Ingenier´ıa de Sistemas y Autom´atica APUNTES DE INGENIER´IA DE CONTROL AN´ALISIS Y CONTROL DE SISTEMAS EN ESPACIO DE ESTADO IDENTIFICACI´ON DE SISTEMAS CONTROL ADAPTATIVO CONTROL PREDICTIVO Daniel Rodr´ıguez Ram´ırez Carlos Bord´ons Alba Rev. 5/05/2005
  • 2.
  • 3. ´Indice general Lista de figuras IX 1. Control de sistemas discretos en el espacio de estados 1 1.1. Representaci´on de sistemas discretos en el espacio de estados . . . . . . 1 1.2. Obtenci´on de la representaci´on de en espacio de estados de sistemas discretos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2.1. M´etodo de programaci´on directa . . . . . . . . . . . . . . . . . . 3 1.2.2. M´etodo de programaci´on anidada . . . . . . . . . . . . . . . . . 5 1.3. La representaci´on en espacio de estados de un sistema no es ´unica . . . 6 1.4. Resoluci´on de las ecuaciones del espacio de estados . . . . . . . . . . . 7 1.4.1. Procedimiento recursivo . . . . . . . . . . . . . . . . . . . . . . 7 1.4.2. Matriz de transici´on de estados . . . . . . . . . . . . . . . . . . 8 1.4.3. M´etodo basado en la transformada Z . . . . . . . . . . . . . . . 9 1.4.3.1. Procedimiento alternativo para calcular (zI − G)−1 . . 10 1.5. Discretizaci´on de las ecuaciones de estado continuas . . . . . . . . . . . 12 1.6. Controlabilidad y Observabilidad . . . . . . . . . . . . . . . . . . . . . 15 i
  • 4. ii ´INDICE GENERAL 1.6.1. Controlabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.6.2. Controlabilidad de la salida completa . . . . . . . . . . . . . . . 17 1.6.3. Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.6.4. Principio de Dualidad . . . . . . . . . . . . . . . . . . . . . . . 19 1.7. Transformaci´on de un sistema en formas can´onicas . . . . . . . . . . . 19 1.7.1. Obtenci´on de la forma can´onica controlable . . . . . . . . . . . 20 1.7.2. Obtenci´on de la forma can´onica observable . . . . . . . . . . . . 20 1.8. Colocaci´on de polos mediante realimentaci´on del vector de estados . . . 21 1.8.1. Condici´on necesaria y suficiente para la colocaci´on arbitraria de polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.8.2. Procedimientos para calcular K . . . . . . . . . . . . . . . . . . 22 1.8.2.1. Procedimiento alternativo: la f´ormula de Ackermann . 24 1.8.3. Control Dead-Beat . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.9. Observadores del estado . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.9.1. Procedimiento iterativo para la estimaci´on del estado . . . . . . 28 1.9.2. Observador del estado completo . . . . . . . . . . . . . . . . . . 30 1.9.2.1. C´alculo de Ke . . . . . . . . . . . . . . . . . . . . . . . 32 1.9.2.2. Comentarios acerca del papel de Ke . . . . . . . . . . 34 1.9.2.3. Efectos de la adici´on del observador . . . . . . . . . . . 35 1.9.3. Observador de orden m´ınimo . . . . . . . . . . . . . . . . . . . . 36 1.10. Control ´optimo LQR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
  • 5. ´INDICE GENERAL iii 1.10.1. Soluci´on de la ecuaci´on de Riccatti . . . . . . . . . . . . . . . . 43 1.11. Filtro de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 2. Modelos de procesos y perturbaciones 45 2.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.2. Perturbaciones deterministas a trozos . . . . . . . . . . . . . . . . . . . 46 2.3. Procesos estoc´asticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 2.4. Modelos de procesos con ruidos . . . . . . . . . . . . . . . . . . . . . . 48 3. Introducci´on a la identificaci´on de sistemas 51 3.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.2. Ideas b´asicas sobre identificaci´on de sistemas . . . . . . . . . . . . . . . 52 3.2.1. Planificaci´on de los experimentos . . . . . . . . . . . . . . . . . 52 3.2.2. Selecci´on del tipo de modelo . . . . . . . . . . . . . . . . . . . . 53 3.2.3. Elecci´on de un criterio . . . . . . . . . . . . . . . . . . . . . . . 54 3.2.4. Estimaci´on de los par´ametros . . . . . . . . . . . . . . . . . . . 54 3.2.4.1. Identificaci´on en l´ınea . . . . . . . . . . . . . . . . . . 54 3.2.4.2. Identificaci´on fuera de l´ınea . . . . . . . . . . . . . . . 55 3.2.5. Validaci´on del modelo . . . . . . . . . . . . . . . . . . . . . . . 55 3.2.6. Resumen del proceso de identificaci´on . . . . . . . . . . . . . . . 57 3.3. Algunas propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
  • 6. iv ´INDICE GENERAL 3.3.1. Excitaci´on persistente . . . . . . . . . . . . . . . . . . . . . . . 58 3.3.2. Convergencia e identificabilidad . . . . . . . . . . . . . . . . . . 59 3.3.2.1. Identificaci´on en bucle cerrado . . . . . . . . . . . . . . 60 3.3.3. Niveles de supervisi´on y acondicionamiento . . . . . . . . . . . . 62 4. Identificaci´on por m´ınimos cuadrados 63 4.1. El m´etodo de los m´ınimos cuadrados . . . . . . . . . . . . . . . . . . . 63 4.2. Algoritmo recursivo para identificaci´on en linea . . . . . . . . . . . . . 65 4.3. Interpretaci´on estad´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.4. M´ınimos cuadrados ponderados . . . . . . . . . . . . . . . . . . . . . . 70 4.5. M´ınimos cuadrados extendidos y generalizados . . . . . . . . . . . . . . 71 4.6. Estimaci´on de los valores de continua . . . . . . . . . . . . . . . . . . . 72 4.6.1. Utilizaci´on de los incrementos de las variables . . . . . . . . . . 73 4.6.2. C´alculo de los valores medios . . . . . . . . . . . . . . . . . . . 73 4.6.3. Estimaci´on de una constante . . . . . . . . . . . . . . . . . . . . 73 4.7. Importancia del orden del modelo . . . . . . . . . . . . . . . . . . . . . 74 4.8. Identificaci´on de sistemas con retardo o no lineales . . . . . . . . . . . . 77 4.9. Consideraciones finales . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 5. Introducci´on al control adaptativo 81 5.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . . 81
  • 7. ´INDICE GENERAL v 5.1.1. Clasificaci´on grosso modo de los sistemas de control adaptativo . 82 5.2. Justificaci´on del uso de control adaptativo . . . . . . . . . . . . . . . . 84 5.3. Control adaptativo por modelo de referencia (MRAC) . . . . . . . . . . 87 5.3.1. La regla del MIT . . . . . . . . . . . . . . . . . . . . . . . . . . 89 6. Reguladores Autoajustables (STR) 93 6.1. Introducci´on. Estructura general de los STR . . . . . . . . . . . . . . . 93 6.1.1. Algoritmos con estructura impl´ıcita y expl´ıcita . . . . . . . . . . 95 6.2. Control por M´ınima Varianza . . . . . . . . . . . . . . . . . . . . . . . 96 6.2.1. El regulador de m´ınima varianza generalizado . . . . . . . . . . 99 6.3. Asignaci´on de polos y ceros . . . . . . . . . . . . . . . . . . . . . . . . 100 6.3.1. Algoritmo con estructura impl´ıcita. . . . . . . . . . . . . . . . . 103 6.3.2. Algoritmo con estructura expl´ıcita . . . . . . . . . . . . . . . . . 104 7. Controladores PID con autoajuste y Ajuste por tabla 105 7.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 7.2. Funci´on de autoajuste (autotuning) . . . . . . . . . . . . . . . . . . . . 105 7.3. Funciones de autoajuste para PIDs . . . . . . . . . . . . . . . . . . . . 107 7.3.1. T´ecnicas de ajuste basadas en la respuesta transitoria . . . . . . 108 7.3.2. M´etodos basados en las oscilaciones producidas al realimentar con un rel´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 7.4. La t´ecnica de ajuste por tabla o gain scheduling . . . . . . . . . . . . . 110
  • 8. vi ´INDICE GENERAL 7.5. Controladores adaptativos industriales . . . . . . . . . . . . . . . . . . 113 7.5.1. SattControl ECA40 y Fisher-Rosemount DPR900 . . . . . . . . 115 7.5.2. Foxboro EXACT . . . . . . . . . . . . . . . . . . . . . . . . . . 115 7.5.3. ABB Novatune . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 8. Control Predictivo Basado en Modelo (MPC) 117 8.1. Perspectiva hist´orica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 8.2. Conceptos b´asicos de control predictivo . . . . . . . . . . . . . . . . . . 118 8.3. Estrategia de los controladores predictivos . . . . . . . . . . . . . . . . 119 8.4. Elementos b´asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 8.4.1. Modelo de predicci´on . . . . . . . . . . . . . . . . . . . . . . . . 122 8.4.1.1. Respuestas libre y forzada . . . . . . . . . . . . . . . . 125 8.4.2. Funci´on objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . 126 8.4.3. Obtenci´on de la ley de control . . . . . . . . . . . . . . . . . . . 129 8.5. Revisi´on de los principales algoritmos . . . . . . . . . . . . . . . . . . . 130 8.5.0.1. Dynamic Matrix Control . . . . . . . . . . . . . . . . . 130 8.5.0.2. Model Algorithmic Control . . . . . . . . . . . . . . . 131 8.5.0.3. Predictive Functional Control . . . . . . . . . . . . . . 131 8.5.0.4. Extended Prediction Self Adaptive Control . . . . . . 132 8.5.0.5. Extended Horizon Adaptive Control . . . . . . . . . . 133 8.5.0.6. Generalized Predictive Control . . . . . . . . . . . . . 134
  • 9. ´INDICE GENERAL vii 9. Controladores predictivos 135 9.1. Dynamic Matrix Control . . . . . . . . . . . . . . . . . . . . . . . . . . 135 9.1.1. Predicci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 9.1.2. Perturbaciones medibles . . . . . . . . . . . . . . . . . . . . . . 137 9.1.3. Algoritmo de control . . . . . . . . . . . . . . . . . . . . . . . . 138 9.1.3.1. El caso con restricciones . . . . . . . . . . . . . . . . . 140 9.1.3.2. Extensi´on al caso multivariable . . . . . . . . . . . . . 141 9.2. Control Predictivo Generalizado . . . . . . . . . . . . . . . . . . . . . . 141 9.2.1. Formulaci´on del Control Predictivo Generalizado . . . . . . . . 142 9.2.1.1. Predicci´on ´optima . . . . . . . . . . . . . . . . . . . . 143 9.2.1.2. Obtenci´on de la ley de control . . . . . . . . . . . . . . 146 9.2.2. Ejemplo de c´alculo . . . . . . . . . . . . . . . . . . . . . . . . . 147 9.2.3. Caso multivariable . . . . . . . . . . . . . . . . . . . . . . . . . 149 10.Otros aspectos del Control Predictivo 151 10.1. Restricciones en Control Predictivo . . . . . . . . . . . . . . . . . . . . 151 10.1.1. Tratamiento convencional de restricciones . . . . . . . . . . . . 151 10.1.2. Restricciones en Control Predictivo . . . . . . . . . . . . . . . . 153 10.1.3. Resoluci´on del problema . . . . . . . . . . . . . . . . . . . . . . 155 10.1.4. Gesti´on de restricciones . . . . . . . . . . . . . . . . . . . . . . 156 10.1.4.1. T´ecnicas de b´usqueda de soluciones factibles . . . . . . 157
  • 11. ´Indice de figuras 1.1. Diagrama de bloques de la representaci´on en espacio de estados de un sistema LTI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2. Diagrama de bloques de un sistema controlado por una realimentaci´on del vector de estados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.3. Diagrama de bloques de un sistema LTI controlado mediante una reali- mentaci´on del vector de estados que estima el estado con un observador. 31 1.4. Diagrama de bloques de un observador de orden completo. . . . . . . . 31 2.1. Procesos estoc´asticos: realizaciones y variables aleatorias. . . . . . . . 47 2.2. Modelo de Box-Jenkins. . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.1. Esquema de la identificaci´on en l´ınea. . . . . . . . . . . . . . . . . . . 55 3.2. Diagrama de flujo del proceso de identificaci´on. . . . . . . . . . . . . . 57 3.3. Ejemplo de se˜nal de entrada del tipo PRBSS. . . . . . . . . . . . . . . 59 4.1. Diagrama de flujo del proceso de identificaci´on mediante m´ınimos cuadra- dos recursivos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.2. Diagrama de Bode de un sistema de segundo orden (linea continua) y de un modelo de primer orden estimado para una entrada senoidal de frecuencia ω = 0,2 rad × s−1 . . . . . . . . . . . . . . . . . . . . . . . . 75 ix
  • 12. x ´INDICE DE FIGURAS 4.3. Misma situaci´on que en la figura 4.2 pero con una se˜nal de entrada senoidal de frecuencia ω = 1 rad × s−1 . . . . . . . . . . . . . . . . . . . 75 4.4. Evoluci´on de los par´ametros identificados en un caso de sobreparametrizaci´on. 76 4.5. Evoluci´on de unos par´ametros frente a otros para el modelo sobreparametriza- do. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 5.1. Configuraci´on gen´erica de un controlador adaptativo. . . . . . . . . . . 82 5.2. Sistema realimentado con actuador con caracter´ıstica v = f(u). . . . . 84 5.3. Sistema realimentado con actuador con caracter´ıstica v = f(u). . . . . 85 5.4. Respuestas en bucle abierto (izquierda) y cerrado (derecha) del sistema dado en (5.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.5. Respuestas en bucle abierto (izquierda) y cerrado (derecha) del sistema dado en (5.2). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.6. Configuraci´on gen´erica de un controlador adaptativo por modelo de re- ferencia (MRAC). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 6.1. Configuraci´on gen´erica de un regulador o controlador autoajustable. . 94 6.2. Configuraci´on gen´erica de un regulador o controlador autoajustable. . 95 6.3. Divisi´on de polinomios para el ejemplo 6.2. . . . . . . . . . . . . . . . 99 6.4. Estructura para la asignaci´on de polos y ceros. . . . . . . . . . . . . . 101 7.1. PID industrial moderno con funci´on de autoajuste (ABB modelo ECA). 107 7.2. Determinaci´on de T y L por ´areas. . . . . . . . . . . . . . . . . . . . . 109 7.3. Estructura usada en el m´etodo basado en oscilaciones de rel´e. . . . . . 110
  • 13. ´INDICE DE FIGURAS xi 7.4. Configuraci´on gen´erica de un controlador adaptativo con adaptaci´on en bucle abierto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 7.5. Curva de pH para una soluci´on de HCl 0.001 M y NaOH 0.001 M. . . 112 7.6. Caracter´ıstica aproximada de una sonda lambda . . . . . . . . . . . . 113 7.7. La herramienta Novatune se comercializa actualmente con el sistema Advant 410 de ABB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 8.1. Estrategia del Control Predictivo . . . . . . . . . . . . . . . . . . . . . 120 8.2. Estructura b´asica del MPC . . . . . . . . . . . . . . . . . . . . . . . . . 121 8.3. Respuesta impulsional y ante escal´on . . . . . . . . . . . . . . . . . . . 123 8.4. Respuestas libre y forzada . . . . . . . . . . . . . . . . . . . . . . . . . 126 8.5. Trayectoria de referencia . . . . . . . . . . . . . . . . . . . . . . . . . . 128 8.6. Puntos de coincidencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 9.1. Ley de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 9.2. Punto de operaci´on ´optimo de un proceso t´ıpico . . . . . . . . . . . . . 140 10.1. Restricciones y punto de operaci´on ´optimo . . . . . . . . . . . . . . . . 152 10.2. Restricciones en la se˜nal de control . . . . . . . . . . . . . . . . . . . . 153 10.3. Gesti´on de restricciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
  • 14. xii ´INDICE DE FIGURAS
  • 15. Cap´ıtulo 1 Control de sistemas discretos en el espacio de estados 1.1. Representaci´on de sistemas discretos en el es- pacio de estados El m´etodo de espacio de estados est´a basado en la descripci´on del sistema mediante n ecuaciones en diferencias, que se agrupan en una ecuaci´on vectorial matricial en diferencias. Definici´on 1.1 Concepto de estado: El estado de un sistema din´amico es el con- junto m´as peque˜no de variables (llamadas variables de estado) tal que, el conocimiento de esas variables en un determinado instante t0 junto con el conocimiento de los valores de la se˜nal de entrada para los instantes t ≥ t0, permite determinar el comportamiento y evoluci´on del sistema para cualquier instante de tiempo t ≥ t0. Las variables de estado se agrupan en el llamado vector de estado y el espacio n- dimensional que determinan los posibles valores de esas variables, se denomina espacio de estados. La din´amica de un sistema se puede describir en funci´on del valor del vector de estados y de la se˜nal de entrada (asumiendo que el sistema es no aut´onomo mediante 1
  • 16. 2OBTENCI ´ON DE LA REPRESENTACI ´ON DE EN ESPACIO DE ESTADOS DE SISTEMAS DISCRETOS unas ecuaciones que tendr´an la forma: x(k + 1) = f(x(k), u(k), k) y(k) = g(x(k), u(k), k) donde la notaci´on ξ(k) indica el valor tomado por ξ en el instante de tiempo tk y f y g pueden ser cualquier tipo de funci´on. No obstante en esta asignatura nos centraremos en los Sistemas Lineales e Invariantes en el tiempo (LTI). Este tipo de sistemas son descritos mediante las siguientes ecuaciones: x(k + 1) = Gx(k) + Hu(k) (1.1) y(k) = Cx(k) + Du(k) que corresponder´ıan al diagrama de bloques: x(k+1) + + D H u(k) z-1  C G + + x(k) Figura 1.1: Diagrama de bloques de la representaci´on en espacio de estados de un sistema LTI. 1.2. Obtenci´on de la representaci´on de en espacio de estados de sistemas discretos Partiremos de un sistema discreto descrito por: y(k)+a1y(k−1)+a2y(k−2)+· · ·+any(k−n) = b0u(k)+b1u(k−1)+· · ·+bnu(k−n) (1.2) Es bien conocido de anteriores temas de la asignatura que este sistema puede ser descrito por la siguiente funci´on de transferencia: G(z) = Y (z) U(z) = b0 + b1z−1 + b2z−2 + · · · + bnz−n 1 + a1z−1 + a2z−2 + · · · + anz−n (1.3) A continuaci´on se expondr´an dos de los m´etodos disponibles para obtener la repre- sentaci´on en espacio de estados del sistema descrito por (1.3).
  • 17. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 3 1.2.1. M´etodo de programaci´on directa Parte de la premisa que la funci´on de transferencia (1.3) puede reescribirse como: G(z) = b0 + (b1 − a1b0)z−1 + (b2 − a2b0)z−2 + · · · + (bn − anb0)z−n 1 + a1z−1 + a2z−2 + · · · + anz−n (1.4) teniendo en cuenta que G(z) = Y (z) U(z) se obtiene: Y (z) = b0U(z) + (b1 − a1b0)z−1 + (b2 − a2b0)z−2 + · · · + (bn − anb0)z−n 1 + a1z−1 + a2z−2 + · · · + anz−n U(z) (1.5) que a su vez se puede expresar como: Y (z) = b0U(z) + ˜Y (z)U(z) (1.6) con: ˜Y (z) = (b1 − a1b0)z−1 + (b2 − a2b0)z−2 + · · · + (bn − anb0)z−n 1 + a1z−1 + a2z−2 + · · · + anz−n (1.7) Por otra parte, teniendo en cuenta la expresi´on de ˜Y (z) se puede definir un Q(z) que cumple que: Q(z) = ˜Y (z) (b1 − a1b0)z−1 + · · · + (bn − anb0)z−n = U(z) 1 + a1z−1 + · · · + anz−n (1.8) De ah´ı se obtiene que: Q(z) = −a1z−1 Q(z) − a2z−2 Q(z) − · · · − anz−n Q(z) + U(z) (1.9) ˜Y (z) = (b1 − a1b0)z−1 Q(z) + (b2 − a2b0)z−2 Q(z) + · · · + (bn − anb0)z−n Q(z) (1.10) A continuaci´on se eligen las variables de estado como: X1(z) = z−n Q(z) (1.11) X2(z) = z−(n−1) Q(z) · · · Xn(z) = z−1 Q(z) lo que teniendo en cuenta las propiedades de la transformada Z, implica que: zX1(z) = X2(z) zX2(z) = X3(z) · · · zXn−1(z) = Xn(z)
  • 18. 4OBTENCI ´ON DE LA REPRESENTACI ´ON DE EN ESPACIO DE ESTADOS DE SISTEMAS DISCRETOS lo que a su vez equivale a: x1(k + 1) = x2(k) (1.12) x2(k + 1) = x3(k) · · · xn−1(k + 1) = xn(k) N´otese que seg´un la ´ultima igualdad de (1.11) se tiene que Q(z) = zXn(z), luego teniendo en cuenta esto y el resto de las igualdades de (1.11) podemos reescribir la expresi´on de Q(z) en (1.9) como: zXn(z) = −a1Xn(z) − a2Xn−1(z) − · · · − anX1(z) + U(z) (1.13) o lo que es lo mismo: xn(k + 1) = −anx1(k) − an−1x2(k) − · · · − a1xn(k) + u(k) (1.14) De esta manera y si tenemos en cuenta (1.12) obtenemos la siguiente expresi´on de la ecuaci´on de estado:        x1(k + 1) x2(k + 1) ... xn−1(k + 1) xn(k + 1)        =        0 1 0 · · · 0 0 0 1 · · · 0 ... ... ... ... 0 0 0 · · · 1 −an −an−1 −an−2 · · · −a1               x1(k) x2(k) ... xn−1(k) xn(k)        +        0 0 ... 0 1        u(k) (1.15) Por otra parte, podemos reescribir tambi´en (1.10) teniendo en cuenta las igualdades de (1.11) de manera que: ˜Y (z) = (b1 − a1b0)Xn(z) + (b2 − a2b0)Xn−1(z) + · · · + (bn − anb0)X1(z) (1.16) Esto se puede llevar a la ecuaci´on (1.6) de manera que antitransformando se obtiene: y(k) = (bn −anb0)x1(k)+(bn−1 −an−1b0)x2(k)+· · ·+(b1 −a1b0)xn(k)+b0u(k) (1.17) lo cual se puede escribir como: y(k) = bn − anb0 bn−1 − an−1b0 · · · b1 − a1b0        x1(k) x2(k) ... xn−1(k) xn(k)        + b0u(k) (1.18) Las ecuaciones (1.15) y (1.18) forman una representaci´on en espacio de estados del sistema descrito por la funci´on de transferencia (1.3) que se denomina forma can´onica controlable.
  • 19. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 5 1.2.2. M´etodo de programaci´on anidada En este caso se parte de que de la funci´on de transferencia (1.3) se obtiene la siguiente ecuaci´on: Y (z) − b0U(z) + z−1 (a1Y (z) − b1U(z)) + · · · + z−n (anY (z) − bnU(z)) = 0 (1.19) que a su vez se puede reescribir como: Y (z) = b0U(z) + z−1 b1U(z) − a1Y (z) + z−1 (b2U(z) − a2Y (z) (1.20) +z−1 (b3U(z) − a3Y (z) + · · ·) Teniendo en cuenta esto se definen las siguientes variables de estado: Xn(z) = z−1 (b1U(z) − a1Y (z) + Xn−1(z)) (1.21) Xn−1(z) = z−1 (b2U(z) − a2Y (z) + Xn−2(z)) ... X2(z) = z−1 (bn−1U(z) − an−1Y (z) + X1(z)) X1(z) = z−1 (bnU(z) − anY (z)) N´otese que seg´un esta definici´on de las variables de estado la expresi´on (1.20) se puede reescribir en forma condensada como: Y (z) = b0U(z) + Xn(z) (1.22) Sustituyendo esta expresi´on en la definici´on de las variables de estado (1.21) y multi- plicando por z en ambos lados de cada igualdad se obtiene: zXn(z) = Xn−1(z) − a1Xn(z) + (b1 − a1b0)U(z) zXn−1(z) = Xn−2(z) − a2Xn(z) + (b2 − a2b0)U(z) ... zX2(z) = X1(z) − an−1Xn(z) + (bn−1 − an−1b0)U(z) zX1(z) = −anXn(z) + (bn − anb0)U(z) Antitransformando lo anterior: x1(k + 1) = −anxn(k) + (bn − anb0)u(k) (1.23) x2(k + 1) = x1(k) − an−1xn(k) + (bn−1 − an−1b0)u(k) ... xn−1(k + 1) = xn−2(k) − a2xn(k) + (b2 − a2b0)u(k) xn(k + 1) = xn−1(k) − a1xn(k) + (b1 − a1b0)u(k)
  • 20. 6 LA REPRESENTACI ´ON EN ESPACIO DE ESTADOS DE UN SISTEMA NO ES ´UNICA Antitransformando tambi´en la expresi´on (1.22) se obtiene: y(k) = xn(k) + b0u(k) (1.24) Finalmente, agrupando las dos expresiones anteriores se obtiene:        x1(k + 1) x2(k + 1) ... xn−1(k + 1) xn(k + 1)        =        0 0 · · · 0 0 −an 1 0 · · · 0 0 −an−1 ... ... ... ... ... 0 0 · · · 1 0 −a2 0 0 · · · 0 1 −a1               x1(k) x2(k) ... xn−1(k) xn(k)        +        bn − anb0 bn−1 − an−1b0 ... b2 − a2b0 b1 − a1b0        u(k) y(k) = 0 0 · · · 0 1        x1(k) x2(k) ... xn−1(k) xn(k)        + b0u(k) (1.25) A esta representaci´on en espacio de estados del sistema descrito por la funci´on de transferencia (1.3) se la denomina forma can´onica observable. 1.3. La representaci´on en espacio de estados de un sistema no es ´unica Se ha comprobado que a un mismo sistema descrito por su funci´on de transferencia le corresponden, al menos, dos representaciones en espacio de estado distintas. De hecho, la representaci´on en espacio de estados de un sistema no es ´unica. Por ejemplo, podemos tomar otras variables de estado que describan la din´amica del sistema que sean a su vez combinaciones lineales de las variables de estado originales, o considerar que ´estas son a su vez combinaciones lineales de otras. Dicho de otro modo, dado un sistema LTI como el descrito en (1.1) podemos considerar que el vector de estado x(k) est´a relacionado con otro vector ˜x(k) con variables de estado distintas mediante una transformaci´on: x(k) = P ˜x(k) (1.26) donde P es una matriz invertible. Esto se puede llevar a la ecuaci´on de estado del sistema de manera que obtendr´ıamos: P ˜x(k + 1) = GP ˜x(k) + Hu(k) Premultiplicando por P−1 : ˜x(k + 1) = P−1 GP ˜x(k) + P−1 Hu(k)
  • 21. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 7 por lo que la ecuaci´on de estado se puede expresar como: ˜x(k + 1) = ˜G˜x(k) + ˜Hu(k) (1.27) con ˜G = P−1 GP y ˜H = P−1 H. De la misma manera la ecuaci´on, de la salida del sistema se puede expresar como: y(k) = ˜C˜x(k) + ˜Du(k) (1.28) con ˜C = CP y ˜D = D. As´ı pues, las ecuaciones (1.27) y (1.28) describen una repre- sentaci´on del sistema en espacio de estados que es diferente de la original pero equiva- lente a ella1 . 1.4. Resoluci´on de las ecuaciones del espacio de es- tados En esta secci´on se trata el tema de la resoluci´on de las ecuaciones de estado. Es decir, se presentar´an procedimientos para obtener el valor del vector de estado para un determinado instante de tiempo k > 0 a partir del valor de x(0), es decir, del valor inicial del vector de estados. 1.4.1. Procedimiento recursivo Iterando las ecuaciones del estado para un sistema LTI como (1.1) a partir de k = 0: x(1) = Gx(0) + Hu(0) x(2) = Gx(1) + Hu(1) = G2 x(0) + GHu(0) + Hu(1) x(3) = Gx(2) + Hu(2) = G3 x(0) + G2 Hu(0) + GHu(1) + Hu(2) ... generalizando para cualquier k > 0: x(k) = Gk x(0) + k−1 j=0 Gk−j−1 Hu(j) (1.29) 1 Obs´ervese que en la ecuaci´on (1.28) el estado aparece con ˜, indicando que el vector de estados es diferente al original. La salida sin embargo si coincide con la del sistema original pues ambas representaciones son equivalentes.
  • 22. 8 RESOLUCI ´ON DE LAS ECUACIONES DEL ESPACIO DE ESTADOS Obs´ervese que x(k) depende del estado inicial y de los valores de la entrada. Por otra parte, la salida se puede expresar como: y(k) = CGk x(0) + C k−1 j=0 Gk−j−1 Hu(j) + Du(k) (1.30) 1.4.2. Matriz de transici´on de estados Consid´erese la ecuaci´on: x(k + 1) = Gx(k) (1.31) En este caso, al no tener se˜nal de entrada la soluci´on de la ecuaci´on viene dada por: x(k) = Ψ(k)x(0) con: Ψ(k + 1) = GΨ(k) Ψ(0) = I es decir: Ψ(k) = Gk A Ψ(k) se le llama la matriz de transici´on de estados y contiene toda la informaci´on sobre los movimientos libres del sistema descrito por (1.31). Estos movimientos libres se refieren a los cambios de estado o evoluci´on del estado del sistema en ausencia de entrada. En t´erminos de Ψ(k) la soluci´on de la ecuaci´on de estados para el sistema (1.1) viene dada por: x(k) = Ψ(k)x(0) + k−1 j=0 Ψ(k − j − 1)Hu(j) (1.32) = Ψ(k)x(0) + k−1 j=0 Ψ(j)Hu(k − j − 1) lo que lleva a: y(k) = CΨ(k)x(0) + C k−1 j=0 Ψ(j)Hu(k − j − 1) + Du(k) (1.33)
  • 23. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 9 1.4.3. M´etodo basado en la transformada Z Aplicando la transformada Z a ambos lados de la ecuaci´on de estados del sistema (1.1) se obtiene: zX(z) − zx(0) = GX(z) + HU(z) y de ah´ı: (zI − G)X(z) = zx(0) + HU(Z) Premultiplicando por (zI − G)−1 : X(z) = (zI − G)−1 zx(0) + (zI − G)−1 HU(Z) y antitransformando: x(k) = Z−1 (zI − G)−1 z x(0) + Z−1 (zI − G)−1 HU(z) Esta ecuaci´on la podemos comparar con la soluci´on mediante el procedimiento recursivo indicado en la ecuaci´on (1.29), e identificando t´erminos tenemos que: Gk = Z−1 (zI − G)−1 z y k−1 j=0 Gk−j−1 Hu(j) = Z−1 (zI − G)−1 HU(z) (1.34) La dificultad de este m´etodo consiste en realizar la transformada Z de las expresiones anteriores. Para ilustrar el procedimiento consid´erese el siguiente ejemplo: Ejemplo 1.1 Dado un sistema LTI como (1.1) con: G = 0 1 −0,16 −1 H = 1 1 C = 1 0 Se pide calcular Ψ(k) = GK = Z−1 {(zI − G)−1 z}. En primer lugar calculamos: (zI − G)−1 = z −1 0,16 z + 1 = z+1 (z+0,2)(z+0,8) 1 (z+0,2)(z+0,8) −0,16 (z+0,2)(z+0,8) z (z+0,2)(z+0,8) = 4 3 1 z+0,2 − 1 3 1 z+0,8 5 3 1 z+0,2 − 5 3 1 z+0,8 −0,8 3 1 z+0,2 + 0,8 3 1 z+0,8 −1 3 1 z+0,2 + 4 3 1 z+0,8 (1.35)
  • 24. 10 RESOLUCI ´ON DE LAS ECUACIONES DEL ESPACIO DE ESTADOS Multiplicando lo anterior por z y antitransformando se obtiene: Ψ(k) = Gk = Z−1 (zI − G)−1 z = 4 3 (−0,2)k − 1 3 (−0,8)k 5 3 (−0,2)k − 5 3 (−0,8)k −0,8 3 (−0,2)k + 0,8 3 (−0,8)k −1 3 (−0,2)k + 4 3 (−0,8)k (1.36) El ejemplo se puede completar resolviendo completamente la ecuaci´on de estado y la de la salida para una se˜nal de entrada dada por: u(k) = 1 k = 0, 1, 2, · · · x(0) = 1 −1 Teniendo en cuenta la transformada Z de la entrada (escal´on unitario) y que se sabe que: X(z) = (zI − G)−1 [zx(0) + HU(z)] se calcula: zx(0) + HU(z) = z −z + z z−1 z z−1 = z2 z−1 −z2+2z z−1 que premultiplicado por el resultado de la ecuaci´on (1.35) lleva a: X(z) = − 17 6 z z+0,2 + 22 9 z z+0,8 + 25 18 z z−1 3,4 6 z z+0,2 + − 17,6 9 z z+0,8 + 7 18 z z−1 y de ahi, antitransformando: x(k) = −17 6 (−0,2)k + 22 9 (−0,8)k + 25 18 3,4 6 (−0,2)k − 17,6 9 (−0,8)k + 7 18 Finalmente la ecuaci´on de salida ser´a: y(k) = 1 0 x(k) = − 17 6 (−0,2)k + 22 9 (−0,8)k + 25 18 1.4.3.1. Procedimiento alternativo para calcular (zI − G)−1 Se observa en el ejemplo 1.1 que gran parte del c´alculo se emplea en calcular (zI − G)−1 . Esto puede ser muy engorroso cuando el orden de las matrices involucradas es superior a 3. A continuaci´on se detalla un procedimiento alternativo para esos casos. En primer lugar es conocido que, por definici´on de matriz inversa: (zI − G)−1 = Adj(zI − G) |zI − G|
  • 25. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 11 donde ((Adj)) indica la matriz adjunta. El determinante |zI − G| se puede expresar como: |zI − G| = zn + a1zn−1 + a2zn−2 + · · · + an Por otra parte se puede demostrar que: Adj(zI − G) = Izn−1 + H1zn−2 + H2zn−3 + · · · + Hn−1 donde las matrices Hi se calculan mediante: H1 = G + a1I H2 = GH1 + a2I ... Hn−1 = GHn−1 + an−1I Hn = GHn−1 + anI = 0 y los ai se calculan a su vez como: a1 = −traza(G) a2 = − 1 2 traza(GH1) a3 = − 1 3 traza(GH2) ... an = − 1 n traza(GHn−1) Ejemplo 1.2 A continuaci´on se calcular´a la inversa de (zI − G) para el ejemplo 1.1 mediante este procedimiento alternativo. Dado que el orden de la matriz es n = 2, se tiene que: |zI − G| = z2 + a1z + a2 Adj(zI − G) = Iz + H1 donde: a1 = −traza(G) a2 = −1 2 traza(GH1) H1 = G + a1I La traza de G es igual a 1, luego a1 = 1 y de ah´ı se obtiene que H1 = G + I, con lo que se puede calcular: a2 = − 1 2 traza 0 1 −0,16 −1 1 1 −0,16 0 = 0,16
  • 26. 12 DISCRETIZACI ´ON DE LAS ECUACIONES DE ESTADO CONTINUAS con lo que se obtiene: Adj(zI − G) = Iz + 1 1 −0,16 0 = z + 1 1 −0,16 z |zI −G| = z2 +z+0,16 = (z+0,2)(z+0,8) Finalmente: (zI − G)−1 = z + 1 1 −0,16 z (z + 0,2)(z + 0,8) que evidentemente es el mismo resultado obtenido en el ejemplo 1.1. 1.5. Discretizaci´on de las ecuaciones de estado con- tinuas En esta secci´on veremos c´omo se puede pasar de un modelo en espacio de estado continuo a discreto. Se partir´a de un sistema lineal e invariante en el tiempo continuo: ˙x = Ax + Bu y = Cx + Du (1.37) Supondremos que la entrada s´olo cambia en ciertos instantes igualmente espaciados en el tiempo, es decir, s´olo puede cambiar en t = kT, para k = 0, 1, 2, · · ·. Al discretizar la ecuaci´on de estado ´esta tomar´a la forma: x((k + 1)T) = G(T)x(kT) + H(T)u(kT) (1.38) donde puede observarse que las matrices G y H dependen del tiempo de muestreo T. Para determinar el valor de G(T) y H(T) usaremos la soluci´on de la ecuaci´on de estado en tiempo continuo: x(t) = eAt x(0) + eAt t 0 e−Aτ Bu(τ)dτ (1.39) Supondremos que la entrada u(t) es muestreada mediante un mantenedor de orden cero, por lo que se cumple que: u(t) = u(kT) para kT ≤ t ≤ kT + T (1.40)
  • 27. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 13 Se tiene que: x((k + 1)T) = eA(k+1)T x(0) + eA(k+1)T (k+1)T 0 e−Aτ Bu(τ)dτ (1.41) x(kT) = eAkT x(0) + eAkT kT 0 e−Aτ Bu(τ)dτ (1.42) Mutiplicando la ecuaci´on (1.42) por eAT y rest´andola de la ecuaci´on (1.41) se obtiene: x((k + 1)T) = eAT x(kT) + eA(k+1)T (k+1)T kT e−Aτ Bu(τ)dτ (1.43) Teniendo en cuenta la suposici´on de que u(t) es constante en el intervalo de integraci´on (ver (1.40)) se puede sustituir u(τ) por u(kT). Aplicando esto y operando se llega a: x((k + 1)T) = eAT x(kT) + eAT T 0 e−Aτ Bu(kT)dτ = eAT x(kT) + T 0 e−Aλ Bu(kT)dλ (1.44) donde λ = T − τ. Sea: G(T) = eAT H(T) = T 0 eAλ dλ B (1.45) entonces la ecuaci´on (1.44) queda: x((k + 1)T) = G(T)x(kT) + H(T)u(kT) (1.46) que es la ecuaci´on a la que ten´ıamos que llegar y por tanto se ha obtenido la ecuaci´on de estado continuo discretizada. En el caso particular (aunque muy com´un, y por tanto interesante) de que A sea una matriz invertible se tiene que: H(T) = eAT − I A−1 B Por otra parte, la ecuaci´on de la salida al ser discretizada queda: y(kT) = Cx(kT) + Du(kT) (1.47) con C, D matrices constantes e iguales a la de la ecuaci´on en tiempo continuo. Existen diferentes m´etodos para calcular eAT . Quiz´as el m´as sencillo de aplicar cuando se trata de calcular la exponencial con papel y l´apiz sea utilizar la equivalencia: eAt = L−1 (sI − A)−1 (1.48)
  • 28. 14 DISCRETIZACI ´ON DE LAS ECUACIONES DE ESTADO CONTINUAS donde L−1 indica la transformada de Laplace inversa. Desde el punto de vista pr´actico el m´etodo consistir´ıa en calcular (sI−A)−1 (n´otese que puede emplearse el m´etodo para calcular (zI − G)−1 dado en la secci´on 1.4.3.1) y aplicar a posteriori la transformada de Laplace inversa a cada elemento de la matriz. Ejemplo 1.3 Se ilustrar´a en este ejemplo el c´alculo de eAt siendo: A = 0 1 0 −2 Para ello se calcula: (sI − A) = s 0 0 s − 0 1 0 −2 = s −1 0 s + 2 y aplicando los m´etodos vistos en la secci´on 1.5 y subsiguientes se calcula la inversa: (sI − A)−1 = 1 s 1 s(s+2) 0 1 (s+2) Finalmente se aplica la transformada inversa de Laplace a cada elemento de la matriz anterior de manera que se obtiene: eAt = L−1 (sI − A)−1 = 1 1 2 (1 − e−2t ) 0 e−2t Ejemplo 1.4 Como ejemplo de discretizaci´on de las ecuaciones de estado en tiempo continuo, con- sid´erese el siguiente sistema: ˙x = −ax + u y = x Usando las expresiones de (1.45) se obtiene: G(T) = eAT = e−aT y H(T) = T 0 eAλ dλ B = T 0 e−aλ dλ = 1−e−aT a
  • 29. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 15 Luego: x(k + 1) = e−aT x(k) + 1−e−aT a u(k) y(k) = x(k) 1.6. Controlabilidad y Observabilidad En esta secci´on se pasan a tratar dos conceptos clave en el estudio de sistemas din´amicos, la controlabilidad y la observabilidad. El primero se refiere a la existencia de una secuencia de actuaciones para llevar el sistema a un estado arbitrario. Por otro lado, la observabilidad tiene que ver con la posibilidad de determinar el valor del vector de estados de un sistema a partir de observaciones de las salidas y la entradas de dicho sistema. Ambos conceptos se deben a Kalman y son claves en estrategias de control como la colocaci´on de polos por realimentaci´on del vector de estados o el control ´optimo. 1.6.1. Controlabilidad Definici´on 1.2 Un sistema de control es completamente controlable o de estado com- pletamente controlable, si es posible transferir al sistema desde un estado inicial ar- bitrario a cualquier estado deseado en un tiempo finito. Tambi´en puede decirse que ser´a completamente controlable, si cada variable de estado se puede controlar en un tiempo finito por una se˜nal de control que no est´e sujeta a ning´un tipo de restricci´on. Como es habitual nos centraremos en el estudio de la controlabilidad de sistemas LTI: x((k + 1)T) = Gx(kT) + Hu(kT) (1.49) siendo la se˜nal u(kT) constante en el intervalo de tiempo kT ≤ t ≤ (k + 1)T. En este caso, la controlabilidad de estado completo implica que existe una se˜nal de control constante entre cada tiempo de muestreo que transfiere al sistema, desde un estado x(kT) cualquiera a un estado deseado xf en como mucho n periodos de muestreo, donde n es el tama˜no del vector de estados. Recordemos que la soluci´on de la ecuaci´on de estados es: x(nT) = Gn x(0) + n−1 j=0 Gn−j−1 Hu(jT)
  • 30. 16 CONTROLABILIDAD Y OBSERVABILIDAD = Gn x(0) + Gn−1 Hu(0) + Gn−2 Hu(T) + · · · + Hu((n − 1)T) de ah´ı se obtiene: x(nT) − Gn x(0) = H ... GH ... · · · ... Gn−1 H      u((n − 1)T) u((n − 2)T) ... u(0)      (1.50) donde la matriz Mc = H ... GH ... · · · ... Gn−1 H (1.51) es la llamada matriz de controlabilidad. Sup´ongase un estado final arbitrario x(nT) = xf . Si el sistema fuera controlable deber´ıa existir un vector de actuaciones que al multiplicarlo por la matriz de controla- bilidad (1.51) diese como resultado xf − Gn x(0). Como xf y x(0) pueden ser cualquier par de valores del vector de estado, es f´acil entender que xf −Gn x(0) puede ser cualquier vector de Rn . De esto se desprende que para que el sistema sea controlable, el espa- cio de vectores generado por los vectores que forman la matriz de controlabilidad (es decir, sus columnas) debe ser todo Rn . La condici´on necesaria y suficiente para que se cumpla esto es que el rango de la matriz de controlabilidad sea n. Este resultado permite enunciar el siguiente lema. Lema 1.1 Dado un sistema LTI de orden n representado por (1.49), es condici´on necesaria y suficiente para que el sistema sea completamente controlable que el rango de la matriz de controlabilidad (1.51) sea igual a n. Comentario 1.1 El sistema que cumpla la condici´on establecida en el lema 1.1 po- dr´a alcanzar cualquier estado como m´aximo en n periodos de muestreo, pero s´olo si no existen restricciones sobre la se˜nal de control. En caso contrario, se tardar´ıa m´as. Si el sistema es controlable, se podr´a determinar la secuencia de valores de la entrada necesaria para llevar al sistema a xf resolviendo el sistema de ecuaciones (1.50). Por otra parte, la controlabilidad se puede comprobar a partir de la funci´on de transferencia de un sistema observando si hay cancelaciones de polos y ceros. En el caso de que las hubiese, el sistema no ser´ıa controlable. Por tanto, el sistema Y (z) U(z) = z + 0,2 (z + 0,8)(z + 0,2) no ser´ıa controlable pues existe una cancelaci´on de un polo con un cero.
  • 31. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 17 1.6.2. Controlabilidad de la salida completa En control autom´atico el objetivo m´as com´un es controlar la evoluci´on de la salida del sistema. Se puede demostrar que la controlabilidad del estado no implica la contro- labilidad de la salida. Sin embargo, podemos comprobar dicha controlabilidad de una manera an´aloga a la de la controlabilidad del estado completo. Sea un sistema cuya ecuaci´on de estado es (1.49) y la ecuaci´on de la salida es: y(kT) = Cx(kT) (1.52) La condici´on para comprobar la controlabilidad de la salida completa ser´ıa que Rango CH ... CGH ... · · · ... CGn−1 H = m (1.53) donde m es el n´umero de salidas. Por otra parte, si la ecuaci´on de la salida es: y(kT) = Cx(kT) + Du(kT) (1.54) la condici´on a comprobar ser´ıa: Rango D ... CH ... CGH ... · · · ... CGn−1 H = m (1.55) N´otese que en esta segunda forma de la ecuaci´on de salida, la presencia del t´ermino Du(kT) no empeora la controlabidad del sistema, sino justo lo contrario. De hecho, al introducirse una columna extra en la matriz de controlabilidad (la correspondiente a D), se puede dar el caso que se pase de tener m−1 columnas linealmente independientes a tener m, por lo que se lograr´ıa la controlabilidad de la salida. Dicho de otra manera, encontrar m vectores linealmente independientes siempre ser´a igual o m´as f´acil entre n + 1 vectores que entre s´olo n de esos vectores. 1.6.3. Observabilidad Consid´erese un sistema aut´onomo: x((k + 1)T) = Gx(kT) y(kT) = Cx(kT) (1.56) Definici´on 1.3 El sistema aut´onomo (1.56) es completamente observable si todo es- tado inicial x(0) se puede determinar de la observaci´on de y(kT) durante un n´umero finito de intervalos de muestreo. Para que ello ocurra, cada transici´on del estado debe afectar a todos los elementos del vector de salida.
  • 32. 18 CONTROLABILIDAD Y OBSERVABILIDAD La observabilidad juega un papel esencial en el control de aquellos sistemas en los que algunas de las variables de estado no son accesibles, es decir, no son medibles directamente. N´otese que se ha considerado un sistema aut´onomo. La raz´on de esto es que la observabilidad de un sistema no aut´onomo se reduce a la del sistema aut´onomo equivalente. Se sabe que la soluci´on de la ecuaci´on de estado para el sistema aut´onomo (1.56) es: x(kT) = Gk x(0) y de ah´ı y(kT) = CGk x(0) La observabilidad completa implica que usando y(0), y(T), y(2T), · · · , y((n − 1)T) se pueden determinar x1(0), x2(0), · · · , xn(0) donde xi(0) indica la i´esima componente de x(0). Es decir el sistema es completamente observable si las ecuaciones: y(0) = Cx(0) y(T) = CGx(0) ... y((n − 1)T) = CGn−1 x(0) permiten determinar x1(0), x2(0), · · · , xn(0). Como y(kT) es un m-vector (asumiendo que el sistema tiene m salidas) el sistema de ecuaciones anterior es en realidad un sistema de n × m ecuaciones, en las que las inc´ognitas son las n componentes de x(0). Para que la soluci´on de este sistema sea ´unica debe haber entre ellas n ecuaciones linealmente independientes. Esto se traduce en la siguiente condici´on de observabilidad completa: Rango C∗ ... G∗ C∗ ... · · · ... (G∗ )n−1 C∗ = n (1.57) donde ∗ indica la conjugada traspuesta de una matriz y a la matriz que aparece en la condici´on se la llama matriz de observabilidad. Por otra parte, de una manera an´aloga a la de la controlabilidad, la observabilidad de un sistema a partir de su funci´on de transferencia se puede asegurar si ´esta no presenta cancelaciones de polos y ceros.
  • 33. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 19 Finalmente, se enuncia a continuaci´on una propiedad que ser´a ´util para poder obte– ner la representaci´on de un sistema en forma can´onica, sin que por ello pueda argu- mentarse que existe la posibilidad de variar la controlabilidad u observabilidad del mismo. Propiedad 1.1 Sea un sistema LTI dado en la forma usual (1.1), cuya matriz de controlabilidad es M y la de observabilidad es N. Si se define una transformaci´on como (1.26) con: ˆG = P−1 GP ˆH = P−1 H ˆC = CP siendo P una matriz invertible, entonces las matrices de controlabilidad y observabilidad del sistema equivalente tienen el mismo rango que M y N. 1.6.4. Principio de Dualidad Este principio, que es debido a Kalman, relaciona la controlabilidad y observabilidad de un sistema con la de otro sistema llamado dual del primero. Sea un sistema S1: S1 : x((k + 1)T) = Gx(kT) + Hu(kT) y(kT) = Cx(kT) (1.58) Sea S2 el sistema dual de S1: S2 : ˆx((k + 1)T) = G∗ ˆx(kT) + C∗ ˆu(kT) ˆy(kT) = H∗ ˆx(kT) (1.59) Entonces se puede afirmar que2 : SI S1 CONTROLABLE OBSERVABLE ENTONCES S2 OBSERVABLE CONTROLABLE 1.7. Transformaci´on de un sistema en formas can´onicas Sea un sistema controlable y observable: x(k + 1) = Gx(k) + Hu(k) y(k) = Cx(k) + Du(k) (1.60) 2 N´otese que los sistemas S1 y S2 son diferentes, es decir, S2 no es una representaci´on alternativa de S1.
  • 34. 20 TRANSFORMACI ´ON DE UN SISTEMA EN FORMAS CAN ´ONICAS A continuaci´on, se ver´a el procedimiento para obtener las formas can´onicas a partir de ese sistema. 1.7.1. Obtenci´on de la forma can´onica controlable Sea una matriz de transformaci´on T = MW con: M = H ... GH ... · · · ... Gn−1 H W =        an−1 an−2 · · · a1 1 an−2 an−3 · · · 1 0 ... ... ... ... a1 1 · · · 0 0 1 0 · · · 0 0        donde los coeficientes ai son los coeficientes de la ecuaci´on caracter´ıstica del sistema, es decir: |zI − G| = zn + a1zn−1 + · · · + an−1z + an = 0 Se define el estado x(k) en funci´on de la transformaci´on de otro vector de estados ˆx(k): x(k) = T ˆx(k) Entonces el sistema: ˆx(k + 1) = ˆGˆx(k) + ˆHu(k) y(k) = ˆCx(k) + ˆDu(k) (1.61) con ˆG = T−1 GT, ˆH = T−1 H, ˆC = CT, ˆD = D est´a en forma can´onica controlable. 1.7.2. Obtenci´on de la forma can´onica observable En este caso la matriz de transformaci´on es: Q = (WN∗ )−1 con N = C∗ ... G∗ C∗ ... · · · ... (G∗ )n−1 C∗ Sea ˆG = Q−1 GQ, ˆH = Q−1 H, ˆC = CQ, ˆD = D y def´ınase el estado x(k) como x(k) = Qˆx(k). Entonces el sistema (1.61) est´a en forma can´onica observable.
  • 35. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 21 1.8. Colocaci´on de polos mediante realimentaci´on del vector de estados En esta secci´on se presentar´a una estrategia de control que permite elegir la situaci´on de los polos de bucle cerrado del sistema, mediante la realimentaci´on lineal del vector de estados. Se ver´a que la condici´on necesaria para que esto se pueda conseguir es que el sistema sea controlable. Por otra parte, se asumir´a que todas las variables de estados son accesibles, es decir, podemos medirlas directamente sin tener que estimarlas por otros procedimientos. 1.8.1. Condici´on necesaria y suficiente para la colocaci´on ar- bitraria de polos Sea un sistema LTI: x(k + 1) = Gx(k) + Hu(k) Se escoge una ley de control que tiene la forma: u(k) = −Kx(k) es decir, la se˜nal de control se obtiene de la realimentaci´on negativa del vector de estados multiplicado por una cierta matriz de ganancias K. Este tipo de ley de control se la denomina usualmente realimentaci´on del vector de estados. Con esta ley de control el sistema en bucle cerrado quedar´ıa: x(k+1) H z-1¡ G + + x(k) -K u(k) Figura 1.2: Diagrama de bloques de un sistema controlado por una realimentaci´on del vector de estados. y la ecuaci´on de estado del sistema en bucle cerrado resultar´ıa ser: x(k + 1) = (G − HK)x(k)
  • 36. 22 COLOCACI ´ON DE POLOS MEDIANTE REALIMENTACI ´ON DEL VECTOR DE ESTADOS De manera an´aloga a lo que se da en sistemas continuos, los autovalores de (G − HK) son (o coinciden con) los polos de bucle cerrado del sistema. Por tanto, lo que buscamos es ver que condici´on es necesario cumplir para que exista una matriz de ganancias K determinada, que nos permita colocar los autovalores de (G − HK) en unos valores elegidos a voluntad. Lema 1.2 Se demuestra que la condici´on necesaria y suficiente para que por medio de una realimentaci´on del vector de estados puedan escogerse los polos de bucle cerrado (es decir, los autovalores de (G−HK)) es que el sistema en bucle abierto sea de estado completamente controlable. Si esta condici´on no se cumple, no se podr´an elegir todos los polos de bucle cerrado. 1.8.2. Procedimientos para calcular K Sean µ1,µ2,· · ·,µn los valores deseados para los polos de bucle cerrado, es decir, para los autovalores de (G−HK). Aquellos que sean complejos siempre ir´an por pares conjugados. La ecuaci´on caracter´ıstica del sistema en bucle abierto es: |zI − G| = zn + a1zn−1 + · · · + an = 0 Se define una matriz de transformaci´on T = MW exactamente igual que la matriz de transformaci´on necesaria para obtener la forma can´onica controlable descrita en la secci´on 1.7.1. Se obtiene: T−1 GT = ˆG =        0 1 0 · · · 0 0 0 1 · · · 0 ... ... ... ... 0 0 0 · · · 1 −an −an−1 −an−2 · · · −a1        T−1 H = ˆH =        0 0 ... 0 1        Se define a continuaci´on: ˆK = KT = δn δn−1 · · · δ1 Entonces: ˆH ˆK =      0 0 ... 1      δn δn−1 · · · δ1 =        0 0 · · · 0 0 0 · · · 0 ... ... ... 0 0 · · · 0 δn δn−1 · · · δ1       
  • 37. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 23 Por otra parte, la ecuaci´on caracter´ıstica del sistema en B.C. es: |zI − G − HK| = |zI − ˆG + ˆHK| = z        1 0 · · · 0 0 1 · · · 0 ... ... ... 0 0 · · · 0 0 0 · · · 1        −        0 1 0 · · · 0 0 0 1 · · · 0 ... ... ... ... 0 0 0 · · · 1 −an −an−1 −an−2 · · · −a1        +        0 0 · · · 0 0 0 · · · 0 ... ... ... 0 0 · · · 0 δn δn−1 · · · δ1        = z −1 · · · 0 0 z · · · 0 ... ... ... 0 0 · · · −1 an + δn an−1 + δn−1 · · · z + a1 + δ1 = zn + (a1 + δ1)zn−1 + · · · + (an−1 + δn−1)z + (an + δn) = 0 A su vez, la ecuaci´on caracter´ıstica correspondiente a los autovalores deseados ser´a: (z − µ1)(z − µ2) · · · (z − µn) = zn + α1zn−1 + α2zn−2 + · · · + αn−1 + αn = 0 Igualando los coeficientes de ambas ecuaciones caracter´ısticas: α1 = a1 + δ1 α2 = a2 + δ2 ... αn = an + δn se obtiene la siguiente expresi´on para K: K = ˆKT−1 = δn δn−1 · · · δ1 T−1 = αn − an ...αn−1 − an−1 ... · · · ...α1 − a1 T−1 (1.62) que coloca los polos de bucle cerrado del sistema en los valores deseados. N´otese que si el sistema en bucle abierto viene dado en forma can´onica controlable, se verifica que T = I = T−1 .
  • 38. 24 COLOCACI ´ON DE POLOS MEDIANTE REALIMENTACI ´ON DEL VECTOR DE ESTADOS 1.8.2.1. Procedimiento alternativo: la f´ormula de Ackermann Existen otros procedimientos alternativos para el c´alculo de la matriz K. Aqu´ı men- cionaremos uno muy conocido, el que emplea la f´ormula de Ackermann. Seg´un esto, la expresi´on para K tomar´ıa la forma: K = 0 0 · · · 0 1 H ... GH ... · · · ... Gn−1 H −1 φ(G) donde: φ(G) = Gn + α1Gn−1 + · · · + αn−1G + αnI Los coeficientes αi se calcular´an como en el apartado anterior. Finalmente, otro procedimiento que puede ser ´util para sistemas de bajo orden consiste en tomar K = k1 k2 · · · kn plantear la ecuaci´on caracter´ıstica en funci´on de los ki: |zI − G + HK| = 0 e igualar a los coeficientes de zn + α1zn−1 + α2zn−2 + · · · + αn−1 + αn = 0 1.8.3. Control Dead-Beat Este es un tipo de control que resulta ser un caso particular del control por colo- caci´on de polos. Definici´on 1.4 Dado un sistema LTI, entenderemos como control dead-beat aquel que consigue llevar el estado a cero en como m´aximo n intervalos de muestreo, donde n es el orden del sistema. Para obtener este tipo de control se deben especificar los polos de bucle cerrado con- forme a lo que se establece en el siguiente lema. Lema 1.3 Se demuestra que si se escogen los polos de bucle cerrado de manera que est´en todos en el origen (es decir, todos los autovalores de (G − HK) igual a cero) se consigue un control dead-beat.
  • 39. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 25 Esto se lleva a la pr´actica con una matriz de realimentaci´on del vector de estados calculada mediante: K = −an −an−1 · · · −a1 T−1 Este tipo de control no goza de una reputaci´on excesivamente favorable porque habit- ualmente se precisa de una se˜nal de control de amplitud muy grande para obtener la respuesta dead-beat. De hecho en este tipo de control, el ´unico par´ametro de dise˜no que se ha de elegir es el tiempo de muestreo. Si ´este es muy peque˜no, los n intervalos de muestreo supondr´an un tiempo total muy corto, de manera que para llevar el estado a cero partiendo de un estado inicial arbitrario se precisar´a un valor muy alto de la se˜nal. Ejemplo 1.5 Sea un sistema x(k + 1) = Gx(k) + Hu(k) con G = 0 1 −0,16 −1 0 1 Se desea determinar una matriz K, tal que los polos de bucle cerrado sean el par complejo conjugado z = 0,5 ± j0,5. En primer lugar hay que determinar la controlabilidad del sistema. Para ello, se forma la matriz de controlabilidad: H ... GH = 0 1 1 −1 cuyo rango es igual a dos (basta comprobar que su determinante es distinto de cero), por lo que el sistema es controlable y se puede proceder a calcular K. La ecuaci´on caracter´ıstica de bucle cerrado deseada es: |zI − G + HK| = (z − 0,5 − j0,5)(z − 0,5 + j0,5) = z2 − z + 0,5 = 0 (1.63) por tanto, los coeficientes αi son en este caso α1 = −1 y α2 = 0,5. Por otra parte, la ecuaci´on caracter´ıstica de bucle abierto del sistema es: |zI − G| = z −1 0,16 z + 1 por lo que los coeficientes ai son a1 = 1 y a2 = 0,16. A partir de aqu´ı se puede aplicar cualquiera de los m´etodos explicados anteriormente.
  • 40. 26 COLOCACI ´ON DE POLOS MEDIANTE REALIMENTACI ´ON DEL VECTOR DE ESTADOS M´etodo 1 K = α2 − a2 ... α1 − a1 T−1 Obs´ervese que el sistema viene dado en forma can´onica controlable, por lo que T = I y por tanto: K = 0,34 −2 M´etodo 2 (f´ormula de Ackermann) En este caso la f´ormula de Ackermann ser´ıa: K = 0 1 H ... GH −1 φ(G) donde φ(G) es φ(G) = G2 − G + 0,5I = −0,16 −1 0,16 0,84 − 0 1 −0,16 −1 + 0,5 0 0 0,5 = 0,34 −2 0,32 2,34 por lo que K = 0 1 0 1 1 −1 −1 0,34 −2 0,32 2,34 = 0,34 −2 M´etodo 3 Este procedimiento es apropiado para sistemas de bajo orden como el que nos ocupa. En primer lugar, se toma K = [k1 k2] y se formula la ecuaci´on caracter´ıstica de bucle cerrado en funci´on de K: |zI − G + HK| = z 0 0 z − 0 1 −0,16 −1 + 0 1 k1 k2 = z −1 0,16 + k1 z + 1 + k2 = z2 + (1 + k2)z + k1 + 0,16 = 0 la comparamos con la ecuaci´on caracter´ıstica deseada (1.63) e identificamos coeficientes: 1 + k2 = −1 k1 + 0,16 = 0,5
  • 41. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 27 de donde se obtiene que k1 = 0,34 y k2 = −2, por lo que se tiene ya el valor de K, que evidentemente coincide con el obtenido mediante los dos m´etodos anteriores. Ejemplo 1.6 Calcular para el mismo sistema del ejemplo anterior la matriz K que conlleva un control dead-beat, y comprobarlo calculando la evoluci´on del sistema a partir de un estado inicial arbitrario. En este caso: K = −a2 −a1 T−1 = −0,16 −1 Vamos a verificar que el control es dead-beat. Para ello, obtenemos la ecuaci´on de estado del sistema en bucle cerrado: x1(k + 1) x2(k + 1) = 0 1 −0,16 − 1 x1(k) x2(k) + 0 1 0,16 1 x1(k) x2(k) = 0 1 0 0 x1(k) x2(k) Supongamos ahora que el estado inicial es x1(0) x2(0) = a b entonces se tiene que: x1(1) x2(1) = 0 1 0 0 a b = b 0 e iterando una vez m´as: x1(2) x2(2) = 0 1 0 0 b 0 = 0 0 luego este control lleva al estado a cero en 2 pasos y es efectivamente un control dead- beat. 1.9. Observadores del estado En el control por colocaci´on de polos se asume que el estado se puede medir direc- tamente. En ocasiones, sin embargo, puede que esta suposici´on no se cumpla y todas
  • 42. 28 OBSERVADORES DEL ESTADO o algunas de las variables de estado no puedan ser medidas. Es decir, puede que haya variables de estado no accesibles. En cualquier caso, para poder controlar el sistema se deber´an estimar los valores de esas variables de estado no accesibles. Este proceso de estimaci´on es lo que se conoce como observaci´on. Un observador del estado es un subsistema del sistema de control, que realiza la estimaci´on de las variables de estado bas´andose en los valores medidos (observados) de las salidas y la se˜nal de control. Se distinguen tres tipos de observadores, en funci´on de las variables de estado que se estimen: 1. Observador del estado completo. Es aqu´el que estima todas las variables de esta- do. 2. Observador de orden m´ınimo. En este caso s´olo se estiman aquellas variables de estado que no son accesibles. 3. Observador de orden reducido. Este tipo de observador estima todas las variables no accesibles y algunas de las accesibles. En esta asignatura nos centraremos en los dos primeros tipos de observadores. Como en el caso de la colocaci´on de polos, formularemos en primer lugar las condiciones para que se pueda llevar a cabo la observaci´on. Lema 1.4 Condici´on necesaria y suficiente para la observaci´on del estado. Dado un sistema LTI, se puede determinar x(k + 1) a partir de y(k), y(k − 1),· · ·,y(k − n + 1) y u(k),u(k − 1),· · ·,u(k − n + 1), donde n es el orden del sistema, s´ı y s´olo s´ı, el sistema es completamente observable. Por tanto x(k + 1) se puede determinar, si el sistema es observable, en n pasos. Sin embargo, no debe olvidarse que sobre el sistema act´uan ruidos y perturbaciones. Por esta raz´on no es posible utilizar un procedimiento algebraico para determinar el estado, sino que se ha de acudir a un procedimiento iterativo para estimarlo. 1.9.1. Procedimiento iterativo para la estimaci´on del estado Sea un sistema LTI x(k + 1) = Gx(k) + Hu(k) y(k) = Cx(k) (1.64)
  • 43. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 29 Si se dispone de una aproximaci´on del estado en k, que denotaremos ˆx(k), ´esta evolu- cionar´a seg´un la din´amica del sistema ˆx(k + 1) = Gˆx(k) + Hu(k) ˆy(k) = Cˆx(k) (1.65) Si las condiciones iniciales son las mismas, es decir, si x(0) = ˆx(0) entonces se verifica que x(k) = ˆx(k). Sin embargo, si las condiciones iniciales son diferentes entonces, de manera general, x(k) = ˆx(k). Podemos pues, definir el error de estimaci´on en k como: e(k) = x(k) − ˆx(k) Restando la ecuaci´on de estado aproximada (1.65) de la real (1.64): x(k + 1) − ˆx(k + 1) = G (x(k) − ˆx(k)) que teniendo en cuenta la definici´on del error de aproximaci´on es equivalente a: e(k + 1) = Ge(k) que se puede considerar como un sistema din´amico aut´onomo. Si G es una matriz estable (es decir, si sus autovalores est´an dentro del c´ırculo unidad) el ((estado)) de este sistema tiende a cero, es decir: e(k) → 0 ⇒ ˆx(k) → x(k) Por tanto, si el sistema es estable, la propia din´amica del sistema hace que la aproxi- maci´on del estado tienda al valor real del mismo. Esto quiere decir que podr´ıamos usar la propia ecuaci´on del sistema para obtener en cualquier instante k una aproximaci´on del estado, cuyo error ir´ıa decayendo a lo largo del tiempo. Esta convergencia al valor real, sin embargo, puede ser muy lenta, y por otra parte no siempre se tratar´a con sistemas estables. Por tanto, esta estrategia no es muy aconsejable. N´otese que en el esquema que se ha presentado, no se hace uso de la salida del sis- tema, que siempre ser´a accesible. Esto puede ser aprovechado para mejorar el rendimien- to del observador introduci´endose un t´ermino corrector, de manera que la ecuaci´on para obtener la aproximaci´on del estado para el instante k + 1 ser´ıa: ˆx(k + 1) = Gˆx(k) + Hu(k) + Ke (y(k) − Cˆx(k)) donde Ke es una matriz de ponderaci´on o ganancia. Este t´ermino se puede elegir de manera que se mejore el rendimiento, incluso si existen discrepancias entre las matrices del sistema y las del proceso real al que dicho sistema representa.
  • 44. 30 OBSERVADORES DEL ESTADO 1.9.2. Observador del estado completo Sea un sistema LTI observable (1.64) con una ley de control por realimentaci´on negativa del vector de estados, u(k) = −Kx(k) siendo el estado del sistema x(k) no accesible pero s´ı observable. Por tanto, podemos sustituir el valor del estado por una aproximaci´on de manera que u(k) = −Kˆx(k) y de ah´ı, aplicando las consideraciones de la secci´on 1.9.1 se obtiene ˆx(k + 1) = Gˆx(k) + Hu(k) + Ke (y(k) − ˆy(k)) = (G − KeC)ˆx(k) + Hu(k) + Key(k) = (G − KeC − HK)ˆx(k) + Key(k) (1.66) ´Esta es la llamada ecuaci´on del observador predictivo. La palabra predictivo se utiliza para indicar que la estimaci´on del valor futuro del estado en k +1, se realiza utilizando informaci´on disponible en el instante k. A los autovalores de la matriz (G − KeC) se les suele denominar polos del observador, y como se hizo en la secci´on 1.9.1, se ver´a a continuaci´on que marcan la din´amica de la evoluci´on del error de observaci´on. En efecto, si se resta la ecuaci´on del observador de la del sistema real (1.64) se llega a que e(k + 1) = (G − KeC)e(k) de lo que puede observarse que los polos del observador determinan la din´amica del error. Si G − KeC es estable, el error converger´a a cero independientemente de la estimaci´on del estado inicial ˆx(0). La ecuaci´on del observador y del propio sistema en espacio de estados controlado por la realimentaci´on lineal del vector de estados, pueden representarse mediante un diagrama de bloques que se ilustra en las figuras 1.3 y 1.4. Finalmente, es evidente que interesa que la estimaci´on del estado converja r´apida- mente al valor real de dicho estado. Una manera evidente de lograr esto es colocar todos los polos del observador en cero, de manera que se consiga que el error de aproximaci´on muestre una respuesta dead-beat. Esto se consigue eligiendo de manera apropiada Ke.
  • 45. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 31 x(k+1) + H u(k) z-1¢ C G + + x(k) OBSERVADOR y(k) y(k) -K u(k) (k)x£ u(k) Figura 1.3: Diagrama de bloques de un sistema LTI controlado mediante una realimentaci´on del vector de estados que estima el estado con un observador. x(k+1) + Hu(k) z-1¤ C G + + Ke (k)x¥ (k)y¦ y(k)-+ + (k)x§ Figura 1.4: Diagrama de bloques de un observador de orden completo.
  • 46. 32 OBSERVADORES DEL ESTADO 1.9.2.1. C´alculo de Ke El procedimiento para elegir Ke de manera que se coloquen los polos del observador en unos valores especificados es an´alogo al de la colocaci´on de polos vista en la secci´on 1.8. Si la ecuaci´on caracter´ıstica deseada del observador es: zn + α1zn−1 + · · · + αn−1z + αn = 0 y la del sistema es zn + +a1zn−1 + · · · + an−1z + an = 0 entonces Ke = (WN∗ )−1      αn − an αn−1 − an−1 ... α1 − a1      (1.67) donde W =        an−1 an−2 · · · a1 1 an−2 an−3 · · · 1 0 ... ... ... ... a1 1 · · · 0 0 1 0 · · · 0 0        N = C∗ ... G∗ C∗ ... · · · ... (G∗ )n−1 C∗ es decir, la misma matriz W empleada en la colocaci´on de polos y la matriz de ob- servabilidad3 . N´otese que si el sistema viene indicado en forma can´onica observable (WN∗ )−1 = I. Tambi´en puede emplearse la f´ormula de Ackermann, que para este caso es: Ke = φ(G)      C CG ... CGn−1      −1      0 0 ... 1      donde φ(G) = Gn + α1Gn−1 + · · · + αn−1G + αnI = 0 Ejemplo 1.7 Consid´erese un sistema como (1.64) con G = 1 1 0 1 H = 0,5 1 C = 1 0 3 A fin de obtener un texto m´as legible se evita en lo posible hacer referencias a material anterior, a´un a pesar de que esto pueda alargar la exposici´on del tema al repetirse ecuaciones y expresiones.
  • 47. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 33 dise˜naremos un observador del estado. En primer lugar, se ha de comprobar que el sistema es observable. Para ello se comprueba que rango C∗ ... G∗ C∗ = rango 1 1 0 1 = 2 luego el sistema es completamente observable. El siguiente paso es hallar la ecuaci´on caracter´ıstica del sistema en bucle abierto: |zI − G| = z 0 0 z − 1 1 0 1 = z2 − 2z + 1 = 0 luego a1 = −2 y a2 = 1. Deseamos que el observador tenga una respuesta dead-beat, luego la ecuaci´on caracter´ıstica deseada del observador ser´a: z2 = 0 ⇒ α1 = α2 = 0 A continuaci´on se calcular´a Ke: Ke = (WN∗ )−1 −1 2 con N = 1 1 0 1 W = a1 1 1 0 = −2 1 1 0 resultando Ke = 2 1 C´alculo de Ke mediante la f´ormula de Ackermann En este caso la f´ormula de Ackermann es: Ke = φ(G) C CG −1 0 1 con φ(G) = G2 + α1G + α2I = G2 resultando Ke = 1 1 0 1 2 1 0 1 1 −1 0 1 = 2 1 que evidentemente es el mismo resultado que el obtenido con el procedimiento anterior.
  • 48. 34 OBSERVADORES DEL ESTADO Estudio de la evoluci´on del error de estimaci´on Vamos a comprobar que el error cae a cero seg´un una respuesta dead-beat. Sea x(0) = a1 b1 ˆx(0) = a2 b2 entonces e(0) = x(0) − ˆx(0) = a1 − a2 b1 − b2 = a b adem´as se tiene que G − KeC = −1 1 −1 1 el error evoluciona, por tanto, seg´un e1(k + 1) e2(k + 1) = −1 1 −1 1 e1(k) e2(k) por lo que se calcula la evoluci´on de este error: e1(1) e2(1) = −1 1 −1 1 a b = −a + b −a + b e1(2) e2(2) = −1 1 −1 1 −a + b −a + b = 0 0 luego, tal y como se pretend´ıa, la estimaci´on del vector de estados coincide con el valor real de dicho vector dos tiempos de muestreo despu´es de iniciarse la estimaci´on. Finalmente, la ecuaci´on del observador es: ˆx1(k + 1) ˆx1(k + 1) = −1 1 −1 1 ˆx1(k) ˆx1(k) + 0,5 1 u(k) + 2 1 y(k) 1.9.2.2. Comentarios acerca del papel de Ke Se ha visto que Ke se utiliza para corregir la estimaci´on, disminuyendo el efecto de las incertidumbres que se tengan sobre la din´amica real de la planta. Si estas incer- tidumbres son importantes (es decir, si se tiene poca confianza en que el modelo de la
  • 49. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 35 planta coincida con la din´amica real de la misma) este t´ermino corrector deber´ıa tomar un valor alto. Sin embargo, si la se˜nal de salida est´a contaminada por perturbaciones y ruido en general procedente, por ejemplo, de los sensores de medida, entonces la se˜nal de salida no es fiable en el sentido de que no proviene ´unicamente de la din´amica real de la planta. Por tanto, en estas situaciones el t´ermino corrector deber´ıa ser m´as peque˜no. Al seleccionar Ke se debe pensar no s´olo en reducir el error en base a una correcci´on en´ergica, sino que hay que tener en cuenta que cuando hay ruidos o perturbaciones, una ganancia Ke alta no contribuir´ıa a reducir el error, porque las correcciones no ir´ıan en la ((direcci´on)) correcta. Es decir, hay que llegar a un compromiso entre la velocidad de respuesta y la sensibilidad a ruidos y perturbaciones. 1.9.2.3. Efectos de la adici´on del observador Hemos supuesto que al no disponerse de x(k) para calcular la se˜nal de control, se usa el observador para producir una estimaci´on ˆx(k), de manera que u(k) = −Kˆx(k) (1.68) Cabe preguntarse si al usar el observador, se colocan los polos del sistema en el sitio que se pretende al calcularse la ganancia de realimentaci´on del vector de estado K. ¿Que efectos tiene el observador sobre los polos de bucle cerrado? Para estudiar esto, se analizar´a el efecto que tiene la adici´on del observador sobre la ecuaci´on caracter´ıstica del sistema en bucle cerrado. Sea el sistema (1.64) controlado mediante (1.68). La ecuaci´on de estado puede reescribirse como: x(k + 1) = Gx(k) − HKˆx(k) = (G − HK)x(k) + HK(x(k) − ˆx(k)) = (G − HK)x(k) + HKe(k) donde e(k) es el error de observaci´on en el instante k. Recordemos que el error de observaci´on viene dado por: e(k + 1) = (G − KeC)e(k) La ecuaci´on de estado y la del error, se pueden combinar en la ecuaci´on de un sistema aut´onomo aumentado que describe la din´amica del sistema observado (es decir, de todo el conjunto sistema-controlador-observador): x(k + 1) e(k + 1) = G − HK HK 0 G − KeC x(k) e(k)
  • 50. 36 OBSERVADORES DEL ESTADO La ecuaci´on caracter´ıstica de este sistema es zI − G + HK −HK 0 zI − G + KeC = 0 es decir, |zI − G + HK||zI − G + KeC| = 0 Dado que las ra´ıces de esta ecuaci´on son las ra´ıces de cada uno de los dos determinantes que aparecen, esto implica que los polos del sistema completo son los polos del sistema en bucle cerrado, tal y como se han colocado mediante el dise˜no de K junto con los polos del observador. Por tanto, la colocaci´on de polos y la observaci´on son dos cosas independientes, porque la adici´on del observador no modifica los polos de bucle cerrado del sistema tal y como se eligieron al dise˜nar K. Por tanto: Los polos del sistema se eligen para que se cumplan las especificaciones del sistema de control. Los polos del observador se escogen de manera que la respuesta del observador sea m´as r´apida que la del sistema (para que esta ´ultima resulte dominante), t´ıpicamente 4 o 5 veces m´as r´apida. 1.9.3. Observador de orden m´ınimo Sup´ongase que x(k) es un n-vector y que y(k) es un m-vector. Como las m salidas son combinaciones lineales del estado, hay m variables que no necesitan ser estimadas. El observador de orden m´ınimo ser´a el que estime las n − m restantes. Para dise˜nar el observador de orden m´ınimo estableceremos una partici´on del vector de estados: x(k) =   xa(k) · · · xb(k)   donde el m-vector xa(k) son las variables medibles (accesibles) y el n − m-vector xb(k) son las variables no medibles (no accesibles). Esta partici´on del vector de estados
  • 51. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 37 determina una partici´on en la ecuaci´on de estados:   xa(k + 1) · · · xb(k + 1)   =     Gaa ... Gab · · · ... · · · Gba ... Gbb       xa(k) · · · xb(k)   +   Ha · · · Hb   u(k) y(k) = I ... 0   xa(k) · · · xb(k)   donde Gaa ∈ Rm×m , Gab ∈ Rm×(n−m) , Gba ∈ R(n−m)×m , Gbb ∈ R(n−m)×(n−m) , Ha ∈ Rm×1 , Hb ∈ R(n−m)×1 . La ecuaci´on de la parte del estado que es accesible (medible) ser´ıa: xa(k + 1) = Gaaxa(k) + Gabxb(k) + Hau(k) N´otese que en esta ecuaci´on hay t´erminos que no son medibles, por lo tanto la podemos reescribir agrupando los t´erminos medibles a la izquierda y los no medibles a la derecha: xa(k + 1) − Gaaxa(k) − Hau(k) = Gabxb(k) (1.69) Por otro lado, la parte del vector de estados que no se puede medir se puede escribir como: xb(k + 1) = Gbaxa(k) + Gbbxb(k) + Hbu(k) Obs´ervese que en esta ecuaci´on, los t´erminos que dependen de xa(k) y u(k) son cono- cidos mientras que el t´ermino que depende de xb(k) es desconocido. Esta ecuaci´on la podemos reescribir como xb(k + 1) = Gbbxb(k) + [Gbaxa(k) + Hbu(k)] (1.70) El dise˜no del observador de orden m´ınimo se realiza tomando como referencia el del observador de orden completo, cuya ecuaci´on de estados es x(k + 1) = Gx(k) + Hu(k) En el caso del observador de orden m´ınimo, la ecuaci´on (1.70), es decir, la ecuaci´on que describe la evoluci´on de la parte del estado no medible, es la que hace el papel de ecuaci´on de estado. Por otra parte, se conoce que la ecuaci´on de salida para el observador de orden completo es: y(k) = Cx(k) donde y(k) es medible y Cx(k) es no medible (por serlo x(k)). Obs´ervese que se puede establecer un paralelismo entre los t´erminos de esta ecuaci´on y los de la ecuaci´on (1.69). En el caso del observador de orden m´ınimo, por tanto, se considera como ecuaci´on de salida la ecuaci´on (1.69).
  • 52. 38 OBSERVADORES DEL ESTADO Recordemos que la ecuaci´on del observador de orden completo es ˆx(k + 1) = (G − KeC)ˆx(k) + Hu(k) + Key(k) Comparando las ecuaciones de estado y salida del observador de orden completo y las del observador de orden m´ınimo, se establecen las siguientes analog´ıas: Observador de orden completo Observador de orden m´ınimo ˆx(k) ˆxb(k) G Gbb Hu(k) Gbaxa(k) + Hbu(k) y(k) xa(k + 1) − Gaaxa(k) − Hau(k) C Gab Ke ∈ Rn×m Ke ∈ R(n−m)×m Teniendo en cuenta esto, se obtiene ˆxb(k+1) = (Gbb−KeGab)ˆxb(k)+Gbaxa(k)+Hbu(k)+Ke [xa(k + 1) − Gaaxa(k) − Hau(k)] (1.71) Adem´as, de la ecuaci´on del sistema sabemos que y(k) = xa(k) luego, aplicando esto en la ecuaci´on (1.71) se obtiene ˆxb(k + 1) = (Gbb − KeGab)ˆxb(k) + Key(k + 1) + (Gba − KeGaa)y(k) + (Hb − KeHa)u(k) que ser´ıa la ecuaci´on del observador de orden m´ınimo. Los polos del observador de orden m´ınimo ser´ıan los autovalores de (Gbb − KeGab). Obs´ervese, sin embargo, que en esta ecuaci´on aparece un t´ermino que multiplica a y(k + 1). Como es l´ogico el valor de la salida en k + 1 no est´a disponible en el instante k, por lo que esta ecuaci´on ha de ser modificada. Se puede demostrar (no se har´a aqu´ı), que esta ecuaci´on se puede reescribir como: ˆxb(k) = ˆη(k) + Kexa(k) ˆη(k + 1) = (Gbb − KeGab)ˆη(k) + [(Gbb − KeGab)Ke + Gba − KeGaa] y(k) +(Hb − KeHa)u(k) (1.72) La ecuaci´on caracter´ıstica del observador de orden m´ınimo es: |zI − Gbb + KeGab| = 0 y como en el caso del observador de orden completo, Ke se puede elegir para colocar los polos del observador donde se desee mediante los m´etodos indicados en la secci´on
  • 53. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 39 1.9.2.1. Por ejemplo, si la salida y(k) es un escalar, es decir m = 1, se tienen que estimar n − 1 variables. La f´ormula de Ackermann, por ejemplo, quedar´ıa: Ke = φ(Gbb)      Gab GabGbb ... GabGn−2 bb      −1      0 0 ... 1      donde φ(Gbb) = Gn−1 bb + α1Gn−2 bb + · · · + αn−1I De manera an´aloga a la del observador de orden completo, se comprueba que la ecuaci´on caracter´ıstica del conjunto formado por el observador de orden m´ınimo y el sistema controlado por una realimentaci´on lineal del vector de estados es: |zI − G + HK||zI − Gbb + KeGab| = 0 por lo que, nuevamente se ve que los problemas de dise˜no del controlador y del obser- vador son independientes. Ejemplo 1.8 Sea un sistema LTI cuyas matrices son G = 1 0,2 0 1 H = 0,02 0,2 C = 1 0 se pide 1. Dise˜nar un controlador que coloque los polos de bucle cerrado en z = 0,6 ± j0,4. 2. Asumiendo que y(k) = x1(k) es el ´unico estado accesible, dise˜nar un observador de orden m´ınimo con respuesta dead-beat. En primer lugar, se ha de comprobar la controlabilidad y observabilidad del sistema: rango H ... GH = rango 0,02 0,06 0,2 0,2 = 2 rango C∗ ... G∗ C∗ = rango 1 1 0 0,2 = 2 Luego el sistema cumple ambas condiciones. La ecuaci´on caracter´ıstica del controlador es: |zI − G| = z − 1 −0,2 0 z − 1 = z2 − 2z + 1
  • 54. 40 OBSERVADORES DEL ESTADO luego a1 = −2 y a2 = 1. La ecuaci´on caracter´ıstica de bucle cerrado deseada es: (z − 0,6 − j0,4)(z − 0,6 + j0,4) = z2 − 1,2z + 0,52 luego α1 = −1,2 y α2 = 0,52. Por tanto, K = α2 − a2 α1 − a1 T−1 = −0,48 0,8 T−1 donde la matriz T se calcula como T = H ... GH a1 1 1 0 = 0,02 0,02 −0,2 0,2 y T−1 = 25 −2,5 25 2,5 lo que lleva a K = 8 3,2 la ley de control se formular´a por tanto, como u(k) = −Kˆx(k) = − 8 3,2 x1(k) ˆx2(k) = − 8 3,2 y(k) ˆx2(k) En cuanto al observador de orden m´ınimo, ´este estimar´a una sola variable, por lo que es de orden 1. La partici´on de la ecuaci´on de estado en este caso ser´a:     Gaa ... Gab · · · ... · · · Gba ... Gbb     =     1 ... 0,2 · · · ... · · · 0 ... 1       Ha · · · Hb   =   0,02 · · · 0,2   La ecuaci´on caracter´ıstica deseada del observador es Φ(z) = z = 0 luego Ke = φ(Gbb)[Gab]−1 [1] = (1)(0,2)−1 (1) = 5 Las ecuaciones del observador ser´ıan ˆη(k + 1) = (Gbb − KeGab)ˆη(k) + [(Gbb − KeGab)Ke + Gba − KeGaa] y(k) +(Hb − KeHa)u(k) = (1 − 5 × 0,2)ˆη(k) + [(1 − 5 × 0,2) × 5 + 0 − 5 × 1] y(k) + (0,2 − 5 × 0,02)u(k) = −5y(k) + 0,1u(k) ˆx2(k) = Key(k) + ˆη(k) = 5y(k) + ˆη(k)
  • 55. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 41 y la ley de control ser´a por tanto, u(k) = −Kˆx(k) = −8y(k) − 3,2ˆx2(k) = −8y(k) − 3,2(5y(k) + ˆη(k)) = −24y(k) − 3,2ˆη(k) 1.10. Control ´optimo LQR Las t´ecnicas de control ´optimo conforman una de las ramas del control autom´atico m´as importantes en el desarrollo de las estrategias modernas de control m´as utilizadas hoy en d´ıa. Se han escrito numerosas monograf´ıas dedicadas a su estudio, y se ha publicado una ingente cantidad de art´ıculos en revistas especializadas. No obstante, en estos apuntes s´olo se dar´a una pincelada sobre este particular, centr´andonos en el caso particular del control LQR con horizonte infinito, tambi´en conocido como LQR de r´egimen permanente. Las estrategias de control ´optimo calculan la ley de control de manera que se opti- miza una cierta medida del rendimiento del controlador. Se parte de un sistema descrito por x(k + 1) = Gx(k) + Hu(k) El objetivo es calcular una ley de control u(k) = −Kx(k) de tal manera que se minimiza el funcional (que expresa un ´ındice de funcionamiento) J = 1 2 ∞ k=0 (x∗ (k)Qx(k) + u∗ (k)Ru(k)) (1.73) siendo Q y R matrices de ponderaci´on que cumplen que Q∗ = Q > 0, R∗ = R > 0. N´otese que este ´ındice de funcionamiento pondera la diferencia entre el estado y el ori- gen el instante inicial, hasta un tiempo infinito. Por tanto, cuanto m´as r´apido se llegue al origen menor valor de J se tendr´a. Esto implica que al minimizarse J, se encon- trar´a la ley de control que lleva el estado al origen m´as r´apidamente y manteni´endolo
  • 56. 42 CONTROL ´OPTIMO LQR siempre lo m´as cerca posible del origen4 . Por otra parte, se observa que en el funcional hay otro t´ermino que pondera el valor de la secuencia de se˜nales de actuaci´on. Este t´ermino impide que se obtenga una ley de control que lleve el estado al origen a expen- sas de una actuaci´on muy grande. Al minimizarse J, por tanto, se conseguir´a una ley de control que por una parte acerque el estado al origen lo mas r´apido posible, pero man- teniendo un nivel de actuaciones moderado, encontr´andose por tanto, una soluci´on de compromiso entre el rendimiento del controlador y su nivel de actuaci´on. El sentido de este compromiso puede venir dictado por diferentes razones, como por ejemplo moderar el gasto de energ´ıa o combustible necesario para proporcionar la se˜nal de actuaci´on. Existen razones m´as sutiles pero no por ello menos importantes para incorporar esta ponderaci´on del esfuerzo de control. Por ejemplo, cuando existen discrepancias entre el modelo del sistema y su din´amica real (algo que ocurre casi siempre, pues los mode- los matem´aticos no pueden recoger todas las complejidades de los sistemas o procesos reales) esta ponderaci´on del esfuerzo de control resulta en un sistema m´as estable. Para calcular la ley de control que minimiza el ´ındice (1.73) se define una matriz P que satisface la siguiente ecuaci´on de Riccatti: P = Q + G∗ PG − G∗ PH(R + H∗ PH)−1 H∗ PG (1.74) La soluci´on de esta ecuaci´on es una matriz P que es herm´ıtica y definida positiva. Se demuestra que la matriz K = (R + H∗ PH)−1 H∗ PG es la que minimiza el ´ındice (1.73) mediante la ley de control u(k) = −(R + H∗ PH)−1 H∗ PGx(k) La ecuaci´on de estado del sistema en bucle cerrado ser´a por tanto: x(k + 1) = (G − H(R + H∗ PH)−1 H∗ PG) x(k) = (I + HR−1 H∗ P)−1 Gx(k) Para este desarrollo se ha empleado el lema de inversi´on (A + BC)−1 = A−1 − A−1 B(I + CA−1 B)−1 CA con A = I, B = H y C = R−1 H∗ P. 4 ´Esta es una interpretaci´on que hay que tomar con cierto cuidado, pues puede que se obtenga una ley de control que provoque que el estado no se acerque al origen todo lo posible al principio pero que lo lleve a dicho origen muy r´apidamente en los instantes siguientes, manteniendo pues el valor de J muy bajo.
  • 57. CAP´ITULO 1. CONTROL DE SISTEMAS DISCRETOS EN EL ESPACIO DE ESTADOS 43 1.10.1. Soluci´on de la ecuaci´on de Riccatti Para calcular la ley de control ´optima LQR en r´egimen permanente es necesario resolver la ecuaci´on de Riccatti (1.74). Esto no es algo trivial en general, pero si pode- mos resolverla f´acilmente si se dispone de un computador. Para ello formularemos un proceso iterativo en que tomando como valor inicial de P = 0 (es decir una matriz de ceros) se calcular´a el valor de la matriz P en el paso i + 1 como Pi+1 = Q + G∗ PiG − G∗ PiH (R + H∗ PiH)−1 H∗ PiG La condici´on de parada del bucle o proceso iterativo ser´a que Pi+1 − Pi ≈ 0, esto es, que la diferencia entre Pi+1 y Pi sea una matriz cuyos elementos est´en todos cerca del cero. 1.11. Filtro de Kalman El filtro de Kalman es un estimador del estado (en realidad tambi´en se puede interpretar como filtro y como predictor), que tiene en cuenta la presencia de ruidos en la ecuaci´on de estados y la salida. En este sentido es un estimador ´optimo, pues la estimaci´on obtenida tiene el menor error posible teniendo en cuenta que al haber ruidos actuando, nunca se podr´a obtener una estimaci´on perfecta. Al igual que en el caso del control LQR no se entrar´a en profundidad en el estudio de este estimador, sino que s´olo se presentar´a la formulaci´on de un caso particular, el filtro de Kalman para r´egimen permanente. Sea un sistema: x(k + 1) = Gx(k) + Hu(k) + ω(k) y(k) = Cx(k) + (k) donde ω(k) y (k) son variables aleatorios que act´uan como ruidos aditivos. Se de- muestra que se puede obtener una estimaci´on ´optima del vector de estados mediante el siguiente esquema: ˆx(k + 1) = Gˆx(k) + Hu(k) + Ke(k) (y(k) − Cˆx(k)) Ke(k) = GPkC∗ (R + CPkC∗ )−1 Pk+1 = Q + (G − Ke(k)C) PkG∗ (1.75) donde R = E { (k) ∗ (k)} Q = E {ω(k)ω∗ (k)} P0 = E { (0) ∗ (0)}
  • 58. 44 FILTRO DE KALMAN donde E {·} denota la esperanza matem´atica y R,Q se asumen constantes. Se demuestra que conforme k → ∞: Pk+1 → P Ke(k) → Ke donde P y Ke son matrices constantes y adem´as P es semidefinida positiva. Usando esto, las ecuaciones de estimaci´on (1.75) se pueden reescribir como: ˆx(k + 1) = Gˆx(k) + Hu(k) + Ke (y(k) − Cˆx(k)) Ke = GPC∗ (R + CPC∗ )−1 P = Q + GPG∗ − GPC∗ (R + CPC∗ )−1 CPG∗ (1.76) que son las ecuaciones del filtro de Kalman de r´egimen permanente. N´otese que para resolver la ecuaci´on de Riccatti se puede usar el mismo m´etodo usado en el LQR.
  • 59. Cap´ıtulo 2 Modelos de procesos y perturbaciones 2.1. Introducci´on En este cap´ıtulo se expondr´an diversos tipos de formas de modelar perturbaciones y procesos cuya evoluci´on se ve afectada por perturbaciones. Es importante tener en cuenta que los modelos de procesos con perturbaciones tienen su origen en el modelado de perturbaciones y no al rev´es. En la teor´ıa cl´asica del control autom´atico siempre se ha tenido en cuenta el com- portamiento de los sistemas frente a perturbaciones a la hora de dise˜nar sistemas de control. Dichas perturbaciones se modelaban siempre de manera muy simplificada. Es por tanto com´un en esta teor´ıa el considerar que las perturbaciones van a tener la forma de Pulsos. Escalones. Rampas. Sinusoides. Todos estos modelos tienen en com´un que son absolutamente predecibles en su evolu- ci´on en funci´on de las condiciones iniciales. Es decir, en cuanto la perturbaci´on aparece 45
  • 60. 46 PERTURBACIONES DETERMINISTAS A TROZOS podemos predecir su evoluci´on futura. Es una suposici´on com´un en estos casos, consi– derar que estas perturbaciones vienen generadas por sistemas din´amicos. 2.2. Perturbaciones deterministas a trozos Como fuente de perturbaciones con una mayor variabilidad que los modelos cl´asicos antes comentados, se pueden considerar las perturbaciones deterministas a trozos. Sur- gen de la necesidad de estudiar el efecto de perturbaciones m´as realistas en sistemas de control que se basan en alg´un tipo de esquema predictivo para calcular la se˜nal de control. En este tipo de sistemas, el considerar una perturbaci´on absolutamente predecible (como en el caso de los modelos cl´asicos) no tiene utilidad alguna, pues se pueden considerar directamente en el c´alculo de la ley de control. Los modelos de perturbaciones deterministas a trozos parten de la suposici´on de que son generados por un sistema lineal, en el que la entrada es cero excepto en ciertos instantes de tiempo separados por m´as de n tiempos de muestreo, donde n es el orden del sistema: y(k) = C(z−1 ) A(z−1) w(k) suponi´endose que el grado de C(z−1 ) es igual al grado de A(z−1 ). Si la entrada es cero excepto en ciertos instantes de tiempo que est´an separados, quiere decir que la se˜nal w(k) es un tren de pulsos. La amplitud y momento de aparici´on de esos pulsos son desconocidos. Esto es lo que le da variabilidad a la fuente de perturbaciones. Sin embargo, una vez que aparecen y se conoce la amplitud del pulso, la evoluci´on de la salida y(k) es perfectamente predecible pues la din´amica del sistema es conocida. De ah´ı el nombre de determinista a trozos. 2.3. Procesos estoc´asticos Es natural utilizar el concepto de aleatorio o estoc´astico1 para describir una amplia clase de perturbaciones, suficientemente realistas para formular problemas de predic- ci´on con postulados cercanos a la realidad. 1 Estoc´astico: relativo a una variable aleatoria; algo que sigue una determinada distribuci´on de probabilidad, usualmente con varianza finita.
  • 61. CAP´ITULO 2. MODELOS DE PROCESOS Y PERTURBACIONES 47 El concepto de proceso estoc´astico es complejo y alcanza su madurez en los trabajos de Kolmogorov (1930). Aqu´ı presentaremos s´olo algunas ideas b´asicas. Un proceso estoc´astico puede ser considerado como una funci´on de dos variables X(t, w) donde t es la variable tiempo con su significado habitual y w es una variable aleatoria. Si consideramos un valor fijo de w, esto es w = w0 y dejamos la variable t libre, lo que denotaremos como X(:, w0) estaremos hablando de una ((realizaci´on)) del proceso. Esta realizaci´on es una funci´on temporal com´un sin ning´un tipo de car´acter aleatorio una vez que se conoce que w = w0. Si por otra parte se considera un instante de tiempo fijo, es decir t = t0, que denotaremos como X(t0, :) X(t0) tendremos una variable aleatoria. Se puede considerar por tanto, que la evoluci´on del proceso est´a dictada por un generador de se˜nales aleatorias. En la figura 2.1 se ilustran estos conceptos. Puede observarse que el valor de la funci´on en cada instante es un valor aleatorio que en la figura se considera variable en un determinado rango. Por otra parte, cuando se habla de una realizaci´on no es m´as que una funci´on com´un que depende de t. t0 t1 t2 t3 t4 w=w0 ...... Figura 2.1: Procesos estoc´asticos: realizaciones y variables aleatorias. Definici´on 2.1 Se denomina proceso estoc´astico determinista, a aqu´el cuya evoluci´on puede ser predicha exactamente con un predictor lineal 2 en base a medidas pasadas. En estos procesos, el car´acter estoc´astico s´olo se manifiesta en la aleatoriedad de las condiciones iniciales. Para aplicaciones basadas en predicci´on no son muy interesantes. 2 Es decir, haciendo evolucionar hacia delante un modelo lineal.
  • 62. 48 MODELOS DE PROCESOS CON RUIDOS Definici´on 2.2 Se denomina proceso estoc´astico estacionario, a aqu´el cuya distribu- ci´on estad´ıstica para X(t1), X(t2),...,X(tn) es la misma que para X(t1 + τ), X(t2 + τ),...,X(tn + τ). Es decir, su distribuci´on no var´ıa con el tiempo. Definici´on 2.3 Se denomina ruido blanco discreto, a un proceso aleatorio que se puede considerar como una secuencia cuyos elementos son variables aleatorias independientes entre s´ı cuya distribuci´on es id´entica. Se suele suponer que E {x(k)} = 0 es decir, que el valor esperado es cero y adem´as E {x(i)x(j)} = 0 si i = j (por ser variables independientes) σ2 si i = j Al ruido blanco se le suele considerar prototipo de una se˜nal impredecible. 2.4. Modelos de procesos con ruidos En esta secci´on veremos c´omo se pueden generar diversos tipos de procesos es- toc´asticos, cuando a un sistema lineal se le inyecta un ruido blanco v(k) adem´as de una entrada externa u(k) a trav´es de sendas funciones de transferencia. El caso m´as general es el llamado modelo de Box-Jenkins, el cual se ilustra en la figura 2.2. Esta estructura es demasiado general, y normalmente se utilizan diversas ¨© ¨© − − − − ! v(k) u(k) y(k) Figura 2.2: Modelo de Box-Jenkins. simplificaciones de las cuales veremos a continuaci´on las m´as comunes:
  • 63. CAP´ITULO 2. MODELOS DE PROCESOS Y PERTURBACIONES 49 Modelo de Media M´ovil (MA : Moving Average). Es el caso m´as sencillo y viene descrito por y(k) = v(k) + c1v(k − 1) + c2v(k − 2) + · · · + cnv(k − n) Con este modelo se pueden describir muchos tipos de perturbaciones aleato- rias. Sin embargo, no incluye a los valores pasados de la salida por lo que no servir´a para modelar procesos que tengan din´amica. Modelo Autoregresivo (AR). Viene descrito por y(k) + d1y(k − 1) + d2y(k − 2) + · · · + dny(k − n) = v(k) En este caso, la parte aleatoria correspondiente a la perturbaci´on tiene una es- tructura muy simple porque no depende de los valores pasados. Modelo Autoregresivo de Media M´ovil (ARMA). Es la combinaci´on de los dos anteriores, por lo que tomar´a la forma y(k) + d1y(k − 1) + · · · + dny(k − n) = v(k) + c1v(k − 1) +c2v(k − 2) + · · · + cnv(k − n) Este modelo permite describir procesos m´as ricos que los anteriores. Sin embargo, desde el punto de vista del control es interesante poder considerar el efecto de una entrada externa, por lo que se considera el siguiente tipo de modelos de procesos con ruidos. Modelo Autoregresivo de Media M´ovil con una entrada ex´ogena (ARMAX). Tam- bi´en llamado modelo CARMA (Controlled ARMA). Viene descrito por y(k) + a1y(k − 1) + · · · + any(k − n) = b1u(k − 1) + · · · + bnu(k − n) +v(k) + c1v(k − 1) + · · · + cnv(k − n) Modelo Autoregresivo con entrada ex´ogena para m´ınimos cuadrados (ARX-LS). Este modelo surge como versi´on simplificada del anterior, para el caso en el que no se necesita que la fuente de perturbaciones tenga una estructura tan compleja. Viene descrito por y(k) + a1y(k − 1) + · · · + any(k − n) = b1u(k − 1) + · · · + bnu(k − n) + v(k) Como su nombre indica se utiliza en la identificaci´on por el m´etodo de los m´ınimos cuadrados (v´ease el tema 4).
  • 64. 50 MODELOS DE PROCESOS CON RUIDOS Modelo Autoregresivo de Media M´ovil integrada y con una entrada ex´ogena (ARIMAX o CARIMA). Este modelo incorpora un integrador en la fuente de perturbaciones, por lo que viene descrito por y(k) + a1y(k − 1) + · · · + any(k − n) = b1u(k − 1) + · · · + bnu(k − n) + v(k) + c1v(k − 1) + · · · + cnv(k − n) ∆ donde ∆ = 1−z−1 . Este tipo de modelos es ´util en esquemas de control predictivo para formular leyes de control que incorporen un efecto integral, de manera que sean capaces de rechazar perturbaciones en escal´on. Los modelos anteriores pueden escribirse en forma condensada utilizando polinomios en z−1 tal y como se muestra en la siguiente tabla resumen: Modelo Expresi´on MA y(k) = C(z−1 )v(k) AR D(z−1 )y(k) = v(k) ARMA D(z−1 )y(k) = C(z−1 )v(k) ARMAX A(z−1 )y(k) = B(z−1 )u(k − 1) + C(z−1 )v(k) ARX-LS A(z−1 )y(k) = B(z−1 )u(k − 1) + v(k) ARIMAX A(z−1 )y(k) = B(z−1 )u(k − 1) + C(z−1)v(k) ∆ Cuando en los modelos anteriores el polinomio que convoluciona con la se˜nal v(k) es distinto de la unidad se habla de ruido coloreado, y en caso contrario, de ruido blanco.
  • 65. Cap´ıtulo 3 Introducci´on a la identificaci´on de sistemas 3.1. Introducci´on Un modelo de un proceso es una forma de resumir el conocimiento que se tiene sobre su din´amica, y por tanto es una herramienta importante en el dise˜no y an´alisis de sistemas de control. Sin embargo, al construir modelos estamos obteniendo repre- sentaciones simplificadas de la din´amica real del proceso. Un solo modelo no suele ser suficiente para describir un proceso. Por otra parte, seg´un sea el uso destinado al mod- elo este deber´a ser mas o menos detallado. Por tanto, se establece una jerarqu´ıa de modelos que describe al proceso con mayor o menor detalle. Hay dos maneras de abordar la construcci´on de un modelo: obtenerlo mediante principios y leyes f´ısicas que describan la din´amica del proceso, o bien obtenerlo me- diante experimentaci´on sobre el proceso que se quiere modelar. La primera opci´on requiere un conocimiento muy preciso del proceso que se quiere modelar. Por ejemplo, hay que elegir las variables que vayan a ser los estados del sistema, y esto puede ser un problema. Es, en general un proceso complicado y muy arduo, excepto en casos muy simples. Normalmente, se debe combinar con la otra estrategia que es la denominada identificaci´on de sistemas. Esta estrategia ser´a el objeto de este tema. 51
  • 66. 52 IDEAS B ´ASICAS SOBRE IDENTIFICACI ´ON DE SISTEMAS 3.2. Ideas b´asicas sobre identificaci´on de sistemas La identificaci´on de sistemas es la aproximaci´on experimental al modelado de sis- temas. Consiste en obtener un modelo a partir de observaciones obtenidas directamente del propio sistema que se pretende modelar. La identificaci´on de un sistema conlleva una serie de actividades y herramientas, de las que podemos destacar: Planificaci´on de los experimentos. Selecci´on del tipo de modelo. Elecci´on de un criterio para expresar la bondad del modelo que se va a obtener. Estimaci´on de los par´ametros del modelo. Validaci´on del modelo obtenido. A continuaci´on, se ir´an desglosando las principales ideas de cada uno de estos aspectos. 3.2.1. Planificaci´on de los experimentos Dado que la identificaci´on de sistemas involucra experimentar con el proceso a mod- elar, es necesario tener en cuenta que, en general, es muy costoso experimentar con pro- cesos industriales. Por tanto, es necesario elegir una t´ecnica que nos sea lo m´as rentable desde el punto de vista del tipo de experimentos necesarios. Algunas t´ecnicas son muy sencillas, en el sentido de que una vez hecho el experimento es f´acil obtener el modelo. Estas t´ecnicas, sin embargo, requieren que en los experimentos se utilicen se˜nales de entradas preestablecidas de manera muy precisa: pulsos, sinusoides, etc. . . Puede que el proceso a modelar no pueda ser sometido a este tipo de entradas por consideraciones de seguridad o motivos econ´omicos. Otras t´ecnicas de identificaci´on pueden emplear casi cualquier tipo de se˜nal de entrada (es decir, son menos exigentes en el tipo de experimentos necesarios), pero una vez realizado el experimento es m´as complicado obtener el modelo. Como comentario general, es necesario que en el experimento se utilicen se˜nales de entrada que exciten todos los modos del sistema. M´as all´a de eso, un buen m´etodo de identificaci´on debe ser insensible a las caracter´ısticas de la entrada. Otro aspecto es que a veces no se puede identificar en bucle abierto y hay que hacerlo en bucle cerrado. Esto no es siempre posible, pues aunque el sistema sea identificable en
  • 67. CAP´ITULO 3. INTRODUCCI ´ON A LA IDENTIFICACI ´ON DE SISTEMAS 53 bucle abierto esta propiedad puede perderse en bucle cerrado. Esto ocurre, por ejemplo, si los perfiles de la consigna o referencia que se usan son muy simples. Tambi´en, si los lazos de control son demasiado simples. En general, cuanto m´as complejos sean los lazos de control y m´as se mueva la consigna, m´as f´acil ser´a la identificaci´on en bucle cerrado. 3.2.2. Selecci´on del tipo de modelo En teor´ıa, la selecci´on del tipo de modelo deber´ıa venir dada por un conocimiento del proceso y de las perturbaciones que deban ser tenidas en cuenta. Dependiendo de si conocemos mucho o poco la estructura del proceso elegiremos entre uno u otro tipo de modelo. En general, los modelos los clasificaremos como: Modelos de Caja Blanca. Son los obtenidos a partir de leyes f´ısicas (esto no ser´ıa realmente identificaci´on porque no se estar´ıan haciendo experimentos). Modelos de Caja Negra. En estos modelos se postula una estructura matematica con una serie de par´ametros libres, a los cuales se les da valor a partir de los datos obtenidos en los experimentos. Modelos de Caja Gris. Corresponden a un tipo intermedio entre los dos anteriores. Parte del modelo se obtiene mediante leyes f´ısicas y otra parte, se ajusta usando medidas experimentales. Por ejemplo, mediante leyes f´ısicas podemos determinar la estructura del modelo (o de parte de ´el) y usar experimentos para terminar de caracterizar el modelo. Tambi´en se pueden clasificar los tipos de modelos en param´etricos y no param´etri- cos. En los primeros se tienen una serie de par´ametros que hay que ajustar. Por ejemplo, en una funci´on de transferencia se tendr´ıan que ajustar el orden y los coeficientes de los polinomios. En modelos de espacio de estados tendr´ıamos la misma situaci´on pero con las matrices del sistema. En los modelos no param´etricos, el modelo no tiene una serie de par´ametros que definen la din´amica sino que se compone de una cantidad de informaci´on sobre la misma, por ejemplo los modelos basados en la respuesta en fre- cuencia de un sistema. En el caso que aqu´ı nos ocupa los modelos que emplearemos ser´an de caja negra y param´etricos.
  • 68. 54 IDEAS B ´ASICAS SOBRE IDENTIFICACI ´ON DE SISTEMAS 3.2.3. Elecci´on de un criterio En el proceso de estimaci´on del modelo y su subsiguiente validaci´on es necesario contar con un criterio que exprese la bondad del ajuste del modelo a los datos, es decir, que exprese la calidad del modelo obtenido. Normalmente, se utilizan criterios que toman la forma: J(θ) = N k=1 g(e(k)) donde θ es el vector de par´ametros que se trata de ajustar, e(k) es el error de estimaci´on para la medida k, N es el n´umero de observaciones o medidas disponibles y g(·) es una funci´on usualmente cuadr´atica. Usualmente, el proceso de ajuste del modelo se realiza de manera que se busca el valor del vector de par´ametros θ que hace m´ınimo al ´ındice o criterio J(θ). El m´etodo m´as antiguo que emplea esta estrategia es el de los m´ınimos cuadrados, debido a Gauss. Por otra parte, cuando los procesos se describen mediante modelos estoc´asticos, el problema es de estimaci´on estad´ıstica. Un m´etodo muy popular en este caso, es el del estimador de m´axima verosimilitud. 3.2.4. Estimaci´on de los par´ametros Para resolver el problema de estimaci´on de los par´ametros del modelo se requiere de los elementos comentados anteriormente: datos experimentales, un tipo de modelo y un criterio. Estimar los par´ametros es resolver un problema de optimizaci´on en el cual, el mejor modelo es el que hace m´ınimo el criterio. Es necesario tener en cuenta que el modelo obtenido depender´a de los elementos anteriores, como por ejemplo de la amplitud y contenido frecuencial de la se˜nal de entrada. Hay diversas formas de llevar a cabo el proceso de estimaci´on. Una distinci´on amplia, es aquella que distingue entre identificaci´on en l´ınea e identificaci´on fuera de l´ınea. 3.2.4.1. Identificaci´on en l´ınea En los m´etodos de identificaci´on en l´ınea la estimaci´on se efect´ua usando medidas que se van obteniendo en tiempo real, y normalmente se usan c´alculos recursivos. El esquema de este tipo de identificaci´on ser´ıa el mostrado en la figura 3.1. En este esquema aparece un nivel de supervisi´on que es necesario para evitar, por ejemplo, que