Apuntes de Regulaci´on Autom´atica

Ingenier´ıa Electr´onica
Javier Aracil
Fabio G´omez-Estern
Contenido
1 Introducci´on a los sistemas de control. 1
1.1 Noci´on de control autom´atico. . . . . . . . . . . . . . . . . . . . . 1
1.2 Necesidad del modelo matem´atico del sistema. . . . . . . . . . . . 3
1.3 Idea de realimentaci´ on. . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Realimentaci´ on, retardos y oscilaci´on. . . . . . . . . . . . . . . . . 6
1.5 Sensibilidad y realimentaci´ on. . . . . . . . . . . . . . . . . . . . . 7
1.6 Las Matem´aticas y el control autom´atico. . . . . . . . . . . . . . . 9
1.7 Se˜ nales y sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.8 Servomecanismos y reguladores. . . . . . . . . . . . . . . . . . . . 13
1.9 Bosquejo hist´orico del control autom´atico. . . . . . . . . . . . . . 15
1.9.1 Control, inform´atica y telecomunicaciones. . . . . . . . . . 17
2 Introducci´on a los sistemas realimentados 19
2.1 Servomecanismo de posici´on . . . . . . . . . . . . . . . . . . . . . 19
2.2 Acci´on proporcional m´as derivada (PD). . . . . . . . . . . . . . . 21
2.3 Acci´on proporcional m´as integral (PI). . . . . . . . . . . . . . . . 22
i
Contenido ii
3 Sistemas din´amicos lineales 28
3.1 Transformaci´on de Laplace . . . . . . . . . . . . . . . . . . . . . . 28
3.1.1 Definici´on . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.2 Resumen de Propiedades . . . . . . . . . . . . . . . . . . . 29
3.1.3 Calculo de antitransformadas . . . . . . . . . . . . . . . . 33
3.2 Noci´on de sistema din´amico. . . . . . . . . . . . . . . . . . . . . . 38
3.3 Formas de las relaciones entrada-salida en sistemas. . . . . . . . . 39
3.3.1 Sistemas est´aticos. . . . . . . . . . . . . . . . . . . . . . . 39
3.3.2 Sistemas din´amicos . . . . . . . . . . . . . . . . . . . . . . 40
3.4 Descripci´on externa de los sistemas din´amicos. . . . . . . . . . . . 42
3.4.1 Respuesta impulsional. . . . . . . . . . . . . . . . . . . . . 42
3.4.2 Funci´ on de transferencia. . . . . . . . . . . . . . . . . . . . 44
3.5 Sistemas de control realimentados . . . . . . . . . . . . . . . . . . 46
4 Interpretaciones de la funci´on de transferencia 50
4.1 Transformaci´on de Fourier . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Funci´on de transferencia en el dominio de la frecuencia . . . . . . 54
5 Sistemas din´amicos lineales de primer orden 56
5.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.2 Soluci´on de la ecuaci´on diferencial de primer orden . . . . . . . . 57
5.2.1 Se˜ nal de entrada nula . . . . . . . . . . . . . . . . . . . . . 57
5.2.2 Se˜ nal de entrada no nula . . . . . . . . . . . . . . . . . . . 59
5.2.3 Respuestas a se˜ nales de entrada especiales . . . . . . . . . 61
Contenido iii
5.2.4 Respuesta arm´onica . . . . . . . . . . . . . . . . . . . . . . 69
5.3 Ejemplos de sistemas de primer orden . . . . . . . . . . . . . . . 72
5.4 El sistema de primer orden como integrador . . . . . . . . . . . . 77
6 Sistemas din´amicos lineales de segundo orden y de orden y su-
perior 79
6.1 Definici´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.1.1 Respuesta de un sistema de segundo orden a una entrada
en escal´on . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.1.2 Respuesta en frecuencia de un sistema de segundo orden . 91
6.1.3 Ecuaciones diferenciales de orden n . . . . . . . . . . . . . 92
7 Representaci´ on gr´afica de la funci´on de transferencia 98
7.1 Diagramas m´as comunes . . . . . . . . . . . . . . . . . . . . . . . 98
7.1.1 Diagrama de polos y ceros: caso racional . . . . . . . . . . 98
7.1.2 Diagrama de Nyquist . . . . . . . . . . . . . . . . . . . . . 99
7.1.3 Diagrama logar´ıtmico o de Bode . . . . . . . . . . . . . . . 100
7.1.4 Diagrama de Black . . . . . . . . . . . . . . . . . . . . . . 101
7.2 Diagrama de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.2.1 Diagrama de Bode de una constante . . . . . . . . . . . . 103
7.2.2 Diagrama de Bode de una integraci´on pura . . . . . . . . . 103
7.2.3 Diagrama de Bode de un sistema de primer orden . . . . . 103
7.2.4 Diagrama de Bode de una diferenciaci´on pura . . . . . . . 105
7.2.5 Diagrama de Bode del t´ermino asociado a un cero . . . . . 106
7.3 Sistemas de fase m´ınima . . . . . . . . . . . . . . . . . . . . . . . 106
Contenido iv
7.4 C´ırculos M y N . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.5 Relaci´on entre las constantes de error y los polos y ceros. . . . . . 112
7.5.1 Seguimiento de posici´on. . . . . . . . . . . . . . . . . . . . 113
7.5.2 Seguimiento de velocidad. . . . . . . . . . . . . . . . . . . 116
7.5.3 Seguimiento de aceleraci´on . . . . . . . . . . . . . . . . . . 118
7.5.4 Sistemas con error nulo . . . . . . . . . . . . . . . . . . . . 119
8 Estabilidad de los sistemas din´amicos 122
8.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.2 Criterios de estabilidad relativos a la descripci´on externa . . . . . 123
8.2.1 Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . . . . 128
8.2.2 Matriz de Hurwitz . . . . . . . . . . . . . . . . . . . . . . 133
8.3 Criterio de Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . . 134
8.3.1 Grado de estabilidad e interpretaci´ on del criterio de Nyquist 141
9 Compensaci´on de sistemas realimentados 143
9.1 Introducci´on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
9.2 An´alisis en el dominio de la frecuencia de la red PD . . . . . . . . 147
9.3 An´alisis en el dominio de la frecuencia de la red PI . . . . . . . . 150
9.4 Acci´on proporcional, integral y diferencial (PID) . . . . . . . . . . 153
9.5 Compensaci´on por avance de fase . . . . . . . . . . . . . . . . . . 155
9.6 Efecto en el dominio de la frecuencia . . . . . . . . . . . . . . . . 157
9.7 M´etodo pr´actico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Contenido v
10 Representaci´on matem´atica de sistemas 162
10.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
10.1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . 162
10.2 Descripci´on interna de los sistemas din´amicos . . . . . . . . . . . 163
10.2.1 Sistemas de estados finitos . . . . . . . . . . . . . . . . . . 166
10.2.2 Sistemas din´amicos lineales en tiempo continuo . . . . . . 167
10.2.3 Funci´ on de transici´on de los sistemas din´amicos lineales . . 177
10.2.4 Sistemas din´amicos lineales en tiempo discreto . . . . . . . 181
10.2.5 Muestreo de sistemas en tiempo cont´ınuo . . . . . . . . . . 182
10.2.6 Sistemas no-lineales: linealizaci´on . . . . . . . . . . . . . . 185
10.2.7 Dep´osito mezclador . . . . . . . . . . . . . . . . . . . . . 187
11 Controlabilidad y observabilidad de sistemas din´amicos 191
11.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
11.2 Controlabilidad de sistemas din´amicos lineales . . . . . . . . . . . 192
11.2.1 Estados alcanzables . . . . . . . . . . . . . . . . . . . . . . 192
11.2.2 Estados controlables . . . . . . . . . . . . . . . . . . . . . 193
11.2.3 Estados conectados . . . . . . . . . . . . . . . . . . . . . . 194
11.3 Controlabilidad de los sistemas en tiempo discreto . . . . . . . . . 195
11.3.1 Ejemplos de introducci´on . . . . . . . . . . . . . . . . . . . 196
11.3.2 Controlabilidad de sistemas en tiempo continuo . . . . . . 202
11.3.3 Criterio de controlabilidad . . . . . . . . . . . . . . . . . . 203
11.3.4 Ejemplos de controlabilidad . . . . . . . . . . . . . . . . . 206
Contenido vi
11.4 Notas sobre controlabilidad . . . . . . . . . . . . . . . . . . . . . 209
11.4.1 Controlabilidad de sistemas monovariables . . . . . . . . . 209
11.4.2 Transformaci´ on de la matriz de Controlabilidad . . . . . . 210
11.4.3 Forma simplificada del criterio de controlabilidad . . . . . 210
11.4.4 La controlabilidad como propiedad gen´erica . . . . . . . . 211
11.5 Descomposici´on del espacio de estados en sus partes controlables
y no controlables . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
11.6 Observabilidad de sistemas din´amicos lineales . . . . . . . . . . . 218
11.6.1 Introducci´on a la observabilidad . . . . . . . . . . . . . . . 218
11.6.2 Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . 220
11.6.3 Reconstructibilidad . . . . . . . . . . . . . . . . . . . . . . 221
11.6.4 Criterio de observabilidad . . . . . . . . . . . . . . . . . . 221
11.7 Sistemas continuos . . . . . . . . . . . . . . . . . . . . . . . . . . 223
11.8 P´erdida de observabilidad por muestreo . . . . . . . . . . . . . . . 225
11.8.1 Notas sobre observabilidad . . . . . . . . . . . . . . . . . . 227
11.9 Descomposici´on del espacio de estados en sus partes observables y
no-observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
11.10Descomposici´on can´onica del espacio de estados . . . . . . . . . . 229
11.11Formas can´onicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
11.11.1Forma can´onica de observaci´ on . . . . . . . . . . . . . . . 239
12 S´ıntesis de sistemas de control por variables de estado 242
12.1 Ley de Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
12.1.1 Interpretaci´on por diagramas . . . . . . . . . . . . . . . . 245
Contenido vii
12.1.2 Interpretaci´on algebraica . . . . . . . . . . . . . . . . . . . 246
12.1.3 Determinaci´on de la ley de control . . . . . . . . . . . . . 248
12.2 Observadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
12.2.1 Sistemas monovariables . . . . . . . . . . . . . . . . . . . . 252
12.3 S´ıntesis del sistema en bucle cerrado . . . . . . . . . . . . . . . . 262
12.3.1 M´etodo pr´actico de s´ıntesis . . . . . . . . . . . . . . . . . 270
12.3.2 S´ıntesis algebraica directa (S´ıntesis externa directa) . . . . 275
13 Sistemas no lineales 283
13.1 M´etodo del primer arm´onico . . . . . . . . . . . . . . . . . . . . . 283
13.1.1 Ejemplo introductorio . . . . . . . . . . . . . . . . . . . . 283
13.1.2 Principios del m´etodo . . . . . . . . . . . . . . . . . . . . 289
13.1.3 Transformaci´ on de Fourier . . . . . . . . . . . . . . . . . . 289
13.2 Algunas funciones descriptivas . . . . . . . . . . . . . . . . . . . . 291
13.2.1 Saturaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
13.2.2 Rel´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
13.2.3 Holgura . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
13.2.4 Determinaci´on experimental de la funci´on descriptiva . . . 297
13.3 An´alisis de sistemas no lineales mediante la funci´on descriptiva . . 298
13.3.1 Una ampliaci´on del criterio de Nyquist . . . . . . . . . . . 299
13.3.2 Oscilaciones de un servomecanismo no lineal . . . . . . . . 300
13.3.3 Funci´ on descriptiva independiente de la frecuencia . . . . . 302
13.3.4 Funci´ on descriptiva dependiente de la frecuencia . . . . . . 302
Contenido viii
13.3.5 Estabilidad de los ciclos l´ımite . . . . . . . . . . . . . . . . 304
13.3.6 Fiabilidad del an´alisis mediante funciones descriptivas . . . 309
13.4 Criterios de estabilidad relativos a la descripci´on interna . . . . . 311
13.4.1 Teor´ıa de Lyapunov . . . . . . . . . . . . . . . . . . . . . . 311
13.4.2 Un ejemplo introductorio . . . . . . . . . . . . . . . . . . . 311
13.4.3 Noci´on de estabilidad en el sentido de Lyapunov . . . . . . 314
13.4.4 Teorema de Lyapunov . . . . . . . . . . . . . . . . . . . . 315
13.4.5 Aplicaci´on del m´etodo de Lyapunov a sistemas lineales . . 318
13.5 Construcci´on de funciones de Lyapunov con formas cuadr´aticas . 323
13.5.1 M´etodo de Krasovkii . . . . . . . . . . . . . . . . . . . . . 327
14 Introducci´on a la optimizaci´on de sistemas din´amicos 331
14.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
14.2 Optimizaci´on Est´atica. . . . . . . . . . . . . . . . . . . . . . . . . 332
14.2.1 Minimizaci´on de funciones . . . . . . . . . . . . . . . . . . 332
14.3 Introducci´on al control ´optimo . . . . . . . . . . . . . . . . . . . . 336
14.3.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
14.3.2 Ejemplo de ´ındice de funcionamiento cuadr´atico . . . . . . 341
14.4 Problema general del control ´optimo . . . . . . . . . . . . . . . . 345
14.5 C´alculo de variaciones . . . . . . . . . . . . . . . . . . . . . . . . 346
14.5.1 Funcionales y sus variaciones . . . . . . . . . . . . . . . . . 346
14.5.2 Ecuaciones de Euler . . . . . . . . . . . . . . . . . . . . . 352
14.5.3 Estado final variable . . . . . . . . . . . . . . . . . . . . . 359
Contenido ix
15 M´etodos Variacionales en Control Optimo 368
15.1 Aplicaci´on del c´alculo de variaciones a la resoluci´on del problema
del Control Optimo . . . . . . . . . . . . . . . . . . . . . . . . . . 368
15.1.1 Se puede eliminar u . . . . . . . . . . . . . . . . . . . . . . 368
15.1.2 No se puede eliminar u . . . . . . . . . . . . . . . . . . . 373
15.1.3 Introducci´on de un t´ermino de control terminal . . . . . . 382
16 Principio del M´ınimo de Pontriagin 393
16.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
16.2 Control ´optimo por conmutaci´ on . . . . . . . . . . . . . . . . . . 408
16.2.1 Control en tiempo m´ınimo de un sistema de segundo orden 408
16.2.2 Ejemplo 4: Problema del alunizaje suave . . . . . . . . . . 412
17 Principio de optimalidad de Bellman 417
17.1 Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
17.1.1 Ejemplo de un sistema binario en tiempo discreto . . . . . 421
17.1.2 Programaci´on din´amica en tiempo discreto y Principio de
Optimalidad . . . . . . . . . . . . . . . . . . . . . . . . . . 423
17.2 Programaci´on din´amica y ecuaci´on de Hamilton-Jacobi-Bellman . 424
17.2.1 Relaci´on entre la programaci´on din´amica y la formulaci´ on
Hamiltoniana del problema de control ´optimo . . . . . . . 433
17.3 Control de sistemas din´amicos lineales con criterio cuadr´atico . . . 434
17.3.1 Breve rese˜ na hist´orica . . . . . . . . . . . . . . . . . . . . 434
17.3.2 Problema LQR . . . . . . . . . . . . . . . . . . . . . . . . 436
17.4 Ecuaci´on de Riccati en el dominio de la frecuencia . . . . . . . . . 446
Contenido x
17.5 Resoluci´on del problema LQR . . . . . . . . . . . . . . . . . . . . 450
18 Estimaci´on del estado 452
18.1 Noci´on de se˜ nal aleatoria . . . . . . . . . . . . . . . . . . . . . . . 452
18.1.1 Descripci´on estad´ıstica de las se˜ nales aleatorias . . . . . . 453
18.2 Transmisi´ on de se˜ nales aleatorias a trav´es de sistemas lineales: de-
scripci´on interna . . . . . . . . . . . . . . . . . . . . . . . . . . . 456
18.3 El problema de la observaci´ on: Filtro de Kalman . . . . . . . . . 458
18.3.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
18.4 M´etodo LQG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466
Tema 1
Introducci´on a los sistemas de
control.
1.1 Noci´on de control autom´atico.
De una manera intuitiva se concibe el control autom´atico, como la rama de la
t´ecnica que tiene por objeto concebir ingenios que funcionen aut´onomamente, es
decir, y hablando llanamente, que funcionen solos. Esta noci´on intuitiva requiere
unas ciertas matizaciones, pero es v´alida como punto de partida.
Bajo cierto punto de vista se puede considerar que en todo proceso industrial
intervienen por una parte la informaci´on (´ordenes) y por otra la potencia. Bajo
este mismo punto de vista cabe considerar el funcionamiento de un proceso como
la adopci´on de las acciones necesarias frente al mismo (se˜ nales de mando o control)
para la conveniente dosificaci´on de la energ´ıa en los distintos puntos del proceso
para que el funcionamiento del conjunto sea el conveniente.
En todo proceso, sea la fabricaci´on de un producto, un avi´ on en vuelo, una
m´aquina funcionando, etc.., se realizan una serie de acciones que presuponen
la dosificaci´on de la aplicaci´on de energ´ıa en determinados puntos, bien bajo la
acci´on de unas ´ordenes que se suministran al mismo, bien de una manera aleatoria
por parte del medio en el que se halla inmerso.
Se puede representar un proceso de esta naturaleza, al que a partir de ahora
denominaremos sistema por medio de un bloque, o rect´angulo, tal como el repre-
sentado en la figura 1.1. A la izquierda de este bloque se han representado unas
1
Introducci´on a los sistemas de control. 2
flechas que se han denotado por u
1
, u
2
... y que representan las distintas acciones
que se pueden ejercer sobre el proceso; se denominar´an en lo que sigue se˜ nales
de control, mando, o entrada. A la derecha del bloque se han representado otras
flechas, como saliendo del mismo, que se han denotado por y
1
, y
2
, ... y que repre-
sentan los productos que produce el proceso. Tanto las acciones sobre el sistema
como los productos del mismo generalmente var´ıan con el tiempo, por lo que se
hablar´a de secuencias temporales, o m´as formalmente de se˜ nales; sobre el car´acter
de estas se˜ nales se volver´a m´as adelante.
Sistema
a
controlar
E
E
E
E
E
E
q
q
q
q
q
q
u
1
u
2
u
n
y
1
y
2
y
m
Figura 1.1: Sistema din´amico
Obs´ervese que este esquema, al nivel que se ha desarrollado hasta ahora,
tiene una ampl´ısima aplicaci´on. Por ejemplo la conducci´on de un autom´ovil
por una carretera puede considerarse como un proceso sistema representado con
un diagrama similar al de la figura 1.1 siendo u
1
la posici´on del volante; u
2
la
direcci´on del viento respecto a la del autom´ovil, etc.., y siendo y
1
la velocidad del
autom´ovil; y
2
la separaci´on del mismo de la cuneta, etc.
De una manera intuitiva se entiende que un proceso est´a automatizado cuando
funciona solo, es decir, sin intervenci´ on del ser humano. Por ejemplo, un au-
tom´ovil completamente automatizado ser´ıa aqu´el que funcionase completamente
solo. Aunque este ejemplo trivial pueda asociarse al dominio de la ciencia ficci´on,
recientes avances en disciplinas como la la visi´on artificial y el aprendizaje au-
tom´atico, auguran su inminente viabilidad t´ecnica.
Volviendo al problema original, se puede decir que el funcionamiento del pro-
ceso se har´a a partir de la serie de se˜ nales u
i
que se le aplique. El problema de
controlar (gobernar) el proceso, se reduce al de establecer las se˜ nales de entrada
(´ordenes), a que deber´a ser sometido para que su funcionamiento sea el apetecido.
Por lo tanto, el problema de controlar el funcionamiento de un proceso queda
reducido al de la toma de decisi´on de la secuencia temporal de valores que deben
Introducci´on a los sistemas de control. 3
tomar las se˜ nales de mando del mismo. Es decir, volviendo al ejemplo trivial
de la conducci´on del autom´ovil, la decisi´on de las maniobras que debe efectuar
el conductor (sobre el volante, sobre el freno, sobre el acelerador...) para que el
funcionamiento del autom´ovil sea el adecuado.
1.2 Necesidad del modelo matem´atico del sis-
tema.
Se ha visto en el apartado anterior c´omo el gobierno de un proceso se reduc´ıa
al establecimiento de la secuencia de acciones de mando que debe aplic´arsele
para que el funcionamiento sea el apetecido. Se va a considerar ahora un primer
aspecto del establecimiento de esta secuencia.
La toma de decisi´on sobre la se˜ nal que debe aplicarse al sistema implica que
existan distintas alternativas. Es decir, que existan distintas acciones posibles
cada una de las cuales dar´ıa un resultado distinto. El problema se reduce al de
elegir entre estas se˜ nales, aquellas cuyo resultado sea el apetecido.
Al existir distintas opciones respecto a la acci´on a tomar para gobernar el
proceso, para realizar la elecci´on conveniente de la se˜ nal de entrada que determine
un funcionamiento apetecido, es necesario que se sepa predecir qu´e resultados se
obtendr´a de cada una de las posibles acciones. Es decir, quien tome la decisi´on
respecto a cu´al de las posibles acciones a tomar debe adoptarse, debe predecir in
mente, las acciones que resultar´an de cada una de sus posibles opciones, con el
fin de escoger aquella se˜ nal de entrada a la que corresponda un resultado que sea
el buscado.
Por lo tanto, se requiere el conocimiento exhaustivo de las relaciones que
existen entre las posibles acciones a tomar sobre el sistema, y los resultados que
determinar´an cada una de ellas. Esto es lo que se llama un modelo del proceso;
aunque existen diversos tipos de modelos, (descripciones verbales, prototipos,
tablas), nos interesamos en texto por los matem´aticos, que est´an constituidos por
las relaciones formales que ligan a las se˜ nales u
i
e y
i
.
El conductor del autom´ovil, que es quien toma la decisi´on del posicionamiento
de los distintos ´organos que tiene a su alcance (volante, frenos, acelerador...) lo
que hace en todo instante es prever cu´al ser´a el resultado de las decisiones tomadas
con el fin de mantener el proceso que gobierna (el autom´ovil), en un estado de
marcha y funcionamiento apetecido.
Introducci´on a los sistemas de control. 4
Para construir un modelo matem´atico de un proceso, se requiere establecer de
una forma precisa, las magnitudes que lo definen (se˜ nales de entrada y de salida)
as´ı como las relaciones formales que ligan a estas magnitudes.
En la vida ordinaria, cuando se construyen modelos, de una manera subcon-
sciente, para la toma de decisiones, ´estos no tienen el nivel de formalidad que se
acaba de indicar. Sin embargo, cuando se quiere automatizar un proceso, es indis-
pensable la construcci´on de estos modelos formales con el fin de poder trasladar
el proceso de toma de decisi´on a una m´aquina construida al efecto, as´ı que de-
terminar´a las acciones a tomar precisamente a partir del modelo del sistema del
que disponga.
La posibilidad de construir un modelo del proceso que se est´e considerando,
constituye una de las mayores limitaciones a priori respecto a la posibilidad de
automatizar un determinado proceso. Consid´erese, por ejemplo, el problema del
establecimiento de un tratamiento por un m´edico para uno de sus enfermos. En
la medida en que fuese posible en primer lugar definir una serie de magnitudes
que caracterizasen el estado del enfermo (temperatura, tensi´on arterial, concen-
traciones en sangre de principios activos...) y de las relaciones formales que ligan
a estas magnitudes, ser´ıa posible automatizar completamente el problema del es-
tablecimiento de un tratamiento, que no es sino determinar la acci´on a seguir
sobre el enfermo para conseguir que la evoluci´on del mismo estado de salud se
realice en forma apetecida.
En ciertos casos es posible establecer un modelo matem´atico del proceso que
ligue de una manera un´ıvoca a cada una de las acciones que se tomen un ´ unico
resultado. Se tiene entonces un sistema determinista. En otros casos, para cada
una de las acciones posibles, no se tiene sino una predicci´on estad´ıstica de posibles
resultados; se tienen entonces los llamados sistemas estoc´asticos.
1.3 Idea de realimentaci´on.
El conocimiento del modelo matem´atico del sistema sobre el que se debe tomar
una decisi´on para gobernar su funcionamiento, no es suficiente para la toma de
esta decisi´on. Se requiere adem´as informaci´on sobre lo que, de una forma intuitiva
de momento se puede denominar estado actual del mismo.
Es f´acil encontrar ejemplos que ilustren este punto. Sup´ongase, por ejemplo,
un autom´ovil que debe hacer el recorrido Sevilla - C´adiz. Sup´ongase que se
dispone de un modelo matem´atico del funcionamiento del autom´ovil as´ı como
Introducci´on a los sistemas de control. 5
un trazado minucioso de la autopista que une las dos ciudades Parece posible,
en principio, concebir un programa de ordenador extraordinariamente detallado
que permitiese realizar la toma de decisiones sobre la conducci´on del autom´ovil.
Un programa que ser´ıa algo as´ı como una secuencia de instrucciones del tipo:
avanzar en l´ınea recta 150 m, realizar un giro a la derecha, con radio de giro de
1 km.,.... Sin embargo parece claro que en principio no quepa augurar un feliz
resultado a la empresa. Este tipo de programa dar´ıa lugar a un control en en
el que no se tiene informaci´on externa sobre la situaci´on actual, situaci´on que
recibe el la denominaci´on de se denomina control en bucle abierto. Pese a sus
limitaciones, tiene su aplicaci´on en ciertos contextos, por ejemplo una lavadora
autom´atica basada en secuencias de trabajo prefijadas en el tiempo.
El conductor del autom´ovil no hace sino desde su posici´on de gobierno, intro-
ducir en su sistema de decisi´on neuronal, especialmente por medio de sus ojos,
informaci´on sobre el estado actual del autom´ovil, permitiendo de esta forma el
que la toma de decisi´on respecto a la condici´on del mismo, adquiera un grado de
eficacia realmente fiable.
Este ejemplo, pese a su aparente artificiosidad es similar al que se presenta
cuando se trata de enviar una c´apsula a la luna. Debe notarse que la necesidad
de la realimentaci´on surge como consecuencia de la aparici´on de perturbaciones
aleatorias que modifican el funcionamiento del sistema de acuerdo con un plan
previsto, o sencillamente por la imperfecci´on del modelo del sistema que le impide
una predicci´on exacta, a largo plazo, del funcionamiento del mismo.
Desde un punto de vista general, cabe decir que los sistemas con realimentaci´ on
son aqu´ellos en los que la adopci´on de decisiones cara al futuro est´a completa-
mente influenciada por los efectos de las previamente adoptadas. Dicho con otras
palabras, son los sistemas en los que si la acci´on que se lleva a efecto persigue
una determinada meta, es la diferencia entre la precisi´on alcanzada en la aproxi-
maci´on a esta meta, y ella misma, la que determina las acciones posteriores. Este
tipo de actuaciones son las que se denominan control en bucle cerrado o control
por realimentaci´ on.
En la figura 1.2 se representa en forma de diagrama de bloques lo anterior.
En dicha figura se representa por un lado el Sistema, cuya variable de Salida
pretendemos controlar de forma que siga a la Entrada. Para ello se dispone de
un Elemento de medici´on, que nos proporciona el valor de la se˜ nal de salida y
posteriormente una vez comparada con la se˜ nal de entrada se toma la decisi´on
correspondiente para actuar sobre el sistema.
Conviene recordar que, en general, los sistemas f´ısicos poseen memoria del
Introducci´on a los sistemas de control. 6
Toma de
decisi´on
Planta
Elemento
de
medici´on
E E E
T
'
Salida Entrada
Figura 1.2: Realimentaci´ on
pasado; por ello la salida del sistema en un instante dado no es funci´on exclusiva-
mente de la entrada en ese mismo instante: depende de toda la historia pasada de
las entradas. Por esta raz´on la estructura realimentaci´ on es un objeto complejo
en cuanto a su comprensi´on y dise˜ no.
1.4 Realimentaci´on, retardos y oscilaci´on.
La existencia de retardos en un circuito (bucle) de realimentaci´on, conduce a la
aparici´on de fen´omenos oscilatorios en el comportamiento din´amico del mismo.
Este hecho tiene una importancia capital al considerar el comportamiento din´amico
de los sistemas realimentados y gran parte del problema de dise˜ no de los mismos
reside en el amortiguamiento (o anulaci´on) de estas oscilaciones.
Con el fin de ilustrar de una manera intuitiva este hecho, consid´erese a un con-
ductor que conduce un autom´ovil, proceso que se puede interpretar con un bucle
de realimentaci´on tal como el de la figura 1.3. Entre la detecci´on de un obst´aculo,
y la acci´on correctora consiguiente (girar el volante, actuar sobre los frenos...), se
produce un cierto retardo que el conductor experimentado tiene perfectamente
asimilado, y no constituye un obst´aculo para una conducci´on normal.
Sup´ongase que se trata de mantener el coche en l´ınea recta sobre una superficie
completamente llana, sin ning´ un obst´aculo. Sobre el autom´ovil s´olo act´ uan las
peque˜ nas perturbaciones (baches) del terreno y el conductor puede conseguir su
Introducci´on a los sistemas de control. 7
Ojos
(Sentidos)
Conducci´on Coche
E E E E
T
c c c
Referencia
Perturbaciones
Posici´on
Figura 1.3: Ejemplo de realimentaci´ on
objetivo con relativa facilidad.
Sup´ongase ahora que el conductor debe realizar su cometido con los ojos
cerrados, llevando a su lado un copiloto que es el que le va transmitiendo las
indicaciones respecto a las desviaciones de la l´ınea recta que se trata de seguir.
El circuito de realimentaci´on se modifica, en este caso, al de la figura 1.4, con
ello lo que se ha introducido es de una manera artificiosa un notable retardo en
el bucle de realimentaci´ on. Es f´acil comprender, que en este segundo caso, y
debido precisamente al retraso que se introduce en el bucle de realimentaci´on, la
conducci´on ser´a fuertemente oscilante.
Un hecho importante que ilustra tambi´en el anterior ejemplo es que cuanto
mayor sea la velocidad a la que pretende conducirse el autom´ovil, mayores ser´an
los efectos de oscilaci´on que se han indicado. El dilema entre velocidad de re-
spuesta (precisi´on) y estabilidad (ausencia de oscilaciones), constituye una de las
constantes que aparecen en el estudio de sistemas realimentados.
1.5 Sensibilidad y realimentaci´on.
Un sistema se dice sensible a la variaci´on de un determinado par´ametro cuando
´este influye de forma importante en el comportamiento del mismo. Por ejemplo, la
conducci´on de un autom´ovil es extraordinariamente sensible al estado del firme
Introducci´on a los sistemas de control. 8
Ojos
(Sentidos)
Transmisi´ on
oral
Conducci´on Coche
E E E E E
T
c c c
Ref.
Perturbaciones
Posici´ on
Figura 1.4: Sistema con retardo
de la carretera. M´as adelante se dar´a una definici´on precisa de este concepto;
aqu´ı, de momento, con esta noci´on intuitiva es suficiente.
Los sistemas realimentados son enormemente menos sensibles a las perturba-
ciones que los sistemas sin realimentar. En efecto, un ejemplo trivial ayudar´a a
fijar esta idea. Consid´erese que se trata de preparar una ducha de agua templada.
El sistema se puede considerar en bucle abierto, es decir, sin realimentaci´ on, si
una vez realizado el ajuste de las proporciones de agua fr´ıa y caliente, ´este per-
manece inalterado durante toda la ducha. Si aparece cualquier perturbaci´on, por
ejemplo, que en otro lugar de la casa se abra un grifo de agua caliente, lo que
influye en la mezcla, las consecuencias desagradables para el que se ducha no se
pueden atenuar. El sistema es enormemente sensible.
Por el contrario, si se puede actuar sobre los grifos durante todo el proceso,
entonces se tiene un sistema en bucle cerrado en el que la persona que se ducha
puede tomar las decisiones oportunas, y actuar sobre el sistema a trav´es de los
grifos, para corregir cualquier perturbaci´on que se pueda producir. El sistema,
en conjunto, ha atenuado las posibles perturbaciones exteriores, por lo tanto ha
disminuido su sensibilidad sobre las mismas.
Este ejemplo ayuda tambi´en a poner de manifiesto uno de los problemas m´as
importantes que se pueden producir como consecuencia de la introducci´on de la
realimentaci´on. Consid´erese que:
• Los grifos se encuentran alejados del dep´osito de agua caliente; y
Introducci´on a los sistemas de control. 9
• Una peque˜ na variaci´ on de cualquiera de los grifos influye sensiblemente en
la temperatura del agua.
Es claro que en tales condiciones se producir´an oscilaciones de la temperatura del
agua, puesto que ser´a enormemente dif´ıcil ajustar la misma. Ello es debido a que
cualquier acci´on que se tome tarda un cierto tiempo en detectarse (en la espalda
del que se ducha que es el ´organo de medida), y por lo tanto ´este posiblemente se
pase en la correcci´on. El sistema se convierte entonces en un sistema inestable, y
la correcci´on de ese tipo de inestabilidad constituye uno de los primeros problemas
con los que se enfrenta el dise˜ nador de sistemas realimentados. Ello se pondr´a
ampliamente de manifiesto a lo largo de este curso.
1.6 Las Matem´aticas y el control autom´atico.
Las matem´aticas tienen un doble empleo en las ciencias emp´ıricas y aplicadas.
• Las matem´aticas pueden usarse como lenguaje cuando se pretende formular
los problemas con la ayuda de conceptos matem´aticos buscando con ello la
precisi´on y claridad.
• Las matem´aticas pueden emplearse como herramientas cuando una vez
planteado el problema en t´erminos matem´aticos se resuelven las ecuaciones
que resultan (anal´ıticamente o por simulaci´ on).
Por otra parte, cabe considerar que la ingenier´ıa puede describirse como una
mezcla de sentido com´ un y ciencia. Se trata de recurrir a planteamientos te´oricos
que permitan profundizar en los problemas que se est´en tratando, pero sin perder
de vista que en ´ ultimo extremo de lo que se trata es de conseguir algo que funcione.
Estas consideraciones previas deben hacerse por cuanto que, como es l´ogico
seg´ un lo que se ha visto en los apartados anteriores, las matem´aticas juegan un
papel fundamental en la moderna teor´ıa del control autom´atico. Tan es as´ı que
en alg´ un sentido puede considerarse la teor´ıa del control autom´atico como una
rama de las matem´aticas aplicadas.
En la figura 1.5 se tiene un sencillo diagrama en el que se pretende expresar
las fases del m´etodo en control autom´atico. Estas fases pueden resumirse en:
Introducci´on a los sistemas de control. 10
1. A partir del proceso, por abstracci´on, se construye el modelo matem´atico
del mismo. Esta primera fase no es espec´ıfica del especialista en control, y
requiere del concurso del especialista en el proceso a controlar.
2. Una vez obtenido el modelo matem´atico, se determina qu´e tipo de acci´on
debe efectuarse sobre el mismo para que su comportamiento se adec´ ue a las
metas propuestas. Se trata de determinar, lo que m´as adelante se denomi-
nar´a ley de control.
3. Por ´ ultimo, se trata de realizar f´ısicamente, la ley de control determinada
en el punto anterior para lo que se requiere el concurso de instrumentos
electr´onicos y f´ısicos que realicen esta funci´on. En esta ´ ultima fase se re-
quiere de nuevo el concurso del especialista en el proceso a controlar (en
forma de instrumentista).
Sistema
F´ısico
Modelo
Matem´atico
Sistema
de Control
Ley de
Control
T T
c c
E
E
Abstracci´on Implementaci´on
Figura 1.5: Fases del M´etodo de Control
De las tres fases anteriores, la espec´ıfica del especialista en sistemas de control
es la segunda, que tiene un car´acter fundamental matem´atico. Se ha llegado
incluso a decir que el especialista en control en realidad no trata con los sistemas
f´ısicos, sino exclusivamente con sus modelos matem´aticos.
Introducci´on a los sistemas de control. 11
Por lo tanto, el terreno en que se mueve el especialista en control autom´atico,
est´a fuertemente influido por las matem´aticas aplicadas, aunque nunca debe olvi-
darse las consideraciones hechas m´as arriba respecto a la labor del ingeniero.
1.7 Se˜ nales y sistemas.
En el estudio de los sistemas de control es fundamental adquirir previamente una
idea clara de los conceptos de se˜ nal y sistema.
Se entiende por se˜ nal, en un sentido amplio, toda magnitud f´ısica que evolu-
ciona en el tiempo. En un sentido m´as restringido se requiere adem´as que
esta se˜ nal tenga cierto contenido informacional, es decir que sea significativa en
cierto aspecto, los tipos de se˜ nales generalmente empleados en sistemas de Con-
trol son tensiones o corrientes el´ectricas, desplazamientos mec´anicos y presiones
neum´aticas o hidr´aulicas, si bien en principio no hay ning´ un incoveniente en in-
cluir otro tipo de se˜ nales. Se emplear´a aqu´ı la notaci´on habitualmente empleada
en matem´aticas para referirse a una magnitud f´ısica X que, en cada instante t,
toma un cierto valor.
La definici´on de sistema es m´as ambigua. Se entiende por sistema un conjunto
de partes entrelazadas operativamente de manera que unas act´ uen sobre otras y
que en conjunto formen un todo. Un ejemplo de sistema de acuerdo con esta
definici´on lo constituye el Sistema Econ´omico Nacional, en el que salarios, nivel
de precios, ahorro, etc, interaccionan entre s´ı. Aqu´ı interesar´ a la consideraci´on
de sistemas m´as simples en los que los elementos interactuantes son f´ısicos y, de
hecho, puedan definirse magnitudes f´ısicas que describan su comportamiento. Un
sistema puede tambi´en definirse como un procesador de se˜ nales, en el sentido de
que excitado con determinadas se˜ nales responde con otras.
Es por lo tanto evidente que la consideraci´on del comportamiento din´amico
de un sistema tendr´a un papel preponderante, por cuanto que una se˜ nal es una
magnitud f´ısica que evoluciona en el tiempo, y un sistema es un procesador de
se˜ nales.
Normalmente, los sistemas que interesan en Autom´atica, tendr´an puntos de
acceso llamados entradas, por los que pueden ser excitados por se˜ nales llamadas
se˜ nales de entrada. As´ı mismo tendr´an otros accesos en los que la evoluci´on
de ciertas magnitudes f´ısicas podr´a leerse. Estos puntos se llamar´an salidas y
las magnitudes a ellos ligadas se˜ nales de salida. La voz punto, empleada en las
anteriores definiciones de entrada y salida, debe tomarse en un sentido amplio
Introducci´on a los sistemas de control. 12
y no geom´etrico. Los sistemas se representan por medio de bloques tal como se
indica en la figura 1.6.
potencia perturbaciones
Señales de
u(t)
entrada
Señales de
salida
y(t)
Figura 1.6: Sistema din´amico
Juntamente con las se˜ nales de entrada y salida interesa considerar que un
sistema puede estar sometido a otro tipo de entradas como son las de suminis-
tro de potencia o las perturbaciones. Pero con el fin de poder estudiar en su
comportamiento ciertas regularidades, que permitan su estudio matem´atico, se
considerar´a que estas, o bien se mantienen constantes (potencial), o bien sufren
s´olo variaciones despreciables (perturbaciones), de manera que el valor de la se˜ nal
de salida pueda considerarse funci´on exclusivamente del conjunto de valores toma-
dos por la se˜ nal de entrada. Por lo tanto normalmente la representaci´ on de un
sistema se har´a como indica la figura 1.1.
Como ejemplo de lo dicho se puede considerar un motor el´ectrico en el cual el
campo se mantiene constante y se var´ıa la velocidad actuando sobre la corriente
de inducido. (Figura 1.7)
Intensidad de
inducido
Excitación
Constante
velocidad
Figura 1.7: Motor el´ectrico
Desde el punto de vista que se est´a considerando se dir´a que el motor es un
sistema que, a una se˜ nal de entrada u(t) (intensidad de inducido), da una se˜ nal
Introducci´on a los sistemas de control. 13
de salida y(t) (velocidad del motor). Se puede, en cierto aspecto, prescindir de la
consideraci´on del campo.
1.8 Servomecanismos y reguladores.
La autom´atica es un campo vast´ısimo. En ´el se entrelazan aspectos te´oricos y
tecnol´ogicos de suerte que es dif´ıcil establecer en el mismo sistematizaciones de
cara a su estudio. Sin embargo atendiendo a su desarrollo hist´orico y al inter´es
de ciertas aplicaciones a las que, por otra parte, se ha podido aplicar una teor´ıa
sencilla y fecunda, es posible extraer de todo el complejo mundo de la autom´atica
campos de estudio concretos como son los servomecanismos y los reguladores.
Un servomecanismo es un ingenio con el que se pretende controlar una posici´on.
Ejemplos de servomecanismos se encuentran en campos tan variados como son
los posicionamientos de los timones de un barco, posicionamiento de las ante-
nas de radar, posicionamiento de las ruedas de un cami´on en una servodirecci´on,
posicionamiento de la herramienta en un torno automatizado, posicionamiento
de la pluma en un registrador de precisi´on, etc... El control de la posici´on se
puede hacer de acuerdo con un sencillo esquema de realimentaci´ on como el de la
figura 1.8.
amplificador
e
u
motor
y
-
+
Figura 1.8: Servomecanismo de posici´on
Siempre que la posici´on de salida no se encuentre en la posici´on requerida por
la referencia aparece un error que actuando sobre el servomotor determina que
´este act´ ue corrigiendo el error. La ´ unica posici´on de equilibrio es aqu´ella en que
la posici´on de salida es igual a la referencia
1
.
Por lo tanto un servomecanismo es, esencialmente, un sistema seguidor o re-
1
Esta afirmaci´on se restringe a una clase de sistemas mec´anicos lineales.
Introducci´on a los sistemas de control. 14
productor en el que la posici´on de salida sigue o reproduce a la se˜ nal de entrada
(referencia). Una caracter´ıstica esencial, que justifica las aplicaciones de los ser-
vomecanismos es que el nivel de potencia de la se˜ nal de salida puede ser muy
superior al de la se˜ nal de entrada. En el esquema anterior se ve c´omo lo que
posiciona es el servomotor, que viene actuado por una potencia externa al con-
junto (el campo) y una se˜ nal que viene del servoamplificador y que es la que
realmente corrige (alimentaci´on del inducido). Obs´ervese que la misma se˜ nal que
viene del servoamplificador ha recibido, en ´esta, potencia del exterior. Por lo
tanto un servomecanismo es un ingenio que reproduce se˜ nales de posici´on a un
nivel de potencia superior. El precio de esta mayor potencia en la posici´on de la
salida es una p´erdida de calidad en la se˜ nal, es decir, de una cierta distorsi´on.
Precisamente las t´ecnicas de dise˜ no de servomecanismos tratan de conseguir que
esta p´erdida de calidad de la se˜ nal sea m´ınima.
Un problema, aunque desde un punto de partida distinto al de los servome-
canismos pero que conduce a planteamientos semejantes, es el de los reguladores.
Una determinada magnitud f´ısica se dice que est´a regulada si est´a provista de un
sistema que reaccione frente a los cambios del medio externo que afecten a esta
magnitud, de suerte que se mantenga en un valor aproximadamente constante.
Un ejemplo trivial de ello lo suministra un sistema de regulaci´on de temperatura
en una habitaci´on. El sistema calefactor, a trav´es de un termostato, debe reac-
cionar a las variaciones del medio (aperturas de puertas, entrada de m´as o menos
gente, p´erdidas naturales distintas en el d´ıa que en la noche, etc...) de suerte que
la temperatura se mantenga constante.
Vr
Kt
t V
Ti
Kp
c K
Ta
K
V
b
a
c
+
+
+
-
-
-
Figura 1.9: Regulador de temperatura
El esquema que permite la regulaci´on de temperatura es esencialmente el
mismo de un servomecanismo, tal y como se ve en la figura 1.9. Sin embargo,
deben notarse las diferencias, desde un punto de vista f´ısico, entre ambos sistemas.
1. En el servomecanismo, la entrada (referencia) es variable y se pretende que
Introducci´on a los sistemas de control. 15
la salida siga a la entrada. Mientras que en el regulador la entrada es
constante.
2. En el servomecanismo la fuente de error es la variaci´on de la referencia. En
el regulador la fuente de error son perturbaciones exteriores que separan el
sistema del estado requerido.
3. En el servomecanismo, la potencia de la se˜ nal de salida, que es lo que
interesa, es muy superior a la de la entrada de referencia (v´ease el ejemplo
de la amplificaci´on de fuerza del conductor en la servodirecci´on de un coche).
En el regulador, la se˜ nal de salida en s´ı no interesa, sino que s´olo es una
medida de algo que sucede en la planta controlada, que es lo que realmente
interesa.
Junto a estas diferencias y a otras que pudieran establecerse se presenta la pro-
funda semejanza entre ambos problemas, ya que los dos conducen al mismo dia-
grama de bloques realimentado que se muestra en las figuras 1.8 y 1.9. Bas´andose
en esta semejanza es por lo que el estudio de ambos problemas se hace simult´ aneo
pero no debe olvidarse nunca que f´ısicamente se trata de dos problemas diferentes.
1.9 Bosquejo hist´orico del control autom´atico.
A lo largo de la historia de la t´ecnica se encuentran m´ ultiples ingenios en cuya
concepci´on interviene la idea de realimentaci´ on. Uno de los primeros ingenios de
esta naturaleza es el llamado reloj de agua (clepsidra). Seg´ un algunos autores, su
origen es chino y se remonta a la dinast´ıa Chen (siglos XI - XII a.C.), y seg´ un otros
al mec´anico griego Ktesibios (siglo XIII a.C.). En cualquier caso su antig¨ uedad
e ingeniosidad son innegables.
El primer trabajo significativo en control autom´atico fu´e el regulador centr´ıfugo
de James Watt. Se trata de un regulador de bolas de una m´aquina de vapor. En
el regulador de Watt se regula la velocidad de una m´aquina de vapor por medio
de un sencillo artificio consistente en dos bolas met´alicas de cierta masa sobre las
que act´ uan las fuerzas centr´ıfugas al girar el eje del que son solidarias a trav´es
de unos brazos (figura 1.10). Estos brazos est´an articulados de manera que la
fuerza centr´ıfuga que act´ ua sobre las bolas puede determinar, a trav´es de dichas
articulaciones, una mayor o menor apertura de la v´alvula de alimentaci´ on de la
m´aquina. Se tiene por lo tanto una cadena cerrada de acciones tal como la que
se indica en el diagrama de la figura 1.11.
Introducci´on a los sistemas de control. 16
vapor
válvula
Cilindro
Caldera
:velocidad del eje.
eje de la máquina.
ω
Figura 1.10: Regulador centr´ıfugo de Watt
Transmisión
Máquina
de vapor
bolas
ω
c
ω
ω
válvula
-
+
Figura 1.11: Diagrama de bloques: Regulador de Watt
Introducci´on a los sistemas de control. 17
El inter´es que suscita en su tiempo la m´aquina de Watt es grande, puesto
que en ella se presentan los problemas de estabilidad a los que se alud´ıa en los
apartados 1.4 y 1.5. Tan es as´ı que James Clerk Maxwell, uno de los mayores
f´ısicos te´oricos del siglo XIX se siente atra´ıdo por el problema y publica un trabajo
titulado On governors que constituye uno de los trabajos pioneros de la moderna
teor´ıa del control. Sin embargo, aparte de este trabajo, y alg´ un otro de Routh
a finales de siglo, no es hasta los a˜ nos 30 del siglo pasado, cuando se acomete
de una manera sistem´atica el estudio de las t´ecnicas matem´aticas que permitan
estudiar y dise˜ nar sistemas realimentados. Durante la Segunda Guerra Mundial,
la necesidad de construir sistemas de control altamente sofisticados para fines
militares, condujo al desarrollo tanto en los Estados Unidos como en la antigua
Uni´on Sovi´etica, de lo que hoy se conviene en llamar teor´ıa cl´asica de los ser-
vomecanismos, y que se estudiar´a m´as adelante en este curso. En aquellos a˜ nos
Norbert Wiener publica la importante obra Cibernetics, en la que se recalca el
car´acter fundamental de la noci´on de realimentaci´ on como concepto cient´ıfico.
La teor´ıa cl´asica de los servomecanismos tiene enormemente limitadas su posi-
bilidades de aplicaci´on por cuanto que la clase de sistemas a las que se aplica es
reducida. En ello determin´o la realizaci´on de estudios te´oricos que permitiesen
construir una teor´ıa de sistemas que abarcarse una clase m´as amplia de los mis-
mos. Con ello se ha llegado al desarrollo de la teor´ıa moderna del control, basada
sobre la noci´on de estado, y que se estudiar´a con detenimiento a lo largo de este
curso.
1.9.1 Control, inform´atica y telecomunicaciones.
A menudo se confunden las disciplinas de control autom´atico e inform´atica, ha-
biendo visiones superficiales que consideran el control como una aplicaci´on de las
tecnolog´ıas de la informaci´on y comunicaciones. La ra´ız de esto se halla en las
siguientes razones:
• El sistema de decisi´on que dise˜ nan los ingenieros de control para el gobierno
de los sistemas f´ısicos es un procesador de se˜ nales, y por tanto un procesador
de informaci´on, como son las computadoras.
• El advenimiento del microprocesador en los a˜ nos 70 del siglo pasado y pos-
teriormente de los m´as compactos microcontroladores, ha alterado signi-
ficativamente los m´etodos del control autom´atico, de modo que apenas se
hace control sin la intervenci´ on de las computadoras: tanto en la fase del
an´alisis matem´atico como en la concepci´on de los instrumentos encargados
Introducci´on a los sistemas de control. 18
del control. De hecho, una ley de control, en muchos casos, se especifica en
forma de algoritmo, que se traduce a su vez en una lista de instrucciones o
programa ejecut´andose en la unidad central de una computadora industrial.
• Las teor´ıas para el modelado matem´atico y dise˜ no de sistemas de control
han sufrido una gran transformaci´on en las ´ ultimas d´ecadas, con el fin incor-
porar el potencial, las particularidades y limitaciones de las computadoras.
En este sentido, conceptos como sistemas operativos de tiempo real, concur-
rencia de procesos, planificaci´on de tareas, velocidad de proceso, algoritmos
en tiempo discreto, lenguajes, etc., se han convertido en t´erminos de uso
com´ un en control.
• Conceptos tradicionalmente asociados a las telecomunicaciones como los
sistemas distribuidos, redes inal´ambricas, ruido, capacidad de transmisi´on,
teor´ıa de la informaci´on, etc. cobran una importancia creciente en el n´ ucleo
de la teor´ıa del control. Otro hecho relevante es que la teor´ıa moderna del
control surgida en los a˜ nos 30 tiene su base en el invento del amplificador
realimentado que impuls´o el desarrollo de la telefon´ıa a gran distancia.
Sin embargo es conveniente recordar, como se desprende del apartado ante-
rior, que el control realimentado es anterior a la invenci´ on de la computadora
digital y, con anterioridad a ella, se han implementado controladores con cir-
cuitos anal´ogicos y otras tecnolog´ıas. De hecho en la actualidad se implementan
sistemas de control realimentado carentes de elementos de computaci´on, como
son los termostatos.
Afirmar que el control es una aplicaci´on de las tecnolog´ıas de informaci´on
ser´ıa invertir el sentido de las cosas y exigir´ıa decir lo mismo de la arquitectura
o la medicina. Sucede simplemente que todas las actividades de car´acter t´ecnico
o cient´ıfico han evolucionado y se han beneficiado enormemente de la magn´ıfica
herramienta que es la inform´atica.
En cualquier caso, la teor´ıa del control autom´atico se desarrolla en buena parte
al margen de los dispositivos f´ısicos donde se van a implementar, y a menudo
los m´etodos del control sobreviven a las computadoras y lenguajes concretos
empleados en su realizaci´on.
Tema 2
Introducci´on a los sistemas
realimentados
2.1 Servomecanismo de posici´on
Vamos a dedicar esta secci´on a analizar un tipo de sistema realimentado que
presenta particular inter´es: el servomecanismo de posici´on. Con ´el se trata de
posicionar un eje, que est´a asociado al eje de un motor, y que constituye la se˜ nal
de salida del sistema. La se˜ nal de entrada es otra posici´on, que se pretende
que reproduzca el eje de salida del sistema. Se dispone de un mecanismo que
permite detectar la discrepancia entre las posiciones de entrada y de salida. Esta
discrepancia o error es amplificada convenientemente para activar el motor que,
actuando sobre el eje de salida, determina su movimiento hasta anular el error;
es decir, hasta conseguir alinear el eje de salida en la direcci´on indicada por el eje
de entrada.
u(t) amplificador
J
f
y(t)
Figura 2.1: Bucle abierto de un servomecanismo de posici´on
19
Introducci´on a los sistemas realimentados 20
En la figura 2.1 se muestra el bucle abierto de un servomecanismo. En ella
se pone de manifiesto c´omo, mediante una amplificador la se˜ nal u(t) adquiere el
nivel adecuado para actuar sobre un motor, cuyo eje representa la posici´on de
salida del servomecanismo. Este eje es solidario con una inercia J y una fricci´on
f.
En la figura 2.2 se muestra el bucle cerrado del servomecanismo. Al esquema
de la figura 2.1 se ha a˜ nadido una se˜ nal de referencia r(t) que se compara con
la salida del motor, y cuya discrepancia da lugar al error e, a partir del cual se
obtiene la se˜ nal u(t).
y(t)
J
f
K
u(t) e(t) r(t) +
-
amplificador
Figura 2.2: Bucle cerrado de un servomecanismo de posici´on
En la figura 2.1 se puede hacer la hip´otesis de que el par del motor es propor-
cional a la se˜ nal el´ectrica de alimentaci´on del amplificador u(t). Con este supuesto
se puede escribir que la posici´on del motor y(t) viene dada por la ecuaci´on difer-
encial:
J
d
2
y
dt
2
+ f
dy
dt
= u(t)
siendo en este caso y(t) el ´angulo girado por el motor, J la inercia del conjunto
motor-carga, y f el coeficiente de fricci´on viscosa del mismo conjunto.
Para que un sistema de control realimentado act´ ue aceptablemente, necesita
satisfacer unas determinadas especificaciones de funcionamiento, tanto para su
r´egimen permanente como para su transitorio que, normalmente, no se consigue
con los elementos que consituyen el bucle de control.
Hay veces en que un simple aumento de la ganancia est´atica es suficiente
para lograr precisi´on, sin que se afecte demasiado a las caracter´ısticas en estado
transitorio. No obstante, como lo normal es que ´estas se vean empeoradas con una
actuaci´on de este tipo, o en el mejor de los casos, no se consigan exactamente las
Introducci´on a los sistemas realimentados 21
que se pretende que tenga el sistema, es por lo que se desarrollaran a continuaci´ on
los procedimientos de compensaci´on que se han dado en llamar en llamar cl´asicos
ya que fueron los primeros que se utilizaron.
Se emplean tres tipos de acciones:
• Acci´on proporcional m´as derivada (PD);
• Acci´on proporcional m´as integral (PI) y
• Acci´on proporcional m´as integral y m´as derivada (PID).
2.2 Acci´on proporcional m´as derivada (PD).
Tiene lugar cuando la se˜ nal de mando del sistema es la suma de los t´erminos, pro-
porcional y derivado de la se˜ nal de error. En este caso se dice que la compensaci´on
es del tipo PD.
Consid´erese el servomecanismo elemental descrito en el p´arrafo anterior. Se
va estudiar el caso en que la se˜ nal de mando sea proporcional al error y a su
derivada, es decir el caso en que se tenga una acci´on PD. La se˜ nal de mando ser´a,
por lo dicho,
u(t) = K e + K
d
de
dt
quedando
J
d
2
y
dt
2
+ f
dy
dt
= Ke + K
d
de
dt
(2.1)
y como e = r −y
J
d
2
y
dt
2
+ f
dy
dt
= Kr −Ky + K
d
dr
dt
−K
d
dy
dt
J
d
2
y
dt
2
+ (f + K
d
)
dy
dt
+ Ky = Kr + K
d
dr
dt
(2.2)
La ecuaci´on 2.1 muestra que el sistema es excitado ahora por la se˜ nal de error
y por un impulso. La consecuencia inmediata es que el efecto corrector (inversi´ on
del par motor) se aplica antes que cuando el control era s´olo proporcional, como se
muestra en la figuras 2.3.a y 2.3.b. En efecto, con control proporcional solamente,
Introducci´on a los sistemas realimentados 22
el error cambia de signo en el punto f de la figura 2.3.b mientras que si la se˜ nal
de error es del tipo PD indicado, el cambio de signo se verifica en el instante g de
la figura 2.3.d, es decir, el par corrector se aplica antes de que la se˜ nal de salida
llegue al valor de la de referencia. En consecuencia, la sobreoscilaci´on ser´a menor.
La red PD tiene as´ı un caracter anticipativo, ya que en cierta manera se anticipa
a lo que va a ocurrir.
Esta misma consecuencia se pone de manifiesto en la ecuaci´on 2.2, que muestra
la ecuaci´on diferencial del sistema en bucle cerrado. En ella se aprecia que el
coeficiente de la primera derivada se ha incrementado en el valor K
d
, es decir, el
efecto ha sido aumentar la fricci´on del sistema primitivo y, por tanto, hacer que
el conjunto tenga una respuesta temporal con menor sobreoscilaci´on.
Por otro lado, tambi´en en la ecuaci´on 2.2 se aprecia que la parte no homogenea
de la ecuaci´on diferencial no es un escal´on, sino un escal´on m´as un impulso. Ello
determina que el sistema responda m´as r´apidamente ya que no s´olo es sensitivo
a la referencia, sino que tambi´en lo es a su variaci´ on. Todo se pone de manifiesto
observando las figuras 2.4.
De lo anterior se desprenden las dos caracter´ısticas esenciales de una acci´on
PD :
1. Disminuci´on de la sobreoscilaci´on
2. Disminuci´on del tiempo de subida
Estos efectos se han considerado para un caso particular y especialmente sim-
ple, el de un servomecanismo elemental de posici´on. Sin embargo son igualmente
v´alidos, en general, para una amplia variedad de sistemas f´ısicos.
2.3 Acci´on proporcional m´as integral (PI).
En este caso, la se˜ nal de mando es la suma de un t´ermino proporcional y otro
integral, de la se˜ nal de error.
u(t) = K e + K
i

t
0
e dt
Sea un sistema como el de la figura 2.5, al que se le ha incorporado una acci´on
integral en paralelo con la acci´on proporcional, es decir, se le ha dotado de una
acci´on PI.
Introducci´on a los sistemas realimentados 23
(a)
(b)
(c)
(d)
(e)
y
r
t
f t
t
t
t
r
y
g
y
e +
de
dt
de
dt
e
y
Figura 2.3: Compensaci´on con PD.
Introducci´on a los sistemas realimentados 24
(a)
(b)
y
y
t
r
t
r
respuesta a Kr
respuesta a K
d
dr
dt
respuesta a Kr + K
d
dr
dt
Figura 2.4: Respuesta temporal con red PD.

+
θ
+
K
e +
K
i

G(s)
Figura 2.5: Diagrama de un sistema con regulaci´on PI
Introducci´on a los sistemas realimentados 25
Sup´ongase que a dicho sistema, en un r´egimen estacionario, se le aplica un par
externo P
e
sobre la carga, es decir, sobre el eje de salida. El sistema reaccionar´a
tratando de anular dicho par puesto que la aplicaci´on del mismo, determina la
aparici´on de un error, el cual alimenta al motor y le obliga a sumintrar un par
creciente con el tiempo. Si la acci´on de la red fuese s´olo proporcional, es claro
que el equilibrio se alcanzaria cuando el par generado por el motor fuese igual al
aplicado externamente.
Interesa ver con cierto detenimiento lo que ocurre cuando la acci´on de mando
es del tipo PI. Para ello, en primer lugar, se establecen las ecuaciones que rigen
la evoluci´ on del sistema y que resultan ser
J
d
2
y
dt
2
+ f
dy
dt
+ P
e
= Ke + K
i

t
0
e dt
siendo P
e
el par externo aplicado y e = r −y
Eliminado y se tiene
P
e
+ J
d
2
r
dt
2
−J
d
2
e
dt
2
+ f
dr
dt
−f
de
dt
= Ke + K
i

t
0
e dt
P
e
+ J
d
2
r
dt
2
+ f
dr
dt
= J
d
2
e
dt
2
+ f
de
dt
+ K e + K
i

t
0
e dt
Si la referencia es un escal´on, se tendr´a que
dr
dt
= 0 y
d
2
r
dt
2
= 0
En el r´egimen permanente, cuando t → ∞, si la introducci´on del integrador
no ha hecho inestable al sistema, se tendr´a que
de
dt
= 0 y
d
2
e
dt
2
= 0
con lo cual,
P
e
= K e
p
+ K
i


0
e dt
Introducci´on a los sistemas realimentados 26
Como P
e
es finito, la ´ unica forma de que se cumpla la ecuaci´on anterior es
que e
p
= 0 ya que en caso contrario,


0
edt → ∞. En consecuencia, el sistema
reacciona eliminando el error en regimen permanente (e
p
).
Por lo dicho, una red PI mejora considerablemente el r´egimen permanente, no
s´olo de una manera cuantitativa, sino esencialmente cualitativa por cuanto que
cambia el tipo del sistema, es decir, no es que el sistema se mejore, sino que se
convierte en otro, de caracter´ısticas distintas.
La interpretaci´ on f´ısica del fen´omeno es muy simple. La aplicaci´on del par
externo P
e
, tiende a separar la posici´on del eje de salida del valor en que la
ha fijado la se˜ nal de referencia (figura 2.6.a). Ello trae consigo la aparici´on del
consiguiente error (figura 2.6.b).
Si la se˜ nal de actuaci´on sobre el sistema es proporcional al error, m´as su
integral, se aplica una se˜ nal tal como la que se muestra en la figura 2.6.d. El
fen´omeno que se produce entonces puede interpretarse diciendo que el par del
motor empezar´a a crecer hasta que vence al que se aplica exteriormente. La
evoluci´on del error y de la se˜ nal de salida se muestran en las figuras 2.6.e y 2.6.f.
Obs´ervese c´omo es el elemento integrador el que mantiene la se˜ nal sobre el motor
para que ´este venza al par exterior.
Introducci´on a los sistemas realimentados 27
a)
b)
c)
d)
e)
f)
r
θ
t
z
t
e

edt
t
e +

edt
t

edt
z e
t
θ
r
t
Figura 2.6: Respuesta temporal a red PI
Tema 3
Sistemas din´amicos lineales
3.1 Transformaci´ on de Laplace
En esta secci´on vamos a repasar la transformada de Laplace que suministra una
herramienta de gran inter´es para el estudio de los sistemas cuya descripci´on
matem´atica viene dada por ecuaciones lineales invariantes en el tiempo.
3.1.1 Definici´on
El m´etodo de la transformada de Laplace es un m´etodo opcional que puede uti-
lizarse con ventaja para la resoluci´on de ecuaciones diferenciales lineales. La
transformada de Laplace se define como:
L[f(t)] = F(s) =


0
f(t)e
−st
dt
f(t) es una funci´on del tiempo tal que f(t) = 0 para t < 0, s = σ + jw una
variable compleja y L un simbolo operacional. La existencia de la transformada
F(s) est´a condicionada a la convergencia de la integral.
Si existe una constante real y positiva σ tal que para σ > σ
c
, e
−σt
[ f(t) [
tiende a cero cuando t → ∞, mientras que para σ < σ
c
tiende a infinito. El
valor σ
c
recibe el nombre de abscisa de convergencia. La integral converge, y por
tanto existe la transformada de Laplace, si la parte real de s, (σ) es mayor que la
28
Sistemas din´amicos lineales 29
abscisa de convergencia σ
c
.
En t´ermino de los polos de la funci´on F(s), la abscisa de convergencia σ
c
,
corresponde a la parte real del polo m´as alejado hacia la derecha en el plano s.
A la funci´on f(t) se la conoce como la anti-transformada de Laplace, F(s) y
se expresa as´ı,
f(t) = L
−1
[F(s)]
En la tabla siguiente se tienen las transformadas de Laplace de las funciones
m´as usuales en autom´atica.
Tabla de Transformadas de Laplace
Se˜ nal f(t) F(s)
Impulso δ(t) 1
Escalon 1 (t ≥ 0)
1
s
Rampa t(t ≥ 0)
1
s
2
Par´ abola t
2
(t ≥ 0)
2
s
3
Rampa de orden n t
n
(t ≥ 0)
n!
s
n
Decrecimiento exponencial e
−αt 1
(s+α)
Onda sinusoidal senωt
ω
(s
2

2
)
Onda cosenoidal cosωt
s
(s
2

2
)
Sinusoide con decrecimiento exponencial e
−αt
senωt
ω
((s+α)
2

2
)
Cosenoide con decrecimiento exponencial e
−αt
cosωt
s+α
((s+α)
2

2
)
3.1.2 Resumen de Propiedades
1. Linealidad: Si F
1
(s) y F
2
(s) son las transformadas de f
1
(t) y f
2
(t), F
1
(s)+
F
2
(s) es la transformada de Laplace de f
1
(t) +f
2
(t), seg´ un se desprende de
la definici´on.
2. Derivaci´on real: Si L[f(t)] = F(s), entonces
L
¸
df(t)
dt
¸
= sF(s) −f(0)
Sistemas din´amicos lineales 30
En efecto, como F(s) =


0
f(t) e
−st
, realizamos la integraci´on por partes
haciendo
u = f(t) ; du = f

(t) dt ; v =

e
−st
dt = −
1
s
e
−st
y dv = e
−st
dt

u dv = uv −

vdu
por lo que resulta,


0
f(t) e
−st
dt =
¸

f(t)e
−st
s
¸

0


0

1
s
e
−st
f

(t)dt =⇒
F(s) =
f(0)
s
+
1
s


0
f

(t) e
−st
dt, pero


0
f

(t) e
−st
dt = L[f

(t)]
luego:
L[f

(t)] = sF(s) −f(0) c.q.d.
3. Integraci´on real: Si L[f(t)] = F(s),
L
¸
t
0
f(τ) dτ

=
F(s)
s
+

f(0) dt
s
Si en la expresi´on F(s) =


0
f(t) e
−st
dt se hace:
u = e
−st
; du = −se
−st
dt
v =

f(t) dt; dv = f(t)dt
se tiene que,
F(s) =


0
f(t)e
st
dt =
¸
e
−st

f(t)dt


0


0
−se
−st
¸
f(t)dt

dt =
= −

f(0)dt + s


0
¸
f(t)dt

e
−st
dt ;
Sistemas din´amicos lineales 31
y como


0
¸
f(t)dt

e
−st
dt = L
¸
f(t)dt

=⇒
L
¸
f(t)dt

=
F(s)
s
+

f(0)dt
s
c.q.d.
4. Teorema del valor final:
Hay veces en que hechas las operaciones precisas con la ecuaci´on trans-
formada, interesa conocer el valor de la funci´on f(t) cuando t → ∞, que
en el caso de un servosistema, corresponder´ıa al r´egimen permanente. El
procedimiento consistir´ıa en hallar la antitransformada y hacer que t →∞.
El procedimiento es laborioso y resulta mucho m´as c´omodo verificar el valor
de la variable sobre la propia ecuaci´on transformada.
Supondremos que existe L[f(t)] y L[f

(t)] y demostraremos que,
lim
t→∞
f(t) = lim
s→0
sF(s)
Sabemos que


0
f

(t)e
−st
dt = sF(s) −f(0) haciendo que s →0
lim
s→0


0
f

(t)e
−st
dt = lim
s→0
[sF(s) −f(0)] (3.1)
pero lim
s→0


0
f

(t)e
−st
dt =


0
f

(t)dt = lim
t→∞

t
0
f

(τ)dτ =
= lim
t→∞
[f(t) −f(0)]
y sustituyendo en 3.1, se tiene,
lim
t→∞
[f(t) −f(0)] = lim
s→0
[sF(s) −f(0)]
y como f(0) no depende de t ni de s, queda,
lim
t→∞
f(t) = lim
s→0
sF(s) c.q.d.
Sistemas din´amicos lineales 32
5. Teorema del valor inicial:
Si lo que nos interesa conocer del sistema es su comportamiento cuando
t →0, que corresponder´ıa en un servosistema a conocer su comportamiento
transitorio, se puede hallar tambi´en sobre la ecuaci´on transformada, ya que
lim
t→0
f(t) = lim
s→∞
sF(s)
Al igual que antes, en la expresi´on
L[f

(t)] =


0
f

(t)e
−st
dt = sF(s) −f(0) hacemos que s →∞
lim
s→∞


0
f

(t)e
−st
dt = lim
s→∞
[sF(s) −f(0)]
y como el primer miembro es cero, lim
s→∞
sF(s) = lim
s→∞
f(0) = f(0) ya
que f(0) no depende de s y como f(0) es lim
t→0
f(t) quedar´a
lim
t→0
f(t) = lim
s→∞
sF(s) c.q.e.
6. Integral de Convoluci´on:
Sean
F
1
(s) = L[f
1
(t)] y F
2
(s) = L[f
2
(t)]
El producto de ambas,
F
1
(s) ∗ F
2
(s) =


0
f
1
(t)e
−st
dt


0
f
2
(τ)e
−sτ
dτ =
(3.2)
=


0


0
f
1
(t)f
2
(τ)e
−s(t+τ)
dt dτ (3.3)
Haciendo el cambio de variables,
t = u −v
τ = v
v = τ
u = t + τ
el Jacobiano de la transformaci´on vale,
J(
t, τ
u, v
) =

∂t
∂u
∂t
∂v
∂τ
∂u
∂τ
∂v

=

1 −1
0 1

= 1
Sistemas din´amicos lineales 33
Como t > 0, u > v luego v viariar´a de 0 a u.
La ecuaci´on 3.3 queda
F
1
(s) ∗ F
2
(s) =


0

u
0
f
1
(u −v) f
2
(v)e
−su
dv du =
=


0
¸
u
0
f
1
(u −v) f
2
(v)dv

e
−su
du
luego
F
1
(s) ∗ F
2
(s) = L
¸
u
0
f
1
(u −v) f
2
(v) dv

La expresi´on encerrada en el corchete se conoce como integral de convoluci´ on
y representa la antitransformada del producto de dos transformadas.
3.1.3 Calculo de antitransformadas
Con el c´alculo de antitransformadas se pretende determinar a partir de la trans-
formada de Laplace F(s) la correspondiente antitransformada; es decir,
f(t) = L
−1
[F(s)]
La transformada posee s´olo polos reales y simples
Supongase que el denominador de la funci´on de la que se quiere hallar la anti-
transformada, F(s), es de la forma
d(s) = (s + p
1
)(s + p
2
) . . . (s + p
n
)
de modo que los diferentes p
i
son reales y diferentes entre si. En tal caso la
funci´on F(s) admite una descomposici´on en fracciones simples de la forma
F(s) =
n(s)
d(s)
=
a
1
s + p
1
+
a
2
s + p
2
+ . . . +
a
n
s + p
n
los coeficientes a
i
reciben la denominaci´on de residuos de F(s) en s = −p
i
. Multi-
plicando los dos miembros de la expresi´on anterior por (s+p
i
) y haciendo s = −p
i
se tiene
Sistemas din´amicos lineales 34
a
i
=
¸
n(s)(s + p
i
)
d(s)
¸
s=−p
i
puesto que se sabe, de la tabla de transformadas, que
L
−1
=
¸
a
i
(s + p
i
)
¸
= a
i
e
−p
i
t
se tiene que
f(t) = a
1
e
−p
1
t
+ a
2
e
−p
2
t
+ . . . a
n
e
−p
n
t
En esta expresi´on se pone de manifiesto que a cada p
i
se asocia una funci´on
(una trayectoria o un comportamiento) de la forma e
−p
i
t
. Estas funciones reciben
la denominaci´on de modos naturales del sistema. Se dice que un modo natural es
asint´oticamente estable si p
i
≥ 0.
Ejemplo Sea la transformada de Laplace
F(s) =
(s + 3)
(s + 1)(s + 2)
se tiene que los residuos resultan ser
a
1
=
¸
(s + 3)
(s + 2)
¸
s=−1
= 2
a
2
=
¸
(s + 3)
(s + 1)
¸
s=−2
= −1
luego
f(t) = 2e
−t
−e
−2t
t ≥ 0
La transformada posee polos complejos
Supongamos ahora que la transformada de Laplace posee un par de polos com-
plejos conjugados p
1
y ¯ p
1
. En tal caso la descomposici´on en fracciones simples
tomar´a la forma:
Sistemas din´amicos lineales 35
F(s) =
n(s)
d(s)
=
α
1
s + α
2
(s + p
1
)(s + ¯ p
1
)
+
a
3
s + p
3
+ . . . +
a
n
s + p
n
Si se multiplican los dos miembros de esta expresi´on por (s +p
1
)(s + ¯ p
1
), y se
hace s = −p
1
, se tendr´a:

1
s + α
2
)
s=−p
1
=
¸
n(s)(s + p
1
)(s + ¯ p
1
)
d(s)
¸
s=−p
i
Esta expresi´on permite determinar α
1
y α
2
igualando partes reales e imagi-
narias.
Para hallar la antitransformada correspondiente al t´ermino asociado al par
complejo basta recordar que:
L
1
¸
ω
((s + α)
2
+ ω
2
)
¸
= e
−αt
senωt
L
1
¸
s + α
((s + α)
2
+ ω
2
)
¸
= e
−αt
cosωt
En concreto, si se supone:
p
1
= a + jω y ¯ p
1
= a −jω
se tendr´a
α
1
s + α
2
(s + p
1
)(s + ¯ p
1
)
=
α
1
s + α
2
(s + a + jω)(s + a −jω)
=
α
1
¸
s + a
((s + a)
2
+ ω
2
)
¸
+

2
−α
1
a)
ω
¸
ω
((s + α)
2
+ ω
2
)
¸
Ejemplo
Sea la transformada de Laplace
F(s) =
(s + 1)
s(s
2
+ 2s + 2)
Sistemas din´amicos lineales 36
Se tiene:
a
3
=
¸
(s + 1)
(s
2
+ 2s + 2)
¸
s=0
=
1
2
Por tanto,
F(s) =
1
2
1
s

1
2
s
s
2
+ 2s + 2
=
1
2
1
s

1
2
s
(s + 1)
2
+ 1
=
1
2
1
s

1
2
s + 1
(s + 1)
2
+ 1
+
1
2
1
(s + 1)
2
+ 1
De donde se tiene,
f(t) =
1
2

1
2
e
−t
cosωt +
1
2
e
−t
senωt t ≥ 0
La transformada posee polos m´ ultiples
Sup´ongase que una de las raices del polinomio del denominador de la transformada
de Laplace es m´ ultiple. Por ejemplo, sup´ongase que la raiz p
1
tiene multiplicidad
r. En tal caso el denominador admitir´a la descomposici´on:
d(s) = (s + p
1
)
r
(s + p
2
) . . . (s + p
n
)
En tal caso, la transformada de Laplace admite la descomposici´on:
F(s) =
n(s)
d(s)
=
b
r
(s + p
1
)
r
+
b
r−1
(s + p
1
)
r−1
+ . . . +
b
1
s + p
1
+
a
2
s + p
2
+ . . . +
a
n
s + p
n
Si se multiplican los dos miembros de esta expresi´on por (s + p
1
)
r
se tendr´a:
b
i
=
¸
n(s)(s + p
1
)
r
d(s)
¸
s=−p
1
Obs´ervese que
(s+p
1
)
r
F(s) = b
r
+b
r−1
(s+p
1
)+. . .+b
1
(s+p
1
)
r−1
+
a
2
(s + p
1
)
r
s + p
2
+. . .+
a
n
(s + p
1
)
r
s + p
n
derivando esta expresi´on con respecto a s se tiene
Sistemas din´amicos lineales 37
d
ds
[(s + p
1
)
r
F(s)] = b
r−1
+ 2b
r−2
(s + p
1
) . . . + (r −1)b
1
(s + p
1
)
r−2
+
d
ds
¸
a
2
(s + p
1
)
r
s + p
2
¸
+ . . . +
d
ds
¸
a
n
(s + p
1
)
r
s + p
n
¸
y haciendo en esta expresi´on s = −p
1
se tiene
d
ds
[(s + p
1
)
r
F(s)]
s=−p
i
= b
r−1
Derivando de nuevo con respecto a s y procediendo an´alogamente se tiene
b
r−2
=
1
2
d
2
ds
2
[(s + p
1
)
r
F(s)]
s=−p
1
En general se tendr´a
b
r−j
=
1
j!
d
j
ds
j
[(s + p
1
)
r
F(s)]
s=−p
1
Ejemplo
Sea
F(s) =
s
2
+ s + 2
(s + 1)
3
que se desconpone
F(s) =
b
3
(s + 1)
3
+
b
2
(s + 1)
2
+
b
1
(s + 1)
Se tendr´a
b
3
= [s
2
+ s + 2]
s=−1
= 2
b
2
= [2s + 1]
s=−1
= −1
b
1
= 1
Por tanto
F(s) =
2
(s + 1)
3

1
(s + 1)
2
+
1
(s + 1)
De donde se tiene,
f(t) = (t
2
−t + 1)e
−t
Sistemas din´amicos lineales 38
3.2 Noci´on de sistema din´amico.
Uno de los conceptos b´asicos empleados en autom´atica es el de sistema. En el
lenguaje ordinario se entiende por sistema una colecci´on de objetos unidos por
cierta forma de interacci´ on o interdependencia. En el contexto de la autom´atica
el concepto de sistema adquiere un significado m´as preciso.
Consid´erese un objeto f´ısico, α, por ejemplo un motor el´ectrico, al cual apare-
cen asociadas una serie de magnitudes, como pueden ser su velocidad de giro, la
intensidad que alimente el inducido, etc. Desde el punto de vista que interesa en
autom´atica lo que conviene de α son las relaciones matem´aticas entre las distin-
tas magnitudes m
1
(t), m
2
(t)...m
n
(t) que se asocian a dicho objeto f´ısico. Estas
relaciones constituyen un objeto abstracto, por abstracci´on de unas caracter´ısticas
de un objeto f´ısico.
En autom´atica los objetos f´ısicos que intervienen son tales que las magnitudes
f´ısicas que a ellos se asocian se pueden clasificar en dos grupos:
1. magnitudes cuyo valor puede ser variado directamente desde el exterior del
objeto f´ısico, que reciben el nombre de se˜ nales de entrada, de control, de
mando o est´ımulos; y
2. magnitudes cuyo valor puede ser medido pero cuya variaci´ on es indirecta,
a trav´es de las se˜ nales de entrada, y que reciben el nombre de se˜ nales de
salida, de observaci´ on o respuestas.
Para denotar a las se˜ nales de entrada se emplea u(t), y para las se˜ nales de salida
se emplea y(t), siendo, en general, u(t) e y(t) vectores.
Se entiende por sistema
¸
el objeto abstracto formado por las relaciones que
ligan las se˜ nales u(t) e y(t). Un sistema se presenta en forma esquem´atica como se
hace en la figura 3.1, representaci´on que recibe el nombre de diagrama funcional
del sistema. Definido as´ı un sistema representa una formalizaci´on del uso vulgar
de este t´ermino.
El problema de la representaci´ on matem´atica de los sistemas se reduce a
encontrar la forma matem´atica, bien sea una ecuaci´on o, de forma m´as general,
un algoritmo, que permita generar los pares de se˜ nales u(t), y(t) que definen el
sistema.
Las se˜ nales u(t) e y(t) pueden registrarse o bien de una manera cont´ınua en el
Sistemas din´amicos lineales 39
Σ
u(t)
y(t)
Figura 3.1: Sistema din´amico
tiempo, o bien de una forma discont´ınua, es decir tomando medidas cada cierto
intervalo de tiempo. En el primer caso se tienen los llamados sistemas en tiempo
cont´ınuo y en el segundo los sistemas en tiempo discreto. Estos ´ ultimos tienen
un particular inter´es pr´actico cuando se emplean computadores puesto que estas
m´aquinas trabajan de una forma discreta.
3.3 Formas de las relaciones entrada-salida en
sistemas.
Se ha indicado en la secci´on 3.2, que un sistema est´a formado por las relaciones
matem´aticas que ligan las se˜ nales u(t) e y(t) que lo definen. En esta secci´on se
van a considerar algunas formas matem´aticas de las relaciones que ligan a las
se˜ nales u(t) e y(t) en tipos de sistemas com´ unmente encontrados en la pr´actica.
Sin embargo, en el resto de estos apuntes s´olo se estudiar´a una de las clases
consideradas en esta secci´on. Una posible primera clasificaci´on elemental de las
relaciones que ligan a las se˜ nales de entrada y salida de los sistemas, es en sistemas
est´aticos y sistemas din´amicos.
3.3.1 Sistemas est´aticos.
El caso m´as simple de relaci´on entre las se˜ nales u(t) e y(t) es aqu´el en que ´esta se
reduce a una ecuaci´on alg´ebrica. Por una consideraci´on elemental de realizabili-
dad f´ısica es claro que en tal caso se podr´a escribir:
y(t) = F¦u(t)¦ (3.4)
en donde, para los casos de inter´es pr´actico F¦.¦ es una funci´on uniforme. Los
sistemas que admiten esta forma de representaci´ on reciben el nombre de sistemas
Sistemas din´amicos lineales 40
est´aticos, y son aqu´ellos en los que el valor que toma la se˜ nal de salida y(t), en un
cierto tiempo t depende exclusivamente del valor tomado por la se˜ nal de entrada
u(t) en dicho instante de tiempo t, y no de los valores tomados por u(t) en el
pasado.
Los sistemas l´ogicos combinacionales, constituyen un ejemplo de sistemas
est´aticos definidos por la propiedad de que las se˜ nales de entrada u(t) y salida
y(t) toman sus valores del conjunto finito U = Y = ¦0, 1¦. Para la representaci´on
matem´atica de los sistemas l´ogicos combinacionales se recurre a tablas en las que
se indican para cada combinaci´ on posible de los valores de las se˜ nales de entrada,
los correspondientes de la se˜ nales de salida. Desde un punto de vista matem´atico
estas tablas constituyen una de las formas m´as simples de representar una funci´on.
3.3.2 Sistemas din´amicos
Normalmente las relaciones que ligan las magnitudes f´ısicas que definen un sis-
tema no son ecuaciones algebraicas, que conducen a sistemas est´aticos, sino ecua-
ciones diferenciales. Ello es debido a que la mayor parte de las leyes de la f´ısica
se expresan por medio de esta clase de ecuaciones.
Aqu´ı se considerar´an exclusivamente las ecuaciones diferenciales de la forma,
d
n
y
dt
n
+ ... + a
n−1
dy
dt
+ a
n
(t)y = b
0
(t)
d
n
u
dt
n
+ ... + b
n
(t)u (3.5)
llamadas ecuaciones diferenciales lineales. El hecho de limitarse a esta clase de
ecuaciones diferenciales es debido a:
1. s´olo para esta clase de sistemas es posible establecer, en la actualidad, una
teor´ıa que sea a la vez general y simple; y
2. al menos en una primera aproximaci´on, gran parte de los sistemas encon-
trados en la pr´actica admiten esta forma de representaci´ on.
Cabe considerar que la teor´ıa de sistemas lineales es a la teor´ıa de sistemas no-
lineales, como la geometr´ıa euclidea es a las formas de geometr´ıa no-euclidea. Es
sabido que la geometr´ıa eucl´ıidea es un ´ util de un inter´es pr´actico incuestionable;
lo mismo sucede con la teor´ıa de los sistemas lineales.
Otra relaci´on entre la entrada y salida de un sistema es la que presentan las
ecuaciones en diferencias finitas. De ellas las que mayor inter´es tienen son, por
Sistemas din´amicos lineales 41
consideraciones semejantes a las realizadas m´as arriba respecto a las ecuaciones
diferenciales lineales, las ecuaciones en diferencias finitas lineales cuya forma gen-
eral es,
y(t+n)+... +a
m−1
y(t+1)+a
m
y(t) = b
0
u(t+n)+... +b
n−1
u(t+1)+b
m
u(t) (3.6)
Los sistemas descritos por las ecuaciones en diferencias finitas son sistemas en
tiempo discreto, en los que la escala de tiempos toma s´olo una serie de valores
discretos. Esta forma de relaci´on se presenta en aquellas aplicaciones en las que
se emplean computadores.
Por ´ ultimo cabe recordar como otra forma de relaci´on entre las se˜ nales de
entrada y salida de un sistema la que ofrecen los diagramas de estados de los
circuitos l´ogicos secuenciales (o, m´as general, de los aut´omatas). En dichos dia-
gramas se ten´ıa representada la evoluci´on de las se˜ nales de entrada u(t) y de salida
y(t) de un sistema cuya caracter´ıstica adicional es que las se˜ nales de entrada y
de salida s´olo podr´ıan tomar sus valores de un conjunto finito.
Los sistemas descritos por ecuaciones diferenciales, por ecuaciones en difer-
encias finitas, o por diagramas de estados reciben la denominaci´on de sistemas
din´amicos y en ellos el valor tomado por la se˜ nal de salida y(t), en un cierto
instante de tiempo t depende del valor tomado por u(t), no s´olo en el instante t
(como suced´ıa en los est´aticos), sino en todos los instantes anteriores a t.
En ellos, por lo tanto, la consideraci´on del tiempo juega un papel esencial. De
ah´ı la denominaci´on de din´amicos. Obs´ervese que los sistemas est´aticos pueden
considerarse como una forma particular y degenerada de los din´amicos por lo que
son estos ´ ultimos los ´ unicos que se consideran en lo que sigue.
En estos apuntes no se tratar´an expl´ıcitamente, los sistemas l´ogicos secuen-
ciales. No obstante si ´estos son lineales son susceptibles de ser estudiados con las
t´ecnicas aqu´ı desarrolladas. Sin embargo, ello no se har´a aqu´ı de forma expl´ıcita.
La forma de representaci´on de los sistemas din´amicos por ecuaciones difer-
enciales, o por ecuaciones en diferencias finitas, no tiene inter´es pr´actico para el
desarrollo de la autom´atica. Para el estudio de los sistemas din´amicos se han de-
sarrollado dos formas peculiares de representaci´ on, que son la descripci´on externa
y la descripci´on interna que se pasan a estudiar a continuaci´on.
Sistemas din´amicos lineales 42
3.4 Descripci´on externa de los sistemas din´ami-
cos.
Puesto que las se˜ nales que definen un sistema din´amico son las de entrada u(t) y
las de salida y(t) interesa disponer de una relaci´on explicita directa entre ambas.
Esta relaci´on la suministra la descripci´on externa que se define por una funci´on
de entrada-salida F tal que hace corresponder al conjunto de valores tomados por
la se˜ nal de entrada u en un cierto intervalo (t
0
, t), el valor tomado por la salida
y(t) en el instante t. Formalmente se puede escribir,
y(t) = F(u[t
0
, t]) (3.7)
en donde F(.) es un funcional, es decir una funci´on cuyo argumento lo constituye
el conjunto de valores tomados por u(t) en el intervalo (t
0
, t).
Desde el punto de vista de la descripci´on externa un sistema din´amico lineal
se define cono ´aquel que cumple la propiedad de linealidad, en virtud de la cual,
F (α
1
u
1
[t
0
, t] + α
2
u
2
[t
0
, t]) = α
1
F (u
1
[t
0
, t]) + α
2
F (u
2
[t
0
, t])
en donde α
1
, α
2
son n´ umeros reales arbitrarios. Esta propiedad recibe tambi´en,
impropiamente, la denominaci´on de principio de superposici´on.
Habitualmente se emplean dos formas de descripci´on externa: la respuesta
impulsional y la funci´on de transferencia.
3.4.1 Respuesta impulsional.
Una forma de escribir la soluci´on a una ecuaci´on diferencial como la de la ex-
presi´on (3.5) es la siguiente:
y(t) =

t
−∞
h(t, τ)u(τ)dτ (3.8)
en donde h(t, τ) recibe el nombre de respuesta impulsional del sistema. La ex-
presi´on (3.8) es una forma de descripci´on externa de un sistema din´amico ya que
corresponde al caso de una funci´on l´ıneal.
La respuesta impulsional de un sistema puede tener las siguientes propiedades:
Sistemas din´amicos lineales 43
1. Propiedad de causalidad o realizabilidad, en virtud de la cual un efecto
no puede preceder a una causa, lo que implica que
h(t, τ) = 0 para t < τ
2. Propiedad de estabilidad, en virtud de la cual la estabilidad del sistema
exige la convergencia de (3.8), lo que se traduce en
lim
t→∞
h(t, τ) = 0
3. Propiedad de estacionaridad, en virtud de la cual el sistema es invariante
con el tiempo, lo que se traduce en que
h(t, τ) = h(t −τ, 0) = h(t −τ)
Ejemplo:
Sea el sistema din´amico descrito por la ecuaci´on diferencial,
dy
dt
+ ay = bu
En donde a y b son dos n´ umeros reales. La soluci´on de esta ecuaci´on de la
forma de la expresi´on (3.8) es la siguiente,
y(t) =

t
−∞
e
−a(t−τ)
b u(τ)dτ
En donde la respuesta impulsional h(t, τ) = be
−a(t−τ)
, es claro que cumple las
propiedades de causalidad, estabilidad y estacionaridad.
La respuesta impulsional admite un significado adicional muy preciso. Sup´ongase
un sistema con una sola entrada y una sola salida. Sup´ongase, adem´as, que dicho
sistema se somete a la siguiente se˜ nal de entrada:
u(t) = δ(t
1
)
en donde δ(t) es la funci´on de Dirac. En tal caso se tiene que,
y(t) = h(t, t
1
)
Sistemas din´amicos lineales 44

t

y
(
t
)
Figura 3.2: Respuesta Impulsional
si el sistema no es estacionario o
y(t) = h(t −t
1
)
si el sistema es estacionario.
En la figura 3.2 se muestra la respuesta impulsional del sistema del ejemplo
anterior. De lo anterior se desprende que la respuesta impulsional de un sis-
tema es determinable experimentalmente en la medida en que se pueda realizar
f´ısicamente una se˜ nal de entrada u(t) = δ(t). Es sabido que esta ´ ultima no tiene
significado f´ısico, pero sin embargo se pueden concebir aproximaciones acepta-
bles. Debe a˜ nadirse que en la pr´actica como realmente se miden las respuestas
impulsionales es por las t´ecnicas de correlaci´on que no se van a tratar aqu´ı.
Para sistemas multivariables, con m entradas y p salidas, la respuesta im-
pulsional es una matriz, de dimensi´on p m, cuyo t´ermino h
i,j
representa la
respuesta del i-esimo canal de salida, cuando se aplica una entrada u(t) = δ(t) al
canal j-esimo, siendo nulas el resto de las entradas.
3.4.2 Funci´ on de transferencia.
Para los sistemas lineales estacionarios existe una forma de descripci´on externa
muy empleada en la pr´actica: la funci´on (matriz) de transferencia. Se puede
Sistemas din´amicos lineales 45
definir la funci´on de transferencia como la transformada de Laplace de la respuesta
impulsional de un sistema.
H(s) =


0
h(τ)e
−τs
dτ (3.9)
Aplicando la transformaci´on de Laplace a la expresi´on (3.8), para el caso de
un sistema estacionario, se tiene
Y (s) = H(s) U(s) (3.10)
en donde Y (s) y U(s) son, respectivamente, las transformadas de Laplace de las
se˜ nales de entrada y salida.
En la pr´actica la funci´on de transferencia se determina directamente a partir
de la ecuaci´on diferencial. Un punto muy importante a considerar es que esta
determinaci´on se hace suponiendo condiciones iniciales nulas para las se˜ nales u(t)
e y(t).
Ejemplo:
Sea el sistema descrito por la ecuaci´on diferencial,
d
2
y
dt
2
+ a
1
dy
dt
+ a
2
y = bu
La transformada de Laplace de los distintos t´erminos de la ecuaci´on es la
siguiente,
s
2
Y (s) + a
1
sY (s) + a
2
Y (s) = bU(s)
Con lo que se tiene,
Y (s)
U(s)
= H(s) =
b
s
2
+ a
1
s + a
2
es decir que la transformaci´on de Laplace de la respuesta impulsional es la
funci´on de transferencia.
Para el caso de sistemas multivariables con m entradas y p salidas la funci´on de
transferencia se convierte en una matriz cuyo t´ermino H
ij
representa el cociente
Sistemas din´amicos lineales 46
entre la transformada de Laplace de la se˜ nal de salida que se obtiene por el canal
i y la transformada de Laplace de la se˜ nal de entrada que se aplica al canal j,
supuestas nulas las otras se˜ nales de entrada.
3.5 Sistemas de control realimentados
Un sistema de control realimentado se representa esquem´aticamente como se in-
dica en la figura 3.3. Sobre este esquema vamos a recordar una serie de conceptos
que consideramos de inter´es.
K
G(s)
H(s)
`

d
d
d
d

E E E E
T
'
r(t) + e u y(t)
− m
Figura 3.3: Sistema de Control realimentado
• Cadena directa o de acci´on, es la que une los elementos comprendidos
entre la se˜ nal de error y la de salida. Ambas se˜ nales est´an relacionadas por
la expresi´on,
Y (s)
E(s)
= KG(s)
siendo G(s) la funci´on de transferencia del sistema considerado.
• Cadena de realimentaci´ on, es la que une la se˜ nal de salida con la de
informaci´on m(t), que es comparada con la de referencia. Ambas se˜ nales se
relacionan as´ı,
Sistemas din´amicos lineales 47
M(s)
Y (s)
= H(s)
En este caso H(s) es la funci´on de transferencia de la cadena de reali-
mentaci´on.
• Se llama bucle abierto, al conjunto de elementos que constituyen todo
el sistema, si este se abriese por el punto m(t), es decir, como si la se˜ nal
de entrada fuese e(t) y la de salida m(t). La funci´on de transferencia del
conjunto as´ı dispuesto ser´ıa
M(s)
E(s)
= KG(s)H(s)
• Se llama bucle cerrado, al sistema conectado como se indica en la figura
3.3. Las se˜ nales y(t) y r(t) se relacionan por la conocida f´ormula, f´acil de
deducir,
Y (s)
R(s)
=
KG(s)
1 + KG(s)H(s)
Obs´ervese que, en este caso, la se˜ nal de actuaci´on sobre el sistema es pro-
porcional a la se˜ nal de error. Se trata pues de un control proporcional (P).
El valor de la ganancia K del amplificador ser´a, por tanto, un par´ametro
susceptible de ser variado de acuerdo con las necesidades del problema.
En lo que sigue se supondra siempre que la cadena de realimentaci´on es
unitaria, con lo que el esquema fundamental quedar´a de la forma que se
indica en figura 3.4 y quedando la funci´on de transferencia en bucle cerrado
reducida a
Y (s)
R(s)
=
KG(s)
1 + KG(s)
Naturalmente en este caso cadena de acci´on y bucle abierto son dos concep-
tos coincidentes.
Por el hecho de introducir una compensaci´on sobre el bucle antes mencionado,
el esquema se modifica de alguna manera, como se muestra m´as adelante. Se
distinguen dos tipos de compensaci´on:
Sistemas din´amicos lineales 48
K
G(s)
`

d
d
d
d

E E E E
T
r(t) + e u y(t)
− m
Figura 3.4: Sistema de Control realimentado unitariamente
• Compensaci´on en serie: Cuando el elemento corrector se coloca en cascada,
en la cadena de acci´on; y
• Compensaci´on por realimentaci´on: Cuando el elemento corrector constituye
una segunda cadena de realimentaci´ on, en el bucle de control.
Los esquemas b´asicos para uno y otro caso se muestran, respectivamente, en
las figuras 3.5 y 3.6.
G
r
(s)
K
G(s)
`

E E E E E
T
r(t) + e u

u y(t)
− m
Figura 3.5: Compensaci´on en serie
Como ya se ha indicado, en el caso de la compensaci´on en serie, la red correc-
tora se coloca en cascada con los elementos de la cadena de acci´on, y delante del
Sistemas din´amicos lineales 49
K
G(s)
G
r
(s)
`

d
d
d
d

`

d
d
d
d

E E E E E
T T
'
r(t) + e u y(t)
− m
Figura 3.6: Compensaci´on por realimentaci´on
amplificador para que el nivel de potencia a que trabaje sea el del error, es decir,
bajo.
Tema 4
Interpretaciones de la funci´on de
transferencia
4.1 Transformaci´ on de Fourier
Dada una funci´on del tiempo peri´odica f
T
(t) de periodo T, se puede desarrollar
en serie de Fourier, de la forma:
f
T
(t) = a
0
+

¸
n=1
(a
n
cos w
n
t + b
n
sen w
n
t)
donde w
n
=
2πn
T
y los coeficientes vienen dados por:
a
n
=
2
T

T/2
−T/2
f
T
(t)cos w
n
tdt n = 0, 1, 2, ...
b
n
=
2
T

T/2
−T/2
f
T
(t)sen w
n
tdt n = 1, 2, ...
supuesto que dichas integrales sean finitas.
Los coeficientes a
n
y b
n
son funciones de w
n
, pero no del tiempo, por lo
que f
T
(t) queda definida mediante los m´odulos de los componentes arm´onicos
50
Interpretaciones de la funci´on de transferencia 51
que lo integran; ahora bien, tomando como par´ametros, por agrupaci´on de las
componentes en seno y coseno de igual frecuencia los valores:
c
n
=

a
2
n
+ b
2
n
ϕ
n
= tag
−1

b
n
a
n

cada t´ermino puede expresarse como
a
n
cos w
n
t + b
n
sen w
n
t = c
n
sen(w
n
t + ϕ
n
)
Por lo tanto, para definir f
T
(t) basta con especificar la amplitud y el desfase
que corresponde a cada frecuencia fundamental:
f
T
(t) = a
0
+

¸
n=1
c
n
sen(w
n
t + ϕ
n
)
Una vez que se ha mostrado como f
T
(t) queda completamente definida con
a
0
, c
n
y ϕ
n
, pueden considerarse las relaciones,
cosα =
e

+ e
−jα
2
; senα =
e

−e
−jα
2j
Entonces, volviendo a tomar las ecuaciones de definici´on,
a
n
cos w
n
t + b
n
sen w
n
t = a
n
e
jw
n
t
+ e
−jw
n
t
2
+ b
n
e
jw
n
t
−e
−jw
n
t
2j
=
=
(a
n
−jb
n
)
2
e
jw
n
t
+
(a
n
+ jb
n
)
2
e
−jw
n
t
y efectuando an´alogas consideraciones con las integrales de definici´on de a
n
y
b
n
a
n
−jb
n
2
=
1
T

T/2
−T/2
f
T
(t)e
−jw
n
t
dt
Interpretaciones de la funci´on de transferencia 52
a
n
+ jb
n
2
=
1
T

T/2
−T/2
f
T
(t)e
jw
n
t
dt
Es decir
a
n
−jb
n
2
tiene una expresi´on id´entica a
a
n
+jb
n
2
sin m´as que cambiar w
n
por − w
n
, esto es, n por -n, luego sustituyendo en el desarrollo en serie, puede
escribirse
f
T
(t) =
1
T

¸
n=−∞
¸

T/2
−T/2
f
T
(t)e
−jw
n
t
dt
¸
e
jw
n
t
La cantidad entre corchetes representa una funci´on compleja que tiene como
par´ametro el valor imaginario j w
n
, toda vez que el tiempo desaparece al integrar.
Esta funci´on recibe el nombre de Transformada de Fourier de la funci´on temporal
peri´odica f
T
(t):
F(jw
n
) =

T/2
−T/2
f
T
(t)e
−jw
n
t
dt
Es inmediato ver que, igual que c
n
y ϕ
n
defin´ıan completamente f
T
(t), esta
funci´on queda completamente definida conociendo F(jw
n
), con lo que basta una
magnitud compleja para cada frecuencia:
f
T
(t) =
1
T

¸
n=−∞
F(jw
n
)e
jw
n
t
Ahora bien, como
w
n
=
2πn
T
; w
n+1
−w
n
=

T
= ∆w
n
luego
f
T
(t) =
1


¸
n=−∞
F(jw
n
)e
jw
n
t
∆w
n
Si se hace crecer el periodo indefinidamente, T → ∞, el sumatorio tiende a
la integral, ∆w
n
→dw, por lo que puede escribirse, finalmente, para una funci´on
no periodica (Transformaci´on de Fourier o Integral de Fourier):
F(jw) =


−∞
f(t)e
−jwt
dt
Interpretaciones de la funci´on de transferencia 53
f(t) =
1


−∞
F(jw)e
jwt
dw
Supuesto que la integral de Fourier sea convergente, para lo cual debe cumplirse
la condici´on de convergencia absoluta


−∞
[ f(t) [ dt < ∞
Esta transformaci´on o integral de Fourier permite expresar de forma an´alitica
muchas funciones no peri´odicas, y de inter´es especial, que no son expresables
mediante series de Fourier. Tal es, por ejemplo, el caso de la funci´on
f(t) =

e
−at
t > 0
0 t < 0
(a > 0)
La convergencia est´a asegurada por:


−∞
[ f(t) [ dt =

t
0
e
−at
dt =
¸
−e
−at
a
¸

0
=
1
a
< ∞
y la transformada:
F(jw) =


−∞
f(t)e
−jwt
dt =


0
e
−(a+jw)t
dt =
1
a + jw
Sin embargo, y aunque en muchos casos la Transformada de Fourier es sufi-
ciente, en otros casos de inter´es tales como funciones de tipo polin´omico en t no
son convergentes; por ejemplo, para el escal´on unitario
f(t) = u
0
(t) =

1 t > 0
0 t < 0
la convergencia resulta:


−∞
[ u
0
(t) [ dt =


0
dt = ∞
Interpretaciones de la funci´on de transferencia 54
y la transformada,
F(jw) =


0
e
−jwt
dt =
¸

e
−jwt
jw
¸

0
que s´olo es convergente para w > 0.
4.2 Funci´ on de transferencia en el dominio de la
frecuencia
Si en la funci´on de transferencia se hace s = jw ´esta se convierte en una expresi´on
compleja H(jw) que tiene la notable propiedad de que, para un cierto valor
de la pulsaci´on w, su m´odulo [ H(jw) [ y su argumento

H(jw) representan
precisamente la atenuaci´on y el desfase que sufre una se˜ nal sinusoidal de frecuencia
f = 2π/w. Este hecho se ilustra en la figura 4.1.
t
A
| H | A
t
ϕ
u(t)
y(t)
H(jω) =| H |

ϕ
Figura 4.1: Respuesta en frecuencia
Ejemplo:
Consid´erese el sistema descrito por la ecuaci´on diferencial,
dy
dt
+ ay = bu
Interpretaciones de la funci´on de transferencia 55
sometido a una se˜ nal sinusoidal, de pulsaci´on w y de amplitud unitaria. Es
sabido que esta se˜ nal se puede representar en forma compleja u(t) = e
jwt
. La
respuesta del sistema, en r´egimen estacionario, a la anterior se˜ nal de entrada es
la soluci´on particular de la anterior ecuaci´on diferencial la cual se comprueba
f´acilmente que es,
y(t) =
b
(jw) + a
e
jwt
Esta notable propiedad de la funci´on de transferencia es la que ha justifi-
cado el amplio uso de la misma en el an´alisis y dise˜ no de servomecanismos y
reguladores elementales. N´otese que esta propiedad lleva impl´ıcito un m´etodo
experimental de medida de la funci´on de transferencia de un sistema din´amico.
Este m´etodo consiste, sencillamente, en la aplicaci´on de se˜ nales sinusoidales de
distintas frecuencias, y en la medida, para cada una de ellas, de la atenuaci´on y
del desfase que sufren al atravesar el sistema. La medida de la atenuaci´ on y del
desfase suministran el m´odulo y el argumento de H(jw) para el valor de w corres-
pondiente. Existen unos equipos comerciales, denominados servoanalizadores,
concebidos para realizar esta funci´on de medici´on de los sistemas din´amicos.
No debe, sin embargo, olvidarse que H(s) suministra informaci´on tanto sobre
el comportamiento en el dominio del tiempo (empleando las tablas de la trans-
formada de Laplace) como de la frecuencia (gracias a la propiedad expuesta). De
ah´ı que la denominaci´on representaci´on frecuencial no sea del todo apropiada, o
en cualquier caso debe tomarse de forma matizada.
Tema 5
Sistemas din´amicos lineales de
primer orden
5.1 Introducci´on
Se denomina sistema lineal diferencial de primer orden de entrada u(t) y salida
y(t) al sistema regido por una ecuaci´on diferencial de la forma
dy
dt
+ ay = bu (5.1)
en donde a y b son dos constantes, denominadas coeficientes de la ecuaci´on;
u(t) es una se˜ nal denominada se˜ nal de entrada o excitaci´on; e y(t) es otra se˜ nal
denominada se˜ nal de salida del sistema. El conjunto se interpreta con un dia-
grama de bloques tal como el de la figura 5.1. La ecuaci´on diferencial anterior
admite una soluci´on ´ unica siempre que se fije el valor inicial de y(t). Este valor
inicial se denotar´a en lo que sigue por ξ. La ecuaci´on (5.1) establece que la pendi-
ente de y(t) en cada instante de tiempo, es una combinaci´ on lineal de los valores
que toma en este instante u(t) e y(t). En la figura 5.2 se muestran las evoluciones
de u(t) e y(t).
En la pr´actica se presentan m´ ultiples sistemas que pueden ser representados
por una ecuaci´on diferencial de primer orden. De hecho es una de las aprox-
imaciones m´as sencillas que se pueden hacer del comportamiento din´amico de
un sistema. En el apartado 5.3 se presentan distintos sistemas que pueden ser
56
Sistemas din´amicos lineales de primer orden 57
representados por una ecuaci´on diferencial de primer orden.
u(t) y(t)
Figura 5.1: Sistema de primer orden (1)
5.2 Soluci´on de la ecuaci´on diferencial de primer
orden
Para el estudio de la soluci´on de la ecuaci´on diferencial de primer orden, conviene
distinguir dos casos:
5.2.1 Se˜ nal de entrada nula
En el supuesto de que la se˜ nal de entrada u(t) sea nula para todo t, la ecuaci´on
diferencial de primer orden se convierte en
dy
dt
= −ay y(0) = ξ (5.2)
lo que constituye la parte homog´enea de la ecuaci´on diferencial de primer orden
de (5.1). La soluci´on de esta ecuaci´on puede obtenerse por integraci´ on directa
haciendo,
dy
y
= −a dt
cuya integraci´on conduce a,
ln y(t) −ln y(0) = −at
Sistemas din´amicos lineales de primer orden 58
u
u(t)
t
y
y(t)
ξ
t
dy(t)
dt
Figura 5.2: Sistema de primer orden (2)
Sistemas din´amicos lineales de primer orden 59
lo que, teniendo en cuenta que y(0) = ξ, puede escribirse,
y
h
(t) = ξe
−at
El sub´ındice h se refiere a que esta soluci´on lo es de la parte homog´enea de
(5.1).
Las figuras 5.3 y 5.4 muestran la forma general de la evoluci´on de y
h
(t) seg´ un
que a sea, respectivamente, negativa o positiva. Estas figuras muestran c´omo
se comporta un sistema en ausencia de excitaci´on. Aparece una clara distinci´on
entre dos formas de comportamiento que permiten una primera clasificaci´on de
los sistemas en estables o inestables, seg´ un que la evoluci´on libre de los mismos
tienda a una estado de reposo o no.
t
y(t)
ξ
Figura 5.3: Primer orden divergente
5.2.2 Se˜ nal de entrada no nula
Se trata de resolver la ecuaci´on diferencial (5.1) en el caso en que u(t) no sea
id´enticamente nula. Para simplificar la notaci´on se escribir´a v(t) = b
0
u(t), con
lo que la ecuaci´on (5.1) se convierte en
dy
dt
+ ay = v (5.3)
Sistemas din´amicos lineales de primer orden 60
t
y(t)
ξ
Figura 5.4: Primer orden convergente
Se trata de determinar qu´e funci´on w(t) debe sumarse a la soluci´on homog´enea
y
h
(t) para obtener la soluci´on de la ecuaci´on (5.3). Es decir, se supone que y(t)
se descompone en,
y(t) = y
h
(t) + w(t) (5.4)
lo que llevado a la ecuaci´on (5.3) resulta,
d(y
h
+ w)
dt
+ a(y
h
+ w) = v y
h
(0) + w(0) = ξ
es decir,
dy
h
dt
+ ay
h
+
dw
dt
+ aw = v w(0) = ξ −y
h
(0)
que, habida cuenta de la expresi´on (5.2), se puede escribir,
dw
dt
+ a w = v w(0) = 0 (5.5)
Por lo tanto la ecuaci´on diferencial que satisface w(t) es exactamente la (5.1),
pero con una notable diferencia, y es que las condiciones iniciales para w(t) son 0.
Sistemas din´amicos lineales de primer orden 61
Es decir, la se˜ nal w(t) constituye la respuesta del sistema ante la se˜ nal de entrada
u(t) a partir del reposo.
La discusi´on anterior permite interpretar la expresi´on (5.4) diciendo que la
respuesta y(t) de un sistema din´amico lineal a una se˜ nal de entrada u(t) a partir
de un valor inicial y(0) puede considerarse como la suma de la respuesta del
sistema, a partir del valor inicial y(0), ante una se˜ nal de entrada nula m´as la
respuesta del sistema a la se˜ nal de entrada u(t) a partir del reposo. Es f´acil ver
que w(t) viene dada por,
w(t) = e
−at

t
o
e

v(ζ)dζ (5.6)
En efecto, en primer lugar es inmediato ver que w(0) = 0. Adem´as susti-
tuyendo la expresi´on (5.6) en la (5.5) se tiene que,
dw
dt
= −a e
−at

t
o
e

v(ζ)dζ + e
−at
d
dt

t
o
e

v(ζ) dζ = −a w + v
Combinando los anteriores resultados se tiene que la respuesta de un sistema
regido por una ecuaci´on diferencial lineal de la forma (5.1) ante una se˜ nal de
entrada u(t) viene dada por,
y(t) = e
−at
ξ + e
−at

t
o
e

b u(ζ) dζ (5.7)
A este mismo resultado se puede llegar empleando las t´ecnicas basadas en
la transformada de Laplace, con las cuales se puede demostrar directamente de
una forma muy sencilla la expresi´on (5.6). Adem´as, en las aplicaciones pr´acticas,
es de esta ´ ultima forma como se procede. Sin embargo para un planteamiento
te´orico m´as general, conviene desarrollar el estudio de los sistemas lineales como
se ha hecho anteriormente.
5.2.3 Respuestas a se˜ nales de entrada especiales
Se discuten a continuaci´on las respuestas de un sistema diferencial lineal de primer
orden a se˜ nales de entrada que presentan especial inter´es en las aplicaciones como
son las se˜ nales en escal´on, en rampa y sinusoidal.
Sistemas din´amicos lineales de primer orden 62
Se˜ nal de entrada en escal´on
Se dice que un sistema se somete a una se˜ nal de entrada en escal´on en el
instante inicial t = 0, si en dicho instante se somete el sistema a una variaci´ on
brusca de la se˜ nal de entrada permaneciendo ´esta en un valor u(t) = constante.
En la figura 5.5 se representa una se˜ nal de entrada de esta forma. Si se supone
y(0) = ξ, u = 1, y teniendo en cuenta la expresi´on (5.7), se tendr´a,
y(t) = e
−at
¸
ξ +
b
a
(e
at
−1)
¸
= e
−at
ξ +
b
a
(1 −e
−at
) (5.8)
u
t
Figura 5.5: Entrada en escal´on
En la figura 5.6 se representa la respuesta de un sistema lineal de primer orden
a una entrada en escal´on.
ξ
y
t
Figura 5.6: Respuesta al escal´on
Sistemas din´amicos lineales de primer orden 63
Para estudiar la respuesta en el tiempo de un sistema lineal de primer orden
a una entrada en escal´on, es interesante escribir la ecuaci´on diferencial de primer
orden de la forma siguiente:
τ
dy
dt
+ y = Ku (5.9)
en donde τ = 1/a y K = b/a. Si se supone adem´as, para simplificar, que ξ = 0
se tendr´a que la expresi´on (5.8) se puede escribir,
y(t) = K(1 −e

t
τ
) (5.10)
La constante K recibe la denominaci´on de ganancia est´atica del sistema,
puesto que representa la relaci´on entre la se˜ nal de salida (y(t)) y la se˜ nal de
entrada (u(t)) para t → ∞. La constante τ que tiene una dimensi´on de tiempo,
se llama constante de tiempo del sistema.
El resultado (5.10) puede obtenerse de una forma m´as sencilla empleando la
transformada de Laplace. En efecto, la ecuaci´on diferencial de un sistema de
primer orden viene dada por la expresi´on (5.1), y puesto que la transformada de
Laplace de una se˜ nal escal´on es:
U(s) =
1
s
se tiene que la de la se˜ nal de salida ser´a,
Y (s) =
K
s(1 + τs)
=
A
s
+
B
1 + τs
Las constantes A y B resultan ser:
A =
K
(1 + τs)

s=0
= K y B =
K
s

s=−
1
τ
= −Kτ
con lo que se tiene Y (s), cuya antitransformada de Laplace resulta ser,
y(t) = L
−1
[Y (s)] = K(1 −e
−t/τ
)
Sistemas din´amicos lineales de primer orden 64
es decir la expresi´on (5.1)
En la figura 5.7 se representa la respuesta a una entrada en escal´on de un
sistema de primer orden de ganancia K y constante de tiempo τ.
0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 3.6 4.0
1/τ
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
y
(
t
)
/
K
0.637
Figura 5.7: Respuesta a un escal´on unitario de un sistema de primer orden de
ganancia K y de constante de tiempo τ.
La constante de tiempo τ caracteriza la velocidad de respuesta del sistema, es
decir, la duraci´on del r´egimen transitorio. Ello se pone de evidencia por las dos
consideraciones siguientes.
1. Existe una relaci´on entre la constante de tiempo y la tangente y(t) en el
origen. En efecto de la expresi´on (5.10) se tiene,
dy
dt
=
K
τ
e

t
τ
(5.11)
haciendo t = 0 se tiene,
dy
dt
(0) =
K
τ
(5.12)
lo cual puede interpretarse tal como se hace en la figura 5.8. Recu´erdese
que se ha hecho u = 1.
Sistemas din´amicos lineales de primer orden 65
τ
α
K
tgα =
K
τ
Figura 5.8: Relaci´on constante amplificaci´on y tang.
2. haciendo t = τ se tiene que la constante de tiempo es el tiempo al cabo del
cual la se˜ nal de respuesta alcanza la fracci´on
1 −
1
e
≈ 0.632 ≈
2
3
del valor final (figura 5.9)
K
0.64K
τ
Figura 5.9: Relaci´on constante de tiempo y amplificaci´on
Sistemas din´amicos lineales de primer orden 66
Observando la figura 5.7 se tiene que la respuesta de un sistema de primer
orden en una entrada en escal´on alcanza su valor final con un error menor del 5
% para un tiempo ≈ 3τ.
En la figura 5.10 se representan las se˜ nales de respuesta a una entrada en
escal´on para distintos sistemas lineales con diferentes constantes de tiempo.
τ
3

2
τ
3
τ
2
Figura 5.10: Diferentes constantes de tiempo
En la pr´actica se presenta el problema de determinar el modelo matem´atico
de un sistema a partir del conocimiento de la respuesta del sistema a una en-
trada en escal´on. En el caso de un sistema de primer orden, la determinaci´on
de los par´ametros K y τ que aparecen en la ecuaci´on diferencial (5.9), resulta
extremadamente sencilla a partir de la respuesta del sistema a una entrada en es-
cal´on. En efecto, de acuerdo con la figura 5.7 el valor de la constante de tiempo τ
se determina midiendo la abscisa correspondiente a la ordenada que sea el 63,2%
del valor alcanzado por el sistema en r´egimen estacionario. La constante est´atica
K es sencillamente el cociente entre el valor alcanzado por la respuesta en r´egimen
estacionario y la amplitud de la entrada en escal´on.
Se˜ nal de entrada en rampa
Sup´ongase una se˜ nal de entrada en rampa, es decir, una se˜ nal de entrada
cuyos valores crecen lineal con el tiempo, u = ωt, tal como la que se representa
en la figura 5.11. Se supondr´a adem´as, para simplificar, que ξ = 0. De acuerdo
con la expresi´on (5.7) se tiene que,
y(t) = wbe
−at

t
o
e

τdτ =
wb
a

t −
1
a
+
e
−at
a

(5.13)
esta ´ ultima expresi´on introduciendo la ganancia K y la constante de tiempo
Sistemas din´amicos lineales de primer orden 67
τ, puede escribirse,
y(t) = wK(t − τ + τe

t
τ
) (5.14)
Este mismo resultado se puede obtener con ayuda de la transformada de
Laplace. En efecto, para el caso de una entrada en rampa, se tiene
u
u = ωt
t
Figura 5.11: Entrada en rampa
U(s) =
ω
s
2
con lo que ,
Y (s) =
ωK
s
2
(1 + τs)
=
A
1
s
2
+
A
2
s
+
B
1 + τs
siendo,
A
1
=
1
0!
¸
ωK
(1 + 2s)
¸
s=0
= wK
A
2
=
1
1!
¸
d
ds
ωK
(1 + τs)
¸
s=0
= −τωK
B =
¸
ωK
s
2

s=−
1
τ
= ωKτ
2
de donde se desprende que y(t) tendr´a la forma (5.14).
En la expresi´on (5.14) se observa que el tercer t´ermino del par´entesis del
segundo miembro tiende a cero cuando el tiempo tiende a infinito. Este t´ermino
Sistemas din´amicos lineales de primer orden 68
constituye el r´egimen transitorio de la respuesta total. Una vez desaparecido el
r´egimen transitorio, la respuesta en r´egimen permanente ser´a,
y
rp
(t) = ωK(t −τ) (5.15)
Para interpretar esta respuesta cabe distinguir dos casos:
1. K = 1. En tal caso se tiene que la respuesta viene dada por
y
rp
= ω(t −τ) (5.16)
es decir, en el instante t la salida es igual a la entrada en el instante t −τ.
La salida se encuentra retardada τ segundos con respecto a la entrada. En
la figura 5.12 se representa la expresi´on (5.14) para K = 1. Se observa en
esta figura c´omo la se˜ nal de salida se encuentra retardada con respecto a la
se˜ nal de entrada. El error en r´egimen permanente es igual a ωτ. Este error
recibe la denominaci´on de error de arrastre.
ωτ
u(t)
y(t)
u(t
1
−τ) y(t
1
)
τ
Figura 5.12: Respuesta a rampa.
Respecto al r´egimen transitorio se tiene que para t = τ
y(τ) =
Kωτ
e

Kωτ
3
(5.17)
es decir, que el sistema ha respondido s´olo en un tercio del valor alcanzado
por la se˜ nal de entrada. En la figura 5.12 se interpreta este resultado.
Sistemas din´amicos lineales de primer orden 69
La consideraci´on del error de arrastre en la respuesta de un sistema de
primer orden, es sumamente importante en ciertos casos como por ejemplo
cuando el sistema en cuesti´on es un aparato de medida. Sup´ongase un
globo en el que se encuentra un term´ometro de mercurio. Se supone que
la temperatura var´ıa linealmente con la altura; se tiene entonces que el
term´ometro se encuentra sometido a una se˜ nal de entrada en rampa. Las
lecturas del term´ometro, seg´ un las consideraciones anteriores, presentan un
error de arrastre.
2. K = 1. La salida y entrada divergen, por lo que el error de arrastre se hace
infinito.
5.2.4 Respuesta arm´onica
Si la se˜ nal de entrada es sinusoidal, es decir, u = senωt y suponiendo ξ = 0, se
tiene que la respuesta del sistema, de acuerdo con la expresi´on (5.7), viene dada
por
y(t) = e
−at
¸
ξ +
wb
a
2
+ w
2
¸

b
a
2
+ w
2
(a senw t −w coswt) (5.18)
En la figura 5.13 se muestra una forma t´ıpica de esta respuesta.
Figura 5.13: Respuesta arm´onica.
Para t → ∞, es decir un tiempo suficientemente grande, el primer t´ermino
del segundo miembro se anula, por lo que la respuesta en r´egimen permanente
resulta ser
Sistemas din´amicos lineales de primer orden 70
y
rp
(t) =
b
a
2
+ w
2
(a senwt −w coswt) (5.19)
Esta expresi´on se puede escribir de una forma m´as sencilla haciendo,
cosϕ =
a

a
2
+ w
2
senϕ = −
w

a
2
+ w
2
(5.20)
con lo que 5.19 puede escribirse,
y(t) = Y sen(wt + ϕ) (5.21)
siendo,
tagϕ = −w/a = −wτ (5.22)
Y =
b

a
2
+ w
2
=
K

1 + τ
2
w
2
(5.23)
La expresi´on (5.21) puede interpretarse diciendo que la respuesta de un sis-
tema lineal a una se˜ nal sinusoidal, es otra se˜ nal sinusoidal de la misma frecuencia
cuya amplitud ha variado en una relaci´on Y , y que ha adquirido un desfase ϕ.
Tanto la relaci´on de amplitudes Y como el desfase ϕ, son funci´on de la frecuencia
angular w de la entrada. En la figura 5.14 se representa Y (ω) y ϕ(ω).
Otra forma de representar gr´aficamente la respuesta en frecuencia de un sis-
tema lineal es por medio de un diagrama polar en el que se representa vectores
cuyos m´odulos y argumentos son respectivamente Y (ω) y ϕ(ω). Haciendo variar
ω se obtiene un lugar geom´etrico, en el que ω es el par´ametro. En la figura 5.15
se representa la respuesta en frecuencia correspondiente a un sistema lineal de
primer orden. El lugar est´a graduado en frecuencias reducidas (normalizadas)
u = ωϕ.
Existen otras formas de representar gr´aficamente la respuesta en frecuencia
de un sistema lineal que ser´an estudiadas m´as adelante.
Filtrado con un sistema lineal.
Si la se˜ nal de entrada a un sistema lineal es una se˜ nal arbitraria, la repro-
ducci´on de la misma a la salida ser´a muy fiel si la constante de tiempo del sistema
es suficientemente peque˜ na. Es decir, si la constante de tiempo del sistema es
Sistemas din´amicos lineales de primer orden 71
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
ω
-130
-110
-90
-70
-50
-30
-10
F
a
s
e
(
g
r
a
d
o
s
)
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
ω
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
R
e
l
a
c
i
o
n

d
e

A
m
p
l
i
t
u
d
e
s
Figura 5.14: Amplitud y fase.
ω = ∞
ϕ
Y
ω = 0
Figura 5.15: Respuesta en frecuencia.
Sistemas din´amicos lineales de primer orden 72
menor que las m´as r´apidas variaciones que se produzcan en esta se˜ nal de entrada.
Lo que a su vez se puede interpretar en el dominio de la frecuencia diciendo que
la constante de tiempo sea lo suficientemente peque˜ na como para que el ancho de
banda sea lo suficientemente grande para permitir el paso de todos los arm´onicos
de la se˜ nal de entrada, (recordar la figura 5.13). La figura 5.16 ilustra este hecho.
a)
b)
τ pequeño
τ grande
Figura 5.16: Filtrados.
Por el contrario si la constante de tiempo es grande, la respuesta del sistema
es lenta, por lo que el sistema no puede seguir las variaciones r´apidas de la se˜ nal
de entrada resultando de ello que ´estas desaparecen de la se˜ nal de salida. El
sistema act´ ua como limando las asperezas de la se˜ nal de entrada. La figura 5.16
ilustra este hecho que recibe la denominaci´on de filtrado de la se˜ nal de entrada.
Se puede dar del mismo una interpretaci´ on en el dominio de la frecuencia similar
a la dada m´as arriba para el caso de una constante de tiempo peque˜ na.
De hecho, el concepto de filtrado de una se˜ nal es enormemente importante y
lo ´ unico que se ha hecho hasta aqu´ı ha sido introducirlo, ilustrando una forma de
comportamiento de los sistemas din´amicos lineales de primer orden.
5.3 Ejemplos de sistemas de primer orden
• Circuito el´ectrico LR.
El circuito representado en la figura 5.17 est´a regido por una ecuaci´on difer-
encial de la forma
L
R
dI
dt
+ I =
E
R
Sistemas din´amicos lineales de primer orden 73
considerando la se˜ nal de entrada, la tensi´on aplicada al sistema y la se˜ nal de
salida a la intensidad que recorre el circuito, se tiene un sistema de primer
orden. La ganancia est´atica es 1/R y la constante de tiempo es L/R.
L
R
E
Figura 5.17: Circuito RL.
• Circuito el´ectrico RC.
El circuito de la figura 5.18 es un circuito cl´asico de carga de un condensador
a trav´es de una resistencia, siendo la ecuaci´on diferencial que rige el proceso
la siguiente:
RC
dq
dt
+ q = CE
La ganancia est´atica es C, puesto que Q/E es, en r´egimen permanente, la
capacidad del condensador. La constante de tiempo es RC.
E
R
C
q
E(t)
R, C
q(t)
Figura 5.18: Circuito RC.
• Term´ ometro de mercurio.
Sistemas din´amicos lineales de primer orden 74
Un term´ometro puede considerarse como un sistema en el que la se˜ nal de
entrada u es la temperatura del medio en el que se encuentra inmerso y la
se˜ nal de salida y, es la temperatura indicada por el mismo. Si se denota
por Q la cantidad de calor intercambiada entre el medio y el term´ometro,
y por C la capacidad calor´ıfica de la ampolla, se tendr´a que
dy
dt
= C
dQ
dt
Por otra parte el flujo de calor´ıas que entra en el mercurio se aporta funda-
mentalmente por conducci´on. De acuerdo con la ley de Newton es aproxi-
madamente proporcional a la diferencia de temperatura entre el medio y el
mercurio.
dQ
dt
= k(u −y)
Se concluye de las dos ecuaciones anteriores que un term´ometro de mercurio
puede considerarse como un sistema lineal de primer orden. Obs´ervese que,
como corresponde a un sistema de medici´on, la ganancia est´atica es k = 1.
Temperatura indicada (y)
Temperatura (u)
Figura 5.19: Term´ometro de mercurio.
• Reacci´on qu´ımica.
Sup´ongase la descomposici´on espont´anea de una mol´ecula Aen dos mol´eculas
B y C:
A → B + C
la cual se efect´ ua de manera que la velocidad de reacci´on es proporcional al
n´ umero de mol´eculas A presentes.
Sistemas din´amicos lineales de primer orden 75
Si se denota por y la concentraci´ on de la sustancia A, se tiene

dy
dt
= ky
es decir,
1
k
dy
dt
+ y = 0
Se trata de un sistema lineal de primer orden aut´onomo de constante de
tiempo 1/k. El par´ametro k se denomina por los qu´ımicos constante de
velocidad de la reacci´on, y en la pr´actica presenta una gran dependencia de
la temperatura.
• Dinam´ometro.
Se trata de medir la fuerza u por el desplazamiento y que imprime a un
dinam´ometro de coeficiente de elasticidad k y de coeficiente de viscosidad
α, figura 5.20.
u
α
k
Figura 5.20: Dinam´ometro
Seg´ un las leyes de la Mec´anica se tiene
u = ky + α
dy
dt
Por lo tanto un dinam´ometro es un sistema de medida lineal de primer
orden.
Sistemas din´amicos lineales de primer orden 76
• Mezcla de dos fluidos.
Sup´ongase un recipiente (figura 5.21) en el que se contiene una masa m del
l´ıquido que contiene una fracci´on C
r
de un componente A, y sup´ongase que
el recipiente se alimenta por un caudal Q de un l´ıquido en el que la fracci´on
de componente A es C
e
. Se supone que la mezcla es instant´ anea, es decir,
que la composici´on es la misma en todo instante en todo el recipiente. Se
supone adem´as que el flujo de entrada es igual al de salida, con lo que
la masa contenida en el recipiente es constante. Es f´acil ver que en estas
condiciones se tiene,
C
e
Q dt = C
r
Q dt + M dC
r
es decir,
M
Q
dC
r
dt
+ C
r
= C
e
C
e
M
C
r
C
r
Figura 5.21: Mezcla de Fluidos.
Se trata por lo tanto de un sistema de primer orden.
• Motor el´ectrico de corriente continua.
Sup´ongase el motor el´ectrico de corriente continua cuyo diagrama se ha
representado en la figura 5.22. El par motor supuesto el flujo φ constante,
viene dado por
Sistemas din´amicos lineales de primer orden 77
P = kφ I
Por otra parte la intensidad I de inducido y la tensi´on que alimenta al
inducido u (se˜ nal de entrada), est´an relacionadas por la siguiente ecuaci´on.
u = RI + L
dI
dt
+ Kω
De acuerdo con las leyes de la Mec´anica el par motor P y la velocidad de
salida del motor ω, est´an ligados por la ecuaci´on,
P = J

dt
+ Bω
R L
Φ
J
ω
B
Figura 5.22: Motor el´ectrico.
De las tres ecuaciones anteriores se obtiene,
J

dt
+ (B + kK
φ
R
)ω = k
φ
R
u
es decir, considerando como se˜ nal de entrada la tensi´on aplicada al inducido
y como se˜ nal de salida la velocidad de giro del motor, se tiene un sistema
de primer orden.
5.4 El sistema de primer orden como integrador
En los apartados anteriores se ha considerado un sistema lineal de primer orden
como el regido por una ecuaci´on diferencial de la forma 5.1. Esta misma ecuaci´on
puede escribirse tambi´en de la forma siguiente:
Sistemas din´amicos lineales de primer orden 78
y(t) = y(0) +

t
0
(bu −ay)dt (5.24)
La consideraci´on de esta segunda forma de escribir la ecuaci´on que rige el
comportamiento de un sistema lineal de primer orden es sumamente interesante,
por cuanto que su sentido f´ısico es m´as claro. La acci´on del sistema puede de-
scomponerse en dos partes:
• Una parte est´atica (sin memoria) en la que se determina
f = bu −ay (5.25)
• Los valores de f determinados para cada instante de tiempo t se van acu-
mulando (integrando) dando con ello lugar a la variable de salida y.
En la figura 5.23 se tiene representado un esquema en el que se distinguen la
parte est´atica del integrador. La parte est´atica puede ser no lineal, sin que por
ello se alteren las anteriores consideraciones.
Esta manera de interpretar el funcionamiento de un sistema lineal de primer
orden, es m´as intuitiva desde un punto de vista f´ısico por cuanto que en la nat-
uraleza es m´as f´acil interpretar los procesos en t´erminos de integraciones que de
diferenciaciones. De hecho la integraci´on (acumulaci´on) es un proceso normal del
que es muy sencillo encontrar ejemplos, mientras que la diferenciaci´on es enorme-
mente m´as artificiosa. No debe olvidarse sin embargo, que la resoluci´on de una
ecuaci´on diferencial es m´as simple que la de una ecuaci´on integral, y es por ello
que en cualquier caso el planteo por ecuaciones diferenciales es m´as frecuente que
el que aqu´ı se presenta.
-
+ u
K
y
1
τS
Figura 5.23: Integrador.
Tema 6
Sistemas din´amicos lineales de
segundo orden y de orden y
superior
6.1 Definici´on
Se define un sistema lineal de segundo orden como el regido por una ecuaci´on
diferencial de la forma,
d
2
y
dt
2
+ a
1
dy
dt
+ a
2
y = b
0
du
dt
+ b
1
u (6.1)
En lo que sigue se considerar´a ´ unicamente el caso en que b
0
= 0 y b
1
= β,
dej´andose para m´as adelante el estudio del caso general.
El problema del estudio de un sistema de segundo orden queda reducido a
la resoluci´on de la anterior ecuaci´on diferencial cuando la se˜ nal de entrada u(t)
se particulariza en una cierta funci´on del tiempo. Para que la soluci´on est´e
completamente determinada se requiere el conocimiento de los valores iniciales
de y(t) y de dy/dt. En esta secci´on se puede hacer un desarrollo completamente
paralelo al realizado en la secci´on anterior para los sistemas de primer orden. La
complejidad de tratamiento algebraico que esto requiere es grande, y es por ello
por lo que se va a estudiar sencillamente los casos simplificados que ofrecen mayor
inter´es pr´actico.
En este sentido, y como primera hip´otesis simplificadora, se va a suponer
79
Sistemas din´amicos lineales de segundo orden y de orden y superior 80
siempre que se trabaja con unas condiciones iniciales nulas.
La ecuaci´on diferencial de un sistema de segundo orden que se va a considerar
aqu´ı es,
d
2
y
dt
2
+ a
1
dy
dt
+ a
2
y = β u (6.2)
La ecuaci´on caracter´ıstica de un sistema de segundo orden se define como:
r
2
+ a
1
r + a
2
= 0 (6.3)
la cual se puede escribir tambi´en, en el supuesto de que sus raices sean −p
1
y
−p
2
, de la forma siguiente,
(r + p
1
) (r + p
2
) = 0 (6.4)
Otra forma frecuente de escribir la ecuaci´on diferencial de un sistema de se-
gundo orden es la siguiente,
d
2
y
dt
2
+ 2 δ ω
n
dy
dt
+ ω
2
n
y = ω
2
n
k u(t) (6.5)
Esta forma es especialmente ´ util cuando se trata con sistemas cuyas raices de
la ecuaci´on caracter´ıstica son complejas. Los par´ametros que intervienen en esta
forma reciben una denominaci´on especial.
• El par´ametro k recibe la denominaci´on de ganancia est´atica, y es una con-
stante que carece de dimensiones.
• El par´ametro ω
n
recibe el nombre de frecuencia propia no amortiguada y
se expresa en radianes por segundo.
• El par´ametro δ recibe el nombre de factor de amortiguamiento, y es un
n´ umero sin dimensiones.
Las relaciones que ligan a los par´ametros de la forma (6.2) con los de la forma
(6.5) son las siguientes.
Sistemas din´amicos lineales de segundo orden y de orden y superior 81
ω
n
=

1
a
2
k =
β
ω
2
n
δ =
a
1

n
(6.6)
Los par´ametros k, ω
n
y δ son, normalmente, positivos.
Una ecuaci´on diferencial de orden n puede descomponerse en n ecuaciones
diferenciales de primer orden. Este es un resultado conocido que por otra parte
ser´a estudiado con detalle en un cap´ıtulo posterior. Aqu´ı se va a estudiar el caso
n = 2; introduciendo las variables adicionales x
1
y x
2
, y siendo p
1
y p
2
las raices
de la ecuaci´on caracter´ıstica, es f´acil ver que una ecuaci´on diferencial de segundo
orden del tipo 6.2 se puede escribir,
˙ x
1
= −p
1
x
1
+ u
˙ x
2
= −p
2
x
2
+ u (6.7)
y = c
1
x
1
+ c
2
x
2
(6.8)
siendo
c
1
=
β
p
2
+ p
1
y c
2
=
β
p
1
−p
2
(6.9)
Para comprobar este resultado basta proceder por sustituci´on, lo que se invita
a hacer al lector. M´as adelante se estudiar´a el procedimiento general que permite
este tipo de descomposiciones.
Empleando el c´alculo matricial, las expresiones 6.7, 6.8 y 6.9 pueden escribirse
de la forma siguiente,
˙ x = Ax + Bu (6.10)
y = Cx
en donde
A =
¸
−p
1
0
0 −p
2
¸
B =
¸
1
1
¸
C = [c
1
c
2
] (6.11)
La ecuaci´on diferencial de la expresi´on 6.10 es de la misma forma de la 5.1,
con la diferencia de que mientras all´ı se trataba con escalares aqu´ı se trata con
vectores y matrices. Por lo tanto, el desarrollo realizado al estudiar los sistemas
de primer orden, puede generalizarse al de los sistemas de segundo orden, sin m´as
Sistemas din´amicos lineales de segundo orden y de orden y superior 82
observaci´on que tener presente que la diferencia b´asica que existe entre el ´algebra
de los n´ umeros reales y la de las matrices, es que esta ´ ultima no es conmutativa.
La respuesta de un sistema de segundo orden ante una se˜ nal de entrada u(t),
a partir del estado x(t), vendr´a dada por,
y(t) = Ce
At
¸
ξ +

t
0
e
−Aζ
B u(ζ) dζ

(6.12)
En esta expresi´on aparece la exponencial e
At
, cuyo significado ser´a discutido
m´as adelante.
A partir de la expresi´on 6.12 se puede estudiar la respuesta de un sistema
de segundo orden ante distintos tipos de se˜ nales de entrada, tal como se hizo
anteriormente para los sistemas de primer orden.
En lo que sigue se estudiar´a exclusivamente la respuesta de un sistema de
segundo orden a una entrada en escal´on, por ser la que m´as inter´es tiene desde
un punto de vista pr´actico. La respuesta para otro tipo de entradas, como la
entrada en rampa o la entrada sinusoidal, pueden ser obtenidas de forma an´aloga
a como se obtiene la respuesta a una entrada en escal´on.
6.1.1 Respuesta de un sistema de segundo orden a una
entrada en escal´on
Se supondr´a que las condiciones iniciales son nulas, ξ = 0. A partir de la expresi´on
6.12 se tendr´a,
y(t) = C e
At

t
0
e
−Aζ
B u(ζ)dζ (6.13)
La entrada en escal´on es constante desde t = 0 hasta infinito. Por lo tanto se
tendr´a que,
u(ζ) = u = const (6.14)
A partir del concepto de funci´on de una matriz diagonal se puede escribir,
e
−At
=
¸
e
p
1
t
0
0 e
p
2
t
¸
(6.15)
Sistemas din´amicos lineales de segundo orden y de orden y superior 83
con lo que se tiene,

t
0
e
−Aζ
B u(ζ) dζ =
¸

u
p
1
(1 −e
p
1
t
)

u
p
2
(1 −e
p
2
t
)
¸
(6.16)
Recordando la expresi´on 6.8 se tiene,
y(t) = C
1
u
p
1
(1 −e
−p
1
t
) + C
2
u
p
2
(1 −e
−p
2
t
) (6.17)
y =
¸
βu
p
1
(p
2
−p
1
)
(1 −e
−p
1
t
) +
βu
(p
1
−p
2
)p
2
(1 −e
−p
2
t
)
¸
Haciendo, sin p´erdida de generalidad, u = 1 y tras una serie de manipulaciones
alg´ebricas, se puede escribir,
y(t) =
β
p
1
p
2

β
(p
2
−p
1
)p
1
e
−p
1
t

β
p
2
(p
1
−p
2
)
e
−p
2
t
(6.18)
Si se escribe la ecuaci´on diferencial de segundo orden en la forma dada por la
expresi´on 6.5 se tendr´a que las raices de la ecuaci´on caracter´ıstica p
1
y p
2
vendr´an
dadas por:
p
1
= −δω
n
−ω
n

δ
2
−1
p
2
= −δω
n
+ ω
n

δ
2
−1 (6.19)
Obs´ervese que,
p
1
p
2
= ω
2
n
β = ω
2
n
p
2
−p
1
= 2ω
n

δ
2
−1 (6.20)
Este mismo resultado se puede alcanzar con mayor sencillez operativa emple-
ando la transformada de Laplace. En efecto, teniendo en cuenta que la trans-
formada de Laplace de una entrada en escal´on es U(s) = 1/s, se tiene que, de
acuerdo con la expresi´on 5.2, la transformada de Laplace de la salida y(t) resulta
Y (s) =
1
s
ω
2
n
s
2
+ 2δω
n
s + ω
2
n
Sistemas din´amicos lineales de segundo orden y de orden y superior 84
b)
a)
c)
3.3
1.38
1
1
1
u(t)
u(t)
u(t)
ω
n
t
ω
n
t
ω
n
t
y(t)
y(t)
y(t)
Figura 6.1: Respuesta sistema de segundo orden
Sistemas din´amicos lineales de segundo orden y de orden y superior 85
cuya antitransformada de Laplace resulta ser,
y(t) = 1 −
e
−δω
n
t

1 −δ
2
sen (ω
0
t + ϕ)
siendo,
ω
0
= ω
n

1 −δ
2
ϕ = t
−1
g

1 −δ
2
δ
factor de amortiguamiento δ
En el estudio de la respuesta a una se˜ nal de entrada en escal´on de un sistema
de segundo orden pueden distinguirse tres casos seg´ un que el factor de amor-
tiguamiento δ sea mayor, menor o igual que uno.
1. Factor de amortiguamiento mayor que la unidad
A partir de la expresi´on 6.18 teniendo en cuenta las expresiones 6.20 se tiene
que,
y(t) = 1 +

2(δ
2
−δ

δ
2
−1 −1)

−1
e
−(δ−

δ
2
−1)ω
n
t
+

2(δ
2
+ δ

δ
2
−1 −1)

−1
e
−(δ+

δ
2
−1)ω
n
t
(6.21)
Esta expresi´on suministra la forma anal´ıtica de la respuesta de un sistema
de segundo orden, con factor de amortiguamiento mayor que la unidad, a
una entrada en escal´on. En la figura 6.1 se representa la forma general de
esta respuesta; desde un punto de vista cualitativo la caracter´ıstica esencial
de esta respuesta es su car´acter de lentitud en alcanzar el valor y = 1.
2. Factor de amortiguamiento menor que la unidad
Si el factor de amortiguamiento δ es menor que la unidad, es decir, δ < 1,
entonces sucede que las raices p
1
y p
2
son complejas. En la figura 6.2 se
representa la situaci´on de las raices p
1
y p
2
en el plano complejo.
La consideraci´on del ´angulo α, tal como se ha indicado en la figura 6.2
permite escribir,
cosα = −δ senα =

1 −δ
2
(6.22)
Escribiendo las expresiones 6.19 y 6.20, empleando en las mismas el ´angulo
α, se tiene:
p
1
= ω
n
e
−jα
p
2
p
1
= 2ω
n
jsenα (6.23)
Sistemas din´amicos lineales de segundo orden y de orden y superior 86
−jω
n

1 −δ
2

n

1 −δ
2
Im
Re
ω
n
−δω
n
α
Figura 6.2: Raices complejas
La expresi´on 6.18 se puede escribir, teniendo en cuenta la expresi´on 6.23 de
la forma siguiente,
y(t) = 1 +
e
−jα
2jsenα
e
−(δω
n
−jω
n

1−δ
2
)t

e

2jsenα
e
−(δω
n
−jω
n

1−δ
2
) t
(6.24)
Esta expresi´on puede escribirse en forma m´as compacta como sigue:
y(t) = 1 +
e
−δω
n
t

1 −δ
2
sen(ω
n

1 −δ
2
t −α) (6.25)
Esta expresi´on suministra la forma anal´ıtica en la respuesta de un sistema
de segundo orden, con factor de amortiguamiento menor que la unidad,
a una respuesta en escal´on. La forma general de la respuesta se tiene en
la figura 6.1, en la que se observa que el comportamiento de un sistema
de segundo orden con factor de amortiguamiento menor que la unidad est´a
caracterizado por la presencia de oscilaciones. Esta forma de respuesta, que
se caracteriza por una sinusoide exponencialmente amortiguada, se dice que
es subamortiguada.
Sistemas din´amicos lineales de segundo orden y de orden y superior 87
El valor del primer pico de sobreoscilaci´on, y el instante de tiempo en que
se produce, son dos tipos de caracter´ısticas muy interesantes para definir
el comportamiento de un sistema de segundo orden. De la observaci´ on de
la expresi´on 6.25 se desprende que la frecuencia de oscilaci´on del sistema
viene dada por,
ω
p
= ω
n

1 −δ
2
(6.26)
La frecuencia ω
p
se denomina frecuencia propia del sistema. El peri´odo de
oscilaci´on del sistema viene dado por
T
p
=

ω
n

1 −δ
2
(6.27)
Instante de tiempo al cual se produce el primer pico de oscilaci´on del sis-
tema, puede obtenerse, de una forma anal´ıtica, derivando y(t) con relaci´on
al tiempo, e igualando esta derivada a cero. En efecto, se tiene:
dy(t)
dt
= −
δω
n
e
−δω
n
t

1 −δ
2
sen(ω
n

1 −δ
2
t−α)+ω
n
e
−δω
n
t
cos(ω
n

1 −δ
2
t−α) = 0
(6.28)
Esta derivada se anular´ a cuando,
ω
n

1 −δ
2
t = 0, π, 2π, ..
por lo tanto, el primer pico de oscilaci´on se producir´a cuando ,
t
p
=
π
ω
n

1 −δ
2
(6.29)
El tiempo t
p
recibe la denominaci´on de tiempo de pico. Llevando el valor
de t
p
a la expresi´on 6.25 se tiene,
y
max
(t) = 1 +
e
−δπ/

1−δ
2

1 −δ
2
sen(π −α) (6.30)
la cual, habida cuenta de que,
sen(π −α) = senα y senα =

1 −δ
2
(6.31)
puede escribirse,
y
max
(t) = 1 + e


δπ

1−δ
2

(6.32)
Sistemas din´amicos lineales de segundo orden y de orden y superior 88
Normalmente se expresa la amplitud de la primera oscilaci´on en % del valor
del escal´on de entrada. Gen´ericamente se suele denominar sobreoscilaci´on
a este tanto por ciento. Por lo tanto se puede escribir:
SO = 100 e


δπ

1−δ
2

(6.33)
En la figura 6.3 se representa la sobreoscilaci´on, en funci´on del factor de
amortiguamiento, para sistemas de segundo orden.
Es interesante considerar el problema de determinar los par´ametros a
1
, a
2
y β de la ecuaci´on 6.2 a partir del conocimiento de la respuesta del sistema
a una entrada en escal´on especialmente en el caso de un sistema subamor-
tiguado.
3. Factor de amortiguamiento igual a la unidad
En el caso de que el factor de amortiguamiento sea igual a la unidad, es decir
δ = 1, se tendr´a que las dos raices de la ecuaci´on caracter´ıstica ser´an iguales
entre s´ı, es decir, p
1
= p
2
es una raiz doble de la ecuaci´on caracter´ıstica. En
tal caso, las constantes c
1
y c
2
que aparecen en la expresi´on 6.8 no est´an
definidas, como se concluye observando las expresiones 6.9. Es decir, que la
anterior discusi´on s´olo era v´alida cuando las dos raices p
1
y p
2
eran distintas.
Para poder aplicar el anterior razonamiento al caso de que las dos raices
sean iguales, se procede a suponer, en principio, que ´estas son diferentes
entre s´ı en una peque˜ na cantidad ε, que posteriormente se hace tender a
cero. Sup´ongase, por lo tanto que las dos raices son:
p
1
= p
p
2
= p + ε
Llevando estos dos valores a los t´erminos segundo y tercero, del segundo
miembro, de la expresi´on 6.18 se tiene,
β
εp
e
pt

b
ε(p + ε)
e
(p+ε)t
= βe
pt
¸
1
εp

e
εt
(p + ε)
¸
(6.34)
Interesa determinar el l´ımite de esta expresi´on cuando ε tiende a cero. Para
ello se procede, por ejemplo, a desarrollar en serie e
εt
y tras una serie de
sencillas manipulaciones se obtiene,
lim
ε→0
¸
1
εp

e
εt
ε(p + ε)
¸
=
1 −t
p
p
2
(6.35)
Sistemas din´amicos lineales de segundo orden y de orden y superior 89
Con este resultado es inmediato obtener que la respuesta a una entrada en
escal´on del sistema con factor de amortiguamiento igual a la unidad, viene
dada por,
y(t) = 1 −ω
n
te
−ω
n
t
− e
−ω
n
t
(6.36)
Esta respuesta se ha representado en la figura 6.1. Esta respuesta se dice
que est´a cr´ıticamente amortiguada.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
δ
0
20
40
60
80
100
S
o
b
r
e
o
s
c
i
l
a
c
i
o
n
Figura 6.3: Sobreoscilaci´on en funci´on del factor de amortiguamiento
En la figura 6.4 se representan las respuestas a una entrada en escal´on para
distintos valores del factor amortiguamiento. Se observa como factores de amor-
tiguamiento inferiores a la unidad, se tiene un comportamiento oscilatorio, el cual
es m´as oscilante cuanto menor es el valor de δ. Por otra parte, para valores del
amortiguamiento mayor que la unidad, se tienen respuestas sin sobreoscilaci´on,
pero que son considerablemente m´as lentas. Esto ´ ultimo hace que las aplica-
ciones pr´acticas se tienda siempre a tener respuestas amortiguadas, puesto que
son m´as r´apidas, aunque siempre manteniendo oscilaciones dentro de unos l´ımites
razonables.
Sistemas din´amicos lineales de segundo orden y de orden y superior 90
0.0 1.2 2.4 3.6 4.8 6.0 7.2 8.4 9.6 10.8 12.0
ω
n
t
0.0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
1.8
2.0
y
(
t
)
δ=0.1
0.5
0.7
1.0
1.2
1.5
2.0
5.0
Figura 6.4: Respuesta ante escal´on en funci´on del factor de amortiguamiento
Sistemas din´amicos lineales de segundo orden y de orden y superior 91
6.1.2 Respuesta en frecuencia de un sistema de segundo
orden
Si se aplica una se˜ nal sinusoidal a un sistema de segundo orden, es decir, si u(t) =
V
o
senωt, la determinaci´on de la se˜ nal de salida y(t) se puede hacer procediendo
en forma similar a como se hizo en el apartado anterior. Aqu´ı sin embargo
se proceder´a exclusivamente a estudiar el r´egimen transitorio que resulta de la
aplicaci´on de la se˜ nal sinusoidal. Es decir, se va a determinar exclusivamente la
soluci´on particular de la completa cuando en la expresi´on 6.2 se hace u = V
o
senωt.
Se tiene que y(t) ser´a de la forma,
y(t) = Y
o
sen(ωt + ϕ) (6.37)
siendo
Y
o
=
V
o

(a
2
−ω)
2
+ a
2
1
ω
2
(6.38)
ϕ = tg
−1

−a
1
/(a
2
−ω
2
)

(6.39)
Este resultado se puede comprobar por sustituci´on.
Se ha tomado como se˜ nal de entrada una se˜ nal sinusoidal de amplitud unitaria
para que la amplitud de la se˜ nal de salida suministrase directamente la relaci´on
de amplitudes entre las se˜ nales de entrada y salida. En las figuras 6.5 y 6.6 se
representan las relaciones de amplitudes y los desfases correspondientes a distintos
valores del factor de amortiguamiento.
Se observa como la forma de la respuesta en frecuencia del sistema de segundo
orden depende del factor de amortiguamiento. Cuanto menor es ´este, mayor es
el pico de resonancia que presenta la respuesta en frecuencia. El efecto de reso-
nancia indica que para determinada frecuencia la amplitud de la se˜ nal sinusoidal
correspondiente, en el espectro de frecuencias, sufre una amplificaci´on al atravesar
el sistema.
El valor m´aximo de la amplitud de la respuesta en frecuencia, recibe la denom-
inaci´on de factor de resonancia. Es f´acil demostrar que el factor de resonancia
viene dado por,
Q =
1


1 −δ
2
(6.40)
Sistemas din´amicos lineales de segundo orden y de orden y superior 92
La frecuencia a la que se produce este m´aximo, que recibe la denominaci´on
de frecuencia de resonancia, viene dada por,
ω
R
= ω
n

1 −2δ
2
(6.41)
Se observa que cuando el factor de amortiguamiento es nulo la frecuencia de
resonancia coincide con la frecuencia propia no amortiguada del sistema. De ah´ı
la denominaci´on de ´esta ´ ultima.
0.0 0.5 1.0 1.5 2.0 2.5
PULSACION ω/ω
n
0
1
2
3
4
5
R
E
L
A
C
I
O
N

D
E

A
M
P
L
I
T
U
D
E
S
δ=0.1
0.2
0.3
0.4
0.5
0.707
1.0
2.0
5.0
Figura 6.5: Amplitudes correspondientes a distintos factores de amortiguamiento.
6.1.3 Ecuaciones diferenciales de orden n
Una vez estudiado los sistemas de primero y segundo orden, conviene recordar
los resultados correspondientes a sistemas de orden n. Sup´ongase que el modelo
Sistemas din´amicos lineales de segundo orden y de orden y superior 93
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
PULSACION ω/ω
n
-180
-150
-120
-90
-60
-30
0
D
E
S
F
A
S
E
δ
=
0
.
1 0
.
2
0
.
3
0
.
4
0
.
5
0
.
7
0
7
1
.
0
2
.
0
5
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
0
.
7
0
7
1
.0
2
.0
δ
=
5
.0
Figura 6.6: Desfases correspondientes a distintos factores de amortiguamiento.
Sistemas din´amicos lineales de segundo orden y de orden y superior 94
matem´atico del sistema que se est´a considerando tiene la forma,
d
n
y
dt
n
+ a
1
d
n−1
y
dt
n−1
+ + a
n−1
dy
dt
+ a
n
y = b
o
d
m
u
dt
m
+ + b
m
u (6.42)
en donde, por razones de realizabilidad f´ısica que se considerar´an m´as adelante,
n > m. Si las condiciones iniciales son nulas, su transformada de Laplace es
Y (s)(s
n
+ a
1
s
n−1
+ +a
n−1
s +a
n
) = U(s) (b
o
s
m
+ b
1
s
m−1
+ +b
m
) (6.43)
por lo tanto, la transformada de Laplace de la salida del sistema y(t), corres-
pondiente a una entrada u(t), cuya transformada es U(t) = L [u(t)] resulta ser
Y (s) =
b
o
s
m
+ b
1
s
m−1
+ + b
m
s
n
+ a
1
s
n−1
+ + a
n−1
s + a
n
U(s) (6.44)
Puesto que U(s) se supone conocido, el problema es el de determinar Y (s),
problema que se reduce al c´alculo de la antitransformada de Y (s). Para las
funciones normalmente empleadas en Autom´atica U(s) es el cociente de dos poli-
nomios en s, por lo que Y (s) ser´a a su vez el cociente de dos polinomios, es
decir,
Y (s) =
Q(s)
P(s)
=
Q(s)
(s −p
1
)
n
1
(s −p
2
)
n
2
. . . (s −p
q
)
np
(6.45)
El polinomio del denominador U(s) se ha factorizado, siendo p
i
las raices de
la ecuaci´on P(s) = 0, que recibe la denominaci´on de polos de Y (s). Para mayor
generalidad, se ha supuesto que cada uno de los polos tiene una multiplicidad n
i
aunque normalmente n
i
= 1, para todo i.
El cociente de polinomios Y (s) se puede descomponer en fracciones simples,
escribi´endose,
Y (s) =
q
¸
i=1
ni
¸
k=1
c
ik
(s −p
i
)
k
(6.46)
en donde los coeficientes c
ik
reciben la denominaci´on de residuos de Y (s) en
el polo p
i
. Los residuos se calculan con ayuda de la expresi´on
Sistemas din´amicos lineales de segundo orden y de orden y superior 95
c
ik
=
1
(n
i
−k)!

d
ni−k
ds
ni−k

(s −p
i
)
ni
Y (s)

s=p
i
(6.47)
Si todos los polos son simples, es decir, si todos los valores de n
i
son igual a
la unidad, entonces la expresi´on 6.46 se escribe
Y (s) =
q
¸
i=1
c
i1
s −p
i
(6.48)
y los residuos se determinan por la expresi´on
c
ik
= c
i1
= (s −p
i
) Y (s) [
s=p
i
(6.49)
expresiones que no son sino particularizaciones para n
i
= 1 de las correspon-
dientes expresiones 6.46 y 6.47.
En el caso de polos simples, los residuos pueden determinarse de forma gr´afica
sobre el plano complejo. Para ello, en primer lugar, consid´erese que Y (s) puede
escribirse
Y (s) =
k Π
m
i=1
(s −z
i
)
Π
n
i−1
(s −p
i
)
(6.50)
en donde se ha factorizado tambi´en el polinomio del numerador. Por z
i
se
denotan las raices de la ecuaci´on P(s) = 0 y estas raices se denominan ceros del
sistema. Puesto que Y (s) es, en general, una funci´on compleja, se puede escribir,
Y (s) =[ Y [ e

=[ Y [

φ (6.51)
en donde [ Y (s) [ es el m´odulo (valor absoluto) de Y (s) y φ es el argumento
de Y (s), siendo
φ = t
−1
an
¸
Im¦Y (s)¦
Re¦Y (s)¦
¸
La expresi´on compleja Y (s), de acuerdo con la expresi´on 5.8, puede escribirse
Sistemas din´amicos lineales de segundo orden y de orden y superior 96
Y (s) =
k
¸
m
i=1
[ s −z
i
[
¸
n
i=1
[ s −p
i
[

(
m
¸
i=1
φ
iz

n
¸
i=1
φ
ip
) (6.52)
es decir, puesto que Y (s), de acuerdo con la expresi´on 6.52, se determina como
el cociente de dos expresiones complejas, cada una de las cuales es a su vez el
producto de t´erminos elementales de la forma (s −p
i
) el m´odulo de Y (s) ser´a el
cociente de los productos de los respectivos m´odulos, mientras que el argumento
ser´a la diferencia de las sumas de los correspondientes argumentos.
Interesa por tanto, representar en el plano complejo, los componentes elemen-
tales (s −z
i
) y (s −p
i
) con el fin de determinar sus m´odulos y argumentos para
poder realizar con ellos las operaciones de multiplicaci´on y adici´on a las que se
acaba de aludir.
En la figura 6.1.3 se muestra la representaci´on gr´afica del vector asociado a
(s − z
i
) y a (s − p
i
). En el caso de (s
i
− z
i
) se tiene un vector que va desde el
cero, z
i
al punto s, y an´alogamente para p
i
.
s
s −P
i
P
i
Z
i
s −Z
i
s
Im
Re
Figura 6.7: Vectores asociados
El residuo c
i1
= c
i
, correspondiente al polo p
i
, resulta ser de acuerdo con la
expresi´on 6.49,
c
i
= (s − p
i
) Y (s) [
s=pi
=
k(s −p
i
) Π
m
i=1
(s −z
i
)
Π
n
i=1
(s −p
i
)

s=pi
Sistemas din´amicos lineales de segundo orden y de orden y superior 97
cuya determinaci´on gr´afica puede hacerse siguiendo los siguientes pasos:
1. dibujar en el plano complejo los ceros, c
i
y los polos p
i
de Y (s).
2. dibujar los vectores desde todos los polos y ceros al polo p
i
en el que se est´a
determinando el residuo.
3. determinar el m´odulo del residuo [ c
i
[ multiplicando los m´odulos de todos
los vectores desde los ceros y dividiendolos por el producto de los m´odulos
de todos los vectores desde los polos.
4. determinar el argumento del residuo

c
i
sumando los argumentos de los
vectores desde los ceros y rest´andole la suma de los argumentos de los
vectores desde los polos.
Tema 7
Representaci´on gr´afica de la
funci´on de transferencia
Es usual emplear representaciones gr´aficas de la funci´on de transferencia. Ello es
especialmente patente en los m´etodos cl´asicos, en los que se trabaja en el dominio
de la frecuencia. Vamos a ver algunas de las formas de representaci´ on gr´aficas
m´as usuales.
7.1 Diagramas m´as comunes
7.1.1 Diagrama de polos y ceros: caso racional
Sea la funci´on de transferencia
G(s) =
K(s + c
1
) . . . (s + c
m
)
(s + p
1
) . . . (s + p
n
)
Se puede representar G(s) indicando la posici´on de sus ceros −c
i
y de sus polos
−p
i
en el plano de la variable compleja s (fig. 7.1).
98
Representaci´on gr´afica de la funci´on de transferencia 99
Im
Re
K
Figura 7.1: Diagrama de polos y ceros
7.1.2 Diagrama de Nyquist
La funci´on de transferencia G(s) se representa mediante una curva en un diagrama
polar. Esta curva se construye representando para cada valor de ω el m´odulo y
el argumento de la expresi´on compleja que resulta de hacer s = jω en G(s).
Como se sabe, el m´odulo y el argumento de G(jω) representan la amplificaci´on
(o atenuaci´ on) y el desfase de una se˜ nal sinusoidal que atraviese el sistema. En la
figura 7.2 se representa un diagrama de esta naturaleza. Conviene observar que
ω var´ıa de 0 a ∞.
ω = ∞
ω = 100
ω = 10
ω = 1
ω = 0
Im
Re
Figura 7.2: Diagrama de Nyquist
El diagrama de Nyquist es por tanto una curva parametrizada en ω que, para
cada punto (es decir, para cada frecuencia), da el m´odulo y el argumento de la
funci´on de transferencia.
Representaci´on gr´afica de la funci´on de transferencia 100
7.1.3 Diagrama logar´ıtmico o de Bode
En este caso, la funci´on de transferencia G(s) se representa mediante el conjunto
de las dos curvas siguientes (fig. 7.3):
log ω
log ω
log |G(jω)|
Arg G(jω)
-180
o
Figura 7.3: Diagrama logar´ıtmico
• Curva de amplitud: log [G(s)[ en funci´on de log ω;
• Curva de fase: arg G(s) en funci´on de log ω.
El empleo de logaritmos para representar los m´odulos permite facilitar la combi-
naci´on de funciones de transferencia en serie, ya que en tal caso el producto de
los m´odulos se convierte en la suma de sus logaritmos.
Conviene recordar que la medida logar´ıtmica de la relaci´on entre dos se˜ nales
A se expresa en
• decibelios (dB), 20 log
10
A
• d´ecadas log
10
A
• octavas log
2
A
Representaci´on gr´afica de la funci´on de transferencia 101
Este conjunto de curvas, como veremos a continuaci´ on, es el m´as utilizado en
la pr´actica para representar gr´aficamente la funci´on de transferencia.
7.1.4 Diagrama de Black
En este diagrama se representa la funci´on de transferencia G(s) mediante una
curva parametrizada en ω en un plano cuyos ejes de coordenadas est´an definidos
por arg(G(jω)) y 20 log
10
A (fig: 7.4).
log|G(jω)|
Arg G(jω)
0
-90
o
-180
o
ω=1
Figura 7.4: Diagrama de Black
7.2 Diagrama de Bode
Como se ha indicado m´as arriba, el diagrama de Bode consiste en la representaci´ on
gr´afica de la funci´on de tranferencia mediante dos curvas, una relativa a la ampli-
tud y la otra a la fase. En ambas curvas, en abcisas se representa el logaritmo de
ω. En coordenadas se representa en un caso la relaci´on de amplitudes en escala
logar´ıtmica, mientras que en el segundo la fase en escala natural (en grados o en
radianes).
La representaci´ on de una funci´on de transferencia G(s) en el diagrama de
Bode se hace mediante unas aproximaciones asint´ oticas que simplifican enorme-
Representaci´on gr´afica de la funci´on de transferencia 102
mente su trazado. Para estudiar estas aproximaciones consideremos la funci´on
de transferencia
G(jω) =
k(jω + c
1
)(jω + c
2
) . . .
(jω)
N
(jω + p
1
)(jω + p
2
) . . .
La denominada forma de Bode de esta funci´on de tranferencia es la siguiente
G(jω) =
k
Πc
i
Πp
j

1 +

c
1

1 +

c
2

. . .
(jω)
N

1 +

p
1

1 +

p
2

. . .
(7.1)
en donde la denominada ganancia de Bode viene dada por
k
B
= k
Πc
i
Πp
j
La expresi´on (7.1) es una expresi´on compleja en funci´on de ω. Es decir, para
cada valor de ω tomar´a un valor complejo y, por tanto, tendr´a un m´odulo y un
argumento. El m´odulo ser´a tal que si tomamos su logaritmo se podr´a escribir
20 log [G(jω)[ = 20 log [k
B
[ + 20 log

1 +

c
1

+ . . .
+20 log

1
(jω)
N

+ 20 log
1

1 +

p
1

+ . . . (7.2)
mientras que el argumento ser´a
20 arg G(jω) = 20 arg k
B
+ 20 arg

1 +

c
1

+ . . .
+20 arg
1
(jω)
N
+ 20 arg
1

1 +

p
1

+ . . . (7.3)
Obs´ervese que mediante la adopci´on de una escala logar´ıtmica para el m´odulo se
ha descompuesto aditivamente en las aportaciones de cada uno de los elementos
que aparecen en (7.1).
Esta descomposici´on aditiva, junto con la que se da de una manera natu-
ral para el argumento, permite que se obtenga la representaci´ on gr´afica en el
diagrama de Bode a partir de la representaci´ on gr´afica de cada uno de los ele-
mentos que aparecen en (7.1). Vamos a ver a continuaci´ on c´omo se representa
gr´aficamente cada uno de estos elementos.
Representaci´on gr´afica de la funci´on de transferencia 103
7.2.1 Diagrama de Bode de una constante
La representaci´ on en el diagrama de Bode de una constante es inmediata y se
tiene en la figura 7.5.

ω(rad/s)
-180.0
-90.0
0.0
F
a
s
e
(
g
r
a
d
o
s
)
-20logK
0
20logK
A
m
p
l
i
t
u
d
(
d
B
)
K>1
K<1
K(numero positivo)
K(numero negativo)
Figura 7.5: Diagrama de Bode de una constante
7.2.2 Diagrama de Bode de una integraci´ on pura
El diagrama de Bode de una integraci´ on pura
G(jω) =
1

viene dada por una recta de pendiente -20 decibelios por d´ecada (o -6 decibelios
por octava) y con un desfase constante igual a -90 grados
7.2.3 Diagrama de Bode de un sistema de primer orden
Sea el sistema de funci´on de transferencia
1
1 +

p
Representaci´on gr´afica de la funci´on de transferencia 104
10
-1
10
0
10
1
10
2
ω(rad/s)
-180
-90
0
90
F
a
s
e
(
g
r
a
d
o
s
)
-40
-20
0
20
A
m
p
l
i
t
u
d

(
d
B
)
-20dB/dec
Figura 7.6: Diagrama de Bode de una integraci´ on pura
Para estudiar su representaci´ on en el diagrama de Bode consideraremos, en primer
lugar, dos situaciones extremas:

ω <p
En tal caso se tendr´a que
20 log [
1
1 +

p
[ ≈ 20 log 1 = 0dB

ω p
en cuyo caso
20 log [
1
1 +

p
[ ≈ 20 log [
1

p
[ = −20 log
ω
p
Por tanto, la representaci´on gr´afica del m´odulo de G presenta dos as´ıntotas. Para
valores bajos de ω la as´ıntota es sencillamente la recta horizontal trazada en 0
dB; mientras que para valores altos de la frecuencia la as´ıntota es una recta de
pendiente -20 dB/d´ecada. Estas dos as´ıntotas se cortan en el punto ω = p.
Para completar la curva podemos considerar dos puntos interesantes:
Representaci´on gr´afica de la funci´on de transferencia 105
10
-1
10
0
10
1
10
2
ω(rad/s)
-90
-45
0
F
a
s
e
(
g
r
a
d
o
s
)
-40
-20
0
20
A
m
p
l
i
t
u
d
(
d
B
)
1dB
3dB
1dB
Figura 7.7: Diagrama de Bode de un sistema de primer orden
• para ω/p = 0.5 se tiene [G(jω)[ = −1 dB.
• para ω/p = 1 se tiene [G(jω)[ = −3 dB.
Por lo que respecta a la fase no es posible hacer unas aproximaciones asint´oticas
como las que acabamos de ver para la amplitud. No obstante, se dispone de una
plantilla que permite trazar la curva de fase correspondiente.
7.2.4 Diagrama de Bode de una diferenciaci´on pura
El diagrama de Bode de un diferenciador puro
G(jω) = jω
se obtiene de forma similar al de un integrador puro. En la figura 7.8 se representa
el diagrama correspondiente. En este caso la curva de amplitud tiene pendiente
positiva y la de fase es positiva.
Representaci´on gr´afica de la funci´on de transferencia 106
10
-1
10
0
10
1
10
2
ω(rad/s)
0
45
90
F
a
s
e
(
g
r
a
d
o
s
)
-20
0
20
40
A
m
p
l
i
t
u
d
(
d
B
)
+20dB/dec
Figura 7.8: Diagrama de Bode de una diferenciaci´on pura
7.2.5 Diagrama de Bode del t´ermino asociado a un cero
El t´ermino asociado a un cero
G(jω) =

p
+ 1
conduce, por consideraciones an´alogas a las que se han hecho para un sistema de
primer orden (asociado a un polo), tiene la forma que se muestra en la figura 7.9.
Combinando todo lo que se acaba de ver, y teniendo en cuenta las expresiones
(7.2 y (7.3), se puede obtener la representaci´ on gr´afica de la funci´on de trans-
ferencia del sistema cuya funci´on de transferencia viene dada por la expresi´on
(7.1).
7.3 Sistemas de fase m´ınima
Un sistema con un cero con parte real positiva recibe la denominaci´on de sistema
de fase no m´ınima, mientras que si todos ceros tienen parte real negativa recibe
la denominaci´on de sistema de fase m´ınima. En los sistemas de fase no m´ınima
el valor que toma la fase es mayor, para un mismo valor de la frecuencia, que
Representaci´on gr´afica de la funci´on de transferencia 107
10
-1
10
0
10
1
10
2
ω(rad/s)
0.0
22.5
45.0
67.5
90.0
F
a
s
e
(
g
r
a
d
o
s
)
0
20
40
A
m
p
l
i
t
u
d
(
d
B
)
+20dB/dec
1dB
3dB
1dB
Figura 7.9: Diagrama de Bode del t´ermino asociado a un cero
si todos los polos y ceros estuvieran en el semiplano de la izquierda (el sistema
fuera de fase m´ınima).
−p
0
z
Re
ω
Im
ω
Im
−p −z 0
Re
G
1
(s)
G
2
(s)
Figura 7.10: Diagrama de polos y ceros de G
1
y de G
2
Con el fin de ilustrar el concepto de sistema de fase m´ınima consid´erense los
sistemas de funci´on de transferencia:
G
1
(s) =
s −z
s + p
(7.4)
y
G
2
(s) =
s + z
s + p
(7.5)
Vamos a comparar los diagrams de Bode de estas dos funciones de transferencia.
Representaci´on gr´afica de la funci´on de transferencia 108
Para ello consid´erese la figura 7.10. Es claro que
[ G
1
(jω) [=[ G
2
(jω) [ ∀ω ≥ 0
y, por tanto, las curvas de amplitud en el diagrama de Bode ser´an las mismas
para las dos funciones de transferencia.
Sin embargo, por la que respecta a los argumentos es claro que se tendr´a:
arg G
1
(jω) ≥ arg G
2
(jω) ∀ω ≥ 0
En la figura 7.11 se tienen las correspondientes curvas de fase. Se comprende la
denominaci´on de sistema de fase m´ınima para G
2
.
θ
ω
G
1
(jω)
G
2
(jω)
180
o
90
o
-90
o
10
0 10
1
10
2
10
-1
Figura 7.11: Curvas de fase en el diagrama de Bode de G
1
y de G
2
7.4 C´ırculos M y N
Para proceder al dise˜ no de sistemas realimentados, mediante m´etodos gr´aficos,
es necesario disponer de un m´etodo gr´afico que permita pasar de la funci´on de
transferencia en bucle abierto G(s) a la correspondiente a bucle cerrado T(s).
Como se sabe la expresi´on que liga a estas dos funciones de transferencia es la
siguiente
T(s) =
G(s)
1 + G(s)
Representaci´on gr´afica de la funci´on de transferencia 109
Si se interpreta vectorialmente esta expresi´on se tendr´a que el vector T(jω) tendr´a
como m´odulo el cociente de los vectores G(jω) y 1 + G(jω), y como argumento
la diferencia de los argumentos de estos dos vectores. En la figura 7.12 se tienen
1 +G
0
β
Im
φ
P
α
G
A Re
(−1 +j0)
Figura 7.12: Diagrama polar de la funci´on de transferencia, con vectores asociados
representados los correspondientes vectores. A partir de esta figura resulta que
para cada valor de ω el m´odulo de T(jω) se determinar´ıa mediante el cociente de
las medidas de los segmentos OP y AP, y el argumento de T(jω) vendr´ıa dado
por la expresi´on
arg C/R = α −β (7.6)
Con el fin de facilitar la aplicaci´on pr´actica de este m´etodo gr´afico se procede
a definir en el plano polar un sistema de coordenadas curvilineas que permita
resolver gr´aficamente la determinaci´on del m´odulo y el argumento de T(jω).
Para ello se procede a dibujar el lugar geom´etrico de los puntos para los que
el m´odulo (respectivamente el argumento) de T(jω) sea constante. Sea (x, y) un
punto gen´erico del plano complejo (figura 7.13). A partir de las figuras 7.12 y
7.13 se puede escribir
OP =

x
2
+ y
2
AP =

(1 + x)
2
+ y
2
M =
OP
AP
=

x
2
+ y
2

(1 + x)
2
+ y
2
Elevando al cuadrado esta expresi´on, y tras algunas manipulaciones algebr´aicas,
se tiene
y
2
+ x
2
+ 2x
M
2
M
2
−1
= −
M
2
M
2
−1
Representaci´on gr´afica de la funci´on de transferencia 110
Figura 7.13: Plano complejo
Sumando y restando a esta expresi´on

M
2
M
2
−1

2
se tiene
y
2
+ x
2
+ 2x
M
2
M
2
−1
+

M
2
M
2
−1

2
=

M
2
M
2
−1

2

M
2
M
2
−1
de donde se concluye
y
2
+

x +
M
2
M
2
−1

2
=
M
2
M
2
−1
Esta expresi´on indica que el lugar geom´etrico en el plano complejo de los puntos
para los que el m´odulo de T(jω) es constante viene dado por un c´ırculo de centro
c = −
M
2
M
2
−1
y de radio
r =

M
M
2
−1

La familia de c´ırculos correspondientes a diferentes valores de M se tiene en
la figura 7.14. Esta figura admite una facil interpretaci´ on. Si en ella se dibuja
la funci´on de transferencia en bucle abierto G(jω) entonces leyendo esta misma
curva en el sistema de coordenadas curvil´ıneas definido por los c´ırculos M se
tiene el m´odulo de la funci´on de transferencia en bucle cerrado T(jω). Por lo que
respecta a las fases, se puede proceder de manera an´aloga a como se ha hecho
con los m´odulos. En este caso se tiene que, de acuerdo con la expresi´on (7.6)
Representaci´on gr´afica de la funci´on de transferencia 111
Re
Im
Figura 7.14: C´ırculos M
0
−1 +j0
1 +G
φ
G
α
Figura 7.15: C´ırculos N
Representaci´on gr´afica de la funci´on de transferencia 112
el argumento de T(jω) viene dado por el ´angulo APO en la figura 7.12. En la
figura 7.15 se representa el lugar geom´etrico de todos los ´angulos APO de valor
constante. Este lugar geom´etrico resulta ser un c´ırculo, de acuerdo con una bien
conocida propiedad de la geometr´ıa, y el valor de este ´angulo est´a perfectamente
definido en el c´ırculo y resulta ser de α/2, de acuerdo con la figura 7.15. Es decir
arg
G
1 + G
= φ =
α
2
= arctan
1/2
y
siendo
y =
G
2 tan(φ)
De este modo se tiene definida otra familia de c´ırculos, los c´ırculos N, en los que
se puede leer la fase del sistema en bucle cerrado si se dibuja en coordenadas
polares la funci´on de transferencia en bucle abierto.
En la pr´actica no se emplean los c´ırculos M y N en el diagrama polar, sino su
traslaci´on a un diagrama de coordenadas rectangulares, en el que se representa en
abcisas el logaritmo de ω y en coordenadas la relaci´on de amplitudes en decibelios.
Este diagrama recibe la denominaci´on de ´abaco de Black, en libros europeos,
mientras que en libros americanos es frecuente que se denomine ´abaco de Nichols.
7.5 Relaci´on entre las constantes de error y los
polos y ceros.
Sea G(s) la funci´on de transferencia en bucle abierto de un sistema con reali-
mentaci´on unitaria. La funci´on de transferencia en bucle cerrado correspondiente
T
d
(s) ser´a:
T
d
(s) =
Y (s)
R(s)
=
G(s)
1 + G(s)
(7.7)
y la relaci´on entre la se˜ nal de error y la referencia vendr´ a dada por
E(s)
R(s)
=
1
1 + G(s)
(7.8)
Sup´ongase que los polos de T
d
(s) se denotan por −p
i
y que los ceros se hacen
por −c
i
. En tal caso se tiene:
Representaci´on gr´afica de la funci´on de transferencia 113
T
d
(s) =
k(s + c
1
) (s + c
2
) (s + c
m
)
(s + p
1
) (s + p
2
) (s + p
n
)
(7.9)
Por otra parte desarrollando en serie E(s) /R(s) se tiene:
E(s)
R(s)
= e
o
+ e
1
s + e
2
s
2
+ (7.10)
Se van a estudiar a continuaci´on las relaciones entre las constantes de posici´on
k
p
, velocidad k
v
, y aceleraci´on k
a
y los polos y ceros de T
d
(s).
7.5.1 Seguimiento de posici´on.
Sup´ongase una entrada en escal´on de posici´on, de manera que R(s) = 1/s. En
tal caso (7.10) se convierte en
E(s) =
e
o
s
+ e
1
+ e
2
s + ... (7.11)
Es decir que
sE(s) = e
o
+ e
1
s + e
2
s
2
+ ... (7.12)
Por lo tanto aplicando el teorema de valor final, el valor del error en r´egimen
permanente e
rp
ser´a:
e
rp
= lim
t →∞
e(t) = lim
s →0
sE(s) = lim
s →0
1
1 + G(s)
= e
o
(7.13)
Definiendo la constante de error de posici´on k
p
como
k
p
= lim
s →0
G(s) (7.14)
se tiene que e
0
viene dado por
Representaci´on gr´afica de la funci´on de transferencia 114
e
o
=
1
1 + k
p
(7.15)
Por otra parte puesto que
E(0)
R(0)
= lim
s →0
1
1 + G(s)
(7.16)
Y considerando (7.10), es decir e
0
= E(0) / R(0), se tendr´a que
E(0)
R(0)
=
1
1 + k
p
(7.17)
Adem´as se sabe que
Y (s)
R(s)
= 1 −
E(s)
R(s)
(7.18)
A partir de (7.17) y (7.18), haciendo s = 0, se obtiene
Y (0)
R(0)
=
k
p
1 + k
p
(7.19)
de donde, resolviendo para k
p
, se tiene
k
p
=
Y (0) / R(0)
1 −Y (0) / R(0)
(7.20)
Por otra parte se tiene que haciendo s = 0 en (7.7) se llega a
Y (0)
R(0)
=
k Π
m
j=1
c
j
Π
n
j=1
P
j
(7.21)
en donde
Representaci´on gr´afica de la funci´on de transferencia 115
Π
m
j=1
C
j
= producto de ceros
Π
n
j=1
P
j
= producto de polos
Llevando (7.21) a (7.20) se tiene la siguiente expresi´on en donde k
p
est´a ex-
presada en funci´on de los polos y ceros.
k
p
=
k Π
m
j=1
C
j
Π
n
j=1
P
j
−kΠ
m
j=1
C
j
(7.22)
En la pr´actica tiene un especial inter´es la consideraci´on de los sistemas de tipo
1 en bucle abierto. Este caso se presenta cuando se estudian los servomecanismos
de posici´on. Para los sistemas de tipo uno, o superior, recordando la expresi´on
(8), es inmediato que k
p
tiende a infinito. En tal caso, y de acuerdo con (9) es
claro que e
0
= 0. Por ello considerando (7.10) y (12) se tendr´a que
Y (s)
R(s)
= 1 −
E(s)
R(s)
= 1 −e
1
s −e
2
s
2
(7.23)
Obs´ervese que haciendo s = 0 se tiene
Y (0)
R(0)
= 1 (7.24)
lo que significa que en r´egimen permanente no existe error de seguimiento,
cosa que era sabida para los sistemas de tipo uno.
Haciendo s = 0 en la expresi´on (7.9), y teniendo en cuenta (7.24) se tendr´a
que
1 =
k c
1
......c
m
p
1
p
2
......p
n
(7.25)
Esta expresi´on muestra la relaci´on existente entre los polos ceros y la constante
k de un sistema en bucle cerrado para que el error de seguimiento en posici´on sea
nulo.
La constante de posici´on k
p
es adimensional.
Representaci´on gr´afica de la funci´on de transferencia 116
7.5.2 Seguimiento de velocidad.
Sea un sistema con error de seguimiento en posici´on nulo (e
o
= 0) y sup´ongase
que se le aplica una entrada en rampa de manera que R(s) = 1/s
2
. En tal caso
se tiene que E(s) vendr´ a dado por
E(s) =
1/s
2
1 + G(s)
=
e
1
s
+ e
2
+ .... (7.26)
Aplicando el teorema del valor final se tendr´a que el error en r´egimen perma-
nente a una rampa ser´a
e
rp
= lim
t→∞
e(t) = lim
s→0
sE(s)
= lim
s→0
1
s + sG(s)
= lim
s→0
1
sG(s)
= e
1
Se define la constante de error de velocidad k
v
como
k
v
= lim
s →0
sG(s) (7.27)
de manera que e
1
vendr´ a dada por
e
1
=
1
k
v
(7.28)
La constante de seguimiento en velocidad k
v
tiene un valor finito para sistemas
en bucle abierto de tipo 1, es decir, para sistemas con una integraci´ on pura. En
tal caso se tiene que e
0
= 0, con lo que se tiene, habida cuenta de la expresi´on
(7.10).
Y (s)
R(s)
= 1 −e
1
s −e
2
s
2
−....
Derivando esta expresi´on con relaci´on a s, y haciendo s = 0, se tiene
Representaci´on gr´afica de la funci´on de transferencia 117

d
ds
Y (s)
R(s)

s=0
= −e
1
= −
1
k
v
(7.29)
Si, adem´as se tiene presente que para sistemas de tipo 1

Y (s)
R(s)

s=0
=
Y (0)
R(0)
= 1
a partir de las dos expresiones anteriores
1
k
v
=

d
ds
(Y (s)/R(s))

s=0
(Y (s)/R(s))
s=0
= −

d
ds
ln
Y (s)
R(s)

s=0
(7.30)
Llevando la anterior expresi´on a (7.10) se tiene que
1
k
v
= −

d
ds
(ln k + ln(s + c
1
) + .. −ln(s + p
1
) −..)

s = 0 (7.31)
lo que puede escribirse
1
k
v
= −(
1
s + c
1
+ .... −
1
s + p
1
−...)s = 0
o de forma m´as compacta
1
k
v
=
n
¸
i=1
1
p
i

m
¸
j=1
1
c
j
(7.32)
Por consiguiente 1/k
v
es igual a la suma de los inversos de los polos menos la
suma de los inversos de los ceros, todo en bucle cerrado.
Si se quiere que el error de seguimiento en velocidad sea nulo se requerir´a que
k
v
tienda a infinito, en cuyo caso se tendr´a que
Representaci´on gr´afica de la funci´on de transferencia 118
n
¸
j=1
1
p
j
=
m
¸
j=1
1
c
j
(7.33)
Ejemplo.
Sea un sistema de segundo orden cuya funci´on de transferencia en forma nor-
malizada se escribe
Y (s)
R(s)
=
ω
2
n
s
2
+ 2δω
n
s + ω
2
n
Este sistema presenta un error de seguimiento en posici´on igual a cero, es decir
Y (0)/R(0) = 1. Por lo tanto interesa calcular k
v
en funci´on de los par´ametros
ω
n
y δ. Los polos de la anterior funci´on de transferencia ser´an p
1,2
= −δω
n
±

n

1 −δ
2
y por lo tanto aplicando la expresi´on (7.32) se tendr´a que
k
v
=
ω
n
2 δ
(7.34)
La constante de velocidad k
v
tiene dimensi´on de seg
−1
. En efecto
e
rp
=
ω
k
v
y como e
rp
se mide en metros (o radianes) y ω en metros por segundo (o rad
/ seg) se tendr´a que k
v
vendr´ a dada por seg
−1
.
7.5.3 Seguimiento de aceleraci´on
Sea un sistema con errores de seguimiento de posici´on y velocidad nulos. Para el
estudio de un seguimiento en aceleraci´on se procede de forma similar a como se
ha hecho anteriormente. Si se supone una entrada en aceleraci´on se tendr´a que
R(s) = 1/s
3
, con lo que el valor de E(s) ser´a
E(s) =
e
2
s
+ e
3
+ s e
4
+ ... (7.35)
Representaci´on gr´afica de la funci´on de transferencia 119
Aplicando nuevamente el teorema del valor final se tendr´a que el error de
seguimiento en aceleraci´on cuando el tiempo tiende a infinito ser´a
e
rp
= lim
s→0
s E(s) = e
2
Y definiendo la constante de error en aceleraci´on k
a
como
k
a
= lim
s
→∞ s
2
G(s)
se tendr´a que
e
2
=
1
k
a
Tomando la segunda derivada de (29) se tendr´a que
d
2
ds
2

ln
Y (s)
R(s)

=
(Y/R)”
Y/R

(Y/R)
1
Y/R

2
de donde es f´acil de deducir haciendo s = 0, que

2
k
a
=
1
k
2
v
+
n
¸
j=1
1
p
2
j

m
¸
j=1
1
c
2
j
expresi´on que permite calcular la constante de velocidad k
a
.
La constante de aceleraci´on k
a
tiene dimensi´on seg
−2
.
7.5.4 Sistemas con error nulo
Sup´ongase que la funci´on de transferencia de un sistema en bucle cerrado viene
dada, en forma normalizada, por la expresi´on siguiente
Y (s)
R(s)
=
b
o
s
m
+ + b
m−1
s + b
m
s
n
+ a
1
s
n−1
+ + a
n−1
s + a
n
(7.36)
Representaci´on gr´afica de la funci´on de transferencia 120
Esta expresi´on, considerada como cociente de dos polinomios, puede desarrol-
larse en serie, de la forma siguiente:
Y (s)
R(s)
=
b
o
s
m
+ + b
m−1
s + b
m
s
n
+ a
1
s
n−1
+ + a
n−1
s + a
n
= c
o
+ c
1
s + c
2
s
2
+
La determinaci´on de los coeficientes c
i
del desarrollo en serie, puede hacerse
f´acilmente multiplicando ese desarrollo en serie por el denominador de la funci´on
de transferencia, e igualando coeficientes entre ambos miembros. Con ello se
obtiene que
c
o
=
b
m
a
n
(7.37)
c
1
=
b
m−1
c
o
−a
n−1
b
m
Recordando la expresi´on (7.10) se tiene que el error vendr´ a dado por
E(s)
R(s)
= 1 −
T(s)
R(s)
Si se supone una entrada en escal´on R(s) = 1/s, entonces es evidente que el
error ser´a nulo en r´egimen permanente si c
0
= 1, es decir, si a
n
= b
m
.
Por consiguiente es necesario que b
m
= a
n
para que el error en r´egimen esta-
cionario sea nulo, cuando se aplica como se˜ nal de entrada una se˜ nal en escal´on.
Para obtener un error de seguimiento en posici´on nulo, para un sistema cuya
funci´on de transferencia sea de la forma (30), existen distintas formas posibles.
Si el numerador consiste ´ unicamente en una constante, entonces la forma que se
obtiene es ´ unica y es la siguiente
Y (s)
R(s)
=
a
n
s
n
+ + a
n−1
s + a
n
(7.38)
Representaci´on gr´afica de la funci´on de transferencia 121
Sup´ongase que c
0
= 1. En tal caso, c
1
se convierte en
c
1
=
b
m−1
−a
n−1
b
m
(7.39)
Ahora suponiendo una entrada en rampa, el error tendr´a un valor nulo en
r´egimen permanente si a
n−1
= b
m−1
. En tal caso una forma posible para la
funci´on de transferencia en bucle cerrado es
Y (s)
R(s)
=
a
n−1
s + a
n
s
n
+ a
1
s
n−1
+ + a
n−1
s + a
n
(7.40)
Estas expresiones se pueden generalizar para entradas de orden superior. El
inter´es de las mismas radica en que permite especificar el numerador, a partir
de consideraciones de comportamiento en r´egimen permanente, partiendo del
denominador, obtenido por consideraciones de comportamiento transitorio.
Tema 8
Estabilidad de los sistemas
din´amicos
8.1 Introducci´on
La estabilidad es una propiedad cualitativa de los sistemas din´amicos a la que
cabe considerar como la m´as importante de todas. Ello es debido a que, en la
pr´actica, todo sistema debe ser estable. Si un sistema no es estable, normalmente
carece de todo inter´es y utilidad.
El estudio de la estabilidad de los sistemas din´amicos ocupa un lugar primor-
dial en el an´alisis y en la s´ıntesis de los sistemas realimentados. De hecho, la
s´ıntesis de un sistema de control estar´a presidida por un imperativo de estabi-
lizaci´on del sistema realimentado que resulte.
El presente cap´ıtulo se va a dedicar al an´alisis de la estabilidad de los sistemas
din´amicos, es decir, a establecer criterios que permitan discernir si un determinado
sistema din´amico, dado en una cierta forma de representaci´on matem´atica, es
estable o no. En cap´ıtulos posteriores se estudiar´an las modificaciones a introducir
en los sistemas din´amicos para modificar su estabilidad.
El estudio de la estabilidad de los sistemas din´amicos, se har´a atendiendo a la
forma de representaci´on adoptada; en este sentido se estudiar´a en primer lugar la
estabilidad de los sistemas din´amicos dados por su descripci´on externa, y luego
se har´a el estudio para la descripci´on interna de los mismos.
122
Estabilidad de los sistemas din´amicos 123
Al mismo tiempo se ver´ a a lo largo de este cap´ıtulo c´omo existen distintas
definiciones de estabilidad, lo que da lugar a distintos criterios, asociados a las
distintas definiciones. No obstante, se ver´ a que pese a la aparente diversidad de
definiciones y criterios, existe una profunda unidad subyacente en todo el tema.
8.2 Criterios de estabilidad relativos a la de-
scripci´on externa
Una forma intuitiva de afrontar el problema de la estabilidad de un sistema
es considerar que ´este ser´a estable si las distintas magnitudes que lo definen no
alcanzan valores infinitos. Basados en esta idea intuitiva se puede dar la siguiente
definici´on precisa de estabilidad.
Definici´on
Un sistema, inicialmente en reposo, se dice estable si ante cualquier se˜ nal de
entrada acotada, es decir, que no alcanza valores infinitos, responde con una se˜ nal
de salida acotada.
Formalmente se dice de una se˜ nal x(t), definida en un cierto intervalo (t
0
, t
1
),
que est´a acotada en dicho intervalo, si para todo t ε (t
0
, t
1
) existe un valor k < ∞
tal que [x(t)[ < k
De una forma m´as compacta puede decirse que un sistema es estable si,
se˜ nal de entrada acotada ⇒ se˜ nal de salida acotada.
Desde un punto de vista intuitivo esta definici´on de estabilidad es satisfactoria;
tiene, adem´as, la ventaja adicional de que conduce a resultados matem´aticos
interesantes, seg´ un se ver´ a en lo que sigue.
Para el caso de sistemas multivariables esta definici´on es igualmente v´alida,
sustituyendo las se˜ nales de entrada y de salida por los vectores de se˜ nales de
entrada y de salida.
En los libros anglosajones a la estabilidad anteriormente definida se la llama
”estabilidad BIBO” (bounded-input bounded-output).
Estabilidad de los sistemas din´amicos 124
Si se adopta la forma de descripci´on externa dada por la integral de con-
voluci´on, es decir, si la relaci´on entre la se˜ nal de entrada u(t) y la se˜ nal de salida
y(t) est´a dada por una expresi´on de la forma,
y(t) =

t
−∞
h(t, τ) u(τ) dτ (8.1)
entonces el criterio de estabilidad de un sistema viene dado por el siguiente
teorema.
Teorema
Un sistema, inicialmente en reposo, representado por una expresi´on de la
forma (8.1) es estable si y s´olo si existe un n´ umero finito k tal que para todo t,

t
−∞
[ h(t, τ) [ dτ ≤ k < ∞ (8.2)
Demostraci´on
1. Suficiencia
Se trata de demostrar que si se cumple la condici´on (8.2), entonces ante
una se˜ nal de entrada acotada, [ u(t) [< k
1
para todo t, la se˜ nal de salida
y(t) es tambi´en acotada. En efecto, se tiene:
[ y(t) [=[

t
−∞
h(t, τ) u(τ)dτ [≤

t
−∞
[ h(t, τ) [ u(τ) [ dτ
≤ k
1

t
−∞
[ h(t, τ) [ dτ ≤ kk
1
2. Necesidad
Se trata de demostrar que si las se˜ nales de entrada u(t) y de salida y(t) son
acotadas, entonces siempre se cumple la expresi´on 8.2. Ello es equivalente
a demostrar que si no se cumple la expresi´on 8.2 entonces pueden existir
se˜ nales de salida y(t) que no esten acotadas aunque lo est´e la se˜ nal de
entrada u(t).
Sup´ongase que la expresi´on (8.2) no se cumple, es decir
Estabilidad de los sistemas din´amicos 125

t
−∞
[ h(t
1
, τ) [ dτ = ∞
Si a este sistema se le aplica la siguiente se˜ nal de entrada se tiene una salida
no acotada. En efecto, sea
u(t) = sgn[h(t
1
, τ)]
en donde,
sgn x =

0 si x = 0
1 si x > 0
−1 si x < 0
Es claro que u(t) es acotada. Sin embargo la se˜ nal de salida del sistema no
lo es,
y(t
1
) =

t
1
−∞
h(t
1
, τ) u(τ) dτ =

t
1
−∞
[ h(t
1
, τ) [ dτ = ∞
Queda demostrado la necesidad de que se cumpla la expresi´on (8.2) para
que el sistema sea estable.
Para sistemas multivariables el anterior resultado se generaliza diciendo que
un sistema ser´a estable si la propiedad de la expresi´on (8.2) se cumple para cada
uno de los elementos de la matriz H(t, τ).
Para sistemas invariantes en el tiempo la expresi´on (8.1) se convierte en
y(t) =

t
0
h(t −τ) u(τ) dτ (8.3)
Y la expresi´on (8.2) se convierte en,


0
[ h(τ) [ dτ < k < ∞ (8.4)
Para sistemas invariantes en el tiempo, la forma de descripci´on externa usual-
mente empleada es la funci´on de transferencia. Interesa enunciar un criterio de
Estabilidad de los sistemas din´amicos 126
estabilidad en t´erminos de dicha funci´on de transferencia. Es lo que se hace en el
siguiente teorema.
Teorema
Un sistema lineal y estacionario, representado por una funci´on racional propia
G(s) es estable si y s´olo si, todos los polos de G(s) est´an situados en el semiplano
izquierdo abierto del plano s.
Una forma equivalente de expresar lo anterior es decir que los polos de G(s)
tienen la parte real negativa.
En el semiplano izquierdo abierto, a que se alude en el anterior teorema, se
excluye el eje imaginario. Si se incluye este eje imaginario se habla del semiplano
izquierdo cerrado.
Demostraci´on
Si G(s) es una funci´on racional propia entonces puede desarrollarse en frac-
ciones parciales, de manera que se descompone en la suma de un n´ umero finito
de t´erminos de la forma,
K
(s −p
i
)
l
Y adem´as, posiblemente, una constante p
i
denota un polo de G(s).
Al hallar la antitransformada de Laplace de G(s) se tiene que g(t) es la suma
de un n´ umero finito de t´erminos de la forma t
−1
e
pi t
y, adem´as, una posible
funci´on δ de Dirac. Es f´acil demostrar que t
−1
e
pi t
es absolutamente integrable
si y s´olo si pi tiene la parte real negativa. Por lo tanto el sistema G(s) ser´a estable
si y s´olo si todos los polos de G(s) tienen la parte real negativa.
• Ejemplo 1
Sea el sistema cuya funci´on de transferencia es G(s) = 1/s. Este sistema no
es estable, de acuerdo con las anteriores definiciones. En efecto, consid´erese
una se˜ nal de entrada en escal´on U(s) = 1/s. Se tendr´a que la se˜ nal de
salida ser´a Y (s) = 1/s
2
. Por lo tanto
y(t) = L
−1
(1/s
2
) = t
la se˜ nal de salida y(t) no es acotada y por lo tanto el sistema no es estable.
Estabilidad de los sistemas din´amicos 127
• Ejemplo 2
Seg´ un la definici´on anterior un oscilador simple es un sistema inestable. En
efecto, consid´erese el sistema cuya funci´on de transferencia es G(s) = 1/(1+
s
2
) que corresponde a un oscilador. La respuesta impulsional correspon-
diente es g(t) = sen t, la cual se representa en la figura 8.1 (a). Sup´ongase
ahora que se aplica a dicho sistema una se˜ nal de entrada peri´odica rectan-
gular, de amplitud unidad y de peri´odo el mismo del oscilador, tal como la
de la figura 8.1 (b). La se˜ nal de salida viene dada por la expresi´on 8.3.
Sup´ongase ahora que en la expresi´on 8.3 se hace t = 0. El producto de
se˜ nales g(−τ) u(τ) est´a representado en la figura 8.1 (c). Es claro que y(0)
es precisamente el ´area cubierta por dicha curva, cuando τ tiende a infinito.
Por lo tanto y(0) = ∞. Es decir, el sistema es inestable.
A este mismo resultado se llega inmediantamente considerando los polos de
la funci´on de transferencia, que resultan estar situados en el eje imaginario.
Para sistemas multivariables se generalizan inmediatamente los anteriores re-
sultados diciendo que un sistema multivariable definido por una matriz de trans-
ferencia G(s) ser´a estable si cada uno de sus elementos satisface el anterior teo-
rema.
Sea la funci´on de transferencia de la forma:
H(s) =
b
0
s
m
+ b
1
s
m−1
+ + b
m
s
n
+ a
1
s
n−1
+ + a
n
=
b(s)
a(s)
(8.5)
Figura 8.1:
Para determinar si H(s) es estable o no, es necesario:
1. comprobar si m < n;
2. determinar si las raices de a(s) est´an situadas en el semiplano abierto ne-
gativo.
Para comprobar si las raices de un determinado polinomio se encuentran en el
semiplano abierto negativo, se aplica el criterio de Routh-Hurwitz que se estudia
en el apartado siguiente.
Estabilidad de los sistemas din´amicos 128
8.2.1 Criterio de Routh-Hurwitz
Una funci´on de transferencia T(s) representa a un sistema estable si sus polos
se encuentran en el semiplano izquierdo negativo. Por lo tanto el problema del
an´alisis de la estabilidad de un sistema se reduce al del an´alisis de los ceros del
polinomio del denominador.
Un polinomio se denomina un polinomio de Hurwitz si todas sus raices tienen
la parte real negativa. Por lo tanto el problema de la estabilidad se reduce al de
determinar si el polinomio del denominador es, o no, un polinomio de Hurwitz.
El m´etodo directo de comprobar si un determinado polinomio es o no un poli-
nomio de Hurwitz consiste en determinar todas las raices de dicho polinomio. Este
procedimiento puede ser, adem´as de excesivamente laborioso, in´ util por cuanto
que suministra una informaci´on superior a la que se requiere. No se trata de
saber cuales son las raices, sino, simplemente, si su parte real ser´a negativa o no.
El m´etodo de Routh-Hurwitz, permite determinar si las partes reales de las
raices ser´an negativas o no sin necesidad de determinarlas. Consid´erese un poli-
nomio como el siguiente:
s
n+1
+ a
1
s
n
+ + a
n
(8.6)
Para determinar si el anterior polinomio tiene raices con parte real negativa
se procede como sigue:
1. Si alg´ un coeficiente del polinomio es negativo o cero, entonces existe al
menos una raiz en el semiplano cerrado derecho. El sistema es, por lo
tanto, inestable.
2. En el caso de que no se cumplan los supuestos de 1), se procede a construir
la siguiente tabla:
n + 1
n
n −1
n −2
. . .
1

1 a
2
a
4
. . .
a
1
a
3
a
5
. . .
β
1
β
2
β
3
γ
1
γ
2
γ
3
. . .
ρ
1
(8.7)
en donde la generaci´on de las distintas filas se hace como sigue, a partir de
los elementos de las dos anteriores
Estabilidad de los sistemas din´amicos 129
β
1
=
a
1
a
2
−a
3
1
a
1
(8.8)
β
2
=
a
1
a
4
−a
5
1
a
1
La tabla anterior recibe la denominaci´on de tabla de Routh, y el algoritmo que
permite su construcci´on se denomina algoritmo de Routh. Independientemente
de los trabajos de Routh, que public´o originalmente el algoritmo que conduce a la
construcci´on de la tabla anterior, Hurwitz public´o un criterio de estabilidad, que
se estudiar´a en una secci´on posterior de este tema, que esencialmente coincide
con el de Routh. Por ello el criterio lleva conjuntamente el nombre de los dos
autores.
Toda fila depende de las dos filas precedentes. Se procede sucesivamente a
determinar filas hasta que se determine una cuyos elementos sean todos 0. Para
un polinomio de orden n se determinan n + 1 filas.
El criterio de estabilidad de Routh-Hurwitz dice que el polinomio tiene sus
raices en el semiplano abierto negativo si todos los elementos de la primera
columna son positivos y no nulos. El n´ umero de cambios de signo en la primera
columna es igual al n´ umero de raices del polinomio (8.6) en el semiplano positivo
abierto.
Ejemplo
Sea el polinomio s
4
+ 5s
3
+ 3s
2
+ s + 2 = 0. Para determinar el n´ umero de
raices en el semiplano positivo, se construye la tabla de Routh y se tiene,
4
3
2
1
0

1 3 2
5 1 0
14/5 2
−36/14 0
2
como hay dos cambios de signo en la primera columna existir´an dos raices en
el semiplano derecho. Por consiguiente el sistema es inestable.
En la pr´actica el criterio de Routh-Hurwitz se aplica para determinar si el
sistema es estable o no y, en general, no interesa saber el n´ umero de raices en el
Estabilidad de los sistemas din´amicos 130
semiplano positivo abierto. Por lo tanto, cuando lo ´ unico que interese sea conocer
si el sistema ser´a estable o no, se proceder´a a construir la tabla de Routh hasta
encontrar un elemento de la primera columna que sea negativo o cero. Cuando
aparezca un elemento negativo o nulo, se suspender´a la construcci´on de la tabla,
y se dictaminar´a que el sistema es inestable.
En el caso de que interesase conocer cuantas raices existir´an en el semiplano
positivo, o en el eje imaginario, se procede a construir la tabla de Routh completa.
En la construcci´on de la tabla de Routh, para el caso en que interese completarla
a´ un cuando aparezcan elementos nulos en la primera columna, se presentan los
dos casos singulares siguientes :
1. Aparece un 0 en la primera columna, siendo no nulos los otros elementos
de la misma fila.
2. Aparece una fila con todos los elementos nulos, antes de llegar a la fila n+2.
En el primer caso se sustituye el 0 por un n´ umero arbitrariamente peque˜ no ε.
Se completa la tabla y se calcula el l´ımite de los elementos en los que aparezca
haciendo ε →0.
Ejemplo
Consid´erese el polinomio: s
4
+ s
3
+ 2s
2
+ 2s + 3
Al construir la tabla de Routh se encuentra un cero en la primera columna,
en la fila dos. Se sustituye este cero por ε y se procede a completar la tabla, que
resulta la siguiente:
4
3
2
1
0

1 2 3
1 2
0 →ε 3
2ε−3
ε
3
Una vez construida la tabla se determina el l´ımite de aquellos elementos en la
primera columna en los que aparezca ε, cuando ε → 0. El elemento correspon-
diente a la fila 1 tiene el siguiente l´ımite,
lim
ε→0
2ε −3
ε
= −∞
Estabilidad de los sistemas din´amicos 131
Por lo tanto, la primera columna queda como sigue:
1
1
0
−∞
3
Se presentan dos cambios de signo en la primera columna, y por consiguiente
el sistema tiene dos raices en el semiplano derecho, y es inestable.
El segundo caso particular m´as arriba enunciado, es decir, el caso en que
se presente toda una fila de ceros, indica que el polinomio tiene, al menos, un
factor par. Es decir, que existe un par de raices reales sim´etricas con respecto
al eje imaginario, que existen dos raices imaginarias puras conjugadas, o que
existen cuatro raices complejas situadas sim´etricamente con relaci´on al origen.
Cuando esto sucede se procede a formar una ecuaci´on subsidiaria a partir de los
coeficientes de la fila anterior a aquella en la que todos los elementos sean nulos.
La expresi´on as´ı obtenida resulta ser el factor par del polinomio. Para obtener
la fila siguiente, en la tabla de Routh, se procede a derivar esta expresi´on una
vez con respecto a s y situar sus coeficientes en la fila cuyos elementos se hab´ıan
anulado. A partir de esta sustituci´on se prosigue la construcci´on de la tabla de
Routh normalmente. Un ejemplo ayudar´ a a fijar ideas.
Ejemplo
Consid´erese el siguiente polinomio: s
4
+ 3s
3
+ 3s
2
+ 3s + 2
Si se construye la tabla de Routh correspondiente al llegar a la fila 1, se
encuentra que todos los elementos son ceros. En efecto
4
3
2
1

1 3 2
3 3 0
2 2
0 0
La ecuaci´on subsidiaria que se obtiene empleando los coeficientes de la segunda
fila es la siguiente:
2s
2
+ 2 = 0
Estabilidad de los sistemas din´amicos 132
que corresponde al factor par s
2
+ 1. La derivada de la ecuaci´on subsidiaria
es 4s. Por lo tanto la tabla se completa como sigue
4
3
2
1
0

1 3 0
3 3 0
2 2
4 0
2
De la observaci´ on de esta tabla se desprende que el polinomio considerado
no tiene raices en el semiplano positivo. La factorizaci´on del polinomio anterior
conduce a,
(s
2
+ 1) (s + 2) (s + 1)
El anterior ejemplo muestra qu´e sucede cuando el polinomio en cuesti´on tiene
raices en el eje imaginario. En tal caso estas raices dan lugar a un factor par, de
la forma del que aparece en el ejemplo, que se pone de manifiesto al aparecer una
fila de ceros en la tabla de Routh. Procediendo como se ha hecho en el ejemplo,
se elimina la fila de ceros y se tiene una tabla de Routh que indica, por medio
de los cambios de signos si existen raices en el semiplano derecho. Obs´ervese
que aunque no existan raices en el semiplano derecho, como sucede en el ejemplo
anterior, el sistema ser´a inestable, puesto que existen raices en el eje imaginario.
La aplicaci´on de las dos reglas anteriores, a los dos casos singulares que se
acaban de discutir, debe tomarse con ciertas reservas. En particular, la aplicaci´on
de la primera regla (introducci´on de peque˜ nos par´ametros ε) s´olo est´a justificada
cuando el polinomio no tiene raices sobre el eje imaginario. En el libro Theorie
des matrices de Gantmacher, p´ag. 181, se tiene un ejemplo de un caso al que la
aplicaci´on de las reglas no es v´alida. Ello, sin embargo, no debe preocupar puesto
que lo que normalmente interesa de la aplicaci´on del criterio de Routh-Hurwitz
es, sencillamente, determinar si el sistema ser´a estable o no, lo cual puede hacerse
en todo caso sin ninguna ambiguedad, detectando si existe alg´ un cero o alg´ un
cambio de signo en la primera columna de la tabla de Routh.
El criterio de Routh-Hurwitz suministra una determinaci´on r´apida de la es-
tabilidad absoluta de un sistema. Sin embargo no suministra ninguna indicaci´on
respecto a la posibilidad de alterar la situaci´on de las raices. Su principal inter´es
reside en su empleo como un paso previo, antes de aplicar otros m´etodos.
Estabilidad de los sistemas din´amicos 133
8.2.2 Matriz de Hurwitz
El criterio de Routh-Hurwitz, objeto del apartado anterior, en realidad fue de-
sarrollado originalmente por Routh. Sin embargo es completamente an´alogo al
desarrollado por Hurwitz, al que se va a dedicar este apartado.
Sea un polinomio a(s) tal como:
a(s) = s
n
+ a
1
s
n−1
+ + a
n−1
s + a
n
(8.9)
Se define la matriz de Hurwitz como la matriz formada por los coeficientes
del anterior polinomio, siguiente:
H =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
1
a
3
a
5
. . . 0 0
1 a
2
a
4
. . . 0 0
0 a
1
a
3
. . . 0 0
0 1 a
2
. . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . a
n−2
a
n
¸

(8.10)
El criterio de estabilidad de Routh-Hurwitz se puede enunciar diciendo que
el polinomio a(s) es un polinomio de Hurwitz si y s´olo si los menores principales
diagonales de H son todos positivos. Los menores principales diagonales de H
son los siguientes:
H
1
= a
1
H
2
= det

a
1
a
3
1 a
2

H
3
= det

¸
¸
a
1
a
3
a
5
1 a
2
a
4
0 a
1
a
3
¸

(8.11)
H
n
= det H
Si en la tabla de Routh los elementos de la primera columna se denotan por α
1
,
β
1
, γ
1
. . . p
1
, entonces es posible demostrar, despu´es de algunas manipulaciones
Estabilidad de los sistemas din´amicos 134
alg´ebricas, que,
H
1
= α
1
H
2
= α
1
β
1
H
3
= α
1
β
1
γ
1
(8.12)
Por ello es evidente que el procedimiento de determinar H
1
, H
2
, . . . , H
n
y ver
si son positivos no nulos es equivalente al de construir la tabla de Routh. Los
determinantes H
1
, H
2
, . . . reciben la denominaci´on de determinantes de Hurwitz.
Para aplicaciones pr´acticas se recomienda emplear el m´etodo tabular de Routh,
por ser m´as simple que la determinaci´on de las matrices de Hurwitz.
8.3 Criterio de Nyquist
El criterio de Routh permite analizar la estabilidad de un sistema lineal a partir
de los coeficientes de la ecuaci´on caracter´ıstica. El criterio de Nyquist (1932)
permite realizar un an´alisis de la misma naturaleza a partir de la representaci´on
gr´afica de la funci´on de tranferencia.
Este criterio est´a basado en un teorema de Cauchy. Consideres una funci´on
racional F(s) (formada por un cociente de polinomios en s). Si s representa a la
variable compleja s = σ + jω entonces F(s) aplica el plano complejo s sobre un
plano complejo definido por las partes reales e imaginaria de F(s) (figura 8.2),
F(C)
Z = 3
P = 1
σ ReF(s)
ImF(s)
C

Figura 8.2: Teorema de Cauchy
de modo que a cada ”vector” de s se corresponde un vector de F(s). Conviene
Estabilidad de los sistemas din´amicos 135
recordar que el argumento del vector F(s) se forma de la manera siguiente. En
el plano s se definen los vectores que unen los polos y ceros de F(s) con el punto
gen´erico s. Pues bien, es facil ver que el argumento de F(s) se forma sumando
los argumentos de los vectores desde los ceros y restando los argumentos de los
vectores desde los polos (figura 8.3).
Figura 8.3: Aplicaci´on del contorno C
1
: (a) C
1
no rodea ning´ un polo ni cero; (b)
C
1
rodea un polo
Sup´ongase ahora que se define una curva cerrada C en el plano s y la corres-
pondiente curva imagen F(C) en el plano F(s). Sup´ongase, adem´as, que la curva
C se recorre en un determinado sentido (por ejemplo, el de las agujas del reloj).
A la curva imagen F(C) se asociar´a tambien un sentido.
El teorema de Cauchy establece que el n´ umero de veces que la curva F(C)
rodea al origen (tomando el sentido positivo el de las agujas del reloj) es igual a
la diferencia entre el n´ umero de ceros y el de polos que encierra la curva C en el
plano s. Es decir,
N = Z −P
en donde N es el n´ umero de veces que la curva F(C) rodea al origen, y Z y
P representan, respectivamente, el n´ umero de ceros y de polos contenidos en la
curva C en el plano s.
Nyquist bas´o su criterio en una aplicaci´on muy ingeniosa del teorema de
Cauchy. Consider´o un sistema realimentado con realimentaci´ on unitaria, como
el de la figura 8.4. La funci´on de transferencia del sistema en bucle cerrado
correspondiente viene dado por la expresi´on
T(s) =
G(s)
1 + G(s)
Estabilidad de los sistemas din´amicos 136
-
+
U
H(s)
Y
Figura 8.4: Sistema realimentado con realimentaci´ on unitaria
de esta expresi´on resulta claro que los polos de T(s) son los ceros de 1 + G(s).
Para estudiar la estabilidad de un sistema en bucle cerrado Nyquit propuso
definir en el plano s la curva cerrada C que se muestra en la figura 8.5, y que
recibe la denominaci´on de contorno de Nyquist. Este contorno rodea el semiplano
de parte real positiva del plano complejo. Es decir, la regi´on del plano complejo
en la que no debe haber polos de la funci´on de transferencia en bucle cerrado, si
se quiere que el sistema sea estable.
H(C)
H(s)
0

R = ∞
A
C
B
σ
−1
1 + H(s)
ImH(s)
ReH(s)
Figura 8.5: Contorno de Nyquist C para estudiar la estabilidad
Hemos visto que los polos de la funci´on de transferencia en bucle cerrado T(s)
son los ceros de 1 + G(s). Por tanto, la estabilidad del sistema en bucle cerrado
estar´a garantizada si no existe ceros de 1 + G(s) en el interior del contorno de
Nyquist.
Estabilidad de los sistemas din´amicos 137
Veamos ahora c´omo se construye la funci´on G(s). Para ello basta observar que
el contorno de Nyquist se compone de tres partes. La recta OA que corresponde
al eje imaginario del plano complejo y que, por tanto, corresponde a la funci´on de
transferencia G(jω) para valoreS positivos de ω. La recta BO correspondiente a
la parte negativa del eje imaginario. Y, por ´ ultimo, a la curva que une AB, que
se encuentra situada en el infinito del semiplano positivo del plano s. Por tanto,
al recorrer OA, se est´a recorriendo G(jω) para valores de ω de cero a infinito.
An´alogamente, al recorrer BO se est´a recorriendo G(jω) desde menos infinito a
cero. Por ´ ultimo, al recorrer de A a B se est´a en valores de s con m´odulo infinito.
En este ´ ultimo caso, si G(jω) es tal que elgrado del polinomio del numerador es
menor que el del denominador, esta funci´on tomar´a el valor cero.
Aplicando el teorema de Cauchy, para el caso F(s) = 1+G(s), se puede decir
que un sistema realimentado, con realimentaci´ on unitaria, es estable si y s´olo si
G(C) rodea al punto cr´ıtico s = −1, en el sentido de las agujas del reloj, un
n´ umero de veces igual al n´ umero de polos inestables de la funci´on de tranferencia
G(s).
Conviene observar que la parte de G(C) correspondiente al semieje imaginario
[0, j∞] es, en realidad, la representaci´on polar de la funci´on de transferencia G(s).
As´ı mismo, la parte correspondiente al semieje imaginario negativo [−j∞, 0] es
sim´etrica con relaci´on a esa representaci´on polar. Por lo que respecta a la parte
correspondiente al semic´ırculo de radio infinito (y eventualmente a un semic´ırculo
infinitesimal que rodee al origen) es evidente que si la funci´on de transferencia es
tal que el grado del numerador es inferior a del denominador, se reduce a un punto.
Por todo ello, el trazado de G(C) es inmediato conociendo la representaci´on polar
de la funci´on de transferencia G(jω).
Por ejemplo, en 8.6a se tiene la representaci´on de la funci´on de transferencia
G(s) =
1
(1 + τs)
A partir de esta representaci´ on gr´afica, se desprende que G(C) tendr´a la forma
que se indica en la figura 8.6b. Aplicando el criterio de Nyquist se tiene que este
sistema es estable (lo que sucede para todos los sistemas de primer orden cuya
funci´on de transferencia sea de la forma 8.6).
En la figura 8.7 se tiene otro ejemplo de aplicaci´on del criterio de Nyquist, el
correspondiente a la funci´on de transferencia
G(s) =
1
s(1 + τs)
Estabilidad de los sistemas din´amicos 138
ReH(s)
ImH(s)
ω = ∞
ω = −∞
−1
ω < 0
ω > 0
Figura 8.6: Diagrama polar y contorno G(C) para un sistema de primer orden
σ
C
R = ∞
C
0

−1 ω = −∞
ω = ∞
R = ∞
ω

ω
+
ReH(s)
ImH(s)
H(C
0
)
Figura 8.7: Contorno de Nyquist y G(C) para un sistema con un polo en el origen
Estabilidad de los sistemas din´amicos 139
en este caso se tiene que la funci´on de transferencia G(s) presenta un polo en
el origen, el cual debe ser evitado por el contorno de Nyquist, por lo que se
recurre a modificarlo ligeramente a˜ nadiendo el contorno infinitesimal C
0
que se
muestra en la figura 8.7. Es facil ver que la adici´on de este contorno no modifica
el planteamiento anterior.
Un ´ ultimo ejemplo que vamos a considerar es el siguiente
G(s) =
s + 1
s(
s
10
−1)
(8.13)
En este caso se tiene que el sistema presenta un polo inestable. En la figura 8.8
se tiene el trazado G(C) correspondiente.
ω < 0
ω > 0
Re
Im
ω ≈ 0
Figura 8.8: Diagrama de Nyquist del sistema del ejemplo
En el diagrama de la figura 8.8 el punto cr´ıtico se ha representado en funci´on
de la ganancia K. Obs´ervese que la peque˜ na desviaci´on C
0
alrededor del polo
s = 0 (figura 8.9) da lugar a un gran arco en el infinito. Este arco se situa en el
semiplano izquierdo, ya que atraviesa el eje real negativa debido a la contribuci´ on
de fase de 180 grados del polo en el semiplano de la derecha.
Estabilidad de los sistemas din´amicos 140
Re
Im
−180
o
Figura 8.9: Contorno C
0
para el sistema del ejemplo
Para valores grandes de K (K
g
en la figura 8.8) se observa que G(C) rodea
al punto cr´ıtico en el sentido contrario de las agujas del reloj; es decir, N = −1.
Por otra parte P = 1, debido al polo en el semiplano de la derecha, por lo que
Z = N + P = 0
donde se concluye que no hay raices inestables en el sistema.
Para valores peque˜ nos de K (K
p
en la figura 8.8) la curva G(C) rodea al punto
cr´ıtico en el sentido positivo de las agujas del reloj, por lo que N = +1 y Z = 2,
por lo que el sistema posee dos raices con parte real negativa y es inestable.
De los anteriores ejemplos se desprende que la aplicaci´on del teorema de
Nyquist hay que tener especial cuidado en los dos puntos siguientes:
• Tener en cuenta la posible presencia de polos inestables en bucle abierto;
• La evaluaci´ on del n´ umero de vueltas en torno al punto cr´ıtivo -1 en el caso
en el que haya ramas infinitas (ver el ´ ultimo ejemplo).
Sin embargo, para los sistemas de fase m´ınima, es posible enunciar la siguiente
regla pr´actica:
Estabilidad de los sistemas din´amicos 141
Regla pr´actica de Nyquist
Un sistema realimentado es estable en el caso en el que recorriendo el trazado
polar de la funci´on de transferencia en el sentido de las ω crecientes el punto
cr´ıtico -1 quede a la izquierda.
8.3.1 Grado de estabilidad e interpretaci´ on del criterio de
Nyquist
Seg´ un se acaba de enunciar en la regla pr´actica del criterio de Nyquist se tiene que
la estabilidad depende de la posici´on del punto cr´ıtico con relaci´on al trazado polar
de la funci´on de transferencia (figura 8.10). Este hecho sugiere la conveniencia
de introducir una medida de la distancia de G(C) a este punto cr´ıtico, por lo que
se define grado de estabilidad del sistema realimentado por
• El margen de ganancia G
m
= 20 log
10
1
A
, siendo A la ganancia correspon-
diente a la fase de 180 grados;
• El margen de fase Φ
m
, que es el desfase del punto correspondiente a la
ganancia unidad.
ImH(jω)
1
A
ReH(jω)
−1
Φ
m
Figura 8.10: Grado de estabilidad
En la figura 8.10 se representan G
m
y Φ
m
. La estabilidad equivale entonces a una
de las condiciones siguientes:
Estabilidad de los sistemas din´amicos 142
• Para el vector en bucle abierto correspondiente a un m´odulo unidad el
desfase es superior a -180 grados.
• Para una fase de 180 grados el m´odulo del vector de la funci´on de transfer-
encia en bucle abierto debe ser inferior as la unidad.
De este modo, los m´argenes de fase y de ganancia establecen las posibles varia-
ciones de la funci´on de transferencia G(s) debidas a perturbaciones eventuales
que no afecten a la estabilidad del sistema. En la pr´actica se considera que un
margen de fase de 50 grados y un margen de ganancia de 10 dB son satisfactorios.
Un margen de ganancia por debajo de los 30 grados no suele ser aceptable.
Tema 9
Compensaci´on de sistemas
realimentados
9.1 Introducci´on.
Un sistema de control realimentado se representa esquem´aticamente como se in-
dica en la figura 9.1. Sobre este esquema vamos a recordar una serie de conceptos
que consideramos de inter´es.
K
G(s)
H(s)
`

d
d
d
d

E E E E
T
'
r(t) + e u y(t)
− m
Figura 9.1: Sistema de Control realimentado
143
Compensaci´on de sistemas realimentados 144
• Cadena directa o de acci´on, es la que une los elementos comprendidos
entre la se˜ nal de error y la de salida. Ambas se˜ nales est´an relacionadas por
la expresi´on,
Y (s)
E(s)
= KG(s)
siendo G(s) la funci´on de transferencia del sistema considerado.
• Cadena de realimentaci´ on, es la que une la se˜ nal de salida con la de
informaci´on m(t), que es comparada con la de referencia. Ambas se˜ nales se
relacionan as´ı,
M(s)
Y (s)
= H(s)
En este caso H(s) es la funci´on de transferencia de la cadena de reali-
mentaci´on.
• Se llama bucle abierto, al conjunto de elementos que constituyen todo
el sistema, si ´este se abriese por el punto m(t), es decir, como si la se˜ nal
de entrada fuese e(t) y la de salida m(t). La funci´on de transferencia del
conjunto as´ı dispuesto ser´ıa
M(s)
E(s)
= KG(s)H(s)
• Se llama bucle cerrado, al sistema conectado como se indica en la figura
9.1. Las se˜ nales y(t) y r(t) se relacionan por la conocida f´ormula, f´acil de
deducir,
Y (s)
R(s)
=
KG(s)
1 + KG(s)H(s)
Observese que, en este caso, la se˜ nal de actuaci´on sobre el sistema es pro-
porcional a la se˜ nal de error. Se trata pues de un control proporcional (P).
El valor de la ganancia K del amplificador ser´a, por tanto, un par´ametro
susceptible de ser variado de acuerdo con las necesidades del problema.
En lo que sigue se supondr´a siempre que la cadena de realimentaci´ on es
unitaria, con lo que el esquema fundamental quedar´a de la forma que se
indica en figura 9.2 y quedando la funci´on de transferencia en bucle cerrado
reducida a
Compensaci´on de sistemas realimentados 145
Y (s)
R(s)
=
KG(s)
1 + KG(s)
Naturalmente en este caso cadena de acci´on y bucle abierto son dos concep-
tos coincidentes.
K
G(s)
`

d
d
d
d

E E E E
T
r(t) + e u y(t)
− m
Figura 9.2: Sistema de Control realimentado unitariamente
• Por ´ ultimo, en algunas ocasiones se recurrir´a a alg´ un servosistema f´ısico,
concretamente al conocido servomecanismo elemental de posici´on, que re-
sponde en bucle abierto a una ecuaci´on diferencial lineal de la forma
J
d
2
y
dt
2
+ f
dy
dt
= u(t)
siendo en este caso y(t) un ´angulo (θ), J la inercia del conjunto motor-carga
y f el coeficiente de fricci´on viscosa del mismo conjunto.
Para que un sistema de control realimentado act´ ue aceptablemente, necesita
satisfacer unas determinadas especificaciones de funcionamiento, tanto para su
r´egimen permanente como para su transitorio que, normalmente, no se consigue
con los elementos que consituyen el bucle de control.
Hay veces en que un simple aumento de la ganancia est´atica es suficiente
para lograr precisi´on, sin que se afecte demasiado a las caracter´ısticas en estado
Compensaci´on de sistemas realimentados 146
transitorio. No obstante, como lo normal es que ´estas se vean empeoradas con una
actuaci´on de este tipo, o en el mejor de los casos, no se consigan exactamente las
que se pretende que tenga el sistema, es por lo que se desarrollaran a continuaci´ on
los procedimientos de compensaci´on que se han dado en llamar Cl´asicos en raz´on
de ser los primeros que se utilizaron.
Por el hecho de introducir una compensaci´on sobre el bucle antes mencionado,
el esquema se modifica de alguna manera, como se muestra m´as adelante. Se
distinguen dos tipos de compensaci´on:
• Compensaci´on en serie: Cuando el elemento corrector se coloca en cascada,
en la cadena de acci´on; y
• Compensaci´on por realimentaci´on: Cuando el elemento corrector constituye
una segunda cadena de realimentaci´ on, en el bucle de control.
Los esquemas b´asicos para uno y otro caso se muestran, respectivamente, en
las figuras 9.3 y 9.4.
G
r
(s)
K
G(s)
'
¸
E E E E E
T
r(t) + e u

u y(t)
− m
Figura 9.3: Compensaci´on en serie
Como ya se ha indicado, en el caso de la compensaci´on en serie, la red correc-
tora se coloca en cascada con los elementos de la cadena de acci´on, y delante del
amplificador para que el nivel de potencia a que trabaje sea el del error, es decir,
bajo. As´ı mismo, se distinguiran tres tipos de acciones:
• Acci´on proporcional m´as derivada (PD);
• Acci´on proporcional m´as integral (PI) y
• Acci´on proporcional m´as integral y m´as derivada (PID).
Compensaci´on de sistemas realimentados 147
K
G(s)
G
r
(s)
'
¸
'
¸
E E E E E
T T
'
r(t) + e u y(t)
− m
Figura 9.4: Compensaci´on por realimentaci´on
9.2 An´alisis en el dominio de la frecuencia de la
red PD
Tiene lugar cuando la se˜ nal de mando del sistema es la suma de los t´erminos,
proporcional y derivado de la se˜ nal de error. En este caso se dice que la compen-
saci´on es del tipo PD. La funci´on de transferenia de una red de este tipo es de la
forma,
Gr(s) = K (1 + τs)
La discusi´on del caso general se har´a en el dominio de la frecuencia, en donde
los resultados adquieren mayor generalidad y sencillez. Para ello se estudiar´a en
primer lugar la respuesta en frecuencia de un corrector PD. Su representaci´ on
en Bode es la que se indica en la Fig. 9.5. Vemos pues que la red, a frecuencias
mayores que
1
τ
aumentar´ a la fase y la magnitud de la cadena de acci´on del sistema
en el que se introduce.
Para frecuencias algo menores que
1
τ
el efecto es menos notorio llegando a ser
despreciable para frecuencias bajas.
En el diagrama de Bode, que se representa en la figura 9.6, se obsevan dos
efectos fundamentales sobre la respuesta en frecuencia de un sistema:
1. Aumento del ancho de banda: contrapartida, en el dominio de la frecuencia,
de la disminuci´ on del tiempo de subida en la respuesta temporal del sistema.
Compensaci´on de sistemas realimentados 148
1/τ
-360
-310
-260
F
a
s
e
(
g
r
a
d
o
s
)
1/τ
ω(rad/s)

A
m
p
l
i
t
u
d
(
d
B
)
+20dB/dec
Figura 9.5: Diagrama de Bode para red PD
Este efecto es m´as notable en el diagrama de Black, como se ver´a un poco
m´as adelante, ya que alli se trata la respuesta del sistema en bucle cerrado.
2. Aumento del margen de fase: contrapartida, en el dominio de la frecuencia,
de la disminuci´ on de la sobreoscilaci´on en el dominio del tiempo.
Las figuras 9.7 y 9.8 muestran la variaci´on de la funci´on de transferencia en
bucle abierto de un sistema en el diagrama de Black, al introducir un corrector
PD. Si se elige
1
τ
< w
R
, se consiguen dos efectos:
1. Disminuir el pico de resonancia (M
r
) del sistema en bucle cerrado y
2. Aumentar la frecuencia de resonancia.
Estos efectos de la red PD en el diagrama de Black tienen sus correspondientes
en el dominio del tiempo, a saber:
• Aumento de la frecuencia de resonancia equivale a decir aumento del ancho
de banda del sistema en bucle cerrado; por tanto, el sistema deja pasar un
espectro mayor de frecuencias. La consecuencia inmediata es una respuesta
m´as r´apida y, en consecuencia, un menor tiempo de subida.
• Disminuir el pico de resonancia, tiene como consecuencia un aumento del
margen de fase, y se sabe que este efecto va muy ligado a una disminuci´on
de la sobreoscilaci´on del sistema en bucle cerrado.
Compensaci´on de sistemas realimentados 149

ω(rad/s)

F
a
s
e
(
g
r
a
d
o
s
)

A
m
p
l
i
t
u
d
(
d
B
)
Compensada
Sin compensar
Compensada
Sin compensar
MF
1
MF
2
0 dB
-180
o
Figura 9.6: Bode sistema con compensaci´on PD
-360 -270 -180 -90 0
Fase(grados)
0
30
60
A
m
p
l
i
t
u
d
(
d
B
)
Figura 9.7: Diagrama de Black red PD
Compensaci´on de sistemas realimentados 150
-300 -240 -180 -120 -60
Fase(grados)
-100
-50
0
50
100
A
m
p
l
i
t
u
d
(
d
B
)
Compensado
Sin compensar
Figura 9.8: Diagrama de Black sistema con comp. PD
Queda a˜ nadir, finalmente, que las redes PD, son irrealizables fisicamente,
porque el grado de su polinomio numerador es mayor que el grado de su polinomio
denominador. No obstante, en un sistema el´ectrico, s´ı se puede conseguir una red
de este tipo utilizando elementos activos, aunque a´ un en este caso, la soluci´on no
tiene inter´es pr´actico ya que estas redes presentan un comportamiento muy malo
frente a los ruidos.
9.3 An´alisis en el dominio de la frecuencia de la
red PI
En este caso, la se˜ nal de mando es la suma de un t´ermino proporcional y otro
integral, de la se˜ nal de error.
u(t) = K e + K
i

t
0
e dt
La compensaci´on es denominada PI y la funci´on de transferencia de una red de
este tipo ser´a:
Gr(s) = K(1 +
1
τs
) = K(
1 + τs
τs
)
El efecto sobre el sistema es, pues, a˜ nadir un polo en el origen (cambia el tipo del
mismo) y una acci´on derivada.
Compensaci´on de sistemas realimentados 151
La respuesta en frecuencia de un corrector PI se muestra en la figura 9.9. Se
ve que su acci´on consiste en disminuir la fase del sistema original, aumentando
simult´aneamente la ganancia en bajas frecuencias. Para altas frecuencias, no
modifica la respuesta.
1/τ
ω(rad/s)
-90
-45
0
F
a
s
e
(
g
r
a
d
o
s
)
1/τ

A
m
p
l
i
t
u
d
(
d
B
)
-20dB/dec
Figura 9.9: Respuesta en frecuencia Red PI
El efecto de una red PI sobre un sistema puede verse en la figura 9.10.
La figura 9.10, muestra que
1
τ
debe elegirse menor que w
R
para afectar sola-
mente la respuesta del sistema a bajas frecuencias y aumentar la precisi´on del
mismo, ya que si por el contrario, se elige
1
τ
> w
R
aumentar´ a el pico de resonan-
cia, pudiendo llegarse a inestabilizar el sistema original, como muestra la figura
9.10.
La acci´on PI se utiliza cuando se quiere mejorar el r´egimen permanente de un
sistema, es decir, cuando se quiere disminuir el error de seguimiento, y cuando se
quiere que el sistema en cuesti´on sea insensible a variaciones en la carga.
La introduci´on de una red PI es causa de que el sistema, en bucle cerrado,
tenga peor r´egimen transitorio. Se puede dar una interpretaci´ on f´ısica de ello muy
simple, y que servir´a para comparar el efecto de esta red, con el que proporciona
una red PD.
La figura 2.6 muestra en diferentes pasos, c´omo en este caso, la inversi´ on
del par corrector se realiza con posterioridad al alineamiento de ambos ejes. La
consecuencia de ello es que aumentar´ a la sobreoscilaci´on y disminuir´ a el tiempo
de subida, y el sistema ser´a m´as inestable.
Compensaci´on de sistemas realimentados 152

ω(rad/s)

F
a
s
e
(
g
r
a
d
o
s
)

A
m
p
l
i
t
u
d
(
d
B
)
Compensado
Sin compensar
Sin compensar
Compensado
MF
1
MF
2
-180
o
0 dB
Figura 9.10: Efecto Red PI
-100 -80 -60 -40 -20 0
Fase(grados)
0
25
50
A
m
p
l
i
t
u
d
(
d
B
)
Figura 9.11: Respuesta PI.(Black)
Compensaci´on de sistemas realimentados 153
En resumen una red PI:
• Cambia el tipo del sistema (a˜ nade un polo en el origen),
• Aumenta la sobreoscilaci´on y disminuye el tiempo de subida de la respuesta
temporal en bucle cerrado.
• Aumenta la precisi´on est´atica, compensando las variaciones de la carga a
la salida.
La red PI se encuentra en el mercado con facilidad, llevando normalmente
incorporado el comparador, con lo que el conjunto forma lo que se llama un
regulador de acci´on PI.
9.4 Acci´on proporcional, integral y diferencial
(PID)
Como f´acilmente se comprende, en este caso, la se˜ nal de mando contiene tres
t´erminos, de tal suerte que la funci´on de transferencia del compensador que recibe
el nombre de PID es:
u(t) = K e + K
i

t
0
e dt + K
d
de
dt
Gr(s) = K (1 +
1
τ
1
s
+ τ
2
s) =
K
τ
1
s
(1 + τ
1
s + τ
1
τ
2
s
2
)
Se ve pues que, con una acci´on PID, al sistema se le a˜ nade un polo en el origen
(se cambia el tipo), una acci´on derivada primera, y una acci´on derivada segunda.
Tomando τ
1
= τ
2
= τ el diagrama de Bode queda como indica la figura 9.12 y su
efecto sobre un sistema se muestra en la figura 9.13.
Si se elige
1
τ
< ω
R
(que era condici´on para el caso de correctores PD y PI) se
pueden conseguir buenas caracter´ısticas, tanto en el r´egimen transitorio como en
el permanente, es decir, es posible beneficiarse de los efectos de ambos tipos de
redes.
Compensaci´on de sistemas realimentados 154
1/τ
ω(rad/s)
-90
0
90
F
a
s
e
(
g
r
a
d
o
s
)
1/τ
ω(rad/s)

A
m
p
l
i
t
u
d
(
d
B
)
-20dB/dec
20dB/dec
Figura 9.12: Respuesta en frecuencia Red PID
-300 -240 -180 -120 -60
Fase(grados)
-100
-50
0
50
100
A
m
p
l
i
t
u
d
(
d
B
)
Figura 9.13: Diagrama de Black sistema con comp. PID
Compensaci´on de sistemas realimentados 155
9.5 Compensaci´on por avance de fase
Como se ha visto en el tema anterior una red PD aumenta la fase de la funci´on de
transferencia del sistema a corregir para frecuencias pr´oximas a
1
τ
y superiores,
es decir, aumenta el margen de fase (disminuye la sobreoscilaci´on) y aumenta el
ancho de banda (disminuye el tiempo de subida). Tambi´en se ha dicho que una
red PD es irrealizable f´ısicamente.
No obstante, es posible conseguir elementos correctores que constituyen una
aproximaci´on a una red PD, en el rango de frecuencias en que los efectos son
interesantes. Estas redes reciben el nombre de redes de adelanto de fase.
Las redes de adelanto de fase tienen una funci´on de transferencia de la forma:
Gr(s) =
1 + τs
1 + ατs
; α < 1 =⇒
1
τ
<
1
ατ
cuya representaci´ on gr´afica se tiene en la figura 9.14.
1/τ 1/at
ω(rad/s)
-360
-330
-300
F
a
s
e
(
g
r
a
d
o
s
)
1/τ 1/at
ω(rad/s)
0 dB
|20logα|
A
m
p
l
i
t
u
d
(
d
B
)
Figura 9.14: Respuesta en frecuencia Red de adelanto de fase
La forma de la gr´afica justifica ampliamente la denominaci´on de red de ade-
lanto de fase. Su efecto constituye una aproximaci´on excelente a una red PD. En
efecto, la acci´on de una red de adelanto de fase sobre la funci´on de transferencia
del sistema en bucle abierto se muestra en la figura 9.15; si se compara ´esta con la
figura 9.6, se observar´a que los efectos sobre el ancho de banda y el margen de fase
Compensaci´on de sistemas realimentados 156
son pr´acticamente los mismos que los que produce una red PD. La diferencia entre
ambas redes radica en el t´ermino (1+ατs) cuyo efecto sobre el ancho de banda y
sobre el margen de fase es pr´acticamente despreciable si se elige convenientemente
el valor de 1/ατ. Este valor, como es natural, debe elegirse notablemente superior
al de la frecuencia para la cual la ganancia es 0dB, con objeto de que su efecto
sea despreciable. Los criterios que presidir´an la elecci´on de estos valores se ver´an
m´as adelante, al considerar los m´etodos de dise˜ no. Lo que aqu´ı interesa resaltar
es el caracter de aproximaci´on a la red PD que presenta la red de adelanto de
fase.
10
-1
10
0
10
1
10
2
10
3
ω(rad/s)

F
a
s
e
(
g
r
a
d
o
s
)

A
m
p
l
i
t
u
d
(
d
B
)
Sin compensar
Compensado
Compensado
Sin compensar
MF
2
0 dB
-180
o
Figura 9.15: Efecto Red de adelanto de fase
En el mercado se pueden encontrar redes de adelanto de fase de tipo neum´atico,
hidr´aulico o el´ectrico, por ejemplo. A continuaci´ on se propone una red para un
servosistema de tipo el´ectrico, de f´acil realizaci´on, y que se muestra en la figura
9.16. En ´esta se tiene:
e
i
= jZ + e
o
con e
0
= jR

siendo
Z =
R
1
jwC
R +
1
jwC
=
R
1 + jwCR
e
i
=
e
o
R

Z + e
0
=
e
0
R

(Z + R

) =
e
0
R

(
R
1 + jwCR
+ R

) =
e
o
R

R + R

+ jwCRR

1 + jwCR
Compensaci´on de sistemas realimentados 157
e
i
C
R
R

e
s
Figura 9.16: Realizaci´on de una red de avance
e
0
e
i
=
R

(1 + jwCR)
R + R

+ jwCRR

=
R

R + R

.
1 + jwCR
1 + jwC.
RR

R+R

y llamando
R

R+R

= α y τ = CR queda
G

r(s) =
e
0
e
i
= α
1 + jwτ
1 + jwατ
; Gr(s) =
1
α
G

r(s) =
e
s
e
i
=
1 + jwτ
1 + jwατ
como funci´on de transferencia de la red.
9.6 Efecto en el dominio de la frecuencia
La respuesta en frecuencia de esta red el´ectrica de adelanto de fase, se muestra
en la figura 9.15.
De la expresi´on de la funci´on de transferencia se puede ver que el desfase que
produce la red propuesta es:
tan Φ =
wτ −wτα
1 + αw
2
τ
2
y la frecuencia a la cual se produce el m´aximo:
w = w
m
=

1
τ
1
τα
=
1
τ

1
α
Compensaci´on de sistemas realimentados 158
el valor de Φ = Φ
m
es m´aximo,
tan Φ
m
=
w
m
τ(1 −α)
1 + αw
2
m
τ
2
=
w
m
τ(1 −α)
1 + 1
=
1 −α
2

α
y de aqu´ı
sen Φ
m
=
tan Φ
m
1 + tan
2
Φ
m
=
1−α
2

α

1 +
(1−α)
2

=
1 −α

4α + 1 + α
2
−2α
=
1 −α
1 + α
relaci´on ´esta m´as manejable que la anterior y que da el valor de para el margen
de fase apetecido, Φ
m
. El valor de τ se deducir´a de la expresi´on
w
m
=
1
τ

1
α
=⇒
1
τ
= w
m

α
sustituyendo w
m
por la pulsaci´on para la cual queremos que se produzca el
m´aximo adelanto de fase.
Debe hacerse notar que para que la ganancia est´atica del sistema no quede
afectada, hay que aumentar la ganancia del amplificador en el valor
1
α
, siendo α
la atenuaci´ on que produce la red a bajas frecuencias.
La figura 9.17. muestra el efecto de una red de adelanto de fase sobre la
respuesta en bucle cerrado del sistema, en el plano de Black. Puesto que se
pretende un efecto del tipo PD, se comprende f´acilmente que la frecuencia w
R
debe situarse en las proximidades de la frecuencia de resonancia del sistema w
R
para que de esta forma la nueva frecuencia de resonancia w

R
sea menor que w
R
.
Asimismo, el pico de resonancia M

ser´a menor que el anterior, M.
NOTA: Otros autores utilizan como expresi´on de la funci´on de transferencia
de la red la siguiente expresi´on
1
a
1 + τ

as
1 + τ

s
siendo las equivalencias entre ´esta y la estudiada anteriormente, las siguientes:
1
a
= α τw
m
=
1

a
τ

= ατ sen Φ
m
=
a −1
a + 1
9.7 M´etodo pr´actico
Para ver el m´etodo pr´actico de compensaci´on mediante una red de avance, lo
haremos con la ayuda de un ejemplo. Dicho ejemplo consiste en compensar el
sistema cuya funci´on de transferencia en bucle abierto es:
Compensaci´on de sistemas realimentados 159
-300 -240 -180 -120 -60
Fase(grados)
-150
-50
50
A
m
p
l
i
t
u
d
(
d
B
)
Compensada
Sin compensar
ω
m2
ω
m1
M
m
Figura 9.17: Diagrama de Black sistema con Red de adelanto de fase
G(s) =
K
s(1 + s)(1 + 0.0125s)
para que cumpla las siguientes especificaciones:
1. Margen de fase > 50

,
2. Error de seguimiento para una entrada u(t) = t, menor que el 1 %.
Resoluci´on:
• Para cumplir la especificaci´on de r´egimen permanente,
K
v
= K =
R
E
=
1
0.01
= 100
• Las dos frecuencias de esquina son 1 y
1
0.0125
= 80
• En Bode se ve que el sistema es inestable. El margen de fase es de unos
−2

aproximadamente.
• Se compensar´a el sistema mediante una red de adelanto.
Compensaci´on de sistemas realimentados 160
• Para el c´alculo de α, se toma un ´angulo Φ
m
algo mayor que el m´ınimo
requerido, por ejemplo 55

y se tendr´a que,
sen 55

=
1 −α
1 + α
= 0.82 de donde α ≈ 0.1
Para hallar τ se procede as´ı:
1. Se calcula la atenuaci´on total de la red, que ser´a:
20 log α = 20 log 0.1 = −20 dB
2. Se busca la frecuencia para la cual la atenuaci´ on del sistema es la mitad
que la de la red, es decir, −10dB, y se elige aquella como la frecuencia para
la que se quiere la m´axima desviaci´on de fase. Con ello, en el nuevo punto
de corte (que estar´a desplazado ligeramente hacia la derecha con respecto
al anterior), se tendr´a el margen de fase buscado.
Por lo dicho,
w
m
=
1
τ

α
= 18 rad/seg
luego
w
1
=
1
τ
= w
m

α = 5.7 rad/seg.
w
2
=
1
ατ
=
w
m

α
= 57 rad/seg.
As´ı la funci´on de transferencia de la red ser´a
G

r(s) = α
1 + τs
1 + ατs
= 0.1
1 +
1
5.7
s
1 +
1
57
s
´o Gr(s) =
1 + 0.1754s
1 + 0.01754s
Para que la ganancia a bajas frecuencias no se altere, ha de introducirse una
ganancia adicional de K
a
= 1/α = 10, con lo que el sistema, una vez corregido,
tendr´a como funci´on de transferencia:
G

(s) =
100(1 +
1
5.7
s)
s(1 + s)(1 + 0.0125s)(1 +
1
57
s)
Con este ejemplo se han ilustrado los pasos necesarios para la colocaci´on de
una red de avance de fase, de forma que su aprovechamiento sea el m´aximo
posible.
Compensaci´on de sistemas realimentados 161
10
-1
10
0
10
1
10
2
10
3
ω(rad/s)


A
m
p
l
i
t
u
d
(
d
B
)
ω
2
ω
m
ω
1
0dB
-10dB
Figura 9.18:
Tema 10
Representaci´on matem´atica de
sistemas
10.1 Introducci´on
10.1.1 Generalidades
El objeto de los Sistemas de Control es la concepci´on de unos ingenios que conec-
tados a un proceso real sean capaces de gobernarlo de manera aut´onoma, es decir,
sin la intervenci´on (o con una intervenci´ on m´ınima) del ser humano. Dado un
determinado proceso industrial, o un cierto ingenio como un barco o un avi´on,
se trata de dise˜ nar un aparato que le suministre las se˜ nales de mando oportunas
para que su funcionamiento sea el requerido.
El sistema de control, a partir de la informaci´on que le suministra el proceso
a controlar, determina qu´e acciones deber´an tomarse para que el funcionamiento
de ´este sea el requerido. El funcionamiento requerido de un determinado proceso
implica un comportamiento din´amico. Por lo tanto el estudio del comportamiento
din´amico de los procesos, o en general de los objetos f´ısicos, tiene un inter´es
primordial en Autom´atica.
Por otra parte, en cierta medida, se puede considerar a un sistema de control
como un sistema de toma de decisiones. Es decir, el sistema de control toma
las decisiones de las acciones a tomar sobre el proceso para que su evoluci´on sea
la requerida. Para esta toma de decisiones se requiere que el sistema de control
162
Representaci´on matem´atica de sistemas 163
conozca el comportamiento din´amico del proceso a controlar. Es decir, se requiere
que el sistema de control conozca c´omo reaccionar´a el proceso ante las posibles
se˜ nales de excitaci´on que este le suministre. De nuevo se tiene la necesidad del
conocimiento del comportamiento din´amico del sistema a controlar.
De lo anterior se desprende que en Autom´atica el estudio del comportamiento
din´amico de los sistemas tiene un inter´es primordial. Este estudio se concreta en
el de los sistemas din´amicos, que se va a considerar a continuaci´ on.
10.2 Descripci´on interna de los sistemas din´a-
micos
La descripci´on externa, seg´ un se ha visto en la secci´on anterior, suministra una
relaci´on expl´ıcita directa entre las se˜ nales de entrada y de salida. Esta relaci´on no
es satisfactoria en ciertos casos. Por ejemplo, sup´ongase que se est´a realizando la
simulaci´on de un sistema din´amico con ayuda de un computador digital. Es claro
que al ser el valor de la se˜ nal de salida, en cada instante, funci´on de todos los
valores de la se˜ nal de entrada, en instantes anteriores, se presentar´an dos notables
problemas al realizar la simulaci´ on:
1. la memoria deber´a registrar los valores de la se˜ nal de entrada, lo cual re-
querir´a un gran volumen de la misma con el agravante de ir creciendo con
el tiempo; y
2. el n´ umero de c´alculos a efectuar crecer´a con el tiempo alcanzado, con ello,
valores prohibitivos.
Los problemas del tipo de los anteriores se solucionan con ayuda de la denominada
descripci´on interna que no es sino una relaci´on expl´ıcita indirecta entre las se˜ nales
de entrada y de salida. La relaci´on se dice que es indirecta puesto que u(t) e y(t)
no est´an relacionadas directamente sino a trav´es de otra variable x(t) llamada
estado del sistema din´amico, que juega un papel primordial en esta forma de
descripci´on.
Se entiende por estado de un sistema din´amico la menor colecci´on de varia-
bles cuyo valor, en un cierto instante de tiempo t, resume el pasado din´amico
del sistema hasta dicho instante y es suficiente para predecir la futura evoluci´ on
del sistema a partir del mencionado tiempo t. El estado se representa, normal-
mente, por la letra x, y el conjunto de todos los estados por X. Un ejemplo lo
Representaci´on matem´atica de sistemas 164
suministra, en mec´anica racional, el conjunto de valores tomados por la posici´on
y velocidad de una part´ıcula, cuyo conocimiento, en cierto instante, resume el
pasado din´amico de la part´ıcula y permite prever la futura evoluci´ on de la misma.
Debe notarse que, tal como se ha definido, el estado de un sistema din´amico
representa una magnitud abstracta sin ninguna referencia, en principio, a mag-
nitudes f´ısicas medibles. Ello, no obstante, no se opone a que en alguna cir-
cunstancia el estado de un sistema din´amico pueda ser asimilado a conjuntos de
magnitudes susceptibles de interpretaci´ on f´ısica e incluso medibles, como suced´ıa
en el ejemplo m´as arriba mencionado del estado de una part´ıcula en mec´anica
racional.
La descripci´on interna est´a basada en la existencia de las dos funciones si-
guientes:
1. La funci´on de transici´on que describe el cambio de estado que experi-
menta el sistema entre dos instantes de tiempo t
0
y t
1
como consecuencia
de la aplicaci´on de una se˜ nal u[t
0
, t
1
]. Formalmente se escribe,
x(t
1
) = φ(t
1
, t
0
, x
0
, u) (10.1)
en donde φ representa la funci´on de transici´on, x
0
el estado en el instante
t
0
y u la se˜ nal de entrada aplicada entre t
0
y t
1
La funci´on de transici´on debe satisfacer las propiedades:
(a) Causalidad: para todo u
1
y u
2
tales que u
1
(t) = u
2
(t), t
0
< t
1
se
tendr´a,
φ(t
1
, t
0
, x
0
, u
1
) = φ(t
1
, t
0
, x
0
, u
2
)
lo que se puede expresar diciendo que a la misma causa sigue el mismo
efecto.
(b) Consistencia: φ((t
0
, t
0
, x
0
, u) = x
0
(c) Composici´on: Para t
2
> t
1
> t
0
se tiene,
φ(t
2
, t
0
, x
0
, u) = φ(t
2
, t
1
, x
1
, u)
x
1
= φ(t
1
, t
0
, x
0
, u)
La interpretaci´ on de las anteriores propiedades es evidente.
2. La funci´on de lectura o de salida que suministra el valor de la se˜ nal de
salida en el instante de tiempo t cuando el sistema se encuentra en el citado
Representaci´on matem´atica de sistemas 165
x(t) y est´a sometido a un valor de la se˜ nal de entrada u(t). Formalmente
se escribe,
y(t) = η[t, x(t), u(t)] (10.2)
en donde η representa la funci´on de lectura.
Con el fin de establecer una definici´on formal de un sistema din´amico se
denotar´a por T el conjunto de instantes de tiempo considerados, por X el conjunto
de estados, por U el conjunto de valores de la se˜ nal de entrada, por U = ¦[ T →
U¦ el conjunto de valores de entrada aceptables, por Y el conjunto de valores
posible para la se˜ nal de salida, y por Y = ¦y [ T →Y ¦ el conjunto de se˜ nales de
salida. Con estas notaciones se puede definir formalmente un sistema din´amico
como sigue:
Definici´on
Un sistema din´amico es el objeto matem´atico constituido por el qu´ıntuplo,
(U, Y, X, φ, η)
en donde la funci´on de transici´on φ cumple las propiedades a), b), c), m´as
arriba indicadas.
Debe observarse que, tal como se indicaba al principio de esta secci´on, la
relaci´on entre la se˜ nal de entrada u(t) y la se˜ nal de salida y(t) se hace indirecta y
se realiza a trav´es del estado x(t). Es decir, que as´ı como en la descripci´on externa
la funci´on F determina y(t), a partir de u[t
0
, t], en la descripci´on interna, a partir
de u[t
0
, t], y por medio de la funci´on de transici´on, se genera el estado x(t), y es
a partir del estado y de la funci´on de la lectura como se tiene el valor de la se˜ nal
de salida y(t). La mayor complejidad que aparentemente presenta este segundo
camino se ve ampliamente compensada por la mayor simplicidad conceptual y
facilidad operativa que se obtiene con ´el. Ello se pondr´a de manifiesto en lo que
sigue.
A continuaci´ on se estudia la descripci´on interna de los sistemas m´as corrien-
temente encontrados en la pr´actica de la autom´atica y que son aquellos cuyos
tipos de relaci´on entre la entrada y la salida se consider´o en la secci´on 3.3.
Representaci´on matem´atica de sistemas 166
10.2.1 Sistemas de estados finitos
Son aquellos en que el estado s´olo puede formar un conjunto finito de valores.
Igualmente las se˜ nales de entrada y salida s´olo pueden tomar sus valores de un
conjunto finito. En tal caso las funciones de transici´on y de lectura pueden ser
tabuladas. Estos sistemas se estudian en cursos sobre sistemas l´ogicos o sobre
teor´ıa de aut´omatas y aqu´ı se mencionan a t´ıtulo de ejemplo y para mostrar la
profunda unidad del concepto de sistema din´amico.
Ejemplo
1/0
0/0
2
3
1
1/0
0/0
0/1 1/1
Figura 10.1: Diagrama de estados
Consid´erese el sistema representado por el diagrama de la figura 10.1. En ´el
es claro que,
X = ¦1, 2, 3¦
U = ¦0, 1¦
Y = ¦0, 1¦
U e Y son secuencias de 1
¯
y 0
¯
.
En cuanto a φ y η pueden representarse en forma tabular como sigue,
Representaci´on matem´atica de sistemas 167
φ η
0 1 0 1
1 1 1 0 0
2 1 3 1 1
3 1 2 0 0
Debe observarse que al estudiar los sistemas de estados finitos el estado es un
objeto matem´atico de car´acter general, que, en principio, no tiene porque ser un
vector como suceder´a en las clases de sistemas que se considerar´an m´as abajo.
10.2.2 Sistemas din´amicos lineales en tiempo continuo
Una amplia clase de sistemas din´amicos lineales en tiempo continuo admite una
representaci´on matem´atica de la forma
˙ x = A(t)x + B(t)u
y = C(t)x + D(t)u (10.3)
en donde x
¯
, y
¯
e u
¯
son vectores de dimensi´on n
¯
, p
¯
y m
¯
respectivamente y A,B,C y D
son matrices de dimensi´on nn, nm, pn y pm respectivamente. El vector
x es el vector de estado del sistema. En la mayor de las aplicaciones D = 0, por
lo que en lo sucesivo y mientras no se indique lo contrario, se prescindir´a de la
matriz D.
La escritura de las ecuaciones diferenciales que rigen la evoluci´on de un sis-
tema din´amico seg´ un las expresiones 10.3 recibe el nombre de representaci´ on por
variables de estado o por vector de estado del mismo.
En lo que sigue se tratar´an ´ unicamente los sistemas din´amicos invariantes en
el tiempo con lo que, teniendo en cuenta adem´as que D = 0, las ecuaciones 10.3
se emplear´an en la forma
˙ x = Ax + Bu
y = Cx (10.4)
En donde A, B y C son matrices cuyos elementos son num´ericos. Se hablar´a
indistintamente de un sistema din´amico
¸
y de la terna (A, B, C) que lo repre-
senta.
Representaci´on matem´atica de sistemas 168
Los sistemas din´amicos lineales que admiten una representaci´ on matem´atica
tal como la de las expresiones 10.3 reciben la denominaci´on de sistemas lineales
diferenciales de dimensiones finitas, haciendo alusi´on con esta denominaci´on a
que el vector de estado es un vector de dimensi´on n. Existen otras clases de
sistemas din´amicos lineales, como son los (sistemas de par´ametros distribuidos)
en los cuales el vector de estado tiene una dimensi´on infinita. De estos ´ ultimos
no nos ocupamos en estos apuntes.
Obtenci´on de la representaci´ on por variables de estado
Todo sistema din´amico descrito por ecuaciones diferenciales de la forma de la
expresi´on (3.5) admite una representaci´ on por variables de estado de la forma de
las expresiones 10.3. Aqu´ı se discutir´a exclusivamente el caso de que la ecuaci´on
diferencial sea de coeficientes constantes, y que u(t) e y(t) sean escalares(sistemas
con una entrada y una salida).
Para un sistema din´amico dado, existen infinitas formas de representaci´ on de
la descripci´on interna. Es decir, existen infinitas ternas(A, B, C) que caracterizan
a un mismo sistema. Todos estas ternas est´an ligadas entre s´ı por unas relaciones
algebraicas que se estudiar´an m´as adelante en esta secci´on.
Se estudiar´an a continuaci´on las formas m´as usuales de representaci´ on interna
de los sistemas din´amicos lineales.
Forma can´onica de control
Sea el sistema descrito por la ecuaci´on diferencial,
d
n
y
dt
n
+ a
1
d
n−1
y
dt
n−1
+ ... + a
n
y = u (10.5)
Se definen,
x
i
=
d
i−1
y
dt
i−1
i = 1, ...n (10.6)
La anterior ecuaci´on diferencial de orden n se puede escribir como un sistema
de n ecuaciones diferenciales de primer orden. Es decir
Representaci´on matem´atica de sistemas 169
˙ x
1
= x
2
˙ x
2
= x
3
.
.
.
.
.
.
.
.
.
˙ x
n
= −a
n
x
1
−... −a
1
x
n
+ u
y = x
1
(10.7)
Lo cual se puede escribir en la forma de las expresiones 10.3 definiendo,
x
T
=

x
1
x
2
x
n

A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
0 1 0 . . . 0
0 0 1 . . . 0
. . . .
. . . .
. . . .
0 0 0 . . . 1
−a
n
−a
n−1
−a
n−2
. . . −a
1
¸

(10.8)
B
T
=

0 0 1

(10.9)
C =

1 0 0

(10.10)
Para el caso en que la ecuaci´on (10.5) tome la forma m´as general siguiente:
d
n
y
dt
n
+ a
1
d
n−1
y
dt
n−1
+ ... + a
n
y = b
1
d
n−1
u
dt
n−1
+ ... + b
n
u (10.11)
o, lo que es lo mismo, el sistema tiene la funci´on de transferencia:
G(s) =
b
1
s
n−1
+ b
2
s
n−2
+ ... + b
n
s
n
+ a
1
s
n−1
+ ... + a
n
=
n(s)
d(s)
(10.12)
Representaci´on matem´atica de sistemas 170
u 1
d
v
n
y
Figura 10.2: Factorizaci´on del sistema en el sistema de funci´on de transferencia
en serie.
Sup´ongase que se introduce la nueva variable v(t), tal que:
v(s)
u(s)
=
1
d(s)
(10.13)
es decir
d(s)v(s) = u(s)
Por otra parte,
n(s)v(s) = y(s) (10.14)
La introducci´on de la variable v equivale a factorizar el sistema (10.12) en el
sistema de funci´on de transferencia (10.13) en serie con el de (10.14), tal como se
indica en la figura 10.2. Obs´ervese que el sistema (10.13) tiene la misma forma
que el (10.5), por lo que haciendo
x
1
= v x
2
= ˙ x
1
= ˙ v ... x
2
= ˙ x
1
= v
n−1
(10.15)
se tiene que el par (A, B) para ese sistema ser´a el dado por la expresiones (10.8-
10.9). Adem´as, llevando (10.15) a (10.14) se tiene
y = b
n
v + b
n−1
˙ v + ... + b
2
v
n−2
+ b
1
v
n−1
= b
n
x
1
+ b
n−1
x
2
+ ... + b
2
x
n−1
+ b
1
x
n
= [b
n
b
n−1
... b
2
b
1
]x
Por tanto, las expresiones (10.8) y (10.9) son igualmente v´alidas pero la (10.10)
toma la forma m´as general,
C =

b
n
b
n−1
b
1

(10.16)
En la figura 10.3 se muestra el diagrama interno de bloques del sistema din´amico,
descrito por la ecuaci´on (10.11), correspondiente a la estructura de la forma
can´onica de control.
Representaci´on matem´atica de sistemas 171
y
+
+
+
+
+
-
u
+
+
+
+

x
2

x
1
b
n
a
n
b
n−1
a
n−1

x
n

b
2
b
1
a
1
a
2
˙ x
n
x
n−1
Figura 10.3: Diagrama interno de bloques
Representaci´on matem´atica de sistemas 172
Ejemplo
Sea el sistema descrito por la ecuaci´on diferencial,
d
3
y
dt
3
+ 4
d
2
y
dt
2
+ 3
dy
dt
+ 2y = 3u + 2
du
dt
Las matrices A, B y C en la forma can´onica de control ser´an las siguientes:
A =

¸
¸
0 1 0
0 0 1
−2 −3 −4
¸

B =

¸
¸
0
0
1
¸

C =

3 2 0

Forma can´onica de observaci´ on
La obtenci´on de la forma can´onica de observaci´on ilustra otro m´etodo general de
obtenci´on de la representaci´ on por variables de estado de un sistema din´amico.
Consiste este procedimiento en determinar, en primer lugar, el diagrama in-
terno de bloques para luego asignar a la salida de cada integrador una variable de
estado y as´ı construir las matrices A, B y C.
Sea la ecuaci´on diferencial con coeficientes constantes,
d
n
y
dt
n
+ a
1
d
n−1
y
dt
n−1
+ ... + a
n
y = b
1
d
n−1
u
dt
n−1
+ ... + b
n
u (10.17)
cuya descripci´on por variables de estado, en la forma can´onica de observaci´on,
se quiere determinar. Para obtener un diagrama interno de bloques se procede
como sigue. Llamando D al operador
d
dt
, la expresi´on (10.17) se puede escribir:
D
n
y + D
n−1
(a
1
y −b
1
u) + ... + D(a
n−1
y −b
n−1
u) + a
n
y −b
n
u = 0
Dividiendo por D
n
y despejando y se tiene:
y =
1
D
(b
1
u −a
1
y) + ... +
1
D
n−1
(b
n−1
u −a
n−1
y) +
1
D
n
(b
n
u −a
n
y) (10.18)
Representaci´on matem´atica de sistemas 173
La expresi´on (10.18) conduce a un diagrama de bloques como el de la figura
10.4.

b
n
b
1

−a
n
−a
n−1

b
n−1
u
x
1
˙ x
1
˙ x
2
x
2
−a
1
y
˙ x
n
x
n
x
n−1
˙ x
n−1
Figura 10.4: Forma can´onica de observaci´ on
De la observaci´ on de la figura 10.4 se desprende:
˙ x
1
= −a
n
x
n
+ b
n
u
˙ x
2
= −a
n−1
x
n
+ x
1
+ b
n−1
u
. . .
˙ x
n−1
= −a
2
x
n
+ x
n−2
+ b
2
u
˙ x
n
= −a
1
x
n
+ x
n−1
+ b
1
u
y = x
n
Las anteriores ecuaciones pueden escribirse en forma compacta empleando la
notaci´on matricial en cuyo caso se tienen dos ecuaciones como las 10.3 (A
o
= A
T
c
)
con,
Representaci´on matem´atica de sistemas 174
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
0 0 0 ... −a
n
1 0 0 ... −a
n−1
0 1 . .
. . 1 .
. . . . .
0 0 0 ... −a
2
0 0 0 1 −a
1
¸

(10.19)
B
T
= (b
n
b
n−1
. . . b
1
) (10.20)
C = (0 0 . . . 1) (10.21)
Ejemplo
Sea el sistema descrito por la ecuaci´on diferencial,
d
3
y
dt
3
+ 4
d
2
y
dt
2
+ 3
dy
dt
+ 2y = 3u + 2
du
dt
cuya forma can´onica de control se determin´o anteriormente. En su forma
can´onica de observaci´on las matrices A, B y C ser´an:
A =

¸
¸
0 0 −2
1 0 −3
0 1 −4
¸

B =

¸
¸
3
2
0
¸

C =

0 0 1

Para un mismo sistema din´amico existen diferentes formas de representaci´ on
por variables de estado. N´otese que, de hecho, los diagramas de las figuras 10.3
y 10.4 servir´an para simular el sistema en un computador digital o bien en un
calculador anal´ogico. Ello pone de manifiesto como la descripci´on interna sum-
inistra un modelo de m´aquina que realiza el sistema, mientras que la descripci´on
externa se limita a describir lo que sucede en la salida por efecto de la acci´on
que se realice a la entrada. La descripci´on externa muestra qu´e hace el sistema
mientras que la interna indica c´omo lo hace (al menos una forma de hacerlo)
Representaci´on matem´atica de sistemas 175
Representaciones equivalentes
Se ha visto en el apartado anterior c´omo un mismo sistema admit´ıa distintas
representaciones. Se van a estudiar en este apartado las formas equivalentes de
representaci´on de un mismo sistema. Para ello interesa introducir los conceptos
de equivalencia y de similaridad.
Dos sistemas din´amicos se dicen equivalentes si ante la misma se˜ nal de entrada
responden con la misma se˜ nal de salida. Dos sistemas ser´an equivalentes si tienen
la misma representaci´ on externa. El concepto de equivalencia entre sistemas tiene
una cierta sutileza que se pone de manifiesto en el ejemplo siguiente.
Ejemplo
Sean dos sistemas din´amicos cuyas funciones de transferencia son las siguien-
tes:
T
1
(s) =
1
s + 1
T
2
(s) =
s + 2
s
2
+ 3s + 2
=
s + 2
(s + 1)(s + 2)
Las dos funciones de transferencia representan al mismo sistema. Sin em-
bargo obs´ervese que si se obtienen las descripciones interna de cada una de estas
funciones de transferencia, se obtendr´an distintas dimensiones para el vector de
estado.
Un concepto m´as restrictivo que el de equivalencia entre sistemas, es el de
similaridad. Dos sistemas se dicen similares si adem´as de ser equivalentes, dan
lugar a realizaciones con la misma dimensi´on para el vector de estados. Por
ejemplo, si a partir de una cierta funci´on de transferencia se obtienen las formas
can´onicas de control y observaci´on, estas dos formas de representaci´on constituyen
dos formas similares.
Sean (A
1
, B
1
, C
1
) y (A
2
, B
2
, C
2
) dos representaciones por variables de estado
de un mismo sistema. Es f´acil ver que existe una transformaci´on no singular T
tal que
A
2
= TA
1
T
−1
B
2
= TB
1
(10.22)
C
2
= C
1
T
−1
En efecto si,
˙ x = A
1
x + B
1
u
Representaci´on matem´atica de sistemas 176
y = C
1
x
y x = Tx, (T no singular), se tiene que,
T
1
˙
x = A
1
T
−1
x + B
1
u
lo que premultiplicado por T resulta
˙
x = TA
1
T
−1
x + TB
1
u
y = C
1
T
−1
x
de donde resultan las expresiones (10.22).
Ejemplo
En el sistema din´amico cuyas formas can´onicas de control y de observaci´on se
han determinado anteriormente se comprueba que,
T =

¸
¸
5 12 3
12 11 2
3 12 0
¸

cumple las anteriores relaciones.
La equivalencia entre sistemas est´a relacionada con la descripci´on externa
de los mismos, mientras que la similaridad lo est´a con la descripci´on interna.
La equivalencia entre sistemas para el caso de una entrada y una salida, puede
parecer un concepto trivial. No lo es cuando se aplica a sistemas multivariables
La similaridad entre sistemas, o entre dos formas de representaci´on de un
mismo sistema, es un concepto extraordinariamente fecundo como se ver´a en
lo que sigue. De hecho, en el estudio de los sistemas diferenciales lineales por
variables de estado, lo que se va buscando es la forma de representaci´ on que
m´as convenga al problema que se est´a tratando de resolver, y por medio de
transformaciones de similaridad como las descritas por las ecuaciones (10.22),
determinar estas formas de representaci´ on.
Debe notarse que la transformaci´on de similaridad en representaciones de
sistemas din´amicos equivale a una transformaci´on lineal del vector de estados, es
decir a un cambio de bases en la representaci´on del mismo.
Representaci´on matem´atica de sistemas 177
10.2.3 Funci´ on de transici´on de los sistemas din´amicos lin-
eales
Se va a considerar con detalle ´ unicamente el caso de sistemas invariantes en el
tiempo. Sean las expresiones 10.4.
˙ x = Ax + Bu
y = Cx (10.23)
en el caso en que las matrices (A, B, C) no dependan del tiempo, es decir est´en
formadas por n´ umeros.
Se trata de resolver, de una manera general, las anteriores ecuaciones diferen-
ciales, en particular la primera, para ver que conduce a una funci´on de transici´on
entre estados de la forma definida al principio de esta secci´on. (recu´erdese la
expresi´on 10.1). Para resolver la ecuaci´on 10.23 se va a emplear el m´etodo de
Laplace seg´ un el cual se puede escribir,
sX(s) −x(0) = AX(s) + BU(s)
de donde se puede despejar X(s),
(sI −A)X(s) = x(0) + BU(s)
Llamando φ(s) = (sI −A)
−1
se tiene,
X(s) = φ(s)x(0) + φ(s)BU(s) (10.24)
cuya antitransformada de Laplace es
x(t) = φ(t)x(0) +

t
0
φ(t −τ)Bu(τ)dτ (10.25)
en donde φ(t) = L
−1
[φ(s)]. La matriz φ(t) recibe el nombre de matriz de tran-
sici´on
Representaci´on matem´atica de sistemas 178
La expresi´on (10.25) es de la misma forma que la expresi´on (10.1) y representa
la transici´on entre los estados x(0) y x(t) como consecuencia de la aplicaci´on de
una se˜ nal de entrada u en el intervalo (0, t). Puede comprobarse f´acilmente que
la expresi´on (10.25) cumple las propiedades de causalidad, consistencia y com-
posici´on exigidas a la funci´on de transici´on entre estados. La existencia de (10.25)
para todo sistema descrito por ecuaciones de la forma (10.23) permite establecer,
que todo sistema din´amico cuyas ecuaciones diferenciales pueden escribirse en la
forma 10.23 admite una descripci´on interna de acuerdo con la definici´on dada al
principio de esta secci´on. Obs´ervese que la funci´on de lectura viene dada por la
segunda de las expresiones (10.23).
Se dice que al pasar de la descripci´on externa a la interna lo que se hace es
factorizar la funci´on que representa la descripci´on externa en las funciones de
lectura y de transici´on entre estados. Esto se puede interpretar con el siguiente
diagrama,
B
u
φ(s)
x
C
y
Para el caso de sistemas que var´ıen con el tiempo la expresi´on (10.25) toma
la forma m´as general,
x(t) = φ(t, t
0
)x(t
0
) +

t
0
φ(t, τ)B(τ)u(τ)dτ (10.26)
Volviendo al caso invariante en el tiempo y suponiendo un vector de estado
de dimensi´on n = 1 se tendr´a, haciendo A = [a]
φ(s) =
1
s −a
es decir
φ(t) = e
at
El anterior resultado se puede generalizar por una dimensi´on del vector de
estado arbitraria (aunque finita) y hacer,
Representaci´on matem´atica de sistemas 179
φ(t) = e
At
(10.27)
en donde
φ(t) = e
At
= I + At + ... +
A
k
t
k
k!
+ ... (10.28)
Esta forma de escribir la matriz de transici´on tiene un indudable inter´es en
desarrollos formales y en el estudio de propiedades de los sistemas din´amicos
lineales invariantes en el tiempo.
Para determinar la matriz de transici´on se puede emplear varios m´etodos pero
aqu´ı se considerar´an s´olo dos:
1. empleo de la expresi´on (10.28) y
2. determinaci´on de su transformada de Laplace seg´ un φ(s) = (sI − A)
−1
y
posteriormente haciendo su antitransformada:
φ(t) = L
−1

(sI −A)
−1

Ejemplo
Sea un sistema din´amico cuya matriz A es la siguiente
A =

1 1
0 1

Se trata de determinar la matriz de transici´on φ(t) por los dos m´etodos indi-
cados m´as arriba.
1. Para emplear el desarrollo en serie (10.28) se tendr´a que,
A
2
=

1 2
0 1

; A
3
=

1 3
0 1

; A
k
=

1 k
0 1

Luego
e
At
=

¸
k=0
A
k
t
k
k!
=

¸
¸
¸
¸
t
k
k!
¸
t
k
(k−1)!
0
¸
t
k
k!
¸

=

e
t
te
t
0 e
t

Representaci´on matem´atica de sistemas 180
2. Para determinar φ(s) se procede como sigue:
φ(s) = (sI −A)
−1
=
¸
s −1 −1
0 s −1
¸
−1
=
1
´
¸
s −1 1
0 s −1
¸
siendo ´ = (s −1)
2
. Hallando la antitransformada de φ(s) se tendr´a,
φ(t) = L
−1
[φ(s)] =

e
t
te
t
0 e
t

Se tiene el mismo resultado que en 1.
Llevando a la expresi´on (10.23) el valor de x(t) que da la expresi´on (10.26) se
tiene,
y(t) = C(t)φ(t
1
, t
0
)x(t
0
) + C(t)

t
t
0
φ(t
1
, τ)B(τ)u(τ) dτ (10.29)
Suponiendo que el instante inicial se estima en el pasado remoto (−∞) en que
el sistema se encontraba en reposo, se puede escribir
y(t) =

t
−∞
C(τ)φ(t
1
, τ)B(τ)u(τ)dτ (10.30)
Comparando las expresiones (10.30) y (3.8) se tiene que la respuesta impul-
sional del sistema en funci´on de F, G y H se puede escribir,
h(t
1
, τ) = C(t)φ(t
1
, τ)B(τ) (10.31)
Por otra parte, y para sistemas invariantes en el tiempo, a partir de las ex-
presiones (28) y (15) se puede escribir
H(s) =
Y (s)
U(s)
= C(sI −A)
−1
B (10.32)
en donde se ha tenido en cuenta que al determinar la funci´on de transferencia
se parte de x(0) = 0, pues ´esta se define para condiciones iniciales nulas. La
expresi´on (35) permite determinar la funci´on de transferencia a partir de las
matrices A, B y C.
Representaci´on matem´atica de sistemas 181
El problema inverso del anterior, es decir, el problema de determinar las ma-
trices A, B y C a partir de la matriz de transferencia, ya ha sido considerado
anteriormente, en la secci´on 10.2.2, para el caso de sistemas con una entrada y
una salida. Para sistemas multivariables el problema puede adquirir una notable
complejidad adicional si se trata de obtener una representaci´on con una dimensi´on
del vector de estado m´ınima. Este problema recibe el nombre de problema de
realizaci´on y se estudiar´a m´as adelante.
10.2.4 Sistemas din´amicos lineales en tiempo discreto
Para los sistemas din´amicos lineales en tiempo discreto se tienen resultados
an´alogos a los obtenidos en la secci´on 10.2.2 para los sistemas lineales en tiempo
cont´ınuo. Para estos ´ ultimos la descripci´on por variables de estado toma la forma
siguiente:
x(k + 1) = Φ(k)x(k) + Γ(k)u(k) (10.33)
y(k) = C(k)x(k) + D(k)u(k) (10.34)
En donde las matrices y vectores que aparecen tienen una interpretaci´on
an´aloga a la de las matrices y vectores de las expresiones 10.3. Igual que all´ı,
habitualmente, D = 0 y el caso de mayor inter´es es aquel en que las matrices
Φ(k), Γ(k)yC(k) no dependen de k. Es decir, en lo que sigue se tendr´a,
x(k + 1) = φx(k) + Γu(k) (10.35)
y(k) = Cx(k) (10.36)
Para obtener la representaci´on por variables de estado de un sistema descrito
por ecuaciones en diferencias finitas se procede en forma an´aloga a la empleada
para los sistemas descritos por ecuaciones diferenciales, teniendo presente que a
la derivada all´ı, aqu´ı corresponde el adelanto un per´ıodo elemental, a la integral
el retraso, y a la transformada en s la transformada en z.
Ejemplo
Sea el sistema din´amico cuya ecuaci´on en diferencias es la siguiente:
Representaci´on matem´atica de sistemas 182
y(t + 3) + 4y(t + 2) + 3y(t + 1) + 2y(t) = 3u(t) + 2u(t + 1)
Este sistema admite las mismas formas can´onicas de control y de observaci´on
que los ejemplos tratados en sistemas cont´ınuos.
Se define la matriz de transferencia ψ(k) de manera que,
ψ(0) = I
ψ(k + 1) = Φψ(k)
Es claro que a partir de (10.35) se puede escribir
x(n) = ψ(n −k)x(k) +
n−1
¸
j=k
ψ(n −j −1)Bu(j)
Esta expresi´on es an´aloga a la (10.25) y se puede hacer aqu´ı las consideraciones
que all´ı se hicieron. Obs´ervese que,
ψ(k) = Φ
k
expresi´on correspondiente a la (10.27)
La respuesta impulsional, en funci´on de Φ Γ y H, se puede escribir,
h(k) = CΦ(k)B (10.37)
y la funci´on de transferencia,
H(z) =
Y (z)
U(z)
= C(zI −A)
−1
B
10.2.5 Muestreo de sistemas en tiempo cont´ınuo
Sea un sistema din´amico descrito por,
Representaci´on matem´atica de sistemas 183
˙ x = Ax + Bu
y = Cx
Sup´ongase que el anterior sistema se somete a una se˜ nal de entrada escalonada,
es decir a una se˜ nal de entrada tal que,
u(t) = u(kT) para kT ≤ t ≤ (k + 1)T
en donde k = 0, 1, 2, .... Una se˜ nal arbitraria u(t) puede convertirse en una
se˜ nal escalonada por medio de unos circuitos retenedores (sample - hold). En la
figura 8 se ilustra el proceso de escalonamiento de una se˜ nal u(t).
Al ser excitado el sistema 10.38 con una se˜ nal escalonada u(t) se obtendr´a una
se˜ nal de salida y(t). Sup´ongase que de esta se˜ nal se miden solamente los valores
que toma en el conjunto discreto de tiempos t = kT para k = 0, 1, 2, ... Es decir
la se˜ nal de salida se muestrea de manera peri´odica, con un per´ıodo T.
La evoluci´ on del estado del sistema 10.38 vendr´a dada de acuerdo con (10.25),
por la expresi´on
x(t) = φ(t −t
0
)x(t
0
) +

t
t
0
φ(t −τ)Bu(τ)dτ
Si se hace t
0
= kT y t = T(k + 1) se tendr´a,
x((k + 1)T) = φ(T)x(kT) +

(k+1)T
kT
φ((k + 1)T −τ)Bu(kT)dτ
En la integral del segundo miembro se puede hacer el cambio de variables
α = (k + 1)T −τ con lo cual la anterior expresi´on queda,
x(k + 1 T) = Φ(T)x(kT) +

T
0
Φ(α)Bdα

u(kT)
Llamando,
Γ =

T
0
Φ(α)Bdα

; Φ(T) = Φ
Representaci´on matem´atica de sistemas 184
y prescindiendo de T, para simplificar la notaci´on, se puede escribir
x(k + 1) = Φx(k) + Γu(k) (10.38)
expresi´on que, unida a y(k) = Cx(k) , permite decir que el muestreo de un
sistema din´amico en tiempo cont´ınuo da lugar a un sistema lineal en tiempo
discreto. Obs´ervese que la matriz Φ es precisamente el valor de la matriz de
transici´on del sistema en tiempo cont´ınuo para un valor del tiempo de T segundos.
Ejemplo
Sea el sistema cuya ecuaci´on diferencial es
d
2
y
dt
2
+
dy
dt
=
du
dt
+ 2u
El cual admite una forma can´onica de control
A =

0 1
0 −1

; B =

0
1

; C = (2 1)
y cuya funci´on de transferencia es,
Y (s)
U(s)
=
s + 2
s(s + 1)
Sup´ongase que este sistema se somete a una entrada escalonada y que su salida
se muestrea, ambos procesos con periodo t = T seg. Se trata de determinar el
sistema en tiempo discreto equivalente (ver figura 9).
Se tendr´a
φ(s) = (sI −A)
−1
=
¸
s −1
0 s + 1
¸
−1
=
1
s(s + 1)
¸
s + 1 1
0 s
¸
=

1
s
1
s(s + 1)
0
1
(s + 1)
¸
¸
¸
¸
¸
Por tanto,
Representaci´on matem´atica de sistemas 185
φ(t) =

1 1 −e
−t
0 e
−t

luego
Φ =

1 0.428
0 0.572

Por otra parte
Γ =

1
0

1 1 −e
−α
0 e
−α

0
1

dα =

1
0

1 −e
−α
e
−α

dα =

0.572
0.428

C = (2 1)
El proceso de muestreo al que se ha dedicado este apartado es un modelo del
que se realiza cuando se introduce un computador en un proceso
10.2.6 Sistemas no-lineales: linealizaci´on
Existen muchos problemas pr´acticos en que los sistemas encontrados no admiten
una descripci´on por medio de ecuaciones diferenciales lineales. En tal caso no
es posible, en principio, tener unas expresiones de la forma 10.3. Sin embargo,
si la ecuaci´on diferencial es de orden n, sup´ongase que puede escribirse como n
ecuaciones diferenciales de primer orden, de la forma
˙ x = f(x, u, t) (10.39)
en donde f(.,.) es una funci´on no-lineal de x y u, que se supondr´a, en lo que
sigue, diferenciable con respecto a sus argumentos. Obs´ervese que la expresi´on
(10.38) es un caso particular de la (10.39).
En tal caso se puede concebir un sistema lineal que represente el compor-
tamiento din´amico del sistema para peque˜ nas perturbaciones en torno a una
trayectoria previamente determinada, llamada trayectoria nominal. Sea esta
trayectoria nominal x

(t) se tendr´a
Representaci´on matem´atica de sistemas 186
˙ x

= f(x

, u

, t)
Por otra parte la trayectoria real ser´a la indicada por (10.39). Si las variaciones
de la trayectoria real con relaci´on a la nominal son peque˜ nas se podr´a escribir,
llamando δx = x −x

y δu = u −u

y empleando la formula de Taylor,
(δ ˙ x) = f(x, u, t) −f(x

, u

, t) =
¸
∂f
∂x
¸
x = x

u = u

δx +
¸
∂f
∂u
¸
x = x

u = u

δu (10.40)
Con ello se tiene el comportamiento lineal de las peque˜ nas perturbaciones en
torno a la trayectoria nominal.
Para fijar ideas sup´ongase que la dimensi´on del vector x es 2. Las ecuaciones
(10.39) toman la forma
˙ x
1
= f
1
(x
1
, x
2
, u, t)
˙ x
2
= f
2
(x
1
, x
2
, u, t)
y sup´ongase que la trayectoria nominal viene dada por x

1
(t), x

2
(t) y u

(t).
En tal caso se tendr´a que las ecuaciones (10.40) tomaran la forma

δ ˙ x
1
δ ˙ x
2

=

¸
¸
¸
∂f
1
∂x
1
∂f
1
∂x
2
∂f
2
∂x
1
∂f
2
∂x
2
¸

x
1
= x

1
(t)
x
2
= x

2
(t)
u = u

(t)

δx
1
δx
2

+

¸
¸
¸
∂f
1
∂u
∂f
2
∂u
¸

x
1
= x

1
(t)
x
2
= x

2
(t)
u = u

(t)
δu
Ejemplo
Sea el sistema no-lineal descrito por
˙ x
1
= x
2
˙ x
2
= au −bx
2
2
Representaci´on matem´atica de sistemas 187
q
h
V, c
q
1
q
2
c
1
c
2
Figura 10.5: Diagrama de un dep´osito mezclador.
y sea la trayectoria nominal,
x

1
=
αt
2
2
x

2
= αt
u

=
1
a
(α + bα
2
t
2
)
Aplicando el m´etodo antes desarrollado se tiene,

δ ˙ x
1
δ ˙ x
2

=

0 1
0 −2bαt

δx
1
δx
2

+

0
a

δu
10.2.7 Dep´osito mezclador
En la figura 14.3 se muestra un esquema elemental de un proceso de mezcla de dos
fluidos en un dep´osito. Este dep´osito de volumen V y altura h est´a alimentado
por los caudales q
1
y q
2
, cada uno de los cuales con concentraci´on c
1
y c
2
de un
determinado producto qu´ımico. La concentraci´on de este producto en el dep´osito
es c. El dep´osito evacua por un conducto situado en su parte baja mediante
un caudal q. Se supone que la homogeneizaci´on de las concentraciones de los
caudales de entrada se produce instant´aneamente gracias a la acci´on de unas
Representaci´on matem´atica de sistemas 188
palas batidoras. Se supone, as´ı mismo, que la densidad es constante en el interior
del dep´osito.
Las ecuaciones del balance de masas son las siguientes:
dv(t)
dt
= q
1
(t) + q
2
(t) −q(t) (10.41)
d[c(t)v(t)]
dt
= c
1
(t)q
1
(t) + c
2
(t)q
2
(t) −c(t)q(t) (10.42)
El flujo de salida del dep´osito viene dado por
q(t) = k

h(t) = k

v(t)
a
(10.43)
En donde k es una constante y a es el ´area del dep´osito. De modo que v = ha.
Sup´ongase un estado estacionario de funcionamiento en el que se produce un
equilibrio entre las entradas y salidas del dep´osito, para los siguientes valores de
los flujos de entrada y salida, as´ı como del volumen en el dep´osito v
0
y de su
concentraci´on c
0
.
q
1
(0) = q
10
, q
2
(0) = q
20
, q(0) = q
0
, v(0) = v
0
, c(0) = c
0
Convienen observar que las concentraciones de entrada c
1
y c
2
se establecen en
la etapa anterior del proceso. En estas condiciones de r´egimen estacionario, las
ecuaciones (14.5, 14.6,14.7) toman la forma:
0 = q
10
+ q
20
−q
0
0 = c
1
q
10
+ c
2
q
20
−c
0
q
0
q
0
= k

v
0
a
Se trata de determinar las ecuaciones lineales que rigen el comportamiento
del sistema en torno a este estado estacionario en el supuesto de que se trate de
perturbaciones suficientemente peque˜ nas como para justificar la linealizaci´on.
Conviene observar que el proceso que se est´a considerando es un proceso no
lineal; es decir, la ecuaciones que gobiernan su comportamiento son no lineales.
Esta no linealidad tienen un doble origen. Por una parte, la ecuaci´on (14.6) es no
lineal ya que en ella aparecen producto de variables. Por otra parte, la expresi´on
(14.7) liga q con v (o con h) mediante una relaci´on no lineal (la ra´ız cuadrada).
Representaci´on matem´atica de sistemas 189
Las variaciones de las distintas variables con respecto a los valores tomados
en r´egimen estacionario se denotar´an mediante un tilde sobre la variable corres-
pondiente. Es decir,
˜ q(t) = q(t) −q
0
representa la variaci´on del caudal q respecto al valor estacionario q
0
. An´alogamente
se definen el resto de las variables
˜ v(t) = v(t) −v
0
q
1
(t) = q
10
+ ˜ q
1
(t)
q
2
(t) = q
20
+ ˜ q
2
(t)
c(t) = c
0
+ ˜ c(t)
Si las variaciones son suficientemente peque˜ nas, entonces la expresi´on no lin-
eal (14.7) se puede linealizar en torno al valor correspondiente por r´egimen esta-
cionario, de acuerdo con
q(t) −q
0
=
k

a

v(t)
∂v(t)
[
v=v
0
(v(t) −v
0
)
Es decir
˜ q(t) =
k
2v
0

v
0
a
˜ v(t) (10.44)
De este modo la relaci´on entre la variaci´on ˜ q(t) del caudal con respecto al valor
en r´egimen estacionario, y la correspondiente al volumen ˜ v(t), queda linealizada.
Llevando las definiciones de las variaciones ˜ v(t), ˜ q
1
(t), ˜ q
2
(t) y ˜ c(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la definici´on del r´egimen estacionario y
(14.8) se tiene que
d˜ v(t)
dt
= ˜ q
1
(t) + ˜ q
2
(t) −
1
2
q
0
v
0
˜ v(t)
d˜ c(t)
dt
v
0
+ c
0
d˜ v(t)
dt
= c
1
˜ q
1
(t) + c
2
˜ q
2
(t) −
1
2
c
0
q
0
v
0
˜ v(t) −q
0
˜ c(t)
τ =
v
0
q
0
Representaci´on matem´atica de sistemas 190
Si se escribe
x
1
= ˜ v
x
2
= ˜ c
u
1
= ˜ q
1
u
2
= ˜ q
2
y
1
= ˜ q
y
2
= ˜ c
y
τ =
v
0
q
0
se tiene que las ecuaciones del sistema din´amico linealizado pueden escribirse de
la forma siguiente:

˙ x
1
˙ x
2

=

¸
¸
¸

1

0
0 −
1
τ
¸

x +

¸
1 1
c
1
−c
0
v
0
c
2
−c
0
v
0
¸

u
Sistema din´amico lineal que describe el comportamiento del sistema perturbado
en torno al r´egimen estacionario.
Tema 11
Controlabilidad y observabilidad
de sistemas din´amicos
11.1 Introducci´on
La descripci´on interna de un sistema din´amico lineal suministra modelos para
la representaci´ on de una amplia clase de sistemas din´amicos encontrados en la
pr´actica. Esta descripci´on reposa sobre la existencia de la terna (A, B, C) que
caracteriza completamente su comportamiento din´amico.
Asociados a la descripci´on interna de un sistema lineal emergen dos conceptos
que tienen una importancia capital y cuya sola existencia justifica la adopci´on
de la descripci´on interna frente a la externa. Son los conceptos de controlabil-
idad y de observabilidad. Su formulaci´ on da respuesta precisa a dos cuestiones
fundamentales:
1. ¿Se puede determinar el estado de un sistema a partir de la observaci´ on de
la salida?.
2. ¿Se puede determinar una se˜ nal de entrada que transfiera el sistema de un
estado a otro?
La controlabilidad y la observabilidad son propiedades de la descripci´on in-
terna de los sistemas din´amicos. Estas propiedades se refieren, respectivamente,
a la influencia de la entrada sobre el estado y del estado sobre la salida.
191
Controlabilidad y observabilidad de sistemas din´amicos 192
No es necesario insistir aqu´ı sobre el inter´es de esos conceptos puesto que
quedar´a ampliamente puesto de manifiesto en todo lo que sigue.
Hist´oricamente ambos conceptos no aparecieron a la vez. El de controlabil-
idad, m´as antiguo, fue empleado por Pontryagin en sus trabajos sobre el prin-
cipio del m´aximo. Sin embargo corresponde a Kalman el primer tratamiento
sistem´atico de ambos, as´ı como el establecimiento de las relaciones entre ellos
(dualidad), y sobre todo su amplia difusi´on, por lo que es frecuente leer que ha
sido Kalman el introductor de estos conceptos.
En lo que sigue se estudiar´a la controlabilidad y la observabilidad de los sis-
temas lineales invariantes en el tiempo. Se estudiar´an a su vez criterios para
determinar si un sistema din´amico lineal es, o no, controlable u observable. De
todo ello se extraer´an conclusiones pr´acticas para abordar el problema de s´ıntesis
que ser´a tratado en el cap´ıtulo siguiente. Se ver´a como todo ello se reduce a
propiedades algebraicas de la terna (A, B, C).
11.2 Controlabilidad de sistemas din´amicos li-
neales
El concepto de controlabilidad pretende dar un significado preciso a la idea de
transici´on entre estados. Dada la importancia del concepto de estado en la de-
scripci´on de los sistemas din´amicos, interesa estudiar bajo qu´e condiciones ser´a
posible ”conducir” un determinado sistema a un cierto estado. De manera intu-
itiva la noci´on de ”conducir” el sistema a un determinado estado es equivalente
a la de ”controlarlo”.
De una manera general se dir´a que un sistema es controlable si para cada
transici´on entre estados que se desee realizar existe una se˜ nal de control que la
realice. El tiempo de la transici´on entre estados se supone finito y la se˜ nal de
control se supone sin ninguna clase de restricciones. Para precisar los conceptos
se introducen las siguientes definiciones.
11.2.1 Estados alcanzables
El conjunto de estados alcanzables desde el estado x, A
x
, est´a formado por los
elementos x
1
X para los que existe una se˜ nal de entrada u(t), definida en un
Controlabilidad y observabilidad de sistemas din´amicos 193
cierto intervalo (t
0
, t
1
) tal que
φ(t
1
, t
0
, x, u(t
0
, t
1
)) = x
1
El espacio de estados X de un sistema din´amico
¸
se dice alcanzable desde
x si A
x
= X.
En la figura 11.1 se ilustra el concepto de conjunto de estados alcanzables desde
x. Normalmente el estado que se toma de referencia para definir el conjunto de
estados alcanzables es el estado de reposo x = 0.
A
x
x = 0
u
1
u
2
u
3
Figura 11.1: A
x
= Conjunto de estados alcanzables desde x = 0
La alcanzabilidad exige que la aplicaci´on φ(., t
0
, x, .) sea suprayectiva.
El concepto de controlabilidad se tiene como contra parte del de alcanzabilidad
invirtiendo el tiempo.
11.2.2 Estados controlables
Se define el conjunto de estados controlables a x, C
x
, como el formado por los
elementos x
1
X para los que existe una se˜ nal de entrada u(t), definida en un
cierto intervalo (t
0
, t
1
) tal que
φ(t
1
, t
0
, x
1
, u(t
0
, t
1
)) = x
Un sistema din´amico se dice controlable a x si C
x
= x.
Un sistema din´amico se dice controlable si es controlable al origen.
Controlabilidad y observabilidad de sistemas din´amicos 194
Las consideraciones hechas m´as arriba respecto al concepto de alcanzabilidad
son v´alidas aqu´ı respecto al de controlabilidad. En la figura 11.2 se ilustra el
conjunto C
x
.
x = 0
C
x
u
3
u
2
u
1
Figura 11.2: C
x
= Conjunto de estados controlables a x
En algunos casos se define la controlabilidad a la se˜ nal de salida adem´as de a
los estados, sin embargo, en estos apuntes el concepto de controlabilidad que se
manejar´a es el definido m´as arriba.
11.2.3 Estados conectados
El espacio de estados X de un sistema din´amico se dice conectado, si para cada
par de estados x
0
, x
1
, X existe una se˜ nal u(t), definida en un cierto intervalo
(t
0
, t
1
) tal que
φ(t
1
, t
0
, x
0
, u(t
0
, t
1
)) = x
1
Es evidente que si el espacio de estados est´a conectado, el sistema ser´a alcan-
zable y controlable. Es decir, que
conexi´on ⇒ alcanzabilidad + controlabilidad
Los conceptos de alcanzabilidad, controlabilidad y conexi´on entre estados,
son equivalentes entre s´ı para los sistemas din´amicos lineales estacionarios. Este
hecho justifica el que en lo que sigue se hable exclusivamente del concepto de
controlabilidad.
Ejemplo
Controlabilidad y observabilidad de sistemas din´amicos 195
Sea el sistema de la figura 11.3. Para su descripci´on interna se requieren dos
variables de estado x
1
y x
2
, que se puedan identificar con las cargas de cada uno
de los condensadores. Si la se˜ nal de entrada es la tensi´on que se aplica a las formas
correspondientes, es claro que se puede transferir a x
1
´o a x
2
a cualquier valor;
sin embargo, no se puede transferir a x
1
y a x
2
a un par de valores arbitrarios.
Por lo tanto la ecuaci´on que describe el comportamiento de este sistema no es
controlable.
Los conceptos de controlabilidad, alcanzabilidad y conexi´on se refieren a las
posibles transferencias en el espacio de estados que resultan de la aplicaci´on de
se˜ nales de entrada. El concepto de controlabilidad se refiere a la transferencia de
un estado inicial arbitrario a una trayectoria deseada. Normalmente la trayectoria
deseada es un punto de equilibrio. Este es el caso que se ha considerado aqu´ı,
tom´andose adem´as el elemento cero de X para representar este equilibrio.
R
C
C
R
u
x
1
x
2
Figura 11.3: Ejemplo de sistema no controlable
11.3 Controlabilidad de los sistemas en tiempo
discreto
Aunque en este curso nos ocupamos fundamentalmente de sistemas en tiempo
continuo, la introducci´on del concepto de controlabilidad se hace de forma mucho
m´as sencilla en el caso de los sistemas din´amicos en tiempo discreto. Por ello, en
primer lugar nos vamos a ocupar de la controlabilidad de un sistema de este tipo.
Controlabilidad y observabilidad de sistemas din´amicos 196
11.3.1 Ejemplos de introducci´on
• Sistema controlable.
Sea el sistema de posicionamiento de un cilindro, de inercia unitaria, sometido
a un par u(t), suponiendo que el rozamiento sea despreciable. Este sistema
representa una versi´ on idealizada del problema del posicionamiento de un
sat´elite en un plano. Sus ecuaciones se pueden escribir
˙ x =
¸
0 1
0 0
¸
x +
¸
0
1
¸
u
es decir:
A =
¸
0 1
0 0
¸
B =
¸
0
1
¸
se tiene:
(sI −A)
−1
=
¸
s −1
0 s
¸
−1
=
1
s
2
¸
s 1
0 s
¸
=

1
s
1
s
2
0
1
s
¸
¸
¸
¸
por tanto
φ(t) =
¸
1 t
0 1
¸
φ(T) =
¸
1 T
0 1
¸
Conviene recordar que la matriz de transici´on entre estados en un sistema
en tiempo discreto viene dada por:
Γ =

(k+1)T
kt
φ((k + 1)T −τ) Bdτ
σ = τ −kT
Γ =

T
0
φ(t −σ)B = dσ
θ = T −σ
Γ =

T
0
φ(θ)Bdθ
De acuerdo con lo cual, la matriz de transici´on entre estados para el sistema
en tiempo discreto de posicionamiento del cilindro resulta ser:
Controlabilidad y observabilidad de sistemas din´amicos 197
Γ =

T
0
φ(t−τ)Bdτ =

T
0
¸
1 τ
0 1
¸ ¸
0
1
¸
dτ =

T
0
¸
τ
1
¸
dτ =
¸
T
2
/2
T
¸
Por tanto el sistema en tiempo discreto (tambi´en llamado sistema muestreado)
ser´a:
x
k+1
= Ax
k
+ Bu
k
=
¸
1 T
0 1
¸
x
k
+
¸
T
2
/2
T
¸
u
Supongamos que se aplica una se˜ nal u
o
, en el instante t = 0, con las
condiciones iniciales x
o
= [α β]
T
, lo que hace que en el primer instante
de muestreo se alcance el estado
x
1
= Ax
0
+ Bu
0
x
1,1
= α + Tβ + (T
2
/2) u
0
x
2,1
= β + Tu
0
Si con la se˜ nal u
o
que hemos aplicado pretendi´esemos transferir el estado
inicial [αβ] al origen del espacio de estado; es decir si quisi´esemos x
1,1
=
x
2,1
= 0 entonces tendr´ıamos:
α + Tβ + (T
2
/2) u
0
= 0
es decir
u
0
=
−(α + Tβ)
T
2
/2
Pero tambi´en se ha de cumplir:
β + T u
0
= 0
u
0
= −
β
T
Controlabilidad y observabilidad de sistemas din´amicos 198
Por tanto, para que exista una se˜ nal u
o
que transfiera en un solo paso el
estado [α, β] al origen se requiere que este estado no sea uno cualquiera,
sino que est´e situado en la regi´on del espacio de estados definida por la
expresi´on:
β =
α + Tβ
T/2
Tβ = 2α + 2Tβ
2α + Tβ = 0
En consecuencia, no es posible transferir un estado arbitrario del espacio
de estados, en un s´olo paso, al origen. Veamos que sucede si en lugar de
considerar un solo paso, consideramos dos; es decir una secuencia de se˜ nales
sucesivas u
o
, u
1
. En tal caso se tendr´a:
x
2
= A
2
x
0
+ ABu
0
+ Bu
1
es decir
x
2,1
= α + 2Tβ + (3T
2
/2)u
0
+ (T
2
/2)u
1
x
2,2
= β + Tu
0
+ Tu
1
Si, como en el caso anterior, se pretende llevar un estado arbitrario [αβ] al
origen; es decir
para x
2,1
= x
2,2
= 0
(3T
2
/2) u
0
+ (T
2
/2)u
1
= −α −2Tβ
Tu
0
+ Tu
1
= −β
Se trata de resolver este sistema de ecuaciones en u
o
y u
1
. Para que ese
sistema lineal de ecuaciones tenga soluci´on se requiere que el determinante
de la matriz de la parte izquierda del sistema sea no singular, lo que efec-
tivamente sucede en este caso.
det
¸
3T
2
/2 T
2
/2
T T
¸
= 3
T
3
2

T
3
2
= T
3
= 0
Controlabilidad y observabilidad de sistemas din´amicos 199
Por tanto, para una posici´on arbitraria del estado [αβ] existe una secuencia
de se˜ nales de actuaci´on sobre el sistema u
o
u
1
que transfiere ese estado arbi-
trario al origen. En tal caso estamos autorizados para decir que el sistema
es controlable al origen, de acuerdo con la definici´on que hemos introducido
m´as arriba.
• Sistema no controlable.
Consideremos ahora el sistema definido por las ecuaciones:
x
k+1
= Ax
k
+ Bu
k
=
¸
1 1
0 2
¸
x
k
+
¸
1
1
¸
u
k
Y como se ha hecho en el caso anterior sup´ongase que se trata de transferir
un estado inicial arbitrario [αβ] al origen. En primer lugar, consid´erese el
caso de un solo paso, en el que se aplica la se˜ nal u
o
.
x
1
= Ax
0
+ Bu
0
El estado que se alcance despu´es de aplicar esta se˜ nal ser´a:
x
1,1
= α + β + u
0
x
2,1
= 2β + u
0
Si se quiere que este estado alcanzado sea precisamente el origen, es decir,
si se quiere que x
1,1
= x
2,1
= 0 entonces es f´acil ver que ello solo ser´a posible
si α = β. Es decir, existe un subespacio del espacio de estados, formado
por la recta que define la bisectriz del primer cuadrante, tal que si el estado
inicial se encuentra sobre esta recta entonces con un solo paso es posible
llevar ese estado al origen. Esta recta representa lo que se conoce como
subespacio controlable del sistema.
x
1,1
= x
2,1
= 0 ⇔ α = β
lo que define el subespacio controlable en un solo paso.
Veamos ahora que sucede si aplicamos una secuencia de dos pasos u
o
u
1
. En
tal caso se tiene que el estado alcanzado es:
Controlabilidad y observabilidad de sistemas din´amicos 200
x
2
= A
2
x
0
+ ABu
0
+ Bu
1
es decir
x
2,1
= α + 3β + 2u
0
+ u
1
x
2,2
= 4β + 2u
0
+ u
1
De nuevo queremos transferir el estado [αβ] al origen; es decir, se quiere que
x
2,1
= x
2,2
= 0. En tal caso se tiene que los valores tomados por la se˜ nal de
entrada u
o
y u
1
deber´an satisfacer el sistema de ecuaciones lineales:
2u
0
+ u
1
= −α −3β
2u
0
+ u
1
= −4β
Pero este sistema de ecuaciones carece de soluci´on, puesto que:
det
¸
2 1
2 1
¸
= 0
El sistema s´olo es controlable si se cumple a la vez
α + 3β = 4β ⇔ α = β
Es decir, de nuevo nos encontramos en la misma condici´on que se hab´ıa en-
contrado para el caso de un solo paso. El subespacio controlable sigue siendo
exclusivamente la bisectriz que atraviesa el primer y tercer cuadrantes.
Si en lugar de considerar dos pasos, consideramos tres mediante la frecuencia
u
o
u
1
u
2
, entonces el estado alcanzado ser:
x
3
=
¸
α + 7β + 4u
0
+ 2u
1
+ u
2
8β + 4u
0
+ 2u
1
+ u
2
¸
Controlabilidad y observabilidad de sistemas din´amicos 201
El lector comprobar´a f´acilmente que nuevamente esta ecuaci´on solo tiene
soluci´on si α = β.
Nos encontramos, por tanto, en este segundo ejemplo con un sistema del que
no podemos decir que sea controlable; es decir, del que dado un estado inicial
arbitrario no podemos determinar una secuencia de entrada que lo transfiera al
origen. solamente, si el estado inicial se encuentra en una cierta regi´on privile-
giada, que denominamos subespacio controlable, es posible esta transferencia.
Lo que se acaba de ver para estos dos ejemplos concretos es f´acilmente gener-
alizable para un sistema cualquiera en tiempo discreto:
x
k+1
= Ax
k
+ Bu
k
En tal caso, para una secuencia de entrada de p se tendr´a que el estado que
se alcanza ser:
x
p
= A
p
x
0
+ A
p−1
Bu
0
+ A
p−1
Bu
1
+ + ABu
p−2
+ Bu
p−1
es decir
A
p−1
Bu
0
+ A
p−2
Bu
1
+ + ABu
p−2
+ Bu
p−1
= −A
p
x
0
Para el caso p = n se tendr´a:
−A
n
x
0
= A
n−1
Bu
0
+ A
n−2
Bu
1
+ + ABu
n−2
+ Bu
n−1
Lo que se puede escribir, con notaci´on matricial
−A
n
x
0
= [A
n−1
B
.
.
.
.
.
.AB
.
.
.B]

u
0
u
1
...
u
n−1
¸
¸
¸
¸
¸
Para que este sistema de ecuaciones tenga soluci´on, de modo que dado un
estado inicial arbitrario x
o
se pueda determinar una secuenciau
o
u
1
u
2
. . . u
n−1
se
requiere que la matriz ( sea de rango completo.
Controlabilidad y observabilidad de sistemas din´amicos 202
11.3.2 Controlabilidad de sistemas en tiempo continuo
La controlabilidad de los sistemas en tiempo continuo aunque conceptualmente
sea la misma que la de los sistemas en tiempo discreto, sin embargo resulta un
poco m´as dif´ıcil de analizar. Vamos a considerar alg´ un ejemplo introductorio que
nos allane el camino.
Ejemplo
Sea el sistema definido por las ecuaciones
˙ x
1
= u
˙ x
2
= ax
2
y = x
1
+ x
2
cuya representaci´ on en forma de diagrama de bloques se tiene en la figura 11.4
De la observaci´ on de la figura se desprende claramente que x
2
es una variable de
estado no controlable.
u
a
x
2
y
x
1
Figura 11.4: Diagrama de bloques de un sistema no controlable
Sin embargo, la variable de estado x
1
s´ı es controlable; es decir, cualquiera que
sea el valor que tome esta variable de estado x
1
puede ser llevada al origen (x = 0)
en un tiempo finito. Basta para ello encontrar una trayectoria x
1
(t) que una x
1
(0)
con x
1
(τ) = 0, en donde τ es el tiempo finito de transici´on entre estados. Por
ejemplo si se adopta una recta, tal como se hace en la figura 11.5, entonces la
Controlabilidad y observabilidad de sistemas din´amicos 203
se˜ nal de entrada u(t) que debe aplicarse en el intervalo (0, τ), se calcula f´acilmente
de acuerdo con
u(t) =
d
dt
x
1
(t) para t ∈ [0, τ]
x
1
t
τ seg
Figura 11.5: Trayectoria de x
1
Debe observarse que aunque la variable x
2
no sea controlable, sin embargo
s´ı afecta a la salida, hasta el extremo de que si a es negativa, el sistema ser´a
inestable.
11.3.3 Criterio de controlabilidad
Para sistemas estacionarios, que son los que se considerar´an en estos apuntes,
existe un criterio muy simple que permite establecer si un cierto sistema din´amico
es controlable o no. Este criterio se basa en unas propiedades algebraicas del par
(A, B). Este criterio se establece con el siguiente teorema.
Teorema
Un sistema
¸
es controlable si y s´olo si
rango ( = n
en donde ( ≡

B
.
.
.AB
.
.
....
.
.
.A
n−1
B

y n = dim X.
Controlabilidad y observabilidad de sistemas din´amicos 204
La matriz ( recibe el nombre de matriz de controlabilidad.
Demostraci´on
1. Necesidad
Se trata de demostrar que si el sistema es controlable entonces se cumple
que el rango de la matriz de controlabilidad es n.
(sistema controlable ⇒ rango ( = n)
Se sabe
x(t
1
) = e
At
1
x(0) +

t
1
0
e
A(t−τ)
Bu(τ) dτ (11.1)
Se toma seg´ un la definici´on de controlabilidad, x(t
1
) = 0.
Luego,
0 = e
At
1
x(0) +

t
1
0
e
A(t
1
−τ)
Bu(τ) dτ
Premultiplicando por e
−At
1
se tiene,
x(0) = −

t
1
0
e
−Aτ
Bu(τ) dτ
Por otra parte, recu´erdese que
e

=

¸
i=0
A
i
t
i
i!
adem´as, φ(s) = (sI −A)
−1
, luego φ(A) = 0 y, por tanto,
A
n
+ a
1
A
n−1
+ ... + a
n−1
A + a
n
I = 0
es decir, A
n
es combinaci´ on lineal de las n−1 potencias de A. Combinando
estos dos resultados, se tiene que
e

=
n−1
¸
i=0
α
i
(τ)A
i
luego
x(0) = −
n−1
¸
i=0
A
i
B

t
1
0
α
i
(−τ)u(τ) dτ (11.2)
Controlabilidad y observabilidad de sistemas din´amicos 205
se definen las funciones auxiliares
ν
i
(0, t
1
) =

t
1
0
α
i
(−τ)u(τ) dτ
con lo que (11.2) puede escribirse
x(0) = −
n−1
¸
i=0
A
i

i
(11.3)
es decir:
x(0) =

B AB AB
2
. . . A
n−1
B

ν
0
ν
1
.
.
.
ν
n−1
¸
¸
¸
¸
¸
¸
Puesto que x(0) es arbitrario la anterior expresi´on implica que debe ser
posible representar cualquier vector como una combinaci´on lineal de las
columnas de (. Luego, seg´ un la definici´on de controlabilidad, que el sistema
sea controlable implicar´a (es necesario) que rango ( = n.
2. Suficiencia
Se trata de demostrar que si el rango de ( es n, entonces el sistema es
controlable, es decir, existe una se˜ nal de entrada que lo transfiere al origen.
Formalmente,
rango ( = n ⇒ sistema controlable
Sea
rango ( = n
Si se aplica al sistema una se˜ nal
u(t) = u
0
δ(t) + u
1
δ
(1)
(t) + + u
n−1
δ
(n−1)
(t) (11.4)
en donde u
i
son vectores de dimensi´on n y δ
(k)
(t) representa la derivada k
- ´esima de δ(t) y que tiene la propiedad


−∞
δ
(k)
(t −τ) f(τ) dτ =
d
k
f(t)
dt
k
x(0) = (

u
0
u
1
.
.
.
u
n−1
¸
¸
¸
¸
¸
¸
Controlabilidad y observabilidad de sistemas din´amicos 206
Luego si rango ( = n, entonces admite soluci´on el anterior sistema de
ecuaciones lineales con n inc´ognitas, que son los valores de n
i
para i =
0, n = 1.
Es decir, si rango ( = n el sistema es controlable ya que es posible construir
una (al menos) se˜ nal de entrada tal como la de la expresi´on (2) que transfiera
al sistema desde un estado arbitrario x(0) al origen x(t
1
) = 0.
11.3.4 Ejemplos de controlabilidad
Se presentan en este apartado algunos ejemplos de aplicaci´on del criterio de con-
trolabilidad que, adem´as ayuden a captar el sentido f´ısico de este concepto.
Ejemplo 1
Sea el sistema de la figura 11.6, al que corresponden las ecuaciones:
x
1
x
2
u
-1
+1
-2
Figura 11.6: Diagrama de bloques del ejemplo 1
˙ x
1
= −x
1
+ u
˙ x
2
= x
1
−2x
2
+ u
Controlabilidad y observabilidad de sistemas din´amicos 207
es decir
A =
¸
−1 0
1 −2
¸
B =
¸
1
1
¸
Si se aplica el criterio de controlabilidad a este sistema se tiene que:
( =
¸
1 −1
1 −1
¸
det ( = 0
Por tanto el sistema no es controlable. Este es un ejemplo de un sistema que
aparentemente es controlable, ya que al observar la figura del diagrama parece que
tanto x
1
como x
2
son accesibles desde la entrada u, pero que luego se comprueba
que no lo es.
Este ejemplo nos pone en alerta sobre una interpretaci´ on intuitiva de la con-
trolabilidad basada en los diagramas de la descripci´on interna.
Ejemplo 2
Recordando el ejemplo de un deposito en el que se mezclaban dos fluidos con
caudales Q
1
Q
2
, de un fluido con una cierta sustancia en disoluci´on. Sucede que si
estos dos caudales tienen la misma concentraci´ on; es decir C
1
= C
2
= C
c
entonces
el sistema deja de ser controlable. En efecto, las ecuaciones correspondientes son
x(t) =


1

0
0
−1
τ
¸
¸
¸
¸
x(t) +
¸
1 1
0 0
¸
u(t)
El diagrama correspondiente se tiene en la figura 11.7 la entrada (en realidad
las dos entradas) u(t) afecta ´ unicamente a la variable x
1
(t), es decir el incremento
de volumen. La variable x
2
(t), el incremento de concentraci´on, no tiene conexi´on
con la entrada, y por tanto no puede ser afectado por ella. Es decir, es imposible
“mover” x
2
(t) desde un estado inicial arbitrario x
2
(t
o
) a un estado determinado
x
2
(t
1
) en un intervalo de tiempo finito (t
o
, t
1
). En este ejemplo se ve f´ısicamente el
significado de controlabilidad. Si C
1
= C
2
entonces el sistema es completamente
controlable, como puede verificar f´acilmente el lector.
Ejemplo 3: La varilla vertical
Controlabilidad y observabilidad de sistemas din´amicos 208
x
2
(0)
x
1
(0)
s
−1
s
−1
−1
τ
−1

ˆ u
1
(s)
ˆ x
1
(s) ˆ x
2
(s)
s
−1
s
−1
ˆ u
2
(s)
Figura 11.7: Diagrama de bloques del ejemplo 2
Consid´erese una varilla de longitud L cuya masa M est´a concentrada en su
parte superior, tal como se indica en la fig.11.8. A partir de las leyes de Newton
se sabe que el sistema est´a gobernado por la ecuaci´on
M
L
θ
x
u
Figura 11.8: Varilla vertical
¨ u(t)cos θ(t) + L
¨
θ(t) = g sen θ(t)
en donde g es la constante de gravitaci´on. Por otra parte se tiene tambi´en la
relaci´on
x(t) = u(t) + L sen θ(t)
Controlabilidad y observabilidad de sistemas din´amicos 209
Si la varilla se encuentra muy pr´oxima a la posici´on vertical (es decir θ muy
peque˜ no) las dos ecuaciones anteriores pueden reescribirse en funci´on de x(t)
como sigue:
¨ x(t) =
g
L
[x(t) −u(t)]
Para simplificar la ecuaci´on se hace L = 1. El anterior sistema se puede
escribir en el espacio de estados, llamando x
1
= x(t) y x
2
= ˙ x(t).
¸
˙ x
1
˙ x
2
¸
=
¸
0 1
g 0
¸ ¸
x
1
(t)
x
2
(t)
¸
+ g
¸
0
−1
¸
u(t)
siendo la matriz de controlabilidad
( = g
¸
0 −1
−1 0
¸
puesto que ( es no-singular, el sistema es completamente controlable, lo que
coincide con nuestra experiencia.
Este ejemplo representa una versi´ on simple de un problema m´as general que
presentan muchos sistemas mec´anicos en los que aparecen problemas de bal-
anceo tales como el mantenimiento de un sat´elite en su ´orbita, el control de
un helic´optero o un cohete cuando asciende verticalmente.
11.4 Notas sobre controlabilidad
11.4.1 Controlabilidad de sistemas monovariables
Sea el sistema
¸
descrito por la ecuaci´on diferencial
(s
n
+ s
n−1
a
1
+ + a
n
)y = (b
0
s
m
+ + b
m
)u
d(s)y = n(s)u
Controlabilidad y observabilidad de sistemas din´amicos 210
Entonces
¸
es controlable si y s´olo si los polinomios n(s) y d(s) no tienen
factores comunes.
Se puede dar un razonamiento intuitivo a lo anterior: si n(s) y d(s) tienen un
factor com´ un, entonces existe un
¸
, equivalente (externamente) a
¸
, y tal que
es de orden menor que n.
11.4.2 Transformaci´ on de la matriz de Controlabilidad
Al cambiar de bases el vector de estados x, la matriz de controlabilidad se trans-
forma como sigue
x = Tx
es decir
b = Tb
A = TAT
−1
luego
( = T (
11.4.3 Forma simplificada del criterio de controlabilidad
Si el rango B = r el criterio de controlabilidad se simplifica a
rango

B
.
.
.AB
.
.
....
.
.
.A
n−r
B

= n
La demostraci´on del anterior criterio simplificado est´a basada en el siguiente
lema.
Controlabilidad y observabilidad de sistemas din´amicos 211
Lema
Si k es un entero tal que
rango

B
.
.
.AB
.
.
....
.
.
.A
k−1
B

= rango

B
.
.
.AB
.
.
....
.
.
.A
k
B

= p
entonces
rango

B
.
.
.AB
.
.
....
.
.
.A
e
B

= p para todo e ≥ k −1
Demostraci´on
El hecho de que
rango

B
.
.
.AB
.
.
....
.
.
.A
k−1
B

= rango

B
.
.
.AB
.
.
....
.
.
.A
k
B

significa que toda columna de la matriz A
k
B es linealmente dependiente de
las columnas de las matrices B, ...A
k−1
B. Por lo tanto todas las columnas de
Ak + 1B son linealmente dependientes de las columnas de AB, ..., A
k
B. Proce-
diendo de esta manera y por inducci´on se completa la demostraci´on.
Por el anterior lema, el rango de la matriz ( debe incrementarse en, al menos,
una unidad cuando se a˜ nade un nuevo t´ermino, hasta que se alcanza el rango
m´aximo n. Por lo tanto si
rango B = r
entonces es suficiente incluir a lo sumo n−r t´erminos de la forma AB, ...A
n−r
B
para ver si el rango m´aximo de ( puede ser alcanzado.
11.4.4 La controlabilidad como propiedad gen´erica
Sup´ongase que se tiene una clase S
R
de sistemas din´amicos indicados por un
par´ametro r ∈ R. Sup´ongase adem´as que un sistema S
r
posee una determi-
nado propiedad. Esta propiedad se dice que es gen´erica en R si S
r
posee esta
Controlabilidad y observabilidad de sistemas din´amicos 212
propiedad para todo r ∈ R, siendo R un conjunto abierto y denso en R. Las
propiedades gen´ericas son muy importantes ya que si R es el conjunto de valores
de los par´ametros en los que se toman las aproximaciones hechas en el mode-
lado de un sistema, debido a la falta de conocimiento preciso de los valores de los
par´ametros, es claro que s´olo las propiedades gen´ericas tendr´an una interpretaci´on
real. Puesto que el ser de rango completo es una propiedad gen´erica de las ma-
trices escogidas al azar en R
n×n
, es claro que la controlabilidad es una propiedad
gen´erica. Sin embargo en la pr´actica esta cuesti´on no resulta tan simple ya que
b (y C m´as adelante cuando se hable de observabilidad) en la pr´actica describen
conexiones que existen entre el sistema y el mundo exterior. Si la conexi´on no
existe, entonces el elemento correspondiente de b es exactamente 0 y no tiene
sentido el plantearse su perturbaci´on infinitesimal para obtener un incremento de
rango. Por lo tanto, la genericidad debe realmente definirse separadamente para
cada sistema y la cuesti´on de la controlabilidad es genuinamente importante.
11.5 Descomposici´on del espacio de estados en
sus partes controlables y no controlables
El hecho de que el espacio de estados X de un sistema din´amico
¸
no sea contro-
lable, no implica que alg´ un subespacio de X no lo pueda ser. Es decir, el hecho
de que todas las componentes del vector de estados no puedan ser transferidas al
origen en un tiempo finito, por aplicaci´on de una se˜ nal de control conveniente, no
implica que determinadas de ´estos componentes no puedan ser transferidas. El
problema de la descomposici´on del espacio de estado en sus partes controlables
y no controlables, reside, precisamente, en la determinaci´on de qu´e componentes
del vector de estados son controlables. Con ello se subdivide el espacio de esta-
dos en dos subespacios, el uno de estados controlables y el otro el de estados no
controlables.
Sea el sistema
¸
˙ x = Ax + Bu
y = Cx
Cuya matriz de controlabilidad ser´a:
Controlabilidad y observabilidad de sistemas din´amicos 213
( =

B AB ... A
n−1
B

tal que
rango ( = n
1
< n
En tal caso existe una transformaci´on no singular T tal que
T( =

(
1
0

en donde (
1
: n
1
nm y rango (
1
= n
1
. La obtenci´on T se hace determinando
una matriz equivalente a la (( I) de manera que

(
.
.
. I

¸
¸
¸
¸
(
1
.
.
.

.
.
. T
0
.
.
.
¸

La matriz T tiene la notable propiedad de que transforma el espacio de estados
de suerte que los subespacios controlables y no controlables son evidentes. En
efecto, si
x = Tx
la matriz de controlabilidad ser´a
( = T( =

(
1
0

=
=

(
11
(
12
... (
n
0 0 0

=
=

B AB A
n−1
B

(11.5)
Por otra parte la matriz se descompone en dos bloques
Controlabilidad y observabilidad de sistemas din´amicos 214
B =

B
1
B
2

(11.6)
siendo B
1
de dimensi´on n
1
m y B
2
de dimensi´on (n −n
1
) m.
Por inspecci´on, observando ( y B, es claro que B = 0.
Se descompone
A =

A
11
A
12
A
21
A
22

(11.7)
en donde A
11
= n
1
n
1
y el resto de los bloques tienen las dimensiones
correspondientes. Se tiene que
A( =

A
11
A
12
A
21
A
22

C
1
0

=

A
11
C
1
A
21
C
1

(11.8)
Por otra parte
A( =

AB A
2
B ... A
n
B

(11.9)
A partir de la expresi´on (3), se sabe que las (n−n
1
) ´ ultimas filas de ( son igual
a cero. Por otra parte se sabe que A
n
puede expresarse como una combinaci´ on
lineal de = A
i
, para i −1...n −1, seg´ un
A
n
=
n−1
¸
i=0
α
i
A
i
De lo anterior se desprende:
• los n − 1 primeros bloques en que se ha particionado A( en (7) son tales
que tienen las (n −n
1
) ´ ultimas filas nulas.
• por lo que respecta al ´ ultimo de los bloques, es decir, A
n−1
B, sus (n −n
1
)
´ ultimas filas tambi´en nulas, debido a que este bloque puede considerarse
una combinaci´ on lineal de los anteriores.
Controlabilidad y observabilidad de sistemas din´amicos 215
Por lo tanto si las (n − n
1
) ´ ultimas filas de A( son igual a cero, se concluye
observando (6) que A
21
= 0, puesto que (
1
no es nulo. Luego
A =

A
11
A
12
0 A
22

B =

B
1
0

Lo anterior conduce a descomponer el espacio de estados X en dos subespacios
X
1
y X
2
, tales que
X = X
1
⊕X
2
siendo la dim x
1
= n
1
y dim x
2
= n − n
1
. El subespacio X
1
representa los
estados controlables y el subespacio X
2
los no controlables. En efecto,
˙ x
1
= A
11
x
1
+ A
12
x
2
+ B
1
u
˙ x
2
= A
22
x
2
y = c
1
x
1
+ c
2
x
2
Las anteriores expresiones se pueden interpretar con ayuda de un diagrama
como se hace en la fig.11.9. En este diagrama se observa claramente c´omo las
variables de estado comprendidas en x
1
son accesibles a partir de la se˜ nal de
mando u, mientras que la x
2
no lo son. Debe observarse que las variables de
estado no controlables afectan no s´olo a la salida, sino tambi´en a la propia parte
controlable del sistema
La funci´on de transferencia de
¸
depende exclusivamente de (A
11
B
1
, c
1
) ya
que, por definici´on de F de T, esta se obtiene considerando condiciones iniciales
nulas y para x
2
(0) = 0 se tendr´a x
2
(t) = 0 para todo valor de t > 0. Es decir,
a partirse condiciones iniciales nulas los estados no controlables permanecen en
reposo.
Ejemplo
Sea el sistema
A =

¸
¸
1 0 0
1 1 2
−1 0 −1
¸

B =

¸
¸
1
1
−1
¸

Controlabilidad y observabilidad de sistemas din´amicos 216
y
u
C
2
C
1
+
x
1
x
2
Σ
1
Σ
2
¯ x
1
=
¯
A
11
¯ x
1
+
¯
A
12
¯ x
2
+
¯
B
1
u
¯ x
2
=
¯
A
22
¯ x
2
Figura 11.9: Diagrama de bloques de un sistema no controlable
Su matriz de controlabilidad ser´a
( =

¸
¸
1 1 1
1 0 1
−1 0 −1
¸

Para determinar T se hace
(( I) =

¸
¸
1 1 1 1 0 0
1 0 1 0 1 0
−1 0 −1 0 0 1
¸

¸
¸
1 1 1 1 0 0
0 −1 0 −1 1 0
0 1 0 1 0 1
¸

¸
¸
1 1 1 1 0 0
0 −1 0 −1 1 0
0 0 0 0 1 1
¸

Luego
Controlabilidad y observabilidad de sistemas din´amicos 217
T =

¸
¸
1 0 0
−1 1 0
0 1 1
¸

Para determinar T
−1
se hace
(T I) =

¸
¸
1 0 0 1 0 0
−1 1 0 0 1 0
0 1 1 0 0 1
¸

¸
¸
1 0 0 1 0 0
0 1 0 1 1 0
0 1 1 0 0 1
¸

¸
¸
1 0 0 1 0 0
0 1 0 1 1 0
0 0 1 −1 −1 1
¸

Luego
T
−1
=

¸
¸
1 0 0
1 1 0
−1 −1 1
¸

A partir de T y T
−1
se tendr´a
A = T A T
−1
=

¸
¸
1 0 2
−1 −1 2
0 0 1
¸

B = T B =

¸
¸
1
0
0
¸

Es decir
˙ x =

¸
¸
1 0 0
−1 −1 2
0 0 1
¸

x +

¸
¸
1
0
0
¸

u
El subsistema controlable ser´a
Controlabilidad y observabilidad de sistemas din´amicos 218
d
dt

x
1
x
2

=

1 0
−1 −1

x
1
x
2

+

1
0

u
11.6 Observabilidad de sistemas din´amicos li-
neales
El concepto de estado tiene una importancia capital al considerar la descripci´on
interna de los sistemas din´amicos. Sin embargo, se recordar´a que el concepto de
estado ha sido introducido como un objeto abstracto, sin ninguna referencia, en
principio, a magnitudes f´ısicas medibles. Es decir, en un sistema las se˜ nales que
son medibles son las de entrada u y las de salida y, siendo el estado x un concepto
abstracto que se introduce para simplificar el tratamiento formal de los sistemas
din´amicos. Por lo tanto un problema de inter´es b´asico ser´a el de determinar a
partir de las se˜ nales que son accesibles, es decir, las se˜ nales de entrada y de salida
del sistema, el estado en una de las representaciones.
Observabilidad
La observabilidad se refiere a la posibilidad de reconstrucci´on del estado a
partir de la medida de las se˜ nales de salida y de entrada. Sin embargo, se pueden
considerar dos problemas separados a la hora de considerar la reconstrucci´on del
estado. Uno de ellos trata de deducir el valor del estado en el instante presente a
partir de las observaciones pasadas, y el otro trata de deducir el valor del estado
en un instante determinado a partir de observaciones posteriores. Con el fin de
precisar estos conceptos se establecen las siguientes definiciones.
11.6.1 Introducci´on a la observabilidad
1. Sistemas en tiempo discreto
Ejemplo
Sea el sistema aut´onomo (es decir, el sistema con u(t) = 0):
x
1
(k + 1) = x
1
(k) + x
2
(k)
x
2
(k + 1) = 2x
2
(k)
x(k + 1) = Ax(k)
Controlabilidad y observabilidad de sistemas din´amicos 219
y(k) = x
1
(k)
A =
¸
1 1
0 2
¸
C =

1 0

Se mide el sistema en los k = 0 y k = 1.
y(0) = Cx(0) = x
1
(0)
y(1) = Cx(1) = CAx(0) = x
1
(0) + x
2
(0)
luego
y(0) = x
1
(0)
y(1) = x
1
(0) + x
2
(0)
x
1
(0) = y(0)
x
2
(0) = y(1) −y(0)
2. Sistema no observable
Sea A como antes pero
y(k) = x
2
(k)
C =

0 1

entonces se tendr´a
y(0) = x
2
(0)
y(0) = Cφx(0) = 2x
2
(0)
Controlabilidad y observabilidad de sistemas din´amicos 220
luego
x
2
(0) = y(0) =
1
2
y(1)
pero no se puede determinar x
1
(0). El sistema no es observable [debido a
la dependencia lineal entre C y CA ].
3. Caso general
x
k+1
= Ax
k
y
k
= Cx
k
x
k
= A
k
x
0
y(k) = CA
k
x
0
y
0
= Cx
0
y
1
= CAx
0
.
.
. =
y
n−1
= CA
n−1
x
0

y
0
y
1
.
.
.
y
n−1
¸
¸
¸
¸
¸
¸
=

C
CA
.
.
.
CA
n−1
¸
¸
¸
¸
¸
¸
x
0
O =

C
CA
. . .
CA
n−1
¸
¸
¸
¸
¸
se requiere que O sea una matriz de rango completo.
11.6.2 Observabilidad
Definici´on Un sistema
¸
se dice observable en el instante t
0
, si y s´olo si para
todo estado x(t
0
)X, existe un tiempo t > t
0
tal que el conocimiento de u(t
0
, t),
de y(t
0
, t) y de (A, C) basta para determinar x(t
0
).
Controlabilidad y observabilidad de sistemas din´amicos 221
11.6.3 Reconstructibilidad
Definici´on Un sistema
¸
se dice reconstructible en t
0
, si y s´olo si ∀x(t
0
) ∈ X, t <
t
0
tal que el conocimiento de u[t, t
0
], de y[t, t
0
] y de (A, C) basta para determinar
x(t
0
).
De las anteriores definiciones se desprenden los siguientes problemas:
Problema de observaci´on: El estado actual x(t) debe determinarse a partir de
las entradas y salidas futuras u(τ), y(τ) : τ ≥ t.
Problema de la reconstrucci´on El estado actual x(t) debe determinarse a partir
de las entradas y salidas pasadas u(τ), y(τ) : τ :≥ t.
Por la propia definici´on de invariancia en el tiempo es claro que para sistemas
invariantes en el tiempo ambos problemas son equivalentes, es decir,
Observabilidad ⇔ reconstructibilidad
En lo que sigue se considerar´a ´ unicamente el problema de la observaci´ on.
11.6.4 Criterio de observabilidad
Para los sistemas lineales invariantes en el tiempo existe un criterio algebraico
que permite discernir si el sistema ser´a observable o no. Ese criterio est´a basado
en la determinaci´on del rango de una matriz que depende exclusivamente del par
(A, C). El criterio se establece por medio del siguiente teorema.
Teorema
Un sistema
¸
es observable si y s´olo si
rango O = n
en donde O =

C
T
A
T
C
T
... (A
n−1
)
T
C
T

T
y n = dim x.
La matriz O recibe el nombre de matriz de observabilidad
Demostraci´on
1. Necesidad
Controlabilidad y observabilidad de sistemas din´amicos 222
Se trata de demostrar que si el sistema es observable, entonces el rango O =
n. Ello es equivalente, por contradicci´on, a decir que si el rango O < n
entonces el sistema es no observable.
En efecto sup´ongase rango O < n y u(t) = 0
Para todo t ∈ [t
0
, t
1
], se sabe que
y(t) = Ce
At
x(t
0
)
=
n−1
¸
i=0
α
i
(t)CA
i
x(0) (11.10)
Es sabido que el rango de una matriz es el mismo que el de su transpuesta.
Es decir, que si el rangoO = n
1
< n, entonces el rango O
T
= n
1
. El hecho
de que rango O
T
= n
1
< n implica que las columnas de O
T
no generan el
espacio de n dimensiones, es decir no generan X = R
n
.
El hecho de que las columnas de O
T
no generen R
n
implica que existe un
vector υR
n
, υ = 0, tal que es ortogonal a las columnas de O
T
, es decir,

(A
K
)
T
C
T

O
T
= C A
K
υ = 0
De (8) se tiene que para todo estado inicial x(t
0
) = KυKεR, la salida ser´a
y(t) = 0
lo que significa que existen estados iniciales x(t
0
) = 0 (todos los que de la
forma Kυ) los cuales no pueden determinarse (distinguirse por observaci´ on
de la se˜ nal de salida y(t) ante una entrada nula u[t
0
, t
1
] = 0. Ello est´a en
contradicci´on con la hip´otesis de que
¸
sea observable.
2. Suficiencia
Se trata de demostrar que si el rango O = n entonces el sistema es observ-
able, o lo que es lo mismo, por contradicci´on, que el hecho de que el sistema
sea no observable, implica que el rango O < n.
Sup´ongase que
¸
no es observable. Entonces deben existir al menos dos
estados x
1
y x
2
tales que x
1
= x
2
y x
1
indistinguible de x
2
. Es decir
Ce
AT
x
1
≡ Ce
AT
x
2
Sea x
0
= x
1
−x
2
; entonces la respuesta de
¸
para u = 0 a partir de x
0
ser´a
Controlabilidad y observabilidad de sistemas din´amicos 223
y(t) = Ce
AT
x
0
≡ 0 (11.11)
es decir que el estado x
0
es indistinguible del estado de reposo.
Derivando (11.11) n −1 veces se tiene
Ce
At
x
0
= 0
CAe
At
x
0
= 0
A
n−1
e
At
x
0
= 0
Cx
0
= 0
CAx
0
= 0
.
.
.
CA
n−1
x
0
= 0
es decir

¸
¸
¸
¸
¸
C
CA
.
.
.
CA
n−1
¸

x
0
= 0
Ox
0
= 0
lo que implica rango O < n, ya que x
0
= 0. Por lo tanto que el sistema
sea no observable implica que rango O < n.
11.7 Sistemas continuos
Sea el cilindro con inercia unitaria, y sin rozamiento que hemos visto en los
ejemplos de introducci´on.
Controlabilidad y observabilidad de sistemas din´amicos 224
1. Supongamos, en primer lugar, que la salida del sistema es la posici´on angular
del cilindro. En tal caso, la descripci´on interna del sistema viene dada por
˙ x =
¸
0 1
0 0
¸
x +
¸
0
1
¸
u
es decir:
A =
¸
0 1
0 0
¸
B =
¸
0
1
¸
y = [1 0]x
Si se deja evolucionar libremente, a partir de unas condiciones iniciales
x
1
(0), x
2
(0) el cilindro girar a velocidad constante. Si se registra la salida
en el per´ıodo (0, T) se obtendr´a una recta inclinada como la de la figura
11.10. De este registro se puede obtener f´acilmente:
x
1
(0)
y
T
t
x
2
(0)
Figura 11.10: Trayectoria del sistema
(a) La velocidad inicial, que es la pendiente de la recta.
(b) La posici´on inicial, que es la coordenada en el origen.
Por tanto a partir del registro de la salida y(t) es posible reconstruir el
estado inicial del sistema. El sistema es por tanto observable.
2. Supongamos ahora que la salida, en lugar de ser la posici´on, es la velocidad
de salida del sistema. En tal caso la ecuaci´on de transici´on entre estados
ser´a la misma :
˙ x =
¸
0 1
0 0
¸
x +
¸
0
1
¸
u
Controlabilidad y observabilidad de sistemas din´amicos 225
pero la funci´on de salida se convertir´ a, en este caso, en: y = [0 1]x
Si se registra ahora la salida se obtendr´a una recta horizontal, ya que en vir-
tud del principio de inercia la velocidad de rotaci´on del cilindro permanece
constante. Se tendr´a, entonces, la evoluci´on de la salida que se indica en la
figura 11.11. De esta figura se obtiene inmediatamente la velocidad inicial
del cilindro, que es la ordenada de la recta. Pero no se puede obtener su
posici´on. Del sistema, en este caso, no es observable.
y
T
t
x
2
(0)
Figura 11.11: Evoluci´on de la velocidad del sistema
11.8 P´erdida de observabilidad por muestreo
Sea el sistema [oscilador lineal no amortiguado].
¨ y + a
2
y = a
2
u
A =
¸
0 1
−a
2
0
¸
b =
¸
0
a
2
¸
c =

1 0

y = x
1
˙ y = x
2
Este sistema es claramente observable
Controlabilidad y observabilidad de sistemas din´amicos 226
O =
¸
1 0
0 1
¸
Supongamos que se muestrea
sI −A =
¸
s −1
a
2
s
¸
φ(s) = (sI −A)
−1
=
1
s
2
+ a
2
¸
s 1
−a
2
s
¸
=

s
s
2
+ a
2
1
s
+
a
2

a
2
s
2
+ a
2
s
s
2
+ a
2
¸
¸
¸
¸
luego
φ(t) =

¸
cos (aT)
1
a
sin(aT)
−a sin(aT) cos (aT)
¸

se tendr´a
O =

1 0
cos (aT)
1
a
sin(aT)
¸
¸
El sistema ser´a no observable si
sin(aT) = 0 T =

a
(k entero)
Por tanto, para determinados valores del per´ıodo del muestreo T el sistema
pierde su observabilidad.
Controlabilidad y observabilidad de sistemas din´amicos 227
11.8.1 Notas sobre observabilidad
Se pueden hacer consideraciones semejantes a las desarrolladas en la secci´on re-
specto a la controlabilidad.
En particular, y relativo a un cambio de base en X, se tiene que si x = Tx,
se tendr´a que
OT = O
El resto de las notas se extienden ”mutatis mutandis” a la observabilidad.
11.9 Descomposici´on del espacio de estados en
sus partes observables y no-observables
De manera completamente similar a como se hizo en la secci´on 4 se puede de-
scomponer el espacio de estados en sus partes observable y no-observable. Al
igual que se hizo all´ı sup´ongase Σ = (A, b, c).
Si
rango O = n
1
< n
entonces existe una transformaci´on no singular T tal que
T
T
O
T
=

¸
¸
O
1
T
. . .
0
¸

en donde O
1
T
: n
1
np. La determinaci´on de O
1
se hace a partir de

O
T
I

obteniendo una matriz equivalente
Controlabilidad y observabilidad de sistemas din´amicos 228

O
1
T
.
.
. I

¸
¸
¸
¸
O
1
T
.
.
.

.
.
. T
T
0
.
.
.
¸

Si se hace x = T
−1
x es f´acil ver que
A =

A
11
0
A
21
A
22

B =

B
1
B
2

C =

C
1
0

La demostraci´on es, en todo, excepto el detalle antes indicado, similar a la
vista en la secci´on de controlabilidad. Se invita al lector a desarrollarla ´el mismo.
En las bases que resultan de la anterior transformaci´on, el sistema Σ puede
escribirse como sigue:
˙ x = A
11
x
1
+ B
1
u
˙ x
2
= A
21
x
1
+ A
22
x
2
+ B
2
u
y = C
1
x
1
Esta forma de escribir el sistema puede representarse como se hace en el dia-
grama de bloques de la figura 11.12, en donde es aparente que s´olo el subespacio
x
1
es observable, es decir, solo este subespacio influye sobre la salida. Adem´as,
es evidente que la funci´on de transferencia del sistema considerado depende ex-
clusivamente de la terna (A
11
, B
1
, C
1
), es decir, que un sistema con esta ´ ultima
terna tiene la misma funci´on de transferencia que el sistema original.
Controlabilidad y observabilidad de sistemas din´amicos 229
x
2
= A
21
x
1
+A
22
x
2
+B
2
u
¯ x
1
=
¯
A
11
¯ x
1
+
¯
B
1
u
C
1
y
Figura 11.12: Diagrama de bloques de un sistema no observable
11.10 Descomposici´on can´onica del espacio de
estados
Por aplicaci´on sucesiva de las transformaciones indicadas en las secciones de de-
scomposici´on en partes obs. y control. o no, se pueden extraer las partes contro-
lable y observable de un sistema din´amico lineal.
El resultado se puede enunciar como sigue:
Sea Σ = (A, B, C). Si rango O( = n
1
< n entonces existe Σ = (A, B, C) tal
que:
1. Σ ∼ Σ
2.
A =

¸
¸
A
11
0 A
13
A
21
A
22
A
23
0 0 A
33
¸

B =

¸
¸
B
1
B
2
0
¸

C =

C
1
0 C
3

Se dice que (A
11
, B
1
, C
1
) es el subsistema controlable y observable de Σ.
Controlabilidad y observabilidad de sistemas din´amicos 230
La funci´on de transferencia del sistema (A, B, C, ) es la misma que la del
sistema (A
11
, B
1
, C
1
). Es decir, que solo las partes controlables y observables
de un sistema influyen en su funci´on de transferencia, o sea, en su descripci´on
externa. Este resultado ser´a tratado con detenimiento en el cap´ıtulo del problema
de la realizaci´on m´ınima, que es aquella que dando lugar a la misma funci´on de
transferencia, o descripci´on externa, tiene una dimensi´on del vector de estados X
m´ınima.
Ejemplo:
Se trata de extraer la parte controlable y observable del sistema cuyo terna
(A, B, C) es el siguiente:
A =

¸
¸
1 0 0
1 1 2
−1 0 −1
¸

B =

¸
¸
1
1
−1
¸

C =

1 1 1

La matriz de controlabilidad es
( =

¸
¸
1 1 1
1 0 1
−1 0 −1
¸

cuyo rango es 2. Por lo tanto la dimensi´on del subespacio controlable es 2.
(( I) =

¸
¸
1 1 1 1 0 0
1 0 1 0 1 0
−1 0 −1 0 0 1
¸


¸
¸
1 1 1 1 0 0
0 −1 0 −1 1 0
0 1 0 1 0 1
¸


¸
¸
1 1 1 1 0 0
0 −1 0 −1 1 0
0 0 0 0 1 1
¸

luego
Controlabilidad y observabilidad de sistemas din´amicos 231
T =

¸
¸
1 0 0
−1 1 0
0 1 1
¸

y
T
−1
=

¸
¸
1 0 0
1 1 0
−1 −1 1
¸

Por lo tanto
A = TAT
−1
=

¸
¸
1 0 0
−1 −1 2
0 0 1
¸

B = TB =

¸
¸
1
0
0
¸

C = CT
−1
=

1 0 1

Luego la parte controlable de (A, B, C) es
A
c
=

1 0
−1 −1

B
c
=

1
0

C
c
=

1 0

La matriz de observabilidad de (A
c
, B
c
, C
c
) es
O
c
=

1 0
1 0

Controlabilidad y observabilidad de sistemas din´amicos 232
cuyo rango es 1.
Una atenta observaci´ on de (A
c
, B
c
, C
c
) pone de manifiesto que, casualmente,
no es necesario aplicar el algoritmo de descomposici´on puesto que ya es aparente.
En efecto el subsistema observable de (A
c
, B
c
, C
c
) es
A
m
= 1
b
m
= 1
c
m
= 1
La parte observable y controlable de un sistema recibe el nombre de realizaci´on
m´ınima del mismo.
En general la terna (A
c
, B
c
, C
c
) necesitar´a ser sometida al algoritmo de de-
scomposici´on para la extracci´on de su parte observable.
Se va a comprobar que la funci´on de transferencia de (A
m
, B
m
, C
m
) es la
misma que la de (A, B, C). En primer lugar se calcula (sI − A)
−1
. para ello se
aplica el algoritmo de Leverrier (Wiherg, pag. 102).
A =

¸
¸
1 0 0
1 1 2
−1 0 −1
¸

F
1
= I
a
1
= −˜ r AF
1
/1 = −1
F
2
= AF
1
+ a
1
I =

¸
¸
0 0 0
1 0 2
−1 0 −2
¸

a
2
= ˜ rAF
2
/2 = −1
F
3
= AF
2
+ a
2
I =

¸
¸
−1 0 0
−1 −1 −2
1 0 1
¸

a
3
= −˜ rAF
3
/3 = 1
luego
Controlabilidad y observabilidad de sistemas din´amicos 233
(sI −A)
−1
=
1
∆(s)

¸
¸
s
2
−1 0 0
s −1 s
2
−1 2s −2
−s + 1 0 s
2
−2s + 1
¸

siendo ∆(s) = s
3
−s
2
−s + 1.
Es f´acil ver que
T(s) = c(sI −A)
−1
b =
(s
2
−1)
s
3
−s
2
−s + 1
=
s
2
−1
(s
2
−1)(s −1)
=
1
s −1
que es la misma funci´on de transferencia que se obtiene de la terna (A
m
, B
m
, C
m
).
11.11 Formas can´onicas
Las expresiones estudiadas permiten transformar la terna (A, B, C) en otra forma
de representaci´ on, de manera que se siga representando el mismo sistema din´amico.
Desde un punto de vista del espacio de estados ello es equivalente a que el vector
de estados se puede representar en distintas bases. Debe resaltarse, sin embargo,
que el vector de estados es un objeto abstracto, sin ninguna referencia, en princi-
pio, con magnitudes f´ısicas medibles. Es decir, no existe una base ”natural” para
representar a X.
Ello hace que seg´ un la naturaleza del problema a tratar se adopten unas
bases para el vector de estado que hagan que la forma que toma en ellas la terna
(A, B, C) sea lo m´as c´omoda posible para la resoluci´on del problema en cuesti´on.
En ello reside una de las grandes ventajas del uso de la descripci´on interna, ya
que ´esta permite escoger la forma de representaci´on de la terna (A, B, C) m´as
c´omoda en cada caso.
Aunque se pueden concebir m´ ultiples formas para la terna (A, B, C) existen
dos especialmente interesantes para las aplicaciones pr´acticas a problemas de con-
trol. Son estas: La forma can´onica de control y la forma can´onica de observaci´on.
Cada una de ellas est´a relacionada con los problemas de control y de observaci´ on
seg´ un se ver´ a en lo que sigue.
En otro apartado se introdujeron las formas can´onicas de control y obser-
vaci´on, al obtener la representaci´ on por variables de estado, de una forma in-
Controlabilidad y observabilidad de sistemas din´amicos 234
tuitiva. Aqu´ı se introducir´an estas formas can´onicas bajo una ´optica algebraica
que permita tanto su generalizaci´on c´omoda a sistemas multivariables como su
aplicaci´on pr´actica.
Formas can´onicas de control
d(s)y = n(s)u
Sea la nueva variable v tal que
d(s)v = u
luego
d(s)y = n(s)d(s)v
es decir
y = n(s)v
Sea
x
1
= v
x
2
= ˙ x
1
= ˙ v
.
.
.
.
.
.
.
.
.
x
n
= ˙ x
n−1
= v
(n−1)
d(s)v = u ⇒ ˙ x
n
= a
n
x
1
−a
n−1
x
2
− + u
y = n(s)v ⇒ y = b
1
v
(n−1)
+b
2
v
(n−2)
+ +b
n−1
˙ v+b
v
n
= b
n
x
1
+b
n−1
x
2
+ b
1
x
n
En resumen
Controlabilidad y observabilidad de sistemas din´amicos 235

˙ x
1
˙ x
2
˙ x
3
.
.
.
˙ x
n−1
˙ x
n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
=

0 1 0 ... 0
0 0 1 ... 0
0 0 0 ... 1
−a
n
−a
n
1 −a
n−1
... −a
1
¸
¸
¸
¸
¸

x
1
x
2
...
...
...
x
n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+

0
0
...
...
...
1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
n
Sistemas monovariables
Sea el sistema Σ = (A, B, C), cuya matriz de controlabilidad es
( =

B AB ... A
n−1
B

Si se cambia de base al vector x de manera que x = T
c
x se tendr´a (apartado
4.2).
T
c
= ((
−1
Todo sistema monovariable controlable se puede representar en unas bases x
tales que
A =

¸
¸
¸
¸
¸
¸
¸
¸
0 1 0 ... 0
0 0 1 ... 0
0 0 0 ... 1
.
.
.
.
.
.
.
.
.
.
.
.
−a
n
−a
n−1
−a
n−2
... −a
1
¸

B
T
=

0 0 0 ... 1

C =

b
n
b
n−1
b
n−2
... b
1

siendo la funci´on de transferencia del sistema
Controlabilidad y observabilidad de sistemas din´amicos 236
G(s) =
b
1
s
n−1
+ b
2
s
n−2
+ + b
n
s
n
+ a
1
s
n−1
+ a
2
s
n−2
+ + a
n
Al par (A, b) corresponde una matriz de controlabilidad ( cuya forma es:
( =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
0 0 0 0 1
0 0 0 1 β
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
0 1 β
1
β
n−3
β
n−2
1 β
1
β
2
β
n−2
β
n−1
¸

(11.12)
En donde los elementos β, se generan de acuerdo con la recurrencia
β
i
=

−a
n
−a
n−1
... −a
1

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
0
0
.
.
.
β
o
.
.
.
β
i−2
β
i−1
¸

siendo β
o
= 1. Es decir ( puede construirse a partir del conocimiento de los
coeficientes del denominador de G(s) o del polinomio caracter´ıstico de A.
Es f´acil ver tambi´en que
(
−1
=

¸
¸
¸
¸
¸
¸
¸
a
n−1
a
n−2
... a
1
1
a
n−2
a
n−3
... 1 0
...
a
1
1 ... 0 0
1 0 ... 0 0
¸

(11.13)
basta comprobar que ((
−1
= I.
De todo lo anterior se concluye que a partir de la terna (A, B, C), en forma
arbitraria, es posible determinar una transformaci´on T
c
que transforme dicha
Controlabilidad y observabilidad de sistemas din´amicos 237
terna en la forma can´onica de control. Para determinar T
c
se procede como
sigue:
1. Se determina ( a partir de (A, B) y se invierte. Se tiene (
−1
.
2. Se determina ( a partir del polinomio caracter´ıstico de A (recordar (10)).
3. Se hace T
c
= ((
−1
.
Una forma alternativa de proceder es la siguiente:
1. Se determina ( a partir de (A, B).
2. Se determina (
−1
a partir del polinomio caracter´ıstico de A (recordar (11)).
3. Se hace T
−1
c
= ((
−1
Como siempre se requiere T
c
y T
−1
c
el segundo procedimiento evita una in-
versi´on de matrices.
Ejemplo
Sea el sistema din´amico cuya terna (A, B, C) es la siguiente:
A =

¸
¸
1 1 0
0 1 −1
2 3 1
¸

B =

¸
¸
1
1
−1
¸

C =

0 1 2

Se trata de determinar su forma can´onica de control.
La matriz de controlabilidad es
( =

¸
¸
1 2 4
1 2 −2
−1 4 14
¸

Controlabilidad y observabilidad de sistemas din´amicos 238
y el polinomio caracter´ıstico de A es
ϕ(A) = s
3
−3s
2
+ 6s −2
Luego (expresi´on (2))
(
−1
=

¸
¸
6 −3 1
−3 1 0
1 0 0
¸

T
−1
c
= ((
−1
=

¸
¸
4 −1 1
−2 −1 1
−4 7 −1
¸

T
c
=

¸
¸
0, 1667 −0, 1667 0
0, 1667 0 0, 1667
0, 5 0, 6667 0, 1667
¸

La forma can´onica de control es x = Tx
A = T
c
AT
−1
c
=

¸
¸
0 1 0
0 0 1
2 −6 3
¸

B = T
c
B =

¸
¸
0
0
1
¸

C = CT
−1
C
=

−10 13 −1

Obs´ervese que para determinar A y B basta con conocer el polinomio car-
acter´ıstico de A; por lo tanto no se necesita emplear las expresiones anteriores,
ni se requiere el conocimiento de T
c
, ni de T
−1
c
. Para lo que si es indispensable
la determinaci´on de T
−1
c
es para calcular (. Pero, obs´ervese, que solo para este
´ ultimo caso se necesita conocer T
−1
c
, de modo que puede evitarse el determinar
T
c
, evitando as´ı el tener que invertir la matriz T
−1
c
. Es decir, la determinaci´on de
la terna (A, B, C) a partir de la (A, B, C), puede hacerse sin tener que recurrir
Controlabilidad y observabilidad de sistemas din´amicos 239
a ninguna inversi´ on inicial, ya que la determinaci´on de T
−1
c
, de acuerdo con el
segundo de los m´etodos antes propuestos, puede hacerse sin necesidad de invertir
ninguna matriz. Este hecho es de gran importancia en las aplicaciones pr´acticas
por evitar una operaci´on que tantas dificultades comporta.
A partir de la terna (A, B, C) es inmediato escribir la funci´on de transferencia
del sistema que en este caso resulta ser
G(s) =
−s
2
+ 13s −10
s
3
−3s
2
+ 6s −2
Por lo tanto, la determinaci´on de la terna (A, B, C) suministra un m´etodo indi-
recto para determinar la funci´on de transferencia asociada a una terna (A, B, C).
11.11.1 Forma can´onica de observaci´ on
Sistemas monovariables
En forma completamente similar a como se hizo en la forma can´onica de control
se puede determinar la transformaci´on T
0
tal que x = T
0
x.
A =

¸
¸
¸
¸
¸
¸
¸
¸
0 0 ... 0 −a
n
1 0 ... 0 −a
n−1
0 1 ... 0 −a
n−2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 1 −a
1
¸

B
T
=

b
n
b
n−1
b
n−2
... b
1

C =

0 0 ... 1

Seg´ un se vio la terna (A, B, C) recibe el nombre de forma can´onica de obser-
vaci´on.
Si x = T
0
x se tendr´a
T
0
= O
−1
O
Controlabilidad y observabilidad de sistemas din´amicos 240
Procedimiento en forma similar a como se hizo en la forma can´onica de control,
se puede ver que
O
−1
=

¸
¸
¸
¸
a
n−1
a
n−2
... a
1
1
a
n−2
a
n−3
... 1 0
...a
1
1 ... 0 0
1 0 ... 0 0
¸

Se puede concebir un procedimiento para obtener la forma can´onica de obser-
vaci´on similar al desarrollo en la forma can´onica de control. Para determinar T
0
se procede como sigue:
1. A partir de (A, C) se determina O.
2. A partir del polinomio caracter´ıstico de A se determina O
−1
.
3. Se hace T
0
= O
−1
O.
Ejemplo
Sea el sistema considerado en el ejemplo de la forma can´onica de control. Se
trata de determinar su forma can´onica de observaci´on.
Se tiene
O
−1
=

¸
¸
6 −3 1
−3 1 0
1 0 0
¸

y
O =

¸
¸
0 1 2
4 7 1
6 14 −6
¸

luego
Controlabilidad y observabilidad de sistemas din´amicos 241
T
0
= O
−1
O =

¸
¸
−6 −1 3
4 4 −5
0 1 2
¸

T
−1
0
=

¸
¸
0, 2241 −0, 0862 0, 1207
0, 1379 0, 2069 0, 3103
−0, 0690 −0, 1034 0, 3448
¸

Es decir
A = T
0
AT
−1
0
=

¸
¸
0 0 2
1 0 −6
0 1 3
¸

B = T
0
B =

¸
¸
−10
13
−1
¸

C = CT
−1
0
=

0 0 1

Tema 12
S´ıntesis de sistemas de control
por variables de estado
12.1 Ley de Control
Al definir el estado de un sistema din´amico, se ha visto como ´este resume el pasado
din´amico del sistema, y es cuanto se necesita para predecir la futura evoluci´on
del mismo. Es decir, conocido el estado de un sistema en un instante determi-
nado, est´a completamente determinada la evoluci´ on del sistema a partir de dicho
instante. Con otras palabras, conocido el estado en un instante determinado, los
valores que toma la se˜ nal de salida a partir de dicho instante, dependen exclusi-
vamente de la se˜ nal de entrada que se aplique a partir del instante en el que se
ha definido el estado.
Al dise˜ nar un sistema de control lo que se pretende es conseguir para el sis-
tema una evoluci´ on preestablecida. Se trata de determinar las se˜ nales de en-
trada que hay que aplicar al sistema para que la evoluci´ on del mismo sea la
requerida. Puesto que el estado es cuanto se necesita conocer para predecir la
futura evoluci´on de un sistema, es claro que cuanto se necesitar´a saber para poder
adoptar una decisi´on respecto a qu´e se˜ nales aplicar al sistema ser´a, precisamente,
el estado.
Es decir, una ley de control (pol´ıtica de mando) es una relaci´on que liga la
se˜ nal de mando que se aplica al sistema y el estado en que ´este se encuentra,
supuesto definida previamente una meta de la acci´on.
242
S´ıntesis de sistemas de control por variables de estado 243
El principio en virtud del cual los valores de la se˜ nal de entrada deben cal-
cularse a partir del estado, fue enunciado por Richard Bellman a mediados de
la d´ecada de los cincuenta, y puede considerarse como la idea fundamental de la
teor´ıa moderna de control. El punto principal reside en que el estado incorpora
toda la informaci´on necesaria para determinar las acciones de control que deben
ser tomadas, puesto que la evoluci´ on futura del sistema est´a completamente de-
terminada por el estado presente y los valores futuros de la se˜ nal de entrada.
Cuando la meta es la reproducci´on a la salida de una se˜ nal de referencia r se
podr´a escribir la ley de control en la forma
u = f(x, r)
que se puede interpretar gr´aficamente en la figura 12.1.
B
A
˙ x

x
C
y
B
A
˙ x

x
C
y
REGULADOR
b)Sistema en bucle
cerrado
u
a) Sistema en bucle
abierto
Figura 12.1: Sistema de control por variables de estado
Debe notarse, que en el esquema de la figura 12.1-b se supone que los compo-
S´ıntesis de sistemas de control por variables de estado 244
nentes del vector de estado se pueden identificar con magnitudes f´ısicas medibles
y que son estas magnitudes las que definen las se˜ nales que se realimentan. El
caso en que la anterior identificaci´on no sea posible se discutir´a m´as adelante.
En lo que sigue se considerar´an leyes de control lineales de la forma
u = k (r −(k
1
x
1
+ k
2
x
2
+ + k
n
x
u
)) = k (r −K x) (12.1)
siendo
K = (k
1
k
2
... k
u
)
La representaci´on gr´afica de una ley de control lineal para sistemas monovari-
ables se tiene en la figura 12.2.
B
A
˙ x

x
C
y
REGULADOR
- +
u
X
K
PLANTA
Figura 12.2: Control lineal
La introducci´on de una ley de control lineal da lugar, en bucle cerrado, al
siguiente sistema:
• en bucle abierto se tiene:
˙ x = Ax + Bu
S´ıntesis de sistemas de control por variables de estado 245
si se hace
u = k (r −Kx)
se tendr´a :
• en bucle cerrado
˙ x = Ax + kB(r −Kx) (12.2)
= (A −kBK)x + Bkr
y = Cx (12.3)
cuya funci´on de transferencia es
Y (s)
R(s)
= C(sI −A + kBK)
−1
Bk (12.4)
Para aclarar el efecto de la ley de control lineal se puede recurrir a dos in-
terpretaciones. Estas interpretaciones se hacen, sin p´erdida de generalidad, para
n = 2.
12.1.1 Interpretaci´on por diagramas
Sea el sistema din´amico descrito por la ecuaci´on diferencial
¨ y + a
1
˙ y + a
2
y = u (12.5)
cuya funci´on de transferencia es
Y (s)
U(s)
=
1
s
2
+ a
1
s + a
2
(12.6)
y cuyo diagrama se tiene en la figura 12.3 a).
u = k (r −k
1
x
1
−k
2
x
2
) (12.7)
S´ıntesis de sistemas de control por variables de estado 246
se tendr´a el sistema cuyo diagrama se tiene en la figura 12.3 b), que a su vez
puede simplificarse al de la figura 12.3 c).
De la figura 12.3 c) se desprende f´acilmente que la funci´on de transferencia en
bucle cerrado ser´a
Y (s)
R(s)
=
k
s
2
+ (a
1
+ kk
2
)s + (a
2
+ kk
1
)
(12.8)
12.1.2 Interpretaci´on algebraica
El sistema din´amico
¨ y + a
1
˙ y + a
2
y = u (12.9)
admite una representaci´on por variables de estado cuya forma can´onica de
control es
A =

0 1
−a
2
−a
1

B =

0
1

C =

1 0

Si se le aplica una ley de control de la forma
u = kr −k (k
1
k
2
) x
Se tendr´a
˙ x =

0 1
−a
2
−a
1

x −

0
1

kk
1
kk
2

x + k r

S´ıntesis de sistemas de control por variables de estado 247
r
r
K
c)
−(a
1
+Kk
2
)
−(a
2
+Kk
1
)
y u x
2 x
1
1
y u
1
x
1
x
2
−K k
1
−K k
2
K
b)
a)
−a
1
−a
2
−a
1
−a
2
y u x
2 x
1
1
1
s
1
s
1
s
1
s
1
s
1
s
Figura 12.3: Control por variables de estado de un sistema de segundo orden
S´ıntesis de sistemas de control por variables de estado 248
˙ x =

0 1
−a
2
kk
1
−a
1
−kk
2

x +

0
k

r
y =

1 0

x
Cuya funci´on de transferencia es
Y (s)
R(s)
=
k
s
2
+ (a
1
+ kk
2
) s + (a
2
+ kk
1
)
que coincide con la expresi´on (9) obtenida m´as arriba.
Como resumen de lo anterior cabe decir que por una conveniente elecci´on de
la ley de control puede alterarse arbitrariamente el denominador de la funci´on
de transferencia en bucle cerrado del sistema, dejando inalterado el numerador
excepto en la constante k.
Normalmente, en lo que se sigue, se har´a k = 1.
12.1.3 Determinaci´on de la ley de control
Sistemas monovariables
Se supondr´a k = 1. En caso contrario los coeficientes de la ley de control vendr´ an
afectados por la constante k. Es decir la ley de control que se adopta es de la
forma
u = r −Kx
siendo
K = (k
1
k
2
... k
n
)
Sup´ongase que A (en bucle abierto) tiene un polinomio caracter´ıstico.
S´ıntesis de sistemas de control por variables de estado 249
ϕ(A) = s
n
+ a
1
s
n−1
+ + a
n
(12.10)
Y sup´ongase que se quiere tener en bucle cerrado una matriz A

tal que
ϕ(A

) = s
n
+ α
1
s
n−1
+ + α
n
(12.11)
Este polinomio ser´a, precisamente, el denominador de la funci´on de transfer-
encia en bucle cerrado.
Si el sistema se escribe en la forma can´onica de control la ley de control tendr´a
unos coeficientes
K = (α
n
−a
n
α
n−1
−a
n−1
... α
1
−a
1
) (12.12)
En efecto, es inmediato comprobar que escribiendo (A, B) en la forma can´onica
de control se tiene
A

= A −BK =

¸
¸
¸
¸
¸
¸
¸
¸
0 1 0 ... 0
0 0 1 ... 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 ... 1
−α
n
−α
n−1
−α
n−2
α
1
¸

Para un par (A, B) arbitrario se puede establecer el siguiente procedimiento
sistem´atico para la determinaci´on de la ley de control. Se parte de (A, B) y de
ϕ(A

):
1. se determina ϕ(A) a partir de A.
2. Se determina ( a partir de los coeficientes a
i
de ϕ(A).
3. Determinar ( a partir de (A, B). y se invierte para tener (
−1
.
4. Determinar K a partir de ϕ(A) y de ϕ(A

) de acuerdo con (12.12).
5. Determinar K = K

((
−1

.
S´ıntesis de sistemas de control por variables de estado 250
La justificaci´on del anterior procedimiento es muy simple y se deja como
ejercicio al lector. En esencia consiste en determinar la ley de control en las bases
correspondientes a la forma can´onica de control K , de acuerdo con la expresi´on
(12.12), y posteriormente transformar esta ley a las bases del par original K.
Ejemplo
Sea el sistema din´amico lineal cuyo par (A, B) es el siguiente:
A =

¸
¸
1 0 2
0 −1 0
1 0 −1
¸

B =

¸
¸
1
2
1
¸

Se pide la ley de control para que el sistema realimentado tenga un polinomio
caracter´ıstico.
ϕ(A

) = (s
2
+ s + 1) (s + 10)
Procediendo como se indica m´as arriba se tiene
1. Se calcula el polinomio caracter´ıstico de A.
ϕ(A) = (s
2
−3) (s + 1)
= s
3
+ s
2
−3s −3
Obs´ervese que el sistema es inestable.
2. Se determina ( .
β
1
=

3 3 −1

¸
¸
0
0
1
¸

= −1
β
2
=

3 3 −1

¸
¸
0
1
−1
¸

= 4
luego
S´ıntesis de sistemas de control por variables de estado 251
( =

¸
¸
0 0 1
0 1 −1
1 −1 4
¸

3. Se determina ( que resulta ser:
( =

¸
¸
1 3 3
2 −2 2
1 0 3
¸

cuya inversa es
(
−1
=

¸
¸
0, 5 0, 75 −1
0, 333 0 −0, 333
−1, 667 −0, 25 0.6667
¸

4. A partir de ϕ(A) y de ϕ(A

) se obtiene k
K = (10 −(−3) 11 −(−3) 11 −1)
= (13 14 10)
5. Se obtiene
K = K

((
−1

= (0, 1680 −2, 25 14.6681)
Se invita al lector a que compruebe que
ϕ(A −BK) = s
3
+ 11s
2
+ 11s + 10
12.2 Observadores
Seg´ un se ha visto en la secci´on 1 de la ley de control es funci´on de las variables de
estado del sistema. En consecuencia, para realizar f´ısicamente una ley de control
es necesario disponer de unas se˜ nales que reproduzcan a las componentes del vec-
tor de estado. Sin embargo al introducir la noci´on de estado se ha visto que ´este
es un concepto abstracto sin, en principio, ninguna realidad f´ısica subyacente.
S´ıntesis de sistemas de control por variables de estado 252
Es decir, que si bien en determinados casos ser´a posible identificar a los compo-
nentes del vector de estados con magnitudes f´ısicas medibles, este no ser´a el caso
m´as general. En el caso en que las variables de estado puedan identificarse con
magnitudes f´ısicas medibles se dir´a que el vector de estado es accesible.
En el caso contrario, es decir en el caso de que el vector de estado no sea acce-
sible, para poder aplicar una ley de control hay que recurrir a un camino indirecto
para obtener el estado. Consiste en dise˜ nar un sistema din´amico, denominado
observador, tal que alimentado por las se˜ nales accesibles (de entrada y/o salida)
suministre a su salida unas se˜ nales, que se denotan por ˆ x, que reproduzcan la
evoluci´on del estado del sistema original.
En otra secci´on , se ha definido el problema de la observaci´on, como un pro-
blema de reconstrucci´on del estado a partir de las se˜ nales de entrada y de salida.
En consecuencia, el observador, como sistema din´amico, no es sino una soluci´on
mecanizada del problema de la observaci´on. En consecuencia, el problema no
tendr´a soluci´on m´as que cuando el sistema sea observable; es decir, ser´a posible
sintetizar un observador solamente para un sistema observable.
Planteado as´ı, el problema de la s´ıntesis de un observador, tiene una gran
generalidad. En lo que sigue se concretar´an las soluciones de mayor inter´es.
12.2.1 Sistemas monovariables
Observador en bucle abierto
Es la soluci´on m´as simple al problema de la observaci´on del estado. Consiste,
sencillamente, en una realizaci´on f´ısica (anal´ogica) de la ecuaci´on diferencial.
˙ x = Ax + Bu (12.13)
la cual permite tener en determinados puntos las se˜ nales que reproducen al
estado.
Su diagrama se tiene en la figura 12.4.
Los inconvenientes que presenta este observador son los siguientes:
1. Para que funcione correctamente se requiere el conocimiento del estado
S´ıntesis de sistemas de control por variables de estado 253
A

u
A
˙ x

x
y
b
b c
ˆ x
OBSERVADOR
SISTEMA ORIGINAL
Figura 12.4: Observador en bucle abierto
S´ıntesis de sistemas de control por variables de estado 254
inicial.
2. Es muy sensible a los errores en la estimaci´on de los par´ametros que inter-
vienen en A y B. En particular si alg´ un auto valor de A es positivo, el m´as
m´ınimo error (siempre existente en la pr´actica) en la evaluaci´on del mismo,
o en la s´ıntesis del observador, produce la inestabilidad del conjunto.
Observador asint´ otico
Con el observador asint´ otico se pretende tener la garant´ıa de que, aunque se
produzcan problemas del tipo de los aludidos al final de la secci´on anterior siempre
cumplir´a la condici´on siguiente
lim
t→∞
(ˆ x −x) = 0 (12.14)
es decir que la se˜ nal de salida del observador ˆ x converge al estado real del
sistema x, al menos para t →∞.
El que se cumpla la propiedad de la expresi´on 12.14 se consigue muy f´acilmente
con una ligera modificaci´on del observador en bucle abierto (figura 12.4) para
convertirlo en un observador en bucle cerrado. La modificaci´on parte de una idea
muy simple que consiste en comparar la se˜ nal de salida y(t) del sistema real con
la se˜ nal de salida ˆ y que se obtiene a partir de la se˜ nal ˆ x de salida, del observador
de acuerdo con la expresi´on:
ˆ y = Cˆ x
El error entre ˆ y e y se emplea para corregir el funcionamiento del conjunto.
Una soluci´on que explota la anterior idea es la de la figura 12.5. Este obser-
vador recibe el nombre de observador de Luenberger.
Obs´ervese en la figura 12.5 que:
˙
ˆ x = Aˆ x + L(y −Cˆ x) + Bu (12.15)
es decir
S´ıntesis de sistemas de control por variables de estado 255
u
A
˙ x

x
y
+
ˆ y
-
SISTEMA
ORIGINAL
OBSERVADOR

ˆ x
A

B
C
C B
Figura 12.5: Observador asint´otico
S´ıntesis de sistemas de control por variables de estado 256
˙
ˆ x = (A −LC)ˆ x + Ly + Bu (12.16)
Si se define
˜ x = ˆ x −x (12.17)
Restando (16) de (14) se tiene
˙
˜ x = (A −LC) ˜ x (12.18)
Si los autovalores de (A −LC) son negativos se tendr´a que
lim
t→∞
˜ x = 0
es decir ˆ x converge a x.
El problema de la s´ıntesis de un observador se reduce a una conveniente
elecci´on de L para que (A −LC) tenga unos autovalores apropiados.
Se discuten a continuaci´ on dos posibles soluciones al problema.
Observador asint´ otico del mismo orden
Seg´ un se ha visto , todo sistema observable puede escribirse en la forma can´onica
de observaci´ on:
˙ x =

¸
¸
¸
¸
¸
¸
¸
0 0 ... 0 −a
n
1 0 ... 0 −a
n−1
0 1 ... 0 −a
n−2
...
0 0 ... 1 −a
1
¸

x +

¸
¸
¸
¸
¸
b
n
b
n−1
.
.
.
b
1
¸

u (12.19)
y =

0 0 ... 1

x
S´ıntesis de sistemas de control por variables de estado 257
Si se hace
L
T
= (l
1
l
2
... l
n
) (12.20)
Se tiene
A −LC =

¸
¸
¸
¸
¸
¸
¸
0 0 ... 0 −a
n
−l
1
1 0 ... 0 −a
n−1
−l
2
0 1 ... 0 −a
n−2
−l
3
... ... ... ... ...
0 0 ... 1 −a
1
−l
n
¸

(12.21)
Como los elementos de la ´ ultima columna de A−LC determinan su ecuaci´on
caracter´ıstica, ´esta podr´a elegirse arbitrariamente mediante una adecuada se-
lecci´on de L.
Obs´ervese la dualidad entre el problema de determinar la ley de control y el
de sintetizar un observador asint´otico del mismo orden.
Observador asint´ otico de orden m´ınimo
En el observador del mismo orden no se ha tenido en cuenta que en la forma
can´onica de observaci´on y = x
n
, y por lo tanto la se˜ nal de salida (que es obvia-
mente accesible) reproduce el elemento x
n
del vector de estado. En consecuencia
es posible concebir, en principio, un observador cuya salida sean las (n−1) com-
ponentes restantes de x. Este observador recibe el nombre de observador m´ınimo,
pues su orden es n −1.
Sup´ongase que se tiene el par (A, B) correspondiente a un sistema del que
se quiere construir un observador. Para fijar ideas sup´ongase n = 3. En la
ecuaci´on que rige el comportamiento din´amico del sistema, se pueden particionar
los bloques que se indican en la expresi´on siguiente:

¸
¸
¸
¸
˙ x
1
˙ x
2

˙ x
3
¸

=

¸
¸
¸
¸
¸
¸
¸
a
11
a
12
.
.
. a
13
a
21
a
22
.
.
. a
23
.
a
31
a
32
.
.
. a
33
¸

¸
¸
¸
¸
x
1
x
2

x
3
¸

+

¸
¸
¸
¸
b
1
b
2

b
3
¸

u
S´ıntesis de sistemas de control por variables de estado 258
Para dise˜ nar el observador de orden m´ınimo se adopta una expresi´on como
la anterior haciendo y = x
3
. Llamando ˆ x
1
y ˆ x
2
a las observaciones del estado,
obtenidas del observador, se tiene que la ecuaci´on din´amica del mismo puede
escribirse como sigue:

ˆ
˙ x
1
ˆ
˙ x
2

=

a
11
a
12
a
21
a
22

ˆ x
1
ˆ x
2

+

a
13
a
23

y +

b
1
b
2

u
En donde se ha prescindido de la tercera l´ınea, la correspondiente a x
3
, por ser
innecesaria. Se tiene en la expresi´on anterior un sistema din´amico que alimentado
por las se˜ nales de entrada u y de salida y, permite obtener las componentes del
vector de estado ˆ x
1
y ˆ x
2
. Se ha resuelto con ello el problema de obtener un
observador de orden m´ınimo, es decir, un observador cuyo orden sea n −1.
Sin embargo, el observador anterior puede adolecer del defecto de que su
comportamiento din´amico no sea satisfactorio. Puede, incluso, ser inestable. Ello
es debido a que la submatriz (n −1) (n −1) superior izquierda de A, tendr´a
unos autovalores arbitrarios que, para una forma cualquiera de A, escapan de
la decisi´on del dise˜ nador del observador. Afortunadamente, es posible tener la
matriz A en una forma tal que el bloque superior izquierdo que interesa para la
s´ıntesis del observador, tenga unos autovalores previamente especificados. Ello se
consigue con la transformaci´on T
1
que se estudia a continuaci´on.
Sea x el vector de estado en la base correspondiente a la forma can´onica de
observaci´on. Se aplica a x la transformaci´on T
1
, de manera que x = T
1
x, estando
T
1
definido por
T
1
=

¸
¸
¸
¸
¸
¸
¸
¸
1 0 ... 0 −γ
n−1
0 1 ... 0 −γ
n−2
.
.
.
.
.
. .
.
.
.
.
.
.
0 0 ... 1 −γ
1
0 0 ... 0 1
¸

(12.22)
en donde el significado de los coeficientes γ
i
se ver´ a m´as abajo. Es f´acil ver
que
S´ıntesis de sistemas de control por variables de estado 259
T
−1
1
=

¸
¸
¸
¸
¸
¸
¸
¸
1 0 ... 0 γ
n−1
0 1 ... 0 γ
n−2
.
.
.
.
.
. .
.
.
.
.
.
.
0 0 ... 1 γ
1
0 0 ... 0 1
¸

(12.23)
Se tendr´a
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
0 0 ... 0 γ
n−1
µ
1
1 0 ... 0 −γ
n−2
µ
2
0 1 ... 0 −γ
n−3
µ
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 1 −γ
1
µ
n−1
0 0 ... 0 1 µ
n
¸

(12.24)
B =

¸
¸
¸
¸
¸
¸
¸
¸
b
n
−γ
n−1
b
1
b
n−1
−γ
n−2
b
1
.
.
.
b
2
−γ
1
b
1
b
1
¸

siendo los coeficientes µ
i
funci´on γ
i
y de a
i
.
La forma obtenida para la matriz A es tal que la submatriz (n−1)(n−1) que
se denotar´a por A
11
superior izquierda tiene el siguiente polinomio caracter´ıstico:
ϕ(A
11
) = s
n−1
+ γ
1
s
n−2
+ + γ
n−2
s + γ
n−1
Por lo tanto, eligiendo convenientemente los valores de los coeficientes γ
i
de
este polinomio, que determinan la matriz T
1
, se puede tener un comportamiento
arbitrario para el observador.
La ecuaci´on que regir´a el comportamiento din´amico del observador ser´a la
siguiente:
S´ıntesis de sistemas de control por variables de estado 260
d
dt

¸
¸
¸
¸
¸
¸
x
1
ˆ x
2
.
.
.
ˆ x
n−1
¸

=

¸
¸
¸
¸
¸
¸
¸
0 0 ... 0 −γ
n−1
1 0 ... 0 −γ
n−2
0 1 ... 0 −γ
n−3
...
0 0 ... 1 −γ
1
¸

¸
¸
¸
¸
¸
¸
ˆ x
ˆ x
2
.
.
.
ˆ x
n−1
¸

(12.25)
+

¸
¸
¸
¸
¸
µ
1
µ
2
.
.
.
µ
n−1
¸

y + b.u
lo que permite dise˜ nar un observador de orden m´ınimo con la estructura de
la figura 12.6. En este diagrama la transformaci´on T es la que permite obtener
la forma can´onica de observaci´ on. Los par´ametros γ
i
son los coeficientes del
polinomio caracter´ıstico del observador.
Σ
ˆ
¯
¯ x
ˆ
¯ x
ˆ x
y
T
−1
y =
¯
¯ x
n
T
−1
1
OBSERVADOR
ASINTOTICO
MINIMO
Figura 12.6: Observador asint´otico m´ınimo
Un problema importante, respecto al que en la actualidad no existe una
soluci´on completamente satisfactoria, es el de la elecci´on de los par´ametros γ
i
que aparecen en el polinomio caracter´ıstico del observador. Este polinomio car-
acter´ıstico es el responsable del comportamiento din´amico del observador, y por
lo tanto estos coeficientes deben determinarse de suerte que el seguimiento de los
valores reales del estado por la salida del observador sea adecuado al compor-
tamiento global del sistema. Es decir, deben determinarse para que el observador
sea ”m´as r´apido” en la respuesta que el propio sistema. Sin embargo, aparte
de esta idea intuitiva y clara que debe presidir la elecci´on del polinomio carac-
ter´ıstico, no existen criterios generales para la determinaci´on del mismo. Los
S´ıntesis de sistemas de control por variables de estado 261
´ unicos criterios anal´ıticos que se han publicado para la elecci´on de estos coefi-
cientes, lo han sido dentro del marco de la teor´ıa del control ´optimo.
Es de resaltar, por ´ ultimo, el car´acter asint´ otico del observador m´ınimo. Se
invita al lector a que compruebe por s´ı mismo directamente este punto.
Ejemplo
Sea el sistema cuya forma can´onica de observaci´ on se determin´o en el ejemplo
de sistemas monovariables en forma can´onica de observaci´ on.
Sup´ongase que se quiere dise˜ nar un observador tal que sus autovalores sean
λ
1
= −4 λ
2
= −5
es decir, el polinomio caracter´ıstico del observador ser´a
ϕ(obs.) = (s + 4) (s + 5) = s
2
+ 9s + 20
seg´ un (23) y (24) se tiene
T
1
=

¸
¸
1 0 −20
0 1 −9
0 0 1
¸

T
−1
1
=

¸
¸
1 0 20
0 1 9
0 0 1
¸

Se toma A
o
y B
o
en la forma can´onica de observaci´ on, y se tiene
A = T
1
A
o
T
−1
1
=

¸
¸
0 −20 −238
1 −9 −94
0 1 12
¸

B = T
1
b
o
=

¸
¸
−30
22
1
¸

S´ıntesis de sistemas de control por variables de estado 262
Por lo tanto la ecuaci´on din´amica del observador resulta ser
ˆ
˙ x =

0 −20
1 −9

ˆ x +

−238
−94

y +

30
22

u
Con una conversi´ on a las bases originales a la forma
ˆ x = T
−1
o
T
−1
1
ˆ x =

¸
¸
−02241 −0, 0862 −5, 1371
0, 1379 0, 2069 4, 9304
0, 0690 0, 1039 1, 9658
¸

¸
¸
x
1
x
2
y
¸

12.3 S´ıntesis del sistema en bucle cerrado
En la secci´on 1 se ha considerado la determinaci´on de la ley de control para el
caso en que las variables de estado fuesen accesibles.
En la secci´on 2 se han estudiado los observadores que permiten observar (eval-
uar) el estado cuando este no es accesible. La soluci´on inmediata a la s´ıntesis de
un sistema de control cuando el sistema no es accesible es aplicar la ley de control
a las se˜ nales obtenidas a la salida del observador, que reproducen el estado de un
sistema, de acuerdo con el diagrama de la figura 12.7.
y
Σ
u r
OBSERVADOR
¯ x
CONTROL
LEY DE
Figura 12.7: Sistema de control por variables de estado con observador
Para estudiar el sistema conjunto se procede como sigue:
Sea el sistema en bucle abierto
S´ıntesis de sistemas de control por variables de estado 263
˙ x = Ax + Bu (12.26)
y = Cx (12.27)
Y sup´ongase que se ha determinado una ley de control
u = r −Kx (12.28)
siendo la ecuaci´on del observador asint´ otico
˙
ˆ x = Aˆ x + L(y −Cˆ x) + Bu (12.29)
La ley de control se aplica sobre la estimaci´on del estado ˆ x. Es decir, en
realidad la expresi´on de la ley de control toma la forma
u = r −Kˆ x (12.30)
La evoluci´ on del sistema en bucle cerrado vendr´ a regida por las ecuaciones
(12.26), (12.29) y (12.30).
Llevando (12.30) a (12.26) y a (12.29) se tiene
˙ x = A x −B k ˆ x + Br (12.31)
˙
ˆ x = Aˆ x −LC(ˆ x −x) + Br −Bkˆ x (12.32)
Llamando ˜ x = ˆ x −x, la expresi´on (12.31) se puede escribir
˙ x = (A −BK)x −BK˜ x + Br (12.33)
Por otra parte restando (12.33) de (12.32) se tiene
˙
˜ x = (A −LC) ˜ x (12.34)
S´ıntesis de sistemas de control por variables de estado 264
Las expresiones (12.33) y (12.34) se pueden escribir de una forma compacta
como sigue :
d
dt

x
˜ x

=

A −BK −BK
0 A −LC

x
˜ x

+

B
0

r
y =

C 0

x
˜ x

(12.35)
De un atento an´alisis de la expresi´on (35) se desprenden dos conclusiones:
1. Los autovalores del sistema en bucle cerrado son la uni´on de los correspon-
dientes a (A − BK) y los correspondientes a (A − LC). Esta propiedad
recibe el nombre de propiedad de separaci´on y es an´aloga a la que se pre-
senta en los sistemas estoc´asticos al combinar un filtro de Kalmanœ[222z
con una ley de control ´optima.
2. Llamando ϕ
11
(s) = (sI −A + BK)
−1
se tendr´a que
Y (s)
R(s)
= Cϕ
11
(s)B
Es decir que el observador no influye en la funci´on de transferencia en bucle
cerrado, puesto que esta funci´on de transferencia es la misma que se obtiene
sin observador, cuando las variables de estado son accesibles. Obs´ervese que
esta conclusi´on, pese a su car´acter sofisticado, es intuitiva ya que el observador
reproduce exactamente las variables de estado si el valor inicial de estas es el
mismo del que parte el observador, y ello es lo que sucede cuando se parte del
reposo. Es decir, al partir del reposo, los valores que toman la variable de estado
son nulos; estos mismos valores son lo que inicialmente suministra el observador
si a su vez parte del reposo. Por lo tanto, inicialmente, el observador suministra
el valor real del estado.
Ejemplo
Sea el sistema formado por dos integradores que se indica en la figura 12.8,
cuya descripci´on externa vendr´ a dada por la funci´on de transferencia
Y (s)
U(s)
=
1
s
2
S´ıntesis de sistemas de control por variables de estado 265
y cuya descripci´on interna vendr´ a dada por
˙ x
1
= x
2
˙ x
2
= u
es decir
A =

0 1
0 0

B =

0
1

C =

1 0

u x
2
x
1
1
s
1
s
Figura 12.8: Doble integrador
Sup´ongase que se quiere obtener en bucle cerrado un polinomio caracter´ıstico
dado por
ϕ(s) = s
2
+ a
1
s + a
2
Habida cuenta de la expresi´on (11) se tendr´a que
K =

a
2
a
1

Si las variables de estado son accesibles se tiene el diagrama de la figura 12.9. Si
x
2
no es accesible, debe procederse a dise˜ nar un observador. Para ello se escribe
(A, B, C) en la forma can´onica de observaci´on. Se tiene
A
o
=

0 0
1 0

B
o
=

1
0

C
o
=

0 1

La ley de control, en estas bases del vector de estado, vendr´ a dada por
K
o
=

a
1
a
2

S´ıntesis de sistemas de control por variables de estado 266
x
2
x
1
-
+
+ r
a
1
a
2
1
s
1
s
+
Figura 12.9: Sistema controlado
Se quiere tener un observador asint´otico de orden m´ınimo. El orden del ob-
servador ser´a uno, por ser el sistema de orden dos. Si se denota por s + γ el
polinomio caracter´ıstico del observador, se tendr´a de acuerdo con las expresiones
(12.22) y (12.23).
T
1
=

1 −γ
0 1

T
−1
1
=

1 γ
0 1

y, por lo tanto,
A = T
1
A
o
T
−1
1
=

−γ −γ
2
1 γ

B = T
1
B
o
=

1
0

El observador viene dado por el diagrama de bloques de la figura 12.10.
La ley de control en la base del vector de estado correspondiente a X vendr´ a
dada por
S´ıntesis de sistemas de control por variables de estado 267
u
+
-
y
−γ
2
γ
1
s
ˆ x
1
ˆ x
2
Figura 12.10: Diagrama del observador
k = K
o
T
−1
=

a
1
a
1
γ + a
2

Por lo tanto el conjunto formado por el sistema original y el compensador ser´a
el representado en la figura 12.11.
Supongamos ahora que se trata de un problema de regulaci´on con r = 0.
En tal caso es relativamente sencillo determinar el diagrama que representa la
descripci´on interna del controlador, entendido como el subsistema que a partir
de la se˜ nal de salida de la planta a controlar y produce la se˜ nal control u. En la
figura 12.12 se representa el diagrama del controlador.
Si el problema de dise˜ no se hubiese resuelto mediante los m´etodos cl´asicos de
control, el controlador vendr´ıa especificado mediante su funci´on de transferencia.
Para comparar los resultados se puede determinar la funci´on de transferencia del
controlador que se acaba de obtener. Esta funci´on de transferencia viene dada
por
U(s)
Y (s)
= C(s) =
(a
1
γ + a
2
)(s + a
1
) + a
2
γ
s + a
1
+ γ
= (a
1
γ + a
2
)
s + a
1
+
a
2
γ
a
1
γ + a
2
s + a
1
+ γ
S´ıntesis de sistemas de control por variables de estado 268
γ
+
-
−γ
2 1
s
1
s
2
y u
+
+
-
r
a
1
a
1
γ +a
2
OBSERVADOR
+
+
¯ x
1
Figura 12.11: Sistema de control por variables de estado con observador
que se puede escribir de forma m´as compacta
C(s) = k
s + α
1
s + α
2
k, α
1
, α
2
> 0 α
1
< α
2
(12.36)
y que resulta ser lo que en los m´etodos cl´asicos se conoce como una red de avance
de fase.
De este modo se ha conseguido resolver el problema de la s´ıntesis de un contro-
lador sin ninguna preconcepci´on con relaci´on a su estructura. Si se quiere dar un
paso m´as, supongamos que en bucle cerrado se pretende tener un comportamiento
caracterizado por
ϕ
c
(s) = s
2
+ 2δω
n
s + ω
2
n
en donde 2δω
n
= a
1
y ω
2
n
= a
2
. Un valor razonable para el coeficiente de amor-
tiguamiento es δ = 1/

2, en cuyo caso se tiene que los distintos par´ametros de
la red de avance (12.36) vienen dado por
k = ω(

2γ + ω)
α
1
= ω

3γ +



2γ + ω

α
2
= γ +


S´ıntesis de sistemas de control por variables de estado 269
Conviene observar que la teor´ıa cl´asica del control no ha sido capaz de pro-
porcionar f´ormulas expl´ıcita como las anteriores, a´ un para un ejemplo tan simple
como el anterior. Los m´etodos cl´asicos est´an basados en aproximaciones gr´aficas
y reglas pr´acticas, lo que constituye una clase de matem´aticas aplicadas relati-
vamente anticuadas. Sin embargo, estos comentarios no descalifican los m´etodos
cl´asicos, que como se ver´a m´as adelante, contin´ uan teniendo un gran inter´es, ya
que suministran ´ındices de robustez que poseen un gran inter´es pr´actico.
γ
+
-
−γ
2 1
s
+
+
-
r
a
1
a
1
γ +a
2
OBSERVADOR
+
+
¯ x
1
u
y
Figura 12.12: Controlador para le planta 1/s
2
.
Del atento an´alisis de este ejemplo se desprende que la teor´ıa moderna del con-
trol, basada en el empleo de las variables de estado, permite resolver el problema
de la s´ıntesis de un sistema realimentado sin ninguna hip´otesis previa respecto a la
forma del regulador que se trata de determinar. Ello permite un planteo anal´ıtico
del problema de la s´ıntesis de sistemas de control que representa una notable
alternativa al que proponen los m´etodos cl´asicos, basados ´estos en m´etodos cuya
justificaci´on se encuentra m´as en una experiencia acumulada que en una visi´on
te´orica global.
A continuaci´ on se expone un m´etodo general de s´ıntesis de un sistema de
control.
S´ıntesis de sistemas de control por variables de estado 270
12.3.1 M´etodo pr´actico de s´ıntesis
Problema
Dado un sistema de control monovariable cuya funci´on de transferencia en
bucle abierto sea
G(s) =
b
1
s
n−1
+ b
2
s
n−2
+ + b
n
s
n
+ a
1
s
n−1
+ + a
n
Se quiere tener en bucle cerrado un sistema cuya funci´on de transferencia sea
tal que el numerador permanezca invariable y el denominador sea
s
n
+ α
1
s
n−1
+ + α
n
Para su resoluci´on se procede a seis pasos:
1. A partir de la funci´on de transferencia se obtiene la forma can´onica de
control.
A
c
=

¸
¸
¸
¸
¸
¸
¸
0 1 0 ... 0
0 0 1 ... 0
...
0 0 0 ... 1
−a
n
−a
n−1
... −a
1
¸

B
T
c
=

0 0 ... 1

C
c
=

b
n
b
n−1
... b
1

2. Se determina la ley de control de la forma u = −Kx + r.
−K =

a
n
−α
n
a
n−1
−α
n−1
a
1
−α
1

Obs´ervese que los valores num´ericos de esta ley de control corresponden a
la representaci´ on del sistema en la forma can´onica de control.
S´ıntesis de sistemas de control por variables de estado 271
3. Se determina la forma can´onica de observaci´ on, lo que se hace a partir de
la funci´on de transferencia.
A
o
=

¸
¸
¸
¸
¸
¸
¸
0 0 ... 0 −a
n
1 0 ... 0 −a
n−1
0 1 ... 0 −a
n−2
...
0 0 ... 1 −a
1
¸

B
T
o
=

b
n
b
n−1
... b
1

C
o
=

0 0 ... 1

Aunque la forma can´onica de observaci´on se puede obtener directamente
de la funci´on de transferencia, debido al uso que posteriormente se har´a de
ella interesa obtener la transformaci´on T que permite pasar de las bases a
la forma can´onica de control a la de observaci´on.
T =

¸
¸
¸
¸
¸
¸
¸
¸
a
n−1
a
n−2
... a
1
1
a
n−2
a
n−3
... 1 0
.
.
.
.
.
.
.
.
.
.
.
.
a
1
1 .... 0 0
1 0 .... 0 0
¸

¸
¸
¸
¸
¸
¸
¸
¸
C
C A
.
.
.
C A
n−2
CA
n−1
¸

4. A partir de la forma can´onica de observaci´ on se procede a construir el
observador m´ınimo. Para ello se define la transformaci´on T
1
tal que
T
1
=

¸
¸
¸
¸
¸
¸
¸
¸
1 0 ... 0 −γ
n−1
0 1 ... 0 −γ
n−2
.
.
.
.
.
. ....
.
.
.
.
.
.
0 0 ... 1 −γ
1
0 0 ... 0 1
¸

en donde
s
n−1
+ γ
1
s
n−2
+ + γ
n−1
es el polinomio deseado para el observador.
Obs´ervese que
S´ıntesis de sistemas de control por variables de estado 272
T
−1
=

¸
¸
¸
¸
¸
¸
¸
¸
1 0 ... 0 γ
n−1
0 1 ... 0 γ
n−2
.
.
.
.
.
. ...
.
.
.
.
.
.
0 0 ... 1 γ
1
0 0 ... 0
¸

Se tiene que
A = T
1
A
o
T
−1
1
=

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
0 0 ... 0 −γ
n−1
β
1
1 0 ... 0 −γ
n−2
β
2
0 1 ... 0 −γ
n−3
β
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 1 γ
1
β
n−1
0 0 ... 0 1 β
n
¸

B = T
1
B
o
C =

0 0 ... 1

es decir que y = x
n
.
El observador tiene como matriz din´amica el bloque (n − 1) (n − 1)
superior izquierdo de A y est´a excitado por u a trav´es de los (n−1) primeros
elementos de B y de y a trav´es de (β
1
... β
n−1
)
˙
ˆ
x
1
= A
11
x
1
+ A
12
y + B u
siendo A
11
: (n −1) (n −1) y estando B formado por los n −1 primeros
elementos de B.
5. Se obtiene la matriz de transformaci´on de
ˆ
x a ˆ x (correspondientes a la forma
can´onica de control en que se ha determinado la ley de control
ˆ x = T
−1
T
−1
1
ˆ
x
6. A partir de todo lo anterior la matriz del compensador es inmediata
u = −K ˆ x + r
u = −KT
−1
T
−1
1
ˆ
x + r
S´ıntesis de sistemas de control por variables de estado 273
Ejemplo
Sea el sistema cuya funci´on de transferencia en bucle abierto es
G(s) =
s + 2
s(s + 1)
Se quiere tener un bucle cerrado el comportamiento representado por la funci´on
de transferencia
G
d
(s) =
s + 2
s
2
+ 2s + 3
La aplicaci´on de los seis pasos anteriores conduce a lo siguiente
1.
A
c
=

0 1
0 −1

B
T
c
=

0 1

C
c
=

2 1

2.
K =

3 1

3.
A
o
=

0 0
1 −1

B
T
o
=

2 1

C
o
=

0 1

siendo
T =

1 1
1 0

2 1
0 1

=

2 2
2 1

T
−1
=

−1/2 1
1 −1

4. Adoptando ϕ
obs
(s) = s + 3 se tiene que
T
1
=

1 −3
0 1

T
−1
1
=

1 3
0 1

y por lo tanto
S´ıntesis de sistemas de control por variables de estado 274
A = T
1
A
o
T

1
1 =

−3 −6
1 2

B = T
1
B
o
=

−1
1

C =

0 1

Estando el observador dado por
˙
ˆ
x
1
= −3
ˆ
x
1
−6
ˆ
x
2
−u
= −3
ˆ
x
1
−6y −u
5.
ˆ x = T
−1
T
−1
1
ˆ
x =

¸

1
2

1
2
1 2
¸

ˆ x
6.
u = −KT
−1
T
−1
1
ˆ
x + r
=

−3 −1

¸

1
2

1
2
1 2
¸

¸
−u −6y
s + 3
y
¸

+ r
Es decir
U(s) = −
U(s)
2(s + 3)

s + 9
2(s + 3)
Y (s) + R(s) (12.37)
lo que se puede interpretar gr´aficamente como se hace en la figura 12.13.
Comprobaci´on
Para comprobar basta determinar la funci´on de transferencia en bucle cerrado
y verificar que es la deseada. En el ejemplo anterior se comprueba que as´ı sucede.
En efecto, la expresi´on (12.37) se puede escribir, llevando todos los t´erminos en
U(s) al primer miembro:
U(s)
(2s + 7)
2(s + 3)
= −Y (s)
(s + 9)
2(s + 3)
+ R(s)
S´ıntesis de sistemas de control por variables de estado 275
Como
U(s) = Y (s)
s(s + 1)
s + 2
se tiene
Y (s)

s + 9
2(s + 3)
+
(2s + 7)
2(s + 3)

s(s + 1)
(s + 2)

= R(s)
Es decir
Y
R
(s) =
2(s + 2)(s + 3)
2s
3
+ 10s
2
+ 18s + 18
=
s + 2
s
2
+ 2s + 3
Debe notarse que el observador no aparece de ninguna forma en la funci´on de
transferencia en bucle cerrado.
12.3.2 S´ıntesis algebraica directa (S´ıntesis externa directa)
En el apartado anterior se ha determinado la compensaci´on de un determinado
sistema por medio de un observador y una ley de control. Al aplicar al sistema
original el observador y la ley de control en el ejemplo considerado en el apartado
anterior, se ha obtenido el diagrama de la figura 12.13. Ello sugiere adoptar el
diagrama de bloques de la figura 12.14,como diagrama b´asico para la s´ıntesis de
sistemas de control.
Tomando el diagrama de la figura 12.14 como punto de partida para la s´ıntesis
de un sistema de control, se identifican en ´el los siguientes elementos. La funci´on
de transferencia T(s) es la funci´on de transferencia del sistema en bucle abierto.
El polinomio q(s) caracteriza el comportamiento din´amico del observador y por
tanto, se establece a priori, de la misma manera que se adoptaban unos valores
para el comportamiento din´amico del observador en el apartado anterior. El
problema de s´ıntesis queda reducido a determinar los polinomios k(s) y h(s). El
objeto de este apartado es precisamente, determinar los polinomios k(s) y h(s)
directamente sin necesidad de determinar que la ley de control y el observador,
que es lo que se hac´ıa en el apartado anterior.
El problema se suele plantear en los t´erminos siguientes. Sea un sistema
cuya funci´on de transferencia es T(s) = n(s)/d(s), y sup´ongase que se quiere
obtener en bucle cerrado un comportamiento representado por T
d
(s). Adoptando
S´ıntesis de sistemas de control por variables de estado 276
v u
y
s+2
s(s+1)
s+9
2(s+3)
1
2(s+3)
+
+
-
+
Figura 12.13: Diagrama de bloques simplificado del sistema controlado por va-
riables de estado con observador
v u
y
+
+
-
+
k(s)
q(s)
h(s)
q(s)
T(s)
Figura 12.14: Diagrama de bloques simplificado del sistema controlado por va-
riables de estado con observador
S´ıntesis de sistemas de control por variables de estado 277
la configuraci´on de la figura 12.14, se trata de determinar los polinomios k(s) y
h(s) para que la funci´on de transferencia resultante sea precisamente T
d
(s).
Para estudiar el problema se procede, en primer lugar, a particionar T(s) tal
como se hace en la figura 12.15.
u z y
1
d(s)
N(s)
Figura 12.15: Factorizaci´ on del sistema
De la observaci´ on de las figuras 12.14 y 12.15 se tiene lo siguiente.
d(s)Z(s) = U(s) (12.38)
Y (s) = n(s)Z(s) (12.39)
U(s) = R(s) −
1
q(s)
(k(s)U(s) + h(s)Y (s)) (12.40)
= R(s) −
1
q(s)
(k(s)d(s) + h(s)n(s)) Z(s) (12.41)
Un conocido resultado del ´algebra de polinomios establece que, dados dos
polinomios primos entre s´ı n(s) y d(s), y un polinomio arbitrario ϕ(s), existen
dos polinomios k(s) y h(s), tales que
n(s)h(s) + d(s)k(s) = ϕ(s) (12.42)
Este resultado se estudiar´a con detalle, en un teorema, posteriormente. Sup´ongase
aqu´ı que ϕ(s) = q(s) f(s), en donde el significado de f(s) se determinar´a m´as
abajo. Se tendr´a que la expresi´on (12.40) se convertir´a en
U(s) = R(s) −f(s)Z(s) (12.43)
S´ıntesis de sistemas de control por variables de estado 278
R(s) = U(s) + f(s)Z(s)
= (d(s) + f(s)) Z(s) (12.44)
luego,
Y (s)
R(s)
=
n(s)
d(s) + f(s)
(12.45)
Esta expresi´on indica que la funci´on de transferencia T
d
(s) debe tener el mismo
numerador que T(s) y, al mismo tiempo, indica c´omo se puede modificar el de-
nominador. Esta modificaci´on se hacer por adici´on de f(s), cuyo significado es
ahora claro.
El anterior desarrollo lleva impl´ıcito un m´etodo de s´ıntesis. Los pasos de este
m´etodo son:
1. A partir de d(s) y del denominador de T
d
(s) se determina f(s).
2. Por consideraciones f´ısicas se adopta q(s), (equivale a ϕ
obs
(s)).
3. Se determina ϕ(s) = q(s)f(s) y se resuelve la ecuaci´on polinomial (12.42),
con lo que se obtienen h(s) y k(s).
Debe notarse que el problema es trivial si ϕ(n(s)) = 0, es decir si n(s) es una
constante n
0
. En efecto, en tal caso la expresi´on (12.42) se convierte en
ϕ(s) = k(s)d(s) + h(s) n
0
Para la determinaci´on de k(s) y h(s) se divide ϕ(s) por d(s). El cociente de
dicha divisi´on es k(s) y el resto h(s) n
0
El problema queda reducido, por lo tanto, a la resoluci´on de la ecuaci´on
polinomial (12.42).
M´etodo del sistema de ecuaciones lineales
Sea la expresi´on (12.42) en la que a partir de n(s), d(s) y ϕ(s) se trata de deter-
minar h(s) y k(s).
S´ıntesis de sistemas de control por variables de estado 279
Los grados de los polinomios n(s), d(s) y ϕ(s), son:
grado (ϕ) = q ≤ 2n −2
grado (n) = m ≤ n −1
grado (d) = n
Los grados de h(s) y k(s) ser´an
grado (h) = n −1grado (k) = m−1
La determinaci´on de h(s) y k(s) se hace considerando como inc´ognitas sus
coeficientes y obteniendo las ecuaciones que resultan de igualar coeficientes de
t´erminos de igual exponente de s en la expresi´on (12.42). Con ello se obtiene
un sistema de ecuaciones lineales que admite soluci´on, y ´esta es ´ unica, si los
polinomios n(s) y d(s) son primos entre s´ı (no tienen factores comunes).
Consid´erese, sin p´erdida de generalidad, n = 3 y m = 2, es decir,
d(s) = s
3
+ d
1
s
2
+ d
2
s + d
3
n(s) = n
0
s
2
+ n
1
s + n
2
h(s) = h
0
s
2
+ h
1
s + h
2
k(s) = k
0
s + k
1
ϕ(s) = ϕ
0
s
4
+ ϕ
1
s
3
+ ϕ
3
s + ϕ
4
Se tendr´a,
S´ıntesis de sistemas de control por variables de estado 280
n(s)h(s) = n
0
h
0
s
4
+ (n
0
h
1
+ n
1
h
0
)s
3
+
+(n
0
h
2
+ n
1
h
1
+ n
2
h
0
)s
2
+
+(n
1
h
2
+ n
2
h
1
)s
2
+ n
2
h
2
d(s)k(s) = k
0
s
4
+ (k
1
+ d
1
k
0
)s
3
+
+(d
1
k
1
+ d
2
k
0
)s
2
+
(d
2
k
1
+ d
3
k
0
)s + d
3
k
1
Al igualar en ambos miembros de (12.42) t´erminos en la misma potencia de
s, se tendr´a, escrito en forma compacta

¸
¸
¸
¸
¸
¸
¸
n
2
0 0 d
3
0
n
1
n
2
0 d
2
d
3
n
0
n
1
n
2
d
1
d
2
0 n
0
n
1
1 d
1
0 0 n
0
0 1
¸

¸
¸
¸
¸
¸
¸
¸
h
2
h
1
h
0
k
1
k
0
¸

=

¸
¸
¸
¸
¸
¸
¸
ϕ
4
ϕ
3
ϕ
2
ϕ
1
ϕ
0
¸

es decir
MC = ϕ (12.46)
La anterior ecuaci´on en C admite soluci´on, y ´esta es ´ unica, si M
−1
existe.
Ahora bien, la matriz M tiene como determinante el resultante R(n, d), de los
dos polinomios n(s) y d(s). El resultante de dos polinomios es no nulo si ´estos
no tienen factores comunes. Ello es lo que sucede cuando el sistema a controlar
es controlable y observable. Por lo tanto, la anterior ecuaci´on tendr´a soluci´on, y
esta ser´a ´ unica, si n(s) y d(s) no tienen factores comunes.
El inconveniente que presenta este m´etodo es que requiere la inversi´ on de una
matriz cuya dimensi´on, para problemas de un cierto orden, puede ser elevada.
Este m´etodo, por lo tanto, no es el adecuado cuando se trata de resolver el
problema con papel y l´apiz. Sin embargo, es m´as simple.
S´ıntesis de sistemas de control por variables de estado 281
Ejemplo
Sea el sistema considerado en el ejemplo 2 del apartado anterior y cuyas funciones
de transferencia en bucle abierto y en bucle cerrado son las siguientes.
T(s) =
s + 2
s
2
+ 2s + 3s
T
d
(s) =
s + 2
s
3
+ 3s
2
+ s + 2
Se tiene que
n(s) = s + 2
d(s) = s
3
+ 2s
2
+ 3s
ϕ(s) = q(s) f(s) = s
4
−s
2
+ 2s + 2
Se adopta
k(s) = k
0
s + k
1
h(s) = h
0
s
2
+ h
1
s + h
2
El sistema de ecuaciones (44) resulta ser

¸
¸
¸
¸
¸
¸
¸
2 0 0 0 0
1 2 0 3 0
0 1 2 2 3
0 0 1 1 2
0 0 0 0 1
¸

¸
¸
¸
¸
¸
¸
¸
h
2
h
1
h
0
k
1
k
0
¸

=

¸
¸
¸
¸
¸
¸
¸
2
2
−1
0
1
¸

cuya soluci´on conduce a
S´ıntesis de sistemas de control por variables de estado 282
h
2
= 1 h
1
= 0 h
0
= −14/6 k
1
= 1/3 k
0
= 1
lo cual coincide con lo obtenido por el m´etodo anterior.
Debe resaltarse que para aplicar este m´etodo se requiere el concurso de un
computador, cosa que con el anterior, aunque aparentemente m´as complejo, no
suced´ıa.
Tema 13
Sistemas no lineales
13.1 M´etodo del primer arm´onico
Los m´etodos cl´asicos de sistemas realimentados lineales est´an basados en el em-
pleo de la funci´on de transferencia, que posee una interpretaci´ on en el dominio
de la frecuencia de gran inter´es para el an´alisis y la concepci´on de esos sistemas
realimentados. Sin embargo, el concepto de funci´on de transferencia est´a basado
en la propiedad de linealidad (suma de causas produce suma de efectos) que no
poseen, por su propia naturaleza los sistemas no lineales.
Sin embargo, como vamos a ver en lo que sigue, es posible aplicar una versi´on
ampliada del m´etodo de la respuesta en frecuencia a sistemas no lineales medi-
ante el m´etodo de la funci´on descriptiva. Con este m´etodo, como vamos a ver,
es posible adaptar los m´etodos de dise˜ no de sistemas lineales en el dominio de
la frecuencia, empleando los diagramas de Bode y similares, al caso de los sis-
temas no lineales, si bien en este ´ ultimo caso los resultados son exclusivamente
aproximados.
13.1.1 Ejemplo introductorio
Los sistemas no lineales pueden presentar oscilaciones de amplitud y periodo
fijos sin excitaci´on exterior. Esas oscilaciones se denominan ciclos l´ımites u os-
cilaciones autoexcitadas. Una de la primeras ecuaciones propuestas para estudiar
este fen´omeno se debe al ingeniero el´ectrico holand´es Balthasar Van der Pol. Esta
283
Sistemas no lineales 284
ecuaci´on es la siguiente:
¨ x + α(x
2
−1) ˙ x + x = 0 (13.1)
vamos a emplear esta ecuaci´on como ejemplo introductorio al m´etodo del primer
arm´onico. Para ello, vamos a suponer que existe un ciclo l´ımite de amplitud y
frecuencia no determinadas, y vamos a ver que restricciones impone la ecuaci´on
anterior a esta amplitud y frecuencia.
+
-
0
−x
Elemento Lineal Elemento no lineal (−˙ xx
2
)
(.)
2
x
s
v
α
s
2
−αs+1
Figura 13.1: Diagrama de bloques del oscilador de Van der Pol
Puesto que el an´alisis de la ecuaci´on de Van der Pol lo estamos haciendo
como introducci´on al estudio de sistemas realimentados no lineales conviene que
representamos la ecuaci´on (13.1) mediante un diagrama de bloques como el de la
figura 13.1. En esta figura se tiene un sistema realimentado, con realimentaci´on
unitaria, en cuya cadena directa aparece un bloque no lineal y uno lineal. Como
veremos luego, esta ser´a la forma que tomaran los sistemas realimentados no
lineales a los que se aplica el m´etodo del primer arm´onico.
Para justificar el diagrama de la figura 13.1 basta reescribir la expresi´on (13.1)
de la forma
¨ x −α˙ x + x = −αx
2
˙ x
Se define v = −x
2
˙ x, con lo que la anterior expresi´on se convierte en
¨ x −α˙ x + x = αv
cuya funci´on de transferencia es
x
v
(s) =
α
s
2
−αs + 1
Sistemas no lineales 285
Supongamos que el sistema de la figura 13.1 oscila, de modo que la se˜ nal x
evoluciona de la forma
x(t) = A sen ωt (13.2)
en donde A es la amplitud del ciclo l´ımite y ω su frecuencia. En este caso se tiene
˙ x(t) = Aω cos ωt
por consiguiente, la salida del bloque no lineal de la figura 13.1 viene dada por
v = −x
2
˙ x = A
2
sen
2
ωtAω cos ωt (13.3)
= −
A
3
ω
2
(1 − cos 2ωt) cos ωt (13.4)
= −
A
3
ω
4
( cos ωt − cos 3ωt) (13.5)
El paso de (13.3) a (13.4) se basa en que
2 sen
2
ωt = 1 − cos 2ωt
ya que
cos 2ωt = cos
2
ωt − sen
2
ωt = 1 −2 sen
2
ωt
Por otra parte, el paso de (13.4) a (13.5) es un poco m´a´ as elaborado. Para
demostrarlo se parte de
cos 3ωt = cos 2ωt cos ωt − sen ωt sen 2ωt
= cos ωt(1 −2 sen
2
ωt) −2 sen
2
ωt cos ωt
= cos ωt(1 −4 sen
2
ωt)
= cos ωt(1 −2 + 2 cos 2ωt)
= cos ωt(2 cos 2ωt −1)
de donde se tiene que
cos ωt − cos ωt cos 2ωt =
1
2
( cos ωt − cos 3ωt)
En la expresi´on (13.5) se observa que la se˜ nal v contiene un arm´onico de tercer
orden. Sin embargo, sucede que la parte lineal se comporta como un filtro paso
bajo, de modo que se puede suponer razonablemente que este arm´onico de tercer
orden resulta suficientemente atenuado por el bloque lineal y que puede, en una
primera aproximaci´ on despreciarse. Con estos supuestos, la se˜ nal v toma la forma
aproximada
v ≈ −
A
3
ω
4
( cos ωt) =
A
2
4
d
dt
(−A sen ωt) (13.6)
Sistemas no lineales 286
+
-
−x x
r = 0
Aproximaci´on cuasi lineal
A
2
4
s
v
α
s
2
−αs+1
Figura 13.2: Aproximaci´on lineal del oscilador de Van der Pol
De este modo el bloque no lineal de la figura 13.1 puede representarse en forma
aproximada como se hace en la figura 13.2. El bloque no lineal de la figura 13.1 se
describe de forma aproximada, mediante una funci´on de transferencia como la que
se indica en la figura 13.2. Conviene observar que esta “funci´on de transferencia”
depende de la amplitud de la se˜ nal de entrada A, lo que no sucede en ning´ un caso
con una funci´on de transferencia de un sistema lineal.
En general, podemos escribir que las se˜ nales de salida v del bloque no lineal
de la figura 13.2 vienen dadas por
v = N(A, ω)(−x) (13.7)
en donde N juega el mismo papel que la funci´on de transferencia en un sistema
lineal, aunque en este caso con la propiedad adicional de depender no solamente
de la frecuencia ω, sino tambi´en de la amplitud A. A la funci´on N la denominare-
mos funci´on descriptiva del elemento no lineal correspondiente y constituye una
generalizaci´on del concepto de funci´on de transferencia al estudio de los sistemas
no lineales (aunque aqu´ı con un car´acter aproximado ya que para llegar a ella
se han despreciado los arm´onicos de orden superior al primero, a partir de la
consideraci´on del car´acter del filtro paso bajo del bloque lineal).
En el caso que nos ocupa la funci´on descriptiva toma la forma
N(A, ω) = jω
A
2
4
(13.8)
es decir el bloque no lineal se puede aproximar por la funci´on de respuesta en
frecuencia N. De acuerdo con la cadena directa del sistema de la figura 13.2, se
puede escribir
x = A sen ωt = G(jω)v = G(jω)N(A, ω)(−x) (13.9)
Sistemas no lineales 287
Se sabe que una se˜ nal senoidal se puede escribir en forma compleja mediante la
exponencial
x = Ae
jωt
con lo que la anterior expresi´on (13.9) puede escribir
Ae
jωt
= G(jω)N(A, ω)(−Ae
jωt
)
de donde se tiene
1 + G(jω)N(A, ω) = 0 (13.10)
esta expresi´on, en realidad, es una forma de escribir la expresi´on (13.1), es decir
la ecuaci´on del sistema, habida cuenta de la simplificaci´on que ha permitido pasar
de la expresi´on (13.3) a la (13.6). La resoluci´on de esta ecuaci´on en la amplitud
A y la frecuencia ω permite determinar la amplitud y frecuencia a la que oscila
el sistema. En el caso concreto que nos ocupa, la expresi´on (13.10) se convierte
en
1 +
α
(jω)
2
−α(jω) + 1
A
2
4
jω = 0 (13.11)
que conduce a
4((jω)
2
−α(jω) + 1) + αA
2
jω = 0
cuya parte real es
−4ω
2
+ 4 = 0
cuya soluci´on conduce a ω = 1, y cuya parte imaginaria es
−4α + αA
2
= 0
por lo que A = 2. Por tanto el sistema admite una soluci´on en forma de oscilaci´on
con amplitud A = 2 y frecuencia ω = 1.
Conviene observar que la expresi´on (13.11) escrita en forma de Laplace toma
la forma
1 +
α
s
2
−αs + 1
A
2
s
4
= 0
que es la ecuaci´on caracter´ıstica en bucle cerrado del sistema de la figura 13.2.
Los autovalores de esta ecuaci´on son
λ
1,2
= −
1
8
α(A
2
−4) ±

1
64
α
2
(A
2
−4)
2
−1 (13.12)
en los que haciendo A = 2 se obtienen los autovalores λ
1,2
= ±j; es decir existe un
ciclo l´ımite de amplitud 2 y frecuencia 1. Conviene observar que ni la amplitud
ni la frecuencia obtenidas dependen del par´ametro α.
Sistemas no lineales 288
y(t) x(t)
-
+
r(t) = 0
Elemento lineal Elemento no lineal
v = f(x)
v(t)
G(s)
Figura 13.3: Sistema no lineal
-
+
r(t) = 0
x(t) u(t) y(t)
G
1
(s)
v(t)
G
p
(s)
G
2
(s)
Figura 13.4: Sistema de control con una no linealidad
Sistemas no lineales 289
13.1.2 Principios del m´etodo
Supuestos b´asicos del m´etodo:
1. Hay un ´ unico componente no lineal.
2. Ese componente es invariante en el tiempo.
3. La parte lineal se comporta como un filtro paso-bajo.
4. La no linealidad es sim´etrica, de modo que no aparece en la salida un se˜ nal
de continua.
Debido a estas limitaciones, el m´etodo de la funci´on descriptiva se utiliza funda-
mentalmente para el an´alisis de estabilidad y no suele aplicarse a problemas de
dise˜ no ´optimo de sistemas.
13.1.3 Transformaci´ on de Fourier
La salida v(t) de un elemento no lineal, en respuesta a una se˜ nal sinusoidal, de
amplitud A y frecuencia ω, es una se˜ nal peri´odica de la misma frecuencia, que se
puede desarrollar en serie de Fourier, de la forma:
v(t) = a
0
+

¸
n=1
(a
n
cos (nωt) + b
n
sen (nωt))
a
0
=
1
π

π
π
v(t)d(ωt) n = 0, 1, 2, ...
El t´ermino independiente es el valor medio de la se˜ nal en un per´ıodo. Para una
se˜ nal sin componente de continua este valor es cero; es decir a
0
= 0 (recu´erdese
el supuesto 4 de 13.1.2).
a
n
=
1
π

π
π
v(t) cos (nωt)d(ωt) n = 0, 1, 2, ... (13.13)
b
n
=
1
π

π
π
v(t) sen (nωt)d(ωt) n = 0, 1, 2, ... (13.14)
Casos de inter´es:
Sistemas no lineales 290
• v(t) es impar [v(ωt) = −v(−ωt)], entonces a
n
= 0, n = 0, 1, 2, ..., y en
desarrollo solo tiene t´erminos en senos (figura 13.5a).
• v(t) es alternada [v(ωt + π) = −v(ωt)], entonces el desarrollo solo tiene
t´erminos impares (figura 13.5b).
−x
x
a)
x
b)
v(−x)
v(x)
v(x)
v(x +π)
x +π
Figura 13.5: Se˜ nales impar (a) y alternada (b)
En el supuesto de que se considere ´ unicamente la componente fundamental del
desarrollo en serie, y recordando que a
0
= 0, se tiene que la expresi´on se convierte
en
v(t) = v
1
(t) = a
1
cos (ωt) + b
1
sen (ωt) = M sen (ωt + φ) (13.15)
En la figura 13.6 se representa un elemento no lineal y su representaci´on mediante
N.L. N(A, ω)
Asen(ωt) Asen(ωt) w(t) Msen(ωt +φ)
Figura 13.6: Elemento no lineal y funci´on descriptiva
la funci´on descriptiva. De la expresi´on (13.15) se tiene
M(A, ω) =

a
2
1
+ b
2
1
φ(A, ω) = tag
−1

a
1
b
1

En la figura 13.6 se muestra como la componente fundamental de la salida de un
sistema no lineal a una se˜ nal sinusoidal de entrada, es otra se˜ nal sinusoidal de la
misma frecuencia pero de amplitud M y desfase φ. Empleando una representaci´ on
compleja la sinusoide puede escribirse
v
1
= Me
j(ωt+φ)
= (b
1
+ ja
1
)e
jωt
Sistemas no lineales 291
Con los anteriores elementos ya estamos en posici´on de definir la funci´on descrip-
tiva de un elemento no lineal como el cociente complejo entre la componente
fundamental del elemento no lineal y la se˜ nal sinusoidal de entrada A sen ωt; es
decir
N(A, ω) =
Me
j(ωt+φ)
Ae
jωt
=
M
A
e

=
1
A
(b
1
+ ja
1
) (13.16)
Es decir, la funci´on descriptiva N(A, ω) es una funci´on compleja cuyo m´odulo
y argumento representan la amplificaci´on y el desfase del primer arm´onico de la
salida v(t) de un sistema no lineal ante una entrada sinusoidal de amplitud A y
frecuencia ω.
El concepto de funci´on descriptiva puede, por tanto, ser considerado como
una ampliaci´on de la noci´on de respuesta frecuencial de los sistema lineales. Las
diferencias entre ambos conceptos se limitan a que la funci´on descriptiva de un
elemento no lineal depende de la amplitud, mientras que la funci´on de trans-
ferencia de un elemento lineal no depende de ella. Sin embargo, con vistas a
las aplicaciones al dise˜ no de sistemas realimentados pueden tratarse de forma
an´aloga.
En general, por tanto, la funci´on descriptiva depende de la frecuencia y la
amplitud de la se˜ nal de entrada. Existen, sin embargo, algunos casos especiales.
Cuando la no linealidad es uniforme (es decir, su caracter´ıstica es una funci´on que
asigna a cada valor de la se˜ nal de entrada un ´ unico valor de la se˜ nal de salida)
la funci´on descriptiva N es real e independiente de la frecuencia de entrada. El
car´acter real de N se debe a que a
1
= 0, debido a que la se˜ nal de salida del
elemento no lineal es impar, y en ese caso, como hemos recordado antes, todos
los t´erminos a
i
se anulan. Adem´as, la salida es siempre alternada, por lo que
los t´erminos pares desaparecen. Por tanto ante una no-linealidad uniforme se
tendr´a´ a
v(t) = b
1
sen ωt + b
3
sen 3ωt + b
5
sen 5ωt + ...
13.2 Algunas funciones descriptivas
La determinaci´on de la funci´on descriptiva se puede hacer b´asicamente de dos
formas: por c´alculo anal´ıtico o por determinaci´on experimental.
Por lo que respecta al m´etodo anal´ıtico vamos a presentar un par de ejemplos
para ilustrar su aplicaci´on. El primero de los ejemplos es una saturaci´on que
aporta un ejemplo de un sistema no lineal con caracter´ıstica est´atica. Tambi´en
se presenta un ejemplo de un rel´e con holgura, cuya caracter´ıstica es din´amica.
Sistemas no lineales 292
13.2.1 Saturaci´on
entrada
sinusoidal
ka
ωt γ
ka
0
ωt
γ
π/2
A 0
0 a
x
k
salida no saturada
salida saturada
saturaci´on
x(t)
v
v(t)
Figura 13.7: Caracter´ıstica de una saturaci´on.
En la figura 13.7 se muestra la caracter´ıstica de una saturaci´on. Para valores
de x < a el elementos no lineal transmite la se˜ nal de forma lineal, con una
amplificaci´on. Para valores de x > a la se˜ nal de entrada queda truncada por
efecto de la no linealidad.
En la figura 13.7 se muestra el efecto de la saturaci´on sobre una se˜ nal de
entrada de amplitud mayor que a, para el caso en que A sea mayor que a. En tal
caso se tiene que la se˜ nal de salida del elemento no lineal vendr´a dada por
v(t) =

kA sen (ωt) 0 ≤ ωt ≤ γ
ka γ ≤ ωt ≤ π/2
siendo γ = sen
−1
(a/A)
a
1
= 0 obs´ervese que el car´acter impar de v(t) implica que a
1
= 0 y que
la simetr´ıa de la se˜ nal sobre los cuatro cuadrantes en que se puede considerar
Sistemas no lineales 293
dividido un periodo indica que
b
1
=
4
π

π/2
0
v(t) sen ωtd(ωt) (13.17)
=
4
π

γ
0
kA sen
2
ωtd(ωt) +
4
π

π/2
γ
ka sen ωtd(ωt)
=
2kA
π

¸
γ +
a
A

1 −
a
2
A
2
¸

por consiguiente, la funci´on descriptiva resulta ser
N(A) =
b
1
A
=
2k
π

¸
γ +
a
A

1 −
a
2
A
2
¸

(13.18)
En la figura 13.8 se representa la funci´on descriptiva de una saturaci´on.
0 1 5 10
A/a
0.0
0.2
0.4
0.6
0.8
1.0
1.2
N
(
A
)
/
k
Rango lineal
Figura 13.8: Funci´on descriptiva de una saturaci´on.
13.2.2 Rel´e
La caracter´ıstica no lineal de un rel´e se muestra en la figura 13.9. Si se compara
con la caracter´ıstica de una saturaci´on, que se vio en la figura 13.7 se tiene que la
no linealidad de un rel´e corresponde a un caso l´ımite de una saturaci´on definido
por
a →0, k →∞
Sistemas no lineales 294
0 5 10
A
0.0
0.4
0.8
1.2
1.6
2.0
N
(
A
)
/
M
a cero
a infinito
encendido
apagado
-M
M
0
x
v
Figura 13.9: Caracter´ıstica de un rel´e
siendo ka = M. Por tanto, b
1
puede obtener de la expresi´on (13.18) calculando
el l´ımite. Sin embargo se obtiene m´as f´acilmente calcul´andolo directamente de
acuerdo con
b
1
=
4
π

π/2
0
M sen ωtd(ωt) =
4M
π
(13.19)
por lo que la funci´on descriptiva de un rel´e viene dada por
N(A) =
4M
πA
(13.20)
En la figura 13.9 se representa la funci´on descriptiva de un rel´e. Puede compararse
esa funci´on descriptiva con la de la saturaci´on que se vio en la figura 13.8.
13.2.3 Holgura
En la figura 13.10 se muestra la caracter´ıstica de una holgura, que se presenta
a menudo en los sistemas de transmisi´on mec´anica mediante engranajes. Como
consecuencia de la holgura, cuando el engranaje primario gira un ´angulo menor
que b, el secundario no se mueve, como corresponde a la zona muerta (segmento
OA en la figura 13.10); despu´es de establecido el contacto en engranaje secundario
sigue la rotaci´on del primario de manera lineal (segmento AB). Si se invierte el
sentido de giro del engranaje primario entonces durante un ´angulo 2b el secundario
no se mueve, de acuerdo con el segmento BC de la figura 13.10. Cuando se
restablece el contacto entre los dos engranajes el secundario sigue al primario en
la direcci´on opuesta (segmento CD). Por consiguiente, si el engranaje primario
Sistemas no lineales 295
b
salida
´angulo
entrada
´angulo
C
B
A
0
-b
D E
b
Engranaje secundario Engranaje primario
Figura 13.10: Caracter´ıstica de una holgura.
est´a sometido a un movimiento peri´odico el secundario recorrer´a el camino cerrado
EBCD, de la figura 13.10. Conviene observar que los puntos B, C, D y E de la
figura dependen de la amplitud de la se´ nal sinusoidal de entrada.
La holgura suministra un ejemplo de no linealidad con memoria, en la que
el valor de la salida en un instante de tiempo determinado, no depende exclusi-
vamente del valor de la entrada en ese instante, sino de la historia previa de las
se˜ nales de entrada que afectan al sistema.
El c´alculo de la funci´on descriptiva resulta en este caso m´as complejo que
en el de la no linealidades sin memoria. En la figura 13.11 se muestra como
se genera la se˜ nal de salida para una se˜ nal sinusoidal de entrada. La se˜ nal de
salida v(t), en un periodo, se determina dividiendo este periodo en las cuatro
partes correspondientes a los cuatro tramos que aparecen en el romboide de la
caracter´ıstica. Se tiene
v(t) = (A −b)k
π
2
≤ ωt ≤ π −γ
v(t) = A( sen ωt + b)k π −γ ≤ ωt ≤

2
v(t) = −(A −b)k

2
≤ ωt ≤ 2π −γ
v(t) = A( sen ωt −b)k 2π −γ ≤ ωt ≤

2
donde γ = sen
−1
(1 − 2b/A). En este caso la caracter´ıstica no es uniforme y la
componente fundamental de la se˜ nal de salida presenta variaci´ on de amplitud y
de fase. Se tiene
a
1
=
4kb
π

b
A
−1

b
1
=
Ak
π

¸
¸
π
2
− sen
−1

2b
A
−1

2b
A
−1

1 −

2b
A
−1

2
¸

Sistemas no lineales 296
2π −γ
x
ωt
b
3π/2
π −γ
π/2
-A A
x(t)
-b
−k(A−b)
k(A−b)
π/2
3π/2
ωt
entrada sinusoidal
v
v(t)
Figura 13.11: Generaci´on de la se´ nal de salida para una se˜ nal sinusoidal de en-
trada en una holgura.
Sistemas no lineales 297
es decir, la funci´on descriptiva de una holgura viene dada por
[ N(A) [=
1
A

a
2
1
+ b
2
1

N(A) = tan
−1

a
1
b
1

En las figuras 13.12 y 13.13 se representan la amplitud y desfase, respectivamente,
de la funci´on descriptiva de una holgura. Obs´ervese que en este caso la funci´on
0.0 0.2 0.4 0.6 0.8 1.0
b/A
0.0
0.2
0.4
0.6
0.8
1.0
A
m
p
l
i
t
u
d
Figura 13.12: Amplitud de la funci´on descriptiva de una holgura.
descriptiva depende exclusivamente de la amplitud de la se´ nal de entrada, como
suced´ıa en las no linealidades sin memoria (como la saturaci´on y el rel´e) que
se han visto anteriormente. Sin embargo, en este caso la funci´on descriptiva
tiene m´odulo y argumento (amplitud y desfase), mientras que en los casos de no
linealidades sin memoria la funci´on descriptiva posee ´ unicamente amplitud, y no
desfase.
13.2.4 Determinaci´on experimental de la funci´on descrip-
tiva
En lo ejemplos que se acaban de ver, se ha determinado la funci´on descriptiva
mediante la aplicaci´on de m´etodos matem´aticos. Ello es posible cuando la formu-
laci´on matem´atica del problema es aceptablemente sencilla. Cuando no es as´ı, se
procede de manera experimental con ayuda de un analizador arm´onico. Se excita
Sistemas no lineales 298
0.0 0.2 0.4 0.6 0.8 1.0
b/A
-90
-60
-30
0
D
e
s
f
a
s
e
Figura 13.13: Desfase de la funci´on descriptiva de una holgura.
el sistema no lineal cuya descripci´on descriptiva se quiere determinar, con se˜ nales
sinusoidales, y la salida se analiza mediante el analizador arm´onico, de modo
que se discrimine el primer arm´onico. Comparando las amplitudes y fases de la
se˜ nal de entrada y del primer arm´onico se puede determinar experimentalmente
la funci´on descriptiva. Conviene observar que, en este caso, y al contrario de lo
que sucede con los sistemas lineales, el an´alisis debe realizarse para se˜ nales de en-
trada de diferente amplitud; es decir, el ensayo debe realizarse variando tanto la
amplitud como la frecuencia de la se˜ nal de entrada. De este modo se determinan
los datos que permiten establecer la funci´on N(A, ω). Estos datos se procesaran
normalmente mediante tablas, y no mediante expresiones anal´ıticas.
13.3 An´alisis de sistemas no lineales mediante
la funci´on descriptiva
En las secciones anteriores hemos visto como se determina la funci´on descriptiva
de un elemento no lineal. Adem´as en la secci´on 13.1.1 se present´ o un ejemplo
introductorio que permit´ıa analizar la existencia de ciclos l´ımites en un sistema
no lineal mediante la funci´on descriptiva. En esta secci´on vamos a generalizar el
m´etodo all´ı presentado. Para ello, en primer lugar, conviene recordar el criterio
de Nyquist.
Sistemas no lineales 299
+
-
G(s)
H(s)
Figura 13.14: Sistema lineal realimentado.
−∞
+∞
ω →+∞
-1
plano s
G(s)H(s)
Figura 13.15: Criterio de Nyquist.
13.3.1 Una ampliaci´on del criterio de Nyquist
Sea el sistema lineal de la figura 13.14, cuya ecuaci´on caracter´ıstica resulta ser
1 + G(s)H(s) = 0 (13.21)
como se recordar´a el criterio de Nyquist permite conocer el n´ umero de raices
de la ecuaci´on caracter´ıstica con parte real negativa. Para ello basta dibujar la
aplicaci´on C del contorno de Nyquist en un plano complejo apropiado, determinar
el n´ umero N de veces que este contorno C rodea al punto (-1,0) y aplicar la
conocida expresi´on
Z = N + P
en donde P es el n´ umero de polos inestables de la funci´on de transferencia en
bucle abierto GH. Entonces Z es el n´ umero de polos inestables del sistema en
bucle cerrado (con s´olo que haya uno, el sistema es inestable).
Sistemas no lineales 300
0
-
+
Re
Im
-1
k G(s)
−1/k
H(s)
G(s)H(s)
Figura 13.16: Ampliaci´on del criterio de Nyquist.
N(A, ω) G(jω)
Elemento lineal
y(t) x(t)
+
-
Funci´on descriptiva
r(t) = 0 v(t)
Figura 13.17: Sistema no lineal.
El criterio de Nyquist se amplia formalmente para el caso en el que una con-
stante k, que consideraremos que puede ser un n´ umero complejo, se incluye en la
cadena directa de la figura 13.16. En tal caso la ecuaci´on caracter´ıstica resulta
ser
1 + kG(s)H(s) = 0 (13.22)
y por tanto,
G(s)H(s) = −
1
k
(13.23)
Es f´acil ver que en este caso el criterio de Nyquist se aplica igual que en el caso
anterior (de la figura 13.15) con la diferencia de que ahora N representa el n´ umero
de veces que el contorno de Nyquist de GH rodea al punto −1/k, lo que se ilustra
en la figura 13.16.
13.3.2 Oscilaciones de un servomecanismo no lineal
Consid´erese el sistema no lineal de la figura 13.17. Diremos que este sistema
presenta una oscilaci´on automantenida si para r = 0 el sistema presenta un
Sistemas no lineales 301
comportamiento oscilatorio. Supongamos que esta oscilaci´on viene dada por la
expresi´on
x(t) = A cos ωt (13.24)
El componente fundamental de la se˜ nal de salida del elemento no lineal v(t)
resulta ser
v(t) =[ N(A, ω) [ A cos (ωt + φ(A, ω)) (13.25)
Es sabido que (13.24) y (13.25) pueden escribirse de la forma
x(t) = '¦Ae
jωt
¦
v(t) = '¦[ N(A, ω) [ Ae
j(ωt+φ(A,ω))
¦
Empleando esta ´ ultima forma de representar un comportamiento oscilatorio, se
tiene que la salida del elemento lineal vendr´ a dada por
y(t) = '¦[ N(A, ω) [ A [ G(jω) [ e
j(ωt+φ+α)
¦
siendo α =

G(jω).
Para que la oscilaci´on sea automantenida, en ausencia de se˜ nal de excitaci´on
r, se requiere que:
−Ae
jωt
=[ N(A, ω) [ A [ G(jω) [ e
j(ωt+φ+α)
Es decir,
Ae
jωt

[ N(A, ω) [[ G(jω) [ e
j(φ+α)
+ 1

= 0
La anterior expresi´on se debe satisfacer para todo t, por lo que se tendr´a
[ N(A, ω) [[ G(jω) [ e
j(φ+α)
+ 1 = 0
es decir,
N(A, ω)G(jω) + 1 = 0 (13.26)
y por tanto,
G(jω) = −
1
N(A, ω)
(13.27)
y cualquier par de valores de A y ω que satisfaga la anterior ecuaci´on puede dar
lugar a un ciclo l´ımite. De aquellos valores que satisfagan esta ecuaci´on, solo dar´a
lugar a un ciclo l´ımite aquellos para los que la oscilaci´on peri´odica sea estable.
Sistemas no lineales 302
−1/N(A)
ω
Im
Re
A
G(jω)
L
Figura 13.18: Determinaci´on de un ciclo l´ımite.
13.3.3 Funci´ on descriptiva independiente de la frecuencia
Consid´erese el caso en el que la funci´on descriptiva N es ´ unicamente funci´on de
la amplitud A. Este caso incluye todas las no linealidades cuya caracter´ıstica es
uniforme y algunas no linealidades biformes interesantes como la holgura. En
este caso la expresi´on (13.27) se convierte en
G(jω) = −
1
N(A)
(13.28)
En la figura 13.18 se han representado la funci´on de transferencia de la parte
lineal G(jω) (parametrizado en ω) y la curva correspondiente a la inversa de
la funci´on descriptiva, con el signo cambiado, (parametrizada en A) en el plano
complejo. Si estas dos curvas se cortan, entonces los valores de A y de ω corres-
pondientes al punto de intersecci´ on son soluciones de la ecuaci´on 13.28, y en
consecuencia, pueden existir ciclos l´ımites. Por ejemplo, en la figura 13.18 las dos
curvas se cortan en el punto L.
Conviene recordar que para no-linealidades uniformes N es siempre real y por
consiguiente el trazado de (13.28) siempre est´a situado sobre el eje real.
13.3.4 Funci´ on descriptiva dependiente de la frecuencia
En el caso general la funci´on descriptiva depende tanto de la amplitud de la se˜ nal
de entrada como de su frecuencia y, en consecuencia el m´etodo que se acaba de
ver en el apartado anterior, adquiere mayor complejidad. En tal caso la expresi´on
en el segundo miembro de (13.27) da lugar a una familia de curvas en el plano
Sistemas no lineales 303
ω
1
ω
2
ω
3
ω
4
ω
Im
Re
A
−1/N(A, ω)
G(jω)
Figura 13.19: Determinaci´on de ciclos l´ımite con funciones descriptivas dependi-
entes de la frecuencia.
ω
A
1
A
2
A
3
A
4
-1
G(jω)N(A, ω)
Figura 13.20: Resoluci´on gr´afica de la ecuaci´on N(A, ω)G(jω) + 1 = 0.
complejo con A como par´ametro y ω permaneciendo constante en cada curva,
como se muestra en la figura 13.19. De todas las intersecciones entre la familia de
curvas 1/N(A, ω) y la curva G(jω) solamente aquellos puntos de intersecci´ on en
los que coincidan los valores de ω constituyen soluciones de la ecuaci´on (13.27), y
son, por tanto, candidatos a ciclos l´ımites. Existe otro procedimiento gr´afico para
resolver la expresi´on (13.27). Consiste en considerar la representaciones gr´aficas
de G(jω)N(A, ω). Dando a A un valor constante y variando ω de 0 a infinito, se
obtiene una curva que representa a G(jω)N(A, ω). Procediendo con diferentes
valores de A se obtiene una familia de curvas, como la que se muestra en la figura
13.20. La curva de esta familia que pase por el punto (-1,0) en el plano complejo
suministra una soluci´on de la expresi´on (13.27) .
Sistemas no lineales 304
L”
1
L
2
L
1
L

1
G(jω)
Im
Re
−1/N(A, ω)
ω
Figura 13.21: Estabilidad de ciclos l´ımite.
13.3.5 Estabilidad de los ciclos l´ımite
Con los ciclos l´ımites sucede lo mismo que con los equilibrios: que pueden ser
estables o inestables. Las soluciones de la ecuaci´on (13.27) deben someterse a
un an´alisis de estabilidad, para determinar cuales de ellas son estables y cuales
no. El criterio de Nyquist ampliado que hemos visto en la secci´on 13.3.1, permite
analizar esa estabilidad. Consid´erese la figura 13.21 en la que se muestran las
intersecciones entre la funci´on de transferencia de la parte lineal y la inversa
de la funci´on descriptiva de la parte no lineal. Estas dos curvas presentan dos
puntos de intersecci´on, L
1
y L
2
, por lo que el sistema presenta dos ciclos l´ımites.
Obs´ervese que el valor de A correspondiente al punto L
1
es menor que el de A
correspondiente a L
2
. Sup´ongase que la funci´on de transferencia de la parte lineal
G(jω) no posee polos inestables.
Vamos a analizar primero la estabilidad del ciclo l´ımite correspondiente al
punto L
1
. Consid´erese que el sistema se encuentra inicialmente operando en el
punto L
1
, con un ciclo l´ımite de amplitud A
1
y cuya frecuencia en ω
1
. Debido a
una peque˜ na perturbaci´on, la amplitud de la se˜ nal de entrada al sistema no lineal
se incrementa ligeramente, y el punto de operaci´on del sistema se mueve de L
1
a
L

1
. Puesto que el nuevo punto L

1
se encuentra a la derecha de la curva G(jω), de
acuerdo con el criterio de Nyquist ampliado que se ha visto en la secci´on 13.3.1,
el sistema es inestable, en este punto de operaci´on, y las amplitudes del sistema
tienden a crecer. Por consiguiente, el punto de operaci´on seguir´a creciendo a lo
largo de curva −1/N(A, ω) hasta el punto L
2
. Por otra parte, si el sistema se
perturba de modo que la amplitud A decrece, entonces el punto de operaci´on se
mover´a al punto L

1
. En este caso el punto L

1
queda a la izquierda de G(jω) y
Sistemas no lineales 305
el criterio de Nyquist ampliado garantiza la estabilidad del sistema, por lo que
las amplitudes tender´an a decrecer y el punto de operaci´on se alejara cada vez
m´as del punto de equilibrio L
1
. De todo lo anterior se desprende que una ligera
perturbaci´on destruye la oscilaci´on en el punto L
1
y que, por consiguiente, que
este ciclo l´ımite es inestable. Un an´alisis similar puede desarrollarse para el punto
L
2
con la conclusi´on de que ciclo l´ımite en ese caso es estable.
El anterior razonamiento no es del todo convincente, y debe considerarse como
una forma intuitiva de presentar un resultado que, por otra parte es correcto,
como se ver´a a continuaci´ on.
Una forma m´a´ as rigurosa de abordar el estudio de la estabilidad de las os-
cilaciones es el siguiente. Sea x = Ae
jωt
el primer arm´onico de la oscilaci´on
automantenida que se perturba ligeramente hasta que su amplitud toma el valor
A + ∆A y su frecuencia ω + ∆ω. Despu´es de la perturbaci´on, x(t) ya no es
una funci´on peri´odica, sino que posee un peque˜ no amortiguamiento δ, positivo o
negativo. Es decir, despu´es de la perturbaci´on la se˜ nal se convierte en:
x(t) = (A + ∆A)e
−δt
e
j(ω+∆ω)t
(A + ∆A)e
j(ω+∆ω+jδ)t
(13.29)
Por otra parte, la expresi´on (13.26) se puede escribir
X(A, ω) + jY (A, ω) = 0 (13.30)
agrupando los t´erminos correspondientes a sus partes real e imaginaria. Por otra
parte, la soluci´on´o(13.29) debe satisfacer tambi´en la anterior ecuaci´on dando lugar
a:
X(A + ∆A, ω + ∆ω + jδ) + jY (A + ∆A, ω + ∆ω + jδ) = 0 (13.31)
Desarrollando en serie de Taylor esta expresi´on, y tomando ´ u´ unicamente los
t´erminos de primer orden en ∆A, ∆ω y δ, se tiene:
∂X
∂ω
∆ω +
∂X
∂A
∆A −
∂Y
∂ω
δ = 0
∂Y
∂ω
∆ω +
∂Y
∂A
∆A +
∂X
∂ω
δ = 0
Eliminando ∆ω:

¸

∂X
∂ω

2
+

∂Y
∂ω

2
¸

δ =

∂X
∂A
∂Y
∂ω

∂Y
∂A
∂X
∂ω

∆A
Sistemas no lineales 306
Para que la oscilaci´on sea estable es necesario que δ y ∆A sean del mismo
signo, lo que exige que:

∂X
∂A
∂Y
∂ω

∂Y
∂A
∂X
∂ω

> 0 (13.32)
En el caso de una no linealidad uniforme se tiene,
N(A, )G(jω) + 1 = 0
Haciendo
G(jω) = U(ω) + jV (ω)
C(A) = −
1
N(A)
= P(A) + jQ(A)
se tiene
X(A, ω) = U(ω) −P(A)
Y (A, ω) = V (ω) −Q(A)
Por lo que la expresi´on (13.32) se escribe en este caso

∂Q
∂A
∂U
∂ω

∂P
∂A
∂V
∂ω

> 0
El primer miembro de esta desigualdad es un producto vectorial lo que puede
escribirse
dG(jω)


dC(A)
dA
> 0
Este producto vectorial permite la interpretaci´on geom´etrica que se muestra en
la figura 13.21. De acuerdo con ella, un ciclo limite ser´a estable si recorriendo
G(jω) en el sentido de las ω crecientes, en el punto de corte con C(A), se deja a
la izquierda el sentido de las A crecientes, en la curva de C(A) = −1/N(A).
figura: Criterio de estabilidad de ciclos l´ılimite.
De este modo se ha demostrado con rigor el resultado que previamente se
hab´ıa obtenido por consideraciones un tanto laxas con respecto al criterio de
Nyquist.
Sistemas no lineales 307
G(s)
r = 0 +
-
Figura 13.22: Sistema con un rel´e y realimentaci´on.
Ejemplo
Sea el sistema realimentado de la figura 13.22, que incluye un rel´e en la cadena
directa. Supongamos, en primer lugar, que la funci´on de transferencia de la parte
lineal es:
G
1
(s) =
K
s(s + 2)
Se trata de estudiar las posibles oscilaciones del sistema y su estabilidad.
Recordando la expresi´on (13.20) se tiene que la funci´on descriptiva de un rel´e
viene dada por
N(A) =
4M
πA
En este caso se supone que M = 1.
Seg´ un lo que se ha visto, el sistema ser´a oscilatorio si existe una soluci´on a la
ecuaci´on
G
1
(ω) = −
1
N(A)
Esta ecuaci´on, en este caso, conduce a
K
jω(jω + 2)
= −
πA
4
Es decir
4K = −πAjω(jω + 2)
Igualando sus partes reales e imaginarias se tiene:
4K = πAω
2
−2πAjω = 0
Sistemas no lineales 308
De donde se desprende que ω = 0, y por lo tanto el sistema no oscilar´a, pues no
existe ninguna frecuencia para la que se tenga una soluci´on oscilatoria.
A la misma conclusi´on se llega empleando m´etodos gr´aficos, y comprobando
que la representaci´ on gr´afica de la funci´on de transferencia de la parte lineal y de
la funci´on descriptiva s´olo se cortan en el origen.
Supongamos ahora que la ecuaci´on de la parte lineal es
G
2
(s) =
K
s(s + 2)(s + 5)
En ese caso la ecuaci´on de oscilaci´on se convierte en
K
jω(jω + 2)(jω + 5)
= −
πA
4
es decir
4K = −πAjω(jω + 2)(jω + 5) = 7Aω
2
+ Aj(ω
3
−10ω)
Con lo que igualando partes reales e imaginarias se tiene
4K = 7πAω
2
ω
3
−10ω = 0
Por lo tanto, en este caso el sistema oscila con una frecuencia ω =

10 y una
amplitud A = 2K/35π.
Para estudiar la estabilidad del oscilador se recurre al diagrama de Nyquist
que se muestra en la figura 13.23. El punto de oscilaci´on corresponde al punto
P de esta figura. Para estudiar la estabilidad del ciclo l´ımite, supongamos, en
primer lugar, una perturbaci´on que haga que la entrada al elemento no lineal se
incremente a un nuevo valor, de modo que el punto de operaci´on se desplace a P

.
Puesto que P

se encuentra en la regi´on de operaci´on estable, la amplitud de la
entrada al elemento no lineal tiende a decrecer y por tanto el punto de operaci´on
se mueve de nuevo a P. De forma an´aloga, si la perturbaci´on hace decrecer la
amplitud de la entrada al sistema no lineal entonces se produce un desplazamiento
del punto de operaci´on a P

, que se encuentra situado en la regi´on de operaci´on
inestable. La amplitud de la entrada, en este caso, se incrementa de modo que
el punto de operaci´on vuelve de nuevo a P. Por consiguiente el sistema tiene un
ciclo l´ımite estable en P.
Sistemas no lineales 309
Im
A
G
2
(jω)
Re
P” P P

Figura 13.23: Estudio de la estabilidad de un sistema no lineal con un rel´e.
13.3.6 Fiabilidad del an´alisis mediante funciones descrip-
tivas
Cuando se emplea el m´etodo de la funci´on descriptiva conviene no olvidar nunca
el car´acter aproximado de esa funci´on, lo que conduce a resultados que tienen
tambi´en una naturaleza aproximada. Este car´acter aproximado afecta no s´olo a
los valores num´ericos de las amplitudes y frecuencias de las oscilaciones de los
ciclos l´ımites, sino tambi´en a la propia existencia de estos.
Conviene recordar una de las hip´otesis sobre las que est´a basado el m´etodo:
el car´acter de filtro paso bajo del sistema lineal. Adem´as, la propia expresi´on
(13.27) puede ser sensible a las aproximaciones que comporta el m´etodo. Con
car´acter general se puede decir que las conclusiones del m´etodo ser´an tanto m´as
s´olidas cuanto m´as neta sea la intersecci´ on de las curvas que representan la parte
lineal y la inversa de la parte no lineal en la resoluci´on gr´afica del m´etodo. En la
figura 13.24 se muestran dos situaciones extremas posibles. En la figura 13.24a se
presenta un caso en el que el sistema muestra una gran sensibilidad, lo que hace
temer que las conclusiones del m´etodo se puedan ver fuertemente afectadas.
Por otra parte, la figura 13.24b muestra un caso en el que las conclusiones son
altamente fiables. Cabe decir, que cuanto m´as perpendicular es la intersecci´on
entre las curvas G(jω) y −1/N(A, ω), m´as fiables son los resultados del m´etodo.
Sistemas no lineales 310
a)
b)
Figura 13.24:
Sistemas no lineales 311
13.4 Criterios de estabilidad relativos a la de-
scripci´on interna
13.4.1 Teor´ıa de Lyapunov
El estudio de la estabilidad de los sistemas en torno a los puntos de equilibrio se
puede hacer con gran sencillez y elegancia con ayuda de la teor´ıa de Lyapunov.
La utilidad del m´etodo de Lyapunov reside en el hecho de que su teor´ıa establece
una condici´on suficiente para la estabilidad de un sistema din´amico. El establec-
imiento de esta suficiencia consiste en la determinaci´on de una funci´on de energ´ıa,
llamada funci´on de Lyapunov, la cual puede determinarse sin el conocimiento
expl´ıcito de la soluci´on de la ecuaci´on diferencial del sistema.
13.4.2 Un ejemplo introductorio
Sea el sistema de la figura 13.25, constituido por una masa (m = 1), que se
desplaza sobre una l´ınea recta, y que est´a unida a una pared por medio de un
resorte y de un amortiguamiento. Se supone que el resorte y el amortiguamiento
son no lineales. El resorte ejerce una fuerza k(x) que depende del desplazamiento
x de la masa de la posici´on de equilibrio. La forma de k(x) se representa en la
figura 13.26. El amortiguador ejerce una fuerza proporcional al valor instant´ aneo
de la velocidad dx/dt de la masa, de manera que el factor de proporcionalidad
est´e dado por h(x). El balance de fuerzas sobre el sistema conduce a la siguiente
ecuaci´on.
d
2
x
dt
2
+ h(x)
dx
dt
+ k(x) = 0 (13.33)
Esta ecuaci´on puede escribirse, empleando las variables de estado x
1
= x y
x
2
= dx/dt, como sigue,
˙ x
1
= x
2
˙ x
2
= −k(x
1
) −x
2
h(x
1
) (13.34)
La energ´ıa total del sistema V est´a formada por la energ´ıa cin´etica de la masa
en movimiento y la energ´ıa potencial almacenada en el resorte, y viene dada por,
V (x
1
, x
2
) =
x
2
2
2
+

x
1
0
k(x
1
)dx (13.35)
Sistemas no lineales 312
k(x)
h(x)
x
Figura 13.25: Sistema formado por una masa unida a un soporte
De la observaci´on de la anterior expresi´on se desprende que V satisface las dos
condiciones matem´aticas siguientes:
V (x) > 0 para x = 0
V (0) = 0 (13.36)
lo que, dicho en palabras, significa que la energ´ıa del sistema es siempre positiva
excepto cuando el sistema est´a en reposo.
Interesa ahora averiguar c´omo evoluciona la energ´ıa del sistema con el tiempo.
Para ello se determina la derivada total de V con respecto al tiempo que resulta
ser,
dV
dt
=
∂V
∂x
1
dx
1
dt
+
∂V
∂x
2
dx
2
dt
(13.37)
de donde se obtiene, teniendo presente 13.34 y 13.35,
dV
dt
= k(x
1
)x
2
+ x
2
[−k(x
1
) −x
2
h(x
1
)] = −x
2
2
h(x
1
) (13.38)
Se supondr´a que h(x) > 0 para todo x. F´ısicamente, ello representa un amor-
tiguamiento positivo, es decir, que la fuerza que ejerce el amortiguador se opone
siempre al movimiento.
En consecuencia, dV/dt es negativa, excepto en los puntos en donde la veloci-
dad sea nula en los cuales dV/dt es, a su vez, nula. En consecuencia, la energ´ıa del
sistema no puede aumentar ni puede permanecer constante excepto en el estado
de equilibrio; por consiguiente, la energ´ıa debe siempre decrecer hasta alcanzar el
estado de equilibrio, en donde permanece constantemente igual a cero. Obs´ervese
que lo que sucede es que el sistema pierde progresivamente su energ´ıa, suma de
la cinem´atica y la potencial, en un proceso disipativo debido al amortiguamiento
Sistemas no lineales 313
k(x)
x
Figura 13.26: Fuerza est´atica que ejerce el soporte
V
1
V
2
V
3
V
3
> V
2
> V
1
Figura 13.27: Las trayectorias cortan transversalmente las curvas equipotenciales
Sistemas no lineales 314
representado por h(x). Si no existiese este amortiguamiento, y fuese h = 0,
entonces en la expresi´on (13.38) se tendr´a dV/dt = 0.
Para el caso de que el resorte y el amortiguador sean lineales, se tendr´a que
k(x) = kx y h(x) = h, en donde k y h son constantes. En tal caso 13.35 se
convierte en,
V (x
1
, x
2
) =
kx
2
1
+ hx
2
2
2
(13.39)
La evoluci´ on del sistema puede, en este caso, ser objeto de una interpretaci´on
geom´etrica. La evoluci´on de las variables de estado x
1
y x
2
pueden interpretarse
gr´aficamente en un plano llamado el plano de estado. En este plano las superficies
V = const, dan lugar a elipses, tal como se indica en la figura 13.27. La evoluci´ on
del sistema, es decir, una soluci´on de la ecuaci´on 13.33, se representa en el plano
de estado por medio de una trayectoria, tal como la que se indica en la figura
13.27. Puesto que la energ´ıa debe siempre decrecer, la trayectoria debe atravesar
las elipses desde el exterior hacia el interior. De este modo, la trayectoria se
aproxima progresivamente al origen, que es el estado de equilibrio.
Debe notarse que las conclusiones relativas a la estabilidad del sistema, a´ un
en el caso de que el resorte y el amortiguador sean no lineales, se obtienen sin
necesidad de resolver la ecuaci´on diferencial 13.33. Es decir, de la observaci´ on de
la expresi´on 13.38 se concluye que siempre que el amortiguamiento sea positivo,
el sistema evolucionar´a hacia una posici´on de equilibrio.
Este ejemplo muestra la esencia del m´etodo de Lyapunov, el cual consiste en
la determinaci´on de una funci´on, que juega el mismo papel que la funci´on V (t)
en este ejemplo, y en el estudio de la evoluci´on con el tiempo de la misma. En
las secciones siguientes se estudia con detenimiento este m´etodo.
13.4.3 Noci´on de estabilidad en el sentido de Lyapunov
Antes de proceder al estudio de la estabilidad de un sistema representado por su
descripci´on interna, conviene introducir las siguientes definiciones:
1. Estado de equilibrio
Un estado x
e
de un sistema din´amico se dice que es un estado de equilibrio
si,
x
e
= φ(t, t
0
, x
e
, 0) (13.40)
Sistemas no lineales 315
para alg´ un t
0
y para todo t > t
0
.
La anterior definici´on indica que si el sistema se encuentra en el estado de
equilibrio y no se le aplica ninguna se˜ nal de entrada, permanece indefinida-
mente en dicho estado. Formalmente, un estado de equilibrio es una soluci´on
del sistema de ecuaciones,
x
e
= φ(t, t
0
)x
e
(13.41)
Es claro que el estado 0 es un estado de equilibrio de un sistema din´amico.
2. Estabilidad en el sentido de Lyapunov
Un estado de equilibrio x
e
se dice estable en el sentido de Lyapunov si, y
s´olo si, para todo n´ umero positivo ε existe un n´ umero positivo δ(ε) tal que,
(| x
0
−x
e
|≤ δ) ⇒(φ(t, t
0
, x
0
, 0) |≤ ε)
para un cierto valor de t
0
y para todo t > t
0
.
De una manera intuitiva se puede decir que un estado de equilibrio x
e
es
estable en el sentido de Lyapunov si la trayectoria del estado a partir de
un estado suficientemente cercano a x
e
no se separa significativamente del
estado de equilibrio. En la 13.28 se ilustra el concepto de estabilidad en el
sentido de Lyapunov.
3. Estabilidad asint´ otica en el sentido de Lyapunov
Un estado de equilibrio x
e
se dice que es asint´ oticamente estable, si es
estable en el sentido de Lyapunov, y adem´as todas las trayectorias del estado
que se inicien suficientemente cerca de x
e
convergen a x
e
cuando t → ∞.
Formalmente se puede interpretar este resultado como sigue.
Para todo n´ umero real µ > 0, existe una constante real δ > 0 tales que les
corresponde un n´ umero real T(µ, δ) > 0 tal que,
[| x
0
−x
e
|≤ δ] ⇒[| φ(t, t
0
, x
0
, 0) −x
e
|≤ µ] (13.42)
para todo t > t
0
+ T.
13.4.4 Teorema de Lyapunov
Antes de proceder a enunciar el teorema de Lyapunov conviene introducir el
concepto de funci´on definida positiva.
Sistemas no lineales 316
ε
δ
V (x) = k
x
0
Figura 13.28: Estabilidad en el sentido de Liapunov
Una funci´on escalar V (x), de n variables, se dice que es definida positiva en
una regi´on R alrededor del origen si,
1. V (x) es continuamente diferenciable en IR.
2. V (0) = 0.
3. V (x) > 0 para todo x = 0 perteneciente a IR.
Si la condici´on (3) de la definici´on anterior se cambia a V (x) ≥ 0 para todo
x perteneciente a R, entonces se dice de V (x) que es positiva semidefinida. Si
V (x) < 0, entonces V (x) es definida negativa; y, por ´ ultimo, si V (x) ≤ 0 entonces
V (x) se dice semidefinida negativa.
Con la ayuda de estos conceptos se puede proceder a enunciar el siguiente
teorema, debido a Lyapunov.
Teorema
El estado de equilibrio x
e
= 0 de un sistema aut´onomo es estable si
existe una funci´on definida positiva V (x), tal que su derivada total
con relaci´on al tiempo dV (x)/dt a lo largo de toda trayectoria del
sistema, es semidefinida negativa.
Sistemas no lineales 317
Demostraci´on
Una funci´on V (x) tal que satisfaga las condiciones del teorema anterior, recibe
la denominaci´on de funci´on de Lyapunov.
La existencia de una funci´on de Lyapunov garantiza la estabilidad de un
sistema. En efecto, consid´erese el espacio bidimensional que se muestra en la
figura 13.28. Consid´erese adem´as, sin p´erdida de generalidad, que el origen es un
estado de equilibrio, cuya estabilidad se quiere analizar. Para que el sistema sea
estable, debe demostrarse que dado un cierto ε > 0, entonces existe δ > 0 tal que
(| x
0
|< δ) ⇒(| φ(t, t
0
, x
0
, 0) |< ε) (13.43)
para todo t > t
0
. Sea ε tal como se muestra en la figura 13.28. Puesto que existe
una funci´on de Lyapunov V (x), esta funci´on ser´a tal que V (x) > 0 para todo
x = 0.
Consid´erese el contorno de V (x) = k, para todo x ≤ ε. Se elige un valor de δ
tal que sea la menor distancia entre el estado de equilibrio y la curva V (x) = k.
Consid´erese cualquier x
0
situado en el interior del circulo definido por el radio δ.
Se tendr´a que V (x
0
) < k.
El anterior teorema puede modificarse para el caso de la estabilidad asint´ otica,
sencillamente cambiando la condici´on de que
˙
V (x) sea semidefinida negativa,
por la de que sea definida negativa. La demostraci´on del teorema, con esta
modificaci´on, es muy simple.
Ejemplo
Consid´erese el sistema no-lineal descrito por ,
˙ x
1
= x
2
−x
1
(x
2
1
+ x
2
2
)
˙ x
2
= −x
1
−x
2
(x
2
1
+ x
2
2
)
Si se adopta
V (x) = x
2
1
+ x
2
2
Se tendr´a
˙
V (x) = −2(x
2
1
+ x
2
2
)
2
La cual es negativa excepto para x
1
= x
2
= 0. Es decir,
˙
V es decreciente a lo
largo de cualquier soluci´on y, por lo tanto, V es una funci´on de Lyapunov. Se
concluye que el sistema es asint´oticamente estable.
Sistemas no lineales 318
13.4.5 Aplicaci´on del m´etodo de Lyapunov a sistemas li-
neales
Sup´ongase un sistema caracterizado por la terna (A, b, c). Se trata de estable-
cer criterios que permitan discernir si un sistema ser´a estable o no a partir del
conocimiento de las matrices que constituyen la anterior terna.
Para un sistema lineal, la transici´on entre estados puede descomponerse en
una transici´on con entrada nula, y una transici´on a partir del estado nulo, de
acuerdo con la siguiente expresi´on:
x(t) = φ(t
1
, t
0
, x
0
, u) = φ(t
1
, t
0
, x
0
, 0) + φ(t
1
, t
0
, 0, u) (13.44)
Ello es una consecuencia inmediata de la propiedad de superposici´on. Para el
estudio de la estabilidad tiene un gran inter´es la anterior descomposici´on. De he-
cho, se procede a estudiar por separado la estabilidad de cada uno de los t´erminos
de la expresi´on 13.44. Combinando los resultados de estabilidad de cada una de
las partes, se obtiene la estabilidad del sistema.
Sea x
e
un estado de equilibrio. Se puede escribir,
x(t) −x
e
= φ(t) (x
0
−x
e
)
= e
At
(x
0
−x
e
) (13.45)
y definiendo δx = x −x
e
se tiene que:
δx(t) = e
At
δx(0) (13.46)
La estabilidad en el sentido de Lyapunov tal como se ha definido anterior-
mente, exige que [δx(t)[ < k, para todo t. De la observaci´ on de la expresi´on
13.46, se tiene que el que [δx(t)[ < k es equivalente a que | e
At
|< k, en donde
| e
At
| representa la norma de la matriz e
At
.
Por otra parte se sabe que A se puede escribir,
A = P A P
−1
(13.47)
en donde P es una matriz no singular y A es la forma de Jordan de la matriz A.
Es sabido que,
e
At
= Pe
At
P
−1
(13.48)
Sistemas no lineales 319
luego, de las propiedades de la norma de una matriz, se tiene que,
| e
At
|=| P | | e
At
| | P
−1
| (13.49)
De la expresi´on (13.49) se desprende el hecho de que | e
At
| est´e, a su vez,
acotada. Por lo tanto el estudio de las condiciones que debe cumplir | e
At
| para
que est´e acotada, se puede reducir al de | e
At
|.
Ahora bien e
At
est´a acotada si y s´olo si lo est´an todos los elementos de esa
matriz. Estos elementos son de la forma t
k
e
λ
i
t
en donde λ
i
= α
i
+ jw
i
es un
autovalor de A. Si α
i
es negativo, es inmediato que t
k
e
λ
i
t
est´a acotado solo si
k = 0, es decir, el autovalor imaginario puro es un cero simple del polinomio
m´ınimo de A.
Teorema
El estado de reposo de ˙ x = Ax, considerado como estado equilibrio, es
asint´oticamente estable si y s´olo si todos los autovalores de A tienen
la parte real negativa.
Demostraci´on
Siguiendo la misma l´ınea de la demostraci´on del teorema anterior, se tiene
que el estado de reposo ser´a asint´ oticamente estable, si adem´as de | e
At
| ser
acotada, se exige que e
At
tienda a cero cuando t →∞. Razonando como se hizo
en la demostraci´on del anterior teorema se tiene que ello s´olo ser´a posible si todos
los autovalores de A tienen la parte real negativa.
Para estudiar la estabilidad de la respuesta del sistema a partir del reposo,
debe recordarse que la respuesta de un sistema a partir del reposo viene dada
por:
y(t) =

t
t
0
g(t, τ) u(τ) dτ (13.50)
Por otra parte, la respuesta de un sistema a una entrada nula, viene dada por
la soluci´on del sistema de ecuaciones diferenciales siguiente,
˙ x = Ax (13.51)
Sistemas no lineales 320
a partir de un estado inicial arbitrario. Esta respuesta viene dada por,
x(t) = φ(t, t
0
; x
0
, 0) = φ(t, t
0
)x
0
(13.52)
Para estudiar las aplicaciones del m´etodo de Lyapunov al estudio de la es-
tabilidad de sistemas lineales, estacionarios, conviene introducir previamente la
noci´on de matriz definida positiva.
Una matriz Q se dice definida positiva si la forma cuadr´atica x
T
Qx es positiva
definida. Se escribe entonces Q > 0.
De forma an´aloga se define una matriz semidefinida positiva, definida negativa
y semidefinida negativa (y se escribe Q ≥ 0, Q < 0, y Q ≤ 0, respectivamente).
Para determinar si una matriz Q es definida positiva , se aplica el criterio de
Sylvester, el cual establece que la matriz Q es definida positiva si se cumple que
q
11
> 0, det

q
11
q
12
q
21
q
22

> 0, det

¸
¸
q
11
q
12
q
13
q
21
q
22
q
23
q
31
q
32
q
33
¸

> 0,
Consid´erese un sistema lineal aut´onomo,
˙ x(t) = Ax(t) (13.53)
Para estudiar si el origen es un estado de equilibrio asint´oticamente estable,
se establece el siguiente teorema.
Teorema
Si el sistema (13.53) es asint´oticamente estable, entonces para toda
matriz definida positiva P la ecuaci´on
A
T
Q + QA = −P (13.54)
tiene una soluci´on (´ unica) Q definida positiva.
Inversamente, si para una matriz P arbitraria definida positiva, la
ecuaci´on (13.54) tiene una soluci´on Q definida positiva, entonces el
sistema (13.53) es asint´oticamente estable.
Sistemas no lineales 321
Demostraci´on
1. Necesidad
Sup´ongase que 13.53 es asint´oticamente estable. Entonces para cualquier
P > 0 se define Q como,
Q =


0
e

Pe


que est´a completamente definida si A es asint´ oticamente estable. En tal
caso
A
T
Q + QA =


0

A
T
e
A
T
τ
Pe

+ e
A
T
τ
Pe

A


=


0
d

e
A
T
τ
Pe

= −P
Es decir, si el sistema es asint´oticamente estable para cualquier P > 0 existe
Q tal que satisface (13.54).
2. Suficiencia
Sup´ongase que para un cierto P > 0, la expresi´on (13.54) tiene una soluci´on
Q > 0. Entonces se define la funci´on de Lyapunov
V (x) = x
T
Qx
cuya derivada total es
dV
dt
(x) = ˙ x
T
Qx + x
T
Q˙ x
= x
T
A
T
Qx + x
T
QAx
= −x
T
Px < 0
es decir, el sistema es asint´oticamente estable.
Puesto que la matriz P es arbitraria aunque sim´etrica, en las aplicaciones
pr´acticas se hace P = I.
Ejemplo
Sistemas no lineales 322
Supongamos que el sistema de la expresi´on (13.33) se adopta en forma lineal
y se hace h = 1 y k = 2. Se tiene entonces el sistema lineal siguiente:
¨ x + ˙ x + 2x = 0
cuya descripci´on interna, haciendo x = x
1
y ˙ x = x
2
viene dada por:
˙ x
1
= x
2
˙ x
2
= −2x
1
−x
2
El estado de equilibrio es el origen x = 0. Se trata de estudiar la estabilidad
de este equilibrio empleando el m´etodo que se acaba de estudiar. Haciendo P = I
se tiene que la ecuaci´on (13.54) se convierte en,
A
T
Q + QA = −I
la cual, particularizando los valores de A, se convierte en:

0 −2
1 −1

q
11
q
12
q
12
q
22

+

q
11
q
12
q
12
q
22

0 1
−2 −1

=

−1 0
0 −1

en donde se ha tenido en cuenta que q
21
= q
12
. La anterior ecuaci´on se puede
escribir en forma de un sistema de ecuaciones en q
11
, q
12
y q
22
, las cuales resultan
ser las siguientes:
−4q
12
= −1
q
11
−q
12
−2q
22
= 0
2q
12
−2q
22
= −1
Estas ecuaciones admiten la soluci´on
q
11
=
7
4
q
12
=
1
4
q
22
=
3
4
por lo tanto,
Q =

7/4 1/4
1/4 3/4

Esta matriz, aplicando el criterio de Sylvester, resulta ser definida positiva. De
ello se concluye que el sistema es asint´ oticamente estable en torno al origen. La
funci´on de Lyapunov correspondiente es
V (x) =
7
4
x
2
1
+
1
2
x
1
x
2
+
3
4
x
2
2
Sistemas no lineales 323
y
˙
V viene dada por,
˙
V = −x
2
1
−x
2
2
que es definida negativa, luego el sistema es estable.
Obs´ervese que si se adoptase la energ´ıa como funci´on de Lyapunov (recordando
la expresi´on (13.35)) se tendr´a
V = x
2
1
+ x
2
2
y que
˙
V = −x
2
2
Lo que se ha querido es mostrar una funci´on de Lyapunov general, que no se
corresponda con la energ´ıa.
Por otra parte, este ejemplo s´olo pretende ilustrar el m´etodo anterior. Esta´a
claro que la determinaci´on´ode la estabilidad del equilibrio se hace de forma m´as
sencilla calculando los autovalores del sistema y comprobando que los dos tienen
parte real negativa.
13.5 Construcci´on de funciones de Lyapunov con
formas cuadr´aticas
Sea el sistema no lineal, con equilibrio en el origen:
˙ x = f(x) f(0) = 0 (13.55)
Sup´ongase que la dependencia funcional de f con relaci´on a las variables x
1
, x
2
, ...x
n
,
se puede descomponer aditivamente; es decir,
f
i
=
n
¸
j=1
f
ij
(x
j
) (13.56)
Este supuesto puede parecer restrictivo, pero en realidad est´a impl´ıcito en el
tipo de sistemas considerados hasta ahora, en los que se ten´ıan no linealidades
dependientes de una ´ unica variable conectadas entre s´ı mediante m´odulos aditivos.
En los ejemplos que veremos m´as abajo, quedar´a claro este hecho.
La expresi´on (13.56) puede escribirse
f
i
=
n
¸
j=1
f
ij
(x
j
)
x
j
x
j
Sistemas no lineales 324
vamos a hacer la hip´otesis adicional de que existe el l´ımite
lim
x
j
→0
f
ij
(x
j
)
x
j
lo cual significa que cada funci´on f
ij
(es decir, cada caracter´ıstica no lineal del
sistema) tiene en el origen una pendiente no nula. Todas las caracter´ısticas que
se han visto hasta ahora cumplen esta propiedad. En consecuencia, la expresi´on
(13.55) puede escribirse
˙ x = F(x)x (13.57)
siendo
F(x) =

f
ij
(x
j
)
x
j

obs´ervese que (13.57) recuerda formalmente a un sistema lineal como el de la
expresi´on 17.20, con la diferencia de que aqu´ı la matriz A depende del estado x
(por eso el sistema es no lineal).
Vamos a ver que gracias precisamente a la forma que tiene la expresi´on (13.57)
es posible ampliar el m´etodo aplicado a los sistemas lineales, a esta clase de
sistemas no lineales. En efecto, consid´erese una funci´on de Lyapunov de la forma:
V (x) = x
T
Qx Q
T
= Q
derivando esta funci´on de Lyapunov con respecto al tiempo, y recordando (13.57),
se tiene
˙
V (x) = ˙ x
T
Qx + x
T
Q˙ x
= x
T

F
T
(x)Q + QF(x)

x
De donde se concluye que si Q es definida positiva y si P, definida por
P(x) = −

F
T
(x)Q + QF(x)

es tambi´en definida positiva, entonces se cumplen las condiciones suficientes para
garantizar que el sistema (13.55) es asint´ oticamente estable.
Ejemplo
Sea el sistema representado en la figura 13.29. Este sistema est´a formado por
una parte lineal y un bloque no lineal, que posee la caracter´ıstica h. Se supone
que la referencia es u = 0, y que la caracter´ıstica es tal que h(0) = 0. Se trata de
estudiar su estabilidad.
Sistemas no lineales 325
5
x
2
-
+
-
+ u
-
+ x
1
y
z = h(y)
Figura 13.29:
Para ello, en primer lugar se escribe su descripci´on interna
˙ x
1
= −x
1
+ 5x
2
˙ x
2
= −h(x
1
) −x
2
+ u
que, a su vez, se puede reescribir de la forma (13.57).

˙ x
1
˙ x
2

=

¸
¸
−1 5

h(x
1
)
x
1
−1
¸

x
1
x
2

+

0
1

u (13.58)
siendo
F(x) =

¸
¸
−1 5

h(x
1
)
x
1
−1
¸

(13.59)
Puesto que u = 0 la expresi´on (13.58) es de la forma (13.57).
Se adopta la siguiente funci´on de Lyapunov
V (x) =

x
1
x
2

q
1
0
0 q
2

x
1
x
2

Recordando la expresi´on (13.5) se tiene
P(x) = −

F
T
(x)Q + QF(x)

=

¸
¸
¸
¸
2q
1
q
2
h(x
1
)
x
1
−5q
1
q
2
h(x
1
)
x
1
−5q
1
2q
2
¸

La estabilidad del sistema (13.57) estar´a garantizada siempre que P(x) sea definida
positiva. Para ello se requiere que
q
1
> 0
Sistemas no lineales 326
h(x)
Figura 13.30:
4q
1
q
2

q
2
h(x
1
)
x
1
−5q
1

2
> 0
La segunda de estas desigualdades requiere un an´alisis detenido. Sup´ongase que
los par´ametros q
1
y q
2
toman dos valores concretos; por ejemplo, q =
1
4
y q
2
= 1.
En este caso la segunda desigualdad se convierte en
1 −

h(x
1
)
x
1

5
4

2
> 0
que conduce a
9
4
>
h(x
1
)
x
1
>
1
4
Esta desigualdad se puede interpretar gr´aficamente como se hace en la figura
13.30. De acuerdo con esta figura la caracter´ıstica del sistema no lineal H debe
estar comprendida entre las rectas de pendientes 9/4 y 1/4. Si la caracter´ıstica
H cumple esta condici´on el sistema tiene garantizada su estabilidad.
Esta forma de establecer el criterio de estabilidad, mediante la definici´on de
un sector en el que se confina la caracter´ıstica no lineal del sistema tiene un gran
inter´es en las aplicaciones y aporta un instrumento para caracterizar la estabilidad
de sistemas no lineales de gran inter´es y posibilidades.
Sistemas no lineales 327
13.5.1 M´etodo de Krasovkii
El m´etodo de Krasovkii permite determinar la funci´on de Lyapunov de un sistema
no lineal de la forma
˙ x = f(x) f(0) = 0 (13.60)
tal que
∂f
i
∂x
j
existe en la regi´on de inter´es. De acuerdo con este m´etodo se adopta
como funci´on de Lyapunov
V (x) = | ˙ x|
2
= f
T
(x)f(x) ≥ 0 (13.61)
En tal caso se tiene
˙
V =

∂f
∂x
˙ x

T
f(x) + f
T
(x)
∂f
∂x
˙ x
= f
T
(x)[F
T
(x) + F(x)]f(x)
= −f
T
(x)P(x)f(x)
siendo
F(x) =
∂f
∂x
(13.62)
y
P(x) = −[F
T
(x) + F(x)] (13.63)
Si la matriz P(x) = F
T
(x) +F(x) es definida positiva entonces se cumplen las
condiciones suficientes para que (13.60) sea estable. Para que sea asint´oticamente
estable se requiere que P(x) sea definida positiva. Obs´ervese que si P es definida
positiva, entonces
˙
V < 0, ya que esto ´ ultimo es cierto para cualquier x y por
tanto paraf.
Ejemplo
Sea el sistema din´amico
˙ x
1
= −ax
1
+ x
2
˙ x
2
= x
1
−x
2
−x
3
2
tal que a > 1. Su ´ unico equilibrio en x = 0.
Sistemas no lineales 328
De acuerdo con (13.62) se tiene que
F(x) =

−a 1
1 −1 −3x
2
2

y recordando (13.63)
P(x) =

2a −2
−2 2 + 6x
2
2

para que P(x) sea definida positiva se tiene que cumplir
a > 0
y adem´as
4a + 12ax
2
2
−4 > 0
Puesto que a > 1 las dos desigualdades se cumplen y el sistema es asint´ oticamente
estable.
Ejemplo
Sea el sistema din´amico de la figura 13.5.1, en el que se tienen dos se˜ nales de
entrada u
1
y u
2
, dos se˜ nales de salida y
1
y y
2
, y dos no linealidades cuyas car-
acter´ısticas vienen dadas por g
1
y g
2
. Se trata de estudiar la estabilidad de este
sistema.
Las ecuaciones del sistema din´amico correspondiente resultan ser
˙ x
1
= −g
1
(x
1
) + g
2
(x
2
) + u
1
˙ x
2
= x
1
−ax
2
+ u
2
Se supone que u
1
= u
2
= 0 con lo que el sistema anterior se convierte en un
sistema aut´onomo. Se supone adem´as que g
1
(x
1
) = 0 y g
2
(x
2
) = 0. Recordando
la expresi´on (13.62) se tiene
F(x) =

¸
¸

∂g
1
∂x
1
∂g
2
∂x
2
1 −a
¸

Sistemas no lineales 329
u
1
= 0
u
2
= 0
x
1
y
1
y
2
x
2
a
+
-
+
+
+
-
+
+
z
1
= g
1
(y
1
)
z
2
= g
2
(y
2
)
Figura 13.31: Diagrama de bloques de un sistema no lineal.
Con lo que, de acuerdo con (13.63)
P(x) =

¸
¸
¸
¸
¸
2
∂g
1
∂x
1

1 +
∂g
2
∂x
2

1 +
∂g
2
∂x
2

2a
¸

Para que este sistema sea asint´ oticamente estable se requiere
1. a > 0,
2.
∂g
1
∂x
1
> 0,
3. 4a
∂g
1
∂x
1

1 +
∂g
2
∂x
2

2
> 0.
La condici´on 2 se interpreta mediante la figura 13.32 en la que se pone de
manifiesto que la caracter´ıstica g
1
debe ser siempre mon´otona creciente.
Sistemas no lineales 330
La condici´on 3 conduce a las regiones de estabilidad que se indican en la figura
13.33.
x
1
pendiente siempre
positiva
g
1
(x
1
)
Figura 13.32: Condici´on 2 para la estabilidad del sistema.
-1
∂g
2
(x
2
)
∂x
2
a
∂g
1
∂x
1
Inestable
Estable
Figura 13.33: Condici´on 3 para la estabilidad del sistema.
Tema 14
Introducci´on a la optimizaci´on de
sistemas din´amicos
14.1 Introducci´on
La optimizaci´on es un concepto que se emplea habitualmente en la vida ordinaria.
Cada vez que ante un determinado problema existen m´ ultiples soluciones, se
adopta aquella que, bajo un cierto punto de vista, se considera la ”mejor”. Este
concepto se puede formalizar, siempre que se puedan definir el conjunto | de
soluciones posibles, y exista una funci´on J(u) que permita medir el grado de
bondad de cada una de las soluciones, habida cuenta del punto de vista adoptado.
En lo que sigue, se considerar´a la mejor soluci´on aquella para la que la funci´on
J(u) adquiera el valor m´ınimo. En tal caso, el problema de optimizaci´on puede
expresarse formalmente como el de encontrar el valor u

perteneciente a | tal
que:
J(u

) ≤ J(u) ∀u ∈ |
La forma del conjunto | de soluciones posibles permite una primera clasificaci´on
de los problemas de optimizaci´on.
• Los elementos que constituyen el conjunto | pueden ser n´ umeros reales,
entre los que hay que elegir el valor m´as conveniente para que J(u) tome un
valor m´ınimo. En tal caso, el problema de optimizaci´on recibe la denomi-
naci´on de optimizaci´on est´atica, puesto que se trata de determinar el valor
331
Introducci´on a la optimizaci´on de sistemas din´amicos 332
que debe tomar un cierto par´ametro, o conjunto finito de par´ametros, para
que se obtenga la mejor soluci´on posible.
• Los elementos que constituyen el conjunto | pueden ser los valores que
toma una funci´on del tiempo u(t) para t ∈ [0, T]. En tal caso se tiene la
denominada optimizaci´on din´amica.
El problema de la optimizaci´on est´atica se reduce al de la determinaci´on de
los m´ınimos (o m´aximos) de una funci´on escalar. El problema que se estudiar´a
aqu´ı es el de la optimizaci´on din´amica, especialmente en su aplicaci´on a la teor´ıa
del control ´optimo.
14.2 Optimizaci´on Est´atica.
La optimizaci´on est´atica se reduce a la aplicaci´on de los m´etodos de m´aximos y
m´ınimos de funciones ordinarias, que vamos a repasar en esta secci´on.
14.2.1 Minimizaci´on de funciones
Sea D un subconjunto de n´ umeros reales x, dado por D = ¦x [ x
0
< x < x
1
¦ y
sea f una funci´on real tal que f : D → R. Se dice que f tiene un m´ınimo local
(relativo) en x

si existe un entorno N de x

tal que
∆f = f(x) −f(x

) ≥ 0, ∀x ∈ N
en tal caso se tiene,
∆x = (x −x

) > 0, ∆f > 0, =⇒
∆f
∆x
> 0
∆x = (x −x

) < 0, ∆f > 0, =⇒
∆f
∆x
< 0
Estos conceptos se ilustran en la figura 14.1. Es sabido que la condici´on necesaria
para tener un m´ınimo es:
df
dx
= 0
Mientras que la suficiente es:
d
2
f
dx
2
> 0
Introducci´on a la optimizaci´on de sistemas din´amicos 333
∆f
f
x
1
x
x x
o
x

Figura 14.1: M´ınimo de una funci´on ordinaria
x
x
x
f
df
dx
d
2
f
dx
2
Figura 14.2: Derivadas sucesivas en un m´ınimo
Introducci´on a la optimizaci´on de sistemas din´amicos 334
En la figura 14.2 se ilustran gr´aficamente estas condiciones.
Los anteriores resultados se generalizan para funciones multivariables. En
efecto, sea x ∈ R
n
, f : R
n
→R, (y = f(x
1
, ..., x
n
)). Se supone:
• f(x) es continua para todo x.
• El vector gradiente
∂f
∂x
=
¸
∂f
∂x
i
¸
es continuo para todo x.
• La matriz hessiana H es continua para todo x
H =
¸

2
f
∂x
i
∂x
j
¸
En estas condiciones, la condici´on necesaria para un m´ınimo en x

resulta ser
∂f
∂x
= 0
mientras que la suficiente es que la matriz hessiana
H =
¸

2
f
∂x
i
∂x
j
¸
sea definida positiva en x

.
Restricciones o Ligaduras
Sup´ongase que se trata de minimizar f(x) con la condici´on adicional de que el
m´ınimo est´e localizado en el subespacio definido por g(x) = 0
g : R
n
→R
m
M´etodo particular: eliminar m de las variables x
1
, ..., x
n
en g(x) = 0 y sustituir
en f(x). Se tiene entonces una funci´on de (n−m) variables que se resuelve como
m´as arriba. Esto no siempre es posible. En tal caso se emplea el m´etodo de los
multiplicadores de Lagrange.
Introducci´on a la optimizaci´on de sistemas din´amicos 335
Vamos a considerar el caso en el que n = 2 y m = 1. Es decir, se trata
de minimizar una funci´on f(x
1
, x
2
) de dos variables x
1
y x
2
, sometida a una
restricci´on g(x
1
, x
2
) = 0. La condici´on de m´ınimo es
df(x) =
∂f
∂x
1
dx
1
+
∂f
∂x
2
dx
2
= 0
adem´as la restricci´on g(x
1
, x
2
) = 0 implica que
∂g
∂x
1
dx
1
+
∂g
∂x
2
dx
2
= 0
Se tiene, formalmente,
dx
2
dx
1
= −
∂f
∂x
1
∂f
∂x
2
= −
∂g
∂x
1
∂g
∂x
2
o sea que las fracciones
∂f
∂x
1
∂f
∂x
2
y
∂g
∂x
1
∂g
∂x
2
deben ser proporcionales para un valor de x(t) candidato al m´ınimo (o m´aximo).
Sea λ esta constante de proporcionalidad
−λ =
∂f
∂x
1
∂g
∂x
1
=
∂f
∂x
2
∂g
∂x
2
(14.1)
Si se define la lagrangiana
L(x, λ) = f(x) + λg(x)
se tiene que
∂L
∂x
= 0
es equivalente a (14.1), mientras que:
∂L
∂λ
= g = 0
Introducci´on a la optimizaci´on de sistemas din´amicos 336
es la restricci´on. En general, para un problema de dimensi´on´ on n arbitraria, la
lagrangiana se define:
L(x, λ) = f(x) + λ
T
g(x)
Ejemplo
Determinar un punto, en un espacio tridimensional, que minimice la funci´on
f(x
1
, x
2
, x
3
) = x
2
1
+ x
2
2
+ x
2
3
y que est´e situado en la intersecci´on de la superficies
x
3
= x
1
x
2
+ 5
x
1
+ x
2
+ x
3
= 1
Se define la lagrangiana
L = x
2
1
+ x
2
2
+ x
2
3
+ λ
1
(x
1
x
2
+ 5 −x
3
) + λ
2
(x
1
+ x
2
+ x
3
−1)
lo que conduce a las ecuaciones para el m´ınimo
∂L
∂x
1
= 2x
1
+ λ
1
x
2
+ λ
2
= 0
∂L
∂x
2
= 2x
2
+ λ
1
x
1
+ λ
2
= 0
∂L
∂x
3
= 2x
3
−λ
1
+ λ
2
= 0
∂L
∂λ
1
= x
1
x
2
+ 5 −x
3
= 0
∂L
∂λ
2
= x
1
+ x
2
+ x
3
−1 = 0
La soluci´on est´a formada por los dos equilibrios (2, −2, 1) y (−2, 2, 1).
14.3 Introducci´on al control ´optimo
Sea un sistema din´amico descrito por una ecuaci´on diferencial de la forma:
˙ x = f(x, u) (14.2)
Introducci´on a la optimizaci´on de sistemas din´amicos 337
En donde el punto sobre la x representa su derivada con relaci´on al tiempo
(
dx
dt
≡ ˙ x). El sistema din´amico descrito por la ecuaci´on anterior debe seguir
una determinada trayectoria a partir del estado x(0), durante un intervalo de
tiempo [0, T]. Se trata de determinar la se˜ nal u(t) que deber´a aplicarse durante
este intervalo de tiempo para que en su evoluci´on se minimice el funcional:
J =

T
0
L(x, u, t)dt + S(x(T)) (14.3)
en donde las funciones de penalizaci´on L(x, u, t) y de coste terminal S(x(T)) son
en general funciones no negativas de x y de u, tales que L(0, 0, t) = 0 y S(0) = 0.
De todas las se˜ nales de mando u(t) ∈ | que pueden aplicarse al sistema descrito
por la ecuaci´on (14.2) durante el intervalo [0, T], existir´a una u

(t) tal que:
J(u

(t)) ≤ J(u(t)) ∀u(t) ∈ | (14.4)
La se˜ nal u

(t) recibe la denominaci´on de se˜ nal de control ´optima. Esta se˜ nal
constituye una prescripci´on del conjunto de valores que debe tomar la se˜ nal de
entrada (de control) u durante el intervalo [0, T].
En algunos problemas interesa en lugar de disponer de la se˜ nal de control
´optima u

(t), tener una expresi´on que permita calcular el valor de la se˜ nal de
entrada u en funci´on del estado x en que se encuentre el sistema. Es decir,
determinar una expresi´on de la forma u

(x). En tal caso se dice que se dispone
de una ley de control ´optima. La soluci´on es una soluci´on realimentada en la que
el valor que toma en cada instante, del intervalo [0, T], por la se˜ nal de entrada u
est´a determinada a partir del estado x en que se encuentra el sistema.
Las se˜ nales de entrada u(t) normalmente no pueden exceder unos determina-
dos l´ımites. Una se˜ nal de entrada (control) que satisfaga unas ciertas restricciones
en el control durante todo el intervalo de operaci´on (0, T) se denomina una se˜ nal
admisible de control (o control admisible). Se denota por | el conjunto de todos
los valores de la se˜ nal u(t) admisibles. u(t) es admisible si:
u(t) ∈ | ∀ t ∈ [0, T]
Tambi´en pueden darse restricciones sobre x(t). Una trayectoria del estado x(t)
que satisfaga las restricciones sobre el estado durante todo el intervalo de op-
eraci´on [0, T] se denomina una trayectoria admisible. Si X denota el conjunto de
los valores admisibles, se dice que x(t) es admisible si:
x(t) ∈ X ∀t ∈ [0, T]
Los requerimientos sobre el funcionamiento de la planta se representan matem´aticamente
mediante un criterio o ´ındice de funcionamiento.
Introducci´on a la optimizaci´on de sistemas din´amicos 338
14.3.1 Ejemplos
El problema del control ´optimo est´a formado b´asicamente por un sistema din´amico
de la forma (14.2) y por un criterio a optimizar de forma (14.3). Vamos a dedicar
esta secci´on a presentar algunos ejemplos de criterios de funcionamiento de la
forma (14.3).
Problema del tiempo m´ınimo
Se da el tiempo t = 0 y el estado inicial x(0) = x
0
. El estado final se requiere
que se encuentre en una cierta regi´on S ⊂ X T. S es el conjunto objetivo (si el
estado final est´a fijado de antemano, el conjunto S es una recta).
El objetivo del problema es transferir el estado del sistema desde x
0
a S en
un tiempo m´ınimo. El criterio de funcionamiento es:
J = T
=

T
0
dt
Problema de la energ´ıa m´ınima
Se trata de transferir el estado de un sistema desde x
0
hasta S con un gasto
m´ınimo de energ´ıa.
Normalmente u
2
(t) es una buena medida del flujo de gasto de energ´ıa, de
modo que para minimizar este gasto se puede adoptar el ´ındice:
J =

T
t
0
u
2
(t)dt
Si el sistema posee varias se˜ nales de control se tiene
J =

T
t
0
u
T
(t)u(t)dt
Para permitir mayor generalidad se puede considerar una matriz definida positiva
R de modo que
J =

T
t
0
u
T
(t)Ru(t)dt
Normalmente R es diagonal (si es definida positiva todos sus elementos son posi-
tivos). Los distintos valores de diag(R) representan el peso relativo que se asigna
a cada variable de control en el gasto de energ´ıa.
Introducci´on a la optimizaci´on de sistemas din´amicos 339
Problema del m´ınimo combustible
La tasa de consumo de combustible suele ser proporcional al empuje por lo que
se puede escribir
J =

T
0
[ u(t) [ dt
(siendo u la tasa de flujo del combustible - empuje del cohete), (o del veh´ıculo
espacial que se est´a maniobrando). Si existen varios propulsores
J =

T
0
(k
1
[ u(t) [ +k
2
[ u(t) [ +... + k
m
[ u(t) [)dt
siendo k
i
factores de peso (ponderaci´on) no negativos.
Problema del regulador del estado
Se trata de transferir un sistema desde un estado inicial x
0
a un estado deseado
x
f
(normalmente el estado de equilibrio del sistema) con un valor m´ınimo del
valor cuadr´atico medio del error.
Con relaci´on a x
f
el valor de x(t) − x
f
se puede considerar como el error
instant´aneo del sistema.
Si se cambia de coordenadas, de modo que x
f
= 0, entonces x(t) es el mismo
error.
J =

T
0
x
T
(t)x(t)dt
En general
J =

T
0
x
T
(t)Qx(t)dt
siendo Q una matriz real, sim´etrica, semidefinida positiva y constante. La forma
m´as simple de Q es
Q = diag [q
i
]
en donde q
i
representa el peso que se asigna a la componente x
i
del vector de
estados a la hora de evaluar su contribuci´ on a J. Cuanto mayor es q
i
mayor es el
esfuerzo de control dedicado a regular (llevar a cero) a x
i
.
Para minimizar la desviaci´on del estado final x(T) del sistema del estado
deseado x
f
= 0, se adopta el ´ındice
J = x
T
(T)Hx(T)
Introducci´on a la optimizaci´on de sistemas din´amicos 340
siendo H real, sim´etrica, semidefinida positiva y constante.
El ´ındice conjunto es
J = x
T
(T)Hx(T) +

T
0
x
T
(t)Qx(t)dt
que puede resultar a´ un insatisfactorio. Es m´as realista a˜ nadir un t´ermino que
penalice la acci´on de control u(t). Se tiene entonces
J = x
T
(T)Hx(T) +

T
0
[x
T
(t)Qx(t) + u
T
(t)Ru(t)]dt
Problema del regulador del estado en tiempo infinito
J =


0
[x
T
(t)Qx(t) + u
T
(t)Ru(t)]dt
La restricci´on terminal en este caso no es necesaria.
En el problema del regulador del estado se trata de mantener el estado peque˜ no
(lo m´as pr´oximo posible a x
f
= 0).
Problema del regulador de la salida
Supuesta ajustada la salida del sistema a un valor de referencia, en una escala,
en que sea y
ref
= 0, se trata de mantener y(t) lo m´as pr´oxima posible a cero.
J = y
T
(T)Hy(T) +

T
0
[y
T
(t)Qy(t) + u
T
(t)Ru(t)]dt
Problema del seguimiento (tracking)
Se trata de mantener el estado del sistema x(t) lo m´as cercano posible al estado
deseado r(t) en [0, T].
J = e
T
(T)He(T) +

T
0
[e
T
(t)Qe(t) + u
T
(t)Ru(t)]dt
siendo e = x −r.
Introducci´on a la optimizaci´on de sistemas din´amicos 341
q
h
V, c
q
1
q
2
c
1
c
2
Figura 14.3: Diagrama de un dep´osito mezclador.
14.3.2 Ejemplo de ´ındice de funcionamiento cuadr´atico
Consid´erese un mezclador de fluidos como el que se muestra en la figura 14.3,
en la que se tiene un esquema elemental de un proceso de mezcla de dos fluidos
en un dep´osito. Este dep´osito de volumen V y altura h est´a alimentado por
los caudales q
1
y q
2
, cada uno de los cuales con concentraci´ on c
1
y c
2
de un
determinado producto qu´ımico. La concentraci´on de este producto en el dep´osito
es c. El dep´osito evacua por un conducto situado en su parte baja mediante
un caudal q. Se supone que la homogeneizaci´on de las concentraciones de los
caudales de entrada se produce instant´aneamente gracias a la acci´on de unas
palas batidoras. Se supone, as´ı mismo, que la densidad es constante en el interior
del dep´osito.
Las ecuaciones del balance de masas son las siguientes:
dv(t)
dt
= q
1
(t) + q
2
(t) −q(t) (14.5)
d[c(t)v(t)]
dt
= c
1
(t)q
1
(t) + c
2
(t)q
2
(t) −c(t)q(t) (14.6)
El flujo de salida del dep´osito viene dado por
q(t) = k

h(t) = k

v(t)
a
(14.7)
En donde k es una constante y a es el ´area del dep´osito. De modo que v = ha.
Introducci´on a la optimizaci´on de sistemas din´amicos 342
Sup´ongase un estado estacionario de funcionamiento en el que se produce un
equilibrio entre las entradas y salidas del dep´osito, para los siguientes valores de
los flujos de entrada y salida, as´ı como del volumen en el dep´osito v
0
y de su
concentraci´on c
0
.
q
1
(0) = q
10
, q
2
(0) = q
20
, q(0) = q
0
, v(0) = v
0
, c(0) = c
0
Convienen observar que las concentraciones de entrada c
1
y c
2
se establecen en
la etapa anterior del proceso. En estas condiciones de r´egimen estacionario, las
ecuaciones (14.5, 14.6,14.7) toman la forma:
0 = q
10
+ q
20
−q
0
0 = c
1
q
10
+ c
2
q
20
−c
0
q
0
q
0
= k

v
0
a
Se trata de determinar las ecuaciones lineales que rigen el comportamiento
del sistema en torno a este estado estacionario en el supuesto de que se trate de
perturbaciones suficientemente peque˜ nas como para justificar la linealizaci´on.
Conviene observar que el proceso que se est´a considerando es un proceso no
lineal; es decir, la ecuaciones que gobiernan su comportamiento son no lineales.
Esta no linealidad tienen un doble origen. Por una parte, la ecuaci´on (14.6) es no
lineal ya que en ella aparecen producto de variables. Por otra parte, la expresi´on
(14.7) liga q con v (o con h) mediante una relaci´on no lineal (la ra´ız cuadrada).
Las variaciones de las distintas variables con respecto a los valores tomados
en r´egimen estacionario se denotar´an mediante un tilde sobre la variable corres-
pondiente. Es decir,
˜ q(t) = q(t) −q
0
representa la variaci´on del caudal q respecto al valor estacionario q
0
. An´alogamente
se definen el resto de las variables
˜ v(t) = v(t) −v
0
q
1
(t) = q
10
+ ˜ q
1
(t)
q
2
(t) = q
20
+ ˜ q
2
(t)
c(t) = c
0
+ ˜ c(t)
Si las variaciones son suficientemente peque˜ nas, entonces la expresi´on no lin-
eal (14.7) se puede linealizar en torno al valor correspondiente por r´egimen esta-
cionario, de acuerdo con
Introducci´on a la optimizaci´on de sistemas din´amicos 343
q(t) −q
0
=
k

a

v(t)
∂v(t)
[
v=v
0
(v(t) −v
0
)
Es decir
˜ q(t) =
k
2v
0

v
0
a
˜ v(t) (14.8)
De este modo la relaci´on entre la variaci´on ˜ q(t) del caudal con respecto al valor
en r´egimen estacionario, y la correspondiente al volumen ˜ v(t), queda linealizada.
Llevando las definiciones de las variaciones ˜ v(t), ˜ q
1
(t), ˜ q
2
(t) y ˜ c(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la definici´on del r´egimen estacionario y
(14.8) se tiene que
d˜ v(t)
dt
= ˜ q
1
(t) + ˜ q
2
(t) −
1
2
q
0
v
0
˜ v(t)
d˜ c(t)
dt
v
0
+ c
0
d˜ v(t)
dt
= c
1
˜ q
1
(t) + c
2
˜ q
2
(t) −
1
2
c
0
q
0
v
0
˜ v(t) −q
0
˜ c(t)
τ =
v
0
q
0
Si se escribe
x
1
= ˜ v
x
2
= ˜ c
u
1
= ˜ q
1
u
2
= ˜ q
2
y
1
= ˜ q
y
2
= ˜ c
y
τ =
v
0
q
0
se tiene que las ecuaciones del sistema din´amico linealizado pueden escribirse de
la forma siguiente:

˙ x
1
˙ x
2

=

¸
¸
¸

1

0
0 −
1
τ
¸

x +

¸
1 1
c
1
−c
0
v
0
c
2
−c
0
v
0
¸

u
Sistema din´amico lineal que describe el comportamiento del sistema perturbado
en torno al r´egimen estacionario.
Introducci´on a la optimizaci´on de sistemas din´amicos 344
Sup´ongase ahora que se trata de establecer un criterio cuadr´atico como ´ındice
de funcionamiento de este sistema. Sean las condiciones estacionarias para el
dep´osito
v
0
= 1500 litros
c
0
= 15 gr-mol/litro
y los correspondientes flujos de entrada son
q
10
= 10 litros/seg.
q
20
= 20 litros/seg.
Se trata de construir un ´ındice de la forma
J =


0
(x
T
Qx + u
T
Ru)dt
en el que las matrices Q y R son de la forma
Q =

q
1
0
0 q
2

R =

r
1
0
0 r
2

Sup´ongase que se produce una variaci´on del 1% en torno al valor estacionario,
lo que en volumen corresponde a 15 litros, mientras que 1% de variaci´ on en
concentraci´on corresponde a 0,15. Sup´ongase que 1% de cambio en concentraci´on
se penaliza de la misma manera que un 1% de cambio en volumen. En tal caso
se tendr´ıa que
q
1
(15)
2
≈ q
2
(0.15)
2
o lo que es lo mismo
q
2
q
1

100
0.01
Por tanto se tiene que
Q =

0.01 0
0 100

Se procede de forma similar con R. A un 1corresponde 0.1 litros/segundo y un
10,2 litros/segundos. Si ambos t´erminos deben contribuir por igual al ´ındice de
funcionamiento se tendr´a
r
2
(0.2)
2
≈ r
1
(0.1)
2
Es decir
r
2
r
1

0.5
2
y por tanto
R =

2 0
0 0.5

Introducci´on a la optimizaci´on de sistemas din´amicos 345
14.4 Problema general del control ´optimo
Resumiendo lo anterior se puede decir que el problema del control ´optimo o de
optimizaci´on din´amica, consiste en:
• un sistema din´amico descrito por una ecuaci´on diferencial de la forma,
˙ x = f(x, u) (14.9)
en donde x es el vector de estado de dimensi´on n, y u es el vector de
control de dimensi´on m, cuyos valores en todo instante deben tomarse de
un conjunto cerrado u(t) ∈ |.
• unas condiciones iniciales y finales que normalmente son las siguientes:
– el instante inicial 0 y el estado inicial x(0) est´an fijados.
– el estado y el instante final est´an definidos por un par (x(T), T) de la
trayectoria del sistema, que pertenezca a un conjunto dado S ⊂ XT.
• un criterio de funcionamiento dado por un funcional de la forma
J =

T
0
L(x, u, t)dt + S(x(T), T) (14.10)
El problema de optimizaci´on din´amica consiste en buscar la se˜ nal u(t), t ∈ [0, T]
que minimice a J de entre todas las se˜ nales posibles que transfieran el sistema de
(0, 0) a (x(T), T).
Obs´ervese que en el criterio de funcionamiento de la expresi´on (14.10) aparece
un t´ermino adicional que no estaba en la expresi´on (14.3). En los criterios de
funcionamiento del problema del regulador del estado, del regulador de la salida
y del seguimiento, que se han visto en la secci´on anterior, aparec´ıan t´erminos de
esta naturaleza. En el apartado 15.1.3 volveremos sobre este t´ermino.
Para el problema as´ı planteado pueden existir, en principio, dos soluciones de
distinta naturaleza:
• u

= u

(t): control en bucle abierto.
• u

= u

(x): control en bucle cerrado (ley de control).
Introducci´on a la optimizaci´on de sistemas din´amicos 346
En el primer caso se tiene una se˜ nal u

(t) que se aplica al sistema en el
intervalo [0, T]. La aplicaci´on de esta se˜ nal se hace sin requerir informaci´on sobre
la evoluci´on del estado (en general, del sistema), por lo que se trata de una
se˜ nal de control en bucle abierto. Por el contrario, en el segundo caso se tiene
una soluci´on al problema del control ´optimo en la que la se˜ nal de control u

es
funci´on, en cada instante de tiempo, del estado del sistema. Se trata, por tanto,
de un control por realimentaci´ on; es decir, en bucle cerrado.
La soluci´on del problema de control m´as interesante es la segunda, por incluir
la estructura de realimentaci´on, con las conocidas ventajas que esta estructura
comporta. Sin embargo, como veremos luego, este segundo tipo de soluciones
es considerablemente m´as dif´ıcil de alcanzar que el primero. De hecho, s´olo
existe una soluci´on general para el problema de control en bucle cerrado para
sistemas lineales con criterio cuadr´atico. Sin embargo, si existe una amplia clase
de problemas que admiten soluci´on en bucle abierto. Una posible soluci´on en la
pr´actica es determinar el control en bucle abierto, y linealizar en torno a esta
trayectoria ´optima, aplicando entonces el control en bucle cerrado.
Para determinar el control en bucle abierto se emplean el c´alculo de varia-
ciones y el principio del m´ınimo de Pontriagin. Para la determinaci´on de la ley
de control ´optima se aplica la programaci´on din´amica y las variantes derivadas
de este m´etodo. Por otra parte, el c´alculo de variaciones permite la soluci´on del
problema del control ´optimo cuando no existen restricciones, mientras que la pro-
gramaci´on din´amica y el principio del m´ınimo de Pontriagin permiten incorporar
restricciones en |.
14.5 C´alculo de variaciones
El c´alculo de variaciones es la rama de las matem´aticas que se ocupa de deter-
minar las trayectorias que minimizan o maximizan un funcional. Conviene que
dediquemos alg´ un espacio al concepto de funcional.
14.5.1 Funcionales y sus variaciones
Sea X una clase de funciones x(t) definidas en el intervalo [0,t]. Si a toda funci´on
x(t) ∈ X se asocia, de acuerdo con una regla, un n´ umero J se dice que en la clase
X est´a definido el funcional J y se escribe J = J[x(t)]. La clase X se denomina
campo de definici´on del funcional. Para nosotros, la clase de funciones X ser´a la
Introducci´on a la optimizaci´on de sistemas din´amicos 347
clase de se˜ nales x(t) definidas en el intervalo [0, T]. En la figura 14.5 se ilustra
como a cada se˜ nal x(t) definida en [0, T] corresponde un valor de J, que es un
n´ umero real.
Ejemplo
Sea X = C[0, T] el conjunto de todas las funciones cont´ınua x(t) definidas en el
intervalo [0, 1] y sea el funcional
J[x(t)] =

1
0
x(t)dt
Es decir J = J[x(t)] es un funcional de x(t), ya que a toda funci´on x(t) ∈ C[0, T]
le corresponde un valor determinado de J = J[x(t)]. Por ejemplo, si x(t) = 1 se
tiene
J[x(t)] =

1
0
dt = 1
o si x(t) = e
x
, se tiene
J[x(t)] =

1
0
e
x
dt = e −1
2
Ejemplo
Sea X = C
1
[a, b] la clase de funciones x(t) que tiene derivada cont´ınua ˙ x en el
intervalo [a, b]. Entonces la funcional
J[x(t)] =

b
a

1 + ˙ x
2
dt
tiene una interpretaci´ on geom´etrica, ya que representa la longitud del arco de la
curva x = x(t) cuyos extremos son los puntos A (a, x(a)) y B (b, x(b)) .
2
El concepto de funcional tiene un gran inter´es ya que permite asociar a se˜ nales,
que representan trayectorias y por tanto comportamientos, valores num´ericos que
sirven para medir determinadas propiedades de esas se˜ nales.
El funcional J[x(t)] se dice que es lineal si satisface las condiciones:
Introducci´on a la optimizaci´on de sistemas din´amicos 348
x
t 0 1
M(1, 1)
Figura 14.4: se˜ nales x(t) = t y x
1
(t) = t
2
.
1. J[cx(t)] = cJ[x(t)],
2. J[x
1
(t) + x
2
(t)] = J[x
1
(t)] + J[x
2
(t)],
en donde c es una constante cualquiera y x
1
(t) ∈ X y x
2
(t) ∈ X. Por ejemplo, el
funcional
J[x(t)] =

b
a
( ˙ x + x)dt
es lineal.
Interesa introducir conceptos que permitan formalizar la proximidad entre
se˜ nales. Se dice que las se˜ nales x(t) y x
1
(t) definidas en el intervalo [a, b] son
cercanas con proximidad de orden nulo si el valor de [x(t) − x
1
(t)[, que mide la
distancia entre ellas para cada valor de t, es peque˜ no en todo el intervalo [a, b].
Desde un punto de vista geom´etrico esto significa que las dos se˜ nales toman
valores cercanos en cada instante de tiempo del intervalo considerado.
An´alogamente, se define la distancia entre dos se˜ nales x(t) y x
1
(t) (a ≤ t ≤ b)
como el n´ umero no negativo ρ igual al m´aximo del m´odulo [x
1
(t) −x(t)[; es decir,
ρ = ρ[x
1
(t), x(t)] = max
a≤t≤b
[x
1
(t) −x(t)[
Ejemplo
Determinar la distancia ρ entre las se˜ nales x(t) = t y x
1
(t) = t
2
(figura 14.4). De
acuerdo con la definici´on
ρ = max
0≤t≤1
[t
2
−t[
= max
0≤t≤1
(t −t
2
)
Introducci´on a la optimizaci´on de sistemas din´amicos 349
Por tanto, se tiene que determinar el m´aximo de la funci´on x = t − t
2
, que se
tiene para t = 1/2, de modo que ρ = 1/4.
2
Por otra parte, se dice que las se˜ nales x(t) y x
1
(t) definidas en el mismo
intervalo, son cercanas con proximidad de primer orden si las magnitudes [x(t) −
x
1
(t)[ y [ ˙ x(t)− ˙ x
1
(t)[ son peque˜ nas en el intervalo considerado. Geom´etricamente,
esto significa que tanto los valores tomados por las dos se˜ nales, como los de sus
tangentes (sus derivadas), son cercanos para todo instante de tiempo.
Por ´ ultimo, las dos se˜ nales consideradas se dice que son cercanas con proxim-
idad de orden k sin son peque˜ nos los valores tomados por [x(t) − x
1
(t)[, [ ˙ x(t) −
˙ x
1
(t)[,..., [x
k
(t) − x
k
1
(t)[. Basado en ello, se define la distancia de orden n entre
dos se˜ nales x = x(t) y x = x
1
(t) como el mayor de los m´aximos de las expresiones
[x(t) −x
1
(t)[, [ ˙ x(t) − ˙ x
1
(t)[ ,..., [x
n
(t) −x
n
1
(t)[, es decir
ρ
n
= ρ
n
[x
1
(t), x(t)] = max
0≤k≤n
max
a≤t≤b
[x
k
1
(t) −x
k
(t)[
Se denomina variaci´on o incremento δx(t) del argumento x(t) de un funcional
J[x(t)] a la diferencia entre dos se˜ nales x(t) y x
0
(t) pertenecientes a la clase X
de funciones considerada; es decir
δx(t) = x(t) −x
0
(t)
Se define el entorno de orden n de una se˜ nal x = x
1
(t) como el conjunto de
las se˜ nales x = x(t) cuyas distancias de orden n a la se˜ nal x
1
(t) son menores que
; es decir
ρ
n
= ρ
n
[x
1
(t), x(t)] <
Definido el concepto de entorno de una se˜ nal, es posible introducir el de con-
tinuidad de un funcional. Un funcional J[x(t)] definida en la clase de funciones
X se llama cont´ınua en x = x
0
(t) si para todo > 0 existe η > 0 tal que la de-
sigualdad J[x(t)] −J[x
0
(t)] < se satisface para todas las se˜ nales que satisfacen
ρ
n
= ρ
n
[x(t), x
0
(t)] < η
Sea J[x(t)] un funcional, se define el incremento de J[x(t)] como
∆J = ∆J[x(t)] = J[x(t) + δx(t)] −J[x(t)]
siendo
δx(t) = ˜ x(t) −x(t) x(t) ∈ X, ˜ x(t) ∈ X
Introducci´on a la optimizaci´on de sistemas din´amicos 350
supongamos que ∆J puede escribirse de la forma
∆J = G[x(t), δx(t)] + H[x(t) + δx(t)][[δx[[ (14.11)
en donde G[x(t), δx(t)] es un funcional lineal con relaci´on a δx y H[x(t)+δx(t)] →
0 cuando [[δx[[ →0. En tal caso, la parte del incremento lineal con relaci´on a δx,
es decir G[x, δx] se llama variaci´on del funcional y se representa por δJ. En ese
caso se dice que el funcional J[x(t)] es diferenciable para la se˜ nal x(t).
Ejemplo
Sea el funcional
J[x(t)] =

b
a
xdt
su incremento vendr´ a dado por
∆J = J[x(t) + δx(t)] −J[x(t)]
=

b
a
(x + δx)dt −

b
a
xdt
=

b
a
δxdt
Es decir, ∆J =

b
a
δxdt. Esta expresi´on es, a su vez, un funcional lineal respecto
a δx. Por tanto, el funcional es diferenciable para todo x(t) y su variaci´on es
δJ =

b
a
δxdt.
2
Ejemplo
Sea el funcional
J[x(t)] =

b
a
x
2
dt
Se tiene que
∆J =
=

b
a
(x + δx)
2
dt −

b
a
x
2
dt
=

b
a
2xδxdt +

b
a
(δx)
2
dt
Introducci´on a la optimizaci´on de sistemas din´amicos 351
En la expresi´on anterior, la primera integral representa el funcional lineal respecto
a δx, mientras la segunda integral conduce a

b
a
(δx)
2
dt =

b
a
[δx[
2
dt
≤ (max
a≤t≤b
[δx[)
2

b
a
dt
= (b −a)[[δx[[
2
= [(b −a)[[δx[[][[δx[[
y para [[δx[[ →0, se tiene que
(b −a)[[δx[[ →0
Es decir, el incremento ∆J del funcional es la suma de G[x, δx] y un t´ermino de
segundo orden con relaci´on a [[δx[[. Recordando la expresi´on (14.11) se tiene que
el funcional considerado es diferenciable para todo x(t) y su variaci´ on es
δJ = 2

b
a
xδxdt
2
Un funcional J[x(t)] se dice que alcanza su m´aximo para la se˜ nal x = x
0
(t)
si los valores que toma el funcional para cualquier se˜ nal pr´oxima a x
0
(t) no son
mayores que J[x
0
(t)]; es decir si
∆J = J[x(t)] −J[x
0
(t)] ≤ 0
Si ∆J ≤ 0 ∀x(t) = x
0
(t) y ∆J = 0 solo para x = x
0
(t), se dice que se alcanza
un m´aximo estricto para x = x
0
(t). Para todas las se˜ nales pr´oximas a x = x
0
(t)
se tiene que ∆J ≤ 0.
Ejemplo
Sea el funcional
J[x(t)] =

1
0
(x
2
+ t
2
)dt
Es f´acil ver que se alcanza un m´ınimo estricto para la se˜ nal x(t) ≡ 0. En efecto,
se tiene que
∆J = J[x(t)] −J[0] =

1
0
(x
2
+ t
2
)dt −

1
0
t
2
dt =

1
0
x
2
dt ≥ 0
Introducci´on a la optimizaci´on de sistemas din´amicos 352
Por lo que el signo de igualdad se da s´olo para x(t) ≡ 0.
2
Un ejemplo de funcional que emplearemos en la secci´on siguiente lo suministra
la expresi´on
J =

T
0
L(x, ˙ x, t)dt
x
0 T t
J(x)
J
Figura 14.5: Un funcional J asigna a cada se˜ nal x(t) un n´ umero real.
Las t´ecnicas de estudio de m´aximos y m´ınimos de funciones, pueden exten-
derse al estudio de funcionales. En tal caso, se trata de determinar una se˜ nal
x(t) tal que el valor (un n´ umero real) tomado por el funcional, sea m´ınimo (o
m´aximo).
Para el estudio de la optimizaci´on de funcionales se emplea el c´alculo de
variaciones. Consiste ´este en el estudio de c´omo var´ıa un funcional cuando var´ıa
x(t). Una variaci´ on de x(t), por ejemplo,
δx(t) = x
1
(t) −x
0
(t)
se interpreta gr´aficamente tal como se hace en la figura 14.6. La variaci´ on de J
correspondiente ser´a
∆J(x, δx) = J(x
1
) −J(x
0
) = J(x
0
+ δx) −J(x
0
)
En donde ∆J(x, δx) representa el incremento de J debido a la variaci´ on δx(t)
entorno a x(t).
14.5.2 Ecuaciones de Euler
Las ecuaciones de Euler permiten resolver el problema de optimizaci´on funcional
siguiente:
Introducci´on a la optimizaci´on de sistemas din´amicos 353
δ
x
(t)
x
1
(t)
x
o
(t)
T
Figura 14.6: Ilustraci´on de la variaci´ on δx(t) de una funci´on x(t).
Problema
Determinar los valores de x(t), en el periodo [0, T] que minimicen (o maxim-
icen) el funcional
J =

T
0
L(x, ˙ x, t)dt
estando sujetos a las condiciones de contorno fijas
x(0) = a x(T) = b
Para resolver el anterior problema se procede a estudiar la variaci´on de J, e
igualarla a cero. Sup´ongase que el m´ınimo de J se produce para la trayectoria
x
0
(t). Si esta trayectoria x
0
(t) se somete a una variaci´ on δx se tendr´a la nueva
trayectoria
x(t) = x
0
(t) + δx(t)
esta nueva se˜ nal se supone para satisfacer las condiciones del problema, que
cumple las restricciones de contorno, es decir
δx(0) = δx(T) = 0
La variaci´ on total de J ser´a
∆J(x, δx) =

T
0
[L(x + δx, ˙ x + δ ˙ x, t) −L(x, ˙ x, t)]dt
Si se desarrolla la funci´on L(x, ˙ x, t) en serie de Taylor en torno a x(t) y ˙ x(t), se
tendr´a
L(x + δx, ˙ x + δ ˙ x, t) −L(x, ˙ x, t) =

∂L
∂x
δx +
∂L
∂ ˙ x
δ ˙ x

+ R(x, ˙ x, δx, δ ˙ x, t)
Introducci´on a la optimizaci´on de sistemas din´amicos 354
luego
∆J(x, δx) =

T
0

∂L
∂x
δx +
∂L
∂ ˙ x
δ ˙ x

dt +

T
0
R(x, ˙ x, δx, δ ˙ x, t)dt
Esta expresi´on tiene la misma forma que (14.11). En efecto, el primer t´ermino
del segundo miembro es lineal en δx, δ ˙ x. El segundo, est´a formado por t´erminos
de orden superior al primero. Por tanto, se tendr´a que la variaci´on de primer
orden de J vendr´a dada por
δJ(x, δx) =

T
0
¸
∂L
∂x
δx +
∂L
∂ ˙ x
δ ˙ x
¸
dt (14.12)
Esta variaci´on representa la parte lineal del incremento ∆J. Integrando por
partes el segundo miembro de (14.12), se obtiene
δJ(x, δx) =

T
0
¸
∂L
∂x

d
dt
∂L
∂ ˙ x
¸
δxdt +
∂L
∂ ˙ x
δx [
T
0
y puesto que de momento estamos considerando condiciones de contorno fijas, se
tendr´a´ a que δx(0) = δx(T) = 0, por lo que
δJ(x, δx) =

T
0
¸
∂L
∂x

d
dt
∂L
∂ ˙ x
¸
δxdt (14.13)
Esta expresi´on da la variaci´on de primer orden en J, cuando la se˜ nal x(t) sufre
una variaci´on δx(t). Si existe un valor de x

(t) tal que para este valor de x(t) el
funcional J toma un valor m´ınimo (o m´aximo), entonces suceder´a que
δJ(x, δx) = 0
este resultado es an´alogo a la condici´on necesaria para la minimizaci´on (o max-
imizaci´on) de funciones ordinarias y se conoce como la condici´on necesaria fun-
damental del c´alculo de variaciones. Llevando este resultado a (14.13) se tiene la
variaci´on de primer orden de J. Es decir,

T
0
¸
∂L
∂x

d
dt
∂L
∂ ˙ x
¸
δxdt = 0
Puesto que la anterior expresi´on debe satisfacerse para cualquier variaci´ on δx(t)
de x(t), ello s´olo ser´a posible si
∂L
∂x

d
dt
∂L
∂ ˙ x
= 0
La soluci´on de esta ecuaci´on diferencial en x es x

(t). Esta ecuaci´on recibe la
denominaci´on de ecuaci´on de Euler.
Introducci´on a la optimizaci´on de sistemas din´amicos 355
Como hemos recordado en la secci´on anterior, en el estudio de los m´aximos
y los m´ınimos de una funci´on ordinaria L(u) se tiene una ecuaci´on alg´ebrica
dL/du = 0, cuya soluci´on en u permite determinar el valor de u que minimiza (o
maximiza) a esta funci´on. La ecuaci´on de Euler juega el mismo papel que esta
ecuaci´on cuando el problema de optimizaci´on es funcional. En tal caso, no se
trata de determinar el valor de una variable, sino el conjunto de valores tomados
por una se˜ nal en un determinado intervalo, y en lugar de una simple ecuaci´on
alg´ebrica, se tiene una ecuaci´on diferencial.
La ecuaci´on de Euler es una condici´on necesaria pero no suficiente para de-
terminar un m´ınimo. Las condiciones de m´ınimo o m´aximo se determinan por el
estudio de las variaciones segundas. Este estudio es relativamente complejo y no
se realizar´a aqu´ı.
Debe observarse que la ecuaci´on de Euler es una ecuaci´on de segundo orden y
por lo tanto en su soluci´on aparecen dos constantes arbitrarias. Para determinar
estas constantes se requieren dos ecuaciones adicionales. Estas ecuaciones vienen
dadas precisamente por las condiciones de contorno.
x(0) = a x(T) = b
A partir de estas dos ecuaciones se pueden determinar las dos constantes que
aparecen en la soluci´on de la ecuaci´on de Euler.
En el desarrollo anterior se ha considerado que x era un escalar. Los resultados
obtenidos se generalizan con toda facilidad para el caso en que x sea un conjunto
de n se˜ nales. El funcional a optimizar es de la forma
J(x) =

T
0
L(x, ˙ x, t)dt (14.14)
en donde x es un vector de dimensi´on n. Las ecuaciones de Euler toman la forma
¸
∂L
∂x
i

d
dt
∂L
∂ ˙ x
i
¸
= 0
para i = 1, 2, ..., n.
Obs´ervese que se tiene un conjunto de n ecuaciones diferenciales. Su soluci´on
comportar´a 2n constantes, para cuya determinaci´on se necesitar´an 2n ecuaciones,
que vendr´ an dadas por las condiciones de contorno.
En el caso de funcionales que implican n funciones independientes se tienen
n ecuaciones de Euler; cada ecuaci´on es, en general, una ecuaci´on diferencial
Introducci´on a la optimizaci´on de sistemas din´amicos 356
ordinaria, de segundo orden y no lineal, con condiciones de contorno separadas,
que suele ser dif´ıcil de resolver. Esta situaci´on se complica adem´as por el hecho
de que las n ecuaciones de Euler son simult´ aneas. Se emplean normalmente
soluciones num´ericas.
Sin embargo, la integraci´ on num´erica presenta a su vez problemas ya que para
integrar num´ericamente se requiere tener la condiciones de contorno definidas para
uno de los extremos de integraci´ on (las condiciones iniciales o las finales). Sin
embargo, las ecuaciones diferenciales de Euler presentan condiciones de contorno
iniciales y finales a la vez. Se tienen entonces problemas de contorno con dos
extremos cuya resoluci´on num´erica requiere un tratamiento espec´ıfico.
Ejemplo
Determinar las trayectorias ´optimas que minimicen los funcionales siguientes:
a) sea el funcional
J =

b
a
(2x
1
x
2
−2x
2
1
+ ˙ x
1
2
− ˙ x
2
2
)dt
es decir
L = 2x
1
x
2
−2x
2
1
+ ˙ x
1
2
− ˙ x
2
2
se tiene,
∂L
∂x
1
= 2x
2
−4x
1
∂L
∂x
2
= 2x
1
∂L
∂ ˙ x
1
= 2 ˙ x
1
∂L
∂ ˙ x
2
= −2 ˙ x
2
Las ecuaciones de Euler en este caso dan lugar al siguiente sistema de ecuaciones
diferenciales:
2x
2
−4x
1
−2
d
2
x
1
dt
2
= 0
2x
1
+ 2
d
2
x
2
dt
2
= 0
Introducci´on a la optimizaci´on de sistemas din´amicos 357
cuya resoluci´on conduce a
d
4
x
2
dt
4
+ 2
d
2
x
2
dt
2
+ x
2
= 0
cuya ecuaci´on caracter´ıstica es
r
4
+ 2r
2
+ 1 = 0
r = ±j(dobles)
por lo tanto
x
2
(t) = c
1
te
jt
+ c
2
e
jt
+ c
3
te
−jt
+ c
4
e
−jt
por otra parte,
x
1
(t) = −
d
2
x
2
dt
2
2
Ejemplo: Distancia m´ınima entre dos puntos
Vamos a aplicar las ecuaciones de Euler para demostrar un resultado bien cono-
cido: que la distancia m´as corta entre dos puntos es la l´ınea recta. Supongamos
una curva x(t) que une los puntos x(a) = A y x(b) = B. El par´ametro t es un
par´ametro arbitrario que sirve para especificar la familia de curva que une los
puntos del plano (a, A) y (b, B), tal como se indica en la figura 14.7.
La longitud de una curva particular x(t) viene dada por
J =

b
a

1 + ˙ x
2
dt (14.15)
La determinaci´on de la curva x(y) que minimice la distancia entre (a, A) y (b, B)
se reduce a determinar la curva x

(t) que minimice (14.15). Ese problema se
puede resolver mediante la ecuaciones de Euler. Se tiene
L(x, ˙ x) =

1 + ˙ x
2
Introducci´on a la optimizaci´on de sistemas din´amicos 358
A
B
x
a b t
Figura 14.7: Distancia´ım´ınima entre dos puntos
por lo que
∂L
∂x
= 0
∂L
∂ ˙ x
=
˙ x

1 + ˙ x
2
por lo tanto, la ecuaci´on de Euler, en este caso, se reduce a:
d
dt
˙ x

1 + ˙ x
2
= 0
ecuaci´on diferencial que, a su vez, se reduce a
d
2
x
dt
2
= 0
cuya integraci´ on conduce a
x

(t) = c
1
t + c
2
que, aplicando las condiciones de contorno, se convierte en
x(t) =
(A −B)t + (aB −bA)
a −b
con lo que queda demostrado lo que ya sab´ıamos: que la distancia m´ınima entre
dos puntos es una recta.
Restricciones o ligaduras
Sup´ongase que existen unas determinadas ligaduras (o restricciones) en las trayec-
torias posibles de x(t). Es decir, de todas las trayectorias posibles que unan el
Introducci´on a la optimizaci´on de sistemas din´amicos 359
estado inicial con el estado final, s´olo son admisibles aquellas que, adem´as, sat-
isfagan una ecuaci´on de la forma
g(x, ˙ x, t) = 0 (14.16)
En este caso se tiene un problema de optimizaci´on con restricciones. En el estu-
dio de los m´aximos y m´ınimos de funciones ordinarias se aplicaba el m´etodo de
Lagrange para resolver el problema. En el estudio de la optimizaci´on funcional, se
aplica igualmente una generalizaci´on del m´etodo de Lagrange. La demostraci´on
de esta generalizaci´on no se har´a aqu´ı, pero sin embargo s´ı se enunciar´ a el m´etodo.
Sup´ongase que se trata de optimizar un funcional tal como el de la expresi´on
(14.14), en donde x(t) est´a sometido a las restricciones dadas por la expresi´on
(14.16). Entonces se puede formar el funcional (funcional aumentado)
J

=

T
0
[L(x, ˙ x) + λg(x, ˙ x)] dt
en donde el multiplicador de Lagrange λ(t) es una funci´on del tiempo. El pro-
blema queda reducido a optimizar el nuevo funcional J

con relaci´on a x y a
λ.
El m´etodo se generaliza f´acilmente para el caso en que x sea un vector, y el
n´ umero de restricciones sea un n´ umero finito m.
14.5.3 Estado final variable
En el apartado anterior se ha considerado el caso de la optimizaci´on funcional
cuando el estado inicial y el estado final estaban perfectamente determinados.
En esta secci´on se va a estudiar el caso en el que el estado final no est´a comple-
tamente determinado. Por ejemplo, se va a estudiar el problema de determinar
las trayectorias que une un punto a una curva tal como se representa en la figura
14.8.
Es decir, se trata de determinar x

(t) tal que minimice el funcional
J =

T
0
L(x, ˙ x, t)dt
de manera que x(0) tome un valor previamente determinado, y x(t) sea tal que se
encuentre sobre una determinada trayectoria. Es decir, ni x(T) ni T est´an fijados
de antemano, sino que ambos est´an ligados por una determinada expresi´on.
Introducci´on a la optimizaci´on de sistemas din´amicos 360
x(0)
0
Figura 14.8: Conjunto de trayectorias que se inician en el estado x(0) y que
finalizan sobre una curva.
Es obvio que la trayectoria ´optima x

(t) debe satisfacer las ecuaciones de
Euler. En efecto, consid´erese el problema completamente resuelto y sup´ongase
determinado el estado final alcanzado por dicha trayectoria ´optima x

(T). Se
puede entonces considerar el problema como un problema con el estado final fijo
al que hay que aplicar las ecuaciones de Euler. Es decir, si x

(t) minimiza a J
en el caso de estado final variable, l´ogicamente minimizar´a a J para el caso m´as
restringido de estado final fijo.
Por lo tanto, el problema de determinar x

(t) para el caso de estado final
variable, conduce a la resoluci´on de las ecuaciones diferenciales de Euler. Sin em-
bargo, el problema se plantea a la hora de establecer las ecuaciones auxiliares que
permiten determinar las constantes que aparecen en la resoluci´on de la ecuaci´on
de Euler. Al estudio de este problema se va a dedicar el resto de la secci´on.
δ
x
(T)
˙ x(T
f
)δT
T +δT T
∆x
f
Figura 14.9: Trayectoria x(t) y su variaci´on en el caso de extremo final libre.
Introducci´on a la optimizaci´on de sistemas din´amicos 361
En la figura 14.9 se representa una trayectoria x(t), y una variaci´ on de la
misma x(t) +δx(t), cuyo punto inicial es com´ un con la primera, pero cuyo punto
final no coincide. La variaci´ on de J correspondiente a estas dos trayectorias ser´a
la siguiente
∆J = J(x + δx) −J(x)
=

T+δT
0
L(x + δx, ˙ x + δ ˙ x, t)dt −

T
0
L(x, ˙ x, t)dt
lo cual puede reescribirse como sigue
∆J =

T+δT
T
L(x+δx, ˙ x+δ ˙ x, t)dt+

T
0
[L(x+δx, ˙ x+δ ˙ x, t)−L(x, ˙ x, t)]dt (14.17)
Se supone que δT es suficientemente peque˜ no, de manera que se pueda aplicar el
teorema del valor medio a la primera de las integrales anteriores, con lo que se
obtiene

T+δT
T
L(x + δx, ˙ x + δ ˙ x, t)dt

= L(x, ˙ x, t) [
T
δT (14.18)
Por otra parte, el segundo t´ermino de la expresi´on (14.17), despreciando t´erminos
de orden superior al primero (an´alogamente a como se hizo para deducir las
ecuaciones de Euler), puede escribirse:

T
0
[L(x + δx, ˙ x + δ ˙ x, t) −L(x, ˙ x, t)]dt

=

T
0
¸
∂L
∂x
δx +
∂L
∂ ˙ x
δ ˙ x
¸
dt
En donde el signo

= denota la aproximaci´ on de primer orden. Integrando por
partes el segundo t´ermino del segundo miembro de la anterior expresi´on, se tiene,

T
0
[L(x + δx, ˙ x + δ ˙ x, t) −L(x, ˙ x, t)]dt

=

T
0
¸
∂L
∂x

d
dt
∂L
∂ ˙ x
¸
δxdt +
∂L
∂ ˙ x
δx [
T
0
Si x(t) es una trayectoria ´optima, entonces se satisfacer´a la ecuaci´on de Euler, y
por lo tanto, el primer t´ermino del segundo miembro de la anterior expresi´on, ser´a
id´enticamente nulo. En efecto, sea x

(t) una trayectoria ´optima, del caso en el
que T y x(T) no est´an fijados. Se tendr´a que x(T) = x

(T). Por tanto, se puede
plantear el problema de control ´optimo con condiciones finales fijas (x(T), T)
cuya soluci´on satisfacer´a las ecuaciones de Euler. Es decir, la trayectoria x

(t) es
´optima para un problema de control ´optimo con condiciones de contorno fijas, y,
en consecuencia satisfacer´a las ecuaciones de Euler.
Por tanto, se podr´a escribir:

T
0
[L(x + δx, ˙ x + δ ˙ x, t) −L(x, ˙ x, t)]dt

=
∂L
∂ ˙ x
δx [
T
0
(14.19)
Introducci´on a la optimizaci´on de sistemas din´amicos 362
Habida cuenta de las expresiones (14.18) y (14.19) modificadas, se tendr´a que la
expresi´on (14.17) se puede escribir
∆J

=
∂L
∂ ˙ x
δx [
T
0
+L(x, ˙ x, t) [
T
δT (14.20)
Expresi´on que representa la variaci´ on de J cuando se perturba una trayectoria
´optima y el extremo final no est´a fijado. Obs´ervese que puesto que δx(0) = 0
sucede que ∆J depende exclusivamente de lo que sucede en el extremo final en
el que se produce la variaci´ on. En este extremo, con ayuda de la figura 14.9 se
tiene,
x
f
+ ∆x
f
= x(T + δT) + δx(T + δT)
= x(T) + ˙ x(T)δT + δx(T) + ...

= x
f
+ ˙ x(T)δT + δx(T)
o sea,
δx(T) = ∆x
f
− ˙ x(T)δT (14.21)
lo que llevado a (14.20) conduce a
∆J =
∂L
∂ ˙ x
[
T
[∆x
f
− ˙ x(T)δT] + L(x, ˙ x, t) [
T
δT
y puesto que ∆J = 0, se tiene
∂L
∂ ˙ x
[
T
∆x
f
+
¸
L(x, ˙ x, t) − ˙ x
∂L
∂ ˙ x
¸
[
T
δT = 0 (14.22)
Esta expresi´on recibe la denominaci´on de condici´on de transversalidad, y per-
mite establecer una ecuaci´on alg´ebrica adicional para la determinaci´on de las
constantes en la soluci´on de la ecuaci´on de Euler.
En la aplicaci´on pr´actica de la condici´on de transversalidad se pueden dar tres
casos.
1. Sup´ongase que el instante final T est´a fijado de antemano, pero no as´ı el
estado alcanzado. En tal caso, el estado final debe estar situado en una
recta vertical tal como la de la figura 14.10. Anal´ıticamente se tendr´a que
δT = 0, y la expresi´on (14.22) se convierte en
∂L
∂ ˙ x
[
T
= 0
Introducci´on a la optimizaci´on de sistemas din´amicos 363
T
0
x(0)
Figura 14.10: Trayectorias con el tiempo final T fijo y el estado final x(T) libre.
x(0)
x(T)
Figura 14.11: Trayectorias con el estado final x(T) fijo y el tiempo final T libre.
Introducci´on a la optimizaci´on de sistemas din´amicos 364
2. Si el estado final est´a determinado, pero no el instante en el que se alcanza,
el punto final deber´a estar situado en una l´ınea horizontal tal como la de
la figura 14.11. En tal caso se tendr´a que ∆x
f
= 0, con lo que la expresi´on
(14.22) se convierte en:
¸
L(x, ˙ x, t) − ˙ x
∂L
∂ ˙ x
¸
[
T
= 0
3. Si el estado final y el instante final est´an ligados a una expresi´on anal´ıtica
de la forma
x(t) [
T
= y(t) [
T
se tendr´a que ∆x
f
= ˙ y(T)δT (ver figura 14.12), con lo que la ecuaci´on
(14.22) se convierte en
¸
L(x, ˙ x, t) + ( ˙ y − ˙ x)
∂L
∂ ˙ x
¸
[
T
δT = 0
x(0)
y

(T)
y(t)
T T +δT
Figura 14.12: Trayectorias con el estado final definido sobre la curva y(t).
Introducci´on a la optimizaci´on de sistemas din´amicos 365
Cuadro resumen de condiciones
de contorno en c´alculo variacional.
Descripci´on Condiciones Notas
del problema de contorno
1. T, x(T) x

(t
0
) = x
0
2n condiciones para
fijos x

(T) = x
f
2n constantes
de integraci´on
2. T fijo y x

(t
0
) = x
0
2n condiciones para
x(T) libre
∂L
∂ ˙ x

T
= 0 2n constantes
de integraci´on
3. T libre y x

(t
0
) = x
0
2n + 1 condiciones para
x(T) fijo x

(T) = x
f
2n constantes
¸
L(x, ˙ x) − ˙ x
∂L
∂ ˙ x
¸

T
= 0 de integraci´on y T
4. T y x(T) x

(t
0
) = x
0
2n + 1 condiciones para
libres, pero x

(T) = θ(T) 2n constantes
ligadas por
¸
L(x, ˙ x) + ( ˙ y − ˙ x)
∂L
∂ ˙ x
¸

T
= 0 de integraci´ on y T.
x(T) = θ(T)
Introducci´on a la optimizaci´on de sistemas din´amicos 366
Ejemplo 3
Consid´erese una variante del ejemplo 2, en la que se trata de determinar la trayec-
toria m´ınima entre el origen y la recta y(t) = 2 − t (figura 14.13). Del ejemplo
t
2
y
2
Figura 14.13: Trayectoria m´ınima entre el origen y la recta y(t) = 2 −t.
2 se sabe que las soluciones del problema de Euler viene dadas por la familia de
rectas:
x

= c
1
t + c
2
Para la determinaci´on de las constantes c
1
y c
2
se recurre a las condiciones
de contorno 4 del cuadro adjunto. Puesto que x(0) = 0, se tiene que c
2
= 0. Por
otra parte, la condici´on de contorno final conduce a:

1 + ˙ x

(T)
2
+
˙ x

(T)

1 + ˙ x

(T)
2
[ ˙ y(T) − ˙ x

(T)] = 0
Puesto que ˙ x

(T) = c
1
e ˙ y(T) = −1, se tiene

1 + c
2
1

c
1

1 + c
2
1
[1 + c
1
] = 0
De donde se obtiene
c
1
= 1
por lo que la trayectoria m´ınima viene dada por
x

= t
Introducci´on a la optimizaci´on de sistemas din´amicos 367
El valor de T se determina mediante la ecuaci´on
x

(T) = y(T)
lo que da T = 1.
Tema 15
M´etodos Variacionales en
Control Optimo
15.1 Aplicaci´on del c´alculo de variaciones a la
resoluci´on del problema del Control Op-
timo
Sea el sistema din´amico
˙ x = f(x, u) (15.1)
y sup´ongase, adem´as, un ´ındice de funcionamiento dado por
J =

T
0
L(x, u)dt (15.2)
Se trata de determinar la se˜ nal de control ´optima u

(t) en el intervalo (0, T).
Se pueden presentar dos casos, seg´ un que se pueda o no dejar expl´ıcita u en
la expresi´on (15.1).
15.1.1 Se puede eliminar u
Sup´ongase que en la expresi´on (15.1) es posible dejar expl´ıcita u. En tal caso se
podr´a escribir
u = g(x, ˙ x, t)
368
M´etodos Variacionales en Control Optimo 369
lo que se le podr´a llevar a la expresi´on (15.2) obteni´endose
J =

T
0
L(x, g(x, ˙ x, t), t)dt (15.3)
J =

T
0
L

(x, ˙ x, t)dt (15.4)
con lo que el problema se ha reducido a uno de c´alculo variacional, para cuya
soluci´on se emplean las ecuaciones de Euler.
Ejemplo 1
Sea el sistema descrito por la ecuaci´on:
˙ x = −x + u
se trata de determinar u(t) que minimice
J =

1
0
(x
2
+ u
2
)dt
De la ecuaci´on del sistema se tiene que u = ˙ x +x, y sustituyendo en la expresi´on
de J, se tiene
J =

1
0
(x
2
+ ( ˙ x + x)
2
)dt =

1
0
(2x
2
+ 2x ˙ x + ( ˙ x)
2
)dt
es decir,
L = 2x
2
+ 2x ˙ x + ( ˙ x)
2
Recordando la ecuaci´on de Euler:
∂L
∂x

d
dt
∂L
∂ ˙ x
= 0
En este caso se tiene
∂L
∂x
= 4x + 2 ˙ x
∂L
∂ ˙ x
= 2x + 2 ˙ x ⇒
d
dt
∂L
∂ ˙ x
= 2
dx
dt
+ 2
d
2
x
dt
2
Por lo tanto la ecuaci´on de Euler resulta ser
d
2
x
dt
2
−2x = 0
M´etodos Variacionales en Control Optimo 370
La integraci´ on de esta ecuaci´on diferencial determina la trayectoria ´optima de
x(t):
x(t) = C
1
e


2t
+ C
2
e

2t
˙ x(t) = −

2C
1
e


2t
+

2C
2
e

2t
Por tanto la trayectoria ´optima de la se˜ nal de mando es:
u(t) = x(t) + ˙ x(t)
= C
1
(1 −

2)e


2t
+ C
2
(1 +

2)e

2t
Las constantes C
1
y C
2
se determinan en funci´on de los estados inicial y final del
sistema.
Suponiendo x(0) = 1; x(1) = 0; se tiene
C
1
= 1.0628 C
2
= −0.0628
Ejemplo 2
Para un integrador simple ˙ x = u encontrar la entrada de control u(t) que conduzca
al sistema desde cierto estado inicial x(0) al estado final x(t) de manera que se
minimice la integral,
J =

T
0
(x
2
+ u
2
)dt
sujeta a cada una de las condiciones siguientes:
a) x(0) = 1, x(T) = 0 y T = 1.
b) x(0) = 1, x(T) sin especificar y T = 1.
c) x(0) = 1, x(T) = 0 y T sin especificar.
Calcular el valor de la integral correspondiente a cada caso.
Resoluci´on.
En este caso
L = x
2
+ u
2
= x
2
+ ( ˙ x)
2
Luego,
∂L
∂x
= 2x
∂L
∂ ˙ x
= 2 ˙ x
M´etodos Variacionales en Control Optimo 371
La ecuaci´on de Euler en este caso conduce a,
d
2
x
dt
2
−x = 0
cuya soluci´on general es,
x(t) = C
1
e
−t
+ C
2
e
t
a) Es el caso m´as simple de aplicaci´on de condiciones de contorno. Estas condi-
ciones conducen a,
1 = C
1
+ C
2
0 =
C
1
e
+ C
2
e
Cuya soluci´on es C
1
= 1.157 y C
2
= −0.157. Luego,
x(t) = 1.157e
−t
−0.157e
t
y,
u(t) = −1.157e
−t
−0.157e
t
El valor de J para este caso resulta ser J = 1.11.
b) La condici´on de transversalidad se escribe en este caso
∂L
∂ ˙ x

T=1
= 0
lo que se traduce en
˙ x(1) = 0
Por lo tanto las condiciones en los extremos son
x(0) = 1 ˙ x(1) = 0
lo que conduce a
1 = C
1
+ C
2
0 = −
C
1
e
+ C
2
e
Es decir, C
1
= 0.88 y C
2
= 0.12. El valor de J resulta ser 0.761.
M´etodos Variacionales en Control Optimo 372
c) En este caso la condici´on de transversalidad se convierte, al estar fijo el
valor de x
f
y no el de T en

L − ˙ x
∂L
∂ ˙ x

T
= 0
pues δT, en T es nulo y ∆x
f
no.
Por lo tanto,
L − ˙ x(T)
∂L
∂ ˙ x
(T) = 0
lo que conduce a
˙ x(T) = 0
Se sabe por lo tanto que
x(0) = 1 x(T) = 0 ˙ x(T) = 0
Se tienen, por tanto, tres ecuaciones con tres inc´ognitas C
1
, C
2
y T. Las anteriores
ecuaciones se convierten en
1 = C
1
+ C
2
0 = C
1
e
−T
+ C
2
e
T
0 = −C
1
e
−T
+ C
2
e
T
Es f´acil ver que la soluci´on del anterior sistema de ecuaciones es
T = ∞
C
1
= 1
C
2
= 0
ci˜ n´endonos a valores de t > 0, es decir suponiendo que el sistema evoluciona en
el sentido de los tiempos crecientes
Luego
x(t) = e
−t
u(t) = −e
−t
(0 ≤ t < ∞)
En este caso J = 1.
M´etodos Variacionales en Control Optimo 373
15.1.2 No se puede eliminar u
Si la eliminaci´on de u en la expresi´on (15.1) no es posible, entonces se recurre a
la aplicaci´on del m´etodo de los multiplicadores de Lagrange observando que la
ecuaci´on (15.1) puede interpretarse como una restricci´on de la forma
g(x, ˙ x) = f(x, u) − ˙ x
Se tendr´a que el funcional modificado que se trata de optimizar ser´a
J

=

T
0
L

(x, ˙ x, u, λ)dt
en donde
L

(x, ˙ x, u, λ) = L(x, u) −λ[f(x, u) − ˙ x] (15.5)
Se considerar´a en lo que sigue m = 1, n = 1 por razones de simplicidad. La
generalizaci´on es muy simple y el resultado se presentar´a al final. El problema
queda reducido a determinar los valores de x(t), u(t) y λ(t) que minimicen el
funcional J

.
Para resolver este problema se recurre a las ecuaciones de Euler. El n´ umero
de estas ecuaciones ser´a tres, correspondiente a las variaciones de cada una de las
variables anteriores. Se estudian estas ecuaciones para cada una de las variables
x(t), u(t) y λ(t).
• Ecuaci´on de Euler con relaci´on a x. Se tendr´a

∂x
[L + (f − ˙ x)λ] −
d
dt

∂ ˙ x
[L + (f − ˙ x)λ] = 0

∂x
[L + (f − ˙ x)λ] −
d
dt

∂ ˙ x
(−λ˙ x) = 0

∂x
[L + fλ] = −
˙
λ (15.6)
• Ecuaci´on de Euler con relaci´on a u

∂u
[L + (f − ˙ x)λ] −
d
dt

∂ ˙ u
[L + (f − ˙ x)λ] = 0
como L + (f − ˙ x)λ no depende de ˙ u, se tendr´a

∂u
[L + fλ] = 0 (15.7)
M´etodos Variacionales en Control Optimo 374
• Ecuaci´on de Euler con relaci´on a λ
f − ˙ x = 0 (15.8)
Se define la funci´on H(x, u, λ) de acuerdo con
H(x, u, λ) = L(x, u) + λf(x, u)
esta funci´on recibe la denominaci´on de funci´on de Hamilton o hamiltoniana. Se
tendr´a que las ecuaciones anteriores pueden escribirse:
∂H
∂x
= −
˙
λ (15.9)
∂H
∂u
= 0 (15.10)
∂H
∂λ
= ˙ x (15.11)
El problema queda reducido a resolver el anterior conjunto de ecuaciones diferen-
ciales para determinar u

(t). Un m´etodo sistem´atico para hacerlo es el siguiente:
1. Formar la funci´on de Hamilton o Hamiltoniana
H(x, u, λ) = L(x, u) + λf(x, u)
2. Resolver la ecuaci´on algebraica
∂H(x, u, λ)
∂u
= 0
que permite obtener u

(x, λ).
3. Formar la hamiltoniana minimizada, llevando u

a H, con lo que se tiene,
H

(x, u

, λ)
4. Resolver el sistema de ecuaciones diferenciales,
˙ x =
∂H

∂λ
˙
λ = −
∂H

∂x
(15.12)
con las condiciones de contorno x(0) y x(t).
5. Los valores de x

(t) y λ(t), determinados en 4, se llevan a 2, con lo que se
tiene
u

(x

(t), λ

(t), t) = u

(t)
En el cuadro se resume el m´etodo.
M´etodos Variacionales en Control Optimo 375
Resumen de la aplicaci´on del
C´alculo Variacional
a la determinaci´on del
Control Optimo
Se da el sistema ˙ x = f(x, u)
Se da el criterio J =

T
0
L(x, u)dt
Paso 1 Se forma la Hamiltoniana
H(x, u, λ) = L(x, u) + λf(x, u)
Paso 2 Se determina u

(x, λ) admisible tal que
∂H
∂u
= 0
Paso 3 Se determina la Hamiltoniana m´ınima
H

(x, λ) = H(x, u

(x, λ), λ)
Paso 4 Se resuelve el sistema de 2n ecuaciones
˙ x =
∂H

∂λ
˙
λ = −
∂H

∂x
con las condiciones de contorno correspondientes.
Se obtiene x

(t) y λ

(t).
Paso 5 Se determina u

(t) = u

(x

(t), λ

(t))
M´etodos Variacionales en Control Optimo 376
Ejemplo 3
Para el sistema
˙ x = −2x + u
con el ´ındice
J =
1
2

1
0
u
2
dt
determinar la se˜ nal de control ´optima u(t) tal que conduzca al sistema de x(0) =
1 a x(1) = 0. La resoluci´on del problema se descompone en los siguientes pasos:
1. Se forma la hamiltoniana, que resulta ser
H =
u
2
2
+ (u −2x)λ
2. Se minimiza la hamiltoniana
∂H
∂u
= u + λ
luego,
u

= −λ
3. Se forma la hamiltoniana minimizada
H

=
λ
2
2
−λ
2
−2xλ (15.13)
= −
λ
2
2
−2xλ (15.14)
4. Se tiene
∂H

∂λ
= −λ −2x;
∂H

∂x
= −2λ
de donde se tienen las ecuaciones diferenciales (4)
−2x −λ = ˙ x (15.15)
−2λ = −
˙
λ (15.16)
cuya resoluci´on conduce a
˙
λ −2λ = 0 (15.17)
λ = k
1
e
2t
(15.18)
M´etodos Variacionales en Control Optimo 377
es decir,
˙ x + 2x = −k
1
e
2t
que constituye la soluci´on general de la homog´enea x
g
= k
2
e
−2t
.
La soluci´on particular de la completa toma la forma x
p
= Ae
2t
. en donde,
2Ae
2t
+ 2Ae
2t
= −k
1
e
2t
luego
A = −
k
1
4
La soluci´on de las ecuaciones diferenciales anteriores, ser´a de la forma,
x = −
k
1
4
e
2t
+ k
2
e
−2t
Aplicando las condiciones de contorno se tiene
1 = −
k
1
4
+ k
2
(15.19)
0 = −
k
1
4
e
2
+ k
2
e
−2
(15.20)
Eliminando k
2
se tiene
k
1
=
1
e
4
4
1 −e
−4
luego,
λ =
4
e
4
(1 −e
−4
)
e
2t
5. Por lo tanto,
u

= −
4
e
4
(1 −e
−4
)
e
2t
Ejemplo 4
Sea la planta
˙ x
1
= x
2
˙ x
2
= u
y el ´ındice de funcionamiento
J =
1
2

2
0
u
2
dt
M´etodos Variacionales en Control Optimo 378
condiciones de contorno
x
1
(0) = x
2
(0) = 1
x
1
(2) = x
2
(2) = 0
1. Se forma la hamiltoniana
H =
1
2
u
2
+ λ
1
x
2
+ λ
2
u
2. Se resuelve la ecuaci´on en u
∂H
∂u
= 0
que en este caso resulta ser
∂H
∂u
= u + λ
2
= 0
lo que conduce a
u

= −λ
2
Obs´ervese que

2
H

2
u
= 1
por lo que u

minimiza la Hamiltoniana.
3. Se forma la Hamiltoniana optimizada
H

(x

, λ, t) =
1
2
λ
2
2
+ λ
1
x
2
−λ
2
2
= λ
1
x
2

1
2
λ
2
2
4. Se forman las ecuaciones de estado
˙ x
1
=
∂H

∂λ
1
= x
2
˙ x
2
=
∂H

∂λ
2
= −λ
2
y las de coestado
˙
λ
1
= −
∂H

∂x
1
= 0
˙
λ
2
= −
∂H

∂x
2
= −λ
1
M´etodos Variacionales en Control Optimo 379
Las condiciones de contorno son
x
1
(0) = x
2
(0) = 1
x
1
(2) = x
2
(2) = 0
Resoluci´on del problema de contorno m´as las ecuaciones de estado
˙ x
1
= x
2
˙ x
2
= −λ
2
˙
λ
1
= 0
˙
λ
2
= −λ
1
(1)
˙
λ
1
= 0 −→ λ
1
= k
1
(2)
˙
λ
2
= −λ
1
−→
˙
λ
2
= −k
1
−→ λ
2
= −k
1
t + k
2
(3) ˙ x
2
= −λ
2
−→ ˙ x
2
= k
1
t −k
2
−→ x
2
(t) =
k
1
t
2
2
−k
2
t + k
3
(4) ˙ x
1
= x
2
−→ ˙ x
1
=
k
1
t
2
2
−k
2
t+k
3
−→ x
1
(t) = k
1
t
3
6
−k
2
t
2
2
+k
3
t +k
4
Es decir
x
2
= k
1
t
2
2
−k
2
t + k
3
x
1
= k
1
t
3
6
−k
2
t
2
2
+ k
3
t + k
4
Para t = 0 x
1
= x
2
= 1, luego k
3
= 1, k
4
= 1.
Para t = 2 x
1
= x
2
= 0, se tiene k
1
= 3 k
2
=
7
2
.
Luego
x

2
=
3t
2
2

7t
2
+ 1 (15.21)
x

1
=
t
3
2

7t
2
4
+ t + 1 (15.22)
adem´as
λ

1
= 3 λ

2
= −3t +
7
2
(5) u

= −λ

2
= 3t −
7
2
M´etodos Variacionales en Control Optimo 380
Ejemplo 5
Se trata de regular la temperatura de una habitaci´on con el consumo m´ınimo de
energ´ıa posible. Si θ(t) es la temperatura en la habitaci´on, θ
a
es la temperatura
ambiental fuera de la habitaci´on (que se supondr´a constante) y u(t) es la tasa
de calor que se inyecta en la habitaci´on, se sabe que el proceso viene descrito
mediante la ecuaci´on
˙
θ = −a(θ −θ
a
) + bu (15.23)
en donde a y b son dos constantes que dependen del aislamiento de la habitaci´on.
Se define el estado como
x(t) = θ(t) −θ
a
, (15.24)
de modo que la ecuaci´on de estado se puede escribir
˙ x = −ax + bu (15.25)
Puesto que se trata de regular la temperatura en un cierto periodo de tiempo [0, T]
con el m´ınimo suministro de energ´ıa posible, se define el ´ındice de funcionamiento
J =
1
2

T
0
u
2
(t)dt (15.26)
Se tiene, por tanto, definido un problema de control ´optimo mediante las expre-
siones (15.25) y (15.26). Para su resoluci´on se procede mediante los cuatro pasos
anteriores.
1. Se forma la Hamiltoniana
H =
u
2
2
+ λ(−ax + bu) (15.27)
2. se resuelve con respecto a u la ecuaci´on
0 =
∂H
∂u
= u + bλ (15.28)
con lo que se tiene
u

(t) = −bλ

(t) (15.29)
3. Se forma la Hamiltoniana optimizada
H

=
u
2
2
+ λ(−ax −b
2
λ)
M´etodos Variacionales en Control Optimo 381
Se forman las ecuaciones de coestado, que resultan ser
˙ x = −ax −b
2
λ (15.30)
˙
λ = aλ (15.31)
cuya resoluci´on permitir´a obtener λ

(t) y la trayectoria de estado ´optima
x

(t).
Para integrar las ecuaciones de coestado vamos a proceder como si conoci´esemos
el valor final de λ(T). En tal caso, la soluci´on de (15.31) es
λ

(t) = e
−a(T−t)
λ(T) (15.32)
que llevado a (15.30) da
˙ x = −ax −b
2
λ(T)e
−a(T−t)
(15.33)
Esta ecuaci´on se puede resolver empleando la transformada de Laplace. En
efecto, se tiene
X(s) =
x(0)
s + a

b
2
λ(T)e
−aT
(s + a)(s −a)
=
x(0)
s + a

b
2
a
λ(T)e
−aT

−1/2
s + a
+
1/2
s −a

(15.34)
De modo que
x

(t) = x(0)e
−at

b
2
a
λ(T)e
−aT
sinhat (15.35)
Las expresiones (15.32) y (15.35) nos dan λ

(t) y x

(t) en funci´on de el
estado inicial x(0) y el valor final de λ(T).
Supongamos que la temperatura inicial de la habitaci´on es igual a la tem-
peratura exterior θ
a
= 10
0
. Se hace
x(0) = 0 (15.36)
Adem´as, sup´ongase que se trata de que la temperatura final θ(T) sea 20
0
al cabo de T segundos. Por tanto, el estado final se pretende que alcance
el valor
x(T) = 10 (15.37)
Se tiene, por tanto, un problema de control ´optimo en el que tanto el estado
final como el tiempo final est´an fijados (aunque de momento no hayamos
asignado un valor concreto a T).
M´etodos Variacionales en Control Optimo 382
Con ayuda de (15.36) y de (15.37) se puede determinar λ(T). En efecto, en
la expresi´on (15.35) se tiene
x(T) = x(0)e
−aT

b
2
2a
λ(T)(1 −e
2aT
) (15.38)
teniendo en cuenta (15.36) y (15.37) se tiene que
λ(T) = −
20a
b
2
(1 −e
−2aT
)
(15.39)
lo que llevado a la expresi´on (15.32) conduce a
λ

(t) = −e
−a(T−t)
λ(T) (15.40)
= −
20ae
−aT
b
2
(1 −e
−2aT
)
e
at
(15.41)
= −
10a
b
2

e
at
e
aT
−e
−aT
2
(15.42)
= −
10ae
at
bsinhaT
(15.43)
Recordando que
sinhaT =
e
aT
−e
−aT
2
Por ´ ultimo, la tasa ´optima de inyecci´on de calor en la habitaci´on viene dada
por (15.29), es decir
u

(t) =
10ae
at
sinhaT
(15.44)
y la trayectoria ´optima para el estado viene dada por
x

(t) = 10
sinhat
sinhaT
(15.45)
Obs´ervese que x

(T) = 10.
15.1.3 Introducci´on de un t´ermino de control terminal
Vamos a considerar ahora el caso, que se presenta a veces en aplicaciones, en el que
en el ´ındice de funcionamiento aparezca un t´ermino (o varios) escalar que dependa
M´etodos Variacionales en Control Optimo 383
del valor alcanzado por el estado en el instante final x(T) y eventualmente del
propio tiempo final T. Es decir, sea un ´ındice de funcionamiento de la forma
J =

T
0
Ldt + S(x(T), T) −S(x(0), 0) (15.46)
en donde S(x(T), T) representa el llamado t´ermino de control terminal. Este caso
se puede reducir al estudiado hasta aqu´ı. En efecto, consid´erese
J =

t
0
¸
L +
dS
dt
¸
dt (15.47)
=

t
0
Ldt +

t
0
dS (15.48)
es decir
J =

T
0
Ldt + S(x(T), T) −S(x(0), 0) (15.49)
Obs´ervese que puesto que x(0) y el instante inicial 0 est´an fijados de antemano,
la minimizaci´on del ´ındice (15.49) es equivalente a la minimizaci´on del ´ındice
(15.47). (Normalmente S(x(0), 0) = 0)
Obs´ervese que la expresi´on (15.47) puede escribirse tambi´en:
J =

T
0
¸
L +
∂S
∂x
˙ x +
∂S
∂t
¸
dt (15.50)
Por lo que esta ser´a la forma que se adoptar´a para el ´ındice de funcionamiento en
lo que sigue. Por tanto, el problema de control con t´ermino de control terminal
se puede plantear, como se ha hecho hasta ahora modificando la funci´on L(x, u)
para convertirla en
J

=

T
0
L
a
(x, ˙ x, u, t)dt (15.51)
con este planteamiento se puede aplicar el c´alculo de variaciones, tal como se ha
hecho anteriormente.
Recordando la expresi´on, se tiene que de la aplicaci´on del m´etodo de los
multiplicadores de Lagrange se desprende que en este caso
L

= L
a
+ λ(f − ˙ x) (15.52)
= L +
∂S
∂x
˙ x +
∂S
∂t
+ λ(f − ˙ x) (15.53)
Vamos a comprobar que la introducci´on de un t´ermino de control terminal no
altera el planteamiento Hamiltoniano que se ha presentado en la secci´on anterior,
M´etodos Variacionales en Control Optimo 384
excepto en lo que respecta a las condiciones de transversalidad, como veremos
luego. Para presentar el m´etodo de Hamilton de resolver el problema de control
´optimo se ha partido de la expresi´on (15.5). Ahora debemos partir de la (15.53).
La ecuaci´on Euler con relaci´on a x conduce a

∂x
[L
a
+ λ(f − ˙ x)] −
d
dt

∂ ˙ x
[L
a
+ λ(f − ˙ x)] = 0 (15.54)
desarrollando el primer miembro del primer t´ermino se tiene

∂x
¸
L +
∂S
∂x
˙ x +
∂S
∂t
+ λ(f − ˙ x)
¸
=

∂x
[L + fλ] +

2
S
∂x
2
˙ x +

2
S
∂x∂t
Por otra parte se tiene

∂ ˙ x
¸
L +
∂S
∂x
˙ x +
∂S
∂t
+ λ(f − ˙ x)
¸
=
∂S
∂x
−λ (15.55)
por lo que el segundo t´ermino de (15.54) ser´a
d
dt
¸
∂S
∂x
−λ
¸
teniendo en cuenta que
d
dt
¸
∂S
∂x
¸
=

∂x
¸
dS
dt
¸
=

∂x
¸
∂S
∂x
˙ x +
∂S
∂t
¸
se tendr´a que (15.54) se puede escribir

∂x
[L + fλ] = −
˙
λ
que resulta ser la misma expresi´on que se ten´ıa en (15.6). Es decir, la ecuaci´on
de Euler con relaci´on a x es la misma se tenga o no t´ermino de control terminal.
Es inmediato comprobar que sucede lo mismo con las ecuaciones de Euler con
relaci´on a u y a λ dadas en las expresiones (15.7 y 15.8).
El tiempo final T y el estado que se alcance en dicho instante x(T) pueden
estar fijados de antemano o no. En este segundo caso, que por otra parte es el
m´as frecuente en los problemas con t´ermino de control terminal, hay que recurrir
a las condiciones de transversalidad. Vamos, adem´as, a aprovechar esta opor-
tunidad para establecer la condiciones de transversalidad en el planteamiento
hamiltoniano.
M´etodos Variacionales en Control Optimo 385
Recordando la expresi´on (14.22) se tiene que las condiciones de transversabil-
idad para este caso vienen dadas por la expresi´on
∂L

∂ ˙ x

T
∆x
f
+
¸
L

− ˙ x
∂L

∂ ˙ x
¸

T
δT = 0 (15.56)
Es claro que de (15.53) y (15.55) se tiene:
∂L

∂ ˙ x
=
∂S
∂x
−λ
Por lo que la expresi´on (15.56) se convierte en
¸
∂S
∂x
−λ
¸

T
∆x
f
+
¸
L +
∂S
∂x
˙ x +
∂S
∂t
+ λ(f − ˙ x) −

∂S
∂x
−λ

˙ x
¸
δT[
T
= 0
lo que se puede escribir
¸
∂S
∂x
−λ
¸
∆x
f

T
+
¸
L + λf +
∂S
∂t
¸

T
δT = 0
que tambi´en puede escribirse
¸
∂S
∂x
−λ
¸

T
∆x
f
+
¸
H

+
∂S
∂t
¸

T
δT = 0 (15.57)
El punto 4) del procedimiento de resoluci´on implica el resolver las ecuaciones
diferenciales (4)
˙ x =
∂H

∂λ

˙
λ =
∂H

∂x
Si la dimensi´on del vector de estado es n, entonces la resoluci´on del anterior
sistema de ecuaciones diferenciales implica la determinaci´on de 2n constantes.
Estas constantes se determinar´an con ayuda de las condiciones de contorno. Estas
condiciones son:
1. Estado inicial x(0) que permite el establecimiento de n ecuaciones.
2. Condiciones finales generalizadas que vienen dadas por la ecuaci´on
¸
∂S
∂x
−λ
¸

T
∆x
f
+
¸
H

+
∂S
∂t
¸

T
δT = 0
M´etodos Variacionales en Control Optimo 386
si no existe t´ermino de control terminal, es decir, si S(x, T) = 0, se simplifican a
−λ[
T
∆x
f
+ H

[
T
δT = 0
Se pueden distinguir dos casos:
1. Estado final impuesto y tiempo final libre.
En tal caso ∆x
f
= 0, y la determinaci´on de las n constantes se hace a partir
de

H

+
∂S
∂t

T
= 0
2. Estado final libre y tiempo final T determinado.
En tal caso se tiene que δT = 0, por lo que la anterior ecuaci´on implicar´a
que

∂S
∂x
−λ

[
T
= 0 (15.58)
lo que permite establecer n ecuaciones suplementarias para determinar las
n constantes restantes.
Si S = 0, se tiene λ
i
(T) = 0.
Las dos situaciones anteriormente consideradas constituyen los dos casos extremos
que se pueden dar. Sup´ongase, que ni el estado final ni el instante final T est´an
dados de antemano, pero s´ı la trayectoria y(t) en la que debe encontrarse el
estado final. En tal caso, las condiciones de contorno en el extremo final pueden
escribirse
−λ(T)∆x
f
+ H

[x(T), λ(T), T]δT = 0 (15.59)
Es inmediato ver que dx = y(T)dt, y puesto que dt es arbitrario, es necesario que
−λ(T) ˙ y(T) + H
0
(T) + ˙ y(t)
∂S
∂x
[
T
+
∂S
∂x
[
T
= 0 (15.60)
Esta ecuaci´on, junto con el hecho de que x(T) = y(T) especifica completamente
la soluci´on.
Ejemplo 6
Sea el sistema:
¨ x = u(t) (15.61)
M´etodos Variacionales en Control Optimo 387
que representa un m´ovil que se acelera, y se trata de maximizar la distancia
recorrida en un tiempo determinado, minimizando al mismo tiempo una medida
cuadr´atica de la actuaci´on; es decir, adoptando el ´ındice
J = −x(T) +
1
2

T
0
u
2
dt (15.62)
Se pide la se˜ nal de control, para el caso x(0) = 0 y ˙ x(0) = 0
La descripci´on interna del sistema (15.61) viene dada por
˙ x
1
= x
2
˙ x
2
= u(t)
con las condiciones iniciales x(0) = 0 y ˙ x(0) = 0.
Se construye la Hamiltoniana
H = L + λ
1
f
1
+ λ
2
f
2
=
u
2
2
+ λ
1
x
2
+ λ
2
u
Minimiz´andola con respecto a u se tiene
∂H
∂u
= 0
Es decir
u + λ
2
= 0
por lo que la se˜ nal de control ´optima ser´a
u

= −λ
2
Por tanto, la hamiltoniana ´optima vendr´a dada por
H

= −
λ
2
2
2
+ λ
1
x
2
Por los que las ecuaciones de Hamilton pueden escribirse
∂H

∂x
1
= −
˙
λ
1
∂H

∂x
2
= −
˙
λ
2
M´etodos Variacionales en Control Optimo 388
es decir

˙
λ
1
= 0

˙
λ
2
= λ
1
y, por tanto,
λ
1
= k
1
λ
2
= −k
1
t + k
2
Para determinar las constantes de integraci´ on se recurre a las condiciones de
contorno que, en este caso, puesto que T es fijo y el estado final x(T) es libre
resultan ser

∂S
∂x
i
−λ
i

T
= 0
Por tanto

∂S
∂x
1
−λ
1

T
= 0 λ
1
(T) = −1 ⇒λ
1
= −1

∂S
∂x
2
−λ
2

T
= 0 λ
2
(T) = 0 ⇒λ
2
(t) = −T + t
Se tiene que la se˜ nal de control ´optimo es
u

(t) = T −t
Por tanto la se˜ nal de control ´optima es tal que la fuerza aplicada debe de crecer
linealmente con el tiempo, hasta anularse para t = T.
Este problema puede resolverse tambi´en aplicando directamente las ecuaciones
de Euler, puesto que estamos en el caso en el que se puede eliminar u que se vio
en 15.1.2. En efecto, el ´ındice (15.62) del problema puede escribirse, eliminado u,
e incorporando al integrando el t´ermino de control terminal (recordando lo que
se hizo en (15.48)), de la forma
J =

T
0

1
2
˙ x
2
2
−x
2

dt
Por tanto se tiene un problema de Euler con
L = −
1
2
˙ x
2
2
+ x
2
con condiciones iniciales x
1
(0) = x
2
(0) = 0. Para determinar las ecuaciones de
Euler se tiene que
∂L
∂x
2
= 1
∂L
∂ ˙ x
2
= −˙ x
2
M´etodos Variacionales en Control Optimo 389
Por lo que la ecuaci´on de Euler
∂L
∂x
2

d
dt
∂L
∂ ˙ x
2
= 0
se convierte en
¨ x
2
= 0
cuya integraci´ on conduce a x
2
(t) = −
t
2
2
+ c
1
t + c
2
Las condiciones de contorno como, en este caso, puesto que T es fijo, son
∂L
∂ ˙ x
2
[
T
= −˙ x
2
(T) = −T + c
1
luego c
1
= T. Adem´as x
2
(0) = c
2
= 0. Por tanto,
u = ˙ x
2
= T −t
Ejemplo 7
Se trata de determinar la se˜ nal de control ´optimo para el sistema de primer orden
˙ x = −x + u
con x(0) = 0 para que se maximice el valor final de x al tiempo que se minimiza
el funcional
1
2

1
0
u
2
dt. Se supone que la ponderaci´on entre ambos objetivos es ρ
de manera que
J =

1
0
1
2
u
2
dt −ρx(1)
Se procede de acuerdo con los pasos siguientes:
1. Se forma la hamiltoniana
H =
1
2
u
2
+ λ(u −x)
2. Se minimiza la hamiltoniana
∂H
∂u
= u + λ
es decir
u

= −λ
M´etodos Variacionales en Control Optimo 390
3. Se forma la hamiltoniana minimizada
H

=
λ
2
2
−λ
2
−λx = −
λ
2
2
−λx
4. Se forman las ecuaciones diferenciales (4)
∂H

∂x
= −λ
∂H

∂λ
= −λ −x
Que resultan ser
˙
λ = λ
˙ x = −λ −x
De la primera de estas ecuaciones se tiene,
˙
λ −λ = 0 −→λ = k
1
e
t
(15.63)
De la segunda se tiene
˙ x + x = −λ
es decir, de ambas,
˙ x + x = −k
1
e
t
cuya soluci´on es
x(t) = k
2
e
−t

k
1
2
e
t
Las condiciones de transversalidad son (puesto que el estado final es com-
pletamente libre y T = 1)
[
∂S
∂x
−λ][
T=1
= 0 (15.64)
como S = −ρx(t) se tiene
∂S
∂x
= −ρ (15.65)
De (15.64) y (15.65) se tiene
λ(1) = −ρ
Seg´ un (15.63), se tiene
λ(1) = k
1
e
es decir
k
1
=
λ(1)
e
= −
ρ
e
luego
u

= −λ(t) =
ρ
e
e
t
= ρe
(t−1)
M´etodos Variacionales en Control Optimo 391
Ejemplo 8
En este ejemplo vamos a considerar una variante del ejemplo de la regulaci´on
de la temperatura en una habitaci´on que se ha visto al final de la secci´on ante-
rior. Vamos a suponer que se trata de que la temperatura final alcanzada por la
habitaci´on no sea exactamente de 10
o
(es decir que el estado final x(T) no sea
exactamente 10), sino que se trata de minimizar el ´ındice
J =
1
2

T
0
u
2
(t)dt +
1
2
ρ(x(T) −10)
2
en donde ρ es un factor de ponderaci´on entre los dos t´erminos que aparecen en el
´ındice de funcionamiento. El primer t´ermino de J mide el coste de la actuaci´on,
y es el mismo que se ten´ıa en la expresi´on (15.26). El segundo t´ermino es una
expresi´on cuadr´atica que mide la desviaci´on del estado final x(T) del valor 10.
De acuerdo con este t´ermino se trata de penalizar el hecho de que x(T) no sea
igual a 10, pero sin pretender que este sea exactamente el valor alcanzado.
Por tanto, el ´ındice J est´a formado por dos t´erminos. El primero penaliza el
coste de la actuaci´on. Mientras que el segundo se refiere a la meta que se persigue
mediante el funcionamiento del sistema: que el estado final alcance un valor lo
m´as cercano posible a 10. Estos dos t´erminos se suman afectando a uno de ellos
(en este caso al primero) mediante un factor de peso ρ que mide la importancia
relativa que se asigne al comportamiento deseado (primer t´ermino) o al coste de
alcanzarlo (segundo t´ermino). Es decir, si se adopta un valor para ρ muy grande,
entonces la soluci´on ´optima cumplir´a preferentemente la meta de que x(T) toma
un valor pr´oximo a 10, dando poca importancia al coste necesario para alcanzar
esta meta. Por el contrario, si ρ es peque˜ no pr´acticamente lo ´ unico que se tiene
presente es el coste y nos encontramos con un problema an´alogo al discutido
anteriormente.
Para la resoluci´on del problema se procede en este caso como anteriormente,
pero sin embargo en este caso se tiene un t´ermino de control terminal y el estado
final x(T) no est´a dado. Se trata, por tanto, de un problema de control ´optimo
con t´ermino de control terminal, estado final libre y tiempo final T determinado.
Las condiciones de contorno en T vienen dadas, en ese caso, por la expresi´on
(15.58), que, en este caso, conduce a
λ(T) =
∂S
∂x
[
T
= ρ(x(T) −10) (15.66)
M´etodos Variacionales en Control Optimo 392
que es la nueva condici´on final. Esta expresi´on se puede escribir
x(T) =
λ(T)
ρ
+ 10 (15.67)
que llevada a (15.38) y recordando que x(0) = 0 conduce a
x(T) =
−20aρ
2a + b
2
ρ(1 −e
−2aT
)
(15.68)
llevando, a su vez, esta expresi´on de λ(T) a la expresi´on (15.32) se tiene
λ

(t) =
−10aρe
at
ae
aT
+ ρb
2
sinhaT
(15.69)
Por ´ ultimo, mediante la expresi´on (15.29) se tiene
u

(t) =
10abρe
at
ae
aT
+ ρb
2
sinhaT
(15.70)
La trayectoria ´optima resulta ser
x

(t) =
10ρb
2
sinhat
ae
aT
+ ρb
2
sinhaT
(15.71)
Obs´ervese que si ρ tiende a infinito la se˜ nal de mando (15.70) se convierte en la
(15.44) y el resto de las trayectorias tienden a ser las mismas que las determinadas
antes. En particular el estado final x

(T) tiende a alcanzar exactamente el valor
10.
Tema 16
Principio del M´ınimo de
Pontriagin
16.1 Introducci´on
Al aplicar los m´etodos variacionales (ecuaci´on de Euler) a la resoluci´on del pro-
blema del control ´optimo, se pueden presentar los siguientes tipos de dificultades:
1. Los m´etodos variacionales suministran los m´aximos y m´ınimos relativos de
J(u) y no los absolutos;
2. Las ecuaciones de Euler son, normalmente, no lineales lo que frecuentemente
imposibilita la obtenci´on de la soluci´on de forma expl´ıcita;
3. Normalmente, los valores admisibles para las se˜ nales de control est´an aco-
tados, lo que hace imposible la determinaci´on de la se˜ nal de control ´optimo
por m´etodos variacionales.
Al estudiar en el apartado anterior el problema del control ´optimo, se ha consider-
ado que los valores posibles tomados por la se˜ nal de entrada no estaban acotados.
Es decir, que U = IR. Este caso, obviamente, no es el m´as general, sino que debe
considerarse el caso en que la regi´on de las se˜ nales de control admisibles est´e
acotada; es decir, U est´e acotada.
Esta ´ ultima circunstancia, especialmente, tuvo una importancia decisiva para
el desarrollo de nuevas ideas en la teor´ıa del control ´optimo. Las limitaciones que
393
Principio del M´ınimo de Pontriagin 394
se imponen normalmente a las se˜ nales de control son del tipo,
[ u
i
[≤ M
i
Este tipo de limitaciones son perfectamente naturales en las aplicaciones. As´ı,
por ejemplo, los valores que alcanza una magnitud el´ectrica, como la tensi´on o
la intensidad, en un determinado circuito, est´an, en la pr´actica, limitadas por
consideraciones de tipo f´ısico; lo mismo sucede en los equipos mec´anicos con las
posiciones o las velocidades; y as´ı en cualquier sistema f´ısico. En general, una
forma de la evoluci´on de una magnitud f´ısica, y en particular de una se˜ nal de
mando, en un proceso f´ısico real, toma la forma que muestra la figura 16.1.
t
Figura 16.1:
Seg´ un se ver´ a m´as abajo, para obtener comportamientos ´optimos con respecto
a determinados criterios se requiere que se mantengan las se˜ nales de control en
sus valores extremos. Esto sucede especialmente en los problemas de control en
tiempo m´ınimo.
En 1956, los matem´aticos rusos Pontriagin, Boltianskii y Gamkrelidge estu-
diaron el problema de la optimizaci´on din´amica para el caso en que la regi´on
de se˜ nales de control admisibles | estuviese acotada, y establecieron el famoso
principio del m´ınimo (en el trabajo original del m´aximo) al que se ha unido el
nombre del primero de estos tres autores.
El principio del m´ınimo de Pontriagin constituye una generalizaci´on de los
resultados alcanzados con ayuda del c´alculo variacional para resolver el problema
del control ´optimo. La diferencia esencial entre los resultados alcanzados con
ayuda del c´alculo variacional y aquellos que se obtienen con ayuda del principio
del m´ınimo de Pontriagin, reside en que en este ´ ultimo caso se puede definir un
espacio de funciones admisibles |(t) para las se˜ nales de control u(t). Al mismo
tiempo las se˜ nales u(t) de control admisibles pueden presentar discontinuidades
Principio del M´ınimo de Pontriagin 395
en un n´ umero finito de puntos; con ello se abre la posibilidad de estudiar el control
por conmutaci´on, que tanto inter´es tiene en determinadas aplicaciones pr´acticas,
como se ver´a m´as adelante.
Recordando el problema del control ´optimo, se tiene un sistema cuya evoluci´ on
viene dada por
˙ x = f(x, u) (16.1)
siendo conocido x(0).
Las se˜ nales de control admisibles deben pertenecer a un conjunto cerrado |,
es decir,
u(t) ∈ | (16.2)
El estado y el instante al final del proceso est´an definidos por un conjunto de
pares (x(T), T) ∈ B.
El criterio a optimizar es de la forma
J =

T
0
L(x, u)dt + S(x(T), T) (16.3)
Se define, adem´as, la funci´on hamiltoniana de acuerdo con la expresi´on siguiente
H(x, u, λ) = L(x, u) + λf(x, u) (16.4)
El principio del m´ınimo de Pontriagin permite establecer las condiciones nece-
sarias para que una se˜ nal de control admisible d´e lugar a un control ´optimo.
Sea u(t) una se˜ nal de control admisible y x(t) la trayectoria correspondiente, de
manera que x(t) est´e definida por
˙ x = f(x, u) (16.5)
x(0) = 0 (16.6)
Por otra parte, se definen las ecuaciones adjuntas o de coestado como sigue:

dt
= −
∂f
∂x
λ −
∂L
∂x
(16.7)
Por ´ ultimo, recordando las expresiones (15.57) las condiciones finales dan lugar a
λ(T)∆x
f
−H(T)δT =
∂S
∂x
∆x
f
+
∂S
∂t
δT (16.8)
Con todo los elementos anteriores se puede enunciar el principio del m´ınimo de
Pontriagin como sigue:
Teorema (Principio del m´ınimo de Pontriagin).
Principio del M´ınimo de Pontriagin 396
Supuesto que existe un vector adjunto λ(t) tal que satisfaga las ecua-
ciones adjuntas (16.7) y las condiciones finales (16.8) para todo vector
(∆x
f
, δT) tangente a B en el punto (x(T), T), entonces la condici´on
necesaria para la existencia de un m´ınimo es que en todo punto
t ∈ (0, T) la funci´on hamiltoniana H(x, u, λ) alcance su m´ınimo con
relaci´on a u.
De acuerdo con el principio de Pontriagin la elecci´on del control ´optimo u

es muy
simple: en cada instante de tiempo, u debe seleccionarse de manera que garantice
el m´ınimo posible de la hamiltoniana H, teniendo en cuenta las restricciones
(limitaciones) impuestas sobre los valores admisibles de u.
La funci´on hamiltoniana permite evaluar variaciones del criterio J debido a
variaciones admisibles e infinitesimales de la se˜ nal de control δu(t). La variaci´on
del hamiltoniano H debida a una variaci´ on δu se denota por δH, y se escribe,
δH =

∂L
∂u
+ λ
∂f
∂u

δu (16.9)
Para la demostraci´on del teorema del m´ınimo de Pontryagin interesa establecer
en primer lugar el siguiente lema:
Lema
Sea una trayectoria nominal (o de referencia) x(t) de un sistema
din´amico, generada por una se˜ nal de mando u(t).
La variaci´ on del criterio δJ debida a una variaci´ on admisible δu de
la se˜ nal de control ´optimo u

(que determinar´a una variaci´ on de la
trayectoria δx) viene dada por
δJ =

T
0
δH(t)dt (16.10)
en el supuesto de que se cumplan las ecuaciones adjuntas (16.7) y las
condiciones finales (16.8).
Demostraci´on
Sea el sistema din´amico
˙ x = f(x, u)
Principio del M´ınimo de Pontriagin 397
Debido a la variaci´ on de la se˜ nal de control δu se produce una variaci´ on de la
trayectoria δx que vendr´ a dada por la ecuaci´on diferencial siguiente:
˙ x + δ ˙ x = f(x + δx, u + δu)
es decir
δ ˙ x =
∂f
∂x
δx +
∂f
∂u
δu
Por las razones que se pondr´an de manifiesto m´as abajo interesa calcular la
variaci´on con el tiempo de λδx. Se tiene
d(λδx)
dt
=

dt
δx + λ
d(δx)
dt
=


∂L
∂x

∂f
∂x
λ

δx + λ

∂f
∂x
δx +
∂f
∂u
δu

= −
∂L
∂x
δx + λ
∂f
∂u
δu
Pasando al primer miembro el primer t´ermino del segundo miembro, y sumando
a ambos miembros
∂L
∂u
δu se tiene, recordando (16.9).
d(λδx)
dt
+
∂L
∂x
δx +
∂L
∂u
δu = λ
∂f
∂u
δu +
∂L
∂u
δu
=

λ
∂f
∂u
+
∂L
∂u

δu
= δH
Obs´ervese que en δH se indica la variaci´on de H debida exclusivamente a la
variaci´on de u, supuestos x y λ constantes. Integrando la anterior expresi´on
entre 0 y T, y recordando que δx(0) = 0 se tiene
λ(T)δx(T) +

T
0

∂L
∂x
δx +
∂L
∂u
δu

dt =

T
0
δHdt (16.11)
Por otra parte, de acuerdo con la figura 16.2, se puede aproximar el desplaza-
miento ∆x
f
entre la trayectoria nominal y la trayectoria perturbada con la si-
guiente expresi´on, (que es la misma que la (14.21))
δx(T) = ∆x
f
− ˙ x(T)δT (16.12)
siendo (∆x
f
, δT) tangente a B. Es decir,
λ(T)δx(T) = λ(T)(∆x
f
− ˙ x(T)δT) (16.13)
Principio del M´ınimo de Pontriagin 398
δ
x
(T)
˙ x(T
f
)δT
T +δT T
∆x
f
Figura 16.2:
Recordando las condiciones finales (16.8), se tiene, en el caso en que S = 0,
λ(T)∆x
f
= H(T)δT (16.14)
Por lo que (16.13) se puede escribir
λ(T)δx(T) = H(T)δT −λ(T) ˙ x(T)δT (16.15)
Por otra parte, se tiene que
H(T) = λ(T)f(T) + L(T) (16.16)
lo que se puede escribir
λ(T) ˙ x(T) = H(T) −L(T) (16.17)
lo que llevado a la expresi´on (16.15) conduce a
λ(T)δx(T) = L(T)δT (16.18)
Por otra parte se sabe que
δJ =

T
0

∂L
∂x
δx +
∂L
∂u
δu

dt + L(T)δT (16.19)

T+δT
T
Ldt · L(T)δT (16.20)
Teniendo en cuenta (16.18) la anterior expresi´on se reescribe:
δJ =

T
0

∂L
∂x
δx +
∂L
∂u
δu

dt + λ(T)δx(T) (16.21)
Principio del M´ınimo de Pontriagin 399
lo que seg´ un (16.11) conduce a:
δJ =

T
0
δHdt (16.22)
con lo que queda demostrado el lema. 2
Recu´erdese que la variaci´ on de H que se considera en la expresi´on (16.22) es
exclusivamente la debida a u. Es decir, la expresi´on (16.22) se puede escribir
δJ = J(u) −J(u

) =

T
0
(H(x

, u, λ) −H(x

, u

, λ))dt (16.23)
Aparentemente no hay nada de extraordinario en el anterior lema. De hecho,
la ecuaci´on adjunta y las condiciones de tranversalidad prefiguran el resultado
alcanzado. Sin embargo es interesante resaltar el interes de la expresi´on (16.22),
ya que permite evaluar el efecto sobre δJ de una variaci´ on local de δu. Esta
interpretaci´on conduce al teorema del m´ınimo de Pontriagin. Para enunciar ese
teorema se parte del hecho de que toda trayectoria ´optima est´a caracterizada por
la condici´on
δJ ≥ 0, ∀δu(t) (16.24)
que, de acuerdo con el lema, se convierte en que la condici´on necesaria para el
m´ınimo es

T
0
δH(t)dt ≥ 0 (16.25)
para toda variaci´on infinitesimal admisible δu(t).
Consid´erese variaciones δu(t) tales que,
δu(t) = δu τ − < t < τ
= 0 resto
de manera que se cumpla:

u(t) + δu(t) ∈ |
• x(t) + δx(t) corta a B
La condici´on de m´ınimo de la expresi´on (16.25) se convierte en
δH(t) ≥ 0 (16.26)
Principio del M´ınimo de Pontriagin 400
para todo 0 < t < T. En efecto, para demostrar la expresi´on (16.26) se procede
por contradicci´ on. Sup´ongase que existe un valor de ¯ u y uno del tiempo t
1
tales
que
H(x

(t
1
), u

(t
1
), λ(t
1
)) > H(x

(t
1
), ¯ u, λ(t
1
)) (16.27)
es decir, que H(¯ u) en t
1
es menor que H(u

) ´optima. Entonces es posible concebir
una se˜ nal ¯ u(t) tal que coincide con u

(t) para todo valor de t excepto en un
peque˜ no entorno de t
1
en el que toma el valor ¯ u(t
1
) = ¯ u (figura 16.3). Puesto que
T
t
1
t
1 T
0
0
u

¯ u
ε
δu
Figura 16.3:
H es continua con relaci´on a x, y λ (en la medida en que lo son L y f) se tendr´a
que en un entorno de t
1
se podr´a determinar un valor de

tal que
H(x

(t), u

(t), λ(t)) −H(x

(t), ¯ u(t), λ(t)) <

(16.28)
para todo t tal que t −t
1
< . De lo anterior se desprende
δJ = J(¯ u(t)) −J(u

(t))
=

T
0
(H(x

(t), ¯ u(t), λ(t)) −H(x

(t), u

(t), λ(t)))dt <

Haciendo arbitrariamente peque˜ no se tiene
δJ < 0 (16.29)
Principio del M´ınimo de Pontriagin 401
en contradicci´ on con lo supuesto. Es decir, en el caso en que para un valor u y
un tiempo t
1
se cumpla la expresi´on (16.27) puede suceder (16.29). Para que no
suceda (16.29) es necesario que (16.27) no suceda. Luego tiene que cumplirse,
como establece el teorema que se trataba de demostrar.
De hecho el principio del m´ınimo de Pontriagin no hace sino generalizar los
resultados alcanzados en el apartado anterior para el caso en que u

(t) se encuen-
tre en los l´ımites de U, y no en el interior de esta regi´on. Es decir, el principio
del m´ınimo de Pontriagin generaliza al caso en que u est´e acotada el resultado
demostrado anteriormente seg´ un el cual la determinaci´on de la se˜ nal de control
u

que minimiza al funcional J es equivalente a la determinaci´on de la se˜ nal u

que minimice la funci´on hamiltoniana H.
El inter´es del principio del m´ınimo, como el del c´alculo variacional, reside
en que el problema inicial de minimizar un funcional J se transforma en una
infinidad (para cada valor de t ∈ (0, T)), de problemas de minimizaci´on de un
escalar H.
En el apartado anterior se ha visto que la determinaci´on de u

(t) que minimice
a H se hac´ıa resolviendo la ecuaci´on alg´ebrica
∂H
∂u
= 0
Esta ecuaci´on permite determinar el m´ınimo de H en el caso en que u

se encuen-
tre en el interior de U, lo que siempre sucede en el caso de que u no est´e acotada.
En el caso en que u est´e acotada, la determinaci´on del m´ınimo de H debe hacerse
por otro tipo de consideraciones, y no con ayuda de la ecuaci´on anterior. La
demostraci´on rigurosa de que u

debe elegirse de manera que minimice H es la
contribuci´on b´asica de Pontriagin a la teor´ıa del control ´optimo.
Habida cuenta del principio del m´ınimo de Pontriagin, los cinco pasos enun-
ciados en el apartado anterior para resolver el problema de la determinaci´on de
la ley de control ´optima mantienen su vigencia, excepto el segundo que toma la
forma siguiente:
- Determinar u

tal que
u

= arg. min.H
en donde ”arg. min.” debe leerse ”obtener el argumento u

que minimice H”.
Es decir, la hamiltoniana se minimiza en cada punto del tiempo a lo largo de
la trayectoria ´optima por elecci´on de los valores de u ´optimos. As´ı, para cualquier
Principio del M´ınimo de Pontriagin 402
valor de t ∈ [t
0
, T] sucede que o existe una soluci´on interior en la cual
∂H
∂n
= 0
como sucede en los casos considerados al estudiar el c´alculo de variaciones, o se
tiene un asoluci´on de contorno en la cual
∂H
∂n
≥ 0
en donde n es una normal dirigida hacia el exterior sobre el contorno de |. En
la figura 16.4 se representan graficamente estas dos posibilidades, para el caso en
que la dimensi´on de u sea 1.
Solucion interior

u
o
u
H
H
o
Solucion de contorno

u
o
u
H
o
H
Figura 16.4:
En la figura se considera la forma de H, en funci´on de u, para un instante
gen´erico de tiempo t.
En el cuadro se resume el m´etodo modificado.
Principio del M´ınimo de Pontriagin 403
Resumen de la aplicaci´on del
Principio del m´ımimo de Pontriagin
a la determinaci´on del
Control Optimo
Se da el sistema ˙ x = f(x, u)
Se da el criterio J =

T
0
L(x, u)dt
Se dan las restricciones [ u [≤ M
i
Paso 1 Se forma la Hamiltoniana
H(x, u, λ) = L(x, u) + λf(x, u)
Paso 2 Se determina u

(x, λ) admisible tal que
minimice H(x, u, λ) con respecto a u
Paso 3 Se determina la Hamiltoniana m´ınima
H

(x, λ) = H(x, u

(x, λ), λ)
Paso 4 Se resuelve el sistema de 2n ecuaciones
˙ x =
∂H

∂λ
˙
λ = −
∂H

∂x
con las condiciones de contorno correspondientes.
Se obtiene x

(t) y λ

(t).
Paso 5 Se determina u

(t) = u

(x

(t), λ

(t))
Principio del M´ınimo de Pontriagin 404
Debe notarse que el principio del m´ınimo representa exclusivamente una condici´on
necesaria, es decir, que una vez obtenido el valor debe comprobarse que efectiva-
mente corresponde a un m´ınimo.
En algunos libros, y especialmente en el original de Pontriagin, el principio del
m´ınimo se denomina del m´aximo. En ´ ultimo extremo ello no es sino un problema
de signos en la hamiltoniana que debe ser optimizada.
Ejemplo 1
Se trata de trazar una curva x(t), 0 ≤ t ≤ T, que se inicie en x(0) = 0, cuya
pendiente en cada punto no sea mayor que 1 y que maximice el valor de x(t) en
t = T.
El problema puede formularse representando la curva mediante el sistema
din´amico:
˙ x = u(t)
Este curva debe ser tal que x(0) = 0, y adem´as se pide que u(t) ≤ 1. Puesto que
se pretende maximizar x(T) el criterio ser´a:
J = x(T)
Se trata, por tanto, de un problema de control ´optimo con un t´ermino de control
terminal tal que S(x(T), T) = x(T). Aplicando el m´etodo que se acaba de pre-
sentar, se tendr´a que en este caso L(x, u) = 0 y f(x, u) = u por lo que la funci´on
hamiltoniana ser´a:
H = λu
Conviene notar que en la funci´on hamiltoniana no aparece el t´ermino relativo al
control terminal (al estado final). De la expresi´on de H se desprende que para
λ < 0 el valor ´optimo de u es −∞ y para λ > 0 es u = 1.
Las ecuaciones de Hamilton resultan ser:
˙ x =
∂H

∂λ
= u (16.30)

˙
λ =
∂H

∂x
= 0 (16.31)
Integrando (16.31) se tiene
λ(t) = k
Principio del M´ınimo de Pontriagin 405
T
x(t)
x
1
(t)
Figura 16.5: Problema de la curva ´optima con crecimiento acotado.
siendo k una constante. Por otra parte la condici´on de contorno, puesto que
se trata de un problema con estado final libre y tiempo final T determinado,
resulta ser, recordando (15.58), λ(T) = 1. Por tanto k = 1, y λ(t) = 1 > 0.
En consecuencia, la se˜ nal de control ´optima ser´a u = 1. Llevando este valor a
(16.30), y recordando que x(0) = 0, se tiene que la curva ´optima ser´a
x(t) = t
Este resultado, que se muestra en la figura 16.5, tiene un contenido muy intuitivo.
Ejemplo 2: Control ´optimo de un sistema lineal
Sea el sistema
˙ x = −2x + u
con el ´ındice

T
0
x
2
dt
y con la restriccion [ u [≤ 1. Se forma la hamiltoniana,
H = x
2
+ λ(u −2x)
Para optimizar la hamiltoniana se observa que la dependencia de esta funci´on de
u se limita al t´ermino λu. Por tanto, teniendo presentes las restricciones sobre u,
es claro el valor ´optimo de u ser´a u = +1 si λ < 0 y u = −1 si λ > 0 Ver figura
16.6).
Principio del M´ınimo de Pontriagin 406
u
u
+1
−1
−1
+1
H
H
λ > 0
λ < 0
Figura 16.6:
Si se emplea la funci´on ‘sgn (se lee ‘signo) se escribe,
u

= −sgn (λ)
La hamiltoniana ´optima ser´a
H = x
2
−λsgn (λ) −2xλ
La ecuacion adjunta es:
˙
λ = −2x + 2λ
El conjunto se puede mecanizar interpretar mediante un diagrama como el de la
figura 16.7.
Obs´ervese que puesto que S = 0, la condici´on de contorno es λ(T) = 0.
Ejemplo 3: Control ´optimo de un sistema de dimensi´on dos
Sea el sistema (planta) con ecuaciones de estado
˙ x
1
= x
2
˙ x
2
= −x
1
+ u
Se trata de minimizar el criterio de funcionamiento
J =
1
2

T
0
(x
2
1
+ u
2
)dt
Principio del M´ınimo de Pontriagin 407
-1
x
-2
-2 2
λ
Figura 16.7: Diagrama de bloques.
Con se˜ nales de control admisibles tales que
[ u(t) [≤ 1 ∀t ∈ [0, T]
Para resolver el problema se procede de acuerdo con los pasos indicados anteri-
ormente.
1. Se forma la hamiltoniana
H =
1
2
x
2
1
+
1
2
u
2
+ λ
1
x
2
+ λ
2
(u −x
1
)
2. Se minimiza H con relaci´on a todos los valores de u admisibles, para de-
terminar u

= u

(x, λ, t). En este caso se separan los t´erminos en u de
H
1
2
u
2
+ λ
2
u
Si la se˜ nal de control no est´a saturada, el m´ınimo se obtiene haciendo
∂H
∂u
= 0
lo que da
u

= −λ
2
Por tanto, si [ λ
2
(t) [< 1 entonces se adopta u

= −λ
2
ya que con ello se
est´a en la zona no saturada de u). Si [ λ
2
(t) [> 1 entonces, segun se ha
visto en el ejemplo anterior, el valor que minimiza H ser´a
u

= −sgn (λ
2
)
Principio del M´ınimo de Pontriagin 408
u

(t)
λ

2
(t)
Figura 16.8: Representaci´on de u

Por tanto u

tiene la forma que se indica en la figura 16.8.
Para determinar λ
2
(t) se resuelven las ecuaciones
˙ x
1
= x
2
˙ x
2
= −x
2
−λ
2
˙
λ
1
= −x
1
˙
λ
2
= −λ
1
con las condiciones de contorno que correspondan.
16.2 Control ´optimo por conmutaci´ on
16.2.1 Control en tiempo m´ınimo de un sistema de se-
gundo orden
Sup´ongase un m´ovil sin rozamiento, cuyo movimiento est´a controlado por una
fuerza u que est´a acotada ([u[ < 1). La ecuaci´on din´amica del movimiento es
d
2
y
dt
2
= u
que admite la representaci´ on por variables de estado:
˙ x
1
= x
2
˙ x
2
= u
y = x
1
Principio del M´ınimo de Pontriagin 409
El control en tiempo m´ınimo consiste en determinar en cada instante t, la fuerza
que hay que aplicar u(t) de manera que evolucione desde un estado inicial (x
1
, x
2
)
al origen (0, 0), en un tiempo m´ınimo.
El ´ındice de funcionamiento vendr´ a dado por
J =

T
0
dt = T (16.32)
por lo tanto, se tiene que,
L(x, u) = 1 (16.33)
En primer lugar se procede a formar la hamiltoniana
H = 1 + λ
1
x
2
+ λ
2
u
Es claro que H alcanzar´a el valor m´ınimo
• si λ
2
< 0 haciendo u = +1
• si λ
2
> 0 haciendo u = −1
es decir,
u

(t) = −sgn (λ
2
(t))
por lo que la hamiltoniana minimizada resultar´a ser
H

= 1 + λ
1
x
2
−λ
2
sgn (λ
2
)
Las ecuaciones adjuntas resultan ser en este caso
˙
λ
1
= −
∂H

∂x
1
= 0
˙
λ
2
= −
∂H

∂x
2
= −λ
1
cuya integraci´ on conduce a
λ
1
= k
1
λ
2
= −k
1
t + k
2
Se observa que λ
2
es mon´otona (creciente o decreciente, seg´ un los signos de k
1
y
k
2
), por lo que cambiar´a de signo, a lo sumo, una sola vez. Por lo tanto u, o bien
tomar´a solo uno de los valores +1 o −1 hasta alcanzar el origen, o cambiar´a una
sola vez de valor antes de alcanzarlo.
Principio del M´ınimo de Pontriagin 410
En cualquir caso, las ´ unicas se˜ nales que se aplicar´an al sistema ser´an + 1 ´o -
1. Por lo tanto interesa estudiar c´omo evoluciona el sistema cuando u = +1, y
cuando u = −1.
Para u = +1 se tiene,
x
2
= t + c
1
x
1
=
t
2
2
+ c
1
t + c
2
es decir,
x
2
2
= 2x
1
+ c
3
siendo c
3
= c
2
1
− 2c
2
. La anterior expresi´on puede representarse gr´aficamente
como se hace en la figura 16.9a.
b)
x
1
x
2
x
2
x
1
u = +1 A
a)
u = −1
t
0
B
0
t
Figura 16.9:
La ´ unica trayectoria que pasa por el origen es AO, luego ser´a por esta trayec-
toria por la que deber´a alcanzarse el origen.
Para u = −1 se demuestra analogamente que las trayectorias vienen dadas
Principio del M´ınimo de Pontriagin 411
por
x
2
= −2x
1
+ c
4
lo que se representa graficamente en la figura 16.9b. Las mismas consideraciones
hechas anteriormente para la trayectoria AO valen aqu´ı para la trayectoria BO.
Los resultados anteriores pueden resumirse en la figura 16.10.
0
A
B
u = +1
u = −1
x
2
x
1
Figura 16.10:
Del ex´amen de esta figura se desprende que,
1. Si el estado inicial se encuentra sobre AO(BO) se aplica u = +1(u = −1)
y no se produce ninguna conmutaci´on.
2. Si el estado inicial se encuentra por debajo (por encima) de BOA se aplica
u = +1(u = −1) hasta que el estado, recorriendo la par´abola correspon-
diente, alcance la l´ınea BO(AO) en cuyo caso se conmutar´a la se˜ nal de
mando haciendo u = −1(u = +1).
De acuerdo con lo anterior la curva de conmutaci´on vendr´ a dada por
x
1
= −
1
2
x
2
[ x
2
[
de manera que la ley de control ser´a,
u

= sgn ()
Principio del M´ınimo de Pontriagin 412
siendo,
= −x
1

1
2
x
2
[ x
2
[
Esta ley de control puede realizarse practicamente con un esquema como el
de la figura 16.11.
x
2
1
2
x
|
+1
+
+
-
+
y
r
= 0
ε
-1
u
0
1
s
1
s
x
1
x
2
[ x
2
[
+1
Figura 16.11: Ley de control
Debe observarse que, en cierta manera, lo que se ha hecho ha sido determinar
una ley de control, puesto que la se˜ nal de mando que se aplica en cada instante,
a partir de las consideraciones anteriores, depende ´ unicamente del estado del
sistema.
16.2.2 Ejemplo 4: Problema del alunizaje suave
Determinar la ley de control ´optima que transfiera al m´odulo lunar (figura 16.12)
desde una posici´on inicial (z(0), ˙ z(0), M(0)) a la posici´on final (0, 0, M(T)) con
un consumo m´ınimo de combustible. La se˜ nal de control u est´a acotada por
0 < u < Q.
Soluci´on
Haciendo x
1
= z, x
2
= ˙ z, las ecuaciones din´amicas del sistema se transforman
en
˙ x
1
= x
2
(16.34)
Principio del M´ınimo de Pontriagin 413
z
Mg
ku
Figura 16.12: ”Aterrizaje lunar”
˙ x
2
= −g +
ku
M
(16.35)
Observese que M depende del tiempo, de modo que
M(t) = M(0) −

t
0
udt
Se supone que
∆M
M
=
M(T) −M(0)
M(0)
es muy peque˜ na, de modo que la expresi´on (16.35) puede considerarse correcta
en primera aproximaci´on. El criterio a minimizar es
J =

T
0
udt
por lo que
H = u + λ
1
x
2
+ λ
2

−g +
ku
M

es decir
H = λ
1
x
2
−λ
2
g + u

1 +

2
M(0) −

t
0
udt

Minimizando H respecto a u se observa que el control viene dado por
• u = 0 si

1 +

2
M(0) −

t
0
udt

> 0
Principio del M´ınimo de Pontriagin 414
• u = Q si

1 +

2
M(0) −

t
0
udt

< 0
Las ecuaciones adjuntas son
˙
λ
1
= −
∂H
∂x
1
= 0 ⇒λ
1
= k
1
˙
λ
2
= −
∂H
∂x
2
= −λ
1
⇒λ
2
= −k
1
t + k
2
El que λ
2
crezca (o decrezca) linealmente con el tiempo implica que el signo de

1 +

2
M(0) −

t
0
udt

cambie una vez como m´aximo, y por lo tanto u s´olo toma los valores 0 y Q una
sola vez en la trayectoria ´optima.
Cuando u = 0 (caida libre del modelo), las ecuaciones din´amicas toman la
forma:
˙ x
1
= x
2
˙ x
2
= −g
de donde se tiene
x
2
= −gt + x
2
(0) = −gt + ˙ z(0) (16.36)
y
x
1
= −g
t
2
2
+ z(0) + ˙ z(0)t (16.37)
De la ecuaci´on (16.36) despejamos el tiempo
t =
˙ z(0) −x
2
g
y lo sustituimos en la ecuaci´on (16.37)
x
1
= z(0) +
˙ z
2
(0)
2g

x
2
2
2g
es decir,
x
2
2
= ˙ z
2
(0) + 2g(z(0) −x
1
)
esta expresi´on da la familia de trayectorias en el plano de estado, en funci´on de
las condiciones iniciales z(0), ˙ z(0).
Principio del M´ınimo de Pontriagin 415
x
2
x
1
u = 0
z(0)
˙ z(0)
Figura 16.13:
En la figura 16.13 se representan las trayectorias correspondientes
Cuando u = Q
˙ x
1
= x
2
˙ x
2
= −g +
kQ
M(0) −

t
0
udt
=
kQ
M(0) −Qt
−g
Integrando la segunda de las anteriores expresiones se tiene
x
2
− ˙ z(0) = −k (ln(M(0) −Qt) −ln M(0)) −gt
lo que llevado a la primera
˙ x
1
= x
2
= ˙ z(0) −k ln(M(0) −Qt) + k ln M(0) −gt
es decir
x
1
−z(0) = ˙ z(0)t + k
M(0)
Q

1 −
Qt
M(0)

ln

1 −
Qt
M(0)

−g
t
2
2
+ k ln M(0)t
En el ´ ultimo paso se ha tenido en cuenta que

ln xdx = x ln x −x
Las trayectorias en el plano de fase corresponden a curvas de la forma que se
indica en la figura 16.14.
La ´ unica trayectoria que pasa por el origen es la AB, y es por lo tanto la curva
de conmutaci´ on, como la se˜ nal u solo cambiaba de valor una vez en la trayectoria
Principio del M´ınimo de Pontriagin 416
A
CHOQUE
˙ z(0)
B
u = Q
z(0)
x
1
x
2
Figura 16.14:
´optima, cualquier trayectoria del m´ovil corresponder´a a una caida libre si se
encuentra por encima de la trayectoria AB. Las ecuaciones param´etricas de la
trayectoria AB corresponden a
z = −
g
2
τ
2
−kτ =
kM(0)
Q
ln

1 −

M(0)

˙ z = gτ + k ln

1 −

M(0)

Zona de caida libre
Choque
con
velocidad
Z
o
n
a
d
e
c
h
o
q
u
e
u = Q
k = 0
Linea de
conmutacion
x
2
x
1
Figura 16.15:
En la figura 16.15 se representa la evoluci´on conjunta de las representadas en
las figuras 16.13 y 16.14.
Tema 17
Principio de optimalidad de
Bellman
17.1 Introducci´on
Dado un criterio de optimalidad, las N se˜ nales de mando o decisiones que con-
ducen el sistema del estado A al B, de acuerdo con este criterio, y a trav´es de
N pasos sucesivos, son tales que cualquiera que sea el estado C resultado de
aplicaci´on de la primera de ellas, las N − 1 se˜ nales restantes dan lugar a una
trayectoria ´optima de C a B.
Al cumplirse lo anterior para el primer paso es evidente que se cumple para
cualquier paso intermedio.
Gr´aficamente se interpreta en la figura 17.1, diciendo que si la trayectoria
AB es ´optima, lo mismo lo es la CB. Es decir una trayectoria ´optima tiene
la propiedad de que cualesquiera que sean el estado inicial y la primera acci´on
tomada sobre el sistema, las restantes acciones deben constituir una trayectoria
´optima a partir del estado resultante de la primera acci´on.
Obs´ervese que se exige que B sea siempre el estado final. Es decir, que un
tramo de la trayectoria AB, que no acabe en B, no puede considerarse ´optimo.
417
Principio de optimalidad de Bellman 418
B
C
A
Figura 17.1: Principio de optimalidad: si la trayectoria AB es ´o´optima, tambi´en
lo es la CB.
Ejemplo
Se trata de determinar la trayectoria ´optima de A a P, en 6 etapas. Los tramos
de cada porci´on de la primera trayectoria est´an penalizados con un costo que se
representa en la figura 17.2 con un n´ umero sobre el correspondiente tramo. El
criterio de optimalidad es el minimizar el costo total del recorrido.
Se considera en primer lugar la quinta y la sexta etapa (figura 17.3). En cada
uno de los nudos se escribe un n´ umero rodeado por un circulo que representa
el coste m´ınimo del recorrido desde dicho nudo a P, supuesto por la trayectoria
´optima.
Es evidente que desde N y O, al no haber opci´on el correspondiente n´ umero
ser´a el costo de la trayectoria. Lo mismo suceder´a desde K y M, desde los que
las ´ unicas trayectorias posibles son KNP y MOP, de costos 8 y 9 respectiva-
mente. Sin embargo desde L dos trayectorias son posibles, la INP y la LOP de
costos 7 y 8 respectivamente. Por lo tanto la ´optima ser´a la LNP y se encerrar´a
un 7 en el circulo correspondiente. Obs´ervese que a lo largo de la trayectoria
´optima la diferencia entre los n´ umeros encirclados es igual al costo del tramo
correspondiente. De la misma manera se puede estudiar la 4 etapa (figura 17.4).
Debe notarse que en este paso ya se obtiene un notable beneficio de los c´alculos
anteriores y que al, por ejemplo, calcular la trayectoria ´optima desde H, se tiene
en cuenta las trayectorias ´optimas desde K y desde L, y no se tiene que volver a
calcular todo el trayecto. De hecho lo que se hace es decidir entre HK y HL de
Principio de optimalidad de Bellman 419
1 2 3 4 5 6 7
A
B
C
E
F
D
G
H
I
J
K
N
O
P
L
M
3
1
6
4
6
5 2
8
9
2
3 7
4
5 9
6 5
3
5 7
3
1
4
2
Figura 17.2: Ret´ıculo de trayectos posibles entre A y P.
M
L
K
N
O
P
8
7
5
9
3
Figura 17.3: Las dos ´ ultimas etapas para llegar a P.
Principio de optimalidad de Bellman 420
M
L
K
N
O
P
8
7
5
9
3
J
I
H
G
18
14
12
14
Figura 17.4: Las tres ´ ultimas etapas para llegar a P.
Principio de optimalidad de Bellman 421
manera que la suma del costo correspondiente al nuevo tramo y el costo ´optimo
a K o a L (n´ umero encirclado), sea m´ınimo.
Procediendo de esta manera se llega a cubrir todo el diagrama con los costos
m´ınimos desde los correspondientes nudos. De la figura 17.5 y de los anterior-
mente expuestos, se deduce que la trayectoria ´optima es la ABEHKNP.
M
L
K
N
O
P
8
7
5
9
3
J
I
H
G
18
14
12
14
A
B
C
D
E
F
17
16
17
18
14
15
Figura 17.5: Trayectoria ´optima de A a P.
17.1.1 Ejemplo de un sistema binario en tiempo discreto
Sea un sistema que admite una entrada u(k) que toma ´ unicamente los valores 0
y −1, para todo k discreto. La ecuaci´on que gobierna la evoluci´ on del mismo es
la siguiente:
x(k + 1) = x(k) + u(k) (17.1)
Se trata de encontrar la secuencia u(k), k = 0, 1, 2, 3 que transfiera el estado del
sistema de x(0) = 2 a x(4) = 0 de manera que se minimice la funci´on de costo
J =
3
¸
t=0
[ 5x(k) −3 [ (17.2)
Para una mejor comprensi´on del m´etodo se emplear´a un diagrama sobre un plano
x − y, en donde en el eje y se representa el estado del sistema (17.1) y en el eje
x el ´ındice k (figura 17.6).
En dicho diagrama se tienen unos circulos correspondientes a los distintos
pares (x, k) y unas flechas que los unen. Estas ´ ultimas llevan asociados n´ umeros
que representan el costo de la transici´on de un punto a otro, y se calculan seg´ un
(17.2). Este costo depende exclusivamente del estado previo.
Principio de optimalidad de Bellman 422
0 1 2 3 4
2
1
7
7
7 7
7
2
2
2
2
3
3
2
13 11 9
6 4 2
6 3 0
x(t)
t
B
A
Figura 17.6: Trayectorias posibles desde A hasta B.
En cuando a los circulos, tienen tambi´en n´ umeros cuya generaci´on se va a ver
a continuaci´ on. Estos n´ umeros representan J

i
(x).
En primer lugar, consid´erese k = 3, y J

1
. Para los dos valores posibles de x,
x = 0 y x = 1 que conducen a B, los valores de J

1
correspondientes son:
J

1
(0) = 3
J

1
(1) = 2
Puesto que no hay diferentes rutas desde los dos puntos no se requiere mini-
mizaci´on.
Sea ahora k = 2. Los puntos en los que se puede iniciar el proceso son en este
caso x = 0, 1, 2. Para x = 0, 2 no existe problemas de adopci´on de ruta pero para
x = 1 si es posible aplicar u = 0 ´o u = −1.
En tal caso se tiene,
J

2
(1, 2) = min
u
[2 + J

1
] = 4
De la misma forma se procede para t=1, resultando
J

3
(0) = 9 (17.3)
J

3
(1) = 6 (17.4)
J

3
(2) = 11 (17.5)
y asimismo para k = 0, siendo en ese caso
J

4
(2) = 13
Principio de optimalidad de Bellman 423
Una vez realizados los c´alculos anteriores la determinaci´on de la trayectoria
´optima es ya un problema trivial. Los distintos tramos de la misma estar´an
formados de acuerdo con la regla J

i
(x
1
) −J

i−1
(x
2
) = costo de la transici´on de x
1
a x
2
.
De acuerdo con este criterio, cuya interpretaci´on es obvia, se obtiene la trayec-
toria de trazo fuerte de la figura 17.7.
0 1 2 3 4
2
1
7
7
7 7
7
2
2
2
2
3
3
2
13 11 9
6 4 2
6 3 0
x(t)
t
B
A
Figura 17.7: Trayectoria ´optima entre A y B, en trazo grueso.
17.1.2 Programaci´on din´amica en tiempo discreto y Prin-
cipio de Optimalidad
El ejemplo anterior admite la siguiente generalizaci´on. Sea un sistema din´amico
en tiempo discreto
x(k + 1) = f(x(k), u(k), k) (x(T), T) ∈ B
cuyo funcionamiento se pretende que optimece el criterio
J =
T−1
¸
t
0
L(x(k), u(k), k) + S(x(T), T) (17.6)
En lugar de considerar el problema correspondiente con un estado e instante
inicial dados (x(t
0
), t
0
), vamos a considerar el problema m´as general con un estado
y condiciones iniciales (x, t) arbitrarias. Para cada uno de estos problemas se
define la funci´on
V (x, t) = min J
Es decir, para cada (x, t) la funci´on V (x, t) nos da el coste ´optimo, desde
ese estado y tiempo. Si recordamos los dos ejemplos anteriores veremos que la
Principio de optimalidad de Bellman 424
funci´on V (x, t) toma, en esos problemas, el valor que se representa en las figuras
17.5 y 17.6 en el interior de un peque˜ no c´ırculo.
Para la aplicaci´on de la programaci´on din´amica, conviene observar, en primer
lugar, que el criterio (17.6) es aditivo. Debido precisamente a este car´acter aditivo
y aplicando el principio de optimalidad de Bellman se tiene que
V (x, t) = min
u(t),u(t+1),...
¸
T−1
¸
t
L(x(k), u(k), k) + S(x(T), T)
¸
= min
u(t)

L(x(t), u(t), t) + min
u(t+1),u(t+2),...

T−1
¸
t+1
L(x(k), u(k), k) + S(x(T), T)
¸
¸
¸
¸
es decir, el valor de V es el m´ınimo de la suma del primer paso que se toma desde
(x, t) m´as el valor ´optimo desde el resultado de ese primer paso. Recu´erdese como
se calculaban los n´ umeros encirclados en los dos ejemplos anteriores. La anterior
expresi´on se puede escribir
V (x, t) = min
u∈U
[L(x(t), u(t), t) + V (f(x, u, t), t + 1)]
Las condiciones en los l´ımites correspondientes al problema son
V (x, T) = S(x(T), T)
adem´as, la ley de control ´optima se determina en cada etapa mediante la expresi´on
u(x, t) = arg min
u∈U
[L(x(t), u(t), t) + V (f(x, u, t), t + 1)]
Conviene resaltar que este m´etodo nos ha conducido de manera natural a que
la soluci´on toma la forma de una ley de control, y no de una se˜ nal de control
como suced´ıa en la soluci´on del control ´optimo mediante m´etodos variacionales.
17.2 Programaci´on din´amica y ecuaci´on de Ha-
milton-Jacobi-Bellman
Para sistemas en tiempo discreto, el principio de optimalidad de Bellman da lugar,
de una forma muy sencilla, a recurrencias que permiten determinar la secuencia
´optima de se˜ nales de control, como hemos visto en los ejemplos anteriores. Para
sistemas en tiempo cont´ınuo, el anterior principio puede aplicarse tambi´en. Con el
Principio de optimalidad de Bellman 425
fin de precisar la aplicaci´on del principio de optimalidad de Bellman a sistemas en
tiempo continuo sup´ongase el problema de control ´optimo definido por el sistema
din´amico:
˙ x = f(x, u) (17.7)
y el criterio de funcionamiento:
J(x, u) =

T
0
L(x, u)dt + S(x(T), T) (17.8)
siendo
u ∈ U (x(T), T) ∈ B (17.9)
Para sistemas en tiempo continuo el principio de optimalidad de Bellman
puede enunciarse de la forma siguiente:
Si u

(τ) es ´optimo en el intervalo [t, T], partiendo del estado x(t),
entonces u

(τ) es necesariamente ´optimo en el subintervalo [t +∆t, T]
para cualquier ∆t tal que T −t ≥ ∆t > 0.
Graficamente puede interpretarse mediante la figura 17.8, en que se representa
la trayectoria ´optima que une el estado inicial (x, t) con el estado final (x(T),T)
por medio de la curva AB.
A
x(T)
T
C
B
(x, t)
x
t +∆t t
Figura 17.8: Trayectoria ´optima cont´ınua de A a B.
Si inicialmente el sistema se encuentra en (x, t), al cabo de ∆t unidades de
tiempo, el sistema se encontrar´ a en el punto C. Seg´ un el principio de optimalidad
de Bellman, si AB es una trayectoria ´optima, entonces CB ser´a a su vez otra
trayectoria ´optima.
Principio de optimalidad de Bellman 426
Demostraci´on
Se procede por contradicci´on. Sup´ongase que existe un u
∗∗
tal que d´e un valor
menor para

T
t+∆t
L(x, u, τ)dτ + S(x(T))
que el que daba u

en el subintervalo [t +∆t, T]. Consid´erese una nueva se˜ nal de
control u(τ) dada por
u(τ) =

u

(τ), para t ≤ τ ≤ t + ∆t
u
∗∗
(τ), para t + ∆t ≤ τ ≤ T
(17.10)
Entonces en el intervalo [t, T] se tendr´a

t+∆t
t
L(x

, u

, τ)dτ +

T
t+∆t
L(x
∗∗
, u
∗∗
, τ)dτ + S(x
∗∗
(T))
<

t+∆t
t
L(x

, u

, τ)dτ +

T
t+∆t
L(x

, u

, τ)dτ + S(x

(T)) (17.11)
Pero se ha partido del supuesto de que u

es ´optimo en el intervalo [t, T], y
(17.11) implica que u dado por (17.10) da lugar a un valor para J menor que el
´optimo. Lo que est´a en contradicci´ on con el supuesto del que se hab´ıa partido.
Conviene observar que en las expresiones anteriores x

denota la trayectoria
del estado correspondiente a la se˜ nal de control u

, x
∗∗
la correspondiente a u
∗∗
y
x

= x
∗∗
para τ = t +∆t, puesto que u y u

son las mismas en el intervalo [t, T].
La idea fundamental de la programaci´on din´amica consiste en separar la op-
eraci´on de minimizaci´on en dos niveles, separaci´on que es l´ıcita por las dos razones
siguientes:
• el criterio J es aditivo con relaci´on a la trayectoria,
• el comportamiento din´amico est´a representado por una ecuaci´on diferencial
de primer orden.
Con el fin de aplicar el principio de optimalidad de Bellman conviene definir
la funci´on:
V (x, t) = J

(x, t)
Principio de optimalidad de Bellman 427
siendo J

(x, t) el valor de la funcional J cuando se recorre la trayectoria ´optima
desde el estado (x, t). Por tanto:
V (x, t) = J

(x, t) = min
u
[t,T]
¸

T
t
L(x(τ), u(τ)) dτ + S(x(T), T)
¸
con:
u
[t,T]
= ¦u(τ)[t ≤ τ < T¦
es decir, u
[t,T]
es el conjunto de todas las acciones de control posibles en el intervalo
[t, T].
Recordando la figura 17.8, tenemos que si el valor del funcional J para la
trayectoria ´optima que se inicia en (x, t) se representa por V (x, t), entonces el
valor de J para la trayectoria CB, vendr´a dado por V (x +∆x, t +∆t). Es decir,
V (x + ∆x, t + ∆t) es el coste m´ınimo del proceso para el intervalo (t + ∆t, T).
Adem´as, por el principio de la optimalidad sabemos que si la trayectoria AB es
´optima, tambi´en lo ser´a la trayectoria CB. Todo ello permite escribir
V (x, t) = min
u[t,T]
¸

t+∆t
t
L(x(τ), u(τ))dt + min
u[t+∆t,T]
¸

T
t+∆t
L(x, u, t)dt + S(x(T), T)
¸¸
(17.12)
es decir,
V (x(t), t) = min
u[t,T]
¸

t+∆t
t
L(x(τ), u(τ))dτ + V (x(t + ∆t), t + ∆t)
¸
(17.13)
En esta ´ ultima expresi´on se ha tenido en cuenta el que el valor m´ınimo V a
partir del estado x(t+∆t) en el tiempo t+∆t viene dado por V (x(t+∆t), t+∆t).
Conviene observar que empleando el principio de optimalidad, el problema a de-
terminar el control ´optimo sobre el intervalo [t, T] se ha reducido al de determinar
el control ´optimo sobre el intervalo reducido [t, t + ∆t].
Aplicando el teorema de la media al primer miembro del segundo t´ermino de
(17.13), se tendr´a

t+∆t
t
Ldt · L∆t (17.14)
es decir,
V (x, t) = min
u(τ)
[L∆t + V (x + ∆x, t + ∆t)] (17.15)
siendo u(τ) la se˜ nal ´optima en el intervalo t ≤ τ ≤ t +∆t. Desarrollando en serie
V (x + ∆x, t + ∆t) en torno a (x, t) (en el supuesto de que tanto V como f sean
Principio de optimalidad de Bellman 428
suficientemente diferenciables ) se tendr´a,
V (x + ∆x, t + ∆t) = V (x, t) +
∂V
∂x
∆x +
∂V
∂t
∆t + ... (17.16)
en donde
∂V
∂x
representa el vector gradiente de V con relaci´on a x, y
∂V
∂t
representa
la derivada parcial de V con relaci´on a t.
Llevando (17.16) a (17.15), y despreciando variaciones de orden superior, se
tiene
V (x, t) = min
u(τ)
¸
L∆t + V (x, t) +
∂V
∂x
∆x +
∂V
∂t
∆t
¸
(17.17)
Los t´erminos V (x, t) y
∂V
∂t
∆t no est´an afectados por la minimizaci´on (puesto que
no dependen de u(τ)) por lo que la expresi´on anterior se puede escribir:
min
u(τ)
¸
L∆t +
∂V
∂x
∆x
¸
+
∂V
∂t
∆t = 0 (17.18)
Dividiendo por ∆t, haciendo ∆t →0 se tiene:
min
u(t)
¸
L(x, u, t) +
∂V
∂x
˙ x
¸
+
∂V
∂t
= 0 (17.19)
Esta ecuaci´on se conoce bajo el nombre de ecuaci´on de Hamilton-Jacobi-
Bellman.
Para resolver la ecuaci´on de optimizaci´on (17.19) se procede en dos pasos. En
el primero se realiza la minimizaci´on indicada. Ello conduce a
u(x, t) = arg min
u(x,t)
¸
L(x, u, t) +
∂V (x, t)
∂x
f(x, u, t)
¸
(17.20)
Es decir a una ley de control de la forma
u

= φ

∂V
∂x
, x, t

(17.21)
El segundo consiste en sustituir (17.21) en (17.19) y resolver la ecuaci´on no
lineal en derivadas parciales
L(x, φ, t) +
∂V
∂x
f(x, φ, t) +
∂V
∂t
= 0 (17.22)
Principio de optimalidad de Bellman 429
con las condiciones de contorno
V (x, T) = S(x(T), T) (17.23)
sobre B.
Observando la expresi´on (17.22) y recordando la definici´on hamiltoniana parece
apropiado escribir
H(x, φ, t) = L(x, φ, t) +
∂V
∂x
f(x, φ, t) (17.24)
con lo que la expresi´on (17.22) puede escribirse
H(x, φ, t) +
∂V
∂t
= 0 (17.25)
En general no es posible resolver anal´ıticamente esta ecuaci´on en derivadas
parciales. Sin embargo, en la secci´on siguiente se presentar´ a un caso general para
el que si tiene soluci´on. En el caso de que sea posible esta soluci´on y se determine
V , entonces se calcula el gradiente de V con respecto a x y se tiene la ley de
control ´optima por realimentaci´ on del estado
u

= φ

∂V
∂x
, x, t

= k(x, t) (17.26)
Debe observarse que la resoluci´on de la ecuaci´on de Hamilton-Jacobi-Bellman es
s´olo una condici´on necesaria para la optimizaci´on.
Con vistas a las aplicaciones el m´etodo anteriormente expuesto se puede sin-
tetizar en los siguientes cinco pasos:
1. Formar la hamiltoniana, sustituyendo λ por
∂V
∂x
.
H

x, u,
∂V
∂x

= L +
∂V
∂x
f (17.27)
2. Minimizar H

x, u,
∂V
∂x
, t

con relaci´on a u ∈ U para obtener
u

= u

x,
∂V
∂x

(17.28)
Principio de optimalidad de Bellman 430
3. Determinar la hamiltoniana minimizada
H

x,
∂V
∂x

= H

x, u

,
∂V
∂x

(17.29)
4. Resolver la ecuaci´on de Hamilton-Jacobi-Bellman que, con la introducci´on
de la hamiltoniana minimizada, queda convertida en,
H

x,
∂V
∂x

+
∂V
∂t
= 0 (17.30)
Esta ecuaci´on en derivadas parciales recibe la denominaci´on de ecuaci´on de
Hamilton-Jacobi. Esta ecuaci´on admite las condiciones de contorno dada
por la expresi´on (17.23).
5. Llevar los resultados de 4 a 2 para obtener la ley de control ´optima. Es
decir, una vez se ha determinado V (x, t) se puede determinar su gradiente
∂V
∂x
y llevarlo a la ecuaci´on (17.28) para obtener la ley de control ´optima
u

(x, t).
Estos pasos se resumen en el cuadro siguiente:
Resumen de la aplicaci´on del metodo de Hamilton-Jacobi-Bellman
a la determinaci´on del Control Optimo
Principio de optimalidad de Bellman 431
Se da el sistema ˙ x = f(x, u)
Se da el criterio J =

T
0
L(x, u)dt + S(x(T), T)
Paso 1 Se forma la Hamiltoniana
H

x, u,
∂V
∂x
, t

= L(x, u) +
∂V
∂x
f(x, u)
Paso 2 Se determina u

= u

x,
∂V
∂x
, t

admisible tal que
minimice H

x, u,
∂V
∂x
, t

con respecto a u ∈ U
Paso 3 Se determina la Hamiltoniana m´ınima
H

x,
∂V
∂x
, t

= H

x, u

,
∂V
∂x
, t

Paso 4 Se resuelve el sistema de ecuaciones en derivadas parciales
H

x,
∂V
∂x
, t

+
∂V
∂t
= 0
con las condiciones de contorno V (x, T) = S(x(T), T).
Se obtiene V

(x, t).
Paso 5 Se determina u

(x)
En general, la aplicaci´on del m´etodo anterior presenta dos dificultades que limitan
grandemente su empleo. En primer lugar, es generalmente imposible resolver
la ecuaci´on de Hamilton-Jacobi a´ un para problemas sencillos, puesto que no se
conoce una t´ecnica general de resoluci´on para ese tipo de ecuaciones en derivadas
parciales. Por otra parte, a´ un si la ecuaci´on de Hamilton-Jacobi puede resolverse,
la ley de control obtenida es normalmente muy dificil de realizar f´ısicamente.
Las anteriores razones hacen que, desde un punto de vista pr´actico, sea m´as
interesante el principio de Pontriagin que la ecuaci´on de Hamilton-Jacobi-Bellman
Principio de optimalidad de Bellman 432
en la resoluci´on del problema de control. Sin embargo, existe un caso para el que
el m´etodo de Hamilton-Jacobi-Bellman es el id´oneo. Es el de la determinaci´on
de la ley de control para un sistema din´amico lineal invariante en el tiempo,
cuando el criterio de funcionamiento es cuadr´atico. Este problema es de por
s´ı lo suficientemente interesante como para justificar el estudio del m´etodo de
Hamilton-Jacobi-Bellman.
Ejemplo 1
Determinar la ley de control ´optimo para el sistema
˙ x = u
con el ´ındice
J =

T
0
(x
2
+ u
2
)dt
1. Se forma la hamiltoniana
H = x
2
+ u
2
+
∂V
∂x
u
2. Se minimiza la hamiltoniana
∂H
∂u
= 2u +
∂V
∂x
= 0
lo que da
u

= −
1
2
∂V
∂x
3. Se forma la hamiltoniana m´ınima
H

= x
2

1
4

∂V
∂x

2
4. Se tiene la ecuaci´on de Hamilton-Jacobi-Bellman
∂V
∂t
+ x
2

1
4

∂V
∂x

2
= 0
Con la condici´on de contorno
V (x(T), T) = 0
Principio de optimalidad de Bellman 433
Una forma de resolver la ecuaci´on de Hamilton-Jacobi-Bellman es asumir
una soluci´on, y comprobar si satisface la ecuaci´on y las condiciones de con-
torno. Sup´ongase una soluci´on de la forma
V (x, t) = k(t)x
2
en donde k(t) es una funci´on a ser determinada. Se tendr´a
∂V
∂x
= 2k(t)x
∂V
∂t
=
˙
kx
2
Por tanto la ecuaci´on de Hamilton-Jacobi-Bellman se convierte en
˙
kx
2
+ x
2

1
4
(4k
2
x
2
) = 0
es decir
˙
k + 1 −k
2
= 0
De V (T) = 0 se tiene k(T) = 0. La soluci´on es
k(t) = tanh(T −t)
y, por tanto,
u

= −tanh(T −t)x(t)
17.2.1 Relaci´on entre la programaci´on din´amica y la for-
mulaci´on Hamiltoniana del problema de control
´optimo
Recordemos la ecuaci´on de Hamilton-Jacobi-Bellman
∂V
∂t
+ min
u(t)
¸
L(x, u, t) +
∂V (x, t)
∂x
f(x, u, t)
¸
= 0 (17.31)
Si V es suficientemente diferenciable y suponiendo que el m´ınimo se alcanza
en un punto interior a |, la expresi´on anterior es equivalente a

L(x, u, t) +
∂V
∂x
f(x, u, t) = 0
∂L
∂u
+
∂V
∂x
∂f
∂u
= 0
Principio de optimalidad de Bellman 434
La segunda de estas expresiones caracteriza la ley u(x, t) que minimiza al hamil-
toniano. En tal caso la primera de ella equivale a (17.31).
Interesa calcular c´omo evoluciona el vector
∂V
∂t
a lo largo de una trayectoria
´optima. Derivando con respecto al tiempo se tiene
d
dt
∂V
∂t
=

2
V
∂t∂x
+

2
V

2
x
f(x, u) (17.32)
Por otra parte, derivando (17.2.1) con relaci´on a x se obtiene
d
dt
∂V
∂t
=

2
V
∂t∂x
+

2
V

2
x
f(x, u) +
∂L
∂x
+
∂L
∂u
∂u
∂x
+
∂f
∂x
∂V
∂x
+
∂V
∂x
∂f
∂x
∂u
∂x
= 0
de donde, teniendo en cuenta (17.2.1) y (17.32), se llega a
d
dt
∂V
∂t
= −
∂f
∂x
∂V
∂x

∂L
∂x
Esta expresi´on es precisamente la ecuaci´on adjunta o de coestado del m´etodo
de Hamilton. Por tanto, a lo largo de una trayectoria ´optima se puede identificar
∂V
∂t
= λ(t)
con lo que se pone de manifiesto la equivalencia de ambos planteamientos. Esta
equivalencia resulta m´as notable cuando se tiene en cuenta la diferencia de planteamien-
tos de los que se ha partido.
17.3 Control de sistemas din´amicos lineales con
criterio cuadr´atico
17.3.1 Breve rese˜ na hist´orica
El problema del control lineal cuadr´atico tiene su origen en el trabajo de Norbert
Wiener sobre filtrado cuadr´atico medio para el control de ca˜ nones antia´ereos du-
rante la Segunda Guerra Mundial. Wiener emple´o m´etodos basados en el dominio
de la frecuencia para resolver este problema. Sin embargo aport´o como novedad
importante un desarrollo te´orico que permit´ıa un m´etodo anal´ıtico para resolver
el problema de dise˜ no. Este plantemiento anal´ıtico contrastaba con los m´etodos
Principio de optimalidad de Bellman 435
de ensayos sucesivos con m´etodos gr´aficos, basados en el criterio de estabilidad de
Niquyst, que entonces se empleaba. El m´etodo de Wiener permit´ıa adem´as tener
en cuenta cuestiones tales como los ruidos de medida y otras perturbaciones de
car´acter aleatorio.
Las ideas de Wiener fueron realaboradas durante los a˜ nos 50 empleando la
descripci´on interna de los sistemas y condujeron a lo que hoy se conoce como
la teor´ıa del control lineal cuadr´atico, que va a ser el objeto de lo que sigue y
de los cap´ıtulos siguientes. De acuerdo con esta teor´ıa el objetivo de un sistema
de control es el minimizar un ´ındice de funcionamiento cuadr´atico. Se trata de
mantener a este sistema en un estado lo m´as cercano al de reposo x = 0. El costo
correspondiente a las desviaciones del estado de reposo se expresa por
J
1
=

T
0
x
T
Qxdt + x
T
(T)Sx(T)
sujeto a las restricciones que representan un sistema lineal
˙ x = Ax + Bu
Lo que recibe la denominaci´on de problema del regulador lineal cuadr´atico
o problema LQR (acr´onimo de Linear Quadratic Regulator). Su soluci´on, como
veremos luego, se reduce a la de una ecuaci´on diferencial de Ricatti. Durante el
per´ıodo 1.960-70 se desarrollaron muchos estudios te´oricos sobre este problema.
Las ventajas que presenta la soluci´on de este problema sobre las t´ecnicas de dise˜ no
cl´asicas son las siguientes:
• Permite la optimizaci´on para intervalos de tiempo finito (los m´etodos en
el dominio de la frecuencia de Wiener estaban limitados a intervalos de
optimizaci´on infinitos);
• son aplicables a sistemas que var´ıan con el tiempo (los m´etodos en el dominio
de la frecuencia est´an limitados a sistemas invariantes en el tiempo); y
• permiten abordar de forma relativamente simple el problema de los sistemas
multivariables.
Sin embargo,la teor´ıa LQR no aborda dos cuestiones muy importantes que apare-
cen en el dise˜ no de sistemas de control realimentados: la falta de precisi´on en el
modelo de la planta y los ruidos en los sensores. Adem´as, la teor´ıa LQR pre-
supone el conocimiento del estado del sistema que, como ya se puso de manifiesto
cuando se postul´o la necesidad de los observadores, es frecuente que no est´e
Principio de optimalidad de Bellman 436
disponible. Como veremos en el cap´ıtulo siguiente, el problema lineal-cuadr´atico
con perturbaciones aleatorias se reduce a la soluci´on de dos ecuaciones de Riccatti
desacopladas, ya que se puede demostrar que es posible separar este problema
en dos: el problema del control ´optimo con realimentaci´on del estado, tal como
se aborda en la teor´ıa LQR y el problema de la estimaci´on del estado. Esta
separaci´on puede justificar teoricamente en el caso de que las perturbaciones es-
toc´asticas sean gausianas, por lo que el problema lineal cuadr´atico estoc´astico se
conoce com´ unmente como el problema lineal-cuadr´atico-gausiano (LQG).
17.3.2 Problema LQR
Sea un sistema din´amico lineal descrito por
˙ x = Ax + Bu (17.33)
Se trata de mantener a este sistema en un estado lo m´as cercano al de reposo
x = 0. El costo correspondiente a las desviaciones del estado de reposo se expresa
por
J
1
=

T
0
x
T
Qxdt + x
T
(T)Sx(T) (17.34)
Por otra parte, el costo de la aplicaci´on de una se˜ nal de mando u viene dado por
J
2
=

T
0
u
T
Rudt (17.35)
Las matrices Q y S son matrices semidefinidas positivas, y la matriz R es definida
positiva.
El problema consiste en determinar la se˜ nal u que debe aplicarse en cada
instante para que el costo total J
1
+J
2
sea m´ınimo. Es decir, se trata de minimizar
el funcional
J =

T
0
[x
T
Qx + u
T
Ru]dt + x
T
(T)Sx(T) (17.36)
Se supone que T est´a fijado de antemano, y que el estado final es libre.
Q y R son matrices sim´etricas que representan los costes de la desviaci´on del
estado y del esfuerzo de control respectivamente. En la mayor´ıa de las aplica-
ciones ser´an matrices diagonales, por lo que la funcionales J
1
y J
2
adoptar´an
normalmente la forma:
J
1
=

T
0
(q
1
x
2
1
+ q
2
x
2
2
+ + q
n
x
2
n
) dt
Principio de optimalidad de Bellman 437
J
2
=

T
0
(r
1
u
2
1
+ r
2
u
2
2
+ + r
m
u
2
m
) dt
para un sistema con n variables de estado y m se˜ nales de entrada.
Si el sistema posee una s´ola entrada, entonces la matriz R se convierte en un
escalar, como es el caso de la planta que nos ocupa.
Por ´ ultimo, pueden existir t´erminos de control terminal, que deber´an ser de
la forma:
x
T
(T)Sx(T)
siendo S una matriz sim´etrica.
La hamiltoniana correspondiente a este problema es
H = x
T
Qx + u
T
Ru +
∂V
∂x
T
(Ax + Bu) (17.37)
Haciendo
∂H
∂u
= 0
se obtiene
B
T
∂V
∂x
+ 2Ru = 0 (17.38)
por lo tanto u

(x, t) est´a dado por
u

= −
1
2
R
−1
B
T
∂V
∂x
(17.39)
Llevando este valor de u

a la hamiltoniana se tiene la hamiltoniana minimizada
que resulta ser,
H

= x
T
Qx +
∂V
∂x
T
Ax −
1
4
∂V
∂x
T
BR
−1
B
T
∂V
∂x
(17.40)
La ecuaci´on de Hamilton-Jacobi-Bellman correspondiente es
∂V
∂t
+
∂V
∂x
Ax −
1
4
∂V
∂x
T
BR
−1
B
T
∂V
∂x
+ x
T
Qx = O (17.41)
con la condici´on de contorno
V (x, T) = x
T
Sx (17.42)
Para la integraci´ on de (17.41) es razonable adoptar (como ya se hizo, con buenos
resultados, en el ejemplo 1) una funci´on de la forma:
V (x, t) = x
T
P(t)x (17.43)
Principio de optimalidad de Bellman 438
siendo P(t) una matriz real sim´etrica. Llevando (17.43) a la ecuaci´on de Hamilton-
Jacobi-Bellman (17.41) se tiene:
x
T
˙
Px + 2x
T
PAx −x
T
PBR
−1
B
T
Px + x
T
Qx = 0
o lo que es lo mismo
x
T

˙
P + 2PA −PBR
−1
B
T
P + Q

x = 0 (17.44)
La matriz entre par´entesis no es sim´etrica, puesto que PA no lo es. Se sabe que
toda matriz M puede escribirse:
M = M
s
+ M
a
(17.45)
en donde M
s
es sim´etrica (es decir, M
s
= M
T
s
) y M
a
es antisim´etrica (es decir,
M
a
= −M
T
a
). Para demostrar (17.45) basta sumar y restar M
T
/2 a M, con lo
que se tiene
M =
M
2
+
M
T
2
+
M
2

M
T
2
y comprobar que
M
s
=
M
2
+
M
T
2
es sim´etrica y
M
a
=
M
2

M
T
2
antisim´etrica. De (17.45) se tiene que
x
T
Mx = x
T
M
s
x + x
T
M
a
x (17.46)
Pero, puesto que (17.46) es un escalar, y
x
T
M
a
x = x
T
M
T
a
x = −x
T
M
a
x
se tendr´a que
x
T
Mx = x
T
M
s
x
Lo que equivale a decir que la matriz M asociada a una forma cuadr´atica puede
escojerse sim´etrica.
Adem´as, sabemos que la parte sim´etrica de una matriz M viene dada por:
M
s
=
M + M
T
2
Principio de optimalidad de Bellman 439
Por tanto, toda forma cuadr´atica x
T
Mx puede escribirse:
x
T
M
s
x = x
T
M + M
T
2
x
Aplicando estas consideraciones a (17.44), para el caso M = PA, se llega a la
siguiente ecuaci´on:
˙
P + A
T
P + PA −PBR
−1
B
T
P + Q = 0 (17.47)
P(T) = S
que recibe la denominaci´on de ecuaci´on de Riccati. La resoluci´on de esta ecuaci´on
permite obtener P(t), o, lo que es lo mismo
V (x, t) = x
T
P(t)x
La ecuaci´on (17.47) es sim´etrica, como tambi´en lo es la matriz S que define las
condiciones de contorno, por lo que tambi´en lo ser´a la soluci´on P(t). Esta simetr´ıa
sirve para simplificar el c´alculo de P(t). En efecto, a primera vista puede parecer
que la expresi´on (17.47) representa un conjunto de n
2
ecuaciones diferenciales,
ya que P(t) es una matriz n n. Sin embargo, debido a la simetr´ıa de P(t) el
n´ umero de ecuaciones es en realidad de n(n + 1)/2.
Otra propiedad importante de P(t) es su car´acter definido positivo. Ello se
debe a que para todo u(t) = 0 el valor de J (el coste del proceso) debe ser positivo,
y por tanto as´ı debe ser V (x, t) = x
T
P(t)x, lo que impone el car´acter definido
positivo de P(t).
Una vez determinado V (x, t) se procede a determinar la ley de control ´optima,
que resulta ser:
u

(x, t) =
1
2
R
−1
B
T
∂V
∂x
= −R
−1
B
T
Px (17.48)
El resultado ha sido pues, una ley de control lineal, que se ha obtenido a partir
de la imposici´on de un criterio de m´ınima varianza en las variables de estado y
en el esfuerzo de control.
Para encontrar la soluci´on de la ecuaci´on de Riccati ser´a necesario imponer
condiciones de contorno en P, que se obtendr´an de los t´erminos de control ter-
minal:
• Si J posee t´erminos de control terminal, entonces P(T) = S.
• Si no existen dichos t´erminos, entonces P(T) = 0.
Principio de optimalidad de Bellman 440
Un caso especialmente interesante es aquel en que T tienda a ∞. Entonces
se dice que el problema tiene horizonte infinito. En tal caso, la matriz P se
convierte en constante. En efecto, para cualquier par de instantes iniciales t
1
y
t
2
, los valores tomados por V (x, t
1
) y V (x, t
2
) son iguales. Esto ´ ultimo es evidente
ya que tanto el sistema como el ´ındice de funcionamiento son invariantes en el
tiempo, y por consiguiente una traslaci´on finita en la escala de tiempos no debe
afectar al problema (nos va a costar tanto llegar al infinito desde ahora que desde
dentro de media hoira). Por tanto, la matriz P es constante.
La matriz P puede determinarse resolviendo la siguiente ecuaci´on
A
T
P + PA −PBR
−1
B
T
P + Q = 0 (17.49)
la cual se obtiene de la expresi´on (17.47), haciendo
˙
P = 0. Esta ecuaci´on recibe
la denominaci´on de ecuaci´on de Riccati degenerada.
La soluci´on de la ecuaci´on (17.49) no es ´ unica ya que es una ecuaci´on del
segundo grado en P. Sin embargo, si se impone la condici´on de que P sea definida
positiva, entonces la soluci´on es ´ unica.
Tendremos, por tanto, una regulaci´on mediante realimentaci´ on de variables
de estado, con una ley de control lineal y constante en el tiempo.
u = K
c
x
siendo
K
c
= −R
−1
B
T
P (17.50)
Debe observarse en las expresiones anteriores que la ley de control ´optimo que
se ha determinado es una ley de control lineal. Este es un resultado que ya se
hab´ıa obtenido, a partir de otros supuestos, al estudiar el control de sistemas
lineales para su estabilizaci´on. La estructura que se obtiene aqu´ı, que es la que se
representa en la figura 17.9, es la misma que se encontr´ o all´ı. Esta identidad de
estructuras constituye uno de los puntos m´as sobresalientes de la moderna teor´ıa
del control.
Ejemplo 2
Ejemplo
Sup´ongase el sistema din´amico
˙ x = u
Principio de optimalidad de Bellman 441
y el criterio a minimizar
J =

T
0
(x
2
+ u
2
)dt
De acuerdo con ello tiene que
A = S = [0] B = Q = R = [1]
Por lo que la ecuaci´on de Ricati que debe resolverse es
˙
P + 1 −P
2
= 0 P(T) = 0
Esta ecuaci´on diferencial puede resolverse por separaci´on de variables. Su
soluci´on es
P(t) =
1 −e
−2(T−t)
1 + e
−2(T−t)
Por lo que la ley de control ´optima resulta ser
u

= −P(t)x(t)
Ejemplo 3
Determinar los coeficientes de la ley de control para el sistema
˙ x = −3x + u
siendo
J =


0
(x
2
+ 0.1u
2
)dt
Por tanto, se tiene
A = −3 B = 1 Q = 1 R = 0.1
luego la ecuaci´on de Ricatti es
−6P −10P
2
+ 1 = 0
y, en consecuencia, P = 0.1359 Por otra parte,
K
c
=
−P
0.1
= −1.359
luego
u = −1.359x
Principio de optimalidad de Bellman 442
Ejemplo 3
Determinar los coeficientes de la ley de Control para el sistema
˙ x =
¸
0 1
−2 −1
¸
x +
¸
0
2
¸
u
si
J =


0
(x
2
1
+ u
2
)dt
A
T
P =
¸
−2p
12
−2p
22
p
11
−p
12
p
12
−p
22
¸
PA =
¸
−2p
12
p
11
−p
12
−2p
22
p
12
−p
22
¸
PBR
−1
B
T
P =
¸
4p
2
12
4p
12
p
22
4p
12
p
22
4p
2
22
¸
Q =
¸
1 0
0 0
¸
La ecuaci´on de Riccati
A
T
P + PA −PB R
−1
B
T
P + Q = 0
da lugar a tres ecuaciones,
−2p
12
−2p
12
−4p
2
12
+ 1 = 0 (17.51)
−2p
22
+ p
11
−p
12
−4
12
p
22
= 0 (17.52)
2(p
12
−p
22
) −4p
2
22
= 0 (17.53)
De (17.51) se tiene
4p
2
12
+ 4p
12
−1 = 0
cuya ´ unica soluci´on positiva es
p
12
= 0.20710
llevada a (17.53) se tiene
4p
2
22
+ 2p
22
−2p
12
= 0
cuya ´ unica soluci´on positiva es
p
22
= 0.15311
Principio de optimalidad de Bellman 443
Eliminando p
11
de (17.52) se tiene,
p
11
= 4p
12
p
22
+ 2p
22
+ p
12
= 0.64016
Por tanto,
P =
¸
0.64016 0.20710
0.20710 0.15311
¸
K
c
= R
−1
B
T
P = [0.41420 0.30622]
u = −[0.41420 0.306322]
¸
x
1
x
2
¸
A

x
C
y
˙ x u
B
−R
−1
B
T
P
Figura 17.9: Estructura de control de un sistema lineal con criterio cuadr´atico
Una notable propiedad que tiene el sistema de control representado en la
figura 17.9 es que es estable. En efecto, el sistema en bucle cerrado que resulta
de aplicar la ley de control (17.48) viene dado por:
˙ x = (A + BK
c
)x (17.54)
ecuaci´on que rige la evoluci´on del estado en bucle cerrado. Es f´acil ver que la
funci´on
V (x) = x
T
Px (17.55)
es una funci´on de Liapunov para este sistema. En efecto, en primer lugar se tiene
que puesto que P es definida positiva, V (x) lo ser´a a su vez. Por otra parte se
tiene que
dV
dt
= ( ˙ x
T
Px + x
T
P ˙ x) (17.56)
Principio de optimalidad de Bellman 444
teniendo presente las expresiones (17.54) y (17.49) se tiene
dV
dt
= −x
T
(Q + PBR
−1
B
T
P)x (17.57)
es decir que dV/dt < 0 para todo x. Es decir V (x) cumple las propiedades que
definen una funci´on de Liapunov y, por lo tanto, el sistema es estable. Puesto
que PBR
−1
B
T
P es definida no negativa entonces para que dV/dt < 0 la matriz
Q tiene que ser definida positiva. Es decir, si Q es definida positiva entonces la
estabilidad asint´ otica est´a garantizada.
La aplicaci´on del anterior resultado requiere algunas matizaciones. En par-
ticular, conviene resaltar el hecho de que se requiere que Q sea positiva definida.
Consid´erese el sistema
˙ x = x + u
con el ´ındice de funcionamiento
J =
1
2


0
u
2
dt (17.58)
En este ´ındice de funcionamiento conviene observar que no existen t´erminos en
x (en tal caso es evidente que Q = 0 por lo que Q no es positiva definida, sino
definida no negativa). Quiere ello decir que se pondera ´ unicamente el coste de
actuaci´on y no el coste de comportamiento. Este tipo de situaci´on no es com´ un
en las aplicaciones. No obstante, y a los efectos formales que aqu´ı interesan,
vamos a continuar analizando este ejemplo. La soluci´on ´optima existe y es ob-
viamente u

= 0. Lo cual quiere decir que en un sistema en el que lo ´ unico que
se penaliza es el coste de actuaci´on, y no se establecen especificaciones respecto
al funcionamiento, lo mejor es no hacer nada. Pero siguiendo con los aspectos
formales sucede que aplicando esa se˜ nal (o ley) de control el sistema en bucle
cerrado resulta ser
˙ x = x
que es inestable. Esta inestabilidad es debida a que la trayectoria inestable e
t
no contribuye al ´ındice de funcionamiento. Es decir, no se manifiesta en (17.58).
Se puede decir que los estados inestables no son observados por el ´ındice de fun-
cionamiento. Ello es debido aunque el sistema es controlable, no es ni observable
ni detectable, ya que el modo inestable e
t
no es observable. Conviene recordar
que un sistema se dice detectable si los modos inestables son observables.
Si todas las trayectorias, o al menos las inestables, son detectadas en la
parte x
T
Qx del integrando del ´ındice de funcionamiento, entonces la estabili-
dad asint´ otica del sistema de control ´optimo realimentado queda a garantizar, ya
que si algunas de estas variables de estado no convergen a cero el coste ´optimo
Principio de optimalidad de Bellman 445
J

ser´ıa infinito. Todas las trayectorias del sistema se detectar´an en x
T
Qx si Q
es definida positiva. Por tanto el caracter definido positivo de Q es una condici´on
suficiente para la estabilidad asint´ otica del regulador ´optimo.
Es posible, sin embargo, encontrar una condici´on menos restrictiva. Supong-
amos que Q es simplemente definida no negativa (lo que no es extra˜ no en la
pr´actica, como se ver´a en el ejemplo m´as abajo). La propiedad de estabilidad
asint´otica del sistema en bucle cerrado se conservar´a si todas las trayectorias se
detectan en la parte x
T
Qx del integrando del ´ındice de funcionamiento. Este
recibimiento se cumple si el par (A, D) es completamente observable, en donde
D es cualquier matriz tal que D
T
D = Q.
Para que el sistema sea estable se rquiere que
˙
V ≤ 0, estando
˙
V dado por
la ecuaci´on (17.57). Sup´ongase que
˙
V es id´enticamente nulo a lo largo de una
trayectoria que se inicia en un estado inicial no nulo x(0). Entonces x
T
Qx y
x
T
PBR
−1
B
T
Px son id´enticamente nulos y −R
−1
B
T
Px, el control ´optimo para
el sistema en bucle cerrado, es tambi´en id´enticamente nulo. Por consiguiente, las
trayectorias del sistema en bucle cerrado son las mismas que las del sistema en
bucle abierto, que est´an dadas por
x(t) = e
At
x(0)
ahora bien
x
T
Qx = x
T
(0)e
A
T
t
Qe
At
x(0)
= x
T
(0)e
A
T
t
D
T
De
At
x(0)
debe ser id´enticamente nulo. Esto contradice la hip´otesis de que el par (A, D)
es completamente observable, ya que la observabilidad de (A, D) implica que
De
At
x(0) para alg´ un t ∈ [0, ∞) si y s´olo si x(0) = 0. En consecuencia es imposible
tener
˙
V id´enticamente nulo a lo largo de una trayectoria que se inicie en un estado
no nulo. Con ello queda garantizada la estabilidad asint´otica del sistema en bucle
cerrado para este caso.
Se define la salida sint´etica como
y = Dx (17.59)
La observabilidad del par (A, D) implica que el sistema dado por las ecuaciones
(17.33) y (17.59) es completamente observable.
Principio de optimalidad de Bellman 446
Ejemplo
Sea el sistema
˙ x =
¸
0 1
0 0
¸
x +
¸
0
1
¸
u
que se pretende que minimice el ´ındice de funcionamiento
J =


0
(x
2
1
+ u
2
)dt
En este caso se tiene
A =
¸
0 1
0 0
¸
B =
¸
0
1
¸
Q =
¸
1 0
0 0
¸
R = [2]
La matriz D es tal que D
T
D = Q siendo
D =


2 0

Es inmediato comprobar que (A, D) es observable. En consecuencia el sistema
´optimo en bucle cerrado ser´a asint´ oticamente estable. En efecto, resolviendo la
correspondiente ecuaci´on de Riccati tiene que
P =
¸
2

2 2
2 2

2
¸
de modo que la ley de control viene dada por
u

(t) = −
1
2
[0 1]
¸
2

2 2
2 2

2
¸ ¸
x
1
x
2
¸
= −x
1


2x
2
que se puede comprobar que efectivamente da lugar a un sistema estable.
17.4 Ecuaci´on de Riccati en el dominio de la
frecuencia
Vamos a modificar seguidamente la ecuaci´on de Riccati, de forma que los resul-
tados que ´esta nos proporcione sean expresiones en t´erminos de funci´on de trans-
ferencia. Este planteamiento es totalmente an´alogo a la forma en que la hemos
utilizado anteriormente, y los resultados a los que conduce son equivalentes.
Principio de optimalidad de Bellman 447
Sea el sistema
˙ x(t) = Ax(t) + Bu(t)
d´onde u es de dimensi´on 1, sometido al criterio de funcionamiento:
J =


0
(x
T
Qx + ru
2
)dt
Suponemos r = 1 sin p´erdida de generalidad, ya que podemos englobarlo en los
coeficientes de Q. La soluci´on a este problema es una ley de control lineal dada
por:
u = −k
c
x
siendo
k
c
= B
T
P (17.60)
P se obtiene de la ecuaci´on de Riccati:
A
T
P + PA −PBR
−1
B
T
P + Q = 0
Reordenando esta ecuaci´on y teniendo en cuenta que R = 1:
−PA −A
T
P = Q−PBB
T
P
Sumando y restando Ps al primer miembro se tiene:
P(sI −A) + (−sI −A
T
)P = Q−PBB
T
P
Recordando la matriz de transici´on entre estados Φ(s) = (sI −A)
−1
y la expresi´on
(17.60) se tiene:

−1
(s) + (Φ
T
)
−1
(−s)P = Q−k
T
c
k
c
Premultiplicando por B
T
Φ
T
(−s) y postmultiplicando por Φ(s)B:
B
T
Φ
T
(−s)P Φ
−1
(s)Φ(s)
. .. .
I
B + B
T
Φ
T
(−s)(Φ
T
)
−1
(−s)
. .. .
I
PΦ(s)B =
B
T
Φ
T
(−s)[Q−k
T
c
k
c
]Φ(s)B
B
T
Φ
T
(−s) PB
....
k
T
c
+B
T
P
. .. .
k
c
Φ(s)B =
B
T
Φ
T
(−s)QΦ(s)B −B
T
Φ
T
(−s)k
T
c
k
c
Φ(s)B
La funci´on de transferencia en bucle abierto cuando se aplica la ley de control
(figura 17.10) es G(s) = k
c
Φ(s)B = B
T
Φ
T
(s)k
T
c
, luego tenemos:
G(−s) + G(s) = B
T
Φ
T
(−s)QΦ(s)B −G(−s)G(s)
Principio de optimalidad de Bellman 448
B K Φ(s)
Figura 17.10: Bucle abierto con realimentaci´on del estado.
que se puede reescribir de la forma:
[1 + G(s)][1 + G(−s)] = 1 + B
T
Φ
T
(−s)QΦ(s)B (17.61)
Definimos: F(s) ≡ 1 + G(s). F(s) se conoce como la funci´on de diferencia del
retorno. Ahora supongamos el segundo miembro factorizado de la forma:
1 + B
T
Φ
T
(−s)QΦ(s)B = ∆(s)∆(−s) (17.62)
entonces:
F(s)F(−s) = ∆(s)∆(−s)
y por tanto:
F(s) = ∆(s)
llegamos a la expresi´on que nos da la funci´on de transferencia del sistema con la
realimentaci´on de las variables de estado:
G(s) = ∆(s) −1
Debe observarse que mediante la factorizaci´on (17.62) se resuelve la ecuaci´on de
Riccati, aunque lo que se obtiene ahora es G(s), lo cual es equivalente a determinar
k
c
, ya que ambas vienen relacionadas por la expresi´on G(s) = k
c
ΦB. Por tanto,
la factorizaci´on (17.62) equivale a la resoluci´on de la ecuaci´on de Riccati. Con
otras palabras, la factorizaci´on (17.62) permite resolver la ecuaci´on de Riccati en
el dominio de Laplace.
Ejemplo
En este ejemplo se va a mostrar el empleo de la ecuaci´on de Riccati en el dominio
de la frecuencia para la determinaci´on de la ley de control. Sea el sistema
˙ x = −x + u
Principio de optimalidad de Bellman 449
y el criterio
J =


0
(3x
2
+ u
2
)dt
En primer lugar el problema se va a resolver mediante la ecuaci´on de Riccati, tal
como se ha visto en la secci´on anterior. Para este problema se tiene que
A = −1 B = 1 Q = 3 R = 1
por lo que la ecuaci´on de Riccati correspondiente resulta ser
−p −p −p
2
+ 3 = 0
es decir,
p
2
+ 2p −3 = 0
cuyas soluciones son p
1,2
= 1, −3, por lo que la constante de la ley de control
resulta ser k = 1.
Vamos ahora a resolver el problema mediante la ecuaci´on de Riccati en el
dominio de la frecuencia. En primer lugar, se tiene que para este problema
Φ(s) =
1
s + 1
por lo que el primer miembro de la expresi´on (17.62) tomar´a la forma
1 + B
T
Φ
T
(−s)QΦ(s)B = 1 +
3
(1 −s)(1 + s)
=
3 + (1 −s)(1 + s)
(1 −s)(1 + s)
cuyo numerador se puede escribir
3 + (1 −s)(1 + s) = 4 −s
2
= (2 −s)(2 + s)
y por tanto
(2 −s)(2 + s)
(1 −s)(1 + s)
= ∆(s)∆(−s)
es decir
∆(s) =
2 + s
1 + s
En consecuencia
G(s) = ∆(s) −1 =
2 + s
1 + s
−1 =
1
s + 1
por lo que se obtiene el mismo valor para k que se obtuvo anteriormente.
Conviene observar que aunque en este ejemplo, al ser de dimensi´on uno, el
segundo m´etodo empleado aparentemente es m´as laborioso que el primero, no
Principio de optimalidad de Bellman 450
sucede lo mismo para sistemas de dimensi´on mayor, por lo que el segundo m´etodo
es el habitualmente empleado para determinar la ley de control, ya que para el
´ unico problema para el que se requieren m´etodos num´ericos elaborados que es la
factorizaci´on, se dispone de soluciones inform´aticamente deficientes.
2
Por otra parte, de la expresi´on (17.61) se deduce que los reguladores LQR
presentan una robustez excelente. En efecto, si factorizamos Q de la forma Q =
H
T
H y hacemos s = jω en (17.61) se obtiene:
|1 + G(jω)|
2
= 1 +|HΦ(jω)B|
2
de donde:
|1 + G(jω)| > 1
Si interpretamos esta condici´on en el plano polar, la curva de G(jω) no puede
entrar dentro de un circulo de centro −1 y radio 1, por lo que aseguramos un
margen de fase mayor de 60 grados y un margen de ganancia infinito.
17.5 Resoluci´on del problema LQR
La soluci´on dada al problema del control ´optimo con criterio cuadr´atico de un
sistema lineal. Este problema tiene un importante inter´es tanto te´orico como
pr´actico, ya que, como se ha visto posee las tres notables propiedades siguientes:
• La adopci´on de la estructura de realimentaci´ on viene determinada por la
soluci´on del problema, y no por un presupuesto previo (como sucede en los
m´etodos cl´asicos y en los de variables de estado).
• La estabilidad del sistema en bucle cerrado est´a garantizada.
• La robustez del sistema tambi´en est´a garantizada por el amplio margen de
fase que posee.
El problema LQR, tal como ha sido resuelto, supone que todas las variables
de estado son accesibles. Esto no siempre es as´ı y cuando no lo son hay que
proceder, al menos, a estimarlas. Es lo que se hace con los m´etodos que veremos
en el pr´oximo tema.
Principio de optimalidad de Bellman 451
Resumen del problema lqr
Se da el sistema ˙ x(t) = Ax(t) + Bu(t)
y el criterio de funcionamiento J =


0
[x
T
Qx + u
T
Ru]dt + x
T
(T)Sx(T)
Ley de control ptima u

(t) = K
c
x(t)
siendo K
c
= −R
−1
B
T
P
Ecuacin de Riccati A
T
P + PA −PBR
−1
B
T
P + Q = 0
Valor optimo de J J

=
1
2
x
T
(t)Px(t)
Tema 18
Estimaci´on del estado
18.1 Noci´on de se˜ nal aleatoria
Se define una variable aleatoria como aquella que, como resultado de un ensayo,
toma un cierto valor imprevisible exactamente y dentro de un conjunto de valores
permitidos. Para caracterizar completamente una variable aleatoria es necesario
definir el conjunto de valores posibles, as´ı como la probabilidad de cada uno de
ellos. Esta caracter´ıstica reciben el nombre de ley de distribuci´on. Estos conceptos
se suponen conocidos y se recuerdan aqu´ı a t´ıtulo de revisi´on.
Sup´ongase una variable aleatoria que var´ıa con el tiempo, como, por ejemplo,
el error de medida de una cierta magnitud que se dibuja continuamente en un
registrador gr´afico. El resultado de una prueba o ensayo es una medida que es
funci´on del tiempo. Una variable aleatoria de ´esta naturaleza se llama una se˜ nal
aleatoria o proceso estoc´astico.
Una se˜ nal aleatoria se define, en consecuencia, como una variable funci´on del
tiempo, tal que, para cada valor del argumento, o para cada conjunto de valores,
se comporta como una variable aleatoria (18.1).
Para un cierto valor de t, el valor de la se˜ nal aleatoria x(t) es una variable
aleatoria, para la que se puede definir una ley de distribuci´on. Estas leyes de
distribuci´on reciben el nombre de distribuciones unidimensionales y se especifican
por medio de la funci´on de densidad de probabilidad unidimensional p
1
(x; t), que
en principio depende de t.
452
Estimaci´on del estado 453
0
0
0
t
t
1
t
1
t
1
t
t
Figura 18.1: Se˜ nal aleatoria
De la misma manera y teniendo presente dos instantes de tiempo t
1
y t
2
se
definen las distribuciones bidimensionales y la correspondiente funci´on de den-
sidad de probabilidad p
2
(x
1
, x
2
; t
1
, t
2
) Lo anterior se puede generalizar para n
instantes de tiempo, en cuyo caso se tiene la funci´on de densidad de probabilidad
p
n
(x
1
, ..., x
n
; t
1
..., t
n
). Un proceso estoc´astico se dice estacionario si
p
1
(x, t) = p
1
(x)
p
2
(x
1
, x
2
; t
1
, t
2
) = p
2
(x
1
, x
2
; t
2
−t
1
)
En realidad la estacionaridad as´ı definida no es la m´as general que cabe concebir
pero sin embargo es suficiente a los efectos aqu´ı interesan. Para un proceso esta-
cionario sus caracter´ısticas estad´ısticas son invariantes por traslaci´on temporal.
18.1.1 Descripci´on estad´ıstica de las se˜ nales aleatorias
Las caracter´ısticas de una se˜ nal aleatoria que aqu´ı se van a considerar son su
media, su covarianza y su funci´on de autocorrelaci´on. La media se define como
m
x
(t) = E[x(t)] =



xp
1
(x; t)dx (18.1)
en donde E representa la esperanza matem´atica. Si el proceso es estacionario su
media permanece constante al variar el tiempo; es decir, se tiene E[x(t)] = m
x
constante. La media de un proceso estacionario se puede tambi´en definir como
m
x
= lim
T→∞
1
2T

T
−T
xdt (18.2)
Estimaci´on del estado 454
Si (18.1) y (18.2) conducen al mismo resultado el proceso se llama erg´odico. En lo
que sigue los procesos que se considerar´an ser´an erg´odicos. Se define la covarianza
de una se˜ nal aleatoria x(t) como:
E[(x(t) −m
x
(t))(x(τ) −m
x
(τ))] =


−∞


−∞
(x
1
(t) −m
x
(t))(x
2
(τ) −m
x
(τ))p(x
1
, x
2
; t, τ)dx
1
dx
2
Por ´ ultimo, la funci´on de autocorrelaci´on se define como
E[x(t)x(τ)] =


−∞


−∞
x
1
(t)x
2
(τ)p(x
1
, x
2
; t, τ)dx
1
dx
2
para procesos estacionarios la funci´on de autocorrelaci´on se reduce a
E[x(t)x(t + τ)] = φ
xx
(τ) = lim
t→∞
1
2T

T
T
x(t)x(t + τ)dτ
Ejemplo
Sea la se˜ nal aleatoria definida por las siguientes propiedades.
1. Solo toma dos valores +a y −a
2. Permanece en uno de ´estos valores durante un tiempo pasado el cual cambia
al otro o permanecen en aquel con probabilidad
1
2
.
El aspecto de esta se˜ nal x(t) es la de la figura 18.2.
La media de ´esta se˜ nal es E[x(t)] = 0. Para determinar la funci´on de auto-
correlaci´on se procede en dos pasos.
1. [ τ [> θ En tal caso es evidente que φ
xx
= 0.
2. [ τ [ θ Se ve en la figura que durante una fracci´on de tiempo
T− [ τ [
T
, las
se˜ nales x(t) y x(t +τ) toman el mismo valor, y por lo tanto su producto es
igual a
2
.
Durante el resto del periodo, es decir durante una fracci´on de tiempo
τ
T
, el
producto toma el valor +a
2
´o −a
2
, con probabilidad
1
2
.
Estimaci´on del estado 455
0
t
+1
-1
x(t)
b)
a)
3γ 2γ γ
−γ
R
xx
(τ)
1
0 τ −γ γ
Figura 18.2: Se˜ nal aleatoria binaria
De lo anterior se deduce
E[x(t)x(t + τ)] = a
2
T− [ τ [
T
+ a
2
[ τ [
2T
−a
2
[ τ [
2T
es decir
φ
xx
(τ) = a
2

1 −
[ τ [
T

Esta se˜ nal constituye una aproximaci´on a una se˜ nal de gran inter´es, que es la
se˜ nal blanca, que por definici´on es aquella cuya funci´on de autocorrelaci´on es un
impulso de Dirac, es decir,
φ
bb
= Aδ(t)
Esta se˜ nal no se presenta nunca en la pr´actica con las propiedades te´oricamente
exigidas. S´olo se tienen aproximaciones de las cuales la se˜ nal binaria considerada
constituye una de las m´as interesantes.
Una propiedad interesante de la funci´on de autocorrelaci´on de un proceso
estacionario es
φ
xx
(τ) = φ
xx
(−τ)
Interesa definir tambi´en la funci´on de la intercorrelaci´ on, o de correlaci´on cruzada,
entre dos se˜ nales aleatorias:
E[x(t)y(t + τ)] = φ
xy
(τ) = lim
t→∞
1
2T

T
−T
x(t)y(t + τ)dt
Estimaci´on del estado 456
18.2 Transmisi´ on de se˜ nales aleatorias a trav´es
de sistemas lineales: descripci´on interna
Vamos a estudiar en esta secci´on el comportamiento de la salida de un sistema
lineal, cuando es excitado con una se˜ nal aleatoria, cuya descripci´on estad´ıstica es
conocida. Sea el sistema din´amico lineal
˙ x(t) = Ax(t) + Bw(t) (18.3)
excitado por un ruido blanco estacionario w(t) de caracter´ısticas
E[w(t)] = 0
E[w(t)w
T
(τ)] = Qδ(t −τ)
tal que Q ≥ 0. Q recibe tambi´en la denominaci´on de intensidad del ruido.
Las condiciones iniciales vienen especificadas mediante un vector aleatorio
gausiano x(t
0
), independiente de w(t) y con media ¯ x
0
y covarianza P
0
; es decir:
E[x(t
0
)] = ¯ x
0
(18.4)
E[(x(t
0
) − ¯ x
0
)(x(t
0
) − ¯ x
0
)
T
] = P
0
(18.5)
E[x(t
0
)w
T
(t)] = 0 ∀t (18.6)
La trayectoria de x(t), de acuerdo con (18.3), viene dada por:
x(t) = Φ(t)x(t
0
) +

t
t
0
Φ(t −τ)Bw(τ)dτ (18.7)
Por tanto, se tiene que la evoluci´on de la media de x(t) vendr´ a dada por:
E[x(t)] = E[Φ(t)x(t
0
)] + E
¸
t
t
0
Φ(t −τ)Bw(τ)dτ

= Φ(t)E[x(t
0
)] +

t
t
0
Φ(t −τ)BE[w(τ)]dτ
= Φ(t)¯ x
0
(18.8)
Por otra parte, para determinar la matriz de covarianza del vector x(t) vamos a
estudiar, en primer lugar la evoluci´on de:
P

(t) = E[x(t)x
T
(t)] (18.9)
Derivando esta expresi´on con relaci´on al tiempo se obtiene:
˙
P

(t) = E[ ˙ x(t)x
T
(t) + x(t) ˙ x
T
(t)]
Estimaci´on del estado 457
Recordando (18.3) se tiene:
˙
P

(t) = E[Ax(t)x
T
(t) + Bw(t)x
T
(t) + x(t)x
T
(t)A
T
+ x(t)w
T
(t)B
T
]
= AP

(t) + P

(t)A
T
+ E[Bw(t)x
T
(t) + x(t)w
T
(t)B
T
]
Y recordando, a su vez, (18.7), se tiene:
˙
P

(t) = AP

(t) + P

(t)A
T
+ E
¸
Bw(t)

Φ(t)x(t
0
) +

t
t
0
Φ(t −τ)Bw(τ)dτ

T
¸
+ E
¸
Φ(t)x(t
0
) +

t
t
0
Φ(t −τ)Bw(τ)dτ

w
T
(t)B
T

Conmutando el operador esperanza matem´atica y la integraci´ on se tiene:
˙
P

(t) = AP

(t) + P

(t)A
T
+ BE[w(t)x
T
(t
0
)]Φ
T
(t)
+

t
t
0
BE[w(t)w
T
(τ)]B
T
Φ
T
(t −τ)dτ
+ Φ(t)BE[x(t
0
)w
T
(τ)]B
T
+

t
t
0
Φ(t −τ)BE[w(τ)w
T
(t)]B
T

Teniendo en cuenta las caracter´ısticas de las se˜ nales w(t) y x(t) la anterior ex-
presi´on conduce a:
˙
P

(t) = AP

(t) + P

(t)A
T
+ BE[w(t)x
T
(t
0
)]Φ
T
(t)
+

t
t
0
BQδ(t −τ)B
T
Φ
T
(t −τ)dτ (18.10)
+ Φ(t)BE[x(t
0
)w
T
(t)]B
T
+

t
t
0
Φ(t −τ)BQδ(τ −t)B
T
dτ (18.11)
= AP

(t) + P

(t)A
T
+ BQB
T
(18.12)
Para el paso de (18.11) a (18.12) hay que tener presente, por una parte que los
t´erminos segundo y cuarto se anulan de acuerdo con (18.6). Por otra parte, por
lo que respecta a los t´erminos tercero y quinto, hay que tener presente que la
funci´on δ aqu´ı es sim´etrica y que Φ(0) = I. La funci´on δ sim´etrica tiene las
siguientes propiedades:
• δ(t −τ) = δ(τ −t)
Estimaci´on del estado 458


b
a
f(τ)δ(τ −t)dτ =

0 si t < a o si t > b
f(t) si a < t < b
En tal caso, si el valor de t coincide con uno de los l´ımites de integraci´on, por
ejemplo t = b, se tiene que

b
a
f(τ)δ(τ −b)dτ =
f(b)
2
puesto que el ´area unidad que cubre la funci´on δ se distribuye la mitad a la
derecha de t = τ y la otra mitad a su izquierda. Obs´ervese que de acuerdo con
los l´ımites de integraci´ on, los miembros tercero y quinto de (18.11) aportan solo
1/2.
La ecuaci´on (18.12) tiene las condiciones iniciales:
P

(t
0
) = E[x(t
0
)x
T
(t
0
)]
A partir de los resultados anteriores es posible determinar la evoluci´on de la
matriz de covarianza:
P(t) = E[(x(t) − ¯ x(t))(x(t) − ¯ x
T
(t))] (18.13)
En efecto, definiendo ˜ x(t) = x(t) − ¯ x(t) (es decir, ˜ x es la diferencia entre el valor
de la variable x y su media) la evoluci´on de ˜ x viene dada por
d˜ x
dt
= A˜ x + Bw(t)
ya que la de x(t) se rige por (18.3) y la de ¯ x
T
(t) por
˙
¯ x
T
(t) = A¯ x
T
(t). Por tanto, la
expresi´on (18.13) tiene la misma forma que la (18.9), y la ecuaci´on de evoluci´ on
de ˜ x es id´entica a (18.3). En consecuencia P(t) satisface la ecuaci´on diferencial:
˙
P(t) = AP(t) + P(t)A
T
+ BQB
T
(18.14)
P(t
0
) = P
0
que rige la evoluci´on de la covarianza de la salida del sistema lineal (18.3) cuando
se excita con una se˜ nal aleatoria blanca de intensidad Q.
18.3 El problema de la observaci´ on: Filtro de
Kalman
Para poder implementar un regulador mediante una ley de control de la forma
u = f(x) es necesario conocer en cada instante el valor de todas las variables
Estimaci´on del estado 459
de estado. Para estudiar la estimaci´on del estado se adopta la misma estructura
que se adopta para un observador, y que aqu´ı recibe la denominaci´on de filtro de
Kalman. Para el estudio de este filtro se parte de un modelo del sistema, cuyo
estado se va a estimar, mediante un sistema din´amico con perturbaciones de la
forma: siguiente forma:
˙ x(t) = Ax(t) + Bu(t) + w(t) (18.15)
y(t) = Cx(t) + v(t)
donde w(t) y v(t) son variables aleatorias correspondientes a un ruido blanco o
ruido gausiano, y presentar´ an, por tanto, las siguientes propiedades:
- E[w
i
(t)] = 0 para i = 1 . . . n.
- E[v
i
(t)] = 0 con i = 1 . . . m.
Es decir, su media es nula para cada instante de tiempo.
- E[w
i
(t)w
j
(t −τ)] = q
ij
δ(τ) con i, j = 1 . . . n.
- E[v
i
(t)v
j
(t −τ)] = r
ij
δ(τ) con i, j = 1 . . . m.
siendo δ(τ) la funci´on delta de Dirac. Es decir,
E[w(t)w
T
(t −τ)] = Qδ(τ)
E[v(t)v
T
(t −τ)] = Rδ(τ)
Cada se˜ nal ´ unicamente est´a correlacionada consigo mismo en el instante de pro-
ducirse. Esto implica un espectro de frecuencias plano, donde no hay ninguna
predominante, y cuya amplitud nos da la covarianza de la se˜ nal.
Las variables v(t) y w(t) representan lo siguiente:
• w(t): El sistema nunca queda perfectamente modelado, por lo que el estado
alcanzado en cada instante por el modelo matem´atico difiere del existente en
el sistema real. Con w(t) se representan las desviaciones en la evoluci´ on de
los dos sistemas (el real y el modelo matem´atico). Estas variables tambi´en
son una representaci´on de las perturbaciones que pueden aparecer en las
distintas partes del sistema real.
• v(t): Modela los errores que aparecen al medir la variable de salida del
sistema. Estos errores, en general, pueden ser cuantificados de manera m´as
exacta que los anteriores.
Estimaci´on del estado 460
Para la evaluaci´on de los estados estimados ˆ x se adopta la misma estructura que
para un observador, es decir:
dˆ x
dt
= Aˆ x + Bu + K
o
(y −Cˆ x) (18.16)
donde:
ˆ x es la estimaci´on del vector de estado.
u es la se˜ nal de entrada al sistema.
y es la salida del sistema.
K
o
es el vector de ganancias del filtro de Kalman.
En la figura 18.3 se muestra la estructura correspondiente. Con la expresi´on
y(t)
u(t)
B

ˆ x
˙
ˆ x
A
C
K
o
ˆ y(t)
y(t) − ˆ y(t)
+
+
+
- +
Figura 18.3: Filtro de Kalman
(18.16), a partir de la estimaci´on del estado ˆ x, de la se˜ nal de entrada u y del error
en la variable de salida y −Cˆ x generamos evoluci´on de las estimaciones.
Sea
P(t) = E[(ˆ x −x)(ˆ x −x)
T
] = E[˜ x˜ x
T
]
la matriz de covarianza del error de estimaci´on ˜ x = ˆ x −x.
El objetivo es encontrar los valores de K
o
que minimicen la discrepancia entre
los estados reales x y los estados estimados ˆ x. Esta discrepancia se mide por el
valor cuadr´atico medio del error:
J = E[˜ x
T
˜ x] = trP(t) (18.17)
Estimaci´on del estado 461
Restando la expresi´on (18.16) de la (18.15), y recordando que ˜ x = ˆ x −x, se tiene
que la evoluci´on del error ˜ x viene dada por la ecuaci´on:
d˜ x
dt
= (A −K
o
C)˜ x + w + K
o
v (18.18)
A partir de las caracter´ısticas de los ruidos v y w se tiene que el ruido blanco que
act´ ua sobre el sistema lineal anterior posee la covarianza:
E[(w(t) −K
o
v(t))(w(τ) −K
o
v(τ))
T
] = (Q + K
o
RK
T
o
)δ(t −τ) (18.19)
De acuerdo con (18.14) la covarianza P(t) del error ˜ x vendr´a dada por
d
dt
P(t) = (A −K
o
C)P(t) + P(t)(A −K
o
C)
T
+ Q + K
o
RK
T
o
(18.20)
Por otra parte, es inmediato que:
(K
o
−PC
T
R
−1
)R(K
T
o
−R
−1
CP) = K
o
RK
T
o
−PC
T
K
T
o
−K
o
CP +PC
T
R
−1
CP
Por tanto, sumando y restando PC
T
R
−1
CP a (18.20), teniendo en cuente esta
´ ultima expresi´on, se tiene:
d
dt
P(t) = AP(t) +P(t)A
T
−PC
T
R
−1
CP +Q+(K
o
−PC
T
R
−1
)R(K
T
o
−R
−1
CP)
(18.21)
El problema del estimador ´optimo puede enunciarse diciendo que se trata de
determinar K
o
de modo que se minimice (18.17), estando P(t) sujeto a (18.22).
Es decir, el criterio a optimizar viene dado por (18.17), las ecuaciones de evoluci´on
del sistema por (18.22) y la se˜ nal a optimizar es K
o
(t). Al formar la funci´on de
Hamilton del correspondiente problema de control ´optimo se tiene que el ´ unico
t´ermino en esta funci´on que depende de K
o
(t) es (K
o
−PC
T
R
−1
)R(K
T
o
−R
−1
CP),
por lo que es claro que el K
o
(t) ´optimo vendr´a dado por:
K
o
(t) = P(t)C
T
R
−1
(18.22)
Llevando este valor de K
o
a (18.22) se tiene que P(t) satisface la ecuaci´on difer-
encial:
˙
P(t) = P(t)A
T
+ AP(t) + Q(t) −P(t)C
T
R
−1
CP(t) (18.23)
con las condiciones iniciales P(t
0
) = P
0
.
Si comparamos las expresiones (??) y (18.23) con las (17.50) y (17.50) del
cap´ıtulo anterior se comprueba que la soluci´on del filtro ´optimo es dual de la del
problema del control. Esta dualidad se puede resumir en el cuadro siguiente:
Estimaci´on del estado 462
Problema de la Problema del
Estimaci´on Control
B
T
C
C
T
B
R
o
R
c
Q
o
Q
c
K
o
K
c
A
T
A
En este cuadro R y Q se han subindiciado con c o con o seg´ un se refieran a los
problemas del control o de la estimaci´on. El cuadro muestra que los problemas
de la estimaci´on y del control son esencialmente el mismo.
Al igual que se hac´ıa en el caso del LQR consideraremos horizonte de tiempo
infinito, con lo cual, lo que se pretender´a es minimizar en valor medio la difer-
encia entre los estados reales y los estimados, y no hacer m´ınimo dicho valor en
un intervalo de tiempo determinado, que es lo que se persigue con el anterior
planteamiento. En consecuencia, al hacer esta consideraci´on, la variable tiempo
desaparece de las ecuaciones que proporcionan los par´ametros del filtro de Kalman
y se tiene que K
o
toma el valor constante dado por:
K
o
= PC
T
R
−1
(18.24)
donde el ´ unico par´ametro desconocido es la matriz P, que se halla resolviendo la
ecuaci´on de Riccati para la observaci´ on
AP + PA
T
+ Q−PC
T
R
−1
CP = 0 (18.25)
La matriz K
o
recibe la denominaci´on de ganancia de Kalman.
Para la determinaci´on del filtro de Kalman se ha partido de la estructura
representada en la figura 18.3, que es la de un observador cl´asico, y se ha ajustado
K
o
para que el error de estimaci´on sea el m´ınimo con una norma cuadr´atica. Sin
embrago, se puede demostrar que en realidad esa es la estructura que produce
las mejores estimaciones de todos los posibles estimadores. Esta demostraci´on es
muy compleja, por lo que no se incluye en un curso introductorio como ´este. Se
trata de un resultado de la misma naturaleza que el que se ha visto al estudiar
el problema lineal cuadr´atico, en donde si se ha demostrado que la ley de control
lineal era la ´optima, y no se han ajustado simple los valores de k para que lo
fuera, que es en realidad lo que hemos hecho en el caso del filtro de Kalman.
Estimaci´on del estado 463
Resumen del Filtro de Kalman
Se da el sistema ˙ x(t) = Ax(t) + Bu(t) + w(t)
con la funci´on de lectura y(t) = Cx(t) + v(t)
Se tiene E[w(t)] = 0
E[v(t)] = 0
E[w(t)w
T
(t −τ)] = Qδ(τ)
E[v(t)v
T
(t −τ)] = Rδ(τ)
Ecuaciones del filtro
dˆ x
dt
= Aˆ x + Bu + K
o
(y −Cˆ x)
Ganancia de Kalman K
o
= PC
T
R
−1
Propagaci´on de la
˙
P(t) = P(t)A
T
+ AP(t) + Q(t) −P(t)C
T
R
−1
CP(t)
covarianza del error P(t
0
) = P
0
Error cuadr´a´atico
de la estimaci´on tr P
Estimaci´on del estado 464
u
w
y
B

-1
1
v
Figura 18.4: Sistema lineal de dimensi´on 1.
18.3.1 Ejemplo
Sea el sistema din´amico de dimensi´on 1 que se muestra en la figura 18.4, y en el
que A = −1. Se trata, por tanto, de un sistema de primer orden al que se asocian
un ruido de modelado w y un ruido de lectura v. La salida de este sistema es
la se˜ nal z. Se trata de reconstruir el estado x a partir de la se˜ nal z. Para ello
se adopta la estructura de un filtro de Kalman, tal como se indica en la figura
18.5. La determinaci´on del filtro de Kalman se reduce, en ´ ultimo extremo, a la
determinaci´on de la constante K de modo que el valor cuadr´atico medio del error
de estimaci´on sea m´ınimo. Supongamos que las intensidades de los ruidos de
modelado y medida vienen dadas por
φ
ww
= Qδ(τ) = 3δ(τ)
φ
vv
= Rδ(τ) = δ(τ)
El valor de K
o
en la figura 18.5 viene dado por la expresi´on (??). Para determinar
el valor de p se requiere resolver la ecuaci´on (18.23). Los par´ametros necesarios
para escribir esta ecuaci´on, en el problema que nos ocupan, son
A = −1 C = 1 Q = 3 R = 1
Con los valores de estos par´ametros la expresi´on (18.23) toma la forma
dp
dt
= −2p −p
2
+ 3
que en el caso de un proceso estacionario, en el que el valor cuadr´atico medio del
error sea constante, se tiene que dp/dt = 0, y p es igual a constante. En tal caso
se tiene que la ecuaci´on que satisface p es la (18.25), es decir,
p
2
+ 2p −3 = 0
Estimaci´on del estado 465
1

-1
B
u
B
u

-1
1
y
w
v
K
o
ˆ y
+
-
Figura 18.5: Sistema lineal con filtro de Kalman.
Estimaci´on del estado 466
Resolviendo esta ecuaci´on en p se obtiene
p = 1
Lo que llevado a (18.24) conduce a
K
o
= 1.
18.4 M´etodo LQG
En sistemas din´amicos lineales con perturbaciones aleatorias gausianas y criterio
de optimizaci´on cuadr´atico se puede demostrar que el regulador ´optimo se obtiene
separando los problemas de estimaci´on y control, resolviendo cada uno de ellos
separadamente, y conect´andolos en serie.
Es decir, a partir de las se˜ nales de salida y por medio de un filtro de Kalman
se obtienen las estimaciones de los estados, y a partir de estas estimaciones y con
ayuda de la ley de control, obtenida prescindiendo del car´acter estoc´astico del
sistema, se determina la se˜ nal de acci´on sobre el mismo.
La estructura de control as´ı obtenida recibe la denominaci´on de control LQG
(lineal cuadr´atico y gausiano), la cual requiere que se adopten modelos estoc´asticos
para el ruido de los sensores y del proceso, y que se defina un criterio cuadr´atico
como criterio de funcionamiento. Lo que se plantea en ese caso es un problema
de control ´optimo estoc´astico.
Veamos, con detalle, el regulador LQG. Sea un sistema din´amico lineal (con
n estados, m entradas y l salidas):
˙ x = Ax + Bu + w
y = Cx + v
siendo:
x: vector de estados (n 1).
u: vector de entradas (m1).
y: vector de salidas (l 1).
A: (n n).
B: (n m).
C: (l n).
y siendo w y v se˜ nales aleatorias, de ruido blanco gausiano, con media nula y
Estimaci´on del estado 467
mutuamente independientes, que satisfacen:
E[w(t)w
T
(t −τ)] = Q
o
δ(τ)
E[v(t)v
T
(t −τ)] = R
o
δ(τ)
E[w(t)v
T
(t −τ)] = 0
donde:
Q
o
= Q
T
o
≥ 0 , R
o
= R
T
o
≥ 0
El objetivo es determinar la se˜ nal de control u de forma que la siguiente funcional
sea m´ınima:
J =


0
(x
T
Q
c
x + u
T
R
c
u) dt
con:
Q
c
= Q
T
c
≥ 0 , R
c
= R
T
c
≥ 0
El teorema de separaci´on establece que el ´optimo global se tiene dividiendo el
problema en dos subproblemas:
1. Un problema de control ´optimo, del que se obtiene la regulaci´on por reali-
mentaci´on de variables de estado:
u = −K
c
ˆ x
siendo
K
c
= R
−1
c
B
T
P
c
P
c
se determina a partir de la ecuaci´on de Riccati:
A
T
P
c
+ P
c
A −P
c
BR
−1
B
T
P
c
+ Q
c
= 0
2. Un problema de filtrado ´optimo, mediante el filtro de Kalman:
dˆ x
dt
= Aˆ x + Bˆ u + K
o
(y −Cˆ x)
donde
K
o
= P
o
C
T
R
−1
o
y P
o
se obtiene de
AP
o
+ P
o
A
T
+ Q
o
−P
o
C
T
R
−1
o
CP
o
= 0
El problema, por lo tanto, queda descompuesto en dos partes.
Estimaci´on del estado 468
1. Resoluci´on del problema del control, prescindiendo en el sistema de pertur-
baciones, para obtener la Ley de control K
c
.
2. Filtrado de Kalman para obtener ˆ x.
El esquema de regulaci´on que se obtiene uniendo estos dos problemas aparece en
la figura 18.6 y el compensador resultante es el que se muestra en la figura 18.7.
r +
-
z(t)
y(t)
u(t)
Planta
ˆ x(t)
Control
Ley de
Filtro de
Kalman
Figura 18.6: Separaci´on del control y de la estimaci´on en el problema LQG
Estimaci´on del estado 469
-
+
ˆ x(t)
K
c
+ 0 u(t)
B
˙ x(t)

+
x(t)
A
Planta
C
y(t)
B
K
o
C
A
˙
ˆ x(t)

+
+
+ +
-
Observador
Figura 18.7: Estructura del regulador del problema del control estoc´astico

Contenido

1 Introducci´n a los sistemas de control. o 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 Noci´n de control autom´tico. . . . . . . . . . . . . . . . . . . . . o a Necesidad del modelo matem´tico del sistema. . . . . . . . . . . . a Idea de realimentaci´n. . . . . . . . . . . . . . . . . . . . . . . . . o Realimentaci´n, retardos y oscilaci´n. . . . . . . . . . . . . . . . . o o Sensibilidad y realimentaci´n. . . . . . . . . . . . . . . . . . . . . o Las Matem´ticas y el control autom´tico. . . . . . . . . . . . . . . a a Se˜ales y sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . . n Servomecanismos y reguladores. . . . . . . . . . . . . . . . . . . . Bosquejo hist´rico del control autom´tico. . . . . . . . . . . . . . o a 1.9.1 Control, inform´tica y telecomunicaciones. . . . . . . . . . a

1 1 3 4 6 7 9 11 13 15 17 19 19 21 22

2 Introducci´n a los sistemas realimentados o 2.1 2.2 2.3 Servomecanismo de posici´n . . . . . . . . . . . . . . . . . . . . . o Acci´n proporcional m´s derivada (PD). . . . . . . . . . . . . . . o a Acci´n proporcional m´s integral (PI). . . . . . . . . . . . . . . . o a

i

Contenido 3 Sistemas din´micos lineales a 3.1 Transformaci´n de Laplace . . . . . . . . . . . . . . . . . . . . . . o 3.1.1 3.1.2 3.1.3 3.2 3.3 Definici´n . . . . . . . . . . . . . . . . . . . . . . . . . . . o Resumen de Propiedades . . . . . . . . . . . . . . . . . . . Calculo de antitransformadas . . . . . . . . . . . . . . . .

ii 28 28 28 29 33 38 39 39 40 42 42 44 46 50 50 54 56 56 57 57 59 61

Noci´n de sistema din´mico. . . . . . . . . . . . . . . . . . . . . . o a Formas de las relaciones entrada-salida en sistemas. . . . . . . . . 3.3.1 3.3.2 Sistemas est´ticos. . . . . . . . . . . . . . . . . . . . . . . a Sistemas din´micos . . . . . . . . . . . . . . . . . . . . . . a

3.4

Descripci´n externa de los sistemas din´micos. . . . . . . . . . . . o a 3.4.1 3.4.2 Respuesta impulsional. . . . . . . . . . . . . . . . . . . . . Funci´n de transferencia. . . . . . . . . . . . . . . . . . . . o

3.5

Sistemas de control realimentados . . . . . . . . . . . . . . . . . .

4 Interpretaciones de la funci´n de transferencia o 4.1 4.2 Transformaci´n de Fourier . . . . . . . . . . . . . . . . . . . . . . o Funci´n de transferencia en el dominio de la frecuencia . . . . . . o

5 Sistemas din´micos lineales de primer orden a 5.1 5.2 Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o Soluci´n de la ecuaci´n diferencial de primer orden . . . . . . . . o o 5.2.1 5.2.2 5.2.3 Se˜al de entrada nula . . . . . . . . . . . . . . . . . . . . . n Se˜al de entrada no nula . . . . . . . . . . . . . . . . . . . n Respuestas a se˜ales de entrada especiales . . . . . . . . . n

Contenido 5.2.4 5.3 5.4 Respuesta arm´nica . . . . . . . . . . . . . . . . . . . . . . o . . . . . . . . . . . . . . .

iii 69 72 77

Ejemplos de sistemas de primer orden

El sistema de primer orden como integrador . . . . . . . . . . . .

6 Sistemas din´micos lineales de segundo orden y de orden y sua perior 79 6.1 Definici´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 6.1.1 6.1.2 6.1.3 Respuesta de un sistema de segundo orden a una entrada en escal´n . . . . . . . . . . . . . . . . . . . . . . . . . . . o Respuesta en frecuencia de un sistema de segundo orden . Ecuaciones diferenciales de orden n . . . . . . . . . . . . . 79 82 91 92 98 98 98 99

7 Representaci´n gr´fica de la funci´n de transferencia o a o 7.1 Diagramas m´s comunes . . . . . . . . . . . . . . . . . . . . . . . a 7.1.1 7.1.2 7.1.3 7.1.4 7.2 Diagrama de polos y ceros: caso racional . . . . . . . . . . Diagrama de Nyquist . . . . . . . . . . . . . . . . . . . . .

Diagrama logar´ ıtmico o de Bode . . . . . . . . . . . . . . . 100 Diagrama de Black . . . . . . . . . . . . . . . . . . . . . . 101

Diagrama de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . 101 7.2.1 7.2.2 7.2.3 7.2.4 7.2.5 Diagrama de Bode de una constante . . . . . . . . . . . . 103 Diagrama de Bode de una integraci´n pura . . . . . . . . . 103 o Diagrama de Bode de un sistema de primer orden . . . . . 103 Diagrama de Bode de una diferenciaci´n pura . . . . . . . 105 o Diagrama de Bode del t´rmino asociado a un cero . . . . . 106 e

7.3

Sistemas de fase m´ ınima . . . . . . . . . . . . . . . . . . . . . . . 106

Contenido 7.4 7.5

iv

C´ ırculos M y N . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Relaci´n entre las constantes de error y los polos y ceros. . . . . . 112 o 7.5.1 7.5.2 7.5.3 7.5.4 Seguimiento de posici´n. . . . . . . . . . . . . . . . . . . . 113 o Seguimiento de velocidad. . . . . . . . . . . . . . . . . . . 116 Seguimiento de aceleraci´n . . . . . . . . . . . . . . . . . . 118 o Sistemas con error nulo . . . . . . . . . . . . . . . . . . . . 119 122

8 Estabilidad de los sistemas din´micos a 8.1 8.2

Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 o Criterios de estabilidad relativos a la descripci´n externa . . . . . 123 o 8.2.1 8.2.2 Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . . . . 128 Matriz de Hurwitz . . . . . . . . . . . . . . . . . . . . . . 133

8.3

Criterio de Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . . 134 8.3.1 Grado de estabilidad e interpretaci´n del criterio de Nyquist 141 o 143

9 Compensaci´n de sistemas realimentados o 9.1 9.2 9.3 9.4 9.5 9.6 9.7

Introducci´n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 o An´lisis en el dominio de la frecuencia de la red PD . . . . . . . . 147 a An´lisis en el dominio de la frecuencia de la red PI . . . . . . . . 150 a Acci´n proporcional, integral y diferencial (PID) . . . . . . . . . . 153 o Compensaci´n por avance de fase . . . . . . . . . . . . . . . . . . 155 o Efecto en el dominio de la frecuencia . . . . . . . . . . . . . . . . 157 M´todo pr´ctico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 e a

Contenido 10 Representaci´n matem´tica de sistemas o a 10.1 Introducci´n o

v 162

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

10.1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . 162 10.2 Descripci´n interna de los sistemas din´micos . . . . . . . . . . . 163 o a 10.2.1 Sistemas de estados finitos . . . . . . . . . . . . . . . . . . 166 10.2.2 Sistemas din´micos lineales en tiempo continuo . . . . . . 167 a 10.2.3 Funci´n de transici´n de los sistemas din´micos lineales . . 177 o o a 10.2.4 Sistemas din´micos lineales en tiempo discreto . . . . . . . 181 a 10.2.5 Muestreo de sistemas en tiempo cont´ ınuo . . . . . . . . . . 182 10.2.6 Sistemas no-lineales: linealizaci´n . . . . . . . . . . . . . . 185 o 10.2.7 Dep´sito mezclador o . . . . . . . . . . . . . . . . . . . . . 187 191

11 Controlabilidad y observabilidad de sistemas din´micos a

11.1 Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 o 11.2 Controlabilidad de sistemas din´micos lineales . . . . . . . . . . . 192 a 11.2.1 Estados alcanzables . . . . . . . . . . . . . . . . . . . . . . 192 11.2.2 Estados controlables . . . . . . . . . . . . . . . . . . . . . 193 11.2.3 Estados conectados . . . . . . . . . . . . . . . . . . . . . . 194 11.3 Controlabilidad de los sistemas en tiempo discreto . . . . . . . . . 195 11.3.1 Ejemplos de introducci´n . . . . . . . . . . . . . . . . . . . 196 o 11.3.2 Controlabilidad de sistemas en tiempo continuo . . . . . . 202 11.3.3 Criterio de controlabilidad . . . . . . . . . . . . . . . . . . 203 11.3.4 Ejemplos de controlabilidad . . . . . . . . . . . . . . . . . 206

Contenido

vi

11.4 Notas sobre controlabilidad . . . . . . . . . . . . . . . . . . . . . 209 11.4.1 Controlabilidad de sistemas monovariables . . . . . . . . . 209 11.4.2 Transformaci´n de la matriz de Controlabilidad . . . . . . 210 o 11.4.3 Forma simplificada del criterio de controlabilidad . . . . . 210 11.4.4 La controlabilidad como propiedad gen´rica . . . . . . . . 211 e 11.5 Descomposici´n del espacio de estados en sus partes controlables o y no controlables . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 11.6 Observabilidad de sistemas din´micos lineales . . . . . . . . . . . 218 a 11.6.1 Introducci´n a la observabilidad . . . . . . . . . . . . . . . 218 o 11.6.2 Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . 220 11.6.3 Reconstructibilidad . . . . . . . . . . . . . . . . . . . . . . 221 11.6.4 Criterio de observabilidad . . . . . . . . . . . . . . . . . . 221 11.7 Sistemas continuos . . . . . . . . . . . . . . . . . . . . . . . . . . 223 11.8 P´rdida de observabilidad por muestreo . . . . . . . . . . . . . . . 225 e 11.8.1 Notas sobre observabilidad . . . . . . . . . . . . . . . . . . 227 11.9 Descomposici´n del espacio de estados en sus partes observables y o no-observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 11.10Descomposici´n can´nica del espacio de estados . . . . . . . . . . 229 o o 11.11Formas can´nicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 o 11.11.1 Forma can´nica de observaci´n . . . . . . . . . . . . . . . 239 o o 12 S´ ıntesis de sistemas de control por variables de estado 242

12.1 Ley de Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 12.1.1 Interpretaci´n por diagramas . . . . . . . . . . . . . . . . 245 o

Contenido

vii

12.1.2 Interpretaci´n algebraica . . . . . . . . . . . . . . . . . . . 246 o 12.1.3 Determinaci´n de la ley de control o . . . . . . . . . . . . . 248

12.2 Observadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 12.2.1 Sistemas monovariables . . . . . . . . . . . . . . . . . . . . 252 12.3 S´ ıntesis del sistema en bucle cerrado . . . . . . . . . . . . . . . . 262 12.3.1 M´todo pr´ctico de s´ e a ıntesis . . . . . . . . . . . . . . . . . 270

12.3.2 S´ ıntesis algebraica directa (S´ ıntesis externa directa) . . . . 275 13 Sistemas no lineales 283

13.1 M´todo del primer arm´nico . . . . . . . . . . . . . . . . . . . . . 283 e o 13.1.1 Ejemplo introductorio . . . . . . . . . . . . . . . . . . . . 283 13.1.2 Principios del m´todo e . . . . . . . . . . . . . . . . . . . . 289

13.1.3 Transformaci´n de Fourier . . . . . . . . . . . . . . . . . . 289 o 13.2 Algunas funciones descriptivas . . . . . . . . . . . . . . . . . . . . 291 13.2.1 Saturaci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 o 13.2.2 Rel´ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 e 13.2.3 Holgura . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294 13.2.4 Determinaci´n experimental de la funci´n descriptiva . . . 297 o o 13.3 An´lisis de sistemas no lineales mediante la funci´n descriptiva . . 298 a o 13.3.1 Una ampliaci´n del criterio de Nyquist . . . . . . . . . . . 299 o 13.3.2 Oscilaciones de un servomecanismo no lineal . . . . . . . . 300 13.3.3 Funci´n descriptiva independiente de la frecuencia . . . . . 302 o 13.3.4 Funci´n descriptiva dependiente de la frecuencia . . . . . . 302 o

Contenido

viii

13.3.5 Estabilidad de los ciclos l´ ımite . . . . . . . . . . . . . . . . 304 13.3.6 Fiabilidad del an´lisis mediante funciones descriptivas . . . 309 a 13.4 Criterios de estabilidad relativos a la descripci´n interna . . . . . 311 o 13.4.1 Teor´ de Lyapunov . . . . . . . . . . . . . . . . . . . . . . 311 ıa 13.4.2 Un ejemplo introductorio . . . . . . . . . . . . . . . . . . . 311 13.4.3 Noci´n de estabilidad en el sentido de Lyapunov . . . . . . 314 o 13.4.4 Teorema de Lyapunov . . . . . . . . . . . . . . . . . . . . 315 13.4.5 Aplicaci´n del m´todo de Lyapunov a sistemas lineales . . 318 o e 13.5 Construcci´n de funciones de Lyapunov con formas cuadr´ticas . 323 o a 13.5.1 M´todo de Krasovkii . . . . . . . . . . . . . . . . . . . . . 327 e 14 Introducci´n a la optimizaci´n de sistemas din´micos o o a 331

14.1 Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 o 14.2 Optimizaci´n Est´tica. . . . . . . . . . . . . . . . . . . . . . . . . 332 o a 14.2.1 Minimizaci´n de funciones . . . . . . . . . . . . . . . . . . 332 o 14.3 Introducci´n al control ´ptimo . . . . . . . . . . . . . . . . . . . . 336 o o 14.3.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 14.3.2 Ejemplo de ´ ındice de funcionamiento cuadr´tico . . . . . . 341 a 14.4 Problema general del control ´ptimo . . . . . . . . . . . . . . . . 345 o 14.5 C´lculo de variaciones . . . . . . . . . . . . . . . . . . . . . . . . 346 a 14.5.1 Funcionales y sus variaciones . . . . . . . . . . . . . . . . . 346 14.5.2 Ecuaciones de Euler . . . . . . . . . . . . . . . . . . . . . 352 14.5.3 Estado final variable . . . . . . . . . . . . . . . . . . . . . 359

1 Introducci´n .4 Ecuaci´n de Riccati en el dominio de la frecuencia . . . . . . . . . . . 433 o 17. . . .2 Control ´ptimo por conmutaci´n . .2 No se puede eliminar u . . . . .1 Relaci´n entre la programaci´n din´mica y la formulaci´n o o a o Hamiltoniana del problema de control ´ptimo . .2 Programaci´n din´mica y ecuaci´n de Hamilton-Jacobi-Bellman . .1 Aplicaci´n del c´lculo de variaciones a la resoluci´n del problema o a o del Control Optimo . .2. .1. . . 424 o a o 17. . . . . 382 o e 16 Principio del M´ ınimo de Pontriagin 393 16. . . . . . . . . . . . . . . . . . . . . . . 393 o 16. . . .3. . . . . . . . . .1. . . . .2 Problema LQR . . .1. 417 o 17. . . . 434 n o 17.1 Breve rese˜a hist´rica . .1. . . . . . . . . . . 446 o . . 423 17.2. . . . . . . . . . . . . . . .3 Control de sistemas din´micos lineales con criterio cuadr´tico . . . . . . 436 17. . . . . . . . . . 368 15. . . . . . . . . . . . .1 Introducci´n .1 Ejemplo de un sistema binario en tiempo discreto . . . . . . . . . 408 o o 16. . . .2 Ejemplo 4: Problema del alunizaje suave . . . . .Contenido 15 M´todos Variacionales en Control Optimo e ix 368 15.2 Programaci´n din´mica en tiempo discreto y Principio de o a Optimalidad . . .1 Control en tiempo m´ ınimo de un sistema de segundo orden 408 16. . . . . . . 373 15. . . . . .1 Se puede eliminar u . . . . . . 368 15. . . . . . . 412 17 Principio de optimalidad de Bellman 417 17. . . . . . . . . . . . .3. . . . . . . . . . . . . . . .2. . . . . 434 a a 17. . . . . . . . . . . . . . . . . .3 Introducci´n de un t´rmino de control terminal . . . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . 421 17.

. . . . . . .1 Descripci´n estad´ o ıstica de las se˜ales aleatorias . . . . . . . . . .3 El problema de la observaci´n: Filtro de Kalman . .Contenido x 17. . . . . . . . . . . . . . . . 466 e . . 452 o n 18. . . 450 o 18 Estimaci´n del estado o 452 18. . .4 M´todo LQG . . . . . 456 o 18.2 Transmisi´n de se˜ales aleatorias a trav´s de sistemas lineales: deo n e scripci´n interna . . . . . . . .3. . . . . . . . . . . . . . . . . . . . .1. . . . 453 n 18. . . .5 Resoluci´n del problema LQR . . . . . . . . . 458 o 18. . . . . . . . . . . . . . . 464 18. . . . . . . . . . . . . .1 Noci´n de se˜al aleatoria . .1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . .

o rect´ngulo. A la izquierda de este bloque se han representado unas 1 . bien de una manera aleatoria o o por parte del medio en el que se halla inmerso. es e o decir. como la rama de la a t´cnica que tiene por objeto concebir ingenios que funcionen aut´nomamente. a Bajo cierto punto de vista se puede considerar que en todo proceso industrial intervienen por una parte la informaci´n (´rdenes) y por otra la potencia. o a De una manera intuitiva se concibe el control autom´tico. En todo proceso. una o o m´quina funcionando. se realizan una serie de acciones que presuponen a la dosificaci´n de la aplicaci´n de energ´ en determinados puntos. bien bajo la o o ıa acci´n de unas ´rdenes que se suministran al mismo. y hablando llanamente.1.. que funcionen solos.Tema 1 Introducci´n a los sistemas de o control. tal como el reprea sentado en la figura 1. sea la fabricaci´n de un producto. Bajo o o este mismo punto de vista cabe considerar el funcionamiento de un proceso como la adopci´n de las acciones necesarias frente al mismo (se˜ales de mando o control) o n para la conveniente dosificaci´n de la energ´ en los distintos puntos del proceso o ıa para que el funcionamiento del conjunto sea el conveniente. un avi´n en vuelo..1 Noci´n de control autom´tico. etc. Se puede representar un proceso de esta naturaleza. al que a partir de ahora denominaremos sistema por medio de un bloque. Esta noci´n intuitiva requiere o unas ciertas matizaciones. pero es v´lida como punto de partida. 1.

El problema de a n controlar (gobernar) el proceso. se puede decir que el funcionamiento del proceso se har´ a partir de la serie de se˜ales ui que se le aplique. etc.. sobre el car´cter a a n a de estas se˜ales se volver´ m´s adelante. o m´s formalmente de se˜ales. se reduce al de establecer las se˜ales de entrada n (´rdenes).. por lo que se ıan hablar´ de secuencias temporales. es decir.1 siendo u1 la posici´n del volante. y que representan las distintas acciones que se pueden ejercer sobre el proceso. y que representan los productos que produce el proceso. n a a u1 u2 q q q E E E y1 y2 Sistema a controlar E q q q E un E ym Figura 1. o recientes avances en disciplinas como la la visi´n artificial y el aprendizaje auo tom´tico. al nivel que se ha desarrollado hasta ahora. el problema de controlar el funcionamiento de un proceso queda reducido al de la toma de decisi´n de la secuencia temporal de valores que deben o . u2 . o o De una manera intuitiva se entiende que un proceso est´ automatizado cuando a funciona solo. que se han denotado por y1 .. Por ejemplo. o entrada. u2 la o direcci´n del viento respecto a la del autom´vil. y2 .1: Sistema din´mico a Obs´rvese que este esquema. auguran su inminente viabilidad t´cnica. o a Por lo tanto. a que deber´ ser sometido para que su funcionamiento sea el apetecido. Aunque este ejemplo trivial pueda asociarse al dominio de la ciencia ficci´n. Tanto las acciones sobre el sistema como los productos del mismo generalmente var´ con el tiempo. a e Volviendo al problema original. A la derecha del bloque se han representado otras flechas. se denominar´n en lo que sigue se˜ales a n de control. como saliendo del mismo. . Por ejemplo la conducci´n de un autom´vil o o o por una carretera puede considerarse como un proceso sistema representado con un diagrama similar al de la figura 1.. etc. sin intervenci´n del ser humano. e tiene una ampl´ ısima aplicaci´n. y2 la separaci´n del mismo de la cuneta. o 2 flechas que se han denotado por u1 .Introducci´n a los sistemas de control. mando.. un auo tom´vil completamente automatizado ser´ aqu´l que funcionase completamente o ıa e solo. y siendo y1 la velocidad del o o autom´vil..

sobre el acelerador. quien tome la decisi´n a o respecto a cu´l de las posibles acciones a tomar debe adoptarse. es necesario que se sepa predecir qu´ resultados se e obtendr´ de cada una de las posibles acciones. las acciones que resultar´n de cada una de sus posibles opciones. n Al existir distintas opciones respecto a la acci´n a tomar para gobernar el o proceso..Introducci´n a los sistemas de control. . aquellas cuyo resultado sea el apetecido. la decisi´n de las maniobras que debe efectuar o o o el conductor (sobre el volante. que existan distintas acciones posibles cada una de las cuales dar´ un resultado distinto. prototipos.. n El conductor del autom´vil. acelerador. nos interesamos en texto por los matem´ticos. debe predecir in a mente. frenos. en un estado de o marcha y funcionamiento apetecido. Es decir. volviendo al ejemplo trivial n de la conducci´n del autom´vil.. Es decir. sobre el freno. que est´n constituidos por a a las relaciones formales que ligan a las se˜ales ui e yi . Se ha visto en el apartado anterior c´mo el gobierno de un proceso se reduc´ o ıa al establecimiento de la secuencia de acciones de mando que debe aplic´rsele a para que el funcionamiento sea el apetecido. para realizar la elecci´n conveniente de la se˜al de entrada que determine o n un funcionamiento apetecido. Esto es lo que se llama un modelo del proceso. se requiere el conocimiento exhaustivo de las relaciones que existen entre las posibles acciones a tomar sobre el sistema. Es decir. que es quien toma la decisi´n del posicionamiento o o de los distintos ´rganos que tiene a su alcance (volante. o 3 tomar las se˜ales de mando del mismo..2 Necesidad del modelo matem´tico del sisa tema. a aunque existen diversos tipos de modelos. Se va a considerar ahora un primer aspecto del establecimiento de esta secuencia. La toma de decisi´n sobre la se˜al que debe aplicarse al sistema implica que o n existan distintas alternativas. Por lo tanto. tablas). El problema se reduce al de ıa elegir entre estas se˜ales.) para que el funcionamiento del autom´vil sea el adecuado. y los resultados que determinar´n cada una de ellas. (descripciones verbales.) lo o que hace en todo instante es prever cu´l ser´ el resultado de las decisiones tomadas a a con el fin de mantener el proceso que gobierna (el autom´vil). o 1. con el a fin de escoger aquella se˜al de entrada a la que corresponda un resultado que sea n el buscado.

por ejemplo. Es f´cil encontrar ejemplos que ilustren este punto. cuando se quiere automatizar un proceso. a o un autom´vil que debe hacer el recorrido Sevilla . a 1. Consid´rese. las magnitudes que lo definen (se˜ales de entrada y de salida) n as´ como las relaciones formales que ligan a estas magnitudes. no es suficiente para la toma de o esta decisi´n. En ciertos casos es posible establecer un modelo matem´tico del proceso que a ligue de una manera un´ ıvoca a cada una de las acciones que se tomen un unico ´ resultado. En otros casos. o 4 Para construir un modelo matem´tico de un proceso. La posibilidad de construir un modelo del proceso que se est´ considerando. cuando se construyen modelos. o El conocimiento del modelo matem´tico del sistema sobre el que se debe tomar a una decisi´n para gobernar su funcionamiento. Sup´ngase. ´stos no tienen el nivel de formalidad que se e acaba de indicar. se tienen entonces los llamados sistemas estoc´sticos.. de una forma intuitiva o a o de momento se puede denominar estado actual del mismo. e constituye una de las mayores limitaciones a priori respecto a la posibilidad de automatizar un determinado proceso. Se requiere adem´s informaci´n sobre lo que.Introducci´n a los sistemas de control. En e la medida en que fuese posible en primer lugar definir una serie de magnitudes que caracterizasen el estado del enfermo (temperatura. Sin embargo. que no es sino determinar la acci´n a seguir o sobre el enfermo para conseguir que la evoluci´n del mismo estado de salud se o realice en forma apetecida. por ejemplo. para la toma de decisiones. ser´ posible automatizar completamente el problema del esıa tablecimiento de un tratamiento.3 Idea de realimentaci´n. as´ que deo a ı terminar´ las acciones a tomar precisamente a partir del modelo del sistema del a que disponga. para cada una de las acciones posibles.) y de las relaciones formales que ligan a estas magnitudes. se requiere establecer de a una forma precisa. de una manera subconsciente.C´diz.. no se tiene sino una predicci´n estad´ o ıstica de posibles resultados. Se tiene entonces un sistema determinista. conceno traciones en sangre de principios activos. ı En la vida ordinaria. es indispensable la construcci´n de estos modelos formales con el fin de poder trasladar o el proceso de toma de decisi´n a una m´quina construida al efecto. tensi´n arterial. el problema del e establecimiento de un tratamiento por un m´dico para uno de sus enfermos. Sup´ngase que se o a o dispone de un modelo matem´tico del funcionamiento del autom´vil as´ como a o ı .

Dicho con otras palabras. por ejemplo una lavadora o autom´tica basada en secuencias de trabajo prefijadas en el tiempo. Pese a sus o limitaciones. En dicha figura se representa por un lado el Sistema. especialmente por medio de sus ojos. permitiendo de esta forma el o o que la toma de decisi´n respecto a la condici´n del mismo. Sin embargo parece claro que en principio no quepa augurar un feliz resultado a la empresa. cuya variable de Salida pretendemos controlar de forma que siga a la Entrada. en principio. a largo plazo. y ella misma. es la diferencia entre la precisi´n alcanzada en la aproxio maci´n a esta meta. pese a su aparente artificiosidad es similar al que se presenta cuando se trata de enviar una c´psula a la luna. del funcionamiento del mismo. en general. realizar un giro a la derecha. concebir un programa de ordenador extraordinariamente detallado que permitiese realizar la toma de decisiones sobre la conducci´n del autom´vil.. o 5 un trazado minucioso de la autopista que une las dos ciudades Parece posible. cabe decir que los sistemas con realimentaci´n o son aqu´llos en los que la adopci´n de decisiones cara al futuro est´ completae o a mente influenciada por los efectos de las previamente adoptadas. los sistemas f´ ısicos poseen memoria del . con radio de giro de ı 1 km. tiene su aplicaci´n en ciertos contextos. Debe notarse que la necesidad a de la realimentaci´n surge como consecuencia de la aparici´n de perturbaciones o o aleatorias que modifican el funcionamiento del sistema de acuerdo con un plan previsto. la que determina las acciones posteriores..2 se representa en forma de diagrama de bloques lo anterior. son los sistemas en los que si la acci´n que se lleva a efecto persigue o una determinada meta. adquiera un grado de o o eficacia realmente fiable... Conviene recordar que. Este ejemplo. o En la figura 1.Introducci´n a los sistemas de control. Para ello se dispone de un Elemento de medici´n. o o Un programa que ser´ algo as´ como una secuencia de instrucciones del tipo: ıa ı avanzar en l´nea recta 150 m. o Desde un punto de vista general. a El conductor del autom´vil no hace sino desde su posici´n de gobierno. Este o tipo de actuaciones son las que se denominan control en bucle cerrado o control por realimentaci´n. que nos proporciona el valor de la se˜al de salida y o n posteriormente una vez comparada con la se˜al de entrada se toma la decisi´n n o correspondiente para actuar sobre el sistema. o informaci´n sobre el estado actual del autom´vil. Este tipo de programa dar´ lugar a un control en en ıa el que no se tiene informaci´n externa sobre la situaci´n actual.. situaci´n que o o o recibe el la denominaci´n de se denomina control en bucle abierto. o sencillamente por la imperfecci´n del modelo del sistema que le impide o una predicci´n exacta. introo o ducir en su sistema de decisi´n neuronal.

por ello la salida del sistema en un instante dado no es funci´n exclusivao mente de la entrada en ese mismo instante: depende de toda la historia pasada de las entradas.3. Entre la detecci´n de un obst´culo.4 Realimentaci´n. o Con el fin de ilustrar de una manera intuitiva este hecho.2: Realimentaci´n o pasado. y no constituye un obst´culo para una conducci´n normal. o o La existencia de retardos en un circuito (bucle) de realimentaci´n. proceso que se puede interpretar con un bucle o de realimentaci´n tal como el de la figura 1. Por esta raz´n la estructura realimentaci´n es un objeto complejo o o en cuanto a su comprensi´n y dise˜o. actuar sobre los frenos. Sobre el autom´vil s´lo act´an las u a o o u peque˜as perturbaciones (baches) del terreno y el conductor puede conseguir su n . o n 1. se o produce un cierto retardo que el conductor experimentado tiene perfectamente asimilado. o o a Este hecho tiene una importancia capital al considerar el comportamiento din´mico a de los sistemas realimentados y gran parte del problema de dise˜o de los mismos n reside en el amortiguamiento (o anulaci´n) de estas oscilaciones.. sin ning´n obst´culo.). a o Sup´ngase que se trata de mantener el coche en l´ o ınea recta sobre una superficie completamente llana. o 6 Entrada E Toma de decisi´n o T Salida E Planta E Elemento de medici´n o ' Figura 1.. conduce a la o aparici´n de fen´menos oscilatorios en el comportamiento din´mico del mismo.Introducci´n a los sistemas de control. retardos y oscilaci´n. o o a y la acci´n correctora consiguiente (girar el volante. consid´rese a un cone ductor que conduce un autom´vil.

mayores ser´n o a los efectos de oscilaci´n que se han indicado. con o ello lo que se ha introducido es de una manera artificiosa un notable retardo en el bucle de realimentaci´n. o Un sistema se dice sensible a la variaci´n de un determinado par´metro cuando o a ´ste influye de forma importante en el comportamiento del mismo. que en este segundo caso.5 Sensibilidad y realimentaci´n. Sup´ngase ahora que el conductor debe realizar su cometido con los ojos o cerrados. llevando a su lado un copiloto que es el que le va transmitiendo las indicaciones respecto a las desviaciones de la l´ ınea recta que se trata de seguir. constituye una de las o constantes que aparecen en el estudio de sistemas realimentados. en este caso.Introducci´n a los sistemas de control. Por ejemplo. la o conducci´n ser´ fuertemente oscilante.4. El circuito de realimentaci´n se modifica. la e conducci´n de un autom´vil es extraordinariamente sensible al estado del firme o o . Es f´cil comprender. El dilema entre velocidad de reo spuesta (precisi´n) y estabilidad (ausencia de oscilaciones).3: Ejemplo de realimentaci´n o objetivo con relativa facilidad. o a Un hecho importante que ilustra tambi´n el anterior ejemplo es que cuanto e mayor sea la velocidad a la que pretende conducirse el autom´vil. al de la figura 1. o 7 Perturbaciones Referencia E c c c Ojos (Sentidos) T Posici´n o E E Conducci´n o E Coche Figura 1. y o a debido precisamente al retraso que se introduce en el bucle de realimentaci´n. 1.

Este ejemplo ayuda tambi´n a poner de manifiesto uno de los problemas m´s e a importantes que se pueden producir como consecuencia de la introducci´n de la o realimentaci´n. es decir. Si aparece cualquier perturbaci´n. Consid´rese que: o e • Los grifos se encuentran alejados del dep´sito de agua caliente. Consid´rese que se trata de preparar una ducha de agua templada. las consecuencias desagradables para el que se ducha no se pueden atenuar. Por el contrario. e El sistema se puede considerar en bucle abierto. El sistema es enormemente sensible.Introducci´n a los sistemas de control. entonces se tiene un sistema en bucle cerrado en el que la persona que se ducha puede tomar las decisiones oportunas. si o una vez realizado el ajuste de las proporciones de agua fr´ y caliente. ı. con esta noci´n intuitiva es suficiente. o Los sistemas realimentados son enormemente menos sensibles a las perturbaciones que los sistemas sin realimentar. El sistema. y actuar sobre el sistema a trav´s de los e grifos. En efecto. un ejemplo trivial ayudar´ a a fijar esta idea.4: Sistema con retardo de la carretera. por lo tanto ha disminuido su sensibilidad sobre las mismas. o en conjunto. lo que influye en la mezcla. M´s adelante se dar´ una definici´n precisa de este concepto. ´ste perıa e manece inalterado durante toda la ducha. ha atenuado las posibles perturbaciones exteriores. sin realimentaci´n. por o ejemplo. y o . si se puede actuar sobre los grifos durante todo el proceso. para corregir cualquier perturbaci´n que se pueda producir. E Ojos (Sentidos) T o ETransmisi´n oral EConducci´n o E Posici´n o E Coche Figura 1. a a o aqu´ de momento. o 8 Perturbaciones c c c Ref. que en otro lugar de la casa se abra un grifo de agua caliente.

cabe considerar que la ingenier´ puede describirse como una ıa mezcla de sentido com´n y ciencia.6 Las Matem´ticas y el control autom´tico. y por lo tanto ´ste posiblemente se o e pase en la correcci´n. a En la figura 1. • Las matem´ticas pueden usarse como lenguaje cuando se pretende formular a los problemas con la ayuda de conceptos matem´ticos buscando con ello la a precisi´n y claridad. o Por otra parte. puesto que ser´ enormemente dif´ ajustar la misma. Ello es debido a que a ıcil cualquier acci´n que se tome tarda un cierto tiempo en detectarse (en la espalda o del que se ducha que es el ´rgano de medida). y o la correcci´n de ese tipo de inestabilidad constituye uno de los primeros problemas o con los que se enfrenta el dise˜ador de sistemas realimentados. como es l´gico o seg´n lo que se ha visto en los apartados anteriores. o • Las matem´ticas pueden emplearse como herramientas cuando una vez a planteado el problema en t´rminos matem´ticos se resuelven las ecuaciones e a que resultan (anal´ ıticamente o por simulaci´n). Se trata de recurrir a planteamientos te´ricos u o que permitan profundizar en los problemas que se est´n tratando.5 se tiene un sencillo diagrama en el que se pretende expresar las fases del m´todo en control autom´tico. Es claro que en tales condiciones se producir´n oscilaciones de la temperatura del a agua. a a Las matem´ticas tienen un doble empleo en las ciencias emp´ a ıricas y aplicadas. pero sin perder e de vista que en ultimo extremo de lo que se trata es de conseguir algo que funcione.Introducci´n a los sistemas de control. 1. Ello se pondr´ n a ampliamente de manifiesto a lo largo de este curso. Estas fases pueden resumirse en: e a . El sistema se convierte entonces en un sistema inestable. o 9 • Una peque˜a variaci´n de cualquiera de los grifos influye sensiblemente en n o la temperatura del agua. ´ Estas consideraciones previas deben hacerse por cuanto que. Tan es as´ que ıa a ı en alg´n sentido puede considerarse la teor´ del control autom´tico como una u ıa a rama de las matem´ticas aplicadas. las matem´ticas juegan un u a papel fundamental en la moderna teor´ del control autom´tico.

Esta primera fase no es espec´ ıfica del especialista en control. En esta ultima fase se reo ´ quiere de nuevo el concurso del especialista en el proceso a controlar (en forma de instrumentista). Por ultimo. que tiene un car´cter fundamental matem´tico. o 10 1.Introducci´n a los sistemas de control. se construye el modelo matem´tico o a del mismo.5: Fases del M´todo de Control e De las tres fases anteriores. la ley de control determinada ´ ı en el punto anterior para lo que se requiere el concurso de instrumentos electr´nicos y f´ o ısicos que realicen esta funci´n. la espec´ ıfica del especialista en sistemas de control es la segunda. a . a e o 2. por abstracci´n. se trata de realizar f´sicamente. A partir del proceso. Una vez obtenido el modelo matem´tico. Modelo Matem´tico a T T E E Ley de Control Abstracci´n o Implementaci´n o c c Sistema F´ ısico Sistema de Control Figura 1. lo que m´s adelante se denomia nar´ ley de control. se determina qu´ tipo de acci´n debe efectuarse sobre el mismo para que su comportamiento se adec´e a las u metas propuestas. a 3. Se trata de determinar. sino exclusivamente con sus modelos matem´ticos. y requiere del concurso del especialista en el proceso a controlar. Se ha llegado a a incluso a decir que el especialista en control en realidad no trata con los sistemas f´ ısicos.

ahorro. a 1. en el sentido de e n que excitado con determinadas se˜ales responde con otras. n En el estudio de los sistemas de control es fundamental adquirir previamente una idea clara de los conceptos de se˜al y sistema. en un sentido amplio. etc. Estos puntos se llamar´n salidas y a a las magnitudes a ellos ligadas se˜ales de salida. los sistemas que interesan en Autom´tica.7 Se˜ ales y sistemas. toda magnitud f´ n ısica que evoluciona en el tiempo. en el que salarios. debe tomarse en un sentido amplio .Introducci´n a los sistemas de control. Un sistema puede tambi´n definirse como un procesador de se˜ales. en cada instante t. La voz punto. n Es por lo tanto evidente que la consideraci´n del comportamiento din´mico o a de un sistema tendr´ un papel preponderante. La definici´n de sistema es m´s ambigua. En un sentido m´s restringido se requiere adem´s que a a esta se˜al tenga cierto contenido informacional. toma un cierto valor. si bien en principio no hay ning´n incoveniente en ina a u cluir otro tipo de se˜ales. o 11 Por lo tanto. Se entiende por sistema un conjunto o a de partes entrelazadas operativamente de manera que unas act´en sobre otras y u que en conjunto formen un todo. por los que pueden ser excitados por se˜ales llamadas n se˜ales de entrada. aunque nunca debe olvia a darse las consideraciones hechas m´s arriba respecto a la labor del ingeniero. As´ mismo tendr´n otros accesos en los que la evoluci´n n ı a o de ciertas magnitudes f´ ısicas podr´ leerse. n Normalmente. tendr´n puntos de a a acceso llamados entradas. empleada en las n anteriores definiciones de entrada y salida. desplazamientos mec´nicos y presiones e a neum´ticas o hidr´ulicas. puedan definirse magnitudes f´ ısicas que describan su comportamiento. de hecho. Se emplear´ aqu´ la notaci´n habitualmente empleada n a ı o en matem´ticas para referirse a una magnitud f´ a ısica X que. y un sistema es un procesador de se˜ales. ı a o de sistemas m´s simples en los que los elementos interactuantes son f´ a ısicos y. n Se entiende por se˜al. a est´ fuertemente influido por las matem´ticas aplicadas. por cuanto que una se˜al es una a n magnitud f´ ısica que evoluciona en el tiempo. los tipos de se˜ales generalmente empleados en sistemas de Conn trol son tensiones o corrientes el´ctricas. interaccionan entre s´ Aqu´ interesar´ la consideraci´n ı. es decir que sea significativa en n cierto aspecto. nivel o o de precios. el terreno en que se mueve el especialista en control autom´tico. Un ejemplo de sistema de acuerdo con esta definici´n lo constituye el Sistema Econ´mico Nacional.

7: Motor el´ctrico e Desde el punto de vista que se est´ considerando se dir´ que el motor es un a a sistema que. o bien sufren a s´lo variaciones despreciables (perturbaciones). se a considerar´ que estas. o bien se mantienen constantes (potencial).7) Intensidad de inducido Excitación Constante velocidad Figura 1. a Como ejemplo de lo dicho se puede considerar un motor el´ctrico en el cual el e campo se mantiene constante y se var´ la velocidad actuando sobre la corriente ıa de inducido.Introducci´n a los sistemas de control. Por lo tanto normalmente la representaci´n de un n o sistema se har´ como indica la figura 1. Los sistemas se representan por medio de bloques tal como se e indica en la figura 1. o 12 y no geom´trico. Pero con el fin de poder estudiar en su comportamiento ciertas regularidades.6: Sistema din´mico a Juntamente con las se˜ales de entrada y salida interesa considerar que un n sistema puede estar sometido a otro tipo de entradas como son las de suministro de potencia o las perturbaciones.6. potencia perturbaciones Señales de entrada u(t) Señales de salida y(t) Figura 1. de manera que el valor de la se˜al o n de salida pueda considerarse funci´n exclusivamente del conjunto de valores tomao dos por la se˜al de entrada.1. (Figura 1. que permitan su estudio matem´tico. a una se˜al de entrada u(t) (intensidad de inducido). da una se˜al n n .

es posible extraer de todo el complejo mundo de la autom´tica a campos de estudio concretos como son los servomecanismos y los reguladores. La unica posici´n de equilibrio es aqu´lla en que e u ´ o e 1 la posici´n de salida es igual a la referencia .. en cierto aspecto. La autom´tica es un campo vast´ a ısimo. posicionamiento de la pluma en un registrador de precisi´n.8.8: Servomecanismo de posici´n o Siempre que la posici´n de salida no se encuentre en la posici´n requerida por o o la referencia aparece un error que actuando sobre el servomotor determina que ´ste act´e corrigiendo el error. o Por lo tanto un servomecanismo es. En ´l se entrelazan aspectos te´ricos y e o tecnol´gicos de suerte que es dif´ establecer en el mismo sistematizaciones de o ıcil cara a su estudio. por otra parte. posicionamiento de las antenas de radar. se ha podido aplicar una teor´ ıa sencilla y fecunda.Introducci´n a los sistemas de control.8 Servomecanismos y reguladores. un sistema seguidor o re1 Esta afirmaci´n se restringe a una clase de sistemas mec´nicos lineales. esencialmente. Un servomecanismo es un ingenio con el que se pretende controlar una posici´n. Sin embargo atendiendo a su desarrollo hist´rico y al inter´s o e de ciertas aplicaciones a las que. prescindir de la consideraci´n del campo.. + e y amplificador u motor Figura 1. posicionamiento de las ruedas de un cami´n en una servodirecci´n. o a . o 1. El control de la posici´n se o o puede hacer de acuerdo con un sencillo esquema de realimentaci´n como el de la o figura 1. o o posicionamiento de la herramienta en un torno automatizado. etc. o Ejemplos de servomecanismos se encuentran en campos tan variados como son los posicionamientos de los timones de un barco. Se puede. o 13 de salida y(t) (velocidad del motor).

Ta a K + V Vr b Kc Kp c Ti Kt + Vt + - Figura 1. p´rdidas naturales distintas en el d´ que en la noche. potencia del exterior.. etc. o 14 productor en el que la posici´n de salida sigue o reproduce a la se˜al de entrada o n (referencia). desde un punto de vista f´ ısico. Una caracter´ ıstica esencial. El precio de esta mayor potencia en la posici´n de la o salida es una p´rdida de calidad en la se˜al. entre ambos sistemas. que justifica las aplicaciones de los servomecanismos es que el nivel de potencia de la se˜al de salida puede ser muy n superior al de la se˜al de entrada. a trav´s de un termostato. Sin embargo. es decir. Un problema. que viene actuado por una potencia externa al conjunto (el campo) y una se˜al que viene del servoamplificador y que es la que n realmente corrige (alimentaci´n del inducido). aunque desde un punto de partida distinto al de los servomecanismos pero que conduce a planteamientos semejantes.9.Introducci´n a los sistemas de control. Una determinada magnitud f´ ısica se dice que est´ regulada si est´ provista de un a a sistema que reaccione frente a los cambios del medio externo que afecten a esta magnitud. la entrada (referencia) es variable y se pretende que . En el esquema anterior se ve c´mo lo que n o posiciona es el servomotor.. 1. de suerte que se mantenga en un valor aproximadamente constante. de una cierta distorsi´n. entrada de m´s o menos a gente. Por lo e tanto un servomecanismo es un ingenio que reproduce se˜ales de posici´n a un n o nivel de potencia superior. deben notarse las diferencias. debe reaco e cionar a las variaciones del medio (aperturas de puertas. tal y como se ve en la figura 1. Un ejemplo trivial de ello lo suministra un sistema de regulaci´n de temperatura o en una habitaci´n.9: Regulador de temperatura El esquema que permite la regulaci´n de temperatura es esencialmente el o mismo de un servomecanismo. en ´sta. Obs´rvese que la misma se˜al que o e n viene del servoamplificador ha recibido.) de suerte que e ıa la temperatura se mantenga constante. e n o Precisamente las t´cnicas de dise˜o de servomecanismos tratan de conseguir que e n esta p´rdida de calidad de la se˜al sea m´ e n ınima. En el servomecanismo. El sistema calefactor. es el de los reguladores.

la se˜al de salida en s´ no interesa.8 y 1. En o el regulador la fuente de error son perturbaciones exteriores que separan el sistema del estado requerido. 1. Estos brazos est´n articulados de manera que la a fuerza centr´ ıfuga que act´a sobre las bolas puede determinar.XII a. es muy superior a la de la entrada de referencia (v´ase el ejemplo e de la amplificaci´n de fuerza del conductor en la servodirecci´n de un coche). . la potencia de la se˜al de salida.). 2.C. o a A lo largo de la historia de la t´cnica se encuentran m´ltiples ingenios en cuya e u concepci´n interviene la idea de realimentaci´n. o o En el regulador. En el servomecanismo. Se trata de un regulador de bolas de una m´quina de vapor. o 15 la salida siga a la entrada. que es lo que realmente interesa.11.9 Bosquejo hist´rico del control autom´tico. y seg´n otros ıa u al mec´nico griego Ktesibios (siglo XIII a.9.Introducci´n a los sistemas de control.10). En cualquier caso su antig¨edad a u e ingeniosidad son innegables. sino que s´lo es una n ı o medida de algo que sucede en la planta controlada. En el servomecanismo la fuente de error es la variaci´n de la referencia. que es lo que n interesa. 3. Bas´ndose a en esta semejanza es por lo que el estudio de ambos problemas se hace simult´neo a pero no debe olvidarse nunca que f´ ısicamente se trata de dos problemas diferentes.). Seg´n algunos autores. a trav´s de dichas u e articulaciones. Mientras que en el regulador la entrada es constante. una mayor o menor apertura de la v´lvula de alimentaci´n de la a o m´quina. Se tiene por lo tanto una cadena cerrada de acciones tal como la que a se indica en el diagrama de la figura 1. Junto a estas diferencias y a otras que pudieran establecerse se presenta la profunda semejanza entre ambos problemas. El primer trabajo significativo en control autom´tico fu´ el regulador centr´ a e ıfugo de James Watt. su u origen es chino y se remonta a la dinast´ Chen (siglos XI . ya que los dos conducen al mismo diagrama de bloques realimentado que se muestra en las figuras 1. En a el regulador de Watt se regula la velocidad de una m´quina de vapor por medio a de un sencillo artificio consistente en dos bolas met´licas de cierta masa sobre las a que act´an las fuerzas centr´ u ıfugas al girar el eje del que son solidarias a trav´s e de unos brazos (figura 1.C. Uno de los primeros ingenios de o o esta naturaleza es el llamado reloj de agua (clepsidra).

11: Diagrama de bloques: Regulador de Watt .Introducci´n a los sistemas de control.10: Regulador centr´ ıfugo de Watt ωc + - Transmisión válvula Máquina de vapor ω ω bolas Figura 1. o 16 Caldera vapor ω :velocidad del eje. válvula Cilindro Figura 1. eje de la máquina.

condujo al desarrollo tanto en los Estados Unidos como en la antigua Uni´n Sovi´tica. La ra´ de esto se halla en las ıas o ız siguientes razones: • El sistema de decisi´n que dise˜an los ingenieros de control para el gobierno o n de los sistemas f´ ısicos es un procesador de se˜ales. Tan es as´ que James Clerk Maxwell. basada ıa sobre la noci´n de estado. Sin embargo. a A menudo se confunden las disciplinas de control autom´tico e inform´tica. y alg´n otro de Routh ıa u a finales de siglo. Durante la Segunda Guerra Mundial. o n • El advenimiento del microprocesador en los a˜os 70 del siglo pasado y posteriormente de los m´s compactos microcontroladores. puesto e a que en ella se presentan los problemas de estabilidad a los que se alud´ en los ıa apartados 1.4 y 1. La teor´ cl´sica de los servomecanismos tiene enormemente limitadas su posiıa a bilidades de aplicaci´n por cuanto que la clase de sistemas a las que se aplica es o reducida. n la necesidad de construir sistemas de control altamente sofisticados para fines militares. o 17 El inter´s que suscita en su tiempo la m´quina de Watt es grande. En ello determin´ la realizaci´n de estudios te´ricos que permitiesen o o o construir una teor´ de sistemas que abarcarse una clase m´s amplia de los misıa a mos. y que se estudiar´ m´s adelante en este curso.Introducci´n a los sistemas de control.9. como son las computadoras. no es hasta los a˜os 30 del siglo pasado. y que se estudiar´ con detenimiento a lo largo de este o a curso.5. En aquellos a˜os a a n Norbert Wiener publica la importante obra Cibernetics. cuando se acomete n de una manera sistem´tica el estudio de las t´cnicas matem´ticas que permitan a e a estudiar y dise˜ar sistemas realimentados. uno de los mayores ı f´ ısicos te´ricos del siglo XIX se siente atra´ por el problema y publica un trabajo o ıdo titulado On governors que constituye uno de los trabajos pioneros de la moderna teor´ del control.1 Control. aparte de este trabajo. y por tanto un procesador n de informaci´n. ha alterado signia ficativamente los m´todos del control autom´tico. Con ello se ha llegado al desarrollo de la teor´ moderna del control. en la que se recalca el car´cter fundamental de la noci´n de realimentaci´n como concepto cient´ a o o ıfico. inform´tica y telecomunicaciones. haa a biendo visiones superficiales que consideran el control como una aplicaci´n de las o tecnolog´ de la informaci´n y comunicaciones. 1. de modo que apenas se e a hace control sin la intervenci´n de las computadoras: tanto en la fase del o an´lisis matem´tico como en la concepci´n de los instrumentos encargados a a o . de lo que hoy se conviene en llamar teor´ cl´sica de los sero e ıa a vomecanismos.

se especifica en forma de algoritmo. a ıas a n • Las teor´ para el modelado matem´tico y dise˜o de sistemas de control han sufrido una gran transformaci´n en las ultimas d´cadas. conceptos como sistemas operativos de tiempo real. como se desprende del apartado anterior. redes inal´mbricas. lenguajes. las particularidades y limitaciones de las computadoras. o ıa Sin embargo es conveniente recordar. De hecho. se han implementado controladores con circuitos anal´gicos y otras tecnolog´ De hecho en la actualidad se implementan o ıas. cobran una importancia creciente en el n´cleo ıa o u de la teor´ del control. que el control realimentado es anterior a la invenci´n de la computadora o digital y. algoritmos o en tiempo discreto. Otro hecho relevante es que la teor´ moderna del ıa ıa control surgida en los a˜os 30 tiene su base en el invento del amplificador n realimentado que impuls´ el desarrollo de la telefon´ a gran distancia. una ley de control. con anterioridad a ella.. o 18 del control. y a menudo los m´todos del control sobreviven a las computadoras y lenguajes concretos e empleados en su realizaci´n. etc. etc. que se traduce a su vez en una lista de instrucciones o programa ejecut´ndose en la unidad central de una computadora industrial. a En cualquier caso. la teor´ del control autom´tico se desarrolla en buena parte ıa a al margen de los dispositivos f´ ısicos donde se van a implementar. se han convertido en t´rminos de uso e com´n en control. planificaci´n de tareas. o . a o teor´ de la informaci´n. velocidad de proceso. capacidad de transmisi´n.Introducci´n a los sistemas de control. como o son los termostatos. sistemas de control realimentado carentes de elementos de computaci´n. ruido. concurrencia de procesos. Sucede simplemente que todas las actividades de car´cter t´cnico a e o cient´ ıfico han evolucionado y se han beneficiado enormemente de la magn´ ıfica herramienta que es la inform´tica. Afirmar que el control es una aplicaci´n de las tecnolog´ de informaci´n o ıas o ser´ invertir el sentido de las cosas y exigir´ decir lo mismo de la arquitectura ıa ıa o la medicina. u • Conceptos tradicionalmente asociados a las telecomunicaciones como los sistemas distribuidos. en muchos casos. En este sentido. con el fin incoro ´ e porar el potencial.

que est´ asociado al eje de un motor.1 Servomecanismo de posici´n o Vamos a dedicar esta secci´n a analizar un tipo de sistema realimentado que o presenta particular inter´s: el servomecanismo de posici´n. Esta discrepancia o error es amplificada convenientemente para activar el motor que. La se˜al de entrada es otra posici´n. actuando sobre el eje de salida. Se dispone de un mecanismo que permite detectar la discrepancia entre las posiciones de entrada y de salida. es decir. hasta conseguir alinear el eje de salida en la direcci´n indicada por el eje o de entrada.1: Bucle abierto de un servomecanismo de posici´n o 19 . Con ´l se trata de e o e posicionar un eje. determina su movimiento hasta anular el error.Tema 2 Introducci´n a los sistemas o realimentados 2. que se pretende n o que reproduzca el eje de salida del sistema. J f y(t) u(t) amplificador Figura 2. y que constituye la se˜al a n de salida del sistema.

tanto para su r´gimen permanente como para su transitorio que. y cuya discrepancia da lugar al error e.2 se muestra el bucle cerrado del servomecanismo. Con este supuesto n e o se puede escribir que la posici´n del motor y(t) viene dada por la ecuaci´n difero o encial: J d2 y dy +f = u(t) 2 dt dt siendo en este caso y(t) el ´ngulo girado por el motor. Al esquema de la figura 2. no se consigue e con los elementos que consituyen el bucle de control.1 se muestra el bucle abierto de un servomecanismo. Hay veces en que un simple aumento de la ganancia est´tica es suficiente a para lograr precisi´n. a partir del cual se obtiene la se˜al u(t).1 se puede hacer la hip´tesis de que el par del motor es proporo cional a la se˜al el´ctrica de alimentaci´n del amplificador u(t). mediante una amplificador la se˜al u(t) adquiere el o n nivel adecuado para actuar sobre un motor. y f el coeficiente de fricci´n viscosa del mismo conjunto. cuyo eje representa la posici´n de o salida del servomecanismo. En la figura 2.2: Bucle cerrado de un servomecanismo de posici´n o En la figura 2.1 se ha a˜adido una se˜al de referencia r(t) que se compara con n n la salida del motor. n J f r(t) + e(t) K u(t) amplificador y(t) Figura 2. No obstante. no se consigan exactamente las o . sin que se afecte demasiado a las caracter´ o ısticas en estado transitorio. o Para que un sistema de control realimentado act´e aceptablemente. normalmente. En ella se pone de manifiesto c´mo.Introducci´n a los sistemas realimentados o 20 En la figura 2. necesita u satisfacer unas determinadas especificaciones de funcionamiento. o en el mejor de los casos. J la inercia del conjunto a motor-carga. como lo normal es que ´stas se vean empeoradas con una e actuaci´n de este tipo. Este eje es solidario con una inercia J y una fricci´n o f.

o a • Acci´n proporcional m´s integral (PI) y o a • Acci´n proporcional m´s integral y m´s derivada (PID). Se emplean tres tipos de acciones: • Acci´n proporcional m´s derivada (PD). de u(t) = K e + Kd dt quedando d2 y dy de J 2 +f = Ke + Kd (2. o n a por lo dicho.3. En efecto.2) La ecuaci´n 2. Se e a va estudiar el caso en que la se˜al de mando sea proporcional al error y a su n derivada. Consid´rese el servomecanismo elemental descrito en el p´rrafo anterior.1) dt dt dt y como e = r − y J d2 y dy dr dy +f = Kr − Ky + Kd − Kd dt2 dt dt dt d2 y dy dr + (f + Kd ) + Ky = Kr + Kd dt2 dt dt J (2. como se o muestra en la figuras 2. con control proporcional solamente. o a Tiene lugar cuando la se˜al de mando del sistema es la suma de los t´rminos. En este caso se dice que la compensaci´n n o es del tipo PD.1 muestra que el sistema es excitado ahora por la se˜al de error o n y por un impulso.2 Acci´n proporcional m´s derivada (PD). La se˜al de mando ser´. es decir el caso en que se tenga una acci´n PD. o a a 2. La consecuencia inmediata es que el efecto corrector (inversi´n o del par motor) se aplica antes que cuando el control era s´lo proporcional. pron e porcional y derivado de la se˜al de error. .Introducci´n a los sistemas realimentados o 21 que se pretende que tenga el sistema.a y 2.b. es por lo que se desarrollaran a continuaci´n o los procedimientos de compensaci´n que se han dado en llamar en llamar cl´sicos o a ya que fueron los primeros que se utilizaron.3.

Disminuci´n de la sobreoscilaci´n 2. De lo anterior se desprenden las dos caracter´ ısticas esenciales de una acci´n o PD : o o 1. la sobreoscilaci´n ser´ menor.3. 2. se le ha dotado de una o acci´n PI. En consecuencia. el par corrector se aplica antes de que la se˜al de salida n llegue al valor de la de referencia. el de un servomecanismo elemental de posici´n. el efecto ha sido aumentar la fricci´n del sistema primitivo y. al que se le ha incorporado una acci´n o integral en paralelo con la acci´n proporcional. en general.2 se aprecia que la parte no homogenea e o de la ecuaci´n diferencial no es un escal´n. de la se˜al de error. es decir. por tanto.d. Disminuci´n del tiempo de subida o Estos efectos se han considerado para un caso particular y especialmente simple. sino un escal´n m´s un impulso. sino que tambi´n lo es a su variaci´n. ya que en cierta manera se anticipa ı a lo que va a ocurrir. En ella se aprecia que el o coeficiente de la primera derivada se ha incrementado en el valor Kd . o Por otro lado. Ello o o o a determina que el sistema responda m´s r´pidamente ya que no s´lo es sensitivo a a o a la referencia. tambi´n en la ecuaci´n 2. Esta misma consecuencia se pone de manifiesto en la ecuaci´n 2. es decir.2. hacer que o el conjunto tenga una respuesta temporal con menor sobreoscilaci´n. o a La red PD tiene as´ un caracter anticipativo.b mientras que si la se˜al n de error es del tipo PD indicado.5. para una amplia variedad de sistemas f´ a ısicos.4. la se˜al de mando es la suma de un t´rmino proporcional y otro n e integral. es decir. que muestra o la ecuaci´n diferencial del sistema en bucle cerrado.Introducci´n a los sistemas realimentados o 22 el error cambia de signo en el punto f de la figura 2.3 Acci´n proporcional m´s integral (PI). Todo se pone de manifiesto e o observando las figuras 2.3. n u(t) = K e + Ki t 0 e dt Sea un sistema como el de la figura 2. el cambio de signo se verifica en el instante g de la figura 2. o a En este caso. Sin embargo son igualmente o v´lidos. o .

3: Compensaci´n con PD.Introducci´n a los sistemas realimentados o 23 y y r (a) t e (b) f de dt t (c) t e+ de dt (d) g y y r t (e) t Figura 2. o .

4: Respuesta temporal con red PD. Ki + − e K + G(s) + θ Figura 2.5: Diagrama de un sistema con regulaci´n PI o .Introducci´n a los sistemas realimentados o 24 y respuesta a Kr r (a) respuesta a Kd dr dt t y respuesta a Kr + Kd dr dt r (b) t Figura 2.

Pe = K ep + Ki 0 y d2 e =0 dt2 ∞ e dt . es claro o o que el equilibrio se alcanzaria cuando el par generado por el motor fuese igual al aplicado externamente. se le aplica un par o e externo Pe sobre la carga. Si la acci´n de la red fuese s´lo proporcional. el cual alimenta al motor y le obliga a sumintrar un par o creciente con el tiempo. Para ello. sobre el eje de salida. cuando t → ∞. se establecen las ecuaciones que rigen la evoluci´n del sistema y que resultan ser o dy d2 y +f + Pe = Ke + Ki 2 dt dt t 0 J e dt siendo Pe el par externo aplicado y e = r − y Eliminado y se tiene d2 r d2 e dr de Pe + J 2 − J 2 + f −f = Ke + Ki dt dt dt dt t 0 e dt d2 r dr d2 e de Pe + J 2 + f = J 2 + f + K e + Ki dt dt dt dt Si la referencia es un escal´n. en primer lugar. El sistema reaccionar´ a tratando de anular dicho par puesto que la aplicaci´n del mismo. en un r´gimen estacionario. si la introducci´n del integrador e o no ha hecho inestable al sistema. se tendr´ que o a dr =0 dt d2 r =0 dt2 t 0 e dt y En el r´gimen permanente. se tendr´ que a de =0 dt con lo cual. Interesa ver con cierto detenimiento lo que ocurre cuando la acci´n de mando o es del tipo PI.Introducci´n a los sistemas realimentados o 25 Sup´ngase que a dicho sistema. es decir. determina la o aparici´n de un error.

6.6. Ello trae consigo la aparici´n del n o consiguiente error (figura 2. se aplica una se˜al tal como la que se muestra en la figura 2. Por lo dicho. El n fen´meno que se produce entonces puede interpretarse diciendo que el par del o motor empezar´ a crecer hasta que vence al que se aplica exteriormente.f. la unica forma de que se cumpla la ecuaci´n anterior es ´ o ∞ que ep = 0 ya que en caso contrario. sino esencialmente cualitativa por cuanto que o cambia el tipo del sistema.6.e y 2. m´s su n o a integral. 0 edt → ∞. el sistema reacciona eliminando el error en regimen permanente (ep ).b). o n Obs´rvese c´mo es el elemento integrador el que mantiene la se˜al sobre el motor e o n para que ´ste venza al par exterior. La aplicaci´n del par o o externo Pe .6. En consecuencia. no e s´lo de una manera cuantitativa. no es que el sistema se mejore.d. de caracter´ ısticas distintas.6.Introducci´n a los sistemas realimentados o 26 Como Pe es finito. La interpretaci´n f´ o ısica del fen´meno es muy simple. Si la se˜al de actuaci´n sobre el sistema es proporcional al error. una red PI mejora considerablemente el r´gimen permanente. sino que se convierte en otro. es decir.a). tiende a separar la posici´n del eje de salida del valor en que la o ha fijado la se˜al de referencia (figura 2. La a evoluci´n del error y de la se˜al de salida se muestran en las figuras 2. e .

Introducci´n a los sistemas realimentados o 27 r θ t a) e b) z t edt c) t e+ edt d) t edt e z t e) r θ f) t Figura 2.6: Respuesta temporal a red PI .

1 Definici´n o El m´todo de la transformada de Laplace es un m´todo opcional que puede utie e lizarse con ventaja para la resoluci´n de ecuaciones diferenciales lineales. s = σ + jw una o variable compleja y L un simbolo operacional. si la parte real de s.1. La o transformada de Laplace se define como: L [f (t)] = F (s) = ∞ 0 f (t)e−st dt f (t) es una funci´n del tiempo tal que f (t) = 0 para t < 0. La integral converge.Tema 3 Sistemas din´micos lineales a 3.1 Transformaci´n de Laplace o En esta secci´n vamos a repasar la transformada de Laplace que suministra una o herramienta de gran inter´s para el estudio de los sistemas cuya descripci´n e o matem´tica viene dada por ecuaciones lineales invariantes en el tiempo. y por tanto existe la transformada de Laplace. e−σt | f (t) | tiende a cero cuando t → ∞. El valor σc recibe el nombre de abscisa de convergencia. a 3. a Si existe una constante real y positiva σ tal que para σ > σc . La existencia de la transformada F (s) est´ condicionada a la convergencia de la integral. (σ) es mayor que la 28 . mientras que para σ < σc tiende a infinito.

o 2. F (s) y o se expresa as´ ı. a A la funci´n f (t) se la conoce como la anti-transformada de Laplace. a a Tabla de Transformadas de Laplace Se˜al n Impulso Escalon Rampa Par´bola a Rampa de orden n Decrecimiento exponencial Onda sinusoidal Onda cosenoidal Sinusoide con decrecimiento exponencial Cosenoide con decrecimiento exponencial f (t) δ(t) 1 (t ≥ 0) t(t ≥ 0) 2 t (t ≥ 0) tn (t ≥ 0) e−αt senωt cosωt −αt e senωt e−αt cosωt F (s) 1 1 s 1 2 s 2 s3 n! sn 1 (s+α) ω (s2 +ω 2 ) s (s2 +ω 2 ) ω ((s+α)2 +ω 2 ) s+α ((s+α)2 +ω 2 ) 3.1. e o corresponde a la parte real del polo m´s alejado hacia la derecha en el plano s. seg´n se desprende de u la definici´n.Sistemas din´micos lineales a abscisa de convergencia σc . entonces o L df (t) = sF (s) − f (0) dt . F2 (s) es la transformada de Laplace de f1 (t) + f2 (t). f (t) = L−1 [F (s)] En la tabla siguiente se tienen las transformadas de Laplace de las funciones m´s usuales en autom´tica. 29 En t´rmino de los polos de la funci´n F (s).2 Resumen de Propiedades F1 (s)+ 1. Linealidad: Si F1 (s) y F2 (s) son las transformadas de f1 (t) y f2 (t). Derivaci´n real: Si L [f (t)] = F (s). la abscisa de convergencia σc .

∞ 0 ∞ ∞ 0 f (t) dt. v = 1 e−st dt = − e−st y dv = e−st dt s vdu u dv = uv − por lo que resulta.d. du = f (t) dt . Integraci´n real: Si L [f (t)] = F (s). du = −se−st dt v= se tiene que.q. 3.Sistemas din´micos lineales a En efecto. pero f (t) e−st dt = L [f (t)] L [f (t)] = sF (s) − f (0) c. como F (s) = haciendo ∞ 0 30 f (t) e−st . dv = f (t)dt F (s) = f (t)est dt = e−st f (t)dt 0 ∞ 0 − −se−st f (t)dt dt = =− f (0)dt + s f (t)dt e−st dt . . realizamos la integraci´n por partes o u = f (t) . ∞ 0 f (t) e −st f (t)e−st dt = − s ∞ ∞ − 0 ∞ 0 1 − e−st f (t)dt =⇒ s ∞ 0 F (s) = luego: f (0) 1 + s s 0 f (t) e−st dt. o L t 0 f (τ ) dτ = ∞ 0 F (s) + s f (0) dt s Si en la expresi´n F (s) = o f (t) e−st dt se hace: u = e−st .

lim f (t) = lim sF (s) s→0 t→∞ Sabemos que ∞ 0 f (t)e−st dt = sF (s) − f (0) lim ∞ 0 haciendo que s → 0 (3. lim f (t) = lim sF (s) c. ıa El procedimiento es laborioso y resulta mucho m´s c´modo verificar el valor a o de la variable sobre la propia ecuaci´n transformada.Sistemas din´micos lineales a 31 y como ∞ 0 f (t)dt e−st dt = L F (s) + s f (t)dt =⇒ L f (t)dt = f (0)dt c. o Supondremos que existe L [f (t)] y L [f (t)] y demostraremos que. que o en el caso de un servosistema.q. s→0 t→∞ . queda.1. s 4. El ıa e procedimiento consistir´ en hallar la antitransformada y hacer que t → ∞.1) s→0 ∞ 0 f (t)e−st dt = lim [sF (s) − f (0)] s→0 ∞ 0 t pero lim s→0 f (t)e−st dt = f (t)dt = lim t→∞ 0 f (τ )dτ = = lim [f (t) − f (0)] t→∞ y sustituyendo en 3.d. corresponder´ al r´gimen permanente. se tiene.d. interesa conocer el valor de la funci´n f (t) cuando t → ∞. lim [f (t) − f (0)] = lim [sF (s) − f (0)] s→0 t→∞ y como f (0) no depende de t ni de s. Teorema del valor final: Hay veces en que hechas las operaciones precisas con la ecuaci´n transo formada.q.

lims→∞ sF (s) = lims→∞ f (0) = f (0) ya que f (0) no depende de s y como f (0) es limt→0 f (t) quedar´ a lim f (t) = lim sF (s) c. v ∂t ∂u ∂τ ∂u ∂t ∂v ∂τ ∂v v = τ u = t+τ = 1 −1 =1 0 1 . Integral de Convoluci´n: Sean F1 (s) = L [f1 (t)] El producto de ambas. que corresponder´ en un servosistema a conocer su comportamiento ıa transitorio. se puede hallar tambi´n sobre la ecuaci´n transformada. t = u−v τ = v el Jacobiano de la transformaci´n vale. t→0 s→∞ o 6. ∞ 0 ∞ 0 0 ∞ 0 y F2 (s) = L [f2 (t)] F1 (s) ∗ F2 (s) = = f1 (t)e−st dt ∞ f2 (τ )e−sτ dτ = (3. Teorema del valor inicial: 32 Si lo que nos interesa conocer del sistema es su comportamiento cuando t → 0.3) f1 (t)f2 (τ )e−s(t+τ ) dt dτ Haciendo el cambio de variables.e.q. o J( t. ya que e o lim f (t) = s→∞ sF (s) lim t→0 Al igual que antes. τ )= u.Sistemas din´micos lineales a 5. en la expresi´n o L [f (t)] = ∞ 0 f (t)e−st dt = sF (s) − f (0) hacemos que s → ∞ ∞ s→∞ 0 lim f (t)e−st dt = lim [sF (s) − f (0)] s→∞ y como el primer miembro es cero.2) (3.

.3 Calculo de antitransformadas Con el c´lculo de antitransformadas se pretende determinar a partir de la transa formada de Laplace F(s) la correspondiente antitransformada.. F (s). En tal caso la funci´n F (s) admite una descomposici´n en fracciones simples de la forma o o F (s) = n(s) a1 a2 an = + + . f (t) = L−1 [F (s)] La transformada posee s´lo polos reales y simples o Supongase que el denominador de la funci´n de la que se quiere hallar la antio transformada. . . (s + pn ) de modo que los diferentes pi son reales y diferentes entre si.1. Multio plicando los dos miembros de la expresi´n anterior por (s+pi ) y haciendo s = −pi o se tiene .3 queda o ∞ 0 0 ∞ 0 0 u u 33 F1 (s) ∗ F2 (s) = = luego f1 (u − v) f2 (v)e−su dv du = f1 (u − v) f2 (v)dv e−su du F1 (s) ∗ F2 (s) = L u 0 f1 (u − v) f2 (v) dv La expresi´n encerrada en el corchete se conoce como integral de convoluci´n o o y representa la antitransformada del producto de dos transformadas. + d(s) s + p1 s + p2 s + pn los coeficientes ai reciben la denominaci´n de residuos de F (s) en s = −pi . es de la forma d(s) = (s + p1 )(s + p2 ) . a La ecuaci´n 3. 3.Sistemas din´micos lineales a Como t > 0. es decir. u > v luego v viariar´ de 0 a u.

. En tal caso la descomposici´n en fracciones simples ¯ o tomar´ la forma: a . que L−1 = se tiene que f (t) = a1 e−p1 t + a2 e−p2 t + .Sistemas din´micos lineales a 34 ai = n(s)(s + pi ) d(s) s=−pi puesto que se sabe. Estas funciones reciben la denominaci´n de modos naturales del sistema. an e−pn t En esta expresi´n se pone de manifiesto que a cada pi se asocia una funci´n o o −pi t (una trayectoria o un comportamiento) de la forma e . Se dice que un modo natural es o asint´ticamente estable si pi ≥ 0. de la tabla de transformadas. o Ejemplo Sea la transformada de Laplace F (s) = (s + 3) (s + 1)(s + 2) ai = ai e−pi t (s + pi ) se tiene que los residuos resultan ser a1 = a2 = luego f (t) = 2e−t − e−2t t ≥ 0 (s + 3) (s + 2) (s + 3) (s + 1) =2 s=−1 = −1 s=−2 La transformada posee polos complejos Supongamos ahora que la transformada de Laplace posee un par de polos complejos conjugados p1 y p1 . .

se tendr´: a (α1 s + α2 )s=−p1 = n(s)(s + p1 )(s + p1 ) ¯ d(s) s=−pi Esta expresi´n permite determinar α1 y α2 igualando partes reales e imagio narias. si se supone: p1 = a + jω y p1 = a − jω ¯ se tendr´ a ω = e−αt senωt ((s + α)2 + ω 2 ) s+α = e−αt cosωt ((s + α)2 + ω 2 ) α1 s + α2 α1 s + α2 = = (s + p1 )(s + p1 ) ¯ (s + a + jω)(s + a − jω) s+a (α2 − α1 a) ω α1 + ((s + a)2 + ω 2 ) ω ((s + α)2 + ω 2 ) Ejemplo Sea la transformada de Laplace F (s) = (s + 1) s(s2 + 2s + 2) . + d(s) (s + p1 )(s + p1 ) s + p3 ¯ s + pn Si se multiplican los dos miembros de esta expresi´n por (s + p1 )(s + p1 ).. y se o ¯ hace s = −p1 ..Sistemas din´micos lineales a 35 F (s) = n(s) α1 s + α2 a3 an = + + . Para hallar la antitransformada correspondiente al t´rmino asociado al par e complejo basta recordar que: L1 L1 En concreto.

. Por ejemplo.. . f (t) = 1 1 −t 1 − e cosωt + e−t senωt t ≥ 0 2 2 2 La transformada posee polos m´ ltiples u Sup´ngase que una de las raices del polinomio del denominador de la transformada o de Laplace es m´ltiple. la transformada de Laplace admite la descomposici´n: o n(s) br br−1 b1 a2 an = + + .+b1 (s+p1 ) r r−1 n(s)(s + p1 )r d(s) s=−p1 an (s + p1 )r a2 (s + p1 )r +. . + r r−1 d(s) (s + p1 ) (s + p1 ) s + p1 s + p2 s + pn F (s) = Si se multiplican los dos miembros de esta expresi´n por (s + p1 )r se tendr´: o a bi = Obs´rvese que e (s+p1 ) F (s) = br +br−1 (s+p1 )+. sup´ngase que la raiz p1 tiene multiplicidad u o r. . + + + .+ + s + p2 s + pn derivando esta expresi´n con respecto a s se tiene o ..Sistemas din´micos lineales a Se tiene: a3 = Por tanto. En tal caso el denominador admitir´ la descomposici´n: a o d(s) = (s + p1 )r (s + p2 ) ... . (s + pn ) En tal caso. F (s) = 11 1 s − 2 2 s 2 s + 2s + 2 11 1 s = − 2 s 2 (s + 1)2 + 1 11 1 s+1 1 1 = − + 2+1 2 s 2 (s + 1) 2 (s + 1)2 + 1 (s2 36 (s + 1) + 2s + 2) = s=0 1 2 De donde se tiene. .

. + (r − 1)b1 (s + p1 )r−2 + ds d a2 (s + p1 )r d an (s + p1 )r + .Sistemas din´micos lineales a 37 d [(s + p1 )r F (s)] = br−1 + 2br−2 (s + p1 ) . . . f (t) = (t2 − t + 1)e−t 2 1 1 − + (s + 1)3 (s + 1)2 (s + 1) .. + ds s + p2 ds s + pn y haciendo en esta expresi´n s = −p1 se tiene o d [(s + p1 )r F (s)]s=−pi = br−1 ds Derivando de nuevo con respecto a s y procediendo an´logamente se tiene a br−2 = En general se tendr´ a 1 dj = [(s + p1 )r F (s)]s=−p1 j j! ds 1 d2 [(s + p1 )r F (s)]s=−p1 2 ds2 br−j Ejemplo Sea F (s) = que se desconpone F (s) = Se tendr´ a s2 + s + 2 (s + 1)3 b3 b2 b1 + + 3 2 (s + 1) (s + 1) (s + 1) b3 = [s2 + s + 2]s=−1 = 2 b2 = [2s + 1]s=−1 = −1 b1 = 1 Por tanto F (s) = De donde se tiene.

Definido as´ un sistema representa una formalizaci´n del uso vulgar ı o de este t´rmino.2 Noci´n de sistema din´mico. u(t) e y(t) vectores. que permita generar los pares de se˜ales u(t). bien sea una ecuaci´n o. o a trav´s de las se˜ales de entrada. de forma m´s general. etc.Sistemas din´micos lineales a 38 3. de observaci´n o respuestas. Un sistema se presenta en forma esquem´tica como se n a hace en la figura 3. a o a un algoritmo. que reciben el nombre de se˜ales de entrada. o Para denotar a las se˜ales de entrada se emplea u(t). por abstracci´n de unas caracter´ o ısticas de un objeto f´ ısico.. Desde el punto de vista que interesa en autom´tica lo que conviene de α son las relaciones matem´ticas entre las distina a tas magnitudes m1 (t). como pueden ser su velocidad de giro. y 2. de n mando o est´ ımulos.1. y para las se˜ales de salida n n se emplea y(t). Las se˜ales u(t) e y(t) pueden registrarse o bien de una manera cont´ n ınua en el . En el contexto de la autom´tica o a el concepto de sistema adquiere un significado m´s preciso. al cual aparee cen asociadas una serie de magnitudes. de control.mn (t) que se asocian a dicho objeto f´ ısico. en general. m2 (t). magnitudes cuyo valor puede ser medido pero cuya variaci´n es indirecta. por ejemplo un motor el´ctrico. e El problema de la representaci´n matem´tica de los sistemas se reduce a o a encontrar la forma matem´tica.. magnitudes cuyo valor puede ser variado directamente desde el exterior del objeto f´ ısico. la intensidad que alimente el inducido. α. representaci´n que recibe el nombre de diagrama funcional o del sistema. Se entiende por sistema el objeto abstracto formado por las relaciones que ligan las se˜ales u(t) e y(t). o a Uno de los conceptos b´sicos empleados en autom´tica es el de sistema. En autom´tica los objetos f´ a ısicos que intervienen son tales que las magnitudes f´ ısicas que a ellos se asocian se pueden clasificar en dos grupos: 1. y que reciben el nombre de se˜ales de e n n salida. y(t) que definen el n sistema. siendo. En el a a lenguaje ordinario se entiende por sistema una colecci´n de objetos unidos por o cierta forma de interacci´n o interdependencia. a Consid´rese un objeto f´ e ısico. Estas relaciones constituyen un objeto abstracto.

a a 3.4) en donde.1: Sistema din´mico a y(t) tiempo.Sistemas din´micos lineales a 39 u(t) Σ Figura 3. a 3.2.1 Sistemas est´ticos. para los casos de inter´s pr´ctico F{. o bien de una forma discont´ ınua. en el resto de estos apuntes s´lo se estudiar´ una de las clases o a consideradas en esta secci´n. es en sistemas n est´ticos y sistemas din´micos. Estos ultimos tienen ı ´ un particular inter´s pr´ctico cuando se emplean computadores puesto que estas e a m´quinas trabajan de una forma discreta. es decir tomando medidas cada cierto intervalo de tiempo. Se ha indicado en la secci´n 3. Los e a o sistemas que admiten esta forma de representaci´n reciben el nombre de sistemas o . En el primer caso se tienen los llamados sistemas en tiempo cont´nuo y en el segundo los sistemas en tiempo discreto. En esta secci´n se a n o van a considerar algunas formas matem´ticas de las relaciones que ligan a las a se˜ales u(t) e y(t) en tipos de sistemas com´nmente encontrados en la pr´ctica. n u a Sin embargo. a El caso m´s simple de relaci´n entre las se˜ales u(t) e y(t) es aqu´l en que ´sta se a o n e e reduce a una ecuaci´n alg´brica. Por una consideraci´n elemental de realizabilio e o dad f´ ısica es claro que en tal caso se podr´ escribir: a y(t) = F {u(t)} (3.3.3 Formas de las relaciones entrada-salida en sistemas. que un sistema est´ formado por las relaciones o a matem´ticas que ligan las se˜ales u(t) e y(t) que lo definen. Una posible primera clasificaci´n elemental de las o o relaciones que ligan a las se˜ales de entrada y salida de los sistemas.} es una funci´n uniforme.

que conducen a sistemas est´ticos.. Los sistemas l´gicos combinacionales. a o 3. al menos en una primera aproximaci´n.. y son aqu´llos en los que el valor que toma la se˜al de salida y(t).2 Sistemas din´micos a Normalmente las relaciones que ligan las magnitudes f´ ısicas que definen un sistema no son ecuaciones algebraicas. De ellas las que mayor inter´s tienen son. y ıa 2. sino ecuaa ciones diferenciales. Aqu´ se considerar´n exclusivamente las ecuaciones diferenciales de la forma. gran parte de los sistemas encono trados en la pr´ctica admiten esta forma de representaci´n. como la geometr´ euclidea es a las formas de geometr´ no-euclidea. ´ e a lo mismo sucede con la teor´ de los sistemas lineales. en la actualidad. o n los correspondientes de la se˜ales de salida. a o Cabe considerar que la teor´ de sistemas lineales es a la teor´ de sistemas noıa ıa lineales. + bn (t)u dtn dt dt (3. Para la representaci´n o matem´tica de los sistemas l´gicos combinacionales se recurre a tablas en las que a o se indican para cada combinaci´n posible de los valores de las se˜ales de entrada. constituyen un ejemplo de sistemas o est´ticos definidos por la propiedad de que las se˜ales de entrada u(t) y salida a n y(t) toman sus valores del conjunto finito U = Y = {0. ı a dn y dy dn u + . por e . ıa Otra relaci´n entre la entrada y salida de un sistema es la que presentan las o ecuaciones en diferencias finitas. Es ıa ıa sabido que la geometr´ eucl´ ıa ıidea es un util de un inter´s pr´ctico incuestionable. en un a e n cierto tiempo t depende exclusivamente del valor tomado por la se˜al de entrada n u(t) en dicho instante de tiempo t. y no de los valores tomados por u(t) en el pasado. una o teor´ que sea a la vez general y simple. Ello es debido a que la mayor parte de las leyes de la f´ ısica se expresan por medio de esta clase de ecuaciones. 1}. + an−1 + an (t)y = b0 (t) n + ... El hecho de limitarse a esta clase de ecuaciones diferenciales es debido a: 1.3. s´lo para esta clase de sistemas es posible establecer.Sistemas din´micos lineales a 40 est´ticos.5) llamadas ecuaciones diferenciales lineales. Desde un punto de vista matem´tico n a estas tablas constituyen una de las formas m´s simples de representar una funci´n.

6) Los sistemas descritos por las ecuaciones en diferencias finitas son sistemas en tiempo discreto.+bn−1 u(t+1)+bm u(t) (3. En dichos diao a o gramas se ten´ representada la evoluci´n de las se˜ales de entrada u(t) y de salida ıa o n y(t) de un sistema cuya caracter´ ıstica adicional es que las se˜ales de entrada y n de salida s´lo podr´ tomar sus valores de un conjunto finito.. Obs´rvese que los sistemas est´ticos pueden ı o a e a considerarse como una forma particular y degenerada de los din´micos por lo que a son estos ultimos los unicos que se consideran en lo que sigue. ´ ´ En estos apuntes no se tratar´n expl´ a ıcitamente.Sistemas din´micos lineales a 41 consideraciones semejantes a las realizadas m´s arriba respecto a las ecuaciones a diferenciales lineales. Sin embargo. Esta forma de relaci´n se presenta en aquellas aplicaciones en las que o se emplean computadores. por lo tanto. La forma de representaci´n de los sistemas din´micos por ecuaciones difero a enciales. no s´lo en el instante t o (como suced´ en los est´ticos).. que son la descripci´n externa o o y la descripci´n interna que se pasan a estudiar a continuaci´n. o por diagramas de estados reciben la denominaci´n de sistemas o din´micos y en ellos el valor tomado por la se˜al de salida y(t). Por ultimo cabe recordar como otra forma de relaci´n entre las se˜ales de ´ o n entrada y salida de un sistema la que ofrecen los diagramas de estados de los circuitos l´gicos secuenciales (o. y(t+n)+. no tiene inter´s pr´ctico para el e a desarrollo de la autom´tica. o por ecuaciones en diferencias finitas. sino en todos los instantes anteriores a t. De o ah´ la denominaci´n de din´micos.. los sistemas l´gicos secueno ciales. en un cierto a n instante de tiempo t depende del valor tomado por u(t). o ıan Los sistemas descritos por ecuaciones diferenciales. por ecuaciones en diferencias finitas. ello no se har´ aqu´ de forma expl´ e ı a ı ıcita.. de los aut´matas). o o . las ecuaciones en diferencias finitas lineales cuya forma general es. en los que la escala de tiempos toma s´lo una serie de valores o discretos. ıa a En ellos.+am−1 y(t+1)+am y(t) = b0 u(t+n)+. la consideraci´n del tiempo juega un papel esencial. m´s general. No obstante si ´stos son lineales son susceptibles de ser estudiados con las e t´cnicas aqu´ desarrolladas. Para el estudio de los sistemas din´micos se han dea a sarrollado dos formas peculiares de representaci´n.

Puesto que las se˜ales que definen un sistema din´mico son las de entrada u(t) y n a las de salida y(t) interesa disponer de una relaci´n explicita directa entre ambas. τ )u(τ )dτ (3. es decir una funci´n cuyo argumento lo constituye o el conjunto de valores tomados por u(t) en el intervalo (t0 .1 Respuesta impulsional. α2 son n´meros reales arbitrarios. a F (α1 u1 [t0 .4.8) es una forma de descripci´n externa de un sistema din´mico ya que o o a corresponde al caso de una funci´n l´ o ıneal. La respuesta impulsional de un sistema puede tener las siguientes propiedades: . o Esta relaci´n la suministra la descripci´n externa que se define por una funci´n o o o de entrada-salida F tal que hace corresponder al conjunto de valores tomados por la se˜al de entrada u en un cierto intervalo (t0 . la denominaci´n de principio de superposici´n. y(t) = F (u[t0 .7) en donde F (. t).5) es la siguiente: o y(t) = t −∞ h(t.4 Descripci´n externa de los sistemas din´mio a cos. Formalmente se puede escribir. t]) en donde α1 .Sistemas din´micos lineales a 42 3. Desde el punto de vista de la descripci´n externa un sistema din´mico lineal o a se define cono ´quel que cumple la propiedad de linealidad. Una forma de escribir la soluci´n a una ecuaci´n diferencial como la de la exo o presi´n (3. t).8) en donde h(t.) es un funcional. La expresi´n (3. o 3. t] + α2 u2 [t0 . el valor tomado por la salida n y(t) en el instante t. Esta propiedad recibe tambi´n. u e impropiamente. o o Habitualmente se emplean dos formas de descripci´n externa: la respuesta o impulsional y la funci´n de transferencia. τ ) recibe el nombre de respuesta impulsional del sistema. t]) (3. t]) + α2 F (u2 [t0 . t]) = α1 F (u1 [t0 . en virtud de la cual.

0) = h(t − τ ) Ejemplo: Sea el sistema din´mico descrito por la ecuaci´n diferencial. t1 ) . lo que se traduce en t→∞ lim h(t. o t −∞ y(t) = e−a(t−τ ) b u(τ )dτ En donde la respuesta impulsional h(t. a o dy + ay = bu dt En donde a y b son dos n´meros reales. τ ) = 0 3. La soluci´n de esta ecuaci´n de la u o o forma de la expresi´n (3. La respuesta impulsional admite un significado adicional muy preciso. Propiedad de causalidad o realizabilidad. Sup´ngase. τ ) = h(t − τ. Sup´ngase o un sistema con una sola entrada y una sola salida.Sistemas din´micos lineales a 43 1. τ ) = 0 para t<τ 2. que dicho o a sistema se somete a la siguiente se˜al de entrada: n u(t) = δ(t1 ) en donde δ(t) es la funci´n de Dirac. Propiedad de estabilidad. estabilidad y estacionaridad. lo que implica que h(t. es claro que cumple las propiedades de causalidad. en virtud de la cual un efecto no puede preceder a una causa. adem´s.8). en virtud de la cual el sistema es invariante con el tiempo. o y(t) = h(t. en virtud de la cual la estabilidad del sistema exige la convergencia de (3.8) es la siguiente. Propiedad de estacionaridad. En tal caso se tiene que. lo que se traduce en que h(t. τ ) = be−a(t−τ ) .

de dimensi´n p × m.2 Funci´n de transferencia.2: Respuesta Impulsional si el sistema no es estacionario o y(t) = h(t − t1 ) si el sistema es estacionario. De lo anterior se desprende que la respuesta impulsional de un sistema es determinable experimentalmente en la medida en que se pueda realizar f´ ısicamente una se˜al de entrada u(t) = δ(t).Sistemas din´micos lineales a 44 y(t) t Figura 3. o Para los sistemas lineales estacionarios existe una forma de descripci´n externa o muy empleada en la pr´ctica: la funci´n (matriz) de transferencia.2 se muestra la respuesta impulsional del sistema del ejemplo anterior.4. 3. cuando se aplica una entrada u(t) = δ(t) al canal j-esimo. siendo nulas el resto de las entradas. con m entradas y p salidas. la respuesta impulsional es una matriz. Es sabido que esta ultima no tiene n ´ significado f´ ısico. pero sin embargo se pueden concebir aproximaciones aceptables.j representa la o e respuesta del i-esimo canal de salida. En la figura 3. Debe a˜adirse que en la pr´ctica como realmente se miden las respuestas n a impulsionales es por las t´cnicas de correlaci´n que no se van a tratar aqu´ e o ı. Se puede a o . cuyo t´rmino hi. Para sistemas multivariables.

se tiene Y (s) = H(s) U (s) (3. s2 Y (s) + a1 sY (s) + a2 Y (s) = bU (s) Con lo que se tiene. n En la pr´ctica la funci´n de transferencia se determina directamente a partir a o de la ecuaci´n diferencial.8). o Para el caso de sistemas multivariables con m entradas y p salidas la funci´n de o transferencia se convierte en una matriz cuyo t´rmino Hij representa el cociente e . H(s) = ∞ 0 h(τ )e−τ s dτ (3. Ejemplo: Sea el sistema descrito por la ecuaci´n diferencial. Un punto muy importante a considerar es que esta o determinaci´n se hace suponiendo condiciones iniciales nulas para las se˜ales u(t) o n e y(t). respectivamente. o d2 y dy + a1 + a2 y = bu dt2 dt La transformada de Laplace de los distintos t´rminos de la ecuaci´n es la e o siguiente.9) Aplicando la transformaci´n de Laplace a la expresi´n (3.Sistemas din´micos lineales a 45 definir la funci´n de transferencia como la transformada de Laplace de la respuesta o impulsional de un sistema. las transformadas de Laplace de las se˜ales de entrada y salida. para el caso de o o un sistema estacionario. b Y (s) = H(s) = 2 U (s) s + a1 s + a2 es decir que la transformaci´n de Laplace de la respuesta impulsional es la o funci´n de transferencia.10) en donde Y (s) y U (s) son.

es la que une la se˜al de salida con la de o n informaci´n m(t).Sistemas din´micos lineales a 46 entre la transformada de Laplace de la se˜al de salida que se obtiene por el canal n i y la transformada de Laplace de la se˜al de entrada que se aplica al canal j. que es comparada con la de referencia. n supuestas nulas las otras se˜ales de entrada. Ambas se˜ales est´n relacionadas por n n a la expresi´n. Ambas se˜ales se o n relacionan as´ ı. e r(t) +  e Ed   d  E  d  d  − Tm u K E y(t) G(s) E H(s) ' Figura 3. n 3.5 Sistemas de control realimentados Un sistema de control realimentado se representa esquem´ticamente como se ina dica en la figura 3. .3: Sistema de Control realimentado • Cadena directa o de acci´n. o • Cadena de realimentaci´n. es la que une los elementos comprendidos o entre la se˜al de error y la de salida. o Y (s) = KG(s) E(s) siendo G(s) la funci´n de transferencia del sistema considerado.3. Sobre este esquema vamos a recordar una serie de conceptos que consideramos de inter´s.

3.4 y quedando la funci´n de transferencia en bucle cerrado o reducida a Y (s) KG(s) = R(s) 1 + KG(s) Naturalmente en este caso cadena de acci´n y bucle abierto son dos concepo tos coincidentes. como si la se˜al n de entrada fuese e(t) y la de salida m(t). n El valor de la ganancia K del amplificador ser´. En lo que sigue se supondra siempre que la cadena de realimentaci´n es o unitaria. en este caso. al sistema conectado como se indica en la figura 3. con lo que el esquema fundamental quedar´ de la forma que se a indica en figura 3. o el esquema se modifica de alguna manera. Y (s) KG(s) = R(s) 1 + KG(s)H(s) Obs´rvese que. es decir. Las se˜ales y(t) y r(t) se relacionan por la conocida f´rmula. la se˜al de actuaci´n sobre el sistema es proe n o porcional a la se˜al de error. al conjunto de elementos que constituyen todo el sistema. por tanto. un par´metro a a susceptible de ser variado de acuerdo con las necesidades del problema. Por el hecho de introducir una compensaci´n sobre el bucle antes mencionado. o • Se llama bucle abierto. Se trata pues de un control proporcional (P). como se muestra m´s adelante. Se a distinguen dos tipos de compensaci´n: o . f´cil de n o a deducir. si este se abriese por el punto m(t). La funci´n de transferencia del o conjunto as´ dispuesto ser´ ı ıa M (s) = KG(s)H(s) E(s) • Se llama bucle cerrado.Sistemas din´micos lineales a 47 M (s) = H(s) Y (s) En este caso H(s) es la funci´n de transferencia de la cadena de realio mentaci´n.

en a las figuras 3. o Los esquemas b´sicos para uno y otro caso se muestran.Sistemas din´micos lineales a 48 r(t) +  e d  Ed   E  d  d  − Tm u K E y(t) G(s) E Figura 3. y delante del o . la red correco tora se coloca en cascada con los elementos de la cadena de acci´n. o en la cadena de acci´n. respectivamente. en el bucle de control.5 y 3. r(t) +  e E E  −T m u Gr (s) E u K E y(t) G(s) E Figura 3. y o • Compensaci´n por realimentaci´n: Cuando el elemento corrector constituye o o una segunda cadena de realimentaci´n.4: Sistema de Control realimentado unitariamente • Compensaci´n en serie: Cuando el elemento corrector se coloca en cascada.5: Compensaci´n en serie o Como ya se ha indicado.6. en el caso de la compensaci´n en serie.

.Sistemas din´micos lineales a 49 r(t) +  e  d  Ed   Ed   d  E  d  d  d   d  T − T m u K E y(t) G(s) E Gr (s) ' Figura 3. bajo.6: Compensaci´n por realimentaci´n o o amplificador para que el nivel de potencia a que trabaje sea el del error. es decir.

.1 Transformaci´n de Fourier o Dada una funci´n del tiempo peri´dica fT (t) de periodo T . 1.. por lo que fT (t) queda definida mediante los m´dulos de los componentes arm´nicos o o 50 . se puede desarrollar o o en serie de Fourier.. bn = T /2 −T /2 fT (t)sen wn tdt n = 1.. 2. 2.. de la forma: ∞ fT (t) = a0 + (an cos wn t + bn sen wn t) n=1 donde wn = 2 T 2 T 2πn y los coeficientes vienen dados por: T T /2 −T /2 an = fT (t)cos wn tdt n = 0.Tema 4 Interpretaciones de la funci´n de o transferencia 4. supuesto que dichas integrales sean finitas. Los coeficientes an y bn son funciones de wn . . pero no del tiempo.

ahora bien. tomando como par´metros. o an cos wn t + bn sen wn t = an = ejwn t + e−jwn t ejwn t − e−jwn t + bn = 2 2j (an − jbn ) jwn t (an + jbn ) −jwn t e + e 2 2 y efectuando an´logas consideraciones con las integrales de definici´n de an y a o bn 1 an − jbn = 2 T T /2 −T /2 fT (t)e−jwn t dt . por agrupaci´n de las a o componentes en seno y coseno de igual frecuencia los valores: bn an cn = a 2 + b2 n n ϕn = tag −1 cada t´rmino puede expresarse como e an cos wn t + bn sen wn t = cn sen(wn t + ϕn ) Por lo tanto. pueden considerarse las relaciones. ejα + e−jα . 2 ejα − e−jα 2j cosα = senα = Entonces. volviendo a tomar las ecuaciones de definici´n. para definir fT (t) basta con especificar la amplitud y el desfase que corresponde a cada frecuencia fundamental: ∞ fT (t) = a0 + n=1 cn sen(wn t + ϕn ) Una vez que se ha mostrado como fT (t) queda completamente definida con a0 .Interpretaciones de la funci´n de transferencia o 51 que lo integran. cn y ϕn .

a Esta funci´n recibe el nombre de Transformada de Fourier de la funci´n temporal o o peri´dica fT (t): o T /2 −T /2 F (jwn ) = fT (t)e−jwn t dt Es inmediato ver que.Interpretaciones de la funci´n de transferencia o 52 an + jbn 1 = 2 T T /2 −T /2 fT (t)ejwn t dt Es decir an −jbn tiene una expresi´n id´ntica a an +jbn sin m´s que cambiar wn o e a 2 2 por − wn . finalmente. igual que cn y ϕn defin´ completamente fT (t). por lo que puede escribirse. puede escribirse 1 fT (t) = T ∞ n=−∞ T /2 −T /2 fT (t)e−jwn t dt ejwn t La cantidad entre corchetes representa una funci´n compleja que tiene como o par´metro el valor imaginario j wn . luego sustituyendo en el desarrollo en serie. el sumatorio tiende a la integral. para una funci´n o no periodica (Transformaci´n de Fourier o Integral de Fourier): o F (jw) = ∞ −∞ f (t)e−jwt dt . n por -n. con lo que basta una o magnitud compleja para cada frecuencia: fT (t) = Ahora bien. ∆wn → dw. toda vez que el tiempo desaparece al integrar. T → ∞. como 2πn . esto es. esta ıan funci´n queda completamente definida conociendo F (jwn ). T 1 fT (t) = 2π ∞ n=−∞ 1 T ∞ n=−∞ F (jwn )ejwn t wn = luego wn+1 − wn = 2π = ∆wn T F (jwn )ejwn t ∆wn Si se hace crecer el periodo indefinidamente.

Interpretaciones de la funci´n de transferencia o 53 f (t) = 1 2π ∞ −∞ F (jw)ejwt dw Supuesto que la integral de Fourier sea convergente. por ejemplo. para el escal´n unitario o 1 0 t>0 t<0 f (t) = u0 (t) = la convergencia resulta: ∞ −∞ | u0 (t) | dt = ∞ 0 dt = ∞ . en otros casos de inter´s tales como funciones de tipo polin´mico en t no e o son convergentes. por ejemplo. Tal es. y de inter´s especial. y aunque en muchos casos la Transformada de Fourier es suficiente. el caso de la funci´n o e−at t > 0 (a > 0) 0 t<0 f (t) = La convergencia est´ asegurada por: a ∞ −∞ t 0 | f (t) | dt = e −at −e−at dt = a ∞ = 0 1 <∞ a y la transformada: ∞ −∞ F (jw) = f (t)e−jwt dt = ∞ 0 e−(a+jw)t dt = 1 a + jw Sin embargo. para lo cual debe cumplirse la condici´n de convergencia absoluta o ∞ −∞ | f (t) | dt < ∞ Esta transformaci´n o integral de Fourier permite expresar de forma an´litica o a muchas funciones no peri´dicas. que no son expresables o e mediante series de Fourier.

H(jω) =| H | ϕ y(t) u(t) |H|A A t t ϕ Figura 4. e o dy + ay = bu dt . para un cierto valor de la pulsaci´n w. Este hecho se ilustra en la figura 4. ∞ 0 54 F (jw) = e−jwt dt = − e−jwt jw ∞ 0 que s´lo es convergente para w > 0.1. su m´dulo | H(jw) | y su argumento H(jw) representan o o precisamente la atenuaci´n y el desfase que sufre una se˜al sinusoidal de frecuencia o n f = 2π/w. o 4.Interpretaciones de la funci´n de transferencia o y la transformada.2 Funci´n de transferencia en el dominio de la o frecuencia Si en la funci´n de transferencia se hace s = jw ´sta se convierte en una expresi´n o e o compleja H(jw) que tiene la notable propiedad de que.1: Respuesta en frecuencia Ejemplo: Consid´rese el sistema descrito por la ecuaci´n diferencial.

o a Este m´todo consiste. y en la medida. en la aplicaci´n de se˜ales sinusoidales de e o n distintas frecuencias. en r´gimen estacionario. a la anterior se˜al de entrada es e n la soluci´n particular de la anterior ecuaci´n diferencial la cual se comprueba o o f´cilmente que es. De ah´ que la denominaci´n representaci´n frecuencial no sea del todo apropiada.Interpretaciones de la funci´n de transferencia o 55 sometido a una se˜al sinusoidal. o o a No debe. a b ejwt (jw) + a y(t) = Esta notable propiedad de la funci´n de transferencia es la que ha justifio cado el amplio uso de la misma en el an´lisis y dise˜o de servomecanismos y a n reguladores elementales. . Existen unos equipos comerciales. concebidos para realizar esta funci´n de medici´n de los sistemas din´micos. sencillamente. para cada una de ellas. de la atenuaci´n y o del desfase que sufren al atravesar el sistema. olvidarse que H(s) suministra informaci´n tanto sobre o el comportamiento en el dominio del tiempo (empleando las tablas de la transformada de Laplace) como de la frecuencia (gracias a la propiedad expuesta). N´tese que esta propiedad lleva impl´ o ıcito un m´todo e experimental de medida de la funci´n de transferencia de un sistema din´mico. denominados servoanalizadores. de pulsaci´n w y de amplitud unitaria. o ı o o en cualquier caso debe tomarse de forma matizada. La medida de la atenuaci´n y del o desfase suministran el m´dulo y el argumento de H(jw) para el valor de w correso pondiente. La n respuesta del sistema. sin embargo. Es n o sabido que esta se˜al se puede representar en forma compleja u(t) = ejwt .

La ecuaci´n (5.1 Introducci´n o Se denomina sistema lineal diferencial de primer orden de entrada u(t) y salida y(t) al sistema regido por una ecuaci´n diferencial de la forma o dy + ay = bu dt (5. En la pr´ctica se presentan m´ltiples sistemas que pueden ser representados a u por una ecuaci´n diferencial de primer orden. La ecuaci´n diferencial anterior o admite una soluci´n unica siempre que se fije el valor inicial de y(t). Este valor o ´ inicial se denotar´ en lo que sigue por ξ.2 se muestran las evoluciones de u(t) e y(t).1) establece que la pendia o ente de y(t) en cada instante de tiempo.Tema 5 Sistemas din´micos lineales de a primer orden 5.1) en donde a y b son dos constantes. denominadas coeficientes de la ecuaci´n. En la figura 5. En el apartado 5. e y(t) es otra se˜al n n o n denominada se˜al de salida del sistema. De hecho es una de las aproxo imaciones m´s sencillas que se pueden hacer del comportamiento din´mico de a a un sistema. es una combinaci´n lineal de los valores o que toma en este instante u(t) e y(t).3 se presentan distintos sistemas que pueden ser 56 . o u(t) es una se˜al denominada se˜al de entrada o excitaci´n.1. El conjunto se interpreta con un dian grama de bloques tal como el de la figura 5.

La soluci´n de esta ecuaci´n puede obtenerse por integraci´n directa o o o haciendo.Sistemas din´micos lineales de primer orden a representados por una ecuaci´n diferencial de primer orden.2) lo que constituye la parte homog´nea de la ecuaci´n diferencial de primer orden e o de (5.2.2 Soluci´n de la ecuaci´n diferencial de primer o o orden Para el estudio de la soluci´n de la ecuaci´n diferencial de primer orden. o ln y(t) − ln y(0) = −at . o 57 u(t) y(t) Figura 5.1). conviene o o distinguir dos casos: 5.1 Se˜ al de entrada nula n En el supuesto de que la se˜al de entrada u(t) sea nula para todo t. la ecuaci´n n o diferencial de primer orden se convierte en dy = −ay dt y(0) = ξ (5.1: Sistema de primer orden (1) 5. dy = −a dt y cuya integraci´n conduce a.

Sistemas din´micos lineales de primer orden a 58 u u(t) t y dy(t) dt y(t) t ξ Figura 5.2: Sistema de primer orden (2) .

negativa o positiva. Las figuras 5. Estas figuras muestran c´mo o se comporta un sistema en ausencia de excitaci´n. respectivamente. puede escribirse. y(t) ξ t Figura 5.1).4 muestran la forma general de la evoluci´n de yh (t) seg´n o u que a sea. con e o a lo que la ecuaci´n (5.2 Se˜ al de entrada no nula n Se trata de resolver la ecuaci´n diferencial (5.1) se convierte en o dy + ay = v dt (5. Aparece una clara distinci´n o o entre dos formas de comportamiento que permiten una primera clasificaci´n de o los sistemas en estables o inestables.3: Primer orden divergente 5.3) .2.Sistemas din´micos lineales de primer orden a lo que. Para simplificar la notaci´n se escribir´ v(t) = b0 u(t).3 y 5. yh (t) = ξe−at 59 El sub´ ındice h se refiere a que esta soluci´n lo es de la parte homog´nea de o e (5.1) en el caso en que u(t) no sea o id´nticamente nula. teniendo en cuenta que y(0) = ξ. seg´n que la evoluci´n libre de los mismos u o tienda a una estado de reposo o no.

y es que las condiciones iniciales para w(t) son 0. . Es decir.2). y(t) = yh (t) + w(t) (5. o d(yh + w) + a(yh + w) = v dt es decir. dyh dw + ayh + + aw = v dt dt w(0) = ξ − yh (0) yh (0) + w(0) = ξ que.3) resulta.4) lo que llevado a la ecuaci´n (5. o pero con una notable diferencia.5) Por lo tanto la ecuaci´n diferencial que satisface w(t) es exactamente la (5. o dw +aw =v dt w(0) = 0 (5.3). se supone que y(t) o o se descompone en. se puede escribir. habida cuenta de la expresi´n (5.Sistemas din´micos lineales de primer orden a 60 y(t) ξ t Figura 5.4: Primer orden convergente Se trata de determinar qu´ funci´n w(t) debe sumarse a la soluci´n homog´nea e o o e yh (t) para obtener la soluci´n de la ecuaci´n (5.1).

ante una se˜al de entrada nula m´s la n a respuesta del sistema a la se˜al de entrada u(t) a partir del reposo. con las cuales se puede demostrar directamente de una forma muy sencilla la expresi´n (5.1) ante una se˜al de o n entrada u(t) viene dada por.2.6). o a a es de esta ultima forma como se procede. Sin embargo para un planteamiento ´ te´rico m´s general. 5.3 Respuestas a se˜ ales de entrada especiales n Se discuten a continuaci´n las respuestas de un sistema diferencial lineal de primer o orden a se˜ales de entrada que presentan especial inter´s en las aplicaciones como n e son las se˜ales en escal´n. o dw = −a e−at dt t o eaζ v(ζ)dζ + e−at d dt t o eaζ v(ζ) dζ = −a w + v Combinando los anteriores resultados se tiene que la respuesta de un sistema regido por una ecuaci´n diferencial lineal de la forma (5.6) En efecto. en las aplicaciones pr´cticas. en rampa y sinusoidal. Adem´s sustia tuyendo la expresi´n (5. n o . en primer lugar es inmediato ver que w(0) = 0. a partir del valor inicial y(0). Adem´s. w(t) = e−at t o eaζ v(ζ)dζ (5.5) se tiene que. y(t) = e−at ξ + e−at t o eaζ b u(ζ) dζ (5. Es f´cil ver n a que w(t) viene dada por.Sistemas din´micos lineales de primer orden a 61 Es decir.4) diciendo que la o o respuesta y(t) de un sistema din´mico lineal a una se˜al de entrada u(t) a partir a n de un valor inicial y(0) puede considerarse como la suma de la respuesta del sistema.6) en la (5. conviene desarrollar el estudio de los sistemas lineales como o a se ha hecho anteriormente. la se˜al w(t) constituye la respuesta del sistema ante la se˜al de entrada n n u(t) a partir del reposo.7) A este mismo resultado se puede llegar empleando las t´cnicas basadas en e la transformada de Laplace. La discusi´n anterior permite interpretar la expresi´n (5.

5 se representa una se˜al de entrada de esta forma. u = 1. o a b at b (e − 1) = e−at ξ + (1 − e−at ) a a y(t) = e−at ξ + (5.5: Entrada en escal´n o En la figura 5. si en dicho instante se somete el sistema a una variaci´n o brusca de la se˜al de entrada permaneciendo ´sta en un valor u(t) = constante.Sistemas din´micos lineales de primer orden a Se˜ al de entrada en escal´n n o 62 Se dice que un sistema se somete a una se˜al de entrada en escal´n en el n o instante inicial t = 0. se tendr´.6: Respuesta al escal´n o . Si se supone n y(0) = ξ. y teniendo en cuenta la expresi´n (5. o y ξ t Figura 5.8) u t Figura 5.6 se representa la respuesta de un sistema lineal de primer orden a una entrada en escal´n. n e En la figura 5.7).

En efecto.1). Si se supone adem´s. n a K A B = + s(1 + τ s) s 1 + τs Y (s) = Las constantes A y B resultan ser: K (1 + τ s) K s A= =K s=0 y B= 1 s=− τ = −Kτ con lo que se tiene Y (s).10) puede obtenerse de una forma m´s sencilla empleando la a transformada de Laplace. y puesto que la transformada de o Laplace de una se˜al escal´n es: n o 1 s U (s) = se tiene que la de la se˜al de salida ser´.Sistemas din´micos lineales de primer orden a 63 Para estudiar la respuesta en el tiempo de un sistema lineal de primer orden a una entrada en escal´n.9) en donde τ = 1/a y K = b/a. La constante τ que tiene una dimensi´n de tiempo. y(t) = L−1 [Y (s)] = K(1 − e−t/τ ) . es interesante escribir la ecuaci´n diferencial de primer o o orden de la forma siguiente: τ dy + y = Ku dt (5. El resultado (5. que ξ = 0 a se tendr´ que la expresi´n (5. para simplificar.10) La constante K recibe la denominaci´n de ganancia est´tica del sistema. o a puesto que representa la relaci´n entre la se˜al de salida (y(t)) y la se˜al de o n n entrada (u(t)) para t → ∞. la ecuaci´n diferencial de un sistema de o primer orden viene dada por la expresi´n (5.8) se puede escribir. a o y(t) = K(1 − e− τ ) t (5. cuya antitransformada de Laplace resulta ser. o se llama constante de tiempo del sistema.

4 0.6 2. dy K (0) = dt τ (5.9 0.1) o 64 En la figura 5.3 0.8 3. es decir.6 y(t)/K 0.11) lo cual puede interpretarse tal como se hace en la figura 5. En efecto de la expresi´n (5. Existe una relaci´n entre la constante de tiempo y la tangente y(t) en el origen. .4 0.12) (5.0 0.0 Figura 5.7 0.8 1.1 0.8 0. o 1.Sistemas din´micos lineales de primer orden a es decir la expresi´n (5.2 1.0 0.2 0.8. La constante de tiempo τ caracteriza la velocidad de respuesta del sistema.5 0.0 0. o dy K −t = e τ dt τ haciendo t = 0 se tiene. 1.2 3.6 4. la duraci´n del r´gimen transitorio.7: Respuesta a un escal´n unitario de un sistema de primer orden de o ganancia K y de constante de tiempo τ .4 2.637 0.0 1/τ 2. Ello se pone de evidencia por las dos o e consideraciones siguientes.7 se representa la respuesta a una entrada en escal´n de un o sistema de primer orden de ganancia K y constante de tiempo τ . Recu´rdese e que se ha hecho u = 1.10) se tiene.

haciendo t = τ se tiene que la constante de tiempo es el tiempo al cabo del cual la se˜al de respuesta alcanza la fracci´n n o 1− del valor final (figura 5.9) 1 2 ≈ 0.64K τ Figura 5.632 ≈ e 3 K 0.8: Relaci´n constante amplificaci´n y tang.Sistemas din´micos lineales de primer orden a 65 K α tgα = K τ τ Figura 5.9: Relaci´n constante de tiempo y amplificaci´n o o . o o 2.

o Se˜ al de entrada en rampa n Sup´ngase una se˜al de entrada en rampa. En efecto.2% del valor alcanzado por el sistema en r´gimen estacionario.7 el valor de la constante de tiempo τ o se determina midiendo la abscisa correspondiente a la ordenada que sea el 63. o τ2 τ3 τ3>τ2 Figura 5. La constante est´tica e a K es sencillamente el cociente entre el valor alcanzado por la respuesta en r´gimen e estacionario y la amplitud de la entrada en escal´n. es decir. u = ωt.13) esta ultima expresi´n introduciendo la ganancia K y la constante de tiempo ´ o . De acuerdo a a con la expresi´n (5. tal como la que se representa en la figura 5. Se supondr´ adem´s.7) se tiene que. la determinaci´n o o de los par´metros K y τ que aparecen en la ecuaci´n diferencial (5. para simplificar.7 se tiene que la respuesta de un sistema de primer orden en una entrada en escal´n alcanza su valor final con un error menor del 5 o % para un tiempo ≈ 3τ .10 se representan las se˜ales de respuesta a una entrada en n escal´n para distintos sistemas lineales con diferentes constantes de tiempo.9).10: Diferentes constantes de tiempo En la pr´ctica se presenta el problema de determinar el modelo matem´tico a a de un sistema a partir del conocimiento de la respuesta del sistema a una entrada en escal´n. En el caso de un sistema de primer orden. o y(t) = wbe−at t o eaτ τ dτ = wb a t− 1 e−at + a a (5. resulta a o extremadamente sencilla a partir de la respuesta del sistema a una entrada en escal´n. En la figura 5. una se˜al de entrada o n n cuyos valores crecen lineal con el tiempo. de acuerdo con la figura 5. que ξ = 0.11.Sistemas din´micos lineales de primer orden a 66 Observando la figura 5.

14) se observa que el tercer t´rmino del par´ntesis del o e e segundo miembro tiende a cero cuando el tiempo tiende a infinito. Este t´rmino e . para el caso de una entrada en rampa. puede escribirse.11: Entrada en rampa U (s) = con lo que .14).Sistemas din´micos lineales de primer orden a τ . a En la expresi´n (5. A1 = A2 = B = ωK 1 0! (1 + 2s) = wK s=0 ω s2 s2 (1 ωK A1 A2 B = 2 + + + τ s) s s 1 + τs 1 d ωK 1! ds (1 + τ s) ωK s2 1 s=− τ = −τ ωK s=0 = ωKτ 2 de donde se desprende que y(t) tendr´ la forma (5. En efecto. se tiene u u = ωt t Figura 5. Y (s) = siendo.14) Este mismo resultado se puede obtener con ayuda de la transformada de Laplace. 67 y(t) = wK(t − τ + τ e− τ ) t (5.

12 se interpreta este resultado.Sistemas din´micos lineales de primer orden a 68 constituye el r´gimen transitorio de la respuesta total. Este error n e recibe la denominaci´n de error de arrastre. o u(t) ωτ y(t) u(t1 − τ ) y(t1 ) τ Figura 5. la respuesta en r´gimen permanente ser´. en el instante t la salida es igual a la entrada en el instante t − τ . Una vez desaparecido el e r´gimen transitorio.16) (5. e e a yrp (t) = ωK(t − τ ) Para interpretar esta respuesta cabe distinguir dos casos: 1. n . En la figura 5. En tal caso se tiene que la respuesta viene dada por yrp = ω(t − τ ) (5. que el sistema ha respondido s´lo en un tercio del valor alcanzado o por la se˜al de entrada. K = 1. El error en r´gimen permanente es igual a ωτ .12: Respuesta a rampa. En la figura 5. Se observa en o esta figura c´mo la se˜al de salida se encuentra retardada con respecto a la o n se˜al de entrada. Respecto al r´gimen transitorio se tiene que para t = τ e y(τ ) = Kωτ Kωτ ≈ e 3 (5.15) es decir.12 se representa la expresi´n (5.17) es decir.14) para K = 1. La salida se encuentra retardada τ segundos con respecto a la entrada.

K = 1. Las o n lecturas del term´metro.13: Respuesta arm´nica. Figura 5.7). 2. el primer t´rmino e del segundo miembro se anula.Sistemas din´micos lineales de primer orden a 69 La consideraci´n del error de arrastre en la respuesta de un sistema de o primer orden. de acuerdo con la expresi´n (5. se n tiene que la respuesta del sistema. es sumamente importante en ciertos casos como por ejemplo cuando el sistema en cuesti´n es un aparato de medida.2. viene dada o por wb b (a senw t − w coswt) − 2 2 +w a + w2 y(t) = e−at ξ + a2 (5. por lo que el error de arrastre se hace infinito. 5. es decir un tiempo suficientemente grande. Se supone que o la temperatura var´ linealmente con la altura. Sup´ngase un o o globo en el que se encuentra un term´metro de mercurio. o Para t → ∞. presentan un o u error de arrastre. por lo que la respuesta en r´gimen permanente e resulta ser . es decir. seg´n las consideraciones anteriores. u = senωt y suponiendo ξ = 0.18) En la figura 5. La salida y entrada divergen.13 se muestra una forma t´ ıpica de esta respuesta. se tiene entonces que el ıa term´metro se encuentra sometido a una se˜al de entrada en rampa.4 Respuesta arm´nica o Si la se˜al de entrada es sinusoidal.

es otra se˜al sinusoidal de la misma frecuencia n n cuya amplitud ha variado en una relaci´n Y .22) (5.20) a2 a2 con lo que 5.23) (5. o Tanto la relaci´n de amplitudes Y como el desfase ϕ. Existen otras formas de representar gr´ficamente la respuesta en frecuencia a de un sistema lineal que ser´n estudiadas m´s adelante.15 e a se representa la respuesta en frecuencia correspondiente a un sistema lineal de primer orden. o a cosϕ = √ a + w2 senϕ = − √ w + w2 (5.Sistemas din´micos lineales de primer orden a 70 yrp (t) = a2 b (a senwt − w coswt) + w2 (5. y que ha adquirido un desfase ϕ.14 se representa Y (ω) y ϕ(ω). la repron n ducci´n de la misma a la salida ser´ muy fiel si la constante de tiempo del sistema o a es suficientemente peque˜a. si la constante de tiempo del sistema es n . tagϕ = −w/a = −wτ b K Y = √ 2 =√ 2 a +w 1 + τ 2 w2 (5. En la figura 5.21) La expresi´n (5. En la figura 5. a a Filtrado con un sistema lineal.19 puede escribirse. y(t) = Y sen(wt + ϕ) siendo. El lugar est´ graduado en frecuencias reducidas (normalizadas) a u = ωϕ. Otra forma de representar gr´ficamente la respuesta en frecuencia de un sisa tema lineal es por medio de un diagrama polar en el que se representa vectores cuyos m´dulos y argumentos son respectivamente Y (ω) y ϕ(ω). Haciendo variar o ω se obtiene un lugar geom´trico.21) puede interpretarse diciendo que la respuesta de un siso tema lineal a una se˜al sinusoidal.19) Esta expresi´n se puede escribir de una forma m´s sencilla haciendo. Es decir. Si la se˜al de entrada a un sistema lineal es una se˜al arbitraria. en el que ω es el par´metro. son funci´n de la frecuencia o o angular w de la entrada.

8 1.4 1. .0 ω 1.6 0.0 Figura 5.6 1.4 0.1 0.14: Amplitud y fase.0. ω=∞ ϕ Y ω=0 Figura 5.2 1.15: Respuesta en frecuencia.0 -10 -30 Fase(grados) -50 -70 -90 -110 -130 0.4 0.6 0.0 ω 1.0 0.8 71 2.2 0.7 0.0 0.8 2.0 0.2 1.3 0.6 0.4 1.8 0.9 Relacion de Amplitudes Sistemas din´micos lineales de primer orden a 0.4 0.8 1.2 0.2 0.5 0.6 1.

a n De hecho. . la respuesta del sistema es lenta. o n Se puede dar del mismo una interpretaci´n en el dominio de la frecuencia similar o a la dada m´s arriba para el caso de una constante de tiempo peque˜a.16 ilustra este hecho.17 est´ regido por una ecuaci´n difera o encial de la forma L dI E +I = R dt R e • Circuito el´ctrico LR. n τ pequeño a) τ grande b) Figura 5. el concepto de filtrado de una se˜al es enormemente importante y n lo unico que se ha hecho hasta aqu´ ha sido introducirlo.16: Filtrados. por lo que el sistema no puede seguir las variaciones r´pidas de la se˜al a n de entrada resultando de ello que ´stas desaparecen de la se˜al de salida. El e n sistema act´a como limando las asperezas de la se˜al de entrada. a a n Lo que a su vez se puede interpretar en el dominio de la frecuencia diciendo que la constante de tiempo sea lo suficientemente peque˜a como para que el ancho de n banda sea lo suficientemente grande para permitir el paso de todos los arm´nicos o de la se˜al de entrada. La figura 5.3 Ejemplos de sistemas de primer orden El circuito representado en la figura 5.Sistemas din´micos lineales de primer orden a 72 menor que las m´s r´pidas variaciones que se produzcan en esta se˜al de entrada.13). Por el contrario si la constante de tiempo es grande.16 u n ilustra este hecho que recibe la denominaci´n de filtrado de la se˜al de entrada. a 5. La figura 5. ilustrando una forma de ´ ı comportamiento de los sistemas din´micos lineales de primer orden. (recordar la figura 5.

la tensi´n aplicada al sistema y la se˜al de n o n salida a la intensidad que recorre el circuito. • Circuito el´ctrico RC.18 es un circuito cl´sico de carga de un condensador a a trav´s de una resistencia. C q(t) Figura 5. puesto que Q/E es. R C E q E(t) R. La ganancia est´tica es 1/R y la constante de tiempo es L/R. e El circuito de la figura 5. a L R E Figura 5. La constante de tiempo es RC. en r´gimen permanente. la a e capacidad del condensador. siendo la ecuaci´n diferencial que rige el proceso e o la siguiente: RC dq + q = CE dt La ganancia est´tica es C. .17: Circuito RL.18: Circuito RC. o • Term´metro de mercurio. se tiene un sistema de primer orden.Sistemas din´micos lineales de primer orden a 73 considerando la se˜al de entrada.

Sistemas din´micos lineales de primer orden a 74 Un term´metro puede considerarse como un sistema en el que la se˜al de o n entrada u es la temperatura del medio en el que se encuentra inmerso y la se˜al de salida y. e como corresponde a un sistema de medici´n. o • Reacci´n qu´ o ımica. dQ = k(u − y) dt Se concluye de las dos ecuaciones anteriores que un term´metro de mercurio o puede considerarse como un sistema lineal de primer orden. Sup´ngase la descomposici´n espont´nea de una mol´cula A en dos mol´culas o o a e e B y C: A → B+C la cual se efect´a de manera que la velocidad de reacci´n es proporcional al u o n´mero de mol´culas A presentes.19: Term´metro de mercurio. o a Temperatura indicada (y) Temperatura (u) Figura 5. u e . Obs´rvese que. se tendr´ que a dy dQ =C dt dt Por otra parte el flujo de calor´ que entra en el mercurio se aporta fundaıas mentalmente por conducci´n. Si se denota n por Q la cantidad de calor intercambiada entre el medio y el term´metro. es la temperatura indicada por el mismo. o y por C la capacidad calor´ ıfica de la ampolla. De acuerdo con la ley de Newton es aproxio madamente proporcional a la diferencia de temperatura entre el medio y el mercurio. la ganancia est´tica es k = 1.

.Sistemas din´micos lineales de primer orden a Si se denota por y la concentraci´n de la sustancia A.20: Dinam´metro o Seg´n las leyes de la Mec´nica se tiene u a u = ky + α dy dt Por lo tanto un dinam´metro es un sistema de medida lineal de primer o orden. α u k Figura 5. se tiene o − es decir. o Se trata de medir la fuerza u por el desplazamiento y que imprime a un dinam´metro de coeficiente de elasticidad k y de coeficiente de viscosidad o α. El par´metro k se denomina por los qu´ a ımicos constante de velocidad de la reacci´n. • Dinam´metro. figura 5. y en la pr´ctica presenta una gran dependencia de o a la temperatura.20. 1 dy +y =0 k dt dy = ky dt 75 Se trata de un sistema lineal de primer orden aut´nomo de constante de o tiempo 1/k.

El par motor supuesto el flujo φ constante.21) en el que se contiene una masa m del o l´ ıquido que contiene una fracci´n Cr de un componente A. 76 Sup´ngase un recipiente (figura 5.21: Mezcla de Fluidos. es decir. viene dado por . • Motor el´ctrico de corriente continua. Se trata por lo tanto de un sistema de primer orden. con lo que a la masa contenida en el recipiente es constante. Ce Q dt = Cr Q dt + M dCr es decir. a que la composici´n es la misma en todo instante en todo el recipiente.Sistemas din´micos lineales de primer orden a • Mezcla de dos fluidos.22. Es f´cil ver que en estas a condiciones se tiene. M dCr + Cr = Ce Q dt Ce M Cr Cr Figura 5. Se o supone adem´s que el flujo de entrada es igual al de salida. Se supone que la mezcla es instant´nea. e Sup´ngase el motor el´ctrico de corriente continua cuyo diagrama se ha o e representado en la figura 5. y sup´ngase que o o el recipiente se alimenta por un caudal Q de un l´ ıquido en el que la fracci´n o de componente A es Ce .

1. a o P =J dω + Bω dt R L Φ ω J B Figura 5. considerando como se˜al de entrada la tensi´n aplicada al inducido n o y como se˜al de salida la velocidad de giro del motor. J dω φ φ + (B + kK )ω = k u dt R R es decir.22: Motor el´ctrico. e De las tres ecuaciones anteriores se obtiene. se tiene un sistema n de primer orden. est´n relacionadas por la siguiente ecuaci´n. 5. est´n ligados por la ecuaci´n. Esta misma ecuaci´n o o puede escribirse tambi´n de la forma siguiente: e .Sistemas din´micos lineales de primer orden a 77 P = kφ I Por otra parte la intensidad I de inducido y la tensi´n que alimenta al o inducido u (se˜al de entrada).4 El sistema de primer orden como integrador En los apartados anteriores se ha considerado un sistema lineal de primer orden como el regido por una ecuaci´n diferencial de la forma 5. n a o u = RI + L dI + Kω dt De acuerdo con las leyes de la Mec´nica el par motor P y la velocidad de a salida del motor ω.

y es por ello o a o que en cualquier caso el planteo por ecuaciones diferenciales es m´s frecuente que a el que aqu´ se presenta. mientras que la diferenciaci´n es enormeo mente m´s artificiosa. La parte est´tica puede ser no lineal.Sistemas din´micos lineales de primer orden a 78 y(t) = y(0) + t 0 (bu − ay)dt (5. En la figura 5. sin que por a a ello se alteren las anteriores consideraciones. que la resoluci´n de una a o ecuaci´n diferencial es m´s simple que la de una ecuaci´n integral. .23 se tiene representado un esquema en el que se distinguen la parte est´tica del integrador. Esta manera de interpretar el funcionamiento de un sistema lineal de primer orden. es m´s intuitiva desde un punto de vista f´ a ısico por cuanto que en la naturaleza es m´s f´cil interpretar los procesos en t´rminos de integraciones que de a a e diferenciaciones.23: Integrador. No debe olvidarse sin embargo. De hecho la integraci´n (acumulaci´n) es un proceso normal del o o que es muy sencillo encontrar ejemplos. ı u K + - 1 τS y Figura 5.24) La consideraci´n de esta segunda forma de escribir la ecuaci´n que rige el o o comportamiento de un sistema lineal de primer orden es sumamente interesante. por cuanto que su sentido f´ ısico es m´s claro.25) • Los valores de f determinados para cada instante de tiempo t se van acumulando (integrando) dando con ello lugar a la variable de salida y. La acci´n del sistema puede dea o scomponerse en dos partes: a • Una parte est´tica (sin memoria) en la que se determina f = bu − ay (5.

La o complejidad de tratamiento algebraico que esto requiere es grande.1) En lo que sigue se considerar´ unicamente el caso en que b0 = 0 y b1 = β. En esta secci´n se puede hacer un desarrollo completamente o paralelo al realizado en la secci´n anterior para los sistemas de primer orden. y es por ello por lo que se va a estudiar sencillamente los casos simplificados que ofrecen mayor inter´s pr´ctico.1 Definici´n o Se define un sistema lineal de segundo orden como el regido por una ecuaci´n o diferencial de la forma. y como primera hip´tesis simplificadora. e a En este sentido. d2 y dy du + a1 + a2 y = b0 + b1 u 2 dt dt dt (6. a ´ dej´ndose para m´s adelante el estudio del caso general.Tema 6 Sistemas din´micos lineales de a segundo orden y de orden y superior 6. Para que la soluci´n est´ o o e completamente determinada se requiere el conocimiento de los valores iniciales de y(t) y de dy/dt. se va a suponer o 79 . a a El problema del estudio de un sistema de segundo orden queda reducido a la resoluci´n de la anterior ecuaci´n diferencial cuando la se˜al de entrada u(t) o o n se particulariza en una cierta funci´n del tiempo.

5) Esta forma es especialmente util cuando se trata con sistemas cuyas raices de ´ la ecuaci´n caracter´ o ıstica son complejas.Sistemas din´micos lineales de segundo orden y de orden y superior a siempre que se trabaja con unas condiciones iniciales nulas. o a o a • El par´metro k recibe la denominaci´n de ganancia est´tica. Los par´metros que intervienen en esta a forma reciben una denominaci´n especial. • El par´metro ωn recibe el nombre de frecuencia propia no amortiguada y a se expresa en radianes por segundo.4) Otra forma frecuente de escribir la ecuaci´n diferencial de un sistema de seo gundo orden es la siguiente. y es un a n´mero sin dimensiones.5) son las siguientes. • El par´metro δ recibe el nombre de factor de amortiguamiento. y es una constante que carece de dimensiones.3) la cual se puede escribir tambi´n. 80 La ecuaci´n diferencial de un sistema de segundo orden que se va a considerar o aqu´ es.2) con los de la forma a (6. (r + p1 ) (r + p2 ) = 0 (6. . de la forma siguiente.2) + a1 2 dt dt La ecuaci´n caracter´stica de un sistema de segundo orden se define como: o ı r2 + a1 r + a2 = 0 (6. u Las relaciones que ligan a los par´metros de la forma (6. ı d2 y dy + a2 y = β u (6. d2 y dy 2 2 + 2 δ ωn + ωn y = ωn k u(t) dt2 dt (6. en el supuesto de que sus raices sean −p1 y e −p2 .

y siendo p1 y p2 las raices de la ecuaci´n caracter´ o ıstica. normalmente. positivos. las expresiones 6. a Una ecuaci´n diferencial de orden n puede descomponerse en n ecuaciones o diferenciales de primer orden. sin m´s a .7. introduciendo las variables adicionales x1 y x2 .10 es de la misma forma de la 5.9) Para comprobar este resultado basta proceder por sustituci´n.11) (6.7) (6. x = Ax + Bu ˙ y = Cx en donde A= −p1 0 0 −p2 B= 1 1 C = [c1 c2 ] (6. o o con la diferencia de que mientras all´ se trataba con escalares aqu´ se trata con ı ı vectores y matrices.Sistemas din´micos lineales de segundo orden y de orden y superior a 81 ωn = 1 a2 k= β 2 ωn δ= a1 2ωn (6. M´s adelante se estudiar´ el procedimiento general que permite a a este tipo de descomposiciones. x1 = −p1 x1 + u ˙ x2 = −p2 x2 + u ˙ y = c1 x1 + c2 x2 siendo c1 = (6. Aqu´ se va a estudiar el caso ı n = 2.6) Los par´metros k. es f´cil ver que una ecuaci´n diferencial de segundo a o orden del tipo 6.8) β p2 + p1 y c2 = β p1 − p2 (6.10) La ecuaci´n diferencial de la expresi´n 6.8 y 6.9 pueden escribirse a de la forma siguiente. Este es un resultado conocido que por otra parte ser´ estudiado con detalle en un cap´ a ıtulo posterior.2 se puede escribir. lo que se invita o a hacer al lector.1. 6. ωn y δ son. Empleando el c´lculo matricial. puede generalizarse al de los sistemas de segundo orden. el desarrollo realizado al estudiar los sistemas de primer orden. Por lo tanto.

u ´ La respuesta de un sistema de segundo orden ante una se˜al de entrada u(t).13) La entrada en escal´n es constante desde t = 0 hasta infinito.1.12) En esta expresi´n aparece la exponencial eAt .14) A partir del concepto de funci´n de una matriz diagonal se puede escribir. pueden ser obtenidas de forma an´loga a a como se obtiene la respuesta a una entrada en escal´n.15) . a y(t) = CeAt ξ + t 0 e−Aζ B u(ζ) dζ (6. a u(ζ) = u = const (6. a A partir de la expresi´n 6. vendr´ dada por.12 se tendr´. o ep1 t 0 0 ep2 t e−At = (6.Sistemas din´micos lineales de segundo orden y de orden y superior a 82 observaci´n que tener presente que la diferencia b´sica que existe entre el ´lgebra o a a de los n´meros reales y la de las matrices.1 Respuesta de un sistema de segundo orden a una entrada en escal´n o Se supondr´ que las condiciones iniciales son nulas. ξ = 0. cuyo significado ser´ discutido o a m´s adelante. es que esta ultima no es conmutativa. por ser la que m´s inter´s tiene desde o a e un punto de vista pr´ctico.12 se puede estudiar la respuesta de un sistema o de segundo orden ante distintos tipos de se˜ales de entrada. A partir de la expresi´n a o 6. La respuesta para otro tipo de entradas. n a partir del estado x(t). Por lo tanto se o tendr´ que. a y(t) = C eAt t 0 e−Aζ B u(ζ)dζ (6. o 6. tal como se hizo n anteriormente para los sistemas de primer orden. En lo que sigue se estudiar´ exclusivamente la respuesta de un sistema de a segundo orden a una entrada en escal´n. como la a entrada en rampa o la entrada sinusoidal.

18) Si se escribe la ecuaci´n diferencial de segundo orden en la forma dada por la o expresi´n 6.17) y= βu βu (1 − e−p2 t ) (1 − e−p1 t ) + p1 (p2 − p1 ) (p1 − p2 )p2 Haciendo.8 se tiene.16) Recordando la expresi´n 6.19) Obs´rvese que. t 0 u − p1 (1 − ep1 t ) u − p2 (1 − ep2 t ) 83 e−Aζ B u(ζ) dζ = (6. de o acuerdo con la expresi´n 5. e β β β − e−p1 t − e−p2 t p1 p2 (p2 − p1 )p1 p2 (p1 − p2 ) y(t) = (6. sin p´rdida de generalidad. o y(t) = C1 u u (1 − e−p1 t ) + C2 (1 − e−p2 t ) p1 p2 (6.20) Este mismo resultado se puede alcanzar con mayor sencillez operativa empleando la transformada de Laplace. e 2 p 1 p 2 = ωn 2 β = ωn p2 − p1 = 2ωn √ δ2 − 1 (6. En efecto.2. se tiene que. se puede escribir.Sistemas din´micos lineales de segundo orden y de orden y superior a con lo que se tiene.5 se tendr´ que las raices de la ecuaci´n caracter´ o a o ıstica p1 y p2 vendr´n a dadas por: √ p1 = −δωn − ωn δ 2 − 1 √ p2 = −δωn + ωn δ 2 − 1 (6. teniendo en cuenta que la transformada de Laplace de una entrada en escal´n es U (s) = 1/s. u = 1 y tras una serie de manipulaciones e alg´bricas. la transformada de Laplace de la salida y(t) resulta o 1 s 2 ωn 2 s2 + 2δωn s + ωn Y (s) = .

1: Respuesta sistema de segundo orden .Sistemas din´micos lineales de segundo orden y de orden y superior a 84 1 u(t) y(t) a) ωn t 1 u(t) y(t) b) ωn t 1.38 1 y(t) u(t) c) ωn t 3.3 Figura 6.

18 teniendo en cuenta las expresiones 6. se tiene: p1 = ωn e−jα p2 p1 = 2ωn jsenα (6.2 se representa la situaci´n de las raices p1 y p2 en el plano complejo. e−δωn t y(t) = 1 − √ sen (ω0 t + ϕ) 1 − δ2 siendo. o La consideraci´n del ´ngulo α.Sistemas din´micos lineales de segundo orden y de orden y superior a cuya antitransformada de Laplace resulta ser. 1. En la figura 6.20 se tiene o que. empleando en las mismas el ´ngulo a α.1 se representa la forma general de o esta respuesta. con factor de amortiguamiento mayor que la unidad. √ (6. δ < 1.19 y 6. Factor de amortiguamiento menor que la unidad Si el factor de amortiguamiento δ es menor que la unidad. √ −1 −(δ−√δ 2 −1)ω t n y(t) = 1 + 2(δ 2 − δ δ 2 − 1 − 1) e √ −1 −(δ+√δ 2 −1)ω t n + 2(δ 2 + δ δ 2 − 1 − 1) (6. a una entrada en escal´n.20. Factor de amortiguamiento mayor que la unidad A partir de la expresi´n 6.21) e Esta expresi´n suministra la forma anal´ o ıtica de la respuesta de un sistema de segundo orden. entonces sucede que las raices p1 y p2 son complejas.23) . desde un punto de vista cualitativo la caracter´ ıstica esencial de esta respuesta es su car´cter de lentitud en alcanzar el valor y = 1. ω0 = ωn √ √ 1− δ2 ϕ= t−1 g 1 − δ2 δ 85 factor de amortiguamiento δ En el estudio de la respuesta a una se˜al de entrada en escal´n de un sistema n o de segundo orden pueden distinguirse tres casos seg´n que el factor de amoru tiguamiento δ sea mayor.2 o a permite escribir. tal como se ha indicado en la figura 6.22) cosα = −δ senα = 1 − δ 2 Escribiendo las expresiones 6. es decir. En la figura 6. a 2. menor o igual que uno.

1.Sistemas din´micos lineales de segundo orden y de orden y superior a 86 Im √ jωn 1 − δ 2 ωn α −δωn √ −jωn 1 − δ 2 Re Figura 6.24) Esta expresi´n puede escribirse en forma m´s compacta como sigue: o a √ e−δωn t y(t) = 1 + √ sen(ωn 1 − δ 2 t − α) 1 − δ2 (6. que se caracteriza por una sinusoide exponencialmente amortiguada. Esta forma de respuesta. . teniendo en cuenta la expresi´n 6.23 de o o la forma siguiente. La forma general de la respuesta se tiene en o la figura 6.25) Esta expresi´n suministra la forma anal´ o ıtica en la respuesta de un sistema de segundo orden. con factor de amortiguamiento menor que la unidad. y(t) = 1 + e−jα −(δωn −jωn √1−δ2 )t e 2jsenα ejα −(δωn −jωn √1−δ2 ) t − e 2jsenα (6. en la que se observa que el comportamiento de un sistema de segundo orden con factor de amortiguamiento menor que la unidad est´ a caracterizado por la presencia de oscilaciones.18 se puede escribir. se dice que es subamortiguada. a una respuesta en escal´n.2: Raices complejas La expresi´n 6.

De la observaci´n de o la expresi´n 6. habida cuenta de que. El peri´do de o oscilaci´n del sistema viene dado por o Tp = 2π √ ωn 1 − δ 2 (6. 2π.32) .25 se desprende que la frecuencia de oscilaci´n del sistema o o viene dada por. se tiene: √ √ dy(t) δωn e−δωn t =− √ sen(ωn 1 − δ 2 t−α)+ωn e−δωn t cos(ωn 1 − δ 2 t−α) = 0 dt 1 − δ2 (6. e igualando esta derivada a cero.30) senα = √ 1 − δ2 (6. y el instante de tiempo en que o se produce. o e−δπ/ 1−δ sen(π − α) ymax (t) = 1 + √ 1 − δ2 la cual. derivando y(t) con relaci´n o al tiempo.27) Instante de tiempo al cual se produce el primer pico de oscilaci´n del siso tema.. o a tp = π √ ωn 1 − δ 2 (6. de una forma anal´ ıtica.25 se tiene. puede obtenerse.28) Esta derivada se anular´ cuando. son dos tipos de caracter´ ısticas muy interesantes para definir el comportamiento de un sistema de segundo orden.29) El tiempo tp recibe la denominaci´n de tiempo de pico. sen(π − α) = senα y puede escribirse. . En efecto. Llevando el valor o de tp a la expresi´n 6. por lo tanto. ymax (t) = 1 + e − √ δπ 1−δ 2 √ 2 (6.Sistemas din´micos lineales de segundo orden y de orden y superior a 87 El valor del primer pico de sobreoscilaci´n. π. el primer pico de oscilaci´n se producir´ cuando . ωp = ωn √ 1 − δ2 (6.31) (6.26) La frecuencia ωp se denomina frecuencia propia del sistema. a ωn √ 1 − δ 2 t = 0.

en funci´n del factor de o o amortiguamiento. o b β pt e − e(p+ε)t = βept εp ε(p + ε) 1 eεt − εp (p + ε) (6. las constantes c1 y c2 que aparecen en la expresi´n 6.8 no est´n o a definidas. En tal caso. p1 = p2 es una raiz doble de la ecuaci´n caracter´ ı. por ejemplo.9.Sistemas din´micos lineales de segundo orden y de orden y superior a 88 Normalmente se expresa la amplitud de la primera oscilaci´n en % del valor o del escal´n de entrada. Factor de amortiguamiento igual a la unidad En el caso de que el factor de amortiguamiento sea igual a la unidad.33) En la figura 6. Es decir. por lo tanto que las dos raices son: o p1 = p p2 = p + ε Llevando estos dos valores a los t´rminos segundo y tercero.2 a partir del conocimiento de la respuesta del sistema o a una entrada en escal´n especialmente en el caso de un sistema subamoro tiguado.18 se tiene. se procede a suponer. que posteriormente se hace tender a ı n cero. Es interesante considerar el problema de determinar los par´metros a1 . 3. que la anterior discusi´n s´lo era v´lida cuando las dos raices p1 y p2 eran distintas.3 se representa la sobreoscilaci´n.34) Interesa determinar el l´ ımite de esta expresi´n cuando ε tiende a cero. a2 a y β de la ecuaci´n 6. o o a Para poder aplicar el anterior razonamiento al caso de que las dos raices sean iguales. Gen´ricamente se suele denominar sobreoscilaci´n o e o a este tanto por ciento. se tendr´ que las dos raices de la ecuaci´n caracter´ a o ıstica ser´n iguales a entre s´ es decir. en principio. Para o ello se procede.35) ε→0 . que ´stas son diferentes e entre s´ en una peque˜a cantidad ε. es decir δ = 1. Por lo tanto se puede escribir: SO = 100 e − √ δπ 1−δ 2 (6. del segundo e miembro. lim eεt 1 − tp 1 − = εp ε(p + ε) p2 (6. a desarrollar en serie eεt y tras una serie de sencillas manipulaciones se obtiene. como se concluye observando las expresiones 6. o ıstica. de la expresi´n 6. para sistemas de segundo orden. Sup´ngase.

4 0.3 0. para valores del a amortiguamiento mayor que la unidad.3: Sobreoscilaci´n en funci´n del factor de amortiguamiento o o En la figura 6.5 δ 0.6 0. . Se observa como factores de amortiguamiento inferiores a la unidad.2 0. Esta respuesta se dice que est´ cr´ a ıticamente amortiguada. viene o dada por.1. y(t) = 1 − ωn te−ωn t − e−ωn t (6.9 1. aunque siempre manteniendo oscilaciones dentro de unos l´ a a ımites razonables.Sistemas din´micos lineales de segundo orden y de orden y superior a 89 Con este resultado es inmediato obtener que la respuesta a una entrada en escal´n del sistema con factor de amortiguamiento igual a la unidad.4 se representan las respuestas a una entrada en escal´n para o distintos valores del factor amortiguamiento. puesto que a son m´s r´pidas. se tienen respuestas sin sobreoscilaci´n.36) Esta respuesta se ha representado en la figura 6.8 0.1 0. se tiene un comportamiento oscilatorio. Esto ultimo hace que las aplicaa ´ ciones pr´cticas se tienda siempre a tener respuestas amortiguadas.7 0. Por otra parte. el cual es m´s oscilante cuanto menor es el valor de δ. o pero que son considerablemente m´s lentas.0 Figura 6. 100 80 Sobreoscilacion 60 40 20 0 0 0.

8 0.0 ωnt 7.2 0.6 1.4 3.4 1.6 4.2 2.2 1.5 2.Sistemas din´micos lineales de segundo orden y de orden y superior a 90 2.0 1.0 Figura 6.2 0.0 δ=0.1 y(t) 1.8 12.0 1.4 9.6 10.0 1.4: Respuesta ante escal´n en funci´n del factor de amortiguamiento o o .5 0.8 1.4 0.7 1.2 8.0 0.6 0.0 0.8 6.0 5.

1 1 − δ2 (6.5 y 6. Se observa como la forma de la respuesta en frecuencia del sistema de segundo orden depende del factor de amortiguamiento. El efecto de resonancia indica que para determinada frecuencia la amplitud de la se˜al sinusoidal n correspondiente.2 Respuesta en frecuencia de un sistema de segundo orden Si se aplica una se˜al sinusoidal a un sistema de segundo orden.38) ϕ = tg−1 −a1 /(a2 − ω 2 ) Este resultado se puede comprobar por sustituci´n. Es decir. si u(t) = n Vo senωt. en el espectro de frecuencias.37) Q= 2δ √ (6. En las figuras 6. Aqu´ sin embargo ı se proceder´ exclusivamente a estudiar el r´gimen transitorio que resulta de la a e aplicaci´n de la se˜al sinusoidal.39) (6.40) .Sistemas din´micos lineales de segundo orden y de orden y superior a 91 6. es decir.6 se n representan las relaciones de amplitudes y los desfases correspondientes a distintos valores del factor de amortiguamiento. sufre una amplificaci´n al atravesar o el sistema. recibe la denoma inaci´n de factor de resonancia. o Se ha tomado como se˜al de entrada una se˜al sinusoidal de amplitud unitaria n n para que la amplitud de la se˜al de salida suministrase directamente la relaci´n n o de amplitudes entre las se˜ales de entrada y salida. la determinaci´n de la se˜al de salida y(t) se puede hacer procediendo o n en forma similar a como se hizo en el apartado anterior. El valor m´ximo de la amplitud de la respuesta en frecuencia. Es f´cil demostrar que el factor de resonancia o a viene dado por.2 se hace u = Vo senωt. se va a determinar exclusivamente la o n soluci´n particular de la completa cuando en la expresi´n 6. o o Se tiene que y(t) ser´ de la forma. mayor es e el pico de resonancia que presenta la respuesta en frecuencia.1. a y(t) = Yo sen(ωt + ϕ) siendo Yo = Vo (a2 − ω)2 + a2 ω 2 1 (6. Cuanto menor es ´ste.

5 Figura 6.Sistemas din´micos lineales de segundo orden y de orden y superior a 92 La frecuencia a la que se produce este m´ximo.1.5 PULSACION ω/ωn 2.1 4 RELACION DE AMPLITUDES 3 0.0 1. que recibe la denominaci´n a o de frecuencia de resonancia.3 Ecuaciones diferenciales de orden n Una vez estudiado los sistemas de primero y segundo orden.41) Se observa que cuando el factor de amortiguamiento es nulo la frecuencia de resonancia coincide con la frecuencia propia no amortiguada del sistema. viene dada por. 6.0 0.0 2. conviene recordar los resultados correspondientes a sistemas de orden n.3 0.4 0.0 1.5 1 5. De ah´ ı la denominaci´n de ´sta ultima. o e ´ 5 δ=0. ωR = ωn √ 1 − 2δ 2 (6.5 1.0 2.0 0 0.2 2 0.707 0.5: Amplitudes correspondientes a distintos factores de amortiguamiento. Sup´ngase que el modelo o .

0 2. 0 5. 0. 0.3 5 0.1 0.5 0 0. .0 0.5 2.5 1.0 Figura 6.0 3.5 4.3 4 -180 0.2 .1 DESFASE -90 -120 -150 0.0 1.Sistemas din´micos lineales de segundo orden y de orden y superior a 93 0 -30 -60 0. 2.0 07 0. δ= 2 0.7 1.0 0 0. 0 δ=5.6: Desfases correspondientes a distintos factores de amortiguamiento.4 1.0 2. 70 7 0.5 PULSACION ω/ωn 3.

la transformada de Laplace de la salida del sistema y(t).Sistemas din´micos lineales de segundo orden y de orden y superior a matem´tico del sistema que se est´ considerando tiene la forma. que recibe la denominaci´n de polos de Y (s).43) por lo tanto. Para las a funciones normalmente empleadas en Autom´tica U (s) es el cociente de dos polia nomios en s.45) El polinomio del denominador U (s) se ha factorizado. Si las condiciones iniciales son nulas. problema que se reduce al c´lculo de la antitransformada de Y (s). Para mayor o o generalidad. por razones de realizabilidad f´ ısica que se considerar´n m´s adelante. Q(s) Q(s) = P (s) (s − p1 )n1 (s − p2 )n2 . . cuya transformada es U (t) = L [u(t)] resulta ser bo sm + b1 sm−1 + · · · + bm Y (s) = n U (s) s + a1 sn−1 + · · · + an−1 s + an (6. (s − pq )np Y (s) = (6. El cociente de polinomios Y (s) se puede descomponer en fracciones simples. siendo pi las raices de la ecuaci´n P (s) = 0. se ha supuesto que cada uno de los polos tiene una multiplicidad ni aunque normalmente ni = 1. . su transformada de Laplace es Y (s)(sn + a1 sn−1 + · · · + an−1 s + an ) = U (s) (bo sm + b1 sm−1 + · · · + bm ) (6. Los residuos se calculan con ayuda de la expresi´n o . por lo que Y (s) ser´ a su vez el cociente de dos polinomios. a a 94 dn y dn−1 y dy dm u + a1 n−1 + · · · + an−1 + an y = bo m + · · · + bm u dtn dt dt dt (6. a a n > m. escribi´ndose. correspondiente a una entrada u(t).42) en donde. es a decir. para todo i.44) Puesto que U (s) se supone conocido.46) k i=1 k=1 (s − pi ) en donde los coeficientes cik reciben la denominaci´n de residuos de Y (s) en o el polo pi . el problema es el de determinar Y (s). e q ni cik Y (s) = (6.

47. Por zi se e denotan las raices de la ecuaci´n P (s) = 0 y estas raices se denominan ceros del o sistema. una funci´n compleja. en primer lugar.49) expresiones que no son sino particularizaciones para ni = 1 de las correspondientes expresiones 6. Puesto que Y (s) es. se puede escribir. consid´rese que Y (s) puede e escribirse k Πm (s − zi ) i=1 Πn (s − pi ) i−1 Y (s) = (6.46 se escribe o q Y (s) = i=1 ci1 s − pi (6.Sistemas din´micos lineales de segundo orden y de orden y superior a 95 cik = 1 (ni − k)! dni−k (s − pi )ni Y (s) ni−k ds (6. entonces la expresi´n 6. si todos los valores de ni son igual a la unidad. los residuos pueden determinarse de forma gr´fica a sobre el plano complejo. puede escribirse o o .47) s=pi Si todos los polos son simples.8.46 y 6. En el caso de polos simples. Para ello. o Y (s) =| Y | ejφ =| Y | φ (6.48) y los residuos se determinan por la expresi´n o cik = ci1 = (s − pi ) Y (s) |s=pi (6.50) en donde se ha factorizado tambi´n el polinomio del numerador.51) en donde | Y (s) | es el m´dulo (valor absoluto) de Y (s) y φ es el argumento o de Y (s). siendo Im{Y (s)} φ = t−1 an Re{Y (s)} La expresi´n compleja Y (s). es decir. de acuerdo con la expresi´n 5. en general.

1.Sistemas din´micos lineales de segundo orden y de orden y superior a 96 Y (s) = k m i=1 n i=1 m n | s − zi | φiz − φip ) ( | s − pi | i=1 i=1 (6. En el caso de (si − zi ) se tiene un vector que va desde el cero. se determina como o el cociente de dos expresiones complejas.52. de acuerdo con la expresi´n 6. cada una de las cuales es a su vez el producto de t´rminos elementales de la forma (s − pi ) el m´dulo de Y (s) ser´ el e o a cociente de los productos de los respectivos m´dulos.49. y an´logamente para pi . zi al punto s. representar en el plano complejo. En la figura 6.3 se muestra la representaci´n gr´fica del vector asociado a o a (s − zi ) y a (s − pi ). o k(s − pi ) Πm (s − zi ) i=1 n Πi=1 (s − pi ) ci = (s − pi ) Y (s) |s=pi = s=pi .7: Vectores asociados El residuo ci1 = ci .52) es decir. resulta ser de acuerdo con la expresi´n 6. puesto que Y (s). a Interesa por tanto. mientras que el argumento o ser´ la diferencia de las sumas de los correspondientes argumentos. correspondiente al polo pi . los componentes elementales (s − zi ) y (s − pi ) con el fin de determinar sus m´dulos y argumentos para o poder realizar con ellos las operaciones de multiplicaci´n y adici´n a las que se o o acaba de aludir. a Im s s − Zi Zi Re s − Pi Pi s Figura 6.

dibujar en el plano complejo los ceros. ci y los polos pi de Y (s). dibujar los vectores desde todos los polos y ceros al polo pi en el que se est´ a determinando el residuo. 97 2. determinar el argumento del residuo ci sumando los argumentos de los vectores desde los ceros y rest´ndole la suma de los argumentos de los a vectores desde los polos. 3.Sistemas din´micos lineales de segundo orden y de orden y superior a cuya determinaci´n gr´fica puede hacerse siguiendo los siguientes pasos: o a 1. 4. . determinar el m´dulo del residuo | ci | multiplicando los m´dulos de todos o o los vectores desde los ceros y dividiendolos por el producto de los m´dulos o de todos los vectores desde los polos.

(s + pn ) Se puede representar G(s) indicando la posici´n de sus ceros −ci y de sus polos o −pi en el plano de la variable compleja s (fig. . Ello es a o especialmente patente en los m´todos cl´sicos. (s + cm ) (s + p1 ) . .1 7. en los que se trabaja en el dominio e a de la frecuencia. 7.1).Tema 7 Representaci´n gr´fica de la o a funci´n de transferencia o Es usual emplear representaciones gr´ficas de la funci´n de transferencia.1 Diagramas m´s comunes a Diagrama de polos y ceros: caso racional Sea la funci´n de transferencia o G(s) = K(s + c1 ) .1. Vamos a ver algunas de las formas de representaci´n gr´ficas o a m´s usuales. a 7. 98 . . .

da el m´dulo y el argumento de la o funci´n de transferencia. Esta curva se construye representando para cada valor de ω el m´dulo y o el argumento de la expresi´n compleja que resulta de hacer s = jω en G(s).2 se representa un diagrama de esta naturaleza. el m´dulo y el argumento de G(jω) representan la amplificaci´n o o (o atenuaci´n) y el desfase de una se˜al sinusoidal que atraviese el sistema.2 Diagrama de Nyquist La funci´n de transferencia G(s) se representa mediante una curva en un diagrama o polar. o Como se sabe.2: Diagrama de Nyquist El diagrama de Nyquist es por tanto una curva parametrizada en ω que.1: Diagrama de polos y ceros 7. Conviene observar que ω var´ de 0 a ∞.Representaci´n gr´fica de la funci´n de transferencia o a o 99 Im K Re Figura 7. o . En la o n figura 7. ıa Im ω=0 Re ω = 100 ω=1 ω = 10 ω=∞ Figura 7. para cada frecuencia).1. para cada punto (es decir.

1. o • Curva de fase: arg G(s) en funci´n de log ω. o Conviene recordar que la medida logar´ ıtmica de la relaci´n entre dos se˜ales o n A se expresa en • decibelios (dB).Representaci´n gr´fica de la funci´n de transferencia o a o 100 7.3): log |G(jω)| log ω Arg G(jω) log ω -180 o Figura 7. 20 log10 A • d´cadas log10 A e • octavas log2 A .3: Diagrama logar´ ıtmico • Curva de amplitud: log |G(s)| en funci´n de log ω. ya que en tal caso el producto de o los m´dulos se convierte en la suma de sus logaritmos. 7. o El empleo de logaritmos para representar los m´dulos permite facilitar la combio naci´n de funciones de transferencia en serie.3 Diagrama logar´ ıtmico o de Bode En este caso. la funci´n de transferencia G(s) se representa mediante el conjunto o de las dos curvas siguientes (fig.

2 Diagrama de Bode Como se ha indicado m´s arriba. el diagrama de Bode consiste en la representaci´n a o gr´fica de la funci´n de tranferencia mediante dos curvas. una relativa a la amplia o tud y la otra a la fase. En coordenadas se representa en un caso la relaci´n de amplitudes en escala o logar´ ıtmica. a a o 7. es el m´s utilizado en o a la pr´ctica para representar gr´ficamente la funci´n de transferencia. La representaci´n de una funci´n de transferencia G(s) en el diagrama de o o Bode se hace mediante unas aproximaciones asint´ticas que simplifican enormeo . como veremos a continuaci´n. En ambas curvas. en abcisas se representa el logaritmo de ω.4). mientras que en el segundo la fase en escala natural (en grados o en radianes). log|G(jω)| ω=1 -180 o -90 o 0 Arg G(jω) Figura 7.4: Diagrama de Black 7.4 Diagrama de Black En este diagrama se representa la funci´n de transferencia G(s) mediante una o curva parametrizada en ω en un plano cuyos ejes de coordenadas est´n definidos a por arg(G(jω)) y 20 log10 A (fig: 7.1.Representaci´n gr´fica de la funci´n de transferencia o a o 101 Este conjunto de curvas.

permite que se obtenga la representaci´n gr´fica en el o a diagrama de Bode a partir de la representaci´n gr´fica de cada uno de los eleo a mentos que aparecen en (7..1) en donde la denominada ganancia de Bode viene dada por kB = k Πci Πpj La expresi´n (7... .....1) es una expresi´n compleja en funci´n de ω. para o o o cada valor de ω tomar´ un valor complejo y. Vamos a ver a continuaci´n c´mo se representa o o gr´ficamente cada uno de estos elementos.Representaci´n gr´fica de la funci´n de transferencia o a o 102 mente su trazado. c2 jω 1+ . tendr´ un m´dulo y un a a o argumento. El m´dulo ser´ tal que si tomamos su logaritmo se podr´ escribir o a a 20 log |G(jω)| = 20 log |kB | + 20 log +20 log 1 + 20 log (jω)N 1+ 1 jω 1+ p1 jω c1 + .. por tanto. (7. junto con la que se da de una manera natuo ral para el argumento.. G(jω) = (jω)N (jω + p1 )(jω + p2 ) . Esta descomposici´n aditiva. Es decir.1)... .. Para estudiar estas aproximaciones consideremos la funci´n o de transferencia k(jω + c1 )(jω + c2 ) . + .1). La denominada forma de Bode de esta funci´n de tranferencia es la siguiente o jω Πci 1+ Πpj c1 G(jω) = jω (jω)N 1 + p1 k 1+ jω .2) mientras que el argumento ser´ a 20 arg G(jω) = 20 arg kB + 20 arg 1 + +20 arg 1 + 20 arg (jω)N 1 jω + . p2 (7. a . c1 + . . . (7.3) jω 1+ p1 Obs´rvese que mediante la adopci´n de una escala logar´ e o ıtmica para el m´dulo se o ha descompuesto aditivamente en las aportaciones de cada uno de los elementos que aparecen en (7.

5.2.2.0 K(numero negativo) -180.0 ω(rad/s) Figura 7.1 Diagrama de Bode de una constante La representaci´n en el diagrama de Bode de una constante es inmediata y se o tiene en la figura 7.3 Diagrama de Bode de un sistema de primer orden Sea el sistema de funci´n de transferencia o 1 1+ jω p . 20logK K>1 Amplitud(dB) 0 -20logK K<1 K(numero positivo) 0.Representaci´n gr´fica de la funci´n de transferencia o a o 103 7.2.0 Fase(grados) -90.5: Diagrama de Bode de una constante 7.2 Diagrama de Bode de una integraci´n pura o El diagrama de Bode de una integraci´n pura o G(jω) = 1 jω viene dada por una recta de pendiente -20 decibelios por d´cada (o -6 decibelios e por octava) y con un desfase constante igual a -90 grados 7.

mientras que para valores altos de la frecuencia la as´ ıntota es una recta de pendiente -20 dB/d´cada. Para completar la curva podemos considerar dos puntos interesantes: .Representaci´n gr´fica de la funci´n de transferencia o a o 104 20 Amplitud (dB) 0 -20 -40 -20dB/dec 90 Fase(grados) 0 -90 -180 -1 10 10 0 10 ω(rad/s) 1 10 2 Figura 7. Estas dos as´ e ıntotas se cortan en el punto ω = p. la representaci´n gr´fica del m´dulo de G presenta dos as´ o a o ıntotas. en primer o lugar. Para valores bajos de ω la as´ ıntota es sencillamente la recta horizontal trazada en 0 dB. dos situaciones extremas: • ω En tal caso se tendr´ que a 20 log | • ω en cuyo caso 20 log | 1 jω 1+ p | ≈ 20 log | 1 ω | = −20 log jω p p p 1 1+ jω p | ≈ 20 log 1 = 0dB p Por tanto.6: Diagrama de Bode de una integraci´n pura o Para estudiar su representaci´n en el diagrama de Bode consideraremos.

En la figura 7.5 se tiene |G(jω)| = −1 dB.7: Diagrama de Bode de un sistema de primer orden • para ω/p = 0.8 se representa el diagrama correspondiente.2. No obstante. • para ω/p = 1 se tiene |G(jω)| = −3 dB. Por lo que respecta a la fase no es posible hacer unas aproximaciones asint´ticas o como las que acabamos de ver para la amplitud. En este caso la curva de amplitud tiene pendiente positiva y la de fase es positiva.Representaci´n gr´fica de la funci´n de transferencia o a o 105 20 Amplitud(dB) 0 1dB -20 3dB 1dB -40 0 Fase(grados) -45 -90 -1 10 10 0 10 ω(rad/s) 1 10 2 Figura 7. se dispone de una plantilla que permite trazar la curva de fase correspondiente. .4 Diagrama de Bode de una diferenciaci´n pura o El diagrama de Bode de un diferenciador puro G(jω) = jω se obtiene de forma similar al de un integrador puro. 7.

Representaci´n gr´fica de la funci´n de transferencia o a o 106 40 Amplitud(dB) 20 +20dB/dec 0 -20 90 Fase(grados) 45 0 -1 10 10 0 10 ω(rad/s) 1 10 2 Figura 7. se puede obtener la representaci´n gr´fica de la funci´n de transo a o ferencia del sistema cuya funci´n de transferencia viene dada por la expresi´n o o (7. y teniendo en cuenta las expresiones (7.2. para un mismo valor de la frecuencia.3 Sistemas de fase m´ ınima Un sistema con un cero con parte real positiva recibe la denominaci´n de sistema o de fase no m´nima. tiene la forma que se muestra en la figura 7. Combinando todo lo que se acaba de ver. 7.1).2 y (7. En los sistemas de fase no m´ o ı ınima el valor que toma la fase es mayor. mientras que si todos ceros tienen parte real negativa recibe ı la denominaci´n de sistema de fase m´nima.3).8: Diagrama de Bode de una diferenciaci´n pura o 7. que . por consideraciones an´logas a las que se han hecho para un sistema de a primer orden (asociado a un polo).5 Diagrama de Bode del t´rmino asociado a un cero e El t´rmino asociado a un cero e G(jω) = jω +1 p conduce.9.

.5) Vamos a comparar los diagrams de Bode de estas dos funciones de transferencia.5 45.10: Diagrama de polos y ceros de G1 y de G2 Con el fin de ilustrar el concepto de sistema de fase m´ ınima consid´rense los e sistemas de funci´n de transferencia: o G1 (s) = y G2 (s) = s−z s+p s+z s+p (7.0 -1 10 10 0 10 ω(rad/s) 1 10 2 Figura 7.Representaci´n gr´fica de la funci´n de transferencia o a o 107 40 Amplitud(dB) +20dB/dec 20 1dB 0 3dB 1dB 90.0 Fase(grados) 67.9: Diagrama de Bode del t´rmino asociado a un cero e si todos los polos y ceros estuvieran en el semiplano de la izquierda (el sistema fuera de fase m´ ınima).4) (7.0 22. Im ω G1 (s) −p 0 z Re G2 (s) −z −p Im ω 0 Re Figura 7.5 0.

Se comprende la denominaci´n de sistema de fase m´ o ınima para G2 . mediante m´todos gr´ficos.10. Como se sabe la expresi´n que liga a estas dos funciones de transferencia es la o siguiente G(s) T (s) = 1 + G(s) . Sin embargo.4 C´ ırculos M y N Para proceder al dise˜o de sistemas realimentados.11 se tienen las correspondientes curvas de fase. 180 o θ 90 o G1(jω) 10 -1 10 0 10 1 10 G2(jω) 2 ω -90 o Figura 7. por tanto.11: Curvas de fase en el diagrama de Bode de G1 y de G2 7. n e a es necesario disponer de un m´todo gr´fico que permita pasar de la funci´n de e a o transferencia en bucle abierto G(s) a la correspondiente a bucle cerrado T (s). por la que respecta a los argumentos es claro que se tendr´: a arg G1 (jω) ≥ arg G2 (jω) ∀ω ≥ 0 En la figura 7. las curvas de amplitud en el diagrama de Bode ser´n las mismas a para las dos funciones de transferencia.Representaci´n gr´fica de la funci´n de transferencia o a o Para ello consid´rese la figura 7. Es claro que e | G1 (jω) |=| G2 (jω) | ∀ω ≥ 0 108 y.

con vectores asociados o representados los correspondientes vectores.12 y e 7. Sea (x.12 se tienen Im (−1 + j0) A β 1+G 0 φ P G α Re Figura 7. y tras algunas manipulaciones algebr´icas.Representaci´n gr´fica de la funci´n de transferencia o a o 109 Si se interpreta vectorialmente esta expresi´n se tendr´ que el vector T (jω) tendr´ o a a como m´dulo el cociente de los vectores G(jω) y 1 + G(jω). En la figura 7. A partir de esta figura resulta que para cada valor de ω el m´dulo de T (jω) se determinar´ mediante el cociente de o ıa las medidas de los segmentos OP y AP . o a se tiene M2 M2 y 2 + x2 + 2x 2 =− 2 M −1 M −1 . a o o Para ello se procede a dibujar el lugar geom´trico de los puntos para los que e el m´dulo (respectivamente el argumento) de T (jω) sea constante. y como argumento o la diferencia de los argumentos de estos dos vectores. y) un o punto gen´rico del plano complejo (figura 7.6) Con el fin de facilitar la aplicaci´n pr´ctica de este m´todo gr´fico se procede o a e a a definir en el plano polar un sistema de coordenadas curvilineas que permita resolver gr´ficamente la determinaci´n del m´dulo y el argumento de T (jω).12: Diagrama polar de la funci´n de transferencia. y el argumento de T (jω) vendr´ dado ıa por la expresi´n o arg C/R = α − β (7. A partir de las figuras 7.13).13 se puede escribir OP = x2 + y 2 AP = (1 + x)2 + y 2 OP M= = AP √ x2 + y 2 (1 + x)2 + y 2 Elevando al cuadrado esta expresi´n.

Representaci´n gr´fica de la funci´n de transferencia o a o 110 Figura 7.14.13: Plano complejo Sumando y restando a esta expresi´n o M2 M2 − 1 se tiene M2 M2 y + x + 2x 2 + M −1 M2 − 1 2 2 2 2 = M2 M2 − 1 2 − M2 M2 − 1 de donde se concluye y2 + x + M2 M2 − 1 2 = M2 M2 − 1 Esta expresi´n indica que el lugar geom´trico en el plano complejo de los puntos o e para los que el m´dulo de T (jω) es constante viene dado por un c´ o ırculo de centro c=− y de radio M2 M2 − 1 M M2 − 1 La familia de c´ ırculos correspondientes a diferentes valores de M se tiene en la figura 7. Por lo que o o respecta a las fases. Si en ella se dibuja o la funci´n de transferencia en bucle abierto G(jω) entonces leyendo esta misma o curva en el sistema de coordenadas curvil´ ıneas definido por los c´ ırculos M se tiene el m´dulo de la funci´n de transferencia en bucle cerrado T (jω).6) o o r= . se puede proceder de manera an´loga a como se ha hecho a con los m´dulos. En este caso se tiene que. Esta figura admite una facil interpretaci´n. de acuerdo con la expresi´n (7.

15: C´ ırculos N .Representaci´n gr´fica de la funci´n de transferencia o a o 111 Im Re Figura 7.14: C´ ırculos M −1 + j0 α 1+G φ G 0 Figura 7.

Sea G(s) la funci´n de transferencia en bucle abierto de un sistema con realio mentaci´n unitaria. sino su traslaci´n a un diagrama de coordenadas rectangulares.Representaci´n gr´fica de la funci´n de transferencia o a o 112 el argumento de T (jω) viene dado por el ´ngulo AP O en la figura 7. La funci´n de transferencia en bucle cerrado correspondiente o o Td (s) ser´: a Y (s) G(s) = R(s) 1 + G(s) Td (s) = (7.5 Relaci´n entre las constantes de error y los o polos y ceros.7) y la relaci´n entre la se˜al de error y la referencia vendr´ dada por o n a 1 E(s) = R(s) 1 + G(s) (7.15 se representa el lugar geom´trico de todos los ´ngulos AP O de valor e a constante. En tal caso se tiene: . en los que se puede leer la fase del sistema en bucle cerrado si se dibuja en coordenadas polares la funci´n de transferencia en bucle abierto. en libros europeos. Este lugar geom´trico resulta ser un c´ e ırculo. o a mientras que en libros americanos es frecuente que se denomine ´baco de Nichols. Es decir arg siendo G α 1/2 = φ = = arctan 1+G 2 y y= G 2 tan(φ) De este modo se tiene definida otra familia de c´ ırculos. a 7.8) Sup´ngase que los polos de Td (s) se denotan por −pi y que los ceros se hacen o por −ci . en el que se representa en o abcisas el logaritmo de ω y en coordenadas la relaci´n de amplitudes en decibelios. de acuerdo con la figura 7. de acuerdo con una bien conocida propiedad de la geometr´ y el valor de este ´ngulo est´ perfectamente ıa. o En la pr´ctica no se emplean los c´ a ırculos M y N en el diagrama polar.12.15. los c´ ırculos N . o Este diagrama recibe la denominaci´n de ´baco de Black. a a definido en el c´ ırculo y resulta ser de α/2. En la a figura 7.

10) Se van a estudiar a continuaci´n las relaciones entre las constantes de posici´n o o kp .9) Por otra parte desarrollando en serie E(s) /R(s) se tiene: E(s) = eo + e1 s + e2 s2 + · · · R(s) (7. y aceleraci´n ka y los polos y ceros de Td (s). s (7. velocidad kv . En o o o tal caso (7.1 Seguimiento de posici´n. (7.5..10) se convierte en E(s) = Es decir que sE(s) = eo + e1 s + e2 s2 + .13) Definiendo la constante de error de posici´n kp como o kp = lims → 0 G(s) se tiene que e0 viene dado por (7. o Sup´ngase una entrada en escal´n de posici´n.. o 7. el valor del error en r´gimen e permanente erp ser´: a erp = limt → ∞ e(t) = lims → 0 sE(s) = lims → 0 1 = eo 1 + G(s) (7.14) . de manera que R(s) = 1/s.11) Por lo tanto aplicando el teorema de valor final.12) eo + e1 + e2 s + ..Representaci´n gr´fica de la funci´n de transferencia o a o 113 Td (s) = k(s + c1 ) (s + c2 ) · · · (s + cm ) (s + p1 ) (s + p2 ) · · · (s + pn ) (7..

19) kp = (7. se obtiene Y (0) kp = R(0) 1 + kp de donde.17) (7. se tiene Y (0) / R(0) 1 − Y (0) / R(0) (7.18) (7. haciendo s = 0.20) Por otra parte se tiene que haciendo s = 0 en (7.10).18). resolviendo para kp .21) .7) se llega a k Πm cj Y (0) = n j=1 R(0) Πj=1 Pj en donde (7.16) (7. se tendr´ que a E(0) 1 = R(0) 1 + kp Adem´s se sabe que a Y (s) E(s) =1− R(s) R(s) A partir de (7. es decir e0 = E(0) / R(0).Representaci´n gr´fica de la funci´n de transferencia o a o 114 eo = Por otra parte puesto que 1 1 + kp (7.15) E(0) 1 = lim R(0) s → 0 1 + G(s) Y considerando (7.17) y (7.

22) En la pr´ctica tiene un especial inter´s la consideraci´n de los sistemas de tipo a e o 1 en bucle abierto.. La constante de posici´n kp es adimensional.. Este caso se presenta cuando se estudian los servomecanismos de posici´n. y teniendo en cuenta (7.pn 1= (7. recordando la expresi´n o o (8)..Representaci´n gr´fica de la funci´n de transferencia o a o 115 Πm Cj = producto de ceros j=1 Πn Pj = producto de polos j=1 Llevando (7. En tal caso. Haciendo s = 0 en la expresi´n (7.cm p1 p2 .21) a (7. o . y de acuerdo con (9) es claro que e0 = 0...23) (7.20) se tiene la siguiente expresi´n en donde kp est´ exo a presada en funci´n de los polos y ceros..10) y (12) se tendr´ que a Y (s) E(s) =1− = 1 − e1 s − e2 s2 R(s) R(s) Obs´rvese que haciendo s = 0 se tiene e Y (0) =1 R(0) (7.24) lo que significa que en r´gimen permanente no existe error de seguimiento.25) Esta expresi´n muestra la relaci´n existente entre los polos ceros y la constante o o k de un sistema en bucle cerrado para que el error de seguimiento en posici´n sea o nulo.. o superior. Para los sistemas de tipo uno.. Por ello considerando (7. o k Πm Cj j=1 n Πj=1 Pj − kΠm Cj j=1 kp = (7. e cosa que era sabida para los sistemas de tipo uno...24) se tendr´ o a que k × c1 .9). es inmediato que kp tiende a infinito.

2 Seguimiento de velocidad. En o tal caso se tiene que e0 = 0.28) (7. Sea un sistema con error de seguimiento en posici´n nulo (eo = 0) y sup´ngase o o 2 que se le aplica una entrada en rampa de manera que R(s) = 1/s .Representaci´n gr´fica de la funci´n de transferencia o a o 116 7.10).. para sistemas con una integraci´n pura. Y (s) = 1 − e1 s − e2 s2 − . En tal caso se tiene que E(s) vendr´ dado por a 1/s2 e1 = + e2 + . habida cuenta de la expresi´n o (7..26) Aplicando el teorema del valor final se tendr´ que el error en r´gimen permaa e nente a una rampa ser´ a erp = lim e(t) = lim sE(s) t→∞ s→0 1 s→0 s + sG(s) 1 = lim = e1 s→0 sG(s) = lim Se define la constante de error de velocidad kv como kv = lims → 0 sG(s) de manera que e1 vendr´ dada por a e1 = 1 kv (7.5. con lo que se tiene. y haciendo s = 0. 1 + G(s) s E(s) = (7....27) La constante de seguimiento en velocidad kv tiene un valor finito para sistemas en bucle abierto de tipo 1. es decir. se tiene o o .. R(s) Derivando esta expresi´n con relaci´n a s.

10) se tiene que o 1 d =− (ln k + ln(s + c1 ) + ...) kv ds lo que puede escribirse 1 1 1 = −( + .29) Si.31) (7.30) s=0 Llevando la anterior expresi´n a (7.Representaci´n gr´fica de la funci´n de transferencia o a o 117 d Y (s) ds R(s) = −e1 = − s=0 1 kv (7. adem´s se tiene presente que para sistemas de tipo 1 a Y (s) R(s) Y (0) =1 R(0) = s=0 a partir de las dos expresiones anteriores d − ds (Y (s)/R(s)) 1 = kv (Y (s)/R(s))s=0 s=0 =− d Y (s) ln ds R(s) (7.. en cuyo caso se tendr´ que a ..32) Por consiguiente 1/kv es igual a la suma de los inversos de los polos menos la suma de los inversos de los ceros. todo en bucle cerrado.)s = 0 kv s + c1 s + p1 o de forma m´s compacta a 1 = kv n i=1 m 1 1 − pi j=1 cj s=0 (7... − ln(s + p1 ) − .. − − . Si se quiere que el error de seguimiento en velocidad sea nulo se requerir´ que a kv tienda a infinito.

. Por lo tanto interesa calcular kv en funci´n de los par´metros o a ωn y δ. En efecto o erp = ω kv y como erp se mide en metros (o radianes) y ω en metros por segundo (o rad / seg