You are on page 1of 496

AN

´
ALISIS DE SISTEMAS
LINEALES
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz
1
ESTE ES UN BORRADOR SUJETO A NEGOCIACI
´
ON EDITORIAL. SU RE-
PRODUCCI
´
ON S
´
OLO PUEDE SER AUTORIZADA POR LOS TRES AU-
TORES.
Versi´ on 11 de septiembre de 2003.
Valpara
´
ıso, Marzo 2002
1
Departamento de Electr´ onica
Universidad T´ecnica Federico Santa Mar´ıa
Valpara´ıso, CHILE
ii
sistema|textbf
Kalman
Routh
Bode
Nyquist
Prefacio
La noci´ on de sistema resulta sumamente poderosa para la descripci´ on, anal-
isis y dise˜ no tanto en ingenier´ıa como en otras ´ areas, principalmente porque
permite describir en forma abstracta un fen´ omeno en base al objetivo que el
observador/ingeniero en requiera en cada caso particular.
En este texto abordamos el an´ alisis de un tipo particular de sistemas, aque-
llos llamados lineales. Esta propiedad, si bien no es com´ un en sistemas f´ısicos
reales, permite hacer uso de una gran gama de herramientas de an´ alisis matem´ atico,
que han demostrado ser de gran utilidad, a pesar de las simplificaciones inher-
entes involucradas en la representacion lineal de los sistemas.
La teor´ıa de los sistemas lineales tuvo un r´ apido crecimiento y sostenida con-
solidaci´ on desde mediados del siglo veinte. Este desarrollo fue sustentado por
el trabajo pionero de Bode, Routh, Nyquist, Kalman y muchos otros investi-
gadores. Ellos construyeron, a su vez, sobre la teor´ıa matem´ atica existente de
los siglos pasados en ´ areas tan diversas como, por ejemplo, el c´ alculo diferencial
e integral de Newton, las ecuaciones diferenciales y la teor´ıa de funciones de
variables complejas.
M´ as adelante, el desarrollo y expansi´ on de la tecnolog´ıa digital ampliaron el
campo de los sistemas lineales hacia los sistemas que operan en tiempo discreto.
Nuevas herramientas matem´ aticas debieron entonces incorporarse al estudio de
los sistemas lineales.
Un aspecto de especial relevancia es no perder de vista que el inter´es de
la Ingenier´ıa en los sistemas lineales est´ a ligado a la posibilidad de emplearlos
como modelos suficientemente precisos para describir sistemas reales. El estu-
diante debe ser advertido al inicio del curso sobre el problema subyacente de
fidelidad de la representaci´ on final, y el tema debe ser reiterado a lo largo del
mismo. Tambi´en es necesario enfatizar que los sistemas reales no son lineales y
que la p´erdida de precisi´ on al modelarlos como sistemas lineales es usualmente
compensada por el traslado del problema a un campo dotado de herramien-
tas matem´ aticas. Por otro lado, es conveniente enfatizar que existen sistemas
reales, incluso muy b´ asicos como aquellos con dispositivos de conmutaci´ on, que
simplemente no pueden ser modelados como sistemas lineales.
Si bien la teor´ıa de los sistemas lineales tiene un inter´es en si misma como
objeto de estudio matem´ atico, en este libro el enfoque es distinto, m´ as orientado
al estudiante de ingenier´ a: se trata de estudiar esta teor´ıa como un sost´en para
el an´ alisis, la s´ıntesis y el dise˜ no de sistemas de procesamiento de se˜ nales, de
iii
iv
sistemas de control autom´ atico, sistemas econ´ omicos, entre otros. El prop´ osito
es que el lector, sin abandonar ni menospreciar el rigor requerido por esta teor´ıa,
la conciba como una herramienta para entender, analizar y resolver problemas
asociados a fen´ omenos y sistemas en ingenier´ı. Esto nos parece necesario con el
fin de evitar la frecuente confusi´ on entre los estudiantes de ingenier´ıa, que lleva
a subvertir los roles del problema y la herramienta, y centrar su atenci´ on en el
rigor matem´ atico m´ as que en los conceptos y la interpretaci´ on de los resultados
de la teor´ıa de los sistemas lineales.
Pensamos tambi´en que este ´enfasis en los conceptos m´ as que en la utiler´ıa
matem´ atica debe reflejarse en el esfuerzo que se pide a los estudiantes que estu-
dien el tema. Con este objeto, nos parece fundamental el uso extensivo de paque-
tes de software para simulaci´ on, tales como Simulink de Matlab y Simnon
. Tambi´en encontramos de especial utilidad el uso de software de matem´ atica
simb´ olica, como Maple y Mathematica . El libro supone que los estudiantes
tienen acceso a este tipo de herramientas. Tambi´en suponemos que nuestros
lectores tiene una formaci´ on matem´ atica b´ asica previa que incluye conceptos
de C´ alculo Diferencial, Integral, Ecuaciones Diferenciales Ordinarias y
´
Algebra
Lineal.
La dificultad en ense˜ nar una visi´ on conceptual de los sistemas lineales se
refleja en la diversidad de formas y estructuras de los programas de las asig-
naturas relacionadas, en distintas instituciones en Chile y en el extranjero. En
la mayor´ıa de los casos se separa completamente el estudio de sistemas lineales
en tiempo continuo y en tiempo discreto. Aunque esto tiene ciertas ventajas,
se desprovecha la oportunidad de dar una visi´ on unificada de conceptos tales
como estabilidad, velocidad, transientes, y estado, entre otros. Con este fin, el
texto ha sido organizado de manera que el lector pueda optar entre un enfoque
simult´ aneo o separado de ambos tipos de sistema, sin perjuicio de lo cual se
ha incluido un breve capitulo referido a sistemas hibridos en que se establece
claramente una relacion entre ambos.
Las consideraciones anteriores han sido los elementos orientadores para este
libro. La calidad del resultado de este esfuerzo ser´ a juzgada por los lectores.
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz
Valpara´ıso, Agosto de 2000
´
Indice general
Prefacio III
1. Aspectos fundamentales 1
1.1. Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Invarianza en el tiempo . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Linealizaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.1. Sistema no lineal de tiempo continuo . . . . . . . . . . . . 9
1.5.2. Sistema no lineal de tiempo discreto . . . . . . . . . . . . 12
1.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 18
2. Se˜ nales 21
2.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Se˜ nales de tiempo continuo . . . . . . . . . . . . . . . . . . . . . 21
2.2.1. Escal´ on unitario (funci´ on de Heaviside) . . . . . . . . . . 21
2.2.2. Impulso unitario o delta de Dirac . . . . . . . . . . . . . . 21
2.2.3. Rampa unitaria . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5. Se˜ nales sinusoidales . . . . . . . . . . . . . . . . . . . . . 25
2.2.6. Sinusoidales con amplitud exponencial . . . . . . . . . . . 26
2.3. Se˜ nales de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . 27
2.3.1. Escal´ on unitario de tiempo discreto . . . . . . . . . . . . 27
2.3.2. Impulso unitario discreto o delta de Kronecker . . . . . . 27
2.3.3. Rampa unitaria de tiempo discreto . . . . . . . . . . . . . 28
2.3.4. Exponencial de tiempo discreto . . . . . . . . . . . . . . . 29
2.3.5. Se˜ nales sinusoidales de tiempo discreto . . . . . . . . . . . 30
2.3.6. Sinusoidales con amplitud exponencial . . . . . . . . . . . 31
2.4. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 32
3. An´alisis en tiempo continuo 35
3.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. Ecuaci´ on diferencial del sistema (EDS) . . . . . . . . . . . . . . . 35
3.3. La respuesta del sistema . . . . . . . . . . . . . . . . . . . . . . . 38
v
vi
´
INDICE GENERAL
3.3.1. Componente homog´enea y componente particular . . . . . 38
3.3.2. Frecuencias y modos naturales . . . . . . . . . . . . . . . 40
3.3.3. Modos forzantes y modos forzados . . . . . . . . . . . . . 40
3.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.6. Respuesta a estado inicial y respuesta a entrada . . . . . 45
3.4. Respuesta a se˜ nales de prueba . . . . . . . . . . . . . . . . . . . . 50
3.4.1. Respuesta a escal´ on unitario . . . . . . . . . . . . . . . . 50
3.4.2. Respuesta a impulso unitario . . . . . . . . . . . . . . . . 52
3.5. C´ alculo de la respuesta v´ıa convoluci´ on . . . . . . . . . . . . . . . 53
3.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 57
4. An´alisis en tiempo discreto 61
4.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2. Ecuaci´ on de recursi´ on del sistema (ERS) . . . . . . . . . . . . . . 61
4.3. La respuesta del sistema . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1. Componente homog´enea y componente particular . . . . . 65
4.3.2. Frecuencias y modos naturales . . . . . . . . . . . . . . . 66
4.3.3. Modos forzantes y modos forzados . . . . . . . . . . . . . 68
4.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.6. Respuesta a estado inicial y respuesta a entrada . . . . . 73
4.4. Respuesta a se˜ nales de prueba . . . . . . . . . . . . . . . . . . . . 76
4.4.1. Respuesta a escal´ on unitario . . . . . . . . . . . . . . . . 76
4.4.2. Respuesta a impulso unitario . . . . . . . . . . . . . . . . 78
4.5. C´ alculo de la respuesta via convoluci´ on . . . . . . . . . . . . . . . 79
4.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 84
5. An´alisis bajo excitaciones peri´ odicas 87
5.1. Se˜ nales Peri´ odicas . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2. Respuesta a entrada sinusoidal. El caso de tiempo continuo . . . 88
5.3. Series de Fourier para se˜ nales de tiempo continuo . . . . . . . . . 92
5.3.1. Serie de Fourier trigonom´etrica . . . . . . . . . . . . . . . 92
5.3.2. Serie de Fourier exponencial . . . . . . . . . . . . . . . . . 100
5.3.3. Parseval y la energ´ıa de las se˜ nales peri´ odicas . . . . . . . 102
5.4. Respuesta a entradas sinusoidales. El caso de tiempo discreto . . 103
5.5. Serie de Fourier de tiempo discreto . . . . . . . . . . . . . . . . . 106
5.6. Aplicaci´ on de las series de Fourier al an´ alisis de sistemas lineales 110
5.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 111
6. An´alisis bajo excitaciones arbitrarias. La transformada de Fouri-
er 117
6.1. La limitaci´ on de las series de Fourier . . . . . . . . . . . . . . . . 117
6.2. La Transformaci´ on de Fourier. El caso del tiempo continuo . . . 117
6.2.1. Parseval y la energ´ıa de las se˜ nales aperi´ odicas en tiempo
continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
´
INDICE GENERAL vii
6.2.2. Aplicaci´ on a sistemas lineales . . . . . . . . . . . . . . . . 124
6.2.3. La funci´ on de transferencia y la respuesta en frecuencia . 129
6.2.4. Filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.2.5. Caso singular en la funci´ on de transferencia. . . . . . . . . 137
6.3. La Transformaci´ on de Fourier. El caso de tiempo discreto . . . . 139
6.3.1. Parseval y las se˜ nales aperi´ odicas de tiempo discreto . . . 143
6.3.2. Aplicaci´ on a sistemas lineales . . . . . . . . . . . . . . . . 144
6.3.3. La funci´ on de transferencia y la respuesta en frecuencia . 148
6.3.4. Filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.3.5. Caso singular en la funci´ on de transferencia. El caso de
los sistemas discretos . . . . . . . . . . . . . . . . . . . . . 150
6.4. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 152
7. An´alisis bajo excitaciones arbitrarias. La transformada de Laplace
155
7.1. Definici´ on de la transformada . . . . . . . . . . . . . . . . . . . . 155
7.2. Aplicaci´ on a sistemas lineales: la funci´ on de transferencia . . . . 156
7.2.1. Funci´ on de transferencia en dominios de Laplace y Fourier 160
7.3. Respuesta a impulso y respuesta a escal´ on. . . . . . . . . . . . . 161
7.4. Respuesta a condiciones iniciales y se˜ nales arbitrarias. . . . . . . 166
7.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.5.1. An´ alisis de polinomios . . . . . . . . . . . . . . . . . . . . 173
7.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . . . 177
7.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . . . 182
7.6.4. Sistema can´ onico de segundo orden . . . . . . . . . . . . . 183
7.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 186
8. An´alisis bajo excitaciones arbitrarias. La transformada Zeta 191
8.1. Definici´ on de la transformada . . . . . . . . . . . . . . . . . . . . 191
8.2. Aplicaci´ on a sistemas lineales: la funci´ on de transferencia . . . . 192
8.2.1. Funci´ on de transferencia en dominios de Fourier y Zeta . 198
8.3. Respuesta a impulso y respuesta a escal´ on. . . . . . . . . . . . . 200
8.4. Respuesta a condiciones iniciales y excitaciones arbitrarias. . . . 203
8.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
8.5.1. An´ alisis de polinomios . . . . . . . . . . . . . . . . . . . . 206
8.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . . . 210
8.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
8.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . . . 215
8.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 217
viii
´
INDICE GENERAL
9. Representaci´ on de sistemas lineales 219
9.1. Ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
9.2. Diagramas de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . 220
9.2.1. Tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . 220
9.2.2. Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . 231
9.3. Diagramas polares . . . . . . . . . . . . . . . . . . . . . . . . . . 233
9.3.1. Tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . 233
9.3.2. Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . 244
9.4. Diagramas de bloques . . . . . . . . . . . . . . . . . . . . . . . . 246
9.5. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 250
10.Representaci´ on en variables de estado. 253
10.1. Conceptos fundamentales sobre modelos de sistemas. . . . . . . . 253
10.2. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . 254
10.2.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 254
10.2.2. Modelos b´ asicos en variables de estado . . . . . . . . . . . 255
10.2.3. Se˜ nales descritas en espacio de estado . . . . . . . . . . . 256
10.3. Modelos de estado para sistemas continuos . . . . . . . . . . . . 257
10.3.1. Linealizaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 258
10.3.2. Modelos lineales en el espacio de estado . . . . . . . . . . 261
10.3.3. Transformaciones de similaridad . . . . . . . . . . . . . . 267
10.3.4. Espacio de estado y funciones de transferencia . . . . . . 270
10.4. Modelos de estado para sistemas discretos y muestreados . . . . 273
10.4.1. Linealizaci´ on de sistemas discretos . . . . . . . . . . . . . 274
10.4.2. Sistemas muestreados . . . . . . . . . . . . . . . . . . . . 274
10.4.3. Modelos de estado lineales . . . . . . . . . . . . . . . . . . 277
10.4.4. Transformaciones de similaridad . . . . . . . . . . . . . . 286
10.4.5. Espacio de estado y funciones de transferencia . . . . . . 286
10.5. Modelos de estado para sistemas interconectados . . . . . . . . . 287
10.6. Propiedades de los sistemas . . . . . . . . . . . . . . . . . . . . . 290
10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad . . . . 290
10.6.2. Observabilidad, Reconstructibilidad y Detectabilidad . . . 299
10.6.3. Descomposici´ on Can´ onica . . . . . . . . . . . . . . . . . . 307
10.7. Observadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
10.7.1. Din´ amica del observador . . . . . . . . . . . . . . . . . . . 310
10.7.2. Observadores y ruido de medici´ on. . . . . . . . . . . . . . 314
11.Sistemas h´ıbridos 317
11.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
11.2. Muestreo de se˜ nales. . . . . . . . . . . . . . . . . . . . . . . . . . 318
11.3. An´ alisis en frecuencia de se˜ nales muestreadas . . . . . . . . . . . 320
´
INDICE GENERAL ix
12.Modelos 323
12.1. Ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
12.2. Modelado de sistemas de tiempo continuo. Teor´ıa b´ asica. . . . . . 324
12.3. Modelado de sistemas de tiempo continuo. Modelos lineales. . . . 329
12.4. Modelado de sistemas de tiempo discreto. Teor´ıa b´ asica. . . . . . 332
12.5. Modelado de sistemas de tiempo discreto. Modelos lineales. . . . 336
A. Series de Taylor 339
A.1. Serie de Taylor en una variable . . . . . . . . . . . . . . . . . . . 339
A.2. Serie de Taylor en dos variables . . . . . . . . . . . . . . . . . . . 340
A.3. El caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
A.4. Algunas reglas pr´ acticas para la expansi´ on en serie . . . . . . . . 341
B. Bases matem´aticas para las Series de Fourier 343
B.1. Espacios vectoriales y bases ortogonales . . . . . . . . . . . . . . 343
B.2. Convergencia de las Series de Fourier . . . . . . . . . . . . . . . . 347
B.2.1. Convergencia de sucesiones y series . . . . . . . . . . . . . 347
B.2.2. Convergencia de las Series de Fourier . . . . . . . . . . . . 349
Demostraci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 357
C. La transformaci´ on de Fourier 359
C.1. Transformaci´ on de Fourier en tiempo continuo . . . . . . . . . . 359
C.1.1. Definici´ on de la Transformada . . . . . . . . . . . . . . . . 359
C.1.2. Propiedades de la Transformada de Fourier . . . . . . . . 361
C.2. Transformada de Fourier en tiempo discreto . . . . . . . . . . . . 374
C.2.1. Definici´ on de la transformada . . . . . . . . . . . . . . . . 374
C.2.2. Propiedades de la transformada de Fourier discreta . . . . 376
Demostraci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 380
Demostraci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 383
C.2.3. Aspecto pr´ actico: la transformada r´ apida de Fourier . . . 392
D. La transformada de Laplace 399
D.1. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . 399
D.1.1. Definici´ on de la Transformada . . . . . . . . . . . . . . . . 399
D.1.2. Propiedades de la Transformada de Laplace . . . . . . . . 401
Demostraci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 407
Demostraci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 408
Demostraci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 408
D.1.3. Descomposici´ on en fracciones parciales . . . . . . . . . . . 416
E. La Transformaci´ on Zeta 423
E.1. Definici´ on de la Transformaci´ on . . . . . . . . . . . . . . . . . . . 423
E.2. Propiedades de la Transformada Zeta . . . . . . . . . . . . . . . 425
Demostraci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 429
Demostraci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 430
x
´
INDICE GENERAL
F. Matrices. Definiciones y Propiedades 435
F.1. Conceptos B´ asicos . . . . . . . . . . . . . . . . . . . . . . . . . . 435
F.2. Determinante de una matriz . . . . . . . . . . . . . . . . . . . . . 438
F.3. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . 441
F.4. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 443
F.5. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . 448
F.6. Normas de vectores y matrices . . . . . . . . . . . . . . . . . . . 457
F.7. Tipos especiales de matrices . . . . . . . . . . . . . . . . . . . . . 460
F.8. Valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . 466
´
Indice alfab´etico 471
´
Indice de figuras
1.1. Sistema el´ectrico . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Representaci´ on compacta de un sistema . . . . . . . . . . . . . . 3
1.3. Propiedad de invarianza en el tiempo . . . . . . . . . . . . . . . . 8
1.4. Diagrama Simulink para simulaci´ on de un sistema no lineal. . . 16
1.5. Salida del sistema no lineal (linea s´ olida) y salida del sistema lin-
ealizado (l´ınea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (l´ınea punteada) . . . . . . . . . . . . . . 16
1.6. Ganancia no lineal para el Problema 1.8 . . . . . . . . . . . . . . 19
2.1. Escal´ on unitario o funci´ on de Heaviside. . . . . . . . . . . . . . . 22
2.2. Impulso unitario o delta de Dirac. . . . . . . . . . . . . . . . . . 22
2.3. Aproximaciones al delta de Dirac . . . . . . . . . . . . . . . . . . 22
2.4. Rampa unitaria. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5. Exponenciales creciente (izquierda) y decreciente (derecha) . . . 25
2.6. Exponenciales de diferentes velocidades de decaimiento . . . . . . 25
2.7. Propiedad de la constante de tiempo . . . . . . . . . . . . . . . . 26
2.8. Se˜ nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.) . . . . . . . . . . . . . 27
2.9. Escal´ on unitario de tiempo discreto . . . . . . . . . . . . . . . . . 27
2.10. Impulso unitario discreto o delta de Kronecker . . . . . . . . . . 28
2.11. Rampa unitaria de tiempo discreto . . . . . . . . . . . . . . . . . 29
2.12. Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), λ ∈ R
+
. . . . . . . . . . . . . . . . . . . . . . . 29
2.13. Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), λ ∈ R

. . . . . . . . . . . . . . . . . . . . . . . 30
2.14. Se˜ nales sinusoidales de tiempo discreto con amplitud variando
exponencialmente . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.15. Se˜ nales compuestas . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1. Red RLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2. Relaci´ on entre la ubicaci´ on de las frecuencias naturales (de mul-
tiplicidad uno) y los modos naturales . . . . . . . . . . . . . . . . 41
3.3. Red lineal con condiciones iniciales . . . . . . . . . . . . . . . . . 47
3.4. Efectos de la invarianza en el tiempo . . . . . . . . . . . . . . . . 52
xi
xii
´
INDICE DE FIGURAS
3.5. Ejemplo de descripci´ on gr´ afica de la convoluci´ on . . . . . . . . . 55
3.6. Respuesta a escal´ on unitario . . . . . . . . . . . . . . . . . . . . . 58
3.7. Configuraci´ on de frecuencias naturales de dos sistemas . . . . . . 58
3.8. Red el´ectrica con amplificador operacional . . . . . . . . . . . . . 59
4.1. Relaci´ on entre la ubicaci´ on de las frecuencias naturales (de mul-
tiplicidad uno) y los modos naturales (caso decreciente). . . . . . 69
4.2. Relaci´ on entre la ubicaci´ on de las frecuencias naturales (de mul-
tiplicidad uno) y los modos naturales (caso no decreciente). . . . 70
4.3. Respuesta a escal´ on unitario . . . . . . . . . . . . . . . . . . . . . 85
4.4. Red resistiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.1. Se˜ nales de entrada y salida en el Ejemplo 5.1 . . . . . . . . . . . 91
5.2. Respuesta en frecuencia de un sistema de segundo orden de tiem-
po continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.3. Se˜ nal cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.4. Espectro de l´ınea de una se˜ nal cuadrada. . . . . . . . . . . . . . . 95
5.5. Se˜ nal a la salida de rectificador controlado por tristores . . . . . 96
5.6. Aproximaci´ on de la se˜ nal triangular con la primera y tercera
arm´ onica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.7. Espectro de l´ınea de una se˜ nal triangular . . . . . . . . . . . . . 98
5.8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.9. Respuesta en frecuencia de un sistema de segundo orden de tiem-
po discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.10. Respuesta en frecuencia de un sistema de tercer orden de tiempo
continuo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.11. Comportamiento de un sistema con una excitaci´ on peri´ odica. . . 112
5.12. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.1. Se˜ nales arbitrarias . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.2. La funci´ on restringida a [a, b] y su reconstrucci´ on usando la serie
de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3. Viga cargada con arena . . . . . . . . . . . . . . . . . . . . . . . 123
6.4. Circuito RC como sistema de primer orden. . . . . . . . . . . . . 126
6.5. Magnitud y ´ angulo de H( ω) en el ejemplo (α = 100). . . . . . . 132
6.6. Sistemas pasa bajos (izquierda) y pasa altos (derecha) . . . . . . 134
6.7. Respuesta a escalones de un sistema pasa bajos y un sistema pasa
altos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.8. Sistemas pasa banda y elimina banda. . . . . . . . . . . . . . . . 135
6.9. Respuesta a escalones de un sistema pasa banda y un sistema
elimina banda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.10. Delta de Kronecker y su transformada de Fourier . . . . . . . . . 141
6.11. Se˜ nal y[t] = (0,8)
t
µ[t] y la magnitud de Y (e

). . . . . . . . . . . 142
6.12. Se˜ nal y[t] y su transformada discreta Y (e

). . . . . . . . . . . . 143
6.13. Respuesta a impulso y a escal´ on del ejemplo 6.14 . . . . . . . . . 147
´
INDICE DE FIGURAS xiii
6.14. Respuesta en frecuencia (magnitud) de un sistema de tiempo dis-
creto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.1. Respuestas a impulso y a escal´ on en Ejemplo 7.3 . . . . . . . . . 164
7.2.
´
Indices definidos en la respuesta a escalon . . . . . . . . . . . . . 165
7.3. Respuesta a condiciones iniciales para el ejemplo 7.4 . . . . . . . 167
7.4. Circuito RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
7.5. Pulso de entrada y respuesta del sistema del ejemplo 7.6. . . . . 170
7.6. Magnitud y fase de la respuesta en frecuencia del sistema en
Ejemplo 7.7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
7.7. Respuesta a impulso de diferentes sistemas de acuerdo a la ubi-
caci´ on de sus polos en el plano complejo . . . . . . . . . . . . . . 179
7.8. Sistema con interacci´ on aditiva entre dos estados . . . . . . . . . 180
7.9. Efecto de la ubicaci´ on de los ceros sobre la respuesta a escal´ on . 182
7.10. Distintas formas de respuesta inversa . . . . . . . . . . . . . . . . 183
7.11. Localizaci´ on de los polos y respuesta a escal´ on unitario de un
sistema can´ onico de segundo orden. . . . . . . . . . . . . . . . . . 184
7.12. Circuito RLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
8.1. Salida y[t] para el Ejemplo 8.1. . . . . . . . . . . . . . . . . . . . 195
8.2. Relaciones entre ERS, funci´ on de transferencia y respuestas a
delta y a escal´ on. . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
8.3. Respuesta a delta Kronecker y a escal´ on unitario para el Ejemplo
8.6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
8.4. Relaci´ on entre la ubicaci´ on de los polos (de multiplicidad uno) y
los modos naturales (caso decreciente). . . . . . . . . . . . . . . . 212
8.5. Relaci´ on entre la ubicaci´ on de los polos (de multiplicidad uno) y
los modos naturales (caso no decreciente). . . . . . . . . . . . . . 213
8.6. Sistema discreto con interacci´ on aditiva entre dos estados. . . . . 214
8.7. Ejemplos de distintas formas de respuesta inversa en sistemas
discretos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
9.1. Diagrama de Bode de magnitud para una funci´ on tipo [B2], con
q = −1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
9.2. Diagrama de Bode de fase para una funci´ on tipo [B2], con q = −1 223
9.3. Diagrama de Bode de magnitud para una funci´ on tipo [B4], con
q = −1 y dos valores de ξ. . . . . . . . . . . . . . . . . . . . . . . 224
9.4. Diagrama de Bode de fase para una funci´ on tipo [B4], con q = −1 226
9.5. Diagrama de Bode de fase para una funci´ on tipo [B5] . . . . . . . 227
9.6. Diagramas de Bode de magnitud y fase para la respuesta en fre-
cuencia del Ejemplo 9.2 . . . . . . . . . . . . . . . . . . . . . . . 231
9.7. Diagrama de Bode en tiempo discreto (Ejemplo 9.3). . . . . . . . 233
9.8. Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4). . . . . . 235
9.9. Diagrama polar. Coordenadas polar (Ejemplo 9.4). . . . . . . . . 236
9.10. Diagramas polares para el caso [P1]. . . . . . . . . . . . . . . . . 237
9.11. Diagrama polar de una funci´ on tipo [P4] para distintos valores de ξ238
xiv
´
INDICE DE FIGURAS
9.12. Diagrama polar de una funci´ on tipo [P6] con T = 1 . . . . . . . . 240
9.13. a) Diagrama polar de una funci´ on tipo [P7] (T = 1 y τ = 2), y
b) detalle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
9.14. Diagrama polar de H( ω) para el Ejemplo 9.5. . . . . . . . . . . 242
9.15. a) Diagrama polar de H( ω) para el Ejemplo 9.6, y b) detalle. . 243
9.16. Interpretaci´ on gr´ afica de la respuesta en frecuencia (e

−p
o
)
−1
. 244
9.17. Interpretaci´ on gr´ afica de la respuesta en frecuencia de 1 −z
o
e
−jt
. 245
9.18. Diagrama polar para el Ejemplo 9.7. . . . . . . . . . . . . . . . . 246
9.19. Sistemas a interconectar. Caracterizaci´ on independiente . . . . . 247
9.20. Sistemas interconectados . . . . . . . . . . . . . . . . . . . . . . . 247
9.21. Diagramas de Bode de H(s) . . . . . . . . . . . . . . . . . . . . . 251
9.22. Diagramas de Bode de G(s) . . . . . . . . . . . . . . . . . . . . . 251
9.23. Diagramas de Bode de G(s) . . . . . . . . . . . . . . . . . . . . . 252
10.1. Sistema masa-resorte. . . . . . . . . . . . . . . . . . . . . . . . . 256
10.2. Levitador electromagn´etico. . . . . . . . . . . . . . . . . . . . . . 259
10.3. Respuesta homog´enea del sistema masa-resorte-roce. . . . . . . . 264
10.4. Trayectorias en el espacio de estado del sistema masa-resorte-roce. 265
10.5. Resonancia en el sistema masa-resorte. . . . . . . . . . . . . . . . 268
10.6. Red el´ectrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
10.7. Esquema de un sistema muestreado . . . . . . . . . . . . . . . . . 275
10.8. Respuesta a escal´ on del sistema para diferentes autovalores. . . . 282
10.9. Resonancia en la salida del sistema. . . . . . . . . . . . . . . . . 283
10.10.Efecto del muestreo en los modos naturales . . . . . . . . . . . . 284
10.11.Sistema t´ermico con retardo. . . . . . . . . . . . . . . . . . . . . 285
10.12.Conexi´ on de sistemas en serie . . . . . . . . . . . . . . . . . . . . 288
10.13.Conexi´ on de sistemas en paralelo . . . . . . . . . . . . . . . . . . 289
10.14.Conexi´ on de sistemas en realimentaci´ on (feedback) . . . . . . . . 289
10.15.Circuito electr´ onico para el Ejemplo 10.19. . . . . . . . . . . . . . 293
10.16.Circuito electr´ onico. . . . . . . . . . . . . . . . . . . . . . . . . . 302
10.17.Estructura de un sistema de acuerdo a su controlabilidad y ob-
servabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
10.18.Observador del estado cl´ asico . . . . . . . . . . . . . . . . . . . . 310
10.19.Error de estimaci´ on del estado . . . . . . . . . . . . . . . . . . . 312
10.20.Sistema rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . 312
10.21.Caracter´ıstica de filtraje de los observadores . . . . . . . . . . . . 315
11.1. Proceso de muestreo y cuantizaci´ on . . . . . . . . . . . . . . . . . 318
11.2. Muestreo a diferentes frecuencias . . . . . . . . . . . . . . . . . . 319
11.3. Error de reconstrucci´ on usando interpolaci´ on c´ ubica. . . . . . . . 320
12.1. Estimaci´ on por m´ınimos cuadr´ aticos . . . . . . . . . . . . . . . . 326
12.2. Estimaci´ on por m´ınimos cuadr´ aticos . . . . . . . . . . . . . . . . 333
A.1. Aproximaci´ on de primer orden para funci´ on no lineal de una va-
riable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
´
INDICE DE FIGURAS xv
C.1. Pulso y su transformada para ∆ = 1,
1
4
,
1
16
. . . . . . . . . . . . . 360
C.2. Espectro de una se˜ nal de frecuencias audible y espectro de la
se˜ nal modulada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
C.3. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
C.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
C.5. Se˜ nal cosenoidal y[k] y su transformada discreta. . . . . . . . . . 379
C.6. Secuencia y[k] = k(0,8)
k
µ[k] y la magnitud de su TFD. . . . . . . 384
C.7. Comparaci´ on N
2
(x) y N log
2
N (’*’) . . . . . . . . . . . . . . . 395
C.8. Primera etapa de la FFT para N = 8 . . . . . . . . . . . . . . . . 396
C.9. Primera y segunda etapa de la FFT para N = 8 . . . . . . . . . 397
C.10.Las tres etapas de la FFT para N = 8 . . . . . . . . . . . . . . . 398
D.1. Circuito RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
xvi
´
INDICE DE FIGURAS
´
Indice de cuadros
3.1. Presencia de modos en descomposiciones de la respuesta . . . . . 45
3.2. Presencia de modos en descomposiciones de la respuesta del Ejem-
plo 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1. Presencia de modos en descomposiciones de la respuesta . . . . . 73
4.2. Presencia de modos en descomposiciones de la respuesta del ejemplo 75
5.1. Amplitud y fase de las arm´ onicas en el Ejemplo 5.8. . . . . . . . 111
7.1.
´
Indices de la respuesta a escal´ on . . . . . . . . . . . . . . . . . . 166
7.2. Arreglo de Routh . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
8.1. Arreglo de Jury . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.2. Arreglo de Jury. Ejemplo 8.10 . . . . . . . . . . . . . . . . . . . . 210
8.3. Arreglo de Jury. Ejemplo 8.11 . . . . . . . . . . . . . . . . . . . . 210
9.1. Aproximaciones asint´ oticas de magnitud de factores b´ asicos . . . 228
9.2. Aproximaciones asint´ oticas de fase de factores b´ asicos . . . . . . 229
9.3. Contribuci´ on de pendientes entre puntos de quiebre. Diagrama
de magnitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
9.4. Contribuci´ on de pendientes entre puntos de quiebre. Diagrama
de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
9.5. Diagramas de bloques y transferencias equivalentes . . . . . . . . 249
C.1. Propiedades de la transformada de Fourier. . . . . . . . . . . . . 388
C.2. Tabla de tranformadas de Fourier . . . . . . . . . . . . . . . . . 389
C.3. Propiedades de la transformada de Fourier discreta. . . . . . . . 390
C.4. Tabla de tranformadas de Fourier discretas . . . . . . . . . . . . 391
D.1. Propiedades de la transformada de Laplace . . . . . . . . . . . . 414
D.2. Transformadas de Laplace de algunas funciones simples . . . . . 415
D.3. Transformadas inversas de Laplace ´ utiles . . . . . . . . . . . . . . 421
E.1. Propiedades de la transformada Zeta . . . . . . . . . . . . . . . . 433
E.2. Transformada Zeta de algunas funciones simples . . . . . . . . . 434
xvii
xviii
´
INDICE DE CUADROS
sistema
entrada
condicionesiniciales
Cap´ıtulo 1
Aspectos fundamentales
1.1. Sistemas
La entidad b´ asica considerada a lo largo del texto es el sistema. Como una
forma de uniformar el lenguaje a utilizar, usaremos la siguiente definici´ on:
Definici´ on 1.1. Un sistema es un ente organizado, resultante de la inter-
conexi´ on de elementos b´ asicos, que seg´ un el juicio de un observador tiene una
finalidad y car´ acter determinado.
222
Esta definici´ on es vaga a prop´ osito, de modo que ella permita describir situa-
ciones tan dis´ımiles como sea posible. Es as´ı como la definici´ on de arriba incluye
casos como los de una red el´ectrica, un motor hidr´ aulico, un organismo vivo, la
econom´ıa de un pa´ıs, etc. Tambi´en es relevante destacar que un mismo sistema
f´ısico puede tener inter´es diferente para distintos observadores; por ejemplo, un
amplificador electr´ onico puede ser estudiado como un sistema el´ectrico o co-
mo un sistema t´ermico. De esta forma la nocion de sistema resulta un tanto
abstracta, pero por lo mismo sumamente poderosa.
Nuestra tarea guarda relaci´ on con el comportamiento de los sistemas en el
tiempo, el cual depende de:
y este comportamiento no s´ olo depende , sino que tambi´en de:
los elementos que lo forman y su interconexi´ on, descritos mediante un
modelo matem´atico;
los est´ımulos, entradas o excitaciones aplicados al sistema;
la historia del sistema, condensada en un conjunto de condiciones ini-
ciales;
la variable independiente tiempo (cuando los elementos del sistema y/o
la interconexi´ on de ellos cambian a medida que el tiempo transcurre).
1
2 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
se~ nales
respuestas
sistema!din´ amico
Las entradas al sistema son se˜ nales o funciones temporales a trav´es de las
cuales el sistema recibe informaci´ on y/o energ´ıa. Estos est´ımulos contribuyen a
generar cambios en algunas o en todas las variables del proceso; estas ´ ultimas
tambi´en son se˜ nales puesto que pueden ser descritas como funciones del tiempo.
Las se˜ nales del proceso elegidas para observar el comportamiento del sistema se
conocen como respuestas.
Las respuestas de un sistema pueden depender tambi´en de la informaci´ on
y/o energ´ıa existentes (almacenadas) en el sistema en el instante en que el com-
portamiento del sistema empieza a ser observado. Los sistemas con esta carac-
ter´ıstica inercial se denominan gen´ericamente sistemas din´amicos. Ejemplos
de mecanismos inerciales en sistemas son:
la velocidad inicial de un motor
el valor inicial de una variable en un computador
la temperatura inicial de una masa
la tensi´ on inicial en un condensador.
Supongamos que deseamos conocer las respuestas en un sistema dado, a
partir de un instante inicial t
o
. Entonces ser´ a suficiente conocer ciertas variables
(estado) del sistema en t = t
0
, y las excitaciones ∀t ≥ t
o
.
Para ilustrar estas ideas analizaremos el siguiente ejemplo.
Ejemplo 1.1. Consideremos la red el´ectrica de la Figura 1.1.
R
v
f
(t)
+
i(t)
C v
c
(t)
Figura 1.1: Sistema el´ectrico
Esta red es un sistema el´ectrico formado por la interconexi´ on de un resistor
y un condensador (los elementos). Hay una entrada al sistema determinada por
la tensi´ on aplicada a trav´es de la fuente independiente de tensi´ on. Como salida
se puede elegir cualquier se˜ nal el´ectrica, como por ejemplo, la potencia disipada
en el resistor, la corriente en el circuito, la tensi´ on en el condensador, etc.
En la Figura 1.1 se han indicado dos se˜ nales, i(t) y v
c
(t), que han sido
elegidas como respuestas del sistema. Para determinar el valor de estas se˜ nales
∀t ≥ 0, necesitamos conocer v
f
(t) ∀t ≥ t
o
y v
c
(0).
222
Para representar un sistema en forma compacta usaremos el diagrama de la
Figura 1.2. En esa figura se ha usado la siguiente notaci´ on:
1.1. SISTEMAS 3
operador
estadoinicial
u(t) ∈ R
m
: vector que re´ une todas las excitaciones del sistema,
x(t
o
) ∈ R
n
: vector que describe el estado del sistema al tiempo t
o
,
y(t) ∈ R
p
: vector que re´ une las se˜ nales escogidas como salidas.
y(t) u(t)
S
x(t
o
)
Figura 1.2: Representaci´ on compacta de un sistema
Para representar gen´ericamente al sistema usaremos la notaci´ on:
y(t) = T¸¸¸x(t
o
), u(t)))) ∀t ≥ t
o
(1.1)
En (1.1), T¸¸¸◦, ◦))) es un operador que describe formalmente la dependencia
que la salida y(t) tiene del estado inicial, x(t
o
), y de la entrada u(t). Este
operador puede ser variante en el tiempo.
Ejemplo 1.2. En el Ejemplo 1.1 se tiene que:
v
f
(t) = RC
dv
c
(t)
dt
+v
c
(t) (1.2)
cuya soluci´ on es
1
:
v
c
(t) = v
c
(t
o
)e

t−t
o
RC
+
_
t
t
o
e

t−η
RC
RC
v
f
(η)dη (1.3)
Entonces, si hacemos la asociaci´ on y(t) = v
c
(t), u(t) = v
f
(t) y x(t
o
) =
v
c
(t
o
), la ecuaci´ on (1.3) puede ser identificada con (1.1), es decir,
v
c
(t) = T¸¸¸v
c
(t
o
), v
f
(t)))) ∀t ≥ t
o
(1.4)
222
Las definiciones precedentes se aplican tambi´en a los sistemas de tiempo
discreto, es decir, cuando el tiempo toma valores en un conjunto enumerable
(t
0
, t
1
, t
2
, . . .). En este tipo de sistemas, la variable independiente temporal se
suele denominar t, y para enfatizar la naturaleza distinta de las se˜ nales de tiem-
po discreto, usaremos par´entesis cuadrados, es decir, f[t] describir´ a una se˜ nal
funci´ on de la variable temporal discreta.
Para ilustrar este tipo de sistemas consideremos el siguiente ejemplo.
1
Tal como se demostrar´ a en el Cap´ıtulo 3.
4 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
sistema!algebraico
modelo
modelo
Ejemplo 1.3. Una cuenta de ahorro tiene un saldo inicial s[t
0
] = s
o
, y recibe
un inter´es igual a ρ % mensual. Si en el mes t-´esimo (t = t
0
, t
0
+1, . . .) se hace
un dep´ osito igual a d[t], entonces el saldo s[t] puede ser descrito por:
s[t] = s[t −1]
_
1 +
ρ
100
_
+d[t] ∀t ≥ t
0
(1.5)
y sujeto a s[t
0
] = s
o
. En este sistema, la entrada es d[t], la salida es s[t], y el
estado inicial es s[t
0
]. La ecuaci´ on (1.5) tiene como soluci´ on:
s[t] = s
o
α
t−t
0
+
t

=t
0
+1
α
t−
d[] ∀t > t
0
(1.6)
La ecuaci´ on (1.6) puede ser asociada con una estructura an´ aloga a la de
(1.1), es decir:
y[t] = T¸¸¸x[t
0
], u[t]))) ∀t ≥ t
0
(1.7)
222
Existe una clase de sistemas en los cuales no hay elementos almacenadores de
energ´ıa. Estos sistemas se conocen como sistemas algebraicos o instant´ aneos. Ejem-
plos cl´ asicos de estos sistemas son las redes el´ectricas resistivas. Para ellos la
representaci´ on (1.1) se reduce a:
y(t) = T¸¸¸u(t)))) o y[t] = T¸¸¸u[t]))) (1.8)
En estricto rigor, todos los sistemas reales son sistemas din´ amicos. Sin em-
bargo, puede ocurrir que para un observador, la escala de tiempo es tal que,
desde el punto de vista pr´ actico, los fen´ omenos ocurren en forma instant´ anea.
En esos casos, para efectos pr´ acticos, el sistema se representa a trav´es de un
modelo algebraico.
1.2. Modelos
Cuando se enfrenta el problema de analizar un sistema, naturalmente no tra-
bajamos con el sistema real, sino que con una representaci´ on de ese sistema. Esa
representaci´ on o modelo, captura aspectos esenciales del sistema. Por defini-
ci´ on, un modelo es una representaci´ on aproximada de la realidad, y su grado
de fidelidad depende de muchos factores, siendo uno de ellos el prop´ osito del
modelo.
La construcci´ on de modelos a partir de sistemas reales es un proceso complejo
que involucra la fenomenolog´ıa del sistema, mediciones, procesos de ajuste, etc.
La obtencion de modelos es, por si sola, una disciplina rica en conceptos y
t´ecnicas, sobre las cuales se entregan mas antecedentes en el Cap´ıtulo 12.
A lo largo del texto, supondremos que ya se cuenta con un modelo que
describe el sistema y, en consecuencia, la teor´ıa que aqu´ı se desarrolla se aplica
al modelo del sistema bajo estudio. El que las conclusiones que as´ı se deriven
1.3. SISTEMAS LINEALES 5
sistemaslineales
superposici\’on
homogeneidad
sean v´ alidas para el sistema mismo depender´ a de la fidelidad con que el modelo
representa a ese sistema. En muchos casos hablaremos del modelo y del sistema
como sin´ onimos, en otros ser´ a necesario hacer la diferencia.
1.3. Sistemas lineales
Los sistemas lineales son un subconjunto del universo de los sistemas. Su
importancia radica en la conjunci´ on de dos elementos:
muchos sistemas pueden representarse por modelos lineales de razonable
fidelidad; y
existen poderosas herramientas para analizar y sintetizar este tipo de sis-
temas.
La naturaleza de esta conjunci´ on se ir´ a apreciando a medida que progresemos
en el tema. No obstante ello, una visi´ on temprana de estas razones se puede
apreciar de inmediato en las definiciones que siguen.
Definici´ on 1.2. Consideremos un sistema o, como se describe en la Figura 1.2
y la ecuaci´ on (1.1). Supongamos adem´ as que el sistema cumple con:
y
1x
(t) = T¸¸¸x
1
(t
o
), 0))) ∀t ≥ t
o
(1.9)
y
1u
(t) = T¸¸¸0, u
1
(t)))) ∀t ≥ t
o
(1.10)
y
2x
(t) = T¸¸¸x
2
(t
o
), 0))) ∀t ≥ t
o
(1.11)
y
2u
(t) = T¸¸¸0, u
2
(t)))) ∀t ≥ t
o
(1.12)
donde x
1
(t
o
) y x
2
(t
o
), son dos vectores de estado inicial arbitrarios,y u
1
(t) y
u
2
(t) son dos vectores de entrada arbitrarios.
Entonces el sistema es lineal si y s´ olo si:
y(t) = T¸¸¸α
1
x
1
(t
o
) +α
2
x
2
(t
o
), β
1
u
1
(t) +β
2
u
2
(t)))) ∀t ≥ t
o
(1.13)
= α
1
T¸¸¸x
1
(t
o
), 0))) +α
2
T¸¸¸x
2
(t
o
), 0))) +β
1
T¸¸¸0, u
1
(t)))) +β
2
T¸¸¸0, u
2
(t)))) (1.14)
= α
1
y
1x
(t) +α
2
y
2x
(t) +β
1
y
1u
(t) +β
2
y
2u
(t) (1.15)
para cualquier conjunto de constantes α
1
, α
2
, β
1
y β
2
.
222
En la definici´ on precedente se han combinado las dos propiedades claves que
definen los sistemas lineales: superposici´ on y homogeneidad.
La propiedad de superposici´ on encierra la idea que la salida del sistema se
puede calcular separando los efectos de componentes del estado y/o componentes
de la salida, y luego sumando (superponiendo) las respuestas a cada uno de
esos componentes. Note que existen tres formas en que se puede presentar la
superposici´ on:
6 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
sistema!algebraico
superposici´ on de la entrada y el estado inicial, es decir
T¸¸¸x(t
o
), u(t)))) = T¸¸¸x(t
o
), 0))) +T¸¸¸0, u(t)))) (1.16)
superposici´ on de componentes del estado inicial, es decir
T¸¸¸x
1
(t
o
) +x
2
(t
o
), 0))) = T¸¸¸x
1
(t
o
), 0))) +T¸¸¸x
2
(t
o
), 0))) (1.17)
superposici´ on de componentes de la entrada, es decir
T¸¸¸0, u
1
(t) +u
2
(t)))) = T¸¸¸0, u
1
(t)))) +T¸¸¸0, u
2
(t)))) (1.18)
Por su parte, la idea de homogeneidad se expresa en que, en los sistemas
lineales, la proporcionalidad en la entrada y/o el estado se propaga a la salida
sin alteraci´ on, es decir
T¸¸¸αx
o
, 0))) = αT¸¸¸x
o
, 0))) (1.19)
T¸¸¸0, βu(t)))) = βT¸¸¸0, u(t)))) (1.20)
La ecuaci´ on (1.19) describe la homogeneidad respecto del estado inicial,
mientras que la ecuaci´ on (1.20) describe la homogeneidad respecto de la en-
trada.
Para los sistemas algebraicos las propiedades de homogeneidad y superposi-
ci´ on se aplican s´ olo a la entrada del sistema, es decir
y(t) = T¸¸¸β
1
u
1
(t) +β
2
u
2
(t)))) = β
1
T¸¸¸u
1
(t)))) +β
2
T¸¸¸¸u
2
(t)))) (1.21)
En resumen, podemos afirmar que la propiedad de linealidad nos permite
descomponer el efecto de una combinacion lineal de entradas y condiciones
iniciales como la combinacion lineal de sus efectos individuales.
Para ilustrar las definiciones anteriores consideramos a continuacion algunos
ejemplos.
Ejemplo 1.4. Considere un sistema algebraico cuya relaci´ on entrada-salida
est´ a dada por:
y(t) = T¸¸¸u(t)))) = 2[u(t)[ (1.22)
El sistema es lineal si y s´ olo si la condici´ on (1.21) se cumple para toda
elecci´ on de las constantes β
1
y β
2
. Es f´ acil observar que si, por ejemplo, elegimos
β
1
= −1 y β
2
= 0, tal condici´ on no se cumple, ya que:
y(t) = T¸¸¸−u
1
(t)))) = 2[u
1
(t)[ ,= −2[u
1
(t)[ = −T¸¸¸u
1
(t)))) (1.23)
En consecuencia, el sistema (1.22) no es lineal.
222
1.3. SISTEMAS LINEALES 7
integrador
Ejemplo 1.5. Sea un sistema cuya relaci´ on entrada-salida est´ a descrita por:
dy(t)
dt
= (u(t))
n
sujeto a y(t
o
) = x
o
(1.24)
Entonces, el estado inicial x(t
o
) es x
o
y la respuesta resulta:
y(t) = T¸¸¸x
o
, u(t)))) = x
o
+
_
t
t
o
(u(η))
n
dη ∀t ≥ t
o
(1.25)
Note que, de la ecuaci´ on (1.25), se ve que el efecto de la entrada y el efecto
de la condici´ on inicial se pueden superponer, ya que:
y(t) = y
x
(t) +y
u
(t)
_
y
x
(t) = T¸¸¸0, u(t)))) =
_
t
t
o
(u(η))
n

y
u
(t) = T¸¸¸x
o
, 0))) = x
o
(1.26)
Consideremos ahora el caso del estado inicial x(t
o
) = x
o
= α
1
x
1
(t
o
) +
α
2
x
2
(t
o
), con u(t) = 0; entonces la respuesta y(t) = y
x
(t) est´ a dada por:
y(t) = α
1
x
1
(t
o
) +α
2
x
2
(t
o
) = α
1
T¸¸¸x
1
(t
o
), 0))) +α
2
T¸¸¸x
2
(t
o
), 0))) (1.27)
De la ecuaci´ on (1.27) se comprueba que el sistema tiene la propiedad de
superposici´ on de las componentes del estado. Naturalmente que tiene adem´ as la
propiedad de homogeneidad del estado.
Finalmente analizamos el caso donde x
1
(t
o
) = x
2
(t
o
) = y(t
o
) = 0, y u(t) =
β
1
u
1
(t) +β
2
u
2
(t), la respuesta y(t) = y
u
(t) est´ a entonces dada por:
y(t) =
_
t
t
o

1
u
1
(η) +β
2
u
2
(η))
n
dη ∀t ≥ t
o
(1.28)
De esta ecuaci´ on se puede ver que la propiedad de superposici´ on de las com-
ponentes de la entrada se cumple si y s´ olo si n = 1. Igual condici´ on, necesaria
y suficiente, se aplica para la homogeneidad de la entrada.
Resumiendo, el sistema del ejemplo tiene las siguientes caracter´ısticas:
tiene la propiedad de superposici´ on del estado y de la entrada;
tiene la propiedad de superposici´ on y homogeneidad del estado;
tiene la propiedad de superposici´ on y homogeneidad de la entrada si y
s´ olo si n = 1.
En consecuencia, el sistema del ejemplo es lineal si y s´ olo si n = 1.
222
El lector debe tener claro que la propiedad de linealidad (o no linealidad) de
un sistema dado no es necesariamente una propiedad intr´ınseca de ese sistema,
sino que puede depender de la elecci´ on de la variable de salida, y/o de la variable
8 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
de entrada. Para visualizar esto, supongamos que en la ecuaci´ on (1.24) definimos
como entrada la se˜ nal ˜ u(t)
Z
= (u(t))
n
. Entonces es f´ acil demostrar que el sistema
con entrada ˜ u(t) y salida y(t) es lineal.
Se puede construir un segundo ejemplo a partir de la red el´ectrica de la
Figura 1.1 en la p´ agina 2. Supongamos que escogemos como salida la potencia
p(t) disipada en el resistor. Entonces, el modelo de entrada-salida resulta dado
por:
v
f
(t) =
_
p(t)R +
1
C
_
t
−∞
_
p(τ)
R
dτ (1.29)
donde hemos usado la ley de Joule p(t) = R(i(t))
2
.
La discusi´ on precedente nos motiva a introducir una nota de cautela en esta
materia
La linealidad o no linealidad de un sistema debe entenderse como la lineali-
dad o no linealidad del modelo espec´ıfico que relaciona la entrada y la salida
particulares elegidas en el sistema.
1.4. Invarianza en el tiempo
Otra propiedad de inter´es es la de invarianza en el tiempo. Un sistema es
invariante en el tiempo cuando las propiedades del sistema no cambian en el
tiempo, es decir, cuando se cumple la situaci´ on de la Figura 1.3, para cualquier
valor del desplazamiento τ.
u(t) u(t −τ) y(t −τ)
invarianza
en tiempo
y(t)
x(0) = x
o
x(τ) = x
o
S S
Figura 1.3: Propiedad de invarianza en el tiempo
En palabras, la Figura 1.3 dice que si retardamos la entrada (y las condiciones
iniciales) la respuesta es la misma que antes, retardada en la misma cantidad.
En rigor, no existen los sistemas invariantes en el tiempo, excepto en su
expresi´ on matem´ atica pura. Sin embargo, es frecuente que la variaci´ on que ex-
perimenta un sistema dado con el transcurso del tiempo sea tan lenta, que se
considera despreciable para todo efecto pr´ actico.
Otro aspecto a observar es que la invarianza en el tiempo (al igual que
la linealidad) no es necesariamente una propiedad intr´ınseca de un sistema.
Consideremos el caso de un sistema con entrada u(t) ∈ R y salida y(t) ∈ R,
1.5. LINEALIZACI
´
ON 9
linealizaci´ on|textbf
puntodeoperaci´ on
modelo!linealizado
donde y(t) = 4u(t) −f(t), donde f(t) es una funci´ on (no constante) del tiempo.
Entonces este sistema es variante en t. Sin embargo, si redefinimos el mismo
sistema de modo que la entrada es ahora el vector ˜ u(t) ∈ R
2
, dado por ˜ u(t) =
[u(t) f(t)]
T
y mantenemos la salida y(t) ∈ R, entonces y(t) = α
˜
u(t), donde α es
un vector fila constante dado por α = [4 −1]. El sistema as´ı definido es ahora
invariante en t.
La propiedad de invarianza en el tiempo, en conjunto con la propiedad de
linealidad, son las que permiten aplicar una serie de potentes herramientas
de an´ alisis, s´ıntesis y dise˜ no de sistemas.
1.5. Linealizaci´ on
Como hemos mencionado ya, casi todos los sistemas reales incluyen carac-
ter´ısticas no lineales. Sin embargo, muchos de ellos pueden ser descritos con
razonable precisi´ on por modelos lineales, al menos dentro de ciertos rangos en
que el sistema funciona, lo cual permite aplicar una amplia gama de herramien-
tas matem´ aticas.
Del punto de vista pr´ actico, para obtener estos modelos lineales es com´ un
comenzar con un modelo no lineal y, a partir de ´este construir una aproxima-
cion lineal en la vecindad de un punto de operaci´ on elegido. Este enfoque
constituye una herramienta clave para el modelado lineal en diversos campos,
por ejemplo, en la Electr´ onica anal´ ogica y en el Control Autom´ atico.
La estrategia de linealizaci´ on puede ser aplicada de igual forma a modelos
de tiempo continuo y a modelos de tiempo discreto, a modelos en variables
de estado (Cap´ıtulo 10) y a modelos de entrada-salida (ecuaciones recursivas y
ecuaciones diferenciales de orden superior).
Antes de intentar la formulaci´ on de un procedimiento general de lineal-
izaci´ on, motivaremos el tema con el estudio de dos casos. Ambos casos se
frasear´ an de id´entica forma, con las obvias adaptaciones, para que el lector
pueda apreciar que el tema de linealizaci´ on trasciende la naturaleza de la de-
scripci´ on temporal.
1.5.1. Sistema no lineal de tiempo continuo
Considere un sistema con entrada u(t) y salida y(t), donde el modelo de
entrada-salida est´ a dado por:
d
2
y(t)
dt
2
+ (0, 2 +y(t))
d y(t)
dt
+ (y(t))
3
=
_
2
d u(t)
dt
+u(t)
_
3
(1.30)
La idea es construir un modelo (ecuaci´ on diferencial) lineal en que las se˜ nales
involucradas sean:
10 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
∆u(t)
Z
= u(t) −u
Q
(1.31)
∆y(t)
Z
= y(t) −y
Q
(1.32)
en que la entrada incremental ∆u(t) y la salida incremental ∆y(t) representan
las variaciones de las se˜ nales u(t) e y(t) en torno al punto de operacion (u
Q
, y
Q
).
La ecuaci´ on (1.30) puede re-escribirse, miembro a miembro, como:
g
a
(x
1
(t), x
2
(t), x
3
(t)) = g
b
(x
4
(t), x
5
(t)) (1.33)
donde x
1
(t) = y(t), x
2
(t) = ˙ y(t), x
3
(t) = ¨ y(t), x
4
(t) = u(t) y x
5
(t) = ˙ u(t). De
esta forma:
g
a
(x
1
(t), x
2
(t), x
3
(t)) = x
3
(t) + (0, 2 +x
1
(t))x
2
(t) + (x
1
(t))
3
(1.34)
g
b
(x
4
(t), x
5
(t)) = (2x
5
(t) +x
4
(t))
3
(1.35)
Luego hacemos la expansi´ on en serie de Taylor (ver Ap´endice A) de g
a
y g
b
para, finalmente, igualar las aproximaciones de primer orden de ambas
funciones. Esto lleva a:
g
a
(x
1Q
, x
2Q
, x
3Q
) + (3 (x
1Q
)
2
+x
2Q
)(x
1
(t) −x
1Q
)
+ (0, 2 +x
1Q
)(x
2
(t) −x
2Q
) + (x
3
(t) −x
3Q
)
= g
b
(x
4Q
, x
5Q
) + 3 (2x
5Q
+x
4Q
)
2
(x
4
(t) −x
4Q
)
+ 6 (2x
5Q
+x
4Q
)
2
(x
5
(t) −x
5Q
) (1.36)
Usando las definiciones anteriores tenemos que:
x
1
(t) −x
1Q
= ∆y(t) (1.37)
x
2
(t) −x
2Q
= ∆˙ y(t) =
d ∆y(t)
dt
−x
2Q
(1.38)
x
3
(t) −x
3Q
= Ƭ y(t) =
d
2
∆y(t)
dt
2
−x
3Q
(1.39)
x
4
(t) −x
4Q
= ∆u(t) (1.40)
x
5
(t) −x
5Q
= ∆˙ u(t) =
d ∆u(t)
dt
−x
5Q
(1.41)
Para lograr el objetivo deseado, es decir, una ecuaci´ on diferencial en ∆u(t)
y ∆x
i
(t), es necesario que el conjunto de valores (x
1Q
, x
2Q
, . . . , x
5Q
) que define
el punto de operaci´ on satisfaga:
g
a
(x
1Q
, x
2Q
, x
3Q
) = g
b
(x
4Q
, x
5Q
) (1.42)
1.5. LINEALIZACI
´
ON 11
puntodeequilibrio
con lo cual, g
a
(x
1Q
, x
2Q
, x
3Q
) y g
b
(x
4Q
, x
5Q
) se compensan en la ecuaci´ on (1.36).
En esta etapa de nuestro an´ alisis es oportuno hacer las siguientes observa-
ciones:
(i) Cada derivada debe ser asociada a una variable x
i
.
(ii) El punto de operaci´ on es arbitrario; pero para llegar a un modelo lineal-
izado, debe satisfacer la ecuaci´ on no lineal original. Para este caso, un
ejemplo de punto de operaci´ on es x
1Q
= 2, x
2Q
= 1, x
3Q
= −9, 2, x
4Q
= 3
y x
5Q
= −1.
(iii) Es necesario elegir un punto de operaci´ on para el que las derivadas de y(t)
y de u(t), respecto del tiempo, sean iguales a cero. Este punto de operaci´ on
se conoce como punto de operaci´ on en equilibrio o, m´ as brevemente, punto
de equilibrio. La idea es que si un sistema est´ a en un punto de equilibrio,
el sistema se mantiene operando en ese punto ya que las derivadas de y(t) y
de u(t) son cero. La elecci´ on del punto de equilibrio se hace considerando
el punto en que el sistema a analizar estar´ a operando. Para este caso,
existen infinitos puntos de equilibrio y todos ellos satisfacen x
1Q
= x
4Q
,
x
2Q
= 0,x
3Q
= 0 y x
5Q
= 0. Con esto, las ecuaciones (1.37)-(1.41) se
transforman en:
x
1
(t) −x
1Q
= ∆y(t) (1.43)
x
2
(t) −x
2Q
= ∆˙ y(t) =
d ∆y(t)
dt
(1.44)
x
3
(t) −x
3Q
= Ƭ y(t) =
d
2
∆y(t)
dt
2
(1.45)
x
4
(t) −x
4Q
= ∆u(t) (1.46)
x
5
(t) −x
5Q
= ∆˙ u(t) =
d ∆u(t)
dt
(1.47)
El modelo lineal para el caso estudiado tiene entonces la forma:
d
2
∆y(t)
dt
2
+a
1
d ∆y(t)
dt
+a
0
∆y(t) = b
1
d ∆u(t)
dt
+b
0
∆u(t) (1.48)
(iv) Cuando el modelo no lineal est´ a descrito por dos o m´ as ecuaciones, las
coordenadas del punto de operaci´ on deben satisfacer al conjunto de ecua-
ciones simult´ aneas.
(v) Un punto de operaci´ on en equilibrio se calcula a partir del modelo alge-
braico (tal vez no lineal) que resulta de hacer cero todas las derivadas en
el modelo din´ amico no lineal.
(vi) La linealizaci´ on puede hacerse sobre la funci´ on compuesta g
Z
= g
a
−g
b
= 0.
222
12 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
1.5.2. Sistema no lineal de tiempo discreto
Considere un sistema de tiempo discreto con entrada u[t] y salida y[t], donde
el modelo de entrada-salida es la ecuaci´ on recursiva:
y[t] + 0, 5y[t −1]y[t −2] + 0, 1u[t](y[t −2])
2
= (u[t −1])
3
(1.49)
La idea es construir un modelo (ecuaci´ on recursiva) lineal en que las se˜ nales
involucradas sean:
∆u[t]
Z
= u[t] −u
Q
(1.50)
∆y[t]
Z
= y[t] −y
Q
(1.51)
en que la entrada incremental ∆u[t] y la salida incremental ∆y[t] representan las
variaciones de las variables u[t] e y[t] en torno al punto de operaci´ on (u
Q
, y
Q
).
La ecuaci´ on (1.30) puede re-escribirse, miembro a miembro, como:
g
c
(x
1
[t], x
2
[t], x
3
[t], x
4
[t]) = g
d
(x
5
[t]) (1.52)
donde x
1
[t] = y[t], x
2
[t] = y[t −1], x
3
[t] = y[t −2], x
4
[t] = u[t] y x
5
[t] = u[t −1].
As´ı:
g
c
(x
1
[t], x
2
[t], x
3
[t], x
4
[t]) = x
1
[t] + 0, 5x
2
[t]x
3
[t] + 0, 1x
4
[t] (x
3
[t])
2
(1.53)
g
d
(x
5
[t]) = (x
5
[t])
3
(1.54)
Luego hacemos la expansi´ on en serie de Taylor (ver Ap´endice A) de g
c
y
g
d
para, finalmente, igualar las aproximaciones de primer orden de ambas fun-
ciones. Esto lleva a:
g
c
(x
1Q
, x
2Q
, x
3Q
, x
4Q
) + (x
1
[t] −x
1Q
)
+ 0, 5x
2Q
(x
3
[t] −x
3Q
) + 0, 5x
3Q
(x
2
[t] −x
2Q
)
+ 0, 2x
4Q
x
3Q
(x
3
[t] −x
3Q
) + 0, 1 (x
3Q
)
2
(x
4
[t] −x
4Q
)
= g
d
(x
5Q
) + 3 (x
5Q
)
2
(x
5
[t] −x
5Q
) (1.55)
Usando las definiciones anteriores y la notaci´ on ∆y[t −] = y[t −] −x
1Q
y
∆u[t −j] = u[t −j] −x
4Q
, tenemos que:
x
1
[t] −x
1Q
= ∆y[t] (1.56)
x
2
[t] −x
2Q
= ∆y[t −1] +x
1Q
−x
2Q
(1.57)
x
3
[t] −x
3Q
= ∆y[t −2] +x
1Q
−x
3Q
(1.58)
x
4
[t] −x
4Q
= ∆u[t] (1.59)
x
5
[t] −x
5Q
= ∆u[t −1] +x
4Q
−x
5Q
(1.60)
1.5. LINEALIZACI
´
ON 13
puntodeequilibrio
Para lograr el objetivo deseado, es decir, una ecuaci´ on recursiva en ∆u[t] y
∆y[t], es necesario que el punto de operaci´ on (x
1Q
, x
2Q
, . . . , x
5Q
) satisfaga:
g
c
(x
1Q
, x
2Q
, x
3Q
, x
4Q
) = g
d
(x
5Q
) (1.61)
con lo cual, g
c
(x
1Q
, x
2Q
, x
3Q
, x
4Q
) y g
d
(x
5Q
) se compensan en (1.55).
En esta etapa de nuestro an´ alisis es oportuno hacer las siguientes observa-
ciones:
(i) Cada se˜ nal retardada debe ser asociada a una variable x
i
.
(ii) El punto de operaci´ on es arbitrario; pero para llegar a un modelo lineal-
izado, debe satisfacer la ecuaci´ on no lineal original. Para este caso, un
ejemplo de punto de operaci´ on es x
1Q
= −2, x
2Q
= 1, x
3Q
= 2, x
4Q
= 5
y x
5Q
= 1.
(iii) Es necesario elegir un punto de operaci´ on en que las se˜ nales son constantes,
es decir, u[t] = u
Q
e y[t] = y
Q
, para todo instante t, lo cual implica tambi´en
que todas las diferencias son cero. Este punto de operaci´ on se conoce como
punto de operaci´ on en equilibrio o, m´ as brevemente, punto de equilibrio.
La idea es que si un sistema est´ a en un punto de equilibrio, el sistema se
mantiene operando en ese punto ya que las diferencias de y[t] y de u[t] son
cero. La elecci´ on del punto de equilibrio se hace considerando el punto en
que el sistema a analizar estar´ a operando. Para este caso, existen infinitos
puntos de equilibrio y todos ellos satisfacen x
1Q
= x
2Q
= x
3Q
= y
Q
,
x
4Q
= x
5Q
= u
Q
, e
y
Q
+ 0, 5y
2
Q
+ 0, 1u
Q
y
2
Q
= u
3
Q
(1.62)
El modelo lineal tiene entonces la forma
∆y[t] +c
1
∆y[t −1] +c
0
∆y[t −2] = d
1
∆u[t] +d
0
∆u[t −1] (1.63)
(iv) Cuando el modelo no lineal est´ a descrito por dos o m´ as ecuaciones, las
coordenadas del punto de operaci´ on deben satisfacer al conjunto de ecua-
ciones simult´ aneas.
(v) Un punto de operaci´ on en equilibrio se calcula a partir del modelo alge-
braico que resulta de hacer cero todas las diferencias en el modelo din´ amico
no lineal, es decir, cada una de las se˜ nales involucradas es reemplazada por
una constante a calcular, con independencia del retardo que ella exhiba.
(vi) La linealizaci´ on puede hacerse sobre la funci´ on compuesta g
Z
= g
c
−g
d
= 0.
222
El an´ alisis de los casos precedentes muestra que, con independencia de la
naturaleza temporal de los sistemas (continuo o discreto), la linealizaci´ on de
14 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
puntode operaci´ on
se~ nalincremental
modelo!peque~ na se~ nal
sus modelos no lineales tiene ciertos pasos b´ asicos. En primer lugar, restringire-
mos la linealizaci´ on a la construcci´ on de modelos lineales en torno a puntos
de equilibrio. Observamos que cuando trabajamos en un punto de equilibrio,
todos los valores de ese punto x
1Q
, x
2Q
, . . . , se pueden expresar en funci´ on del
par (u
Q
, y
Q
); por ello diremos que el punto de operaci´ on en equilibrio queda
definido por ese par.
Supongamos que el sistema con entrada u(◦) y salida y(◦) es descrito por:
f¸u(◦), y(◦)) = 0 (1.64)
donde f¸ ◦ ) es un operador no lineal y, posiblemente, din´ amico.
Tambi´en suponemos que:
(i) existe, al menos un par de valores constantes reales (u
Q
, y
Q
) tales que,
f¸u
Q
, y
Q
) = 0 (1.65)
Cada uno de estos pares define un punto de operaci´ on en equilibrio.
(ii) f¸u(◦), y(◦)) es infinitamente diferenciable, con respecto a u, con respecto
a y, y con respecto a las derivadas (o valores retardados) de ambos, en el
punto de operaci´ on de inter´es.
Si expresamos u(◦) y y(◦) como
u(◦) = u
Q
+ ∆u(◦) (1.66)
y(◦) = y
Q
+ ∆y(◦) (1.67)
entonces podemos expandir el lado izquierdo de la ecuaci´ on (1.64) en una serie
de Taylor, en torno al punto de operaci´ on (u
Q
, y
Q
). Si en esa expansi´ on tomamos
s´ olo los t´erminos de primer orden, entonces el resultado es un modelo lineal, una
ecuaci´ on diferencial o una ecuaci´ on recursiva, en las variables ∆u(◦) y ∆y(◦).
Nota 1.1. El procedimiento de linealizaci´ on en el caso de un sistema discreto se
desarrolla sin dificultad porque las derivadas parciales de la expansi´ on en serie
de Taylor se realizan con respecto a las variables de entrada y de salida y no
con respecto de la variable tiempo (discreto).
Nota 1.2. El procedimiento de linealizaci´ on presentado anteriormente genera
un modelo que es lineal en las componentes incrementales de las entradas y
las salidas en torno a un punto de operaci´ on elegido (i.e. se trata de un modelo
a peque˜ na se˜ nal).
Ilustramos esto a trav´es de algunos ejemplos.
Ejemplo 1.6. Considere un sistema de tiempo continuo descrito por el modelo
f¸u(t), y(t)) =
dy(t)
dt
+
_
y(t) −
(u(t))
2
3
= 0 (1.68)
1.5. LINEALIZACI
´
ON 15
Suponga que la entrada u(t) var´ıa alrededor de u = 2. Encuentre un punto
de operaci´ on con u
Q
= 2 y un modelo linealizado en torno a ´el.
Soluci´ on
(i) El punto de operaci´ on es calculado de (1.68) con u
Q
= 2 y tomando
dy(t)
dt
=
0. Esto lleva a

y
Q

(u
Q
)
2
3
= 0 =⇒y
Q
=
16
9
(1.69)
(ii) El modelo linealizado es entonces obtenido a trav´es de la expansi´ on de
(1.68) en serie de Taylor para obtener:
d∆y(t)
dt
+
1
2

y
Q
∆y(t) −
2u
Q
3
∆u(t) = 0 (1.70)
Cuando se usan valores num´ericos para el punto de operaci´ on, se obtiene
el siguiente modelo linealizado:
d∆y(t)
dt
+
3
8
∆y(t) −
4
3
∆u(t) = 0 (1.71)
222
La idea fundamental que se deduce del proceso de linealizaci´ on es que: las
propiedades del modelo lineal para valores peque˜ nos de sus variables incremen-
tales, permiten inferir el comportamiento del sistema original en las cercan´ıas
del punto de operaci´ on.
Para comparar efectivamente la calidad de la aproximaci´ on que provee un
modelo linealizado, es necesario poder simular ambos modelos, el original (no-
lineal) y el obtenido (lineal). Para ello, herramientas como Simulink o Simnon
son extraordinariamente poderosas. A modo de ejemplo, se incluye en la Figura
1.4 un esquema Simulink para simular el modelo no lineal del Ejemplo 1.6,
dado por:
d y
dt
+
_
y(t) =
(u(t))
2
3
(1.72)
o, en forma m´ as conveniente para armar el esquema Simulink :
d y
dt
= −
_
y(t) +
(u(t))
2
3
(1.73)
Para apreciar la calidad de la aproximaci´ on consideramos el sistema original
y su modelo linealizado y corremos una simulaci´ on donde la entrada a ambos
sistemas es una constante igual a 2 m´ as una secuencia de pulsos de amplitud
creciente. Los resultados se muestran en la Figura 1.5. Podemos ver ah´ı que el
error de linealizaci´ on crece a medida que el sistema es llevado lejos del punto de
operaci´ on, en torno al cual se calcul´ o el modelo linealizado.
16 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
sqrt
Raiz
Cuadrada
|u|
2
Math
Function
In1 Out1
Integrador
1/3
Gain
y(t) u(t)
Figura 1.4: Diagrama Simulink para simulaci´ on de un sistema no lineal.
0 1 2 3 4 5 6 7 8 9 10
1.4
1.6
1.8
2
2.2
2.4
2.6
2.8
Tiempo [s]
Figura 1.5: Salida del sistema no lineal (linea s´ olida) y salida del sistema lin-
ealizado (l´ınea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (l´ınea punteada)
Ejemplo 1.7. Las caracter´ısticas de un sistema no lineal de tiempo discreto,
con entrada u[t] y salida y[t], son descritas exactamente por
f¸u[t], y[t]) = y[t] −0,7y[t −1] +0,12(1 +0,1u[t])y[t −2] −2 +sen(u[t −1]) = 0
(1.74)
Construya un modelo linealizado en torno al punto de operaci´ on definido por
u
Q
= 0.
Soluci´ on
(i) Para calcular y
Q
aplicamos (1.65), de donde se obtiene
y
Q
−0,7y
Q
+ 0,12y
Q
= 2 =⇒y
Q
= 4,762 (1.75)
(ii) El modelo linealizado es ahora construido de (1.74), llevando a
1.5. LINEALIZACI
´
ON 17
∆y[t] −0,7∆y[t −1] + 0,12(1 + 0,1u
Q
)∆y[t −2]+
0,12y
Q
(∆u[t])) + cos (u
Q
) ∆u[t −1] = 0 (1.76)
Entonces, usando los valores num´ericos para el punto de operaci´ on, se
obtiene el siguiente modelo linealizado:
∆y[t] −0,7∆y[t −1] + 0,12∆y[t −2] = −0,571∆u[t] + ∆u[t −1] (1.77)
222
Nota 1.3. Los paquetes computacionales modernos incluyen comandos espe-
ciales para calcular modelos linealizados en torno a puntos de operaci´ on definidos
por el usuario (pre-calculados). En el caso de Simulink , los comandos apropi-
ados son linmod (para sistemas de tiempo continuo) y dlinmod (para sistemas
de tiempo discreto e h´ıbridos).
Nota 1.4. Como hemos mencionado, los modelos linealizados son s´ olo modelos
aproximados y, por tanto, deben ser considerados con la precauci´ on apropia-
da (como deber´ıan serlo en realidad todos los modelos). Cuando se realiza la
linealizacion de un modelo, el siguiente t´ermino de la expansi´ on en serie de
Taylor puede ser utilizado frecuentemente como una medida del error asociado
al modelado.
Los modelos lineales pueden ser obtenidos linealizando un modelo no lineal
en torno a un punto de operaci´ on. En muchas aplicaciones, los modelos
lineales proveen suficiente informaci´ on para estudiar la operaci´ on del sistema
(no lineal) original y para sintetizar sistemas con suficiente precisi´ on. Sin
embargo, se requiere desarrollar una metodolog´ıa para tratar los inevitables
errores de modelado que resultan de la linealizaci´ on.
Una observaci´ on m´ as general sobre el tema de la linealizaci´ on se relaciona
con el hecho que este concepto se puede extender, de modo que la linealizaci´ on
se hace, no en torno a un punto de operaci´ on, sino que a una trayectoria de
operaci´ on, es decir, en torno a una soluci´ on de inter´es (u
Q
(t), y
Q
(t)) del modelo
no lineal.
18 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
1.6. Problemas para el lector
Problema 1.1. Considere un sistema cuyo modelo de comportamiento est´ a da-
do por
y(t) = mu(t) +b (1.78)
Determine las condiciones que deben satisfacer las contantes m y b de modo
que el sistema sea lineal
Problema 1.2. El ´ area de un rect´ angulo es A = xy, donde x e y representan
las longitudes de sus lados.
1.2.1 Obtenga una expresi´ on linealizada para A en torno al punto de operaci´ on
x
Q
= 2, y
Q
= 5.
1.2.2 Obtenga y describa geom´etricamente el error cometido al usar el modelo
lineal para calcular el ´ area de un rect´ angulo con lados x = 3 e y = 6.
Problema 1.3. Sea un sistema lineal algebraico de dimensi´ on 22, es decir,
con dos entradas y dos salidas. Se realizan algunos experimentos y se llega a:
y(t) = [2 −1]
T
= T¸¸¸[1 −1]
T
))) (1.79)
y(t) = [3 4]
T
= T¸¸¸[1 −2]
T
))) (1.80)
Determine la respuesta del sistema cuando la entrada es u(t) = [1 1]
T
Problema 1.4. Considere un sistema con entrada u(t) y salida y(t), rela-
cionados por la ecuaci´ on diferencial
dy(t)
dt
+
_
2 + 0,1 (y(t))
2
_
y(t) = 2u(t) (1.81)
1.4.1 Determine los modelos linealizados para un punto de operaci´ on definido
por y
Q
= 0,1.
1.4.2 Repita el punto anterior para y
Q
= 3. Compare con el resultado anterior.
Problema 1.5. En un sistema con entrada u(t) y salida y(t), la relaci´ on
entrada-salida est´ a dada por
y(t)
d y(t)
dt
+ 3 (y(t))
2
= 2 (u(t))
1
3
(1.82)
Redefina, si es posible, la entrada y/o la salida de modo que el modelo en las
salidas redefinidas sea lineal.
1.6. PROBLEMAS PARA EL LECTOR 19
Problema 1.6. Considere la funci´ on no lineal dada por
y(t) =
_
u(t) ∀[u(t)[ ≤ 1
signo¦u(t)¦ ∀[u(t)[ > 1
(1.83)
Discuta la linealizaci´ on de esta funci´ on en distintos punto de operaci´ on.
Problema 1.7. En los sistemas tributarios modernos existe un tasa progresiva,
es as´ı como a mayor ingreso, m´ as alto es el porcentaje de impuesto a pagar.
Analice el sistema desde el punto de vista de la linealidad
Problema 1.8. Un sistema no lineal tiene un modelo dado por
d y(t)
dt
+f(y)y(t) = 2u(t) (1.84)
Donde la funci´ on f(y) aparece en la Figura 1.6.
−4 −3 −2 −1 0 1 2 3 4
−1.5
−1
−0.5
0
0.5
1
1.5
y
f
(
y
)
Figura 1.6: Ganancia no lineal para el Problema 1.8
Construya modelos linealizados para los puntos de operaci´ on determinados
por y
Q
= −3, y
Q
= 0 e y
Q
= 1.
Problema 1.9. Determine si el siguiente sistema es o no lineal
d y(t)
dt
+ 2ty(t) = 2u(t) (1.85)
Problema 1.10. Construya, si es posible, modelos lineales para los sistemas no
lineales cuyos modelos se indican, con las condiciones de operaci´ on especificadas
(en todos los puntos de operaci´ on resultantes)
y[t] −0,5(y[t −1])
3
= u[t −5] y
Q
= 2 (1.86)
y[t] −0,2y[t −1]y[t −2] + 0,4y[t −3] =
u[t −1]
1 + 0,2(u[t −2])
2
u
Q
= 1 (1.87)
20 CAP
´
ITULO 1. ASPECTOS FUNDAMENTALES
Problema 1.11. Considere el siguiente modelo no lineal
˙ x
1
(t) = −2x
1
(t) + 0,1x
1
(t)x
2
(t) +u(t) (1.88)
˙ x
2
(t) = −x
1
(t) −2x
2
(t) (x
1
(t))
2
(1.89)
y(t) = x
1
(t) + (1 +x
2
(t))
2
(1.90)
Construya un modelo lineal en torno al punto de operaci´ on definido por
u
Q
= 1.
Problema 1.12. . Sistema predador-presa (Lotka-Volterra).
Considere el sistema de ecuaciones diferenciales no-lineales, que describe la
dinamica de una poblacion de conejos (c(t) > 0) y de zorros (z(t) > 0):
d c
dt
= αc(t) +βc(t)z(t) (1.91)
d z
dt
= −γz(t) +δc(t)z(t) (1.92)
en que los par´ ametros α, β, γ, δ son positivos.
1.12.1 Determine todos los puntos de equilibrio del sistema de ecuaciones.
1.12.2 Obtenga el sistema linealizado en torno a cada uno de los puntos de
equilibrio anteriores.
1.12.3 Estudie y compare el tipo de soluciones del sistema linealizado en cada
uno de los puntos de equilibrio.
1.12.4 Elija algun valor para los par´ ametros, y simule el sistema original y el
linealizado en torno a cada punto de equilibrio, representando la solucion
en el plano (c(t), z(t)).
se~ nales|textbf
se~ nales!deprueba
escal´ onunitario
Heaviside
impulsounitario
deltade Dirac|textbf
Dirac
Cap´ıtulo 2
Se˜ nales
2.1. Introducci´ on
El comportamiento de los sistemas puede evaluarse observando las se˜ nales
correspondientes a las variables de entrada del sistema, variables de salida e
incluso a variables intermedias del mismo. M´ as a´ un, el comportamiento de los
sistemas puede estudiarse, y as´ı suele hacerse, observando su respuesta cuando
se inyectan al sistema determinadas se˜ nales de prueba.
El an´ alisis de se˜ nales es un aspecto esencial de la teor´ıa de sistemas lineales,
no s´ olo por su valor experimental, sino que por la propiedad de linealidad, la
cual permite construir modelos en base a la respuesta del sistema ante ciertas
se˜ nales de prueba.
2.2. Se˜ nales de tiempo continuo
En el caso de los sistemas de tiempo continuo, existen varias se˜ nales que
juegan un rol fundamental en la teor´ıa de los sistemas lineales. Ellas y sus
propiedades de mayor inter´es se presentan a continuaci´ on.
2.2.1. Escal´ on unitario (funci´ on de Heaviside)
El escal´ on unitario en el instante t
o
se define como
µ(t −t
o
)
Z
=
_
1 ∀t ≥ t
o
0 ∀t < t
o
(2.1)
y se representa en la Figura 2.1.
2.2.2. Impulso unitario o delta de Dirac
21
22 CAP
´
ITULO 2. SE
˜
NALES
0
1
µ(t −t
o
)
t
o
t
Figura 2.1: Escal´ on unitario o funci´ on de Heaviside.
δ(t −t
o
)
0
1
t
o
t
Figura 2.2: Impulso unitario o delta de Dirac.
El impulso unitario o delta de Dirac es una se˜ nal peculiar. En estricto rigor
no es una funci´ on temporal, sino que es lo que se conoce en Matem´ atica como
distribuci´ on o funci´ on generalizada. Se define como la funci´ on δ(◦) que satisface:
δ(t −t
o
) = 0 ∀t ,= t
o
con
_

−∞
δ(t −t
o
)dt = 1 (2.2)
y se representa gr´ aficamente como muestra la Figura 2.2.
Como se puede observar, esta se˜ nal no es f´ısicamente realizable, y se debe
entender como una idealizaci´ on de determinadas situaciones. Algunas de ellas
se pueden apreciar en la Figura 2.3.
t
o
1

1
2
t
o

f
1
(t) f
2
(t)
t t t
o
t
o

t
o
+ t
o
+
Figura 2.3: Aproximaciones al delta de Dirac
2.2. SE
˜
NALES DE TIEMPO CONTINUO 23
funci\’onmuestreo
rampaunitaria
La funciones f
1
(t) y f
2
(t) de la Figura 2.3 cumplen con:
_

−∞
f
1
(t)dt =
_

−∞
f
2
(t)dt = 1 ∀ (2.3)
Adem´ as,
l´ım
→0
f
1
(t) = l´ım
→0
f
2
(t) = 0 ∀t ,= t
o
(2.4)
Otra funci´ on de importancia que tiene la misma propiedad que f
1
(t) y f
2
(t)
es:
f
3
(t) =
1
π
sen
_
t−t
o

¸
t −t
o
(2.5)
Esta funci´ on, conocida como la funci´ on muestreo, juega un papel muy im-
portante en la relaci´ on entre se˜ nales de tiempo continuo y de tiempo discreto
(ver Cap´ıtulo 11). Se puede demostrar que:
l´ım
→0
f
3
(t) = δ(t −t
o
) (2.6)
Una propiedad clave del delta de Dirac est´ a descrita en el siguiente lema.
Lema 2.1. Considere una funci´ on cualquiera f(t), entonces
f(t) =
_

−∞
f(τ)δ(t −τ)dτ (2.7)
222
El Lema 2.1 establece que toda se˜ nal puede ser expresada como una op-
eraci´ on lineal sobre el impulso δ(t − τ) para −∞ < τ < ∞. Veremos m´ as
adelante que esta propiedad ser´ a la base para calcular la respuesta de un sis-
tema lineal ante cualquier se˜ nal, a partir de la respuesta de ese sistema a un
impulso unitario.
2.2.3. Rampa unitaria
La rampa unitaria se define como:
r(t −t
o
) =
_
t −t
o
∀t ≥ t
o
0 ∀t < t
o
(2.8)
y se muestra en la Figura 2.4.
El delta de Dirac, el escal´ on unitario y la rampa unitaria pertenecen a una
secuencia de funciones, donde cada una se puede obtener como la derivada de
la siguiente, es decir:
δ(t −t
o
) =
dµ(t −t
o
)
dt
=
d
2
r(t −t
o
)
dt
2
(2.9)
24 CAP
´
ITULO 2. SE
˜
NALES
exponencial
exponencial!creciente
constantedetiempo
r(t −t
o
)
t
o
+ 1 t t
o
1
0
Figura 2.4: Rampa unitaria.
o, equivalentemente, a trav´es de la integral de la anterior, es decir:
r(t −t
o
) =
_
t
−∞
µ(τ −t
o
) dτ =
_
t
−∞
_
τ
−∞
δ(ν −t
o
) dν dτ (2.10)
Observe que hemos interpretado el impulso como la derivada del escal´ on, lo
cual implica dar un significado a la derivada de una funci´ on en un punto de
discontinuidad. Esto tiene sentido s´ olo si esa discontinuidad es finita. En todo
caso estas operaciones deben manejarse con precauci´ on si se desea mantener el
rigor matem´ atico.
2.2.4. Exponencial
La funci´ on exponencial es definida gen´ericamente como
f(t) = e
αt
(2.11)
donde α = σ + jω, σ, ω ∈ R. Sin embargo, cuando ω ,= 0, la exponencial no
es una se˜ nal real, y s´ olo tiene sentido f´ısico cuando se combina con su se˜ nal
compleja conjugada, f(t)

= e
α

t
, en cuyo caso se obtiene una sinusoide de
amplitud modulada exponencialmente, situaci´ on que se analiza por separado
m´ as adelante.
Para el caso α ∈ R distinguimos dos casos, como se ilustra en la Figura 2.5.
Cuando α > 0 tenemos una exponencial creciente. Esta se˜ nal est´ a asociada a
los sistemas inestables, como es explicar´ a m´ as adelante. Cuando α < 0, esta-
mos en presencia de una exponencial decreciente. Esta forma exponencial es de
enorme importancia en la teor´ıa de sistemas, ya que aparece con frecuencia en la
descripci´ on de una amplia gama de fen´ omenos, por ejemplo, la descarga de un
condensador a trav´es de un resistor y el decaimiento de sustancias radiactivas,
entre otros.
Naturalmente que el caso especial α = 0 corresponde a la funci´ on constante.
Para las exponenciales decrecientes se suele definir un par´ ametro adicional:
la constante de tiempo, definida como:
2.2. SE
˜
NALES DE TIEMPO CONTINUO 25
sinusoide
0 1 2 3 4
0
0.2
0.4
0.6
0.8
1
α<0
Tiempo [s]
0 1 2 3 4
1
2
3
4
5
6
7
8
α>0
Tiempo [s]
Figura 2.5: Exponenciales creciente (izquierda) y decreciente (derecha)
τ =
1
[σ[
(2.12)
La constante de tiempo es una medida de la velocidad de decaimiento
de la exponencial, tal como se ilustra en la Figura 2.6.
0 0.5 1 1.5 2 2.5 3 3.5 4
0
0.2
0.4
0.6
0.8
1
Tiempo [s]
τ
1

2

3
τ=τ
3
τ=τ
2
τ=τ
1
Figura 2.6: Exponenciales de diferentes velocidades de decaimiento
Una propiedad interesante de la exponencial se muestra en la Figura 2.7,
donde se observa que la tangente a la curva, trazada en t = 0 intersecta la
as´ıntota de la exponencial (el eje temporal) exactamente en t = τ, lo cual puede
ser verificado anal´ıticamente por el lector.
2.2.5. Se˜ nales sinusoidales
La se˜ nal fundamental en todo tipo de oscilaciones peri´ odicas es la funci´ on
sinusoidal, que se describe en forma gen´erica por:
f(t) = Asen(ωt +β) (2.13)
26 CAP
´
ITULO 2. SE
˜
NALES
sinusoide!amplitud
sinusoide!frecuenciaangular
sinusoide!desfase
sinusoide!per´ ıodo
sinusoide!frecuencia
Euler
sinusoide!f´ ormuladeEuler
exponencialimaginaria
sinusoide!amortiguada
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
0
0.2
0.4
0.6
0.8
1
Tiempo normalizado t/τ
Figura 2.7: Propiedad de la constante de tiempo
donde A es la amplitud, ω es la frecuencia angular (en [rad/s]) y β es el ´ angulo
de fase, o desfase.
El per´ıodo, T [s], y la frecuencia, f [Hz], de la sinusoide est´ an dados por:
T =
1
f
=

ω
(2.14)
Un representaci´ on equivalente para las se˜ nales sinusoidales se puede obtener
a partir de la f´ ormula de Euler
Asen(ωt +β) = A
e
j(ωt+β)
−e
−j(ωt+β)
2j
(2.15)
De esta ecuaci´ on se puede apreciar la interpretaci´ on que usualmente se da a
la exponencial imaginaria e
jωt
, ya que
1
sen(ωt) = ·¦e
jωt
¦ (2.16)
2.2.6. Sinusoidales con amplitud exponencial
Otra de las se˜ nales que aparece frecuentemente en la descripci´ on del com-
portamiento natural de los sistemas son las sinusoides cuya amplitud var´ıan
exponencialmente en el tiempo, es decir, de la forma:
f(t) = Ae
σt
sen(ωt +β) (2.17)
Naturalmente, cuando σ = 0, la se˜ nal se reduce a una sinusoide pura. Los
casos σ < 0 (sinusoide amortiguada exponencialmente) y σ > 0 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.8.
Para estas funciones, la relaci´ on de Euler lleva a:
Ae
σt
sen(ωt +β) = A
e
(σ+jω)t+jβ
−e
(σ−jω)t−jβ
2j
(2.18)
1
La notaci´ on { } siginifica parte imaginaria de ...
2.3. SE
˜
NALES DE TIEMPO DISCRETO 27
se~ nales!detiempodiscreto
escal´ onunitario
impulsounitario
deltadeKronecker|textbf
0 1 2 3
−1
−0.5
0
0.5
1
tiempo normalizado t/T
0 1 2 3
−500
0
500
tiempo normalizado t/T
Figura 2.8: Se˜ nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.)
0
1
t
µ[t −t
o
]
t
o
Figura 2.9: Escal´ on unitario de tiempo discreto
2.3. Se˜ nales de tiempo discreto
En el caso de las se˜ nales de tiempo discreto, existen contrapartes directas de
las se˜ nales para tiempo continuo, con algunas sutiles, pero significativas diferen-
cias. La primera diferencia obvia es que la variable independiente est´ a definida
sobre el conjunto de los n´ umeros enteros, Z. Otras aparecer´ an en cada oportu-
nidad.
2.3.1. Escal´ on unitario de tiempo discreto
El escal´ on unitario en el instante t
o
se define como:
µ[t −t
o
]
Z
=
_
1 ∀t ≥ t
o
0 ∀t < t
o
(2.19)
y se representa en la Figura 2.9.
2.3.2. Impulso unitario discreto o delta de Kronecker
28 CAP
´
ITULO 2. SE
˜
NALES
rampaunitaria
0
1
t t
o
δ[t −t
o
]
Figura 2.10: Impulso unitario discreto o delta de Kronecker
El impulso unitario discreto o delta de Kronecker se define como:
δ[t −t
o
]
Z
=
_
0 ∀t ,= t
o
1 t = t
o
(2.20)
y se representa en la Figura 2.10.
Una propiedad clave del delta de Kronecker, an´ aloga a la del delta de Dirac
(lema 2.1) est´ a descrita en el siguiente lema.
Lema 2.2. Considere una funci´ on cualquiera f[t], entonces
f[t] =

i=−∞
f[i]δ[t −i] (2.21)
222
El lema 2.2 establece que toda se˜ nal puede ser expresada como una operaci´ on
lineal sobre un tren de deltas de Kronecker. Veremos m´ as adelante que esta
propiedad ser´ a la base para calcular la respuesta de un sistema lineal de tiempo
discreto a partir de su respuesta a un impulso unitario.
2.3.3. Rampa unitaria de tiempo discreto
La rampa unitaria se define como:
r[t −t
0
]
Z
=
_
t −t
o
∀t ≥ t
o
0 ∀t < t
o
(2.22)
y se representa en la Figura 2.11.
De manera similar a las se˜ nales de tiempo continuo, el delta de Kronecker,
el escal´ on unitario y la rampa unitaria pertenecen a una secuencia de funciones,
donde cada una se puede obtener como la primera diferencia del miembro que
le sigue, es decir:
δ[t −t
o
] = µ[t −t
o
] −µ[t −t
o
−1]; µ[t −t
o
] = r[t −t
o
+1] −r[t −t
o
] (2.23)
2.3. SE
˜
NALES DE TIEMPO DISCRETO 29
exponencial
0 t t
o
r[t −t
o
]
Figura 2.11: Rampa unitaria de tiempo discreto
o a trav´es de la acumulaci´ on de la que precede, es decir
r[t −t
o
] =

i=t
o
+1
µ[t −i]; µ[t −t
o
] =

i=t
o
δ[t −i] (2.24)
2.3.4. Exponencial de tiempo discreto
La funci´ on exponencial es definida gen´ericamente como
f[t] = λ
t
(2.25)
donde λ es, en general, un n´ umero complejo. Sin embargo, cuando ·¦λ¦ ,=
0, la exponencial no es una se˜ nal real, y s´ olo tiene sentido f´ısico cuando se
combina con (λ

)
t
, en cuyo caso se llega a una sinusoide de amplitud modulada
exponencialmente, situaci´ on que se analiza por separado m´ as adelante.
Si λ ∈ R distinguimos cuatro casos, como se ilustra en la Figuras 2.12 y 2.13.
0 2 4 6 8
0
0.2
0.4
0.6
0.8
1
1.2
0<λ< 1

0 2 4 6 8
0
1
2
3
4
5
1<λ

Figura 2.12: Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), λ ∈ R
+
En la Figura 2.12, se observa el caso cuando λ es positivo, a la izquierda
aparece un ejemplo para 0 < λ < 1 y a la derecha, aparece un ejemplo para λ >
30 CAP
´
ITULO 2. SE
˜
NALES
exponencial!creciente
sinusoide!discreta
sinuosoide!aperi´ odica
1. Cuando λ > 1 tenemos una exponencial creciente. Esta se˜ nal aparece asociada
a los sistemas inestables de tiempo discreto, como es explicar´ a m´ as adelante.
Por su parte, cuando 0 < λ < 1, estamos en presencia de una exponencial
decreciente. Esta forma exponencial es de enorme importancia en la teor´ıa de
sistemas, ya que interviene con frecuencia en la descripci´ on del comportamiento
natural de una amplia gama de sistemas.
En la Figura 2.13, se observa el caso cuando λ es negativo, a la izquierda
aparece el sub-caso 0 > λ > −1 y a la derecha, aparece el sub-caso λ < −1.
0 2 4 6 8
−1
−0.5
0
0.5
1

0>λ>− 1
0 2 4 6 8
−4
−2
0
2
4
6

λ<− 1
Figura 2.13: Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), λ ∈ R

Naturalmente que el caso especial λ = 1 corresponde a la funci´ on constante,
y el caso λ = −1 puede identificarse como una se˜ nal sinusoidal, las cuales se
revisan a continuaci´ on.
2.3.5. Se˜ nales sinusoidales de tiempo discreto
Al igual que en el caso de tiempo continuo, en sistemas discretos la se˜ nal fun-
damental en oscilaciones peri´ odicas es la funci´ on sinusoidal, cuya forma gen´erica
es:
f[t] = Asen(θt +β) (2.26)
donde A es la amplitud, θ es la frecuencia angular normalizada (en [rad]) y β
es el ´ angulo de fase, o desfase. Note que la unidad de la frecuencia es [rad], y en
el Cap´ıtulo 11 veremos la relaci´ on entre esta y la frecuencia angular en tiempo
continuo, con unidades [rad/s].
Una importante diferencia con las sinusoides de tiempo continuo, es que una
sinusoide de tiempo discreto puede ser aperi´ odica en t.
Lema 2.3. Una sinusoide de tiempo discreto es peri´ odica si s´ olo si existen
n´ umeros naturales p y N, tales que:
θ = 2π
p
N
(2.27)
2.3. SE
˜
NALES DE TIEMPO DISCRETO 31
Euler
sinusoide!discreta!amortiguada
Demostraci´ on
Una sinusoide discreta sen(θt) es peri´ odica si y s´ olo si existe un n´ umero
natural N tal que, para todo t ∈ N,
sen(θt) = sen(θ(t +N)) = sen(θt) cos(θN) + cos(θt) sen(θN) (2.28)
Para que esta igualdad se cumpla para todo t ∈ N, es necesario y suficiente
que cos(θN) = 1 ( ⇐⇒ sen(θN) = 0). Esto se cumple si y s´ olo si existe p ∈ N
tal que se cumple (2.27).
222
De acuerdo a este lema, las sinusoidales de tiempo discreto: sen(t/7), cos(2t),
sen(e t) son todas se˜ nales aperi´ odicas.
Un representaci´ on equivalente para las se˜ nales sinusoidales se puede obtener
a partir de la f´ ormula de Euler:
Asen(θt +β) = A
e
j(θt+β)
−e
−j(θt+β)
2j
(2.29)
2.3.6. Sinusoidales con amplitud exponencial
La sinusoide con amplitud modulada exponencialmente interviene frecuente-
mente describiendo el comportamiento natural de los sistemas de tiempo dis-
creto. Esta se˜ nal aparece cuando λ ∈ C, lo cual significa que podemos expresar
λ en la forma polar:
λ = ρ e
j θ
= [λ[ e
j∠λ
(2.30)
y, de esta forma, tenemos que:
λ
t
= ρ
t
e
j θt
= ρ
t
cos(t θ) +jρ
t
sen(t θ) (2.31)
Consideremos entonces la se˜ nal:
f[t] = Aρ
t
sen(θt +β) (2.32)
Naturalmente, cuando ρ = 1, la se˜ nal se reduce a una sinusoide pura. Los
casos 0 < ρ < 1 (sinusoide amortiguada exponencialmente) y ρ > 1 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.14.
32 CAP
´
ITULO 2. SE
˜
NALES
0 5 10 15 20
−0.4
−0.2
0
0.2
0.4
0.6
0.8
0<ρ <1
0 5 10 15 20
−3
−2
−1
0
1
2
3
ρ >1
Figura 2.14: Se˜ nales sinusoidales de tiempo discreto con amplitud variando ex-
ponencialmente
2.4. Problemas para el lector
Problema 2.1. Dibuje los gr´ aficos de las siguientes se˜ nales:
f
1
(t) = [ sen(2t)[; f
2
(t) = µ(−3t + 2) (2.33)
f
3
(t) =
sen(2t)
t
; f
4
(t) = r(−4t −2) (2.34)
Problema 2.2 (Se˜ nal de amplitud modulada). Suponga que la se˜ nal
f(t) = cos(10πt) es multiplicada por otra se˜ nal g(t). Dibuje el gr´ afico del produc-
to f(t)g(t), para dos casos distintos: g(t) = 0,2 sen(πt) y g(t) = signo(sen(πt))
Problema 2.3 (Pulsos de ancho modulado). Supongamos se tiene la se-
cuencia de pulsos:
f(t) =

i=0
(µ(t −3i) −µ(t −1 −g(t) −3i)) (2.35)
Construya un gr´ afico de la se˜ nal f(t) para g(t) = 0, 5 sen(0, 1πt).
Problema 2.4. Considere la funci´ on:
f(t) =
1
π
sen(α(t −2))
t −2
(2.36)
Dibuje f(t) (use Matlab ) para diferentes valores de α. Comente sus resul-
tados
Problema 2.5. Determine una expresi´ on anal´ıtica para la derivada de las
siguientes funciones y graf´ıquelas:
2.4. PROBLEMAS PARA EL LECTOR 33
f
1
(t) = 2µ(t −2) −µ(t −4); f
2
(t) = sen
_
3t −
π
3
_
µ(t −
π
2
) (2.37)
f
3
(t) = r
_
2t −4
3
_
; f
4
(t) = (r(t) −2r(t −2)) µ(−t + 4) (2.38)
Problema 2.6. Considere los gr´ aficos de la Figura 2.15.
f
2
(t) f
1
(t)
t
1 2 3 1 2 3 4
t
Figura 2.15: Se˜ nales compuestas
Para cada se˜ nal:
2.6.1 Encuentre la expresi´ on anal´ıtica para cada una de las se˜ nales.
2.6.2 Determine una expresi´ on anal´ıtica para la integral en el intervalo [0, t].
Problema 2.7. Grafique las siguientes se˜ nales de tiempo discreto:
f
1
[t] = µ[t −2] −3µ[t −5] (2.39)
f
2
[t] = (0,8)
t
cos(0,25t) (2.40)
f
3
[t] = 1 −sen(tπ/8) (2.41)
Problema 2.8. Suponga que la se˜ nal de tiempo continuo f(t) = 4 cos(πt) es
muestreada cada ∆ [s]. Dibuje la se˜ nal de tiempo discreto
˜
f[t] = f(t∆) para tres
valores diferentes de ∆: 0, 1; 1 y 2.
Problema 2.9. Considere la secuencia de n´ umeros ¦2; 1; 2; 1; 2; 1; 2; 1; 2; 1, . . .¦.
Si asocia esa secuencia al tiempo discreto, encuentre una expresi´ on anal´ıtica que
describa la secuencia.
34 CAP
´
ITULO 2. SE
˜
NALES
ecuaci´ ondiferencialdelsistema|textbf
Cap´ıtulo 3
An´alisis en tiempo continuo
3.1. Introducci´ on
La herramienta fundamental para describir los cambios de una variable en
el dominio del tiempo continuo es la derivada, por tanto, el modelo matem´ atico
central para los sistemas en tiempo continuo es la ecuaci´ on diferencial del sis-
tema, EDS, la cual relaciona la entrada del sistema, u(t), con la salida, y(t). En
el caso de modelos linealizados (Cap´ıtulo 1), debe entenderse que nos referimos
a la entrada incremental ∆u(t) y salida incremental ∆y(t).
Como ya hemos destacado, cuando se dispone de un buen modelo lineal para
un sistema, se puede utilizar numerosas y poderosas herramientas de an´ alisis,
s´ıntesis y dise˜ no. Por ejemplo, para resolver una EDS respecto de una entrada
particular y condiciones iniciales espec´ıficas, los m´etodos operacionalmente m´ as
eficientes pertenecen probablemente al dominio del tiempo. Aprovechando tales
m´etodos de resoluci´ on en el tiempo presentaremos en este cap´ıtulo las soluciones
generales para tiempo continuo, suponiendo que el lector tiene la preparaci´ on
previa necesaria para utilizar esos m´etodos de resoluci´ on sin necesidad de de-
mostraci´ on.
El estudio de las propiedades de las soluciones de una EDS nos permitir´ a in-
troducir indicadores de propiedades fundamentales para los sistemas din´ amicos
lineales tales como su comportamiento natural, estabilidad, velocidad relativa,
ganancia y otras. Estos indicadores permitir´ an establecer relaciones estrechas
entre sus propiedades cuantitativas y cualitativas. La aplicaci´ on de los indi-
cadores descritos en este cap´ıtulo y en el siguiente, para el caso de sistemas de
tiempo discreto, es m´ as eficiente en el dominio de la frecuencia, sin embargo, este
t´ opico se aborda en los cap´ıtulos posteriores a trav´es de las transformaciones de
Fourier, de Laplace y Zeta.
3.2. Ecuaci´ on diferencial del sistema (EDS)
La forma general de la EDS es:
35
36 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
Heaviside!operador
Heaviside
d
n
y(t)
dt
n
+a
n−1
d
n−1
y(t)
dt
n−1
+. . . +a
0
y(t)
= b
n−1
d
n−1
dt
n−1
u(t) +b
n−2
d
n−2
dt
n−2
u(t) +. . . +b
0
u(t) (3.1)
La soluci´ on a esta ecuaci´ on debe cumplir adem´ as con las restricciones que
imponen las condiciones o estado inicial.
En algunos casos, conviene usar una notaci´ on compacta, tipo operador, para
denotar la operaci´ on derivada. Por esa raz´ on, introducimos el operador de Heav-
iside, ρ ¸◦) definido por
ρ ¸f(t)) = ρ f(t)
d f(t)
dt
(3.2)
ρ
n
¸f(t)) = ρ
n
f(t) = ρ
¸
ρ
n−1
¸f(t))
_
=
d
n
f(t)
dt
n
(3.3)
El operador de Heaviside representa la derivada de una funci´ on y, natural-
mente, tiene un inverso asociado definido por la integral:
ρ
−1
¸f(t)) =
_
t
−∞
f(τ)d τ (3.4)
Usando este operador, el modelo (3.1) puede ser escrito como
ρ
n
y(t) +a
n−1
ρ
n−1
y(t) +. . . +a
0
y(t) = b
n
ρ
n
u(t) +b
n−1
ρ
n−1
u(t) +. . . +b
0
u(t)
(3.5)
Para ilustrar la forma en que se llega a la EDS desarrollamos el siguiente
ejemplo.
Ejemplo 3.1. Considere la red el´ectrica de la Figura 3.1, donde todos los com-
ponentes son lineales.
+
i(t)
v
f
(t)
C L
R
1
R
2
i
L
(t)
v(t)
Figura 3.1: Red RLC
3.2. ECUACI
´
ON DIFERENCIAL DEL SISTEMA (EDS) 37
Aplicando las leyes de Kirchoff y las relaciones terminales de las compo-
nentes el´ectricas se llega a:
v
f
(t) = R
1
i(t) +v(t) (3.6)
i(t) =
1
L
_
t
−∞
v(τ)dτ +C
dv(t)
dt
+
v(t)
R
2
(3.7)
Derivando ambos miembros de las ecuaciones (3.6) y (3.7) se obtiene:
dv
f
(t)
dt
= R
1
di(t)
dt
+
dv(t)
dt
(3.8)
di(t)
dt
=
1
L
v(t) +C
d
2
v(t)
dt
2
+
1
R
2
dv(t)
dt
(3.9)
Combinando las ecuaciones (3.8) y (3.9) se llega finalmente a:
d
2
v(t)
dt
2
+
R
1
+R
2
R
1
R
2
C
dv(t)
dt
+
1
LC
v(t) =
1
R
1
C
dv
f
(t)
dt
(3.10)
Este modelo tiene la estructura de la ecuaci´ on (3.1), en que u(t) = v
f
(t),
y(t) = v(t), n = 2, y los valores de los par´ ametros son:
a
1
=
R
1
+R
2
R
1
R
2
C
; a
0
=
1
LC
; b
2
= 0; b
1
=
1
R
1
C
; b
0
= 0 (3.11)
Es importante adem´ as hacer notar que la soluci´ on v(t) debe ser tal que sat-
isfaga las condiciones iniciales impuestas por la tensi´ on inicial en el conden-
sador, y la corriente inicial en el inductor.
222
En resumen, podemos afirmar que:
La EDS es un modelo din´ amico que establece una restricci´ on fundamental
sobre ciertas combinaciones de la entrada, la salida y algunas derivadas de
ambas se˜ nales.
Para ser m´ as espec´ıfico, consideremos una ecuaci´ on diferencial de primer
orden
d y
dt
+y(t) = u(t) (3.12)
Observamos en (3.12) que la salida y(t) no puede variar arbitrariamente, sino
que existe una restricci´ on. Esa restricci´ on dice que en un instante arbitrario,
t = t
1
, la suma de la salida y su primera derivada debe ser igual al valor que
38 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
equilibrioestable
sistema!inestable
tiene la entrada u(t
1
). Por ejemplo si u(t) = 2, ∀t ≥ 0, e y(0) = −1, entonces
necesariamente ˙ y(0) = 3, es decir, ˙ y(0) > 0, por lo cual en t = 0 la salida
y, est´ a aumentando. Por otro lado, a medida que y(t) aumenta y se acerca a
2, entonces ˙ y(t) sigue siendo positiva, pero disminuye consistentemente. En el
l´ımite, cuando y(t) = 2, su derivada de y es cero, lo cual indica que en ese
instante y(t) ya no cambia, es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (3.12):
d y
dt
−y(t) = u(t) (3.13)
Si nuevamente u(t) = 2, ∀t ≥ 0, e y(0) = −1, entonces ˙ y(0) = 1, lo cual
implica que en t = 0 la salida y est´ a aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acerc´ andose a 2, su derivada crece, es
decir, y(t) aumenta. Cuando y(t) = 2, se tiene que ˙ y(t) = 4, y subiendo. En
consecuencia, y(t) sigue creciendo monot´ onicamente, pero siempre la velocidad
de cambio, ˙ y(t), debe cumplir con ˙ y(t) = u(t) + y(t). Es decir, no se alcanza
un punto de equilibrio y, m´ as adelante, definimos este tipo de sistemas como
inestable.
Ambos casos pueden ser representados por la forma general de una EDS de
primer orden:
d y
dt
+ay(t) −bu(t) = 0 (3.14)
La forma (3.14) deja en evidencia el significado de restricci´ on que tiene la
EDS.
El an´ alisis precedente se puede aplicar a EDS m´ as complejas, pero en esos
casos se pierde la visi´ on intuitiva, por ello nos conviene trasladarnos a un ´ ambito
m´ as general, que es lo que hacemos a continuaci´ on.
3.3. La respuesta del sistema
La soluci´ on de la EDS condensa aspectos fundamentales su comportamiento
en el tiempo. Una aproximaci´ on intuitiva a esta conexi´ on indica que es esperable
que la excitaci´ on no s´ olo fuerce determinada conducta en la respuesta, sino
que en ese proceso revele aspectos claves de la naturaleza del sistema. Esta
percepci´ on justifica el observar con detenci´ on la soluci´ on de la EDS y algunas
formas en que ella puede ser descompuesta para su mejor comprensi´ on.
3.3.1. Componente homog´enea y componente particular
Una primera forma de estudiar la respuesta del sistema es descomponerla de
modo de identificar aquella parte que captura la naturaleza del sistema, com-
ponente natural u homog´enea, y la otra, que refleja la naturaleza espec´ıfica
de la excitaci´ on, componente particular o forzada.
3.3. LA RESPUESTA DEL SISTEMA 39
respuestahomog´ enea
soluci´ onhomog´ enea
respuesta particular
soluci´ onparticular
La componente homog´enea, y
h
(t), satisface la ecuaci´ on diferencial homog´enea
asociada a (3.1), es decir:
ρ
n
y
h
(t) +a
n−1
ρ
n−1
y
h
(t) +. . . +a
0
y
h
(t) = 0 (3.15)
Note que esta ecuaci´ on tiene infinitas soluciones, las que pueden describirse
gen´ericamente como una familia. Los miembros de esta familia se diferencian
por los valores num´ericos espec´ıficos que se pueden escoger para un conjunto de
n constantes indeterminadas.
Por su parte, la componente o soluci´ on particular, y
p
(t), es una funci´ on
espec´ıfica del tiempo, independiente de las condiciones iniciales, que satisface la
ecuaci´ on (3.1).
La soluci´ on completa y(t) = y
h
(t) + y
p
(t) queda totalmente determinada al
usar las condiciones iniciales, aplicadas a la respuesta completa, y(t), para
calcular las constantes indeterminadas presentes en y
h
(t).
Antes de proseguir con el an´ alisis consideraremos un ejemplo.
Ejemplo 3.2. Suponga que la EDS de un sistema est´ a dada por:
dy(t)
dt
+ 2y(t) = 4u(t) (3.16)
y que la respuesta y(t) debe satisfacer la condici´ on inicial y(0) = −0, 5. Se desea
calcular la respuesta del sistema para t ≥ 0 cuando u(t) = 1.
y
h
(t)
La componente homog´enea debe cumplir con:
dy
h
(t)
dt
+ 2y
h
(t) = 0 (3.17)
Esta ecuaci´ on es satisfecha por y
h
(t) = Ce
−2t
, para cualquier valor de la
constante C.
y
p
(t)
La componente particular y
p
(t) es una funci´ on, independiente de las condi-
ciones iniciales, que debe satisfacer (3.16) con u(t) = 1. Una soluci´ on simple es
y
p
(t) = 2, ∀t ≥ 0.
De esta forma, la soluci´ on completa es:
y(t) = y
h
(t) +y
p
(t) = Ce
−2t
+ 2 (3.18)
y la constante C se calcula de modo que y(0) satisfaga la condici´ on inicial y(0) =
−0, 5. Por lo tanto, se obtiene C = −2,5 e y(t) = −2,5e
−2t
+ 2
222
40 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
ecuaci´ oncaracter´ ıstica
constantesindeterminadas
autovalores
valores propios
valorescaracter´ ısticos
frecuenciasnaturales
modosnaturales
modoforzante
3.3.2. Frecuencias y modos naturales
La componente natural u homog´enea, y
h
(t) depende s´ olo de la ecuaci´ on
caracter´ıstica asociada a (3.1), dada por:
λ
n
+a
n−1
λ
n−1
+. . . +a
1
λ +a
0
= 0 (3.19)
Si las soluciones de (3.19) son λ
1
, λ
2
, . . . λ
p
con multiplicidad n
1
, n
2
, . . . , n
p
respectivamente, tal que n
1
+ n
2
+ . . . + n
p
= n, entonces la forma general de
y
h
(t) es:
y
h
(t) =
p

k=1
n
k

i=1
C
ki
t
i−1
e
λ
k
t
(3.20)
donde los C
ki
son constantes arbitrarias (constantes indeterminadas) que gener-
an los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
Los valores de λ que satisfacen (3.19) son conocidos como autovalores, valores
propios
1
, valores caracter´ısticos o frecuencias naturales del sistema. Dado que
los coeficientes de la ecuaci´ on caracter´ıstica asociada a la EDS son reales, todas
sus ra´ıces son reales, o bien aparecen en pares complejos conjugados.
A su vez, cada una de las funciones temporales, asociadas a λ
k
, de la forma:
t
i−1
e
λ
k
t
(3.21)
que aparecen en (3.20) se denomina modo natural del sistema.
Los modos naturales se asocian un´ıvocamente a las frecuencias naturales, y
la forma temporal de los primeros depende de la multiplicidad y la ubicaci´ on de
los segundos en el plano complejo. Un mapa general, asumiendo multiplicidad
uno para cada frecuencia natural, se aprecia en la Figura 3.2. En esa figura se
asocia una se˜ nal (modo natural) a cada frecuencia natural, excepto en el caso
de frecuencias complejas, en que se considera el par de complejos conjugados.
3.3.3. Modos forzantes y modos forzados
La componente particular de la respuesta, y
p
(t), es una funci´ on estrechamente
ligada a la entrada, u(t). Un caso simple, en que podemos apreciar esta relaci´ on,
es cuando u(t) puede describirse como una combinaci´ on lineal de funciones de
la forma e
β
i
t
, es decir:
u(t) =

i=1
B
i
e
β
i
t
(3.22)
donde los β
t
i
s son distintos y ninguno de ellos coincide con alguna frecuencia
natural. Cada una de las funciones e
β
i
t
recibe el nombre de modo forzante.
1
Esta denominaci´ on resultar´ a natural para modelos en variables de estado (Cap´ıtulo 10)
3.3. LA RESPUESTA DEL SISTEMA 41
λ
Eje
Imaginario
Eje
Real
λ
2
λ
0
λ
3
λ
1
λ
4
Figura 3.2: Relaci´ on entre la ubicaci´ on de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales
42 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
modo forzante!gananciaa
ganancia!amodoforzante
modo forzado
ganancia
ganancia!acontinua
Se puede verificar, usando la linealidad del sistema, que la soluci´ on particu-
lar, y
p
(t), est´ a dada por:
y
p
(t) =

i=1
y
pi
(t) , en que y
pi
(t) = K
i
B
i
e
β
i
t
(3.23)
y donde cada uno de los coeficientes es:
K
i
=

n−1
k=0
b
k

i
)
k

n
l=0
a
l

i
)
l
(3.24)
La respuesta y
p
(t) contiene modos forzados. Bajo la suposici´ on anterior,
relativa a que ning´ un β
t
i
s coincide con las frecuencias naturales, cada uno de los
modos forzados coincide con uno de los modos forzantes.
Observe que podemos identificar a K
i
con una ganancia asociada al modo
forzante i-´esimo. Cuando el modo forzante es una constante, es decir, e
βt
= 1,
se habla de la ganancia a continua.
Para facilitar la comprensi´ on del concepto de ganancia a modos, considere-
mos un ejemplo.
Ejemplo 3.3. La EDS de un sistema lineal es:
d y
dt
+ 3y(t) = 2u(t); entonces a
1
= 1; a
0
= 3; b
0
= 2 (3.25)
Supongamos que la entrada es u(t) = 5 +4 cos(πt +π/4), entonces podemos
expresarla como:
u(t) =
3

i=1
B
i
e
β
i
t
= 5e
β
1
t
+
_
2e
j
π
4
_
e
β
2
t
+
_
2e
−j
π
4
_
e
β
3
t
(3.26)
donde β
1
= 0, β
2
= jπ y β
3
= −jπ, es decir, hay tres modos forzantes presentes.
Las ganancias est´ an dadas por (3.24), y para este caso particular:
K
1
=
b
0
β
1
+a
0
=
2
3
(3.27)
K
2
=
b
0
β
2
+a
0
=
2
jπ + 3
= 0,3180 −j0,3330 = 0,4604e
−j0,8084
(3.28)
K
3
=
b
0
β
3
+a
0
=
2
−jπ + 3
= 0,3180 +j0,3330 = 0,4604e
j0,8084
(3.29)
222
El tratamiento general de la soluci´ on particular ser´ a pospuesto para cap´ıtulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
3.3. LA RESPUESTA DEL SISTEMA 43
estabilidad
Los sistemas lineales exhiben ganancias distintas para modos forzantes dis-
tintos, y esta capacidad de discriminaci´ on es la base para el an´ alisis y dise˜ no
de sistemas de procesamiento de se˜ nales y para otras aplicaciones.
3.3.4. Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos es-
enciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relaci´ on con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (se˜ nales) del sistema permanecen acotadas ante cualquier excitaci´ on
acotada o estado inicial acotado. Si consideramos s´ olo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son ´estas, es
decir, las ra´ıces de la ecuaci´ on caracter´ıstica del sistema, las que determinan la
estabilidad del sistema. Consideremos el caso de un modo natural de la forma
gen´erica:
y
h1
(t) = Ce
λt
; λ ∈ C (3.30)
Sea λ = σ +jω
o
, entonces
y
h1
(t) = Ce
λt
= Ce
σt
e

o
t
= Ce
σt
(cos(ω
o
t) +j sen(ω
o
t)) (3.31)
De la expresi´ on anterior se observa que y
h1
(t) decae a medida que el tiempo
transcurre si y s´ olo si e
λt
decae, y esto ocurre si y s´ olo si σ < 0. Dicho de otra
forma, si y s´ olo si λ est´ a en el semi plano izquierdo abierto del plano complejo.
Esto se ve reflejado claramente en la Figura 3.2.
En resumen, tenemos la siguiente definici´ on de estabilidad, conocida como
estabilidad asint´ otica:
Diremos que un modelo lineal e invariante en el tiempo es estable si y s´ olo
si todos sus modos naturales decaen asint´ oticamente a cero, es decir, si y
s´ olo si todas sus frecuencias naturales tienen parte real estrictamente menor
que cero. Si una o m´ as de las frecuencias naturales del modelo tienen parte
real mayor o igual que cero, diremos que el modelo es inestable.
Definimos, en consecuencia, la regi´ on de estabilidad en el plano comple-
jo, para sistemas continuos en el tiempo, como el semiplano izquierdo (SPI)
abierto, es decir excluyendo el eje imaginario. La necesidad de esta exclusi´ on
se demostrar´ a m´ as adelante. Sin embargo, el ejemplo siguiente permite apre-
ciar el origen de las dificultades cuando una frecuencia natural est´ a en el eje
imaginario.
44 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
velocidad
frecuencia natural!dominante
modonatural!dominante
Ejemplo 3.4. Sea un sistema cuya EDS est´ a dada por:
d y
dt
= 2u(t) (3.32)
Entonces el sistema tiene s´ olo una frecuencia natural, y ella est´ a ubicada
en λ = 0, esto significa que el modo natural que aparecer´ a en la respuesta del
sistema es e
λt
= 1. As´ı, la respuesta homog´enea es y
h
(t) = C
1
. Supongamos que
la entrada es una constante ∀t ≥ 0, digamos u(t) = U
o
, entonces la componente
particular de la respuesta es y
p
(t) = U
o
t. De esa forma la respuesta completa es
y(t) = C
1
+U
o
t donde C
1
debe calcularse para satisfacer la condici´ on inicial.
Debemos notar que este ejemplo pone en evidencia que, aunque la entrada
es una simple constante, la salida del sistema crece en forma ilimitada a medida
que transcurre el tiempo. El sistema es, por tanto, inestable.
222
3.3.5. Velocidad
Un segundo aspecto de inter´es en relaci´ on con las frecuencias y modos nat-
urales guarda relaci´ on con la velocidad con que evolucionan las variables de los
sistemas.
Dentro de la clase de sistemas estables, podemos distinguir diferencias no-
tables, no s´ olo por la distinta naturaleza de los valores propios, sino por las
velocidades relativas con que decaen sus modos naturales. Por ejemplo, con-
sideremos dos sistemas con las componentes homog´enas que se indican:
Sistema 1 y
h1
(t) = C
11
e
−2t
+C
12
e
−5t
(3.33)
Sistema 2 y
h2
(t) = C
21
e
−3t
+C
22
e
−7t
(3.34)
Vemos que y
h1
(t) est´ a dominada por el modo natural e
−2t
porque esta se˜ nal
decae m´ as lentamente que el otro modo natural e
−5t
. Por su parte, y
h2
(t)
est´ a dominada por el modo natural e
−3t
, el que decae m´ as lentamente que
el modo e
−7t
. As´ı diremos que el Sistema 1 tiene una frecuencia natural
dominante igual a −2, con un modo natural dominante e
−2t
. A su vez,
el Sistema 2 tiene una frecuencia natural dominante igual a −3, con un mo-
do natural dominante e
−3t
. Al comparar ambos sistemas podemos concluir, en
primera aproximaci´ on, que el Sistema 1 es m´ as lento que el Sistema 2, porque
su modo dominante decae m´ as lentamente.
En general, si λ = −[σ[ +jω
o
, el modo natural tiene la forma:
e
λt
= e
−]σ]t
(cos(ω
o
t) +j sen(ω
o
t)) (3.35)
De esta ecuaci´ on se observa que este modo decae m´ as r´ apidamente cuanto
m´ as grande es [σ[. As´ı, los sistemas son m´ as r´ apidos cuanto m´ as alejados del eje
imaginario est´ an sus frecuencias naturales dominantes.
3.3. LA RESPUESTA DEL SISTEMA 45
3.3.6. Respuesta a estado inicial y respuesta a entrada
Una forma alternativa de descomponer la respuesta de un sistema es con-
siderar por separado la componente de la respuesta debida a las condiciones
iniciales o estado inicial, y
x
(t), y la componente de la respuesta debida a la
entrada, y
u
(t), es decir:
y(t) = T¸¸¸x
o
, u(t)))) = T¸¸¸x
o
, 0)))
. ¸¸ .
y
x
(t)
+T¸¸¸0, u(t))))
. ¸¸ .
y
u
(t)
(3.36)
En consecuencia, y
x
(t) satisface:
ρ
n
y
x
(t) +a
n−1
ρ
n−1
y
x
(t) +. . . +a
0
y
x
(t) = 0 (3.37)
sujeta a las condiciones iniciales definidas en el vector x
o
. Esto sig-
nifica que y
x
(t) es una combinaci´ on lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la soluci´ on completa de la EDS).
A su vez, la respuesta a entrada, y
u
(t), es una soluci´ on de la EDS con condi-
ciones iniciales iguales a cero, es decir, satisface:
d
n
y
u
(t)
dt
n
+a
n−1
d
n−1
y
u
(t)
dt
n−1
+. . . +a
0
y
u
(t)
= b
n−1
d
n−1
dt
n−1
u(t) +b
n−2
d
n−2
dt
n−2
u(t) +. . . +b
0
u(t) (3.38)
sujeta a condiciones iniciales cero. Para poder cumplir con esta restricci´ on,
y
u
(t) debe contener, adem´ as de los modos forzados, una combinaci´ on lineal de
modos naturales cuyas constantes son calculadas de modo que se cumpla aquella
restricci´ on.
En resumen, una comparaci´ on de los diferentes modos presentes en cada
una de las componentes de la respuesta de un sistema hasta ahora definidas
(homog´enea-particular y estado inicial-entrada) se muestra en la Tabla 3.1.
y
h
(t) y
p
(t) y
x
(t) y
u
(t)
modos naturales
√ √ √
modos forzados
√ √
Cuadro 3.1: Presencia de modos en descomposiciones de la respuesta
Es adem´ as importante el notar que:
y(t) = y
h
(t) +y
p
(t) = y
x
(t) +y
u
(t) (3.39)
Sin embargo, por lo general, y
h
(t) ,= y
x
(t) e y
p
(t) ,= y
u
(t).
46 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
Afianzamos estas ideas retomando el Ejemplo 3.2, en el que ilustramos la
descomposici´ on de la respuesta del sistema en sus componente homog´enea y
particular.
Ejemplo 3.5. Suponga que la EDS est´ a dada por:
dy(t)
dt
+ 2y(t) = 4u(t) (3.40)
y que la respuesta y(t) debe satisfacer la condici´ on inicial y(0) = −0, 5.
Se desea calcular la respuesta del sistema para u(t) = 1 para t ≥ 0.
y
x
(t)
La respuesta a estado inicial debe cumplir con:
dy
x
(t)
dt
+ 2y
x
(t) = 0 (3.41)
y con y
x
(0) = −0, 5 Esta ecuaci´ on es satisfecha por y
x
(t) = Ce
−2t
, con C =
−0,5
y
u
(t)
La respuesta a entrada, y
u
(t), es una soluci´ on para (3.40) con u(t) = 1, y
sujeta a y
u
(0) = 0.
De esta forma, la soluci´ on completa es:
y
u
(t) = y
uh
(t) +y
up
(t) (3.42)
donde y
uh
(t) es una soluci´ on de la ecuaci´ on homog´enea, es decir y
uh
(t) =
C
u
e
−2t
, e y
up
(t) es la soluci´ on particular y
up
(t) = 2. C
u
se calcula de modo
de obtener y
u
(0) = 0, lo cual conduce a C
u
= −2.
Finalmente
y
x
(t) = −0, 5e
−2t
(3.43)
y
u
(t) = −2e
−2t
+ 2 (3.44)
y(t) = y
x
(t) +y
u
(t) = −2,5e
−2t
+ 2 (3.45)
De esta forma, podemos ahora completar la Tabla 3.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 3.2.
y
h
(t) y
p
(t) y
x
(t) y
u
(t)
modos naturales −2, 5e
−2t
−0, 5e
−2t
−2e
−2t
modos forzados 2 2
Cuadro 3.2: Presencia de modos en descomposiciones de la respuesta del Ejemplo
3.5
3.3. LA RESPUESTA DEL SISTEMA 47
222
Las dos descomposiciones de la respuesta del sistema obtenidas permiten
observar dicha respuesta desde dos perspectivas diferentes:
En la descomposici´ on componente homog´enea – componente particular se
observa la estructura de la respuesta. En efecto, en esa partici´ on queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homog´enea) y modos forzados (incluidos en la componente
particular).
En la descomposici´ on respuesta a estado inicial – respuesta a entrada
se separan los efectos de las dos causantes de que el sistema tenga una
respuesta: las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean iguales a cero, a´ un as´ı, los
modos naturales se encuentran presente en la respuesta (en este caso s´ olo aparece
la componente debida a la entrada, y
u
(t)).
Para cerrar esta secci´ on consideraremos un ejemplo donde estos conceptos
adquieren un significado m´ as concreto.
Ejemplo 3.6. En el circuito de la Figura 3.3 las componentes (escaladas, por
simplicidad) tienen los siguientes valores:
R
1
= 2[Ω]; R
2
= 1[Ω]; L = 1[H]; C = 0, 5[F] (3.46)
+
C
i
L
(t)
v
c
(t)
R
2
L R
1
v
f
(t)
i
α
(t)
A
i
β
(t)
Figura 3.3: Red lineal con condiciones iniciales
En esta red, la entrada es v
f
(t), la salida ha sido elegida como v
c
(t) y el
estado inicial es descrito por x
o
= [i
L
(0) v
c
(0)]
T
. Entonces usando el operador
de Heaviside (y su inverso) tenemos que las ecuaciones de mallas llevan a:
Z I = E (3.47)
donde:
Z
Z
=
_
¸
¸
_
R
1
+Lρ +
1
C
ρ
−1

1
C
ρ
−1

1
C
ρ
−1
1
C
ρ
−1
+R
2
_
¸
¸
_
; I
Z
=
_
¸
¸
_
i
α
(t)
i
β
(t)
_
¸
¸
_
; E
Z
=
_
¸
¸
_
v
f
(t)
0
_
¸
¸
_
(3.48)
Esto se puede resolver usando el siguiente c´ odigo:
48 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
Maple
>with(linalg);
>Z:=array(1..2,1..2,[[2+rho+2/rho,-2/rho],[-2/rho,2/rho+1]]);
>Zi:=inverse(Z);
De donde resulta:
Z
−1
=
1
ρ
2
+ 4ρ + 6
_
2 +ρ 2
2 ρ
2
+ 2ρ + 2
_
(3.49)
Resolviendo para i
β
(t) se obtiene:

2
+ 4ρ + 6)i
β
(t) = (ρ + 2)v
f
(t) (3.50)
Dado que v
c
(t) = 1 i
β
(t), la EDS es:
d
2
v
c
(t)
dt
2
+ 4
d v
c
(t)
dt
+ 6v
c
(t) =
d v
f
(t)
dt
+ 2v
f
(t) (3.51)
Supongamos que las condiciones iniciales son v
c
(0) = 5 [V ], i
L
(0) = 3 [A]
y que v
f
(t) = 10 [V ]. Primero notamos que, al aplicar LCK en el nodo A, se
tiene que:
˙ v
c
(0) =
1
C
_
i
L
(0) −
v
c
(0)
R
2
_
= −4 [V ] (3.52)
La soluci´ on total se puede calcular usando el siguiente c´ odigo:
Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
que entrega como resultado:
v
c
(t) =
10
3
+
5
3
e
−2t
cos(

2t) −
1
3

2e
−2t
sen(

2t) (3.53)
Entonces las distintas componentes de la respuesta v
c
(t) tiene los siguientes
valores e interpretaciones:
(a) La componente particular, v
cp
(t) es aquella componente de v
f
(t) que con-
tiene s´ olo los modos forzados por la excitaci´ on constante, es decir, es la
componente continua de v
c
(t), en este caso v
cp
(t) = 10/3[V ]. Note que
esta componente se puede calcular usando un divisor de tensiones, y que
la ganancia a modo constante de la red es igual a 1/3.
3.3. LA RESPUESTA DEL SISTEMA 49
respuestatransitoria
respuestaestacionaria
(b) La componente homog´enea, v
ch
(t), es la parte de la respuesta que contiene
todos los modos naturales, en este caso:
v
ch
(t) =
5
3
e
−2t
cos(

2t) −
1
3

2e
−2t
sen(

2t) (3.54)
(c) La componente a estado inicial, v
ch
(t), corresponde al valor que tendr´ıa
v
c
(t) debido s´ olo a la corriente inicial en el inductor y a la tensi´ on inicial
en el condensador, es decir con la fuente de tensi´ on cortocircuitada. Esta
componente se puede calcular con el siguiente c´ odigo:
Maple
>v_f(t):=0:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
que entrega como resultado:
v
cx
= 5e
−2t
cos(

2t) + 3

2e
−2t
sen(

2t) (3.55)
(d) La componente a entrada, v
cu
(t), corresponde a la tensi´ on en el conden-
sador cuando se aplica la fuente de tensi´ on a la red inicialmente rela-
jada. Esta componente se puede calcular con el siguiente c´ odigo:
Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=0,D(v_c)(0)=0},v_c(t));
de donde se obtiene:
v
cu
(t) =
10
3

10
3
e
−2t
cos(

2t) −
10
3

2e
−2t
sen(

2t) (3.56)
222
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria (o transiente) y respuesta estacionaria (o en estado
estacionario). La respuesta estacionaria corresponde a la respuesta del sistema
cuando ha transcurrido mucho tiempo desde el instante inicial. Por su parte
50 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
respuesta!a$\mu(t)$
respuesta!aescal´ on
la respuesta transiente es aquella parte de la respuesta que se extingue con el
tiempo.
En el Ejemplo 3.6 en la p´ agina 47, la respuesta estacionaria est´ a dada por
el modo forzado constante, mientras que la respuesta transitoria est´ a formada
por los modos naturales (sinusoidales amortiguadas).
La separaci´ on en componentes estacionaria y transitoria es transversal a la
idea de modos naturales y modos forzados, es decir, no ocurrir´ a siempre que la
respuesta estacionaria incluya s´ olo modos forzados, e incluso es posible que la
respuesta estacionaria est´e formada exclusivamente por modos naturales. Por
ejemplo, el lector puede verificar que si un sistema tiene modos naturales si-
nusoidales y la entrada es una exponencial decreciente, entonces la respuesta
estacionaria contendr´ a los modos naturales sinusoidales y la respuesta transito-
ria incluir´ a el modo forzado por la exponencial.
3.4. Respuesta a se˜ nales de prueba
Una forma de estudiar, y comparar en forma estandarizada el comportamien-
to de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas se˜ nales de prueba se consideran usualmente: el escal´ on unitario, el impulso
unitario y la se˜ nal sinusoidal. En esta secci´ on nos concentraremos en las dos
primeras, pues la respuesta ante se˜ nales sinuosidales ser´ a materia de estudio en
el Cap´ıtulo 5).
3.4.1. Respuesta a escal´ on unitario
Considere la ecuaci´ on (3.1) en la p´ agina 36. Entonces la respuesta, g(t), a
un escal´ on unitario y condiciones iniciales iguales a cero, se puede obtener
de la siguiente forma:
Paso 1 Determine la soluci´ on general de la ecuaci´ on:
d
n
g
o
(t)
dt
n
+a
n−1
d
n−1
g
o
(t)
dt
n−1
+. . . +a
0
g
o
(t) = 1 (3.57)
Note que g
o
(t) contiene una parte natural u homog´enea (combinaci´ on
lineal de modos naturales de la forma (3.20)) y una componente particular
o forzada. Para el caso a
0
,= 0, g
o
(t) tiene la forma:
g
o
(t) =
1
a
0
+
p

k=1
n
k

i=1
C
ki
t
i−1
e
λ
k
t
∀t ≥ 0 (3.58)
En el caso m´ as general, si a
0
= a
1
= . . . = a
p−1
= 0, a
p
,= 0 entonces g
o
(t)
tiene la forma:
g
o
(t) =
1
p!a
p
t
p
+
p

k=1
n
k

i=1
C
ki
t
i−1
e
λ
k
t
∀t ≥ 0 (3.59)
3.4. RESPUESTA A SE
˜
NALES DE PRUEBA 51
Paso 2 Calcule las constantes C
ki
usando la restricci´ on de las condiciones ini-
ciales iguales a cero, es decir, usando el hecho que:
ρ

¸g
o
(t))
¸
¸
t=0
= 0 = 0, 1, . . . , n −1 (3.60)
Paso 3 Calcule las primeras n−1 derivadas de g
o
(t). Note que, como las condi-
ciones iniciales son cero, esas derivadas son continuas en t = 0.
Paso 4 Usando las propiedades de linealidad obtenga g(t) de acuerdo a:
g(t) =
n−1

i=0
b
i
ρ
i
¸g
o
(t))µ(t) (3.61)
El procedimiento anterior es ilustrado con el siguiente ejemplo.
Ejemplo 3.7. Consideremos un sistema con la EDS:
ρ
2
y(t) + 5ρ y(t) + 4y(t) = −ρ u(t) + 2u(t) (3.62)
Entonces las frecuencias naturales son soluciones de λ
2
+ 5λ + 4 = 0, es
decir λ
1
= −4 y λ
2
= −1. Luego seguimos los pasos bosquejados previamente:
Paso 1 Calculamos la soluci´ on general de:
ρ
2
g
o
(t) + 5ρ g
o
(t) + 4g
o
(t) = 1 (3.63)
que resulta ser g
o
(t) =
1
4
+C
1
e
−4t
+C
2
e
−t
. Este resultado se puede obtener
con el siguiente c´ odigo:
Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve(eds);
Paso 2 Para este ejemplo, ya que n = 1, se necesita calcular s´ olo la primera
derivada de g
o
(t), la que est´ a dada por:
ρ ¸g
o
(t)) = −4C
1
e
−4t
−C
2
e
−t
(3.64)
Paso 3 Las constantes C
1
y C
2
se calculan a partir de las condiciones iniciales
(iguales a cero), es decir:
g
o
(0) = 0 =
1
4
+C
1
+C
2
(3.65)
ρ ¸g
o
(t))[
t=0
= 0 = −4C
1
−C
2
(3.66)
52 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
respuestaa$\delta(t)$
respuesta!aimpulso
de donde C
1
=
1
12
y C
2
= −
1
3
. Nuevamente, este resultado se puede obten-
er a trav´es del siguiente c´ odigo:
Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve({eds, go(0)=0,D(go)(0)=0},go(t));
Paso 4 La respuesta a escal´ on unitario est´ a entonces dada por:
g(t) = 2g
o
(t) −ρ ¸g
o
(t)) =
1
2
+
1
2
e
−4t
−e
−t
(3.67)
222
3.4.2. Respuesta a impulso unitario
Considere la ecuaci´ on (3.1) en la p´ agina (3.1). Entonces la respuesta a un
impulso unitario, δ(t), y condiciones iniciales iguales a cero, se puede obtener
a partir de la respuesta a escal´ on unitario. Esta estrategia se basa en que el
sistema representado por la EDS (3.1) es lineal e invariante en el tiempo, pues
sus coeficientes son constantes y el argumento de las funciones es t. De esta
forma se tiene la situaci´ on descrita en la figura 3.4.
S S
g(t)
x(0) = 0 x(∆) = 0
µ(t) µ(t −∆) g(t −∆)
invarianza en
tiempo
Figura 3.4: Efectos de la invarianza en el tiempo
Por lo tanto, usando linealidad:
dg(t)
dt
= l´ım
∆→0
g(t) −g(t −∆)

= l´ım
∆→0
T¸¸¸0, µ(t)))) −T¸¸¸0, µ(t −∆))))

= l´ım
∆→0
T¸¸¸0,
µ(t) −µ(t −∆)

))) = T¸¸¸0, δ
D
(t)))) = h(t) (3.68)
Entonces, h(t) =
dg(t)
dt
es la respuesta del sistema a un impulso unitario con
condiciones iniciales iguales a cero.
Aunque en algunos textos se propone calcular h(t) usando una estrategia
similar a la seguida para el c´ alculo de la respuesta a escal´ on unitario, en general
3.5. C
´
ALCULO DE LA RESPUESTA V
´
IA CONVOLUCI
´
ON 53
convoluci´ on
se~ nalcausal
ello no es aconsejable dada la especial naturaleza del delta Dirac. En efecto, ´esta
no es, en rigor, una funci´ on y no es diferenciable, por lo cual ocurren situaciones
parad´ ojicas. Por ´ ultimo, desde el punto de vista meramente instrumental es
mucho m´ as simple calcular la respuesta a impulso usando la transformaci´ on de
Laplace, como se ver´ a en el Capitulo 7.
Ejemplo 3.8. Consideremos el mismo sistema descrito por (3.62), entonces
podemos calcular h(t) derivando la respuesta a escal´ on unitario en (3.67). As´ı se
obtiene
h(t) =
dg(t)
dt
= −2e
−4t
+e
−t
∀t ≥ 0 (3.69)
222
Es importante anotar que las condiciones iniciales de un sistema son valores
conocidos para t = t

o
, pero las se˜ nales pueden ser discontinuas en t = t
o
. Esto
es lo que ocurre en el Ejemplo 3.8, donde:
l´ım
t→0

h(t) = 0 ,= l´ım
t→0
+
h(t) = −1 (3.70)
En una perspectiva m´ as general, podemos observar que dada la relaci´ on entre
la respuesta a impulso y la respuesta a escal´ on, y considerando que esta ´ ultima
contiene una combinaci´ on lineal de los modos naturales del sistema y una con-
stante, entonces h(t) contiene s´ olo modos naturales. Conceptualmente, es
´esta la caracter´ıstica que confiere especial importancia a las respuestas a escal´ on
e impulso. En rigor, la respuesta a excitaciones m´ as complejas tambi´en contiene
una combinaci´ on de modos naturales (a trav´es de la componente homog´enea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente secci´ on una utilidad inmediata de estas considera-
ciones.
3.5. C´alculo de la respuesta v´ıa convoluci´ on
Supongamos que se conoce la respuesta a impulso, h(t), de un sistema lineal
e invariante en el tiempo, con condiciones iniciales iguales a cero, entonces el
siguiente lema nos proporciona un resultado crucial en la teor´ıa de los sistemas
lineales.
Lema 3.1. Considere un sistema lineal e invariante en el tiempo. Sea adem´ as
h(t) la respuesta de ese sistema a un impulso unitario en la entrada, con condi-
ciones iniciales iguales a cero. Entonces, la respuesta y(t) del mismo sistema a
una excitaci´ on causal
2
arbitaria, f(t), con condiciones iniciales iguales a cero,
est´ a dada por:
2
Una se˜ nal f(t) es causal si f(t) = 0 ∀t < 0
54 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
y(t) =
_
t
0
f(τ)h(t −τ) dτ ∀t ≥ 0 (3.71)
Demostraci´ on
Sea i ∈ N y sea ∆ un incremento temporal, entonces, usando la propiedad
de invarianza en el tiempo, tenemos que:
h(t −i∆) = T¸¸¸0, δ(t −i∆)))) (3.72)
Luego, usando homogeneidad,
f(i∆)h(t −i∆)∆ = T¸¸¸0, f(i∆)δ(t −i∆)∆))) (3.73)
Aplicando ahora superposici´ on (i = 0, 1, . . .) y haciendo ∆ → 0, i∆ se con-
vierte en una variable continua τ, as´ı se llega a:
_

0
f(τ)h(t −τ)dτ = T¸¸¸0,
_

0
f(τ)δ(t −τ)dτ))) (3.74)
Finalmente, usando el Lema 2.1 y el hecho que h(t − τ) = 0 ∀τ > t (por
causalidad), se obtiene:
y(t) = T¸¸¸0, f(t)))) =
_
t
0
f(τ)h(t −τ)dτ (3.75)
222
Observando la ecuaci´ on (3.75), y(t) se puede interpretar como una suma
ponderada (por f(τ)) de respuestas a impulso h(t −τ). Note adem´ as que dado
que f(t) y h(t) son causales, entonces, la ecuaci´ on (3.71) tambi´en se puede
escribir como:
y(t) =
_

−∞
f(τ)h(t −τ) dτ =
_

−∞
f(t −τ)h(τ) dτ ∀t ≥ 0 (3.76)
Las integrales que aparecen en la ecuaci´ on (3.76) son una expresi´ on de la
convoluci´ on de dos funciones temporales. La definici´ on gen´erica es:
f
1
(t) ∗ f
2
(t) =
_

−∞
f
1
(τ)f
2
(t −τ) dτ =
_

−∞
f
1
(t −τ)f
2
(τ) dτ (3.77)
Adem´ as de la propiedad de conmutatividad en (3.77), la convoluci´ on tiene
la propiedad de distributividad, es decir:
f
1
∗ (f
2
(t) +f
3
(t)) = f
1
(t) ∗ f
2
(t) +f
1
(t) ∗ f
3
(t) (3.78)
El uso de convoluci´ on para la determinaci´ on de la respuesta de un sistema
lineal tiene importancia conceptual y num´erica, sin embargo, no es, en general,
un procedimiento anal´ıticamente simple. Para apreciar esto ´ ultimo, veremos un
ejemplo.
3.5. C
´
ALCULO DE LA RESPUESTA V
´
IA CONVOLUCI
´
ON 55
transformadadeFourier
transformadadeLaplace
Ejemplo 3.9. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h(t) = e
−2t
µ(t). Determine, usando con-
voluci´ on la respuesta a la se˜ nal u(t) = µ(t) −µ(t −1).
Soluci´ on
La respuesta est´ a dada por:
y(t) = u(t) ∗ h(t) =
_
t
−∞
h(τ)u(t −τ)dτ
=
_
t
−∞
e
−2τ
µ(τ)(µ(t −τ) −µ(t −1 −τ)dτ (3.79)
La integraci´ on se puede separar en tres intervalos, que a su vez se muestran
en la Figura 3.5:
u(t) ∗ h(t) =
_
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
_
_
0
−∞
u(τ)h(t −τ)dτ = 0 t < 0
_
t
0
u(τ)h(t −τ)dτ =
1
2
(1 −e
−2t
) 0 ≤ t < 1
_
1
0
u(τ)h(t −τ)dτ =
1
2
(e
−2(t−1)
−e
−2t
) 1 ≤ t
(3.80)
u(τ)
h(t−τ)
τ
t
u(τ)
h(t−τ)
t
τ
u(τ)
h(t−τ)
τ
t
Figura 3.5: Ejemplo de descripci´ on gr´ afica de la convoluci´ on
222
Como se puede apreciar, el c´ alculo mismo de la convoluci´ on es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
establece un nexo fundamental con el an´ alisis mediante las transformadas de
Fourier y de Laplace (Cap´ıtulos 6 y 7, respectivamente).
De igual forma, la respuesta de un sistema lineal e invariante en el tiempo
se puede calcular a partir de la respuesta a escal´ on, como se demuestra en el
siguiente lema.
56 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
Lema 3.2. Sea una sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escal´ on unitario de entrada, con condiciones ini-
ciales iguales a cero, es g(t). Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitaci´ on u(t) est´ a dada por:
y(t) = g(t) ∗
du(t)
dt
(3.81)
Demostraci´ on
La demostraci´ on sigue la misma l´ınea que el lema anterior. En primer lugar,
tenemos que la se˜ nal de entrada u(t) puede ser expresada aproximadamente
como la suma de escalones de altura diferencial, es decir
3
:
˜ u(t) =

i=−∞
u((i + 1)∆) −u(i∆)

µ(t −i∆)∆ (3.82)
donde ˜ u(t) tiende a u(t) cuando ∆ tiende a cero. Por otro lado:
g(t −i∆) = T¸¸¸0, µ(t −i∆)))) (3.83)
As´ı, si el sistema es excitado con ˜ u(t) entonces, por linealidad e invarianza,
se obtiene que la respuesta, ˜ y(t), est´ a dada por:
˜ y(t) ≈

i=−∞
u((i + 1)∆) −u(i∆)

g(t −i∆)∆ (3.84)
Si finalmente hacemos tender ∆ a cero, el producto i∆ se convierte en una
variable continua τ y tenemos que:
y(t) = l´ım
∆→0
˜ y(t) =
_

−∞
du(τ)

g(t −τ)dτ (3.85)
Esta ecuaci´ on corresponde al resultado deseado. Note que el l´ımite superior
puede ser reducido a τ = t, ya que suponemos que el sistema es causal, por lo
cual g(t −τ) es cero ∀τ > t. Tambi´en, si u(t) es causal, el l´ımite inferior puede
ser reemplazado por cero.
222
3
Note que el l´ımite superior de la suma es ∞ aunque los sumandos para i > t/∆ son cero,
debido a la presencia del escal´ on µ(t −i∆).
3.6. PROBLEMAS PARA EL LECTOR 57
3.6. Problemas para el lector
Problema 3.1. Resuelva las siguientes ecuaciones diferenciales con las condi-
ciones iniciales que se indican
d y
dt
+ 2y(t) = 0 y(0) = −1 (3.86)
d
2
y
dt
2
+ 7
d y
dt
+ 10y(t) = 0 y(0) = −1; ˙ y(0) = 2 (3.87)
d
2
y
dt
2
+ 4y(t) = 0 y(0) = 0; ˙ y(0) = 1 (3.88)
Problema 3.2. La respuesta de un sistema lineal e invariante en el tiempo a
un escal´ on unitario (con condiciones iguales a cero) est´ a dada por
g(t) = 1 −e
−t
+te
−t
∀t ≥ 0 (3.89)
3.2.1 Determine la EDS.
3.2.2 Calcule la respuesta del mismo sistema a un impulso unitario.
Problema 3.3. Determine los modos asociados a las siguientes conjuntos de
frecuencias naturales
Sistema 1 λ
1
= −2 λ
2
= −2 λ
3
= −2
Sistema 2 λ
1
= 3 λ
2
= 0 λ
3
= 0
Sistema 3 λ
1
= −1 λ
2
= −1 +j2 λ
3
= −1 −j2
Problema 3.4. La respuesta de un sistema lineal e invariante en el tiempo a
un impulso unitario es h(t) = e
−2t
µ(t). Usando convoluci´ on calcule la respuesta
del sistema a una entrada u(t) = e
−3t
µ(t)
Problema 3.5. La ecuaci´ on caracter´ıstica de un sistema est´ a dada por
λ
2
+aλ + 4 = 0 (3.90)
3.5.1 Determine el rango de valores de a que hacen estable al sistema.
3.5.2 Dentro de ese rango determine el valor de a de modo que el sistema sea
lo m´ as r´ apido posible.
Problema 3.6. Suponga que la respuesta de un sistema lineal a un escal´ on
unitario con condiciones iniciales iguales a cero es una se˜ nal g(t), que se muestra
en la Figura 3.6.
3.6.1 ¿Es el sistema estable ?
3.6.2 Estime los modos naturales del sistema
58 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
0 5 10 15
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Tiempo [s]
g
(
t
)
Figura 3.6: Respuesta a escal´ on unitario
−3 −2 −1 0 1
−4
−3
−2
−1
0
1
2
3
4
Sistema 2
Eje real
E
j
e

i
m
a
g
i
n
a
r
i
o
−2 −1.5 −1 −0.5 0 0.5 1
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
Sistema 1
Eje real
E
j
e

i
m
a
g
i
n
a
r
i
o
Figura 3.7: Configuraci´ on de frecuencias naturales de dos sistemas
3.6.3 Estime la ganancia al modo forzante constante
Problema 3.7. Se calculan los valores caracter´ısticos de dos sistemas y se
dibujan en el plano complejo, como se muestra en la Figura 3.7.
3.7.1 Determine los modos naturales de cada sistema.
3.7.2 ¿Cu´ ales son las frecuencias dominantes en cada caso?
3.7.3 ¿Cu´ al de los dos sistemas es m´ as r´ apido?
Problema 3.8. Considere la red el´ectrica de la Figura 3.8, en donde se ha
agregado el modelo de red para el amplificador operacional.
3.8.1 Determine la ecuaci´ on diferencial que relaciona la entrada v
f
(t) con la
salida v
o
(t).
3.8.2 Si A ¸1, ¿es el sistema estable?
3.6. PROBLEMAS PARA EL LECTOR 59
1
2
+
v
f
(t)
C
3
R
1
1 3
2
v
c
(t)
+
Av
c
(t)
4
v
o
(t)
1
2
3
4
4
R
2
Figura 3.8: Red el´ectrica con amplificador operacional
3.8.3 Repita si A ¸−1 (o, lo que es lo mismo, si se intercambian los terminales
1 y 2).
Problema 3.9. La ecuaci´ on diferencial de un sistema es:
d
2
y(t)
dt
2
+ 7
d y(t)
dt
+ 12y(t) = −
d u(t)
dt
+ 2u(t) (3.91)
Calcule la ganancia del sistema para los siguientes modos: u
1
(t) = e
−2t
,
u
2
(t) = 1 y u
3
(t) = cos(3t).
Problema 3.10. En un sistema lineal e invariante en el tiempo se sabe que
la ganancia al modo e
j2t
es 0, 3 + j0, 4, y que las frecuencias naturales est´ an
ubicadas en λ = −1 y λ = 0.
Calcule, si es posible, la respuesta y(t) del sistema cuando la entrada es
u(t) =

2 sen(2t +π/4) y las condiciones iniciales son y(0) = 0 e ˙ y(0) = 2.
60 CAP
´
ITULO 3. AN
´
ALISIS EN TIEMPO CONTINUO
ecuaci´ onderecursi´ on|textbf
Cap´ıtulo 4
An´alisis en tiempo discreto
4.1. Introducci´ on
Para variables definidas solo en instantes discretos de tiempo, no es posible
definir la derivada, por tanto, la herramienta para describir sus variaciones en
el tiempo es la diferencia entre instantes sucesivos. De esta forma. Para los
sistemas de tiempo discreto el modelo matem´ atico central es la ecuaci´ on de
recursi´ on del sistema, ERS, la cual relaciona la entrada del sistema, u[t], con la
salida, y[t]. Para el caso de modelos linealizados, la entrada y salida son ∆u[t]
y ∆y[t], respectivamente.
La ERS es una descripci´ on cuantitativa del sistema especialmente ´ util para
el an´ alisis num´erico del mismo. Esto guarda relaci´ on con la naturaleza de los
algoritmos computacionales, en los que una iteraci´ on se basa en los resultados
de la iteraci´ on anterior. Por otro lado, una ERS surge tambi´en cuando se dis-
cretiza el modelo para un sistema lineal de tiempo continuo. El estudio de las
propiedades de la soluci´ on que realizaremos en este cap´ıtulo ser´ a complementa-
do cuando, en cap´ıtulos posteriores, se usen la transformada de Fourier discreta,
y la transformada Zeta.
En este cap´ıtulo, an´ alogamente a lo que se hizo en el cap´ıtulo precedente,
se desarrollan herramientas de an´ alisis que establecen relaciones estrechas entre
propiedades cuantitativas y cualitativas de los sistemas lineales (de tiempo dis-
creto). En particular, interesa cuantificar y construir indicadores de propiedades
relevantes tales como comportamiento natural, estabilidad, velocidad relativa y
ganancia.
4.2. Ecuaci´ on de recursi´ on del sistema (ERS)
La forma general de la ERS es
y[t] +a
n−1
y[t −1] +. . . +a
1
y[t −n + 1] +a
0
y[t −n] =
b
m
u[t] +b
m−1
u[t −1] +. . . +b
1
u[t −m+ 1] +b
0
u[t −m] (4.1)
61
62 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
causalidad
condicionesiniciales
operadoradelanto
promediom´ ovil
Esta forma de la ERS es una forma en la que la causalidad se cumple sin
condiciones para cualquier par de enteros positivos n y m. Esto se aprecia por
el hecho que la salida y[t] no depende de valores futuros de la entrada, aunque
s´ı podr´ıa depender de valores presentes de la entrada.
Cuando la salida depende s´ olo de valores pasados de la entrada (b
m
= 0), se
habla de sistemas estrictamente causales.
La soluci´ on a esta ecuaci´ on debe cumplir adem´ as con las restricciones que
imponen las condiciones o estado inicial. Estas condiciones iniciales se refieren
usualmente a un conjunto de n valores y[i ], y[i − 1], . . ., y[i − n + 1], donde
i = −1 o, alternativamente
1
i = n −1. Note que estas alternativas no encierran
aspectos conceptuales, sino que reflejan el hecho que la elecci´ on del instante
inicial es arbitraria. Una generalizaci´ on m´ as amplia dice que la ecuaci´ on (4.1)
puede ser resuelta si conocemos, aparte de la entrada u[t], un conjunto de valores
de la salida y[t] en cualquier conjunto de n instantes.
As´ı como ocurre con los sistemas de tiempo continuo, conviene usar una
notaci´ on compacta, tipo operador, para denotar la operaci´ on corrimiento tem-
poral. Por esa raz´ on, introducimos el operador adelanto temporal, q definido
por
q¸f[t]) = qf[t]
Z
= f[t + 1] (4.2)
q
n
¸f[t]) = q
n
f[t] = f[t +n] (4.3)
q

¸f[t]) = q

f[t] = f[t −] (4.4)
Usando este operador, el modelo (4.1) puede ser escrito como
y[t] +a
n−1
q
−1
y[t] +. . . +a
1
q
−n+1
y[t] +a
0
q
−n
y[t] =
b
m
u[t] +b
m−1
q
−1
u[t −1] +. . . +b
1
q
−m+1
u[t] +b
0
q
−m
u[t] (4.5)
La ERS puede aparecer como modelo de situaciones muy diferentes. Consi-
deraremos varios casos a modo de ilustraci´ on.
Ejemplo 4.1 (Promedio m´ ovil). En estad´ısticas econ´ omicas se suele calcu-
lar indicadores que resultan de promediar el valor de ciertas variables durante
un n´ umero de per´ıodos consecutivos
2
. Suponga que nos interesa la variable de-
sempleo, y que definimos el ´ındice de desempleo trimestral calculado como el
promedio de los porcentajes de desempleos de los tres ´ ultimos meses. Entonces
la ecuaci´ on de recursi´ on es
y[t] =
1
3
(u[t] +u[t −1] +u[t −2]) (4.6)
222
1
El comando rsolve de Maple puede usar ambas opciones.
2
Esto se hace para disminuir el efecto de fen´ omenos ocasionales, propios de s´ olo parte del
per´ıodo bajo an´ alisis (fen´ omenos estacionales)
4.2. ECUACI
´
ON DE RECURSI
´
ON DEL SISTEMA (ERS) 63
discretizaci´ on
Ejemplo 4.2 (Discretizaci´ on de ecuaciones diferenciales). Considere la
ecuaci´ on diferencial de primer orden
ρy(t) +αy(t) = βu(t) (4.7)
Entonces, si usamos la discretizaci´ on de Euler
3
para la primera derivada y
consideramos el tiempo discreto t = 0, ∆, . . . ∆ se llega a
y(( + 1)∆) −y(∆)

+αy(∆) = βu(∆) (4.8)
Lo cual lleva a
y[t] + (∆α −1)y[t −1] = ∆βu[t −1] (4.9)
donde y[t] = y(( + 1)∆), y[t −1] = y(∆), u[t −1] = u(∆).
222
Ejemplo 4.3 (Algoritmo computacional). Considere el siguiente c´ odigo de
programa
input N u1=0 y1=0 y2=0 For t=1,N
input u
y=0,7*y1-0,12*y2+0,2*u1
output y
u1=u
y2=y1
y1=y
end
Entonces podemos hacer la siguiente asociaci´ on de variables: u[t] = u, u[t −
1] = u1, y[t] = y, y[t − 1] = y1 e y[t − 2] = y2. Por lo tanto en la iteraci´ on
t-´esima tenemos que
y[t] = 0, 7y[t −1] −0, 12y[t −2] + 0, 2u[t −1] (4.10)
222
La ERS es un modelo din´ amico que establece una restricci´ on fundamen-
tal sobre ciertas combinaciones de la entrada, la salida y algunas versiones
retrasadas de ambas se˜ nales.
Para ser m´ as espec´ıficos, consideremos una ecuaci´ on de recursi´ on de primer
orden
y[t] −0, 5y[t −1] = u[t −1] (4.11)
3
Aproximaci´ on de la derivada como una diferencia hacia adelante.
64 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
equilibrioestable
sistema!inestable
Observamos en (4.11) que la salida y[t] no puede variar arbitrariamente, sino
que existe una restricci´ on. Esa restricci´ on dice que en un instante arbitrario,
t = t
1
, la salida menos la mitad de la salida en un instante anterior debe ser
igual al valor que ten´ıa la entrada un instante anterior, u[t
1
−1]. Para estudiar la
evoluci´ on de la salida del sistema conviene re-escribir (4.11) en la forma siguiente
y[t] −y[t −1] = −0, 5y[t −1] +u[t −1] (4.12)
Supongamos ahora que u[−1] = 0, u[t] = 2, ∀t ≥ 0, e y[−1] = −2, entonces
necesariamente y[1] −y[0] = 2, 5, es decir, y[1] −y[0] > 0 por lo cual, en t = 0, la
salida y, est´ a aumentando. Por otro lado, a medida que y[t] aumenta y se acerca
a 4, entonces y[t]−y[t−1] sigue siendo positiva, pero disminuye consistentemente
ya que −0, 5y[t − 1] + u[t − 1] se acerca a 0. En el l´ımite, cuando y[t] = 4, la
diferencia y[t] −y[t−1] es cero, lo cual dice que en ese instante y[t] ya no cambia,
es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (4.11) :
y[t] −1, 5y[t −1] = u[t −1] =⇒y[t] −y[t −1] = 0, 5y[t −1] +u[t −1] (4.13)
Si nuevamente u[t] = 2, ∀t ≥ 0, e y[−1] = −2, entonces y[1]−y[0] = 1, lo cual
implica que en t = 0 la salida y est´ a aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acerc´ andose a 2, su primera diferencia
crece, es decir, y[t] aumenta. Cuando y[t] = 2, se tiene que y[t] −y[t −1] = 4, y
subiendo. En consecuencia, y sigue creciendo monot´ onicamente, pero siempre la
diferencia, y[t] −y[t −1], debe cumplir con y[t] −y[t −1] = 0, 5y[t −1] +u[t −1].
Es decir, no se alcanza un punto de equilibrio y, m´ as adelante, definimos este
tipo de sistemas como inestable.
Ambos casos pueden ser representados por la forma general de una ERS de
primer orden
y[t] +ay[t −1] −bu[t] = 0 (4.14)
La forma (4.14) deja en evidencia el significado de restricci´ on que tiene la
ERS.
El an´ alisis precedente se puede aplicar a ERS m´ as complejas, pero en esos
casos se pierde la visi´ on intuitiva, por ello nos conviene trasladarnos a un ´ ambito
m´ as general, que es lo que hacemos a continuaci´ on.
4.3. La respuesta del sistema
La soluci´ on de la ERS condensa aspectos fundamentales del comportamiento
del sistema. Una aproximaci´ on intuitiva a esta conexi´ on indica que es esperable
que la excitaci´ on no s´ olo fuerce determinada conducta en la respuesta, sino
que en ese proceso revele aspectos claves de la naturaleza del sistema. Esta
percepci´ on justifica el observar con detenci´ on la soluci´ on de la ERS y algunas
formas en que ella puede ser descompuesta para su mejor comprensi´ on. Note
que no analizaremos el problema de existencia y unicidad de la soluci´ on de (4.1).
4.3. LA RESPUESTA DEL SISTEMA 65
respuesta homog´ enea
soluci´ onhomog´ enea
4.3.1. Componente homog´enea y componente particular
Una primera forma de escudri˜ nar la respuesta del sistema es descomponerla
de modo de identificar aquella parte que captura la naturaleza del sistema, com-
ponente natural u homog´enea, y la otra, que refleja la naturaleza espec´ıfica
de la excitaci´ on, componente particular o forzada.
La componente homog´enea, y
h
[t], satisface la ecuaci´ on homog´enea asociada
a (4.1), es decir:
y
h
[t] +a
n−1
q
−1
y
h
[t] +. . . +a
0
q
−n
y
h
[t] = 0 (4.15)
Antes de proseguir con el an´ alisis consideraremos un ejemplo.
Ejemplo 4.4. Suponga que la ERS est´ a dada por:
y[t] −0, 5y[t −1] = u[t −1] (4.16)
y que la respuesta y[t] debe satisfacer la condici´ on inicial y[0] = −1. Se desea
calcular la respuesta del sistema cuando u[t] = 1 para t ≥ 0.
y
h
[t]
La componente homog´enea debe cumplir con:
y[t] −0, 5y[t −1] = 0 (4.17)
Esta ecuaci´ on es satisfecha por y
h
[t] = C(0, 5)
t
, para cualquier valor de la
constante C. Esto se verifica reemplazando y
h
[t] en: (4.17)
C(0, 5)
t
−0, 5C(0, 5)
t−1
= C
_
(0, 5)
t
−(0, 5)
t
_
= 0 (4.18)
y
p
[t]
La componente particular y
p
[t] es una funci´ on, independiente de las condi-
ciones iniciales, que debe satisfacer (3.16) con u[t] = 1. Como la entrada es una
constante, una soluci´ on tentativa es suponer que la soluci´ on particular tambi´en
es constante, digamos y
p
[t] = C
o
. Si esta suposici´ on es correcta, entonces existe
C
o
constante que satisface (4.16) y puede ser calculada reemplazando y
p
[t] = C
o
y u[t] = 1 en (4.16):
C
o
−0, 5C
o
= 1 =⇒C
o
= 2 (4.19)
Entonces la soluci´ on completa es y[t] = y
h
[t] + y
p
[t] = 2 + C(0, 5)
t
. La
constante C se calcula de modo que y[−1] = −1:
y[−1] = −1 = 2 +C(0, 5)
−1
=⇒C = −
3
2
(4.20)
Por lo tanto la soluci´ on completa est´ a dada por:
y[t] = 2 −
3
2
(0, 5)
t
(4.21)
222
66 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
ecuaci´ on caracter´ ıstica
polinomiocaracter´ ıstico
4.3.2. Frecuencias y modos naturales
Volvamos ahora al problema general de calcular la componente homog´enea
de la respuesta del sistema. Para ello repetimos la ecuaci´ on homog´enea (4.15):
y
h
[t] +a
n−1
q
−1
y
h
[t] +. . . +a
0
q
−n
y
h
[t] = 0 (4.22)
La soluci´ on para (4.22) puede ser construida en torno al siguiente lema.
Lema 4.1. La funci´ on f[t] = Cλ
t
o

o
,= 0) satisface (4.22) para cualquier
constante C ∈ C si y s´ olo si λ
o
∈ C satisface la ecuaci´ on caracter´ıstica
asociada a la ecuaci´ on homog´enea:
p
q
(λ)
Z
= λ
n
+a
n−1
λ
n−1
+. . . +a
1
λ +a
0
= 0 (4.23)
donde:
p
q
(λ) =

=0
a

λ

con a
n
= 1 (4.24)
es conocido como el polinomio caracter´ıstico asociado a la ERS.
Demostraci´ on
Reemplazando f[t] en (4.22) se obtiene:

t−n
o
_
λ
n
o
+a
n−1
λ
n−1
o
+. . . +a
1
λ
o
+a
0
_
= 0 (4.25)
Por un lado (suficiencia) se ve que si λ
o
satisface (4.23), entonces f[t] sat-
isface la ecuaci´ on homog´enea.
Por otro lado (necesidad), si f[t] satisface la ecuaci´ on homog´enea, entonces
(4.25) debe cumplirse ∀t y dado que λ
o
,= 0, entonces p
q

o
) = 0.
222
Supongamos que las n ra´ıces de p
q
(λ) son distintas, entonces la soluci´ on
homog´enea tiene la forma:
y
h
[t] =
n

i=1
C
i
λ
t
i
(4.26)
Un caso m´ as complejo ocurre cuando algunas ra´ıces de p
q
(λ) son repetidas.
El lema que sigue se refiere al caso de ra´ıces dobles.
Lema 4.2. Si el polinomio caracter´ıstico p
q
(λ) tiene una ra´ız doble, digamos
en λ = λ
1
, entonces la funci´ on f
2
[t] = Ctλ
t
1
satisface la ecuaci´ on homog´enea
(4.22).
Demostraci´ on
Primero notamos que si p
q
(λ) tiene una ra´ız doble en λ = λ
1
, entonces:
d p
q
(λ)

¸
¸
¸
¸
λ=λ
1
=
n

=0
a

λ

1
= 0; con a
n
= 1 (4.27)
4.3. LA RESPUESTA DEL SISTEMA 67
respuestaparticular
soluci´ onparticular
constantesindeterminadas
Luego, reemplazamos y
h
[t] por f
2
[t] en el lado izquierdo de (4.22), para de-
mostrar que es igual a cero.
n

=0
a

y
h
[t −n +] =
n

=0
a

(t −n +)λ
t−n+
1
(4.28)
= (t −n)λ
t−n
1
n

=0
a

λ

1

t−n+1
1
n

=0
a

λ
−1
1
(4.29)
= (t −n)λ
t−n
1
p
q

1
)
. ¸¸ .
0

t−n+1
1
d p
q
(λ)

¸
¸
¸
¸
λ=λ
1
. ¸¸ .
0
(4.30)
Con lo cual el lema queda demostrado.
222
El lector es invitado a demostrar el siguiente lema.
Lema 4.3. Si el polinomio caracter´ıstico p
q
(λ) tiene una ra´ız de multiplicidad
n
1
en λ = λ
1
, entonces la funci´ on f
n
[t] = Ct
i
λ
t
1
satisface la ecuaci´ on homog´enea
(4.22) para i = 0, 1, . . . , n
1
−1
222
De los resultados precedentes se puede ver que la ecuaci´ on homog´enea tiene
infinitas soluciones, las que pueden describirse gen´ericamente como una familia.
Los miembros de esta familia se diferencian por los valores num´ericos espec´ıficos
que se pueden escoger para un conjunto de n constantes indeterminadas. De
la ecuaci´ on (4.22) se observa que podemos escoger libremente un conjunto de
valores arbitrarios para y[−1], y[−2], . . ., y[−n]. Por cada conjunto elegido hay
una soluci´ on distinta.
Por su parte, la componente o soluci´ on particular es una funci´ on del tiempo
completamente determinada, es decir, independiente de las condiciones iniciales,
y que satisface la ecuaci´ on (3.1). La soluci´ on completa y[t] = y
h
[t] +y
p
[t] queda
totalmente determinada al usar las condiciones iniciales, aplicadas a la res-
puesta completa, y[t], para calcular las constantes indeterminadas presentes
en y
h
[t].
Si las soluciones de (4.23) son λ
1
, λ
2
, . . . λ
p
con multiplicidad n
1
, n
2
, . . . ,
n
p
respectivamente, tal que n
1
+ n
2
+ . . . + n
p
= n, entonces la forma general
de y
h
[t] es:
y
h
[t] =
p

=1
n
t

i=1
C
i
t
i−1
λ
t

(4.31)
donde los C
i
son constantes arbitrarias (constantes indeterminadas) que gener-
an los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
68 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
frecuenciasnaturales
modosnaturales
modoforzante
modo forzante!gananciaa
ganancia!amodoforzante
modoforzado
Los valores de λ que satisfacen (4.23) son conocidos como autovalores, valores
propios o frecuencias naturales del sistema. Como la ecuaci´ on caracter´ıstica
de la ERS tiene coeficientes reales, cuando las soluciones son complejas, siempre
ocurren en pares conjugados.
A su vez, la funciones temporales de la forma:
t
i−1
λ
t

(4.32)
que aparecen en (4.31) se denominan modos naturales del sistema.
Los modos naturales se asocian un´ıvocamente a las frecuencias naturales, y
la forma temporal de los primeros depende de la ubicaci´ on de los segundos en
el plano complejo. Un mapa general se aprecia combinando las Figuras 4.1 y
4.2 . En ambos gr´ aficos se ha dibujado la circunferencia de radio unitario con
centro en el origen. La separaci´ on se ha hecho s´ olo para una mayor claridad.
En esas figuras se asocia una se˜ nal (modo natural) a cada frecuencia natural
de multiplicidad uno, excepto en el caso de frecuencias complejas, en que se
considera el par complejo conjugado.
4.3.3. Modos forzantes y modos forzados
La componente particular de la respuesta, y
p
[t], es una funci´ on estrechamente
ligada a la entrada, u[t]. Un caso simple, en que podemos apreciar esta relaci´ on,
es cuando u[t] puede describirse como una combinaci´ on lineal de funciones de
la forma β
t
i
, es decir:
u[t] =

i=1
B
i
β
t
i
(4.33)
donde los β
t
i
s son distintos enter s´ı y ninguno de ellos coincide con alguna
frecuencia natural. Cada una de las funciones β
t
i
recibe el nombre de modo
forzante.
Se puede verificar, usando la linealidad del sistema, que la soluci´ on particu-
lar, y
p
[t], est´ a dada por:
y
p
[t] =

i=1
y
pi
[t]; con y
pi
[t] = K
i
B
i
β
t
i
(4.34)
y donde cada uno de los coeficentes es:
K
i
=

m
=0
b
m−

i
)

n
l=0
a
n−l

i
)
−l
; con a
n
= 1 (4.35)
La respuesta y
p
[t] contiene modos forzados. Bajo la suposici´ on anterior,
relativos a que los β
t
i
s son distintos de las frecuencias naturales, todos los modos
forzados coinciden con modos forzantes.
4.3. LA RESPUESTA DEL SISTEMA 69
ganancia
ganancia!acontinua
1
z
Figura 4.1: Relaci´ on entre la ubicaci´ on de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales (caso decreciente).
Observe que podemos identificar a K
i
con una ganancia asociada al modo
forzante i-´esimo. Cuando el modo forzante es una constante, es decir, β
t
= 1
t
,
se habla de la ganancia a continua o ganancia a frecuencia cero.
Para facilitar la comprensi´ on del concepto de ganancia a modos, considere-
mos un ejemplo.
Ejemplo 4.5. Considere la ERS lineal
y[t]−0, 5y[t−1] = 2u[t−1]; entonces n = m = 1; a
1
= 1; a
0
= −0, 5; b
0
= 2
(4.36)
Supongamos que la entrada es u[t] = 5+4 cos(πt/4+π/7), entonces podemos
expresarla como:
u[t] =
3

i=1
B
i
e
β
i
t
= 5β
t
1
+
_
2e
j
π
7
_
β
t
2
+
_
2e
−j
π
7
_
β
t
3
(4.37)
70 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
z
1
Figura 4.2: Relaci´ on entre la ubicaci´ on de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales (caso no decreciente).
donde β
1
= 1, β
2
= e
j
π
4
y β
3
= e
−j
π
4
, es decir, hay tres modos forzantes
presentes. Las ganancias est´ an dadas por (4.35), y para este caso particular:
K
1
=
b
0
β
1
+a
0
=
2
0, 5
= 4 (4.38)
K
2
=
b
0
β
−1
2
1 +a
0
β
−1
2
= 0, 7630 −j2, 605 = 2, 7144e
−j1,286
(4.39)
K
3
=
b
0
β
−1
2
1 +a
0
β
−1
2
= 0, 7630 +j2, 605 = 2, 7144e
j1,286
(4.40)
222
El tratamiento general de la soluci´ on particular ser´ a pospuesto para cap´ıtulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
4.3. LA RESPUESTA DEL SISTEMA 71
estabilidad
c´ ırculounitario
discounitario
Los sistemas lineales exhiben ganancias distintas para modos forzantes dis-
tintos, y esta capacidad de discriminaci´ on es la base para el an´ alisis y dise˜ no
de sistemas de procesamiento de se˜ nales y para otras aplicaciones.
4.3.4. Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos es-
enciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relaci´ on con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (se˜ nales) del sistema permanecen acotadas ante cualquier excitaci´ on
acotada o estado inicial acotado. Si consideramos s´ olo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son ´estas, es
decir, las ra´ıces de la ecuaci´ on caracter´ıstica, las que determinan la estabilidad
del sistema. Consideremos el caso de un modo de la forma gen´erica:
y
h1
[t] = Cλ
t
; λ ∈ C (4.41)
Sea λ = ηe

, entonces:
y
h1
[t] = Cλ
t
= Cη
t
e
jθt
= Cη
t
(cos(θt) +j sen(θt)) (4.42)
De la expresi´ on anterior se observa que y
h1
[t] decae a medida que el tiempo
transcurre si y s´ olo si λ
t
decae, y esto ocurre si y s´ olo si [λ[ = η < 1. Dicho de
otra forma, si y s´ olo si λ est´ a al interior del c´ırculo o disco unitario (excluyen-
do su borde). Esto se refleja los modos que aparecen en la Figura 4.1 y, por
contradicci´ on, en la Figura 4.2.
En resumen, tenemos la siguiente definici´ on de estabilidad, conocida como
estabilidad asint´ otica:
Diremos que un modelo lineal e invariante en el tiempo (discreto) es estable
si y s´ olo si todos sus modos naturales decaen asint´ oticamente a cero, es decir,
si y s´ olo si todas sus frecuencias naturales tienen magnitud estrictamente
menor que uno. Si una o m´ as de las frecuencias naturales del modelo tienen
magnitud mayor o igual que uno, diremos que el modelo es inestable.
Definimos, en consecuencia, la regi´ on de estabilidad en el plano com-
plejo, para sistemas de tiempo discreto, como el c´ırculo unitario abierto, es
decir excluyendo la circunferencia unitaria. La necesidad de esta exclusi´ on se
demostrar´ a m´ as adelante. Sin embargo, el ejemplo siguiente permite apreciar el
origen de las dificultades cuando una frecuencia natural est´ a en la circunferencia
unitaria.
72 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
velocidad
frecuencianatural!dominante
modo natural!dominante
Ejemplo 4.6. Sea un sistema cuya ERS est´ a dada por:
y[t] −y[t −1] = 2u[t −1] (4.43)
Entonces el sistema tiene s´ olo una frecuencia natural, y ella est´ a ubicada
en λ = 1, esto significa que el modo natural que aparecer´ a en la respuesta del
sistema es λ
t
= 1. As´ı, la respuesta homog´enea es y
h
[t] = C
1
. Supongamos que
la entrada es una constante ∀t ≥ 0, digamos u[t] = U
o
, entonces la componente
particular de la respuesta es y
p
[t] = 2U
o
t. De esa forma la respuesta completa es
y[t] = C
1
+ 2U
o
t donde C
1
debe calcularse para satisfacer la condici´ on inicial.
En todo caso, lo relevante de este ejemplo es que aunque la entrada es una
simple constante, la salida crece en forma no acotada a medida que el tiempo
evoluciona. El sistema es, entonces, inestable.
Podemos apreciar mejor la naturaleza de este sistema, si (4.43) es escrita
como:
y[t] = y[t −1] + 2u[t −1] (4.44)
Esta ecuaci´ on puede ser asociada con el c´ aculo de una integral por aproxi-
maci´ on rectangular cuando el ancho de los rect´ angulos es 2. Al final, el resultado
del ejemplo muestra que la integral de un escal´ on es una rampa.
222
4.3.5. Velocidad
Un segundo aspecto de inter´es en relaci´ on con las frecuencias y modos nat-
urales guarda relaci´ on con la velocidad con que evolucionan las variables de un
sistema.
Dentro de la clase de sistemas estables, podemos distinguir diferencias no-
tables, no s´ olo por la distinta naturaleza de los valores propios, sino por las
velocidades comparativas a las que decaen las componente homog´eneas de la
respuesta de los distintos sistemas. Por ejemplo, consideremos dos sistemas con
las componentes homog´enas que se indican:
Sistema 1 y
h1
[t] = C
11
0, 9
t
+C
12
0, 5
t
(4.45)
Sistema 2 y
h2
[t] = C
21
0, 2
t
+C
22
0, 7
t
(4.46)
Vemos que y
h1
[t] est´ a dominada por el modo natural 0, 9
t
, pues esta se˜ nal de-
cae m´ as lentamente que el otro modo natural 0, 5
t
. Por su parte, y
h2
[t] est´ a dom-
inada por el modo natural 0, 7
t
, el que decae m´ as lentamente que el modo 0, 2
t
.
As´ı diremos que el Sistema 1 tiene una frecuencia natural dominante igual
a 0, 9, con un modo natural dominante 0, 9
t
. A su vez, el Sistema 2 tiene una
frecuencia natural dominante igual a 0, 7, con un modo natural dominante 0, 7
t
.
Al comparar ambos sistemas podemos concluir, en primera aproximaci´ on, que
el Sistema 1 es m´ as lento que el Sistema 2, porque su modo dominante decae
m´ as lentamente.
4.3. LA RESPUESTA DEL SISTEMA 73
En general, si λ = ηe

, con 0 ≤ η < 1, el modo natural tiene la forma:
λ
t
= η
t
(cos(θt) +j sen(θt)) (4.47)
De esta ecuaci´ on se observa que este modo decae m´ as r´ apidamente cuanto
m´ as peque˜ no es η. As´ı, los sistemas estables son m´ as r´ apidos cuanto m´ as cercanos
al origen del plano complejo est´ an sus frecuencias naturales dominantes.
4.3.6. Respuesta a estado inicial y respuesta a entrada
Una forma alternativa de descomponer la respuesta de un sistema es consid-
erar por separado la componente de la respuesta debida al estado inicial, y
x
[t],
y la componente de la respuesta debida a la entrada, y
u
[t], es decir:
y[t] = T¸¸¸x
o
, u[t]))) = T¸¸¸x
o
, 0)))
. ¸¸ .
y
x
[t]
+T¸¸¸0, u[t])))
. ¸¸ .
y
u
[t]
(4.48)
En consecuencia, y
x
[t] satisface:
y
x
[t] +a
n−1
q
−1
y
x
[t] +. . . +a
0
q
−n
y
x
[t] = 0 (4.49)
sujeta a las condiciones iniciales definidas en un vector x
o
. Esto sig-
nifica que y
x
[t] es una combinaci´ on lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la soluci´ on completa de la ERS).
A su vez, la respuesta a entrada, y
u
[t], es una soluci´ on de la ERS con condi-
ciones iniciales iguales a cero, es decir, satisface:
y
u
[t] +a
n−1
q
−1
y
u
[t] +. . . +a
0
q
−n
y
u
[t]
= b
m
u[t] +b
m−1
q
−1
u[t] +. . . +b
0
q
−m
u[t] (4.50)
sujeta a condiciones iniciales cero. Para poder cumplir la restricci´ on que
imponen estas condiciones, y
u
[t] debe contener, adem´ as de los modos forzados,
una combinaci´ on lineal de modos naturales cuyas constantes son calculadas de
modo que se cumpla aquella restricci´ on.
La Tabla 4.1 muestra una comparaci´ on de los modos presentes en las de-
scomposiciones descritas de la respuesta de un sistema.
y
h
[t] y
p
[t] y
x
[t] y
u
[t]
modos naturales
√ √ √
modos forzados
√ √
Cuadro 4.1: Presencia de modos en descomposiciones de la respuesta
Es adem´ as importante el notar que:
74 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
y[t] = y
h
[t] +y
p
[t] = y
x
[t] +y
u
[t] (4.51)
No obstante, en general, y
h
[t] ,= y
x
[t] e y
p
[t] ,= y
u
[t].
Afianzaremos estas ideas a trav´es del ejemplo 4.4 en que se muestra la de-
scomposici´ on en componente homog´enea y particular, para un caso particular.
Ejemplo 4.7. Suponga que la ERS est´ a dada por:
y[t] −0, 5y[t −1] = u[t −1] (4.52)
y que la respuesta y[t] debe satisfacer la condici´ on inicial y[−1] = −1. Se desea
calcular la respuesta del sistema si u[t] = 1 para t ≥ −1.
y
x
[t]
La respuesta a estado inicial debe cumplir con:
y
x
[t] −0, 5y
x
[t −1] = 0 (4.53)
y con y
x
[−1] = −1. Esta ecuaci´ on es satisfecha por y
x
[t] = C(0, 5)
t
, con C =
−0, 5, es decir:
y
x
[t] = −0, 5(0, 5)
t
(4.54)
y
u
[t]
La respuesta a entrada, y
u
[t], es una soluci´ on para (4.52) con u[t] = 1, y
sujeta a y
u
[−1] = 0.
De esta forma, la soluci´ on completa es
y
u
[t] = y
uh
[t] +y
up
[t] (4.55)
donde y
uh
[t] es una soluci´ on de la ecuaci´ on homog´enea, es decir y
uh
[t] = C
u
(0, 5)
t
,
e y
up
[t] es la soluci´ on particular
4
y
up
[t] = 2. C
u
se calcula de modo de obtener
y
u
[−1] = 0, lo cual conduce a C
u
= −1.
Finalmente:
y
x
[t] = −0, 5(0, 5)
t
(4.56)
y
u
[t] = −(0, 5)
t
+ 2 (4.57)
y[t] = y
x
[t] +y
u
[t] = −1, 5(0, 5)
t
+ 2 (4.58)
Este resultado tambi´en puede ser obtenido directamente con el c´ odigo:
Maple
>rsolve({y(n)=0.5*y(n-1)+1, y(-1)=-1},y(t));
4
Esta soluci´ on particular se puede calcular usando la ganancia al modo 1
t
.
4.3. LA RESPUESTA DEL SISTEMA 75
respuesta transitoria
respuesta estacionaria
De esta forma, podemos ahora completar la Tabla 4.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 4.2.
y
h
[t] y
p
[t] y
x
[t] y
u
[t]
modos naturales −1, 5(0, 5)
t
−0, 5(0, 5)
t
−(0, 5)
t
modos forzados 2 2
Cuadro 4.2: Presencia de modos en descomposiciones de la respuesta del ejemplo
222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
En la descomposici´ on componente homog´enea – componente particular se
observa la estructura de la respuesta. En efecto, en esa partici´ on queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homog´enea) y modos forzados (incluidos en la componente
particular).
En la descomposici´ on respuesta a estado inicial – respuesta a entrada se
separan los efectos de las dos causas de que el sistema tenga una respuesta:
las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean cero, los modos naturales
igual se encuentran presentes en la respuesta del sistema a trav´es de la respuesta
debida a la entrada, y
u
[t].
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria
corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo
desde el instante inicial. Por su parte la respuesta transiente es aquella parte de
la respuesta que se extingue con el tiempo.
En el ejemplo 3.6 en la p´ agina 47, la respuesta estacionaria est´ a dada por el
modo forzado constante, mientras que la respuesta transitoria est´ a formada por
los modos naturales (sinusoidales amortiguadas).
La separaci´ on en componentes estacionaria y transitoria es transversal a
la idea de modos naturales y modos forzados. La respuesta estacionaria puede
existir incluso si la entrada es cero. En ese caso est´ a formada exclusivamente por
modos naturales. Por ejemplo, si un sistema tiene modos naturales sinusoidales
y la entrada es una exponencial decreciente, entonces la respuesta estacionaria
contendr´ a los modos naturales sinusoidales y la respuesta transitoria incluir´ a el
modo forzado por la exponencial.
Por otro lado, si el sistema tiene ganancia cero a un modo forzante, el cor-
respondiente modo forzado no aparecer´ a en la respuesta estacionaria.
76 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
respuesta!a$\mu[t]$
respuesta!aescal´ on
4.4. Respuesta a se˜ nales de prueba
Una forma de estudiar, y comparar en forma estandarizada el comportamien-
to de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas se˜ nales de prueba se consideran usualmente: el escal´ on unitario, el impulso
unitario y la se˜ nal sinusoidal. En esta secci´ on nos concentraremos en las dos
primeras, pues la respuesta ante se˜ nales sinuosidales ser´ a materia de estudio en
el Cap´ıtulo 5).
4.4.1. Respuesta a escal´ on unitario
Considere la ecuaci´ on (4.1) en la p´ agina 61. Entonces la respuesta, g[t], a un
escal´ on unitario y condiciones iniciales iguales a cero
5
, se puede obtener
de la siguiente forma:
Paso 1 Determine la soluci´ on general de la ecuaci´ on:
g
o
[t] +a
n−1
q
−1
g
o
[t] +. . . +a
0
q
−n
g
o
[t] = 1 (4.59)
Note que g
o
[t] contiene una parte natural u homog´enea (combinaci´ on lineal
de modos naturales de la forma (4.31)) y una componente particular o
forzada. Cuando el sistema no tiene frequencias naturales en λ = 1, g
o
[t]
tiene la forma:
g
o
[t] = K
o
+
p

=1
n

i=1
C
i
t
i−1
λ
t

∀t ≥ −n (4.60)
donde K
o
es la ganancia del sistema con ERS (4.59) al modo constante
1
t
, es decir:
K
o
=
1

n
i=0
a
i
; con a
n
= 1 (4.61)
En el caso general en que el sistema tiene una frequencia natural en λ = 1,
con multiplicidad p, g
o
[t] tiene la forma:
g
o
[t] = K
p
t
p−1
+
p

=1
n

i=1
C
i
t
i−1
λ
t

∀t ≥ −n (4.62)
Hemos anotado que esta expresi´ on para g
o
[t] es v´ alida ∀t ≥ −n ya que
satisface las condiciones iniciales.
Paso 2 Calcule la se˜ nales retardadas q

g
o
[t], para = 1, 2, . . ., n.
5
Elegimos, por simplicidad, g[−1] = g[−2] = . . . = g[−n] = 0
4.4. RESPUESTA A SE
˜
NALES DE PRUEBA 77
Paso 3 Calcule las constantes C
i
usando la restricci´ on de las condiciones ini-
ciales iguales a cero, es decir, usando el hecho que:
q

g
o
[t][
t=0
= 0 = 0, 1, . . . , n −1 (4.63)
Paso 4 Usando las propiedades de linealidad e invarianza, obtenga g[t] de
acuerdo a:
g[t] = b
m
g
o
[t] +
m

i=1
b
m−i
q
−i
g
o
[t]µ[t −i ] (4.64)
El procedimiento anterior es ilustrado con el siguiente ejemplo.
Ejemplo 4.8. Consideremos la ERS:
y[t] −0, 9q
−1
y[t] + 0, 2q
−2
y[t] = 2u[t] +q
−1
u[t] (4.65)
Entonces las frecuencias naturales son soluciones de λ
2
−0, 9λ+0, 2 = 0, es
decir λ
1
= 0, 5 y λ
2
= 0, 4.
Luego, seguimos los pasos bosquejados previamente:
Paso 1 Calculamos la soluci´ on general de:
g
o
[t] −0, 9q
−1
g
o
[t] + 0, 2q
−2
g
o
[t] = 1 (4.66)
que resulta ser g
o
[t] =
10
3
+ C
1
(0, 5)
t
+ C
2
(0, 4)
t
. Note que el t´ermino
10
3
corresponde a la ganancia a continua, es decir, al modo forzante 1
t
.
Paso 2 Para este ejemplo, ya que n = 2, se necesita calcular g
o
[t−1] y g
o
[t−2]:
g
o
[t −1] =
10
3
+C
1
(0, 5)
t−1
+C
2
(0, 4)
t−1
=
10
3
+ 2C
1
(0, 5)
t
+ 2, 5C
2
(0, 4)
t
(4.67)
g
o
[t −2] =
10
3
+C
1
(0, 5)
t−2
+C
2
(0, 4)
t−2
=
10
3
+ 4C
1
(0, 5)
t
+ 6, 25C
2
(0, 4)
t
(4.68)
Paso 3 Las constantes C
1
y C
2
se calculan a partir de las condiciones iniciales
(iguales a cero), es decir:
g
o
[−1] = 0 =
10
3
+ 2C
1
+ 2, 5C
2
(4.69)
g
o
[−2] = 0 =
10
3
+ 4C
1
+ 6, 25C
2
(4.70)
78 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
respuesta!a$\delta[t]$
respuesta!aimpulso
de donde C
1
= −5 y C
2
=
8
3
. Lo cual conduce a:
g
o
[t] =
10
3
−5(0, 5)
t
+
8
3
(0, 4)
t
∀t ≥ −2 (4.71)
Este resultado se puede obtener a trav´es del siguiente c´ odigo:
Maple
>ers:=go(n)-0.9*go(n-1)+0.2*go(n-2)-1;
>rsolve({ers,go(-1)=0,go(-2)=0},go(t));
Paso 4 La respuesta a escal´ on unitario est´ a entonces dada por:
g[t] = 2g
o
[t] −g
o
[t −1]µ[t −1] (4.72)
=
20
3
−10(0, 5)
t
+
16
3
(0, 4)
t
+
_
10
3
−5(0, 5)
t−1
+
8
3
(0, 4)
t−1
_
µ[t −1] ∀t ≥ −2
(4.73)
=
20
3
−10(0, 5)
t
+
16
3
(0, 4)
t
+
_
10
3
−10(0, 5)
t
+
20
3
(0, 4)
t
_
µ[t −1] ∀t ≥ −2
(4.74)
Note que g
o
[t −1]µ[t −1] = g
o
[t −1]µ[t], ya que g
o
[t −1]µ[t][
t=0
= 0.
As´ı tenemos que
6
g[t] = 10 −20(0, 5)
t
+ 12(0, 4)
t
∀t ≥ 0 (4.75)
222
4.4.2. Respuesta a impulso unitario
Considere la ecuaci´ on (4.1) en la p´ agina 61. Entonces la respuesta a un
impulso unitario, δ[t], y condiciones iniciales iguales a cero, se puede obtener a
partir de la respuesta a escal´ on unitario.Esta estrategia se basa en que el sistema
representado por la ERS (4.1) es lineal e invariante en el tiempo.
Recordemos que:
δ[t] = µ[t] −µ[t −1] (4.76)
Entonces, la respuesta h[t], a un impulso unitario est´ a dada por:
6
Note que esta expresi´ on no es v´ alida para t = −1 y t = −2
4.5. C
´
ALCULO DE LA RESPUESTA VIA CONVOLUCI
´
ON 79
convoluci´ on
h[t] = g[t] −g[t −1]µ[t −1] ∀t ≥ −n (4.77)
Como las condiciones iniciales son cero, g[t − 1]µ[t − 1] = g[t − 1]µ[t], ya
que g[t −1]µ[t][
t=0
= 0. As´ı la respuesta a un impulso unitario con condiciones
iniciales iguales a cero est´ a dada por:
h[t] = g[t] −g[t −1] ∀t ≥ 0 (4.78)
Aunque en algunos textos se propone calcular h[t] usando una estrategia
similar a la seguida para el c´ alculo de la respuesta a escal´ on unitario, en general
desde el punto de vista meramente instrumental es mucho m´ as simple calcular
la respuesta a impulso usando la transformada Zeta, como se ver´ a en el Cap´ıtulo
8.
Ejemplo 4.9. Consideremos el mismo sistema descrito por (4.65), entonces
podemos calcular h[t] construyendo la primera diferencia de la respuesta a es-
cal´ on unitario en (4.72). As´ı se obtiene:
h[t] = 10 −20(0, 5)
t
+ 12(0, 4)
t
−10 + 20(0, 5)
t−1
−12(0, 4)
t−1
(4.79)
= 20(0, 5)
t
−18(0, 4)
t
∀t ≥ 0 (4.80)
222
En una perspectiva general, podemos observar que dada la relaci´ on entre la
respuesta a impulso y la respuesta a escal´ on, y considerando que esta ´ ultima
contiene una combinaci´ on lineal de los modos naturales del sistema y una con-
stante, entonces h[t] contiene s´ olo modos naturales. Conceptualmente, es
´esta la caracter´ıstica que confiere especial importancia a las respuestas a escal´ on
e impulso. En rigor, la respuesta a excitaciones m´ as complejas tambi´en contiene
una combinaci´ on de modos naturales (a trav´es de la componente homog´enea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente secci´ on una utilidad inmediata de estas considera-
ciones.
4.5. C´alculo de la respuesta via convoluci´ on
Supongamos que se conoce la respuesta a impulso, h[t], de un sistema lineal
e invariante en el tiempo, con condiciones iniciales iguales a cero, entonces, el
siguiente lema nos proporciona un resultado crucial en la teor´ıa de los sistemas
lineales de tiempo discreto.
Lema 4.4. Considere un sistema lineal e invariante en el tiempo. Sea adem´ as
h[t] la respuesta de ese sistema a un impulso unitario en la entrada, con condi-
ciones iniciales iguales a cero. Entonces, la respuesta y[t] del mismo sistema a
80 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
se~ nalcausal
una excitaci´ on causal
7
arbitaria, u[t], con condiciones iniciales iguales a cero,
est´ a dada por:
y[t] =
t

=0
u[]h(t −) ∀t ≥ 0 (4.81)
Demostraci´ on
Recordemos que toda se˜ nal u[t] puede expresarse por:
u[t] =

=0
u[]δ[t −] (4.82)
Por otro lado, dada la invarianza del sistema tenemos que:
h[t −] = T¸¸¸0, δ[t −]))) (4.83)
Luego, usando homogeneidad:
u[]h[t −] = T¸¸¸0, u[]δ[t −]))) (4.84)
Aplicando ahora superposici´ on se llega a:

=0
u[]h[t −] = T¸¸¸0,

=0
u[]δ[t −]))) (4.85)
Finalmente, usando (4.82) y el hecho que h[t−] = 0 ∀ > t (por causalidad),
se obtiene:
y[t] = T¸¸¸0, u[t]))) =
t

=0
u[]h[t −] ∀t ≥ 0 (4.86)
222
En la ecuaci´ on (4.86) y[t] se puede interpretar como una suma ponderada
(por u[]) de respuestas a impulso h[t −].
Note que dado que u[t] y h[t] son causales, entonces, la ecuaci´ on (4.81)
tambi´en se puede escribir como:
y[t] =

=−∞
u[]h[t −] =

=−∞
u[t −]h[] ∀t ≥ 0 (4.87)
Las sumas que aparecen en la ecuaci´ on (4.87) son una expresi´ on de la con-
voluci´ on de dos funciones temporales. La definici´ on gen´erica es:
f
1
[t] ∗ f
2
[t] =

=−∞
f
1
[]f
2
[t −] =

=−∞
f
1
[t −]f
2
[] (4.88)
7
Una se˜ nal u[t] es causal si u[t] = 0 ∀t < 0
4.5. C
´
ALCULO DE LA RESPUESTA VIA CONVOLUCI
´
ON 81
Aparte de la propiedad de commutatividad que aparece en (4.88), la con-
voluci´ on tiene la propiedad de distributividad, esto es:
f
1
∗ (f
2
[t] +f
3
[t]) = f
1
[t] ∗ f
2
[t] +f
1
[t] ∗ f
3
[t] (4.89)
Otra propiedad fundamental de la convoluci´ on est´ a dada por el siguiente
lema.
Lema 4.5. La convoluci´ on de un se˜ nal con un impulso de Kronecker en el
origen, δ[t], es la se˜ nal misma, es decir:
u[t] ∗ δ[t −t
o
] = u[t −t
o
] (4.90)
Demostraci´ on
u[t]∗δ[t−t
o
] =

=−∞
u[]δ[t−t
o
−] =

=−∞
u[t−t
o
]δ[t−t
o
−] = u[t−t
o
] (4.91)
Note que el ´ ultimo paso de la demostraci´ on se basa en que una funci´ on de
tiempo discreto es un tren de impulsos de Kronecker cuya amplitud es el valor
instant´ aneo de la se˜ nal.
222
El uso de convoluci´ on para la determinaci´ on de la respuesta de un sistema
lineal tiene importancia conceptual y num´erica, sin embargo, no es, en general,
un procedimiento anal´ıticamente simple. Es interesante observar que el c´ alculo
de la convoluci´ on entre dos se˜ nales discretas se puede ilustrar de manera muy
simple: si consideramos dos tiras de papel, en una de las cuales se anotan los
valores de la primera se˜ nal y, en la otra los de la segunda, entonces la convoluci´ on
se realiza invirtiendo una de las tiras y retrocedi´endola sobre la otra. Para cada
retroceso, la convoluci´ on corresponde a multiplicar los valores coincidentes y
sumar los productos resultantes. Esto se muestra en el siguiente ejemplo.
Ejemplo 4.10. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h[t] = (0, 5)
t
µ[t]. Determine, usando con-
voluci´ on la respuesta a la se˜ nal u[t] = µ[t] −µ[t −3].
Soluci´ on
La respuesta est´ a dada por
y[t] = u[t] ∗ h[t] =
t

−∞
u[]h[t −]
=
t

−∞
(0, 5)
t−
µ[t −](µ[] −µ[ −3]) (4.92)
La suma o acumulaci´ on se puede segmentar en tres intervalos:
82 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
transformadadeFourier
transformadaZeta
u[t] ∗ h[t] =
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
−1

=−∞
u[]h[t −]d = 0 t < 0
t

=0
u[]h[t −]d = 2 −(0, 5)
t
0 ≤ t < 3
2

=0
u[]h[t −]d = 7(0, 5)
t
t ≥ 3
(4.93)
Una resoluci´ on compacta se puede desarrollar usando el hecho que la entrada
se puede expresar como la suma de tres impulsos unitarios, es decir:
u[t] = µ[t] −µ[t −3] = δ[t] +δ[t −1] +δ[t −2] (4.94)
De esta forma podemos calcular la respuesta usando la propiedad de distribu-
tividad de la convoluci´ on, seguida por la aplicaci´ on del Lema 4.5:
y[t] = h[t] ∗ u[t] = h(t) ∗ (δ[t] +δ[t −1] +δ[t −2])
= (0, 5)
t
µ[t] + (0, 5)
t−1
µ[t −1] + (0, 5)
t−2
µ[t −2] (4.95)
222
Como se puede apreciar, el c´ alculo mismo de la convoluci´ on es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
es un nexo de conexi´ on con el an´ alisis en el dominio de las transformadas de
Fourier discreta y Zeta (Cap´ıtulos 6 y 8, respectivamente).
La convoluci´ on en tiempo discreto es ampliamente usada para construir la
respuesta de sistemas lineales, invariantes en el tiempo y causales, cuando se
conoce la respuesta a un impulso unitario. Esto se debe a la simplicidad de las
expresiones del Lema 4.4.
La respuesta de un sistema lineal e invariante en el tiempo se puede calcular
a partir de la respuesta a escal´ on, como se muestra en el el siguiente lema.
Lema 4.6. Sea un sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escal´ on unitario de entrada, con condiciones ini-
ciales iguales a cero, es g[t]. Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitaci´ on u[t] est´ a dada por:
y[t] = u[t] ∗ (g[t] −g[t −1]) = g[t] ∗ (u[t] −u[t −1]) (4.96)
Demostraci´ on
Dado que δ[t] = µ[t] − µ[t − 1], entonces, por linealidad e invarianza, la
respuesta h[t], a un impulso unitario puede expresarse como:
h[t] = g[t] −g[t −1] (4.97)
Esto lleva inmediatamente al primer resultado, dado que:
4.5. C
´
ALCULO DE LA RESPUESTA VIA CONVOLUCI
´
ON 83
y[t] = u[t] ∗ h[t] = u[t] ∗ (g[t] −g[t −1]) (4.98)
Para demostrar la segunda parte del resultado, notamos que la se˜ nal de en-
trada, u[t] puede expresarse como la suma de escalones incrementales, es decir:
u[t] =

=−∞
(u[] −u[ −1])µ[t −] (4.99)
Luego, usando la linealidad y la invarianza vemos que:
y[t] = T¸¸¸0, u[t]))) =

=−∞
(u[] −u[ −1])g[t −] (4.100)
Y, finalmente, reconocemos en la sumatoria la forma de la convoluci´ on, es
decir:

=−∞
(u[] −u[ −1])g[t −] = g[t] ∗ (u[t] −u[t −1]) (4.101)
222
84 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
4.6. Problemas para el lector
Problema 4.1. Resuelva las siguientes ecuaciones de recursi´ on con las condi-
ciones iniciales que se indican:
y[t] −0, 2y[t −2] = 0 y[−1] = 1; y[−2] = −1 (4.102)
y[t] −0, 6y[t −1] + 0, 09y[t −2] = 0 y[−1] = 2; y[1] = 1 (4.103)
y[t + 1] −1, 3y[t] + 0, 4y[t −1] = 0 y[0] = 0; y[5] = 0 (4.104)
y[t] −4y[t −1] + 9y[t −2] = 0 y[−1] = 0; y[−2] = 1 (4.105)
y[t] −y[t −10] = 0 y[−1] = 1; y[−i] = 0 ∀i > 1
(4.106)
Verifique con Maple .
Problema 4.2. Calcule la respuesta a escal´ on unitario, con condiciones iguales
a cero para cada una de las ERS:
y[t] −0, 2y[t −2] = u[t] (4.107)
y[t] −0, 6y[t −1] + 0, 09y[t −2] = u[t −1] −u[t −2] (4.108)
y[t] −1, 3y[t −1] + 0, 4y[t −2] = 0, 2u[t −10] (4.109)
y[t] −2y[t −1] +y[t −2] = u[t] (4.110)
Verifique con Maple .
Problema 4.3. Considere la se˜ nal:
f[t] = 2(0, 6)
t
−2(0, 2)
t
(4.111)
4.3.1 Proponga una ERS de modo que f[t] corresponda (∀t ≥ 0) a la respuesta
del sistema a impulso con condiciones iniciales iguales a cero.
4.3.2 Proponga una ecuaci´ on de recursi´ on homog´enea, de modo que f[t]
corresponda a la respuesta a estado inicial. Especifique ese estado inicial.
Problema 4.4. La respuesta de un sistema lineal e invariante en el tiempo a
un escal´ on unitario y condiciones inciales iguales a cero est´ a dada por:
g[t] = (1 −(0, 5)
t
+t(0, 5)
t
)µ[t] (4.112)
4.4.1 Determine la ERS.
4.4.2 Calcule la respuesta del mismo sistema a un impulso unitario.
4.6. PROBLEMAS PARA EL LECTOR 85
Problema 4.5. Determine los modos asociados a las siguientes conjuntos de
frecuencias naturales:
Sistema 1 λ
1
= −0, 2 λ
2
= −0, 2 λ
3
= −0, 2
Sistema 2 λ
1
= −0, 3 λ
2
= 0, 3 λ
3
= −2
Sistema 3 λ
1
= −1 λ
2
= −0, 1 +j0, 2 λ
3
= −0, 1 −j0, 2
Problema 4.6. La respuesta de un sistema lineal e invariante en el tiempo
a un delta de Kronecker es h[t] = (0, 7)
t
µ[t]. Usando convoluci´ on calcule la
respuesta del sistema a una entrada u[t] = (0, 3)
t
µ[t].
Problema 4.7. La ecuaci´ on caracter´ıstica de un sistema est´ a dada por:
λ
2
+aλ +b = 0 (4.113)
4.7.1 Suponga que b = 0, 8; determine el rango de valores de a que hacen estable
al sistema.
4.7.2 Dentro de ese rango determine el valor de a de modo que el sistema sea
lo m´ as r´ apido posible.
4.7.3 Suponga ahora que b = 1, 2, repita 4.7.1.
Problema 4.8. Suponga que la respuesta de un sistema lineal a un escal´ on
unitario con condiciones iniciales iguales a cero es una se˜ nal g[t], que se muestra
en la Figura 4.3.
4.8.1 ¿Es el sistema estable ?
4.8.2 Estime los modos naturales del sistema
4.8.3 Estime la ganancia al modo forzante constante
−1 0 1 2 3 4 5 6 7 8 9 10
0
0.5
1
1.5
Tiempo [s]
g
[
k
]
Figura 4.3: Respuesta a escal´ on unitario
86 CAP
´
ITULO 4. AN
´
ALISIS EN TIEMPO DISCRETO
Problema 4.9. Se contrae una deuda hipotecaria de 1000 [UF] a un inter´es
mensual de 0, 7 %. Si el plazo de la deuda es de 120 meses ¿Cu´ al debiera ser el
dividendo mensual, constante, en UF?
Problema 4.10 (Problema-desaf´ıo). En la red de la Figura 4.4 todas las
resistencias son iguales a R. Considere como variable independiente, no al tiem-
po discreto sino que al n´ umero de orden de la malla. Construya una ecuaci´ on
de recursi´ on en las corrientes de mallas y especifique las condiciones (inicial y
final).
+
i
1
i
0
i
n−2 i
n−1
i
n
E
Figura 4.4: Red resistiva.
Fourier
seriedeFourier|textbf
sistema!nolineal
Cap´ıtulo 5
An´alisis bajo excitaciones
peri´ odicas
5.1. Se˜ nales Peri´ odicas
En este cap´ıtulo se analiza el caso de sistemas lineales sujetos a excitaciones
peri´ odicas en el tiempo. Las se˜ nales peri´ odicas aparecen en muchas ´ areas de la
Ingenier´ıa y en fen´ omenos naturales. Sin embargo, estas se˜ nales, en general, no
se presentan como oscilaciones puras de una frecuencia espec´ıfica que se puedan
describir exactamente por una sinusoide del tipo sen(ωt), sino que como se˜ nales
m´ as arbitrarias, tales como se˜ nales triangulares, se˜ nales tipo dientes de sier-
ra, trenes de pulsos o sinusoidales rectificadas, entre otras, cuya caracter´ıstica
fundamental es su periodicidad en el tiempo.
Es m´ as, en algunas oportunidades se˜ nales peri´ odicas no sinusoidales resultan
de efectos par´ asitos indeseables, de naturaleza no lineal, en sistemas reales. Por
ejemplo, considere el caso de un sistema amplificador con entrada u(t) y salida
y(t), cuya relaci´ on entrada-salida es:
y(t) = Au(t) + (u(t))
2
(5.1)
donde es mucho menor que la amplificaci´ on A. Entonces, si la entrada es
una se˜ nal de una frecuencia espec´ıfica u(t) = U cos(ωt), entonces la salida y(t)
est´ a dada por:
y(t) = AU cos(ωt) + U
2
(0, 5 + 0, 5 cos(2ωt)) (5.2)
De esta forma, podemos apreciar que la salida del sistema contiene tres
sinusoides de distinta frecuencia (0, ω y 2ω [rad/s]), que deben ser consideradas
cuando esta se˜ nal act´ ua como entrada de otro sistema.
Otros casos en que aparecen se˜ nales peri´ odicas no sinusoidales incluyen el
corte de se˜ nales sinusoidales (cuando la amplitud de una sinusoide excede cierto
87
88 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
seriedeFourier
ganancia!amodoforzante
sinusoidal
amplitud
\’angulo!dedesfase
fase
per´ ıodo
frecuencia!angular
frecuencia
nivel prescrito), la rectificaci´ on de se˜ nales sinusoidales, la intrevenci´ on de zonas
muertas, hist´eresis, etc.
La idea fundamental en este cap´ıtulo ser´ a representar una funci´ on peri´ odica
como combinaci´ on lineal de sinusoides de ciertas frecuencias, como es el caso de
la serie de Fourier, el an´ alisis de los sistemas lineales se hace m´ as f´ acil, dado que
podemos usar las propiedades de superposici´ on y homogeneidad. El concepto
clave subyacente a utilizar es el de ganancia a modo forzante, desarrollado
en el Cap´ıtulo 3, para sistemas de tiempo continuo, y en el Cap´ıtulo 4, para
sistemas de tiempo discreto.
5.2. Respuesta a entrada sinusoidal. El caso de
tiempo continuo
Hasta el momento hemos visto la respuesta de sistemas lineales a diferentes
tipos de entradas (modos forzantes), incluyendo el caso de exponenciales de ex-
ponente imaginario (las que combinadas dan origen a sinuosoides reales). En esta
secci´ on nos detendremos en la caracter´ıstica de ganancia que exhibe un sistema
lineal cuando la excitaci´ on es una sinuoside. Con ese prop´ osito consideremos un
sistema lineal estable modelado por su EDS:
d
n
y(t)
dt
n
+a
n−1
d
n−1
y(t)
dt
n−1
+. . . +a
0
y(t) = b
n−1
d
n−1
u(t)
dt
n−1
+. . . +b
0
u(t) (5.3)
donde la entrada del sistema es una se˜ nal sinusoidal que puede escribirse de la
forma general:
u(t) = Acos(ωt +φ) (5.4)
en que (vea Cap´ıtulo 2):
A es la amplitud, cuyas unidades dependen del sistema en cuesti´ on,
φ es el ´ angulo de desfase (o simplemente fase), medido en [rad], y
ω es la frecuencia angular, medida en [rad/seg]. Esta, a su vez, determina la
frecuencia f =
ω

[Hz] y el per´ıodo T =
1
f
=

ω
[seg] de la sinusoide.
Aplicando la f´ ormula de Euler se tiene que:
Acos(ωt +φ) = A
e
j(ωt+φ)
+e
−j(ωt+φ)
2
= αe
jωt


e
−jωt
(5.5)
donde α ∈ C, α

es el complejo conjugado de α y
α =
A
2
e

(5.6)
Por otra parte sabemos que si K(ω) ∈ C es la ganancia al modo forzante
e
jωt
, entonces, por linealidad:
5.2. RESPUESTAAENTRADASINUSOIDAL. EL CASODE TIEMPOCONTINUO89
sistema!estable
modosnaturales
T¸¸¸x
o
, Acos(ωt +φ)))) = K(ω)αe
jωt
+ (K(ω))

α

e
−jωt
+¦modos naturales¦
(5.7)
Donde K(ω) es la ganancia a modo forzante y dada por (3.24), con β
i
= jω.
Si expresamos K(ω) en su forma polar se llega a:
K(ω) = [K(ω)[e

a
(ω)
(5.8)
As´ı, se obtiene:
T¸¸¸x
o
, Acos(ωt +φ)))) = [K(ω)[Acos(ωt+φ+φ
a
(ω))+¦modos naturales¦ (5.9)
Como el sistema es estable, los modos naturales decaen a cero cuando t →∞,
as´ı, la respuesta estacionaria contiene s´ olo la componente particular, es decir,
contiene s´ olo los modos forzados y tiene la forma:
y(t) = A
s
(ω) cos(ωt +φ
s
(ω)) (5.10)
Esta forma puede ser directamente calculada reemplazando (5.10) en la EDS.
Cuando el modo forzante es una exponencial de la forma e
jωt
, o una si-
nusoidal cos(ωt), la ganancia a modo forzante, K(ω), caracteriza lo que se
denomina respuesta en frecuencia del sistema.
El desarrollo precedente es ilustrado a trav´es de un ejemplo.
Ejemplo 5.1. Consideremos el sistema definido por su ecuaci´ on diferencial:
d
2
y(t)
dt
2
+ 4
d y(t)
dt
+ 13y(t) = 26u(t)
Supongamos que la entrada es u(t) = sen(ωt) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en λ
1,2
= −2 ± j3. Con esto sabemos entonces que la
soluci´ on homog´enea tiene la forma:
y
h
(t) = e
−2t
[B
1
cos(3t) +B
2
sen(3t)] (5.11)
Para obtener la soluci´ on particular reemplazamos la soluci´ on propuesta:
y
p
(t) = A
s
(ω) sen(ωt +φ
s
(ω)) (5.12)
que es equivalente a una expresi´ on de la forma
y
p
(t) = C
1
(ω) cos(ωt) +C
2
(ω) sen(ωt) (5.13)
90 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
respuestaenfrecuencia
Los coeficientes C
1
(ω) y C
2
(ω) se obtienen reemplazando la soluci´ on par-
ticular propuesta y la funci´ on de entrada en la ecuaci´ on diferencial original y
derivando:
−C
1
(ω)ω
2
cos(ωt) −C
2
(ω)ω
2
sen(ωt) + 4C
2
(ω)ω cos(ωt) −4C
1
(ω)ω sen(ωt)
+ 13C
1
(ω) cos(ωt) + 13C
2
(ω) sen(ωt) = 26 sen(ωt) (5.14)
De aqu´ı, igualando los coeficientes de cos(ωt) y de sen(ωt) a ambos lados,
pueden obtenerse los coeficientes C
1
y C
2
:
C
1
(ω) =
−104ω
(13 −ω
2
)
2
+ (4ω)
2
(5.15)
C
2
(ω) =
26(13 −ω
2
)
(13 −ω
2
)
2
+ (4ω)
2
(5.16)
Si se supone ω = 10[rad/s] y se combinan la soluci´ on homog´enea y la partic-
ular, pueden obtenerse los coeficientes por determinar de la soluci´ on homog´enea
B
1
y B
2
. La soluci´ on final es:
y(t) = y
h
(t) +y
p
(t) = e
−2t
[0,113 cos(3t) + 0,899 sen(3t)]
−0,113 cos(10t) −0,247 sen(10t) (5.17)
´
Esta se muestra en la Figura 5.1, donde se aprecia claramente la presen-
cia de una parte de la respuesta que es transiente, m´ as lenta, que desaparece
manteni´endose s´ olo una oscilaci´ on sostenida de 10[rad/seg], pero de diferente
amplitud y fase que las de la se˜ nal original. Estos valores de A
s
y φ
s
, que de-
penden de la frecuencia ω, son en este caso:
A
s
(10) =
_
C
1
(10)
2
+C
2
(10)
2
= 0,272 (5.18)
φ
s
(10) = ∠(C
2
(10) +jC
1
(10)) = −2, 7106 [rad] ≈ −155, 31
o
(5.19)
Una manera m´ as directa para obtener una descripci´ on gen´erica de los resul-
tados anteriores ser´ıa calcular la respuesta en frecuencia K(ω), la que, en este
caso particular, est´ a dada por:
K(ω) = [K(ω)[e

a
(ω)
=
26
(jω)
2
+ 4jω + 13
(5.20)
La magnitud y fase de esta respuesta en frecuencia aparecen en la Figura
5.2. En esta figura los valores de magnitud y fase de K(10) se pueden calcular
usando el comando de Matlab ginput, el resultado es [K(10)[ = 0, 2734 y
φ
a
(10) = −2, 7188 [rad] (note que, en este ejemplo, A = 1).
222
5.2. RESPUESTAAENTRADASINUSOIDAL. EL CASODE TIEMPOCONTINUO91
0 1 2 3 4 5 6
−1
−0.5
0
0.5
1
Figura 5.1: Se˜ nales de entrada y salida en el Ejemplo 5.1
0 5 10 15 20
0
0.5
1
1.5
2
2.5
Frecuencia [rad/s]
|
K
(
ω
)
|
0 5 10 15 20
−3
−2.5
−2
−1.5
−1
−0.5
0
Frecuencia [rad/s]
φ
a
(
ω
)
Figura 5.2: Respuesta en frecuencia de un sistema de segundo orden de tiempo
continuo
Es necesario tener presente que en ciertos sistemas, a pesar de tener todas
sus frecuencias naturales en el interior de la zona de estabilidad, la respues-
ta a sinusoides de baja amplitud, incluye componentes sinuosidales de alt´ısima
amplitud. Esto sucede en situaciones en que el sistema es excitado con una sinu-
soide de frecuencia muy cercana a una frecuencia natural pr´ oxima al l´ımite de
estabilidad (el eje imaginario). En este caso, dependiendo del amortiguamien-
to del sistema, la salida puede alcanzar el estado estacionario s´ olo despu´es de
mucho tiempo, y aunque anal´ıticamente la oscilaci´ on en la salida permanece
acotada, puede alcanzar magnitudes insostenibles para el sistema real
1
. Para
esto recomendamos al lector analizar en detalle el Problema 5.4.
Ejemplo 5.2. El fen´ omeno de respuestas inusualmente altas se origina en sis-
temas que exhiben altas ganancias a un modo forzante de la forma e
jωt
. Con-
sidere, por ejemplo, el sistema con EDS:
d
2
y(t)
dt
2
+ 0, 01
d y(t)
dt
+ 4y(t) = 4y(t) (5.21)
1
Un caso tradicionalmente analizado en la f´ısica de las oscilaciones es el colapso del Puente
Tacoma en EE.UU.
92 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
resonancia
En este ejemplo, que corresponde a un sistema estable, la ganancia a con-
tinua es igual a 1, sin embargo la ganancia a modo forzante e
j2t
est´ a dada por:
K(ω) =
4
(j2)
2
+ 0, 01 ∗ (j2) + 4
= −j200 (5.22)
Esto significa que una excitaci´ on sinuosidal de amplitud unitaria y frecuencia
2 [rad/s] genera una respuesta forzada de amplitud igual a 200. En casos
como ´este, se dice que, para esta excitaci´ on, el sistema entra en resonancia.
La idea de resonancia en un sistema se refiere a la facilidad con que ese
sistema responde a determinadas frecuencias. Por ejemplo, todos conocemos la
facilidad con que se amplifica la oscilaci´ on de un columpio cuando se lo empuja
con la frecuencia adecuada.
En t´erminos de la respuesta en frecuencia, el fen´ omeno descrito se refleja
en que la funci´ on [K(ω)[ tiene uno o m´ as picos muy pronunciados.
222
Finalmente, cuando las frecuencias naturales del sistema se encuentran fuera
de la zona de estabilidad, la componente natural de la respuesta es no acotada.
Sin embargo, la componente forzada sigue siendo una oscilaci´ on de la misma
frecuencia que la sinusoide en la entrada. Para apreciar esto se recomienda al
lector analizar el Problema 5.5.
5.3. Series de Fourier para se˜ nales de tiempo
continuo
La idea central tras las series de Fourier, sean ellas de tiempo continuo o de
tiempo discreto, es la representaci´ on de una funci´ on peri´ odica usando una base
ortogonal de funciones.
La idea de ortogonalidad adquiere su sentido m´ as b´ asico considerando con el
sistema cartesiano de coordenadas en R
2
o R
2
. Sin embargo, la diferencia basica
en el caso de las series de Fourier es que la dimensi´ on de la base es infinita,
hecho usual en espacios de funciones [12].
Antes de analizar de lleno la representacion de funciones peri´ odicas en for-
ma de una serie de Fourier, sugerimos al lector revisar el Ap´endice B para
familiarizarse con la notaci´ on y el vocabulario empleado de aqu´ı en adelante.
5.3.1. Serie de Fourier trigonom´etrica
Consideremos el espacio vectorial de todas las funciones seccionalmente con-
tinuas en un intervalo
2
[−
T
2
,
T
2
], y en ´el, el conjunto de vectores (funciones):
B = ¦ 1 , cos(nω
0
t) , sen(nω
0
t) ¦
n=1,2,...
; ω
0
=

T
(5.23)
2
En t´erminos generales el intervalo a considerar es [t
o
, t
o
+ T]. Por simplicidad hemos
escogido t
o
= −T/2
5.3. SERIES DE FOURIER PARA SE
˜
NALES DE TIEMPO CONTINUO 93
independencia lineal
ortogonalidad
SeriedeFourier
frecuenciafundamental
El conjunto definido en (5.23) resulta ser an´ alogo al conjunto de funciones
considerados en el Lema B.1 en la p´ agina 346, dado que son linealmente in-
dependientes , pues ninguna de las sinusoides (o la constante) del conjunto
puede describirse como una combinaci´ on lineal de las dem´ as. Adem´ as definimos
el producto interno en este espacio de funciones como la integral:
¸f(t), g(t)) =
_ T
2

T
2
f(t)

g(t)dt f(t), g(t) ∈ B (5.24)
Entonces el conjunto (5.23) resulta ser ortogonal , es decir, si tomamos dos
elementos y
m
(t) e y
n
(t) pertenecientes al conjunto B definido en (5.23):
¸y
n
(t), y
m
(t)) =
_ T
2

T
2
y
n
(t)y
m
(t)dt =
_
0 ; n ,= m
κ > 0 ; n = m
(5.25)
En este caso la conjugaci´ on involucrada en el producto interno no afecta a
las funciones del conjunto B, pues ´estas son todas reales.
Con esto podemos afirmar que una funci´ on y(t) seccionalmente continua
definida en el intervalo [−
T
2
,
T
2
], puede representarse como una combinaci´ on
lineal de elementos de la base B, definida en (5.23), que en este caso tiene
dimensi´ on infinita. Es decir, para y(t) tenemos una representaci´ on en serie de
Fourier de la forma:
y(t) = A
0
+

n=1
[A
n
cos(nω
0
t) +B
n
sen(nω
0
t)] ; ω
0
=

T
(5.26)
En que cada uno de los coeficientes A
0
, A
n
, B
n
se puede obtener como indica
el Lema B.1. Por esto invitamos al lector en este punto a resolver el Problema
5.6, con lo que adem´ as podr´ a comprobar que las expresiones para los coeficientes
de Fourier son:
A
0
=
1
T
_ T
2

T
2
y(t)dt
A
n
=
2
T
_ T
2

T
2
y(t) cos(nω
0
t)dt
B
n
=
2
T
_ T
2

T
2
y(t) sen(nω
0
t)dt
(5.27)
Nos interesa la representaci´ on en serie de Fourier conceptualmente y como
una herramienta para describir las funciones peri´ odicas como una combinaci´ on
lineal de constantes, cosenos y senos, cuyas frecuencias son m´ ultiplos enteros
de la frecuencia fundamental ω
0
determinada por su per´ıodo T. La repre-
sentaci´ on (5.26) puede reescribirse alternativamente en la forma:
94 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
espectro!enfrecuencia
arm´ onicas
desfase
´ angulo!de desfase
espectro!del´ ınea
y(t) = A
0
+

n=1
˜
C
n
cos(nω
0
t −φ
n
) (5.28)
en que:
˜
C
n
=
_
A
2
n
+B
2
n
(5.29)
φ
n
= arctg
_
B
n
A
n
_
(5.30)
En esta forma es m´ as directo apreciar el contenido o espectro en fre-
cuencia de la se˜ nal y(t) a trav´es de la amplitud de cada una de las sinusoides
de frecuencia ω
n
= nω
0
, que llamaremos n-´esima arm´ onica. Adem´ as, esta
representaci´ on permite apreciar el ´ angulo de desfase φ
n
entre las diferentes
arm´ onicas.
Si dibujamos en un gr´ afico las magnitudes de
˜
C
n
en funci´ on de n, obtenemos
lo que se conoce como un espectro de l´ınea. Este gr´ afico permite observar las
participaciones relativas de la arm´ onicas en la composici´ on de la se˜ nal.
Note que el c´ alculo directo de los coeficientes
˜
C
n
es m´ as complicado que el
de los coeficientes A
n
y B
n
, ya que las sinusoides de la forma cos(nω
0
t −φ
n
) no
son ortogonales entre s´ı.
Para ilustrar el c´ alculo de los coeficientes de Fourier se presentan a contin-
uaci´ on algunos ejemplos. En primer lugar, desarrollamos un ejemplo calculando
anal´ıticamente los coeficientes de la serie, para luego ilustrar el uso del soporte
computacional.
Ejemplo 5.3. Considere una onda cuadrada de amplitud 2 y per´ıodo igual a 4
[s], tal como se ilustra en la Figura 5.3.
−6 −4 −2 0 2 4 6
−2
−1
0
1
2
Tiempo [s]
S
e
ñ
a
l

y
(
t
)
Figura 5.3: Se˜ nal cuadrada
La frecuencia fundamental es ω
o
= 2π/T = π/2 y los coeficientes de la serie
se pueden calcular como se indica
5.3. SERIES DE FOURIER PARA SE
˜
NALES DE TIEMPO CONTINUO 95
seriedeFourier!senoidal
A
0
=
1
T
_ T
2

T
2
y(t) dt = 0 (5.31)
Este resultado era previsible dada la simetr´ıa de ´ areas sobre y bajo el eje de
abscisas.
A
n
=
2
T
_ T
2

T
2
y(t) cos(nω
o
t) dt
= −
1
2
_
0
−2
2 cos(0, 5nπt) dt +
1
2
_
2
0
2 cos(0, 5nπt) dt = 0 (5.32)
La ausencia de componentes cosenoidales es tambi´en previsible, dado que la
se˜ nal y(t) es una funci´ on impar del tiempo. La funci´ on quedara representada
entonces como una serie senoidal de Fourier, en que:
B
n
=
2
T
_ T
2

T
2
y(t) sen(nω
o
t) dt = −
1
2
_
0
−2
2 sen(0, 5nπt) dt+
1
2
_
2
0
2 sen(0, 5nπt) dt
= 2
_
2
0
sen(0, 5nπt) dt = −
4

cos(0, 5nπt)
¸
¸
¸
¸
¸
t
0
=
4

(1 −cos(nπ)) (5.33)
De esta manera resulta:
B
n
=
_
8

∀n impar
0 ∀n par
(5.34)
La participaci´ on de las arm´ onicas puede ser visualmente apreciada en la
Figura 5.4.
0 2 4 6 8 10 12
0
0.5
1
1.5
2
2.5
3
Frecuencia angular, en múltiplos de ω
o
A
m
p
l
i
t
u
d

d
e

l
a
s

a
r
m
ó
n
i
c
a
s
Figura 5.4: Espectro de l´ınea de una se˜ nal cuadrada.
96 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
´ angulo!dedisparo
222
El ejemplo precedente sugiere que el c´ alculo manual de los coeficientes se
puede complicar notablemente para se˜ nales de mayor complejidad. Este proceso
puede ser enormemente facilitado usando, por ejemplo, Maple .
Ejemplo 5.4. Uno de los procesos en que se generan se˜ nales peri´ odicas no
sinusoidales es en la rectificaci´ on. En realidad, para circuitos de potencia en
el control de motores, por ejemplo, en vez de diodos se utilizan tiristores, que
no son m´ as que diodos en que el instante de conducci´ on es controlado.
´
Estos
permiten recortar la se˜ nal rectificada, como se aprecia en la Figura 5.5 en que
los tiristores se disparan pasado un tercio del per´ıodo de la se˜ nal rectificada. En
este caso se dice que el ´ angulo de disparo es α =
π
3
.
0 0.005 0.01 0.015 0.02 0.025 0.03
0
0.2
0.4
0.6
0.8
1
Time [s]
Figura 5.5: Se˜ nal a la salida de rectificador controlado por tristores
Claramente el rectificador de onda completa es un caso particular de este
rectificador controlado, cuando el ´ angulo de disparo es α = 0.
Con ayuda de Maple los coeficientes se pueden obtener f´ acilmente, ahorr´ andonos
buena parte del trabajo algebraico. En las l´ıneas siguientes se muestran los co-
mandos necesarios, entre los cuales se debe indicar expl´ıcitamente que 0 < α < π
y que n es un n´ umero entero. Se ha considerado, por simplicidad, que la fre-
cuencia original es 1[Hz] y la amplitud original es 1[V].
Maple
> assume(0<alpha,alpha<1):
> y(t):=(Heaviside(t-alpha)-Heaviside(t-Pi))*sin(t):
> A_0:=1/Pi*int(y(t),t=0..Pi);
> assume(n,integer):
> A(n):=2/Pi*int(y(t)*cos(2*n*t),t=0..Pi);
> B(n):=2/Pi*int(y(t)*sin(2*n*t),t=0..Pi);
5.3. SERIES DE FOURIER PARA SE
˜
NALES DE TIEMPO CONTINUO 97
seriedeFourier!cosenoidal
A
0
=
1 + cos(α)
π
A
n
= −2
1 + 2 cos(α) (cos(αn))
2
−cos(α) + 4 n sen(α) sen(αn) cos(αn)
(1 + 2 n) π (−1 + 2 n)
B
n
= 4
−cos(α) sen(αn) cos(αn) + 2 n sen(α) (cos(αn))
2
−n sen(α)
(1 + 2 n) π (−1 + 2 n)
222
Ejemplo 5.5. Consideremos la funci´ on peri´ odica y(t), definida por tramos:
y(t) =
_
¸
_
¸
_
1 +t ; −2 < t ≤ 0
1 −t ; 0 < t ≤ 2
y(t + 4) ; en todo otro caso
(5.35)
En Maple se puede definir y convertir de inmediato para que quede escrita
en t´erminos de escalones (funci´ on de Heaviside):
Maple
> y(t):=convert(piecewise(t<-2,-t-3,t<0,t+1,t<2,-t+1,t-3),Heaviside);
y(t) = −3 −t −4 Heaviside(t −2) + 2 tHeaviside(t −2) + 4 Heaviside(t + 2)
+ 2 tHeaviside(t + 2) −2 tHeaviside(t)
Si se calculan los coeficientes seg´ un las expresiones (5.27), tenemos que el
valor medio A
0
es cero y, como es par, los coeficientes B
n
son todos iguales a
cero. Los coeficientes de los t´erminos cosenos se calculan mediante:
Maple
> A(n):=1/2*int(y(t)*cos(n*Pi/2*t),t=-2..2);
Por tanto y(t) queda expresada en una serie cosenoidal de Fourier, de la
forma:
y
s
(t) =

n=1
(1 −(−1)
n
)
_
2

_
2
cos
_

2
t
_
(5.36)
98 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
error
En la Figura 5.6, podemos apreciar la aproximaci´ on de la funci´ on y(t) por
las primeras dos arm´ onicas no nulas (n = 1, 3). En esta, se observa que las
dos primeras arm´ onicas (con presencia no nula en la serie) describen bastante
bien la se˜ nal original. Ello puede ser entendido al calcular las amplitudes de las
primeras diez componentes de la serie. Ellas aparecen en el espectro de l´ıneas
de la Figura 5.7, donde se aprecia claramente que la amplitud de las arm´ onicas
superiores a la tercera es despreciable.
−6 −4 −2 0 2 4 6
−1
−0.5
0
0.5
1
Tiempo [s]
S
e
ñ
a
l

y

a
p
r
o
x
i
m
a
c
i
ó
n
Figura 5.6: Aproximaci´ on de la se˜ nal triangular con la primera y tercera
arm´ onica
0 1 2 3 4 5 6 7 8 9
0
0.2
0.4
0.6
0.8
1
Frecuencia angular, en múltiplos de ω
o
A
m
p
l
i
t
u
d

d
e

l
a
s

a
r
m
ó
n
i
c
a
s
Figura 5.7: Espectro de l´ınea de una se˜ nal triangular
Finalment, en el gr´ afico de la Figura 5.8 (a) muestra el error que se comete
al representar la funci´ on por su serie truncada, en este caso hasta n = 3.
Podemos estudiar la fidelidad de la representaci´ on en serie de Fourier de una
se˜ nal analizando lo que pasa con el error e
N
(t) = y(t) − y
N
(t) que se comete
al representar una funci´ on y(t) por una combinaci´ on lineal finita o suma parcial
de las funciones de la base (5.23), hasta el t´ermino N-´esimo y
N
(t). Respecto a
este error e
N
(t) tenemos el siguiente lema.
Lema 5.1. La representaci´ on y
N
(t) es ortogonal al error e
N
(t), para todo N,
es decir:
5.3. SERIES DE FOURIER PARA SE
˜
NALES DE TIEMPO CONTINUO 99
–0.1
–0.05
0.05
0.1
–4 –3 –2 –1 1 2 3 4
t
(a) Error e
3
(t) = y(t) −y
3
(t) .
y
N
(t)
y(t)
e
N
(t)
(b) Interpretaci´ on geom´etrica del error
Figura 5.8:
¸e
N
(t), y
N
(t)) = 0 ; ∀N (5.37)
Demostraci´ on
Si escribimos la suma parcial como:
y
N
(t) =
N

k=1
α
k
f
k
(t) (5.38)
en que los f
k
(t) son vectores de la base B, el producto (5.37) puede escribirse y
desarrollarse como:
¸e
N
(t), y
N
(t)) = ¸y(t) −y
N
(t), y
N
(t)) = ¸y(t), y
N
(t)) −¸y
N
(t), y
N
(t)) (5.39)
=
_
y(t),
N

k=1
α
k
f
k
(t)
_

_
N

k=1
α
k
f
k
(t),
N

j=1
α
j
f
j
(t)
_
(5.40)
=
N

k=1
α
k
¸y(t), f
k
(t)) −
N

k=1
α
k
_
f
k
(t),
N

j=1
α
j
f
j
(t)
_
(5.41)
Los vectores f
k
(t) son ortogonales, por tanto:
¸e
N
(t), y
N
(t)) =
N

k=1
α
k
¸y(t), f
k
(t)) −
N

k=1
α
2
k
¸f
k
(t), f
k
(t)) (5.42)
Los coeficientes α
k
, en tanto, se calculan de la forma:
α
k
=
¸y(t), f
k
(t))
¸f
k
(t), f
k
(t))
(5.43)
100 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
Por lo tanto:
¸e
N
(t), y
N
(t)) =
N

k=1
¸y(t), f
k
(t))
¸f
k
(t), f
k
(t))
¸y(t), f
k
(t))−
N

k=1
¸y(t), f
k
(t))
2
¸f
k
(t), f
k
(t))
2
¸f
k
(t), f
k
(t))
=
N

k=1
¸y(t), f
k
(t))
2
¸f
k
(t), f
k
(t))

N

k=1
¸y(t), f
k
(t))
2
¸f
k
(t), f
k
(t))
= 0 (5.44)
222
Este resultado permite apreciar que y
N
(t), con los coeficientes calculados
seg´ un (5.27), es la combinaci´ on lineal que mejor representa a y(t) (en el
sentido de la norma cuadr´ atica), ya que, dada su ortogonalidad con el vector
de error e
N
(t), minimiza la distancia entre y(t) y el conjunto de funciones que
se generan por combinaci´ on lineal de los N elementos de la base. La Figura 5.8
(b) ilustra geom´etricamente la idea de ortogonalidad entre el error e
N
(t) y la
representaci´ on truncada y
N
(t).
Finalmente, es importante hacer notar que la representaci´ on obtenida en
(5.26), con los coeficientes explicitados en (5.27), representa a la funci´ on y(t),
dentro del intervalo [−
T
2
,
T
2
] sea ´esta peri´ odica o no. En este ´ ultimo caso la
representaci´ on se debe entender v´ alida s´ olo dentro del intervalo en que se ha
calculado. Sin embargo, dado que dentro del intervalo de longitud T todas las
sinusoides del conjunto B completan un n´ umero entero de per´ıodos, la period-
icidad de los elementos de B se extiende a la representaci´ on de y(t), es decir,
se repite en todo intervalo de la forma [kT −
T
2
, kT +
T
2
] con k ∈ Z. Adem´ as
por simple traslaci´ on del intervalo en que trabajamos, es decir, corriendo del eje
temporal, el c´ alculo de los coeficientes y la representaci´ on pueden tomarse en
cualquier intervalo arbitrario [t
o
, t
o
+ T]. En todo caso, el lector debe advertir
que si la se˜ nal bajo an´ alisis no es peri´ odica, la representaci´ on ser´ a distinta para
distintas elecciones de t
o
.
5.3.2. Serie de Fourier exponencial
Si consideramos la representaci´ on en serie de Fourier obtenida para una
funci´ on seccionalmente continua y(t) obtenida en (5.26), podemos reescribirla
utilizando las expresiones para sen(ωt) y cos(ωt) en t´erminos de exponenciales
complejas:
y(t) = A
0
+

n=1
[A
n
cos(nω
0
t) +B
n
sen(nω
0
t)]
= A
0
e
j0ω
0
t
+

n=1
_
A
n
e
jnω
0
t
+e
−jnω
0
t
2
+B
n
e
jnω
0
t
−e
−jnω
0
t
2j
_
(5.45)
que puede reagruparse como:
5.3. SERIES DE FOURIER PARA SE
˜
NALES DE TIEMPO CONTINUO101
seriedeFourier!exponencial
y(t) = A
0
e
j0ω
0
t
+

n=1
_
A
n
−jB
n
2
e
jnω
0
t
+
A
n
+jB
n
2
e
−jnω
0
t
_
(5.46)
Es decir, podemos reescribir una serie de Fourier trigonom´etrica como una
serie de Fourier exponencial de la forma:
y(t) =

n=−∞
C
n
e
jnω
0
t
(5.47)
Una expresi´ on para los coeficientes C
n
se puede obtener a partir de los
coeficientes de la serie trigonom´etrica y la ecuaci´ on de Euler. Por ejemplo, para
n > 0:
C
n
=
A
n
−jB
n
2
=
1
2
_
2
T
_ T
2

T
2
y(t) cos(nω
0
t)dt −j
2
T
_ T
2

T
2
y(t) sen(nω
0
t)dt
_
=
1
T
_ T
2

T
2
y(t)(cos(nω
0
t) −j sen(nω
0
t))dt (5.48)
Por tanto, tenemos la expresi´ on:
C
n
=
1
T
_ T
2

T
2
y(t)e
−jnω
0
t
dt (5.49)
Se deja al lector verificar que esta expresi´ on tambi´en es v´ alida para el resto
de los coeficientes C
n
, cuando n ≤ 0. Si se presta atenci´ on a la forma de los coe-
ficientes en la ecuaci´ on (5.46), puede apreciarse que aparecen en pares complejos
conjugados, es decir, ∀n > 0:
C
n
=
A
n
−jB
n
2
= [C
n
[e

n
(5.50)
C
−n
=
A
n
+jB
n
2
= [C
n
[e
−jθ
n
(5.51)
tal como tambi´en puede demostrarse a partir de la expresi´ on general (5.49)
para los coeficientes de la serie compleja. Es decir, tenemos un nuevo conjunto
de funciones, complejas en este caso, de la forma:
¦e
jnω
0
t
¦
n∈Z
; ω
0
=

T
(5.52)
que constituye una base para el espacio de funciones seccionalmente continuas
en el intervalo [−
T
2
,
T
2
]. Se deja al lector verificar que este conjunto tambi´en es
ortogonal bajo el producto interno antes definido, pero en que ahora la conju-
gaci´ on s´ı afecta a las funciones involucradas:
102 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
Parseval
Parseval
¸f
n
(t), f
m
(t)) =
_ T
2

T
2
f
n
(t)

f
m
(t)dt =
_ T
2

T
2
e
−jnω
0
t
e
jmω
0
t
dt (5.53)
Que debe cumplir:
¸f
n
(t), f
m
(t)) =
_
0 ; n ,= m
κ > 0 ; n = m
(5.54)
Es importante hacer notar que en la manipulaci´ on que se ha hecho en la
serie de Fourier trigonom´etrica para llegar a la serie exponencial, han aparecido
valores para n negativos y positivos. Esto en realidad debe interpretarse nada
m´ as como lo que se ha mencionado: un producto de la manipulacio´ on algebraica
que permite obtener la representaci´ on en serie (5.47) m´ as compacta y f´ acil de
manipular. Si se desea obtener la amplitud de la n-´esima arm´ onica de la serie
deben considerarse ambos t´erminos de la serie n y −n, es decir, usando las
ecuaciones (5.50) y (5.51):
C
n
e
−jnω
0
t
+C
−n
e
jnω
0
t
= [C
n
[e

n
e
−jnω
0
t
+[C
−n
[e
−jθ
n
e
jnω
0
t
= [C
n
[ e
−j(nω
0
t−θ
n
)
+[C
−n
[ e
j(nω
0
t−θ
n
)
= 2[C
n
[ cos(nω
0
t −θ
n
)
5.3.3. Parseval y la energ´ıa de las se˜ nales peri´ odicas
Existe un conjunto de resultados, deducidos por Parseval, que relacionan
directamente caracter´ısticas de la se˜ nal peri´ odica con los coeficientes de su Serie
de Fourier. En realidad, los resultados de Parseval se aplican a la expansi´ on en
cualquier base ortogonal. Los detalles matem´ aticos pueden ser examinados en
el Ap´endice B.
Supongamos que una se˜ nal y(t) peri´ odica se expresa como serie en los ele-
mentos, f

(t), de una base ortogonal en el intervalo (−T/2, T/2). Entonces:
y(t) =

=0
α

f

(t) (5.55)
Esto significa que:
¸y(t), y(t)) =
_

=0
α

f

(t),

=0
α

f

(t)
_
(5.56)
Si a continuaci´ on usamos la propiedad de ortogonalidad de los elementos de
la base, tenemos que:
¸y(t), y(t)) =

=0

[
2
¸f

(t), f

(t)) (5.57)
5.4. RESPUESTAAENTRADAS SINUSOIDALES. EL CASODE TIEMPODISCRETO103
sinusoidal
amplitud
\’angulo!dedesfase
fase
per´ ıodo
frecuencia!angular
frecuencia
Note que el lado izquierdo en (5.57) representa el cuadrado del valor efectivo
de la se˜ nal peri´ odica.
Para la serie de Fourier trigonom´etrica, usando la misma definici´ on del pro-
ducto interno (5.24), la expresi´ on (5.57) se reduce a:
_
T/2
−T/2
(y(t))
2
dt = A
2
o
+
1
2

=0
(A
2

+B
2

) (5.58)
En el caso exponencial, la expresi´ on (5.57) est´ a dada por:
_
T/2
−T/2
(y(t))
2
dt =

=−∞
C

2
(5.59)
En (5.58) y en (5.59), el lado izquierdo representa la energ´ıa de la se˜ nal
y(t) en un per´ıodo. El lado derecho en ambas ecuaciones se˜ nala que esa energ´ıa
puede ser computada como la suma de similar energ´ıa de cada arm´ onica.
5.4. Respuesta a entradas sinusoidales. El caso
de tiempo discreto
En esta secci´ on nos detendremos en la caracter´ıstica de ganancia que exhibe
un sistema lineal de tiempo discreto cuando la excitaci´ on es una sinuoside. Con
ese prop´ osito consideremos un sistema lineal estable modelado por su ERS:
y[t] +a
n−1
y[t −1] +. . . +a
1
y[t −n + 1] +a
0
y[t −n] =
b
m
u[t] +b
m−1
u[t −1] +. . . +b
1
u[t −m+ 1] +b
0
u[t −m] (5.60)
Si la entrada del sistema es una se˜ nal sinusoidal de tiempo discreto de per´ıodo
N ∈ Z que puede escribirse de la forma:
u[t] = Acos(θt +φ); con θ =

N
(5.61)
en que (vea Cap´ıtulo 2):
A es la amplitud, cuyas unidades dependen del sistema en cuesti´ on,
φ es el ´ angulo de desfase (o simplemente fase), medido en [rad], y
θ es la frecuencia angular discreta, medida en [rad]. Esta, a su vez, determina
la frecuencia discreta f =
1
N
[Hz] y el per´ıodo T = N de la sinusoide.
Aplicando la f´ ormula de Euler se tiene que:
Acos(θt +φ) = A
e
j(θt+φ)
+e
−j(θt+φ)
2
= αe
jθt


e
−jθt
(5.62)
104 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
sistema!estable
modosnaturales
donde α ∈ C, α

es el complejo conjugado de α y:
α =
A
2
e

(5.63)
Por otra parte, sabemos que si K(θ) ∈ C es la ganancia al modo forzante
e
jθt
, entonces, por linealidad:
T¸¸¸x
o
, Acos(θt +φ)))) = K(θ)αe
jθt
+ (K(θ))

α

e
−jθt
+¦modos naturales¦
(5.64)
Donde K(θ) es la ganancia a modo forzante y est´ a dada por (4.35), con
β
i
= e

. Si expresamos K(θ) en su forma polar se llega a:
K(θ) = [K(θ)[e

a
(θ)
(5.65)
As´ı, se obtiene:
T¸¸¸x
o
, Acos(θt +φ)))) = [K(θ)[Acos(θt +φ+φ
a
(θ)) +¦modos naturales¦ (5.66)
Como el sistema es estable, los modos naturales decaen a cero cuando t →∞,
as´ı, la respuesta estacionaria contiene s´ olo la componente particular, es decir,
contiene s´ olo los modos forzados y tiene la forma:
y[t] = A
s
(θ) cos(θt +φ
s
(θ)) (5.67)
Esta forma puede ser directamente calculada reemplazando (5.67) en la ERS.
Cuando el modo forzante es una exponencial de la forma e
jθt
, la ganan-
cia a modo forzante, K(θ), caracteriza lo que se denomina respuesta en
frecuencia del sistema de tiempo discreto.
La teor´ıa precedente es ilustrada a trav´es de un ejemplo.
Ejemplo 5.6. Consideremos el sistema modelado por la ERS
y[t] −0, 7y[t −1] + 0, 12y[t −2] = 1, 5u[t] (5.68)
Supongamos que la entrada es u[t] = sen(θt) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en λ
1
= 0, 4 y λ
1
= 0, 3, es decir, tienen magnitud menor
que 1. Con esto sabemos entonces que la soluci´ on homog´enea tiene la forma:
y
h
[t] = B
1
(0, 4)
t
+B
2
(0, 3)
t
(5.69)
Para obtener la soluci´ on particular reemplazamos la soluci´ on propuesta
5.4. RESPUESTAAENTRADAS SINUSOIDALES. EL CASODE TIEMPODISCRETO105
y
p
[t] = A
s
(θ) sen(θt +φ
s
(θ)) (5.70)
que es equivalente a una expresi´ on de la forma
y
p
[t] = C
1
(θ) cos(θt) +C
2
(θ) sen(θt) (5.71)
Los coeficientes C
1
(θ) y C
2
(θ) se obtienen reemplazando la soluci´ on partic-
ular propuesta y la funci´ on de entrada en la ecuaci´ on de recursi´ on original.
Siguiendo la discusi´ on del Ejemplo 5.1 en la p´ agina 89, la modificaci´ on en
magnitud y fase que experimenta la sinuoside al pasar por el sistema, se puede
calcular de la respuesta en frecuencia del sistema. En este caso
K(θ) =
1, 5e
2jθ
e
2jθ
−0, 7e

+ 0, 12
(5.72)
Esta respuesta en frecuencia puede ser representada gr´ aficamente, como se
muestra en la Figura 5.9
0 2 4 6 8
0.5
1
1.5
2
2.5
3
3.5
4
Frecuencia angular discreta [rad]
|
K
(
ω
)
|
0 2 4 6 8
−1
−0.5
0
0.5
1
Frecuencia angular discreta [rad]
φ
a
(
ω
)
Figura 5.9: Respuesta en frecuencia de un sistema de segundo orden de tiempo
discreto
222
An´ alogamente a lo que ocurre en el caso de tiempo continuo, en ciertos
sistemas, a pesar de tener todas sus frecuencias naturales en el interior de la zona
de estabilidad, la respuesta a sinusoides de baja amplitud incluye componentes
sinuosidales de alt´ısima amplitud. Esto sucede en situaciones en que el sistema
es excitado con una sinusoide de frecuencia muy cercana a frecuencias naturales
que se encuentran al interior del disco unitario, pero muy pr´ oximas al l´ımite de
estabilidad (en este caso, la circunferencia unitaria). En este caso, dependiendo
del amortiguamiento del sistema, la salida puede alcanzar el estado estacionario
s´ olo despu´es de mucho tiempo, y aunque anal´ıticamente la oscilaci´ on en la salida
permanece acotada, puede alcanzar magnitudes insostenibles para el sistema
real.
106 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
resonancia
frecuencia!fundamental
arm´ onicas
Ejemplo 5.7. El fen´ omeno de respuestas inusualmente altas se origina en sis-
temas que exhiben altas ganancias a un modo forzante de la forma e
jθt
. Con-
sidere, por ejemplo, el sistema:
y[t] −1, 4128y[t −1] + 0, 9980y[t −2] = 0, 5851u[t] (5.73)
Observamos que es un sistema estable, con frecuencias naturales λ
1,2
=
e
±j
pi
4
. Note que estas frecuencias naturales se encuentran muy cercanas a la
circunferencia unitaria. La ganancia a continua de este sistema es 1. Sin em-
bargo, la ganancia a una frecuencia θ =
π
4
tiene magnitud 414, 0. Esto implica
que si la excitaci´ on es una sinusoide de amplitud unitaria y frecuencia θ =
π
4
,
la respuesta forzada ser´ a una sinuoside de amplitud 414, 0, es decir, para esta
excitaci´ on, el sistema entra en resonancia.
5.5. Serie de Fourier de tiempo discreto
Veamos ahora c´ omo pueden extenderse las ideas hasta aqu´ı expuestas a la
representaci´ on de funciones definidas en instantes de tiempo discreto como suma
de sinusoides, tambi´en definidas en tiempo discreto.
Para sistemas de tiempo discreto, las series trigonom´etricas son poco us-
adas, prefiri´endose la forma exponencial. Veremos que ello se debe a que las
exponenciales peri´ odicas involucradas tienen propiedades de simetr´ıa que hacen
mucho m´ as simple el c´ alculo de los coeficientes, en comparaci´ on al c´ alculo de los
coeficientes de la serie trigonom´etrica. As´ı, consideramos se˜ nales de la forma:
f[t] = e
jθt
; t = 0, 1, 2, . . . (5.74)
Nuestro inter´es fundamental, al igual que para serie de Fourier trigonom´etri-
ca, es determinar c´ omo puede representarse una funci´ on peri´ odica como suma
de un t´ermino constante y un conjunto de sinusoides de frecuencias m´ ultiplos
de la frecuencia fundamental.
Consideremos, por ejemplo, una funci´ on y[t] definida para t = 0, 1, 2, . . . , de
per´ıodo N, es decir:
y[t +N] = y[t] ; ∀t (5.75)
La frecuencia fundamental se define an´ alogamente al caso continuo:
θ
0
=

N
(5.76)
y las frecuencia arm´ onicas corresponden a los m´ ultiplos de la frecuencia fun-
damental θ
0
. Sin embargo, si observamos con atenci´ on la forma que toman las
exponenciales imaginarias para cada arm´ onica veremos que:
e

0
(+N)t
= e
j

N
(+N)t
= e
j

N
t
e
j2πt
= e
j

N
t
(5.77)
5.5. SERIE DE FOURIER DE TIEMPO DISCRETO 107
Es decir, tenemos periodicidad en la frecuencia, ya que el resultado
(5.77) nos indica que la arm´ onica -´esima es la misma que la ( + N)-´esima,
y la misma en realidad que cualquiera de las ( + mN)-´esimas, en que m es
cualquier n´ umero entero. Esto indica que el conjunto ortogonal es finito, con
s´ olo N componentes.
Por tanto para representar una funci´ on discreta y[t] de per´ıodo N en serie
de Fourier nos basta simplemente una suma de las primeras N arm´ onicas:
y[t] =
N−1

n=0
C
n
e

0
nt
; θ
0
=

N
(5.78)
Desde el punto de vista del ´ algebra lineal queremos representar el vector y[t]
en t´erminos de los vectores del conjunto:
B
d
= ¦1, e

0
t
, e
j2θ
0
t
, . . . , e
j(N−1)θ
0
t
¦ (5.79)
Si definimos un producto interno en este conjunto, an´ alogo al definido en
(5.24), la integral (suma continua) en un periodo fundamental se transforma en
una sumatoria (suma discreta):
¸f
1
[t], f
2
[t]) =
N−1

t=0
f

1
[t]f
2
[t] (5.80)
Tendremos que para los vectores del conjunto B
d
, si n
1
,= n
2
:
¸e

0
n
1
t
, e

0
n
2
t
) =
N−1

t=0
(e

0
n
1
t
)

e

0
n
2
t
(5.81)
=
N−1

t=0
e

0
(−n
1
+n
2
)t
(5.82)
Que es una suma geom´etrica
¸e

0
n
1
t
, e

0
n
2
t
) =
1 −(e

0
(−n
1
+n
2
)
)
N
1 −e

0
(−n
1
+n
2
)
(5.83)
Pero seg´ un (5.76) tenemos que Nθ
0
= 2π, y n
1
y n
2
son n´ umeros enteros, por
tanto, para n
1
,= n
2
, pues de otra forma el denominador se hace cero:
¸e

0
n
1
t
, e

0
n
2
t
) =
1 −e
j2π(−n
1
+n
2
)t
1 −e

0
(−n
1
+n
2
)
= 0 (5.84)
y si n
1
= n
2
= n:
¸e

0
nt
, e

0
nt
) = |e

0
nt
|
2
=
N−1

t=0
e
−jθ
0
nt
e

0
nt
=
N−1

t=0
1 = N (5.85)
108 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
Es decir, el conjunto definido en (5.79) es ortogonal bajo el producto in-
terno (5.80). Por tant, los coeficientes de la representaci´ on (5.78) se pueden
calcular usando el Lema B.1 en la p´ agina 346, con lo que se obtiene la expresi´ on
equivalente a (5.49), pero para las funciones discretas:
C
n
=
¸e

0
nt
, y[t])
¸e

0
nt
, e

0
nt
)
=
1
N
N−1

t=0
y[t]e
−jθ
0
nt
; θ
0
=

N
(5.86)
Es importante verificar que la expresi´ on obtenida en (5.86) usada en la rep-
resentaci´ on (5.78) garantiza que la suma es en efecto una funci´ on real. Para la
serie de Fourier exponencial se verific´ o que la suma de las arm´ onicas correspon-
dientes a los t´erminos ±n es real pues estos t´erminos resultan ser conjugados el
uno del otro. Para la serie de Fourier discreta, si observamos la expresi´ on para
el coeficiente N −, tenemos:
C
N−
=
1
N
N−1

t=0
y[t]e
−jθ
0
(N−)t
=
1
N
N−1

t=0
y[t]e
−jθ
0
Nt
e

0
t
=
1
N
N−1

t=0
y[t]e

0
t
=
1
N
N−1

t=0
(y[t]e
−jθ
0
t
)

= (C

)

(5.87)
Es decir, el coeficiente de la arm´ onica N − es el complejo conjugado del
coeficiente de la correspondiente -´esima arm´ onica. O, en otras palabras, la
magnitud de los coeficientes C

tiene simetr´ıa par respecto a
N
2
, mientras que
su fase (o ´ angulo) tiene simetr´ıa impar con respecto a
N
2
. La arm´ onica N −
puede ser expresada como:
e

0
(N−)t
= e

0
Nt
e
−jθ
0
t
= e
−jθ
0
t
(5.88)
Es decir, ambas arm´ onicas y N − correponden en realidad a una misma
frecuencia. Por tanto si sumamos los t´erminos correspondientes a ellas en la
representaci´ on, escribiendo sus coeficientes en forma polar:
C

e

0
t
+C
N−
e

0
(N−)t
= C

e

0
t
+ (C

)

e
−jθ
0
t
= [C

[e

e

0
t
+[C

[e
−jθ

e
−jθ
0
t
= 2[C

[ cos(θ
0
t +θ

) (5.89)
En base a esto podemos concluir que al representar una se˜ nal peri´ odica
de tiempo discreto en forma de una Serie de Fourier, en realidad, la estamos
describiendo en t´erminos de N exponenciales peri´ odicas de la base (5.79), en
que N es el per´ıodo de la funci´ on discreta. Pero ´estas corresponden en realidad
a un valor constante y k diferentes arm´ onicas, en que k =
N
2
, si N es par, y
k =
N−1
2
si es impar.
5.5. SERIE DE FOURIER DE TIEMPO DISCRETO 109
espectrodel´ ınea
matriz!deFourier
La serie de Fourier para una se˜ nal de tiempo discreto puede ser descrita en
un gr´ afico en que aparece [C

[ en funci´ on de ∈ Z. Este diagrama es conocido
como el espectro de l´ınea de la se˜ nal de tiempo discreto.
El problema de convergencia de la serie de Fourier para se˜ nales de tiempo
discreto tiene un tratamiento mucho m´ as simple que en el caso de tiempo con-
tinuo. Esto se debe a que las amplitudes de las N arm´ onicas se pueden calcular
a partir de un sistema de ecuaciones linealmente independientes de la forma:
_
¸
¸
¸
¸
¸
_
y[0]
y[1]
y[2]
.
.
.
y[N −1]
_
¸
¸
¸
¸
¸
_
= W
N
_
¸
¸
¸
¸
¸
_
C
0
C
1
C
2
.
.
.
C
N−1
_
¸
¸
¸
¸
¸
_
(5.90)
donde el elemento (i, j) de la matriz W
N
est´ a dado por:
[W
N
]
i,j
=
_
e

0
_
(i−1)(j−1)
(5.91)
Las ecuaciones precedentes permiten calcular los coeficientes que describen
exactamente la se˜ nal peri´ odica y[t]. Note que la matriz W
N
tiene la forma
general:
W
N
=
_
¸
¸
¸
¸
¸
_
1 1 1 1
1 w w
2
w
N−1
1 w
2
w
4
w
N−2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 w
N−1
w
N−2
w
_
¸
¸
¸
¸
¸
_
(5.92)
donde w = e

0
. Esta matriz se denomina matriz de Fourier, y es no singular
(ver Ap´endice F). De esta forma, el vector de la derecha en (5.90) puede ser
despejado al multiplicar por la inversa de W
N
.
Las ideas de Parseval tambi´en se aplican a se˜ nales de tiempo discreto, aunque
en este caso el concepto de energ´ıa no tiene la connotaci´ on f´ısica que tiene en
tiempo continuo.
De esta forma, si una se˜ nal peri´ odica y[t] tiene la expansi´ on en serie dada
por:
y[t] =
N−1

=0
α

f

[t] (5.93)
donde las funciones f

[t] son elementos de una base ortogonal, entonces:
¸y[t], y[t]) =
N−1

=0

[
2
¸f

[t], f

[t]) (5.94)
110 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
sistema!lineal
ganancia!amodoforzante
respuestaenfrecuencia
que es equivalente a:
N−1

t=0
y[t]
2
= N
N−1

=0

[
2
(5.95)
5.6. Aplicaci´ on de las series de Fourier al an´ali-
sis de sistemas lineales
Cuando un sistema estable es excitado por una se˜ nal peri´ odica, su respuesta
en estado estacionario tambi´en es una se˜ nal peri´ odica. Esta respuesta, en general
no tiene la misma forma que la se˜ nal de entrada, ya que el sistema amplifica y
desfasa cada componente arm´ onica de la excitaci´ on, en general en forma distinta.
Para usar cuantitativamente las series de Fourier en el an´ alisis de un sis-
tema lineal, debemos calcular la ganancia a modo forzante del sistema para la
frecuencia de cada una de las arm´ onicas de inter´es, es decir, la respuesta en
frecuencia del sistema para cada una de esas arm´ onicas.
Estos conceptos son comunes tanto a los sistemas de tiempo continuo como
a los sistemas de tiempo discreto. Para apreciar mejor su aplicaci´ on consider-
aremos un ejemplo.
Ejemplo 5.8. Un sistema de tiempo continuo, definido por su EDS:
ρ
3
y(t) + 7ρ
2
y(t) + 15ρy(t) + 54y(t) = 54u(t) (5.96)
es excitado con una se˜ nal peri´ odica de frecuencia angular 1 [rad/s]. Entonces la
amplificaci´ on y desfase que experimentan la componente constante o continua y
las primeras nueve arm´ onicas, al pasar a trav´es del sistema, se pueden calcular
a partir de la expresi´ on que define la respuesta en frecuencia del sistema:
K(ω) =
54
(jω)
3
+ 7(jω)
2
+ 15(jω) + 54
(5.97)
donde ω = 0; 1; 2; 3; . . . ; 9 [rad/s].
La respuesta en frecuencia es mostrada en la Figura 5.10, donde se ha in-
dicado la magnitud y fase de la respuesta a continua y la respuesta para las
frecuencias de la fundamental y de las primeras nueve arm´ onicas. Los valores
num´ericos se muestran en la Tabla 5.1. Al observar los datos obtenidos se apre-
cia que el sistema privilegia, en amplificaci´ on, la tercera arm´ onica.
Para ser m´ as espec´ıficos, supongamos que la excitaci´ on u(t) es una se˜ nal
cuadrada, con valor medio cero. Usando Matlab o Maple podemos calcular
entonces la respuesta, y(t). La entrada y la salida son mostradas en la Figura
5.11.
La fuerte presencia de la tercera arm´ onica en la salida es claramente apre-
ciada, as´ı como tambi´en es f´ acilmente apreciable el que la forma de onda de la
salida es muy diferente a la de la entrada.
5.7. PROBLEMAS PARA EL LECTOR 111
0 2 4 6 8 10
0
0.5
1
1.5
2
2.5
3
Frecuencia [rad/s]
|
K
(
ω
)
|
0 2 4 6 8 10
−5
−4
−3
−2
−1
0
Frecuencia [rad/s]
φ
a
(
ω
)
Figura 5.10: Respuesta en frecuencia de un sistema de tercer orden de tiempo
continuo.
Frecuencia [rad/s] Amplificaci´ on Desfase [rad]
0 1,0000 0,0000
1 1,1011 -0,2895
2 1,5855 -0,7023
3 2,6833 -2,0344
4 0,9288 -3,2104
5 0,4125 -3,5334
6 0,2301 -3,7083
7 0,1442 -3,8305
8 0,0972 -3,9244
9 0,0688 -4,0000
Cuadro 5.1: Amplitud y fase de las arm´ onicas en el Ejemplo 5.8.
5.7. Problemas para el lector
Problema 5.1. Determine la serie de Fourier trigonom´etrica de las siguientes
funciones
3
:
3
e.t.o.c. : En todo otro caso.
112 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
0 2 4 6 8 10 12 14 16 18 20
−3
−2
−1
0
1
2
3
Tiempo [s]
E
n
t
r
a
d
a

y

r
e
s
p
u
e
s
t
a
y(t)
u(t)
Figura 5.11: Comportamiento de un sistema con una excitaci´ on peri´ odica.
(a) y(t) =
_
¸
_
¸
_
−1 ; −π < t ≤ 0
+1 ; 0 < t ≤ π
y(t + 2π) e.t.o.c.
(b) y(t) =
_
t ; −1 < t ≤ 1
y(t + 2) e.t.o.c.
(c) y(t) = [Acos(ωt)[
(d) y(t) = m´ ax¦0, Asen(ωt)¦
(e) y(t) = 4 sen
2
(t) (use identidades trigonometricas)
(f) y(t) = sen(t) + 6 cos
3
(t)(idem)
Para cado caso grafique el espectro de l´ınea (use [
˜
C
n
[).
Problema 5.2. Determine la serie de de Fourier exponencial que representa
a cada una de las siguientes funciones:
(a) y(t) = cos(2t) + sen(5t)
(b) y(t) =
_
e
−t
0 ≤ t < 1
y(t + 1) e.t.o.c.
(c) y(t) =

n=−∞
δ(t −nT)
(d) Todas las funciones del problema anterior.
Problema 5.3. Considere el sistema de primer orden:
5.7. PROBLEMAS PARA EL LECTOR 113
d y(t)
dt
+ 10y(t) = 10u(t)
Suponga que u(t) es la se˜ nal peri´ odica de la Figura 5.12.
0 2 4 6 8 10 12
−1.5
−1
−0.5
0
0.5
1
1.5
2
2.5
Tiempo [s]
u
(
t
)
Figura 5.12: Tren de pulsos
5.3.1 Determine las tres primeras arm´ onicas (n = 1, 2, 3) del desarrollo en
serie de Fourier de u(t).
5.3.2 Determine la respuesta del sistema a la suma de esas tres arm´ onicas
puesta en la entrada, es decir, a la serie de Fourier de u(t), pero truncada.
5.3.3 Grafique la salida y(t) obtenida, y comp´ arela con la simulaci´ on en Mat-
lab del sistema sometido a la entrada original u(t). Comente.
Problema 5.4. Considere el sistema definido por su ecuaci´ on diferencial en
que ω
n
y ξ son positivos:
d
2
y(t)
dt
2
+ 2ξω
n
d y(t)
dt

2
n
y(t) = ω
2
n
u(t)
5.4.1 Determine la salida del sistema si la entrada es u(t) = Acos(ω
n
t).
5.4.2 Determine la relaci´ on de amplitudes entre la salida y la entrada en estado
estacionario cuando ω
n
= 10, y ξ = 0,1, 0,05, 0,01.
5.4.3 Simule y grafique para las condiciones anteriores, cuando A = 1.
Problema 5.5. Considere el sistema definido por su ecuaci´ on diferencial:
d y(t)
dt
= y(t) +u(t)
Si la entrada del sistema es una sinusoide u(t) = sen(10t)
114 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
5.5.1 Determine la salida del sistema y(t), suponiendo condiciones iniciales
cero.
5.5.2 Grafique la parte homog´enea de la soluci´ on correspondiente a los modos
naturales, la soluci´ on particular correspondiente a la sinusoide de entrada
y la soluci´ on total, suma de las dos primeras. Comente.
Problema 5.6. Considere el conjunto de funciones definidas en el intervalo
[−
T
2
,
T
2
]:
B = ¦ 1 , cos(nω
0
t) , sen(nω
0
t) ¦
n=1,2,...
; ω
0
=

T
Y el producto interno definido en ´el como:
¸y
n
(t), y
m
(t))
T
=
_ T
2

T
2
y

n
(t)y
m
(t)dt ; y
n
(t), y
m
(t) ∈ B
Demuestre que el conjunto B es ortogonal y encuentre todos los posibles
valores que toma el producto interno cuando se recorren los elementos de B.
Problema 5.7. Considere la siguiente funci´ on peri´ odica f(t) definida como:
f(t) =
_
¸
_
¸
_
A ; [t[ < τ/2
0 ; τ/2 ≤ [t[ < T/2
f(t +T) ; e.t.o.c.
5.7.1 Determine la serie de Fourier trigonometrica de la funci´ on f(t).
5.7.2 Grafique la amplitud de las arm´ onicas en funci´ on de la frecuencia.
5.7.3 ¿ C´ omo se ve afectado el gr´ afico a medida que crece el valor de T ? ¿
Qu´e pasa cuando T →∞ ?
Problema 5.8. Modulaci´ on por ancho de pulso.
Considere la funci´ on v(t) definida como:
v(t) =
_
¸
_
¸
_
5 ; 0 < t < τ < 0,001
0 ; τ < t < 0,001
v(t + 0,001) ; e.t.o.c.
5.8.1 Determine la serie de Fourier de v(t), indicando la amplitud de los coe-
ficientes en funci´ on del par´ ametro τ.
5.8.2 Si el par´ ametro τ var´ıa lentamente con el tiempo, digamos τ(t) = sen(2πt)
¿ Qu´e se obtiene si se hace pasar v(t) por un sistema con una EDS dada
por
d y(t)
dt
+ 100y(t) = 100u(t) ?
5.7. PROBLEMAS PARA EL LECTOR 115
Problema 5.9. Considere la funci´ on y(t) = t
2
, definida en el intervalo 0 ≤
t < T.
5.9.1 ¿C´ omo podr´ıa extenderse la funci´ on y(t) al intervalo [−T, T] de manera
que su serie de Fourier sea de la forma:
y(t) = A
0
+

n=1
A
n
cos(ω
n
t) ?
5.9.2 ¿ C´ omo podr´ıa extenderse al intervalo [−T, T] de manera que su serie sea
de la forma:
y(t) =

n=1
B
n
sen(ω
n
t) ?
Problema 5.10. Determine la serie de Fourier discreta de las siguientes fun-
ciones:
(a) y[t] = sen
π
3
t
(b) y[t] =
_
sen3t ; t = 0, . . . , 3
y[t + 4] ; e.t.o.c.
(c) y[t] =
_
λ
t
; λ ,= 1, t = 0, . . . , N −1
y[t +N] ; e.t.o.c.
(d) y[t] = (−1)
t
(e) y[t] =
_
¸
_
¸
_
−1 ; t = −2, . . . , 0
1 ; t = 1, . . . , 3
y[t + 6] ; e.t.o.c.
(f) y[t] = t mod N
Construya el espectro de l´ınea para cada caso.
116 CAP
´
ITULO 5. AN
´
ALISIS BAJO EXCITACIONES PERI
´
ODICAS
transformadadeFourier|textbf
Fourier
per´ ıodo!infinito
aperi´ odicas!se~ nales
transformadadeFourier
Cap´ıtulo 6
An´alisis bajo excitaciones
arbitrarias. La
transformada de Fourier
6.1. La limitaci´ on de las series de Fourier
En el cap´ıtulo anterior se estudi´ o la representaci´ on de se˜ nales en un intervalo
de tiempo finito, [t
o
, t
o
+ T], a trav´es de una combinaci´ on lineal de un n´ umero
(posiblemente infinito) de sinusoides. Este an´ alisis es muy ´ util para establecer
de una manera simple, el contenido frecuencial (espectro) de una se˜ nal peri´ odi-
ca, identificando claramente la amplitud y fase de cada una de las arm´ onicas
que la forman, tanto en tiempo discreto como en continuo. En este cap´ıtulo
presentamos la extensi´ on para un periodo T → ∞, para estudiar el contenido
frecuencial de se˜ nales no peri´ odicas (o de periodo infinito).
El resultado de esta extensi´ on nos permitir´ a incorporar al an´ alisis impor-
tantes se˜ nales tales como el impulso de Dirac, el escal´ on, la exponencial (real)
decreciente y otras se˜ nales arbitrarias como muestra la Figura 6.1. Una clase
adicional y experimentalmente muy importante a incluir ahora est´ a compues-
ta por las se˜ nales conocidas en un intervalo de tiempo finito. Estas se˜ nales se
pueden calificar como peri´ odicas o no, dependiendo de lo que ocurra fuera del
intervalo conocido. La transici´ on hacia infinito, del periodo de conocimiento de
la se˜ nal que se incluye en la herramienta de an´ alisis, es justamente el proceso que
permite desarrollar una herramienta que incorpore las funciones no peri´ odicas
al an´ alisis frecuencial.
6.2. La Transformaci´ on de Fourier. El caso del
tiempo continuo
117
118CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
seriedeFourier
0
0 T
Figura 6.1: Se˜ nales arbitrarias
Si recordamos el Cap´ıtulo 5, una serie de Fourier es una representci´ on de una
funci´ on f(t) mediante suma de sinusoides. Sin embargo, esta serie representa a
la funci´ on s´ olo dentro del intervalo sobre el cual se calcul´ o, [t
o
, t
o
+T). Si la se˜ nal
es peri´ odica,y este intervalo corresponde a un n´ umero entero de per´ıodos de la
funci´ on, entonces la serie tambi´en la representa en el resto del eje real. Esta idea
tambi´en se puede aplicar para obtener la serie de Fourier para una funci´ on no
peri´ odica, siempre que la restrinjamos a un intervalo [a, b] de longitud T. Como
se mencion´ o antes, esta serie representa a la funci´ on dentro del intervalo, y fuera
de ´este s´ olo replica peri´ odicamente la representaci´ on lograda en [a, b]. Esto puede
apreciarse en la Figura 6.2.
La Figura 6.2, adem´ as, muestra que la longitud del intervalo T puede am-
pliarse, de manera de ir refinando la representaci´ on de la funci´ on a trav´es de
la serie. Pues bien, lo que interesa en este punto es ver qu´e pasa con la rep-
resentaci´ on cuando el intervalo tiene longitud infinita. Es decir, queremos ver
qu´e pasa con la serie de Fourier cuando se utiliza para representar funciones de
per´ıodo infinito o aperi´ odicas.
0 a b
0 a b
0 a b
0 a b
Figura 6.2: La funci´ on restringida a [a, b] y su reconstrucci´ on usando la serie de
Fourier.
La serie de Fourier exponencial para una funci´ on peri´ odica, de per´ıodo T,
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO119
tiene la forma:
f(t) =

n=−∞
C
n
e

n
t
(6.1)
En que:
C
n
=
1
T
_
T/2
−T/2
f(t)e
−jω
n
t
dt (6.2)
ω
n
= nω
0
= n

T
(6.3)
La ecuaci´ on (6.1) es la que describe la funci´ on f(t) dentro del interva-
lo [−
T
2
,
T
2
] en t´erminos de las exponenciales peri´ odicas que representan las
diferentes arm´ onicas ω
n
. Recordemos que la ecuaci´ on (6.3) explicita que las
arm´ onicas no son nada m´ as que m´ ultiplos de la frecuencia fundamental ω
0
=

T
.
Ahora bien, cada uno de los coeficientes definidos por la ecuaci´ on (6.2) define
a C
n
como funci´ on de la frecuencia ω
n
, es decir:
C
n
= C
n

n
) (6.4)
Consideremos ahora la funci´ on:
F(ω) = T C
n

n
) (6.5)
Con esto la serie de Fourier exponencial (6.1) de f(t) puede reescribirse
como:
f(t) =
1
T

n=−∞
F(ω
n
)e

n
t
=
1

n=−∞
F(ω
n
)e

n
t
ω
0
(6.6)
pero si se observa que:
ω
0
= ω
n
−ω
n−1
= ∆ω (6.7)
la serie se reescribe como:
f(t) =
1

n=−∞
F(ω
n
)e

n
t
∆ω (6.8)
Esta ´ ultima expresi´ on corresponde a una suma de Riemann [11], la que,
llevada al l´ımite cuando el per´ıodo T crece hasta infinito, equivale a ∆ω → 0,
con lo que la serie se transforma en una integral:
f(t) =
1

_

−∞
F(jω)e
jωt
dω (6.9)
120CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
TransformadadeFourier
transformadadeFourier
transformadade
Fourier!inversa
funci´ on!generalizada
deltadeDirac
El significado de esta ´ ultima expresi´ on es conceptualmente muy importante,
ya que nos indica que a medida que el per´ıodo de una funci´ on peri´ odica aumenta,
la distancia ∆ω entre la l´ıneas del espectro se reduce progresivamente, y en el
l´ımite, cuando la funci´ on tiene per´ıodo infinito y ∆ω →0, la representaci´ on en
frecuencia de f(t) en vez de ser discreta, pasa a ser una representaci´ on continua.
As´ı, en lugar de quedar expresada como una suma de sinusoides de frecuencias
m´ ultiplos de una fundamental ω
0
, queda representada por una integral en que
participa una funci´ on, F(jω) definida para ω en toda la recta real.
Esta funci´ on F(ω) es la transformada de Fourier de f(t) , y su expresi´ on
se deduce utilizando (6.5), (6.4) y (6.2):
F(ω) = T C
n
=
_
T/2
−T/2
f(t)e
−jω
n
t
dt (6.10)
la cual, cuando T →∞ y considerando ω ∈ R, se convierte en:
F(ω) =
_

−∞
f(t)e
−jωt
dt (6.11)
Dada la forma de la integral (6.11), puede apreciarse que F(ω) en general
ser´ a una funci´ on en la variable real ω pero con valores complejos, excepto en
algunos especiales (ver Problema 6.4). Para enfatizar la naturaleza compleja de
la transformada de Fourier F(ω) es una funci´ on compleja, se prefiere denotar-
la por F( ω). Con esta ´ ultima observaci´ on podemos establecer finalmente la
existencia del par transformada y transformada inversa de Fourier seg´ un
T ¦f(t)¦ = F( ω) =
_

−∞
f(t)e
− ωt
dt (6.12)
T
−1
¦F( ω)¦ = f(t) =
1

_

−∞
F( ω)e
 ωt
dω (6.13)
Para la existencia de la transformada de Fourier es suficiente que la funci´ on
f(t) sea absolutamente integrable[9] en ] −∞, ∞[, es decir:
_

−∞
[ f(t) [ dt < ∞ (6.14)
Sin embargo, es posible obtener la transformada de Fourier de funciones que
no cumplen este requisito, por ejemplo, las funciones peri´ odicas, con el uso de
funciones generalizadas, como el delta de Dirac.
El factor
1

que acompa˜ na a la integral en (6.13), en algunos textos es repar-
tido equitativamente entre ambas integrales, como un factor
1


en la trans-
formada directa y en la inversa. Preferiremos las expresiones (6.12) y (6.13), ya
que esta ´ ultima puede reescribirse de manera natural, reemplazando la frecuen-
cia angular ω en [rad/s] por la frecuencia f en [Hz], tal como se aprecia en la
siguiente ecuaci´ on
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO121
T
−1
¦F(j2πf)¦ =
_

−∞
F(j2πf)e
j2πft
df
El mismo an´ alisis desarrollado con la serie de Fourier exponencial cuando el
per´ıodo de la funci´ on tiende a infinito, puede repetirse de manera similar para
la serie de Fourier trigonom´etrica (ver Problema 6.3)
Ejemplo 6.1. Para ilustrar los resultados obtenidos veamos un ejemplo. Con-
sideremos la funci´ on f(t) definida en principio peri´ odica en el intervalo [−
T
2
,
T
2
]:
f(t) =
_
A ; [t[ ≤ τ/2 < T/2
0 ; τ/2 < [t[ ≤ T/2
(6.15)
Esta corresponde a un pulso de alto A y ancho τ, centrado en cero, que se
repite en intervalos de longitud T.
Los coeficientes de la serie exponencial de Fourier se pueden obtener sin
problema:
Maple
> assume(T>0,A>0);
> assume(0<tau,tau<T);
> y(t,T) := A * ( Heaviside(t+tau/2) - Heaviside(t-tau/2) );
> C(0,T):=1/T*int(y(t,T),t=-T/2..T/2);
> C(n,T):=simplify(1/T*int(y(t,T)*exp(-I*2*Pi*n/T*t),
t=-T/2..T/2));
C
0
=

T
(6.16)
C
n
=

T

sen
_
πnτ
T
_
πnτ
T
∀n ,= 0 (6.17)
La transformada de Fourier de y(t) resulta dada por la expresi´ on:
F( ω) =
_

−∞
y(t)e
− ωt
dt =
_
τ/2
−τ/2
Ae
− ωt
dt (6.18)
=
A
− ω
e
− ωt
¸
¸
¸
τ/2
−τ/2
= −
A
 ω
(e
− ω
τ
2
−e
 ω
τ
2
) (6.19)
=
2A
ω
sen
_
ωτ
2
_
(6.20)
122CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
espectro!continuo
que usualmente se escribe como:
F( ω) = Aτ
sen
_
ωτ
2
_
ωτ
2
(6.21)
Si consideramos ahora la ecuaci´ on (6.17), podemos escribir:
TC
n
= Aτ
sen
_
ω
n
τ
2
_
ω
n
τ
2
(6.22)
donde ω
n
=
2nπ
T
. De esta forma, observamos que:
l´ım
n→∞
TC
n
= F( ω) (6.23)
222
A pesar de su conexi´ on, existen varias diferencias conceptuales entre la serie
de Fourier y la transformada de Fourier. La primera diferencia importante es
que el espectro de l´ınea que aparece asociado a la serie de Fourier, se convierte,
en el caso de la Transformada de Fourier, en un espectro definido para toda
frecuencia. En forma compacta nos referiremos a este ´ ultimo como el espectro
continuo de la se˜ nal.
Una segunda diferencia es que la Serie de Fourier resulta descrita por un
conjunto de valores complejos asociados a un conjunto enumerable de frecuencias
(la frecuencia 0 y las frecuencias m´ ultiplos de una frecuencia fundamental), esos
valores complejos determinan la amplitud y fase de las componentes arm´ onicas.
Ese no es el caso de la Transformada de Fourier para se˜ nales de tiempo continuo,
ya que la transformada F( ω) es una medida de densidad o m´ as bien de
intensidad relativa (no absoluta) de la participaci´ on de las distintas frecuencias
en la representaci´ on de la funci´ on. Esta cantidad est´ a definida para todo el eje
de los reales, es decir, para todo ω, as´ı, la presencia de una frecuencia ω
1
en una
se˜ nal f(t) est´ a dada por:
Y
1
=
_
ω
+
1
ω

1
F( ω)e
 ωt
dω (6.24)
Esta integral es cero, a menos que F( ω) contenga un impulso δ(ω−ω
1
). En
el Ap´endice C se demuestra que este impulso acusa la presencia de una sinusoide
pura de frecuencia ω
1
en f(t).
Ejemplo 6.2. Para apreciar desde un ´ angulo distinto las diferencias mencio-
nandas, consideremos la analog´ıa de una viga empotrada, cargada con arena fina
y con tres fuerzas puntuales, como se muestra en la Figura 6.3.
La viga tiene un largo L y un ancho A. En la Figura 6.3 la coordenada x
es an´ aloga a la frecuencia angular ω. En primer lugar se aprecian tres fuerzas
no nulas, que act´ uan en puntos espec´ıficos de la viga. Ellas son an´ alogas a los
coeficientes de una serie de Fourier. En segundo lugar se observa la carga de
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO123
Parseval
Parseval
F
1
F
2
F
3
f(x)
x
Figura 6.3: Viga cargada con arena
arena, con una distribuci´ on f(x) [N/m]. Esta distribuci´ on captura la irregular-
idad de la distribucic´ on de la arena a lo largo y a lo ancho de la viga. Se puede
deducir que si f(x) es finita, entonces, esta carga de arena ejerce una fuerza
cero en cualquier punto de la viga. No obstante, es obvio que si la densidad de
la arena es ρ(x), entonces la fuerza total ejercida por la carga de arena es:
_
L
0
f(x)ρ(x)Adx (6.25)
La densidad de carga por metro lineal f(x) es entonces an´ aloga a la trans-
formada de Fourier F( ω), en el sentido que esta ´ ultima corresponde a una
densidad espectral por ancho de banda.
222
La transformaci´ on de Fourier posee una serie de propiedades que resultan de
mucha utilidad para el c´ alculo de transformadas de funciones a partir de algunas
elementales, para la obtenci´ on de transformadas inversas sin tener que resolver la
integral (6.13), y para el an´ alisis de sistemas, como se ve en la secci´ on siguiente.
Estas propiedades se detallan en el Ap´endice C. Algunas de esas propiedades
son de especial relevancia por sus aplicaciones al an´ alisis de sistemas lineales.
6.2.1. Parseval y la energ´ıa de las se˜ nales aperi´ odicas en
tiempo continuo
Los resultados deducidos por Parseval permiten tambi´en relacionar directa-
mente las caracter´ısticas de una se˜ nal cualquiera con su transformada de Fourier.
Los detalles matem´ aticos pueden ser examinados en el Ap´endice C.
Si la se˜ nal (real) f(t) tiene energ´ıa finita en el intervalo (−∞, ∞), y su
transformada de Fourier es F( ω) entonces, aplicando el Teorema C.1, se tiene
que:
_

−∞
(f(t))
2
dt =
1

_

−∞
[F( ω)[
2
dω =
1
π
_

0
[F( ω)[
2
dω (6.26)
124CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
respuestaenfrecuencia
anchodebanda
Observando el lado derecho de la ecuaci´ on, podemos calcular la fracci´ on de
la energ´ıa total que es aportada por cada intervalo del espectro (ω
k
, ω
k+1
). Para
apreciar esto consideremos el siguiente ejemplo.
Ejemplo 6.3. Sea la se˜ nal f(t) = e
−at
µ(t), donde a ∈ R
+
. Entonces, su trans-
formada de Fourier es
F( ω) =
1
 ω +a
(6.27)
y su energ´ıa total es
W =
_

0
e
−2at
dt =
1
π
_

0
1
ω
2
+a
2
dω =
1
2a
(6.28)
Usando Parseval podemos demostrar que la mitad de esa energ´ıa es aportada
por el espectro en el intervalo de frecuencia (−a, a), como se ve en
W
(−a,a)
=
1
π
_
a
0
1
ω
2
+a
2
dω =
1
πa
arctan
ω
a
¸
¸
¸
a
0
=
1
4a
(6.29)
6.2.2. Aplicaci´ on a sistemas lineales
Nuestro inter´es en el estudio de la transformaci´ on de Fourier y sus propiedades,
se origina en su utilidad para analizar las caracter´ısticas de los sistemas lineales.
La definici´ on hecha en la secci´ on precedente de la transformada de Fourier resul-
ta como continuaci´ on natural de las series de Fourier, de esta forma la transfor-
mada constituye la prolongaci´ on natural del estudio de propiedades del sistema
como la respuesta en frecuencia, ancho de banda y filtraje, entre otras.
Para apreciar la utilidad del an´ alisis mediante transformada de Fourier,
consideremos un sistema lineal de tiempo continuo, definido por su ecuaci´ on
diferencial (EDS), tal como se vio en el Cap´ıtulo 3:
d
n
y(t)
dt
n
+a
n−1
d
n−1
y(t)
dt
n−1
+. . . +a
0
y(t)
= b
m
d
m
u(t)
dt
m
+b
m−1
d
m−1
u(t)
dt
m−1
+. . . +b
0
u(t) (6.30)
En que u(t) e y(t) representan respectivamente la se˜ nal de entrada y de
salida del sistema. Note que por generalidad hemos reemplazado n − 1 por m
en el lado derecho, aunque seguiremos suponiendo que el sistema es propio, es
decir, m ≤ n.
Si utilizamos la propiedad que permite obtener una expresi´ on para la trans-
formada de Fourier de la derivada de una funci´ on, ecuaci´ on (C.9) en la p´ agi-
na 367, a cada una de las derivadas de la entrada u(t) y la salida y(t) puede
aplic´ arsele trasnformaci´ on de Fourier, utilizando:
T
_
d
n
f(t)
dt
n
_
= ( ω)
n
T ¦f(t)¦ = ( ω)
n
F( ω)
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO125
funci´ ondetransferencia
De esta forma, si se aplica transformaci´ on de Fourier a ambos lados de la
EDS (6.30) se obtiene:
( ω)
n
Y ( ω) +. . . +a
0
Y ( ω) = b
m
( ω)
m
U( ω) +. . . +b
0
U( ω) (6.31)
luego:
Y ( ω) =
b
m
( ω)
m
+. . . +b
0
( ω)
n
+. . . +a
0
U( ω) =
B( ω)
A( ω)
U( ω) (6.32)
donde A( ω) y B( ω) son polinomios en  ω.
Si ahora definimos la funci´ on racional en  ω como
H( ω) =
B( ω)
A( ω)
=
b
m
( ω)
m
+. . . +b
0
( ω)
n
+. . . +a
0
(6.33)
entonces la salida del sistema lineal puede ser expresada como
Y ( ω) = H( ω)U( ω) (6.34)
La funci´ on H( ω) que aparece en la expresi´ on para la salida Y ( ω) es la
que caracteriza al sistema mismo, ya que depende s´ olo de los coeficientes de la
EDS (6.30), y no de la se˜ nal de entrada U( ω). Esta funci´ on se conoce como
funci´ on de transferencia o transferencia de Fourier.
En general, H( ω) es una funci´ on racional en  ω. Sin embargo, existen casos
en que la entrada u(t) se aplica en forma retardada al sistema. En esos casos,
si el retardo es τ, la transformada de Fourier U( ω) debe ser reemplazada por
U( ω)e
− ωτ
(vea las propiedades en la Tabla C.1) y la funci´ on de transferencia
resulta:
H( ω) =
B( ω)
A( ω)
=
b
m
( ω)
m
+. . . +b
0
( ω)
n
+. . . +a
0
e
− ωτ
(6.35)
Una discusi´ on adicional sobre la naturaleza de H( ω), en particular, referida
a la estabilidad del sistema se desarrolla m´ as adelante, en la Secci´ on 6.2.5.
Una interpretaci´ on fundamental para la funci´ on de transferencia se puede
construir a partir del Lema 3.1 en la p´ agina 53. All´ı se establece que la respuesta
de un sistema a una se˜ nal de entrada arbitraria u(t), puede obtenerse mediante
la convoluci´ on de ´esta con la respuesta h(t) del sistema a un impulso unitario:
y(t) = u(t) ∗ h(t) =
_

−∞
u(τ)h(t −τ)dτ (6.36)
Si aplicamos transformaci´ on de Fourier a esta relaci´ on, utilizando el resultado
(C.13) en la p´ agina 371 que establece la transformada de la convoluci´ on de
funciones, tenemos que:
T ¦y(t)¦ = T ¦u(t) ∗ h(t)¦ (6.37)
Y ( ω) = U( ω)T ¦h(t)¦ (6.38)
126CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
Podemos apreciar entonces que la funci´ on H( ω) en la ecuaci´ on (6.34) es
exactamente la transformada de Fourier de la respuesta h(t) del sistema
(6.30) a un impulso unitario en su entrada.
Dado que la EDS tiene s´ olo coeficientes reales, la funci´ on de transferencia
H( ω) cumple con H( ω) = (H(− ω))

, lo que implica que:
su magnitud es una funci´ on par en ω ⇒ [H( ω)[ = [H(− ω)[ (6.39)
su fase es una funci´ on impar en ω ⇒ ∠H( ω) = −∠H(− ω) (6.40)
Para ilustrar la derivaci´ on de la funci´ on de transferencia a partir de un
sistema f´ısico, examinemos el siguiente ejemplo.
Ejemplo 6.4. Consideremos el circuito de la Figura 6.4, que puede ser visto
como un sistema con entrada el voltaje de la fuente v
f
(t) y como salida el voltaje
en el condensador v
c
(t).
R
v
f
(t)
+
i(t)
C v
c
(t)
Figura 6.4: Circuito RC como sistema de primer orden.
Usando leyes de Kirchoff y la ecuaci´ on para la corriente por el condensador,
podemos llegar a una EDS:
v
R
(t) +v
C
(t) = v
f
(t) (6.41)
RC
d v
C
(t)
dt
+v
C
(t) = v
f
(t) (6.42)
d v
C
(t)
dt
+
1
RC
v
C
(t) =
1
RC
v
f
(t)di(t) (6.43)
En estas ecuaciones se puede renombrar v
c
(t) = y(t) , v
f
(t) = u(t) ,
1
RC
= α
, con lo que la EDS resulta:
d y(t)
dt
+αy(t) = αu(t) ; α ∈ R
+
(6.44)
A continuaci´ on calculamos la salida del sistema para diferentes funciones de
entrada u(t).
Si aplicamos transformaci´ on de Fourier a (6.44) tenemos:
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO127
Maple
>with(inttrans) : assume(alpha>0) :
>eds:= diff(y(t),t)+alpha*y(t)=alpha*u(t) ;
>eq1:=fourier(u(t),t,w)=U(jw) :
>eq2:=fourier(y(t),t,w)=Y(jw) :
>subs({eq1,eq2},fourier(eds,t,w)) ;
>Y(jw):=solve(%,Y(jw));
 ωY ( ω) +αY ( ω) = αU( ω) (6.45)
Y ( ω) =
α
 ω +α
U( ω) (6.46)
Con esta expresi´ on se puede obtener la salida del sistema para diferentes
casos, con ayuda de las tranformadas en la Tabla C.2 en la p´ agina 389.
Entrada impulso unitario
En primer lugar, podemos calcular casi directamente la respuesta a impulso
del sistema, ya que si u(t) = δ(t), entonces U( ω) = 1 y, por tanto:
Maple
>U(jw)= fourier(Dirac(t),t,w) :
>H(jw)=subs(%,Y(jw));
U( ω) = 1
Y ( ω) = H( ω) =
α
 ω +α
Donde se aplica transformaci´ on inversa
Maple
> h(t) = invfourier(H(jw),w,t);
h(t) = αT
−1
_
1
 ω +α
_
(6.47)
= αe
−αt
µ(t) (6.48)
Entrada escal´ on unitario
128CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
fraccionesparciales
Maple
>U(jw)= fourier(Heaviside(t),t,w) :
>Y(jw)=subs(%,Y(jw));
U( ω) = πδ(ω) +
1
 ω
(6.49)
Y ( ω) =
α
 ω +α
_
πδ(ω) +
1
 ω
_
(6.50)
Donde se desarrolla el producto y luego se buscan t´erminos que correspondan
a transformadas conocidas, ya sea agrupando de manera conveniente o separan-
do en fracciones parciales (ver Ap´endice D):
Y ( ω) =
α
 ω +α
πδ(ω) +
α
 ω( ω +α)
(6.51)
= πδ(ω) +
1
 ω

1
( ω +α)
(6.52)
Ya que, del t´ermino que multiplica al delta Dirac s´ olo interesa su valor en
ω = 0, y el otro se separa en fracciones parciales. De esta forma se puede
calcular la transformaci´ on inversa de Fourier:
Maple
> y(t) = invfourier(Y(jw),w,t);
y(t) = T
−1
_
πδ(ω) +
1
 ω
_
−T
−1
_
1
( ω +α)
_
(6.53)
= µ(t) −e
−αt
µ(t) (6.54)
Entrada exponencial peri´ odica
Finalmente, examinemos la respuesta a una exponencial peri´ odica u(t) =
e
 ω
o
t
. Su transformada de Fourier de u(t) es:
U( ω) = T
_
e
 ω
o
t
_
= 2πδ(ω −ω
o
) (6.55)
Con lo que la salida ser´ a:
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO129
ganancia!a modoforzante
Y ( ω) =
α
 ω +α
2πδ(ω −ω
o
) =
α
 ω
o

2πδ(ω −ω
o
) (6.56)
⇒y(t) =
α
 ω
o

e
 ω
o
t
= A(ω
o
)e
 ω
o
t+jφ(ω
o
)
(6.57)
en que:
A(ω
o
) =
¸
¸
¸
¸
α
 ω
o

¸
¸
¸
¸
=
α
_
ω
2
o

2
(6.58)
φ(ω
o
) = −arctan
ω
o
α
(6.59)
Lo anterior muestra que, al pasar a trav´es del sistema, la exponencial peri´ odi-
ca, experimenta un cambio en magnitud (en un factor A(ω
o
)) y en fase (una
adici´ on igual a φ(ω
o
).
222
6.2.3. La funci´ on de transferencia y la respuesta en fre-
cuencia
La ´ ultima parte del Ejemplo 6.4, en la secci´ on anterior, pone de manifiesto
la utilidad de conocer la transformada de Fourier de la respuesta a impulso de
un sistema, H( ω). Observe que:
Y ( ω) = H( ω)U( ω) (6.60)
pero si u(t) = e
 ω
o
t
, entonces
Y ( ω) = H( ω)2πδ(ω −ω
o
) (6.61)
= H( ω
o
)2πδ(ω −ω
o
) (6.62)
por tanto, la salida es:
y(t) = H( ω
o
)e
 ω
o
t
(6.63)
As´ı tenemos que H( ω
o
) representa la ganancia al modo forzante e
 ω
o
t
,
definida en (3.24). Es m´ as, dada la relaci´ on de las exponenciales peri´ odicas con
las se˜ nales sinusoidales podemos establecer el siguiente lema.
Lema 6.1. Dado un sistema estable de tiempo continuo con entrada u(t) y
salida y(t). La respuesta del sistema a la entrada se˜ nal de entrada sinusoidal
u(t) = cos(ω
o
t), ∀t, es
y(t) = A(ω
o
) cos(ω
o
t +φ(ω
o
)) (6.64)
130CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
En que
A(ω
o
) = [H( ω
o
)[ (6.65)
φ(ω
o
) = ∠H( ω
o
) (6.66)
Donde H( ω) es la transformada de Fourier de la respuesta a impulso del
sistema h(t).
Demostraci´ on
La respuesta a la excitaci´ on cos(ω
o
t), puede ser calculada como la combi-
naci´ on de las respuestas a un par de exponenciales peri´ odicas. A partir de:
Y ( ω) = H( ω)U( ω) (6.67)
tenemos que, si u(t) =
1
2
(e
 ω
o
t
+e
− ω
o
t
), entonces:
Y ( ω) = H( ω)π(δ(ω −ω
o
) +δ(ω +ω
o
)) (6.68)
= πH( ω
o
)δ(ω −ω
o
) +πH(− ω
o
)δ(ω +ω
o
) (6.69)
y, por lo tanto, la salida es:
y(t) =
1
2
H( ω
o
)e
 ω
o
t
+
1
2
H(− ω
o
)e
− ω
o
t
(6.70)
=
1
2
[H( ω
o
)[e
 ω
o
t+j∠H( ω
o
)
+
1
2
[H( ω
o
)[e
− ω
o
t−j∠H( ω
o
)
(6.71)
= [H( ω
o
)[ cos(ω
o
t +∠H( ω
o
)) (6.72)
222
Ejemplo 6.5. Para el mismo sistema del Ejemplo 6.4, descrito por la ecuaci´ on
diferencial:
d y(t)
dt
+αy(t) = αu(t) ; α ∈ R
+
(6.73)
Determinemos la soluci´ on si la se˜ nal de entrada es u(t) = cos(t).
Tal como se hizo antes, se aplica transformaci´ on de Fourier sobre la EDS,
donde se ha reemplazado la entrada u(t) con lo que se obtiene la transformada
de Fourier de la salida:
Maple
> U(jw)= fourier(cos(t),t,w) : eq3 ;
simplify(subs(eq3,Y(jw)));
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO131
U( ω) = π(δ(ω + 1) +δ(ω −1)) (6.74)
Y ( ω) =
α
 ω +α
π(δ(ω + 1) +δ(ω −1)) (6.75)
donde, simplificando como antes, se obtiene la transformada inversa:
Y ( ω) =
α
−j +α
πδ(ω + 1) +
α
j +α
πδ(ω −1) (6.76)
=
α(α +j)
α
2
+ 1
πδ(ω + 1) +
α(α −j)
α
2
+ 1
πδ(ω −1) (6.77)
= Ae

πδ(ω + 1) +Ae
−jφ
πδ(ω −1) (6.78)
en que:
A =
¸
¸
¸
¸
α(α +j)
α
2
+ 1
¸
¸
¸
¸
=
α

α
2
+ 1
(6.79)
φ = ∠
_
α(α +j)
α
2
+ 1
_
= arctan
1
α
(6.80)
por lo tanto, la salida es:
y(t) = Acos(t −φ) (6.81)
=
α

α
2
+ 1
cos
_
t −arctan
1
α
_
(6.82)
Se deja al lector verificar el caso general, en que, cuando la entrada es una
sinusoide de frecuencia arbitraria, cos(ω
o
t), entonces la salida del sistema ser´ a:
y(t) =
α
_
α
2

2
o
cos
_
t −arctan
ω
o
α
_
(6.83)
En la Figura 6.5 se muestra la magnitud A(ω
o
) y ´ angulo de desfase φ(ω
o
)
de la salida cuando α = 10.
222
El ejemplo anterior pone en evidencia que la salida que se obtiene a trav´es de
la transformada de Fourier corresponde a la parte estacionaria de la salida del
sistema, donde no aparecen modos naturales. Esto es coherente, ya que podemos
pensar una se˜ nal no causal como una que comenz´ o a actuar sobre el sistema en
t = −∞, y, por ende, el efecto de las condiciones iniciales ha desaparecido. Sin
embargo, debemos observar que el desarrollo realizado es an´ alogo cuando α < 0.
Esto nos advierte que en el caso de sistemas inestables, es decir, con frecuen-
cias naturales fuera del semiplano izquierdo (que es la zona de estabilidad para
sistemas de tiempo continuo), la salida obtenida mediante la transformaci´ on de
132CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
0 100 200 300 400 500 600
0
0.2
0.4
0.6
0.8
1
ω
A
(
ω
)
(a) Magnitud
0 100 200 300 400 500 600
−1.5
−1
−0.5
0
ω
φ
(
ω
)
(b)
´
Angulo
Figura 6.5: Magnitud y ´ angulo de H( ω) en el ejemplo (α = 100).
Fourier resulta ser acotada, mientras que la salida verdadera del sistema crece
hasta infinito. Es decir, la soluci´ on mediante Fourier para se˜ nales no causales
resulta ciega a la inestabilidad propia del sistema, pero nos permite obten-
er la componente particular de la se˜ nal de salida. Para ilustrar esto observe el
siguiente ejemplo, que s´ olo tiene sentido si el sistema bajo an´ alisis es estable.
Ejemplo 6.6. Consideremos el caso en que la entrada al sistema es u(t) =
cos(t)µ(t). En este caso, tenemos que la transformada de Fourier de la entrada
y de la salida al sistema son respectivamente
Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>Y(jw) = subs (%,Y(jw));
U( ω) =
π
2
(δ(ω −1) +δ(ω + 1)) +
 ω
−ω
2
+ 1
(6.84)
Y ( ω) =
α
 ω +α
_
π
2
(δ(ω −1) +δ(ω + 1)) +
 ω
−ω
2
+ 1
_
(6.85)
La salida Y ( ω) puede simplificarse con las mismas consideraciones anteri-
ores, es decir, evaluando los coeficientes que acompa˜ nan a los deltas de Dirac
en la frecuencia de inter´es, separando en fracciones parciales y agrupando con-
venientemente:
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO133
filtraje
Y ( ω) =
α
j +α
π
2
δ(ω −1) +
α
−j +α
π
2
δ(ω + 1) +
α
( ω +α)(−ω
2
+ 1)
=
α(α −j)
α
2
+ 1
π
2
δ(ω −1) +
α(α +j)
−j +α
π
2
δ(ω + 1)
+
α(α ω + 1))

2
+ 1)(−ω
2
+ 1)

α
2
α
2
+ 1
_
1
 ω +α
_
=
α
2
α
2
+ 1
π
2
_
δ(ω + 1) +δ(ω −1)
_
+
α
α
2
+ 1

2
_
δ(ω + 1) −δ(ω −1)
_
+
α
2

2
+ 1)
 ω
(−ω
2
+ 1)
+
α

2
+ 1)
1
(−ω
2
+ 1)

α
2
α
2
+ 1
_
1
 ω +α
_
Por tanto, con ayuda de la Tabla C.2 en la p´ agina 389, tenemos que la salida
es:
y(t) =
α
α
2
+ 1
_
αT
−1
_
π
2
_
δ(ω + 1) +δ(ω −1)
_
+
 ω
(−ω
2
+ 1)
_
+T
−1
_

2
_
δ(ω + 1) −δ(ω −1)
_
+
1
(−ω
2
+ 1)
_
− αT
−1
_
1
 ω +α
__
y(t) =
α
α
2
+ 1
_
αcos(t)µ(t) + sen(t)µ(t) −αe
−αt
µ(t)
¸
En Maple los c´ alculos se pueden hacer mucho m´ as r´ apido, y, dado que en la
transformaci´ on inversa aparecen exponenciales complejas, se utiliza la funci´ on
evalc, que permite expandir ´estas mediante la relaci´ on de Euler,
1
:
Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>subs(%,Y(jw));
>y(t) = simplify( evalc( invfourier(%,w,t) ) );
222
6.2.4. Filtraje
Una generalizaci´ on de los resultados precedentes se puede extraer examinan-
do la naturaleza de la funci´ on de transferencia y la forma en que evolucionan
1
e

= cos(θ) + j sen(θ)
134CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
espectro
respuestaenfrecuencia
sistema!estable
su magnitud y su fase con la frecuencia ω. En estas caracter´ısticas, que definen
la respuesta en frecuencia del sistema, se capturan efectos tales como su ve-
locidad y su capacidad de filtrar y discriminar se˜ nales de diferentes contenidos
espectral.
Es com´ un que para clasificar las funciones de transferencia de sistemas es-
tables, se use su caracter´ıstica filtrante.
´
Esta queda determinada por [H( ω)[.
Para ejemplificar esta descripci´ on consideremos primero sistemas que discrimi-
nan entre frecuencias altas y bajas.
ω
c
ω
c

A
a
A
a
ω ω
|H(jω)|
|H(jω)|
Figura 6.6: Sistemas pasa bajos (izquierda) y pasa altos (derecha)
En la Figura 6.6 se observan dos conductas distintas. El sistema descrito por
la caracter´ıstica del lado izquierdo, deja pasar las bajas frecuencias y aten´ ua las
altas frecuencias. El sistema caracterizado por la funci´ on de transferencia del
lado derecho hace lo contrario: deja pasar las altas frecuencias y bloquea las bajas
frecuencias. Una forma de apreciar estos comportamientos distintos es aplicar
a ambos sistemas una misma secuencia de escalones temporales. La transici´ on
brusca de un nivel a otro requiere la presencia de muy altas frecuencias, en
estricto sentido, de frecuencia infinita. Por otro lado, una vez que se ha llegado
a un nuevo nivel, predominan las frecuencias bajas, en rigor, la frecuencia cero.
Los escalones tambi´en tienen energ´ıa a frecuencias intermedias tal como lo revela
la transformada de Fourier del escal´ on unitario, estas frecuencias intermedias se
originan en el quiebre entre una pendiente infinita (inicio del escal´ on) y una
pendiente cero (resto del escal´ on).
Ejemplo 6.7. Considere los siguientes sistemas:
H
1
( ω) =
1
( ω + 1)
2
Pasa bajos (6.86)
H
2
( ω) =
( ω)
2
( ω + 1)
2
Pasa altos (6.87)
Si a ambos sistemas se aplica una secuencia de escalones, se obtiene el re-
sultado de la Figura 6.7. En esta, se observa que la respuesta del filtro pasa
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO135
frecuencia!decorte
pasabanda
elimina banda
0 5 10 15 20 25 30
−1
−0.5
0
0.5
1
1.5
2
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l
ó
n

y
1
(t)
y
2
(t)
Figura 6.7: Respuesta a escalones de un sistema pasa bajos y un sistema pasa
altos.
bajos, y
1
(t), no puede seguir las transiciones de los escalones, pero alcanza el
nivel constante de la entrada sin error (dado que la ganancia a continua es
uno). Por su parte, la respuesta del filtro pasa altos, y
2
(t), es capaz de replicar
instant´ aneamente los cambios bruscos, sin embargo presenta respuesta nula una
vez que el escal´ on alcanza un nivel constante (dado que la ganancia a continua
es cero).
222
La transici´ on entre una zona de paso y otra de rechazo (y viceversa) que
ocurre en [H( ω)[ es siempre gradual. Una forma de cuantificar un l´ımite para
esa transici´ on es lo que se define como frecuencia de corte. Esta definici´ on,
aunque arbitraria es universalmente aceptada. En la Figura 6.6, ω
c
es la fre-
cuencia de corte si a = A/

2.
Aparte del comportamiento pasa bajos y pasa altos podemos reconocer las
caracter´ısticas pasa banda y elimina banda. Las caracter´ısticas generales de
ambos sistemas aparecen reflejadas en los gr´ aficos de la Figura 6.8.
ω
c1
ω
c2

ω
c1
ω
c2

A
a
A
a
|H(jω)| |H(jω)|
ω ω
Figura 6.8: Sistemas pasa banda y elimina banda.
136CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
frecuenciasdecorte
El sistema descrito por la caracter´ıstica del lado izquierdo en la Figura 6.8
bloquea las frecuencias bajas y las fecuencias altas, en cambio, deja pasar un
rango de frecuencias intermedias. Por su parte, el sistema descrito por la car-
acter´ıstica del lado derecho en la Figura 6.8, bloquea un rango intermedio de
frecuencias y deja pasar tanto las altas como las bajas frecuencias. El compor-
tamiento de estos sistemas puede ser estudiado tambi´en usando una secuencia
de escalones. Para ilustrar las diferentes conductas desarrollamos un ejemplo.
Ejemplo 6.8. Considere los siguientes sistemas:
H
3
( ω) =
 ω
( ω + 1)
2
Pasa banda (6.88)
H
4
( ω) =
( ω)
2
+ 1
( ω + 1)
2
Elimina banda (6.89)
0 5 10 15 20 25 30
−1.5
−1
−0.5
0
0.5
1
1.5
Time [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l
ó
n
y
3
(t)
y
4
(t)
Figura 6.9: Respuesta a escalones de un sistema pasa banda y un sistema elimi-
na banda.
Cuando a ambos sistemas se aplica una secuencia de escalones se obtiene el
resultado de la Figura 6.9. De la Figura 6.9 se observa que la respuesta del filtro
pasa banda, y
3
(t), no puede seguir las transiciones de los escalones, y presenta
respuesta nula una vez que el escal´ on alcanza niveles constantes (tiene ganancia
a continua igual a cero). Por su parte, la respuesta del filtro elimina banda,
y
4
(t), es capaz de replicar instant´ aneamente los cambios bruscos, y de alcanzar,
sin error, el valor constante de la entrada (tiene ganancia a continua igual a
uno). Sin embargo, y
4
(t) presenta una anomal´ıa justo despu´es de la transici´ on
brusca. Esta anomal´ıa se debe a que el sistema bloquea un rango intermedio de
frecuencias.
222
En el caso de los sistemas pasa banda y sistemas elimina banda, existen dos
frecuencias de corte, ω
c1
y ω
c2
(vea Figura 6.8), para a = A/

2.
Cualquiera que sea la naturaleza filtrante del sistema, las frecuencias de corte
son las que delimitan la(s) banda(s) de paso y la(s) banda(s) de rechazo.
6.2. LATRANSFORMACI
´
ONDE FOURIER. EL CASODEL TIEMPOCONTINUO137
sistema!estable
6.2.5. Caso singular en la funci´ on de transferencia.
En primer lugar, se debe enfatizar que:
La funci´ on de transferencia de un sistema lineal de tiempo continuo
est´ a definida s´ olo si su respuesta a impulso tiene transformada de Fouri-
er. Esto es equivalente a exigir que el sistema tenga s´ olo frecuencias natu-
rales en el SPI cerrado, con la condici´ on que si algunas de esas frecuencias
naturales est´ an sobre el eje imaginario, ellas sean simples
Es muy importante notar que el Lemma 6.1 en la p´ agina 129, que iguala
H( ω) con la respuesta en frecuencia, est´ a formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
en el eje imaginario, aunque sean no repetidas. Veamos a trav´es de un ejemplo,
los resultados err´ oneos que surgen si no somos cuidadosos.
Ejemplo 6.9. Un sistema con entrada u(t) y salida y(t), tiene una EDS:
dy(t)
dt
= u(t) (6.90)
Observamos que el sistema tiene s´ olo una frecuencia natural, y ella est´ a ubi-
cada en λ = 0, es decir, se trata de una frecuencia natural no repetida en el eje
imaginario.
La respuesta en frecuencia, K(ω) est´ a dada por la ganancia al modo forzante
e
 ωt
, y ella resulta de aplicar (3.24) a este caso particular:
K(ω) =
1
 ω
(6.91)
Suponga que u(t) = e
−at
µ(t), a > 0 y si, err´ oneamente, hacemos H( ω) =
K(ω), entonces y(t) se puede calcular a partir de :
y(t) = T
−1
¦Y ( ω)¦ = T
−1
¦H( ω)U( ω)¦ = T
−1
_
1
 ω( ω +a)
_
(6.92)
As´ı se obtiene:
Maple
>with(inttrans):
>assume(a>0);simplify(evalc((invfourier(1/(-w^2+I*a*w),w,t)));
y(t) =
signo (t) −2e
−at
µ(t)
2a
(6.93)
138CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
dando origen a una respuesta no causal, ya que la funci´ on signo (t) tiene valor
−1, ∀t < 0.
Para obtener la respuesta correcta, recordemos que la funci´ on de transfer-
encia H( ω) es la transformada de Fourier de la respuesta del sistema a un
impulso unitario. Aplicando esta definici´ on a nuestro sistema se llega a:
H( ω) =
1
 ω
+πδ(ω) (6.94)
Entonces
y(t) = T
−1
_
1
 ω( ω +a)
+
π
a
δ(ω)
_
=
1 −e
−at
µ(t)
a
µ(t) (6.95)
que es la respuesta correcta.
222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales en el eje imaginario, los modos naturales asociados no
decaen, y la transformada de Fourier de cada uno de ellos s´ olo existe en el
l´ımite. Esta condici´ on es acusada por la presencia de deltas de Dirac en ω. As´ı,
la funci´ on de transferencia es una funci´ on racional m´ as uno o varios deltas de
Dirac en ω.
La ´ ultima pregunta que debemos responder es por qu´e la determinaci´ on de
H( ω) usando (6.31) no da el resultado correcto. La respuesta est´ a en que para
pasar de (6.31) a (6.33) se requiere dividir por un polinomio que se hace cero
para uno o m´ as valores de ω, es decir, se realiza una divisi´ on por cero a esas
frecuencias. Consideremos un ejemplo adicional.
Ejemplo 6.10. Sea un sistema con la EDS:
d
2
y(t)
dt
2
+ 4y(t) = 3u(t) (6.96)
Al aplicar transformaci´ on de Fourier se obtiene:
(( ω)
2
+ 4)Y ( ω) = 3U( ω) (6.97)
Observamos que y(t) contiene dos modos naturales complejos, los que com-
binados generan una se˜ nal sinusoidal de frecuencia 2 [rad/s]. Esto implica que
Y ( ω) debe incluir dos impulsos: δ(ω −2) y δ(ω + 2).
Cuando dividimos ambos lados de (6.97) por (( ω)
2
+4), estamos dividiendo
por cero cuando ω = ±2, exactamente donde ocurren los impulsos. Esta divisi´ on
llevar´ıa, err´ oneamente, a que la funci´ on de transferencia ser´ıa:
3
( ω)
2
+ 4
(6.98)
Sin embargo, la respuesta del sistema a u(t) = δ(t) est´ a dada por:
h(t) =
3
2
sen(2t)µ(t) (6.99)
6.3. LATRANSFORMACI
´
ONDE FOURIER. EL CASODE TIEMPODISCRETO139
As´ı, el valor correcto de H( ω) es:
H( ω) =
3
( ω)
2
+ 4
+j
3
2
(δ(ω + 2) −δ(ω −2)) (6.100)
222
6.3. La Transformaci´ on de Fourier. El caso de
tiempo discreto
Consideremos en esta secci´ on el caso de las funciones no peri´ odicas, definidas
en tiempo discreto, y c´ omo se pueden hacer un desarrollo an´ alogo para ´estas
que permita representar de alguna forma su contenido en frecuencia.
En primer lugar, recordemos las expresiones correspondientes a la repre-
sentaci´ on en serie de Fourier de una funci´ on peri´ odica definida en tiempo dis-
creto, tal como se vi´ o en el Cap´ıtulo 5. Sea y[t] una funci´ on peri´ odica de per´ıodo
N, entonces esta se puede representar mediante una serie de Fourier discreta
que no es m´ as que una combinaci´ on lineal finita de N exponenciales complejas:
y[t] =
N−1

n=0
C
n
e

o
nt
; donde θ
o
=

N
C
n
=
1
N
N−1

t=0
y[t]e
−jθ
o
nt
Consideremos ahora el caso en que el per´ıodo N de la se˜ nal crece hasta
infinito, es decir, tenemos una se˜ nal que ya no es peri´ odica. En este caso se puede
hacer el siguiente desarrollo, totalmente an´ alogo al caso de la transformaci´ on de
Fourier para funciones de tiempo continuo, en la secci´ on 6.2.
Llamemos θ
n
= nθ
o
y definamos la funci´ on:
Y (e

n
) = N C
n
(6.101)
Reemplazando en la representaci´ on en serie anterior:
y[t] =
1
N
N−1

n=0
Y (e

n
)e

o
nt
(6.102)
=
1

N−1

n=0
Y (e

n
)e

n
t
∆θ (6.103)
Ya que la frecuencia fundamental en este caso es θ
o
= θ
n+1
− θ
n
= ∆θ, es
decir, la separaci´ on entre arm´ onicas es igual a la frecuencia fundamental. La
sumatoria anterior corresponde a una suma de Riemann[11] que llevada al
140CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
transformadadeFourier!discreta
transformadadeFourier!discretainversa
l´ımite cuando N → ∞ se convierte en una integral en la variable θ, que pasa a
ser continua. Cabe observar que el l´ımite superior de la integral es:
θ
N−1
=

N
(N −1) (6.104)
l´ım
N→∞
θ
N−1
= 2π (6.105)
Por tanto, cuando el per´ıodo de la funci´ on N →∞ se tiene que:
y[t] =
1

_

0
Y (e

)e
jθt
dθ (6.106)
Cabe recordar que para el caso de las funciones de tiempo discreto existe
periodicidad en frecuencia, por tanto la funci´ on y[t] podr´ıa representarse emple-
ando el intervalo [−π, π] o cualquier otro de longitud 2π.
La ecuaci´ on (6.106) nos dice que podemos representar la funci´ on de tiempo
discreto y[t] como una integral que involucra la funci´ on Y (e

), que ahora pre-
senta valores en forma continua en el intervalo [0, 2π]. Veamos ahora cu´ al es la
expresi´ on que permite obtener esta funci´ on. A partir de la definici´ on hecha en
(6.101) tenemos:
Y (e

n
) = N C
n
=
N−1

t=0
y[t]e
−jθ
o
nt
=
N−1

t=0
y[t]e
−jθ
n
t
(6.107)
Cuando N → ∞ aparece la variable continua θ y es necesario considerar
todos los valores de la funci´ on, es decir, el tiempo discreto barre todos los
enteros. Por tanto:
Y (e

) =

t=−∞
y[t]e
−jθt
(6.108)
Esta funci´ on es la transformada de Fourier discreta de la funci´ on y[t].
Mientras que la expresi´ on (6.106) representa la transformaci´ on inversa de
Fourier discreta.
T
d
¦y[t]¦ = Y (e

) =

t=−∞
y[t]e
−jθt
(6.109)
T
d
−1
_
Y (e

)
_
= y[t] =
1

_

0
Y (e

)e
jθt
dθ (6.110)
A continuaci´ on, veamos un ejemplo para ilustrar lo anterior.
6.3. LATRANSFORMACI
´
ONDE FOURIER. EL CASODE TIEMPODISCRETO141
Ejemplo 6.11. Consideremos como primera se˜ nal, un delta de Kronecker. Si
calculamos su transformada de Fourier discreta tenemos que ´esta, se reduce a
un ´ unico t´ermino:
Y (e

) =

t=−∞
δ[t]e
−jθt
= δ
K
[0]e
−jθ0
= 1 (6.111)
es decir, se obtiene un espectro plano, en analog´ıa al caso del espectro del delta
de Dirac en tiempo continuo. En la Figura 6.10 se muestra el delta de Kronecker
y la transformada de Fourier calculada, que en este caso resulta tener s´ olo parte
real.
−5 0 5
−0.2
0
0.2
0.4
0.6
0.8
1
t
δ
k
[
t
]
0 2 4 6
0
0.5
1
1.5
2
θ
Y
(
e
j
θ
)
Figura 6.10: Delta de Kronecker y su transformada de Fourier
222
Ejemplo 6.12. Consideremos ahora la se˜ nal exponencial:
y[t] = α
t
µ[t] [α[ < 1 (6.112)
Su transformada de Fourier discreta es:
Y (e

) =

t=−∞
y[t]e
−jθt
=

t=0
α
t
e
−jθt
=

t=0
(αe
−jθ
)
t
(6.113)
La expresi´ on para Y (e

) resulta ser una serie geom´etrica convergente ya
que [αe
−jθ
[ < 1. Por tanto su suma es
Y (e

) =
1
1 −αe
−jθ
(6.114)
La transformada Y (e

) puede ser reescrita en forma polar (m´ odulo y ´ angulo)
como:
142CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
Y (e

) =
1
1 −αcos(θ) +jαsen(θ)
(6.115)
[Y (e

)[ =
1
_
(1 −αcos(θ))
2
+ (αsen(θ))
2
=
1
_
1 −2αcos(θ) +α
2
(6.116)
∠Y (e

) = −arctan
_
αsen(θ)
1 −αcos(θ)
_
(6.117)
−2 0 2 4 6 8 10
−0.2
0
0.2
0.4
0.6
0.8
1
t
y
[
t
]
0 2 4 6
0
1
2
3
4
5
6
θ
|
Y
(
e
j
θ
)
|
Figura 6.11: Se˜ nal y[t] = (0,8)
t
µ[t] y la magnitud de Y (e

).
En la Figura 6.11 se muestra la se˜ nal en tiempo discreto y la magnitud de
su transformada de Fourier discreta cuando α = 0,8
222
Ejemplo 6.13. Consideremos ahora un pulso discreto definido seg´ un
y[t] =
_
1 ; [t[ ≤ 5
0 ; [t[ > 5
(6.118)
Su transformada de Fourier discreta est´ a dada por la expresi´ on:
Y (e

) =
5

t=−5
e
−jθt
(6.119)
Se puede apreciar directamente que es una funci´ on real, ya que cada par de
exponenciales complejas conjugadas al sumarse se transforman en una funci´ on
coseno, es decir:
Y (e

) = 1 + 2
5

t=1
cos(θt) (6.120)
Alternativamente, la transformada se puede calcular calculando la suma de
la progresi´ on geom´etrica de exponenciales:
6.3. LATRANSFORMACI
´
ONDE FOURIER. EL CASODE TIEMPODISCRETO143
Parseval
energ´ ıa
Y (e

) =
5

t=−5
e
−jθt
= e
−jθ(−5)
1 −e
−jθ(11)
1 −e
−jθ
=
e
jθ5
−e
−jθ6
1 −e
−jθ
(6.121)
Esta expresi´ on, a priori, no parece ser real, pero si se reescribe conveniente-
mente tenemos que:
Y (e

) =
_
e
jθ5
−e
−jθ6
_
e
j
θ
2
(1 −e
−jθ
) e
j
θ
2
=
e

11
2
−e
−jθ
11
2
e
j
θ
2
−e
−j
θ
2
=
sen(θ
11
2
)
sen(θ
1
2
)
(6.122)
Note que la ecuaci´ on (B.48) del Ap´endice B, establece justamente la propiedad
que permite convertir la suma de cosenos en un cuociente de senos.
−10 −5 0 5 10
−0.2
0
0.2
0.4
0.6
0.8
1
t
y
[
t
]
0 2 4 6
−5
0
5
10
15
θ
Y
(
e
j
θ
)
Figura 6.12: Se˜ nal y[t] y su transformada discreta Y (e

).
La Figura 6.12 se muestran los gr´ aficos del pulso en tiempo discreto y de su
transformada de Fourier.
222
En el Ap´endice C se incluyen las propiedades m´ as importantes de la trans-
formaci´ on de Fourier en tiempo discreto (tabla C.3 en la p´ agina 390), adem´ as
de una lista de transformadas simples que se pueden utilizar para el c´ alculo de
otras m´ as complejas (Tabla C.4 en la p´ agina 391).
6.3.1. Parseval y las se˜ nales aperi´ odicas de tiempo discre-
to
Los resultados deducidos por Parseval en el Ap´endice C permiten tambi´en
relacionar directamente las caracter´ısticas de energ´ıa de una se˜ nal cualquiera con
su transformada de Fourier discreta. En el caso de se˜ nales de tiempo discreto, las
ideas de potencia y energ´ıa no tienen la connotaci´ on f´ısica que poseen cuando se
usan en el contexto de las se˜ nales de tiempo continuo. Sin embargo, son tambi´en
144CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
concepto ´ utiles, especialmente si la secuencia de tiempo discreto se origina en
el muestreo de una se˜ nal de tiempo continuo.
Para la se˜ nal real de tiempo discreto f[t] se define la energ´ıa como:
W =

t=−∞
(f[t])
2
(6.123)
Si la se˜ nal f[t] tiene energ´ıa finita en el intervalo (−∞, ∞), y su transformada
de Fourier es F(e

) entonces, aplicando el Teorema C.2 en la p´ agina 386, se
tiene que:

t=−∞
(f[t])
2
=
1

_

0
[F(e

)[
2
dθ (6.124)
Observando el lado derecho de la ecuaci´ on, podemos calcular la fracci´ on de
la energ´ıa total que es aportada por cada intervalo del espectro (θ
k
, θ
k+1
). En
comparaci´ on con el caso continuo, ac´ a el c´ alculo es mucho m´ as complicado.
6.3.2. Aplicaci´ on a sistemas lineales
Consideremos un sistema lineal de tiempo discreto definido por su ecuaci´ on
recursiva (ERS):
y[t] +a
n−1
y[t −1] +. . . +a
1
y[t −n + 1] +a
0
y[t −n]
= b
m
u[t] +b
m−1
u[t −1] +. . . +b
1
u[t −m+ 1] +b
0
u[t −m] (6.125)
En que m y n son enteros positivos cualesquiera. Si aplicamos transformada
de Fourier a ambos lados de la ecuaci´ on tenemos:
Y (e

)(1 +a
n−1
e
−jθ
+. . . +a
1
e
−jθ(n−1)
+a
0
e
−jθn
) =
U(e

)(b
m
+b
m−1
e
−jθ
+. . . +b
1
e
−jθ(m−1)
+b
0
e
−jθ
) (6.126)
Si se factoriza y despeja la transformada de Fourier de la secuencia de salida
tenemos que esta resulta ser la transformada de la entrada U(e

) multiplicada
por una funci´ on racional en la variable e
−jθ
:
Y (e

) =
b
m
+b
m−1
e
−jθ
+. . . +b
1
e
−jθ(m−1)
+b
0
e
−jθ
1 +a
n−1
e
−jθ
+. . . +a
1
e
−jθ(n−1)
+a
0
e
−jθn
U(e

) (6.127)
Justamente podemos apreciar que la funci´ on racional que aparece multipli-
cando la entrada depende s´ olo del sistema, ya que s´ olo depende de los coeficientes
de la ERS inicial. Con esta expresi´ on podemos obtener la secuencia de salida
del sistema calculando la transformaci´ on de Fourier inversa.
En particular, cuando la entrada es un delta de Kronecker en el origen:
6.3. LATRANSFORMACI
´
ONDE FOURIER. EL CASODE TIEMPODISCRETO145
u[t] = δ
K
[t] ⇒ U(e

) = 1 (6.128)
En este caso la salida del sistema es:
Y (e

) =
b
m
+b
m−1
e
−jθ
+. . . +b
1
e
−jθ(m−1)
+b
0
e
−jθ
1 +a
n−1
e
−jθ
+. . . +a
1
e
−jθ(n−1)
+a
0
e
−jθn
= H(e

) (6.129)
es decir, la funci´ on racional H(e

) es exactamente la transformada de Fourier
de la respuesta del sistema a un delta de Kronecker en su entrada. De esta forma,
la respuesta a cualquier otra se˜ nal de entrada se obtiene usando la relaci´ on:
Y (e

) = H(e

)U(e

) (6.130)
Esta ecuaci´ on, corresponde, en el dominio de tiempo discreto, a la convolu-
ci´ on de las secuencias temporales:
y[t] = h[t] ∗ u[t] =

l=−∞
u[l]h[t −l] (6.131)
en que, tal como se vi´ o al final del Cap´ıtulo 4, la secuencia h[t] es la respuesta
del sistema al delta Kronecker.
La funci´ on H(e

) es la funci´ on de transferencia del sistema de tiem-
po discreto, y resulta igual a la ganancia al modo forzante e
jθt
, descrita
en (4.35). Esto dice que H(e

) describe completamente la respuesta en
frecuencia del sistema de tiempo discreto (vea la Secci´ on ¸5.4).
Ejemplo 6.14. Consideremos el sistema de tiempo discreto definido por su
ecuaci´ on recursiva:
y[t] −1,6y[t −1] + 0,63y[t −2] = u[t] (6.132)
Si aplicamos transformaci´ on de Fourier discreta tenemos que:
Y (e

) −1,6e
−jθ
Y (e

) + 0,63e
−jθ2
Y (e

) = U(e

) (6.133)
Y (e

)(1 −0,9e
−jθ
)(1 −0,7e
−jθ
) = U(e

) (6.134)
As´ı la funci´ on de transferencia est´ a dada por:
H(e

) =
1
(1 −0,9e
−jθ
)(1 −0,7e
−jθ
)
(6.135)
La transformada de la salida queda entonces dada por
146CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
fraccionesparciales
Y (e

) = H(e

)U(e

) =
U(e

)
(1 −0,9e
−jθ
)(1 −0,7e
−jθ
)
(6.136)
Analizaremos a continuaci´ on el comportamiento del sistema para distintas
excitaciones.
Entrada delta de Kronecker
En este caso:
U(e

) = 1 ⇒ Y (e

) =
1
(1 −0,9e
−jθ
)(1 −0,7e
−jθ
)
(6.137)
Donde la transformada de la salida se debe separar en fracciones parciales
para poder aplicar transformaci´ on inversa:
Y (e

) =
4,5
1 −0,9e
−jθ

3,5
1 −0,7e
−jθ
(6.138)
Por tanto, la salida del sistema es:
y[t] = (4,5(0,9)
t
−3,5(0,7)
t
)µ[t] (6.139)
Note que para esta excitaci´ on (delta de Kronecker) y[t] = h[t].
Entrada escal´ on unitario
En este caso, u[t] = µ[t], por lo tanto:
U(e

) =
1
1 −e
−jθ

=−∞
δ(θ + 2π) (6.140)
Y (e

) =
1
(1 −0,9e
−jθ
)(1 −0,7e
−jθ
)
_
1
1 −e
−jθ

=−∞
δ(θ + 2π)
_
(6.141)
La expresi´ on de la tranformada de Fourier de la secuencia de salida puede
simplificarse separando en fracciones parciales y considerando el valor del t´ermi-
no que acompa˜ na a la sumatoria de deltas de Dirac s´ olo en las frecuencias en
que ´estos son distintos de cero, es decir, en θ = 2π. Sin embargo, notamos que:
H(e

)
¸
¸
θ=2π
= H(1) =
100
3
; ∀ ∈ Z (6.142)
De esta forma:
6.3. LATRANSFORMACI
´
ONDE FOURIER. EL CASODE TIEMPODISCRETO147
Y (e

) =
1
(1 −0,9e
−jθ
)(1 −0,7e
−jθ
)(1 −e
−jθ
)
+
1
(1 −0,9e
−j0
)(1 −0,7e
−j0
)
π

=−∞
δ(θ + 2π) (6.143)
=
−40,5
1 −0,9e
−jθ
+
8,17
1 −0,7e
−jθ
+
100
3
1 −e
−jθ
+
100
3
π

=−∞
δ(θ + 2π)
(6.144)
Por tanto la secuencia de salida es:
y[t] = T
d
−1
_
−40,5
1 −0,9e
−jθ
_
+T
d
−1
_
8,17
1 −0,7e
−jθ
_
+T
d
−1
_
100
3
1 −e
−jθ
+
100
3
πδ(θ)
_
(6.145)
= (−40,5(0,9)
t
+ 8,17(0,7)
t
+ 33,3)µ[t] (6.146)
0 5 10 15 20 25 30 35 40 45 50
0
0.5
1
1.5
2
2.5
k
0 5 10 15 20 25 30 35 40 45 50
0
5
10
15
20
25
30
35
k
Figura 6.13: Respuesta a impulso y a escal´ on del ejemplo 6.14
La Figura 6.13 muestra los gr´ aficos de las secuencias de correspondientes a
la respuesta a impulso y a escal´ on unitario del sistema.
Entrada exponencial compleja
Ahora u[t] = e

o
t
y, de la Tabla C.4 en la p´ agina 391, tenemos que su
transformada de Fourier es:
U(e

) = 2π

=−∞
δ(θ −θ
o
+ 2π) (6.147)
Por lo tanto la transformada de Fourier de la respuesta est´ a dada por:
148CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
Y (e

) = H(e

)U(e

) = H(e

)

=−∞
δ(θ −θ
o
+ 2π)
= 2πH(e

o
)

=−∞
δ(θ −θ
o
+ 2π) (6.148)
Note que hemos usado la periodicidad en frecuencia de la funci´ on de trans-
ferencia, lo que implica:
H(e
j(θ
o
+2π)
) = H(e

o
) = [H(e

o
)[e
j(φ(θ
o
))
∀ ∈ Z (6.149)
As´ı, aplicando la transformaci´ on inversa, se obtiene:
y[t] = [H(e

o
)[ e
j(θ
o
t+φ(θ
o
))
(6.150)
222
6.3.3. La funci´ on de transferencia y la respuesta en fre-
cuencia
La parte final del Ejemplo 6.14, en la secci´ on precedente, muestra el v´ınculo
entre la funci´ on de transferencia y la respuesta en frecuencia de un sistema de
tiempo discreto. Este resultado se generaliza en el siguiente lema.
Lema 6.2. Dado un sistema estable de tiempo discreto con entrada u[t] y salida
y[t], la respuesta del sistema a la se˜ nal de entrada sinusoidal u[t] = cos(θ
o
t), ∀t,
es:
y[t] = A(θ
o
) cos(θ
o
t +φ(θ
o
)) (6.151)
en que:
A(θ
o
) =
¸
¸
H(e

o
)
¸
¸
(6.152)
φ(θ
o
) = ∠H(e

o
) (6.153)
donde H(e

) es la transformada de Fourier de la respuesta a impulso del sis-
tema h[t].
Demostraci´ on
La respuesta a la excitaci´ on cos(θ
o
t), t ∈ Z, puede ser calculada como la
combinaci´ on de las respuestas a un par de exponenciales peri´ odicas, usando la
relaci´ on:
Y (e

) = H(e

)U(e

) (6.154)
6.3. LATRANSFORMACI
´
ONDE FOURIER. EL CASODE TIEMPODISCRETO149
frecuencia!decorte
pasabajos
pasaaltos
pasabanda
eliminabanda
Si consideramos la entrada u[t] =
1
2
(e

o
t
+e
−jθ
o
t
), entonces:
Y (e

) = H(e

)π(δ(θ −θ
o
) +δ(θ +θ
o
)) (6.155)
= πH(e

o
)δ(θ −θ
o
) +πH(e
−jθ
o
)δ(θ +θ
o
) (6.156)
luego, la salida es:
y[t] =
1
2
H(e

o
)e
 ω
o
t
+
1
2
H(e
−jθ
o
)e
−jθ
o
t
(6.157)
=
1
2
[H(e

o
)[e

o
t+j∠H(e

o
)
+
1
2
[H( ω
o
)[e
−jθ
o
t−j∠H(e

o
)
(6.158)
= [H(e

o
)[ cos(θ
o
t +∠H(e

o
)) (6.159)
222
6.3.4. Filtraje
La respuesta en frecuencia de los sistemas discretos puede ser caracterizada
a trav´es de H(e

). Se aplican en este caso las mismas definiciones que en el caso
de sistemas de tiempo continuo: frecuencias de corte, banda de paso, banda de
rechazo, etc. Existe sin embargo un elemento que agrega complejidad al an´ alisis,
y ´el es la naturaleza perdi´ odica de H(e

). Consideremos un sistema para el que
la magnitud de la respuesta en frecuencia aparece descrita en la Figura 6.14.
−10 −8 −6 −4 −2 0 2 4 6 8 10
0
0.2
0.4
0.6
0.8
1
1.2
Frecuencia θ
|
F
(
e
j
θ
)
|
Figura 6.14: Respuesta en frecuencia (magnitud) de un sistema de tiempo dis-
creto.
El problema con el gr´ afico de la Figura 6.14 es que genera ambig¨ uedades
respecto de si se trata de un sistema pasa bajos, pasa banda, etc. El problema
se resuelve si se considera que, cualquiera sea la se˜ nal procesada por el sistema,
ella tambi´en tiene un espectro peri´ odico. En consecuencia, la naturaleza filtrante
se puede definir observando H(e

) s´ olo en θ ∈ [0; π], tal como se ha remarcado
en la Figura 6.14 con un trazo m´ as grueso.
150CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
sistema!estable
6.3.5. Caso singular en la funci´ on de transferencia. El caso
de los sistemas discretos
Para el caso de los sistemas de tiempo discreto conviene recordar que
La funci´ on de transferencia de un sistema lineal de tiempo discreto
est´ a definida s´ olo si su respuesta a un delta de Kronecker posee transformada
de Fourier. Esto es equivalente a exigir que el sistema tenga s´ olo frecuencias
naturales en el disco unitario cerrado, con la condici´ on que si algunas de
esas frecuencias naturales est´ an sobre la circunferencia unitaria, ellas sean
simples.
Es muy importante notar que el Lema 6.2 en la p´ agina 148, que iguala
H(e

) con la respuesta en frecuencia, est´ a formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
sobre la circunferencia unitaria, aunque sean no repetidas. Veamos a trav´es de
un ejemplo, los resultados err´ oneos que surgen si no somos cuidadosos.
Ejemplo 6.15. Un sistema con entrada u[t] y salida y[t], tiene una ERS:
y[t] −y[t −1] = u[t] (6.160)
Observamos que el sistema tiene s´ olo una frecuencia natural, y ella est´ a ubi-
cada en λ = 1, es decir, se trata de una frecuencia natural sobre la circunferencia
unitaria y de multiplicidad 1.
La respuesta en frecuencia, K(θ) est´ a dada por la ganancia al modo forzante
e
jθt
, y ella resulta de aplicar (3.24) a este caso particular:
K(θ) =
e

1 −e

(6.161)
Suponga que u[t] = a
t
µ[t], 1 > a > 0 y si, err´ oneamente, hacemos H(e

) =
K(θ), entonces y[t] se puede calcular a partir de:
Y (e

) = H(e

)U(e

) =
e

(e

−1)(e

−a)
(6.162)
de donde se obtiene:
y[t] = T
d
−1
_
1
1 −a
_
e

e

−1

e

e

−a
__
=
1
2(1 −a)
_
signo [t] −2a
t
µ[t]
¸
(6.163)
dando origen a una respuesta no causal, ya que la funci´ on signo [t] tiene valor
−1, ∀t < 0.
Para obtener la respuesta correcta, recordemos que la funci´ on de transferen-
cia H(e

) es la transformada de Fourier de la respuesta del sistema a un delta
de Kronecker. Aplicando esta definici´ on a nuestro sistema se llega a:
6.3. LATRANSFORMACI
´
ONDE FOURIER. EL CASODE TIEMPODISCRETO151
H(e

) =
e

e

−1

=−∞
δ(θ −2π) (6.164)
y, usando la periodicidad de la funci´ on e

, se tiene que:
Y (e

) =
1
1 −a
_
e

e

−1

e

e

−a

=−∞
δ(θ −2π)
_
(6.165)
Entonces, la salida se obtiene, por ejemplo, usando Maple :
y[t] = T
d
−1
_
1
 ω( ω +a)
+
π
a
δ(θ)
_
=
1 −a
t
1 −a
µ[t] (6.166)
que es la respuesta correcta.
222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales sobre la circunferencia unitaria, los modos naturales aso-
ciados no decaen, y la transformada de Fourier de cada uno de ellos s´ olo existe
en el l´ımite. Esta condici´ on es acusada por la presencia de deltas de Dirac en
el dominio de la frecuencia θ. As´ı, la funci´ on de transferencia es una funci´ on
racional m´ as uno o varios deltas de Dirac en θ.
La explicaci´ on de esta situaci´ on es an´ aloga a la del caso continuo.
152CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
6.4. Problemas para el lector
Problema 6.1. Determine la transformada de Fourier de las siguientes fun-
ciones, ya sea mediante la defici´ on o usando tablas y transformadas conocidas
(ver Ap´endice C):
1. y(t) = [µ(t +T) −µ(t −T)]t ; T > 0
2. y(t) = (1 −2e
−]t]
)
2
3. y(t) =
1
σ


e

t

2
(Recuerde que
_

−∞
e
−u
2
du =

π)
Problema 6.2. Considere la funci´ on:
y(t) =
_
¸
_
¸
_
4t(t + 1) ; −1 < t < 0
−4t(t −1) ; 0 < t < 1
0 ; [t[ ≥ 1
6.2.1 Grafique la funci´ on.
6.2.2 Determine la transformada de Fourier Y ( ω) de la funci´ on y(t).
6.2.3 ¿Cu´ al es la serie de Fourier exponencial de y(t) consider´ andola solo en
el intervalo [-1,1]?
6.2.4 Grafique por separado la parte real e imaginaria de Y ( ω) y compare con
los coeficientes obtenidos para la serie de Fourier exponencial. Comente.
Problema 6.3. Demuestre que una funci´ on f(t) arbitraria (o de per´ıodo in-
finito) puede expresarse en la forma de Integral de Fourier:
f(t) =
1
π
_

0
[A(ω) cos(ωt) +B(ω) sen(ωt)] dω
en que:
A(ω) =
_

−∞
f(t) cos(ωt)dt
B(ω) =
_

−∞
f(t) sen(ωt)dt
¿C´ omo se reducen las expresiones si f(t) es par o impar?
Problema 6.4. Usando la ecuaci´ on de Euler para exponenciales complejas:
6.4. PROBLEMAS PARA EL LECTOR 153
6.4.1 Demuestre que si y(t) es par, entonces su transformada de Fourier Y ( ω)
es real.
6.4.2 An´ alogamente, demuestre que si y(t) es impar, entonces su transformada
de Fourier Y ( ω) es imaginaria pura.
Problema 6.5. Considere el sistema de segundo orden definido por:
d
2
y(t)
dt
2
+ 100y(t) = 100u(t)
Encuentre la salida del sistema mediante la transformaci´ on de Fourier cuan-
do
6.5.1 u(t) = sen(ω
o
t)µ(t), con condiciones iniciales cero.
6.5.2 u(t) = sen(ω
o
t).
6.5.3 Grafique y compare las soluciones obtenidas en los puntos anteriores
cuando ω
o
,= 10 y cuando ω
o
= 10 . Comente.
Problema 6.6. Suponga que se quiere dise˜ nar un sistema cuya caracter´ıstica
en frecuencia sea:
H( ω) =
_
1 ; [ω[ < ω
c
0 ; [ω[ < 0
Es decir, este sistema act´ ua como filtro ideal ya que permite el paso de
sinusoides de frecuencias menores que ω
c
sin afectarlas, mientras que aquellas
de frecuencias mayores no aparecen en la salida.
6.6.1 Grafique H( ω)
6.6.2 Determine cu´ al debiera ser la respuesta a impulso del sistema.
6.6.3 ¿Qu´e puede comentar respecto del resultado obtenido?
Problema 6.7. Determine la transformada de Fourier discreta delas siguientes
funciones:
y[t] = (t + 1)α
t
µ[t] , con [α[ < 1
y[t] =
2
t
+ 3
t
6
t
µ[t]
y[t] = cos(θ
1
t +φ) , con 0 < θ
1
< 2π
154CAP
´
ITULO6. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER
Problema 6.8. Considere un pulso de tiempo discreto de amplitud A > 0 y
centrado en t = 0, definido por:
y[t] =
_
A ; [t[ ≤ N
0 : [t[ > N
N ∈ Z
+
6.8.1 Grafique el pulso en tiempo discreto para algunos valores de A y N.
6.8.2 Determine la transformada de Fourier discreta de y[t] ( Sugerencia : use
la ecuaci´ on B.2.35).
6.8.3 Grafique la transformada de Fourier discreta para distintos valores de N.
6.8.4 Determine el valor de Y (e
j0
) en funci´ on de N.
6.8.5 Analice qu´e sucede para valores extremos de N, es decir, cuando N = 0
y cuando N →∞.
Problema 6.9. Determine la respuesta a un delta de Kronecker y a un escal´ on
unitario de los sistemas de tiempo discreto dados por sus ERS:
6.9.1 y[t] −y[t −1] = 2u[t −7]; y[−1] = 1
6.9.2 y[t] = u[t −1] −0, 5u[t −2] + 0, 2u[t −3]
6.9.3 y[t] −1, 1y[t −1] + 0, 24y[t −2] = u[t −2]; y[−1] = −1; y[−2] = 1
Problema 6.10. Tenemos un sistema de tiempo discreto el queremos que su
respuesta en frecuencia sea igual a:
H(e

) =
_
1 ; [θ[ < θ
c
0 ; θ
c
< [θ[ ≤ π
6.10.1 Determine su respuesta a un delta de Kronecker.
6.10.2 Determine, si es posible, su respuesta a un escal´ on de tiempo discreto.
Comente.
Laplace
transformadade
Laplace|textbf
sistema!din´ amico
sistema!estable
sistema!inestable
se~ nal!noacotada
se~ nal!detiempocontinuo
Cap´ıtulo 7
An´alisis bajo excitaciones
arbitrarias. La
transformada de Laplace
Entre los m´etodos disponibles para el estudio de los sistemas din´ amicos,
lineales y de tiempo continuo, uno en particular resulta ser especialmente ´ util:
la transformada de Laplace. Las principales ventajas de este m´etodo se pueden
resumir en lo siguiente:
Permite el an´ alisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de se˜ nales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La EDS es transformada en una ecuaci´ on algebraica, que puede ser mane-
jada de manera m´ as simple.
7.1. Definici´ on de la transformada
Considere una se˜ nal de tiempo continuo y(t), definida para 0 ≤ t < ∞.
La transformada de Laplace asociada a y(t), y su transformada inversa est´ an
definidas como:
L¦y(t)¦ = Y (s) =
_

0

e
−st
y(t)dt (7.1)
L
−1
¦Y (s)¦ = y(t) =
1
2πj
_
σ+j∞
σ−j∞
e
st
Y (s)ds (7.2)
155
156CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
transformadadeLaplace!definici´ on
transformadade
Laplace!inversa
transformadade
Laplace!regi´ ondeconvergencia
fraccionesparciales
funci´ ondetransferencia
ecuaci´ ondiferencial!del
sistema
EDS
Y (s) es la transformada de Laplace de y(t). El par transformada y su trans-
formada inversa est´ an est´ an bien definidas si existe σ ∈ R, y una constante
positiva k < ∞ tales que:
[y(t)[ < ke
σt
; ∀t ≥ 0 (7.3)
La regi´ on '¦s¦ ≥ σ se conoce como la regi´ on de convergencia de la
transformada.
Suponemos que el lector ha conocido estas ideas anteriormente en alg´ un
curso de Matem´ aticas, a pesar de lo cual se presenta en el Ap´endice D una
revisi´ on de la transformada de Laplace, sus propiedades y las transformadas
de algunas funciones simples. Tambi´en se incluye una revisi´ on del m´etodo de
fracciones parciales, el cual resulta de utilidad para obtener transformadas de
Laplace inversas para funciones racionales.
En este cap´ıtulo nos concentraremos en esta transformada como herramienta
para el an´ alisis de los sistemas lineales.
7.2. Aplicaci´ on a sistemas lineales: la funci´ on de
transferencia
Como ya hemos visto, una gran cantidad y variedad de sistemas de inter´es,
pueden ser representados mediante un modelo lineal. Como se vio en el Cap´ıtulo
1, esto se consigue linealizando la o las ecuaciones diferenciales que describen el
comportamiento del sistema en el tiempo en torno a un punto de equilibrio o,
m´ as generalmente, en torno a un punto de operaci´ on. Para el caso de sistemas de
una entrada y una salida, el proceso de linealizaci´ on desemboca en la obtenci´ on
de una ecuaci´ on diferencial del sistema (EDS), cuya forma general es:
d
n
y(t)
dt
n
+a
n−1
d
n−1
y(t)
dt
n−1
+. . . +a
0
y(t) = b
m
d
m
dt
m
u(t) +. . . +b
0
u(t) (7.4)
Cuando se aplica transformada de Laplace a la EDS, usando una de la
propiedades vistas en el Ap´endice D, la transformada de la derivada de una
funci´ on es:
L
_
d

y(t)
dt

_
= s

Y (s) −s
−1
y(0

) − −
d
n−1
y(0

)
dt
n−1
(7.5)
Por tanto, si aplicamos esto a la EDS (7.4) tenemos que:
s
n
Y (s) +a
n−1
s
n−1
Y (s) +. . . +a
0
Y (s)
= b
m
s
m
U(s) +. . . +b
0
U(s) +f(s, x
o
) (7.6)
donde f(s, x
o
) es una funci´ on que depende de la variable s y de las n condiciones
iniciales de la salida y(t) y sus derivadas. Es importante destacar que:
7.2. APLICACI
´
ONASISTEMAS LINEALES: LAFUNCI
´
ONDE TRANSFERENCIA157
condicionesiniciales
funci´ ondetransferencia
funci´ on!racional
funci´ onde
transferencia!ceros
ceros
f(s, x
0
) = p(s)
T
x
0
(7.7)
donde p(s) es un vector que contiene polinomios en s y x
0
es un vector que
contiene las condiciones iniciales ya mencionadas. Esta estructura explicita la
linealidad del sistema, puesto que la homogeneidad y superposici´ on respecto de
las condiciones iniciales resulta evidente.
Ahora si suponemos condiciones iniciales iguales a cero, tenemos que:
Y (s) = H(s)U(s) (7.8)
donde se define la funci´ on:
H(s) =
B(s)
A(s)
(7.9)
que se forma con los polinomios que contienen los coeficientes de la ecuaci´ on
(7.4) original:
A(s) = s
n
+a
n−1
s
n−1
+. . . +a
0
(7.10)
B(s) = b
m
s
m
+b
m−1
s
m−1
+. . . +b
0
(7.11)
La funci´ on racional H(s) es la funci´ on de transferencia en el dominio
de Laplace. La representaci´ on (7.9) es muy ´ util para describir caracter´ısticas
y propiedades de un sistema tales como estabilidad y velocidad, adem´ as de
entregar informaci´ on en el momento de dise˜ nar sistemas de control, filtros u
otras aplicaciones.
Ejemplo 7.1. Consideremos un sistema descrito por la ecuaci´ on diferencial:
d
2
y
dt
2
+ 2
d y
dt
= u(t) (7.12)
Su funci´ on de transferencia es:
H(s) =
1
s
2
+ 2s
(7.13)
222
A continuaci´ on definiremos algunos conceptos que se encuentran fuertemente
ligados a la definici´ on de la funci´ on de transferencia de un sistema. Para esto
consideremos su definici´ on dada por las ecuaciones (7.9), (7.10) y (7.11). Por
simplicidad, asumiremos que los polinomios B(s) y A(s) no se hacen cero si-
mult´ aneamente para alg´ un valor de la variable compleja s. As´ı, definimos en-
tonces los siguientes t´erminos:
(i) Las m ra´ıces de la ecuaci´ on B(s) = 0 son los ceros del sistema. Ellos
hacen adem´ as que H(s) = 0.
158CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
funci´ ondetransferencia!polos
polos
funci´ onde
transferencia!multiplicidad
multiplicidad
funci´ onde
transferencia!gradorelativo
gradorelativo
funci´ ondetransferencia!estrictamentepropia
funci´ onde
transferencia!bipropia
funci´ ondetransferencia!propia
funci´ onde
transferencia!impropia
sistema!estable
entrada
salida
respuesta!a impulso
impulso!respuestaa
(ii) Las n ra´ıces de la ecuaci´ on A(s) = 0 son los polos del sistema. Ellos hacen
adem´ as que H(s) →∞.
(iii) Si A(s) = 0 tiene n
k
ra´ıces en s = λ
k
, decimos que el polo λ
k
tiene
multiplicidad n
k
.
(iv) La diferencia de grado entre A(s) y B(s), es decir, m−n se denomina el
grado relativo del sistema.
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica
que el grado relativo del sistema es positivo.
(vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
relativo del sistema es cero.
(vii) Si m ≤ n decimos que el modelo es propio.
(viii) Si m > n decimos que el modelo es impropio, o que tiene grado relativo
negativo.
Estas definiciones nos ayudar´ an a apreciar la forma en que se relaciona la
salida de un sistema con su entrada, tal como pone en evidencia la definici´ on
(7.9), pero la simplicidad reside en que la relaci´ on se establece mediante la
funci´ on racional H(s), es decir, las derivadas han desaparecido. Si bien para
llegar a esta relaci´ on las condiciones iniciales se han supuesto cero, sabemos que
en caso de sistemas estables, el efecto de ´estas desaparece despu´es de un tiempo.
La funci´ on de transferencia de un sistema lineal describe en forma algebraica
sus propiedades de entrada-salida.
En forma similar a aquella que se utiliz´ o en el an´ alisis de Fourier, la funci´ on
de transferencia puede ser definida en base a la respuesta a impulso, con condi-
ciones iguales a cero. Si recordamos como se defini´ o al funci´ on de transferencia
H(s) al aplicar transformada de Laplace a la EDS del sistema definido en (7.4),
podemos escribir la salida del sistema seg´ un la ecuaci´ on (7.8). Se puede apre-
ciar que si a ambos lados de esta expresi´ on, se aplica transformada de Laplace
inversa, tenemos que (vea la Tabla D.1 en la p´ agina 414):
Y (s) = H(s)U(s) ⇐⇒ y(t) = h(t) ∗ u(t) (7.14)
En que:
h(t) = L
−1
¦H(s)¦ (7.15)
Por lo tanto, podemos afirmar que:
7.2. APLICACI
´
ONASISTEMAS LINEALES: LAFUNCI
´
ONDE TRANSFERENCIA159
funci´ ondetransferencia!con
retardo
funci´ on!racional
retardo
La funci´ on de transferencia H(s) de un sistema de tiempo continuo, definida
en (7.9), es igual a la transformada de Laplace de la respuesta h(t) del
sistema a un impulso (Delta de Dirac) en la entrada, cuando las condiciones
iniciales cero.
Aunque en la mayor´ıa de los casos de inter´es, la funci´ on de transferencia es
una funci´ on racional en s. Sin embargo, cuando el sistema tiene un retardo τ,
la expresi´ on general para la funci´ on de transferencia es:
H(s) =
B(s)
A(s)
e
−sτ
(7.16)
La funcion de tranferencia en Matlab puede definirse mediante vectores
con los coeficientes de los polinomios A(s) y B(s), y el comando tf :
Matlab
>> A=[1 3 2],B=[1 1]
A =
1 3 2
B =
1 1
>> H=tf(B,A)
Transfer function:
s + 1
-------------
s^2 + 3 s + 2
O bien, definiendo la variable s:
160CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
deltadeDirac!en
frecuencia Matlab
>> s=tf([1 0],[1])
Transfer function:
s
>> H=(s+1)/(s^2+2*s+1)
Transfer function:
s + 1
-------------
s^2 + 2 s + 1
7.2.1. Funci´ on de transferencia en dominios de Laplace y
Fourier
Cuando el sistema tiene frecuencias naturales en el SPI cerrado, con la re-
stricci´ on que aquellas frecuencias en el eje imaginario sean simples, las funciones
de transferencia en ambos dominios existen. El elemento com´ un es conceptual:
en ambos casos, la funci´ on de transferencia corresponde a la respec-
tiva transformada de la respuesta a impulso con condiciones iniciales
iguales a cero.
La definici´ on y la estructura de H(s) parecen ser id´enticas a la definici´ on y la
estructura de la funci´ on de transferencia en el dominio de Fourier, bastando hac-
er una simple sustituci´ on de s por  ω. Sin embargo, esto no siempre es correcto.
La diferencia es que cuando el sistema tiene frecuencias naturales (simples) en
el eje imaginario, la funci´ on de transferencia en Fourier incluye deltas de Dirac
en frecuencia. Esto se origina en el hecho que la respuesta a impulso del sistema
contiene modos naturales que no decaen y para los cuales la transformada de
Fourier existe s´ olo en el l´ımite. En cambio, para el mismo sistema, la funci´ on de
transferencia en Laplace no contiene impulsos en frecuencia, debido a que esta
transformada est´ a bien definida, bastando escoger '¦s¦ > 0.
Ejemplo 7.2. Consideremos el sistema con la EDS:
d
2
y(t)
dt
2
+a
1
d y(t)
dt
+y(t) = u(t) (7.17)
donde a
1
≥ 0.
La funci´ on de transferencia, en el dominio de Laplace, es:
H
L
(s) =
1
s
2
+a
1
s + 1
; ∀'¦s¦ > 0 (7.18)
En cambio, en el caso de Fourier, debemos distinguir dos casos.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCAL
´
ON. 161
impulso!respuestaa
escal´ on!respuestaa
respuesta!aimpulso
respuesta!aescal´ on
modos!naturales
(i) Caso a
1
> 0 :
En este caso, las frecuencias naturales est´ an en el SPI abierto, por lo
tanto, los modos naturales son absolutamente integrables y la funci´ on de
transferencia en el dominio de la transformaci´ on de Fourier es:
H
F
( ω) =
1
( ω)
2
+a
1
 ω + 1
(7.19)
En este caso:
H
F
( ω) = H
L
(s)[
s= ω
(7.20)
(ii) Caso a
1
= 0 :
En este caso, las frecuencias naturales est´ an sobre el eje imaginario y los
modos naturales combinados corresponden a una sinusoide. M´ as espec´ıfi-
camente, la respuesta a impulso, con condiciones iniciales iguales a cero
es:
h(t) = sen(t)µ(t) (7.21)
En consecuencia (vea la Tabla C.2 en la p´ agina 389, con ω
o
= 1) la funci´ on
de transferencia en el dominio de la transformaci´ on de Fourier es:
H
F
( ω) =

2
(δ(ω + 1) −δ(ω −1)) +
1
( ω)
2
+ 1
(7.22)
Se observa que, en este caso, no se cumple (7.20).
222
La relaci´ on entre transformada de Fourier y transformada de Laplace puede
ser resumida en la siguiente afirmaci´ on:
Las transformaciones de Laplace y Fourier son equivalentes, via la relaci´ on
s =  ω, en aquellos casos en que la transformada de Laplace existe para
'¦s¦ > σ, donde σ < 0.
7.3. Respuesta a impulso y respuesta a escal´ on.
Como ya hemos visto, la funci´ on de transferencia est´ a asociada a la respuesta
a impulso del sistema. Por otro lado sabemos que si se aplica un impulso a la
entrada, la respuesta contiene solamente los modos naturales del sistema; esto
nos permite estudiar su comportamiento natural, que es independiente de la
162CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
valorfinal
se˜ nal de entrada (caracter´ısticas del transiente, velocidad de respuesta, etc.), a
partir del an´ alisis de la funci´ on H(s).
Debido a la idealizaci´ on impl´ıcita en la definici´ on de un impulso es mucho
m´ as frecuente estudiar la din´ amica natural de un sistema con la ayuda de la
respuesta a escal´ on, es decir, cuando U(s) = 1/s.
La definici´ on (7.9) nos permite expresar la respuesta a escal´ on unitario
del sistema como:
Y (s) = H(s)
1
s
(7.23)
Lo cual, suponiendo que el sistema no tiene polos en el origen,
corresponde a:
y(t) = y

+ modos naturales del sistema (7.24)
donde y

= H(0), en virtud del Teorema del Valor Final (ver Teorema D.1 en
la p´ agina 410). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario est´ a dada por la constante y

. Note que si H(s) tiene uno o m´ as
ceros en s = 0, entonces y

= 0.
Ejemplo 7.3. Consideremos el sistema definido por su EDS:
d
2
y(t)
dt
2
+ 5
d y(t)
dt
+ 4y(t) = 2u(t) (7.25)
Si aplicamos transformada de Laplace a ambos lados, suponiendo condiciones
iniciales iguales a cero, podemos obtener la funci´ on de transferencia del sistema:
s
2
Y (s) + 5sY (s) + 4Y (s) = 2U(s) (7.26)
⇒H(s) =
Y (s)
U(s)
=
2
s
2
+ 5s + 4
(7.27)
La respuesta del sistema cuando u(t) es un Delta de Dirac se obtiene direc-
tamente de H(s)
U(s) = L¦δ(t)¦ = 1 ⇒ Y (s) = H(s) =
2
s
2
+ 5s + 4
(7.28)
Donde podemos aplicar transformada inversa separando en fracciones par-
ciales
1
, o bien con ayuda de Maple :
1
Este m´etodo se detalla en el Ap´endice D.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCAL
´
ON. 163
Maple
>with(inttrans):
>U(s):=laplace(Dirac(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>Y(s):=convert(Y(s),parfrac,s);
>y(t):=invlaplace(Y(s),s,t);
U(s) = 1 (7.29)
Y (s) =
2
s
2
+ 5s + 4
(7.30)
Y (s) =
2
3
_
1
s + 1
+
−1
s + 4
_
(7.31)
y(t) =
2
3
e
−t

2
3
e
−4t
(7.32)
La respuesta a escal´ on unitario se puede obtener de manera similar
U(s) = L¦µ(t)¦ =
1
s
⇒ Y (s) =
2
s
2
+ 5s + 4

1
s
(7.33)
Donde se aplica transformada inversa:
Maple
>with(inttrans):
>U(s):=laplace(Heaviside(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>y(t):=invlaplace(Y(s),s,t);
U(s) =
1
s
(7.34)
Y (s) =
2
s(s + 1)(s + 4)
(7.35)
y(t) =
1
2

2
3
e
−t
+
1
6
e
−4t
(7.36)
En la Figura 7.1 se puede apreciar tanto la respuesta a escal´ on reci´en obteni-
da as´ı como la respuesta impulso. Estas se generaron en Matlab, con los co-
mandos impulse y step, que usan como argumento el sistema definido mediante
su funcion de transferencia:
164CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
Matlab
>>G=tf([2],[1 5 4]);
>>subplot(2,1,1),impulse(G);
>>subplot(2,1,2),step(G);
Time (sec.)
A
m
p
l
i
t
u
d
e
Impulse Response
0 1 2 3 4 5 6
0
0.1
0.2
0.3
0.4

Time (sec.)
A
m
p
l
i
t
u
d
e
Step Response
0 1 2 3 4 5 6
0
0.1
0.2
0.3
0.4
0.5

Figura 7.1: Respuestas a impulso y a escal´ on en Ejemplo 7.3
222
Es ´ util definir tambi´en un conjunto de par´ ametros que describen ciertas
propiedades de la din´ amica del sistema. Para identificar estos par´ ametros a
definir consideremos la funci´ on de transferencia dada por:
G(s) = 9
−s + 1
s
2
+ 4s + 9
(7.37)
La respuesta a escal´ on del sistema se muestra en la Figura 7.2. Entonces
podemos definir los siguientes ´ındices:
Respuesta estacionaria, y

: el valor final de la respuesta a escal´ on, siempre
y cuando el sistema tiene sus polos en el SPI abierto.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCAL
´
ON. 165
t
p
t
u

k
r
y

y

−δ
−M
u

t
r

Tiempo
t
s

0
y

+M
p

y


y


Figura 7.2:
´
Indices definidos en la respuesta a escalon
Tiempo de Subida (Rise time), t
r
: el instante de tiempo en que la res-
puesta a escal´ on alcanza por primera vez el valor de la respuesta esta-
cionaria y

.
2
Sobre-respuesta (Overshoot), M
p
: el valor m´ aximo que alcanza la respues-
ta a escal´ on, usualmente expresado como el porcentaje en que se sobrepasa
la respuesta estacionaria y

.
M´axima contra-respuesta (Undershoot), M
u
: el m´ aximo (en valor abso-
luto) que la respuesta a escal´ on alcanza bajo el cero.
Tiempo de asentamiento (Settling time), t
s
: el tiempo luego del cual la
respuesta a escal´ on queda confinada a una banda de desviaci´ on ±δ, alrede-
dor del respuesta estacionaria. Esta deviaci´ on, δ, se define generalmente
como un porcentaje de y

, del 2 % o 5 %.
Para el ejemplo en particular, definido en la ecuaci´ on (7.37) y cuya respuesta
a escal´ on se muestra en la Figura 7.2, el valor de los ´ındices definidos se muestran
en la Tabla 7.1.
3
2
Esta definici´ on var´ıa de autor a autor, por tanto debe tenerse claro de qu´e se est´ a hablando
al utilizarla.
3
Note que para este ejemplo en particular, hemos elegido un valor inusualmente grande
para δ, para una mejor visualizaci´ on.
166CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
Indice Definici´ on Valor en el ejemplo
y

respuesta estacionaria 1
t
r
tiempo de subida 1.0
M
p
sobre-respuesta 0.5
M
u
m´ ax. contra-respuesta 1.5
t
s
tiempo de asentamiento 1.8
Cuadro 7.1:
´
Indices de la respuesta a escal´ on
7.4. Respuesta a condiciones iniciales y se˜ nales
arbitrarias.
De la misma manera que en la secci´ on precedente se obtuvo las respuestas
a impulso y a escal´ on del sistema, la transformada de Laplace permite obtener
la respuesta del sistema cuando la entrada en un tipo m´ as general de se˜ nales.
Sin embargo, la ventaja principal que esta transformada, a diferencia de la
transformada de Fourier, permite inclu´ır el efecto de las condiciones iniciales.
Veamos para esto el siguiente ejemplo:
Ejemplo 7.4. Consideremos el sistema definido por su EDS:
d
2
y(t)
dt
2
+
d y(t)
dt
+y(t) = u(t) (7.38)
Obtengamos primero la salida del sistema cuando la entrada u(t) es cero, y
tenemos condiciones iniciales y(0

) = 1 e y
t
(0

) = 1. Si aplicamos transfor-
mada de Laplace, recordando la propiedad (7.5), tenemos que:
s
2
Y (s) −sy(0

) −y
t
(0

) +sY (s) −y(0

) +Y (s) = 0 (7.39)
s
2
Y (s) −s −1 +sY (s) −1 +Y (s) = 0 (7.40)
Y (s)(s
2
+s + 1) = s + 2 (7.41)
Y (s) =
s + 2
s
2
+s + 1
(7.42)
Donde, para aplicar la inversa, podemos observar que la transformada que
aparece no puede separarse directamente en fracciones parciales, pues sus polos
son complejos, pero si pueden llevarse a la forma de la transformada del seno
y del cosenos con un corrimiento en s. Este corrimiento corresponde a una
exponencial en el tiempo (vea (D.26) en el Ap´endice D):
7.4. RESPUESTAACONDICIONES INICIALES YSE
˜
NALES ARBITRARIAS.167
Y (s) =
s + 2
(s +
1
2
)
2
+
3
4
(7.43)
=
s +
1
2
(s +
1
2
)
2
+
3
4
+

3

3
2
(s +
1
2
)
2
+
3
4
(7.44)
Por tanto, la respuesta a las condiciones iniciales dadas es:
y(t) = e

1
2
t
cos
_

3
2
t
_
+

3 e

1
2
t
sen
_

3
2
t
_
(7.45)
En la Figura 7.3 se puede apreciar el punto de partida y la pendiente inicial
de la se˜ nal y(t).
0 1 2 3 4 5 6 7 8 9 10
0
0.5
1
t [seg]
y
(
t
)
Figura 7.3: Respuesta a condiciones iniciales para el ejemplo 7.4
Es importante recalcar en este ejemplo que las condiciones iniciales que se
insertan en los c´ alculos al aplicar la transformada de Laplace corresponden a
las de la se˜ nal en t = 0

. Es decir, son los valores de la funci´ on y(t) y de su
derivada justo antes que el sistema comience a evolucionar bajo el efecto de
la entrada (que, en el ejemplo previo, es cero). Este alcance es importante pues,
en ciertos casos, se puede producir una discontinuidad en la salida del sistema
en el instante t = 0, es decir, y(0
+
) ,= y(0
+
). Veamos esto en un ejemplo.
Ejemplo 7.5. Considere la red el´ectrica de la Figura 7.4 en que se conecta la
bater´ıa de 1[V] en t = 0, y todas las condiciones iniciales son cero.
Por ley de voltajes de Kirchoff tenemos:
v
f
(t) = v
R
(t) +v
C
(t) (7.46)
µ(t) = Ri(t) +
1
C
_
t
−∞
i(τ)dτ (7.47)
Derivando a ambos lados y aplicando la transformada de Laplace, con condi-
ci´ on inicial cero:
168CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
valorinicial R
v
f
(t)
+
i(t)
C v
c
(t)
Figura 7.4: Circuito RC
d µ(t)
dt
= R
d i(t)
dt
+
1
C
i(t) (7.48)
s
1
s
= R
_
sI(s) −i(0

)
¸
+
1
C
I(s) (7.49)
Despejando se obtiene:
I(s) =
C
s RC + 1
(7.50)
Si aplicamos el Teorema del Valor Inicial (vea Ap´endice D), tenemos que:
i(0
+
) = l´ım
s→∞
sI(s) = l´ım
s→∞
s C
s RC + 1
=
1
R
(7.51)
Evidentemente esta es diferente a la corriente inicial, dada en t = 0

. Esto
se comprueba observando que la transformada inversa de I(s) es discontinua en
t = 0:
i(t) = L
−1
¦I(s)¦ = L
−1
_
1/R
s + 1/RC
_
=
1
R
e
−t/RC
µ(t) (7.52)
222
Consideremos ahora el caso en que la entrada es una se˜ nal arbitraria.
Ejemplo 7.6. Consideremos el mismo sistema del Ejemplo 7.5, pero en que
ahora la entrada es un pulso definido como:
u(t) =
_
1 ; 0 ≤ t ≤ 10
0 ; t > 10
(7.53)
Las condiciones iniciales son iguales a cero, por simplicidad. Note que no
habr´ıa problemas en considerar el efecto de ´estas, ya sea incluy´endolas en el
desarrollo mediante transformada de Laplace, o bien, dada la linealidad del sis-
tema, se calculando su efecto en la salida por separado y sumandolo al efecto de
la se˜ nal de entrada.
La funci´ on de transferencia del sistema, si se aplica transforma de Laplace,
es:
7.4. RESPUESTAACONDICIONES INICIALES YSE
˜
NALES ARBITRARIAS.169
H(s) =
Y (s)
U(s)
=
1
s
2
+s + 1
(7.54)
La transformda de Laplace del pulso u(t) puede obtenerse sin problema, ya
que esta funci´ on se expresa en t´erminos de escalones y se puede utilizar la
propiedad de corrimiento temporal, que se traduce en una exponencial en s (vea
(D.23) en el Ap´endice D):
L¦f(t −t
0
)µ(t −t
0
)¦ = e
−st
0
F(s)
Por tanto:
u(t) = µ(t) −µ(t −10) ⇒ U(s) =
1
s
−e
−10s
1
s
(7.55)
Luego, la transformada de la salida es:
Y (s) = H(s)U(s) =
1 −e
−10s
s(s
2
+s + 1)
(7.56)
Note que para obtener la inversa, dado que la exponencial s´ olo representa un
corrimiento en el tiempo, podemos concentrarnos s´ olo en la parte racional de
Y (s), para luego aplicarle dicha traslaci´ on temporal. Es decir, consideremos:
F(s) =
1
s(s
2
+s + 1)
=
1
s

s + 1
s
2
+s + 1
=
1
s

s +
1
2
(s +
1
2
)
2
+
3
4

1

3

3
2
(s +
1
2
)
2
+
3
4
(7.57)
Donde se observa que tenemos la forma de la transformada de un escal´ on,
del seno y del coseno, ´estas ´ ultimas con un corrimiento en la variable s. Este
corrimiento en s corresponde a una exponencial en el tiempo (Ap´endice D), por
lo tanto:
f(t) =
_
1 −e

1
2
t
_
cos
_

3
2
t
_
+
1

3
sen
_

3
2
t
_
__
µ(t) (7.58)
Luego la salida es:
y(t) = L
−1
_
(1 −e
−10s
)F(s)
_
= f(t) −f(t −10) (7.59)
Es decir:
y(t) =
_
1 −e

1
2
t
_
cos
_

3
2
t
_
+
1

3
sen
_

3
2
t
_
__
µ(t)

_
1 −e

1
2
(t−10)
_
cos
_

3
2
(t −10)
_
+
1

3
sen
_

3
2
(t −10)
_
__
µ(t −10)
(7.60)
En la Figura 7.5 se muestra el pulso de entrada u(t) y la salida del sistema,
y(t), ante esta excitaci´ on.
170CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
0 2 4 6 8 10 12 14 16 18 20
−0.5
0
0.5
1
1.5
t [seg]
u
(
t
)



y
(
t
)
Figura 7.5: Pulso de entrada y respuesta del sistema del ejemplo 7.6.
Para finalizar, veamos un caso en que la transformada de Laplace permite,
de manera similar a la transformada de Fourier, analizar la respuesta de un
sistema a una se˜ nal sinusoidal.
Ejemplo 7.7. Consideremos nuevamente el sistema del Ejemplo 7.4 definido
por su EDS:
d
2
y(t)
dt
2
+
d y(t)
dt
+y(t) = u(t) (7.61)
Supongamos que como entrada al sistema se elige una se˜ nal sinusoidal de
frecuencia ω, por ejemplo:
u(t) = cos(ωt) (7.62)
Con esto y con ayuda de Maple podemos llegar de manera directa a una
expresi´ on para la transformada de Laplace de la salida y aplicarle transformaci´ on
inversa:
Maple
>with(inttrans):
>assume(omega>0):
>U(s):=laplace(cos(omega*t),t,s);
>H(s):=1/(s^2+s+1);
>Y(s):=H(s)*U(s);
>y(t):=invlaplace(Y(s),s,t);
7.5. ESTABILIDAD 171
respuestaenfrecuencia
estabilidad
U(s) =
s
s
2

2
(7.63)
H(s) =
1
s
2
+s + 1
(7.64)
Y (s) =
s
s
2

2

1
s
2
+s + 1
(7.65)
y(t) =
1 −ω
2
−ω
2
+ 1 +ω
4
cos(ωt) +
ω
−ω
2
+ 1 +ω
4
sen(ωt) +¦modos naturales¦
(7.66)
Los modos naturales del sistema decaen a cero cuando t → ∞, por tanto
podemos concentrarnos s´ olo en la componente particular de la salida. Las com-
ponentes seno y coseno pueden combinarse en un solo t´ermino:
y(t) = A(ω) cos (ωt +φ(ω)) +¦modos naturales¦ (7.67)
En que A(ω) y φ(ω) son la amplitud y ´ angulo de desfase, respectivemente
definidos por:
A(ω) =
1

−ω
2
+ 1 +ω
4
(7.68)
φ(ω) = −arctan
_
−ω
1 −ω
2
_
(7.69)
En estas expresiones se aprecia como la amplitud y la fase de la se˜ nal de
salida dependen de la frecuencia ω, es decir, corresponden a la respuesta en
frecuencia del sistema. Esto se grafica en la Figura 7.6, con los comandos de
Matlab :
Matlab
>>H=tf(1,[1 1 1]); w=[0:0.01:5];
>>h=freqresp(H,w);hw=h(:);
>>subplot(2,1,1);plot(w, abs(hw));
>>subplot(2,1,2);plot(w, unwrap(angle(hw))*180/pi);
222
7.5. Estabilidad
Hasta aqu´ı hemos visto que la respuesta de un sistema que tiene una funci´ on
de transferencia H(s) es de la forma:
172CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
multiplicidad!polos
l´ ımitedeestabilidad
SPI
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
0
0.2
0.4
0.6
0.8
1
1.2
1.4
M
a
g
n
i
t
u
d
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
−200
−150
−100
−50
0
F
a
s
e
Frecuencia [rad/s]
Figura 7.6: Magnitud y fase de la respuesta en frecuencia del sistema en Ejemplo
7.7.
Y (s) = H(s)U(s) +
p

k=1
n
k

i=1
β
ki
(s −λ
k
)
i
(7.70)
Donde el valor de cada β
ki
depende de las condiciones iniciales, y donde
hemos asumido que cada polo ubicado en s = λ
k
, tiene multiplicidad n
k
. Esta
suposici´ on implica a su vez que n
1
+n
2
+. . . +n
p
= n.
Recordando la definici´ on de estabilidad, un sistema es estable si cualquier
entrada acotada produce una salida tambi´en acotada, para cualquier condici´ on
inicial acotada. Si observamos la ecuaci´ on (7.70) podemos afirmar que la condi-
ci´ on necesaria y suficiente para que el sistema sea estable es que los polos de
´este, en el denominador de las fracciones del segundo t´ermino de la ecuaci´ on,
den origen a se˜ nales que decaigan exponencialmente. Esto se traduce en que los
polos del sistema deben tener parte real estrictamente negativa, es decir, deben
estar ubicados sobre el semiplano izquierdo (SPI) abierto del plano com-
plejo s . Es decir, para sistemas continuos el l´ımite de estabilidad en un plano
complejo s en que se ubican sus polos es el eje imaginario .
Ejemplo 7.8. Consideremos el sistema del ejemplo 7.1. Los polos de su funci´ on
de transferencia est´ an ubicados en s = −2 y s = 0. Estos no est´ an en el SPI
abierto (el 0 est´ a en el SPI cerrado). Por tanto el sistema no es estable. Se
7.5. ESTABILIDAD 173
Hurwitz!polinomio
deja al lector el verificar, usando la transformada de Laplace, que una entrada
constante (diferente de cero) produce una salida que crece indefinidamente.
222
7.5.1. An´alisis de polinomios
La discusi´ on anterior pone de manifiesto la importancia de conocer la ubi-
caci´ on de los polos de un sistema, para establecer si se trata o no de un sis-
tema estable. Sin embargo, el determinar la ubicaci´ on exacta de las ra´ıces de la
ecuaci´ on:
A(s) = s
n
+a
n−1
s
n−1
+. . . +a
0
= 0 (7.71)
puede ser una tarea bastante engorrosa cuando n ≥ 3. Por esto en el an´ alisis del
polinomio A(s), m´ as que determinar exactamente sus ra´ıces, lo que nos interesa
es poder asegurar si ´estas tienen o no parte real estrictamente negativa. Para
esto, consideremos el polinomio p(s) definido como:
p(s) = s
n
+a
n−1
s
n−1
+. . . +a
1
s +a
0
(7.72)
donde a
i
∈ R.
El problema a estudiar se refiere a determinar si este polinomio tiene o no
todas sus ra´ıces con parte real estrictamente negativa, o de manera equivalente,
si tiene o no ra´ıces con parte real mayor o igual que cero. La idea puede nat-
uralmente ser resuelta calculando las n ra´ıces de p(s). Sin embargo en muchas
aplicaciones resulta de especial inter´es estudiar la relaci´ on entre los coeficientes
del polinomio con la ubicaci´ on de sus ra´ıces.
Los polinomios que tienen todas sus ra´ıces en el semiplano izquierdo cerrado
se conocen como polinomios Hurwitz. Si sus ra´ıces tienen parte real estric-
tamente negativa, es decir, se ubican sobre el SPI abierto, los denominaremos
estrictamente Hurwitz .
De la ecuaci´ on (7.72) podemos observar interesantes propiedades que por
supuesto son v´ alidas para los polinomios en general. Las que nos interesan en
este caso son aquellas que nos entregan informaci´ on sobre el signo de la parte
real de las ra´ıces, como las que se detallan a continuaci´ on:
Propiedad 1 El coeficiente a
n−1
cumple con:
a
n−1
= −
n

i=1
λ
i
(7.73)
donde λ
1
, λ
2
, . . . λ
n
son las ra´ıces de p(s).
Esta propiedad es directa de notar que el polinomio p(s) puede escribirse
como:
p(s) =
n

i=1
(s −λ
i
) (7.74)
174CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
entonces, al expandir el producto (7.74) y observar el coeficiente que acom-
pa˜ na a la potencia (n −1)-´esima de s, se obtiene (7.73).
Propiedad 2 El coeficiente a
0
cumple con:
a
0
= (−1)
n
n

i=1
λ
i
(7.75)
Esta propiedad tambi´en se obtiene de expandir el producto (7.74) y ob-
servando el t´ermino constante.
Propiedad 3 Si todas las ra´ıces de p(s) tienen parte real negativa, entonces es
necesario que a
i
> 0, ∀i ∈ ¦0, 1, . . . , n −1¦.
Para demostrar esta propiedad procedemos de la siguiente forma:
a) Las ra´ıces de p(s) pueden ser reales o complejas, y si complejas deben
aparecer en pares conjugados (dado que p(s) es un polinomio con
coeficientes reales).
b) En base a lo anterior, y sin p´erdida de generalidad, podemos suponer
que existen n
1
ra´ıces reales y n
2
pares de ra´ıces complejas. Por lo
tanto n
1
+ 2n
2
= n.
c) Si todas las ra´ıces tienen parte real negativa, entonces se pueden ex-
presar como:
λ
i
= −[α
i
[ i = 1, 2, . . . , n
1
(7.76)
λ
n
1
+i
= λ

n
1
+n
2
+i
= −[σ
i
[ +jω
i
i = 1, 2, . . . , n
2
(7.77)
d) De esta forma, tenemos que
p(s) =
n
1

i=1
(s +[α
i
[)
n
2

l=1
(s +[σ
l
[)
2

2
l
(7.78)
donde, la segunda productoria ha agrupado, en factores cuadr´ aticos,
los pares conjugados.
e) De (7.78) se observa que p(s) corresponde al producto de polinomios de
primer y segundo orden, los que tienen todos sus coeficientes reales
y positivos. Como los coeficientes de p(s) son suma de productos de
los coeficientes de estos polinomios de primer y segundo orden, la
propiedad queda demostrada.
Note que esta propiedad es necesaria para que p(s) sea un polinomio estri-
camente Hurwitz, pero no suficiente, excepto en el caso en que n = 1
y n = 2.
Propiedad 4 Si alguno de los coeficientes es negativo o cero, entonces una
o m´ as ra´ıces de p(s) tiene parte real negativa o cero. Esta propiedad se
deduce directamente de la propiedad anterior.
7.5. ESTABILIDAD 175
Routh!algoritmo
Adem´ as de los criterios que nos entregan las propiedades anteriores, uno de
los m´etodos cl´ asicos para determinar la naturaleza Hurwitz de un polinomio es
el algoritmo de Routh, tambi´en conocido como algoritmo o criterio de Routh-
Hurwitz, que a continuaci´ on se explica.
Consideremos un polinomio p(s) de grado n, definido como
p(s) =
n

i=0
a
i
s
i
(7.79)
s
n
γ
0,1
γ
0,2
γ
0,3
γ
0,4
. . .
s
n−1
γ
1,1
γ
1,2
γ
1,3
γ
1,4
. . .
s
n−2
γ
2,1
γ
2,2
γ
2,3
γ
2,4
. . .
s
n−3
γ
3,1
γ
3,2
γ
3,3
γ
3,4
. . .
s
n−4
γ
4,1
γ
4,2
γ
4,,3
γ
4,4
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
s
2
γ
n−2,1
γ
n−2,2
s
1
γ
n−1,1
s
0
γ
n,1
Cuadro 7.2: Arreglo de Routh
El algoritmo de Routh se basa en la construcci´ on del arreglo num´erico que se
muestra en la Tabla 7.2. donde los t´erminos de las dos primeras filas se calculan
seg´ un:
γ
0,i
= a
n+2−2i
; i = 1, 2, . . . , m
0
(7.80)
γ
1,i
= a
n+1−2i
; i = 1, 2, . . . , m
1
(7.81)
con m
0
= (n + 2)/2 y m
1
= m
0
−1 para n par y m
1
= m
0
para n impar.
Mientras que los t´erminos de la tercera fila en adelante se calculan seg´ un
γ
k,j
=
γ
k−1,1
γ
k−2,j+1
−γ
k−2,1
γ
k−1,j+1
γ
k−1,1
; k = 2, . . . , n j = 1, 2, . . . , m
j
(7.82)
donde m
j
= m´ ax¦m
j−1
, m
j−2
¦ − 1, mientras que se asigna valor cero al coefi-
ciente γ
k−1,j+1
, cuando no est´ a definido en el arreglo de Routh 7.2.
Una vez constru´ıdo el arreglo de Routh podemos aplicar el siguiente resul-
tado:
176CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
Dado un polinomio p(s) como el definido en (7.79) y el arreglo asociado a
´el 7.2, entonces el n´ umero de ra´ıces de p(s) con parte real mayor que cero
es igual a n´ umero de cambios de signo en la primera columna del arreglo.
Ejemplo 7.9. Para ilustrar el uso del algoritmo de Routh-Hurwitz consideremos
el siguiente sistema:
d
3
y(t)
dt
3
+
d
2
y(t)
dt
2
+ 2
d y(t)
dt
+ 3y(t) = u(t) (7.83)
Su funci´ on de transferencia est´ a dada por:
H(s) =
Y (s)
U(s)
=
1
s
3
+s
2
+ 2s + 3
(7.84)
Por tanto, para la estabilidad debemos analizar las ra´ıces del polinomio de-
nominador:
p(s) = s
3
+s
2
+ 2s + 3 (7.85)
El arreglo de Routh en este caso es:
s
3
1 2
s
2
1 3
s
1 2−3
1
= −1 0
s
0
3 0
Donde se observa de inmediato que en la primera columna aparece un −1,
por tanto existen ra´ıces con parte real positiva. Lo que se puede confirmar, por
ejemplo, con ayuda de Matlab. Este permite obtener las ra´ıces de un polinomio
dados sus coeficientes, mediante el comando roots :
Matlab
>> roots([1 1 2 3])
ans =
0.1378 + 1.5273i
0.1378 - 1.5273i
-1.2757
222
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 177
funci´ ondetransferencia!gradorelativo
fasem´ ınima
ceros!fasenom´ ınima
funci´ ondetransferencia!estable
polos
fraccionesparciales
7.6. Polos, ceros y la respuesta temporal
A continuaci´ on examinaremos algunas propiedades fundamentales de los po-
los y ceros de la funci´ on de transferencia de un sistema, y su influencia sobre
las caracter´ısticas de la respuesta de un sistema lineal.
Consideremos una funci´ on de transferencia de la forma general:
H(s) = K

m
i=1
(s −β
i
)

n
l=1
(s −α
l
)
(7.86)
donde α
l
∈ C y β
i
∈ C. Si suponemos que no hay valores de l y de i tales que
α
l
= β
i
entonces, β
1
, β
2
, . . . , β
m
and α
1
, α
2
, . . . , α
n
son los ceros y los polos de
la funci´ on de transferencia, respectivamente. El grado relativo, antes definido es
n
r
Z
= n −m.
Estaremos particularmente interesados en aquellos ceros ubicados en el eje
imaginario o en su cercan´ıa, y en aquellos polos ubicados en el semiplano derecho.
Los polos y ceros ubicados en estas regiones juegan un rol fundamental en la
din´ amica del sistema.
Una clase especial de funci´ on de transferencia es aquella que tiene todos sus
ceros y sus polos en el semiplano izquierdo (SPI) del plano complejo s . Tradi-
cionalmente estas se denominan funciones de transferencia de fase m´ınima.
Sin embargo, de aqu´ı en adelante usaremos este nombre para referirnos simple-
mente a funciones de transferencia sin ceros en el semiplano derecho (SPD),
que tengan o no polos en ´el. Diremos que un cero tiene fase no m´ınima si se
encuentra ubicado en el SPD cerrado, de otra forma se denominar´ a cero de fase
m´ınima. Si hablamos de una funci´ on de transferencia estable nos referimos
a que todos sus polos se ubican sobre el SPI abierto; si decimos que inestable, es
porque al menos uno de sus polos se encuentra en el SPD cerrado. Los polos en
si mismos tambi´en se pueden denominar estables o inestables, si se encuentran
dentro o fuera del SPI abierto,respectivamente
4
.
A continuaci´ on examinaremos la influencia sobre la respuesta transiente de
un sistema de los polos y ceros de su funci´ on de transferencia.
7.6.1. Polos
Como el lector recordar´ a de sus cursos de matem´ aticas, una funci´ on racional
siempre puede descomponerse en fracciones parciales, tal es el caso tambi´en de
la funci´ on de transferencia de un sistema en la variable s. Cada uno de los
t´erminos de esta expansi´ on contiene ya sea un polo real simple, un par de polos
complejos conjugados o m´ ultiples combinaciones de polos repetidos. Por tanto,
para conocer el efecto de los polos en la respuesta transiente de un sistema
basta conocer el efecto ocasionado por los polos de primer y segundo orden y
su interacci´ on.
4
En ocasiones, por abuso de lenguaje, los ceros de fase no m´ınima tambi´es se les denomina
ceros inestables, dado que se encuantran al la regi´ on del plano s en que los polos son inestables.
178CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
polos!r´ apidos
polos!dominantes
polos!lentos
Un polo de primer orden contribuye a la descomposici´ on en fracciones par-
ciales, en general, con un t´ermino de la forma:
H
1
(s) =
K
1
τ
1
s + 1
(7.87)
Mientras que un polo de segundo orden contribuye a la expansi´ on con un
t´ermino:
H
2
(s) =
K
2
_
s
ω
n
_
2
+ 2ψ
_
s
ω
n
_
+ 1
(7.88)
Cada polo genera un t´ermino espec´ıfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos est´ an presentes tambi´en en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicaci´ on de ´este sobre el plano complejo s , exactamente equivalente a la
ubicaci´ on de cada frecuencia natural λ sobre un plano complejo, como se vi´ o en el
Cap´ıtulo 3 3. Para ilustrar esto podemos apreciar en la Figura 7.7 las diferentes
respuestas a impulso de un sistema que tiene por funci´ on de transferencia:
H
1
(s) =
1
s −p
(7.89)
para los polos ubicados sobre el eje real, y
H
2
(s) =
1
_
s −(a +bj)
__
s −(a −bj)
_ (7.90)
para los polos complejos, que aparecen emparejados con su conjugado.
Tanto la ubicaci´ on en el plano complejo de los polos de un sistema, como las
caracter´ısticas por esta determinada, est´ an en directa relaci´ on con las frecuencias
naturales que se pueden obtener a partir de la EDS del sistema.
En virtud de estas analog´ıas es que nos referiremos, en general, como polos
r´ apidos a aquellos que se encuentran m´ as alejados del l´ımite de estabilidad que
los dem´ as polos del sistema. Esto es equivalente que considerar que la respuesta
transiente asociada a estos polos desaparece m´ as r´ apido que aquella asociada
a los otros polos, tal como puede apreciarse en la Figura 7.7 al comparar la
respuesta a impulso de un sistema con un polo en p
2
= −4 con las dem´ as.
Por otro lado llamaremos polos dominantes o polos lentos a aquellos que se
encuentran en el SPI abierto, pero m´ as cercanos al l´ımite de estabilidad que el
resto de los polos de sistema. Esto equivale a decir que el transiente asociado
a los polos dominantes decae m´ as lento que los dem´ as modos naturales, como
tambi´en puede apreciarse en la figura 7.7, para el polo en p
1
.
Por ejemplo, si tenemos un sistema cuyos polos est´ an ubicados en (−1; −2±
j6; −4; −5±j3), podemos decir que el polo dominante es −1 y los polos r´ apidos
son los que se encuentran en −5 ±j3.
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 179
p
1
p
0
p
2
p
3
p
4
s
Figura 7.7: Respuesta a impulso de diferentes sistemas de acuerdo a la ubicaci´ on
de sus polos en el plano complejo
180CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
ceros
controlabilidad
observabilidad
7.6.2. Ceros
En general, el efecto de la ubicaci´ on de los polos en la din´ amica de un
sistema puede entenderse sin demasiada dificultad dada su directa relaci´ on con
la estabilidad y las caracter´ısticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha m´ as
informaci´ on que la aqu´ı detallada.
Por el contrario, el efecto de los ceros en el an´ alisis del comportamiento de
un sistema a menudo ha sido subestimado. Sin embargo, en los ´ ultimos a˜ nos se
ha retomado el estudio del efecto de los ceros sobre la respuesta de un sistema,
que ahora son reconocidos por su importancia, por ejemplo, al definir criterios
de dise˜ no de sistemas de control.
Es asi como, mientras que los polos de un sistema est´ an asociados a la
presencia de sus modos naturales aislados, los ceros reflejan de alg´ un modo la
interacci´ on entre ´estos, por ejemplo, en el caso en que la salida de un sistema
est´ a formada por la suma de modos naturales diferentes. Adem´ as, a pesar que
la ubicaci´ on de los polos determina los modos naturales de un sistema, es la
ubicaci´ on de los ceros la que determina la proporci´ on en que los modos aparecen
combinados en la salida. En estas combinaciones los modos naturales toman
diferente fuerza, pudiendo ser su efecto, en algunos casos, casi imperceptible.
De hecho, la ubicaci´ on relativa de polos y ceros tiene directa relaci´ on con los
conceptos de observabilidad y controlabilidad, como se detalla en el Cap´ıtulo
10.
A continuaci´ on se presenta un ejemplo ilustrativo.
Y (s) U(s)
αK
s + 2
K
s + 1
Figura 7.8: Sistema con interacci´ on aditiva entre dos estados
Ejemplo 7.10. Consideremos el sistema de la Figura 7.8, cuya funci´ on de
transferencia sistema esta dada por:
Y (s) =
_
K
s + 1
+
αK
s + 2
_
U(s) (7.91)
G(s) = K
(1 +α)s + (2 +α)
(s + 1)(s + 2)
(7.92)
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 181
cancelaci´ on!cuasi-
ceros!r´ apidos
ceros!lentos
Este sistema tiene sus polos en s = −1, −2 y un cero en s =
−(2+α)
1+α
. Es
decir, la ubicaci´ on est´ a directamente relacionada con el peso de cada uno de los
modos naturales en la respuesta del sistema, por ejemplo, a un impulso unitario
en la entrada:
y(t) = K(e
−t
+αe
−2t
) (7.93)
Si tomamos un valor peque˜ no, α = 0,1, la funci´ on de transferencia es:
G(s) = 1,1K
(s + 1,909)
(s + 1)(s + 2)
(7.94)
En esta puede observarse la cercan´ıa del cero al polo en s = −2. La respuesta
a impulso ser´ a en este caso:
y(t) = 1,1K(e
−t
+ 0,1e
−2t
) (7.95)
En que se aprecia la peque˜ na magnitud con que aparece el modo natural m´ as
r´ apido. Es decir, el cero a medida que se acerca al polo en s = −2 produce
una cuasi-cancelaci´ on , que ser´ a total cuando α = 0. En este ´ ultimo caso
definitivamente no aparece este modo natural en la salida del sistema, ya que el
polo ha sido cancelado, y la funci´ on de transferencia se ha reducido a:
G(s) =
K
(s + 1)
(7.96)
Invitamos al lector a estudiar el caso an´ alogo cuando α alcanza valores muy
grandes y cu´ al es su efecto sobre el otro modo natural del sistema. Adem´ as
puede analizarse qu´e sucede con el sistema cuando el par´ ametro α toma valores
negativos. ¿Qu´e pasa si α = −1 o α = −2 ?
222
Al igual como antes se definieron los polos r´ apidos y lentos de un sistema,
pueden definirse de manera an´ aloga los ceros r´ apidos y lentos. Ceros r´ apidos
son aquellos que est´ an m´ as alejados del l´ımite de estabilidad que los polos dom-
inantes del sistema, por otro lado los ceros lentos son aquellos que se encuentran
m´ as cerca del l´ımite de estabilidad que los polos dominantes del sistema. Para
apreciar el efecto de los ceros presentamos el siguiente ejemplo:
Ejemplo 7.11. Efecto de los ceros en la respuesta a escal´ on.
Considere un sistema cuya funci´ on de transferencia es:
H(s) =
−s +c
c(s + 1)(0,5s + 1)
(7.97)
Esta estructura de la funci´ on de transferencia permite estudiar el efecto de
la ubicaci´ on de un cero en la respuesta del sistema sin alterar la ubicaci´ on de
los polos ni la ganancia a continua.
En este sistema observamos dos modos naturales: e
−t
y e
−2t
. El primero
de ´estos estar´ a casi ausente de la respuesta a medida que c se acerca a −1.
182CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
undershoot
contrarespuesta
respuesta!inversa
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
−6
−4
−2
0
2
4
6
Tiempo [s]
R
e
s
p
u
e
s
t
a
c=−0.1
c=0.1
c=−0.25
c=0.25
c=10
c=−10
Figura 7.9: Efecto de la ubicaci´ on de los ceros sobre la respuesta a escal´ on
Algo an´ alogo sucede para el segundo modo a medida que c se acerca a −2. Esta
situaci´ on de cuasi cancelaciones tambi´en fue mencionada en el ejemplo anterior
La situaci´ on m´ as general se aprecia en la figura 7.9. En esta, se indica el
valos de c al lado de cada una de las respuestas graficadas. Podemos apreciar que
un cero r´ apido, i.e. [c[ ¸1, no afecta significativamente la respuesta transiente.
Cuando el cero es lento y estable obtenemos un gran overshoot, mientras que
cuando es lento, pero inestable, el undershoot es el que crece en magnitud. El
efecto de los ceros puede parecer demasiado cr´ıtico en este ejemplo, en que ambos
superan el 400 %, sin embargo, el lector puede verificar que puede ser a´ un mayor
si el cero es m´ as cercano el origen.
222
7.6.3. Respuesta inversa o contrarespuesta (undershoot)
La Figura 7.2 en la p´ agina 165 sugiere que existen casos en los que, en la
presencia de una excitaci´ on mayor que cero, la respuesta del sistema se hace
negativa durante alg´ un lapso de tiempo no despreciable. Este comportamiento
tambi´en aparece en la Figura 7.9. Un resultado muy fuerte es el siguiente.
Lema 7.1. Considere un sistema lineal estable con funci´ on de transferencia
H(s), y con un cero real en s = c, donde c > 0, entonces la respuesta a un
escal´ on positivo se hace negativa durante uno o m´ as lapsos no despreciables.
Demostraci´ on
La respuesta del sistema est´ a dada por:
Y (s) = H(s)
K
s
; K > 0 (7.98)
Entonces:
H(s)
K
s
=
_

0
y(t)e
−st
dt; '¦s¦ > 0 (7.99)
Note que la regi´ on de convergencia queda determinada, por un lado, por el
hecho que el sistema es estable, por lo cual la transformada de h(t) est´ a bien
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 183
factordeamortiguamiento
frecuencianatural!no
amortiguada
frecuencianatural!amortiguada
definida para '¦s¦ ≥ 0 y, por otro lado, por el hecho que la respuesta a un
escal´ on est´ a bien definida para '¦s¦ > 0. En consecuencia, la regi´ on de conver-
gencia para y(t) es '¦s¦ > 0.
Si ahora, en la ecuaci´ on (7.99), hacemos s = c (note que, por ser c > 0,
est´ a en la regi´ on de convergencia) obtenemos, aplicando el hecho que H(c) = 0:
H(c)
K
c
=
_

0
y(t)e
−ct
dt = 0 (7.100)
Como la integral es cero, y e
−ct
> 0, ∀t, necesariamente y(t) debe ser nega-
tiva en uno o m´ as intervalos de tiempo.
222
El lema precedente justifica y asegura la presencia de undershoots, como el
sugerido en la Figura 7.2 en la p´ agina 165. Sin embargo, este comportamiento
inverso se puede manifestar en diferentes formas, tal como ilustra la Figura 7.10.
0 5 10 15
−0.5
0
0.5
1
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l
ó
n
0 2 4 6
−2
−1.5
−1
−0.5
0
0.5
1
1.5
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l
ó
n
Figura 7.10: Distintas formas de respuesta inversa
7.6.4. Sistema can´ onico de segundo orden
Para el caso de un par de polos complejos conjugados, es usual estudiar un
sistema can´ onico de segundo orden con la funci´ on de transferencia:
H(s) =
ω
2
n
s
2
+ 2ψω
n
s +ω
2
n
(7.101)
donde ψ (0 < ψ < 1) es conocido como el factor de amortiguamiento y ω
n
, como
la frecuencia natural no amortiguada. Tambi´en definimos, para uso futuro, la
frecuencia natural amortiguada, ω
d
, como:
ω
d
= ω
n
_
1 +ψ
2
(7.102)
Este sistema tiene dos polos complejos conjugados, s
1
y s
2
, definidos por:
184CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
s
1,2
= −ψω
n
±jω
d
= ω
n
e
±j(π−β)
(7.103)
donde β es el ´ angulo definido por cos β = ψ.
Para este sistema, la transformada de Laplace de su respuesta a escal´ on
unitario est´ a dada por:
Y (s) =
ω
2
n
(s
2
+ 2ψω
n
s +ω
2
n
)s
=
ω
2
n
[(s +ψω
n
)
2

2
d
] s
(7.104)
Realizando una expansi´ on en fracciones parciales se llega a:
Y (s) =
1
s

s +ψω
n
(s +ψω
n
)
2

2
d

ψω
n
(s +ψω
n
)
2

2
d
(7.105)
=
1
s

1
_
1 −ψ
2
_
_
1 −ψ
2
s +ψω
n
(s +ψω
n
)
2

2
d
−ψ
ω
d
(s +ψω
n
)
2

2
d
_
(7.106)
Aplicando, finalmente, la transformada de Laplace inversa obtenemos:
y(t) = 1 −
e
−ψω
n
t
_
1 −ψ
2
sen(ω
d
t +β) (7.107)
Las caracter´ısticas principales de esta respuesta aparecen in la Figura 7.11,
donde y

= 1 y T
d
= 2π/ω
d
.


d

ω
n

−ψω
n

T
d

y


y

+M
p

t
r
t
p

−jω
d

β
Figura 7.11: Localizaci´ on de los polos y respuesta a escal´ on unitario de un sis-
tema can´ onico de segundo orden.
Podemos tambi´en calcular los indicadores descritos en la Figura 7.2 en la
p´ agina 165.
Tiempo de levantamiento. Para este caso, usamos k
r
= 1 (refi´erase a la
Figura 7.2 en la p´ agina 165) obteniendo:
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 185
e
−ψω
n
t
r
_
1 −ψ
2
sen(ω
d
t
r
+β) = 0 (7.108)
De aqu´ı se llega a:
t
r
=
π −β
ω
d
(7.109)
Sobrerespuesta (overshoot). La m´ axima sobrerespuesta, M
p
, y el instante
en el cual ´este ocurre, t
p
, pueden ser calculados derivando y(t), y luego
igualando a cero esta derivada:
dy(t)
dt
= −
e
−ψω
n
t
_
1 −ψ
2
[−ψω
n
sen(ω
d
t +β) +ω
d
cos(ω
d
t
r
+β)] (7.110)
As´ı, tenemos que ω
d
t
p
= π y el instante en que ocurre la sobrerespuesta,
t
p
, es:
t
p
=
π
ω
d
=
T
d
2
(7.111)
A su vez, la magnitud de la sobrerespuesta est´ a dada por:
Mp = y(t
p
) −1 = −
e

πψω
n
ω
d
_
1 −ψ
2
sen(π +β) = e

πψ

1−ψ
2
(7.112)
Las expresiones anteriores sugieren que un valor peque˜ no para ψ genera
un tiempo de levantamiento peque˜ no, al costo de una gran sobrerespuesta.
Tambi´en podemos apreciar que la velocidad de decaimiento y, como con-
secuencia, el tiempo de asentamiento, est´ an determinados por el producto
ψω
n
(corresponde a la magnitud de la parte real de los polos).
Aunque este sistema can´ onico parece ser un caso muy particular, ocurre que
con frecuencia, y en distintas aplicaciones, el sistema bajo estudio est´ a dominado
por un par de polos complejos conjugados. Aunque las f´ ormulas desarrolladas
para calcular los indicadores de la respuesta a escal´ on no son aplicables a sis-
temas no can´ onicos, los conceptos asociados tiene igual validez.
186CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
7.7. Problemas para el lector
Problema 7.1. Determine la transformada de Laplace de las siguientes fun-
ciones:
(i) y(t) = Acos(ωt +φ)
(ii) y(t) = te
−at
, en que a > 0
(iii) y(t) =
_
¸
¸
¸
_
¸
¸
¸
_
1 ; 0 < t < 1
2 −t ; 1 ≤ t < 2
−3 +t ; 2 ≤ t < 3
0 ; t ≥ 3
(iv) y(t) =
1
2
t
Problema 7.2. Para los siguientes sistemas:
(i)
d
2
y(t)
dt
2
+
d y(t)
dt
−6y(t) = u(t)
(ii)
d
3
y(t)
dt
3
+ 3
d
2
y(t)
dt
2
+
d y(t)
dt
+ 3y(t) =
d u(t)
dt
−u(t)
(iii)
d
2
y(t)
dt
2
+
d y(t)
dt
−6y(t) = u(t)
(iv)
d
2
y(t)
dt
2
+ 16
d y(t)
dt
+ 100y(t) = 100u(t)
7.2.1 Determine su funci´ on de transferencia,
7.2.2 Determine si son o no estables,
7.2.3 Determine y grafique su respuesta a impulso, y
7.2.4 Determine y grafique su respuesta a escal´ on.
Problema 7.3. Considere un sistema definido por su ecuaci´ on diferencial:
d
2
y(t)
dt
2
+
d y(t)
dt
+y(t) =
d u(t)
dt
+ 3u(t)
7.3.1 Determine la funci´ on de transferencia del sistema.
7.3.2 Determine la salida del sistema a entrada cero y condiciones iniciales
˙ y(0) = 1 y y(0) = −1. Grafique.
7.3.3 Determine la salida del sistema si la entrada es u(t) = µ(t) − µ(t − 2).
Grafique.
7.7. PROBLEMAS PARA EL LECTOR 187
Problema 7.4. Para el sistema:
d
2
y(t)
dt
2
+ 7
d y(t)
dt
+ 10y(t) = α
d u(t)
dt
+βu(t)
7.4.1 Determine condiciones sobre α y β de manera que en la respuesta a
impulso aparezca s´ olo el modo natural dominante.
7.4.2 Si u(t) = 0, α = 1 y β = 1 determine la condiciones iniciales de manera
que el la respuesta homog´enea s´ olo aparezca el modo natural dominante.
7.4.3 Repita los dos puntos anteriores, pero para el modo r´ apido del sistema.
Problema 7.5. Considere el circuito de la Figura 7.12.
C L
R
v
c
(t)
+
e(t)
Figura 7.12: Circuito RLC
7.5.1 Determine la funcion de transferencia considerando como entrada la fuente
de voltaje e(t) y como salida el voltaje en el condensador v
C
(t)
7.5.2 Si R = 1000 [Ω], C = 1000 [µF] y L = 0,1 [H], determine la respuesta a
un escal´ on de 5 [V ] en e(t).
Problema 7.6. Se sabe que la respuesta de un sistema lineal a un escal´ on
unitario en su entrada (con condiciones iniciales iguales a cero) est´ a dada por:
g(t) = (2 −2e
−4t
+te
−4t
)µ(t)
Determine la funci´ on de transferencia del sistema.
Problema 7.7. Considere el siguiente modelo no lineal:
d
2
y(t)
dt
2
+ [2 + 0,1u(t)
2
]
d y(t)
dt
+ 6y(t) = u(t) + 0,1e
−u(t)
Linealice el sistema en torno a un punto de operaci´ on (u
Q
,y
Q
), determine
su funci´ on de transferencia y analice la evoluci´ on de los polos cuando u
Q

[−0,5, 0,5].
188CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
Problema 7.8. Considere la siguiente funci´ on de trasferencia de un sistema:
H(s) =
s
2
+ 13s + 30
s
3
+ 4s
2
−7s −10
7.8.1 Haga un esquema con la ubicaci´ on de todos los polos y ceros del sistema
en el plano complejo s, clasific´ andolos de acuerdo a su velocidad (lentos y
r´ apidos).
7.8.2 Determine la respuesta del sistema si se somete a un impulso unitario en
la entrada.
7.8.3 Determine la salida del sistema si las condiciones iniciales son ¨ y(0) = 1,
˙ y(0) = 0 e y(0) = −2.
Problema 7.9. Considere la siguiente funci´ on de transferencia de un sistema
que depende de un par´ ametro K ≥ 0:
G(s) =
K(s + 1)
s
2
−s + 1 +K(s + 1)
7.9.1 Determine para qu´e rango de valores del par´ ametro K los el sistema es
estable.
7.9.2 Haga un esquema en el plano complejo de c´ omo var´ıa la ubicaci´ on de los
polos al variar el par´ ametro K (por ejemplo, para K = 0, 0,5, 1, 2 ).
7.9.3 Para cada uno de los valores de K considerados en 7.9.2 determine y
grafique la respuesta del sistema a un escal´ on unitario (con condiciones
iniciales iguales a cero).
Problema 7.10. Dado el sistema definido por su funci´ on de transferencia
G(s) =
−s +b
2
s
2
+bs +b
2
7.10.1 Determine la respuesta del sistema si la entrada es un impulso unitario
y las condiciones iniciales son cero.
7.10.2 Determine la respuesta del sistema a un escal´ on unitario, con condi-
ciones iniciales cero.
7.10.3 Determine los par´ ametros de la respuesta a escal´ on de la Tabla 7.1, y
verif´ıquelos graficando la simulaci´ on para algunos valores del par´ ametro b.
7.7. PROBLEMAS PARA EL LECTOR 189
Problema 7.11. Determine la respuesta e escal´ on de los siguientes sistemas
definidos por su funci´ on de tranferencia y con condiciones iniciales cero, y
grafique para algunos valores de los par´ ametros a, b, c, K > 0
(i) G
1
(s) =
K(−s +a)
(s +a)(s +K)
(ii) G
2
(s) =
K(−s +a)(−s +b)
(s +a)(s +b)(s +K)
(iii) G
3
(s) =
K(−s +a)(−s +b)(−s +c)
(s +a)(s +b)(s +c)(s +K)
¿Que puede decir del efecto de los ceros sobre la respuesta del sistema?
Problema 7.12. Una forma de verificar el grado relativo de la funcion de
tranferencia de un sistema es a trav´es de su respuesta a escal´ on. Demuestre que
si p(t) es la respuesta a un escal´ on de un sistema con funci´ on de transferencia
G(s), entonces:
dp(t)
dt
¸
¸
¸
t=0
= 0 ⇐⇒ grado relativo de G(s) ≥ 2
190CAP
´
ITULO7. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE
transformadaZeta|textbf
Zeta!transformada
transformadaZeta!inversa
Cap´ıtulo 8
An´alisis bajo excitaciones
arbitrarias. La
transformada Zeta
De los m´etodos disponibles para el estudio de los sistemas lineales din´ amicos,
de tiempo discreto, uno en particular resulta ser especialmente ´ util: la Trans-
formaci´ on Zeta. Esta puede entenderse como el an´ alogo, en tiempo discreto, de
la transformada de Laplace estudiada en el Cap´ıtulo 7.
Las principales ventajas de este m´etodo se pueden resumir en lo siguiente:
Permite el an´ alisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de se˜ nales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La ERS es transformada en una expresi´ on algebraica, que resulta m´ as
simple de manejar.
8.1. Definici´ on de la transformada
Dada una se˜ nal de tiempo discreto f[t], 0 ≤ t < ∞. La transformada Zeta
asociada a f[t], y su transformada Zeta inversa est´ an definidas por:
Z ¦f[t]¦ = F(z) =

t=0
f[t]z
−t
(8.1)
Z
−1
¦F(z)¦ = f[t] =
1
2πj
_
Γ
F(z)z
t−1
dz (8.2)
191
192CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
funci´ ondetransferencia
condicionesiniciales
La curva cerrada Γ sobre la que se calcula integral compleja que define la
transformada Zeta inversa (E.2) es tal que debe encerrar a todas las singulari-
dades de Y (z) [17]. La fundamentaci´ on de estas expresiones se desarrolla en el
Ap´endice E. Tambi´en se incluyen en ese ap´endice las propiedades m´ as impor-
tantes de la Transformaci´ on Zeta.
En este cap´ıtulo nos concentraremos en el uso de esta transformaci´ on para
el an´ alisis de sistemas lineales de tiempo discreto.
8.2. Aplicaci´ on a sistemas lineales: la funci´ on de
transferencia
Como ya hemos visto, una gran cantidad y variedad de sistemas de inter´es,
pueden ser modelados en forma lineal. Esto se consigue linealizando la o las ecua-
ciones de recursi´ on que describen el comportamiento del sistema en el tiempo,
como se vi´ o en el Cap´ıtulo 1, en torno a un punto de equilibrio o m´ as gen-
eralmente, en torno a un punto de operaci´ on. Para el caso de sistemas de una
entrada y una salida, el proceso de linealizaci´ on desemboca en la obtenci´ on de
una ecuaci´ on de recursi´ on, la ERS, de la forma general:
y[t] +a
n−1
y[t −1] +. . . +a
1
y[t −n + 1] +a
0
y[t −n] =
b
m
u[t] +b
m−1
u[t −1] +. . . +b
1
u[t −m+ 1] +b
0
u[t −m] (8.3)
Cuando se aplica transformaci´ on Zeta a la ERS se puede usar una de la
propiedades en el Ap´endice E, la que nos indica que la transformada de una
se˜ nal desplazada en el tiempo puede expresarse como:
Z ¦y[t −t
0
]¦ = Y (z)z
−t
0
+y[−1]z
−t
0
+1
+. . . +y[−t
0
+ 1]z
−1
+y[−t
0
] (8.4)
Por tanto, si aplicamos esto a la ERS (8.3) tenemos que:
Y (z) +a
n−1
z
−1
Y (z) . . . +a
1
z
−n+1
Y (z) +a
0
z
−n
Y (z)
= b
m
U(z) +. . . +b
0
z
−m
U(z) +f(z
−1
, x
o
) (8.5)
donde f(z
−1
, x
o
) es una funci´ on que depende de la variable z y de las n condi-
ciones iniciales de la salida y[t], expresadas como y[−1], y[−2], . . . y[−n].
Es importante destacar que:
f(z
−1
, x
0
) = [p(z
−1
)]
T
x
o
(8.6)
donde p(z
−1
) es un vector que contiene polinomios en z
−1
y x
o
es un vector
que contiene las condiciones iniciales ya mencionadas. Esta estructura es una
expresi´ on de la linealidad del sistema (homogeneidad y superposici´ on respecto
de las condiciones iniciales).
8.2. APLICACI
´
ONASISTEMAS LINEALES: LAFUNCI
´
ONDE TRANSFERENCIA193
fraccionesparciales
Nota 8.1. Note tambi´en que se ha supuesto que u[−1] = u[−2] = . . . =
u[−m] = 0. Esto no es restrictivo, porque siempre es posible encontrar una se-
cuencia de entrada u[t], no nula ∀t < −m, tal que y[t] satisfaga las condiciones
iniciales establecidas.
222
Para ilustrar estas ideas, consideramos un ejemplo en donde adem´ as analizare-
mos algunas alternativas para el c´ alculo de la transformaci´ on inversa.
Ejemplo 8.1. Considere un sistema con la ERS:
y[t] −0, 7y[t −1] + 0, 1y[t −2] = 0, 8u[t −1] (8.7)
Suponga que la entrada es un escal´ on unitario, es decir, u[t] = 1, ∀t ≥ 0, y
que las condiciones iniciales son y[−1] = 2 e y[−2] = −1. Nos interesa calcular
la evoluci´ on de la salida y[t], ∀t ≥ 0.
Soluci´ on
Aplicamos transformada Zeta a la ERS, obteniendo:
Y (z) −0, 7
_
z
−1
Y (z) +y[−1]
_
+ 0, 1
_
z
−2
Y (z) +z
−1
y[−1] +y[−2]
_
= 0, 8z
−1
U(z) (8.8)
Esto lleva a:
Y (z) =
0, 8z
−1
1 −0, 7z
−1
+ 0, 1z
−2
U(z) +
(0, 7 −0, 1z
−1
)y[−1] −0, 1y[−2]
1 −0, 7z
−1
+ 0, 1z
−2
(8.9)
Esto indica que, para este ejemplo:
f(z
−1
, x
o
) = [p(z
−1
)]
T
x
o
=
_
0, 7 −0, 1z
−1
−0, 1
¸
_
y[−1]
y[−2]
_
(8.10)
Reordenando de manera de obtener polinomios en z en vez de polinomios en
z
−1
, y reemplazando las condiciones iniciales, se llega a:
Y (z) =
0, 8z
z
2
−0, 7z + 0, 1
U(z)
. ¸¸ .
Y
u
(z)
+
1, 5z
2
−0, 2z
z
2
−0, 7z + 0, 1
. ¸¸ .
Y
x
(z)
(8.11)
donde Y
u
(z) e Y
x
(z) denotan las transformadas de la respuesta a entrada con
condiciones iniciales iguales a cero y de la respuesta a condici´ on inicial, con
entrada cero, respectivamente.
De manera de hacer m´ as simple el c´ alculo de la transformada Zeta inversa,
y al igual que en el caso de la transformada de Laplace (Cap´ıtulo 7), usamos la
expansi´ on en fracciones parciales:
194CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
Y
u
(z) =
0, 8z
(z −0, 5)(z −0, 2)
z
z −1
=
4
3(z −0, 2)

4
3(z −0, 5)
+
2
z −1
(8.12)
As´ı, podemos utilizar la Tabla E.2 en la p´ agina 434 para obtener la trans-
formaci´ on inversa:
y
u
[t] =
4
3
_
(0, 2)
t−1
−(0, 5)
t−1
_
µ[t −1] + 2µ[t −1] ; ∀t ≥ 0 (8.13)
An´ alogamente:
Y
x
(z) =
1, 5z
2
−0, 2z
(z −0, 5)(z −0, 2)
=
3
2

1
15(z −0, 2)
+
11
12(z −0, 5)
(8.14)
Aplicando transformaci´ on inversa se llega a:
y
x
[t] =
3
2
δ
K
[t] −
1
15
(0, 2)
t−1
µ[t −1] +
11
12
(0, 5)
t−1
µ[t −1] ; ∀t ≥ 0 (8.15)
Finalmente, la respuesta completa es y[t] = y
u
[t] +y
x
[t].
Sin embargo, una forma alternativa para calcular y[t] es la siguiente:
Y (z) = z
_
0, 8z
(z −0, 5)(z −0, 2)(z −1)
+
1, 5z −0, 2
(z −0, 5)(z −0, 2)
_
(8.16)
= z
_
5
15(z −0, 2)

5
6(z −0, 5)
+
2
z −1
_
(8.17)
=
z
3(z −0, 2)

5z
6(z −0, 5)
+
2z
z −1
(8.18)
Al aplicar ahora transformaci´ on inversa se llega a
y[t] = 2 +
1
3
(0, 2)
t

5
6
(0, 5)
t
; ∀t ≥ 0 (8.19)
Lo que se ha hecho en esta segunda forma de calcular Z
−1
¦◦¦ es aprovechar
la presencia de un factor z en el numerador. As´ı las fracciones parciales pueden
despu´es recibir de vuelta ese factor z, de modo que en la transformaci´ on inversa
no aparece corrimiento en el tiempo, ya que, como puede verse en el Ap´endice
E:
Z
−1
_
z
z −a
_
= a
t
µ[t] ,= Z
−1
_
1
z −a
_
= a
t−1
µ[t −1] (8.20)
El lector puede comprobar que ambas expresiones obtenidas previamente para
y[t] son equivalentes y corresponden a la se˜ nal en la Figura 8.1.
8.2. APLICACI
´
ONASISTEMAS LINEALES: LAFUNCI
´
ONDE TRANSFERENCIA195
0 5 10 15
0
0.5
1
1.5
2
2.5
3
t
y
[
t
]
Figura 8.1: Salida y[t] para el Ejemplo 8.1.
222
Volvamos ahora a considerar la forma general de la ERS y supongamos
condiciones iniciales iguales a cero. Entonces tenemos que:
Y (z) = H(z)U(z) (8.21)
Donde se define la funci´ on:
H(z) =
B(z)
A(z)
(8.22)
que se forma con los polinomios que contienen los coeficientes de la ecuaci´ on
(8.3) original:
A(z) = z
m
(z
n
+a
n−1
z
n−1
+. . . +a
0
) (8.23)
B(z) = z
n
(b
m
z
m
+b
m−1
z
m−1
+. . . +b
0
) (8.24)
La definici´ on de los polinomios A(z) y B(z) acusa la presencia de una can-
celaci´ on. En realidad, se ha elegido esta forma para los polinomios para con-
siderar los tres casos posibles: n < m, n = m y n > m. Para clarificar esto
ilustraremos los tres diferentes casos.
Ejemplo 8.2 (Caso n < m). Sea la ERS:
y[t] −0, 8y[t −1] + 0, 4y[t −2] −0, 1y[t −3] = 0, 2u[t −3] −0, 7u[t −4] (8.25)
En este caso, n = 3, con a
n−1
= a
2
= −0, 8, a
n−2
= a
1
= 0, 4 y a
n−3
= a
0
=
−0, 1 Por otro lado m = 4, con b
m
= b
4
= 0, b
m−1
= b
3
= 0, b
m−2
= b
2
= 0,
b
m−3
= b
1
= 0, 2 y b
m−4
= b
0
= −0, 7
Entonces, la funci´ on de transferencia es:
H(z) =
z
3
(0, 2z −0, 7)
z
4
(z
3
−0, 8z
2
+ 0, 4z −0, 1)
=
0, 2z −0, 7
z(z
3
−0, 8z
2
+ 0, 4z −0, 1)
(8.26)
196CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
funci´ ondetransferencia!tiempodiscreto
222
Ejemplo 8.3 (Caso n = m). Sea la ERS:
y[t] −0, 8y[t −1] + 0, 4y[t −2] −0, 1y[t −3] = 0, 2u[t −2] −0, 7u[t −3] (8.27)
En este caso tamb´ı´en n = 3, con a
n−1
= a
2
= −0, 8, a
n−2
= a
1
= 0, 4 y
a
n−3
= a
0
= −0, 1 Por otro lado m = 3, con b
m
= b
3
= 0, b
m−1
= b
2
= 0,
b
m−2
= b
1
= 0, 2, y b
m−3
= b
0
= −0, 7
Entonces, la funci´ on de transferencia es:
H(z) =
z
3
(0, 2z −0, 7)
z
3
(z
3
−0, 8z
2
+ 0, 4z −0, 1)
=
0, 2z −0, 7
z
3
−0, 8z
2
+ 0, 4z −0, 1
(8.28)
222
Ejemplo 8.4 (Caso n > m). Sea la ERS:
y[t] −0, 8y[t −1] + 0, 4y[t −2] −0, 1y[t −3] = 0, 2u[t −1] −0, 7u[t −2] (8.29)
En este caso nuevamente n = 3, con a
n−1
= a
2
= −0, 8, a
n−2
= a
1
= 0, 4 y
a
n−3
= a
0
= −0, 1 Por otro lado m = 2, con b
m
= b
2
= 0, b
m−1
= b
1
= 0, 2 y
b
m−2
= b
0
= −0, 7
Entonces, la funci´ on de transferencia es:
H(z) =
z
3
(0, 2z −0, 7)
z
2
(z
3
−0, 8z
2
+ 0, 4z −0, 1)
=
z(0, 2z −0, 7)
z
3
−0, 8z
2
+ 0, 4z −0, 1
(8.30)
222
En lo sucesivo, supondremos que los polinomios B(z) y A(z) son copri-
mos, es decir, todos los factores comunes en H(z) han sido eliminados por
cancelaci´ on. Los grados de B(z) and A(z) ser´ an redefinidos como ˜ m y ˜ n
respectivamente.
La funci´ on racional H(z) es la funci´ on de transferencia en el dominio Ze-
ta. La representaci´ on (8.22) es muy ´ util para describir caracter´ısticas y propiedades
de un sistema tales como estabilidad y velocidad, adem´ as de entregar informa-
ci´ on para el dise˜ no de sistemas de control, filtros y otras aplicaciones.
A continuaci´ on repetiremos algunos conceptos ligados a la definici´ on de la
funci´ on de transferencia de un sistema. Son los mismos que para el caso de la
transformaci´ on de Laplace y su reiteraci´ on est´ a orientada a enfatizar los aspectos
comunes existentes en el dominio del tiempo continuo y en el dominio del tiempo
discreto. As´ı, definimos entonces los siguientes t´erminos.
8.2. APLICACI
´
ONASISTEMAS LINEALES: LAFUNCI
´
ONDE TRANSFERENCIA197
funci´ onde
transferencia!ceros
funci´ onde
transferencia!polos
multiplicidad!polos
funci´ ondetransferencia!gradorelativo
grado relativo
funci´ onde
transferencia!estrictamentepropia
funci´ ondetransferencia!bipropia
funci´ ondetransferencia!propia
polinomiocaractrer´ ıstico
(i) Las ˜ m ra´ıces de la ecuaci´ on B(z) = 0 son los ceros del sistema. Ellos
hacen adem´ as que H(z) = 0.
(ii) Las ˜ n ra´ıces de la ecuaci´ on A(z) = 0 son los polos del sistema. Ellos hacen
adem´ as que H(z) →∞.
(iii) Si A(z) = 0 tiene n
t
ra´ıces en z = λ
t
, decimos que el polo λ
t
tiene
multiplicidad n
t
.
(iv) La diferencia de grado entre A(z) y B(z), es decir, ˜ m− ˜ n se denomina el
grado relativo del sistema.
(v) Si ˜ m < ˜ n decimos que el modelo es estrictamente propio. Esto implica
que el grado relativo del sistema es positivo.
(vi) Si ˜ m = ˜ n decimos que el modelo es bipropio. Esto implica que el grado
relativo del sistema es cero.
(vii) Si ˜ m ≤ ˜ n decimos que el modelo es propio .
Note que el polinomio A(z) corresponde al polinomio caracter´ıstico de la
ERS, multiplicado por z

, donde ∈ N tiene un valor que depende del caso
espec´ıfico. De esta forma, el conjunto de los polos de H(z) incluye un conjunto
de polos en el origen m´ as las frecuencias naturales que se pueden calcular de
la ERS.
Estas definiciones nos ayudar´ an a apreciar la forma en que se relaciona la
salida de un sistema con su entrada, tal como pone en evidencia la definici´ on
(8.22), pero la simplicidad reside en que la relaci´ on se establece mediante la
funci´ on racional H(z), es decir, los desplazamientos temporales han desapareci-
do. Si bien para llegar a esta relaci´ on las condiciones iniciales se han supuesto
iguales a cero, sabemos que en el caso de sistemas estables, su efecto se extingue
exponencialmente en tiempo.
En forma similar a aquella que se utiliz´ o en el an´ alisis de Fourier, la fun-
ci´ on de transferencia puede ser definida en base a la respuesta a impulso, con
condiciones iguales a cero. Si recordamos como se defini´ o la funci´ on de transfer-
encia H(z) al aplicar transformaci´ on Zeta a la ERS del sistema (8.3), podemos
escribir la salida del sistema seg´ un la ecuaci´ on (8.21). Se puede apreciar que si
a ambos lados de esta expresi´ on, se aplica transformaci´ on Zeta inversa (vea la
Tabla E.1 en la p´ agina 433), tenemos que:
Y (z) = H(z)U(z) ⇐⇒ y[t] = h[t] ∗ u[t] (8.31)
En que:
h[t] = Z
−1
¦H(z)¦ (8.32)
Por lo tanto, podemos afirmar que:
198CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
deltadeDirac!en
frecuencia
La funci´ on de transferencia H(z) de un sistema de tiempo discreto, definida
en (8.22), es igual a la transformada Zeta de la respuesta h[t] del sistema
a un Delta de Kronecter en la entrada, cuando las condiciones iniciales son
cero.
A diferencia del caso de tiempo continuo, la funci´ on de transferencia H(z) es
siempre una funci´ on racional en z. La existencia de un retardo puro, digamos
de t
o
unidades, implica simplemente la existencia de t
o
polos en el origen.
La relaci´ on entre la ERS, la respuesta a delta de Kronecker h[t] y la funci´ on
de transferencia H(z) se describe en la Figura 8.2. A esos v´ınculos se ha agregado
la respuesta a escal´ on unitario, con condiciones iniciales iguales a cero, g[t].
ERS
H(z) h[t] g[t]
Figura 8.2: Relaciones entre ERS, funci´ on de transferencia y respuestas a delta
y a escal´ on.
8.2.1. Funci´ on de transferencia en dominios de Fourier y
Zeta
Cuando el sistema tiene frecuencias naturales en el disco unitario cerrado,
con la restricci´ on que aquellas frecuencias sobre la circunferencia unitaria sean
simples, las funciones de transferencia en ambos dominios existen. El elemento
com´ un es conceptual: en ambos casos, la funci´ on de transferencia es
igual a la correspondiente transformada de la respuesta a un delta de
Kronecker, con condiciones iniciales iguales a cero.
La definici´ on y la estructura de H(z) parecen ser id´enticas a la definici´ on
y la estructura de la funci´ on de transferencia en el dominio de Fourier, bas-
tando hacer una simple sustituci´ on de z por e

. Sin embargo, esto no siempre
es correcto. La diferencia es que cuando el sistema tiene frecuencias naturales
(simples) sobre la circunferencia unitaria, la funci´ on de transferencia en Fourier
incluye deltas de Dirac en frecuencia. Esto se origina en el hecho que la respuesta
a impulso del sistema contiene modos naturales que no decaen y para los cuales
la transformada de Fourier existe s´ olo en el l´ımite. En cambio, para el mismo
sistema, la funci´ on de transferencia en Zeta no contiene impulsos en frecuencia,
debido a que la transformada Zeta est´ a bien definida, bastando escoger el radio
de convergencia igual a 1, es decir, [z[ > 1.
8.2. APLICACI
´
ONASISTEMAS LINEALES: LAFUNCI
´
ONDE TRANSFERENCIA199
transformadadeFourier!discreta
respuestaenfrecuencia
Ejemplo 8.5. Consideremos el sistema con la ERS:
y[t] −ay[t −1] +a
2
y[t −2] = a

3
2
u[t −1] (8.33)
donde 0 < a ≤ 1.
La funci´ on de transferencia en el dominio de la transformaci´ on Zeta es:
H
z
(z) =
a

3
2
z
z
2
−az +a
2
; ∀[z[ > 1 (8.34)
En cambio, en el dominio de Fourier, debemos distinguir dos casos:
(i) Caso a < 1 :
En este caso, las frecuencias naturales est´ an dentro del disco unitario
abierto, por lo tanto, los modos naturales son absolutamente sumables
1
y la funci´ on de transferencia en el dominio de la transformada de Fourier
discreta es:
H
F
(e

) =

3
2
e

(e

)
2
−ae

+a
2
(8.35)
En este caso:
H
F
(e

) = H
z
(z)[
z=e

(8.36)
De esa forma, H
z
(e

) es tambi´en igual la respuesta en frecuencia del
sistema.
(ii) Caso a = 1 :
En este caso, las frecuencias naturales est´ an sobre la circunferencia uni-
taria y los modos naturales combinados corresponden a una sinusoide. M´ as
espec´ıficamente, la respuesta a un delta de Kronecter, con condiciones ini-
ciales iguales a cero es:
h[t] = sen(π t/3)µ[t] (8.37)
En consecuencia (vea Tabla C.4 en la p´ agina 391, con θ
o
= π/3) la funci´ on
de transferencia en el dominio de la transformaci´ on de Fourier es:
H
F
(e

) =

2
_

=−∞
δ(θ +θ
o
+ 2π) −δ(θ −θ
o
+ 2π)
_
+

3
2
e

(e

)
2
−e

+ 1
(8.38)
Se observa que en este caso, no se cumple (8.36).
1
Recuerde que una secuencia f[t], definida ∀t ∈ N es absolutamente sumable si y s´ olo si


t=0
|f[t]| < ∞.
200CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
impulso!respuestaa
escal´ on!respuestaa
respuesta!aimpulso
respuesta!aescal´ on
valorfinal
222
La relaci´ on entre la transformaci´ on de Fourier y transformaci´ on Zeta puede
ser resumida en la siguiente afirmaci´ on:
Las transformaciones Zeta y de Fourier son equivalentes, via la relaci´ on
z = e

, en aquellos casos en que la transformada Zeta existe para [z[ < ρ,
donde 0 < ρ < 1.
8.3. Respuesta a impulso y respuesta a escal´ on.
Como ya hemos visto, la funci´ on de transferencia est´ a univocamente asociada
a la respuesta a impulso del sistema. Por otro lado, sabemos que si se aplica un
impulso a la entrada, la respuesta contiene solamente los modos naturales del
sistema; esto nos permite estudiar su comportamiento natural, independiente
de la se˜ nal de entrada (caracter´ısticas del transiente, velocidad de respuesta,
etc.) a partir del an´ alisis de la funci´ on H(z).
An´ alogamente al caso de sistemas de tiempo continuo, la respuesta a escal´ on
es tambi´en usada para describir el sistema, aunque en este caso, ello no se debe
a la dificultad para generar el delta.
La definici´ on (8.22) nos permite expresar la respuesta a escal´ on unitario
del sistema como:
Y (z) = H(z)
z
z −1
(8.39)
Lo cual, suponiendo que el sistema no tiene polos en z = 1, corre-
sponde a:
y[t] = y

+ modos naturales del sistema (8.40)
donde y

= H(1), en virtud del Teorema del Valor Final (ver Teorema E.1 en
la p´ agina 431). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero, por tanto, la respuesta en estado estacionario est´ a dada
por la constante y

. Note adem´ as que si H(z) tiene uno o m´ as ceros en z = 1,
entonces y

= 0.
Es conveniente recalcar que la respuesta a escal´ on unitario contiene los modos
naturales del sistema, por lo que revela cuestiones fundamentales del compor-
tamiento din´ amico del sistema.
Tambi´en es conveniente recordar que existe una relaci´ on simple entre la
respuesta a escal´ on g[t] y la respuesta a delta de Kronecter h[t]. Esta est´ a dada
por:
h[t] = g[t] −g[t −1] (8.41)
8.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCAL
´
ON. 201
muestreo
Ejemplo 8.6. Considere el sistema definido por su ERS:
y[t] −1, 75y[t −1] + 0, 8y[t −2] = −0, 2u[t] + 0, 25u[t −1] (8.42)
Su funci´ on de transferencia es:
H(z) =
Y (z)
U(z)
=
−0, 2z
2
+ 0, 25z
z
2
−1, 75z + 0, 8
(8.43)
La respuesta a impulso unitario y a delta de Kronecker pueden ser calculadas
mediante la metodolog´ıa usual, ya empleada en el Cap´ıtulo 7 en el contexto de
sistemas de tiempo continuo y la transformada de Laplace. Esta corresponde
a reemplazar la expresi´ on para U(z), descomponer en fracciones parciales de
manera conveniente para poder obtener la transformada Zeta inversa, con ayuda
de la Tabla E.2 en la p´ agina 434.
En Matlab la funci´ on de transferencia en tiempo discreto, al igual que en
tiempo continuo, se define mediante el comando tf en el que se especifica un
tercer argumento correspondiente al tiempo de muestreo (ver Cap´ıtulo 11). Este
se mantener indefinido, haci´endolo igual a −1. De esta forma la respuesta a
impulso y escalon pueden obtenerse mediante los comandos dimpulse y dstep,
respectivamente. Para el sistema en particular se˜ nales se muestran en la Figura
8.3, obtenida con los siguientes comandos:
Matlab
>> Gd2=tf([-0.2 0.25 0],[1 -1.75 0.8],-1)
Transfer function:
-0.2 z^2 + 0.25 z
------------------
z^2 - 1.75 z + 0.8
Sampling time: unspecified
>> subplot(2,1,1),stem(impulse(Gd2))
>> subplot(2,1,2),stem(step(Gd2))
222
De igual forma que en el caso de tiempo continuo, en la respuesta a escal´ on de
sistemas de tiempo discreto puede definirse un conjunto de par´ ametros que de-
scriben ciertas propiedades de su din´ amica. Sin embargo, en este caso, el c´ alculo
de algunos de estos par´ ametros se complica pues la variable independiente, el
tiempo t, es discreta. As´ı, el hacer cero una derivada para calcular un m´ aximo
o un m´ınimo se hace dif´ıcil por dos factores: la derivada no est´ a definida y, por
otro lado, el c´ alculo del instante asociado debe restringirse a valores enteros.
202CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
0 5 10 15 20 25 30 35 40
−0.2
−0.1
0
0.1
0.2
0.3
t
R
e
s
p
u
e
s
t
a

a

i
m
p
u
l
s
o
0 5 10 15 20 25 30 35 40
−0.5
0
0.5
1
1.5
t
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l
o
n
Figura 8.3: Respuesta a delta Kronecker y a escal´ on unitario para el Ejemplo
8.6.
En la Figura 8.3 se muestra una respuesta a escal´ on unitario con condiciones
iniciales iguales a cero. Se observa que se pueden asignar los mismos elementos
caracterizadores que en el caso de tiempo continuo.
Un asunto de inter´es tiene que ver con el hecho que una se˜ nal cualquiera f[t]
(no s´ olo la respuesta a escal´ on o la respuesta a impulso), puede ser igual a cero
durante los primeros d instantes. Ello se explica con el siguiente an´ alisis.
Sea una se˜ nal f[t] con transformada F(z) dada por:
F(z) =
B
f
(z)
A
f
(z)
(8.44)
donde A
f
(z) y B
f
(z) son polinomios de la forma:
A
f
(z) = z
p

p−1
z
p−1
+. . . +α
1
z +α
0
(8.45)
B
f
(z) = β
q
z
q

q−1
z
q−1
+. . . +β
1
z +β
0
; β
q
,= 0 (8.46)
para n´ umeros enteros p y q no negativos. Observe que dado que F(z) debe poder
expresarse en serie de potencias no positivas de z, es necesario que p ≥ q.
La expansi´ on de F(z) en potencias de z
−1
se obtiene dividiendo B
f
(z) por
A
f
(z), esto lleva a:
F(z) = β
q
z
−p+q
+ (β
q−1
−β
q
α
p−1
)z
−p+q−1
+. . . (8.47)
8.4. RESPUESTAACONDICIONES INICIALES YEXCITACIONES ARBITRARIAS.203
gradorelativo
Esta ecuaci´ on demuestra que el primer valor de f[t] distinto de cero ocurre
en el instante t = p − q, con f[p − q] = β
q
. El resultado principal se puede
resumir en el siguiente lema:
Lema 8.1. Considere una se˜ nal f[t] y su transformada F(z), cuociente de
polinomios en z, con grado relativo d, entonces f[t] = 0 para t = 0, 1, ..d −1
222
Cuando este lema se aplica a la respuesta a escal´ on unitario, con condiciones
iniciales iguales a cero, se deduce que ´esta es cero en los primeros d instantes,
donde d es el grado relativo de la funci´ on de transferencia H(z). En rigor, el
Lema 8.1 se aplica al producto H(z)U(z), pero en este caso U(z) es
z
z−1
, es
decir, su grado relativo es cero, por lo tanto el grado relativo de H(z)U(z) es
igual al grado relativo de H(z).
8.4. Respuesta a condiciones iniciales y excita-
ciones arbitrarias.
De la misma manera que en la secci´ on precedente se obtuvo las respuestas
a impulso y a escal´ on del sistema, la transformada Zeta permite obtener la
respuesta del sistema cuando la entrada pertenece a un tipo m´ as general de
se˜ nales. En esta tarea, las principales ventajas que tiene esta transformaci´ on
sobre la transformaci´ on de Fourier, son que se puede aplicar a una amplia gama
de excitaciones no acotadas, y que permite inclu´ır el efecto de las condiciones
iniciales.
Consideremos primero un ejemplo.
Ejemplo 8.7. Considere un sistema con ERS:
y[t] +a
1
y[t −1] +a
2
y[t −2] = b
1
u[t −3] +b
0
u[t −4] (8.48)
Entonces al aplicar la transformada Zeta (en el marco de la Nota 8.1 en la
p´ agina 193) se obtiene:
Y (z) =
b
1
z
−3
+b
0
z
−4
1 +a
1
z
−1
+a
2
z
−2
U(z) +
−a
1
y[−1] −a
2
z
−1
y[−1] −a
2
y[−2]
1 +a
1
z
−1
+a
2
z
−2
(8.49)
lo cual lleva a:
Y (z) =
b
1
z +b
0
z
2
(z
2
+a
1
z +a
2
)
U(z)
. ¸¸ .
Y
u
(z)=´¦T¸¸¸0,u[t])))]
+
−(a
1
y[−1] +a
2
y[−2])z
2
−a
2
y[−1]z
z
2
+a
1
z +a
2
. ¸¸ .
Y
x
(z)=´¦T¸¸¸x
o
,0)))]
(8.50)
222
Este ejemplo permite inducir algunos resultados generales:
204CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
retardo
respuesta!estacionaria
(i) Tanto la respuesta a entrada, y
u
[t] como la respuesta a condiciones ini-
ciales, y
x
[t], contienen los modos naturales del sistema.
(ii) El denominador de Y
u
(z) difiere del de Y
x
(z), no s´ olo debido al denomi-
nador de U(z), sino que adem´ as en un conjunto de polos en z = 0. Estos
no son frecuencias naturales del sistema, sino que corresponden ex-
actamente al retardo con que se aplica la excitaci´ on.
(iii) La transformada Y
u
(z) contiene los polos de U(z); ´estos explican la pres-
encia de modos forzados, lo cual es consistente con lo planteado en la
subsecci´ on 4.3.6 en la p´ agina 73.
(iv) Si el grado relativo de H(z) es mayor que cero (como ocurre usualmente),
entonces y
u
[0] = 0.
(v) Salvo para especiales valores de las condiciones iniciales, el grado relativo
de Y
x
(z) es cero, as´ı y
x
(0) ,= 0, lo cual lleva, salvo para esos valores
especiales, a que y(0) ,= 0.
Un caso especial de inter´es es cuando la excitaci´ on u[t] es una sinusoide de
frecuencia θ
o
, ∀t ≥ 0, es decir, u[t] = 0, 5(e

o
t
+e
−jθ
o
t
).
Consideremos primero el caso de una excitaci´ on u[t] = e

o
t
µ[t], y un sistema
estable, con funci´ on de transferencia H(z), entonces:
U(z) =
z
z −e

o
(8.51)
Y (z) = H(z)
z
z −e

o
+Y
x
(z) (8.52)
Dado que el sistema es estable, s´ olo el modo forzado permanece, ya que la
frecuencia forzante est´ a sobre la circunferencia unitaria. As´ı, si denotamos como
Y
t
ee
(z) la transformada Zeta de la componente estacionaria de la salida, tenemos
que:
Y
t
ee
(z) =
zH(e

o
)
z −e

o
; H(e

o
) = [H(e

o
)[ e
j∠H(e

o
)
(8.53)
y, por tanto:
y
t
ee
[t] = e

o
t
H(e

o
) = [H(e

o
)[ e
j(θ
o
t+∠H(e

o
))
(8.54)
Si consideramos ahora la excitaci´ on u[t] = e
−jθ
o
t
µ[t], la transformada Zeta
de la componente estacionaria de la salida es:
Y
tt
ee
(z) =
zH(e
−jθ
o
)
z −e
−jθ
o
; H(−e

o
) = [H(e

o
)[ e
−j∠H(e

o
)
(8.55)
y, por tanto:
y
tt
ee
[t] = e
−jθ
o
t
H(e
−jθ
o
) = [H(e
−jθ
o
)[ e
−j(θ
o
t+∠H(e

o
))
(8.56)
8.5. ESTABILIDAD 205
estabilidad
multiplicidad!polos
l´ ımitedeestabilidad
circunferencia unitaria
Si ahora combinamos ambas excitaciones, es decir, u[t] = 0, 5(e

o
t
+e
−jθ
o
t
),
la transformada Zeta de la componente estacionaria combinada de la salida
est´ a dada por:
y
ee
[t] = 0, 5 (y
t
ee
[t] +y
tt
ee
[t]) = [H(e

o
)[ cos(tθ
o
+∠H(e

o
)) (8.57)
Este resultado no es sorprendente, ya que por ser el sistema estable, la
relaci´ on (8.36) es v´ alida, y as´ı se cumple que:
La funci´ on de transferencia H(z) de un sistema estable, evaluada en z = e

o
es igual a la ganancia al modo forzante e

o
t
(ver (4.35)).
8.5. Estabilidad
Hasta aqu´ı hemos visto que la respuesta de un sistema que tiene una funci´ on
de transferencia H(z) es de la forma:
Y (z) = H(z)U(z) +
p

t=1
n
t

i=1
α
ti
(z −λ
t
)
i
(8.58)
Donde el valor de cada α
ti
depende de las condiciones iniciales, y donde
hemos supuesto que cada polo ubicado en z = λ
t
, tiene multiplicidad n
t
. Esta
suposici´ on implica a su vez que n
1
+n
2
+. . . +n
p
= n, donde n es el orden de
la ERS, es decir, es el n´ umero de autovalores del sistema.
Si recordamos la definici´ on de estabilidad, tenemos que un sistema es estable
cuando cualquier entrada acotada produce una salida tambi´en acotada, para
cualquier condici´ on inicial acotada. Si observamos la ecuaci´ on (8.58) podemos
afirmar que la condici´ on necesaria y suficiente para que el sistema sea estable
es que los polos de ´este, que aparecen en las fracciones del segundo t´ermino
de la ecuaci´ on, den origen a se˜ nales que decaigan exponencialmente. Esto se
traduce en que los polos del sistema deben tener magnitud estrictamente menor
que uno, es decir, deben estar ubicados sobre el disco unitario abierto del
plano complejo z . Es decir, para sistemas discretos, el l´ımite de estabilidad en
el plano complejo z en que se ubican sus polos, es la circunferencia unitaria.
Ejemplo 8.8. Consideremos un sistema con funci´ on de transferencia:
H(z) =
(z −0, 2)
z
3
(z −1)(z −0, 8)
(8.59)
Esta funci´ on tiene tres polos en el origen, que se originan en los retardos y
en la estructura de la ERS (vea ecuaciones (8.23) y (8.24)). Estos polos s´ olo
introducen retardos en los modos naturales. Los otros polos de su funci´ on de
transferencia est´ an ubicados en z = 1, y z = 0, 8. Estos ´ ultimos polos correspon-
den a frecuencias naturales del sistema. Uno de estos, el ubicado en z = 1, no
est´ a en el disco unitario abierto, sino que justo sobre el l´ımite de estabilidad.
206CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
sistemasdiscretos!estabilidad
Por tanto el sistema no es estable. Se deja al lector el verificar que una entrada
constante, diferente de cero, produce una salida que crece indefinidamente.
222
8.5.1. An´alisis de polinomios
Al igual que en el caso de sistemas de tiempo continuo, es posible estudiar
la estabilidad de un sistema de tiempo discreto analizando el polinomio denom-
inador de su funci´ on de transferencia, sin calcular expl´ıcitamente las ra´ıces de
ese polinomio.
Supongamos que el denominador mencionado sea un polinomio de la forma:
p(z) = a
n
z
n
+a
n−1
z
n−1
+. . . +a
2
z
2
+a
1
z +a
0
(8.60)
Entonces se trata de determinar si existen o no ra´ıces de este polinomio cuya
magnitud sea igual o mayor que 1, o equivalentemente, si todas las raices est´ an
en el disco unitario abierto en el plano complejo z . Diremos que los polinomios
que tiene esta propiedad son polinomios estables.
A semejanza de lo que ocurre en el caso de sistemas de tiempo continuo,
podemos aprovechar algunas propiedades del polinomio (8.60) para descartar
algunas situaciones. Dos de estas propiedades son especialmente ´ utiles
Propiedad 1 El coeficiente a
n−1
cumple con:
a
n−1
= −a
n
n

i=1
λ
i
(8.61)
donde λ
1
, λ
2
, . . . λ
n
son las ra´ıces de p(z).
Esta propiedad es directa al notar que el polinomio p(s) puede escribirse
como:
p(z) = a
n
n

i=1
(z −λ
i
) (8.62)
entonces, al expandir el producto (8.62) y observar el coeficiente que acom-
pa˜ na a la potencia (n −1)-´esima de z, se obtiene (8.61).
Propiedad 2 El coeficiente a
0
cumple con:
a
0
= (−1)
n
a
n
n

i=1
λ
i
(8.63)
Esta propiedad tambi´en se puede demostrar expandiendo el producto
(8.62) y observando el t´ermino constante.
8.5. ESTABILIDAD 207
desigualdad!triangular
bilineal!transformaci´ on
Routh
La primera propiedad dice que para que el polinomio p(z) sea estable, en-
tonces es necesario que [a
n−1
[ < n[a
n
[ ya que cada ra´ız de p(z) debe tener
magnitud menor que 1. El resultado se obtiene al utilizar la desigualdad trian-
gular: el m´ odulo de la suma es menor que la suma de los m´ odulos.
La segunda propiedad dice que la estabilidad de p(z) exige como condici´ on
necesaria que [a
0
[ < [a
n
[. Este resultado se obtiene al considerar que cada factor
λ
i
en (8.63) debe tener magnitud menor que uno.
Las dos propiedades precedentes ayudan a descartar algunos polinomios bajo
an´ alisis. El lector debe recordar que estas propiedades son necesarias pero no
suficientes para asegurar estabilidad. Tambi´en conviene tener presente que, a
diferencia del caso de tiempo continuo, un polinomio puede ser estable aunque
algunas de sus ra´ıces sean positivas; esto implica que los coeficientes de un
polinomio p(z) estable pueden ser positivos, negativos o cero.
Una vez superada la etapa de la inspecci´ on se requiere un m´etodo de an´ alisis
que proporcione una respuesta categ´ orica sobre la estabilidad o inestabilidad del
polinomio. Una de las formas de realizar el estudio es transformar el problema
en uno en que podamos aplicar el algoritmo de Routh y, en general, todos los
resultados de la Secci´ on ¸7.5.1. Con este objetivo se puede usar, por ejemplo, la
transformaci´ on bilineal:
z =
w + 1
w −1
⇐⇒w =
z + 1
z −1
(8.64)
donde w es una variable compleja auxiliar. Si expresamos la variable w en t´ermi-
no de su parte real ζ y su parte imaginaria ψ, es decir w = ζ + jψ entonces
(8.64) se puede escribir como:
z =
w + 1
w −1
=
ζ + 1 +jψ
ζ −1 +jψ
=⇒[z[ =
¸
(ζ + 1)
2

2
(ζ −1)
2

2
(8.65)
De la ecuaci´ on (8.65) se puede ver que ζ > 0 si y s´ olo si [z[ < 1. Tambi´en
se puede ver w est´ a en el eje imaginario ( ζ = 0) si y s´ olo si z est´ a sobre la
circunferencia unitaria ([z[ = 1). As´ı, si definimos la funci´ on racional P
w
(w)
como:
P
w
(w) = p (z)
¸
¸
¸
¸
¸
z=
w+1
w−1
(8.66)
entonces el polinomio p(z) tiene todas sus ra´ıces al interior del disco unitario
si y s´ olo si el polinomio numerador de P
w
(w) tiene todas sus raices al interior
del semi-plano izquierdo. Por lo tanto, podemos usar el criterio de Routh para
probar el polinomio numerador de P
w
(w) y as´ı estudiar la estabilidad de p(z).
Ejemplo 8.9. Considere el polinomio p(z) = z
3
−0, 8z
2
−0, 25z +0, 2. Se trata
de determinar si todas sus ra´ıces al interior del disco unitario. Para ello primero
calculamos P
w
(w), obteniendo:
208CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
Jury
Jury!algoritmo
P
w
(w) =
0, 15w
3
+ 1, 85w
2
+ 4, 65w + 1, 35
(w −1)
3
(8.67)
Luego aplicamos Routh al numerador de P
w
(w), construyendo el arreglo:
w
3
0, 15 4, 65
w
2
1, 85 1, 35
w
1
4, 5405
w
0
1, 35
Como no hay cambios de signo en la primera columna, sabemos que todos
los ceros de P
w
(w) est´ an al interior del semi-plano izquierdo, lo cual implica
que todas las ra´ıces de p(z) est´ an estrictamente al interior del disco unitario.
222
El m´etodo de la transformaci´ on bilineal, aunque efectivo, puede llegar a
ser muy engorroso para polinomios de grado elevado. Tambi´en hace m´ as dif´ıcil
estudiar problemas de estabilidad condicionada a par´ ametros. Para evitar estos
inconvenientes, se puede utilizar un algoritmo o criterio alternativo desarrollado
por Jury
z
n
γ
n,n
γ
n,n−1
γ
n,n−2
. . . γ
n,1
γ
n,0
γ
n,0
γ
n,1
γ
n,2
. . . γ
n,n−1
γ
n,n
z
n−1
γ
n−1,n−1
γ
n−1,n−2
γ
n−1,n−3
. . . γ
n−1,0
γ
n−1,0
γ
n−1,1
γ
n−1,2
. . . γ
n−1,n−1
.
.
.
z
0
γ
0,0
Cuadro 8.1: Arreglo de Jury
Consideremos el polinomio en (8.60) y el arreglo de la Tabla 8.1. Este arreglo
se construye como se indica, paso a paso, a continuaci´ on:
(i) La primera fila se construye directamente con los coeficientes de polinomio
original en orden descendente, i.e. γ
n,
= a

, = n, n −1, . . . , 0.
(ii) La segunda fila se construye a partir de la primera fila con los mismos
coeficientes, pero en orden ascendente.
(iii) La tercera fila es calculada a partir de las dos immediatamente anteriores
de acuerdo a la siguiente f´ ormula:
8.5. ESTABILIDAD 209
γ
n−1,n−
=
1
γ
n,n
¸
¸
¸
¸
γ
n,n
γ
n,−1
γ
n,0
γ
n,n−+1
¸
¸
¸
¸
= 1, 2, . . . , n (8.68)
Note que esta fila tiene un elemento menos que las dos anteriores.
(iv) La cuarta fila se construye a partir de la tercera fila con los mismos coefi-
cientes, pero en orden inverso.
(v) La quinta fila se construye a partir de las dos filas precedentes usando
(8.68) con los coeficientes correspondientes. Esta regla de construcci´ on se
aplica tambi´en a todas las filas impares que siguen, hasta la (2n + 1)-
´esima, es decir, hasta calcular γ
0,0
. En cada una de estas filas, el n´ umero
de coeficientes se reduce en uno.
(vi) La sexta fila, as´ı como todas las filas pares que siguen, se construyen con
los mismos coeficientes de la fila impar inmediatamente anterior, pero en
orden inverso.
Jury formul´ o un teorema de estabilidad cuyas condiciones se verifican usando
el arreglo de la tabla 8.1. El teorema se enuncia a continuaci´ on, sin demostraci´ on,
ya que ella excede el marco de este texto. El lector interesado puede consultar
[10].
Teorema 8.1. El polinomio p(z) dado en (8.60), con a
n
> 0, tiene todas
sus ra´ıces estrictamente al interior del c´ırculo unitario si y s´ olo si γ
,
> 0
para = 0, 1, . . . , n −1. 222
A continuaci´ on ejemplificamos el algoritmo, tanto en su mec´ anica como en
sus potenciales aplicaciones.
Ejemplo 8.10. Considere el polinomio p(z) = z
3
− 0, 5z
2
− 0, 64z + 0, 32.
Entonces n = 3, a
n
= 1 > 0 y el arreglo de Jury resultante se muestra en la
Tabla 8.2.
Los t´erminos de la tercera, quinta y s´eptima fila se calculan siguiendo el
procedimiento general descrito precedentemente, as´ı:
γ
2,2
=
1
1
¸
¸
¸
¸
1 0, 32
0, 32 1
¸
¸
¸
¸
; γ
2,1
=
1
1
¸
¸
¸
¸
1 −0, 64
0, 32 −0, 5
¸
¸
¸
¸
; γ
2,0
=
1
1
¸
¸
¸
¸
1 −0, 5
0, 32 −0, 64
¸
¸
¸
¸
(8.69)
γ
1,1
=
1
0,8976
¸
¸
¸
¸
0, 8976 −0, 48
−0, 48 0, 8976
¸
¸
¸
¸
; γ
1,0
=
1
0,8976
¸
¸
¸
¸
0, 8976 −0, 2952
−0, 48 −0, 2952
¸
¸
¸
¸
(8.70)
γ
0,0
=
1
0, 6409
¸
¸
¸
¸
0, 6409 −0, 4531
−0, 4531 0, 6409
¸
¸
¸
¸
(8.71)
210CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
z
3
γ
3,3
= 1 γ
3,2
= −0, 5 γ
3,1
= −0, 64 γ
3,0
= 0, 32
0,32 -0,64 -0,5 1
z
2
γ
2,2
= 0, 8976 γ
2,1
= −0, 2952 γ
2,0
= −0, 48
-0,48 -0,2952 0,8976
z
1
γ
1,1
= 0, 6409 γ
1,0
= −0, 4531
−0, 4531 0, 6409
z
0
γ
0,0
= 0, 3206
Cuadro 8.2: Arreglo de Jury. Ejemplo 8.10
Al aplicar el teorema de Jury observamos que γ
3,3
= a
3
> 0 y que γ
,
> 0,
∀ ∈ ¦0, 1, 2¦. En consecuencia el polinomio p(z) tiene todas sus ra´ıces dentro
del disco unitario.
222
Para apreciar el uso del algoritmo de Jury en estudios de estabilidad relativa
o condicional, consideraremos un ejemplo adicional.
Ejemplo 8.11. Sea un polinomio p(z) = z
2
+ az + 0, 8. Se trata de estudiar
bajo qu´e condiciones este polinomio tiene sus dos ra´ıces con m´ odulo menor que
uno. Note que n = 2 y a
n
= a
2
= 1 > 0.
Primero construimos el arreglo de Jury, el que aparece en la Tabla 8.3.
z
2
γ
2,2
= 1 γ
2,1
= a γ
2,0
= 0, 8
0,8 a 1
z
1
γ
1,1
= 0, 36 γ
1,0
= 0, 2a
0,2a 0,36
z
0
γ
0,0
= 1 −
a
2
1,8
2
Cuadro 8.3: Arreglo de Jury. Ejemplo 8.11
El arreglo de la tabla muestra que la condici´ on requerida por el teorema de
Jury (γ
1,1
> 0, γ
0,0
> 0) se cumple si y s´ olo si −1, 8 < a < 1, 8.
222
8.6. Polos, ceros y la respuesta temporal
A continuaci´ on examinaremos algunas propiedades fundamentales de los po-
los y ceros de la funci´ on de transferencia de un sistema de tiempo discreto, y su
influencia sobre las caracter´ısticas de la respuesta de un sistema lineal.
Consideremos una funci´ on de transferencia de la forma general:
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 211
fasem´ ınima
ceros!fasenom´ ınima
funci´ ondetransferencia!estable
polos
H(z) = K

m
i=1
(z −β
i
)
z
d

n
l=1
(z −α
l
)
(8.72)
donde α
l
∈ C y β
i
∈ C. Si suponemos que no hay valores de l y de i tales que
α
l
= β
i
entonces, β
1
, β
2
, . . . , β
m
and α
1
, α
2
, . . . , α
n
son los ceros y los polos de
la funci´ on de transferencia, respectivamente (a estos ´ ultimos hay que agregar
los d polos en el origen).
Estaremos particularmente interesados en aquellos ceros ubicados sobre la
circunferencia unitaria o en su cercan´ıa, y en aquellos polos al exterior del disco
unitario. Los polos y ceros ubicados en estas regiones juegan un rol fundamental
en la din´ amica del sistema.
Una clase especial de funci´ on de transferencia es aquella que tiene todos
sus ceros y sus polos al interior del disco unitario en el plano complejo z .
Tradicionalmente ´estas se denominan funciones de transferencia de fase
m´ınima . Sin embargo, a similitud de la nomenclatura usada en sistemas de
tiempo continuo, reservaremos ese nombre para referirnos simplemente a fun-
ciones de transferencia sin ceros fuera del disco unitario, que tengan o no polos
en ´el. Diremos que un cero tiene fase no m´ınima si tiene magnitud mayor o,
al menos, igual a uno, de otra forma se denominar´ a cero de fase m´ınima. Si
hablamos de una funci´ on de transferencia estable nos referimos a que todos
sus polos se ubican sobre el disco unitario abierto; si decimos que inestable,
es porque al menos uno de sus polos se encuentra fuera del disco unitario, o
sobre el borde de este ´ ultimo. Los polos en si mismos tambi´en se pueden de-
nominar estables o inestables , si se encuentran dentro o fuera del disco unitario
abierto,respectivamente
2
.
A continuaci´ on examinaremos la influencia sobre la respuesta transiente de
un sistema de los polos y ceros de su funci´ on de transferencia.
8.6.1. Polos
Las funciones que se originan al aplicar la transformaci´ on Zeta a las ERS
de sistemas lineales, son funciones racionales y siempre pueden descomponerse
en fracciones parciales. Cada uno de los t´erminos de esta expansi´ on contiene
ya sea un polo real simple, un par de polos complejos conjugados o m´ ultiples
combinaciones de polos repetidos. Por tanto, para conocer el efecto de los polos
en la respuesta transiente de un sistema basta conocer el efecto ocasionado por
los polos de primer y segundo orden y su interacci´ on.
Un polo de primer orden contribuye a la descomposici´ on en fracciones par-
ciales, en general, con un t´ermino de la forma:
H
1
(z) =
K
1
(1 −a)
z −a
(8.73)
donde K
1
es la ganancia a continua.
2
En ocasiones, por abuso de lenguaje, a los ceros de fase no m´ınima tambi´en se les denomina
ceros inestables, dado que se encuentran en la regi´ on del plano z en que los polos son
inestables.
212CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
modosnaturales
Mientras que un polo de segundo orden contribuye a la expansi´ on con un
t´ermino:
H
2
(s) = K
2
1 −2ρ cos θ
o

2
z
2
−2zρ cos θ
o

2
(8.74)
donde K
2
es la ganancia a continua.
En el Cap´ıtulo 4 se describi´ o gr´ aficamente la relaci´ on entre la ubicaci´ on de
las frecuencias naturales (simples) y los modos naturales. Dado que los polos de
H(z), salvo aquellos ubicados en el origen, son iguales a las frecuencias naturales,
es conveniente repetir la descripci´ on gr´ afica de esa relaci´ on.
1
z
Figura 8.4: Relaci´ on entre la ubicaci´ on de los polos (de multiplicidad uno) y los
modos naturales (caso decreciente).
Cada polo genera un t´ermino espec´ıfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos est´ an presentes tambi´en en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 213
polos!r´ apidos
polos!dominantes
polos!lentos
z
1
Figura 8.5: Relaci´ on entre la ubicaci´ on de los polos (de multiplicidad uno) y los
modos naturales (caso no decreciente).
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicaci´ on de ´este sobre el plano complejo z , exactamente equivalente a la
ubicaci´ on de cada frecuencia natural λ sobre un plano complejo, como se vi´ o en
el Cap´ıtulo 4. Para ilustrar esto podemos apreciar en la Figura 8.4 las diferentes
respuestas a impulso de un sistema de un ´ unico polo.
En forma an´ aloga a lo que ocurre con los sistemas continuos en el tiempo,
nos referiremos, en general, como polos r´ apidos a aquellos que se encuentran
m´ as cercanos al origen del plano z . Esto es equivalente que considerar que la
respuesta transiente asociada a estos polos desaparece m´ as r´ apido que aquella
asociada a los otros polos, tal como puede apreciarse en la figura 8.4. Por otro
lado, llamaremos polos dominantes o polos lentos a aquellos que se encuantran
al interior del disco unitario, pero m´ as cercanos al l´ımite de estabilidad (cir-
cunferencia unitaria) que el resto de los polos de sistema. Esto equivale a decir
que el transiente asociado a los polos dominantes decae m´ as lentamente que los
dem´ as modos naturales.
214CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
ceros
controlabilidad
observabilidad
Por ejemplo, si tenemos un sistema cuyos polos est´ an ubicados en (−0, 5; −0, 6±
j0, 6; −0, 2; −0, 2+j0, 3), podemos decir que los polos dominantes es −0, 6±j0, 6
y el polo m´ as r´ apido es el que se encuentra en −0, 2.
8.6.2. Ceros
En general, el efecto de la ubicaci´ on de los polos en la din´ amica de un sis-
tema puede entenderse sin demasiada dificultad dada su directa relaci´ on con la
estabilidad y las caracter´ısticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha m´ as
informaci´ on que la aqu´ı detallada. Por el contrario, a menudo se ha subestima-
do el efecto de los ceros en el an´ alisis del comportamiento de un sistema. Sin
embargo, en los ´ ultimos a˜ nos se ha vuelto a dar un vistazo al efecto de los ceros
sobre la respuesta de un sistema, que ahora son reconocidos por su importancia,
por ejemplo, al definir criterios de dise˜ no de sistemas de control. Es asi como,
mientras que los polos de un sistema est´ an asociados a la presencia de sus modos
naturales aislados, los ceros reflejan de alg´ un modo la interacci´ on entre ´estos,
por ejemplo, en el caso en que la salida de un sistema est´ a formada por la suma
de dos modos naturales diferentes. Adem´ as, a pesar que la ubicaci´ on de los polos
determina los modos naturales de un sistema, es la ubicaci´ on de los ceros la que
determina la proporci´ on en que los modos aparecen combinados en la salida. En
estas combinaciones los modos naturales toman diferente fuerza, pudiendo ser
su efecto, en algunos casos, casi imperceptible. De hecho, la ubicaci´ on relativa
de polos y ceros tiene directa relaci´ on con los conceptos de observabilidad y
controlabilidad, como se detalla en el Cap´ıtulo 10.
Veamos esto a trav´es de un ejemplo.
α
z −0, 5
Y (z) U(z)
1 −α
z −0, 8
Figura 8.6: Sistema discreto con interacci´ on aditiva entre dos estados.
Ejemplo 8.12. Consideremos el sistema de la Figura 8.6, cuya funci´ on de
transferencia sistema esta dada por:
H(z) =
Y (z)
U(z)
=
α
z −0, 5
+
1 −α
z −0, 8
=
(0, 3α + 0, 2)z −(0, 3α + 0, 1)
(z −0, 5)(z −0, 8)
(8.75)
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 215
cancelaci´ on!cuasi-
undershoot
contrarespuesta
respuesta!inversa
Este sistema tiene sus polos en p
1
= 0, 5 y p
2
= 0, 8 y un cero en c
1
=
3α+1
3α+2
.
Es decir, la ubicaci´ on est´ a directamente relacionada con el peso de cada uno
de los modos naturales en la respuesta del sistema, por ejemplo, a un impulso
unitario en la entrada:
y[t] = α(0, 5)
t
+ (1 −α)(0,8)
t
(8.76)
Si tomamos un valor de α cercano a cero, por ejemplo α = 0,01, la funci´ on
de transferencia es:
H(z) = 0, 203
(z −0,5074)
(z −0, 5)(z −0, 8)
(8.77)
En esta puede observarse la cercan´ıa del cero al polo en z = 0, 5. La respuesta
a impulso ser´ a en este caso:
y[t] = 0, 01(0, 5)
t
+ 0, 99(0,8)
t
(8.78)
En que se aprecia la peque˜ na magnitud con que aparece el modo natural m´ as
r´ apido. Es decir, a medida que el cero se acerca al polo en z = 0, 5 se produce
una cuasi-cancelaci´ on , que ser´ a total cuando α = 0.
Invitamos al lector a estudiar el caso an´ alogo cuando α se acerca a 1 y cu´ al
es su efecto sobre el otro modo natural del sistema. Adem´ as puede analizarse
qu´e sucede con el sistema cuando el par´ ametro α toma valores negativos. ¿Qu´e pasa
si α = −1/3 o α = −2/3 ?
222
8.6.3. Respuesta inversa o contrarespuesta (undershoot)
La Figura 8.3 en la p´ agina 202 sugiere que existen casos en los que, en la
presencia de una excitaci´ on mayor que cero, la respuesta del sistema se hace
negativa durante alg´ un lapso no despreciable. Existe un resultado an´ alogo al
Lema 7.1 en la p´ agina 182, respecto del rol de algunos ceros que est´ an ubicados
fuera del c´ırculo unitario.
Lema 8.2. Considere un sistema lineal estable con funci´ on de transferencia
H(z), y con un cero real en z = c, donde c > 1, entonces la respuesta a un
escal´ on positivo se hace negativa durante uno o m´ as lapsos no despreciables.
Demostraci´ on
La respuesta del sistema est´ a dada por:
Y (z) = H(z)
Kz
z −1
; K > 0 (8.79)
Entonces:
H(z)
Kz
z −1
=

t=0
y[t]z
−t
; [z[ > 1 (8.80)
Note que la regi´ on de convergencia queda determinada, por un lado, por el hecho
que el sistema es estable, por lo cual la transformada de h[t] est´ a bien definida
216CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
para [z[ ≥ 1 y, por otro lado, por el hecho que la respuesta a un escal´ on est´ a bien
definida para [z[ > 1. En consecuencia, la regi´ on de convergencia para y[t] es
[z[ > 1.
Si ahora, en la ecuaci´ on (8.80), hacemos z = c (note que, por ser c > 1,
est´ a en la regi´ on de convergencia) obtenemos, aplicando el hecho que H(c) = 0
H(c)
K
c
=

t=0
y[t]c
−t
= 0 (8.81)
Como la suma es cero, y c
−t
> 0, ∀t, necesariamente y[t] debe ser negativa
en uno o m´ as lapsos, y positiva, el resto del tiempo.
El lema precedente justifica la presencia de undershoots, como el sugerido
en la Figura 8.3 en la p´ agina 202. Sin embargo, este comportamiento inverso se
puede manifestar en formas m´ as diversas, tal como se ilustra en la Figura 8.7.
0 10 20 30 40 50
−1
−0.5
0
0.5
1
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l
ó
n
0 10 20 30 40 50
−1
−0.5
0
0.5
1
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l
ó
n
Figura 8.7: Ejemplos de distintas formas de respuesta inversa en sistemas dis-
cretos.
8.7. PROBLEMAS PARA EL LECTOR 217
8.7. Problemas para el lector
Problema 8.1. Determine la transformada Zeta de las siguientes funciones:
(i) y[t] = Acos(θt +φ)
(ii) y[t] = t a
−t
(iii) y[t] =
_
¸
_
¸
_
0 ; 0 ≤ t ≤ 1
1 ; 2 ≤ t ≤ 7
0 ; t ≥ 8
(iv) y[t] = (−0, 5)
t
Problema 8.2. Para los siguientes sistemas:
(i) y[t] −y[t −1] = u[t]
(ii) y[t] = u[t] −u[t −1]
(iii) y[t] −1, 4y[t −1] + 0, 48y[t −2] = −0, 08u[t]
(iv) y[t] −y[t −1] −1, 1[t −2] = −u[t −1] −0, 1u[t −2]
8.2.1 Determine su funci´ on de transferencia,
8.2.2 Determine si son o no estables,
8.2.3 Determine y grafique su respuesta a delta de Kronecker, y
8.2.4 Determine y grafique su respuesta a escal´ on unitario.
Problema 8.3. Considere un sistema definido por su ecuaci´ on recursiva:
y[t + 2] −y[t + 1] + 0, 5y[t] = u[t] −0, 5u[t −1]
8.3.1 Determine la funci´ on de transferencia del sistema.
8.3.2 Determine la salida del sistema a entrada cero y condiciones iniciales
y[−1] = 1 y y[−1] = −1. Grafique.
8.3.3 Determine la salida del sistema si la entrada es u[t] = µ[t] − µ[t − 2].
Grafique.
Problema 8.4. Si N es un n´ umero entero positivo, entonces considere los
siguientes sistemas:
(promediomovil) y[t] =
1
N
(u[t] +u[t −1] +. . . +u[t −N])
(autoregresivo) y[t] +y[t −1] +. . . +y[t −N] = u[t]
8.4.1 Determine su funci´ on de transferencia,
218CAP
´
ITULO8. AN
´
ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA
8.4.2 Determine sus polos y ceros,
8.4.3 Determine y grafique su respuesta a delta de Kronecker, y
8.4.4 Determine y grafique su respuesta a escal´ on unitario.
Problema 8.5. Para el sistema:
y[t] +α
1
y[t −1] +α
0
y[t −2] = βu[t] −u[t −1]
8.5.1 Determine condiciones sobre α
0
, α
1
y β de manera que el sistema sea
estable.
8.5.2 Si u[t] = 0, α
1
= −1, α
0
= 0,16 y β = 0, determine la condiciones
iniciales de manera que el la respuesta homog´enea s´ olo aparezca el modo
natural dominante.
8.5.3 Si no se conoce u[t] = 0, pero α
1
= −1, α
0
= 0,16, determine β de
manera que en la salida solo aparezca el modo natural mas r´ apido.
Problema 8.6. Se sabe que la respuesta de un sistema lineal a un escal´ on
unitario en su entrada (con condiciones iniciales iguales a cero) est´ a dada por:
g[t] =
_
0, 5 −(0, 4)
t
cos
_
π
3
(t −1)
__
µ[t]
Determine la funci´ on de transferencia del sistema.
respuestaenfrecuencia
transformadadeFourier
transformadadeLaplace
transformadaZeta
Bode
Nyquist
Cap´ıtulo 9
Representaci´ on de sistemas
lineales
9.1. Ideas generales
La caracterizaci´ on de la respuesta en frecuencia de un sistema lineal, as´ı co-
mo su funci´ on de transferencia obtenida con la tranformaci´ on de Fourier, la
transformaci´ on de Laplace o la transformaci´ on Zeta, son herramientas ´ utiles
para el an´ alisis, s´ıntesis y dise˜ no de sistemas din´ amicos en sus distintas aplica-
ciones, tales como procesamiento de se˜ nales y control autom´ atico, entre otras.
Estas herramientas han sido ampliamente reconocido a trav´es de los a˜ nos y han
dado lugar tambi´en a una serie de formas especiales de representaci´ on gr´ afica.
En primer lugar, recordemos que la respuesta en frecuencia de un sistema
lineal y su funci´ on de transferencia est´ an caracterizadas por la misma funci´ on de
la frecuencia
1
H(jω) que, en general, toma valores complejos. Una de las formas
de representaci´ on m´ as usuales se basa en gr´ aficos separados de la magnitud y la
fase de H(jω), en donde la frecuencia, ω, es la variable independiente. La m´ as
conocida y usada de estas representaciones fue desarrollada por Hendrik Bode
en los a˜ nos cuarenta [4](o no?). Por otra parte, tambi´en es posible representar
H(jω) en un solo gr´ afico ´ unico donde el eje de las abscisas corresponde a su parte
real, y el eje de ordenadas, a su parte imaginaria. Este se denomina diagrama
polar o de Nyquist. En esta ´ ultima caracterizaci´ on, la frecuencia queda impl´ıcita.
Finalmente en este Cap´ıtulo introducimos la representaci´ on en diagramas de
bloques, ampliamente usada en el dominio temporal, de Fourier, de Laplace y de
la transformada Zeta, dada su gran utilidad para representar sistemas complejos
mediante la interconecci´ on de sistemas m´ as simple, y la causalidad inherente de
las se˜ nales de entrada y de salida de estos sistemas din´ amicos.
1
Ver Lema 6.1 en la p´ agina 129.
219
220 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
Bode!diagramasde
Bode|textbf
diagramas!deBode
ejeslogar´ ıtmicos
decada
octava
decibel
factorescan´ onicos
9.2. Diagramas de Bode
9.2.1. Tiempo continuo
Como ya hemos visto, un sistema de tiempo continuo puede ser caracterizado
por la funci´ on H( ω). El diagrama de Bode correspondiente a esta funci´ on
est´ a formado por dos gr´ aficos: uno que describe la evoluci´ on de su magnitud
[H( ω)[ como funci´ on de la frecuencia angular ω, y el otro describe el ´ angulo
de la respuesta en frecuencia ∠H( ω), tambi´en como funci´ on de la frecuencia
angular ω.
Los diagramas de Bode son dibujados con ejes especiales:
El eje de las abscisas es lineal en log
10
(ω), o logar´ıtmico en ω. Esto permite
una representaci´ on compacta de la frecuencia en un gran rango de valores.
En este eje, la unidad es la decada, que corresponde a la distancia en el
eje que separa a una frecuencia cualquiera ω
1
y su m´ ultiplo 10ω
1
. Una
unidad alternativa es la octava, que corresponde a la distancia entre ω
1
y

1
(doble de la frecuencia).
La magnitud de la respuesta en frecuencia es medida en decibeles [dB], es
decir, se representa la funci´ on:
[H( ω)[
dB
= 20 log
10
[H( ω)[ (9.1)
Es decir, al igual que para la frecuencia, se utiliza un eje logar´ıtmico en
[H( ω)[.
El uso de ejes logar´ıtmicos proporciona varias ventajas, incluyendo pre-
cisi´ on por valores peque˜ nos y grandes de [H( ω)[, facilidad para construir
aproximaciones simples para [H( ω)[
dB
, y el hecho que la respuesta en fre-
cuencia de sistemas en cascada puede ser obtenida sumando las respuestas
en frecuencia individuales.
El ´ angulo es medido en una escala lineal en radianes o grados.
Los paquetes de software disponibles, tales como Matlab , incluyen coman-
dos especiales para calcular la respuesta en frecuencia y dibujar los diagramas de
Bode. Sin embargo, es importante, para el manejo conceptual de la herramienta,
desarrollar la habilidad de hacer, en forma manual y r´ apida, un bosquejo de esos
diagramas, ´ utiles para el an´ alisis y el dise˜ no de las propiedades de un sistema o
de una se˜ nal.
Para desarrollar estas ideas consideraremos una funci´ on de transferencia que
puede expresarse como un producto de funciones particulares, que llamaremos
factores can´ onicos, correspondientes a los siguientes tipos:
[B1] K
[B2] (1 +T ω)
q
, q ∈ ¦−1; 1¦
9.2. DIAGRAMAS DE BODE 221
Bode!aproximaciones
[B3] ( ω)
q
, q ∈ ¦−1; 1¦
[B4]
_
1 + 2ξ
 ω
ω
n
+
_
 ω
ω
n
_
2
_
q
q ∈ ¦−1; 1¦, 0 ≤ ξ < 1.
[B5] e
− ωτ
, τ > 0
donde el exponente q ∈ ¦−1; 1¦ describe las dos opciones para cada factor: su
presencia en el numerador o en el denominador de la funcion H( ω) dada.
A continuaci´ on se presente un ejemplo ilustrativo.
Ejemplo 9.1. Considere la funci´ on:
H( ω) = 6
e
−0,1 ω
( ω + 2)
 ω( ω + 1)(( ω)
2
+ ω + 4)
(9.2)
Que puede reescribirse como:
H( ω) =
(3) (e
−0,1 ω
) (1 + 0, 5 ω)
( ω) (1 + ω)
_
1 + 2 0, 25
 ω
2
+
_
 ω
2
_
2
_ (9.3)
222
As´ı, en el caso general:
H( ω) =
n

=1
F

( ω) (9.4)
donde cada uno de los factores elementales, F

( ω), es una funci´ on perteneciente
a alguno de los tipos [B1] a [B5]. Entonces
[H( ω)[
dB
= 20 log
10
[H( ω)[ =
n

=1
20 log
10
[F

( ω)[ =
n

=1
[F

( ω)[
dB
(9.5)
∠H( ω) =
n

=1
∠F

( ω) (9.6)
Es decir:
La magnitud (en dB) de H( ω) es igual a la suma de las magnitudes (en
dB) de F

( ω), y
El ´ angulo de H( ω) es igual a la suma de los ´ angulos de F

( ω)
En consecuencia, para poder construir aproximaciones para una funci´ on de
transferencia arbitraria, es suficiente desarrollar aproximaciones para cada uno
de los cinco factores can´ onicos, [B1] a [B5]. Esto es lo que haremos a contin-
uaci´ on.
222 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
Bode!as´ ıntotas
[B1]
En este caso F( ω) = K y su magnitud es exactamente:
[K[
dB
= 20 log
10
[K[ (9.7)
es decir, es una recta horizontal. Por su parte, la fase es:
∠K =
_
0 para K ≥ 0
180
o
para K < 0
(9.8)
As´ı, la fase de larespuesta en frecuencia tambi´en es una recta horizontal.
[B2]
En este caso F( ω) = (1 +T ω)
q
, donde q ∈ ¦−1; 1¦. Entonces:
[F( ω)[
dB
= 20 q log
10
_
1 +T
2
ω
2
= 10 q log
10
(1 +T
2
ω
2
) (9.9)
∠F( ω) = q arctan(Tω) (9.10)
Podemos construir una aproximaci´ on por trazos o as´ıntotas para la magni-
tud, si observamos que:
ω ¸
1
[T[
=⇒[F( ω)[
dB
≈ 0 [dB] (9.11)
ω ¸
1
[T[
=⇒[F( ω)[
dB
≈ 20q log
10
([T[ω) (9.12)
Esto significa que la magnitud de la respuesta en frecuencia de una funci´ on
tipo [B2] puede aproximarse por dos as´ıntotas: una de baja frecuencia, con
pendiente 0 [dB/dec] y otra de alta frecuencia, cuya pendiente es 20q [dB/dec].
Estas as´ıntotas se intersectan en ω = 1/[T[. Cuando q = −1, a esta frecuencia
la curva exacta pasa 3 [dB] m´ as abajo, ya que [F(j/[T[)[ =
_
1/2 y basta
recordar que 20 log
10

0, 5 ≈ −3, 0103.
En la Figura 9.1 se muestra la aproximaci´ on asint´ otica y la curva exacta para
una funci´ on tipo [B2], con q = −1, en t´ermino de la frecuencia normalizada ω[T[.
La fase de la respuesta en frecuencia es m´ as dif´ıcil de aproximar de una
manera simple. Sabemos que para [Tω[ ¸ 1 la fase es aproximadamente cero
y que para [Tω[ ¸ 1, la fase es aproximadamente φ

= 90 q signo(T) [
o
]. Una
aproximaci´ on aceptable puede ser construida por tres rectas:
Una recta horizontal en 0 [
o
] en el rango de frecuencia (−∞; 0, 1/[T[), es
decir, hasta una d´ecada antes de 1/[T[).
Una recta que une los puntos (0; 0, 1/[T[) y (10/[T[; φ

), es decir, desde
una d´ecada antes hasta una d´ecada despu´es de 1/[T[). Esta recta tiene
una pendiente de 0, 5φ

[
o
/dec] (para el caso con T > 0 y q = 1, esta
pendiente es 45 [
o
/dec]),
9.2. DIAGRAMAS DE BODE 223
10
−2
10
−1
10
0
10
1
10
2
−50
−40
−30
−20
−10
0
10
ω |T|
M
a
g
n
i
t
u
d

[
d
B
]
Figura 9.1: Diagrama de Bode de magnitud para una funci´ on tipo [B2], con
q = −1
Y una recta horizontal en φ

en el rango de frecuencia (10/[T[, ∞). As´ı,
en alta frecuencia, la fase tiende a 90q[
o
] signo(T).
Esta aproximaci´ on es exacta en ω = 1/[T[, donde la fase es 45q[
o
].
En la Figura 9.2 se aprecia tanto la aproximaci´ on asint´ otica, como la curva
exacta para el caso q = −1 y T > 0 . La frecuencia se ha normalizado a ω[T[.
10
−2
10
−1
10
0
10
1
10
2
−100
−80
−60
−40
−20
0
20
ω T
F
a
s
e

[
°
]
Figura 9.2: Diagrama de Bode de fase para una funci´ on tipo [B2], con q = −1
[B3]
En este caso, F( ω) = ( ω)
q
, q ∈ ¦−1; 1¦. La magnitud, en decibeles, est´ a dada
por:
[F( ω)[
dB
= 20q log
10
[ω[ (9.13)
De esta forma, considerando que el eje de abscisas est´ a en escala logar´ıtmica, la
magnitud es una recta con pendiente 20q [dB/dec].
La fase, en tanto, es:
∠F( ω) = 90 q[
o
] (9.14)
224 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
as´ ıntotas
que corresponde a una recta horizontal en 90 q[
o
].
[B4]
En este caso, el factor can´ onico es de la forma:
F( ω) =
_
1 + 2ξ
 ω
ω
n
+
_
 ω
ω
n
_
2
_
q
(9.15)
en que q ∈ ¦−1; 1¦ y 0 ≤ ξ < 1. Se trata de un factor de segundo grado,
determinado por dos par´ ametros: ω
n
y ξ.
La magnitud es:
[F( ω)[
dB
= 20 q log
10
¸
_
1 −
ω
2
ω
2
n
_
2
+ 4ξ
2
ω
2
ω
2
n
= 10 q log
10
_
_
1 −
ω
2
ω
2
n
_
2
+ 4ξ
2
ω
2
ω
2
n
_
(9.16)
Y el ´ angulo de fase es:
∠F( ω) =
_
¸
¸
_
¸
¸
_
q arctan
_
2ξωω
n
ω
2
n
−ω
2
_
∀ω < ω
n
90q[
o
] +q arctan
_
2ξωω
n
ω
2
−ω
2
n
_
∀ω > ω
n
(9.17)
Para construir una aproximaci´ on por trazos o as´ıntotas, primero observa-
mos que:
ω ¸ω
n
=⇒[F( ω)[
dB
≈ 0 [dB] (9.18)
ω ¸ω
n
=⇒[F( ω)[
dB
≈ 40q log
10
_
ω
ω
n
_
(9.19)
10
−1
10
0
10
1
−40
−20
0
20
40
ω/ω
n
M
a
g
n
i
t
u
d

[
d
B
]
ξ
Figura 9.3: Diagrama de Bode de magnitud para una funci´ on tipo [B4], con
q = −1 y dos valores de ξ.
9.2. DIAGRAMAS DE BODE 225
resonancia
As´ı, en baja frecuencia, la magnitud (en [dB]) puede ser aproximada por una
as´ıntota horizontal en 0 [dB]. En alta frecuencia, la aproximaci´ on asint´ otica es
una recta de pendiente 40q [dB/dec] que pasa por el punto (ω
n
; 0). Sin embargo,
la curva exacta puede ser muy distinta a la aproximaci´ on asint´ otica, dependiendo
del valor del par´ ametro ξ. Esto puede se ilustra en la Figura 9.3, donde se
muestran las curvas exactas para ξ = 0, 01 and ξ = 0, 1. La flecha indica la
direcci´ on en la que aumenta ξ. Note que en el caso l´ımite, cuando ξ = 0, el
diagrama tiende a ∞ [dB].
En general, el diagrama de magnitud exhibe, a la frecuencia ω
r
, un pico
de resonancia M
r
, valor que puede calcularse usando los m´etodos cl´ asicos del
C´ alculo. Para simplificar el desarrollo, usaremos la frecuencia normalizada ν =
ω/ω
n
y el hecho que para q = −1, [F( ω)[
dB
alcanza el m´ aximo a la misma
frecuencia ν
r
a la que g(ν) = (1−ν
2
)
2
+4ξ
2
ν
2
alcanza el m´ınimo. As´ı, derivando
y haciendo igual a cero se obtiene:
dg(ν)

= 2(1 −ν
2
)(−2ν) + 8ξ
2
ν = 0 (9.20)
donde se observa que la resonancia ocurre exactamente en:
ν
r
=
_
1 −2ξ
2
=⇒ω
r
= ω
n
_
1 −2ξ
2
(9.21)
Con esto, y la ecuaci´ on (9.16), se obtiene:
M
r
= [F( ω
r
)[ =
1

(9.22)
Finalmente, en (9.21) se puede notar que el pico de resonancia existe para
q = −1 si y s´ olo si ξ < 1/

2.
La fase de una funci´ on de tipo [B4], dada por (9.17), se puede tambi´en
aproximar por as´ıntotas, con la misma prevenci´ on que en el caso de la magnitud:
la precisi´ on de la aproximaci´ on asimpt´ otica depende crucialmente del valor de
ξ. As´ı:
ω ¸ω
n
=⇒∠F( ω) ≈ 0 [
o
] (9.23)
ω ¸ω
n
=⇒∠F( ω) ≈ 180 q[
o
] (9.24)
De esta forma, la aproximaci´ on asint´ otica se compone de dos rectas hori-
zontales: una en 0 [
o
] y la otra en 180 q[
o
]. En la Figura 9.4 se muestra el caso
de q = −1, donde se muestran dos curvas, para dos valores de ξ (0, 01 y 0, 1).
En el gr´ afico se muestra con una flecha la direcci´ on en que crece ξ. Note que a
medida que crece ξ, la aproximaci´ on asint´ otica se hace cada vez m´ as inexacta,
contrariamente a lo que ocurre con la aproximaci´ on asint´ otica para la magnitud.
Siempre es posible refinar las aproximaciones inherentes en los diagramas
de Bode, en particular aprovechando herramientas como Maple que facilitan el
manejo de expresiones anal´ıticas complejas. En este caso, es posible obtener la
pendiente exacta del grafico de la fase de H( ω) en la frecuencia de corte ω
n
,
que permitir´ıa trazar una tercera asintota, de manera similar a la Figura 9.2.
226 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
10
−1
10
0
10
1
−200
−150
−100
−50
0
ω/ω
n
F
a
s
e

[
o
]
ξ
Figura 9.4: Diagrama de Bode de fase para una funci´ on tipo [B4], con q = −1
El siguiente codigo Maple establece supuestos sobre las variables q, ω, ω
n
y xi,
luego define la funcion H( ω), obtiene la derivada respecto a φ = 10
ω
(debido
a la escala logar´ıtmica en el eje horizontal), y la eval´ ua en ω = ω
n
Maple
> assume(q,integer);
> assume(xi>0,omega>0,omega_n>0);
> interface(showassumed=0);
> H(omega):=(1+2*xi*I*omega/omega_n+(I*omega/omega_n)^2)^q;
> fase_H:=evalc(argument(H(omega)));
> d_fase_H:=factor(diff(subs(omega=10^phi,fase_H),phi));
> simplify(subs(phi=log10(omega_n),d_fase_H));
H( ω) =
_
1 +
2ξ( ω)
ω
n
+
_
 ω
ω
n
_
2
_
q
(9.25)
fase
H
( ω) = arctan
_
_
sen
_
q arctan
_
2ξω
n
ω
ω
2
n
−ω
2
__
cos
_
q arctan
_
2ξω
n
ω
ω
2
n
−ω
2
__
_
_
(9.26)
d

fase
H
=
2 q ξ 10
φ
ln(10)ω
n
_
ω
2
n
+ (10
φ
)
2
_

2
n
−(10
φ
)
2
)
2
+ (2ξ(10
φ

n
)
2
(9.27)
The last command line gives us the answer:
d

fase
H
¸
¸
¸
φ=10
ω
n
=
q ln(10)
ξ

2, 3 q
ξ
(9.28)
9.2. DIAGRAMAS DE BODE 227
retardo
retardo!diagramade Bode
Bode!aproximaci´ onasint´ otica
Bode!frecuenciasdequiebre
[B5]
En este caso, tenemos la funci´ on F( ω) = e
−τ ω
, τ > 0, y por lo tanto:
[F( ω)[
dB
= 1 (9.29)
∠F( ω) = −ωτ (9.30)
Note que el retardo puro s´ olo introduce un ´ angulo de fase lineal en frecuen-
cia; sin embargo, dado que los diagramas de Bode usan una escala de frecuencia
logar´ıtmica, la fase no aparece como una recta, sino que como una curva expo-
nencial. Esto ´ ultimo se debe a que la fase puede tambi´en escribirse como:
∠F( ω) = −ωτ = −τ10
log
10
ω
(9.31)
La Figura 9.5 muestra el diagrama de Bode de fase en una escala de frecuen-
cia normalizada, lo cual permite entender por qu´e no existe una aproximaci´ on
asint´ otica sencilla para este caso.
10
−1
10
0
10
1
−600
−500
−400
−300
−200
−100
0
ωτ
F
a
s
e

[
o
]
Figura 9.5: Diagrama de Bode de fase para una funci´ on tipo [B5]
222
Con las aproximaciones para las clases [B1] a [B4], m´ as la representaci´ on
exacta de la clase [B5], se puede construir una aproximaci´ on global para una
funci´ on arbitraria H( ω) usando (9.5)-(9.6). De esa forma, la aproximaci´ on,
tanto para la magnitud (en [dB]) como para la fase (en [
o
]) de H( ω) se puede
calcular sumando las aproximaciones para cada uno de los factores can´ onicos.
A continuaci´ on bosquejamos una forma sistem´ atica de construir esas aprox-
imaciones. Esto requiere tener presente las aproximaciones as´ınt´ oticas de los
factores [B1]-[B4], que resumimos en las Tablas 9.1 y 9.2.
Note que las as´ıntotas son rectas que se encuentran en puntos o frecuencias
de quiebre.
Con estas as´ıntotas se puede desarrollar un proceso constructivo, tanto para
magnitud como para fase. La contribuci´ on de factores tipo [B1] y [B5] es agre-
gada al final en ambos diagramas. Lo mismo se aplica a la contribuci´ on de un
factor tipo [B3] en el diagrama de fase. El procedimiento se desarrolla a trav´es
de los siguientes pasos:
228 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
Factor ( ∈ Z) As´ıntota 1 As´ıntota 2
K 0 [dB] ∀ ω
( ω)

20 log
10
ω [dB]
∀ ω
(1 +  ωT)

0 [dB] 20 log
10
(ω|T|) [dB]
T ∈ R ∀ ω <
1
|T|
∀ω >
1
|T|

1 + 2ξ
 ω
ω
n
+

 ω
ω
n

2

0 [dB] 40 log
10

ω
ω
n

[dB]
0 ≤ ξ < 1 ∀ ω < ω
n
∀ ω > ω
n
Cuadro 9.1: Aproximaciones asint´ oticas de magnitud de factores b´ asicos
Paso 1 Escriba la funci´ on de transferencia, H( ω) como producto de factores
[B1]-[B5].
Paso 2 Seleccione el rango de frecuencias en el cual desea construir la aproxi-
maci´ on asint´ otica.
Paso 3 Anote para cada factor, los puntos de quiebre de sus as´ıntotas as´ı como
la pendiente de ellas entre cada par de puntos de quiebre consecutivos.
Tome en inmediata consideraci´ on los factores repetidos (tal como se ha
hecho en las Tablas 9.1 y 9.2).
Paso 4 En el diagrama de magnitud, dibuje la as´ıntota
2
del factor ( ω)

. Note
que esta as´ıntota pasa por 0 [dB] en ω = 1.
Paso 5 Avance en el eje de frecuencias hasta encontrar el primer punto de
quiebre y sume la pendiente correspondiente.
Paso 6 Proceda hasta el siguiente punto de quiebre y sume la nueva pendiente
que aparece a la pendiente acumulada. Repita hasta llegar al final del
rango de frecuencias elegido.
Paso 7 Desplace verticalmente el diagrama de magnitud en 20 log
10
[K[.
Paso 8 Si H( ω) incluye un factor ( ω)

, es decir, un factor tipo [B3], desplace
verticalmente el diagrama de fase en 90 [o]. Adem´ as, si K < 0, desplace
verticalmente el diagrama de fase en ±180 [
o
].
Paso 9 Si H( ω) incluye un retardo, sustraiga la fase correspondiente del dia-
grama de fase.
2
Observe que en este caso, la as´ıntota coincide con el diagrama exacto, tanto en magnitud
como en fase
9.2. DIAGRAMAS DE BODE 229
Factor ( ∈ Z) As´ıntota 1 As´ıntota 2 As´ıntota 3
K (1 −signo(K))90 [
o
]
∀ ω
( ω)

90 [
o
] ∀ ω
(1 +  ωT)

0 [
o
] 45 log
10
(10ω|T|) [
o
] 90 [
o
]
T > 0 ∀ ω <
1
|10T|
1
|10T|
< ω <
10
|T|
∀ ω >
10
|T|
(1 +  ωT)

0 [
o
] −45 log
10
(10ω|T|) [
o
] −90 [
o
]
T < 0 ∀ ω <
1
|10T|
1
|10T|
< ω <
10
|T|
∀ ω >
10
|T|

1 + 2ξ
 ω
ω
n
+

 ω
ω
n

2

0 [
o
] 180 [
o
]
0 ≤ ξ < 1 ∀ ω < ω
n
∀ ω > ω
n
Cuadro 9.2: Aproximaciones asint´ oticas de fase de factores b´ asicos
Paso 10 Verifique que su resultado satisface las aproximaciones asint´ oticas,
tanto en magnitud como en fase, para frecuencias muy bajas (→0) y para
frecuencias muy altas (→∞). Corrija, si es necesario.
Para ilustrar el procedimiento, desarrollamos el siguiente ejemplo.
Ejemplo 9.2. Considere la respuesta en frecuencia dada por:
H( ω) =
8( ω −2)( ω + 1)
 ω( ω + 8)( ω −4)
(9.32)
Lo primero que debemos hacer es re-escribir H( ω) como el producto de seis
factores (F
1
( ω) a F
6
( ω)) can´ onicos del tipo [B1] a [B5]. As´ı se obtiene
H( ω) = 0, 5
.¸¸.
F
1
:[B1]
(1 −0, 5 ω)
. ¸¸ .
F
2
:[B2]
(1 + ω)
. ¸¸ .
F
3
:[B2]
( ω)
−1
. ¸¸ .
F
4
:[B3]
(1 + 0, 125 ω)
−1
. ¸¸ .
F
5
:[B2]
(1 −0, 25 ω)
−1
. ¸¸ .
F
6
:[B2]
(9.33)
Diagrama de magnitud:
Supondremos luego que el rango de frecuencias de inter´es es [10
−2
; 10
2
].
Los puntos de quiebre as´ı como las pendientes entre dos puntos de quiebre
sucesivos se muestran en la Tabla 9.3. Observe que las pendientes se indican
como m´ ultiplos de 20 [dB/dec]. En la ´ ultima fila del cuadro se indica el efecto
neto de la contribuci´ on de los distintos factores entre dos puntos de quiebre
sucesivos. Con los resultados de esa l´ınea se pueden completar los Pasos 4 a 6 del
procedimiento bosquejado. Finalmente se incorpora el factor [B1], desplazando
verticalmente el diagrama en 20 log
10
(0, 5) ≈ −6 [dB].
230 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
El gr´ afico superior de la Figura 9.6 muestra la aproximaci´ on asint´ otica logra-
da as´ı como la curva exacta.
(−∞; 1] (1; 2] (2; 4] (4; 8] (8; 100]
F
2
-1 -1 -1 -1 -1
F
3
0 1 1 1 1
F
4
0 0 1 1 1
F
5
0 0 0 -1 -1
F
6
0 0 0 0 -1
Ac. -1 0 1 0 -1
Cuadro 9.3: Contribuci´ on de pendientes entre puntos de quiebre. Diagrama de
magnitud
Diagrama de fase:
A similitud del caso de la magnitud construimos un cuadro donde se especi-
fica la contribuci´ on, en pendiente de la fase, de cada factor, entre dos puntos
sucesivos. Las pendientes son m´ ultiplos de 45 [o/dec]. El lector es invitado a re-
visar nuevamente la Tabla 9.2 para tener en mente las caracter´ısticas as´ınt´ oticas
de cada factor.
La ´ ultima l´ınea de la Tabla 9.4 muestra el efecto acumulado de los factores F
3
a F
6
. Con esta informaci´ on podemos ejecutar los Pasos 4 a 6 del procedimiento
bosquejado.
Para el Paso 8 apreciamos que el efecto del factor F
1
sobre la fase es nulo,
ya que se trata de una ganancia positiva. En cambio, el factor F
2
s´ı afecta la
fase, desplaz´ andola en −90 [
o
].
El diagrama asint´ otico de fase resultante aparece en el gr´ afico inferior de la
Figura 9.6 donde tambi´en se indica la curva exacta.
(−∞; 0, 1] (0, 1; 0, 2] (0, 2; 0, 4] (0, 4; 0, 8] (0, 8; 10] (10; 20] (20; 40] (40; 80] (80; 100]
F
3
0 1 1 1 1 0 0 0 0
F
4
0 0 -1 -1 -1 -1 0 0 0
F
5
0 0 0 1 1 1 1 0 0
F
6
0 0 0 0 -1 -1 -1 -1 0
Ac. 0 1 0 1 0 -1 0 -1 0
Cuadro 9.4: Contribuci´ on de pendientes entre puntos de quiebre. Diagrama de
fase
222
La complejidad de los sistemas, as´ı como la necesidad de precisi´ on hacen que
el procedimiento descrito tenga un valor limitado. Por ello, es tambi´en impor-
9.2. DIAGRAMAS DE BODE 231
tante dominar el uso de herramientas computacionales modernas. En particular,
Matlab dispone del comando bode para calcular y dibujar exactamente estos
diagramas. Para la funci´ on del Ejemplo 9.2, primero la expandimos como cuo-
ciente de polinomios en  ω, es decir:
H( ω) =
8( ω)
2
−8 ω −16
( ω)
3
+ 4( ω)
2
−32 ω
(9.34)
Entonces, los diagramas de Bode obtienen con el c´ odigo Matlab :
Matlab
>>H=tf([8 -8 -16],[1 4 -32 0]);
>>bode(H);
10
−2
10
−1
10
0
10
1
10
2
−30
−20
−10
0
10
20
30
40
M
a
g
n
i
t
u
d

[
d
B
]
10
−2
10
−1
10
0
10
1
10
2
−90
−85
−80
−75
−70
−65
−60
−55
Frecuencia [rad/s]
F
a
s
e

[
o
]
Figura 9.6: Diagramas de Bode de magnitud y fase para la respuesta en frecuen-
cia del Ejemplo 9.2
9.2.2. Tiempo discreto
La respuesta en frecuencia de sistemas de tiempo discreto tambi´en puede
describirse gr´ aficamente usando diagramas de Bode; sin embargo, en este caso,
232 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
espectro
no tienen la misma utilidad por dos razones fundamentales:
a) Debido a que la respuesta en frecuencia es peri´ odica con per´ıodo 2π, en-
tonces la idea de usar una escala logar´ıtmica de la frecuencia para incre-
mentar el rango de descripci´ on, tiene utilidad limitada.
b) No se pueden construir aproximaciones simples, ya que aqu´ı no aparecen
polinomios en  ω, sino que polinomios en e

.
Sin embargo, es importante destacar que si consideramos una funci´ on H(e

)
como la tranformada de Fourier de una se˜ nal arbitraria h[t], no necesariamente
la respuesta a impulso de un sistema, el diagrama de bode es importante pues
refleja el contenido frecuencial de dicha funci´ on. Es decir, los diagramas de Bode
permiten representar el espectro de una se˜ nal arbitraria h[t].
Para ilustrar el diagrama de Bode en tiempo discreto, desarrollamos el sigu-
iente ejemplo.
Ejemplo 9.3. Considere la funci´ on:
H(e

) =
0, 2
e
2jθ
−1, 5e

+ 0, 7
(9.35)
Para obtener la magnitud y fase de esta funci´ on compleja, primero es nece-
sario aplicar la ecuaci´ on de Euler e

= cos(θ)+j sen(θ). Para facilitar el trabajo
algebraico, el siguiente c´ odigo Maple permite obtener el modulo y el ´ angulo de
H(e

).
Maple
> H:=0.2/(exp(2*I*theta)-1.5*exp(I*theta)+0.7);
> abs(H);
> argument(evalc(H));
[H(e

)[ =
0,2
_
(−cos 2θ + 1, 5 cos θ −0, 7)
2
+ (−sen 2θ + 1, 5 sen θ)
2
(9.36)
∠H(e

) = arctan
_
sen2θ −1, 5 sen θ
cos 2θ −1, 5 cos θ + 0, 7
_
(9.37)
Se puede apreciar que las expresiones obtenidas no son simples de aproximar,
ya sea en baja o alta frecuencia, usando o no escala logaritmica en la frecuencia.
Sin embargo, en Matlab , resulta muy simple obtener el gr´ afico de la magnitud
y el ´ angulo de la funci´ on H(e

), usando el comando bode. Note que este es el
mismo que se usa para tiempo continuo, por tanto se debe tener el cuidado
de definir la funci´ on de transferencia en tiempo discreto. Con los siguientes
comandos, Matlab entrega los gr´ aficos de la Figura 9.7, donde se aprecia una
l´ımite de la banda de frecuencia en θ = π, producto de la periodicidad inherente
al an´ alisis en frecuencia en tiempo discreto:
9.3. DIAGRAMAS POLARES 233
diagramapolar
polar!diagrama
Matlab
>> H=tf([0.2],[1 -1.5 0.7],-1);
>> bode(H);
Bode Diagram
Frequency (rad/sec)
P
h
a
s
e

(
d
e
g
)
M
a
g
n
i
t
u
d
e

(
d
B
)
−25
−20
−15
−10
−5
0
5
10
−1
10
0
−360
−270
−180
−90
0
Figura 9.7: Diagrama de Bode en tiempo discreto (Ejemplo 9.3).
222
9.3. Diagramas polares
Aunque los diagramas de Bode son una poderosa herramienta para el an´ alisis
y dise˜ no, se requieren los dos diagramas para interpretar correctamente ciertas
caracter´ısticas del sistema. Una alternativa es utilizar un diagrama polar, en el
que la respuesta en frecuencia se representa en un s´ olo gr´ afico, donde el eje de
abscisas corresponde a la parte real de H( ω) y el eje de ordenadas, a la parte
imaginaria de H( ω). En esta descripci´ on, la frecuencia est´ a impl´ıcita (´esta es
la limitaci´ on principal del diagrama polar).
9.3.1. Tiempo continuo
Para introducir el tema consideraremos un ejemplo.
234 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
cuadrante
Ejemplo 9.4. La respuesta en frecuencia de un sistema de tiempo continuo
est´ a caracterizada por:
H( ω) =
1
( ω + 3)(( ω)
2
+ 0, 4 ω + 1)
(9.38)
Si se eval´ ua H( ω) en un rango de frecuencias 0 < ω < ∞ y dibujamos
el resultado en en plano cartesiano se obtiene el resultado que aparece en el
diagrama polar de la Figura 9.8. Esta figura se obtiene con el siguiente c´ odigo
Matlab :
Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>plot(real(h(1,:)), imag(h(1,:)))
El mismo grafico se obtiene al reemplazar el ´ ultimo comando por plot(h(1,:)).
En la Figura 9.8 se han indicado adicionalmente algunos puntos que corre-
sponden a distintas frecuencias donde ω
1
< ω
2
< ω
3
< ω
4
.
Aunque parezca curioso hablar de gr´ aficos polares, y describirlos en t´ermino
un gr´ afico cartesiano, es s´ olo una cuesti´ on de lenguaje. De hecho, el mismo
diagrama polar se puede dibujar en otras coordenadas. En realidad, eso es lo
que hace el comando polar de Matlab . As´ı, si usamos el c´ odigo:
Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>polar(angle(h(1,:)), abs(h(1,:)));
se obtiene el gr´ afico de la Figura 9.9.
222
Del ejemplo precedente se puede entender que, dependiendo de la aplicaci´ on,
por facilidad de lectura se prefiera uno u otro sistema de coordenadas.
Para hacer un bosquejo de un diagrama polar se debe examinar magnitud
y fase de la respuesta en frecuencia. El an´ alisis de la magnitud est´ a orientado a
determinar como var´ıa a medida que la frecuencia va desde 0 hasta ∞.
El an´ alisis de la fase permite saber cuales cuadrantes recorre el gr´ afico, ya
que ello s´ olo es funci´ on de la fase para ω ∈ [0, ∞). Siempre es conveniente saber
el comportamiento de la magnitud y la fase en alta y baja frecuencia, es decir:
0 e ∞. Una forma alternativa es saber como evolucionan la parte real y la parte
9.3. DIAGRAMAS POLARES 235
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
−0.9
−0.8
−0.7
−0.6
−0.5
−0.4
−0.3
−0.2
−0.1
0
0.1
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
ω
1

ω
2

ω
3

ω
4
ω=0
ω=∞
Figura 9.8: Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4).
imaginaria de la respuesta en frecuencia. Ellas tambi´en permiten determinar en
qu´e cuadrante del plano complejo se encuentra el diagrama polar.
Para facilitar el an´ alisis, examinaremos primero algunos casos simples. Estas
funciones no tienen la misma trascendencia que en el caso de Bode. La diferencia
radica en que el diagrama polar de una funci´ on complicada no puede obtenerse
por composici´ on simple de diagramas polares de funciones elementales, como
s´ı se puede hacer al construir diagramas de Bode. El objetivo del estudio de estos
casos es inducir una metodolog´ıa para la construcci´ on de diagramas polares.
[P1] K
[P2]
1
T ω + 1
[P3] ( ω)
q
, q ∈ ¦−1; 1¦
[P4]
_
_
 ω
ω
n
_
2
+ 2ξ
 ω
ω
n
+ 1
_
−1
0 ≤ ξ < 1, ω
n
> 0.
236 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
0.2
0.4
0.6
0.8
1
30
210
60
240
90
270
120
300
150
330
180 0
ω
1

ω
2

ω
3

ω
4

ω=0
Figura 9.9: Diagrama polar. Coordenadas polar (Ejemplo 9.4).
[P5] e
− ωτ
, τ > 0
[P6]
1
 ω(T ω + 1)
, T > 0
[P7]
e
− ωτ
T ω + 1
[P8]
1
( ω)
2
−ω
2
o
Examinaremos, a continuaci´ on, los rasgos principales del diagrama polar
para cada uno de los tipos b´ asicos.
[P1]
En este caso el diagrama polar es un ´ unico punto, ∀ω ∈ R. Este punto corre-
sponde a (K, 0).
9.3. DIAGRAMAS POLARES 237
[P2]
Podemos determinar la descomposici´ on cartesiana (partes real e imaginaria) y
la descomposici´ on polar (magnitud y fase). As´ı:
F( ω) =
1
ω
2
T
2
+ 1
−j
ωT
ω
2
T
2
+ 1
(9.39)
[F( ω)[ =
1

ω
2
T
2
+ 1
(9.40)
∠F( ω) =
_
−arctan(ω[T[) T > 0
arctan(ω[T[) T < 0
(9.41)
Entonces, examinando la caracter´ıstica de fase, se observa que el diagrama
polar recorre el cuarto cuadrante para T > 0 y el primer cuadrante si T < 0. Por
otro lado la magnitud es monot´ onicamente decreciente, desde 1 (para ω = 0)
hasta cero (para ω = ∞); sin embargo, en este caso particular se puede decir algo
m´ as, porque es f´ acil demostrar, usando (9.39) que las partes real e imaginaria
de F( ω) cumplen con
('¦F( ω)¦ −0, 5)
2
+ (·¦F( ω)¦ = 0, 25 (9.42)
lo cual indica que el diagrama polar es una semi-circunferencia centrada en
(0, 5; 0) con radio 0, 5. Esta semi-circunferencia est´ a en el cuarto cuadrante para
T > 0 y en el primero para T < 0.
Note adem´ as que el valor absoluto de T no afecta el diagrama, pues solamente
equivale a re-escalar la frecuencia, la cual se encuentra impl´ıcita como par´ ametro
que hace recorrer la curva.
Adem´ as, de (9.41) vemos que la fase tiende a −0, 5πsigno(T). Es decir,
cuando ω tiende a infinito, el diagrama polar tiende al origen, apeg´ andose al eje
imaginario por abajo (T > 0) o al al eje imaginario por arriba (T < 0).
Los diagramas polares correspondientes a T > 0 y a T < 0 se muestran en
la Figura (9.10).
0 0.5 1
−0.6
−0.4
−0.2
0
0.2
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
T>0
0 0.5 1
−0.2
0
0.2
0.4
0.6
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
T<0
ω=0
ω
1

ω
2

ω
3

ω=∞
ω=0
ω
1

ω
2

ω
3

ω=∞
Figura 9.10: Diagramas polares para el caso [P1].
[P3]
En este caso, F( ω) = ( ω)
q
. Esta funci´ on tiene parte real cero para q ∈ ¦−1; 1¦.
238 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
As´ı es que el diagrama polar coincide con el eje imaginario (semi-eje superior
para q = 1 y semi-eje inferior para q = −1). La fase es 0, 5qπ ∀ω ∈ R
+
. Para
valores de ω tendiendo a cero, la magnitud tiende a infinito. Para ω tendiendo
a infinito, la magnitud tiende a cero.
[P4]
En este caso conviene descomponer la funci´ on F( ω) en sus partes real e imag-
inaria en la forma
F( ω) =
ω
2
n
( ω)
2
+ 2ξω
n
 ω +ω
2
n
=

2
−ω
2
n

2
n

2
−ω
2
n
)
2
+ 4ξ
2
ω
2
n
ω
2
−j
2ξ ω
3
n
ω

2
−ω
2
n
)
2
+ 4ξ
2
ω
2
n
ω
2
(9.43)
−6 −4 −2 0 2 4 6
−12
−10
−8
−6
−4
−2
0
2
Parte Real
P
a
r
t
e

I
m
a
g
i
n
a
r
i
a
ξ=0,05
0,1
0,15
0,25
ω=0 ω=∞
Figura 9.11: Diagrama polar de una funci´ on tipo [P4] para distintos valores de
ξ
La parte imaginaria de F( ω) es negativa ∀ω ∈ R. Por lo tanto el diagrama
polar s´ olo puede estar en el tercer y cuarto cuadrante. En cambio, la parte real
puede ser positiva o negativa, el punto de quiebre ocurre cuando ω = ω
n
. Para
ω < ω
n
la parte real es negativa, lo cual indica que el diagrama polar est´ a en
el cuarto cuadrante; para ω > ω
n
la parte real es negativa, lo cual indica que el
diagrama polar est´ a en el tercer cuadrante.
Adem´ as podemos examinar la evoluci´ on de la fase a medida que ω progresa
desde 0 hasta ∞. En eso podemos apoyarnos en el diagrama de Bode para la fase
9.3. DIAGRAMAS POLARES 239
retardo!diagramapolar
c´ ırculounitario
de la respuesta en frecuencia para el sistema elemental [B4] (ver Figura 9.4 en
la p´ agina 226). Observamos que la fase decae monot´ onicamente a medida que ω
crece. Un aspecto de inter´es es que, cuando ω →∞, el diagrama polar se acerca
al origen asint´ oticamente siguiendo el eje real negativo.
La Figura 9.11 muestra los diagramas polares de F( ω) tipo [P4], para dis-
tintos valores de ξ. Note que el valor de ω
n
no altera los diagramas, porque este
par´ ametro s´ olo produce escalamiento de la frecuencia (ojo, esta afirmaci´ on es
s´ olo v´ alida si ω
n
> 0; el lector es invitado a investigar el caso ω
n
< 0).
[P5]
La respuesta en frecuencia del retardo puro, e
− ωτ
, tiene magnitud unitaria,
∀ω ∈ R, y con fase igual a −ωτ, en consecuencia el diagrama polar es una
circunferencia unitaria con centro en el origen.
[P6]
La funci´ on F( ω), en este caso, puede descomponerse en sus partes real e imag-
inaria, en la forma:
F( ω) =
1
 ω(T ω + 1)
=
−T ω + 1
 ω(1 +ω
2
T
2
)
=
−T
(1 +ω
2
T
2
)
−j
1
ω(1 +ω
2
T
2
)
(9.44)
La descomposici´ on en magnitud y fase est´ a dada por:
[F( ω)[ =
1
ω

ω
2
T
2
+ 1
(9.45)
∠F( ω) = −0, 5π −arctan(ωT) (9.46)
De la ecuaci´ on (9.44) se observa que la parte real es siempre negativa, y que
la parte imaginaria tambi´en es siempre negativa. Por lo tanto, el diagrama polar
de F( ω) est´ a confinado al cuarto cuadrante. De la ecuaci´ on (9.45) se ve que
la magnitud decrece mont´ onicamente a medida que la frecuencia aumenta. Esto
es consistente con la ecuaci´ on (9.44), ya que de all´ı sabemos que tanto la parte
real como la parte imaginaria decaen monot´ onicamente a cero.
De la ecuaci´ on (9.46) se ve tambi´en que para ω = 0 la fase es −0, 5π; sin
embargo, esto no implica que a esa frecuencia la parte real sea cero. De hecho,
de la ecuaci´ on (9.44) se ve que la parte real, para ω = 0, es igual a −T. Para
ω = ∞ la fase tiende a −π; esto implica que el diagrama polar tiende al origen
acerc´ andose asint´ oticamente al eje real negativo.
En la Figura 9.12 se muestra el diagrama polar de una funci´ on tipo [P6] con
T = 1. Se observa que la parte real viene desde (−1; −∞) cuando ω = 0.
[P7]
La funci´ on en este caso es el producto de una funci´ on tipo [P5] y una funci´ on
tipo [P6]. Por lo tanto la magnitud resultante es el producto de las magnitudes
de los factores y la fase es la suma de la fase de los factores, es decir:
[F( ω)[ =
1
ω

ω
2
T
2
+ 1
; ∠F( ω) = −ωτ −0, 5π −arctan(ωT) (9.47)
240 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
espiral
−1.5 −1 −0.5 0 0.5
−12
−10
−8
−6
−4
−2
0
ω=∞
ω→ 0
Figura 9.12: Diagrama polar de una funci´ on tipo [P6] con T = 1
La magnitud es la misma de una funci´ on tipo [P6], lo cual implica que decae
mon´ otonamente a medida que la frecuencia crece. Por su parte, la fase exhibe
un crecimiento mon´ otono, en la direcci´ on negativa; esta caracter´ıstica se debe
al t´ermino −ωτ. Dado que la magnitud decae mon´ otonamente, el crecimiento
de la fase genera una espiral hacia el origen.
−3 −2 −1 0 1
−4
−3
−2
−1
0
1
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
−0.04 −0.02 0 0.02 0.04
−0.04
−0.03
−0.02
−0.01
0
0.01
0.02
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
a) b)
ω→ 0
ω→ 0
Figura 9.13: a) Diagrama polar de una funci´ on tipo [P7] (T = 1 y τ = 2), y b)
detalle.
En la Figura 9.13.a) se muestra el diagrama polar de una funci´ on del tipo
[P7], con T = 1 y τ = 2. En la Figura 9.13.b) se observa un detalle (alrededor
del origen) del mismo diagrama.
[P8]
En este caso, F( ω) = 1/(( ω)
2
− ω
2
o
). Para esta funci´ on el diagrama polar
9.3. DIAGRAMAS POLARES 241
discontinuidad
empieza en (−1/ω
2
o
; 0) para ω = 0 y tiende r´ apidamente hacia −∞ a lo largo
del eje real negativo para ω → ω

o
. En ω = ω
o
hay una discontinuidad, ya que
para esa frecuencia, el diagrama polar salta desde (−∞; 0) a (∞; 0), luego, a
medida que ω se hace mayor que ω
o
, el diagrama polar tiende al origen para
ω →∞.
222
Como ya hemos dicho, el diagrama polar de funciones complejas no se puede
obtener en forma simple usando los diagramas polares para los funciones tipo
[P1] a [P8]. Sin embargo, las ideas usadas para dibujar el diagrama polar de
cada una de esas funciones ayuda a construir los diagramas polares de funciones
m´ as complicadas. Incluso, algunos de los rasgos peculiares de las funciones tipo
[P1] a [P8] se propagan a las funciones compuestas, tal como se aprecia en el
siguiente ejemplo.
Ejemplo 9.5. Suponga que la respuesta en frecuencia de un sistema est´ a dada
por una funci´ on H( ω) compuesta por un factor tipo [P2] y un factor tipo [P8].
La funci´ on H( ω) est´ a dada por:
H( ω) =
1
(0, 5 ω + 1)(( ω)
2
+ 1)
(9.48)
Se requiere dibujar el diagrama polar. Para ello primero descomponemos la
funci´ on dada en sus partes real e imaginaria, es decir:
H( ω) =
1
(0, 25ω
2
+ 1)(−ω
2
+ 1)
−j
ω
(0, 25ω
2
+ 1)(−ω
2
+ 1)
(9.49)
y en magnitud y fase:
[H( ω)[ =
1
_
0, 25 ω
2
+ 1 [ω
2
−1[
(9.50)
∠H( ω) =
_
−arctan(0, 5ω) ∀ω < 1
−π −arctan(0, 5ω) ∀ω > 1
(9.51)
As´ı, de las ecuaciones precedentes, podemos observar que:
la parte real, la parte imaginaria y la fase tienen una discontinuidad en
ω = 1 (esto es heredado del factor tipo [P8] en la funci´ on H( ω));
cuando ω < 1 la parte real es positiva y la parte imaginaria es negativa,
es decir, el diagrama polar est´ a en el cuarto cuadrante;
cuando ω > 1 la parte real es negativa y la parte imaginaria es positiva,
es decir, el diagrama polar est´ a en el segundo cuadrante;
cuando ω → 1

la fase tiende a −arctan(0, 5) y cuando ω → 1
+
la fase
tiende a −π −arctan(0, 5ω);
242 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
dado que la discontinuidad de la fase es −π [rad], el diagrama polar salta
desde el cuarto cuadrante al segundo cuadrante cuando ω pasa por 1
[rad/s]; y
cuando ω → ∞ la magnitud tiende a 0 y la fase tiende a −1, 5π [rad/s],
es decir, el diagrama polar tiende al origen acerc´ andose asint´ oticamente
al eje imaginario superior.
El diagrama polar para este ejemplo aparece en la Figura 9.14. Note que se
ha dibujado con l´ınea delgada la as´ıntota del diagrama polar para ω →1

y para
ω →1
+
.
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
−1.5
−1
−0.5
0
0.5
1
1.5
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
ω→ 1
+

ω→ 1


ω=0
ω=∞
Figura 9.14: Diagrama polar de H( ω) para el Ejemplo 9.5.
222
Otro tipo de situaciones de inter´es son aquellas respuestas en frecuencia
donde el numerador es tambi´en un polinomio en  ω. Note que en el caso de las
funciones tipo [P1] a [P8], esta situaci´ on no ha sido incluida, ya que s´ olo hemos
considerado funciones con numerador constante. Para observar los fen´ omenos
que puede provocar este numerador m´ as complejo consideraremos un ´ ultimo
ejemplo.
Ejemplo 9.6. Un sistema tiene la respuesta en frecuencia dada por:
H( ω) = 0, 001
( ω + 5)
2
(− ω + 0, 1)
( ω + 0, 5)( ω + 0, 2)( ω + 0, 1)
2
(9.52)
Para una funci´ on tan compleja como ´esta, podemos deducir algunas rasgos
del diagrama polar:
El diagrama parte, para ω = 0, en (2, 5; 0);
9.3. DIAGRAMAS POLARES 243
Para ω →∞ es cero, y la fase es −270[
o
];
En general, la magnitud y la fase cumplen con:
[H( ω)[ =0, 001
¸

2
+ 25)
2

2
+ 0, 01)

2
+ 0, 25)(ω
2
+ 0, 04)(ω
2
+ 0, 01)
2
)
(9.53)
∠H( ω) =2 arctan(0, 2ω) −3 arctan(10ω) −arctan(2ω) −arctan(5ω)
(9.54)
Parece dif´ıcil, a partir de las expresiones precedentes para magnitud y fase,
obtener algunos criterios para dibujar el diagrama polar. Recurriremos a Mat-
lab usando el siguiente c´ odigo:
Matlab
>>H=-0.001*tf(poly([-5 -5 0.1]),poly([-0.5 -0.2 -0.1 -0.1]));
>>w=logspace(-1,2,4000);
>>h=freqresp(H,w);subplot(221);plot(h(1,:));
El primer comando es equivalente a H=zpk([-5 -5 0.1],[-0.5 -0.2 -0.1
-0.1],-0.001). El resultado se muestra en la Figura 9.15.a).
−2 −1.5 −1 −0.5 0 0.5
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
0 1 2 3 4
x 10
−3
−12
−10
−8
−6
−4
−2
0
2
x 10
−4
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
a) b)
Figura 9.15: a) Diagrama polar de H( ω) para el Ejemplo 9.6, y b) detalle.
Aparentemente el diagrama no refleja la condici´ on de la fase asint´ otica
(−270[
o
]), ya que ´esta parece ser −360[
o
]. Esta aparente contradicci´ on es re-
suelta con un detalle del diagrama en torno al origen. Este detalle se muestra
en la Figura 9.15.b) y se obtiene con
244 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
diagramapolar!tiempodiscreto
circulounitario
Matlab
>> w2=logspace(0.3,3,4000);h2=freqresp(H,w2);
>> subplot(222);plot(h2(1,:));
222
9.3.2. Tiempo discreto
Naturalmente que el mismo tipo de descripci´ on mediante diagramas polares
es aplicable a la respuesta en frecuencia de sistemas de tiempo discreto. Sin
embargo, en este caso es a´ un m´ as dif´ıcil construir, a mano, una aproximaci´ on
para el diagrama polar. La raz´ on esencial es que la respuesta en frecuencia
H(e

) es un cuociente de polinomios en e

(en vez de ser un cuociente de
polinomios en  ω, como en el caso de sistemas de tiempo continuo). Ese rasgo
hace que las expresiones tanto para la magnitud como para las partes real e
imaginaria de H(e

) sean expresiones muy complicadas de θ. Una herramienta
interesante, para dibujar diagramas polares de sistemas simples se deduce de la
Figura 9.16.
θ = 0
p
o
θ = π η
e

Figura 9.16: Interpretaci´ on gr´ afica de la respuesta en frecuencia (e

−p
o
)
−1
En la Figura 9.16 la circunferencia de radio unitario describe la ubicaci´ on del
n´ umero complejo e

, por lo tanto, el vector que se ha dibujado es e

−p
o
. As´ı, si
consideramos un sistema cuya respuesta en frecuencia es F(e

) = (e

−p
o
)
−1
,
vemos que su magnitud es el rec´ıproco del largo del vector dibujado, y la fase
corresponde al negativo del ´ angulo θ en la figura. A medida que ω crece desde 0
hasta π, la punta del vector se desplaza desde (1, 0) hasta (−1, 0). Esto implica
que la magnitud del vector crece mon´ otonamente (para p
o
∈ R
+
) desde 1 − p
o
hasta 1+p
o
. As´ı, la magnitud de F(e

) decrece mon´ otonamente desde (1−p
o
)
−1
hasta (1 +p
o
)
−1
, y su fase va mon´ otonamente tambi´en, desde 0 hasta −π [rad].
El diagrama polar est´ a por lo tanto en el cuarto y tercer cuadrantes.
9.3. DIAGRAMAS POLARES 245
La idea precedente puede ser usada en la determinaci´ on de los rasgos prin-
cipales de diagramas polares de funciones simples, como se ilustra en el ejemplo
siguiente.
Ejemplo 9.7. Un sistema de tiempo discreto tiene la respuesta en frecuencia
dada por:
F(e

) =
e

−z
o
e

= 1 −z
o
e
−jθ
; 0 < z
o
< 1 (9.55)
Las caracter´ısticas del diagrama polar pueden ser construidas a partir de la
Figura 9.17.
θ = 0
z
o
β
γ
θ = π
θ
e

Figura 9.17: Interpretaci´ on gr´ afica de la respuesta en frecuencia de 1 −z
o
e
−jt
.
Primero observamos que:
[F(e

)[ =
[e

−z
o
[
[e

[
= [e

−z
o
[ (9.56)
∠F(e

) = ∠(e

−z
o
) −∠e

= β −θ (9.57)
Usando relaciones b´ asicas de geometr´ıa, sabemos tambi´en que β − θ = γ.
As´ı, la fase de F(e

) es igual a γ, por su parte, la magnitud de F(e

) es igual
al largo del vector e

−z
o
.
Con los antecedentes anteriores vemos que la magnitud de F(e

) va mon´ o-
tonamente desde 1 − z
o
, para θ = 0, hasta 1 + z
o
, para θ = π. Por su parte,
la fase empieza en 0 [rad] para θ = 0, luego crece hasta alcanzar un m´ aximo
(siempre menor que π/2), luego decae hasta llegar a cero nuevamente cuando
θ = π. El diagrama polar est´ a por lo tanto en el primer cuadrante.
222
Para funciones m´ as complejas es dif´ıcil estimar la forma en que evolucionan la
magnitud y la fase. En esos casos es preferible recurrir a software como Matlab
246 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
bloques
diagramasdebloques
sistema!interconexi´ on
interconexi´ on
, que en el caso de Ejemplo 9.7 los siguientes comandos dan como resultado el
gr´ afico de la Figura 9.18.
Matlab
>> F=tf([1 -0.7],[1 0],-1);
>> w=[0:0.01:pi];
>> h=freqresp(F,w);
>> plot(h(1,:))
−0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
−0.2
−0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
1+z
o
1−z
o

θ = 0
θ = π
Figura 9.18: Diagrama polar para el Ejemplo 9.7.
9.4. Diagramas de bloques
Una forma de representar la interconexi´ on de sistemas es un diagrama en
bloques, donde cada uno de los bloques representa a uno de los sistemas par-
ticipantes. A cada bloque se asocia una caracterizaci´ on del sistema asociado,
tal como la respuesta a impulso con condiciones iniciales iguales a cero, o su
respuesta en frecuencia, o la funci´ on de transferencia, entre otras.
Un requisito clave en esta forma de representaci´ on es que cada uno de los
sistemas participantes mantenga su caracterizaci´ on original (la funci´ on de trans-
ferencia, por ejemplo) cuando se realiza la interconexi´ on. Para entender esto,
considere las dos redes de la Figura 9.19. Los sistemas pueden ser caracteriza-
dos por sus respectivas funciones de transferencia H
1
( ω) y H
2
( ω) respectiva-
9.4. DIAGRAMAS DE BLOQUES 247
amplificador
mente, donde:
H
1
( ω) =
V
2
( ω)
V
1
( ω)
=
R
2
 ωC
3
R
1
R
2
+R
1
+R
2
(9.58)
H
2
( ω) =
V
4
( ω)
V
3
( ω)
=
 ωC
4
R
5
 ωC
4
R
5
+ 1
(9.59)
R
1
C
3
R
2
R
5 v
1
(t) v
2
(t) v
4
(t) v
3
(t)
C
4
Figura 9.19: Sistemas a interconectar. Caracterizaci´ on independiente
Al conectar directamente ambas redes (V
2
( ω) = V
3
( ω)), la relaci´ on entre
las variables es ahora:
V
2
( ω)
V
1
( ω)
=
R
2
(R
5
C
4
 ω + 1)
R
1
R
2
R
5
C
3
C
4
 ω
2
+ (R
1
R
2
C
4
+R
1
R
5
C
3
+R
2
R
5
C
4
) ω +R
1
+R
2
(9.60)
V
4
( ω)
V
2
( ω)
=
V
4
( ω)
V
3
( ω)
=
R
5
C
4
 ω
R
5
C
4
 ω + 1
(9.61)
Se aprecia que la funci´ on de transferencia entre V
1
( ω) y V
2
( ω) ya no
satisface (9.60) y esto hace que la funci´ on de transferencia entre V
1
( ω)y V
4
( ω)
sea distinta al producto H
1
( ω)H
2
( ω), donde H
1
( ω) y H
2
( ω) est´ an dadas
en (9.58)–(9.59).
Supongamos ahora que las redes de la Figura 9.19 son interconectadas a
trav´es de un amplificador de ganancia unitaria, tal como se muestra en la Figura
9.20.
R
1
C
3
R
2
R
5 v
1
(t) v
2
(t) v
4
(t) v
3
(t)
+

C
4
Figura 9.20: Sistemas interconectados
248 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
Ahora podemos ver que las transferencias entre V
1
( ω) y V
2
( ω) y entre
V
3
( ω) y V
4
( ω) son las mismas que en (9.58)–(9.59). Por lo tanto la funci´ on de
transferencia entre V
1
( ω)y V
4
( ω) es ahora igual al producto H
1
( ω)H
2
( ω).
222
La discusi´ on precedente se˜ nala la condici´ on impl´ıcita en los diagramas de
bloques: la funci´ on de transferencia de cada bloque sigue rigiendo la relaci´ on
entre entrada y salida, aunque el bloque sea interconectado con otros.
La ventaja principal de estos diagramas es que permiten analizar un sistema
por partes, estudiando el rol que cada subsistema juega en el total. Esto es clave
en el an´ alisis y s´ıntesis de filtros, controladores y otros sistemas procesadores de
se˜ nales.
En la Tabla 9.5 se muestran algunos ejemplos de diagramas de bloques con
sus transferencias equivalentes.
Finalmente es necesario se˜ nalar que la representaci´ on en diagramas de blo-
ques se aplica sin distinci´ on tanto a sistemas de tiempo continuo como a sistemas
de tiempo discreto, y tambi´en a sistemas h´ıbridos, que combinan elementos en
ambos dominios, como se muestra en el Cap´ıtulo 11.
9.4. DIAGRAMAS DE BLOQUES 249
Interconexi´ on
Transferencia equivalente
H
1
( ω) H
2
( ω)
H
1
( ω)H
2
( ω)
+
+
H
1
( ω)
H
2
( ω)
H
1
( ω) + H
2
( ω)
+
±
H
1
( ω) H
2
( ω)
H
1
( ω)H
2
( ω)
1 ∓H
1
( ω)H
2
( ω)
+
±
H
1
( ω)
H
2
( ω)
H
1
( ω)
1 ∓H
1
( ω)H
2
( ω)
+

+
+
H
3
( ω)
H
1
( ω) H
2
( ω)
(H
1
( ω) + H
3
( ω))H
2
( ω)
1 + H
1
( ω)H
2
( ω)
+

+

H
1
( ω)
H
2
( ω) H
3
( ω)
H
1
( ω)H
2
( ω)H
3
( ω)
1 + H
2
( ω) + H
1
( ω)H
2
( ω)H
3
( ω)
Cuadro 9.5: Diagramas de bloques y transferencias equivalentes
250 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
9.5. Problemas para el lector
Problema 9.1. Dibuje los diagramas de Bode, es decir, magnitud y fase,
de cada una de las funciones de transferencia que se presentan a continuaci´ on.
Haga primero las aproximaciones asint´ oticas y luego use Matlab para verificar:
a) H
1
(s) =
15
s
2
+ 8s + 15
b) H
2
(s) =
s
s
2
−2s −3
c) H
3
(s) =
1
s(0,2s + 1)
d) H
4
(s) =
6(s −3)
(s + 5)(s + 9)
2
e) H
5
(s) = −H
4
(s)
f ) H
6
(s) =
e
−2s
4s + 1
g) H
7
(s) =
1
s
2
+ 0,01s + 1
h) H
8
(s) =
s−2
s
2
+3s+2
Problema 9.2. Construya los diagramas de Bode de la siguiente funci´ on de
transferencia para α = 0,1; 0,2; 0,5; 1; 5:
H(s) =
αs + 1
(s + 1)(0,2s + 1)
Problema 9.3. Dados los diagramas de Bode de la Figura 9.21, proponga una
funci´ on de transferencia H(s) que pueda ser representada aproximadamente por
ellos.
Problema 9.4. Con los diagramas de Bode de G(s) que aparecen en la Figura
9.22, determine en forma aproximada los diagramas de Bode para e
−2s
G(s),
−s+1
s+1
G(s) y
G(s)
s
.
Problema 9.5. Dados los diagramas de Bode de G(s) de la Figura 9.23,
determine los diagramas de Bode para G(−s).
9.5. PROBLEMAS PARA EL LECTOR 251
−80
−60
−40
−20
0
20
10
−2
10
−1
10
0
10
1
10
2
10
3
−200
−150
−100
−50
0
50
100
Frecuencia (rad/seg.)
F
a
s
e

(
g
r
a
d
o
s
)
Figura 9.21: Diagramas de Bode de H(s)
−50
−40
−30
−20
−10
0
10
−2
10
−1
10
0
10
1
−200
−150
−100
−50
0
Frecuencia (rad/seg.)
F
a
s
e

(
g
r
a
d
o
s
)
Figura 9.22: Diagramas de Bode de G(s)
252 CAP
´
ITULO 9. REPRESENTACI
´
ON DE SISTEMAS LINEALES
−25
−20
−15
−10
−5
0
10
−1
10
0
10
1
10
2
−100
−80
−60
−40
−20
0
Frecuencia (rad/seg.)
F
a
s
e

(
g
r
a
d
o
s
)
Figura 9.23: Diagramas de Bode de G(s)
variables!deestado|textbf
estado|textbf
espacio!deestado
modelo!enespaciodeestado
Cap´ıtulo 10
Representaci´ on en variables
de estado.
10.1. Conceptos fundamentales sobre modelos
de sistemas.
Uno de los aspectos esenciales que interesa en ciencias aplicadas e ingenier´ıa
es la representaci´ on de sistemas mediante un modelo, que lo describa con sufi-
ciente detalle y permita analizar sus propiedades fundamentales.
En la teor´ıa de sistemas estos modelos juegan un rol fundamental, pues son
imprescindibles para el an´ alisis, la s´ıntesis y el dise˜ no. En particular, el principal
objeto de contar con una representaci´ on de un sistema es el poder predecir y
analizar el comportamiento del sistema en el tiempo.
Naturalmente existen diferentes formas de describir un sistema dado, dando
lugar a diferentes modelos, seg´ un sea el aspecto del sistema que interesa describir
con mayor ´enfasis. Por ejemplo, si consideramos un motor el´ectrico, podr´ıamos
estar interesados en el como un sistema de conversi´ on electro-mec´ anica, un sis-
tema t´ermico, un sistema mec´ anico sujeto a vibraciones, o bien, estudiar el
comportamiento de los materiales que lo conforman.
En segundo lugar, no existe un ´ unico modelo para un sistema, ya que al
modelar siempre existe alguna simplificaci´ on impl´ıcita de la realidad, la cual,
en la mayor parte de los casos, resulta demasiado compleja para describir todos
sus aspectos.
De esta forma, una decisi´ on fundamental a la hora de modelar un sistema
es definir el objetivo del modelo, es decir, cu´ ales son los aspectos esenciales que
queremos capturar.
La teor´ıa y herramientas existentes para modelar de sistemas son muy di-
versas, y en ellas se combinan leyes de la f´ısica, la qu´ımica, la termodin´ amica,
adem´ as de teor´ıa de se˜ nales, procesamiento de datos, matem´ aticas y herramien-
tas num´ericas. De hecho, un modelo generalmente no se obtiene de una sola
253
254 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
sistema!din´ amico
sistema!h´ ıbrido
muestreo
estado!delsistema
estado!variablesde
variables!deestado
estado!vectorde
vector!deestado
estado!espaciode
estado!trayectoria
vez, sino que se construye en un proceso iterativo, que considera la calidad de
los resultados obtenidos con ´el en las diferentes etapas, por ejemplo, para hacer
control sobre un sistema o predecir su comportamiento.
En este cap´ıtulo, nos interesa introducir una clase especial de modelos, ´ util
para describir sistemas din´ amicos. Como ya hemos visto, estos sistemas se car-
acterizan por la interacci´ on de sus variables en el tiempo, y se describen, en
tiempo continuo, a trav´es de ecuaciones diferenciales (EDS en Cap. 3), y en
tiempo discreto, a trav´es de ecuaciones recursivas (ERS en Cap. 4).
Adem´ as de estos dos tipos de sistemas din´ amicos, en el dominio del tiempo
continuo y en el del tiempo discreto, se introducen sistemas h´ıbridos en los que se
establece una relaci´ on entre tiempo continuo y discreto a trav´es del muestreo.
En este cap´ıtulo hemos enfatizado los conceptos, propiedades fundamentales,
interpretaciones f´ısicas y ejemplos, sin embargo, para un estudio en mayor pro-
fundidad de los t´ opicos aqu´ı presentados el lector puede consultar, por ejemplo,
las referencias [5], [8], [15], [18], [19], [20], [21].
10.2. Conceptos fundamentales
10.2.1. Introducci´ on
Uno de los tipos de modelos utilizados con frecuencia para describir un sis-
tema es aqu´el en un conjunto de ecuaciones que relaciona sus variables internas.
Estas variables se denominan variables de estado. En cada instante el conjun-
to de ellas, que toman un valor determinado, se denomina estado del sistema.
Sin embargo, a menudo usaremos las expresiones variables de estado y estado
del sistema como sin´ onimos.
La definici´ on dada es m´ as bien intuitiva y podr´ıa coincidir en realidad con
cualquier grupo de variables de un sistema dado. Por esto, seremos mas precisos:
Un conjunto de variables de estado de un sistema dado es aquel que permite
expresar cualquier variable del sistema como funci´ on del estado presente y de
los valores presentes y futuros de las entradas del sistema.
En esta definici´ on hemos enfatizado en significado f´ısico de las variables de
estado. Sin embargo, existen tambi´en definiciones m´ as abstractas.
El conjunto de variables de estado usualmente se agrupan en un vector de
estado, el cual pertenece al llamado espacio de estado.
Es importante notar es que la evoluci´ on del estado en el tiempo, es decir, su
trayectoria, puede ser obtenida a partir del estado presente y el valor futuro de
las entradas del sistema. De esta forma, los modelos de este tipo son siempre
ecuaciones diferenciales de primer orden, en el caso de sistemas continuos, o
ecuaciones recursivas de un paso, para sistemas discretos
Adem´ as, al conocer el estado del sistema en un instante dado t, podemos
entonces calcular la energ´ıa que en ese instante el sistema posee. En el caso de
sistemas f´ısicos, ´esta siempre depende de las variables del sistema, tales como ve-
locidad, posici´ on, presi´ on, voltaje y corriente, entre otras. Todas estas variables,
10.2. CONCEPTOS FUNDAMENTALES 255
por la definici´ on dada, se pueden obtener a partir del estado del sistema.
Esto sugiere adem´ as que podemos pensar el estado de un sistema de forma
m´ as general, ya que las variables de estado pueden ser cualquier funci´ on de
variables del sistema. Esta observaci´ on resulta muy importante pues establece
que el estado del sistema no necesariamente esta formado por variables reales
del sistema, permitiendo de esta forma un an´ alisis m´ as general. Es m´ as, esta
misma observaci´ on hace evidente que la elecci´ on de las variables de estado no
es ´ unica.
10.2.2. Modelos b´asicos en variables de estado
Si denotamos por x al vector de estado que corresponde a una elecci´ on en
particular de variables de estado para un sistema dado, entonces la forma general
del modelo en variables de estado es:
Para sistemas de tiempo continuo
dx
dt
= F(x(t), u(t), t) (10.1)
y(t) = G(x(t), u(t), t) (10.2)
donde u(t) es el vector de entrada y y(t) es el vector de salida del
sistema. En el caso de sistemas de una entrada y una salida, naturalmente
estos vectores se reducen a funciones escalares.
Para sistemas de tiempo discreto
x[t + 1] = F
d
(x[t], u[t], t) (10.3)
y[t] = G
d
(x[t], u[t], t) (10.4)
Donde, an´ alogamente al caso de tiempo continuo, u[t] en el vector de
entradas y y[t] es el vector de salidas del sistema, y tambi´en para el
caso de sistemas SISO se reducen a funciones escalares.
Para ilustrar los conceptos presentados hasta el momento consideremos el
siguiente ejemplo:
Ejemplo 10.1. En la Figura 10.1, una fuerza externa f(t) se aplica a un sis-
tema masa-resorte sujeto a un muro por un extremo. La posici´ on d(t) se mide
con respecto a la posici´ on en que el resorte se encuentra en su largo natural. El
movimiento de la masa es amortiguado por una fuerza de roce viscoso, propor-
cional a la velocidad de la masa, v(t).
Sabemos que para obtener la posici´ on y la velocidad de la masa se debe
conocer su valor en alg´ un instante inicial. Por tanto el vector de estado debe
tener dos componentes, i.e x(t) = [x
1
(t) x
2
(t)]
T
, y la elecci´ on m´ as natural en
este caso es:
x
1
(t) = d(t) (10.5)
x
2
(t) = v(t) = ˙ x
1
(t) (10.6)
256 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
transformaci´ ondelestado
estado!transformaci´ on
similaridad
se~ nal!modelodeestado
M
roce viscoso
d(t)
v(t)
K
f(t)
Figura 10.1: Sistema masa-resorte.
Con esta elecci´ on, se pueden aplicar las leyes de Newton para obtener:
f(t) = M
dv(t)
dt
+Kd(t) +Dv(t) = M ˙ x
2
(t) +Kx
1
(t) +Dx
2
(t) (10.7)
donde D es el coeficiente de roce viscoso, o constante de proporcionalidad.
De esta forma podemos escribir las ecuaciones de estado del sistema:
˙ x
1
(t) = x
2
(t) (10.8)
˙ x
2
(t) = −
K
M
x
1
(t) −
D
M
x
2
(t) +
1
M
f(t) (10.9)
Para resolver este sistema de ecuaciones diferenciales de primer orden, se
requiere conocer los valores x
1
(0) y x
2
(0), as´ı como el valor de la excitaci´ on
f(t), ∀t ≥ 0.
Podemos apreciar tambi´en que la energ´ıa almacenada en el sistema, w(t),
queda expresada como:
w(t) =
1
2
K (d(t))
2
+
1
2
M (v(t))
2
= x(t)
T
Λx(t) (10.10)
donde Λ es una matriz diagonal: Λ = diag
_
K
2
,
M
2
_
.
Finalmente, la no unicidad de la representaci´ on en variables de estado se
puede apreciar si, en vez de la elecci´ on hecha en (10.8), elegimos un nuevo
vector de estado x(t) que se relaciona con x(t) a trav´es de una matriz no singular
cualquiera T ∈ R
2·2
, es decir:
x(t) = Tx(t) (10.11)
M´ as adelante, en la Secci´ on ¸10.3.3, veremos en m´ as detalle este tipo de
transformaciones.
222
10.2.3. Se˜ nales descritas en espacio de estado
Las representaciones en variables de estado adem´ as de describir sistemas o
procesos, pueden ser tambi´en muy ´ utiles para representar una gran variedad de
se˜ nales.
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 257
se~ nal!detiempocontinuo
se~ nal!detiempodiscreto
sistema!tiempocontinuo
Para esto se utilizan modelos de estado sin excitaciones o se˜ nales de entrada.
Por tanto, la se˜ nal que se obtiene como salida del sistema s´ olo depende de la
condici´ on inicial del vector de estado.
Este tipo de sistemas sin se˜ nal de entrada se denominan homog´eneos o
aut´ onomos:
Para se˜ nales de tiempo continuo
dx(t)
dt
= Ax(t) (10.12)
y(t) = Cx(t) (10.13)
Para se˜ nales de tiempo discreto
x[t + 1] = A
q
x[t] (10.14)
y[t] = C
q
x[t] (10.15)
Las variables definidas en este tipo de modelos en espacio de estado, no
tienen un significado f´ısico, sin embargo, esta forma de describir se˜ nales resulta
muy ´ util en diversas aplicaciones de la teor´ıa de se˜ nales.
Ejemplo 10.2. Supongamos la se˜ nal de tiempo continuo:
f(t) = 2 + 4 cos(5t) −sen(5t) (10.16)
Esta esta formada por una sinusoide m´ as una constante, y puede interpre-
tarse como la soluci´ on de la ecuaci´ on diferencial homog´enea:
d
3
f(t)
dt
3
+ 25
d f(t)
dt
= 0; sujeta a f(0) = 6;
˙
f(0) = −5 and
¨
f(0) = −100
(10.17)
Si ahora escogemos como variables de estado x
1
(t) = f(t), x
2
(t) =
˙
f(t) y
x
3
(t) =
¨
f(t), entonces el modelo el espacio de estado de esta se˜ nal es:
dx(t)
dt
=
_
_
0 1 0
0 0 1
0 −25 0
_
_
x(t) y(t) = [1 0 0] x(t) (10.18)
222
10.3. Modelos de estado para sistemas continu-
os
En esta secci´ on se presentan los modelos en variables de estado para sistemas
de tiempo continuo. El an´ alisis que se realiza est´ a centrado en sistemas lineales
258 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
retardo
linealizaci´ on
puntodeequilibrio
e invariantes en el tiempo, tal como se ha considerado en los cap´ıtulos pre-
vios. Naturalmente los sistemas son en general no lineales, tal como se muestra
en las ecuaciones (10.1) y (10.2), pero pueden ser linealizados, tal como se hizo
en el cap´ıtulo 1.
Otra restricci´ on importante es que los sistemas considerados no poseen re-
tardos puros. Estos dar´ıan origen a un vector de estado de dimensi´ on infinita.
Sin embargo, en la Secci´ on ¸10.4 veremos que este tipo de sistemas pueden ser
representados en variables de estado usando un modelo del sistema muestrea-
do.
10.3.1. Linealizaci´ on
Si consideramos el modelo de un sistema invariante en el tiempo, las ecua-
ciones (10.1)-(10.2) se reducen a:
dx
dt
= F(x(t), u(t)) (10.19)
y(t) = G(x(t), u(t)) (10.20)
Suponemos que el modelo (10.19)-(10.20) tiene, al menos, un punto de equi-
librio dado por ¦x
Q
, u
Q
, y
Q
¦. Este tr´ıo de vectores satisface:
0 = F(x
Q
, u
Q
) (10.21)
y
Q
= G(x
Q
, u
Q
) (10.22)
Note que el punto de equilibrio queda determinado haciendo las derivadas
iguales a cero.
Si consideramos una vecindad alrededor del punto de equilibrio, podemos
aproximar el modelo (10.19)-(10.20) por una serie de Taylor truncada (Ap´endice
A), de la forma:
˙ x(t) ≈ F(x
Q
, u
Q
) +
∂F
∂x
¸
¸
¸
¸
x=x
Q
u=u
Q
(x(t) −x
Q
) +
∂F
∂u
¸
¸
¸
¸
x=x
Q
u=u
Q
(u(t) −u
Q
) (10.23)
y(t) ≈ G(x
Q
, u
Q
) +
∂G
∂x
¸
¸
¸
¸
x=x
Q
u=u
Q
(x(t) −x
Q
) +
∂G
∂u
¸
¸
¸
¸
x=x
Q
u=u
Q
(u(t) −u
Q
) (10.24)
Las ecuaciones (10.23) y (10.24) se pueden reescribir por lo tanto como:
d∆x(t)
dt
= A∆x(t) +B∆u(t) (10.25)
∆y(t) = C∆x(t) +D∆u(t) (10.26)
donde las se˜ nales incrementales son:
∆x(t) = x(t) −x
Q
; ∆u(t) = u(t) −u
Q
; ∆y(t) = y(t) −y
Q
(10.27)
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 259
y las matrices de la representaci´ on de estado son:
A =
∂F
∂x
¸
¸
¸
¸
x=x
Q
u=u
Q
; B =
∂F
∂u
¸
¸
¸
¸
x=x
Q
u=u
Q
; C =
∂G
∂x
¸
¸
¸
¸
x=x
Q
u=u
Q
; D =
∂G
∂u
¸
¸
¸
¸
x=x
Q
u=u
Q
(10.28)
Para ilustrar esta forma de obtener un modelo lineal para un sistema no
lineal, se ilustra en el siguiente ejemplo.
Ejemplo 10.3. Considere el levitador electromagn´etico que se muestra en la
Figura 10.2.
+
R
i(t)
f(t)
mg
v(t) h(t)
L
e(t)
Figura 10.2: Levitador electromagn´etico.
La esfera met´ alica est´ a sometida a dos fuerzas: su propio peso, mg, y la
fuerza de atracci´ on generada por el electroim´ an, f(t). La fuerza del electroim´ an
se regula a trav´es de la fuente de voltaje, e(t) > 0, ∀t. La fuerza de atracci´ on
sobre la esfera, f(t), depende de la distancia h(t) y de la corriente, i(t). Esta
relaci´ on se puede describir aproximadamente por la expresi´ on
f(t) =
K
1
h(t) +K
2
i(t) (10.29)
donde K
1
y K
2
son constantes positivas.
Aplicando los principios usuales en redes el´ectricas y mec´ anica, podemos
escribir las siguientes ecuaciones:
e(t) = Ri(t) +L
di(t)
dt
(10.30)
v(t) = −
dh(t)
dt
(10.31)
f(t) =
K
1
h(t) +K
2
i(t) = mg +m
dv(t)
dt
(10.32)
260 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
A continuaci´ on escogemos las variables de estado: la corriente i(t), la posi-
ci´ on de la esfera h(t), y su velocidad v(t), es decir:
x(t) =
_
x
1
(t) x
2
(t) x
3
(t)
¸
T
=
_
i(t) h(t) v(t)
¸
T
(10.33)
Note que esta elecci´ on permite cuantificar directamente la energ´ıa almace-
nada en el sistema.
A partir de (10.30)-(10.32) obtenemos el modelo de estado del sistema:
di(t)
dt
=
dx
1
(t)
dt
= −
R
L
x
1
(t) +
1
L
e(t) (10.34)
dh(t)
dt
=
dx
2
(t)
dt
= −x
3
(t) (10.35)
dv(t)
dt
=
dx
3
(t)
dt
=
K
1
m(x
2
(t) +K
2
)
x
1
(t) −g (10.36)
Para linealizar el modelo obtenido, necesitamos obtener primero el punto de
equilibrio alrededor del cual se har´ a dicha linealizaci´ on. La entrada al sistema
es el voltaje de la fuente e(t). Supongamos que el punto de equilibrio se obtiene
fijando e(t) = E
Q
, entonces, a partir de ´este, se puede calcular el estado del
sistema en el punto de equilibrio. Este queda caracterizado por las ecuaciones
(10.34)-(10.36), haciendo las derivadas iguales a cero:

R
L
x
1Q
+
1
L
E
Q
= 0 =⇒x
1Q
=
E
Q
R
(10.37)
−x
3Q
= 0 =⇒x
3Q
= 0 (10.38)
K
1
m(x
2Q
+K
2
)
x
1Q
−g = 0 =⇒x
2Q
=
K
1
mg
x
1Q
−K
2
=
K
1
E
Q
mgR
−K
2
(10.39)
El modelo linealizado queda expresado en t´erminos de la entrada incremental
∆e(t) y el estado incremental ∆x(t) = [∆x
1
(t), ∆x
2
(t), ∆x
3
(t)]
T
de la forma:
d∆x
1
(t)
dt
= −
R
L
∆x
1
(t) +
1
L
∆e(t) (10.40)
d∆x
2
(t)
dt
= −∆x
3
(t) (10.41)
d∆x
3
(t)
dt
=
Rg
E
Q
∆x
1
(t) −
Rmg
2
K
1
E
Q
∆x
2
(t) (10.42)
Si consideramos como salida del sistema la posici´ on de la esfera h(t), pode-
mos comparar las ´ ultimas ecuaciones con (10.25) y (10.26) para obtener:
A =
_
¸
¸
¸
¸
_

R
L
0 0
0 0 −1
Rg
E
Q

Rmg
2
K
1
E
Q
0
_
¸
¸
¸
¸
_
; B =
_
¸
¸
¸
_
1
L
0
0
_
¸
¸
¸
_
; C
T
=
_
¸
¸
¸
_
0
1
0
_
¸
¸
¸
_
; D = 0 (10.43)
222
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 261
matriz!de transici´ on
exponencial!deunamatriz
De aqui en adelante omitiremos el prefijo ∆, pero el lector debe tener en
mente que los modelos obtenidos mediante linealizaci´ on relacionan el estado
incremental, las entradas incrementales y las salidas incrementales, en
torno al punto de equilibrio.
10.3.2. Modelos lineales en el espacio de estado
Consideramos el modelo en variables de estado, lineal e invariante en el
tiempo:
dx(t)
dt
= Ax(t) +Bu(t) (10.44)
y(t) = Cx(t) +Du(t) (10.45)
Lema 10.1. Dada la ecuaci´ on (10.44), sujeta a la condici´ on inicial x(t
o
) = x
o
,
su soluci´ on es:
x(t) = e
A(t−t
o
)
x
o
+
_
t
t
o
e
A(t−τ)
Bu(τ)dτ ∀t ≥ t
o
(10.46)
donde la matriz de transici´ on e
At
satisface:
e
At
= I +

k=1
1
k!
A
k
t
k
(10.47)
(Para la definici´ on de exponencial de una matriz ver Ap´endice F) De-
mostraci´ on
Puede verificarse directamente al reemplazar (10.46) en la ecuaci´ on (10.44),
usando la regla de Leibniz para la derivaci´ on de la integral.
222
Con este resultado, dado un estado inicial x(t
o
) = x
o
la soluci´ on de las
ecuaciones (10.44)–(10.45) se puede expresar como:
y(t) = Ce
A(t−t
o
)
x
o
+C
_
t
t
o
e
A(t−τ)
Bu(τ)dτ +Du(t) (10.48)
Din´amica del sistema
Como hemos visto en los Cap´ıtulos 3 y 4, la salida de un sistema siempre
puede descomponerse en dos partes: una componente no forzada determinada
por las condiciones iniciales y formada por los modos naturales del sistema, y
una componente forzada por la se˜ nal de entrada al sistema. Esto mismo se ve
confirmado en la soluci´ on de la ecuaci´ on de estado (10.48), donde se aprecia la
componente no forzada x
u
(t), y la componente forzada x
f
(t), donde:
x
u
(t) = e
A(t−t
o
)
x
o
(10.49)
x
f
(t) =
_
t
t
o
e
A(t−τ)
Bu(τ)dτ (10.50)
262 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
respuestahomog´ enea
estabilidad
velocidad
Estructura de la respuesta homog´enea
Para analizar con mayor detalle el modelo en espacio de estado y su soluci´ on,
consideremos t
o
= 0 y la entrada u(t) = 0 ∀t ≥ 0, es decir, el estado est´ a formado
s´ olo por su parte no forzada u homog´enea. Entonces:
x(t) = e
At
x
o
(10.51)
Supondremos adem´ as que A ∈ R
n
y que, por simplicidad, no tiene autoval-
ores repetidos, sino que son todos diferentes λ
1

2
,. . . , λ
n
, con sus n autovectores
v
1
, v
2
, . . . , v
n
linealmente independientes
1
. En este caso podemos afirmar que
siempre existen constantes α
1
, α
2
, . . . , α
n
tales que:
x
o
=
n

=1
α

v

; α

∈ C (10.52)
Del ´ algebra lineal (Ap´endice F) sabemos que los autovalores de la matriz A
k
son λ
k
1
, λ
k
2
,. . . , λ
k
n
con sus correspondientes autovectores v
1
, v
2
, . . . , v
n
. De
esta forma, se obtiene:
x(t) = e
At
x
o
=
_
I +

k=1
1
k!
A
k
t
k
__
n

=1
α

v

_
=
n

=1
α

_
_
_v

+

k=1
1
k!
A
k
v

. ¸¸ .
λ
k

v

t
k
_
_
_ =
n

=1
α

e
λ

t
v

(10.53)
Esta ecuaci´ on pone de manifiesto que la componente no forzada del vector
de estado es una combinaci´ on lineal de modos de la forma ¦e
λ

t
¦, cada uno de
los cuales est´ a asociado a un autovalor de A. Esto establece un resultado muy
importante:
Los frecuencias naturales de un sistema de tiempo continuo son iguales a los
valores propios de la matriz A de su representaci´ on en variables de estado.
Es decir, la ecuaci´ on caracter´ıstica de un sistema est´ a dada por:
det(λI −A) = 0 (10.54)
Por tanto, la matriz A es la que determina:
la estructura de la respuesta no forzada u homog´enea,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de respuesta.
1
Todo conjunto de n vectores l.i. en R
n
forman una base para R
n
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 263
El an´ alisis previo puede extenderse al caso en que la matriz A posee valores
propios repetidos, utilizando la forma de Jordan (Ap´endice F).
En ausencia de se˜ nal de entrada, hemos visto que el estado del sistema resulta
ser una combinaci´ on de modos naturales. Estos pertenecen al conjunto de fun-
ciones generadas por exponenciales reales o complejas, que pueden corresponder
a se˜ nales constantes, exponenciales reales y sinusoides puras o moduladas por
exponenciales, entre otras.
Ejemplo 10.4. Para ilustrar la diferentes aparici´ on de diferentes tipos de mo-
dos naturales, y su interpretaci´ on f´ısica consideremos nuevamente el sistema
del Ejemplo 10.1 en la p´ agina 255. Para dicho sistema, obtuvimos el modelo en
variables de estado:
_
˙ x
1
(t)
˙ x
2
(t)
_
=
_
0 1

K
M

D
M
__
x
1
(t)
x
2
(t)
_
+
_
0
1
M
_
f(t) (10.55)
en que x
1
(t) y x
2
(t) son respectivamente la posicion y la velocidad de la masa
M, y f(t) es la fuerza externa.
Las frecuencias naturales del sistema son los autovalores de la matriz A, es
decir, las soluciones de la ecuaci´ on caracter´ıstica:
det(λI −A) = λ
2
+
D
M
λ +
K
M
= 0 (10.56)
Estas son:
λ
1,2
= −
D
2M
±
_
D
2
4M
2

K
M
(10.57)
Donde podemos apreciar que:
Si no existe amortiguaci´ on (D=0), los autovalores del sistema son imagi-
narios puros, y los modos naturales son oscilaciones sostenidas de frecuen-
cia angular ω
o
=
_
K/M. Esto coincide con la interpretaci´ on f´ısica, pues
si no existe roce es natural pensar que si el resorte no se encuentra en su
largo natural o la masa posee velocidad inicial, ´esta permanecer´ a oscilando
indefinidamente, aunque no exista fuerza externa.
Cuando el sistema est´ a d´ebilmente amortiguado ( D
2
< 4KM), los auto-
valores de la matriz A son complejos conjugados con parte real negativa,
por tanto los modos naturales asociados son sinusoides amortiguadas ex-
ponencialmente. Esto coincide tambi´en con lo que sucede en la pr´ actica,
pues en caso de existir una fuerza de roce no muy grande, la masa os-
cilar´ a hasta detenerse en ealg´ un momento en su posici´ on de largo natural.
Finalmente, si la amortiguaci´ on es muy grande ( D
2
> 4KM), los auto-
valores de la matriz ser´ an reales y negativos, lo cual indica que los auto-
valores son dos exponenciales decrecientes. En este caso, la existencia de
una fuerza de roce importante se traduce en que la masa no lograr´ a oscilar
sino que es llevada por la fuerza del resorte hasta su posici´ on de equilibrio,
y toda la energ´ıa contenida en el sistema se disipa r´ apidamente en el roce.
264 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
planodefase
Para ilustrar estas tres situaciones podemos utiliar Matlab , que permite
definir facilmente definir sistemas en variables de estado a traves del coman-
do ss. La respuesta a una condici´ on inicial se obtiene a trav´es del comando
initial. Para estas simulaciones consideramos tres diferentes valores para la
constante de roce viscoso D, mientras que los otros par´ ametros son:
M = 2 [kg]; K = 0, 1
_
N
m
_
d(0) = 0, 3 [m]; and v(0) = 0, 05
_
m
s
_
(10.58)
Usando c´ odigo Matlab como el siguiente se obtienen los gr´ aficos de la Figu-
ra 10.3.
Matlab
>> M=2 ; K=0.1 ; D=0 ;
>> x_o=[0.3 0.05];
>> A=[0 1;-K/M -D/M];B=[0;1/M];C=[1 0];d=0;
>> S=ss(A,B,C,d);
>> initial(S,x_o)
Tiempo (seg.)
A
m
p
l
i
t
u
d
0 10 20 30 40 50 60 70
−0.4
−0.2
0
0.2
0.4
D=0
D=0.2
D=2
Figura 10.3: Respuesta homog´enea del sistema masa-resorte-roce.
En la Figura 10.4 se muestra la trayectoria que sigue el estado del sistema.
Se ha considerado la posici´ on de la masa d(t) como coordenada horizontal, y la
velocidad, v(t), como coordenada vertical. Este tipo de diagrama se conoce como
plano de fase,. En Matlab , el mismo comando initial permite obtener la
trayectoria del estado mediante el siguiente codigo:
Matlab
>> [y,t,x]=initial(S,x_o);
>> plot(x(:,1),x(:,2))
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 265
modoforzado
soluci´ onparticular
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
−0.1
−0.08
−0.06
−0.04
−0.02
0
0.02
0.04
0.06
0.08
0.1
distancia d(t)
v
e
l
o
c
i
d
a
d

v
(
t
)
D=0
D=0.2
D=2
x
o
=[0.3 0.05]
T
Figura 10.4: Trayectorias en el espacio de estado del sistema masa-resorte-roce.
Note que, excepto en el caso en que no existe roce (D = 0), la masa llegar´ a a
detenerse asint´ oticamente, es decir, llega al origen del espacio de estado.
222
Estructura de la respuesta forzada
Cuando las condiciones iniciales del sistema son cero, el estado s´ olo tendr´ a su
componente forzada.
x
f
(t) =
_
t
t
o
e
A(t−τ)
Bu(τ)dτ (10.59)
Esta parte del estado tambi´en incluye modos naturales, pero adem´ as contiene
los modos forzados o soluciones particulares, los cuales como hemos visto en
cap´ıtulos precedentes, no dependen del sistema, sino que exclusivamente de la
se˜ nal de entrada u(t). En general, los modos forzantes presentes en la entrada
aparecer´ an tambi´en en el estado. Sin embargo, es importante mencionar que un
caso especial sucede cuando los modos forzantes en la entrada coinciden con
alguno de los modos naturales del sistema.
Estabilidad del sistema
Tal como se mencion´ o antes, la estabilidad de un sistema lineal e invariante
puede ser analizada usando la matriz de estado A.
266 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
equilibrio inestable
puntodeequilibrio
modonatural!dominante
resonancia
Por definici´ on, todas las variables de un sistema pueden expresarse como
funciones lineales de su estado y su entrada. Cuando la entrada al sistema u(t)
es un vector de funciones temporales acotadas, entonces las variables del sistema
ser´ an acotadas si su estado lo es.
Tenemos entonces el siguiente resultado:
Teorema 10.1. Considere el sistema con la descripci´ on en variables de estado
(10.44)-(10.45) donde los elementos de A, B, C y D est´ an acotados. Entonces el
estado del sistema, y por tanto su salida, es acotado para toda entrada acotada
si, y s´ olo si, los autovalores de la matriz A tienen parte real estrictamente
negativa.
222
Para apreciar la aplicaci´ on de este teorema en la pr´ actica, retomemos el
sistema del levitador magn´etico del Ejemplo 10.3. Para dicho sistema la matriz
A (en el modelo linealizado) est´ a dada por la expresi´ on:
A =
_
¸
¸
¸
_

R
L
0 0
0 0 −1
Rg
E
Q

Rmg
2
K
1
E
Q
0
_
¸
¸
¸
_
(10.60)
y sus autovalores o valores propios son las ra´ıces de la ecuaci´ on
det(λI −A) =
_
λ +
R
L
_
_
λ −
¸
Rmg
2
K
1
E
Q
__
λ +
¸
Rmg
2
K
1
E
Q
_
(10.61)
Podemos apreciar que, del conjunto de autovalores de la matriz, existe uno
que es real y mayor que cero. Esto implica que el sistema es inestable, lo
cual coincide con el an´ alisis del sistema desde el punto de vista f´ısico. Si bien
existe un punto de euilibrio para el sistema, al menos te´ oricamente, dado x
2Q
en la ecuaci´ on (10.39)), ´este resulta ser un punto de equilibrio inestable, ya que
cualquier peque˜ na perturbaci´ on sobre la esfera har´ a que ´esta o acelera hasta
adherirse al im´ an, o bien, cae al suelo.
Velocidad de respuesta y resonancia
Como ya hemos visto, en los sistemas estables la parte real de los autovalores
determina la velocidad a la cual los modos naturales decaen a cero. Los modos
m´ as lentos, que hemos denominado modos dominantes, determinan la velocidad
con que la salida del sistema alcanza el estado estacionario, es decir, determinan
la velocidad de respuesta del sistema.
Un segundo aspecto, de especial importancia en estructuras flexibles, es la
presencia de resonancias en un sistema, que est´ an asociadas a autovalores com-
plejos. Desde el punto de vista f´ısico, la presencia de autovalores complejos tiene
relaci´ on con la existencia de dos tipos de energ´ıa. En circuitos el´ectricos, la en-
erg´ıa electrost´ atica de condesadores y la energ´ıa electromagn´etica en inductores.
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 267
transformaci´ ondelestado
estado!transformaci´ on
similaridad
En sistemas mec´ anicos, la energ´ıa cin´etica de una masa en movimiento y la en-
erg´ıa potencial debida a diferencia de nivel o a la compresi´ on de un resorte. Los
principales problemas con este tipo sistemas ocurren cuando la se˜ nal de entrada
contiene energ´ıa en la banda de frecuencias cercana a la frecuencia con que el
sistema oscila en forma natural. En la pr´ actica, este problema puede traducirse
en oscilaciones de magnitud que el sistema simplemente no est´ a preparado para
soportar. Para ilustrar esta situaci´ on examinaremos un ejemplo que ilustra el
fen´ omeno:
Ejemplo 10.5. Consideremos nuevamente el sistema masa-resorte-roce del
Ejemplo 10.1, en que las constantes tienen los valores:
M = 1[kg] ; D =
1
3
[Ns/m] ; K = 1[N/m] (10.62)
Con lo cual los autovalores del sistema son las soluciones de:
det(λI −A) = λ
2
+
D
M
λ +
K
M
= λ
2
+
1
3
λ + 1 = 0 (10.63)
⇒λ
1,2
= −
1
6
±
1
2
_
−35
9
≈ −
1
6
±j (10.64)
Por tanto, los modos naturales son de la forma e
−0,1667t
cos(t+φ). Cualquier
excitaci´ on que posea energ´ıa a frecuencias cercanas a ω = 1[rad/s] har´ a que el
sistema entre en resonancia, haciendo que en la salida del sistema aparezcan
oscilaciones de magnitud significativa.
Se desarrolla una simulaci´ on del comportamiento del sistema bajo dos ex-
citaciones distintas: en el primer caso, la entrada es una sinusoide de frecuencia
ω = 1 [rad/s], y en el segundo caso, la excitaci´ on una se˜ nal cuadrada de frecuen-
cia fundamental ω
o
= 0, 333 [rad/s]. En ambos casos las condiciones iniciales
del sistema son cero. Los resultados se muestran en la Figura 10.5.
Podemos apreciar que, en el primer caso, se genera un fen´ omeno de reso-
nancia debido a que la frecuencia de la sinusoide es aproximadamente igual a
la frecuencia de oscilaci´ on de los modos naturales del sistema. En el segundo
caso, tambi´en aparece un fen´ omeno de resonancia; sin embargo, ahora se debe
a la tercera arm´ onica de la excitaci´ on , ya que la frequencia angular de ella
es 3ω
o
= 0, 999[rad/s], es decir, coincide casi exactamente con la frecuencia
natural de oscilaci´ on del sistema.
222
10.3.3. Transformaciones de similaridad
La elecci´ on de variables de estado para un sistema dado no es ´ unica. Concre-
tamente podemos tener un sistema con entrada u(t), salida y(t) y dos diferentes
elecciones para el vector de estado: x(t) y x(t) ∈ R
n
, con sus matrices asociadas
¦A, B, C, D¦ y ¦A, B, C, D¦, respectivamente. El siguiente lema establece la
relaci´ on entre ambos modelos.
268 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
matriz!detransformaci´ on
0 5 10 15 20 25 30 35 40
−3
−2
−1
0
1
2
3
tiempo
y(t)
u(t)
0 5 10 15 20 25 30 35 40
−3
−2
−1
0
1
2
3
tiempo
y(t)
u(t)
Figura 10.5: Resonancia en el sistema masa-resorte.
Lema 10.2. Dado un sistema cuyo vector de estado es x(t) y sus matrices son
¦A, B, C, D¦, entonces, dada la matriz de transformaci´ on T ∈ R
n·n
no
singular, tenemos un nuevo vector de estado:
x(t) = T x(t) (10.65)
El modelo de estado para la nueva representaci´ on, queda expresado mediante
las matrices:
A = TAT
−1
; B = TB ; C = CT
−1
; D = D (10.66)
Demostraci´ on
Dada la transformaci´ on (10.65), en que T es no singular y, por tanto, in-
vertible, tenemos que:
x(t) = T
−1
x(t) (10.67)
Si reemplazamos entonces el vector de estado x(t) en las ecuaciones de estado
del sistema (10.44)-(10.45), obtenemos:
T
−1
˙
x(t) = AT
−1
x(t) +Bu(t) (10.68)
y(t) = CT
−1
x(t) +Du(t) (10.69)
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 269
donde, al multiplicar la primera ecuaci´ on por T por la izquierda, se obtiene:
˙
x(t) =
A
¸ .. ¸
TAT
−1
x(t) +
B
¸..¸
TB u(t) (10.70)
y(t) = CT
−1
. ¸¸ .
C
x(t) + D
.¸¸.
D
u(t) (10.71)
De esta forma se obtienen las ecuaciones (10.66).
222
Diferentes elecciones de las variables de estado pueden tener o no significado
f´ısico, sin embargo, existen representaciones que resultan m´ as simples del punto
de vista matem´ atico, como veremos en la Secci´ on ¸10.6.
A pesar de las diferentes posibles representaciones, es natural que ciertas
importantes caracter´ısticas y propiedades del sistema permanezcan invariantes,
cualquiera sea la representaci´ on elegida. Si, por ejemplo, consideramos los au-
tovalores del sistema, tenemos que:
det(λI −A) = det(λTT
−1
−TAT
−1
) (10.72)
= det
_
T(λI −A)T
−1
_
(10.73)
= det(T) det(λI −A) det(T
−1
) (10.74)
= det(λI −A) (10.75)
Por tanto, la estabilidad, la naturaleza de la respuesta homog´enea y la ve-
locidad de respuesta del sistema son invariantes respecto a transformaciones de
similaridad del estado.
(t)
f
1
(t)
C 2
(t)
L
(t)
(t)
2
R
+
v
v C R
i
i
L
i
Figura 10.6: Red el´ectrica
Ejemplo 10.6. En el circuito el´ectrico de la Figura 10.6, si escogemos el vector
de estado como x(t) = [x
1
(t) x
2
(t)]
T
= [i
L
(t) v
c
(t)]
T
y la se˜ nal de entrada
u(t) = v
f
(t), entonces usando conocimientos b´ asicos de redes el´ectricas, tenemos
que:
dx(t)
dt
=
_
¸
_
0
1
L

1
C

R
1
+R
2
R
1
R
2
C
_
¸
_x(t) +
_
_
0
1
R
1
C
_
_
u(t) (10.76)
270 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
funci´ ondetransferencia
polos
autovalores
Una elecci´ on alternativa del vector de estado puede ser x(t) = [x
1
(t) x
2
(t)]
T
=
[i(t) i
2
(t)]
T
. Donde puede probarse sin problema que
x(t) =
1
R
2
_
R
2
1
0 1
_
. ¸¸ .
T
x(t) (10.77)
222
10.3.4. Espacio de estado y funciones de transferencia
La representaci´ on de sistemas mediante modelos de variables de estado es
una descripsi´ on alternativa a las que hemos visto antes, tales como la ecuaci´ on
diferencial del sistema (Cap´ıtulo 3) y su funci´ on de transferencia asociada (Cap´ıtu-
los 6 y 7). Sin embargo, en esta secci´ on veremos que los modelos en espacio de
estado permiten describir con mayor profundidad una conjunto m´ as general de
sistemas.
En primer lugar, el siguiente lema establece como obtener una representaci´ on
en variables de estado de un sistema, dada su funci´ on de transferencia.
Lema 10.3. Dado un sistema lineal en invariante del tiempo con entrada con
funci´ on de transferencia:
H(s) =
Y(s)
U(s)
(10.78)
En que U(s) y Y(s) son las transformadas de Laplace de la entrada u(t) y la
salida y(t). Entonces, dada un modelo de estado con matrices ¦A, B, C, D¦,
tenemos que:
H(s) = C(sI −A)
−1
B+D (10.79)
Adem´ as, los polos de la funci´ on de transferencia H(s) pertencen al conjunto
de los autovalores de la matriz A.
Demostraci´ on
Usando la definici´ on en la Secci´ on ¸7.2, la funci´ on de transferencia del sis-
tema es la transformada de Laplace de la respuesta a impulso (delta de Dirac)
del sistema, con condiciones iniciales iguales a cero. Por lo tanto, si aplicamos
la transformada de Laplace a la ecuaci´ on (10.44), tenemos que:
sX(s) −
0
¸ .. ¸
x(0

) = AX(s) +B
1
¸ .. ¸
L¦δ(t)¦ (10.80)
(sI −A)X(s) = B (10.81)
X(s) = (sI −A)
−1
B (10.82)
De igual forma, aplicando Laplace a la ecuaci´ on (10.45) y reemplazando la
transformada del vector de estado X(s), obtenemos:
Y(s) = H(s) = CX(s) +DL¦δ(t)¦ = C(sI −A)
−1
B+D (10.83)
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 271
cancelaci´ on
Por otro lado, para obtener los polos de la transferencia H(s) podemos ree-
scribir la inversa de (sI −A) usando las propiedades en el Ap´endice F. De esta
forma:
H(s) = C
Adj(sI −A)
det(sI −A)
B+D =
CAdj(sI −A)B+Ddet(sI −A)
det(sI −A)
(10.84)
Lo que pone de manifiesto que todos los polos de H(s) son autovalores de la
matriz A.
222
Es importante notar que no necesariamente los polos de la funci´ on de
transferencia son todos los autovalores del sistema, pues la ecuaci´ on (10.79)
puede tener cancelaciones encubiertas entre ra´ıces del numerador (ceros) y ra´ıces
del denominador (polos) . Esto se ilustra mejor a trav´es del siguiente ejemplo.
Ejemplo 10.7. Consideremos las matrices de un modelo de estado:
A =
_
−2 1
0 −3
_
; B =
_
1
0, 5
_
; C =
_
0 1
¸
; D = 0 (10.85)
Entonces, la funci´ on de transferencia asociada es:
H(s) = C(sI −A)
−1
B =
1
(s + 2)(s + 3)
_
0 1
¸
_
s + 3 1
0 s + 2
_ _
1
0, 5
_
(10.86)
=
0, 5(s + 2)
(s + 2)(s + 3)
=
0, 5
(s + 3)
(10.87)
En este caso, la funci´ on de transferencia tiene s´ olo un polo, a pesar que la
matriz A posee dos autovalores. Se observa que existe una cancelaci´ on entre un
polo y un cero en H(s). Este fen´ omeno tiene relaci´ on directa con las propiedades
del sistema que se estudian en la Secci´ on ¸10.6.
222
Para interpretar este hecho en la pr´ actica, volvamos una vez m´ as al levita-
dor magn´etico del Ejemplo 10.3 en la p´ agina 259. Si consideramos la corriente
i(t) como salida, vemos de inmediato que la funci´ on de transferencia desde la
entrada e(t) a esta salida tiene s´ olo un polo, a pesar que el vector de estado
tiene dimensi´ on tres. La explicaci´ on de esto es que, en nuestro modelo f´ısico
simplificado, la corriente i(t) no es afectada por la posici´ on ni por la velocidad
vertical de la esfera. Note que la situaci´ on seria diferente si consider´ aramos en
el modelo el efecto del cambio de posici´ on de la esfera en la inductancia del
electroim´ an.
De esta forma, vemos que la funci´ on de transferencia puede no en-
tregar la misma informaci´ on que el modelo en variables de estado
para un sistema dado.
272 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
realizaci´ on m´ ınima
funci´ ondetransferencia!estrictamentepropia
Un problema interesante es obtener una representaci´ on de estado de un sis-
tema a partir de su funci´ on de transferencia. El lector debe tener la precauci´ on
de considerar un modelo de estado adecuado, el cual no contenga cancelaciones
entre polos y ceros impl´ıcitas. Teniendo esto en cuenta, el modelo obtenido se
denomina realizaci´ on m´ınima.
Existen diferentes m´etodos para obtener un modelo en variables de estado a
partir de la funci´ on de transferencia, y a continuaci´ on ilustramos uno de ellos.
Consideremos la funci´ on de transferencia dada por
H
T
(s) =
B
o
(s)
A
o
(s)
+H
T
(∞) =
b
n−1
s
n−1
+b
n−2
s
n−2
+. . . b
1
s +b
0
s
n
+a
n−1
s
n−1
+. . . +a
1
s +a
0
+H
T
(∞)
(10.88)
En primer lugar, podemos apreciar que D = H
T
(∞), por tanto basta consid-
erar la funci´ on de transferencia H(s) = H
T
(s) −H
T
(∞), que es estrictamente
propia.
Consideremos ahora v

(t) ∈ R cuya transformada de Laplace es V

(s) tal
que:
V

(s) =
s
−1
A
o
(s)
U(s) ∈ ¦1, 2, . . . , n¦ (10.89)
Esto implica que:
v

(t) =
dv
−1
(t)
dt
∈ ¦2, . . . , n¦ (10.90)
Y (s) =
n

=1
b
−1
V

(s) (10.91)
U(s) =
A
o
(s)
A
o
(s)
U(s) =
s
n
A
o
(s)
U(s)
. ¸¸ .
sV
n
(s)
+
n

=1
a
−1
s
−1
A
o
(s)
U(s)
. ¸¸ .
V

(s)
(10.92)
Ahora si escogemos como variables de estado x

(t) = v

(t), la ecuaci´ on cor-
responde a:
A =
_
¸
¸
¸
_
0 1 0 0 0
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
−a
0
−a
1
−a
2
−a
n−2
−a
n−1
_
¸
¸
¸
_
; B =
_
¸
¸
¸
¸
¸
_
0
0
.
.
.
0
1
_
¸
¸
¸
¸
¸
_
(10.93)
C =
_
b
0
b
1
b
2
b
n−1
¸
; D = H
T
(∞) (10.94)
Ejemplo 10.8. La funci´ on de transferencia de un sistema est´ a dada por:
H(s) =
4s −10
(s + 2)
2
(s −1)
=
4s −10
s
3
+ 3s
2
−4
(10.95)
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS273
sistema!discreto
sistema!muestreado
discretizaci´ on
muestreo
PLC
conversor!digital-an´ alogo(DAC)
conversor!an´ alogo-digital(ADC)
DAC|seeconversor
ADC|seeconversor
Entonces una realizaci´ on m´ınima para este sistema es:
A =
_
_
0 1 0
0 0 1
4 0 −3
_
_
; B =
_
_
0
0
1
_
_
(10.96)
C =
_
−10 4 0
¸
; D = 0 (10.97)
222
Otro resultado importante, cuya demostraci´ on se deja como ejercicio para el
lector, es
La funci´ on de transferencia de un sistema es invariante respecto a transfor-
maciones de similaridad del estado
10.4. Modelos de estado para sistemas discretos
y muestreados
En esta secci´ on estudiaremos la representaci´ on de estado para sistemas de
tiempo discreto, usando como base los resultados ya obtenidos para sistemas de
tiempo continuo.
Antes de comenzar es importante distinguir que un modelo en tiempo dis-
creto puede originarse de dos formas:
A partir de un sistema intr´ınsecamente discreto, y generalmente no lineal,
cuyas variables est´ an definidas s´ olo en intantes de tiempo espec´ıficos t
k
.
Estos pueden originarse, por ejemplo, en el modelamiento de sistemas
econ´ omicos o en el modelamiento de procesos estoc´ asticos.
O bien, a partir de la discretizaci´ on de un sistema de tiempo continuo.
En este caso, interesa el valor las variables del sistema en instantes de
tiempo espec´ıficos. Esto se denomina muestreo. Los modelos de este tipo
son muy ´ utiles cuando sistemas digitales, tales como microcontroladores,
computadores, controladores l´ ogicos programables (PLC’s) u otros, deben
interactuar con sistemas reales de tiempo continuo, tales como estruc-
turas mec´ anicas, v´ alvulas, tanques, circuitos an´ alogos, o con procesos in-
dustriales completos
2
. Este tipo de sistemas se denominan sistemas
muestreados.
Cualquiera que sea el origen del modelo discreto, nos concentraremos en el
caso en que ´este es lineal e invariante en el tiempo, tal como lo hicimos en
el caso de tiempo continuo.
2
La conexi´ on requiere de conversores Digital-An´ alogo y An´ alogo-Digital (DAC y ADC, sus
siglas en ingl´es, respectivamente)
274 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
linealizaci´ on
sistema!muestreado
muestreo
sampling|seemuestreo
retentor
10.4.1. Linealizaci´ on de sistemas discretos
El equivalente en tiempo discreto de las ecuaciones (10.3)-(10.4) est´ a dado
por las expresiones no lineales:
x[t + 1] = F
d
(x[t], u[t]) (10.98)
y[t] = G
d
(x[t], u[t]) (10.99)
La linealizaci´ on se realiza de manera an´ aloga que para el caso continuo,
considerando primero un punto de equilibrio, dado por el tr´ıo ¦x
Q
, u
Q
, y
Q
¦,
que satisface las ecuaciones:
x
Q
= F
d
(x
Q
, u
Q
) (10.100)
y
Q
= G
d
(x
Q
, u
Q
) (10.101)
Podemos apreciar que el punto de equilibrio queda definido por un conjunto
de valores constantes para el estado del sistema y para su entrada, que deben
satisfacer (10.98)-(10.99). Esto implica un valor constante tambi´en en la salida
del sistema. El sistema discreto puede ser entonces linealizado en torno a este
punto de equilibrio, definiendo las se˜ nales:
∆x[t] = x[t] −x
Q
; ∆u[t] = u[t] −u
Q
; ∆y[t] = y[t] −y
Q
(10.102)
Obtenemos as´ı el modelo en variables de estado:
∆x[t + 1] = A
d
∆x[t] +B
d
∆u[t] (10.103)
∆y[t] = C
d
∆x[t] +D
d
∆u[t] (10.104)
donde las matrices son:
A
d
=
∂F
d
∂x
¸
¸
¸
¸
x=x
Q
u=u
Q
; B
d
=
∂F
d
∂u
¸
¸
¸
¸
x=x
Q
u=u
Q
; C
d
=
∂G
d
∂x
¸
¸
¸
¸
x=x
Q
u=u
Q
; D
d
=
∂G
d
∂u
¸
¸
¸
¸
x=x
Q
u=u
Q
(10.105)
10.4.2. Sistemas muestreados
Como hemos dicho antes, los modelos de tiempo discreto se obtienen a
menudo al hacer un muestreo
3
de las entradas y salidas de un sistema de tiempo
continuo.
Cuando alg´ un dispositivo digital se utiliza para actuar sobre un sistema de
tiempo continuo, la se˜ nal de actuaci´ on o de comando sobre ´el s´ olo se define en
ciertos instantes de tiempo espec´ıficos, y no para todo instante de tiempo t. Sin
embargo, siempre necesitaremos una se˜ nal continua para actuar sobre el sistema
(de tiempo continuo). Esta se˜ nal se obtiene usualmente a trav´es de un retentor,
el cual genera una se˜ nal constante por tramos, manteniendo el ´ ultimo valor
especificado hasta que se define el siguiente. Este tipo de retentor se denomina
3
Sampling, en ingl´es
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS275
ZOH|seeretentor
muestreo!per´ ıodode
per´ ıodo!demuestreo
retentor de orden cero
4
. Es importante considerar que existen otras formas
de generar una se˜ nal de actuaci´ on continua a partir de la secuencia discreta
(v´ease, por ejemplo, [3]).
Adem´ as de la se˜ nal de actuaci´ on, es necesario medir las variables que nos
interesan de un sistema en los instantes de tiempo espec´ıficos que se requiera.
Es decir, debemos muestrear las se˜ nales de salida.
En la Figura 10.7 se describe la discretizaci´ on de un sistema continuo. Si
suponemos un muestreo peri´ odico, con periodo ∆, nos interesa el valor de las
variables s´ olo en los instantes k∆, en que k ∈ N. En las secciones posteriores
omitiremos el per´ıodo de muestreo ∆ del argumento de las se˜ nales, usando
u(k∆) = u[t] para la entrada, y(k∆) = y[t] para la salida, y x(k∆) = x[t] para
el estado del sistema, donde ahora t representa los instantes de tiempo discreto.
y[k] (t) u
S
(t) y u[k]
Tiempo Continuo
Sistema de
Retentor
(Hold) (Sample)
Muestreo
Figura 10.7: Esquema de un sistema muestreado
Si consideramos el modelo en variables de estado, lineal, invariante y de
tiempo continuo definido en (10.44)-(10.45), con estado inicial x(k
0
∆) = x
0
,
entonces podemos usar la ecuaci´ on (10.46) para calcular el valor del estado en
el pr´ oximo instante de muestreo:
x(k
0
∆ + ∆) = e
A(k
0
∆+∆−k
0
∆)
x(k
0
∆) +
_
k
0
∆+∆
k
0

e
A(k
0
∆+∆−τ)
B u(τ)dτ
(10.106)
Es m´ as, si u(τ) es generada mediante un retentor de orden cero, entonces:
u(τ) = u(k
0
∆) k
0
∆ ≤ τ < k
0
∆ + ∆ (10.107)
De esta forma, haciendo el cambio de variable η = k
0
∆+∆−τ, se obtiene:
x(k
0
∆ + ∆) = e
A∆
x(k
0
∆) +
_

0
e

dη Bu(k
0
∆) (10.108)
Es m´ as, dado el estado y la entrada en un instante k
0
∆, la salida del sistema
queda definida por la ecuaci´ on (10.45), es decir:
y(k
0
∆) = Cx(k
0
∆) +Du(k
0
∆) (10.109)
4
Zero Order Hold o ZOH, en ingl´es
276 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
exponencial!deunamatriz
Por lo tanto, dado un sistema de tiempo continuo con un modelo en variables
de estado con matrices ¦A, B, C, D¦, si muestreamos sus entradas y salidas cada
∆ segundos, entonces, el sistema muestreado equivalente queda descrito por el
modelo de estado en tiempo discreto:
x(k∆ + ∆) = A
d
x(k∆) +B
d
u(k∆) (10.110)
y(k∆) = C
d
x(k∆) +D
d
u(k∆) (10.111)
donde las matrices son:
A
d
= e
A∆
; B
d
=
_

0
e

dη B ; C
d
= C ; D
d
= D (10.112)
Existen diferentes m´etodos para obtener la matriz A
d
definida mediante
la exponencial de una matriz en el extremo izquierdo de (10.112). Una opci´ on
es utilizar la definici´ on de la exponencial de una matriz en el Ap´endice F, sin
embargo, a menudo es m´ as simple calcularla empleando la transformada de
Laplace inversa, de manera que:
A
d
= e
A∆
= L
−1
_
(sI −A)
−1

¸
t=∆
(10.113)
Note que el m´etodo propuesto involucra tres pasos esencialmente:
(i) Dada la matriz A, se obtiene la matriz inversa de (sI −A).
(ii) A continuaci´ on se aplica transformada de Laplace inversa a cada compo-
nente de (sI −A)
−1
.
(iii) Finalmente, las funciones temporales en cada una de las entradas de la
matriz obtenida se eval´ uan en t = ∆.
Veamos a continuaci´ on un ejemplo para aclarar e ilustrar las ideas presen-
tadas hasta el momento.
Ejemplo 10.9. Consideremos el sistema mec´ anico del Ejemplo 10.1 en la p´ agi-
na 255, que fue descrito en variables de estado seg´ un las ecuaciones:
_
˙ x
1
(t)
˙ x
2
(t)
_
=
_
0 1

K
M

D
M
__
x
1
(t)
x
2
(t)
_
+
_
0

1
M
_
f(t) (10.114)
donde f(t) es la fuerza externa, y donde podemos escoger como salida del sistema
ya sea la posici´ on de la masa, x
1
(t), o su velocidad, x
2
(t).
Para simplificar las expresiones, supongamos algunos valores para los par´ amet-
ros del sistema. Se fija la masa M = 1 [kg], la constante de roce viscoso D = 1, 2
[Ns/m] y la constante del resorte K = 0, 32 [N/m].
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS277
matriz!detransici´ on!discreta
La matriz A
d
se obtiene usando (10.113), aplicando transformada de Laplace
inversa:
A
d
= L
−1
_
_
_
_
s −1
0, 32 s + 1,2
_
−1
_
_
_
¸
¸
¸
¸
¸
¸
t=∆
=
_
2e
−0,4∆
−e
−0,8∆
2,5(e
−0,4∆
−e
−0,8∆
)
0, 8(e
−0,4∆
−e
−0,8∆
) −e
−0,4∆
+ 2e
−0,8∆
_
(10.115)
La matriz B
d
se obtiene, seg´ un (10.112), integrando:
B
d
=
_

0
_
2e
−0,4η
−e
−0,8η
2,5(e
−0,4η
−e
−0,8η
)
0, 8(e
−0,4η
−e
−0,8η
) −e
−0,4η
+ 2e
−0,8η
_

_
0
1
_
=
_
−6,25e
−0,4∆
+ 3,125e
−0,8∆
+ 3,125
2,5(e
−0,4∆
−e
−0,8∆
)
_
(10.116)
Note que ambas matrices, A
d
y B
d
son funciones de ∆. Por tanto, el per´ıodo
de muestreo ∆, tiene una clara influencia sobre el comportamiento del sistema
muestreado, tal como veremos m´ as adelante.
222
10.4.3. Modelos de estado lineales
Concentr´emonos ahora en el modelo en variables de estado, lineal e invariante
en el tiempo:
x[t + 1] = A
d
x[t] +B
d
u[t] (10.117)
y[t] = C
d
x[t] +D
d
u[t] (10.118)
Este puede corresponder a un modelo linealizado como (10.103)-(10.104),
o a un sistema muestreado como (10.110)-(10.111) donde ∆ se ha omitido del
argumento temporal.
Lema 10.4. Dado el sistema de tiempo discreto definido en las ecuaciones
(10.117) y (10.118), sujeto a la condici´ on inicial x[t
o
] = x
o
, su soluci´ on est´ a da-
da por
x[t] = A
d
(t−t
o
)
x
o
+
(t−t
o
)−1

i=0
A
d
(t−t
o
)−i−1
B
d
u[i +t
o
] ∀ t ≥ t
o
(10.119)
donde A
d
(t−t
o
)
es la matriz de transici´ on discreta.
Demostraci´ on
278 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
respuesta!noforzada
A partir de la ecuaci´ on (10.117), usando la condici´ on inicial x[t
o
] = x
o
,
puede determinarse completamente la trayectoria futura del estado. As´ı:
x[t
o
+ 1] = A
d
x[t
o
] +B
d
u[t
o
] (10.120)
x[t
o
+ 2] = A
d
x[t
o
+ 1] +B
d
u[t
o
+ 1]
= A
d
_
A
d
x[t
o
] +B
d
u[t
o
]
_
+B
d
u[t
o
+ 1]
= A
d
2
x[t
o
] +A
d
B
d
u[t
o
] +B
d
u[t
o
+ 1] (10.121)
.
.
.
Por inducci´ on, tenemos que:
x[t
o
+] = A
d

x[t
o
] +
−1

i=0
A
d
−1+i
B
d
u[t
o
+i] ∀ ≥ 0 (10.122)
Este ´ ultima ecuaci´ on coincide con la ecuaci´ on (10.119) al hacer = t −t
o
.
222
Con el resultado del lema anterior, podemos encontrar la soluci´ on a la
ecuaci´ on (10.118), pues la salida del sistema queda determinada en todo mo-
mento por el vector de estado:
y[t] = C
d
A
d
(t−t
o
)
x
o
+C
d
(t−t
o
)−1

i=0
_
A
d
(t−t
o
)−i−1
B
d
u[t
o
+i]
_
+D
d
u[t]
(10.123)
Din´amica del sistema
El vector de estado que se obtiene al resolver las ecuaciones del sistema,
an´ alogamente al caso de tiempo continuo, tiene dos componentes: la componente
no forzada, x
u
[t], y la forzada, x
f
[t], donde:
x
u
[t] = A
d
(t−t
o
)
x
o
(10.124)
x
f
[t] =
(t−t
o
)−1

i=0
A
d
(t−t
o
)−i−1
B
d
u[t
o
+i] (10.125)
Estructura de la respuesta no forzada
Para simplificar el an´ alisis del modelo y su soluci´ on, aprovecharemos la in-
varianza en el tiempo, considerando el caso en que t
o
= 0 and u[t] = 0 ∀ t ≥ 0,
i.e. el estado tiene s´ olo su parte no forzada. En este caso:
x[t] = A
d
t
x
o
(10.126)
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS279
estabilidad
velocidad
Por simplicidad asumiremos que A
d
∈ R
n·n
tiene n autovalores distintos
η

, con n autovectores linealmente independientes v

, entonces siempre existe
un conjunto de n constantes α

tales que:
x
o
=
n

=1
α

v

; α

∈ C (10.127)
Del ´ algebra lineal (Ap´endice F) sabemos que los autovalores la matriz A
d
t
son η
t

, para t ∈ N, con sus correspondientes autovectores v

. De esta forma, se
obtiene:
x[t] = A
d
t
x
o
= A
d
t
n

=1
α

v

=
n

=1
α

A
d
t
v

. ¸¸ .
η
t

v

=
n

=1
α

η
t

v

(10.128)
Esta ecuaci´ on pone de manifiesto que la componente no forzada del estado
es una combinaci´ on lineal de modos de la forma ¦η

t
¦, cada uno est´ a asociado
con un autovalor de A
d
. Esto establece un resultado muy importante:
Los frecuencias naturales de un sistema de tiempo discreto son iguales a los
valores propios de la matriz A
d
de su representaci´ on en variables de estado.
Es decir, la ecuaci´ on caracter´ıstica de un sistema est´ a dada por:
det(ηI −A
d
) = 0 (10.129)
An´ alogamente al caso de los modelos de tiempo continuo, esto indica que la
matriz A
d
determina:
la estructura de la respuesta no forzada,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de la respuesta.
El an´ alisis previo puede extenderse al caso en que la matriz A
d
posee valores
propios repetidos, utilizando la forma de Jordan (Ap´endice F).
En ausencia de entrada, el estado del sistema evoluciona como una combi-
naci´ on de sus modos naturales, los cuales pertenecen a una clase definida de
funciones (Secci´ on ¸4.3.1). Estas se expresan como potencias de los autoval-
ores reales o complejos, tal como se aprecia en la ecuaci´ on (10.128), y est´ an
relacionadas con constantes, exponenciales reales, sinusoides puras o moduladas
por exponenciales, y otras funciones especiales que aparecen cuando hay auto-
valores repetidos.
Ejemplo 10.10. Para ilustrar estas ideas consideremos el sistema muestreado
que vimos en el Ejemplo 10.9. Si ∆ = 1, las matrices de la representaci´ on de
estado son:
A
d
=
_
0, 8913 0, 5525
−0, 1768 0, 2283
_
; B
d
=
_
0, 3397
0, 5525
_
(10.130)
280 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
respuesta!forzada
estabilidad
Los autovalores del sistema son las soluciones de la ecuaci´ on:
det(ηI −A
d
) = det
__
η −0, 8913 −0, 5525
0, 1768 η −0, 2283
__
(10.131)
= (η −0, 6703)(η −0, 4493) = 0 (10.132)
Es decir, η
1
= 0, 6703 y η
2
= 0, 4493. Por lo tanto, la respuesta no forzada
es de la forma:
x
u
[t] = C
1
(0, 6702)
t
+C
2
(0, 4493)
t
(10.133)
donde C
1
y C
2
dependen s´ olo del estado inicial.
Podemos apreciar que cuando t tiende a infinito, x
u
[t] se hace cero, ya que

1,2
[ < 1. Adem´ as, estos autovalores son reales positivos, por tanto los modos
naturales no contienen oscilaciones. Esto es esperable pues en el Ejemplo 10.9
se eligieron los par´ ametros de manera que el sistema masa-resorte resulta sobre
amortiguado.
222
Estructura de la respuesta forzada
Si se considera la ecuaci´ on (10.119) con condici´ on inicial cero, el estado s´ olo
exhibe su componente forzada. Adem´ as de los modos naturales, esta se˜ nal in-
cluye los modos forzados o particulares, que dependen del tipo de se˜ nal de
entrada u[t]. En general, los modos forzantes en la entrada tambi´en apare-
cer´ ann en la salida del sistema, excepto en el caso que alguna de ellos coincida
con alguno un modo natural del sistema.
Estabilidad
La estabilidad de un sistema lineal, de tiempo discreto e invariante en el
tiempo tambi´en puede ser analizada a trav´es de la matriz A
d
. Ya hemos es-
tablecido que todas las variables del sistema se pueden expresar como funciones
lineales del estado y la entrada. Cuando la entrada u[t] es un vector acotado en
el tiempo, entonces las variables del sistema permanecer´ an acotadas si y s´ olo si
el estado est´ a acotado. Tenemos entonces el siguiente resultado:
Teorema 10.2. Dado un sistema descrito en variables de estado por las ecua-
ciones (10.117)-(10.118), donde A
d
, B
d
, C
d
y D
d
tienen elementos acotados.
Entonces, el estado del sistema estar´ a acotado para toda entrada acotada si y
s´ olo si los autovalores de la matriz A
d
se encuentran en el interior del disco
unitario, i.e. [η

[ < 1 ; ∀.
222
Velocidad de respuesta y resonancia
Recordemos que los modos naturales de un sistema de tiempo discreto son
las potencias de los autovalores η

. Estos autovalores siempre pueden expresarse
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS281
transiente|seerespuesta!transitoria
respuesta!aescal´ on
resonancia
como un n´ umero complejo en su forma exponencial, por lo tanto, un modo
natural puede escribirse como:

)
t
=
_

[ e

_
t
= [η

[
t
e

t
; donde θ

= ∠η

(10.134)
Por lo tanto, tenemos que:
La magnitud 0 < [η

[ < ∞ determina la velocidad con la que el modo
decae a cero, en el caso de sistemas estables ([η

[ < 1), o crece hasta
infinito, para sistema inestables ([η

[ > 1).
El ´ angulo −π < θ

≤ π determina la frecuencia discreta de oscilaci´ on del
modo natural, medida en radianes.
A pesar que los modos naturales de un sistema estable decaen a cero, ellos
determinan la respuesta transiente del sistema. Para apreciar esto, generalmente
se utiliza la respuesta!a escal´ on del sistema, con condiciones iniciales cero.
Ejemplo 10.11. Consideremos el sistema dicreto de primer orden:
x[t + 1] = η

x[t] +u[t] (10.135)
y[t] = (1 −η

)x[t] (10.136)
Para obtener la respuesta a escal´ on, usamos la ecuaci´ on (10.123), donde
x
o
= 0 y u[t] = 1, ∀t ≥ 0:
y[t] = C
d
_
t−1

i=0
A
d
t−i−1
_
B
d
(10.137)
= (1 −η

)
_
t−1

i=0
η
t−i−1

_
= (1 −η


t−1

1 −η
−t

1 −η
−1

(10.138)
= 1 −η
t

(10.139)
La salida, y[t] = y
h
[t] + y
p
[t] se muestra en la Figura 10.8, para diferentes
valores del ´ unico autovalor η

. El transiente est´ a dado por y
h
[t] = −η
t

, mientras
que la respuesta estacionaria es y
p
[t] = 1.
222
En la (10.134) apreciamos que los autovalores de un sistema determinan
la amortiguaci´ on de su respuesta transiente, sin embargo, tambi´en determinan
su frecuencia de oscilaci´ on (cuando los autovalores tienen parte imaginaria no
nula). El problema que puede surgir cuando existen estos modos resonantes
es an´ alogo al caso de tiempo continuo cuando la entrada el sistema contiene
una sinusoide u otra se˜ nal con energ´ıa en la banda de frecuencias cercana a la
frecuencia de oscilaci´ on natural del sistema. A pesar que la salida del sistema
permanece acotada, ella puede alcanzar amplitudes intolerables para el sistema
f´ısico real.
282 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
per´ ıodo!demuestreo
muestreo!per´ ıodode
0 1 2 3 4 5 6 7 8 9 10
0
0.2
0.4
0.6
0.8
1
tiempo discreto k
y
[
k
]
η = 0.2
η = 0.6
η = 0.8
Figura 10.8: Respuesta a escal´ on del sistema para diferentes autovalores.
Ejemplo 10.12. Consideremos el sistema discreto por:
x[t + 1] =
_
1,2796 −0, 81873
1 0
_
x[t] +
_
1
0
_
u[t] (10.140)
y[t] =
_
0 0, 5391
¸
x[t] (10.141)
Los autovalores del sistema se obtiene a partir de A
d
:
η
1,2
= 0, 6398 ±j0, 6398 = 0, 9048 e
j
π
4
(10.142)
Los modos naturales asociados, presentes en la respuesta transiente, son:
η
t
1,2
= 0, 9048
t
e
j
π
4
t
= 0, 9048
t
_
cos
_
π
4
t
_
±j sen
_
π
4
t
__
(10.143)
Los modos naturales est´ an levemente amortiguados, ya que [η
1,2
[ es cercano
a 1, y muestra una oscilaci´ on de frecuencia
π
4
.
En los gr´ aficos de la Figura 10.9 se muestra el efecto de resonancia en la
salida del sistema. En la parte superior, se ha considerado u[t] = sen
_
π
4
t
_
, es
decir, la entrada tiene la misma frecuencia que los modos naturales. En la parte
inferior, en tanto, la entrada es una se˜ nal cuadrada de frecuencia
π
12
. En este
´ ultimo caso, la frecuencia de la tercera arm´ onica de la entrada coincide con
la de los modos naturales.
222
Efecto del per´ıodo de muestreo
Si observamos las ecuaciones (10.112), podemos notar que las matrices A
d
y
B
d
dependen de la elecci´ on del per´ıodo de muestreo ∆. Esta elecci´ on tendr´ a un
efecto directo sobre la posici´ on de los polos del sistema.
Lema 10.5. Dado un sistema de tiempo continuo con ¦λ
i
, . . . , λ
n
¦, si este
sistema es muestreado con un per´ıodo de muestreo ∆, entonces los autovalores
del sistema discreto resultante son ¦η
1
, . . . , η

¦, en que:
η

= e
λ


(10.144)
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS283
0 5 10 15 20 25 30 35 40
−5
0
5
tiempo discreto k
y[k]
u[k]
0 5 10 15 20 25 30 35 40
−3
−2
−1
0
1
2
3
tiempo discreto k
y[k]
u[k]
Figura 10.9: Resonancia en la salida del sistema.
Demostraci´ on
La matriz del sistema de tiempo continuo A puede ser diagonalizada uti-
lizando sus autovalores:
A = T
−1
diag¦λ
1
, . . . , λ
n
¦T (10.145)
donde ¦λ
1
, . . . , λ
n
¦ son los autovalores del sistema de tiempo continuo. En-
tonces, usando (10.112):
A
d
= e
A∆
= e
T
−1
diag¦λ
1
,...,λ
n
]T∆
= e
T
−1
diag¦λ
1
∆,...,λ
n
∆]T
= T
−1
diag¦e
λ
1

, . . . , e
λ
n

¦T (10.146)
donde el ´ ultimo paso es consecuencia de la definici´ on de la exponencial de una
matriz (Ap´endice F). De esta forma, a partir de (10.146) resulta evidente que
los autovalores de A
d
son precisamente ¦e
λ
1

, . . . , e
λ
n

¦.
222
En la Figura 10.10 se muestra la respuesta del sistema muestreado del Ejem-
plo 10.9, considerando x
1
[t] como la salida del sistema, cuando inicialmente
x
o
= [1 0]
T
, para diferentes valores de ∆. Se debe notar que el eje horizontal
corresponde a los instantes discretos t, por tanto los instantes de tiempo reales
son t∆ [seg.]
284 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
retardo
0 2 4 6 8 10 12 14 16 18 20
0
0.5
1
Tiempo de muestreo ∆=2
tiempo discreto k
x
1
[
k
]
0 2 4 6 8 10 12 14 16 18 20
0
0.5
1
Tiempo de muestreo ∆=1
x
1
[
k
]
0 2 4 6 8 10 12 14 16 18 20
0
0.5
1
Tiempo de muestreo ∆=0.5
x
1
[
k
]
Figura 10.10: Efecto del muestreo en los modos naturales
En base a lo anterior, es importante notar que:
La elecci´ on del per´ıodo de muestreo es un aspecto fundamental a considerar
cuando se muestrea un sistema de tiempo continuo, de manera que sea los
suficientemente peque˜ no para reflejar fielmente las se˜ nales que se muestrean.
Ejemplo 10.13. Para ilustrat una mala elecci´ on de ∆, supongamos una se˜ nal
f(t) = Asen(ω
o
t) que es muestreada cada ∆ segundos, con ∆ = 2π/ω, ∈ N.
Entonces, la se˜ nal discreta resultante es f[t] = 0, ∀t ∈ Z, es decir, una constante
!
222
Sistemas muestreados y retardos
En la secci´ on ¸10.3, mencionamos que no es posible describir sistemas con
retardos puros mediante modelos en variables de estado de dimensi´ on finita. Sin
embargo, este problema se puede ser evitado muestreando las se˜ nales. Esto se
ilustra a trav´es del siguiente ejemplo.
Ejemplo 10.14. Considere el sistema t´ermico que se bosqueja en la Figura
10.11. La temperatura medida en el caudal, y(t), depende de la potencia que
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS285
u(t)
Sensor
y(t)
flujo
Calefactor
Figura 10.11: Sistema t´ermico con retardo.
entregue al flu´ıdo la fuente de calor. Esta es controlado por una se˜ nal de control
u(t). Los cambios en u(t) producen cambios en la temperatura y(t), pero con un
retardo de tiempo no despreciable. El sistema linealizado se representa mediante
la funci´ on de transferencia:
Y (s)
U(s)
= H(s) =
e
−τs
K
s +λ
(10.147)
Donde U(s) e Y (s) son las transformadas de Laplace de u(t) e y(t) respec-
tivamente.
Supongamos luego que las se˜ nales de entrada y salida son muestreadas cada
∆ [s]. El retardo τ, tambi´en en segundos, es funci´ on de la velocidad del flujo y
podemos suponer, por simplicidad, que τ es un m´ ultiplo del intervalo de muestreo
∆, es decir, τ = m∆, m ∈ Z
+
. Este retardo se convierte en un factor z
m
en el
denominador de la funci´ on de transferencia en el dominio de la transformada
Zeta. Es decir, el retardo se convierte en un conjunto de m polos en el origen.
Adem´ as, en base a la ecuaci´ on (10.144), el autovalor del sistema continuo en
s = −λ se transforman en un autovalor del sistema discreto en z = e
−λ∆
. La
funci´ on de transferencia resultante es:
Y [z]
U[z]
= H[z] =
K
λ
1 −e
−λ∆
z
m
(z −e
−λ∆
)
(10.148)
que puede expresarse mediante el modelo de estado discreto:
x
1
[t + 1] = x
2
[t] (10.149)
x
2
[t + 1] = x
3
[t] (10.150)
.
.
.
.
.
.
x
m
[t + 1] = x
m+1
[t] (10.151)
x
m+1
[t + 1] = e
−λ∆
x
m+1
[t] +
K
λ
(1 −e
−λ∆
)u[t] (10.152)
y[t] = x
1
[t] (10.153)
A´ un m´ as, podemos interpretar las variables de estado x
m+1
[t], . . . , x
1
[t] co-
mo la temperatura en puntos equiespaciados entre el calefactor y el sensor de
temperatura (suponiendo un caudal de velocidad constante).
222
286 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
transformaci´ ondelestado
estado!transformaci´ on
similaridad
funci´ ondetransferencia
matriz!adjunta
Cuando el retardo τ no es m´ ultiplo exacto del per´ıodo de muestreo ∆, en la
funci´ on de transferencia aparecen un polo y un cero adicionales (consulte, por
ejemplo, [6]).
10.4.4. Transformaciones de similaridad
Las diferentes elecciones del vector de estado para sistemas discretos se rela-
cionan de la misma manera que para sistemas de tiempo continuo a trav´es de las
transformaciones de similaridad (Secci´ on ¸10.3.3). De igual forma, muchas de
las propiedades del sistema, como la ubicaci´ on de las frecuencias naturales o au-
tovalores, la controlabilidad y la observabilidad tambi´en permanecen invariantes
ante este tipo de transformaciones.
10.4.5. Espacio de estado y funciones de transferencia
Para los sistemas de tiempo discreto la relaci´ on entre los modelos en variables
de estado y aquellos mediante funciones de transferencia es an´ aloga al caso de
tiempo continuo (Secci´ on ¸10.3.4).
Como hemos mencionado, el modelo en variables de estado de un sistema
lineal, invariante en el tiempo es una descripci´ on alternativa a la funci´ on de
transferencia, que a menudo entrega mayor informaci´ on sobre el sistema.
Para un sistema de tiempo discreto, lineal e invariante, con entrada u[t] ∈ R
m
y salida y[t] ∈ R
p
, la funci´ on de transferencia, H[z], est´ a definida como:
Y[z] = H[z]U[z]; where [H[z]]
ij
=
Y
i
[z]
U
j
[z]
(10.154)
Es decir, el elemento (i, j) en la matriz H[z] es la transformada Zeta de la
respuesta en la i-´esima salida cuando se aplica un delta de Kronecker de am-
plitud unitaria en la j-´esima entrada, con condiciones iniciales cero y las dem´ as
entradas son iguales a cero ∀t ≥ 0.
Por otro lado, si se aplica transformada Zeta a modelo en variables de estado
de tiempo discreto (10.117)-(10.118), con condiciones iniciales cero, tenemos:
X[z] = (zI −A
d
)
−1
B
d
U[z] (10.155)
Y[z] = C
d
X[z] +D
d
U[z] (10.156)
que se reduce a:
C
d
(zI −A
d
)
−1
B
d
+D
d
= H[z] (10.157)
En adelante, nos concentraremos en los sistemas escalares o SISO, i.e. m =
p = 1, B
d
, C
d
T
son vectores columna, y D
d
= H[∞]. Podemos apreciar que en
este caso H[z] es un cuociente de polinomios en la variable z, i.e.
H[z] =
C
d
Adj(zI −A
d
) B
d
+D
d
det(zI −A
d
)
det(zI −A
d
)
(10.158)
donde Adj(◦) denota la matriz adjunta de la matriz (◦) (ver Ap´endice F.
10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS287
cancelaci´ on
realizaci´ onm´ ınima
sistema!interconexi´ on
An´ alogamente al caso de tiempo continuo, podemos observar que los polos
de la funci´ on de transferencia pertenecen al conjunto de autovalores de la ma-
triz A
d
. Sin embargo, como se aprecia en el Ejemplo 10.7 en la p´ agina 271,
para el caso continuo, puede suceder que algunos de los autovalores de A
d
no
aparezcan como polos de la funci´ on de transferencia. Esto implica la existencia
de cancelaciones entre polos y ceros de la funci´ on de transferencia (ver Secciones
¸10.6.1 y ¸10.6.2, m´ as adelante).
El resultado central para sistemas de tiempo discreto es el mismo que para el
caso de sistemas de tiempo continuo : la funci´ on de transferencia puede
no aportar la misma informaci´ on que el modelo en variables de
estado para un mismo sistema.
Para obtener un modelo en variables de estado a partir de la funci´ on de
transferencia de un sistema discreto, podemos usar el mismo procedimiento
propuesto para sistemas continuos en la Secci´ on ¸10.3.4. En este caso, usamos
la transformada Zeta en lugar de la transformada de Laplace, que satisface la
propiedad (ver Ap´endice E):
F[z] = Z ¦f[t]¦ ⇐⇒ zF[z] = Z ¦f[t + 1]¦ (10.159)
Ejemplo 10.15. Consideremos el sistema discreto dado por su funci´ on de
transferencia:
H[z] =
2z
2
−z + 1
(z −0, 8)(z −0, 6)
=
1,8z + 0, 04
z
2
−1,4z + 0, 48
+ 2 (10.160)
Una realizaci´ on m´ınima para este sistema est´ a dada por las matrices:
A
d
=
_
0 1
−0, 48 −1,4
_
; B
d
=
_
0
1
_
(10.161)
C
d
=
_
0, 04 1,8
¸
; D
d
= 2 (10.162)
222
Para sistemas de tiempo discreto tambi´en tenemos que la funci´ on de
transferencia del sistema es invariante respecto a transformaciones
de similaridad.
10.5. Modelos de estado para sistemas interconec-
tados
Para construir modelos en espacio de estados de sistemas complejos estos
pueden ser a menudo descritos como la interconexi´ on de sistemas m´ as simples.
Esta interconexi´ on es usualmente la combinaci´ on de tres tipos b´ asicos de es-
tructuras: conexi´ on en serie, en paralelo y en realimentaci´ on. En cada uno de
288 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
conexi´ on!serie(cascada)
serie!conexi´ on
cascada|seeconexi´ on
conexi´ on!paralelo
paralelo!conexi´ on
estos casos nos interesa obtener un modelo en variables de estado del sistema
completo resultante.
Para el an´ alisis que sigue consideramos dos sistemas, definidos mediante su
modelo en variables de estado:
Sistema 1:
_
_
_
dx
1
(t)
dt
= A
1
x
1
(t) +B
1
u
1
(t)
y
1
(t) = C
1
x
1
(t) +D
1
u
1
(t)
(10.163)
Sistema 2:
_
_
_
dx
2
(t)
dt
= A
2
x
2
(t) +B
2
u
2
(t)
y
2
(t) = C
2
x
2
(t) +D
2
u
2
(t)
(10.164)
Conexi´ on en serie
La interconexi´ on de sistemas que se muestra en la Figura 10.12 se denomina
conexi´ on en serie o en cascada. Para obtener el modelo de estado deseado,
observamos que y
2
(t) = u
1
(t). Adem´ as, el sistema completo tiene como entrada
u(t) = u
2
(t), y como salida y(t) = y
1
(t). Con esto se obtiene:
_
˙ x
1
(t)
˙ x
2
(t)
_
=
_
A
1
B
1
C
2
0 A
2
_ _
x
1
(t)
x
2
(t)
_
+
_
B
1
D
2
B
2
_
u(t) (10.165)
y(t) =
_
C
1
D
1
C
2
¸
_
x
1
(t)
x
2
(t)
_
+D
1
D
2
u(t) (10.166)
x (t)
1 2
x (t)
u (t)
1
y (t)
1
y(t) u(t)
u (t)
2 2
y (t)
Figura 10.12: Conexi´ on de sistemas en serie
Conexi´ on en paralelo
La interconexi´ on de sistemas que se muestra en la Figura 10.13 se denomina
conexi´ on en paralelo. Para obtener el modelo de estado deseado, observamos
que la entrada es u(t) = u
1
(t) = u
2
(t) y que la salida para el sistema se expresa
como y(t) = y
1
(t) +y
2
(t). De esta forma, se obtiene:
_
˙ x
1
(t)
˙ x
2
(t)
_
=
_
A
1
0
0 A
2
_ _
x
1
(t)
x
2
(t)
_
+
_
B
1
B
2
_
u(t) (10.167)
y(t) =
_
C
1
C
2
¸
_
x
1
(t)
x
2
(t)
_
+D
1
+D
2
u(t) (10.168)
10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS289
conexi´ on!realimentaci´ on
realimentaci´ on
feedback!seerealimentaci´ on
lazodecontrol
planta
controlador
x (t)
1
y (t)
1
y (t)
2
u (t)
2
u (t)
1
y(t) u(t)
2
x (t)
+
+
Figura 10.13: Conexi´ on de sistemas en paralelo
Conexi´ on en realimentaci´ on
La interconexi´ on de sistemas que se muestra en la Figura 10.14 se denomina
conexi´ on en realimentaci´ on o feedback (con realimentaci´ on negativa unitaria), y
aparece normalmente asociada a la estructura b´ asica del lazo de control reali-
mentado, donde S
1
es la planta y S
2
es el controlador. Para obtener el modelo en
variables de estado del sistema en su conjunto, podemos apreciar que la entrada
al sistema completo satisface la ecuaci´ on u(t) = u
2
(t) + y
1
(t), y que la salida
del sistema es y(t) = y
1
(t). Si suponemos adem´ as que el sistema S
1
(la planta)
es estrictamente propia, es decir, D
1
= 0, se obtiene:
_
˙ x
1
(t)
˙ x
2
(t)
_
=
_
A
1
−B
1
D
2
C
1
B
1
C
2
−B
2
C
1
A
2
_ _
x
1
(t)
x
2
(t)
_
+
_
B
1
D
2
B
2
_
u(t) (10.169)
y(t) =
_
C
1
0
¸
_
x
1
(t)
x
2
(t)
_
(10.170)
x (t)
1 2
x (t)
y (t)
1
y(t) u(t) u (t)
2
y (t)
2
1
u (t)
+

Figura 10.14: Conexi´ on de sistemas en realimentaci´ on (feedback)
Es importante notar que es posible aplicar los mismos resultados anteriores
a modelos de estado de sistemas de tiempo discreto interconectados. El lector
interesado en m´ as detalles puede consultar, por ejemplo, [22].
290 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
sistema!propiedades
control
controlabilidad
sistema!controlable
estado!controlable
alcanzabilidad
sistema!alcanzable
estado!alcanzable
10.6. Propiedades de los sistemas
10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad
Una cuesti´ on de inter´es, en especial pensando en el control de sistemas, es
bajo qu´e condiciones es posible llevar el vector de estado a un punto espec´ıfico
del espacio de estado, a trav´es de las se˜ nales de entrada al sistema. Debemos
recordar que el estado de un sistema a menudo est´ a formado por variables
internas de este, tales como temperatura, presi´ on, el nivel de alg´ un estanque
u otras, que en pueden ser cr´ıticas e interesa mantenerlas controladas entre
algunos valores espec´ıficos. En esta secci´ on se revisan conceptos relacionados
con este objetivo.
Controlabilidad
El concepto de controlabilidad se refiere a determinar si, a partir de una
condici´ on inicial x
0
, es posible o no llevar el vector de estado al origen,
x = 0, en un tiempo finito, usando la entrada u(t).
Ejemplo 10.16. Si observamos el modelo definido en (10.171), podemos apre-
ciar que la entrada u(t) no tiene efecto alguno sobre el estado x
2
(t).
_
˙ x
1
(t)
˙ x
2
(t)
_
=
_
0 1
0 0
_ _
x
1
(t)
x
2
(t)
_
+
_
1
0
_
u(t) (10.171)
Dado un estado inicial [x
1
(0), x
2
(0)]
T
, la entrada u(t) puede ser elegida para
llevar x
1
(t) a cero, mientras que x
2
(t) no sufre ning´ un cambio. Diremos que
este sistema no es completamente controlable.
222
Formalmente, tenemos la siguiente definici´ on:
Definici´ on 10.1. Un estado x
o
se dice controlable si existe un intervalo de
tiempo finito [0, T] y una entrada ¦u(t), t ∈ [0, T]¦ tal que x(T) = 0. Si todos
los estados son controlables, entonces se dice que el sistema es completamente
controlable.
Alcanzabilidad
Un concepto relacionado con la controlabilidad es la alcanzabilidad, usado
en general para sistemas de tiempo discreto. Formalmente se define como:
Definici´ on 10.2. Un estado x ,= 0 se dice alcanzable desde el origen, si dado
x(0) = 0, existe un intervalo de tiempo finito [0, T] y una entrada ¦u(t), t ∈
[0, T]¦ tal que x(T) = x. Si todos los estados del sistema son alcanzables se dice
que el sistema es completamente alcanzable.
10.6. PROPIEDADES DE LOS SISTEMAS 291
controlabilidad!test
alcanzabilidad!test
controlabilidad!matriz
matriz!decontrolabilidad
Para sistemas de tiempo continuo, lineales e invariantes, completa contro-
labilidad y alcanzabilidad son equivalentes. Sin embargo, el ejemplo siguiente
ilustra una diferencia entre estas propiedades para sistemas de tiempo discreto.
Ejemplo 10.17. Considere el sistema y la salida:
x[t + 1] =
_
0, 5 1
−0, 25 −0, 5
_
. ¸¸ .
A
d
x[t] =⇒x[t] =
_
0, 5 1
−0, 25 −0, 5
_
t
x[0] (10.172)
Podemos apreciar que el sistema es completamente controlable, pues x[t] = 0,
∀t ≥ 2 y ∀x[0] ∈ R
2
. Esto implica que cualquier estado inicial es controlable.
Sin embargo, ning´ un estado diferente de cero es alcanzable desde el origen, ya
que si x[0] = 0, entonces x[t] = 0, ∀t ∈ N.
222
Dada esta distinci´ on entre controlabilidad y alcanzabilidad para sistemas dis-
cretos, en adelante usaremos el t´ermino controlabilidad para referirnos al m´ as
fuerte de ambos conceptos. Sin embargo, en el contexto de sistemas lineales e in-
variantes en el tiempo, por lo general se habla indistintamente de controlabilidad
y alcanzabilidad.
Test de controlabilidad
Dado que no siempre es posible, a priori, determinar si un sistema es o no
controlable, se presenta a continuaci´ on una manera sistem´ atica para determinar
la completa controlabilidad de un sistema. Los conceptos involucrados sobre
matrices pueden ser consultados en el Ap´endice F.
Teorema 10.3. Considere el modelo de estado lineal e invariante en el tiempo,
donde A ∈ R
n·n
:
˙ x(t) = Ax(t) +Bu(t) (10.173)
y(t) = Cx(t) +Du(t) (10.174)
(i) El conjunto de todos los estados controlables es el espacio rango de la
matriz de controlabilidad Γ
c
[A, B] donde:
Γ
c
[A, B]
Z
=
_
B AB A
2
B . . . A
n−1
B
¸
(10.175)
(ii) El modelo es completamente controlable si y s´ olo si Γ
c
[A, B] tiene rango
fila completo.
222
Ejemplo 10.18. Considere el modelo en variables de estado dado por (10.171),
con matrices de estado:
A =
_
0 1
0 0
_
; B =
_
1
0
_
(10.176)
292 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
similaridad
controlabilidad!p´ erdida
La matriz de controlabilidad del sistema es:
Γ
c
[A, B] = [B, AB] =
_
1 0
0 0
_
(10.177)
Claramente, el rango Γ
c
[A, B] = 1, por tanto el sistema no es completa-
mente controlable.
222
Este test puede ser aplicado indistamente para analizar la controlabilidad de
sistemas de tiempo continuo y la alcanzabilidad de sistemas de tiempo discreto.
La controlabilidad de un sistema es otra de las propiedades que no depende
de la elecci´ on de las variables de estado. Si consideramos una transformaci´ on de
similaridad arbitraria T (ver Secci´ on ¸10.3.3) observamos que:
A
n
= (T
−1
AT)(T
−1
AT) . . . (T
−1
AT)
= T
−1
A(TT
−1
)A(TT
−1
) . . . (TT
−1
)AT = T
−1
A
n
T (10.178)
para todo n ∈ N, por lo tanto:
Γ
c
[ A, B ] = T
−1
Γ
c
[A, B] (10.179)
Esto implica que la matrices Γ
c
[ A, B ] y Γ
c
[A, B] tienen el mismo rango,
pues T es no singular.
El lector puede verificar que los modelos en variables de estado usados para
describir se˜ nales en la Secci´ on ¸10.2.3 corresponden son no controlables. De he-
cho, cualquier modelo de estado en que B = 0 resulta ser no controlable
.
P´erdida de controlabilidad
La falta de controlabilidad en un sistema en ocasiones puede originarse en la
estructura misma del sistema, sin embargo, en otras ocasiones depende del valor
num´erico de ciertos par´ ametros. Esto se ilustra a trav´es del siguiente ejemplo.
Ejemplo 10.19. Considere el circuito en la Figura 10.15 en la p´ agina siguiente.
En primer lugar, nos interesa obtener un modelo de ´el en variables de estado.
Eligiendo como variables de estado x
1
(t) = i
R1
(t) y x
2
(t) = v
C3
(t), y usando
leyes b´ asicas de redes el´ectricas para la parte izquierda del circuito, tenemos que:
i
C1
= C
1
d
dt
(v
i
−v
+
); i
R1
=
v
i
−v
+
R
1
; i
R2
=
v
+
R
2
; i
C1
= i
R2
−i
R1
(10.180)
Lo que permite obtener:
di
R1
(t)
dt
= −
(R
1
+R
2
)
C
1
R
1
R
2
i
R1
(t) +
1
C
1
R
1
R
2
v
i
(t) (10.181)
v
+
(t) = −R
1
i
R1
(t) +v
i
(t) (10.182)
10.6. PROPIEDADES DE LOS SISTEMAS 293
R
1 i (t)
R1
v (t)
+
v (t)

v (t)
C3
v (t)
o
C
3
R
3
2
R C
1
v (t)
i
+

Op.Amp.
Figura 10.15: Circuito electr´ onico para el Ejemplo 10.19.
De manera similar, para el lado derecho del circuito tenemos que:
dv
C3
(t)
dt
= −
1
R
3
C
3
v
C3
(t) +
1
R
3
C
3
v

(t) (10.183)
v
o
(t) = v
C3
(t) (10.184)
El amplificador operacional (ideal) asegura que v
+
(t) = v

(t), por tanto,
podemos combinar (10.181)–(10.184) para obtener:
_
¸
_
di
R1
(t)
dt
dv
C3
(t)
dt
_
¸
_ =
_
¸
_

(R
1
+R
2
)
C
1
R
1
R
2
0

R
1
R
3
C
3

1
R
3
C
3
_
¸
_
_
i
R1
(t)
v
C3
(t)
_
+
_
¸
_
1
C
1
R
1
R
2
1
C
3
R
3
_
¸
_v
i
(t) (10.185)
v
o
(t) =
_
0 1
¸
_
i
R1
(t)
v
C3
(t)
_
(10.186)
La matriz de controlabilidad est´ a dada por:
Γ
c
[A, B] =
_
B AB
_
=
_
¸
¸
_
1
R
1
R
2
C
1
−(R
1
+R
2
)
(R
1
R
2
C
1
)
2
1
R
3
C
3
−(R
2
C
1
+R
3
C
3
)
(R
3
C
3
)
2
R
2
C
1
_
¸
¸
_
(10.187)
y su determinante es igual a:
det (Γ
c
[A, B]) =
R
2
(R
1
R
2
R
3
C
1
C
2
)
2
(−R
1
C
1
+R
3
C
3
) (10.188)
donde se observa que el sistema es completamente controlable si y s´ olo si:
R
1
C
1
,= R
3
C
3
(10.189)
294 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
cancelaci´ on
gramiano!controlabilidad
controlabilidad!gramiano
Esta condici´ on tiene una interpretaci´ on muy importante desde el punto de
vista de la funci´ on de transferencia del sistema. Si se aplica transformada de
Laplace a las ecuaciones (10.181)–(10.184), la funci´ on de transferencia desde
V
i
(s) a V
o
(s), recordando que V
+
(s) = V

(s), est´ a dada por:
V
o
(s)
V
i
(s)
=
V
o
(s)
V

(s)
V
+
(s)
V
i
(s)
=
1
R
3
C
3
_
s +
1
R
3
C
3
_
_
s +
1
R
1
C
1
_
_
s +
R
1
+R
2
R
1
R
2
C
1
_ (10.190)
Donde se aprecia que la p´erdida de la completa controlabilidad cuando R
1
C
1
=
R
3
C
3
(obtenida a partir de (10.188)), se traduce en una cancelaci´ on de un
cero con un polo en la funci´ on de transferencia. Siendo m´ as espec´ıfico, el cero
de la mitad izquierda del circuito en la Figura 10.15 se cancela con el polo de
la otra parte del circuito. Este hecho ser´ a analizado con mayor detalle en la
Secci´ on ¸10.6.3.
222
Gramiano de controlabilidad
El test de controlabilidad da una respuesta afirmativa o negativa sobre la
(completa) controlabilidad de un sistema dado. Sin embargo, el saber que un
sistema es completamente controlable no dice nada respecto a qu´e grado de
controlabilidad el sistema posee, es decir, qu´e tan dif´ıcil es controlar un estado
del sistema.
Para sistemas estables es posible cuantificar el esfuerzo de control a trav´es
de la energ´ıa involucrada en la se˜ nal de entrada u(t) aplicada desde t = −∞
para alcanzar el estado x(0) = x
0
en t = 0:
J(u) =
_
0
−∞
|u(t)|
2
dt =
_
0
−∞
u(t)
T
u(t)dt (10.191)
Se puede demostrar [1] que la energ´ıa de control m´ınima necesaria es:
J(u
opt
) = x
T
0
P
−1
x
0
≥ 0 (10.192)
donde
P =
_

0
e
At
BB
T
e
A
T
t
dt (10.193)
La matriz P ∈ R
n
se denomina gramiano de controlabilidad, y es una
medida de la controlabilidad del vector de estado x(0).
Para apreciar por qu´e esta matriz proporciona una medida de controlabili-
dad relativa, podemos recurrir a los resultados del Ap´endice F. Esta matriz P
es sim´etrica y por tanto todos sus autovalores ¦λ
1
, λ
2
, . . . , λ
n
¦ son reales y dis-
tintos, y sus autovectores asociados ¦v
1
, v
2
, . . . , v
n
¦ son ortogonales y pueden
10.6. PROPIEDADES DE LOS SISTEMAS 295
Lyapunov!ecuaci´ on
gramiano!controlabilidad!tiempodiscreto
controlabilidad!gramiano!tiempodiscreto
elegirse de norma unitaria, es decir, |v
i
|
2
= v
T
i
v
i
= 1. Entonces, la matriz
puede escribirse como:
P =
n

i=1
λ
i
v
i
v
T
i
⇐⇒ P
−1
=
n

i=1
λ
−1
i
v
i
v
T
i
(10.194)
Adem´ as, dado un vector x
0
∈ R
n
, existen constantes reales α
1
, . . . , α
n
tales
que:
x
0
=
n

i=1
α
i
v
i
(10.195)
As´ı, sin p´erdida de generalidad, la ecuaci´ on (10.192) se puede re-escribir
como:
J(u
opt
) = x
T
0
P
−1
x
0
=
n

i=1
α
2
i
λ
−1
i
(10.196)
De (10.196) se observa que si x
0
est´ a alineado con v

, donde λ

es muy
peque˜ no, entonces el costo (energ´ıa) de llevar el estado desde el origen, en t =
−∞, hasta x
0
en t = 0, es muy grande y diremos que ese estado en particular
es dif´ıcilmente controlable.
Volviendo a la ecuaci´ on (10.193), es importante destacar que la existencia
de esta integral est´ a garantizada pues el sistema es estable, y por lo tanto todos
los autovalores de la matriz A tienen parte real negativa. Es m´ as, el gramiano
de controlabilidad P definido en (10.193) satisface la ecuaci´ on de Lyapunov:
AP+PA
T
+BB
T
= 0 (10.197)
Para sistemas de tiempo discreto, se puede realizar un an´ alisis similar, donde
el gramiano de controlabilidad se define como:
P
d
=

t=0
A
d
t
B
d
B
d
T
(A
d
T
)
t
(10.198)
que satisface la ecuaci´ on de Lyapunov
A
d
P
d
A
d
T
−P
d
+B
d
B
d
T
= 0 (10.199)
La suma definida (10.198) existe si y s´ olo si el sistema de tiempo discreto es
estable, lo cual equivale a restringir los autovalores al interior del disco unitario:
Ejemplo 10.20. Consideremos nuevamente el modelo del circuito en el Ejem-
plo 10.19 en la p´ agina 292, dado por(10.185)-(10.186). Si queremos apreciar
la informaci´ on dada por el gramiano de controlabilidad, definido en (10.193),
cuando el modelo est´ a cerca de perder la completa controlabilidad, podemos con-
siderar valores para los par´ ametros que aseguren R
1
C
1
≈ R
3
C
3
. En particular,
elegimos:
R
1
= R
2
= R
3
= 1[KΩ]; C
1
= 0,9[mF]; C
3
= 1[mF] (10.200)
296 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
Note que hemos utilizado unidades especiales, donde mF corresponde a 10
−3
[F] y KΩ a 10
3
[Ω]. Esto hace que el tiempo sea medido en segundos, la corriente
en mili-amperes y la tensi´ on, en Volts.
El modelo de estado queda descrito por:
_
˙
i
R1
(t)
˙ v
C3
(t)
_
=
_

20
9
0
−1 −1
_ _
i
R1
(t)
v
C3
(t)
_
+
_
10
9
1
_
v
i
(t) (10.201)
v
o
(t) =
_
0 1
¸
_
i
R1
(t)
v
C3
(t)
_
(10.202)
En este caso, algunos estados, es decir ciertas combinaciones de valores de
valores para i
R1
y v
C3
, son m´ as dif´ıciles de alcanzar que otros. Para verificar
esto podemos calcular el gramiano de controlabilidad definido en (10.193), re-
solviendo:
0 = AP+PA
T
+BB
T
(10.203)
0 =
_

20
9
0
−1 −1
_ _
p
11
p
12
p
21
p
22
_
+
_
p
11
p
12
p
21
p
22
_ _

20
9
−1
0 −1
_
+
_
10
9
1
_
_
10
9
1
¸
(10.204)
Usando Matlab obtenemos:
Matlab
>> A=[-20/9 0; -1 -1];
>> B=[10/9 ; 1];
>> C=[1 0];
>> S=ss(A,B,C,0);
>> P=gram(S,’c’)
>> inv(P)
P =
_
0,2778 0,2586
0,2586 0,2414
_
P
−1
= 10
−3

_
1,4616 −1,5660
−1,5660 1,6820
_
(10.205)
Los autovalores de P son λ
1
= 0,0003 y λ
2
= 0,5188 con sus correspondientes
autovectores v
1
= [0,6818 −0,7315]
T
y v
2
= [0,7315 0,6818]
T
.
As´ı podemos calcular, usando la ecuaci´ on (10.192), la m´ınima energ´ıa de
control necesaria para llevar el estado x(t), from 0 in t = −∞, to x
0
in t = 0.
Suponemos que x
0
is colineal con los autovectores:
x
0
= v
1
⇒ J(u
opt
) = 3141,7 (10.206)
x
0
= v
2
⇒ J(u
opt
) = 1,9274 (10.207)
donde claramente se verifica que la energ´ıa de control para alcanzar el estado
x
0
= v
1
es tres ´ ordenes de magnitud mayor que la necesaria para alcanzar
x
0
= v
2
.
10.6. PROPIEDADES DE LOS SISTEMAS 297
cancelaci´ on!cuasi-
descomposici´ oncan´ onica!alcanzabilidad
subespacio!controlable
Tambi´en, si substitutimos los valores num´ericos de los par´ ametros en la
ecuaci´ on (10.190), vemos que la funci´ on de transferencia resulta ser:
V
o
(s)
V
i
(s)
=
1
(s + 1)
_
s + 1 +
1
9
_
_
s +
20
9
_ (10.208)
donde observamos una cuasi-cancelaci´ on de un polo con un cero.
222
Es posible generalizar el concepto de gramiano para inclu´ır el caso de sis-
temas inestables, como el lector interesado puede conocer consultando [23].
Descomposici´ on can´ onica y estabilizabilidad
En el caso que un sistema no sea completamente controlable, este puede
decomponerse en un subsistema controlable y completamente incontrolable
tal como establece el siguiente lema.
Lema 10.6. Considere un sistema para el cual rango¦Γ
c
[A, B]¦ = t < n,
entonces existe una transformaci´ on de similaridad x = T
−1
x, en que las nuevas
matrices de estado tienen la forma:
A = T
−1
AT =
_
A
c
A
12
0 A
nc
_
(10.209)
B = T
−1
B =
_
B
c
0
_
(10.210)
donde A
c
tiene dimensi´ on k y el par (A
c
, B
c
) es completamente controlable.
222
Este resultado establece cu´ ales estados pueden y cu´ ales no pueden ser lleva-
dos a cero. Para apreciar mejor este hecho, expresemos el estado y la salida de
la forma:
_
˙
x
c
˙
x
nc
_
=
_
A
c
A
12
0 A
nc
_ _
x
c
x
nc
_
+
_
B
c
0
_
u (10.211)
y =
_
C
c
C
nc
¸
_
x
c
x
nc
_
+Du (10.212)
El subespacio controlable del modelo en variables de estado est´ a com-
puesto por todos los estados generados como combinaci´ on de los estados en
x
c
. La estabilidad de este subespacio est´ a determinada por la ubicai´ on de los
autovalores de la matriz A
c
.
Por otra parte, el subespacio no controlable est´ a formado por todos los
estados generador como combinaci´ on lineal de los estados en x
nc
, y su estabilidad
queda determinada por los autovalores de la matriz A
nc
.
298 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
estabilizabilidad
sistema!estabilizable
cancelaci´ on
formacan´ onica!controlable
controlabilidad!formacan´ onica
formacan´ onica!delcontrolador
controlador!formacan´ onica
De esta forma, la entrada no tiene efecto alguno sobre el subespacio no
controlable, por lo que podr´ıamos esperar que este subespacio fuera al menos
estable, de manera que sus estados decaigan naturalmente al origen. En este
caso el modelo en variables de estado se denomina estabilizable.
Una consecuencia clave de la descripci´ on dada por (10.211)-(10.212) es el
hecho que la funci´ on de transferencia queda dada por:
H(s) = C
c
(sI −A
c
)
−1
B
c
+D (10.213)
La ecuaci´ on (10.213) dice que los autovalores del subespacio no controlable
no aparecen como polos de la funci´ on de transferencia. Esto implica que existe
una cancelaci´ on de los polos correspondientes a las ra´ıces de det(sI −A
nc
).
Forma can´ onica controlable
Lema 10.7. Considere un modelo de estado completamente controlable para
un sistema SISO. Entonces, existe una transformaci´ on de similaridad tal que el
modelo de estado se puede expresar en la forma can´ onica controlable:
A
t
=
_
¸
¸
¸
¸
¸
_
0 0 . . . 0 −α
0
1 0 . . . 0 −α
1
0 1 . . . 0 −α
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 −α
n−1
_
¸
¸
¸
¸
¸
_
B
t
=
_
¸
¸
¸
¸
¸
_
1
0
0
.
.
.
0
_
¸
¸
¸
¸
¸
_
(10.214)
donde:
λ
n

n−1
λ
n−1
+ +α
1
λ +α
0
= det(λI −A) (10.215)
es el polinomio caracter´ıstico de A.
222
Lema 10.8. Considere un modelo de estado completamente controlable para un
sistema SISO. Entonces, existe una transformaci´ on de similaridad que convierte
el modelo de estado en la forma can´ onica del controlador:
A
tt
=
_
¸
¸
¸
¸
¸
_
−α
n−1
−α
n−2
. . . −α
1
−α
0
1 0 . . . 0 0
0 1 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 0
_
¸
¸
¸
¸
¸
_
B
tt
=
_
¸
¸
¸
¸
¸
_
1
0
0
.
.
.
0
_
¸
¸
¸
¸
¸
_
(10.216)
donde:
λ
n

n−1
λ
n−1
+ +α
1
λ +α
0
= det(λI −A) (10.217)
es el polinomio caracter´ıstico de A.
222
10.6. PROPIEDADES DE LOS SISTEMAS 299
observabilidad
estado!observable
sistema!observable
reconstructibilidad
10.6.2. Observabilidad, Reconstructibilidad y Detectabil-
idad
Si consideramos el modelo de estado de un sistema dado, podemos es razon-
able suponer que si se observa su salida durante un intervalo de tiempo, entonces
podr´ıamos obtener informaci´ on sobre su estado. La propiedad asociada a este
concepto se denomina observabilidad.
Observabilidad
La observabilidad de un sistema se refiere a la informaci´ on que se puede
obtener sobre el estado a partir de mediciones de su salida.
Ejemplo 10.21. Si consideramos el sistema definido por el modelo en variables
de estado:
_
˙ x
1
(t)
˙ x
2
(t)
_
=
_
−1 0
1 −1
_ _
x
1
(t)
x
2
(t)
_
y(t) =
_
1 0
¸
_
x
1
(t)
x
2
(t)
_
(10.218)
Podemos apreciar que y(t) queda determinada por x
1
(t), mientras que la otra
variable de estado x
2
(t) no tiene influencia alguna sobre la salida. Por tanto el
sistema no es completamente observable, es decir, existe una parte del estado
de la cual nunca se obtendr´ a informaci´ on alguna.
222
Se puede formalizar la definici´ on de observabilidad de la siguiente forma:
Definici´ on 10.3. El estado x
o
,= 0 se dice no observable si dado x(0) = x
o
,
y u(t) = 0 para t ≥ 0, entonces y(t) = 0 para t ≥ 0, es decir, la condici´ on
inicial x
o
no tiene efecto alguno sobre la salida del sistema.
El sistema se dice completamente observable si no existe estado inicial,
diferente de cero, que sea no observable.
Reconstructibilidad
Otro concepto estrechamente relacionado al de observabilidad, es el que se
denomina reconstructibilidad. Este, para sistemas de tiempo discreto, se re-
fiere a qu´e se puede decir de x(K), habiendo observado valores pasados de la
salida y[t], durante 0 ≤ t ≤ K.
Para sistemas de tiempo continuo, lineales e invariantes, no es necesario hacer
distinci´ on entre observabilidad y reconstructibilidad. Sin embargo, el siguiente
ejemplo ilustra que para sistemas de tiempo discreto, estos conceptos son difer-
entes.
Ejemplo 10.22. Considere el modelo en espacio de estado:
x[t + 1] = 0 x[0] = x
o
(10.219)
y[t] = 0 (10.220)
300 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
observabilidad!test
observabilidad!matriz
matriz!deobservabilidad
Este sistema es claramente reconstruible para todo K ≥ 1, ya que sabemos
que x[K] = 0 para K ≥ 1. Sin embargo, es no observable pues y[t] = 0, ∀t sin
importar x
o
.
Dada la diferencia entre los conceptos de observabilidad y reconstructibil-
idad, en adelante usaremos el t´ermino observabilidad para referirnos al m´ as
fuerte de ambos conceptos.
Test de observabilidad
Para contar con un criterio que permita determinar si un sistema es o no
observable, se presenta a continuaci´ on el siguiente teorema.
Teorema 10.4. Considere el sistema en variables de estado, continuo, lineal e
invariante en el tiempo:
˙ x(t) = Ax(t) +Bu(t) (10.221)
y(t) = Cx(t) +Du(t) (10.222)
donde A ∈ R
n·n
.
(i) El conjunto de estados no observables es igual al subespacio nulo de la
matriz de observabilidad Γ
o
[A, C] donde:
Γ
o
[A, C]
Z
=
_
¸
¸
¸
_
C
CA
.
.
.
CA
n−1
_
¸
¸
¸
_
(10.223)
(ii) El sistema es completamente observable si y solo si Γ
o
[A, C] tiene rango
columna completo n.
222
Este test de observabilidad puede aplicarse indistintamente a sistemas de
tiempo discreto y continuo.
Ejemplo 10.23. Considere el siguiente modelo en espacio de estado:
A =
_
−3 −2
1 0
_
; B =
_
1
0
_
; C =
_
1 −1
¸
(10.224)
La matriz de observabilidad est´ a dada por:
Γ
o
[A, C] =
_
C
CA
_
=
_
1 −1
−4 −2
_
(10.225)
Entonces el rango de Γ
o
[A, C] = 2, lo que dice que el sistema es completa-
mente observable.
222
10.6. PROPIEDADES DE LOS SISTEMAS 301
observabilidad!p´ erdida
Ejemplo 10.24. Si observamos el modelo definido en (10.218), tenemos:
A =
_
−1 0
1 −1
_
; C =
_
1 0
¸
(10.226)
La matriz de observabilidad es:
Γ
o
[A, C] =
_
1 0
−1 0
_
(10.227)
El rango de Γ
o
[A, C] = 1 < 2 y, por lo tanto, el sistema no es completamente
observable.
222
La observabilidad de un sistema es una propiedad que no depende de la
elecci´ on de las variables de estado. An´ alogamente al caso de la matriz de con-
trolabilidad en la Secci´ on ¸10.6.1, puede demostrarse que el rango de la matriz
de observabilidad 10.223 en la p´ agina anterior es invariante respecto a transfor-
maciones de similaridad.
P´erdida de observabilidad
La observabilidad de un sistema queda determinada b´ asicamente por car-
acter´ısticas propias de su estructura. Sin embargo, tambi´en es posible que la
observabilidad de un modelo se vea afectada por valores num´ericos particulares
en algunos de sus par´ ametros, de manera an´ aloga a lo que sucede con la con-
trolabilidad, tal como se analiz´ o en la Secci´ on ¸10.6.1. Es esperable que los
par´ ametros afecten la completa observabilidad de un modelo de una manera
similar. Para esto se propone el siguiente ejemplo, que es el dual del Ejemp-
lo 10.19 en la p´ agina 292.
Ejemplo 10.25. Consideremos el circuito de la Figura 10.16 en la p´ agina
siguiente. Este corresponde al mismo de la Figura 10.15, pero en que se han
intercambiado las redes el´ectricas a la derecha e izquierda del amplificador op-
eracional. Por tanto, podemos utilizar ecuaciones similares a las antes obtenidas
para describir el sistema en variables de estado. En particular, se escoge x
1
(t) =
v
C3
(t) y x
2
(t) = i
R1
(t).
Para la parte izquierda del circuito, tenemos:
dv
C3
(t)
dt
= −
1
R
3
C
3
v
C3
(t) +
1
R
3
C
3
v
i
(t) (10.228)
v
+
(t) = v
C3
(t) (10.229)
Por su parte para la parte derecha:
di
R1
(t)
dt
= −
(R
1
+R
2
)
C
1
R
1
R
2
i
R1
(t) +
1
C
1
R
1
R
2
v

(t) (10.230)
v
o
(t) = −R
1
i
R1
(t) +v

(t) (10.231)
302 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
v (t)
C3
R
3
v (t)
i
R
1 i (t)
R1
C
1
v (t)
+
v (t)
o 2
R
C
3
v (t)

+

Op.Amp.
Figura 10.16: Circuito electr´ onico.
El amplificado operacional (ideal), conectado como un seguidor de voltaje,
asegura que v
+
(t) = v

(t), y por lo tanto podemos combinar los modelos de
estado dados por las ecuaciones (10.228) a (10.231), para obtener:
_
¸
¸
_
dv
C3
(t)
dt
di
R1
(t)
dt
_
¸
¸
_
=
_
¸
¸
_

1
R
3
C
3
0
1
C
1
R
1
R
2

(R
1
+R
2
)
C
1
R
1
R
2
_
¸
¸
_
_
¸
¸
_
v
C3
(t)
i
R1
(t)
_
¸
¸
_
+
_
¸
¸
_
1
R
3
C
3
0
_
¸
¸
_
v
i
(t) (10.232)
v
o
(t) =
_
1 −R
1
_
_
¸
¸
_
v
C3
(t)
i
R1
(t)
_
¸
¸
_
(10.233)
La matriz de observabilidad es:
Γ
c
[C, A] =
_
¸
¸
_
C
CA
_
¸
¸
_
=
_
¸
¸
_
1 −R
1

1
R
3
C
3

1
R
2
C
1
R
1
+R
2
R
2
C
1
_
¸
¸
_
(10.234)
Para determinar el rango de esta matriz es necesario calcular su determi-
nante:
det (Γ
c
[C, A]) =
1
R
3
C
3
C
1
(−R
1
C
1
+R
3
C
3
) (10.235)
donde se observa que el modelo del sistema es completamente observable si y
s´ olo si R
1
C
1
,= R
3
C
3
, misma condici´ on que se obtuvo en el Ejemplo 10.19 en
la p´ agina 292.
Aplicando transformada de Laplace a las ecuaciones (10.230)–(10.229) obten-
10.6. PROPIEDADES DE LOS SISTEMAS 303
cancelaci´ on
gramiano!observabilidad
observabilidad!gramiano
emos la funci´ on de transferencia de V
i
(s) a V
o
(s):
V
o
(s)
V
i
(s)
=
V
+
(s)
V
i
(s)
V
o
(s)
V

(s)
=
_
s +
1
R
1
C
1
_
_
s +
R
1
+R
2
R
1
R
2
C
1
_
1
R
3
C
3
_
s +
1
R
3
C
3
_ (10.236)
Cuando R
1
C
1
= R
3
C
3
se produce una p´erdida de la completa observabilidad
del sistema, que se traduce en una cancelaci´ on de un polo con un cero en
la funci´ on de transferencia, es decir, el polo del lado izquierdo del circuito en la
Figure 10.16 se cancela con el cero del lado derecho.
Es importante notar que, a pesar que el resutado similar es el mismo, ex-
iste un diferencia entre las funciones de transferencia (10.236) y (10.190) en la
p´ agina 294, pues el orden de la cancelaci´ on es diferentes en cada caso. La can-
celaci´ on cero-polo se relaciona con la p´erdida de completa observabilidad y la
cancelaci´ on polo-cero se relaciona con la p´erdida de completa controlabilidad.
Volveremos en m´ as detalle a este punto en la Secci´ on ¸10.6.3.
222
Gramiano de observabilidad
El test de observabilidad planteado en el Teorema 10.4 en la p´ agina 300
permite determinar si un sistema es o no es completamente observable. sin
embargo, en ocasiones puede ser de inter´es determinar el grado de observabilidad
de un sistema dado. Para el caso de sistemas estables, podemos cuantificar la
energ´ıa en la se˜ nal de salida y(t), en ausencia de se˜ nal de entrada (u(t) = 0), y
cuando el estado inicial es x(0) = x
0
, mediante:
E(x
0
) =
_

0
|y(t)|
2
dt =
_

0
y(t)
T
y(t)dt (10.237)
Es posible demostrar que la energ´ıa en la salida del sistema est´ a dada por:
E(x
o
) =
_

0
|y(t)|
2
dt = x
o
T
Qx
o
(10.238)
donde
Q =
_

0
e
A
T
t
C
T
Ce
At
dt (10.239)
La matriz Q se denomina gramiano de observabilidad, y cuantifica la
observabilidad del vector de estado x(0). Para apreciar mejor esto, podemos
recurrir a los resultados del Ap´endice F. La matriz Q es sim´etrica y por tanto
todos sus autovalores ¦λ
1
, λ
2
, . . . , λ
n
¦ son reales y distintos, y sus autovectores
asociados ¦v
1
, v
2
, . . . , v
n
¦ son ortogonales y pueden elegirse de norma unitaria,
es decir, |v
i
|
2
= v
T
i
v
i
= 1. Entonces, la matriz puede escribirse como:
Q =
n

i=1
λ
i
v
i
v
T
i
(10.240)
304 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
Lyapunov!ecuaci´ on
Adem´ as, dado un vector x
0
∈ R
n
, existen constantes reales α
1
, . . . , α
n
tales
que:
x
0
=
n

i=1
α
i
v
i
(10.241)
As´ı, sin p´erdida de generalidad, la ecuaci´ on (10.238) se puede re-escribir
como:
E(x
0
) = x
T
0
Qx
0
=
n

i=1
α
2
i
λ
i
(10.242)
De (10.242) se observa que si x
0
est´ a alineado con v

, donde λ

es muy
peque˜ no, entonces el la energ´ıa presente en la salida debida a este estado ini-
cial sera muy peque˜ na y diremos que ese estado en particular es dif´ıcilmente
observable.
Volviendo a la ecuaci´ on (10.239), la existencia de la integral queda garanti-
zada pues el sistema es estable, lo que asegura que los autovalores de la matriz
A tienen parte real negativa. Adem´ as, el gramiano de observabilidad Q definido
en (10.239) satisface la ecuaci´ on de Lyapunov:
A
T
Q+QA+C
T
C = 0 (10.243)
Para sistemas estables de tiempo discreto, el gramiano de observabilidad
queda definido por:
Q
d
=

t=0
(A
d
T
)
t
C
d
T
C
d
A
d
t
(10.244)
que satisface la ecuaci´ on de Lyapunov:
A
d
T
Q
d
A
d
−Q
d
+C
d
T
C
d
= 0 (10.245)
Ejemplo 10.26. Consideremos nuevamente el sistema del Ejemplo 10.25, de-
scrito por el modelo de estado (10.232)–(10.233), para apreciar la utilidad del
gramiano de observabilidad (10.239), en especial cuando el modelo est´ a pr´ oximo
a perder la completa observabilidad, es decir, cuando R
1
C
1
≈ R
3
C
3
.
Suponemos los mismos valores para las componentes R
1
, R
2
, R
3
, C
1
y C
3
que
en el Ejemplo 10.20 en la p´ agina 295, con lo que obtenemos:
_
˙ v
C3
(t)
˙
i
R1
(t)
_
=
_
−1 0
10
9

20
9
_ _
v
C3
(t)
i
R1
(t)
_
+
_
1
0
_
v
i
(t) (10.246)
v
o
(t) =
_
1 −1
¸
_
v
C3
(t)
i
R1
(t)
_
(10.247)
En este sistema ciertas combinaciones del estado (en t = 0) tendr´ an poco
efecto en la salida. Para verificar esto podemos calcular el gramiano de observ-
10.6. PROPIEDADES DE LOS SISTEMAS 305
cancelaci´ on!cuasi-
dualidad
abilidad (10.193), resolviendo:
0 = A
T
Q+QA+C
T
C (10.248)
0 =
_
−1
10
9
0 −
20
9
_ _
q
11
q
12
q
21
q
22
_
+
_
q
11
q
12
q
21
q
22
_ _
−1 0
10
9

20
9
_
+
_
1
−1
_
_
1 −1
¸
(10.249)
Usando Matlab obtenemos:
Matlab
>> A=[-1 0; 10/9 -20/9];
>> B=[1;0];
>> C=[1 -1];
>> S=ss(A,B,C,0);
>> Q=gram(S,’o’)
Q =
_
0,2414 −0,2328
−0,2328 0,2250
_
(10.250)
Los autovalores de Q son λ
1
= 0,0003 y λ
2
= 0,4661 con sus correspondi-
entes autovectores v
1
= [−0,6946 −0,7194]
T
y v
2
= [−0,7194 0,6946]
T
.
Ahora podemos evaluar el efecto de ciertos estados iniciales en la salida del
sistema. Consideraremos x
0
= v
1
y x
0
= v
2
para calcular la energ´ıa, tal como
se define en la ecuaci´ on (10.238):
x
0
= v
1
⇒ E(x
0
) = 0,000287 (10.251)
x
0
= v
2
⇒ E(x
0
) = 0,4661 (10.252)
donde se observa que la energ´ıa debida el estado inicial x
0
= v
2
es tres ´ ordenes
de magnitud mayor, lo que indica que existen ciertos estados que son poco ob-
servables en la salida.
La p´erdida de observabilidad tambi´en puede ser apreciado en la funci´ on de
transferencia del sistema:
V
o
(s)
V
i
(s)
=
_
s + 1 +
1
9
_
_
s +
20
9
_
1
(s + 1)
(10.253)
donde se aprecia que existe una cuasi-cancelaci´ on entre un polo y un cero.
222
Principio de Dualidad
Podemos notar un paralelo notable entre los resultados del Teorema 10.3 en
la p´ agina 291 y del Teorema 10.4 en la p´ agina 300, y tambi´en entre las defini-
ciones de los gramianos (10.193) y (10.239). Esto de pie a lo que se conoce como
el principio de dualidad, el cual se formaliza a continuaci´ on:
306 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
sistema!dual
descomposici´ oncan´ onica!observabilidad
subespacio!observable
detectabilidad
sistema!detectable
Teorema 10.5 (Dualidad). Considere el modelo en variables de estado de-
scrito por la 4-tupla (A, B, C, D). Entonces el sistema es completamente con-
trolable si y solo si el sistema dual (A
T
, C
T
, B
T
, D
T
) es completamente ob-
servable.
222
Descomposici´ on can´ onica y detectabilidad
El teorema anterior puede ser a menudo utilizado para extender un resultado
sobre controlabilidad a un resultado sobre la observabilidad y vice versa. El dual
del Lema 10.6 en la p´ agina 297 es :
Lema 10.9. Si rango¦Γ
o
[A, C]¦ = k < n, existe una transformaci´ on de simi-
laridad x = T
−1
x, tal que las nuevas matrices de estado tienen la forma:
A = T
−1
AT =
_
A
o
0
A
21
A
no
_
(10.254)
C = CT =
_
C
o
0
¸
(10.255)
donde A
o
tiene dimensi´ on k y el par (C
o
, A
o
) is completamente observable.
222
Este resultado tiene una relevancia similar a la descomposici´ on can´ onica
asociada para el caso de la controlabilidad. Para apreciar esto, aplicamos el
dual del Lema 10.6 en la p´ agina 297 para expresar el estado (transformado) y
las ecuaciones de salida en la forma particionada que se muestra a continuaci´ on:
_
˙
x
o
(t)
˙
x
no
(t)
_
=
_
A
o
0
A
21
A
no
_ _
x
o
(t)
x
no
(t)
_
+
_
B
o
B
no
_
u(t) (10.256)
y(t) =
_
C
o
0
¸
_
x
o
(t)
x
no
(t)
_
+Du(t) (10.257)
La descripci´ on anterior pone en evidencia el problema que puede surgir cuan-
do se intenta controlar un sistema usando s´ olo su salida, pues en esta no aparece
informaci´ on alguna sobre x
no
.
El subespacio observable de un modelo es el espacio formado por todos
los estados que se generan como combinaciones lineales de los estados en x
o
.
La estabilidad de este subespacio queda determinada por la ubicaci´ on de los
autovalores de la matriz A
o
.
El subespacio no observable de un modelo, es el espacio formado por
todos los estados generados como combinaci´ on lineal de los estados en x
no
.
La estabilidad de este subespacio queda determinada por los autovalores de la
matriz A
no
.
Si el subespacio no observable es estable, decimos que el sistema es de-
tectable.
Una consecuencia clave de la descripci´ on (10.256)–(10.257) podemos apre-
ciarla en la funci´ on de transferencia del sistema que queda expresada como:
H(s) = C
o
(sI −A
o
)
−1
B
o
+D (10.258)
10.6. PROPIEDADES DE LOS SISTEMAS 307
cancelaci´ on
formacan´ onica!observable
observabilidad!formacan´ onica
descomposici´ oncan´ onica
Es decir, los autovalores del subespacio no observable no pertenecen al con-
junto de polos de la funci´ on de transferencia del sistema. Esto implica que existe
una cancelaci´ on de todos los polos correspondientes a las ra´ıces de det(sI−A
no
).
Forma can´ onica observable
Es posible obtener las formas can´ onicas duales a las presentadas en los Lemas
10.7 y 10.8. Para ilustrar esto presentamos a continuaci´ on solo uno de los teo-
remas duales.
Lema 10.10. Considere un sistema escalar o SISO, completamente observable.
Entonces existe una transformaci´ on de similaridad tal que lleva al modelo a la
forma can´ onica observable:
˙ x(t) =
_
¸
¸
¸
¸
_
−α
n−1
1
.
.
.
.
.
.
.
.
. 1
−α
0
0 0
_
¸
¸
¸
¸
_
x(t) +
_
¸
¸
¸
¸
_
b
n−1
.
.
.
.
.
.
b
0
_
¸
¸
¸
¸
_
u(t) (10.259)
y(t) =
_
1 0 . . . 0
¸
x(t) +Du(t) (10.260)
222
10.6.3. Descomposici´ on Can´ onica
En la secci´ on anterior se analizaron propiedades de los sistemas din´ ami-
cos, considerando aquellos que son solo parcialmente observables y controlables.
Estos pueden ser separados en subsistemas completamente controlables y com-
pletamente observables.
Los resultados de los Lemas 10.6 y 10.9 pueden combinarse para aquellos sis-
temas que no son ni completamente observables ni completamente controlables.
Podemos apreciar esto en el siguiente Teorema.
Teorema 10.6 (Descomposici´ on Can´ onica). Considere un sistema descrito
por un modelo en espacio de estado. Entonces, siempre existe una transforma-
ci´ on de similaridad T tal que el modelo transformado, con su nuevo vector de
estado x = T
−1
x toma la forma:
A =
_
¸
¸
_
A
co
0 A
13
0
A
21
A
22
A
23
A
24
0 0 A
33
0
0 0 A
34
A
44
_
¸
¸
_
; B =
_
¸
¸
_
B
1
B
2
0
0
_
¸
¸
_
; C =
_
C
1
0 C
2
0
¸
(10.261)
(i) El subsistema [A
co
, B
1
, C
1
] es completamente controlable y completamente
observable, y tiene la misma funci´ on de transferencia que el sistema orig-
inal (ver Lema 10.11 en la p´ agina siguiente).
308 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
(ii) El subsistema:
_
A
co
0
A
21
A
22
_
,
_
B
1
B
2
_
,
_
C
1
0
¸
(10.262)
es completamente controlable.
(iii) El subsistema:
_
A
co
A
13
0 A
33
_
,
_
B
1
0
_
,
_
C
1
C
2
¸
(10.263)
es completamente observable.
222
La Figura 10.17 ilustra la estructura interna de un sistema de acuerdo al teo-
rema anterior. En ella, x(t), x
no
(t), x
nc
(t) y x
nc−no
(t) representan la parte del
estado completamente controlable y observable, no observable, no controlable,
y no controlable ni observable, respectivamente.
x
nc−no
(t)
x
nc
(t)
x
no
(t)
x(t)
u(t) y(t)
Figura 10.17: Estructura de un sistema de acuerdo a su controlabilidad y ob-
servabilidad.
La descomposici´ on can´ onica descrita en el Teorema 10.6 tiene una impor-
tante consecuencia para la funci´ on de transferencia del modelo, ya que esta solo
refleja el subespacio completamente observable y completamente controlable.
Lema 10.11. Considere la matriz de transferencia H(s) dada por:
Y(s) = H(s)U(s) (10.264)
10.7. OBSERVADORES 309
realizaci´ onm´ ınima
observador
Entonces:
H = C(sI −A)
−1
B+D = C
1
(sI −A
co
)
−1
B
1
+D (10.265)
donde C
1
, A
co
y B
1
son las de las ecuaciones (10.261). Esta descripci´ on de
estado es una realizaci´ on m´ınima de la funci´ on de transferencia.
222
Adem´ as, si denotamos por Λ¦M¦ el conjunto de autovalores de una matriz
M, entonces:
Λ¦A¦ = Λ¦A
co
¦ ∪ Λ¦A
22
¦ ∪ Λ¦A
33
¦ ∪ Λ¦A
44
¦ (10.266)
donde:
Λ¦A¦ Autovalores del sistema
Λ¦A
co
¦ Autovalores del subsistema controlable y observable
Λ¦A
22
¦ Autovalores del subsistema controlable pero no observable
Λ¦A
33
¦ Autovalores del subsistema no controlable pero observable
Λ¦A
44
¦ Autovalores del subsistema no controlable y no observable
Observamos que la controlabilidad de un sistema dado depende de la es-
tructura de sus entradas, es decir, donde se aplican y como entran en el sistema
aquellas variables que son manipulables. Por tanto, los estados de un subsistema
pueden ser no controlables desde una entrada, pero completamente controlables
desde otra. Es importante tener esto en mente para el dise˜ no de sistemas de
control, pues en un proceso real no todas sus entradas pueden ser manipuladas,
y por tanto puede que sea imposible llevar las variables de la planta a ciertos
ubicaciones del espacio de estado.
An´ alogamente, la observabilidad de un sistema depende de qu´e salidas se
consideren. Algunos estados pueden ser no observables desde una salida dada,
pero puede ser completamente observables desde otra. En el contexto del an´ alisis
y dise˜ no de sistemas de control, esto se traduce en que puede ser dif´ıcil (imposi-
ble) obtener informaci´ on sobre ciertas variables internas de la planta, a partir
de las salidas medidas disponibles.
10.7. Observadores
Cuando las variables de estado de un sistema deben ser medidas para mon-
itoreo, control u otros prop´ ositos, existen importantes aspectos tanto t´ecnicos
como econ´ omicos a considerar.
Un observador es un estimador de las variables de estado en base a un
modelo del sistema, mediciones de la salida de la planta y(t) y de su entrada
u(t).
El problema de observar el estado de un sistema es una generalizaci´ on del
caso en que se desea medir indirectamente alguna variables de un sistema usando
un modelo de un sistema y otras variables m´ as f´ aciles de medir.
310 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
error!estimaci´ on
estimaci´ on!error
observador!polinomio
Hurwitz!polinomio
error!modelo
modelo!error
10.7.1. Din´amica del observador
Supongamos que un sistema tiene un modelo de estado dado por las ecua-
ciones (10.44)-(10.45) con D = 0 (sistema estrictamente propio). En este caso,
la estructura general de un observador cl´ asico para el estado del sistema es
la que se muestra en la Figura 10.18, donde la matriz J es la ganancia del
observador.
Sistema
B
u(t)
(sI-A)
-1
C
J
+
+
+
-
(t) x
^
y(t)
Figura 10.18: Observador del estado cl´ asico
La ecuaci´ on que defines la din´ amica del observador es entonces:
dˆ x(t)
dt
= Aˆ x(t) +Bu(t) +J(y(t) −Cˆ x(t)) (10.267)
Una pregunta natural es: si contamos con un modelo del sistema y conocemos
su entrada, ¿porqu´e es necesario entonces usar la salida para estimar el estado?
¿no bastar´ıa con simular el sistema? La clave aqu´ı es que no conocemos el
estado inicial del sistema, y por tanto no podr´ıamos obtener la trayectoria
del estado.
Si consideramos el error de estimaci´ on del estado ˜ x(t) = x(t) − ˆ x(t), su
din´ amica se obtiene restando (10.267) de (10.44). Esto es:
d˜ x(t)
dt
= (A−JC)˜ x(t) (10.268)
donde observamos que el error de estimaci´ on converge a cero si y solo si todos los
autovalores de la matriz A−JC tienen parte real negativa, i.e., si el polinomio
del observador:
E(s) = det(sI −A+JC) (10.269)
es estrictamente Hurwitz.
Discusi´ on
La ecuaci´ on (10.268) es v´ alida solo si el modelo es un representaci´ on exacta
del sistema bajo an´ alisis. Errores de modelado tendr´ an consecuencias sobre
el observador, tales como error de estimaci´ on diferente de cero.
10.7. OBSERVADORES 311
polos!observador
Si el par (A, C) es completamente observable, entonces los autovalores de
A − JC pueden situarse arbitrariamente sobre regi´ on de estabilidad del
plano complejo. Por tanto, la velocidad de convergencia de la estimaci´ on
es parte del dise˜ no del observador. Estos autovalores se conocen como los
polos del observador.
Si el par (A, C) es detectable, entonces el observador asegura error esta-
cionario cero asit´ oticamente, a pesar que no todos los autovalores de la
matriz A−JC pueden situarse a gusto.
Si el sistema no es completamente observable, y el subespacio no observ-
able contiene modos inestables, entonces el error de estimaci´ on no con-
verge.
Ejemplo 10.27. Para ilustrar el uso de un observador consideremos nueva-
mente el modelo de estado del Ejemplo 10.8. En este caso particular, queremos
que los polos del observador se ubiquen en s = −4, s = −6 y s = −8. Entonces
la ganancia del observador J debe elegirse adecuadamente, por ejemplo, usando
Matlab :
Matlab
>> A=[ 0 1 0; 0 0 1; 4 0 -3];
>> B=[ 0; 0; 1];
>> C=[-10 4 0];
>> J=place(A’,C’,[-4 -6 -8])
J =
_
−4,5247 −7,5617 −4,1543
¸
T
(10.270)
Para apreciar la din´ amica del observador, asumiremos que el estado inicial
del sistema es x(0) = [−1 2 1]
T
y que la entrada del sistema es una se˜ nal
cuadrada de amplitud 1, y frecuencia igual a 1 [rad/s]. El observador se inicia
con ˆ x(0) = 0. Entonces, la norma del error de estimaci´ on, [[˜ x(t)[[ evoluciona
como se muestra en la Figura 10.19
Es importante notar que, en este ejemplo, la planta es inestable, lo que sig-
nifica que tanto el estado como su estimaci´ on crecen indefinidamente. Sin em-
bargo, bajo el supuesto de un modelo exacto, el error de estimaci´ on converge a
cero.
222
Para darle una interpretaci´ on f´ısica a la filosof´ıa del uso de observadores,
veamos a continuaci´ on otro ejemplo.
Ejemplo 10.28. La Figura 10.20 muestra el esquema de un sistema rotacional
en que la entrada es el torque τ(t). La potencia en el sistema se transmite a
trav´es de un sistema de engranajes en dos ruedas de radios r
1
y r
2
y momentos
312 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
0
2
4
6
8
10
12
Tiempo [s]
N
o
r
m
a

d
e
l

e
r
r
o
r
Figura 10.19: Error de estimaci´ on del estado
de inercia I
1
e I
2
, respectivamente. La rotaci´ on de ambos ejes es amortiguada
por un roce viscoso con coeficientes D
1
y D
2
, y existe un resorte de torsi´ on no
despreciable en el eje 2 que tambi´en ha sido modelado. La carga en el sistema se
ha inclu´ıdo como un momento de inercia I
3
. Lo que nos interesa es estimar la
velocidad ω
3
de la carga want to estimate the load speed en base a la medici´ on
de velocidad en el eje 1 1, ω
1
.
D
1
D
2
K
2
3
τ
ω
θ
ω
θ
I
2
2
3
3
θ
1
ω
1
I
1
r
2
r
1
I
2
τ
τ
1
2
Figura 10.20: Sistema rotacional
En primer lugar, es necesario obtener el modelo de estado del sistema, para
lo cual consideramos el m´ınimo conjunto de variables del sistemas que cuatifi-
can la energ´ıa almacenada en ´el. El sistema tiene cuatro componentes capaces
de almacenar energ´ıa: tres momentos angulares y un resorte. Sin embargo, la
energ´ıa almacenada en I
1
e I
2
puede calcularse tanto a partir de ω
1
como de
ω
2
,i.e., necesitamos solo una de estas velocidades, ya que satisfacen la relaci´ on:
ω
1
(t)
ω
2
(t)
=
r
2
r
1
; and τ
1
(t)ω
1
(t) = τ
2
(t)ω
2
(t) (10.271)
10.7. OBSERVADORES 313
Entonces, motivados por el modelado f´ısico, elegimos:
x
1
(t) = ω
1
(t) (10.272)
x
2
(t) = θ
2
(t) −θ
3
(t) (10.273)
x
3
(t) = ω
3
(t) (10.274)
Usando algunos conocimientos de Mec´ anica, tenemos:
τ(t) = D
1
ω
1
(t) +I
1
d ω
1
(t)
dt

1
(t) (10.275)
τ
2
(t) =
r
2
r
1
τ
1
(t) = D
2
ω
2
(t) +I
2
d ω
2
(t)
dt
+K
2

2
(t) −θ
3
(t)) (10.276)
0 = K
2

3
(t) −θ
2
(t)) +I
3
d ω
3
(t)
dt
(10.277)
Dado que escogimos ω
1
(t) como la variable medible del sistema, o sea, como
salida, obtenemos finalmente el modelo:
dx(t)
dt
=
_
¸
¸
¸
¸
¸
¸
_

r
2
1
D
2
+r
2
2
D
1
r
2
1
I
2
+r
2
2
I
1

r
1
r
2
K
2
r
2
1
I
2
+r
2
2
I
1
0
r
1
r
2
0 −1
0
K
2
I
3
0
_
¸
¸
¸
¸
¸
¸
_
. ¸¸ .
A
x(t) +
_
¸
¸
¸
¸
¸
¸
_
r
2
2
r
2
1
I
2
+r
2
2
I
1
0
0
_
¸
¸
¸
¸
¸
¸
_
. ¸¸ .
B
τ(t)
(10.278)
ω
1
(t) =
_
1 0 0
¸
. ¸¸ .
C
x(t) (10.279)
A continuaci´ on, se escogen los siguientes valores para los par´ ametros del
sistema:
r
1
= 0, 25[m]; r
2
= r
3
= 0, 50[m]; D
1
= D
2
= 10
_
Nms
rad
_
(10.280)
K
2
= 30
_
Nm
rad
_
; I
1
= 2,39
_
Nms
2
rad
_
; I
2
= I
3
= 38,29
_
Nms
2
rad
_
(10.281)
Con estos valores tenemos que:
A =
_
_
−1,045 −1,254 0
0, 5 0 −1
0 0, 784 0
_
_
; B =
_
_
0, 084
0
0
_
_
(10.282)
Para verificar la observabilidad, utilizamos el criterio presentado en la Sec-
ci´ on ¸10.6.2, es decir, construimos la matriz de observabilidad:
Γ
o
=
_
_
C
CA
CA
2
_
_
=
_
_
1,0000 0 0
−1,0450 −1,2540 0
0, 4650 1,3104 1,2540
_
_
(10.283)
314 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
ruido
filtro
En esta expresi´ on podemos observar que la matriz Γ
o
tiene rango completo,
pues claramente det Γ
o
,= 0, por tanto el sistema es completamente observable
desde la salida ω
1
(t).
Una vez que tenemos la estimaci´ on del vector de estado, ˆ x(t), la estimaci´ on
del estado ˆ ω
3
(t) para ω
3
, se obtiene a partir de:
ˆ ω
3
(t) = [0 0 1]
. ¸¸ .
K
3
T
ˆ x(t) (10.284)
donde ˆ ω
3
(t) puede obtenerse a partir de (10.267). Con esto:
dˆ ω
3
(t)
dt
= K
3
T
dˆ x(t)
dt
= K
3
T
(A−JC)ˆ x(t) +K
3
T
B
. ¸¸ .
0
τ(t) +K
3
T

1
(t) (10.285)
222
10.7.2. Observadores y ruido de medici´ on.
Hasta el momento en todos los an´ alisis hecho asumido que tanto la entrada
de un sistema dado, u(t), como su salida, y(t), est´ an disponibles sin errores
de ning´ un tipo. En general, esto es correcto s´ olo respecto a la entrada, pues
usualmente esta es generada por el mismo que se emplea para estimar el estado.
Sin embargo, la medici´ on de la salida y(t), ser´ a siempre en presencia de ruido.
Para analizar el efecto de este ruido de medici´ on, denotemos por y
m
(t) la
medici´ on, es decir, la salida real de la planta contaminada con ruido:
y
m
(t) = y(t) +v(t) (10.286)
donde v(t) se denomina ruido de medici´ on aditivo. El error de medici´ on satisface
la ecuaci´ on:
d˜ x(t)
dt
= (A−JC)˜ x(t) +Jv(t) (10.287)
Por tanto, tenemos que:
˜
X(s) = (sI −A+JC)
−1
˜ x(0) + (sI −A+JC)
−1
JV (s) (10.288)
Es decir, el error debido al ruido ser´ a peque˜ no si la funci´ on de transferencia
(sI −A+JC)
−1
J es capaz de actuar como filtro para el ruido v(t).
Para ilustrar estas ideas, consideremos el siguiente ejemplo.
Ejemplo 10.29. Un sistema es modelado por las ecuaciones de estado:
A =
_
−2 1
1 −3
_
; B =
_
1
0, 5
_
; C =
_
1 −1
¸
; D = 0 (10.289)
Supongamos que queremos estimar una variable del sistema z(t) = γ
T
x(t),
donde γ
T
= [1 1]. Entonces, una estimaci´ on de esta variable es ˆ z(t), que se
obtiene como:
ˆ z(t) = γ
T
ˆ x(t) (10.290)
10.7. OBSERVADORES 315
Entonces, la parte ruidosa en la estimaci´ on de z(t) es z
v
(t), cuya transfor-
mada de Laplace satisface
Z
v
(s) = H
v
(s)V (s); where H
v
(s) = γ
T
(sI −A+JC)
−1
J (10.291)
A continuaci´ on consideramos dos elecciones diferentes del polinomio del ob-
servador E(s). Estas son:
E
1
(s) = (s + 0, 5)(s + 0, 75) and E
2
(s) = (s + 10)(s + 20) (10.292)
El lector puede apreciar que esto se traduce en observadores que tendr´ an
diferente velocidad, siendo el primero mucho m´ as lento que el segundo. Con
estas elecciones calculamos las ganancias del observador, J
1
y J
2
, y las corre-
spondientes funciones de transferencias de los filtros asociados:
H
1
(s) = γ
T
(sI −A+J
1
C)
−1
J
1
=
1,875s + 5,625
s
2
+ 1,25s + 0, 375
(10.293)
H
2
(s) = γ
T
(sI −A+J
2
C)
−1
J
2
=
144s + 432
s
2
+ 30s + 200
(10.294)
Para comparar ambos casos en la Figura 10.21, se muestra la respuesta en
frecuencia (diagrama de Bode) de cada uno de los filtros obtenidos. Es intere-
sante notar que, a partir de los gr´ aficos obtenidos podemos concluir que el filtro
m´ as lento resulta ser m´ as inmune a ruido de alta frecuencia, comparado con el
m´ as lento.
10
−1
10
0
10
1
10
2
10
3
−60
−40
−20
0
20
40
Frecuencia [rad/s]
M
a
g
n
i
t
u
d

[
d
B
]
|H
1
(jω)|
|H
2
(jω)|
Figura 10.21: Caracter´ıstica de filtraje de los observadores
222
En base al ejemplo anterior tenemos que
En el dise˜ no de un observador, siempre existe un compromiso entre la veloci-
dad de convergencia del error de observaci´ on y la inmunidad de la estimaci´ on
frente al ruido de medici´ on.
316 CAP
´
ITULO 10. REPRESENTACI
´
ON EN VARIABLES DE ESTADO.
observador!deordenreducido
observador!deordencompleto
Una forma sistem´ atica de encarar este problema es usar la teor´ıa de filtro
´ optimos, como los filtros de Kalman-Bucy. El lector interesado puede consultar,
por ejemplo, la referencia [2].
Existe una serie de otros observadores, incluso capaces de incorporar no-
linealidades presentes en el sistema a observar. Sin embargo, uno de particular
inter´es es el observador de orden reducido, que b´ asicamente asocia direc-
tamente la salida del sistema a una parte del estado, reduciendo la parte del
estado a estimar. Dada esta diferencia, el observador cl´ asico presentado en esta
secci´ on tambi´en se denomina de orden completo (ver [13, 7],yuz01?).
muestreo|textbf
quantum|textbf
sistemas!digitales
Cap´ıtulo 11
Sistemas h´ıbridos
11.1. Introducci´ on
Uno de los paradigmas m´ as ricos de la ingenier´ıa moderna es el uso de la
tecnolog´ıa digital en el procesamiento de se˜ nales. Esto se refleja en campos
tan distintos como las telecomunicaciones, la bioingenier´ıa, la automatizaci´ on,
el control autom´ atico, el procesamiento de im´ agenes, procesamiento de voz, re-
conocimiento de patrones, etc. La amplitud y velocidad con las que la aplicaci´ on
de este paradigma se consolida y se extiende parecen no tener l´ımites; ello se
debe a la velocidad con que progresa la electr´ onica digital.
Los sistemas digitales usados en procesamiento de se˜ nales, cualquiera sea
el prop´ osito de ´este, manejan se˜ nales que son discretas en magnitud (con dis-
cretizaci´ on determinada por el n´ umero de bits) y discretas en tiempo (debido a
que existe una sincronizaci´ on con un reloj o temporizador). Por ejemplo, en un
computador con registros de 16 bits y una unidad procesadora central (CPU)
de 1 [GHz], se pueden representar n´ umeros enteros positivos con magnitud cuya
discretizaci´ on corresponde a 2
−16
veces el valor m´ aximo representado. Esto es
el quantum de magnitud. A su vez, las operaciones que se realizan en la CPU y
las transferencias de datos s´ olo pueden iniciarse en instantes que son m´ ultiplos
del per´ıodo del reloj, es decir, m´ ultiplos de 1 [ns].
Muchas veces se usan como sin´ onimo las expresiones digital y tiempo dis-
creto. En rigor, no son sin´ onimos, ya que un registro digital tiene un valor que
est´ a definido en todo instante (tiempo continuo); lo que s´ı ocurre es que s´ olo
nos interesa analizar lo que pasa con ese valor almacenado en los instantes que
corresponden a m´ ultiplos del ciclo del reloj, que es cuando se puede producir
alg´ un cambio. Por esta ´ ultima raz´ on aceptaremos la sinonimia; sin embargo
debemos tener presente que si el dispositivo digital tiene una discretizaci´ on muy
gruesa, es decir, un quantum grande, debido a un n´ umero reducido de bits, es
necesario hacer un an´ alisis de este efecto en el procesamiento de las se˜ nales
Una fracci´ on muy significativa de las aplicaciones en el campo del proce-
samiento de se˜ nales involucran la interacci´ on o interconexi´ on de sistemas y
317
318 CAP
´
ITULO 11. SISTEMAS H
´
IBRIDOS
sistemas!h´ ıbridos
muestreo
reconstrucci´ on
muestreo|textbf
muestreo!per´ ıodode
muestra
se˜ nales de tiempo continuo con sistemas y se˜ nales de tiempo discreto. Cuan-
do un sistema incluye componentes tanto de tiempo continuo como de tiempo
discreto, se habla de sistemas h´ıbridos.
La comunicaci´ on de sistemas que procesan se˜ nales de distinta naturaleza re-
quiere resolver dos problemas: el problema de muestreo, que permite transfor-
mar una se˜ nal de tiempo continuo en una se˜ nal de tiempo discreto y el problema
de reconstrucci´ on, es decir, la transformaci´ on de una se˜ nal de tiempo discreto
en una se˜ nal de tiempo continuo.
Si bien ya se abord´ o brevemente en la Secci´ on ¸ los modelos para sistemas
y se˜ nales muestreadas, en este cap´ıtulo estudiaremos mas en profundidad la
soluci´ on de esos problemas y su descripci´ on, tanto temporal como frecuencial.
Para una comprensi´ on acabada de los conceptos y resultados que se presentan
ac´ a, se requiere que el lector tenga un dominio acabado de los cap´ıtulos 3, 4 y
6.
11.2. Muestreo de se˜ nales.
Supongamos que deseamos procesar digitalmente una se˜ nal de tiempo con-
tinuo f(t), entonces debemos tomar el valor de la se˜ nal en un instante dado,
es decir, una muestra y transformarla en una colecci´ on de bits, es decir, cuan-
tizarla. T´ecnicamente se requiere un muestreador y un conversor tal como se
indica, en forma simplificada, en la Figura 11.1. En esa figura, el muestreador
discretiza en el tiempo, y el conversor discretiza la amplitud de la se˜ nal. En
lo sucesivo, supondremos que la conversi´ on A/D es de alta precisi´ on y de alta
velocidad, por lo cual se supondr´ a que no hay error en la cuantizaci´ on de la
amplitud y no hay retardo en la operaci´ on.
f
d
(t
1
)
Conversor
A/D
f(t)
f(t
1
)
t = t
1
Figura 11.1: Proceso de muestreo y cuantizaci´ on
Para capturar la informaci´ on contenida en la se˜ nal f(t), por simplicidad
se suele muestrear la se˜ nal en forma peri´ odica, con per´ıodo ∆, es decir, con
frecuencia angular de muestreo ω
m
= 2π/∆, lo cual significa que se obtiene una
secuencia ¦f(0), f(∆), f(2∆), . . .¦. Esta secuencia puede ser tratada como una
secuencia discreta, y le son aplicables los m´etodos de an´ alisis presentados para
las se˜ nales de tiempo discreto en el Cap´ıtulo 4.
En este cap´ıtulo enfocaremos nuestro an´ alisis en la conexi´ on dicsreto-continuo,
as´ı como en los procesos de muestreo y de reconstrucci´ on.
El primer fen´ omeno interesante de observar se relaciona con la selecci´ on
de la frecuencia de muestreo. Si la se˜ nal a muestrear es una constante, en-
tonces, la infomaci´ on codificada en la se˜ nal se captura con cualquier frecuencia
11.2. MUESTREO DE SE
˜
NALES. 319
0 0.5 1
−2
−1
0
1
2
0 0.5 1
−2
−1
0
1
2
0 0.5 1
−2
−1
0
1
2
∆=1 [s] ∆=0,5 [s] ∆=0,05 [s]
Figura 11.2: Muestreo a diferentes frecuencias
de muestreo. Como contrapartida, si la se˜ nal cambia r´ apidamente, es necesario
muestrear r´ apido (comparativamente) para que la secuencia de tiempo discreto
capture esa din´ amica de cambio. Las ambig¨ uedades que surgen de una elecci´ on
desacertada del per´ıodo de muestreo se ilustran en el siguiente ejemplo.
Ejemplo 11.1. Suponga que f(t) = 2 cos(2πt), es decir, se trata de una se˜ nal
sinuosidal de frecuencia 1 [Hz]. Consideremos ahora tres valores distintos para
la frecuencia de muestreo f
m

m
= 2πf
m
)
(a) f
m
= 1 [Hz], es decir, ∆ = 1 [s]
(b) f
m
= 2 [Hz], es decir, ∆ = 0, 5 [s]
(c) f
m
= 20 [Hz], es decir, ∆ = 0, 05 [s]
Los tres casos son mostrados en los gr´ aficos de la Figura 11.2
De un an´ alisis somero de la Figura 11.2 se puede observar lo siguiente:
(i) El muestreo a f
m
= 1 [Hz] genera una secuencia de valores constantes.
Este resultado indica que el proceso de discretizaci´ on temporal entrega un
resultado totalmente equ´ıvoco. En otras palabras, dado f[k], no hay forma
de recuperar la funci´ on de tiempo continuo f(t). Note que si el mismo
muestreo se hubiera usado en la se˜ nal f(t) = 2 sen(2πt), entonces, f[k]
hubiese sido cero ∀k ∈ N.
(ii) El muestreo a f
m
= 2 [Hz] genera una secuencia de valores constantes de
signo alternado. Aunque se preserva la naturaleza peri´ odica de la se˜ nal
f(t), as´ı como su frecuencia exacta, el resultado tambi´en es equ´ıvoco, por
cuanto ser´ıa imposible recuperar la se˜ nal original a partir de sus muestras.
(iii) El muestreo a f
m
= 20 [Hz] genera una secuencia de valores que aproxima
en forma muy cercana la se˜ nal original. Demostraremos m´ as adelante que,
en casos como ´este existe un procedimiento para recuperar la se˜ nal original
con el grado de exactitud tan grande como deseemos.
320 CAP
´
ITULO 11. SISTEMAS H
´
IBRIDOS
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−6
−4
−2
0
2
x 10
−4
Tiempo [s]
E
r
r
o
r
Figura 11.3: Error de reconstrucci´ on usando interpolaci´ on c´ ubica.
Para verificar la aseveraci´ on anterior podemos intentar una reconstrucci´ on
por interpolaci´ on c´ ubica (comando spline de Matlab) y dibujando el error
de reconstrucci´ on, como se indica a continuaci´ on
Matlab
>>tt=[0:1e-5:1];Delta=0.05;t=[0:Delta:1];
>>f=2*cos(2*pi*tt);fk=2*cos(2*pi*t);
>>faprox=spline(t,fk,tt); subplot(211);plot(tt,f-faprox);
La Figura 11.3 muestra que el error de reconstrucci´ on es muy peque˜ no (del
orden de 10
−4
).
11.3. An´alisis en frecuencia de se˜ nales muestreadas
Una vez que se obtiene la se˜ nal discreta f[k] podemos usar las herramientas
desarrolladas en el Cap´ıtulo 6 para realizar un an´ alisis espectral. En esta secci´ on
nos interesar´ a relacionar ese an´ alisis con el an´ alisis espectral de la se˜ nal de
tiempo continuo f(t).
El principal resultado est´ a dado por el siguiente lema
Lema 11.1. Sea una se˜ nal de tiempo continuo f(t), muestreada peri´ odicamente
con frecuencia angular de muestreo ω
m
[rad/s] (es decir, cada ∆ [s]), y sean
F( ω) y F[e

] las transformadas de Fourier de f(t) y de la secuencia f[k] =
f(k∆) respectivamente. Entonces, se cumple que
11.3. AN
´
ALISIS EN FRECUENCIA DE SE
˜
NALES MUESTREADAS 321
trendeimpulsos
muestreo impulsivo
F[e

] =
1

=−∞
F
_
 ω −


_
=
1

=−∞
F ( ω −ω
m
) donde θ = ω∆
(11.1)
Demostraci´ on
Recordemos que
f[k] = f(k∆) =

=−∞
f(∆)δ
K
[k −] (11.2)
Por lo cual, podemos calcular el espectro de la secuencia usando TFD.
F[e

] =

=−∞
f(∆)e
−jθ
(11.3)
Por otro lado supongamos que la se˜ nal original, f(t) es multiplicada por un
tren de impulsos, es decir,
f

(t) = f(t)

k=−∞
δ
D
(t −k∆)
. ¸¸ .
m

(t)
(11.4)
Entonces, la transformada de Fourier de esta secuencia impulsiva es la con-
voluci´ on compleja de las transformadas de Fourier de la se˜ nal original y del tren
de impulsos, es decir,
T ¦f

(t)¦ = F

( ω) = F( ω) ∗ M

( ω) =
1

_

−∞
F(jζ)M

( ω −jζ) dζ
(11.5)
Para calcular M

( ω) notamos que m

(t) es una se˜ nal peri´ odica, de per´ıodo
∆, por lo tanto se puede expandir en una serie exponencial de Fourier. As´ı,
aplicando las definiciones de la secci´ on ¸5.3.2, se obtiene
m

(t) =

k=−∞
δ

(t −k∆) =
1

=−∞
e
j


t
(11.6)
a partir de lo cual, aplicando la transformaci´ on de Fourier a la suma de expo-
nenciales complejas, se llega a
M

( ω) =


=−∞
δ
D
_
 ω −


_
(11.7)
y, finalmente, reemplazando en (11.5) se obtiene
322 CAP
´
ITULO 11. SISTEMAS H
´
IBRIDOS
F

( ω) =
1

_

−∞
F(jζ)M

( ω −jζ) dζ =
1

=−∞
F
_
 ω −


_
(11.8)
Ahora bien, el c´ alculo de la transformaci´ on de Fourier se puede realizar por
un camino alternativo. En efecto, a partir de (11.4) se tiene que
f

(t) = f(t)

k=−∞
δ
D
(t −k∆) =

k=−∞
f(k∆)δ
D
(t −k∆) (11.9)
de donde se llega a
F

( ω) =

k=−∞
f(k∆)e
−jk∆ω
(11.10)
Comparando (11.3), (11.8) y (11.10), se llega al resultado (11.1)
222
modelos|textbf
Cap´ıtulo 12
Modelos
12.1. Ideas generales
Una de las tareas m´ as interesantes y complejas en el an´ alisis de sistemas
es la de construir modelos para describir cuantitativamente lo que ocurre en el
sistema bajo an´ alisis.
Un modelo es siempre una representaci´ on aproximada de la realidad y, en sus
aspectos esenciales, se relaciona ´ıntimamente con el prop´ osito que nos mueve a
obtener el modelo. Por ejemplo, un motor el´ectrico puede tener distintos modelos
seg´ un cual es el inter´es del analista: un modelo electromec´ anico, un modelo
t´ermico, un modelo que describa los fen´ omenos vibratorios y de esfuerzos, etc.
En cualquier caso, una vez definido el prop´ osito del modelo, ´este debe cap-
turar los rasgos esenciales que hacen del sistema un ente particular y diferente
de los dem´ as, tanto cualitativa como cuantitativamente.
Es importante se˜ nalar que el objetivo esencial de un modelo es tener
un mecanismo que permita predecir el comportamiento del sistema
bajo condiciones de excitaci´ on distintas a las observadas. En otras pal-
abras el modelo es un mecanismo de inferencia y predicci´ on.
El problema que queremos resolver aqu´ı se puede definir de la siguiente
forma:
Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matem´ atico que pueda replicar
en la forma m´ as precisa posible (bajo alg´ un criterio de optimalidad) la
historia de datos disponibles y otras historias de datos que se puedan obtener
del mismo sistema, para validar el modelo obtenido.
Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Adem´ as la historia de datos del sistema
debe ser tal que permita observar los rasgos de inter´es del sistema. Por ejemplo,
323
324 CAP
´
ITULO 12. MODELOS
si el sistema que deseamos modelar es una red RC, no nos servir´ a recolectar datos
del sistema cuando las fuentes que alimentan la red son constantes, porque en
ese caso ser´ a imposible calcular los par´ ametros de cualquier modelo din´ amico.
Otra idea que aparece en la definici´ on del problema es que la construcci´ on
del mejor modelo tiene asociado un criterio de calidad ´ optima.
En la determinaci´ on de un modelo existen pues, tres elementos
1. La selecci´ on de una clase de modelos, /. Por ejemplo, una ecuaci´ on difer-
encial de cierto orden.
2. Un experimento que permite recolectar datos. Por ejemplo, el aplicar una
excitaci´ on de amplio espectro al sistema.
3. Un criterio de optimizaci´ on que permite seleccionar uno de los miembros
de la clase elegida en base a los datos experimentales. Por ejemplo, el
minimizar la suma (o integral) de los errores cuadr´ aticos.
La clase de modelos se elige, en primera instancia, usando citerios fenomenol´ ogi-
cos. Por ejemplo, si el comportamiento del sistema a modelar est´ a dominado por
3 componentes din´ amicos, una clase razonable es el conjunto de las ecuaciones
diferenciales de tercer orden.
En muchos casos, el experimento no puede ser dise˜ nado de acuerdo a las
necesidades del analista, sino que se debe usar datos provenientes de la operaci´ on
normal del sistema a modelar. Adem´ as, es com´ un que se desee o necesite ir
refinando el modelo en forma recursiva (e incluso en tiempo real, es decir, se va
refinando el c´ alculo a medida que se van obteniendo nuevos datos).
Tambi´en es crucial notar que el que se use un procedimiento de optimizaci´ on
s´ olo se garantiza, en el mejor de los casos, que se encontrar´ a el modelo ´ optimo
dentro de la clase elegida. Si el mecanismo generador de los datos no pertenece a
la clase de modelos elegida, como suele suceder, entonces siempre habr´ a un error
de modelado, sin importar cuan informativo sea el experimento para recolectar
datos.
Los m´etodos m´ as robustos que se conocen para construir modelos son aque-
llos que usan un criterio de optimizaci´ on cuadr´ atica. En ellos concentraremos
nuestra atenci´ on en lo que sigue.
12.2. Modelado de sistemas de tiempo continuo.
Teor´ıa b´asica.
Para motivar la discusi´ on y el tratamiento te´ orico del tema, consideramos el
siguiente ejemplo.
Ejemplo 12.1. Suponga que la clase de modelos elegida, /, est´ a definida por
y
m
(t) = α(u(t))
3
(12.1)
donde u(t) es la entrada del sistema a modelar.
12.2. MODELADODE SISTEMAS DE TIEMPOCONTINUO. TEOR
´
IAB
´
ASICA.325
predicci´ on!errorde
Suponga adem´ as que se realiza un experimento recolector de datos en el sis-
tema a modelar. Como resultado del mismo se obtienen datos
1
de entrada y
salida, u(t) e y(t), en el intervalo [0; t
f
]. Entonces el mejor valor de α, ˆ α, en
(12.1) se puede calcular minimizando un funcional de costo J(α) dado por
J(α) =
_
t
f
0
_
(y(τ) −α(u(τ))
3
_
2
dτ (12.2)
entonces
ˆ α = arg m´ın
α∈R
J(α) (12.3)
La minimizaci´ on se realiza derivando J(α) respecto de α y haciendo esa
derivada igual a cero. Esto lleva a
ˆ α =
__
t
f
0
(u(τ))
6

_
−1 _
t
f
0
y(τ)(u(τ))
3
dτ (12.4)
Note que si el sistema a modelar perteneciese a la clase de modelos elegida,
es decir, si existe α
o
tal que y(t) = α
o
(u(t))
3
, entonces ˆ α = α
o
, siempre que
u(t) ,= 0 en alg´ un lapso no cero en el intervalo [0; t
f
].
La ecuaci´ on (12.4) arroja una estimaci´ on del par´ ametro una vez que se han
recogido los datos. Existe una formulaci´ on alternativa donde ˆ α evoluciona a
medida que se obtienen m´ as datos, tal como se demuestra a continuaci´ on.
Para hacer el tratamiento m´ as simple haremos las siguientes substituciones
p(t) =
__
t
0
(u(τ))
6

_
−1
(12.5)
φ(t) = (u(t))
3
(12.6)
Entonces, si reemplazamos t
f
por t en (12.4) tenemos que
ˆ α(t) = p(t)
_
t
0
y(τ)φ(τ) dτ (12.7)
Luego, al derivar (12.5), se obtiene
dp(t)
dt
= −(p(t)φ(t))
2
⇐⇒
d (p(t))
−1
dt
= (φ(t))
2
(12.8)
Al derivar (12.7) y al usar (12.8) se obtiene
dˆ α(t)
dt
= p(t)φ(t) (y(t) − ˆ α(t)φ(t))
. ¸¸ .
e(t)
(12.9)
donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo
y la entrada observada de la planta.
1
Note que se trata de datos experimentales de la planta
326 CAP
´
ITULO 12. MODELOS
regresi´ on!vectorde
regresores
Las ecuaciones (12.8) y (12.9) permiten calcular ˆ α(t) en tiempo real, como
se puede verificar en la simulaci´ on implementada en el esquema SIMULINK
de la Figura 12.1. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e(t) en el
oscilloscopio, que ese sistema pertenece a la clase /.
u(t)
y(t)
\phi (t)
p (t)
e (t)
alfa (t)
Antes de empezar la simulación, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integración correspondientes
p (0)
alfa (0)
p
alfa
e
SISTEMA
1/s
1/s −K−
(u(1))^3
Figura 12.1: Estimaci´ on por m´ınimos cuadr´ aticos
Note adem´ as que, para que este programa SIMULINK funcione se debe asig-
nar una condici´ on distinta de cero a p(0) (en el bloque integrador correspondi-
ente). Se invita al lector a observar el efecto de distintas elecciones para p(0).
En cambio, el valor inicial ˆ α(0) puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el par´ ametro α. En la primera, dada por la
ecuaci´ on (12.4), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.8) y
(12.9), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuaci´ on el m´etodo general para sistemas de tiempo
continuo.
La clase de modelos a usar, /, est´ a definida por
y
m
(t) = φφφ
m
(t)
T
θθθ (12.10)
donde φφφ(t)
m
es un vector, llamado vector de regresi´ on,. Los elementos de φφφ
m
(t)
son conocidos como regresores. Existen tres grandes l´ıneas en la construcci´ on
del vector de regresi´ on:
12.2. MODELADODE SISTEMAS DE TIEMPOCONTINUO. TEOR
´
IAB
´
ASICA.327
PEM
erroresenlasvariables
predicci´ on!errorde
gradiente
En base a la entrada de la planta y la salida del modelo. Este enfoque es
la base de los llamados m´etodos de error de predicci´ on, reconocidos
por su sigla inglesa PEM (prediction error methods).
En base a la entrada del modelo, la que resulta de medir la entrada a la
planta
2
y a la salida del modelo. Esta elecci´ on genera los m´etodos conoci-
dos como de errores en la variables
En base a la entrada de la planta y la salida de la planta. Esta elecci´ on es
la base del m´etodo cl´ asico de estimaci´ on por errores cuadr´aticos. Es
conocido por la sigla inglesa LSE (least squares errors). Ese el m´etodo m´ as
robusto y m´ as usado, y es el que usaremos en este texto. Distinguiremos
esta elecci´ on de las otras dos reemplazando φφφ
m
(t) por φφφ(t) en la derivaci´ on
de las ecuaciones del m´etodo.
Por su parte, el vector θθθ ∈ R
p
contiene los par´ ametros θ
1
, θ
2
, . . . , θ
p
que
distinguen cada elemento en /.
Note que la expresi´ on es bastante general, ya que la ´ unica restricci´ on es que
el modelo sea lineal en los par´ ametros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
y
m
(t) = a
_
u(t) +b u(t) +c cos(u(t)) +d (12.11)
Entonces, el modelo (12.11) puede ser puesto en la forma (12.10) con las
siguientes asociaciones
φφφ(t) = [
_
u(t) u(t) cos(u(t)) 1]
T
(12.12)
θθθ = [a b c d ]
T
(12.13)
Veremos adem´ as en una secci´ on siguiente que (12.10) puede describir sis-
temas din´ amicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de
la clase /, debemos encontrar un estimado ´ optimo,
ˆ
θθθ, para θθθ de modo que se
minimice
J(θθθ) =
_
t
f
0
(y(τ) −φφφ(τ)
T
θθθ)
2
dτ (12.14)
El producto φφφ(τ)
T
θθθ corresponde a una estimaci´ on de la salida del sistema
a modelar, utilizando el elemento gen´erico de la clase /. La diferencia y(τ) −
φφφ(τ)
T
θθθ es conocida como el error de predicci´ on (no confundir con los m´eto-
dos PEM). El m´etodo de estimaci´ on cuadr´ atica permite determinar cual de
los elementos de / es el que arroja la predicci´ on con menor error cuadr´ atico
acumulado. Esto es equivalente a seleccionar el ´ optimo θθθ.
La minimizaci´ on de (12.14) se hace a trav´es del procedimiento tradicional:
derivando respecto de la inc´ ognita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una funci´ on escalar respecto de un vector, la
derivada corresponde al gradiente ∇
θ
. As´ı el mejor estimado
ˆ
θθθ est´ a dado por
2
Hay una diferencia entre ambos debido al ruido de medici´ on
328 CAP
´
ITULO 12. MODELOS
ˆ
θθθ = arg m´ın
θ∈R
p
J(θθθ) (12.15)
El procedimiento descrito lleva a

θ
J(θθθ) =
dJ(θθθ)
d θθθ
= −2
_
t
f
0
φφφ(τ)(y(τ) −φφφ(τ)
T
θθθ) dτ (12.16)
Al hacer cero el gradiente se obtiene el estimado
ˆ
θθθ dado por
ˆ
θθθ =
__
t
f
0
φφφ(τ)φφφ(τ)
T

_
−1 _
t
f
0
φφφ(τ)y(τ) dτ (12.17)
Para demostrar que la expresi´ on (12.17) minimiza el funcional, se debe cal-
cular la segunda derivada (o Hessiano) de J(θθθ), la que debe ser una matriz
positiva definida (ver Ap´endice F). Esto da
H
J
(θθθ) =
d
2
J(θθθ)
dθθθ
2
= 2
_
t
f
0
φφφ(τ)φφφ(τ)
T
dτ (12.18)
Entonces el Hessiano H
J
(θθθ) es positivo definido si el vector φφφ(τ) cumple
algunas condiciones muy poco exigentes
3
en τ ∈ [0; t
f
].
La expresi´ on (12.17) proporciona una forma de construir el modelo, esti-
mando θθθ, una vez que se han acumulado los datos en un lapso [0; t
f
]. Tal como
se ilustr´ o en el Ejemplo 12.1, es posible construir un estimado,
ˆ
θθθ(t), que vaya
evolucionando a medida que se van considerando nuevos datos. Esto aparece
resuelto en el siguiente teorema.
Teorema 12.1. Considere la clase / definida por (12.10), el funcional en
(12.14) y un experimento que permite construir φφφ(τ) para τ ∈ [0; t]. Entonces
el estimador ´ optimo,
ˆ
θθθ(t) se puede obtener a trav´es de
dP(t)
dt
= −P(t)φφφ(t)φφφ(t)
T
P(t) (12.19)
d
ˆ
θθθ(t)
dt
= P(t)φφφ(t)(y(t) −φφφ(t)
ˆ
θθθ(t)) = P(t)φφφ(t)e(t) (12.20)
Demostraci´ on
Definamos previamente la matriz P(t) ∈ R
p·p
de la forma
P(t) =
__
t
0
φφφ(τ)φφφ(τ)
T

_
−1
(12.21)
3
Cuya deducci´ on escapa al marco de este texto.
12.3. MODELADODE SISTEMAS DE TIEMPOCONTINUO. MODELOS LINEALES.329
y la matriz
Q(t) = P(t)
−1
=
_
t
0
φφφ(τ)φφφ(τ)
T
dτ (12.22)
entonces
dP(t)Q(t)
dt
= 0 =
dP(t)
dt
Q(t) +P(t)
dQ(t)
dt
(12.23)
Esto lleva a
dP(t)
dt
= −P(t)
dQ(t)
dt
P(t) = −P(t)φφφ(t)φφφ(t)
T
P(t) (12.24)
donde hemos usado el hecho que
Q(t)
dt
= φφφ(t)φφφ(t)
T
(12.25)
Por otro lado, al usar (12.17)
ˆ
θθθ(t) = P(t)
_
t
f
0
φφφ(τ)y(τ) dτ (12.26)
con lo cual, al derivar se obtiene
d
ˆ
θθθ
dt
=
dP(t)
dt
_
t
f
0
φφφ(τ)y(τ) dτ +P(t)φφφ(t)y(t) (12.27)
= −P(t)
dQ(t)
dt
P(t)
_
t
f
0
φφφ(τ)y(τ) dτ
. ¸¸ .
ˆ
θ(t)
+P(t)φφφ(t)y(t) (12.28)
lo que lleva a (12.20) al usar (12.25).
El Teorema 12.1 establece un procedimiento a trav´es del cual la estimaci´ on
de los par´ ametros del modelo se va obteniendo a medida que se dispone de nueva
informaci´ on.
12.3. Modelado de sistemas de tiempo continuo.
Modelos lineales.
La teor´ıa desarrollada en la secci´ on precedente se aplica a cualquier clase de
modelos /, con la ´ unica condici´ on que los miembros de esa clase sean lineales
en el vector de par´ ametros, es decir, tengan la forma (12.10). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en
el Ejemplo 12.1. Sin embargo, en esta secci´ on enfocaremos nuestra atenci´ on en
modelos din´ amicos lineales de tiempo continuo. Con este objetivo definiremos
330 CAP
´
ITULO 12. MODELOS
la clase / por la ecuaci´ on diferencial (3.1), la que reproducimos a continuaci´ on
(reemplazando y(t) por y
m
(t)).
d
n
y
m
(t)
dt
n
+a
n−1
d
n−1
y
m
(t)
dt
n−1
+. . .+a
0
y
m
(t) = b
n−1
d
n−1
dt
n−1
u(t)+b
n−2
d
n−2
dt
n−2
u(t)+. . .+b
0
u(t)
(12.29)
Antes de desarrollar la metodolog´ıa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 12.2. La clase / es elegida como en (12.29), con n = 1, es decir
dy
m
(t)
dt
+a
0
y
m
(t) = b
0
u(t) (12.30)
La primera opci´ on para contruir la forma (12.10) en este caso es (note la
sustituci´ on de y
m
(t) por y(t) en el vector φφφ(t))
φφφ(t) =
_
_
t
0
u(τ)dτ −
_
t
0
y(τ)dτ
_
T
(12.31)
θθθ =
_
b
0
a
0
¸
T
(12.32)
Sin embargo, esta forma de selecci´ on del vector de regresi´ on φφφ(t) no es ra-
zonable, porque basta que las se˜ nales tengan un valor medio distinto de cero (por
peque˜ no que sea) para que el vector φφφ(t) crezca sin l´ımites.
Intentaremos otro enfoque, usando el operador de Heaviside (definido en
(3.2). El modelo (12.30) puede ser re-escrito como
0 = (ρ +a
0
)y
m
(t) +b
0
u(t) (12.33)
Supongamos se define un polinomio operador m´ onico estable E(ρ) = ρ + e
0
(e
0
> 0), entonces (12.33) se puede escribir como
0 = −
ρ +a
0
E(ρ)
y
m
(t) +
b
0
E(ρ)
u(t) (12.34)
Sumando y
m
(t) a ambos lados se obtiene
y
m
(t) = y
m
(t) −
ρ +a
0
E(ρ)
y
m
(t) +
b
0
E(ρ)
u(t) = (e
0
−a
0
)
y
m
(t)
E(ρ)
+b
0
u(t)
E(ρ)
(12.35)
As´ı, una elecci´ on natural es
φφφ(t) =
_
u(t)
E(ρ)
y(t)
E(ρ)
_
T
(12.36)
θθθ =
_
b
0
e
0
−a
0
¸
T
(12.37)
Note que hemos reemplazado y
m
(t) por y(t) en el vector de regresi´ on, as´ı el
vector de regresi´ on resulta dependiente s´ olo de los datos de entrada y salida del
sistema a modelar, lo cual es consistente con la idea del m´etodo LSE.
12.3. MODELADODE SISTEMAS DE TIEMPOCONTINUO. MODELOS LINEALES.331
222
El Ejemplo 12.2 permite inducir una metodolog´ıa general.
Definamos
A(ρ) = ρ
n
+a
n−1
ρ
n−1
+. . . a
0
(12.38)
B(ρ) = b
n−1
ρ
n−1
+b
n−2
ρ
n−2
+. . . b
0
(12.39)
E(ρ) = ρ
n
+e
n−1
ρ
n−1
+. . . e
0
(12.40)
donde E(ρ) es un polinomio operador estable.
Entonces el modelo (12.29) se puede escribir como
0 = −
A(ρ)
E(ρ)
y
m
+
B(ρ)
E(ρ)
u(t) (12.41)
Si ahora sumamos y
m
(t) a ambos lados se obtiene
y
m
(t) =
E(ρ) −A(ρ)
E(ρ)
y
m
+
B(ρ)
E(ρ)
u(t) (12.42)
Entonces la elecci´ on de φφφ(t) consistente con el m´etodo LSE es
φφφ(t) =
_
ρ
n−1
u(t)
E(ρ)
ρ
n−2
u(t)
E(ρ)

u(t)
E(ρ)
ρ
n−1
y(t)
E(ρ)
ρ
n−2
y(t)
E(ρ)

y(t)
E(ρ)
_
T
(12.43)
y el vector de par´ ametros es
θθθ =
_
b
n−1
b
n−2
b
0
e
n−1
−a
n−1
e
n−2
−a
n−2
e
0
−a
0
¸
T
(12.44)
Ejemplo 12.3. Supongamos que la clase / es el conjunto de ecuaciones difer-
enciales de tercer orden, lineales y de coeficientes constantes, entonces
φφφ(t) =
_
ρ
2
u(t)
E(ρ)
ρu(t)
E(ρ)
u(t)
E(ρ)
ρ
2
y(t)
E(ρ)
ρy(t)
E(ρ)
y(t)
E(ρ)
_
T
(12.45)
θθθ =
_
b
2
b
1
b
0
e
2
−a
2
e
1
−a
1
e
0
−a
0
¸
T
(12.46)
donde E(ρ) es cualquier polinomio de tercer grado cuyas ra´ıces tenga parte real
menor que cero.
222
332 CAP
´
ITULO 12. MODELOS
12.4. Modelado de sistemas de tiempo discreto.
Teor´ıa b´asica.
La construcci´ on de modelos para sistemas de tiempo continuo es de gran
inter´es conceptual. Sin embargo, la implementaci´ on de las ecuaciones de esa
construcci´ on requiere el uso de una m´ aquina digital, en cuyo caso necesariamente
se debe usar una discretizaci´ on y ello hade de mayor relvancia la construicci´ on
de sistemas de tiempo discreto.
Al igual que en el caso de tiempo continuo, usaremos un ejemplo para motivar
la discusi´ on.
Ejemplo 12.4. Suponga que la clase de modelos elegida, /, est´ a definida por
y
m
[k] = α(u[k])
3
(12.47)
donde u[k] es la entrada del sistema a modelar.
Suponga adem´ as que se realiza un experimento recolector de datos en el sis-
tema a modelar. Como resultado del mismo se obtienen datos
4
de entrada y
salida, u[k] e y[k], en el intervalo [0; N]. Entonces el mejor valor de α, ˆ α, en
(12.47) se puede calcular minimizando un funcional de costo J(α) dado por
J(α) =
N

=1
_
(y[] −α(u[])
3
_
2
(12.48)
entonces
ˆ α = arg m´ın
α∈R
J(α) (12.49)
La minimizaci´ on se realiza derivando J(α) respecto de α y haciendo esa
derivada igual a cero. Esto lleva a
ˆ α =
_
N

=1
(u[])
6
_
−1
N

=1
y[](u[])
3
(12.50)
Note que si el sistema a modelar perteneciese a la clase de modelos elegida,
es decir, si existe α
o
tal que y[k] = α
o
(u[k])
3
, entonces ˆ α = α
o
, siempre que
u[k] ,= 0 en alg´ un lapso no cero en el intervalo [0; N].
La ecuaci´ on (12.50) arroja una estimaci´ on del par´ ametro una vez que se
han recogido los datos. Existe una formulaci´ on alternativa donde ˆ α evoluciona
a medida que se obtienen m´ as datos, tal como se demuestra a continuaci´ on.
Para hacer el tratamiento m´ as simple haremos las siguientes substituciones
p[k] =
_
N

=1
(u[])
6
_
−1
(12.51)
φ[k] = (u[k])
3
(12.52)
4
Note que se trata de datos experimentales de la planta
12.4. MODELADODE SISTEMAS DE TIEMPODISCRETO. TEOR
´
IAB
´
ASICA.333
predicci´ on!errorde
Entonces, si reemplazamos N por k en (12.50) tenemos que
ˆ α[k] = p[k]
k

=1
y[]φ[] (12.53)
Luego, al usar (12.51), se obtiene
p[k] =
p[k −1]
1 +p[k −1]φ[k]
2
= p[k −1] −p[k −1]φ[k]
2
p[k] (12.54)
Combinando (12.7) y (12.8) se obtiene
ˆ α[k] = ˆ α[k −1] +p[k]φ[k] (y[k] − ˆ α[k −1]φ[k])
. ¸¸ .
e[k]
(12.55)
donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo
y la entrada observada de la planta.
Las ecuaciones (12.54) y (12.55) permiten calcular ˆ α[k] en tiempo real, como
se puede verificar en la simulaci´ on implementada en el esquema SIMULINK de
la Figura 12.2. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e[k] en el
oscilloscopio, que ese sistema pertenece a la clase /.
u[k]
y[k]
\phi [k]
p [k]
e [k]
alfa [k]
Antes de empezar la simulación, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes
p [0]
alfa [0]
z
1
z
1
p
alfa
e
SISTEMA
u(1)/(1+u(1)*u(2)^2)
(u(1))^3
Figura 12.2: Estimaci´ on por m´ınimos cuadr´ aticos
Note adem´ as que, para que este programa SIMULINK funcione se debe asig-
nar una condici´ on distinta de cero a p[0] (en el bloque de retardo correspondi-
ente). Se invita al lector a observar el efecto de distintas elecciones para p[0].
En cambio, el valor inicial ˆ α[0] puede ser cualquier valor, incluyendo cero.
334 CAP
´
ITULO 12. MODELOS
regresi´ on!vectorde
regresores
PEM
erroresenlasvariables
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el par´ ametro α. En la primera, dada por la
ecuaci´ on (12.50), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.54) y
(12.55), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuaci´ on el m´etodo general sistemas de tiempo discreto.
La clase de modelos a usar, /, est´ a definida por
y
m
[k] = φφφ
m
[k]
T
θθθ (12.56)
donde φ
m
φ
m
φ
m
[k] es un vector, llamado vector de regresi´ on,. Los elementos de φ
m
φ
m
φ
m
[k]
son conocidos como regresores. Existen tres grandes l´ıneas en la construcci´ on
del vector de regresi´ on, y ellas son las mismas que en el caso continuo:
m´etodos de error de predicci´ on, (PEM) (prediction error methods).
m´etodo de errores en la variables
M´etodo cl´ asico de estimaci´ on por errores cuadr´aticos (LSE)(least
squares errors). Distinguiremos esta elecci´ on de las otras dos reemplazan-
do φφφ
m
[k] por φφφ[k] en la derivaci´ on de las ecuaciones del m´etodo.
Por su parte, el vector θθθ ∈ R
p
contiene los par´ ametros θ
1
, θ
2
, . . . , θ
p
que
distinguen cada elemento en /.
Note que la expresi´ on es bastante general, ya que la ´ unica restricci´ on es que
el modelo sea lineal en los par´ ametros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
y
m
[k] = a
_
u[k] +b u[k] +c cos(u[k]) +d (12.57)
Entonces, el modelo (12.57) puede ser puesto en la forma (12.56) con las
siguientes asociaciones
φφφ[k] = [
_
u[k] u[k] cos(u[k]) 1]
T
(12.58)
θθθ = [a b c d ]
T
(12.59)
Veremos adem´ as en una secci´ on siguiente que (12.56) puede describir sis-
temas din´ amicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de
la clase /, debemos encontrar un estimado ´ optimo,
ˆ
θθθ, para θθθ de modo que se
minimice
J(θθθ) =
N

0
(y[] −φφφ[]
T
θθθ)
2
(12.60)
El producto φφφ[]
T
θθθ corresponde a una estimaci´ on de la salida del sistema a
modelar, utilizando el elemento gen´erico de la clase /. La diferencia y[]−φφφ[]
T
θθθ
12.4. MODELADODE SISTEMAS DE TIEMPODISCRETO. TEOR
´
IAB
´
ASICA.335
predicci´ on!errorde
gradiente
es conocida como el error de predicci´ on (no confundir con los m´etodos PEM). El
m´etodo de estimaci´ on cuadr´ atica permite determinar cual de los elementos de
/ es el que arroja la predicci´ on con menor error cuadr´ atico acumulado. Esto
es equivalente a seleccionar el ´ optimo θθθ.
La minimizaci´ on de (12.60) se hace a trav´es del procedimiento tradicional:
derivando respecto de la inc´ ognita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una funci´ on escalar respecto de un vector, la
derivada corresponde al gradiente ∇
θ
. As´ı el mejor estimado
ˆ
θθθ est´ a dado por
ˆ
θθθ = arg m´ın
θ∈R
p
J(θθθ) (12.61)
El procedimiento descrito lleva a

θ
J(θθθ) =
dJ(θθθ)
d θθθ
= −2
N

=1
φφφ[](y[] −φφφ[]
T
θθθ) (12.62)
Al hacer cero el gradiente se obtiene el estimado
ˆ
θθθ dado por
ˆ
θθθ =
_
N

=1
φφφ[]φφφ[]
T
_
−1
N

=1
φφφ[]y[] (12.63)
Para demostrar que la expresi´ on (12.63) minimiza el funcional, se debe cal-
cular la segunda derivada (o Hessiano) de J(θθθ), la que debe ser una matriz
positiva definida (ver Ap´endice F). Esto da
H
J
(θθθ) =
d
2
J(θθθ)
dθθθ
2
= 2
N

k=1
φφφ[]φφφ[]
T
(12.64)
Entonces el Hessiano H
J
(θθθ) es positivo definido si el vector φφφ[] cumple
algunas condiciones muy poco exigentes
5
en 0 < ≤ N.
La expresi´ on (12.63) proporciona una forma de construir el modelo, esti-
mando θθθ, una vez que se han acumulado los datos en un lapso [0; t
f
]. Tal como
se ilustr´ o en el Ejemplo 12.4, es posible construir un estimado,
ˆ
θθθ[k], que vaya
evolucionando a medida que se van considerando nuevos datos. Esto aparece
resuelto en el siguiente teorema.
Teorema 12.2. Considere la clase / definida por (12.56), el funcional en
(12.60) y un experimento que permite construir φφφ[] para 0 < ≤ N. Entonces
el estimador ´ optimo,
ˆ
θθθ[k] se puede obtener a trav´es de
P[k] = P[k −1] −
P[k −1]φφφ[k]φφφ[k]
T
P[k −1]
1 +φφφ[k]
T
P[k −1]φφφ[k]
(12.65)
ˆ
θθθ[k] =
ˆ
θθθ[k −1] +P[k]φφφ[k](y[k] −φφφ[k]
ˆ
θθθ[k]) = P[k]φφφ[k]e[k] (12.66)
5
Cuya deducci´ on escapa al marco de este texto.
336 CAP
´
ITULO 12. MODELOS
Demostraci´ on
Definamos previamente la matriz P[k] ∈ R
p·p
de la forma
P[k] =
_
k

=1
φφφ[]φφφ[]
T
_
−1
(12.67)
y la matriz
Q[k] = P[k]
−1
=
k

=1
φφφ[]φφφ[]
T
= Q[k −1] +φφφ[k]φφφ[k]
T
(12.68)
entonces podemos aplicar el lema de inversi´ on de matrices para obtener P[k](=
Q[k]
−1
) en funci´ on de P[k −1](= Q[k −1]
−1
), lo cual lleva a (12.65).
Por otro lado, al usar (12.63) se tiene que
P[k]
−1
ˆ
θθθ[k] =
k

=1
φφφ[]y[] (12.69)
P[k −1]
−1
ˆ
θθθ[k −1] =
k−1

=1
φφφ[]y[] (12.70)
lo cual lleva a
ˆ
θθθ[k] = P[k]P[k −1]
−1
ˆ
θθθ[k −1] +P[k]φφφ[]y[] (12.71)
de donde, al usar (12.65), se obtiene (12.66).
222
El Teorema 12.2 establece un procedimiento a trav´es del cual la estimaci´ on
de los par´ ametros del modelo se va obteniendo a medida que se dispone de nueva
informaci´ on.
12.5. Modelado de sistemas de tiempo discreto.
Modelos lineales.
La teor´ıa desarrollada en la secci´ on precedente se aplica a cualquier clase de
modelos /, con la ´ unica condici´ on que los miembros de esa clase sean lineales
en el vector de par´ ametros, es decir, tengan la forma (12.56). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en
el Ejemplo 12.4. Sin embargo, en esta secci´ on enfocaremos nuestra atenci´ on en
modelos din´ amicos lineales de tiempo discreto. Con este objetivo definiremos la
clase / por la ecuaci´ on diferencial (4.1), la que reproducimos a continuaci´ on
(reemplazando y[k] por y
m
[k]).
12.5. MODELADODE SISTEMAS DE TIEMPODISCRETO. MODELOS LINEALES.337
y
m
[k] +a
n−1
y
m
[k −1] +. . . +a
1
y
m
[k −n + 1] +a
0
y
m
[k −n] =
b
m
u[k] +b
m−1
u[k −1] +. . . +b
1
u[k −m+ 1] +b
0
u[k −m] (12.72)
Antes de desarrollar la metodolog´ıa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 12.5. La clase / es elegida como en (12.72), con n = 1, es decir
y
m
[k] +a
0
y
m
[k −1] = b
0
u[k] (12.73)
La primera opci´ on para contruir la forma (12.56) en este caso es (note la
sustituci´ on de y
m
[k] por y[k] en el vector φφφ[k])
φφφ[k] =
_
u[k] −y
m
[k −1]
¸
T
(12.74)
θθθ =
_
b
0
a
0
¸
T
(12.75)
A diferencia del caso de tiempo continuo, esta forma de selecci´ on del vector
de regresi´ on φφφ[k] es razonable y la metodolog´ıa de la secci´ on anterior puede ser
aplicada sin mayores dificultades.
222
El Ejemplo 12.5 permite inducir una metodolog´ıa general, ya que podemos
expresar la ecuaci´ on (12.72) como
y
m
[k] = φφφ[k]
T
θθθ[k] (12.76)
φφφ[k] =
_
u[k] u[k −1] . . . u[k −m] −y
m
[k −1] −y
m
[k −2] . . . −y
m
[k −n]
¸
(12.77)
θθθ[k] =
_
b
m
b
m−1
. . . b
0
a
n−1
a
n−2
. . . a
0
¸
(12.78)
338 CAP
´
ITULO 12. MODELOS
seriedeTaylor
Taylor
Ap´endice A
Series de Taylor
A.1. Serie de Taylor en una variable
Considere una funci´ on g(x), donde x ∈ R y sea x
Q
un valor arbitrario en R,
tal que g(x) es continua en x = x
Q
.
Suponga adem´ as que g(x) es infinitamente diferenciable en x = x
Q
, es decir,
todas las derivadas de g(x) en x = x
Q
son continuas.
Entonces la funci´ on g(x) se puede expandir en serie de potencias de (x−x
Q
),
es decir, admite la siguiente representaci´ on en una serie de Taylor
g(x) = g(x
Q
) +
d x
dt
¸
¸
¸
¸
Q
(x −x
Q
) +
1
2!
d
2
x
dt
2
¸
¸
¸
¸
Q
(x −x
Q
)
2
+
1
3!
d
3
x
dt
3
¸
¸
¸
¸
Q
(x −x
Q
)
3
+. . .
(A.1)
=

i=0
1
i!
d
i
x
dt
i
¸
¸
¸
¸
Q
(x −x
Q
)
i
(A.2)
donde
d
n
x
dt
n
¸
¸
Q
denota la derivada n-´esima de g respecto de x y evaluada en
x = x
Q
.
A partir de esta expansi´ on, podemos construir aproximaciones de primer,
segundo, tercer orden, etc. truncando la serie despu´es de la potencia de primer,
segundo, tercer grado, etc., respectivamente. Por ejemplo, la aproximaci´ on de
primer orden es
ˆ g
1
(x) = k
0
+k
1
(x −x
Q
); k
0
= g(x
Q
); k
1
=
d g
dx
¸
¸
¸
¸
Q
(A.3)
Esta aproximaci´ on de primer orden se puede apreciar gr´ aficamente, como se
muestra en la Figura A.1.
En esta figura m = k
1
=
d g
dx
¸
¸
¸
Q
. Se observa que, en la medida que nos
alejamos del punto de operaci´ on, el error de modelado lineal aumenta.
339
340 AP
´
ENDICE A. SERIES DE TAYLOR
x
Q
g(x
Q
)
g(x)
ˆ g
1
(x)
m
1
x
Figura A.1: Aproximaci´ on de primer orden para funci´ on no lineal de una varia-
ble.
A.2. Serie de Taylor en dos variables
La misma idea resumida en la secci´ on anterior se puede extender al caso de
una funci´ on g(x
1
, x
2
), con x
1
∈ R, x
2
∈ R.
Sea (x
1Q
, x
2Q
) un par arbitrario tal que g(x
1
, x
2
) es continua e infinitamente
diferenciable en x
1
= x
1Q
, x
2
= x
2Q
. Entonces g puede expandirse en serie de
potencias de (x
1
−x
1Q
) y (x
2
−x
1Q
)
g(x
1Q
, y
Q
) +
∂g
∂x
1
¸
¸
¸
¸
Q
(x
1
−x
1Q
) +
∂g
∂x
2
¸
¸
¸
¸
Q
(x
2
−x
2Q
) +
1
2

2
g
∂x
2
1
¸
¸
¸
¸
Q
(x
1
−x
1Q
)
2
+
1
2

2
g
∂x
2
2
¸
¸
¸
¸
Q
(x
2
−x
2Q
)
2
+

2
f
∂x
1
∂x
2
¸
¸
¸
¸
Q
(x
1
−x
1Q
)(x
2
−x
2Q
) +. . . (A.4)
donde el t´ermino general de la expansi´ on es
1
i!j!

i+j
g
∂x
i
1
∂x
j
2
¸
¸
¸
¸
¸
Q
(x
1
−x
1Q
)
i
(x
2
−x
2Q
)
j
(A.5)
En forma an´ aloga al caso de una variable, podemos truncar esta serie para
tener aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la
aproximaci´ on de primer orden est´ a dada por
A.3. EL CASO GENERAL 341
ˆ g
1
(x
1
, x
2
) = k
0
+k
11
(x
1
−x
1Q
) +k
12
(x
2
−x
2Q
) (A.6)
k
0
= g(x
1Q
, x
2Q
) (A.7)
k
11
=
d g
dx
1
¸
¸
¸
¸
Q
(A.8)
k
12
=
d g
dx
2
¸
¸
¸
¸
Q
(A.9)
A.3. El caso general
La idea desarrollada en las dos secciones anteriores se puede generalizar al
caso de una funci´ on g(x
1
, x
2
, . . . , x
n
) con x
1
∈ R, x
2
∈ R, . . ., x
n
∈ R.
Sea (x
1Q
, x
2Q
, . . . , x
nQ
) una n-tupla tal que g(x
1
, x
2
, . . . , x
n
) es continua e
infinitamente diferenciable en x
1
= x
1Q
, x
2
= x
2Q
, . . ., x
n
= x
nQ
. Entonces la
expansi´ on en serie de Taylor est´ a dada por
g(x
1
, x
2
, . . . , x
n
) = g(x
1Q
, x
2Q
, . . . , x
nQ
)
+

i
1
,i
2
,...,i
n
=0
1
i
1
!i
2
! i
n
!

n
i
g

i
1
x
1

i
2
x
2

i
n
x
n
¸
¸
¸
¸
Q
(x
1
−x
1Q
)
i
1
(x
2
−x
2Q
)
i
2
. . . (x
n
−x
nQ
)
i
n
(A.10)
donde n
i
= i
1
+i
2
+. . . +i
n
.
La aproximaci´ on de primer orden, por truncamiento de la serie es entonces
ˆ g
1
(x
1
, x
2
, . . . , x
n
) = k
0
+
n

i=1
k
1i
(x
i
−x
iQ
) (A.11)
k
0
= g(x
1Q
, x
2Q
, . . . , x
nQ
) (A.12)
k
1i
=
d g
dx
i
¸
¸
¸
¸
Q
(A.13)
(A.14)
Es importante se˜ nalar que los desarrollos precedentes siguen siendo v´ alidos
aunque las variable x
1
, x
2
, . . ., x
n
sean funciones de una variable temporal u
otra variable independiente.
A.4. Algunas reglas pr´acticas para la expansi´ on
en serie
La teor´ıa general precedente permite construir algunas reglas b´ asicas para
expandir funciones complicadas en serie de potencias.
342 AP
´
ENDICE A. SERIES DE TAYLOR
R1 Considere las funciones no lineales g(x) y h(x) y un punto de operaci´ on
com´ un dado por x
Q
, entonces las aproximaciones de primer orden para
las funciones que se indican son
[R1,1] ˆ g
1
(x) = g(x
Q
) +
d g(x)
dx
¸
¸
¸
¸
Q
(x −x
Q
)
[R1,2]
ˆ
h
1
(x) = h(x
Q
) +
d h(x)
dx
¸
¸
¸
¸
Q
(x −x
Q
)
[R1,3]

g(x) +h(x)
1
= g(x
Q
) +h(x
Q
) +
_
d g(x)
dx
¸
¸
¸
¸
Q
+
d h(x)
dx
¸
¸
¸
¸
Q
_
(x −x
Q
)
[R1,4]

g(x)h(x)
1
= g(x
Q
)h(x
Q
) +
_
h(x
Q
)
d g(x)
dx
¸
¸
¸
¸
Q
+g(x
Q
)
d h(x)
dx
¸
¸
¸
¸
Q
_
(x −x
Q
)
R2 La aproximaci´ on de primer orden de g(x) =
d

x(t)
dt

en torno al punto de
operaci´ on x = x
Q
, g(x
Q
) = 0 es
ˆ g
1
(x) =
d

(x(t) −x
Q
)
dt

(A.15)
R3 La aproximaci´ on de primer orden de g(x) =
_
d

x(t)
dt

_
k
, k > 1 en torno al
punto de operaci´ on x = x
Q
,
_
d

x(t)
dt

_
k−1
= 0 es
ˆ g
1
(x) = 0 (A.16)
Ap´endice B
Bases matem´aticas para las
Series de Fourier
B.1. Espacios vectoriales y bases ortogonales
En esta secci´ on se revisan los conceptos b´ asicos de los espacios vectoriales,
incluyendo definiciones y propiedades. Se introducen adem´ as las ideas de ortog-
onalidad y bases, ideas matem´ aticas abstractas de mucha utilidad para funda-
mentar el an´ alisis mediante series de Fourier y otros t´ opicos dentro de la teor´ıa
de sistemas como es, por ejemplo, la construcci´ on de modelos y la estimaci´ on
de se˜ nales utilizando el enfoque de m´ınimos cuadrados.
Definici´ on B.1. Un espacio vectorial 1 es un conjunto de objetos v
1
, v
2
, . . .
, llamados vectores, donde se definen dos operaciones: suma de dos vectores,
y multiplicaci´ on por un escalar y que satisfacen las siguientes propiedades:
1. Si v
i
∈ 1 y v
j
∈ 1, entonces v
i
+v
j
∈ 1
2. Si v
i
∈ 1 y v
j
∈ 1, entonces v
i
+v
j
= v
j
+v
i
3. Si v
i
, v
j
, v
k
son vectores cualesquiera de 1, entonces v
i
+ (v
j
+ v
k
) =
(v
i
+v
j
) +v
k
4. Existe un vector

0 ∈ 1, tal que para todo v
i
∈ 1 se cumple v
i
+

0 = v
i
5. Para cada v
i
∈ 1 existe un vector −v
i
∈ 1, tal que v
i
+ (−v
i
) =

0
6. Si v
i
∈ 1 y α es un escalar, entonces αv
i
∈ 1
7. Si v
i
y v
j
est´ an en 1 y α es un escalar, entonces α(v
i
+v
j
) = αv
i
+αv
j
8. Si α y β son escalares y v
i
∈ 1, entonces (α +β)v
i
= αv
i
+βv
i
343
344AP
´
ENDICE B. BASES MATEM
´
ATICAS PARALAS SERIES DE FOURIER
9. Si α y β son escalares y v
i
∈ 1, entonces α(βv
i
) = (αβ)v
i
10. Existe el escalar 1 tal que 1v
i
= v
i
, para todo v
i
∈ 1
Existe un sinn´ umero de conjuntos de elementos que son ejemplo de espa-
cios vectoriales, de entre los cuales se deja al lector verificar que los siguientes
cumplen las propiedades reci´en enumeradas:
El espacio R
n
en que los escalares son n´ umeros reales,
El espacio C
n
en que los escalares pueden ser n´ umeros reales o bien com-
plejos,
El conjunto de funciones reales seccionalmente continuas
1
en un intervalo
[a, b], en que los escalares son n´ umeros reales.
Definici´ on B.2. Dado un conjunto de vectores ( = ¦v
1
, . . . , v
n
¦ ⊆ 1, diremos
que el espacio generado por (, es el conjunto de todos los vectores de la
forma:
v = α
1
v
1
+. . . +α
n
v
n
Es decir, v es una combinaci´ on lineal de v
1
, . . . , v
n
.
Se deja al lector probar que el subespacio generado por el subconjunto de
vectores ( ⊆ 1 tambi´en cumple las propiedades de un espacio vectorial.
Definici´ on B.3. Un conjunto de vectores v
1
, . . . , v
n
se dice linealmente in-
dependiente, si la ecuaci´ on:
α
1
v
1
+. . . +α
n
v
n
= 0
se cumple s´ olo para los escalares α
1
= α
2
= . . . = α
n
= 0. En caso contrario
se dice que los vectores son linealmente dependientes.
La independencia lineal en un conjunto de vectores es una propiedad muy
importante pues nos permite afirmar que ninguno de los vectores del conjun-
to puede expresarse como una combinaci´ on lineal de los dem´ as vectores. Esta
demostraci´ on se deja al lector.
Definici´ on B.4. Dado un espacio vectorial 1, diremos que un conjunto de
vectores B = ¦v
1
, . . . , v
n
¦ es base de 1 si:
1. ¦v
1
, . . . , v
n
¦ es linealmente independiente, y
1
Es decir, que poseen a lo m´ as un n´ umero finito de puntos de discontinuidad.
B.1. ESPACIOS VECTORIALES Y BASES ORTOGONALES 345
norma
normainducida
desigualdadtriangular
distancia
\’anguloentrevectores
2. ¦v
1
, . . . , v
n
¦ genera todo el espacio 1.
En este caso diremos que el espacio vectorial 1 tiene dimensi´ on igual a
n. Por ejemplo, el espacio de vectores en el plano tiene dimensi´ on n = 2, en
el espacio n = 3, mientras que existen otros espacios como por ejemplo el de
funciones que pueden tener dimensi´ on infinita.
Definici´ on B.5. Dados dos vectores cualesquiera v
i
y v
j
en un espacio vectorial
1 con escalares en C, entonces diremos que ¸v
i
, v
j
) es un producto interno,
producto escalar o producto punto si cumple las siguientes propiedades:
1. ¸v
i
, v
j
) es un escalar
2. ¸v
i
, αv
j
+βv
k
) = α¸v
i
, v
j
) +β¸v
i
, v
k
)
3. ¸v
i
, v
i
) > 0 si v
i
,=

0
4. ¸v
i
, v
j
) = ¸v
j
, v
i
)

, en que ()

denota el complejo conjugado de ()
Este producto adem´ as induce una norma en el espacio vectorial 1:
_
_
v
i
_
_
=
_
¸v
i
, v
i
)
Recordamos que una norma se define como sigue:
Definici´ on B.6. Una norma
_
_

_
_
en un espacio vectorial es una funci´ on que
va del espacio 1 a R que cumple con :
1.
_
_
v
i
_
_
≥ 0 y
_
_
v
i
_
_
= 0 si y s´ olo si v
i
=

0
2.
_
_
αv
i
_
_
= [α[
_
_
v
i
_
_
en que [α[ es el valor absoluto o m´ odulo del escalar α
3.
_
_
v
i
+v
j
_
_

_
_
v
i
_
_
+
_
_
v
i
_
_
( desigualdad triangular) .
Con la norma inducida de esta forma con el producto interno en el espacio
vectorial podemos introducir la idea de distancia entre dos vectores:
d(v
i
, v
j
) =
_
_
v
i
−v
j
_
_
Definici´ on B.7. Un espacio vectorial donde se ha definido una norma, es decir,
se tiene una medida de distancia y longitud se denomina espacio euclideano
Adem´ as puede definirse el coseno del ´angulo entre dos vectores como
cos ∠(v
i
, v
j
) =
¸v
i
, v
j
)
_
_
v
i
_
_
_
_
v
j
_
_
346AP
´
ENDICE B. BASES MATEM
´
ATICAS PARALAS SERIES DE FOURIER
Definici´ on B.8. De la definici´ on del ´ angulo entre dos vectores es claro que
podemos decir que dos vectores son ortogonales bajo el producto interno ¸◦, ◦),
si este producto es igual a cero. Es decir:
v
i
⊥v
j
⇔¸v
i
, v
j
) = 0
Lema B.1. Supongamos un espacio vectorial 1 de dimension n, en que se tiene
una base de vectores:
B = ¦v
1
, v
2
, . . . , v
n
¦ (B.1)
Si los vectores de la base B son ortogonales entre si bajo un producto in-
terno ¸◦, ◦), es decir:
¸v
i
, v
j
) =
_
0 ; si i ,= j
> 0 ; si i = j
(B.2)
Entonces, un vector arbitrario u ∈ 1 se representa como una combinaci´ on
lineal de los vectores de la base B de la forma:
u = α
1
v
1

2
v
2
+. . . +α
n
v
n
(B.3)
en que cada coeficiente se calcula:
α
i
=
¸v
i
, u)
¸v
i
, v
i
)
(B.4)
Demostraci´ on
La representaci´ on (B.3) se deduce de inmediato del hecho de tener un con-
junto de n vectores linealmente independientes en un espacio vectorial 1 de
dimensi´ on n. Lo central que nos ata˜ ne en este caso es el c´ alculo de los coefi-
cientes (B.4).
Tomemos la ecuaci´ on (B.3), y apliqu´emosle producto interno con alguno de
los vectores de la base (B.1):
¸v
i
, u) = ¸v
i
, α
1
v
1

2
v
2
+. . . +α
n
v
n
) (B.5)
Si aplicamos la linealidad del producto interno
¸v
i
, u) = α
1
¸v
i
, v
1
) +α
2
¸v
i
, v
2
) +. . . +α
n
¸v
i
, v
n
) (B.6)
Y dada la ortogonalidad del conjunto B, los productos de la derecha son cero a
excepci´ on del que coinciden los ´ındices i :
¸u, v
i
) = α
i
¸v
i
, v
i
) (B.7)
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 347
De donde se demuestra el resultado (B.4). 222
Lema B.2. Desigualdad de Cauchy-Schwartz
Si v
i
y v
j
son dos vectores arbitrarios en un espacio euclideano, es decir, un
espacio vectorial con norma inducida por un producto interno, entonces
¸v
i
, v
j
)
2
≤ ¸v
i
, v
i
) ¸v
j
, v
j
) (B.8)
Demostraci´ on
Primero se observa que esta desigualdad es inmediata si cualquiera de los
vectores, v
i
o v
j
, es el vector cero. As´ı es suficiente considerar el caso en ambos
son no nulos.
Consideremos un vector (αv
i
−βv
j
), cuya norma es no negativa
0 ≤ ¸(αv
i
−βv
j
), (αv
i
−βv
j
)) (B.9)
= α
2
¸v
i
, v
i
) −2αβ¸v
i
, v
j
) +β
2
¸v
j
, v
j
) (B.10)
De donde
2αβ¸v
i
, v
j
) ≤ α
2
¸v
i
, v
i
) +β
2
¸v
j
, v
j
) (B.11)
Ahora, si tomamos α =
_
¸v
j
, v
j
) y β =
_
¸v
i
, v
i
) entonces
2

¸v
j
, v
j
)

¸v
i
, v
i
)¸v
i
, v
j
) ≤ 2¸v
i
, v
i
)¸v
j
, v
j
) (B.12)
¸v
i
, v
j
) ≤

¸v
j
, v
j
)

¸v
i
, v
i
) (B.13)
Donde elevando al cuadrado se tiene la desigualdad a demostrar.
222
B.2. Convergencia de las Series de Fourier
B.2.1. Convergencia de sucesiones y series
A continuaci´ on se hace un breve repaso sobre convergencia de sucesiones y
series de funciones.
Definici´ on B.9. Se dice que una sucesi´ on de funciones ¦f
k
(x)¦ de funciones,
cada una definida en un intervalo I = [a, b], converge (puntualmente) en I, si
l´ım
k→∞
f
k
(x
0
) existe ∀x
0
∈ I (B.14)
348AP
´
ENDICE B. BASES MATEM
´
ATICAS PARALAS SERIES DE FOURIER
Definici´ on B.10. Se dice que una sucesi´ on ¦f
k
(x)¦ de funciones, definidas en
un intervalo I = [a, b], converge uniformemente a una funci´ on f(x) en el
intervalo I si
∀ε > 0 ∃ K > 0 tal que k > K ⇒ [f(x) −f
k
(x)[ < ε ∀ a ≤ x ≤ b (B.15)
Estas dos definiciones sobre la convergencia de sucesiones son aplicables to-
talmente a series de funciones, ya que estas ´ ultimas no son m´ as que sucesiones
de sumas parciales. Es decir, si se tiene una serie de funciones de la forma
S(x) =

n=1
f
n
(x) (B.16)
Sus propiedades de convergencia est´ an dadas por la convergencia de la suce-
si´ on ¦S
k
(x)¦, que es la suma parcial k-´esima
S
k
(x) =
k

n=1
f
n
(x) (B.17)
Definici´ on B.11. Se dice que una serie de funciones
S(x) =

n=1
f
n
(x) (B.18)
converge absolutamente si la serie de los valores absolutos de su t´ermino
general converge, es decir, si

n=1
[f
n
(x)[ (B.19)
converge. Note que por comparaci´ on de los t´erminos generales, si una serie
converge absolutamente, entonces tambi´en converge en el sentido usual
2
Lema B.3. M-Test de Weiertrass
Si tenemos una serie convergente de n´ umeros reales positivos

k=1
M
k
(B.20)
Y una serie de funciones en un intervalo I = [a, b]

k=1
f
k
(x) (B.21)
2
Sentido usual significa que la serie (B.18) converge
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 349
Tales que
[f
k
(x)[ ≤ M
k
(B.22)
Para cada k y para cada x ∈ I , entonces la serie de funciones


k=1
f
k
(x)
converge uniforme y absolutamente en el intervalo I.
Demostraci´ on
Por comparaci´ on entre los t´erminos de la serie num´erica y la de funciones, se
sigue que para cada x
0
en el intervalo I, la serie converge absolutamente. As´ı la
serie converge puntualmente a una funci´ on l´ımite f(x) en a ≤ x ≤ b. Ahora
¸
¸
¸
¸
¸
f(x) −
n

k=1
f
k
(x)
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸

k=n+1
f
k
(x)
¸
¸
¸
¸
¸
(B.23)

k=n+1
[f
k
(x)[ (B.24)

k=n+1
M
k
(B.25)
=

k=1
M
k

n

k=1
M
k
(B.26)
Donde en el lado derecho la expresi´ on tiende a cero cuando n →∞. Ya que
esta convergencia no depende del x que se elija en I, es uniforme.
B.2.2. Convergencia de las Series de Fourier
Para estudiar la convergencia de la serie de Fourier de una funci´ on, a con-
tinuaci´ on se desarrollan algunos lemas que permiten determinar que la norma
del vector de error e
n
(t) = y(t) − y
n
(t) tiende asint´ oticamente a cero, cuando
n →∞.
Lema B.4. Desigualdad de Parseval
Si y(t) es una funci´ on per´ı´ odica y A
0
, A
1
, ...A
n
y B
1
, ...B
n
son (algunos de
los) coeficientes de su representaci´ on en serie de Fourier entonces
1
T
_ T
2

T
2
y
2
(t)dt ≥ A
2
0
+
1
2
n

k=1
_
A
2
k
+B
2
k
_
(B.27)
Demostraci´ on
La norma al cuadrado del error que se comete, que se representa en la figura
5.8 a la derecha, es:
350AP
´
ENDICE B. BASES MATEM
´
ATICAS PARALAS SERIES DE FOURIER
_
_
e
n
(t)
_
_
2
= ¸e
n
(t), e
n
(t)) (B.28)
= ¸e
n
(t), y(t) −y
n
(t)) (B.29)
= ¸e
n
(t), y(t)) −¸e
n
(t), y
n
(t)) (B.30)
Pero seg´ un (5.37) el segundo t´ermino es cero, y usando (5.38)
_
_
e
n
(t)
_
_
2
= ¸e
n
(t), y(t)) (B.31)
= ¸y(t), y(t)) −¸y
n
(t), y(t)) (B.32)
=
_
_
y(t)
_
_
2

_
n

k=1
α
k
f
k
(t), y(t)
_
(B.33)
=
_
_
y(t)
_
_
2

n

k=1
α
k
¸f
k
(t), y(t)) (B.34)
que puede reescribirse como
_
_
e
n
(t)
_
_
2
=
_
_
y(t)
_
_
2

n

k=1
α
2
k
_
_
f
k
(t)
_
_
2
(B.35)
Si recordamos que la norma siempre es positiva o cero y se expresa mediante
integrales, y si calculamos la norma cuadr´ atica de cada f
k
(t) de la base (5.23)
obtenemos
_ T
2

T
2
e
2
n
(t)dt =
_ T
2

T
2
y
2
(t)dt −
_
A
2
0
T +
n

k=1
_
A
2
k

T
2
+B
2
k

T
2
_
_
≥ 0 (B.36)
Con esto se obtiene la desigualdad de Parseval:
1
T
_ T
2

T
2
y
2
(t)dt ≥ A
2
0
+
1
2
n

k=1
_
A
2
k
+B
2
k
_
(B.37)
222
Corollario B.1. De la ecuaci´ on (B.27), se deduce adem´ as que
l´ım
k→∞
A
k
= l´ım
k→∞
2
T
_ T
2

T
2
y(t) cos(kω
0
t)dt = 0 (B.38)
l´ım
k→∞
B
k
= l´ım
k→∞
2
T
_ T
2

T
2
y(t) sen(kω
0
t)dt = 0 (B.39)
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 351
Demostraci´ on
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo
existe, entonces la serie del lado derecho, cuyo t´ermino general es no-negativo,
est´ a acotada superiormente. Esto permite afirmar que converge, lo que a su
vez implica que el t´ermino general se hace cero cuando n → ∞, por tanto, los
coeficientes A
k
y B
k
se hacen cero cuando k →∞. 222
Lema B.5. La aproximaci´ on o serie de Fourier truncada y
n
(t) de una funci´ on
peri´ odica y(t) de per´ıodo T, puede escribirse como
y
n
(t) =
2
T
_ T
2

T
2
y(t +s)
sen(ω
0
(n +
1
2
)s)
2 sen
_
ω
0
2
s
_ ds ; ω
0
=

T
(B.40)
Demostraci´ on
La aproximaci´ on n-´esima puede escribirse utilizando las ecuaciones (5.27)
y
n
(t) = A
0
+
n

k=1
[A
k
cos(kω
0
t) +B
k
sen(kω
0
t)] (B.41)
=
1
T
_ T
2

T
2
y(τ)dτ (B.42)
+
n

k=1
_
cos(kω
0
t)
2
T
_ T
2

T
2
y(τ) cos(kω
0
τ)dτ + sen(kω
0
t)
2
T
_ T
2

T
2
y(τ) sen(kω
0
τ)dτ
_
(B.43)
=
2
T
_ T
2

T
2
y(τ)
_
1
2
+
n

k=1
¦cos(kω
0
t) cos(kω
0
τ) + sen(kω
0
t) sen(kω
0
τ)¦
_

(B.44)
=
2
T
_ T
2

T
2
y(τ)
_
1
2
+
n

k=1
cos(kω
0
(τ −t))
_
dτ (B.45)
Pero se puede utilizar la siguiente identidad trigonom´etrica
sen
__
k +
1
2
_
ω
0
s
_
−sen
__
k −
1
2
_
ω
0
s
_
= 2 sen
_
ω
0
s
2
_
cos (kω
0
s) (B.46)
Y si se hace la suma desde 1 hasta n, obtenemos
sen
__
n +
1
2
_
ω
0
s
_
−sen
_
ω
0
s
2
_
= 2 sen
_
ω
0
s
2
_
n

k=1
cos (kω
0
s) (B.47)
352AP
´
ENDICE B. BASES MATEM
´
ATICAS PARALAS SERIES DE FOURIER
O bien,
1
2
+
n

k=1
cos (kω
0
s) =
sen
__
n +
1
2
_
ω
0
s
_
2 sen
_
1
2
ω
0
s
_ (B.48)
Reemplazando en la integral se obtiene
y
n
(t) =
2
T
_ T
2

T
2
y(τ)
sen
__
n +
1
2
_
ω
0
(τ −t)
_
2 sen
_
ω
0
2
(τ −t)
_ dτ (B.49)
Si se considera t fijo y se hace el cambio s = τ −t se obtiene
y
n
(t) =
2
T
_ T
2
−t

T
2
−t
y(t +s)
sen
__
n +
1
2
_
ω
0
s
_
2 sen
_
ω
0
2
s
_ ds (B.50)
En esta expresi´ on, si la funci´ on y(t) tiene per´ıodo T, entonces puede probarse
que la funci´ on en el integrando tambi´en es peri´ odica en s, con per´ıodo T. Esto
se deja como ejercicio al lector. Por lo tanto la integral puede calcularse en
cualquier intervalo de longitud T, en particular, en [−
T
2
,
T
2
].
222
Lema B.6. Convergencia puntual.
Supongamos que y(t) es una funci´ on peri´ odica en (−∞, ∞), de per´ıodo T,
entonces para cada t
0
se cumple que
l´ım
n→∞
y
n
(t
0
) =
y(t
+
0
) +y(t

0
)
2
(B.51)
En que y(t
+
0
) e y(t

0
) son los l´ımites por la derecha y por la izquierda de y(t)
en t
0
.
Demostraci´ on
Primero, y como resultado previo, observemos que si integramos a ambos
lados de la ecuaci´ on (B.48), obtenemos
_ T
2

T
2
sen
__
n +
1
2
_
ω
0
s
_
2 sen
_
1
2
ω
0
s
_ =
T
2
(B.52)
Ahora definamos la funci´ on
g(t) =
y(t
+
) +y(t

)
2
(B.53)
Esta coincide con y(t) s´ olo en sus puntos de continuidad y adem´ as hereda
su periodicidad. Podemos observar tambi´en que si t
0
es una discontinuidad de
y(t), lo es tambi´en de g(t) y
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 353
g(t
0
) =
y(t
+
0
) +y(t

0
)
2
=
g(t
+
0
) +g(t

0
)
2
(B.54)
Consideremos lo que sucede con el error e
n
(t
0
), entre g(t) y su representaci´ on
en serie de Fourier, a medida que n tiende a infinito. Si usamos la igualdad reci´en
mencionada y la expresi´ on (B.40) para la n-´esima suma parcial, el error puede
escribirse
e
n
(t
0
) = g(t
0
) −g
n
(t
0
) (B.55)
=
2
T
_ T
2

T
2
g(t
0
)
sen(ω
0
(n +
1
2
)s)
2 sen
_
ω
0
2
s
_ ds −
2
T
_ T
2

T
2
g(t
0
+s)
sen(ω
0
(n +
1
2
)s)
2 sen
_
ω
0
2
s
_ ds
(B.56)
=
2
T
_ T
2

T
2
[g(t
0
) −g(t
0
+s)]
sen(ω
0
(n +
1
2
)s)
2 sen
_
ω
0
2
s
_ ds (B.57)
=
2
T
_ T
2

T
2
_
g(t
0
) −g(t
0
+s)
1
2
ω
0
s
1
2
ω
0
s
sen
_
1
2
ω
0
s
_
_
sen
_
ω
0
_
n +
1
2
_
s
_
ds
(B.58)
La expresi´ on entre corchetes dentro de la integral es seccionalmente continua
en el intervalo [−
T
2
,
T
2
], siempre y cuando t
0
sea un punto de continuidad de g(t),
lo que permite afirmar que el primer cuociente de la expresi´ on entre corchetes
se transforma en la derivada cuando s →0. En estos puntos, usando la ecuaci´ on
(B.39), se deduce que
l´ım
n→∞
e
n
(t
0
) = 0 (B.59)
O, lo que es lo mismo,
l´ım
n→∞
g
n
(t
0
) = g(t
0
) =
g(t
+
0
) +g(t

0
)
2
(B.60)
Ya que, en este caso t
0
se ha supuesto un punto de continuidad, es decir,
g(t
+
0
) = g(t

0
) = g(t
0
).
En aquellos puntos (finitos) de discontinuidad de g(t), podemos definir la
funci´ on
G(t) = g(t +t
0
) −g(t
0
) (B.61)
Si separamos esta funci´ on en sus partes par e impar
354AP
´
ENDICE B. BASES MATEM
´
ATICAS PARALAS SERIES DE FOURIER
G
par
(t) =
G(t) +G(−t)
2
(B.62)
=
g(t +t
0
) +g(−t +t
0
) −2g(t
0
)
2
(B.63)
G
impar
(t) =
G(t) −G(−t)
2
(B.64)
=
g(t +t
0
) −g(−t +t
0
)
2
(B.65)
La serie de Fourier de G
impar
(t) converge a cero en t = 0, pues es una
serie senoidal. Mientras que G
par
(t) es continua en t = 0 (cuya prueba se deja
al lector), por tanto su serie de Fourier converge a G
par
(0) = G(0). Con esto
podemos afirmar que la serie de Fourier de G(t) converge a cero en t = 0 y en
consecuencia
l´ım
n→∞
G
n
(0) = 0 =⇒ l´ım
n→∞
g
n
(t
0
) = g(t
0
) (B.66)
Es decir, la serie de Fourier de g(t) en t = t
0
converge a g(t
0
), tambi´en en el
caso de los puntos de discontinuidad.
Ahora dada la definici´ on de g(t) en (B.53), su expresi´ on en serie de Fourier
coincide con la de y(t), por tanto la convergencia puntual debe ser la misma.
En consecuencia, el lema queda demostrado.
222
Lema B.7. Convergencia uniforme
Supongamos que y(t) es una funci´ on continua en (−∞, ∞), de per´ıodo T,
cuya primera derivada y
t
(t) es seccionalmente continua. Entonces, su serie de
Fourier converge uniformemente a y(t) en cualquier intervalo [a, b]. Es decir,
∀ε > 0 ∃N > 0 ; n > N ⇒ [y(t) −y
n
(t)[ < ε ∀t ∈ [a, b] (B.67)
Demostraci´ on
Sean
A
0
+

n=1
[A
n
cos(nω
0
t) +B
n
sen(nω
0
t)] (B.68)
A
t
0
+

n=1
[A
t
n
cos(nω
0
t) +B
t
n
sen(nω
0
t)] (B.69)
Las series de Fourier de y(t) e y
t
(t), respectivamente. Entonces, dada la
periodicidad de y(t), tenemos que
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 355
A
t
0
=
1
T
_ T
2

T
2
y
t
(t)dt (B.70)
=
1
T
[y(T/2) −y(−T/2)] (B.71)
= 0 (B.72)
Mientras que para n > 0 tenemos
A
t
n
=
2
T
_ T
2

T
2
y
t
(t) cos(nω
0
t)dt (B.73)
=
2
T
_
y(t) cos(nω
0
t)
¸
¸
¸
T
2

T
2
+nω
0
_ T
2

T
2
y(t) sen(nω
0
t)dt
_
(B.74)
= nω
0
2
T
_ T
2

T
2
y(t) sen(nω
0
t)dt (B.75)
= nω
0
B
n
(B.76)
B
t
n
=
2
T
_ T
2

T
2
y
t
(t) sen(nω
0
t)dt (B.77)
=
2
T
_
y(t) sen(nω
0
t)
¸
¸
¸
T
2

T
2
−nω
0
_ T
2

T
2
y(t) cos(nω
0
t)dt
_
(B.78)
= −nω
0
2
T
_ T
2

T
2
y(t) sen(nω
0
t)dt (B.79)
= −nω
0
A
n
(B.80)
Utilizando la desigualdad de Parseval (B.27), podemos afirmar que

n=1
_
A
t
n
2
+B
t
n
2
_
=

n=1
_

0
_
A
n
2
+B
n
2
_
2
(B.81)

1
T
_ T
2

T
2
y
t
(t)
2
dt < ∞ (B.82)
Si se observa el t´ermino general ¦nω
0
_
A
2
n
+B
2
n
¦ de la segunda serie, se
aprecia que pertenece al conjuto de todas las sucesiones “cuadrado sumables”,
al igual que la sucesi´ on ¦1/(nω
0
)¦. En ambas sucesiones n = 1, 2, . . . . En con-
secuencia el producto de estas sucesiones tambi´en es “cuadrado sumable”, por
tanto

n=1
_
1

0

0
_
A
n
2
+B
n
2
_
=

n=1
_
A
n
2
+B
n
2
(B.83)
356AP
´
ENDICE B. BASES MATEM
´
ATICAS PARALAS SERIES DE FOURIER
Tambi´en converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.8)
[¸(A
n
, B
n
); (cos(nω
0
t), sen(nω
0
t)))[ ≤ |(A
n
, B
n
)| |(cos(nω
0
t), sen(nω
0
t))|
(B.84)
A
n
cos(nω
0
t) +B
n
sen(nω
0
t) ≤
_
A
n
2
+B
n
2
_
cos
2
(nω
0
t) + sen
2
(nω
0
t)
(B.85)
=
_
A
n
2
+B
n
2
(B.86)
Con esto se puede comparar la serie
[A
0
[ +

n=1
[A
n
cos(nω
0
t) +B
n
sen(nω
0
t)[ (B.87)
con la serie convergente de constantes positivas
[A
0
[ +

n=1
_
A
n
2
+B
n
2
(B.88)
el M-test de Weierstrass (vea el Lema B.3) asegura por tanto que
A
0
+

n=1
[A
n
cos(nω
0
t) +B
n
sen(nω
0
t)] (B.89)
converge uniformemente en cualquier intervalo cerrado. Pero, por el lema de
convergencia puntual antes visto, sabemos que esta serie converge a y(t) punto
a punto.
222
Con los resultados hasta aqu´ı obtenidos estamos en condiciones ya de de-
mostrar que la norma del error que se comete al representar en serie de Fourier
una funci´ on seccionalmente continua tiende asint´ oticamente a cero.
Lema B.8. Sea y(t) una funci´ on definida en (−∞, ∞), de periodo T, seccional-
mente continua y con primera derivada seccionalmente continua. Entonces, si
y
n
(t) es la n-´esima suma parcial de su representaci´ on en serie de Fourier, la
norma del error e
n
(t) = y(t) −y
n
(t) es tal que
l´ım
n→∞
|e
n
(t)| = 0 (B.90)
Demostraci´ on
Es directa de (B.67), ya que si tomamos y(t) en el intervalo [−
T
2
,
T
2
], y
denotamos por ¦t
1
, t
1
, . . . , t
m
¦ los puntos en que y(t) es discontinua dentro
de ´el, entonces, dado un ε > 0, para cada uno de los m + 1 subintervalos
(−
T
2
, t
1
), . . . , (t
k
, t
k+1
), . . . , (t
m
,
T
2
) existe una constante N
k
tal que
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 357
n > N
k
⇒ [y(t) −y
n
(t)[ < ε (B.91)
[e
n
(t)[ < ε ∀t ∈ (t
k
, t
k+1
) (B.92)
Si elegimos N = m´ ax¦N
k
¦
k=1,...,m+1
podemos asegurar que
n > N ⇒ [e
n
(t)[ < ε ∀t ∈ ¦[−
T
2
,
T
2
] −¦t
1
, . . . , t
k+1
¦¦ (B.93)
Por tanto
|e
n
(t)|
2
=
_ T
2

T
2
e
n
2
(t)dt (B.94)
=
_
t
1

T
2
e
n
2
(t)dt +. . . +
_
t
k+1
t
k
e
n
2
(t)dt +. . . +
_ T
2
t
m
e
n
2
(t)
2
dt (B.95)
< ε
2
(t
1
−(−
T
2
)) +. . . +ε
2
(t
k+1
−t
k
) +. . . +ε
2
(
T
2
−t
m
) = ε
2
T
(B.96)
Con esto podemos afirmar, que dado un ε peque˜ no siempre es posible escoger
N suficientemente grando de manera que [e
n
(t)[ < ε

T , y por tanto converge
a cero.
222
Corollario B.2. Identidad de Parseval
Si y(t) es una funci´ on per´ı´ odica y A
0
, A
1
, ...A
n
y B
1
, ...B
n
son los coefi-
cientes de su representaci´ on en serie de Fourier, entonces
1
T
_ T
2

T
2
y
2
(t)dt = A
2
0
+
1
2
n

k=1
_
A
2
k
+B
2
k
_
(B.97)
Demostraci´ on
Es directa de la ecuaci´ on (B.36), donde como consecuencia del lema anterior
(B.90), la norma del error, adem´ as de ser positiva, tiende asint´ oticamente a cero.
Por tanto la desigualdad (B.27) se transforma en la identidad (B.97).
La serie de Fourier es s´ olo una representaci´ on de la funci´ on y(t), en el sentido
que converge al mismo valor que y(t) en los puntos que esta funci´ on es
continua, y en aquellos en que hay discontinuidades o saltos, la serie converge
al promedio de los l´ımites laterales. Note que estas diferencias entre la se˜ nal
y su representaci´ on en serie de Fourier no son detectadas por la funci´ on de
error minimizada, la cual puede de todos modos alcanzar el valor m´ınimo
(cero).
358AP
´
ENDICE B. BASES MATEM
´
ATICAS PARALAS SERIES DE FOURIER
transformadadeFourier
transformadadeFourierinversa
Ap´endice C
La transformaci´ on de
Fourier
C.1. Transformaci´ on de Fourier en tiempo con-
tinuo
C.1.1. Definici´ on de la Transformada
Dada una funci´ on y(t) en el intervalo ] − ∞, ∞[ , su transformada de
Fourier Y ( ω) y su transformada de Fourier inversa quedan definidas por las
ecuaciones
T [y(t)] = Y ( ω) =
_

−∞
y(t)e
− ωt
dt (C.1)
T
−1
[Y ( ω)] = y(t) =
1

_

−∞
Y ( ω)e
 ωt
dω (C.2)
Para que la transformada exista es suficiente que la funci´ on y(t) sea absolu-
tamente integrable en el intervalo −∞< t < ∞, es decir:
_

−∞
¸
¸
y(t)
¸
¸
dt < ∞
Existen funciones que a pesar de no cumplir con esta condici´ on, es posible
calcular su transformada de Fourier.
Veamos a manera de ejemplo c´ omo se puede obtener la transformada de
Fourier del delta de Dirac, a partir de la transformada de un pulso como el del
ejemplo 6.1 (p´ ag. 121).
359
360 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Ejemplo C.1. Consideremos un pulso centrado en el cero, de ancho ∆ y altura
1/∆, es decir, una funci´ on
y

(t) =
_
_
_
1

; [t[ ≤ ∆/2
0 ; [t[ > ∆/2
Esta funci´ on est´ abien definida ∀t ∈] −∞, ∞[, y el ´ area del pulso es unitaria
∀∆ > 0. Su transformada de Fourier por tanto puede obtenerse, en base al
ejemplo 6.1 ya mencionado, o por la definici´ on (C.1) ser´ a
Y

( ω) =
_
∆/2
−∆/2
1

e
− ωt
dt
=
1
− ω∆
_
e
− ω

2
−e
 ω

2
_
=
sen
_
ω∆
2
_
ω∆
2
Puede apreciarse que a medida que ∆ → 0, la funci´ on se transforma en
un pulso mas alto y angosto, siendo esta funci´ on una de las aproximaciones
asint´ oticas del Delta de Dirac, pues es cero en todo instante, excepto t = 0, y
su integral es unitaria. En tanto, su trasnformada de Fourier se hace cada vez
m´ as “plana”. Estas ideas se pueden apreciar en la figura C.1.
0
2
4
6
8
10
12
14
16
–1 –0.8 –0.6 –0.4 –0.2 0.2 0.4 0.6 0.8 1
t
(a) Pulso y

(t)
–0.2
0
0.2
0.4
0.6
0.8
1
–40 –30 –20 –10 10 20 30 40
w
(b) Espectro Y

( ω)
Figura C.1: Pulso y su transformada para ∆ = 1,
1
4
,
1
16
.
Anal´ıticamente tenemos que en el l´ımite, cuando ∆ →0 :
C.1. TRANSFORMACI
´
ON DE FOURIER EN TIEMPO CONTINUO 361
y

(t) −→ δ(t)
↓ ↓
Y

( ω) =
sen(
ω∆
2
)
ω∆
2
−→ Y ( ω) = 1
C.1.2. Propiedades de la Transformada de Fourier
Existen diversas propiedades de la transformada de Fourier que resultan de
mucha utilidad en el an´ alisis frecuencial de se˜ nales y su relaci´ on con los sistemas
lineales, que adem´ as permiten ontener la transformada de Fourier de una funci´ on
a partir de algunas m´ as b´ asicas.
Lema C.1. Simetr´ıa.
Sea y(t) una funci´ on definida ∀t, cuya transformada de Fourier es Y ( ω),
entonces si consideramos la funci´ on Y (t), en el dominio del tiempo ahora, su
transformada de Fourier es
T¦Y (t)¦ = 2πy(− ω) (C.3)
Demostraci´ on
Es directa de reemplazar Y (t) en la definici´ on de la transformada y recor-
dando la ecuaci´ on que define a y(t) como transformada inversa de Y ( ω)
T¦Y (t)¦ =
_

−∞
Y (t)e
− ωt
dt
= 2π
1

_

−∞
Y (t)e
jt(−ω)
dt
= 2πy(− ω)
222
Ejemplo C.2. Consideremos una funci´ on constante y(t) = C. Esta funci´ on
no es absolutamente integrable, sin embargo, su transformada de Fourier puede
obtenerse en base a la transformada del Delta de Dirac:
T ¦y(t)¦ = T ¦C¦
= C T ¦1¦
= C 2πδ(−ω)
= C 2πδ(ω)
Veamos ahora c´ omo se ve afectada la transformada de Fourier de una se˜ nal
cuando esta es desplazada en el tiempo, que puede ser el caso en que existe, por
ejemplo, retardo.
362 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Desplazamientoeneltiempo
Desplazamientoenfrecuencia
Lema C.2. Desplazamiento en el tiempo.
Si tenemos una funci´ on y(t) definida para −∞< t < ∞, cuya transformada
de Fourier es Y ( ω), entonces la transformada de Fourier de y(t −t
0
) es
T¦y(t −t
0
)¦ = e
− ωt
0
Y ( ω) (C.4)
Demostraci´ on
Aplicando la definici´ on de la Transformada de Fourier, para la funci´ on y(t)
desplazada en el tiempo, tenemos que
T¦y(t −t
0
)¦ =
_

−∞
y(t −t
0
)e
− ωt
dt
= e
− ωt
0
_

−∞
y(t −t
0
)e
− ω(t−t
0
)
dt
Donde si se define t

= t −t
0
se puede reescribir la integral como
T¦y(t −t
0
)¦ = e
− ωt
0
_

−∞
y(t

)e
− ωt

dt

= e
− ωt
0
Y ( ω)
222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso
de amplitud A no est´ a centrado en el origen, sino que se ha desplazado a la
derecha, ubic´ andose en el intervalo [0, τ] su transformada de Fourier ser´ a
T¦y
[0,τ]
(t)¦ = e
−jw
τ
2

sen
_
ωτ
2
_
ωτ
2
Si analizamos en qu´e cambia realmente la transformada de Fourier del pulso
al desplazarlo en el tiempo, podemos apreciar que s´ olo el ´ angulo de Y ( ω) es el
que se ve afectado, ya que su m´ odulo permanece invariante. Esto era esperable
ya que la ubicaci´ on del instante t = 0, cuando estamos considerando una funci´ on
definida para −∞ < t < ∞, es arbitraria afectando s´ olo las fases relativas de
sus componentes en frecuencia.
Veamos qu´e pasa en la contraparte del lema de desplazamiento en el tiempo,
pero en el dominio de la frecuencia ω.
Lema C.3. Desplazamiento en la frecuencia.
Si tenemos, al igual que antes, una funci´ on y(t) definida en toda la recta
real, es decir, para −∞ < t < ∞, cuya transformada de Fourier es Y ( ω),
entonces
T¦e
at
y(t)¦ = Y ( ω −a) ; a ∈ C (C.5)
C.1. TRANSFORMACI
´
ON DE FOURIER EN TIEMPO CONTINUO 363
Demostraci´ on
Si aplicamos la definici´ on de la transformada a la funci´ on y(t) multiplicada
por la exponencial peri´ odica e
 ω
0
t
tenemos que
T¦e
at
y(t)¦ =
_

−∞
e
at
y(t)e
− ωt
dt
=
_

−∞
y(t)e
−( ω−a)t
dt
En que se puede definir  ω

=  ω −a
T¦e
at
y(t)¦ =
_

−∞
y(t)e
− ω

t
dt
= Y ( ω

)
= Y ( ω −a)
222
Ejemplo C.4. Con este lema podemos obtener la transformada de Fourier de
una exponencial peri´ odica, considerando en la ecuaci´ on (C.5) a =  ω
0
:
T
_
e
 ω
0
t
_
= T
_
e
 ω
0
t
1
_
= 2πδ( ω − ω
0
)
= 2πδ(ω −ω
0
)
Ya que el delta de Dirac es diferente de cero s´ olo en el punto en que su
argumento es igual a cero.
A partir de esta transformada, utilizando la ecuaci´ on de Euler, se pueden
obtener sin problema la del coseno y del seno:
T ¦cos(ω
0
t)¦ = T
_
e
 ω
0
t
+e
− ω
0
t
2
_
=
1
2
_
T
_
e
− ω
0
t
_
+T
_
e
 ω
0
t

= π [δ(ω +ω
0
) +δ(ω −ω
0
)]
T ¦sin(ω
0
t)¦ = T
_
e
 ω
0
t
−e
− ω
0
t
2j
_
=
−j
2
_
−T
_
e
− ω
0
t
_
+T
_
e
 ω
0
t

= jπ [δ(ω +ω
0
) −δ(ω −ω
0
)]
364 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Este lema tiene importantes aplicaciones en el an´ alisis de se˜ nales que se
modulan en frecuencia y aquellas que son peri´ odicas, como puede apreciarse en
los siguientes corolarios.
Corollario C.1. Modulaci´ on.
Si tenemos una se˜ nal y(t) definida para todo t ∈ R, cuyo espectro (transfor-
mada de Fourier) es Y ( ω), entonces
T¦cos(ω
0
t)y(t)¦ =
1
2
[Y ( ω − ω
0
) +Y ( ω + ω
0
)] (C.6)
Demostraci´ on
Esta es directa del lema anterior utilizando la ecuaci´ on de Euler, es decir,
escribiendo cos(ω
0
t) con exponenciales peri´ odicas. Esto es
T¦cos(ω
0
t)y(t)¦ = T
_
1
2
(e
 ω
0
t
+e
− ω
0
t
)y(t)
_
=
1
2
_
T¦e
 ω
0
t
y(t)¦ +T¦e
− ω
0
t
y(t)¦
_
=
1
2
(Y ( ω − ω
0
) +Y ( ω + ω
0
))
222
Se deja al lector la demostraci´ on del corolario que se obtiene por analog´ıa
en el caso que en vez de cos(ω
0
t) se utiliza sen(ω
0
t).
Ejemplo C.5. En ambos casos de modulaci´ on planteados, cosenoidal y senoidal,
al hacer el producto de una se˜ nal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la se˜ nal. Esto permite llevar, por ejemplo, se˜ nales
de contenido de baja frecuencia (como la voz humana, en la banda de 0−4[kHz]),
a bandas de frecuencia para transmisi´ on radial (por ejemplo 1[MHz]).
Esta idea se muestra en la figura C.2
|F{y(t)cos(2π10
6
t)}|
1[MHz]
4[kHz]
]J¦y(t)]]
Figura C.2: Espectro de una se˜ nal de frecuencias audible y espectro de la se˜ nal
modulada.
Corollario C.2. Funciones Peri´ odicas.
Si tenemos una se˜ nal peri´ odica y
T
(t), en un intervalo de longitud T, esta
no es una funci´ on absolutamente integrable y su transformada de Fourier no
C.1. TRANSFORMACI
´
ON DE FOURIER EN TIEMPO CONTINUO 365
puede obtenerse a trav´es de la definici´ on (C.1). Sin embargo, sabemos ya que
una se˜ nal peri´ odica podemos representarla mediante una Serie de Fourier (rep-
resentaci´ on en el tiempo) ya sea trigonom´etrica o con exponenciales peri´ odicas.
En los desarrollos realizados adem´ as ya hemos encontrado las expresiones para
las transformadas de Fourier de una constante, del coseno, del seno y de una ex-
ponencial peri´ odica, por tanto, la transformada de Fourier de una se´ al peri´ odica
se puede obtener:
T ¦y
T
(t)¦ = T
_

n=−∞
C
n
e
− ω
n
t
_
En que ω
n
= n2π/T, y por linealidad
T ¦y
T
(t)¦ =

n=−∞
C
n
T
_
e
− ω
n
t
_
=

n=−∞
C
n
δ(ω +ω
n
)
Ejemplo C.6. Consideremos el tren de pulsos de la figura C.3 definido por
y(t) =
_
¸
_
¸
_
+1 ; 0 ≤ [t[ ≤
π
2
−1 ;
π
2
< [t[ ≤ π
y(t + 2π) ; [t[ > π
t
−1
1
π −π
y(t)
Figura C.3: Tren de pulsos
La integral del valor absoluto de la funci´ on claramente diverge, y si intenta-
mos obtener la transformada de Fourier de esta funci´ on utilizando la definici´ on
(C.1), llegamos a una expresi´ on dif´ıcil de simplificar. En cambio, la funci´ on y(t)
puede expresarse mediante su serie de Fourier, que en este caso ser´ a cosenoidal,
pues y(t) es par:
366 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
y(t) =

n=1
A
n
cos(nt)
A
n
=
1
π
_
π
−π
y(t) cos(nt)dt
Calculando los coeficientes B
n
, se obtiene
y(t) =

n=1
4

sen
_

2
_
cos(nt)
Luego,
Y ( ω) =

n=1
4
n
sen
_

2
_
[δ(ω +n) +δ(ω −n)]
=

n=−∞
n,=0
4
n
sen
_

2
_
δ(ω +n)
Es decir, los coeficientes A
n
se transforman en las amplitudes de los deltas
de Dirac en el espectro Y ( ω), como se puede apreciar en la figura C.4
–0.4
–0.2
0
0.2
0.4
0.6
0.8
1
1.2
2 4 6 8 10
w
(a) Coeficientes A
n
–0.2
0
0.2
0.4
0.6
–10 –5 5 10
(b) Espectro Y ( ω)
Figura C.4:
Lema C.4. Escalamiento.
Sea y(t) una funci´ on definita para t ∈] − ∞, ∞[, y a una constante real
distinta de cero, entonces
C.1. TRANSFORMACI
´
ON DE FOURIER EN TIEMPO CONTINUO 367
T¦y(at)¦ =
1
[a[
Y (j
ω
a
) (C.7)
Demostraci´ on
Si reemplazamos la funci´ on escalada y(at) en la definici´ on de la integral,
podemos ah´ı definir una nueva variable t

= at, pero se debe tener en cuenta
que el signo de a determina si los l´ımites de la integral se mantienen o se deben
intercambiar:
T¦y(at)¦ =
_

−∞
y(at)e
− ωt
dt
=
_
¸
¸
_
¸
¸
_
_

−∞
y(t

)e
− ω
t

a
dt

a
; si a > 0
_
−∞

y(t

)e
− ω
t

a
dt

a
; si a < 0
Dado que el cambio de orden en los l´ımites de la integral es un cambio de
signo, ambas expresiones pueden juntarse en una sola:
T¦y(at)¦ =
signo(a)
a
_

−∞
y(t

)e
−j
ω
a
t

dt

Que es lo mismo que
T¦y(at)¦ =
1
[a[
Y (j
ω
a
)
222
A partir de este lema puede verificarse directamente que
T¦y(−t)¦ = Y (− ω) (C.8)
A continuaci´ on veamos algunas propiedades de la transformada de Fourier
que tienen directa relaci´ on con la aplicaci´ on de ´esta en la soluci´ on de las ecua-
ciones diferenciales y el an´ alisis de sistemas, que se refieren a la transformada
de la derivada, de la integral y de la convoluci´ on de funciones.
Lema C.5. Derivaci´ on en t.
Sea y(t) una funci´ on definida en toda la recta real talque y(t) → 0 cuando
t →±∞, y cuya transformada de Fourier es Y ( ω) . Entonces, la transformada
de Fourier de la derivada de y(t) con respecto al tiempo es
T
_
d y(t)
dt
_
=  ωY ( ω) (C.9)
368 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Demostraci´ on
Si se aplica la definici´ on de la transformada de Fourier a la derivada
d y(t)
dt
,
y se integra por partes, se obtiene:
T
_
d y(t)
dt
_
=
_

−∞
d y(t)
dt
e
− ωt
dt
=
_
y(t)e
− ωt
¸
¸
¸
¸

−∞
+ ω
_

−∞
y(t)e
− ωt
dt
Y dada la condici´ on asint´ otica sobre y(t) cuando t → ±∞, s´ olo sobrevive el
segundo t´ermino
T
_
d y(t)
dt
_
=  ω
_

−∞
y(t)e
− ωt
dt
=  ωY ( ω)
222
Es importante hacer notar que este lema no garantiza la existencia de la
transformada de la derivada temporal de y(t), sino que, en caso de existir, su
expresi´ on puede obtenerse utilizando (C.9). Para las derivadas de orden supe-
rior en tanto, tenemos el siguiente corolario, que se debe utilizar con la misma
precauci´ on antes mencionada:
Corollario C.3. Derivadas de orden superior
Para una funci´ on y(t) definida como en el lema anterior, tenemos que
T
_
d
n
y(t)
dt
n
_
= ( ω)
n
Y ( ω) (C.10)
Demostraci´ on
Se deja al lector, pues es directa por inducci´ on, aplicando recursivamente el
lema anterior.
222
Lema C.6. Transformada de la integral.
Sea y(t) una funci´ on definida en todos los reales, cuya transformada de
Fourier es Y ( ω). Entonces, la transformada de su integral definida es
T
__
t
−∞
y(τ)dτ
_
=
1
 ω
Y ( ω) +πY (0)δ(ω) (C.11)
C.1. TRANSFORMACI
´
ON DE FOURIER EN TIEMPO CONTINUO 369
Demostraci´ on
Para demostrar esta propiedad debemos en primer lugar observar que si
definimos φ
1
(t) como la integral definida de y(t), entonces
d φ
1
(t)
dt
=
d
dt
__
t
−∞
y(τ)dτ
_
= y(t)
Pero tambi´en se cumple, para cualquier constante real k, que
d
dt

1
(t) +k) = y(t)
Por tanto, aplicando Fourier y la ecuaci´ on (C.9)
 ω (Φ
1
( ω) + 2πkδ(ω)) = Y ( ω)
Luego, ya tenemos una forma para la transformada de la derivada, que es
Φ
1
( ω) =
1
 ω
Y ( ω) −2πkδ(ω) (C.12)
Por tanto nos resta encontrar el valor de k. Para esto consideremos nueva-
mente la integral indefinida φ
1
(t)
φ
1
(t) =
_
t
−∞
y(τ)dτ
=
_

−∞
y(τ)dτ +
_
t

y(τ)dτ
=
_

−∞
y(τ)dτ −
_
−t
−∞
y(−x)dx
Donde se ha cambiando la variable x = −τ , en la segunda integral.
Si definimos
φ
2
(t) =
_
t
−∞
y(−x)dx
⇒ Φ
2
( ω) =
1
 ω
Y (− ω) −2πkδ(ω)
Es su transformada de Fourier, seg´ un la forma (C.12). Entonces podemos
retomar la funci´ on φ
1
(t), y aplicarle transformada de Fourier
370 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
φ
1
(t) =
_

−∞
y(τ)dτ −φ
2
(−t)
Φ
1
( ω) = 2π
__

−∞
y(τ)dτ
_
δ(ω) −Φ
2
(− ω)
1
 ω
Y ( ω) −2πkδ(ω) = 2π
__

−∞
y(τ)dτ
_
δ(ω) −
_
1
− ω
Y ( ω) −2πkδ(ω)
_
Donde si se observa que δ(ω) = δ(−ω), se puede despejar la constante k:
k = −
1
2
_

−∞
y(τ)dτ
= −
1
2
__

−∞
y(τ)e
− ωτ


¸
¸
¸
ω=0
= −
1
2
Y (0)
Por tanto
Φ
1
( ω) =
1
 ω
Y ( ω) +πY (0)δ(ω)
222
Ejemplo C.7. El lema anterior puede utilizarse para obtener la transformada
del escal´ on unitario µ(t) o funci´ on de Heaviside, a partir de la transformada del
delta de Dirac.
Dada la definici´ on del Delta Dirac y de la funci´ on de Heaviside, tenemos que
_
t
−∞
δ(τ)dτ =
_
0 ; t < 0
1 ; t > 0
= µ(t)
Por tanto,
T ¦µ(t)¦ = T
__
t
−∞
δ(τ)dτ
_
=
1
 ω
T ¦δ(t)¦ +πδ(ω) T ¦δ(t)¦[
ω=0
=
1
 ω
+πδ(ω)
C.1. TRANSFORMACI
´
ON DE FOURIER EN TIEMPO CONTINUO 371
Lema C.7. Convoluci´ on en el tiempo.
Sean y
1
(t) e y
2
(t), dos funciones definidas para −∞ < t < ∞, cuyas trans-
formadas de Fourier son Y
1
( ω) e Y
2
( ω), respectivamente. Entonces, la trans-
formada de Fourier de la convoluci´ on entre ellas es
T¦y
1
(t) ∗ y
2
(t)¦ = Y
1
( ω)Y
2
( ω) (C.13)
Recordando que la convoluci´ on se define como:
y
1
(t) ∗ y
2
(t) =
_

−∞
y
1
(τ)y
2
(t −τ)dτ (C.14)
Demostraci´ on
Insertando la expresi´ on de la convoluci´ on en la transformada se obtiene
T¦y
1
(t) ∗ y
2
(t)¦ =
_

−∞
__

−∞
y
1
(τ)y
2
(t −τ)dτ
_
e
− ωt
dt
donde si se intercambia el orden de integraci´ on
T¦y
1
(t) ∗ y
2
(t)¦ =
_

−∞
y
1
(τ)
__

−∞
y
2
(t −τ)e
− ωt
dt
_

Que usando la ecuaci´ on (C.4) es igual a
T¦y
1
(t) ∗ y
2
(t)¦ =
_

−∞
y
1
(τ)
_
e
− ωτ
Y
2
( ω)
_

= Y
2
( ω)
_

−∞
y
1
(τ)e
− ωτ

= Y
2
( ω)Y
1
( ω)
222
Veamos a continuaci´ on cu´ al es la transformada de Fourier de un producto de
funciones que puede resultar ´ util para el calculo de la transformada de Fourier
de alguna funci´ on m´ as complicada.
Lema C.8. Producto de funciones.
Sean y
1
(t) e y
2
(t) funciones definidas para −∞ < t < ∞, cuyas transfor-
madas de Fourier son Y
1
( ω) e Y
2
( ω), respectivamente. Entonces, la transfor-
mada de Fourier del producto entre ellas es
T¦y
1
(t)y
2
(t)¦ =
1

Y
1
( ω) ∗ Y
2
( ω) (C.15)
372 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Demostraci´ on
Consideremos la transformada de Fourier inversa de la convoluci´ on de fun-
ciones en ω
T
−1
¦Y
1
( ω) ∗ Y
2
( ω)¦ =
1

_

−∞
Y
1
( ω) ∗ Y
2
( ω)e
 ωt

=
1

_

−∞
__

−∞
Y
1
(jζ)Y
2
( ω −jζ)dζ
_
e
 ωt

Intercambiando el orden de integraci´ on
T
−1
¦Y
1
( ω) ∗ Y
2
( ω)¦ =
1

_

−∞
Y
1
(jζ)
__

−∞
Y
2
( ω −jζ)e
 ωt

_

Donde si se define  ω −jζ =  ω

T
−1
¦Y
1
( ω) ∗ Y
2
( ω)¦ =
1

_

−∞
Y
1
(jζ)
__

−∞
Y
2
( ω

)e
( ω

+jζ)t


_

= 2π
_
1

_

−∞
Y
1
(jζ)e
jζt

__
1

_

−∞
Y
2
( ω

)e


t


_
= 2πy
1
(t)y
2
(t)
Con lo que el lema queda demostrado.
222
Teorema C.1 (Teorema de Parseval. El caso de tiempo continuo). Sean
Y
1
( ω) y Y
2
( ω) las tranformadas de Fourier de las funciones (reales) y
1
(t) e
y
2
(t) respectivamente, definidas ∀t ∈] −∞, ∞[. En tonces tenemos que
_

−∞
y
1
(t)y
2
(t)dt =
1

_

−∞
Y
1
( ω)Y
2
(− ω)dω (C.16)
Demostraci´ on
Esto se demuestra con ayuda del lema de convoluci´ on en el tiempo (C.13).
Seg´ un este tenemos que
y
1
(t) ∗ y
2
(t) = T
−1
¦Y
1
( ω)Y
2
( ω)¦
_

−∞
y
1
(τ)y
2
(t −τ)dτ =
1

_

−∞
Y
1
( ω)Y
2
( ω)e
 ωt

C.1. TRANSFORMACI
´
ON DE FOURIER EN TIEMPO CONTINUO 373
Si evaluamos en t = 0, queda
_

−∞
y
1
(τ)y
2
(−τ)dτ =
1

_

−∞
Y
1
( ω)Y
2
( ω)dω
Donde si se reemplaza al lado izquierdo τ por t, y usamos la ecuaci´ on (C.8)
que establece que T ¦y
2
(−t)¦ = Y
2
(− ω), entonces queda demostrado el lema.
222
Corollario C.4. Un caso especial del lema anterior es cuando se considera
y
1
(t) = y
2
(t) = y(t), con lo que la ecuaci´ on (C.16) se transforma en
_

−∞
¦y(t)¦
2
dt =
1

_

−∞
Y ( ω)Y (− ω)dω
Pero dado que Y (− ω) es el complejo conjugado de Y ( ω), el integrando a
la derecha es la norma cuadrado de la transformada, es decir
_

−∞
¦y(t)¦
2
dt =
1

_

−∞
[Y ( ω)[
2
dω (C.17)
En la tabla C.1 se muestra un resumen de las propiedades hasta aqu´ı re-
visadas y que sirven para el calculo de la transformada de Fourier de las fun-
ciones m´ as comunes, como las que se muestran en la tabla C.2
374 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
transformadadeFourierdiscreta
transformadadeFourierdiscretainversa
C.2. Transformada de Fourier en tiempo discre-
to
C.2.1. Definici´ on de la transformada
Dada una funci´ on definida en tiempo discreto y[k] , en que k ∈ Z , su
transformada de Fourier discreta Y (e

) y su transformada de Fourier discreta
inversa quedan definidas por las ecuaciones
T
d
¦y(t)¦ = Y (e

) =

k=−∞
y[k]e
−jθk
(C.18)
T
d
−1
_
Y (e

)
_
= y[k] =
1

_

0
Y (jθ)e
jθk
dθ (C.19)
La transformada Y (e

) definida en (C.18) resulta ser peri´ odica, de per´ıodo
2π, por tanto la integral que define la transformada inversa (C.19), puede cal-
cular en cualquier intervalo de longitud 2π. De hecho, algunos textos la definen
en el intervalo [−π, π]
Para que la transformada exista es suficiente que la funci´ on y[k] sea absolu-
tamente sumable en el intervalo −∞< k < ∞, es decir:

k=−∞
¸
¸
y[k]
¸
¸
< ∞
Si bien existen funciones que no cumplen con esta condici´ on, a pesar de ello
poseen transformada de Fourier discreta.
A continuaci´ on se muestran algunos ejemplos para ver c´ omo se obtiene la
transformada de Fourier discreta para un delta de Kronecker, para una secuencia
constante y para una exponencial decreciente discreta.
Ejemplo C.8. Consideremos primero la secuencia
y[k] = δ
K
[k] =
_
1 ; k = 0
0 ; k ,= 0
Es decir, un delta de Kronecker . Esta secuencia es absolutamente sum-
able, por tanto se cumple la condici´ ojn suficiente para la existencia de su trans-
formada discreta. Si calculamos ´esta usando la definici´ on tenemos que la serie
infinita se traduce en un solo t´ermino
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 375
Y (e

) =

k=−∞
δ
K
[k]e
−jθk
= δ
K
[0]e
−jθ0
= 1
Es decir, su transformada de Fourier discreta es constante. Podemos inter-
pretar esto de manera an´ aloga al delta de Dirac en tiempo continuo, cuya trans-
formada tambi´en es constante y representa un espectro plano, o igual contenido
de frecuencias en todo el espectro.
Ejemplo C.9. Consideremos ahora el caso opuesto en que tenemos una se-
cuencia constante que se escoge de amplitud uno por simplicidad. Es decir, la
secuencia que nos interesa es
y[k] = 1 ∀k ∈ Z
Esta secuencia no es absolutamente sumable, ya que

k=−∞
→∞
Sin embargo, si usamos la definici´ on de la transformada tenemos que
Y (e

) =

k=−∞
1 e
−jθk
En que la serie al lado derecho podemos interpretarla como una representaci´ on
en serie exponencial de Fourier de alguna funci´ on peri´ odica, en que el coeficiente
es C
k
= 1 , para todo k. Si recordamos, el coeficiente C
k
en una serie de Fourier
exponencial para una funci´ on peri´ odica f(θ) se calcula como
C
k
=
1
T
_ T
2

T
2
f(θ)e
j

T

Con lo que la funci´ on se expresa como
f(θ) =

k=−∞
C
k
e
−j

T

De aqu´ı podemos observar que el per´ıodo de la funci´ on peri´ odica debe ser
T = 2π, y para que la integral que define a C
k
sea unitaria basta que la funci´ on,
dentro del intervalo [−π, π] sea un delta Dirac de amplitud 2π, centrado en
θ = 0.
376 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Es decir, la transformada de Fourier discreta de la secuencia constante
y[k] = 1 es igual a
Y (e

) = 2π

n=−∞
δ(θ −2πn)
Esto se puede comprobar calculando la transformada de Fourier discreta in-
versa, mediante la integral (C.19), que dada la periodicidad basta calcularla en
cualquier intervalo de longitud 2π
y[k] =
1

_
π
−π
Y (e

)e
jθk

=
1

_
π
−π

n=−∞
δ(θ −2πn)e
jθk

=
_
π
−π
δ(θ)e
jθk

= 1 ∀k ∈ Z
Ejemplo C.10. Consideremos ahora la se˜ nal
y[k] = α
k
µ[k] [α[ < 1
Su transformada de Fourier discreta ser´ a
Y (e

) =

k=0
α
k
e
−jθk
=

k=0
(αe
−jθ
)
k
Que resulta ser una serie geom´etrica convergente ya que [αe
−jθ
[ < 1. Por
tanto su suma es
Y (e

) =
1
1 −αe
−jθ
C.2.2. Propiedades de la transformada de Fourier discreta
A continuaci´ on se detallan una serie de propiedades de la transformada de
Fourier discreta que resultan ´ utiles para la obtenci´ on de algunas transformadas
y para el an´ alisis de sistemas.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 377
Lema C.9. Linealidad
La transformada de Fourier discreta es una transformaci´ on lineal, es decir,
si y
1
[k] e y
2
[k] son dos secuencias definidas ∀k ∈ Z, cuyas transformadas de
Fourier son Y
1
(e

) e Y
2
(e

) respectivamente, entonces
T
d
¦αy
1
[k] +βy
2
[k]¦ = αY
1
(e

) +βY
2
(e

) (C.20)
Demostraci´ on
Es directa de la definici´ on de la transformada (C.18), ya que
T
d
¦αy
1
[k] +βy
2
[k]¦ =

k=−∞
(αy
1
[k] +βy
2
[k])e
−jθk
= α

k=−∞
y
1
[k]e
−jθk

k=−∞
y
2
[k]e
−jθk
= αY
1
(e

) +βY
2
(e

)
222
Lema C.10. Corrimiento en el tiempo.
Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, cuya transfor-
mada de Fourier es Y (e

) , y sea k
0
un n´ umero entero, entonces
T
d
¦y[k −k
0
]¦ = e
−jθk
0
Y (e

) k
0
∈ Z (C.21)
Demostraci´ on
Consideremos la definici´ on de la transformada (C.18), y tomemos k
0
∈ Z,
entonces
T
d
¦y[k −k
0
]¦ =

k=−∞
y[k −k
0
]e
−jθk
Sea k −k
0
= l, entonces k = l +k
0
y reemplazando en la sumatoria
T
d
¦y[k −k
0
]¦ =

l=−∞
y[l]e
−jθ(l+k
0
)
= e
−jθk
0

l=−∞
y[l]e
−jθl
= e
−jθk
0
Y (e

)
378 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
222
Lema C.11. Corrimiento en frecuencia.
Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, con transformada
Y (e

) , y sea 0 < θ
0
< 2π un n´ umero real, entonces consideremos la transfor-
mada de la secuencia original multiplicada por una exponencial peri´ odica
T
d
_
e

0
k
y[k]
_
= Y (e
j(θ−θ
0
)
) (C.22)
Demostraci´ on
Para demostrar la propiedad anterior podemos considerar directamente la
definici´ on (C.18)
T
d
_
e

0
k
y[k]
_
=

k=−∞
e

0
k
y[k]e
−jθk
=

k=−∞
y[k]e
−j(θ−θ
0
)k
Sea θ −θ
0
= ζ, entonces reemplazando
T
d
_
e

0
k
y[k]
_
=

k=−∞
y[k]e
−jζk
= Y (e

)
= Y (e
j(θ−θ
0
)
)
Note que si la frecuencia θ
0
/ ∈ ]0, 2π[ , es decir, se encuentra fuera de la banda
que hemos considerado hasta ahora, siempre puede escribirse de la forma
θ
0
= ϑ
0
+ 2πn
En que ϑ
0
∈ ]0, 2π[ y n ∈ Z, con lo que
e

0
= e
j(ϑ
0
+2πn)
= e

0
e
2πn
= e

0
Recordemos que es justamente por esto que a la exponencial peri´ odica e
j()
le hemos denominado tambi´en exponencial peri´ odica. 222
Para ilustrar esto veamos un ejemplo
Ejemplo C.11. Considere la secuencia de tiempo discreto
y[k] = cos
_

10
k
_
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 379
Para calcular su transformada de Fourier discreta, en vez de usar la defini-
ci´ on podemos utilizar la propiedad (C.22), ya que el coseno puede escribirse en
t´erminos de exponenciales
y[k] = cos
_

10
k
_
=
e
j

10
k
+e
−j

10
k
2
Ambas exponenciales peri´ odicas las podemos pensar como la secuencia con-
stante y
0
[k] = 1 multiplicada por la respectiva exponencial peri´ odica. Es as´ı como
bajo este punto de vista la transformada de Fourier discreta se puede obtener
en unos pocos pasos
T
d
_
cos
_

10
k
__
=
1
2
T
d
_
e
j

10
k
_
+
1
2
T
d
_
e
−j

10
k
_
=
1
2

n=−∞
δ(θ −

10
+ 2πn) +
1
2

n=−∞
δ(θ +

10
+ 2πn)
= π

n=−∞
δ(θ −

10
+ 2πn) +π

n=−∞
δ(θ +

10
+ 2πn)
Si restringimos la expresi´ on de la transformada a la banda que nos ha in-
teresado, es decir, θ ∈ [0, 2π], tenemos que en ella s´ olo existen dos de los deltas
de Dirac
T
d
_
cos
_

10
k
__¸
¸
¸
¸
0<θ<2π
= πδ(θ −

10
) +πδ(θ −
18π
10
)
−15 −10 −5 0 5 10 15
−1.5
−1
−0.5
0
0.5
1
1.5
k
y
[k
]
0 1 2 3 4 5 6
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
θ
Y
(
e

)
Figura C.5: Se˜ nal cosenoidal y[k] y su transformada discreta.
En la figura C.5, se muestra la secuencia peri´ odica discreta y su espectro, es
decir, su transformada de Fourier discreta, formada por los dos deltas de Dirac
en el intervalo [0, 2π].
380 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Como consecuencia del lema anterior, que expresa el corrimiento en frecuen-
cia que sufre el espectro de una secuencia discreta al ser multiplicado por una
exponencial peri´ odica tenemos el siguiente corolario. Este determina el efecto
que tiene sobre la transformada de Fourier discreta el modular una secuencia
por alguna sinusoidal.
Corollario C.5. Sea y[k] una secuencia discreta definida para −∞ < k < ∞
con transformada Y (e

), y 0 < θ
0
< 2π un n´ umero real. Entonces
T
d
¦cos(θ
0
k)y[k]¦ =
1
2
_
Y (e
j(θ+θ
0
+Y (e
j(θ−θ
0
)
_
(C.23)
T
d
¦sen(θ
0
k)y[k]¦ =
j
2
_
Y (e
j(θ+θ
0
−Y (e
j(θ−θ
0
)
_
(C.24)
Demostraci´ on
Como se mencion´ o anteriormente resulta de la aplicaci´ on del lema anterior,
ya que tanto cos(θ
0
k) como sen(θ
0
k) pueden escribirse en t´erminos de exponen-
ciales peri´ odicas.
Consideremos la ecuaci´ on (C.23):
T
d
¦cos(θ
0
k)y[k]¦ = T
d
_
e

0
k
+e
−jθ
0
k
2
y[k]
_
=
1
2
T
d
_
e

0
k
y[k]
_
+
1
2
T
d
_
e
−jθ
0
k
y[k]
_
=
1
2
_
Y (e
j(θ−θ
0
+Y (e
j(θ+θ
0
)
_
La demostraci´ on de (C.24) resulta an´ aloga, por lo tanto se deja como ejercicio
para el lector. 222
Lema C.12. Inversi´ on temporal.
Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, con transformada
Y (e

). Consideremos la transformada de la secuencia original invertida en el
tiempo, es decir
T
d
¦y[−k]¦ = Y (e
−jθ
) (C.25)
Demostraci´ on
Para demostrar la propiedad usamos la ecuaci´ on (C.18), que define la trans-
formada de Fourier discreta de una secuencia
T
d
¦y[−k]¦ =

k=−∞
y[−k]e
−jθk
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 381
Sea l = −k, entonces
T
d
¦y[−k]¦ =

l=−∞
y[l]e
−jθ(−l)
=

l=−∞
y[l]e
−j(−θ)l
= Y (e
−jθ
)
222
Corollario C.6. Note que si la secuencia y[k] est´ a compuesta s´ olo por valores
reales, entonces
T
d
¦y[−k]¦ = Y

(e
−jθ
) (C.26)
En que ()

denota al complejo conjugado de ()
Demostraci´ on
Se deja como ejercicio al lector. 222
En base a las propiedades ya anlizadas estamos en condiciones de ver el
siguiente ejemplo.
Ejemplo C.12. Veamos como obtener ahora la transformada de Fourier disc-
reta de un escal´ on unitario en tiempo discrto, es decir, de la secuencia
y[k] = µ[k] =
_
0 ; k < 0
1 ; k ≥ 0
Para esto podemos apreciar que si definimos la secuencia
x[k] = µ[k] −µ[k −1]
=
_
1 ; k = 0
0 ; k ,= 0
Es decir, resulta ser un delta de Kronecker. Esto tambi´en es v´ alido, sin
embargo, si al escal´ on µ[k] se le suma alguna constante, es decir
x[k] = µ[k] +C
⇒x[k] −x[k −1] = δ
K
[k]
Si aplicamos transformada de Fourier discreta a ambas ecuaciones anteriores
y utilizamos la propiedad de corrimiento en k
382 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
X(e

) = T
d
¦µ[k]¦ +C2π

n=−∞
δ(θ −2πn)
X(e

) −e
−jθ
X(e

) = 1
De ambas ecuaciones se puede eliminar X(e

) y despejar la transformada
que nos interesa
T
d
¦µ[k]¦ =
1
1 −e
−jθ
−C2π

n=−∞
δ(θ −2πn)
Donde hemos obtenida la forma de la transformada del escal´ on unitario dis-
creto. Para obtener el valor de la constante C, podemos escribir el mismo escal´ on
como
µ[k] = 1 −µ[−k] +δ
K
[k]
Donde podemos aplicar la transformada utilizando la forma de T
d
¦µ[k]¦
obtenida, la propiedad de simetr´ıa temporal, y las transformadas del delta de
Kronecker y la constante, antes obtenidas.
1
1 −e
−jθ
−C S(θ) = S(θ) −
_
1
1 −e

−C S(−θ)
_
+ 1
En que
S(θ) = 2π

n=−∞
δ(θ −2πn)
Donde podemos apreciar que S(θ) es sim´etrica respecto a θ = 0, por lo tanto
−C 2S(θ) = S(θ) +
−1
1 −e

+
−1
1 −e
−jθ
+ 1
. ¸¸ .
0
−C 2S(θ) = S(θ)
C = −
1
2
Luego, la transformada de Fourier discreta del escal´ on µ[k] es
T
d
¦µ[k]¦ =
1
1 −e
−jθ

n=−∞
δ(θ −2πn)
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 383
Lema C.13. Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, cuya
transformada es Y (e

). Consideremos ahora la secuencia k y[k], su transfor-
mada, s´ olo en el caso que exista, es igual a
T
d
¦k y[k]¦ = j
d Y (e

)

(C.27)
Demostraci´ on
Se debe tener cuidado al aplicar esta propiedad, pues no garantiza la
existencia de la transformada de k y[k].
En caso de existir, podemos aplicar la transformada de Fourier inversa, us-
ando la ecuaci´ on (C.19) :
T
d
−1
_
j
d Y (e

)

_
=
1

_

0
j
d Y (e

)

e
jθk

Donde se puede integrar por partes, eligiendo convientemente :
T
d
−1
_
j
d Y (e
−jθ
)

_
=
j

_

0
e
jθk
d Y (e

)


=
j

e
jθk
Y (e

)
¸
¸
¸

0
. ¸¸ .
0

j

_

0
Y (e

)jke
jθk

=
−j
2

k
_

0
Y (e

)e
jθk

= k
1

_

0
Y (e

)e
jθk

. ¸¸ .
y[k]
222
Ejemplo C.13. Calculemos la transformada de Fourier discreta de la secuencia
y[k] = kα
k
µ[k] [α[ < 1
Podemos aplicar la propiedad reci´en vista dado que conocemos la transfor-
mada de α
k
µ[k]. De esta forma, tenemos que:
384 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
T
d
_

k
µ[k]
_
= j
d T
d
_
α
k
µ[k]
_

= j
d

_
1
1 −αe
−jθ
_
= j
−1
(1 −αe
−jθ
)
2
(jαe
−jθ
)
=
αe
−jθ
(1 −αe
−jθ
)
2
−5 0 5 10 15 20 25
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
k
y
[
k
]
0 1 2 3 4 5 6
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
θ
Y
(
e

)
Figura C.6: Secuencia y[k] = k(0,8)
k
µ[k] y la magnitud de su TFD.
En la figura C.6 se muestra la secuencia discreta y el m´ odulo de su trans-
formada discreta, cuando α = 0,8
Lema C.14. Convoluci´ on en tiempo discreto
Sean y
1
[k] e y
2
[k] dos secuencias definidas ∀k ∈ Z, cuyas transformadas
de Fourier son Y
1
(e

) e Y
2
(e

) respectivamente, entonces la transformada de
Fourier discreta de la convoluci´ on es :
T
d
¦y
1
[k] ∗ y
2
[k]¦ = Y
1
(e

)Y
2
(e

) (C.28)
Demostraci´ on
Recordemos en primer lugar que la convoluci´ on de dos secuencias de tiempo
discreto y
1
[k] e y
2
[k] se define como :
y
1
[k] ∗ y
2
[k] =

l=−∞
y
1
[l]y
2
[k −l]
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 385
Usando esta expresi´ on en la definici´ on (C.18) tenemos que :
T
d
¦y
1
[k] ∗ y
2
[k]¦ =

k=−∞
_

l=−∞
y
1
[l]y
2
[k −l]
_
e
−jθk
Donde se pueden intercambiar las sumatorias y usar la propiedad de corrim-
iento en el tiempo discreto k :
T
d
¦y
1
[k] ∗ y
2
[k]¦ =

l=−∞
y
1
[l]
_

k=−∞
y
2
[k −l]e
−jθk
_
=

l=−∞
y
1
[l]e
−jθl
Y
2
(e

)
= Y
2
(e

)

l=−∞
y
1
[l]e
−jθl
= Y
2
(e

)Y
1
(e

)
222
Lema C.15. Producto en el tiempo discreto
Sean y
1
[k] e y
2
[k] dos secuencias definidas ∀k ∈ Z, cuyas transformadas
de Fourier son Y
1
(e

) e Y
2
(e

) respectivamente, entonces la transformada de
Fourier discreta del producto de ellas es :
T
d
¦y
1
[k]y
2
[k]¦ =
1

_

0
Y
1
(e

)Y
2
(e
j(θ−ζ)
)dζ (C.29)
Demostraci´ on
Reemplazando el producto de las secuencias en la definici´ on (C.18) tenemos
que :
T
d
¦y
1
[k]y
2
[k]¦ =

k=−∞
y
1
[k]y
2
[k]e
−jθk
Aqui podemos escribir una de las secuencias seg´ un la ecuaci´ on (C.19) que
la expresa como la transformada de Fourier inversa. Con esto e intercambiando
de orden la sumatoria con la integral que aparece tenemos que :
T
d
¦y
1
[k]y
2
[k]¦ =

k=−∞
_
1

_

0
Y
1
(e

)e
jζk

_
y
2
[k]e
−jθk
=
1

_

0
Y
1
(e

)
_

k=−∞
_
e
jζk
y
2
[k]
_
e
−jθk
_

386 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Donde si usamos la propiedad de corrimiento en frecuencia tenemos que
T
d
¦y
1
[k]y
2
[k]¦ =
1

_

0
Y
1
(e

)Y
1
(e
j(θ−ζ)
)dζ
222
Teorema C.2 (Teorema de Parseval. El caso de tiempo discreto). Sean
y
1
[k] e y
2
[k] dos secuencias reales definidas ∀k ∈ Z, cuyas transformadas de
Fourier son Y
1
(e

) e Y
2
(e

) respectivamente, entonces se cumple que:

k=−∞
y
1
[k]y
2
[k] =
1

_

0
Y
1
(e

)Y

2
(e

)dθ (C.30)
En que ()

denota el complejo conjugado de ().
Demostraci´ on
En el lado izquierdo de la ecuaci´ on (C.30) podemos reemplazar y
1
[k], uti-
lizando la definici´ on de la transformada de Fourier discreta inversa dada por la
expresi´ on (C.19) :

k=−∞
y
1
[k]y
2
[k] =

k=−∞
_
1

_

0
Y
1
(e

)e
jθk

_
y
2
[k]
Aqui podemos intercambiar el orden entre la integral y la sumatoria, para
luego formar una expresi´ on que corresponda a la transformada de y
2
[k] como se
aprecia a continuaci´ on :

k=−∞
y
1
[k]y

2
[k] =
1

_

0
Y
1
(e

)
_

k=−∞
y

2
[k]e
jθk
_

=
1

_

0
Y
1
(e

)
_

k=−∞
y
2
[k]e
−jθk
_


=
1

_

0
Y
1
(e

)Y

2
(e

)dθ
222
Corollario C.7. Si y[k] es una secuencia discreta definida ∀k ∈ Z, con trans-
formada Y (e

), entonces se cumple que:

k=−∞
[ y[k] [
2
=
1

_

0
[ Y (e

) [
2
dθ (C.31)
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 387
Demostraci´ on
Es directa de la ecuaci´ on (C.30) ya que
y[k] y

[k] = [ y[k] [
2
Y (e

)Y

(e

) = [ Y (e

) [
2
222
388 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
f(t) T ¦f(t)¦ Descripci´ on
l

i=1
a
i
y
i
(t)
l

i=1
a
i
Y
i
( ω) Linealidad
dy(t)
dt
 ωY ( ω) Derivaci´ on
d
k
y(t)
dt
k
( ω)
k
Y ( ω) Derivadas superiores
_
t
−∞
y(τ)dτ
1
 ω
Y ( ω) +πY (0)δ(ω) Integraci´ on
y(t −τ) e
− ωτ
Y ( ω) Retardo
y(at)
1
[a[
Y
_
j
ω
a
_
Escalamiento temporal
y(−t) Y (− ω) Inversi´ on temporal
_

−∞
y
1
(τ)y
2
(t −τ)dτ Y
1
( ω)Y
2
( ω) Convoluci´ on
e
at
y
1
(t) Y
1
( ω −a) Desplazamiento en frecuencia
y(t) cos(ω
o
t)
1
2
¦Y ( ω − ω
o
) +Y ( ω + ω
o
)¦ Modulaci´ on (cosenoidal)
y(t) sen(ω
o
t)
1
j2
¦Y ( ω − ω
o
) −Y ( ω + ω
o
)¦ Modulaci´ on (senoidal)
Y (t) 2πy(− ω) Simetr´ıa
y
1
(t)y
2
(t)
1

_

−∞
Y
1
(jζ)Y
2
( ω −jζ)dζ Producto en el tiempo
Cuadro C.1: Propiedades de la transformada de Fourier.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 389
f(t) ∀t ∈ R T ¦f(t)¦
1 2πδ(ω)
δ
D
(t) 1
µ(t) πδ(ω) +
1
 ω
µ(t) −µ(t −t
o
)
1 −e
− ωt
o
 ω
e
−αt
µ(t) '¦α¦ ∈ R
+
1
 ω −α
te
−αt
µ(t) '¦α¦ ∈ R
+
1
( ω −α)
2
e
−α]t]
α ∈ R
+

ω
2

2
cos(ω
o
t) π (δ(ω +ω
o
) +δ(ω −ω
o
))
sen(ω
o
t) jπ (δ(ω +ω
o
) −δ(ω −ω
o
))
cos(ω
o
t)µ(t)
π
2
(δ(ω +ω
o
) +δ(ω −ω
o
)) +
 ω
−ω
2

2
o
sen(ω
o
t)µ(t)

2
(δ(ω +ω
o
) −δ(ω −ω
o
)) +
ω
o
−ω
2

2
o
e
−αt
cos(ω
o
t)µ(t) α ∈ R
+
 ω +α
( ω +α)
2

2
o
e
−αt
sen(ω
o
t)µ(t) α ∈ R
+
ω
o
( ω +α)
2

2
o
Cuadro C.2: Tabla de tranformadas de Fourier
390 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
y[k] , k ∈ Z T
d
¦y[k]¦ = Y (e

) Descripci´ on
l

i=1
α
i
y
i
[k]
l

i=1
α
i
Y
i
(e

) Linealidad
y[−k] Y (e
−jθ
) Inversi´ on temporal
y[k −k
0
] , k
0
∈ Z e
−jθk
0
Y (e

) Corrimiento temporal
e

0
k
y[k] Y (e
j(θ−θ
0
)
) Corrimiento en frecuencia
cos(θ
0
k)y[k]
1
2
_
Y (e
j(θ+θ
0
)
+Y (e
j(θ−θ
0
)
_
Modulaci´ on cosenoidal
sen(θ
0
k)y[k]
j
2
_
Y (e
j(θ+θ
0
)
−Y (e
j(θ−θ
0
)
_
Modulaci´ on senoidal
ky[k] j
d Y (e

)

l=−∞
y
1
[l]y
2
[k −l] Y
1
(e

)Y
2
(e

) Convoluci´ on
y
1
[k]y
2
[k]
1

_

0
Y
1
(e

)Y
2
(e
j(θ−ζ)
)dζ Producto en el tiempo

k=−∞
y
1
[k]y

2
[k]
1

_

0
Y
1
(e

)Y

2
(e

)dθ Teorema de Parseval

k=−∞
[ y[k] [
2
1

_

0
[ Y (e

) [
2
dθ Teorema de Parseval
Cuadro C.3: Propiedades de la transformada de Fourier discreta.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 391
y[k] ∀t ∈ R T
d
¦y[k]¦ = Y (e

)
δ
K
[k] 1
δ
K
[k −k
0
] e
−jθk
0
1 (∀k ∈ Z) 2π

n=−∞
δ(θ −2πn)
µ[k]
1
1 −e
−jθ

n=−∞
δ(θ −2πn)
α
k
µ[k] ([α[ < 1)
1
1 −αe
−jθ
(k + 1)α
k
µ[k] ([α[ < 1)
1
(1 −αe
−jθ
)
2
e

0
k

n=−∞
δ(θ −θ
0
+ 2πn)
cos(θ
0
k) π

n=−∞
[δ(θ +θ
0
+ 2πn) +δ(θ −θ
0
+ 2πn)]
sen(θ
0
k) jπ

n=−∞
[δ(θ +θ
0
+ 2πn) −δ(θ −θ
0
+ 2πn)]
cos(θ
0
k +φ) π

n=−∞
_
e
−jφ
δ(θ +θ
0
+ 2πn) +e

δ(θ −θ
0
+ 2πn)
¸
sen(θ
c
k)
πk

n=−∞
Y
0
(e
j(θ+2πn)
)
Y
0
(e

) =
_
1 ; [θ[ < θ
c
0 ; θ
c
< [θ[ ≤ π
y[k] =
_
0 ; [k[ ≤ N
1 ; [k[ > N
sen
_
2N+1
2
θ
_
sen
_
1
2
θ
_

k
µ[k] ([α[ < 1)
αe
−jθ
(1 −αe
−jθ
)
2
Cuadro C.4: Tabla de tranformadas de Fourier discretas
392 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
C.2.3. Aspecto pr´actico: la transformada r´apida de Fouri-
er
En las aplicaciones, en particular en el procesamiento digital de se˜ nales, no
se conoce la se˜ nal en forma anal´ıtica, sino que como una secuencia finita de
valores num´ericos. Lo mismo ocurre en otras aplicaciones, como en el proce-
sameinto de im´ agenes, en donde la variable independiente puede ser una (o
m´ as) coordenada(s) espacial(es).
Dado que la informaci´ on es una secuencia, la descripci´ on de la se˜ nal en el
dominio de la frecuencia s´ olo puede ser lograda a trav´es de la Transformada
discreta de Fourier. Sin embargo, el c´ alculo de ´esta s´ olo puede ser aproximado,
puesto que la se˜ nal est´ a definida por un n´ umero finito de valores.
De esta forma, un problema central en la calidad de la aproximaci´ on guarda
relaci´ on con la medida en que la se˜ nal truncada representa las caracter´ısticas
espectrales de la se˜ nal a analizar. En este caso, estamos obteniendo una serie
de Fourier discreta que representa al tramo considerado de la secuencia y[k].
Recordemos que seg´ un lo visto en el cap´ıtulo anterior sobre series, al calcular
la serie de Fourier discreta de una secuencia de largo N, obtenemos una repre-
sentaci´ on en t´erminos de N exponenciales complejas de frecuencias 0 ≤ θ < 2π,
que resulta ser peri´ odica. De esta forma, dada una secuencia y[k] de longitud N,
que puede provenir de una se˜ nal de tiempo continuo muestreada cada ∆[seg], es
decir, y[k] = y(t = k∆), podemos representarla como una suma de exponenciales
complejas
y[k] =
N−1

n=0
C
n
e

o
nk
; donde θ
o
=

N
(C.32)
donde
C
n
=
1
N
N−1

k=0
y[k]e
−jθ
o
nk
(C.33)
Usualmente se define
W
N
= e

o
= e
j

N
(C.34)
y la funci´ on
H
n
= N C
n
=
N−1

k=0
y[k]W
−nk
N
(C.35)
Con lo que la funci´ on se puede describir en t´erminos de los H
n
seg´ un
y[k] =
1
N
N−1

n=0
H
n
W
nk
N
(C.36)
A este par de ecuaciones, (C.35) y (C.36) se le denomina en muchos libros
como la Transformaci´ on de Fourier Discreta
1
y su inversa, por tanto debe tenerse
1
Discrete Fourier Transform o DFT
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 393
transformadar´ apida
deFourier
precauci´ on al consultar la literatura para evitar confusi´ on con la denominaci´ on
que hemos usado en este texto.
Si se observa la ecuaci´ on (C.35) ´esta puede entenderse como un producto
matricial en que el vector H
n
es igual al producto de la matriz ¦W
N
¦
n,k
=
¦W
−nk
N
¦ por el vector y[k]. Es decir
_
¸
¸
¸
_
H
0
H
1
.
.
.
H
N−1
_
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
W
−00
N
W
−01
N
. . . W
−0(N−1)
N
W
−10
N
W
−11
N
. . . W
−1(N−1)
N
.
.
.
.
.
.
.
.
.
.
.
.
W
−(N−1)0
N
W
−(N−1)1
N
. . . W
−(N−1)(N−1)
N
_
¸
¸
¸
¸
_
_
¸
¸
¸
_
y[0]
y[1]
.
.
.
y[N −1]
_
¸
¸
¸
_
(C.37)
Hacer el producto matricial el lado derecho de la ecuaci´ on anterior implica
N
2
multiplicaciones complejas, adem´ as de las sumas respectivas para el c´ alculo
de cada H
n
. Tambi´en se requieren algunas operaciones m´ as para el c´ alculo de
las potencias de W
N
. Es decir, podemos apreciar que el c´ alculo de la DFT es
un proceso O(N
2
)
2
.
Sin embargo, la matriz involucrada en (C.37) est´ a formada por potencias de
W
N
= e
j

N
, por tanto todos sus componentes son alguna de las ra´ıces N-´esimas
de la unidad, distribuida en torno a la circunferencia unitaria. Esta simetr´ıa de
hecho es el camino para reducir el n´ umero de c´ alculos necesarios para el c´ alculo
de la DFT. Los algoritmos que hacen uso de estas simetr´ıas se comenzaron a
desarrollar m´ as fuertemente a partir de mediados de los a˜ nos 60 y reciben el
nombre gen´erico de transformada r´apida de Fourier o FFT por su denom-
inaci´ on en ingl´es
3
.
Para maximizar el aprovechamiento de las simetr´ıas es conveniente elegir
secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2
v
para algun v ∈ Z
+
(C.38)
Esto no implica perder generalidad, pues en los casos en que no pueden
tomarse m´ as valores de la secuencia original podemos completar con ceros hasta
la potencia de 2 m´ as cercana (aunque ello significa la introducci´ on de un grado
variable de inexactitud).
Consideremos la forma en que se calcula el coeficiente H
n
, seg´ un la ecuaci´ on
(C.35). Si tenemos una secuencia de longitud N par, podemos separarla en una
que contenga los valores de y[k] cuando k es par y otra para los k impares. Es
decir:
H
n
=
N−1

k=0
y[k]W
−nk
N
(C.39)
=
N/2−1

r=0
y[2r]W
−n(2r)
N
+
N/2−1

r=0
y[2r + 1]W
−n(2r+1)
N
(C.40)
2
Del orden de N
2
, es decir, si se duplica N el n´ umero de c´ alculos se ¡ cuadruplica !
3
Fast Fourier Transform.
394 AP
´
ENDICE C. LA TRANSFORMACI
´
ON DE FOURIER
Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r + 1], son
secuencias de largo N/2, por lo que podr´ıa escribirse las sumatorias como la
serie de Fourier discreta modificada que les corresponde. Justamente esto sucede
en forma natural al observar que
W
−n(2r)
N
= e
−j

N
n(2r)
= e
−j

N/2
nr
= W
−nr
N/2
(C.41)
Es decir, en la sumatoria aparecen las arm´ onicas para secuencias de longitud
N/2. Con esta observaci´ on la expresi´ on para H
n
queda
H
n
=
N/2−1

r=0
y[2r]W
−n(2r)
N
+
N/2−1

r=0
y[2r + 1]W
−n(2r)
N
W
−n
N
(C.42)
=
N/2−1

r=0
y[2r]W
−nr
N/2
+W
−n
N
N/2−1

r=0
y[2r + 1]W
−nr
N/2
(C.43)
= H
par
n
+W
−n
N
H
impar
n
(C.44)
Como antes mencionamos, para calcular los t´erminos H
n
para una secuencia
de longitud N por el m´etodo directo, se requieren del aproximadamente N
2
multiplicaciones complejas en el producto matricial (C.37). An´ alogamente para
calcular cada uno de los