You are on page 1of 25

4.1.

PERTURBACIONES SINGULARES

1

4.1

Perturbaciones Singulares

Mientras que los métodos perturbacionales, como el de Linstedt-Poincaré, o los de promediación de Krylov-Boguliubov se aplican a sistemas que dependen suavemente de un parámetro μ, en esta sección se considera un problema mucho más complicado: la dependencia discontinua de las propiedades del sistema en función de un parámetro ε. El esquema del problema típico de perturbaciones singulares es x = f (t, x, z, ε), ˙ εz = g(t, x, z, ε), ˙ donde hacer ε = 0 causa un cambio abrupto en las propiedades dinámicas del sistema, pues la ecuación diferencial εz = g(t, x, z, ε) degenera en la ecuación algebraica o trascendental ˙ 0 = g(t, x, z, ε). La esencia de la teoría es que la discontinuidad de las soluciones causada por las perturbaciones singulares puede evitarse si se analizan en escalas de tiempo diferentes. Esta aproximación con múltiples escalas de tiempo es un rasgo distintivo del método de las perturbaciones singulares.

4.2

El modelo típico de perturbaciones singulares

El modelo de perturbaciones singulares de un sistema dinámico es un modelo de estado donde las derivadas de algunos estados están multiplicadas por un pequeño parámetro positivo ε : x = f (t, x, z, ε), ˙ εz = g(t, x, z, ε). ˙ (4.1) (4.2)

Se supondrá que las funciones f y g son continuamente diferenciables en sus argumentos, para t ∈ [0, t1 ], x ∈ X ⊂ Rn , x ∈ Z ⊂ Rm , donde X y Z son subconjuntos abiertos de Rn y Rm , respectivamente. Cuando se hace ε = 0 en (4.1) y (4.2) la dimensión del sistema cambia de m + n a n porque la ecuación diferencial (4.2) degenera en 0 = g(t, x, z, ε). (4.3)

Se dice que el modelo (4.1)-(4.2) está en la forma típica si (4.3) tiene k ≥ 1 raíces reales aisladas, z = hi (t, x), i = 1, 2, . . . , k, (4.4)

para cada t ∈ [0, t1 ] y cada x ∈ X. Esta hipótesis asegura que a cada raíz de (4.3) corresponde un modelo reducido bien definido, los que se obtienen sustituyendo (4.4) en (4.1), con ε = 0, resultando en x = f [t, x, h(t, x), 0] ˙ (4.5) donde se ha suprimido el subíndice i de h; quedará claro del contexto cuál de las k raíces de (4.3) es la que se está usando. El modelo reducido (4.5) se suele llamar modelo de estado casi estacionario porque las variables z (cuya velocidad z = g/ε puede ser muy elevada cuando ε es pequeño y g 6= 0) ˙ puede converger rápidamente a alguna de las raíces de (4.3), que son puntos de equilibrio de (4.2); el modelo (4.5) también se conoce como modelo lento. La propiedad de una doble escala de tiempo rápido/lento de (4.1)-(4.2) será analizada en la siguiente sección. Modelar un sistema físico en la forma de perturbaciones singulares puede no ser sencillo. No siempre es evidente cómo elegir los parámetros que pueden considerarse “pequeños”. En muchas aplicaciones, el conocimiento de los procesos físicos y de los componentes del sistema es de gran ayuda. Los siguientes ejemplos muestran algunos casos típicos. En el primer ejemplo, el parámetro ε es una pequeña constante de tiempo. Esta es la fuente más popular de modelos en perturbaciones

2

Fig. 4.1: Esquema electromecánico del sistema del Ejemplo 4.1.

singulares, y la que históricamente despertó el interés por este tipo de problemas. En el segundo ejemplo se reformula el problema anterior para que el parámetro de perturbación sea adimensional. Pequeñas constantes de tiempo, masas, capacitancias, y demás elementos “parásitos” que incrementan el orden del modelo son muy comunes en el modelado de sistemas físicos; frecuentemente estos elementos parásitos se ignoran o desprecian para reducir la complejidad del problema. El tercer ejemplo se modela un circuito eléctrico que muestra que eliminar a priori elementos parásitos puede tener graves consecuencias. El método de perturbaciones singulares legitimiza esta simplificación ad hoc, y provee herramientas para mejorar los modelos que han sido simplificados de más. En el cuarto ejemplo ε es el recíproco una ganancia elevada en un sistema realimentado, y representa una fuente importante de modelos singularmente perturbados. En el diseño de sistemas de control realimentado es muy frecuente el empleo de parámetros que se hacen tender asintóticamente a infinito (también conocidos como parámetros de “alta ganancia”). Una aproximación típica de tales sistemas es modelarlos en la forma de perturbaciones singulares. El quinto ejemplo, si bien no está relacionado directamente con la técnica de perturbaciones singulares, muestra que a veces una realimentación de alta ganancia puede desmejorar el desempeño del sistema. En el sexto ejemplo el parámetro ε es una resistencia parásita en un circuito eléctrico. Despreciar este elemento parásito reduce el orden del modelo pero de manera muy distinta al caso estudiado en el primer ejemplo, y para expresarlo en la forma típica de perturbaciones singulares las variables de estado se deben elegir cuidadosamente. Finalmente, en el séptimo ejemplo el parámetro ε es la relación entre las frecuencias naturales de oscilación de la carrocería y de la rueda en un modelo de la suspensión de un automóvil. La característica distintiva de este sistema es que no puede expresarse en la forma típica sin escalar las variables de una forma dependiente de ε. Ejemplo 4.1 Motor de corriente continua controlado por armadura Un motor de corriente continua controlado por armadura (4.1) se puede modelar por el sistema de ecuaciones de estado de segundo orden
J dω dt di L dt = = k i, −k ω − R i + u,

donde i, u, R, y L son la corriente de armadura, tensión de alimentación, resistencia e inductancia, J es el momento de inercia del a carga, ω es la velocidad angular, y ki y kw son el torque y la fuerza contraelectromotriz, respectivamente, que se obtienen con una excitación de flujo constante. La primera ecuación de estado es una ecuación mecánica de torque, y la segunda es la ecuación del transitorio eléctrico en el circuitos de armadura. En general, la inductancia L es pequeña, y juega el rol del parámetro ε. Esto significa que, con ω = x y i = z el modelo del motor está en la forma típica (4.1)-(4.2) con f(t, x, y, ε) = f (t, ω, i, ε) = ki, y g(t, x, y, ε) = g(t, ω, i, ε) = −k ω − R i + u siempre que R 6= 0. Despreciando L, se resuelve 0 = g(t, x, y, 0) = −k ω − R i + u, para obtener la únca raíz z = h(t, x) u − kω . R El modelo lento se obtiene al sustituir la ecuación anterior en la ecuación del torque mecánico, i= Jω = − ˙ k k2 ω+ u R R 2

que es el modelo habitual de primer orden del motor de corriente continua.

4.2. EL MODELO TÍPICO DE PERTURBACIONES SINGULARES

3

Fig. 4.2: Circuito eléctrico con diodo túnel. Esquemático (a) . Modelo linealizado (b) .

Ejemplo 4.2 Motor de corriente continua controlado por armadura (modelo adimensional)
En general es preferible reformular el modelo de manera que el parámetro ε resulte adimensional. A tal fin se definen las variables adimensionales i ω R u ir = i= , , ωr = , ur = Ω kΩ i0 kΩ y se reescriben las ecuaciones de estado como R JR dω = i, k2 Ω dt kΩ k R 1 L R di = − ω− i+ u, R kΩ dt kΩ kΩ kΩ ⇒ ⇒ Tm dωr = ir , dt dir Te = −ωr − ir + ur , dt

donde Tm = JR/k2 es la constante de tiempo mecánica, y Te = L/R es la contante de tiempo eléctrica. Como Tm À Te , se elige Tm como la unidad de tiempo: se define una nueva variable adimensional tr = t/Tm y se reescriben las ecuaciones de estado como dωr = ir , dtr Te dir = −ωr − ir + ur . Tm dtr Este escalado permite expresar el modelo en la forma típica, donde el parámetro ε es un parámetro adimensional Te Lk2 ε= = Tm JR2 que depende de las distintas constantes físicas del sistema. Además, desde el punto de vista del análisis, el modelo adimensional es función de un único parámetro ε, mientras que el modelo del Ejemplo 4.1 intervienen cuatro parámetros (J, k, L, R). 2

Ejemplo 4.3 Circuito eléctrico con diodo túnel
En el circuito eléctrico de la Fig. 4.2(a) el punto de polarización se elige de modo que el modelo de pequeña señal del diodo túnel es una resistencia negativa en paralelo con una capacidad parásita de valor Cd [Fig. 4.2(b)]. Las ecuaciones de nodo del circuito son 1 1 1 dv1 − v1 + v1 − v2 = 0, dt Rd R2 R2 1 1 dv2 + i = 0, v2 − v1 + C1 R2 R2 dt di iR1 + L − v2 = 0. dt Como el capacitor parásito Cd es pequeño se lo adopta como parámetro de perturbación, Cd = ε. Eligiendo como es usual las tensiones en los capacitores y la corriente en la inductancia como variables de estado, x1 = i, x2 = v2 , z = v1 se tiene que el modelo dinámico del sistema linealizado de pequeña señal es ⎞ ⎛ R1 1 − 0 ⎟⎛ ⎞ ⎛ ⎞ ⎜ L1 L1 ⎟ x1 ⎜ x1 ˙ ⎟ ⎜ 1 1 1 ⎟ ⎝ x2 ⎠ . ⎝ x2 ⎠ = ⎜ − − ˙ ⎜ C1 R2 C1 R2 C1 ⎟ ⎟ ⎜ εz ˙ z ⎝ 1 R2 − Rd ⎠ 0 R2 R2 Rd Cd

4

Fig. 4.3: Sistema con realimentación de alta ganancia. Modelo nominal (a) . Modelo reducido o lento (b) .

El modelo se puede normalizar eligiendo x1r = i/i0 , x2r = v2 /(i0 R1 ), zr = v1 /(i0 R1 ), y reescalando el tiempo como t = (R2 C1 )tr . Se tiene entonces ⎞ τ2 ⎛ dx1r ⎞ ⎛ τ 2 − 0 ⎛ ⎞ τ1 ⎟ x1r ⎜ dtr ⎟ ⎜ τ 1 ⎟ ⎜ ⎟ ⎜ R2 ⎟⎜ ⎟ ⎜ dx2r ⎟ ⎜ − ⎟ ⎜ x2r ⎟ −1 1 ⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ dtr ⎟ = ⎜ R1 ⎟⎝ ⎠ ⎜ ⎟ ⎜ ⎜ ⎟ zr ⎝ ⎠ ⎝ R2 dzr −1⎠ 0 1 ε Rd dtr donde τ 1 = L/R1 , τ 2 = C1 R2 , y el parámetro de perturbación es ε = Cd /C1 .

2

Ejemplo 4.4 Realimentación de alta ganancia
El sistema de control que se muestra en la Fig. 4.3(a) tiene un lazo de realimentación interna para linealizar el comportamiento del actuador, donde en general la ganancia k1 del integrador es grande. La planta es un sistema de una entrada y una salida (SISO) representado por el modelo de estado xp ˙ y = = Axp + bup , cxp .

donde los vectores x, b, c y la matriz A tienen las dimensiones apropiadas. El actuador no lineal ψ(·) pertenece al sector [0, ∞), es decir ψ(0) = 0, y ψ(y) > 0 para todo y 6= 0. Las ecuaciones del sistema de lazo cerrado son xp ˙ 1 up ˙ k1 = = Axp + bup , ψ(u − up − k2 cxp ).

Definiendo ε = 1/kp , xp = x, up = z, el modelo toma la forma del modelo típico (4.1)-(4.2). Haciendo ε = 0, o k1 → ∞, se resuelve ψ(u − up − k2 cxp ) = 0 para obtener up = u − k2 cxp

que es la única raíz pues ψ(.) se anula sólo en el origen. El modelo reducido (o lento) es xp = (A − k2 bc)xp + bu, ˙ que está representado por el diagrama bloque simplificado de la Fig. 4.3(b), donde todo el lazo interno se reemplaza por una conexión directa. 2

En este caso, el empleo de un lazo de realimentación interno de alta ganancia permite linealizar el actuador. La alta ganancia hace que el lazo interno sea rápido y que su salida up copie la entrada u − k2 y casi instantáneamente. Sin embargo, algunas veces se obtienen resultados inesperados como muestra el siguiente ejemplo (Sussmann y Kokotovi´ , 1991; Sepulchre et al, 1997). c Ejemplo 4.5 Problemas de la realimentación con alta ganancia El sistema no lineal 1 x = − (1 + ξ 2 ) x3 , ˙ x (0) = x0 2

4.2. EL MODELO TÍPICO DE PERTURBACIONES SINGULARES

5

Fig. 4.4: Circuito eléctrico del Ejemplo 4.6 (a) . Modelo simplificado cuando RC = 0.

está conectado en cascada con el sistema lineal dado por ˙ ξ1 ˙ ξ
2

= =

ξ2 u.

Sin embargo esto no es lo que ocurre. La solución explícita del subsistema no lineal es x (t) = q x0 , Rt 1 + [t + 0 ξ 2 (τ ) dτ ]x2 0 x (0) = x0 .

a través de la variable ξ 2 . El origen x = 0 del subsistema no lineal es globalmente asintóticamente estable para cualquier condición inicial x0 si |ξ 2 (t)| < 1 para todo t. El estado ξ 2 del sistema lineal puede interpretarse como una perturbación aditiva en el sistema no lineal, y su estructura induce a pensar que si ξ 2 tiende a cero rápidamente, el término ξ 2 x3 es “menos desestabilizante”. Se puede hacer que ξ 2 (t) decaiga velozmente aplicando una realimentación lineal de estados u = −2aξ 1 − a2 ξ 2 , que con a > 0 ubica los dos polos del subsistema lineal en (−a) . Si a es grande, el decaimiento exponencial de ξ 1 (t) , ξ 2 (t) es rápido, y el análisis “intuitivo” indica que cuanto mayor sea a más rápidamente ξ 2 (t) → 0, y entonces pareciera que el dominio de atracción de la cascada (con la realimentación del subsistema lineal) crece a medida que a → ∞.

Para que exista solución, el argumento del radical no debe anularse para ningún t > 0, ya que en caso contrario x (t) → ∞ para algún t finito. En particular, la salida ξ 2 (t) del sistema lineal con condiciones iniciales ξ 1 (0) = 1, ξ 2 (0) = 0 es ξ 2 (t) = −a2 te−at , que alcanza un máximo ξ 2M = −a/e en tp = 1/a. Para esta solución ξ 2 (t) la expresión de x (t) es x (t) = p x0 1 + [t + (1 + at)e−at − 1]x2 0 x0 . 1 + (a−1 + 2e−1 − 1)x2 0 x2 0 x2 (1 − 2e−1 ) − 1 0 (4.6)

y en particular, para t = tp ,

Si la ganancia a es tal que

x(tp ) = p a>

el radicando es negativo, lo que indica que x(tp ) no existe pues x(t) → ∞ antes de tp = 1/a. De modo que el comportamiento “intuitivo”, que sugería emplear valores elevados de a, en realidad empeora el comportamiento haciendo que la solución explote antes de un tiempo tp = a−1 . También es evidente que a medida que se eligen valores de a más elevados, el rango de condiciones iniciales x0 admisibles debe reducirse para evitar la desigualdad (4.6). En otras palabras, el tamaño del dominio de atracción se reduce cuando a crece. 2

Ejemplo 4.6 Circuito eléctrico en paralelo
El circuito eléctrico de la Fig. 4.4(a) se puede modelar por las ecuaciones diferenciales C v1 ˙ C v2 ˙ = = 1 (E − v1 ) − ψ(v1 ) − R 1 (E − v2 ) − ψ(v2 ) − R 1 (v1 − v2 ), RC 1 (v2 − v1 ). RC

Si se considera RC como el parámetro ε, hacer ε = 0 (reemplazar RC por un cortocircuito) es equivalente a conectar los dos capacitores en paralelo; en un modelo bien formulado deberían quedar reemplazados por un

6
único capacitor equivalente y el modelo simplificado queda de primer orden. Para representar la reducción de orden como una perturbación singular, se reescriben las ecuaciones de estado como εv1 ˙ εv2 ˙ = = ε (E − v1 ) − RC ε (E − v2 ) − RC ε ψ(v1 ) − C ε ψ(v2 ) − C 1 (v1 − v2 ), C 1 (v2 − v1 ). C

Las raíces de esta ecuación no están aisladas, que viola la hipótesis básica sobre las raíces de (4.3). En consecuencia, la elección de v1 y v2 como variables de estado no permite expresar el modelo en la forma típica. Sin embargo, eligiendo x = 1 (v1 + v2 ), z = 1 (v1 − v2 ), 2 2 las ecuaciones de estado en las nuevas variables resultan x ˙ εz ˙ = = 1 1 (E − x) − [ψ(x + z) + ψ(x − z)], RC 2C ¶ µ 2 ε ε + z− [ψ(x + z) − ψ(x − z)]. − RC C 2C 1 1 (E − x) − ψ(x). RC C

Si el modelo estuviese en la forma típica (4.1)-(4.2), tanto v1 como v2 deberían considerarse como las variables z, y la condición (4.3) resultaría v1 − v2 = 0.

Ahora, la única raíz de g(t, x, z, ε) = 0 es z = 0, que resulta en el modelo reducido x= ˙

Este modelo se representa en la Fig. 4.4(b), donde cada par de ramas equivalentes en paralelo se reemplaza por una única rama. Para obtener ε como un parámetro adimensional, se normalizan x, z, y ψ como xr = x , E zr = z , E ψ r (v) = R ψ(Ev) E

y se normaliza la variable temporal como tr = t/RC. Se obtiene entonces el modelo de perturbaciones singulares en forma típica dxr dtr dzr ε dtr = = 1 1 − xr − [ψr (xr + zr ) + ψr (xr − zr )], 2 ε −(ε + 2)zr − [ψr (xr + zr ) − ψ r (xr − zr )], 2 2

donde el parámetro ε = Rc /R es adimensional.

Ejemplo 4.7 Modelo de la suspensión de un automóvil
La Fig. 4.5(a) muestra un modelo del mecanismo de suspensión de un automóvil, donde ma , mc son las masas del auto y de la rueda, ka y kr son las constantes elásticas del resorte del amortiguador y de la rueda, ba es la constante de fricción viscosa del amortiguador, y F es una fuerza generada por un actuador que está presente en las suspensiones activas o semiactivas. Las distancias da , dr y dc son las elevaciones del autor, la rueda y la superficie de la carretera, respectivamente, respecto de un punto de referencia. De acuerdo a la ley de Newton, el balance de fuerzas que actúan sobre ma y mr resulta en las ecuaciones ¨ ˙ ˙ ma da + ba (da − dr ) + ka (da − dr ) = F, ˙ ˙ ¨ mr dr + ba (dr − da ) + ka (dr − da ) + kr (dr − dc ) = −F. p En un auto promedio, la frecuencia natural de oscilación de la rueda kr /mr es alrededor de 10 veces la p frecuencia natural de oscilación del cuerpo del auto ka /ma . Se define entonces el parámetro s r ka /ma ka mr = . ε= kr /mr kr ma Este sistema masa-resorte es interesante porque no puede expresarse en la forma de perturbaciones singulares típicas sin efectuar un escalamiento dependiente de ε. La rigidez de la rueda kr = O(1/ε2 ) tiende a infinito cuando ε → 0. Para que la energía potencial de la rueda kr (dr − dc )2 /2 quede acotada, el desplazamiento

4.3. PROPIEDADES TEMPORALES DEL MODELO TÍPICO

7

Fig. 4.5: Modelo de la suspensión de un automóvil. Modelo completo (a) y reducido (b) .

` ka ` ka p ˙ y se considera que u = F/(ka `) es la entrada de control, w = (dr /`) ma /ka como una entrada de p perturbación, y tr = t ma /ka como el tiempo normalizado. El modelo de perturbaciones singulares resultante es dx1 = x2 − z2 , dtr dx2 = −x1 − β(x2 − z2 ) + u, dtr dz1 = z2 − w, ε dtr dz2 = αx1 − αβ(z2 − x2 ) − z − αu, ε dtr con r ba ka ma , β= √ . α= kr mr ka ma En los autos promedios, con suspensión pasiva, α ∈ [0.6, 1.2], β ∈ [0.5, 0.8], ε ∈ [0.08, 0.135]. Para el caso de suspensiones activas o semiactivas, la constante de amortiguamiento puede reducirse porque la acción del actuador se puede controlar de manera de proveer amortiguamiento adicional. Haciendo ε = 0 se obtiene el modelo reducido dx1 = x2 − w, dtr dx2 = −x1 − β(x2 − w) + u, dtr que corresponde al modelo simplificado de un grado de libertad que se muestra en la Fig. 4.5(b). 2

dr − dc debe ser de O(ε); esto es, el desplazamiento escalado (dr − dc )/ε debe permanecer finito. Además de este escalamiento, se normalizan todas las variables para obtener un modelo adimensional. Las distancias p p se dividen por un factor `, las velocidades por ` ka /ma , las fuerzas por `ka y el tiempo por ma /ka . En consecuencia, para expresar el sistema en la forma de perturbaciones singulares típicas, se introducen las variables lentas y rápidas ⎛ d −d ⎞ ⎛ d −d ⎞ a r r c ε ε` ⎜ ⎟ ⎜ ⎟ ⎟ ⎟ x =⎜ ˙ r z =⎜ ˙ r ⎝ da ma ⎠ , ⎝ dr ma ⎠

4.3

Propiedades temporales del modelo típico

La respuesta ante estímulos externos de un sistema dinámico modelado con perturbaciones singulares está caracterizada por la presencia de transitorios rápidos y lentos. La respuesta lenta

8 es aproximadamente la respuesta del sistema reducido (4.5), mientras que la diferencia entre esta respuesta y la del modelo completo (4.1)-(4.2) es la respuesta rápida. El problema típico de perturbaciones singulares se representa con el sistema de ecuaciones x = f (t, x, z, ε), ˙ εz = g(t, x, z, ε), ˙ x(t0 ) = x0 (ε), z(t0 ) = z0 (ε), (4.7) (4.8)

donde las condiciones iniciales x0 (ε), z0 (ε) dependen suavemente de ε y t0 ∈ [t0 , t1 ). Las soluciones del problema completo (4.7)-(4.8) se notarán como x(t, ε) y z(t, ε). Al definir el problema correspondiente al modelo reducido (4.5), sólo se pueden especificar n condiciones iniciales; naturalmente, se retiene el estado inicial de x para obtener el problema reducido x = f [t, x, h(t, x), 0], ˙ x(t0 ) = x0 = x0 (0). (4.9)

La solución de (4.9) se notará como x(t). Como las variables z han sido excluidas del modelo ¯ reducido y reemplazadas por su “estado casi estacionario” h(t, x), la única información que puede obtenerse sobre z después de haber resuelto (4.9) es calcular z = h[t, x(t)] ¯ ¯ que describe el comportamiento casi estacionario de z cuando x(t) = x(t). En contraste con el ¯ comportamiento de la variable original z(t), que comienza en t0 con un valor z(t0 ) = z0 (ε), la variable z (t) de estado casi estacionario no es libre de tomar un valor arbitrario en t0 , y puede ¯ haber una gran diferencia entre su valor inicial z (t0 ) = h[t0 , x(t0 )] = h[t0 , x(t0 )] = h(t0 , x0 ) y el ¯ ¯ estado inicial de la variable z, dado por z(t0 ) = z0 (ε). Entonces z (t) no puede ser una aproximación ¯ uniforme de z(t, ε); lo mejor que puede esperarse es que la estimación z(t, ε) − z (t) = O(ε) ¯ se verifique en un intervalo que excluye a t0 , esto es, para t ∈ [tb , t1 ] donde tb > t0 . Por otra parte, es razonable pensar que la estimación x(t, ε) − x(t) = O(ε) ¯ sea uniformemente válida para todo t ∈ [t0 , t1 ], ya que x(t0 , ε) − x(t0 ) = x0 (ε) − x0 (0) = O(ε). ¯ Si el error z(t, ε) − z (t) es realmente O(ε) sobre [tb , t1 ], entonces debe ser cierto que durante el ¯ ¯ intervalo inicial [t0 , tb ] la variable z(t) se aproxima a z (t). La velocidad de aproximación puede ser alta, pues z = g(·)/ε. De hecho, eligiendo ε = 0 en (4.2) se hace que el transitorio de z(t) sea ˙ instantáneo si g(·) 6= 0. Evidentemente, para que z(t) converja a su estado casi estacionario z (t) ¯ deben satisfacerse ciertas condiciones de estabilidad. Para efectuar este análisis es más conveniente efectuar el cambio de variables y = z − h(t, x) (4.10) que desplaza el estado de casi equilibrio z al origen. En las nuevas variables (x, y), el problema completo es x = f [t, x, y+h(t, x), ε], ˙ ∂h ∂h εy = g[t, x, y+h(t, x), ε]−ε −ε f [t, x, y+h(t, x), ε], ˙ ∂t ∂x x(t0 ) = x0 (ε), (4.11)

y(t0 ) = z0 (ε)−h[t0 , x0 (ε)]. (4.12)

El estado casi estacionario de (4.12) es y = 0, que cuando se sustituye en 4.11 resulta en el modelo reducido (4.9). Para analizar (4.12), debe tenerse en cuenta que εy puede ser finita aún cuando ˙ ε → 0 e y → ∞. Por eso es conveniente cambiar la escala de tiempo, ˙ ε dy dy = , dt dτ de donde dτ 1 = , dt ε (4.13)

4.3. PROPIEDADES TEMPORALES DEL MODELO TÍPICO

9

eligiendo τ = 0 como el valor inicial en t = t0 . La nueva variable temporal τ = (t − t0 )/ε permite “ampliar” el nivel de detalle, ya que cuando ε tiende a cero τ tiende a infinito aún cuando t sea ligeramente mayor que t0 (siempre que esta diferencia sea independiente de ε). En la escala de tiempo τ (4.12) se expresa como dy ∂h ∂h = g[t, x, y + h(t, x), ε] − ε − ε f [t, x, y + h(t, x), ε], dτ ∂t ∂x y(0) = z0 (ε) − h[t0 , x0 (ε)]. (4.14)

Las variables t, x en la ecuación anterior varían lentamente, pues en la escala de tiempo τ están dadas por x(t) = x(t0 + ετ ). t = t0 + ετ , Hacer ε = 0 “congela” estas variables en t = t0 y x = x0 , y reduce (4.14) al sistema autónomo dy = g[t0 , x0 , y + h(t0 , x0 ), 0], dτ y(0) = z0 (0) − h[t0 , x0 (0)] = z0 − h(t0 , x0 ) (4.15)

que tiene un equilibrio en y = 0. Si este punto de equilibrio es asintóticamente estable y si y(0) pertenece a su dominio de atracción, es razonable esperar que la solución de (4.15) alcance un entorno O(ε) del origen durante el intervalo de acercamiento rápido [t0 , tb ]. Después de este intervalo, se necesita una propiedad de estabilidad que garantice que y(τ ) permanezca cerca del origen mientras que las variables (t, x) lentamente variantes evolucionan desde sus estados iniciales (t0 , x0 ). Para analizar esta situación se permite que los parámetros congelados tomen valores en la región donde viven las variables (t, x) lentamente variantes. Se verá en el Capítulo 5 que si el origen de (4.15) es exponencialmente estable, uniformemente en los parámetros congelados (t0 , x0 ), entonces permanece exponencialmente estable cuando estos parámetros se cambian por las variables (t, x) lentamente variantes. Si se supone que la solución x(t) del problema reducido está definida para t ∈ [t0 , t1 ], y x(t) ∈ X ⊂ ¯ ¯ Rn para algún conjunto abierto X. Se puede reescribir (4.15) como dy = g[t, x, y + h(t, x), 0] dτ (4.16)

donde t ∈ [t0 , t1 ] y x ∈ X se tratan como parámetros fijos. La ecuación (4.16) se denomina modelo o sistema de capa límite. A veces esta definición se utiliza para designar a (4.15), aunque esto no debe causar confusión porque (4.15) es una evaluación de (4.16) para un tiempo y un estado inicial dados. La propiedad de estabilidad crucial para este problema es la estabilidad exponencial del origen uniformemente en los parámetros “congelados”, que se define a continuación. Definición 4.1 Estabilidad exponencial uniforme. El punto de equilibrio y = 0 del sistema de capa límite dy = g[t, x, y + h(t, x), 0] dτ es exponencialmente estable, uniformemente para t ∈ [t0 , t1 ], x ∈ X si existen constantes positivas k, γ y ρ0 tal que sus soluciones satisfacen ky(τ )k ≤ k ky(0)k e−γτ , y para todo ky(0)k < ρ0 , t ∈ [t0 , t1 ], x ∈ X. para todo τ ≥ 0, (4.17) 4

Aparte de unos pocos casos aislados donde la solución del problema de capa límite puede conocerse en forma exacta, la verificación de la estabilidad exponencial del origen puede hacerse por linealización o por análisis de Lyapunov. Para el caso de sistemas autónomos (i.e. cuando g no depende de t), se puede demostrar que si los autovalores de la matriz Jacobiana J= ∂g ∂y

10 satisfacen ½ ∙ ¸¾ ∂g Re λ [t, x, h(t, x), 0] ≤ −c < 0 ∂y

(4.18)

para t ∈ [t0 , t1 ], x ∈ X entonces existen constantes k, γ, ρ0 tal que se satisface (4.17). Por supuesto, este es un resultado local. Para más generalidad, incluyendo también el tratamiento de sistemas no autónomos, se pueden aplicar los resultados del Capítulo 5, que demuestran que si existe una función de Lyapunov V (t, x, y) tal que c1 kyk2 ≤ V (t, x, y) ≤ c2 kyk2 ,

∂V 2 g[t, x, y + h(t, x), 0] ≤ −c3 kyk ∂y

donde Bρ = {y ∈ Y : kyk < ρ} ⊂ Y.

para t ∈ [t0 , t1 ], x ∈ X, y ∈ Y ⊂ Rm , donde Y es un conjunto abierto que contiene al origen, entonces (4.17) se satisface con las estimaciones p p k = c2 /c1 , γ = c3 /(2c2 ) ρ0 = ρ c1 /c2 , Teorema 1 (Tikhonov). Dado el problema de perturbaciones singulares (4.7)-(4.8) x = f (t, x, z, ε), ˙ εz = g(t, x, z, ε), ˙ donde z = h(t, x) es una raíz aislada de (4.3) 0 = g(t, x, z, ε). (4.3) x(t0 ) = x0 (ε), z(t0 ) = z0 (ε), (4.7) (4.8)

Si las siguientes condiciones se satisfacen para todo t ∈ [t0 , t1 ], x ∈ X ⊂ Rn , z − h(t, x) ∈ Y ⊂ Rm , ε ∈ [0, ε0 ], donde X es convexo e Y contiene al origen: • Las funciones f, g, sus primeras derivadas parciales respecto a (x, z, ε) y la primera derivada parcial de g con respecto a t son continuas; la función h(t, x) y el Jacobiano ∂g(t, x, z, 0)/∂z tienen primeras derivadas parciales continuas respecto a sus argumentos; las condiciones iniciales x0 (ε) y z0 (ε) son funciones suaves de ε. • El problema reducido (4.9) x = f [t, x, h(t, x), 0], ˙ x(t0 ) = x0 = x0 (0), (4.9) tiene solución única x(t) ∈ S para t ∈ [t0 , t1 ], donde S es un subconjunto compacto de X. ¯ • El origen es un punto de equilibrio exponencialmente estable del modelo de capa límite (4.16) dy = g[t, x, y + h(t, x), 0], dτ uniformemente en t, x. • El dominio de atracción de (4.15), dy = g[t0 , x0 , y + h(t0 , x0 ), 0], dτ y(0) = z0 (0) − h[t0 , x0 (0)] = z0 − h(t0 , x0 ) (4.15) (4.16)

es Ry ⊂ Y, y Ωy es un subconjunto compacto de Ry . Existe entonces una constante positiva ε∗ tal que para todo z0 − h(t0 , x0 ) ∈ Ωy y ε ∈ (0, ε∗ ) el problema de perturbaciones singulares (4.7)-(4.8) tiene una única solución x(t, ε), z(t, ε) en [t0 , t1 ]. Además se verifica que x(t, ε) − x(t) = O(ε), ¯ z(t, ε) − h[t, x(t)] − y (t/ε) = O(ε), ¯ ¯ (4.19) (4.20)

4.3. PROPIEDADES TEMPORALES DEL MODELO TÍPICO

11

uniformemente para t ∈ [t0 , t1 ], donde y (τ ) es la solución del problema de capa límite (4.15). ¯ Además, dado cualquier tb > t0 , existe un ε∗∗ ≤ ε∗ tal que z(t, ε) y z = h[t, x(t)] verifican ¯ ¯ z(t, ε) − h[t, x(t)] = O(ε) ¯ uniformemente para t ∈ [tb , t1 ] y para todo ε < ε∗∗ . (4.21) 2

La demostración del Teorema se basa en las propiedades de estabilidad del modelo de capa límite para probar que α ky(t, ε)k ≤ k1 e− ε (t−t0 ) + εδ. Rt Esta cota se utiliza en (4.11) para probar (4.19), lo que es plausible, ya que 0 e−αs/ε ds es O(ε). La prueba concluye con un análisis de error de (4.12) en la escala de tiempo τ para probar (4.20) y (4.21). Ejemplo 4.8 Motor de corriente continua controlado por armadura
El motor de corriente continua controlado por armadura del Ejemplo 4.1 tiene como modelo típico x = z, ˙ εz = −x − z + u(t), ˙ x(0) = x0 , z(0) = z0 .

Se supone que u(t) = t para t ≥ 0, y se desea resolver las ecuaciones de estado para t ∈ [0, 1]. En este ejemplo es evidente que f (t, x, z, ε) g(t, x, z, ε) = = z, −x − z + t.

El modelo reducido. Para calcular el modelo reducido se hace ε = 0, y se resuelve (4.3), i.e. g(t, x, z, 0) = 0; la única raíz es z(t) = h(t, x) = −x + t. Modelo de capa límite (4.16). Efectuando el cambio de coordenadas y = z − h(t, x), se tiene y = z + x − t. Después de efectuar el reescalado temporal, dy dτ = = = = g{t0 , x(t0 ), y + h[t0 , x(t0 )], 0} −x(t0 ) − {y + h[t0 , x(t0 )]} + t0 −x0 − y − h[t0 , x(t0 )] + t0 −y

Evidentemente, el modelo de capa límite es globalmente exponencialmente estable. Las condiciones iniciales son y0 = z0 − h(t0 , x0 ) = z0 + x0 Problema reducido. Está dado por (4.9) x ˙ = f [t, x, h(t, x), 0], = −x + t, Soluciones. La solución del problema reducido es x(t) = t − 1 + (1 + x0 )e−t . ¯ mientras que la solución rápida de estado casi estacionario está dada por z (t) ¯ = = La solución del problema de capa límite es y(τ ) = (x0 + z0 )e−τ . h[t, x(t)] = −¯(t) + t ¯ x 1 − (1 + x0 )e−t . x(t0 ) = x0 , x(0) = x0 .

12

Fig. 4.6: Lugar de las raíces para el sistema del Ejemplo 4.8.

De acuerdo al Teorema 1, x(t, ε) − x(t) ¯ = = x(t, ε) − [t − 1 + (1 + x0 )e−t ] = O(ε),

z(t, ε) − h[t, x(t)] − y (t/ε) ¯ ¯

z(t, ε) − [1 − (1 + x0 )e−t ] − [(x0 + z0 )e−t/ε ] = O(ε),

En este caso se puede calcular la solución exacta ya que el sistema es lineal. Se tiene que x(t, ε) = = donde ρ = t − 1 + (1 + x0 )
−t −t i ´ −kρ kρ −kρ e 2ε h e 2ε ³ kρ (ρ − 1)e 2ε + (ρ + 1)e 2ε + ε(1 − z0 ) e 2ε + e 2ε 2ρ ρ −t

t − 1 + (1 + x0 )e 2ε cosh

√ 1 − 4ε, y
−t

¡ kρ ¢

+

¡ ¢ ¡ ¢¤ e 2ε £ (1 + x0 ) sinh kρ + 2ε(1 − z0 ) cosh kρ 2ε 2ε 2ρ
−t

−t

z(t, ε)

=

1+

−kρ kρ e 2ε e 2ε [(1 − ρ) + 2x0 + z0 (1 + ρ)] e 2ε − [(1 + ρ) + 2x0 + z0 (1 − ρ)] e 2ε 2ρ 2ρ −t

De la expresión de estas soluciones se observa que se verifican las predicciones del Teorema.

¡ ¢ ¡ ¢¤ e 2ε £ −(1 + z0 )ρ cosh kρ + (1 + 2x0 + z0 ) sinh kρ = 1+ 2ε 2ε 2ρ √ √ Si ε ¿ 1 se puede aproximar ρ = 1 − 4ε ∼ 1 − 2ε, y 1/ρ = 1/ 1 − 4ε ∼ 1 + 2ε, y entonces, = = ´ ³ t−εt + O(ε2 ), x(t, ε) ∼ t − 1 + (1 + x0 )e−t + ε (x0 + z0 ) e−t − e− τ = ´ ³ t−εt t−εt + O(ε2 ), z(t, ε) ∼ 1 − (1 + x0 )e−t + (x0 + z0 )e− ε − ε (1 + 2x0 + z0 ) e−t − e− τ =

cuyos autovalores son

Como el sistema es lineal la doble escala de tiempo queda en evidencia a partir de los polos del sistema. En este caso, µ ¶ µ ¶µ ¶ µ ¶ x ˙ 0 1 x 0 = + u(t) z ˙ −1/ε −1/ε z 1/ε √ 1 − 4ε = −1 − ε − 2ε2 − 5ε3 + · · · , 2ε √ ¢ 1 ¡ −1 − 1 − 4ε = − − −1 − ε − 2ε2 − 5ε3 + · · · . 2ε ε −1 +

λ1 λ2

= =

Se observa que cuando ε → 0 el polo “lento” λ1 tiende a (−1), mientras que el polo rápido λ2 tiende a (−∞). La Fig. 4.6 muestra el lugar de las raíces del sistema. 2

Ejemplo 4.9 Circuito eléctrico con diodo túnel
El modelo reducido del circuito adimensional del Ejemplo 4.3 se obtiene haciendo ε = 0. Se tiene entonces que Rd zr = h(tr , xr ) = − x2r , R2 − Rd

4.3. PROPIEDADES TEMPORALES DEL MODELO TÍPICO
y entonces el modelo reducido es ⎛

13

Para encontrar el modelo de capa límite se efectúa el cambio de coordenadas y = zr − h(tr , xr ) de donde resulta dy dτ = = g[tr , xr , y + h(tr , xr ), 0] ¶ µ ¶ µ Rd R2 R2 − Rd x2r + − 1 y. y− x2r = Rd R2 − Rd Rd

⎞ ⎛ τ2 dx1r − ⎜ dtr ⎟ ⎜ τ 1 ⎟=⎜ ⎜ ⎝ dx2r ⎠ ⎝ R2 − R1 dtr

τ2 τ1 Rd R2 − Rd

⎞ ⎟ ⎟ ⎠

µ

x1r x2r

.

Si R2 > Rd el modelo de capa límite es inestable: en estas condiciones el comportamiento del sistema completo no puede estudiarse a partir del modelo reducido. Respecto de este último, la matriz característica es Hurwitz (es decir, tiene todos sus autovalores con parte real negativa) si la traza es negativa y el determinante positivo, i.e. µ ¶ τ2 Rd τ 2 R2 Rd τ =− + < 0, ∆= − >0 τ1 R2 − Rd τ 1 R1 R2 − Rd de donde resulta Rd τ2 R2 < < . R1 R2 − Rd τ1 Como R1 , R2 , τ 1 , τ 2 son parámetros positivos, para que el modelo reducido sea estable es necesario que al menos R2 > Rd . Esta condición es la de inestabilidad del modelo de capa límite; en consecuencia, el comportamiento del sistema reducido no se aproxima al del sistema completo. Este ejemplo muestra que despreciar a priori el efecto de elementos parásitos puede tener serias consecuencias: en base al análisis con el sistema “simplificado” (reducido) se puede pensar que el sistema “real” es estable cuando en realidad es inestable. 2

Ejemplo 4.10 Realimentación de alta ganancia
El modelo de perturbaciones singulares del Ejemplo 4.4 es x = Ax + bz, ˙ εz = ψ[u(t) − z − k2 cx], ˙ x(0) = x0, z(0) = z0 ,

donde se supone que u(t) = 1 para t ≥ 0, y ψ(·) = arctan(·). La única raíz de (4.3)es z(t) = h(t, x) = 1 − k2 cx, y el modelo de capa límite (4.16) es dy = arctan(−y) = − arctan(y). dτ El Jacobiano es J= ¯ ¯ ∂g ¯ 1 ¯ ¯ ¯ = − = −1, ∂y ¯y=0 1 + y 2 ¯y=0

que muestra que el origen del modelo de capa límite es localmente exponencialmente estable; también es globalmente asintóticamente estable. Como el problema reducido x = (A − k2 bc)x + b · 1, ˙ x(0) = x0 ,

es lineal, es evidente que se satisfacen las hipótesis del Teorema 1, y entonces es válido aproximar las soluciones de x(t, ε) y de z(t, ε) en función de los modelos reducidos y de capa límite, respectivamente. 2

14

Fig. 4.7: Modelo de capa límite para el sistema del Ejemplo 4.11: z1 = h1 (t, x) = −(1 + t)x (a) ; z2 = h2 (t, x) = 0 (b) y z3 = h3 (t, x) = (1 + t) (c) .

Ejemplo 4.11 Sistema no autónomo Para el sistema no lineal y no autónomo
x = (1 + t) ˙ x2 , z x(0) = 1, z(0) = z0 ,

εz = −[z + (1 + t)x]z[z − (1 + t)], ˙

al obtener el modelo reducido haciendo ε = 0 se encuentra que la ecuación 0 = g(t, x, z, 0) = −[z + (1 + t)x]z[z + (1 + t)x] tiene tres raíces aisladas en la región t ≥ 0, x > k, donde 0 < k < 1. Para cada una de estas raíces se puede obtener un modelo reducido. • Considerando en primer lugar la raíz z1 = h1 (t, x) = (1+t)x, se define y = z −h1 (t, x), y se encuentra que el modelo de capa límite (4.16) es dy = g1 [t, x, y + h1 (t, x), 0] dτ = −y[y − (1 + t)x][y − (1 + t)x − (1 + t)]. Para aplicar el Teorema 1 debe estudiarse la estabilidad de este sistema de capa límite. El gráfico de la función del miembro derecho [Fig. 4.7(a)] muestra que el origen es asintóticamente estable con y < (t + 1)x como su dominio de atracción. Tomando V (y) = y 2 , es evidente que V satisface (??) con c1 = c2 = 1, y además dV g1 [t, x, y + h1 (t, x), 0] = −2y 2 [y − (1 + t)x][y − (1 + t)x − (1 + t)] dy ≤ −c3 y 2 si 2[(1 + t)x − y][(1 + t)x + (1 + t) − y] ≥ c3 , que se satisface para algún c3 si y ≤ ρ < (1 + t)x. En consecuencia, el equilibrio y = 0 del sistema de capa límite es exponencialmente estable. El modelo reducido para la raíz z1 = −(1 + t)x es entonces ¯ x2 ¯ = −x, x(0) = 1 x = (1 + t) ¯ ˙ z ¯z=−(1+t)x x(t) = e−t ¯ para todo t ≥ 0. z1 = −(1 + t)x, z2 = 0, z3 = (1 + t).

cuya solución es

El modelo de capa límite (4.16) con t = 0 y x = 1 es

dy = g1 [t, x, y + h2 (t, x), 0] dτ = −y[y − (1 + t)x][y − (1 + t)x − (1 + t)]|t=0,x=1

= −y(y − 1)(y − 2),

4.3. PROPIEDADES TEMPORALES DEL MODELO TÍPICO

15

y su región de atracción está dada por las condiciones iniciales que satisfacen y(0) < 1, o bien que z0 < 0. • Para la raíz z2 = h2 (t, x) = 0, el modelo de capa límite es dy = g2 [t, x, y + h2 (t, x), 0] dτ = −[y + (1 + t)x]y[y − (1 + t)] Un gráfico de la función del miembro derecho se muestra en la Fig. 4.7(b) que muestra que el origen y = 0 es inestable. En consecuencia no se puede aplicar el Teorema 1. • Para la raíz z3 = h3 (t, x) = 1 + t, el modelo de capa límite (4.16) es dy = g3 [t, x, y + h3 (t, x), 0] dτ = −[y + (1 + t) + (1 + t)x][y + (1 + t)]y.

con condiciones iniciales y(0) = z0 + x0 = z0 + 1. El origen y = 0 de este sistema el localmente exponencialmente estable, pues ¯ ¯ ∂g1 ¯ ¯ = −3y 2 + 6y − 2¯y=0 = −2. J= ∂y ¯y=0

El gráfico de la función del miembro derecho se ilustra en la Fig. 4.7(c); de manera similar al primer caso, se puede demostrar que el origen y = 0 es localmente exponencialmente estable. El modelo reducido es ¯ x2 ¯ x = (1 + t) ¯ ˙ = x2 , x(0) = 1, z ¯z=(1+t) que tiene como solución 1 , 1−t para todo t ∈ [0, 1). Aunque la solución tiene un tiempo de escape finito en t = 1, el Teorema 1 sigue siendo válido sobre un intervalo [0, t1 ], donde t1 < 1. El problema de capa límite con t = 0, x = 1 es x(t) = ¯ dy = −(y + 2)(y + 1)y, dτ y(0) = z0 − h3 (t0 , x0 ) = z0 − 1,

y su región de atracción está dada por las condiciones iniciales que satisfacen y(0) > −1, o bien que z0 > 0. De las tres raíces de (4.3) sólo dos de ellas, z1 = h1 (t, x) = −(1 + t)x y z3 = h3 (t, x) = 1 + t permiten obtener modelos reducidos válidos. El teorema de Tikhonov (1) se aplica a la raíz h1 (t, x) si z0 < 0 y a la raíz h3 (t, x) si z0 > 0. Las Fig. 4.8 ilustran los resultados de simulaciones para ε = 0.1. La Fig. 4.8(a) muestra la evolución de (1) la solución exacta z(t, ε) y de la solución aproximada z (t) para cuatro condiciones iniciales: z01 = −2, ¯ (1) (3) (3) z02 = −3/10 para el modelo reducido asociado a z1 y z01 = 2, z02 = 1/2 para el modelo reducido asociado a z3 . Las trayectorias muestran claramente la doble escala de tiempo: comienzan con un rápido transitorio de z(t, ε) desde z0 hacia z (t), y luego permanecen en un entorno de z (t). Para la condición inicial ¯ ¯ (1) z02 = −3/10 la convergencia a z (t) no se alcanza en el intervalo de tiempo que se muestra en la figura. El ¯ mismo caso se muestra en la Fig. 4.8(b) sobre un intervalo de tiempo mayor, donde se observa que z(t, ε) se aproxima a z (t). En la Fig. 4.8(a) es evidente la aproximación asintótica O(ε) resultante del Teorema de ¯ Tikhonov. 2

que es localmente exponencialmente estable pues ¯ ¯ ∂g3 ¯ ¯ = −3y 2 − 6y − 2¯y=0 = −2 J= ¯ ∂y y=0

16

Fig. 4.8: Resultados de simulación del sistema del Ejemplo 4.11. Soluciones rápidas exactas z(t, ε) y (1) (1) (3) aproximadas z (t) para ε = 0.1 y cuatro condiciones iniciales distintas: z01 = −2, z02 = −0.3, z01 = 2, ¯ (3) ¯ ¯ z02 = 0.5 (a) . Soluciones exactas z(t, ε), x(t, ε) y aproximadas z (t), x(t) para ε = 0.1, y x(0) = 2, (1) z(0) = z02 = −0.3 (b) .

4.4

Variedades rápidas y lentas

En esta sección se estudia el comportamiento en dos escalas de tiempo desde un punto de vista geométrico, como trayectorias en Rn+m . Una variedad k -dimensional en Rn (1 ≤ k ≤ n) es un objeto matemático bien definido. Para los fines de este apunte es suficiente pensar que una variedad k-dimensional es la solución de una ecuación η(x) = 0, donde η : Rn → Rn−k es suficientemente suave (esto es, varias veces continuamente diferenciable). Por ejemplo, el 2 círculo unitario {(x1 , x2 ) ∈ R2 : xP x2 = 1} es una variedad 1-dimensional en R2 . La es1 + 2 n n 2 n fera unitaria {(x1 , . . . , xn ) ∈ R : i=1 xi = 1} es una variedad (n − 1)-dimensional en R . Una variedad {η(x) = 0} es una variedad (positiva) invariante para el sistema x = f (x) si ˙ η[x(t0 )] = 0 ⇒ η[x(t)] ≡ 0 para todo t ≥ t0 . En otras palabras, si la condición inicial en t = t0 está sobre la variedad, la solución permanece sobre la variedad para todo t ≥ t0 . Para poder trabajar con variedades invariantes, se restringe el estudio al caso de sistemas autónomos, y para simplificar la notación se supone que f (·) y g(·) son independientes de ε. Por lo tanto se considera la siguiente forma más simple del problema de perturbaciones singulares (4.1)-(4.2): x = f (x, z), ˙ εz = g(x, z). ˙ (4.22) (4.23)

Cuando ε = 0, z = h(x) es una raíz aislada de 0 = g(x, z) que satisface las hipótesis del Teorema 1. La ecuación z = h(x) describe una variedad n-dimensional en el espacio (m + n)-dimensional de (x, z), y es una variedad invariante del sistema x = f (x, z), ˙ 0 = g(x, z), (4.24) (4.25)

pues una trayectoria de (4.24)-(4.25) que comienza en la variedad z = h(x) permanece en ella para todo t ≥ t0 para el cual la solución esté definida. El comportamiento sobre esta variedad queda descrito por el modelo reducido x = f [x, h(x)]. ˙ El Teorema 1 demuestra que las trayectorias de (4.22)-(4.23), que comienzan en un entorno O(ε) de z = h(x) permanecerán dentro de ese entorno. Este comportamiento motiva la siguiente pregunta: ¿Existe un análogo de la variedad invariante para el caso en que ε > 0? Resulta que, bajo las hipótesis del Teorema 1, existe una variedad invariante para el sistema (4.22)-(4.23) que yace a una distancia O(ε) de la variedad z = h(x). La idea es encontrar un invariante para (4.22)-(4.23) de la forma z = H(x, ε) (4.26)

4.4. VARIEDADES RÁPIDAS Y LENTAS

17

donde H(·) es una función suficientemente suave de x y de ε. La expresión (4.26) define una variedad n-dimensional, dependiente de ε, en el espacio (n + m) dimensional de (x, z). Para que z = H(x, ε) sea una variedad invariante de (4.22)-(4.23), se debe verificar que z(0, ε) − H[x(0, ε), ε] = 0 ⇒ z(t, ε) − H[x(t, ε), ε] ≡ 0 para todo t ∈ J ⊂ [0, ∞), donde J es cualquier intervalo sobre el cual existe la solución [x(t, ε), z(t, ε)]. Diferenciando ambos miembros de (4.26) respecto del tiempo, multiplicando por ε y sustituyendo x, εz y z por (4.22), (4.23) y (4.26), respectivamente, se obtiene la condición de la ˙ ˙ variedad ∂H 0 = g[x, H(x, ε)] − ε f [x, H(x, ε)] (4.27) ∂x que H(x, ε) debe satisfacer para todo x en la región de interés, y para todo ε ∈ [0, ε0 ]. En ε = 0 la ecuación diferencial a derivadas parciales (4.27) degenera en 0 = g[x, H(x, 0)], que muestra que H(x, 0) = h(x). Como 0 = g(x, z) puede tener más de una raíz aislada z = h(x) se debe buscar un invariante para (4.22)-(4.23) en un entorno de cada raíz. Se puede demostrar que existe un ε∗ > 0 y una función H(x, ε) que satisface la condición de la variedad (4.27) para todo ε ∈ [0, ε∗ ] y tal que H(x, ε) − h(x) = O(ε) para x acotados. La variedad invariante z = H(x, ε) se denomina la variedad lenta para (4.22)(4.23). A cada variedad lenta corresponde un modelo “lento” x = f [x, H(x, ε)] ˙ que describe exactamente el comportamiento en esa variedad. En la mayoría de los casos no se puede resolver exactamente la condición de la variedad (4.27), pero se puede aproximar H(x, ε) arbitrariamente tan cerca como se desee utilizando una serie de Taylor en un entorno de ε = 0. El procedimiento se basa en sustituir en (4.27) una serie de Taylor para H(x, ε), H(x, ε) = H0 (x) + εH1 (x) + ε2 H2 (x) + · · · y calculando H0 (x), H1 (x), etc. igualando los coeficientes de la misma potencia en ε. Esto requiere que las funciones f (·), g(·) sean continuamente diferenciables en sus argumentos un número suficiente de veces. Es evidente que H0 (x) = H(x, 0) = h(x). La ecuación para H1 (x) es ∂h ∂g[x, h(x)] H1 (x) = f [x, h(x)], ∂z ∂x y tiene solución única si el Jacobiano ∂g/∂z en z = h(x) es no singular, situación que queda implícita por la condición (4.18) impuesta a los autovalores. Las ecuaciones correspondientes a términos de orden superior también resultan lineales y resolubles si el Jacobiano ∂g/∂z es no singular. Para introducir la noción de una variedad “rápida”, se examinan (4.22)-(4.23) en la escala de tiempo τ = t/ε. En ε = 0, x(τ ) ≡ x(0), mientras que z(τ ) evoluciona según ∂z = g[x(0), z] ∂τ aproximándose al equilibrio z = h[x(0)]. Este comportamiento describe trayectorias (x, z) en Rn+m , que, para cada x(0) yacen en la variedad “rápida” Fx definida por x = x(0) = constante, y rápidamente descienden a la variedad z = h(x). Para ε > 0 pero pequeño, las variedades rápidas son foliaciones de soluciones aproximándose rápidamente a la variedad lenta. (4.28)

18

Fig. 4.9: Esquema del plano de fase del Ejemplo 4.12. Modelo aproximado para ε = 0 (a) y exacto para ε = 0.1 (b) .

Ejemplo 4.12 Sistema de segundo orden El sistema de segundo orden
x ˙ εz ˙ = = −x + z, arctan(1 − z − x),

tiene un punto de equilibrio en (x, z) = (1/2, 1/2). Para ε = 0, la única raíz de 0 = g(x, z) = arctan(1 − z − x) es z = h(x) = 1 − x, que es la variedad lenta. El modelo lento es entonces x = −2x + 1, ˙ que tiene un punto de equilibrio en x = 1/2. Por lo tanto las trayectorias sobre la variedad lenta se dirigirán hacia el punto P = (1/2, 1/2), como muestra la Fig. 4.12(a). Las variedades rápidas para ε = 0 son paralelas al eje z, y las trayectorias se dirigen hacia la variedad lenta z = 1 − x. Con esta información es posible construir un boceto aproximado del plano de fase del sistema. Por ejemplo, una trayectoria que comience en el punto A se moverá verticalmente hasta colisionar con la variedad lenta z = 1 − x en el punto B. Desde B la trayectoria se desliza sobre la variedad lenta hacia el punto de equilibrio P. De manera similar, para una condición C, la trayectoria sigue una línea vertical hasta el punto D, y luego se desplaza hacia el punto de equilibrio sobre la variedad lenta. Para ε 6= 0 pero pequeño, el plano de fase del sistema será similar al obtenido para ε = 0, como se aprecia en la Fig. 4.12(b) calculada para ε = 0.1. 2

Ejemplo 4.13 Sistema de van der Pol La ecuación de van der Pol dy d2 y − μ(1 − y 2 ) + y = 0, dt2 dt1 1 cuando μ À 1 se puede expresar en la forma típica de perturbaciones singulares efectuando el cambio de coordenadas 1 dy 1 x=− + y − y3 , z = y, μ dt1 3
escalando la variable temporal como t = t1 /μ, y definiendo ε = 1/μ2 : x ˙ εz ˙ = = z, −x + z − 1 z 3 . 3

Con el auxilio de otras herramientas estudiadas en el curso, se conoce que la ecuación de van der Pol tiene un ciclo límite estable (aplicando el teorema de Poincaré-Bendixon), y que la amplitud de ese ciclo límite es aproximadamente igual a 2 (en el sistemas de coordenadas y-y), al menos para μ pequeño (ε grande) ˙ utilizando los métodos de promediación de Krylov-Boguliubov o perturbacionales de Linstedt-Poincaré. El enfoque basado en las perturbaciones singulares permite tener una estimación más precisa de la ubicación del ciclo límite, aunque en otras coordenadas. Para ε = 0, las raíces aisladas z = h(x) de 0 = g(x, z) resultan de 0 = −x + z − 1 z 3 . 3

4.4. VARIEDADES RÁPIDAS Y LENTAS

19

Fig. 4.10: Oscilador de van der Pol. Variedad lenta z = h(x) para ε = 0 (a) y esquema aproximado del plano de fase (b) . La curva −x + z − 1 z 3 = 0, la variedad “lenta” para ε = 0, se muestra en la Fig. 4.10(a). Para x < −2/3 3 hay sólo una raíz en la rama AB. Para −2/3 < x < 2/3 hay tres raíces, una en cada una de las ramas AB, BC, y CD. Para x > 2/3 sólo hay una raíz en la rama CD. Para las raíces que están en la rama AB, el Jacobiano ∂g = 1 − z 2 < 0, para z 2 > 1. ∂z Por lo tanto las raíces sobre la rama AB son exponencialmente estables (salvo las ubicadas en un entorno de B). Lo mismo ocurre con las raíces ubicadas sobre la rama CD (excluyendo un entorno del punto C). Por otra parte, las raíces sobre la rama BC son inestables porque yacen en la región z 2 < 1. Aplicando las ideas de las perturbaciones singulares se puede construir un esquema aproximado del comportamiento en el plano de fase. Se divide el plano de fase en tres regiones según el valor de x. • Las trayectorias que comienzan en la región x < −2/3 se moverán de manera paralela al eje z aproximándose a la rama AB de la variedad lenta. • Las trayectorias que tienen su condición inicial en la franja −2/3 < x < 2/3 también se moverán paralelas al eje z, aproximándose a la rama AB o a la CD dependiendo del valor inicial z0 de z. Si z0 está por encima de la rama BC, la trayectoria se aproximará a la rama AB; en caso contrario se aproximará a la rama CD. • Las trayectorias que tengan como condiciones iniciales puntos sobre la variedad lenta, se moverán sobre ella. La dirección del movimiento puede determinarse por inspección del signo del campo vectorial, como se indica en la Fig. 4.10(b). En particular, como x = z, las trayectorias sobre la rama AB se ˙ deslizarán hacia abajo (x = z > 0 ⇒ x crece), mientras que las ubicadas sobre la rama CD treparán ˙ hacia arriba (x = z < 0 ⇒ x decrece). ˙ • Las trayectorias que tienen su condición inicial en x > 2/3 se aproximarán a la rama CD.

• No tiene sentido estudiar el movimiento sobre la rama BC porque según el Teorema de Tikhonov 1 no existen modelos reducidos asociados a las raíces inestables de esta rama. Hasta ahora se ha determinado un esquema aproximado de las trayectorias en todo el plano de fase, con excepción de la rama BC y un entorno de los puntos B y C: no se puede aplicar la teoría de perturbaciones singulares en estas regiones.

Para estudiar qué sucede en un entorno de B cuando ε es positivo pero pequeño, se observa que las trayectorias que se deslizaban sobre la rama AB hacia B cuando ε = 0 se mueven sobre la variedad exacta z = H(x, e) si ε 6= 0. Como la trayectoria se está moviendo hacia B, debe ser εz = g(x, z) < 0, y por lo ˙ tanto, la variedad lenta exacta debe estar ubicada ligeramente por encima de la rama AB. La inspección del campo vectorial en un entorno de B muestra que la trayectoria cruza la línea vertical que pasa por B (esto es, x = 2/3) en un punto por encima de B. Una vez que la trayectoria cruza esta línea, queda en el dominio de atracción de la raíz estable sobre la rama CD. Por lo tanto, la trayectoria se mueve rápidamente (casi en una línea vertical) hacia la rama CD. Con argumento similares se puede mostrar que una trayectoria que se mueva sobre la rama CD cruza la línea x = −2/3 que pasa por C ligeramente por debajo de C, y después se moverá rápidamente hacia la rama AB, ya que queda en el dominio de atracción de la raíz estable de esa rama. Las trayectorias que se inicien en cualquier otro punto son atraídas hacia las ramas

20

Fig. 4.11: Trayectorias en el plano de fase del oscilador de van der Pol para ε = 0.1.

AB o CD, a las que se aproximan casi verticalmente. Una vez sobre la variedad lenta, las trayectorias se mueven hacia la curva cerrada EBF CE, si no están ya sobre ella, y quedarán ciclando allí. El ciclo límite exacto del oscilador de van der Pol estará ubicado en un entorno O(ε) de esta curva cerrada. El plano de fase de la Fig. 4.11, calculado para ε = 0.1 confirma esta predicción. El estudio simplificado (con ε = 0) permite estimar fácilmente el período de la oscilación de la solución periódica. La curva cerrada EBF CE tiene dos lados rápidos (BF y CE) y dos lentos (EB y F C). Despreciando la duración de los transitorios rápidos (de B a F y de C a E), se puede estimar el período de la oscilación T = tEB + tF C . El intervalo de tiempo TEB puede estimarse a partir del modelo reducido x ˙ 0 = = z −x + z − 1 z 3 3

Diferenciando la segunda ecuación respecto de t e igualando las expresiones para x se obtiene la ecuación ˙ diferencial z z= ˙ 1 − z2 de modo que tEB = = Z
tB

dt =
tE

El intervalo de tiempo tF C puede calcularse de manera similar, y por la simetría del problema, tEB = tF C . Por lo tanto el período aproximado de la oscilación del sistema de van der Pol es T = 3 − 2 ln 2 para ε pequeños. Este período está calculado para el modelo escalado expresado en la forma típica de perturbaciones singulares, donde la variable temporal está escalada por μ. Para el sistema en las variables originales, el período de oscilación está dado aproximadamente por T1 = (3 − 2 ln 2)μ para μ grande. 2

¯1 ln z − (1/2)z 2 ¯2 = −(1/2) − ln 2 + 2 = (3/2) − ln 2.

zB =1 Z zE =2

(1/z − z) dz

4.5. PERTURBACIONES SINGULARES EN SISTEMAS LINEALES

21

4.5

Perturbaciones singulares en sistemas lineales

Cuando los sistemas singularmente perturbados son lineales, los resultados se pueden expresar en función del espectro (conjunto de autovalores) de ciertas matrices. En esta sección se tratará con sistemas de la forma à ! à !à ! x ˙ A11 A12 x = (4.29) ε˙ z z A21 A22 donde x ∈ Rn , y ∈ Rm y las matrices Aij tienen dimensiones compatibles. Si se hace ε = 0 en (4.29), la segunda ecuación resulta 0 = g(x, z) = A21 x + A22 y. (4.30)

Si A22 no es singular las raíces de 0 = g(x, z) son aisladas, y además únicas. Entonces se puede despejar y de (4.30), z = −A−1 A21 x. (4.31) 22 Sustituyendo (4.31) en (4.29) se obtiene el sistema reducido x = (A11 + A12 A−1 A21 )x. ˙ 22 (4.32)

El resultado principal de esta sección es el Teorema 2 (abajo); previamente es conveniente definir algunos términos. La matriz característica del sistema reducido (4.32) es A0 = A11 + A12 A−1 A21 . 22 (4.33)

El espectro de la matriz A0 (el conjunto de autovalores de A0 ) se nota Λ = {λ1 , . . . , λn }, donde los autovalores repetidos aparecen tantas veces como sea su multiplicidad. El espectro de A22 se notará como Γ = {γ 1 , . . . γ m }. Si una matriz cuadrada tiene todos sus autovalores con parte real no nula se denomina hiperbólica; se dice que es Hurwitz si todos tienen parte real negativa. Teorema 2 Cotas sobre los autovalores. En el sistema lineal de perturbaciones singulares (4.29) se supone que A22 es no singular, y A0 es la matriz definida por (4.33). Entonces, dado δ > 0 existe un ε0 > 0 tal que los m + n autovalores α1 , . . . , αm+n de la matriz à ! A11 A12 (4.34) Aε = A21 /ε A22 /ε satisfacen las cotas |αi − λi | < δ, ¯ ¯ ¯εαi − γ i−n ¯ < δ, para i = 1, . . . n, para i = n + 1, . . . n + m. (4.35) (4.36)

(donde los λ1 , . . . , λn son los autovalores de A0 , y γ 1 , . . . , γ m son los autovalores de A22 ) para cualquier 0 < |ε| < ε0 . 4 Prueba. Para calcular los autovalores de Aε es conveniente aplicar una transformación de similaridad T sobre Aε de modo que la matriz resultante T−1 Aε T resulte triangular a bloques. Una tal matriz T está dada por à à ! ! In In Mε −Mε −1 T= con T = . 0m×n Im 0m×n Im Se debe buscar entonces una matriz Mε tal que à !à !à In A11 −Mε A12 In 0m×n Im A21 /ε A22 /ε ! à !

Mε Im

0m×n

=

0n×m Hε

(4.37)

22 Expandiendo el triple producto matricial en el miembro izquierdo de (4.37) se encuentra que para que el bloque 1,2 del producto sea cero la matriz Mε debe satisfacer 1 1 A11 Mε + A12 − Mε A21 Mε − Mε A22 = 0. ε ε (4.38)

Cuando ε → 0 algunos términos (4.38) tienden a infinito; para evitar este problema se supone que Mε tiene la forma Mε = εPε . (4.39) Sustituyendo en (4.38) y simplificando, se encuentra que Pε debe verificar εA11 Pε + A12 − εPε A21 Pε − Pε A22 = 0. (4.40)

Esta ecuación está bien definida cuando ε → 0; en efecto, haciendo ε = 0 en (4.40) se obtiene A12 − P0 A22 = 0, que puede resolverse para P0 por la hipótesis de no singularidad de A22 . Se tiene entonces P0 = A12 A−1 . 22 Si ε 6= 0, (4.40) es cuadrática en Pε . Sin embargo, como los coeficientes en (4.40) son continuos en ε, se puede concluir que para ε suficientemente pequeño existe una solución Pε de (4.40) que es próxima a P0 , Pε = P0 + O(ε), aunque no necesariamente es la única solución de (4.40). Se elige alguna de estas soluciones Pε y se define Mε como en (4.39). Expandiendo (4.37) se obtiene à ! à ! Fε 0n×m A11 − 1 Mε A21 0n×m ε = (4.42) 1 1 1 Gε Hε ε A21 ε A21 Mε + ε A22 Como se ha visto más arriba, Pε = P0 + O(ε) = Pε = A12 A−1 + O(ε), 22 y entonces de (4.42), se encuentra que Fε 1 = A11 − Mε A21 = A11 − Pε A21 ε = A11 − A12 A−1 A21 + O(ε) 22 = A0 + O(ε), 1 1 1 A21 Mε + A22 = A22 + A21 Pε ε ε ε 1 −1 A22 + A21 A12 A22 + O(ε) ε (4.41)

(4.43)

y Hε = =

(4.44)

Como la matriz en (4.42) es triangular en bloques, el espectro de Aε es la unión del espectro de Fε con el espectro de Hε . Cuando ε → 0, es evidente de (4.43) que Fε → A0 , y por lo tanto el espectro de Fε se aproxima al de A0 , o, en otras palabras, se verifica la cota (4.35). Finalmente, para ε → 0, el término A22 /ε de (4.44) domina sobre los demás términos (A22 es no singular) y por lo tanto se satisface la cota (4.36). 2 Los autovalores de la matriz Aε son los modos naturales del sistema completo (4.29). Las desigualdades (4.35)-(4.36) implican que, cuando ε → 0, n autovalores de Aε convergen a los autovalores de A0 , y los restantes m autovalores tienden a infinito, asintóticamente como γ i /ε. Este fenómeno se observa en el Ejemplo 4.8 y la Fig. 4.6. Si λi es un autovalor de A0 con multiplicidad ri ,

4.5. PERTURBACIONES SINGULARES EN SISTEMAS LINEALES

23

exactamente ri autovalores de Aε convergen a λi ; lo mismo ocurre con los autovalores γ i con multiplicidad si de A22 . Si todos los autovalores de Aε tienen parte real negativa, la solución del problema completo (4.29) tienden a 0 cuando t → ∞ para cada condición inicial; se dice que el sistema (4.29) es asintóticamente estable. Por otra parte, si alguno de los autovalores de Aε tiene parte real positiva, la norma de las soluciones de (4.29) tienden a infinito cuando t → ∞ para casi todas las condiciones iniciales; se dice entonces que el sistema es inestable. El siguiente Teorema es un corolario del Teorema 2. Teorema 3 Estabilidad de sistemas lineales de perturbaciones singulares Dada la matriz Aε (4.34) característica del sistema completo (4.29) y suponiendo que la matriz A22 es no singular, las siguientes afirmaciones son equivalentes: 1. Existe un ε0 > 0 tal que Aε es Hurwitz para 0 < ε < ε0 . 2. Las matrices A0 y A22 son Hurwitz. 4

En el léxico de perturbaciones singulares la matriz A22 representa la dinámica rápida, mientras que la matriz A0 representa la dinámica lenta. El razonamiento detrás de esta terminología puede explicarse aproximadamente como sigue. Si tanto A0 como A22 son Hurwitz, para cada ε suficientemente pequeño y positivo se define Mε como la solución de (4.38) tal que Mε = εPε → A12 A−1 cuando ε → 0. Se define un nuevo vector 22 de estados à ! à ! à !à ! wε x I Mε x =T = (4.45) z z 0 I z donde la variable wε = x − Mε z. La expresión (4.37) muestra que la dinámica del nuevo vector de estado está gobernada por à ! à !à ! wε ˙ wε Fε 0n×m = z ˙ Gε Hε z o, en forma expandida, wε ˙ z ˙ = Fε wε , = Gε wε + Hε z. (4.46)

De manera análoga al escalado temporal (4.13) efectuado en la Sección 4.3, se define la variable z ¯ temporal “rápida” τ = (t − t0 )/ε, y se definen las funciones ¯(τ ), wε (τ ) como ¯(τ )= z(ετ + t0 ), z wε (τ )= wε (ετ + t0 ). ¯

Con este cambio de la variable independiente, las ecuaciones de sistema (4.46) se pueden escribir como dwε (t) dt d¯(τ ) z dτ = Fε wε z ¯ = εHε¯(τ ) + εGε wε (τ ). (4.47) (4.48)

que son versiones escaladas en tiempo por un factor ε de z(·) y w(·). Se observa que ¯ dz(t) ¯ d¯(τ ) z ¯ . =ε dτ dt ¯t=ετ +t0

Estas ecuaciones permiten comprender mejor el comportamiento temporal de las funciones wε (t) y ¯(τ ). La ecuación (4.47) muestra que la respuesta temporal de wε (t) es independiente de las z condición inicial z0 = z(t0 ) y depende solamente de la condición inicial wε (t0 ). Como Mε → 0

24 cuando ε → 0, se observa de (4.45) que wε (t0 ) tiende a x(t0 ) cuando ε → 0. Por otra parte, (4.48) muestra que wε (τ ) actúa como una entrada al sistema cuya salida es ¯(τ ). Si wε (t0 ) = 0, para ¯ z todo t ≥ t0 ,entonces su versión escalada wε (τ ) ≡ 0 para todo τ ≥ 0, y (4.48) se simplifica a ¯ d¯(τ ) z z = εHε¯(τ ). dτ De (4.44) se nota que εHε → A22 cuando ε → 0. Por lo tanto, a medida que ε → 0 la variable ¯(τ ) luce aproximadamente como z ¯(τ ) = ¯(0)eA22 τ . z z Si wε (t0 ) 6= 0, entonces de (4.47), wε (t) = wε (t0 )eFε (t−t0 ) ∼ wε (t0 )eA0 (t−t0 ) , =

(4.49)

pues Fε → A0 cuando ε → 0. Entonces, si ε es muy pequeño, para estudiar el comportamiento de (4.48) se puede considerar que wε (τ ) como un vector constante wε (τ ) = wε (t0 ) para todo τ ≥ 0 ¯ ¯ en la escala de tiempo del sistema rápido. Notando que según (4.42) εGε = A21 , la solución aproximada de (4.48) es entonces1 ¯(τ ) ∼ eA22 τ [¯(0) + A−1 A21 wε (0)] − A−1 A21 wε (0) z z ¯ ¯ = 22 22 −1 −1 A22 t/ε ∼ e [¯(0) + A22 wε (t0 )] − A22 A21 wε (t0 ) z =

(4.50)

La ecuación (4.50) muestra porqué la variable z se suele denominar variable de estado rápida, y también que la dinámica “rápida” está determinada por la matriz A22 . Como muestra (4.47) cuando ε → 0 la matriz Mε → 0, y el vector wε → x, lo que justifica la denominación de x como variable de estado lenta, y su evolución temporal está regida por la matriz A0 como muestra (4.49). Ejemplo 4.14 Circuito eléctrico con diodo túnel
Para el sistema del Ejemplo 4.3, se tiene que x = (x1 , x2 )t , z =z, ⎛ ⎞ R1 1 ! Ã ¶ µ − 0 ⎜ L1 L1 ⎟ ⎜ ⎟ , A22 = R2 − Rd , A12 = 1 , A11 = ⎝ 1 1 ⎠ R2 Rd − − R2 C1 C1 R2 C1 y A0 = A11 + A12 A−1 A21 22 R1 ⎜ L1 =⎜ 1 ⎝ − C1 − ⎛

A21 =

µ

0

1 R2

Se puede verificar que A0 es Hurwitz si R2 > Rd . Sin embargo, en estas condiciones la matriz de la dinámica rápida A22 > 0, i. e. A22 no es Hurwitz. Aplicando el Teorema 3 se concluye que si 0 < Rd < R2 el sistema original caracterizado por la matriz Aε es inestable aún para ε pequeño y positivo aún cuando el sistema simplificado es asintóticamente estable. Nuevamente, se observa que el despreciar a priori elementos parásitos puede conducir a conclusiones incorrectas. 2

⎞ 1 ⎟ L1 ⎟. 1 ⎠ − (R2 − Rd )C1

Es posible generalizar los desarrollos precedentes para sistemas de la forma x = A(1/ε)x, ˙ donde cada elemento de la matriz A es un polinomio en 1/ε, pero el análisis de tales sistemas requiere de métodos y herramientas mucho más avanzadas.
Rt
0 1 La solución de una ecuación diferencial de la forma x(t) = Ax(t) + Bu(t), x(0) = x es x(t) = eAt x + ˙ 0 0 eA(t−σ) Bu(σ) dσ. En este caso u(σ)= u =constante, y entonces ¶ µ µZ t ¯t ¶ ¯ x(t) = eAt x0 + eAt e−Aσ dσ Bu =eAt x0 + eAt (−A−1 ) e−Aσ ¯ Bu 0 0 ³ ´ At At −1 −At At −1 −1 − I Bu = e (x0 + A Bu) − A Bu. = e x0 + e (−A ) e

4.6. REFERENCIAS

25

4.6

Referencias

H. K. Khalil, Nonlinear Systems, 3ra ed., Prentice-Hall, Upper Saddle River, 2002. R. Sepulchre, M. Jankovi´ , P. Kokotovi´, Constructive Nonlinear Control, Springer-Verlag, London, c c 1997, p. 154. H. J. Sussmann, P. Kokotovi´ , “The Peaking Phenomenon and the Global Stabilization of Nonlinear c Systems”, IEEE Trans. Aut. Control, 36, 4, August 1991, pp. 424-440. M. Vidyasagar, Nonlinear System Analysis, Prentice-Hall, Englewood Cliffs, New Jersey, 1993.