You are on page 1of 118

Departamento de Matemáticas

Facultad de Ciencias
Universidad de Los Andes

Ecuaciones Diferenciales Ordinarias

Marcos Lizana

Mérida – Venezuela
Junio de 2000
2
Contenido

1 Preliminares 7
§ 1.1 Espacio de las Funciones Continuas y Teoremas de Punto Fijo . . . . . 7
§ 1.2 Condición de Lipschitz . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
§ 1.3 Desigualdades Integrales . . . . . . . . . . . . . . . . . . . . . . . . . . 10
§ 1.4 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 12
§ 1.5 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Teorı́a General 15
§ 2.1 Existencia y Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
§ 2.2 Prolongación de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . 19
§ 2.3 Continuidad de las Soluciones Respecto a los Datos Iniciales. . . . . . . 24
§ 2.4 Dependencia Continua de las Soluciones Respecto a Parámetros . . . . 27
§ 2.5 Derivabilidad de las Soluciones Respecto a los Datos Iniciales y a Pará-
metros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
§ 2.6 E.D.O. con Parte Derecha Discontinua . . . . . . . . . . . . . . . . . . 33
§ 2.7 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3 Sistemas Lineales 39
§ 3.1 Sistemas Lineales Homogéneos . . . . . . . . . . . . . . . . . . . . . . . 39
§ 3.2 Sistemas Lineales No-Homogéneos . . . . . . . . . . . . . . . . . . . . . 42
§ 3.3 Sistemas Lineal Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . 43
§ 3.4 Sistemas Reducibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
§ 3.5 Sistemas Lineales Homegéneos a Coeficientes Periódicos . . . . . . . . . 45
§ 3.6 Sistemas Lineales ω-Periódicos No Homogéneos . . . . . . . . . . . . . . 48
§ 3.7 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 53
§ 3.8 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

4 Teorı́a de la Estabilidad 57
§ 4.1 Definiciones de Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 57
§ 4.2 Estabilidad para Sistemas Lineales . . . . . . . . . . . . . . . . . . . . . 59
§ 4.3 Sistemas Lineales a Coeficientes Constantes . . . . . . . . . . . . . . . . 61

3
4 Contenido

§ 4.4 Criterio de Estabilidad de Routh-Hurwitz . . . . . . . . . . . . . . . . . 63


§ 4.5 Sistemas Lineales Semi-Autónomos . . . . . . . . . . . . . . . . . . . . . 68
§ 4.6 Sistemas no Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
§ 4.7 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 72
§ 4.8 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

5 Segundo Método de Liapunov 75


§ 5.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
§ 5.2 Teoremas sobre Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . 79
§ 5.3 Funciones de Liapunov para Sistemas Lineales . . . . . . . . . . . . . . 85
§ 5.4 Inestabilidad de Sistemas Semi-lineales . . . . . . . . . . . . . . . . . . 90
§ 5.5 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 95
§ 5.6 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

6 Introducción a Sistemas Dinámicos 99


§ 6.1 Clasificación de Orbitas y Teorema de Poincaré-Bendixson . . . . . . . 99
§ 6.2 Clasificación de los Puntos Crı́ticos de Sistemas Bidimensionales . . . . 108
§ 6.3 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 113
§ 6.4 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
Contenido 5

Introducción

Es bien reconocido en el quehacer cientı́fico, bien sea en Fı́sica, Biologı́a, Quı́mica,


Ingenierı́a, etc., la utilidad de las ecuaciones diferenciales. También es conocido que
mientras mas fiable sea el modelo, mas compleja es su formulación matemática. Lo
cual requiere de un análisis cualitativo ya que un análisis cuantitativo prácticamente es
imposible por la complejidad de las ecuaciones diferenciales involucradas en el modelo
estudiado. Ası́, a partir del estudio de tales ecuaciones es posible predecir y/o tener
información acerca del fenómeno en cuestión.
El estudio de las ecuaciones diferenciales ha influenciado el desarrollo de otras áreas
de la matemática, por ejemplo topologı́a, análisis, etc. . En el prefacio del libro de
Daleckii y Krein [7] se explica como problemas de estabilidad para ecuaciones diferen-
ciales condujeron al desarrollo de la teorı́a espectral de operadores. Jean Dieudonné en
[8] refiriéndose a la historia del análisis funcional dedica seis de los nueve parágrafos a
la evolución de las ecuaciones diferenciales. No pretendemos decir que los únicos prob-
lemas importantes de las matemáticas son los provistos por ecuaciones diferenciales,
sólo queremos ayudar a terminar con aquella idea, que los problemas de ecuaciones
diferenciales se reducen a un largo y tedioso ejercicio de integración.
El objetivo de estas guı́as teórico-prácticas es reunir en un curso de un semestre los
fundamentos básicos de la teorı́a cualitativa de ecuaciones diferenciales, de modo que
el estudiante al final del curso esté en condiciones de abordar el estudio de la dinámica
local y/o global de modelos concretos. Se procura que estas guı́as sean autocontenidas
a fin de evitar la dispersión, ya que la bibliografı́a existente en ecuaciones diferenciales
es extensa. Cada Capı́tulo está acompañado de una sección de ejercicios y problemas
seleccionados cuidadosamente para que su grado de complejidad no exceda los objetivos
de estas guı́as y de una sección de comentarios y sugerencias que sirva de guı́a al
estudiante para estudios posteriores mas avanzados sobre ecuaciones diferenciales.
6 Contenido
Capı́tulo 1

Preliminares

La intención de este capı́tulo es la de presentar algunos hechos básicos que uti-


lizaremos en el desarrollo de estas notas, procurando ası́ que éstas se acerquen lo más
posible a ser auto contenidas.

§ 1.1 Espacio de las Funciones Continuas y Teoremas de Punto Fijo

Consideremos A y B dos espacios topológicos y denotemos por C[A, B] al conjunto


de todas las funciones continuas de A en B. En particular, el conjunto C[ [a, b], IRn ] con
las operaciones usuales de suma de funciones y producto por un escalar, es un espacio
vectorial. Además, con la norma kϕk = max{ | ϕ(t) |: t ∈ [a, b] } es un Espacio de
Banach separable, donde | · | es cualquier norma en IRn .
En Análisis es bastante común procurar caracterizar los conjunto compactos en un
espacio de funciones dado. En el caso concreto del espacio de las funciones continuas,
esta caracterización viene dada por el teorema de Arzela-Ascoli, el cual enunciaremos
para mayor completitud.

Definición 1.1 Sea A un subconjunto de C[ [a, b], IRn ]. Se dice que A es un conjunto
uniformemente acotado, si existe una constante K > 0; tal que kϕk ≤ K, para toda
ϕ ∈ A. Si para todo ε > 0, existe δ ≡ δ(ε) > 0, tal que | t − s |< δ implica que
| ϕ(t) − ϕ(s) |< ε, para cualquier ϕ ∈ A, entonces se dice que A es un conjunto
equicontinuo.

Lema 1.1 (Arzela-Ascoli,[11]) Un conjunto A ⊂ C[ [a, b], IRn ] es relativamente


compacto si y sólo si es uniformemente acotado y equicontinuo.

En particular, del lema de Arzela-Ascoli, se sigue que toda sucesión (ϕn )n≥1 de
un conjunto A equicontinuo y uniformemente acotado de C[ [a, b], IRn ], posee una sub-
sucesión uniformemente convergente sobre [a, b], puede ser que el lı́mite de la sub-
sucesión no pertenezca a A.
Veamos en lo que sigue algunos teoremas de punto fijo. Para ello, consideremos un
espacio métrico completo E y una transformación T : E → E.

Definición 1.2 Se dice que x ∈ E es un punto fijo de la transformación T, si


T x = x. Diremos que la aplicación T : E → E es una contracción, si existe una
constante L ∈ (0, 1), tal que d(T x, T y) ≤ L d(x, y), para todo x, y en E.

Teorema 1.2 (Banach 1922,[11]) Si T : E → E es una contracción, entonces T


posee un único punto fijo en E.

7
8 Capı́tulo 1. Preliminares

Supongamos ahora que G es un espacio topológico y consideremos una familia de


operadores Ty de E en si mismo, con y ∈ G. Diremos que Ty : E → E es una contracción
uniforme, si existe una constante L ∈ (0, 1), tal que d(Ty x1 , Ty x2 ) ≤ L d(x1 , x2 ) para
todo x1 , x2 ∈ E e y ∈ G.

Teorema 1.3 Si Ty : E → E es una contracción uniforme y para cada x en E,


Ty x es continuo en y, entonces el único punto fijo de Ty , al cual denotaremos por g(y),

es continuo en y. Además, si interior G = G 6= ∅ y Ty x es continuamente diferenciable

en x e y, entonces g ∈ C 1 [G, E].

Observemos que no siempre es posible garantizar la contractilidad de una trans-


formación dada, por lo que se hace necesario recurrir a teoremas de punto fijo más
generales que los anteriores. Ası́, tenemos por ejemplo el siguiente:

Teorema 1.4 (Brouwer 1910,[11]) Sea E un espacio vectorial normado, finito


dimensional y B := {x ∈ E : |x| ≤ 1}. Consideremos un espacio métrico U homeomorfo
a B. Entonces toda transformación continua T : U → U posee al menos un punto fijo
en U. En particular,U puede ser un subconjunto convexo y compacto de E.

A pesar de la sencillez del enunciado del teorema de Brouwer, su demostración dista


mucho de ser elemental, al final de este capı́tulo se dan mas detalles sobre este teorema.
Su generalización a espacios normados infinito dimensionales se debe a Schauder .

Teorema 1.5 (Schauder 1930,[11]) Consideremos E espacio normado y sea U


un subconjunto convexo y compacto de E. Si T : U → U es una transformación con-
tinua, entonces T posee al menos un punto fijo en U.

Un resultado muy útil en las aplicaciones, el cual es consecuencia del teorema de


Schauder, es el siguiente:

Corolario 1.6 Supongamos que U es un subconjunto cerrado, convexo y acotado


de un espacio normado E y sea T : U → U un operador completamente continuo, es
decir, un operador compacto y continuo. Entonces T posee al menos un punto fijo en
U.

§ 1.2 Condición de Lipschitz

Definición 1.3 Sea J un intervalo y D un subconjunto de IRn . La función f :


J × D → IRn se dice que es globalmente Lipschitz, respecto a x ∈ D, uniformemente
en t ∈ J, sobre J × D, si existe una constante K > 0, tal que

| f (t, x1 ) − f (t, x2 ) |≤ K | x1 − x2 | , ∀(t, xi ) ∈ J × D , i = 1, 2.


§ 1.2. Condición de Lipschitz 9

Definición 1.4 Diremos que f es una función localmente Lipschitz sobre J × D,


si para todo punto p ∈ J × D, existe un entorno Vp del punto p, tal que la restricción
de f a Vp es globalmente Lipschitz.
Los dos conceptos anteriores están relacionados como se ve en el siguiente :

Lema 1.7 Si A es un subconjunto compacto de J × D y f ∈ C[J × D, IRn ] es una


función localmente Lipschitz, entonces su restriccción al conjunto A es globalmente
Lipschitz.
Demostración 1. Sea A un subconjunto compacto de J × D. Como f es local-
mente Lipschitz, entonces para cada p ∈ J × D, existe un entorno Vp tal que f |Vp es
globalmente Lipschitz. Claramente, {Vp }p∈A es un cubrimiento abierto de A. Como
A es un conjunto compacto, existe un ε > 0, tal que para cada p ∈ A, existe un Vp
con la propiedad que B2ε (p) ⊂ Vp . Es obvio que Bε (p) también es un cubrimiento
S de A. Luego por la compacidad de A, existen puntos p1 , . . . , pm ∈ A tales que
abierto
A⊂ m i=1 Bε (pi ).
Sean (t, x1 ), (t, x2 ) dos puntos arbitrarios en A. Sin pérdida de generalidad podemos
suponer que (t, x1 ) ∈ Bε (pi ) para algún i ∈ {1, . . . , m}. Se presentan dos casos
1. El punto (t, x2 ) ∈ B2ε (pi ). Luego existe una constante Ki > 0 tal que |f (t, x1 ) −
f (t, x2 )| ≤ Ki |x1 − x2 |.

2. El punto (t, x2 ) ∈
/ B2ε (pi ). En este caso se verifica que |x1 − x2 | ≥ ε. Pongamos
M = max{|f (t, x)| , (t, x) ∈ A}. Ası́ se tiene que |f (t, x1 ) − f (t, x2 )| ≤ 2M ≤
2M |x1 − x2 |/ε.
Eligiendo K = max{K1 , . . . , Km , 2M/ε} concluimos la prueba del Lema.

Demostración 2. Por reducción al absurdo. Supongamos que para todo K > 0,


existen (t, x1 ) y (t, x2 ) en A, tales que

| f (t, x1 ) − f (t, x2 ) |> K | x1 − x2 | .

En particular, para cada k ∈ N, existen puntos (tk , xki ) ∈ A, i = 1, 2, tales que

| f (tk , xk1 ) − f (tk , xk2 ) |> k | xk1 − xk2 | . (1.1)

Como A es compacto, también lo es A × A. Por tanto, la sucesión (zk )k≥1 , donde


zk := ((tk , xk1 ), (tk , xk2 )) posee una subsucesión convergente en A × A. Sin pérdida de ge-
neralidad podemos suponer que zk es convergente. Llamemos z ∗ := ((t∗ , x∗1 ), (t∗ , x∗2 )) ∈
A al lı́mite de zk .
Sea M = max{| f (t, x) | : (t, x) ∈ A}. Entonces por (1.1) obtenemos que
2M
| xk1 − xk2 |≤ ;
k
10 Capı́tulo 1. Preliminares

y de allı́ que lim | xk1 − xk2 |= 0.


n→∞
Por otra parte, a partir de

| | x∗1 − x∗2 | − | xk1 − xk2 | | ≤| (x∗1 − xk1 ) − (x∗2 − xk2 ) |,

se obtiene que
| x∗1 − x∗2 |= lim | xk1 − xk2 |= 0.
k→∞

Luego, x∗1 = Ahora, al ser f localmente Lipschitz, existe un entorno V ∗ del


x∗2 .
punto (t∗ , x∗1 ) ∈ A y una constante K ∗ ≡ K(V ∗ ) > 0, tal que

| f (t, x1 ) − f (t, x2 ) |≤ K ∗ | x1 − x2 | , ∀ (t, xi ) ∈ V ∗ , i = 1, 2.

Por lo tanto, debido a que (tk , xki ) → (t∗ , x∗i ), existe N > 0, tal que (tk , xki ) ∈ V ∗
para k ≥ N, i = 1, 2 y además

| f (tk , xk1 ) − f (tk , xk2 ) |≤ K ∗ | xk1 − xk2 |,

lo que contradice la desigualdad (1.1).

§ 1.3 Desigualdades Integrales

En esta sección daremos algunos resultados sobre desigualdades integrales, los


cuales utilizaremos para estimar el crecimiento de las soluciones de ecuaciones diferen-
ciales. Primero demostraremos una desigualdad integral bastante general y a partir de
ella obtendremos la desigualdad de Gronwall.

Lema 1.8 Consideremos u, α ∈ C[IR, IR] y β ∈ L1loc [IR, IR+ ]. Si α es además una
función creciente y Z t
u(t) ≤ α(t) + β(s)u(s)ds, ∀t ≥ t0 , (1.2)
t0
entonces Z 
t
u(t) ≤ α(t) exp β(s)ds , ∀t ≥ t0 . (1.3)
t0
Demostración. Sea τ ∈ [t0 , t]. Por ser α(t) creciente, se tiene que
Z τ
u(τ ) ≤ α(t) + β(s)u(s)ds. (1.4)
t0

Definamos R(τ ) := α(t) + t0 β(s)u(s)ds y observemos que βu ∈ L1 [t0 , t].
Entonces R′ (τ ) = β(τ )u(τ ), casi siempre sobre [t0 , t]. Multiplicando en(1.4) por
β(τ ), obtenemos que R′ (τ ) ≤ β(τ )R(τ ), casi siempre sobre [t0 , t].
§ 1.3. Desigualdades Integrales 11

Reescribiendo la desigualdad anterior e integrando entre t0 y t obtenemos que


Z t 
R(t) ≤ R(t0 ) exp β(s)ds . (1.5)
t0

Luego, por la definición de R(t) y por (1.4) obtenemos (1.3).

Lema 1.9 (Desigualdad de Gronwall) Supongamos que u , β ∈ C[IR, IR+ ] y


sea c una constante no negativa. La desigualdad

Z t
u(t) ≤ c + β(s)u(s)ds, t ≥ t0 ,
t0

implica que Z 
t
u(t) ≤ c exp β(s)ds t ≥ t0 .
t0

Obsérvese que el lema de Gronwall es una consecuencia inmediata del lema 1.8,
eligiendo α(t) = c, ∀t ∈ IR.
12 Capı́tulo 1. Preliminares

§ 1.4 Comentarios y Sugerencias

Hemos mencionado que, a pesar de lo sencillo del enunciado del teorema de Brou-
wer, su demostración está lejos de ser elemental. Invitamos al lector a que demuestre
el teorema de Brouwer en el caso que U = [a, b] ⊂ IR.
En el libro de Courant-Robbins [2] se puede consultar una prueba en el caso bidi-
mensional, la cual no se generaliza a dimensiones mayores a 2. Una demostración en
el caso general U ⊂ IRn , con n > 2, puede consultarse por ejemplo en Ch.S. Hönig
[10], D.R. Smart [22]. Sin embargo, recientemente J. Milnor [15] dió una prueba más
sencilla, la que a su vez fue simplificada por C. Rogers [21].
Para resultados más refinados que el teorema de Brouwer, recomendamos consultar
el libro de D. R. Smart [22].
En este capı́tulo hemos mencionado sólo las desigualdades integrales mas usadas a
lo largo de esta exposición. Sin embargo esta es una técnica muy importante. Un lugar
adecuado para consultar mas detalle acerca de este tema es el libro de V. Lakshmikan-
tham y S. Leela [14].
§ 1.5. Ejercicios y Problemas 13

§ 1.5 Ejercicios y Problemas

1. Sea E un espacio métrico completo y T : E → E un operador. Si existe un n ∈ N


tal que T n es una contracción, entonces T posee un único punto fijo en E.
2. Sea D ⊂ IRn un conjunto compacto. Denotemos por S al conjunto de todas las
funciones ϕ : D → IRn globalmente Lipschitz con una misma constante K > 0.
Pruebe que si S es un conjunto acotado, entonces S es un conjunto compacto de
C[D, IRn ].
3. Sea f : J × D → IRn una función continua. Donde J = (a, b) y D es un subcon-
junto abierto IRn . Denotemos por
 
∂fi
∂f /∂x(t, x) := (t, x) i, j = 1, n
∂xj

Demuestre las siguientes afirmaciones :


(a) Sea D un conjunto convexo. Si ∂f /∂x existe, es continua y está acotada
sobre J × D, entonces f es globalmente Lipschitz sobre J × D.
(b) Supongamos que ∂f /∂x existe y es uniformemente continua sobre J × D,
con D conjunto convexo. Si J × D es un subconjunto acotado de IRn+1 ,
entonces f es globalmente Lipschitz sobre J × D. ¿ Es esencial la acotación
de J × D ?.
(c) Si ∂f /∂x es continua sobre J × D, entonces f es localmente Lipschitz sobre
J × D.
(d) Si f : J × D → IRn es localmente Lipschitz en x, uniformemente en t,
entonces ∂f /∂x existe, excepto en un conjunto de medida nula.
(e) Si ∂f /∂x existe y no es acotada sobre J × D, entonces f no puede ser glo-
balmente Lipschitz sobre J × D.
4. Muestre que el conjunto de las funciones globalmente Lipschitz son un subcon-
junto propio del conjunto de las funciones localmente Lipschitz.
5. Si f es una función continua en t y localmente Lipschitz en x sobre J ×D, entonces
f ∈ C[J × D, IRn ].
6. Supongamos que u y β ∈ C[IR, IR+ ]. Pruebe que si
Z t

u(t) ≤ c + β(s)u(s)ds , ∀ t ∈ IR,

t0
entonces  Z t 

u(t) ≤ c exp β(s)ds ,
∀t ∈ IR,
t0
donde c ≥ 0.
14 Capı́tulo 1. Preliminares

7. Supongamos que u, β ∈ C[IR, IR+ ]. Demuestre que si se satisface la desigualdad


Z t

u(t) ≤ u(τ ) + β(s)u(s)ds , ∀t, τ ∈ IR,
τ

entonces tiene lugar


 Z t  Z t 
u(t0 ) exp − β(s)ds ≤ u(t) ≤ u(t0 ) exp β(s)ds , ∀t ≥ t0 .
t0 t0

8. Sean u, α ∈ C[IR, IR] y β ∈ C[IR, IR+ ]. Si


Z t
u(t) ≤ α(t) + β(s)u(s)ds, ∀ t ∈ IR,
t0

entonces
Z t Z t  
u(t) ≤ α(t) + α(s)β(s) exp β(τ )dτ ds , ∀ t ∈ IR.
t0 s
Capı́tulo 2

Teorı́a General

En este capı́tulo, estudiaremos propiedades generales de las ecuaciones diferenciales


ordinarias: existencia, unicidad, continuidad y derivabilidad de las soluciones, respecto
a los datos iniciales y parámetros.

§ 2.1 Existencia y Unicidad

Consideremos la E.D.O.
x′ (t) = f (t, x(t)), (2.1)

con
x(t0 ) = x0 ; (2.2)

donde f ∈ C[J × D, IRn ] , J = (a, b) con −∞ ≤ a < b ≤ +∞; D es un subconjunto


abierto y conexo de IRn y (t0 , x0 ) ∈ J × D.
Entenderemos por solución del problema de valor inicial (P.V.I.) (2.1)-(2.2), a una
función ϕ ∈ C 1 (J1 , D) tal que ϕ satisface la ecuación (2.1) para todo t ∈ J1 y la
condición (2.2), donde J1 ⊂ J. En el caso que J1 = J, diremos que ϕ es una solución
global del P.V.I. (2.1)-(2.2).
Por comodidad en la notación de aquı́ en adelante cuando no se preste a confusión
omitiremos los argumentos de la función x(t) y simplemente escribiremos x′ = f (t, x);
y a f lo llamaremos campo vectorial.
Antes de enunciar un teorema de existencia y unicidad, discutiremos unos ejemplos
a fin de visualizar mejor el problema que estamos tratando.

Ejemplo 2.1 Sea J ×D = IR2 , f (t, x) = x2 . Es fácil mostrar que cualquier solución
no nula de la ecuación diferencial x′ = x2 es de la forma ϕ(t) = −[t + c]−1 con c ∈ IR.
Además, ϕ(t) = 0 , ∀ t ∈ IR, también es solución.
Esto nos permite concluir que a pesar de ser f (t, x) = x2 una función suave, no existen
soluciones globales no nulas (ver fig. § 2.1). Además, por cada punto (0, x0 ) pasa
una única solución de x′ = x2 . Observemos finalmente que f (t, x) = x2 es localmente
Lipschitz sobre IR2 .

15
16 Capı́tulo 2. Teorı́a General

x x

x0

t t
x0

t=c c>0 c>0 t=c

Figura 2.1
Ejemplo 2.2 Sea f : IR2 → IR, dada por f (t, x) = 3x2/3 . Consideremos el siguiente
P.V.I. x′ = f (t, x), x(0) = x0 , x0 ∈ IR. Integrando la ecuación diferencial obtenemos que
su solución general viene dada por x(t) = (t + c)3 , donde c es una constante. De donde
se sigue que por cada punto (0, x0 ) pasan infinitas soluciones. Por ejemplo, la función
ϕ(· , a, b) : IR → IR, definida por:

 (t − b)3 , si t>b
ϕ(t, a, b) = 0 , si a ≤ t ≤ b

(t − a)3 , si t<a
es solución de x′ = 3x2/3 con x(0) = 0, para todo a ≤ 0 ≤ b, como se ve en la figura 2.2

bb a bx0
ab b√
t 3 x0 t

Caso x0 = 0 Caso x0 > 0

Figura 2.2
Cuando x0 > 0, la función ψ(· , a) : IR → IR, dada por
 √ √
 (t + 3 x0 )3 , si t ≥ − 3 x0

ψ(t, a) = 0 , si a ≤ t < − 3 x0

(t − a)3 , si t<a .
§ 2.1. Existencia y Unicidad 17


es solución de x′ = 3x2/3 con x(0) = x0 > 0, para todo a ≤ − 3 x0 . Análogamente se
trata el caso x0 < 0.
Vemos que en este caso, sı́ existen soluciones globales pero no hay unicidad global.
Sin embargo, dependiendo de la posición de x0 , puede haber unicidad local. En efecto,
si x0 6= 0, entonces existe un entorno de t0 = 0, tal que por el punto (0, x0 ) pasa una
única solución de x′ = 3x2/3 . En cambio, si x0 = 0, entonces por más pequeño que sea
el entorno de t0 = 0 que se considere, por el punto (0, 0) pasan infinitas soluciones de
x′ = 3x2/3 , (ver fig. 2.2 ).
Un cálculo directo muestra que f (t, x) = 3x2/3 es localmente Lipschitz solo sobre
intervalos que no contengan a cero.

De los ejemplos 2.1 y 2.2 vemos que para E.D.O. de la forma (2.1), la sola con-
tinuidad del campo vectorial f no garantiza en general, ni la existencia de soluciones
globales ni la unicidad.
Tiene lugar el siguiente

Lema 2.1 Supongamos que f ∈ C[J × D, IRn ]. El P.V.I. (2.1)-(2.2) es equivalente


a la resolución de la ecuación integral
Z t
x(t) = x0 + f (s, x(s)) ds. (2.3)
t0

El resultado que presentaremos a continuación nos da la existencia y unicidad de solu-


ciones del P.V.I. (2.1)-(2.2) bajo condiciones bastante generales.

Teorema 2.2 Si f ∈ C[J × D, IRn ] es localmente Lipschitz , entonces para cual-


quier punto (t0 , x0 ) ∈ J × D, existe δ > 0 y una única solución de (2.1)-(2.2) definida
en J1 = (t0 − δ, t0 + δ).
Demostración. Elijamos constantes a > 0 y b > 0 tales que el conjunto

D∗ = {(t, x) ∈ IR × IRn : | t − t0 |≤ a , | x − x0 |≤ b} ,

esté contenido en J × D. Llamemos M = max{| f (t, x) | : (t, x) ∈ D∗ }, y sea K > 0 la


constante de Lipschitz de f |D∗ .
Tomemos ahora un número δ > 0 tal que 0 < δ < min{a, b/M, 1/K}, y sea J1 =
[t0 − δ, t0 + δ].
Consideremos ahora el subconjunto C ∗ de C[J1 , IRn ] formado por las funciones que
satisfacen las condiciones siguientes :

a) ϕ(t0 ) = x0 ,

b) | ϕ(t) − x0 |≤ b , t ∈ J1 .
18 Capı́tulo 2. Teorı́a General

Teniendo en cuenta el Lema 2.1 definamos en C ∗ un operador T mediante la si-


guiente fórmula : Z t
T ϕ(t) = x0 + f (s, ϕ(s))ds , t ∈ J1 . (2.4)
t0
Es claro que si T posee puntos fijos, éstos son soluciones del P.V.I. (2.1)-(2.2), por
lo que probaremos que T es una contracción de C ∗ en si misma. Es fácil ver que si
ϕ ∈ C ∗ , entonces T ϕ ∈ C ∗ . Además, C ∗ es un subconjunto cerrado de C[J1 , IRn ], por
lo que C ∗ es completo. Por otra parte, si ϕ1 , ϕ2 ∈ C ∗ y t ∈ J1 , entonces
Z t

| T ϕ1 (t) − T ϕ2 (t) | ≤ | f (s, ϕ1 (s)) − f (s, ϕ2 (s)) | ds
t0
Z t

≤ K | ϕ1 (s) − ϕ2 (s) | ds
t0
≤ K | t − t0 | kϕ1 − ϕ2 k ≤ Kδkϕ1 − ϕ2 k, ∀ t ∈ J1 .
Ası́ que
kT ϕ1 − T ϕ2 k ≤ Kδkϕ1 − ϕ2 k.
Teniendo en cuenta la elección de δ, obtenemos que T : C ∗ → C ∗ es una contracción.
Entonces, por el teorema de punto fijo de Banach existe un único punto fijo para T en
C ∗ , el que a su vez es la única solución del P.V.I. (2.1)-(2.2) definido en J1 .

Observemos que la condición de Lipschitz es suficiente para obtener la unicidad


de las soluciones de (2.1) pero no es necesaria. Para ello recomendamos al lector ver
el ejercicio 2.7.2. Además, el teorema 2.2 es estrictamente local. En efecto, el P.V.I.
x′ = cos(t + x) con x(0) = 0, posee una única solución x(t) = 2 arctan(t) − t, definida
para todo t. Sin embargo, no es difı́cil ver que el número δ dado por el teorema 2.2 es
menor o igual a 1.
Cabe preguntarse: No siendo f localmente Lipschitz, ¿podrı́a el P.V.I. (2.1)-(2.2)
tener solución ?. La respuesta a esta pregunta la da el siguiente :

Teorema 2.3 ( Peano) Si f ∈ C[J × D, IRn ], entonces el P.V.I. (2.1)-(2.2) posee


al menos una solución.
Demostración. Sean a > 0, b > 0 y M > 0 las constantes que figuran en
la demostración del teorema 2.2. Escojamos una constante δ ∗ de modo que 0 < δ ∗ <
min{a, b/M }, y sea Je = [t0 − δ ∗ , t0 + δ ∗ ]. Definamos el conjunto
e = {ϕ ∈ C[J,
C e IRn ] : ϕ(t0 ) = x0 , | ϕ(t) − x0 |≤ b , t ∈ J}.
e

Es inmediato que Ce es un conjunto convexo, cerrado y acotado.


e definamos el operador T de la siguiente manera
Para cada ϕ ∈ C,
Z t
T ϕ(t) = x0 + e
f (s, ϕ(s))ds, t ∈ J.
t0
§ 2.2. Prolongación de Soluciones 19

Mostremos que T C e⊂C e y que es un operador completamente continuo. Es obvio que


e
para todo ϕ ∈ C , T ϕ(t0 ) = x0 . También,
Z t


| T ϕ(t) − x0 |≤ e
| f (s, ϕ(s)) | ds ≤ M | t − t0 |< M δ ∗ ≤ b, ∀ t ∈ J.
t0

Lo cual implica que T C e ⊂ C.


e
Probemos ahora que T C e es un conjunto equicontinuo. Sean ϕ ∈ C, e e
t1 , t2 ∈ J.
Entonces
Z t2


| T ϕ(t1 ) − T ϕ(t2 ) |≤ | f (s, ϕ(s)) | ds ≤ M | t1 − t2 | ,
t1

e Como T C
lo cual prueba la equicontinuidad de T C. e está uniformemente acotado, se
e es compacta.
sigue que la clausura de T C
Finalmente, mostremos que T es continuo. Como f es uniformemente continua
sobre D, entonces para todo ε > 0, existe δ > 0, tal que

e
| f (s, ϕ1 (s)) − f (s, ϕ2 (s)) |< ε, ∀ s ∈ J, (2.5)

e Por otra parte, tenemos que


si | ϕ1 (s) − ϕ2 (s) |< δ , ∀ s ∈ J.
Z t


| T ϕ1 (t) − T ϕ2 (t) |≤ | f (s, ϕ1 (s)) − f (s, ϕ2 (s)) | ds . (2.6)
t0

Ası́ (2.5) y (2.6) prueban la continuidad de T.


Como todas las condiciones del corolario 1.6 del teorema de Schauder están sa-
tisfechas, se sigue que T posee al menos un punto fijo en C ∗ . Esto completa la
demostración del teorema.

§ 2.2 Prolongación de Soluciones

Sean ϕi : Ji → D, i = 1, 2, dos soluciones del P.V.I. (2.1)-(2.2), con J1 ⊂ J2 .


Diremos que ϕ2 es una prolongación de ϕ1 al intervalo J2 , si ϕ1 (t) = ϕ2 (t) , ∀ t ∈ J1 .
Una solución del problema (2.1)-(2.2) se dice que es no prolongable, si ella no admite
una prolongación; y en este caso, al intervalo J ∗ donde está definido ϕ, le llamaremos
intervalo maximal de existencia de la solución ϕ.

Lema 2.4 Sea J ∗ = (α, β) y ϕ ∈ C 1 [J ∗ , IRn ]. Si | ϕ′ (t) |≤ M , ∀ t ∈ J ∗ , entonces


los lı́mites lim ϕ(t) y lim ϕ(t) existen.
t→α+ t→β −
20 Capı́tulo 2. Teorı́a General

Demostración. Demostraremos solamente la existencia de uno de los lı́mites. La


existencia del otro se prueba de manera completamente análoga.
Probemos que lim ϕ(t) existe. Sea (tn )n≥1 una sucesión de J ∗ , tal que lim tn = β.
t→β − n→∞
Probaremos que la sucesión (ϕ(tn ))n≥1 es convergente; para lo cual basta mostrar que
es una sucesión de Cauchy.
Sea ε > 0, arbitrario. Como ϕ ∈ C 1 [J ∗ , IRn ], tenemos que
Z tm

| ϕ(tn ) − ϕ(tm ) |≤ | ϕ (t) | dt ≤ M | tn − tm |,

tn

ya que | ϕ′ (t) |≤ M , ∀ t ∈ J ∗ .
Por otra parte, existe N (ε) > 0 tal que
ε
| tn − tm |< , ∀ n, m ≥ N.
M
Combinando las dos últimas desigualdades, se concluye la convergencia de la sucesión
(ϕ(tn ))n≥1 . Pongamos B = lim ϕ(tn ).
n→∞
Probemos que lim ϕ(t) = B. Sea t ∈ (β − ε/2M, β). Como lim tn = β, existe un
t→β − n→∞
tk ∈ (β − ε/2M, β), tal que | ϕ(tk ) − B |< ε/2.
Ası́, para todo t ∈ (β − ε/2M, β) se tiene que

| ϕ(t) − B |≤| ϕ(t) − ϕ(tk ) | + | ϕ(tk ) − B |< M | t − tk | +|ϕ(tk ) − B| < ε.

Lo que prueba que lim ϕ(t) = B.


t→β −

Observemos que la afirmación del lema 2.4 es aún válida , si la función ϕ : J ∗ → IRn
es absolutamente continua y ϕ′ ∈ L1 [J ∗ , IRn ].

Lema 2.5 (Prolongación a un Intervalo Cerrado) Sea ϕ : J ∗ → D una solu-


ción del P.V.I. (2.1)-(2.2). Supongamos que se verifican las siguientes condiciones:

a) lim ϕ(t) = A , lim ϕ(t) = B;


t→α+ t→β −

b) Los puntos (α, A), (β, B) pertenecen a J × D. Entonces la función


ϕ1 : [α, β] → D definida por

 A , si t=α
ϕ1 (t) = ϕ(t) , si t ∈ (α, β)

B , si t=β

es solución del P.V.I.(2.1)-(2.2).


§ 2.2. Prolongación de Soluciones 21

Demostración. Probemos que ϕ′1 (β) = f (β, ϕ1 (β)) . Teniendo en cuenta la defini-
ción de ϕ1 = (ϕ11 , ϕ12 , . . . , ϕ1i , . . . , ϕ1n ) y las propiedades de ϕ, del teorema del valor
medio se sigue que :

ϕ1i (β) − ϕ1i (β − h)


= ϕ′1i (β + h(θi − 1)) = ϕ′i (β + h(θi − 1))
h
donde h > 0, 0 < θi < 1 , i = 1, . . . , n y ϕi es la i-ésima componente de ϕ . Por tanto,

ϕ1i (β) − ϕ1i (β − h)


ϕ′1i (β) = lim = lim ϕ′i (β + h(θi − 1))
h→0+ h h→0+

= lim fi (β + h(θi − 1), ϕ(β + h(θi − 1))) = fi (β, B) = fi (β, ϕ1 (β)),


h→0+

para cada i = 1, . . . , n .
Análogamente se prueba que ϕ′1 (α) = f (α, ϕ1 (α)) .

Observemos que bajo las hipótesis del lema 2.4 ϕ no solo admite una prolongación a
un intervalo cerrado, sino que en realidad puede prolongarse a un intervalo abierto que
contenga a [α, β]. En efecto, denotemos con ψ2 : [β, β + δ2 ) → D , ψ1 : (α − δ1 , α] → D
a las soluciones de los P.V.I.
 ′  ′
x (t) = f (t, x) x (t) = f (t, x)
, .
x(β) = B x(α) = A

respectivamente; δi > 0 , i = 1, 2. La existencia y unicidad de ψ1 y ψ2 vienen garanti-


zadas por el hecho de que (α, A) y (β, B) ∈ J × D y f verifica las hipótesis del teorema
de existencia y unicidad.
Definamos ϕ2 : (α − δ1 , β + δ2 ) → D, como sigue :

 ψ1 (t) si α − δ1 < t ≤ α
ϕ2 (t) = ϕ(t) si α <t<β

ψ2 (t) si β ≤ t < β + δ2 .

Para concluir que ϕ2 es una prolongación de ϕ, es suficiente mostrar que la derivada


lateral derecha (izquierda) de ϕ2 (de ϕ2 ) existe en t = α (t = β) y es igual a f (α, ϕ2 (α))
(f (β, ϕ2 (β))). Y esto se realiza de manera análoga a la prueba del lema 2.5.

Teorema 2.6 (Existencia y Unicidad de Soluciones no Prolongables)


Bajo las hipótesis del teorema de existencia y unicidad local, el P.V.I. (2.1)-(2.2) admite
una única solución ϕ no prolongable, definida sobre el intervalo J ∗ = (α, β) con α ≥ a
y β ≤ b.
22 Capı́tulo 2. Teorı́a General

Demostración. Sea A = {s ≥ t0 : el P.V.I. (2.1)-(2.2) posee una única solución


sobre [t0 , s)}. Por el teorema 2.2, se tiene que A 6= ∅. Pongamos β = sup A . Definamos
ahora la función ϕ : [t0 , β) → D de la siguiente manera : Si t ∈ [t0 , β), entonces existe
s∗ ∈ A, tal que t < s∗ . Llamemos ϕs∗ a la única solución de (2.1)-(2.2) definida sobre
[t0 , s∗ ) y pongamos ϕ(t) := ϕs∗ (t). Por la unicidad de ϕs∗ , ϕ está bien definida. Además,
por la construcción, ϕ es solución del P.V.I. (2.1)-(2.2) sobre [t0 , β) y ella no puede ser
prolongada más allá de β, ya que β = sup A .
Análogamente se prueba, que existe una única solución de (2.1)-(2.2), definida sobre
(α, t0 ], no prolongable a la izquierda de α .

Un breve análisis del lema 2.5 y del teorema 2.6 nos conduce a enunciar el siguiente
sencillo, pero importante resultado.

Corolario 2.7 Si (α, β) es el intervalo maximal de existencia y unicidad de una


solución ϕ de (2.1), entonces, (t, ϕ(t)) tiende a la frontera de J × D, cuando t → α+
y t → β−.

Hasta el momento, toda la discusión sobre la prolongabilidad de las soluciones de (2.1)


que hemos hecho, no nos permiten concluir nada acerca de la existencia de soluciones
globales. Esto es razonable, ya que en el ejemplo 2.1 estudiamos una ecuación con
parte derecha continua y localmente Lipschitz, que no tiene soluciones globales. A
continuación probaremos un resultado bastante general, que garantiza precisamente la
existencia de soluciones globales de (2.1).

Teorema 2.8 (Existencia y Unicidad Global)


Supongamos que f ∈ C[J × D, IRn ] es localmente Lipschitz. Sea ϕ : (α, β) → D la
única solución no prolongable del P.V.I. (2.1)-(2.2). Si existe un conjunto compacto
D∗ ⊂ D, tal que ϕ(t) ∈ D∗ para todo t ∈ (α, β), entonces ϕ es global; es decir, α = a y
β = b.
Demostración. La demostración la haremos por reducción al absurdo. Supon-
gamos que ϕ(t) ∈ D∗ para todo t ∈ (α, β), pero α > a ó β < b. Concretamente
supondremos que β < b.
Claramente [t0 , β] × D∗ ⊂ J × D. Pongamos M = max{| f (t, x) |: (t, x) ∈ [t0 , β] ×

D }. Por lo tanto
| ϕ′ (t) |=| f (t, ϕ(t)) |≤ M, t ∈ [t0 , β).

Ası́, por el lema 2.4, se tiene que lim ϕ(t) = B y pertenece a D∗ , ya que D∗ es
t→β −
compacto. Esto muestra que (β, B) ∈ J × D. Aplicando el lema 2.5, concluimos que ϕ
se puede prolongar a un intervalo [t0 , β + δ), para algún δ > 0. Contradicción.
§ 2.2. Prolongación de Soluciones 23

Corolario 2.9 Si α > a ó β < b, entonces para todo conjunto compacto D∗ ⊂ D,


existe un t ∈ (α, t0 ] ó t ∈ [t0 , β) tal que ϕ(t) 6∈ D∗ .
Un inconveniente que presenta el teorema de existencia global en las aplicaciones,
tiene que ver con el conjunto compacto D∗ ; ya que no se sabe en general como podemos
construirlo. En lo que sigue daremos algunas condiciones suficientes para la existencia
de soluciones globales.

Teorema 2.10 Supongamos que f ∈ C[J × IRn , IRn ] es localmente Lipschitz y que
existen funciones M y N ∈ C[J, IR+ ] tales que

| f (t, x) |≤ M (t) + N (t) | x | , ∀(t, x) ∈ J × IRn .

Entonces todas las soluciones de (2.1) son globales.


Demostración. Por reducción al absurdo. Sea ϕ la única solución no prolongable
del P.V.I. (2.1)-(2.2) definida sobre el intervalo (α, β). Supongamos, por ejemplo, que
β < b. Pongamos M1 = max{M (t) : t ∈ [t0 , β]}, N1 = max{N (t) : t ∈ [t0 , β]}. Como
ϕ es solución de (2.1)-(2.2) y teniendo en cuenta las condiciones del teorema, se sigue
que
Z t Z t
| ϕ(t) | ≤ | x0 | + | f (s, ϕ(s)) | ds ≤| x0 | + (M (s) + N (s) | ϕ(s) |)ds
t0 t0
Z t Z t
≤ | x0 | + M (s)ds + N (s) | ϕ(s) | ds
t0 t0
Z t
≤ | x0 | +M1 (β − t0 ) + N (s) | ϕ(s) | ds , ∀ t ∈ [t0 , β).
t0

Aplicando el lema de Gronwall a la desigualdad anterior obtenemos

| ϕ(t) |≤ [| x0 | +M1 (β − t0 )] exp{N1 (β − t0 )}, ∀ t ∈ [t0 , β).

Esto muestra que ϕ(t) pertenece a un compacto para todo t ∈ [t0 , β). Por el teorema
2.8 se sigue que β = b, lo cual es una contradicción.

Corolario 2.11 Si f ∈ C[J × IRn , IRn ] es globalmente Lipschitz, entonces las solu-
ciones de (2.1) son globales; es decir están definidas sobre todo J.
Esto se sigue inmediatamente del teorema 2.10 y del hecho que

|f (t, x)| ≤ |f (t, x) − f (t, 0)| + |f (t, 0)|, ∀ (t, x) ∈ J × IRn .


24 Capı́tulo 2. Teorı́a General

§ 2.3 Continuidad de las Soluciones Respecto a los Datos Iniciales.

Hasta el momento, siempre hemos fijado un punto (t0 , x0 ) ∈ J × D y buscado


luego la solución de (2.1). El objetivo de este parágrafo consiste en estudiar el compor-
tamiento de las soluciones de la E.D.O. (2.1) en relación con la variación de los datos
iniciales. Si variamos “poco” los valores iniciales, cabe preguntarse :
• ¿ Cómo se comportarán las soluciones que corresponden a datos iniciales “cer-
canos” a (t0 , x0 ) ?.
• ¿ Se mantendrán cercanas entre si dichas soluciones ?.
• Si esto sucede, ¿ sobre qué tipo de intervalos se mantendrá la cercanı́a ?.
Antes de precisar qué es lo que entenderemos por dependencia continua de las
soluciones respecto a los datos iniciales, analicemos el siguiente:

Ejemplo 2.3 Sea x′ = x con x(t0 ) = x0 . Denotemos con x(t, t0 , x0 ) a su solución.


En este caso x(t, t0 , x0 ) = x0 exp(t − t0 ) con t ∈ IR.

x0 b

t0 t

x∗0 b

Figura 2.3
Es claro que x0 y x∗0 pueden estar tan cercanos como se desee, sin embargo
|x(t, t0 , x0 ) − x(t, t0 , x∗0 )| = exp(t − t0 ) | x0 − x∗0 |→ +∞, cuando t → +∞.
Sea J ∗ = [t0 −T1 , t0 +T2 ], el cual obviamente está contenido en el dominio de x(·, t0 , x0 ),
para todo T1 > 0, T2 > 0. No es difı́cil observar que siendo ε > 0, un número dado, si
| x0 − x∗0 |< exp(−T2 ), entonces | x(t, t0 , x0 ) − x(t, t0 , x∗0 ) |< ε, ∀ t ∈ J ∗ .

Definición 2.1 Diremos que la solución x(t, t0 , x0 ) del P.V.I. (2.1)-(2.2) depende
continuamente de los datos iniciales (t0 , x0 ), si dado ε > 0 y un intervalo cerrado
cualquiera J ∗ = [t0 − T1 , t0 + T2 ] contenido en el dominio de x(·, t0 , x0 ), existe un
entorno U = U (t0 , x0 ) del punto (t0 , x0 ) tal que para todo (t∗0 , x∗0 ) ∈ U, la solución
x(t, t∗0 , x∗0 ) está definida para todo t ∈ J ∗ y además
| x(t, t0 , x0 ) − x(t, t∗0 , x∗0 ) |< ε, ∀ t ∈ J ∗.
§ 2.3. Continuidad de las Soluciones Respecto a los Datos Iniciales. 25

En lo que sigue, procederemos a mostrar que si las soluciones de (2.1) son únicas,
entonces ellas dependen continuamente de los datos iniciales.

Lema 2.12 Sea U un conjunto compacto contenido en J × D. Entonces existen


constantes a > 0 y b > 0 tales que el conjunto
[
A= B(t0 , x0 ) con B(t0 , x0 ) = {(t, x) : |t − t0 | ≤ a , |x − x0 | ≤ b},
(t0 ,x0 )∈U

es un subconjunto compacto de J × D.
Demostración. Como J × D es abierto, para cada (t0 , x0 ) ∈ U, existen constantes
α > 0 y β > 0, tales que el conjunto {(t, x) : |t − t0 | < α , |x − x0 | < β}, está
totalmente contenido en J × D. Por lo tanto la unión de todos estos conjuntos forman
un cubrimiento abierto de U. Ası́, en virtud del lema de Lebesgue, existen constantes
a∗ > 0 y b∗ > 0, tales que eligiendo 0 < a < a∗ y 0 < b < b∗ , obtenemos que A ⊂ J × D.
Veamos que A es un conjunto compacto. Si (t, x) ∈ A, entonces existe un punto
(t0 , x0 ) ∈ U tal que | t − t0 |≤ a y | x − x0 |≤ b. Esto implica que
| t |≤| t − t0 | + | t0 |≤ a+ | t0 | , | x |≤| x − x0 | + | x0 |≤ b+ | x0 |,
de donde se obtiene que A es un conjunto acotado, por serlo U.
Veamos ahora que A es un conjunto cerrado. Para ello sea (t∗ , x∗ ) ∈ Ā. Entonces
existe una sucesión {(tn , xn )}n∈N ⊂ A, tal que lim (tn , xn ) = (t∗ , x∗ ).
n→∞
Por otra parte, es evidente que, para cada n ∈ N, existe un punto (tn0 , xn0 ) ∈ U tal
que | tn − tn0 |≤ a y | xn − xn0 |≤ b. Como la sucesión {(tn0 , xn0 )}n≥1 está contenida en
U, existe una subsucesión {(tn0 k , xn0 k )}k≥1 de {(tn0 , xn0 )}n≥1 convergente en U. Llamemos
(t̃0 , x̃0 ) ∈ U su punto lı́mite. Entonces
| t∗ − t̃0 | ≤ | t∗ − tnk | + | tnk − tn0 k | + | tn0 k − t̃0 |,
| x∗ − x̃0 | ≤ | x∗ − xnk | + | xnk − xn0 k | + | xn0 k − x̃0 | .
Luego, pasando el lı́mite con nk → ∞, obtenemos que | t∗ − t̃0 |≤ a y | x∗ − x̃0 |≤ b y
con ello la prueba del lema.

Teorema 2.13 (Dependencia Continua de los Datos Iniciales)


Bajo las hipótesis del teorema de existencia y unicidad, las soluciones de (2.1) dependen
continuamente de los datos iniciales.
Demostración. Consideremos un conjunto compacto U ⊆ J ×D. Sea A el conjunto
compacto dado por el lema 2.12. Denotemos por M = max{|f (t, x)| : (t, x) ∈ A} y
sea K > 0 la constante de Lipschitz de f |A . Escojamos una constante δ > 0 de manera
que δ < min{a, b/M, 1/K}, con a > 0 y b > 0 las constantes dadas por el lema 2.12.
Consideremos el subconjunto C ∗ de C[[−δ, δ], IRn ] formado por las funciones ϕ tales
que:
26 Capı́tulo 2. Teorı́a General

a) ϕ(0) = 0,

b) | ϕ(t) |≤ b, ∀ t ∈ [−δ, δ].

Para cada y = (t0 , x0 ) ∈ U, definamos sobre C ∗ un operador Ty de la manera siguiente:


Z t+t0
Ty ϕ(t) := f (s, ϕ(s − t0 ) + x0 )ds , t ∈ [−δ, δ].
t0

Es claro que si ϕ es un punto fijo de Ty , entonces

ϕ′ (t) = f (t + t0 , ϕ(t) + x0 ),

de donde se sigue que x(t) = ϕ(t − t0 ) + x0 es solución del P.V.I. (2.1)-(2.2), para todo
t ∈ [t0 − δ, t0 + δ].
Utilizando razonamientos análogos a los de la prueba del teorema 2.2, se obtiene
que Ty : C ∗ → C ∗ es una contracción uniforme respecto a y, con y ∈ U. Por lo
tanto, en virtud del teorema 1.3 se sigue que ϕ(t, t0 , x0 ) es continua en (t0 , x0 ) sobre
U, uniformemente en t con t ∈ [−δ, δ]. De donde a su vez concluimos que la función
x(t, t0 , x0 ) = x0 + ϕ(t − t0 ; t0 , x0 ) es continua en (t0 , x0 ) sobre U, uniformemente en t,
con t ∈ [t0 − δ, t0 + δ].
Sea ahora (t0 , x0 ) un punto cualquiera en J × D. Según el teorema 2.6, existe
una única solución x(t, t0 , x0 ) no prolongable del P.V.I. (2.1)-(2.2), definida sobre un
intervalo (α, β); con a ≤ α, β ≤ b.

(t + t0 + δ1 , x(t + t0 + δ1 , t0 , x0 ))

b b b b b b
(t0 , x0 ) b b
α
t0 t0 + kδ t1
β
t0 + nδ
t0 + δ t0 + (k + 1)δ
t0 + 2δ t0 + (n − 1)δ

Graf x(·, t0 , x0 )

Figura 2.4
Sea T ∈ (α, β). Sin pérdida de generalidad, supongamos que T > t0 , el caso T < t0
se analiza de manera análoga. Pongamos U = {(t, x(t, t0 , x0 )) : t ∈ [t0 , T ]}, el cual
§ 2.4. Dependencia Continua de las Soluciones Respecto a Parámetros 27

es un subconjunto compacto de J × D. Por lo demostrado previamente, x(t, ξ, η) es


continua en (ξ, η) sobre U, uniformemente en t, con t ∈ [ξ − δ, ξ + δ].
Para probar que x(t, ξ, η) es continua en (ξ, η) uniformemente sobre [t0 , T ] particio-
nemos el intervalo [t0 , T ] como sigue:

t0 < t1 < t2 < · · · < tk = t0 + kδ < tk+1 < · · · < tp−1 ≤ T,

donde p es el menor entero positivo tal que t0 + (p − 1)δ ≤ T < t0 + pδ.


Teniendo en cuenta la unicidad de las soluciones de (2.1)-(2.2), se sigue que :

x(t + t1 ; t0 , x0 ) = x(t + t1 ; t1 , x(t1 ; t0 , x0 )).

Lo cual implica que la continuidad de x(t, t0 , x0 ) en (t0 , x0 ) es uniforme sobre el intervalo


[t0 , t0 + 2δ]. Por lo tanto, x(s; ξ, η) es continua en (ξ, η) sobre U, uniformemente en s,
con s ∈ [ξ − 2δ, ξ + 2δ] ∩ [t0 , T ].
Supongamos ahora que x(s; ξ, η) es continua en (ξ, η) sobre U, uniformemente sobre
[ξ − kδ, ξ + kδ] ∩ [t0 , T ].
Nuevamente, por la unicidad, tenemos que

x(t + tk ; t0 , x0 ) = x(t + tk ; tk , x(tk ; t0 , x0 )),

lo cual implica la continuidad de x(s; ξ, η) respecto de (ξ, η) ∈ U, uniformemente sobre


el intervalo [ξ − (k + 1)δ, ξ + (k + 1)δ] ∩ [t0 , T ]. Esto concluye la prueba del teorema.

Supongamos que el campo vectorial f satisface las condiciones del teorema de exis-
tencia y unicidad. Sea (t0 , x0 ) en J ×D y denotemos por (α(t0 , x0 ), β(t0 , x0 )) al intervalo
maximal de existencia y unicidad de x(t, t0 , x0 ). Definamos el siguiente conjunto :

Ω(f ) = {(t, t0 , x0 ) : α(t0 , x0 ) < t < β(t0 , x0 ), (t0 , x0 ) ∈ J × D}.

Al conjunto Ω(f ) se le llama dominio de definición de x(t, t0 , x0 ).


A partir del teorema de existencia y unicidad y el teorema sobre la dependencia
continua de las soluciones respecto a los datos iniciales, se sigue que Ω(f ) es un conjunto
abierto.

§ 2.4 Dependencia Continua de las Soluciones Respecto a


Parámetros

Consideremos ahora el P.V.I., siguiente:

x′ (t) = f (t, x, µ), (2.7)

x(t0 ) = x0 . (2.8)
28 Capı́tulo 2. Teorı́a General

El sistema (2.7) representa una de las formas en que puede aparecer un parámetro µ
en las ecuaciones diferenciales. También podrı́a estar multiplicando a x′ (t). En realidad
(2.7) representa a una familia uni ó multiparamétrica de campos vectoriales.
Supongamos que para cada valor en el parámetro µ, el sistema (2.7)-(2.8), posee una
única solución, la cual denotaremos por x(t, t0 , x0 , µ). Nuestro objetivo será averiguar
bajo qué condiciones y para qué valores de t se satisface que
lim x(t, t0 , x0 , µ) = x(t, t0 , x0 , µ0 ),
µ→µ0

con los parámetros variando en un conjunto abierto D1 ⊂ IRm .

Ejemplo 2.4 Consideremos un circuito eléctrico formado por un condensador C y


una inductancia L, conectados como se indica en la figura 2.5.

R
C i L C I L

(a) (b)
Figura 2.5
Despreciando la resistencia del conductor, la corriente i(t) se determina resolviendo la
ecuación diferencial
1
Li′′ (t) + i(t) = 0. (2.9)
C
En el caso que no despreciemos la resistencia R, la corriente I(t) viene dada por
1
LI ′′ (t) + RI ′ (t) + I(t) = 0. (2.10)
C
Analizando las expresiones de las soluciones de (2.9)-(2.10), veamos cuándo podemos
despreciar R. Si nos interesamos por el comportamiento de las soluciones de (2.10) para
L 1/2
R pequeño, podemos suponer sin perder generalidad que 0 ≤ R < 2( C ) .
Integrando (2.9) y (2.10) obtenemos que :
a) i(t) = A sin(ωt + ϕ),

b) I(t) = A exp(−αt) sin( ω 2 − α2 t + ϕ),
1
donde A y ϕ, son constantes de integración, wω = (LC)− 2 y α = R(2L)−1 .
Es claro que por cercanos que estén los datos iniciales (i(0), i′ (0)) e (I(0), I ′ (0)),
incluso, siendo iguales, las funciones i(t) e I(t) no pueden permanecer cercanas para
todo t ≥ 0, ya que i(t) es 2π− periódica, mientras que I(t) → 0, si t → +∞, (ver figura
2.6).
§ 2.4. Dependencia Continua de las Soluciones Respecto a Parámetros 29

i′ I′
(i(0), i′ (0)) (I(0), I(0)) b
b

I
i

Figura 2.6

Este análisis nos permite concluir que no se puede despreciar la resistencia ejercida
por la lı́nea que conduce la corriente, por pequeña que sea, cuando t → +∞.
En lo que sigue mostraremos que el problema de la dependencia de las soluciones
respecto a un parámetro, se reduce al estudio de la continuidad de las soluciones de un
nuevo sistema de ecuaciones diferenciales equivalente al sistema original, respecto a los
datos iniciales.
     
x f (t, x, µ) x0
y= , F (t, y) = , y(t0 ) = y0 = ,
µ 0 µ0

se obtiene que el P.V.I. (2.7)-(2.8) es equivalente al siguiente problema:

y ′ = F (t, y), (2.11)

y(t0 ) = y0 . (2.12)
Teniendo en cuenta esta observación y el teorema de la dependencia continua de las
soluciones respecto a los datos iniciales, es inmediato el siguiente:

Teorema 2.14 (Dependencia Continua Respecto a Parámetros). Supongamos que


se verifican las condiciones siguientes:

a) f ∈ C[J × D × D1 , IRn ],

b) La función f es localmente Lipschitz respecto a su segunda y tercera variable.

Entonces, para todo dato inicial p0 = (t0 , x0 , µ0 ) ∈ J × D × D1 y un intervalo compacto


J ∗ contenido en el dominio de x(·, p0 ), existe un entorno U ∗ ≡ U ∗ (p0 ) tal que para todo
p∗0 = (t∗0 , x∗0 , µ∗0 ) ∈ U ∗ se tiene que Dom x(·, p∗0 ) ⊃ J ∗ y además ∗lim x(t, p∗0 ) = x(t, p0 ),
p0 →p0
uniformemente en t, sobre J ∗ .
30 Capı́tulo 2. Teorı́a General

§ 2.5 Derivabilidad de las Soluciones Respecto a los Datos Iniciales


y a Parámetros

En esta sección mostraremos que las soluciones de (2.1) heredan las propiedades
de suavidad que posea el campo vectorial f (t, x), respecto de los datos iniciales.

Lema 2.15 Sea D un subconjunto abierto y convexo de IRn y g ∈ C[J × D, IRn ] tal
que ∂g/∂x existe y es continua sobre J × D.
Entonces se verifica la siguiente identidad
Z 1   
∂g
g(t, x2 ) − g(t, x1 ) = (t, sx2 + (1 − s)x1 ) ds (x2 − x1 ), (2.13)
0 ∂x

para todo (t, xi ) ∈ J × D , i = 1, 2.


Demostración. Definamos la función F (s) = g(t, sx2 + (1 − s)x1 ) , s ∈ [0, 1].
Observemos que F (0) = g(t, x1 ) y F (1) = g(t, x2 ). Además, por las hipótesis del lema
se sigue que F (s) está bien definida en [0, 1] y además se verifica que
 
′ ∂g
F (s) = (t, sx2 − (1 − s)x1 ) (x2 − x1 ). (2.14)
∂x

Integrando (2.14) entre s = 0 y s = 1 obtenemos (2.13).

Teorema 2.16 Supongamos que:

i) f ∈ C[J × D, IRn ],
∂f
ii) existe y es continua sobre J × D.
∂x
Entonces la solución x(t; t0 , x0 ) del P.V.I. (2.1)-(2.2) es continuamente diferenciable
en todas sus variables, en su dominio de definición. Además se verifica que :

a) La matriz ∂x (t, t0 , x0 ) satisface la ecuación diferencial


∂x0
 
′ ∂f
y = (t, x(t, t0 , x0 )) y (2.15)
∂x

con y(t0 ) = I. A la ecuación (2.15) se le llama ecuación diferencial variacional.

b) También se satisface que :

∂x ∂x
(t, t0 , x0 ) = − (t, t0 , x0 )f (t0 , x0 ). (2.16)
∂t0 ∂x0
§ 2.5. Derivabilidad de las Soluciones Respecto a los Datos Iniciales y a Parámetros 31

Demostración. Primero probaremos que ∂x (t, t0 , x0 ) existe, que es continua


∂x0
y satisface (2.15). Para ello sea h 6= 0 un número real arbitrario y escribamos ek =
(e1k , · · · , ejk , · · · , enk )T , con ejk = δjk el delta de Kronecker y con (·)T indicamos vector
traspuesto. Para mayor comodidad y sencillez en la notación en lo que sigue, pongamos
x(t, h) = x(t; t0 , x0 + hek ) y x0 (t) = x(t, t0 , x0 ). Al ser el dominio de definición de
x(t, t0 , x0 ) un conjunto abierto, podemos elegir h suficientemente pequeño de manera
que (x0 + (1 − s)hek ) ∈ D, para todo s ∈ [0, 1].
Teniendo en cuenta la definición de x(t, h), se sigue que :

(x(t, h) − x0 (t))′ = f (t, x(t, h)) − f (t, x0 (t)). (2.17)

Aplicando el lema 2.15 a la parte derecha de la expresión (2.17), con x2 = x(t, h) ,


x1 = x0 (t), obtenemos
Z 1 
′ ∂f
(x(t, h) − x0 (t)) = (t, sx2 + (1 − s)x1 )ds (x(t, h) − x0 (t)). (2.18)
0 ∂x

Poniendo
x(t, h) − x0 (t)
xh (t) = , con h 6= 0,
h
vemos que xh (t) es solución de (2.18), con xh (t0 ) = ek . Sea ϕ la única solución de (2.15)
tal que ϕ(t0 ) = ek . Mostremos que xh (t) → ϕ(t) cuando h → 0, uniformemente en t
sobre intervalos compactos contenidos en el dominio de x0 (t).
Sabemos que
Z t Z 1 
∂f
xh (t) = ek + (τ, sx2 + (1 − s)x1 )ds xh (τ )dτ,
t0 0 ∂x
y
Z t 
∂f
ϕ(t) = ek + (τ, x(τ, t0 , x0 )) ϕ(τ )dτ.
t0 ∂x
Ası́ que
Z t Z 1

∂f
|xh (t) − ϕ(t)| ≤ | (t, sx2 + (1 − s)x1 )ds| · |xh (t) − ϕ(t)|dt
t0 0 ∂x
(2.19)
Z t Z 1 
∂f ∂f
+ | (t, sx2 + (1 − s)x1 ) − (t, x(t, t0 , x0 )) ds| · |ϕ(t)|dt .
t0 0 ∂x ∂x

Sea J ∗ un intervalo compacto cualquiera contenido en el dominio de x0 (t), tal que


t0 ∈ J ∗ .
32 Capı́tulo 2. Teorı́a General

Teniendo en cuenta que :


Z 1
∂f ∂f
lim (t, sx2 + (1 − s)x1 )ds = (t, x(t, t0 , x0 )),
h→0 0 ∂x ∂x

uniformemente en t, sobre J ∗ ; se sigue que : dado ε > 0, existe un h0 > 0 tal que si
|h| < h0 , entonces
Z 1
∂f
(t, sx2 + (1 − s)x1 ) − ∂f (t, x(t, t0 , x0 )) ds < ε; (2.20)
∂x ∂x
0
para cada t ∈ J ∗ .
Pongamos

 Z 1

∂f
M = max (t, sx2 + (1 − s)x1 )ds : t ∈ J , h ∈ [−h0 , h0 ] .

(2.21)
0 ∂x

Por lo tanto, en virtud de (2.18),(2.20) y (2.21), obtenemos


Z t


|xh (t) − ϕ(t)| ≤ εM1 γ + M |xh (t) − ϕ(t)|dt ∀t ∈ J ∗ ;
t0

donde M1 = max∗ |ϕ(t)|, y γ = longitud de J ∗ .


t∈J
Finalmente, aplicando el lema de Gronwall en la desigualdad previa, se tiene que

|xh (t) − ϕ(t)| ≤ εM1 γ exp(M γ),

Lo cual prueba la primera parte de nuestra afirmación, ya que ε es arbitrario.


Probemos ahora que ∂x existe, es continua y viene dada por la expresión (2.16).
∂t0
Sea h 6= 0 suficientemente pequeño y defı́nase:

x(t, t0 + h, x0 ) − x(t, t0 , x0 )
x̃h (t) = .
h
Por la unicidad de las soluciones, tenemos que

x(t, t0 , x0 ) = x(t, t0 + h, x(t0 + h, t0 , x0 )).

Ası́
1
[x(t, t0 + h, x0 ) − x(t, t0 + h, x(t0 + h, t0 , x0 ))]
x̃h (t) = (2.22)
h
Aplicando el lema 2.14 a (2.22), obtenemos que:
Z 1 
1 ∂x
x̃h (t) = (t, t0 + h, sx0 + (1 − s)x(t0 + h, t0 , x0 ))ds (x0 − x(t0 + h, t0 , x0 ))
h 0 ∂x0
§ 2.6. E.D.O. con Parte Derecha Discontinua 33
Z 1 Z 1
∂x
=− (t, t0 + h, sx0 + (1 − s)x(t0 + h, t0 , x0 ))ds x(t0 + (1 − s)h, t0 , x0 )ds,
0 ∂x0 0

De esta expresión, haciendo tender h → 0, obtenemos el resultado deseado.

Consideremos el P.V.I. x′ = f (t, x, µ), x(t0 ) = x0 , y denotemos por x(t, t0 , x0 , µ) a


su solución.
Teniendo en cuenta que (2.7)-(2.8) es equivalente al sistema (2.11) con y(t0 ) = y0 ,
se sigue del teorema 2.16 el siguiente:

∂f ∂f
Corolario 2.17 Si f ∈ C[J × D × D1 , IRn ] y , existen y son continuas sobre
∂x ∂µ
J ×D×D1 , entonces x(t, t0 , x0 , µ) es continuamente diferenciable en todas sus variables.
Además se tiene que :

a) La matriz ∂x (t, t0 , x0 , µ) satisface a la ecuación diferencial variacional


∂x0
 
′ ∂f
y = (t, x(t, t0 , x0 , µ), µ) y
∂x

con y(t0 ) = I.

b) La matriz ∂x (t, t0 , x0 , µ) es solución de:


∂µ
 
′ ∂f ∂f
y = (t, x(t, t0 , x0 , µ), µ) y + (t, x(t, t0 , x0 , µ), µ)
∂x ∂µ

con y(t0 ) = 0.

c)
∂x ∂x
(t, t0 , x0 , µ) = − (t, t0 , x0 , µ)f (t0 , x0 , µ).
∂t0 ∂x0

§ 2.6 E.D.O. con Parte Derecha Discontinua

En los parágrafos 2.1-2.5, solo hemos considerado campos vectoriales continuos.


Bajo esta condición el P.V.I.(2.1)-(2.2) es equivalente a la ecuación integral
Z t
x(t) = x0 + f (s, x(s))ds.
t0

En la teorı́a de control automático, teorı́a de óptimo, etc., surge la necesidad de con-


siderar campos vectoriales en general discontinuos en t. En este parágrafo estudiaremos
E.D.O., cuyo campo vectorial pertenece a una clase más general, que la considerada
hasta el momento.
34 Capı́tulo 2. Teorı́a General

Definición 2.2 (Condición de Caratheodory)


Se dice que f : J × D → IRn satisface la condición de Caratheodory sobre J × D,
si :
a) Para cada x ∈ D, la función f (·, x) es medible Lebesgue.
b) Para cada t ∈ J, f (t, ·) es continua.
c) Para todo conjunto compacto U ⊂ J × D, existe una función m ∈ L1 , tal que

| f (t, x) |≤ m(t), ∀(t, x) ∈ U.

No es difı́cil mostrar que la condición (c) es equivalente a la siguiente:


d) Para todo p ∈ J × D, existe un entorno U ∗ del punto p y una función m∗ ∈ L1 ,
tales que:

|f (t, x)| ≤ m∗ (t), para cada (t, x) ∈ Ū ∗ ; con Ū ∗ ⊂ J × D.

Notemos que, si f satisface la condición de Caratheodory, entonces toda solución de


la ecuación integral (2.3) es absolutamente continua. Por esta razón, debemos pensar a
las soluciones de la E.D.O., en un sentido generalizado. Más precisamente, diremos que
ϕ : J1 → D es solución de x′ = f (t, x), con x(t0 ) = x0 ; si ϕ es absolutamente continua
y satisface a la E.D.O., excepto sobre un conjunto de medida nula, y ϕ(t0 ) = x0 .
El siguiente teorema es el análogo del teorema de Peano.

Teorema 2.18 (Caratheodory) Si f satisface la condición de Caratheodory so-


bre J × D, entonces el P.V.I, (2.1)-(2.2) posee al menos una solución.
Idea de la demostración. ◦
Sea U un compacto cualquiera de J × D, tal que (t0 , x0 ) ∈U . Sea m ∈ L1 , la función
dada por la condición de Caratheodory. Elija a > 0 y b > 0 de modo que

D = {(t, x) : | t − t0 |≤ a , |x − x0 | ≤ b} ⊂ U.
R t +δ
Escoja una constante δ de forma que 0 < δ < a y t00 m(s)ds ≤ b.
El resto de la demostración es exactamente igual a la prueba del Teorema Peano.
El teorema 2.18, no garantiza en general la unicidad de las soluciones, para ello es
necesario imponer alguna condición adicional a f.

Definición 2.3 (Condición de Lipschitz Generalizada) Diremos que f : J ×


D → IRn satisface la condición de Lipschitz generalizada, si para cada conjunto com-
pacto U ⊂ J × D, existe una función k ∈ L1 , tal que

|f (t, x1 ) − f (t, x2 )| ≤ k(t)|x1 − x2 |,

para cada (t, x1 ) y (t, x2 ) ∈ U.


§ 2.6. E.D.O. con Parte Derecha Discontinua 35

Teorema 2.19 (Existencia y Unicidad de Soluciones no Prolongables)


Supongamos que:

a) f satisface la condición de Caratheodory.

b) f verifica la condición de Lipschitz generalizada. Entonces el P.V.I. (2.1)-(2.2)


posee una única solución no prolongable, definida sobre (α, β), con a ≤ α y β ≤ b.

Esbozo de la prueba
Primero se prueba la existencia y unicidad local. Para ello se fija un compacto U,
como en el teorema 2.18 (Caratheodory). Sean m y k en L1 , las funciones dadas por
la condición de Caratheodory y Lipschitz generalizada, respectivamente. Sean a > 0 y
b > 0, tales que D = {(t, x) :| t − t0 |≤ a, |x − x0 | ≤ b} ⊂ U. Eligiendo una constante
R t +δ R t +δ
de modo que 0 < δ < a, t00 m(s)ds ≤ b y t00 k(s)ds < 1 postulando exactamente
igual que en la prueba del teorema 2.2, se obtiene la existencia y unicidad local.
36 Capı́tulo 2. Teorı́a General

§ 2.7 Ejercicios y Problemas

1. Estudie la existencia y unicidad de las soluciones de los siguientes P.V.I.:


1
a) x′ = x 3 , x(0) = x0 .
1 , x(0) = 1 .
b) x′ = x
c) x′ = 1 + x2 , x(0) = 0 .
xy
d) x′ = ,
1 + x2 + y 2
y′ = 1 ,
1 + x2
x(0) = y(0) = 0 .
e) (cos t)x′ + (sin t)x = 1 , x(0) = 1 .
2
f) 2t ln |x| − 1 + t x+ 1 x′ = 0 , x(2) = −e.

2. Muestre que la condición de Lipschitz, no es una condición necesaria para la


unicidad.
Indicación: Integre las siguientes ecuaciones diferenciales:
2
i) x′ = 1 + x 3 , x(0) = 0 .
ii) x′ = g(x), x(0) = x0 , donde
(
1
x ln |x| si x 6= 0
g(x) =
0 si x = 0 .

3. Considere el siguiente sistema x′ = g(x) , y ′ = f (x)y donde g : IRn → IRn es una


función globalmente Lipschitz y f ∈ C[IRn , IR]. Pruebe que todas las soluciones
de este sistema están definidas sobre IR.
4. Sea f ∈ C 1 [IRn , IRn ] una función acotada. Muestre que el sistema x′ = f (x) con
x(0) = x0 , posee una única solución definida sobre todo IR; y además es dos veces
continuamente diferenciable.
5. Pruebe que todas las soluciones de las ecuaciones de Van der Pol

x′′ + ε(x2 − 1)x′ + x = 0 , ε > 0,

son prolongables a +∞. Indicación: reduzca la ecuación a un sistema bidimen-


sional y estime el crecimiento de la norma (euclidea) al cuadrado de las soluciones.
6. Supongamos que existe una función k ∈ L1 (J, IR+
0 ) tal que

|f (t, x) − f (t, y)| ≤ k(t)|x − y|, ∀(t, x), (t, y) ∈ J × IRn .

Si x′ = f (t, x) posee soluciones, entonces ellas están definida sobre J.


§ 2.7. Ejercicios y Problemas 37

7. Sea f : IR × IRn → IRn . Si ϕ es una solución no prolongable del P.V.I. x′ =


f (t, x), x(t0 ) = x0 , definida sobre (α, β), (−∞ < α < β < +∞), entonces
lim |ϕ(t)| = +∞, lim |ϕ(t)| = +∞.
t→β − t→α+

8. Sea f ∈ C[IR × IRn , IRn ] tal que |f (t, x)| ≤ k(t)δ(|x|), para todo (t, x) ∈ IR ×
n
donde k ∈ C(IR, IR+
RIR∞; dv
+ +
0 ) , δ ∈ C[IR0 , IR0 ] , δ(0) = 0 , δ(v) > 0 ∀ v > 0 y
0 δ(v) = ∞.
Pruebe que todas las soluciones del sistema x′ = f (t, x) son prolongables a +∞.
Indicación: Estime el crecimiento de la función v 2 =< x, x > a lo largo de las
soluciones del sistema.

9. Sea f : IR → IR una función continua y acotada. Sea ϕn : [0, 1] → IR una sucesión


de soluciones de la E.D.O. x′ = f (x).
Pruebe que: si ϕn converge para algún t∗ ∈ [0, 1], entonces existe una subsucesión,
que converge a una solución de x′ = f (x).
Indicación: aplique el lema de Arzela-Ascoli al conjunto H = {ϕ1 , ϕ2 , · · · }.

10. Sea x′ (t) = 2t+µx2 , x(t0 ) = x0 , y Denotemos su solución por x(t, t0 , x0 , µ). Halle
∂x(t, t0 , x0 , µ)
en el punto (t, 0, −1, 0).
∂µ

11. Sea x′′ + 3x′ = 2 sin t + µ(x′ )2 , x(t0 ) = x0 , x′ (t0 ) = x. Halle ∂x , ∂x′ , ∂x en el
∂x0 ∂x0 ∂µ
punto (t, 0, 0, 0, 0).

12. Muestre que : Si el sistema x′ = f (x) admite soluciones no prolongables a +∞,


entonces existe un cambio de la variable independiente, tal que las soluciones del
sistema transformado son prolongables a +∞.
Indicación: Ponga
Z tp
u(t) = 1 + |f (ϕ(s))|2 ds , t ∈ [0, β) , β < +∞.
0

13. Supongamos que existe k ∈ C[J, IR+ ], tal que

|f (t, x) − f (t, y)| ≤ k(t)|x − y|, ∀ (t, x), (t, y) ∈ J × IRn .

Demuestre que si f es continua en t, entonces el P.V.I y ′ = f (t, y) , y(t0 ) = y0 ,


posee una única solución definida ∀ t ∈ J.

14. Estudie la prolongabilidad a ±∞ de las soluciones de las siguientes ecuaciones


x′ = 1 + x2 , x′ = x2 ± t2 .
38 Capı́tulo 2. Teorı́a General
Capı́tulo 3

Sistemas Lineales

En este capı́tulo estudiaremos sistemas lineales de ecuaciones diferenciales ordina-


rias. En esta caso se puede obtener información mas detallada sobre el comportamiento
de sus soluciones, la cual será muy útil al momento de estudiar la dinámica de ecuaciones
diferenciales no lineales.
Un sistema de la forma
x′ = A(t)x, (3.1)
se denomina lineal homogéneo y uno del tipo
y ′ = A(t)y + f (t), (3.2)
se denomina sistema lineal no homogéneo; donde A ∈ C[J, Rn×n ] y f ∈ C[J, IRn ] .
Mostremos que (3.2) admite una única solución para cualquier problema de valor
inicial. En efecto, denotemos por F (t, y) = A(t)y + f (t). Como A y f son continuas,
se sigue que F también es continua y se verifica que
|F (t, y)| ≤ kA(t)k |y| + |f (t)|, ∀ (t, y) ∈ J × IRn ,
entonces por el teorema de prolongación global 2.10, se sigue que (3.2) admite una única
solución definida sobre el intervalo J. En otras palabras el intervalo de continuidad de
las funciones A(t) y f (t) determina el intervalo maximal de existencia y unicidad de
las soluciones del sistema (3.2).

§ 3.1 Sistemas Lineales Homogéneos

Lema 3.1 Con P las operaciones usuales de suma y producto por un escalar de fun-
ciones el conjunto = {ϕ : J → IRn tal que ϕ satisface (3.1)} es un espacio
vectorial de dimensión n.
P
Demostración.
P Es obvio que es un subespacio vectorial del espacio C[J, IRn ].
Mostremos que es isomorfo a IRn . Para ello consideremos los siguientes P.V.I.
x′ = A(t)x , x(t0 ) = ej ,
n
donde {ej }nj=1 es la base canónica de IR . Es claro que para cada j existe P una única
solución del P.V.I.,
P a esta solución la denotaremos por ϕ j . Entonces ϕ j ∈ , yP
el ope-
rador T : IRn → , definido por T ej = ϕj , induce un isomorfismo Pnentre IRn
y . En
n
efecto, si x0 ∈ IR , existen
P P que x0 = i=1 ci ei . LuegoP
constantes c1 , . . . , cn , tales por
ser T lineal, T x0 = ni=1 ci ϕi . Definiendo ϕ(t) = ni=1 ci ϕi , obtenemos que ϕ ∈ y
satisface la condición inicial x(t0 ) = x0 .

Teniendo en cuenta la prueba del lema 3.1 y el hecho que un isomorfismoPenvı́a


bases en bases, se sigue que {ϕ1 , . . . , ϕn } es una base del sub-espacio vectorial .

39
40 Capı́tulo 3. Sistemas Lineales

P
Definición
P 3.1 A cualquier conjunto de funciones ϕj ∈ , j = 1, . . . , n; que sea
base de lo llamaremos sistema fundamental de soluciones del sistema (3.1).

Definición 3.2 P A la matriz Φ : J → IRn×n cuyas columnas sean las componentes


de alguna base de se le llama matriz fundamental del sistema (3.1). Si además
Φ(t0 ) = I , entonces Φ se llama matriz fundamental principal.
De la definición de matriz fundamental se sigue inmediatamente que Φ′ (t) = A(t)Φ(t).
Entonces toda solución del sistema homogéneo (3.1), tiene la forma x(t) = Φ(t)C ,
donde C es un vector constante en IRn a determinar. En particular, x(t0 ) = x0 =
Φ(t0 )C. De allı́ que C = Φ−1 (t0 )x0 . Ası́, la única solución del sistema lineal homogéneo
(3.1) tal que x(t0 ) = x0 , viene dada por la expresión

x(t, t0 , x0 ) = Φ(t)Φ(t0 )−1 x0 . (3.3)

A la matriz K(t, t0 ) = Φ(t)Φ(t0 )−1 , se le llama matriz de transición (operador de


evolución) del sistema (3.1). Además, el operador de evolución K(t, t0 ) satisface las
propiedades siguientes:
a) La matriz de transición es única.

b) K(t, t0 ) = K(t, s)K(s, t0 ) , ∀ t0 ≤ s ≤ t , (propiedad semigrupal).

c) K −1 (t, t0 ) = K(t0 , t),

d) K(t0 , t0 ) = I,

e) ∂K (t, t0 ) = A(t)K(t, t0 ).
∂t
Una propiedad bien interesante de las matrices soluciones del sistema (3.1) es que ellas
son siempre singulares o no-singulares. Es decir, es suficiente que una matriz solución
sea no singular en un instante t0 para que ella sea no singular para todo t en IR. Esta
afirmación se sigue inmediatamente del siguiente :

Teorema 3.2 (Liouville). Sea Φ(t) una matriz solución del sistema (3.1). En-
tonces Rt
trA(s)ds
W (t) = det Φ(t) = W (t0 )e t0 , ∀ t ∈ J.
P
A la función W (t) se le llama el Wronskiano de Φ ; y, trA = (traza A) = ni=1 aii .
Demostración. Se sabe que
 
ϕ11 · · · ϕ1n ϕ11 · · · ϕ1n

n . . .
. . . . . . .  . . . . . . .
X ′ . . . 
W ′ (t) = (det Φ(t))′ = ϕ · · · ϕ′in , donde Φ(t) =  · · · ϕin 
i1  ϕi1 .
i=1 . . .
. . . . . . . . . . . . . . . . .
ϕn1 · · · ϕnn ϕn1 · · · ϕnn
§ 3.1. Sistemas Lineales Homogéneos 41

Como Φ es una matriz ′



Pn solución del sistema (3.1), se tiene que Φ = A(t)Φ. De donde
se sigue que ϕij = k=1 aik ϕkj . Sustituyendo estas expresiones en el determinante

ϕ11 · · · ϕ1n

. . . . . . . . . .

ϕ · · · ϕ ′ ,
i1 in
. . . . . . . . . .

ϕn1 · · · ϕnn

multiplicando la primera fila por −ai1 , la segunda por −ai2 y ası́ sucesivamente, excepto
la i−ésima fila; y sumándoselas a la i−ésima fila, obtenemos que

ϕ11 · · · ϕ1n

. . . . . . . . . .

ϕ ′
i1 · · · ϕin = aii W (t).
. . . . . . . . . .

ϕn1 · · · ϕnn

Lo cual inmediatamente implica que W ′ (t) = trA(t)W (t). Esto prueba nuestra afir-
mación.

Supongamos ahora que A(t) es una matriz constante y la seguiremos denotando con
la misma letra. Pongamos

X An tn
eAt = .
n!
n=0
Teniendo en cuenta que
kAn tn k kAkn |t|n
i) ≤
n! n!
P∞ kAk |t| n n
ii) n=0 < ∞,
n!
P
se sigue que eAt está bien definida. Más aún como ∞ n n
n=0 A t /n! converge uniforme-
mente sobre compactos, cada término de la serie es infinitamente diferenciable y la serie
de las derivadas término a término, también es uniformemente convergente, obtenemos
que Φ(t) = eAt satisface la ecuación matricial lineal homogénea

X ∞
X
An tn−1 An−1 tn−1
Φ′ (t) = n =A = AΦ(t),
n! (n − 1)!
n=1 n=1
y
Φ(0) = In×n .
Ası́, hemos mostrado que para sistemas lineales a coeficientes constantes la matriz
fundamental principal viene dada por Φ(t) = eAt .
42 Capı́tulo 3. Sistemas Lineales

§ 3.2 Sistemas Lineales No-Homogéneos

Consideremos el sistema lineal no homogéneo (3.2). Especı́ficamente, nuestra in-


tención es la de hallar una expresión para las soluciones de (3.2), en términos de las
soluciones del sistema lineal homogéneo (3.1). El método que emplearemos para nuestro
propósito es el método de variación de parámetros.
Sea Φ(t) la matriz fundamental del sistema (3.1). Busquemos las condiciones que
debe satisfacer la función C : J → IRn para que y(t) = Φ(t)C(t) , t ∈ J, sea solución del
sistema (3.2). Luego, derivando y reemplazando y(t) = Φ(t)C(t) en (3.2) obtenemos
que :
Φ′ (t)C(t) + Φ(t)C ′ (t) = A(t)Φ(t)C(t) + f (t) , t ∈ J.
Teniendo en cuenta que Φ′ = A(t)Φ , se sigue que

Φ(t)C ′ (t) = f (t) , t ∈ J.

Integrando esta expresión obtenemos que : y(t) = Φ(t)C(t) es solución del sistema (3.2)
si y solo si Z t
C(t) = C0 + Φ−1 (s)f (s) ds , t ∈ J,
t0

para cierta constante C0 ∈ IRn .


Ası́, la expresión general para las soluciones de (3.2) es
Z t
y(t) = Φ(t)C0 + Φ(t) Φ−1 (s)f (s) ds , t ∈ J. (3.4)
t0

Si además de (3.2) tenemos el dato inicial y(t0 ) = y0 , entonces C0 = Φ−1 (t0 )y0 ; y
la única solución de (3.2) que satisface la condición inicial y(t0 ) = y0 viene dada por
Z t
y(t, t0 , y0 ) = K(t, t0 )y0 + K(t, s)f (s) ds , t ∈ J. (3.5)
t0
§ 3.3. Sistemas Lineal Conjugado 43

§ 3.3 Sistemas Lineal Conjugado

Definición 3.3 Diremos que dos funciones x(t) y z(t) son conjugadas, si

< x(t), z(t) >= cte,

para todo t ∈ J. Aquı́, < ·, · > denota al producto interior de IRn .

Sea x(t) una solución del sistema (3.1) y z(t) una función diferenciable. Si x(t) y z(t)
son funciones conjugadas , entonces

< x′ (t), z(t) > + < x(t), z ′ (t) >= 0 , t ∈ J.

Luego, como x(t) es solución de (3.1) se sigue que

< x(t), AT (t)z(t) + z ′ (t) >= 0 , t ∈ J,

y para toda solución x(t) de (3.1). Lo cual implica que necesariamente z(t) debe
satisfacer la siguiente ecuación diferencial

z ′ (t) = −AT (t)z(t) , t ∈ J. (3.6)

Al sistema (3.6) se le llama sistema lineal conjugado.


Sea Φ(t) la matriz fundamental del sistema (3.1). Derivando la identidad

Φ(t)Φ−1 (t) = I,

se obtiene que

0 = Φ′ Φ−1 + Φ(Φ−1 )′ = A(t) + Φ(Φ−1 )′

De donde se sigue que


(Φ−1 )′ = −Φ−1 A(t) , t ∈ J.

Es decir, (ΦT )−1 es la matriz fundamental del sistema lineal conjugado (3.6).

Observación 3.1 En teorı́a de control óptimo y en programación lineal, frecuente-


mente asociado al problema que se desea resolver, se plantea otro problema llamado
Problema Dual. En algunas teorı́as este problema dual se obtiene o viene a dar condi-
ciones necesarias para resolver el problema original. Es de destacar aquı́ que tales
problemas duales son en realidad los sistema conjugados asociados al sistema original.
44 Capı́tulo 3. Sistemas Lineales

§ 3.4 Sistemas Reducibles

Definición 3.4 Diremos que el sistema (3.1) es reducible, si existe una matriz L ∈
C 1 (IR, IRn×n ), no singular, con L y L′ acotadas, tal que la transformación x = L(t)z,
reduce el sistema (3.1) a un sistema con coeficientes constantes de la forma z ′ = Bz,
donde B = L−1 (AL − L′ ) .
Una vez vistas las ventajas que presentan los sistemas lineales a coeficientes cons-
tantes resulta natural buscar condiciones que permitan caracterizar a los sistemas re-
ducibles. En este sentido tenemos el siguiente :

Teorema 3.3 (Eruguin) El sistema (3.1) es reducible si y sólo si la matriz de


transición del sistema (3.1) se puede expresar como :

K(t, t0 ) = L(t)eB(t−t0 ) L−1 (t0 ), (3.7)

para alguna matriz constante B.


Demostración. Supongamos que el sistema (3.1) es reducible al sistema z ′ = Bz,
mediante la transformación x = L(t)z . Definamos Φ(t) = L(t)eBt . Derivando Φ y
teniendo en cuenta que L′ = AL − LB , obtenemos que

Φ′ = L′ eBt + LBeBt = ALeBt = AΦ.

Lo cual muestra que Φ(t) = L(t)eBt es matriz fundamental del sistema (3.1). Luego,
la matriz de transición de (3.1) satisface (3.7). En efecto,

K(t, t0 ) = Φ(t)Φ−1 (t0 ) = L(t)eBt e−Bt0 L−1 (t0 ) .

Probemos ahora la suficiencia. Supongamos que se satisface la relación (3.7) y


definamos x = L(t)z. Entonces x′ = L′ (t)z + L(t)z ′ . De (3.1) y la expresión anterior,
se obtiene que
L(t)z ′ = A(t)x(t) − L′ (t)z = [A(t)L(t) − L′ (t)]z.
Lo cual implica que
z ′ = L−1 (t)[A(t)L(t) − L′ (t)]z. (3.8)
De (3.7), se sigue que :
L(t) = K(t, t0 )L(t0 )e−B(t−t0 ) .
y

L′ (t) = A(t)K(t, t0 )L(t0 )e−B(t−t0 ) − K(t, t0 )L(t0 )Be−B(t−t0 ) = A(t)L(t) − L(t)B.

Finalmente, sustituyendo L(t) y L′ (t) en la ecuación (3.8), obtenemos que z ′ = Bz . Lo


cual prueba la reducibilidad del sistema (3.1)
§ 3.5. Sistemas Lineales Homegéneos a Coeficientes Periódicos 45

§ 3.5 Sistemas Lineales Homegéneos a Coeficientes Periódicos

La búsqueda de soluciones periódicas para sistemas del tipo y ′ = f (t, y) es equiva-


lente a resolver un problema de frontera del tipo y(0) = y(ω), donde ω > 0 representa
el perı́odo de la solución buscada. Este tipo de problemas es de gran importancia
práctica.
En este parágrafo consideraremos el sistema (3.1) bajo la condición adicional que
A(t) es una matriz ω−periódica. En este caso decimos que el sistema (3.1) es ω−pe-
riódico. Mostraremos que los sistemas lineales ω-periódicos son reducibles a sistemas
con coeficientes constantes.
Probemos en primer lugar el siguiente lema auxiliar.

Lema 3.4 Sea C una matriz real e invertible. Entonces, existe una matriz B, en
general compleja, tal que eB = C.
Demostración. Dada la matriz C, denotemos por λ1 , · · · , λm sus autovalores. En-
tonces existe una matriz invertible T tal que T −1 CT = J, donde J := diag[J1 , . . . , Jm ],
Ji = λi I + S y S es una matriz nilpotente del tipo
 
0 1 0 0 0
 0 0 1 0 0 
 
S := 
 0 0 0 1 0 .

 0 0 0 0 1 
0 0 0 0 0

Observemos que es suficiente probar el lema para un bloque elemental de Jordan. En


efecto, si para cada i = 1, . . . , m, existe una matriz Bi tal que Ji = eBi , entonces

C = T JT −1 = T diag [J1 , . . . , Jm ] T −1 = T diag [eB1 , . . . , eBm ]T −1


= T eB̃ T −1 = eT B̃T = eB
−1
,

donde B̃ = diag[B1 , . . . , Bm ] y B = T B̃T −1 .


Luego, podemos suponer sin perder generalidad, que la matriz C tiene la forma
C = λI + S , (λ 6= 0), o bien C = λ(I + S ). Pongamos ahora
λ
S
B = (ln λ)I + ln(I + ).
λ
La matriz B está bien definida, ya que al ser S una matriz nilpotente existe p ∈ N tal
que S k = 0 , ∀ k ≥ p + 1 , lo cual implica que

X (−1)k+1 S k X (−1)k+1 S k p
S
S1 = ln(I + )= k
= .
λ kλ kλk
k=1 k=1
46 Capı́tulo 3. Sistemas Lineales

Por otra parte,



X p
X
Sk Sk
eB = e(ln λ)I+S1 = λeS1 = λ 1
=λ 1
.
k! k!
k=0 k=0

Sustituyendo en la expresión anterior el desarrollo de S1 y después de un tedioso cálculo


se obtiene que eB = λ(I + S/λ) = C.

Observación 3.2 La matriz B no está determinada de manera única, puesto que


si eB = C, también es cierto que para la matriz B1 = B + (2kπi)I, (k ∈ N) se satisface
que eB1 = C.

Teorema 3.5 (Floquet 1883) Si Φ(t) es una matriz fundamental del sistema
ω−periódico (3.1), entonces existe una matriz invertible P ∈ C 1 [IR, IRn×n ] tal que
P (t + ω) = P (t) y una matriz constante B tal que

Φ(t) = P (t)eBt . (3.9)

Demostración. Supongamos en primer lugar que Φ(0) = I. Teniendo en cuenta la


periodicidad de la matriz A(t) se tiene que Φ′ (t + ω) = A(t + ω)Φ(t + ω) = A(t)Φ(t + ω),
lo cual implica que Φ(t + ω) también es una matriz fundamental del sistema (3.1) y por
tanto, existe una matriz constante C tal que Φ(t + ω) = Φ(t)C. Luego, poniendo t = 0
se obtiene que Φ(ω) = Φ(0)C = C y por tanto Φ(t+ω) = Φ(t)Φ(ω), de donde se obtiene
que Φ(t) = Φ(t+ω)Φ−1 (ω). Por ser Φ(ω) una matriz no singular, por el lema 3.4, existe
una matriz B tal que Φ(ω) = eBω . Definamos P (t) = Φ(t)e−Bt . Evidentemente P (t) es
una matriz invertible y satisface (3.9). Mostremos que P es ω−periódica

P (t + ω) = Φ(t + ω)e−Bω e−Bt = Φ(t + ω)Φ−1 (ω)e−Bt = Φ(t)e−Bt = P (t).

Sea ahora Φ1 una matriz fundamental arbitraria del sistema (3.1). Luego se tiene
que

Φ1 (t) = Φ(t)Φ1 (0) = P (t)eBt Φ1 (0) = P (t)Φ1 (0)Φ−1 Bt


1 (0)e Φ1 (0)
−1
= P (t)Φ1 (0)eΦ1 (0)BtΦ1 (0)
.

Denotando con P1 (t) = P (t)Φ(0) , B1 = Φ−1 1 (0)BΦ1 (0), obtenemos que Φ1 (t) =
P1 (t)eB1 t . Lo cual concluye la prueba del teorema.

A partir de los teoremas de Eruguin y Floquet realizando la trasformación x(t) =


P (t)z, obtenemos como una consecuencia inmediata el siguiente:
Corolario 3.6 Todo sistema ω−periódico es reducible a un sistema con coeficientes
constantes.
§ 3.5. Sistemas Lineales Homegéneos a Coeficientes Periódicos 47

Se sabe que si Φ(t) es una matriz fundamental de (3.1), Φ(t + ω) también lo es. Por
lo tanto existe una matriz invertible C tal que Φ(t + ω) = Φ(t)C. A la matriz C se le
llama matriz de monodromı́a.

Definición 3.5 A los autovalores de la matriz C los llamaremos multiplicadores


caracterı́sticos del sistema (3.1).
Mostremos que los multiplicadores caracterı́sticos no dependen de la elección de la
matriz fundamental. En efecto, sean Φ y Ψ dos matrices fundamentales de (3.1).
Luego, existen matrices C y D tales que Φ(t + ω) = Φ(t)C y Ψ(t) = Φ(t)D. De donde
se sigue que
Ψ(t + ω) = Φ(t + ω)D = Φ(t)CD = Ψ(t)D−1 CD .
Lo cual muestra que D−1 CD es una matriz de monodromı́a para Ψ semejante a la
matriz C. Lo cual prueba nuestra afirmación.
Basándose en la observación anterior podemos definir los multiplicadores carac-
terı́sticos como sigue.

Definición 3.6 Sea Φ la matriz fundamental principal del sistema (3.1). Llamare-
mos multiplicadores caracterı́sticos del sistema (3.1) a los autovalores de la matriz
Φ(ω) y exponentes caracterı́sticos del sistema (3.1) a los autovalores de la matriz B que
aparece en (3.9).

Teorema 3.7 λ es un multiplicador caracterı́stico del sistema ω−periódico (3.1) si


y sólo si existe una solución no trivial ϕ de (3.1) tal que ϕ(t + ω) = λϕ(t) , t ∈ IR.
Demostración. Sea λ un multiplicador caracterı́stico de (3.1). Llamemos x0 al
autovector correspondiente a λ y sea ϕ la solución del P.V.I. x′ = A(t)x , x(0) = x0 .
Teniendo en cuenta que ϕ(t) = Φ(t)x0 , donde Φ es la matriz fundamental fundamental
principal de (3.1), se sigue que

ϕ(t + ω) = Φ(t + ω)x0 = Φ(t)Φ(ω)x0 = Φ(t)λx0 = λϕ(t), t ∈ IR.

Para probar la afirmación recı́proca es suficiente poner t = 0 en la expresión ϕ(t + ω) =


λϕ(t) , t ∈ IR.

Una consecuencia inmediata del Teorema 3.7 es el siguiente

Corolario 3.8 El sistema (3.1) admite una solución ω−periódica no constante si


y sólo si existe al menos un multiplicador caracterı́stico igual a 1.

Observación 3.3 Si λ = −1 es un multiplicador caracterı́stico del sistema (3.1),


entonces del teorema 3.7 se tiene que existe una solución no nula ϕ tal que ϕ(t + ω) =
−ϕ(t), ∀ t ∈ IR. Lo cual implica que ϕ(t + 2ω) = −ϕ(t + ω) = ϕ(t), es decir, ϕ es
2ω−periódica.
48 Capı́tulo 3. Sistemas Lineales

Análogamente, si λ = epπi/q es un multiplicador caracterı́stico, con p y q números


naturales,entonces el sistema (3.1) admite una solución 2qω−periódica. En efecto,
sabemos que ϕ(t+ω) = epπi/q ϕ(t). En general, si reemplazamos ω por 2qω y procedemos
inductivamente, se obtiene que

ϕ(t + 2qω) = ϕ(t + (2q − 1)ω + ω) = λϕ(t + (2q − 1)ω) = · · ·


= λ2q ϕ(t) = e2pπi ϕ(t) = (cos 2pπ + i sin 2pπ)ϕ(t) = ϕ(t).

§ 3.6 Sistemas Lineales ω-Periódicos No Homogéneos

Consideremos el sistema no homogéneo

y ′ (t) = A(t)y(t) + f (t), (3.10)

con A y f continuas y ω-periódicas. Como es natural buscaremos información acerca de


la periodicidad de las soluciones del sistema (3.10) a partir de los resultados obtenidos
para el sistema lineal homogéneo. Ası́ tenemos el siguiente :

Teorema 3.9 Si la única solución ω−periódica del sistema homogéneo (3.1) es la


solución trivial, entonces el sistema (3.10) admite una única solución ω−periódica no
constante.
Demostración. Sea ψ(t) solución de (3.10) tal que satisface la condición inicial
ψ(0) = y0 . Sabemos en este caso que
Z t
ψ(t) = Φ(t)y0 + Φ(t)Φ−1 (s)f (s)ds, (3.11)
0

donde Φ(t) es la matriz fundamental principal del sistema (3.1).


Por otra parte, si ψ(t) es ω−periódica, entonces ψ(t + ω) = ψ(t). Luego, reem-
plazando t por t + ω en (3.11) y haciendo t = 0, se obtiene que
Z ω
y0 = Φ(ω)y0 + Φ(ω)Φ−1 (s)f (s)ds.
0

De donde se sigue :
Z ω
(I − Φ(ω))y0 = Φ(ω)Φ−1 (s)f (s)ds.
0

Al ser det(I − Φ(ω)) 6= 0, se obtiene que


Z ω
−1
y0 = (I − Φ(ω)) Φ(ω)Φ−1 (s)f (s)ds.
0
§ 3.6. Sistemas Lineales ω-Periódicos No Homogéneos 49

Al reemplazar y0 , dado por la expresión anterior, en (3.11) obtenemos que


Z ω Z t
−1 −1
ψ(t) = Φ(t)(I − Φ(ω)) Φ(ω)Φ (s)f (s)ds + Φ(t)Φ−1 (s)f (s)ds (3.12)
0 0

Luego, ψ(t) dada por (3.12) es una solución ω−periódica, no constante, del sistema
(3.10).
Por otra parte, si ψ1 (t) y ψ2 (t) representan soluciones ω−periódicas del sistema
(3.10), entonces ϕ(t) = ψ1 (t) − ψ2 (t) es solución ω−periódica del sistema (3.1) y por
las condiciones del teorema tiene que ser entonces ϕ(t) = 0, para todo t ∈ IR, es decir,
que ψ1 = ψ2 .

Definamos la función de Green G(t, s), como la única función que satisface las
propiedades siguientes :
1. lim G(t, s) − lim G(t, s) = I,
t→s+ t→s−

2. G(0, s) = G(ω, s),

3. ∂G (t, s) = A(t)G(t, s), ∀ t 6= s,


∂t
∂G ∂G
4. lim (t, s) − lim (t, s) = A(s).
t→s+ ∂t t→s ∂t

Si observamos la expresión (3.12) y definimos


(
Φ(t)(I − Φ(ω))−1 Φ−1 (s) 0≤s≤t≤ω
G(t, s) =
Φ(t + ω)(I − Φ(ω))−1 Φ−1 (s) 0 ≤ t ≤ s ≤ ω,

obtenemos entonces que G(t, s) es la función de Green asociada al sistema (3.1) y la


única solución ω−periódica del sistema no homogéneo (3.10) viene dada por
Z ω
ψ(t) = G(t, s)f (s)ds , t ∈ [0, ω].
0

En efecto, de (3.12) se obtiene que


Z ω Z t 
−1 −1 −1
ψ(t) = Φ(t)(I − Φ(ω)) Φ(ω)Φ (s)f (s)ds + (I − Φ(ω)) Φ (s)f (s)ds
0 0
Z ω Z t 
−1 −1 −1
= Φ(t)(I − Φ(ω)) Φ(ω)Φ (s)f (s)ds + Φ (s)f (s)ds .
t 0

Por otra parte, se tiene que



 (I − Φ(ω))−1 Φ(ω) = Φ(ω)(I − Φ(ω))−1

Φ(t)Φ(ω) = Φ(t + ω).
50 Capı́tulo 3. Sistemas Lineales

Entonces
Z t Z ω Z ω
ψ(t) = G(t, s)f (s)ds + G(t, s)f (s)ds = G(t, s)f (s)ds.
0 t 0

Para terminar esta sección veremos que resolviendo el sistema conjugado asociado
a (3.1), podemos obtener información acerca de la periodicidad de las soluciones de
(3.10).

Teorema 3.10 El sistema lineal no homogéneo (3.10) posee soluciónes ω−perió-


dicas si y sólo si para cualquier solución z(t) del sistema conjugado (3.6) se satisface
que Z ω
< z(s), f (s) > ds = 0.
0
Demostración. Se sabe que ψ(t) es una solución ω−periódica del sistema (3.10)
si y solo si ψ(0) = ψ(ω). Lo cual es equivalente a decir que
Z ω
(I − Φ(ω))ψ(0) = Φ(ω)Φ−1 (s)f (s)ds, (3.13)
0

donde Φ(t) es la matriz fundamental principal del sistema ω−periódico (3.1). Por otra
parte, la expresión (3.13) es una ecuación lineal del tipo Ez = b, E es un operador
lineal, la cual posee solución si y sólo si < b, ξ >= 0 para cualquier ξ solución de la
ecuación ET ξ = 0. Poniendo E = I − Φ(ω) y ξ = ψ(0), obtenemos que (3.13) posee
soluciones si y sólo si
Z ω Z ω
−1
< ψ(0), Φ(ω)Φ (s)f (s)ds >= ψ T (0)Φ(ω)Φ−1 (s)f (s)ds = 0, (3.14)
0 0

para cualquier ψ(0) tal que [I − φ(ω)]T ψ(0) = 0, o bien lo que es lo mismo
ψ T (0)[I − Φ(ω)] = 0.
De donde se sigue que ψ T (0) = ψ T (0)Φ(ω). Reemplazando esta expresión en (3.14),
obtenemos Z ω
ψ T (0)Φ−1 (s)f (s)ds = 0. (3.15)
0
Por otro lado, si z(t) es solución del sistema conjugado (3.6) con condición inicial
ψ(0), −1 T
R ω T entonces z(t) = (Φ (t)) ψ(0). Sustituyendo esto último en (3.15), obtenemos
0 z (s)f (s)ds = 0.

Hasta el momento todas las condiciones que tenemos para garantizar la existencia
de soluciones periódicas para sistemas lineales involucra el cálculo de los multiplicadores
caracterı́sticos, la cual es una tarea extremadamente complicada. El siguiente resultado
nos provee una condición suficiente para la existencia de soluciones periódicas, la cual
en la práctica es mas fácil de chequear.
§ 3.6. Sistemas Lineales ω-Periódicos No Homogéneos 51

Teorema 3.11 Supongamos que el sistema (3.10) posee al menos una solución
acotada en [0, +∞). Entonces dicho sistema admite una solución ω−periódica no cons-
tante.
Demostración. Sea ψ(t) una solución de (3.10) acotada sobre [0, +∞) tal que
ψ(0) = y0 y sea Φ(t) la matriz fundamental principal del sistema homogéneo. Entonces
Z ω
ψ(ω) = Φ(ω)y0 + Φ(ω)Φ−1 (s)f (s)ds.
0

Como el sistema (3.10) es ω−periódico, entonces ψ(t+ω) también satisface a (3.10).


Luego, se tiene que
Z t
ψ(t + ω) = Φ(t)ψ(ω) + Φ(t)Φ−1 (s)f (s)ds.
0

Poniendo t = ω, obtenemos
Z ω
ψ(2ω) = Φ(ω)ψ(ω) + Φ(ω)Φ−1 (s)f (s)ds = Φ2 (ω)y0 + [Φ(ω) + I]V,
0

donde Z ω
V = Φ(ω)Φ−1 (s)f (s)ds.
0

Procediendo inductivamente se llega a

k−1
X
k
ψ(kω) = Φ (ω)y0 + Φi (ω)V , k ∈ N.
i=0

Si se supone que el sistema (3.10) no posee soluciones ω−periódicas, entonces

[I − Φ(ω)]z 6= V , ∀ z ∈ IRn . (3.16)



En efecto, supongamos que [I − Φ(ω)]z = V = 0 Φ(ω)Φ−1 (s)f (s)ds, para algún
z ∈ IRn . Entonces la función
Z t
ϕ(t) = Φ(t)z + Φ(t)Φ−1 (s)f (s)
0

es una solución ω−periódica, de (3.10). Contradicción.


De (3.16) se deduce que det(I − Φ(ω)) = 0, puesto que de lo contrario la ecuación
(I − Φ(ω))z = V tendrı́a solución. De allı́ que existe c 6= 0, tal que (I − Φ(ω))T c = 0 y
< V, c >6= 0.
52 Capı́tulo 3. Sistemas Lineales

Esto significa que c satisface c = ΦT (ω)c. Por tanto c = (ΦT (ω))k c, para todo k ∈ N
y de allı́ que
k−1
X
k
< ψ(kω), c > = < Φ (ω)y0 + Φi (ω)V, c >
i=0
k−1
X
= < y0 , (ΦT (ω))k c > + < V, (ΦT (ω))i c >
i=0
k−1
X
= < y0 , c > + < V, c >=< y0 + kV, c >→ +∞,
i=0

cuando k → +∞. Lo que contradice la acotación de ψ sobre [0, +∞).


§ 3.7. Comentarios y Sugerencias 53

§ 3.7 Comentarios y Sugerencias

En este capı́tulo solo hemos considerado sistemas lineales del tipo (3.2) donde A(t)
y f (t) son continuas sobre J. Cuando A(t) y f (t) son localmente integrables todos
los resultados de los parágrafos 3.1 al 3.5 siguen siendo válidos. La única variación
consiste en que las soluciones se entenderán como funciones absolutamente continuas
que satisfacen (3.2) casi en todas partes sobre J.
En el parágrafo 3.6 nos referimos a la reducibilidad de sistemas lineales en el sentido
de Liapunov. Sin embargo, es importante en la práctica considerar la reducibilidad en
un sentido más amplio. Más concretamente, cuando el sistema (3.1) se reduce a uno
cuya matriz es de la forma  
C1 (t) 0
.
0 C2 (t)
Notemos que este concepto de reducibilidad es compatible con el que se introduce en
álgebra lineal, ver [13] . Esto tiene importantes conexiones con la teorı́a de dicotomı́a,
para su estudio recomendamos ver el excelente libro escrito por Coppel [3].
Para finalizar, acotemos que respecto a los sistemas ω−periódicos solo hemos tocado
los resultados más elementales. En general, el problema de hallar soluciones periódicas
dista de estar totalmente resuelto; muy por el contrario, es profusa la bibliografı́a
referente a este tema. Incluso, el problema de hallar o estimar a los multiplicadores
caracterı́sticos es un problema resuelto solo en casos muy particulares (ver [11], pág.
121).
54 Capı́tulo 3. Sistemas Lineales

§ 3.8 Ejercicios y Problemas

1. Halle la matriz fundamental principal de los siguientes sistemas

(a) x′1 = x2 ,
x′2 = −x1 .
(b) x′1 = 2x1 + x2 ,
x′2 = x1 + 4x2 .

2. Si Φ(t) es una matriz solución del sistema homogéneo X ′ = A(t)X e invertible


para algún t0 , entonces Φ(t) es no singular para todo t ∈ J.

3. Pruebe que la matriz de transición satisface las propiedades a) − e) .

4. Se dice que una solución es positiva, si cada componente de la solución es positiva


cuando el dato inicial es positivo. Hallar condiciones para que las soluciones del
sistema x′ = A(t)x sean positivas en términos de los elementos de la matriz
A = (aij ). Considere por separado los casos cuando la matriz es constante y
cuando es función del tiempo.

5. Muestre que la matriz fundamental de un sistema lineal periódico no necesaria-


mente es periódica. Indicación: considere el siguiente sistema
x′ = x,
y ′ = (sin t)x + y .

6. Considere la ecuación y ′ = a(t)y+b(t), donde a, b ∈ C[IR, IR]. Supongamos además


que a(t) y b(t) son ω−periódicas .
Pruebe
R ω que la ecuación dada posee una única solución
Rω ω−periódica si y sólo si
exp( 0 a(s)ds) 6= 1. Estudie el caso cuando exp( 0 a(s)ds) = 1.

7. Pruebe que el sistema x′ = A(t)x posee k−soluciones ω−periódicas no constantes


y linealmente independiente si y sólo si el sistema conjugado y ′ = −AT (t)y posee
k−soluciones ω−periódicas no constantes y linealmente independiente.

8. Pruebe que la función G(t, s) definida en la sección 3.6 es una función de Green.

9. Pruebe que el sistema (3.1) no admite soluciones ω−periódicas no constantes si


y sólo si
rango [In×n − K(tω , t0 )] = n
donde K(t, t0 ) es la matriz de transición del sistema.

10. Pruebe que: Una función ϕ : IR → IRn es una solución ω−periódica del sistema
y ′ = f (t, y), con f (t + ω, y) = f (t, y), si y sólo si ϕ(0) = ϕ(ω).
§ 3.8. Ejercicios y Problemas 55

11. Considere f : IR × IR → IR, periódica en su primera variable, con periodo ω.


Supongamos que el problema y ′ = f (t, y) posee una única solución global para
cada dato inicial y0 = y(t0 ). Entonces la ecuación y ′ = f (t, y) tiene una solución
periódica de perı́odo ω si y sólo si existe una solución acotada en el intervalo
[t0 , ∞). Este resultado se debe a José Luis Massera, consulte [16].

12. Considere el sistema ω−periódico x′ = A(t)x, y sean ρi , i = 1, · · · , n sus multipli-


cadores caracterı́sticos. Pruebe que
n
Y Z ω 
ρi = exp tr A(t)dt .
i=1 0
56 Capı́tulo 3. Sistemas Lineales
Capı́tulo 4

Teorı́a de la Estabilidad

El problema al cual le dedicaremos nuestra atención en este capı́tulo es el siguiente:


Estudiar la dependencia de las soluciones de una ecuación diferencial ordinaria respecto
de los datos iniciales sobre intervalos semi-infinitos. En otras palabras, estudiaremos
la continuidad de las soluciones respecto a los datos iniciales sobre [α, ∞).
Los iniciadores del estudio que llevaremos a cabo fueron Lagrange y Dirichlet, pero
el mayor impulso a la teorı́a de la estabilidad fue dado por los trabajos de Poincaré y
Lyapunov; impulso que llevó a la teorı́a geométrica de las ecuaciones diferenciales.

§ 4.1 Definiciones de Estabilidad

Consideremos el sistema
x′ = f (t, x) , (4.1)
n
donde f ∈ C[J × D, IR ] , J = (τ, +∞) , τ ≥ −∞ , D es un subconjunto abierto y
conexo de IRn .

Definición 4.1 Diremos que la solución x(t, t0 , x0 ) del sistema (4.1) es estable en
el instante t0 , si dado ε > 0, existe δ = δ(ε, t0 ) > 0, tal que se verifica que

|x(t, t0 , x0 ) − x(t, t0 , x1 )| < ε, ∀ t ≥ t0 y x1 ∈ Bδ (x0 ).

Si la solución no es estable en el instante t0 , se dice que x(t, t0 , x0 ) es inestable en


t0 .

Definición 4.2 La solución x(t, t0 , x0 ) es asintóticamente estable, si además de ser


estable existe ρ > 0 tal que lim |x(t, t0 , x0 ) − x(t, t0 , x1 )| = 0, ∀ x1 ∈ Bρ (x0 ) .
t→∞

Observación 4.1 El estudio de la estabilidad de una solución ϕ(t) de (4.1) se puede


reducir al estudio de la estabilidad de la solución trivial de un sistema equivalente a
(4.1). Pongamos y(t) = x(t) − ϕ(t) , donde x(t) es una solución arbitraria de (4.1).
Entonces y ′ (t) = f (t, x(t)) − f (t, ϕ(t)) = f (t, y(t) + ϕ(t)) − f (t, ϕ(t)). Definiendo ahora
g(t, y) = f (t, y + ϕ(t)) − f (t, ϕ(t)) y considerando el sistema y ′ = g(t, y), obtenemos lo
deseado. Es por esta razón que de aquı́ en adelante supondremos que f (t, 0) = 0.
En las definiciones 4.1 y 4.2 cuando δ y ρ sean independientes de t0 , diremos que
la solución x(t, t0 , x0 ) es uniformemente estable y uniforme asintóticamente estable,
respectivamente.
Supongamos que x(t, t0 , x0 ) = 0, geométricamente la estabilidad dice que las solu-
ciones de (4.1), para t ≥ t0 , permanecen en un tubo de radio ε > 0 para datos iniciales
suficientemente pequeños (ver figura 4.1).

57
58 Capı́tulo 4. Teorı́a de la Estabilidad

Rn

ϕ0 (t)
ǫ δ x0
t
x1
ϕ1 (t)

Figura 4.1

La inestabilidad dice que existe ε0 > 0, tal que para cualquier δ > 0 es posi-
ble escoger T > t0 y un vector x1 con |x1 | < δ para los cuales se satisface que:
|x(T, t0 , x1 )| ≥ ε0 , (ver figura 4.2).

Rn

ǫ0 x0
T t
x1

Figura 4.2

Definición 4.3 Diremos que una solución es estable, si ella es estable para todo
t0 > τ.

Proposición 4.1 Sea t0 > τ. Si la solución trivial de (4.1) es estable (asintótica-


mente estable) en t0 , entonces x = 0 es estable (asintóticamente estable) en cualquier
otro instante t1 > τ.
Demostración. Supongamos que x = 0 es estable en t0 y que t1 ∈ (τ, t0 ). En
virtud de la dependencia continua de los datos iniciales, se tiene que para todo ε1 > 0,
existe δ1 = δ1 (ε1 , t0 , t1 ) > 0 tal que

|x(t, t1 , x1 )| < ε1 , ∀ t ∈ [t1 , t0 ] y x1 ∈ Bδ1 (0).

Por otra parte, como x = 0 es estable en t0 , se tiene que para todo ε > 0, existe
δ(ε, t0 ) > 0 tal que: si |x0 | < δ, entonces

|x(t, t0 , x0 )| < ε, ∀ t ≥ t0 .

Por lo tanto, si 0 < ε1 < δ, entonces

|x(t0 , t1 , x1 )| < ε1 < δ < ε.


§ 4.2. Estabilidad para Sistemas Lineales 59

De donde se sigue que para todo ε > 0, existe δ1∗ = δ1∗ (ε, t0 , t1 , δ) > 0 tal que

|x(t, t1 , x1 )| < ε, ∀ t ≥ t1 y x1 ∈ Bδ1∗ (0) .

Supongamos ahora que t1 > t0 . Definamos

V (t1 , ε) = {x ∈ IRn : x = x(t1 , t0 , x0 ), con x0 ∈ Bδ (0)} .

La aplicación x0 → x(t1 , t0 , x0 ) es un homeomorfismo para cada t1 , t0 fijos (dependencia


continua de los datos iniciales). Por lo tanto, existe δ1 = δ1 (ε, t0 ) > 0 tal que B δ1 (0) ⊂
V (t1 , ε) . Con este δ1 (t1 , ε) > 0, tenemos que

|x(t, t1 , x1 )| < ε, ∀ t ≥ t1 , |x1 | < δ1 (t1 , ε).

Lo cual implica la estabilidad de x = 0 en t = t1 .

En virtud de la proposición 4.1, de aquı́ en adelante sólo diremos que x = 0 es


estable o asintóticamente estable sin especificar en qué instante.

§ 4.2 Estabilidad para Sistemas Lineales

En esta sección consideraremos sistema lineales no homogéneos del tipo:

x′ (t) = A(t)x(t) + f (t), t ∈ J. (4.2)

Definición 4.4 Diremos que el sistema (4.2) es estable (asintóticamente estable),


si toda solución de (4.2) lo es.

Teorema 4.2 El sistema (4.2) es estable (asintóticamente estable) si y sólo si la


solución trivial del sistema lineal homogéneo

x′ (t) = A(t)x(t), (4.3)

lo es.
Demostración. Supongamos que el sistema (4.2) es estable, la estabilidad asintó-
tica se prueba de modo análogo.
Sea x(t, t0 , x0 ) una solución fija y x(t) cualquier solución de (4.2) y definamos y(t) =
x(t) − x(t, t0 , x0 ), la cual es solución de (4.3). Como x(t, t0 , x0 ) es estable, se tiene que:
dado ε > 0, existe δ = δ(t0 , ε) tal que: si |x(t0 )−x0 | < δ, entonces |x(t)−x(t, t0 , x0 )| < ε,
para todo t ≥ t0 . Lo cual implica que: |y(t)| < ε para t ≥ t0 , si |y(t0 )| < δ.
La afirmación recı́proca es obvia.

El teorema 4.2 es muy importante por cuanto nos dice que para el estudio de la
estabilidad de sistemas lineales no-homogéneos, basta con estudiar la estabilidad de la
solución trivial del sistema lineal homogéneo asociado.
60 Capı́tulo 4. Teorı́a de la Estabilidad

Teorema 4.3 El sistema (4.3) es estable si y sólo si todas sus soluciones son aco-
tadas.
Demostración. Supongamos que la solución trivial de (4.3) es estable. Entonces

|xi (t, t0 , δei /2)| ≤ ε , ∀ t ≥ t0 e i = 1 · · · n ,

donde e1 · · · en es la base canónica de IRn y δ es el número dado en la definición de


estabilidad. Luego, si Φ(t) denota a la matriz fundamental del sistema (4.3) cuyas
columnas son las soluciones xi (t, t0 , δei /2), entonces Φ(t) está acotada, lo cual a su vez
implica la acotación de las soluciones del sistema (4.3).
La recı́proca se sigue del hecho que |Φ(t)| ≤ M , ∀ t ≥ t0 y que x(t, t0 , x0 ) =
Φ(t)Φ−1 (t0 )x0 .

Notemos que el teorema 4.3 no es válido para sistemas no lineales. En efecto,


consideremos la ecuación x′ (t) = sin2 x, con x(0) = x0 . Sus soluciones vienen dadas por

 arcctg(ctgx0 − t) , si x0 6= kπ (k ∈ Z)
x(t) =

kπ , si x0 = kπ
cuyo gráfico es
x
π
x0

t
−x0

−π

Figura 4.3
Del gráfico se observa que las soluciones están acotadas y sin embargo la solución
trivial no es estable.

Teorema 4.4 La solución trivial de (4.3) es asintóticamente estable si y sólo si


lim |x(t, t0 , x0 )| = 0, para todo x0 ∈ IRn .
t→+∞
Demostración. Supongamos que la solución trivial de (4.3) es asintóticamente
estable. Entonces, existe ρ > 0 tal que para |x0 | < ρ se satisface que lim |x(t, t0 , x0 )| =
t→∞
0. Para concluir que lim |x(t, t0 , x0 )| = 0 para datos iniciales con norma ≥ ρ, es
t→+∞
suficiente definir
x(t, t0 , x0 ) ρ
ϕ(t) = ,
|x0 | 2
§ 4.3. Sistemas Lineales a Coeficientes Constantes 61

y observar que |ϕ(t0 )| = ρ/2.


Probemos la afirmación recı́proca. Para ello es suficiente ver que las soluciones de
(4.3) son acotadas. Lo cual se sigue del hecho que lim |x(t, t0 , x0 )| = 0, para todo
t→+∞
x0 ∈ IRn .

Observación 4.2 El conjunto Ω = {x0 ∈ IRn : lim |x(t, t0 , x0 )| = 0} se llama


t→∞
región de atracción de la solución trivial de (4.3). El teorema anterior nos dice que para
sistemas lineales homogenéneos Ω es todo IRn , si el sistema es asintóticamente estable.
En este caso se dice que la solución trivial es asintóticamente estable en grande.

Ejemplo 4.1 El teorema 4.4 no es válido para sistemas no lineales, tal como vere-
mos a continuación. Este ejemplo nos fue comunicado por el Lic. Rodolfo Rodrı́guez.
Consideremos el sistema
 ′ x 2 3 2 2 2
 x = − t + [2t − y t (t − 1) − 1]y t exp(y t (1 − t))
(4.4)
 ′ y
y = −t

con x(1) = x0 , y(1) = y0 .


Se puede verificar que
  x0
 2 2 
x(t) t + (t − 1)y0 exp y0 (1 − t)
z(t) =  = 
y(t) y 0
t
es la solución de (4.4) y además lim |z(t)| = 0. Sin embargo para 0 < δ < 1/e, N
t→∞
 
suficientemente grande y z0 = z(t0 ) = N 1 , √1 T , se verifica que |z | < δ y eligiendo
N 0
t∗ = 1 + N, se tiene
1 1 1
|z(t∗ , 1, z0 )| ≥ |x(t∗ )| = + > .
N (N + 1) e e

Por lo tanto la solución trivial de (4.4) es inestable.

§ 4.3 Sistemas Lineales a Coeficientes Constantes

Consideremos el siguiente sistema lineal a coeficientes constantes

x′ (t) = Ax(t). (4.5)

Teorema 4.5 El sistema (4.5) es uniforme asintóticamente estable si y solo si


todos los autovalores de la matriz A tienen parte real negativa.
62 Capı́tulo 4. Teorı́a de la Estabilidad

Demostración. Las soluciones de (4.5) son de la forma :

ϕi (t) = (p1 (t) exp(λi t), . . . , pn (t) exp(λi t)), (4.6)

con pi (t) polinomio de grado (r − 1), λi ∈ σ(A) es de multiplicidad r. Luego, como


Φ(t) = exp(At) es la matriz fundamental principal y está formada por vectores columnas
del tipo (4.6), se tiene que existen constantes positivas M y α tales que

|Φ(t)| ≤ M exp(−αt), t ≥ 0. (4.7)

Luego, dado ε > 0, tomando δ = ε/M, se tiene que si : |x0 | < δ, entonces |x(t, x0 )| ≤
|Φ(t)| · |x0 | < ε, para todo t ≥ 0.
Además de (4.7) se deduce que |x(t, x0 )| → 0, cuando t → +∞.

Observación 4.3 Si al menos un autovalor λ ∈ σ(A) posee parte real menor o igual
a cero, la estabilidad a secas dependerá de la dimensión de los bloques elementales de
Jordan generado por λ. Si para algún λ ∈ σ(A), Reλ > 0, entonces se puede asegurar
la inestabilidad del sistema (4.5).
§ 4.4. Criterio de Estabilidad de Routh-Hurwitz 63

§ 4.4 Criterio de Estabilidad de Routh-Hurwitz

Diremos que
Pn (z) = z n + a1 z n−1 + · · · + an−1 z + an , (4.8)
con ai ∈ IR, es un polinomio de Hurwitz si todas sus raı́ces tienen parte real negativa.

Lema 4.6 Si Pn (z) es un polinomio de Hurwitz, entonces ai > 0, ∀ i = 1, . . . , n.


Demostración. Sean z1 , . . . , zp las raı́ces reales de Pn (z) y α1 , . . . , αp sus corres-
pondientes multiplicidades. Denotemos con zp+1 , . . . , zp+q las raı́ces complejas de Pn (z)
y β1 , . . . , βq sus respectivas multiplicidades. Por hipótesis

IRezk < 0, k = 1, 2, . . . , p + q.

Sabemos que

Pn (z) = Πpk=1 (z − zk )αk Πqk=1 (z − zp+k )βk (z − z p+k )βk .

Pongamos zk = −bk , con bk > 0 , k = 1, . . . , p y zj+p = −bj+p + icj , con bj+p > 0 , j =
1, . . . , q. Ası́

Pn (z) = Πpk=1 (z + bk )αk Πqj=1 (z 2 + 2bj+p z + b2j+p + c2j )βj ;

lo cual implica que todos los coeficientes de Pn (z) son mayores que cero.

Corolario 4.7 En el caso n ≤ 2 la condición anterior es suficiente; es decir, todo


polinomio de segundo grado es de Hurwitz si y sólo si ai > 0, i = 1, 2.
Denotemos por Hn al conjunto de todos los polinomios de Hurwitz de grado n.

Definición 4.5 Diremos que F (z) es un polinomio asociado a Pn (z) si existe α > 0
tal que F (z) = (1 + αz)Pn (z) + Pn (−z).

Lema 4.8 Sea Pn (z) ∈ Hn . Entonces su asociado F (z) ∈ Hn+1 .


Demostración. Definamos una familia de polinomios Pµ (z) como sigue

Pµ (z) = (1 + αz)Pn (z) + µPn (−z); µ ∈ [0, 1].

Demostremos que Pµ (z) ∈ Hn+1 , para todo µ ∈ [0, 1].


Observemos que: si µ = 0, entonces P0 (z) = (1+αz)Pn (z) ∈ Hn+1 . En efecto, como
α > 0, entonces todas las raı́ces de P0 (z) tiene parte real menor que cero.
Por otra parte, como las raı́ces de cualquier polinomio dependen continuamente de
sus coeficientes, tenemos que los ceros de Pµ (z) como funciones de µ, son continuas; es
decir, zj : [0, 1] → C , j = 1, . . . , n + 1 son funciones continuas.
64 Capı́tulo 4. Teorı́a de la Estabilidad

Supongamos que existe un µ̃ ∈ (0, 1] y un ı́ndice 1 ≤ j ≤ n tal que Re zj (µ̃) = 0.


Denotando con zj (µ̃) = iβ (β 6= 0), tenemos que Pµ̃ (zj ) = 0 y Pµ̃ (z j ) = 0. Ası́

(1 + iβα)Pn (iβ) = −µ̃Pn (−iβ) , (1 − iβα)Pn (−iβ) = −µ̃Pn (iβ).

Esto implica que


Pn (iβ)(1 + α2 β 2 − µ̃2 ) = 0.
Como µ̃2 ≤ 1, entonces 1 + α2 β 2 − µ̃2 > 0, por tanto Pn (iβ) = 0; es decir, iβ es raiz de
P. Contradicción. Luego, no existe µ̃ ∈ (0, 1] tal que Re[zj (µ̃)] = 0 y ası́ necesariamente
IRe[zj (µ)] < 0, ∀µ ∈ (0, 1] y j = 1, . . . , n + 1. Tomando µ = 1 se obtiene lo deseado.

Lema 4.9 Si F (z) ∈ Hn+1 , entonces existe α > 0 y Pn ∈ Hn tal que F es el


asociado de Pn .
Demostración. Sea

F (z) = z n+1 + A1 z n + · · · + An z + An+1 .

Mostremos que existe un α > 0 y un polinomio

Pn (z) = z n + a1 z n−1 + · · · + an−1 z + an ,

tal que
F (z) = (1 + αz)Pn (z) + Pn (−z). (4.9)
Si se verifica (4.9), entonces se tiene que

F (−z) = (1 − αz)Pn (−z) + Pn (z). (4.10)

Excluyendo Pn (−z) de (4.9) y (4.10), obtenemos

α2 z 2 Pn (z) = (αz − 1)F (z) + F (−z). (4.11)

Sustituyendo F (z) en (4.11), se tiene que

α2 z 2 Pn (z) = αz n+2 + (αA1 − 1 + (−1)n+1 )z n+1 + (αA2 − A1 + (−1)n A1 )z n


+ · · · + αAn z 2 + (αAn+1 − 2An )z.

Lo cual implica que eligiendo α = 2An /An+1 , los coeficientes del polinomio Pn (z) se
determinan unı́vocamente.
Definamos
vµ (z) = (αz − 1)F (z) + µF (−z), µ ∈ [0, 1);
y veamos que
§ 4.4. Criterio de Estabilidad de Routh-Hurwitz 65

a) vµ (z) tiene una raı́z real positiva y (n + 1) raı́ces con parte real negativa, ∀µ ∈
[0, 1);

b) lim vµ (z) posee n raı́ces con parte real negativa y dos con parte real nula.
µ→1

Probemos a). Si µ = 0, entonces v0 (z) = (αz − 1)F (z). Ası́, v0 (z) = 0 si y sólo si
z = 1/α ó F (z) = 0. Por lo tanto, v0 cumple con a).
Probemos que esta disposición de las raı́ces de v0 (z) se mantiene con respecto a
los polinomios vµ (z), ∀µ ∈ [0, 1). En efecto, supongamos que existen µ̃ ∈ (0, 1) y un
1 ≤ j ≤ n + 2 tales que zj (µ̃) = iβ es raiz del polinomio vµ̃ (z). Entonces

vµ̃ (iβ) = vµ̃ (−iβ) = 0.

Ası́
(αβi − 1)F (iβ) + µ̃F (−iβ) = 0,
y
−(αβi + 1)F (−iβ) + µ̃F (iβ) = 0.
De donde se sigue que

−(1 + αβi)(1 − αβi)F (iβ) + µ̃2 F (iβ) = 0,

o bien
F (iβ)[µ̃2 − 1 − α2 β 2 ] = 0.
Esto implica que F (iβ) = 0 ya que µ̃2 < 1. Contradicción, pues F ∈ Hn+1 . Con
esto queda probado a).
Sustituyendo F (z) y α = 2An /An+1 en vµ (z), obtenemos
 
2An n+2 2An
vµ (z) = z +···+ − An−1 + µAn−1 z 2 + (An − µAn )z + An+1 (µ − 1).
An+1 An+1
Notemos que
v1 (z) = (αz − 1)F (z) + F (−z),
por lo cual v1 (z), de acuerdo a (4.11), lo podemos escribir como
2An
v1 (z) = α2 z 2 Pn (z); con α = .
An+1
Luego, v1 (z) posee dos raı́ces nulas ya que el término libre de Pn (z) es distinto de cero.
Ahora, teniendo en cuenta la disposición de las raı́ces de vµ para v ∈ [0, 1) y la
relación existente entre las raı́ces y los coeficientes de un polinomio, obtenemos que
n+2
X 1 An (1 − µ) An
=− = , ∀µ ∈ [0, 1).
zj (µ) An+1 (µ − 1) An+1
j=1
66 Capı́tulo 4. Teorı́a de la Estabilidad

De donde sigue
n+2
X 1 An
IRe = , ∀µ ∈ [0, 1).
zj (µ) An+1
j=1

Esta última igualdad muestra que las raı́ces que tienden a cero cuando µ → 1− , son
la positiva y una con parte real negativa; ya que si fuesen dos raı́ces con parte real
negativa las que tienden a cero, tendrı́amos que
n+2
X 1
lim IRe = −∞,
µ→1− zj (µ)
j=1

lo cual no puede ser.

Consideremos el polinomio Pn (z) y supongamos que los ai > 0, ∀ i = 1, 2, . . . , n.


Formemos la matriz  
a1 1 0 0 · 0
 a3 a2 a1 1 · 0 
 
 a5 a4 a3 a2 · 0 
Hn = 
 ·
.
 · · · · ·  
 · · · · · · 
0 0 0 0 0 an
y sean
a1 1
∆1 = a1 , ∆2 = , . . . , ∆n = an ∆n−1 .
a3 a2

Teorema 4.10 (Criterio de Routh-Hurwitz) Las raı́ces de Pn (z) poseen parte


real negativa si y sólo si ∆i > 0, i = 1, . . . , n.
Demostración. (Necesidad) Asumamos que Pn ∈ Hn . Realicemos la prueba por
inducción. Sea P1 (z) = z + a1 . Ası́ z = −a1 < 0 y ∆1 = a1 > 0. Consideremos
P2 (z) = z 2 + a1 z + a2 . Luego por el corolario 4.7 , ∆1 y ∆2 son positivas.
Supongamos que para todo Pn ∈ Hn , se verifica que ∆j > 0, j = 1, . . . , n. Sea
F ∈ Hn+1 . De acuerdo con el lema 4.9, existe α > 0 y Pn ∈ Hn tal que

F (z) = (1 + αz)Pn (z) + Pn (−z).

Por comodidad pongamos α = 2c, donde c > 0. Entonces

F (z) = 2cz n+1 + (1 + (−1)n + 2ca1 )z n + (a1 + (−1)n−1 a1 + 2ca2 )z n−1 (4.12)
2 2
+ · · · + (an−2 + (−1) an−2 + 2can−1 )z + (an−1 + (−1)an−1 + 2can )z + 2an .

Supongamos por ejemplo que n es par, el caso n-impar se analiza en forma similar.
De (4.12) obtenemos que :

F (z) = 2cz n+1 + (2 + 2ca1 )z n + 2ca2 z n−1 + · · · + (2an−2 + 2can−1 )z 2 + 2can z + 2an ;
§ 4.4. Criterio de Estabilidad de Routh-Hurwitz 67

de donde sigue :
 
2 + 2ca1 2c 0 · 0
 2a2 + 2ca3 2ca2 2 + 2ca1 · · 
 
 2a4 + 2ca5 2ca4 2a2 + 2ca3 · · 
HF = 

.

 · · · · · 
 · · · · · 
0 0 0 · 2an

Multiplicando la segunda columna por −1/c y sumándola a la primera; la cuarta la


multiplicamos por −1/c y la sumamos a la tercera; y ası́ sucesivamente hasta arribar a
la n-ésima columna, obtenemos
 
2ca1 2c 0 · 0
 2ca3 2ca2 2ca1 · · 
 
 2ca5 2ca4 2ca3 · · 
HF =  ·
.
 · · · · 
 · · · · · 
0 0 0 · 2an

De donde se sigue que:


˜ 1 = 2ca1 = 2c∆1 ,



2 a1 1
˜
∆2 = (2c) = (2c)2 ∆2 ,
a3 a2
..
.
˜
∆n = (2c)n ∆n ,
˜ n+1 = 2an ∆
∆ ˜ n.

˜ j > 0, ∀ j = 1, . . . , n + 1.
Teniendo en cuenta que ∆j > 0, ∀ j = 1, . . . , n, se sigue que ∆
(Suficiencia) Sea Pn (z) un polinomio dado, con aj > 0, ∀ j = 1, . . . , n y ∆j > 0, ∀ j =
1, . . . , n. La prueba la realizaremos por inducción.
Sea P1 (z) = z + a1 . Como ∆1 = a1 > 0, entonces z1 = −a1 < 0.
Para n = 2 nuestra afirmación sigue del corolario 4.7.
Sea F (z) un polinomio de grado (n + 1) con coeficientes positivos tal que ∆ ˜j >
0, ∀ j = 1, . . . , n + 1.
Por hipótesis todo polinomio de grado n con coeficientes positivos que verifique la
condición de Hurwitz, es un polinomio de Hurwitz.
Realizando un cálculo análogo al que hicimos en la prueba de la necesidad, obte-
nemos que ∆ ˜ j = (2c)j ∆j , ∀ j = 1, . . . , n.
Sabemos que dado F (z), el polinomio Pn (z) se elige de la siguiente igualdad

α2 z 2 Pn (z) = (αz − 1)F (z) + F (−z).


68 Capı́tulo 4. Teorı́a de la Estabilidad

Puesto que ∆ ˜ j > 0, ∀ j = 1, . . . , n + 1, tendremos que ∆j > 0(j = 1, . . . , n). Ası́, por
la hipótesis inductiva Pn (z) es un polinomio de Hurwitz y por el lema 4.8 concluimos
que F ∈ Hn+1 .

§ 4.5 Sistemas Lineales Semi-Autónomos

En esta sección estudiaremos bajo que condiciones se puede establecer la estabilidad


de sistemas del tipo
x′ = (A + C(t))x(t), (4.13)
con A ∈ IRn×n y C ∈ C((t0 , ∞), IRn×n ).

Teorema 4.11 Si la matriz A tiene todos sus autovalores con parte real negativa y
Z ∞
|C(t)|dt < ∞, (4.14)
0
entonces la solución trivial de (4.13) es asintóticamente estable.
Demostración. De (4.13) se obtiene que
Z t
At
x(t) = e x0 + eA(t−s) C(s)x(s)ds .
0
Como todos los autovalores de la matriz A tienen parte real negativa, existen constantes
positivas K > 0 y α > 0 tales que
|eAt | ≤ K exp(−αt) , ∀ t ≥ 0.
Combinando estas dos últimas relaciones se tiene
Z t
|x(t)| exp(αt) ≤ K|x0 | + K|C(s)||x(s)| exp(αs)ds.
0
Usando el lema de Gronwall y (4.14) se obtiene que
Z t 
|x(t)| exp(αt) ≤ K|x0 | exp K|C(s)|ds = M < ∞.
0

Lo cual prueba nuestra afirmación

De la demostración del teorema anterior se obtiene fácilmente el siguiente:

Corolario 4.12 1. Si |C(t)| ≤ δ, ∀ t ≥ 0, con δ > 0 suficientemente pequeño


y los autovalores de la matriz A tienen parte real negativa, entonces la solución
trivial del sistema (4.13) es asintóticamente estable.
2. Si las soluciones de x′ = Ax están acotadas sobre [0, ∞) y se satisface (4.14),
entonces las soluciones de (4.13) también están acotadas sobre [0, ∞).
§ 4.6. Sistemas no Lineales 69

§ 4.6 Sistemas no Lineales

Consideremos el sistema no lineal

x′ = A(t)x + f (t, x) , f (t, 0) = 0. (4.15)

Definición 4.6 La solución trivial de (4.15) es exponencialmente estable, si existen


constantes K ≥ 1 y α > 0 tales que toda solución x(t), con x(t0 ) = x0 , satisface que

|x(t)| ≤ K|x0 |e−α(t−t0 ) , t ≥ t0 .

Proposición 4.13 Sea Φ(t) la matriz fundamental del sistema (4.3) y K(t, s) =
Φ(t)Φ−1 (s) la matriz de transición. Entonces todas las soluciones de (4.3) son uni-
formemente estable si y sólo si existe una constante M > 0, tal que

|K(t, s)| ≤ M , ∀ t, s : 0 ≤ s ≤ t < ∞. (4.16)

La demostración es una consecuencia inmediata del hecho que x(t, t0 , x0 ) = K(t, t0 )x0 .

Teorema 4.14 La solución trivial de (4.3) es exponencialmente estable si y sólo si


es uniforme asintóticamente estable.
Demostración. Claramente exponencialmente estable implica uniforme asintóti-
camente estable.
Demostremos el recı́proco. Sabemos que existe δ > 0, tal que |x(t0 )| < δ implica
que lim |x(t)| = 0. Luego, dado ε > 0, existe T > 0 tal que: si t ≥ t0 + T, entonces
t→∞
|x(t)| < ε. Tomemos ε > 0 de modo que ε = δ/2 y sea n ∈ N tal que nδ > 1.
Definamos ahora
 
x(t) 1
ψ(t) = δ− , t ≥ t0 + T , x(t0 ) = x0 .
|x0 | n

1 < δ y por tanto |ψ(t)| < δ , si t ≥ t + T.


Entonces |ψ(t0 )| = δ − n 2 0
Entonces  
δ 1 −1
|x(t)| < |x0 | δ− , si t ≥ t0 + T.
2 n
Como la estabilidad es uniforme, T no depende de n ∈ N. Luego, haciendo que n → ∞,
se obtiene que :
1
|x(t)| < |x0 |, si t ≥ t0 + T.
2
r
Mostremos que |x(t)| ≤ |x0 |/2 , si t ≥ t0 + rT, y r ∈ N. En efecto, por la unicidad de
las soluciones se tiene que:

x(t) = x(t, t0 , x0 ) = x(t, t0 + T, x(t0 + T )) , si t ≥ t0 + T. (4.17)


70 Capı́tulo 4. Teorı́a de la Estabilidad

Entonces
1 1
|x(t)| < |x(t0 + T )| ≤ 2 |x0 | , si t ≥ t0 + 2T.
2 2
El resto sigue por inducción.
Teniendo en cuenta que 2−r = exp(−r ln 2), obtenemos |x(t)| ≤ exp(−r ln 2)|x0 |, si
t ≥ t0 + rT, r ∈ N.
Sea t ≥ t0 arbitrario. Entonces existe un r ∈ N tal que t0 + rT ≤ t < t0 + (r + 1)T.
De donde se sigue que (t − t0 − T )/T ≤ r lo cual a su vez implica que exp(−r ln 2) ≤
exp[− ln 2(t − t0 − T )/T ], y por tanto
 
t − t0
|x(t)| ≤ |x0 | exp(ln 2) exp − ln 2 , si t ≥ t0 + T. (4.18)
T

Supongamos ahora que t ∈ [t0 , t0 + T ]. Como la solución trivial de (4.3) es uniforme-


mente estable, existe una constante M > 0 tal que

|x(t)| ≤ M |x0 | , si t ≥ t0 .

Como t ∈ [t0 , t0 + T ], entonces (t − t0 )/T ≤ 1; y por tanto


 
t − t0 1
exp − ln 2 ≥ exp(− ln 2) = .
T 2
 
Luego, si t ∈ [t0 , t0 + T ], se tiene que 1 ≤ 2 exp − ln 2 t −
T
t0 y por ende

 
t − t0
|x(t)| ≤ M |x0 | ≤ 2M |x0 | exp − ln 2 . (4.19)
T

Combinando (4.18) y (4.19), obtenemos que existen constantes K ≥ 1 y α > 0, tales


que |x(t)| ≤ K|x0 | exp(−α(t − t0 )), ∀ t ≥ t0 . Donde α = ln 2/T , K = max{2, 2M }.

Teorema 4.15 (a) Si las soluciones de (4.3) son uniformemente estable y existe
una función continua e integrable m : [t0 , +∞) → IR+ tal que

|f (t, x)| ≤ m(t)|x|, ∀(t, x) ∈ J × D, (4.20)

entonces la solución trivial de (4.15) es uniformemente estable.

(b) Si las soluciones de (4.3) son uniforme asintóticamente


R t+1 estable, entonces bajo la
condición (4.20) siendo m una función continua y t m(s)ds ≤ C, ∀t ≥ t0 , la
solución trivial de (4.15) es uniforme asintóticamente estable.
§ 4.6. Sistemas no Lineales 71

Demostración. Probemos (a). Sea x(t) la única solución de (4.15) tal que x(t0 ) =
x0 . Supongamos que [t0 , β) es el intervalo maximal de existencia de x(t). Haciendo
variación de parámetros, de (4.15) obtenemos que:
Z t
x(t) = K(t, t0 )x0 + K(t, s)f (s, x(s))ds, t ∈ [t0 , β); (4.21)
t0

Teniendo en cuenta que la solución trivial de (4.3) es uniforme estable, existe una
constante M > 0 tal que :
|K(t, t0 )| ≤ M. (4.22)
Luego, de (4.21) y (4.22) se sigue:
Z t
|x(t)| ≤ M |x0 | + M |f (s, x(s))|ds, t ∈ [t0 , β). (4.23)
t0

Combinando (4.20) y (4.23), obtenemos


Z t
|x(t)| ≤ M |x0 | + M m(s)|x(s)|ds, t ∈ [t0 , β). (4.24)
t0

Aplicando la desigualdad de Gronwall a (4.24), se tiene que:


Rt R∞
M m(s)ds M m(s)ds
|x(t)| ≤ M |x0 |e t0 ≤ M |x0 |e t0 , ∀t ∈ [t0 , β).

Esto prueba que las soluciones del sistema (4.15) son prolongables a infinito y uniforme-
mente estable.
La prueba de (b) es análoga a la de (a), sólo se debe tener en cuenta que: si
R t+1
+
m : [t0 , ∞) → IR es una función continua y t m(s)ds ≤ C, ∀t ≥ t0 , entonces
Z t
C
exp(−α(t − s))m(s)ds ≤ , ∀ t ≥ 0 , α > 0.
t0 1 − exp(−α)
En efecto, del teorema del valor medio para integrales se sigue que:
Z t−k Z t−k
−α(t−s) −αk
e m(s)ds = e m(s)ds
t−k−1 ξ
Z t−k
≤ e−αk m(s)ds ≤ e−αm C
t−k−1

donde ξ ∈ [t − k − 1, t − k]. Lo cual implica que:


Z t X∞
−α(t−s) C
e m(s)ds ≤ e−αk C = .
t0 1 − e−α
k=0
72 Capı́tulo 4. Teorı́a de la Estabilidad

§ 4.7 Comentarios y Sugerencias

En este capı́tulo nos hemos restringido a caracterizar los conceptos mas usuales de
la teorı́a de la estabilidad. Es muy grande la cantidad de definiciones que se han dado
con el fin de obtener los mejores resultados posibles en esta dirección. Una discusión
detallada, acompañada de una extensa bibliografı́a se encuentra en [20], [26].
Un problema muy interesante, que tampoco hemos tocado, es el concerniente a
la caracterización de las perturbaciones que preservan las propiedades del sistema sin
perturbar. Más concretamente, sean

x′ = A(t)x, (4.25)

y ′ = A(t)x + f (t). (4.26)


Si las soluciones de (4.25) están acotadas o uniformemente acotadas en el infinito, etc.
¿A qué clase deben pertenecer A y f, para que (4.26) tenga la misma propiedad ?.
A este respecto se puede consultar, por ejemplo el libro de Coppel [3].
§ 4.8. Ejercicios y Problemas 73

§ 4.8 Ejercicios y Problemas

1. Muestre que las solución trivial de la ecuación x′ = 0 es estable, pero no es


asintóticamente estable.

2. Muestre que la solución trivial de las ecuaciones x′ = x2 y x′ = −x2 no es estable.

3. Estudie la estabilidad de la solución trivial de la ecuación x′′ + x = 0.

4. Considere la ecuación y ′ (t) + y(t) = f (t, y(t)), donde f : [0, ∞) × IR → IR viene


definida como f (0, 0) = 0, f (t, y) = ty/(t2 + y 2 ). Estudie la estabilidad asintótica
de la solución trivial y = 0.

5. Considere la ecuación y ′ = A(t)y, donde la matriz A(t) viene dada por


 
−a 0
A= .
0 sin(ln t) + cos(ln t) − 2a

Pruebe que la solución trivial y ≡ 0 es asintóticamente estable, si a > 12 .

6. La estabilidad para sistemas lineales a coeficientes variables y ′ = A(t)y, no se


puede caracterizar en términos de los autovalores de la matriz A(t).
Ayuda: ver Hale [11],p.121, ó Coppel [3],p.3.

7. Describa en el plano de los parámetros (a, b) el diagrama de estabilidad y esta-


bilidad asintótica de las soluciones de la siguiente ecuación diferencial

y ′′′ + ay ′′ + by ′ + 6y + 4 − a = 0 .

Ayuda: Use el criterio de Routh-Hurwitz.

8. Estudie la estabilidad asintótica de la solución trivial del sistema

y ′′ + ay ′ + b sin y = 0, a ≥ 0 , b > 0.

9. Haga los ejercicios 3,4,5,6,7,15,16,29 y 41 del Capı́tulo 3 del libro de Coddington


y Levinson [4].
74 Capı́tulo 4. Teorı́a de la Estabilidad
Capı́tulo 5

Segundo Método de Liapunov

En todos los resultados que hemos obtenido sobre estabilidad hemos supuesto que
tenemos una expresión explı́cita para las soluciones de la ecuación diferencial en estudio
en función de la matriz fundamental y que se conoce el comportamiento en norma de
ésta. En general ésto no tiene porqué ser ası́. Por tal razón en lo que sigue nos
ocuparemos de estudiar la estabilidad de sistemas del tipo y ′ = f (t, y) donde no se
supone a priori que se tengan expresiones explı́citas para las soluciones del sistema en
cuestión.
El método que emplearemos para tal estudio posee la desventaja, que precisa de la
construcción de ciertas funciones para las cuales no existen métodos analı́ticos para su
construcción y todo depende de la habilidad del usuario, aunque en muchos casos el
problema en consideración sugiere la forma del funcional que desea.

§ 5.1 Preliminares

Sea V ∈ C[J × D, IR] y W ∈ C[D, IR]. Consideremos D ⊂ IRn un conjunto abierto


y conexo, tal que 0 ∈ D. Denotemos por IR+
0 = {z ∈ IR : z ≥ 0}.

Definición 5.1 (a) Se dice que W es una función no negativa (no positiva), si
W (x) ≥ 0 (W (x) ≤ 0), para todo x ∈ D.

(b) Diremos que W es definida positiva (definida negativa), si W (x) > 0 (W (x) < 0)
para todo x 6= 0 y W (0) = 0.

(c) Diremos que V es positiva (negativa), si V (t, x) ≥ 0 (V (t, x) ≤ 0) para todo


(t, x) ∈ J × D.

(d) Se dice que V es definida positiva (definida negativa), si existe una función W
definida positiva tal que V (t, x) ≥ W (x) (V (t, x) ≤ −W (x)) para todo (t, x) ∈
J × D y V (t, 0) = W (0) = 0.

Notemos que la definición (d), geométricamente significa que las superficies de nivel
V (t, x) = C, para cada t ∈ J, están contenidas en las superficies de nivel W (x) = C,
(ver figura 5.1).

75
76 Capı́tulo 5. Segundo Método de Liapunov

x2

x1

Figura 5.1
En el estudio de la estabilidad es muy importante que las superficies de nivel de
la función W (x) sean cerradas geométricamente. Más precisamente, diremos que la
superficie de nivel es cerrada geométricamente respecto del punto x = 0, si para toda
curva continua que una a x = 0 con un punto de la frontera de D, existe un x0 en la
curva tal que W (x0 ) = C. El lema siguiente nos da una caracterización de este concepto.

Lema 5.1 Si W ∈ C[D, IR+ 0 ] es una función definida positiva, entonces existe
una constante h > 0 tal que todas las superficies de nivel W (x) = C son cerradas
geométricamente respecto de x = 0, para todo C ∈ (0, h).
Demostración. Sea BR = {x ∈ IRn : |x| < R}. Elijamos un R > 0 de modo que
BR ⊂ D. Pongamos α = min{W (x) : x ∈ ∂BR }. Por la continuidad y el hecho que W
es definida positiva se sigue que α > 0. Si α = 0, entonces existe un x̃ ∈ ∂BR tal que
W (x̃) = 0, x̃ 6= 0. Contradicción.
Sea ϕ : [t0 , t1 ] → IRn una curva continua tal que ϕ(t0 ) = 0 y ϕ(t1 ) = P ∈ ∂BR . De
ésto sigue que W (P ) ≥ α. Sea 0 < C < α. Consideremos la función ψ(t) = W (ϕ(t)),
la cual es continua para todo t ∈ [t0 , t1 ] y ψ(t0 ) = 0, ψ(t1 ) = W (P ) ≥ α. Ası́ sigue la
existencia de un t∗ ∈ (t0 , t1 ) tal que ψ(t∗ ) = C, o bien W (P ∗ ) = C, con P ∗ = ϕ(t∗ ).
Eligiendo h = α, obtenemos el resultado deseado.

De la prueba del lema 5.1 se desprende que la parte cerrada de la superficie de nivel
W (x) = C, está totalmente contenida en la bola BR . Sin embargo, no queda excluı́da
la posibilidad que otras partes de la superficie W (x) = C estén ubicadas fuera de BR .
En efecto, consideramos la función

x21 x22
W (x) = + .
(1 + x21 )2 (1 + x22 )2

Es fácil ver que una parte de W (x) = C, se dispone cerca del origen (0, 0) y otra en
regiones alejadas del origen; ya que
x1 x2
lim 2 = 0, lim =0
x1 →∞ 1 + x x2 →∞ 1 + x2
1 2
§ 5.1. Preliminares 77

Otra observación tiene relación con el hecho de que si W (x) es definida positiva, en-
tonces no necesariamente todas sus superficies de nivel son cerradas. Para ello es sufi-
x2 x2
ciente considerar W (x) = 1+x1 2 + x22 . Las curvas de nivel 1+x1 2 + x22 = C son acotadas
1 1
y cerradas si C < 1 y no cerradas para C ≥ 1, (ver figura 5.2).

x2

x1

Figura 5.2

A continuación trataremos de caracterizar a las funciones definidas positivas de una


manera más cómoda. Es claro que, si existe una función a : IR+ +
0 → IR0 continua,
monótona creciente, a(0) = 0, tal que V (t, x) ≥ a(|x|), ∀(t, x) ∈ J × D; entonces V
es definida positiva. Para ello es suficiente tomar W (x) = a(|x|). Desgraciadamente la
x2
recı́proca no es cierta. Para ello elijamos W (x) = 1+x 4 . Es fácil ver que no existe una
función “a” con las propiedades antes descritas tal que W (x) ≥ a(|x|), x ∈ IR. (Figura
5.3).

W (x)

−1 1 x

Figura 5.3

Sin embargo, localmente, ésto es posible.

Lema 5.2 Supongamos que V ∈ C[J × D, IR+ 0 ] es definida positiva. Entonces para
toda bola B R ⊂ D, existe una función continua a : [0, R0 ] → IR+0 monótona creciente,
a(0) = 0 tal que
V (t, x) ≥ a(|x|), ∀(t, x) ∈ J × B R .
Demostración. Como V (t, x) es definida positiva, existe una función W definida
positiva tal que
V (t, x) ≥ W (x), ∀(t, x) ∈ J × B R .
78 Capı́tulo 5. Segundo Método de Liapunov

Sea R > 0, tal que B R ⊂ D. Definamos una función C : [0, R] → IR+


0 como sigue :
Para cada r ∈ [0, R] ponemos

C(r) = inf W (x).


r≤|x|≤R

Esta función está bien definida, ya que W está acotada inferiormente. Además es
fácil verificar que :

(a) C(0) = 0;

(b) ∀r1 < r2 , C(r1 ) ≤ C(r2 ),

(c) C(r) > 0, ∀r ∈ (0, R).

Para concluir la prueba es suficiente observar que dada una función C con las
propiedades (a)-(c), siempre existe una función a ∈ C[[0, R], IR+
0 ], monótona creciente,
a(0) = 0, tal que a(r) ≤ C(r), ∀r ∈ [0, R], (ver [9,p. 217]).

Sea V ∈ C 1 [J × D, IR+
0 ] y sea x una solución del sistema

x′ (t) = f (t, x), f (t, 0) = 0, ∀t > τ. (5.1)

Escribiendo
U (t) = V (t, x(t)),

por la regla de la cadena obtenemos

∂V ∂V
U ′ (t) = + < ∇V, x′ >= + < ∇V, f > .
∂t ∂t

Por lo cual, para toda función V ∈ C 1 [J × D, IR+0 ] se puede definir V̇(1) : J × D → IR,
como sigue :
∂V
V̇ (t, x) = (t, x)+ < ∇V, f > .
∂t
Si x(·) es solución de (5.1), entonces U ′ (t) = V̇(1) (t, x(t)). Por esta razón a V̇ la
llamaremos la derivada de V a lo largo de las soluciones de (5.1).
Notemos que todos los resultados que demostramos a continuación siguen siendo
válidos si V es continua solamente. En este caso V̇ la definimos como sigue :

1
V̇ (t, x) = lim [V (t + h, x + hf (t, x)) − V (t, x)].
h→0+ h
§ 5.2. Teoremas sobre Estabilidad 79

§ 5.2 Teoremas sobre Estabilidad

Teorema 5.3 (Estabilidad) Supongamos que:

(a) Existe una función V ∈ C 1 [J × D, IR+


0 ] definida positiva, y

(b) V̇ (t, x) ≤ 0, ∀(t, x) ∈ J × D.

Entonces la solución x = 0 del sistema (5.1) es estable.


Demostración. Elijamos un número R > 0, tal que BR ⊂ D, de acuerdo al Lema
5.2, existe una función continua, monótona creciente a : [0, R] → IR+
0 tal que a(0) = 0 y

V (t, x) ≥ a(|x|), ∀(t, x) ∈ J × BR . (5.2)

Como lim V (t0 , x) = 0, entonces para cada ε ∈ (0, R), existe un δ(t0 , ε) > 0 tal
|x|→0
que
V (t0 , x) < a(ε), ∀x : |x| < δ. (5.3)

Sea x(·, t0 , x0 ) : [t0 , β) → D, la solución de (5.1) con |x0 | < δ.


Teniendo en cuenta (b), se sigue que :

V̇(1) (t, x(t)) ≤ 0, ∀t ∈ [t0 , β);

con x(t) = x(t, t0 , x0 ). De donde sigue que V (t, x(t)) ≤ V (t0 , x0 ). Ahora, en virtud de
la elección de ε, de (5.2) y (5.3), obtenemos

a(|x(t)|) ≤ V (t, x(t)) ≤ V (t0 , x0 ) < a(ε), ∀t ∈ [t0 , β).

Ası́, por la monotonı́a de la función a, se sigue que :

|x(t, t0 , x0 )| < ε, ∀t ∈ [t0 , β).

Esto implica que β = +∞ y que x = 0 es estable

Teorema 5.4 (Estabilidad Asintótica) Supongamos que:

(a) Existe una función V ∈ C 1 [J × D, IR+


0 ] definida positiva, y

(b) V̇ es definida negativa sobre J × D.

Entonces x = 0 es asintóticamente estable.


80 Capı́tulo 5. Segundo Método de Liapunov

Demostración. De la hipótesis (a) y (b) y del primer teorema de Liapunov, se


sigue que x = 0 es estable. Mostremos que existe ∆ > 0, tal que lim |x(t, t0 , x0 )| = 0,
t→+∞
para |x0 | < ∆. Para concluir ésto probemos que

lim V (t, x(t, t0 , x0 )) = 0 para |x0 | < R. (5.4)


t→+∞

Supongamos que se satisface (5.4). Entonces dado ε > 0

V (t, x(t, t0 , x0 )) < a(ε), ∀t ≥ t0 + T (t0 , ε), (5.5)

|x0 | < R donde R y a son respectivamente la constante y la función que aparecen en la


prueba del primer teorema de Liapunov. Teniendo en cuenta que V es definida positiva
y (5.5), se tiene que

|x(t, t0 , x0 )| < ε, ∀t ≥ T (t0 , ε) + t0 , |x0 | < R.

Probemos (5.4). Supongamos que existe x0 ∈ BR tal que

lim V (t, x(t, t0 , x0 )) = α > 0. (5.6)


t→+∞

Notemos que este lı́mite siempre existe, ya que V a lo largo de las soluciones de (5.1)
es monótona decreciente y acotada inferiormente.
De (5.6), sigue que existe β > 0 tal que |x(t)| = |x(t, t0 , x0 )| ≥ β, para todo t ≥ t0 .
En caso contrario, existe una sucesión (tn )n∈N , t → ∞ y lim |x(tn )| = 0. Esto conduce
n→∞
a un absurdo, ya que 0 = lim V (tn , x(tn )) = lim V (t, x(t)) = α > 0. Ası́, si α > 0,
n→∞ t→∞
entonces |x(t)| ≥ β > 0, ∀t ≥ t0 .
Por otra parte, de (b) se tiene que existe una función W ∈ C[IRn , IR+
0 ] definida
positiva tal que
V̇(1) (t, x) ≤ −W (x), ∀(t, x) ∈ J × D. (5.7)
Pongamos γ = inf W (x). De (5.7), obtenemos
β≤|x|≤R

V̇ (t, x(t)) ≤ −γ, t ≥ t0 .


De donde se sigue que

V (t, x(t)) ≤ V (t0 , x0 ) − γ(t − t0 ), ∀t ≥ t0 .

Esto contradice la positividad de V para valores de t suficientemente grandes.


§ 5.2. Teoremas sobre Estabilidad 81

Teorema 5.5 (Inestabilidad) Supongamos que:

(a) Existe una función V ∈ C 1 [J × D, IR], tal que lim V (t, x) = 0, uniforme respecto
|x|→0
a t en J.

(b) V̇ es definida positiva.

(c) Existe un t0 en J tal que para cada ε, 0 < ε < R, existe un x0 ∈ Bε , tal que

V (t0 , x0 )V̇ (t0 , x0 ) > 0. (5.8)

Entonces x = 0 es inestable.
Demostración. Como V̇ es definida positiva, existe una función W ∈ C[IRn , IR+
0]
definida positiva tal que V̇ (t, x) ≥ W (x), ∀(t, x) ∈ J × D.
Además, de (a), se tiene que para todo ε > 0, existe un δ > 0, tal que :

|V (t, x)| ≤ ε, ∀(t, x) ∈ J × Bδ . (5.9)

Además de (c), se sigue que para todo δ1 , 0 < δ1 < δ, existe un x0 ∈ Bδ1 , tal que
V (t0 , x0 ) = α > 0. Pongamos ϕ(t) = x(t, t0 , x0 ). Para probar la inestabilidad de x = 0,
es suficiente mostrar que existe un t1 > t0 tal que |ϕ(t1 )| > δ. Hagámoslo por reducción
al absurdo. Supongamos que |ϕ(t)| ≤ δ, ∀t ≥ t0 .
De (a) y (b) se sigue la existencia de β > 0 tal que

0 < β ≤ |ϕ(t)| ≤ δ, ∀t ≥ t0 . (5.10)

Denotemos por γ = inf W (x).


β≤|x|≤δ
De (5.8) y la definición de γ, se sigue,

V̇ (t, ϕ(t)) ≥ γ, t ≥ t0 ;

lo cual implica que

V (t, ϕ(t)) ≥ V (t0 , x0 ) + γ(t − t0 ) = α + γ(t − t0 ), ∀t ≥ t0 .

Como α > 0 y γ > 0, se sigue que V no está acotada a lo largo de ϕ(t). Lo


cual es una contradicción ya que (t, ϕ(t)) ∈ J × Bδ , ∀t ≥ t0 y en virtud de (5.9)
|V (t, ϕ(t))| < ε, ∀t ≥ t0 .

A los teoremas (5.2),(5.3) y (5.4) se les llama comúnmente primer, segundo y tercer
teorema de Liapunov, respectivamente.
82 Capı́tulo 5. Segundo Método de Liapunov

Teorema 5.6 (Estabilidad Uniforme) Supongamos que:


(a) Existe una función V ∈ C 1 [J × D, IR] definida positiva,

(b) Existe una función monótona creciente C ∈ C[IR+ +


0 , IR0 ], C(0) = 0, tal que V (t, x) ≤
C(|x|), ∀(t, x) ∈ J × D,

(c) V̇ es negativa ∀(t, x) ∈ J × D.


Entonces x = 0 es uniformemente estable.
Demostración. Sea R > 0, tal que BR ⊂ D. Teniendo en cuenta (a) y (b) se tiene
que existe una función a ∈ C([0, R], IR+
0 ), monótona creciente, a(0) = 0, tal que

a(|x|) ≤ V (t, x) ≤ C(|x|), ∀(t, x) ∈ J × B R . (5.11)

Ahora, por las propiedades de a y C, para cada ε, 0 < ε < R, podemos elegir un
δ = δ(ε) > 0, δ < ε, tal que
C(δ) < a(ε). (5.12)
Consideremos (t0 , x0 ) ∈ J × Bδ . Sea x(·, t0 , x0 ) : [t0 , β) → D. Teniendo en cuenta
que V̇(1) es decreciente a lo largo de las soluciones de (5.1), se sigue que x(t, t0 , x0 ) ∈
BR , ∀t ≥ t0 . Por lo tanto, en virtud de (5.11) y (5.12), se sigue

a(|x(t, t0 , x0 )|) ≤ V (t, x(t, t0 , x0 )) ≤ V (t0 , x0 ) ≤ C(δ) < a(ε).

Lo cual implica que |x(t, t0 , x0 )| < ε, ∀t ∈ [t0 , β) y x0 ∈ Bδ . De donde sigue inme-


diatamente la estabilidad uniforme de x = 0.

Teorema 5.7 (Estabilidad Asintótica Uniforme) Supongamos que se verifican


las condiciones (a) y (b) del teorema 5.5, y V̇ es definida negativa ∀ (t, x) ∈ J × D.
Entonces x = 0 es uniforme asintóticamente estable.
Demostración. Según el teorema 5.6, x = 0 es uniformemente estable. Por lo
tanto, dado ε = R, existe un δ0 (R) > 0 tal que si x ∈ Bδ0 , entonces |x(t, t0 , x0 )| <
R, ∀t ≥ t0 . Mostremos que lim |x(t, t0 , x0 )| = 0, ∀x0 ∈ Bδ0 , uniforme respecto a t0 en
t→∞+
J. De la prueba del teorema 5.6 se desprende que δ0 lo podemos elegir de forma que

C(δ0 ) < a(R). (5.13)

Como
a(|x|) ≤ V (t, x) ≤ C(|x|), ∀(t, x) ∈ J × B R , (5.14)
se sigue que a(R) ≤ C(R). Por lo tanto, 0 < δ0 < R.
Sea η ∈ (0, δ0 ], arbitrario. Elijamos γ > 0, γ < η, de modo que

C(γ) < a(η). (5.15)


§ 5.2. Teoremas sobre Estabilidad 83

Pongamos α∗ = inf{W (x) : γ ≤ |x| ≤ R} donde W viene dada por (5.7). Elijamos
T (η) > C(δ0 )/α∗ . Probemos que para cada x0 ∈ Bδ0 , existe un t1 ∈ [t0 , t0 + T (η)], tal
que |x(t1 , t0 , x0 )| < γ.
Supongamos que existe un x∗0 ∈ Bδ0 , tal que

|x(t, t0 , x∗0 )| ≥ γ, t ∈ [t0 , t0 + T (η)].

Como |x(t, t0 , x∗0 )| ≤ R, ∀t ≥ t0 , se sigue que

V̇ (t, x(t, t0 , x∗0 )) ≤ −W (x(t, t0 , x∗0 )) ≤ −α,

para todo t ∈ [t0 , t0 + T (η)]. De donde sigue:

V (t, x(t, t0 , x∗0 )) ≤ V (t0 , x0 ) − α∗ T (η) ≤ C(δ0 ) − α∗ T (η) < 0.

Contradicción . Ası́, para cada x0 ∈ Bδ0 , existe t1 (x0 ) ∈ [t0 , T (η) + t0 ] tal que

|x(t1 , t0 , x0 )| < γ.

Del hecho que V̇ es definida negativa y (5.14) y (5.15), obtenemos

a(|x(t, t0 , x0 )|) ≤ V (t, x(t, t0 , x0 )) ≤ V (t1 , x(t1 , t0 , x0 )) ≤ C(γ) < a(η),

para todo t ≥ t1 . En particular,

|x(t, t0 , x0 )| < η, ∀t ≥ t0 + T (η), ∀x0 ∈ Bδ .

En general, es difı́cil construir funciones de Liapunov, sin embargo indicaremos con


algunos ejemplos cómo hacer los primeros ensayos para construir tales funciones.

Ejemplo 5.1 Consideremos la ecuación de segundo orden x′′ + q(x) = 0, con q ∈


C 1 (IR)
tal que q(0) = 0 y xq(x) > 0 si x 6= 0. El sistema equivalente a tal ecuación es:
(
x′1 = x2
(5.16)
x′2 = −q(x1 ).

Por hipótesis, (x1 , x2 ) = (0, 0) es el único punto crı́tico del sistema (5.16). Por otra
parte, denotando por Z x1
E(x1 ) = q(s)ds
0
la energı́a potencial del sistema (5.16), la energı́a total del sistema viene dada por

x22
V (x1 , x2 ) = + E(x1 ).
2
Mostremos que V (x1 , x2 ) es una función de Liapunov asociada al sistema (5.16). En
efecto,
84 Capı́tulo 5. Segundo Método de Liapunov

(a) V (0, 0) = 0, xq(x) > 0, implica que V (x1 , x2 ) > 0 para (x1 , x2 ) 6= (0, 0). Además,
V ∈ C 1 (IR2 ).

(b) V̇ = ∂V x′1 + ∂V x′2 = q(x1 )x′1 + x2 x′2 = 0. Por tanto, la solución trivial del
∂x1 ∂x1
sistema (5.16) es estable.

Ejemplo 5.2 Consideremos el sistema


(
x′1 = −x2 − x31
(5.17)
x′2 = x1 − x32 .

Definamos V (x1 , x2 ) = x21 + x22 . La función V (x1 , x2 ) es definida positiva y V̇ =


2x1 (−x2 − x31 ) + 2x2 (x1 − x32 ) = −2(x41 + x42 ) es negativa. Más aún, V̇ = 0 si y
sólo si (x1 , x2 ) = (0, 0). Ası́, la solución trivial de (5.17) es asintóticamente estable.

Ejemplo 5.3 Consideremos el sistema


(
x′1 = 3x1 + x22
(5.18)
x′2 = −2x2 + x31 .

Definamos
V (x1 , x2 ) = x21 − x22 .
V es continua en IR2 , es diferenciable con continuidad, V (0, 0) = 0 y toma valores
positivos en todo entorno del origen si x1 ≥ x2 . Además,

V (x1 , x2 ) =< ∇V, (x′1 , x′2 ) >= (6x21 + 4x22 ) + (2x1 x22 − 2x2 x31 ).

Luego, si |x| = |(x1 , x2 )| = max(|x1 |, |x2 |), es suficientemente pequeño, entonces el


signo de V ′ está determinado por el primer paréntesis de la expresión anterior. Como
además V ′ (0, 0) = 0, se sigue que V ′ es definida positiva cerca del origen, por tanto, la
solución trivial del sistema (5.18) es inestable.
§ 5.3. Funciones de Liapunov para Sistemas Lineales 85

§ 5.3 Funciones de Liapunov para Sistemas Lineales

En este parágrafo nos ocuparemos de la construcción de funciones de Liapunov


para sistemas lineales a coeficientes constantes.
Sea
x′ = Ax, con A ∈ IRn×n . (5.19)

Sea V (x) =< x, Bx >, donde B es una matriz real n × n simétrica, definida positiva.
Derivando V, en virtud de (5.19), se tiene :

V̇ (x) =< x′ , Bx > + < x, Bx′ >


=< Ax, Bx > + < x, BAx >
=< x, (AT B + BA)x > .

Ahora, tratemos que se cumpla la siguiente igualdad

V̇ (x) = −W (x),

con W (x) =< x, Cx >, C ∈ IRn×n simétrica, definida positiva. Esto es posible si y sólo
si
AT B + BA = −C.

Teorema 5.8 El sistema (5.19) es uniforme asintóticamente estable si y sólo si


para cada forma cuadrática W (x) =< x, Cx > definida positiva, existe una forma
cuadrática V (x) =< x, Bx > definida positiva tal que

V̇ (x) = −W (x), ∀x ∈ IRn .

Antes de probar el teorema anterior, procederemos a hacer algunas observaciones pre-


vias y demostraremos algunas afirmaciones que serán imprescindibles en el curso de la
prueba del teorema 5.8.

Proposición 5.9 Toda forma cuadrática V (x) =< x, Bx > satisface las siguientes
desigualdades:

(a) λ1 |x|2 ≤ V (x) ≤ λ2 |x|2 ,

(b) |∇V (x)| ≤ λ2 |x|2 ,

donde λ1 = λmin (B) y λ2 = λmax (B) son el menor y mayor autovalor de la matriz B,
respectivamente.
86 Capı́tulo 5. Segundo Método de Liapunov

Demostración. Como B es una matriz simétrica, B = B T . Entonces existe una


matriz U ortogonal (U U T = I) tal que

λ1 ··· 0

· ··· ·

U BU −1 = U BU =
T
· ··· · .

· ··· ·

0 ··· λn

Pongamos y = U x. Luego, x = U −1 y. De ésto se sigue que

V (x) =< x, Bx >=< U −1 y, BU −1 y >= y, U BU −1 y >


n
X
=< y, U BU T y >= λi yi2 ,
i=1

y además
|y|2 =< y, y >=< U x, U x >= |x|2 ;

Lo cual prueba (a).


Por otra parte, ∇V (x) = 2Bx, luego,

|∇V (x)| ≤ 2|B| |x|;

donde
1
|B| = λmax
2
(B T B) = λmax (B) = λ2 .

En efecto, si A es una matriz arbitraria se tiene que

< AT Ax, x >=< Ax, Ax >= |Ax|2 .

Por lo tanto,
1
|Ax| =< AT Ax, x > 2 ,

entonces
1
|A| = λmax
2
(AT A),

ésto implica (b).

Proposición 5.10 Sean A1 , B1 , C1 ∈ IRn×n , tales que B1 6= 0 y A1 B1 = B1 C1 .


Entonces A1 y C1 tienen un autovalor común.
§ 5.3. Funciones de Liapunov para Sistemas Lineales 87

Demostración. Supongamos que A1 y C1 no tienen un autovalor común. Luego,


los polinomios caracterı́sticos

P (λ) = det(A1 − λI)

y
Q(λ) = det(C1 − λI),
son primos entre sı́. Entonces existen polinomios P1 (λ) y Q1 (λ) tales que

P (λ)P1 (λ) + Q(λ)Q1 (λ) = 1.

Denotemos con h(λ) = P (λ)P1 (λ), luego,

1 − h(λ) = Q(λ)Q1 (λ).

De acuerdo al teorema de Caley-Hamilton

h(A1 ) = 0 y h(C1 ) = 1.

Por otro lado, como

P (λ) = an λn + · · · + a1 λ + a0 , P1 (λ) = bm λm + · · · + b1 λ + b0

P (A1 ) = an An1 + · · · + a1 A1 + a0 , P1 (C1 ) = bm C1m + · · · + b1 C1 + b0


y por hipótesis tenemos A1 B1 = B1 C1 , entonces

h(A1 )B1 = P1 (A1 )P (A1 )B1


= P1 (A1 )(an An1 B1 + · · · + a1 A1 B1 + a0 B1 )
= P1 (A1 )(an B1 C1n + · · · + a1 B1 C1 + a0 B1 )
= P1 (A1 )B1 P (C1 )
= B1 P1 (C1 )P (C1 )
= B1 h(C1 ),

entonces B1 = 0. Contradicción.

Proposición 5.11 Si A es una matriz con todos sus autovalores con parte real
negativa, entonces la ecuación matricial

AT B + BA = −C (5.20)

posee una única solución.


88 Capı́tulo 5. Segundo Método de Liapunov

Demostración. Definamos el siguiente operador

F : IRn×n → IRn×n

de forma que
F (B) = AT B + BA.

Los autovalores de F son reales ya que F (B) es simétrica. En efecto,

F T (B) = (AT B + BA)T = (AT B)T + (BA)T


= B T A + AT B T = BA + AT B
= F (B).

A fin de demostrar que (5.20) tiene solución, es suficiente ver que F es invertible. Lo
cual es equivalente a mostrar que ningún autovalor de F es nulo ya que

det F (B) = Πni=1 µi .

Sea µ cualquier autovalor de B y sea B 6= 0 tal que F (B) = µB. Luego,

AT B + BA = µB;

entonces
(AT − µI)B = −BA.

Por la proposición previa, tomando A1 = AT − µI, B1 = B 6= 0 y C1 = −A, se tiene


que (AT − µI) y (−A) poseen un autovalor común.
Tomando en cuenta que los autovalores de AT − µI son λi − µ y los de −A son λk ;
y el hecho que para todo µ se verifica que

µ = λi + λk 6= 0,

entonces F es invertible.
La unicidad sigue del hecho que la inversa es única.

Proposición 5.12 Si A es una matriz con todos sus autovalores con parte real
negativa, entonces la única solución de la ecuación AT B + BA = −C, viene dada por
Z ∞
B= exp(AT t)C exp(At)dt.
0
§ 5.3. Funciones de Liapunov para Sistemas Lineales 89

Demostración. Consideremos la ecuación diferencial matricial


dz
= AT z(t) + z(t)A, (5.21)
dt
z(0) = −C. (5.22)
La solución de (5.21),(5.22) viene dada por

z(t) = − exp(AT t)C exp(At).

Ahora, como IReλ(A) < 0, entonces

lim z(t) = 0.
t→∞

Integrando (5.21) se tiene que


Z t Z t
T
z(t) − z(0) = A z(s)ds + z(s)dsA
0 0

y haciendo tender t → ∞, se obtiene

−C = AT B + BA.

Proposición 5.13 Si A posee todos sus autovalores con parte real negativa y C es
definida positiva, entonces B también es definida positiva.
Demostración. Sea x0 6= 0. Luego
Z ∞
< x0 , Bx0 > =< x0 , exp(AT t)C exp(At) dtx0 >
0
Z ∞
= < exp(At)x0 , C exp(At)x0 > dt.
0

De donde se sigue que:


Z ∞
< x0 , Bx0 >= < x(t, t0 , x0 ), Cx(t, t0 , x0 ) > dt,
0

lo cual implica

xT0 Bx0 ≥ 0 y < x0 , Bx0 >= 0 si y solo si x0 = 0.


Procedamos a demostrar el teorema 5.8 .
La necesidad sigue de las proposiciones (??) y (5.12).
90 Capı́tulo 5. Segundo Método de Liapunov

La suficiencia se obtiene como sigue. Supongamos que V (x) =< x, Bx > y V̇ (x) =
−W (x) con W (x) =< x, Cx > . Luego, por la proposición 5.9 se tiene que

λmin (B)|x|2 ≤ V (x) ≤ λmax (B)|x|2

λmin (C)|x|2 ≤ W (x) ≤ λmax (C)|x|2 .


Entonces
dV λmin (C)
= −W (x) ≤ −λmin (C)|x|2 ≤ − V (x),
dt λmax (B)
integrando, obtenemos

V (x(t)) ≤ V (x(0)) exp(−αt), t ≥ 0,

con
λmin (C)
α= .
λmax (B)
De modo que:
λmax (B)
|x(t)|2 ≤ |x(0)|2 exp(−αt),
λmin (B)
y por lo tanto:
α
|x(t)| ≤ B ∗ |x(0)| exp(− t), t ≥ 0
2
con s
λmax (B)
B∗ = .
λmin (B)

§ 5.4 Inestabilidad de Sistemas Semi-lineales

Consideremos el sistema semi-lineal

x′ = Ax + f (x), (5.23)

con f (0) = 0 y lim|x|→0 |f|x|


(x)|
= 0. Además, supondremos que f ∈ C 1 [IRn , IRn ].
Es conocido que en el caso que la matriz sea estable; es decir, todos sus autovalores
tiene parte real negativa, la solución trivial de (5.23) es uniforme asintóticamente estable
(Teorema de Perron).
En el caso que uno de los autovalores de la matriz A tenga parte real positiva,
probaremos vı́a segundo método de Liapunov, que la solución trivial del sistema (5.23)
es inestable.
En primer lugar demostraremos la siguiente afirmación:

Teorema 5.14 Supongamos que A posee un autovalor con parte real positiva y
IRe(λi + λk ) 6= 0, ∀i 6= k. Entonces dada una forma cuadrática W =< x, Cx > definida
positiva, existe una forma cuadrática V =< x, Bx > y un α > 0 tal que
§ 5.4. Inestabilidad de Sistemas Semi-lineales 91

(i) V̇(5.19) (x) = αV (x) + W (x),

(ii) Para cada ε > 0, existe x0 ∈ Bε tal que V (x0 ) > 0.


Demostración. Consideremos el sistema auxiliar

x′ = A∗ x (5.24)

donde A∗ = A − α2 I.
Sea ρ un autovalor de A∗ . Luego, existe x 6= 0 tal que A∗ x = ρx. De donde obte-
nemos que λ = ρ + α2 es un autovalor de la matriz A, ya que
α
Ax = (ρ + )x.
2
α
Análogamente se prueba que si λ es un autovalor de A, entonces ρ = λ − 2 es un
autovalor de A∗ .
Elijamos α > 0, de forma que :
(a) Si IReλi > 0, entonces IReρi > 0; y

(b) ρi + ρk 6= 0, ∀i 6= k.
Esta elección siempre es posible; ya que los autovalores de A y A∗ están interrela-
cionados a través de
α
λi = ρi + , ∀i = 1, 2 · · · , n.
2
Es suficiente elegir 0 < α < min{IReλi : IReλi > 0} y IRe(λi + λk ) 6= 0, ∀i 6= k.
Sea W (x) =< x, Cx > una forma cuadrática definida positiva. Mostremos que
existe una forma cuadrática
V (x) =< x, Bx >
tal que la derivada de V a lo largo de las soluciones del sistema (5.24) satisface que:

V̇(5.24) (x) = W (x), ∀x ∈ IRn .

Para lo cual es suficiente probar que la ecuación matricial A∗T B + BA∗ = C admite
una solución.
Al igual que como lo hicimos en la prueba de la proposición 5.11 se demuestra que
el operador F : IRn×n → IRn×n definido por F (B) = A∗T B + BA∗ , es invertible, debido
a que la condición (b) implica que ningún autovalor de F es nulo (recordemos que la
invertibilidad de F depende exclusivamente del hecho que ρi + ρk 6= 0, ∀i 6= k).
De la unicidad de F −1 sigue que V está unı́vocamente determinada. Por lo tanto
hemos probado que V̇(5.24) (x) = W (x).
Sea V la forma cuadrática previamente hallada y calculemos V̇(5.19) . Por una parte
tenemos que
V̇(5.24) (x) =< x, (AT B + BA)x > −α < x, Bx > .
92 Capı́tulo 5. Segundo Método de Liapunov

De donde sigue que

V̇(5.24) (x) = V̇(5.19) (x) − αV (x),

lo cual automáticamente prueba (a).


Probemos por último que dado ε > 0, existe x0 ∈ Bε tal que V (x0 ) > 0. En efecto,
supongamos que existe R > 0 tal que V (x) ≤ 0, para todo x ∈ BR . Pueden ocurrir dos
casos :
(1) V es definida negativa;
(2) Existe x∗ ∈ BR , (x∗ 6= 0), tal que V (x∗ ) = 0
En el primer caso, poniendo V1 = −V, se tiene que V1 es definida positiva y como
V̇1 = −V̇ = −W es definida negativa, entonces en virtud del teorema 5.6, x = 0 es
asintóticamente estable. Contradicción.
En el segundo caso, consideremos la solución x(·, t0 , x∗ ) : [t0 , +∞) → IRn y mostre-
mos que en este caso existe x0 6= 0, tal que V (x0 ) > 0.
Pongamos ϕ(t) = V (x(t, t0 , x∗ )). Luego,

ϕ̇(t) = V̇ (x(t, t0 , x∗ )) = W (x(t, t0 , x∗ )) − αV (x(t, t0 , x∗ )), t ≥ t0 .

Poniendo t = t0 en la igualdad anterior, obtenemos que ϕ′ (t0 ) > 0. Por lo tanto, existe
un entorno de t0 , [t0 , t0 + δ] donde ϕ′ (t) > 0. Teniendo en cuenta ésto y la igualdad:
Z t
∗ ∗
V (x(t, t0 , x )) = V (x ) + ϕ′ (s)ds,
t0

obtenemos que V (x(t, t0 , x∗ )) > 0, ∀t ∈ (t0 , t0 + δ). Lo cual es una contradicción.

Teorema 5.15 Sean W (x) =< x, Cx > una forma cuadrática definida positiva y
V (x) =< x, Bx > una forma cuadrática arbitraria. Entonces existe R > 0, tal que

W (x) + (∇V (x))T f (x) ≥ 0, ∀ x ∈ BR .


Demostración. De la proposición 5.9, se tiene que

λ1 |x| ≤ W (x) ≤ λ2 |x| y l1 |x|2 ≤ V (x) ≤ l2 |x|2 ,

donde λ1 , λ2 > 0, l1 = lmin (B) y l2 = lmax (B). Además, |∇V (x)| ≤ k|x|, con k = 2|B|.
Luego,
| < ∇V (x), f (x) > | ≤ |∇V (x)| |f (x)| ≤ k|x| |f (x)|.
Como lim |f (x)|/|x| = 0 , entonces dado ε > 0, existe δ > 0, tal que |f (x)| < ε|x|,
|x|→0
∀x : |x| < δ. De modo que

| < ∇V (x), f (x) > | ≤ kε|x|2 , ∀x : |x| < δ.


§ 5.4. Inestabilidad de Sistemas Semi-lineales 93

Por otra parte, tenemos que:

W (x) ≥ λ1 |x|2 − kε|x|2 = (λ1 − kε)|x|2 .

Eligiendo ε de modo que λ1 − kε > 0, obtenemos

W (x) + (∇V (x))T f (x) > 0, ∀x : |x| < δ(ε).

Teorema 5.16 (Teorema de Inestabilidad) Consideremos el sistema (5.23)


con las condiciones dadas. Si existe λ(A) tal que IReλ > 0, entonces x = 0 es inestable.
Demostración. Por el teorema 5.13, dada W (x) = |x|2 , existe V (x) y α > 0 tales
que :

(a) V̇(5.19) (x) = αV (x) + |x|2 ,

(b) ∀ε1 > 0, existe x0 ∈ Bε1 tal que V (x0 ) > 0.

Calculemos V̇(5.23)

V̇(5.23) (x) = < x′ , Bx > + < x, Bx′ >


= < Ax + f (x), Bx > + < x, B(Ax + f (x)) >
= < Ax, Bx > + < f (x), Bx > + < x, BAx > + < x, Bf (x) >
= V̇(5.19) (x) + 2 < f (x), Bx >= αV (x) + |x|2 < f (x), 2Bx > .

Lo cual implica que

V̇(5.23) (x) = αV (x) + |x|2 + < f (x), ∇V (x) > .

Por el teorema 5.13, existe R > 0 tal que :

|x|2 + (∇V (x))T f (x) ≥ 0, ∀x : |x| ≤ R.

Sea ε1 arbitrario, con 0 < ε1 < R. Sea x : [0, β) → IRn la solución de (5.23) con
x(0) = x0 , |x0 | < ε1 y V (x0 ) > 0. Si β < ∞, entonces la solución no es prolongable y
por lo tanto se sigue que x = 0 es inestable.
Si β = ∞, entonces pueden ocurrir dos casos:

(1) La solución se escapa de BR en tiempo finito.

(2) La solución x(t) ∈ BR , ∀ t ≥ 0.

En el primer caso eligiendo ε = R, concluimos que la solución es inestable.


En el segundo caso consideremos la ecuación

V̇ (x(t)) = αV (x(t)) + F (t),


94 Capı́tulo 5. Segundo Método de Liapunov

donde F (t) = |x(t)|2 + < ∇V (x(t)), f (x(t)) > . Como |x(t)| ≤ R, ∀t ≥ 0, del teorema
5.15, sigue que F (t) ≥ 0, ∀t ≥ 0. Integrando la ecuación anterior, obtenemos
Z t
αt
V (x(t)) = e V (x0 ) + exp(α(t − s))F (s)ds, t ≥ 0.
0

De donde se sigue que:

V (x(t)) ≥ eαt V (x0 ), ∀t ≥ 0, con α > 0.

Haciendo tender t → +∞, obtenemos que V (x(t)) → ∞. Contradicción


§ 5.5. Comentarios y Sugerencias 95

§ 5.5 Comentarios y Sugerencias

Para el análisis de la estabilidad de sistemas no lineales, en general, el único método


universal es el segundo método de Liapunov, como ya lo señalamos su desventaja radica
en la construcción de funciones de Liapunov. Una manera de aminorar estas dificul-
tades es usando funciones vectoriales de Liapunov, recomendamos consultar el libro de
Lakshmikantham y Leela [14].
Un problema muy interesante pero menos estudiado es el de la extensión del segundo
método de Liapunov para sistemas singularmente perturbados.
96 Capı́tulo 5. Segundo Método de Liapunov

§ 5.6 Ejercicios y Problemas

1. Sea A ∈ C[J, IRn×n ] con J = [t0 , ∞) y A(t) = A(t)T . Denotemos por λ+ (t) =
max{λ : λ ∈ σ(A(t))}. Pruebe que si existe h > 0 tal que λ+ (t) ≤ −h, para
todo t ≥ t0 , entonces la solución trivial del sistema y ′ = A(t)y es uniformemente
asintóticamente estable.

2. Sean A0 , · · · , Am elementos de IRn×n . Pruebe que si todos los autovalores de la


matriz A0 tienen parte real negativa, entonces la solución trivial del sistema

y ′ = (A0 tm + A1 tm−1 + · · · + Am )y

es asintóticamente estable sobre el intervalo (0, +∞.


1
Ayuda: Introduzca un nuevo tiempo τ = m+1 tm+1 .

3. Estudie la estabilidad asintótica de la solución trivial de la ecuación

y ′′ + ay ′ + b sin y = 0, a > 0, b > 0,

usando el método de las funciones de Liapunov.

4. Considere la ecuación diferencial

y ′ = f (t, y) , (5.25)

donde J = [t0 , ∞), f (t, 0) = 0, ∀t ≥ t0 y f ∈ C[J × IRn , IRn ]; y suponga que existe
λ ∈ C(J, IR) tal que y T f (t, y) ≤ −λ(t)|y|2 para t ≥ t0 , y ∈ IRn .
Pruebe que :

a) Si λ(t) ≥ 0, ∀t > t0 , entonces la solución trivial de (5.25) es uniformemente


estable sobre J.
R∞
b) Si t0 λ(s)ds = ∞, entonces y ≡ 0 es asintóticamente estable.
c) ¿Qué sucede si λ(t) < 0 ó λ(t) es de signo variable ?.

5. Estudie la estabilidad de la solución trivial de la ecuación diferencial

y ′′ + f (y)y ′ + h(y) = 0,
Ry
donde yh(y) > 0, f (y) > 0, si y 6= 0 ; f (0) = h(0) = 0 y H(y) = 0 h(s)ds → ∞,
cuando |y| → ∞.
Ayuda : Ver Hale [11], p. 298.

6. Estudie la estabilidad de la solución trivial de la ecuación de Van der Pol

y ′′ + ε(y 2 − 1)y ′ + y = 0,

vı́a funciones de Liapunov.


§ 5.6. Ejercicios y Problemas 97

7. Considere el sistema

x′ = y − xf (x, y)
y ′ = −x − yf (x, y) ,

con f (0, 0) = 0. Pruebe que:


i) f (x, y) ≥ 0 para todo (x, y) ∈ IR2 , implica que la solución trivial es
estable.
ii) f (x, y) ≤ 0, para todo (x, y) ∈ IR2 implica que la solución trivial es
inestable.
8. Estudie la estabilidad de la solución trivial de las siguientes ecuaciones diferen-
ciales :
a) z ′′ + az ′ + f (z) = 0, con f (0) = 0, zf (z) > 0 si z 6= 0.
b)

x′1 = ax31 + bx2


x′2 = −cx1 + dx32

donde a, b, c, d son constantes reales.


c)

x′1 = x2
x′2 = x3 − ax2
x′3 = cx1 − F (x2 ) ,

donde a y c son constantes positivas y la función F (x) satisface las siguientes


condiciones
Z x2
aF (x2 ) cs
F (0) = 0 ; > c, si x2 6= 0; lim (F (s) − )ds = +∞.
x2 |x2 |→∞ 0 a

AyudaR: Defina la función de Liapunov en el caso a) como una forma


R x cuadrática
z
más 2 0 f (s)ds y en el caso c) como una forma cuadrática más 0 2 F (s)ds.
9. Considere el sistema

x′j = fj (x1 , · · · , xj ) , j = 1, · · · , n , (5.26)

donde fj (x1 , · · · , xj ) es globalmente Lipschitz sobre IRn y fj (0) = 0.


Pruebe que la solución trivial del sistema (5.26) es uniformemente asintóticamen-
te estable si y sólo si la solución trivial de cada uno de las ecuaciones diferenciales
x′1 = f (x1 ), · · · , x′n = f (0, 0, · · · 0, xn ) también es uniformemente asintóticamente
estable .
98 Capı́tulo 5. Segundo Método de Liapunov
Capı́tulo 6

Introducción a Sistemas Dinámicos

§ 6.1 Clasificación de Orbitas y Teorema de Poincaré-Bendixson

Consideremos el sistema autónomo

x′ = g(x). (6.1)

El espacio de la variable dependiente x lo designaremos por X y será por lo general


n
IR . Al espacio X lo denominaremos espacio de fase (o espacio de estado). Toda solución
de (6.1) puede pensarse como un punto móvil del espacio X, cuya ley de movimiento
es precisamente x(t), siendo t el tiempo.
Además, se puede obtener más información acerca del comportamiento de las solu-
ciones del sistema, graficando en el espacio de fase, que en IR × X. Lo cual no quiere
decir que las órbitas aportan más información, ya que contienen mucho menos que la
gráfica de la solución.
Recordemos que en el caso que g ∈ C[IRn , IRn ] y sea localmente Lipschitz, el sistema
(6.1) con x(0) = x0 admite una única solución no prolongable x(t, x0 ) definida sobre
un intervalo, y además las soluciones dependen continuamenteP de los datos iniciales.
La función x(t, x0 ) está definida sobre un conjunto abierto ⊂ IR × IRn y satisface
las siguientes propiedades :

(a) x(0, x0 ) = x0 ,
P
(b) x(t, x0 ) es continua sobre ,
P
(c) x(t + τ, x0 ) = x(t, x(τ, x0 )) sobre .

A toda función Φ : IRn+1 → IRn que satisfaga las propiedades (a) − (c) se le denomina
sistema dinámico.

Definición 6.1 Sea ϕ : (α, β) → IRn una solución de (6.1). Al conjunto de puntos
γ = {x ∈ IRn : x = ϕ(t), para algún t ∈ (α, β)}, lo llamaremos órbita u órbita de (6.1).
A la representación de todas las órbitas de un sistema la denominaremos diagrama de
fase del sistema. Notemos que una órbita puede representar a infinitas soluciones del
sistema (6.1), ya que si ϕ(t) es solución, entonces ϕ(t + c) también es solución, ∀c ∈ IR.
Esto, geométricamente significa que todo sistema autónomo siempre admite una familia
de soluciones cuyas proyecciones dan origen a una sola órbita .

Definición 6.2 Diremos que x0 es un punto de equilibrio del sistema (6.1), si


g(x0 ) = 0.

99
100 Capı́tulo 6. Introducción a Sistemas Dinámicos

El siguiente teorema nos dice que dos órbitas del sistema (6.1), o nunca se intersectan
o bien coinciden. Sea D ⊂ IRn abierto y conexo.

Teorema 6.1 Supongamos que g ∈ C 1 [D, IRn ]. Por cada x0 ∈ D, pasa una única
órbita del sistema (6.1).
Demostración. La existencia de una órbita de (6.1) a través del punto x0 ∈ D se
sigue de la existencia y unicidad de la solución ϕ(t) de (6.1) tal que ϕ(0) = x0 .
Supongamos que por un punto x0 pasan dos órbitas γ1 6= γ2 , tales que γ1 ∩ γ2 6= ∅.
Entonces existen t1 , t2 ∈ Domϕ1 ∩ Domϕ2 tales que ϕ1 (t1 ) = ϕ2 (t2 ) = x0 . Defi-
namos ψ(t) = ϕ1 (t − t2 + t1 ). Luego ψ es solución de (6.1). Como ψ(t2 ) = ϕ1 (t1 ) y
ϕ1 (t1 ) = ϕ2 (t2 ), entonces ψ(t2 ) = ϕ2 (t2 ). Luego, por la unicidad de las soluciones de
(6.1) se tiene que ψ(t) = ϕ2 (t), ∀t ∈ (α, β). De modo que la órbita de ψ coincide con
la de ϕ2 . Pero ψ es igual a ϕ1 salvo desplazamientos, entonces la órbita de ψ coincide
con la órbita de ϕ1 . Contradicción

Corolario 6.2 Si x0 es un punto de equilibrio del sistema (6.1), entonces la única


órbita que pasa por x0 es ella misma.

Teorema 6.3 Si ϕ : (α, β) → IRn es una solución no prolongable del sistema (6.1),
tal que

(a) lim ϕ(t) = B y/o


t→β −

(b) lim ϕ(t) = A,


t→α+

con A, B ∈ D. Entonces β = +∞ y/o α = −∞. Además B y/o A es un punto de


equilibrio de (6.1).
Demostración. Supongamos que lim ϕ(t) = B ∈ D. Entonces β = +∞, ya que
t→β −
si β < ∞, ϕ se podrı́a prolongar a la derecha de β. Lo cual contradice el hecho que ϕ
es no prolongable.
Ahora, como ϕ es solución de (6.1), entonces ϕ′ (t) = g(ϕ(t)), de donde sigue que

lim ϕ′ (t) = lim g(ϕ(t)) = g(B),


t→+∞ t→+∞

ya que g es continua.
Probemos que g(B) = 0. Como lim ϕ′ (t) = g(B), entonces para todo ε > 0 existe
t→+∞
T > 0 tal que |ϕ′ (t) − g(B)| < ε, ∀t ≥ T.
Supongamos que existe i, 1 ≤ i ≤ n, tal que gi (B) 6= 0. Entonces gi (B) > 0 ó
gi (B) < 0.
§ 6.1. Clasificación de Orbitas y Teorema de Poincaré-Bendixson 101

Si ocurre que gi (B) > 0, entonces existe T1 > 0 tal que

gi (B)
gi (ϕ(t)) ≥ , ∀t ≥ T1 .
2
Luego, se tiene que
gi (B)
ϕ′i (t) = gi (ϕ(t)) ≥ , ∀t ≥ T1 ,
2
de donde sigue
gi (B)
ϕ′i (t) ≥ , ∀t ≥ T1 .
2
Integrando la última inecuación obtenemos

gi (B)
ϕi (t) ≥ ϕi (T1 )) + (t − T1 ), ∀t ≥ T1 .
2
lo cual implica que no existe el lı́mite de ϕ(t) cuando t → +∞, lo que es una con-
tradicción. Análogamente se hace la prueba si gi (B) < 0.

Observación 6.1 Si ϕ : IR → D es una solución no constante del sistema (6.1),


entonces ϕ se puede acercar a un punto crı́tico solamente cuando t → +∞ ó t → −∞.

Teorema 6.4 (Clasificación de Orbitas ) Sea ϕ una solución no prolongable


del sistema (6.1), definida sobre (α, β), −∞ ≤ α, β ≤ +∞. Entonces se verifica una de
las siguientes opciones :

(1) ϕ es inyectiva,

(2) ϕ es constante,

(3) ϕ es periódica no constante.

Para demostrar este teorema haremos uso de un lema auxiliar.

Lema 6.5 Sea ϕ : IR → IRn una función continua y definamos

T = {c ∈ IR : ϕ(t + c) = ϕ(t), ∀ t ∈ IR}.

Si T 6= ∅, entonces existe un τ > 0 tal que T = τ Z ó T es denso en IR.


Demostración. En primer lugar probemos que T es un subgrupo aditivo de IR.
En efecto, como IR es un grupo aditivo, entonces basta ver que :

(a) Si c1 , c2 ∈ T, entonces (c1 + c2 ) ∈ T.

(b) Si c ∈ T, entonces existe c1 ∈ T : c + c1 = 0.


102 Capı́tulo 6. Introducción a Sistemas Dinámicos

Supongamos que c1 , c2 ∈ T. Entonces ϕ(t + c1 ) = ϕ(t) y ϕ(t + c2 ) = ϕ(t), ∀t ∈ IR.


Luego se tiene que

ϕ(t + (c1 + c2 )) = ϕ((t + c1 ) + c2 ) = ϕ(t + c1 ) = ϕ(t),

por lo que c1 + c2 ∈ T.
Sea c ∈ T. Luego ϕ(t + c) = ϕ(t), ∀t ∈ IR. Entonces

ϕ(t − c) = ϕ((t − c) + c) = ϕ(t);

por lo que −c ∈ T.
Veamos que T es cerrado topológicamente en IR. En efecto, sea (cn ) una sucesión de
puntos de T y cn → c cuando n → +∞. Como cn ∈ T , entonces ϕ(t) = ϕ(t + cn ). Luego
por la continuidad de ϕ y haciendo tender n → ∞, obtenemos ϕ(t) = ϕ(t + c), ∀ t ∈ IR.
Por lo tanto c ∈ T.
Pongamos τ = inf(T ∩ IR+ ). Como T es cerrado se sigue que τ ∈ T. Mostremos que

i) Si τ > 0, entonces T = τ Z.

ii) Si τ = 0, entonces T = IR; .

En el primer caso, veamos primero que τ Z ⊂ T. En efecto, sea a = τ n, con n ∈ Z.


Luego, a = τ + (n − 1)τ, entonces

ϕ(t + a) = ϕ(t + τ n) = ϕ((t + (n − 1)τ ) + τ )


= ϕ(t + (n − 1)τ ) = ϕ((t + (n − 2)τ ) + τ )
= · · · = ϕ(t + (n − (n − 1))τ ) = ϕ(t + τ ) = ϕ(t).

Mostremos ahora que T ⊂ τ Z. Sea a ∈ T y supongamos que a > τ. Entonces existe


un n ∈ N tal que nτ < a ≤ (n + 1)τ . De donde sigue que 0 < a − nτ ≤ τ. Entonces
a − nτ ∈ T ∩ IR+ por lo que a − nτ ≥ τ. Por lo tanto a = (n + 1)τ. En el caso que
a < −τ , se sigue que −a > τ y volvemos aplicar la prueba anterior.
Supongamos que τ = 0. Entonces para todo ε > 0, existe C0 ∈ T ∩ IR+ tal que
0 < C0 < ε.
Sea t ∈ IR. Entonces existe k ∈ Z tal que kC0 ≤ t < (k + 1)C0 . Ası́, 0 ≤ t − kC0 <
C0 < ε.

Demostremos ahora el teorema 6.4 . Supongamos que ϕ no es inyectiva; es decir,


existen números t1 < t2 tales que ϕ(t1 ) = ϕ(t2 ). Luego, poniendo c = t2 − t1 , sigue que
ϕ(t + c) = ϕ(t), ∀t ∈ IR.
Por el lema anterior sabemos que T = {c ∈ IR : ϕ(t + c) = ϕ(t), t ∈ IR}, es discreto
o denso en IR. Luego, si T = IR, entonces ϕ es una solución constante; y , si T = τ Z,
entonces ϕ es una solución periódica no constante, con perı́odo minimal τ.
§ 6.1. Clasificación de Orbitas y Teorema de Poincaré-Bendixson 103

Recordemos que dos órbitas coinciden o son disjuntas. Luego, D = Domg se puede
descomponer en una unión disjunta de curvas diferenciables: imagen biunı́voca de un
intervalo de IR ó punto de equilibrio ó curva difeomorfa a un cı́rculo (órbita cerrada-
solución periódica). A partir de esta observación, se puede definir rigurosamente el
concepto de diagrama de fase.

Definición 6.3 Al conjunto D = Dom g, dotado de una descomposición en órbitas


de g, lo denominaremos diagrama de fase de g. Las órbitas están orientadas en el sentido
de las curvas integrales del campo vectorial g y los puntos de equilibrio están dotados
de la orientación trivial.
En lo que sigue supondremos que todas las soluciones del sistema (6.1) existen, son
únicas y están definidas para todo t en IR. Sea ϕ una solución de (6.1), tal que ϕ(0) = p.
Definimos la semiórbita positiva de ϕ como:

γp+ = {x : x = ϕ(t), t ≥ 0},

y la semiórbita negativa de ϕ como:

γp− = {x : x = ϕ(t), t ≤ 0}.

En el caso que no se especifique ningún punto, escribiremos simplemente γ, γ + , γ −


para la órbita, semiórbita positiva y semiórbita negativa, respectivamente. Donde
γ = γ+ ∪ γ−.
Definimos el conjunto ω− lı́mite de una órbita γ, como sigue:

ω(γ) = {x : ∃(tk )k∈N , lim tk = ∞, y lim ϕ(tk ) = x}.


k→+∞ k→∞

Análogamente se define el conjunto α−lı́mite de una órbita γ:

α(γ) = {x : ∃(tk )k∈N , lim tk = −∞, y lim ϕ(tk ) = x}.


k→+∞ k→∞

Un conjunto M en IRn , se dice que es un conjunto invariante respecto del sistema


(6.1), si para cada p ∈ M, se tiene que x(t, p) ∈ M, para todo t ∈ IR. Es claro de
esta definición que toda órbita de (6.1) es un conjunto invariante. Diremos que M
es positivamente (negativamente) invariante, si para cada p ∈ M, se satisface que
x(t, p) ∈ M para todo t ≥ 0 ( ∀t ≤ 0).

Teorema 6.6 Los conjuntos α y ω lı́mites de una órbita son cerrados e invariantes.
Además, si γ + (γ − ) está acotado, entonces el conjunto ω (α)− lı́mite de γ es no vacı́o,
compacto, conexo y
dist[x(t, p), ω(γ)] → 0, t → +∞,
dist[x(t, p), α(γ)] → 0, t → −∞.
104 Capı́tulo 6. Introducción a Sistemas Dinámicos

Demostración. Sea (xk )k∈N ⊂ ω(γ), tal que xk → x, k → +∞. Mostremos que
x ∈ ω(γ). Como xk ∈ ω(γ), entonces existe una sucesión tki → +∞, cuando i → +∞,
tal que lim ϕ(tki ) = xk . Por lo tanto, dado ε > 0, existe N (k) > 0, tal que
i→+∞

ε
|ϕ(tki ) − xk | < , ∀i ≥ N (k).
2
Por otra parte, como lim xk = x, existe N1 > 0, tal que |xk − x| < 2ε , ∀k ≥ N1 .
k→∞
Fijemos un k ∗ ≥ N1 . Entonces

|ϕ(tki∗ ) − x| ≤ |ϕ(tki∗ ) − xk∗ | + |xk∗ − x| < ε, ∀i ≥ N (k ∗ ).

Esto prueba que x ∈ ω(γ).


Mostremos ahora que ω(γ) es invariante. Si q ∈ ω(γ), entonces existe una sucesión
(tk )k∈N , lim tk = +∞, tal que lim x(tk , p) = q. Por lo tanto, para todo t ∈ IR fijo, se
k→∞ k→∞
tiene que
lim x(t + tk , p) = lim x(t, x(tk , p)) = x(t, q).
k→∞ k→∞

Lo cual demuestra que γq ⊂ ω(γ).


Si γp+ está acotado, entonces existe una constante M > 0 tal que

|x(t, p)| ≤ M, ∀t ≥ 0.

Sea (tk )k∈N , tk → +∞. Entonces la sucesión numérica (x(tk , p))k∈N está acotada.
Lo cual implica que existe una subsucesión de (tk )k∈N , a la cual denotaremos de la
misma manera, tal que lim x(tk , p) = x, para algún x ∈ IRn . Lo cual implica que
k→∞
ω(γ) 6= ∅. Además, de este argumento se obtiene que ω(γ) está acotada. Como ya
habı́amos probado que ω(γ) es cerrado, concluimos la compacidad de ω(γ).
Supongamos que dist[x(t, p), ω(γ)] 6→ 0, t → +∞. Entonces existe una sucesión
(tk )k∈N y un ε > 0 tal que

dist[x(tk , p), ω(γ)] > ε, ∀k ∈ N.

Como |x(tk , p)| ≤ M, ∀k ∈ N, existe una subsucesión (tki )i∈N tal que lim x(tki , p) =
i→∞
x ∈ ω(γ). Lo cual es una contradicción.
La conectividad de ω(γ) sigue inmediatamente del hecho que

dist[x(t, p), ω(γ)] → 0, t → +∞.

Las afirmaciones con respecto al conjunto α− lı́mite se prueban en forma análoga.

Corolario 6.7 Los conjuntos α y ω− lı́mites contienen sólo órbitas completas.


§ 6.1. Clasificación de Orbitas y Teorema de Poincaré-Bendixson 105

Definición 6.4 Diremos que un conjunto M es un conjunto minimal respecto al


sistema (6.1), si M 6= ∅, es cerrado e invariante y no tiene ningún subconjunto que
posea las tres propiedades antes mencionadas.

Lema 6.8 Si A es un conjunto compacto, invariante respecto del sistema (6.1),


entonces A posee un subconjunto minimal.
Demostración. Sea F una familia de subconjuntos definida como sigue
F = {B : B ⊂ A, B-compacto e invariante}.
Definamos en F una relación de orden “<” como sigue : Para cada B1 , B2 en F, decimos
que B2 < B1 , si B2 ⊂ B1 . Para cualquier subfamilia F1 de F totalmente ordenada por
“<”, pongamos C = ∩B∈F1 B.
La familia F1 tiene la propiedad de la intersección finita. En efecto, si B1 , B2 ∈ F1 ,
entonces B1 < B2 ó B2 < B1 . En ambos casos B1 ∩ B2 6= ∅ y B1 ∩ B2 ∈ F.
Ası́, C 6= ∅, compacto e invariante; y para cada B ∈ F1 se sigue que C < B. Su-
pongamos ahora que D es un subconjunto perteneciente a F, tal que D < B, ∀B ∈ F1 .
Entonces D ⊂ B, para todo B ∈ F1 , lo cual implica que D ⊂ C. Por lo tanto C es
el elemento minimal de F1 . Como toda subfamilia de F totalmente ordenada, posee
un mı́nimo, se sigue por el lema de Zorn que existe un mı́nimo en F. Este elemento
minimal de F al cual llamaremos M, posee todas las propiedades requeridas.

Ejemplo 6.1 Consideremos la ecuación logı́stica x′ (t) = x(1 − x).

• •
0 1

Figura 6.1:

Del diagrama de fase se ve que el conjunto ω (α) lı́mite de las órbitas con dato inicial
en el intervalo (0, 1) es el punto {1} ({0}). El conjunto ω-lı́mite de cualquier órbita con
dato inicial negativo es vacio. Análogamente se analizan las otras situaciones. Además,
los conjunto {1}, {0} son minimales.

Ejemplo 6.2 Sea


x′1 = −x2 + εx1 (1 − r2 )
x′2 = x1 + εx2 (1 − r2 )
donde ε > 0, r2 = x21 + x22 . Haciendo x1 = r cos θ, x2 = r sin θ, obtenemos que el sistema
anterior es equivalente a:
θ′ = 1
r′ = εr(1 − r2 ).
106 Capı́tulo 6. Introducción a Sistemas Dinámicos

A partir de este sistema, vemos que el diagrama de fase luce como se muestra en la
siguiente figura:
x2

x1
1

Figura 6.2

Llamemos A = {(x1 , x2 ) : x21 + x22 = 1}, B = {0}. Tanto A como B son conjuntos
minimales A es el conjunto ω− lı́mite de cualquier órbita del sistema, excepto x1 = x2 =
0, y B es el conjunto α− lı́mite de todas las órbitas encerradas por la circunferencia.

Teorema 6.9 Si K es un conjunto positivamente invariante respecto del sistema


(6.1) y homeomorfo a la bola cerrada de IRn , entonces el sistema (6.1) tiene un punto
de equilibrio en K.
Demostración. Para cada τ1 > 0, x(τ, ·) define una aplicación continua de K
en si mismo. Por lo tanto, en virtud del teorema de Brouwer, existe un p1 ∈ K tal
que x(τ1 , p1 ) = p1 . Sea (τm )m∈N una sucesión tal que lim τm = 0 y x(τm , pm ) =
m→∞
pm , ∀m ∈ N. Sin pérdida de generalidad supondremos que lim pm = p ∈ K, ya que
m→∞
K es compacto. Para cada t y m ∈ Z existe un entero km (t) tal que km (t)τm ≤ t <
km (t)τm +τm y x(km (t)τm , pm ) = pm para todo t ya que x(t, pm ) es periódica de periodo
τm en t. Además,

|x(t, p) − p| ≤ |x(t, p) − x(t, pm )| + |x(t, pm ) − pm | + |pm − p|


= |x(t, p) − x(t, pm )| + |x(t − km (t)τm , pm ) − pm | + |pm − p|

de donde se sigue que |x(t, p) − p| → 0 cuando m → ∞ para todo t. Por lo tanto, p es


un punto de equilibrio del sistema (6.1).

Hemos expuesto en forma suscinta, algunos de los conceptos y hechos básicos de la


teorı́a geométrica de las sistemas autónomos. Señalemos que algunos de los problemas
de los que se ocupa esta teorı́a, tienen relación con la caracterización de los conjuntos
minimales y el comportamiento de las soluciones de la ecuaciones diferenciales cerca
§ 6.1. Clasificación de Orbitas y Teorema de Poincaré-Bendixson 107

de conjuntos minimales y la manera de poder reconstruir el conjunto ω− lı́mite de una


órbita a partir de los conjuntos minimales y las órbitas que los conectan.
A continuación en forma breve y sin demostraciones, trataremos de dar respuesta a
estas interrogantes para sistemas bidimensionales. Concretamente se caracteriza el con-
junto ω− lı́mite de una órbita acotada (Teorema de Poincaré-Bendixson) y se describe
el diagrama de fase alrededor de un punto crı́tico aislado para un sistema bidimensional
lineal.
Sea
x′ = f (x), (6.2)
donde f ∈ C 1 [IR2 , IR2 ]. Supondremos que todas sus soluciones están definidas para todo
t en IR.

Teorema 6.10 (a) Si γ + y ω(γ + ) tienen un punto regular en común, entonces


γ + es una órbita periódica.

(b) Si M es un conjunto minimal de (6.2), entonces M es un punto crı́tico o una


órbita periódica.

(c) Si γ + contiene puntos regulares y una órbita perı́odica γ0 , entonces ω(γ + ) = γ0 .


Su demostración se puede ver en Hale [11], p.p. 53-54.

Teorema 6.11 (Poincaré-Bendixson) . Si γ + es una semi-órbita positiva aco-


tada y ω(γ + ) no contiene puntos de equilibrio, entonces:

i) ω(γ + ) = γ + , ó

ii) ω(γ + ) = γ + \γ + .

En ambos casos el conjunto ω− lı́mite es una órbita perı́odica, el caso (ii) se llama ciclo
lı́mite.
Demostración. Como γ + está acotada, entonces ω(γ + ) 6= ∅ es compacto e in-
variante. Por lo tanto, en virtud del lema 6.8, ω(γ + ) posee un subconjunto minimal
M. Además, M no contiene puntos crı́ticos, ya que ω(γ + ) tampoco los posee. Ası́,
por la parte (b) del teorema 6.10, M es una órbita periódica γ0 . Finalmente nuestra
afirmación sigue de la parte (c) del teorema 6.10.
108 Capı́tulo 6. Introducción a Sistemas Dinámicos

§ 6.2 Clasificación de los Puntos Crı́ticos de Sistemas


Bidimensionales

Consideremos el sistema

x′1 = ax1 + bx2


(6.3)
x′2 = cx1 + dx2

Supongamos que ad − bc 6= 0. Entonces (6.3) posee un único punto crı́tico, el origen


(0, 0).  
a b
Sea A = . Sean λ1 y λ2 los autovalores de A. Sabemos que existe una
c d
matriz T no singular tal que T AT −1 = J, donde J es la forma canónica de Jordan y
puede ser de la siguiente forma:
 
λ1 0
1. J = (λ1 y λ2 reales y distintos).
0 λ2
 
λ 0
2. J = (λ1 = λ2 reales; en este caso A es diagonalizable).
0 λ

 
λ 0
J= (λ1 = λ2 reales, A no es diagonalizable).
1 λ
 
α −β
3. J = (λ1 y λ2 complejos conjugados).
β α

Con el fin de clasificar los puntos crı́ticos del sistema (6.3) analizaremos varios casos.

1. Supongamos que λ1 y λ2 son reales y distintos. Sin pérdida de generalidad se


puede asumir que λ1 > λ2 .
Como los autovalores de A son reales y distintos, entonces existe una matriz no
singular T tal que con el cambio de variables x = T −1 y, el sistema x′ = Ax se
transforma en el sistema
y1′ = λ1 y1 , y2′ = λ2 y2 .
De donde obtenemos que:

y1 = c1 eλ1 t , y2 = c2 eλ2 t . (6.4)

Denotaremos por v1 y v2 los autovectores unitarios y correspondientes a λ1 y λ2


respectivamente; y por L1 y L2 las rectas que contienen a v1 y v2 , respectivamente.
Consideremos tres subcasos.
§ 6.2. Clasificación de los Puntos Crı́ticos de Sistemas Bidimensionales 109

(1.a) Supongamos que λ2 < 0 < λ1 . Pongamos r = −λ2 /λ1 . Es claro que r > 0.
y
De (6.4) se obtiene t = 1 ln c11
λ1
 −r  r
y1 c1 c2 cr
y2 = c 2 = c2 = r1 .
c1 y1 y1

No es difı́cil verificar que el diagrama de fase luce como sigue (en todos los
casos las flechas indican la dirección en que se recorren las órbitas, variando
t desde −∞ a +∞).
y2

y1

Figura 6.3: Punto de silla λ2 < 0 < λ1 .


(1.b) λ2 < λ1 < 0. En este caso, de (6.4), obtenemos que y2 = c2 y1r /cr1 con
r = λ2 /λ1 > 1. La figura 6.4 muestra el diagrama de fase del sistema trans-
formado y2

y1

Figura 6.4: Nodo Estable λ2 < λ1 < 0 .


110 Capı́tulo 6. Introducción a Sistemas Dinámicos

(1.c) 0 < λ2 < λ1 . Nuevamente de (6.3), se tiene y2 = c2 y1r /cr1 con r = λ2 /λ1 < 1.
y2

y1

Figura 6.5: Nodo inestable 0 < λ2 < λ1 .


2. Los autovalores de λ1 yλ2 son reales e iguales.

(2.a) Supongamos que A es diagonalizable. Entonces se tiene que

y1 = c1 exp(λt) , y2 = c2 exp(λt),

de donde se obtiene que y2 = c2 y1 /c1 , si c1 6= 0. Asumiendo que λ < 0, se


tiene un punto nodal impropio estable (nodo impropio estable). Si λ < 0, el
punto es un nodo impropio inestable.
x2

x1

Figura 6.6: Nodo impropio estable.


(2.b) A no es diagonizable.En este caso (6.3) se puede transformar en :
 
λ 0
y′ =  y
1 λ
§ 6.2. Clasificación de los Puntos Crı́ticos de Sistemas Bidimensionales 111

de donde se sigue que

y1 = c1 exp(λt)
y2 = (c1 t + c2 ) exp(λt).

Por lo tanto
y1
y2 = (c1 t + c2 ) , c1 6= 0
c2
1 y1
t = ln
λ c1
 
c 1 y1 y1
y2 = ln + c2
λ c1 c1
y2

y1

Figura 6.7: Nodo impropio estable.


3. λ1 y λ2 complejas conjugadas.
Sabemos que (6.3) se puede transformar en:
 
α −β
y′ =   y.
β α

Entonces
y1 = (c1 cos βt − c2 sin tβ) exp(αt)
y2 = (c1 sin βt − c2 cos tβ) exp(αt)

(3.a) Si α = 0 y β 6= 0, al punto se llama centro.


(3.b) α < 0. Foco estable.
(3.c) α > 0. Foco inestable.
112 Capı́tulo 6. Introducción a Sistemas Dinámicos

y2

y1

Figura 6.8: Centro.

y2

y1

Figura 6.9: Foco estable.

y2

y1

Figura 6.10: Foco inestable.


§ 6.3. Comentarios y Sugerencias 113

§ 6.3 Comentarios y Sugerencias

En este capı́tulo hemos resumido sólo los hechos mas elementales de la teorı́a de sistemas
dinámicos. El lector comprenderá que en un primer curso de Ecuaciones Diferenciales
no es posible cubrir en detalle toda la teorı́a geométrica. Los problemas que surgen son
variados y complejos y han dado origen a un gran volumen de libros y artı́culos. Para
una primera lectura sobre sistemas dinámicos continuos recomendamos los libros de
Jorge Sotomayor [24], Jacob Palis [17], Hirsch y Smale [12]. Para sistemas dinámicos
discretos se puede consultar el libro de Robert Devaney [5]. Una excelente exposición,
pero menos elemental, tanto para sistemas dinámicos discretos y continuos es el libro
de Clark Robinson [19].
114 Capı́tulo 6. Introducción a Sistemas Dinámicos

§ 6.4 Ejercicios y Problemas

1. Pruebe que una órbita de (6.1) es una curva cerrada si y sólo si ella corresponde
a una solución periódica no constante de (6.1)

2. Muestre que una solución periódica no constante de un sistema autónomo no


puede ser asintóticamente estable en el sentido de Liapunov.

3. Describa el diagrama de fase del sistema

x′1 = x2 (x22 − x21 ),

x′2 = −x1 (x22 − x21 ).

4. Sea γp la órbita correspondiente a la solución x(t, p), definida para todo t ∈ IR.
Pruebe que:

(i) ω(γ) = ∩p∈γ γp+ = ∩τ ∈IR ∪t≥τ x(t, p),


(ii) α(γ) = ∩p∈γ γp− = ∩τ ∈IR ∪t≤τ x(t, p).

5. Considere el sistema
θ′ = sin2 θ + (1 − r)2 ,
r′ = r(1 − r)
Muestre que el conjunto ω− lı́mite de cualquier órbita que no sean r = 1 y r = 0
es el cı́rculo r = 1; además que los conjuntos minimales sobre el cı́rculo r = 1,
son θ = 0 y θ = π. ¿ Puede concluir ahora que todo conjunto ω− lı́mite es
necesariamente minimal ? .

6. Construya un sistema bidimensional que tenga una órbita cuyo conjunto ω−


lı́mite no es vacı́o y disconexo. Ver p. 149 de [19].

7. Pruebe que si x′ = f (x), con x ∈ IR2 tiene una semiórbita acotada, entonces f
tiene al menos un punto de equilibrio.
Indicación: Use el teorema de Poincaré-Bendixson y el teorema 6.9.

8. (Teorema de Bendixson). Si D ⊂ IR2 es un dominio simplemente conexo y


divf (x) 6= 0, ∀x ∈ D, entonces el sistema x′ = f (x) no posee órbitas periódicas
en D.
Indicación : Use la fórmula de Green y proceda por reducción al absurdo.

9. Sea x′ = Ax un sistema bidimensional. Pruebe que el sistema perturbado y ′ =


Ay + By, con |B| < ε, ε suficientemente pequño, preserva el diagrama de fase
solamente en torno de los puntos de equilibrio del tipo silla y foco.
§ 6.4. Ejercicios y Problemas 115

10. Compare los diagramas de fase en un entorno del origen, de los siguientes sistemas:
 
x′ = x1  x′1 = x1 
, .
 
x′2 = −x2 x′2 = −x2 + x31

11. Considere el sistema de Lorenz

ẋ = σ(y − x)
ẏ = ax − y − xz (6.5)
ż = xy − bz

donde σ, a y b son parámetros positivos. El sistema (6.5) es una aproximación de


modelos metereólogicos mas complejos.
Demuestre que el sistema (6.5) es puntualmente disipativo.
Ayuda: Considere la siguiente función de Liapunov

V (x, y, z) = ax2 + σy 2 + b(z − 2a)2 .


116 Capı́tulo 6. Introducción a Sistemas Dinámicos
Bibliografı́a

[1] Aguilera, J., Lizana, M. Estudio cualitativo de ecuaciones diferenciales ordinarias.


Imprenta Universitaria, UCV, 1990.

[2] Courant, Robbins What is the Mathematics. Oxford Univ. Press. 1941.

[3] Coppel W.A. Dichotomies in Stability Theory. Lect. Notes in Math. V.629,
Springer Verlag, 1978.

[4] Coddinton, E.A, Levinson, N. Theory of Ordinary Differential Equations. Mc


Graw-Hill, New York, 1955.

[5] Devaney, R. L. Chaotic dynamical systems. Addison-Wesley, 1989.

[6] Driver, R.D. Ordinary and Delay Differential Equation. App. Math. Sc. vol.20,
Springer-Verlag, 1977.

[7] Daleckii, Ju, Krein, M.G. Stability of Solutions of Differential Equations in Banach
Spaces. Trans. A.M.S., vol. 43, 1974.

[8] Dieudonné, J. Abrégé d’histoire des Mathématiques 1770-1900, Vol. II, Herman,
1978.

[9] De Guzmán, M. Ecuaciones Diferenciales Ordinarias. Teorı́a de Estabilidad y Con-


trol. Ed. Alhambra , Madrid, 1975.

[10] Hönig, Ch. S. Aplicações de Topologia à análise. IMPA, Projeto Euclide, Rio-
Janeiro, 1976.

[11] Hale, J.K. Ordinary Differential Equations. John Wiley Interscience 1969.

[12] Hirsch, M. , Smale, S. Differential Equations, Dynamical Systems and Linear Al-
gebra. Academic Press 1974.

[13] Lancaster, P. Theory of Matrices. Acad. Press, 1969.

[14] Lakshmikantham, V. , Leela, S. Differential and Integral Inequalities. vol. I y II.


Acad. Press, 1969.

117
118 Bibliografı́a

[15] Milnor, J. Analytic Proofs of the Hairy ball theorem and the Brouwer fixed point
theorem. Am. Math. Monthly, vol. 85, p.p.521-524, 1978.

[16] Piccini,L.C., Stampacchia, G., Vidossich, G. Ordinary Differential Equations in


IRn , problems and methods. App. Math. Sc. vol. 39, Springer Verlag, 1984.

[17] Palis J., Del Melo, W. Introdução aos Sistemas Dinâmicos. Projeto Euclides, Rio
Janeiro, 1977.

[18] Perko, L. Differential equations and dynamical systems. Springer Verlag, Texts in
App. Math. 7, 1991.

[19] Robinson, C. Dynamical systems. Stability, symbolic dynamics, and chaos. CRC
Press, 1999.

[20] Rouche N, Habets P, Laloy M. Stability Theory by Liapunov’s Direct Method.


App. Math. Sc. vol.22, Springer-Verlag, 1977.

[21] Rogers, C. A Less Stronge Version of Minor’s proof of Brouwer’s Fixed Point
Theorem. Am. Math. Monthly, vol. 87, p.p.525-5227, 1980.

[22] Smart, D. Fixed Point Theorems. Cambridge Univ. Press, 1974.

[23] Siljak, D.D. Large Scale Dynamic Systems. Stability and Structure. North- Hol-
land, 1978.

[24] Sotomayor, J. Lições de equações diferenciais ordinárias. Projeto Euclides, Rio


Janeiro, 1979.

[25] Wiggins, S. Introduction to applied nonlinear dynamical systems and chaos. Texts
in App. Math. 2, Springer Verlag, 1990.

[26] Yoshizawa, T. Stability Theory and the Existence of Periodic Solutions and Almost
Periodic Solutions. App. Math. Sc. vol.14, Springer- Verlag, 1975.

You might also like