Apuntes de Matem´ aticas Especiales II

Departamento de F´ısica - Universidad Nacional
de La Plata
Carlos Mar´ıa Na´ on, Ra´ ul Rossignoli, Eve Mariel Santangelo
20 de marzo de 2008
2
´
Indice general
I Ecuaciones Diferenciales 5
I.1. Ecuaciones Diferenciales Ordinarias . . . . . . . . . . . . . . . . . . . . 9
I.1.1. Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I.1.2. Ecuaciones diferenciales ordinarias de primer orden. Algunos ca-
sos de f´ acil resoluci´ on . . . . . . . . . . . . . . . . . . . . . . . 11
I.2. Problemas de condiciones iniciales . . . . . . . . . . . . . . . . . . . . . 21
I.2.1. Teorema de existencia y unicidad de Picard para problemas de
valores iniciales . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
I.2.2. Sistemas de ecuaciones lineales de primer orden . . . . . . . . . 27
I.2.3. Caso particular: sistemas lineales con coeficientes constantes . . 34
I.2.4. Evaluaci´ on de la soluci´ on fundamental en el caso general . . . . 35
I.2.5. Breve introducci´ on a Teor´ıa de Distribuciones. . . . . . . . . . . 43
I.2.6. Matriz de Green como distribuci´ on. . . . . . . . . . . . . . . . . 49
I.2.7. Funci´ on de Green para ecuaciones lineales de orden n . . . . . . 50
I.3. Problemas con condiciones de contorno: el problema de Sturm-Liouville . 58
I.3.1. Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
I.3.2. Tipos de condiciones de contorno . . . . . . . . . . . . . . . . . 59
I.3.3. Car´ acter autoadjunto del operador . . . . . . . . . . . . . . . . . 60
I.3.4. Funci´ on de Green para condiciones de Cauchy. Soluci´ on del prob-
lema inhomog´ eneo . . . . . . . . . . . . . . . . . . . . . . . . . 62
I.3.5. Resoluci´ on de ecuaciones lineales homog´ eneas por series de po-
tencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
I.3.6. Autovalores y Autofunciones de L . . . . . . . . . . . . . . . . 72
I.4. Serie de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
I.4.1. Coeficientes de Fourier . . . . . . . . . . . . . . . . . . . . . . . 83
I.4.2. Teoremas de Fourier sobre convergencia . . . . . . . . . . . . . . 84
I.4.3. Forma compleja del desarrollo . . . . . . . . . . . . . . . . . . . 88
I.4.4. Serie de Fourier para otros intervalos . . . . . . . . . . . . . . . 89
I.4.5. Desarrollos de medio rango. Series de senos y de cosenos . . . . 89
I.5. Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 94
I.6. Funciones especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
I.7. Bibliograf´ıa correspondiente al Cap´ıtulo I . . . . . . . . . . . . . . . . . 94
3
´
INDICE GENERAL
´
INDICE GENERAL
II Ecuaciones Diferenciales en Derivadas Parciales 95
III Probabilidades y Estad´ıstica 97
IV Ap´ endice 99
IV.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4
Parte I
Ecuaciones Diferenciales
5
Al estudiar fen´ omenos f´ısicos, en general, se encuentran leyes que no vinculan entre
s´ı a las magnitudes que caracterizan el fen´ omeno, sino que involucran relaciones entre
esas magnitudes y sus derivadas. As´ı, se obtienen ecuaciones que contienen a la fun-
ci´ on inc´ ognita (escalar o vectorial) bajo el signo de derivada. Tales ecuaciones se llaman
ecuaciones diferenciales, y su estudio ser´ a el objetivo de las dos primeras partes de estos
apuntes.
Por ejemplo:
Ley de desintegraci´ on radiactiva
dN(t)
dt
= −kN(t) . (1)
Segunda ley de Newton para una part´ıcula de masa constante (observar que, debido
al car´ acter vectorial de la inc´ ognita, ´ este es, en realidad, un sistema de tres ecuaciones
acopladas)
m
d
2
r
dt
2
=

F(t, r,
dr
dt
) . (2)
Ecuaci´ on de Laplace para el potencial electrost´ atico en ausencia de cargas
∆ϕ(x, y, z) =

2
ϕ
∂x
2
+

2
ϕ
∂y
2
+

2
ϕ
∂z
2
= 0 . (3)
Definici´ on I.0.1 Una ecuaci´ on en la cual la funci´ on inc´ ognita aparece bajo el signo de
derivada se llama ecuaci´ on diferencial (e.d.).
Definici´ on I.0.2 Si, en la e.d., la funci´ on inc´ ognita es funci´ on de una sola variable, la
e.d. se llama ecuaci´ on diferencial ordinaria (como ocurre en (1) y (2)). Si, en cambio, la
funci´ on inc´ ognita es funci´ on de dos o m´ as variables, la e.d. se llama ecuaci´ on diferencial
en derivadas parciales (como ocurre en (3)).
En general, en F´ısica, el estudio de sistemas con n´ umero finito de grados de libertad
conduce a ecuaciones diferenciales ordinarias, mientras que el estudio de medios contin-
uos conduce a ecuaciones diferenciales en derivadas parciales.
7
Definici´ on I.0.3 Se llama orden de una e.d. al orden de la derivada de mayor orden de
la funci´ on inc´ ognita que figura en la ecuaci´ on (por ejemplo, (1) es de orden uno, o de
primer orden, mientras que (2) y (3) son de orden dos, o de segundo orden).
La determinaci´ on de la funci´ on inc´ ognita es el problema fundamental que ataca la
teor´ıa de ecuaciones diferenciales.
Definici´ on I.0.4 Se llama soluci´ on de una e.d. a una funci´ on que, sustituida en la e.d., la
satisface.
Por ejemplo, N(t) = Ce
−kt
, con C constante arbitraria, es soluci´ on de 1. En efecto,
dN(t)
dt
= −Cke
−kt
= −kN(t)
La constante arbitraria C queda determinada si se conoce N a un dado tiempo. Por
ejemplo, si
N(0) = N
0
, (4)
resulta C = N
0
, y se tiene N(t) = N
0
e
−kt
.
La ecuaci´ on (1) y la condici´ on inicial (4) constituyen un problema de condiciones
iniciales.
Definici´ on I.0.5 El proceso de determinaci´ on de las soluciones de una e.d. se llama res-
oluci´ on o integraci´ on de la ecuaci´ on.
Tal proceso puede ser simple, como en el caso anterior pero, en general, se hace
necesario utilizar m´ etodos aproximados, que suelen conducir a una integraci´ on num´ erica.
Otras veces, puede interesarnos conocer s´ olo ciertas propiedades de las soluciones, como
su comportamiento frente a peque˜ nas variaciones de las condiciones iniciales (problemas
de estabilidad) o adquirir una idea gr´ afica de su comportamiento, graficando campos de
derivadas o curvas equipotenciales (ver ejercicios en la gu´ıa de trabajos pr´ acticos).
La resoluci´ on de una e.d. de orden n requiere n integraciones, con la consiguiente
aparici´ on de n constantes de integraci´ on. Surge, entonces, la siguiente definici´ on:
Definici´ on I.0.6 Una soluci´ on en que una o m´ as de esas n constantes toman un valor
particular se llama soluci´ on particular de la e.d.. La soluci´ on con las n constantes inde-
terminadas se llama soluci´ on general de la e.d..
8
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
I.1. Ecuaciones Diferenciales Ordinarias
I.1.1. Generalidades
Una ecuaci´ on diferencial ordinaria de orden n puede escribirse en la forma general
F(t, u,
du
dt
, . . . ,
d
n
u
dt
n
) = 0 , (5)
donde la inc´ ognita es la funci´ on u(t).
Definici´ on I.1.1 La ecuaci´ on se llama homog´ enea de grado p si, al multiplicar u(t) y
todas sus derivadas por un par´ ametro λ, se tiene:
F(t, λu, λ
du
dt
, . . . , λ
d
n
u
dt
n
) = λ
p
F(t, u,
du
dt
, . . . ,
d
n
u
dt
n
) , (6)
con p arbitrario (es decir, si F es una funci´ on homog´ enea de grado p en la inc´ ognita y
todas sus derivadas).
Definici´ on I.1.2 Una ecuaci´ on diferencial ordinaria es lineal si, en la ecuaci´ on (5), F es
una funci´ on lineal de la funci´ on inc´ ognita y sus derivadas (aunque no necesariamente de
la variable independiente).
Un ejemplo es la ecuaci´ on (1). El sistema de ecuaciones acopladas (2) ser´ a lineal s´ olo
cuando

F sea una funci´ on lineal de r y
dr
dt
.
Para u escalar, la forma m´ as general de la ecuaci´ on diferencial ordinaria lineal es
a
n
(t)
d
n
u
dt
n
+ a
n−1
(t)
d
n−1
u
dt
n−1
+ . . . + a
0
(t)u = f(t), a
n
(t) / ≡ 0 . (7)
La ec. (7) suele escribirse en la forma
L[u] = f(t), L =
n
¸
m=0
a
m
(t)
d
m
dt
m
,
donde Les un operador diferencial lineal: si c
1
y c
2
son constantes y u
1
(t), u
2
(t) funciones
n veces derivables,
L[c
1
u
1
(t) + c
2
u
2
(t)] = c
1
L[u
1
(t)] + c
2
L[u
2
(t)] (8)
∀ c
1
, c
2
, u
1
(t), u
2
(t). Esta propiedad define la linealidad.
De acuerdo con nuestra definici´ on I.1.1, (7) resultar´ a homog´ enea sii f(t) = 0. Si lo
es, ser´ a homog´ enea de grado uno. Si f(t) = 0 la ecuaci´ on lineal ser´ a inhomog´ enea.
9
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
Para ecuaciones diferenciales ordinarias lineales de cualquier orden vale el impor-
tant´ısimo resultado siguiente, que demostraremos m´ as adelante (cuando estudiemos sis-
temas de ecuaciones lineales de primer orden)
Principio de superposici´ on
Si u
1
y u
2
son dos soluciones de la ec. homog´ enea (es decir, L[u
1
] = L[u
2
] = 0) ⇒
u(t) = c
1
u
1
(t) + c
2
u
2
(t) es tambi´ en soluci´ on de la ec. homog´ enea ∀ c
1
, c
2
, debido a (8)
y es f´ acil ver que las soluciones de la homog´ enea constituyen un espacio vectorial, por
ejemplo, sobre el cuerpo de los reales.
M´ as exactamente, se tiene:
a) Una e.d. ordinaria lineal homog´ enea de orden n tiene n soluciones particulares
linealmente independientes.
b) La soluci´ on general de la homog´ enea es combinaci´ on lineal de esas n soluciones
particulares.
Resumiendo: las soluciones de una ecuaci´ on ordinaria lineal y homog´ enea de orden
n constituyen un espacio vectorial de dimensi´ on n. Para la demostraci´ on, ver la secci´ on
I.2.2.
Como consecuencia del Principio de superposici´ on, resulta el siguiente corolario:
Corolario I.1.3 La soluci´ on general de la ecuaci´ on lineal inhomog´ enea (176) est´ a dada
por la suma de la soluci´ on general de la correspondiente ecuaci´ on homog´ enea m´ as una
soluci´ on particular de la inhomog´ enea.
Demostraci´ on:
Sea u
p
(t) soluci´ on particular de la inhomog´ enea. Seg´ un el principio de superposici´ on,
la soluci´ on general de la homog´ enea es u
h
(t) =
¸
n
i=1
c
i
u
ih
(t), donde u
ih
(t), con i =
1, ..., n son n soluciones particulares de la ecuaci´ on homog´ enea.
Consideremos u(t) = u
p
(t) + u
h
(t). Usando la linealidad del operador L se tiene:
L[u(t)] = L[u
p
(t) + u
h
(t)] = L[u
p
(t)] + L[u
h
(t)]
= L[u
p
(t)] +
n
¸
i=1
c
i
L[u
ih
(t)] = f(t) + 0 = f(t) . (9)
Por lo tanto, u(t) es soluci´ on de la ecuaci´ on inhomog´ enea. Como tiene n constantes
indeterminadas es, en efecto, la soluci´ on general de la ecuaci´ on inhomog´ enea.
10
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
I.1.2. Ecuaciones diferenciales ordinarias de primer orden. Algunos
casos de f´ acil resoluci´ on
Consideremos ahora ecuaciones de la forma
du
dt
= f(t, u) . (10)
Una ec. diferencial ordinaria de primer orden puede siempre reducirse a esta forma tras
resolver la ecuaci´ on original respecto a la derivada. Veremos m´ as adelante un importante
teorema, debido a Picard, de existencia y unicidad de la soluci´ on para las ecuaciones
del tipo (10). Pero primero repasaremos algunos m´ etodos elementales de resoluci´ on para
casos particulares, que permitir´ an apreciar varias propiedades generales.
Ecuaciones con variables separadas (o separables)
1) Ecuaciones con variables separadas
Si f(t, u) no depende de u, (10) se reduce a
du
dt
= f(t) , (11)
cuya soluci´ on general es (si f(t) es integrable)
u(t) =

f(t)dt + c . (12)
La constante c se denomina constante de integraci´ on, y puede determinarse conociendo
el valor de u en un cierto tiempo t
0
(es decir, el valor inicial): Si u(t
0
) = u
0

u(t) =

t
t
0
f(t

)dt

+ u
0
. (13)
2) Ecuaciones con variables separables
Cuando f(t, u) = h(t)g(u), la ec. (10) se convierte en
du
dt
= h(t)g(u) . (14)
Esta ec. puede reescribirse, para g(u) = 0, como
du
g(u)
= h(t)dt , (15)
cuya soluci´ on general es

du
g(u)
=

h(t)dt + c . (16)
11
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
Esta ecuaci´ on, del tipo φ(t, u) = c, determina impl´ıcitamente la soluci´ on u(t). La soluci´ on
particular para u(t
0
) = u
0
, con g(u
0
) = 0, est´ a dada por

u
u
0
du

g(u

)
=

t
t
0
h(t

)dt

. (17)
Para g(u) = 1 se obtiene, por supuesto, la ec. (13). Si, adem´ as, existen ra´ıces u
r
t.q.
g(u
r
) = 0, a la soluci´ on (16) se deben agregar tambi´ en las soluciones constantes
u(t) = u
r
, con g(u
r
) = 0 ,
que no necesariamente se obtienen de (16) o (17), pero que son obviamente soluci´ on de
(14).
Ejemplo 1: Ecuaci´ on de Clausius-Clapeyron para la presi´ on de vaporizaci´ on en fun-
ci´ on de la temperatura
Consideremos la ecuaci´ on
dP(T)
dT
=
lP
RT
2
,
para P > 0 y T > 0, donde l es el calor latente y R la constante de Rayleigh. La
ecuaci´ on puede reescribirse
dP
P
=
l dT
RT
2
.
Se integra f´ acilmente, con el resultado
log |P| = log P =
−l
RT
+ log C ,
con C > 0; de aqu´ı resulta
P(T) = C e
−l
RT
.
Si no determinamos C tendremos una familia de soluciones. C queda determinada si
se conoce P a una dada temperatura (por ejemplo, si se conoce la presi´ on de vaporizaci´ on
a temperatura ambiente P(T
0
) = P
0
), resulta C = P
0
e
l
RT
0
y, por lo tanto,
P(T) = P
0
e
−l
RT
(
1
T

1
T
0
)
.
Observar: el caso en que f(t, u) no depende de t corresponde a h(t) = 1 en (14).
El segundo miembro de (17) se reduce, entonces, a t − t
0
, y la soluci´ on u(t) depender´ a,
pues, s´ olo de la diferencia t − t
0
. Eso refleja la invarianza, en este caso, de la ecuaci´ on
(14) frente a traslaciones temporales. El que sigue es un ejemplo de este caso.
Ejemplo 2: Consideremos la ec. (1)
12
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
dN(t)
dt
= −kN(t)
En este caso, si N(t) = 0
dN
N
= −kdt ,
lo que conduce a

dN
N
= ln |N| = −

kdt + c = −kt + c
o sea,
N(t) = c

e
−kt
,
donde c

= ±e
c
se determina de la condici´ on inicial. Si N(t
0
) = N
0
⇒c

= N
0
e
λt
0
y
N(t) = N
0
e
−k(t−t
0
)
.
Obtenemos as´ı la conocida f´ ormula para el decaimiento radiactivo, si k > 0, y para el cre-
cimiento exponencial de una poblaci´ on, si k < 0. Si bien la deducci´ on anterior es v´ alida
para N(t) = 0 (o sea, N
0
= 0), para N
0
= 0 se recupera la soluci´ on constante de (1),
N(t) = 0 ∀ t, que corresponde a c

= 0 (c →−∞).
Ejemplo 3:
dN
dt
= −λN
2
.
Procediendo en la forma anterior obtenemos

1
N
= −λt + c, o sea, para t = t
c
=
c
λ
N(t) =
1
λt −c
. (18)
Si N(t
0
) = N
0
⇒c = λt
0
−N
−1
0
y
N(t) =
N
0
1 +N
0
λt

, t

= t −t
0
. (19)
Existe, adem´ as, la soluci´ on trivial N(t) = 0 ∀ t, la cual no es en principio un caso particu-
lar de (18), aunque puede obtenerse de (19) para N
0
= 0 (c →±∞). Para N
0
> 0 y λ > 0,
obtenemos un decrecimiento mucho m´ as lento (N(t) = O(λt

)
−1
para t

≫(N
0
λ)
−1
) que
en el ej. 1 pues, a medida que N disminuye, dN/dt disminuye m´ as r´ apidamente que en el
otro caso.
Es muy interesante considerar ahora λ < 0. En lugar de un crecimiento exponen-
cial, obtenemos un crecimiento “explosivo”, que diverge para t

→ t
c
= (|λ|N
0
)
−1
, lo
que refleja el hecho de que al crecer N,
dN
dt
aumenta, en este caso, muy r´ apidamente.
Matem´ aticamente, este ejemplo muestra que a´ un cuando f(t, u) sea una funci´ on continua
y derivable, por ejemplo tan simple como u
2
, no necesariamente existe una soluci´ on con-
tinua de (10) para todo t > t
0
. Veremos luego esto con mayor detalle. Obs´ ervese tambi´ en
13
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
que, frente a peque˜ nos cambios en la condici´ on inicial N
0
, la soluci´ on N(t) variar´ a fuerte-
mente para t pr´ oximo a t
c
.
2’) Ecuaciones que se reducen a variables separables.
En algunos casos es posible reducir la ecuaci´ on diferencial a una ecuaci´ on del tipo
(14) mediante un cambio de variables sencillo. Por ejemplo, si
du
dt
= f(au + bt) , (20)
reemplazando z = au + bt, obtenemos
dz
dt
= a
du
dt
+ b = af(z) + b ,
que es de la forma (14). Por lo tanto, si af(z) + b = 0,

dz
af(z) + b
= t + c ,
que determina z(t) y u(t) = (z(t) − bt)/a. Si ∃ z
0
t.q. af(z
0
) + b = 0, debemos agregar
las soluciones z = z
0
, o sea u(t) = (z
0
−bt)/a.
An´ alogamente, si
du
dt
= f(u/t) , (21)
reemplazando z = u/t obtenemos
dz
dt
=
1
t
du
dt

u
t
2
= (f(z) −z)
1
t
,
que es nuevamente de la forma (14). Por lo tanto,

dz
f(z) −z
=

dt
t
= ln |t| + c , (22)
que determina z(t) y u(t) = tz(t). Si ∃ z
0
t.q. f(z
0
) = z
0
, se deben agregar las soluciones
z = z
0
, o sea, u(t) = z
0
t. La ec. (21) se denomina, a veces, ec. diferencial homog´ enea
de primer orden (atenci´ on: eso puede conducir a confusiones con la definici´ on general
I.1.1), y su soluci´ on (22) es de la forma F(u/t) = c

t, con F(z) = e

dz/(f(z)−z)
. Si u(t)
es soluci´ on, w(t) = u(λt)/λ es tambi´ en soluci´ on si λ = 0.
14
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
Ecuaciones que son o pueden transformarse en diferenciales totales. Factor inte-
grante
3) Diferenciales totales
Dada
du
dt
= −
f(t, u)
g(t, u)
, (23)
con g(t, u) = 0, podemos reescribir esta ecuaci´ on como
g(t, u)du + f(t, u)dt = 0 . (24)
Si se cumple que
∂g(t, u)
∂t
=
∂f(t, u)
∂u
, (25)
⇒∃ φ(t, u) t.q.
∂φ
∂u
= g(t, u),
∂φ
∂t
= f(t, u) (26)
y podemos reescribir (24) como la diferencial total
dφ = g(t, u)du + f(t, u)dt = 0 .
Las soluciones u(t) de (23) quedan entonces determinadas impl´ıcitamente por la ecuaci´ on
φ(t, u) = c , (27)
con c constante. Si u(t
0
) = u
0
⇒c = φ(t
0
, u
0
) y la soluci´ on particular queda determinada
por
φ(t, u) = φ(t
0
, u
0
) . (28)
La condici´ on (25) es necesaria y suficiente para que el primer miembro de (24) sea la
diferencial total de una funci´ on φ. Esta puede obtenerse como la integral de l´ınea
φ(t, u) =

(t,u)
(t
0
,u
0
)
[g(t

, u

)du

+ f(t

, u

)dt

] + φ
0
(29)
a lo largo de cualquier curva que vaya desde (t
0
, u
0
) a (t, u) (dentro de una regi´ on simple-
mente conexa donde f y g est´ en definidas), con φ
0
= φ(t
0
, u
0
) una constante arbitraria.
Por ejemplo, eligiendo dos segmentos paralelos a los ejes coordenados,
φ(t, u) =

u
u
0
g(t
0
, u

)du

+

t
t
0
f(t

, u)dt

+ φ
0
. (30)
15
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
Equivalentemente, puede integrarse
∂φ
∂u
= g(t, u) = para obtener
φ(t, u) =

g(t, u)du + c(t)
y determinar c

(t) a partir de
∂φ
∂t
=

∂t

g(t, u) du + c

(t) = f(t).
Una vez determinada c

(t) puede obtenerse c(t) por integraci´ on, a menos de una con-
stante, que quedar´ a determinada por la condici´ on inicial.
Notemos que la soluci´ on (16) para variables separables corresponde a φ(t, u) =

du
g(u)

f(t)dt.
Ejemplo:
du
dt
= −
2t + u
2u + t
(31)
En este caso g(t, u) = 2u + t, f(t, u) = 2t + u, con
∂f
∂u
=
∂g
∂t
= 1. Podemos, entonces,
escribir (31) como
dφ = (2u + t)du + (2t + u)dt = 0 ,
con
φ(t, u) =

u
u
0
(2u

+ t
0
)du

+

t
t
0
(2t

+ u)dt

+ φ
0
= u
2
+ ut + t
2
−(u
2
0
+ u
0
t
0
+ t
2
0
) + φ
0
.
Las soluci´ on u(t) queda entonces determinada por
u
2
+ ut + t
2
= c , (32)
o sea, u(t) = −
1
2
(t ±

4c −3t
2
), con c = u
2
0
+ u
0
t
0
+ t
2
0
y el signo determinado por
u(t
0
) = u
0
. La soluci´ on s´ olo est´ a definida para t ∈ [−t
c
, t
c
], con t
c
= 2

c/3, anul´ andose
el denominador de (31) para t = ±t
c
(u(±t
c
) = ∓t
c
/2). La gr´ afica de u(t) es la parte
superior o inferior de una elipse con centro en el origen, rotada 45
o
.
Notemos que la ec. (31) es de la forma (21), con f(z) = −(2 + z)/(2z + 1). Puede
comprobar el lector que (22) conduce a la soluci´ on (32).
3’) Factor integrante.
Si la ecuaci´ on (25) no se verifica, es a´ un posible convertir la ecuaci´ on (24) en una
diferencial exacta multiplicando a la misma por una funci´ on µ(t, u), llamada factor inte-
grante:
dφ = µ(t, u)g(t, u)du + µ(t, u)f(t, u)dt = 0 , (33)
16
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
con
∂(µg)
∂t
=
∂(µf)
∂u
. (34)
Desarrollando la ecuaci´ on anterior se obtiene
∂g
∂t

∂f
∂u
= µ
−1
[f
∂µ
∂u
−g
∂µ
∂t
]
= f
∂ ln |µ|
∂u
−g
∂ ln |µ|
∂t
, (35)
la cual es una ec. en derivadas parciales para µ(t, u), que puede ser tan dif´ıcil de resolver
como la ecuaci´ on original ( puede demostrarse que si las derivadas de f y g son continuas
y, por lo menos, f (´ o g) es no nula, la ecuaci´ on anterior posee siempre una soluci´ on no
nula). Sin embargo, en algunos casos, su resoluci´ on es sencilla. Por ejemplo, si µ(t, u) es
funci´ on de t solamente, obtenemos
∂ ln |µ|
∂t
= [
∂f
∂u

∂g
∂t
]/g ,
lo cual es factible s´ olo si el segundo miembro es funci´ on de t ´ unicamente. En tal caso,
µ(t) = c exp
¸

∂f
∂u

∂g
∂t
g
dt
¸
. (36)
Podemos fijar c = 1, ya que la constante que multiplica a µ es irrelevante. En forma
similar pueden considerarse factores integrantes que sean funciones de u, o en general,
de alguna funci´ on de u y t. Una vez obtenido µ se procede como en el ´ıtem anterior para
hallar φ(t, u).
Ejemplo:
du
dt
= −
u
2
+ u(t + 1) +t(t + 2)
2u + t
.
En este caso,
∂f
∂u
= 2u + t + 1 =
∂g
∂t
= 1. No obstante, [
∂f
∂u

∂g
∂t
]/g = 1 y, por lo tanto,
µ(t) = e

dt
= e
t
,
verific´ andose
∂(e
t
f)
∂u
=
∂(e
t
g)
∂t
= e
t
(2u + t + 1). Obtenemos, para este caso,
dφ = e
t
[(2u + t)du + (u
2
+ u(t + 1) +t(t + 2))dt] = 0 ,
con φ(t, u) = e
t
(u
2
+ ut + t
2
). La soluci´ on est´ a, entonces, determinada por
(u
2
+ ut + t
2
)e
t
= c ,
o sea, u = −
1
2
(t ±

4ce
−t
−3t
2
), con c = φ(u
0
, t
0
) > 0. La ec. φ(t, u) = c origina una
curva abierta si c > c
c
≈ 0,41 y una curva cerrada m´ as una abierta si c < c
c
, estando las
abscisas extremas de las mismas determinadas por la condici´ on 3t
2
≤ 4ce
−t
.
17
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
Ecuaciones que son o pueden reducirse a ecuaciones lineales
4) Ecuaci´ on general lineal de primer orden. M´ etodo de variaci´ on de la constante
Corresponde al caso en que f(t, u) en (10) es una funci´ on lineal de u:
du
dt
= a(t) + b(t)u . (37)
Podemos escribir (37) en la forma
L[u] = a(t), L =
d
dt
−b(t) , (38)
donde L es un operador lineal.
Consideremos primero a(t) = 0. En tal caso, la ec. (37) es homog´ enea y de variables
separables:
du
u
= b(t)dt

,
de donde ln|u(t)| =

b(t)dt + c

, y
u(t) = ce

b(t)dt
. (39)
Si u(t
0
) = u
0

u(t) = u
0
e

t
t
0
b(t

)dt

(40)
Si a(t) = 0, podemos intentar una soluci´ on del tipo (39), pero con c una funci´ on de t a
determinar:
u = u
h
(t)c(t), u
h
(t) = e

b(t)dt
. (41)
Este procedimiento se denomina variaci´ on de par´ ametros, o de constantes. Se obtiene,
notando que L[u
h
(t)] = 0,
L[u] = L[u
h
(t)]c(t) + u
h
(t)
dc
dt
= u
h
(t)
dc
dt
= a(t) .
Por lo tanto,
c(t) =

a(t)
u
h
(t)
dt + c

y, reemplazando en (41),
u(t) = u
h
(t)[c

+

a(t)
u
h
(t)
dt]
= e

b(t)dt
[c

+

e

b(t)dt
a(t)dt] . (42)
18
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
La soluci´ on general es, pues, una soluci´ on de la ecuaci´ o homog´ enea (u
h
(t)c

), m´ as una
soluci´ on particular de la inhomog´ enea. La soluci´ on particular para u(t
0
) = u
0
es
u(t) = e

t
t
0
b(t

)dt

[u
0
+

t
t
0
e

t

t
0
b(t
′′
)dt
′′
a(t

)dt

]
= K(t, t
0
)u
0
+

t
t
0
K(t, t

)a(t

)dt

, (43)
donde K(t
2
, t
1
) = e

t
2
t
1
b(t)dt
= u
h
(t
2
)/u
h
(t
1
). Obs´ ervese, en este punto, que K(t, t) = 1.
La ec. (42) puede tambi´ en obtenerse por el m´ etodo del factor integrante. En este caso
f = −[a(t) + b(t)u], g = 1 y (
∂f
∂u

∂g
∂t
)/g = −b(t) es funci´ on de t, por lo que µ puede
obtenerse de (36): µ(t) = ce

b(t)dt
. Finalmente,
φ(t, u) = µ(t)u −

µ(t)a(t)dt .
La ec. φ(t, u) = c conduce a (42).
Ejemplo: La velocidad de una part´ıcula de masa m en un medio viscoso, sometida a
una fuerza F(t), satisface la ecuaci´ on
dv
dt
= −λv + f(t) ,
con λ = c/m > 0, f(t) = F(t)/m. La soluci´ on general es
v(t) = e
−λt
[c

+

e
λt
f(t)dt]
y la soluci´ on para v(t
0
) = v
0
puede escribirse como
v(t) = v
0
e
−λ(t−t
0
)
+

t
t
0
e
−λ(t−t

)
f(t

)dt

,
que corresponde a K(t
2
, t
1
) = e
−λ(t
2
−t
1
)
. Si
f(t) =

0 t < 0 o t > t
c
f
0
0 ≤ t ≤ t
c
se obtiene, para t
0
= 0, v
0
= 0,
v(t) =

0 t < 0
(f
0
/λ)(1 −e
−λt
) 0 ≤ t ≤ t
c
(f
0
/λ)(1 −e
−λtc
)e
−λ(t−tc)
t > t
c
.
La soluci´ on para t > t
c
es equivalente a la soluci´ on de la ec. homog´ enea para t
0
= t
c
y
v(t
c
) = (f
0
/λ)(1 −e
−λtc
). Si f
0
→∞y t
c
→0, con f
0
t
c
→A (finito) ⇒v(t
c
) →A.
19
I.1 ECUACIONES DIFERENCIALES ORDINARIAS
Notemos tambi´ en que si f(t) = f
0
∀t > 0 (t
c
→ ∞), v(t) = (f
0
/λ)(1 − e
−λt
) ∀t > 0,
con v(t) →f
0
/λ (velocidad l´ımite) para t →∞.
La corriente I de un circuito el´ ectrico con autoinducci´ on L, resistencia R y tensi´ on
V (t) est´ a descripta por una ec. similar:
L
dI
dt
+ IR = V (t) .
La soluci´ on para I(0) = I
0
y L, T constantes, es
I(t) = I
0
e
−Rt/L
+

t
0
e
−R(t−t

)/L
V (t

)dt

.
4’) Ecuaciones reducibles a lineales.
Algunas ecuaciones pueden ser reducidas a ecuaciones lineales mediante un sencillo
cambio de variables. Un conocido ejemplo es la ecuaci´ on de Bernoulli,
du
dt
= a(t)u
n
+ b(t)u, n = 1 .
Sustituyendo z = u
1−n
, obtenemos
n
dz
dt
= (1 −n)u
−n
du
dt
= (1 −n)u
−n
[a(t)u
n
+ b(t)u]
= (1 −n)[a(t) + b(t)z] ,
que es una ec. lineal en z.
En general, si u = g(z), con g invertible, y z satisface la ecuaci´ on lineal dz/dt =
a(t) + b(t)z, obtenemos para u la ecuaci´ on no lineal
du
dt
= g

(z)
dz
dt
= g

(g
−1
(u))[a(t) + b(t)g
−1
(u)] ,
que posee la soluci´ on u(t) = g(z(t)), con z(t) la soluci´ on de la ecuaci´ on lineal. Por ej., si
u = z
1/(1−n)
,
du
dt
=
1
1−n
[a(t)u
n
+ b(t)u], que es la ecuaci´ on de Bernoulli. An´ alogamente,
si u = e
z
,
du
dt
= a(t)u + b(t)u lnu ,
cuya soluci´ on es e
z(t)
mientras que, si u = ln z,
du
dt
= a(t)e
−u
+ b(t) ,
cuya soluci´ on es ln z(t).
20
I.2 PROBLEMAS DE CONDICIONES INICIALES
I.2. Problemas de condiciones iniciales
I.2.1. Teorema de existencia y unicidad de Picard para problemas de
valores iniciales
Consideremos la ecuaci´ on diferencial ordinaria de 1
er
orden
du
dt
= f(t, u) , (44)
con la condici´ on inicial u(t
0
) = u
0
. Salvo casos especiales, como los vistos en la clase
anterior, no es posible en general resolver esta ecuaci´ on en forma anal´ıtica. Es necesario,
entonces, recurrir a m´ etodos aproximados, que permiten resolver (44) en forma num´ erica.
Para ello, se necesita primero estar seguro de que efectivamente existe una soluci´ on de
(44) para una determinada f y condici´ on inicial. El siguiente teorema demuestra que
dicha soluci´ on existe y es ´ unica para una clase muy amplia de funciones. A la vez, el
teorema proporciona un m´ etodo de resoluci´ on aproximado de (44) (m´ etodo de Picard),
que resulta ´ util tanto formal como num´ ericamente.
Teorema I.2.1 Si f(t, u) es continua en un rect´ angulo Rdado por |t−t
0
| ≤ a, |u−u
0
| ≤
b, y satisface en R la condici´ on de Lipschitz
|f(t, u
2
) −f(t, u
1
)| ≤ N|u
2
−u
1
| (45)
con N constante, entonces en el intervalo
|t −t
0
| ≤ r, r = Min[a, b/M] (46)
con M el valor m´ aximo de |f| en R, existe una ´ unica soluci´ on u(t) de (44) que satisface
u(t
0
) = u
0
.
La condici´ on |t − t
0
| ≤ r asegura que la soluci´ on no se salga de R. En efecto (ver
figura 2), dado que |f| ≤ M en R, si |t − t
0
| ≤ r, integrando (44) y tomando valor
absoluto, se obtiene
|u(t) −u
0
| = |

t
t
0
f(t

, u(t

))dt

| ≤ |

t
t
0
|f(t

, u(t

))|dt

| ≤ M|t −t
0
| ≤ Mr = b
Observar que, para que se cumpla la condicin de Lipschitz (45), es suficiente que
f
u
=
∂f
∂u
exista y est´ e acotada en R dado que, por el teorema del valor medio, si |f
u
| ≤ N
en R,
|f(t, u
2
) −f(t, u
1
)| = |f
u
(t, ξ)(u
2
−u
1
)| ≤ N|u
2
−u
1
|
con ξ ∈ [u
1
, u
2
].
t
u
t
0
t
0
a t
0
a
u
0
b
u
0
b
u
0
Figura 1: El rect´ angulo R
21
I.2 PROBLEMAS DE CONDICIONES INICIALES
t
u
Α ΠΑ tg ΑM
t
0
t
0
a t
0
a
u
0
b
u
0
b
t
0
t
0
r t
0
r
Figura 2: Definici´ on de r
Demostraci´ on:
Demostraremos primero la existencia de la soluci´ on. La ec. (44) es equivalente a la
ec. integral
u(t) = u
0
+

t
t
0
f(t

, u(t

))dt

(47)
Podemos plantear ahora una secuencia de aproximaciones sucesivas u
0
, u
1
(t), . . . , u
n
(t)
definidas por
u
n
(t) = u
0
+

t
t
0
f(t

, u
n−1
(t

))dt

, n ≥ 1 (48)
con u
0
(t) = u
0
(m´ etodo de Picard). La restricci´ on (46) asegura que u
n
(t) no sale de R
para ning´ un n (o sea, |u
n
(t) − u
0
| ≤ b si |t − t
0
| ≤ r). En efecto, para n = 0 esto
se cumple trivialmente. Asumiendo que se cumple para u
n−1
(t), obtenemos, dado que
|f| ≤ M en R,
|u
n
(t)−u
0
| ≤

t
t
0
|f(t

, u
n−1
(t

))|dt

≤ M|t−t
0
| ≤ b (49)
para |t −t
0
| ≤ r.
Probaremos ahora que la sucesi´ on (48) converge. Si n ≥ 1 y |t −t
0
| ≤ r,
|u
n+1
(t)−u
n
(t)| = |

t
t
0
[f(t

, u
n
(t

))−f(t

, u
n−1
(t

))]dt

|
≤ |

t
t
0
|f(t

, u
n
(t

)) −f(t

, u
n−1
(t

))|dt

|
≤ N|

t
t
0
|u
n
(t

)−u
n−1
(t

)|dt

| (50)
Para n = 1, (49) implica que
|u
1
(t) −u
0
| ≤ M|t −t
0
|
22
I.2 PROBLEMAS DE CONDICIONES INICIALES
Por lo tanto, (50) conduce a
|u
2
(t) −u
1
(t)| ≤ NM|

t
t
0
|t

−t
0
|dt| = MN
|t −t
0
|
2
2
y para n general, a
|u
n
(t)−u
n−1
(t)| ≤
MN
n−1
|t−t
0
|
n
n!
(51)
(asumiendo (51) como v´ alido, |u
n+1
(t)−u
n
(t)| ≤ MN
n
|

t
t
0
|t

−t
0
|
n
n!
dt

| = MN
n
|t−t
0
|
n+1
(n+1)!
).
Por lo tanto, l´ım
n→∞
|u
n+1
(t)−u
n
(t)| = 0. Adem´ as, como
u
n
(t) = u
0
+ (u
1
(t)−u
0
) + . . . + (u
n
(t)−u
n−1
(t))
el l´ımite
u(t) ≡ l´ım
n→∞
u
n
(t) = u
0
+

¸
n=1
(u
n
(t)−u
n−1
(t)) (52)
existe, pues la serie de diferencias es una serie absolutamente convergente:

¸
n=1
|u
n
(t)−u
n−1
(t)| ≤ M

¸
n=1
N
n−1
|t−t
0
|
n
n!
= M
e
N|t−t
0
|
−1
N
La convergencia es tambi´ en uniforme por el criterio de Weierstrass (si |f
n
(t)| ≤ M
n
∀ t ∈ I = [t
1
, t
2
] y
¸

n=1
M
n
converge ⇒
¸

n=1
f
n
(t) converge uniformemente sobre I a una
funci´ on f(t); recordemos que la convergencia es uniforme si ∀ ε > 0, ∃ n
0
t.q. si n > n
0
,
|f(t) −f
n
(t)| < ε ∀ t ∈ I).
Por lo tanto, el l´ımite de la integral en (48) es la integral del l´ımite, de modo que
u(t) es soluci´ on de (44). Notemos que u(t) es un punto fijo del operador A[u(t)] = u
0
+

t
t
0
f(t

, u(t

))dt

, (es decir u(t) = A[u(t)]), el cual transforma funciones u(t) contenidas
en R en funciones A[u(t)] tambi´ en contenidas en R si |t −t
0
| ≤ r.
Demostremos ahora la unicidad. Si v(t) es otra soluci´ on de (44) que satisface v(t
0
) =
u
0
, entonces, para |t −t
0
| ≤ r,
|u(t) −v(t)| ≤

t
t
0
|f(t

, u(t

)) −f(t

, v(t

))|dt

≤ N

t
t
0
|u(t

) −v(t

)|dt

≤ KN|t −t
0
|
donde K es el m´ aximo de |u(t) −v(t)| para |t − t
0
| ≤ r. Esto implica |u(t) − v(t)| = 0
para |t −t
0
| ≤ r. En efecto, aplicando la cota anterior para |u(t

) −v(t

)|, obtenemos
|u(t) −v(t)| ≤ KN
2

t
t
0
|t

−t
0
|dt

= KN
2
|t −t
0
|
2
2
23
I.2 PROBLEMAS DE CONDICIONES INICIALES
y repitiendo el procedimiento anterior n veces,
|u(t) −v(t)| ≤ K
(N|t −t
0
|)
n
n!
(53)
que tiende a 0 para n →∞.

Ejemplo 1: Consideremos nuevamente la ecuaci´ on lineal
du
dt
= −λu
Aplicando el m´ etodo de Picard para t
0
= 0, con u(t
0
) = u
0
, obtenemos
u
1
= u
0
−λ

t
0
u
0
dt

= u
0
[1 −λt]
u
2
= u
0
−λ

t
0
u
1
(t

)dt

= u
0
[1 −λt + λ
2
t
2
/2]
y en general, u
n
= u
0
¸
n
m=0
(−λt)
m
m!
, de modo que
u(t) = l´ım
n→∞
u
n
(t) =

¸
n=0
(−λt)
n
n!
= u
0
e
−λt
La serie anterior converge ∀ t, pero la condici´ on (46) proporciona una estimaci´ on muy
conservadora del intervalo de convergencia: Para u
0
> 0, M = |λ|(b + u
0
) y
r = Min[a,
b
|λ|(u
0
+ b)
] ≤
1
|λ|
si a > |λ|
−1
, ya que b/(u
0
+ b) < 1 ∀ b > 0. En general, el intervalo (46) es demasiado
restrictivo y el desarrollo de Picard converge en un intervalo mayor.
Ejemplo 2: Consideremos ahora
du
dt
= −λu
2
con t
0
= 0. Obtenemos
nu
1
= u
0
−λ

t
0
u
2
0
dt

= u
0
(1 −λu
0
t)
u
2
= u
0
−λ

t
0
u
2
1
(t

)dt

= u
0
[1−λu
0
t+(λu
0
t)
2

(λu
0
t)
3
3
]
u
3
= u
0
[
3
¸
n=0
(−λu
0
t)
n
+ R
4
(λu
0
t)]
24
I.2 PROBLEMAS DE CONDICIONES INICIALES
donde R
4
(x) =
1
3
x
4
(2 −x +
1
3
x
2

1
63
x
3
). En general,
u
n
(t) = u
0
[
n
¸
m=0
(−λu
0
t)
n
+ R
n+1
(λu
0
t)]
con R
n+1
(x) = O(x
n+1
). Para n →∞, la soluci´ on converge, para |λu
0
t| < 1, a
u(t) =
u
0
1 +λu
0
t
(54)
que coincide con la soluci´ on (19). Si λ > 0 (con u
0
> 0) la soluci´ on final (54) es v´ alida
∀ t > 0, aunque el desarrollo de Picard converge s´ olo para |t| < |λu
0
|
−1
. En cambio, si
λ < 0 la soluci´ on existe s´ olo para t < |λu
0
|
−1
, que coincide con el radio de convergencia
del desarrollo. Notemos que la condici´ on (46) da en este caso
r = Min[a,
b
|λ|(u
0
+ b)
2
] ≤
1
4|λ|u
0
dado que b/(u
0
+b)
2
<
1
4u
0
, que es nuevamente menor que el radio de convergencia de la
serie.
Otras propiedades
Resulta obvio a partir de (44) que si f(t, u) posee derivadas parciales continuas hasta
orden k en un entorno de (t
0
, u
0
), la soluci´ on u(t) posee derivadas continuas hasta orden
k + 1 en un entorno de t
0
.
Puede probarse tambi´ en que si f depende en forma continua de un par´ ametro λ (o
sea,
du
dt
= f(t, u, λ)) y satisface las condiciones del teorema de unicidad, con N en
(45) independiente de λ ⇒ la soluci´ on u(t, λ) depende en forma continua de λ para
|t − t
0
| ≤ r (lo mismo rige para un conjunto de par´ ametros). En particular, esto impli-
ca que u(t) depender´ a en forma continua de la condici´ on inicial u(t
0
) = u
0
. En efecto,
escribiendo v = u − u
0
, s = t − t
0
, tenemos
dv
ds
= f(s + t
0
, v + u
0
) = g(s, v), con
v(0) = 0, donde los valores iniciales quedan representados por par´ ametros de la fun-
ci´ on g. De todos modos, esto no impide que dos soluciones con condiciones iniciales
cercanas se alejen mucho para valores grandes de |t − t
0
|. Por ejemplo, los sistemas
ca´ oticos son extremadamente sensibles a las condiciones inicales. En los mismos, si dos
soluciones u
1
(t), u
2
(t) difieren inicialmente en una peque˜ na cantidad δu
0
, para tiempos
grandes |u
1
(t) −u
2
(t)| ≈ |δu
0
|e
Λt
, donde Λ > 0 es el llamado exponente de Lyapunov.
Extensi´ on de la soluci´ on: Si bien el teorema demuestra la existencia de soluci´ on para
|t−t
0
| ≤ r, la misma puede en principio extenderse fuera de este intervalo tomando como
nuevos puntos iniciales a t
0
± r. No obstante, como hemos visto no siempre es posible
continuar la soluci´ on indefinidamente. Esto puede deberse a que la soluci´ on se acerca a un
punto donde las condiciones del teorema no se cumplen, o tambi´ en porque la soluci´ on se
aproxima una as´ıntota vertical (l´ım
t→tc
u(t) = ±∞), como ocurre en (54) para λu
0
< 0
(t
c
= |λu
0
|
−1
). Un ejemplo del primer caso es la soluci´ on (108) de la ec. (31), limitada al
intervalo |t| < t
c
=

4c/3. Si t = t
c
, u(t) = −
1
2
t, anul´ andose el denominador de (31).
25
I.2 PROBLEMAS DE CONDICIONES INICIALES
Puntos singulares. Los puntos (t
0
, u
0
) en los que o bien no existe soluci´ on de (44)
o la soluci´ on no es ´ unica, se denominan puntos singulares. Obviamente, en estos puntos
no se satisfacen las condiciones del teorema de unicidad, aunque no todo punto en el que
las mismas no se cumplan es singular. Los condiciones del teorema son suficientes pero
no necesarias. Por ejemplo, puede demostrarse que si f es continua en un entorno de
(t
0
, u
0
), existe siempre una soluci´ on de (44), pero est´ a puede no ser ´ unica si no se cumple
la condici´ on de Lipschitz. La curva formada por los puntos singulares se denomina curva
singular. Una soluci´ on formada enteramente por puntos singulares se denomina soluci´ on
singular.
Ejemplo 1:
du
dt
= q
u
t
, q > 0 (55)
En este caso f(t, u) no es continua en t = 0. Una soluci´ on es u(t) ≡ 0. Si u(t) = 0,
integrando por separaci´ on de variables obtenemos
ln |u| = q ln |t| + c

o sea, si t > 0,
u(t) = ct
q
(56)
Considerando t
0
= 0, vemos que si la condici´ on inicial es u
0
= 0, (56) es soluci´ on de
(55) para para cualquier valor de c (incluyendo c = 0). No existe pues soluci´ on ´ unica,
obteni´ endose una familia de soluciones. Por el contrario, si t
0
= 0 y u
0
= 0, no existe
ninguna soluci´ on. Este tipo de punto singular se denomina nudo.
Si consideramos ahora q < 0 en (55), u(t) no permanece finito para t → 0, excepto
para c = 0. Si t
0
= 0, para u
0
= 0 obtenemos en este caso una ´ unica soluci´ on u(t) = 0,
mientras que si u
0
= 0 no existe soluci´ on.
Ejemplo 2:
du
dt
= λ

u, λ = 0 (57)
Para u → 0
+
, si bien

u es continua, no se cumple la condici´ on de Lipschitz pues
f
u
=
λ
2

u
→ ∞. Los puntos (t, u) = (t, 0) pueden ser pues puntos singulares. Por
separaci´ on de variables, para u > 0 obtenemos la soluci´ on
u(t) =
1
4
t(λt + c)
2
, λt + c > 0 (58)
No obstante, tenemos tambi´ en la soluci´ on trivial
u(t) = 0 (59)
que no se obtiene de (58).
26
I.2 PROBLEMAS DE CONDICIONES INICIALES
Si t
0
= 0 y u
0
> 0, obtenemos como ´ unica soluci´ on
u(t) =
1
4
t(2

u
0
+ λt)
2
, (60)
donde el par´ entesis debe ser positivo. La soluci´ on (60) est´ a definida ∀ t > 0 si λ > 0, pero
s´ olo para t ≤ t
c
= 2

u
0
/|λ| si λ < 0. En este caso, u(t) → 0 para t → t
c
, y no puede
extenderse para t > t
c
. Si λ < 0, la soluci´ on disminuye pues m´ as rapidamente que en el
caso lineal (
du
dt
= λu, con u(t) = u
0
e
−|λ|t
si λ < 0) “apag´ andose” en un tiempo finito.
Consideremos ahora u
0
= 0. La ec. (60) se reduce a
u(t) =
1
4

2
t
2
(61)
Si λ > 0, (61) es soluci´ on de (57) y satisface u(0) = 0, al igual que (59). Por lo tanto,
la soluci´ on no es ´ unica. Lo mismo ocurre obviamente para cualquier valor de t
0
. Los
puntos (0, t) son pues singulares y la soluci´ on trivial (59) es una soluci´ on singular. Por el
contrario, si λ < 0 (61) no es soluci´ on de (57), obteni´ endose como ´ unica soluci´ on, para
u
0
= 0 y t > 0, la soluci´ on trivial (59).
Soluciones aproximadas. Si bien no vamos a tratar el tema de aproximaciones num´ eri-
cas, cabe destacar que existen tambi´ en otras sucesiones u
n
(t) que convergen uniforme-
mente a la soluci´ on u(t), y que pueden por tanto utilizarse para aproximar la soluci´ on.
El m´ as elemental y conocido es el m´ etodo de la “quebrada de Euler”, que consiste en
subdividir el intervalo [t
0
, t
0
+ r] en n subintervalos de longitud h = r/n, y aproximar la
soluci´ on u(t) por segmentos entre los puntos (t
0
, u
0
), (t
1
, u
1
), . . ., (t
n
, u
n
) definidos por
t
i
= t
i−1
+ h, u
i
= u
i−1
+ hf(t
i−1
, u
i−1
), i = 1, . . . , n
que se obtienen de suponer f(t, u(t)) = f(t
i−1
, u
i−1
) (constante) en el intervalo [t
i−1
, t
i
].
Cada segmento es pues tangente a la soluci´ on exacta en (t
i−1
, u
i−1
). Tal aproximaci´ on
puede mostrarse que converge, para h → 0 (o sea, n → ∞) a la soluci´ on exacta u(t) si
se cumplen las condiciones del teorema de existencia. Refinamientos del m´ etodo anterior
conducen a aproximar u(t) por una sucesi´ on de polinomios de grado m entre puntos
(t
i
, u
i
), tales que posean un contacto de orden m con la soluci´ on exacta en dichos puntos
(m´ etodos de St¨ ormer, Runge, etc.). Estos m´ etodos est´ an en la actualidad directamente
incorporados en diversos programas de c´ alculo num´ erico o anal´ıtico, siendo muy sencilla
y r´ apida su utilizaci´ on.
I.2.2. Sistemas de ecuaciones lineales de primer orden
1) Generalizaci´ on del teorema de Picard a sistemas de ecuaciones diferenciales ordi-
narias de primer orden
Consideremos ahora el sistema de ecuaciones acopladas
du
i
dt
= f
i
(t, u
1
, . . . , u
n
), i = 1, . . . , n (62)
27
I.2 PROBLEMAS DE CONDICIONES INICIALES
El teorema de existencia y unicidad se generaliza en forma inmediata a este tipo de sis-
temas. Podemos reescribir (62) en forma concisa como
du
dt
=

f(t, u) (63)
con
u(t) =

¸
¸
¸
¸
¸
u
1
(t)
.
.
.
u
n
(t)

f(t, u) =

¸
¸
¸
¸
¸
f
1
(t, u)
.
.
.
f
n
(t, u)

,
y vale el siguiente teorema:
Teorema I.2.2 Dado el sistema de ecuaciones lineales de primer orden
du
dt
=

f(t, u) (64)
con condici´ on inicial u(t
0
) = u
0
, si existe una regi´ on R definida por |t−t
0
| ≤ a, |u− u
0
| ≤
b, donde se cumplen las condiciones
a) f
i
(t, u) continua en R
b) |

f(t, u
2
) −

f(t, u
1
)| ≤ N| u
2
− u
1
|,
entonces existe una ´ unica soluci´ on u(t) de (67) que satisface u(t
0
) = u
0
, dentro del
intervalo
|t −t
0
| ≤ r = Min[a, b/M]
donde M es el m´ aximo de |

f| en R.
Para que se cumpla la condici´ on de Lipschitz es suficiente que las derivadas parciales
f
ij
=
∂f
i
∂u
j
sean acotadas en R, pues en tal caso, por el teorema del valor medio,
|

f(t, u
2
) −

f(t, u
1
)|
2
=
¸
i
|f
i
(t, u
2
) −f
i
(t, u
1
)|
2
=
¸
i
|
¸
j
f
ij
(t,

ξ
i
)(u
2j
−u
1j
)|
2

¸
i
(
¸
j
N
ij
|u
2j
−u
1j
|)
2
≤ N
2
| u
2
− u
1
|
2
(65)
La demostraci´ on del teorema es exactamente igual al caso de una dimensi´ on. S´ olo se
deben reemplazar f, u y v en (47)–(53) por

f, u y v.

Esta generalizaci´ on es muy poderosa. Por ejemplo, la ec. diferencial ordinaria de or-
den n,
d
n
u
dt
n
= f(t, u,
du
dt
, . . . ,
d
n−1
u
dt
n−1
) (66)
28
I.2 PROBLEMAS DE CONDICIONES INICIALES
puede reducirse a un sistema de n ec. ordinarias de primer orden de la forma (67) definien-
do
u
1
= u, u
2
=
du
dt
, . . . , u
n
=
d
n−1
u
dt
n−1
con
du
1
dt
= u
2
,
du
2
dt
= u
3
, . . . ,
du
n
dt
= f(t, u
1
, . . . , u
n
)
o sea, f
1
(t, u) = u
2
, f
2
(t, u) = u
3
, . . ., f
n
(t, u) = f(t, u).
Queda pues garantizada la existencia y unicidad de la soluci´ on de (66) para la condi-
ci´ on inicial u(0) = u
0
, donde u
0
= (u(0),
du
dt
|
t=0
, . . . ,
d
n−1
u
dt
n−1
|
t=0
) es el vector que contiene
los valores iniciales de la posici´ on, velocidad, aceleraci´ on, etc, si f satisface las condi-
ciones del teorema. En forma an´ aloga, un sistema de m ec. diferenciales acopladas de
orden n puede reducirse a un sistema de n ×m ecuaciones de primer orden.
Un caso particularmente importante de sistema de primer orden es aqu´ el en que

f(t, u)
es una funci´ on lineal de u:
Definici´ on I.2.3 Un sistema de ecuaciones ordinarias de primer orden del tipo (64) se
llama lineal, si puede escribirse en la forma
du
dt
= A(t)u +

f(t) , (67)
donde

¸
¸
¸
¸
¸
A
11
(t) ... A
1n
(t)
. ... .
. ... .
. ... .
A
n1
(t) ... A
nn
(t)

(68)
se denomina matriz del sistema.
Supondremos, adem´ as, condici´ on inicial dada por u(t
0
) = u
0
M´ as expl´ıcitamente, se tiene
du
i
(t)
dt
=
n
¸
j=1
A
ij
(t)u
j
(t) + f
i
(t) i = 1, ..., n (69)
con dados valores de u
i
(t
0
) para i = 1, ..., n .
1) Resoluci´ on del caso homog´ eneo. Matriz fundamental
Estudiaremos primero el sistema homog´ eneo,
du
dt
= A(t)u (70)
o sea, L[u] = 0. Probaremos un importante teorema:
29
I.2 PROBLEMAS DE CONDICIONES INICIALES
Teorema I.2.4 Las soluciones del sistema lineal homog´ eneo (70) forman un espacio vec-
torial de dimensi´ on n (principio de superposici´ on).
Que formen un espacio vectorial (o lineal) significa que, si u
1
(t) y u
2
(t) son solu-
ciones, la combinaci´ on lineal
u(t) = c
1
u
1
(t) + c
2
u
2
(t) (71)
es tambi´ en soluci´ on ∀ c
1
, c
2
(constantes). Y que el espacio sea de dimensi´ on n significa
que existen n soluciones u
1
(t), u
2
(t), . . . , u
n
(t) linealmente independientes tales que
cualquier soluci´ on u(t) puede escribirse como combinaci´ on lineal de las mismas:
u(t) =
n
¸
j=1
c
j
u
j
(t) (72)
donde los coeficientes c
j
son constantes. Los vectores u
j
(t) son, adem´ as, linealmente
independientes ∀ t ∈ I
0
.
Demostraci´ on: Dado que el operador Len (70) es lineal, la combinaci´ on (71) ser´ a ob-
viamente soluci´ on de (70) si u
1
(t) y u
2
(t) son soluciones.
Mostraremos ahora que existen n y s´ olo n soluciones u
j
(t) linealmente independi-
entes. Dado que u posee n componentes, podemos encontrar n vectores linealmente in-
dependientes u
0
j
. Por ejemplo,
u
0
1
=

¸
¸
¸
1
0
. . .
0

u
0
2
=

¸
¸
¸
0
1
. . .
0

. . . u
0
n
=

¸
¸
¸
0
0
. . .
1

(73)
Para j = 1, . . . , n, sea
u
j
(t) =

¸
¸
¸
u
1j
(t)
u
2j
(t)
. . .
u
nj
(t)

la soluci´ on del sistema (70) con la condici´ on inicial u
j
(t
0
) = u
0
j
. Por el teorema de
existencia, tal soluci´ on existe y es ´ unica para |t −t
0
| ≤ r (o sea, t ∈ I
0
).
Consideremos ahora una soluci´ on arbitraria u(t) con la condici´ on inicial u(t
0
) = u
0
.
Para t = t
0
, como los vectores u
j
(t
0
) = u
0
j
forman una base, podemos escribir
u(t
0
) =
n
¸
j=1
c
j
u
j
(t
0
) (74)
Pero, como la soluci´ on para una determinada condici´ on inicial es ´ unica, debe cumplirse
u(t) =
n
¸
j=1
c
j
u
j
(t) (75)
30
I.2 PROBLEMAS DE CONDICIONES INICIALES
∀ t ∈ I
0
, ya que el segundo miembro de (75) es tambi´ en soluci´ on de (70) y cumple la
condici´ on inicial. Esto muestra que la dimensi´ on del espacio es n y no mayor.
Falta mostrar que las n soluciones u
j
(t) permanecen linealmente independientes ∀
t ∈ I
0
. Si, por ejemplo, para t = t
1
∈ I
0
, las soluciones fuesen linealmente dependientes,
entonces existir´ıa una soluci´ on del tipo (75), con (c
1
, c
2
, . . . , c
n
) no todos nulos, que ser´ıa
nula para t = t
1
:
u(t
1
) =
n
¸
j=1
c
j
u
j
(t
1
) =

0
Pero como tambi´ en existe la soluci´ on trivial u(t) =

0 ∀ t ∈ I
0
, por unicidad la soluci´ on
anterior debe coincidir con la soluci´ on trivial ∀ t ∈ I
0
y por lo tanto, c
1
= c
2
= . . . =
c
n
= 0, en contradicci´ on con lo supuesto.
Podemos formalizar algo m´ as los resultados anteriores. Una matriz de soluciones
linealmente independientes
U(t) =

¸
¸
¸
u
11
(t) u
12
(t) . . . u
1n
(t)
u
21
(t) u
22
(t) . . . u
2n
(t)
. . .
u
n1
(t) u
n2
(t) . . . u
nn
(t)

(76)
donde la columna j-´ esima contiene las componentes de la soluci´ on u
j
(t), se denomina
matriz fundamental del sistema. Como du
j
/dt = A(t)u
j
(t), con u
j
(0) = u
0
j
, la matriz
U(t) satisface la ec.
dU
dt
= A(t)U(t), con U(t
0
) = U
0
(77)
donde U
0
es la matriz que contiene las n condiciones iniciales linealmente independientes
u
0
j
(U
0
= I (matriz identidad) en el caso (73)). Recordando que n vectores son lineal-
mente independientes si y s´ olo si el determinante de sus componentes es no nulo, tenemos
Det[U(t
0
)] = 0, y por el teorema anterior, Det[U(t)] = 0 ∀ t ∈ I
0
.
La soluci´ on general de (70) puede expresarse como
u(t) = U(t)c (78)
donde c es un vector constante, lo cual es otra forma de escribir (75). La soluci´ on partic-
ular para la condici´ on inicial u(t
0
) = u
0
se obtiene para c = U
−1
(t
0
)u
0
:
u(t) = U(t)U
−1
(t
0
)u
0
ya que satisface u(t
0
) = u
0
. Para las condiciones iniciales (73), U(t
0
) = I y u(t) =
U(t)u
0
.
Utilizando el m´ etodo de Picard, podemos expresar, en general, U(t) para t ∈ I
0
como
U(t) = [I +

t
t
0
A(t

)dt

+

t
t
0
A(t

)dt

t

t
0
A(t
′′
)dt
′′
+ . . .]U
0
(79)
31
I.2 PROBLEMAS DE CONDICIONES INICIALES
Evoluci´ on del determinante. Podemos calcular expl´ıcitamente Det[U(t)] y verificar
que Det[U(t)] = 0 si Det[U(t
0
)] = 0. Para ello, notemos primero que si t es un par´ ametro
cualquiera de U, tenemos
d
dt
Det[U] =
n
¸
i,j=1
dU
ij
dt
˜
U
ji
= Tr[
dU
dt
˜
U] (80)
donde
˜
U
ji
= (−1)
i+j
Det[U
(i,j)
] y U
(i,j)
es la matriz con la fila i y columna j de U
suprimidas, tal que
U
˜
U = Det[U] I
y Tr es la traza. Por lo tanto, en el caso (70),
d
dt
Det[U] = Tr[A(t)U
˜
U] = Det[U]Tr[A(t)]
lo que constituye una ec. dif. lineal ordinaria para Det[U(t)]. Obtenemos entonces
Det[U(t)] = Det[U(t
0
)] e

t
t
0
Tr[A(t

)]dt

con Det[U(t
0
)] = Det[U
0
] = 0. Por lo tanto Det[U(t)] = 0 ∀ t ∈ I
0
, de modo que las
soluciones permanecen linealmente independientes, como hab´ıamos demostrado.

2) Resoluci´ on del caso inhomog´ eneo. Matriz de Green.
Volvamos ahora al sistema original (67). Si U(t) es una matriz fundamental del sis-
tema homog´ eneo (70), podemos plantear una soluci´ on particular del tipo
u(t) = U(t)c(t)
Tenemos, dado que dU/dt = A(t)U,
du
dt
=
dU
dt
c + U
dc
dt
= A(t)Uc + U
dc
dt
= A(t)u + U
dc
dt
Por lo tanto,
du
dt
−A(t)u = U(t)
dc
dt
=

f(t)
de donde dc/dt = U
−1
(t)

f(t) y
c(t) =

U
−1
(t)

f(t)dt
La soluci´ on general es, pues, de la forma
u(t) = U(t)[c

+

U
−1
(t)

f(t)dt] (81)
32
I.2 PROBLEMAS DE CONDICIONES INICIALES
y la soluci´ on particular para u(t
0
) = u
0
es
u(t) = U(t)[U
−1
(t
0
)u
0
+

t
t
0
U
−1
(t

)

f(t

)dt

]
= K(t, t
0
)u
0
+

t
t
0
K(t, t

)

f(t

)dt

(82)
con
K(t, t

) = U(t)U
−1
(t

) . (83)
Notemos aqu´ı, que K(t, t

) satisface
dK(t, t

)
dt
= A(t)K(t, t

), con K(t

, t

) = I . (84)
Observar: El primer t´ ermino de (83) es la soluci´ on del sistema homog´ eneo que satis-
face la condici´ on inicial. El segundo, que se anula para t = t
0
es una soluci´ on particular
del sistema inhomog´ eneo, construida por combinaci´ on lineal de n soluciones particulares
del sistema homog´ eneo (las soluciones fundamentales). La ecuaci´ on (82) generaliza y es
completamente an´ aloga a la ecuaci´ on (139) de I.1.1, v´ alida para el caso de una dimensi´ on,
donde U(t) = u
h
(t) es una matriz de 1×1 (con u
h
(t) una soluci´ on no nula de la ecuaci´ on
homog´ enea) y K(t, t

) = u
h
(t)/u
h
(t

).
Notemos tambi´ en que, si u
1
(t) y u
2
(t) son soluciones particulares para

f
1
(t) y

f
2
(t),
u(t) = c
1
u
1
(t) +c
2
u
2
(t) es una soluci´ on particular para

f(t) = c
1

f
1
(t) +c
2

f
2
(t) (exten-
si´ on del principio de superposici´ on). Esto puede verse de (82) o tambi´ en, directamente,
de (67) por la linealidad de L. Podemos pues descomponer la fuerza en varios t´ erminos o
componentes y luego sumar las soluciones para cada una de ellas.
Consideremos, en detalle, la soluci´ on para condici´ on inicial nula:
u(t) =

t
t
0
K(t, t

)

f(t

)dt

. (85)
Si, adem´ as, f(t) = 0 ∀ t < 0 y el sistema est´ a en equilibrio para t < 0, con y(t) = 0
∀ t < 0, puede escribirse
u(t) =

t
−∞
K(t, t

)

f(t

)dt

(86)
o, equivalentemente,
u(t) =


−∞
G(t, t

)

f(t

)dt

, (87)
donde hemos definido
G(t, t

) =

0 0 ≤ t < t

K(t, t

) 0 ≤ t

< t
(88)
33
I.2 PROBLEMAS DE CONDICIONES INICIALES
La matriz G se llama matriz de Green del sistema de ecuaciones. Como se ve, permite
establecer el efecto, en un dado valor de t, de una fuente que act´ ua en cualquier t

< t.
Dado que, para problemas de valores iniciales, la variable t es, en general, el tiempo, suele
llamarse a G(t, t

) as´ı definida la funci´ on de Green causal. N´ otese que es discontinua en
t = t

(l´ım
t→t
′+ = I; l´ım
t→t
′− = 0).
Escribiendo expl´ıcitamente los elementos de matriz, se tiene
u
i
(t) =
n
¸
j=1


−∞
G
ij
(t, t

)f
j
(t

)dt

, (89)
con
G
ij
(t, t

) =

0 0 ≤ t < t

K
ij
(t, t

) =
¸
n
k=1
U
ik
(t)U
−1
kj
(t

) 0 ≤ t

< t .
(90)
I.2.3. Caso particular: sistemas lineales con coeficientes constantes
Estudiaremos ahora el importante caso en el que la matriz A en (67) es independiente
del tiempo, es decir, A
ij
(t) = A
ij
, constante ∀ i, j. El sistema de ecuaciones homog´ eneo,
du
dt
= Au (91)
es ahora invariante frente a traslaciones temporales. Podemos pues suponer, sin p´ erdida
de generalidad, t
0
= 0, ya que si u(t) es la soluci´ on de (70) para u(0) = u
0
⇒u(t − t
0
)
ser´ a la soluci´ on de (70) para u(t
0
) = u
0
. La ec. (79) conduce entonces a
U(t) = [I + At + A
2
t
2
2!
+ . . .]U
0
= [

¸
n=0
A
n
t
n
n!
]U
0
= exp[At]U
0
(92)
donde hemos introducido la exponencial de una matriz,
exp[A] ≡

¸
n=0
(A)
n
n!
= I + A+
A
2
2
+ . . . (93)
Este serie converge ∀ matriz cuadrada A de dimensi´ on finita m (si |A
ij
| ≤ K ∀ i, j ⇒
|(A
2
)
ij
| ≤ mK
2
y en general, |(A
n
)
ij
| ≤ (mK)
n
/m, por lo que |[exp(A)]
ij
| ≤ e
mK
/m).
Podemos verificar que (92) es la soluci´ on de (84) ∀t:
d
dt
exp[At] =
d
dt

¸
n=0
A
n
t
n
n!
=

¸
n=1
A
n
t
n−1
(n−1)!
= Aexp[At]
La soluci´ on general de la ec. homog´ enea puede pues escribirse como
u(t) = exp[At]c (94)
34
I.2 PROBLEMAS DE CONDICIONES INICIALES
y la soluci´ on particular para u(t
0
) = u
0
es
u(t) = exp[A(t −t
0
)]u
0
La soluci´ on de la ec. inhomog´ enea para u(t
0
) = u
0
es
u(t) = exp[A(t−t
0
)]u
0
+

t
t
0
exp[A(t−t

)]

f(t

)dt

(95)
que corresponde a K(t, t

) = exp[A(t −t

)] en (82).
Nota: Para matrices A y B generales,
exp[A+ B] = exp[A] exp[B] = exp[B] exp[A]
La igualdad se cumple s´ olo si A conmuta con B, o sea, si [A, B] ≡ AB − BA = 0. Por
ejemplo,
exp[A] exp[−A] = exp[A−A] = exp[0] = I
Por lo tanto, la inversa de exp[A] es exp[−A]. Adem´ as,
exp[A(t −t
0
)] = exp[At −At
0
] = exp[At] exp[−At
0
]
I.2.4. Evaluaci´ on de la soluci´ on fundamental en el caso general
Veremos, en primer lugar, c´ omo evaluar e
At
. Si A es diagonal (A
ij
= λ
i
δ
ij
) ⇒exp[At]
es tambi´ en diagonal, con (exp[At])
ij
= e
λ
i
δ
ij
:
A =

¸
¸
¸
λ
1
0 . . . 0
0 λ
2
. . . 0
. . .
0 0 . . . λ
n

⇒exp[At] =

¸
¸
¸
e
λ
1
t
0 . . . 0
0 e
λ
2
t
. . . 0
. . .
0 0 . . . e
λnt

Esto es consecuencia inmediata de (93), ya que (A
n
)
ij
= λ
n
i
δ
ij
. En este caso el sistema
(70) es desacoplado, y las soluciones son obviamente u
i
(t) = u
i
(0)e
λ
i
t
, que pueden
escribirse como exp[At]u(0).
En general, notemos que si
A = V A

V
−1
(96)
⇒A
2
= (V A

V
−1
)
2
=V A

V
−1
V A

V
−1
=V A

2
V
−1
, y en general, A
n
= (V A

V
−1
)
n
=
V A

n
V
−1
, por lo que
exp[At] = exp[V (A

t)V
−1
] = V exp[A

t]V
−1
(97)
La evaluaci´ on de exp[At] es entonces inmediata si se logra escribir Aen la forma (96) con
A

diagonal. En tal caso la matriz A es diagonalizable, y la descomposici´ on (96) puede
lograrse mediante la diagonalizaci´ on de A.
35
I.2 PROBLEMAS DE CONDICIONES INICIALES
Diagonalizaci´ on de matrices.
Sea A de n ×n y v de n ×1. Se dice que v =

0 es autovector de A si ∃ λ t.q.
Av = λv, v =

0 (98)
En tal caso, (A−λI)v = 0 y por lo tanto,
Det[A −λI] = 0 (99)
Los valores de λ que satisfacen (165) se denominan autovalores de la matriz A, y la ec.
(165) es la ecuaci´ on carac- ter´ıstica, que es de grado n en λ. Posee pues a lo sumo n
ra´ıces distintas λ
k
, reales o complejas.
Una vez hallados los autovalores λ
k
, es decir, todas las ra´ıces de (165), los autovec-
tores correspondientes v
k
= (v
1k
, . . . , v
nk
) se obtienen resolviendo la ec. (98),
Av
k
= λ
k
v
k
(100)
o sea,
¸
j
A
ij
v
jk
= λ
k
v
ik
.
Si v es autovector ⇒cv, con c = 0, es tambi´ en autovector con el mismo autovalor. Los
autovectores quedan pues definidos a menos de una constante. Obviamente, los autovec-
tores correspondientes a dos autovalores distintos son linealmente independientes (v
k
=
cv
k
′ si λ
k
= λ
k
′ ). Analogamente, n autovectores v
k
de n autovalores distintos λ
k
son l.i.
(por inducci´ on, si suponemos v
n
=
¸
n−1
k=1
c
k
v
k
⇒Av
n
=
¸
n−1
k=1
c
k
λ
k
v
k
= λ
n
¸
n−1
k=1
c
k
v
k
,
lo que es absurdo si los v
k
son l.i. y λ
n
= λ
k
para k = 1, . . . , n −1).
Si la ec. (165) posee n autovalores distintos, podemos pues formar una matriz de
autovectores V de elementos V
ik
= v
ik
, t.q. la k-´ esima columna de V contenga las com-
ponentes del autovector v
k
. V satisface la ec.
AV = V A

, A

=

¸
¸
¸
λ
1
0 . . . 0
0 λ
2
. . . 0
. . .
0 0 . . . λ
n

Por lo tanto, como Det[V ] = 0, podemos escribir
A = V A

V
−1
o A

= V
−1
AV
con A

diagonal.
Un caso especial es el de las matrices herm´ıticas, definidas por A
ij
= A

ji
∀ i, j, es
decir,
A

= A
donde A

es la matriz adjunta (traspuesta-conjugada). Si A es real, A herm´ıtica implica
A sim´ etrica. Estas matrices, que surgen frecuentemente en f´ısica, son siempre diagonal-
izables, a´ un si el n´ umero de autovalores distintos es < n. M´ as a´ un, sus autovalores son
36
I.2 PROBLEMAS DE CONDICIONES INICIALES
siempre reales, y los autovectores correspondientes a autovalores distintos son ortogo-
nales con respecto al producto escalar usual:
v

k
· v
k
′ =
¸
i
v

ik
v
ik
′ = 0 si λ
k
= λ
k

En efecto, si
Av
k
= λ
k
v
k
, Av
k
′ = λ
k
′v
k
′ (101)
multiplicando la primera ecuaci´ on a izquierda por el vector fila v

k
obtenemos
v

k
Av
k
= λ
k
(v

k
· v
k
)
dado que v

k
v
k
= v

k
· v
k
. Si A es herm´ıtica, v

k
Av
k
=
¸
i,j
v

ik
A
ij
v
jk
es real, y tambi´ en
es real v

k
· v
k
=
¸
i
|v
2
ik
|, por lo que λ
k
debe ser real. Ahora, tomando el adjunto de la
primera ecuaci´ on en (101), tenemos
v

k
A = λ
k
v

k
donde hemos tenido en cuenta que A

= A y λ

k
= λ
k
. Multiplicando la ec. anterior a la
derecha por el vector columna v
k
′ y la segunda ec. en (101) a la izquierda por el vector
fila v

k
, y restando, obtenemos
0 = (λ
k
−λ
k
′ )(v

k
· v
k
′ )
de donde v

k
· v
k
′ = 0 si λ
k
= λ
k
′ . Los autovectores correspondientes a autovalores iguales
pueden tambi´ en elegirse ortogonales, por lo que en el caso de matrices herm´ıticas, existe
un conjunto completo de autovectores normalizados (v

k
· v
k
= 1) tal que
v

k
· v
k
′ = δ
kk

en cuyo caso la matriz V resulta unitaria: V
−1
= V

.
Las matrices antiherm´ıticas (A

= −A) son tambi´ en siempre diagonalizables y poseen
un conjunto completo de autovectores ortogonales, pero sus autovalores son imaginarios

k
= i|λ
k
|). Esto es inmediato ya que si A

= −A, la matriz B = iA es herm´ıtica
(B

= −iA

= B) y por lo tanto diagonalizable. A = −iB es entonces diagonalizable,
con Av
k
= −iλ
k
v
k
si Bv
k
= λ
k
v
k
.
Evaluaci´ on de exp[At] en el caso diagonalizable. Si A es diagonalizable, se obtiene,
de (173),
exp[At]
ij
=
¸
k
V
ik
e
λ
k
t
V
−1
kj
y la soluci´ on general (94) puede escribirse como
u(t) = V exp[A

t]a
=
¸
k
a
k
e
λ
k
t
v
k
(102)
37
I.2 PROBLEMAS DE CONDICIONES INICIALES
donde a = V
−1
c es un vector de constantes arbitrarias. Como los autovalores λ
k
pueden
ser reales o complejos, las soluciones ser´ an combinaciones lineales de funciones del tipo
e
λ
r
k
t
cos(λ
i
k
t + φ). Si u(0) = v
k
⇒a
j
= δ
jk
y
u(t) = v
k
e
λ
k
t
(103)
La soluci´ on u(t) permanece en este caso proporcional a u(0) y tiene una evoluci´ on de
tipo exponencial. En tratamientos m´ as elementales o intuitivos, directamente se plantea
una soluci´ on del tipo (103), que al ser reemplazada en el sistema original (91), conduce a
λ
k
v
k
e
λ
k
t
= Av
k
e
λ
k
t
es decir, Av
k
= λ
k
v
k
, que es la ec. de autovalores (100), lo que requiere Det[A−λ
k
I] = 0.
La soluc. gral (102) se obtiene luego como combinaci´ on lineal de las soluciones particu-
lares (103).
Si interpretamos la matriz A como la representaci´ on de un operador lineal
ˆ
A en una
determinada base, la transformaci´ on (96) (denominada transformaci´ on de similitud) cor-
responde a un cambio de base. El vector
˜
u = V
−1
u
de componentes ˜ u
i
=
¸
j
V
−1
ij
u
j
, satisface la ecuaci´ on
d
˜
u
dt
= A

˜
u, A

= V
−1
AV (104)
Si elegimos V como la matriz de autovectores, A

es diagonal y el sistema (104) es
desacoplado: d˜ u
k
/dt = λ
k
u
k
. Podemos pues “desacoplar” el sistema original (70) me-
diante la transformaci´ on lineal (104). Las nuevas variables ˜ u
k
pueden interpretarse como
las coordendas de la soluci´ on en la base donde
ˆ
A es diagonal, y son las “coordenadas
normales” del sistema. La ec. u(t) = V
˜
u(t) conduce a (102).
Ejemplo: Consideremos el sistema
dx
dt
= ax + by,
dy
dt
= ay + bx (105)
Podemos escribirlo en la forma
du
dt
= Au, u =

x
y

, A =

a b
b a

La ec. caracter´ıstica es Det[A−λI] = (a −λ)
2
−b
2
= 0, y sus ra´ıces son
λ
±
= a ±b
38
I.2 PROBLEMAS DE CONDICIONES INICIALES
Resolviendo la ec. Av = λv obtenemos los autovectores
v
±
=
1

2

±1
1

que son ortogonales, v
+
· v

= 0, y est´ an normalizados: v

+
· v
+
= v


· v

= 1 (o sea, son
ortonormales). La soluc. gral de (105) es pues, seg´ un (102),
u(t) = c
+
v
+
e
(a+b)t
+ c

v

e
(a−b)t
es decir, definiendo α
±
= c
±
/

2,
x(t) = α
+
e
(a+b)t
−α

e
(a−b)t
,
y(t) = α
+
e
(a+b)t
+ α

e
(a−b)t
(106)
Para |b| < |a|, el acoplamiento b puede pensarse como una “perturbaci´ on” que produce
un “desdoblamiento” del ritmo de crecimiento (a > 0) o decaimiento (a < 0) de x e
y, originando dos componentes en la soluc. gral. para estas variables. Podemos obtener
las soluciones anteriores directamente planteando una soluci´ on del tipo u = ve
λt
, lo que
conduce a la ec. de autovalores Av = λv.
Escribiendo A = V A

V
−1
, con
A

=

a+b 0
0 a−b

, V =
1

2

1 −1
1 1

, V
−1
=
1

2

1 1
−1 1

obtenemos tambi´ en
exp[At] = V exp[A

t]V
−1
= e
at

cosh(bt) sinh(bt)
sinh(bt) cosh(bt)

Las columnas de esta matriz son las soluciones u
1
(t), u
2
(t), que satisfacen u
1
(0) = (
1
0
),
u
2
(0) = (
0
1
), y corresponden a α
+
= 1, α

= ∓1 en (106). Si x(0) = x
0
, y(0) = 0, la
soluci´ on es x
0
u
1
(t), o sea,
x(t) = x
0
e
at
cosh(bt), y(t) = x
0
e
at
sinh(bt) (107)
Debido al acoplamiento b, y(t) adquiere un valor no nulo al aumentar t.
Las soluciones (106) pueden interpretarse mejor en t´ erminos de las nuevas variables

˜ x
˜ y

= V
−1

x
y

=
1

2

x + y
−x + y

que satisfacen las ec. desacopladas
d˜ x
dt
= (a + b)˜ x
d˜ y
dt
= (a −b)˜ y (108)
39
I.2 PROBLEMAS DE CONDICIONES INICIALES
Las soluciones de (108) son obviamente
˜ x(t) = c
+
e
(a+b)t
, ˜ y(t) = c

e
(a−b)t
(109)
Como (
x
y
) = (˜ x ∓ ˜ y)/

2, las soluciones (106) se obtienen inmediatamente de (109). Las
constantes c
±
no son otra cosa que los valores iniciales ˜ x(0), ˜ y(0).
Todas las f´ ormulas anteriores permanecen v´ alidas para matrices A complejas. Por ej.,
la ec. de Schr¨ odinger para un sistema de dos niveles degenerados de energ´ıa ε e interac-
ci´ on α es
i
du
dt
= Hu, H =

ε α
α ε

donde H es la matriz que representa al Hamiltoniano y u(t) la funci´ on de onda. Corre-
sponde a a = −iε/, b = −iα/ en (105). La ec. (107) conduce a
|x(t)|
2
= |x
0
|
2
cos
2
(αt/), |y(t)|
2
= |x
0
|
2
sin
2
(αt/)
Debido a la interacci´ on α, el sistema oscila pues entre los dos niveles con frecuencia
f = α/(2π).
Caso general. Una matriz cuadrada arbitraria puede siempre descomponerse en la
forma A = V A

V
−1
, con
A

=

¸
¸
¸
D
1
0 . . . 0
0 D
2
. . . 0
. . .
0 0 . . . D
m

donde D
k
son bloques de n
k
×n
k
de la forma
D
k
=

¸
¸
¸
λ
k
1 0 . . .
0 λ
k
1 . . .
. . .
0 . . . 0 λ
k

= λ
k
I
k
+ J
k
, J
k
=

¸
¸
¸
0 1 0 . . .
0 0 1 . . .
. . . 1
0 . . . 0 0

con λ
k
autovalor de A (Det[A − λ
k
I] = 0) y I
k
la identidad de n
k
× n
k
(
¸
m
k=1
n
k
= n).
Esta forma se denomina descomposici´ on de Jordan, y el caso diagonalizable corresponde
a n
k
= 1 ∀k. Como AV = V A

, las columnas v
k
i
de V correspondientes al bloque k
quedan determinadas, si n
k
≥ 2, por
Av
k
1
= λ
k
v
k
1
, Av
k
i
= λ
k
v
k
i
+v
k
i−1
, i = 2. . . . , n
k
40
I.2 PROBLEMAS DE CONDICIONES INICIALES
La matriz J
k
es nilpotente: J
n
k
k
= 0. Por lo tanto, como [I
k
, J
k
] = 0,
exp[D
k
t] = exp[λ
k
I
k
t] exp[J
k
t]
= e
λ
k
t
[I
k
+ J
k
t + . . . +
(J
k
t)
n
k
−1
(n
k
−1)!
]
= e
λ
k
t

¸
¸
¸
¸
¸
1 t . . . t
n
k
−1
/(n
k
−1)!
0 1 . . . t
n
k
−2
/(n
k
−2)!
. . . . . . . . .
0 0 . . . t
0 0 . . . 1

(110)
Finalmente obtenemos
exp[At] = V

¸
¸
¸
e
D
1
t
0 . . . 0
0 e
D
2
t
. . . 0
. . .
0 0 . . . e
Dmt

V
−1
La soluci´ on general (94) es pues de la forma
u(t) = V exp[A

t]a =
m
¸
k=1
n
k
¸
i=1
a
k
i
v
k
i
(t)
con v
k
1
(t) = e
λ
k
t
v
k
1
, v
k
2
(t) = e
λ
k
t
(v
k
2
+v
k
1
t), y en general,
v
k
i
(t) = e
λ
k
t
i
¸
j=1
v
k
j
t
i−j
(i −j)!
con a = V
−1
c. Es entonces suma de exponenciales e
λ
k
t
multiplicadas por potencias de t
menores que n
k
. Esta soluci´ on puede interpretarse en t´ erminos del vector
˜
u = V
−1
u, que
satisface la ec. d
˜
u/dt = A
′ ˜
u, o sea,
d˜ u
k
i
dt
= λ
k
˜ u
k
i
+ ˜ u
k
i+1
, i = 1, . . . , n
k
−1,
d˜ u
k
n
k
dt
= λ
k
˜ u
k
n
k
para el bloque k. Las soluciones de este sistema son precisamente las columnas de la
matriz (110). No es posible ahora desacoplar completamente el sistema.
Ejemplo:
dx
dt
= ax + by,
dy
dt
= ay (111)
En este caso
A =

a b
0 a

= aI + bJ
2
41
I.2 PROBLEMAS DE CONDICIONES INICIALES
y la ec. caracter´ıstica Det[A − λI] = (a − λ)
2
= 0, posee una ´ unica ra´ız λ = a. Esta
matriz no es diagonalizable. No obstante,
exp[At] = exp[aIt] exp[bJ
2
t] =

e
at
be
at
t
0 e
at

(112)
La primer columna nos da la soluci´ on que satisface u
1
(0) = (
1
0
) y la segunda u
2
(0) = (
0
1
).
La soluci´ on general puede entonces escribirse como
u(t) = c
1
e
at
v
1
+ c
2
e
at
(v
2
+ tv
1
) (113)
con v
1
=

1
0

, v
2
=

0
b
−1

, que satisfacen Av
1
= λv
1
, Av
2
= λv
2
+v
1
. El sistema
(111) puede tambi´ en tratarse en forma elemental resolviendo primero la ec. para y y luego
la ec. para x.
Nota. La matriz A = (
a b
ε a
) es diagonalizable si bε = 0. En este caso, la ec. Det[A −
λI] = (λ − a)
2
− bε = 0 conduce a λ
±
= a ±

bε, con autovectores v
±
= (
1
λ
±
/b
),
obteni´ endose
exp[At] = e
at

cosh(rt)
b
r
sinh(rt)
r
b
sinh(rt) cosh(rt)

, r =


Tomando el l´ımite r →0 se obtiene la ec. (112).
Ahora que sabemos exponenciar matrices, podemos volver al sistema de ec. lineales
(70).
Si [A(t), A(t

)] = 0 ∀ t, t

∈ I
0
, obtenemos
U(t) = exp
¸
t
t
0
A(t

)dt

U
0
(114)
En efecto, en este caso no importa el orden temporal en los t´ erminos del desarrollo (79).
Se obtiene

t
t
0
A(t

)dt

t

t
0
A(t
′′
)dt
′′
=
1
2

t
t
0
A(t

)dt

t
t
0
A(t
′′
)dt
′′
ya que A(t

)A(t
′′
) = A(t
′′
)A(t

). An´ alogamente,

t
t
0
A(t
1
)dt
1

t
1
t
0
A(t
2
)dt
2
. . .

t
n−1
t
0
A(t
n
)dt
n
=
1
n!

t
t
0
A(t
1
)dt
1

t
t
0
A(t
2
)dt
2
. . .

t
t
0
A(t
n
)dt
n
y, por lo tanto, el desarrollo (79) conduce a (114).
42
I.2 PROBLEMAS DE CONDICIONES INICIALES
En el caso general, la ec. (79) suele escribirse como
U(t) =
ˆ
T exp
¸
t
t
0
A(t

)dt

U
0
(115)
donde
ˆ
T es el operador de “ordenamiento temporal”:
ˆ
T[A(t)A(t

)] = {
A(t)A(t

) si t>t

A(t

)A(t) si t<t

. con
definici´ on an´ aloga para un producto de m´ as de dos t´ erminos.
I.2.5. Breve introducci´ on a Teor´ıa de Distribuciones.
1) La Delta de Dirac como l´ımite de una secuencia.
Consideremos la ec. diferencial lineal inhomog´ enea
du
dt
−au = f(t). Desde un punto
de vista intuitivo, parecer´ıa razonable representar la inhomogeneidad f(t) como una suma
de t´ erminos impulsivos concentrados en intervalos de tiempo muy peque˜ nos, y obten-
er luego la soluci´ on como suma de las soluciones particulares para cada uno de estos
t´ erminos. La formalizaci´ on de esta idea requiere el concepto de distribuci´ on o funci´ on
generalizada, que discutiremos a continuaci´ on.
Consideremos la funci´ on
g
ε
(x) =

1/ε |x| ≤ ε/2
0 |x| > ε/2
ε > 0 (116)
Se cumple


−∞
g
ε
(x)dx = 1 ∀ ε > 0. Adem´ as, si f es una funci´ on continua arbitraria,


−∞
g
ε
(x)f(x)dx = ε
−1

ε/2
−ε/2
f(x)dx =
F(ε/2) −F(−ε/2)
ε
donde F es una primitiva de f. Para ε →0
+
, g
ε
(x) estar´ a concentrada cerca del origen y
obtenemos
l´ım
ε→0
+


−∞
g
ε
(x)f(x)dx = l´ım
ε→0
+
F(ε/2) −F(−ε/2)
ε
(117)
= F

(0) = f(0) (118)
Podemos entonces definir la distribuci´ on o funci´ on generalizada δ(x) (delta de Dirac)
como el l´ımite
δ(x) = l´ım
ε→0
+
g
ε
(x) (119)
que satisface


−∞
δ(x)f(x)dx = f(0) (120)
Si bi´ en el l´ımite (119) no existe estrictamente (es 0 si x = 0 y ∞si x = 0) el l´ımite de
la integral (117) ∃ ∀ f continua en un entorno de x = 0, y eso es lo que simbolizan las
43
I.2 PROBLEMAS DE CONDICIONES INICIALES
ec. (119)–(120). Puede obtenerse una buena aproximaci´ on a δ(x) mediante (6.1) tomando
ε mucho menor que la longitud en la cual f var´ıa apreciablemente. F´ısicamente, δ(x)
puede interpretarse como la densidad lineal de masa correspondiente a una masa puntual
de magnitud 1 localizada en el origen.
Notemos tambi´ en que si ab = 0 y a < b,

b
a
δ(x)f(x)dx = l´ım
ε→0
+

b
a
g
ε
(x)f(x)dx =

f(0) a < 0 < b
0
a<b<0 o
0<a<b
Consideraremos en lo sucesivo funciones de prueba f, que son funciones acotadas y
derivables a cualquier orden, y que se anulan fuera de un intervalo finito I (recordemos
ante todo que tales funciones existen: si f(x) = 0 para x ≤ 0 y x ≥ 1, y f(x) =
e
−1/x
2
e
−1/(1−x)
2
para |x| < 1, f es derivable a cualquier orden en x = 0 y x = 1).
En tal caso existen muchas otras funciones g
ε
(x) que convergen a δ(x), que pueden ser
derivables a cualquier orden. Un conocido ejemplo es
δ(x) = l´ım
ε→0
+
e
−x
2
/2ε
2

2πε
(121)
En efecto,
1

2πε


−∞
e
−x
2
/2ε
2
dx = 1 ∀ε > 0 y
l´ım
ε→0
+
1

2πε


−∞
e
−x
2
/2ε
2
f(x)dx = f(0) (122)
La gr´ afica de g
ε
(x) =
1

2πε
e
−x
2
/2ε
2
es la “campana” de Gauss, con ´ area 1 y dispersi´ on


−∞
g
ε
(x)x
2
dx = ε
2
. Para ε →0
+
, g
ε
(x) se concentra alrededor de x = 0, pero mantiene
su ´ area constante.
En general, si g
ε
(x) est´ a definida ∀ x ∈ ℜ y ε > 0, diremos que
l´ım
ε→0
+
g
ε
(x) = δ(x) sii l´ım
ε→0
+


−∞
g
ε
(x)f(x)dx = f(0)
∀ funci´ on de prueba f.
Por ejemplo, si g(x) ≥ 0 ∀x y


−∞
g(x)dx = 1 ⇒
l´ım
ε→0
+
ε
−1
g(x/ε) = δ(x)
En efecto, si ε > 0, ε
−1


−∞
g(x/ε)dx =


−∞
g(u)du = 1 y l´ım
ε→0
+
ε
−1

b
a
g(x/ε)dx = l´ım
ε→0
+

b/ε
a/ε
g(u)du =
{
1 a<0<b
0 a<b<0 o 0<a<b
. Por lo tanto, si |f(x)| ≤ M ∀x y ab > 0, l´ım
ε→0
+
ε
−1
|

b
a
g(x/ε)f(x)dx| ≤
M l´ım
ε→0
+
ε
−1

b
a
g(x/ε)dx = 0. De este modo, si t > 0 y f es continua y acotada,
I
f
≡ l´ım
ε→0
+
ε
−1


−∞
g(x/ε)f(x)dx = l´ım
ε→0
+
ε
−1

t
−t
g(x/ε)f(x)dx
44
I.2 PROBLEMAS DE CONDICIONES INICIALES
Si m
t
≤ f(x) ≤ M
t
para x ∈ [−t, t] ⇒ m
t
≤ I
f
≤ M
t
∀t > 0, pero por continuidad de f,
l´ım
t→0
+
M
t
= l´ım
t→0
+
m
t
= f(0), por lo que I
f
= f(0).
Ejemplos muy utilizados son (121) y tambi´ en
δ(x) = −
1
π
l´ım
ε→0+
Im[
1
x + iε
] =
1
π
l´ım
ε→0
+
ε
x
2
+ ε
2
(123)
δ(x) =
1
π
l´ım
ε→0
+
ε
sin
2
(x/ε)
x
2
(124)
que corresponden a g(x) =
1
π(1+x
2
)
y g(x) =
sin
2
(x)
πx
2
. No obstante, existen tambi´ en fun-
ciones g(x) no siempre positivas que satisfacen l´ım
ε→0
+
ε
−1
g(x/ε) = δ(x). Por ejemplo la
f´ ormula de Dirichlet,
l´ım
ε→0
+
1
π


−∞
f(x)
sin(x/ε)
x
dx = f(0)
corresponde a g(x) = sin(x)/(πx) e implica
l´ım
ε→0
+
sin(x/ε)
πx
= δ(x)
a´ un cuando l´ım
ε→0
+
sin(x/ε)/x es no nulo (no existe) para x = 0 (s´ olo es nulo el promedio:
l´ım
ε→0
+
1
εt

x
0
+t
x
0
−t
g(x/ε)dx = 0 si 0 < t < |x
0
|).
2) Propiedades b´ asicas de la delta.
La composici´ on de δ(x) con otras funciones se define de modo tal que se sigan
cumpliendo las reglas usuales de integraci´ on. Por ejemplo,


−∞
δ(x −x
0
)f(x)dx =


−∞
δ(u)f(u + x
0
)du = f(x
0
) (125)
Asimismo, si a = 0,


−∞
δ(ax)f(x)dx =
1
|a|


−∞
δ(u)f(
u
a
)du =
1
|a|
f(0)
por lo que
δ(ax) =
1
|a|
δ(x) , a = 0 (126)
En particular, δ(−x) = δ(x).
Para una funci´ on invertible y derivable g(x) que posee una s´ ola ra´ız x
1
(g(x
1
) = 0),
con g

(x
1
) = 0, obtenemos


−∞
δ(g(x))f(x)dx =

r
+
r

δ(u)
f(g
−1
(u))
|g

(g
−1
(u))|
du =
f(x
1
)
|g

(x
1
)|
45
I.2 PROBLEMAS DE CONDICIONES INICIALES
donde (r

, r
+
) ⊂ en la imagen g(ℜ), con r
±
>
<
0 y g
−1
(0) = x
1
. Por lo tanto, en este caso,
δ(g(x)) =
δ(x −x
1
)
|g

(x
1
)|
(127)
En general, para una funci´ on g(x) derivable con ra´ıces aisladas x
n
y g

(x
n
) = 0 tenemos
δ(g(x)) =
¸
n
δ(x −x
n
)
|g

(x
n
)|
(128)
Sin embargo δ(x
2
) y en general, δ(x
n
), n > 1, no est´ an definidas para funciones de prueba
arbitrarias. Tampoco lo est´ a el producto δ(x)δ(x) = [δ(x)]
2
. Notemos tambi´ en que si g(x)
es una funci´ on de prueba,
g(x)δ(x) = g(0)δ(x) (129)
Derivadas de δ(x). Si queremos que se siga cumpliendo la integraci´ on por partes,
podemos definir tambi´ en la derivada δ

(x) t.q. (recordar que f se anula fuera de un inter-
valo finito)


−∞
δ

(x)f(x)dx = −


−∞
δ(x)f

(x)dx = −f

(0)
y en general, la derivada en´ esima δ
(n)
(x) t.q.


−∞
δ
(n)
(x)f(x)dx = (−1)
n
f
(n)
(0)
De este modo,
f

(x
0
) = −


−∞
δ

(x −x
0
)f(x)dx (130)
f
(n)
(x
0
) = (−1)
n


−∞
δ
(n)
(x −x
0
)f(x)dx (131)
Notemos tambi´ en que si a = 0,
δ
(n)
(ax) =
1
a
n
|a|
δ
(n)
(x)
En particular, δ
(n)
(−x) = (−1)
n
δ
(n)
(x).
Se deja al lector probar que:
g(x)δ

(x) = g(0)δ

(x) −g

(0)δ(x),
[δ(x)g(x)]

= δ

(x)g(x) + δ(x)g

(x) = g(0)δ

(x),
[δ(g(x))]

= δ

(g(x))g

(x).
3) Funci´ on de Heaviside.
46
I.2 PROBLEMAS DE CONDICIONES INICIALES
Consideremos la funci´ on “escal´ on”
H(x) =

1 x ≥ 0
0 x < 0
(132)
Mostraremos que efectivamente H

(x) = δ(x) (lo que es intuitivamente razonable) de
modo que H(x) representa la “primitiva” de δ(x), al menos en forma simb´ olica. En efecto,
para una funci´ on de prueba f(x), obtenemos, integrando por partes,


−∞
H

(x)f(x)dx = −


−∞
H(x)f

(x)dx = −


0
f

(x)dx = f(0)
de modo que
H

(x) = δ(x)
Mediante H(x) podemos escribir una integral en un intervalo finito como una integral en
toda la recta, donde los l´ımites quedan determinados por el integrando:

b
−∞
f(x)dx =


−∞
H(b −x)f(x)dx

b
a
f(x)dx =


−∞
[H(b −x) −H(a −x)]f(x)dx
4) Tratamiento formal. Teor´ıa de distribuciones
Consideremos primero un espacio V de vectores de dimensi´ on finita, tal como R
n
.
Podemos definir una forma o funcional lineal como una funci´ on L : V →ℜ que asigna a
cada vector u ∈ V un n´ umero real L(u) y que satisface
L(c
1
u
1
+ c
2
u
2
) = c
1
L(u
1
) + c
2
L(u
2
)
Puede mostrarse que ∃ un ´ unico vector

l t.q.
L(u) = (

l, u)
∀ u ∈ V , donde (

l, u) denota el producto interno de dos vectores ((u, u) ≥ 0, con (u, u) =
0 s´ olo si u =

0, (v, u) = (u, v)

, (c
1
v
1
+ c
2
v
2
, u) = c

1
(v
1
, u) + c

2
(v
2
, u)). Por ej., en R
n
,
podemos considerar (v, u) = v · u (producto escalar) y en C
n
, (v, u) = v

· u.
Expandiendo u en una base ortonormal de vectores v
i
, i = 1, . . . , n, t.q. (v
i
, v
j
) = δ
ij
,
tenemos u =
n
¸
i=1
c
i
v
i
y
L(u) =
¸
i
c
i
L(v
i
) =
¸
i
c
i
l
i
= (

l, u)
47
I.2 PROBLEMAS DE CONDICIONES INICIALES
donde l
i
= L(v
i
) y

l =
¸
i
l

i
v
i
. De modo que toda forma lineal L en un espacio de dim.
finita con producto interno puede ser identificada con un vector

l del espacio.
En espacios de dimensi´ on infinita, tal identificaci´ on no es siempre posible. Consider-
emos por ej. el espacio de funciones “de prueba” D formado por funciones reales f(x)
que poseen derivadas de cualquier orden y se anulan fuera de un intervalo finito. Podemos
definir el producto interno
(g, f) =


−∞
g(x)f(x)dx
Consideremos ahora el funcional lineal L que asigna a cada funci´ on un n´ umero real, con
L[c
2
f
1
+ c
2
f
2
] = c
1
L[f
1
] + c
2
L[f
2
]
donde c
1
y c
2
son constantes. Para toda funci´ on g(x) ∈ D podemos asociar el funcional
lineal L
g
, tal que
L
g
[f] =


−∞
g(x)f(x)dx
Pero podemos tambi´ en definir el funcional δ t.q.
δ[f] = f(0)
aunque es obvio que no existe g ∈ D que satisfaga


−∞
g(x)f(x)dx = f(0)
∀ f ∈ D. El espacio de funcionales es pues “m´ as grande” que el de las funciones f.
No obstante, por comodidad podemos introducir el s´ımbolo δ(x) asociado al funcional
anterior, t.q.
δ[f] =


−∞
δ(x)f(x)dx = f(0)
Se define la derivada de L como
L

[f] = −L[f

]
para que se siga cumpliendo formalmente la integraci´ on por partes. De esta forma,
L
g
′ [f] =


−∞
g

(x)f(x)dx = −


−∞
g(x)f

(x)dx = L

g
[f]
y en particular,
δ

[f] = −δ[f

] = −f

(0)
La funcional de Heaviside se define como
H[f] =


0
f(x)dx
48
I.2 PROBLEMAS DE CONDICIONES INICIALES
que corresponde a g(x) = H(x), con
H

[f] = −H[f

] = −


0
f

(x)dx = f(0)
Por lo tanto, H

= δ.
Por ejemplo, puede demostrar el lector que, considerando a |x| una distribuci´ on,
d|x|
dx
= H(x) −H(−x),
d
2
|x|
dx
2
= 2δ(x)
Las distribuciones son funcionales lineales continuas sobre D. La continuidad significa
que si f
n
(x) es una sucesi´ on de funciones t.q. para n →∞f
n
y sus derivadas tienden a 0
uniformemente ⇒L[f
n
] → 0. Las distribuciones forman pues un espacio vectorial (de-
nominado el espacio dual de D). Para un espacio finito el dual es equivalente al espacio,
pero esto no es necesariamente v´ alido para un espacio de dimensi´ on infinita.
Se dice que una distribuci´ on L se anula en un intervalo I si L[f] = 0 ∀ f que sea
no nula s´ olamente en I. En tal caso, L[f] no depender´ a de los valores que tome f en I.
Con esta definici´ on, podemos decir que δ(x) = 0 ∀ x = 0 y que H(x) = 0 si x < 0. El
soporte de una distribuci´ on es el conjunto cerrado de puntos donde L no se anula (o sea, el
conjunto cerrado m´ as chico fuera del cual L se anula). De esta forma, el soporte de δ(x) es
el punto x = 0 mientras que el soporte de H(x) es el semieje x ≥ 0. El soporte singular
de una distribuci´ on L
g
es el conjunto cerrado m´ as chico fuera del cual L es equivalente
a una funci´ on g(x) derivable a cualquier orden. El soporte singular de δ(x) (y tambi´ en
H(x)) es pues el punto x = 0.
I.2.6. Matriz de Green como distribuci´ on.
Podemos ahora volver a la definici´ on de nuestra matriz de Green en la ecuaci´ on (88),
y escribirla como distribuci´ on
G(t, t

) ≡ K(t, t

)H(t −t

)
donde
K(t, t

) = U(t)U
−1
(t

)
y U(t) es una matriz fundamental del sistema.
En el caso del sistema lineal de n ecuaciones,
du
dt
−A(t)u =

f(t), (133)
es decir,
L[u(t)] =

f(t), L = I
d
dt
−A(t) ,
con u,

f de n ×1 y A de n ×n,
49
I.2 PROBLEMAS DE CONDICIONES INICIALES
Dado que K(t, t

) = 0 es soluci´ on de la ecuaci´ on homog´ enea, G(t, t

) satisface
L[G(t, t

)] = Iδ(t −t

)
donde I es la identidad de n×n, con G(t, t

) = 0 para t →t
′−
. La soluci´ on de (133) para
u(t
0
) =

0 y t
0
→−∞puede entonces escribirse como
u(t) =


−∞
G(t, t

)

f(t

)dt

En particular, si

f(t) =

f
0
δ(t −t

), con

f
0
constante,
u(t) = G(t, t

)

f
0
es decir,
u
i
(t) =
¸
j
G
ij
(t, t

)f
0j
El elemento de matriz G
ij
(t, t

) representa pues el efecto en el tiempo t en la componente
i de una fuente puntual actuando en el tiempo t

en la componente j. Como
l´ım
t→t
′+
G(t, t

) = I
para t > t

la columna j de G(t, t

) es la soluci´ on del sistema homog´ eneo con la condici´ on
inicial u
i
(t

) = δ
ij
. Esto puede utilizarse para hallar G(t, t

).
Matriz constante. Si A(t) = A, constante ⇒U(t) = exp[At]U
0
y K(t, t

) = exp[A(t−
t

)], por lo que
G(t, t

) = exp[A(t −t

)]H(t −t

)
Es en este caso una funci´ on de t −t

debido a la invariancia de la ec. homog´ enea frente a
traslaciones temporales, y se la escribe como G(t −t

).
I.2.7. Funci´ on de Green para ecuaciones lineales de orden n
Consideremos el caso particular de una ´ unica ecuaci´ on lineal inhomog´ enea de primer
orden
du
dt
−a(t)u = f(t)
es decir,
L[u(t)] = f(t) (134)
con L =
d
dt
−a(t) un operador lineal. Hemos visto que la soluci´ on para u(t
0
) = u
0
es
u(t) = K(t, t
0
)u
0
+

t
t
0
K(t, s)f(s)ds (135)
50
I.2 PROBLEMAS DE CONDICIONES INICIALES
con
K(t, t

) = exp[

t
t

a(s)ds] = u
h
(t)/u
h
(t

)
y u
h
(t) = exp[

a(t)dt] una soluci´ on arbitraria de la ec. homog´ enea. Consideremos ahora
el caso en que t
0
→−∞, con u
0
= 0, y
f(t) = δ(t −t

)
Obtenemos, si t = t

,
u(t) =

t
−∞
K(t, s)δ(s −t

)ds =

K(t, t

) t > t

0 t < t

La soluci´ on anterior es la funci´ on de Green causal del problema y se la define ∀t en la
forma
G(t, t

) ≡ K(t, t

)H(t −t

) (136)
La funci´ on de Green desempe˜ na un papel central en la descripci´ on matem´ atica de fen´ omenos
f´ısicos, y se la denomina a veces tambi´ en funci´ on respuesta. La ec. (136) representa la re-
spuesta del sistema en t frente a una fuente puntual actuando en t

, estando el sistema en
reposo para t < t

. Debe consider´ arsela como una distribuci´ on. Queda definida por la ec.
L[G(t, t

)] = δ(t −t

) (137)
y la condici´ on inicial G(t, t

) = 0 si t → t
′−
. Puede verificarse que la ec. (136) satisface
(137), tanto por derivaci´ on de la distribuci´ on K(t, t

)H(t − t

) como por aplicaci´ on del
primer miembro de (137) a una funci´ on de prueba arbitraria. Se dejan los detalles para
el lector. Para t > t

, G(t, t

) es la soluci´ on de la ec. homog´ enea con la condici´ on ini-
cial l´ım
t→t
′+ G(t, t

) = K(t

, t

) = 1. Recordemos tambi´ en que, a diferencia de G(t, t

),
K(t, t

) es soluci´ on del sistema homog´ eneo: L[K(t, t

)] = 0 ∀ t.
La soluci´ on de (175) con la condici´ on inicial u
0
= 0 t
0
= −∞ puede entonces
escribirse como
u(t) =


−∞
G(t, t

)f(t

)dt

(138)
done el l´ımite superior puede extenderse hasta ∞ya que G(t, t

) es nula para t

> t. Dado
que
f(t) =


−∞
f(t

)δ(t −t

)dt

la ec. (138) puede interpretarse como la suma de las soluciones particulares para cada
uno de los t´ erminos f(t

)δ(t −t

). Utilizando (137) puede verificarse inmediatamente que
L[u(t)] =


−∞
δ(t −t

)f(t

)dt

= f(t).
El operador lineal G definido por
G[f(t)] =


−∞
G(t, t

)f(t

)dt

51
I.2 PROBLEMAS DE CONDICIONES INICIALES
desempe˜ na entonces el papel de inversa del operador L, ya que L[G[f(t)]] = f(t) ∀
funci´ on de prueba f(t). Notemos que si nos restringimos a soluciones que cumplen
u(t
0
) = 0, con t
0
= −∞, la soluci´ on dada por (138) es la ´ unica soluci´ on de (175).
Notemos tambi´ en que la aplicaci´ on de L a una funci´ on de prueba u(t) puede escribirse
en forma similar en t´ erminos de una distribuci´ on L(t, t

): L[u(t)] =


−∞
L(t, t

)u(t

)dt

,
con L(t, t

) = δ

(t −t

) −a(t)δ(t −t

).
Si a(t) depende de t, el operador L no es invariante frente a traslaciones temporales
por lo que G(t, t

) depender´ a en general de t y t

y no s´ olo de t −t

. Por ej. si a(t) = −2t,
G(t, t

) = e
−(t+t

)(t−t

)
H(t −t

). En cambio, si a(t) = a, constante, L es invariante frente
a traslaciones en el tiempo, por lo que G(t, t

) depender´ a s´ olo de la diferencia t − t

. En
este caso,
G(t, t

) = e
a(t−t

)
H(t −t

)
y se la escribe normalmente como G(t −t

).
Mencionemos finalmente que la soluci´ on general (135) puede escribirse para t > t
0
tambi´ en como
u(t) = G(t, t
0
)u
0
+


t
0
G(t, t

)f(t

)dt

, t > t
0
Consideremos la ec. lineal de orden n inhomog´ enea
d
n
u
dt
n
+a
n−1
(t)
d
n−1
u
dt
n−1
+. . .+a
1
(t)
du
dt
+ a
0
(t) = f(t) (139)
que puede escribirse como
du
dt
−A(t)u =

f(t) ,
con
u =

¸
¸
¸
u
du/dt
. . .
d
n−1
u/dt
n−1

,

f(t) =

¸
¸
¸
0
0
. . .
f(t)

,
A(t) =

¸
¸
¸
0 1 0 . . .
0 0 1 . . .
. . . 1
−a
0
(t) −a
1
(t) . . . −a
n−1
(t)

Como f(t) aparece en la ´ ultima fila, y s´ olo nos interesa conocer u(t), bastar´ a con evaluar
el elemento
g(t, t

) = G
1n
(t, t

)
de la matriz de Green, que satisface la ec.
d
n
g
dt
n
+a
n−1
(t)
d
n−1
g
dt
n−1
+. . .+a
1
(t)
dg
dt
+a
0
(t)g = δ(t−t

) (140)
52
I.2 PROBLEMAS DE CONDICIONES INICIALES
con g(t, t

) = 0 si t < t

, y que para t > t

es la soluci´ on de la ec. homog´ enea con la
condici´ on inicial
g(t

, t

) = 0,
dg
dt
|
t=t
′ = 0, . . .
d
n−2
g
dt
n−2
|
t=t
′ = 0,
d
n−1
g
dt
n−1
|
t=t
′ = 1,
(recordemos que l´ım
t→t
′+
G(t

, t

) = I). Tanto g como las derivadas
d
k
dt
k
g(t, t

) para k =
1, . . . , n−2, son pues continuas en t = t

. S´ olo la derivada de orden n−1 es discontinua,
lo que asegura que se satisfaga (140).
Si tanto u como sus derivadas se anulan para t = t
0
, y t
0
→−∞, la soluci´ on de la ec.
inhomog´ enea (139) es
u(t) =


−∞
g(t, t

)f(t

)dt

Si f(t) = 0 para t ≤ 0, u(t) =


0
g(t, t

)f(t

)dt

.
En el caso de coeficientes constantes,
g(t, t

) = g(t −t

), con g(t) = {exp[At]}
1n
H(t) = u
n
(t)H(t)
donde u
n
(t) es la soluci´ on de la ec. homog´ enea con la condici´ on inicial u
(k)
n
(0) = 0,
k = 0, . . . , n −2, u
(n−1)
n
(0) = 1.
Ejemplos
1) Ec. lineal de orden 2 con coeficientes constantes:
d
2
u
dt
2
+ 2a
du
dt
+ bu = f(t) (141)
Las ra´ıces de la ec. caracter´ıstica
P(λ) = λ
2
+ 2aλ + b = 0
son λ
±
= −a ± r, con r =

a
2
−b. La soluci´ on general de la ec. homog´ enea es, si
λ
+
= λ

u
h
(t) = c
+
e
λ
+
t
+ c

e
λ

t
y la soluci´ on para u(0) = u
0
, v(0) = v
0
es
u
h
(t) = e
−at
[u
0
cosh(rt)+
v
0
+au
0
r
sinh(rt)] (142)
La funci´ on de Green se obtiene reemplazando u
0
= 0, v
0
= 1 y multiplicando por H(t):
g(t) =
1
r
e
−at
sinh(rt)H(t) (143)
y satisface
d
2
g
dt
2
+ 2a
dg
dt
+ bg = δ(t)
53
I.2 PROBLEMAS DE CONDICIONES INICIALES
Si r = 0 (λ
+
= λ

) la soluci´ on de la ec. homog´ enea para u(0) = 0, v(0) = 1 es
u
h
(t) = e
−at
t y entonces
g(t) = e
−at
tH(t) (144)
resultado que puede obtenerse directamente de (143) tomando el l´ımite r →0.
Si f(t) = 0 para t < 0 y el sistema est´ a en reposo hasta t = 0, la soluci´ on de (141)
para t > 0 es pues
u(t) =
1
r

t
0
e
−a(t−t

)
sinh[r(t−t

)]f(t

)dt

(145)
Como ejemplo f´ısico, podemos considerar la ec. de movimiento cl´ asica de una part´ıcu-
la de masa mcolgada de un resorte en un medio viscoso, en presencia de una fuerza F(t):
m
d
2
u
dt
2
+ γ
du
dt
+ ku = F(t)
donde γ > 0 es el coeficiente de rozamiento din´ amico, k > 0 la constante del resorte y u
la coordenada vertical medida desde la posici´ on de equilibrio (el peso −mg que aparecer´ıa
en el lado derecho se cancela al efectuar la traslaci´ on u → u −mg/k, donde mg/k es la
posici´ on de equilibrio; en forma an´ aloga podemos tambi´ en cancelar el promedio
¯
F(t) en
un cierto tiempo). Esta ecuaci´ on corresponde a
a =
γ
2m
, b =
k
m
, f(t) =
F(t)
m
Si a
2
> b (γ
2
> 4mk) ⇒r es real y g(t) es una combinaci´ on de decaimientos exponen-
ciales (como r < a, a ±r son positivos).
Si a
2
= b (γ
2
= 4mk) ⇒r = 0 y obtenemos el resultado (144).
Finalmente, si a
2
< b (γ
2
< 4mk) ⇒r es imaginario: r = iω, con ω =

b −a
2
real,
y
g(t) =
1
ω
e
−at
sin(ωt)H(t)
que representa un movimiento oscilatorio amortiguado para t > 0.
Notemos tambi´ en que si a = 0 (roce nulo),
g(t) =
1
ω
sin(ωt)H(t)
representa un movimiento oscilatorio arm´ onico para t > 0, con ω =

b, mientras que si
a = b = 0,
g(t) = tH(t)
que representa un movimiento uniforme para t > 0. Este caso corresponde a la ec.
d
2
u
dt
2
= f(t)
54
I.2 PROBLEMAS DE CONDICIONES INICIALES
y su soluci´ on para t > 0 y u(0) = u

(0) = 0 es entonces
u(t) =

t
0
(t −t

)f(t

)dt

que equivale, tras una integraci´ on por partes, a
u(t) =

t
0
dt

t

0
f(t
′′
)dt
′′
2) Ec. lineal de orden n con coeficientes constantes:
La ec. caracter´ıstica es
P(λ) = λ
n
+a
n−1
λ
n−1
+. . .+a
1
λ+a
0
= 0
Si P posee n ra´ıces λ
k
distintas, la soluci´ on general de la ec. homog´ enea es
u
h
(t) =
n
¸
k=1
c
k
e
λ
k
t
Construyendo la soluci´ on particular para u
(i)
(0) = 0 si i = 0, . . . , n−2, con u
(n−1)
(0) = 1,
puede mostrarse que
g(t) =
n
¸
k=1
e
λ
k
t
P


k
)
H(t) (146)
Como P(λ) =
¸
n
k=1
(λ − λ
k
), P


k
) =
¸
j=k

k
− λ
j
). Por ejemplo, para n = 2
obtenemos
g(t) =
e
λ
1
t
−e
λ
2
t
λ
1
−λ
2
H(t)
Reemplazado λ1
2
= a ±r, se obtiene la ec. (143).
Si existen ra´ıces con multiplicidad > 1, g(t, t

) puede obtenerse como l´ımite del re-
sultado (146).
Ejemplos importantes de ec. inhomog´ eneas
3)
du
dt
−au = f
0
e
λt
H(t) (147)
La soluci´ on para t > 0 y u(0) = 0, es, si a = λ,
u(t) = f
0

t
0
e
a(t−t

)
e
λt

dt

= f
0
e
λt
−e
at
λ −a
(148)
El primer t´ ermino u
p
(t) =
f
0
λ−a
e
λt
es una soluci´ on particular de la ec. inhomog´ enea que
puede obtenerse directamente reemplazando u
p
(t) = ce
λt
en (147), lo que conduce a
c = f
0
/(λ−a). El segundo t´ ermino u
h
(t) = −
f
0
λ−a
e
at
es una soluci´ on de la ec. homog´ enea
55
I.2 PROBLEMAS DE CONDICIONES INICIALES
ajustada para que u(0) = 0. Si la ec. homog´ enea describe un decaimiento ⇒a < 0, en
cuyo caso u
h
(t) es un t´ ermino “transitorio” que se “apaga” al aumentar t.
Si λ →a en (148) obtenemos como l´ımite
u(t) = f
0
e
at
t (149)
resultado que puede obtenerse directamente de la integral en (148) para λ = a. Notemos
la depencia lineal con t.
El resultado (148) es v´ alido para cualquier λ = a, en particular λ = iω, con ω real, que
corresponde al caso de una fuerza peri´ odica sinusoidal. Si a y f
0
son reales, la parte real de
(148) es la soluci´ on para f(t) = f
0
cos(ωt) y la parte imaginaria para f(t) = f
0
sin(ωt).
Vemos de (148) que la soluci´ on particular oscilar´ a con la misma frecuencia externa pero
con una amplitud f
0
/(iω−a) que depende de la frecuencia, y que tiende a 0 para ω →∞.
Por ej., en un circuito con inducci´ on L, resistencia R y potencial V (t), la corriente I
satisface la ec.
L
dI
dt
+ RI = V (t)
que corresponde a a = −R/L, f(t) = V (t)/L. El caso λ = iω corresponde a un circuito
con corriente alterna V (t) = V
0
e
iωt
.
4)
du
dt
−Au =

f
0
e
λt
H(t) (150)
con u,

f
0
de n ×1, A de n ×n. Si u(0) =

0, la soluci´ on para t > 0 es
u(t) =

t
0
exp[A(t −t

)]

f
0
e
λt

dt

= u
p
(t) +u
h
(t) (151)
donde u
p
(t) es una soluci´ on particular de la ec. inhomog´ enea y u
h
(t) = exp[At]u
0
una
soluci´ on de la ec. homog´ enea que ajusta la condici´ on inicial. Si λ no coincide con ning´ un
autovalor λ
k
de A, u
p
(t) ser´ a de la forma
u
p
(t) = ce
λt
Reemplazando en (150) se obtiene
(λI −A)ce
λt
=

f
0
e
λt
de donde
c = (λI −A)
−1

f
0
Por lo tanto, u
h
(t) = −exp[At]c y
u(t) = (e
λt
I −exp[At])(λI −A)
−1

f
0
, λ = λ
k
(152)
56
I.2 PROBLEMAS DE CONDICIONES INICIALES
Para λ = iω = λ
k
, obtenemos el conocido e importante resultado que la soluci´ on partic-
ular de (151) tendr´ a la misma frecuencia que el t´ ermino inhomog´ eneo, con una amplitud
dependiente de la frecuencia.
En cambio, si λ coincide con un autovalor λ
k
de multiplicidad n
k
, (λI − A) no es
invertible y la soluci´ on anterior no es v´ alida en general. u
p
(t) contendr´ a t´ erminos de la
forma e
λ
k
t
t
m
, con m ≤ n
k
, y puede hallarse evaluando (151) en una base conveniente o
bien tomando el l´ımite de (152). Por ejemplo, si n
k
= 1, u
p
(t) ser´ a de la forma
u
p
(t) = (c + αv
k
t)e
λ
k
t
donde Av
k
= λ
k
v
k
. Reemplazando en (151) obtenemos

k
I −A)c + αv
k
=

f
0
de donde puede obtenerse c eligiendo α t.q.

f
0
−αv
k
sea ortogonal a v
k
.
5)
d
2
u
dt
2
+ 2a
du
dt
+ bu = f
0
e
λt
H(t) (153)
La soluci´ on para t > 0 y u(0) = 0, u

(0) = 0, es
u(t) = f
0

t
0
g(t −t

)e
λt

dt

= u
p
(t) + u
h
(t) (154)
Si λ no es ra´ız de la ec. caracter´ıstica, es decir, λ = λ
±
, con λ
±
= −a±r, y r =

a
2
−b,
obtenemos, para r = 0,
u
p
(t) =
f
0
e
λt
(λ−λ
+
)(λ−λ

)
=
f
0
e
λt
λ
2
+2aλ+b
(155)
u
h
(t) =
−f
0
e
−at
[cosh[rt]+(λ+a) sinh[rt]]/r
(λ−λ
+
)(λ−λ

)
Nuevamente u
p
(t) es una soluci´ on particular que puede obtenerse reemplazando u
p
(t) =
ce
λt
en (199) y u
h
(t) una soluci´ on de la ec. homog´ enea ajustada t.q. u(0) = 0.
Si λ →λ
±
= −a ±r (“resonancia”) ⇒
u
p
(t) = ±
f
0
e
λ
±
t
t
2r
, u
h
(t) = ∓
f
0
e
−at
sinh[rt]
2r
2
(156)
que pueden obtenerse como l´ımite del resultado anterior o por integraci´ on de (154). Si
a = 0 y r = iω, con ω real, tenemos el caso propiamente resonante, en el que la amplitud
de la oscilaci´ on resultante es proporcional a t.
Si r →0 (ra´ız doble) y λ = −a,
u
p
(t) =
f
0
e
λt
(λ+a)
2
, u
h
(t) =
−f
0
e
−at
[1 + (a + λ)t]
(λ+a)
2
57
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
Finalmente, si r →0 y λ →−a,
u
p
(t) =
1
2
f
0
e
−at
t
2
, u
h
(t) = 0
Mencionemos finalmente que para una fuerza f(t) = f
0
t
n
, con λ
±
= 0, u
p
(t) ser´ a un
polinomio de grado n mientras que si una ra´ız es nula (por ej. λ

= 0), u
p
(t) ser´ a un
polinomio de grado n + 1.
I.3. Problemas con condiciones de contorno: el problema
de Sturm-Liouville
I.3.1. Generalidades
Hasta ahora hemos visto ecuaciones diferenciales con condiciones iniciales. Para una
ecuaci´ on lineal ordinaria de segundo orden, las que las constantes de integraci´ on se de-
terminaban a partir de los valores de la funci´ on inc´ ognita y su derivada primera en un
instante inicial t = t
0
. Comenzaremos a estudiar en esta clase problemas de segundo or-
den en los cuales las constantes de integraci´ on quedan determinadas, no por condiciones
iniciales, sino por condiciones de contorno. En tales problemas, el rango de variaci´ on de
la variable (que representar´ a usualmente una posici´ on) est´ a restringido a un cierto inter-
valo y las constantes de integraci´ on se determinan a partir de los valores de la funci´ on
inc´ ognita y/o su derivada en los puntos extremos del intervalo.
Tomemos una ecuaci´ on lineal de segundo orden general
d
2
u
dx
2
+ A(x)
du
dx
+ B(x)u = F(x) (157)
donde A(x), B(x) y F(x) son continuas. Tal ecuaci´ on es equivalente a

d
dx
[p(x)
du
dx
] + q(x)u = f(x) (158)
donde f(x) = −p(x)F(x), q(x) = −p(x)B(x) y
p(x) = e

A(x)dx
es una funci´ on positiva.
En efecto, como p

(x) = A(x)p(x), se tiene (pu

)

= pu
′′
+ p

u

= p(u
′′
+ a
1
u

),
reduci´ endose (158) a la ec. (157) multiplicada por −p(x).
La ec. (158) se denomina ec. de Sturm-Liouville inhomog´ enea (la correspondiente
ecuaci´ on homog´ enea se obtiene para f(x) ≡ 0) y se escribe usualmente como
L[u(x)] = f(x) (159)
58
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
donde
L = −
d
dx
[p(x)
d
dx
] + q(x)
es el operador lineal de Sturm-Liouville. Tal operador act´ ua sobre funciones u(x)
definidas en un dado intervalo real, a ≤ x ≤ b, y s´ olo queda completamente definido
cuando se especifican los valores de la funci´ on inc´ ognita, su derivada primera, o combina-
ciones lineales de ellas en los extremos (a, b) del intervalo. Tales condiciones se conocen
como condiciones de contorno, y las funciones que las satisfacen constituyen el dominio
del operador de Sturm-Liouville.
Problemas de este tipo aparecen frecuentemente en ecuaciones con derivadas parciales
al aplicar el m´ etodo de separaci´ on de variables, como veremos en las pr´ oximas clases.
Cabe insistir aqu´ı en que estudiaremos primero el caso en que p(x) es no nulo en [a, b].
M´ as adelante, analizaremos el caso en que p(x) se anula en uno o ambos extremos, que
conduce al estudio de las llamadas funciones especiales.
I.3.2. Tipos de condiciones de contorno
Ejemplo 1: Consideraremos primero la ec. (159) en un intervalo finito [a, b], con las
condiciones de contorno conocidas como condiciones de Dirichlet homog´ eneas,
u(a) = u(b) = 0 (160)
El primer punto importante a analizar es la existencia 0 no de soluciones no triviales
u(x) = 0 de la ecuaci´ on homog´ enea L[u] = 0, que satisfaga las condiciones (191). Como
veremos, la no existencia de tales soluciones (tambi´ en llamadas modos cero) es condici´ on
necesaria y suficiente para que la ecuaci´ on inhomog´ enea tenga soluci´ on ´ unica, v´ıa funci´ on
de Green.
Por ejemplo, si
L = −
d
2
dx
2
(p(x) = 1, q(x) = 0), la soluci´ on general de la ec. homog´ enea L[u] = 0 es u(x) =
cx + d. Si u(a) = u(b) = 0 ⇒c = d = 0. La ecuaci´ on homog´ enea s´ olo admite, pues, la
soluci´ on trivial.
Ejemplo 2: Como segundo ejemplo, si
L = −
d
2
dx
2
−k
2
la ec. L[u] = 0 posee la soluci´ on
u(x) = ce
ikx
+ de
−ikx
, que
podemos escribir como
u(x) = c

sin(k(x −a)) +d

cos(k(x −a))
59
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
Si u(a) = 0 ⇒d

= 0, y
la condici´ on u(b) = 0 implica
c

sin[k(b −a)] = 0
que posee una soluci´ on no trivial (c

= 0) si y s´ olo si
k(b −a) = nπ , n ∈ Z
En caso contrario c

= 0 y la ´ unica soluci´ on es u(x) ≡ 0.
Las condiciones de contorno (3) no son m´ as que un caso muy particular. En general,
las condiciones de contorno que definen el dominio de un operador de Sturm-Liouville
pueden ser de dos tipos: locales o separadas o no locales. Se llama condiciones locales
a aqu´ ellas que establecen una relaci´ on entre la funci´ on inc´ ognita y su derivada en cada
borde por separado. Entre ´ estas, las usualmente consideradas son las llamadas condiciones
de contorno de Cauchy, o de Robin homog´ eneas:
c
a
u(a) + d
a
u

(a) = 0, c
b
u(b) + d
b
u

(b) = 0 (161)
Si d
a
= d
b
= 0, estas se reducen a las de Dirichlet homog´ eneas mientras que, si c
a
=
c
b
= 0, se obtienen las condiciones de Neumann homog´ eneas, u

(a) = u

(b) = 0. Por
supuesto, puede tenerse tambi´ en d
a
= c
b
= 0, en cuyo caso se obtienen las condiciones
mixtas u(a) = 0, u

(b) = 0 (Dirichlet en un extremo y Neumann en el otro). En general,
la condici´ on impuesta en un extremo es independiente de la impuesta en el otro.
Notemos que el conjunto de funciones que satisfacen condiciones de contorno del tipo
(161) forman un espacio vectorial (si u
1
y u
2
las satisfacen ⇒c
1
u
1
+c
2
u
2
tambi´ en las sat-
isface). No ocurre lo mismo para condiciones de contorno no homog´ eneas (combinaci´ on
lineal de u y su derivada igualada a una constante distinta de cero).
Las condiciones de contorno no locales, en cambio, establecen una relaci´ on entre el
valor que toman la funci´ on inc´ ognita y su derivada en uno y otro borde. T´ıpicos ejemplos
de condiciones de contorno no locales son las condiciones peri´ odicas
u(a) = u(b), p(a)u

(a) = p(b)u

(b) (162)
y antiperi´ odicas
u(a) = −u(b), p(a)u

(a) = −p(b)u

(b) . (163)
I.3.3. Car´ acter autoadjunto del operador
Una propiedad fundamental del operador L con las condiciones de contorno
(161), (191) o (163) es que resulta autoadjunto:
60
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
Teorema I.3.1 Si u y v son dos funciones reales que satifacen alguna de las condiciones
de contorno (161), (191) o (163), entonces se cumple
(v, L[u]) = (L[v], u) (164)
donde (v, u) denota el producto interno usual
(v, u) =

b
a
v(x)u(x)dx
(hemos supuesto u, v reales).
Demostraci´ on: En efecto, integrando por partes obtenemos
(v, L[u]) −(L[v], u) =

b
a
[v(pu

)

−u(pv

)

]dx
=

b
a
[(vpu

)

−(upv

)

]dx
= p[vu

−uv

]|
b
a
= pW(v, u)|
b
a
= 0 (165)
para las condiciones (161), (191) o (163). En efecto, es f´ acil verificar que el Wronskiano
W(u, v) se anula independientemente en cada extremo para funciones que satisfacen
condiciones de contorno de Cauchy, y que la contribuci´ on de un extremo se cancela con
la del otro extremo para funciones que satisfacen condiciones de contorno peri´ odicas o
antiperi´ odicas.

Notemos que la noci´ on de operador autoadjunto sobre un espacio de funciones es ex-
tensi´ on natural de la definici´ on de matriz autoadjunta. En efecto, en el caso de vectores u
de R
n
y operadores lineales representados por matrices Areales de n×n, con el producto
interno usual (v, u) = v · u =
¸
n
i=1
v
i
u
i
, A se define autoadjunto si (v, Au) = (Av, u) ∀
u, v ∈ R
n
, o sea, si
¸
i,j
v
i
A
ij
u
j
=
¸
i,j
u
i
A
ij
v
j
. Esto implica A
ij
= A
ji
∀ i, j, es decir,
A
tr
= A. Los operadores lineales reales autoadjuntos en R
n
son, pues, representados por
matrices A sim´ etricas.
Como veremos a continuaci´ on, el car´ acter autoadjunto del operador tiene consecuen-
cias muy importantes: La funci´ on de Green asociada, si existe, resulta sim´ etrica y se
satisface, por lo tanto, el principio de reciprocidad (ver secci´ on I.3.4). Por otra parte, el
operador tiene un conjunto completo de autofunciones, que son una base del espacio vec-
torial de funciones en el dominio (ver secci´ on I.3.6).
61
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
I.3.4. Funci´ on de Green para condiciones de Cauchy. Soluci´ on del
problema inhomog´ eneo
Consideremos ahora la ec. inhomog´ enea (159). Como en los problemas de condi-
ciones iniciales, la herramienta general de resoluci´ on ser´ a la funci´ on de Green G(x, x

)
del operador L con la condici´ on de contorno (161).
Se define dicha funci´ on de Green como la soluci´ on de la ecuaci´ on (el sub´ındice en el
operador indica que el mismo act´ ua sobre el primer argumento de la funci´ on de Green)
L
x
[G(x, x

)] = δ(x −x

) (166)
(donde a < x, x

< b) que satisface, en su primera variable, las condiciones de con-
torno (161), es decir
c
a
G(a, x

) + d
a
dG
dx
(x = a, x

) = 0,
c
b
G(b, x

) + d
b
dG
dx
(x = b, x

) = 0 . (167)
Probaremos a continuaci´ on que:
Teorema I.3.2 i) dicha soluci´ on existe y es ´ unica si y s´ olo si la ´ unica soluci´ on de la
ecuaci´ on homog´ enea L[u(x)] = 0 con la condici´ on de contorno (161) es la soluci´ on
trivial u(x) = 0 ∀ x ∈ [a, b] (no existen modos cero) y
ii) en tal caso existe una ´ unica soluci´ on de la ecuaci´ on inhomog´ enea (159) con la
condici´ on de contorno (161), dada por la convoluci´ on:
u(x) =

b
a
G(x, x

)f(x

)dx

(168)
Demostraci´ on:
Probaremos primero ii). Resulta claro que, si G(x, x

) existe,
(168) es soluci´ on de (159) pues
L[u(x)] =

b
a
L
x
[G(x, x

)]f(x

)dx

=

b
a
δ(x −x

)f(x

)dx

= f(x) ,
donde hemos usado, primero, que L act´ ua sobre la primera variable, no afectada por
la integral; luego, hemos usado la ecuaci´ on diferencial que define a la funci´ on de Green
y, finalmente, la definici´ on de la distribuci´ on delta de Dirac.
Adem´ as, u cumple la condici´ on de contorno (3) pues G la cumple en su primera
variable, no afectada por la convoluci´ on. En efecto
c
a
u(a) + d
a
u

(a) =

b
a
c
a
G(a, x

) + d
a
dG
dx
(x = a, x

)f(x

)dx

= 0
62
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
c
b
u(b) + d
b
u

(b) =

b
a
c
b
G(b, x

) + d
b
dG
dx
(x = b, x

)f(x

)dx

= 0
Hemos mostrado, entonces, que (168) es soluci´ on.
La unicidad de esta soluci´ on surge, por el absurdo, una vez probado i). En efecto, si
existen v
1
y v
2
t.q. L[v
i
(x)] = f(x), i = 1, 2, satisfaciendo ambas (161), por la linealidad
de L se tiene L[v
1
(x) − v
2
(x)] = L[v
1
(x)] − L[v
2
(x)] = 0, lo que implica, por i), que
v
1
−v
2
≡ 0 o, equivalentemente, v
1
≡ v
2
.
La prueba de i) se ver´ a directamente por construcci´ on de la funci´ on de Green.
Sean u
1
(x) y u
2
(x) dos soluciones de la ecuaci´ on homog´ enea L[u(x)] = 0, cada una
de las cuales satisface la condici´ on de contorno en uno de los extremos:
c
a
u
1
(a) + d
a
u

1
(a) = 0, c
b
u
2
(b) + d
b
u

2
(b) = 0 (169)
Por el principio de superposici´ on para L[u(x)] = 0, siempre existen soluciones ´ unicas
u
1
(x), u
2
(x) no id´ enticamente nulas que satisfacen estas condiciones. Por ejemplo, si
v
1
(x) y v
2
(x) son dos soluciones cualesquiera linealmente independientes de L[v] = 0 y
no nulas,
u
1
(x) = v
1
(x)[c
a
v
2
(a) + d
a
v

2
(a)] −v
2
(x)[c
a
v
1
(a) + d
a
v

1
(a)],
u
2
(x) = v
1
(x)[c
b
v
2
(b) + d
b
v

2
(b)] −v
2
(x)[c
b
v
1
(b) + d
b
v

1
(b)]
satisfacen (169)).
Por otro lado, para p y q continuos y p > 0, no pueden existir dos soluciones lineal-
mente independientes que satisfagan ambas la condici´ on de contorno en uno cualquiera
de los extremos del intervalo (pues, en tal caso el determinante de la matriz fundamental,
es decir el wronskiano de estas soluciones, ser´ıa nulo en ese extremo).
Para x < x

, L[G(x, x

)] = 0 y podemos entonces escribir G(x, x

) = c
1
(x

)u
1
(x),
que satisface la condici´ on de contorno en x = a. An´ alogamente, si x > x

, G(x, x

) =
c
2
(x

)u
2
(x), que satisface la condici´ on en x = b. Por lo tanto,
G(x, x

) =

c
1
(x

)u
1
(x) x < x

c
2
(x

)u
2
(x) x > x

(170)
Integrando (166) entre x

−ε y x

+ ε,
con ε > 0, obtenemos
− [p(x)G

(x, x

)]|
x=x


x=x

−ε
+

x


x

−ε
q(x

)G(x, x

)dx

= 1
donde G

(x, x

) =
d
dx
G(x, x

).
Debido a la continuidad de p y q, esta ecuaci´ on puede satisfacerse s´ olo si G(x, x

)
es continua y su derivada tiene una discontinuidad de magnitud −1/p(x

) en x = x

(es
decir, −p(x)G

(x, x

) debe ser de la forma H(x −x

) + φ(x), con φ continua en x = x

,
para que (−pG

)

contenga un t´ ermino δ(x −x

)).
Esto implica
63
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
c
1
(x

)u
1
(x

) −c
2
(x

)u
2
(x

) = 0,
c
1
(x

)u

1
(x

) −c
2
(x

)u

2
(x

) =
1
p(x

)
con u

(x) =
du
dx
, lo que determina c
1
y c
2
:
c
1
(x

) = −u
2
(x

)/C, c
2
(x

) = −u
1
(x

)/C
donde
C = p(x

)[u
1
(x

)u

2
(x

) −u
2
(x

)u

1
(x

)]
= [pW(u
1
, u
2
)]
x=x
′ , W(u
1
, u
2
) =

u
1
u
2
u

1
u

2

La soluci´ on existe s´ olo si C = 0, o sea, s´ olo si el Wronskiano W(u
1
, u
2
) es no nulo.
Esto se cumple si u
1
(x) y u
2
(x) son dos soluciones linealmente independientes de L[u] =
0.
En tal caso C es una constante, independiente de x

:
[p(u
1
u

2
−u
2
u

1
)]

= p

(u
1
u

2
−u
2
u

1
) + p(u
1
u
′′
2
−u
2
u
′′
1
)
= u
1
(pu

2
)

−u
2
(pu

1
)

= q(u
1
u
2
−u
2
u
1
) = 0
El resultado final para C = 0 es pues
G(x, x

) =

−u
1
(x)u
2
(x

)/C x ≤ x

−u
1
(x

)u
2
(x)/C x ≥ x

(171)
Si C = 0, la funci´ on de Green no existe. En este caso las soluciones u
1
(x) y u
2
(x) son
linealmente dependientes, es decir, u
2
(x) = cu
1
(x), por lo que u
1
(x) satisface la condi-
ci´ on de contorno en ambos extremos. Esto implica que si C = 0, existe una soluci´ on no
trivial u
1
= 0 que satisface L[u
1
] = 0 y las condiciones de contorno (3). En otras pal-
abras, la funci´ on de Green existe si y s´ olo si la ´ unica soluci´ on de la ecuaci´ on homog´ enea
L[u] = 0 que satisface las condiciones (161) es u = 0. Esto concluye la prueba de i) y,
al mismo tiempo, (171) da una expresi´ on expl´ıcita para la funci´ on de Green.

Notar: El resultado es completamente an´ alogo al que se obtiene al resolver sistemas
de ecuaciones lineales algebraicas Ax = b, con A una matriz de n × n, y x, b vectores
columna de n ×1. Si la ´ unica soluci´ on al sistema homog´ eneo Ax = 0 es x = 0, entonces
64
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
existe la inversa A
−1
, definida por AA
−1
= I, con I la identidad (es decir, (AA
−1
)
i,j
=
δ
ij
)y, en tal caso, la soluci´ on de Ax = b es ´ unica y est´ a dada por x = A
−1
b (o sea,
x
i
=
¸
j
A
ij
b
j
). En cambio, si existe x = 0 t.q. Ax = 0, la inversa A
−1
no existe.
El operador lineal definido por
G[u(x)] =

b
a
G(x, x

)u(x

)dx

(172)
es, pues, el inverso del operador L y se lo denota a veces tambi´ en como L
−1
.
Notemos que i) el inverso del operador lineal diferencial L es un operador lineal in-
tegral (G(x, x

) se conoce como el n´ ucleo del operador integral) y que ii) G depende no
s´ olo de los coeficientes p(x), q(x) de L sino tambi´ en de la condici´ on de contorno.
Notemos tambi´ en, volviendo a la ecuaci´ on (171), la simetr´ıa
G(x, x

) = G(x

, x) , (173)
que permite enunciar el
Principio de reciprocidad: La respuesta del sistema en x frente a una fuente puntual en
x

es id´ entica a la respuesta del sistema en x

frente a una fuente puntual en x, a´ un si p y
q dependen de x. Esto se debe al car´ acter autoadjunto de L. En efecto, debido al car´ acter
autoadjunto de L:
(L
x
G(x, x

), G(x, x
′′
)) = (G(x, x

), L
x
G(x, x
′′
)) .
Usando la ecuaci´ on diferencial que satisface la funci´ on de Green, y la definici´ on de la
delta de Dirac:

b
a
dxδ(x −x

)G(x, x
′′
) =

b
a
dxG(x, x

)δ(x −x
′′
) ,
que conduce a
G(x

, x
′′
) = G(x
′′
, x

)
A partir de (173), es f´ acil ver que el operador inverso G, definido en (172) es tambi´ en
autoadjunto: (v, G[u]) =

b
a

b
a
v(x)G(x, x

)u(x

)dxdx

= (G[v], u).
Obs´ ervese que la funci´ on de Green (171) no es invariante frente a traslaciones espa-
ciales (debido a las condiciones de contorno). La invarianza traslacional est´ a rota, aun si
p y q son constantes, por lo que G(x, x

) = G(x −x

).
La soluci´ on (168) puede entonces escribirse como
u(x) =
−1
C
[u
2
(x)

x
a
u
1
(x

)f(x

)dx

+ u
1
(x)

b
x
u
2
(x

)f(x

)dx

]
65
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
y puede verificarse expl´ıcitamente que L[u] = f. Siempre es posible escribirla en la
forma u(x) = u
p
(x) + u
h
(x), donde u
p
es una soluci´ on particular de la ec. inhomog´ enea
(L[u
p
] = f) y u
h
una soluci´ on de la ecuaci´ on homog´ enea (L[u
h
] = 0) ajustada para
satisfacer la condici´ on de contorno.
Ejemplo 1: L = −
d
2
dx
2
(p(x) = 1, q(x) = 0). En este caso, tomando a = 0, b > 0 y
u(0) = u(b) = 0,
u
1
(x) = x, u
2
(x) = x −b
y C = x −(x −b) = b. Obtenemos
G(x, x

) =

x(b−x

)
b
x ≤ x

x

(b−x)
b
x ≥ x

(174)
La soluci´ on de la ecuaci´ on

d
2
u
dx
2
= f(x)
para 0 ≤ x ≤ b con u(a) = u(b) = 0 es, entonces
u(x) =

b
0
G(x, x

)f(x

)dx
=
1
b
[

x
0
x

(b−x)f(x

)dx

+

b
x
x(b −x

)f(x

)dx

]
Si f(x) = x
2
se obtiene
u(x) =
1
12
x(b
3
−x
3
) = −
x
4
12
+ x
b
3
12
que se compone de la soluci´ on particular −x
4
/12 m´ as la
soluci´ on de la ec. homog´ enea xb
3
/12, tal que u(0) = u(b) = 0.
Ejemplo 2: L = −
d
2
dx
2
−ω
2
, a = 0, b > 0. En este caso, para u(a) = u(b) = 0,
u
1
(x) = sin(ωx), u
2
(x) = sin(ω(x−b))
y C = ω[sin(ωx) cos(ω(x−b)) −cos(ωx) sin(ω(x−b))] = ω sin(ωb).
La funci´ on de Green existe s´ olo si sin(ωb) = 0, es decir, si ω = nπ/b, con n ∈ Z (ver
ejemplo en la secci´ on I.3.1). Cuando existe, se tiene
G(x, x

) =
1
ω sin(ωb)

sin(ωx) sin(ω(b−x

)) x ≤ x

sin(ωx

) sin(ω(b−x)) x ≥ x

66
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
Para ω →0 se recupera el resultado (174).
Si ω = ik, con k real, la funci´ on de Green existe ∀ k = 0 y se obtiene reemplazando
ω →k, sin →sinh en el resultado anterior.
Ejemplo 3:
Consideremos nuevamente L = −
d
2
dx
2
. Si la condici´ on de contorno es u

(a) = u

(b) =
0, la funci´ on de Green no existe: Tenemos
u
1
(x) = c
1
, u
2
(x) = c
2
y, por lo tanto, C = 0. Esto se debe a que la soluci´ on constante u(x) = c = 0 es
soluci´ on no nula de L[u] = 0 y satisface u

(a) = u

(b) = 0. Obs´ ervese que, en este
caso, la soluci´ on del problema inhomog´ enea, si existe, no es ´ unica. En efecto, dada una
soluci´ on, siempre se le puede sumar una constante arbitraria, que satisface la ecuaci´ on
homog´ enea y la condici´ on de contorno.
Ejemplo 4: Consideremos ahora L = −
d
2
dx
2
−ω
2
, con la condici´ on u

(a) = u

(b) = 0.
Tenemos
u
1
(x) = cos(ωx), u
2
(x) = cos(ω(x −b))
con C = −ω sin(ωb).
La funci´ on de Green existe nuevamente s´ olo si sin(ωb) = 0, es decir, si
ω = nπ/b, con n ∈ Z. En tal caso,
G(x, x

) =
1
ω sin(ωb)

cos(ωx) cos(ω(b−x

)) x ≤ x

cos(ωx

) cos(ω(b−x)) x ≥ x

Si ω →0, |G(x, x

)| →∞.
Por otro lado, si ω = ik, con k real, G(x, x

) existe ∀ k = 0.
I.3.5. Resoluci´ on de ecuaciones lineales homog´ eneas por series de po-
tencias
El formalismo basado en la funci´ on de Green, visto en la secci´ on anterior, permite re-
solver la ecuaci´ on inhomog´ enea L[u] = f conociendo la soluci´ on general de la ecuaci´ on
homog´ enea L[u] = 0. No hemos dicho, sin embargo, c´ omo resolver en general esta ´ ulti-
ma ecuaci´ on, cuando las funciones p(x), q(x) (o equivalentemente, A(x), B(x)) no son
constantes. Esto es lo que discutiremos a continuaci´ on.
Consideremos la ecuaci´ on general lineal de segundo orden
u
′′
+ A(x)u

+ B(x)u = 0 (175)
Teorema I.3.3 Si A(x) y B(x) son anal´ıticas en un entorno de x = 0, es decir,
A(x) =

¸
n=0
A
n
x
n
, B(x) =

¸
n=0
B
n
x
n
, |x| < R, (176)
67
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
las soluciones de (175) son anal´ıticas en ese entorno y pueden, pues, representarse como
una serie de potencias:
u(x) =

¸
n=0
c
n
x
n
, |x| < R (177)
Demostraci´ on: Supondremos primero que existe una soluci´ on del tipo (177), y probare-
mos que converge.
Dado que B(x)u(x) =

¸
n=0
x
n
n
¸
m=0
B
n−m
c
m
, A(x)u

(x) =

¸
n=0
x
n
n+1
¸
m=0
A
n−m+1
mc
m
,
reemplazando (177) en (175) se obtiene, luego de definir B
−1
= 0,

¸
n=0
x
n
[c
n+2
(n + 2)(n + 1) +
n+1
¸
m=0
c
m
(mA
n−m+1
+ B
n−m
)] = 0
Por lo tanto, como el coeficiente de x
n
debe ser nulo,
a
n+2
= −
¸
n+1
m=0
c
m
[mA
n−m+1
+ B
n−m
]
(n + 2)(n + 1)
, n ≥ 0 (178)
donde el segundo miembro depende de los coeficientes previos c
0
, . . . , c
n+1
. Se obtiene
as´ı una relaci´ on recursiva que determina todos los coeficientes c
n
para n ≥ 2 a partir de
los dos primeros c
0
, c
1
. Por ejemplo,
c
2
= −
A
0
c
1
+ B
0
c
0
2
c
3
= −
A
1
c
1
+ 2A
0
c
2
+ B
1
c
0
+ B
0
c
1
6
= −
c
0
(B
1
−A
0
B
0
) + c
1
(A
1
+ B
0
−A
2
0
)
6
(179)
Demostraremos ahora que esta serie converge para |x| < R. Sea t t.q. 0 ≤ |x| < t < R.
Como l´ım
n→∞
A
n
t
n
= l´ım
n→∞
B
n
t
n
= 0 (condici´ on necesaria de convergencia de las series
(176)) ∃ M > 0 t.q.
|B
n
| ≤ M/t
n
, |A
n
| ≤ M/t
n−1
,
∀ n.
Por lo tanto,
|c
n+2
| ≤
M
¸
n+1
m=0
|c
m
|t
m
(m + 1)
t
n
(n + 2)(n + 1)
Definiendo recursivamente los coeficientes no negativos
d
n+2
=
M
¸
n+1
m=0
d
m
t
m
(m+ 1)
t
n
(n + 2)(n + 1)
con d
0
= |c
0
|, d
1
= |c
1
|, tenemos |c
n
| ≤ d
n
∀ n. Adem´ as,
d
n+2
= d
n+1
[
n
t(n + 2)
+
Mt(n + 2)
(n + 2)(n + 1)
]
68
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
por lo que
l´ım
n→∞
d
n+2
|x|
n+2
d
n+1
|x|
n+1
=
|x|
t
< 1
lo que implica, por el criterio del cociente, que
¸

n=0
d
n
x
n
converge absolutamente si
|x| < t, es decir, ∀ |x| < R. Esto implica a su vez que
¸

n=0
c
n
x
n
converge absolutamente
para |x| < R.
La soluci´ on general puede pues escribirse como
u(x) = c
0
u
1
(x) + c
1
u
2
(x)
con u
1
la soluci´ on para c
0
= 1, c
1
= 0 y u
2
aqu´ ella para c
0
= 0, c
1
= 1:
u
1
(x) = 1 −
B
0
2
x
2

B
1
−A
0
B
0
6
x
3
+ . . . ,
u
2
(x) = x −
A
0
2
x
2

A
1
+ B
0
−A
2
0
6
x
3
+ . . .

Obviamente, las mismas consideraciones rigen si los coeficientes son anal´ıticos en un
entorno de un punto x
0
, en cuyo caso, A(x), B(x), u(x) pueden expresarse como series
de potencias en (x −x
0
) en ese entorno.
Ejemplo:
u
′′
−k
2
u = 0
La soluci´ on general es u(x) = αe
kx
+βe
−kx
= a
0
cosh(kx)+a
1
sinh(kx), con a
0,1
= α±
β. Podemos obtenerla con el m´ etodo anterior (para A(x) = 0, B(x) = −k
2
), planteado
la serie (177). Se obtiene

¸
n=0
x
n
[c
n+2
(n + 2)(n + 1) −k
2
c
n
] = 0
de donde
c
n+2
=
k
2
c
n
(n + 2)(n + 1)
= c
n
k
n+2
n!
k
n
(n + 2)!
, n ≥ 0 (180)
Para c
0
= 1, c
1
= 0, la relaci´ on recursiva se satisface si
c
n
=
k
n
n!
, n par, c
n
= 0, n impar
que conduce a u
1
(x) = cosh(kx), y si c
1
= 1, c
0
= 0,
c
n
=
k
n
n!
, n impar, c
n
= 0, n par
69
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
que conduce a u
2
(x) = sinh(kx). El presente teorema implica la convergencia de estas se-
ries ∀ x ∈ ℜ. Veremos otro ejemplo de aplicaci´ on al estudiar los polinomios de Legendre,
en la secci´ on I.6.
Teorema I.3.4 (Teorema de Frobenius-Fuchs): Si A(x) posee, a lo sumo, un polo simple
en x = 0 y B(x), a lo sumo, un polo de orden 2 en x = 0, de modo que para 0 < |x| < R
se cumple
A(x) =

¸
n=−1
A
n
x
n
=
A
−1
x
+ A
0
+ . . . ,
B(x) =

¸
n=−2
B
n
x
n
=
B
−2
x
2
+
B
−1
x
+ . . .
entonces una de las soluciones l.i. de la ec. (175) tiene la forma, para 0 < |x| < R, de
una serie generalizada de potencias
u
1
(x) =

¸
n=0
a
n
x
n+s
= x
s

¸
n=0
a
n
x
n
(181)
donde a
0
= 0 y s es una de las ra´ıces de la ecuaci´ on indicial
s(s −1) +A
−1
s + B
−2
= 0 (182)
o sea,
s =
1 −A
−1
±r
2
, r =

(1 −A
−1
)
2
−4B
−2
(183)
Si la diferencia r entre las dos ra´ıces de esta ecuaci´ on no es entera, entonces la 2
a
solu-
ci´ on de (175) es tambi´ en una serie generalizada de potencias, con s la otra ra´ız de (221).
En cambio, si r es entero, la 2
a
soluci´ on tiene la forma
u
2
(x) = Cu
1
(x) lnx + x
s


¸
n=0
b
n
x
n
(184)
donde C es una constante (que puede ser 0) y s

la otra ra´ız de (221), con Re[s

] ≤ Re[s].
Si r = 0 (s = s

) C = 0.
La necesidad de una serie generalizada de potencias puede comprenderse analizando
el comportamiento de la soluci´ on para x → 0. Conservando s´ olo los t´ erminos de mayor
orden en este l´ımite, la ecuaci´ on (175) se reduce a
u
′′
+
A
−1
x
u

+
B
−2
x
2
u = 0 (185)
que es una ec. de Euler (vista en la clase 5) con soluciones u(x) = cx
s
(y tambi´ en x
s
ln x
para ra´ıces multiples). Reemplazando esta soluci´ on en (185) obtenemos
cx
s
[s(s −1) +A
−1
s + B
−2
] = 0
70
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
que conduce precisamente a la ecuaci´ on indicial (221). Si las dos ra´ıces de (221) son
distintas, las soluciones de (175) deben ser, pues, de la forma cx
s
para x cercano al
origen. Si las ra´ıces son iguales, la segunda soluci´ on linealmente independiente de (185)
es x
s
ln x, por lo que la segunda soluci´ on de (175) debe ser de esta forma para x →0.
La ecuaci´ on indicial surge, de todos modos, al reemplazar (220) en (175). Obtenemos

¸
n=0
x
s+n−2
[a
n
(n+s)(n+s−1)+
n
¸
m=0
a
m
(A
n−m−1
(m+s)+B
n−m−2
)] = 0
La anulaci´ on del coeficiente de x
s−2
(n = 0) implica
a
0
[s(s −1) +A
−1
s + B
−2
] = 0
que conduce a la ecuaci´ on indicial (221) al ser a
0
= 0. Luego, la anulaci´ on del coeficiente
de x
n+s−2
para n ≥ 1 conduce a la relaci´ on recursiva
a
n
= −
¸
n−1
m=0
a
m
(A
n−m−1
(m+ s) + B
n−m−2
)
(n + s)(n + s −1) +A
−1
(n + s) + B
−2
= −
¸
n−1
m=0
a
m
(A
n−m−1
(m + s) + B
n−m−2
)
n(n + 2s + A
−1
−1)
, n ≥ 1
donde el 2
o
miembro depende de a
0
, . . . , a
n−1
. Como n + 2s + A
−1
− 1 = n ± r (ver
(183)), esto es v´ alido si n ± r = 0, o sea, n − r = 0. Los problemas con una soluci´ on
del tipo (220) pueden surgir, entonces, s´ olo cuando r es entero y, en tal caso, para la ra´ız
menor s =
1−A
−1
−r
2
, en cuyo caso la 2
a
soluci´ on es de la forma (222).

Ejemplo: Consideraremos, en realidad, un contraejemplo (se mostrar´ a un ejemplo al
estudiar las funciones de Bessel, en la secci´ on I.6)
u
′′
+ u/x
4
= 0 . (186)
Esta ecuaci´ on no es de la forma contemplada en el teorema I.3.4, pues B(x) posee un
polo de orden 4. Puede verificarse que la soluci´ on general de esta ecuaci´ on es
u(x) = x[c
1
cos(1/x) + c
2
sin(1/x)] ,
que no es de la forma (220) o (222).
Notemos, sin embargo, que la soluci´ on es de la forma (220) en z = 1/x (u(z) =
(c
1
cos z + c
2
sin z)/z). En esta variable, la ecuaci´ on (186) se convierte en u
′′
+ 2u

/z +
u = 0, que es de la forma contemplada en el teorema I.3.4, y la ecuaci´ on indicial es
s(s − 1) + 2s = 0, con ra´ıces s = −1 y s = 0, en acuerdo con el desarrollo en serie de
u(z).
71
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
I.3.6. Autovalores y Autofunciones de L
Consideremos nuevamente el operador de Sturm-Liouville L. Si existen un n´ umero λ
y una funci´ on v(x) = 0 que satisfacen la ecuaci´ on
L[v(x)] = λv(x) (187)
∀x ∈ [a, b], conjuntamente con alguna de las condiciones de contorno mencionadas
en la secci´ on I.3.2, se dice que λ es un autovalor (o valor propio) y v(x) una autofunci´ on
(o funci´ on propia) de L con dicha condici´ on de contorno. Enfatizamos que λ y v(x)
dependen tanto de p y q como de la condici´ on de contorno.
Es obvio que si v(x) es autofunci´ on, cv(x), con c una constante no nula, es tambi´ en
autofunci´ on con el mismo autovalor, por lo que ´ estas quedan definidas a menos de una
constante multiplicativa.
Hemos visto que la funci´ on de Green para una determinada condici´ on de contorno
local (3) o (161) existe si y s´ olo si no existe una funci´ on u(x) = 0 que satisfaga L[u] = 0
con dichas condiciones. Esto implica que G(x, x

) existe si y s´ olo si L no posee ning´ un
autovalor nulo con dicha condici´ on de contorno (de all´ı proviene el nombre de modos
cero).
Es f´ acil mostrar el siguiente
Teorema I.3.5 Si L es autoadjunto, las autofunciones de L correspondientes a autoval-
ores distintos son ortogonales respecto del producto interno (u, v) =

b
a
u(x)v(x)dx.
Prueba: Si L[v
i
(x)] = λ
i
v
i
(x), L[v
j
(x)] = λ
j
v
j
(x),
0 = (v
j
, L[v
i
]) −(L[v
j
], v
i
) = (λ
i
−λ
j
)

b
a
v
i
(x)v
j
(x)dx
de donde

b
a
v
j
(x)v
i
(x)dx = 0 si λ
j
= λ
i

En muchas situaciones, como veremos m´ as adelante al estudiar funciones especiales,
surge un problema similar en el que debe encontrarse una funci´ on v(x) = 0 que satisfaga,
conjuntamente con la condici´ on de contorno, la ecuaci´ on
L[v(x)] = λρ(x)v(x) (188)
donde ρ(x) > 0 es una funci´ on continua y positiva, denominada usualmente “funci´ on
de peso”. En este caso, se dice que λ es autovalor y v autofunci´ on de L con peso ρ (y una
dada condici´ on de contorno).
Siguiendo el procedimiento anterior, puede mostrarse que las autofunciones corre-
spondientes a autovalores distintos resultan ortogonales respecto del producto interno
72
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
(u, v)
ρ

b
a
ρ(x)u(x)v(x)dx (189)
es decir

b
a
ρ(x)v
j
(x)v
i
(x)dx = 0 si λ
j
= λ
i
donde L[v
i
(x)] = λ
i
ρ(x)v
i
(x), L[v
j
(x)] = λ
j
ρ(x)v
j
(x).
Propiedades fundamentales:
Tanto en el caso (187) como (188), el problema de valores propios de un operador de
Sturm Liouville autoadjunto en un intervalo finito [a, b], con una determinada condici´ on
de contorno, posee las siguientes propiedades fundamentales (la demostraci´ on de las mis-
mas se realiza en el marco de la teor´ıa de ecuaciones integrales y queda, entonces, para el
curso de M´ etodos Matem´ aticos de la F´ısica):
1) Existe un conjunto numerable de autovalores
λ
1
≤ λ
2
≤ . . . ≤ λ
n
. . .
correspondientes a autofunciones v
1
(x), v
2
(x), . . . v
n
(x), . . ., que satisfacen L[v
n
(x)] =
λρ(x)v
n
(x) y son ortogonales respecto del producto interno (189):
(v
i
, v
j
)
ρ
=

b
a
ρ(x)v
i
(x)v
j
(x)dx = 0 si i = j
Para las condiciones de contorno locales (161), λ
i
< λ
j
si i = j, ya que no pueden
existir dos soluciones linealmente independientes de L[u] = λρu para un mismo λ que
satisfagan ambas (161) (pues en tal caso el wronskiano ser´ıa nulo).
2) Cualquier funci´ on u(x) definida en el intervalo [a, b] que satisfaga las condiciones
de contorno y posea derivada segunda, puede escribirse en t´ erminos de las autofunciones
v
n
(x) por medio de una serie absoluta y uniformemente convergente en este intervalo:
u(x) =

¸
n=1
c
n
v
n
(x) (190)
El conjunto de todas las autofunciones forma pues una base del espacio vectorial de
funciones derivables a segundo orden que satisfacen las condiciones de contorno en el in-
tervalo [a, b]. Se dice entonces que las autofunciones de L forman un conjunto completo.
Consecuencias:
a) Asumiendo v´ alido el desarrollo (190), es f´ acil mostrar que los coeficientes c
n
est´ an
dados por
73
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
c
n
=

b
a
ρ(x)v
n
(x)u(x)dx

b
a
ρ(x)v
2
n
(x)dx
=
(v
n
, u)
ρ
(v
n
, v
n
)
ρ
(191)
En efecto, multiplicando (190) por ρ(x)v
n
(x) e integrando, obtenemos, debido a la
ortogonalidad de las autofunciones,

b
a
ρ(x)v
n
(x)u(x)dx =

¸
m=1
c
m

b
a
ρ(x)v
m
(x)v
n
(x)dx
= c
n

b
a
ρ(x)v
2
n
(x)dx
obteni´ endose (191). Queda tambi´ en claro que, para una dada u, los coeficientes del
desarrollo son ´ unicos. Si
¸

n=1
c
n
v
n
(x) = 0 ⇒c
n
= 0 ∀ n.
b) Base ortonormal: Como hemos dicho, cada autofunci´ on v
n
(x) est´ a definida a menos
de una constante multiplicativa. Resulta c´ omodo elegir esas constantes de modo de obten-
er una base en la que las autofunciones (que llamaremos z
n
(x)) est´ en normalizadas, es
decir, (z
n
, z
n
)
ρ
=

b
a
ρ(x)v
2
n
(x)dx = 1 ∀n, de modo que
(z
m
, z
n
)
ρ
=

b
a
ρ(x)z
m
(x)z
n
(x)dx = δ
mn
En tal caso,
c
n
=

b
a
ρ(x)z
n
(x)u(x)dx = (z
n
, u)
ρ
c) En una base ortonormal, el cuadrado de la norma de u, definida por
||u|| = (u, u)
1/2
ρ
= [

b
a
ρ(x)u
2
(x)dx]
1/2
puede expresarse como
||u||
2
=

¸
n,m=1
c
n
c
m

b
a
ρ(x)z
n
(x)z
m
(x)dx
=

¸
n=1
c
2
n
(192)
La igualdad anterior se denomina identidad de Parseval y constituye la generalizaci´ on
del teorema de Pit´ agoras.
Es v´ alida para cualquier conjunto completo de funciones ortonormales {z
i
(x), i =
1, 2, . . .}. Si el conjunto es incompleto, obtenemos en cambio ||u||
2

¸

n=1
c
2
n
.
74
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
c) Dada la suma finita
S
m
(x) =
m
¸
n=1
b
n
z
n
(x)
donde las autofunciones z
n
(x) son ortonormales, el error cuadr´ atico medio, definido
por
ε
2
m
≡ ||u(x) −S
m
(x)||
2
=

b
a
ρ(x)[u(x) −S
m
(x)]
2
dx
es m´ınimo para b
n
= c
n
=

b
a
ρ(x)z
n
(x)u(x). En efecto,
ε
2
m
=

b
a
ρ[u
2
−2
m
¸
n=1
b
n
z
n
u +
m
¸
n,n

=1
b
n
b
n
′ z
n
z
n
′ ]dx
= ||u||
2
+
m
¸
n=1
[b
2
n
−2b
n
c
n
] = ||u||
2

m
¸
n=1
c
2
n
+
m
¸
n=1
(c
n
−b
n
)
2
obteni´ endose el m´ınimo valor para b
n
= c
n
.
La “mejor” aproximaci´ on a u(x) por medio de una suma finita se obtiene, pues para
b
n
= c
n
, si definimos como “mejor” aquella suma que minimiza el error promedio anteri-
or.
La ecuaci´ on anterior tambi´ en muestra que (para b
n
= c
n
),
¸
m
n=1
c
2
n
= ||u||
2
− ε
2
m

||u||
2
, ∀ m, indicando entonces que
¸

n=0
c
2
n
es una serie convergente.
Desarrollo de la funci´ on de Green en autofunciones. Tipos de convergencia
La propiedad 2) requiere, para que el desarrollo en autofunciones converja absoluta
y uniformemente, que la funci´ on a desarrollar admita derivada segunda y satisfaga las
condiciones de contorno. Ciertamente, este no es el caso para la funci´ on de Green, cuya
derivada primera es discontinua. Sin embargo, puede mostrarse que existe para ella un
desarrollo de la forma
G(x, x

) =
¸
n
z
n
(x)z
n
(x

)
λ
n
,
que converge a G(x, x

) d´ ebilmente (en el sentido de las distribuciones).
Consideremos ahora la ec. gral. inhomog´ enea
L[u] = f(x) (193)
donde u debe satisfacer alguna de las condiciones de contorno mencionadas. Asumiendo
que podemos desarrollar tanto u como f(x)/ρ(x) en autofunciones normalizadas v
n
(x),
75
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
con L[v
n
(x)] = λ
n
ρ(x)v
n
(x), es decir,
u(x) =

¸
n=1
c
n
v
n
(x), c
n
=

b
a
ρ(x)v
n
(x)u(x)dx (194)
f(x) = ρ(x)

¸
n=1
f
n
v
n
(x), f
n
=

b
a
v
n
(x)f(x)dx (195)
se obtiene, al reemplazar en (193),

¸
n=0
(c
n
λ
n
−f
n
)ρ(x)v
n
(x) = 0
de donde, asumiendo ρ(x) > 0 y λ
n
= 0,
c
n
= f
n

n
Se puede llegar al mismo resultado directamente mult. la ec. (193) por v
n
(x) e integrando:

b
a
v
n
(x)L[u(x)]dx =

b
a
v
n
(x)f(x)dx
de donde, teniendo en cuenta el car´ acter autoadjunto de L se obtiene la relaci´ on
λ
n
c
n
= f
n
Podemos entonces escribir la soluci´ on como
u(x) =

¸
n=1
f
n
v
n
(x)
λ
n
=

b
a
G(x, x

)f(x

)dx

donde
G(x, x

) =

¸
n=1
v
n
(x)v
n
(x

)
λ
n
(196)
Esta expresi´ on constituye la expansi´ on en autofunciones de la funci´ on de Green G(x, x

),
vista en la clase 8. Es muy ´ util y ser´ a utilizada y discutida en las pr´ oximas clases. Notemos
que G(x, x

) existe si y s´ olo si no existe ning´ un autovalor nulo, en acuerdo con discusiones
previas.
Es preciso destacar, no obstante, que la convergencia de este tipo de desarrollos es
m´ as d´ ebil que la convergencia puntual. Sea S
m
(x) =
¸
m
n=1
c
n
v
n
(x).
Se dice que S
m
(x) converge puntualmente a u(x) para m →∞si l´ım
m→∞
S
m
(x) = u(x)
∀ x ∈ [a, b].
Se dice en cambio que S
m
(x) converge en media a u(x) si
l´ım
m→∞
||u(x) −S
m
(x)||
2
= 0
76
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
donde ||o||
2
=

b
a
ρ(x)o
2
(x)dx. La convergencia puntual asegura la convergencia en me-
dia, pero la ´ ultima no asegura la primera (ya que por ejemplo S
m
(x) puede diferir de u(x)
en un n´ umero finito de puntos sin que esto afecte a la integral). Esto ocurre por ejemplo
con el desarrollo en autofunciones de funciones u(x) continuas a trozos.
Finalmente, se dice que S
m
(x) converge a u(x) como distribuci´ on (convergencia d´ ebil) si
l´ım
m→∞

b
a
S
m
(x)φ(x)dx =

b
a
u(x)φ(x)dx
para cualquier funci´ on de prueba φ(x) en [a, b]. Esta ´ ultima condici´ on es mucho m´ as
d´ ebil que las anteriores, ya que ni siquiera requiere que la serie
¸

n=1
c
n
v
n
(x) sea conver-
gente. Por ejemplo, si δ(x − x

)/ρ(x) =
¸

n=1
c
n
u
n
(x) ⇒c
n
=

b
a
v
n
(x)δ(x − x

)dx =
v
n
(x

), de modo que δ(x − x

) = ρ(x)
¸

n=1
v
n
(x)v
n
(x

), donde la igualdad s´ olo in-
dica igualdad como distribuci´ on. La serie de la derecha de hecho no converge, pues
l´ım
n→∞
v
n
(x)v
n
(x

) = 0. Sin embargo, si φ(x) =
¸

n=1
a
n
v
n
(x), con a
n
= (v
n
, φ)
ρ
,

b
a
¸

n=1
ρ(x)v
n
(x)v
n
(x

)φ(x)dx =
¸

n=1
a
n
v
n
(x

) = φ(x

), de modo que la serie con-
verge como distribuci´ on a δ(x −x

).
Puede verse entonces a partir de (196) que
L[G(x, x

)] =

¸
n=0
ρ(x)v
n
(x)v
n
(x

) = δ(x −x

)
G(x, x

) puede pues tambi´ en obtenerse directamente resolviendo (193) para f(x) = δ(x−
x

).
Problema variacional asociado
El problema de valores propios de L est´ a asociado a un problema variacional.
Para u = 0 y derivable, definimos el funcional
H[u] =
E[u]
||u||
2
=

b
a
[p(x)u

2
(x) + q(x)u
2
(x)]dx

b
a
ρ(x)u
2
(x)dx
que satisface H[αu] = H[u] si α = 0 siendo, por lo tanto, independiente de la nor-
ma de u. Veremos luego que H[u] puede interpretarse como una energ´ıa. Notemos que
H[u] ≥ 0 si q(x) ≥ 0.
Podemos preguntarnos ahora cu´ al de todas las funciones u(x) con derivada segunda
que satisfacen alguna condici´ on de contorno (de las mencionadas) es la que minimiza
H(u), y cu´ al es el valor m´ınimo de H[u] entre estas funciones.
Suponiendo que tal funci´ on existe, y llam´ andola v, con H[v] = λ, debe cumplirse
H[v + δv] ≥ H[v] = λ
77
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
∀ funci´ on δv que satisface la condici´ on de contorno.
Considerando ahora δv peque˜ no, y conservando t´ erminos s´ olo hasta orden δv, obten-
emos
H[v + δv] −H[v] ≈ 2||v||
−2

b
a
[pv

(δv)

+ (q −λρ)vδv]dx
= 2||v||
−2

b
a
[L[v] −λρv](δv)dx + [pv

δv]
b
a
(197)
donde hemos integrado por partes el primer t´ ermino (

b
a
pv

(δv)

dx = pv

δv|
b
a

b
a
(pv

)

δvdx).
Por lo tanto, si H[v] es m´ınimo, la ec. (197) debe anularse para cualquier variaci´ on
δv(x) que satisfaga la condici´ on de contorno.
Consideremos, primero, la condici´ on de contorno de Dirichlet u(a) = u(b) = 0. En
tal caso δv(a) = δv(b) = 0 y el ´ ultimo t´ ermino en (197) se anula, lo que implica
L[v(x)] −λρ(x)v(x) = 0 (198)
es decir, v(x) debe ser autofunci´ on de L con autovalor λ.
Es claro entonces que dicha autofunci´ on debe ser aqu´ ella con el autovalor m´ as bajo,
de modo que v(x) ∝ v
1
(x) y λ = λ
1
.
Notemos que, integrando por partes,

b
a
pu

2
dx = pu

u|
b
a

b
a
(pu

)

udx
por lo que
H[u] =

b
a
u(x)L[u(x)]dx
||u||
2
si pu

u|
b
a
= 0 (199)
Por lo tanto, si u(x) = v
n
(x), con L[v
n
] = λρv
n
y v
n
(a) = v
n
(b) = 0,
H[v
n
] = λ
n
de modo que v = v
1
, con H[v
1
] = λ
1
. Si q(x) ≥ 0 ⇒λ
1
≥ 0.
El problema anterior es equivalente a la minimizaci´ on de E[u] con la condici´ on adi-
cional ||u|| = 1, lo que a su vez es equivalente a la minimizaci´ on de
F[u] = E[u] −λ||u||
2
donde λ es un multiplicador de Lagrange. La condici´ on estacionaria F[v + δv] =
F[v] +O(δv)
2
para δv peque˜ no conduce nuevamente a la ecuaci´ on L[v(x)] = λρ(x)v(x),
por lo que v debe ser autofunci´ on de L y λ el autovalor correspondiente. En tal caso,
E[v
1
] = λ
1
||v
1
||.
78
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
Para las condiciones de Neumann (u

(a) = u

(b) = 0), puede procederse en forma
similar. S´ olo cabe aclarar que, en este caso, no es necesario imponer la condici´ on de con-
torno. La condici´ on u

(a) = u

(b) = 0 surge naturalmente al buscar el m´ınimo absoluto
de H[u], para anular el ´ ultimo t´ ermino en (9.7) que aparece al integrar por partes. El
primer autovalor correspondiente al problema de Neumann es, pues, menor que el corre-
spondientes al problema de Dirichlet: λ
N
1
≤ λ
D
1
.
Consideremos ahora el subespacio S
1
de funciones u que satisfagan la condici´ on de
contorno y que sean ortogonales a la primera autofunci´ on v
1
(x), es decir,
(u, v
1
)
ρ
=

b
a
ρ(x)v
1
(x)u(x)dx = 0
Puede demostrarse, siguiendo un procedimiento similar, que el valor m´ınimo de H[u]
para u ∈ S
1
se obtiene para una funci´ on v que debe satisfacer tambi´ en la ecuaci´ on (198)
con la correspondiente condici´ on de contorno, pero que debe ser obviamente ortogonal a
v
1
. Esta funci´ on debe pues ser proporcional a la autofunci´ on de L con el segundo auto-
valor λ
2
. Es decir, v ∝ v
2
, con λ = H[v
2
] = λ
2
≥ λ
1
.
Procediendo en forma an´ aloga, puede probarse que el m´ınimo de H[u] en el subespa-
cio S
n−1
formado por funciones ortogonales a v
1
, v
2
, . . . , v
n−1
, n ≥ 2, se obtiene para
v ∝ v
n
, siendo el valor m´ınimo H[v
n
] = λ
n
. De esta forma puede construirse todo el
conjunto de autovalores y autofunciones mediante un procedimiento variacional. Puede
probarse tambi´ en que λ
N
n
≤ λ
D
n
∀ n.
El procedimiento anterior permite probar tambi´ en la completitud del conjunto de aut-
ofunciones. Daremos a continuaci´ on un bosquejo de la demostraci´ on, asumiendo que
λ
n
→∞para n →∞(v´ eanse los siguientes ejemplos).
Sea u(x) una funci´ on de norma finita que satisface la condici´ on de contorno y consid-
eremos el resto
R
m
(x) = u(x) −S
m
(x)
con
S
m
(x) =
m
¸
n=1
c
n
v
n
(x), c
n
= (v
n
, u)
ρ
y (v
n
, v
n
)
ρ
= 1 (autofunciones normalizadas). Tenemos
(v
n
, R
m
)
ρ
= 0, n = 1, . . . , m
Por lo tanto, H[R
m
(x)] ≥ λ
m
, pues R
m
(x) es ortogonal a v
1
, . . . , v
m
. Adem´ as, uti-
lizando (199) y, dado que

b
a
R
m
(x)L[S
m
(x)]dx = 0, se obtiene
H[R
m
(x)] =
||u||
2
H[u] −
¸
m
n=1
λ
m
c
2
m
||R
m
(x)||
2
≥ λ
m
de donde, si λ
m
≥ 0 (como ocurre para q(x) ≥ 0)
79
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
||R
m
(x)||
2

||u||
2
H[u]
λ
m
Por lo tanto,
l´ım
m→∞
||R
m
(x)||
2
= 0
si λ
m
→ ∞, lo que asegura la convergencia en media (pero no la convergencia pun-
tual).
Aproximaciones variacionales. La formulaci´ on variacional del problema de autoval-
ores de Sturm-Liouville permite desarrollar aproximaciones variacionales en las que u(x)
se aproxima por una cierta funci´ on que satisface las condiciones de contorno y que
contiene algunos par´ ametros libres. Estos se optimizan minimizando H[u], logr´ andose
as´ı una cota superior a λ
1
(y en general a λ
n
, si imponemos que u(x) sea ortogonal a
v
1
, . . . , v
n−1
).
Ejemplos:
1) Consideremos L = −
d
2
dx
2
en [0, b], con u(0) = u(b) = 0.
La ec. L[v] = λv, es decir,

d
2
v
dx
2
= λv
posee la soluci´ on general v(x) = Ce
i

λx
+ De
−i

λx
, que puede escribirse como
v(x) = Asin(

λx) + Bcos(

λx)
Las condiciones de contorno implican B = 0, y sin(

λb) = 0, por lo que

λb = nπ,
n = 1, 2, . . . (para n = 0, v = 0), es decir,
λ
n
=
n
2
π
2
b
2
, n = 1, 2, . . .
Las correspondientes autofunciones son
v
n
(x) = A
n
sin(nπx/b) n = 1, 2, . . .
con A
n
= 0, y puede verificarse que

b
0
v
n
(x)v
m
(x)dx = δ
nm
A
2
n
b/2
Las autofunciones normalizadas corresponden pues a A
n
=

2/b.
Para funciones que se anulan en los extremos, el valor m´ınimo de
80
I.3 PROBLEMAS CON CONDICIONES DE CONTORNO: EL PROBLEMA
DE STURM-LIOUVILLE
H[u] =

b
0
u

2
(x)dx

b
0
u
2
(x)dx
= −

b
0
u(x)u
′′
(x)dx

b
0
u
2
(x)dx
es, entonces, λ
1
= π
2
/b
2
≈ 9,87/b
2
y corresponde a v
1
(x) = A
1
sin(πx/b).
Por ejemplo, planteando como aproximaci´ on variacional una par´ abola u(x) = x(b −
x), que satisface u(a) = u(b) = 0, obtenemos H[u] = 10/b
2
> λ
1
.
Es importante destacar que este ejemplo corresponde exactamente al problema cu´ anti-
co de una part´ıcula en una dimen’si´ on confinada al intervalo [0, a], libre dentro de este
intervalo. La funci´ on v(x), con ||v||
2
= 1, representa en este caso la funci´ on de onda de
la part´ıcula, y la ecuaci´ on L[v] = λv es la ecuaci´ on de Schr¨ odinger independiente del
tiempo, con E
n
=
2
λ
n
/(2m) la energ´ıa del estado n.

2
2m
H[u] representa aqu´ı el valor
medio de la energ´ıa correspondiente a la funci´ on de onda u(x), el cual es m´ınimo para
u(x) = v
1
(x).
2) Consideremos nuevamente L = −
d
2
dx
2
en [0, b] con las condiciones de contorno de
Neumann u

(0) = u

(b) = 0.
´
Estas implican ahora B = 0 y sin(

λb) = 0, es decir,
λ
n
=
n
2
π
2
b
2
, n = 0, 1, 2, . . .
con autofunciones
v
n
(x) = B
n
cos(nπx/b)
Los autovalores son los mismos que en el caso anterior, pero aparece el autovalor
adicional λ
0
= 0, en cuyo caso v
0
= B
0
, constante. Se cumple

b
0
v
n
(x)v
m
(x)dx = δ
nm
B
2
n
{
b n=0
b/2 n>0
Las autofunciones normalizadas se obtienen para B
0
= 1/

b, B
n
=

2/b, n =
1, 2, . . ..
El valor m´ınimo de H[u] para esta condici´ on de contorno es λ
0
= 0 (Aqu´ı hemos
llamado por conveniencia λ
0
al autovalor m´ as bajo de L).
3) Nuevamente L = −
d
2
dx
2
con las condiciones mixtas u(0) = 0, u

(b) = 0. Estas
implican B = 0 y cos(

λb) = 0, es decir,
λ
n
= (n + 1/2)
2
π
2
/b
2
, n = 0, 1, 2, . . .
que son distintos a los hallados en los ejemplos 1 y 2, con autofunciones
v
n
(x) = A
n
sin[(n + 1/2)πx/b]
Se cumple
81
I.4 SERIE DE FOURIER

b
0
v
n
(x)v
m
(x)dx = δ
nm
A
2
n
b/2
y las autofunciones normalizadas se obtienen para A
n
=

2/b.
El valor m´ınimo de H[u] es λ
1
= π
2
/4b
2
, intermedio entre el m´ınimo obtenido con
las condiciones de Neumann y aqu´ el obtenido con las de Dirichlet.
4) Nuevamente L = −
d
2
dx
2
con las condiciones de contorno peri´ odicas u(−a) = u(a),
u

(−a) = u

(a). Obtenemos las autofunciones
v
0
= B
0
, v
n
(x) = B
n
cos(nπx/a), u
n
(x) = A
n
sin(nπx/a),
con n = 1, 2, . . . correspondientes a los autovalores
λ
0
= 0, λ
n
= n
2
π
2
/b
2
, n = 1, 2, . . . ,
Para n ≥ 1 existen, pues, 2 autofunciones (v
n
(x) y u
n
(x)) por cada autovalor.
Se cumple

a
−a
v
n
(x)v
m
(x)dx = δ
nm
B
2
n
{
2a n=0
a n>0
,

a
−a
u
n
(x)u
m
(x)dx = δ
nm
A
2
n
a,

a
−a
u
n
(x)v
m
(x)dx = 0
obteni´ endose las autofunciones normalizadas para B
0
= 1/

2a, B
n
= A
n
= 1/

a.
En este caso resulta, en general, m´ as c´ omodo utilizar una base compleja de autofun-
ciones, dada por
w
n
(x) = C
n
e
iπnx/a
= C
n
[cos(nπx/a) + i sin(nπx/a)], n = 0, ±1, ±2, . . .
que es ortogonal respecto del producto interno (u, v) =

a
−a
u

(x)v(x)dx:

a
−a
w

n
(x)w
m
(x)dx = δ
nm
|C
2
n
|2a
I.4. Serie de Fourier
Como hemos visto en la secci´ on I.3.6, cada operador de Sturm-Liouville determina un
desarrollo para una dada funci´ on f en serie de autofunciones dentro de un cierto intervalo.
Para L = −
d
2
dx
2
y ρ(x) = 1, la serie correspondiente se denomina, en general, serie
trigonom´ etrica o serie de Fourier, y la estudiaremos aqu´ı en detalle. Analizaremos primero
82
I.4 SERIE DE FOURIER
la base proporcionada por las autofunciones peri´ odicas de L en [−π, π], de la cual pueden
derivarse los dem´ as casos.
Es f´ acil verificar (ver trabajos pr´ acticos) que las autofunciones correspondientes a tal
operador de Sturm-Liouville son de la forma:
u
0
(x) = C; u
n
(x) =

Asin (nx)
Bcos (nx)
n = 1, ...∞ (200)
La propiedad fundamental 2) en la misma secci´ on asegura la convergencia absoluta
y uniforme del desarrollo en estas autofunciones para funciones con derivada segunda
que satisfacen las condiciones de contorno peri´ odicas en [−π, π]; pero el desarrollo es
aplicable tambi´ en a funciones m´ as generales, como discutiremos m´ as adelante en esta
secci´ on.
I.4.1. Coeficientes de Fourier
Supongamos, primero, que tal desarrollo es convergente a f(x). En ese caso, pueden
determinarse los coeficientes
f(x) =
1
2
a
0
+

¸
n=1
[a
n
cos(nx) + b
n
sin(nx)], ∀x ∈ (−π, π) (201)
En primer lugar, asumiendo v´ alida la expansi´ on (201), los coeficientes a
n
, b
n
pueden
determinarse haciendo uso de la ortogonalidad (y la norma) de las funciones cos(nx),
sin(nx) discutida anteriormente. Por ejemplo, integrando ambos lados de (201) entre −π
y π, tendremos

π
−π
dxf(x) = πa
0
. (202)
Notemos que
1
2
a
0
=
¯
f =
1

π
−π
f(x)dx es el valor medio de f en [−π, π].
Para calcular a
n
, n = 0, multiplicamos ambos miembros de (201) por cos (kx) , k = 0
e integramos entre −π y π, de donde resulta
a
k
=
1
π

π
−π
dxf(x) cos (kx), k = 1, ..., ∞. (203)
Similarmente, multiplicando por sin(kx), k = 0 e integrando:
b
k
=
1
π

π
−π
dxf(x) sin (kx), k = 1, ..., ∞. (204)
Los coeficientes as´ı determinados se denominan coeficientes de Fourier. La serie re-
sultante est´ a dada por
f(x) =
1

π
−π
f(x)dx +
1
π

¸
n=1

π
−π
dx

f(x

) [cos (nx) cos (nx

)
+ sin (nx) sin (nx

)] , (205)
83
I.4 SERIE DE FOURIER
que puede escribirse en forma m´ as compacta como
f(x) =
¯
f +
1
π

¸
n=1

π
−π
dx

f(x

) cos [n(x −x

)] . (206)
I.4.2. Teoremas de Fourier sobre convergencia
Seg´ un se adelant´ o, estudiaremos ahora condiciones m´ as d´ ebiles para la convergencia
de la serie de Fourier, contenidas en dos teoremas, tambi´ en conocidos como teoremas de
Fourier. Para poder demostrarlos, necesitaremos demostrar antes el siguiente lema:
Lema I.4.1 (de Riemann-Lebesgue) Si g es continua en [a, b] salvo, a lo sumo, en un
n´ umero finito de puntos en los que permanece acotada, entonces
l´ım
s→∞

b
a
g(x) sin(sx + α)dx = 0 . (207)
Demostraci´ on del lema: Si g es derivable en [a, b], la demostraci´ on es inmediata. En
efecto, integrando por partes,

b
a
g(x) sin(sx + α)dx = −

b
a
g(x)
d
dx
cos (sx + α)
s
dx =
− g(x)
cos(sx + α)
s

b
a
+

b
a
g

(x)
cos(sx + α)
s
dx, (208)
expresi´ on que tiende a 0 para s → ∞. El mismo razonamiento es v´ alido si g es deriv-
able salvo en un n´ umero finito de puntos, siempre y cuando existan (y sean finitas) las
derivadas laterales.
Si g es s´ olo continua en [a, b], sea (x
0
= a, x
1
, . . . , x
n
= b) una partici´ on de [a, b],
con x
i
−x
i−1
= (b −a)/n. Entonces,
|

b
a
g(x) sin(sx + α)dx| = |
n
¸
i=1

x
i
x
i−1
g(x) sin(sx + α)dx|
= |
n
¸
i=1
{g(x
i
)

x
i
x
i−1
sin(sx + α)dx +

x
i
x
i−1
[(g(x)−g(x
i
)] sin(sx + α)dx}|

n
¸
i=1
[|g(x
i
)|
| cos(sx
i
+ α)−cos(sx
i−1
+ α)|
s
+
m
i
(b−a)
n
]

2Mn
s
+ M
n
(b −a) (209)
donde M es el m´ aximo de g en [a, b], m
i
el m´ aximo de |g(x) − g(x
i
)| en [x
i−1
, x
i
] y M
n
el m´ aximo de los m
i
. Por lo tanto,
l´ım
s→∞
|

b
a
g(x) sin(sx)|dx ≤ M
n
(b −a)
84
I.4 SERIE DE FOURIER
pero M
n
puede hacerse tan chico como se desee al aumentar n por ser g continua
( l´ım
n→∞
M
n
= 0). Lo mismo ocurre si reemplazamos sin(sx + α) por cos(sx + α). Esto
demuestra el lema a´ un si g(x) no es derivable en ning´ un punto.
Finalmente, si g es discontinua s´ olo en un n´ umero finito de puntos en los que per-
manece acotada, podemos separar estos puntos x
c
mediante integrales

xc+ε
xc−ε
g(x) sin(sx+
α)dx, que tienden a 0 para ε → 0 por ser g acotada, y repetir el razonamiento anterior
en los intervalos restantes donde es continua.

Ahora s´ı podemos demostrar tres teoremas de Fourier sobre la convergencia de la
serie.
Teorema I.4.2 (Teorema 1 de Fourier) Sea f(x) derivable (por lo tanto, continua) en
[−π, π], entonces la igualdad (206) vale ∀x ∈ (−π, π). Si, adem´ as, f(−π) = f(π), la
serie converge a f en [−π, π].
Demostraci´ on : Las sumas parciales en (206) est´ an dadas por
S
n
(x) =
1
2
a
0
+
n
¸
m=1
a
m
cos(mx) + b
m
sin(mx)
=
1
π

π
−π
f(t)dt{
1
2
+
n
¸
m=1
cos(mx) cos(mt)+sin(mx) sin(mt)}
=
1
π

π
−π
f(t){
1
2
+
n
¸
m=1
cos[m(t−x)]}=
1
π

π
−π
f(t)K
n
(t −x)dt ,
con
K
n
(s) =
1
2
+
n
¸
m=1
cos[ms] =
1
2
n
¸
m=−n
e
ims
=
e
i(n+1)s
−e
−ins
2(e
is
−1)
=
sin[(n+
1
2
)s]
2 sin[
1
2
s]
, (210)
donde se asume que, si s = 0 o, en general, s = 2kπ, con k entero, K
n
(2kπ) =
l´ım
s→2kπ
K
n
(s) = n +
1
2
, que es el valor correcto de la suma para s = 2kπ. Adem´ as, de
la suma de cosenos que define a K
n
(s) se ve que

π
−π
K
n
(t −x)dt = π (211)
Por lo tanto, sumando y restando f(x),
S
n
(x) = f(x) +
1
π

π
−π
(f(t) −f(x))K
n
(t −x)dt
= f(x)+
1
π

π
−π
f(t)−f(x)
2 sin[
1
2
(t−x)]
sin[(n+
1
2
)(t−x)]dt (212)
85
I.4 SERIE DE FOURIER
Usando el lema de Riemann-Lebesgue es, ahora, inmediato demostrar la conver-
gencia para x ∈ (−π, π). En este caso, la funci´ on g(t) =
f(t)−f(x)
2 sin[(t−x)/2]
si t = x, con
g(x) = f

(x), es continua ∀ t ∈ [−π, π], incluyendo t = x, si f es derivable:
l´ım
t→x
f(t) −f(x)
2 sin[
1
2
(t −x)]
= f

(x) ,
por lo que la integral en (212) se anula para n →∞y
l´ım
n→∞
S
n
(x) = f(x) ∀ x ∈ (−π, π) . (213)
Hasta a qu´ı, hemos demostrado la primera parte del enunciado.
Si x = ±π, el denominador de g(t) se anula tanto para t → π como t → −π. Sin
embargo, si x = ±π, K
n
(t −x) es una funci´ on par de t. En efecto,
K
n
(t ∓π) =
sin [(n +
1
2
)(t ∓π)]
2 sin (
t∓π
2
)
=
sin [(n +
1
2
)(−t ±π)]
2 sin (
−t±π
2
)
=
sin [(n +
1
2
)(−t ∓π)]
2 sin (
−t∓π
2
)
(214)
y, por lo tanto,

0
−π
K
n
(t −x)dt =

π
0
K
n
(t −x)dt =
1
2
π
Para x = ±π podemos entonces escribir
S
n
(x) =
f(π)+f(−π)
2
+
1
π

π
0
f(t)−f(π)
2 sin[
1
2
(t −x)]
sin[(n+
1
2
)(t−x)]dt
+
1
π

0
−π
f(t) −f(−π)
2 sin[
1
2
(t −x)]
sin[(n +
1
2
)(t −x)]dt (215)
donde el primer y segundo cociente permanecen acotados para t →π y t →−π respec-
tivamente (tienden a f

(±π)). Aplicando el lema de Riemann, obtenemos pues
l´ım
n→∞
S
n
(±π) =
f(π) + f(−π)
2
coincidiendo con f(±π) si f(π) = f(−π).

Teorema I.4.3 (Teorema2 de Fourier) Si f es continua en [a, b] pero f

(x) no existe
en un n´ umero finito de puntos aislados x
c
, donde s´ı existen, en cambio, las derivadas
laterales
f

±
(x
c
) = l´ım
t→x
±
c
f(t) −f(x
c
)
t −x
c
, (216)
86
I.4 SERIE DE FOURIER
la serie de Fourier converge a f(x), a´ un para x = x
c
.
Demostraci´ on: En tal caso g(t) =
f(t)−f(x)
2 sin[(t−x)/2]
es continua para t = x y permanece
acotada para t → x, a´ un si x = x
c
( l´ım
t→x
±
c
g(t) = f

±
(x
c
)), cumpliendo con las condi-
ciones del lema de Riemann-Lebesgue.

Teorema I.4.4 (Lema 3 de Fourier) Si f es continua y derivable en [−π, π] salvo en un
n´ umero finito de puntos aislados x
c
, en los que existen sin embargo los l´ımites y derivadas
laterales
f(x
±
c
) ≡ l´ım
x→x
±
c
f(x), f

±
(x
c
) = l´ım
t→x
±
c
f(t) −f(x
±
c
)
t −x
c
entonces la serie tambi´ en converge a f(x) en los puntos x ∈ (−π, π) donde f es continua.
En los puntos x
c
donde es discontinua, la serie converge al punto medio:
l´ım
n→∞
S
n
(x) =
1
2
[f(x
+
c
) + f(x

c
)] (217)
Demostraci´ on: En primer lugar, si x ∈ (−π, π), combinando (211) con el lema (207) obtenemos,
para ε > 0,
π = l´ım
n→∞

π
−π
K
n
(t −x)dt = l´ım
n→∞

x+ε
x−ε
K
n
(t −x)dt
= 2 l´ım
n→∞

x+ε
x
K
n
(t −x)dt = 2 l´ım
n→∞

π
x
K
n
(t−x)dt (218)
por ser K
n
(s) par.
Notemos ahora que g(t) =
f(t)−f(x)
2 sin[(t−x)/2]
satisface las condiciones del lema para t ∈ [−π, π]
si x = x
c
, y para t = x
c
si x = x
c
. En este caso,
S
n
(x
c
) =
1
π

xc
−π
f(t)K
n
(t −x
c
)dt +
1
π

π
xc
f(t)K
n
(t −x
c
)dt (219)
La segunda integral podemos escribirla como
f(x
+
c
)
π

π
xc
K
n
(t −x
c
)dt+

π
xc
f(t)−f(x
+
c
)
2π sin[
1
2
(t−x
c
)]
sin[(n+
1
2
)(t−x
c
)]dt
Para n → ∞, el segundo t´ ermino se anula por el lema de Riemann, pues g(t) =
f(t)−f(x
+
c
)
2 sin[
1
2
(t−xc)]
permanece acotado para t →x
+
c
( l´ım
t→x
+
c
g(t) = f

+
(x
c
)), mientras que el primer t´ ermino tiende a
1
2
f(x
+
c
). An´ alogamente, la primera integral en (219) tiende a
1
2
f(x

c
). Esto conduce al resultado
(217).

87
I.4 SERIE DE FOURIER
Convergencia uniforme: Si f posee derivada continua en [−π, π], y f[−π] = f[π],
puede demostrarse que la convergencia de la serie de Fourier es absoluta y uniforme para
x ∈ [−π, π]. En este caso la serie de Fourier es derivable t´ ermino a t´ ermino, convergiendo
la serie derivada a f

(x) para x ∈ (−π, π).
Si f(x) es discontinua en un punto x
c
o f[−π] = f[π] entonces la convergencia no
es uniforme. En tal caso, si derivamos la serie t´ ermino a t´ ermino obtendremos una serie
que no necesariamente es convergente punto a punto (v´ ease el ejemplo 4 siguiente). Otra
de las manifestaciones de la convergencia no uniforme es el fen´ omeno de Gibbs en los
bordes de una discontinuidad.
Condiciones m´ as d´ ebiles de convergencia: Puede demostrarse que si f es continua en
[−π, π] y posee un n´ umero finito de m´ aximos y m´ınimos locales ⇒ l´ım
n→∞
S
n
(x) = f(x)
para x ∈ (−π, π), a´ un cuando f no sea derivable. Y en 1966 fue demostrado que s´ olo
asumiendo que

π
−π
[f(x)]
p
dx existe para p = 1 y p = 2 ⇒
l´ım
n→∞

π
−π
[f(x) −S
n
(x)]
2
dx = 0
Este tipo de convergencia se denomina convergencia en media, la cual es menos restrictiva
que la convergencia puntual. A´ un menos exigente es la convergencia como distribuci´ on
(convergencia d´ ebil): Se dice que S
n
converge a f como distribuci´ on si
l´ım
n→∞


−∞
S
n
(x)g(x)dx =


−∞
f(x)g(x)dx
para cualquier funci´ on de prueba g, a´ un si la serie S
n
(x) no converge puntualmente en
ning´ un punto (v´ ease el ejemplo 3). Este tipo de convergencia es frecuentemente utilizado
en f´ısica.
I.4.3. Forma compleja del desarrollo
Como
cos(nx)
i sin(nx)
=
1
2
(e
inx
±e
−inx
), podemos escribir (175) como una serie de potencias
en e
ix
,
f(x) = c
0
+

¸
n=1
c
n
e
inx
+ c

n
e
−inx
= P

¸
n=−∞
c
n
e
inx
con P

¸
n=−∞
= l´ım
m→∞
m
¸
n=−m
el valor principal y
c
n
= c

−n
=
1
2
(a
n
−ib
n
) =
1

π
−π
f(x)e
−inx
dx
88
I.4 SERIE DE FOURIER
I.4.4. Serie de Fourier para otros intervalos
Si f est´ a definida en [−a, a], el reemplazo x →xπ/a conduce al desarrollo
f(x) =
a
0
2
+

¸
n=1
a
n
cos(nωx) + b
n
sin(nωx), (220)
para x ∈ (−a, a), donde
ω = π/a
a
n
=
1
a

a
−a
f(x) cos(nωx)dx, b
n
=
1
a

a
−a
f(x) sin(nωx)dx
La serie converge a una funci´ on peri´ odica de per´ıodo 2a = 2π/ω, siendo pues ω la fre-
cuencia angular correspondiente. En la forma compleja,
f(x) = P

¸
n=−∞
c
n
e
inωx
, c
n
=
1
2a

a
−a
f(x)e
−inωx
dx
I.4.5. Desarrollos de medio rango. Series de senos y de cosenos
Si f(x) = f(−x) (funci´ on par) ⇒b
n
= 0 ∀ n y
f(x) =
a
0
2
+

¸
n=1
a
n
cos(nωx) (221)
a
n
=
2
a

a
0
f(x) cos(nωx)dx
Si f(x) = −f(−x) (funci´ on impar) ⇒a
n
= 0 ∀ n y
f(x) =

¸
n=1
b
n
sin(nωx) (222)
b
n
=
2
a

a
0
f(x) sin(nωx)dx
Una funci´ on f definida en [0, a] puede pues desallorarse en serie de cosenos o senos,
convergiendo la serie a la extensi´ on peri´ odica par o impar de f. Estos desarrollos cor-
responden al problema de autovalores de L en [0, a], con las condici´ on de contorno de
Neumann (caso par) y Dirichlet (caso impar).
89
I.4 SERIE DE FOURIER
Norma de f: En t´ erminos de los coeficientes de Fourier, la identidad de Parseval toma
la forma
||f||
2
=

a
−a
f
2
(x)dx = a[
1
2
a
2
0
+

¸
n=1
a
2
n
+ b
2
n
] = aP

¸
n=−∞
|c
2
n
|
Ejemplos:
1) f(x) = x, x ∈ [−π, π]. Se obtiene a
n
= 0 ∀n y
b
n
=
1
π

π
−π
xsin(nx)dx =
2(−1)
n+1
n
por lo que
x = 2

¸
n=1
(−1)
n+1
sin(nx)
n
, |x| < π (223)
En x = ±π, la serie converge a
1
2
[f(π) + f(−π)] = 0.
La serie converge en realidad a la extensi´ on peri´ odica
f(x) = x −2nπ si −π + 2nπ < x < π + 2nπ
siendo discontinua en x = ±π + 2nπ.
2) Si f(x) =
1
2
x
2
, b
n
= 0 ∀ n y a
n
= 2(−1)
n
/n
2
si n ≥ 1, con a
0
= π
2
/3, por lo que
1
2
x
2
=
π
2
6
+ 2

¸
n=1
(−1)
n
cos(nx)
n
2
, |x| ≤ π
que coincide con la integral t´ ermino a t´ ermino de la serie (223). El desarrollo converge
tambi´ en en x = ±π, ya que f(π) = f(−π). Para x = 0 y π, el desarrollo anterior conduce
a las identidades

¸
n=1
(−1)
n+1
n
2
=
π
2
12
,

¸
n=1
1
n
2
=
π
2
6
3)
f(x) =
1
2a
, |x| < a < π
con f(x) = 0 si |x| > a. Obtenemos b
n
= 0 y a
n
= sin(na)/(nπa) si n ≥ 1, con
a
0
= 1/π. Por lo tanto,
f(x) =
1
π
[
1
2
+

¸
n=1
sin(na)
na
cos(nx)], |x| ≤ π (224)
Para x = ±a, la serie converge al punto medio
1
4a
.
90
I.4 SERIE DE FOURIER
Se pueden extraer dos conclusiones muy importantes:
i) Al disminuir a, aumenta el n´ umero de coeficientes a
n
con valor apreciable en (224).
En efecto, sin(na)/na ≈ 1 si n ≪ 1/a, anul´ andose por primera vez para n ≈ π/a. El
n´ umero de coeficientes a
n
con valor apreciable aumenta pues como 1/a al disminuir a.
Cuanto m´ as corto es el pulso (respecto de π) mayor es el n´ umero de frecuencias nece-
sarias para representar correctamente el pulso.
ii) Para a →0, f(x) →δ(x) y obtenemos como l´ımite
δ(x) =
1
π
[
1
2
+

¸
n=1
cos(nx)] =
1

P

¸
n=−∞
e
inx
, |x| ≤ π
que puede obtenerse directamente utilizando las f´ ormulas usuales para f(x) = δ(x). La
serie anterior no converge puntualmente, pero si converge como distribuci´ on a δ(x) para
|x| ≤ π. En efecto, la suma parcial es
S
n
(x) =
1
π
[
1
2
+
n
¸
m=1
cos(mx)] =
sin[(n +
1
2
)x]
2π sin(
1
2
x)
y satisface, utilizando el lema de Riemann,

π
−π
S
n
(x)dx = 1, ∀n ≥ 0
l´ım
n→∞

π
−π
S
n
(x)f(x)dx = f(0)+ l´ım
n→∞

π
−π
f(x)−f(0)
sin(
1
2
x)
sin[(n+
1
2
)x]dx
= f(0) (225)
∀ funci´ on de prueba f. Por periodicidad obtenemos entonces, para x ∈ ℜ,

¸
m=−∞
δ(x −2mπ) =
1
π
[
1
2
+

¸
n=1
cos(nx)] =
1

P

¸
n=−∞
e
inx
4) Si derivamos t´ ermino a t´ ermino el desarrollo (223) de f(x) = x obtenemos la serie
2

¸
n=1
(−1)
n+1
cos(nx) (226)
que no converge puntualmente. Esto se debe a que f(−π) = f(π), siendo entonces la
convergencia de (223) no uniforme. No obstante la serie (226) converge como distribuci´ on
a
f

(x) = 1 −2π

¸
m=−∞
δ(x −π + 2mπ)
91
I.4 SERIE DE FOURIER
que es la derivada (como distribuci´ on) de la extensi´ on peri´ odica de x.
5) Desarrollo en serie de Fourier de medio rango de la funci´ on de Green en [0, a] para
condiciones de contorno de Dirichlet:
G(x, x

) = {
x(1−x

/a) 0<x<x

<a
x

(1−x/a) 0<x

<x<a
Se obtiene
b
n
=
2
a

a
0
G(x, x

) sin(nπx/a)dx = sin(nπx

/a)/(nπ/a)
2
y por lo tanto
G(x, x

) =

¸
n=1
sin(nπx/a) sin(nπx

/a)
(nπ/a)
2
que coincide con el desarrollo general en autofunciones dado en la clase 12 (G(x, x

) =
¸

n=1
u
n
(x)u
n
(x

)/λ
n
).
92
I.4 SERIE DE FOURIER
Ejemplo de desarrollo en serie de Fourier:
f(x) =

1 |x| < 1/2
0 |x| > 1/2
Intervalo: [−1, 1].
a
n
=

1
−1
f(x) cos(nπx)dx =

(−1)
(n−1)/2 2

n impar
0 n par
, b
n
=

1
−1
f(x) sin(nπx)dx = 0
con a
0
= 1. Suma parcial de orden n:
S
n
(x) =
1
2
a
0
+
n
¸
m=1
a
m
cos(mπx)
Se muestran los gr´aficos de f y S
n
para n = 1, 3, 5, 11, 21, 51. Los dos ´ ultimos paneles muestran la
de la derivada
dSn(x)
dx
para n = 21 y 51, que converge como distribuci´ on a δ(x +
1
2
) −δ(x −
1
2
) en [−
-1 -0.5 0.5 1
x
-0.5
0.5
1
1.5

n=1
-1 -0.5 0.5 1
x
-0.5
0.5
1
1.5

n=3
-1 -0.5 0.5 1
x
-0.5
0.5
1
1.5

n=5
-1 -0.5 0.5 1
x
-0.5
0.5
1
1.5

n=11
-1 -0.5 0.5 1
x
-0.5
0.5
1
1.5

n=21
-1 -0.5 0.5 1
x
-0.5
0.5
1
1.5

n=51
-1 -0.5 0.5 1
x
-40
-20
20
40

n=21
-1 -0.5 0.5 1
x
-40
-20
20
40

n=51
93
I.5 TRANSFORMADA DE FOURIER
I.5. Transformada de Fourier
I.6. Funciones especiales
I.7. Bibliograf´ıa correspondiente al Cap´ıtulo I
94
Parte II
Ecuaciones Diferenciales en Derivadas
Parciales
95
Parte III
Probabilidades y Estad´ıstica
97
Parte IV
Ap´ endice
99
IV.1
IV.1.
101

Sign up to vote on this title
UsefulNot useful