P. 1
Renato Alvarez Nodarse - Ecuaciones diferenciales ordinarias

Renato Alvarez Nodarse - Ecuaciones diferenciales ordinarias

|Views: 939|Likes:

More info:

Published by: Braicot Espinoza Moran on Apr 07, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

11/13/2011

pdf

text

original

Sections

  • 1. Introducci´on a las EDOs: la EDO lineal de primer
  • 1.1. Ecuaciones diferenciales “ordinarias”
  • 1.2. La EDO lineal de primer orden
  • 1.3. Algunas aplicaciones de las EDOs lineales de primer orden
  • 1.4. Problemas
  • 2. Otras EDOs de primer orden
  • 2.1. Ecuaciones separables
  • 2.2. Problemas
  • 2.3. Ecuaciones que se reducen a EDOs lineales o separables
  • 2.4. Las EDOs homog´eneas
  • 2.5. Otras EDOs de primer orden: la EDO de Clairaut
  • 2.6. Ecuaciones exactas y factores integrantes
  • 2.7. Aproximaciones num´ericas: el m´etodo de Euler
  • 2.8. Problemas
  • 3. Sistemas de EDOs
  • 3.1. La ecuaci´on lineal Y = A(x)Y + B(x)
  • 3.2. Los SEDO lineales con coeficientes constantes
  • 3.3. La exponencial matricial exp(xA)
  • 3.4. El caso de autovalores m´ultiples
  • 3.5. El SEDO lineales no homog´eneo
  • 3.6. Problemas
  • 4. La ecuaci´on lineal de orden n
  • 4.1. Soluci´on de la ecuaci´on lineal homog´enea
  • 4.2. La EDO lineal de segundo orden no homog´enea con coeficien-
  • 4.3. Aplicaciones
  • 4.4. Problemas
  • 5. Soluciones de EDOs en serie de potencias
  • 5.1. El m´etodo de reducci´on de orden
  • 5.2. Puntos regulares y singulares de una EDO
  • 5.3. La ecuaci´on hipergeom´etrica de Gauss
  • 5.4. Problemas
  • 6. Los polinomios ortogonales cl´asicos
  • 6.1. La ecuaci´on diferencial hipergeom´etrica
  • 6.2. Los Polinomios de Hermite, Laguerre y Jacobi
  • 6.3. Los momentos de los polinomios cl´asicos
  • 6.4. Las funciones generatrices
  • 6.5. Problemas
  • 7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69
  • 7. El teorema de existencia y unicidad para las EDOs
  • 7.1. Problemas
  • 8. La transformada de Laplace
  • 8.1. Problemas
  • A. Anexo: C´alculo de primitivas
  • A.1. M´etodos de integraci´on
  • A.2. Integraci´on de funciones racionales
  • A.3. Integrales trigonom´etricas
  • A.4. Integrales irracionales
  • B. Anexo: ´Algebra lineal
  • B.1. Sistemas lineales y matrices
  • B.2. Formas escalonadas y el algoritmo de reducci´on por filas
  • B.3. Soluci´on de un sistema de ecuaciones lineales
  • B.4. Vectores y ecuaciones matriciales
  • B.6. Determinantes
  • B.7. Espacios Vectoriales
  • B.8. El problema de autovalores de una matriz
  • C. Anexo: Series de potencias
  • C.1. Propiedades de las series de potencias

´ ´ ´ AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x

x + ω 2x = f0 cos(Ωt)

´ Renato Alvarez Nodarse

£

¢

¡

 

t

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. o a a
´ Prof. Renato Alvarez Nodarse

´ Indice
Programa de la asignatura 1. Introducci´n a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coeficientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homog´nea con coeficientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .

. . . . ´ B. . . . . . . . . Espacios Vectoriales. . . . . . . . 8. Propiedades de las series de potencias . . . . .1. . . Integraci´n de funciones racionales. . . . . . . . .6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1. Problemas . . . . . . . . . . . . . . . . .2. . . . . . . .3. . . . . . . . Anexo: C´lculo de primitivas a A. . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A. . Problemas . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . .4. . . . . . . . . . . . Integrales irracionales. Formas escalonadas y el algoritmo de reducci´n por filas. . . . . . . . . . . . . . .1. . . . . . . . . . Determinantes. . e o A. .6. . . . 7. M´todos de integraci´n. . . Anexo: Series de potencias 105 C. Anexo: Algebra lineal B. . . Sistemas lineales y matrices. . . . . . .3. . . Algebra de matrices. . . . o B. . . . .7. . . . . . o B. . . B. . El teorema de existencia y unicidad para las EDOs 7. . . . o A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5. . 67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102 ´ B. . . . B. . . e A. B. . . . . . . El problema de autovalores de una matriz.5. . . . . . . . . . .4. . . . . . . . . . . . . . .1. . . . . . B. . . . . . . . . . . . . . . . . . . . . . . Integrales trigonom´tricas. . . Soluci´n de un sistema de ecuaciones lineales. . . .8. . . . . . Vectores y ecuaciones matriciales. . . . . . . . . . . . Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La transformada de Laplace 8. . . . . . . . C. . . . 105 . . . . . . . . .

Motivaci´n de las ecuaciones diferenciales ordinarias (EDO).Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. M´todos e en diferencias para resolver EDOs de primer orden: El m´todo de Euler. o o La ecuaci´n de segundo orden de tipo hipergeom´trico. e Cap´ ıtulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. Cap´ ıtulo 7: EDOs: Existencia y unicidad de las soluciones. Ortogonalidad y relaci´n de recurrencia. Ecuaciones lineales. La o e a ecuaci´n de Pearson y los momentos de las distribuciones discretas de probabilidad. Sistemas de ecuaciones diferenciales ordinarias de primer orden. Ecuaciones diferenciales exactas. Teorema de existencia y unicidad para la EDO lineal de orden 1. Aplicaciones. La matriz exponencial eA y sus propiedades. Curso 2003/2004 Cap´ ıtulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. o a a Programa de la asignatura. Aplicaciones. Puntos regulares y singulares. La EDO lineal de primer o orden. La EDO lineal o de primer orden. Funcioo nes generatrices. Los momentos de las o o distribuciones continuas de probabilidad. La ecuaci´n de Bessel. Ecuaciones diferenciales de primer orden. Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria de primer orden. Ecuaciones o lineales. Ecuaciones separables. F´rmula de Rodrigues. Los polinomios cl´sio e o a cos. Cap´ ıtulo 2: Ecuaciones diferenciales ordinarias de primer orden. Reducci´n de orden. EDOs de orden n. M´todo de Pic´rd. Polinomios cl´sicos discretos. a La ecuaci´n de tipo hipergeom´trico y sus soluciones polin´micas. Aplicaciones. . EDOs lineales de orden 2. Cap´ ıtulo 4: Ecuaciones diferenciales de orden n. Cap´ ıtulo 8: Ecuaciones en diferencias finitas. Existencia de la soluci´n. Ecuaciones de Bernoulli y de Ricati. Los sistemas lineales y la EDO de orden n. e o Cap´ ıtulo 6: Polinomios ortogonales cl´sicos. La ecuaci´n hipere o o geom´trica de Gauss. Relaci´n con los sistemas de ecuaciones de primer orden. Ejemplos y aplicaciones. e M´todo de integraci´n por series. Funciones generatrices. e o o Cap´ ıtulo 5: M´todo de las series de potencias. M´todo de variaci´n de coeficientes. Introducci´n a las ecuaciones en diferencias finitas: Ejemplos. Sistemas lineales con coeficientes constantes.

K. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan aplicar y profundizar los m´todos aprendidos. P. y Saff E. y Zarzo. Matem´tica Superiores. ´ Renato Alvarez Nodarse. y Makarenko G.K.F. Ecuaciones diferenciales elementales.B. Penney. Edwards. Despacho: 1er piso. 2002).S. A. Ecuaciones diferenciales. McGraw-Hill.. a Kisilev A. Bugrov Ya.. Nikolski S. o a o o Al final del cuatrimestre se se efectuar´ un ex´men final constituido por una parte te´ricaa a o pr´ctica y otra de problemas. Mod 15. Bibliograf´ complementaria ıa Braun M. MIR. Prentice Hall.. H. Las horas pr´cticas se e a dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de complemento a las clases te´ricas. 9 y 10 (URSS. y Bedient R. Pearson Educaci´n o Nagle R. MIR. Bedient P.D. Fundamentos de ecuaciones diferenciales. Elsgoltz L. BOIARCHUK y G. o Colecciones de problemas A. Ecuaciones diferenciales.. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8.. Marcell´n. GOLOVACH. 15-06 a . Ecuaciones diferenciales: Problemas lineales y a u aplicaciones. Springer Verlag. s´lo en caso a a e o de mejorarla. Simmons. Para aprobar el examen es necesario obtener al menos 5 a puntos. Facultad de Matem´ticas. Krasnov M. Pearson Educaci´n.M. Ecuaciones diferenciales y c´lculo variacional.E. No. Bibliograf´ ıa Bibliograf´ b´sica ıa a C. Series. Las horas a o a de teor´ se dedicar´n a la explicaci´n de los principales conceptos y m´todos de resoluci´n ıa a o e o de EDOs tanto de orden uno como de ordenes superiores. Rainville E. Funciones de variable compleja. Jr y David E.Metodolog´ y Evaluaci´n ıa o La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales. F. Dichos proyectos son totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden complementar la nota de ´ste. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase. Integrales mltiples. Ed. L. MIR. Ecuaciones diferenciales : con aplicaciones y notas hist´ricas. Differential Ecuations and their Applications. Problemas de Ecuaciones diferenciales ordinarias. G.E. Casas´s. McGrawo Hill.

multiplicaci´n y divisi´n. As´ por ejemplo la ecuaci´n y + 3y = 2 es de orden uno. . o sea o y = y(x) es soluci´n en A o ⇐⇒ F (x. y . Estas ecuaciones son el objetivo del presente curso. .1. x2 + 1 = 0. y (x). En segundo. y (n) (x)) = 0.. porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general. Diremos que y = y(x) es una soluci´n de la (1. . x2 − 2x + 1 = 0. y. y . La tercera sin embargo no tiene soluciones reales. y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 . Introducci´n a las EDOs: la EDO lineal de primer o orden Todos sabemos que es una ecuaci´n. . . (1. ∀x ∈ A. o o a o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n es un conjuno to de n´meros determinado. . pero si complejas x = ±i. y. es decir encontrar aquella soluci´n y de la ecuaci´n o o (n) F (x.. Es f´cil entender que el problema de a encontrar la soluci´n de las ecuaciones diferenciales es m´s complicado que el de los casos o a anteriores. . quiz´ las m´s sencillas. x2 + 4x = −3. y (x) − ey(x) + 7 cos x = 0. . . mientras que la segunda tiene dos soluciones reales ´ o x = 1 y x = 3.1) es de orden n si en ella aparece la derivada y (n) . En particular el denominado problema de valores iniciales (PVI). x2 − 1 Estas ecuaciones. Por ejemplo o 3x + 2 = 5. las ecuaciones funcionau a les donde las inc´gnitas son funciones.1) donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I ⊂ R. Nuestro principal objetivo es aprender a resolver EDOs. y (n−1) (x0) = y0 (n−1) . Nos centraremos en las ecuaciones del tipo (1. La inc´gnita en este caso es una unica o o o ´ variable x que puede ser real o compleja. es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funci´n inc´gnita o o y y.1) en cierto dominio A ⊂ R si al sustituir o la funci´n y = y(x). y (x) + 3y (x) + 2y(x) = 2 cos(2x). y (x) = y. y . son ecuaciones algebraicas ya que involucran s´lo a a o las operaciones suma. Finalmente la ultima no tiene ninguna soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ ıa puede ser soluci´n ya que la propia ecuaci´n no est´ definida en x = 1 (divisi´n por cero). Por ejemplo. resta. 1. y (x0) = y0. Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. . Existen ecuaciones m´s “complicadas”. . . Por ejemplo. y (x) = sen x. En ejemplo de ´stas son las ecuaciones diferenciales o e ´ “ordinarias”. y (n) ) = 0. y . En primer lugar por que estamos buscando funciones de x y no simples valores de x. para la primera ecuaci´n es f´cil ver o a que x = 1 es la unica soluci´n posible. y(x)..´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 1 1. o y (5) + 3 sen x − y = 0 es de orden cinco. . Ecuaciones diferenciales “ordinarias” F (x. ı.1) se transforma en una identidad para todo x ∈ A. y + e − 1 = 0 es de orden dos. . Diremos que o u una ecuaci´n diferencial del tipo (1.

de donde C = −1 o x2 x2 y y(x) = 2 − e− 2 .2) se expresa de la forma o y(x) = Ce− a(x) dx + e− a(x) dx e a(x) dx b(x) dx (1.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce− 2 + e− 2 x2 x2 dy + x y = 2x.4). para cualquiera sea el valor y0 .2. b(x) ∈ CI .2) con la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden. Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n homog´nea y si b(x) = 0. tenemos y(0) = 1 = C + 2. la soluci´n del PVI es o x t x t y(x) = y0 exp − x0 a(s) ds + exp − a(s) ds x0 x0 exp x0 a(s) ds b(t) dt . o o e ecuaci´n no homog´nea. x2 x2 x2 x2 x2 Definici´n 1. (1.2 con la condici´n inicial y(0) = 1.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 2 1.2) (como inc´gnita tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o o o de primer orden. Si a(x) y b(x) son funciones continuas en cierto intervalo I ⊂ R que contenga al punto x0 ∈ I. o e La soluci´n general de (1. (1. dx e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2.3) Ejemplo 1.1 La ecuaci´n o o a(x).5) .4 Resolver la EDO del ejemplo 1. o Como la soluci´n general es y(x) = Ce− 2 + 2. Teorema 1.3 El problema de encontrar una soluci´n de la ecuaci´n (1. dx a(x).4). o sea. d y(x) + a(x)y(x) = b(x). (1. b(x) ∈ CI .4) Ejemplo 1. y(x0) = y0. ´ o En general. dx Definici´n 1. entonces.5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1. existe una unica soluci´n del problema de valores iniciales (1. La EDO lineal de primer orden d y(x) + a(x)y(x) = b(x).

y) R 0 (x/2.0) x U L Q Figura 1: Curva del ejemplo 1. Algunas aplicaciones de las EDOs lineales de primer orden Ejemplo 1. entonces u ´ N (t + h) − N (t) = −λN (t)h ⇐⇒ N (t + h) − N (t) = −λN (t).8 Se sabe que la intensidad i del circuito el´ctrico representado en la figura 1 e est´ gobernada por la ecuaci´n diferencial a o L di + Ri = U. donde p es la presi´n en funci´n de la altura h.10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una substancia radioactiva.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x. dt donde L es la impedancia. Encontrar la dependencia de i respecto al tiempo t. R la resistencia y U el voltaje.6 (derecha) y circuito el´ctrico del ejemplo 1. Si h = 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3 1. o o o ¿C´mo var´ la presi´n con la altura? o ıa o Ejemplo 1. Realizar el mismo estudio si U = U0 sen(ωt).7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto. λ > 0.9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h). Ejemplo 1.3. Encuentra adem´s la a curva que pasa por el origen. y t y(x) P(x. la presi´n al nivel del mar (1 atm). y = 2y/x Ejemplo 1.8 (izquierda) e Ejemplo 1. Supongamos que el voltaje U es constante y que i(0) = i0. y) dibujado entre P y el eje 0y quede bisecado por el eje Ox. h .

si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos ı.693147 = .000433217 1/a˜os n 47 min 0.6) Se llama per´ ıodo de semi-desintegraci´n al tiempo necesario para disminuir en la mitad o el n´mero de atomos.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710 8848 0. (1. Uranio 238 Torio 234 Uranio 234 Radio 226 Plomo 206 Polonio 210 Plomo 210 Plomo 214 As´ por ejemplo.g.000124488 1/a˜os n 9 −10 4. E.71 0.5110 a˜os 1. u ´ N0 = N0 e−λT . pr´cticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226. entonces podemos aproximar la ecuaci´n anterior mediante la siguiente EDO o N (t) = −λN (t).32 4 Si h → 0.0315067 1/a˜os n 138 d´ ıas .64 0.62 0. lo que implica una aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones.0147478 1/min 22 a˜os n 0.5101210 n 1/a˜os n En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva. N (t0) = N0. o e Si llamamos a esa aportaci´n r(t). entonces la ecuaci´n que gobierna la desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) + r(t). (1. T T Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 → Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o Uranio 238 → Torio 234 Per´ ıodo T λ 1600 a˜os n 0.00502281 1/dias 5568 a˜os n 0.7) . 2 =⇒ λ= log 2 0.81 0. Por ejemplo. N (t0) = N0. que tener en cuenta no s´lo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de ´l en la cadena radioactiva.

y. Problemas de EDOs lineales Problema 1. f (x. y) = x2 + y 2 − 25 = 0. x y + y = x3 7. √ 6. y ) = ex−y + ey−xy = 0 F (x. y. 8. 7. o o a o 1. . y) = 0 dada y determina la regi´n de R donde dicha soluci´n o o est´ definida: a 1. y. y ) = yy + x = 0 F (x. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la f´rmula (1.4. y(1) = 0. y ) = yy + x = 0 F (x. y. y = (y + e−x ) tan x 8. y + y x = 0 3. f (x) = sen x 10. y) = y − 2 2+x F (x. x y + y cos x = 1/2 sin(2x) 11. f (x. y = 3y + e5x .´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 5 donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra. y ) = xy + y − y 2 = 0 F (x. y. f (x. 5. y. y ) = y + y/x = 0 = 0. f (x. f (x. y = 6y + x2. f (x. y ) = (y 2 − x)y − y + x2 = 0 F (x. y) = x2 + y 2 + 1 = 0. 4. y. f (x) = 3e−2x . y) = 1 + x2 − y = 0. 2. y + y = xex 5. y + x2y = x2 6. 9. f (x.5). y + 2y = f (x). y) = x3 + y 3 − 3xy = 0. y. x y + y = x sen x Problema 1.11 Decide si las funciones y(x) definidas expl´ ıcitamente o impl´ ıcitamente son soluciones de la EDO F (x. y) = y − ex + 2 = 0. y ) = y − y = 0 F (x. y + xy = f (x). f (x) = 3/4e−2x . 3. Problemas Problema 1. y) = x2 + y 2 − 25 = 0. y.13 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la soluci´n correspondiente a las condiciones iniciales indicadas: o 1. y ) = (1 + x2)y − xy = 0 F (x. y + 2xy = x 4. y(0) = 2.12 Encuentra la soluci´n general de las siguientes EDO lineales de primer o orden 1. y) = e2x + ey−x − 1 = 0. 2. y + y cos x = 0 √ 2. f (x.

b ∈ R. Encontrar la curva que pasa por (4. x→∞ a(x) ≥ c > 0. ∞). ım a(x). c ∈ (0. 2).0) y(x) t P(x.14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. Problema 1. y + y = g(x). y(1) = 1/4. b(x) ∈ CR . 0 ≤ t ≤ 1 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3. (sol. x2 + 2y 2 = 24). es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. g(x) = 2. ∀x ∈ R. ım .y) Q x n Curva del problema 1.15 a) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + ay = be−cx . t > 1 6 5. x→∞ a. 4.14. y 0 (x/2. ım b) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x). x→∞ l´ b(x) = 0. y(0) = 1. (1 + x2)y + 4xy = x. Problema 1. y(0) = 0. y = y + e−x sen(2x).

si nos interesa el PVI con la condici´n a o √ 2. b − ae(a−b)κt =⇒ a−x = Ce(a−b)κt .3 La velocidad de escape de la Tierra . entonces tenemos dx = κdt (a − x)(b − x) =⇒ log a−x = (a − b)κt + C. En general la soluci´n es y(x) = ± C + x o depender´ de las condiciones iniciales. C = a/b.1. Cuando esto ocurre se dice que la EDO (2. y) (2. e En general tenemos dy = a(x)b(y) dx ⇐⇒ dy = a(x)dx b(y) ⇐⇒ dy dy = b(y) a(x)dx. donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x). La expresi´n anterior define una familia de curvas en R2 √ son soluci´n de la ecuaci´n o que o o 2 . entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2. y(0) = 3. y) = a(x)b(y). Otras EDOs de primer orden Ecuaciones separables Comenzaremos por las ecuaciones separables. Se sabe que la velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n de A y B.1.1 Resolver la ecuaci´n y = x/y.2 OTRAS EDOS DE PRIMER ORDEN 7 2.1) admite la factorizaci´n f (x. y) en la o EDO y = f (x. donde el signo + o − diferencial propuesta. luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C.2 Supongamos que tenemos una reacci´n qu´ o ımica A + B → C y que en t = 0 la concentraci´n de A es a y la de B es b.2) cuando b ≡ 0.1) es o una ecuaci´n separable. luego x(t) = ab Ejemplo 2. Lo anterior nos conduce a la EDO o x = κ(a − x)(b − x). Ejemplo 2. Aplicaciones Ejemplo 2. b−x x(0) = 0. (2.2) como x(0) = 0.1. donde κ es la constante de proporcionalidad. 2. Por ejemplo. b−x 1 − e(a−b)κt . Un ejemplo trivial de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal homog´nea (1. Supongamos que la funci´n f (x. o Usando lo anterior tenemos ydy = xdx ⇐⇒ y 2 = x2 + C. Supongamos que a = b.

siendo R el radio de la tierra (que supondremos una esfera). Ejercicio 2. entonces. r Para que nuestra nave escape definitivamente de la tierra es suficiente que v ≥ 0 cuando √ r → ∞. entonces si t → ∞ el cuerpo s´lo podr´ alcanzar la velocidad l´ o a ımite vmax = 1/ω independiente del valor v0 inicial. . Poniendo los datos R = 6400000 metros g = 9.2Km/s. ω= κ > 0.3) donde g y κ son ciertas constantes (la gravedad y la viscosidad).2 OTRAS EDOS DE PRIMER ORDEN 8 Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la superficie de la tierra. 1 − ω2 vr ω2 = κ . por ejemplo. dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la superficie terrestre. Si usamos la ley de Newton tenemos dv GMT =− 2 . Resolvamos la ecuaci´n o dv = dt g − κv r v v0 v =⇒ t − t0 = v0 dv 1 = g − κv r g v v0 dv . v(0) = v0. g Como ω > 0.5 Resolver el caso r = 3. dr r La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 = 2gR2 /R + C. g Escojamos r = 2. tenemos GM T = gR2. Entonces dv 1 (1 + ωv) (1 − ωv0 ) = log = g(t − t0 ). (2.8m/s2 obtenemos v0 = 11200m/s = 11. Usando la regla de la cadena tenemos v gR2 dv =− 2 . lo cual nos conduce al valor v0 ≥ 2gR.4 La ca´ de un cuerpo en un medio viscoso se puede modelizar mediante la ıda ecuaci´n para la velocidad v(t) o v = g − κv r . Como g = GMT /R2 . 2 vr 1−ω 2ω (1 − ωv) (1 + ωv0 ) Despejando v tenemos la soluci´n o 1 v(t) = ω 1+ωv0 1−ωv0 1+ωv0 1−ωv0 e2gω(t−t0) − 1 e2gω(t−t0) + 1 . Obviamente r varia con el tiempo por lo que la ecuaci´n anterior se torna algo complicada o a simple vista. la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 − 2gR. Ejemplo 2.

poblaci´n de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t). Si r < 0 la especie esta condenada a la extinci´n y si r > 0 ´sta crece en proporci´n o e o geom´trica. gr´fica 2. Verhulst.1.4) es una aproximaci´n bastante buena. p) = r.2.5. (2. Resolviendo la EDO (2. =⇒ p (t) = r(t. En el caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´ ıstico 2. h → 0. propuso un modelo algo m´s realista a o e a conocido como el modelo log´ ıstico. Malthus (1766– e e 1834). l´ t→∞ p(t) = r/c independientemente a ım de p0 . hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros factores como a la falta de espacio o de alimentos que frenar´ el crecimiento. Supongamos que la poblaci´n est´ aislada (o sea. El modelo de crecimiento de poblaciones 9 Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de individuos de dicha especie en u u el momento t (evidentemente p(t) ∈ N). Luego p(t + h) − p(t) = r(t. p). P. no hay o o a emigraci´n ni inmigraci´n).6) Adem´s. a 0 t0 t Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados. p r/c p(t0) = p0. Por tanto varios a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s. El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R. F. La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t. r − cp0 + cp0 er(t−t0) (2. r > 0. r. pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp no se puede obviar y termina frenando el crecimiento exponencial. el hecho de que la poblaci´n se o estabilice ha sido comprobado en distintos experimentos con paramecios obteni´ndose una e gran concordancia entre los resultados te´ricos y experimentales. e Aunque el modelo funciona razonablemente bien para poblaciones grandes. p)p(t)h. p(t0) = p0 . en particular.2 OTRAS EDOS DE PRIMER ORDEN 2. As´ la o a ı. p)p(t). Verhulst razon´ que como estad´ o ısticamente el encuentro 2 de dos individuos es proporcional a p (¿por qu´?) entonces tendremos que sustraerle al e t´rmino rp un t´rmino cp2 . Entonces la variaci´n p(t + h) − p(t) es proporcional a p(t)h y o o o el coeficiente de proporcionalidad es r(t. constante. Sea r(t.4) cuya soluci´n p(t) = p0 er(t−t0) .5) En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande la EDO (2. de forma que la EDO que modeliza una poblaci´n ser´ e e o a p (t) = r p(t) − cp2 (t). o . (2. p) la diferencia entre en ´ ındice de natalidad y mortalidad de la poblaci´n.5) tenemos p(t) = rp0er(t−t0) . c > 0.

2. cos(y)y + ex+1 tan y = 0 8. (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2. y(1) = 0 6.2. cos(y)y = − x sen2y .7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1. y(2) = 1 4. y(x0) = y0 > 0. a. y(1) = π/2 1+x 5.2 OTRAS EDOS DE PRIMER ORDEN 10 2. (1 + x2)y = 1 + y 2 2. 3xy = y cos x.6 Encuentra a ser posible todas las soluciones y(x) definidas expl´ ıcitamente si se puede o impl´ ıcitamente de las EDOs siguientes 1. y = 1 − x + y 2 − xy 2 5. (1 − x)y = (x + 1)y. l´ x→∞ y(x) = 5π/4 ım 2 . cotg(y)y = x2 + 2 6. y(1 + x2)y + x(1 + y 2 ) = 0 4. yy + x − 3xy 2 = 0. y(0) = 0 3. y = y(a + by). x2y − 1 = cos(2y). Problemas Problema 2. y = xy(y + 2) 3. (x log x)y + 1 + y2 = 0 7. b > 0.

3. z = (1 − n)y −n y .3) para resolverla.8). =⇒ z + (1 − n)a(x)z = (1 − n)b(x). n = 0. En general. Ecuaciones que se reducen a EDOs lineales o separables Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati En 1695 Johann Bernoulli propuso la resoluci´n de la EDO o y + a(x)y = b(x)y n. 2 x z =⇒ 2 z + z = −1. Ese mismo a˜o Leibniz propuso el cambio z = y 1−n o n que transformaba la EDO (2. Esta ecuaci´n es una EDO de Bernoulli con n = 4.3) que nos da o o x C z = − + 2.9 Resolver la EDO de Riccati y = y 2 − 2/x2. Supongamos que yp es una soluci´n particular de (2. x La soluci´n la encontramos usando la f´rmula (1. x C − x3 . Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0. y = y 4 z. Hacemos el cambio z = y −3 . 1.3. (2. la podemos convertir en una EDO lineal. Veamos un ejemplo. La ecuaci´n anterior generalmente es ıa n o imposible de resolver anal´ ıticamente (en cuadraturas) a no ser que se sepa una soluci´n o particular yp . 2. que es una ecuaci´n de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal. y tenemos o 4 y = −y y /3. o Ejemplo 2.7) en una EDO lineal. x 2 4 −1/3 . Hacemos el cambio y = 1/x + 1/z.8) que hab´ considerado a˜os antes Jacob Bernoulli.8 Resolver la EDO y − 1/(3x)y = y 4 log x.7) La resolvi´ su hermano Jacob en 1696. 3 x =⇒ y= 3x2 1 + . (2. Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = −2/x son soluciones particulares. Pasemos a estudiar la EDO de Riccati. dada una EDO de Riccati (2. y hagamos el cambio o z = y − yp . x de donde obtenemos y= C 3 3 − − x log x + x x 2 4 =⇒ z=− C 3 3 − x log x + x. La forma de la EDO nos induce a buscar una soluci´n del tipo y = c/x. mediante el cambio y = yp + 1/z. y =− 1 z − 2.2 OTRAS EDOS DE PRIMER ORDEN 11 2. Usemos la primera para resolver la EDO. que es lineal y por tanto podemos usar la f´rmula (1. En efecto. Ejemplo 2. En 1724 Jacopo Francesco Riccati estudi´ la EDO o y + p(x)y + q(x)y 2 = f (x). luego la EDO se transforma en 1 z + z = −3 log x.8). haciendo z = y 1−n .1.

=⇒ z = 2 ± 1 + Cex .2. (z − 2)2 − 1 luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| = x + C. ty) = e tk f (x. entonces o F (z) = z − 1 + 1/(2 − z). luego (2. En efecto. u) = g(u) = g(y/x).4. Las EDOs homog´neas e Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas. x−y+2 Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si hacemos z = y − x. 12 Sea la EDO (2. Si hacemos el o e cambio y = ux. Sea y = u x. o sea. entonces la EDO anterior se transforma en la EDO y = f (y/x). ty) = f (x. si f es homog´nea de orden 0.9) y hagamos el cambio z = αx + βy. f (tx. 2.11 Resolver la EDO y = (y + x2 − y 2 )/x. toda funci´n homog´nea de orden 0 es una funci´n de y/x. =⇒ α + βF (z) Ejemplo 2. y). Entonces o e f (x. y y para todo t ∈ R. =⇒ (z − 2)2 − 1 = Cex .10 Resolver la EDO y = y − x − 1 + 1 .2 OTRAS EDOS DE PRIMER ORDEN 2.10) se transforma el la EDO separable xu + u = f (u). N´tese que hemos dividido por (z − 2)2 − 1 por lo que o podemos haber perdido soluciones.10) A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO homog´nea. entonces f (tx. que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C. entonces z = α + βy . z = α + βF (z). o e o Supongamos que tenemos la EDO y = f (x. Una funci´n e o f (x. podemos perder las soluciones y = x + 1 e y = x + 3. entonces y = xu + u y la EDO (2. ux) = x0f (1.3. f (u) − u Ejemplo 2. Como z = y − 1 tenemos z = z−2− 1 . . y) y f es una funci´n homog´nea de orden o e 0. como (z − 2)2 − 1 = 0 se anula en z = 1 y 3. Ecuaciones del tipo y = F (αx + βy) y = F (αx + βy). y) se denomina homog´nea de orden k si para todo x. √ por tanto y = 2 + x ± 1 + Cex . z−2 =⇒ (z − 2)dz = x + C. (2. y) = f (x.9) se transforma en la EDO separable dz = x + C. y). u = y/x. Sea f una a e funci´n homog´nea de orden 0. Adem´s.

es f´cil comprobar que f (tx. y). luego las soluciones son las familias de rectas y = cx + c2 . si u = ±1. como hemos visto u = ±1. √ 1 − u2 . Ejemplo 2.11) se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734. x 1 − u2 Ahora bien.  =⇒ y = xt + t2 x t=− . Para encontrar la otra soluci´n o o usamos que x = −f (y ). =⇒ √ dx du = .11) o y = xy + y + f (y )y ⇐⇒ [x + f (y)]y = 0.12 Resolver la EDO y = xy + (y )2. La primera condici´n nos da una familia o de rectas y = mx + n. Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x e y = −x son tambi´n dos e soluciones de la EDO original. Luego si hacemos y = t. siendo t un par´metro real tenemos la a siguiente soluci´n param´trica conocida com´nmente como soluci´n singular o e u o   x = −f (t). y) = (y + x2 − y 2 )/x. Para descubrir cuales son las rectas soluci´n basta notar que si y = c. 2. f derivable y con primera derivada continua (2.2 OTRAS EDOS DE PRIMER ORDEN 13 Sea f (x. Otras EDOs de primer orden: la EDO de Clairaut La EDO y = xy + f (y ). La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas). c ∈ R. y la soluci´n singular o   x = −2t 1  y = xt + f (t). e o o entonces la EDO nos da la ecuaci´n y = xc + f (c). as´ que hacemos a ı el cambio y = u x y obtenemos. xu = de donde se deduce que arc sen u = log |x| + C ⇐⇒ arc sen(y/x) = log |x| + C. 4 . ty) = f (x. Esta es una EDO de Clairaut con f (z) = z 2. Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambi´n es soluci´n. lo que puede hacernos perder las soluciones y = ±x. de donde deducimos que o y = 0 o x + f (y ) = 0.5. 2 y=− x2 . Vamos a o intentar encontrar alguna soluci´n de la EDO Clairaut para lo cual derivamos (2.

dadas dos o funciones M (x.12) si y s´lo si (2. a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior. y). y) existe una funci´n φ(x.13 Sean M (x.12) a o o d es equivalente a la expresi´n dx (φ(x. y) = . o sea. y)) = + = + y. . Por conveniencia reescribiremos la EDO y = f (x.13) d Por ejemplo. y) y N (x.13) o o ∂φ(x. y) = N (x. para cierta funci´n φ(x.6. (2. o o Como 0= d ∂φ(x.2 OTRAS EDOS DE PRIMER ORDEN 14 2. Ecuaciones exactas y factores integrantes Sea una EDO del tipo y = f (x. φ(x. y) y N (x. ∂y ∀(x. y) = C si y s´lo si (2.12) se puede reescribir de la forma dx (φ(x. y) = N (x. y) = 0. y)) = 0 si y s´lo si. y) = C. la EDO lineal (1. o lo que es lo mismo. y) (φ(x. Teorema 2. y)y + M (x. entonces la soluci´n de la o o EDO ser´ φ(x. sin agujeros. y) dos funciones tales que existan todas las derivadas parciales ∂M . dx ∂x ∂y ∂x ∂x ∂y d entonces la EDO (2. ∂M y ∂N y sean funciones continuas en cierto dominio2 Ω ∈ R2 . y)) = 0. y) ∂φ(x. no es f´cil intuir que la EDO a dx y 3 + yey cos(xy) − se puede escribir como 3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2 3 d xy 3 + ey sen(xy) + = 0. y) = C?. y). As´ surge la pregunta ¿cu´ndo la EDO (2. y) = M (x. y) tal que o ∂φ(x. y) ∂y ∂φ(x. y)) = 0. y) ∈ Ω. y)) dx = 0. la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 − exp(x + y)] = 0. y).12) se puede escribir de la forma ı a y por tanto su soluci´n es φ(x.2) y + [a(x)y − b(x)] = 0. ∂y (2. y) = M (x. ∂x es necesario y suficiente que ∂N (x. ∂N . y)) = 0. y)) dx = d (φ(x. y) tal que se cumpla la condici´n (2. ∂x ∂φ(x.12) se puede escribir de la forma dx (φ(x. La respuesta la da el siguiente o d (φ(x. y) ∂φ(x. y)) = 0. y) en la forma equivalente N (x. ∂x ∂x ∂y ∂y para que exista una funci´n φ(x. ∂x ∂y 2 ∂φ(x. y) = C es una o d soluci´n de (2.12) tendr´ una soluci´n en cuadraturas del tipo φ(x. por ejemplo.12) se puede escribir de la forma 0. y). En general no es trivial deducir si una EDO del tipo (2. y) ∂M (x. Est´ claro que si la EDO anterior la podemos a d reescribir en la forma dx (φ(x.12) se puede expresar de la forma d (φ(x. dx x Obviamente no cualquier EDO del tipo (2. y). y).14) Por dominio entenderemos un conjunto abierto de R2 y convexo. Por ejemplo. Entonces.12) La EDO (2. (2.

y) = x2 + xy + cos x + h(y).13).y) (x. ∂y φ(x.17 Comprobar si la EDO lineal (1. as´ que no es exacta. ∂y =⇒ h (y) = 3y 2 +cos y. luego seg´n el corolario 2. es decir existe una funci´n φ(x. Como la EDO es exacta entonces u existe φ(x. y la soluci´n. y) = y + g (x) = 2x + y − sen x.12) es inexacta (o no es exacta) si o ∂M (x. y) = 2x + y − sen x y N (x. Para calcular h(y) usamos que φ(x.16 Decidir si la EDO (2x + y − sen x) + (3y 2 + cos y + x)y = 0. y) tal que φ(x. luego (x. y) = x+h (y) = 3y 2 +cos y +x. Vamos a resolverla. Corolario 2. Adem´s. ∂φ(x. pero ∂φ(x. luego ∂φ(x.y) ∂M (x.18 Una EDO del tipo (2. y encontrar su soluci´n.2 OTRAS EDOS DE PRIMER ORDEN 15 Definici´n 2. ı =⇒ g(x) = x2 + cos x. o Ejemplo 2. y) = 1. En este caso y + [a(x)y − b(x)] = 0. ∂x as´ φ(x.y) ∂y = 3y 2 +cos y +x. en cuadraturas.14 Una EDO del tipo (2. o Obviamente pod´ ıamos haber comenzado por la segunda ecuaci´n o entonces φ(x. Ejemplo 2.y) . y) = C. y) = a(x)y − b(x) y N (x. ∂x De la primera deducimos ∂φ(x. ∂φ(x.12) sea exacta es necesario y suficiente que se cumpla la condici´n (2. y) tal que se cumple (2.2) es exacta.y) = ∂N∂x .y) En este caso M (x. luego ∂M∂y = 1 = ∂N∂x .y) (x.y) que ∂N∂x = ∂M∂y . y) = 2x + y − sen x. =⇒ h(y) = y 3 +sen y. y) = y 3 + sen y + xy + x2 + cos x = C. es exacta. ∂x .15 es exacta. toda EDO exacta tiene una soluci´n o a o en cuadraturas en Ω.12) en Ω. define la o soluci´n de (2. y) = y 3 + sen y + xy + g(x). y) = 3y 2 + cos y + x.15 Para que la EDO (2. y) = x2 + xy + cos x + y 3 + sen y = C.14) en cierto dominio Ω ⊂ R2.12) se llama exacta si N y M son funciones tales o (x. y) = 3y 2 + cos y + x. ¿Qu´ hacer en este caso? ı e ∂y Definici´n 2.y) ∂y = ∂N (x. y) = C. es φ(x. luego M (x. o sea. o (x.

una EDO es exacta si y s´lo si se tiene la condici´n (2. y) ∂ρ(y) + ρ(y) = ρ(y) . y)M (x. y) ≡ 0 es un factor o integrante de (2. en cuyo caso ρ(y) = exp( S(y)dy).14). y) ∂M (x. y) ∂N (x. o o o En el primer caso (2. y) = ∂y ∂x si y s´lo si o M (x. y) ∂N (x. y) La expresi´n anterior es sencilla de resolver si la funci´n S(x.15) es f´cilmente resoluble. y)M (x. y)N (x. luego ρ(x. y) ha o o de satisfacer la ecuaci´n o ∂ρ(x. por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en los que (2. y) de la derecha es una funci´n o o o s´lo de x. o sea. o ∂M (x. y) = N (x. y) cumple o o con la condici´n (2. ρ = ρ(x) o o o 2.2 OTRAS EDOS DE PRIMER ORDEN 2. ∂y ∂x ∂x . Ahora bien. y) luego ∂N (x. o Por ejemplo consideremos la EDO x2 sen y + xey y = 0. ∂y ∂y ∂x ∂ρ(x) ∂N (x. en cuyo caso ρ(x) = exp( R(x)dx). y) ∂N (x. ∂y ∂x la cual es no trivial de resolver. Obviamente no es exacta. y) ∂ρ(x. ρ(y) dy M (x. se dice que ρ(x. ∂y ∂y ∂x ∂x (2. y)N (x. y). y) + ρ(x.1.12). y) ∂M (x. ρ = ρ(y). y) = N (x.15) es ıa o m´s complicada de resolver que la EDO original. y) .19 En general. cuando la funci´n ρ es una funci´n que s´lo depende de y. y) + ρ(x. o En el segundo caso tenemos M (x. y) ∂ρ(x. y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x. Factores integrantes 16 Definici´n 2. y) + ρ(x. ρ(x) dx N (x.15) Es decir. cuando la funci´n ρ es una funci´n que s´lo depende de x o sea.6.15). y) ∂ρ(x. y) + ρ(x) . y) + ρ(x.15) nos da ρ(x) luego ∂M (x.12) si la EDO ρ(x. y) ∂M (x. y)x2 cos y = xey + ρ(x. y)ey . para que admita un factor integrante ρ(x. De hecho en la mayor´ de los casos la ecuaci´n (2. y)y es exacta. y) − 1 dρ(x) ∂y ∂x = = R(x. y) − 1 dρ(y) ∂x ∂y = = S(x. y) La expresi´n anterior es sencilla de resolver si la funci´n R(x. y) ∂ρ(x. y). dada la EDO (2. y) si y s´lo si ρ(x. Veamos a continuaci´n dos de ellos: a o 1. una ecuaci´n inexacta tiene un factor integrante ρ(x. Entonces. y) de la derecha es una funci´n o o o s´lo de y.

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − = −2 sen(2y), ∂y ∂x =⇒ ∂M (x, y) ∂N (x, y) − ∂y ∂x /N (x, y) = −

17

ρ 2 = , x ρ

luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1− x2 as´ ı y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M (x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y =⇒ 3 ρ ∂N (x, y) ∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x

+

sen(2y) x

y = 0, sen2 y + h(y), x

∂φ(x, y) sen2 y =1− , ∂x x2

=⇒

φ(x, y) = x +

=⇒

h (y) = 0,

=⇒

h(y) = C,

= C.

luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y =⇒ h (x) = 0, =⇒ h(x) = C, =⇒ φ(x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal´ ıticamente, es por ello que se necesita de m´todos fiables para obtener la soluci´n de una EDO num´ricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador s´lo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] ∪ [x1 , x2 ] ∪ · · · ∪ [xN −1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l´ ıneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´ “muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x

x0

x1

x2

xk

Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor´ de m´todos num´ricos como una red ıa e e equiespaciada o uniforme de paso h = l/N . As´ pues tendremos las siguientes ecuaciones ı l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o ¿C´mo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as´ sucesivamente. ı 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x

(x,y)=(xk ,y(xk )

∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!

La aproximaci´n m´s sencilla es por tanto cuando nos quedamos en la serie anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver n´mericamente una EDO de primer orden. N´tese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as´ sucesivamente. ı Veamos algunos ejemplos. Comenzaremos con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x ∈ [0, 1],

cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´fica 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Soluci´n num´rica (•) y exacta (l´ o e ınea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

86475 0. 40 y(0) = 0. 19. y(0) = 1 con N = 20. 7.7039 0.1 0. 14.5 10 -20 -40 0. Adem´s. a a o o podemos ver en la gr´fica 5 derecha que pr´cticamente coinciden. 2] (izquierda) y e comparaci´n con la soluci´n exacta (derecha).725256 0. 60 40 30 20 20 0. a a La principal raz´n de la divergencia consiste en que la soluci´n tan x no est´ definida en o o a x = π/2. 5.2 0.710499 0. Para ello primero o u resolvemos la ecuaci´n exactamente y(x) = x − 1 + 2e−x . .05 0.0187107 -0. por tanto. xk 0 0. 13.694733 0. 15. 3.676684 0. a Consideremos ahora el problema y − 1 − y 2 = 0.85 0.0162994 -0. 16.95 0. 6. ¿Qu´ ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?.9 0.0169031 -0.67535 0.693171 0. o Si hacemos un simple cambio como aumentar en n´mero de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora notablemente.698658 0. 12.74064 0.5 0.0187748 -0.697623 0. 10.781636 0.694429 0. 2.15 0.807602 0.0155874 -0. Una pregunta natural es. 11.7 0.746675 0. 18.0137992 -0. como la soluci´n exacta de esa ecuaci´n es y(x) = tan x.2 OTRAS EDOS DE PRIMER ORDEN k 0 1. 9.4 0.95 1.0174074 -0.35 0. x ≥ 0.686241 0.25 0.65 0.018787 20 Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x.8 0. o o Si usamos un esquema de 20 puntos en el intervalo [0.70483 0.0181506 -0.905 0. 0.5 1 1. Los resultados se pueden apreciar en la o gr´fica 4 (derecha).676582 0.829012 0.797562 0. Si repetimos los c´lculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que est´n representados en la gr´fica 5 (derecha). x ∈ [0.680253 0. 8.00467484 -0.00245885 -0.0185892 -0.45 0.0127016 -0.6 0.0114527 -0. 20.723482 0.5 2 1 1.00844901 -0.837462 0.716972 y(xk ) 1.75 0. y(0) = 0.00666595 -0.0178206 -0. y(xk ) 1.770184 0.0100397 -0.713061 0.952459 0.68072 0.694092 0.704707 0. ¿c´mo decidir a priori si el m´todo de Euler o e nos est´ dando la souci´n correcta? y ¿en qu´ intervalo podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce una vez m´s a preguntarnos condiciones suficientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO.726841 0. 0.55 0. 17.6876 0.871416 0.0184046 -0.697474 0.3 0.759376 0.713139 0. o u o Comparemos ahora la soluci´n n´merica con la exacta (ver figura 4). 4. 1] tenemos la soluci´n representada o en la gr´fica 5(izquierda).0147575 -0.5 2 Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0.909675 0.735759 y(xk ) − y(xk ) 0 -0.

es a e algo inc´modo sobre todo si f es una funci´n algo “complicada”. . yk ). 1. ∂x ∂y 2 y0 = y(x0 ).y(x)) y k xk Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximaci´n es muy burda. y0 = y(x0 ). yk ) + f (xk+1. 2 k = 0. yk ) + f (xk+1 . yk ) (xk . yk ) + h2 ∂f ∂f (xk . yk ) + f (xk+1 .7.20) ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢   ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢ ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡ ¢  y k x k+1 h [f (xk. yk+1 )] . y) en el intervalo xk . (2. .19) Para resolver este problema aproximamos la integral mediante un rect´ngulo de altura a f (xk . yk ) (ver figura 6 izquierda) xk +h xk f (x. yk ). yk ))] . de forma que tengamos yk+1 = yk + hf (xk . o sea.2 OTRAS EDOS DE PRIMER ORDEN 2. es decir xk +h xk f (x. Una mejor aproximaci´n es usar la regla de los trapecios o o (ver figura 6 derecha) para aproximar la integral. k = 0. yk+1 )] . es un m´todo de orden e a e uno. N. . es “poco preciso”.17) en el tercer orden. Una forma de obviar esta dificultad es usar la predicci´n que da el m´todo de o e Euler yk+1 = yk + hf (xk . yk ) . ¿C´mo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2.18) f(x. 2 . y0 = y(x0 ). . yk + hf (xk . lo que nos conduce nuevamente al esquema de euler (2. 1. (2. Por ello se suele usar una o o modificaci´n del mismo.2. . 2 Obviamente este esquema es muy inc´modo pues hay que resolver la ecuaci´n impl´ o o ıcita para hallar yk+1 . y(x))dx ≈ de donde se deduce el esquema impl´ ıcito h [f (xk . y(x))dx. . xk + h en su forma integral xk +h y(xk+1 ) = y(xk ) + xk f (x. . de esta forma obtenemos el m´todo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk . La ecuaci´n anterior se conoce como el m´todo de la serie de Taylor de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar que es un m´todo de orden 2). El m´todo de Euler mejorado e 21 El m´todo de Euler es el m´s sencillo pero tiene un problema. y(x))dx ≈ hf (xk. N. o Para ello escribamos la EDO original y = f (x. yk ) + f (xk . .

Escogeremos una discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales). 9.1 0. 1].719873 y(xk ) 1.0112803 -0.680567 0.75202 0.55 0. x ∈ [0. 0. Comenzaremos con la misma primera ecuaci´n de antes o y + y = x.725256 0.8021 0.00735595 -0.8 0.684853 0.4 0. 14.75 0.015 0. 4.698244 0. 6. 0.732422 0.9 0.00550115 -0.694733 0.7039 0.0138047 -0.2 0.69333 0.7 5 10 15 20 Figura 7: Comparaci´n gr´fica de la soluci´n num´rica y exacta de y + y = x. 22 cuya soluci´n exacta es y(x) = 2e−x − 1 + x.690467 0.0125 0. 12.698658 0. 3. A la derecha vemos la e comparaci´n de los errores del del m´todo de Euler (c´ o e ırculos obscuros) con los del m´todo e de Euler mejorado (c´ ırculos claros) .74064 0. Los resultados los vemos en la gr´fica 7 izquierda) a k 0 1.735759 y(xk ) − y(xk ) 0 -0.775186 0.694092 0.781636 0. 16. 17.0105693 -0. 0. 10.682134 0.693171 0.45 0.15 0.686343 0.00821835 -0.01 0.716216 0.95125 0. 8.697623 0.005 0. y(0) = 1.00450443 -0.8 1 0.7 0.85 0.703238 0.5 0.837462 0.3 0.00645092 -0. 13. 7. y(0) = 1 con N = 20 usando el m´todo o u o e de Euler mejorado.0075 0.0126034 -0.832957 0. 19.0025 0.00345845 -0. 18. 11.35 0. 15.65 0.713061 0.952459 0.25 0.713139 0.6 0.907314 0.75 0. 20.759376 0.2 0. 2.0148955 -0. 5. y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler mejorado.723482 0.95 1. xk 0 0.807602 0.0154026 -0.867958 0.00904012 -0.681515 0.8 0.0158858 Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x.70483 0.2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos.0119578 -0.0132186 -0.909675 0.708079 0.6 0.871416 0.0143632 -0.00120885 -0. y(xk ) 1.0175 0.9 0.95 0.85 0.00236077 -0.4 0.05 0.00982318 -0.

x3 sen yy +2y = x (resolverla respecto a x y no a y. 4y 3 y + 4xy 4 = 4x. y = x3 + 2y/x − y 2 /x. 5. 5.24 Supongamos que tenemos la EDO y = f (y/x). xy + y = y 2 log x. (x + y + 2)y = 3x − y − 6. yp = −x2. Prueba que esta ecuaci´n o es equivalente a la EDO separable xv + v = f (v). 2. xy − y = xk y n . 2. 5. y + 2yex − y 2 = e2x + ex .8. Resuelve las siguientes o e EDOs 1. 6. 3y + y 2 + 2/x2 = 0. 4. (4x − 3y − 6)y + x − 2y + 1 = 0. Problema 2. 4. para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). Problemas de EDOs reducibles a EDOs lineales o separables Problema 2. y + 2y = ex y 2 .23 Resolver las EDOs de Riccati 1. n = 1. .2 OTRAS EDOS DE PRIMER ORDEN 23 2. y − 2xy + y 2 = 5 − x2. (2x + 4y + 3)y + 2 + 2y + 3 = 0. yp = x. v = y/x. A la ecuaci´n y = f (y/x) se le suele denominar EDO homog´nea. y = 2(y/x) + (y/x)2 √ 2. 3. (1 − x3)y − 2(1 + x)y = y 5/2 . Como caso particular resolver la EDO y = (x + y)/(x − y). 6. Problemas Problemas de EDOs de Bernoulli y Riccati Problema 2. n + k = n. (x − x y)y = y 3. 7. Considerar los casos ae = cb y ab = cd. y = 1 + y/x + (y/x)2.22 Resolver las EDOs de Bernoulli 1. y + y = xy 3 . 3. 4. y = (ax + by)/(cx + ey). y = y/x + tan(y/x). 7.

x(ey − y ) = 2. 4. xy − y − y 2 = 0. y(2) = 1. y(1) = 1.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resu´lvelas. (x2 + y 2 + x) + yy = 0. Problema 2. e−y − (2y + xe−y )y = 0. e 1. y = x + y − 1. 1. e En caso de que no lo sean.28 Resuelve los siguientes problemas de valores iniciales 1.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resu´lvelas. Problema 2. y(0) = 1. 3. 3x2(1 + log y) − (2y − x3/y)y = 0. 2x(1 + x2 − y) − x2 − yy = 0. y(t)dt. (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0. 3. 2. Como caso particular resolver la EDO y = (x + y + 1)/(x − y + 2). 2xy 3 + 3x2y 2 y = 0. . 3x2 + 4xy + 2(y + x2)y = 0.25 Resolver las EDOs del tipo y = F (ax + by) √ 1. 3. Problema 2. y(2) = 1. y = sen(x − y). Resolver la EDO y = (ax + by + m)/(cx + ey + n). 4. y = 2(y − x) + (y − x)2. encuentra. 7. 4.2 OTRAS EDOS DE PRIMER ORDEN 24 8. 0 4. 5. y/x + (y 3 + log x)y = 0. (x2 − 2y + 1)y = x. 0 (x − t)y(t)dt = 2x + Problemas de EDOs exactas y factores integrantes Problema 2. un factor integrante. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0. 3. 6. Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey). 2. 3xt + y 2 + (x2 + xy)y = 0. 8. 2. 2xy + (x2 − y 2 )y = 0. 2. a ser posible. y(x) = x + 1 + 0 x x x y(t)dt. y = (x − y + 5)2.

30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el m´todo de Euler y el de Euler mejorado. y = xy − ey . y(0) = 0. 2. y = ex y −2 . a. y + 2ey = x2 + y 2 . y(0) = 1. b. 2 2 . 4. y(0) = 1. 5. y = xy + 1 + (y )2 . 7. y(0) = 0. y(0) = 1. z − 2xz = 2. k > 0. 25 5. y = ex y. 4. y + sen(x)y − cos(x)y 3 = 1 + x2. 1. y(2) = 1. y = xy + (y )n. e 1.2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2. y = k(a − y)(b − y). √ 3. z(0) = 1. 6. (y )2 + x3y − 2x2y = 0. Problemas del m´todo de Euler e Problema 2. n = 0. (toma distintos valores de a. y = xy + log(y ).29 Resolver las EDOs de Clairaut 1. 2. y = 1 + sen x(1 + y 2 ). b y k. 3.

bn (x)    . . . . y1 . .1) en la forma vectorial d Y (x) = Y (x) = F (x. y2 . o sea.. . .3 SISTEMAS DE EDOS 26 3. .   .  .  . k = 1. y1 . fn son ciertas funciones conocidas.4) Cuando B(x) = 0. yn ) es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. . y1 . . n 1 2 n n donde y1 . yn )     2    Y (x) =  . lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + · · · + a1n(x)yn(x) + b1 (x). y2 . yn (x) yn (x) fn (x.  . . k = 1. . . Y y F son los vectores       y1 (x) y1 (x) f1(x. . . . y2 . 2 (3.  . . Est´ claro que si el estudio de una EDO de primer orden era “bastante” a complicado. y2 . yn )  y2 (x)   y (x)   f2(x. . Y ) =  . . vamos a denotar por Y . un sistema de ´stas es mucho m´s complejo. . dx (3. .2) Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap´ ıtulo anterior. yn ).    y (x) = a (x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). .3) (3.    y (x) = f (x. . yn son funciones de x desconocidas y f1. F (x. es decir cuando fk . . donde   A(x) =     a11(x) a12(x) a13(x) · · · a1n (x) a21(x) a22(x) a23(x) · · · a2n (x)   . . . Y (x) =  .  . . . y ). . .    y (x) = f2(x. . . y si al menos una componente de B es no nula. . . . . . 2 . . . . . .  . . . e e . . no homog´neo. y . yn ). y2 .  . diremos que SEDO es homog´neo. . . . . as´ que nos restringiremos al estudio e a ı de los SEDOs lineales. an1(x) an2 (x) an3(x) · · · ann (x)   B(x) =    b1 (x) b2 (x) . y1. . y1. y1 . . . n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x). y2 .  . . yn ) = j=1 akj (x)yj (x) + bk (x). . Por comodidad vamos a usar la forma vectorial del sistema anterior.    y (x) = a21 (x)y1(x) + a22 (x)y2(x) + · · · + a2n(x)yn(x) + b2 (x). Sistemas de EDOs Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma   y1 (x) = f1(x. y . o sea cuando todas las componentes del vector B son cero. . . .. . . n. . .1) . Usando lo anterior podemos reescribir (3..  (3. Y ). n es una funci´n lineal de la forma o n fk (x.  .

3 Sean Y1 (x). . Y0. .1 .9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R.8 Juntando los teoremas 3. . .i . . entonces cualquiera de sus combinaciones lineales son tambi´n soluci´n. . Nota 3. e o Teorema 3. . . Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x ∈ R es necesario y suficiente que para alg´n x0 ∈ R u det |Y1 (x0) Y2 (x0) . . o sea los vectores. Para que los vectores (funciones) Y1 (x). Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y . Yk (x) del PVI. o sea cuando B(x) = 0 o Y (x) = A(x)Y (x). son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes. .1. . . u Corolario 3. . Teorema 3. Y (x0) = Y0 se expresa de manera unica o ´ como una combinaci´n lineal de las soluciones del sistema homog´neo correspondiente.6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x). . . . . .6 Sea A(x) ∈ Rn×n . . Yk (x) soluciones del sistema Y = A(x)Y . (3. . . Y0. A(x) ∈ Rn×n y continua en R. Los vectores (funciones) x x y x2 x2 . La ecuaci´n lineal Y = A(x)Y + B(x) o Comenzaremos enunciando un teorema que demostraremos al final de este cap´ ıtulo. . ´ o Comenzaremos estudiando el sistema hom´geneo. obviamente son dependientes pues x0 x2 0 . . existen unos unicos coeficientes c1 . . o e Nota 3. cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x). k sean linealmente independientes es suficiente que las condiciones iniciales. . Y = A(x)Y .4 Para que las soluciones Y1 (x). Y = A(x)Y . . . . Y (x0) = Y0 tiene una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas. entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica o ´ combinaci´n lineal de dichas soluciones. i = 1. Y = A(x)Y + B(x). para x = x0.2 Sea A(x) ∈ Rn×n . Yn (x0)| = 0. .7 Si Y1 (x). Entonces. e o Corolario 3.3 y 3. .1 Sean A(x) ∈ Rn×n y B(x) ∈ Rn una matriz un un vector cuyos elementos son funciones continuas en R. .k sean linealmente independientes. Yk (x) sean linealmente dependientes para todo x ∈ R es necesario y suficiente que lo sean para alg´n t ∈ R. . no obstante.3 SISTEMAS DE EDOS 27 3. Nota 3. Yi (x0) = Y0. Entonces el PVI. = x0 2 x0 x0 Teorema 3. la soluci´n del PVI. Teorema 3. . O sea.5) El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes.5 Es importante destacar que el resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o manifiesto en el siguiente ejemplo. el conjunto de todas las soluciones del sistema homog´neo Y = A(x)Y es un espacio vectorial de dimensi´n n. Si Y1 e Y2 son soluciones del sistema Y = A(x)Y . En particular.

(3. es decir estudiaremos el problema (3. . . . k = 1.6) Busquemos la soluci´n de (3. .3 SISTEMAS DE EDOS 28 3.6) en la forma o Y (x) = eλx v. .7) en (3.8) donde c1 .10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y. .2. . =⇒ v2 = 2 1 . e e . k = 1. Es decir. .1. . son los autovalores asociados a los autovectores vk .3. Calculamos los autovectores. . Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a t´rmino. . cn son constantes arbitrarias y λk . Los SEDO lineales con coeficientes constantes En adelante asumiremos que A es una matriz n × n real de coeficientes constantes.6) tenemos. . de la forma n Y (x) = k=1 c k e λk v k . Autovalores simples A ∈ Rn×n .7) es soluci´n del sistema homog´neo si y s´lo si λ es un autovalor de A y o e o v su autovector asociado. n. Por tanto la soluci´n general es o Y (x) = c1 e−5x 3 −2 1 + c2 e7x 2 1 . 3. n. Sustituyendo (3.7) donde λ es cierta constante y v un vector constante. λ2 = 7. (3. . Comenzamos calculando los autovalores y autovectores det(A − λI) = −35 − 2 λ + λ2 = 0 =⇒ λ1 = −5. Comenzamos con el correspondiente a λ1 = −5 (A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 =⇒ −6 12 3 −6 x1 x2 =0 =⇒ x1 = 2x2.2. =⇒ v1 = −2 1 . Ejemplo 3. como v es constante3 Y (x) = (eλx v) = λeλxv =⇒ λeλxv = A eλx v.5) cuando la matriz A es de coeficientes constantes Y (x) = AY (x). vn linealmente independientes en cuyo caso la soluci´n general es. seg´n o u el teorema 3. (3. . . (3. =⇒ 6 12 3 6 x1 x2 =0 =⇒ x1 = −2x2 . . por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 .

sen x . Proposici´n 3. Para todos x. Definiremos la funci´n exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···. λ2 = −1 + i. Para toda matriz A. k! 2 n! (3. exp(0A) = In y para todo x ∈ R exp(xOn) = In . exp[(x + t)A] = exp(xA) exp(tA). Ahora bien. 5. donde On es la matriz nula. 5 3 cos x + 0 1 v1 = 5 3+i =⇒ 5 3 sen x + 0 1 cos x . Y (x) y Y2 (x) = Y (x) son soluci´n de o Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY . 2.9) donde la convergencia la entenderemos elemento a elemento. la inversa [exp(xA)]−1 = exp(−xA).12 La funci´n exp(xA) satisface las siguientes propiedades: o o 1. . si tenemos Y (x) = eλx v = Y (x) + i Y (x). Y (x) = eax ( v sen bx + v cos bx) son soluciones linealmente independientes de Y = AY .11 Encontrar la soluci´n general del SEDO o Y = Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ + λ2 = 0 =⇒ λ1 = −1 − i. son complejos. Y1 (x) = e−x por tanto Y (x) = c1 e−x 5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x . 29 Es decir. 2 −5 2 −4 Y. 4. entonces Y (x) = eax ( v cos bx − v sen bx). B con AB = BA. Y2 (x) = e−x − 3. entonces el complejo conjugado λ es el autovalor asociado al autovector v. La exponencial matricial exp(xA) ∞ k=0 Sea A una matriz n × n y x ∈ R. en nuestro ejemplo ı λ1 = −1 − i.3. ¿Qu´ hace en este caso? e Si A es real y λ es el autovalor complejo asociado al autovector v. La serie anterior converge para todo x ∈ R quienquiera sea la matriz A (de hecho converge en todo C). As´ pues. 3. Para todas las matrices A. Para toda matriz A. t ∈ R y toda matriz A. Para toda matriz A.3 SISTEMAS DE EDOS Ejemplo 3. d dx exp(xA) = A exp(xA) = exp(xA)A. exp[x(A + B)] = exp(xA) exp(xB).

0 . . . . =⇒ de donde se deducen nuevamente las soluciones del sistema. Y (0) = ei que adem´s son linealmente independientes por el teorema 3. . exp(xIn) = ex In. . . Y = AY . . Entonces como para todo k ∈ N. y por tanto el PVI. Y = AY con Yi (0) = ei .    . siendo D una matriz diagonal. .  ∞ k=0 A kx k k! = ∞ k=0 PD P k −1 x k k! =P ∞ k=0 Dk xk k! P −1 = P [exp(xD)]P −1. . Para todo x ∈ R.13 Una matriz V ∈ Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY . . N´tese que el caso de n autovao lores distintos se puede resolver por este m´todo. como   D=   λ1 0 · · · 0 0 λ2 . . . para encontrar la soluci´n general del sistema Y = AY basta saber calcular la ı o exponencial de xA.        exp(xD) =    e λ1 x 0 · · · 0 0 e λ2 x .. λ2 = 4. . . En efecto. n obtenemos n soluciones v1. e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 −6 −1 2 . . .. 0 . Comencemos por el caso m´s sencillo cuando la matriz es diagonalizable. As´ pues. o o Corolario 3. . siendo (ei)i la base can´nica de Rn . . . . 2. . . . a En este caso existe una matriz P tal que A = P DP −1. dx 30 por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. . i = 1. e Definici´n 3. λn 0 0 . . Si escogemos o o e v sucesivamente como ei . Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n cualquiera sea Y0 ∈ R y es de la forma Y (x) = exp[(x − x0)A]Y0 . . . . Y = AY .3 SISTEMAS DE EDOS 6. . . las columnas de exp(xA) son soluci´n de los PVI. exλn 0 0 . . Ak = P D k P −1 tenemos exp(xA) = pero.3 y por tanto a constituyen una base del espacio de soluciones del sistema homog´neo correspondiente. con A ∈ R e siempre tiene n soluciones linealmente independientes. como hemos visto. Ante todo tenemos que el polinomio caracter´ ıstico de A es 1 − λ −6 = 4 − 3 λ + λ2 = 0. De esta definici´n y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . . . . −1 2 − λ =⇒ λ1 = −1. . . vn del PVI.14 (de existencia y unicidad de la soluci´n del SEDO homog´neo) o e n×n El sistema homog´neo Y = AY . . Dado cualquier vector constante v ∈ Rn se cumple d [exp(xA)v] = A[exp(xA)v].

+ (A − λIn )k v + .3 SISTEMAS DE EDOS Calculamos los autovectores. o 2. . . xk x2 (A − λIn)2 v2 + . . . . El otro vector v2 que necesitaremos lo buscaremos de forma que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. Entonces otra soluci´n. . 2. por ejemplo. . . ¿Qu´ hacer cuando hay una ra´ m´ltiple. 2 k! Es decir. luego exp(xA)v = eλx v que es lo mismo que ten´ ıamos antes. . . . + (A − λIn )k v + . i = 1. o o donde v1 es el autovector asociado a λ. luego a exp(xD) = Luego exp(xA) = P exp(xD)P −1 e−x 0 0 e4 x . P −1 = 6 5 ex 2 5 ex −1 5 . x2 xk (A − λIn)2 v + . P = 3 −2 1 1 . vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = eλk x vk . =⇒ v1 = 3 1 . 31 An´logamente. El caso de autovalores m´ ltiples u pero Vamos a explotar las propiedades de la matriz exponencial. para λ2 = 4 obtenemos v2 = (−2.4. i = 1. . . . Una soluci´n es por tanto e λx v1. . k = 1. . . k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eλix vi . Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v. que el autovalor λ es doble y que tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n 1). 2 k! =0 =0 En el caso que la multiplicidad de λ sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homog´neo e 1. o m´s exactamente si la matriz A no es diae ız u a gonalizable? Supongamos. Sea λ uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e . Para λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 . . n.) Si k < n entonces hay autovalores m´ltiples. Si tenemos entonces n autovectores v1 . 1 5 2 5 3 5 . exp(λIx)v = eλx v =⇒ exp(xA)v = eλx exp[(A − λIn)x]v. = 4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex − + 6 e4 x 5 3 e4 x 5 3. =⇒ x1 = 3x2. k. . . . 1)T . Si k = n entonces las Yi (x) generan a todo el espacio soluci´n. .) Calculamos todos los autovalores λi y los correspondientes autovectores vi . . independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A − λIn )v2 + = eλx v + eλx x(A − λIn)v2 . exp(xA)v = eλx v + x(A − λIn)v + En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0 si v es el correspondiente autovector. .

Y3 (x) = e exp(A − I3 ) 0 0 0 As´ pues ı      x 1 0 2x   + c2 ex  0  + c3 ex  1  . y (A − λIn)3 v = 0. 0. 0)T . luego tomando4 β = 1. Aj ∈ Rn . Supongamos que ma > mg . . 0 Y (x) = c1 e 0 0 1  El m´todo anterior nos indica un procedimiento general para resolver el SEDO (3.10) Cualquier elecci´n de α y β es posible siempre que β = 0. . Y ı as´ con cada uno de los autovalores m´ltiples. 0 0 . . Aplicando el m´todo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal que (A − I3 )2v = 0. 1)T y v2 = (1. aa generan todo el subespacio correspondiente a λ. Luego tenemos dos soluciones independientes     0 1 2x  x . respectivaa mente. x3 0 0 1 o sea    0 1 v3 = α  0  + β  1  . 0. (3. e ´ Adem´s. deducimos que β = 0. . ı u Veamos un ejemplo:  1 1 0 Y =  0 1 0  Y. Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera soluci´n. la o soluci´n “generada” por el autovalor) en la forma o Yk (x) = e 4 λk x mk −1 j=0 Aj xj . α = 0 obtenemos la tercera soluci´n que buscabamos o       x 0 0 x  1  = ex [I3 + x(A − I3 )]  1  = ex  1  . 0)T = 0.3 SISTEMAS DE EDOS 32 dimensi´n de autoespacio asociado a λ). Si ma = mg entonces los vectores Yi (x) = eλi x vi o i = 1. buscamos la soluci´n del correspondiente subespacio (o sea. Para cada autovalor. 0. . Calculamos los autovalores λk de la matriz A ∈ Rn×n del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor. 0 0 2  Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. o . entonces para completar el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg o soluciones linealmente independientes) buscamos los vectores v1 . . es decir    x1 0 0 0 (A − I)2 v = 0. 0 0  pero como (A − I)v3 = (β. . . vl (l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn )2v = 0. x2 . luego los los vectores v tales que (A−λIn )v = 0 y (A − λIn)2 v = 0. y as´ sucesivamente hasta completar el subespacio.6) en e general conocido como m´todo de Euler que consiste en lo siguiente: e 1. los autovectores correspondientes son v1 = (0. x3 ∈ R. =⇒ x1 = 0. ⇐⇒  0 0 0   x2  = 0. 2.

3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj . usando que la matriz exp(xA) es la soluci´n del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos. exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0). entonces si definimos el vector c = (c 1. 0 0 0 0 que coincide con la soluci´n encontrada por el m´todo anterior. 1)T y para el segundo buscamos las soluciones en la forma      a1 a4 Y2 (x) = ex  a2  +  a5  x .10.15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3. Sea ahora el PVI. entonces tenemos Y (x0) = Y0 = V (x0)c. Ejemplo 3. o e 3. 0 2 33 Sustituyendo en el sistema tenemos         a1 + a2 + (a4 + a5)x a4 a4 a1 . por tanto la soluci´n es o Y (x) = V (x)V −1 (x0)Y0 . . a3 a6 =⇒ a3 = a5 = a6 = 0. .1. luego c = V −1 (x0)Y0 .4. 0. a2 + a 5 x Y2 (x) = ex  a2  +  a5  x +  a5  =  2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5  a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2.12) . . es decir.            x 1 a2 a1 Y2 (x) =  a2  +  0  x ex = ex a1  0  + a2  1  x . Veamos como funciona este m´todo en el e  1 0 Y = 0 ejemplo anterior. o Y = AY con Y (x0) = Y0 . . (3. mk − 1 sean nulos. 1. . j = 0.11) Lo anterior nos permite encontrar una expresi´n para la matriz exponencial conocida o una matriz fundamental. Para el primero tenemos e ´ al igual que antes Y1 (x) = e2x (0. . . En efecto. la soluci´n general de Y = AY se puede escribir de la forma Y (x) = V (x)c. (3.  1 0 1 0  Y. a4 = a2 . con a1 y a2 cualesquiera. La matriz fundamental de soluciones y la matriz exp(xA) Sea V (x) una matriz fundamental. cn )T . .

donde Yh es la soluci´n general del SEDO homog´neo Y = AY y Yp es cualquier o e soluci´n particular de (3.15. donde C ∈ Rn . En particular. Teorema 3.3 SISTEMAS DE EDOS 34 Los autovalores y autovectores son λ1 = −5. si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x). Proposici´n 3. 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V −1 (0) = = 1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4 −2e−5x 2e7x e−5x e7x . Y (x0) = o Y0 .5. (3. −2 2 1 1 −1 = −2e−5x 2e7x e−5x e7x 1 −4 1 4 1 2 1 2 3. exp[(x − x0)A]Y0 = 1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4 = −e−5x + e7x 1 −5x e 2 1 + 2 e7x luego la soluci´n del PVI es o Y (x) = 1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12 + 7 7x e . En este caso la matriz exponencial es la matriz del ejemplo 3.13).14) Ejemplo 3. es decir Yp (x) = AYp (x) + F (x). v1 = (−2. luego aplicamos (3. −e6t−5x + e−6t+7x 1 − 3 ex + 1 e−5x (1 + e12x ) 6 1 6t−5x e 2 + 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2 − 1) . El SEDO lineales no homog´neo e Y (x) = AY (x) + F (x). (3. Comenzamos por x 0 x exp[(x − t)A]F (t)dt = = 0 x 0 1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t) 4 −e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t) 2 dt = 0 1 1 −5x 12x e (e 12 0 et dt = . Y (0) = 0 1 .13) Pasemos a estudiar el sistema no homog´neo e Para resolverlo usaremos la linealidad.13) es de la forma Y (x) = Yh(x) + o o Yp (x). . 1)T y λ2 = 7 y v2 = (2.14). 12 .18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex .16 La soluci´n general del SEDO (3. cualquiera sea Y0 ∈ Rn existe y es unica y se expresa mediante la f´rmula ´ o x Y (x) = exp[(x − x0 )A]Y0 + x0 exp[(x − t)A]F (t)dt.17 La soluci´n del problema de valores iniciales Y (x) = AY (x)+F (x). −2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e + 1 e7x 2 2 .

exI = ex I. . e0A = In . 3. 1.22 Usando las propiedades de la matriz exA con A ∈ Rn×n encuentra la soluci´n de los SEDO del ejercicio (3. Problema 3. ∀x. 3. 2. exA es invertible y su inversa (exA )−1 = e−xA . o o en su caso. B 2n+1 = (−1)n B. y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 − 5y2 . 6. Si A y B conmutan. Y (0) = b) A = Problema 3. Y (0) =  2 . Usando lo anterior calcula las matrices exA y exB . Para todo x ∈ R. c) y2 = y1 + 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A =  0 1 0 . a) A =  4 −1 −4 4 4 1 −8 8 . 5.21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 . 0 1 2 −1 0 0 2 = AexA . d xA e dx     1 −1 4 1 0 0 1  3 2 −1 . b) A =  0 2 −1 . y B 2n = (−1)nI2 . con Problema 3.19). t ∈ R. entonces ex(A+B) = exA exB = exB exA . Y (0) =  1 . Problema 3. Y = AY .6. 3. b) A =  0 1 0 . 4.24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY .  0 1 −1 . o sea AB = BA. b) A = −2 3 2 −5 2 −4 . a) A = b) A = 2 1 −1 0 1 1 1       1 2 1 1 1 1 0 4. del problema de valores iniciales en los siguientes casos: 1. e(x+t)A = exA etA . Problemas Problema 3.3 SISTEMAS DE EDOS 35 3. Prueba que A2n+1 = A.23 Resuelve los sistemas hom´geneos o 1. A2n = I2 . 1 12 3 1  .20 Prueba las siguientes propiedades de la matriz exA con A ∈ Rn×n : 1. a) A =  0 1 2 .19 Encuentra la soluci´n general del sistema hom´geneo Y (x) = AY (x) y. Y (0) = 2 1 . Como aplicaci´n calcula exC con C = o a b −b a . 2. a) A = 2. In es la matriz identidad n × n. o Problema 3. cuya matriz de coeficientes es . 0 0 2 0 0 2 b) 2. a) y1 = y1 + 2y2 .

Y (0) =  1  2 1 −1 ex 1       1 0 0 0 0  2 1 −2 . b) A = Problema 3.25 Encuentra la soluci´n general del sistema de EDOs no homog´neo Y (x) = o e AY +B(x) y. a) A =  3 2 −1 . i2. c) A =  2 1 −2 . con x(0) = x0. v(0) = 0. i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial        −10 0 −20 i1 V i1  i2  =  0 −10 20   i2  + 20  0  . la correspondiente soluci´n del problema de valores iniciales cuando o 1. 2 1 −1 Problema 3. c) A = . B(x) = . 0 0 5 3 2 1 36 1. Y (0) =  1  4.26 Resuelve los sistemas lineales 1. A =  3 2 −1 . o 2. x =v . B(x) =  0 . a) A = . B(x) = x ex . B(x) =  . β < ω. Uc(0) = 10. i1(0) = i2(0) = 0. sabiendo que su soluci´n es acotada si x → +∞.3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 . A = 0 3 2 1 ex cos(2x) 1 1 sen x  . 3 1 2 −4     1 1 1 1 0 0 b) A =  0 3 2 . e 3. A = 2. Y (0) = 2 1 0 0   1 −1 4 2. Este sistema modeliza el v = −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con rozamiento y una fuerza externa f . en su caso. Uc en los siguientes casos: (a) V (t) = 0. . A =  1 12 3 1 2 −5 2 −4 . Uc 50 −50 −50 Uc 0 Se pide determinar i1. Y (0) = . y1 = 2y1 + y2 − 7xe−x − 3 y2 = −y1 + 2y2 − 1    1 −1 4 0 2 3. Se considera el siguiente circuito el´ctrico e L 1 R L 1 2 R 2 i1 + − Uc C R i2 V Las intensidades i1.

. . i1(0) = i2(0) = 0 = Uc(0) = 0. .28 Demuestra el siguiente principio de superposici´n: La soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x). la soluci´n del SEDO Y = A(x)Y . . Y (0) = Y0 se puede expresar mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0. Problema 3. A ∈ Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x). m. . . Y. entonces. Como aplicaci´n calcula la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3. m. . k = 1. fk ∈ Rn .27 Demuestra que si la matriz A(x) es tal que x x 37 A(x) · A(t)dt = 0 0 A(t)dt · A(x). k=0 . 2. k = 1.3 SISTEMAS DE EDOS (b) V (t) = 10. . 2.

 +  . e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x). el sistema anterior o se transforma en un sistema homog´neo. .1 La EDO o y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0. ⇒ dx . (4. . (4. . es decir.   . en caso contrario es no hoo mog´nea. zn(x) = y (n−1) (x)  dx Es decir.1) Cuando f (x) ≡ 0. αy1 + βy2 tambi´n es soluci´n. una EDO del tipo (4. .  . . . (4. .  . N´tese que cuando f (x) ≡ 0. . . La ecuaci´n lineal de orden n o Vamos a continuaci´n a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · · · + a1(x)y (x) + a0(x)y(x) = f (x).   0 0 0 ··· 0 1   zn−1   0   zn−1     0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2 −an−1 o en forma matricial Z (x) = AZ(x) + F (x).  . .. para cualesquiera o que sean α.4) . e a Proposici´n 4.1) es equivalente al siguiente sistema lineal de ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1 ··· 0 0   z2   0   z2   0       . diremos que la EDO (4. que si tenemos dos soluciones y1 e y2 de la ecuaci´n.   dx  . y β ∈ R.1) como L[y] = f (x) y el correspondiente problema o homog´neo ser´ L[y] = 0. .  (n−2)  zn−1 (x) = y (x)  dz1  = z2 .  . o Por comodidad introduciremos el operador L[y] definido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua definido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x). d  .  . y (n−1) (x0) = y0 (n−1) . . . = . zn (x) de forma que  dzn  z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − · · · − a0z1 + f.   dx z2(x) = y (x)    dzn−1  z3(x) = y (x) = zn .    . . y (x0) = y0 .2) Usando esta notaci´n podemos escribir (4. entonces diremos que y es la soluci´n del correspondiente problema de valores iniciales..3) es lineal.   . e Si adem´s imponemos que la soluci´n y sea tal que a o y(x0 ) = y0 .´ 4 LA ECUACION LINEAL DE ORDEN N 38 4.. . .1) es hom´genea. .1) se puede construir a partir de la teor´ de los sistemas ıa ıa lineales que estudiamos antes. . Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones lineales (4. .  .  . .  . (4.

. definido por o y1 (x) y1 (x) . si λ = α + iβ. o 4. Entonces el P. Si alg´n λk es m´ltiple de multiplicidad m ≤ n.5) (x) y2 (x) · · · yn (x) es distinto de cero para alg´n x ∈ R. . (n−1) = 0 ∀x. Es decir. .1.3) obtenemos que λ debe satisfacer la ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0..3). (4. .3 El conjunto de soluciones de la EDO homog´nea (4. entonces las dos soluciones independientes son [e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] = eαx sen(βx). . c2 . . . . Es f´cil probar a que el polinomio caracter´ ıstico de la matriz A asociada a la EDO (4. .3) es un espacio vectorial e de dimensi´n n. entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x pm−1 (x). y (x0) = y0 que escojamos. . siendo yp o una soluci´n particular de (4. . . .3) coincide con (4. . . . . (4.1). Lo anterior nos indica una estrategia para resolver el problema: 1. n generan el espacio soluci´n de la la EDO (4. . . yn (x) yn (x) . yn ](x). . . . .V. cm ∈ R. y (x0) = y (0).3). an−1 (x) funciones continuas en R.2 Sean a0 (x).´ 4 LA ECUACION LINEAL DE ORDEN N 39 Teorema 4. o En el caso que tengamos ra´ ıces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas. k = 1. . o Teorema 4. yn de la EDO (4.1) en la forma y(x) = yh(x) + yp (x). Obviamente si λk es complejo. . en cuyo caso el Wronskiano es distinto de cero para u todo x ∈ R. . Soluci´n de la ecuaci´n lineal homog´nea o o e Para resolver la EDO (4. (n−1) ··· ··· . Teorema 4. . c1 .I. yn ](x) = y2 (x) y2 (x) . o . 2. . . . Si tenemos valores reales λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x . notemos que conocida la soluci´n general yh(x) de la EDO homog´nea poo e demos dar la soluci´n general de la EDO (4.1) siempre tiene soluci´n y es unica cualquiera sean las las condiciones iniciales o ´ (n−1) (n−1) y(x0 ) = y0 .3) con coeficientes constantes seguiremos la misma idea que para los sistemas.7) donde pm−1 es un polinomio de grado m − 1 en x.3).6) La ecuaci´n anterior se denomina ecuaci´n caracter´ o o ıstica de la EDO (4. tenemos que tomar partes reales y complejas que nos generan todo el espacio soluci´n. . es decir la soluci´n asociada a dicha o ra´ tendr´ la forma ız a y(x) = c1 eλk x + c2 xeλk x + · · · + cm xm−1 eλk x . ´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 . (4. asociado a (4. . . Finalmente.4 Dadas n soluciones y1 . es decir buscaremos la soluci´n en la forma y(x) = e λx .6).. . y1 (n−1) W [y1 . Sustituyendo esta o funci´n en la EDO (4.

(4.10) se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) . 2 2 Caso de dos ra´ ıces reales y distintas.10) Luego. entonces la ecuaci´n caracter´ o ıstica (4.9) tiene dos soluciones reales y distintas: λ1 = −p + −p − p2 − 4q p2 − 4q . i = −1. 2 2 y la ecuaci´n homog´nea (4. λ1 = λ + iω.8) tendr´ dos soluciones linealmente independientes o e a λ1 = y1 (x) = eλ1x . y(x) = A eλx cos (ωx + δ) . A. B ∈ R. en este caso. Si ahora utilizamos la f´rmula de Euler eiφ = cos φ+i sen φ. . λ. δ ∈ R. Las soluciones de la ecuaci´n caracter´ o ıstica (4. la soluci´n general de (4. usando (4. la soluci´n general de (4. y2 (x) = eλ2x .6) de la ecuaci´n (4. o o e El caso general es completamente an´logo. A.8) tendr´ dos soluciones linealmente independientes o e a λ1 = −p + y1 (x) = eλ1x . Sea p2 = 4q. Caso de dos ra´ ıces reales iguales. o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx + c2 xeλx . λ2 = . Sea p2 < 4q. 2 2 y la ecuaci´n homog´nea (4.9) tiene dos soluciones complejas: √ −p − i 4q − p2 −p + i 4q − p2 . A. entonces la ecuaci´n caracter´ o ıstica (4. o. sin embargo dicho espacio es o o e de dimensi´n 2 como nos asegura el teorema 4. q ∈ R.9) ser´n a p2 − 4q −p − p2 − 4q . A. equivalentemente. y2 (x) = eλ2x .9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . λ2 + pλ + q = 0.9) La ecuaci´n caracter´ o ıstica (4.7) tenemos que la soluci´n generada por λ es. ıa Caso de ra´ ıces complejas. Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte imaginaria de λ1 (o λ2 ). Luego. como se pretend´ probar. φ ∈ R. En efecto.9) tiene una unica soluci´n real λ = −p/2.8) tiene la forma o . B ∈ R. Sea p2 > 4q. Esto significa que aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de la EDO homog´nea. B ∈ R.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . ω ∈ R. p. λ2 = λ − iω.8) tendr´ dos o o e a soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) = xeλx . . obtenemos que la soluci´n o o general de (4. (4. entonces la ecuaci´n caracter´ o ıstica (4. La ecuaci´n diferencial lineal homog´nea con a o e coeficientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0.3 y la ecuaci´n homog´nea (4.8) (4. Entonces.´ 4 LA ECUACION LINEAL DE ORDEN N 40 Por simplicidad mostraremos c´mo resolver la ecuaci´n homog´nea de segundo orden.

Para resolver el problema buscamos la soluci´n de la o forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 . Entonces el m´todo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx . Ahora bien. . Para resolverlo hacemos el cambio y(x) = ecx v(x). as´ que sin p´rdida de o o ı e generalidad la tomaremos igual a cero.14) se reduce al caso anterior (4. a = 0. p. an = 0. pero ¿qu´ ocurre si q = 0?. si sustituimos la soluci´n anterior en la EDO (4. v + (2c + p)v + (q + pc + c2 )v = pn (x). por lo que nuestra EDO (4.2.1. e e e si tenemos la EDO y + py = pn (x). la soluci´n particular siempre es de la forma o yp (x) = a0 + a1 x + · · · + an xn. Caso f (x) = pn (x) En general si tenemos la EDO y + py + qy = pn (x). 4. luego la soluci´n particular la podemos buscar en la o forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha soluci´n o en (4. o sea. La EDO lineal de segundo orden no homog´nea con coeficiene tes constantes y (x) + py (x) + qy(x) = f (x).12) obtenemos o qan xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x). de donde igualando coeficientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n. (4. como la EDO homog´nea es y + py = 0. En efecto.11) Vamos a estudiar la EDO En general no es trivial resolverla aunque en muchos casos es “f´cil” adivinar la soluci´n.2.´ 4 LA ECUACION LINEAL DE ORDEN N 41 4. que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}.13) e igualando coeficientes. q = 0. a o 4. (4. (4. f (x) continua. obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el derecho es de grado n. Este m´todo obviamente funciona si q = 0 (¿por qu´?).2. q ∈ R.2.12).14) luego siendo pn un polinomio de grado n. entonces cualquier constante es e soluci´n. (4.13) siendo pn un polinomio de grado n. Caso f (x) = pn (x)ecx Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x).12) siendo pn un polinomio de grado n. por tanto a0 en la expresi´n anterior puede ser cualquiera.

c2 = − =⇒ 2 2 Por tanto.16) (4. W [y1 . Caso f (x) = pn (x)ecx sen(ωx) y pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx). f1. Para ello multiplicamos la primera por y1.18) nos da o c1 = c1 (x) = ex . 6 =⇒ yp (x) = e2x . y2 ](x) = o W [ex . con c1 y c2 tales que c1 y1 + c2 y2 = 0. [y1 y2 − y1 y2 ] = W [y1 .2. o e . Para resolver este caso notemos que si y(x) = u(x) + iv(x).18) El m´todo anterior se denomina m´todo de Lagrange de reducci´n del orden de la EDO e e o de segundo orden o m´todo de los coeficientes indeterminados. Sea entonces yp (x) = u(x) + iv(x) una soluci´n particular de o L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x) sen(ωx). (4.17) De esa forma tenemos que resolver dos EDOs de primer orden. y + py + qy = pn (x)ecx cos(ωx). la f´rmula (4. Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x) cos(ωx) y o y + py + qy = pn(x) sen(ωx).15) siendo pn un polinomio de grado n.2. de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) . lo cual es consecuencia de la linealidad L. u. la soluci´n general es o y(x) = c1 ex + c2 e−x + 5 De aqu´ el nombre de m´todo de variaci´n de las constantes.3. y2 ](x) c2 (x) = f (x)y1(x) .11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes. 2 c3 (x) = − e2x . para obtener c1 [y1 y2 − y1 y2 ] = −f y2 . funciones reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x). La soluci´n general del problema homog´neo es yh (x) = c1 ex + c2 e−x .4). e−x ] = −2.4.´ 4 LA ECUACION LINEAL DE ORDEN N 4. Ahora bien. 3 ex e3x . 3 e−x . a Ejemplo 4. Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de orden n. El m´todo de los coeficientes indeterminados e [yp ] = v(x) de Sea la EDO lineal no homog´na (4. Como W [y1 . 4. entonces L[u] = f1 y L[v] = f2]. c1 y1 + c2 y2 = f (x). 42 Veamos ahora como resolver los casos (4. o bien. v. Entonces vamos a buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x). y2 ](x) (4. la primera por y2 y la segunda por y2 .5 Resolver y − y = e2x . W [y1 . pues se cambian las constantes que aparecen ı e o en la soluci´n general del problema homog´neo por funciones indeterminadas. la segunda por y1 y las restamos lo que nos da c2 [y1 y2 − y1 y2 ] = f y1 . y2 ](x) = 0 cualquiera sea x ∈ R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homog´nea nunca se anula (ver el teorema 4. f2 funciones reales. entonces buscao e 5 mos la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x.

´ 4 LA ECUACION LINEAL DE ORDEN N 43 4. δ = arctan(ωx0 /v0). . f (t) = . α= a k F (t) > 0.3. o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) + b sen(ωt) = A cos(ωt − δ). basta aplicar la f´rmula para el coseno de una suma e o o identificar los coeficientes del seno y el coseno. x PSfrag replacements 2. Aplicaciones Ejemplo 4.19) es x + ω 2 x = 0 y por tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt). Supongamos ahora que eliminamos solamente la fuerza externa. δ = arctan(b/a). entonces la soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos: √ α2 −ω 2 x ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡£¤ ¢£¤£¤ Figura 8: Carro del ejemplo 4. o Vamos a estudiar los distintos casos PSfrag replacements que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) + v0 /ω sen(ωt) = 2 x2 + v0 /ω 2 cos(ωt − δ).6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante el´stica a k (ver figura 8). El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento. o + c2 e−αx− √ α2 −ω 2 x .6. ¦ ¦ ¥¡¥¡ ¡¡¥¦ ¨ §¡ ¡£¤£¤§¨£¤£¤ £¤£¤ £¤ £¤£¤ £ £¤£¤ ¤£¤£¤ £¤£¤ k m F 1. f = 0 y α = 0. x + 2αx + ω 2 x = f (t). 2m m m (4. (4.20) cuya demostraci´n es inmediata. 0 la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que el movimiento se o o denomina movimiento arm´nico simple (ver figura 9 izquierda). Entonces la EDO (4. x t t Figura 9: El movimiento arm´nico simple y el movimiento amortiguado. A= √ a2 + b2. o equivalentemente. ω 2 = . Si suponemos adem´s que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x). o sea.19) con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la velocidad x (0) = v0 .

en este caso m y k.21) |A(Ω)| N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suficiente grande x(t) ≈ xp(t). − Ω2 )2 + 4α2 Ω2 donde δ = arctan ω2αΩ 2 . Obviamente la soluci´n general es la suma de una soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que acabamos de considerar. Si α < ω. En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. En este caso se dice que el movimiento es amortiguado ya que aunque oscila. Si α = ω. Si usamos la identidad (4. 2b. e 2c. (ω 2 − Ω2)2 + 4α2 Ω2 (4. entonces. que tambi´n decrece exponencialmente a cero. Veamos el caso general y. (ω 2 − Ω2 )2 + 4α2 Ω2 de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − Ω2 ) cos(Ωt) + 2αΩ sen(Ωt) f0 . que decrece oscilando exponencialmente a cero (ver figura 9 derecha). llamando β = √ α2 − ω 2 < α tenemos la soluci´n o 44 x(t) = c1 e−(α−β)t + c2 e−(α+β)t . Obviamente para o forzadas: resonancia. lo que nos da e yp (t) = f0eiΩt ω2 − Ω2 + i2αΩ =⇒ xp (t) = [yp ] = (ω 2 − Ω2) cos(Ωt) + 2αΩ sen(Ωt) f0 . Ω = ω la amplitud es m´xima. consideremos el caso de una fuerza peri´dica o muy frecuente en la naturaleza. entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt . es decir cuando la a frecuencia Ω de la fuerza exterior es igual a ω — como ω s´lo depende de las caracter´ o ısticas de sistema. las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilaci´n. 3. que decrece exponencialmente a cero.20) obtenemos para t suficientemente grande la soluci´n o x(t) ≈ xp(t) = ω Ω Sfrag replacements (ω 2 f0 cos(Ωt − δ). las oscilaciones terminan en un breve espacio de tiempo y el carro se para. por simplicidad. 2 −Ω Como se ve en la f´rmula anterior.´ 4 LA ECUACION LINEAL DE ORDEN N 2a. En este caso la ecuaci´n es de la forma o x + 2αx + ω 2 x = f0 cos(Ωt). Si α > ω. se suele denominar . Para encontrar una soluci´n particular e o usamos el m´todo aprendido antes. llamando β = |α2 − ω 2 | < α tenemos la soluci´n o x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] . entonces.

la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞. Desde ese mismo d´ se observ´ que o u ıa. En este caso la EDO es x + ω 2 x = f0 cos(Ωt). En este caso tenemos que repetir el proceso anterior lo que nos da. La gr´fica m´s alta corresponde a a al menor valor de α (menor “viscosidad”) y la m´s peque˜a al mayor. Figura 12: El desastre del puente de Tacoma. En la figura 10 representamos el valor de la amplitud (eje y en funci´n o de la frecuencia exterior (eje x) para distintos valores de α. o sea si no hay rozamiento. Inglaterra). f0 t f0t iωt = e sen(ωt). Este fen´meno de “amplificaci´n” de la amplitud o o de las oscilaciones se conoce como resonancia. ω 2 − Ω2 x Si Ω = ω entonces la soluci´n anterior no vale como se o puede comprobar f´cilmente (pues f0/(ω 2 − Ω2 ) cos(Ωt) deja a de tener sentido). El fen´meno de la resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un desastre en sistemas mec´nicos. Veamos ahora que ocurre si α = 0. es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia fija pero con amplitud que aumenta linealmente con el tiempo. un grupo de soldados a a intent´ cruzar marchando en puente de Broughton (cerca de Manchester.´ 4 LA ECUACION LINEAL DE ORDEN N 45 frecuencia propia—. en ´ste. Figura 11: Resonancia en un sistema sin rozamiento.21) que nos da. si t → ∞. x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 cos(Ωt). Este puente se abri´ al p´blico el 1 de julio de 1940. La o fuerza peri´dica que ejercieron al marchar entr´ en resonancia con la frecuencia propia del o o puente y este se vino abajo. 2iω 2ω x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 t sen(ωt). o . Por ejemplo. 2ω N´tese que a diferencia del caso con rozamiento. Si Ω = ω entonces simplemente tomamos el l´ ımite cuando α → 0 en (4. para la soluci´n particular la expresi´n o o t PSfrag replacements xp(t) = y por tanto. Si α = 0 es f´cil ver a n a que para Ω = ω la amplitud es no acotada. en 1831. A partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a cruzar un puente. Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington.

o n o El puente parec´ aguantar bien.8 Los osciladores acoplados . la carga por unidad de tiempo. L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t). si Ω = ω tenemos la soluci´n o u0 t sen(ωt). o Ejemplo 4.7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico representado el la figura 13 donde R es una e resistencia. U(t) Figura 13: Circuito RLC del ejemplo 4.19). 2ω que es no acotada. (ω 2 − Ω2)2 + 4r 2Ω2 (4. r=ω qh (t) =     −αt  e [c1 cos(βt) + c2 sen(βt)] . r < ω En particular. Lo anterior nos indica que el an´lisis de un circuito RLC es an´logo al de a a un oscilador. Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente.     (c1t + c2 )e−αt . es m´s varios expertos aseguraban que todo estaba bajo ıa a control. En particular la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(Ωt) es o e q(t) = qh (t) + donde (ω 2 − Ω2 ) cos(Ωt) + 2rΩ sen(Ωt) u0 .22) siendo β = |r 2 − ω 2 |. afortunadamente sin ninguna v´ ıctima humana (s´lo muri´ el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o pero olvid´ su perro en el interior de su coche atrapado en el medio del puente). q + 2rq + ω 2 q(t) = u(t). Obviamente el puente hab´ entrado en resonancia ıa con el aire debido a un fen´meno aerodin´mico y termin´ por derrumbarse a las 11:10am o a o (ver figura 12 derecha). ω 2 = 1/(LC) y u(t) = U (t)/L. o. en particular tendremos el mismo fen´meno de resonancia cuando Ω ≈ ω.7. Obviamente la EDO anterior es totalmente an´loga a la EDO (4. o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo 4. donde r = R/(2L). en este fen´meno se basan los equipos de radio actuales. pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros. equivalentemente. Entonces. la Ley de Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C R U (t) = Li (t) + Ri + C −1 q(t).´ 4 LA ECUACION LINEAL DE ORDEN N 46 el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirti´ en una atracci´n o o tur´ ıstica local pues cientos de conductores iban s´lo para disfrutar de este extra˜o fen´meno. o sea.  r>ω  c1 e−(α−β)t + c2 e−(α+β)t . De o hecho.

Obviamente si no existiera el resorte k3 que los une cada uno oscilar´ seg´n la ley que hemos visto antes. De la soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir que A 1 o o o √2 se anulen. La ecuaci´n caracter´ o ıstica es λ4 + 4ω 2 λ2 + 3ω 4 = 0 =⇒ √ λ = ± 3ωi. o √ x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos( 3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) + 2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de forma que ω = 1. conocidas como frecuencias propias del sistema. entonces obtenemos x1(t) = cos t x2(t) = cos t. Veamos que ocurre al incluir este ıa u resorte. 47 En la figura 14 vemos dos osciladores acoplados. m . Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t. √ √ x2 (t) = c1 cos t + c2 sen t − c3 cos( 3t) + c4 sen( 3t).24) ω2 = k . En este caso el sistema tiene un movimiento oscilatorio con frecuencias ω A y 3ω. An´logamente se puede obtener la a expresi´n para x2. x1(0) = 0. Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y sustituirla en la o segunda. Vamos a ver a continuaci´n el caso de varios osciladores acoplao dos. Llamemos x1 y x2 a los desplazamientos de la posici´n de equilibrio de los carros m1 o y m2 respectivamente. m1 m2 (4.24) nos da x1 + 4ω 2 x1 + 3ω 4 x1 = 0. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 + (4) k1 + k 3 k2 + k 3 + m1 m2 x1 + k1 + k 3 m1 Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . Supongamos que x1 (0) = 1. Figura 14: Dos osciladores acoplados. ¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ ¡¥¦ ¤ ¡ ¢¤£¢¢ ¡  ¢ ¤¤£¢  ¡  ¤¢£¢  ¡ ¢¢£¢ ¤¤£¢ ¡ ¡ ¤¢£¢ ¡  ¤£¢¢ ¢¢£  ¡  ¢¤ £¢  ¡ k1 m1 k3 m2 k2 (4. x2(0) = 1 y x2(0) = 0.23) k2 + k 3 m2 − 2 k3 x1 = 0. entonces la segunda Ley de Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 + k3 x2 . (4) de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1 cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √ = A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ).´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede describir f´cilmente con e a una EDO lineal de orden dos. Entonces (4. m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 + k3 )x2. ±ωi.

o sea. x2(0) = −1 y x2(0) = 0. Figura 16: Caso x1(0) = 1. x1(0) = 0.´ 4 LA ECUACION LINEAL DE ORDEN N 48 Figura 15: Caso x1(0) = 1. Si x1(0) = 1. x1 (0) = 1. por ejemplo. x2 (0) = 1 y x2(0) = 0. es una combinaci´n de las frecuencias. tenemos √ √ x2(t) = − cos( 3t). x2 (0) = −1 y x2(0) = 0. x1(0) = 0. tenemos que las oscilaciones son con las frecuencias propias. x2(t) = − + − 4 4 4 4 3 es decir. x2(0) = −1 y x2(0) = 1/2. + + + x1(t) = 4 4 4 4 3 √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . x2(0) = −1 y x2(0) = 1/2. obtenemos √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . x1(t) = cos( 3t). . x1(0) = 1/2. x1(0) = 0. o Figura 17: Caso x1(0) = 1/2. x1(0) = 1. Pero si escogemos.

Problema 4. y − 4y + 13y = 0.´ 4 LA ECUACION LINEAL DE ORDEN N 49 4. o © © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦ ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨© ¤¤ ky m §¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥ θ l m h £ ¢ ¢ ¢ ¢ ¢£ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡ ¡¡¡¡¡¡¡¡   ¤ ¤¤ . a k mg Figura 18: El oscilador y el p´ndulo simple. respectivamente. donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posici´n de equilibrio (figura 18 izquierda) y θ(t) es el angulo que forma el p´ndulo con la o ´ e horizontal (figura 18 derecha). y(0) = 1. y (0) = 0. y + 12y + 36y = 0. 3. y − 4x = 4x2 + 2x. 3. 6. y + 2y + 1 = xe−x sen(2x) con y(0) = 1. y(2) = 0. e Las EDOs que gobiernan estos sistemas son my + ky = 0. 5. y lθ + gθ = 0. 4. y + y + y = 1 + 2x + 3x3.10 Resolver las EDOs 1. Problemas Problema 4. y − y = x2ex con y(0) = y (0) = 0. Encuentra la soluci´n general de ambas EDOs. Problema 4. 2.11 El oscilador arm´nico simple y el p´ndulo simple se representan esquem´ticamente en la o e a gr´fica 18 a la izquierda y derecha respectivamente. 1. y (0) = 0. y (2) = 1. y − y − 6y = 0. y(0) = y (0) = 2. 2. y + y − 6y = sen x + xe2x . y + 2y = 1 + x2 + e−2x .4.9 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y la soluci´n correso o pondiente a las condiciones iniciales indicadas: 1.

y − 6y + 11y − 6y = xex + x2. y + 8y = x2 . y (4) − 16y = 3 cos(x). Si el oscilador se encontraba en el inicio en su posici´n de equilibrio (y(0) = 0) y ten´ o ıa una velocidad inicial y (0) = v0 .) m1 = m2 y k1 = k2 . a qu´ altura se encuentra el mismo al cabo de 1 segundo ¿y al cabo e de t segundos? Problema 4. e 2. Si suponemos que inicialmente el p´ndulo se deja caer desde una altura h = l/10.´ 4 LA ECUACION LINEAL DE ORDEN N 50 2. 2. En ambos casos resuelva la EDO correspondiente. Problema 4. £ ¢£¢ £ ¢£¢ m1 m2 £ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£ ¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ ¡¤¦ ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  . k1 k4 k2 m3 k 3 Figura 19: Tres osciladores acoplados.8 incluyendo rozamiento. Analice los casos: 1.) m1 = m2 y k1 = k2 = k3 .14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la figura 19 y resu´lvela. Haga el estudio an´logo si sobre el primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(Ωt). k3 = 2k1 y 3.12 Resuelve las EDOs 1. Problema 4. sin e velocidad inicial.13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4.) m1 = 2m2 y k1 = k2 = k3 . ¿qu´ posici´n ocupa al cabo de 1 segundo? ¿y al cabo e o de t segundos? 3. 3.

si sabemos a0 . a4 . k ∈ N y si conocemos a1 entonces podemos calcular a3. que equivale a n=0 n [(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0. la sustituimos en la EDO y usamos que ∞ ak x = k ∞ k=0 ∞ k=0 (ak x ) = kak x k−1 kak x k−1 = ∞ n=0 (n + 1)an+1 xn . . . Soluciones de EDOs en serie de potencias Sea la EDO y + p(x)y + q(x)y = f (x). Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5. = ∞ n=0 d d y (x) = y (x) = dx dx lo que nos da ∞ k=0 = k=0 ∞ k=0 k(k − 1)ak x ∞ k−2 (n + 1)(n + 2)an+2 xn k(k − 1)ak x ∞ k−1 −2 k=0 kak x − 2 k ∞ k=0 ak xk = 0. q(x) y f (x) dependen de x. Por sencillez supondremos x0 = 0. (5. a2k+1 . Obviamente la ecuaci´n anterior define todos los valores de an en funci´n de a0 y a1. Para ello vamos a suponer que dichas funciones son “razonablemente” buenas en un entorno de cierto punto x0 de la recta real y buscaremos la soluci´n como una serie de potencias. Es importante que la serie converja en todo un entorno de x0. n+2 n ≥ 0. es o decir en la forma ∞ y(x) = k=0 ak (x − x0)k .2) en (5. . 2n − 2 (2n)(2n − 2) · · · 2 n! . k ∈ N.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 51 5. (5. De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en (5. ak ∈ R. La idea del m´todo es sustituir la serie y(x) (5.1 Resolver la EDO y − 2x − 2y = 0. ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0 de forma que en la nueva variable z0 = 0. . As´ tenemos ı. a5 . Buscamos la soluci´n y(x) = o d y (x) = dx ∞ k=0 ∞ k=0 k ak xk . Como (x )n es una sucesi´n de funciones linealmente independientes la igualdad a cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0.2). de donde tenemos o an+2 = 2 an . .2) Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal´ ıticas en x = x0. de esta forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n.1) e igualar los coeficientes de e las potencias. . En o o efecto. a2k .1) El objetivo es resolver la EDO anterior cuando las funciones p(x). a2n 2 a2n−2 = = 2n 2 2n 2 2n a0 a2n−4 = · · · = a0 = . la recurrencia anterior permite calcular los valores a2.

Es f´cil ver que si aplicamos el m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente o independiente es y2 (x) = 1/x2. Ello es f´cil de entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que obviamente no est´ definida en x = 0. De la expresi´n expl´ o ıcita de las dos sumas anteriores es f´cil comprobar que el a radio de convergencia es infinito. El m´todo de reducci´n de orden e o Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y = 0. o a 5. Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 52 2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 . donde (2n + 1)!! = 1 · 3 · 5 · · · (2n + 1).2 Encontrar la segunda soluci´n linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x )y = 0 si una soluci´n es y1 (x) = x−p0/2+1/2. o Como y1 (x) = x−p0/2+1/2 y p(x) = p0 /x. sin p´rdida de generalidad C = 1 y D = 0. n! (2n + 1)!! n=0 ∞ Obviamente la primera suma es f´cilmente reconocible como la serie de potencias de la funa 2 ci´n ex . o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) = v(x)y1(x). x x Si sustituimos la serie de potencias tenemos ∞ k=0 k(k − 1)ak xk + ∞ k=0 2kak xk − ∞ k=0 2ak xk = 0 de donde se deduce a0 = 0. s´lo podemos encontrar una soluci´n: y1(x) = x. e− p(x)dx 2 y1 u=v. n∈N =⇒ an = 0. ∀n ∈ N. (n − 1)(n + 2)an = 0. Esta claro que el m´todo anterior no siempre funciona. . Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e− p(x)dx 2 y1 =⇒ y1 u + (2y1 + p(x)y1)u. no as´ la segunda que en general no se expresa como combinaci´n de funciones o ı o elementales. e Ejemplo 5.1. n=1 es decir. Por ejemplo. De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0 ∞ n=0 2n x2n+1 x2n + a1 . entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1 = −p0 +1 x x =⇒ v(x) = log x de donde y2 (x) = x−p0/2+1/2 log x. 2n + 1 2n + 1 2n − 1 (2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1. =⇒ v(x) = C + D. consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 ⇐⇒ y + y − 2 y = 0.

Definici´n 5. o sea. q(x) y f (x) son funciones anal´ ıticas en x = x0. luego. La soluci´n del problema de valores iniciales y(x0) = y0 .1). si las o funciones (x − x0)p(x) y (x − x0)2 q(x) son anal´ ıticas en x = x0 . Es f´cil ver que la soluci´n se puede buscar en la forma y(x) = x r . o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. asumiremos x0 = 0. mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0.2. por ejemplo x = 1. q(x) y f (x) admiten una representaci´n en serie de potencias en un entorno de x0 .3) con un punto singular en x0.4) Si buscamos la soluci´n en forma de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n − 1) + np0 + q0 ]an = 0.1) si o p(x). ∀n ≥ 0. q y f . adem´s. an = 0 lo cual indica que la EDO anterior no tiene como soluci´n ninguna o serie de potencias. El caso x < 0 se deduce f´cilmente de ´ste sin m´s que hacer el cambio x = −z. Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. (5. Para f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal´ ıticas.1) con un punto singular en x 0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x − x0)p(x)] + [(x − x0 )2q(x)]y = 0. el punto x0 se denomina punto regular de (5. k (x−x0) q(x) 2 qk (x−x0)k = q0 +q1 x+· · · .5 Un punto x0 se denomina punto singular regular de la EDO (5.4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0.1). si p(x). Es posible. Lo anterior equivale a que (x−x0)p(x) = ∞ k=0 ∞ k=0 pk (x−x0) = p0+p1 x+· · · . En lo que sigue. (5. por simplicidad. Una opci´n o es resolver entonces la ecuaci´n usando una serie en torno a otro punto. Por ejemplo.3 Dada la EDO (5.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 53 5. el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0. 2.6 La ecuaci´n r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la o o o EDO (5. para a o x > 0. Entonces: 1. En caso contrario se dice que o x0 es un punto singular. en general.3) Definici´n 5. aunque en algunos casos. Usualmente la EDO homog´nea (f (x) ≡ 0) (5. si lo es.1) a o es el menor de los radios de convergencia de p. a e a . y (x0) = y0 existe y es unica o ´ y se expresa mediante una serie de potencias (es decir es una funci´n anal´ o ıtica). probar que el radio de convergencia de la soluci´n de la EDO (5. Teorema 5. Puntos regulares y singulares de una EDO Definici´n 5. Ello no siempre es posible.

x > 0. se sigue que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. Dada la ecuaci´n indicial r(r − 1) + p0 r + q0 = 0.5) 2.3) e igualamos potencias nos queda. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relaci´n recurrente para los coeficientes an no tenga soluci´n. y adem´s se deduce una relaci´n de recurrencia para cada uno de a o los coeficientes an en la expresi´n de la serie.6) 3. entonces ıces la soluci´n es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x). x > 0. En general o o se tiene el siguiente Teorema 5. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 xr1 + c2 xr1 log(x). y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 + q1 x + · · · sean funciones anal´ ıticas en x0 = 0. Entonces si sustituimos en la EDO (5. Caso (p0 − 1)2 − 4q0 > 0. r1 < r2 ∈ R con r2 − r1 ∈ Z (dos ra´ reales y distintas que ıces no difieran en un entero) y(x) = 6 c 1 xr 1 ∞ k=0 ak x + k c2 xr 2 ∞ k=0 bk x k . ∞ n=0 n−1 [(n + r)(n + r − 1) + (n + r)p0 + q0 ]an + [(k + r)pn−k + qn−k ]ak = 0. r1 < r2 ∈ R (dos ra´ reales y distintas) ıces y(x) = c1 xr1 + c2 xr2 .4) tenemos que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. Veamos que ocurre en el caso general. entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1.8) Recordar que estamos suponiendo x0 = 0.2 = − p0 − 1 ± 2 (p0 − 1)2 − 4q0 . (5. (5. . o r1. (5. r2 ∈ C (dos ra´ complejas). 2 Entonces se tienen los siguientes casos para x > 0 1. x > 0. Sustituyendo y(x) = xr en (5. (5. Sea r1 = a + bi. En este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) = xr ∞ k=0 ak x k . x > 0. k=0 de donde. r1.7) Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las expresiones el valor o e de x por |x|. Sean r1 y r2 las soluciones de la ecuaci´n indicial.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 54 z > 0. Caso (p0 − 1)2 − 4q0 = 0. al igualar la potencia xr . Caso (p0 − 1)2 − 4q0 > 0.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0. Caso (p0 − 1)2 − 4q0 < 0.

r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 x r1 ∞ k=0 ak x + c 2 k x r1 ∞ k=0 ak x k log x + x r1 ∞ k=0 bk x k .5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 55 2. Caso (p0 − 1)2 − 4q0 < 0. Como hemos supuesto que γ ∈ Z. En efecto. entonces la soluci´n es o y(x) = c1 x cos(b log x) a ∞ k=0 ak x + c2 x sen(b log x) k a ∞ k=0 bk x k . entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) + γr = 0. q(x) = . (5.3. x > 0.12) obtenemos (n + 1)(n + γ)an+1 = [n2 + (α + β)n + αβ]an . dividiendo por x(1 − x) tenemos γ − (1 + α + β)x −αβ p(x) = . x2q(x) = −αβx + · · · . Caso (p0 − 1)2 − 4q0 = 0. x > 0.10) 4. a Aqu´ s´lo nos limitaremos a mostrar un ejemplo del primer caso por ser este el m´s sencillo.11) donde A es cierta constante que puede ser nula. r1 = r2 − N ∈ R. (5. de donde tenemos o dos soluciones r = 0 y r = 1 − γ.r2 − r1 ∈ Z (dos ra´ complejas que no difieran ıces en un entero). y2 (x) = x1−γ bn x n . entonces tenemos dos soluciones ∞ ∞ y1 (x) = an x n . ı o a 5.12) luego Por sencillez asumiremos que γ ∈ Z. Caso (p0 − 1)2 − 4q0 = 0. En todos los casos las series convergen en un entorno de x0 = 0. x(1 − x) x(1 − x) xp(x) = γ − (1 + α + β − γ)x + · · · .9) 3. N ∈ Z (dos ra´ ıces reales que difieren en un entero) y(x) = c1 xr1 ∞ k=0 ak x k + c 2 A x r 1 ∞ k=0 ak x k log x + xr1+N ∞ k=0 bk x k . La ecuaci´n hipergeom´trica de Gauss o e Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 − x)y + [γ − (1 + α + β)x]y − αβy = 0. an = (n + α − 1)(n + β − 1) an−1 . n=0 n=0 Comencemos por la primera. r2 ∈ C. Esta claro del teorema anterior que este caso es mucho m´s complicado que el anterior. (5. (5. Sustituyendo y1 en (5. x > 0. . r1. por tanto. Sea r1 = a + bi. n(n + γ − 1) n ≥ 1. Obviamente x = 0 es un punto singular regular.

y prueba que an = p(p − 1)(p − 2.9 Sea la EDO (1 + x)y = py. o o Como consecuencia del teorema de existencia y unicidad. x2y = y + x2 + 1. o o 3. y + 2y + y = x. Busca su soluci´n en serie de potencias o 2) · · · (p − n + 1)/n!. y(0) = 1. ∞ n=0 an xn. β x γ = ∞ k=0 56 (a)n = a(a + 1) · · · (a + n − 1). a . n(n − γ + 1) y2 (x) = x1−γ 2 F1 =⇒ an = (α − γ + 1)n(β − γ + 1)n . 3. xy = 2y + xex. 2−γ 5. que no es m´s que el teorema del binomio encontrado por Newton. Problemas Problema 5. n ≥ 1.13) (α)k (β)k xk . Comprueba que la funci´n y(x) = (1 + x)p es soluci´n de la misma. Si ahora sustituimos la segunda soluci´n obtenemos o an = (n + α − γ)(n + β − γ) an−1 . e indica la regi´n de convergencia de las mismas o 1. (2 − γ)n n! de donde tenemos N´ese que si γ ∈ Z entonces una de las soluciones deja de estar definida. n! p ∈ R. (5. 2.14) conocida como funci´n hipergeom´trica de Gauss. Problema 5. En este caso o hay que buscar la soluci´n incluyendo el correspondiente t´rmino logar´ o e ıtmico.8 Resuelve las EDOs siguientes usando series de potencias. α − γ + 1. Es f´cil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1. (α)n (β)n . entonces obtenemos an = por tanto y(x) = 2 F1 α. (γ)nn! n ≥ 1. si es posible. (x4 − 4)y + 3xy + y = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1.4. Encuentra la regi´n de validez de la doluci´n anterior. en la regi´n de convergencia de la o serie tendremos (1 + x) = p ∞ n=0 p(p − 1)(p − 2) · · · (p − n + 1) n x . β − γ + 1 x . (γ)k k! (5. p ∈ R. 1. 4.

xy + (1 + α − x)y + py = 0. b. Problema 5. (EDO de Hermite) 57 4. 4. 3. (EDO de Legendre) 3. Problema 5. x2y + xy + (x2 − p2 )y = 0. xy + (1 − x)y + py = 0. Usando la soluci´n de la EDO de Airy resolver la EDO o y − xy = 0. (x − 1)2y − 2(x − 1)y + 2y = 0. y + xy = 0.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0. o e Problema 5. Problema 5. a. x2y + 3xy + 2y = 0. (1 − x2)y − 2xy + p(p + 1)y = 0. con el cambio x = ez en una EDO con coeficientes constantes: ay (z) + (b − a)y (z) + cy(z) = 0. y − 2xy + 2py = 0.12 Resuelve las siguientes EDOs de Euler 1.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1. x2y + xy − 5y = 0. a. (EDO de Chebyshev) 2. 2. x2y + 2xy − 6y = 0. (EDO de Bessel) Problema 5.14 La EDO x(1 − x)y + [c − (a + b + 1)x]y − aby = 0. c ∈ R se denomina ecuaci´n hipergeom´trica de Gauss (aunque fue introducida por Euler en 1769).15 Encuentra dos soluciones linealmente independientes de la EDO hipergeom´trica confluente definida por e xy + [c − x]y − ay = 0. c ∈ R.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss. (1 − x2)y − xy + p2 y = 0. c ∈ R se transforma.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1. (EDO de Laguerre generalizada) 3. b. o e Encuentra dos soluciones linealmente independientes de la misma. a. . (EDO de Laguerre) 2. (EDO de Airy).

5) (6. 2 (6. (6.1) a o usualmente se denomina ecuaci´n diferencial hipergeom´trica y sus soluciones y cumplen con o e la propiedad.1. n = 0.2) en su forma sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0. respectivamente. (6. µm = λ + i=0 (x) .2) se tiene la siguiente f´rmula de Rodrigues: o o o (m) Pn (x) = Anm Bn dn−m [ρn (x)].. Ann (n) (6.3) donde ρ y ρm son funciones de simetrizaci´n que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [σ(x)ρ(x)] = τ (x)ρ(x). o e Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos definidos sobre el eje a a real los cuales vamos a definir como las soluciones polin´micas de la siguiente EDO o σ(x)y + τ (x)y + λy = 0.1 Si y es una soluci´n de (6.5) se convierte en la f´rmula de Rodrigues para los polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)]. 2. utilizando las ecuaciones anteriores. La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una f´rmula expl´ o ıcita para los polinomios que satisfacen la ecuaci´n (6.8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6. Para ello usualmente o se escriben (6.1) es a k=0 1 [τ + 2 (n + k − 1)σ ]. .1). 1. conocida como propiedad de hipergeometricidad: Si y es una soluci´n de (6.1) y (6. (6. τ + kσ /2 = 0. entonces para las soluciones polin´micas de la ecuaci´n (6. Los polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica..4) Teorema 6. 6.1) o sus m-´simas derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo. . el autovalor λn de (6. λ ≡ λn = −nτ − n(n − 1) σ . [σ(x)ρm (x)ym ] + µm ρm (x)ym = 0. Esta ecuaci´n (6.1) donde σ y τ son polinomios de grados a lo m´s 2 y 1.7) Cuando m = 0 la f´rmula (6.6) Anm = Am (λ) |λ=λn Adem´s.1) sus m-´simas derivadas y (m) ≡ ym satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0.1) son ortogonales dos a dos: . que ρm (x) = σ m (x)ρ(x). (6. m−1 (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 58 6. e o Teorema 6.2 Si para todo k ∈ N ∪ {0}. [σ(x)ρm (x)] = τm (x)ρm (x). Conocida ρ encontramos. ρm (x) dxn−m n! = (n − m)! m−1 Bn = Pn .2) τi (x) = λ + mτ (x) + m(m−1) σ 2 τm (x) = τ (x) + mσ (x).

n! k=0 n−1 bn = nτn−1 (0) an . (6.3 Supongamos que xk σ(x)ρ(x) 59 x=a.12) siendo an .14) .b ciones polin´micas Pn de la ecuaci´n (6.13) Como un corolario de (6.6 Si (Pn)n es una sucesi´n de polinomios ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos (6.9) donde δnm es el s´ ımbolo de Kronecker y dn denota la norma de los polinomios Pn. Luego.10) Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6. y dn es la norma de los polinomios.5 Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x).4 Si (Pn)n es una familia de polinomios ortogonales respecto a ρ entonces para b todo k entero con 0 ≤ k ≤ n − 1 se tiene que xk Pn (x)ρ(x)dx = 0. τn−1 (6.9) o e n e integrando por partes. y) ≡ n ≥ 1.de donde obtenemos la para la n − 1-´sima derivada de Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x). Generalmente se impone que P−1(x) = 0 y P0(x) = 1. an−1 an−1 an d 2 n−1 (6. an+1 βn = bn bn+1 − . sustituy´ndola en (6.11) se obtiene la conocida f´rmula de Christoffel-Darboux: o Teorema 6. nos da: b d2 = Bn (−1)n n!an n σ n (x)ρ(x)dx. an = Bn Ann 1 = Bn [τ + 2 (n + k − 1)σ ]. = 2 2 dm dn x−y m=0 n Kern (x. ´ Para calcular los coeficientes principales an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn τn−1 (x). an an+1 γn = cn − αn cn+1 bn an−1 d2 n − βn = . se cumple que: o b a = 0.11) donde αn = an . para todo k ≥ 0. (6. a (6. Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x) . o sea. Corolario 6. a Para calcular d2 . Entonces las solu- Pn (x)Pm(x)ρ(x)dx = δnm d2 . con lo que la sucesi´n de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones (α n)n . podemos utilizar la f´rmula de Rodrigues que.1) constituyen una SPO respecto a la funci´n peso o o o ρ definida por la ecuaci´n [σ(x)ρ(x)] = τ (x)ρ(x).11).´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6. n (6. bn y cn los coeficientes del desarrollo Pn(x) = anxn + bn xn−1 + cn xn−2 + · · ·. (βn )n y (γn )n.

. obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x. en las cuales (a)n denota al s´ ımbolo de Pochhammer (6. n (6.β Pn (x). nτn Bn+1 P (x) n ≥ 0.17) de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) = αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x). En las tablas 3 y 4 est´n representados los principales par´metros a a de dichas familias. x) ≡ 2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n 60 n ≥ 1. soluciones de la ecuaci´n (6. Si definimos Qn (x) ≡ n+1 .2. i.5) para el polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o σ(x)Pn(x) = λn Bn Pn+1 (x) .5) se deduce que o Pn(x) = −λnBn ¯ Pn−1 (x). Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x).e. satisfacen la siguiente relaci´n de estructura: o o Pn(x) = Qn + δn Qn−1 + n Qn−2 . respectivamente. Estos se pueden clasificar en tres grandes familias en funci´n del grado del o polinomio σ (τ siempre es un polinomio de grado 1). τ es un polinomio de grado exactamente uno.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x.. a Comenzaremos escribiendo los principales par´metros de las sucesiones de polinomios a ortogonales m´nicos cl´sicos.18) λn ˜ [βn τn + τn (0)] . ¯ Bn−1 (6.1).1. λ n γn . (6. τn (x)Pn(x) − nτn Bn+1 (6. cuando σ es de grado 1. entonces los polinomios ortogonales m´nicos Pn (x) = o n+1 xn + · · ·.2. Par´metros Principales.16) ¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso ρ1 (x) = σ(x)ρ(x). (6. Los Polinomios de Hermite. Tomando m = 1 en la f´rmula (6. 6. tales que su coeficiente principal an = 1. donde αn = ˜ Bn λn αn τ n − .30). Si escribimos la f´rmula (6. βn = nτn γn = ˜ (6.19) 4. Pn (x) = o a ´ xn + bn xn−1 + · · ·.20) 6. o 3. Laguerre y Jacobi. 2.15) De la f´rmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1. Polinomios de Jacobi n α. es decir. Polinomios de Laguerre Lα (x) y cuando σ es de grado 2.

Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n 1 1 γ− 2 . 2.. n + α + β + 1 1 − x . 3. β > −1 (1 − x)n+α (1 + x)n+β ρn (x) e−x 2 xn+α e−x 6. Los polinomios de Legendre Pn(x) = Pn (x). a2 .β Pn (x) 1 − x2 −x + α + 1 −(α + β + 2)x + β − α n xα e−x α > −1 n(n + α + β + 1) (1 − x)α (1 + x)β α.β Pn (x) = (−1)n Γ(n + α + 1) 1 F1 Γ(α + 1) −n x .. 0. bq = ∞ k=0 (a1)k (a2)k · · · (ap)k xk . o a Pn(x) σ(x) τ (x) λn ρ(x) Hn(x) 1 −2x 2n e−x 2 Lα (x) n x α. (b1)k (b2)k · · · (bq )k k! 3 2 −m 3 2 (6...2.24) Lα (x) = n α. Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1 definida en el caso m´s general de forma: o e a p Fq a1. b2 .2. H2m+1 (x) = (−1)m x 1 F1 m x2 . ap x b1 . 2 . o e De la f´rmula de Rodrigues. 2n sen[ arccos (x)] 4. α+1 2n (α + 1)n 2 F1 (n + α + β + 1)n −n.21) De esta manera encontramos que: H2m (x) = (−1)m 1 2 1 F1 m −m 1 2 x2 . .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 61 Tabla 3: Clasificaci´n de las SPO Cl´sicas. γ > −1. α+1 2 6.3. 1 sen[(n + 1) arccos (x)] .5) se o e puede obtener la representaci´n de los polinomios de Hermite. Los polinomios de Chebyshev de segunda especie Un (x): 1 1 2 Un(x) = Pn 2 (x) = .γ− 2 (x).2. .23) (6. Representaci´n hipergeom´trica.. (6.22) (6. Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn 1 − 2 .0 1.. o usando el m´todo de las series de potencias. (6.− 1 2 (x) = 1 2n−1 cos[n arccos (x)]. Casos particulares.

a o Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x) n (−1)n α.2.. (n + α + β + 1)n (6. (n − ν)! . (n − ν)! α.26) (6..´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 62 Tabla 4: Par´metros de las SPO M´nicas (an = 1). Otras caracter´ ısticas..27) donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x).β (Pn (x))(ν) = (Lα (x))(ν) = n n! Lα+ν (x). (n + α + β + 1)n (−1)n 2n (β + 1)n α. Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad.. e n! α+ν.4. 3. . . Lα (0) = n (−1)nΓ(n + α + 1) . 2.): o (Hn(x))(ν) = n! Hn−ν (x)..16) encontramos las ecuaciones (ν = 1.25) Utilizando la f´rmula (6. n = 0.β Pn (x) (−1)n (n + α + β + 1)n n(α − β) 2n + α + β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1) Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2(α − β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β)(n + α + β + 1) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α + β) − 4n(n − 1)(n + α)(n + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) −n bn d2 n αn βn γn αn ˜ ˜ βn γn ˜ −n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0 n n(n + α) δn n 0 0 n 0 6. (n − ν)! n−ν (6.β Pn (1) = . 22m m! H2m+1 = 0.β Pn (−1) = . 2.β+ν Pn−ν (x). H2m (0) = (−1)m (2m)! . Γ(α + 1) 2n (α + 1)n α. 1.

β Pn (−x) = (−1)nPn (x). Adem´s. 3. (6. n→∞ z(z + 1) · · · (z + n − 1) π . a(x) = 1. sen πz Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) = zΓ(z).γ− 2 −1 2 H2m+1 (x) = xLm (x2) . en general. En particular. (a)k = (6. (n − k)!k! k! . P m m 2 1 (x) = (6.α α. 1 1 γ− 2 . k = 1. 2.29) Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ. cumple la propiedad a Γ(1 − z)Γ(z) = √ 1−2z π2 Γ(2z). ∀n ∈ N. de la f´rmula de Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o ıa para los polinomios de Jacobi: 2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 . (z) > 0.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 63 Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi. . definida. 2m Adem´s.28) 1 γ− 1 . definiremos los coeficientes binomiales n k = (−1)k (−n)k n! = .13) donde por a(x) ∼ b(x) entenderemos l´ ım Es muy sencillo comprobar que (a)0 = 1. (a)k = a(a + 1)(a + 2) · · · (a + k − 1).30) La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √ 1 Γ(ax + b) ∼ 2πe−ax (ax)ax+b− 2 . respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2). y adem´s.− 1 2 (2x2 − 1). Γ(a) Finalmente. √ 1 a Utilizando las expresiones anteriores se concluye que Γ( 2 ) = π. .γ− 2 (x) = β. mediante la integral de Euler ´ Γ(z) = 0 ∞ e−t tz−1 dt. 1 x Pm 2 2 (2x2 − 1). Γ(a + k) . Gγ (x) = P2m 2 2m 1 γ− 1 . Otra funci´n muy relacionada con la o x→∞ b(x) funci´n Γ es el s´ o ımbolo de Pochhammer (a)k (5. Γ(z)Γ(z + 1 ) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1). x >> 1. . Esta funci´n fue definida por Euler en 1729 como l´ o ımite de un producto de donde se puede deducir la integral anterior (considerada tambi´n por Euler en 1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en detalle en 1814. . Euler o o prob´ que o 1 Γ(z) = z n=1 ∞ 1 1+ n z 1+ z n −1 = l´ ım 1 · 2 · · · (n − 1) zn.

33) y (6.32) entonces los momentos generalizados verifican la siguiente relaci´n de recurrencia a tres o t´rminos e 1 µσ(z)Cν. como C0 = π. . µ = p ∈ N.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 64 6.µ (z) + τν + µσ 2 Cν. Ejemplo 6.33). a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6.µ (z) = a (s − z)µρν (s)ds.3. evidente ya que para los polinomios de Hermite tenemos que σ(0) = 0. Los momentos de los polinomios cl´sicos a En este apartado vamos a considerar brevemente una forma de obtener una relaci´n para o los momentos. Finalmente.µ+1 (z) = 0. de (6. Vamos a aplicar los resultados anteriores a los polinomios cl´sicos. Se definen los momentos como b Cν. entonces todos los momentos impares son nulos. Ello nos conduce a la relaci´n pCp−1 − 2Cp+1 = 0. z = 0 obtenemos. Adem´s. para ν = 0. (6. lo cual es √ la funci´n peso es una funci´n par. (6. luego Cn = (α + 1)nC0 .8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el m´todo anterior.34) es o (α + n + 1)Cn − Cn−1 = 0.31) Si se cumple la condici´n de frontera o b σ(s)ρν (s)(s − z)µ = 0.p (0) = a b Cp+1 = 0. as´ que tenemos ı cuando z = 0.µ−1 (z) + [τν (z) + µσ (z)] Cν. De ella o como C1 = 0.33) En particular.34) sp ρ(s)ds. 2m 2 m! C2m+1 = 0.34). a (6. (6. que usar (6. de donde deducimos que Cn = Γ(α + n + 1). e En el caso Laguerre tenemos que la relaci´n de recurrencia (6. Teorema 6. C0 = 0 ∞ xα e−x dx = Γ(α + 1). entonces o o a C2m = (2m − 1)!! √ (2m)! √ π = 2m π. la siguiente relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0) + pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡ C0.7 Sea µ ∈ C.33) deducimos que.

Bn 2xt−t2 2n Hn(x)tn. n! (1 − t)α+1 tx (6. por ello asumiremos que t es lo suficientemente peque˜o para que la serie converja en una n regi´n de las x lo suficientemente amplia. n! Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0. o Para los polinomios cl´sicos se tienen las siguientes identidades.4. e a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos. n! R(1 − 2t + R)α (1 + 2t + R)β (6. o o Φ(x.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 65 6. t=0 =e t=0 x2 ∂ n −(x−t)2 e ∂tn = t=0    ξ = x−t   dξ = −dx  = ∞ n=0 (−1) e n x2 ∂ n −ξ 2 e ∂ξ n ξ=x (−1)n = Hn(x). Para probar las mismas usualmente se hace uso del teorema integral de Cauchy.37) con R = 1 + 4t(t + x). (6. 2 . No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”.35) Obviamente la serie anterior puede no converger prefijado un valor cualquiera del par´metro a t. En general el problema se puede plantear como sigue: Dada una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar una funci´n Φ(x. Al ser esta funci´n anal´ o ıtica en R podemos usar la serie de Taylor Φ(x. n! ∞ n=0 e− 1−t (−1)n α n Ln (x)t = .36) 2α+β (−1)n (α + β + 1)n α.β Pn (x)tn = . t) tal que. a ∞ n=0 ∞ n=0 2n 2 Hn (x)tn = e2xt−t . Caso Hermite Hn (x): Primera prueba Sea Φ(x. t) = e2xt−t . t) = Pero ∂ Φ ∂tn luego e n ∞ k=0 2 1 n! ∂ nΦ ∂tn tn . Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. t) = ∞ n=0 An Pn (x)tn. Las funciones generatrices El objetivo de este apartado es encontrar las funciones generatrices de los polinomios cl´sicos.

∞ n=1 2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0. como Φ(x.38) deducimos que g0(x) = 1 y g1(x) = x.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0. o Un sencillo c´lculo nos muestra que a ∂ 2 Φ(x. por tanto. 0) = 2x. Ahora bien. e a o Sea la funci´n generatr´ Φ(x. es decir a partir de la expresi´n expl´ o ıcita de la funci´n generatr´ deducimos una relaci´n de recurreno ız o cia para los correspondientes polinomios (en este caso los de Hermite). t) = obtenemos la ecuaci´n o ∂ Φ(x.38) en la ecuaci´n diferencial anterior lo que nos da o ∞ n=0 2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0. t) + 2(t − x)Φ(x. t) = (2x − 2t)e2xt−t = 2(x − t)Φ(x. ∂t De aqu´ deducimos que Φ(x. equivalentemente.38) donde (gn)n es una sucesi´n de polinomios a determinar. t) y compar´ndolo con (6. (n + 1)! (n − 1)! n! n=1 n=0 ∞ 2n n n=0 n! Hn (x)t . t). o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior. 0) = 1 y Φt(x. t) = ∞ n=0 2 2 2n gn (x)tn. La raz´n fundamental o es que este m´todo es muy general y nos permitir´ probar el resto de las expresiones. t) = e2xt−t que escribiremos mediante la expresi´n o ız Φ(x. n! n! n=0 ∞ o. n! (6. (n − 1)! n! n! n=0 n=0 ∞ ∞ . a Ahora sustituimos (6. ∂t (n + 1)! (n − 1)! n! y sumamos en n = 0 hasta ∞ y usamos que 1/(−1)! = 0 y obtenemos ∂ ∂t ∞ n=0 ∞ ∞ 66 2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn(x)tn = 0. n! (n − 1)! n! o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn (x)tn = 0. ∂t cuya soluci´n es Φ(x. t) = e2xt−t . usando el desarrollo en serie ı de Taylor en t para Φ(x. t) = 0.

33) z = 0 sustituimos el valor z = 1. n! (6.36). Encontrar la relaci´n de recurrencia para los momentos Cn := C0.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeficientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0. como g0(x) = 1 = H0(x) y g1(x) = x = H1(x).0 Pn(x) = Pn (x). 6. si en vez de sustituir a en (6.− 1 0. e b (k) (k) Pn (x)Pm (x)ρk (x)dx = δnm d2 .n (0) de o los polinomios de Jacobi. Prueba que en este caso 1 = (1 − 2xt + t2 )γ ∞ n=0 . 2g2(x) − 4xg1(x) + 2g0(x) = 0. Problemas Problema 6. .12 Encontrar la relaci´n de recurrencia para los momentos Cn := C0. A partir de ´sta encuentra los momentos de los polinomios de Legendre e e − 1 . Γ(α + β + 2) −1 α β 1 H´gase lo mismo pero para los momentos Cn := C0. Problema 6.n (1).10 Probar la ortogonalidad de las k−´simas derivadas de los polinomios hie (k) pergeom´tricos yk ≡ Pn . kn a (6.γ− 1 γ dada por (6. 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0. Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre.n (0) en o este caso y resu´lvela. Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi. entonces comparando las relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend´ ıamos probar.39) Problema 6. 2n (γ)n γ Cn (x)tn.41) donde (γ)n es el s´ ımbolo de Pocchamer.13 Demuestra que la funci´n generatr´ para los polinomios de Laguerre viene o ız γ− 1 .9 Calcula todas las car´cter´ a ısticas de los polinomios cl´sicos que aparecen en a la tabla 4. los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los 1 1 polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x).5. Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso α = β = γ − 1/2. 67 Ahora bien. N´tese que o 2α+β+1 Γ(α + 1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = . y)dx = p(y).11 Prueba que los polinomios n´cleos satisfacen la siguiente propiedad reprou ductora b p(x)Kern (x. a ∀p(x) ∈ Pn .40) Problema 6. es decir. Problema 6. respectivamente. (6. es decir.

−1) = ηn dx Pn (x) = nηn Pn−1 (x). KerJ.α. 0) = n−1 (α + 1)n .β Pn−1 (x) = (6.β (−1.43) Problema 6.β α.α. 1) = n−1 Utilizando la relaci´n de simetr´ (6.β+1 KerJ.β (2n + α + β)(x + 1) d Pn (2n + α + β) α.45) (−1)n−1 Γ(2n + α + β) . 2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1 Γ(α + β + n + 1) .β (x) + Pn (x). 0) = √ 2m π(m)! π(m)! x KerH (0.α. d2 m m=0 n−1 Usando la f´rmula de Christoffel-Darboux (6.45) tenemos KerJ.17). prueba las siguentes f´rmulas: o o o • N´cleos de los polinomios de Hermite: u 1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x.β α.α KerJ. 2m−1 π(m − 1)! 2 π(m − 1)! x 1 (−1)m H2m (x) (−1)m 2 .25) y las o f´rmulas de diferenciaci´n (6. Lm (x2) = √ KerH (x. 0) = . 2n(β + n) dx 2(β + n) 68 (6. 2α+β+n n!Γ(α + n)Γ(β + 1) β.α α. 1) = (−1)n+1 ηn dx Pn n−1 β. n−1 .β+1 Pn−1 (x) = α.14 Prueba las relaciones α.42) α+1. 2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1) KerJ.β α.α α+1. n−1 β.α. −1) = n−1 Γ(β + n + 1)Γ(α + β + n + 1) .β (x.15 Los polinomios n´cleos Ker n−1 (x.29) para los polinomios de Jacobi prueba que o ıa J.β (x) − Pn (x). 2α+β+n n!Γ(α + 1)Γ(β + n) Usando (6.β (−1. −1).α. 1) = Kern−1 (−1.β (x. n Γ(α + 1)n! KerL (0.β (2n + α + β)(1 − x) d Pn (2n + α + β) α.β (1. 0) = 2m−1 • N´cleos de los polinomios de Laguerre: u KerL (x.α ηn (−1)n−1 Γ(2n + α + β) .44)-(6. y) se definen mediante la expresi´n u o Kern−1 (x.β donde por ηn y ηn denotaremos las cantidades β.β.β d α−1.α ηn = (6. los valores en los extremos (6.14). 0) = √ Lm−1 (x2) = √ . Γ(α + 2)(n − 1)! • N´cleos de los polinomios de Jacobi: u α.β−1 β. y) = Pm (x)Pm(y) . = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1) 2 π(m − 1)! 2 π m!2 (−1)n−1 (Lα ) (x).α d (x) = n(−1)n+1 ηn Pn−1 (x). KerH (0. 0) = n−1 1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 . 2n(α + n) dx 2(α + n) α.44) (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6.

a. o o .1) tiene soluci´n unica. .5) yn+1 (x) = y0 + x0 f (ξ. . n = 0. . (7. Sea el problema de valores iniciales y = f (x. ∂y Definici´n 7. y) − f (x. y(x0 ) = y0 . . 2. 1. (7. Adem´s. Vamos a dar aqu´ algunas ´ ıa o ı condiciones bajo las cuales podemos garantizar que el PVI (7. a Sea y0 (x) una funci´n continua definida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida en R. entonces y1 (x) = y2(x) en todo Id .3) Definici´n 7. y)|. x∈I |f (x.1 El PVI (7.1) es equivalente a la siguiente ecuaci´n integral o o x y(x) = y0 + x0 f (ξ. o ´ Lo primero que asumiremos es que la funci´n f (x.y)∈R Como f es continua en R. Sea M = m´x |f (x. y) ∈ R y (x. Obviamente si u(x) es continua u < +∞. Proposici´n 7. y). Adem´s.3 Dada una funci´n u(x) definida en un intervalo cerrado y acotado I ⊂ R. z) ∈ R se cumple Es f´cil comprobar que toda funci´n f (x. b > 0. o o definiremos la norma de u(x) a la cantidad u = sup |u(x)|. Vamos a definir una sucesi´n de funciones yn (x) de la siguiente forma e o x (7. yn (ξ))dξ.6) La sucesi´n anterior se conoce como sucesi´n de Picard. a (x.2 Diremos que una funci´n f (x. y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x. y) : |x − x0| ≤ a. |y − y0 | ≤ b}.1) definidas en Id = {x : |x − x0| < d} tales que y1 (x0) = y2 (x0) = y0 . (7. z)| ≤ K|y − z|.4) Para la norma tenemos la desigualdad evidente u ≥ 0. una condici´n suficiente para que una funci´n f (x. y) sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea continua en R. M siempre est´ definida. se tiene la desigualdad triangular a u+v ≤ u + v .1) En el apartado 2. y) es continua en el rect´ngulo R o a definido por R = {(x. El teorema de existencia y unicidad para las EDOs Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia y unia cidad de soluciones para una EDO de primer orden.4 (Teorema de unicidad local de soluciones) o Sea f (x. y) una funci´n de la clase de Lipschitz con constante K y sea d ∈ (0. 1/K).7. Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7. (7.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69 7. y u = 0 si y s´lo si u(x) = 0 en o I.2) Proposici´n 7. y) de la clase de Lipschitz seg´n la definici´n a o u o anterior es continua en y. (7.1 de aproximaciones n´mericas vimos algunos ejemplos donde la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n exacta. y(ξ))dξ.

Como f (x.y)∈R |f (x. Sea x ∈ R por ejemplo. las im´genes e a de yn (x) est´n contenidas en R.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 70 Proposici´n 7.e.6) converge cuando n tiende a infinito a una funci´n y(x) que es soluci´n del PVI (7. 1/1) = 1}.9 Sea la EDO y = x − y 2 con y(0) = 0. por ejemplo. para todo n ≥ 0. entonces las demostraciones anteriores se adaptan perfectamente para el caso general. Los teoremas anteriores son s´lo condiciones suficientes. o . |y0 (x) − y0 | ≤ b.8 Prueba las propiedades anteriores para la norma u . Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x ∈ R cualquiera y tomamos b > 0 cualquiera tenemos f (x. y) = 1 + y 2 . luego f es lipschitziana con constante K = 1. b/b. Si ahora usamos. a Proposici´n 7. 1/K) = m´ ın(a. b/M. 2 Ahora bien. Para ello basta definir una a norma en RN y el valor absoluto de un vector. 7.1) con f lipschitziana de constante K en R (7. i. la sucesi´n de Picard e o (7. entonces o o |f (x. z)| = y 2 − z 2 = |y + z||y − z|. a Entonces. o a El procedimiento anterior es f´cilmente extensible a sistemas. y(x)) e ´ o y(x0 ) = y0 . Corolario 7. la norma k=1 N Y = k=1 yk . y M = m´x(x. 1/K)} tal que su imagen est´ contenida en R. N´tese que en este caso el teorema es util o o ´ pues para x > 1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica. π/2)..1.7 (Teorema local de existencia y unicidad) Sea el PVI (7. y)|. 1/K)}.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funci´n continua definida en Id = {x : |x − x0| < d = m´ o ın(a. y) = y. Entonces.5 Sea y0(x) una funci´n continua definida en Id = {x : |x − x0| < d = o o m´ ın(a. por tanto d = m´ ın(a. y) − f (x. En este caso ´ la soluci´n es y = tan x definida s´lo en [0. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. b/M )} tal que su imagen est´ contenida en R. Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la soluci´n. N´tese o que con esta elecci´n se tiene que si |Y (x)| ≤ M entonces Y ≤ N M . b/(1 + b2 ). M = b. b/M. Problemas Problema 7. Entonces. Las correspondientes o demostraciones se dejan como ejercicio. es decir existe una unica funci´n y(x) tal que y (x) = f (x. b/M. Encuentra las tres primeras aproximacioo nes de la soluci´n. Escojamos un valor cualquiera para y.1) o o en Id . m´x b/(1 + b ) = 1/2 y se alcanza en b = 1. y el teorema anterior nos garantiza s´lo la soluci´n en el intervalo Id = {x : |x − x0| < d = m´ o o ın(a. 1/b). digamos que |y| ≤ b > 0. Problema 7. por lo que como mucho asegurar a que la soluci´n existe en el intervalo |x| < 1/2. el PVI (7. Para este ultimo podemos usar la definici´n ´ o |Y (x)| = N |yk |.2). Entonces K = 2b y M = 1 + b2 .1) tiene soluci´n unica en el intervalo Id = {x : |x − x0 | < d = o ´ m´ ın(a.

x ∈ [0. Problema 7. 1/2] 2. x ∈ [0. 3/10] 3.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 71 Problema 7. y = y 2 + cos x2 . 1/2] Problema 7. a o . Comp´ralas con la soluci´n exacta.12 Encuentra las cuatro primeras iteraciones de la sucesi´n de Picard para el o PVI y = 1 + y 2 . y(0) = 0. y = y 3 + e−5x . y(0) = 0.11 Encuentra las tres primeras iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e . y = x + y 2 . x ∈ [0. y(0) = 0. y(0) = 0.10 Prueba que la soluci´n de cada uno de los siguientes PVI existe en el o intervalo indicado 1. y(0) = 2/5.

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace
 

Definici´n 8.1 Sea f una funci´n definida en [0, ∞). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
 

∞ 0

e−tx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea
∞ 0 z

e

−tx

f (x)dx = l´ ım

z→∞

e−tx f (x)dx.
0

Definici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo x ≥ 0. Teorema 8.3 Si f es una funci´n continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t suficientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace m´s comunes incluida a la de la funci´n escal´n χc (s) definida como 1 si x ∈ [0, c] y 0 en el resto. o o
 

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a , t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
         

n−1 k (n−k−1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4. [χc (x)f (x − c)] = e−ct F(t).
     

73

[xnf (x)](t) = (−1)n F(n) (t).

5. Definiremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f ∗ g)(x) o o definida por
x

(f ∗ g)(x) =
     

0

f (x − z)g(z)dz.

(8.2)

Entonces, [(f ∗ g)(x)](t) = [f (x)](t) · [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0 sen(ωx), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y − 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede expresar en serie como o Y(t) = c
∞ n=0

(−1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 3.

3 −2 2 −2

1 − χπ (x) 0

Y (0) =

a = 1 sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x . b). la funci´n F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x. 2. si F (x) es una dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx g(x) dx Teorema A. 2. log a a > 0.3 El conjunto de todas las primitivas de una funci´n f (x) definida en (a. 3. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. Definici´n A.1) f (x) dx. De manera que. b) si para todo x de (a. d dx f (x) dx = f (x) (A. α+1 ∀α ∈ R. 8. b) se o o denomina integral indefinida de f (x) y se denota por primitiva de f (x). Entonces.´ A ANEXO: CALCULO DE PRIMITIVAS 75 A. Anexo: C´lculo de primitivas a Definici´n A. 4. 0 dx = C 1 dx = x + C xα dx = xα+1 + C. b). α = −1 1 dx = log |x| + C x ax dx = ax + C. 5. F1 (x) − F2 (x) = const. 6. Es decir dada una funci´n f (x) sus primitivas difieren en una o constante (en adelante denotaremos por C a una constante cualquiera). 4. Teorema A.5 Tabla de Integrales 1. b) se tiene que F (x) = f (x). Por ejemplo.1 Se dice que una funci´n F (x) es una primitiva de otra funci´n f (x) sobre un o o o intervalo (a.) 1. 7. 3. f (x) dx = F (x) + C Mediante una simple derivaci´n es sencillo comprobar el siguiente o Teorema A.4 (Propiedades de la integral indefinida.2 Sean F1 (x) y F2 (x) dos primitivas de la funci´n f (x) en (a. para todo o x de (a.

1.1. 12. M´todos de integraci´n. 13. 17. 10. 15. o o sea. o Ejemplo A. 16.6 Sea t = φ(x) una funci´n derivable en x y sean X = (a.1. e o Integraci´n por cambio de variable. Supongamos que sobre el conjunto T existe la primitiva de la funci´n g(t). g(t)dt = G(t) + C. b)] o la imagen de φ(x). Como la integral no es de la tabla es necesario convertirla en una de la tabla. b) el dominio y T = φ[(a.7 a) Calcular cos(2x) dx. Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) = g[φ(x)]φ (x). b) la funci´n g[φ(x)]φ (x) tiene una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C. Como la integral no es de la tabla es necesario convertirla en una de . Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2 ecos x sen x dx.´ A ANEXO: CALCULO DE PRIMITIVAS 1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C 76 9. o Teorema A. 11. A. 1 √ dx = log x + 2±1 x x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x A. 14. Entonces sobre todo el conjunto (a.

eax cos bx dx. sen(log x) dx y cos(log x) dx. . u(x) = − 1 cos bx b I= eax cos bx a + b b integraci´n por partes: o eax sen bx dx = =− eax cos bx dx. Como la integral no es de la tabla es necesario convertirla en una u(x) = eax . (A. b b b de donde. respectivamente.. Integraci´n por partes. Juntando las dos f´rmulas anteriores concluimos que o eax sen bx a a2 + 2 eax cos bx − 2 I. encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes n veces tomando o o cada vez u(x) = (ax + b)n .. Las integrales (ax + b)n sen cx dx. Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax sen bx dx. du(x) = aeax dx dv(x) = sen bx dx.3) v(x)u (x) dx. (ax + b)n cos cx dx y (ax + b)n ecx dx. Las integrales donde aparezcan las funciones log x. La integral eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar ı u(x) = eax . Utilicemos la integraci´n por partes: o xn log x dx = xn+1 n+1 = xn+1 log x − n+1 xn dx = n+1 = log x − 1 n+1 +C b) Calcular I = eax cos bx dx.. Entonces. Ejemplo A. v(x) = x n+1 tabla. o 77 Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a. (A. du(x) = aeax dx dv(x) = cos bx dx. log φ(x).2. du(x) = x dx n+1 dv(x) = xn dx.. u(x) = (ax + b)n−1 .´ A ANEXO: CALCULO DE PRIMITIVAS A. resolviendo la ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C. entre otras donde tendremos que escoger como funci´n o u(x) a alguna de las funciones anteriores (ver ejemplo a). aplicar dos veces integraci´n por partes y resolver la ecuaci´n resultante respecto a I (ver o o ejemplo b). . Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores.1.4. arc cos x. sobre (a. Como la integral no es de la tabla es necesario convertirla en una de la 1 u(x) = log x. Donde para 2. 3. b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) − o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x).8 a) Calcular xn log x dx. v(x) = 1 sen bx b eax sen bx a − b b de la tabla. Las integrales de la forma eax sen bx dx. b). I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integraci´n por partes son: o 1.2) Demostraci´n: Para probarlo es suficiente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A. arc sen x. b) y existe la primitiva de la funci´n v(x)u (x) en (a. potencias enteras de las funciones anteriores.

5) con P n (x).10 Supongamos que donde k < m. xp son las ra´ces reales de Qm (x). o sea..2. Entonces. Mi . el Ani de A ni Ani −1 A1 + + ··· + . y los factores x2 + pi x + qi . (A.´ A ANEXO: CALCULO DE PRIMITIVAS 78 A. Ni . Mi . si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2 ) · · · (x − xm−1 )(x − xm ). si Qm (x) tiene m ceros reales y simples. a Igualando los coeficientes de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos resolver para encontrar los coeficientes indeterminados A i . o sea. Li y Ki son ciertas constantes reales. ..4) y el numerador es un polinomio de grado a lo sumo n.9 Diremos que una funci´n racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + . Bi . Qm (x) (A. i = 1. (A.7) entonces. si n < m. k no tienen ı Pn (x) ra´ces reales. la fracci´n simple ı o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1 )n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· + + ···+ np np −1 (x − xp ) (x − xp ) (x − xp ) (A. Ni .4) donde x1 . Qm (x) Qm (x) Teorema A. y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp )np (x2 + p1 x + q1 )m1 · · · (x2 + pk x + qk )mk . N´tese que el denominador e o com´ n coincide con (A. Definici´n A. Li y Ki . ni ni −1 (x − xi ) (x − xi ) (x − xi ) utilizando la propiedad que x→xi l´ ım Pn (x)(x − xi )ni = A ni . + ··· + 2 mk + pk x + q k ) (x + pk x + qk ) donde Ai . Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones m´s simples en (A. o sea. Qm (x) (x − x1 ) (x − x2 ) (x − xm−1 ) (x − xm ) (A. Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1 Am = + + ··· + + .6) Como consecuencia de lo anterior. .5) M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk . o Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x). Integraci´n de funciones racionales. Bi .8) .. Para determinar dichas constantes sumamos los t´rminos de la derecha.. No obstante es posible encontrar el coeficiente Ani de los sumandos correspondientes a uno de los ceros reales xi .. Pn (x) es una fracci´n simple.

C.´ A ANEXO: CALCULO DE PRIMITIVAS donde A1 . (x − 1)(x − 2) −1 2 + x−1 x−2 B = l´ ım x→1 x→2 Finalmente.. En nuestro 7 Se supone que x2 + px + q no tiene ra´ reales. (x − 1)2 (x2 + 1) Para encontrar los coeficientes A. xn+1 (distintos entre si)... x−a B 1 B dx = + C. 7 (A. es decir.. si P n (xk ) = Qn (xk ) e para ciertos x1 .11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A dx = A log |x − a| + C.. entonces Pn (x) ≡ Qn (x) para todo x ∈ R. (A. . x y x0 son iguales.9) Teorema A. 2 x2 + px + q 2 4q − p 4q − p2 x dx. utilizando (A. utilizando (A. por lo que igualando dichos coeficientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 : B + C − 2D = 1 : A−B +D = 0 1 A= 2 B=0 C=0 D = −1 2 cuya soluci´n es o Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n − 1 valores iguales en n + 1 puntos dados son id´nticamente iguales. Primero encontraremos las fracciones simples mas elementales: − 3x + 2 x2 x x A B = = + .9) obtenemos A = l´ ım x(x − 1) = −1. B.. Dos polinomios de grado 3 son iguales si los coeficientes de las potencias x 3 . ıces . x dx.. (x − 1)(x − 2) Ejemplo A.12 a) Calcular x2 Luego. Am se calculan por la f´rmula o Ak = l´ ım x→xk 79 Pn (x)(x − xk ) . D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . 2.10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx = − log |x − 1| + 2 log |x − 2| + C... − 3x + 2 (x − 1)(x − 2) x−1 x−2 x(x − 2) = 2.. Primero encontraremos las fracciones simples mas elementales: (x − 1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x − 1 x +1 A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . k (x − a) 1 − k (x − a)k−1 k > 1. . x2 . Qm (x) k = 1.10) 3) M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C. m.

cos x) dx las cuales se En este apartado vamos a estudiar las integrales de la forma   t = tan x  2   sen x =      convierten en integrales racionales mediante la sustituci´n trigonom´trica t = tan x . e x 1 dx = (x − 1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. Integrales trigonom´tricas. e f (sen x. cos x). t 2 Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar con cambios m´s e a sencillos. cos x). 3. Esta integral es del tipo 1. f (sen x. − cos x) = f (sen x. Luego. (x − 1)2 x2 + 1 2(x − 1) 2 A.13 Calcular la integral dx = sen x dx . − cos x) = −f (sen x.´ A ANEXO: CALCULO DE PRIMITIVAS 80 ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los m´s sencillos posibles: a 1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A + 5B + 2C + D = 2 x=0: A−B +D = 0 cuya soluci´n es o A= 1 2 B=0 C=0 1 D = −2 que coincide con la encontrada por el m´todo anterior. 2 1−t 2 1−t 2 x 2 dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x = t que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o . sen x =− 1 x 1+t dt = − log +C = log tan +C. 1 + t2 1 + t2 2 dt. cos x) = −f (sen x. cambio t = cos x f (sen x. o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 . donde f (− sen x.3. 2. cos x) dx. o Ejemplo A. cos x). Luego. cos x) dx. sen x 2dt dx = 1+t2 2 cos x = 1−t2 1+t t = tan x 2 2t sen x = 1+t2 = x dt = log |t| + C = log tan + C. cos x) dx = 2t 1 + t2 = f que es un integral de una funci´n racional. donde f (− sen x. cambio t = sen x f (sen x. cos x) dx. Ellas son las siguientes: 1. 1 + t2 f (sen x. donde f (sen x.14 a) Calcular la integral dx = sen x dx . cambio t = tan x Ejemplo A.

por tanto a2 − x2 + C. y f x. Estas integrales irracionales se convierten en integrales trigonom´tricas mediante los cambios: e 1. cambio x = a sen t x2 + a2 ) dx. Esta integral es del tipo 1. Esta integral es del tipo 2. a2 − x2 ) dx. cos2 t dt = sen3 t y = cos t sen t = 1− y2 dt = − √ dy cos t = y + C. x2 ± a2) dx y √ f (x.4. 2. cambio x = a tan t Ejemplo A. Luego. a2 x x arc sen + 2 a 2 x2 − a2 dx. f (x.4. x = a sen t dx = a cos tdt = a2 2x a2 a2 − x2 dx = cos2 tdt = a2 a2 t+ sen 2t + C. 2 4 √ pero.15 a) Calcular la integral a2 − x2 dx. a2 − x2) dx. Luego. Esta integral es del tipo 2. cambio x = a sen t x2 − a2 ) dx. Las integrales √ f (x. 1 − t2 dt = t− t3 +C = sen x− 3 3 cos3 x dx = dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t = c) Calcular la integral tan3 x dx. t = tan x 1 cos x = √1+t2 dt dx = 1+t2 t sen x = √1+t2 tan3 x dx = = t3 dt = 1 + t2 t− t dt = 1 + t2 = t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = + log | cos x| + C. a2 − x2 ) dx A. √ f (x. f (x. sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2 dx = b) Calcular la integral   x= √ a2 − x2 . 3. √ f (x. n En este apartado vamos a estudiar las integrales de la forma ax+b cx+d dx. Luego. Esta integral es del tipo 3. 2 2 2 2 2 A. sen3 x 1 +C.´ A ANEXO: CALCULO DE PRIMITIVAS 81 b) Calcular la integral cos3 x dx.1. Integrales irracionales. x2 ± a2 ) dx. Luego. f (x. 1−y 2 = a2  a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt  sen2 t a2 y2 dt = (1−y 2 )2 4 y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y+1 .

b).16 Calcular la integral √ dx √ .´ A ANEXO: CALCULO DE PRIMITIVAS pero. Luego. y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 − √ x2 −a2 . ax+b cx+d . . Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A. Esta integral es del tipo 3. x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C. 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3 (t−1)dt+3 = t(t−2)+3 log(1+t)+C. n ax + b cx + d dx.2. (A.17 Teorema fundamental del c´lculo y F´rmula de Newton-Leibniz. x2 + a2 dx = =a 2 1−y 2 = a2 a2 1 dt = (1 − y 2 )2 4 √ tan t 1+tan2 t y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y−1 = √ x . Luego. deshaciendo el cambio t = 3 x + 1. n ax + b cx + d dx. F (x) = c f (t) dt. c ∈ (a. b] y una de ellas es la funci´n o x n x. x x2 + a2 dx = 2 √ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x A. obtenemos √ √ 3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C. a Teorema A. b]. =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 √ de donde. f (x) es integrable en [a.12) siendo Φ(x) una primitiva cualquiera de f (x). x = 2 √ x − x 2 − a2 x a2 √ log +C = 2 − a2 4 2 x+ x c) Calcular la integral x2 + a2 dx.11) Adem´s. 2 El c´lculo de primitivas es necesario para calcular integrales definidas de funciones continuas. b] y a b b f (x) dx = Φ(x) a a = Φ(b) − Φ(a). b] → R a o continua en [a. Las integrales f x. (A. Entonces f tiene primitiva en [a. Sea f : [a. x 82 por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C. x2 +a2 pero. y = sen t = por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C. Esta integral se racionaliza con el cambio t = 3 x + 1.4.

Si un sistema lineal de la forma (B. y se denomina matriz ampliada del sistema. . Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. an3 · · · anm  se le denomina matriz de coeficientes del sistema.. . .1) .  (B. . . . . . B.. 2. .1). . .1) est´ completamente caracterizado por su matriz asociada que no a es m´s que la matriz en cuya fila i (i = 1. . Si existen dichos valores diremos que el sistema tiene soluci´n. . . Un sistema compatible que tiene una unica soluci´n se llama determinado ´ o y si tiene infinitas soluciones indeterminado. .. xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B. Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B.1. . A  a11 a12  a21 a22   .1). . o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de cualquier otra ecuaci´n. . . . 2. an1 an2   . n) est´n colocados los coeficientes a ij (j = 1... . x2 . a El sistema de ecuaciones (B.. m) a a y el t´rmino independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B. . Multiplicar por una constante no nula una ecuaci´n cualquiera.  . 2. . .. Multiplicar por una constante no nula una fila cualquiera. De forma que a cada una a le corresponden las siguientes operaciones por filas 1. . .  . 3.1) no tiene soluci´n decimos que es o o un sistema incompatible. o e u o Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su an´logo al operar con las matrices.1) es compatible si existen los valores de x 1 . . ´ Anexo: Algebra lineal Sistemas lineales y matrices.  . Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones. Intercambiar dos ecuaciones.´ B ANEXO: ALGEBRA LINEAL 83 B. ..2)  .  .. . Intercambiar dos filas.3) Un sistema lineal de la forma (B. De esta forma e e o la matriz asociada al sistema (B. an1 an2 an3 · · · anm bn la matriz a13 · · · a1m a23 · · · a2m . . .    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de dimensiones n×m no es m´s que una “caja rectangular” con n filas y m columnas...1) tendr´ la forma a   a11 a12 a13 · · · a1m b1  a21 a22 a23 · · · a2m b2    (B. 2.

Utilizando las formas escalonadas a anteriores (B.  0 0 1 0 0 ∗ . 3. es decir se cumple el siguiente teorema: ´ Teorema B. Todas las filas no nulas est´n por encima de las nulas. o En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente de cero. y que adem´s sean los unicos elementos diferentes de cero de la columna a ´ entonces diremos que la matriz escalonada est´ en forma reducida. ıa Debajo de cada elemento gu´ s´lo puede haber ceros. Una consecuencia del teorema anterior es que los elementos gu´ est´n siempre en la misma ıas a posici´n en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de fila. 2. e u Las operaciones anteriores se denominan operaciones elementales de filas. Dichas posiciones se denominan pivotes y las columnas donde se Las matrices escalonadas tienen  ∗ ∗  0 ∗   0 0 0   0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 ∗ ∗ 0 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗    . 84 Reemplazar una fila por la suma de ´sta mas un m´ ltiplo de cualquier otra fila.   (B. a El elemento gu´a de cada fila se encuentra siempre en una columna a la derecha del elemento ı gu´ de la fila anterior.1 Cualquier matriz es equivalente por filas a una unica matriz con forma escalonada ´ reducida.4) tenemos que sus correspondientes formas reducidas son:     1 0 0 0 0 ∗ 1 0 ∗ ∗ 0 0 ∗  0 1 0 0 0 ∗   0 1 ∗ ∗ 0 0 ∗       0 0 0 0 1 0 ∗ . Definiremos elemento gu´ de una fila al primer elemento (por la izquierda) no nulo de la fila. Diremos que dos matrices son equivalentes por filas si a cualquiera de ellas la podemos transformar en la otra utilizando s´lo operaciones elementales de filas.´ B ANEXO: ALGEBRA LINEAL 3. Si exigimos ahora que los elementos gu´ ıas ıas donde sean todos iguales a 1. Formas escalonadas y el algoritmo de reducci´n por filas. o B.5)      0 0 0 1 0 ∗   0 0 0 0 0 1 ∗  0 0 0 0 1 ∗ 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una matriz con forma escalonada no teniendo siempre ´sta ultima una forma unica. ıa Diremos que una matriz est´ en forma escalonada si: a 1.2. ıa o t´ ıpicamente la forma:   ∗ ∗ ∗ ∗  ∗ ∗ ∗ ∗    0 ∗ ∗ . Por el contrario las e ´ ´ formas escalonadas reducidas son unicas. (B.4) .     ∗  0 0 0 0 0 0 denota a los elementos gu´ de cada fila. Es importante recordar que las o operaciones elementales de filas son reversibles y por tanto las operaciones elementales descritas no cambian la soluci´n del sistema original de ecuaciones.

Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. B. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando. Esta fase se le denomina fase hacia abajo o subproceso hacia abajo.3. las filas de la matriz hasta que dicho elemento se encuentre en la posici´n de pivote. 4. Este ser´ el primer pivote. las cuales pueden venir expresadas en funci´n de las variables libres.´ B ANEXO: ALGEBRA LINEAL 85 encuentran se denominan columnas pivotes. Este proceso consta del siguiente paso: 5. Para ello primero transformamos la matriz en una equivalente por filas que tenga forma escalonada o escalonada reducida. 3. Si el pivote no es uno dividimos por su valor para que lo sea. o Utilizando las operaciones elementales de filas crear ceros debajo del pivote. Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. As´ por ejemplo ı. Este proceso consta de cuatro pasos: 1. ceros encima del mismo. Soluci´n de un sistema de ecuaciones lineales. pivote ↓  ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗   0 0 0 0 ∗   0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote Algoritmo de reducci´n por filas. o La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. Este paso se repite hasta que no queden m´s filas no nulas. Tapamos la fila (o filas si hay m´s de una) con la posici´n pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las filas restantes).6) Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. La soluci´n o de un sistema viene dada al escribir el valor de las variables principales. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda. 2. El resto de las variables se denominan variables libres.   (B. o El algoritmo de reducci´n por filas consta de dos fases (partes). Las variables correspondientes a las columnas pivote se denominan variables principales o b´sicas. La primera consiste en transo formar una matriz cualquiera en una equivalente por filas con forma escalonada. Comenzando por el primer pivote de la derecha creamos. o . mediante operaciones elementales de filas. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. a El significado de una variable libre es que dicha variable puede tomar cualquier valor. a ∗ ∗ ∗ ∗ 0    . La segunda parte consiste en transformar la forma escalonada en la forma reducida. si es preciso.

Por ejemplo. al tener la fila ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que por definici´n es diferente de cero). x2 .     =   ⇐⇒ x1 = y1 . el sistema (x1 depende de la variable libre x3 )    1 0 −5 1  x1 = 1 + 5x3  0 1 0 4  tiene la soluci´n o x2 = 4 (B..4.. x2 dependen tanto de los t´rminos independiente como de las variables e libres x3 . consideremos la matriz del sistema (B. xn = yn . .8) ∗ ∗ . . yn      xn Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero. xn es decir un vector es una matriz de componentes) del vector x. Es decir fijando diferentes valores de x3 .  .´ B ANEXO: ALGEBRA LINEAL 86 Por ejemplo. o lo que es igual.4. De o a la forma de la matriz observamos que x5 .1. x4 obtenemos diferentes valores de x1 .. xn son n´ meros reales. B.2 Un sistema de ecuaciones lineales en compatible si y s´lo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote.  . x5 ..7)  x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B... x6 est´n completamente determinados por los t´rminos a e independientes (recordar que la ultima columna est´ compuesta por los t´rminos independientes ´ a e de las ecuaciones) pero x1 . no existe ninguna fila de la forma (0 0 0 · · · 0 α) con α diferente de cero. n × 1.. ıa o B. Los valores x1 .4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). . x4 . o sea  x1  x2  x=y ⇐⇒  . . . Vectores y ecuaciones matriciales. . o sea. Vectores de Rn Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a u   x1  x2    x =  . u  . . donde x1 .. x6 y las libres x3 . x2 .     0 0 0 0 0 0 0 0 0 0 0 0 0 es incompatible al ser la ultima columna una columna pivote. Diremos iguales. Las variables principales ser´n x 1 .6). Si el sistema es compatible entonces tiene soluci´n unica (sistema compatible determinado) si no hay ninguna variable libre y tiene infinitas o ´ soluciones (sistema compatible indeterminado) si existe al menos una variable libre. .. x4 . Dicha matriz representa un sistema de 5 ecuaciones con 6 inc´gnitas. Por el contrario el sistema correspondiente a la matriz   ∗ ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗ ∗     0 0 0 0 (B. xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son   y1 y2 . Por ejemplo. los sistemas correspondientes a las dos matrices (B.

an ) = α1 a1 + α2 a2 + · · · + αn an . Es f´cil o a comprobar que la ecuaci´n vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b]. + ..... Operaciones con vectores.. z.         x1 + y1 y1 x1 z1  z2   x 2   y 2   x 2 + y 2          z = x+y =⇒ . .. . respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + · · · + α n an . wn αxn Sean x..   .. an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 .   . . quienes quiera sean α1 . ..   .. ... an de Rm y lo denotaremos como span (a1 ...  . 5. .. . a2 . Definiremos espacio generado por los vectores a1 . 8.  =  .... 2.. a2 . 6.  =  . Adem´s b est´ en span (a1 .   . an ) si y s´lo si el sistema [a1 a2 · · · an b] es compatible. β n´ meros reales. es decir.2. . o sea. an ) = L(a1 . . zn xn yn xn + yn x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1) x α(x + y) = αx + αy (α + β)x = αx + βx α(βx) = (αβ)x 1x = x Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 .  . n´ meros reales. Definiremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y.4.     w1 αx1  w2   αx2      w = αx =⇒  .. an de Rm con o pesos α1 . 4. al conjunto de todos los vectores de la forma L(a1 . .... 3. a2 . a a o .  ... 7.. an ) = span (a1 .. . y. xn son las inc´gnitas que se quieren encontrar. u Definiremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2 a2 + · · · + xn an = b. . . w vectores de Rn y α.. o sea. .. 87 Dichas operaciones cumplen las propiedades 1. . . donde b es un vector dado de Rm y x1 . an .. αn n´ meros reales..  =  .´ B ANEXO: ALGEBRA LINEAL B.   . x2 .. . x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x y definiremos la multiplicaci´n de un vector x por un escalar (n´ mero) α al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por α.. αn .

a2 . ... x.. o Regla para el c´lculo de Ax. .. la cual a su vez tiene la misma soluci´n que el sistema cuya matriz ampliada tiene la forma o [a1 a2 · · · an b]. a2 .. ..3 Sea A una matriz m×n con columnas a1 .. . a2 . 3) A tiene una posici´n pivote en cada fila. .  . ...  . Las siguientes tres afirmaciones son equivalentes: 1) Para todo b vector de Rm .      a11 a12 a13 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn        . .3. ..4 Sea A una matriz m×n con columnas a1 . . . Definiremos la multiplicaci´n de una matriz A de m × n por un vector x de R n al vector z de Rm o definido por   x1  x2    z = Ax = [a1 a2 · · · an ]  . .  . La ecuaci´n o matricial Ax = b tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · + xn an = b. .5 Sea A una matriz m × n con columnas a1 ..  . an . an . Las siguientes propiedades son v´lidas: u a 1) A (x + y) = A x + A y.. La ecuaci´n Ax = b.   . an )... Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´ definido) tenemos que sumar los productos de la i−´sima fila de A por las coordenadas de x. . an y b un vector de Rm . . 2) A(α x) = α (A x) . o 88 Sea A una matriz m × n con columnas a1 . an (vectores de Rm ) y x un vector de Rn .  = x1 a1 + x2 a2 + · · · + xn an . am1 am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn Teorema B..4.  =  . . y vectores de Rn y α un n´mero real cualquiera.´ B ANEXO: ALGEBRA LINEAL B. a2 . Una consecuencia de este teorema es que la ecuaci´n A x = b tiene soluci´n si y s´lo si b es una o o o combinaci´n lineal de las columnas de A. .  . . o o 2) Las columnas de A generan Rm . a e o sea.  .  . o sea. Rm = Span(a1. la ecuaci´n A x = b tiene soluci´n. a2 . o Teorema B. xn Teorema B..

. · · · . e Teorema B.7 Un conjunto S = {a1 . o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dem´s por cero. x3 ) o  3   3     1  1 x1 x − 2 x3 −2 2 2 2   . an de Rn se denomina linealmente independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. x es un vector de R n y b es un vector de Rm . an se denomina linealmente dependiente si existen los valores x1 . entonces  x2  = x2  1  +x3  0  x2 x3 x3 0 1 s1 s2 2. 1. xn no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. . es decir. El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo. 89 Conjunto soluci´n de los sistemas lineales.. .4. si o existe un n´ mero real α tal que a1 = αa2 o a2 = αa1 . o sea la matriz A tiene al menos o una columna que no es pivote. Un conjunto de vectores a1 .´ B ANEXO: ALGEBRA LINEAL B. . o Todo sistema lineal de m ecuaciones con n inc´gnitas se puede escribir en forma matricial o A x = b donde la matriz de coeficientes A es una matriz m × n. donde xh es la soluci´n general del sistema homog´neo correspondiente A x h = 0. Para obtener los vectores s1 . u .. a ı Por ejemplo si la soluci´n x de A x = 0 viene dada por (dos variables libres x 2 . Entonces el conjunto soluci´n del sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh . sp cuyo n´ mero coincide con el de las u variables libres del sistema. tiene como unica soluci´n la trivial x1 = · · · = xn = 0.. a2 .. a2 . El conjunto soluci´n de un sistema homog´neo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 . El sistema lineal A x = 0 se denomina sistema homog´neo. s2 . x2 ... a2 . Sea p una o soluci´n de A x = b (soluci´n particular). o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales.. . Y as´ sucesivamente.4. Teorema B.6 Supongamos que A x = b tiene soluci´n para cierto b de R m . .. ap } de dos o m´s vectores es linealmente dependiente a si y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. Adem´s se cumple que el sistema homog´neo tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una variable libre.. El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dem´s por cero.. sp se puede hacer lo siguiente: 1) Escribir el vector soluci´n x expresando las variables principales en funci´n de las libres. o e (B..4.. Dependencia e independencia lineal. s2 ..5. ´ o Un conjunto de vectores a1 ..9) B. Dicho sistema siempre tiene la e soluci´n trivial x = 0.

Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n.8 Un conjunto S = {a1 .5.. Definiremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por α.. El elemento a ij de una matriz A es el que se encuentra situado en la intercepci´n de la fila i con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n . an } de dos o m´s vectores de Rm con alguno de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto de vectores linealmente dependientes. .. . an necesariamente cada vector es combinaci´n de los anteriores. an } de dos o m´s vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente.10 Sean A. Suma de matrices y multiplicaci´n por un escalar. bn son vectores de Rm . .. .     (B. o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 . . β n´meros reales. . Vamos a estudiar las operaciones elementales de las matrices. Teorema B. o bien α A ≡ α||aij || = ||α aij ||.1. es decir. .. 6. . . . . .. . . . · · · aij · · · ain . . donde a1 . A + 0 = 0 + A = A. . a12 a22 . b2 . an y b1 . donde 0 ≡ ||0|| es la matriz nula. α(β A) = (α β) A. . . o o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||. Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de m × n...10) B. 5.. .. ..      .. 2. . . 4.. . o Teorema B. a2 . . B y C matrices de m × n y α.. . o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. a2 .9 Un conjunto S = {a1 . es decir: αA = α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ]. a2 . α(A + B) = αA + αB.... . . Entonces: u 1... 3. A + B = B + A. · · · amj · · · amn      fila i →  ai1 ai2   . . B.5. a2 . ´ Algebra de matrices. an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores. a2 . es decir: C = A + B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ]. Teorema B. . . Definiremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 . am1 am2  a11 a21 . . . (A + B) + C = A + (B + C).´ B ANEXO: ALGEBRA LINEAL 90 2) Si a1 .  . (α + β)A = α A + β A. .. .

. (A · B) · C = A · (B · C). entonces a la aplicaci´n Q : R p −→ Rm definida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la matriz A · B de m × p. Teorema B. B y C matrices de dimensiones apropiadas para que est´n e definidas las operaciones y α.11 Sean A de m × n. la matriz transpuesta de A. donde 0 ≡ ||0|| es la matriz nula. 2. 4.2. Entonces: u 1. 2. donde Ik es la matriz identidad de k × k. A · 0 = 0 · A = 0. . es la matriz de n × m cuyas filas coinciden con las columnas de A. (A1 · A2 · · · An )T = AT · AT · · · AT . 3. A · (B + C) = A · B + A · C. es decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A . entonces AT = ||aji ||. k=1 Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una aplicaci´n lineal con matriz B de n × p. (A + B)T = AT + B T . Si A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0. (B + C) · A = B · A + C · A. k veces donde A0 ≡ In . u definiremos la potencia k− ´sima de A por la f´rmula e o Ak = A · A · · · A ·In . B una matriz de dimensiones apropiadas para que est´n definidas e las operaciones y α un n´mero real. 6. Es importante recordar que la multiplicaci´n de matrices no es conmutativa.5. α(A · B) = (α · A) · B. Entonces: u 1. Im · A = A · In = A..´ B ANEXO: ALGEBRA LINEAL B.12 Sean A de m×n. β n´meros reales.11) aik bkj . 1 n−1 n Como consecuencia de este teorema tenemos que . k=1 N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de A: o o n n A · B = [Ab1 Ab2 · · · Abp ] = [ bk1 ak k=1 k=1 bk2 ak · · · bkp ak ]. Transposici´n de matrices.5. o elemento a elemento: ||(A · B)ij || = n n (B. 1. 3. (α A)T = α AT . (A · B)T = B T · AT . 2. o Teorema B. Si A = ||a ij ||.3. o Dada una matriz A de m × n. Se define la matriz producto C = A · B a la matriz de m × p definida por: A · B = A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ]. Multiplicaci´n de matrices. 5. que denotaremos por A T . (AT )T = A. 4. B. o 91 Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p.).

Las matrices A para las cuales existe la inversa A−1 se denominan invertibles. 1 y la que multiplica la 2 fila por el n´ mero α ser´ u a   1 0 0 E3 =  0 α 0  . y su soluci´n se expresa por la f´rmula o o −1 b. entonces a C se le denomina matriz inversa de A y se le denota A −1 . (A−1 )−1 = A.´ B ANEXO: ALGEBRA LINEAL B. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n . El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le denota por det A. Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1 · A−1 · · · A−1 . (A · B)−1 = B −1 · A−1 .13 Sea A una matriz cuadrada de 2 × 2 invertible A= a b c d . 92 Sea A una matriz de n × n. Si A es invertible entonces A−1 es unica. . 3. Matrices elementales. 0 0 1 Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 filas. Por ejemplo.14 Sea A una matriz cuadrada de n × n invertible. al multiplicar por una constante no nula una fila cualquiera y al reemplazar una fila por la suma de ´sta mas una combinaci´n lineal de cualquier otra. ´ Teorema B. es decir son las que se obtienen al intercambiar dos filas.5. n n−1 1 B.5. x=A Teorema B.5. N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo si det A = 0. 2. Si existe una matriz C tal que A · C = In . Entonces: 1. AT es invertible y (AT )−1 = (A−1 )T .4. Una matriz elemental de n × n es aquella que se obtiene al realizar una operaci´n elemental o de filas sobre la matriz identidad de n × n.15 Sean A y B matrices cuadradas de n × n invertibles. E1 = 0 0 1 la que corresponde a cambiar la 3 fila por la 3 m´s α a  1 0  0 1 E2 = α 0 veces la primera ser´ a  0 0 . la matriz elemental e o correspondiente al intercambio de la 1 y 2 filas de una matriz de 3 × 3 ser´ a   0 1 0  1 0 0 . C · A = In . o Teorema B. La inversa de una matriz cuadrada. entonces A−1 = 1 ad − bc d −b −c a .

. o sea.16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es equivalente por o filas a la matriz identidad In de n × n en cuyo caso toda secuencia de operaciones elementales que reducen A a In . E2 · A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m´s α a a veces la 1 fila y E3 · A coincide con la matriz que se obtiene al multiplicar por α la 2 fila. 4. La inversa de E2 es o   1 0 0 −1 E2 =  0 1 0  . 2. N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A · B = I. A es invertible. Teorema B. Por ejemplo. −α 0 1 y la de E3 es  −1 E3 =  0  1 0 0 1 α 0 0 1  0 . 6.  Teorema B. . (Las columnas de A son linealmente o o independientes. Reducimos por filas la matriz A a In . donde e1 . A[b1 · · · bn ] = [A b1 · · · A bn ] = [e1 · · · en ] = In . · · · A b n = en .´ B ANEXO: ALGEBRA LINEAL 93 An´logamente. Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 . Existe un D tal que D · A = I. Ello implica que A ∼ Ek · Ek−1 · · · E1 · A = In . Es decir al multiplicar una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E · A que coincide con la matriz que se se obtiene al realizar la operaci´n elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m × m la misma operaci´n elemental que o se quiere realizar sobre A. Luego A = (Ek · Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1 · · · E1 · In . (A tiene n posiciones pivote) A es un producto de matrices elementales. A b 2 = e2 .17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de n × n. Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1. b es un o o elemento del subespacio generado por las columnas de A (la soluci´n de A x = b es unica). reducen In a A−1 . Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operaci´n inversa. . la inversa de E1 es E1 . 5. en son las columnas de la matriz identidad. La ecuaci´n A x = 0 solo tiene la soluci´n trivial. 3. 2. A es equivalente por filas a la matriz identidad In de n × n. entonces [A In ] ∼ [In A−1 ].. o ´ Existe un C tal que A · C = I. o sea. Las o siguientes expresiones son equivalentes: 1.) La ecuaci´n A x = b tiene al menos una soluci´n para cada b vector de R n . 7. Construimos la matriz [A In ]..

AT es invertible. .. .  . . . . · · · ann  se obtiene a partir de A si quitamos la fila i y la columna · · · a1j−1 a1j+1 . . . . Utilizando esta notaci´n tenemos que la definici´n anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + · · · + a1n C1n . . anj+1 · · · ann · · · a1n . B. . an1 an2       ai−11 ai−12  ai2 fila i →  ai1   a  i+11 ai+12  . o Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j . Sea A una matriz n×n (n ≥ 2). . . . B = A−1 . . 94 Una consecuencia de este teorema es que si A · B = I o B · A = I. . . . . . ··· ··· . .6. . .  ai−11 ai−12 Aij =   ai+11 ai+12   .1.13) Denotaremos por Aij a la submatriz que j. a12 a22 .´ B ANEXO: ALGEBRA LINEAL 8. entonces A y B son invertibles y A = B −1 .. . . que se conoce como desarrollo del determinante de A por su primera fila. . . .. Definici´n de determinante de una matriz cuadrada. . . . . . M´s exactamente: a det A = a11 det A11 − a12 det A12 + · · · + a1n (−1)n+1 det A1n . a1j+1 a2j+1 . El determinante det A de la matriz A es la suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes submatrices obtenidas eliminando la fila 1 y la columna j. . o sea  a11 a12  .           . (B.  .       (B. an1 an2  a11 a21 .13). · · · anj−1 anj ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n . · · · ai−1n · · · ai+1n .12) que coincide con el determinante definido en el cap´ ıtulo anterior (teorema B. . . . . . . Usualmente a la cantidad (−1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij .  · · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1 ai+1j . . . . . . . donde suponemos que det a = a si a es un n´ mero real cualquiera.6.. . . . . . . . · · · anj−1 anj+1     . a1n a2n . .  .. Determinantes. . . . ··· ··· . . u Utilizando la definici´n anterior obtenemos para una matriz 2 × 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 − a21 a12 .. . B. . · · · ai−1j−1 ai−1j+1 · · · ai+1j−1 ai+1j+1 . . . ...  . .

. Las dos f´rmulas anteriores se conocen como desarrollo del determinante de A por su i−´sima fila o e y desarrollo del determinante de A por su j−´sima columna. . . Si E1 es la matriz que intercambia dos filas. . . 2. mediante transformaciones elementales. respectivamente. Teorema B. .. . det A = a11 · a22 · · · ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj . . . det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1. B.. entonces det E = α. transformar en una matriz triangular superior U (forma escalonada). la matriz B = E3 · A se obtiene al reemplazar una fila de A por la suma de ´sta e mas un m´ltiplo de cualquier otra fila.. · · · ann a11 . Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de filas y sea E la matriz elemental que realiza dicha operaci´n. Propiedades de los determinantes. entonces det A = det AT . an1 a12 · · · a1n . . =r ai1 . . a Teorema B. a12 . u   −1 si E es del tipo E1 r si E es del tipo E2 Adem´s. . o 1. Adem´s si resulta a que la matriz A tiene n filas pivote entonces el determinante de A ser´ proporcional al det U . . . Pero si A tiene n filas pivote entonces A es invertible.18 Si A es de n × n entonces: 95 det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . Este razonamiento nos conduce al siguiente teorema. .´ B ANEXO: ALGEBRA LINEAL Teorema B. . Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de este apartado o a y nos permitir´n calcular los determinantes de matrices de orden alto (n ≥ 4) de manera eficiente. Si E3 es la matriz que reemplaza una fila por la suma de ´sta mas un m´ltiplo de cualquier e u otra fila. . . Luego. . · · · a1n . respectivamente. . Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera. . an2 · · · ann r ai1 r ai2 .2. Es conocido de apartados anteriores que cualquier matriz A se puede. Como consecuencia del teorema anterior tenemos que si una fila es m´ ltiplo de un n´ mero r u u entonces tenemos: a11 . E2 ´ ´ o E3 . . si a Entonces. ai2 · · · ain . . det A = 0 y si una fila de A es proporcional a otra det A = 0. · · · r ain . . .20 Sea A una matriz n × n. . Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra filas por columnas. e Teorema B. . . . . a si tenemos n filas pivote todos los pivotes son distintos de cero y det A = 0.19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal. .6. an1 an2 En particular si una fila de A es nula.21 Sea A una matriz n × n y sea AT su traspuesta. la matriz B = E2 · A se obtiene al multiplicar por r la correspondiente fila de A. . la matriz B = E1 · A se obtiene al intercambiar dos filas de A. . . . o sea. Por ejemplo. . es decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en dependencia si dicha matriz es del tipo E 1 . 3. . .

. . .  ai1 · · · aij−1 bi aij+1 · · · ain Aj (b) =   . . . .6.  . es decir si A y b son e a     b1 a11 · · · a1j−1 a1j a1j+1 · · · a1n  . . . . . · · · aij−1 aij aij+1 · · · ain   xi  . . . . .  . A b 2 = e2 . . Sea A una matriz n × n y b un vector cualquiera de R n . . donde e1 . . .    . det An (ej ) = (−1)n+j det Ajn = Cjn . . · · · . .. an1 · · · anj−1 bn anj+1 · · · ann Teorema B. .. . . . . .  . . . . . ... xn = det An (b) . . . .      . .  ai1   .. o Teorema B. · · ·. . .  . Es recomendable resolver los a a sistemas por el m´todo de reducci´n de filas descrito en la primera parte del curso (ver Algoritmo e o de reducci´n por filas)..   =  bi . .  .22 Una A n × n es invertible si y s´lo si det A es diferente de cero. seg´ n la regla de Kramer.. ..  .    . . . . . . .. .  .  .3. .. . . .    . . .. . . bn an1 · · · anj−1 anj anj+1 · · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n  . . o Finalmente.  .    es compatible y tiene una unica soluci´n que viene dada por ´ o x1 = det A1 (b) .  . .  . . . . det A x2 = det A2 (b) . . Denotaremos por Aj (b) a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el vector b. . Entonces para todo  · · · a1j−1 a1j a1j+1 · · · a1n x1 .23 Sean A y B matrices n × n.. Entonces det(A · B) = (det A) · (det B).  . . . . xn = . .  . . . .      .  . . recordemos que “invertir” una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 . det A Es importante tener en cuenta que este m´todo es ineficiente para calcular la soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados determinantes.´ B ANEXO: ALGEBRA LINEAL 96 Teorema B. · · · A b n = en . an1 matriz n × n invertible.   . .. .  . . o u det A1 (ej ) det An (ej ) x1 = . . .  .   . .   . . .. . . .  . .24 Sea A  a11  . . b =  bi  .   . . .  . .  . A =  ai1 · · · aij−1 aij aij+1 · · · ain  .  . . B. . pero det A det A det A1 (ej ) = (−1)1+j det Aj1 = Cj1 . en son las columnas de la matriz identidad. . · · · anj−1 anj anj+1 · · · ann xn A x   b de R n el sistema    b1   .  . . . . Por tanto para calcular la j−´sima columna e de A−1 tenemos que resolver el sistema A x = ej cuya soluci´n es. bn b    . det A ···. . . . .  . . Regla de Kramer.

. .  donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x. . . w = x + y. an . n. La aplicaci´n anterior es lineal pues para todo α de R y x.  . vectores de V . β n´ meros reales. En esta secci´n vamos a definir los espacios vectoriales que son la generalizaci´n de los eso o pacios Rn ya estudiados. Espacios Vectoriales. .´ B ANEXO: ALGEBRA LINEAL luego la columna j de A−1 es 97   Todo esto nos conduce al teorema 1    det A  Cj1 Cj2 ..18 y B.7.. Entonces V es un espacio vectorial si u 1.25 Sea A una matriz invertible n × n. y de V y multiplicaci´n “·” de un escalar (n´ mero real) α por un elemento de o u V . 1  . B. . .. Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B.. z elementos arbitrarios de V y α.. y de R n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · · x · · · an ]) = α T (x). . .     B. Definici´n y ejemplos. . .1. .. det A  C1i C2i · · · Cji . tambi´n es un vector de V y se e cumple que: . .. . . o Sea V un conjunto de elementos sobre el cual est´n definidas las operaciones suma “+” de a dos elementos x.. . . . . 2. . Entonces  C11 C21 · · · Cj1 · · · Cn1  C12 C22 · · · Cj2 · · · Cn2   .  −1 A =  . .. y.7. . el vector suma. Definamos la aplicaci´n o lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x).20: Sea A = [a1 a2 · · · an ] una matriz de n × n con columnas a1 . Esta propiedad se conoce como la multilinealidad del determinante Teorema B. .16 del cap´ ıtulo anterior. C1n C2n · · · Cjn · · · Cnn       . Para todos x e y. La matriz ||C lm || se denomina matriz adjunta de A. Cjn   ... . . Cni   . k = 1. . . . Es importante notar que este m´todo es ineficiente para calcular inversas (recurre a la regla de e Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A −1 aplicar el algoritmo descrito en el teorema B. . . . . x de Rn . T (x + y) = det([a1 · · · x + y · · · an ]) = det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y).

w = α · x. Subespacios vectoriales.. 2.) El conjunto de las matrices m × n cuando la suma de dos matrices y la multiplicaci´n por un o escalar es la definida en la secci´n 3. Teorema B. (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn . ´ 2. tal que x + (−x) = (−x) + x = 0 donde (−x) es vector opuesto de x Para todo x vector de V .7. q(x) = b0 + b1 t + · · · + bn tn .) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci´n por un o escalar es la definida en la secci´n 2. el vector w = x + y tambi´n es un vector de H. Para todos x e y. 4.. (α · p)(t) ≡ α p(t) = (αa0 ) + (αa1 )t + · · · + (αan )tn . entero. o sea. (α · f )(t) ≡ α · f (t). vectores de H. Adem´s. b]. . 1. o Ejemplos. .) El conjunto de los polinomios de grado a lo sumo n. cuando la suma de dos funciones f y g y la multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f (t) + g(t). H = Pk es un subespacio vectorial para todo k < n.) Para V = C[a. para cualquier n = 0. que denotaremos por P n . e . Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma “+” y multiplicaci´n “·” que V ..) Dado un espacio vectorial V . el vector que se obtiene al multiplicar por un escalar.b] .b] . si y s´lo si a0 = a1 = · · · = an = 0. Dicho espacio lo denotaremos por R m×n o 3. son subespacios vectoriales “triviales” los subespacios H = {0} (conjunto que tiene como unico elemento. o 2. x+y =y+x (x + y) + z = x + (y + z) 98 Existe un elemento “nulo” de V . el nulo) y H = V (el mismo espacio vectorial).´ B ANEXO: ALGEBRA LINEAL a) b) c) d) 2. 1. 1. tal que x + 0 = 0 + x = x Existe el elemento (−x) “opuesto” a x. pn = 0. El elemento nulo de V pertenece a H.26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las siguientes tres condiciones.) Para V = Pn .) El conjunto de las funciones continuas en el a o intervalo [a.. Sea V un espacio vectorial. 3. H = Pn es un subespacio vectorial. a0 . B. u donde definiremos la suma de dos polinomios y la multiplicaci´n por un escalar de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn . que denotaremos por C[a.}. 1.2.. Pn = {pn (t) = a0 + a1 t + · · · + an tn . tambi´n es un vector de V y se cumple que: e a) b) c) d) α · (x + y) = α · x + α · y α · (β · x) = (αβ) · x (α + β) · x = α · x + β · x 1·x=x Ejemplos. an n´ meros reales. 2.

. v2 ... b2 ..... x2 . Bases.. entonces B es una base de todo el espacio vectorial V .... .´ B ANEXO: ALGEBRA LINEAL 3... v2 . Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V . o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. v2 . 1 < j < p. vp necesariamente cada vector es combinaci´n de los anteriores. . B genera a todo H. . bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 . 2.. v2 . o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente definici´n o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 . Teorema B. es o decir....3.. .. v2 .. vp se denomina linealmente dependiente si existen los valores x1 . Dicho subespacio vectorial com´nmente se u denomina subespacio generado por los vectores v1 . . vp } de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤ i ≤ p) es necesariamente un conjunto de vectores linealmente dependientes.. Por tanto B = a1 . entonces sus columnas a 1 .. Por tanto las siguientes afirmaciones son ciertas: 1. vp . vp ) es un subespacio vectorial de V .. v2 . B. v2 ...27 Dado un conjunto de vectores {v1 .. el vector v j es combinaci´n lineal de o o los anteriores... an son linealmente independientes y adem´s R n = Span(a1.. . En particular si H coincide con V . vp } de un espacio vectorial V . vp de un espacio vectorial V se denomina linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. .28 El conjunto de dos o m´s vectores v1 .. Dos vectores v1 y v2 de V son linealmente dependientes si y s´lo si son proporcionales. Un conjunto de vectores v1 . si existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u 3. Conjuntos linealmente independientes. ´ o Un conjunto de vectores v1 . 99 Para todos x vector de H. · · · . ... vp } de dos o m´s vectores es linealmente dependiente si y s´lo si a o al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. vp de V con v1 = 0 es un conjunto a linealmente dependiente si y s´lo si para cierto j. bp ). tiene como unica soluci´n la trivial x1 = · · · = xp = 0. Por ejemplo.. xp no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0.. o sea. v2 . Un conjunto S = {v1 . vj = x1 v1 + x2 v2 + · · · + xj−1 vj−1 .. es decir..7. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 . el conjunto span (v1 . b2 . el vector w = α · x tambi´n es un vector de H.. .. an es una base de a .. v2 .. an ). e Teorema B. .. . o a Un conjunto S = {v1 . . .. si tomamos una matriz n × n invertible. .

. ..  .. Ello era evidente pues         x1 1 0 0  x2   0   1   0          x =  .  = x 1  .. vp ).. 1 ≤ j ≤ p. el conjunto B = {v1 . vk . . . t... ´ Teorema B. S = {v1 . Sin embargo.4. Cuando estudiamos el espacio Rn (secci´n 2) definimos a los vectores de Rn mediante sus o coordenadas. si A = In . bn } una base del espacio vectorial V . v3 =  1  . tn ) = a Pn ...  + x 2  .. o sea. en de la misma son una base de Rn la cual se conoce como base can´nica de R n .. Entonces si suprimimos a dicho vector vk del conjunto S. es decir los valores x1 .. v2 . H no cambia. las columnas e1 .. αn } tales que x = α 1 b1 + α 2 b2 + · · · + α n bn .  . t 2 . S se conoce como la base can´nica de Pn . Es f´cil comprobar que dichos vectores son linealmente independientes y que span (1.  .  .30 Sea B = {b1 . v3 no son linealmente a independientes. o Otro ejemplo lo constituye el conjunto de vectores S = {1. v2 =  1  . Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V . v2 . v2 . t.. . t 2 . .29 Sea S = {v1 . bn } es una base del espacio vectorial V .. . v2 } que se obtiene al suprimir el tercer elemento si que es una base de H.. digamos el vj . tn } del espacio vectorial Pn .. xn . i) Supongamos que un vector de S. .   . .. Adem´s. a son unicos. vk−1 .. e2 . vp ) un subespacio de V .. v3 } no es una base de H pues v1 . v2 .. u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible “extraer” una base de dicho espacio vectorial.. El siguiente teorema generaliza este resultado para cualquier espacio vectorial V . v2 . es evidente que dado un vector x de R n sus coordenadas.. αn } tal que ´ x = α 1 b1 + α 2 b2 + · · · + α n bn . B. . b2 .´ B ANEXO: ALGEBRA LINEAL 100 Rn . H = Span(v1.  + · · · + x n  . Adem´s. v2 . Entonces para todo x de V existe un unico conjunto de valores {α1 . v3 ] .. En particular. .. Sistemas de coordenadas.  .. la matriz identidad n × n. . . . vk+1 . Supongamos que B = {b1 . o Teorema B.  = x 1 e1 + · · · x n en .. H = Span [v1 .. . v2 ] pues el tercer vector es combinaci´n lineal de o los dos anteriores..7... v1 = 0 0 0 Es evidente que H = Span[v1 ... vk−1 .  .. . ii) Si H no es el espacio {0}... 0 0 1 xn ... Por ejemplo. vp ) = span (v1 .. consideremos el espacio generado por los vectores       2 1 1  0  . es combinaci´n lineal de los o restantes. vk+1 . b2 .. v3 ] = span [v1 . entonces alg´n subconjunto de S es una base de H.. Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores {α 1 .. vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1.

.7. Teorema B.. . ... dim Rn = n. αn B donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C. αn      B 101   y lo denotaremos por   o [x]B . bn }. .. entonces cualquier conjunto con m´s de n vectores de V es linealmente dependiente. bn ). a Este teorema es una generalizaci´n del teorema B.. o Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n . su dimensi´n..´ B ANEXO: ALGEBRA LINEAL  α1 α2 . En el caso que V = {0} sea el espacio vectorial nulo...... xn . e2 . dim{0} = 0. la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B .b] = ∞..   ... entonces cualquier otra base de V tendr´ que tener n vectores de V . dim C[a. b2 . donde B = {b1 . o Teorema B. Consideremos nuevamente las coordenadas en Rn . .5. bb } es una base de V y lo escribiremos de la forma dim V = n. b2 . Es evidente que la matriz P CB es invertible (todas sus o −1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B.... . o (dim V = n < ∞). o Teorema B. b) Si S genera a todo V . .8. La dimensi´n de un espacio vectorial. en }. o sea o −1 [x]B = PCB · [x]C = PBC · [x]C . bn } un conjunto de exactamente n vectores. a Teorema B. Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H. Si V no puede ser generado por una base finita de vectores. S es una base de V .. b2 . Entonces: a) Si S es un conjunto de vectores linealmente independientes. b2 . . N´tese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base can´nica. Por ejemplo. Adem´s dim H ≤ dim V ..32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . entonces diremos que V es de dimensi´n infinita y lo o denotaremos por dim V = ∞. o Entonces   α1  α2    x = x1 e1 + · · · + xn en = α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  . Resulta que dicho n´ mero n es una propiedad intr´ u ınseca de V ..34 Sea V un espacio vectorial n-dimensional (dim V = n < ∞) y sea S = {b 1 ... si las coordenadas de x en la base can´nica C son x 1 . . S es una base de V . b2 . Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base can´nica C = {e1 . Supongamos ahora que pasamos a una nueva base B = {b1 .. dim Pn = n + 1. bn }. a Un espacio vectorial es de dimensi´n finita n si V est´ generado por una base de n elementos. . o a es decir si V = Span(b1 . es decir si V = Span(b1 . y por tanto..33 Sea H un subespacio vectorial de un espacio vectorial de dimensi´n finita V . bn }.. B. bn ). .31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 ... .  = PCB · [x]B . .

 .  .15) tiene soluciones no triviales.. . Es importante destacar que conocido el autovalor λ. donde I es la matriz identidad n × n. yn D [x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D · · · [bn ]D )[x]B . a2 . o sea. Entonces tenemos que Supongamos que las coordenadas de un vector x de V en la base B son x 1 . b1 = an1 d1 + an2 d2 + · · · + ann dn . xn y D son y1 . . Entonces los autovalores de A coinciden con los elementos de la diagonal principal λ = aii . . cuyas columnas a1 . . xn B en la base  y1 . a1n   an1 an2 . ´stos se podr´n e a escribir en la base D. x = 0.. (B. autovector de A asociado al autovalor λ. x2 . bn } y D = {d1 . o sea. 2. Dicho u espacio se denomina autoespacio de A correspondiente al autovalor λ. b2 . PDB es una matriz invertible (sus columnas son linealmente independientes). . el conjunto de los autovectores asociados a λ... −1 [x]B = PDB [x]D . bk = ak1 d1 + ak2 d2 + · · · + akn dn .´ B ANEXO: ALGEBRA LINEAL B. Cambio de base..  ..   . . Como D es una base de V y los elementos de B son elementos de V .  . es un subespacio vectorial de R n .7. . Denominaremos al vector x de R n .35 Sea A una matriz triangular de n × n. . luego existe a −1 la inversa PDB la cual es la matriz de cambio de base D en B. Sea A una matriz de n × n.  x = x1 b1 + · · · + xn bn −→ [x]B =  . dn } o dos bases de V . =⇒  a11 a12 . tal que A x = λ x.  . b1 = a11 d1 + a12 d2 + · · · + a1n dn . bn =     D . . Por tanto.  . e Teorema B.. .6. yn D a1n · · · akn · · · ann xn B Adem´s. dado un autovalor λ de A. (B. .. o sea.    x1   . .14) Es f´cil comprobar que si x es un autovector asociado al autovalor λ. que coincide con una base del n´ cleo de A.  ... ... entonces el sistema a (A − λ I)x = 0.. B... y x = y1 d1 + · · · + yn dn −→ [x]D =  . ann      D   b1 =       . . El problema de autovalores de una matriz.. y2 . al vector no nulo x = 0. . . d2 . encontrar el autoespacio consiste en encontrar las soluciones de un sistema homog´neo de ecuaciones. n. · · · . yn . resolver (A − λ I)x = 0. 102 Sea V un espacio vectorial de dimensi´n finita n y sea B = {b1 .8. i = 1. o en forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 · · · ak2 · · · an2   x2   y2       = . . an no son m´s que las coordenadas a de los vectores de la base B escritos en la base D. . es decir. Por tanto tenemos que [x] D = PDB [x]B . Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D. . ..   . .

´ B ANEXO: ALGEBRA LINEAL 103 Es importante destacar que las operaciones elementales de filas cambian los autovalores de una matriz. o B = P −1 · A · P. (B. para demostrarlo es suficiente tomar Q = P −1 . tal que A = P · B · P −1 . conclusi´n.38 Una matriz A de n × n es diagonalizable si y s´lo si A tiene n autovectores o linealmente independientes..2.. donde D es diagonal y P invertible. B es similar a A. entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible. vp asociados a los autovalores λ1 . distintos. Es decir si U es la forma escalonada de A los autovalores de A y U son.36 Sea A una matriz de n × n que tiene p autovalores distintos λ 1 = λ2 = · · · = λp .17). ¿C´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues los autovalores o ıcil λ son tales que el sistema (B. tales que A = P · D · P −1 . o Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal D. o Matrices similares. Pero un sistema homog´neo tiene soluciones no triviales si y s´lo si e o det(A − λ I) = 0.) Sea A una matriz cuadrada A de o o n × n. o Teorema B. entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores. det(A − λ I) = 0. λp son linealmente independientes.17 (Teorema de inversi´n de matrices. o sea. λ2 . O sea. B. Si A = P · D · P −1 .8. La transformaci´n que a cada matriz le hace corresponder otra similar. Teorema B.. 2. .37 Si las matrices A y B de n × n son similares. λ es un autovalor de A si y s´lo si p n (λ) = 0. Diremos que A es similar a B si existe una matriz invertible P .17) Es evidente que si A es similar a B..1. λ = 0 no es un autovalor de A El teorema anterior es evidente pues si λ = 0 es autovalor de A. A es invertible. por tanto. Sean A y B dos matrices n × n. Teorema B. Entonces los autovectores v1 . entonces tienen el mismo polinomio caracter´stico y. los mismos autovalores. .16) La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A.. Lo anterior lo podemos resumir o o ı como: Un n´ mero λ es un autovalor de la matriz A de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ ıstica de A (B.. La ecuaci´n caracter´ o ıstica. Las siguientes expresiones son equivalentes: 1.15). Es f´cil comprobar que la expresi´n det(A−λ I) = 0 es un polinomio de grado n en λ.16). (A − λ I)x = 0. ı B. o sea. si existe una matriz P invertible y otra D diagonal. (B. . se o denomina transformaci´n de similitud. tiene soluciones no triviales. Por tanto a o el polinomio pn (λ) = det(A − λ I) se denomina polinomio caracter´ ıstico de A y los autovalores de A ser´n las ra´ a ıces de dicho polinomio.8. en general. Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B. Diagonalizaci´n de matrices. v2 . A −→ P −1 · A · P . Teorema B.

si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso. . o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1.. Sea Bk . k = 1. Si A es diagonalizable continuamos como sigue.38 nos asegurar´ que nuestra matriz es diagonalizable..40 (Condici´n suficiente para que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores distintos λ1 . Teorema B. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k . o sea. Es recomendable comprobar que hemos calculado correctamente P y D. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P .. p una base del correspondiente autoespacio asociado al autovalor λk y sea nk la dimensi´n de dicho autoespacio. 3.´ B ANEXO: ALGEBRA LINEAL 104 Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si sus autovectores o forman una base de Rn . dim(B) = n1 + n2 + · · · + np .16). Entonces B es un conjunto de vectores de Rn linealmente independientes. o . Encontrar los autovalores de A resolviendo la ecuaci´n (B. Si tenemos en total n autovectores linealmente independientes entonces el teorema B.39 (Condici´n suficiente para que una matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores distintos. Algoritmo para diagonalizar una matriz A. λp . 2.. si B contiene exactamente n vectores. o sea B = B1 ∪ B 2 ∪ · · · ∪ B p . Para ello comprobamos que A · P = P · D. entonces es diagonalizable. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes. 4. λ2 . A es diagonaa lizable si y s´lo si dim(B) = n. Adem´s. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. Teorema B.. 1.. 2. .

En- tonces. z ∈ C. Teorema C. Propiedades de las series de potencias ∞ n=0 Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo e an z n . 0]). Si la serie converge para todos los valores de z de cierto conjunto A ⊂ C. an . N´tese que se obtiene una de la otra al hacer una traslaci´n en el plano o o complejo del c´ ırculo mediante el vector z0 . a en z0 (ver la figura 20). x ∈ R. Consideremos ahora en caso real. si la serie converge en x = R (x = −R). Como casos especiales de las series de potencias tenemos: ∞ k=0 xk .1 Dada una sucesi´n de n´meros complejos (a n )n y z0 ∈ C definiremos serie o o u an (z − z0 )n . a Teorema C. Si la serie converge para cierto r ∈ R. entonces podemos definir la funci´n suma f (z) de la serie. an . Si la serie converge para cierto w ∈ C. la podemos reducir a a la anterior (C.2) es decir. en el caso real si se sabe la convergencia en alguno de los extremos. La regi´n de convergencia de una serie de potencias siempre son c´ o ırculos en el plano complejo que. Adem´s. an . R] ([−R.3 Sea la serie de potencias ∞ n=0 an xn . . an .C ANEXO: SERIES DE POTENCIAS 105 C. entonces absolutamente para todo x ∈ R con |x| < |r|. cualquiera sea la serie de potencias a ∞ n=0 an z n .1) que denominaremos serie de potencias. (C. k! ∞ k=1 zk .2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias ∞ n=0 an z n .1). es decir cuando (an )n es una sucesi´n de n´ meros reales y o u z = x ∈ R.2) est´n centrados en el origen y en el de las series (C. (C. En este caso hay que trasladar los resultados a la recta real. Dicho n´ mero se denomina radio de convergencia de la u serie de potencias. Obviamente si tenemos una serie de potencias del tipo (C. z ∈ C.4 Sea la serie de potencias ∞ n=0 an xn .2) haciendo el cambio de variables ζ = z − z 0 y viceversa. se puede saber mucho m´s sobre la serie. entonces la serie converge absolutamente para todo z ∈ C con |z| < |w|. converge uniformemente en [0. existe un n´ mero real no negativo R ≥ 0 o R = +∞ tal que para todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge. El primer teorema de Abel quedar´ entonces de la siguiente forma ıa Teorema C. en el caso de las series de la forma (C. ∞ k=0 zk . A diferencia del caso complejo. Anexo: Series de potencias ∞ n=0 Definici´n C. cuando z0 = 0.1. o C. k etc. x ∈ R y R su radio de convergencia.1).

an . an . =⇒ ım = l´ ım . o sea.5 (Cauchy-Hadamard) Dada una serie de potencias ∞ n=0 ∞ n=0 anz (izquierda) y n ∞ n=0 an (z − z0)n (dere- an xn . La serie se puede derivar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. Entonces La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. o sea. x ∈ R. n+1 2. ı |an | Una condici´n suficiente para que exista l´ n→∞ n |an | es que exista el l´ o ım ımite l´ n→∞ |an+1 /an |. . x ∈ R con radio de convergencia R > 0.C ANEXO: SERIES DE POTENCIAS Im z 106 Im z | z −z 0 | <| w− 0 | z | z | < | w| R w R z0 0 Re z w 0 Re z Figura 20: Regi´n de convergencia de las series o cha). Teorema C. toda serie de potencias con radio de convergencia no nulo define una funci´n o continua. R). ∞ n=0 an xn . se cumple que ∞ n=0 an x n = ∞ n=0 nan xn−1 . Teorema C. an xn es continua en (−R. siendo R el radio de conver- En otras palabras. si dicho l´mite existe.6 La funci´n f (x) = o gencia de la serie. l´ ım l´ ım n→∞ n→∞ n |a | n→∞ an+1 n→∞ an n Para las series de potencias en R tienen lugar las siguientes propiedades. se cumple que x ∞ 0 n=0 an x = n ∞ n=0 an n+1 x . ∞ n=0 Teorema C. Entonces R = l´ ım n→∞ n 1 .7 Derivaci´n e integraci´n t´rmino a t´rmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1. ım en cuyo caso 1 an an+1 = l´ n |an |.

a ex = ∞ k=0 ∞ k=0 xk . 1).6) Aplicando la integraci´n t´rmino a t´rmino en [0. R). (2k + 1)! ∞ k=1 cos x = (−α)k k x . x ∈ (−1. (C. n Funciones elementales del an´lisis. 1). f (x) = dx k! k! (k − 1)! k=0 k=0 k=1 Adem´s.6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2 ∞ k=0 (−1)k x2k .8 Probar que la funci´n f (x) = o su derivada. ex = ∞ k=0 xk es continua y derivable en R y calcular k! Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener. Esta serie converge en (−1. La funci´n que cumple lo anterior es la funci´n e x .3) sen x = (−1)k x2k+1 .4) (1 + x)α = 1 + en particular 1 = 1−x ∞ k=0 (C. x ∈ (−1. a o o Los teoremas anteriores permiten calcular un buen n´ mero de series.7) Usando (C. 1). x] tenemos o e e log(1 + x) = ∞ n=1 (−1)n+1 xn . (C. as´ pues ı ∞ ∞ ∞ kxk−1 xk−1 xk d = = = f (x).C ANEXO: SERIES DE POTENCIAS 107 Una consecuencia trivial del ultimo teorema es que una serie de potencias define una funci´n ´ o infinitas veces derivable en (−R. (C. como ya hemos calculado antes. n (−x)n = ∞ n=0 (−1)n xn . k! ∞ k=0 (−1)k x2k (2k)! x ∈ (−1. f (0) = 1.5) xk . 1). por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x) ∞ n=0 ∞ n=1 (−1)n+1 xn . 1 = 1+x (−1)k xk . radio de convergencia +∞. ∞ k=0 (C. as´ que integrando t´rmino a t´rmino tenemos ı e e t log(1 + t) = 0 1 dx = 1+x t 0 ∞ n=0 (−1)n xn dx = ∞ n=0 (−1)n tn+1 = n+1 ∞ n=1 (−1)n+1 tn . Ejemplo C.8) . Para calcular la derivada usamos el teorema anterior. n (C. k! x ∈ R. x ∈ R.

(C. integrando t´rmino a t´rmino en [0.9) 1 Escojamos ahora (C. 1).10) de donde integrando t´rmino a t´rmino en [0. 2n + 1 x ∈ (−1. x] obtenemos e e arc sen x = ∞ k=0 1 ( 2 )k x2k+1 .5) con α = − 2 y cambiemos x por −x2 . = 1 − x2 k=0 k! ∞ x ∈ (−1. 1).C ANEXO: SERIES DE POTENCIAS 108 a partir de la cual. 1). (C. k!(2k + 1) x ∈ (−1. tenemos √ 1 ( 2 )k k 1 x . (C. x] obtenemos e e arctan x = ∞ n=0 (−1)n x2n+1 .11) .

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->