´ ´ ´ AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x

x + ω 2x = f0 cos(Ωt)

´ Renato Alvarez Nodarse

£

¢

¡

 

t

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. o a a
´ Prof. Renato Alvarez Nodarse

´ Indice
Programa de la asignatura 1. Introducci´n a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coeficientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homog´nea con coeficientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . Anexo: Series de potencias 105 C. Integraci´n de funciones racionales. . .3. . . 105 . . . Anexo: Algebra lineal B. . . . . . . . . . . Integrales trigonom´tricas. . . . . B. e A. . . . . . . . . . . . Integrales irracionales. . . e o A. . . . . El problema de autovalores de una matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinantes. . . . . . .7. . . . . . . . . . . . .1. o B. . . Propiedades de las series de potencias . .3. . . . B. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . Sistemas lineales y matrices. . . . o A. Soluci´n de un sistema de ecuaciones lineales. . . . . . . . . .6. . . Espacios Vectoriales. . . . .4. . . . . . . . . . . . . . . . Anexo: C´lculo de primitivas a A. .5. . El teorema de existencia y unicidad para las EDOs 7. . . . . . . . . . . . . . .1. ´ B. . . . . . . . . . . . . . . . . . . . . Problemas . . . . . . . . . . . . .1. . . . . . . . . La transformada de Laplace 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102 ´ B. . . . . . .2. . . . . . . . . C. . . . 8. Vectores y ecuaciones matriciales. .8. A. . . . . Problemas . . . . . . . . . . . . . . o B. . . . . . . . . . . . . . . . . . . . . . . . . . B. . . . . . . . . . . . . . . . . . Algebra de matrices. . . . . . . . . . . . . . . B. . . . . . . M´todos de integraci´n. . . . . . . . . . . . . . . . . . . . . 7. . . . . .1.4. . . . . .1. . . . . . . . Formas escalonadas y el algoritmo de reducci´n por filas. .5.6. . . . . . . . . . . Problemas . . . . . .

Existencia de la soluci´n. Ecuaciones diferenciales de primer orden. e Cap´ ıtulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. La EDO lineal de primer o orden. Sistemas lineales con coeficientes constantes. Los sistemas lineales y la EDO de orden n. Sistemas de ecuaciones diferenciales ordinarias de primer orden. Reducci´n de orden. Relaci´n con los sistemas de ecuaciones de primer orden. La EDO lineal o de primer orden. Aplicaciones. Ecuaciones de Bernoulli y de Ricati. La matriz exponencial eA y sus propiedades. o o La ecuaci´n de segundo orden de tipo hipergeom´trico. Teorema de existencia y unicidad para la EDO lineal de orden 1.Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. Cap´ ıtulo 7: EDOs: Existencia y unicidad de las soluciones. Puntos regulares y singulares. Motivaci´n de las ecuaciones diferenciales ordinarias (EDO). Ecuaciones lineales. Aplicaciones. La ecuaci´n de Bessel. . La ecuaci´n hipere o o geom´trica de Gauss. Ecuaciones diferenciales exactas. Aplicaciones. e o Cap´ ıtulo 6: Polinomios ortogonales cl´sicos. Cap´ ıtulo 4: Ecuaciones diferenciales de orden n. Cap´ ıtulo 2: Ecuaciones diferenciales ordinarias de primer orden. Ecuaciones o lineales. e M´todo de integraci´n por series. Polinomios cl´sicos discretos. o a a Programa de la asignatura. Curso 2003/2004 Cap´ ıtulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. Funciones generatrices. M´todo de variaci´n de coeficientes. F´rmula de Rodrigues. M´todos e en diferencias para resolver EDOs de primer orden: El m´todo de Euler. Ecuaciones separables. a La ecuaci´n de tipo hipergeom´trico y sus soluciones polin´micas. EDOs lineales de orden 2. EDOs de orden n. Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria de primer orden. Introducci´n a las ecuaciones en diferencias finitas: Ejemplos. Los momentos de las o o distribuciones continuas de probabilidad. Funcioo nes generatrices. Los polinomios cl´sio e o a cos. Cap´ ıtulo 8: Ecuaciones en diferencias finitas. M´todo de Pic´rd. Ejemplos y aplicaciones. e o o Cap´ ıtulo 5: M´todo de las series de potencias. La o e a ecuaci´n de Pearson y los momentos de las distribuciones discretas de probabilidad. Ortogonalidad y relaci´n de recurrencia.

Springer Verlag.. Edwards. y Bedient R. P. Bugrov Ya.S. Casas´s. Ed. y Zarzo. MIR. Ecuaciones diferenciales. Penney.M. G. Funciones de variable compleja. Krasnov M. Nikolski S.. Differential Ecuations and their Applications. Ecuaciones diferenciales elementales. Jr y David E.E. Rainville E.. Ecuaciones diferenciales: Problemas lineales y a u aplicaciones.. a Kisilev A.Metodolog´ y Evaluaci´n ıa o La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales. o Colecciones de problemas A. Despacho: 1er piso. BOIARCHUK y G. Pearson Educaci´n o Nagle R.K. GOLOVACH. Bibliograf´ ıa Bibliograf´ b´sica ıa a C.E. Matem´tica Superiores. Ecuaciones diferenciales y c´lculo variacional. ´ Renato Alvarez Nodarse. MIR. s´lo en caso a a e o de mejorarla. H.B. Integrales mltiples. A. y Makarenko G. Las horas pr´cticas se e a dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de complemento a las clases te´ricas. L. Para aprobar el examen es necesario obtener al menos 5 a puntos. o a o o Al final del cuatrimestre se se efectuar´ un ex´men final constituido por una parte te´ricaa a o pr´ctica y otra de problemas. Ecuaciones diferenciales : con aplicaciones y notas hist´ricas. Facultad de Matem´ticas. Marcell´n. Dichos proyectos son totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden complementar la nota de ´ste. Fundamentos de ecuaciones diferenciales. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan aplicar y profundizar los m´todos aprendidos. No. Bedient P. Simmons. 15-06 a . MIR. Prentice Hall. Series. Ecuaciones diferenciales. McGrawo Hill. Problemas de Ecuaciones diferenciales ordinarias. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase.F. Bibliograf´ complementaria ıa Braun M.. 9 y 10 (URSS. Pearson Educaci´n. McGraw-Hill.D. Las horas a o a de teor´ se dedicar´n a la explicaci´n de los principales conceptos y m´todos de resoluci´n ıa a o e o de EDOs tanto de orden uno como de ordenes superiores. Mod 15. K. Elsgoltz L. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8. 2002). y Saff E. F.

. quiz´ las m´s sencillas. Por ejemplo. Por ejemplo.1) donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I ⊂ R. y (n) ) = 0. Diremos que o u una ecuaci´n diferencial del tipo (1. y. y + e − 1 = 0 es de orden dos. y(x). Es f´cil entender que el problema de a encontrar la soluci´n de las ecuaciones diferenciales es m´s complicado que el de los casos o a anteriores. . para la primera ecuaci´n es f´cil ver o a que x = 1 es la unica soluci´n posible. La inc´gnita en este caso es una unica o o o ´ variable x que puede ser real o compleja.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 1 1. mientras que la segunda tiene dos soluciones reales ´ o x = 1 y x = 3. . y (x) − ey(x) + 7 cos x = 0. y. Ecuaciones diferenciales “ordinarias” F (x. Finalmente la ultima no tiene ninguna soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ ıa puede ser soluci´n ya que la propia ecuaci´n no est´ definida en x = 1 (divisi´n por cero). pero si complejas x = ±i. las ecuaciones funcionau a les donde las inc´gnitas son funciones. o y (5) + 3 sen x − y = 0 es de orden cinco. Nuestro principal objetivo es aprender a resolver EDOs. (1.1) se transforma en una identidad para todo x ∈ A. . .1) es de orden n si en ella aparece la derivada y (n) .. Introducci´n a las EDOs: la EDO lineal de primer o orden Todos sabemos que es una ecuaci´n. En particular el denominado problema de valores iniciales (PVI). En primer lugar por que estamos buscando funciones de x y no simples valores de x. Existen ecuaciones m´s “complicadas”. . . o sea o y = y(x) es soluci´n en A o ⇐⇒ F (x. resta. En segundo. multiplicaci´n y divisi´n. y . x2 − 1 Estas ecuaciones. x2 + 4x = −3. . y (x0) = y0. Nos centraremos en las ecuaciones del tipo (1. y . Diremos que y = y(x) es una soluci´n de la (1. porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general. y (x). . Estas ecuaciones son el objetivo del presente curso. x2 − 2x + 1 = 0.. y (n−1) (x0) = y0 (n−1) . ∀x ∈ A. As´ por ejemplo la ecuaci´n y + 3y = 2 es de orden uno. . x2 + 1 = 0. . Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. ı. y (n) (x)) = 0. 1. . En ejemplo de ´stas son las ecuaciones diferenciales o e ´ “ordinarias”.. . y (x) + 3y (x) + 2y(x) = 2 cos(2x). La tercera sin embargo no tiene soluciones reales. es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funci´n inc´gnita o o y y. y . y (x) = sen x.1. y (x) = y. y .1) en cierto dominio A ⊂ R si al sustituir o la funci´n y = y(x). es decir encontrar aquella soluci´n y de la ecuaci´n o o (n) F (x. son ecuaciones algebraicas ya que involucran s´lo a a o las operaciones suma. Por ejemplo o 3x + 2 = 5. o o a o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n es un conjuno to de n´meros determinado. . y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 .

(1. entonces. o o e ecuaci´n no homog´nea.2) (como inc´gnita tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o o o de primer orden. Si a(x) y b(x) son funciones continuas en cierto intervalo I ⊂ R que contenga al punto x0 ∈ I.2) se expresa de la forma o y(x) = Ce− a(x) dx + e− a(x) dx e a(x) dx b(x) dx (1. dx Definici´n 1. x2 x2 x2 x2 x2 Definici´n 1.3) Ejemplo 1.2. d y(x) + a(x)y(x) = b(x).´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 2 1. ´ o En general. Teorema 1.4 Resolver la EDO del ejemplo 1. b(x) ∈ CI .3 El problema de encontrar una soluci´n de la ecuaci´n (1. existe una unica soluci´n del problema de valores iniciales (1.2 con la condici´n inicial y(0) = 1.1 La ecuaci´n o o a(x).5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1. o Como la soluci´n general es y(x) = Ce− 2 + 2. tenemos y(0) = 1 = C + 2.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce− 2 + e− 2 x2 x2 dy + x y = 2x. o e La soluci´n general de (1. o sea. y(x0) = y0.4). la soluci´n del PVI es o x t x t y(x) = y0 exp − x0 a(s) ds + exp − a(s) ds x0 x0 exp x0 a(s) ds b(t) dt . (1. dx e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2. dx a(x).2) con la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden. de donde C = −1 o x2 x2 y y(x) = 2 − e− 2 . La EDO lineal de primer orden d y(x) + a(x)y(x) = b(x). (1. Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n homog´nea y si b(x) = 0. para cualquiera sea el valor y0 .4).4) Ejemplo 1.5) . b(x) ∈ CI .

Algunas aplicaciones de las EDOs lineales de primer orden Ejemplo 1. y = 2y/x Ejemplo 1. Encontrar la dependencia de i respecto al tiempo t. λ > 0. entonces u ´ N (t + h) − N (t) = −λN (t)h ⇐⇒ N (t + h) − N (t) = −λN (t). y t y(x) P(x.8 Se sabe que la intensidad i del circuito el´ctrico representado en la figura 1 e est´ gobernada por la ecuaci´n diferencial a o L di + Ri = U. donde p es la presi´n en funci´n de la altura h. Encuentra adem´s la a curva que pasa por el origen. h . R la resistencia y U el voltaje.8 (izquierda) e Ejemplo 1. Si h = 0. y) dibujado entre P y el eje 0y quede bisecado por el eje Ox. la presi´n al nivel del mar (1 atm).6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x. Supongamos que el voltaje U es constante y que i(0) = i0. dt donde L es la impedancia.0) x U L Q Figura 1: Curva del ejemplo 1.3.10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una substancia radioactiva.6 (derecha) y circuito el´ctrico del ejemplo 1.7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3 1. Ejemplo 1.y) R 0 (x/2.9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h). o o o ¿C´mo var´ la presi´n con la altura? o ıa o Ejemplo 1. Realizar el mismo estudio si U = U0 sen(ωt).

0147478 1/min 22 a˜os n 0.81 0.32 4 Si h → 0.g. E. si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos ı.000124488 1/a˜os n 9 −10 4. Por ejemplo. N (t0) = N0. entonces podemos aproximar la ecuaci´n anterior mediante la siguiente EDO o N (t) = −λN (t).693147 = .´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710 8848 0. T T Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 → Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o Uranio 238 → Torio 234 Per´ ıodo T λ 1600 a˜os n 0. u ´ N0 = N0 e−λT . (1.5101210 n 1/a˜os n En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva.6) Se llama per´ ıodo de semi-desintegraci´n al tiempo necesario para disminuir en la mitad o el n´mero de atomos. entonces la ecuaci´n que gobierna la desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) + r(t). o e Si llamamos a esa aportaci´n r(t). que tener en cuenta no s´lo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de ´l en la cadena radioactiva.00502281 1/dias 5568 a˜os n 0.62 0. pr´cticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226. (1. lo que implica una aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones.71 0.64 0.0315067 1/a˜os n 138 d´ ıas . 2 =⇒ λ= log 2 0. Uranio 238 Torio 234 Uranio 234 Radio 226 Plomo 206 Polonio 210 Plomo 210 Plomo 214 As´ por ejemplo.7) .5110 a˜os 1. N (t0) = N0.000433217 1/a˜os n 47 min 0.

y + xy = f (x).4. f (x. y ) = y − y = 0 F (x. y) = y − ex + 2 = 0. o o a o 1. y. y) = 1 + x2 − y = 0. y) = x2 + y 2 − 25 = 0. f (x. f (x. y. f (x. 8. y ) = (1 + x2)y − xy = 0 F (x. y = (y + e−x ) tan x 8. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la f´rmula (1. f (x. f (x. y = 3y + e5x . 7. y) = 0 dada y determina la regi´n de R donde dicha soluci´n o o est´ definida: a 1. y ) = yy + x = 0 F (x. y) = x2 + y 2 − 25 = 0.13 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la soluci´n correspondiente a las condiciones iniciales indicadas: o 1. x y + y cos x = 1/2 sin(2x) 11. 2. y + y cos x = 0 √ 2. y + y = xex 5. x y + y = x3 7. y ) = ex−y + ey−xy = 0 F (x. √ 6. 5. Problemas Problema 1. 9. f (x) = 3e−2x . y) = x3 + y 3 − 3xy = 0. y. Problemas de EDOs lineales Problema 1. . y. y. y ) = y + y/x = 0 = 0.11 Decide si las funciones y(x) definidas expl´ ıcitamente o impl´ ıcitamente son soluciones de la EDO F (x. y + 2xy = x 4. y + y x = 0 3. y + 2y = f (x). y. f (x) = 3/4e−2x . f (x. f (x) = sen x 10. y + x2y = x2 6. y. y ) = yy + x = 0 F (x. 3. y) = y − 2 2+x F (x. 4. y ) = (y 2 − x)y − y + x2 = 0 F (x. y. f (x. 2.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 5 donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra.5). x y + y = x sen x Problema 1. y(1) = 0. y) = x2 + y 2 + 1 = 0. y = 6y + x2. y ) = xy + y − y 2 = 0 F (x.12 Encuentra la soluci´n general de las siguientes EDO lineales de primer o orden 1. y. y) = e2x + ey−x − 1 = 0. y(0) = 2.

b(x) ∈ CR . es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. y = y + e−x sen(2x). y(0) = 1. (1 + x2)y + 4xy = x. (sol. y + y = g(x). c ∈ (0. Encontrar la curva que pasa por (4.14. x→∞ a(x) ≥ c > 0. x→∞ l´ b(x) = 0. Problema 1. ∀x ∈ R. g(x) = 2.y) Q x n Curva del problema 1. Problema 1. b ∈ R. ım b) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x).0) y(x) t P(x. x2 + 2y 2 = 24). y(0) = 0. 2). t > 1 6 5. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial.15 a) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + ay = be−cx . ım a(x).´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3. 4. 0 ≤ t ≤ 1 0. ım . x→∞ a. ∞). y(1) = 1/4.14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x. y 0 (x/2.

donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x).1 Resolver la ecuaci´n y = x/y. Supongamos que la funci´n f (x. Supongamos que a = b.1. y(0) = 3. b−x 1 − e(a−b)κt . y) (2. e En general tenemos dy = a(x)b(y) dx ⇐⇒ dy = a(x)dx b(y) ⇐⇒ dy dy = b(y) a(x)dx. (2.2) cuando b ≡ 0. Cuando esto ocurre se dice que la EDO (2. y) en la o EDO y = f (x.1) admite la factorizaci´n f (x. b − ae(a−b)κt =⇒ a−x = Ce(a−b)κt . Ejemplo 2. luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C. entonces tenemos dx = κdt (a − x)(b − x) =⇒ log a−x = (a − b)κt + C. Se sabe que la velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n de A y B. b−x x(0) = 0.2) como x(0) = 0.1. entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2.2 OTRAS EDOS DE PRIMER ORDEN 7 2. En general la soluci´n es y(x) = ± C + x o depender´ de las condiciones iniciales. o Usando lo anterior tenemos ydy = xdx ⇐⇒ y 2 = x2 + C. donde κ es la constante de proporcionalidad. Aplicaciones Ejemplo 2. C = a/b.1. donde el signo + o − diferencial propuesta. Lo anterior nos conduce a la EDO o x = κ(a − x)(b − x). luego x(t) = ab Ejemplo 2. Un ejemplo trivial de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal homog´nea (1.2 Supongamos que tenemos una reacci´n qu´ o ımica A + B → C y que en t = 0 la concentraci´n de A es a y la de B es b. si nos interesa el PVI con la condici´n a o √ 2. Otras EDOs de primer orden Ecuaciones separables Comenzaremos por las ecuaciones separables. 2.1) es o una ecuaci´n separable. y) = a(x)b(y).3 La velocidad de escape de la Tierra . La expresi´n anterior define una familia de curvas en R2 √ son soluci´n de la ecuaci´n o que o o 2 . Por ejemplo.

2 vr 1−ω 2ω (1 − ωv) (1 + ωv0 ) Despejando v tenemos la soluci´n o 1 v(t) = ω 1+ωv0 1−ωv0 1+ωv0 1−ωv0 e2gω(t−t0) − 1 e2gω(t−t0) + 1 . r Para que nuestra nave escape definitivamente de la tierra es suficiente que v ≥ 0 cuando √ r → ∞. g Escojamos r = 2.4 La ca´ de un cuerpo en un medio viscoso se puede modelizar mediante la ıda ecuaci´n para la velocidad v(t) o v = g − κv r . dr r La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 = 2gR2 /R + C. Ejercicio 2. Como g = GMT /R2 . Ejemplo 2. Resolvamos la ecuaci´n o dv = dt g − κv r v v0 v =⇒ t − t0 = v0 dv 1 = g − κv r g v v0 dv . . siendo R el radio de la tierra (que supondremos una esfera). Poniendo los datos R = 6400000 metros g = 9. Obviamente r varia con el tiempo por lo que la ecuaci´n anterior se torna algo complicada o a simple vista. la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 − 2gR. (2. Si usamos la ley de Newton tenemos dv GMT =− 2 . dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. entonces si t → ∞ el cuerpo s´lo podr´ alcanzar la velocidad l´ o a ımite vmax = 1/ω independiente del valor v0 inicial.3) donde g y κ son ciertas constantes (la gravedad y la viscosidad). Usando la regla de la cadena tenemos v gR2 dv =− 2 .8m/s2 obtenemos v0 = 11200m/s = 11. lo cual nos conduce al valor v0 ≥ 2gR. 1 − ω2 vr ω2 = κ . o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la superficie terrestre. Entonces dv 1 (1 + ωv) (1 − ωv0 ) = log = g(t − t0 ). v(0) = v0. g Como ω > 0.2Km/s. tenemos GM T = gR2.5 Resolver el caso r = 3. ω= κ > 0.2 OTRAS EDOS DE PRIMER ORDEN 8 Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la superficie de la tierra. por ejemplo. entonces.

h → 0.5) tenemos p(t) = rp0er(t−t0) . =⇒ p (t) = r(t. hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros factores como a la falta de espacio o de alimentos que frenar´ el crecimiento.4) cuya soluci´n p(t) = p0 er(t−t0) . l´ t→∞ p(t) = r/c independientemente a ım de p0 . F. pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp no se puede obviar y termina frenando el crecimiento exponencial. r.1. no hay o o a emigraci´n ni inmigraci´n).5.2 OTRAS EDOS DE PRIMER ORDEN 2. Verhulst. p r/c p(t0) = p0. en particular. Luego p(t + h) − p(t) = r(t. r − cp0 + cp0 er(t−t0) (2. p)p(t)h. Resolviendo la EDO (2. a 0 t0 t Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados. El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R. As´ la o a ı.5) En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande la EDO (2.2. Verhulst razon´ que como estad´ o ısticamente el encuentro 2 de dos individuos es proporcional a p (¿por qu´?) entonces tendremos que sustraerle al e t´rmino rp un t´rmino cp2 . p(t0) = p0 . c > 0. propuso un modelo algo m´s realista a o e a conocido como el modelo log´ ıstico. Malthus (1766– e e 1834).4) es una aproximaci´n bastante buena. p)p(t). o . En el caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´ ıstico 2. El modelo de crecimiento de poblaciones 9 Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de individuos de dicha especie en u u el momento t (evidentemente p(t) ∈ N). Sea r(t. (2. r > 0. Si r < 0 la especie esta condenada a la extinci´n y si r > 0 ´sta crece en proporci´n o e o geom´trica. e Aunque el modelo funciona razonablemente bien para poblaciones grandes. (2. Por tanto varios a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s. P. el hecho de que la poblaci´n se o estabilice ha sido comprobado en distintos experimentos con paramecios obteni´ndose una e gran concordancia entre los resultados te´ricos y experimentales. p) = r. constante. de forma que la EDO que modeliza una poblaci´n ser´ e e o a p (t) = r p(t) − cp2 (t). Supongamos que la poblaci´n est´ aislada (o sea. gr´fica 2. Entonces la variaci´n p(t + h) − p(t) es proporcional a p(t)h y o o o el coeficiente de proporcionalidad es r(t.6) Adem´s. p) la diferencia entre en ´ ındice de natalidad y mortalidad de la poblaci´n. p). poblaci´n de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t). La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t.

y(2) = 1 4.6 Encuentra a ser posible todas las soluciones y(x) definidas expl´ ıcitamente si se puede o impl´ ıcitamente de las EDOs siguientes 1. cotg(y)y = x2 + 2 6. a. y = xy(y + 2) 3. y(1 + x2)y + x(1 + y 2 ) = 0 4. y = y(a + by). (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2. y = 1 − x + y 2 − xy 2 5. y(1) = 0 6. cos(y)y = − x sen2y . (1 − x)y = (x + 1)y.2. (x log x)y + 1 + y2 = 0 7.2 OTRAS EDOS DE PRIMER ORDEN 10 2. Problemas Problema 2. y(x0) = y0 > 0. 2. 3xy = y cos x. b > 0.7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1. x2y − 1 = cos(2y). (1 + x2)y = 1 + y 2 2. yy + x − 3xy 2 = 0. l´ x→∞ y(x) = 5π/4 ım 2 . cos(y)y + ex+1 tan y = 0 8. y(0) = 0 3. y(1) = π/2 1+x 5.

8) que hab´ considerado a˜os antes Jacob Bernoulli. La ecuaci´n anterior generalmente es ıa n o imposible de resolver anal´ ıticamente (en cuadraturas) a no ser que se sepa una soluci´n o particular yp . x de donde obtenemos y= C 3 3 − − x log x + x x 2 4 =⇒ z=− C 3 3 − x log x + x. x C − x3 .9 Resolver la EDO de Riccati y = y 2 − 2/x2. Usemos la primera para resolver la EDO.1. En general. Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = −2/x son soluciones particulares. (2. (2. n = 0. y = y 4 z.3) que nos da o o x C z = − + 2. Hacemos el cambio y = 1/x + 1/z.2 OTRAS EDOS DE PRIMER ORDEN 11 2. La forma de la EDO nos induce a buscar una soluci´n del tipo y = c/x. Veamos un ejemplo. dada una EDO de Riccati (2. luego la EDO se transforma en 1 z + z = −3 log x.3) para resolverla. x 2 4 −1/3 . Ecuaciones que se reducen a EDOs lineales o separables Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati En 1695 Johann Bernoulli propuso la resoluci´n de la EDO o y + a(x)y = b(x)y n.8 Resolver la EDO y − 1/(3x)y = y 4 log x. que es lineal y por tanto podemos usar la f´rmula (1.3. y hagamos el cambio o z = y − yp . z = (1 − n)y −n y .7) La resolvi´ su hermano Jacob en 1696. 3 x =⇒ y= 3x2 1 + . En 1724 Jacopo Francesco Riccati estudi´ la EDO o y + p(x)y + q(x)y 2 = f (x). Ese mismo a˜o Leibniz propuso el cambio z = y 1−n o n que transformaba la EDO (2. y =− 1 z − 2.3. o Ejemplo 2. haciendo z = y 1−n . 2. Hacemos el cambio z = y −3 . En efecto. y tenemos o 4 y = −y y /3. que es una ecuaci´n de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal. Ejemplo 2. =⇒ z + (1 − n)a(x)z = (1 − n)b(x). 1. Pasemos a estudiar la EDO de Riccati. la podemos convertir en una EDO lineal. Supongamos que yp es una soluci´n particular de (2. 2 x z =⇒ 2 z + z = −1.7) en una EDO lineal. Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0.8).8). Esta ecuaci´n es una EDO de Bernoulli con n = 4. x La soluci´n la encontramos usando la f´rmula (1. mediante el cambio y = yp + 1/z.

entonces o F (z) = z − 1 + 1/(2 − z). Ecuaciones del tipo y = F (αx + βy) y = F (αx + βy). ux) = x0f (1. =⇒ (z − 2)2 − 1 = Cex . si f es homog´nea de orden 0.3. entonces la EDO anterior se transforma en la EDO y = f (y/x). √ por tanto y = 2 + x ± 1 + Cex .2. f (tx. Una funci´n e o f (x. . y). o sea. y) = f (x. 12 Sea la EDO (2. z−2 =⇒ (z − 2)dz = x + C. y) se denomina homog´nea de orden k si para todo x. Sea y = u x. u) = g(u) = g(y/x).2 OTRAS EDOS DE PRIMER ORDEN 2.10) A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO homog´nea. podemos perder las soluciones y = x + 1 e y = x + 3. ty) = f (x. x−y+2 Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si hacemos z = y − x. En efecto. Como z = y − 1 tenemos z = z−2− 1 . o e o Supongamos que tenemos la EDO y = f (x. toda funci´n homog´nea de orden 0 es una funci´n de y/x. (2. u = y/x. (z − 2)2 − 1 luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| = x + C. entonces z = α + βy .10 Resolver la EDO y = y − x − 1 + 1 . Entonces o e f (x. 2. Sea f una a e funci´n homog´nea de orden 0.11 Resolver la EDO y = (y + x2 − y 2 )/x. que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C. y) y f es una funci´n homog´nea de orden o e 0. entonces f (tx.9) se transforma en la EDO separable dz = x + C. =⇒ z = 2 ± 1 + Cex . y).4. entonces y = xu + u y la EDO (2. y y para todo t ∈ R. f (u) − u Ejemplo 2. z = α + βF (z).10) se transforma el la EDO separable xu + u = f (u). Si hacemos el o e cambio y = ux.9) y hagamos el cambio z = αx + βy. luego (2. Adem´s. N´tese que hemos dividido por (z − 2)2 − 1 por lo que o podemos haber perdido soluciones. Las EDOs homog´neas e Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas. como (z − 2)2 − 1 = 0 se anula en z = 1 y 3. ty) = e tk f (x. =⇒ α + βF (z) Ejemplo 2.

y la soluci´n singular o   x = −2t 1  y = xt + f (t).  =⇒ y = xt + t2 x t=− . La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas). siendo t un par´metro real tenemos la a siguiente soluci´n param´trica conocida com´nmente como soluci´n singular o e u o   x = −f (t). Esta es una EDO de Clairaut con f (z) = z 2. e o o entonces la EDO nos da la ecuaci´n y = xc + f (c). y) = (y + x2 − y 2 )/x. Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambi´n es soluci´n. si u = ±1. ty) = f (x.12 Resolver la EDO y = xy + (y )2. Para encontrar la otra soluci´n o o usamos que x = −f (y ). Otras EDOs de primer orden: la EDO de Clairaut La EDO y = xy + f (y ). 2. Para descubrir cuales son las rectas soluci´n basta notar que si y = c. √ 1 − u2 . es f´cil comprobar que f (tx. como hemos visto u = ±1. de donde deducimos que o y = 0 o x + f (y ) = 0. =⇒ √ dx du = .11) o y = xy + y + f (y )y ⇐⇒ [x + f (y)]y = 0.11) se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734. 2 y=− x2 . La primera condici´n nos da una familia o de rectas y = mx + n. luego las soluciones son las familias de rectas y = cx + c2 . as´ que hacemos a ı el cambio y = u x y obtenemos. c ∈ R. Luego si hacemos y = t. xu = de donde se deduce que arc sen u = log |x| + C ⇐⇒ arc sen(y/x) = log |x| + C. y). lo que puede hacernos perder las soluciones y = ±x. Vamos a o intentar encontrar alguna soluci´n de la EDO Clairaut para lo cual derivamos (2. Ejemplo 2. f derivable y con primera derivada continua (2.5. x 1 − u2 Ahora bien. 4 . Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x e y = −x son tambi´n dos e soluciones de la EDO original.2 OTRAS EDOS DE PRIMER ORDEN 13 Sea f (x.

y) = 0. y) y N (x. y)) = + = + y.13) d Por ejemplo.13 Sean M (x. y) existe una funci´n φ(x.12) a o o d es equivalente a la expresi´n dx (φ(x. y)) = 0. y). ∂M y ∂N y sean funciones continuas en cierto dominio2 Ω ∈ R2 .12) se puede escribir de la forma ı a y por tanto su soluci´n es φ(x. y) = M (x. y) tal que o ∂φ(x. y). y) ∂y ∂φ(x. y) ∂M (x. Ecuaciones exactas y factores integrantes Sea una EDO del tipo y = f (x. y). φ(x. y)) dx = d (φ(x. y) = N (x.2 OTRAS EDOS DE PRIMER ORDEN 14 2. y)) = 0 si y s´lo si. y) (φ(x. ∂y ∀(x. y) ∈ Ω. Por ejemplo. y)) = 0. Teorema 2. dadas dos o funciones M (x. y) dos funciones tales que existan todas las derivadas parciales ∂M .2) y + [a(x)y − b(x)] = 0. a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior. y). ∂y (2.13) o o ∂φ(x.12) se puede escribir de la forma 0. y). y) y N (x. sin agujeros.12) si y s´lo si (2. o o Como 0= d ∂φ(x. ∂x ∂φ(x. y) = C?. ∂x es necesario y suficiente que ∂N (x. y) = M (x. la EDO lineal (1. ∂x ∂y 2 ∂φ(x. (2. dx ∂x ∂y ∂x ∂x ∂y d entonces la EDO (2. y) en la forma equivalente N (x. ∂N . En general no es trivial deducir si una EDO del tipo (2. para cierta funci´n φ(x. y). y)) = 0. entonces la soluci´n de la o o EDO ser´ φ(x. o sea. no es f´cil intuir que la EDO a dx y 3 + yey cos(xy) − se puede escribir como 3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2 3 d xy 3 + ey sen(xy) + = 0. por ejemplo. dx x Obviamente no cualquier EDO del tipo (2. y) = C es una o d soluci´n de (2. y) = N (x. y) ∂φ(x. (2. la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 − exp(x + y)] = 0. y) = C. y) = . As´ surge la pregunta ¿cu´ndo la EDO (2.14) Por dominio entenderemos un conjunto abierto de R2 y convexo.12) se puede reescribir de la forma dx (φ(x. y) = C si y s´lo si (2.12) se puede escribir de la forma dx (φ(x. y)) = 0. Por conveniencia reescribiremos la EDO y = f (x.6.12) La EDO (2.12) tendr´ una soluci´n en cuadraturas del tipo φ(x. o lo que es lo mismo.12) se puede expresar de la forma d (φ(x. La respuesta la da el siguiente o d (φ(x. Entonces. . Est´ claro que si la EDO anterior la podemos a d reescribir en la forma dx (φ(x. ∂x ∂x ∂y ∂y para que exista una funci´n φ(x. y)y + M (x. y) ∂φ(x. y)) dx = 0. y) tal que se cumpla la condici´n (2.

y) = 3y 2 + cos y + x. ¿Qu´ hacer en este caso? ı e ∂y Definici´n 2. ∂x as´ φ(x. es exacta. y) tal que se cumple (2. Ejemplo 2. luego (x. ∂x . Adem´s.12) es inexacta (o no es exacta) si o ∂M (x. y) tal que φ(x. y) = y 3 + sen y + xy + g(x). y) = 3y 2 + cos y + x. luego M (x. =⇒ h(y) = y 3 +sen y. ∂y =⇒ h (y) = 3y 2 +cos y. y) = x2 + xy + cos x + y 3 + sen y = C.2 OTRAS EDOS DE PRIMER ORDEN 15 Definici´n 2.15 Para que la EDO (2. pero ∂φ(x. en cuadraturas. o Ejemplo 2. y) = 2x + y − sen x y N (x. Para calcular h(y) usamos que φ(x. Corolario 2.12) sea exacta es necesario y suficiente que se cumpla la condici´n (2. define la o soluci´n de (2.y) (x.16 Decidir si la EDO (2x + y − sen x) + (3y 2 + cos y + x)y = 0. Vamos a resolverla. ı =⇒ g(x) = x2 + cos x. y la soluci´n. luego ∂M∂y = 1 = ∂N∂x .15 es exacta. ∂φ(x.y) que ∂N∂x = ∂M∂y .14) en cierto dominio Ω ⊂ R2. o sea.y) ∂M (x. ∂y φ(x. es decir existe una funci´n φ(x. y) = y + g (x) = 2x + y − sen x.y) En este caso M (x. y) = C. y) = C. y) = 1. o (x. es φ(x.12) en Ω. toda EDO exacta tiene una soluci´n o a o en cuadraturas en Ω.y) ∂y = ∂N (x.12) se llama exacta si N y M son funciones tales o (x.y) ∂y = 3y 2 +cos y +x. luego ∂φ(x. as´ que no es exacta. y) = y 3 + sen y + xy + x2 + cos x = C. y) = 2x + y − sen x. o Obviamente pod´ ıamos haber comenzado por la segunda ecuaci´n o entonces φ(x.y) (x.14 Una EDO del tipo (2. ∂x De la primera deducimos ∂φ(x.18 Una EDO del tipo (2. y) = x+h (y) = 3y 2 +cos y +x.y) . y) = a(x)y − b(x) y N (x. y) = x2 + xy + cos x + h(y). luego seg´n el corolario 2.17 Comprobar si la EDO lineal (1.y) = ∂N∂x . y encontrar su soluci´n. En este caso y + [a(x)y − b(x)] = 0.13). Como la EDO es exacta entonces u existe φ(x. ∂φ(x.2) es exacta.

se dice que ρ(x. y) ∂N (x. y) La expresi´n anterior es sencilla de resolver si la funci´n R(x. Veamos a continuaci´n dos de ellos: a o 1. o sea.12) si la EDO ρ(x. y)y es exacta. Ahora bien. y) + ρ(x) . y) si y s´lo si ρ(x. y) + ρ(x. y) + ρ(x.15) Es decir. Obviamente no es exacta.1. y) ∂M (x. una ecuaci´n inexacta tiene un factor integrante ρ(x. y) de la derecha es una funci´n o o o s´lo de y.12). Entonces. en cuyo caso ρ(x) = exp( R(x)dx). y) ∂ρ(x.15) es f´cilmente resoluble. para que admita un factor integrante ρ(x. y)M (x. o En el segundo caso tenemos M (x.15) nos da ρ(x) luego ∂M (x. y). ∂y ∂x la cual es no trivial de resolver. ∂y ∂x ∂x .6.19 En general. o ∂M (x. y)N (x. o Por ejemplo consideremos la EDO x2 sen y + xey y = 0. ∂y ∂y ∂x ∂ρ(x) ∂N (x. cuando la funci´n ρ es una funci´n que s´lo depende de x o sea. Factores integrantes 16 Definici´n 2. una EDO es exacta si y s´lo si se tiene la condici´n (2.15) es ıa o m´s complicada de resolver que la EDO original. o o o En el primer caso (2. ρ = ρ(y). y). y) + ρ(x.14). y) de la derecha es una funci´n o o o s´lo de x. ∂y ∂y ∂x ∂x (2. y)M (x. luego ρ(x. y)x2 cos y = xey + ρ(x. y) ha o o de satisfacer la ecuaci´n o ∂ρ(x. y) ∂M (x. y) . y) = N (x.15). y) = N (x. ρ = ρ(x) o o o 2. y) ∂ρ(x. cuando la funci´n ρ es una funci´n que s´lo depende de y. en cuyo caso ρ(y) = exp( S(y)dy). y) − 1 dρ(x) ∂y ∂x = = R(x. y) ∂M (x. y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x. y) cumple o o con la condici´n (2. y) − 1 dρ(y) ∂x ∂y = = S(x.2 OTRAS EDOS DE PRIMER ORDEN 2. y) = ∂y ∂x si y s´lo si o M (x. y) + ρ(x. y) ∂N (x. y) ≡ 0 es un factor o integrante de (2. dada la EDO (2. De hecho en la mayor´ de los casos la ecuaci´n (2. ρ(x) dx N (x. y)N (x. y) ∂ρ(x. y) ∂ρ(y) + ρ(y) = ρ(y) . ρ(y) dy M (x. por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en los que (2. y) La expresi´n anterior es sencilla de resolver si la funci´n S(x. y) ∂ρ(x. y)ey . y) ∂N (x. y) luego ∂N (x.

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − = −2 sen(2y), ∂y ∂x =⇒ ∂M (x, y) ∂N (x, y) − ∂y ∂x /N (x, y) = −

17

ρ 2 = , x ρ

luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1− x2 as´ ı y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M (x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y =⇒ 3 ρ ∂N (x, y) ∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x

+

sen(2y) x

y = 0, sen2 y + h(y), x

∂φ(x, y) sen2 y =1− , ∂x x2

=⇒

φ(x, y) = x +

=⇒

h (y) = 0,

=⇒

h(y) = C,

= C.

luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y =⇒ h (x) = 0, =⇒ h(x) = C, =⇒ φ(x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal´ ıticamente, es por ello que se necesita de m´todos fiables para obtener la soluci´n de una EDO num´ricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador s´lo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] ∪ [x1 , x2 ] ∪ · · · ∪ [xN −1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l´ ıneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´ “muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x

x0

x1

x2

xk

Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor´ de m´todos num´ricos como una red ıa e e equiespaciada o uniforme de paso h = l/N . As´ pues tendremos las siguientes ecuaciones ı l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o ¿C´mo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as´ sucesivamente. ı 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x

(x,y)=(xk ,y(xk )

∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!

La aproximaci´n m´s sencilla es por tanto cuando nos quedamos en la serie anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver n´mericamente una EDO de primer orden. N´tese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as´ sucesivamente. ı Veamos algunos ejemplos. Comenzaremos con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x ∈ [0, 1],

cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´fica 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Soluci´n num´rica (•) y exacta (l´ o e ınea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

18. 1] tenemos la soluci´n representada o en la gr´fica 5(izquierda).95 0. 17. Si repetimos los c´lculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que est´n representados en la gr´fica 5 (derecha). 8.00467484 -0.725256 0. por tanto.45 0. 10.8 0.697474 0.726841 0.018787 20 Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x.7039 0.676582 0.00245885 -0.0169031 -0. 9. 40 y(0) = 0. 11. 60 40 30 20 20 0.837462 0.5 2 Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0.694092 0. o u o Comparemos ahora la soluci´n n´merica con la exacta (ver figura 4).0127016 -0. 14.0187748 -0.85 0.698658 0. x ≥ 0.2 OTRAS EDOS DE PRIMER ORDEN k 0 1. a Consideremos ahora el problema y − 1 − y 2 = 0.3 0. a a o o podemos ver en la gr´fica 5 derecha que pr´cticamente coinciden. como la soluci´n exacta de esa ecuaci´n es y(x) = tan x.0178206 -0. Los resultados se pueden apreciar en la o gr´fica 4 (derecha).0100397 -0.1 0.9 0.5 2 1 1.25 0. 2.807602 0.35 0. Adem´s. y(xk ) 1.15 0. ¿c´mo decidir a priori si el m´todo de Euler o e nos est´ dando la souci´n correcta? y ¿en qu´ intervalo podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce una vez m´s a preguntarnos condiciones suficientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO.2 0. 15. 2] (izquierda) y e comparaci´n con la soluci´n exacta (derecha).746675 0.713139 0. xk 0 0. o o Si usamos un esquema de 20 puntos en el intervalo [0. Una pregunta natural es.693171 0.704707 0.0181506 -0.713061 0.770184 0.7 0.0147575 -0.797562 0.694429 0.686241 0.55 0. 20. y(0) = 1 con N = 20. y(0) = 0.694733 0.0162994 -0.735759 y(xk ) − y(xk ) 0 -0. 13. Para ello primero o u resolvemos la ecuaci´n exactamente y(x) = x − 1 + 2e−x . x ∈ [0. o Si hacemos un simple cambio como aumentar en n´mero de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora notablemente.871416 0.05 0. 12.6876 0. 0.74064 0. 5.5 0. a a La principal raz´n de la divergencia consiste en que la soluci´n tan x no est´ definida en o o a x = π/2.905 0. 16.909675 0. 0.70483 0.723482 0.67535 0.952459 0.5 1 1.710499 0.4 0. 7.86475 0.0184046 -0.716972 y(xk ) 1. 6.676684 0. 4.0114527 -0.75 0.68072 0.95 1.0187107 -0.0155874 -0.00844901 -0.759376 0.781636 0.5 10 -20 -40 0. 3.680253 0.0174074 -0.00666595 -0. ¿Qu´ ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?. . 19.829012 0.0137992 -0.697623 0.65 0.6 0.0185892 -0.

y0 = y(x0 ). . yk ) + f (xk . 2 . El m´todo de Euler mejorado e 21 El m´todo de Euler es el m´s sencillo pero tiene un problema. yk + hf (xk .2 OTRAS EDOS DE PRIMER ORDEN 2. es a e algo inc´modo sobre todo si f es una funci´n algo “complicada”. . xk + h en su forma integral xk +h y(xk+1 ) = y(xk ) + xk f (x. y) en el intervalo xk . y(x))dx. yk ) + h2 ∂f ∂f (xk . (2. .2. N. yk ) + f (xk+1.18) f(x. de forma que tengamos yk+1 = yk + hf (xk .y(x)) y k xk Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximaci´n es muy burda. Una forma de obviar esta dificultad es usar la predicci´n que da el m´todo de o e Euler yk+1 = yk + hf (xk .7. o Para ello escribamos la EDO original y = f (x. es “poco preciso”. ∂x ∂y 2 y0 = y(x0 ). yk ) . lo que nos conduce nuevamente al esquema de euler (2. yk+1 )] . k = 0. o sea. 1. yk+1 )] . 2 k = 0. yk ) (ver figura 6 izquierda) xk +h xk f (x. . ¿C´mo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2. de esta forma obtenemos el m´todo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk . es decir xk +h xk f (x. 1. Una mejor aproximaci´n es usar la regla de los trapecios o o (ver figura 6 derecha) para aproximar la integral. yk ) + f (xk+1 .19) Para resolver este problema aproximamos la integral mediante un rect´ngulo de altura a f (xk . . yk ))] . yk ).17) en el tercer orden. es un m´todo de orden e a e uno. y0 = y(x0 ). . Por ello se suele usar una o o modificaci´n del mismo. (2. 2 Obviamente este esquema es muy inc´modo pues hay que resolver la ecuaci´n impl´ o o ıcita para hallar yk+1 . . .20) ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢   ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢ ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡ ¢  y k x k+1 h [f (xk. La ecuaci´n anterior se conoce como el m´todo de la serie de Taylor de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar que es un m´todo de orden 2). yk ) + f (xk+1 . y(x))dx ≈ hf (xk. yk ) (xk . N. yk ). y(x))dx ≈ de donde se deduce el esquema impl´ ıcito h [f (xk .

Comenzaremos con la misma primera ecuaci´n de antes o y + y = x.719873 y(xk ) 1. 15.0175 0.4 0.4 0.0075 0.8 1 0. 10.1 0.871416 0.759376 0. 11.837462 0.693171 0. xk 0 0.697623 0.9 0.9 0.952459 0.00120885 -0.00982318 -0. 17.8 0.867958 0.75202 0.732422 0.55 0.694092 0. 22 cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Los resultados los vemos en la gr´fica 7 izquierda) a k 0 1.8021 0. Escogeremos una discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales).00345845 -0.00904012 -0.25 0.45 0. 1]. 7. 8. A la derecha vemos la e comparaci´n de los errores del del m´todo de Euler (c´ o e ırculos obscuros) con los del m´todo e de Euler mejorado (c´ ırculos claros) .725256 0.00550115 -0.0119578 -0.15 0.716216 0. 14.680567 0.70483 0.85 0.2 0.2 0.698244 0. 0.5 0. 20. 12.807602 0.85 0.3 0. y(0) = 1 con N = 20 usando el m´todo o u o e de Euler mejorado. 19.708079 0. 4. 5.65 0.0132186 -0.681515 0.703238 0.0125 0.75 0.713139 0.35 0. 13. 0. 16.686343 0.7039 0.7 0.74064 0.0105693 -0.690467 0.684853 0. 6. 3.0154026 -0.2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos.6 0.0143632 -0. y(xk ) 1.0112803 -0.00821835 -0.0158858 Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x.00645092 -0.723482 0.0138047 -0.6 0. 0.95 0.781636 0.00735595 -0.00450443 -0.0025 0.775186 0. x ∈ [0. 18.69333 0.735759 y(xk ) − y(xk ) 0 -0.95125 0.005 0.01 0.682134 0.907314 0.0148955 -0. y(0) = 1. 9.698658 0.015 0.0126034 -0.694733 0.00236077 -0.75 0.713061 0. y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler mejorado.05 0.95 1.909675 0. 2.8 0.7 5 10 15 20 Figura 7: Comparaci´n gr´fica de la soluci´n num´rica y exacta de y + y = x.832957 0.

y + 2yex − y 2 = e2x + ex . n + k = n. y = x3 + 2y/x − y 2 /x. yp = x. y = (ax + by)/(cx + ey).23 Resolver las EDOs de Riccati 1. 5. 2. Problemas de EDOs reducibles a EDOs lineales o separables Problema 2. 3y + y 2 + 2/x2 = 0. Problema 2.24 Supongamos que tenemos la EDO y = f (y/x). (2x + 4y + 3)y + 2 + 2y + 3 = 0. (x + y + 2)y = 3x − y − 6. 4y 3 y + 4xy 4 = 4x. . Como caso particular resolver la EDO y = (x + y)/(x − y). v = y/x.2 OTRAS EDOS DE PRIMER ORDEN 23 2. y = y/x + tan(y/x). (1 − x3)y − 2(1 + x)y = y 5/2 . Resuelve las siguientes o e EDOs 1. 5. xy − y = xk y n . Considerar los casos ae = cb y ab = cd. yp = −x2. 2.22 Resolver las EDOs de Bernoulli 1. y + y = xy 3 . 4. 4. y = 2(y/x) + (y/x)2 √ 2. (4x − 3y − 6)y + x − 2y + 1 = 0. 6. Prueba que esta ecuaci´n o es equivalente a la EDO separable xv + v = f (v). 3. y = 1 + y/x + (y/x)2. 7. Problemas Problemas de EDOs de Bernoulli y Riccati Problema 2. para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). y − 2xy + y 2 = 5 − x2. A la ecuaci´n y = f (y/x) se le suele denominar EDO homog´nea. y + 2y = ex y 2 .8. 3. xy + y = y 2 log x. 7. 4. 6. x3 sen yy +2y = x (resolverla respecto a x y no a y. 5. n = 1. (x − x y)y = y 3.

Problema 2. e En caso de que no lo sean.28 Resuelve los siguientes problemas de valores iniciales 1. 4. x(ey − y ) = 2. encuentra. 4. y(x) = x + 1 + 0 x x x y(t)dt. (x2 − 2y + 1)y = x. e−y − (2y + xe−y )y = 0. 2. 2. Problema 2. 5. Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey).25 Resolver las EDOs del tipo y = F (ax + by) √ 1. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0. y = (x − y + 5)2. Como caso particular resolver la EDO y = (x + y + 1)/(x − y + 2). 1. 3. 0 (x − t)y(t)dt = 2x + Problemas de EDOs exactas y factores integrantes Problema 2. Resolver la EDO y = (ax + by + m)/(cx + ey + n). 0 4.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resu´lvelas.2 OTRAS EDOS DE PRIMER ORDEN 24 8. 2. 8. y(t)dt. 2xy 3 + 3x2y 2 y = 0. y(1) = 1. a ser posible. 4. 3x2(1 + log y) − (2y − x3/y)y = 0. 2xy + (x2 − y 2 )y = 0.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resu´lvelas. 7. y = sen(x − y). Problema 2. 2x(1 + x2 − y) − x2 − yy = 0. un factor integrante. e 1. xy − y − y 2 = 0. . (x2 + y 2 + x) + yy = 0. y(2) = 1. 2. 3. 3. 6. 3xt + y 2 + (x2 + xy)y = 0. y/x + (y 3 + log x)y = 0. 3. y = x + y − 1. y(0) = 1. (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0. y(2) = 1. y = 2(y − x) + (y − x)2. 3x2 + 4xy + 2(y + x2)y = 0.

y + sen(x)y − cos(x)y 3 = 1 + x2. k > 0. 6.2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2. 2 2 . Problemas del m´todo de Euler e Problema 2. b y k. y = xy − ey . y = xy + log(y ). y + 2ey = x2 + y 2 .30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el m´todo de Euler y el de Euler mejorado. √ 3. 4. y(0) = 1.29 Resolver las EDOs de Clairaut 1. e 1. (toma distintos valores de a. y = k(a − y)(b − y). y = 1 + sen x(1 + y 2 ). n = 0. 4. 5. 3. 2. y = ex y. y(0) = 0. a. y = xy + 1 + (y )2 . z(0) = 1. z − 2xz = 2. y = ex y −2 . y(0) = 1. y = xy + (y )n. y(0) = 0. 1. b. (y )2 + x3y − 2x2y = 0. y(0) = 1. 25 5. 7. 2. y(2) = 1.

y1 . . Por comodidad vamos a usar la forma vectorial del sistema anterior. . . y2 . es decir cuando fk . y2 .  . . .  . yn ). as´ que nos restringiremos al estudio e a ı de los SEDOs lineales. y1. y2 . .  (3. . y1 . . . y2 .  . yn ) es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. . . .1) . .  . k = 1. .  . .  . . . . y2 .    y (x) = a (x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). .. . an1(x) an2 (x) an3(x) · · · ann (x)   B(x) =    b1 (x) b2 (x) .3) (3. . . . . n 1 2 n n donde y1 .    y (x) = f2(x. . . . . yn )     2    Y (x) =  . o sea. . .    y (x) = a21 (x)y1(x) + a22 (x)y2(x) + · · · + a2n(x)yn(x) + b2 (x). . . . lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + · · · + a1n(x)yn(x) + b1 (x). n. y1. . yn ). Sistemas de EDOs Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma   y1 (x) = f1(x. . . yn )  y2 (x)   y (x)   f2(x.. diremos que SEDO es homog´neo. y . . . Y ). fn son ciertas funciones conocidas. y1 .1) en la forma vectorial d Y (x) = Y (x) = F (x. . no homog´neo. un sistema de ´stas es mucho m´s complejo. . k = 1. . Y y F son los vectores       y1 (x) y1 (x) f1(x. e e . 2 . .3 SISTEMAS DE EDOS 26 3. . . . .  . y2 . 2 (3. ..    y (x) = f (x.  .2) Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap´ ıtulo anterior. . o sea cuando todas las componentes del vector B son cero. .4) Cuando B(x) = 0. y ). y . F (x. vamos a denotar por Y . Y (x) =  . Usando lo anterior podemos reescribir (3. yn ) = j=1 akj (x)yj (x) + bk (x). . . .  . yn (x) yn (x) fn (x. bn (x)    .   . . . dx (3. y si al menos una componente de B es no nula. . . yn son funciones de x desconocidas y f1. n es una funci´n lineal de la forma o n fk (x. y1 . . donde   A(x) =     a11(x) a12(x) a13(x) · · · a1n (x) a21(x) a22(x) a23(x) · · · a2n (x)   . Est´ claro que si el estudio de una EDO de primer orden era “bastante” a complicado. . n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x). Y ) =  . . .

3 Sean Y1 (x). son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes. Si Y1 e Y2 son soluciones del sistema Y = A(x)Y . . . Los vectores (funciones) x x y x2 x2 . .1 .2 Sea A(x) ∈ Rn×n . . Nota 3. . Y = A(x)Y + B(x). entonces cualquiera de sus combinaciones lineales son tambi´n soluci´n. Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y . Entonces el PVI.8 Juntando los teoremas 3. para x = x0.6 Sea A(x) ∈ Rn×n . o sea los vectores.3 y 3. . Y0. . . Teorema 3. . . (3. . .7 Si Y1 (x). . e o Teorema 3. Yk (x) del PVI.3 SISTEMAS DE EDOS 27 3. . Yk (x) soluciones del sistema Y = A(x)Y . no obstante. . Y = A(x)Y . entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica o ´ combinaci´n lineal de dichas soluciones. cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x). Entonces. o e Nota 3.1. Yn (x0)| = 0.6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x). .5) El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes. . . k sean linealmente independientes es suficiente que las condiciones iniciales. Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x ∈ R es necesario y suficiente que para alg´n x0 ∈ R u det |Y1 (x0) Y2 (x0) . . .9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R. Yk (x) sean linealmente dependientes para todo x ∈ R es necesario y suficiente que lo sean para alg´n t ∈ R. . .i . . la soluci´n del PVI. ´ o Comenzaremos estudiando el sistema hom´geneo. Y0.4 Para que las soluciones Y1 (x).k sean linealmente independientes. . o sea cuando B(x) = 0 o Y (x) = A(x)Y (x). La ecuaci´n lineal Y = A(x)Y + B(x) o Comenzaremos enunciando un teorema que demostraremos al final de este cap´ ıtulo. obviamente son dependientes pues x0 x2 0 . u Corolario 3. . . En particular. Teorema 3. existen unos unicos coeficientes c1 . i = 1. . . . .1 Sean A(x) ∈ Rn×n y B(x) ∈ Rn una matriz un un vector cuyos elementos son funciones continuas en R. Nota 3. .5 Es importante destacar que el resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o manifiesto en el siguiente ejemplo. . Y = A(x)Y . Yi (x0) = Y0. = x0 2 x0 x0 Teorema 3. . Y (x0) = Y0 tiene una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas. el conjunto de todas las soluciones del sistema homog´neo Y = A(x)Y es un espacio vectorial de dimensi´n n. A(x) ∈ Rn×n y continua en R. Y (x0) = Y0 se expresa de manera unica o ´ como una combinaci´n lineal de las soluciones del sistema homog´neo correspondiente. e o Corolario 3. O sea. Para que los vectores (funciones) Y1 (x).

2. (3. Comenzamos con el correspondiente a λ1 = −5 (A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 =⇒ −6 12 3 −6 x1 x2 =0 =⇒ x1 = 2x2. n. .7) donde λ es cierta constante y v un vector constante.7) en (3. .10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y. cn son constantes arbitrarias y λk . =⇒ 6 12 3 6 x1 x2 =0 =⇒ x1 = −2x2 . . n. (3.3. k = 1. por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 .6) en la forma o Y (x) = eλx v. vn linealmente independientes en cuyo caso la soluci´n general es. . =⇒ v1 = −2 1 . es decir estudiaremos el problema (3. . Es decir. . Ejemplo 3. . λ2 = 7. Los SEDO lineales con coeficientes constantes En adelante asumiremos que A es una matriz n × n real de coeficientes constantes.8) donde c1 . . .6) Busquemos la soluci´n de (3. (3. Sustituyendo (3. Calculamos los autovectores. (3. . k = 1.1. Comenzamos calculando los autovalores y autovectores det(A − λI) = −35 − 2 λ + λ2 = 0 =⇒ λ1 = −5. . Por tanto la soluci´n general es o Y (x) = c1 e−5x 3 −2 1 + c2 e7x 2 1 . seg´n o u el teorema 3. . . 3.5) cuando la matriz A es de coeficientes constantes Y (x) = AY (x). . Autovalores simples A ∈ Rn×n . son los autovalores asociados a los autovectores vk . . .2.3 SISTEMAS DE EDOS 28 3.6) tenemos. como v es constante3 Y (x) = (eλx v) = λeλxv =⇒ λeλxv = A eλx v.7) es soluci´n del sistema homog´neo si y s´lo si λ es un autovalor de A y o e o v su autovector asociado. =⇒ v2 = 2 1 . e e . de la forma n Y (x) = k=1 c k e λk v k . Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a t´rmino.

29 Es decir. exp[x(A + B)] = exp(xA) exp(xB). Para todas las matrices A. La serie anterior converge para todo x ∈ R quienquiera sea la matriz A (de hecho converge en todo C). La exponencial matricial exp(xA) ∞ k=0 Sea A una matriz n × n y x ∈ R. k! 2 n! (3. t ∈ R y toda matriz A.3. exp(0A) = In y para todo x ∈ R exp(xOn) = In . 5 3 cos x + 0 1 v1 = 5 3+i =⇒ 5 3 sen x + 0 1 cos x . donde On es la matriz nula. Proposici´n 3. ¿Qu´ hace en este caso? e Si A es real y λ es el autovalor complejo asociado al autovector v. 2. Ahora bien. Para toda matriz A. 2 −5 2 −4 Y. Definiremos la funci´n exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···. 5. As´ pues. si tenemos Y (x) = eλx v = Y (x) + i Y (x). 4.9) donde la convergencia la entenderemos elemento a elemento. Y1 (x) = e−x por tanto Y (x) = c1 e−x 5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x . λ2 = −1 + i. entonces Y (x) = eax ( v cos bx − v sen bx). Para toda matriz A. d dx exp(xA) = A exp(xA) = exp(xA)A. Y2 (x) = e−x − 3. la inversa [exp(xA)]−1 = exp(−xA). 3. son complejos. Para todos x. entonces el complejo conjugado λ es el autovalor asociado al autovector v. Y (x) = eax ( v sen bx + v cos bx) son soluciones linealmente independientes de Y = AY .3 SISTEMAS DE EDOS Ejemplo 3. exp[(x + t)A] = exp(xA) exp(tA). en nuestro ejemplo ı λ1 = −1 − i. B con AB = BA.11 Encontrar la soluci´n general del SEDO o Y = Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ + λ2 = 0 =⇒ λ1 = −1 − i. Y (x) y Y2 (x) = Y (x) son soluci´n de o Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY . . Para toda matriz A. sen x .12 La funci´n exp(xA) satisface las siguientes propiedades: o o 1.

. . Y = AY . exλn 0 0 . Ak = P D k P −1 tenemos exp(xA) = pero. . . 0 . . Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n cualquiera sea Y0 ∈ R y es de la forma Y (x) = exp[(x − x0)A]Y0 . . o o Corolario 3.  ∞ k=0 A kx k k! = ∞ k=0 PD P k −1 x k k! =P ∞ k=0 Dk xk k! P −1 = P [exp(xD)]P −1. siendo (ei)i la base can´nica de Rn . . como   D=   λ1 0 · · · 0 0 λ2 . . . con A ∈ R e siempre tiene n soluciones linealmente independientes. Ante todo tenemos que el polinomio caracter´ ıstico de A es 1 − λ −6 = 4 − 3 λ + λ2 = 0. As´ pues. . . .. N´tese que el caso de n autovao lores distintos se puede resolver por este m´todo. . para encontrar la soluci´n general del sistema Y = AY basta saber calcular la ı o exponencial de xA. .14 (de existencia y unicidad de la soluci´n del SEDO homog´neo) o e n×n El sistema homog´neo Y = AY . λn 0 0 . . . . De esta definici´n y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . siendo D una matriz diagonal. las columnas de exp(xA) son soluci´n de los PVI. λ2 = 4. a En este caso existe una matriz P tal que A = P DP −1. . Para todo x ∈ R. −1 2 − λ =⇒ λ1 = −1. Y (0) = ei que adem´s son linealmente independientes por el teorema 3. . . exp(xIn) = ex In. Comencemos por el caso m´s sencillo cuando la matriz es diagonalizable. . Dado cualquier vector constante v ∈ Rn se cumple d [exp(xA)v] = A[exp(xA)v]. e Definici´n 3.. n obtenemos n soluciones v1. Entonces como para todo k ∈ N. . . Si escogemos o o e v sucesivamente como ei . vn del PVI.    . . . Y = AY con Yi (0) = ei . 2. . . En efecto. =⇒ de donde se deducen nuevamente las soluciones del sistema.13 Una matriz V ∈ Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY .        exp(xD) =    e λ1 x 0 · · · 0 0 e λ2 x . . 0 .3 y por tanto a constituyen una base del espacio de soluciones del sistema homog´neo correspondiente. . . . i = 1. . . dx 30 por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. . e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 −6 −1 2 . y por tanto el PVI.3 SISTEMAS DE EDOS 6. como hemos visto. . . . Y = AY .

. . . + (A − λIn )k v + .) Calculamos todos los autovalores λi y los correspondientes autovectores vi .3 SISTEMAS DE EDOS Calculamos los autovectores. o o donde v1 es el autovector asociado a λ. 1)T . . 2 k! =0 =0 En el caso que la multiplicidad de λ sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homog´neo e 1. . . . . 2. . . . luego a exp(xD) = Luego exp(xA) = P exp(xD)P −1 e−x 0 0 e4 x . i = 1. para λ2 = 4 obtenemos v2 = (−2. + (A − λIn )k v + . exp(λIx)v = eλx v =⇒ exp(xA)v = eλx exp[(A − λIn)x]v. k = 1.) Si k < n entonces hay autovalores m´ltiples.4. . 2 k! Es decir. Entonces otra soluci´n. 31 An´logamente. n. Si tenemos entonces n autovectores v1 . . Una soluci´n es por tanto e λx v1. independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A − λIn )v2 + = eλx v + eλx x(A − λIn)v2 . vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = eλk x vk . i = 1. xk x2 (A − λIn)2 v2 + . . Sea λ uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e . =⇒ x1 = 3x2. = 4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex − + 6 e4 x 5 3 e4 x 5 3. . Para λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 . que el autovalor λ es doble y que tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n 1). k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eλix vi . exp(xA)v = eλx v + x(A − λIn)v + En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0 si v es el correspondiente autovector. ¿Qu´ hacer cuando hay una ra´ m´ltiple. . o 2. P = 3 −2 1 1 . P −1 = 6 5 ex 2 5 ex −1 5 . . x2 xk (A − λIn)2 v + . =⇒ v1 = 3 1 . . Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v. k. luego exp(xA)v = eλx v que es lo mismo que ten´ ıamos antes. . . . . . El otro vector v2 que necesitaremos lo buscaremos de forma que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. El caso de autovalores m´ ltiples u pero Vamos a explotar las propiedades de la matriz exponencial. 1 5 2 5 3 5 . . o m´s exactamente si la matriz A no es diae ız u a gonalizable? Supongamos. Si k = n entonces las Yi (x) generan a todo el espacio soluci´n. por ejemplo.

1)T y v2 = (1. Para cada autovalor. 0.3 SISTEMAS DE EDOS 32 dimensi´n de autoespacio asociado a λ). Aj ∈ Rn . aa generan todo el subespacio correspondiente a λ. . 0 0  pero como (A − I)v3 = (β. ⇐⇒  0 0 0   x2  = 0. Calculamos los autovalores λk de la matriz A ∈ Rn×n del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor. o . Supongamos que ma > mg . 0. Y ı as´ con cada uno de los autovalores m´ltiples. e ´ Adem´s. Luego tenemos dos soluciones independientes     0 1 2x  x . . y (A − λIn)3 v = 0. x2 . 2. 0. luego tomando4 β = 1. y as´ sucesivamente hasta completar el subespacio. =⇒ x1 = 0. 0 0 . x3 ∈ R. α = 0 obtenemos la tercera soluci´n que buscabamos o       x 0 0 x  1  = ex [I3 + x(A − I3 )]  1  = ex  1  . respectivaa mente. los autovectores correspondientes son v1 = (0. Y3 (x) = e exp(A − I3 ) 0 0 0 As´ pues ı      x 1 0 2x   + c2 ex  0  + c3 ex  1  . . es decir    x1 0 0 0 (A − I)2 v = 0. . la o soluci´n “generada” por el autovalor) en la forma o Yk (x) = e 4 λk x mk −1 j=0 Aj xj . deducimos que β = 0.6) en e general conocido como m´todo de Euler que consiste en lo siguiente: e 1. 0 0 2  Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. (3. . buscamos la soluci´n del correspondiente subespacio (o sea. . Si ma = mg entonces los vectores Yi (x) = eλi x vi o i = 1. 0 Y (x) = c1 e 0 0 1  El m´todo anterior nos indica un procedimiento general para resolver el SEDO (3. x3 0 0 1 o sea    0 1 v3 = α  0  + β  1  . Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera soluci´n. Aplicando el m´todo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal que (A − I3 )2v = 0. entonces para completar el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg o soluciones linealmente independientes) buscamos los vectores v1 . . 0)T . 0)T = 0. ı u Veamos un ejemplo:  1 1 0 Y =  0 1 0  Y. .10) Cualquier elecci´n de α y β es posible siempre que β = 0. vl (l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn )2v = 0. luego los los vectores v tales que (A−λIn )v = 0 y (A − λIn)2 v = 0.

. 0 2 33 Sustituyendo en el sistema tenemos         a1 + a2 + (a4 + a5)x a4 a4 a1 . luego c = V −1 (x0)Y0 . la soluci´n general de Y = AY se puede escribir de la forma Y (x) = V (x)c. En efecto.12) . (3. entonces si definimos el vector c = (c 1. . Veamos como funciona este m´todo en el e  1 0 Y = 0 ejemplo anterior. por tanto la soluci´n es o Y (x) = V (x)V −1 (x0)Y0 . es decir. entonces tenemos Y (x0) = Y0 = V (x0)c. . (3. Para el primero tenemos e ´ al igual que antes Y1 (x) = e2x (0. . 1. . a4 = a2 .            x 1 a2 a1 Y2 (x) =  a2  +  0  x ex = ex a1  0  + a2  1  x . Sea ahora el PVI. exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0). a2 + a 5 x Y2 (x) = ex  a2  +  a5  x +  a5  =  2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5  a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2.11) Lo anterior nos permite encontrar una expresi´n para la matriz exponencial conocida o una matriz fundamental. usando que la matriz exp(xA) es la soluci´n del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos.3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj . Ejemplo 3. j = 0.15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3. La matriz fundamental de soluciones y la matriz exp(xA) Sea V (x) una matriz fundamental. a3 a6 =⇒ a3 = a5 = a6 = 0.1. o Y = AY con Y (x0) = Y0 . o e 3. mk − 1 sean nulos. 0 0 0 0 que coincide con la soluci´n encontrada por el m´todo anterior. . con a1 y a2 cualesquiera.4. 0.  1 0 1 0  Y. .10. 1)T y para el segundo buscamos las soluciones en la forma      a1 a4 Y2 (x) = ex  a2  +  a5  x . cn )T . .

exp[(x − x0)A]Y0 = 1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4 = −e−5x + e7x 1 −5x e 2 1 + 2 e7x luego la soluci´n del PVI es o Y (x) = 1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12 + 7 7x e . cualquiera sea Y0 ∈ Rn existe y es unica y se expresa mediante la f´rmula ´ o x Y (x) = exp[(x − x0 )A]Y0 + x0 exp[(x − t)A]F (t)dt.14) Ejemplo 3. Y (x0) = o Y0 . El SEDO lineales no homog´neo e Y (x) = AY (x) + F (x). Teorema 3. −2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e + 1 e7x 2 2 . es decir Yp (x) = AYp (x) + F (x).18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex . En este caso la matriz exponencial es la matriz del ejemplo 3.13) Pasemos a estudiar el sistema no homog´neo e Para resolverlo usaremos la linealidad. donde C ∈ Rn . En particular. 12 . v1 = (−2. −e6t−5x + e−6t+7x 1 − 3 ex + 1 e−5x (1 + e12x ) 6 1 6t−5x e 2 + 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2 − 1) .13). (3. . Comenzamos por x 0 x exp[(x − t)A]F (t)dt = = 0 x 0 1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t) 4 −e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t) 2 dt = 0 1 1 −5x 12x e (e 12 0 et dt = . si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x).13) es de la forma Y (x) = Yh(x) + o o Yp (x).14). Y (0) = 0 1 .15. (3. Proposici´n 3.16 La soluci´n general del SEDO (3. 1)T y λ2 = 7 y v2 = (2.3 SISTEMAS DE EDOS 34 Los autovalores y autovectores son λ1 = −5.5. −2 2 1 1 −1 = −2e−5x 2e7x e−5x e7x 1 −4 1 4 1 2 1 2 3.17 La soluci´n del problema de valores iniciales Y (x) = AY (x)+F (x). 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V −1 (0) = = 1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4 −2e−5x 2e7x e−5x e7x . luego aplicamos (3. donde Yh es la soluci´n general del SEDO homog´neo Y = AY y Yp es cualquier o e soluci´n particular de (3.

4. Y (0) = 2 1 . cuya matriz de coeficientes es .20 Prueba las siguientes propiedades de la matriz exA con A ∈ Rn×n : 1. Y (0) =  2 . 0 1 2 −1 0 0 2 = AexA . 3. ∀x. y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 − 5y2 . Problema 3. Y (0) = b) A = Problema 3.19 Encuentra la soluci´n general del sistema hom´geneo Y (x) = AY (x) y. Usando lo anterior calcula las matrices exA y exB . exI = ex I. t ∈ R. a) y1 = y1 + 2y2 . Problemas Problema 3. e0A = In . 2. c) y2 = y1 + 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A =  0 1 0 . y B 2n = (−1)nI2 . o o en su caso. 0 0 2 0 0 2 b) 2. del problema de valores iniciales en los siguientes casos: 1. 3. a) A = 2. exA es invertible y su inversa (exA )−1 = e−xA . con Problema 3. b) A =  0 1 0 . Para todo x ∈ R. entonces ex(A+B) = exA exB = exB exA . Problema 3. d xA e dx     1 −1 4 1 0 0 1  3 2 −1 . In es la matriz identidad n × n. 1 12 3 1  .24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY . a) A =  4 −1 −4 4 4 1 −8 8 . e(x+t)A = exA etA . Y = AY . A2n = I2 . o Problema 3. B 2n+1 = (−1)n B. a) A = b) A = 2 1 −1 0 1 1 1       1 2 1 1 1 1 0 4. 3. . 1.3 SISTEMAS DE EDOS 35 3. b) A = −2 3 2 −5 2 −4 . Si A y B conmutan.  0 1 −1 . 5.22 Usando las propiedades de la matriz exA con A ∈ Rn×n encuentra la soluci´n de los SEDO del ejercicio (3. o sea AB = BA.6. Prueba que A2n+1 = A. a) A =  0 1 2 . Y (0) =  1 .19).21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 . Como aplicaci´n calcula exC con C = o a b −b a .23 Resuelve los sistemas hom´geneos o 1. b) A =  0 2 −1 . 6. 2.

Y (0) = . y1 = 2y1 + y2 − 7xe−x − 3 y2 = −y1 + 2y2 − 1    1 −1 4 0 2 3. sabiendo que su soluci´n es acotada si x → +∞. β < ω. B(x) =  0 . x =v . Uc en los siguientes casos: (a) V (t) = 0. 0 0 5 3 2 1 36 1. e 3. B(x) = .3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 . i2. c) A = . Este sistema modeliza el v = −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con rozamiento y una fuerza externa f . Y (0) = 2 1 0 0   1 −1 4 2. Uc(0) = 10. A =  3 2 −1 . i1(0) = i2(0) = 0. A = 0 3 2 1 ex cos(2x) 1 1 sen x  . A = 2.25 Encuentra la soluci´n general del sistema de EDOs no homog´neo Y (x) = o e AY +B(x) y. Y (0) =  1  4. Y (0) =  1  2 1 −1 ex 1       1 0 0 0 0  2 1 −2 . 2 1 −1 Problema 3. 3 1 2 −4     1 1 1 1 0 0 b) A =  0 3 2 . a) A = . A =  1 12 3 1 2 −5 2 −4 . Se considera el siguiente circuito el´ctrico e L 1 R L 1 2 R 2 i1 + − Uc C R i2 V Las intensidades i1. Uc 50 −50 −50 Uc 0 Se pide determinar i1. B(x) =  . con x(0) = x0. i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial        −10 0 −20 i1 V i1  i2  =  0 −10 20   i2  + 20  0  . b) A = Problema 3. en su caso. v(0) = 0. o 2. . la correspondiente soluci´n del problema de valores iniciales cuando o 1. a) A =  3 2 −1 .26 Resuelve los sistemas lineales 1. c) A =  2 1 −2 . B(x) = x ex .

entonces. 2.27 Demuestra que si la matriz A(x) es tal que x x 37 A(x) · A(t)dt = 0 0 A(t)dt · A(x). Y (0) = Y0 se puede expresar mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0. i1(0) = i2(0) = 0 = Uc(0) = 0. k = 1. .3 SISTEMAS DE EDOS (b) V (t) = 10. . . Problema 3. . k = 1. m. k=0 . Como aplicaci´n calcula la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3.28 Demuestra el siguiente principio de superposici´n: La soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x). m. la soluci´n del SEDO Y = A(x)Y . 2. A ∈ Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x). . . Y. fk ∈ Rn . . .

4) .    .3) es lineal.   dx z2(x) = y (x)    dzn−1  z3(x) = y (x) = zn . . .  .  .´ 4 LA ECUACION LINEAL DE ORDEN N 38 4.  . una EDO del tipo (4. . ⇒ dx . es decir. . (4.  . (4. .  . . . . . o Por comodidad introduciremos el operador L[y] definido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua definido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x).1) es equivalente al siguiente sistema lineal de ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1 ··· 0 0   z2   0   z2   0       . Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones lineales (4. . para cualesquiera o que sean α. αy1 + βy2 tambi´n es soluci´n. . . e Si adem´s imponemos que la soluci´n y sea tal que a o y(x0 ) = y0 . . . el sistema anterior o se transforma en un sistema homog´neo. La ecuaci´n lineal de orden n o Vamos a continuaci´n a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · · · + a1(x)y (x) + a0(x)y(x) = f (x).1) es hom´genea.1) Cuando f (x) ≡ 0. (4. N´tese que cuando f (x) ≡ 0..   dx  .   . .  +  . . d  . entonces diremos que y es la soluci´n del correspondiente problema de valores iniciales. . diremos que la EDO (4.  (n−2)  zn−1 (x) = y (x)  dz1  = z2 . y β ∈ R.  . = .1 La EDO o y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0. .  . y (n−1) (x0) = y0 (n−1) . e a Proposici´n 4. zn(x) = y (n−1) (x)  dx Es decir.2) Usando esta notaci´n podemos escribir (4. zn (x) de forma que  dzn  z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − · · · − a0z1 + f. .  . que si tenemos dos soluciones y1 e y2 de la ecuaci´n.. e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x).. y (x0) = y0 .1) se puede construir a partir de la teor´ de los sistemas ıa ıa lineales que estudiamos antes.1) como L[y] = f (x) y el correspondiente problema o homog´neo ser´ L[y] = 0. (4. en caso contrario es no hoo mog´nea. .   0 0 0 ··· 0 1   zn−1   0   zn−1     0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2 −an−1 o en forma matricial Z (x) = AZ(x) + F (x).   .

Teorema 4. . definido por o y1 (x) y1 (x) . . .. y1 (n−1) W [y1 . entonces las dos soluciones independientes son [e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] = eαx sen(βx). . .3). . . (4. . .. Soluci´n de la ecuaci´n lineal homog´nea o o e Para resolver la EDO (4. Obviamente si λk es complejo. o 4. 2. . o Teorema 4. c1 .1) siempre tiene soluci´n y es unica cualquiera sean las las condiciones iniciales o ´ (n−1) (n−1) y(x0 ) = y0 .1) en la forma y(x) = yh(x) + yp (x). en cuyo caso el Wronskiano es distinto de cero para u todo x ∈ R. (n−1) ··· ··· . .6). y (x0) = y (0). yn ](x). si λ = α + iβ.3). . asociado a (4.7) donde pm−1 es un polinomio de grado m − 1 en x.4 Dadas n soluciones y1 . Es f´cil probar a que el polinomio caracter´ ıstico de la matriz A asociada a la EDO (4. yn (x) yn (x) . . . . Finalmente. yn ](x) = y2 (x) y2 (x) . . . (n−1) = 0 ∀x. . o En el caso que tengamos ra´ ıces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas. y (x0) = y0 que escojamos.I. . notemos que conocida la soluci´n general yh(x) de la EDO homog´nea poo e demos dar la soluci´n general de la EDO (4.1). n generan el espacio soluci´n de la la EDO (4. tenemos que tomar partes reales y complejas que nos generan todo el espacio soluci´n. an−1 (x) funciones continuas en R. .3) obtenemos que λ debe satisfacer la ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0. ´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 .3) con coeficientes constantes seguiremos la misma idea que para los sistemas. .3) coincide con (4. siendo yp o una soluci´n particular de (4. . . . Si tenemos valores reales λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x . yn de la EDO (4. . .V. (4. . Sustituyendo esta o funci´n en la EDO (4.3 El conjunto de soluciones de la EDO homog´nea (4.5) (x) y2 (x) · · · yn (x) es distinto de cero para alg´n x ∈ R. c2 . Entonces el P. . k = 1. cm ∈ R.2 Sean a0 (x). Lo anterior nos indica una estrategia para resolver el problema: 1. . .3). es decir buscaremos la soluci´n en la forma y(x) = e λx .3) es un espacio vectorial e de dimensi´n n. Es decir. . entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x pm−1 (x). . . o . (4. Si alg´n λk es m´ltiple de multiplicidad m ≤ n.1.´ 4 LA ECUACION LINEAL DE ORDEN N 39 Teorema 4. . es decir la soluci´n asociada a dicha o ra´ tendr´ la forma ız a y(x) = c1 eλk x + c2 xeλk x + · · · + cm xm−1 eλk x .6) La ecuaci´n anterior se denomina ecuaci´n caracter´ o o ıstica de la EDO (4.

λ. o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx + c2 xeλx . y(x) = A eλx cos (ωx + δ) . . obtenemos que la soluci´n o o general de (4.3 y la ecuaci´n homog´nea (4.9) La ecuaci´n caracter´ o ıstica (4. entonces la ecuaci´n caracter´ o ıstica (4. Luego. Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte imaginaria de λ1 (o λ2 ). 2 2 y la ecuaci´n homog´nea (4. A.7) tenemos que la soluci´n generada por λ es. A.´ 4 LA ECUACION LINEAL DE ORDEN N 40 Por simplicidad mostraremos c´mo resolver la ecuaci´n homog´nea de segundo orden. la soluci´n general de (4.8) tiene la forma o . δ ∈ R.8) (4. i = −1. A. λ1 = λ + iω.9) tiene una unica soluci´n real λ = −p/2. y2 (x) = eλ2x .9) ser´n a p2 − 4q −p − p2 − 4q . sin embargo dicho espacio es o o e de dimensi´n 2 como nos asegura el teorema 4. equivalentemente.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . p. Caso de dos ra´ ıces reales iguales. B ∈ R. entonces la ecuaci´n caracter´ o ıstica (4. como se pretend´ probar.8) tendr´ dos soluciones linealmente independientes o e a λ1 = y1 (x) = eλ1x . 2 2 Caso de dos ra´ ıces reales y distintas. φ ∈ R. . B ∈ R. o o e El caso general es completamente an´logo.9) tiene dos soluciones reales y distintas: λ1 = −p + −p − p2 − 4q p2 − 4q . (4. y2 (x) = eλ2x . λ2 + pλ + q = 0. Sea p2 < 4q. (4. o. ω ∈ R. q ∈ R. B ∈ R.9) tiene dos soluciones complejas: √ −p − i 4q − p2 −p + i 4q − p2 . 2 2 y la ecuaci´n homog´nea (4. ıa Caso de ra´ ıces complejas.8) tendr´ dos soluciones linealmente independientes o e a λ1 = −p + y1 (x) = eλ1x .6) de la ecuaci´n (4. Esto significa que aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de la EDO homog´nea. Entonces. La ecuaci´n diferencial lineal homog´nea con a o e coeficientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0. λ2 = . en este caso. usando (4.8) tendr´ dos o o e a soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) = xeλx . λ2 = λ − iω. Sea p2 = 4q.10) se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) . la soluci´n general de (4. Sea p2 > 4q. En efecto. A. Las soluciones de la ecuaci´n caracter´ o ıstica (4.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x .10) Luego. entonces la ecuaci´n caracter´ o ıstica (4. Si ahora utilizamos la f´rmula de Euler eiφ = cos φ+i sen φ.

q = 0. v + (2c + p)v + (q + pc + c2 )v = pn (x).2.2.12) siendo pn un polinomio de grado n. Caso f (x) = pn (x) En general si tenemos la EDO y + py + qy = pn (x). (4. o sea.14) luego siendo pn un polinomio de grado n. . Caso f (x) = pn (x)ecx Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x). de donde igualando coeficientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n. a = 0. q ∈ R.12). la soluci´n particular siempre es de la forma o yp (x) = a0 + a1 x + · · · + an xn. p. (4. (4. e e e si tenemos la EDO y + py = pn (x). Este m´todo obviamente funciona si q = 0 (¿por qu´?). entonces cualquier constante es e soluci´n. as´ que sin p´rdida de o o ı e generalidad la tomaremos igual a cero. Ahora bien. Para resolver el problema buscamos la soluci´n de la o forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 . Entonces el m´todo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx . que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}. luego la soluci´n particular la podemos buscar en la o forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha soluci´n o en (4. an = 0. En efecto.2. obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el derecho es de grado n.´ 4 LA ECUACION LINEAL DE ORDEN N 41 4.13) siendo pn un polinomio de grado n. si sustituimos la soluci´n anterior en la EDO (4. como la EDO homog´nea es y + py = 0.13) e igualando coeficientes.11) Vamos a estudiar la EDO En general no es trivial resolverla aunque en muchos casos es “f´cil” adivinar la soluci´n. (4. pero ¿qu´ ocurre si q = 0?. por tanto a0 en la expresi´n anterior puede ser cualquiera. f (x) continua. por lo que nuestra EDO (4. La EDO lineal de segundo orden no homog´nea con coeficiene tes constantes y (x) + py (x) + qy(x) = f (x).14) se reduce al caso anterior (4.1. a o 4.12) obtenemos o qan xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x).2. Para resolverlo hacemos el cambio y(x) = ecx v(x). 4.

u. con c1 y c2 tales que c1 y1 + c2 y2 = 0.4. 42 Veamos ahora como resolver los casos (4.18) nos da o c1 = c1 (x) = ex . la primera por y2 y la segunda por y2 . (4. c1 y1 + c2 y2 = f (x).11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes. a Ejemplo 4. Para resolver este caso notemos que si y(x) = u(x) + iv(x). 2 c3 (x) = − e2x . y2 ](x) c2 (x) = f (x)y1(x) . Ahora bien. entonces L[u] = f1 y L[v] = f2]. Sea entonces yp (x) = u(x) + iv(x) una soluci´n particular de o L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x) sen(ωx). para obtener c1 [y1 y2 − y1 y2 ] = −f y2 . Entonces vamos a buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x). Como W [y1 . c2 = − =⇒ 2 2 Por tanto.2. o bien. lo cual es consecuencia de la linealidad L.4). la f´rmula (4. [y1 y2 − y1 y2 ] = W [y1 .15) siendo pn un polinomio de grado n. Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de orden n. v. W [y1 .´ 4 LA ECUACION LINEAL DE ORDEN N 4. 4.3. o e . El m´todo de los coeficientes indeterminados e [yp ] = v(x) de Sea la EDO lineal no homog´na (4. y2 ](x) = o W [ex . Caso f (x) = pn (x)ecx sen(ωx) y pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx).18) El m´todo anterior se denomina m´todo de Lagrange de reducci´n del orden de la EDO e e o de segundo orden o m´todo de los coeficientes indeterminados.16) (4. Para ello multiplicamos la primera por y1. la segunda por y1 y las restamos lo que nos da c2 [y1 y2 − y1 y2 ] = f y1 . La soluci´n general del problema homog´neo es yh (x) = c1 ex + c2 e−x . e−x ] = −2. f2 funciones reales. entonces buscao e 5 mos la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x. y2 ](x) = 0 cualquiera sea x ∈ R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homog´nea nunca se anula (ver el teorema 4. la soluci´n general es o y(x) = c1 ex + c2 e−x + 5 De aqu´ el nombre de m´todo de variaci´n de las constantes. y2 ](x) (4. pues se cambian las constantes que aparecen ı e o en la soluci´n general del problema homog´neo por funciones indeterminadas. W [y1 . f1. 3 e−x . Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x) cos(ωx) y o y + py + qy = pn(x) sen(ωx). y + py + qy = pn (x)ecx cos(ωx). funciones reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x).5 Resolver y − y = e2x .17) De esa forma tenemos que resolver dos EDOs de primer orden. 6 =⇒ yp (x) = e2x . de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) .2. 3 ex e3x .

´ 4 LA ECUACION LINEAL DE ORDEN N 43 4. x PSfrag replacements 2. o + c2 e−αx− √ α2 −ω 2 x .3. o sea. δ = arctan(ωx0 /v0). x + 2αx + ω 2 x = f (t).19) con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la velocidad x (0) = v0 . Aplicaciones Ejemplo 4.19) es x + ω 2 x = 0 y por tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt). 0 la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que el movimiento se o o denomina movimiento arm´nico simple (ver figura 9 izquierda). f (t) = . o Vamos a estudiar los distintos casos PSfrag replacements que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) + v0 /ω sen(ωt) = 2 x2 + v0 /ω 2 cos(ωt − δ). ¦ ¦ ¥¡¥¡ ¡¡¥¦ ¨ §¡ ¡£¤£¤§¨£¤£¤ £¤£¤ £¤ £¤£¤ £ £¤£¤ ¤£¤£¤ £¤£¤ k m F 1.20) cuya demostraci´n es inmediata.6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante el´stica a k (ver figura 8). A= √ a2 + b2.6. Supongamos ahora que eliminamos solamente la fuerza externa. Entonces la EDO (4. entonces la soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos: √ α2 −ω 2 x ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡£¤ ¢£¤£¤ Figura 8: Carro del ejemplo 4. ω 2 = . x t t Figura 9: El movimiento arm´nico simple y el movimiento amortiguado. (4. Si suponemos adem´s que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x). . δ = arctan(b/a). El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento. f = 0 y α = 0. o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) + b sen(ωt) = A cos(ωt − δ). o equivalentemente. basta aplicar la f´rmula para el coseno de una suma e o o identificar los coeficientes del seno y el coseno. α= a k F (t) > 0. 2m m m (4.

por simplicidad. Obviamente para o forzadas: resonancia. consideremos el caso de una fuerza peri´dica o muy frecuente en la naturaleza. se suele denominar . llamando β = |α2 − ω 2 | < α tenemos la soluci´n o x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] . entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt .21) |A(Ω)| N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suficiente grande x(t) ≈ xp(t). Si α < ω. entonces. que tambi´n decrece exponencialmente a cero. e 2c. Para encontrar una soluci´n particular e o usamos el m´todo aprendido antes. es decir cuando la a frecuencia Ω de la fuerza exterior es igual a ω — como ω s´lo depende de las caracter´ o ısticas de sistema. Ω = ω la amplitud es m´xima. Si α > ω. − Ω2 )2 + 4α2 Ω2 donde δ = arctan ω2αΩ 2 . Si usamos la identidad (4. que decrece oscilando exponencialmente a cero (ver figura 9 derecha). en este caso m y k. las oscilaciones terminan en un breve espacio de tiempo y el carro se para. que decrece exponencialmente a cero. En este caso se dice que el movimiento es amortiguado ya que aunque oscila. llamando β = √ α2 − ω 2 < α tenemos la soluci´n o 44 x(t) = c1 e−(α−β)t + c2 e−(α+β)t . Obviamente la soluci´n general es la suma de una soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que acabamos de considerar. 3. las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilaci´n. (ω 2 − Ω2)2 + 4α2 Ω2 (4. En este caso la ecuaci´n es de la forma o x + 2αx + ω 2 x = f0 cos(Ωt). En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. 2b. entonces.20) obtenemos para t suficientemente grande la soluci´n o x(t) ≈ xp(t) = ω Ω Sfrag replacements (ω 2 f0 cos(Ωt − δ).´ 4 LA ECUACION LINEAL DE ORDEN N 2a. Si α = ω. lo que nos da e yp (t) = f0eiΩt ω2 − Ω2 + i2αΩ =⇒ xp (t) = [yp ] = (ω 2 − Ω2) cos(Ωt) + 2αΩ sen(Ωt) f0 . 2 −Ω Como se ve en la f´rmula anterior. Veamos el caso general y. (ω 2 − Ω2 )2 + 4α2 Ω2 de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − Ω2 ) cos(Ωt) + 2αΩ sen(Ωt) f0 .

x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 cos(Ωt). f0 t f0t iωt = e sen(ωt). 2iω 2ω x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 t sen(ωt). Este puente se abri´ al p´blico el 1 de julio de 1940. ω 2 − Ω2 x Si Ω = ω entonces la soluci´n anterior no vale como se o puede comprobar f´cilmente (pues f0/(ω 2 − Ω2 ) cos(Ωt) deja a de tener sentido).´ 4 LA ECUACION LINEAL DE ORDEN N 45 frecuencia propia—. es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia fija pero con amplitud que aumenta linealmente con el tiempo. Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington. en ´ste. Por ejemplo. Veamos ahora que ocurre si α = 0. Si Ω = ω entonces simplemente tomamos el l´ ımite cuando α → 0 en (4. En la figura 10 representamos el valor de la amplitud (eje y en funci´n o de la frecuencia exterior (eje x) para distintos valores de α. Este fen´meno de “amplificaci´n” de la amplitud o o de las oscilaciones se conoce como resonancia. o . Si α = 0 es f´cil ver a n a que para Ω = ω la amplitud es no acotada. Figura 11: Resonancia en un sistema sin rozamiento. La gr´fica m´s alta corresponde a a al menor valor de α (menor “viscosidad”) y la m´s peque˜a al mayor. en 1831. En este caso tenemos que repetir el proceso anterior lo que nos da. En este caso la EDO es x + ω 2 x = f0 cos(Ωt). 2ω N´tese que a diferencia del caso con rozamiento. Desde ese mismo d´ se observ´ que o u ıa. Figura 12: El desastre del puente de Tacoma.21) que nos da. para la soluci´n particular la expresi´n o o t PSfrag replacements xp(t) = y por tanto. la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞. un grupo de soldados a a intent´ cruzar marchando en puente de Broughton (cerca de Manchester. A partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a cruzar un puente. El fen´meno de la resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un desastre en sistemas mec´nicos. Inglaterra). La o fuerza peri´dica que ejercieron al marchar entr´ en resonancia con la frecuencia propia del o o puente y este se vino abajo. o sea si no hay rozamiento. si t → ∞.

o n o El puente parec´ aguantar bien.7.´ 4 LA ECUACION LINEAL DE ORDEN N 46 el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirti´ en una atracci´n o o tur´ ıstica local pues cientos de conductores iban s´lo para disfrutar de este extra˜o fen´meno. Obviamente el puente hab´ entrado en resonancia ıa con el aire debido a un fen´meno aerodin´mico y termin´ por derrumbarse a las 11:10am o a o (ver figura 12 derecha). Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente.7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico representado el la figura 13 donde R es una e resistencia. en este fen´meno se basan los equipos de radio actuales. es m´s varios expertos aseguraban que todo estaba bajo ıa a control. r < ω En particular.     (c1t + c2 )e−αt . (ω 2 − Ω2)2 + 4r 2Ω2 (4. si Ω = ω tenemos la soluci´n o u0 t sen(ωt). De o hecho. equivalentemente. o sea.8 Los osciladores acoplados . q + 2rq + ω 2 q(t) = u(t). Lo anterior nos indica que el an´lisis de un circuito RLC es an´logo al de a a un oscilador. afortunadamente sin ninguna v´ ıctima humana (s´lo muri´ el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o pero olvid´ su perro en el interior de su coche atrapado en el medio del puente). Entonces. la Ley de Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C R U (t) = Li (t) + Ri + C −1 q(t). ω 2 = 1/(LC) y u(t) = U (t)/L.19). Obviamente la EDO anterior es totalmente an´loga a la EDO (4. r=ω qh (t) =     −αt  e [c1 cos(βt) + c2 sen(βt)] . donde r = R/(2L). L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t). o. U(t) Figura 13: Circuito RLC del ejemplo 4.22) siendo β = |r 2 − ω 2 |. o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo 4. En particular la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(Ωt) es o e q(t) = qh (t) + donde (ω 2 − Ω2 ) cos(Ωt) + 2rΩ sen(Ωt) u0 . en particular tendremos el mismo fen´meno de resonancia cuando Ω ≈ ω. o Ejemplo 4. pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros. la carga por unidad de tiempo.  r>ω  c1 e−(α−β)t + c2 e−(α+β)t . 2ω que es no acotada.

De la soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir que A 1 o o o √2 se anulen.23) k2 + k 3 m2 − 2 k3 x1 = 0. Veamos que ocurre al incluir este ıa u resorte. entonces obtenemos x1(t) = cos t x2(t) = cos t. An´logamente se puede obtener la a expresi´n para x2. Figura 14: Dos osciladores acoplados.24) nos da x1 + 4ω 2 x1 + 3ω 4 x1 = 0. m . √ √ x2 (t) = c1 cos t + c2 sen t − c3 cos( 3t) + c4 sen( 3t). Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t. Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y sustituirla en la o segunda. La ecuaci´n caracter´ o ıstica es λ4 + 4ω 2 λ2 + 3ω 4 = 0 =⇒ √ λ = ± 3ωi. 47 En la figura 14 vemos dos osciladores acoplados. x2(0) = 1 y x2(0) = 0. conocidas como frecuencias propias del sistema. o √ x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos( 3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) + 2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de forma que ω = 1. entonces la segunda Ley de Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 + k3 x2 . ¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ ¡¥¦ ¤ ¡ ¢¤£¢¢ ¡  ¢ ¤¤£¢  ¡  ¤¢£¢  ¡ ¢¢£¢ ¤¤£¢ ¡ ¡ ¤¢£¢ ¡  ¤£¢¢ ¢¢£  ¡  ¢¤ £¢  ¡ k1 m1 k3 m2 k2 (4. (4) de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1 cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √ = A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ). En este caso el sistema tiene un movimiento oscilatorio con frecuencias ω A y 3ω. Entonces (4. Supongamos que x1 (0) = 1. Vamos a ver a continuaci´n el caso de varios osciladores acoplao dos. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 + (4) k1 + k 3 k2 + k 3 + m1 m2 x1 + k1 + k 3 m1 Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . Obviamente si no existiera el resorte k3 que los une cada uno oscilar´ seg´n la ley que hemos visto antes. x1(0) = 0. m1 m2 (4. Llamemos x1 y x2 a los desplazamientos de la posici´n de equilibrio de los carros m1 o y m2 respectivamente. m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 + k3 )x2.24) ω2 = k . ±ωi.´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede describir f´cilmente con e a una EDO lineal de orden dos.

x1 (0) = 1. Si x1(0) = 1. x2(0) = −1 y x2(0) = 0. x1(0) = 1. por ejemplo. x2 (0) = −1 y x2(0) = 0. x2 (0) = 1 y x2(0) = 0. + + + x1(t) = 4 4 4 4 3 √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . Pero si escogemos. . x1(0) = 0. x1(0) = 0. x1(0) = 0. Figura 16: Caso x1(0) = 1. tenemos que las oscilaciones son con las frecuencias propias. x2(0) = −1 y x2(0) = 1/2. x2(0) = −1 y x2(0) = 1/2.´ 4 LA ECUACION LINEAL DE ORDEN N 48 Figura 15: Caso x1(0) = 1. o sea. x1(0) = 1/2. tenemos √ √ x2(t) = − cos( 3t). obtenemos √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . es una combinaci´n de las frecuencias. x1(t) = cos( 3t). x2(t) = − + − 4 4 4 4 3 es decir. o Figura 17: Caso x1(0) = 1/2.

Problemas Problema 4. y − y − 6y = 0. y − 4x = 4x2 + 2x.4. 5. y(0) = y (0) = 2. Problema 4.9 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y la soluci´n correso o pondiente a las condiciones iniciales indicadas: 1. y + y + y = 1 + 2x + 3x3. y − y = x2ex con y(0) = y (0) = 0. Encuentra la soluci´n general de ambas EDOs. 6. y + 12y + 36y = 0. 2. y + 2y = 1 + x2 + e−2x . o © © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦ ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨© ¤¤ ky m §¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥ θ l m h £ ¢ ¢ ¢ ¢ ¢£ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡ ¡¡¡¡¡¡¡¡   ¤ ¤¤ . 3. y + y − 6y = sen x + xe2x . a k mg Figura 18: El oscilador y el p´ndulo simple.11 El oscilador arm´nico simple y el p´ndulo simple se representan esquem´ticamente en la o e a gr´fica 18 a la izquierda y derecha respectivamente. 2. donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posici´n de equilibrio (figura 18 izquierda) y θ(t) es el angulo que forma el p´ndulo con la o ´ e horizontal (figura 18 derecha). 1. y(2) = 0. y + 2y + 1 = xe−x sen(2x) con y(0) = 1. y (0) = 0. y (0) = 0. y − 4y + 13y = 0. 3. y(0) = 1. e Las EDOs que gobiernan estos sistemas son my + ky = 0. respectivamente. Problema 4.10 Resolver las EDOs 1. 4. y (2) = 1. y lθ + gθ = 0.´ 4 LA ECUACION LINEAL DE ORDEN N 49 4.

) m1 = m2 y k1 = k2 . En ambos casos resuelva la EDO correspondiente.8 incluyendo rozamiento. a qu´ altura se encuentra el mismo al cabo de 1 segundo ¿y al cabo e de t segundos? Problema 4. k3 = 2k1 y 3.12 Resuelve las EDOs 1.) m1 = m2 y k1 = k2 = k3 .13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4.´ 4 LA ECUACION LINEAL DE ORDEN N 50 2. Si el oscilador se encontraba en el inicio en su posici´n de equilibrio (y(0) = 0) y ten´ o ıa una velocidad inicial y (0) = v0 . e 2. 3. y (4) − 16y = 3 cos(x). k1 k4 k2 m3 k 3 Figura 19: Tres osciladores acoplados. Problema 4. Analice los casos: 1. sin e velocidad inicial.) m1 = 2m2 y k1 = k2 = k3 . ¿qu´ posici´n ocupa al cabo de 1 segundo? ¿y al cabo e o de t segundos? 3. y + 8y = x2 . y − 6y + 11y − 6y = xex + x2. 2. £ ¢£¢ £ ¢£¢ m1 m2 £ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£ ¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ ¡¤¦ ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  . Problema 4.14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la figura 19 y resu´lvela. Haga el estudio an´logo si sobre el primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(Ωt). Si suponemos que inicialmente el p´ndulo se deja caer desde una altura h = l/10.

. 2n − 2 (2n)(2n − 2) · · · 2 n! . .1 Resolver la EDO y − 2x − 2y = 0. = ∞ n=0 d d y (x) = y (x) = dx dx lo que nos da ∞ k=0 = k=0 ∞ k=0 k(k − 1)ak x ∞ k−2 (n + 1)(n + 2)an+2 xn k(k − 1)ak x ∞ k−1 −2 k=0 kak x − 2 k ∞ k=0 ak xk = 0. Es importante que la serie converja en todo un entorno de x0. a2k+1 . k ∈ N y si conocemos a1 entonces podemos calcular a3. la recurrencia anterior permite calcular los valores a2. a2k . a5 .2). a2n 2 a2n−2 = = 2n 2 2n 2 2n a0 a2n−4 = · · · = a0 = . . k ∈ N. ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0 de forma que en la nueva variable z0 = 0. De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en (5. de donde tenemos o an+2 = 2 an . es o decir en la forma ∞ y(x) = k=0 ak (x − x0)k . (5.1) El objetivo es resolver la EDO anterior cuando las funciones p(x). La idea del m´todo es sustituir la serie y(x) (5. q(x) y f (x) dependen de x. que equivale a n=0 n [(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0. si sabemos a0 . a4 . n+2 n ≥ 0. Soluciones de EDOs en serie de potencias Sea la EDO y + p(x)y + q(x)y = f (x). Obviamente la ecuaci´n anterior define todos los valores de an en funci´n de a0 y a1. Para ello vamos a suponer que dichas funciones son “razonablemente” buenas en un entorno de cierto punto x0 de la recta real y buscaremos la soluci´n como una serie de potencias.2) en (5. ak ∈ R. . As´ tenemos ı. (5. . Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5. de esta forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n.1) e igualar los coeficientes de e las potencias.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 51 5. En o o efecto. Por sencillez supondremos x0 = 0. Buscamos la soluci´n y(x) = o d y (x) = dx ∞ k=0 ∞ k=0 k ak xk .2) Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal´ ıticas en x = x0. la sustituimos en la EDO y usamos que ∞ ak x = k ∞ k=0 ∞ k=0 (ak x ) = kak x k−1 kak x k−1 = ∞ n=0 (n + 1)an+1 xn . . Como (x )n es una sucesi´n de funciones linealmente independientes la igualdad a cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0.

no as´ la segunda que en general no se expresa como combinaci´n de funciones o ı o elementales. sin p´rdida de generalidad C = 1 y D = 0. Esta claro que el m´todo anterior no siempre funciona. o Como y1 (x) = x−p0/2+1/2 y p(x) = p0 /x. e Ejemplo 5.1. Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger. n! (2n + 1)!! n=0 ∞ Obviamente la primera suma es f´cilmente reconocible como la serie de potencias de la funa 2 ci´n ex . n∈N =⇒ an = 0. 2n + 1 2n + 1 2n − 1 (2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1. . El m´todo de reducci´n de orden e o Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y = 0. o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) = v(x)y1(x).2 Encontrar la segunda soluci´n linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x )y = 0 si una soluci´n es y1 (x) = x−p0/2+1/2. De la expresi´n expl´ o ıcita de las dos sumas anteriores es f´cil comprobar que el a radio de convergencia es infinito. x x Si sustituimos la serie de potencias tenemos ∞ k=0 k(k − 1)ak xk + ∞ k=0 2kak xk − ∞ k=0 2ak xk = 0 de donde se deduce a0 = 0. ∀n ∈ N. n=1 es decir. Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e− p(x)dx 2 y1 =⇒ y1 u + (2y1 + p(x)y1)u. De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0 ∞ n=0 2n x2n+1 x2n + a1 . Ello es f´cil de entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que obviamente no est´ definida en x = 0. consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 ⇐⇒ y + y − 2 y = 0. s´lo podemos encontrar una soluci´n: y1(x) = x. o a 5. donde (2n + 1)!! = 1 · 3 · 5 · · · (2n + 1). e− p(x)dx 2 y1 u=v.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 52 2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 . (n − 1)(n + 2)an = 0. Por ejemplo. =⇒ v(x) = C + D. entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1 = −p0 +1 x x =⇒ v(x) = log x de donde y2 (x) = x−p0/2+1/2 log x. Es f´cil ver que si aplicamos el m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente o independiente es y2 (x) = 1/x2.

o sea. o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. Entonces: 1. si las o funciones (x − x0)p(x) y (x − x0)2 q(x) son anal´ ıticas en x = x0 . el punto x0 se denomina punto regular de (5. si lo es. ∀n ≥ 0.3) Definici´n 5. mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0. por simplicidad.1) si o p(x). an = 0 lo cual indica que la EDO anterior no tiene como soluci´n ninguna o serie de potencias.4) Si buscamos la soluci´n en forma de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n − 1) + np0 + q0 ]an = 0. por ejemplo x = 1. k (x−x0) q(x) 2 qk (x−x0)k = q0 +q1 x+· · · . (5. adem´s. el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0. asumiremos x0 = 0. para a o x > 0. Es f´cil ver que la soluci´n se puede buscar en la forma y(x) = x r . Por ejemplo.6 La ecuaci´n r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la o o o EDO (5. Teorema 5.2. aunque en algunos casos.1). luego. probar que el radio de convergencia de la soluci´n de la EDO (5. q(x) y f (x) admiten una representaci´n en serie de potencias en un entorno de x0 . (5. q(x) y f (x) son funciones anal´ ıticas en x = x0. 2. Una opci´n o es resolver entonces la ecuaci´n usando una serie en torno a otro punto. El caso x < 0 se deduce f´cilmente de ´ste sin m´s que hacer el cambio x = −z. Puntos regulares y singulares de una EDO Definici´n 5. Es posible. Usualmente la EDO homog´nea (f (x) ≡ 0) (5. En caso contrario se dice que o x0 es un punto singular.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 53 5. La soluci´n del problema de valores iniciales y(x0) = y0 . En lo que sigue.1) a o es el menor de los radios de convergencia de p. en general.3 Dada la EDO (5. Lo anterior equivale a que (x−x0)p(x) = ∞ k=0 ∞ k=0 pk (x−x0) = p0+p1 x+· · · . Para f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal´ ıticas. Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0. Ello no siempre es posible.1). q y f . si p(x). a e a .4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x).5 Un punto x0 se denomina punto singular regular de la EDO (5.3) con un punto singular en x0.1) con un punto singular en x 0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x − x0)p(x)] + [(x − x0 )2q(x)]y = 0. y (x0) = y0 existe y es unica o ´ y se expresa mediante una serie de potencias (es decir es una funci´n anal´ o ıtica). Definici´n 5.

En general o o se tiene el siguiente Teorema 5.8) Recordar que estamos suponiendo x0 = 0. Caso (p0 − 1)2 − 4q0 > 0. entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1. Caso (p0 − 1)2 − 4q0 = 0. . r1 < r2 ∈ R con r2 − r1 ∈ Z (dos ra´ reales y distintas que ıces no difieran en un entero) y(x) = 6 c 1 xr 1 ∞ k=0 ak x + k c2 xr 2 ∞ k=0 bk x k . r1. Sean r1 y r2 las soluciones de la ecuaci´n indicial. Veamos que ocurre en el caso general. 2 Entonces se tienen los siguientes casos para x > 0 1. entonces ıces la soluci´n es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x). r2 ∈ C (dos ra´ complejas).7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0. Sustituyendo y(x) = xr en (5. (5.2 = − p0 − 1 ± 2 (p0 − 1)2 − 4q0 . se sigue que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. x > 0. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relaci´n recurrente para los coeficientes an no tenga soluci´n. x > 0. (5. Dada la ecuaci´n indicial r(r − 1) + p0 r + q0 = 0. x > 0.7) Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las expresiones el valor o e de x por |x|. Entonces si sustituimos en la EDO (5.3) e igualamos potencias nos queda.5) 2.6) 3. r1 < r2 ∈ R (dos ra´ reales y distintas) ıces y(x) = c1 xr1 + c2 xr2 . r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 xr1 + c2 xr1 log(x). x > 0. k=0 de donde. Caso (p0 − 1)2 − 4q0 > 0. (5. Caso (p0 − 1)2 − 4q0 < 0.4) tenemos que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. ∞ n=0 n−1 [(n + r)(n + r − 1) + (n + r)p0 + q0 ]an + [(k + r)pn−k + qn−k ]ak = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 54 z > 0. al igualar la potencia xr . o r1. Sea r1 = a + bi. y adem´s se deduce una relaci´n de recurrencia para cada uno de a o los coeficientes an en la expresi´n de la serie. y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 + q1 x + · · · sean funciones anal´ ıticas en x0 = 0. (5. En este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) = xr ∞ k=0 ak x k .

r1 = r2 − N ∈ R. Sustituyendo y1 en (5. ı o a 5.9) 3. n(n + γ − 1) n ≥ 1. de donde tenemos o dos soluciones r = 0 y r = 1 − γ.3. Sea r1 = a + bi.11) donde A es cierta constante que puede ser nula. Caso (p0 − 1)2 − 4q0 = 0. Caso (p0 − 1)2 − 4q0 = 0. Esta claro del teorema anterior que este caso es mucho m´s complicado que el anterior. N ∈ Z (dos ra´ ıces reales que difieren en un entero) y(x) = c1 xr1 ∞ k=0 ak x k + c 2 A x r 1 ∞ k=0 ak x k log x + xr1+N ∞ k=0 bk x k . . Caso (p0 − 1)2 − 4q0 < 0. (5.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 55 2. r1. La ecuaci´n hipergeom´trica de Gauss o e Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 − x)y + [γ − (1 + α + β)x]y − αβy = 0. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 x r1 ∞ k=0 ak x + c 2 k x r1 ∞ k=0 ak x k log x + x r1 ∞ k=0 bk x k . entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) + γr = 0. q(x) = . En efecto. x > 0. y2 (x) = x1−γ bn x n . r2 ∈ C. (5. x > 0. x(1 − x) x(1 − x) xp(x) = γ − (1 + α + β − γ)x + · · · . x > 0. an = (n + α − 1)(n + β − 1) an−1 . n=0 n=0 Comencemos por la primera. Como hemos supuesto que γ ∈ Z.10) 4.12) luego Por sencillez asumiremos que γ ∈ Z. (5. x2q(x) = −αβx + · · · . En todos los casos las series convergen en un entorno de x0 = 0. dividiendo por x(1 − x) tenemos γ − (1 + α + β)x −αβ p(x) = . entonces la soluci´n es o y(x) = c1 x cos(b log x) a ∞ k=0 ak x + c2 x sen(b log x) k a ∞ k=0 bk x k . (5. a Aqu´ s´lo nos limitaremos a mostrar un ejemplo del primer caso por ser este el m´s sencillo. por tanto.12) obtenemos (n + 1)(n + γ)an+1 = [n2 + (α + β)n + αβ]an . Obviamente x = 0 es un punto singular regular. entonces tenemos dos soluciones ∞ ∞ y1 (x) = an x n .r2 − r1 ∈ Z (dos ra´ complejas que no difieran ıces en un entero).

y + 2y + y = x. p ∈ R. entonces obtenemos an = por tanto y(x) = 2 F1 α. y prueba que an = p(p − 1)(p − 2. (α)n (β)n . x2y = y + x2 + 1. 1. n(n − γ + 1) y2 (x) = x1−γ 2 F1 =⇒ an = (α − γ + 1)n(β − γ + 1)n . Encuentra la regi´n de validez de la doluci´n anterior.9 Sea la EDO (1 + x)y = py. en la regi´n de convergencia de la o serie tendremos (1 + x) = p ∞ n=0 p(p − 1)(p − 2) · · · (p − n + 1) n x . a . (5.14) conocida como funci´n hipergeom´trica de Gauss. β − γ + 1 x . Es f´cil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1. En este caso o hay que buscar la soluci´n incluyendo el correspondiente t´rmino logar´ o e ıtmico. 4. y(0) = 1. que no es m´s que el teorema del binomio encontrado por Newton. o o 3. o o Como consecuencia del teorema de existencia y unicidad.13) (α)k (β)k xk . Si ahora sustituimos la segunda soluci´n obtenemos o an = (n + α − γ)(n + β − γ) an−1 . Busca su soluci´n en serie de potencias o 2) · · · (p − n + 1)/n!. Comprueba que la funci´n y(x) = (1 + x)p es soluci´n de la misma. 2. (γ)k k! (5. si es posible. n! p ∈ R.8 Resuelve las EDOs siguientes usando series de potencias. Problema 5. α − γ + 1. (x4 − 4)y + 3xy + y = 0. Problemas Problema 5. 3. (γ)nn! n ≥ 1. n ≥ 1. (2 − γ)n n! de donde tenemos N´ese que si γ ∈ Z entonces una de las soluciones deja de estar definida. β x γ = ∞ k=0 56 (a)n = a(a + 1) · · · (a + n − 1). e indica la regi´n de convergencia de las mismas o 1. xy = 2y + xex.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1. 2−γ 5.4. ∞ n=0 an xn.

Problema 5. o e Problema 5. . xy + (1 + α − x)y + py = 0. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss. con el cambio x = ez en una EDO con coeficientes constantes: ay (z) + (b − a)y (z) + cy(z) = 0. b. x2y + xy + (x2 − p2 )y = 0. xy + (1 − x)y + py = 0. x2y + xy − 5y = 0. (EDO de Hermite) 57 4. x2y + 2xy − 6y = 0.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeom´trica confluente definida por e xy + [c − x]y − ay = 0. (EDO de Airy). c ∈ R. a. a. (EDO de Laguerre generalizada) 3. c ∈ R se transforma. (EDO de Laguerre) 2.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1. Problema 5. (EDO de Chebyshev) 2. 3. Usando la soluci´n de la EDO de Airy resolver la EDO o y − xy = 0. 4. x2y + 3xy + 2y = 0. c ∈ R se denomina ecuaci´n hipergeom´trica de Gauss (aunque fue introducida por Euler en 1769). 2. b.12 Resuelve las siguientes EDOs de Euler 1.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1. Problema 5. o e Encuentra dos soluciones linealmente independientes de la misma. (1 − x2)y − 2xy + p(p + 1)y = 0. y + xy = 0. a. (EDO de Bessel) Problema 5. y − 2xy + 2py = 0. (1 − x2)y − xy + p2 y = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5. (x − 1)2y − 2(x − 1)y + 2y = 0. (EDO de Legendre) 3.14 La EDO x(1 − x)y + [c − (a + b + 1)x]y − aby = 0.

µm = λ + i=0 (x) . conocida como propiedad de hipergeometricidad: Si y es una soluci´n de (6.1).7) Cuando m = 0 la f´rmula (6.5) se convierte en la f´rmula de Rodrigues para los polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)]. entonces para las soluciones polin´micas de la ecuaci´n (6. [σ(x)ρm (x)ym ] + µm ρm (x)ym = 0.4) Teorema 6. Conocida ρ encontramos.2) se tiene la siguiente f´rmula de Rodrigues: o o o (m) Pn (x) = Anm Bn dn−m [ρn (x)].2 Si para todo k ∈ N ∪ {0}.3) donde ρ y ρm son funciones de simetrizaci´n que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [σ(x)ρ(x)] = τ (x)ρ(x). o e Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos definidos sobre el eje a a real los cuales vamos a definir como las soluciones polin´micas de la siguiente EDO o σ(x)y + τ (x)y + λy = 0. τ + kσ /2 = 0. que ρm (x) = σ m (x)ρ(x).6) Anm = Am (λ) |λ=λn Adem´s. el autovalor λn de (6. (6. e o Teorema 6. . La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una f´rmula expl´ o ıcita para los polinomios que satisfacen la ecuaci´n (6. (6. Para ello usualmente o se escriben (6. (6.1) es a k=0 1 [τ + 2 (n + k − 1)σ ].1) sus m-´simas derivadas y (m) ≡ ym satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0. ρm (x) dxn−m n! = (n − m)! m−1 Bn = Pn .1) donde σ y τ son polinomios de grados a lo m´s 2 y 1.2) en su forma sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0.8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6. Esta ecuaci´n (6. (6.. 2 (6. .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 58 6.1) son ortogonales dos a dos: .5) (6. m−1 (6. n = 0. utilizando las ecuaciones anteriores. λ ≡ λn = −nτ − n(n − 1) σ .2) τi (x) = λ + mτ (x) + m(m−1) σ 2 τm (x) = τ (x) + mσ (x). 2. Ann (n) (6. respectivamente.1) o sus m-´simas derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo. Los polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. 6. 1.1 Si y es una soluci´n de (6. [σ(x)ρm (x)] = τm (x)ρm (x).1) y (6.1) a o usualmente se denomina ecuaci´n diferencial hipergeom´trica y sus soluciones y cumplen con o e la propiedad.1..

n! k=0 n−1 bn = nτn−1 (0) an . Generalmente se impone que P−1(x) = 0 y P0(x) = 1.9) o e n e integrando por partes.de donde obtenemos la para la n − 1-´sima derivada de Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x). a Para calcular d2 . o sea. y dn es la norma de los polinomios. an = Bn Ann 1 = Bn [τ + 2 (n + k − 1)σ ].´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6. Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x) . y) ≡ n ≥ 1.13) Como un corolario de (6.11) se obtiene la conocida f´rmula de Christoffel-Darboux: o Teorema 6. bn y cn los coeficientes del desarrollo Pn(x) = anxn + bn xn−1 + cn xn−2 + · · ·. con lo que la sucesi´n de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones (α n)n .12) siendo an . (6. nos da: b d2 = Bn (−1)n n!an n σ n (x)ρ(x)dx. an−1 an−1 an d 2 n−1 (6. a (6. an an+1 γn = cn − αn cn+1 bn an−1 d2 n − βn = . Corolario 6. se cumple que: o b a = 0.b ciones polin´micas Pn de la ecuaci´n (6. ´ Para calcular los coeficientes principales an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn τn−1 (x).9) donde δnm es el s´ ımbolo de Kronecker y dn denota la norma de los polinomios Pn. Luego.11).1) constituyen una SPO respecto a la funci´n peso o o o ρ definida por la ecuaci´n [σ(x)ρ(x)] = τ (x)ρ(x). n (6.5 Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x).11) donde αn = an . sustituy´ndola en (6. podemos utilizar la f´rmula de Rodrigues que. (βn )n y (γn )n. Entonces las solu- Pn (x)Pm(x)ρ(x)dx = δnm d2 .3 Supongamos que xk σ(x)ρ(x) 59 x=a. para todo k ≥ 0.10) Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6. = 2 2 dm dn x−y m=0 n Kern (x. τn−1 (6.6 Si (Pn)n es una sucesi´n de polinomios ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos (6. an+1 βn = bn bn+1 − . (6.4 Si (Pn)n es una familia de polinomios ortogonales respecto a ρ entonces para b todo k entero con 0 ≤ k ≤ n − 1 se tiene que xk Pn (x)ρ(x)dx = 0.14) .

entonces los polinomios ortogonales m´nicos Pn (x) = o n+1 xn + · · ·. obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x. 6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x. Polinomios de Laguerre Lα (x) y cuando σ es de grado 2. Tomando m = 1 en la f´rmula (6. 2.15) De la f´rmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1.20) 6..5) para el polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o σ(x)Pn(x) = λn Bn Pn+1 (x) . soluciones de la ecuaci´n (6. Polinomios de Jacobi n α. Si definimos Qn (x) ≡ n+1 .16) ¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso ρ1 (x) = σ(x)ρ(x). nτn Bn+1 P (x) n ≥ 0.e. n (6.17) de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) = αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x). Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x). ¯ Bn−1 (6.30). es decir. cuando σ es de grado 1. Los Polinomios de Hermite. βn = nτn γn = ˜ (6. Pn (x) = o a ´ xn + bn xn−1 + · · ·. donde αn = ˜ Bn λn αn τ n − . Par´metros Principales.2. En las tablas 3 y 4 est´n representados los principales par´metros a a de dichas familias. a Comenzaremos escribiendo los principales par´metros de las sucesiones de polinomios a ortogonales m´nicos cl´sicos. Estos se pueden clasificar en tres grandes familias en funci´n del grado del o polinomio σ (τ siempre es un polinomio de grado 1). Laguerre y Jacobi. x) ≡ 2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n 60 n ≥ 1. (6.2.1). tales que su coeficiente principal an = 1. o 3. Si escribimos la f´rmula (6. λ n γn . satisfacen la siguiente relaci´n de estructura: o o Pn(x) = Qn + δn Qn−1 + n Qn−2 .1.19) 4. τn (x)Pn(x) − nτn Bn+1 (6. . en las cuales (a)n denota al s´ ımbolo de Pochhammer (6.5) se deduce que o Pn(x) = −λnBn ¯ Pn−1 (x).18) λn ˜ [βn τn + τn (0)] . τ es un polinomio de grado exactamente uno.β Pn (x). respectivamente. (6. i.

ap x b1 . o e De la f´rmula de Rodrigues.3. H2m+1 (x) = (−1)m x 1 F1 m x2 . Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n 1 1 γ− 2 . .0 1.β Pn (x) 1 − x2 −x + α + 1 −(α + β + 2)x + β − α n xα e−x α > −1 n(n + α + β + 1) (1 − x)α (1 + x)β α.. Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1 definida en el caso m´s general de forma: o e a p Fq a1. (6.. Los polinomios de Legendre Pn(x) = Pn (x)..5) se o e puede obtener la representaci´n de los polinomios de Hermite. o usando el m´todo de las series de potencias.2. 2n sen[ arccos (x)] 4.. Casos particulares.. 1 sen[(n + 1) arccos (x)] . (6.24) Lα (x) = n α. α+1 2 6. γ > −1. Representaci´n hipergeom´trica.21) De esta manera encontramos que: H2m (x) = (−1)m 1 2 1 F1 m −m 1 2 x2 .γ− 2 (x). bq = ∞ k=0 (a1)k (a2)k · · · (ap)k xk .23) (6. α+1 2n (α + 1)n 2 F1 (n + α + β + 1)n −n. 2.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 61 Tabla 3: Clasificaci´n de las SPO Cl´sicas.2.2.. β > −1 (1 − x)n+α (1 + x)n+β ρn (x) e−x 2 xn+α e−x 6. Los polinomios de Chebyshev de segunda especie Un (x): 1 1 2 Un(x) = Pn 2 (x) = . Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn 1 − 2 . 2 . (b1)k (b2)k · · · (bq )k k! 3 2 −m 3 2 (6. 3. o a Pn(x) σ(x) τ (x) λn ρ(x) Hn(x) 1 −2x 2n e−x 2 Lα (x) n x α.22) (6.β Pn (x) = (−1)n Γ(n + α + 1) 1 F1 Γ(α + 1) −n x . 0.− 1 2 (x) = 1 2n−1 cos[n arccos (x)]. a2 . n + α + β + 1 1 − x . . b2 .

Lα (0) = n (−1)nΓ(n + α + 1) . n = 0. (n − ν)! .26) (6.25) Utilizando la f´rmula (6. .. .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 62 Tabla 4: Par´metros de las SPO M´nicas (an = 1). e n! α+ν. a o Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x) n (−1)n α.. Γ(α + 1) 2n (α + 1)n α. (n + α + β + 1)n (6. 2.β (Pn (x))(ν) = (Lα (x))(ν) = n n! Lα+ν (x). Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad.27) donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x).. H2m (0) = (−1)m (2m)! . (n − ν)! n−ν (6. 22m m! H2m+1 = 0.): o (Hn(x))(ν) = n! Hn−ν (x).4.β+ν Pn−ν (x). 2.β Pn (−1) = ...16) encontramos las ecuaciones (ν = 1. (n − ν)! α. Otras caracter´ ısticas. 3. 1.β Pn (x) (−1)n (n + α + β + 1)n n(α − β) 2n + α + β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1) Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2(α − β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β)(n + α + β + 1) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α + β) − 4n(n − 1)(n + α)(n + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) −n bn d2 n αn βn γn αn ˜ ˜ βn γn ˜ −n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0 n n(n + α) δn n 0 0 n 0 6.2.β Pn (1) = . (n + α + β + 1)n (−1)n 2n (β + 1)n α.

α α. respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2). √ 1 a Utilizando las expresiones anteriores se concluye que Γ( 2 ) = π. de la f´rmula de Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o ıa para los polinomios de Jacobi: 2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 . 3. Gγ (x) = P2m 2 2m 1 γ− 1 . .β Pn (−x) = (−1)nPn (x). Γ(z)Γ(z + 1 ) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1). Otra funci´n muy relacionada con la o x→∞ b(x) funci´n Γ es el s´ o ımbolo de Pochhammer (a)k (5. P m m 2 1 (x) = (6. Γ(a) Finalmente. cumple la propiedad a Γ(1 − z)Γ(z) = √ 1−2z π2 Γ(2z).γ− 2 (x) = β. definiremos los coeficientes binomiales n k = (−1)k (−n)k n! = . Adem´s. .29) Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ. (6. .13) donde por a(x) ∼ b(x) entenderemos l´ ım Es muy sencillo comprobar que (a)0 = 1. n→∞ z(z + 1) · · · (z + n − 1) π . y adem´s. (z) > 0. definida. a(x) = 1. 1 1 γ− 2 . (a)k = (6.− 1 2 (2x2 − 1). 1 x Pm 2 2 (2x2 − 1).´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 63 Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi. En particular. ∀n ∈ N. (n − k)!k! k! . 2. Γ(a + k) . .γ− 2 −1 2 H2m+1 (x) = xLm (x2) . (a)k = a(a + 1)(a + 2) · · · (a + k − 1). sen πz Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) = zΓ(z).30) La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √ 1 Γ(ax + b) ∼ 2πe−ax (ax)ax+b− 2 . 2m Adem´s. k = 1. mediante la integral de Euler ´ Γ(z) = 0 ∞ e−t tz−1 dt. Esta funci´n fue definida por Euler en 1729 como l´ o ımite de un producto de donde se puede deducir la integral anterior (considerada tambi´n por Euler en 1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en detalle en 1814. Euler o o prob´ que o 1 Γ(z) = z n=1 ∞ 1 1+ n z 1+ z n −1 = l´ ım 1 · 2 · · · (n − 1) zn. x >> 1.28) 1 γ− 1 . en general.

. luego Cn = (α + 1)nC0 . as´ que tenemos ı cuando z = 0. evidente ya que para los polinomios de Hermite tenemos que σ(0) = 0. de donde deducimos que Cn = Γ(α + n + 1).p (0) = a b Cp+1 = 0.34). como C0 = π.µ+1 (z) = 0. e En el caso Laguerre tenemos que la relaci´n de recurrencia (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 64 6.34) es o (α + n + 1)Cn − Cn−1 = 0. (6. Adem´s. entonces todos los momentos impares son nulos.µ−1 (z) + [τν (z) + µσ (z)] Cν. Vamos a aplicar los resultados anteriores a los polinomios cl´sicos.7 Sea µ ∈ C.33) En particular. para ν = 0.µ (z) + τν + µσ 2 Cν. Teorema 6. µ = p ∈ N. Se definen los momentos como b Cν.8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el m´todo anterior. De ella o como C1 = 0. C0 = 0 ∞ xα e−x dx = Γ(α + 1).32) entonces los momentos generalizados verifican la siguiente relaci´n de recurrencia a tres o t´rminos e 1 µσ(z)Cν.33) y (6. Ello nos conduce a la relaci´n pCp−1 − 2Cp+1 = 0.31) Si se cumple la condici´n de frontera o b σ(s)ρν (s)(s − z)µ = 0. (6.3. Finalmente. la siguiente relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0) + pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡ C0.33) deducimos que. 2m 2 m! C2m+1 = 0. Ejemplo 6.34) sp ρ(s)ds. que usar (6. (6. de (6.33). Los momentos de los polinomios cl´sicos a En este apartado vamos a considerar brevemente una forma de obtener una relaci´n para o los momentos. entonces o o a C2m = (2m − 1)!! √ (2m)! √ π = 2m π. lo cual es √ la funci´n peso es una funci´n par. a (6. z = 0 obtenemos. a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6.µ (z) = a (s − z)µρν (s)ds.

Caso Hermite Hn (x): Primera prueba Sea Φ(x. e a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos. n! ∞ n=0 e− 1−t (−1)n α n Ln (x)t = . o Para los polinomios cl´sicos se tienen las siguientes identidades. t) = Pero ∂ Φ ∂tn luego e n ∞ k=0 2 1 n! ∂ nΦ ∂tn tn . Al ser esta funci´n anal´ o ıtica en R podemos usar la serie de Taylor Φ(x.4.36) 2α+β (−1)n (α + β + 1)n α. t=0 =e t=0 x2 ∂ n −(x−t)2 e ∂tn = t=0    ξ = x−t   dξ = −dx  = ∞ n=0 (−1) e n x2 ∂ n −ξ 2 e ∂ξ n ξ=x (−1)n = Hn(x). n! Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0. t) tal que. Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. Las funciones generatrices El objetivo de este apartado es encontrar las funciones generatrices de los polinomios cl´sicos. t) = e2xt−t . n! (1 − t)α+1 tx (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 65 6.35) Obviamente la serie anterior puede no converger prefijado un valor cualquiera del par´metro a t.β Pn (x)tn = . n! R(1 − 2t + R)α (1 + 2t + R)β (6. o o Φ(x. Para probar las mismas usualmente se hace uso del teorema integral de Cauchy. En general el problema se puede plantear como sigue: Dada una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar una funci´n Φ(x. a ∞ n=0 ∞ n=0 2n 2 Hn (x)tn = e2xt−t . Bn 2xt−t2 2n Hn(x)tn.37) con R = 1 + 4t(t + x). No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”. por ello asumiremos que t es lo suficientemente peque˜o para que la serie converja en una n regi´n de las x lo suficientemente amplia. t) = ∞ n=0 An Pn (x)tn. 2 . (6.

a Ahora sustituimos (6. 0) = 2x. o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior. ∂t De aqu´ deducimos que Φ(x. ∂t cuya soluci´n es Φ(x. t). t) = ∞ n=0 2 2 2n gn (x)tn. ∂t (n + 1)! (n − 1)! n! y sumamos en n = 0 hasta ∞ y usamos que 1/(−1)! = 0 y obtenemos ∂ ∂t ∞ n=0 ∞ ∞ 66 2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn(x)tn = 0. o Un sencillo c´lculo nos muestra que a ∂ 2 Φ(x. como Φ(x. 0) = 1 y Φt(x. n! (6. n! (n − 1)! n! o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn (x)tn = 0. t) = e2xt−t que escribiremos mediante la expresi´n o ız Φ(x. (n − 1)! n! n! n=0 n=0 ∞ ∞ .38) deducimos que g0(x) = 1 y g1(x) = x. t) y compar´ndolo con (6. usando el desarrollo en serie ı de Taylor en t para Φ(x. La raz´n fundamental o es que este m´todo es muy general y nos permitir´ probar el resto de las expresiones. Ahora bien. t) = 0.38) en la ecuaci´n diferencial anterior lo que nos da o ∞ n=0 2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0. t) + 2(t − x)Φ(x. t) = e2xt−t . es decir a partir de la expresi´n expl´ o ıcita de la funci´n generatr´ deducimos una relaci´n de recurreno ız o cia para los correspondientes polinomios (en este caso los de Hermite). (n + 1)! (n − 1)! n! n=1 n=0 ∞ 2n n n=0 n! Hn (x)t . t) = obtenemos la ecuaci´n o ∂ Φ(x.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0. t) = (2x − 2t)e2xt−t = 2(x − t)Φ(x. ∞ n=1 2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0.38) donde (gn)n es una sucesi´n de polinomios a determinar. e a o Sea la funci´n generatr´ Φ(x. n! n! n=0 ∞ o. equivalentemente. por tanto.

13 Demuestra que la funci´n generatr´ para los polinomios de Laguerre viene o ız γ− 1 . es decir.− 1 0. Problema 6. si en vez de sustituir a en (6.5.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeficientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0. 2n (γ)n γ Cn (x)tn. Problema 6. a ∀p(x) ∈ Pn .39) Problema 6. e b (k) (k) Pn (x)Pm (x)ρk (x)dx = δnm d2 . y)dx = p(y). Prueba que en este caso 1 = (1 − 2xt + t2 )γ ∞ n=0 . respectivamente.n (1).10 Probar la ortogonalidad de las k−´simas derivadas de los polinomios hie (k) pergeom´tricos yk ≡ Pn .γ− 1 γ dada por (6. 67 Ahora bien.0 Pn(x) = Pn (x). (6.12 Encontrar la relaci´n de recurrencia para los momentos Cn := C0. 2g2(x) − 4xg1(x) + 2g0(x) = 0.n (0) de o los polinomios de Jacobi. n! (6. 6. N´tese que o 2α+β+1 Γ(α + 1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = .41) donde (γ)n es el s´ ımbolo de Pocchamer.11 Prueba que los polinomios n´cleos satisfacen la siguiente propiedad reprou ductora b p(x)Kern (x. kn a (6. .n (0) en o este caso y resu´lvela. Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi. Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre. A partir de ´sta encuentra los momentos de los polinomios de Legendre e e − 1 . Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso α = β = γ − 1/2. como g0(x) = 1 = H0(x) y g1(x) = x = H1(x).40) Problema 6. entonces comparando las relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend´ ıamos probar.33) z = 0 sustituimos el valor z = 1. es decir. Γ(α + β + 2) −1 α β 1 H´gase lo mismo pero para los momentos Cn := C0.9 Calcula todas las car´cter´ a ısticas de los polinomios cl´sicos que aparecen en a la tabla 4. Encontrar la relaci´n de recurrencia para los momentos Cn := C0.36). los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los 1 1 polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x). Problemas Problema 6. 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0.

Γ(α + 2)(n − 1)! • N´cleos de los polinomios de Jacobi: u α.β (x. y) = Pm (x)Pm(y) .α d (x) = n(−1)n+1 ηn Pn−1 (x). 0) = √ Lm−1 (x2) = √ .α α+1.β (1.14).β (x.α. n−1 .43) Problema 6. 2n(β + n) dx 2(β + n) 68 (6.α ηn = (6. −1) = n−1 Γ(β + n + 1)Γ(α + β + n + 1) . KerJ. prueba las siguentes f´rmulas: o o o • N´cleos de los polinomios de Hermite: u 1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x. 2n(α + n) dx 2(α + n) α. n−1 β.α. 0) = n−1 (α + 1)n .β α. 1) = Kern−1 (−1.β (−1.α ηn (−1)n−1 Γ(2n + α + β) . 2m−1 π(m − 1)! 2 π(m − 1)! x 1 (−1)m H2m (x) (−1)m 2 . y) se definen mediante la expresi´n u o Kern−1 (x. 2α+β+n n!Γ(α + 1)Γ(β + n) Usando (6. 0) = .β.β α.β d α−1.β donde por ηn y ηn denotaremos las cantidades β.α.14 Prueba las relaciones α.45) tenemos KerJ.β (2n + α + β)(1 − x) d Pn (2n + α + β) α.44) (6.β (2n + α + β)(x + 1) d Pn (2n + α + β) α.α KerJ. 1) = n−1 Utilizando la relaci´n de simetr´ (6. = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1) 2 π(m − 1)! 2 π m!2 (−1)n−1 (Lα ) (x). n Γ(α + 1)n! KerL (0.25) y las o f´rmulas de diferenciaci´n (6. 1) = (−1)n+1 ηn dx Pn n−1 β.17).45) (−1)n−1 Γ(2n + α + β) .β Pn−1 (x) = (6.β+1 Pn−1 (x) = α.α. −1) = ηn dx Pn (x) = nηn Pn−1 (x).β−1 β.β (x) + Pn (x).β α.β (−1.β+1 KerJ. d2 m m=0 n−1 Usando la f´rmula de Christoffel-Darboux (6. 2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1 Γ(α + β + n + 1) . 0) = n−1 1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 . 2α+β+n n!Γ(α + n)Γ(β + 1) β.42) α+1. 0) = √ 2m π(m)! π(m)! x KerH (0. 0) = 2m−1 • N´cleos de los polinomios de Laguerre: u KerL (x.15 Los polinomios n´cleos Ker n−1 (x.α. −1).29) para los polinomios de Jacobi prueba que o ıa J.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6.α α. 2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1) KerJ.β (x) − Pn (x). Lm (x2) = √ KerH (x. los valores en los extremos (6. KerH (0.44)-(6.

y) es continua en el rect´ngulo R o a definido por R = {(x. yn (ξ))dξ.1) definidas en Id = {x : |x − x0| < d} tales que y1 (x0) = y2 (x0) = y0 . . y) ∈ R y (x. y) de la clase de Lipschitz seg´n la definici´n a o u o anterior es continua en y.5) yn+1 (x) = y0 + x0 f (ξ.3) Definici´n 7. .2) Proposici´n 7. a (x. Vamos a dar aqu´ algunas ´ ıa o ı condiciones bajo las cuales podemos garantizar que el PVI (7. y u = 0 si y s´lo si u(x) = 0 en o I. El teorema de existencia y unicidad para las EDOs Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia y unia cidad de soluciones para una EDO de primer orden. a Sea y0 (x) una funci´n continua definida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida en R. se tiene la desigualdad triangular a u+v ≤ u + v .1) En el apartado 2.2 Diremos que una funci´n f (x. 1/K). Vamos a definir una sucesi´n de funciones yn (x) de la siguiente forma e o x (7. Sea el problema de valores iniciales y = f (x.4) Para la norma tenemos la desigualdad evidente u ≥ 0. 1. y) sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea continua en R.1 El PVI (7. o o . Adem´s. Proposici´n 7. y). (7.1) es equivalente a la siguiente ecuaci´n integral o o x y(x) = y0 + x0 f (ξ. y(ξ))dξ. (7. . entonces y1 (x) = y2(x) en todo Id . 2. y) : |x − x0| ≤ a.y)∈R Como f es continua en R. (7. o ´ Lo primero que asumiremos es que la funci´n f (x. M siempre est´ definida.1 de aproximaciones n´mericas vimos algunos ejemplos donde la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n exacta. |y − y0 | ≤ b}. y(x0 ) = y0 . y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x. a. (7. Obviamente si u(x) es continua u < +∞. Sea M = m´x |f (x.4 (Teorema de unicidad local de soluciones) o Sea f (x. z)| ≤ K|y − z|. . y)|. x∈I |f (x.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69 7. ∂y Definici´n 7. y) una funci´n de la clase de Lipschitz con constante K y sea d ∈ (0. una condici´n suficiente para que una funci´n f (x.1) tiene soluci´n unica.7. b > 0.6) La sucesi´n anterior se conoce como sucesi´n de Picard. Adem´s. (7.3 Dada una funci´n u(x) definida en un intervalo cerrado y acotado I ⊂ R. n = 0. z) ∈ R se cumple Es f´cil comprobar que toda funci´n f (x. Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7. y) − f (x. o o definiremos la norma de u(x) a la cantidad u = sup |u(x)|.

6) converge cuando n tiende a infinito a una funci´n y(x) que es soluci´n del PVI (7.8 Prueba las propiedades anteriores para la norma u . b/M. entonces las demostraciones anteriores se adaptan perfectamente para el caso general. b/b. Problema 7. Sea x ∈ R por ejemplo. Problemas Problema 7.. el PVI (7. Las correspondientes o demostraciones se dejan como ejercicio. Entonces. Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la soluci´n.2). Corolario 7. y el teorema anterior nos garantiza s´lo la soluci´n en el intervalo Id = {x : |x − x0| < d = m´ o o ın(a. a Proposici´n 7. N´tese o que con esta elecci´n se tiene que si |Y (x)| ≤ M entonces Y ≤ N M .7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 70 Proposici´n 7. o . |y0 (x) − y0 | ≤ b. por lo que como mucho asegurar a que la soluci´n existe en el intervalo |x| < 1/2. y(x)) e ´ o y(x0 ) = y0 . es decir existe una unica funci´n y(x) tal que y (x) = f (x. 1/K)}. y)|. b/(1 + b2 ). la sucesi´n de Picard e o (7. y) − f (x. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. b/M. y) = y. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x ∈ R cualquiera y tomamos b > 0 cualquiera tenemos f (x. N´tese que en este caso el teorema es util o o ´ pues para x > 1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica. Para ello basta definir una a norma en RN y el valor absoluto de un vector. Para este ultimo podemos usar la definici´n ´ o |Y (x)| = N |yk |. Los teoremas anteriores son s´lo condiciones suficientes.y)∈R |f (x.1. por tanto d = m´ ın(a. 2 Ahora bien. z)| = y 2 − z 2 = |y + z||y − z|. 1/b). En este caso ´ la soluci´n es y = tan x definida s´lo en [0. Escojamos un valor cualquiera para y. luego f es lipschitziana con constante K = 1. la norma k=1 N Y = k=1 yk . M = b. m´x b/(1 + b ) = 1/2 y se alcanza en b = 1. entonces o o |f (x. 1/1) = 1}. digamos que |y| ≤ b > 0. Entonces. a Entonces. 7. o a El procedimiento anterior es f´cilmente extensible a sistemas. Como f (x. i. 1/K)} tal que su imagen est´ contenida en R.1) con f lipschitziana de constante K en R (7.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funci´n continua definida en Id = {x : |x − x0| < d = m´ o ın(a.1) tiene soluci´n unica en el intervalo Id = {x : |x − x0 | < d = o ´ m´ ın(a. b/M. Si ahora usamos. y) = 1 + y 2 .9 Sea la EDO y = x − y 2 con y(0) = 0. Entonces K = 2b y M = 1 + b2 .e. 1/K) = m´ ın(a.1) o o en Id . para todo n ≥ 0. y M = m´x(x. Encuentra las tres primeras aproximacioo nes de la soluci´n. π/2). por ejemplo.5 Sea y0(x) una funci´n continua definida en Id = {x : |x − x0| < d = o o m´ ın(a. las im´genes e a de yn (x) est´n contenidas en R. b/M )} tal que su imagen est´ contenida en R.7 (Teorema local de existencia y unicidad) Sea el PVI (7.

Problema 7. y(0) = 0. y = y 3 + e−5x . a o .10 Prueba que la soluci´n de cada uno de los siguientes PVI existe en el o intervalo indicado 1. x ∈ [0. y(0) = 2/5. y(0) = 0. 1/2] Problema 7. 3/10] 3. y = y 2 + cos x2 . Comp´ralas con la soluci´n exacta.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 71 Problema 7.11 Encuentra las tres primeras iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e . y(0) = 0.12 Encuentra las cuatro primeras iteraciones de la sucesi´n de Picard para el o PVI y = 1 + y 2 . x ∈ [0. 1/2] 2. x ∈ [0. y = x + y 2 . y(0) = 0.

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace
 

Definici´n 8.1 Sea f una funci´n definida en [0, ∞). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
 

∞ 0

e−tx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea
∞ 0 z

e

−tx

f (x)dx = l´ ım

z→∞

e−tx f (x)dx.
0

Definici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo x ≥ 0. Teorema 8.3 Si f es una funci´n continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t suficientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace m´s comunes incluida a la de la funci´n escal´n χc (s) definida como 1 si x ∈ [0, c] y 0 en el resto. o o
 

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a , t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
         

n−1 k (n−k−1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4. [χc (x)f (x − c)] = e−ct F(t).
     

73

[xnf (x)](t) = (−1)n F(n) (t).

5. Definiremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f ∗ g)(x) o o definida por
x

(f ∗ g)(x) =
     

0

f (x − z)g(z)dz.

(8.2)

Entonces, [(f ∗ g)(x)](t) = [f (x)](t) · [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0 sen(ωx), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y − 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede expresar en serie como o Y(t) = c
∞ n=0

(−1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 3.

3 −2 2 −2

1 − χπ (x) 0

Y (0) =

f (x) dx = F (x) + C Mediante una simple derivaci´n es sencillo comprobar el siguiente o Teorema A. b) se tiene que F (x) = f (x). o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. 7. 8. α+1 ∀α ∈ R. si F (x) es una dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx g(x) dx Teorema A. Definici´n A. De manera que. log a a > 0. Teorema A. 6. 0 dx = C 1 dx = x + C xα dx = xα+1 + C.1 Se dice que una funci´n F (x) es una primitiva de otra funci´n f (x) sobre un o o o intervalo (a.3 El conjunto de todas las primitivas de una funci´n f (x) definida en (a.2 Sean F1 (x) y F2 (x) dos primitivas de la funci´n f (x) en (a. 2. 3. b) se o o denomina integral indefinida de f (x) y se denota por primitiva de f (x). 3. Anexo: C´lculo de primitivas a Definici´n A. 4.5 Tabla de Integrales 1. b). para todo o x de (a. d dx f (x) dx = f (x) (A. F1 (x) − F2 (x) = const. Es decir dada una funci´n f (x) sus primitivas difieren en una o constante (en adelante denotaremos por C a una constante cualquiera).1) f (x) dx. b). 4.4 (Propiedades de la integral indefinida. 2. la funci´n F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x.´ A ANEXO: CALCULO DE PRIMITIVAS 75 A. b) si para todo x de (a. a = 1 sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x . Entonces. 5. α = −1 1 dx = log |x| + C x ax dx = ax + C. Por ejemplo.) 1.

12. Supongamos que sobre el conjunto T existe la primitiva de la funci´n g(t). o Teorema A.1.1. Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) = g[φ(x)]φ (x). M´todos de integraci´n. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2 ecos x sen x dx.´ A ANEXO: CALCULO DE PRIMITIVAS 1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C 76 9. A.1. b) el dominio y T = φ[(a. Como la integral no es de la tabla es necesario convertirla en una de la tabla. e o Integraci´n por cambio de variable. Entonces sobre todo el conjunto (a. 10. 15. b) la funci´n g[φ(x)]φ (x) tiene una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C. o o sea.7 a) Calcular cos(2x) dx. g(t)dt = G(t) + C. o Ejemplo A. 13. Como la integral no es de la tabla es necesario convertirla en una de . 11. b)] o la imagen de φ(x). 17. 14. 1 √ dx = log x + 2±1 x x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x A. 16.6 Sea t = φ(x) una funci´n derivable en x y sean X = (a.

Como la integral no es de la tabla es necesario convertirla en una de la 1 u(x) = log x.4. I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integraci´n por partes son: o 1. . du(x) = aeax dx dv(x) = sen bx dx.2. Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax sen bx dx. arc cos x. Las integrales donde aparezcan las funciones log x. b b b de donde. o 77 Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a. Ejemplo A. (ax + b)n cos cx dx y (ax + b)n ecx dx. eax cos bx dx.2) Demostraci´n: Para probarlo es suficiente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A.´ A ANEXO: CALCULO DE PRIMITIVAS A. respectivamente.8 a) Calcular xn log x dx. Entonces. du(x) = x dx n+1 dv(x) = xn dx. v(x) = x n+1 tabla. La integral eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar ı u(x) = eax .. du(x) = aeax dx dv(x) = cos bx dx. . potencias enteras de las funciones anteriores. b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) − o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x). u(x) = (ax + b)n−1 . u(x) = − 1 cos bx b I= eax cos bx a + b b integraci´n por partes: o eax sen bx dx = =− eax cos bx dx.1. Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores. sobre (a. Como la integral no es de la tabla es necesario convertirla en una u(x) = eax . Donde para 2. resolviendo la ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C. 3. encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes n veces tomando o o cada vez u(x) = (ax + b)n . entre otras donde tendremos que escoger como funci´n o u(x) a alguna de las funciones anteriores (ver ejemplo a)... v(x) = 1 sen bx b eax sen bx a − b b de la tabla. sen(log x) dx y cos(log x) dx. Integraci´n por partes. Las integrales (ax + b)n sen cx dx. (A.3) v(x)u (x) dx. Las integrales de la forma eax sen bx dx. aplicar dos veces integraci´n por partes y resolver la ecuaci´n resultante respecto a I (ver o o ejemplo b). b). log φ(x). Juntando las dos f´rmulas anteriores concluimos que o eax sen bx a a2 + 2 eax cos bx − 2 I.. Utilicemos la integraci´n por partes: o xn log x dx = xn+1 n+1 = xn+1 log x − n+1 xn dx = n+1 = log x − 1 n+1 +C b) Calcular I = eax cos bx dx. b) y existe la primitiva de la funci´n v(x)u (x) en (a. arc sen x. (A.

.. o Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x). N´tese que el denominador e o com´ n coincide con (A. .5) con P n (x). Mi . Li y Ki son ciertas constantes reales.6) Como consecuencia de lo anterior. a Igualando los coeficientes de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos resolver para encontrar los coeficientes indeterminados A i .4) y el numerador es un polinomio de grado a lo sumo n.. . ni ni −1 (x − xi ) (x − xi ) (x − xi ) utilizando la propiedad que x→xi l´ ım Pn (x)(x − xi )ni = A ni . Entonces.´ A ANEXO: CALCULO DE PRIMITIVAS 78 A. i = 1.10 Supongamos que donde k < m. Definici´n A. No obstante es posible encontrar el coeficiente Ani de los sumandos correspondientes a uno de los ceros reales xi . Integraci´n de funciones racionales. k no tienen ı Pn (x) ra´ces reales. Ni .. el Ani de A ni Ani −1 A1 + + ··· + . Qm (x) Qm (x) Teorema A. (A.9 Diremos que una funci´n racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + . Ni .8) .5) M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk . (A. Li y Ki . si Qm (x) tiene m ceros reales y simples. Bi . la fracci´n simple ı o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1 )n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· + + ···+ np np −1 (x − xp ) (x − xp ) (x − xp ) (A. Qm (x) (A. Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones m´s simples en (A. o sea. y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp )np (x2 + p1 x + q1 )m1 · · · (x2 + pk x + qk )mk . Bi . o sea. Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1 Am = + + ··· + + . y los factores x2 + pi x + qi . xp son las ra´ces reales de Qm (x).4) donde x1 . Pn (x) es una fracci´n simple.7) entonces. si n < m.. Mi . Para determinar dichas constantes sumamos los t´rminos de la derecha. o sea. si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2 ) · · · (x − xm−1 )(x − xm ). Qm (x) (x − x1 ) (x − x2 ) (x − xm−1 ) (x − xm ) (A. + ··· + 2 mk + pk x + q k ) (x + pk x + qk ) donde Ai .2.

. k (x − a) 1 − k (x − a)k−1 k > 1. x y x0 son iguales.. D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . B. utilizando (A. ıces . entonces Pn (x) ≡ Qn (x) para todo x ∈ R.. x dx. − 3x + 2 (x − 1)(x − 2) x−1 x−2 x(x − 2) = 2. x2 .9) obtenemos A = l´ ım x(x − 1) = −1. es decir. xn+1 (distintos entre si). m. 2 x2 + px + q 2 4q − p 4q − p2 x dx. (x − 1)2 (x2 + 1) Para encontrar los coeficientes A. 2. (A... (x − 1)(x − 2) Ejemplo A.11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A dx = A log |x − a| + C. . ..9) Teorema A..10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx = − log |x − 1| + 2 log |x − 2| + C. x−a B 1 B dx = + C. 7 (A. Qm (x) k = 1.12 a) Calcular x2 Luego. C.´ A ANEXO: CALCULO DE PRIMITIVAS donde A1 . Primero encontraremos las fracciones simples mas elementales: (x − 1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x − 1 x +1 A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 .. Dos polinomios de grado 3 son iguales si los coeficientes de las potencias x 3 . En nuestro 7 Se supone que x2 + px + q no tiene ra´ reales. utilizando (A.. Primero encontraremos las fracciones simples mas elementales: − 3x + 2 x2 x x A B = = + . Am se calculan por la f´rmula o Ak = l´ ım x→xk 79 Pn (x)(x − xk ) . si P n (xk ) = Qn (xk ) e para ciertos x1 ..10) 3) M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C. (x − 1)(x − 2) −1 2 + x−1 x−2 B = l´ ım x→1 x→2 Finalmente. por lo que igualando dichos coeficientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 : B + C − 2D = 1 : A−B +D = 0 1 A= 2 B=0 C=0 D = −1 2 cuya soluci´n es o Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n − 1 valores iguales en n + 1 puntos dados son id´nticamente iguales.

cos x) dx las cuales se En este apartado vamos a estudiar las integrales de la forma   t = tan x  2   sen x =      convierten en integrales racionales mediante la sustituci´n trigonom´trica t = tan x . cos x). e f (sen x. Ellas son las siguientes: 1. donde f (− sen x. sen x 2dt dx = 1+t2 2 cos x = 1−t2 1+t t = tan x 2 2t sen x = 1+t2 = x dt = log |t| + C = log tan + C. cos x) dx. e x 1 dx = (x − 1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. Luego. Luego.3. cos x). 3. (x − 1)2 x2 + 1 2(x − 1) 2 A.14 a) Calcular la integral dx = sen x dx . donde f (− sen x. 2.´ A ANEXO: CALCULO DE PRIMITIVAS 80 ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los m´s sencillos posibles: a 1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A + 5B + 2C + D = 2 x=0: A−B +D = 0 cuya soluci´n es o A= 1 2 B=0 C=0 1 D = −2 que coincide con la encontrada por el m´todo anterior. cambio t = tan x Ejemplo A. cos x) dx. donde f (sen x. cos x). cos x) dx = 2t 1 + t2 = f que es un integral de una funci´n racional. f (sen x. t 2 Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar con cambios m´s e a sencillos.13 Calcular la integral dx = sen x dx . − cos x) = −f (sen x. cambio t = cos x f (sen x. − cos x) = f (sen x. 1 + t2 1 + t2 2 dt. cos x) = −f (sen x. cambio t = sen x f (sen x. cos x) dx. sen x =− 1 x 1+t dt = − log +C = log tan +C. o Ejemplo A. Esta integral es del tipo 1. Integrales trigonom´tricas. o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 . 1 + t2 f (sen x. 2 1−t 2 1−t 2 x 2 dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x = t que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o .

Luego. Esta integral es del tipo 1.15 a) Calcular la integral a2 − x2 dx. x = a sen t dx = a cos tdt = a2 2x a2 a2 − x2 dx = cos2 tdt = a2 a2 t+ sen 2t + C. cambio x = a tan t Ejemplo A. Luego. 2. x2 ± a2) dx y √ f (x. a2 x x arc sen + 2 a 2 x2 − a2 dx. Esta integral es del tipo 2. Luego. f (x. f (x. a2 − x2) dx. Luego.4. 1 − t2 dt = t− t3 +C = sen x− 3 3 cos3 x dx = dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t = c) Calcular la integral tan3 x dx. a2 − x2 ) dx. 3. √ f (x. √ f (x. 1−y 2 = a2  a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt  sen2 t a2 y2 dt = (1−y 2 )2 4 y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y+1 . sen3 x 1 +C.4. Estas integrales irracionales se convierten en integrales trigonom´tricas mediante los cambios: e 1. Esta integral es del tipo 2. Las integrales √ f (x. a2 − x2 ) dx A. por tanto a2 − x2 + C. cos2 t dt = sen3 t y = cos t sen t = 1− y2 dt = − √ dy cos t = y + C. n En este apartado vamos a estudiar las integrales de la forma ax+b cx+d dx. 2 2 2 2 2 A. y f x. cambio x = a sen t x2 + a2 ) dx. cambio x = a sen t x2 − a2 ) dx.1. t = tan x 1 cos x = √1+t2 dt dx = 1+t2 t sen x = √1+t2 tan3 x dx = = t3 dt = 1 + t2 t− t dt = 1 + t2 = t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = + log | cos x| + C. x2 ± a2 ) dx. f (x. Esta integral es del tipo 3.´ A ANEXO: CALCULO DE PRIMITIVAS 81 b) Calcular la integral cos3 x dx. sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2 dx = b) Calcular la integral   x= √ a2 − x2 . 2 4 √ pero. Integrales irracionales.

´ A ANEXO: CALCULO DE PRIMITIVAS pero. x x2 + a2 dx = 2 √ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x A. b]. Sea f : [a. Luego. =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 √ de donde. f (x) es integrable en [a. .17 Teorema fundamental del c´lculo y F´rmula de Newton-Leibniz. b] → R a o continua en [a. Las integrales f x. a Teorema A. ax+b cx+d . (A. b] y a b b f (x) dx = Φ(x) a a = Φ(b) − Φ(a).12) siendo Φ(x) una primitiva cualquiera de f (x). 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3 (t−1)dt+3 = t(t−2)+3 log(1+t)+C. b] y una de ellas es la funci´n o x n x.11) Adem´s. n ax + b cx + d dx. Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A. x = 2 √ x − x 2 − a2 x a2 √ log +C = 2 − a2 4 2 x+ x c) Calcular la integral x2 + a2 dx. x 82 por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C. obtenemos √ √ 3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C. x2 + a2 dx = =a 2 1−y 2 = a2 a2 1 dt = (1 − y 2 )2 4 √ tan t 1+tan2 t y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y−1 = √ x . n ax + b cx + d dx. (A. Esta integral se racionaliza con el cambio t = 3 x + 1. deshaciendo el cambio t = 3 x + 1. Entonces f tiene primitiva en [a. b). y = sen t = por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C.4. Esta integral es del tipo 3. x2 +a2 pero. F (x) = c f (t) dt.16 Calcular la integral √ dx √ .2. 2 El c´lculo de primitivas es necesario para calcular integrales definidas de funciones continuas. y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 − √ x2 −a2 . Luego. x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C. c ∈ (a.

. . De esta forma e e o la matriz asociada al sistema (B. . .  . xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B...  (B. ´ Anexo: Algebra lineal Sistemas lineales y matrices. Multiplicar por una constante no nula una ecuaci´n cualquiera.1). .1) no tiene soluci´n decimos que es o o un sistema incompatible. . 3. a El sistema de ecuaciones (B.. . .1) est´ completamente caracterizado por su matriz asociada que no a es m´s que la matriz en cuya fila i (i = 1.1) tendr´ la forma a   a11 a12 a13 · · · a1m b1  a21 a22 a23 · · · a2m b2    (B. 2.. x2 ..1) es compatible si existen los valores de x 1 . y se denomina matriz ampliada del sistema. . Intercambiar dos ecuaciones. . De forma que a cada una a le corresponden las siguientes operaciones por filas 1. ..  . m) a a y el t´rmino independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B. 2.3) Un sistema lineal de la forma (B. Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B. Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. A  a11 a12  a21 a22   .. . . . an1 an2   . . . . o e u o Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su an´logo al operar con las matrices. an3 · · · anm  se le denomina matriz de coeficientes del sistema. 2. Un sistema compatible que tiene una unica soluci´n se llama determinado ´ o y si tiene infinitas soluciones indeterminado. o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de cualquier otra ecuaci´n.´ B ANEXO: ALGEBRA LINEAL 83 B. .1). . Si un sistema lineal de la forma (B.    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de dimensiones n×m no es m´s que una “caja rectangular” con n filas y m columnas.. n) est´n colocados los coeficientes a ij (j = 1. . 2.2)  . an1 an2 an3 · · · anm bn la matriz a13 · · · a1m a23 · · · a2m . B. . .. Multiplicar por una constante no nula una fila cualquiera. . .. Si existen dichos valores diremos que el sistema tiene soluci´n.  . . . . Intercambiar dos filas. Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones.1. .. . .  .1) . .

4) . Una consecuencia del teorema anterior es que los elementos gu´ est´n siempre en la misma ıas a posici´n en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de fila. (B.   (B. ıa Diremos que una matriz est´ en forma escalonada si: a 1.2. 2.1 Cualquier matriz es equivalente por filas a una unica matriz con forma escalonada ´ reducida. 84 Reemplazar una fila por la suma de ´sta mas un m´ ltiplo de cualquier otra fila.     ∗  0 0 0 0 0 0 denota a los elementos gu´ de cada fila. Si exigimos ahora que los elementos gu´ ıas ıas donde sean todos iguales a 1. a El elemento gu´a de cada fila se encuentra siempre en una columna a la derecha del elemento ı gu´ de la fila anterior. o B. 3. Dichas posiciones se denominan pivotes y las columnas donde se Las matrices escalonadas tienen  ∗ ∗  0 ∗   0 0 0   0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 ∗ ∗ 0 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗    . o En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente de cero. ıa Debajo de cada elemento gu´ s´lo puede haber ceros.4) tenemos que sus correspondientes formas reducidas son:     1 0 0 0 0 ∗ 1 0 ∗ ∗ 0 0 ∗  0 1 0 0 0 ∗   0 1 ∗ ∗ 0 0 ∗       0 0 0 0 1 0 ∗ .5)      0 0 0 1 0 ∗   0 0 0 0 0 1 ∗  0 0 0 0 1 ∗ 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una matriz con forma escalonada no teniendo siempre ´sta ultima una forma unica.  0 0 1 0 0 ∗ . Diremos que dos matrices son equivalentes por filas si a cualquiera de ellas la podemos transformar en la otra utilizando s´lo operaciones elementales de filas. Formas escalonadas y el algoritmo de reducci´n por filas. Utilizando las formas escalonadas a anteriores (B. Es importante recordar que las o operaciones elementales de filas son reversibles y por tanto las operaciones elementales descritas no cambian la soluci´n del sistema original de ecuaciones. y que adem´s sean los unicos elementos diferentes de cero de la columna a ´ entonces diremos que la matriz escalonada est´ en forma reducida. Definiremos elemento gu´ de una fila al primer elemento (por la izquierda) no nulo de la fila. es decir se cumple el siguiente teorema: ´ Teorema B. Por el contrario las e ´ ´ formas escalonadas reducidas son unicas. Todas las filas no nulas est´n por encima de las nulas.´ B ANEXO: ALGEBRA LINEAL 3. e u Las operaciones anteriores se denominan operaciones elementales de filas. ıa o t´ ıpicamente la forma:   ∗ ∗ ∗ ∗  ∗ ∗ ∗ ∗    0 ∗ ∗ .

Tapamos la fila (o filas si hay m´s de una) con la posici´n pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las filas restantes). Este proceso consta de cuatro pasos: 1. B. 4. a El significado de una variable libre es que dicha variable puede tomar cualquier valor.3. Este ser´ el primer pivote. las filas de la matriz hasta que dicho elemento se encuentre en la posici´n de pivote. 2. mediante operaciones elementales de filas. Para ello primero transformamos la matriz en una equivalente por filas que tenga forma escalonada o escalonada reducida. 3. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda. Comenzando por el primer pivote de la derecha creamos. o La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. pivote ↓  ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗   0 0 0 0 ∗   0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote Algoritmo de reducci´n por filas. La primera consiste en transo formar una matriz cualquiera en una equivalente por filas con forma escalonada. las cuales pueden venir expresadas en funci´n de las variables libres.´ B ANEXO: ALGEBRA LINEAL 85 encuentran se denominan columnas pivotes.   (B. Este paso se repite hasta que no queden m´s filas no nulas. La segunda parte consiste en transformar la forma escalonada en la forma reducida. Si el pivote no es uno dividimos por su valor para que lo sea. Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. El resto de las variables se denominan variables libres. Este proceso consta del siguiente paso: 5.6) Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. La soluci´n o de un sistema viene dada al escribir el valor de las variables principales. o El algoritmo de reducci´n por filas consta de dos fases (partes). ceros encima del mismo. o Utilizando las operaciones elementales de filas crear ceros debajo del pivote. a ∗ ∗ ∗ ∗ 0    . Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando. Soluci´n de un sistema de ecuaciones lineales. Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. Las variables correspondientes a las columnas pivote se denominan variables principales o b´sicas. As´ por ejemplo ı. o . A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. si es preciso.

 ..     =   ⇐⇒ x1 = y1 . Por ejemplo.1. x2 dependen tanto de los t´rminos independiente como de las variables e libres x3 .´ B ANEXO: ALGEBRA LINEAL 86 Por ejemplo.2 Un sistema de ecuaciones lineales en compatible si y s´lo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote. o lo que es igual. x4 obtenemos diferentes valores de x1 .  . Por el contrario el sistema correspondiente a la matriz   ∗ ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗ ∗     0 0 0 0 (B. x6 y las libres x3 . ıa o B.8) ∗ ∗ . x6 est´n completamente determinados por los t´rminos a e independientes (recordar que la ultima columna est´ compuesta por los t´rminos independientes ´ a e de las ecuaciones) pero x1 . . Vectores y ecuaciones matriciales. no existe ninguna fila de la forma (0 0 0 · · · 0 α) con α diferente de cero. .4. De o a la forma de la matriz observamos que x5 .4. xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son   y1 y2 ... . . B.7)  x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B.6)..     0 0 0 0 0 0 0 0 0 0 0 0 0 es incompatible al ser la ultima columna una columna pivote. x4 . Los valores x1 . . Dicha matriz representa un sistema de 5 ecuaciones con 6 inc´gnitas. consideremos la matriz del sistema (B.. xn es decir un vector es una matriz de componentes) del vector x. x4 .4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). . Si el sistema es compatible entonces tiene soluci´n unica (sistema compatible determinado) si no hay ninguna variable libre y tiene infinitas o ´ soluciones (sistema compatible indeterminado) si existe al menos una variable libre. yn      xn Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero. el sistema (x1 depende de la variable libre x3 )    1 0 −5 1  x1 = 1 + 5x3  0 1 0 4  tiene la soluci´n o x2 = 4 (B. x2 . ... xn son n´ meros reales. Por ejemplo. Vectores de Rn Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a u   x1  x2    x =  . xn = yn .. n × 1. donde x1 . Diremos iguales. u  . .. x2 . Las variables principales ser´n x 1 . o sea  x1  x2  x=y ⇐⇒  . Es decir fijando diferentes valores de x3 . o sea. los sistemas correspondientes a las dos matrices (B. al tener la fila ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que por definici´n es diferente de cero). x5 .

..     w1 αx1  w2   αx2      w = αx =⇒  . .   . .. an de Rm con o pesos α1 ... al conjunto de todos los vectores de la forma L(a1 .. β n´ meros reales...4. 6. 8. .2.  .. . an ) si y s´lo si el sistema [a1 a2 · · · an b] es compatible.  . Operaciones con vectores. an de Rm y lo denotaremos como span (a1 .. z. zn xn yn xn + yn x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1) x α(x + y) = αx + αy (α + β)x = αx + βx α(βx) = (αβ)x 1x = x Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 . . a2 . .. .   .         x1 + y1 y1 x1 z1  z2   x 2   y 2   x 2 + y 2          z = x+y =⇒ . . ... wn αxn Sean x. Adem´s b est´ en span (a1 . 5. a2 .  .  =  .  =  . .. . donde b es un vector dado de Rm y x1 . u Definiremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2 a2 + · · · + xn an = b.. . a2 . + .   . xn son las inc´gnitas que se quieren encontrar.   ... 4.. 3. 87 Dichas operaciones cumplen las propiedades 1. Es f´cil o a comprobar que la ecuaci´n vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b]..... n´ meros reales.. o sea.. respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + · · · + α n an . an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 .. w vectores de Rn y α. an ) = α1 a1 + α2 a2 + · · · + αn an .. es decir.  =  . quienes quiera sean α1 .. an . αn n´ meros reales.. Definiremos espacio generado por los vectores a1 . 2. . x2 . o sea..   . 7. an ) = L(a1 .. a a o .. an ) = span (a1 .´ B ANEXO: ALGEBRA LINEAL B.. ... x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x y definiremos la multiplicaci´n de un vector x por un escalar (n´ mero) α al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por α. . Definiremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y. . αn . y.

. . a2 .. an . an ). o sea. . . La ecuaci´n Ax = b. a e o sea. a2 . . o 88 Sea A una matriz m × n con columnas a1 .   . . . . . .3 Sea A una matriz m×n con columnas a1 . a2 . Las siguientes tres afirmaciones son equivalentes: 1) Para todo b vector de Rm . .. Las siguientes propiedades son v´lidas: u a 1) A (x + y) = A x + A y. la cual a su vez tiene la misma soluci´n que el sistema cuya matriz ampliada tiene la forma o [a1 a2 · · · an b]. o o 2) Las columnas de A generan Rm .  .. Rm = Span(a1..5 Sea A una matriz m × n con columnas a1 . xn Teorema B.. Definiremos la multiplicaci´n de una matriz A de m × n por un vector x de R n al vector z de Rm o definido por   x1  x2    z = Ax = [a1 a2 · · · an ]  .4. x.. o Regla para el c´lculo de Ax... .´ B ANEXO: ALGEBRA LINEAL B.  . y vectores de Rn y α un n´mero real cualquiera. ... a2 . am1 am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn Teorema B.4 Sea A una matriz m×n con columnas a1 .3. Una consecuencia de este teorema es que la ecuaci´n A x = b tiene soluci´n si y s´lo si b es una o o o combinaci´n lineal de las columnas de A.  = x1 a1 + x2 a2 + · · · + xn an .. . ... a2 . Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´ definido) tenemos que sumar los productos de la i−´sima fila de A por las coordenadas de x. an . 3) A tiene una posici´n pivote en cada fila. .  =  . . an (vectores de Rm ) y x un vector de Rn ..  . la ecuaci´n A x = b tiene soluci´n.  . an y b un vector de Rm . o Teorema B. 2) A(α x) = α (A x) . .      a11 a12 a13 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn        . La ecuaci´n o matricial Ax = b tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · + xn an = b.  .  ..  .

. . a2 . El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo. Y as´ sucesivamente. El conjunto soluci´n de un sistema homog´neo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 . El sistema lineal A x = 0 se denomina sistema homog´neo. sp se puede hacer lo siguiente: 1) Escribir el vector soluci´n x expresando las variables principales en funci´n de las libres.4.. xn no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. donde xh es la soluci´n general del sistema homog´neo correspondiente A x h = 0. 1. x2 .. x3 ) o  3   3     1  1 x1 x − 2 x3 −2 2 2 2   ... Sea p una o soluci´n de A x = b (soluci´n particular).. · · · . tiene como unica soluci´n la trivial x1 = · · · = xn = 0.. El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dem´s por cero. Dependencia e independencia lineal. ... o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dem´s por cero. x es un vector de R n y b es un vector de Rm . o Todo sistema lineal de m ecuaciones con n inc´gnitas se puede escribir en forma matricial o A x = b donde la matriz de coeficientes A es una matriz m × n. es decir.4. a2 .9) B. . u . o sea la matriz A tiene al menos o una columna que no es pivote. a ı Por ejemplo si la soluci´n x de A x = 0 viene dada por (dos variables libres x 2 . an se denomina linealmente dependiente si existen los valores x1 . Para obtener los vectores s1 . e Teorema B.. s2 . a2 . an de Rn se denomina linealmente independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0.5.. sp cuyo n´ mero coincide con el de las u variables libres del sistema. si o existe un n´ mero real α tal que a1 = αa2 o a2 = αa1 . s2 . o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales. Adem´s se cumple que el sistema homog´neo tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una variable libre. o e (B. entonces  x2  = x2  1  +x3  0  x2 x3 x3 0 1 s1 s2 2.´ B ANEXO: ALGEBRA LINEAL B.. .4. ´ o Un conjunto de vectores a1 .. Dicho sistema siempre tiene la e soluci´n trivial x = 0. 89 Conjunto soluci´n de los sistemas lineales.6 Supongamos que A x = b tiene soluci´n para cierto b de R m . Teorema B... Un conjunto de vectores a1 . Entonces el conjunto soluci´n del sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh . ap } de dos o m´s vectores es linealmente dependiente a si y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. .7 Un conjunto S = {a1 .

B. 4. . 5. a2 . . .. · · · amj · · · amn      fila i →  ai1 ai2   . . ´ Algebra de matrices. (A + B) + C = A + (B + C). es decir.. .5. (α + β)A = α A + β A.. o o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||. a2 ..10) B. 3. an } de dos o m´s vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 . A + B = B + A. Definiremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por α. . .. . . a2 . . . .     (B. . a2 .. Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n. es decir: αA = α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ]. a12 a22 . es decir: C = A + B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ]. .. .. donde 0 ≡ ||0|| es la matriz nula. . α(β A) = (α β) A. Teorema B. .9 Un conjunto S = {a1 .´ B ANEXO: ALGEBRA LINEAL 90 2) Si a1 . . o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. El elemento a ij de una matriz A es el que se encuentra situado en la intercepci´n de la fila i con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n . α(A + B) = αA + αB. Vamos a estudiar las operaciones elementales de las matrices. Definiremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B... a2 . . an y b1 . . A + 0 = 0 + A = A. . o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 . . B y C matrices de m × n y α..5. β n´meros reales.. bn son vectores de Rm . o Teorema B.. 2. . . . an } de dos o m´s vectores de Rm con alguno de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto de vectores linealmente dependientes. an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores. . an necesariamente cada vector es combinaci´n de los anteriores. Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de m × n.. donde a1 .1. . am1 am2  a11 a21 . Teorema B. . ... . Entonces: u 1. o bien α A ≡ α||aij || = ||α aij ||. ... · · · aij · · · ain . . .      ... Suma de matrices y multiplicaci´n por un escalar. . b2 .  . 6. .8 Un conjunto S = {a1 .10 Sean A.

k=1 Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una aplicaci´n lineal con matriz B de n × p. 3. α(A · B) = (α · A) · B. Es importante recordar que la multiplicaci´n de matrices no es conmutativa. 6.11 Sean A de m × n. B y C matrices de dimensiones apropiadas para que est´n e definidas las operaciones y α.. Multiplicaci´n de matrices. Si A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0.3. 4.). entonces a la aplicaci´n Q : R p −→ Rm definida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la matriz A · B de m × p.´ B ANEXO: ALGEBRA LINEAL B. .. Transposici´n de matrices. Im · A = A · In = A. Entonces: u 1.12 Sean A de m×n.2. o Teorema B. que denotaremos por A T . donde Ik es la matriz identidad de k × k.5. Se define la matriz producto C = A · B a la matriz de m × p definida por: A · B = A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ]. 5. 2.5. 2.11) aik bkj . Si A = ||a ij ||. (A · B)T = B T · AT . donde 0 ≡ ||0|| es la matriz nula. 3. B una matriz de dimensiones apropiadas para que est´n definidas e las operaciones y α un n´mero real. k veces donde A0 ≡ In . 4. 1. o elemento a elemento: ||(A · B)ij || = n n (B. (A · B) · C = A · (B · C). (AT )T = A. Entonces: u 1. 2. (α A)T = α AT . B. A · (B + C) = A · B + A · C. (A + B)T = AT + B T . A · 0 = 0 · A = 0. u definiremos la potencia k− ´sima de A por la f´rmula e o Ak = A · A · · · A ·In . β n´meros reales. entonces AT = ||aji ||. k=1 N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de A: o o n n A · B = [Ab1 Ab2 · · · Abp ] = [ bk1 ak k=1 k=1 bk2 ak · · · bkp ak ]. (A1 · A2 · · · An )T = AT · AT · · · AT . (B + C) · A = B · A + C · A. o Dada una matriz A de m × n. es decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A . la matriz transpuesta de A. 1 n−1 n Como consecuencia de este teorema tenemos que . o 91 Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p. Teorema B. es la matriz de n × m cuyas filas coinciden con las columnas de A.

AT es invertible y (AT )−1 = (A−1 )T .15 Sean A y B matrices cuadradas de n × n invertibles. Entonces: 1. ´ Teorema B. y su soluci´n se expresa por la f´rmula o o −1 b. Si existe una matriz C tal que A · C = In . entonces A−1 = 1 ad − bc d −b −c a . 1 y la que multiplica la 2 fila por el n´ mero α ser´ u a   1 0 0 E3 =  0 α 0  . 3.14 Sea A una matriz cuadrada de n × n invertible. entonces a C se le denomina matriz inversa de A y se le denota A −1 . Si A es invertible entonces A−1 es unica. C · A = In . 2. La inversa de una matriz cuadrada. Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1 · A−1 · · · A−1 . 0 0 1 Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 filas. . al multiplicar por una constante no nula una fila cualquiera y al reemplazar una fila por la suma de ´sta mas una combinaci´n lineal de cualquier otra. (A−1 )−1 = A. Por ejemplo. N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo si det A = 0.5. Las matrices A para las cuales existe la inversa A−1 se denominan invertibles. la matriz elemental e o correspondiente al intercambio de la 1 y 2 filas de una matriz de 3 × 3 ser´ a   0 1 0  1 0 0 .5. n n−1 1 B. (A · B)−1 = B −1 · A−1 . es decir son las que se obtienen al intercambiar dos filas. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n . 92 Sea A una matriz de n × n.5. x=A Teorema B. Una matriz elemental de n × n es aquella que se obtiene al realizar una operaci´n elemental o de filas sobre la matriz identidad de n × n. Matrices elementales.4. El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le denota por det A. E1 = 0 0 1 la que corresponde a cambiar la 3 fila por la 3 m´s α a  1 0  0 1 E2 = α 0 veces la primera ser´ a  0 0 .´ B ANEXO: ALGEBRA LINEAL B.13 Sea A una matriz cuadrada de 2 × 2 invertible A= a b c d . o Teorema B.

16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es equivalente por o filas a la matriz identidad In de n × n en cuyo caso toda secuencia de operaciones elementales que reducen A a In . Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operaci´n inversa. Las o siguientes expresiones son equivalentes: 1. Es decir al multiplicar una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E · A que coincide con la matriz que se se obtiene al realizar la operaci´n elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m × m la misma operaci´n elemental que o se quiere realizar sobre A. 5. entonces [A In ] ∼ [In A−1 ]. la inversa de E1 es E1 .. b es un o o elemento del subespacio generado por las columnas de A (la soluci´n de A x = b es unica). · · · A b n = en . E2 · A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m´s α a a veces la 1 fila y E3 · A coincide con la matriz que se obtiene al multiplicar por α la 2 fila.. A[b1 · · · bn ] = [A b1 · · · A bn ] = [e1 · · · en ] = In . Existe un D tal que D · A = I. Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 . A b 2 = e2 . A es invertible. N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A · B = I.. Construimos la matriz [A In ]. A es equivalente por filas a la matriz identidad In de n × n. o sea. . (Las columnas de A son linealmente o o independientes. 6. Por ejemplo. donde e1 . (A tiene n posiciones pivote) A es un producto de matrices elementales. La inversa de E2 es o   1 0 0 −1 E2 =  0 1 0  . 2. o ´ Existe un C tal que A · C = I. 4. Luego A = (Ek · Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1 · · · E1 · In . en son las columnas de la matriz identidad. La ecuaci´n A x = 0 solo tiene la soluci´n trivial.) La ecuaci´n A x = b tiene al menos una soluci´n para cada b vector de R n . Reducimos por filas la matriz A a In .17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de n × n. . 7. Teorema B.´ B ANEXO: ALGEBRA LINEAL 93 An´logamente. o sea. Ello implica que A ∼ Ek · Ek−1 · · · E1 · A = In . −α 0 1 y la de E3 es  −1 E3 =  0  1 0 0 1 α 0 0 1  0 . Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1. reducen In a A−1 . 2. 3.  Teorema B.

. . .  . . . Determinantes. Usualmente a la cantidad (−1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij ..  . . . B. . M´s exactamente: a det A = a11 det A11 − a12 det A12 + · · · + a1n (−1)n+1 det A1n .13). . . . El determinante det A de la matriz A es la suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes submatrices obtenidas eliminando la fila 1 y la columna j. ... .  · · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1 ai+1j . . . . . ··· ··· . . .       (B.. . donde suponemos que det a = a si a es un n´ mero real cualquiera. . o Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j .13) Denotaremos por Aij a la submatriz que j. . . . . anj+1 · · · ann · · · a1n . . . . · · · ai−1j−1 ai−1j+1 · · · ai+1j−1 ai+1j+1 . . . . entonces A y B son invertibles y A = B −1 . . . an1 an2  a11 a21 . a1j+1 a2j+1 . · · · ann  se obtiene a partir de A si quitamos la fila i y la columna · · · a1j−1 a1j+1 .  . . .. . . B = A−1 . . . · · · anj−1 anj ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n . . .. · · · ai−1n · · · ai+1n . . . a1n a2n . . an1 an2       ai−11 ai−12  ai2 fila i →  ai1   a  i+11 ai+12  .. . u Utilizando la definici´n anterior obtenemos para una matriz 2 × 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 − a21 a12 . . .6. . . .´ B ANEXO: ALGEBRA LINEAL 8. . . . .  .. . · · · anj−1 anj+1     . Utilizando esta notaci´n tenemos que la definici´n anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + · · · + a1n C1n . . . (B. . .1. que se conoce como desarrollo del determinante de A por su primera fila. a12 a22 .6. o sea  a11 a12  .12) que coincide con el determinante definido en el cap´ ıtulo anterior (teorema B. AT es invertible.           . . Sea A una matriz n×n (n ≥ 2). Definici´n de determinante de una matriz cuadrada. .  ai−11 ai−12 Aij =   ai+11 ai+12   . . 94 Una consecuencia de este teorema es que si A · B = I o B · A = I. B. ··· ··· . .

Luego. o sea.´ B ANEXO: ALGEBRA LINEAL Teorema B. . . an1 a12 · · · a1n . . . · · · a1n . es decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en dependencia si dicha matriz es del tipo E 1 . entonces det A = det AT . · · · ann a11 . Por ejemplo. . . si a Entonces. respectivamente. . . .21 Sea A una matriz n × n y sea AT su traspuesta. det A = 0 y si una fila de A es proporcional a otra det A = 0. . . o 1. la matriz B = E3 · A se obtiene al reemplazar una fila de A por la suma de ´sta e mas un m´ltiplo de cualquier otra fila. a12 . . . Si E1 es la matriz que intercambia dos filas. . mediante transformaciones elementales. an2 · · · ann r ai1 r ai2 . . . u   −1 si E es del tipo E1 r si E es del tipo E2 Adem´s. . . . Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de filas y sea E la matriz elemental que realiza dicha operaci´n. det A = a11 · a22 · · · ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj . respectivamente. Pero si A tiene n filas pivote entonces A es invertible. . Si E3 es la matriz que reemplaza una fila por la suma de ´sta mas un m´ltiplo de cualquier e u otra fila. .20 Sea A una matriz n × n. Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra filas por columnas. ai2 · · · ain .. la matriz B = E2 · A se obtiene al multiplicar por r la correspondiente fila de A. . Teorema B. transformar en una matriz triangular superior U (forma escalonada). . E2 ´ ´ o E3 . Adem´s si resulta a que la matriz A tiene n filas pivote entonces el determinante de A ser´ proporcional al det U . det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1. · · · r ain . . . . .19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal.2.. 2. Propiedades de los determinantes. a si tenemos n filas pivote todos los pivotes son distintos de cero y det A = 0. entonces det E = α. Como consecuencia del teorema anterior tenemos que si una fila es m´ ltiplo de un n´ mero r u u entonces tenemos: a11 . an1 an2 En particular si una fila de A es nula. . la matriz B = E1 · A se obtiene al intercambiar dos filas de A. . . Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera. Este razonamiento nos conduce al siguiente teorema. .18 Si A es de n × n entonces: 95 det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . . Las dos f´rmulas anteriores se conocen como desarrollo del determinante de A por su i−´sima fila o e y desarrollo del determinante de A por su j−´sima columna. . Es conocido de apartados anteriores que cualquier matriz A se puede. B. =r ai1 . e Teorema B. Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de este apartado o a y nos permitir´n calcular los determinantes de matrices de orden alto (n ≥ 4) de manera eficiente. 3. a Teorema B. .6.. . . ..

. . . .   =  bi . bn b    . . .  . .. . pero det A det A det A1 (ej ) = (−1)1+j det Aj1 = Cj1 . o Teorema B. .. B.  ai1 · · · aij−1 bi aij+1 · · · ain Aj (b) =   .. ..   . det A x2 = det A2 (b) .. . xn = det An (b) . Es recomendable resolver los a a sistemas por el m´todo de reducci´n de filas descrito en la primera parte del curso (ver Algoritmo e o de reducci´n por filas).. . . . . .24 Sea A  a11  . A =  ai1 · · · aij−1 aij aij+1 · · · ain  . . es decir si A y b son e a     b1 a11 · · · a1j−1 a1j a1j+1 · · · a1n  . . .  ai1   . . Entonces para todo  · · · a1j−1 a1j a1j+1 · · · a1n x1 . an1 · · · anj−1 bn anj+1 · · · ann Teorema B.  . ..22 Una A n × n es invertible si y s´lo si det A es diferente de cero. A b 2 = e2 . .  .  . . . .  . . . . Regla de Kramer. . . Sea A una matriz n × n y b un vector cualquiera de R n . . . .   .  .  . det A Es importante tener en cuenta que este m´todo es ineficiente para calcular la soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados determinantes.. . . . . recordemos que “invertir” una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 .  . .. . donde e1 . . seg´ n la regla de Kramer. .  .3. · · · A b n = en . o Finalmente. Denotaremos por Aj (b) a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el vector b. . . . det An (ej ) = (−1)n+j det Ajn = Cjn . . .  . . . . bn an1 · · · anj−1 anj anj+1 · · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n  .  .   . .  .  . .  . .    . xn = . . . . . an1 matriz n × n invertible.  . .    . . .  . .    . .  . Entonces det(A · B) = (det A) · (det B). .. . . .  . . . . . ...  . .  . en son las columnas de la matriz identidad. . o u det A1 (ej ) det An (ej ) x1 = . . . . .´ B ANEXO: ALGEBRA LINEAL 96 Teorema B. . .   .  .      . . . · · ·. b =  bi  . ... . . . . .      . Por tanto para calcular la j−´sima columna e de A−1 tenemos que resolver el sistema A x = ej cuya soluci´n es.6. .. . . · · · anj−1 anj anj+1 · · · ann xn A x   b de R n el sistema    b1   . · · · aij−1 aij aij+1 · · · ain   xi  .  . . . . .    es compatible y tiene una unica soluci´n que viene dada por ´ o x1 = det A1 (b) . det A ···.23 Sean A y B matrices n × n. . . · · · .

y de V y multiplicaci´n “·” de un escalar (n´ mero real) α por un elemento de o u V . vectores de V . . B. .  . . C1n C2n · · · Cjn · · · Cnn       . . Entonces V es un espacio vectorial si u 1. 2. . ..     B. .. La aplicaci´n anterior es lineal pues para todo α de R y x.  −1 A =  . Esta propiedad se conoce como la multilinealidad del determinante Teorema B. n. Definici´n y ejemplos. Entonces  C11 C21 · · · Cj1 · · · Cn1  C12 C22 · · · Cj2 · · · Cn2   . . . o Sea V un conjunto de elementos sobre el cual est´n definidas las operaciones suma “+” de a dos elementos x. Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B. .18 y B.7. 1  . .16 del cap´ ıtulo anterior. tambi´n es un vector de V y se e cumple que: .20: Sea A = [a1 a2 · · · an ] una matriz de n × n con columnas a1 . . . Es importante notar que este m´todo es ineficiente para calcular inversas (recurre a la regla de e Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A −1 aplicar el algoritmo descrito en el teorema B.7. . . det A  C1i C2i · · · Cji . .25 Sea A una matriz invertible n × n. T (x + y) = det([a1 · · · x + y · · · an ]) = det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y).1. β n´ meros reales. z elementos arbitrarios de V y α. Para todos x e y. . En esta secci´n vamos a definir los espacios vectoriales que son la generalizaci´n de los eso o pacios Rn ya estudiados. . y. . . Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x. . . . w = x + y... k = 1...´ B ANEXO: ALGEBRA LINEAL luego la columna j de A−1 es 97   Todo esto nos conduce al teorema 1    det A  Cj1 Cj2 . . Espacios Vectoriales... . La matriz ||C lm || se denomina matriz adjunta de A. an . x de Rn . . Definamos la aplicaci´n o lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x). Cni   .. el vector suma.. . y de R n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · · x · · · an ]) = α T (x). . . Cjn   . .. .  donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. .

tambi´n es un vector de V y se cumple que: e a) b) c) d) α · (x + y) = α · x + α · y α · (β · x) = (αβ) · x (α + β) · x = α · x + β · x 1·x=x Ejemplos. q(x) = b0 + b1 t + · · · + bn tn .) Dado un espacio vectorial V . . el vector que se obtiene al multiplicar por un escalar. el vector w = x + y tambi´n es un vector de H. vectores de H. para cualquier n = 0. entero. que denotaremos por P n . 1.7. Para todos x e y. tal que x + (−x) = (−x) + x = 0 donde (−x) es vector opuesto de x Para todo x vector de V . x+y =y+x (x + y) + z = x + (y + z) 98 Existe un elemento “nulo” de V .´ B ANEXO: ALGEBRA LINEAL a) b) c) d) 2. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma “+” y multiplicaci´n “·” que V . (α · f )(t) ≡ α · f (t). Subespacios vectoriales. Teorema B. o 2. H = Pk es un subespacio vectorial para todo k < n.. b]. Dicho espacio lo denotaremos por R m×n o 3. B. an n´ meros reales. 1. cuando la suma de dos funciones f y g y la multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f (t) + g(t). (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn .b] . Adem´s.) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci´n por un o escalar es la definida en la secci´n 2. 2. si y s´lo si a0 = a1 = · · · = an = 0. son subespacios vectoriales “triviales” los subespacios H = {0} (conjunto que tiene como unico elemento. u donde definiremos la suma de dos polinomios y la multiplicaci´n por un escalar de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn .. ´ 2. 1. Pn = {pn (t) = a0 + a1 t + · · · + an tn . pn = 0. (α · p)(t) ≡ α p(t) = (αa0 ) + (αa1 )t + · · · + (αan )tn .) El conjunto de los polinomios de grado a lo sumo n. El elemento nulo de V pertenece a H. e .2.) El conjunto de las matrices m × n cuando la suma de dos matrices y la multiplicaci´n por un o escalar es la definida en la secci´n 3.) El conjunto de las funciones continuas en el a o intervalo [a. 2.) Para V = Pn . .. el nulo) y H = V (el mismo espacio vectorial).) Para V = C[a.. o sea. 1. Sea V un espacio vectorial. w = α · x.. que denotaremos por C[a.b] . H = Pn es un subespacio vectorial. o Ejemplos. a0 . 4.26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las siguientes tres condiciones. 3. tal que x + 0 = 0 + x = x Existe el elemento (−x) “opuesto” a x.}.

. v2 .. si tomamos una matriz n × n invertible. vp de V con v1 = 0 es un conjunto a linealmente dependiente si y s´lo si para cierto j.... .. 1 < j < p. vp de un espacio vectorial V se denomina linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0.. x2 ... Dos vectores v1 y v2 de V son linealmente dependientes si y s´lo si son proporcionales.. v2 . b2 . Dicho subespacio vectorial com´nmente se u denomina subespacio generado por los vectores v1 . si existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u 3.. o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes....27 Dado un conjunto de vectores {v1 . vp necesariamente cada vector es combinaci´n de los anteriores.. an son linealmente independientes y adem´s R n = Span(a1. v2 .. Por ejemplo.. b2 . ´ o Un conjunto de vectores v1 .. el vector w = α · x tambi´n es un vector de H. v2 . o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente definici´n o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 . v2 .. .. vp } de un espacio vectorial V . Un conjunto de vectores v1 . vp .. el vector v j es combinaci´n lineal de o o los anteriores.. · · · ... Teorema B.7. v2 .. Un conjunto S = {v1 . Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V . . es decir... v2 . .. 99 Para todos x vector de H. . e Teorema B. 2. . tiene como unica soluci´n la trivial x1 = · · · = xp = 0.3. .... v2 . vp } de dos o m´s vectores es linealmente dependiente si y s´lo si a o al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 . v2 . vp } de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤ i ≤ p) es necesariamente un conjunto de vectores linealmente dependientes.. En particular si H coincide con V ..´ B ANEXO: ALGEBRA LINEAL 3. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 . B.. bp ). o a Un conjunto S = {v1 ... . an es una base de a .. . o sea. el conjunto span (v1 . . B genera a todo H.. Por tanto las siguientes afirmaciones son ciertas: 1. vp se denomina linealmente dependiente si existen los valores x1 ... vp ) es un subespacio vectorial de V . .28 El conjunto de dos o m´s vectores v1 . es o decir.. . Por tanto B = a1 . entonces B es una base de todo el espacio vectorial V . . . Bases. entonces sus columnas a 1 . Conjuntos linealmente independientes.. xp no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. an ). vj = x1 v1 + x2 v2 + · · · + xj−1 vj−1 .

. Adem´s. ii) Si H no es el espacio {0}. . v2 =  1  . 1 ≤ j ≤ p. t 2 . ´ Teorema B.. vp ) = span (v1 . v3 ] = span [v1 . v2 . Supongamos que B = {b1 ..  + x 2  . digamos el vj .. Entonces si suprimimos a dicho vector vk del conjunto S. .. .   . 0 0 1 xn ... t 2 . . v2 . b2 . S se conoce como la base can´nica de Pn ..4. Entonces para todo x de V existe un unico conjunto de valores {α1 . e2 .´ B ANEXO: ALGEBRA LINEAL 100 Rn . v2 . Es f´cil comprobar que dichos vectores son linealmente independientes y que span (1. . S = {v1 .  .. a son unicos... entonces alg´n subconjunto de S es una base de H. Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores {α 1 .... v3 =  1  . xn .  . Adem´s.30 Sea B = {b1 . u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible “extraer” una base de dicho espacio vectorial. v3 } no es una base de H pues v1 . v2 } que se obtiene al suprimir el tercer elemento si que es una base de H. .. vp ).7. v2 ....  + · · · + x n  ... El siguiente teorema generaliza este resultado para cualquier espacio vectorial V .. .  = x 1 e1 + · · · x n en .. es evidente que dado un vector x de R n sus coordenadas... o Teorema B. t. b2 . el conjunto B = {v1 .  . vk . si A = In . i) Supongamos que un vector de S. Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V .29 Sea S = {v1 . ... v3 ] . bn } una base del espacio vectorial V .. v2 ] pues el tercer vector es combinaci´n lineal de o los dos anteriores.  = x 1  . . vk−1 . vp ) un subespacio de V . ... o sea. . v1 = 0 0 0 Es evidente que H = Span[v1 . o Otro ejemplo lo constituye el conjunto de vectores S = {1. es decir los valores x1 . v2 . v2 .... H = Span(v1. Ello era evidente pues         x1 1 0 0  x2   0   1   0          x =  . tn ) = a Pn . Sistemas de coordenadas. vk+1 .. .  . bn } es una base del espacio vectorial V . tn } del espacio vectorial Pn .. vk+1 . las columnas e1 . vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1. αn } tal que ´ x = α 1 b1 + α 2 b2 + · · · + α n bn ... Por ejemplo. vk−1 . H = Span [v1 . αn } tales que x = α 1 b1 + α 2 b2 + · · · + α n bn .. B. Cuando estudiamos el espacio Rn (secci´n 2) definimos a los vectores de Rn mediante sus o coordenadas. la matriz identidad n × n. . H no cambia.. En particular. es combinaci´n lineal de los o restantes.. t..  . . consideremos el espacio generado por los vectores       2 1 1  0  ..  . en de la misma son una base de Rn la cual se conoce como base can´nica de R n . Sin embargo. v3 no son linealmente a independientes.. .

Es evidente que la matriz P CB es invertible (todas sus o −1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B..  = PCB · [x]B .. . Si V no puede ser generado por una base finita de vectores. a Teorema B. en }...7. donde B = {b1 . la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B . b2 . Consideremos nuevamente las coordenadas en Rn .. .. . b2 .. entonces cualquier conjunto con m´s de n vectores de V es linealmente dependiente.. bn }.. b2 . B. . bn } un conjunto de exactamente n vectores. La dimensi´n de un espacio vectorial. o Teorema B. Entonces: a) Si S es un conjunto de vectores linealmente independientes. y por tanto. αn B donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C. bn ).. o Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n ..32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 .. entonces cualquier otra base de V tendr´ que tener n vectores de V . Por ejemplo. a Un espacio vectorial es de dimensi´n finita n si V est´ generado por una base de n elementos.   ..b] = ∞. . o Entonces   α1  α2    x = x1 e1 + · · · + xn en = α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  . bn }. xn . dim Pn = n + 1. . . Supongamos ahora que pasamos a una nueva base B = {b1 .. bb } es una base de V y lo escribiremos de la forma dim V = n.´ B ANEXO: ALGEBRA LINEAL  α1 α2 ... . . dim Rn = n. si las coordenadas de x en la base can´nica C son x 1 . S es una base de V . S es una base de V . . N´tese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base can´nica.33 Sea H un subespacio vectorial de un espacio vectorial de dimensi´n finita V . Teorema B.. b2 . o sea o −1 [x]B = PCB · [x]C = PBC · [x]C . o a es decir si V = Span(b1 .. a Este teorema es una generalizaci´n del teorema B. .8. Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base can´nica C = {e1 . Resulta que dicho n´ mero n es una propiedad intr´ u ınseca de V . e2 . es decir si V = Span(b1 .. dim{0} = 0.. o (dim V = n < ∞). Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H... su dimensi´n. bn }. bn ). b2 . ..31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . dim C[a..... entonces diremos que V es de dimensi´n infinita y lo o denotaremos por dim V = ∞. b) Si S genera a todo V . Adem´s dim H ≤ dim V . αn      B 101   y lo denotaremos por   o [x]B .5. o Teorema B.34 Sea V un espacio vectorial n-dimensional (dim V = n < ∞) y sea S = {b 1 . En el caso que V = {0} sea el espacio vectorial nulo. .

Entonces tenemos que Supongamos que las coordenadas de un vector x de V en la base B son x 1 . ann      D   b1 =       . a2 . Por tanto tenemos que [x] D = PDB [x]B . o en forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 · · · ak2 · · · an2   x2   y2       = . encontrar el autoespacio consiste en encontrar las soluciones de un sistema homog´neo de ecuaciones.. cuyas columnas a1 .  . Por tanto.  . .7. . a1n   an1 an2 . Dicho u espacio se denomina autoespacio de A correspondiente al autovalor λ. PDB es una matriz invertible (sus columnas son linealmente independientes).. dn } o dos bases de V ... resolver (A − λ I)x = 0. b1 = a11 d1 + a12 d2 + · · · + a1n dn . es un subespacio vectorial de R n .14) Es f´cil comprobar que si x es un autovector asociado al autovalor λ.  . ... que coincide con una base del n´ cleo de A. yn D a1n · · · akn · · · ann xn B Adem´s.. −1 [x]B = PDB [x]D . . . . b2 .. . . .´ B ANEXO: ALGEBRA LINEAL B.8. (B. yn . . 2. Denominaremos al vector x de R n . donde I es la matriz identidad n × n. yn D [x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D · · · [bn ]D )[x]B . . xn B en la base  y1 .35 Sea A una matriz triangular de n × n. y2 . bn =     D .  .    x1   . i = 1. e Teorema B..6. (B.. dado un autovalor λ de A.  . luego existe a −1 la inversa PDB la cual es la matriz de cambio de base D en B. · · · . o sea. =⇒  a11 a12 .15) tiene soluciones no triviales... o sea. Cambio de base. Es importante destacar que conocido el autovalor λ..  x = x1 b1 + · · · + xn bn −→ [x]B =  . an no son m´s que las coordenadas a de los vectores de la base B escritos en la base D. .   . autovector de A asociado al autovalor λ. Sea A una matriz de n × n. . el conjunto de los autovectores asociados a λ. . b1 = an1 d1 + an2 d2 + · · · + ann dn . es decir. El problema de autovalores de una matriz. ´stos se podr´n e a escribir en la base D. bk = ak1 d1 + ak2 d2 + · · · + akn dn ... . tal que A x = λ x. .  . Como D es una base de V y los elementos de B son elementos de V . . bn } y D = {d1 .. 102 Sea V un espacio vectorial de dimensi´n finita n y sea B = {b1 . x2 . Entonces los autovalores de A coinciden con los elementos de la diagonal principal λ = aii .   . d2 . o sea. Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D. x = 0.  .. al vector no nulo x = 0. n. . entonces el sistema a (A − λ I)x = 0. . xn y D son y1 . B. . y x = y1 d1 + · · · + yn dn −→ [x]D =  . .

2. Diremos que A es similar a B si existe una matriz invertible P . La ecuaci´n caracter´ o ıstica..) Sea A una matriz cuadrada A de o o n × n.16).. donde D es diagonal y P invertible.. (A − λ I)x = 0. tales que A = P · D · P −1 . ¿C´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues los autovalores o ıcil λ son tales que el sistema (B. o sea. Diagonalizaci´n de matrices. distintos.´ B ANEXO: ALGEBRA LINEAL 103 Es importante destacar que las operaciones elementales de filas cambian los autovalores de una matriz. La transformaci´n que a cada matriz le hace corresponder otra similar.. λp son linealmente independientes.17) Es evidente que si A es similar a B.1.17). o B = P −1 · A · P. para demostrarlo es suficiente tomar Q = P −1 . los mismos autovalores. o sea. Si A = P · D · P −1 . por tanto. conclusi´n. Es decir si U es la forma escalonada de A los autovalores de A y U son. v2 . tiene soluciones no triviales. o Teorema B. . se o denomina transformaci´n de similitud. O sea. si existe una matriz P invertible y otra D diagonal. Entonces los autovectores v1 .8. Es f´cil comprobar que la expresi´n det(A−λ I) = 0 es un polinomio de grado n en λ.17 (Teorema de inversi´n de matrices. A −→ P −1 · A · P .37 Si las matrices A y B de n × n son similares. λ es un autovalor de A si y s´lo si p n (λ) = 0. A es invertible. entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible. en general. Teorema B. . (B. Las siguientes expresiones son equivalentes: 1. Por tanto a o el polinomio pn (λ) = det(A − λ I) se denomina polinomio caracter´ ıstico de A y los autovalores de A ser´n las ra´ a ıces de dicho polinomio. o Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal D. λ = 0 no es un autovalor de A El teorema anterior es evidente pues si λ = 0 es autovalor de A.2. o Matrices similares. vp asociados a los autovalores λ1 . Lo anterior lo podemos resumir o o ı como: Un n´ mero λ es un autovalor de la matriz A de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ ıstica de A (B. entonces tienen el mismo polinomio caracter´stico y. (B. ı B. entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores.38 Una matriz A de n × n es diagonalizable si y s´lo si A tiene n autovectores o linealmente independientes. Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B.. det(A − λ I) = 0.16) La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A. Pero un sistema homog´neo tiene soluciones no triviales si y s´lo si e o det(A − λ I) = 0. Teorema B.15). B.8. λ2 . tal que A = P · B · P −1 . B es similar a A. Sean A y B dos matrices n × n. Teorema B..36 Sea A una matriz de n × n que tiene p autovalores distintos λ 1 = λ2 = · · · = λp . .

Entonces B es un conjunto de vectores de Rn linealmente independientes. λp . 2. o sea.. o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso. o . 3. . p una base del correspondiente autoespacio asociado al autovalor λk y sea nk la dimensi´n de dicho autoespacio. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P .. 2. Si tenemos en total n autovectores linealmente independientes entonces el teorema B. 4. o sea B = B1 ∪ B 2 ∪ · · · ∪ B p . Algoritmo para diagonalizar una matriz A. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k . Es recomendable comprobar que hemos calculado correctamente P y D. λ2 . Teorema B.´ B ANEXO: ALGEBRA LINEAL 104 Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si sus autovectores o forman una base de Rn . Sea Bk ..40 (Condici´n suficiente para que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores distintos λ1 . . Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes. Para ello comprobamos que A · P = P · D. si B contiene exactamente n vectores.38 nos asegurar´ que nuestra matriz es diagonalizable.39 (Condici´n suficiente para que una matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores distintos. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. dim(B) = n1 + n2 + · · · + np . Si A es diagonalizable continuamos como sigue. k = 1.. Encontrar los autovalores de A resolviendo la ecuaci´n (B.16). Teorema B... Adem´s. A es diagonaa lizable si y s´lo si dim(B) = n. 1. entonces es diagonalizable.

x ∈ R y R su radio de convergencia. a en z0 (ver la figura 20).1). (C. A diferencia del caso complejo. cuando z0 = 0. N´tese que se obtiene una de la otra al hacer una traslaci´n en el plano o o complejo del c´ ırculo mediante el vector z0 . ∞ k=0 zk . la podemos reducir a a la anterior (C. an .2) est´n centrados en el origen y en el de las series (C. z ∈ C. k! ∞ k=1 zk . Si la serie converge para cierto w ∈ C. en el caso de las series de la forma (C. R] ([−R. entonces absolutamente para todo x ∈ R con |x| < |r|.1. entonces podemos definir la funci´n suma f (z) de la serie. El primer teorema de Abel quedar´ entonces de la siguiente forma ıa Teorema C. es decir cuando (an )n es una sucesi´n de n´ meros reales y o u z = x ∈ R. Anexo: Series de potencias ∞ n=0 Definici´n C.1). 0]). Obviamente si tenemos una serie de potencias del tipo (C. se puede saber mucho m´s sobre la serie.1 Dada una sucesi´n de n´meros complejos (a n )n y z0 ∈ C definiremos serie o o u an (z − z0 )n . Dicho n´ mero se denomina radio de convergencia de la u serie de potencias. en el caso real si se sabe la convergencia en alguno de los extremos. an . an .4 Sea la serie de potencias ∞ n=0 an xn . Adem´s. Consideremos ahora en caso real. a Teorema C.3 Sea la serie de potencias ∞ n=0 an xn . Teorema C.1) que denominaremos serie de potencias. k etc. En- tonces. Propiedades de las series de potencias ∞ n=0 Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo e an z n . Como casos especiales de las series de potencias tenemos: ∞ k=0 xk . o C.2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias ∞ n=0 an z n . (C. En este caso hay que trasladar los resultados a la recta real. Si la serie converge para todos los valores de z de cierto conjunto A ⊂ C. . x ∈ R. existe un n´ mero real no negativo R ≥ 0 o R = +∞ tal que para todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge. si la serie converge en x = R (x = −R).C ANEXO: SERIES DE POTENCIAS 105 C. converge uniformemente en [0. La regi´n de convergencia de una serie de potencias siempre son c´ o ırculos en el plano complejo que.2) es decir. entonces la serie converge absolutamente para todo z ∈ C con |z| < |w|. Si la serie converge para cierto r ∈ R. an . cualquiera sea la serie de potencias a ∞ n=0 an z n .2) haciendo el cambio de variables ζ = z − z 0 y viceversa. z ∈ C.

si dicho l´mite existe. o sea. .C ANEXO: SERIES DE POTENCIAS Im z 106 Im z | z −z 0 | <| w− 0 | z | z | < | w| R w R z0 0 Re z w 0 Re z Figura 20: Regi´n de convergencia de las series o cha). siendo R el radio de conver- En otras palabras. se cumple que x ∞ 0 n=0 an x = n ∞ n=0 an n+1 x . R). Teorema C. toda serie de potencias con radio de convergencia no nulo define una funci´n o continua. ∞ n=0 Teorema C. La serie se puede derivar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. an xn es continua en (−R. x ∈ R con radio de convergencia R > 0. ı |an | Una condici´n suficiente para que exista l´ n→∞ n |an | es que exista el l´ o ım ımite l´ n→∞ |an+1 /an |.6 La funci´n f (x) = o gencia de la serie. l´ ım l´ ım n→∞ n→∞ n |a | n→∞ an+1 n→∞ an n Para las series de potencias en R tienen lugar las siguientes propiedades. Entonces La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. ım en cuyo caso 1 an an+1 = l´ n |an |. =⇒ ım = l´ ım . x ∈ R. an . an . Entonces R = l´ ım n→∞ n 1 . ∞ n=0 an xn .5 (Cauchy-Hadamard) Dada una serie de potencias ∞ n=0 ∞ n=0 anz (izquierda) y n ∞ n=0 an (z − z0)n (dere- an xn . n+1 2.7 Derivaci´n e integraci´n t´rmino a t´rmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1. o sea. Teorema C. se cumple que ∞ n=0 an x n = ∞ n=0 nan xn−1 .

a o o Los teoremas anteriores permiten calcular un buen n´ mero de series.7) Usando (C. f (x) = dx k! k! (k − 1)! k=0 k=0 k=1 Adem´s. 1). a ex = ∞ k=0 ∞ k=0 xk . radio de convergencia +∞. k! ∞ k=0 (−1)k x2k (2k)! x ∈ (−1. n Funciones elementales del an´lisis. x ∈ R.8) . x ∈ (−1. Ejemplo C. 1 = 1+x (−1)k xk . as´ que integrando t´rmino a t´rmino tenemos ı e e t log(1 + t) = 0 1 dx = 1+x t 0 ∞ n=0 (−1)n xn dx = ∞ n=0 (−1)n tn+1 = n+1 ∞ n=1 (−1)n+1 tn . n (−x)n = ∞ n=0 (−1)n xn . as´ pues ı ∞ ∞ ∞ kxk−1 xk−1 xk d = = = f (x).8 Probar que la funci´n f (x) = o su derivada. 1).4) (1 + x)α = 1 + en particular 1 = 1−x ∞ k=0 (C. La funci´n que cumple lo anterior es la funci´n e x . (C.6) Aplicando la integraci´n t´rmino a t´rmino en [0. como ya hemos calculado antes. (2k + 1)! ∞ k=1 cos x = (−α)k k x .5) xk . Esta serie converge en (−1.6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2 ∞ k=0 (−1)k x2k . por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x) ∞ n=0 ∞ n=1 (−1)n+1 xn . (C. ∞ k=0 (C. 1). ex = ∞ k=0 xk es continua y derivable en R y calcular k! Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener. 1). Para calcular la derivada usamos el teorema anterior. x ∈ (−1.3) sen x = (−1)k x2k+1 . f (0) = 1. n (C.C ANEXO: SERIES DE POTENCIAS 107 Una consecuencia trivial del ultimo teorema es que una serie de potencias define una funci´n ´ o infinitas veces derivable en (−R. R). k! x ∈ R. x] tenemos o e e log(1 + x) = ∞ n=1 (−1)n+1 xn . (C.

5) con α = − 2 y cambiemos x por −x2 . integrando t´rmino a t´rmino en [0.11) . = 1 − x2 k=0 k! ∞ x ∈ (−1. 2n + 1 x ∈ (−1. 1). (C. k!(2k + 1) x ∈ (−1. (C.9) 1 Escojamos ahora (C.C ANEXO: SERIES DE POTENCIAS 108 a partir de la cual. tenemos √ 1 ( 2 )k k 1 x . x] obtenemos e e arc sen x = ∞ k=0 1 ( 2 )k x2k+1 . 1).10) de donde integrando t´rmino a t´rmino en [0. (C. x] obtenemos e e arctan x = ∞ n=0 (−1)n x2n+1 . 1).

Sign up to vote on this title
UsefulNot useful