You are on page 1of 75
76 Cap. 2 RESOLUCION DE ECUACIONES NO LINEALES ans= 1.9875 -1.6765 -1.1625 1.1625 1.6765 1.9875 Comparando los resultados con la gréfica de f, puede verse que ahora disponemos de buenas aproximaciones iniciales para cualquiera de nuestros algoritmos de célculo de rafces. a Ejercicios En los Ejercicios 1 a 6, utilice un computador o una calculadora con pantalla grafica para determinar gréficamente la localizacién aproximada de las raices de f(x) = en el intervalo dado. En cada caso, determine un intervalo {a,6] en el que los Programas 2.2 y 2.3 puedan ser usados para hallar las rafces (0 sea, f(a) f(b) < 0). 1. f(x) = 2? —e* para-2<2<2 . f(x) = 2 —cos(z) para -2< 2 <2 . f(x) = sen(x) — 2cos(z) para -2< <2 . f(z) = cos(z) + (1+2?)~* para -2< 4 <2 » f(x) = (@ — 2)? — In(z) para 0.5 <2 < 4.5 . f(x) = 2x —tan(z) para -14 0 tal que la sucesién {p,}#2.p definida por el proceso iterativo f(Pe—-1) Ff! (Pe-1) converge a p cualquiera que sea la aproximacién inicial po € [p — 4,p + 4]. (4) Pk = g(Pk-1) = Pr-1 — para k=1, 2, ... Observacién. La funcién g(z) definida por la relacién _ F(z) f(z) se llama funcién de iteracién de Newton-Raphson. Puesto que f(p) = 0, es fAcil ver que g(p) = p, lo que nos dice que la iteracién de Newton-Raphson para hallar una rafz de la ecuacién f(z) = 0 consiste en hallar un punto fijo de g(x) (5) g(a) = Sec. 2.4 Los méropos DE NEWTON-RAPHSON Y DE LA SECANTE 79 Demostracién. La construccién geométrica de p; que se muestra en la Figu- ra 2.13 no nos ayuda a entender por qué po debe estar cerca de p ni por qué la continuidad de f(z) es esencial. Nuestro andlisis comienza con el polinomio de Taylor de grado n = 1 de f alrededor de pp y su correspondiente resto: ©) 12) = S00) +1 (Bole pa) + OE Por, donde c es un punto intermedio entre pp y x. Poniendo x = p en la relacién (6) y usando que f(p) = 0 obtenemos 0) @ 0= f(p0) + £' o)(@— po) + POE= mY Si po estd suficientemente cerca de p, entonces el ultimo sumando del miembro derecho de (7) seré pequeiio, comparado con la suma de los dos primeros, asi que podemos despreciarlo y usar la aproximacién (8) 0% f(Po) + f'(P0)(P — Po)- Despejando p en la relacién (8), obtenemos p © po — f(Po)/f"(po), expresion que usamos para definir py, la siguiente aproximacién a la raiz a thn). (9) P= Po Fy Poniendo p,-1 en lugar de pp en la relacién (9), la regla general (4) queda establecida. En muchas aplicaciones, esto es todo lo que hace falta entender y saber usar; sin embargo, para comprender totalmente lo que ocurre, necesitamos considerar la iteracién de Newton-Raphson como una iteracién de punto fijo y aplicar el Teorema 2.2 en nuestra situacién. La clave nos la da el andlisis de g(x): . fi) Ff) - f(z) fF") _ F@)F"@) (F'(@))? (F'@)? * Por hipdtesis, sabemos que f(p) = 0; luego g'(p) = 0. Como g(z) es continua y g(p) = 0, podemos encontrar 5 > 0 tal que la hipétesis |g/(z)| < 1 del Teorema 2.2 se cumple en el intervalo (p — 6,p + 6). Por consiguiente, que po € (p — 4,p + 4) es una condicién suficiente para que pp sea el punto de partida de una sucesion {p,}725 que converge a la tinica raiz de f(z) = 0 en dicho intervalo, siempre que 4 sea elegido tal que \F(@)F"(z)| (10) Hay <1 baa todo 2 (P—6,p +8). . g' (2) =1- 80 Cap. 2 RESOLUCION DE ECUACIONES NO LINEALES Corolario 2.2 (Iteracién de Newton-Raphson para el cdlculo de raices cuadradas). Supongamos que A > 0 es un niimero real y sea py > 0 una apro- ximacién inicial a VA. Definimos una sucesién {p,}{2.9 mediante el proceso recursivo 1 A qa) m= 5 (mat) para k=1, 2, ... 2 Pra Entonces la sucesién {p,}f2 converge a VA; es decir, littn-soo Pk = VA- Esbozo de la demostracién. Empezamos con la funcién f(z) = z?—A. Notemos que las raices de la ecuacién z?—A = 0 son +V/A. Ahora usamos la funcién f(x) y su derivada f"(z) en la formula (5) y escribimos la correspondiente formula de iteracién de Newton-Raphson £@ F'@) que podemos simplificar para obtener (c + Cuando usamos la funcién de iteracién g(x) dada en (13) para definir el proceso recursivo (4), el resultado es la férmula (11). Puede probarse que la sucesién generada por (11) converge cualquiera que sea el valor inicial po > 0; los detalles se dejan como ejercicio. . (12) g(2) =2— (13) 9 Un aspecto importante del Corolario 2.2 es que la funcién de iteracién g(z) sélo necesita las operaciones aritméticas +, —, x y /; si g(x) hubiera necesitado el célculo de una raiz cuadrada, estarfamos atrapados en un razonamiento cir- cular: el uso del célculo de raices cuadradas para calcular raices cuadradas (de forma més complicada). Por esta raz6n se eligié f(x) = x? — A, porque sdlo involucra las operaciones aritméticas elementales. Hjemplo 2.11. Vamos a usar el algoritmo de Newton-Raphson dado inmediata- mente antes para calcular V5. Empezando con po = 2 y usando la f6rmula (11), calculamos: _ 2465/2 _ 2... Re ae 1.25, _ 2.25 +5/2.25 2.236111111 ao 2236111111 + 5/2.236111111 _ 9 »sen67978 2 2.36067978 + 5/2.23606797: aa ana sans” Sey Si siguiéramos iterando llegariamos a py © 2.236067978 para k > 4, de manera que hemos conseguido una exactitud de nueve cifras decimales. . 2.236067978. Sec. 2.4 Los méropos Dz NEWTON-RAPHSON Y DE LA SECANTE 81 Vamos a prestar un poco de atencién ahora a un conocido problema de fisica elemental, en el que.la determinacién de una raiz de una cierta ecuacién es fundamental. Supongamos que disparamos un proyectil desde el origen con un dngulo de elevacién bp y velocidad incial vp. Cuando se analiza este problema en los primeros cursos, se desprecia la resistencia del aire y aprendemos que la altura y = y(t) y el alcance horizontal z = 2(t), medidos en metros, obedecen las reglas (14) y=vt—-492° y x=rgt, donde las componentes horizontal y vertical de la velocidad incial son, respec- tivamente, vz = Up c0s(bo) ¥ vy = vp Sen(by). Es facil trabajar con el modelo matemético expresado por las f6rmulas de (14), pero tiende a dar valores de- masiado altos de la altura y del alcance horizontal de la trayectoria del proyectil. Si hacemos la hipétesis adicional de que la resistencia del aire es proporcional a la velocidad, entonces las ecuaciones del movimiento pasan a ser (15) v= f(t) = (Cry +9.807) (0 = ee) —9.8Ct z (16) z=r(t) = Cvs (1-e"/°), siendo C = m/k, donde x es el coeficiente de resistencia del aire y m es la masa del proyectil. Un valor grande de C corresponderé, a una altura maxima y un alcance mayores del proyectil. La gréfica de la trayectoria de vuelo de un proyectil cuando tenemos en cuenta la resistencia del aire se muestra en la Figura 2.14. Este modelo mejorado es mds realista, pero requiere el uso de un algoritmo de célculo de rafces para resolver f(t) = 0 y poder asf determinar el tiempo transcurrido hasta que el proyectil cae al suelo. El modelo elemental dado en (14) no requiere ningiin procedimiento sofisticado para hallar el tiempe transcurrido. Ejemplo 2.12. Se dispara un proyectil con un Angulo de elevacién by = 45°, vyelocidades iniciales vz = 100m/s y C = 10. Vamos a determinar el tiempo transcurrido hasta el impacto en el suelo. Usando las férmulas (15) y (16), las ecuaciones del movimiento del proyectil son y = f(t) = 1980(1 — e~*/1°) — 98¢ y z = r(t) = 1000(1 —e-*/2°). Puesto que f(16) = 12.24489437 y f(17) = —47.71337762, usaremos como aproximacién ‘micial pp = 16. La derivada es f'(t 198e-*/+° — 98 y, en el punto inicial, vale # (po) = f'(16) = —58.02448937 que, en la frmula (4), nos proporciona 12.24489437, : 02448937 Los cdlculos se muestran en la Tabla 2.4. P= 16— = 16.21102977. 82 Cap. 2 RESOLUCION DE ECUACIONES NO LINEALES y = (0. f(0 ai (OF) 200 100 Figura 2.14 Trayectoria de 0 x un proyectil cuando tenemos en 200 400 600, 8001000 cuenta la resistencia del aire. ‘Tabla 2.4 Célculo del instante en el que la altura f(t) vale cero. k Tiempo, px Pett — Pe | Altura, f(Px) 0 16.00000000 0.21102977 12.24489437 ie | 16.21102977 —0.00150171 —0.08838974 2 | 16.20952805 —0.00000007 —0.00000441 3 16.20952798 | 9.00000000 0.00000000 4 16.20957798 0.00000000 0.00000000 El valor p, tiene ocho cifras decimales de precisién y el instante del impacto en el suelo es t = 16.20957798 segundos. Podemos calcular el alcance usando r(t) y obtenemos 7(16.20957798) = 1000 (1 — e~2:520957798) — 802.28976853 m. . Errores por la divisién entre cero Uno de los inconvenientes obvios del método de Newton-Raphson es la posib’ dad de que se divida entre cero en la formula (4), lo que ocurriria si f’(px—1) = 0. El Programa 2.5 contiene instrucciones que permiten detectar esta situacién, pero ide qué nos sirve en ese caso la tiltima aproximacién calculada p,-1? Es posible que |f(px-1)| sea suficientemente pequeiio y que px-1 sea una apro- ximacién aceptable a la raiz. Investigaremos ahora esta situacién y, de paso, descubriremos un aspecto interesante: la velocidad de convergencia del método. n 2.4 (Orden de una raiz). Supongamos que f(z) y sus deriva- f(20(z) estén definidas y son continuas en un intervalo centrado sk asinneminsteeminasnninsmendanemeineeianeneesinaemienatnan nents Sec. 2.4 Los METODOS DE NEWTON-RAPHSON Y DE LA SECANTE 83 en el punto p. Diremos que f(z) = 0 tiene una raiz de orden M en 2 =p si (17) £@®) =0, fp) =0, ..., FY (p) = Oy FO (p) #0. Las raices de orden M = 1 se suelen llamar raices simples, mientras que si M > 1, entonces se llaman ratces multiples. En particular, las raices de orden M = 2 se conocen como rafces dobles, y asi sucesivamente. El siguiente resultado nos servird para aclarar estos conceptos. a Lema 2.1. Si una ecuacién f(x) = 0 tiene una rafz de orden M en x = p, entonces existe una funcién continua h(z) tal que f(z) puede expresarse como el producto (18) f(z) =(z@-p)“h(z), siendo h(p) #0. Ejemplo 2.13. La funcién f(z) = 2° — $2 +2 tiene una rafz simple en p = —2 y una rafz doble en p = 1. Para verificar este hecho basta considerar las derivadas f'(c) = 307-3 y f"(z) = 62 y evaluar. Para p = —2, tenemos f(-2) = 0y f'(—2) =9, de manera que M = 1 en la Definicién 2.4 y, por tanto, p= —2 es una raz simple, Para p = 1, tenemos f(1) = 0, f’(1) = 0 y f”(1) =6, de manera que M = 2en la Definicién 2.4 y, por tanto, p = 1 es una raiz doble. Hagamos notar, por otro lado, que f(r) puede factorizarse como f(z) = (x + 2)(x—1)?. 7 Velocidad de convergencia Como vamos a mostrar, la propiedad distintiva que caracteriza cada caso es la siguiente: Si p es una raiz simple de f(z) = 0, entonces el método de Newton- Raphson converge répidamente, de forma que en cada iteracién doblamos (apro- ximadamente) el niimero de cifras decimales exactas. Si, por el contrario, p es una raiz mtltiple, entonces el error en cada paso es una fraccién del error en el paso anterior. Para describir estos hechos de manera precisa, definimos a continuacién la nocién de orden de convergencia, que es una medida de la velocidad de convergencia de una sucesién. Definicién 2.5 (Orden de convergenci verge ap y sea E, = p—p, para cada n > 0. A>Oy R>0 tales que Supongamos que {Pa}22.9 con- i existen dos constantes positivas (a9) En+1| entonces se dice que la sucesién converge a p con orden de convergencia R y el mimero A se llama constante asintética del error. Los casos R = 1,2 merecen una consideracién especial: (20) «SiR (1) «SiR 1, la convergencia de {pn }92o se llama lineal. = 2, la convergencia de {p,}7Lo se llama cuadrdtica. a 84 Cap. 2 RESOLUCIGN DE ECUACIONES NO LINEALES Tabla 2.5 El método de Newton-Raphson converge cuadraticamente en una raiz simple. k Pk mam || Ex =P—Pr ao 0 —2.40000000 0.323809524 | — 0.400000000 0.476190475 1 —2.076190476 0.072594465 | —0.076190476 0.619469086 2 —2.003596011 0.003587422 0.003596011 0.664202613 3 —2.000008589 0.000008589 | © —_—0. 000008589 4 —2.000000000 0.000000000 0.000000000 Si Res grande, entonces la sucesién {pn} converge répidamente a p; esto es, la relacién (19) implica que para valores grandes de n tenemos la aproximacién \Ensi| * A\En|®. Por ejemplo, supongamos que R = 2 y que |E,| ~ 10-?, entonces cabe esperar que |Eni1| * Ax 10-4. Algunas sucesiones convergen con un orden que no es un mimero natural; veremos, por ejemplo, que el orden de convergencia del método de la secante es R= (1+ V5)/2 = 1.618033989. Ejemplo 2.14 (Convergencia cuadratica cuando la raiz es simple). Par- tiendo de pp = —2.4 y usando la iteracién de Newton-Raphson, vamos a aproxi- marnos a la rafz simple p = —2 del polinomio f(z) = 2° — 32 +2. La formula de iteracién para calcular {px} es 2ph —2 22) = = eo, (22) Pr+i = g(Pr) af 3 Usando la formula (19) con R = 2 para comprobar si la convergencia es cuadratica, obtenemos los valores que se muestran en la Tabla 2.5. . Analizando con atencién la velocidad de convergencia en el Ejemplo 2.14 vemos que el error en una iteracién es proporcional al cuadrado del error en la iteracién previa; concretamente, Ip — Peot| * Alp — pel? donde A = 2/3. Para comprobar este hecho, usamos, por ejemplo, que |p — ps| =0.000008589 y |p—po|* |0.003596011|? = 0.000012931, con lo cual 2 \p — Ps| = 0.000008589 ~ 0.000008621 = Sip — pa ARI HEAL LAER EI ET NP NT Sgc. 2.4 Los méTopos DE NEwTON-RAPHSON Y DE LA SECANTE 85 Tabla 2.6 El método de Newton-Raphson converge linealmente en una raiz doble. - =p- JE] k Pe Pita — Pk Ex =P—Pe Bi 0 1.200000000 —0.096969697 —0.200000000 0515151515 1 1.103030303 —0.050673883 =0.103030303 0.508165253 2 1.052356420 —0.025955609 —0.052356420 0.496751115 3 1026400811 —0.013143081 =0.026400811 0.509753688 4 1.013257730 —0.006614311 —0.013257730 0.501097775 5 1.006643419 —0.003318055 —0.006643419 0.500550093 Ejemplo 2.15 (Convergencia lineal cuando la raiz es doble). Partiendo de po = 1.2 y usando la iteracién de Newton-Raphson, vamos a aproximarnos a la raiz doble p = 1 del polinomio f(z) = 2° — 32 + 2. Usando la formula (19) con R = 1 para comprobar si la convergencia es lineal, obtenemos los valores que se muestran en la Tabla 2.6. . Hagamos notar que el método de Newton-Raphson converge a la raiz doble, pero con una velocidad bastante baja. Los valores de f(p,) en el Ejemplo 2.15 convergen a cero més répidamente que los valores de f"(p,), de manera que el cociente f(pk)/f’ (pe) que aparece en la formula (4) puede calcularse cuando pr # p. La sucesién converge linealmente y el error decrece en cada paso hasta, aproximadamente, la mitad de su tamafio. El siguiente teorema recoge la efica- cia del método de Newton-Raphson, en términos de su orden de convergencia, para raices simples y dobles. Teorema 2.6 (Orden de convergencia del método de Newton-Raph- son). Supongamos que el método de Newton-Raphson genera una sucesién {Pn}2o que converge a un cero p de la funcién f(z). Si p es una raiz simple, entonces la convergencia es cuadrética: LF"(p)| (23) |Enui)*=>*4|8,|? para n suficientemente grande. 2\F'() Si p es una rafz miltiple de orden M > 1, entonces la convergencia es lineal: (24) para n suficientemente grande. Inconvenientes y dificultades Bs facil predecir el error que puede aparecer al dividir entre cero, pero hay otras Gificultades que no son tan faciles de advertir. Supongamos, por ejemplo, que 86 Cap. 2 RESOLUCIGN DE ECUACIONES NO LINEALES 03 02 OL 0.0 Po=2 Pi=4 Pp © Ds Figura 2.15 (a) La iteracién de Newton-Raphson para f(z) = xe~? puede producir una sucesién di- vergente. la funcién es f(z) = 2 — 4x +5, entonces la sucesién {p,} generada por la formula (4) oscilaré de izquierda a derecha sin converger; un andlisis somero de la situacién revela que f(x) > 0 luego f no tiene ceros reales Algunas veces la aproximacién inicial pp esté demasiado lejos de la raiz deseada y la sucesién {px} converge a otra raiz; esto suele ocurrir cuando la pendiente f’(po) es pequefia y la recta tangente a la curva y = f(z) es casi horizontal. Por ejemplo, si f(x) = cos(z), si la raiz que buscamos es p = 7/2y si empezamos con pp = 3, entonces los cdlculos producen p; = —4.01525255, p2 = —4.85265757,..., de forma que la sucesién {p,} converge a una raiz distinta: —37/2 =: —4.71238898. Supongamos que f(z) es positiva y monétona decreciente en un intervalo no acotado [a,0c) y que pp > a, entonces la sucesién {px} podria diverger a +00 Por ejemplo, con f(z) = ze~* y po = 2.0, tenemos pi =4.0, pp = 5.333333333, ... , prs = 19.723549434, ... , y {pk} diverge lentamente a +oo (véase la Figura 2.15(a)). Esta funcién conereta presenta otro problema inesperado: el valor de f(z) tiende a cero répidamente conforme z crece; por ejemplo, f (pis) = 00000000536 y es posible que pis pudiera tomarse erréneamente como una aproximacién a una raiz. Por esta razén hemos disefiado un criterio de parada en el Programa 2.5 que involu- cra el error relativo 2\p,+1 — pe|/(\pe|-+10-*), de manera que para k = 15 este valor es 0.106817 y la tolerancia 6 = 10-8 evita que el computador nos dé una raiz falsa. Otro fenémeno, la periodicidad, ocurre cuando los términos de la sucesién {px} tienden a repetirse o casi repetirse. Por ejemplo, si f(z) = z°-z-3y la Sc. 2.4 Los METODOS DE NEWTON-RAPHSON Y DE LA SECANTE 87 Figura 2.15 (b) La iteracién de Newton-Raph- son para f(x) = z* — z — 3 puede producir una sucesin periddica. y =arctan(x) Figura 2.15 (c) La iteracién de Newton-Raphson para f(z) = arctan(z) puede producir una sucesién oscilante y divergente. aproximaci6n inicial es pp = 0, entonces la sucesién que se obtiene es 3.000000, p2=—1.961538, ps =—1.147176, p4 = —0.006579, 3.000389, pg = —1.961818, p; = —1.147430, a= Ps = y quedamos atrapados en un ciclo en el que pea © Pe Darak =0,1,... (véasela Figura 2.15(b)). Sin embargo, si el valor inicial po esta suficientemente cerca de laraiz p = 1.671699881, entonces {px} converge; por ejemplo, si py = 2, entonces la sucesién converge: p; = 1.72727272, po = 1.67369173, ps = 1671702570 y pa = 1.671699881. 88 Cap. 2 RESOLUCIGN DE ECUACIONES NO LINEALES Cuando |g'(x)| > 1 en un intervalo que contiene la rafz p, entonces hay una posibilidad de que aparezca una oscilacién divergente: por ejemplo, sea f(a) = arctan(z); entonces la funcién de iteracién para el método de Newton- Raphson es g(x) = x—(1+2”) arctan(z) y se tiene que g'(t) = —2zarctan(z). Si el valor de partida elegido es po = 1.45, entonces Pi = —1.550263297, po = 1.845931751, ps = —2.889109054, etc. (véase la Figura 2.15(c)). Pero si el valor de partida est suficientemente cerca de la raiz p = 0, entonces la sucesién converge; asi, para po = 0.5, tenemos Pi = —0.079559511, p2 = 0.000335302, ps = 0.000000000. Los ejemplos y situaciones que acabamos de describir inciden en el hecho de que debemos tener cuidado a la hora de proporcionar una respuesta. Algunas veces la sucesién no converge; no siempre se da el caso de que encontremos una solucién después de N iteraciones. Los programas de célculo de raices deben ser capaces de informar de esta situacién. Si disponemos de informacién adicional sobre el contexto del problema, entonces disminuiré la posibilidad de que hallemos una solucién errénea. A veces, es posible determinar un intervalo preciso en el que f(z) tiene una raiz; el conocimiento del comportamiento de la funcién o una gréfica aceptable pueden ser de gran ayuda para elegir po. El método de la secante En el algoritmo de Newton-Raphson hay que evaluar dos funciones en cada iteracién, f(px-1) y f'(Pk-1). Tradicionalmente, el cdlculo de la derivada de una funcién elemental puede llegar a suponer un esfuerzo considerable. Sin embargo, con los modernos paquetes de cdlculo simbélico, esto no es un problema serio hoy en dia. Aun asf, hay muchas funciones dadas de forma no elemental (como integrales, o sumas de series, etc.) para las que seria deseable disponer de un método que converja casi tan répidamente como el de Newton-Raphson y que necesite tinicamente evaluaciones de f(x) y no de f'(c). El método de la secante necesita s6lo una evaluacién de f(x) por paso y en una raiz simple tiene un orden de convergencia R ~ 1.618033989; es casi tan veloz como el de Newton, cuyo orden de convergencia es 2. La formula de iteracién del método de la secante es la misma que la que aparece en el método de la régula falsi, la diferencia entre ambos estriba en la estructura légica de la forma de decidir como se elige el siguiente término. Partimos de dos puntos iniciales (po, f (po)) y (pi, f(P1)) eercanos al punto (p,0), como se muestra en la Figura 2.16, y se define p como la abscisa del punto de interseccién de la recta que pasa por estos dos puntos con el eje OX. La Figura 2.16 muestra que pz estaré més cerca de p que po y que pi. La SEC. 2.4 Los METODOS DE NEWTON-RAPHSON Y DE LA SECANTE 89 Figura 2.16 Construccién geométrica de p2 en el método de la secante. formula que relaciona po, pi y po se halla escribiendo la pendiente de la recta en cuestién: i m=f0=f@0) , 4, 9- fo) Pi-Po P2- Di El primer valor de m en (25) es la pendiente de la recta secante que pasa por los dos puntos iniciales y el segundo valor es la pendiente de la recta, que pasa por (P:, f(P:)) y (p2,0). Igualando los miembros derechos de las dos formulas de (20) y despejando pz = g(pi, po) obtenemos f(P1)(b1 — Bo) F(P1) = F(p0) © El término general de la sucesién generada por este método viene dado por la formula de iteracién de dos puntos (26) Po = 9(P1;Po) = Pi — F(x) (Pe = Pr F(Pk) — F(Pe-1) ° (27) Pkt = 9(Pk»Pk—-1) = Dk — Ejemplo 2.16 (Método de la secante en una raiz simple). Empezando con Po = -2.6y 2.4, vamos a usar el método de la secante para aproximarnos a la raiz p = —2 de la funcién polinomial f(z) = 23 — 32 +2. En este caso, la formula de iteracién (27) es (28) Ph+1 = 9(Pk»Pk—1) = Pe — 90 CAP. 2 RESOLUCION DE ECUACIONES NO LINEALES Tabla 2.7 Convergencia del método de la secante en una raiz simple. k Pk Phi — Pe Ex=P—Pk Hite 0 —2.600000000 0.200000000 0.600000000 0.914152831 1 —2.400000000 0.293401015 0.400000000 0.469497765 2 —2,106598985 0.083957573 0.106598985 0.847290012 3 —2.022641412 0.021130314 0.022641412 0.693608922 4 —2,001511098 0.001488561 0.001511098 0.825841116 5 —2,000022537 0.000022515 0.000022537 0.727100987 6 —2,000000022 0.000002 0,000000022 T —2.000000000 0.000000000 0.000000000 que podemos manipular algebraicamente y simplificar para obtener PRPe—1 + PRPh (29) pest = 9(PesPe-1) = oni e a+ Pha La sucesién generada aparece en la Tabla 2.7. . El método de la secante y el método de Newton-Raphson estén relacionados de la siguiente manera: Para una funcién polinomial f(z), le formula de dos puntos del método de la secante pei1 = 9(Pk,Pr-1) se reduce, después de sim- plificar, a la formula de un slo punto de Newton-Raphson Pari = 9(Px) cuando De sustituye @ ps; de hecho, si reemplazamos pk-1 Por pk en (29), entonces él miembro derecho de esta formula se convierte en el miembro derecho de la formula (22) dada en el Bjemplo 2.14. Los términos de la sucesién de los errores verifican, cuando la raiz es simple, la relacién (30) [Besa] © [Eel are) siendo el orden de convergencia R = (1 + V5)/2 * 1.618. Pueden encontrarse demostraciones de este hecho en los libros de andlisis numérico avanzado. Va- mos, no obstante, a hacer una comprobacién usando el Ejemplo 2.16 y los valores concretos \p — ps| = 0.000022537 |p — pal'818 = 0.001511098"-*1 = 0.000027296, “< A= |f"(—2)/2f"(—2)|°818 = (2/3)°-9!8 = 0.778351205. ‘ RM Sec. 2.4 Los métopos DE NEWTON-RAPHSON Y DE LA SECANTE 91 Tabla 2.8 Aceleracién de la convergencia en una raiz doble. 2 [Bis] rk Pe Phtt — Pk Ex =P-Pe TEs? 0 1.200000000 —0.193939394 —0.200000000 0.151515150 1 1.006060606 —0.006054519 —0.006060606 0.165718578 2 1.000006087 ~0.000006087 —0.000006087 3 1.000000000 G.o00000000 | —_0.000000000 | Combinando estos valores adecuadamente vemos que .000022537 ~ 0.000021246 = Alp — pal 518, |p —ps| = Aceleracién de la convergencia Cabe esperar que existan métodos de célculo de rafces que tengan un orden de convergencia mejor que el lineal cuando p sea una raiz multiple de orden M. El dltimo resultado que presentamos en esta seccién muestra una modificacién del método de Newton-Raphson cuya convergencia pasa a ser cuadrética en una raiz miiltiple. Teorema 2.7 (Iteracién de Newton-Raphson acelerada). Supongamos que el algoritmo de Newton-Raphson produce una sucesién que converge lineal- mente a una rafz z = p de orden M > 1. Entonces la formula de iteracién de Newton-Raphson acelerada 5, Mtr) (31) Pe = Pk-1 — Fg) genera una sucesién {p,}2.9 que converge cuadréticamente a p. Ejemplo 2.17 (Aceleracién de la convergencia en una raiz doble). Par- tiendo de po = 1.2 y usando la iteracién de Newton-Raphson acelerada, vamos a aproximarnos a la raiz doble p = 1 de f(z) =2° —3z+2. Puesto que M = 2, la formula de aceleracién (31) es, en este caso, Phe: + 3pa-1 — 4 31-3 con la que obtenemos los valores que se muestran en la Tabla 2.8. . En la Tabla 2.9 se comparan las velocidades de convergencia de los métodos de cdiculo de rafces que hemos visto hasta ahora. (El valor de la constante A es diferente para cada método.) 92 Cap. 2 RESOLUCION DE ECUACIONES NO LINEALES ‘Tabla 2.9 Comparacién de las velocidades de convergencia. Consideraciones Relacién entre los Método especiales | sucesivos términos de error Biseccién Exes: © 4\Er| Régula falsi Exit ® AlEs| Secante Rafz multiple Exit = AlEs| Newton-Raphson Raiz multiple Exit ® AlEs| Secante Raja simple Exss © AlBe|* 8% Newton-Raphson Ratz simple Enis © ALER|? ‘Newton-Raphson Raiz miltiple Engi % AEs)? acelerado [Programa 2.5 (Iteracién de Newton-Raphson). Aproximacién a una raiz de f(z) = 0 a partir de un valor inicial pp mediante la iteracién = my - LOM) tie aPC function [p0,err,k,y]=newton(t,df,p0,delta,epsilon,maxi) % Datos para k=1, 2, ... % - f es la funcién, % introducida como una cadena de caracteres ’f’ h - df es la derivada de f, introducida como una cadena *df’ h - pO es la aproximacién inicial a un cero de f - delta es la tolerancia para pO - epsilon es la tolerancia para los valores de la funcién - maxi es el niimero maximo de iteraciones Resultados - pO es la aproximacién al cero; obtenida con el método de Newton-Raphson - err es una estimacién del error de p0 - es el ntimero de iteraciones realizadas - y es el valor de la funcién £(p0) maxi pi=p0-feval (£,p0)/feval (df ,p0) ; err=abs(p1-p0) ; S relerr=2*err/(abs(pi)+delta) ; po=pi; yefeval (£,p0); if (err0. Las potencias superiores A*p, se definen de manera recursiva mediante (2) A*pn =A*"(Apn) para k > 2. a Teorema 2.8 (Aceleracién de Aitken). Sea {p,}% una sucesién que converge linealmente a su limite p y tal que p— pa # 0 para todo n > 0. Si existe un nimero real A con |A| <1y tal que 3 Po Pott A, ®) noo D— Pn entonces la sucesion {gn}%%o definida por (Apa)? (Png — Da)? 4 in = Pn — SER) =p, g Sm Pa~ "Rip Dasa — Patt + Pn converge a p més répidamente que {p,}%9, en el sentido de que (5) Demostracién. Mostraremos cémo se deduce la férmula (4) y dejaremos la demostracién de (5) como un ejercicio. Usando la relacién (3), podemos escribir () PE Pete ag y PoP? 24 cuando n es grande. P-Pn P—Pn+i 100 Cap. 2 RESOLUCION DE ECUACIONES NO LINEALES Tabla 2.10 Sucesién linealmente convergente {pn}- En Ea n Pa E,=pn—p | An= 1 | 0.606530660 | 0.039387369 | —0.586616609 2 | 0.545239212 | —0.021904079 | —0.556119357 3 | 0.579703095 | 0.012559805 | ——0.573400269 4 | 0.560064628 | —0.007078663 | —0.563596551 5 | 0571172149 | 0.004028859 | —0.569155345 6 | 0.564862947 | —0.002280343 | —0.566002341 Tabla 2.11 Sucesién {gn} obtenida con el método de Aitken. n Gn aa —P 1 0.567298989 (0.000155699 2 0.567193142 0.000049852 3 0.567159364 0.000016074 4 | 0.567148453 0.000005163 5 0.567144952 0000001662 0.567143825 0.000000534 Las aproximaciones dadas en (6) implican que (7 (p— past)” * (P— Pata) (P— Pn)- Haciendo las operaciones en ambos miembros de (7) y simplificando los términos p?, obtenemos Pnt2Pn — Patt (8 Zs = ) Pn=2 — 2Pn+t + Pn =q, paran=0, 1, - La férmula (8), que define el término gn, puede ser manipulada algebraicamente para convertiria en la formula (4), que tiene mejor comportamiento frente la propagaciéa de los errores cuando se usan con un computador. . Bjemplo 2.18. Veamos que la sucesién {pa} del Ejemplo 2.2 presenta convergen- cia lineal y que la sucesién {gn} obtenida con el método A? de Aitken converge més répidamente. La sucesién {pq} se obtuvo aplicando iteracién de punto Ajo a la funcién dada por g(2) = e~* a partir del valor inicial pp = 0.5. Una vez detenidas las iteraciones, ms sl Sec. 2.5 Los METODOS DE AITKEN, STEFFENSEN Y MULLER 101 el limite calculado fue p + 0.567143290. Los valores Pn y dn se muestran en las Tablas 2.10 y 2.11. Para ilustrar lo que decimos, observemos que el valor q; se obtiene con el célculo a= 2 = 0.567298989. . Aunque la sucesién {qq} de la Tabla 2.11 converge linealmente, su velocidad de convergencia es mayor que la de {pn} en el sentido dado en el Teorema 2.8; de hecho, el método de Aitken produce, usualmente, mejoras més sustanciales que la de este caso. Cuando el método de Aitken se combina con una iteracién de punto fijo, el resultado se conoce como método de aceleracién de Stef- fensen. Los detalles de este método se dan en el Programa 2.7 y en los ejerci- cios. El método de Muller El método de Muller es una generalizacién del método de la secante, en el sentido de que no necesita el célculo de la derivada de la funcién. Es un método iterativo que necesita tres puntos iniciales (po, f(po)); (pi, f(p:)) y (Pe: f(P2))- Entonces se construye la pardbola que pasa por estos puntos y se usa la formula de resolucién de las ecuaciones de segundo grado para determinar el punto de corte de dicha pardbola con el eje OX; la abscisa de este punto se usa para construir la siguiente aproximacién. Puede probarse que, cerca de una rafa simple, el método de Muller converge mds répidamente que el método de la secante y es casi tan veloz como el método de Newton-Raphson. Este método puede emplearse tanto para hallar ceros reales como para hallar ceros complejos y puede programarse para que trabaje con aritmética compleja. Sin pérdida de generalidad, supongamos que p2 es la mejor aproximacién a la raiz y consideremos la parébola, que se muestra en la Figura 2.17, que pasa por los tres puntos de partida. Hagamos el cambio de variable (9) —P2, y usemos las diferencias (10) ho=Po-P2 y Ahi =pi-~ pe Consideremos el polinomio cuadratico en la variable t: (11) y=at?+bi+c. 102 Cap. 2 RESOLUCION DE ECUACIONES NO LINEALES y= fe) @. fey _ Gy fier) Figura 2.17 Los valores iniciales po, ps ¥ p2 para el método de Muller y las diferencias ho y hi. Cada punto inicial nos proporciona una ecuacién para a, by ¢: En t=ho: ah3+ bho +¢= f(Po), (12) En t=hy: ah}+bhi +e=f(p1), En ¢=0: a0? +60 +c=f(p2)- La tercera ecuacién de (12) nos dice que (13) c= f(p2). Sustituyendo (13) en las primeras dos ecuaciones de f(po) — ey ex = f(P1) — © nos queda ahg + bho = f (Po) — (12) y poniendo eo = (14) ah + bhi = f (Pi) — ‘Ahora resolvemos este sistema y obtenemos a y 5: ae eohy — exho (a8) fyhg — hob’ a exh3 — eoh? b= Fhe hgh? Las raices t = 1, z2 de (11) se obtienen usando la férmula 2c 16 = SS. (18) *= FE Je — tac i SEc. 2.5 Los METODOS DE AITKEN, STEFFENSEN Y MULLER. 103 Esta formula (16) es equivalente a la formula habitual para hallar las raices de una ecuacién de segundo grado; pero, en este caso, (16) es mejor porque ya sabemos que c= f(p2). Para asegurar la estabilidad del método hay que elegir la raiz de (16) que tenga menor valor absoluto; asi, si b > 0, entonces usamos el signo positivo de la rafa cuadrada, mientra que si b < 0, entonces usamos el signo negativo. El nuevo punto ps, que se muestra en la Figura 2.17, viene dado por (17) Ps = pa +z. Para actualizar los valores y dar el siguiente paso, elegimos los nuevos po y P como los dos puntos mds cercanos a ps de entre {po,p1,D2} (0 sea, rechazamos el més lejano) y ps pasa a ser el nuevo pz. Aunque hace falta realizar muchos célculos adicionales en el método de Muller, sélo hace falta una evaluacién de la funcién f en cada iteracién. Si usamos el método de Muller para hallar las raices reales de f(z) = 0, es posible que nos encontremos con aproximaciones complejas, ya que las raices de (16) podrian ser niimeros complejos (0 sea, tener parte imaginaria no nula). En estos casos las partes imaginarias serén de pequefia magnitud y podremos despreciarlas, de manera que nuestros célculos se hagan con niimeros reales. Comparacién entre los métodos El método de Steffensen puede usarse junto con la funcién de iteracién del método de Newton-Raphson g(z) = « — f(z)/f'(z). En los dos ejemplos siguientes nos vamos a plantear el célculo de las raices del polinomio f(z) = z°—3z+2, para el cual la funcidn de iteracién del método de Newton-Raphson es g(z) = (22° —2)/(32?—3). Cuando usamos esta funcién en el Programa 2.7, obtenemos los célculos que se muestran bajo la cabecera Steffensen con Newton en las Tablas 2.12 y 2.13. Por ejemplo, empezando con po = —2.4, calculamos (18) Pi = 9(po) = —2.076190476. ¥ (18) Po = 9(p:) = —2.003596011. Entonces la frmula de Aitken nos proporciona ps = —1.982618143. Ejemplo 2.19 (Convergencia cerca de una raiz simple.)._ Vamos a comparar los métodos dados usando la funcién f(z) = 2° — 3x +2 cerca de su raiz simple p=-2. Los resultados producidos por los métodos de Newton-Raphson y de la se- cante para este caso ya se mostraron en los Ejemplos 2.14 y 2.16, respectivamente. La Tabla 2.12 proporciona un resumen de los resultados obtenidos con todos los métodos . 104 Cap. 2 RESOLUCIGN DE ECUACIONES NO LINEALES Tabla 2.12 Comparacién de las convergencias cerca de una ra{z simple. Método Steffensen ‘Método Método de con de la de Newton- Newton- k secante Muller Raphson Raphson 0 —2.600000000 —2.600000000 —2.400000000 —2.400000000 1 —2.400000000 —2.500000000 —2.076190476 —2.076190476 2 —2.106598985 2.400000000 —2.003596011 —2,003596011 3 —2.022641412 —1.985275287 —2,000008589 —1.982618143 4 —2,001511098 —2.000334062 —2,000000000 —2.000204982 5 —2.000022537 —2,000000218 —2.000000028 6 —2.000000022 —2,000000000 —2.000002389 e —2.000000000 | _ —2.000000000 Rjemplo 2.20 (Convergencia cerca de una raiz doble). Vamos a comparar ‘ahora los métodos dados usando la funcién f(x) = z*—32+2 cerca de su raiz doble p= 1. La Tabla 2.13 proporciona un resumen de los resultados obtenidos con todos Jos métodos. . El método de Newton-Raphson es la mejor eleccién para hallar una raiz simple como se ve en la Tabla 2.12. En una raiz doble, tanto el método de Muller como el método de Steffensen aplicado a la formula de iteracién de Newton-Raphson resultan ser una buena eleccidn, como se ve en la Tabla 2.13. Hagamos notar que, en la formula del método de aceleracién de Aitken (4), podrfamos tener tna divisién entre cero conforme la sucesién {px} converge. En bste caso, la iltima aproximacién calculada es la que usamos como aproximacién al cero. En el programa que damos a continuacién, la sucesién {p,}, generada con el método de Steffensen aplicado a la formula de iteracién de Newton-Raphson, se almacena en una matriz Q que tiene max! filas y tres columnas: La primera columna de Q contiene la aproximaci6n inicial po y los térmimos ps; Ps, -- + P3k:- generados por el método de aceleracién de Aitken (4), mientras que las colum- nas segunda y tercera de Q contienen los téminos generados por el método de Newton. El criterio de parada del programa se basa en la diferencia entre dos términos consecutivos de la primera columna de Q. Programa 2.7 (Aceleracién de Steffensen). Aceleracién de la conver- | gencia. de la iterecién de punto fijo para resolver la ecuacién f(z) = 0 a | partir de po: donde se supone que f y f' son continuas y que el metodo de | | Newton-Raphson converge lentamente (Iinealmente) a p. Sec. 2.5 Los METODOS DE AITKEN, STEFFENSEN Y MULLER 105 Tabla 2.13 | Comparacién de la convergencia cerca de una raiz doble. ] Método Steffensen Método Método de con dela de Newton- Newton- k secante Muller Raphson Raphson 0 1.400000000 1.400000000 1.200000000 1.200000000 1 1.200000000 1.300000000 1.103030303 1.103030303 2 1.138461538 1.200000000 1.052356417 1.052356417 3 1.083873738 1.003076923 1.026400814 0.996890433 4 1.053093854 1.003838922 1013257734 0.998446023 5 1.032853156 1.000027140 1.006643418 0.999223213 6 1.020429426 0.999997914 1.008325375 0.999999193, 7 1.012648627 0.999999747 1.001663607 0.999999597 8 1.007832124 1.000000000 1.000832034 0.999999798 9 1.004844757 1.000416075 0.999999999 function [p,Q]=steff(f,df,p0,delta,epsilon,maxi) % Datos % - f la funcién, introducida como x una cadena de caracteres ’£? % - df es la derivada de £, introducida como una cadena ’df? % - pO es la aproximacién inicial a un cero de f % - delta es la tolerancia para pO % - epsilon es la tolerancia para los valores de la funcién h - maxi es el mimero maximo de iteraciones % Resultados h - p es la aproximacién al cero, % obtenida con el método de Steffensen h - Q es la matriz que contiene la sucesién de Steffensen % Inicializamos la matriz R Rezeros(maxi,3); R(1,1)=p0; for k= for j= % Denominador del método de Newton-Raphson nrdenom=feval (df ,R(k,j-1)); % Apoximacién de Newton-Raphson if nrdenom== 106 Cap. 2 RESOLUCION DE ECUACIONES NO LINEALES ?divisién entre cero en el método de Newton-Raphson break else R(ic, j)=R(x, j-1)-feval (f,R(k,j-1)) /nrdenom; end % Denominador del método de aceleracién de Aitken aadenom=R(k,3)-24R(k,2)+R(k, 1); % CAlculo de las aproximaciones de Aitken if aadenom==0 ?divisién entre cero en el método de Aitken’ break else R(s+1,1)=R(ik, 1)-(R(is, 2)-R(it, 1))“2/aadenom; end end 4 Final del programa si ocurre divisién entre cero if (ardenom==0) | (aadenom==0) break end % Criterios de parada err=abs(R(k,1)-R(k+i,1)); relerr=err/(abs(R(k+1,1))+delta) yefeval(£,R(k+1,1)); if (err 0 disc=sqrt (b*2-4*ax*c) ; else disc=0; end % CAlculo de la menor raiz de (17) ifb <0 disc=-disc; end =-2c/(b+disc) ; p=P(3) +z; % Ordenamos los elementos de P para hallar el mas préximo a p if abs(p-P(2)) 1 y lo contrae cuando jel <1. Para ver esto usamos la relacién (10): lleX || = (c?x? + cP +--- + c7x2,)4/? ay lela? se 2 1/2 = Jol = lel(et +23 +--+ ay)? = |e|||X]). Existe una relacién importante entre el producto escalar y la norma de un vector: si elevamos al cuadrado en (10) y usamos (9) para el caso en que X = Y, tenemos (12) |x\? = r+s-tayaX-X. Si X e ¥ son los vectores de posicién de dos puatos (21,22,...,2) € (y1,y2,---,y) en el espacio N-dimensional, entonces el vector de desplaza- miento desde X hasta Y es el dado por la diferencia (13) Y—X (desplazamiento desde la posicién X hasta la posicién Y) 114 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Nétese que si una partfcula parte de la posicién X y su desplazamiento es Y _X, entonces su posicién de llegada es Y, para ver esto basta sumar: (14) Yy=X+(¥-X). Usando las relaciones (10) y (13), podemos escribir la formula de la distan- cia entre dos puntos en el espacio N-dimensional: (a3) |X — XI) = (Ga 2)? + (a — 20)? ++ 2?) Cuando la distancia entre dos puntos se calcula usando la formula (15), se dice que los puntos estén en el espacio euclideo N-dimensional. Ejemplo 3.1. Sean X = (2,—3,5,—1) e ¥ = (6,1,2,~4). Vamos’a ilustrar los conceptos anteriores con estos dos vectores en el espacio 4-dimensional. Suma X+¥ =(8,-2,7,-5) Diferencia XK -Y¥ =(-4,-4,3,3) Miultiplo escalar 3X = (6,—9,15,—-3) Médulo ||X|| = (44942541)? = 39%/? Producto escalar X-¥ +12-34+104+4=23 Desplazamiento desde X hastaY Y ~ X = (4,4,—3,—3) Distancia entre X e ¥ |v — X|| =(16 +16 +9+9)*/? = 50"? m ‘A veces es conveniente escribir los vectores como columnas en vez de escri- birlos como filas. Por ejemplo, si Ty yn 2 (16) ell ce Reels IN. UN. entonces la combinacién lineal cX +d¥ es ex, + dys cx2 + dyo (7) cX+d¥ = ‘ cry + dyn, Eligiendo cy d adecuadamente en la ecuacién (17), podemos obtener la suma 1K +1Y, la diferencia 1X —1Y, y el miiltiplo escalar cX + OY. Usaremos la virgulilla “’” para indicar la trasposicién de un vector fila en un vector columna y viceversa. Asi, zy a a ,_ | a (18) (#1, tae ty) =|, y = (@1,22,-+-)BN)- SEC. 3.1 VECTORES Y MATRICES 115 El espacio N-dimensional tiene un elemento neutro o nulo: el vector 0 definido por (19) 0=(0,0,...,0). Teorema 3.1 (Algebra de vectores). Sean X,Y y Z vectores N-dimensio- nales y sean a y b escalares (niimeros reales). Entonces se verifican las siguientes propiedades de la suma de vectores y del producto por escalares; (20) ¥+X=X+¥Y propiedad conmutativa de la suma (21) 0+X=X+0 elemento neutro de la suma (22) X-X=X+(-X)=0 elemento opuesto de la suma (23) (K+Y¥Y)+2Z=X+(¥+Z) propiedad asociativa de la suma (24) (a+6)X =aX+bX propiedad distributiva para escalares (25) a(X+¥)=aX+aY propiedad distributiva para vectores (26) a(bX) = (ab)X propiedad asociativa de escalares Matrices Una matriz es una coleccién de ntimeros reales dispuestos de forma rectangular en filas y columnas. Una matriz con M filas y N columnas se dice que es de or- den, o dimensiones, Mx N (léase “M por N”). En general, una letra maydscula A denota una matriz, mientras que las correspondientes minusculas aij indican uno de los niimeros que forman la matriz, de manera que escribimos (27) A=[ajlmxn para l se |S) aca ) Cn a ea i 2] by Qu. Gm2 --* amj ‘** aun] |2y, bu. La multiplicacién matricial AX = B que aparece en (8) nos recuerda el producto escalar de vectores normales y corrientes, ya que cada elemento by de B es el resultado que se obtiene al hacer el producto escalar de la fila k-ésima de la matriz A por la matriz-columna X. Ejemplo 3.6. Vamos a expresar el sistema de ecuaciones lineales (5) del Ejem- plo 3.4 en forma matricial; luego usaremos la multiplicaci6n matricial para compro- bar que (4 3 3]' es la soluci6n: 0.125 0.200 0.400] far] 2. (9) 0.375 0.500 0.600] }z2| = |4.8] . 0.500 0.300 0.000] [3 29 Para verificar que [4 3 3]' es la soluci6n del sistema (5), debemos probar que se tiene A[4 3 3]'=([23 48 2.9]': 0.125 0.200 0.400] [4 0.5+0.6 + 1.2 [2.3 0.375 0.500 0.600] |3] = /1.5+15+18] = |48 0.500 0.300 0.000} [3 2.0+0.9 + 0.0 [29 Algunas matrices especiales Como ya hemos visto antes, la matriz de orden M x N cuyos elementos son todos cero se llama matriz cero, o matriz nula, de orden M x N y se denota por (10) 0= (O]uxy- 123 do a la izquierda de A por Iz se obtiene 1 et fax a2 ais] _ ane ay2+0 ai3+0 | = A aa G22 23} [gai +0 ao2+0 aos +0. — [aut0+0 O+ay2+0 0+0+a19 ~ fan +0+0 O+aa2+0 0+0+ 3. Recordaremos la definicién recursiva de determinante usando el desarrollo por una fila o por una columna mediante cofactores. El cdlculo de los determinantes de orden alto se realiza mediante el método de eliminacién de Gauss y se menciona en el cuerpo dei Programa 3.3. Si A = [ay] es una matriz de orden 1 x 1, se define det(A) = au. Si A= [aylvxv, siendo NV > 2, entonces sea M;; el determinante de la submatria , de orden N—1x N-1 extraida de A borrando la fila i-ésima y la columna j-ésima de A; este determinante Mj; se llama el menor de aij. El cofactor Aj; de PT annie uit: Sec. 3.2 MULTIPLICACION DE MATRICES 125 aij se define, entonces, como Ajj = (—1)'*7My; y, finalmente, el determinante de la matriz A de orden N x N viene dado por Nw So aijAiz (desarrollo por la i-ésima fila) ja (19) det(A) o bien por x So aijAiz (desarrollo por la j-ésima columna). ial (20) det(A) Aplicando la formula (19), con i = 1, a la matriz de orden 2 x 2 es Bs a : a2: Gee vemos que det(A) = 11422 — a:2a1. El siguiente ejemplo muestra cémo se utilizan las fSrmulas (19) y (20) para reducir el célculo del determinante de una matriz de orden V x NV al célculo de un cierto numero de determinantes de orden 2 x 2. Ejemplo 3.8. Vamos a usar la formula (19) con i = 1 y la f6rmula (20) con j = 2 para calcular el determinante de la matriz 2 3 8 A=|-4 5 -1]. t= 9 Usando la férmula (19) con i = 1, obtenemos det(A) = (2) [ Esl =(3) lie al +@|9 a = (2)(45 — 6) — (3)(—36 + 7) + (8)(24 — 38) =77. Usando la formula (20) con j = 2, obtenemos -1 2 8 oF 8 4 7 --9|3 a =T7. . det(A) = —(3) i 3) El siguiente teorema nos proporciona condiciones necesarias y suficientes para la existencia y unicidad de la solucién de un sistema de ecuaciones lineales AX = B cuando la matriz de los coeficientes es cuadrada; o sea, cuando hay tantas ecuaciones como incégnitas. 126 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Teorema 3.4. Supongamos que A es una matriz cuadrada de orden N x N. Entonces las siguientes condiciones son equivalentes: (21) Dada cualquier matriz B de orden 'N x1, el sistema de ecuaciones lineales AX = B tiene solucién tinica. (22) La matriz A es invertible (es decir, existe Ay (23) El sistema de ecuaciones AX = 0 tiene como tinica solucién X = 0. (24) det(A) 40. Los Teoremas 3.3 y 3.4 nos permiten relacionar el algebra de matrices con el Algebra ordinaria de mimeros. Si cualquiera de las condiciones (21)-(24) se verifica, entonces, junto con las propiedades (12) y (13), podemos deducir (25) AX = B implica A“! AX = A~'B; luego, X = A“B. Ejemplo 3.9. Vamos a usar la matriz inversa a= Bh eek _ Tt & y el razonamiento expuesto en (25) para resolver el sistema de ecuaciones lineales axel Ee El- Usando (25), obtenemos gt fT 4 2 PLT a [oe hes B=i| 5 4 Gl-28)- (tal ™ Observacién. En la practica nunca se calculan la inversa ni el determinante de una matriz cuadrada. Estos conceptos se utilizan como herramientas tedricas para establecer la existencia y unicidad de soluciones 0 como medios para ex- presar algebraicamente la solucién de un sistema de ecuaciones lineales (como en el Ejemplo 3.9). Rotaciones planas Supongamos que A es una matriz de orden 3x 3y queU=([z y 2) esuna matriz de orden 3 x 1, entonces el producto V = AU es otra matriz de orden 3.x 1. Este es un ejemplo de aplicacién lineal, un concepto que se utiliza en el campo de la generacin de gréficos por computador. La matriz U equivale al ® Sec. 3.2 MULTIPLICACION DE MATRICES 127 Tabla 3.1 Coordenadas de los vértices de un cubo tras sucesivas rotaciones. u VaR (AU WHR (8) R(G)U (0,0, 0)’ (0.000000, 0.000000, 0)’ (0.000000, 0.000000, 0.000000)’ (1,0, 0)" (0.707107, 0.707107, 0)’ | (0.612372, 0.707107, —0.353553)’ (0,1,0)' (0.707107, 0.707107,0)’ | (0.612372, 0.707107, 0.353553)" (0,0, 1)’ (0.000000, 0.000000, 1)' (0.500000, 0.000000, 0.866025)’ (1,1, 0)" (0.000000, 1.414214, 0)’ (0.000000, 1.414214, 0.000000)’ (1,0,1)) | (0.707107, 0.707107, 1)’ (1.112372, 0.707107, 0.512472)" (0,1,1! | (0.707107, 0.707107, 1)' (0.112372, 0.707107, 1.219579) (1,1! (0.000000, 1.414214, 1)’ (0.500000, 1.414214, 0.866025)" vector de posicién U = (z,y, z) que representa las coordenadas de un punto en el espacio tridimensional. Consideremos tres matrices especiales: 1 0 0 (26) R,(a) = |0 cos(a) —sen(a) |, 0 sen(a) — cos(a) cos(8) 0 sen(6) (7) Ri(G)= | 0 tO Ng (3) 0 cos(), —sen( cos(y) —sen(y) 0 (28) R.(y) = |sen(y) —cos(y) 0 0 On Estas matrices Re(a), Ry(9) y Rz(7) se usan, respectivamente, para hacer girar los puntos alrededor del eje OX, OY y OZ un dngulo a,3 y 7. Las inversas de estas matrices son R;(—a), Ry(—8) y R.(—7), que giran los puntos alrededor del eje OX. OY y OZ un Angulo —a,—G y —7, respectivamente. El siguiente ejemplo ilustra esta situacién; dejamos como ejercicio la realizacién de investigaciones posteriores. Ejemplo 3.10. Un cubo unidad se sitda en el primer octante teniendo el origen como uno de sus vértices. Primero, hacemos girar el cubo un dngulo de 7/4 alrede- dor del eje OZ; luego, giramos su imagen un Angulo de 1/6 alredeor del eje OY. Vamos a determinar las imagenes de los ocho vértices del cubo. 128 Cap. 3 RESOLUCION DE SISTEMAS LINEALES z z Zz m I = x * Figura 3.2 (a) El cubo de partida. (b) V = R,(m/4)U, rotacién alrededor del eje OZ. (c) W = Ry,(7/6)V, rotacién alrededor del eje oy. La primera rotacién viene dada por la transformacién cos(Z) —sen(¥) van. (Z)u- ab co) ‘| [snr —0.707107 a A 0.707107 0.707107 0.000000 0.000000 0.000000 1.000000 La segunda rotacién viene dada por cos(Z) 0 sen() =R,(5)v=| 0 AS fa tg ope =sen($) 0 cos(#) 0.866025 0.000000 0.500000 =} 0.000000 1.000000 0.000000] V. —0.500000 0.000000 0.866025) La composicin de las dos rotaciones es 0.612372 —0.612372 0.500000 w-a(@a(Qe-| san] 0.707107 0.707107 0.000000] | y 0.353553 0.353553 0.866025} | z En la Tabla 3.1 se muestran los célculos de las coordenadas de los vértices al comienzo y tras cada una de las rotaciones (como vectores de posicién); las imagenes de estos cubos se muestran en la Figura 3.2(a)-(c). . MATLAB Las funciones det (A) e inv(A) del paquete de programas MATLAB proporcio- nan, respectivamente, el determinante y la inversa (si A es invertible) de una matriz cuadrada A. SEC. 3.2 MULTIPLICACION DE MATRICES 129 Ejemplo 3.11. Vamos a usar el paquete MATLAB, con el método de la matriz inversa descrito en (25), para resolver el sistema de ecuaciones lineales del Ejem- plo 3.6. Primero comprobamos que A es invertible mostrando que det(A) # 0 (Teo- rema 3.4). >>A=[0.125 0.200 0.400;0.375 0.500 0.600;0.500 0.300 0.000]; >>det (A) ans= -0.0175 Siguiendo el razonamiento hecho en (25), la solucién de AX = Bes X = A“B. >>X=inv(A)*[2.3 4.8 2.9]” x 4.0000 3.0000 3.0000 Podemos comprobar nuestra solucién verificando que AX = B. >>B=Ask Ejercicios Le animamos a que realice estos ejercicios tanto a mano como con el paquete de programas MATLAB 1. Calcule AB y BA para las siguientes matrices: -3 2 5 0 4-[td > ef 4: 2. Calcule AB y BA para las siguientes matrices: i. saa a=[} eee 3. Sean A,B y C dadas por b | A=\ al, B (a) Calcule (AB)C y A(BC). 130 11. Cap. 3 RESOLUCION DE SISTEMAS LINEALES (b) Calcule A(B +C) y AB+ AC. (c) Calcule (A+ B)C y AC+ BC. (d) Calcule (AB)! y B’A’. . Calcule A? y B?, donde usamos la notacién A? = AA, para las matrices Be he 4-[5 a y B=|-1 65 - 3 -5 2 |. Calcule, si existe, el determinante de las siguientes matrices s 0 6 @ [3 a ©) Ei 3 - 12 1234 0246 o i ‘ op eae ie 00 ° 7 . Demuestre que Rz(a)Rz(—a) = I multiplicando directamente las matrices Rz(a) y Re(—a), (vea la formula (26). . (a) Demuestre que cos(3) 0 sen(3) Rz(a)Ry(8) = sen(8)sen(a) cos(a) +—cos(8) sen(a) —cos(a) sen(3) sen(a) — cos(3) cos(a) (vea las f6rmulas (26) y (27)). (b) Demuestre que cos(8) sen(8)sen(a) cos(a) sen(3) R,(8)R2(a) = 0 cos(a) — sen(a) —sen(a) cos(9)sen(a) cos() cos(a) . Sean A y B matrices invertibles de orden N x N y sea C = AB. Demuestre que C-! = B“' A. Indicacién. Use la propiedad asociativa del producto de matrices. |. Demuestre las propiedades (13) y (16) de! Teorema 3.3. 10. Sea A una matriz de orden M x N y X una matriz de orden N x 1 (a) {Cudntas multiplicaciones hacen falta para calcular AX? (b) {Cuéntas sumas hacen falta para calcular AX? Sea A una matriz de orden M x N y sean B y C dos matrices de orden N x P. Pruebe la propiedad distributiva de la multiplicacién matricial por la iquierda: A(B+C) = AB+ AC. ere” SEC. 3.2 MULTIPLICACIGN DE MATRICES 131 12. Sean A y B dos matrices de orden M x N y sea C una matriz de orden N x P. Pruebe la propiedad distributiva de la multiplicacién matricial por la derecha: (A+B)C = AC+BC. 13. Calcule XX' y X’X, donde X= [1 -1 2]. Nota. X’ es el traspuesto del vector X. 14. Sea A una matriz de orden Mx N y sea B una matriz de orden N x P. Pruebe que (AB)! = B'A’. Indicacién. Siendo C = AB pruebe, usando la definicién del producto de matrices, que el elemento (i, j) de O’ es igual al elemento (i, j) de B’A’. 15. Use el resultado del Ejercicio 14 y la propiedad asociativa del producto de matrices para probar que (ABC) = C'B'A’. Algoritmos y programas La primera columna de la Tabla 3.1 contiene las coordenadas de los vértices de un cubo unidad situado en el primer octante y uno de cuyos vértices es el origen. Los ocho vértices pueden almacenarse en una matriz U de orden 8 x 3, en la que cada fila representa las coordenadas de uno de los vértices. De acuerdo con el Ejercicio 14, el producto de U por la traspuesta de R.(7/4) seré una matriz de orden 8 x 3 (que representa la segunda columna de la Tabla 3.1, en la que cada fila representa las coordenadas del correspondiente vértice de U' después del primer giro). Combinando esta idea con el resultado del Ejercicio 15, obtenemos que las coordenadas de los vértices del cubo después de un niimero cualquiera de rotaciones consecutivas se puede representar mediante el producto por otras tantas matrices. 1. Un cubo unidad esté situado en el primer octante y uno de sus vértices es el origen. Primero rotamos el cubo un Angulo de 7/6 alrededor del eje OY, luego rotamos su imagen un Angulo de x/4 alrededor del eje OZ. Calcule las posiciones finales de los ocho vértices del cubo y compare su resultado con lo obtenido en el Ejemplo 3.10. iCudl es la diferencia? Explique su respuesta usando que, en general, el producto de matrices no es conmutativo (vea la Figura 3.3(a)-(c)). Use la instruccién plot3 del paquete MATLAB para dibujar cada uno de los tres cubos. 2. Un cubo unidad esté situado en el primer octante y uno de sus vértices es el origen. Primero rotamos el cubo un Angulo de x/12 alrededor del eje OX. luego rotamos su imagen un 4ngulo de 7/6 alrededor del eje OZ. Calcule las posiciones finales de los ocho vértices del cubo y use la instruccién plot3 para dibujar cada uno de los tres cubos. 3.3 182 Cap.3 RESOLUCIGN DE SISTEMAS LINEALES @ ) © Figura 3.3 (2) El cubo de partida. (b) V = Ry(n/6)U, rotacién alrededor de OY. (c) W = Rz(x/4)V, rotacién alrededor de OZ. 3. Considere el tetraedro cuyos vértices son (0,0,0), (1,0,0), (0,1, 0) y (0,0, 1). Primero rotamos el tetraedro un 4ngulo de 0.15 radianes alrededor del eje OY , luego un 4ngulo de —1.5 radianes alrededor del eje OZ y finalmente un Angulo de 2.7 radianes alrededor del eje OX. Calcule las imagenes de los cuatro vértices y use la instruccién plot3 para dibujar las cuatro imagenes. Sistemas lineales triangulares Desarrollaremos ahora el algoritmo de sustitucién regresiva, con el que podremos resolver un sistema de ecuaciones lineales cuya matriz de coeficientes sea triangular superior. Este algoritmo seré luego incorporado al algoritmo de resolucién de un sistema de ecuaciones lineales general en la Seccidn 3.4. Definicién 3.2. Se dice que una matriz A = [a;;] de orden N x N es trian- gular superior cuando sus elementos verifican aj; = 0 siempre que cH ZF Se dice que una matriz A = [aij] de orden N x N es triangular inferior si ai; =0 siempre que i < j. a Vamos a desarrollar un método para hallar la solucién de un sistema de ecuaciones lineales triangular superior y dejamos como ejercicio el caso de los sistemas triangulares inferiores. Si A es una matriz triangular superior, entonces se dice que el sistema de ecuaciones AX = B es un un sistema triangular superior de ecuaciones lineales, sistema que tiene la siguiente forma: antitertetasast e+ Gywaty-1t | Minty = bt Ag9%9+a2373 + Q@n-1tN-1+ © @awty = be A333 + agy-ity-1t+ aswtw = bs ay—-1N-12N-1 + GN-1NaN = by-1 ayvay = by. SEC. 3.3 SISTEMAS LINEALES TRIANGULARES 133 ‘Teorema 3.5 (Sustitucién regresiva). Supongamos que AX = Bes un sistema triangular superior como el dado en (1). Si (2) ax. #0 para k=1, 2, ..., N, entonces existe una solucién tinica de (1). Demostracién constructiva. La solucién es facil de hallar. La tiltima ecuacién sdlo contiene la incégnita zy, asi que empezamos por ésta: by avn (3) Zp Ahora ya conocemos zy as{ que podemos usarla en la pentiltima ecuacién: by-1 ~ av-1wtN 4) tya= @ @n-1N-1 Ahora usamos ty y Zy-1 para hallar zy_9: (5) eee by—2 — ON-2N-12N—1 — QN-2NTN : ay—2N-2 s Una vez calculados los valores zy, ty—1, -..; Th+1, €l paso general es Oe gs On (6) p= Vjakes Mis para k= N-1, N-2,..., 1. Oke La unicidad de la solucién es facil de ver. La ultima ecuacién implica que by/anw es el tinico posible valor de xy y, por induccién finita, los valores de Zy-1, ZN-2, --., 21 también son tinicos. . Ejemplo 3.12. Vamos a usar el método de sustitucién regresiva para resolver el sistema lineal tl 2 8 dz, — 22 + 223 + 324 = 29 +723 — 44 = -7 6z3+5a,= 4 3a,= 6. Despejando z, en la tiltima ecuacién obtenemos 134 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Ly x4 =2 para despejar 22 en la segunda ecuacién: -7-7(-1) +4(2) _ —2 ae. Ahora usamos los valores 73 = 4. z= Finalmente, 21 se obtiene de la primera ecuacién: 20 +1(-4) — 2(-1) - 3(2) ee ee a oe 3. La condicién ay, # 0 es esencial porque en la férmula (6) hay que dividir entre aj. Si este requisito no se cumple, entonces 0 bien no hay solucién o bien hay infinitas soluciones. Bjemplo 3.13. Vamos a probar que el siguiente sistema no tiene solucién: 4a, — 29 + 2n3 +324 = 20 Om, +723 — 44 = -7 (7) &, 6ry+5ea= 4 3aq= 6. Usando la tltima ecuacién de (7), obtenemos «4 = 2, que se sustituye en las ecua- ciones segunda y tercera para obtener Tz3 - 8=-7 8) 2) 623+10= 4. La primera ecuacién de (8) implica que 3 = 1/7 y la segunda implica que 23 = —1 Esta contradiccién nos lleva a la conclusién de que el sistema lineal (7) no tiene solucién. . Hjemplo 3.14. Veamos ahora que el siguiente sistema tiene infinitas soluciones: dz, — 22 + 2x3 +324 = 20 Ory + 723 +024 = —7 9 @ 6r3+5ry= 4 3u= 6. Usando la tiltima ecuacién de (9), tenemos que 7, = 2, que se sustituye en las ecuaciones segunda y tercera para obtener z3 = —1, valor que verifica ambas. Pero ahora resulta que, de las tres tiltimas ecuaciones, s6lo hemos obtenido valores para 23 ¥ Z4 y Cuando sustituimos estos valores en la primera ecuacién de (9), el resultado es la ecuacién (10) zy = 421 — 16, que tiene infinitas soluciones. En resumen, el sistema (9) tiene infinitas soluciones. Para cada valor de x; que elijamos en (10), el valor de zz estar univocamente de- terminado. Por ejemplo, si incluimos la ecuacién 7, = 2 en el sistema (9), entonces obtenemos x2 = —8 en (10). . | | PPL eee TTT SURREY re ee SEC. 3.3 SISTEMAS LINEALES TRIANGULARES 135 El Teorema 3.4 establece que un sistema lineal AX = B, siendo A una matriz de orden N x N, tiene solucién unica si, y sdlo si, det(A) # 0. El siguiente teorema establece que si un elemento de la diagonal principal de una matriz triangular, superior o inferior, es cero, entonces det(A) = 0. Por tanto, viendo cémo son los coeficientes de los tres ejemplos anteriores, queda claro que el sistema del Ejemplo 3.12 tiene solucién tnica y que los sistemas de los Ejemplos 3.13 y 3.14 no tienen solucién tinica. La prueba del Teorema 3.6 puede hallarse en la mayoria de los textos de introduccién al algebra lineal. Teorema 3.6. Si una matriz A = [a;;] de orden N x N es triangular superior 0 inferior, entonces i (11) det(A) = a1a90-+-aww = [J au. a El valor del determinante de la matriz de los coeficientes del Ejemplo 3.12 es det A = 4(—2)(6)(3) = —144. Los valores de los determinantes de las matrices de los coeficientes de los Ejemplos 3.13 y 3.14 son ambos 4(0)(6)(3) = 0. El siguiente programa sirve para resolver un sistema triangular superior como el dado en (1) por el método de sustitucién regresiva, supuesto que ax, #0 parak=1,2,..., N. Programa 3.1 (Sustitucién regresiva). Resolucién de un sistema trian- | gular superior AX = B por el método de sustitucién regresiva. El método funciona sdlo si todos los elementos diagonales son distintos de cero. Primero | se calcula zy = by/anw y luego se usa la regla y | Oke = Dijin MIT) | Zk para k=N-1, N-2, ..., 1. | ek function X=backsub(A,B) % Datos h - A es una matriz triangular superior % invertible de orden nxn % - Bes una matriz de orden nx i % Resultado % - X es la solucién del sistema lineal AX = B % Calculo de la dimensién de B e inicializacién de X n=length(B); X=zeros(n,1); X(n)=B(n)/A(n,n); for ken-1:-1:1 X(k)=(BCk)-A(ke, k+4:n) #X(k+1:n))/A(k,k); end 136 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Ejercicios fn aa LEE En los Ejercicios 1 a 3, resuelva el sistema triangular superior y halle el valor del determinante de la matriz de los coeficientes. 1. 82, —2a2+ a3- m= 8 2. 5a, —322—Trg+ 14 = -14 4a, — 23 +2, =-3 Jaz +923+ 5ay= 22 2ag +324 = 11 3a3 — 13a =—11 bag = 15 Tay= 14 3. 40, — 22+203+204- a5= 4 nz +623 + 204+ 72r5= 0 %3— 24 — 225 3 —2n4— 25 =10 325 = 6 4. (a) Consideremos las dos matrices triangulares superiores [é a2 “a [ bia ms A=|0 az al y B=|0 bar bas). 0, reas: 0 0: bs Pruebe que su producto C = AB es también triangular superior. (b) Sean Ay B dos matrices triangulares superiores de orden N x N. Pruebe que su producto también es triangular superior. 5. Resuelva el sistema triangular inferior AX = B siguiente y calcule det(A). 2a, 6 —a, +422 a5 321 — 22 — 23 =4 my — 2x +603 + 3x4 =2 6. Resuelva el sistema triangular inferior AX = B siguiente y calcule det(A). Say =-10 21+ 802 ar 3a, +422+203 9 = aw =a, + Sag — 60g — 24 = 7. Pruebe que en el método de sustitucién regresiva se realizan N divisiones, (N? — N)/2 multiplicaciones y (N? — N)/2 sumas y restas. Indicacién. Use la formula k= M(M+1)/2. i= SEC. 3.4 ELIMINACION GAUSSIANA Y PIVOTEO 137 Algoritmos y programas 1. Use el Programa 3.1 para resolver el sistema UX = B siendo cos(ij) i

You might also like