You are on page 1of 79
SEC. 3.4 ELIMINACION GAUSSIANA Y PIVOTEO 151 Ejercicios En los Ejercicios 1 a 4 pruebe que AX = B es equivalente al sistema triangular superior UX = ¥ que se da y halle la solucién. 1. 2, +422 6x3 = —4 2x, +402— 6ey= —4 a, +522+323= 10 322+ 6r3= 12 at+3r+205= 5 3c3= 3 2. a+ m2+6%3= 7 m+ t+ Grs= 7 —a,+202+9r3= 2 3a. +15e3= 9 21-202 +323= 10 12zy= 12 3. 22, -2¢2+573= 6 22,—22,+ 5a3= 6 22, +3e,+ r3= 13 bag— 4c3= 7 —2,+4r2-423= 3 0.923 = 1.8 4. —52,+2r2— 23= —1 —5e,+2m—- z= —1 21 + Ore +32; 5 0.429 +2.823= 4.8 3a, + a2+6r3= 17 —10z3 = —10 5. Halle la parébola y = A + Bx + Cz? que pasa por los puntos (1,4), (2,7) y (3,14). 6. fl la parébola y = A + Bx + Cz? que pasa por los puntos (1,6), (2,5) y 3,2). 7. Halle la cibica y = A+ Bz+ Cz? + Dz? que pasa por los puntos (0,0), (1,1), (2,2) y (3,2). En los Ejercicios 8 a 10 pruebe que AX = B es equivalente al sistema triangular superior UX = ¥ que se da y halle la solucién. 8. 42; +82. +429+0r4= 8 4z, +822 +40,+0r= 8 a, +52, +425 —3eq= —4 Say + 3a3—324= —6 a +422 + 7x3 + 204 10 Aas + 4a 12 2, +322 +0r3—2r4= —4 Ts 2 9. 22, +42. —4e3+0ey= 12 20; + 4a, —423+0ry,= 12 ' 2, +52) — 523-3 = 18 322 —303—3a4= 12 322+ a3+3rq= 8 4o3+20,= 0 m,+4n9—-2tg+2e,= 8 324= -6 10. 2 +2m2+0r3- m= 9 a +2e.+0r3- m= 9 Qa, +322— 23+0ry= 9 -22- 23+2m= -9 Oa, +422 +2n3-5r4= 26 ~2z3 + 324 = -10 5a, + 5m, +223-424= 32 1sa,= -3 152 CAP. 3 RESOLUCION DE SISTEMAS LINEALES ids 12. 13. 14. Halle la solucién del siguiente sistema lineal ay + 229 =7 Qa, + 3a2— 23 =e 42 + 2s + 324 = 10 2Qas — dry = 12 Halle la solucién del siguiente sistema lineal a+ 22 = '8' 2a, — 22+ 5a3 -9 Baa — 403 + 2aq = 19 Qn3+6re= 2 Para decidir qué computador comprer, si el ENC 174 0 el MGR 11, una compaiifa ha decidido evaluar la precisiGn con la que cada uno de estos modelos resuelve el sistema 34a + 55y — 21 55a + 89y — 34=0. El computador ENC 174 da como solucién 2 = —O.11e y = 0.45 y, pare comprobar su exactitud se sustituye en el sistema y se obtiene 34(—0.11) + 55(0.45) — 21 = 0.01 35(—0-11) + 89(0.45) — 34 = 0.00. El computador MGR 11 da como solucién 2 = —0.99 e y = LOI y, para comprobar su exactitud se sustituye en el sistema y se obtiene 34(—0.99) + 58(1.01) — 21 —0.99) + 89(1.01) — 34 0.89 1.44. {Qué computador da mejor respuesta? {Por qué? Resuelva los siguientes sistemas lineales usando (i) el método de eliminacién de Gauss con pivote parcial y (ii) el método de eliminacién de Gauss con pivote parcial escalado. fe) Rn— Brat Wley=t fh) art By ee OOH =O z+ 10%2—0.001z3 =0 2Q2,- 522+ 30r3— 0.lay= L 3a; —100z2+ 0.01z3 =0 bzi+ a@2—-10023- 10% = 0 2a, — 10022 — a3+ wm =0 SEC. 3.4 ELIMINACION GAUSSIANA Y PIVOTEO 153 15. La matriz de Hilbert es un ejemplo clésico de matriz mal condicionada: cam- bios pequefios en sus coeficientes provocan cambios grandes en la solucién del sistema perturbado. (a) Calcule la solucién exacta de AX = B (deje todos los ntimeros como fracciones y utilice aritmética exacta) siendo la matriz de los coeficientes la matriz de Hilbert de orden 4 x 4 dada por: Los 3 es ee totes coor (b) Ahora resuelva AX = B usando aritmética en coma flotante con una precisiOn de cuatro cifras decimales y redondeo: 1.0000 0.5000 0.3333 0.2500 1 0.5000 0.8333 0.2500 0.2000] | _ |0 0.3333 0.2300 0.2000 0.1667 = Io 0.2500 0.2000 0.1667 0.1429 0 i Nota. La matriz de coeficientes del apartado (b) es la correspondiente f aproximacién a la matriz de coeficientes del apartado (a). Algoritmos y programas 1. En muchas aplicaciones nos encontramos con matrices que tienen muchos ceros. Son particularmente importantes los sistemas tridiagonales (véanse los Ejercicios 11 y 12), que son los de la forma dye, + e122 yz, + dere + c2t3 QZ2 + dary + C3rq an—-2tN-2 + dy-1tN-1 + ¢n-1tN = by-1 +dyzy ay-15N Construya un programa que resuelva un sistema tridiagonal. Puede suponer que no hace falta intercambiar filas, de manera que la fila k-ésima puede usarse para eliminar la incégnita c en la fila siguiente. 154 OAP.3 RESOLUCION DE SISTEMAS LINEALES . Use el Programa 3.2 para hallar el polinomio de grado seis y = a; + a2z + asz? + 042° + asx‘ + agz* + a7z® que pasa por los puntos (0,1), (1,3), (2,2), (3,1), (4,3); (5,2) y (6, 1). Use la instruccién plot para dibujar el polinomio obtenido y los puntos dados sobre la misma gréfica. Explique las discrepancias que puedan aparecer en su dibujo. . Use el Programa 3.2 para resolver el sistema lineal AX = B, siendo A = [oijlx con aig = 2? y B= [by]nxi con bu = N y ba aN-2/(—1) para i > 2, en los casos N = 3,7 y 11. Sabiendo que la solucin exacta es ott ws. 2 1]', explique las desviaciones de la solucién calculada. |. Construya un programa que cambie la estrategia de pivoteo parcial del Pro- grama 3.2 por la estrategia de pivoteo parcial escalado. . Use su programa con la estrategia de pivote parcial escalado del Problema 4 para resolver el sistema dado en el Problema 3 con N = 11. Explique las mejoras que obtenga en las soluciones. . Modifique el Programa 3.2 de manera que resuelva eficientemente M sistemas lineales AX,=Bi, AX:=B,, ... y AXw=Bu. que tengan la misma matriz de coeficientes A pero diferentes matrices B. - La discusion que sigue se plantea con una matric A de orden 3 x-3, pero se puede aplicar a matrices de orden N x N. Si A es invertible, entonces “A- existe y cumple AA~* = I. Sean Ci, C2 y Cs las columnas de A™* y sean E;,E y Es las columnas de I, entonces la relacién AA™* = I puede representarse como A[C: Cy Cs]=[Ei: Ex Es] Este producto matricial es equivalente a los tres sistemas lineales AC,=E,, AC,=Bz, y AC3=Es, de manera que hallar A~? es equivalente a resolver estos tres sistemas. Usando el Programa 3.2 0 su programa del Problema 6, halle la inversa de cada una de las siguientes matrices y compruebe su respuesta calculando los correspondientes productos AA™* as{ como usando la instruccién inv (A). Explique las diferencias que aparezcan. 56 16-120 240 -140 (a) |3 25 (by) [7120 1200 =2700 1680 to 0) ) | 240 -2700 6480 -4200 -140 1680 —4200 2800. 3.5 SEC. 3.5 FACTORIZACION TRIANGULAR, 155 Factorizacién triangular En la Seccién 3.3 vimos lo facil que resulta resolver un sistema triangular su- perior. Ahora introduciremos el concepto de factorizacién triangular de una matriz: la posibilidad de escribir una matriz dada A como el producto de una matriz triangular inferior L, cuyos elementos en la diagonal principal son todos iguales a 1, por una matriz triangular superior U, cuyos elementos diagonales son distintos de cero. Para facilitar la notacién, ilustraremos los conceptos con matrices de orden 4 x 4, pero se aplican a matrices de orden arbitrario N x NV. Definicién 3.4. Diremos que una matriz invertible A admite una factori- zacién triangular o factorizacion LU si puede expresarse como el producto de una matriz triangular inferior L, cuyos elementos diagonales son todos iguales a 1, por una matriz triangular superior U: (a) A=LU, o, escrito de manera desarrollada, Qi aiz 413 Aig 1 0 0 Of furr ti2 tis tre 491 G22 G23 Ges} _ |moi 1 0 Of | 0 us2 ua uae 431 G32 33 sq ™s1 ™s2 1 0) | 0 O uss usg a4, 42 243 aaa] [mgr mz mag 1] 10 0 0 esl La condicién de que A sea invertible implica que use # 0 para todo k. La notacién para los elementos de L es mij; la razén para elegir mj en vez de li; la daremos enseguida. Solucién de un sistema lineal Supongamos que la matriz de los coeficientes A de un sistema lineal AX = B admite una factorizacién triangular como la de (1), entonces la solucién de (2) LUX =B puede obtenerse definiendo ¥ = UX y resolviendo dos sistemas lineales: (3) primero se hallaY en LY =B y luego X enUX=Y. En forma desarrollada, primero debemos resolver el sistema triangular inferior nh mays + 2 m3iy1 + Ms32y2 + ys marys + Maaye + Masys + ya = bs (4) 156 Cap. 3 RESOLUCION DE SISTEMAS LINEALES para obtener y:, Yy2, ys € Ys Y, Una vez que los tenemos, resolver el sistema triangular superior Uyity + Ur2t2 + Uists + Uiate = Ug2T2 + Uaats + urate = Yo ‘Us3©3 + Usala = YS Usata = Ya- (3) Ejemplo 3.20. Vamos a resolver m+ 2np+ 4ag+ 2q= 21 Qa, + Br2+ 6x3 + 4x4 = 52 3a, +10r2+ 82g +824 =79 4a, + 1222 + 10z9 + 624 = 82, usando el método descrito antes y sabiendo que la matriz de los coeficientes admite Ja factorizacién triangular if Baap pe eo fie. oe 2 8 6 4|_|2 10 oj |o 4 -2 2] _ 310 8 8|—|3 11 0|]o 0 -2 3) —77 412 10 6| [412 1}|0 0 0 -6 n 2y. +2 By tuet Ys 4y: + 42 + 2ys + Ys = 82, (6) obteniendo y: = 21, yz = 52—2(21) = 10, ys = 79 - 3(21) -10=6 em = 82 — 4(21) — 10 - 2(6) = -24, 0 sea, ¥ = [21 10 6 —24]’. Ahora escribimos el sistema UX =Y: a, +2%met4ey+ 2y= 21 dary —2a3+224= 10 —2r3+3%,= 6 62, = -24 @) y, con el método de sustitucién regresiva, calculamos la solucién zs = —24/(—6)= 4, 23 = (6—3(4))/(—2) = 3, 22 = (10—2(4) +2(3))/4 = 2y a, = 21—-4—-4(3)—2(2 oseaX=[1 2 3 4], . Sec. 3.5 FACTORIZACION TRIANGULAR, 157 Factorizacién triangular Ahora discutiremos la manera de obtener factorizaciones triangulares. Si no hace falta realizar intercambios de filas cuando usamos eliminacién gaussiana, entonces los multiplicadores mj; son los elementos subdiagonales de L Ejemplo 3.21. Vamos a usar el método de eliminacién de Gauss para construir la factorizacién triangular de la matriz 4 3 -1 A=|-2 -4 5 de 8 La matriz L se construye sobre una matriz identidad que ponemos a la izquierda: cada vez que realicemos una operacién con las filas en la construccién de la matriz triangular superior, colocamos el multiplicador mi; utilizado en la posicién que le corresponde en la matriz de la izquierda. Empezamos con 100 4 & -1 0 1 0) |-2 -4 5 oO A ee Usando la primera fila para eliminar los elementos de la primera columna de A que estén por debajo del elemento diagonal a;1, los multiplicadores son, respecti- vamente, m2, = —0.5 y ma, = 0.25. Estos multiplicadores se ponen en la matriz de la izquierda y el resultado es: 10 Oj [4 a -05 1 0] /0 -25 43]. 0.25 0 1) [0 1.25 6.25 Ahora usamos la segunda fila para eliminar el elemento de la segunda columna de la matriz de la derecha que est debajo del elemento diagonal. El multiplicador es m2 = 0.5 que, al ponerlo en su posicidn en la matriz de la izquierda, nos da la factorizacién triangular deseada: 0 9} 4 $41 1 0] jo -25 45]. —0.5 1 oO} 0-83 A A (8) Teorema 3.10 (Factorizacién directa A = LU sin intercambios de filas). Supongamos que podemos llevar a cabo hasta el final el proceso de eliminacién gaussiana, sin intercambios de filas, para resolver un sistema de ecuaciones lineales cualquiera AX = B. Entonces la matriz A puede facto- rizarse como el producto de una matriz triangular inferior L por una matriz triangular superior U; es decir, A = LU. 158 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Es més, L puede ser construida de manera que sus elementos diagonales son todos iguales a1 y U tiene todos sus elementos diagonales distintos de cero. Una vez halladas L y U, la solucién X puede calcularse en dos pasos: 1. Hallar ¥ resolviendo LY = B con el método de sustitucién progresiva. 2. Hallar X resolviendo UX = ¥ con el método de sustitucién regresiva. Demostracién. Probaremos que, cuando el proceso de eliminacién gaussiana puede llevarse a cabo hasta el final en la matriz ampliada que se obtiene aiiadiendo la columna B a la matriz A, entonces los elementos subdiagonales de L coinciden con los multiplicadores.correspondientes que se usan en la elimina- cidn, la matriz triangular superior U es la matriz de los coeficientes del sistema triangular superior UX = Y obtenido al final del proceso de eliminacién y el segundo miembro de este sistema es, precisamente, el vector ¥ solucién del sistema que hay que resolver en el paso 1 mencionado al final del enunciado. Las matrices L,U,B e ¥ serén, entonces, Ei at) 0 alt ee fae x. 7 0 ates Ja liplamey © cewlle on we hah my ™n2 myg -+- 1 ava 4) a (ay a7 As “* @n Orne (2) (2) (2) (2; 0 ak alp af athe (3) (3) (3) Ve 0 o 933 “Man | , Y = | %Na1 19 kQs 3, L Observacién. Si s6lo queremos calcular las matrices L y U de la factorizacién, entonces la columna (.V + 1)-ésima no es necesaria. Paso 1. Almacenamos los coeficientes en la matriz ampliada; el superindice (1) de af?) sefiala que ésta es la primera vez que se almacena un numero en la ea 4 SEC. 3.5 FACTORIZACION TRIANGULAR 159 posicién (rc). (0 alt Y | oft ap af afd ath | atthe 4 g(t y | 9 ap af ag? ab | abRas aw 4 alt y | aft af ap afd afk | aha: a oa) 4a 1) | 4. ay ake aka Wh | aves Paso 2. Eliminamos la incégnita 2, en todas las filas desde la segunda hasta la diltima y, en la posicién (r, 1) de la matriz, almacenamos el multiplicador mp1 usado para eliminar z; en la fila r-ésima. Deseribiremos este paso como si fueran instrucciones del paquete MATLAB: forr =2:N 1) jal my = a2 /ai?s Op = Mr1} fore :N+1 a2 = ol) — ma sald; end end El superindice (2) de los elementos nuevos a!2) sefiala que ésta es la segunda vez que se almacena un mimero en la posicidn (r,c) de la matriz. Después del paso 2, la matriz queda: (2) (1) (1) (2) (2), RY ig Sis +> Oi | Stet (2) 402) (2) | 4(2) Ma 932 993 In | IaNar (2) (2) (2) | (2) ™s1 G32 O33 *** On | Sg vi 2) (2 (2) mur aN) aN3 7 ay Paso 3. Eliminamos la incdgnita 7 en todas las filas desde la tercera hasta la tiltima y, en la posicién (r, 2) de la matriz, almacenamos el multiplicador m,2 usado para eliminar zg en la fila r-ésima: forr=3:N (2) 7(2), Mra = O79 /O323 Org = Mra = 160 Cap. 3 RESOLUCION DE SISTEMAS LINEALES fore=3:N+1 af) = al? — mrp + a2); end end El superindice (3) de los elementos nuevos a/®) sefiala que ésta es la tercera vez que se almacena un mimero en la posicién (r,c) de la matriz. Después del paso 3, la matriz queda: a 4g y | ap ad al? ald | ath (2) (2) @ | 42 Oa: ga: als mans San ay feat 3 3 3 mar maa agg > aw | ay iran 3) 3 3) my mya ay > ay | aban Paso q +1. Este es el paso general: Eliminamos la incégnita x, en todas las filas desde la g-ésima hasta la ultima y, en la posicién (r,q) de la matriz, almacenamos el multiplicador mg usado para eliminar 2, en la fila r-ésima: forr=q+1:N ang ase; = ald — Mpg + af; El resultado final, tras haber eliminado zy_ de la tiltima fila es a) al) a (ay | ga) a2 Ms + Gin | Svat (2) (2) 2 2) mn a a aft | aha (3 3) | 4) ma, men af s+ ah | aban aii ; cy) | 4) vi Mya mys «++ awe | aN Nar El proceso de triangularizacién ya esté completo. Hagamos notar que s6lo hemos necesitado una matriz para almacenar todos los elementos de L y U: no se guardan los unos de la diagonal de L ni los ceros que hay en L y U por encima SEC. 3.5 FACTORIZACION TRIANGULAR 161 y por debajo de la diagonal principal, respectivamente; jsdlo se almacenan los coeficientes esenciales para reconstruir L y U! Debemos comprobar que LU = A. Sea D = LU y consideremos el caso en que r c, se prueba de manera parecida. La equivalencia de los sistemas AX = B y UX = ¥ y la factorizaciéa A = UL prueban que la ultima columna de la matriz ampliada del final del proceso es la solucién Y del sistema LY = B. En otras palabras, el efecto del proceso de eliminacién gaussiana en la ltima columna de la matriz ampliada es, precisamente, el algoritmo de sustitucin progresiva del sistema LY = B. « Complejidad computacional El proceso de triangularizacién es el mismo para la eliminacién gaussiana que para el método de factorizacidn triangular. Contaremos el nimero de opera- ciones necesarias para realizar el proceso descrito en el Teorema 3.10, fijéndonos solo en las N primeras columnas de la matriz ampliada. El bucle exterior del paso p +1 conlleva N —q¢ = N —(q+1) +1 divisiones para calcular los mul- tiplicadores mq; en el bucle interior, pero sélo para las primeras N columnas, el céleulo de los nuevos elementos a‘%*) conlleva un total de (N — 4)(N - 4) multiplicaciones y otras tantas substracciones. Puesto que este proceso se rea- liza para q= 1, 2,..., N—1, tenemos que la factorizacién triangular A = LU conlleva N=1 ay wW-g(N-9¢4+)= multiplicaciones y divisiones 162 Cap.3 RESOLUCION DE SISTEMAS LINEALES ¥ va 2N3 —3N?2+N (2) Sov pay —@) = 22 STEN sustracciones. = Para establecer (11) usamos las siguientes formulas de sumacién: San MD Soe MUL DGM ED ae * = 6 = = Haciendo el cambio de variables k = N — g, podemos escribir (11) como ya wa ya Sw aN-a+)= DW-9+ LW-e = = Una prueba similar permite establecer (12). ‘Una vez obtenida la factorizacién triangular A = LU, la solucin del sis- tema triangular inferior LY = B conlleva 0+1+--- + N-1=(N?—-N)/2 multiplicaciones y substracciones; no hacen falta divisiones porque los elemen- tos diagonales de L son todos iguales a 1. Finalmente, la solucién del sistema triangular superior UX = ¥ conlleva 1+2+---+N=(N?+N)/2 multipli- caciones y divisiones y (IN? — N)/2 substracciones. En consecuencia, el célculo Ge la solucién de LUX = B, una vez que se tienen L y U conlleva 'N? multiplicaciones y divisiones y N? — N substracciones. Vemos, entonces, que la mayor parte del coste computacional recae en el célculo de la factorizacién triangular. Si debemos resolver varios sistemas que tienen la misma matriz de coeficientes A pero diferentes columnas B de términos independientes, no es necesario hacer la factorizacién cada vez; basta con har cerla la primera vez y almacenar los factores. Esta es la razdn por la que se suele elegir el método de la factorizacién triangular antes que el método de climinacion de Gauss; sin embargo, si s6lo hay que resolver un sistema de fecuaciones, entonces los dos métodos son iguales, salvo que en la factorizacién triangular se guardan los multiplicadores. Sec. 3.5 FACTORIZACION TRIANGULAR 163 Matrices de permutacion Para llevar a cabo el proceso de factorizacién A = LU descrito en el Teo- rema 3.10 hemos supuesto que no se hacen intercambios de filas. Puede ocurrir que una matriz invertible A no admita factorizacién A = LU. Ejemplo 3.22. Vamos a probar que la siguiente matriz A no admite factorizacién A=LU, 12 6 A=| 48 - -2 3 Supongamos que A sf admite factorizacién A = LU, o sea, fit at 6 1 0 0) fur the us (13) 4 8 -1]=|ma 1 0] | 0 use was}. 23 5 ms, ms2 1] [0 0 uss Si hacemos el producto de las matrices L y U del miembro derecho de (13) y comparamos los elementos del producto con los elementos correspondientes de A, nos queda lo siguiente: En la primera columna, 1 = Lui, después 4 = maui: = ma y, finalmente, —2 = marui: = ma:. En la segunda columna, 2 = luz, luego = may u12 = (4)(2) +uzz, lo cual implica que uzz = 0 y, finalmente, 3 = msiui2 + maztiag = (—2)(2) + ma2(0) = —4, que es una contradiccién. En consecuencia, A no admite factorizacién triangular. . Una permutacién de los N primeros ntimeros naturales 1, 2,..., N es un cambio de orden ky, ka, ..., kw de éstos. Por ejemplo, 1,4,2,3,5 es una per- mutacién de 1,2,3,4,5. En la siguiente definicién usaremos también la base canénica del espacio RY formada por los vectores E; = [00 --- 01,0 --- 0], donde el subindice i sefiala la posicién, para i = 1, 2, ..., N. Definicién 3.5. Una matriz de permutacién P es una matriz de orden Nx N tal que en cada fila y en cada columna sdlo tiene un elemento igual a 1 siendo todos los demés iguales a cero. Las filas de P son, entonces, una permutacién de las filas de la matriz identidad y P puede escribirse como (14) P=(E\, E,, -» Ethyl’: siendo ky, kg, ..., ky la permutacién de 1, 2, ..., Ven cuyo caso, los elementos de P = [pi;] son de la forma _fi aij=h, P= V0 en otro caso. 164 CaP. 3 RESOLUCION DE SISTEMAS LINEALES Por ejemplo, la siguiente matriz de orden 4 x 4 es una matriz de permutacion, 0-150 . 1000 Sg ee ee? (15) 000 1;7 2 Hi Ba Fi] a oo10 Teorema 3.11. Supongamos que P = (KE, Ej, --- Eiy]’ es una matriz de permutacién. Entonces PA es la matriz que se obtiene permutando las filas de A en el mismo orden: filag, A,filag, A,...,filary A- Ejemplo 3.23. Sea A una matriz de orden 4x 4y sea P la matriz de permutacion dada en (15), entonces PA es la matriz que se obtiene permutando las filas de A en el mismo orden: fila A, fila; A, fila, A, filas A. Calculando el producto tenemos 0 1 0 O} fai aie ais a4 az, G22 G23 24 1 0 0 O} Jaz a2 a3 ae4| _ [a1 12 Gig Ane 0 0 0 1] Jag, as2 ass asa) jaar az Gas O44 0 0 1 Of [a4 a2 G43 aaa. 31 G32 G33 G34, . Teorema 3.12. Si P es una matriz de permutacién, entonces es invertible y se tiene que P~! = P’. Teorema 3.13. Si A es una matriz invertible, entonces existe una matriz de permutacién P tal que PA admite una factorizacién triangular (16) PA=LU. Las demostraciones de estos teorema pueden hallarse en los libros de algebra lineal de cardcter avanzado. Ejemplo 3.24. Si intercambiamos las files segunda y tercera de la matriz del Ejemplo 3.22, entonces la matriz resultante PA sf admite factorizacién triangular. La matriz de permutacién P que intercambia las filas segunda y tercera es P=(E, Bs E’]'. Calculando el producto PA, obtenemos H.6 OY) £2 8 i 48) 6 PA=|0 0 1|| 4 8 -1)/=|-2 3 3). o1o0j[23 6 48 - Ahora podemos usar el proceso de eliminacién gaussiana sin intercambio de filas: pivte> [12 6 mn =-2|-2 3 5]. SEC. 3.5 FACTORIZACION TRIANGULAR 165 Al final de este paso nos encontramos con que zz ya est eliminado de la tercera ecuacién, asi que no hay que hacer el siguiente (el multiplicador msg es cero) Lah V8 pivote+ |O0 _7 17] =U. mn=0 [0 0 —25 < Extension del proceso de eliminacién gaussiana El siguiente teorema es una extensién del Teorema 3.10 que incluye el caso en que es necesario, 0 conveniente, realizar intercambios de filas. El teorema nos dice, en particular, que podemos usar el método de factorizacién triangular para resolver un sistema lineal cualquiera AX = B en el que A sea invertible. Teorema 3.14 (Factorizacién indirecta: PA = LU). Sea A una matriz de orden N x N. Supongamos que el proceso de eliminacién gaussiana puede llevarse a cabo hasta el final para resolver un sistema cualquiera AX = B, pero que hemos realizado intercambios de filas. Entonces existe una matriz de permutacién P (la que recoge todos los intercambios de filas realizados) tal que el producto PA puede factorizarse como el producto de una matriz triangular inferior L por una matriz triangular superior U- PA=LU. Es més, L puede ser construida de manera que sus elementos diagonales son todos iguales a 1 y U tiene elementos diagonales distintos de cero. La solu- cién X puede hallarse en cuatro pasos: 1. Construir las matrices L,U y P. 2. Calcular el vector columna PB. 3. Hallar Y resolviendo LY = PB con el algoritmo de sustitucién progresiva. 4, Hallar X resolviendo UX = ¥ con el algoritmo de sustitucién regresiva. Observacién. Supongamos que debemos resolver AX = B para una matriz fija Ay varias matrices-columna B. Entonces el primer paso sélo se lleva a cabo una vez y los pasos segundo a cuarto se usan para hallar la solucién X que corresponde a cada B. Una ver dado el primer paso, los pasos dos a cuatro constituyen un método muy eficaz desde el punto de vista computacional porque s6lo requieren del orden de O(N) operaciones, en vez de las O(N) operaciones que se requieren en el proceso de eliminacién gaussiana del sistema completo. MATLAB La instruccién [L,U,P]=1u(A) del paquete MATLAB proporciona, usando el método de eliminacién de Gauss con pivote parcial, la matriz triangular inferior L, la matriz triangular superior U y la matriz de permutacién P de la factori- zacién PA = LU dada en el Teorema 3.14. 166 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Hjemplo 3.25. Vamos a aplicar la instruccién [L,U,P]=1u(A) a la matriz A del Ejemplo 3.22; comprobaremos que A = P~1LU (lo que es equivalente a probar que PA = LU). >>A=[1 2 6 j4 8 -1;-2 3 -5]; >>[L,U,P]=1u(A) Ls 1.0000 0 0 -0.5000 1.0000 0 0.2500 0 1.0000 4.0000 8.0000 -1.0000 ° 7.0000 4.5000 ° ° 6.2500 Como indicamos antes, se suele preferir el método de factorizacién triangu- lar indirecta antes que el método de eliminacién. La factorizacién triangular indirecta también se usa en las instrucciones inv(A) y det (A) del paquete MAT- LAB. Por ejemplo, sabemos que el determinante de una matriz no singular A es igual a (-1)? det(U), siendo U la matriz triangular superior de la factorizacion triangular indirecta y p el nimero de intercambios de filas necesarios que hay que realizar en la matriz identidad I para obtener P. Puesto que U es una matriz triangular, el determinante de U es simplemente el producto de los elementos de su diagonal principal (Teorema 3.6). Dejamos como ejercicio la verificacién de que det(A) = 175 = (—1)?(175) = (—1)? det(U) en el Ejemplo 3.25. En el siguiente programa se construye el proceso descrito en la prueba del Teorema 3.10 pero incluyendo la estrategia de pivoteo parcial, por lo que consti- tuye una extensién del Programa 3.2. El intercambio de filas debido al pivoteo parcial se almacena en la matriz R que luego se usa en la sustitucién progresive para hallar la matriz Y. [Programa 8.8 (PA = LU: factorizacién con pivoteo). Célulo de ia| | solucién de un sistema lineal AX = B cuando la matriz Aes invertible. | function X = lufact(A,B) % Datos % - Aes una matriz de orden N x N sdeantgnenie acne tical acne HEP asi ae Scns MAR NR va ees a re tec aeinlea arebedabta ell SEC. 3.5 FACTORIZACION TRIANGULAR, 167 h - B es una matriz de orden N x 1 % Resultado h - X es la matriz de orden N x 1 solucién de AX =B. Inicializamos X, Y, la matriz de almacenamiento temporal C y % la matriz fila R donde se registran los intercambios de filas (N,N]=size(A); X=zeros(N,1); Y=zeros(N,1); eros(1,N); for q=i:N-1 % Determinacién de la fila pivote para la columna q-ésima (maxi, j]=max(abs(A(q:N,q))); Intercambio de las filas q-ésima y j-ésima C=A(q,:)5 A(q,:)=ACj+a-4,2)5 ACj+qr-4, :)=C; d=R(q); R(q)=R(j+a-1) 5 R¢jtqrt)=ad; if ACa@ 2A es singular, no hay solucién o no es tnica’ break end % Célculo del multiplicador, % que se guarda en la parte subdiagonal de A for k=qti:N mult=A(k,q)/A(q,q)5 A(k,q) = mult; ACe, qti:NJ=A(k,qtt:N)-mult*a(q,q+t:N) j end end % Resolucién para hallar Y ¥(1) = B(R(4)); N 168 Cap. 3 RESOLUCION DE SISTEMAS LINEALES 1. Resuelva LY = B,UX = ¥ y compruebe que se verifica B = AX para (a) B=(-4 10 3]'y (b) B= [20 49 32)’, donde A= LU es 24 -6 1 0 oO} [2 4 - 15 3/=|1/2 1 of fo 3 6. Ba) (tae Ts Alo os: 2, Resuclva LY = BUX = ¥ y compruebe,que se verifica B = AX para (a) B=[7 2 10 y()B $0 aN8) 1 oO o}f11 6 -1 2 9{=|-1 1 0] jo 3 15). 1-2 8 1 -1 1 [0 0 12 3. Halle la factorizacién triangular A= LU de las siguientes matrices 5 2 = aie (a) | 10 3 (ay | a 6 a 6 -5 2 - 4, Halle la factorizacién triangular A = LU de las siguientes matrices 4 2 1 1 -2 T (a) F 3 | (b) F 2 { 1-2 2 35 (23 35 7)’, donde A = LU es 5. Resuelva LY = B,UX = ¥ y compruebe que se verifica B = AX para (a) B=(8 -4 10 —4]'y (b) B=(28 13 23 4]', donde A=LU es 484 0 10 0 0}f4 84 O 15 4 -3 i To DO} Oe Se 8 Lhe Be i 1 0} {0 0 4 4y° {2 30 -2 £3 -41Jfoo00 1 6. Halle la factorizacin triangular A = LU de la matriz k 104 Blew Dl 5 212 -3 26 7. Establezca la formula que aparece en (12). 8. Pruebe que una factorizacién triangular es tinica en el siguiente sentido: Si A es invertible y L{U, = A = L2U2, entonces Ly = La y Ui = 9. Demuestre el caso r > c que quedé pendiente en el Teorema 3.10. sts SAS rh een ne RMR ad ida SEC. 3.5 FACTORIZACION TRIANGULAR, 169 10. (a) Compruebe que se verifica el Teorema 3.12 probando que se verifica PP! =I = P'P para la matriz de permutacion Hooco 0 0 i” 0 cored coor (b) Pruebe el Teorema 3.12. Indicacién. Use la definicién de producto de matrices y el hecho de que cada fila y cada columna de P y P’ contiene exactamente un elemento igual a 1. 11. Pruebe que la inversa de una matriz triangular superior e invertible de orden N x N también es triangular superior. k 5 f E Algoritmos y programas 1. Utilice el Programa 3.3 para resolver el sistema AX = B, siendo 2 2 @.% e 21 305) 2 2/8 c 8 Soe oR PS 2-6 -3 1 4 Luego utilice la instruccién [L,U,P]=1u(A) para comprobar su respuesta. 2. Use el Programa 3.3 para resolver el sistema lineal AX = B, siendo A = NxN Con aj; = i> ily x1 Con by, = N y by =i%—?/(i—1) para i > 2, Hégalo en los casos N = 3,7 y 11. Sabiendo que la solucién exacta es X = [1 1... 1 1], explique cualquier desviacién que aparezca entre la solucién exacta y la calculada. 3. Modifique el Programa 3.3 de manera que calcule A~? resolviendo N sistemas de ecuaciones lineales AC;=E; para J=1, 2,..., N Con lo cual A[C, C1 By] ¥; Por tanto, aC Cy as, Cn]. jDebe calcular la factorizacién A = LU sélo una vez! 170 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Figura 3.5 La red eléctrica del Ejercicio 4. 4. La ley de Kirchhoff para el voltaje aplicada al circuito que se muestra en le Figura 3.5 produce el siguiente sistema de ecuaciones: (Ri + Rot Ra) + Ral + Ral = Ex a7 Rely +(Ra+ Rs + Rs) — Rslg = Ea Rah - Reso + (Ra + Rs + Ro) Is = 0. Use el Programa 3.3 para hallar las intensidades de corriente J;, In Js en los siguientes casos: (a) Ri =1, R2=1, By =2,Rq=1, Rs =2, Ro =4, B= By Ea = 29 (b) Ri=1, Ra 2, Rg =1, Ro =4, B= 12y Ry = 215 (c) Ri =1, Ro =2, Ry =4,Ra = 3, Rs 1,Re=5 Ey, =4ly = 38. 5. Las técnicas de célculo infinitesimal nos dicen que la siguiente integral se de- termina descomponiendo el denominador en fracciones simples +042 G-)e-De-aey Esto requerirfa hallar los coeficientes Aj, para i= 1, 2, ..., 6, en la expresién 2 tet (= 1) — 2)@ — 3)*(z? + 1) Ay Aa Ba 2, Be Asa + Ag -G-)*G-0*@- E-) SF” Use el Programa 3.3 para hallar los coeficientes de las fracciones simples. 6. Use el Programa 3.3 para resolver el sistema lineal AX = B, donde A se gene- ra mediante la instruccién A=rand(10,10) yB=[1 23... 10]? del paquete MATLAB. Recuerde que debe verificar que A es invertible (det (a) # 0) antes de usar el Programa 3.3. Compruebe la precisién de su respuesta formando ‘Ti catalase ili AE RS lye Gotan an Se Let pacha eat okt Al Sec. 3.6 MéTODOS ITERATIVOS PARA SISTEMAS LINEALES 171 la diferencia de matrices AX — B y examinando cuénto de cerca estén sus elementos de cero (una respuesta exacta darfa AX — B = 0). Repita el ejercicio usando una matriz de coeficientes A generada mediante la instruccién A=rand(20,20) y B=[1 2 3 20)’. Explique las diferencias que puedan aparecer en la precisién de las soluciones obtenidas con el Programa 3.3 en estos dos sistemas. 7. En la relacién (8) de la Seccidn 3.1 definimos el concepto de combinacién lineal en el espacio V-dimensional. Por ejemplo, el vector (4, ~3), que es equivalente ala matriz [4 —3]’, puede ser escrito como combinacién lineal de los vectores {2 oj'y [0 1)’: [J-«E]~- ff Use el Programa 3.3 para probar que la matriz-columna [1 3 5 7 9]' puede ser escrita como combinacién lineal de las matrices-columna oO} [2] 7s 5 t 4} fo] |2 6 4 -2), ]o), Jo}, |-3] y |-2 3} jal [5 0 T -1| [4] Lt 2 0 Explique por qué cualquier matriz-columna [z, 22 23 x4 as]' puede ser escrita com6 combinacién lineal de las matrices anteriores. Métodos iterativos para sistemas lineales El objetivo de esta seccién es el extender a espacios de dimensién mayor que uno algunos de los métodos iterativos introducidos en el Capitulo 2. Consideraremos extensiones del método de iteracién de punto Ajo que se aplican a sistemas de ecuaciones lineales. Método de iteracién de Jacobi Ejemplo 3.26. Consideremos el sistema de ecuaciones 4c—- yt z= 7 (a) 4z—8y+ 2 2e+ yt5z= 15 172 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Estas ecuaciones las podemos escribir como Set = ae QM+4e+ (2) yee _154+22-y z * lo que sugiere el siguiente proceso iterativo: T+ sis twee 2+ 424 +21 ) tae = ian ask =U ‘Vamos a comprobar que si empezamos con Po = (20, yo, 0) = (1,2, 2), entonces la iteracién (3) parece converger a la solucién (2, 4,3). Sustituyendo zo = 1, yo = 2 y 2) = 2 en el miembro derecho de la relacién (3), obtenemos tas 3.00. El nuevo punto P; = (1.75, 3.375, 3.00) esté més cerca de (2,4,3) que Po. Enla Tabla 3.2 se muestra cémo los puntos {Px} generados por la iteracién (3) convergen a (2,4,3). . Este proceso se conoce como método de iteracién de Jacobi y puede usarse para resolver algunas clases de sistemas de ecuaciones lineales. Tras 19 pasos, vernos que, al aplicarlo al sistema (3), conseguimos 9 cifras decimales de aproximacién (2.00000000, 4.00000000, 300000000). En la resolucién numérica de ecuaciones en derivadas parciales suelen apare- cer sistemas de ecuaciones lineales con incluso 100000 incégnitas; en estos sis- temas la matriz de los coeficientes es dispersa; es decir, un alto porcentaje de los elementos de la matriz son iguales a cero. Si hay algiin tipo de patrén en la distribucién de los elementos distintos de cero (ejemplo: los sistemas tridiago- nales), entonces un método iterativo puede resultar muy eficaz en la resolucin de estos sistemas tan enormes. Algunas veces el método iterativo de Jacobi no funciona. Vamos a realizar un experimento para comprobar que una reordenacién de las ecuaciones del sis- tema original puede tener como consecuencia que el método iterativo de Jacobi aplicado al nuevo sistema produzca un sucesién de puntos divergente. SEC. 3.6 METODOS ITERATIVOS PARA SISTEMAS LINEALES 173 Tabla 3.2 Convergencia del método iterativo de Jacobi para el sistema (1). k Zk Ue a 0 1.0 | 2.0 2.0 t 1.75 3.375 3.0 2 1.84375 3.875 3.025 3 1.9625 3.925 2.9625 4 1,99062500 3.97656250 3.00000000 5 1.99414063 3.99531250 3.00093750 15 1.99999993 3.99999985 2.99999993 19 2.00000000 4.00000000 3.000000 Ejemplo 3.27. Reordenemos el sistema (1) como sigue: ~2e+ ytbr= 15 (4) 4 —8y+ 2 = -21 4c—yt2= 7. Si escribimos estas ecuaciones como (3) entonces el método iterativo de Jacobi es, en este caso, =15 + yn +52 Zest 3 21+ 45 +2 6) Yer = Boe Ze. = 7 — 4rK + Yee Veamos que si empezamos con el punto Po = (z0,Yo.20) = (1,2,2), entonces el proceso iterativo (6) diverge. 174 Cap. 3 RESOLUCION DE SISTEMAS LINEALES Tabla 3.3 Divergencia del método iterativo de Jacobi pare el sistema (4). rk Ue zh 0 2.0 2.0 1 | 3.375 5.0 2 2.5 16.375 3 x 8.015625 =17.25 4 —46.617188 17.8125 -123.73438 5 | —307.929688 —36.150391 211.28125 6 502.62793 —124.929688 1202.56836 Sustituimos zo = 1, yo = 2 y zo = 2 en el miembro derecho de (6) y obtenemos los nuevos valores 71, yi y 2: siguientes: lb aS _21+442 u= se m= 7-44+2= 5.00. El nuevo punto P: = (~1.5, 3.375, 5.00) esté mas lejos de la solucién (2, 4,3) que Po- De hecho, el proceso iterativo (6) diverge como se muestra en la Tabla 3.3. . Método iterativo de Gauss-Seidel Algunas veces podemos acelerar la convergencia. Observemos que en el método iterativo de Jacobi (3) produce tres sucesiones {2}. {yx} y {ze} que convergen, respectivamente a 2,4 y 3 (véase la Tabla 3.2). Puesto que z+: es, probable- mente, mejor aproximacién al limite que x», seria razonable usar z,+1 en vez de 2, a la hora de calcular yz: y, de forma semejante, seria mejor usar z,+1 nei en el célculo de z,~1. El siguiente ejemplo muestra lo que ocurre cuando se aplica este razonamiento al sistema de ecuaciones del Ejemplo 3.26. Ejemplo 3.28. Consideremos el sistema de ecuaciones dado en (1) y el proceso iterativo, llamado método de Gauss-Seidel, sugerido por (2): T+ur-4 eA oe ia 21+ 4ns1 + 21 @ a 15+2z, Zaha = i mle SEC. 3.6 METODOS ITERATIVOS PARA SISTEMAS LINEALES 175 Tabla 3.4 Convergencia del método iterativo de Gauss-Seidel para el sistema (1). k Te Uk 2k 0 10 2.0 2.0 1 1.75 3.75 2.95 2 1.95 3.96875 2.98625 3 1.995625, 3.99609375 2.99903125 | : : : 8 1.99999983 3.99999988 2.99999996 9 1.99999998 3.99999999 3.00000000 10 2.00000000 4.00000000 3.00000000 ‘Veamos que si empezamos con Po = (20, yo, 20) = (1,2,2), entonces el proceso iterativo (7) converge a la solucién (2, 4,3). Sustituyendo yo = 2 y 20 = 2 en la primera ecuacién de (7) obtenemos Sustituyendo ahora z; = 1.75 y z = 2 en la segunda ecuacién de (7) obtenemos 214 4(1.75) +2 YS oa Finalmente, sustituyendo 2; = 1.73 e y: = 3.75 en la tercera ecuacién de (7) obtenemos = 3.75. _ 15+ 2(1.75) — 3.75 * 5 El nuevo punto P; = (1.75, 3.75, 2.95) esté més cerca de (2, 4,3) que Pp y es mejor que el punto obtenido en el Ejemplo 3.26. En la Tabla 3.4 se muestra cémo los puntos {P,} generados por la iteracién (7) convergen a (2, 4,3). . 2 = 2.95. A la vista de los Ejemplos 3.26 y 3.27, se hace necesario disponer de algiin criterio que determine si el método iterativo de Jacobi converge. Para ello damos la siguiente definicién. Definicién 3.6. Se dice que una matriz A de orden N x N es de diagonal estrictamente dominante cuando Ny (8) axe|> Do |aej| para k=1, 2, ek 176 Cap. 3 RESOLUCIGN DE SISTEMAS LINEALES Esto significa que en cada fila de la matriz, el tamaiio del elemento que est en la diagonal principal debe ser mayor que la suma de los tamaiios de todos los demés elementos de la fila. La matriz de los coeficientes del sistema lineal (1), en el Ejemplo 3.26, es de diagonal estrictamente dominante porque En la primera fila: [4] > | — 1| + |1| En la segunda fila: | — 8 > [4] + [1 En la tercera fila: [5] > | — 2| +[1I. Todas las filas verifican la relacién (8) de la Definicién 3.6; por tanto, la matriz de los coeficientes A del sistema lineal (1) es de diagonal estrictamente dominante. La matriz de los coeficientes A del sistema lineal (4), en el Ejemplo 3.27, no es de diagonal estrictamente dominante porque En la primera fila: | — 2| < |1| + [5] En la segunda fila: | — 8| > |4) + |1| En latercera fila: [1] < |4|+|—1J. Las filas primera y tercera no cumplen la relacién (8) de la Definicién 3.6; por tanto, la matriz de los coeficientes A del sistema lineal (4) no es de diagonal estrictamente dominante. Vamos a considerar ahora los procesos iterativos de Jacobi y Gauss-Seidel con mayor generalidad. Supongamos que tenemos un sistema de ecuaciones lineales Qatar, +++ +ayzj+---+ aintn =h Gait, +A22t2 +--+ +aajtj+-+++ aantn = bo (9) : By ajet2 + tajjajte-+ away =); Gni21 + Anat, +++++anjzj+-+-+ anntn = by. Sea P, = (2{"),2{*),...,2,...,2{) el k-ésimo punto obtenido, de manera que el siguiente punto es Prit = (a, a mi, at), Bt superindice (k) de las coordenadas de P, nos permite eee las coordenadas que pertenecen a dicho punto. Las férmulas de iteracién usan la fila j-ésima de (9) para despejar x\‘~"’ como una combinacién lineal de los valores previamente obtenidos: i a f | SEC. 3.6 METODOS ITERATIVOS PARA SISTEMAS LINEALES UT Método iterativo de Jacobi: by (e) me (e) (%) 5+1T jp — (10) oft) = para j = 1,2, En el método iterativo de Jacobi se usan todas las coordenadas del punto anterior en Ia obtencién de las coordenadas del punto nuevo, mientras que en el método iterativo de Gauss-Seidel se emplean las coordenadas nuevas conforme se van generando: Método iterativo de Gauss-Seidel: (+1) (e+) (r) (%) (aa) 2) = bj ajay! mo a Oyj = 591 je1 — NTN 7 Te 3 para j=1,2,...,.N. Es importante darse cuenta de la pequefia modificacién de la frmula (10) que nos conduce a la formula (11). Teorema 3.15 (Método iterativo de Jacobi). Supongamos que A es una matriz de diagonal estrictamente dominante. Entonces el sistema de ecuaciones lineales AX = B tiene solucién tinica X = P. Ademas, el proceso iterativo dado por la férmula (10) produce una sucesién de vectores {P} que converge a P cualquiera que sea el vector de partida Po. Demostracién. La demostracién puede encontrarse en textos de andlisis numé- rico de cardcter avanzado. . Puede probarse que el método iterativo de Gauss-Seidel también converge cuando la matriz A es de diagonal estrictamente dominante as{ como para matrices simétricas definidas positivas (véase la referencia [66]). Normalmente, el método de Gauss-Seidel converge mds répidamente que el de Jacobi, por lo que es el que se suele preferir (compérense los Ejemplos 3.26 y 3.28). Se dan casos, sin embargo, en los que el método de Jacobi converge pero el de Gauss-Seidel no Convergencia Para determinar si una sucesién {Px} converge a P, es necesario tener una medida de la cercania entre vectores. La distancia euclidea (véase la Seccién 3.1) entre P = (21,22,...,2N) ¥ Q = (¥i.¥2.--- ,Yv)s dada por N 22 (12) P-Q=|>o@j-w)? 178 Cap. 3 RESOLUCION DE SISTEMAS LINEALES tiene la desventaja de que requiere un esfuerzo computacional considerable. Por esa razén se introducea otras normas, como la norma ||X'||;: a (13) (Xj, = So las. ja El siguiente resultado asegura que ||X'||, tiene las propiedades matematicas de una métrica, lo que significa, en otras palabras, que es una formula adecuada para medir “distancias”. Sabemos, por la teorfa del Algebra lineal, que todas las normas en un espacio vectorial de dimensidn finita son equivalentes; es decir, si dos vectores estan préximos segtin la norma ||||,, entonces también estan proximos segiin la norma euclidea.||+|| y recfprocamente. ‘Teorema 3.16. Sean X e Y dos vectores N-dimensionales y sea c un escalar. Entonces la funcién ||X||, tiene las siguientes propiedades: (a4) Xl, 2 0, (15) |X|], =0 si, ysdlosi, X=0, (16) lleX\], = lel |Xlly, a7) (|X+¥Ih < |X +h - Demostracién. Probamos (17) y dejamos las demés como ejercicio. Para cada j, la desigualdad triangular para el valor absoluto de ntimeros reales nos dice que |zj + ys| < |2,| + |yj|; 1a suma de todas estas desigualdades nos da la desigualdad (17): N N N |X+¥h = Diy ty s Viel + Dolo =I + IIP Ih - . ju jal jal La norma dada en (13) puede ser usada, entonces, para definir una nueva nocién de distancia entre puntos. Definicién 3.7. Supongamos que X e Y son dos puntos en RY. Definimos la distancia entre X e ¥ segtin la norma ||x||, como N [X-¥ih, = Dole - yl. a SEC. 3.6 M£TODOS ITERATIVOS PARA SISTEMAS LINEALES 179 Ejemplo 3.29. Vamos a determinar la distancia euclidea y la distancia segiin la norma ||#||, entre los puntos P = (2,4,3) y Q = (1.75, 3.75, 2.95). La distancia euclidea es ||P — Ql] = (2-175)? + (4 — 3.75)? + (3 — 2.95)?)'/? = 0.3570 y la distancia segtin la norma || ||P — Ql], = |2 — 1.75] + |4 — 3.75| + |3 — 2.95] = 0.55. La norma |||; es més fécil de calcular y, por eso, se suele usar para determinar la convergencia en el espacio N-dimensional space. . MATLAB En el Programa 3.4 se usa la instruccién A(j, [1:j-1,j+1:N]) del paquete MATLAB; esta instruccién permite seleccionar todos los elementos de la fila j-ésima de A excepto el elemento de la diagonal principal A(j, j), 0 sea, el que esta en la columna j-ésima. Esta notacién permite simplificar el paso general de la iteracién de Jacobi (10) en el Programa 3.4. Tanto en el Programa 3.4 como en el 3.5 hemos usado la instruccién del paquete MATLAB norn, que calcula la norma euclidea. La norma ||x||; también puede usarse; le animamos a que consulte la informacién sobre la instruccién norm que hay en el mend de ayuda de MATLAB, o cualquiera de las obras de referencia. Programa 3.4 (Método iterativo de Jacobi). Resolucién de un sistema lineal AX = B mediante la generacién de una sucesién {P,} que converge @ la solucién, a partir de un punto inicial Pp. Una condicién suficiente para que el método sea aplicable es que A sea de diagonal estrictamente dominante. | function X=jacobi(A,B,P,delta,maxi) % Datos % - Aes una matriz invertible de orden N x N h - Bes una matriz de orden Nx 1 % - P es una matriz de orden Nx 1: e1 punto inicial % - delta es la tolerancia para P h - maxi es el nimero méximo de iteraciones % Resultados % - X es una matriz de orden N x 1: % la aproximacién a la solucién de AX=B % generada por el método iterativo de Jacobi N = length(B); for k=i:maxi

You might also like