Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.

TEMA 3: RESOLUCIÓN DE SISTEMAS DE ECUACIONES
LINEALES. MÉTODOS DIRECTOS.

3.1.- INTRODUCCIÓN
Los sistemas de ecuaciones lineales aparecen en muchos problemas de ciencia e
ingeniería, así como en aplicaciones de las matemáticas a las ciencias sociales. En primer
lugar trataremos los métodos directos, que son aquellos que encuentran la solución en un
número determinado de etapas, es decir, conocido de antemano. En los métodos
directos, en general, se realiza una serie de operaciones sobre el sistema para pasar a otro
equivalente (con la misma solución) pero más sencillo –por ejemplo un sistema
triangular, es decir, en el que la matriz de coeficientes es triangular.
Estas operaciones (transformaciones elementales) son:
– Escalado: multiplicar a una ecuación por un escalar   0: Fi  Fi.
– Sustitución: sumar a una ecuación otra multiplicada por un escalar:
Fi + Fj  Fi.
– Intercambio: intercambiar dos ecuaciones: Fi  Fj.
Comenzaremos con la resolución de sistemas triangulares.

3.2.- REPASO DE CONCEPTOS PREVIOS

Definición. Matriz estrictamente diagonal dominante
Una matriz cuadrada de orden n, A es estrictamente diagonal dominante si :


n
aii  aij , i  1, 2, n
j 1, j  i

Se puede demostrar que si una matriz es estrictamente diagonal dominante
entonces es regular, es decir, tiene inversa.

Definición. Matriz definida positiva
Una matriz cuadrada de orden n, A es definida positiva si es simétrica y para cualquier
vector columna x  0 se tiene que xt A x > 0.
Al igual que en el caso anterior, si A es una matriz definida positiva entonces es
regular. Además también se puede demostrar que todos los menores principales son
positivos y que aii  0 , para i  1, 2, n .

3.3.- SISTEMAS LINEALES TRIANGULARES
El algoritmo de sustitución regresiva es un algoritmo con el que podremos resolver
un sistema de ecuaciones lineales cuya matriz de coeficientes sea triangular superior.
Este algoritmo será posteriormente incorporado a la resolución general de un sistema de
ecuaciones lineales.

24

entonces existe una solución única del sistema. Definición. N 1 x N 1  a3 N x N  b3    a N 1. Se dice que dos sistemas de orden NN son equivalentes cuando tienen el mismo conjunto de soluciones. Métodos directos. Después pasamos a la penúltima ecuación para obtener xN-1: b  a N 1. Ejemplo 1.. N 1 x N 1  a N 1. Tema 3: Resolución de sistemas de ecuaciones lineales. Para resolverlo comenzaremos despejando xN en la última ecuación: xN = bN / aNN. N 1 y así sucesivamente.. N  2. N. N x N  bN 1 a NN x N  b N Teorema: Sustitución regresiva.  . N 1 x N 1  a2 N x N  b2 a33 x3    a3.4. sistema que tiene la siguiente forma: a11 x1  a12 x2  a13 x3    a1. entonces se dice que el sistema de ecuaciones AX = B es un sistema triangular superior de ecuaciones lineales.. Los teoremas del álgebra lineal prueban que hay ciertas transformaciones que no cambian el conjunto de soluciones de un sistema de ecuaciones lineales. N x N x N  1  N 1 a N 1.. 2. N 1 x N 1  a1 N x N  b1 a22 x2  a23 x3    a2 . 2. Si AX = B es un sistema triangular superior con akk  0 para k = 1. .ELIMINACIÓN GAUSSIANA Y PIVOTEO En esta sección desarrollamos un método para resolver un sistema general de ecuaciones lineales AX = B de N ecuaciones con N incógnitas. Se dice que una matriz A = [aij] de orden NN es triangular superior (inferior) cuando sus elementos verifican aij = 0 siempre que i > j (i < j). Vamos a usar el método de eliminación de Gauss para resolver el sistema: 4 x  3y  z  7 2 x  4 y  5z  5 x  2 y  6z  23 25 . 1) j  k 1 a kk 3. El objetivo es construir un sistema triangular superior equivalente UX = Y que podamos resolver usando el método de sustitución regresiva. Si A es una matriz triangular superior. En la etapa k-ésima se despeja xk: a N bk  kj xj xk  ( k  N  1.

en la que se almacenan los términos de B (es decir.N+1 = bk). En un caso general de un sistema de cuatro ecuaciones con cuatro incógnitas: 26 . Para anular los primeros elementos de las filas 2ª y 3º les restaremos la primera multiplicada por –2/4 = m21 y por 1/4 = m31 respectivamente. la columna (N+1)-ésima. intercambio o sustitución) aplicadas a la matriz ampliada produce un sistema lineal equivalente. Cualquiera de las operaciones elementales citadas anteriormente (escalado. F3  1 4 F1  F3 b g El resultado que se obtiene es: 4x  3y  z  7 0x  b g 52 y  b g 9 2 z  17 2 0x  b g 54 y  b g 25 4 z  85 4 En el siguiente paso haremos: F3  FG 5 / 4 IJ F  F  FG 1IJ F  F . Esto se puede representar mediante una sucesión de matrices ampliadas que son las que se van obteniendo al anular los elementos de cada columna que están por debajo de la diagonal principal. Tema 3: Resolución de sistemas de ecuaciones lineales. x  1 51 2 17 2 5 / 2 4 Una forma eficaz de trabajar es almacenar todas las constantes del sistema lineal AX = B en una matriz de orden N(N+1) que se obtiene añadiendo a la matriz A una columna. ak. Esto se representa por: b g F2  2 4 F1  F2 . Métodos directos. contiene toda la información necesaria para representar la correspondiente ecuación del sistema lineal: F a11 a12  a1 N a1 N 1 I Ga a 22  a 2 N a 2 N 1 JJ AG ~ 21 GG     JJ Ha N1 a N 2  a NN a N N 1 K Un sistema AX = B puede resolverse realizando las operaciones elementales con las filas de la matriz ampliada Ã. Las variables xk no sirven más que para marcar el sitio de los coeficientes y pueden ser omitidas hasta el final de los cálculos. y  2. El método de eliminación de Gauss o de eliminación gaussiana consiste en obtener un sistema equivalente triangular superior. Cada fila de esta matriz. que se llama matriz ampliada del sistema y se denota por Ã. m32  1 H 5 / 2 K 2 3 H2K 2 3 2 y el resultado es: 4x  3y  z  7  b g 52 y  b g 9 2 z  17 2 b g 17 2 z  51 2 Aplicando la sustitución regresiva se obtiene: 17 2  3  9 2 7  3  3 2 z  3.

. j  3. j  4 . 4 . 4) a11 R|a ij (1) (i  1. 3º y 4º de la primera columna haremos: ai 1(1) Fi  (1) F1  Fi (i  2. 4. j  2 ) ( 3) es decir: |Ta ij (2) d  ai 2 (2) a 22 (2) ia 2j (2) (i  3.. 3. j  1. 5) 27 . 2 . j  1) ( 2) es decir: |Ta ij (1) d  ai 1 (1) a 11 ( 1) ia 1j (1) (i  2 . 5) aij  S0 (i  4.... 2. Métodos directos.. 3. a11 x1  a12 x 2  a13 x3  a14 x4  b1 a 21 x1  a 22 x 2  a 23 x3  a 24 x4  b2 a 31 x1  a 32 x 2  a 33 x3  a 34 x4  b3 a 41 x1  a 42 x 2  a 43 x3  a 44 x4  b4 la matriz ampliada es: Fa (1) a12 (1) a13 ( 1) a14 (1) a15 (1) I Ga 11 a22 a23 a24 a25 JJ G (1) (1) ( 1) ( 1) (1) A  A (1) ~ ~ GG a JJ 21 (1) a32 (1) a33(1) a34 (1) a35 (1) Ha K 31 41 (1) a42 (1) a43(1) a44 (1) a45 (1) Para anular los elementos 2º.. 2 .. Tema 3: Resolución de sistemas de ecuaciones lineales. Para ello: ai 3 ( 3) Fi  F3  Fi (i  4 ) a33 ( 3) R|a ij ( 3) (i  1. 4.. 4. 3. 4) a22 (2) R|a ij (2) (i  1. 5) Fa ( 1) a12 (1) a13 (1) a14 (1) a15 (1) I GG 0 11 a22 ( 2) a23 ( 2) a24 ( 2) a25 (2) JJ A ( 3)  ~ obteniendo: GG 0 0 a33 ( 3) a34 ( 3) a35( 3) JJ H0 0 a43 ( 3) a44 ( 3) a45( 3) K Finalmente hay que anular el 4º elemento de la columna tercera. j  1. j  3) ( 4) es decir: |Ta ij ( 3) d  ai 3 ( 3) a 33 ( 3) ia 3j ( 3) (i  4. j  1... 2 . y para ello: ai 2 ( 2 ) Fi  F2  Fi (i  3. 2 . 3. j  2 . 4. 3. 4.. 5) Fa ( 1) a12 (1) a13 (1) a14 (1) a15 ( 1) I G0 11 a22 a23 a24 a25 JJ G ( 2) (2) (2) (2) A ( 2) ~ obteniendo: GG 0 a32 ( 2 ) a33( 2 ) a34 ( 2 ) a35 ( 2 ) JJ H0 a42 ( 2 ) a43( 2 ) a44 ( 2 ) a45 ( 2 ) K A continuación hay que anular los elementos 3º y 4º de la 2ª columna. 5) aij  S0 (i  3. 5) aij  S0 (i  2 .

3. El elemento aqq(q) de la matriz de los coeficientes en el paso q+1 que se usará para anular arq(q) (r = q+1. si esto no puede hacerse. y la fila q-ésima se llama fila pivote. Se representa por aqq(q) el coeficiente correspondiente a la etapa (q). entonces se localiza la primera fila por debajo de la q-ésima en la cual se tenga akq(q)  0 y se intercambia la fila q-ésima con la k-ésima. calculando así la solución X. es posible que cada vez que se realice una operación aritmética se introduzca un pequeño error. N) se llama q-ésimo pivote. El uso de la estrategia de pivoteo trivial en la eliminación gaussiana puede llevar 28 . . Tema 3: Resolución de sistemas de ecuaciones lineales. la fila q-ésima no puede usarse para eliminar los elementos de la columna q-ésima que están por debajo de la diagonal principal. Se hace necesario entonces hallar una fila posterior. equivalente al sistema AX = B.4. Una vez construidos U e Y. Esto proporciona el pivote no nulo deseado. en la que akq(q)  0. Como los ordenadores usan una aritmética cuya precisión está fijada de antemano. N) por los que se multiplica la fila pivote para restarla de las correspondientes filas posteriores se llaman multiplicadores de la eliminación. Un problema que puede aparecer es el siguiente: si aqq(q) = 0. digamos la k-ésima (con k > q).. q+2. Los números mrq = arq(q) / aqq(q) (r = q+1. en el que U es una matriz triangular superior con elementos diagonales ukk  0. e intercambiarlas para obtener un pivote no nulo. mientras que si aqq(q)  0.. resultando la matriz ampliada que corresponde al sistema triangular superior: Fa ( 1) a12 (1) a13 (1) a14 (1) a15 ( 1) I G011 a22 a23 a24 a25 JJ G ( 2) (2) (2) (2) A ( 4) ~ GG 0 0 a33( 3) a34 ( 3) a35 ( 3) JJ H0 0 0 a44 ( 4 ) a45 ( 4 ) K Definición: Pivotes y multiplicadores. Teorema: Eliminación gaussiana con sustitución regresiva..2.. Este proceso se llama pivoteo y el criterio para decidir qué fila escoger se llama estrategia de pivoteo. Estrategias de pivoteo para reducir los errores. Cuando aqq(q) = 0. Si A es una matriz invertible de orden NN. Métodos directos... La estrategia de pivoteo trivial es la siguiente: Si aqq(q)  0. se usa el algoritmo de sustitución regresiva para resolver UX = Y. q+2. .. Lo que hacemos es intercambiar la fila q-ésima con alguna fila posterior para conseguir un elemento pivote que no sea cero. entonces no podemos usar la fila q-ésima para eliminar los elementos de la columna q-ésima que están por debajo de la diagonal principal. entonces existe un sistema lineal UX = Y. Pivoteo para evitar aqq(q) = 0. entonces no se hace intercambio de fila. entonces la matriz de los coeficientes del sistema es singular y el sistema no tiene solución única o es incompatible.

. salvo que k = q. Este proceso suele conservar las magnitudes relativas de los elementos de la matriz U del mismo orden que las de los coeficientes de la matriz original. El pivoteo parcial escalado puede usarse para reducir aún más los efectos de la propagación de los errores.5.  1 Si se modifica ligeramente los términos independientes.. se sugiere que se compare el tamaño de todos los elementos de la columna q desde el que está en la diagonal hasta el de la última fila. o sea. El propósito de las estrategias de pivoteo es usar como pivote el elemento de mayor magnitud y. | aq 1q |. Con la técnica de pivoteo parcial escalado se evitan errores de redondeo que pueden producirse si el pivote es muy pequeño respecto del resto de los elementos de su fila. Tema 3: Resolución de sistemas de ecuaciones lineales. La estrategia de pivoteo parcial es la más habitual. Ejemplo 2: Sea el sistema  1. la solución de los siguientes sistemas son las que se muestran a continuación:  1. usarlo para eliminar los restantes elementos de su columna que están por debajo de él..SISTEMAS MAL CONDICIONADOS Algunos sistemas son muy sensibles a los errores de redondeo y el vector solución puede ser bastante inexacto. Una vez localizada la fila. aparejado un error apreciable en la solución de un sistema de ecuaciones lineales calculada con un computador. | a N -1q |.99   x   2. digamos la k-ésima.01 0. la elección como pivote del mayor elemento también ayuda a que se propague un error más pequeño. si | akq |  max{| aqq |.| a Nq |} entonces intercambiamos la fila q-ésima con la k-ésima.98   0        29 . Normalmente.99  x   2. . una vez colocado en la diagonal principal. de esa manera. entonces hay varias formas de elegir qué filas se intercambian.99 1.00   0.02  2  0. 3. Si en la columna q hay más de un elemento no nulo en la diagonal principal o por debajo de ésta. Consiste en lo siguiente: Para reducir la propagación de los errores de redondeo. los multiplicadores mrq (r = q+1.. En este caso se dice que el sistema es inestable o que está mal condicionado.01   y    1.00        1 cuya solución exacta es :   . N) serán todos menores que 1 en valor absoluto.  . en la que se encuentra el elemento de mayor valor absoluto.01 0.99 1. Métodos directos. En este tipo de sistemas lo que suele ocurrir es que pequeños cambios en los coeficientes o en los términos independientes dan lugar a cambios apreciables en la solución como se muestra en el siguiente ejemplo.01  y    2.

01   y    2. La notación para los elementos de L es mij. cuyos elementos diagonales son distintos de cero. 30 . cuyos elementos diagonales son todos iguales a 1. cuyos elementos en la diagonal principal son todos iguales a 1. escrito de manera desarrollada: F a11 a12 a13 a14 1I 0 F 0 0I Fu u12 u13 u14 I GG JJ GG JJ GG 0 JJ 11 a21 a22 a23 a24 m21 1 0 0 u22 u23 u24  GGa31 a32 a33 a34 JJ m31 m32 GG 1 0 JJ GG 0 0 u33 u34 JJ Ha41 a42 a43 a44 K m41 m42 H m43 1 KH 0 0 0 u44 K La condición de que A sea invertible implica que ukk  0 para todo k.01 0. Cuando la solución obtenida está afectada por los errores de redondeo no es exacta. Tema 3: Resolución de sistemas de ecuaciones lineales. por una matriz triangular superior U: A = LU o.99 1.99   x   1. Definición: factorización triangular o factorización LU Diremos que una matriz invertible A admite una factorización triangular o factorización LU si puede expresarse como el producto de una matriz triangular inferior L.6. por una matriz triangular superior U. 3..02   2        Se puede considerar al sistema como una máquina cuya entrada son los términos independientes y cuya salida son las soluciones. la razón para elegir mij en vez de lij es que se puede demostrar que estos elementos coinciden con los multiplicadores utilizados en el procedimiento de eliminación gaussiana.FACTORIZACIÓN TRIANGULAR La factorización triangular de una matriz consiste en escribir dicha matriz A como el producto de una matriz triangular inferior L. Métodos directos.  1.98  0  0. b1 x1 b2 x2 A x  b b3 x3 En el ejemplo anterior se ha visto que pequeños cambios en la entrada del sistema dan lugar a grandes cambios en la salida.

Tema 3: Resolución de sistemas de ecuaciones lineales.. Si no hace falta realizar intercambios de filas cuando usamos eliminación gaussiana. primero debemos resolver el sistema triangular inferior y1  b1 m21 y1  y2  b2 m31 y1  m32 y2  y3  b3 m41 y1  m42 y2  m43 y3  y4  b4 para obtener y1. entonces la solución de LUX = B puede obtenerse definiendo Y = UX y resolviendo dos sistemas lineales.6. una vez que lo tenemos.3. y a11 a11 a a F3  F3  31 F1  F3  m31 F1 con m31  31 a11 a11 Llamando A( 2 ) a la matriz obtenida y M (1) a la matriz correspondiente a las transformaciones efectuadas se tiene que A( 2 )  M (1)  A . y3. que es la matriz de coeficientes resultado de la eliminación gaussiana. Vamos a comprobar para una matriz A de orden 3 que el proceso de eliminación gaussiana..6. Factorización triangular Ahora comentaremos la forma de obtener factorizaciones triangulares. entonces los multiplicadores mij son los elementos subdiagonales de L. resolver el sistema triangular superior u11 x1  u12 x2  u13 x3  u14 x4  y1 u22 x2  u23 x3  u24 x4  y2 u33 x3  u34 x4  y3 u44 x4  y4 3. Solución de un sistema lineal Supongamos que la matriz de los coeficientes A de un sistema lineal AX = B admite una factorización triangular. 3. Métodos directos. En primer lugar se halla Y en el sistema LY = B y luego X en el sistema UX = Y. y2. sirve también para factorizar la matriz A como producto de una triangular inferior L por una triangular superior U. siendo : 31 . e y4 y. LMa11 a12 a13 OP LMa ( 1) 11 a12(1) a13(1) OP MMa 21 a22 a23 PP  MMa ( 1) 21 a (1) 22 a (1) 23 PP Na 31 a32 a33 Q Na ( 1) 31 a (1) 32 a (1) 33 Q Para anular los elementos a21 y a31 se realizan las transformaciones de filas: a a F2  F2  21 F1  F2  m21 F1 con m21  21 . almacenando los multiplicadores como elementos subdiagonales de L. En forma desarrollada.2.

P Nm 31 0 1QP N0 m32 1QP Es decir.y A M 0 a a PP  U . y U tiene todos sus elementos diagonales distintos de cero. sin intercambios de filas. ( 1) MM 1 P (2) MN 0 (2) (2) 1QP 21 22 23 N m31 0 a (2) 32 a (2) 33 Q Para hacer 0 el elemento a32 (2) se realiza la transformación: a32 (2) a32 (2) F3  F3  F  F  m F . (2) MM 1 P ( 3) MN 0 ( 2) ( 2) 1PQ 22 23 N0  m32 a ( 2) 32 a ( 3) 33 Q es decir : U  M ( 2 ) A ( 2 )  M ( 2 )  M (1) A 1 1 Premultiplicando por M ( 2) y M (1) . Supongamos que podemos llevar a cabo hasta el final el proceso de eliminación gaussiana. LM 1 0 0 OP LMa (1) 11 a12(1) a13(1) OP M  m 0 . (1) 1 1 0 0 LM OP 1 LM1 0 0 OP M  m21 1 0 . es decir. 1 1 M (1)  M ( 2) U  A 1 Se comprueba fácilmente que  M (1)  es la matriz correspondiente a la transformación que deshace el cambio. siendo : LM1 0 0 OP LMa ( 1) 11 a12(1) a13(1) OP M  0 0 . con m  a22 a22 (2) 2 3 32 2 32 (2) Llamando A( 3) a la matriz obtenida y M ( 2 ) a la matriz correspondiente a la transformación efectuada se tiene que : A( 3)  M ( 2 )  A ( 2 ) . Idem. Para  M (2)  . Esta 32 . Tema 3: Resolución de sistemas de ecuaciones lineales. la transformación que consiste en sumar a la segunda fila la primera multiplicada por m21 y sumar a la tercera fila la primera 1 multiplicada por m31 .  1 0 0 L   M (1) 1    M    m21 (2) 1 0   1  m31 m32 1  como queríamos comprobar. Entonces la matriz A puede factorizarse como el producto de una matriz triangular inferior L por una matriz triangular superior U. Es más.y A M 0 a a PP . es decir. A = LU. Teorema:( Factorización directa A = LU sin intercambios de filas). L puede ser construida de manera que sus elementos diagonales son todos iguales a 1. y M ( 2 )  0 MM P MM 1 0 . Métodos directos. para resolver un sistema de ecuaciones lineales cualquiera AX = B.

los elementos de A. En este sistema hay más incógnitas que ecuaciones. N (1) I GG m J GG 011 a 22 JJ  J (2) 21 1   L Gm    J .6. n). factorización se denomina factorización de Doolittle. Tema 3: Resolución de sistemas de ecuaciones lineales. Las matrices L y U.. Hallar X resolviendo UX = Y con el método de sustitución regresiva. o sea. En la factorización de Doolittle se han hecho los lii = 1 (i = 1. en el caso general de un sistema de n ecuaciones con n incógnitas. la matriz triangular superior U es la matriz de los coeficientes del sistema triangular superior UX = Y obtenido al final del proceso de eliminación. Métodos directos. son: F1 0   0 I Fa (1) a12 ( 1)   a1.. y el segundo miembro de este sistema es precisamente el vector Y solución del sistema. entonces los elementos subdiagonales de L coinciden con los multiplicadores correspondientes que se usan en la eliminación. 2. Además los cálculos son estables frente al crecimiento de los errores de redondeo. 2. y se puede demostrar que A puede ser factorizada como producto de una matriz triangular inferior por su traspuesta: 33 .. n) se obtiene la factorización de Crout. ya que L y U. las ecuaciones el resultado de la ecuación matricial LU = A (hay nn ecuaciones para una matriz A de orden n) y los términos independientes. N ( N 1) JJ GH m   J 1JK GH 0 N1   mN . . la solución X puede calcularse en dos pasos: 1. n2+n en total..N (N ) K Mediante la teoría del álgebra de transformaciones elementales de matrices se puede demostrar que: A = LU En el caso de que la matriz A sea una matriz estrictamente diagonal dominante se puede demostrar que la eliminación Gaussiana se puede llevar a cabo en cualquier sistema lineal de la forma A x = b sin realizar ningún intercambio de filas... Hallar Y resolviendo LY = B con el método de sustitución progresiva. U G      JJ GG 31 0J GG    a N 1. 2. Una vez halladas L y U. N  1   0 aN. 3.. Otras factorizaciones La factorización de una matriz A en producto de una matriz triangular inferior L por otra triangular superior U puede resolverse también como un sistema de ecuaciones lineales en el que las incógnitas son los elementos de L y U. Cuando el proceso de eliminación gaussiana puede llevarse a cabo hasta el final en la matriz ampliada que se obtiene añadiendo la columna B a la matriz A. Si en lugar de esto se hace uii = 1 (i = 1. Lo mismo se puede afirmar si A es una matriz definida positiva. si no se pone ninguna otra condición. tienen cada una (n2+n) / 2 elementos. Cuando A es una matriz definida positiva la eliminación gaussiana siempre puede realizarse sin intercambios de filas. .4.

34 . la matriz no es definida positiva. A = L Lt A esta factorización se la conoce como factorización de Cholesky. Tema 3: Resolución de sistemas de ecuaciones lineales. Si al intentar esta factorización con una matriz simétrica surgen raíces de números negativos. Métodos directos.

Métodos directos. z=2. y=1 . z=1/4 b) x=1 . a) x+ y + z= 4 b) 2x ...7.. 3. y=1/4 . y . EJERCICIOS 1. y=1 .Resolver los siguientes sistemas utilizando el método de Gauss y Gauss-Jordan. y=2 . b) x=4 .z = -2 -3x + 8y + 5z = 6 Sol: a) x= 1.-Hallar A1 siendo LM1 0 1 3 OP LM 2 1 0 OP 1 a) A = MM 1 0 1 PP b) A = MM 1 2 1 P 2 MN 10 PQ 2 PQ 1 1 2 1 1 N0 1 F-1 1 3 I GG 2 1 JJ F3  1 1 I G  1  3 2 5 1J GG 4 2 4 JJ Sol: a) G 4 JJ b) G   JJ 2 4 1 1 1 GG  41  5 9 JJ GG 12 2 GG 1 2 4 1 H4  1 3 JK  0J 1 1 H4 2 4 K 2 4 4. Tema 3: Resolución de sistemas de ecuaciones lineales. obteniendo previamente la factorización LU de la matriz del sistema.TEMA 3 . z=1 c) x=1 . utilizando eliminación gaussiana 35 . 2. z=0. 3.6z = 1 x. z=1.7y + 4z = 9 2x + 3y + z= 9 x + 9y . y=2 .Resolver el siguiente sistema.Resolver por Gauss los siguientes sistemas: a) x + y + 2z = 1 b) x + 2y + z = 6 c) x + y =2 x + 2y + z = 1 2x + y + 2z = 6 x + 4y + 6z = 5 2y + y + z = 1 x + 2y + 2z = 7 6y + 14z = 6 Sol: a) x=1/4..

Aplicar el método de Crout para resolver el siguiente sistema: 2 x  6 y  8z  24 5x  4 y  3z  2 3x  y  2 z  16 Sol: x=1..Obtener la descomposición L U de las siguientes matrices utilizando el método de Crout: 36 .u33. 2 x  4 y  z  1 x  z  2 b) y  3 Sol: x=1 . Tema 3: Resolución de sistemas de ecuaciones lineales.. t=1 5.Resolver los siguientes sistemas a partir de la factorización de Doolittle: x  2y  3 a) y  z  1 Sol: x=15 . z + t = 1 3x .y . z=7.u44 = -2. 6. x + y + 3t = 4 2x + y . Aplicar este resultado para calcular : 1 2 3 4 2 1 4 2 A  2 5 7 12 2 2 6 22 Sol: A = u11. t = 4 Sol: x=-1. z=5 8. z + 2t = -3 -x + 2y + 3z .. y=2 . z=1. z=1 . 3x  13 y  9 z  3t  2 6 x  4y  z  18t  19 7. y=1.. t=1. x  z  0 6x  2y  2 z  4t  10 12 x  8y  6z  10t  20 c) Sol: x=1 . z=0 .¿En qué forma es posible evaluar A a partir de la descomposición factorial de Doolittle de la matriz A?. y=3 .u22. Métodos directos. y=-6. y=3 .

y=3/2 . y=-19/7 . t=60/7 x1  x2  2 x3  6 x1  x2  x4  6 10. z=-2 x  y  3z  0 4 x1  x2  x3  x4  8 x1  3x2  x3  x4  1 b) Sol: x= 1/7 . F1 1 2I F1 0 0 I F1 1 2 I A  G 1 4J Sol: G 1 0J  G 0 3 / 2J a) GH 2 5 4 J 14K GH 2 4 6 J G 1K H 0 1 0 1 K J F6 2 1 I 1 G2 JJ BG 4 1 0 b) GG 1 1 4 1JJ H 1 0 1 3K F6 0 0 0 I F 1 1 / 3 1 / 6 1 / 6 I G2 Sol: G 10 / 3 0 0 JJ GG 0 1 1 / 5 1 / 10 JJ  GG 1 2 / 3 37 / 10 0 0 0 JJ GG 1 9 / 37 JJ H 1 1 / 3 9 / 10 191 / 74 0 0 K 0 H1 K 9. F 183 31 65 5 I 40 GG 7 14 1 JJ Sol: 110 19 GG 39 3 JJ 17 H 3 6 1 / 2 K 37 ...Siendo A la matriz del ejercicio nº 5 calcular A-1 aplicando la factorización de Doolittle a los cuatro sistemas de ecuaciones resultantes. Métodos directos. Tema 3: Resolución de sistemas de ecuaciones lineales.z=11/7 .Aplicar el método de Cholesky para resolver los siguientes sistemas: x  y  z  1 a)  x  5y  z  1 Sol: x=9/2.