Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

TEMA 4: RESOLUCIÓN DE SISTEMAS DE ECUACIONES
LINEALES Y NO LINEALES. MÉTODOS ITERATIVOS.

4.1.- NORMAS VECTORIALES Y MATRICIALES
Tanto en el estudio del condicionamiento de un sistema de ecuaciones lineales
cuando se resuelve mediante métodos directos, como en el estudio de la convergencia de
los métodos iterativos para la resolución de sistemas lineales, es necesario el concepto de
norma de una matriz.
Del mismo modo, cuando se construye una sucesión de vectores aproximación de
la solución de un sistema lineal, para estudiar la convergencia interesa medir la distancia
entre las dos últimas aproximaciones, y para medir esta distancia es necesario utilizar el
concepto de norma de un vector.
Norma vectorial. Este concepto se presenta en Álgebra y ya es conocido. Se pueden
definir distintas normas en un espacio vectorial de dimensión n. Las más utilizadas son:

x 1   xi
n

i 1

x
n
x2 i
2
(norma euclídea)
i 1

x 
 max xi
1i  n
m r (norma del máximo)

Esta última es la que más se utiliza al estudiar una sucesión de vectores.
Radio espectral de una matriz cuadrada A: se representa (A) y se define como
(A) = max{| i |}
donde i son los autovalores de A.
Norma matricial. Este concepto consiste en generalizar el correspondiente a las normas
vectoriales. Considerando el espacio vectorial de las matrices cuadradas, tratamos de
asignar a cada matriz A un valor real y positivo que se representa como ||A||. Del mismo
modo que en el caso anterior, se pueden definir diferentes normas. Las más utilizadas son
las relacionadas con las normas vectoriales comentadas anteriormente y en especial por
su sencillez, ||·||1 y ||·||.
Se define la norma natural de una matriz A asociada a una norma vectorial como:
A  max A  x
x 1

Se puede demostrar que:

A 1  max
RS a UV
n
1)
j 1,...,n
T W
i 1
ij

2) A 2   ( A  At )

3) A   max
RS a UV
n

i 1,...,n
T W
j 1
ij

39

b   7. Para medir el error resultante se define el residuo del vector solución.2. Cuando la solución obtenida está afectada por los errores de redondeo no es exacta. Esto se puede comprobar en el siguiente ejemplo en el que. Sea x la solución exacta y x . Sea el sistema A x  b .56 1.05 2. se han realizado los cálculos con redondeo a tres cifras significativas. entonces el residuo de dicho vector solución es : r  b  A  x Para medir el residuo del vector solución se utilizará la norma del mismo.83 0. la solución aproximada (debido a los errores de redondeo). Métodos iterativos. para poder ver mejor el efecto del error de redondeo. En este tipo de sistemas lo que suele ocurrir es que pequeños cambios en los coeficientes o en los términos independientes dan lugar a cambios apreciables en la solución. En un sistema mal condicionado puede ocurrir que la norma de r no sea una buena medida de la norma de e.02 1.38      La solución exacta es:  1 x  2    1    Tomando como solución aproximada un vector claramente erróneo : 40 . y x el vector solución aproximada .53   1. El residuo relativo se define como el cociente de la norma del residuo entre la norma del vector de términos independientes: r residuo relativo  b Una característica de los sistemas mal condicionados es que una solución muy diferente de la exacta puede dar lugar a un residuo pequeño. Además se puede demostrar que para cualquier norma natural de A se verifica:  ( A)  A 4.61  A   4.33 0.54 1.23       0.47   3.78  .SISTEMAS MAL CONDICIONADOS Y NÚMERO DE CONDICIÓN Tal y como se indicó en el tema anterior algunos sistemas son muy sensibles a los errores de redondeo y el vector solución puede ser bastante inexacto. La primera significa en términos sencillos que nos quedamos con la columna cuyos elementos en valor absoluto tienen la mayor suma. donde  3. La última es lo mismo. pero con las filas. Definición. Residuo y residuo relativo del vector solución.. En este caso se dice que el sistema es inestable o que está mal condicionado. Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Ejemplo 1: Sea el sistema A x  b . Sea e  x  x .

0048   r  0. el número de condición tampoco será muy preciso. Teorema ( Error relativo ) Definiendo el error relativo de la solución de un sistema lineal como: e error relativo  x dicho error está acotado por el número de condición de la matriz multiplicado por el residuo relativo. La matriz unidad tiene como número de condición la unidad. en el cálculo del número de condición. El número de condición de una matriz A se define como : K ( A)  A  A1 y sirve para tener una medida del condicionamiento de una matriz. Cuando una matriz está mal condicionada los elementos de A-1 son grandes en comparación con los de A.0148        1. se normaliza multiplicando las normas de A y de su inversa. como para obtener A-1 es necesario resolver n sistemas lineales. Sin embargo. eligiendo la norma del máximo. por ejemplo. Un número de condición mucho mayor que la unidad indica que la matriz está mal condicionada.  0. Su cálculo supone muchas operaciones.34  e  4.0030      Definición. y por lo tanto. Demostración:   r  b  A  x  A  x  A  x  A  x  x  A  e  e  A1  r  e  A1  r (1) A A x  b  b  A x   1 (2) x b Multiplicando término a término las desigualdades (1) y (2) se obtiene: e r  A  A 1  x b e r es decir. x b Del mismo modo se puede demostrar que 41 . ya que para poder decir que la matriz está mal condicionada basta con ver si el número de condición es grande o no. Métodos iterativos. y además. pero esto también puede suceder.12   0. aunque A no esté mal condicionada. dicha matriz inversa puede ser bastante inexacta.34      2. Número de condición. Por este motivo. si los elementos de A son pequeños.34 y r   0.66   0.880  x   2. son:  0. que el error relativo está acotado por K(A)  . esto no importa. Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales.0148  e  4.66    Los vectores error y residuo y sus normas.

Consideremos el sistema de ecuaciones 4x  y  z  7 4 x  8 y  z  21 2 x  y  5 z  7 Estas ecuaciones se pueden escribir como 7 yz 21  4 x  z 7  2x  y x . mientras que un número de condición próximo a la unidad es una buena medida del error relativo.375 . 2). es decir. entonces la iteración parece converger a la solución (2. Puesto que x(k+1) es. probablemente. 4. Este proceso se conoce como método de iteración de Jacobi y puede usarse para resolver algunos tipos de sistemas de ecuaciones lineales. el error relativo puede ser tan pequeño como el residuo relativo dividido por el número de condición y tan grande como el residuo relativo multiplicado por el número de condición.75 . z 4 8 5 lo que sugiere el siguiente proceso iterativo: 7  y(k )  z(k ) 21  4 x ( k )  z ( k ) 7  2 x ( k )  y (k ) x ( k 1)  .3. 3. 4. y(0) = 2 y z(0) = 2 en el miembro derecho de la relación obtenemos: 722 21  4  2 722 x (1)   1. en estos sistemas la matriz de los coeficientes es dispersa.375.00) está más cerca de (2. un alto porcentaje de los elementos de la matriz son iguales a cero. Si K(A) es grande el residuo relativo no se puede utilizar para estimar el error relativo. 2.75.3. Si hay algún tipo de patrón en la distribución de los elementos distintos de cero (ejemplo: los sistemas tridiagonales). Métodos de iteración de Jacobi y de Gauss-Seidel Ejemplo 2. En la resolución numérica de ecuaciones en derivadas parciales suelen aparecer sistemas de ecuaciones lineales con incluso 100 000 incógnitas. z (1)   3. entonces un método iterativo puede resultar muy eficaz en la resolución de estos sistemas tan enormes. sustituyendo x(0) = 1. 3) que P(0). Finalmente conviene señalar que en algunas ocasiones el método iterativo de Jacobi no funciona. y . z(0)) = (1.. 3). y (1)   3. y(0). Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. sería razonable usar x(k+1) en vez de 42 . Algunas veces podemos acelerar la convergencia. mejor aproximación al límite que x(k). Métodos iterativos. z ( k 1)  4 8 5 Si empezamos con P(0) = (x(0).1. 3.MÉTODOS ITERATIVOS PARA SISTEMAS LINEALES 4.. y ( k 1)  .80 4 8 5 El nuevo punto P(1) = (1. e r   1 x A  A 1 b En resumen. En efecto. 4.

j x j (k) bi  ai . . Las fórmulas de iteración usan la fila j-ésima para despejar xj(k+1) como una combinación lineal de los valores previamente obtenidos: Método iterativo de Jacobi: N bi   ai . Vamos a considerar ahora los procesos iterativos de Jacobi y Gauss-Seidel con mayor generalidad. x(k) a la hora de calcular y(k+1) y.. x2(k). . de manera que en la siguiente etapa se obtendrá Pk+1 = (x1(k+1). y ( k 1)  . N. Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Supongamos que tenemos un sistema de n ecuaciones lineales a11 x1  a12 x2    a1 j x j    a1 N x N  b1 a21 x1  a22 x2    a2 j x j    a2 N x N  b2      a j 1 x1  a j 2 x2    a jj x j    a jN x N  b j      a N 1 x1  a N 2 x2    a Nj x j    a NN x N  bN Sea Pk = (x1(k). sería mejor usar x(k+1) e y(k+1) en el cálculo de z(k+1). para calcular y(2) se usarán x(2) y z(1).75 e y(1) = 3. Sustituyendo y(0) = 2 y z(0) = 2 en la primera ecuación obtenemos: 722 x (1)   175 . xN(k)) el vector que aproxima la solución en la etapa k.75 8 Finalmente. x2(k+1). Ejemplo 3...95 5 Del mismo modo para calcular x(2) se utilizarán y(1) y z(1)..i i para i = 1..75 y z(0) = 2 en la segunda obtenemos: 21  4 (1..75)  3. N x N( k ) j 1 x   ( k 1) ji ai . . de forma semejante. xj(k).1 x1( k )    ai . 2.i 1 xi(k1)    ai .75 en la tercera: 7  2(1... y así sucesivamente. sustituyendo x(1) = 1. xj(k+1).. 43 . El superíndice (k) de las coordenadas de Pk nos permite identificar la etapa a la que pertenece el vector de soluciones aproximadas. . 4 Sustituyendo ahora x(1) = 1.i 1 xi(k1)  ai . .i ai . xN(k+1)).. para calcular z(2) se usarán x(2) e y(2).75)  2 y (1)   3.75 z (1)   2.. Consideremos el siguiente proceso iterativo para el mismo sistema de ecuaciones: 7  y(k )  z( k ) 21  4 x ( k 1)  z ( k ) 7  2 x ( k 1)  y ( k 1) x ( k 1)  . Métodos iterativos.... z ( k 1)  4 8 5 A este proceso iterativo se conoce como método de Gauss-Seidel..

Los métodos iterativos son apropiados para resolver sistemas grandes pero en los que la matriz de coeficientes es dispersa. el criterio de parada se puede representar en términos de: x x  ( k +1) (k) el error absoluto:  x x ( k +1) (k) el error relativo:   x ( k +1)  Volviendo a la convergencia de los métodos iterativos.1 x1( k 1)    ai .No se pretende obtener la solución exacta (en teoría sería necesario realizar infinitas iteraciones) sino una solución aproximada. .  Con esta definición de la distancia entre dos vectores. la sucesión {x(k)} de vectores de soluciones aproximadas se genera calculando x(k+1) = T x(k) + c A la matriz T se la denomina matriz de paso. Elegido el vector x(0). Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. N x (Nk ) xi( k 1)  i  ai . j x j a i 1 N  xj ( k 1) (k ) i. 2. .CONVERGENCIA DE LOS MÉTODOS ITERATIVOS Al utilizar un método iterativo para resolver un sistema de ecuaciones lineales conviene tener en cuenta los siguientes aspectos: .i 1 xi(k11)  ai . Métodos iterativos..El error de redondeo producido en cada iteración no tiene tanta importancia como en los métodos directos: importa más el error de truncamiento del propio método.i 4. y a c vector corrector.. . La sucesión que se va construyendo es: 44 . Para cuantificar esta distancia se utiliza la norma vectorial de su diferencia x ( k 1)  x ( k ) .El criterio de parada es que la distancia absoluta o relativa entre los resultados obtenidos en las dos últimas iteraciones sea suficientemente pequeña. j  (i  1. N ) j 1 j  i 1 ai .i 1 xi(k1)    ai .. la mayoría de ellos involucran un proceso que convierte un sistema A x = b en un sistema equivalente de la forma x = T x + c.i bi   ai . .. En el método iterativo de Jacobi se usan todos los valores aproximados de la etapa anterior en la obtención de los nuevos valores aproximados.4. mientras que en el método iterativo de Gauss-Seidel se emplean las últimas aproximaciones obtenidas conforme se van generando: Método iterativo de Gauss-Seidel: b  ai .

LM PP . Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. c  D L b g 1 b Definición: Se dice que una matriz A de orden n es estrictamente diagonal dominante si: 45 . Se definen a partir de A las matrices: LMa 11 0  0 OP LM 0 0  0 OP LM0 a12  a1n OP a22  a 0  a 2 n DM PP . que interesa que sea suficientemente próxima a la solución exacta. y de la matriz T. Basta por lo tanto que alguna norma natural de la matriz T que se tome sea menor que uno para asegurar que (T) < 1 y que el método converge. se puede obtener como: x ( k 1)  D Lb g 1 Ux (k) b  D L g 1 b La matriz de paso y el vector corrector en el método de Gauss-Seidel son: T  D L b g 1 U . del mismo modo. Métodos iterativos. U M PP 0 0 0  0 0 MM MM MM 21 N0 0  ann PQ Na n1  an 2  0Q P N0 0  0 PQ con lo que el sistema A x = b se puede expresar como (D – L – U) x = b. Matriz de paso de los métodos de Jacobi y Gauss-Seidel a11 a12  a 1n LM OP a 21 a 22  a 2 n MM PP Sea A MNa n1 a n 2  a nn PQ la matriz de los coeficientes del sistema lineal A x = b. x ( 0) (aproximación inicial) x  Tx c (1) ( 0) x ( 2)  Tx (1) d  ci  c  T x  bT  I gc  c  T Tx ( 0) 2 ( 0) x  Tx  c  T dT x  b T  I gci  c  T x  cT h T  I c ( 3) (2) 2 ( 0) 3 ( 0) 2  Para que la sucesión {x(k)} converja será necesario que exista el límite lim T k 1 x k  ( 0) c  T k  T k 1    T  I c h Este límite va a depender de la aproximación inicial x(0). La suma (Tk + Tk-1 + ··· + T + I) converge a (I-T)-1 si y sólo si el radio espectral de la matriz T es menor que 1: (T) < 1. o lo que es igual: b g Dx  L  U x  b  x  D 1 L  U x  D 1 b b g Entonces la iteración de Jacobi se puede escribir: x ( k 1)  D 1 L  U x b g (k )  D 1 b y por tanto la matriz de paso y el vector corrector en el método de Jacobi son: T  D 1 L  U . c  D 1 b b g La iteración de Gauss-Seidel.

.y. y hay que usar las derivadas parciales y la matriz jacobiana. dv y dw los cambios diferenciales en las variables dependientes y por dx.y) es: LM f 1 f 1 OP x y J ( x. para obtener la convergencia bastará con reordenar el sistema colocando en la diagonal principal los coeficientes de mayor valor absoluto. La diferencial Cuando tenemos una función de varias variables.. y )  0 T f 2 ( x. Para resolver sistemas de ecuaciones no lineales es preciso trabajar con funciones de varias variables. CONCEPTOS PREVIOS. Sea el sistema no lineal: RS f1 ( x .y.z).z). y)  MM f 2 f 2 PP x y MN PQ 4..5. n a kk   a kj ( k  1. la diferencial es una magnitud que podemos usar para mostrar cómo afectan los cambios de las variables independientes a las variables dependientes.z) Supongamos que los valores de las funciones anteriores se conocen en el punto (x0. Teniendo esto en cuenta. . n) j 1 jk Se puede demostrar que: .. Entonces su matriz jacobiana J(x. (Matriz jacobiana). Métodos iterativos. los métodos de Jacobi y de Gauss-Seidel son convergentes. . En general el método de Gauss-Seidel converge más rápidamente que el de Jacobi.5.z0) y que queremos estimar sus valores en un punto cercano (x. v = f2(x.MÉTODOS ITERATIVOS PARA SISTEMAS NO LINEALES.y) funciones de dos variables independientes x e y.1. Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales.Si en el sistema de ecuaciones lineales A x = b la matriz A es estrictamente diagonal dominante. en muchas ocasiones. 4.. y)  0 Definición. entonces estos cambios se pueden expresar: 46 .y0. Sean f1(x.y) y f2(x.y. entonces para cualquier aproximación inicial. Consideremos las funciones: u = f1(x.y. dy y dz los cambios diferenciales en las variables independientes. 2.El método de Gauss-Seidel también converge cuando la matriz A es definida positiva.z) y w = f3(x. Si denotamos por du.

y . z0 )dx  3 ( x0 . esta relación se escribe de forma más cómoda como: LM f 1 ( x0 . y 0 . y ) Consideremos el sistema: v  f 2 ( x. z0 )dy  2 ( x 0 . Esta construcción se generaliza fácilmente a dimensiones mayores. z ) dy  J ( x .y0).. y0 ) y  y0 x y b g f f b g v  v 0  2 ( x 0 .y0). y0 ) x  x 0  2 ( x 0 . entonces: LM OP du dx LM OP dF  dv  J ( x . y) que puede interpretarse como una transformación del plano XOY en el plano UOV. z0 )dz x y z Usando notación vectorial. y0 . y0 . entonces podemos usar la diferencial del sistema para escribir un sistema de aproximaciones incrementales lineales válidas cerca del punto (x0. y0 ) x  x0  1 ( x0 .y0) en cuestión: f f b g u  u0  1 ( x0 . Si usamos la matriz jacobiana J(x0. y0 ) f 1 ( x0 . z0 )dx  1 ( x0 . z ) dX MM PP 0 MM PP 0 0 0 0 0 N Q dw Ndz Q 4. y0 . y 0 . y0 ) ( x0 . dy y dz por dX. Consideremos el sistema de ecuaciones que resulta de igualar u y v a cero en: 0  f1 ( x. y0 . y0 .EL MÉTODO DE NEWTON-RAPHSON PARA SISTEMAS NO LINEALES Vamos a construir el método de Newton-Raphson en el caso bidimensional. z0 )dy  3 ( x 0 . y0 ) y  y 0 x y b g El sistema anterior es una aproximación lineal local que nos da una idea del efecto que pequeños cambios en las variables independientes producen en las variables dependientes. cuya imagen es el punto (u0. y0 ) y  y0 y  y0 x N y PQ Usaremos esta aproximación para desarrollar el método de Newton bidimensional. u  f1 ( x . z0 )dz x y z f f f dv  2 ( x0 . Si representamos du.6. y0 . y0 ) OP LM u  u0  OP M x y x  x0 PP LMN OP  J ( x0 . dv y dw mediante la función vectorial dF y las diferenciales dx. z0 )dz x y z f f f dw  3 ( x0 . Métodos iterativos. z0 )dy  1 ( x 0 . y) 47 . Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales.v0). y0 ) x  x0 LM OP N v  v0 f 2 Q MM f 2 Q N Q ( x0 . y) 0  f 2 ( x. y si las dos funciones tienen derivadas parciales continuas. puede escribirse de forma más compacta utilizando la matriz jacobiana. Si estamos interesados en el comportamiento de esta transformación cerca del punto (x0. z0 )dx  2 ( x 0 . f 1 f f du  ( x0 . y0 . y .

q ) . q0 ) OP x MM f 2 y f 2 p  PP LMN OPQ LMN f 1 ( p0 . q0 ) 1 F ( p0 . q  y  q0 u  u0  f1 ( p. Calculamos el siguiente punto: Pk 1  Pk  P Y se repite el proceso. Supongamos que (p.q0) próximo a la solución (p. Esquema del método de Newton-Raphson Supongamos que hemos obtenido Pk. q0 ) q f 2 ( p0 . es decir. es: p1  p0  f ( p0 ) f  ( p0 ) 4. p  x  p0 v  v  v0 . q )  f1 ( p0 . qk ) OP x y J ( Pk )  f 2 MM f 2 PP ( pk . q0 ) entonces v  v0  f 2 ( p. Métodos iterativos. Si consideramos pequeños cambios de las funciones cerca de un punto inicial (p0.. Evaluamos la matriz jacobiana f 1 LM ( pk . 48 . q) . q0 ) f 1 ( p0 . Paso 1. como vimos. 0  f1 ( p. entonces podemos despejar t t P  p q = p q  p0 q 0 t de manera que P   J ( p0 . Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. qk ) ( pk .6. q0 ) x MN y PQ Si la matriz jacobiana J(p0.1. y 0  f 2 ( p. Evaluamos la función F ( Pk )  LM f ( p . q0 ) 1 F ( p0 . q0 )  0  f 2 ( p0 .q): u  u  u0 . q0 ) Expresando en forma matricial el sistema lineal cuyas incógnitas son p y q: LM f 1 ( p0 . q )  f 2 ( p0 . q0 ) Esto nos proporciona la siguiente aproximación P1 a la solución P = [p q]: P1  P0  P  P0  J ( p0 .q) es una solución de este sistema. q0 ) OP Q ( p0 . q k ) x MN y PQ Paso 3. q0 ) Hagamos notar que la fórmula anterior es la generalización de la fórmula de iteración del método de Newton-Raphson para funciones de una variable que. q ) OP 1 k k N f ( p .q0) es invertible. q0 ) ( p0 . qk ) f 1 ( pk . q )Q 2 k k Paso 2. q0 )  0  f 1 ( p0 . Calculamos P resolviendo el sistema lineal: J ( Pk ) p   F ( Pk ) Paso 4.

TEMA 4. z=3126. 5 iter. x=0. 5 iter. z=-1.— Realizar 5 iteraciones para resolver los siguientes sistemas mediante el método de Gauss-Seidel .01367. y=3126.226 c) 4x  2y  z  11 1   x  2y  x   1  . y=0.99979 b) R| 4 y  2z  2 0 FI S|4 x  2 y  10z  6 .00064 b) x=1..000385 4. 1.— Realizar 5 iteraciones del método de Jacobi para: R| 2 x 5 y 5z  12 S| 5 x 2 y 5z  12 T 5 x 5 y 2 z  12 ¿Es convergente? Justificar la respuesta. z=0.99982. y=2.— Resolver los siguientes sistemas utilizando el método de Jacobi a) R|  x  11y  z  3t  25 0 FI |S 2 x  y  10z  t  11 GG JJ   10 3 0 x  ( 0) 10 x  y  2 z ||  6 . 2x  y  4z  16 1    Sol. considerando como vector inicial el vector nulo. y=1.00128. y=2. Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales.00009. z=0.00077. z=2. ea=0.99999. t=0. Indicar el error absoluto y relativo: a) R| 4x  y  2 b) 2x R|  y 10z t  11 S|  x 4 y  z  6 3y |S  z 8t  15 10 x  y ||2 z  6 T  y 4 z  2  x 11y  z 3t  25 T Sol. x=1. ea=0. EJERCICIOS. GG JJ T 3 y  z  8t  15 0 HK Sol. Sol.er=0.99983. Métodos iterativos. t=0. z=-0.7.99991.— a) Resolver el siguiente sistema por el método de eliminación gaussiana: R| 2 x  y 1 x |S2 y  z 0 || y 2 z t  0 T z 2t  0 b) Realizar 4 etapas del método de Gauss-Seidel partiendo de los valores iniciales 49 .01593. ( 0) GG JJ   101 T5 x  4y  5 0 HK Sol. a) x=0. y=1. 10 iter. x=1. 4. er=0.99609 2.00003. x  0 .99998.00002. No. x=3126.99977.362. 3.   10 1 (0)   3.00012. 0 .670.

— Realizar cuatro iteraciones del método de Gauss-Seidel para resolver el sistema R| 1. t=-0.78 x 3.27 z   6. calcular el resultado t obtenido después de la segunda etapa de iteración partiendo del vector x ( 0 )  1.598090.1 y 0.999936 8.2 y 10 z  71. x ( 0) b  0.26699. 0.1x 7 y 0.11652.2.— Realizar 4 iteraciones del método de Gauss-Seidel. b g Sol. y=-3/5.0000 6.999936. Métodos iterativos.— Dado el sistema no lineal R|S4 x  y  1  0 2 2 |T2 x  x  y  3  0 2 2 utilizar la aproximación inicial (p0.099027. y=-2. z=7.4 Sol.7.13350 5. x= 3. Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales.88z   7. z=-2/5. redondeando los cálculos a cuatro cifras decimales. a) x=-4/5.70 0. con precisión 10-3: R| 10 x  y  z  12 S| x  10 y  z  12 x  T y  10 z  12 Sol.99661 10. y=1.78z  3.3 0 FI S| 3x 0.36 con x  0.. para resolver el sistema R| 0.5.95 3.x=0.q0) = (1.01y 4.85 con T0.0) para calcular las tres primeras iteraciones del método de Newton-Raphson. Utilizándolo. 0. 0. z=3. z=0.25.090711 7.43555. y=2.2 z  x  G 0J GH 0JK ( 0) 7. z=-0.1 g t Sol.— Dado el sistema R|x  z  1 S| 4y  2 Tx  4z  4 estudiar la convergencia del método de Gauss-Seidel. 0.39 x 9.63x 106 .5000.67422. x=0. Sol. y 2. x=0. x=1. 2.3. y=0. 0 . y=0. t=-1/5 b) x= -0.0000.999936.3z  19. 6 iter.2 H K Sol.2 ( 0) GG JJ T 3.— Dado el sistema no lineal R|x  y  x  3x  3x 3 2 |S 7 || y  y  2 y  x  2 2 T 2 50 .9375 9. z=0.71 F I S| 4.— Resolver el siguiente sistema mediante el método de Jacobi. y=-0.81y 4.5.3x 0.

2.19231. Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales.. 1. –1. Sol.286032. x=-0. x=-0..3.2216 b) ) 3 iter. y=-0. y=-1.q0) = (–0.118186 51 . utilizar la aproximación inicial (p0.q0) = (1.31506 R|Sx 2  y  0.2) Sol. Métodos iterativos.— Dado el sistema no lineal |T y 2  x  0.270802. a) 3 iter.2) b) partiendo de (p0.2  0 11. y=1. x=1.q0) = (0.3) para calcular las tres primeras iteraciones del método de Newton-Raphson.3  0 calcular las tres primeras iteraciones del método de Newton-Raphson a) partiendo de (p0.2. –0.

Ejercicios.5..1.. Convergencia de los métodos iterativos 44 4. MÉTODOS ITERATIVOS.1. Normas vectoriales y matriciales 39 4. Tema 4... 49 52 .6.La diferencial 46 4.4..1..2.1.Métodos de iteración de Jacobi y de Gauss-Seidel 42 4. 39 4. Sistemas mal condicionados y número de condición 40 4.3.. 46 4.Esquema del método de Newton-Raphson 48 4.6. Métodos iterativos.1. Métodos iterativos para sistemas lineales 42 4.3..5. Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Conceptos previos.Matriz de paso de los métodos de Jacobi y Gauss-Seidel 45 4.. TEMA 4: RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES Y NO LINEALES. Métodos iterativos para sistemas no lineales.7... El método de Newton-Raphson para sistemas no lineales 47 4.4.