You are on page 1of 36

TEMA 3: M etodos num ericos para la

resoluci on del sistemas lineales y no


lineales

Indice
1. Introducci on 3-2
2. Resoluci on de sistemas de ecuaciones no lineales 3-3
2.1. Generalizaci on de la iteraci on del punto jo . . . . . . . . . . . . . . . . 3-3
2.2. Cotas del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3-6
2.3. M etodo de Newton-Raphson en varias variables . . . . . . . . . . . . . 3-8
2.4. M etodos Cuasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 3-10
3. M etodos directos para sistemas lineales 3-10
3.1. Resoluci on de sistemas por eliminaci on gaussiana . . . . . . . . . . . . 3-10
3.1.1. Estrategias de pivotaje . . . . . . . . . . . . . . . . . . . . . . . . 3-16
3.2. Factorizaci on LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3-18
3.3. M etodo de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3-20
3.4. An alisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3-24
4. M etodos iterativos para sistemas lineales 3-27
4.1. Iteraci on del punto jo. Condiciones de convergencia . . . . . . . . . . 3-27
4.1.1. Condici on alternativa de convergencia . . . . . . . . . . . . . . 3-28
4.1.2. Cotas del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3-31
4.2. M etodos iterativos usuales . . . . . . . . . . . . . . . . . . . . . . . . . . 3-32
4.2.1. El m etodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . 3-33
4.2.2. El m etodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . 3-34
4.2.3. Convergencia de los m etodos . . . . . . . . . . . . . . . . . . . . 3-35
3-1
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
1. Introducci on
La primera parte del tema est a dedicada al dise no de m etodos num ericos que permitan
aproximar la raz de un sistema de ecuaciones no lineales. Dichos m etodos son una
generalizaci on de los vistos en el Tema 2 para el caso de una variable. En particular,
consideraremos el m etodo de Newton-Raphson.
La modelizaci on de problemas de la Fsica, Mec anica, etc. conducen en muchas oca-
siones, directamente o despu es de un proceso de discretizaci on, a la resoluci on de un
sistema de ecuaciones lineales de dimensi on nita. Adem as, otros problemas del An ali-
sis Num erico como los de aproximaci on, interpolaci on, etc. recurren a la resoluci on de
sistemas. Es por ello fundamental desarrollar m etodos num ericos ecientes que obten-
gan la soluci on de sistemas de ecuaciones lineales, de lo que se ocupar a el resto del
tema.
Estudiaremos la resoluci on de sistemas de n ecuaciones lineales con n inc ognitas,
los cuales representaremos en forma matricial como Ax = b, donde A = (a
ij
)
1i,jn
es la matriz de coecientes del sistema, x = (x
i
)
1in
el vector de las inc ognitas y
b = (b
i
)
1in
el vector de los t erminos independientes:
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
,
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
n1
x
1
+ a
n2
x
2
+ + a
nn
x
n
= b
n
.
Nos centraremos en el caso de coecientes reales, ya que si fueran complejos el pro-
blema se podra trasladar a la resoluci on de dos sistemas reales de tama no n. Adem as
consideraremos que [A[ ,= 0, lo que nos indica que el sistema tiene soluci on y es unica.
Partiendo del sistema Ax = b, donde A es una matriz cuadrada de orden n no
singular, una primera idea que podemos aplicar para obtener la soluci on del sistema
es calcularla como x = A
1
b, donde con A
1
representamos la inversa de la matriz A.
Una posible forma de hallar la inversa, sera calcular los adjuntos de los elementos de
A
t
y dividir por el determinante de A, con lo que el n umero de operaciones a realizar
sera de orden n
2
n!.
Otra manera de resolver este problema sera utilizar la regla de Cramer, donde la
componente i- esima del vector soluci on se calcula como:
x
i
=
[A
i
[
[A[
, 1 i n,
donde A
i
es la matriz que resulta al sustituir en A la columna i- esima por el vector de
t erminos independientes. Este m etodo requiere efectuar, teniendo en cuenta la deni-
ci on de determinante, un n umero de operaciones del orden de n
2
n!.
Nota. En un determinante hay n! t erminos que hay que sumar, lo cual supone n! 1
sumas. Cada t ermino es el producto de n elementos, luego requiere n 1 multiplica-
ciones. As pues, en cada determinante se realizan n!(n 1) productos y n! 1 sumas.
Como en total son n + 1 determinantes, el n umero de operaciones que se realiza es de:
n!(n 1)(n + 1) productos, (n! 1)(n + 1) sumas, y n cocientes correspondientes a la
divisi on por [A[.
3-2
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
En la pr actica el tiempo de c alculo necesario es exagerado, incluso para un ordena-
dor, y adem as, los errores de redondeo pueden llegar a ser tan grandes que invaliden
el resultado nal.
Por todo lo anterior parece necesario construir otro tipo de m etodos que sean m as
ecientes. Los m etodos que vamos a construir se agrupan en dos clases: m etodos direc-
tos y m etodos iterativos. Los primeros persiguen la obtenci on de la soluci on exacta del
sistema al cabo de un n umero nito de operaciones elementales; en dichos m etodos no
existe error de truncatura, pero s son sensibles a los errores de redondeo. Los m etodos
iterativos tienen como objetivo la construcci on de una sucesi on de vectores de R
n
cuyo
lmite sea la soluci on del sistema, x.
Dentro de los m etodos directos destacaremos el m etodo de Gauss, as como aquellos
que permiten factorizar la matriz A como producto de una matriz triangular inferior L
y una matriz triangular superior U, entre los que destaca el m etodo de Cholesky.
Respecto de los m etodos iterativos, centraremos nuestro estudio en aquellos que
resultan ser una generalizaci on del proceso de iteraci on del punto jo, como son el
m etodo de Jacobi y el de Gauss-Seidel.
2. Resoluci on de sistemas de ecuaciones no lineales
Hemos tratado en el tema anterior las ecuaciones de la forma f (x) = 0, donde f es
una funci on real de variable real. Casi todas las cuestiones que se han considerado
all pueden ser generalizadas sin mucha dicultad al caso en que f (x) sea una funci on
vectorial
f : D R
n
R
n
x = (x
1
, . . . , x
n
) f (x) =
_
f
1
(x), . . . , f
n
(x)
_
es decir, al caso en que nos encontramos ante un sistema de n ecuaciones no lineales
con n inc ognitas.
As pues, nuestro problema se formula ahora en los siguientes t erminos: encontrar
c = (c
1
, c
2
, . . . , c
n
) soluci on del sistema de n ecuaciones con n inc ognitas dado por:
f
1
(x
1
, x
2
, . . . , x
n
) = 0,
f
2
(x
1
, x
2
, . . . , x
n
) = 0,
. . . . . . . . . . . . . . . . . . .
f
n
(x
1
, x
2
, . . . , x
n
) = 0,
donde f
1
, f
2
, . . . , f
n
son las funciones componentes de una cierta funci on vectorial f .
2.1. Generalizaci on de la iteraci on del punto jo
Siguiendo el esquema unidimensional nos plantearemos, en primer lugar, la generali-
zaci on del proceso de iteraci on del punto jo. La extensi on de los m etodos de iteraci on
del punto jo a los sistemas de ecuaciones no lineales es sencilla desde el punto de
3-3
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
vista te orico, pero sin embargo desde el punto de vista pr actico presenta mayores pro-
blemas que en el caso unidimensional. Por una parte, existen grandes dicultades para
localizar a priori una regi on en la que se encuentre la raz, pues no disponemos ahora
de herramientas del tipo de los Teoremas de Bolzano y de Rolle y, por otra parte, es
mucho m as costoso comprobar las condiciones de convergencia global.
Dada una ecuaci on f (x) = 0, x R
n
, con f : R
n
R
n
, debemos reemplazar dicha
ecuaci on por otra equivalente de la forma x = g(x), donde x R
n
y g : R
n
R
n
, esto
es, en t erminos de las componentes de f (x) y g(x) la equivalencia se expresa como
f
i
(x
1
, . . . , x
n
) = 0 x
i
= g
i
(x
1
, . . . , x
n
), i = 1, 2, . . . , n.
Por ejemplo, la ecuaci on
f (x
1
, x
2
, x
3
) = (x
1
+ e
x
2
x
3
, 3x
2
sen x
1
+ x
3
, x
3
x
1
+ ln x
2
) = (0, 0, 0)
puede expresarse en la forma
x
1
= e
x
2
x
3
,
x
2
=
sen x
1
x
3
3
,
x
3
=
ln x
2
x
1
,
es decir que una funci on de iteraci on para la ecuaci on f (x) = 0 es
g(x
1
, x
2
, x
3
) =
_
e
x
2
x
3
,
sen x
1
x
3
3
,
ln x
2
x
1
_
.
A la hora de plantearnos resultados similares al Teorema de convergencia global
visto para el caso de una variable, hemos de reexionar en primer lugar sobre el hecho
de que la sucesi on x
(m+1)
= g(x
(m)
) es ahora una sucesi on vectorial, pues cada uno
de sus elementos es un vector de R
n
. Para analizar la convergencia de la sucesi on
se considerar a a R
n
como espacio vectorial normado, con cualquiera de las posibles
normas, pues todas son equivalentes. Recordemos que las normas m as habituales en
R
n
son las siguientes:
|x|
1
=
n

i=1
[x
i
[ (Norma uno)
|x|
2
=
_
n

i=1
x
2
i
_
1/2
(Norma eucldea)
|x|

= m ax
1in
[x
i
[ (Norma innito)
donde en todos los casos x = (x
1
, x
2
, . . . , x
n
) R
n
. Teniendo en cuenta la denici on de
sucesi on convergente en los espacios normados, es evidente que
lm
m
x
(m)
= c lm
m
|x
(m)
c| = 0.
3-4
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
La equivalencia de las normas hace que sea indiferente la norma elegida a la hora de
determinar la convergencia.
Nuestro primer objetivo ser a demostrar un teorema de convergencia global que ge-
neralice el que exista para el caso unidimensional.
Teorema 3.1. Sea g : S R
n
R
n
vericando:
(i) Existe un conjunto D = [a
1
, b
1
] [a
n
, b
n
] S tal que g(x) D, para todo x D.
(ii) Para alguna norma sobre R
n
, existe L (0 L < 1) tal que
|g(x) g(y)| L|x y|, x, y D.
Entonces existe un unico punto jo c de g en D y la sucesi on denida por x
(m+1)
= g(x
(m)
),
con x
(0)
un elemento arbitrario de D, converge a c.
Nota. Al igual que ocurra en el caso de las funciones de una variable, si g es su-
cientemente regular se puede sustituir la hip otesis (ii) por otra que resulte m as f acil de
comprobar. En particular, se puede demostrar que si todas las componentes de g, g
i
,
i = 1, . . . , n, son de clase 1 en D y se verica que

g
i
(x)
x
j

L
n
, x D, con 0 L < 1, para i, j = 1, . . . , n (1)
entonces se cumple la condici on (ii) con la misma constante L si se toma la norma 1
o la norma innito. Detallamos la prueba en el caso de la norma 1. En primer lugar,
observemos que de la f ormula de Taylor en varias variables se deduce que para todo
x, y D, podemos escribir
g
i
(x) g
i
(y) =
n

j=1
g
i
(
i
)
x
j
(x
j
y
j
),
donde
i
es un punto intermedio entre x e y.
Ahora bien, si se verica (1), se deduce que
[g
i
(x) g
i
(y)[
L
n
n

j=1
[x
j
y
j
[,
y sumando sobre i de 1 a n se obtiene la desigualdad
n

i=1
[g
i
(x) g
i
(y)[ L
n

j=1
[x
j
y
j
[,
que, de acuerdo con la denici on de la norma 1, se transforma en
|g(x) g(y)|
1
L|x y|
1
.
As pues, si g C
1
(D) y verica la condici on (i) del Teorema y la condici on dada
en (1), se puede asegurar la convergencia de la iteraci on del punto jo a la soluci on de
x = g(x) en D, cualquiera que sea x
(0)
D.
3-5
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
2.2. Cotas del error
De manera totalmente an aloga a como se hace para el caso de una variable, se pue-
de demostrar que en las hip otesis del Teorema de Convergencia Global, se tienen las
siguientes acotaciones del error:
(i) |x
(m)
c|
L
m
1 L
|x
(1)
x
(0)
|,
(ii) |x
(m)
c|
L
1 L
|x
(m)
x
(m1)
|.
Aunque formalmente las cotas son v alidas cualquiera que sea la norma elegida, las
m as ajustadas ser an aquellas que corresponden a las normas para las que se verique
la segunda condici on del teorema de convergencia.
Ejemplo 3.2. Consideremos el sistema de ecuaciones no lineales denido por:
8000x
1
+ 0.5x
2
2
+ 2x
3
3
= 18008,
x
1
+ 10500x
2
+ x
3
3
= 43003,
x
3
1
+ 0.5x
2
+ 7850x
3
= 78510.
Construya un sistema equivalente de la forma g(x
1
, x
2
, x
3
) = (x
1
, x
2
, x
3
) de manera que
la funci on g verique las hip otesis del teorema de convergencia global en D = [1.5, 2.5]
[3.5, 4.5] [9.5, 10.5].
Resoluci on. La posibilidad m as simple de obtener una ecuaci on equivalente del tipo
buscado es
x
1
=
18008 0.5x
2
2
2x
3
3
8000
,
x
2
=
43003 x
1
x
3
3
10500
,
x
3
=
78510 x
3
1
0.5x
2
7850
,
que corresponde a la siguiente funci on de iteraci on:
g(x) =
_
18008 0.5x
2
2
2x
3
3
8000
,
43003 x
1
x
3
3
10500
,
78510 x
3
1
0.5x
2
7850
_
.
Puesto que g C
1
(D), para ver si estamos en las hip otesis de convergencia, vamos
a analizar si se verican las condiciones:
(i) g(x) D, para todo x D.
(ii) Existe L (0 L < 1) tal que

g
i
(x)
x
j

L
n
, con i, j = 1, 2, 3.
3-6
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Para probar la condici on (i), observemos que, en este caso, por el tipo de funci on con
la que estamos trabajando, es sencillo acotar superior e inferiormente los valores que
pueden tomar las funciones componentes g
1
, g
2
y g
3
en D. En efecto, es evidente que
g
1
(x
1
, 4.5, 10.5) g
1
(x
1
, x
2
, x
3
) g
1
(x
1
, 3.5, 9.5),
para todo (x
1
, x
2
, x
3
) D y, por consiguiente, 1.960328 g
1
(x
1
, x
2
, x
3
) 2.227671, de
donde se sigue que g
1
(x
1
, x
2
, x
3
) [1.5, 2.5], para todo (x
1
, x
2
, x
3
) D.
De modo an alogo,
3.9850 g
2
(x
1
, x
2
, x
3
) 4.0137, (x
1
, x
2
, x
3
) D,
y
9.998996815 g
3
(x
1
, x
2
, x
3
) 10.000621, (x
1
, x
2
, x
3
) D.
es decir, que se verica la condici on g(D) D.
Para probar (ii), observemos que
g
1
x
1
(x
1
, x
2
, x
3
) =
g
2
x
2
(x
1
, x
2
, x
3
) =
g
3
x
3
(x
1
, x
2
, x
3
) = 0,
g
1
x
2
(x
1
, x
2
, x
3
) =
x
2
8000
,
g
1
x
3
(x
1
, x
2
, x
3
) =
6x
2
3
8000
,
g
2
x
1
(x
1
, x
2
, x
3
) =
1
10500
,
g
2
x
3
(x
1
, x
2
, x
3
) =
3x
2
3
10500
,
g
3
x
1
(x
1
, x
2
, x
3
) =
3x
2
1
7850
,
g
3
x
2
(x
1
, x
2
, x
3
) =
0.5
7850
,
de donde se deduce que m ax
1i,j3
[g
i
/x
j
[ = 0.08268, por lo que tomando L = 3
0.08268 = 0.24804 se tiene (1).
As pues, la funci on g tiene un unico punto jo en D y la sucesi on vectorial denida
por
x
(m+1)
1
=
18008 0.5(x
(m)
2
)
2
2(x
(m)
3
)
3
8000
,
x
(m+1)
2
=
43003 x
(m)
1
(x
(m)
3
)
3
10500
,
x
(m+1)
3
=
78510 (x
(m)
1
)
3
0.5(x
(m)
2
)
7850
,
con (x
(0)
1
, x
(0)
2
, x
(0)
3
) D converge a dicho punto jo.
3-7
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
2.3. M etodo de Newton-Raphson en varias variables
Al igual que en el caso de una variable nos podemos plantear de nuevo las cuestio-
nes relativas al orden y a la velocidad de convergencia. La denici on de orden de
convergencia para las sucesiones vectoriales es id entica a las reales sin m as que susti-
tuir lm
n
[e
n+1
[/[e
n
[
p
por lm
n
|e
n+1
|/|e
n
|
p
. En estas condiciones, tiene perfecto
sentido plantearnos la posibilidad de generalizar el m etodo de Newton-Raphson. Es
posible introducir este m etodo imponiendo condiciones sobre la funci on de iteraci on
que garanticen la convergencia cuadr atica de modo similar a como se realiz o en el caso
de una variable.
El el caso de una variable, para resolver una ecuaci on f (x) = 0, en el m etodo de
Newton se construye un proceso iterativo de la forma:
x
(m+1)
= x
(m)

f (x
(m)
)
f
/
(x
(m)
)
. (2)
En el caso de varias variables, la derivada de la funci on se sustituye por su matriz
jacobiana, de manera que (2) se transforma en:
x
(m+1)
= x
(m)
J
1
f
(x
(m)
) f (x
(m)
). (3)
donde J
f
es la matriz jacobianas de f :
J
f
(x) =
_
f
i
(x)
x
j
_
.
No detallaremos en este caso un resultado sobre convergencia global por su com-
plejidad y su escasa utilidad desde un punto de vista pr actico, pero s se nalaremos que
si f tiene derivadas parciales segundas continuas en un entorno de la raz y adem as
su Jacobiano no se anula en dicho entorno, se puede garantizar la convergencia del
m etodo de Newton-Raphson y adem as dicha convergencia es cuadr atica.
Para hacer los c alculos del m etodo de Newton, no se requiere invertir la matriz
jacobiana en cada iteraci on, sino que suele usarse la relaci on
J
f
(x
(m)
)(x
(m+1)
x
(m)
) = f (x
(m)
). (4)
Entonces, si conocemos x
(m)
, usamos (4) para hallar x
m+1
= x
(m+1)
x
(m)
, de
donde obtenemos
x
(m+1)
= x
(m)
+x
m+1
.
A continuaci on, hallemos las f ormulas explcitas del m etodo en el caso de dos va-
riables. Utilizamos notaci on de subndice para las derivadas parciales con el objeto de
simplicar las expresiones. En el caso n = 2, la inversa de la matriz jacobiana puede
3-8
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
calcularse f acilmente:
J
f
(x, y) =
_
_
f
1
x
(x, y)
f
1
y
(x, y)
f
2
x
(x, y)
f
2
y
(x, y)
_
_
=
_
( f
1
)
x
( f
1
)
y
( f
2
)
x
( f
2
)
y
_
,
J
1
f
(x, y) =
1
[J
f
(x, y)[
_
( f
2
)
y
( f
1
)
y
( f
2
)
x
( f
1
)
x
_
,
donde [J
f
(x, y)[ = ( f
1
)
x
( f
2
)
y
( f
2
)
x
( f
1
)
y
es el determinante de la matriz jacobiana.
Denotando por x
m
e y
m
a las componentes de la aproximaci on m- esima a la soluci on,
la ecuaci on (3) en componentes se escribir a como:
x
m+1
= x
m

_
f
1
( f
2
)
y
f
2
( f
1
)
y
[J
f
[
_
(x
m
,y
m
)
,
y
m+1
= y
m

_
f
2
( f
1
)
x
f
1
( f
2
)
x
[J
f
[
_
(x
m
,y
m
)
,
donde con el subndice del corchete se indica que todas las funciones del interior del
mismo est an evaluadas en el punto se nalado.
Observemos que el esfuerzo de c alculo requerido para aplicar el m etodo de Newton-
Raphson es muy grande pues se necesita evaluar en cada iteraci on dos funciones y
cuatro derivadas parciales.
Ejemplo 3.3. Dado el sistema de ecuaciones no lineales
x
2
y
2
2
x +
7
24
= 0,
xy y +
1
9
= 0,
halle las primeras iteraciones del m etodo de Newton-Raphson partiendo del vector nulo.
Resoluci on. Se puede comprobar que el sistema dado tiene una soluci on unica en
[0, 0.4] [0, 0.4]. Vamos a efectuar las primeras iteraciones del m etodo de Newton-
Raphson partiendo de x
(0)
= 0 e y
(0)
= 0. Para ello observemos que, en este caso,
f
1
(x, y) =
x
2
y
2
2
x +
7
24
, f
2
(x, y) = xy y +
1
9
,
y derivando parcialmente respecto de x e y se tiene
( f
1
)
x
(x, y) = x 1, ( f
1
)
y
(x, y) = y,
( f
2
)
x
(x, y) = y, ( f
2
)
y
(x, y) = x 1,
de donde el determinante de la matriz jacobiana es
J
f
(x, y) = (x 1)
2
+ y
2
.
Aplicando la f ormula del m etodo de Newton se obtienen los siguientes resultados:
3-9
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
m x
(m)
y
(m)
0 0 0
1 0.2916 0.1111
2 0.3346 0.1636
3 0.3333 0.1667
donde se pone de maniesto la convergencia de la sucesi on.
2.4. M etodos Cuasi-Newton
Uno de los problemas del m etodo de Newton es que requiere mucho esfuerzo compu-
tacional: en cada iteraci on hay que calcular una matriz jacobiana, lo que supone eva-
luar n
2
derivadas parciales, y luego resolver un sistema de n ecuaciones y n inc ognitas
con dicha matriz. El esfuerzo computaciones total para realizar una iteraci on del m eto-
do de Newton conlleva, por tanto, al menos n
2
+ n evaluaciones de funciones escala-
res (n
2
para la matriz jacobiana y n para las f
i
) junto con un n umero de operaciones
aritm eticas O(n
3
) para resolver el sistema lineal. Para valores altos de n, este n umero
de operaciones es prohibitivo, por lo que se recurre a otros m etodos como el m etodo
de Broyden.
3. M etodos directos para sistemas lineales
3.1. Resoluci on de sistemas por eliminaci on gaussiana
Una matriz A se dice triangular superior (respectivamente triangular inferior) si todos
los elementos situados bajo la diagonal principal son nulos, es decir a
ij
= 0 si i > j
(respectivamente a
ij
= 0 si i < j). Un sistema de ecuaciones se dice triangular superior
(respectivamente triangular inferior) si su matriz de coecientes lo es.
Consideremos el siguiente sistema triangular superior:
_
_
_
_
_
_
_
a
11
a
12
a
13
a
1n
0 a
22
a
23
a
2n
0 0 a
33
a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b
1
b
2
b
3
.
.
.
b
n
_
_
_
_
_
_
_
en el cual supondremos que [A[ ,= 0, es decir a
ii
,= 0, i.
Si utilizamos la regla de Cramer para resolver este sistema no aprovecharemos el
gran n umero de ceros que posee esta matriz, por lo que para resolver un sistema trian-
gular superior se utiliza el procedimiento conocido como sustituci on regresiva, que po-
demos expresar en la forma:
x
n
=
b
n
a
nn
,
x
i
=
1
a
ii
_
b
i

j=i+1
a
ij
x
j
_
, i = n 1, n 2, . . . , 1.
3-10
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Observemos que en primer lugar se despeja el valor de x
n
, este valor se sustituye en la
ecuaci on n 1, para a continuaci on despejar x
n1
y as sucesivamente hasta calcular
x
1
. Este proceso reduce dr asticamente el n umero de operaciones que supondra el uso
de la regla de Cramer, ya que el n umero de operaciones en este caso es n
2
.
Otro tipo de sistemas que conviene destacar son los sistemas diagonales, es decir
aquellos en los que la matriz de coecientes verica que a
ij
= 0 para todo valor de
i ,= j,
_
_
_
_
_
_
_
a
11
0 0 0
0 a
22
0 0
0 0 a
33
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
.
.
.
x
n
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
b
1
b
2
b
3
.
.
.
b
n
_
_
_
_
_
_
_
y cuya soluci on se obtiene de forma inmediata como
x
i
=
b
i
a
ii
, i = 1, 2, . . . , n, (a
ii
,= 0, i).
Teniendo en cuenta que estos sistemas son de f acil soluci on y que el n umero de ope-
raciones realizadas para calcular tales soluciones es sensiblemente menor que el que
resulta utilizando otras t ecnicas, como por ejemplo, la regla de Cramer, vamos a inten-
tar reducir el problema general a la resoluci on de un sistema triangular (o diagonal),
siendo esta la esencia de los m etodos directos.
Para ello es util recordar la soluci on de un sistema de ecuaciones lineales no cambia
si se hacen las siguientes transformaciones:
* Multiplicar una ecuaci on por una constante no nula.
* Intercambiar ecuaciones entre s.
* Sumar a una ecuaci on un m ultiplo de otra.
* Aplicar reiteradamente cualesquiera de las operaciones anteriores (en particular su-
mar a una ecuaci on una combinaci on lineal del resto).
Estudiaremos en primer lugar el m etodo de Gauss, basado en la transformaci on de
la matriz A de partida en una matriz triangular superior.
El m etodo de Gauss consiste en la reducci on del sistema a otro de matriz de coe-
cientes triangular a trav es de n 1 etapas, en cada una de las cuales se va consiguiendo
dejar en forma triangular una la m as.
Comenzaremos el estudio de este m etodo presentando un ejemplo:
Ejemplo 3.4.
3x
1
x
2
+ 2x
3
= 12
x
1
+ 2x
2
+ 3x
3
= 11
2x
1
2x
2
x
3
= 2

_
_
3 1 2
1 2 3
2 2 1
_
_
_
_
x
1
x
2
x
3
_
_
_
_
12
11
2
_
_
3-11
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
_
_
3 1 2
1 2 3
2 2 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
12
11
2
_
_
F
2

1
3
F
1
F
3

2
3
F
1
_
_
3 1 2
0 7/3 7/3
0 4/3 7/3
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
12
7
6
_
_
F
3
+
4
7
F
2
_
_
3 1 2
0 7/3 7/3
0 0 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
12
7
2
_
_
x
1
= 3,
x
2
= 1,
x
3
= 2.
De forma general, si partimos de un sistema de la forma Ax = b, el m etodo de Gauss
nos permite tranformar la matriz A de partida en una matriz triangular superior U a
trav es de n 1 pasos, obteni endose la siguiente sucesi on de matrices intermedias:
A =

A
1
A
1


A
2
A
2


A
n
= A
n
= U,
con A
k
= (a
(k)
ij
)
1i,jn
y

A
k
= ( a
(k)
ij
)
1i,jn
. En el caso en que a
(k)
kk
= 0, la matriz A
k
se
obtiene a partir de

A
k
situando en la posici on (k, k) un elemento no nulo de la columna
k por debajo de la diagonal principal, para lo cual las las de

A
k
se intercambian. Esto
es siempre posible ya que hemos considerado que [A[ ,= 0 y por lo tanto la matriz A
k
es tambi en no singular, k = 1, . . . , n.
En el caso de que a
(k)
kk
,= 0, k, no es necesario realizar cambios de las y

A
k
= A
k
,
con lo que se tiene
A = A
1
A
2
A
n
= U,
b = b
(1)
b
(2)
b
(n)
,
donde la matriz A
k
tiene ceros en los elementos de las k 1 primeras columnas bajo
la diagonal principal y donde b
(k)
= (b
(k)
i
)
1in
es el vector que contiene los t erminos
independientes en el paso k, con k = 1, 2, . . . , n.
En un paso k cualquiera obtendremos la matriz A
k+1
a partir de la A
k
haciendo ceros
los elementos de la columna k que se encuentran bajo la diagonal principal.
3-12
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Sea A
k
la matriz
A
k
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
(k)
11
a
(k)
12
a
(k)
1k
a
(k)
1n
0 a
(k)
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
(k)
kk
a
(k)
k,k+1
a
(k)
kn
0 0 a
(k)
k+1,k
a
(k)
k+1,k+1
a
(k)
k+1,n
0 0 a
(k)
k+2,k
a
(k)
k+2,k+1
a
(k)
k+2,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
(k)
nk
a
(k)
n,k+1
a
(k)
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
con a
(k)
kk
,= 0. Para hacer ceros en las posiciones (k + 1, k), (k + 2, k), . . . , (n, k), restare-
mos a cada la un m ultiplo adecuado de la la k, esto es
F
k+1

a
(k)
k+1,k
a
(k)
kk
F
k
, F
k+2

a
(k)
k+2,k
a
(k)
kk
F
k
, . . . , F
n

a
(k)
nk
a
(k)
kk
F
k
,
con lo que obtendremos la siguiente matriz
A
k+1
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
(k+1)
11
a
(k+1)
12
a
(k+1)
1k
a
(k+1)
1n
0 a
(k+1)
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
(k+1)
kk
a
(k+1)
k,k+1
a
(k+1)
kn
0 0 0 a
(k+1)
k+1,k+1
a
(k+1)
k+1,n
0 0 0 a
(k+1)
k+2,k+1
a
(k+1)
k+2,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
(k+1)
n,k+1
a
(k+1)
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
De esta forma, el elemento (i, j) de la matriz A
k+1
se ha calculado utilizando la
expresi on
a
(k+1)
ij
=
_

_
a
(k)
ij
, 1 i k, 1 j n,
a
(k)
ij
m
ik
a
(k)
kj
, k + 1 i n, k + 1 j n,
0, k + 1 i n, 1 j k.
Como se observa las k primeras las de A
k
no se modican.
Es conveniente destacar en el proceso los siguientes elementos:
3-13
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
* La ecuaci on k- esima se denomina ecuaci on pivotal.
* El elemento (k, k) lo denotaremos como el elemento pivote del paso k.
* Para hacer cero en la posici on (i, k) utilizamos el siguiente cociente, m
ik
= a
(k)
ik
/a
(k)
kk
,
que llamaremos el multiplicador (i, k).
En lo que reere a los t erminos independientes, las componentes del vector b
(k+1)
se obtendr an a partir de las de b
(k)
de la siguiente forma:
b
(k+1)
i
=
_
_
_
b
(k)
i
, 1 i k,
b
(k)
i
m
ik
b
(k)
k
, k + 1 i n.
Ejemplo 3.5. Resuelva utilizando el m etodo de eliminaci on gaussiana, el siguiente sistema
lineal de ecuaciones:
3x
1
x
2
+ 2x
3
= 12,
x
1
+ 2x
2
+ 3x
3
= 11,
2x
1
2x
2
x
3
= 2.
Resoluci on. En las distintas etapas del proceso de eliminaci on de Gauss, se obtiene
que:
A = A
1
=
_
_
3 1 2
1 2 3
2 2 1
_
_
, b
(1)
=
_
_
12
11
2
_
_
= b,
m
21
= 1/3
m
31
= 2/3
_
= A
2
=
_
_
3 1 2
0 7/3 7/3
0 4/3 4/3
_
_
, b
(2)
=
_
_
12
7
6
_
_
,
m
32
= 4/7 = A
3
=
_
_
3 1 2
0 7/3 7/3
0 0 1
_
_
, b
(3)
=
_
_
12
7
2
_
_
.
El sistema nal resultante es A
3
x = b
(3)
:
_
_
3 1 2
0 7/3 7/3
0 0 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
12
7
2
_
_
(5)
y sus soluciones son x
1
= 3, x
2
= 1, x
3
= 2.
Teniendo en cuenta la descripci on que acabamos de hacer del m etodo de Gauss, se
deduce el siguiente algoritmo:
3-14
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
ALGORITMO DE GAUSS:
Para k = 1 hasta n 1 hacer
(Estudiar a
kk
)
Para i = k + 1 hasta n hacer
m
ik
= a
ik
/a
kk
Para j = k hasta n hacer
a
ij
= a
ij
m
ik
a
kj
fin j
b
i
= b
i
m
ik
b
k
fin i
fin k
El estudio del elemento a
kk
supone comprobar si dicho elemento es nulo, en cuyo caso
situaremos en esa posici on un elemento no nulo de la columna k por debajo de la
diagonal principal, para lo cual ser a necesario intercambiar las. Tambi en podemos
plantearnos la elecci on de alguna estrategia de pivotaje, cuyo estudio abordaremos
m as adelante.
A la hora de evaluar el n umero de operaciones que se realizan en el proceso hay que
tener en cuenta los pasos del proceso de eliminaci on y la etapa de sustituci on regresiva.
Se puede comprobar que el n umero total de operaciones realizadas es (4n
3
+ 9n
2

7n)/6.
A continuaci on se expone una tabla en la que se ve claramente que el m etodo de
Gauss reduce notablemente el n umero de operaciones que se realizaran aplicando la
regla de Cramer (expresaremos el n umero de operaciones a trav es de la mayor potencia
de 10 que en el aparece):
n GAUSS CRAMER
10 10
2
10
8
50 10
4
10
64
100 10
5
10
160
La parte de eliminaci on del m etodo de Gauss tambi en nos permite comprobar si
[A[ = 0, lo cual ocurrir a cuando en el paso k se verique
a
(k)
kk
= a
(k)
k+1,k
= a
(k)
k+2,k
= = a
(k)
nk
= 0.
Nota. Obs ervese que las operaciones del proceso de eliminaci on de Gauss no alteran el
valor absoluto del determinante de la matriz de partida, por lo que podemos asegurar
que todas las matrices A
k
tienen en mismo determinante en valor absoluto. En cuanto
3-15
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
a la matriz A
k
, desarrollando reiteradamente por los adjuntos de los elementos de la
primera columna de las diversas submatrices, su determinante viene dado por:
[A
k
[ = a
(k)
11
a
(k)
22
a
(k)
k1,k1

a
(k)
kk
a
(k)
k,k+1
. . . a
(k)
kn
. . . . . . . . . . . . . . . . . .
a
(k)
nk
a
(k)
n,k+1
. . . a
(k)
nn

.
Ejemplo 3.6. Utilice la eliminaci on gaussiana para resolver el sistema:
2x
1
+ 3x
2
+ x
3
= 6,
4x
1
+ 6x
2
+ 3x
3
= 13,
6x
1
+ 9x
2
+ x
3
= 16.
Resoluci on. En este caso se obtiene que m
21
= 2 y m
31
= 3. Esto nos lleva al sistema
2x
1
+ 3x
2
+ x
3
= 6,
x
3
= 1,
2x
3
= 2.
En este caso a
(2)
22
= a
(2)
32
= 0, de donde se deduce que [A[ = 0, con lo que el sistema o
no posee soluci on o tiene innitas soluciones. Este ejemplo corresponde a la segunda
situaci on y las soluciones son:
x
3
= 1, x
1
=
5 3x
2
2
.
3.1.1. Estrategias de pivotaje
En la aplicaci on del m etodo de Gauss, s olo hemos contemplado hasta ahora la posi-
bilidad de elecci on de la ecuaci on pivotal cuando, en un paso k gen erico, el elemento
a
(k)
kk
era nulo. A un en el caso de que a
(k)
kk
= 0 el algoritmo que se utiliz o se basaba en
una elecci on al azar, buscando como elemento pivote el primer elemento no nulo de la
columna k bajo la diagonal principal. Veamos a continuaci on un ejemplo que muestra
que no es indiferente la elecci on de la ecuaci on pivotal.
Ejemplo 3.7 (Forsythe, 1967). Resuelva utilizando aritm etica de punto otante con tres ci-
fras signicativas el sistema:
(0.100)10
3
x + (0.100)10
1
y = (0.100)10
1
,
(0.100)10
1
x + (0.100)10
1
y = (0.200)10
1
.
Resoluci on. Puede comprobarse que la soluci on exacta utilizando seis digitos signi-
cativos es: x = 1.00010, y = 0.999900, lo que nos sirve de referencia para valorar la
aproximaci on que se obtiene al utilizar un n umero limitado de dgitos signicativos.
Si efectuamos el proceso normal de eliminaci on de Gauss, tenemos que m
21
= (0.100)10
5
,
lo que nos lleva al sistema
(0.100)10
3
x + (0.100)10
1
y = (0.100)10
1
,
(0.100)10
5
y = (0.100)10
5
,
3-16
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
y as, utilizando sustituci on regresiva, se deduce que x = 0.00 e y = 1.00, soluci on
bastante distinta de la soluci on aut entica.
Sin embargo, cambiando los papeles entre la primera y la segunda ecuaci on, el sis-
tema obtenido es
(0.100)10
1
x + (0.100)10
1
y = (0.200)10
1
,
(0.100)10
3
x + (0.100)10
1
y = (0.100)10
1
,
y las soluciones que a partir de el se obtienen son x = 1.00 e y = 1.00 con la consi-
guiente mejora de la exactitud.
Hay que tener en cuenta que en el proceso de eliminaci on de Gauss se realizan
divisiones por los elementos a
(k)
kk
y que si dicho elemento es muy peque no, entonces un
error de redondeo, aunque sea peque no en valor absoluto, puede producir errores muy
grandes en el cociente, con el consiguiente perjuicio para la precisi on del resultado. la
forma m as usual de elegir el elemento pivote corresponde a la estrategia de pivotaje
parcial que se describe a continuaci on.
En cada paso k (1 k n 1) se realizar an los cambios necesarios entre las para
situar en la posici on (k, k) el mayor elemento en valor absoluto de la columna k entre
las las k y n, ambas inclusive, es decir, situaremos en la posici on (k, k) al elemento a
(k)
lk
vericando:
[a
(k)
lk
[ = m ax
kin
[a
(k)
ik
[,
pasando a ser la ecuaci on l- esima la ecuaci on pivotal.
Ejemplo 3.8. Resuelva el sistema
x
1
+ x
2
x
3
= 0,
2x
1
+ x
2
+ x
3
= 7,
3x
1
2x
2
x
3
= 4,
utilizando el m etodo de Gauss con estrategia de pivotaje parcial.
Resoluci on. Para la eliminaci on de la inc ognita x
1
utilizaremos como pivote el ele-
mento en la posici on (3, 1), siendo este el coeciente de x
1
en la tercera ecuaci on, con
lo que intercambiando la primera y la tercera ecuaci on se tiene
3x
1
2x
2
x
3
= 4,
2x
1
+ x
2
+ x
3
= 7,
x
1
+ x
2
x
3
= 0.
Ahora, puesto que m
21
= 2/3 y m
31
= 1/3 se obtiene el sistema
3x
1
2x
2
x
3
= 4,
7
3
x
2
+
5
3
x
3
=
29
3
,
5
3
x
2

2
3
x
3
=
4
3
.
3-17
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Para la eliminaci on de x
2
la elecci on del pivote sera entre 7/3 y 5/3 y como [7/3[ >
[5/3[, entonces el pivote sera 7/3 y no es necesario intercambiar ninguna ecuaci on.
Puesto que m
32
= 5/7, el sistema resultante es
3x
1
2x
2
x
3
= 4,
7
3
x
2
+
5
3
x
3
=
29
3
,

39
21
x
3
=
173
21
,
(6)
el cual se resuelve por sustituci on regresiva, obteni endose x
1
= 1, x
2
= 2 y x
3
= 3.
Es ilustrativo resolver el ejercicio viendo la evoluci on de las matrices ampliadas de
los diferentes sistemas que se van formando. Denotamos por F
(k)
i
a la la i- esima de la
matriz ampliada correspondiente al sistema obtenido en el paso k- esimo.
_
_
_
_
_
1 1 1 0
2 1 1 7
3 2 1 4
_
_
_
_
_
F
(1)
1
F
(1)
2
F
(1)
3

_
_
_
_
_
3 2 1 4
1 1 1 0
2 1 1 7
_
_
_
_
_
F
(2)
1
= F
(1)
3
F
(2)
2
= F
(1)
2
F
(2)
3
= F
(1)
1

_
_
_
_
_
3 2 1 4
0
7
3
5
3
29
3
0
5
3
2
3
4
3
_
_
_
_
_
F
(3)
1
= F
(2)
1
F
(3)
2
= F
(2)
2

2
3
F
(2)
1
F
(3)
3
= F
(2)
3

1
3
F
(2)
1

_
_
_
_
_
3 2 1 4
0
7
3
5
3
29
3
0 0
39
21
173
21
_
_
_
_
_
F
(4)
1
= F
(3)
1
F
(4)
2
= F
(3)
2
F
(4)
3
= F
(3)
3

5
7
F
(3)
2
donde la ultima matriz ampliada corresponde al sistema triangular (6).
3.2. Factorizaci on LU
Consideremos el sistema de ecuaciones lineales Ax = b. Si se conoce una descompo-
sici on de la matriz A como producto de una matriz triangular inferior L = (l
ij
)
1i,jn
por una matriz triangular superior U = (u
ij
)
1i,jn
, A = LU, entonces la resoluci on
del sistema anterior queda reducida a la resoluci on de dos sistemas triangulares
Ax = b (LU)x = b
_
Ly = b
Ux = y
que podemos expresar como
_
_
_
_
_
_
l
11
0 0
l
21
l
22
0 0
l
31
l
32
l
33
0 0
. . . . . . . . . . . . . . . . . . . . . . .
l
n1
l
n2
l
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
y
1
y
2
y
3
.
.
.
y
n
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
b
1
b
2
b
3
.
.
.
b
n
_
_
_
_
_
_
_
3-18
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
y
_
_
_
_
_
_
u
11
u
12
u
1n
0 u
22
u
23
u
2n
0 0 u
33
u
34
u
3n
. . . . . . . . . . . . . . . . . . . . . . . . .
0 0 u
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
.
.
.
x
n
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
y
1
y
2
y
3
.
.
.
y
n
_
_
_
_
_
_
_
.
Resolviendo el primero por sustituci on progresiva calcularemos el vector y. Sustitu-
yendo este en el segundo sistema y utilizando sustituci on regresiva podremos calcular
el vector x que es la soluci on del sistema de partida.
De esta forma nos estamos planteando una nueva estrategia para resolver un siste-
ma de ecuaciones lineales. La pregunta que debemos hacernos ahora es la siguiente:
c omo se obtienen las matrices L y U?
En primer lugar es evidente que a partir de la relaci on A = LU obtenemos ciertas
ecuaciones que permitir an el c alculo de los elementos de L y U:
l
11
u
11
= a
11
,
u
1j
=
a
1j
l
11
, j 2,
l
ij
=
a
i1
u
11
, i 2,
l
kk
u
kk
= a
kk

k1

r=1
l
kr
u
kr
, k 2,
u
kj
=
1
l
kk
_
a
kj

k1

r=1
l
kr
u
rj
_
, j > k, k 2,
l
ik
=
1
u
kk
_
a
ik

k1

r=1
l
ir
u
rk
_
, i > k, k 2.
El n umero de ecuaciones que se obtienen es inferior al n umero de inc ognitas a deter-
minar (n
2
< n
2
+n), por lo que en ocasiones se suelen jar algunos de los elementos de
tales matrices con el n de obtener una unica soluci on. Por ejemplo, se suele considerar
que l
ii
= 1, para todo valor de i.
Observaciones:
(O1) Los elementos de la matriz A = LU pueden calcularse como:
a
ij
=
mni,j

k=1
l
ik
u
kj
, 1 i, j n.
3-19
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
(O2) No toda matriz admite una descomposici on LU. Por ejemplo, si a
11
= 0, se tiene
que:
a
11
= l
11
u
11
= 0
a
1j
= l
11
u
1j
, j 2
a
i1
= l
i1
u
11
, i 2
_
_
_
= a
1j
= 0, j o a
i1
= 0, i.
Un criterio que nos permite asegurar cuando dicha descomposici on es posible es el
siguiente resultado:
Teorema 3.9. Siempre que la matriz A es no singular, existe una permutaci on de las las de A
tal que la matriz resultante es descomponible en la forma LU, con l
ii
= 1 y u
ii
,= 0, para todo
valor de i.
Dicho de otra manera, si A es no singular, existe una matriz de permutaci on P tal
que
PA = LU
donde L es una matriz triangular inferior con l
ii
= 1, i y U es una matriz triangular
superior no singular.
3.3. M etodo de Cholesky
Si en la factorizaci on A = LU se exige que u
ji
= l
ij
, i, j, es decir, que U = L
t
y
adem as que l
ii
> 0 para todo valor de i, podra ser que la descomposici on no existiera.
Sin embargo podemos asegurar que si la matriz A es sim etrica y denida positiva tal
descomposici on es posible, y se conoce como descomposici on de Cholesky.
Denici on 3.10 (Matriz sim etrica y denida positiva). Una matriz A /
n
(R) se dice
que es sim etrica y denida positiva si
(i) A = A
t
, es decir, A es sim etrica, y
(ii) x
t
Ax > 0, x ,= 0.
Teorema 3.11 (Caracterizaci on de matrices sim etricas y denidas positivas). Sea A
/
n
(R). Entonces:
(i) A es sim etrica y denida positiva si y s olo si A
1
y es sim etrica y denida positiva.
(ii) A es sim etrica y denida positiva si y s olo si todas las submatrices principales de A son
sim etricas y denidas positivas.
(iii) A es sim etrica y denida positiva si y s olo si todos sus menores principales son positivos
y A = A
t
.
(iv) A es sim etrica y denida positiva si y s olo si todos los autovalores de A son positivos y
A = A
t
.
3-20
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
(v) A es sim etrica y denida positiva si y s olo si P /
n
(R) no singular tal que A = P P
t
.
Veamos a continuaci on c omo se puede plantear el c alculo de los elementos de la
matriz L para que LL
t
= A, es decir,
_
_
_
_
_
_
l
11
0 0
l
21
l
22
0 0
l
31
l
32
l
33
0
. . . . . . . . . . . . . . . . . . . . . . .
l
n1
l
n2
l
nn
_
_
_
_
_
_
_
_
_
_
_
_
l
11
l
21
l
31
l
n1
0 l
22
l
32
l
n2
0 0 l
33
l
34
l
n3
. . . . . . . . . . . . . . . . . . . . . . .
0 0 l
nn
_
_
_
_
_
_
= A.
Multiplicando la primera la de L por la primera columna de L
t
obtenemos a
11
, por lo
que
l
11
l
11
= a
11
= l
11
=

a
11
.
A partir del valor de l
11
podemos calcular los elementos de la primera columna de L,
sin m as que multiplicar la la i de L por la columa 1 de L
t
:
l
i1
l
11
= a
i1
= l
i1
=
a
i1
l
11
.
Trabajando de manera an aloga se obtendr an el resto de los elementos de L. Si los l
ij
,
i, j k 1 son conocidos, la columna k de L se calcula con las relaciones:
a
kk
=
k1

p=1
l
kp
l
kp
+ l
kk
l
kk
= l
kk
=

_
a
kk

k1

p=1
l
2
kp
,
a
ik
=
k1

p=1
l
i p
l
kp
+ l
ik
l
kk
= l
ik
=
1
l
kk
_
a
ik

k1

p=1
l
i p
l
kp
_
, k + 1 i n.
El proceso queda reejado en el siguiente algoritmo:
ALGORITMO de CHOLESKY:
Para k = 1 hasta n hacer
l
kk
= (a
kk

k1

r=1
l
2
kr
)
1/2
Para j = k + 1 hasta n hacer
l
jk
= (a
jk

k1

r=1
l
jr
l
kr
)/l
kk
Fin j
Fin k
Observaciones:
(O1) En primer lugar este m etodo nos permite saber si una matriz sim etrica es denida
positiva o no, seg un que admita la descomposici on A = LL
t
o no.
3-21
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
(O2) La descomposici on de Cholesky tambi en puede ser utilizada para calcular el de-
terminante de la matriz A, ya que
A = LL
t
= [A[ = [L[[L
t
[ = [L[
2
=
n

i=1
l
2
ii
.
(O3) Esta factorizaci on sirve para resolver sistemas de ecuaciones cuya matriz de coe-
cientes sea A. Cuando utilizamos tal descomposici on para resolver el sistema
de partida se tiene
Ax = b (LL
t
)x = b
_
Ly = b
L
t
x = y
El coste del m etodo desde el punto de vista computacional, considerando tam-
bi en el coste asociado a la resoluci on de los dos sistemas triangulares, es (2n
3
+
15n
2
+ n)/6 que es menor que el del m etodo de Gauss (aproximadamente la mi-
tad). Adem as un an alisis de errores nos permite armar que el m etodo de Cho-
lesky es interesante por su poca sensibilidad a los errores de redondeo.
(O4) Si A es sim etrica y denida positiva, entonces pueden existir varias matrices L,
triangulares inferiores (e inversibles), tales que A = LL
t
, pero solo una de ellas
es de elementos diagonales positivos. Ejemplo:
A =
_
1 1
2 5
_
=
_
1 0
2 1
__
1 2
0 1
_
.
Descomposici on de Cholesky de A:
A =
_
1 0
2 1
__
1 2
0 1
_
.
(O5) Si A es sim etrica y denida positiva, pueden existir descomposiciones de A de la
forma A = LU, donde L (U) es una matriz trangular inferior (superior) y U ,= L
t
.
Ejemplo:
A =
_
2 1
1 3
_
=
_
1 0
1/2 1
_
. .
L
_
2 1
0 5/2
_
. .
U
.
Descomposici on de Cholesky de A:
A =
_
2 0
1/

2

5/2
__
2 1/

2
0

5/2
_
.
Ejemplo 3.12. Halle la decomposici on de Cholesky de la matriz:
A =
_
_
_
_
2 2 1 0
2 5 1 1
1 1 14 5
0 1 5 3
_
_
_
_
.
3-22
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Resoluci on. En primer lugar veamos si A es sim etrica y denida positiva. A es clara-
mente sim etrica. Hallemos a continuaci on sus menores principales:

1
= [2[ = 2 > 0,
2
=

2 2
2 5

= 6 > 0,

3
=

2 2 1
2 5 1
1 1 14

= 73 > 0,
4
= [A[ = 82 > 0.
Como A es sim etrica y todos sus menores pincipales son positivos, concluimos que A
es sim etrica ydenida positiva y, por tanto, admite factorizaci on de Cholesky.
Tenemos que calcular una matriz triangular inferior L /
4
(R) tal que A = LL
t
, es
decir:
_
_
_
_
2 2 1 0
2 5 1 1
1 1 14 5
0 1 5 3
_
_
_
_
=
_
_
_
_
l
11
0 0 0
l
21
l
22
0 0
l
31
l
32
l
33
0
l
41
l
42
l
43
l
44
_
_
_
_
_
_
_
_
l
11
l
21
l
31
l
41
0 l
22
l
32
l
42
0 0 l
33
l
43
0 0 0 l
44
_
_
_
_
.
C alculo de los elementos de la primera columna de L:
2 = l
2
11
= l
11
=

2,
2 = l
21
l
11
= l
21
= 2/l
11
= 2/

2,
1 = l
31
l
11
= l
31
= 1/l
11
= 1/

2,
0 = l
41
l
11
= l
41
= 0.
C alculo de los elementos no nulos de la segunda columna de L:
5 = l
2
21
+ l
2
22
= l
22
=
_
5 l
2
21
=

3,
1 = l
31
l
21
+ l
32
l
22
= l
32
=
1
l
22
(1 l
31
l
21
) = 2/

3,
1 = l
41
l
21
+ l
42
l
22
= l
42
=
1
l
22
(1 l
41
l
21
) = 1/

3.
C alculo de los elementos no nulos de la tercera columna de L:
14 = l
2
31
+ l
2
32
+ l
2
33
= l
33
=
_
14 l
2
31
l
2
32
=

73/6,
5 = l
41
l
31
+ l
42
l
32
+ l
43
l
33
= l
43
=
1
l
33
(5 l
41
l
31
l
42
l
32
) = 13

2/219.
C alculo de los elementos no nulos de la cuarta columna de L:
3 = l
2
41
+ l
2
42
+ l
2
43
+ l
2
44
= l
44
=
_
3 l
2
41
l
2
42
l
2
43
=

82/73.
3-23
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Por lo tanto, tenemos que A = LL
t
, donde:
L =
_
_
_
_
_
_
_
_

2 0 0 0
2

3 0 0
1

2
2

3
_
73
6
0
0
1

3
13
_
2
219
_
82
73
_
_
_
_
_
_
_
_
.
3.4. An alisis del error
Los m etodos llamados directos proporcionan un valor exacto de la soluci on despu es
de un n umero nito de operaciones elementales. Qu e sentido tiene entonces hablar
de error?
Evidentemente, todo proceso que utiliza precisi on nita est a sujeto a un error de
redondeo lo cual hace que normalmente no se obtenga la soluci on exacta, sino una
soluci on aproximada que denotamos como x, cometi endose una desviaci on de la so-
luci on exacta x que denominaremos error, e = x x. Obviamente el error no se puede
determinar en general de forma exacta ya que para ello necesitaramos conocer el valor
de x.
Buscaremos una forma de medir este error en la pr actica, para lo que introducire-
mos el concepto de vector residuo. Llamaremos vector residuo al vector r dado por la
expresi on
r = Ax A x = A(x x) = Ae,
valor que s podemos calcular pues sabemos que Ax = b, con lo que
r = b A x.
Podemos admitir r como una medida de hasta que punto x satisface el sistema
Ax = b. Ahora bien, hasta qu e punto es able el residuo como medida del error?
Los siguientes ejemplos ponen de maniesto que la respuesta a esta pregunta depende
del sistema que se maneje.
Sea el sistema de ecuaciones
1.01x
1
+ 0.99x
2
= 2,
0.99x
1
+ 1.01x
2
= 2,
cuya soluci on exacta es x
1
= x
2
= 1.
En primer lugar, si consideramos la siguiente aproximaci on
x =
_
1.01
1.01
_
= e =
_
0.01
0.01
_
, r =
_
0.02
0.02
_
,
tenemos un residuo peque no y un error peque no. Sin embargo, tambi en podemos
considerar que la soluci on aproximada es
x =
_
2
0
_
= e =
_
1
1
_
, r =
_
0.02
0.02
_
,
3-24
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
donde el residuo es peque no pero el error es grande.
Por otro lado, consideremos el sistema
1.01x
1
+ 0.99x
2
= 2,
0.99x
1
+ 1.01x
2
= 2,
cuya soluci on exacta es x
1
= 100, x
2
= 100. Resolviendo el sistema obtenemos
x =
_
101
99
_
= e =
_
1
1
_
, r =
_
2
2
_
,
en cuyo caso tenemos un residuo grande y un error grande.
Los ejemplos anteriores pone de maniesto que el tama no del vector residuo no es
siempre un indicador able del tama no del error.
Para formalizar de alg un modo estos conceptos, es necesario introducir el estudio
de las normas sobre el espacio vectorial de las matrices.
Denici on 3.13 (Norma matricial). Una norma matricial es una aplicaci on
|| : /
n
(R) R
que verica las siguientes propiedadades:
(P1) |A| 0, A /
n
(R),
(P2) |A| = 0 A = 0,
(P3) |A + B| |A| +|B|, A, B /
n
(R),
(P4) |A| = [[|A|, R, A /
n
(R),
(P5) |AB| |A||B|, A, B /
n
(R).
Obs ervese que las cuatro primeras propiedades caracterizan a las normas vectoriales mientras
que la propiedad 5 es propia de las normas matriciales.
Denici on 3.14. Una norma matricial ||
M
en /
n
(R) y una norma vectorial ||
v
en R
n
se dice que son compatibles si se verica:
|A x|
v
|A|
M
|x|
v
, A /
n
(R), x R
n
.
Denici on 3.15 (Norma matricial subordinada). Sea ||
v
una norma vectorial en R
n
.
Se llama norma matricial subordinada a esa norma o norma matricial inducida, a la norma
matricial denida as
|A|
M
= m ax
x,=0
|A x|
v
|x|
v
= m ax
|x|
v
=1
|A x|
v
.
Teorema 3.16. Una norma matricial subordinada es compatible con la norma vectorial dada.
3-25
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Denici on 3.17 (Radio espectral). Dada A /
n
(C), se dene el radio espectral de A, y
se representa por (A), como el m aximo de los m odulos de los autovalores de A, esto es
(A) = m ax[[ es autovalor de A.
A las normas matriciales m as habituales se las designa del mismo modo que a las
normas vectoriales a la que est an subordinadas. Ejemplos de normas matriciales indu-
cidas:
* |A|
1
= m ax
1jn
_
n

i=1
[a
ij
[
_
inducida por |x|
1
=
n

i=1
[x
i
[.
* |A|
2
= (A
t
A)
1/2
inducida por |x|
2
=
_
n

i=1
[x
i
[
2
_
1/2
.
* |A|

= m ax
1in
_
n

j=1
[a
ij
[
_
inducida por |x|

= m ax
1in
[x
i
[.
Con estas nociones sobre normas podemos comparar de alg un modo el tama no del
error relativo, |e|/|x|, y del residuo relativo, |r|/|b|, como se pone de maniesto en
el siguiente
Teorema 3.18. Sea A una matriz no singular y A x = b un sistema lineal de ecuaciones.
Entonces:
1
(A)
|r|
|b|

|e|
|x|
(A)
|r|
|b|
, (A) |A||A
1
|
donde las normas vectorial y matricial han de ser compatibles.
Al n umero real (A) se le llama condicionamiento o n umero de condici on de A.
El teorema anterior reeja claramente que la relaci on entre |e|/|x| y |r|/|b| de-
pende del n umero |A||A
1
|, que es llamado n umero de condici on de la matriz A y
se denota por (A).
Observaciones:
(O1) Se cumple que (A) es un n umero mayor o igual que uno, ya que
1 = (I) |I| = |AA
1
| |A||A
1
| = (A).
Nota. Veremos m as adelante que el radio espectral de una matriz es siempre
menor o igual que cualquiera de sus normas.
(O2) Si (A) 1, el residuo relativo es una buena estimaci on del error relativo, ya que
(A) y 1/(A) ser an muy pr oximos. Se dice en este caso que el sistema est a bien
condicionado.
3-26
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
(O3) Si (A)1, (A) y 1/(A) ser an muy dferentes. En este caso no podemos asegu-
rar que el residuo relativo sea una buena estimaci on del error relativo. Se dice en
este caso que el sistema est a mal condicionado.
Por lo dicho anteriormente, es conveniente que (A) sea pr oximo a 1 como ocurre
con las matrices ortogonales (A
t
= A
1
), para las cuales (A) = 1 cuando se utiliza la
norma matricial ||
2
. Un ejemplo de matrices mal condicionadas son las matrices de
Hilbert, denidas como:
A = (a
ij
), a
ij
=
1
i + j 1
, 1 i, j n.
4. M etodos iterativos para sistemas lineales
En la secci on anterior hemos estudiado m etodos directos para la resoluci on de sistemas
de ecuaciones lineales. El n umero de operaciones de estos m etodos es razonable para
valores de n moderados pero para el tama no de sistemas que aparece, por ejemplo, en
la resoluci on aproximada de ecuaciones diferenciales (matrices de orden 1000 o m as en
determinados problemas) el n umero de operaciones es ya muy elevado y los errores de
redondeo acumulados pueden anular la validez de los resultados obtenidos. Adem as
su aplicaci on a matrices dispersas no siempre puede aprovechar la gran cantidad de
ceros de estas matrices y lo que esto supone en el almacenamiento, ya que a lo largo del
proceso pueden aparecer elementos no nulos en posiciones ocupadas anteriormente
por elementos nulos.
Las razones anteriores son las que nos llevan a dise nar m etodos alternativos, los
llamados m etodos iterativos, en los que se construyen sucesiones vectoriales que con-
vergen a la soluci on del sistema. Dichos m etodos son menos sensibles a los errores
de redondeo en el sentido de que la falta de precisi on se puede corregir aumentando
el n umero de iteraciones. Por otra parte, estos m etodos aprovechan las caractersticas
de las matrices dispersas para almacenarlas en memoria de forma adecuada ya que la
matriz no se modica a lo largo del proceso.
4.1. Iteraci on del punto jo. Condiciones de convergencia
La aplicaci on de los m etodos de iteraci on del punto jo a la resoluci on de ecuaciones ya
fue tratado en el Tema 2. En nuestro caso la ecuaci on vectorial que debemos resolver
es F(x) = 0, donde F(x) = Ax b y la funci on de iteraci on la elegiremos del tipo
G(x) = Bx + c, donde B es una matriz cuadrada de orden n y c un vector de R
n
.
Obviamente, la elecci on de B y c debe realizarse de modo que la soluci on de G(x) = x
coincida con la de F(x) = 0.
Como en todo proceso de iteraci on del punto jo, consideraremos la sucesi on vec-
torial
x
(m+1)
= G(x
(m)
) = Bx
(m)
+ c, m = 0, 1, 2, . . .
y analizaremos su convergencia a la soluci on del sistema para un vector inicial x
(0)
adecuado. Recordemos que la convergencia de x
(m)
a x equivale a la convergencia a 0
de la sucesi on de n umeros reales |x
(m)
x|.
3-27
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Puesto que la soluci on de F(x) = 0 es x = A
1
b, la funci on G elegida debe vericar
que G(A
1
b) = A
1
b, es decir, A
1
b = BA
1
b + c, y, por consiguiente,
c = (I B)A
1
b. (7)
Denici on 3.19 (M etodo iterativo consistente). Si B y c verican la condici on (7) se dice
que el m etodo iterativo x
(m+1)
= Bx
(m)
+ c es consistente para la resoluci on del sistema de
ecuaciones Ax = b.
Obviamente solo nos interesan los m etodos consistentes y, supuesta esa condici on,
debemos determinar condiciones que garanticen la convergencia. El teorema siguien-
te proporciona un criterio para dicha convergencia que adem as es independiente del
vector inicial elegido.
Teorema 3.20 (Primer criterio de convergencia). Si B es una matriz cuadrada de orden n
de manera que existe una norma matricial ||
M
tal que |B|
M
< 1 entonces Bx + c = x tiene
una unica soluci on y adem as la sucesi on vectorial (x
(m)
) denida por x
(m+1)
= Bx
(m)
+ c
converge a dicha soluci on para cualquier vector inicial x
(0)
.
Recprocamente, si el m etodo x
(m+1)
= Bx
(m)
+ c es convergente, existe una norma matri-
cial ||
M
tal que |B|
M
< 1.
Observaciones:
(O1) El concepto de convergencia de un proceso de iteraci on del punto jo en el ambito
de los sistemas de ecuaciones lineales se asocia siempre a que dicha convergen-
cia no dependa del vector inicial elegido y, en lo que sigue, la palabra converge
tendr a siempre ese signicado.
(O2) El recproco del teorema anterior, es decir, el hecho de que la convergencia de un
m etodo iterativo x
(m+1)
= Bx
(m)
+ c implique la existencia de una norma matri-
cial ||
M
tal que |B|
M
< 1, no es un resultado de utilidad pr actica para descartar
la convergencia de un m etodo iterativo debido a la existencia de innitas normas
matriciales. Es decir, el hecho de que |B| 1 para varias normas matriciales, no
implica necesariamente que (x
(m)
) sea divergente.
4.1.1. Condici on alternativa de convergencia
Los problemas que presenta el Teorema 3.20 como condici on suciente de convergen-
cia (v ease la observaci on (O2) del Teorema) nos motiva a encontrar una condici on ne-
cesaria y suciente alternativa aplicable en la pr actica. En ella juegan un papel impor-
tante el radio espectral (y por tanto los autovalores) de la matriz B del m etodo iterativo.
Recordemos que un n umero (real o complejo) es un autovalor (o valor propio)
de una matriz cuadrada de orden n, A, si existe un vector x (de R
n
o de C
n
) no nulo
de modo que Ax = x y que a cada vector en esas condiciones se le denomina vec-
tor propio o autovector de A asociado al autovalor . Es un resultado conocido del

Algebra Lineal que los valores propios de una matriz A coinciden con las races del
polinomio caracterstico de A denido como [A I[, donde se representa por I a la
3-28
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
matriz identidad de orden n. Asociado a los valores propios se encuentra el concepto
de radio espectral de una matriz, que fue introducido en la Denici on 3.17.
El radio espectral de una matriz guarda estrecha relaci on con el valor de las normas
matriciales de dicha matriz como se pone de maniesto en el siguiente resultado.
Teorema 3.21.
(i) Si A M
n
(R), entonces para toda norma matricial || se verica que (A) |A|.
(ii) Dada A M
n
(R) y cualquier n umero real positivo existe una norma matricial ||

tal
que |A|

(A) + .
Del Teorema anterior se obtiene inmediatamente el siguiente
Corolario 3.22. Para toda matriz A /
n
(R) se tiene:
(A) = nf
_
|A| || es norma matricial
_
. (8)
Ahora estamos en condiciones de presentar una condici on necesaria y suciente pa-
ra la convergencia de un m etodo iterativo en t erminos del radio espectral de la matriz
de iteraci on B.
Teorema 3.23 (Segundo criterio de convergencia). El m etodo de iteraci on del punto jo
denido por x
(m+1)
= Bx
(m)
+ c es convergente si y s olo si (B) < 1.
Demostraci on. Es consecuencia de (8). As, si (B) < 1, debe existir una norma matricial
|| tal que |B| < 1 y, por el Teorema 3.20, el m etodo es convergente. Recprocamente,
si el m etodo converge entonces existe una norma matricial tal que |B| < 1 y as, por
denici on de nmo, se tiene que (B) < 1.
Observaciones:
(O1) La condici on de convergencia que proporciona el Teorema 3.23 tiene utilidad
pr actica en el caso en que se puedan calcular o estimar los autovalores de la ma-
triz lo cual no siempre es simple.
(O2) Puede ocurrir que una matriz tenga algunas normas mayores que 1 mientras que
su radio espectral sea menor que 1. Ejemplo:
B =
_
0 1/2
3/2 0
_
, |B|
1
= |B|
2
= |B|

= 3/2 > 1,
(B) =

3/2 < 1.
Interpretaci on del radio espectral
El radio espectral es un indicador de la velocidad de convergencia de la sucesi on
(x
(m)
): cuanto m as peque no sea (B) m as r apido converge el m etodo iterativo (asint oti-
camente). Para ilustrar esta armaci on, consideremos el caso en que B es diagonaliza-
ble, por lo que existe una matriz no singular P tal que D = P
1
BP es una matriz dia-
gonal. Entonces, tomando una norma vectorial y otra matricial compatibles, se tiene
3-29
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
que:
x
(m)
s = B
m
(x
(0)
s),
_
_
x
(m)
s
_
_
|P| |D|
m
|P
1
| |x
(0)
s|
= (P)|D|
m
_
_
x
(0)
s
_
_
= K|D|
m
, K (P)|x
(0)
s|.
La cantidad (P) = |P||P
1
| es el n umero de condici on de la matriz P, el cual fue
introducido en la secci on 3.4.
Restringi endonos a las normas matriciales usuales vistas en la secci on 3.4, se verica
que |D| = (D) = (B), por lo que
|x
(m)
s| K (B)
m
. (9)
Si (B) < 1 (caso en el que hay convergencia), cuanto m as peque no sea (B), m as r api-
do converger a hacia cero ha sucesi on ((B)
m
) y, por (9), m as r apido converger a hacia
cero la sucesi on (|x
(m)
s|).
Ejemplo 3.24. Consideremos dos m etodos iterativos de la forma x
(m+1)
= Bx
(m)
+ c cuyas
matrices B y vectores c son los siguientes:
B
1
=
_
_
_
_
_
_
_
0
1
3
0
1
3

23
20
1
3
23
20
17
30
1
4

1
3

1
4
1
3

23
20
0
23
20
9
10
_
_
_
_
_
_
_
, c
1
=
_
_
_
_
_
_
_
1
3

97
30
17
6

19
10
_
_
_
_
_
_
_
, (B
1
) = 0.9,
B
2
=
_
_
_
_
_
_
_
0
1
3
0
1
3

3
4
1
3
3
4
1
6
1
4

1
3

1
4
1
3

3
4
0
3
4
1
2
_
_
_
_
_
_
_
, c
2
=
_
_
_
_
_
_
_
1
3

5
6
17
6
1
2
_
_
_
_
_
_
_
, (B
2
) = 0.5.
La soluci on exacta de x = B
i
x + c
i
, i = 1, 2, es s = (1, 2, 3, 4). En la siguiente tabla se
muestran los primeros elementos de las sucesiones (x
(m)
) para ambos m etodos tomando como
x
(0)
el vector nulo:
3-30
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
= 0.5 = 0.9
m x
(m)
|x
(m)
s|

x
(m)
|x
(m)
s|

0 (0, 0, 0, 0.) 4. (0, 0, 0, 0.) 4.


1 (0.333, 0.833, 2.83, 0.5) 3.5 (0.333, 3.23, 2.83, 1.90) 5.90
2 (0.777, 0.847, 2.65, 2.62) 1.37 (0.777, 2.51, 2.65, 0.735) 4.73
3 (0.925, 1.29, 2.95, 3.21) 7.81 10
1
(0.925, 2.33, 2.95, 0.405) 4.40
4 (0.975, 1.65, 2.96, 3.63) 3.67 10
1
(0.975, 1.90, 2.96, 0.0712) 3.92
5 (0.991, 1.81, 2.99, 3.81) 1.89 10
1
(0.991, 1.53, 2.99, 0.455) 3.54
6 (0.997, 1.90, 2.99, 3.90) 9.32 10
2
(0.997, 1.18, 2.99, 0.811) 3.18
7 (0.999, 1.95, 2.99, 3.95) 4.70 10
2
(0.999, 0.869, 2.99, 1.13) 2.87
8 (0.999, 1.97, 3., 3.97) 2.34 10
2
(0.999, 0.582, 3., 1.41) 2.58
9 (0.999, 1.98, 3., 3.98) 1.17 10
2
(0.999, 0.324, 3., 1.67) 2.32
10 (1., 1.99, 3., 3.99) 5.85 10
3
(1., 0.0920, 3., 1.90) 2.09
11 (1., 1.99, 3., 3.99) 2.93 10
3
(1., 0.117, 3., 2.11) 1.88
12 (1., 1.99, 3., 3.99) 1.46 10
3
(1., 0.305, 3., 2.30) 1.69
13 (1., 1.99, 3., 3.999) 7.32 10
4
(1., 0.474, 3., 2.47) 1.52
14 (1., 2., 3., 4.) 3.66 10
4
(1., 0.627, 3., 2.62) 1.37
15 (1., 2., 3., 4.) 1.83 10
4
(1., 0.764, 3., 2.76) 1.23
4.1.2. Cotas del error
Vamos a obtener acotaciones del error que se comete al sustituir la soluci on exacta por
el valor de x
(m)
.
Proposici on 3.25. Dado el m etodo iterativo x
(m+1)
= Bx
(m)
+c y una norma matricial ||
M
tal que |B|
M
< 1, entonces se verica:
(i) |x
(m)
s|
v

|B|
M
1 |B|
M
|x
(m)
x
(m1)
|
v
,
(ii) |x
(m)
s|
v

|B|
m
M
1 |B|
M
|x
(1)
x
(0)
|
v
,
donde s es la soluci on de la ecuaci on x = Bx + c y ||
v
es una norma vectorial compatible con
la norma matricial ||
M
.
Observaciones:
(O1) La diferencia en norma entre dos aproximaciones consecutivas pueden usarse
para establecer un criterio de parada en el proceso iterativo de obtenci on de la
soluci on de un sistema A x = b.
|x
(m)
x
(m1)
|
v
< = |x
(m)
s|
v

|B|
M
1 |B|
M
.
Si 0 < <
1 |B|
M
|B|
M
, entonces |x
(m)
s| < .
3-31
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
(O2) Si |B|
M
es pr oximo a 1, entonces el cociente
|B|
M
1|B|
M
es mucho mayor que uno.
En este caso hemos de exigir un valor muy peque no de |x
(m)
x
(m1)
|
v
para
asegurar un error peque no.
Ejemplo 3.26. Dado un vector inicial x
(0)
, halle un n umero de iteraciones que garantice un
error absoluto menor que al tomar x
(m)
como soluci on aproximada del sistema Ax = b.
Resoluci on. Se trata de encontrar el menor entero m satisfaciendo
|B|
m
1 |B|
|x
(1)
x
(0)
| < ,
de donde se deduce que
|B|
m
<
1 |B|
|x
(1)
x
(0)
|
= mlog|B| < log
_
(1 |B|)
|x
(1)
x
(0)
|
_
.
Como |B| < 1, entonces log|B| < 0, por lo que al aislar m se modica el sentido
de la desigualdad:
m >
log
_
(1|B|)
|x
(1)
x
(0)
|
_
log|B|
= N = mnm m > = E() + 1.
La funci on E(x) se denomina funci on parte entera, y se dene como el unico n umero
entero que verica E(x) x < E(x) + 1. Por ejemplo, E(2) = 2, E(3.71) = 3.
4.2. M etodos iterativos usuales
Dado un sistema de ecuaciones lineales Ax = b, la aplicaci on de la iteraci on del punto
jo requiere, en primer lugar, la obtenci on de una matriz B y un vector c que veriquen
la condici on de consistencia c = (I B)A
1
b. En esta secci on analizaremos formas
sistem aticas de construcci on de m etodos iterativos consistentes a partir de una matriz
A arbitraria.
As, si se conoce una descomposici on de A en la forma A = MN con M inversible,
podemos escribir el sistema Ax = b en la forma (MN)x = b, es decir, Mx = Nx + b,
o equivalentemente x = M
1
Nx + M
1
b, lo que determina un m etodo de iteraci on del
punto jo donde B = M
1
N y c = M
1
b. Por la construcci on efectuada ya se deduce
que el m etodo es consistente. No obstante podemos comprobar f acilmente la condici on
c = (I B)A
1
b teniendo en cuenta que
I B = I M
1
N = M
1
M M
1
N = M
1
A,
lo que implica que
(I B)A
1
b = M
1
AA
1
b = M
1
b = c.
Acabamos de demostrar el resultado siguiente:
3-32
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Teorema 3.27. Sea A = M N, donde M es inversible. Si B = M
1
N y c = M
1
b, el
m etodo iterativo x
(m+1)
= Bx
(m)
+ c es consistente para la resoluci on del sistema Ax = b.
Seg un el Teorema anterior, si A = M N con M inversible, el m etodo iterativo
x
(m+1)
= M
1
Nx
(m)
+ M
1
b, m = 0, 1, 2, . . . (10)
es consistente para la resoluci on del sistema Ax = b. Habr a convergencia si y solo
si (M
1
N) < 1 o, si existe una norma matricial tal que |M
1
N| < 1. Para hacer
c alculos es m as conveniente escribir el m etodo (10) en la forma
Mx
(m+1)
= Nx
(m)
+ b, m = 0, 1, 2, . . .
Entonces se ve que interesa tomar M f acilmente inversible (por ejemplo, diagonal o trian-
gular).
Con el n de encontrar descomposiciones del tipo A = MN con M inversible, ob-
servemos que si A = (a
ij
)
1i,jn
podemos escribir A = D L U, donde las matrices
D (diagonal), L (triangular inferior) y U (triangular superior) est an dadas por:
D =
_
_
_
_
_
a
11
0 . . . 0
0 a
22
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . a
nn
_
_
_
_
_
, L =
_
_
_
_
_
_
_
0 0 0 . . . 0
a
21
0 0 . . . 0
a
31
a
32
0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
n3
. . . 0
_
_
_
_
_
_
_
,
U =
_
_
_
_
_
_
_
0 a
12
a
13
. . . a
1n
0 0 a
23
. . . a
2n
0 0 0 . . . a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0
_
_
_
_
_
_
_
.
4.2.1. El m etodo de Jacobi
Una primera elecci on de M y N asociada a la relaci on A = DL U consiste en tomar
M = D y N = L +U. Al m etodo iterativo resultante se le denomina m etodo de Jacobi.
Partiendo de un sistema Ax = b de manera que la matriz A no tenga elementos
nulos en la diagonal (pues eso garantiza que D es inversible) se llega al sistema equi-
valente x = D
1
(L + U)x + D
1
b. A partir de aqu obtenemos el proceso iterativo de
Jacobi que se expresa en la forma
x
(m+1)
= B
J
x
(m)
+ c
J
,
donde B
J
= D
1
(L + U) y c
J
= D
1
b.
Por la naturaleza de D, L y U se deduce f acilmente la expresi on de los elementos de
3-33
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
B
J
y c
J
obteni endose que
B
J
=
_
_
_
_
_
_
0 a
12
/a
11
a
13
/a
11
. . . a
1n
/a
11
a
21
/a
22
0 a
23
/a
22
. . . a
2n
/a
22
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
n1
/a
nn
a
n2
/a
nn
a
n3
/a
nn
. . . 0
_
_
_
_
_
_
, (11)
c
J
= (b
1
/a
11
, b
2
/a
22
, . . . , b
n
/a
nn
)
t
.
A partir de esta expresi on de B
J
podemos determinar las ecuaciones componente a
componente del m etodo de Jacobi. Puesto que
_
_
_
_
_
_
_
_
x
(m+1)
1
x
(m+1)
2
. . .
x
(m+1)
n
_
_
_
_
_
_
_
_
= B
J
_
_
_
_
_
_
_
_
x
(m)
1
x
(m)
2
. . .
x
(m)
n
_
_
_
_
_
_
_
_
+ c
J
,
obtenemos las ecuaciones
x
(m+1)
i
=
1
a
ii
_
b
i

j=1
j,=i
a
ij
x
(m)
j
_
, i = 1, 2, . . . , n.
Estas ecuaciones permiten dise nar de forma inmediata un algoritmo para el m etodo
de Jacobi. Se puede utilizar como test de parada la diferencia en norma entre dos ite-
raciones consecutivas. Se nalemos que la estructura del m etodo requiere la utilizaci on
permanente de dos vectores puesto que para el c alculo de todas las componentes del
vector x
(m+1)
se utilizan siempre las componentes de x
(m)
independientemente de que
algunas de ellas ya tengan un valor m as actualizado.
4.2.2. El m etodo de Gauss-Seidel
Otra posible elecci on de M y N a partir de la relaci on A = D L U consiste en
tomar M = D L y N = U. Al m etodo iterativo resultante se le denomina m etodo de
Gauss-Seidel.
Nota. La elecci on M = D U, N = L es igualmente v alida, pero por costumbre se
elige la anterior.
Partiendo de un sistema Ax = b de manera que la matriz A no tenga elementos
nulos en la diagonal (pues eso garantiza que D L es inversible) se llega al sistema
equivalente x = (D L)
1
Ux + (D L)
1
b. A partir de aqu obtenemos el proceso
iterativo de Gauss-Seidel que se expresa en la forma
x
(m+1)
= B
G
x
(m)
+ c
G
,
3-34
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
donde B
G
= (D L)
1
U y c
G
= (D L)
1
b.
A diferencia del m etodo de Jacobi, la expresi on explcita de la matriz del m etodo B
G
no es f acil de determinar pues requiere el c alculo de la inversa de la matriz triangular
D L. No obstante, las ecuaciones del m etodo componente a componente se deducen
f acilmente cuando se expresa en la forma
(D L)x
(m+1)
= Ux
(m)
+ b,
es decir,
_
_
_
_
_
_
_
a
11
0 . . . 0
a
21
a
22
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
(m+1)
1
x
(m+1)
2
.
.
.
x
(m+1)
n
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
0 a
12
. . . a
1n
0 0 . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
(m)
1
x
(m)
2
.
.
.
x
(m)
n
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
_
_
,
de donde se sigue que
a
11
x
(m+1)
1
= a
12
x
(m)
2
a
13
x
(m)
3
a
1n
x
(m)
n
+ b
1
,
a
21
x
(m+1)
1
+ a
22
x
(m+1)
2
= a
23
x
(m)
3
a
2n
x
(m)
n
+ b
2
,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
n1
x
(m+1)
1
+ a
n2
x
(m+1)
2
+ + a
nn
x
(m+1)
n
= b
n
,
x
(m+1)
i
=
1
a
ii
_
b
i

i1

j=1
a
ij
x
(m+1)
j

n

j=i+1
a
ij
x
(m)
j
+ b
i
_
, 1 i n.
Estas ecuaciones permiten dise nar de forma inmediata un algoritmo para el m etodo
de Gauss-Seidel, para el que se puede utilizar el mismo test de parada del m etodo
de Jacobi. En este caso, a diferencia del m etodo de Jacobi, en el c alculo de x
(m+1)
i
se
utilizan los valores de x
(m+1)
1
, x
(m+1)
2
, . . . , x
(m+1)
i1
, x
(m)
i+1
, . . . , x
(m)
n
y, por tanto, es suciente
el almacenamiento en memoria de un unico vector.
4.2.3. Convergencia de los m etodos
Puesto que los m etodos de Jacobi y Gauss-Seidel son casos particulares de los m eto-
dos de iteraci on del punto jo para sistemas de ecuaciones lineales, podemos aplicar
en el estudio de su convergencia los criterios generales relativos a la existencia de una
norma matricial tal que |B
J
| < 1 (respectivamente, |B
G
| < 1) o que el radio espectral
de la matriz correspondiente sea menor que 1. Adem as de estas condiciones, vamos
a comprobar que en el caso de los m etodos de Jacobi y Gauss-Seidel es posible obte-
ner condiciones sobre la matriz A que garantizan la convergencia de los m etodos sin
necesidad de construir explcitamente la matriz de iteraci on.
3-35
M etodos Num ericos
Universidad de Oviedo
Tema3: Sistemas lineales y no lineales
Curso 20102011
Denici on 3.28 (Matriz estrictamente diagonal dominante por las). Diremos que una
matriz A = (a
ij
)/
n
(R) es estrictamente diagonal dominante por las si se verica
[a
ii
[ >
n

j=1
j,=i
[a
ij
[, 1 i n.
Teorema 3.29. Si A es una matriz estrictamente diagonal dominante por las, entonces los
m etodos de Jacobi y Gauss-Seidel son convergentes cuando se aplican a la resoluci on de cual-
quier sistema de la forma Ax = b.
Otras matrices para las que existen resultados sobre la convergencia son las sim etri-
cas y denidas positivas o aquellas tales que D+ L +U es sim etrica y denida positiva.
Teorema 3.30. Si A es una matriz tal que D+ L +U es sim etrica y denida positiva, entonces
el m etodo de Jacobi es convergente cuando se aplica a la resoluci on de cualquier sistema de la
forma Ax = b.
Teorema 3.31. Si A es una matriz sim etrica y denida positiva, entonces el m etodo de Gauss-
Seidel es convergente cuando se aplica a la resoluci on de cualquier sistema de la forma Ax = b.
Rese namos a continuaci on algunos resultados que permiten comparar la velocidad
de convergencia de los m etodos de Jacobi y de Gauss-Seidel. En este sentido, debemos
se nalar que la medida m as com un para estimar la velocidad de convergencia de un
m etodo iterativo es el valor de (B).
Teorema 3.32. Si A es una matriz tridiagonal se verica que (B
G
) = (B
J
)
2
y, por tanto,
ambos m etodos son simult aneamente convergentes o divergentes y cuando ambos convergen el
m etodo de Gauss-Seidel es asint oticamente m as r apido.
Teorema 3.33 (Stein-Rosenberg). Si A es tal que B
J
es no negativa entonces se verica
alguna de las posibilidades siguientes:
(i) (B
J
) = (B
G
) = 0.
(ii) 0 < (B
G
) < (B
J
) < 1.
(iii) (B
J
) = (B
G
) = 1.
(iv) 1 < (B
J
) < (B
G
).
As pues, para este tipo de matrices los m etodos de Jacobi y de Gauss-Seidel con-
vergen o divergen simult aneamente y en caso de convergencia lo hace m as r apido el
m etodo de Gauss-Seidel. La demostraci on del Teorema de Stein-Rosenberg est a basada
en la teora espectral de Perron-Frobenius y rebasa los objetivos de este tema.
3-36