You are on page 1of 161

Analisis Numerico Avanzado

Ahmed Ould Khaoua, Ph. D.


1 de agosto de 2010
2

Indice general

Indice general I
1. Interpolacion 3
1.1. Interpolaci on de Lagrange . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1. Existencia y unicidad del polinomio de interpolaci on . . . 5
1.2. Interpolaci on de Hermite . . . . . . . . . . . . . . . . . . . . . . . 7
1.3. Calculo del error de interpolaci on . . . . . . . . . . . . . . . . . . 8
1.4. Interpolaci on en los puntos de Chebyshev . . . . . . . . . . . . . 12
1.4.1. Polinomios de Chebyshev . . . . . . . . . . . . . . . . . . 12
2. Integracion numerica 17
2.1. Metodos compuestos . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2. Metodos de cuadratura gaussiana . . . . . . . . . . . . . . . . . . 23
3. Preliminares de algebra lineal 29
3.1. Nomenclatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2. Multiplicaci on de matrices . . . . . . . . . . . . . . . . . . . . . . 30
3.3. Notacion por bloques . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4. Matrices particulares . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5. Transpuesta y adjunta de una matriz . . . . . . . . . . . . . . . . 33
3.5.1. Propiedades de la transpuesta y la adjunta de una matriz 33
3.6. Matrices con diagonal estrictamente dominante . . . . . . . . . . 34
3.7. Matrices de permutaciones . . . . . . . . . . . . . . . . . . . . . . 35
3.8. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.8.1. Propiedades del determinante . . . . . . . . . . . . . . . . 39
3.9. Elementos propios de una matriz . . . . . . . . . . . . . . . . . . 41
3.10. Producto escalar y normas en C
n
. . . . . . . . . . . . . . . . . . 45
3.10.1. Propiedades del producto escalar . . . . . . . . . . . . . . 45
3.10.2. Producto escalar y matrices . . . . . . . . . . . . . . . . . 47
3.11. Valores propios de matrices particulares . . . . . . . . . . . . . . 49
3.12. Raz cuadrada de una matriz hermitiana denida positiva . . . . 54
3.13. El cociente de Rayleigh de una matriz hermitiana . . . . . . . . . 55
i
ii
4. Normas vectoriales y matriciales 57
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2. Normas vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3. Normas matriciales relativas . . . . . . . . . . . . . . . . . . . . . 60
4.4. Convergencia de vectores y matrices . . . . . . . . . . . . . . . . 67
4.4.1. Sucesiones de vectores . . . . . . . . . . . . . . . . . . . . 67
4.4.2. Convergencia de sucesiones de matrices . . . . . . . . . . 69
4.5. Sensibilidad a perturbaciones y Condicionamiento de una matriz 70
4.5.1. Ejemplo de introduccion . . . . . . . . . . . . . . . . . . . 70
4.5.2. El analisis teorico . . . . . . . . . . . . . . . . . . . . . . . 72
5. Metodos directos de solucion de sistemas lineales 75
5.1. Sistemas triangulares . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2. El metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . 76
5.2.1. Operaciones elementales de las . . . . . . . . . . . . . . 76
5.2.2. Los pasos del metodo de Gauss . . . . . . . . . . . . . . . 77
5.3. Estudio general del metodo de Gauss . . . . . . . . . . . . . . . . 79
5.4. Descomposicion LU . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.5. Descomposicion de Cholesky . . . . . . . . . . . . . . . . . . . . . 88
5.5.1. Algoritmo de Cholesky . . . . . . . . . . . . . . . . . . . . 89
6. Metodos iterativos de solucion de sistemas lineales 91
6.1. Construccion de los metodos iterativos . . . . . . . . . . . . . . . 93
6.1.1. Casos de descomposiciones particulares . . . . . . . . . . 93
6.2. Convergencia de los metodos iterativos . . . . . . . . . . . . . . . 96
6.2.1. Matrices con diagonal estrictamente dominante . . . . . . 96
6.2.2. Matrices hermitianas denidas positivas . . . . . . . . . . 98
6.2.3. B usqueda del par ametro optimo del SOR para matrices
tridiagonales por bloques . . . . . . . . . . . . . . . . . . 100
7. Metodos basados en la optimizacion para sistemas lineales: Meto-
dos del gradiente 103
7.1. Construccion de la Funci on J . . . . . . . . . . . . . . . . . . . . 104
7.2. Planteamiento general del metodo . . . . . . . . . . . . . . . . . 105
7.2.1. Eleccion de
n
. . . . . . . . . . . . . . . . . . . . . . . . 105
7.2.2. Eleccion de direcciones de descenso . . . . . . . . . . . . . 108
7.3. Velocidad de convergencia . . . . . . . . . . . . . . . . . . . . . . 117
8. Elementos nitos 119
8.1. Elementos nitos en dimensi on 1 . . . . . . . . . . . . . . . . . . 119
8.1.1. Desarrollo del metodo . . . . . . . . . . . . . . . . . . . . 119
8.1.2. Elementos nitos lineales en dimensi on 1 . . . . . . . . . 123
8.1.3. Otros tipos de condiciones de frontera . . . . . . . . . . . 127
8.2. Elementos nitos en dimensi on 2 . . . . . . . . . . . . . . . . . . 131
8.2.1. Preliminares de c alculo vectorial . . . . . . . . . . . . . . 131
8.2.2. Problema modelo . . . . . . . . . . . . . . . . . . . . . . . 133
iii
8.2.3. Elemento nito lineal: triangulo con 3 nodos . . . . . . . 135
Bibliografa 151

Indice alfabetico 153


iv
1
Introduccion
En la literatura Matem atica, hay dos tipos de textos de Analisis Numerico:
los que tienen la fama de ser teoricos y generalmenente destinados a estudiantes
avanzados de Matem aticas por el alto nivel de conocimientos, particularmente
en Analisis Funcional, requerido para poder leerlos. Estos textos generalmente se
usan con estudiantes que hayan visto un curso elemental en el area. El segundo
tipo es de los textos que hacen un enfasis importante sobre la parte algortmica
y computacional. El p ublico potencial de estos libros son los estudiantes de
Ingeniera que no buscan mas que resolver numericamente un problema dado con
algoritmos ya existentes. As que muchos resultados matematicos en estos libros
son enunciados brevemente o simplemente omitidos sobretodo los resultados de
convergencia.
Este libro se puede considerar como entre los dos tipos de textos citados.
As que los estudiantes de Matem aticas e Ingeniera y profesores en el area de
Analisis Numerico pueden perfectamente seguir los distintos captulos del texto
sin perderse en los resultados teoricos complejos ni aburrise con largas tablas de
resultados numericos de un algoritmo cuya convergencia no ha sido probada. El
perl general de lector no require sino un nivel b asico en Matem aticas equiva-
lente a Calculo Vectorial o funciones de varias variables. Pero dado que el texto
es autosuciente, hasta los resultados de dicultad relativa son demostrados
rigurosamente.
La idea del libro nacio cuando dicte por la primera vez el curso de Analisis
Numerico de Honores en el departamento de Matem aticas de la Universidad de
los Andes. La necesidad de redactar las notas del curso persistio en los semestres
posteriores a medida que el esquema del curso se aclaraba cada vez que dictaba
el curso.
Aunque los captulos tienen cierta independencia entre s, hay un hilo con-
ductor a lo largo de este documento. El objetivo se trazo de manera que el
lector puede resolver al nal un problema sencillo de Ecuaciones con Derivadas
Parciales con el metodo de Elementos Finitos en todos sus detalles empezando
por la discretizacion del dominio, pasando por la construcion del sistema lineal
que resulta de la discretizacion y terminando con la resolucion numercia de este.
Esta ultima parte que es la componente mas numerica de la resolucion del pro-
blema est a desarollada en tres captulos, a saber, Metodos Directos, Metodos
Iterativos y Metodos basados en la optimizacion.
Los dos captulos anteriores a estos forman la imprescindible base teorica de

Algebra Lineal para estudiar rigurosamente los algoritmos de dichos metodos.


2
Los dos primeros capulos tienen como objetivo la integraci on numerica dado
que en la solucion de las Ecuaciones con Derivadas Parciales aparecen muchas
integrales en la construcion del sistema y su c alculo exacto es demasiado costoso
o imposible.
Ahmed Ould Khaoua
Enero 2004
Captulo 1
Interpolacion
Ejemplo 1.1 (Ejemplo ilustrativo del problema). Supongamos que tenemos
una barra metalica recta de longitud l. Nos interesa conocer la temperatura a
lo largo de la barra pero el dispositivo de medicion disponible solo puede dar la
temperatura en los extremos de esta.
l
A B
Figura 1.1.
Denotemos T
x
a la temperatura en un punto M a distancia x de A en la
barra. Conociendo T
0
y T
l
queremos aproximar la temperatura T
l/2
en la mitad
de la barra. El metodo intuitivo es tomar el promedio de T
0
y T
l
, es decir
T
l/2

1
2
(T
0
+T
l
).
Por ejemplo, si T
0
= 10

y T
l
= 50

,
T
l/2
30

.
De manera similar T
l/4
20

. De ese modo
T
x
mx +b
y remplazando los datos en los extremos tenemos
T
0
= b, T
l
= ml +T
0
.
As
m =
T
l
T
0
l
3
4 Captulo 1. Interpolaci on
y la ecuaci on de la aproximacion de la temperatura en la barra es
T
x
=
T
l
T
0
l
x +T
0
.
Ahora, supongamos que la situaci on es diferente. El dispositivo de medicion
da la temperatura en los extremos y en la mitad de la barra, es decir tenemos
T
0
, T
l/2
, T
l
y se requiere aproximar la temperatura en un punto M a distancia
x de A en la barra.
l/2 l
T
x l l
x
x
x
Figura 1.2.
Con los datos que se muestren en la gura (1.2), no se puede usar la anterior
tecnica de aproximacion porque hay 3 datos y no son colineales. Una manera de
hacerlo es tratar de encontrar una funci on cuya graca pase por los tres puntos.
El problema de interpolaci on es encontrar tal funci on.
El problema general de la interpolacion se platea de la siguiente manera.
Sea I = [a, b] un intervalo en R y sean x
0
< x
1
< . . . < x
n
, n + 1 puntos de I.
Supongamos que f es una funci on denida en I tal sus valores son conocidos en
los puntos x
i
, i = 0, . . . , n.
Denicion 1.1. Una funci on g se dice interpolante de f en I con respecto a los
puntos x
i
, i = 0, . . . , n, si g se conoce en todo I y g(x
i
) = f(x
i
), i = 0, . . . , n.
Si g es un polinomio, se le dice interpolante polinomial.
Nota 1.1.
En la practica se usa mas la interpolaci on polinomial porque es mas facil
manejar polinomios en los c alculos.
1.1. Interpolacion de Lagrange
Sean I = [a, b], x
0
< x
1
< . . . < x
n
, puntos de I y f una funci on denida
sobre I.
Problematica 1.1. Encontrar un polinomio P de grado menor o igual a n tal
que
f(x
i
) = P(x
i
), i = 0, . . . , n.
1.1. Interpolaci on de Lagrange 5
Denicion 1.2. Los polinomios de Lagrange asociados a los puntos x
i
, i = 0, . . . , n,
son los polinomios de grado n denidos por
L
i
(x) =
n

j=0
j=i
_
x x
j
x
i
x
j
.
_
Nota 1.2.
1. Para todo i = 0, . . . , n, L
i
es un polinomio de grado n.
2. L
i
tiene n races reales que son x
0
, . . . , x
i1
, x
i+1
, . . . , x
n
.
3. Para todo i, j = 0, . . . , n
L
i
(x
j
) =
ij
,
donde
ij
es el smbolo de Kronecker denido por

ij
=
_
0, si i ,= j,
1, si i = j.
1.1.1. Existencia y unicidad del polinomio de interpola-
cion
Teorema 1.1. Dados n + 1 puntos x
i
, i = 0, . . . , n, distintos de un intervalo
I = [a, b] y n + 1 n umeros reales y
i
, i = 0, . . . , n, entonces existe un unico
polinomio P
n
de grado menor o igual a n tal que
P
n
(x
i
) = y
i
, i = 0, . . . , n.
Nota 1.3.
En este teorema los n umeros reales y
i
, i = 0, . . . , n, representan los valores
f(x
i
), i = 0, . . . , n, cuando se trata de la interpolaci on de la funci on f y en este
caso P
n
se llama el polinomio de interpolacion de lagrange de f en los puntos
x
i
, i = 0, . . . , n.
Demostracion. Sea
P
n
(x) =
n

i=0
y
i
L
i
(x).
P
n
es un polinomio de grado menor o igual a n siendo suma de los polinomios
de Lagrange L
i
, i = 0, . . . , n. Ademas, para cualquier x
j
, j = 0, . . . , n,
P
n
(x
j
) =
n

i=0
y
i
L
i
(x
j
),
=
n

i=0
y
i

ij
,
= y
j
.
6 Captulo 1. Interpolaci on
Es decir P
n
interpola f en los puntos x
0
, x
1
, . . . , x
n
.
Mostremos la unicidad. Designamos d

P el grado de P. Supongamos que


P
n
y Q
n
son dos polinomios tales que d

P
n
n, d

Q
n
n y P
n
(x
i
) = Q
n
(x
i
),
i = 0, . . . , n. Sea el polinomio
W
n
(x) = P
n
(x) Q
n
(x).
Notamos que d

W
n
n y W(x
i
) = 0 para todo i = 0, . . . , n. As, W
n
es un
polinomio de grado menor o igual a n con (n + 1) races, lo que es imposible a
menos que W
n
(x) 0 entonces, Q
n
(x) = P
n
(x) y P
n
es unico.
Nota 1.4.
En el teorema anterior el polinomio de interpolaci on de Lagrange no se pre-
senta en la forma
P
n
(x) = a
n
x
n
+a
n1
x
n1
+. . . +a
0
.
Eso representa una dicultad numerica mayor por necesitarse muchas operacio-
nes para calcular P
n
() para un real dado. Existen algoritmos que permiten
la reduccion de los el c alculos para evaluar P
n
() (Ver problemas).
Ejercicio 1.1. Calcular el n umero de operaciones (suma, multiplicacion) nece-
sario para calcular P
n
().
Nota 1.5.
En el ejemplo de la aproximacion de la temperatura se construyo un polino-
mio de grado 1 (caso lineal) cuando se usaron las temperaturas medidas en los
extremos.
P
1
(x) =
T
l
T
0
l
x +T
0
En el caso de mediciones en tres puntos T
0
, T
l/2
, T
l
se construye un polinomio
de grado 2,
P
2
(x) = T
0
L
0
(x) +T
l/2
L
1
(x) +T
l
L
2
(x),
donde
L
0
=
(x l/2)(x l)
(l/2)(l)
=
1
l
2
(2x l)(x l),
L
1
=
x(x l)
l/2(l/2)
=
4
l
2
x(x l),
L
2
=
x(x l/2)
l(l/2)
=
1
l
2
x(2x l).
El polinomio de interpolaci on de Lagrange para el problema es
P
2
(x) =
T
0
l
2
(2x l)(x l)
4T
l/2
l
2
x(x l) +
T
l
l
2
x(2x l).
1.2. Interpolaci on de Hermite 7
1.2. Interpolacion de Hermite
Vimos que con el conocimiento de las parejas (x
i
, f(x
i
)), x
i
I = [a, b],
i = 0, . . . , n, se puede hallar el polinomio de interpolaci on de grado menor o igual
a n. Supongamos ahora que se quiere encontrar un polinomio m as parecido a
f usando informacion adicional sobre f en los puntos x
i
, i = 0, . . . , n.
Lo mas natural en este caso es pensar en las derivadas de f en los puntos
x
i
, i = 0, . . . , n.
El problema se plantea de la siguiente manera. Sean I = [a, b] y x
0
< x
1
<
. . . < x
n
(n +1) puntos en I. Sean k
0
, k
1
, k
2
, . . . , k
n
, n +1 enteros no negativos
y f una funci on denida en I tal que los n umeros
f
(j)
(x
i
), i = 0, . . . , n, j = 0, . . . , k
i
,
son denidos y conocidos. Denotemos igualmente m = n +k
0
+. . . +k
n
.
Nota 1.6.
f
(j)
(x
i
) denota la jesima derivada de f en el punto x
i
y f
(0)
= f.
Problematica 1.2. Encontrar un polinomio P
m
de grado menor o igual a m
tal que
P
m
(j)
(x
i
) = f
(j)
(x
i
), i = 0, . . . , n, j = 0, . . . , k
i
. (1.1)
Denicion 1.3. Un polinomio como (1.1) se llama polinomio de interpolaci on
de Hermite de la funci on f en los puntos x
i
, i = 0, . . . , n, con respecto a los
enteros k
i
, i = 0, . . . , n.
Teorema 1.2. El polinomio de interpolaci on de Hermite existe y es unico.
Antes de demostrar este teorema introducimos la nocion de raz m ultiple y
miramos su relacion con las derivadas de polinomios.
Denicion 1.4. Sea P(x) un polinomio con coecientes en K (K=R o C) y
sean K un escalar y m N. Se dice que es una raz de P de multiplicidad
m si (x )
m
divide a P(x) pero (x )
m+1
no lo divide.
En otras palabras, es raz de multiplicidad m de P si P(x) se escribe en
la forma
P(x) = (x )
m
Q(x),
con Q() ,= 0.
Lema 1.1. es una raz de multiplicidad m del polinomio P si y solo si para
todo k, 0 k m1,
P
(k)
() = 0 y P
(m)
() ,= 0. (1.2)
Demostracion. Sea P un polinomio de grado n. Aplicando la formula de Tay-
lor de orden n + 1 al polinomio P en un punto se tiene
P(x) =
n

i=0
(x )
i
i!
P
(i)
().
8 Captulo 1. Interpolaci on
Es evidente que si P
(k)
() = 0, k = 0, . . . , m 1, y P
(m)
() ,= 0 entonces es
raz de multiplicidad m. Recprocamente, derivar la ecuaci on
P(x) = (x )
m
Q(x),
permite deducir el resultado.
Ahora demostremos el teorema (1.2).
Demostracion. Si escribimos P
m
el polinomio de interpolaci on de Hermite en
la forma
P
m
(x) = a
0
+a
1
x + +a
m
x
m
,
las ecuaciones (1.1) forman un sistema lineal de m + 1 ecuaciones y m + 1
incongnitas que son los coecientes a
i
, i = 0, . . . m. De este modo el teorema
quedara demostrado si probamos que este sistema lineal tiene una solucion unica.
Pero esto es equivalente a probar que el sistema lineal homogeneo asociado
tiene la solucion trivial como solucion unica. Tal sistema se escribe en la forma
P
(j)
m
(x
i
) = 0, i = 0, . . . , n, j = 0, . . . , k
i
. (1.3)
Estas ecuaciones signican que para todo i = 0, . . . , n, x
i
es raz de multiplicidad
mayor o igual a k
i
+ 1 del polinomio P
m
. En otras palabras P
m
, que es un
polinomio de grado m, tiene al menos m+1 races lo que signica que P
m
es el
polinomio nulo, es decir,la unica solucion posible del sistema (1.3) es la solucion
trivial.
Nota 1.7.
Es evidente que la interpolaci on de Lagrange es un caso particular de la de
Hermite, con k
i
= 0, i = 0, . . . , n.
1.3. Calculo del error de interpolacion
Sea P
m
el polinomio de interpolaci on de una funci on f en los puntos x
i
,
i = 0, . . . , n del intervalo I = [a, b] con respecto a los enteros k
i
, i = 0, . . . , n.
Problematica 1.3. Es natural preguntarse que tan grande es el error que uno
est a cometiendo cuando aproxima f(x) con P
m
(x) para un x I.
Notemos que sin condiciones o datos adicionales sobre la funci on f, no hay
ninguna manera de controlar el error e(x) denido por:
e(x) = [f(x) P
m
(x)[ .
Miremos por que, para el caso simple k
i
= 0, i = 0, . . . , n. Sean P
i
, i = 0, . . . , n,
n + 1 puntos del plano de coordenadas (x
i
, y
i
), i = 0, . . . , n, donde x
i
I,
1.3. Calculo del error de interpolaci on 9
i = 0, . . . , n y sea x I. El polinomio de interpolaci on de Lagrange asociado
a los puntos P
i
i = 0, . . . , n, queda jo (por su unicidad) al jar estos puntos.
i = 0, . . . , n. Es evidente que para M, un real positivo arbitrario dado, existe
una innidad de funciones f tales que
f(x) = M y f(x
i
) = y
i
, i = 0, . . . , n.
Ademas, el polinomio de interpolaci on asociado a los puntos (x
i
, y
i
), i = 0, . . . , n,
tiene un valor jo P
m
(x). De ese modo
e(x) = [f(x) P
m
(x)[,
[f(x)[ [P
m
(x)[,
M P
m
(x).
As, e(x) toma valores tan grandes como uno quiera.
Teorema 1.3. Sean I = [a, b], x
i
, i = 0, . . . , n, n+1 puntos de I, k
i
, i = 0, . . . , n,
enteros no negativos, m = n +

n
i=0
k
i
y P
m
el polinomio de interpolaci on de
Hermite de la funci on f denida en I con respecto a x
i
, i = 0, . . . , n, y k
i
,
i = 0, . . . , n. Si f (
m+1
(I) entonces para todo x I, existe
x
I tal que
f(x) P
m
(x) =
p
m
(x)
(m+ 1)!
f
(m+1)
(
x
), (1.4)
donde
p
m
(x) =
n

i=0
(x x
i
)
ki+1
.
Demostracion. Si x es uno de los x
i
, i = 0, . . . , n, los dos lados de la igualdad
(1.4) valen cero. Ahora, si x ,= x
i
, i = 0, . . . , n, denamos la funci on polinomial
Q
m
en la variable t por
Q
m
(t) = P
m
(t) +
f(x) P
m
(x)
p
m
(x)
p
m
(t).
Notemos que d

Q
m
m + 1 por la presencia de p
m
(t). Ademas, para un j
entero positivo
Q
m
(j)
(t) = P
m
(j)
(t) +
f(x) P
m
(x)
p
m
(x)
p
(j)
m
(t).
Tenemos para todo i = 0, . . . , n, para todo j k
i
p
(j)
m
(x
i
) = 0.
As
Q
m
(j)
(x
i
) = P
m
(j)
(x
i
) = f
(j)
(x
i
)j k
i
y tambien tenemos
Q
m
(x) = f(x).
10 Captulo 1. Interpolaci on
La funci on F, denida por
F(t) = Q
m
(t) f(t),
se anula m+2 veces y su derivada F

se anula al menos m+1 veces. Siguiendo


el proceso deducimos que existe un
x
en I tal que F
m+1
(
x
) = 0 es decir
Q
m
(m+1)
(
x
) = f
(m+1)
(
x
).
Pero
Q
m
(m+1)
(t) = 0 +
f(x) P
m
(x)
p
m
(x)
p
(m+1)
m
(t).
Como p
m
(t) es un polinomio monico de grado m+ 1 deducimos que
p
(m+1)
m
= (m + 1)!.
Entonces
Q
m
(m+1)
(
x
) =
f(x) P
m
(x)
p
m
(x)
(m+ 1)!
lo que implica que
f(x) P
m
(x) =
p
m
(x)
(m + 1)!
f
(m+1)
(
x
).
Corolario 1.1. Si f satisface las condiciones del teorema (1.3) tenemos
e(x)
M
m+1
(m+ 1)!
[p
m
(x)[
donde
M
m+1
= sup
xI

f
(m+1)
(x)

.
Varias preguntas surgen examinando la desigualdad del corolario (1.1)
Nota 1.8.
1. Primera pregunta:
Bajo que condiciones la cantidad
M
m+1
(m+ 1)!
[p
m
(x)[
tiende a cero independientemente de x cuando m tiende a innito? En
otras palabras, la sucesion de polinomios de interpolaci on converge uni-
formemente a f?
1.3. Calculo del error de interpolaci on 11
2. Segunda pregunta:
Si uno quiere interpolar una funci on f dada optimizando el error, el unico
margen de maniobra es la cantidad [p
m
(x)[ que, en sntesis, depende solo
de los puntos x
i
, i = 0, . . . , n, y de los enteros k
i
, i = 0, . . . , n. Cual es
entonces la mejor selecci on de estos par ametros para optimizar e(x)?
Ilustremos esta discusi on con los siguientes ejemplos.
Ejemplo 1.2. Sean I = [a, b] y f (

(I). Supongamos que existe un real


M > 0 tal que
[f
(k)
(x)[ M, x I, k N.
Interpolando f en el intervalo I con respecto a los puntos x
i
, i = 0, . . . , n, y los
enteros k
0
, . . . , k
n
, el error e(x) es acotado de la siguiente manera
e(x)
M
(m+ 1)!
[p
m
(x)[, (1.5)
con m = n +k
0
+. . . +k
n
. Recordemos que
p
m
(x) =
n

i=0
(x x
i
)
ki+1
,
dado que los x
i
est an en [a, b]. Entonces para todo x en [a, b]
[x x
i
[ b a.
As
n

i=0
[x x
i
[
ki+1
(b a)
m+1
y la formula (1.5) da
e(x)
M
(m+ 1)!
(b a)
m+1
.
Sabemos que para todo real x
lm
n0
x
n
n!
= 0,
entonces
lm
m
e(x) = 0, x I.
Es decir que si se requiere una precisi on muy alta en la aproximacion con el
polinomio de interpolaci on es suciente aumentar el n umero de puntos de inter-
polaci on o los datos sobre las derivadas en estos puntos.
Ejemplo 1.3. En este ejemplo, llamado de Runge, veremos que la convergencia
no es siempre posible si la funci on interpolada presenta algunas patologas.
Sean I = [5, 5] y
f(x) =
1
1 +x
2
.
12 Captulo 1. Interpolaci on
Para n entero positivo se realiza la interpolaci on de f en los puntos equidistantes
x
i
= 5 +ih, i = 0, . . . , n, h = 10/n
y se calcula el error en el punto x = 5 h/2. Los resultado obtenidos, para
distintos valores de n, est an resumidos en la tabla siguiente donde la divergencia
de los polinomios de interpolaci on es evidente.
n f( x) P
n
( x)
2 -.08977122020
6 -.1864413536
10 -.6868592004
14 -2.822954659
18 -12.15212603
22 -53.74463799
26 -242.0061508
30 -1103.835361
34 -5083.699217
38 -23589.72229
Un analisis, no muy sencillo, de la funci on f muestra que sus derivadas tienen
la propiedad
M
n
n!.
Recordemos que M
n
= sup
xI
[f
(n)
(x)[
1.4. Interpolacion en los puntos de Chebyshev
Vimos en la nota (1.8.2) que la manera de reducir la cota superior del error
de interpolaci on para una funci on dada es elegir los puntos x
i
, i = 0, . . . , n, y
los enteros k
i
, i = 0, . . . , n, de manera que
max
axb
[p
m
(x)[
sea mnimo.
En esta secci on vamos a buscar estos puntos para el caso de interpolaci on
de Lagrange, es decir k
i
= 0, i = 0, . . . , n. Inicialmente damos los puntos para
la interpolaci on en el intervalo [1, 1] y despues, con un cambio de variable
sencillo, generalizamos esta b usqueda para intervalos arbitrarios de tipo [a, b],
< a < b < .
1.4.1. Polinomios de Chebyshev
Para n N, denamos las funciones
T
n
(x) = cos(narc cos x)
1.4. Interpolaci on en los puntos de Chebyshev 13
sobre el intervalo [1, 1].
Proposici on 1.1. Para todo n 1,
1. La funci on T
n
(x) satisface la relacion inductiva T
n+1
(x) = 2xT
n
(x)
T
n1
(x);
2. las soluciones de la ecuaci on T
n
(x) = 0 son
x
k
= cos
_
2k + 1
2n

_
, k = 0, . . . , n 1;
3. La funci on T
n
(x) toma valores entre 1 y 1 T
n
(x) y alcanza el maximo
max
1x1
[T
n
(x)[ = 1
en los puntos
y
k
= cos
_
k
n
_
, k = 0, . . . , n.
Nota 1.9.
Dado que T
0
(x) = 1, T
1
(x) = x y por la parte (1) de la proposicion deducimos
que para todo n 0, T
n
(x) es un polinomio de grado n en x sobre el intervalo
[1, 1].
Denicion 1.5. Los polinomios T
n
(x) se llaman polinomios de Chebyshev y
sus races x
i
k = 0, . . . , n 1 se llaman puntos de Chebyshev.
Demostracion.
1.
T
n+1
(x) = cos
_
(n + 1) arc cos x
_
,
= cos(narc cos x) cos(arc cos x) sen(narc cos x) sen(arc cos x),
= xT
n
(x)
1
2
cos
_
(n 1) arc cos x
_
+
1
2
cos
_
(n + 1) arc cos x
_
,
= xT
n
(x)
1
2
T
n1
(x) +
1
2
T
n+1
(x).
As
T
n+1
(x) = 2xT
n
(x) T
n1
(x);
2. La ecuaci on T
n
(x) = 0 equivale a
narc cos x = (2k + 1)

2
,
es decir arc cos x = (2k + 1)

2n
, k = 0, . . . , n 1.
As
x = cos
_
2k + 1
2n

_
, k = 0, . . . , n 1.
Queda mostrado el punto 2.
14 Captulo 1. Interpolaci on
3. Sabemos que [T
n
(x)[ 1, x [1, 1] y que [T
n
(1)[ = [T
n
(1)[ = 1.
Ahora analicemos los extremos T
n
(x) en el intervalo ] 1, 1[.
T

n
(x) =
n

1 x
2
sen(narc cos x)
es nula si y solo si
arc cos x =
k
n
, k = 1, . . . , n 1,
as que [T
n
(x)[ = 1 en los puntos
y
k
= cos
_
k
n
_
, k = 1, . . . , n 1
y en estos puntos el polinomio T
n
vale
T
n
(y
k
) = (1)
k
, k = 1, . . . , n 1.
Agregamos los puntos y
0
= 1, y
n
= 1 y (3) queda demostrado.
El teorema siguiente muestra que el error es minimo si los puntos de inter-
polaci on coinciden con las raices del polinomio de Chebyshev.
Teorema 1.4. Para todo n 1,
1. el coeciente de x
n
en T
n
es 2
n1
;
2. para todo polinomio Q
n
monico de grado n tenemos
1
2
n1
= max
1<x<1

T
n
(x)
2
n1

max
x[1,1]
Q
n
(x).
Demostracion.
1. Es evidente a partir de la proposicion;
2. Como
max
1<x<1
[T
n
(x)[ = 1
deducimos que
max
1<x<1

T
n
(x)
2
n1

=
1
2
n1
.
Supongamos que existe un polinomio Q
n
monico de grado n tal que
max
1<x<1
[Q
n
(x)[ <
1
2
n1
.
1.4. Interpolaci on en los puntos de Chebyshev 15
Ahora consideremos el polinomio
W
n1
(x) = Q
n
(x)
T
n
(x)
2
n1
.
W
n1
es un polinomio de grado n 1.
En los puntos
y
k
= cos
k
n
, k = 0, . . . , n,
W
n1
(y
k
) = Q
n
(y
k
)
(1)
k
2
n1
, k = 0, . . . , n.
Como
max
1<x<1
[Q
n
(x)[ <
1
2
n1
,
deducimos que W
n1
cambia de signo al menos n veces, es decir, W
n1
tiene al menos n races lo que contradice el hecho que el grado de W
n1
sea menor o igual a (n 1).
Nota 1.10.
1. La parte (2) de este teorema nos dice que T
n
es la solucion del problema
de optimizacion dado por
mn
QnPn
_
max
1<x<1
[Q
n
(x)[
_
,
donde P
n
es el conjunto de lo polinomios monicos de grado n;
2. Dado que los polinomios monicos est an totalmente determinados por sus
races, si se escogen
x
k
= cos
_
(2k + 1)
2n
_
, k = 0, . . . , n 1,
(races del polinomio T
n
) como puntos de interpolaci on de una funci on f
en el intervalo [1, 1] aseguramos que el error de interpolaci on satiface
e(x) =
M
n
n!
1
2
n1
pues
max
1<x<1
[(x x
0
) . . . (x x
n1
)[
1
2
n1
.
16 Captulo 1. Interpolaci on
En el caso interpolaci on en un intervalo [a, b] se puede hacer el cambio de
variable
t =
1
2
_
(b a)x +a +b

que enva el intervalo [1, 1] al intervalo [a, b]. Ilustremos esto con el siguiente
ejemplo.
Ejemplo 1.4. Sea la funci on f(x) = cos(x
2
+ 10) denida sobre el intervalo
[1, 2]. Para un entero natural n, se construyen los polinomios de interpolaci on de
Lagrange P
n
en los puntos equidistantes x
i
= 1 +i/n, i = 0, . . . , n, y Q
n
en los
puntos de Chebyshev t
i
= cos
_
2k+1
2(n+1)

_
, k = 0, . . . , n; respectivamente.
Se calcula el error en los puntos a
i
= 1 + i/n
2
, i = 0, . . . , n
2
para comparar la
eciencia de aproximacion de las dos interpolaciones. Los resultados de la tabla
siguiente corresponden a n = 4.
x f(x) Q
n
(x) f(x) P
n
(x)
1 .006151161452 -.004425697988
1.062500000 -.0052213045 -.1329372639
1.125000000 -.0059099095 -.2667803115
1.187500000 -.0015960724 -.4028073422
1.250000000 .0035636880 -.5370412570
1.312500000 .0069207574 -.6646923520
1.375000000 .0072519428 -.7802408017
1.437500000 .0045964842 -.8775996460
1.500000000 1,10
9
-.9503708471
1.562500000 -.0048423344 -.9922021095
1.625000000 -.0080433166 -.9972444096
1.687500000 -.0080710720 -.9606993515
1.750000000 -.0043615418 -.8794316548
1.812500000 .0020447625 -.7526059079
1.875000000 .0078999083 -.5822894220
1.937500000 .0072541870 -.3739465808
2.000000000 -.0088422590 -.1367372182
Como se ve en la tabla, el error en el caso de los puntos de Chebyshev es de
lejos menor que el error cometido en el caso de los puntos equiditantes
Captulo 2
Integracion numerica
Introducci on
Sean I = [a, b] y f una funci on denida sobre I tales que
J =
_
b
a
f(x) dx existe,
es decir f es integrable en el sentido de Riemann.
Si f no se conoce en todos los puntos de I, o si f tiene una forma analtica
compleja de manera que la integral J es difcil o imposible de calcular usando
una funci on primitiva, es necesario buscar metodos numericos para aproximar
la integral.
Ejemplo 2.1.
1. No es posible calcular la integral
_
1
0
e
x
2
dx
utilizado el teorema fundamental de clalculo por que la la funci on x
e
x
2
no le conocemos una antiderivada.
2. Sabemos que
ln 2 =
_
1
0
1
1 +x
dx.
Si queremos realizar una aproximacion de ln 2 , la integraci on numerica
sera una alternativa evaluando la integral de manera aproximada.
3. Las funciones c, s denidas por las integrales
c(t) =
_
t
0
cos dx(

2
w
2
)dt, s(t) =
_
t
0
sendx(

2
w
2
)dt.
17
18 Captulo 2. Integraci on numerica
aparecen en los probleams de difracci on de la luz. Los valores de estas
funciones en un t dado, no se pueden evaluar sin aproximaciones por no
conocer a funciones antiderivadas de w cos(w
2
) y w sen(w
2
).
La integraci on numerica consiste en aproximar este tipo de integrales en la
forma siguiente
_
b
a
f(x) dx
n

i=0
c
i
f(
i
) (2.1)
donde c
i
,
i
, i = 0, . . . , n, son reales.
Denicion 2.1. La formula (2.1) se llama formula de cuadratura numerica.
Problematica 2.1. Para construir un metodo de cuadratura hay que escoger
un entero n y 2(n + 1) reales (los
i
y c
i
, i = 0, . . . , n).
Como en toda construcci on numerica, la mayor preocupaci on es que la apro-
ximacion de la formula (2.1) sea lo mas precisa posible. As que la b usqueda de
los par ametros n,
i
y c
i
, i = 0, . . . , n, se hace con este objetivo.
Nota 2.1.
La formula de cuadratura numerica (2.1) no es sino una suma de Riemann
de la funci on lo que es natural dado que la integral de Riemann es un limite de
sumas de Riemann.
2.1. Metodos compuestos
Consideramos la integral
I =
_
b
a
f(x) dx
que queremos aproximar. En estos metodos se divide el intervalo I = [a, b] en k
subintervalos
[t
i
, t
i+1
], i = 0, . . . , k 1,
donde t
0
= a y t
k
= b. As
_
b
a
f(x) dx =
k1

i=0
_
ti+1
ti
f(x) dx.
Ahora en lugar de aproximar la integral global I, se aproximan cada una de las
k integrales
I
i
=
_
ti+1
ti
f(x) dx, i = 0, . . . , k 1.
La idea es utilizar un polinomio de interpolaci on que aproxime f en el inter-
valo [t
i
, t
i+1
] para aproximar I
i
. Dado que hay k integrales para aproximar es
2.1. Metodos compuestos 19
mejor estandarizar el proceso de aproximacion, es decir tratar de encontrar una
forma de aproximacion algortmica. Para eso, se considera el cambio de variable
x =
(t
i+1
t
i
)t + (t
i
+t
i+1
)
2
,
dx =
_
t
i+1
t
i
2
_
dt.
Entonces
_
ti+1
ti
f(x) dx =
_
t
i+1
t
i
2
__
1
1
g
i
(t) dt,
donde
g
i
(t) = f
_
(t
i+1
t
i
)t + (t
i
+t
i+1
)
2
_
.
Si denotamos
h
i
= t
i+1
t
i
,
_
ti+1
ti
f(x) dx =
h
i
2
_
1
1
g
i
(t) dt.
El problema se reduce entonces a aproximar integrales de tipo
_
1
1
g(t) dt.
Sean x
i
, i = 0, . . . , n, puntos del intervalo [1, 1] y k
i
, i = 0, . . . , n, enteros
no negativos. Sea P
m
el polinomio de interpolaci on de Hermite de g con respecto
a los x
i
y k
i
, i = 0, . . . , n. Sabemos que existe un real
x
[1, 1] tal que
P
m
(x) g(x) =
g
(m+1)
(
x
)
(m+ 1)!
p
m
(x),
donde
m = n +
n

i=0
k
i
y
x
[1, 1].
As
_
1
1
g(t) dt =
_
1
1
P
m
(x) dx
1
(m+ 1)!
_
1
1
g
(m+1)
(
x
)p
m
(x) dx.
En resto de este capitulo, consideramos el caso donde k
i
= 0, i = 0, . . . , n,
es decir la interpolaci on de Lagrange,
P
m
(x) =
n

i=0
g(x
i
) L
i
(x),
20 Captulo 2. Integraci on numerica
donde L
i
son los polinomios de Lagrange
L
i
(x) =
n

j=0
j=i
_
x x
j
x
i
x
j
_
.
Entonces
_
1
1
g(t) dt =
n

i=0
c
i
g(x
i
) e,
donde
c
i
=
_
1
1
n

j=0
j=i
_
x x
j
x
i
x
j
_
dx
y
e =
1
(m+ 1)!
_
1
1
g
(m+1)
(
t
) p
m
(t) dt.
Es evidente que la aproximacion se hace despreciando el termino e. As
_
1
1
g(t) dt
n

i=0
c
i
g(x
i
).
Casos particulares
1. Aproximacion por rectangulos.
En este caso la interpolaci on es de grado 0. Es decir n = 0, L
0
(x) = 1 y
c
0
=
_
1
1
L
0
(x) dx = 2.
_
ti+1
ti
f(x) dx =
h
i
2
_
1
1
g(t) dt
h
i
2
2g(x
i
) = h
i
f(z
i
),
donde z
i
[t
i
, t
i+1
].
_
b
a
f(x) dx =
k1

i=0
_
ti+1
ti
f(x) dx,
_
b
a
f(x) dx
k1

i=0
h
i
f(z
i
).
Si z
i
= t
i
, el metodo es de los rectangulos del lado izquierdo (gura 2.1).
Si z
i
= t
i+1
, el metodo corresponde a los rectangulos del lado derecho
(gura 2.2).
Si z
i
=
ti+ti+1
2
, el metodo se llama de los puntos medios (gura 2.3).
2.1. Metodos compuestos 21
b t
2
t
1
a
l l l l
Figura 2.1.
b t
2
t
1
a
l l l l
Figura 2.2.
2. Aproximacion por trapezoides (gura 2.4).
b t
2
t
1
a
l l l l
Figura 2.3.
22 Captulo 2. Integraci on numerica
Se usa en este caso la interpolaci on lineal, es decir de grado 1.
_
1
1
g(t) dt c
0
g(1) +c
1
g(1),
c
0
=
_
1
1
x x
1
x
0
x
1
dx =
_
1
1
x 1
2
dx = 1,
c
1
=
_
1
1
x + 1
2
dx = 1,
g(1) = f(t
i
), g(1) = f(t
i+1
).
As
_
ti+1
ti
f(x) dx
h
i
2
(f(t
i
) +f(t
i+1
))
y
_
b
a
f(x) dx
k1

i=0
h
i
2
(f(t
i
) +f(t
i+1
)) . (2.2)
b t
2
t
1
a
l l l l
Figura 2.4.
3. Interpolaci on cuadratica.
Para este caso la interpolaci on es de grado 2, es decir k = 2 y los puntos
de interpolaci on son los extremos del intervalo y su punto medio. As
_
1
1
g(t) dt = c
0
g(1) +c
1
g(0) +c
2
g(1),
c
0
=
_
1
1
x(x 1)
(1)(2)
dx =
1
2
_
1
3
x
3

1
2
x
2
_
1
1
=
1
3
,
c
1
=
_
1
1
x
2
1
1
dx =
_
x
3
3
x
_
1
1
=
4
3
,
c
2
=
_
1
1
x(x + 1)
2
dx =
1
2
_
x
3
3
_
1
1
=
1
3
.
2.2. Metodos de cuadratura gaussiana 23
As tenemos la formula llamada de Simpson
_
b
a
f(t) dt =
k1

i=0
h
i
2
_
1
3
f(t
i
) +
4
3
f(
t
i
+t
i+1
2
) +
1
3
f(t
i+1
)
_
. (2.3)
2.2. Metodos de cuadratura gaussiana
Sea la formula de integraci on numerica dada por
_
b
a
f(x) dx
n

i=0
c
i
f(x
i
). (2.4)
Denicion 2.2. Se dice de la formula (2.4) que es de grado m (m N) si es
exacta para todos los polinomios de grado m y existe al menos un polinomio
de grado m+ 1 para el que no lo es.
Nota 2.2.
Dadosa los puntos x
i
, i = 0, . . . , n, en [a, b] puntos distintos, sabemos que la
formula (2.4) donde
c
i
=
_
b
a
L
i
(x) dx, i = 0, . . . , n
y L
i
son los polinomios de Lagrange asociados a los puntos x
i
, i = 0, . . . , n, es
de grado n. Dado que el error es
e =
_
b
a
f
(n+1)
(
x
)
(n + 1)!
p
n
(x) dx
y si f es un polinomio de grado n, su derivada de orden (n + 1) es nula.
Problematica 2.2. Queremos encontrar una formula de integraci on numerica
que sea de orden lo mas grande posible.
Hasta ahora los puntos x
i
, i = 0, . . . , n, han sido arbitrarios en [a, b] y pro-
porcionan una formula de grado n. Una manera de proceder entonces es escoger
estos puntos de manera que la formula (2.4) sea de grado mayor.
Denicion 2.3. Sean I = [a, b] y w una funci on denida e integrable en I.
Supongamos ademas que w(x) 0 para todo x I y que
_
b
a
w(x) > 0. Para
f, g funciones denidas sobre I denotamos
f, g) =
_
b
a
w(x) f(x) g(x) dx
si esta integral est a bien denida. Llamamos a f, g) producto escalar de f y g,
y w se llama funci on peso.
24 Captulo 2. Integraci on numerica
Propiedades
Para todas f, g, h funciones tales que sus productos escalares esten denidos.
Tenemos
1. f +g, h) = f, h) + g, h) , , R.
2. f, g) = g, f).
3. f, f) 0.
4. f, f) = 0 si y solo si f 0.
Notacion
Se denota |f| =
_
f, f).
Denicion 2.4. Dos funciones f y g son ortogonales con respecto al producto
escalar , ) si f, g) = 0.
Teorema 2.1. Sean I = [a, b] y w funci on peso. Existe una sucesion de polino-
mios (P
n
)
nN
tal que para todo n N
i) P
n
es monico de grado n para n 1
ii) P
n
, Q
n1
) = 0 para todo polinomio Q
n1
de grado n 1.
iv) P
n
= (x
n
)P
n1

n
P
n2
, donde

n
=
|P
n1
|
2
|P
n2
|
2
y
n
=
xP
n1
, P
n1
)
|P
n1
|
2
.
Demostracion. Consideramos B =
_
1, x, x
2
, . . . , x
n
, . . .
_
la base canonica de
los polinomios con coecientes reales. Denotemos
P
0
= 1,
P
m+1
= x
m+1

k=1

x
m+1
, P
k
_
|P
k
|
2
P
k
.
Los P
m
son los polinomios obtenidos por el proceso de ortogonalizaci on de
GramSchmidt aplicado a la base B. Es facil ver (por induccion) que
P
m
, P
k
) = 0, k < m.
Como (P
n
)
nN
forman una base del espacio de los polinomios, deducimos que
P
m
, Q
k
) = 0 para todo polinomio de grado k < m.
2.2. Metodos de cuadratura gaussiana 25
Ahora vamos a construir un metodo de cuadratura gaussiana usando los
polinomios ortogonales. Para eso en lugar de aproximar
_
b
a
f(x) dx consideramos
las integrales de tipo
_
b
a
w(x) f(x) dx,
donde w(x) es una funci on peso. Se considera la formula de tipo
_
b
a
w(x) f(x) dx =
n

i=0
c
i
f(
i
). (2.5)
El objetivo, recordemoslo, es encontrar los
i
y los c
i
de manera que la formula
(2.5) sea de orden maximo.
Sean P
n
los polinomios ortogonales asociados al intervalo I = [a, b] y la
funci on peso w(x). Sean x
i
, i = 0, . . . , n 1, las races del polinomio P
n
.
Teorema 2.2. Para todo n 1, las races x
i
de P
n
son distintas, reales y
pertenecen al intervalo I = [a, b].
Demostracion. Sea E = y
i
, i = 1, . . . , k el conjunto de races reales del
polinomio P
n
que est an en I y que tienen una multipicidad impar. A priori, es
posible que E sea vaco. Ponemos
h(x) =
_
_
_
k

i=1
(x y
i
), si k > 0,
1, si k = 0.
Ahora las races del polinomio Q(x) = P
n
(x) h(x) que est an en el intervalo I
son todas de multiplicidad par ademas Q(x) es un polinomio monico no nulo,
entonces
_
b
a
w(x) Q(x) dx > 0.
Pero si k < n por ortogonalidad tendremos
_
b
a
w(x) Q(x) dx =
_
b
a
w(x) P
n
(x) h(x) dx = 0.
As que k = n y el teorema queda probado.
Ahora veremos que elegir las races de los polinomios P
n
, n 1, como los
puntos de integraci on numerica mejora de manera muy sensible el orden de la
cuadratura gaussiana como lo muestra el teorema siguiente.
Teorema 2.3. Si se escogen los
i
, i = 0, . . . , n 1, como races de P
n
y
c
i
=
_
b
a
w(x) L
i
(x) dx,
26 Captulo 2. Integraci on numerica
entonces el metodo
_
b
a
w(x) f(x) dx =
n1

i=0
c
i
f(
i
) (2.6)
es de orden (2n 1).
Denicion 2.5. La formula dada por (2.6) se llama cuagratura gaussiana.
Demostracion. Sea T un polinomio de grado menor o igual que (2n 1). Por
la divisi on Euclidiana sabemos que existen dos polinomios q, r tales que
T = P
n
q +r y d

r < n o r = 0.
Ahora
T(
i
) = P
n
(
i
) q(
i
) +r(
i
) = r(
i
), i = 0, . . . , n 1
porque los
i
son las races de P
n
. As
_
b
a
w(x) T(x) dx =
_
b
a
w(x) P(x) q(x) dx +
_
b
a
w(x) r(x) dx.
Pero como d

q < n, por ortogonalidad


_
b
a
w(x) T(x) dx =
_
b
a
w(x) r(x) dx.
Siendo d

r < n la formula (2.5) es exacta, es decir que


_
b
a
w(x) r(x) dx =
n1

i=0
c
i
r(
i
).
Pero r(
i
) = T(
i
) entonces
_
b
a
w(x) T(x) dx =
n1

i=0
c
i
T(
i
),
es decir la formula es exacta para T.
Ejemplo 2.2. En este ejemplo se comparan los resultados numericos del calculo
de la integral
_
1
1
e
(4x
2
)
cos(4x)dx.
El aspecto osilatorio de la funci on f y su fuerte gradiente en los extremos del
intervalo de integraci on generan dicultades obvias de integraci on numerica co-
mo lo muestra la gura (2.5). El valor de la integral es 3.68584253940776 En la
tabla siguiente se presenta el error cometido en los metodos ultilizatos que son
el de trapezoides (2.2) , de Simpson (2.3), de cuadratura con interpolaci on en
n +1 puntos equidistantes (columna Equidistantes.) y de cuadratura gaussiana
(columna Legendre.) utilizando los poliniomios de Legendre que corresponden
a la funci on peso w = 1 y el intervalo [1, 1].
2.2. Metodos de cuadratura gaussiana 27
10
0
10
20
30
40
50
1 0.8 0.6 0.4 0.2 0.2 0.4 0.6 0.8 1
x
Figura 2.5.
n Trapezoides Simpson Equidistantesqui. Legendre.
4 26.831514 0.694563 17.432917 4.417462
12 2.373763 0.087200 0.232951 0,34 10
7
20 0.774535 0.011623 0.000852 0,15 10
7
28 0.383574 0.003038 0.000016 0.
28 Captulo 2. Integraci on numerica
Captulo 3
Preliminares de algebra
lineal
3.1. Nomenclatura
Denotamos K al cuerpo de los reales R o los complejos C, K

= K 0,
N es el conjunto de los enetros naturales, N

= N 0. Sean m, n dos enteros


positivos. K
mn
es el espacio vectorial de las matrices de m las y n columnas.
Si A K
mn
, denotamos A
ij
o a
ij
al elemento de la la i y la columna j de la
matriz A.
La suma de dos matrices y la multiplicacion de una matriz por un escalar,
que dan a K
mn
estructura de espacio vectorial, se denen por:
(A +B)
ij
= A
ij
+B
ij
1 i m, 1 j n,
(A)
ij
= A
ij
para K.
El espacio K
mn
es de dimensi on m n. La base canonica de K
mn
es el
conjunto
B = E
ij
K
mn
; 1 i m, 1 j n,
denido de la siguiente manera
E
ij
kl
=
_
1, si k = i y l = j,
0, si no.
Para n N denotemos tambien
K
n
= K
n1
,
es decir que los elementos de K
n
son los vectores columna.
29
30 Captulo 3. Preliminares de algebra lineal
3.2. Multiplicacion de matrices
Sean A K
mn
, B K
np
. El producto de las matrices A y B, en este
orden, es la matriz AB denida en K
mp
(AB)
ij
=
n

k=1
a
ik
b
kj
, 1 i m, 1 j p.
La matriz nula es la matriz cuyas entradas son nulas y se nota O
M
o O si
no hay lugar a confusi on
Una matriz A es cuadrada si su n umero de las es igual a su n umero de
columnas, es decir si A K
nn
para un n en N

.
La matriz identidad de K
nn
es la matriz I denida por
I
ij
=
ij
,
donde
ij
es el smbolo de Kronecker.
Para una matriz cuadrada, y k N se dene la potencia kisima de A por
A
k+1
= AA
k
poniendo A
0
= I
Ejercicio 3.1. Sean A, B, C matrices. Demostrar que
1. AI = IA = A.
2. A(B +C) = AB +AC.
3. (B +C)A = BA +CA.
4. A(BC) = (AB)C.
5. O
M
A = O
M
.
6. 0 A = O
M
.
Las dimensiones de las matrices son tales que las expresiones que aparecen en
el ejercicio esten bien denidas.
Denicion 3.1. Sea una matriz A en K
nn
. Se dice que A es invertible si existe
una matriz B en K
nn
tal que
AB = BA = I.
La matriz B se llama la inversa de A y se nota A
1
.
Ejercicio 3.2. Demostrar que
1. La matriz nula no es invertible.
2. La matriz identidad es invertible.
3. Si A, B son invertibles en K
nn
, entonces AB lo es tambien.
4. Si K

y A K
nn
es invertible, entonces A tambien es invertible.
5. Si A K
nn
es invertible y k N, entonces la potencia A
k
de A lo es
tambien.
3.3. Notacion por bloques 31
3.3. Notacion por bloques
Sean m, n enteros no negativos y sean
_
m = m
1
+m
2
+ +m
l
y
n = n
1
+n
2
+ +n
p
.
(3.1)
una descomposicion de m y n y A K
mn
. Denotamos para 1 r l,
1 s p, A
rs
la matriz de K
mrns
denida por la formula
A
rs
ij
= A
m1+m2++mr1+i,n1+n2++ns1+j
para 1 i m
r
, 1 j n
s
. Es decir
A =
_
_
_
_
_
_
A
11
A
12
A
1p
A
21
A
22
A
2p
.
.
.
.
.
.
.
.
.
A
l1
A
l2
A
lp
_
_
_
_
_
_
. (3.2)
En (3.2) A se presenta seg un la descomposicion (3.1) de m y n.
Nota 3.1.
Si las matrices tienen la misma descomposicion en bloques, es evidente que
la suma preserva la estructura por bloques.
Ejercicio 3.3. Sea
_

_
m = m
1
+ +m
l
,
n = n
1
+ +n
p
,
k = k
1
+ +k
q
.
(3.3)
Sean A K
mn
, B K
nk
dadas en bloques seg un la descomposicion (3.3).
Demostrar que AB K
mk
tiene estructura por bloques adecuada y que
(AB)
ij
=
p

t=1
A
it
B
tj
, (3.4)
para 1 i l, 1 j q. Los productos del lado izquierdo de la ecuaci on (3.4)
son matriciales.
3.4. Matrices particulares
Sea A K
nn
. Se dice que A es
a) diagonal si A
ij
= 0, para todo i ,= j.
b) triangular superior si A
ij
= 0, para i > j.
32 Captulo 3. Preliminares de algebra lineal
c) triangular inferior si A
ij
= 0, para i < j.
Proposici on 3.1.
1. El producto de dos matrices diagonales es una matriz diagonal.
2. El producto de dos matrices triangulares superiores (respectivamente in-
feriores) es una matriz triangular superior (respectivamente inferior).
Demostracion. Mostremos la parte 2. El caso diagonal va a ser un caso par-
ticular del caso triangular.
Sean T y S dos matrices triangulares superiores en K
nn
. Sea i > j
(TS)
ij
=
n

k=1
T
ik
S
kj
,
(TS)
ij
=
j

k=1
T
ik
S
kj
. .
(I)
+
n

k=j+1
T
ik
S
kj
. .
(II)
.
La parte (I) es nula porque
k j < i, as T
ik
= 0.
La parte (II) es nula porque
k > j, as S
kj
= 0.
As
(TS)
ij
= 0, si i > j.
Ejercicio 3.4.
1. Mostrar que si T y S son triangulares superiores entonces
(TS)
ii
= T
ii
S
ii
, para i = 1, . . . , n.
2. Mostrar que si una matriz triangular es invertible entonces sus elementos
diagonales son no nulos.
3. Sean e
k
, k = 1, . . . , n la base canonica de K
n
, T una matriz triangular
superior invertible y x un vector de K
n
tal que
Tx = e
k
.
Mostrar que x
j
= 0 para j > k.
4. Deducir del punto (3) que la inversa de una matriz triangular superior
(respectivamente inferior) invertible es una matriz triangular superior (res-
pectivamente inferior).
3.5. Transpuesta y adjunta de una matriz 33
3.5. Transpuesta y adjunta de una matriz
Denicion 3.2. Sea A K
mn
. Se dene la transpuesta de A por la matriz
A
t
K
mn
dada por
A
t
ij
= A
ji
, 1 i n, 1 j m.
La adjunta A

de la Matriz A se dene por


A

ij
= A
ji
, 1 i n, 1 j m.
donde A
ij
indica el complejo conjugado de A
ij
.
Nota 3.2.
No hay mucho interes de considerar la transpuesta de una matriz con coe-
cientes complejos, entonces cuando la matriz es real se habla de su transpuesta,
y cuando es compleja se habla de su adjunta. Ademas, si A R
nn
entonces
A
t
= A

.
3.5.1. Propiedades de la transpuesta y la adjunta de una
matriz
Sean A, B matrices en K
mn
, C en K
np
y K.
1. (A +B)

= A

+B

2. (AC)

= C

3. (A)

= A

Denicion 3.3.
1. Una matriz A en R
nn
es simetrica si A
t
= A.
2. Una matriz A en C
nn
es hermitiana si A

= A.
Ejercicio 3.5.
1. Demostrar que la suma de dos matrices simetricas (respectivamente her-
mitianas) es simetrica (respectivamente hermitiana).
2. Es el producto de dos matrices simetricas (respectivamente hermitianas)
simetrico (respectivamente hermitiano)?
3. Demostrar que si A es invertible entonces
_
A
1
_

=
_
A

_
1
.
4. Deducir que si A es hermitiana entonces su inversa A
1
lo es tambien.
34 Captulo 3. Preliminares de algebra lineal
Denicion 3.4.
1. Una matriz U en C
nn
se dice unitaria si UU

= I.
2. Una matriz S en R
nn
se dice ortogonal si SS
t
= I.
Nota 3.3.
El producto de matrices unitarias (respectivamente ortogonales) es unitario
(respectivamente ortogonal)
3.6. Matrices con diagonal estrictamente domi-
nante
Denicion 3.5. Sea A K
nn
. Se dice que A tiene diagonal estrictamente
dominante si i = 1, . . . , n
[a
ii
[ >
n

j=1
j=i
[a
ij
[ (3.5)
Proposici on 3.2. Si A K
nn
es una matriz con diagonal estrictamente do-
minante entonces
1. Para todo i = 1, . . . , n, a
ii
,= 0.
2. A es invertible.
Demostracion.
1. Por la desigualdad (3.5) se tiene tenemos a
ii
,= 0, i = 1, . . . , n.
2. Supongamos que A no es invertible entonces existe x K
n
tal que x ,= 0
y Ax = 0. Sea k el ndice donde
[x
k
[ = max
i=1,...,n
[x
i
[ .
Ahora Ax = 0 implica (Ax)
k
= 0, es decir
a
kk
x
k
=
n

j=1
j=k
a
kj
x
j
,
[a
kk
[
n

j=1
j=k
[a
kj
[
[x
j
[
[x
k
[

n

j=1
j=k
[a
kj
[ .
Contradiccion con la desigualdad (3.5).
3.7. Matrices de permutaciones 35
Ejercicio 3.6. Sea A = D+L+U K
nn
donde D,L y U son respectivamen-
te la parte diagonal, la parte triangular inferior estricta y la parte triangular
superior estricta de la matriz A. Mostrar que si A tiene diagonal estrictamente
dominante entonces
1. D
1
A tiene diagonal estrictamente dominante.
2. (D + aL + bU) tiene diagonal estrictamente dominante donde a, b son
escalares de K tales que [a[ 1 y [b[ 1.
3.7. Matrices de permutaciones
Para n N

denotemos J
n
= 1, 2, . . . , n.
Denicion 3.6. Una permutacion de J
n
es una biyeccion de J
n
en s mismo.
S
n
designa el conjunto de las permutaciones de J
n
. Una transposicion de J
n
es
una permutacion que intercambia dos elementos de J
n
entre s y deja el resto de
los elementos sin cambio.Usualmente una permutacion se nota de la manera
siguiente
_
1 2 n
(1) (2) (n)
_
Ejemplo 3.1. n = 4.
i : J
4
J
4
,
i(1) = 1, i(2) = 2, i(3) = 3, i(4) = 4,
i S
4
y se llama identidad.
: J
4
J
4
,
(1) = 3, (2) = 4, (3) = 4, (4) = 1,
/ S
4
.
: J
4
J
4
,
(1) = 1, (2) = 3, (3) = 4, (4) = 2,
S
4
.
: J
4
J
4
,
(1) = 1, (2) = 4, (3) = 3, (4) = 2,
es una transposicion.
Denicion 3.7. Sean n N

y S
n
. Se asocia a la permutacion la matriz

denida en K
nn
por

ij
=
i(j)
, 1 i, j n,
36 Captulo 3. Preliminares de algebra lineal
donde
ij
es el smbolo de Kronecker.

se llama matriz de permutacion aso-


ciada a .
Ejemplo 3.2. En el ejemplo (3.1), la matriz de permutacion asociada a es

=
_
_
_
_
_
1 0 0 0
0 0 0 1
0 1 0 0
0 0 1 0
_
_
_
_
_
.
La matriz de permutacion asociada a es

=
_
_
_
_
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
_
_
_
_
.
Ejercicio 3.7. Calcular (

) (

)
t
y
_

_ _

_
t
.
Proposici on 3.3. Sean n un entero positivo y , dos permutaciones de S
n
.
Tenemos
1.
i
= I
2.

3. (

)
_

1
_
= I
4. (

) (

)
t
= I
Demostracion.
1. Evidente.
2. Sean 1 i, j n.
_

_
ij
=
n

k=1
_

ik

kj
_
,
_

_
ij
=
n

k=1
_

i (k)

k (j)
_
,
pero
k (j)
= 0 excepto cuando k = (j). As
_

_
ij
=
i ((j))
=

ij
.
3. El resultado se obtiene usando (1) y (2).
3.8. Determinantes 37
4. Sean 1 i, j n.
_

)
t
_
ij
=
n

k=1
_

ik

jk
_
,
_

)
t
_
ij
=
n

k=1
_

i (k)

j (k)
_
,
pero
j (k)
= 0 excepto cuando (k) = j, es decir k =
1
(j). As
_

)
t
_
ij
=
i (
1
(j))
=
ij
.
Lo que signica que la transpuesta de cualquier matriz de permutacion es
la matriz de permutacion asociada a la inversa de esta permutacion.
3.8. Determinantes
Adoptemos en esta secci on la siguiente notaci on. Escribimos una matriz A
en K
nn
en la forma
A = (c
1
[ . . . [c
n
)
donde c
i
, i = 1, . . . , n, son las columnas de A.
Denicion 3.8.
1. Se le dice a una funci on
L : K
nn
K multilineal o n-lineal
si es lineal para cada columna, es decir si i, i = 1, . . . , n, la funci on
x L(c
1
[ . . . [c
i1
[x[c
i+1
[ . . . [c
n
)
de K
n
en K es lineal. As
L(c
1
[ . . . [c
i1
[x +y[c
i+1
[ . . . [c
n
) =
L(c
1
[ . . . [c
i1
[x[c
i+1
[ . . . [c
n
) +L(c
1
[ . . . [c
i1
[y[c
i+1
[ . . . [c
n
).
2. Una funci on n-lineal es alternada si L(A) = 0 para toda matriz A que
tenga dos columnas iguales.
Lema 3.1. Si L es una funci on n-lineal alternada entonces
L(A) = L(A

) donde
A

es la matriz obtenida permutando dos columnas de A entre s.


38 Captulo 3. Preliminares de algebra lineal
Demostracion. Sean A K
nn
e i, j dos ndices jos en 1, . . . , n tales que
i < j. Escribamos A = (c
1
[ . . . [c
n
).
L(c
1
[ . . . [c
i
+c
j
[ . . . [c
j
+c
i
[ . . . [c
n
) = 0
por tener dos columnas iguales, pero
L(c
1
[ . . . [c
i
+c
j
[ . . . [c
j
+ c
i
[ . . . [c
n
) =
L(c
1
[ . . . [c
i
[ . . . [c
j
[ . . . [c
n
) +L(c
1
[ . . . [c
i
[ . . . [c
i
[ . . . [c
n
)+
L(c
1
[ . . . [c
j
[ . . . [c
i
[ . . . [c
n
) +L(c
1
[ . . . [c
j
[ . . . [c
j
[ . . . [c
n
) = 0.
Pero (c
1
[ . . . [c
j
[ . . . [c
i
[ . . . [c
n
) = A

entonces L(A) = L(A

).
Denicion 3.9. Se dice que una funci on D : K
nn
K es una funci on deter-
minante si
a) D es n-lineal.
b) D es alternada.
c) D(I) = 1.
Ejemplo 3.3. Sea D una funci on determinante para n = 2 y sea I = (e
1
[ e
2
),
donde e
1
, e
2
es la base canonica de K
2
. Una Matriz A K
22
de la forma
A =
_
a b
c d
_
se puede escribir como
A = (ae
1
+ce
2
[ be
1
+de
2
).
La multilinealidad de L implica
D(A) = D(ae
1
+ce
2
, be
1
+de
2
),
= ab D(e
1
, e
1
) +ad D(e
1
, e
2
) +cb D(e
2
, e
1
) +cd D(e
2
, e
2
),
= ad D(e
1
, e
2
) +cb D(e
2
, e
1
),
= (ad bc) D(e
1
, e
2
),
= (ad bc) D(I),
= ad bc.
Nota 3.4.
Deducimos del ejemplo (3.3) que no hay sino una unica funci on determinante
para n = 2.
3.8. Determinantes 39
Ahora sea A K
nn
,
A = (c
1
[ . . . [c
n
).
Para cada columna c
j
podemos escribir
c
j
=
n

i=1
a
ij
e
j
.
Por multilinealidad, si D es una funci on determinante
D(e
1
[ . . . [c
i
[ . . . [c
j
[ . . . [e
n
) =
n

k=1
h=1
a
ik
a
jh
D(e
1
[ . . . [e
k
[ . . . [e
h
[ . . . [e
n
),
= a
ii
a
jj
a
ij
a
ji
.
El caso anterior era solo para dos columnas de A y el resto son los vectores
de la base canonica. Se puede mostrar facilmente que
D(A) =

Sn
(1)
sg()
n

i=1
a
i (i)
(3.6)
donde S
n
es el conjunto de las permutaciones de J
n
y sg() es la signatura de
, es decir el n umero de transposiciones que la compone modulo 2.
Del resultado (3.6) podemos deducir que en K
nn
no hay sino una sola
funci on determinante que denotaremos det en el futuro.
3.8.1. Propiedades del determinante
Si A, B K
nn
y K, entonces
1. det(A) =
n
det(A)
2. det(AB) = det(A) det(B)
3. det(I) = 1
4. det(A) I = (A) [cof(A)]
t
La matriz de cofactores cof(A) est a dada por
[cof(A)]
ij
= (1)
(i+j)
a
ij
det(A(i, j)),
donde A(i, j) es la matriz (n 1) (n 1) obtenida borrando la la i y la
columna j de A.
Proposici on 3.4. Una matriz cuadrada A es invertible si y solo si su determi-
nante es no nulo.
40 Captulo 3. Preliminares de algebra lineal
Demostracion. Si A es invertible, tenemos
AA
1
= I lo que implica que
det(A) det(A
1
) = det(I) = 1.
As
det(A) ,= 0.
Recprocamente, si det(A) ,= 0, sabemos que
A [cof(A)]
t
= (det A) I
lo que signica que A es invertible y
A
1
=
1
det(A)
[cof(A)]
t
.
Ejercicio 3.8. Mostrar que si A K
nn
entonces
1. det(A

) = det(A).
2. det(A
n
) = (det(A))
n
.
3. det(A) =

n
i=1
(A
ii
) si A es triangular.
Ejercicio 3.9.
1. Sean A, B dos matrices cuadradas, siendo A invertible, y c un escalar.
Demostrar que
det(AB cI) = det(BA cI).
2. Sea A una matriz singular, es decir no invertible. Demostrar que existe un

0
> 0, tal que , 0 <
0
det(A +I) ,= 0.
3. Deducir de los numerales (1) y (2) que para todas las matrices A, B en
K
nn
det(AB cI) = det(BA cI).
Ejercicio 3.10.
1. Sea A una matriz de K
nn
con la estructura por bloques siguiente
A =
_
K H
O L
_
donde K K
pp
, L K
qq
, O es la matriz nula y n = p + q. Demostrar
que
det(A) = det(K) det(L).
3.9. Elementos propios de una matriz 41
2. Deducir que si A es una matriz triangular por bloques entonces
det(A) =
k

i=1
det(A
ii
)
donde A
ii
, i = 1, . . . , k, son los bloques diagonales (los A
ii
son cuadrados).
3.9. Elementos propios de una matriz
Sean A K
nn
y K.
Denicion 3.10. Se dice que es un valor propio de A si existe un vector x
en K
n
no nulo tal que
Ax = x.
En este caso x se llama vector propio asociado a .
Nota 3.5.
1. Si x es vector propio de A asociado a entonces
Ax = x
o tambien
(I A)x = 0
lo que signica que la matriz (I A) no es invertible es decir
det(I A) = 0. (3.7)
De la misma manera, si verica la ecuaci on (3.7) se deduce que es
valor propio de A.
2. De las propiedades del determinante, podemos decir que det(I A) es
un polinomio de grado exactamente n en con coeciente dominante 1.
3. De la nota (2) y del Teorema Fundamental del

Algebra concluimos que
una matriz A en K
nn
tiene exactamente n valores propios en C (even-
tualmente repetidos)
Denicion 3.11. Sea A K
nn
. El espectro de A es
esp(A) = C; es valor propio de A.
Ejercicio 3.11. Sean A, B C
nn
. Verdadero o falso?
1. A es invertible si y solo si 0 esp(A).
2. esp(I +A) = +; esp(A).
42 Captulo 3. Preliminares de algebra lineal
3. Si esp(A) y esp(B) entonces + esp(A +B).
4. Si esp(A) y esp(B) entonces esp(AB).
5. Si Q(x) es un polinomio con coecientes en C entonces esp(A) implica
Q() esp(Q(A)).
Ejercicio 3.12. Es la recproca del punto (5) del ejercicio (3.11) verdadera?
Proposici on 3.5. Sean T una matriz invertible en C
nn
y A, B dos matrices
tales que
A = T
1
BT
entonces esp(A) = esp(B).
Demostracion. Tenemos
esp(A)
si y solo si
det(A I) = 0. (3.8)
Multiplicando la ecuaci on (3.8) por det T det T
1
sale
det T det(A I) det(T)
1
= 0
es decir,
det(TAT
1
I) = 0,
lo que signica
esp(B).
Denicion 3.12. El radio espectral (A) de una matriz cuadrada A es
(A) = max [[ , esp(A)
Ejercicio 3.13. Verdadero o falso? Si (A) = 0 entonces A = 0.
Ejercicio 3.14. Sea a C. Estudiar (A) donde
A =
_
a 2a
2
1 a
_
.
Denicion 3.13. Una matriz A en C
nn
es diagonalizable si existen una matriz
diagonal y una matriz invertible P tales que
A = PP
1
. (3.9)
Nota 3.6.
3.9. Elementos propios de una matriz 43
1. Si la ecuaci on (3.9) tiene lugar entonces
esp(A) =
ii
, i = 0, . . . , n.
2. Si la ecuaci on (3.9) es verdadera entonces
Q(A) = P
1
Q() P, para todo polinomio Q.
Lo que implica que Q(A) es tambien diagonalizable.
3. Supongamos que una matriz A en K
nn
es diagonalizable. Sean la
matriz diagonal y P una matriz invertible tales que
A = PP
1
,
o tambien
AP = P. (3.10)
Si escribimos la matriz P en la forma
P = (c
1
[c
2
[ . . . [c
n
)
donde c
i
, i = 1, . . . , n, son las columnas de P, la ecuaci on (3.10) sera equi-
valente a
Ac
i
=
i
c
i
, i = 1, . . . , n, (3.11)
donde
i
, i = 1, . . . , n, son los coecientes
ii
.
La ecuaci on (3.11) signica que las columnas de P son justamente los
vectores propios de A.
Ejercicio 3.15. Sea
A =
_
_
_
_
_
_
_
_
_
_
0 1 0
.
.
. 1
.
.
.
.
.
.
.
.
. 1
0 0
_
_
_
_
_
_
_
_
_
_
.
Mostrar que A no es diagonalizable.
Ejercicio 3.16. Verdadero falso?
1. Dada una matriz diagonal D. Todo vector en K
n
0 es un vector propio
de la matriz D.
2. La suma de dos matices diagonalizables es diagonalizable.
Proposici on 3.6. Los vectores propios asociados a valores propios distintos de
una matriz son linealmente independientes.
44 Captulo 3. Preliminares de algebra lineal
Demostracion. Por induccion sobre k el n umero de valores propios. Denote-
mos v
i
, i = 1, . . . , k, los vectores propios asociados a los valores propios
i
,
i = 1, . . . , k. Si k = 1, dado que los vectores propios son no nulos

1
v
1
= 0 implica
1
= 0.
Supongamos que todo subconjunto de k vectores propios asociados a valores
propios distintos son linealmente independientes. Sean ahora v
i
, i = 1, . . . , k + 1,
k + 1 vectores propios asociados a valores propios distintos.
Si
k+1

i=1

i
v
i
= 0, (3.12)
aplicando A a la ecuaci on (3.12) obtenemos
k+1

i=1

i
Av
i
= 0.
Como v
i
, i = 1, . . . , k + 1, son vectores propios
k+1

i=1

i
v
i
= 0. (3.13)
Multiplicando la ecuaci on (3.12) por
k+1
y restandola de la ecuaci on (3.13)
k

i=1

i
(
i

k+1
)v
i
= 0.
La hipotesis de induccion implica

i
(
i

k+1
) = 0, para todo i = 1, . . . , k.
Pero los
i
, i = 1, . . . , k + 1, son distintos es decir
i
= 0, i = 1, . . . , k. Reem-
plazando en la ecuaci on (3.12) resulta que

k+1
= 0,
lo que signica que v
1
, . . . , v
k+1
son linealmente independientes.
Corolario 3.1. Si A K
nn
tiene n valores propios distintos entonces A es
diagonalizable.
Demostracion. Sean
1
, . . . ,
n
los valores propios de A y sean v
1
, . . . , v
n
vec-
tores propios asociados a los
i
, i = 1, . . . , n. Tenemos
Av
i
=
i
v
i
, i = 1, . . . , n. (3.14)
3.10. Producto escalar y normas en C
n
45
Sea P = (v
1
[v
2
[ . . . [v
n
). La ecuaci on (3.14) signica
AP = P,
es decir
A = PP
1
,
donde
=
_
_
_
_
_
_

1
0

2
.
.
.
0
n
_
_
_
_
_
_
.
3.10. Producto escalar y normas en C
n
Sean a, b dos vectores en C
n
. Se dene el producto escalar a, b) por
a, b) = b

a
Nota 3.7.
Recordemos que:
a) Si b C
n
, b

C
1n
y el producto b

a es producto matricial cuyo


resultado est a en C
11
es decir es un escalar.
b) b

i
= b
i
, i = 1, . . . , n.
3.10.1. Propiedades del producto escalar
Para todo a, b, c en C
n
, y , en C. Tenemos
1. a +b, c) = a, c) + b, c).
2. a, b) = b, a).
3. a, a) es real no negativo.
4. Si a ,= 0, a, a) > 0.
Nota 3.8.
Notemos para un a C
n
, |a|
2
=
_
a, a).
Denicion 3.14. 1. Dos vectores a, b en C
n
se dicen ortogonales si
a, b) = 0
46 Captulo 3. Preliminares de algebra lineal
2. Un conjunto E de vectores de C
n
es ortogonal si
(a, b) E
2
, a, b) = 0.
Nota 3.9.
1. Si a, b) = 0 se denota a b.
2. Si A C
n
, el ortogonal de A es el conjunto denido por
A

= x C
n
; x, a) = 0 a A.
Propiedades
a) A C, 0 A

.
b) 0

= C
n
.
c) A C, A

es un subespacio vectorial C
n
.
Proposici on 3.7. Si E es un subconjunto ortogonal de C
n
y 0 / E entonces
E es un conjunto de vectores linealmente independientes.
Demostracion. Sea E un conjunto ortogonal y sean a
1
, . . . , a
k
k elementos de
E. Supongamos que existen escalares
1
, . . . ,
k
tales que
k

i=1

i
a
i
= 0.
Para un j jo entre 1 y k
_
a
j
,
k

i=1

i
a
i
_
= 0.
Por ortogonalidad

j
a
j
, a
j
) = 0
lo que implica que

j
= 0, dado que a
j
, a
j
) > 0.
Corolario 3.2. Una familia ortogonal de C
n
no puede tener mas que n elemen-
tos.
Teorema 3.1. sean
1
, . . . ,
k
k vectores de K
n
linealmente independientes.
Existen u
1
, . . . , u
k
k vectores ortogonales tales que las dos familias
1
, . . . ,
k

y u
1
, . . . , u
k
generan el mismo espacio.
3.10. Producto escalar y normas en C
n
47
Demostracion. El resultado es debido al conocido proceso de ortogonalizaci on
de GramSchmidt.
La familia u
i
, i = 1, . . . , k, se obtiene de la siguiente forma:
u
1
=
1
,
u
j
=
j

j1

i=1
u
i
,
i
)
u
i
, u
i
)
u
i
.
Ejercicio 3.17. Vericar que la familia u
i
, i = 1, . . . , k denida en la de-
mostraci on anterior es ortogonal y genera el mismo subespacio vectorial que la
familia
i
, i = 1, . . . , k.
3.10.2. Producto escalar y matrices
Teorema 3.2. Sean A K
mn
, x C
n
y y C
m
. Tenemos
Ax, y) = x, A

y) .
Demostracion.
Ax, y) = y

Ax,
= (y

A)x,
= (A

y)

x,
= x, A

y) .
Corolario 3.3. Si A es una matriz hermitiana, es decir que A = A

, en C
nn
entonces Ax, x) es real para todo x C
n
.
Demostracion. Sea x C
n
.
Ax, x) = x, A

x) ,
= x, Ax) ,
= Ax, x),
as que Ax, x) es igual a su conjugado es decir es real.
Ejercicio 3.18.
1. Mostrar que si A C
nn
y Ax, x) es real para todo x C
n
, entonces A
es hermitiana.
48 Captulo 3. Preliminares de algebra lineal
2. Hallar una matriz real no simetrica A tal que Ax, x) 0, x R
n
.
Denicion 3.15. Se dice de una matriz hermitiana A C
nn
que es denida
positiva si
Ax, x) > 0, x C
n
0.
Se dice de una matriz hermitiana A C
nn
que es semidenida positiva si
Ax, x) 0, x C
n
.
Proposici on 3.8. Para toda matriz cuadrada A en C
nn
, las matrices A

A y
AA

son semidenidas positivas.


Ademas, son denidas positivas si y solo si A es invertible.
Demostracion. Sea A C
nn
.
(AA

= (A

= AA

,
entonces AA

es hermitiana.
Sea x C
n
.
AA

x, x) = A

x, A

x) = |A

x|
2
0.
Si A es invertible, A

tambien lo es y si x ,= 0 entonces |A

x| > 0.
Proposici on 3.9. Si A es denida positiva entonces A es invertible.
Demostracion. Si A no fuera invertible existira x ,= 0 tal que Ax = 0.
As Ax, x) = 0.
Contradiccion con el car acter denido positivo de A.
Denicion 3.16. Sea A K
nn
. Las submatrices principales de A son las n
matrices cuadradas A(k) en K
kk
, k = 1, . . . , n, denidas por
(A(k))
ij
= A
ij
, 1 i k, 1 j k.
Teorema 3.3. Una matriz A K
nn
es hermitiana denida positiva si y solo
si todas sus submatrices principales lo son.
Demostracion. Evidentemente la condicion es suciente porque A(n) = A. La
condicion es necesaria porque en primer lugar las matrices A(k), i = 1, . . . , n,
son hermitianas y en segundo lugar para un vector x K
k
no nulo se dene el
vector y x K
n
tales que
x =
_
_
_
_
_
_
_
_
_
_
_
_
x
1
.
.
.
x
k
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
.
3.11. Valores propios de matrices particulares 49
k
A =
A(k) k
Figura 3.1.
A x, x) = A(k)x, x) > 0,
as A(k) es hermitiana denida positiva.
3.11. Valores propios de matrices particulares
Teorema 3.4. Sea A C
nn
.
1. Si A es hermitiana entonces esp(A) R.
2. Si A es semidenida positiva entonces esp(A) R
+
.
3. Si A es denida positiva entonces esp(A) R

+
.
4. Si A es unitaria entonces esp(A) S
1
donde S
1
= C; [[ = 1.
Demostracion. Sea A C
nn
.
1. Supongamos A hermitiana. Sea esp(A) y sea u vector propio asociado
a . Tenemos Au = u y Au, u) = u, Au) porque A es hermitiana.
Reemplazando en la ultima igualdad
u, u) = u, u) ,
es decir
u, u) = u, u) .
Como u ,= 0,
= .
As R.
50 Captulo 3. Preliminares de algebra lineal
2. Sean A semidenida positiva y esp(A). Sea u C
n
tal que Au = u,
u ,= 0. Tenemos
0 Au, u) = u, u) = u, u) .
Como u, u) > 0 deducimos que 0.
3. Si A es denida positiva entonces A es semidenida positiva e invertible.
As esp(A) ]0 + [.
4. Sea A unitaria. Sean valor propio de A y u ,= 0 tales que Au = u.
Tenemos
Au, Au) = A

Au, u) = u, u) .
Pero
Au, Au) = u, u) = u, u) = [[
2
u, u) .
As
[[
2
u, u) = u, u) .
Como u ,= 0, [[
2
= 1, es decir [[ = 1.
Teorema de Schur
Para toda matriz A C
nn
existen una matriz U unitaria (es decir U

U =
I) y una matriz triangular superior T tales que
A = UTU

. (3.15)
Nota 3.10.
1. Veamos lo que signica una matriz unitaria.
Sea U = (c
1
[ . . . [c
n
) unitaria.
U

=
_
_
_
_
_
_
c
1

c
2

.
.
.
c
n

_
_
_
_
_
_
.
(U

U)
ij
= c
i
, c
j
) =
ij
lo que signica que las columnas de U forman una base ortonormal de C
n
.
2. Se dice que A es ortonormalmente triangularizable si satisface la ecuaci on
(3.15).
3.11. Valores propios de matrices particulares 51
Demostracion. Por induccion sobre n.
Para n = 1
a C, a = (1)

a (1).
Supongamos la propiedad valida para n 1.
Sean
1
un valor propio de A C
nn
y x
1
un vector propio asociado a
1
tal
que |x|
2
= 1.
Construyamos una base ortonormal x
1
, . . . , x
n
(Notar que la base contiene
x
1
).
Consideremos la matriz
V = (x
1
[ . . . [x
n
), V

=
_
_
_
_
_
_
x
1

x
2

.
.
.
x
n

_
_
_
_
_
_
.
V es unitaria por construcci on. Tenemos
AV = (x
1
, Ax
2
[ . . . [Ax
n
),
V

AV =
_
_
_

1
b

n1
0 A
n1
_
_
_,
donde
b
n1
C
n1
y A
n1
C
n1n1
.
La hipotesis de induccion implica que existen
W
n1
unitaria en C
n1n1
y
T
n1
triangular superior en C
n1n1
tales que
A
n1
= W
n1
T
n1
W

n1
.
Ponemos ahora
W
n
=
_
_
_
1 0
0 W
n1
_
_
_,
W

n
W
n
=
_
_
_
1 0
0 W

n1
_
_
_
_
_
_
1 0
0 W
n1
_
_
_ =
_
_
_
1 0
0 W

n1
W
n1
_
_
_ = I.
52 Captulo 3. Preliminares de algebra lineal
As W
n
es unitaria.
Ahora el producto
W

n
V

AV W
n
=
_
_
_
1 0
0 W

n1
_
_
_
_
_
_

1
b

n1
0 A
n1
_
_
_
_
_
_
1 0
0 W
n1
_
_
_,
W

n
V

AV W
n
=
_
_
_

1
b

n1
0 W

n1
A
n1
_
_
_
_
_
_
1 0
0 W
n1
_
_
_,
W

n
V

AV W
n
=
_
_
_

1
b

n1
W
n1
0 W

n1
A
n1
W
n1
_
_
_,
W

n
V

AV W
n
=
_
_
_

1
b

n1
W
n1
0 T
n1
_
_
_.
As, el producto W

n
V

AV W
n
es una matriz triangular. Recordando que el
producto de dos matrices uniatarias es unitario y tomando
V W
n
= U,
tenemos
A = UTU

,
donde
T =
_
_
_

1
b

n1
U
n1
0 T
n1
_
_
_.
Denicion 3.17. Se dice que una matriz A C
nn
es normal si A conmuta
con su adjunta. Es decir
AA

= A

A.
Ejemplo 3.4. Las matrices simetricas, hermitianas, ortogonales, unitarias son
normales.
Denicion 3.18. Se dice que una matriz A es unitariamente (respectivamente
ortogonalmente) semejante a una matriz B si existe una matriz unitaria U
(respectivamente ortogonal) tal que
A = UBU

Si B es diagonal se dice que A es unitariamente (respectivamente ortogonalmen-


te) diagonalizable.
3.11. Valores propios de matrices particulares 53
Teorema 3.5. Toda matriz normal es unitariamente diagonalizable. Es decir
si
AA

= A

A,
existen U unitaria y diagonal tales que
A = UU

.
Demostracion. Sabemos del Teorema de Schur (pagina 50) que existen U
unitaria y T triangular superior tales que
A = UTU

.
La normalidad de A implica
TT

= T

T. (3.16)
Para los elementos diagonales de la igualdad de la ecuaci on (3.16) tenemos para
i = 1, . . . , n
(TT

)
ii
= (T

T)
ii
,
es decir
n

k=1
T
ik
T

ki
=
n

k=1
T

ik
T
ki
,
pero
T

ik
= T
ki
.
As
n

k=1
[T
ik
[
2
=
n

k=1
[T
ki
[
2
i = 1, . . . , n (3.17)
La estructura triangular superior de T reduce la igualdad de la ecuaci on (3.17)
a
n

k=i
[T
ik
[
2
=
i

k=1
[T
ki
[
2
. (3.18)
Eliminando [T
ii
[
2
de la ecuaci on (3.18), obtenemos
n

k=i+1
[T
ik
[
2
=
i1

k=1
[T
ki
[
2
, i = 1, . . . , n.
Para i = 1,
n

k=2
[T
1k
[
2
= 0.
As
T
1k
= 0, n k 2.
Para i = 2,
n

k=3
[T
2k
[
2
= [T
12
[
2
= 0.
54 Captulo 3. Preliminares de algebra lineal
As
T
2k
= 0, n k 3.
Continuando as sucesivamente deducimos que la parte estrictamente triangular
superior de T es nula, lo que implica que T es diagonal.
Nota 3.11.
Con este resultado, podemos deducir que las matrices hermitianas, simetri-
cas, unitarias y ortogonales son todas diagonalizables de manera unitaria u
ortogonal.
3.12. Raz cuadrada de una matriz hermitiana
denida positiva
Teorema 3.6. Si A K
nn
es una matriz hermitiana denida positiva (her-
mitiana semidenida positiva), existe una matriz A
1/2
hermitiana denida po-
sitiva (respectivamente hermitiana semidenida positiva) tal que
_
A
1/2
__
A
1/2
_
=
_
A
1/2
_
2
= A.
Denicion 3.19. La matriz A
1/2
se llama raz cuadrada de A.
Demostracion. A es normal entonces existe U unitaria tal que
A = U

DU
donde D es diagonal con D
ii
> 0 (respectivamente D
ii
0), i = 1, . . . , n, por el
car acter denido positivo (respectivamente semidenido positivo) de la matriz.
Sea D
1/2
la matriz diagonal denida por
D
1/2
ii
=

D
ii
, i = 1, . . . , n.
Tenemos
_
D
1/2
_
2
= D.
Ahora
A = U

DU = U

D
1/2
D
1/2
U =
_
U

D
1/2
U
__
U

D
1/2
U
_
.
Con A
1/2
=
_
U

D
1/2
U
_
, tenemos
A =
_
A
1/2
_
2
.
Ahora
_
A
1/2
_

=
_
U

D
1/2
U
_
,
es decir A
1/2
es hermitiana. Ademas, espA
1/2
=
_
D
ii
, i = 1, . . . , n
_
, lo que
signica que A
1/2
es hermitiana denida positiva (respectivamente semidenida
positiva).
3.13. El cociente de Rayleigh de una matriz hermitiana 55
3.13. El cociente de Rayleigh de una matriz her-
mitiana
Denicion 3.20. Sea A C
nn
hermitiana. El cociente de Rayleigh asociado
a A es la funci on
q
A
: (C
n
)

R
x q
A
(x) =
x, Ax)
x, x)
.
Nota 3.12.
1. Recordemos que (C
n
)

es el conjunto C
n
0.
2. La denicion de q
A
tiene sentido porque A es hermitiana.
3. Para todo x (C
n
)

, C
q
A
(x) = q
A
(x).
4. Si x es vector propio de A asociado a esp(A) entonces
q
A
(x) = .
Teorema 3.7. Sea A C
nn
una matriz hermitiana y
1

2
. . .
n
sus
valores propios. Entonces

1
= mn
x(C
n
)

q
A
(x),
n
= max
x(C
n
)

q
A
(x).
Demostracion. Siendo hermitiana, A es unitariamente diagonalizable, es decir
existe una base ortonormal de vectores propios u
1
, . . . , u
n
de C
n
, asociados
respectivamente a
1
, . . . ,
n
.
Ahora sea x C
n
. Existen escalares x
1
, . . . , x
n
tales que
x =
n

i=1
x
i
u
i
.
Por ortonormalidad tenemos
x, x) =
n

i=1
[x
i
[
2
.
As
q
A
(x) =
_
A
_
n

i=1
x
i
u
i
_
,
n

i=1
x
i
u
i
_
x, x)
=
n

i=1

i
[x
i
[
2
n

i=1
[x
i
[
2
,
56 Captulo 3. Preliminares de algebra lineal
de manera que
q
A
(x) mn
i=1,...,n

[x
i
[
2

[x
i
[
2
=
1
y
q
A
(x) max
i=1,...,n

[x
i
[
2

[x
i
[
2
=
N
,
para todo x (C
n
)

.
Para terminar la demostracion es suciente notar que
q
A
(u
1
) =
1
y q
A
(u
n
) =
n
.
Captulo 4
Normas vectoriales y
matriciales
4.1. Introduccion
En este capitulo prensentamos de manera sencilla las normas en los espacios
vectoriales en dimension nita. Estas herramientas son necesarias para evaluar
la qualidad de la aproxiamcion cuando buscamos una soluci on aproximada.
4.2. Normas vectoriales
Denicion 4.1. Una norma vectorial en K
n
es una funci on N : K
n
R
+
tal
que para todo x, y en K
n
y todo en K
i) N(x) = 0 si y solo si x = 0.
ii) N(x) = [[ N(x).
iii) N(x +y) N(x) +N(y).
Nota 4.1.
Usualmente las normas se denotan ||.
Ejemplo 4.1 (Ejemplos importantes). K=C o R.
1. Para p [1 +[ y x K
n
se dene
|x|
p
=
_

[x
i
[
p
_
1/p
x
t
= (x
1
, x
2
, . . . , x
n
).
2. Para x K
n
|x|

= max
i=1,...,n
[x
i
[ .
57
58 Captulo 4. Normas vectoriales y matriciales
Mostremos que ||
p
es una norma en K
n
para p [1 [. La dicultad
est a solo en la desigualdad triangular iii).
Empecemos por el caso p = 1.
Para x, y en K
n
, se tiene
|x +y|
1
=
n

i=1
[x
i
+y
i
[
n

i=1
[x
i
[ +
n

i=1
[y
i
[ ,
|x +y|
1
|x|
1
+|y|
1
.
Para el caso p > 1 la demostracion es menos sencilla.
Primero:
Para todo , en R
+
tenemos


p
p
+

q
q
(4.1)
donde p y q son n umeros reales positivos que cumplen la igualdad
1
q
+
1
p
= 1
y se llama conjugado real de p.
La demostracion de la ecuaci on (4.1) se basa en la convexidad de la funci on
x e
x
. Sabemos que
e
x+(1)y
e
x
+ (1 )e
y
. (4.2)
Eso es debido a que la segunda derivada del exponencial es siempre positiva.
Ahora, en la desigualdad (4.2), tomamos =
1
p
, x = p ln , y = q ln . As
e
x+(1)y
= e
ln+ln
= e
x
+ (1 )e
y
=
1
p

p
+
1
q

q
.
Segundo:
Ahora si x, y son dos vectores en K
n
tenemos para todo i = 1, . . . , n
[x
i
y
i
[
|x|
p
|y|
q

1
p
[x
i
[
p
|x|
p
p
+
1
q
[y
i
[
q
|y|
q
q
.
Sumando esta desigualdad para i = 1, . . . , n resulta
n

i=1
[x
i
y
i
[
|x|
p
|y|
q

1
p
n

i=1
[x
i
[
p
n

i=1
[x
i
[
p
+
1
q
n

i=1
[y
i
[
q
n

i=1
[y
i
[
q
=
1
p
+
1
q
= 1.
4.2. Normas vectoriales 59
As
n

i=1
[x
i
y
i
[ |x|
p
|y|
q
. (4.3)
Esta desigualdad es conocida como la desigualdad de H older. Su caso particular
para p = 2 es la famosa desigualdad de CauchySchwarz.
Volvamos a la demostracion.
Tenemos para todo i = 1, . . . , n,
([x
i
[ +[y
i
[)
p
= [x
i
[ ([x
i
[ +[y
i
[)
p1
+[y
i
[ ([x
i
[ +[y
i
[)
p1
. (4.4)
Sumando las igualdades (4.4)
n

i=1
([x
i
[ +[y
i
[)
p
=
n

i=1
[x
i
[ ([x
i
[ +[y
i
[)
p1
+
n

i=1
[y
i
[ ([x
i
[ + [y
i
[)
p1
.
Usando la desigualdad de H older viene
n

i=1
([x
i
[ +[y
i
[)
p
|x|
p
_
n

i=1
([x
i
[ +[y
i
[)
(p1)q
_
1/q
+|y|
p
_
n

i=1
([x
i
[ +[y
i
[)
(p1)q
_
1/q
.
Pero (p 1)q = p. As
n

i=1
([x
i
[ +[y
i
[)
p

_
|x|
p
+|y|
q
_
_
n

i=1
([x
i
[ +[y
i
[)
p
_
1/q
.
Simplicando y usando
1
p
+
1
q
= 1 tenemos
|x +y|
p
|x|
p
+|y|
p
.
Ejercicio 4.1.
1. Vericar que ||

es una norma en K
n
.
2. Mostrar que para x K
n
jo
lm
p
|x|
p
= |x|

.
Ayuda: empezar con n = 2.
Nota 4.2.
La norma ||
2
se llama norma euclidiana y es la unica norma que viene de
un producto escalar en K
n
.
60 Captulo 4. Normas vectoriales y matriciales
4.3. Normas matriciales relativas
Sean A K
mn
y ||, ||

dos normas vectoriales denidas respectivamente


en K
m
y K
n
. Dado que para todo x K
n
las componentes de Ax son funciones
lineales en los x
i
, podemos encontrar una constante c > 0 tal que
|Ax| c |x|

, x C
n
,
Con esta observaci on la siguiente denicion tiene sentido.
Denicion 4.2. La norma matricial de A relativa a las normas vectoriales ||
y ||

se dene por
|A| = sup
x(K
n
)

|Ax|
|x|

. (4.5)
Nota 4.3.
1. En la practica, las normas usadas en K
n
y K
m
son las normas ||
p
para
p [1 +[. Tomando el mismo p en K
n
y K
m
se denota para una matriz
A K
mn
|A|
p
= sup
x(K
n
)

|Ax|
p
|x|
p
.
2. Las normas mas usadas son ||
1
, ||
2
y ||

.
3.
|A| = sup
x(K
n
)

|Ax|
|x|
= max
x(K
n
)

|Ax|
|x|
= max
x1
|Ax| = max
x=1
|Ax|
porque de un lado el conjunto x; |x| = 1 es compacto, entonces la
funci on x
Ax
x
alcanza sus extremos y del otro .
|Ax| / |x| = |A(x/ |x|)| y |(x/ |x|)| = 1
4. Para toda norma matricial relativa a una norma vectorial tenemos
|Ax| |A| |x| .
Proposici on 4.1. Sea || una norma matricial relativa a una norma vectorial
||. Tenemos
i) |A| = 0 si y solo si A = 0, A K
mn
.
ii) |A| = [[ |A| , K, A K
mn
.
iii) |A +B| |A| +|B| , A, B K
mn
.
iv) |AB| |A| |B|.
4.3. Normas matriciales relativas 61
Demostracion.
i) Si A = 0, |A| = 0 es evidente.
Si |A| = 0 = |Ax| = 0, x K
n
= Ax = 0, x K
n
= A = 0.
ii) |A| = max
x=1
|Ax| = max
x=1
([[ |Ax|) = [[ max
x=1
(|Ax|) = [[ |A|.
iii) |A+B| = max
x=1
|(A +B)x| = max
x=1
|Ax +Bx| max
x=1
|Ax|+ max
x=1
|Bx| =
|A| +|B|.
iv) |ABx| |A| |Bx| |A| |B| |x|.
As
|ABx|
|x|
|A| |B| .
Nota 4.4.
Es importante precisar que existen normas sobre el espacio de las matrices
que verican las cuatro propiedades pero no son relativas a ninguna norma
vectorial como lo muestra el ejercicio siguiente.
Ejercicio 4.2. Para A K
nn
se dene
|A|
s
=
_
_
n

i,j=1
[A
ij
[
2
_
_
1/2
.
||
s
se llama norma de Schur.
1. Vericar que ||
s
satisface las cuatro propiedades de la proposicion (4.1).
2. Calcular |I|
s
.
3. Deducir que ||
s
no es relativa a ninguna norma vectorial.
Teorema 4.1. Sea A K
mn
.
1. |A|
1
= max
j=1,...,n
m

i=1
[a
ij
[.
2. |A|
2
=
_
(A

A) =
_
(AA

).
3. |A|

= max
i=1,...,m
n

j=1
[a
ij
[.
Demostracion.
62 Captulo 4. Normas vectoriales y matriciales
1. Sea x K
n
tal que |x|
1
1 es decir
n

i=1
[x
i
[ 1.
|Ax|
1
=
m

i=1
[Ax[
i
=
m

i=1
_
_
n

j=1
[a
ij
[ [x
j
[
_
_
,
|Ax|
1

n

j=1
m

i=1
[a
ij
[ [x
j
[
_
max
j
m

i=1
[a
ij
[
_
n

j=1
[x
j
[ ,
|Ax|
1
max
j
_
m

i=1
[a
ij
[
_
|x|
1
,
|Ax|
1
max
j
_
m

i=1
[a
ij
[
_
.
Mostremos que esta desigualdad se vuelve igualdad para un x particular.
Sea k el ndice que satisface
max
j
n

i=1
[a
ij
[ =
n

i=1
[a
ik
[ .
y denamos el vector x K
n
de la siguiente manera
x
i
= 0 si i ,= k, x
k
= 1,
Con esta eleccion de x se tiene
|Ax|
1
=
n

i=1
[a
ik
[ = max
j
n

i=1
[a
ij
[ .
As
|A|
1
= max
j
n

i=1
[a
ij
[ .
2.
|A|
2
2
= max
x=0
|Ax|
2
2
|x|
2
2
= max
x=0
Ax, Ax)
x, x)
= max
x=0
A

Ax, x)
x, x)
.
Seg un el cociente de Rayleigh y dado que A

A es hermitiana, esp(A

A)
R y
max
x=0
A

Ax, x)
x, x)
=
n
,
donde
n
= max
i
,
i
espA

A.
4.3. Normas matriciales relativas 63
Como A

A es semi denida positiva esp(A) R


+
y
n
= (A

A).
As |A|
2
=
_
(A

A).
Como esp(A

A) = (AA

) deducimos que |A|


2
=
_
(AA

).
3. Sea x K
n
tal que |x|

1.
|Ax|

= max
1im

j=1
a
ij
x
j

max
1im
n

j=1
[a
ij
[ [x
j
[ max
i
n

j=1
[a
ij
[
porque
max
i
[x
j
[ 1.
Ahora sea k el ndice donde
max
1im
n

j=1
[a
ij
[ =
n

j=1
[a
kj
[
y sea x el vector denido por
x
j
=
a
kj
[a
kj
[
si a
kj
,= 0
y
x
j
= 1 si a
kj
= 0.
Tenemos |x|

= 1 y
|Ax|

=
n

j=1

a
kj
a
kj
[a
kj
[

=
n

j=1
[a
kj
[ = max
i
n

j=1
[a
ij
[ .
Proposici on 4.2.
1. Si U K
nn
es unitaria y A K
nn
entonces
|UA|
2
= |AU|
2
= |A|
2
.
2. Si A es normal
|A|
2
= (A).
Demostracion.
1. Por el teorema (4.1) tenemos
|UA|
2
= (A

UA)
1/2
= (A

A)
1/2
= |A|
2
,
|AU|
2
= (U

AU)
1/2
= (AUU

)
1/2
= (AA

)
1/2
= |A|
2
.
64 Captulo 4. Normas vectoriales y matriciales
2. Si A es normal, es unitariamente diagonalizable, entonces existen U uni-
taria y D diagonal tales que
A = UDU

,
|A|
2
= |D|
2
= (D) = (A).
Observamos de las notas anteriores que existe una estrecha relacion entre el
radio espectral de una matriz y su norma euclidiana. En algunos casos particu-
lares son iguales.
Veamos ahora si tal relacion se extiende a otras normas matriciales.
Proposici on 4.3. Sea A K
nn
. Para toda norma matricial relativa a una
norma vectorial tenemos
(A) |A| . (4.6)
Demostracion. Sean esp(A) y u K
n
tales que Au = u y |u| = 1.
|A| = max
x=1
|Ax| |Au| = [[ |u| = [[ .
As
|A| (A).
Nota 4.5.
En realidad, este resultado se puede extender a cualquier norma matricial
que satisfaga la desigualdad
|AB| |A| |B| . (4.7)
Denicion 4.3. Una norma matricial que satisface la desigualdad (4.7) se le
dice norma submultiplicativa.
Nota 4.6.
1. Existen normas matriciales (normas en el sentido que cumplen con las tres
primeras propiedades de la proposicion (4.1) de la p agina 60) y que no son
submultiplicativas como lo muestra el ejemplo siguiente.
En K
22
;
[[[A[[[ = max
i,j
[a
ij
[ .
Es evidente que [[[[[[ cumple con i) ii) iii) de dicha proposicion pero si
tomamos
A =
_
3 1
0 1
_
, B =
_
1 1
0 1
_
, C =
_
3 4
0 1
_
,
[[[A[[[ = 3, [[[B[[[ = 1 y [[[AB[[[ = 4 > [[[A[[[ [[[B[[[ .
4.3. Normas matriciales relativas 65
2. Por la proposcion anterior se tiene
(A) |A|
s
,
donde ||
s
es la norma de Schur.
La desigualdad de la proposicion (4.3) es tan estrecha que se tiene e siguiente
resultado.
Teorema 4.2. Sean A K
nn
y > 0. Existe una norma matricial relativa
tal que
|A| < (A) +.
Nota 4.7.
Este resultado se puede leer de la siguiente forma
(A) =nf|A| , || es una norma multiplicativa.
Antes de demostrar el teorema hagamos el ejercicio siguiente.
Ejercicio 4.3. Sean || una norma matricial relativa y V una matriz invertible.
Mostrar que la funci on
||
V
: K
nn
R
+
A |A|
V
=
_
_
V AV
1
_
_
es una norma matricial relativa a una norma vectorial.
Demostracion. Seg un el teorema de Schur existen una matriz triangular su-
perior T y una matriz unitaria U tales que
A = U

TU.
Sea > 0 y denimos
=
_
_
_
_
_
_
_
_
1 0

2
.
.
.
0
n1
_
_
_
_
_
_
_
_
,

ij
=
i1

ij
, i, j = 1, . . . , n.
Tenemos

1
T =
_
_
_
_
_
_
_
_
_
t
11
t
12

2
t
13

n1
t
1n
t
22
t
23
.
.
.
.
.
.
.
.
.
2
t
n2,n
t
n1,n1
t
n1,n
0 t
nn
_
_
_
_
_
_
_
_
_
.
66 Captulo 4. Normas vectoriales y matriciales
Notamos que las potencias de en las diagonales de
1
T son constantes.
Ahora calculemos la norma
_
_

1
T
_
_

. Tenemos
_
_

1
T
_
_

= max
i
_
[t
ii
[ +c
i

donde
c
i
=
j=n

j=i+1
[t
ij
[
ji1
.
Podemos tambien escribir
_
_

1
T
_
_

= max
i
[t
ii
[ + max
i
c
i
.
Para = 0, c
i
= 0 y c
i
es un polinomio en . Entonces por continuidad del
polinomio, para todo > 0, existe
i
> 0 tal que si <
i
tenemos [c
i
[ < .
Entonces
si < mn
i

i
max
i
c
i
< .
Para un tal se tiene
_
_

1
T
_
_

max
i
[t
ii
[ +.
Pero esp(A) = t
ii
, i = 1, . . . , n. As
_
_

1
T
_
_

(A) +.
Ahora
T = UAU
1
,

1
T =
1
UAU
1
= (U
1
)
1
AU
1
.
Llamamos V = U
1
, as

1
T = V
1
AV
y
_
_

1
T
_
_

=
_
_
V
1
AV
_
_

= |A|
V
(seg un el ejercicio 4.3).
Es decir
|A|
V
(A) +.
As construimos una norma ||
V
que satisface |A| (A) +.
4.4. Convergencia de vectores y matrices 67
4.4. Convergencia de vectores y matrices
4.4.1. Sucesiones de vectores
Consideremos el sistema de ecuaciones
_
3x
2
10 ln y = 1
cos y ln(xy) = 0
donde (x, y) es la pareja de inc ognitas.
Es evidente que es imposible resolver este sistema de manera analtica (o al
menos para mi :-)). Para problemas de este tipo la unica manera que queda es
encontrar una aproximacion de la solucion. Para eso tenemos que estar seguros
a priori de la existencia de la solucion (lo que es el caso de este ejemplo).
Sabiendo que la solucion existe, viene el proceso de buscar un aproximacion
a la misma. Usualmente se construye una sucesion de aproximaciones de manera
iterativa de modo que la aproximacion sea mejor a medida que el n umero de
iteraciones va creciendo.
Para el caso de nuestro ejemplo, se construye una sucesion (x
0
, y
0
), (x
1
, y
1
), . . .
que converge a la solucion exacta. As estamos usanando vectores (x
i
, y
i
)
iN
.
Denamos ahora la convergencia de vectores.
Notacion
Para una sucesion de K
k
, adoptemos la convencion de notar sus terminos de
la siguiente manera
(x
n
)
nN
x
n
= (x
n
1
, . . . , x
n
k
)
t
es decir el ndice de abajo es de la componente en K
n
y el de arriba es el de la
sucecion.
Denicion 4.4. Sean (x
n
)
nN
una sucesion en K
k
y || una norma vectorial
en K
k
. Se dice que (x
n
)
nN
es convergente si existe un vector x en K
k
tal que
> 0, N N tal que
n N implica |x
n
x| < .
Nota 4.8.
1. En practica, se trabaja con las normas ||
1
, ||
2
y ||

.
2. A priori la convergencia de una sucesion de vectores depende de la norma,
pero como veremos en el teorema siguiente la convergencia para una norma
implica la convergencia para cualquier otra norma en K
k
.
Denicion 4.5. Decimos que dos normas || y ||

en K
n
son equivalentes si
existen > 0, > 0 tales que
x K
n
, |x| |x|

|x| .
68 Captulo 4. Normas vectoriales y matriciales
Nota 4.9.
Es evidente que si dos normas || y ||

satisfacen
||

< ||
entonces la convergencia en || implica la convergencia en ||

. (Vericarlo a
ttulo de ejercicio)
As si dos normas en K
n
son equivalentes tienen las mismas sucesiones con-
vergentes.
Teorema 4.3. 1. Sea E = 1, 2, . Para todo p, q en E, existe
pq
> 0 tal
que
x K
n
, |x|
p

pq
|x|
q
.
2. Todas las normas en K
n
son equivalentes.
Demostracion. Sea x K
n
. La norma |x|

es igual a uno de los n umeros


[x
1
[ , [x
2
[ , . . . , [x
n
[ entonces
|x|

i=1
[x
i
[ = |x|
1
.
As
1
= 1.
De la misma manera
i = 1, . . . , n, |x|

[x
i
[ .
Sumando
n|x|

|x|
1
.
As
1
= n.
Igualmente, entre ||
1
y ||
2
notemos que
|x|
2
[x
i
[ , i = 1, . . . , n.
Sumando
n|x|
2
|x|
1
,
de manera que
12
= n y
|x|
1
[x
i
[ , i = 1, . . . , n.
Elevando al cuadrado y sumando
n|x|
2
1

n

i=1
[x
i
[
2
.
Tomando la raz
|x|
2

n|x|
1
.
4.4. Convergencia de vectores y matrices 69
As
21
=

n.
La equivalencia entre ||

y ||
2
se trata de la misma manera. Hacerlo como
ejercicio.
La demostracion de la segunda parte del teorema necesita argumentos de
continuidad fuera del ambito de este curso.
Nota 4.10.
La convergencia de una sucesion en K
n
es independiente de la eleccion de la
norma.
Ejercicio 4.4. Mostrar que si (x
n
)
nN
es una sucesion en K
k
entonces tenemos
equivalencia entre:
i) (x
n
)
nN
es convergente en K
k
.
ii) i, i = 1, . . . , k, (x
n
i
)
nN
es convergente en K.
4.4.2. Convergencia de sucesiones de matrices
En esta parte, en realidad no nos interesamos en las sucesiones de matrices
de manera general sino solo en las sucesiones de potencias de matrices, es decir
en las que son de la forma
(A
k
)
kN
,
para una matriz A K
nn
, y donde A
k
= k-esima potencia de A.
Nota 4.11.
Dado que una matriz A K
nn
puede ser considerada como vector en K
mn
y como todas las normas en K
mn
son equivalentes, estudiar las sucesiones de
matrices se vuelve lo mismo que estudiar sucesiones de vectores.
Denicion 4.6. Sea A K
nn
. Se dice que la sucesion (A
k
)
k0
es convergente
si existe una norma matricial tal que
lm
k
_
_
A
k
_
_
= 0.
Nota 4.12.
Sabemos que si (A
k
)
k0
converge para una norma, converge para cualquier
otra norma matricial (relativa o no).
Teorema 4.4. Sea A K
nn
. Las siguientes 4 aserciones son equivalentes.
i) (A
k
)
k0
es convergente.
ii) x K
n
, A
k
x 0.
iii) (A) < 1.
70 Captulo 4. Normas vectoriales y matriciales
iv) Existe una norma multiplicativa tal que |A| < 1.
Demostracion. Hacemos la demostracion en el sentido i) = ii) = iii) =
iv) = i).
i) = ii). Sea x K
n
.
Tenemos
_
_
A
k
x
_
_

_
_
A
k
_
_
|x| (4.8)
para toda norma inducida. El segundo miembro de la desigualdad de la ecuaci on
(4.8) tiende a cero por i). As la sucesion vectorial A
k
x converge a 0.
ii) = iii). Sean esp(A) y u un vector propio asociado a .
Tenemos Au = u. Aplicando A k veces
A
k
u =
k
u. (4.9)
ii) implica que
k
u 0. Es decir
_
_

k
u
_
_
0 para toda norma vectorial. Es
decir [[
k
|u| 0 lo que solo es posible si [[ < 1. As (A) < 1.
iii) = iv). Sabemos del teorema (4.2) de la pagina 65 que > 0, existe
una norma matricial inducida ||, tal que
|A| (A) +.
Si escogemos
=
1 (A)
2
deducimos que |A| < 1.
iv) = i). Tenemos
_
_
A
k
_
_
|A|
k
, k 0.
As lm
_
_
A
k
_
_
= 0 para la norma proporcionada por iv.
4.5. Sensibilidad a perturbaciones y Condicio-
namiento de una matriz
4.5.1. Ejemplo de introduccion
Consideramos el siguiente sistema lineal
Ax = b, (4.10)
donde
A =
_
_
_
1 2 3
2 4 5
3 5 1
_
_
_y b =
_
_
_
6
11
9
_
_
_.
4.4. Convergencia de vectores y matrices 71
La matriz A es invertible y su inversa es dada por
A
1
=
_
_
_
21 13 2
13 8 1
2 1 0
_
_
_
La solucion de este sistema es el vector u
t
= (1, 1, 1). Ahora perturbemos leve-
lente la matriz A agreg andole una matriz de perturbacion que notaremos A
A =
_
_
_
0,056 0,072 0,018
0,087 0,026 0,013
0,039 0,04 0,072
_
_
_
La solucion del sistema perturbado (A +A)x = b es el vector
u +u = (2786.59,-1740.92,222.18)
t
Por comodidad medimos los errores con la normas innitas (matricial y vecto-
rial). As, el error relativo cometido en la matriz es
|A|

|A|

0,146
11
0,0012
y el error relativo que resulto en la solucion es
|u|

|u|

=
2785,59
1
2785,59
La patologa de este sistema lineal se presenta en que un error de orden 0.0012
en los datos (la matriz en este caso) genero un error de orden de 2785. Es decir
que el error relativo se multiplico por 2785/0,012 232133 veces. Intolerable!
analicemos ahora como afectan los cambios peque nos en el vector b del sis-
tema (4.10) los resultados del sistema perturbado. La solucion de este sistema
lineal con
A =
_
_
_
1 2 3
2 4 5
3 5 1
_
_
_y b

=
_
_
_
6 + 0.094
11 0.098
9 + 0.093
_
_
_.
es el vector
u +u = ( 4.433999999, -1.098999999, 1.286000000 ).
Los errores relativos son
|b|

|b|

0.098
11
0.009
|u|

|u|

3.433
1
3.433 ,
es decir que el error relativo se multiplico por 3.433/0.009 382 veces.
72 Captulo 4. Normas vectoriales y matriciales
4.5.2. El analisis teorico
Analicemos como afectan las perturbaciones en los datos del sistema lineal
la calidad de los resultados. Para eso consideremos el sistema lineal Ax = b cuya
matriz A es invertible y sea u su solucion. Sea |.| una norma matricial relativa
a una norma vectorial que denotaremos de la misma manera.
Pertubaciones en la matriz
Proposici on 4.4. Sea A K
nn
. Si u +u es una solucion del sistema lineal
(A +A)x = b,
entonces
|u|
|u +u|
|A| |A
1
|
|A|
|A|
(4.11)
Demostracion. Tenemos
(A +A)(u +u) = b.
Escrita de otra manera
A(u +u) +A(u +u) = b
Multiplicando esta ultima ecuaci on por A
1
y teniendo en cuenta que Au = b
se obtiene
u = A
1
A(u +u)
de donde se tiene
|u| |A
1
| |A||u +u|
lo que implica
|u|
|u +u|
|A
1
| |A| = |A| |A
1
|
|A|
|A|
Pertubaciones en el vector b
Proposici on 4.5. Si b es una perturbacion en el vector b entonces la solucion
u +u del sistema lineal
Ax = b +b
satisface
|u|
|u|
|A| |A
1
|
|b|
|b|
(4.12)
4.4. Convergencia de vectores y matrices 73
Demostracion. Tenemos b = Au as
|b| |A| |u|. (4.13)
Tambien A(u + u) = b + b. Desarrollando esta ecuaci on y remplazando b, se
tiene Au = b, es decir u = A
1
b lo que implica
|u| |A
1
| |b| (4.14)
Combinando (4.13) y (4.14) se obtiene la desigualdad buscada (4.12).
Notemos que en las dos proposiciones anteriores el error relativo del vector
solucion del sistema lineal inicial es controlado por el factor |A| |A
1
| y que
aparece en las dos acotaciones (4.11) y (4.12).
Denicion 4.7. Sea A K
nn
una matriz invertible y |.| una norma matricial.
El n umero de condicion de la matriz A asociado a la norma |.| es el n umero
dado por
cond
.
(A) = |A| |A
1
|
Nota 4.13.
1. El n umero de condicion se dene siempre con una norma relativa, pero
dado que todas las normas son equivalentes, este hecho no inuye mucho
en la estimaci on del error.
2. Cuando no hay ambig uedad, y es lo que sucede a menudo, omitimos la
dependencia de la norma en la notaci on del n umero de condicion.
3. El caso particular de la norma euclidiana tiene su propia notaci on.
(A) = cond
.
2
(A)
4. A la luz de los resultados anteriores, notemos que mientras mas peque no
es el n umero de condicion de la matriz, menos es la amplicacion del error
en la solucion del sistema lineal.
Propiedades del n umero de condici on
1. Para toda matriz A se tiene
cond(A) 1
pues
1 = |I| = |AA
1
| |A||A
1
| = cond(A)
74 Captulo 4. Normas vectoriales y matriciales
2. Si A K
nn
es normal entonces
(A) =

n

1
,
donde

1
= mn[[, esp(A) y
n
= max[[, esp(A),
en efecto, por el teorema de Schur, la normalidad de A implica la existencia
de U K
nn
unitaria y D K
nn
diagonal tal que A = U

DU. As por
la invariancia de la norma euclidiana por la multiplicacion por matrices
unitarias,
|A|
2
= |U

DU|
2
= |D|
2
= [
n
[
y
|A
1
|
2
= |U

D
1
U|
2
= |D
1
|
2
= [
1
[
1
3. Si (A) = 1 necesariamente A es unitaria pues en este caso todos los
valores singulares de A (i.e los valores propios de AA

) son de modulo 1.
4. Para todo K, ,= 0
cond(A) = cond(A) (4.15)
Decimos que una matriz invertible est a bien acondicionada si su n umero
de condicion est a relativamente cerca de 1 y se le dice mal acondicionada si
su n umero de condicion est a muy grande comparado con 1. Con este concepto la
matriz del ejemplo introductorio debe estar muy mal acondicionada puesto que
los errores admisibles y realistas de los datos generaron resultados muy lejos
de la solucion exacta. Un simple c alculo muestra que el numero de condicion de
la matriz A al respecto de la norma |.|

es
cond(A) = 11 36 = 396
Lo que es mucho para una matriz 33. Otra observaci on que podemos hacer es
que debido a (4.15) no sirve de nada multiplicar un sistema lineal por un escalar
para mejorarle el n umero de condicion.
Captulo 5
Metodos directos de
solucion de sistemas lineales
Introducci on
Nos interesamos en este captulo en los metodos directos de solucion de
sistemas lineales de tipo
Ax = b, (5.1)
donde A K
nn
, b K
n
con
det(A) ,= 0.
En estos metodos el sistema (5.1) se resuelve en un n umero nito de pasos lo
cual signica que se halla la solucion exacta en un n umero nito de operaciones.
Nota 5.1.
Cuando se dice solucion exacta no se toman en cuenta los errores de c alculo
ni las representaciones de los n umeros en las maquinas de c alculo.
5.1. Sistemas triangulares
Los sistemas lineales con matrices triangulares (superiores o inferiores) no
necesitan ning un c alculo sosticado.
1. Si el sistema lineal es de tipo
Ux = b,
donde U es una matriz triangular superior invertible de tama no n y b K
n
,
entonces la solucion se da por substituci on hacia arriba con la formula
x
ni
=
1
a
ni,ni
_
b
ni

n

ni+1
a
ni,j
x
j
_
, i = 0, . . . , n 1,
75
76 Captulo 5. Metodos directos
que tambien se puede escribir
x
i
=
1
a
ii
_
_
b
i

n

j=i+1
a
ij
x
j
_
_
, i = n, . . . , 1.
2. Si la matriz L del sistema triangular es inferior invertible entonces la
solucion del sistema lineal
Lx = b
es dada por substituci on hacia abajo con la formula
x
i
=
1
a
ii
_
_
b
i

i1

j=1
a
ij
x
j
_
_
, i = 1, . . . , n.
Nota 5.2.
Calculemos el n umero de operaciones necesarias para resolver un sistema
triangular. Para calcular x
i
se necesitan (n i + 1) multiplicaciones y (n i)
adiciones, i = 1, . . . , n. As el n umero total de operaciones es
n

i=1
(2n 2i + 1) = n
2
.
5.2. El metodo de eliminacion de Gauss
Sea el sistema lineal
Ax = b, (5.2)
donde A K
nn
es una matriz invertible y b K
n
.
5.2.1. Operaciones elementales de las
El metodo de Gauss consiste en realizar operaciones de ecuaciones en el
sistema lineal (5.2) para llegar a un sistema lineal equivalente
Ux = b

,
donde U K
nn
es una matriz triangular superior y b

K
n
.
Nota 5.3.
1. Las operaciones elementales mencionadas son las siguientes:
a) multiplicar una ecuaci on por un escalar no nulo;
b) permutar dos ecuaciones;
c) reemplazar una ecuaci on por la suma de esta ecuaci on y otra.
5.2. El metodo de eliminacion de Gauss 77
2. Con sistemas lineales equivalentes se quiere decir que se obtiene uno del
otro a partir de una sucesion nita de operaciones elementales de ecuacio-
nes.
Para facilitar las notaciones consideremos la matriz M K
n(n+1)
denida
por
M
ij
= A
ij
, 1 i, j n
y
M
i,n+1
= b
i
, i = 1, . . . , n,
n+1
M =
_
_
_ A b
_
_
_ n .
Denicion 5.1. La matriz M as denida se llama matriz aumentada del sis-
tema (5.2).
5.2.2. Los pasos del metodo de Gauss
Paso 1
En este paso se hacen las operaciones en las las de la matriz aumentada M
en tal forma que todos los elementos de la primera columna que est an debajo del
elemento a
11
sean nulos. M as explcitamente, si a
11
,= 0 se multiplica la primera
la por
c
i1
=
a
i1
a
11
y se suma el resultado a la la i, i = 2, . . . , n. Con estas operaciones, la matriz
M se transforma en la matriz M
(1)
dada por
M
(1)
=
_
_
_
_
_
_
m
11
m
12
m
1,n
m
1,n+1
0 m
(1)
22
m
(1)
2,n
m
(1)
2,n+1
.
.
.
.
.
.
.
.
.
.
.
.
0 m
(1)
n,2
m
(1)
n,n
m
(1)
n,n+1
_
_
_
_
_
_
.
Si a
11
= 0, se realiza un intercambio de las de manera que la nueva matriz
tenga un elemento no nulo en la posicion (1, 1).
78 Captulo 5. Metodos directos
Paso 2
En este paso, las operaciones de las se hacen sobre la matriz M
(1)
de manera
que la matriz obtenida, M
(2)
, tenga todos los elementos de la segunda columna
y que esten abajo de la diagonal nulos. Obviamente estas operaciones se hacen
sin perder los ceros de la primera columna obtenidos en el paso 1.
Si m
(1)
22
,= 0, la matriz M
(2)
es dada por
M
(2)
=
_
_
_
_
_
_
_
_
_
m
11
m
12
m
1,n
m
1,n+1
0 m
(1)
22
m
(1)
2,n
m
(1)
2,n+1
.
.
. 0 m
(2)
33
m
(2)
3,n
m
(2)
3,n+1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 m
(2)
n,3
m
(2)
n,n
m
(2)
n,n+1
_
_
_
_
_
_
_
_
_
,
donde
m
(2)
ij
=
m
(1)
i2
m
(1)
22
m
(1)
2j
+m
(1)
ij
, i 3, j 3.
Si m
(1)
22
= 0, se realiza intercambio de la segunda la con una la inferior en
la matriz M
(1)
de manera que la nueva matriz tenga un elemento no nulo en la
posicion (2, 2).
El paso general k
Supongamos que ya tenemos la matriz M
(k1)
donde los elementos debajo
de la diagonal de las columnas 1, 2, . . . , (k 1) son nulos y queremos calcular
M
(k)
. As
M
(k1)
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
m
11
m
1,n+1
0 m
(1)
22
m
(1)
2,n+1
0
.
.
.
.
.
.
m
(k2)
k1,k1
m
(k2)
k1,n+1
0 m
(k1)
kk
m
(k1)
k,n+1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 m
(k1)
n,k
m
(k1)
n,n+1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Si m
(k1)
kk
= 0 efectuamos un intercambio de la la k y otra abajo de esta
(veremos en un ejerciocio mas adelante que si det(A) ,= 0 este intercambio es
siempre posible) de manera que la nueva matriz tenga en la posicion (k, k) un
elemento no nulo y sigamos las operaciones.
Si m
(k1)
kk
,= 0 (eventualmente despues de un intercambio) multiplicamos la
la k por
c
ik
=
m
(k1)
ik
m
(k1)
kk
5.3. Estudio general del metodo de Gauss 79
y sumamos el resultado a la la i, i = k + 1, . . . , n. El resultado es la matriz
M
(k)
dada por
M
(k)
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
m
11
m
1,n+1
0
.
.
. m
(1)
2,n+1
.
.
.
.
.
.
.
.
.
m
(k1)
k,k
0 m
(k)
k+1,k+1
m
(k)
k+1,n+1
.
.
.
.
.
.
.
.
.
.
.
.
0 0 m
(k)
n,k+1
m
(k)
n,n+1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
,
donde
m
(k)
ij
=
m
(k1)
ik
m
(k1)
kk
m
(k1)
kj
+m
(k1)
ij
,
para
k + 1 i n, k + 1 j n + 1.
Al paso n1 la matriz M
(n1)
tiene la estructura de la gura (5.2), es decir,
la submatriz principal U de orden n de M
(n1)
es triangular superior.
n M =
(n-1)

0
n+1
Figura 5.1.
Si llamamos b
(n1)
la ultima columna de M
(n1)
, el sistema lineal que hay
que resolver al n de esta eliminacion es
Ux = b
(n1)
.
5.3. Estudio general del metodo de Gauss
Denicion 5.2. Sea A una matriz invertible de orden n. Decimos que A es
directamente Gaussreducible si en la eliminacion de Gauss no se necesita en
ning un paso intercambiar las.
80 Captulo 5. Metodos directos
Nota 5.4.
Esta denicion signica que A es directamente Gaussreducible si y solo si
para todo k = 1, . . . , n 1
m
k1
kk
,= 0,
con
m
0
11
= a
11
.
Ahora supongamos que A es directamente Gaussreducible. Pasar de la ma-
triz M (recordar que M es la matriz A aumentada por b) a la matriz M
(1)
es
equivalente a multiplicar la matriz M por la matriz cuadrada
L
(1)
=
_
_
_
_
_
_
_
_
_
1 0
c
21
1
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
0 1
_
_
_
_
_
_
_
_
_
,
es decir,
L
(1)
M = M
(1)
.
De la misma manera pasar de M
(1)
a M
(2)
equivale a multiplicar M
(1)
por la
matriz
L
(2)
=
_
_
_
_
_
_
_
_
_
1 0
0 1
.
.
. c
32
1
.
.
.
.
.
. 0
.
.
.
0 c
n2
1
_
_
_
_
_
_
_
_
_
,
es decir,
L
(2)
M
(1)
= M
(2)
y de manera general
M
(k)
= L
(k)
M
(k1)
,
donde
L
(k)
=
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0
.
.
.
1
c
k+1,k
.
.
.
.
.
.
.
.
.
0 c
n,k
1
_
_
_
_
_
_
_
_
_
_
_
_
_
.
5.4. Descomposicion LU 81
Recordemos que
c
ik
=
m
(k1)
ik
m
(k1)
kk
.
Agrupando estos pasos, resulta
L
(n1)
. . . L
(2)
L
(1)
M = M
(n1)
. (5.3)
Si escribimos la ecuaci on (5.3) en terminos del sistema inicial
Ax = b,
tenemos
L
(n1)
. . . L
(2)
L
(1)
Ax = L
(n1)
. . . L
(2)
L
(1)
b,
pero
L
(n1)
. . . L
(2)
L
(1)
A = U. (5.4)
As
Ux = b, (5.5)
donde U es una matriz triangular y b es el vector dado por la ultima columna
de la matriz M
(n1)
.
La solucion del sistema Ax = b se reduce a resolver el sistema triangular
(5.5).
5.4. Descomposicion LU
Supongamos que tenemos el sistema
Ax = b,
con A K
nn
invertible y directamente Gaussreducible. La eliminaci on de
Gauss nos lleva al sistema
Ux = b, (5.6)
con
= L
(n1)
. . . L
(2)
L
(1)
.
Miremos mas de cerca la estructura de la matriz .
Denicion 5.3. Sea 1 k n 1. Una matriz V K
nn
es de tipo L
(k)
si existen escalares
k+1
, . . . ,
n
tales que
V = I +
n

i=k+1

i
e
i
e

k
,
donde e
i
, i = 1, . . . , n es la base canonica de K
n
.
82 Captulo 5. Metodos directos
Nota 5.5.
Las matrices de tipo L
(k)
tienen la estructura de la gura siguiente
k

_
_
_
_
_
_
_
_
_
_
_
_
_
1 0
.
.
.
1

k+1
.
.
.
.
.
.
.
.
.
0
n
1
_
_
_
_
_
_
_
_
_
_
_
_
_
Proposici on 5.1.
a) La inversa de una matriz de tipo L
k
es de tipo L
k
. Ademas tenemos
_
I +
n

i=k+1

i
e
i
e

k
_
1
= I
n

i=k+1

i
e
i
e

k
.
b) Si M y N son matrices de tipo L
k
y L
l
respectivamente con k < l entonces
la matriz MN tiene la forma
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0
.
.
.
1

.
.
.
1

.
.
.
0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
,

k l
es decir, si
M = I +
n

i=k+1

i
e
i
e

k
, N = I +
n

j=l+1

j
e
j
e

l
,
entonces
MN = M +N I.
5.4. Descomposicion LU 83
Demostracion.
a)
_
I +
n

i=k+1

i
e
i
e

k
_
_
_
I
n

j=k+1

j
e
j
e

k
_
_
= I +
n

i=k+1

i
e
i
e

k

n

j=k+1

j
e
j
e

k

n

i,j=k+1

j
e
i
e

k
e
j
e

k
,
= I
n

i,j=k+1

j
e
i

jk
e

k
.
(5.7)
Como j empieza en k + 1, entonces
jk
= 0. As
_
I +
n

i=k+1

i
e
i
e

k
_
1
= I
n

i=k+1

i
e
i
e

k
.
b)
MN =
_
I +
n

i=k+1

i
e
i
e

k
_
_
_
I +
n

j=l+1

j
e
j
e

l
_
_
,
= I +
n

i=k+1

i
e
i
e

k
+
n

j=l+1

j
e
j
e

l
+
n

i=k+1
j=l+1

j
e
i
e

k
e
j
e

l
,
= M +N I +
n

i=k+1
j=l+1

j
e
i

jk
e

l
.
Tenemos que j empieza por l + 1. As j > l y l k. As j > k y
jk
= 0
lo que signica que
MN = M +N I.
Cuidado:
El orden es importante como lo muestra el ejemplo siguiente.
A =
_
_
_
1 0 0
0 1 0
0 1 1
_
_
_, B =
_
_
_
1 0 0
1 1 0
1 0 1
_
_
_, AB =
_
_
_
1 0 0
1 1 0
2 1 1
_
_
_,
AB ,= A +B I
porque A es de tipo L
(2)
y B de tipo L
(1)
.
84 Captulo 5. Metodos directos
Nota 5.6.
De manera general si 1 k
1
< k
2
< . . . < k
p
n con p n1 y M
1
, . . . , M
p
son matrices de tipo L
(k1)
, L
(k2)
, . . . , L
(kp)
entonces
M
1
M
2
. . . M
p
= M
1
+M
2
+ M
p
(p 1)I
Volvamos ahora a la ecuaci on (5.6) de la p agina 81. La eliminacion de Gauss
da
Ux = b,
con U triangular superior y
= L
(n1)
. . . L
(2)
L
(1)
.
es invertible entonces

1
= L
(1)
1
L
(2)
1
. . . L
(n1)
1
.
Las matrices L
(k)
1
, k = 1, . . . , n 1 son de tipo L
(k)
(de hecho son el origen
de la denicion). As

1
=
n1

i=1
_
L
(i)
_
1
(n 2)I.
Denotemos
1
= L. Seg un la nota (5.5) L es triangular inferior con unos en la
diagonal. Ademas como
k

L
(k)
=
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
c
k+1,k
.
.
.
.
.
.
.
.
.
c
n,k
1
_
_
_
_
_
_
_
_
_
_
_
_
_
,
deducimos que
L =
_
_
_
_
_
_
_
_
_
1 0
c
21
1
.
.
. c
32
.
.
.
.
.
.
.
.
. 1
c
n1
c
n,n1
1
_
_
_
_
_
_
_
_
_
.
5.4. Descomposicion LU 85
De la ecuaci on (5.4) de la p agina 81 tenemos
A = U.
Siendo
1
= L, tenemos
A = LU.
Acabamos de demostrar el siguiente teorema.
Teorema 5.1. Si A K
nn
es una matriz directamente Gaussreducible exis-
ten una matriz U triangular superior y una matriz L triangular inferior con unos
en la diagonal tales que
A = LU.
Nota 5.7.
No es necesario que la matriz A sea invertible para que tenga la descompo-
sici on LU.
Ejemplo 5.1.
_
2 3
2 3
_
=
_
1 0
1 1
__
2 3
0 0
_
.
Pero tenemos el resultado siguiente:
Proposici on 5.2. Si A es invertible y directamente Gaussreducible entonces
la descomposicion A = LU es unica.
Demostracion. Supongamos que A = LU = L

.
L
1
L = U

U
1
. (5.8)
El lado izquierdo de (5.8) es una matriz triangular inferior con unos en la diago-
nal y el lado derecho es una matriz triangular superior. As U

U
1
= I es decir
U

= U y L

= L.
Teorema 5.2. Una matriz invertible es directamente Gaussreducible si y solo
si todas sus submatrices principales son invertibles.
Demostracion. Sea A K
nn
invertible. Supongamos que para todo k = 1, . . . , n
det(A(k)) ,= 0,
donde A(k), k = 1, . . . , n, son las submatrices principales de A.
En el proceso de la descomposicion LU de la matriz despues de la etapa k1
tenemos
k -1 n-k +1 k -1 n-k +1 k -1 n-k +1
86 Captulo 5. Metodos directos
k -1
n -k +1
_
_
_
_
A
(1)
A
(2)
A
(3)
A
(4)
_
_
_
_
=
_
_
_
_
L
(1)
0
L
(3)
L
(4)
_
_
_
_
_
_
_
_
U
(1)
U
(2)
0 U
(4)
_
_
_
_
k -1
n-k +1
(5.9)
donde
A
(1)
= A(k 1)
y L
1
, U
1
son matrices triangulares inferior y superior respectivamente.
Ahora tenemos que mostrar que para pasar a la siguiente etapa en la elimi-
nacion de Gauss no hay que intercambiar las. En otras palabras, mostrar que
U
(4)
11
es no nulo.
no nulo
0
U
(1)
U
(2)
U
(4)
Figura 5.2.
Para eso hacemos una partici on de tipo k, n k en el sistema (5.9), es decir
k n-k k n-k k n -k
k
n -k
_
_
_
_

A
(1)

A
(2)

A
(3)

A
(4)
_
_
_
_
=
_
_
_
_

L
(1)
0

L
(3)

L
(4)
_
_
_
_
_
_
_
_

U
(1)

U
(2)

U
(3)

U
(4)
_
_
_
_
(5.10)
La matriz

U
(1)
sigue siendo triangular superior. As
det

U
(1)
=
k

i=1
_

U
(1)
ii
_
y el producto matricial por bloques de (5.10) da

L
(1)
=

A
(1)

U
(1)
.
Como det

L
(1)
= 1 y A(k) =

A
(1)
, decimos que
n

i=1

U
(1)
ii
= det(A(k)).
5.4. Descomposicion LU 87
Como por hipotesis det(A(k)) ,= 0, se tiene

U
(1)
ii
,= 0,
para todo i = 1, . . . , k y en particular

U
(1)
kk
,= 0 que es justamente

U
(4)
11
de la
ecuaci on (5.9). Este proceso inductivo garantiza la descomposicion LU sin inter-
cambiar las las. El paso de A(1) a A(2) es evidente dado que det(A(1)) = A
11
.
Inversamente, si existen L triangular inferior con unos en la diagonal y U
triangular superior tales que
A = LU, (5.11)
para todo k = 1, . . . , n,
k n-k
_
_
_
_
A
(1)
A
(2)
A
(3)
A
(4)
_
_
_
_
=
_
_
_
_
L
(1)
0
L
(3)
L
(4)
_
_
_
_
_
_
_
_
U
(1)
U
(2)
0 U
(4)
_
_
_
_
y
det A
(1)
= det L
(1)
det U
(1)
=
k

i=1
U
(1)
ii
.
As
det(A(k)) =
k

i=1
U
(1)
ii
=
k

i=1
U
ii
.
Como U es invertible (porque A lo es) deducimos que det(A(k)) ,= 0.
Como aplicaciones de este teorema tenemos los resultados siguientes sobre ma-
trices con diagonal estrictamente dominante y matrices hermitianas denitads
positivas:
Teorema 5.3. Toda matriz con diagonal estrictamente dominate es directa-
mente Gauss-reducible
Demostracion. las submatrices principales de una matriz con diagonal estric-
tamente dominante lo son tambien entonces son invertibles.
Ejercicio 5.1. Mostrar que si A K
nn
es con diagonal estrictamente domi-
nante entonces todas la matrices intermedias A
(k)
de la eliminacion de Gauss
son tambien con diagonal estrictamente dominante.
Teorema 5.4. Toda matriz hermitiana denida positiva A se descompone en
la forma A = LU donde L es una matriz triangular inferior con unos en su
diagonal y U es una matriz triangular superior con elementos en la diagonal
estrictamente positivos. En particular A es directamente Gaussreducible.
88 Captulo 5. Metodos directos
Demostracion. Sea A K
nn
hermitiana denida positiva. Tenemos del teo-
rema (3.3)
detA(k) > 0, k = 1 . . . n
(recordamos que A(k) es la submatriz principal de A de tama no k).Es decir A es
directamente Gauss-reducible. De la ecuaci on A = LU, tenemos para k = 1 . . . n
det A(k) = det L(k) det U(k) = det U(k) > 0
pusto que L tiene unos en la diagonal.
Dado que para todo k,
det U(k) =
i=k

i=1
U
ii
deducimos que U
ii
> 0 para todo k = 1 . . . n
5.5. Descomposicion de Cholesky
Sea A Knn una matriz hermitiana denida positiva. Escribamos
A = LU
Sea D la matriz diagonal denida por D
ii
= U
ii
, i = 1 . . . n. Sabemos de la
secci on anterior que los elementos de D
ii
> 0 para todo i = 1 . . . n. As
A = LU
= LDD
1
U
= LDV
donde V = D
1
U. Por la construcion de D, los elementos diagonales de V son
unos y dado que A es hermitiana tenemos
A = V

= V

DL

De la unicidad de la descomposicion mostrada en la proposicion (5.2) deducimos


que V

= L y por supuesto que L

= V , as
A = LDL

.
Ahora sea la matriz diagonal denida positiva dada por

2
= D
Podemos ahora escribir A en la formas
A = LDL

= L
2
L

= L

= (L)(L)

5.4. Descomposicion LU 89
Teorema 5.5. Descomposici on de Cholesky
Una matriz A K
nn
es hermitiana denida positiva si y solo si existe una
matriz triangular inferior invertible tal que
A = LL

(5.12)
Demostracion. Por lo anterior la condicion es necesaria tomando como matriz
triangular inferior L. La condicion es suciente por que si A se descompone
en la forma (5.12) entonces A es evidentemente hermitiana ademas si x es un
vector no nulo se tiene
Ax, x) = LL

x, x) = L

x, L

x) = |L

x|
2
2
> 0
5.5.1. Algoritmo de Cholesky
Este algoritmo se usa para resolver sistemas lineales Ax = b cuando la ma-
triz A es hermitiana denida positiva. La idea es encontrar la matriz triagular
inferior L de la descomposicion de Cholesky.
_

_
L
11
=

A
11
para i = 2 . . . n, L
i1
= A
i1
/L
11
para j = 2 . . . n 1, L
i1
= A
i1
/L
11
_
L
jj
=
_
A
jj

j1
k=1
L
2
jk
para i = j + 1, . . . , n L
ij
= (A
ij

j1
k=1
L
ik
L
jk
)/L
jj
L
nn
=
_
A
nn

n1
k=1
L
2
nk
90 Captulo 5. Metodos directos
Captulo 6
Metodos iterativos de
solucion de sistemas lineales
Consideremos el sistema lineal
Ax = b, (6.1)
donde A K
nn
, det(A) ,= 0 y b K
n
.
Los metodos iterativos para resolver sistemas de este tipo consisten en cons-
truir una sucesion de vectores (x
n
)
nN
en K
n
que converge a la solucion del
sistema A
1
b. Lo que signica que no se busca la solucion exacta del sistema
sino una aproximacion con una precisi on deseada.
Nos interesa construir sucesiones (x
k
)
kN
de la forma
x
0
dado y
x
k+1
= Tx
k
+c, (6.2)
donde T es una matriz en K
nn
y c un vector. Escoger un metodo iterativo es
escoger la matriz T y el vector c.
Denicion 6.1.
1. Sea x la solucion exacta del sistema lineal de la ecuaci on (6.1). El error e
k
cometido en la iteraci on k en el algoritmo de la ecuaci on (6.2) se dene
por
e
k
= x
k
x.
2. Llamamos residuo al vector r
k
denido por
r
k
= b Ax
k
.
Nota 6.1.
El error e
k
mide que tan cerca est a x
k
de x mientras r
k
mide que tan bien
satisface x
k
el sistema lineal Ax = b.
91
92 Captulo 6. Metodos iterativos
Consideremos el algoritmo
x
0
dado y
x
k+1
= Tx
k
+c. (6.3)
Si la sucesion x
k
converge a la solucion del sistema lineal Ax = b, es decir si
lm
k
x
k
= A
1
b,
tenemos entonces en la ecuaci on (6.3)
A
1
b = TA
1
b +c.
As
c = (I T)A
1
b. (6.4)
La ecuaci on (6.4) es una condicion necesaria para que el algoritmo converja a
la solucion x = A
1
b.
Denicion 6.2. Decimos que el algoritmo de la ecuaci on (6.3) es consistente
si c y T verican la ecuaci on (6.4).
Teorema 6.1. Si el algoritmo de la ecuaci on (6.3) es consistente entonces
(x
k
)
k0
converge a la solucion x del sistema Ax = b si y solo si (T) < 1.
Demostracion.
x
k+1
= Tx
k
+c.
Restando x de los dos lados
e
k+1
= Tx
k
+c x
y por la condicion de consistencia
e
k+1
= Tx
k
+ (I T)x x,
e
k+1
= T(x
k
x),
e
k+1
= Te
k
para todo k 0. As
e
k
= T
k
e
0
,
es decir que x
k
converge a x cuando k lo que equivale a decir que e
k
0
que a su vez es equivalente, seg un el teorema (4.4) de la p agina 69, a (T) < 1.
6.1. Construccion de metodos iterativos 93
6.1. Construccion de los metodos iterativos
Denicion 6.3. Sea A K
nn
. Una descomposcicion regular de A (en Ingles
regular splitting) es escribir A en la forma A = M N donde M es una matriz
invertible.
Ahora consideremos el sistema lineal en cuestion
Ax = b. (6.5)
Sea A = MN una descomposicion regular de A. De la ecuaci on (6.5) podemos
escribir
Mx = Nx +b,
o tambien
x = M
1
Nx +M
1
b. (6.6)
La ecuaci on (6.6) sugiere el algoritmo
x
k+1
= M
1
Nx
k
+M
1
b,
x
0
dado.
Por construcci on, este algoritmo es consistente y la convergencia a la solucion
del sistema de la ecuaci on (6.5) es equivalente a
_
M
1
N
_
< 1.
6.1.1. Casos de descomposiciones particulares
Consideremos el sistema lineal de la ecuaci on (6.5) y escribamos A en la
forma
A = DE F,
donde D es diagonal, E es triangular inferior estricta y F es triangular superior
estricta.
A =
_
_
_
F
D
E
_
_
_.
Asumamos que D es invertible.
Metodo de Jacobi
M = D, N = E +F
y el algoritmo es dado en la forma matricial con
x
0
dado y
x
k+1
= D
1
(E +F)x
k
+D
1
b, k 0,
94 Captulo 6. Metodos iterativos
que podemos escribir componente por componente en la forma
x
0
dado,
x
k+1
i
=
1
a
ii
_
_
_
_

j=1
j=i
a
ij
x
k
j
b
i
_
_
_
_
, i = 1, . . . , n.
Metodo de GaussSeidel
Para este metodo
M = D E N = F
As el algoritmo en la forma matricial est a dado por
x
0
dado,
x
k+1
= (DE)
1
Fx
k
+ (DE)
1
b, k 0.
Podemos tambien escribirlo en la forma
(D E)x
k+1
= Fx
k
+b
o tambien
Dx
k+1
= Ex
k+1
+Fx
k
+b.
As
x
k+1
= D
1
_
Ex
k+1
+Fx
k
+b
_
, k 0.
La forma puntual del algoritmo de GaussSeidel es
x
i
dado,
x
k+1
i
=
1
a
ii
_
_
b
i

i1

j=1
a
ij
x
k+1
j

n

j=i+1
a
ij
x
k
j
_
_
, i = 1, . . . , n.
Metodo de relajacion (SOR)
Sea una par ametro real no nulo. Se denen M y N como
M =
1

(D E),
N =
1

_
(1 )D + F

.
6.1. Construccion de metodos iterativos 95
Denotemos la matriz M
1
N por L

. Miremos como es L

.
L

=
_
1

(D E)
_
1
__
1

1
_
D +F
_
,
L

= (DE)
1
__
1

1
_
D +F
_
,
L

= (DE)
1
_
(1 )D +F

,
L

=
_
D
_
I D
1
E
_
1
_
D
_
(1 )I +D
1
F
_
,
L

= (I L)
1
D
1
D[(1 )I +U] ,
donde L = D
1
E y U = D
1
F. As
L

= (I L)
1
_
(1 )I U

. (6.7)
La iteraci on en la forma matricial es
x
0
dado y
x
k+1
= L

x
k
+c

, k 0,
donde L

est a dada por la ecuaci on (6.7) y


c

=
_
D

E
_
1
b,
que podemos tambien escribir en la forma
x
0
dado y
(DE)x
k+1
= [(1 )D +F]x
k
+b.
Lo que nos da la forma puntual del algoritmo de relajaci on
x
0
dado,
x
k+1
i
=
1
a
ii
_
_
b
i

i1

j=1
a
ij
x
k+1
j
+a
ii
x
k
i

n

j=i
a
ij
x
k
j
_
_
, i = 1, . . . , n.
Nota 6.2.
1. El metodo de GaussSeidel es un caso particular del metodo de relajaci on
con = 1.
2. Las multiplicaciones de las matrices D, E y F por o por (1 ), que
se hacen solo una vez, son los unicos c alculos adicionales con respecto a lo
que se hace en el metodo de GaussSeidel.
3. Cuando < 1 se habla de metodo de subrelajaci on y cuando > 1 de
metodo de sobrerrelajaci on.
96 Captulo 6. Metodos iterativos
Proposici on 6.1. Si el metodo SOR converge entonces ]0 2[.
Demostracion. Para que el metodo SOR converja es necesario que (L

) < 1.
Calculemos el polinomio caracterstico de L

.
P

(L

) = det(I L

) = det
_
I (I L)
1
_
(1 )I U
_
.
Como det(I L) = 1 entonces
P

(L

) = det
_
(I L)
_
(1 )I U
_
.
[det(L

)[ = [P
0
(L

)[ = [(1 )
n
[ = [1 w[
n
pero al mismo tiempo
[det(L

)[ =

i=1

=
n

i=1
[
i
[
donde
1
, . . . ,
n
son los valores propios de L

. As
[1 [
n
=
n

i=1
[
i
[ < (L

)
n
< 1.
Esto signica que si SOR converge entonces [1 [
n
< 1 es decir 0 < < 2.
6.2. Convergencia de los metodos iterativos
Dado que los metodos iterativos de tipo
x
0
dado y
x
k+1
= (M
1
N)x
k
+M
1
b, k 0,
no convergen a menos que (M
1
N) < 1, la convergencia de los metodos de
Jacobi y de Relajaci on (SOR) puede fallar para algunas matrices A. Estudiare-
mos en las secciones siguientes la convergencia de estos algoritmos para matrices
particulares.
6.2.1. Matrices con diagonal estrictamente dominante
Teorema 6.2. Si A K
nn
tiene diagonal estrictamente dominante

_
D
1
(D A)
_
< 1.
Nota 6.3.
Deducimos de este teorema que el algoritmo de Jacobi converge dado que su
matriz de iteraci on es justamente D
1
(DA) = I D
1
A.
6.2. Convergencia de los metodos iterativos 97
Demostracion. Sabemos por la dominancia estricta de la diagonal de A que
i = 1, . . . , n
[a
ii
[ >

j=1
j=i
[a
ij
[ ,
es decir

j=1
j=i

a
ij
a
ii

< 1, i = 1, . . . , n.
Pero
a
ij
a
ii
= (D
1
A)
ij
, 1 i, j n
y
(D
1
A)
ii
= 1, i = 1, . . . , n.
As
_
_
I D
1
A
_
_

= max
i

j=1
j=i

a
ij
a
ii

< 1.
Como

_
I D
1
A
_

_
_
I D
1
A
_
_

,
deducimos que el metodo de Jacobi converge.
Teorema 6.3. Sea 0 < 1. Si A es una matriz con diagonal estrictamente
dominante entonces el metodo de relajaci on (SOR) converge.
Demostracion. Mostremos que (L

) < 1 donde L

= (I L)
1
_
(1 )I
U

. El polinomio caracterstico de L

es
P

(L

) = det(I L

) = det
_
(I L) (1 )I U
_
,
porque det(I L) = 1. As
P

(L

) = det
_
( + 1)I L U
_
= ( + 1)
n
det(I aL bU),
donde
a =

+ 1
b =

+ 1
.
Procedamos por contradiccion. Sea esp(L

) y supongamos que [[ 1.
en primero no se puede tener +1 = 0 porque tendramos [[ = [ 1[ < 1.
98 Captulo 6. Metodos iterativos
Mostremos que det(I aLbU) = 0 tambien dara contradiccion si [[ 1.
Sea = re
i
,
a =

+ 1
,
=
( + 1)
(r cos + 1)
2
+r
2
sen
2

,
= r
r + cos ( 1) +i( 1) sen
r
2
2r cos (1 ) + ( 1)
2
,
y
[a[
2
= r
2

2
r
2
+ cos
2
( 1)
2
+ ( 1)
2
sen
2
+ 2r cos ( 1)
[r
2
2r cos (1 ) + ( 1)
2
]
2
,
=
r
2

2
[r
2
2r cos (1 ) + ( 1)
2
]
.
Pero
r
2
2r(1 ) cos + ( 1)
2
r
2
2r(1 ) + ( 1)
2
= (r 1 +)
2
,
y dado que
r 1 + > r
pues r 1 y 0 < 1, se tiene entonces
[a[
r
(r 1 +)
1.
Como se supone que [[ 1 y que [a[ = [[ [b[, entonces [b[ [a[ 1.
Deducimos del ejercicio 3.6 que la matriz (IaLbU) tambien tiene diagonal
estrictamente dominante, es decir que es invertible, lo que contradice det(I
aL bU) = 0. As (L

) < 1.
6.2.2. Matrices hermitianas denidas positivas
Teorema 6.4. Sean A K
nn
hermitiana denida positiva y A = M N un
splitting regular. Entonces el algoritmo converge si la matriz Q = M +M

A
es denida positiva.
Demostracion. Supongamos que Q es denida positiva (que es hermitiana es
evidente). Mostremos que
_
M
1
N
_
< 1. Denotemos J = M
1
N, es decir
J = I M
1
A. Sea A
1/2
la matriz raz cuadrada de la matriz A y sea
K = A
1/2
JA
1/2
= A
1/2
_
I M
1
A
_
A
1/2
= I A
1/2
M
1
A
1/2
.
6.2. Convergencia de los metodos iterativos 99
Ahora
KK

=
_
I A
1/2
M
1
A
1/2
__
I A
1/2
M
1
A
1/2
_
,
KK

= I A
1/2
M
1
A
1/2
A
1/2
M
1
A
1/2
+A
1/2
M
1
AM
1
A
1/2
,
KK

= I A
1/2
_
M
1
+M
1
M
1
AM
1
_
A
1/2
,
KK

= I A
1/2
M
1
(M

+M A) M
1
A
1/2
,
KK

= I A
1/2
M
1
QM
1
A
1/2
.
Pero Q
1/2
existe. As
KK

= I A
1/2
M
1
Q
1/2
Q
1/2
M
1
A
1/2
,
KK

= I
_
A
1/2
M
1
Q
1/2
__
A
1/2
M
1
Q
1/2
_

.
Si denotamos H = A
1/2
M
1
Q
1/2
tenemos
KK

= I HH

.
Las matrices KK

y HH

son hermitianas denidas positivas entonces sus


valores propios son reales positivos. Pero
esp (KK

) =
_
1 ; esp (HH

)
_
.
As 1 > 0 = 1 > y > 0 lo que signica que (KK

) < 1. As |K|
2
< 1
y de hecho (K) < 1.
Corolario 6.1. Sea A K
nn
hermitiana denida positiva. Entonces
1. Si 2DA es hermitiana denida positiva el metodo de Jacobi converge.
2. Para todo ]0, 2[ el metodo de relajaci on converge.
Demostracion. Miremos bajo que condiciones la matriz M +M

A es her-
mitiana denida positiva para ambos casos.
Para el caso de Jacobi M = D. Como A es hermitiana denida positiva
deducimos que D tambien lo es. As
M +M

A = 2DA.
Para el caso de relajaci on
M =
_
D

E
_
, D = D

.
As
M +M

A =
_
D

E
_
+
_
D

_
D +E +E

=
2D

D =
2

D
que es una matriz hermitiana denida positiva.
100 Captulo 6. Metodos iterativos
6.2.3. B usqueda del parametro optimo del SOR para ma-
trices tridiagonales por bloques
Notacion
Sea A K
nn
con la forma por bloques siguiente
A =
_
_
_
_
_
_
_
_
_
A
1
B
1
C
1
A
2
B
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. B
p1
C
p1
A
p
_
_
_
_
_
_
_
_
_
, (6.8)
donde A
i
, i = 1, . . . , p, son matrices cuadradas.
En esta secci on vamos a estudiar la convergencia de los metodos de Jacobi
y SOR para este tipo de matrices. La eleccion de estas matrices no es fortuita
pues el metodo de diferencias nitas las genera.
Proposici on 6.2. Sea A K
nn
con la forma de la ecuaci on (6.8). Denotemos
para un t K, t ,= 0
A
t
=
_
_
_
_
_
_
_
_
_
A
1
t
1
B
1
tC
1
A
2
t
1
B
2
tC
2
.
.
.
.
.
.
.
.
.
.
.
. t
1
B
p1
tC
p1
A
p
_
_
_
_
_
_
_
_
_
.
Tenemos det(A
t
) = det(A).
Demostracion. Es sencillo vericar que
A
t
= Q
t
AQ
1
t
,
donde
Q
t
=
_
_
_
_
_
_
tI
1
t
2
I
2
.
.
.
t
p
I
p
_
_
_
_
_
_
con I
j
la matriz identidad del mismo tama no que A
j
, j = 1, . . . , p.
Teorema 6.5. Sea A K
nn
tridiagonal por bloques. Tenemos
(L
1
) = (J)
2
, (6.9)
donde L
1
y J son las matrices de GaussSeidel y de Jacobi respectivamente
asociadas a A.
6.2. Convergencia de los metodos iterativos 101
Nota 6.4.
La ecuaci on (6.9) signica que los metodos de Jacobi y de GaussSeidel
convergen o divergen simult aneamente.
Demostracion. Descompongamos A = DEF. Los polinomios caractersti-
cos de L
1
y J son respectivamente
P
1
() = det
_
I (D E)
1
F
_
,
P
J
() = det
_
I D
1
(E +F)
_
.
Tenemos
P
J
() = det D
1
det(D E F),
P
J
() = det D
1
det(D +E +F), t = 1 en la proposicion (6.2),
P
J
() =
_
det D
1
_
(1)
n
det(DE F),
P
J
() =
_
det D
1
_
(1)
n
(det D) det
_
I D
1
(E +F)
_
P
J
() = (1)
n
P
J
().
Es decir, si es valor propio de J, tambien lo es.
P
1
() = det (D E)
1
det(D E F).
Sea
1/2
una raz cuadrada de .
P
1
() = det (D E)
1
det
_

1/2
_

1/2
D
1/2
E
1/2
F
__
,
P
1
() = det (D E)
1

n/2
det
_

1/2
D
1/2
E
1/2
F
_
,
P
1
() = det (D E)
1

n/2
det
_

1/2
DE F
_
, t =
1/2
en la proposicion (6.2),
P
1
() = det (D E)
1

n/2
det(D) det
_

1/2
I D
1
(E +F)
_
,
P
1
() =
n/2
det
_
I D
1
E
_
1
P
J
_

1/2
_
,
P
1
() =
n/2
P
J
_

1/2
_
.
As si
,= 0 y esp (L
1
) = esp(J) y esp(J).
Si
esp(J) = esp(J) =
2
esp (L
1
) .
102 Captulo 6. Metodos iterativos
Captulo 7
Metodos basados en la
optimizacion para sistemas
lineales: Metodos del
gradiente
Introducci on
Sean K un subconjunto de R
n
y J : K R una funci on. El problema de
optimizacion asociado a la funci on J y el conjunto K es encontrar x K tal
que
J(x) = nf
xK
J(x) = mn
xK
J(x).
Si tal x existe, se le dice solucion del problema de optimizacion
mn
xK
J(x).
Nota 7.1.
Si J : K R es una funci on y > 0, son escalares entonces los problemas
mn
xK
J(x) y mn
xK
(J(x) +)
tienen las mismas soluciones.
En este captulo nos interesamos en resolver sistemas lineales usando tecnicas
de optimizacion. Para eso, dado un sistema lineal
Ax = b, (7.1)
se le asocia un problema de optimizacion
mn
xK
J(x) (7.2)
103
104 Captulo 7. Metodos del gradiente
de manera que x es solucion de (7.1) si y solo si x es solucion de (7.2).
Generalmente, se busca una aproximacion de la solucion x (supuestamente
unica) del problema (7.2). Este metodo se resume en construir una sucesion
(x
n
)
nN
R
n
tal que
J(x
n
) converja a J(x)
esperando que x
n
converja a x cuando n .
Denicion 7.1. Se dice que (x
n
)
nN
es una sucesion minimizante del problema
(7.2) si J(x
n
) nf
xK
J(x).
7.1. Construccion de la Funcion J
Sean A R
nn
una matriz simetrica denida positiva y b R
n
. Se dene
la funci on
J : R
n
R,
x
1
2
Ax, x) b, x) .
Teorema 7.1. El problema
mn
xR
n
J(x)
tiene una solucion x unica y es justamente la solucion del sistema Ax = b.
Demostracion. Para x R
n
, sea
e(x) = x x,
donde
x = A
1
b.
Denimos
J
1
(x) =

Ae(x), e(x)
_
.
Dado que A es simetrica denida positiva tenemos
i) J
1
(x) 0.
ii) J(x) = 0 si y solo si e(x) = 0, es decir x = x, lo que signica que x es la
solucion unica del problema
mn
xR
n
J
1
(x).
7.2. Planteamiento general del metodo 105
Para terminar la demostracion falta mostrar que los problemas
mn
xR
n
J
1
(x) y mn
xR
n
J(x)
tienen las mismas soluciones. Desarrollemos J
1
(x):
J
1
(x) =

Ae(x), e(x)
_
,
=

Ax Ax , x x
_
,
=

Ax b , x x
_
,
=

Ax, x
_

Ax, x
_

b, x
_
+

b, x
_
,
=

Ax, x
_

x, Ax
_

b, x
_
+

b, x
_
,
=

Ax, x
_
2

b, x
_
+

b, x
_
= 2J(x) +

b, x
_
.
Dado que

b, x
_
es una constante y teniendo en cuenta la nota (7.1) de la p agina
103, deducimos el resultado.
7.2. Planteamiento general del metodo
La sucesion (x
n
)
nN
que minimiza el problema
mn
xR
n
1
2
Ax, x) b, x)
se construye en la forma siguiente:
x
n+1
= x
n
+
n
p
n
,
donde
n
y p
n
son respectivamente escalar y vector que van a ser elegidos de
forma que x
n
converja a x.
Denicion 7.2. p
n
se llama direcci on de descenso.
7.2.1. Eleccion de
n
Supongamos que p
n
ha sido elegido. Ahora vamos a hallar un
n
adecuado
de manera que
J(x
n+1
) < J(x
n
).
Para eso:
J(x
n+1
) =
1
2

A(x
n
+
n
p
n
) , x
n
+
n
p
n
_

b , x
n
+
n
p
n
_
,
=
1
2

Ax
n
, x
n
_

b, x
n
_
+
1
2

n

Ap
n
, x
n
_
+
1
2

n

Ax
n
, p
n
_
+
1
2

2
n

Ap
n
, p
n
_

b, p
n
_
,
= J(x
n
) +
1
2

2
n

Ap
n
, p
n
_
+
n

Ax
n
b, p
n
_
. (7.3)
106 Captulo 7. Metodos del gradiente
La expresion de J(x
n+1
) en la ecuaci on (7.3) es un polinomio de grado 2 en
n
as que alcanza su mnimo cuando

n
=

b Ax
n
, p
n
_

Ap
n
, p
n
_ . (7.4)
Con este valor de
n
,
J(x
n+1
) = J(x
n
)
1
2

b Ax
n
, p
n
_
2

Ap
n
, p
n
_ . (7.5)
Denicion 7.3. El valor dado en (7.4) se llama optimo local de .
Notamos que:
1. El vector de descenso no puede ser nulo o la sucesion sera estacionaria.
2. A menos que

p
n
, b Ax
n
_
= 0, J(x
n+1
) < J(x
n
).
3. En la eleccion de p
n
, evitaremos que este sea ortogonal a b Ax
n
.
Recordando que el residuo r
k
est a dado por r
k
= b Ax
k
, la ecuaci on (7.5) se
vuelve
J(x
n+1
) = J(x
n
)
1
2

r
n
, p
n
_
2

Ap
n
, p
n
_. (7.6)
Averiguamos ahora bajo que condicion (sobre p
n
) la sucesion (x
n
)
nN
converge
a x Multiplicando (7.6) por 2 y sumando

b, x
_
se obtiene
J
1
(x
n+1
) = J
1
(x
n
)

r
n
, p
n
_
2

Ap
n
, p
n
_. (7.7)
Sabiendo que J(x
n
) tiende a cero si y solo si x
n
converge a x, la solucion del
sistema Ax = b, transformamos la ecuaci on (7.7) en la forma
J
1
(x
n+1
) = k
n
J
1
(x
n
), (7.8)
donde k
n
es un escalar que nos ayudar a a elegir la direcci on p
n
.
De la ecuaci on (7.8) tenemos
k
n
= 1
r
n
, p
n
)
2
Ap
n
, p
n
)
1
J
1
(x
n
)
.
Si podemos mostrar que existe un 0 < k < 1 tal que
n, 0 < k
n
< k,
tendremos
J
1
(x
n
) k
n
J
1
(x
0
),
7.2. Planteamiento general del metodo 107
lo que garantiza que
x
n
x.
Miremos de cerca c omo es k
n
.
k
n
= 1
1
J
1
(x
n
)
r
n
, p
n
)
2
Ap
n
, p
n
)
,
pero J
1
(x
n
) se puede tambien escribir en la forma
J
1
(x
n
) =

r
n
, A
1
r
n
_
.
Recordando que los valores propios de A
1
son los inversos de los de A y usando
el cociente de Rayleigh obtenemos
J
1
(x)
1

min
|r
n
|
2
,
o tambien
1
J
1
(x
n
)

1
|r
n
|
2

min
. (7.9)
De la misma manera
Ap
n
, p
n
)
max
|p
n
|
2
,
o tambien
1
Ap
n
, p
n
)

1

max
1
|p
n
|
2
. (7.10)
Multiplicando (7.9) y (7.10) tenemos
1
J
1
(x
n
)
1
Ap
n
, p
n
)


min

max
1
|p
n
|
2
|r
n
|
2
.
As
1
1
J
1
(x
n
)
1
Ap
n
, p
n
)
r
n
, p
n
)
2
1

min

max
r
n
, p
n
)
2
|r
n
|
2
|p
n
|
2
y
k
n
1

min

max
r
n
, p
n
)
2
|r
n
|
2
|p
n
|
2
. (7.11)
Denotamos

n
=
r
n
, p
n
)
2
|r
n
|
2
|p
n
|
2
.
Observemos que por la desigualdad de Cauchy-Schwartz tenemos

n
1
Teniendo en cuenta que

min

max
=
1
K(A)
1,
108 Captulo 7. Metodos del gradiente
la ecuaci on (7.11) se vuelve entonces
k
n
1

n
K(A)
.
Recordemos que queremos encontrar un real 0 < k < 1 tal que
k
n
< k < 1.
es decir
1

n
K(A)
< k,

n
> (k + 1)K(A).
Entonces la unica condicion para que J
1
(x
n
) tienda a cero es que exista una
constante > 0 tal que

n
> , n N.
En este caso se toma
k = 1

K(A)
< 1
Recopilemos estos resultados en el siguiente teorema:
Teorema 7.2. Si la direcci on de descenso p
n
es elegida de manera que
n,
r
n
, p
n
)
2
|r
n
|
2
|p
n
|
2
> > 0, (7.12)
donde es una real arbitrario jo, entonces el metodo
_
x
k+1
= x
k
+
k
p
k
con
k
=
r
k
,p
k
)
Ap
k
,p
k

,
x
0
arbitrario.
converge a la solucion del sistema Ax = b.
7.2.2. Eleccion de direcciones de descenso
Metodo del gradiente
Es evidente en la ecuaci on (7.12) que la eleccion mas natural de p
n
es
p
n
= r
n
.
As
r
n
, p
n
)
2
|r
n
|
2
|p
n
|
2
= 1.
7.2. Planteamiento general del metodo 109
Este metodo se llama metodo del gradiente y su iteraci on est a dada por
x
0
arbitrario y
para k 0, x
k+1
= x
k
+
_
_
r
k
_
_
2
Ar
k
, r
k
)
r
k
.
El metodo del gradiente es muy facil de implementar pero no es muy practico
por requerir, a veces, muchas iteraciones para alcanzar la precisi on deseada. Por
eso vamos a ver otro metodo en que se asegura que el n umero de iteraciones
no puede exceder el tama no del sistema lineal. Lo que signica de hecho, y
es la parte sorprendente de este algoritmo, que en la construcci on del metodo,
esperando un metodo iterativo clasico, se llega a la solucion exacta en un n umero
nito de iteraciones. Este metodo se llama metodo del gradiente conjugado.
Metodos de los descensos A-conjugados
Denicion 7.4. Sea A una matriz simetrica denida positiva. Dos vectores x, y
se dicen A-conjugados s
Ax, y) = 0.
Nota 7.2.
En otras palabras, x, y son A-conjugados si son ortogonales con respecto al
producto punto
x, y)
A
= Ax, y) .
Veremos que si los vectores de descenso son elegidos de manera que sean
todos A-conjugados entre si, es decir
n N,

Ap
n
, p
k
_
= 0, k = 0, . . . , n 1,
entonces el algoritmo
x
k+1
= x
k
+
k
p
k
converge en a lo sumo n iteraciones.
Nota 7.3.
De todas maneras en R
n
no se pueden tener mas que n vectores A-conjugados
porque la A-conjugacion implica independencia lineal.
Teorema 7.3. Si las direcciones de descenso p
i
, i = 1, . . . , n, son A-conjugadas
entonces
r
n
= 0,
es decir Ax
n
= b lo que signica que la sucesion converge en a lo sumo n
iteraciones.
Demostracion. Tenemos
x
n+1
= x
n
+
n
p
n
, n 0 (7.13)
110 Captulo 7. Metodos del gradiente
y

n
=
r
n
, p
n
)
Ap
n
, p
n
)
.
Dado que los p
i
forman una base de R
n
, es suciente mostrar que

r
n
, p
k
_
= 0, k = 0, . . . , n 1.
Tenemos
x
n
= x
n1
+
n1
p
n1
= x
n2
+
n2
p
n2
+
n1
p
n1
= = x
0
+
0
p
0
+ +
n1
p
n1
.
As
Ax
n
= Ax
0
+
n1

i=0

i
Ap
i
b Ax
n
= b Ax
0

n1

i=0

i
Ap
i
,
es decir
r
n
= r
0

n1

i=0

i
Ap
i
.
Sea k, 0 k n 1.

r
n
, p
k
_
=

r
0
, p
k
_

n1

i=0

Ap
i
, p
k
_
y por la A-conjugacion

r
n
, p
k
_
=

r
0
, p
k
_

Ap
k
, p
k
_
.
Pero

k
=

r
k
, p
k
_
Ap
k
, p
k
)
.
As

r
n
, p
k
_
=

r
0
, p
k
_

r
k
, p
k
_
,
=

r
0
r
k
, p
k
_
,
=

b Ax
0
b +Ax
k
, p
k
_
,
=

Ax
k
Ax
0
, p
k
_
,
=

A
_
x
k
x
0
_
, p
k
_
.
7.2. Planteamiento general del metodo 111
Ahora
x
k
x
0
= x
k
x
k1
+x
k1
x
k2
+x
k2
+ +x
1
x
0
=
k1

i=0
x
i+1
x
i
.
Del algoritmo (7.13)
x
i+1
x
i
=
i
p
i
.
As

r
n
, p
k
_
=

A
_
x
k
x
0
_
, p
k
_
=
k1

i=0

Ap
i
, p
k
_
= 0 por A-conjugacion.
Ahora nuestra tarea es construir una sucesion de direcciones de descenso
p
0
, . . . , p
n
, A-conjugadas.
Un metodo intuitivo es el siguiente: tomar B = e
1
, . . . , e
n
una base arbi-
traria de R
n
y, utilizando el proceso de ortogonalizaci on de GramSchmidt con
respecto al producto escalar , )
A
= x
t
Ay, construir una base de R
n
p
i
, i = 1, . . . , n 1,
tal que

p
i
, Ap
j
_
= 0, i ,= j.
Con esta eleccion de p
i
el algoritmo es:
_

_
x
0
arbitrario y
para k n, hacer el ciclo:
r
k
= b Ax
k
,

k
=

p
k
, r
k
_
Ap
k
, p
k
)
,
x
k+1
= x
k
+
k
p
k
.
(7.14)
Ejemplo 7.1.
_
_
_
_
_
1 1/2 1/3 1/4
1/2 1/3 1/4 1/5
1/3 1/4 1/5 1/6
1/4 1/5 1/6 1/7
_
_
_
_
_
,
b
t
= (25/12, 77/60, 19/20, 319/420).
La solucion exacta del sistema Ax = b es
x
t
= (1, 1, 1, 1).
112 Captulo 7. Metodos del gradiente
El proceso de ortogonalizaci on de Gram-Schmidt de la base canonica de R
4
respecto al producto escalar x, Ay) da la base
p
t
0
= (1, 0, 0, 0),
p
t
1
= (1/2, 1, 0, 0),
p
t
2
= (1/6, 1, 1, 0),
p
t
3
= (1/20, 3/5, 3/2, 1).
Del algoritmo (7.14), tomando x
0
= (0, 0, 0, 0), los resultados de las iteraciones
son
x
1
= (25/12, 0, 0, 0)
t
,
x
2
= (19/30, 29/10, 0, 0)
t
,
x
3
= (21/20, 2/5, 5/2, 0)
t
y la cuarta iteraci on da la solucion exacta
x
4
= (1, 1, 1, 1)
t
como se esperaba.
Este metodo es supremamente costoso en n umero de operaciones debido al
proceso de ortogonalizaci on de Gram-Schmidt y en espacio de almacenamiento
dado que en el proceso de calcular un vector en un paso dado se necesitan todos
los vectores anteriores.
Metodo del gradiente conjugado
En este metodo los p
i
se eligen de manera inductiva en cada paso. Explci-
tamente, se escoge
p
0
= r
0
y
p
k
= r
k
+
k
p
k1
. (7.15)
Los escalares
k
se eligen de manera que las direcciones de descenso p
i
, i 0,
sean A-conjugadas.
Proposici on 7.1. Para todo k 0

Ap
k+1
, p
k
_
= 0
si y solo si

k+1
=

r
k+1
, Ap
k
_
Ap
k
, p
k
)
. (7.16)
7.2. Planteamiento general del metodo 113
Demostracion. Multiplicando la relacion
p
k+1
= r
k+1
+
k+1
p
k
por A y tomando el producto escalar con p
k
, resulta

Ap
k+1
, p
k
_
=

Ar
k+1
, p
k
_
+
k+1

Ap
k
, p
k
_
.
Si

Ap
k+1
, p
k
_
= 0 tendremos

k+1
=

Ar
k+1
, p
k
_
Ap
k
, p
k
)
y viceversa.
Ejercicio 7.1. Mostrar que para este valor de
k

r
k+1
, r
k
_
= 0.
En el resto de este captulo
k
siempre tomara el valor dado por la ecuaci on
(7.16).
Nota 7.4.
A priori la eleccion de este valor para
k
no garantiza que las direcciones
p
i
, i 0 sean A-conjugadas pero s asegura que dos direcciones sucesivas son
A-conjugadas.
Vamos a mostrar que esta eleccion de
k
es suciente para la A-conjugacion
de los p
i
, i 0.
Nota 7.5.
Tenemos
x
n+1
= x
n
+
n
p
n
.
Multiplicando por A y sumando el vector b, resulta
r
n+1
= r
n

n
Ap
n
. (7.17)
Nota 7.6.
Vamos a suponer que las direcciones p
k
y los residuos r
k
, k n 1, son no
nulos. De hecho estas suposiciones son muy realistas dado que r
k
= 0 implica que
x
k
es la solucion exacta del sistema en cuestion y p
k
= 0 implica que x
n+1
= x
n
,
es decir que la iteraci on n + 1 es in util.
De esta manera

k
=

r
k
, p
k
_
Ap
k
, p
k
)
est a siempre bien denido.
114 Captulo 7. Metodos del gradiente
Empecemos por unos lemas:
Lema 7.1. Sea k n 1.

r
k
, p
i
_
= 0, i = 1, . . . , k 1.
Demostracion. Por induccion sobre k.
k = 1.
De la ecuaci on (7.17)

r
1
, p
0
_
=

r
0

0
Ap
0
, p
0
_
.
Dado que p
0
= r
0
y que

k
=

r
k
, p
k
_
Ap
k
, p
k
)
,
deducimos que

r
1
, p
0
_
=

r
0
, r
0
_

r
0
, r
0
_
Ar
0
, r
0
)

Ar
0
, r
0
_
= 0.
Supongamos que la ecuaci on es verdadera para k y mostremos que

r
k+1
, p
i
_
= 0, i = 0, . . . , k.
Si i = k,

r
k+1
, p
k
_
=

r
k

k
Ap
k
, p
k
_
=

r
k
, p
k
_

r
k
, p
k
_
Ap
k
, p
k
)

Ap
k
, p
k
_
= 0.
Si i = k 1,

r
k+1
, p
k1
_
=

r
k
, p
k1
_

Ap
k
, p
k1
_
.
Por hipotesis de induccion

r
k
, p
k1
_
= 0 y

Ap
k
, p
k1
_
= 0 por la eleccion de

k
.
Si i < k 1,

r
k+1
, p
i
_
=

r
k
, p
i
_

Ap
k
, p
i
_
.
Por hipotesis de induccion

r
k
, p
i
_
= 0. As

r
k+1
, p
i
_
=
k

Ap
k
, p
i
_
=
k
_
p
k
,
_
r
i+1
r
i
_

i
_
=

k

p
k
, r
i+1
r
i
_
= 0.
7.2. Planteamiento general del metodo 115
Lema 7.2. Para todo k 0
Ap
k
gen
_
p
k1
, p
k
, p
k+1
_
.
Demostracion. Tenemos
Ap
k
=
1

k
_
r
k+1
r
k
_
=
1

k
_
p
k+1

k+1
p
k
p
k
+
k
p
k1
_
.
As
Ap
k
gen
_
p
k1
, p
k
, p
k+1
_
.
Proposici on 7.2. Sea k n 1. Para

k
=

Ar
k
, p
k1
_
Ap
k1
, p
k1
)
y
p
0
= r
0
,
p
k
= r
k
+
k
p
k1
,
la familia
_
p
k
, k = 0, . . . , n 1
_
es A-conjugada.
Demostracion. Por induccion sobre k.
k n 1.
Mostremos que

Ap
k
, p
i
_
= 0, i = 0, . . . , k 1.
Por la proposicion (7.1) de la p agina 112,

Ap
1
, p
0
_
= 0.
Supongamos que la proposicion (7.2) es verdadera hasta k y mostremos que

Ap
k+1
, p
i
_
= 0, i = 0, . . . , k.
Si i = k,

Ap
k+1
, p
k
_
= 0 por la proposicion (7.1).
Si i k 1,

Ap
k+1
, p
i
_
=

p
k+1
, Ap
i
_
,
=

r
k+1
+
k+1
p
k
, Ap
i
_
,
=

r
k+1
, Ap
i
_
+
k+1

p
k
, Ap
i
_
.
116 Captulo 7. Metodos del gradiente
Por hipotesis de induccion

p
k
, Ap
i
_
= 0. As

Ap
k+1
, p
i
_
=

r
k+1
, Ap
i
_
.
Del lema (7.2), podemos escribir Ap
i
como combinaci on lineal de p
i1
, p
i
, p
i+1
y dado que i k 1, utilizando el lema (7.1), deducimos que

Ap
k+1
, p
i
_
=

r
k+1
, Ap
i
_
= 0.
Podemos escribir
k
en una forma mas memorizable como lo muestra la
proposicion siguiente.
Proposici on 7.3.

k
=
_
_
r
k
_
_
2
|r
k1
|
2
,
para r
0
, . . . , r
k1
no nulos.
Demostracion.

k
=

r
k
, Ap
k1
_
Ap
k1
, p
k1
)
Ap
k1
=
1

k1
_
r
k
r
k1
_

r
k
, Ap
k1
_
=
1

k1

r
k
, r
k
r
k1
_
=
1

k1
_
_
r
k
_
_
2
+
1

k1

r
k
, r
k1
_
=
1

k1
_
_
r
k
_
_
2
teniendo en cuenta el ejercicio (7.1).
Del otro lado,

Ap
k1
, p
k1
_
=
1

k1

r
k
r
k1
, p
k1
_
=
1

k1

r
k
, p
k1
_
+
1

k1

r
k1
, p
k1
_
.
Por el lema (7.1)

r
k
, p
k1
_
= 0 y como

r
k1
, p
k1
_
=
_
_
r
k1
_
_
2
, tenemos

k
=
_
_
r
k
_
_
2
|r
k1
|
2
.
7.2. Planteamiento general del metodo 117
Recopilemos estos resultados en el siguiente teorema.
Teorema 7.4. Metodo del gradiente conjugado
Sean A R
nn
una matriz simetrica denida positiva, b R
n
y x = A
1
b.
Para todo x
0
R
n
la sucesion x
n
denida por el algoritmo
_

_
p
0
= r
0
k 0

k
=

p
k
, r
k
_
Ap
k
, p
k
)
x
k+1
= x
k
+
k
p
k
r
k+1
= r
k

k
Ap
k

k+1
=
_
_
r
k+1
_
_
2
|r
k
|
2
p
k+1
= r
k+1
+
k+1
p
k
satisface x
n
= x.
7.3. Velocidad de convergencia
A continuacion analizemos otros aspectos optimales que satisface el gradiente
conjugado.Consideramos la funci on h : R
k+1
R denida por
h(u) = J(x
0
+
i=k

i=0
u
i
p
i
) (7.18)
Estudiamemos el m nimo de esta funci on. Si notemos K la matrice n (k +1)
cuyas columnas son los k + 1p
i
s.As se pude escribir h en la forma
h(u) = J(x
0
+Ku), (7.19)
es deiir
h(u) =
1
2
A(x
0
+Ku), x
0
+Ku) b, x
0
+Ku)
h(u) =
1
2
(x
0
+Ku), x
0
+Ku) b, x
0
+Ku)
Proposici on 7.4.
118 Captulo 7. Metodos del gradiente
Captulo 8
Elementos nitos
Introducci on
Muchos problemas de fsica, mecanica y qumica dan lugar a problemas de
frontera que involucran ecuaciones con derivadas parciales sobre un dominio
geometrico y un conjunto de condiciones sobre la frontera del dominio en cues-
tion.
El metodo de elementos nitos se usa para este tipo de ecuaciones con la idea
principal de reducir la b usqueda de la funci on solucion a un espacio vectorial de
dimensi on nita.
La mejor manera de presentar este captulo es a traves de casos particulares
porque la teora general es difcil.
8.1. Elementos nitos en dimension 1
Consideremos el problema siguiente. Encontrar u(x), x [0, 1],
_
u

(x) + c u(x) = f(x), x ]0, 1[, (a)


u(0) = u(1) = 0, (b)
(8.1)
donde c es una constante positiva y f una funci on dada.
Nota 8.1.
Las condiciones de la ecuaci on (8.1.b) se llaman condiciones de frontera de
tipo Dirichlet homogenea.
8.1.1. Desarrollo del metodo
Consideremos el espacio V
0
dado por
V
0
=
_
v : [0, 1] R, v suave, v(0) = v(1) = 0
_
.
Con el termino suave queremos decir que v tiene la regularidad (diferenciabili-
dad) que requieren las operaciones en el desarrollo.
119
120 Captulo 8. Elementos nitos
Nota 8.2.
De acuerdo con el concepto de suavidad que acabamos de dar, V
0
es un
espacio vectorial de dimensi on innita.
Sea v V
0
. Multipliquemos la ecuaci on (8.1.a) del problema por v e integre-
mos los dos lados sobre [0, 1]. Resulta
_
1
0
(u

v + cuv) dx =
_
1
0
fv dx. (8.2)
Por razones de comodidad, omitimos la dependencia de la variable x de las
funciones. Integrando por partes la ecuaci on (8.2) se sigue
_
u

v
_
1
0
+
_
1
0
u

dx +c
_
1
0
uv dx =
_
1
0
fv dx.
Dado que v(0) = v(1) = 0, concluimos que
_
1
0
(u

+cuv) dx =
_
1
0
fv dx. (8.3)
Denotemos
a(u, v) =
_
1
0
(u

+cuv) dx, (8.4)


l(v) =
_
1
0
fv dx. (8.5)
La ecuaci on (8.3) se vuelve con estas notaciones
a(u, v) = l(v), v V
0
. (8.6)
La ecuaci on (8.6) se llama formulaci on variacional del problema (8.1). Esta
manera de escribir el problema suele ser clave para resolverlo numericamente
como veremos ahora.
La idea del metodo de elementos nitos es, en lugar de buscar u en el espacio
V
0
, buscarlo en un subespacio vectorial V
n
de dimensi on nita n. Por eso jemos
V
n
tal subespacio.
Sea
1
,
2
, . . . ,
n
una base de V
n
. Sea u
n
la aproximacion de u que pertenece
a V
n
. u
n
V
0
implica la existencia de reales
1
, . . . ,
n
tales que
u
n
=
n

i=1

i
. (8.7)
Denicion 8.1. Las funciones
i
, i = 1, . . . , n, se llaman funciones de base.
Con esta aproximacion la formulaci on variacional (8.6) se escribe
a
_
n

i=1

i
, v
n
_
= l (v
n
) v
n
V
n
.
8.1. Elementos nitos en dimensi on 1 121
Las propiedades de a permiten escribir
n

i=1
a (
i
, v
n
)
i
= l (v
n
) v
n
V
n
. (8.8)
v
n
es arbitrario en V
n
entonces podemos elegirlo como v
n
=
i
, i = 1, . . . , n.
As la ecuaci on (8.8) se vuelve
n

i=1
a (
i
,
j
)
i
= l (
j
) j = 1, . . . , n. (8.9)
Las ecuaciones (8.9) forman un sistema lineal cuadrado
Ax = b, (8.10)
donde
A R
n
, A
ij
= a (
i
,
j
) ,
x
i
=
i
, b
i
= l (
i
) , i = 1, . . . , n.
As buscar u en la forma (8.7) nos lleva a resolver el sistema lineal (8.10).
Ejemplo 8.1. Consideremos el problema de frontera
u

+ 4u = 16x
3
16x
2
24x + 8 en ]0, 1[,
u(0) = u(1) = 0.
Buscamos la solucion en el espacio V
3
generado por las tres funciones

1
(x) = xsen(x),

2
(x) = x(1 cos(x 1)),

3
(x) = x(x 1).
Admitimos que la familia
1
,
2
,
3
es linealmente independiente (o mas bien
t omelo como ejercicio).
Las tres funciones satisfacen las condiciones de frontera entonces todo est a lis-
to para armar el sistema (8.10). Sabiendo que
A
ij
=
_
1
0

j
+ 4
i

j
dx, 1 i, j 3
y
b
i
=
_
1
0
_
16x
3
16x
2
24x + 8
_

i
dx, i = 1, . . . , 3,
llegamos al sistema lineal
_
_
_
2,46027 0,12476 0,89463
0,12476 0,39215 0,11296
0,89463 0,11296 0,46666
_
_
_
_
_
_

3
_
_
_ =
_
_
_
2,58331
0,12402
0,93333
_
_
_. (8.11)
122 Captulo 8. Elementos nitos
Los c alculos de estos coecientes han sido hechos por Maple 7. La solucion del
sistema (8.11) es
sol =
_
_
_
0,17667
7,21663
3,40814
_
_
_.
La solucion aproximada es entonces
u
3
=
3

i=1

i
.
La solucion exacta de este ejemplo es
u(x) = 4x
2
(x 1).
La comparaci on graca de u con u
3
est a dada en la gura (8.1).
La solucion calculada
La solucion exacta
0.6
0.5
0.4
0.3
0.2
0.1
0
0.2 0.4 0.6 0.8 1
x
Figura 8.1.
Como lo vemos en este ejemplo la aproximacion es muy aceptable pero no-
temos que el c alculo de los coecientes de la matriz y del segundo miembro del
sistema (8.11) es muy costoso y sera imposible si la dimensi on del espacio de
aproximacion V
n
fuera muy alta o las funciones de la base mas complicadas. Con
este metodo los coecientes de la matriz
_
a (
i
,
j
)
_
1i,jn
son todos a priori
no nulos.
8.1. Elementos nitos en dimensi on 1 123
Ahora vamos a trabajar en espacios (V
n
)
nN
de dimensi on nita de manera
que
1. Aumentar la dimensi on n no cuesta mucho trabajo (f acilmente automati-
zable).
2. La matriz
_
a (
i
,
j
)
_
1i,jn
tiene el mnimo de coecientes no nulos.
3. No se necesitan muchos c alculos para construir el sistema lineal nal.
8.1.2. Elementos nitos lineales en dimension 1
Volvamos al problema (8.1)
_
u

(x) +c u(x) = f(x), x [0, 1],


u(0) = u(1) = 0,
cuya formulaci on variacional es a(u, v) = l(v), v V
0
, donde
a(u, v) =
_
1
0
(u

+cuv) dx,
l(v) =
_
1
0
fv dx,
V
0
=
_
v : [0, 1] R, v suave, v(0) = v(1) = 0
_
.
Ahora construimos V
n
. Sean n N

y h =
1
n+1
. Partimos el intervalo [0, 1]
por la subdivisi on x
i
= ih, i = 0, . . . , n + 1.
l l l
0=x
0
x =1
n+1
l l l l
x
i
x
1
... ...
Figura 8.2.
Para cada i = 1, . . . , n, denamos la funci on
i
: [0, 1] R como sigue

i
(x) =
_

_
0, x x
i1
,
xxi1
h
, x
i1
x x
i
,
xi+1x
h
, x
i
x x
i+1
,
0, x x
i+1
.
(8.12)
Nota 8.3.
Las funciones
i
, i = 1, . . . , n, son continuas, diferenciables en [0, 1] ex-
cepto en los puntos x
i
, i = 1, . . . , n,. Ademas para todo i = 1, . . . , n,y todo
j = 1, . . . , n,

i
(x
j
) =
ij
.
124 Captulo 8. Elementos nitos
l l l
l
1
x
i-1
x
i+1
x
i
Figura 8.3.
Proposici on 8.1. La familia
i
, i = 1, . . . , n, es linealmente independiente.
Demostracion. Sea la combinaci on lineal
n

i=1

i
= 0. (8.13)
La igualdad (8.13) es funcional, es decir
x [0, 1],
n

i=1

i
(x) = 0,
en particular para los x
j
, j = 1, . . . , n. As
0 =
n

i=1

i
(x
j
) =
j
, j = 1, . . . , n,
es decir la familia
i
, i = 1, . . . , n, es linealmente independiente.
Proposici on 8.2. Para los
i
, i = 1, . . . , n, denidos en (8.12) tenemos a (
i
,
j
) =
0 si [i j[ 2.
Demostracion. Si [i j[ 2, no hay x [0, 1] para el cual
i
(x) ,= 0 y

j
(x) ,= 0. As

i
(x)
j
(x) = 0, x [0, 1].
De la misma manera

i
(x)

j
(x) = 0.
As
a (
i
,
j
) = 0.
8.1. Elementos nitos en dimensi on 1 125
Nota 8.4.
Este resultado signica que la matriz
A =
_
a (
i
,
j
)
_
1i,jn
es tridiagonal.
Calculo de los coecientes de A

i
(x) =
_

_
1/h, x [x
i1
, x
i
],
1/h, x [x
i
, x
i+1
],
0, si no.
As para 1 i n
a (
i
,
i
) =
_
1
0
_

i
_
2
dx +
_
1
0

2
i
dx,
=
_
xi+1
xi1
1
h
2
dx +c
_
xi
xi1
_
x x
i1
h
_
2
dx +c
_
xi+1
xi
_
x
i+1
x
h
_
2
dx,
=
2
h
+
c
h
2
1
3
_
_
(x x
i1
)
3
_
xi
xi1
+
_
(x +x
i+1
)
3
_
xi+1
xi
_
,
=
2
h
+
c
3h
2
_
h
3
+h
3
_
,
=
2
h
+
2ch
3
.
Para 1 i n 1
a (
i
,
i+1
) =
_
1
0

i+1
dx +c
_
1
0

i+1
dx.
Pero los productos

i+1
y
i

i+1
son nulos excepto en [x
i
, x
i+1
]. As
a (
i
,
i+1
) =
_
xi+1
xi

1
h
2
dx +c
_
xi+1
xi
(x x
i
) (x
i+1
x)
h
2
dx,
=
1
h
+
ch
6
.
La simetra de la matriz A implica que
A =
_
_
_
_
_
_
_
_
_
s t 0
t s t
t
.
.
.
.
.
.
.
.
.
.
.
. t
0 t s
_
_
_
_
_
_
_
_
_
,
126 Captulo 8. Elementos nitos
donde
s =
2
h
+
2ch
3
, t =
1
h
+
ch
6
.
Calculo del vector b
b
i
=
_
xi+1
xi1

i
(x)f(x) dx,
que se calcula de manera analtica si f es una funci on sencilla. Si no, se usa
uno de los metodos de integraci on numerica vistos en el captulo 2. El sistema
tridiagonal que resulta se resuelve con un metodo directo o iterativo como los
vistos en los captulos 5, 6 y 7.
Ejemplo 8.2. Resolvamos el ejemplo siguiente con este metodo
u

+ 4u =
_
(16
2
+ 3) sen(4x) 8 cos(4x)

e
x
,
u(0) = u(1) = 0
y sabiendo que la solucion exacta (gura 8.4) es
e
x
sen(4x).
Para examinar la precisi on del metodo resolvemos el problema para varios
valores de n, despues calculamos la norma innita del vector U
n
, solucion del
sistema lineal, que representa los valores de la solucion aproximada u
n
en los
nodos x
i
, i = 1, . . . , n. Comparamos esta norma con la de la solucion exacta U
dada por
U
i
= u(x
i
), i = 1, . . . , n.
Para tener una idea mejor de la aproximacion, calculamos el error relativo dado
por
e
r
=
|U U
n
|

|U|

.
Los resultados
n |U U
n
|

e
r
2 0,13602 0,08064
10 0,00569 0,00252
100 0,00007 0,00003
son aceptables teniendo en cuenta la precisi on lograda y el trabajo que ha cos-
tado.
8.1. Elementos nitos en dimensi on 1 127
2
1
0
1
0.2 0.4 0.6 0.8 1
x
Figura 8.4. La solucion exacta del ejemplo (8.2).
8.1.3. Otros tipos de condiciones de frontera
Miremos variantes del problema (8.1).
Condiciones de frontera de tipo Dirichlet general
_
u

(x) +c u(x) = f(x), x ]0, 1[, (a)


u(0) = , u(1) = . (b)
(8.14)
Se hace, como en el caso anterior, la discretizacion de [0, 1] escogiendo en n N
+
h =
1
n + 1
, x
i
= ih, i = 0, . . . , n + 1.
Las funciones
i
, i = 1, . . . , n, se denen como en (8.12) de la p agina 123 y

0
(x) =
_
hx
h
, 0 x h,
0 h x 1.

n+1
(x) =
_
0, 1 x 1 h,
x1+h
h
1 h x 1.
128 Captulo 8. Elementos nitos
l l l
l
1
h 1-h
f
0
f
n+1
1
. . .
l l l
Figura 8.5.
Busquemos la formulaci on variacional de (8.14). Sea
V
,
=
_
v, v suave y v(0) = , v(1) =
_
.
Multipliquemos la ecuaci on (8.14.a) por un v V e integremos por partes
_
1
0
(u

v +cuv) dx =
_
1
0
fv dx, v V
,
,
_
1
0
u

+cuv dx u

(1)v(1) +u

(0)v(0) =
_
1
0
fv dx,
_
1
0
(u

+cuv) dx u

(1) +u

(0) =
_
1
0
fv dx, v V
,
. (8.15)
Particularmente para v = u, la solucion del problema
_
1
0
(u

+cuu) dx u

(1) +u

(0) =
_
1
0
fv dx, v V. (8.16)
Restando (8.16) de (8.15)
_
1
0
u

(u

) +cu(u v) dx =
_
1
0
f(v u) dx.
Si u, v V
,
u v V
0
. Recordemos que
V
0
=
_
v : [0, 1] R, v suave, v(0) = v(1) = 0
_
.
As,
_
1
0
u

+cuwdx =
_
1
0
fv dx w V
0
,
que se escribe tambien en la forma
a(u, v) = l(v), v V
0
.
8.1. Elementos nitos en dimensi on 1 129
Entonces la formulaci on variacional del problema (8.14) es la misma que cuando
= = 0, si se elige
u
n
=
n+1

i=0

i
,
donde
i
, i = 0, . . . , n es la base de funciones anes por trozos. De la formu-
lacion variacional resulta
n+1

j=0
a
ij

i
= b
i
, i = 0, . . . , n + 1, (8.17)
donde
b
i
=
_
1
0
f
i
dx, i = 0, . . . , n + 1,
a
ij
= a(
i
,
j
), 0 i, j n + 1.
Sabemos que
0
= ,
n+1
= entonces podemos imponer directamente en
(8.17)
a
00
= 1, b
0
= , a
0j
= 0, j = 1, . . . , n + 1,
a
n+1,n+1
= 1, b
n+1
= , a
n+1,j
= 0 j = 1, . . . , n.
y el sistema (8.17) se vuelve
_
_
_
_
_
_
_
_
1 0 0
a
10
a
11
a
1,n+1
.
.
.
a
n0
a
n1
a
n,n+1
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

1
.
.
.

n+1
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_

b
1
.
.
.
b
n

_
_
_
_
_
_
_
_
Nota 8.5.
Este sistema lineal es de dimensi on (n + 2).
Ejemplo 8.3.
u

+ 4u = e
x
_
3 cos(4x) + 8 sen(4x) + 16
2
cos(4x)

,
u(0) = 1, u(1) = e.
La solucion exacta del problema es
u(x) = e
x
cos(4x).
Los resultados obtenidos est an resumidos en la tabla siguiente
n |U U
n
|

e
r
2 0,10125 0,03724
12 0,00920 0,00338
100 0,00012 0,00004
130 Captulo 8. Elementos nitos
Condiciones de frontera de tipo Neumann
Las condiciones de tipo Neumann son las que involucran la derivada de la
funci on buscada en la frontera del dominio, es decir, de la forma
u

(a) = ,
donde a es una extremo del intervalo del problema. Miremos c omo es la formula-
cion variacional del problema cuando tiene este tipo de condiciones de frontera.
Sea el problema
_
u

(x) +c u(x) = f(x), x ]0 1[, (a)


u(0) = 0, u

(1) = . (b)
(8.18)
Aqu la condicion de Neumann est a aplicada solo en el punto x = 1.
Sea
V
Neu
=
_
v : [0, 1] R, suave y v(0) = 0
_
.
Para un v V
Neu
multipliquemos la ecuaci on u

+c u = f por v e integremos
sobre [0, 1].
_
1
0
u

+cuv dx v(1)u

(1) =
_
1
0
fv dx.
Pero u

(1) = . As la formulaci on variacional del problema (8.18) da


a(u, v) = l(v), v V
Neu
,
donde
a(u, v) =
_
1
0
(u

+cuv) dx,
l(v) =
_
1
0
fv dx +v(1).
Nota 8.6.
Lo que cambia en esta formulaci on con respecto al problema con condiciones
de Dirichlet es la funci on l que ahora tiene un termino adicional que involucra
la condicion de Neumann.
Ahora sean
0
,
1
, . . . ,
n
,
n+1
las funciones descritas en (8.15) y (8.16), de
la p agina 128, y (8.12) de la p agina 123. Busquemos la solucion del problema
en la forma
u =
n+1

i=0

i
.
El sistema lineal que resulta es
n+1

j=0
a (
i
,
j
)
j
= l (
i
) , i = 0, . . . , n + 1.
8.2. Elementos nitos en dimensi on 2 131
La matriz que resulta es
_
_
_
_
_
_
_
_
_
0

.
.
.
.
.
.
.
.
.
.
.
.
0
_
_
_
_
_
_
_
_
_
.
Como para todo
i
, i = 0, . . . , n,

i
(1) = 0
y

n+1
(1) = 1.
l =
_

_
_
1
0

i
f dx, i = 0, . . . , n,
+
_
1
0

n+1
f dx, i = n + 1.
Ejemplo 8.4.
_
u

+u = [144 sen(12x) 24 cos(12x)] e


x
, x ]0 1[,
u(0) = 0, u

(1) = 26,06743.
Cuya solucion exacta (gura 8.6) es
u(x) = e
x
sen(12x).
Los resultados se resumen en la tabla siguiente
n |U U
n
|

e
r
2 0,22448 0,11649
10 0,14747 0,00596
100 0,00016 0,00006
8.2. Elementos nitos en dimension 2
8.2.1. Preliminares de calculo vectorial
Primera formula de Green
Dados un dominio acotado R
n
de frontera suave y un campo vecto-
rial suave F : R
n
, tenemos
_

Fnds =
_

div F dx,
132 Captulo 8. Elementos nitos
2
1
0
1
2
0.2 0.4 0.6 0.8 1
x
Figura 8.6. La solucion exacta del ejemplo (8.4).
donde n es la normal unitaria saliente de que, evidentemente, depende de s
y
div F =
n

i=1
F
i
x
i
.
Nota 8.7.
En esta secci on, x denota una variable general de y s la variable curvilnea
de la frontera .
Segunda formula de Green
Sean u, v dos campos escalares y suaves. Denotemos u el gradiente de u
denido por
u =
_
u
x
1
,
u
x
2
, . . . ,
u
x
n
_
t
.
El campo vu : R
n
es suave de modo que se le puede aplicar la primera
formula de Green, es decir
_

div(vu) dx =
_

vu nds.
8.2. Elementos nitos en dimensi on 2 133
Pero
div(vu) = uv +vu
donde u es el operador laplaciano denido por
u =

2
u
x
2
+

2
u
y
2
.
As
_

uv dx +
_

vudx =
_

vu nds
o tambien

vu dx =
_

uv dx
_

vu nds. (8.19)
La ecuaci on (8.19) se llama segunda formula de Green o, sencillamente, formula
de Green.
8.2.2. Problema modelo
Como en el caso monodimensional, vamos a ver los diferentes pasos a seguir
en elementos nitos a traves de un ejemplo modelo.
Sean un dominio del plano con frontera suave, c una constante positiva
y f : R una funci on dada. Nuestro problema es buscar u : R tal que
_
u(x, y) +cu(x, y) = f(x.y) en , (a)
u = 0 en . (b)
(8.20)
El problema (8.20) es un problema de frontera. La condicion (8.20.b) se llama
condicion de frontera de tipo Dirichlet.
Formulacion variacional del problema (8.20)
Consideremos el espacio vectorial
V
0
=
_
v : R suave tal que v = 0 en
_
.
Sea v V
0
arbitrario. Multipliquemos la ecuaci on (8.20.a) por v e integremos
sobre . Obtenemos
_

u v dx +c
_

uv dx =
_

fv dx, v V
0
.
Utilizando la formula de Green, obtenemos
_

uv dx
_

vu nds +
_

cuv dx =
_

fv dx.
134 Captulo 8. Elementos nitos
Pero v = 0 en . As
_

(uv +cuv) dx =
_

fv dx, v V
0
. (8.21)
La ecuaci on (8.21) se llama formulaci on variacional del problema (8.20) y se
escribe tambien en la forma
a(u, v) = l(v), v V
0
(8.22)
donde
a(u, v) =
_

(uv +cuv) dx
y
l(v) =
_

fv dx.
Nota 8.8.
Igual que en el caso de dimensi on 1, a es una forma bilineal simetrica sobre
V
0
y l es una forma lineal sobre V
0
.
Sea V
n
un subespacio vectorial de V
0
de dimensi on nita. Vamos a buscar
una solucion u
n
dentro de V
n
que aproxime u. Para eso, sean
1
,
2
, . . . ,
n
,
n funciones linealmente independientes de V
0
y denotemos V
n
al subespacio de
V
0
generado por estas funciones. Busquemos u
n
en la forma
u
n
=
n

n=1

i
donde
1
, . . . ,
n
son escalares a ser hallados. De la formulaci on variacional
(8.22) y variando v =
i
, i = 1, . . . , n, tenemos
n

i=1
a(
i
,
j
)
j
= l(
i
), i = 1, . . . , n
que constituye un sistema lineal
Ax = b
donde
A
ij
= a(
i
,
j
), i, j = 1, . . . , n
y
b
i
= l(
i
), i = 1, . . . , n.
8.2. Elementos nitos en dimensi on 2 135
Construccion de los espacios V
n
La construcci on de los espacios V
n
se realiza con las siguientes consideracio-
nes:
1. El proceso de hallar la base no es muy costoso.
2. La matriz que resulta tiene el mnimo de coecientes no nulos.
3. El c alculo de los coecientes a(
i
,
j
), l(
i
) es relativamente facil.
Denicion 8.2. El soporte de una funci on h : R es la clausura del conjunto
x ; h(x) ,= 0 que denotamos soph.
Discretizacion del dominio
Una manera de conseguir que la matriz del sistema lineal que resulta sea
dispersa, es decir con un n umero alto de coecientes nulos, es escoger las funcio-
nes de base con soportes reducidos en el dominio . As, si dos funciones
i
,
j
tienen soportes disyuntos, el coeciente A
ij
es necesariamente nulo. Es por esta
raz on que partimos , el dominio geometrico del problema, en subdominios de
formas geometricas facilmente manejables (triangulos, rectangulos, . . . ).
Denicion 8.3. Una discretizacion del dominio R
2
es la partici on del
dominio en subdominios E
k
, k = 1, . . . , N
e
, tal que
Ne
_
k=1
E
k
= .
Para todo i, j = 1, . . . , N
e
, la interseccion E
i
E
j
es vaca, un punto o un
segmento. Los subdominios E
k
, k = 1, . . . , N
e
, se llaman elementos y sus vertices
P
i
, de coordenadas (x
i
, y
i
), i = 1, . . . , N, nodos.
8.2.3. Elemento nito lineal: triangulo con 3 nodos
Para este caso se discretiza en triangulos como lo muestra la gura (8.7).
Figura 8.7.
136 Captulo 8. Elementos nitos
Nota 8.9.
Si el dominio no es un polgono se hace una discretizacion de la frontera
de manera que se aproxime a un polgono como se ve en la gura (8.7). En otras
palabras, se desprecian los trozos que exceden al polgono.
A cada nodo P
i
, i = 1, . . . , N, se le asocia una funci on
i
tal que

i
(x
j
, y
j
) =
ij
, i, j = 1, . . . , N
y
i
es de graca plana sobre cada triangulo de la discretizacion.
Figura 8.8.
Nota 8.10.
Para este elemento nito el soporte sop(
i
) de
i
es la union de todos los
triangulos que tienen el nodo (x
i
, y
i
) como vertice (que podemos ver tambien
como el piso de la carpa en la gura 8.8).
Calculo de la matriz del sistema (matriz de rigidez)
Intuitivamente, uno calculara el coeciente
A
ij
=
_

j
+c
i

j
dx
de manera directa variando i y j de 1 hasta N pero esta tecnica de calcular los
coecientes de A uno tras otro tiene desventajas:
a) Las funciones
i
cambian de expresion sobre cada triangulo.
b) El n umero de triangulos en la interseccion de los soportes no es siempre
constante como se ve en el ejemplo de la gura (8.9).
sop(
1
) sop(
2
) = T
1
sop(
2
) sop(
3
) = T
2
T
3
As la sistematizacion de los c alculos no es facil. Para evitar estos problemas se
trabaja con la estrategia elemento por elemento. La idea del metodo se basa en
8.2. Elementos nitos en dimensi on 2 137
T
1
T
2
T
3
1 2
3
Figura 8.9.
la formulaci on variacional. Sabemos que
a(
i
,
j
) =
_

j
+c
i

j
dx,
a(
i
,
j
) =

T
k
T
_
T
k

j
+c
i

j
dx,
donde T es el conjunto de los elementos (triangulos en este caso) de la discreti-
zacion. As
a(
i
,
j
) =

T
k
T
a
k
(
i
,
j
)
con
a
k
(
i
,
j
) =
_
T
k

j
+c
i

j
dx.
Denicion 8.4. La matriz A
k
R
33
denida por
A
k
ij
= a
k
(
i
,
j
)
se llama matriz elemental asociada al elemento T
k
.
El n umero a
k
(
i
,
j
) se puede ver como la participacion del elemento T
k
en
el coeciente a(
i
,
j
). La ventaja de trabajar con los a
k
(
i
,
j
) es que permite
automatizar la computacion de manera sencilla debido a que cada triangulo T
k
tiene exactamente 3 funciones
k1
,
k2
,
k3
, no nulas en el. Esta automatizaci on
se hace de la manera siguiente:
Se recorren los triangulos uno a uno. Sea T
k
un triangulo de vertices (x
k1
, y
k1
),
(x
k2
, y
k2
) y (x
k3
, y
k3
). Las tres funciones
k1
,
k2
,
k3
son las restricciones al
triangulo T
k
asociadas a sus vertices. Como estas restricciones son de tipo
ax + by + c entonces encontrar
k1
,
k2
,
k3
se reduce a calcular los 9 coe-
cientes
a
ki
, b
ki
, c
ki
, i = 1, 2, 3,
138 Captulo 8. Elementos nitos
de las funciones

ki
(x, y) = a
ki
x +b
ki
y +c
ki
, i = 1, 2, 3.
Pero dado que

i
(x
j
, y
j
) =
ij
,
el problema se reduce entonces a invertir la matriz
E
k
=
_

_
x
k1
y
k1
1
x
k2
y
k2
1
x
k3
y
k3
1
_

_.
As
E
1
k
=
_

_
a
k1
a
k2
a
k3
b
k1
b
k2
b
k3
c
k1
c
k2
c
k3
_

_.
Nota 8.11.
Un simple c alculo muestra que
E
1
k
=
1
2 [T
k
[
_

_
y
k2
y
k3
y
k3
y
k1
y
k1
y
k2
x
k3
x
k2
x
k1
x
k3
x
k2
x
k1
x
k2
y
k3
x
k3
y
k2
x
k3
y
k1
x
k1
y
k3
x
k1
y
k2
x
k2
y
k1
_

_.
Nota 8.12.
Notemos que el determinante de la matriz E
1
k
es 2 [T
k
[ donde [T
k
[ es el area
de T
k
.
Ahora el c alculo de los coecientes a
k
(
i
,
j
) de la matriz elemental se vuelve
muy sencillo. Tenemos

ki
(x, y) = (a
ki
, b
ki
)
t
.
As
a
k
(
i
,
j
) =
_
T
k
a
ki
a
kj
+b
ki
b
kj
dx +c
_
T
k

ki
(x, y)
kj
(x, y) dx,
a
k
(
i
,
j
) = [T
k
[
_
a
ki
a
kj
+b
ki
b
kj
_
+c
_
T
k

ki
(x, y)
kj
(x, y) dx.
Enumeraci on de nodos
Hasta ahora nos hemos referido a los nodos P
i
, de coordenadas (x
i
, y
i
),
i = 1, . . . , N, list andolos sin mas detalles. Implcitamente, estamos haciendo una
enumeraci on de los nodos. La importancia de este concepto es que en la matriz
del sistema lineal un coeciente a
ij
es nulo si la interseccion sop(
i
) sop(
j
)
es vaca. Es decir que dos funciones asociadas a dos nodos i, j geometricamente
8.2. Elementos nitos en dimensi on 2 139
alejados dan lugar, generalmente, a un coeciente nulo. M as precisamente, es-
tamos seguros de que si i, j no son nodos del mismo triangulo, necesariamente
a
ij
= 0. Considerando estos aspectos, es importante hacer una enumeraci on de
nodos de manera que la matriz tenga un ancho de banda mnimo.
Para entender este concepto, presentamos en el ejemplo a continuacion dos
enumeraciones diferentes para una misma discretizacion.
Ejemplo 8.5. En este ejemplo, los coecientes no nulos de la matriz se denotan
con una caja . Las casillas vacas corresponden a los coecientes nulos de la
matriz.
1 2 3 4
9 10 11 12
5 6 7 8
Figura 8.10. Enumeraci on 1 del ejemplo (8.5).
1 2 3 4 5 6 7 8 9 10 11 12
1

2

3

4

5

6

7

8

9

10

11

12

Tabla 8.1. Estructura de la matriz de la Enumeraci on 1 del ejemplo (8.5).
140 Captulo 8. Elementos nitos
1 10 5 8
9 3 4 2
7 12 11 6
Figura 8.11. Enumeraci on 2 del ejemplo (8.5).
1 2 3 4 5 6 7 8 9 10 11 12
1

2

3

4

5

6

7

8

9

10

11

12

Tabla 8.2. Estructura de la matriz de la Enumeraci on 2 del ejemplo (8.5).
Buena enumeraci on, mala enumeraci on
Como se ve en el ejemplo (8.5), la estructura de la matriz en terminos de
la distribuci on de ceros est a estrechamente ligada a la manera de enumerar los
nodos. Tomando como criterio el ancho de la banda de la matriz, una buena
enumeraci on es la que minimiza max [i j[, donde i y j son vertices del mismo
triangulo. Es muy complejo resolver este problema de optimizacion para una
discretizacion dada.
8.2. Elementos nitos en dimensi on 2 141
Tabla de conexiones
La tecnica de trabajar elemento por elemento exige que asociemos a ca-
da elemento los nodos que constituyen sus vertices. La tabla que agrupa esta
informacion de llama tabla de conexiones.
Para facilitar la tarea de crear la tabla de conexiones, es importante iden-
ticar cada elemento. Es por eso que tambien se enumeran los elementos de 1
hasta N
e
.
Nota 8.13.
Contrariamente a la enumeraci on de los nodos, la enumeraci on de los ele-
mentos no tiene incidencia alguna sobre la estructura de la matriz ni sobre el
proceso numerico.
Ilustremos con un ejemplo la tabla de conexiones
Ejemplo 8.6. En la discretizacion de este ejemplo (gura 8.12), los n umeros
de elemento est an en un crculo para diferenciarlos de los n umeros de nodo.
1
2 3
8
4
5
6
7
9
10
10
9
8
7
6
5
4
3
2
1
Figura 8.12. Discretizacion del ejemplo (8.6).
N umero del elemento Sus nodos
1 1 2 4
2 2 3 4
3 4 3 8
4 4 8 7
5 4 7 5
6 1 4 5
7 5 6 7
8 6 7 10
9 7 9 10
10 7 8 9
Tabla 8.3. Tabla de conexiones del ejemplo (8.6).
142 Captulo 8. Elementos nitos
Nota 8.14.
No es importante el orden en que se listan los nodos asociados a un elemento
dado en la tabla de conexiones.
Ensamblaje de la Matriz A
Resumiendo lo que hemos hecho para calcular los coecientes de la matriz
A, usando la tecnica elemento por elemento construir la matriz A es volver a
armarla a partir de las matrices elementales dadas en la denicion (8.4) de la
p agina 137. Este proceso se llama ensamblaje de la matriz.
Ejemplo 8.7. Ejemplo sencillo de ensamblaje de la matriz
La discretizacion de este ejemplo est a dada por la gura (8.13). La matriz
A R
44
del sistema lineal se inicializa con ceros
A
ij
= 0, i, j = 1, . . . , 4.
1
2
3
4
2 1
Figura 8.13. Discretizacion del ejemplo (8.7).
Nodos x, y
1 x
1
, y
1
2 x
2
, y
2
3 x
3
, y
3
4 x
4
, y
4
Elemento Sus nodos
1 1 2 3
2 2 3 4
Tabla 8.4. Tablas de coordenadas y conexiones del ejemplo (8.7).
Para el elemento 1, tenemos
E
1
=
_

_
x
1
y
1
1
x
2
y
2
1
x
3
y
3
1
_

_
y
E
1
1
=
_

_
a
(1)
1
a
(1)
2
a
(1)
3
b
(1)
1
b
(1)
2
b
(1)
3
c
(1)
1
c
(1)
2
c
(1)
3
_

_
.
8.2. Elementos nitos en dimensi on 2 143
Ahora calculemos los coecientes de la matriz elemental A
(1)
R
33
, que co-
rresponde al elemento 1.
A
(1)
ij
=
_
T1
_
a
(1)
i
a
(1)
j
+b
(1)
i
b
(1)
j
_
dx
+c
_
T1
_
a
(1)
i
x +b
(1)
i
y +c
(1)
i
__
a
(1)
j
x +b
(1)
j
y +c
(1)
j
_
dx, i, j = 1, 2, 3.
Despues de eso empecemos a ensamblar la matriz A con la matriz elemental
calculada para el elemento 1.
A
(1)
=
_

_
A
(1)
11
A
(1)
12
A
(1)
13
0
A
(1)
21
A
(1)
22
A
(1)
23
0
A
(1)
31
A
(1)
32
A
(1)
33
0
0 0 0 0
_

_
.
Ahora, pasando al elemento siguiente que es el elemento 2, de la tabla de cone-
xiones tenemos
E
2
=
_

_
x
2
y
2
1
x
3
y
3
1
x
4
y
4
1
_

_
y
E
1
2
=
_

_
a
(2)
1
a
(2)
2
a
(2)
3
b
(2)
1
b
(2)
2
b
(2)
3
c
(2)
1
c
(2)
2
c
(2)
3
_

_
.
Nota 8.15.
El ndice en los coecientes es 2 porque la matriz es la asociada al elemento 2.
De la misma manera que para el elemento 1, calculamos la matriz elemental
A
(2)
correspondiente al elemento 2.
A
(2)
ij
=
_
T2
_
a
(2)
i
a
(2)
j
+b
(2)
i
b
(2)
j
_
dx
+c
_
T2
_
a
(2)
i
x +b
(2)
i
y +c
(2)
i
__
a
(2)
j
x +b
(2)
j
y +c
(2)
j
_
dx, i, j = 1, 2, 3.
Como
a
ij
=

k
a
(k)
ij
,
144 Captulo 8. Elementos nitos
donde la suma se hace sobre todos los elementos k comunes entre los soportes
de las funciones
i
,
j
, entonces el ensamblaje del elemento 2 en la matriz A le
da la forma
A =
_

_
A
(1)
11
A
(1)
12
A
(1)
13
0
A
(1)
21
A
(1)
22
+A
(2)
11
A
(1)
23
+A
(2)
12
A
(2)
13
A
(1)
31
A
(1)
32
+A
(2)
21
A
(1)
33
+A
(2)
22
A
(2)
23
0 A
(2)
31
A
(2)
32
A
(2)
33
_

_
.
Calculo del segundo miembro del sistema Ax = b
Sabemos que
b
i
=
_

i
f dx,
o tambien
b
i
=
_
sop(i)

i
f dx.
Esta forma de escribir b
i
, i = 1, . . . , n, nos sugiere, como en el caso de la matriz
A, trabajar elemento por elemento y hacer un ensamblaje. As, para cada ele-
mento k, se buscan en la tabla de conexiones los nodos k
1
, k
2
, k
3
que lo forman
y se calcula el vector elemental b
(k)
R
3
denido por
b
(k)
i
=
_
T
k
f
i
dx, i = 1, 2, 3.
Ejemplo 8.8. Para el ejemplo (8.7) de la p agina 142, el vector F R
4
tiene la
forma
F =
_

_
b
(1)
1
b
(1)
2
+ b
(2)
1
b
(1)
3
+ b
(2)
2
b
(2)
3
_

_
.
Integracion de las condiciones de frontera de tipo Dirichlet
Normalmente, los n nodos de la discretizacion incluyen los nodos que est an
en la frontera. La combinaci on de la nota (8.10) de la p agina 136 y la condicion
de frontera u(x, y) = 0 en indica que
i
= 0 para todos los nodos i de la
frontera.
As, en el sistema lineal que resulta del ensamblaje A = b hay que forzar
las inc ognitas
i
que corresponden a los nodos de la frontera a tomar el valor 0.
8.2. Elementos nitos en dimensi on 2 145
Una manera de hacer eso es el proceso siguiente. Para todo nodo i de la frontera
hacer
_

_
a
ii
= 1,
a
ij
= 0, i ,= j,
b
i
= 0.
Si las condiciones de frontera son de tipo Dirichlet pero no homogeneas,
es decir si son de la forma u(x, y) = g(x, y), entonces se procede de la misma
manera que en el caso anterior con los siguientes cambios. Si i es un nodo
sometido a esta condicion de frontera entonces el sistema lineal cambia de la
forma
_

_
a
ii
= 1,
a
ij
= 0, i ,= j,
b
i
= g(x
i
, y
i
).
Ejemplo 8.9. Ejemplo detallado
Sea = [0 1] [0 1]. Consideramos el problema u(x, y) = 26 en con
las condiciones de frontera
A B
C D
Figura 8.14.
u =
_

_
3x
2
x, en el segmento [A B],
3 + 10y
2
1, en el segmento [B D],
3x
2
2x + 11, en el segmento [D C] y
10y
2
+y, en el segmento [C A].
La solucion exacta de este problema es
u(x, y) = 3x
2
+ 10y
2
xy x +y.
Realizamos la discretizacion (gura 8.15) con las siguientes caractersticas:
Tipo de elemento Tri angulo con 3 nodos
N umero de nodos 16
N umero de elementos 18
La tabla (8.5.1) es la tabla de coordenadas. La primera columna es el n umero
del nodo y la segunda sus coordenadas. La tabla (8.5.2) es la tabla de conexiones.
146 Captulo 8. Elementos nitos
2
1
4
3
6
5
8
7
10
9
12
11
14
13
16
15
18
17
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Figura 8.15. Discretizacion
Nota 8.16.
Es una redundancia poner la primera columna en estas tablas pero por ra-
zones de legibilidad se incluye en este ejemplo.
A continuacion veremos c omo se llenan la matriz A R
1616
y el vector b
del sistema lineal a medida que los elementos se recorren uno a uno.
Para el elemento 1
A =
_

_
1
2

1
2
0 0 0 0 0 0 0 0 0 0 0 0 0 0

1
2
1 0 0 0
1
2
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0
1
2
0 0 0
1
2
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
_

_
y
b
t
=
_

13
27
,
13
27
, 0, 0, 0,
13
27
, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0

.
8.2. Elementos nitos en dimensi on 2 147
Nodos x, y
1 0,0
2 0,
1
3
3 0,
2
3
4 0,1
5
1
3
,0
6
1
3
,
1
3
7
1
3
,
2
3
8
1
3
,1
9
2
3
,0
10
2
3
,
1
3
11
2
3
,
2
3
12
2
3
,1
13 1,0
14 1,
1
3
15 1,
2
3
16 1,1
Elemento Sus nodos
1 1 2 6
2 1 6 5
3 2 3 7
4 2 7 6
5 3 4 8
6 3 8 7
7 5 6 10
8 5 10 9
9 6 7 11
10 6 11 10
11 7 8 12
12 7 12 11
13 9 10 14
14 9 14 13
15 10 11 15
16 10 15 14
17 11 12 16
18 11 16 15
Tabla 8.5. Tablas de coordenadas y conexiones
Para el elemento 2
A =
_

_
1
1
2
0 0
1
2
0 0 0 0 0 0 0 0 0 0 0

1
2
1 0 0 0
1
2
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

1
2
0 0 0 1
1
2
0 0 0 0 0 0 0 0 0 0
0
1
2
0 0
1
2
1 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
_

_
148 Captulo 8. Elementos nitos
y
b
t
=
_

26
27
,
13
27
, 0, 0,
13
27
,
26
27
, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0

.
Finalmente, para el elemento 18
A =
_

_
1
1
2
0 0
1
2
0 0 0 0 0 0 0 0 0 0 0

1
2
2
1
2
0 0 1 0 0 0 0 0 0 0 0 0 0
0
1
2
2
1
2
0 0 1 0 0 0 0 0 0 0 0 0
0 0
1
2
1 0 0 0
1
2
0 0 0 0 0 0 0 0

1
2
0 0 0 2 1 0 0
1
2
0 0 0 0 0 0 0
0 1 0 0 1 4 1 0 0 1 0 0 0 0 0 0
0 0 1 0 0 1 4 1 0 0 1 0 0 0 0 0
0 0 0
1
2
0 0 1 2 0 0 0
1
2
0 0 0 0
0 0 0 0
1
2
0 0 0 2 1 0 0
1
2
0 0 0
0 0 0 0 0 1 0 0 1 4 1 0 0 1 0 0
0 0 0 0 0 0 1 0 0 1 4 1 0 0 1 0
0 0 0 0 0 0 0
1
2
0 0 1 2 0 0 0
1
2
0 0 0 0 0 0 0 0
1
2
0 0 0 1
1
2
0 0
0 0 0 0 0 0 0 0 0 1 0 0
1
2
2
1
2
0
0 0 0 0 0 0 0 0 0 0 1 0 0
1
2
2
1
2
0 0 0 0 0 0 0 0 0 0 0
1
2
0 0
1
2
1
_

_
y
b
t
=
_

26
27
,
13
9
,
13
9
,
13
27
,
13
9
,
26
9
,
26
9
,
13
9
,
13
9
,
26
9
,
26
9
,
13
9
,
13
27
,
13
9
,
13
9
,
26
27

.
La tabla siguiente da los nodos de la frontera (no hay un orden).
1 2 3 4 5 8 9 12 13 14 15 16
8.2. Elementos nitos en dimensi on 2 149
La aplicacion de las condiciones de frontera a estos nodos da el sistema lineal
A =
_

_
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0
0 1 0 0 1 4 1 0 0 1 0 0 0 0 0 0
0 0 1 0 0 1 4 1 0 0 1 0 0 0 0 0
0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0 1 4 1 0 0 1 0 0
0 0 0 0 0 0 1 0 0 1 4 1 0 0 1 0
0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1
_

_
,
F
t
=
_
0,
13
9
,
46
9
, 11, 0,
26
9
,
26
9
,
32
3
,
2
3
,
26
9
,
26
9
, 11, 2,
28
9
,
58
9
, 12

,
cuya solucion es
_
0,
13
9
,
46
9
, 11, 0,
4
3
,
44
9
,
32
3
,
2
3
,
17
9
,
16
3
, 11, 2,
28
9
,
58
9
, 12

t
.
La solucion exacta en los nodos es
_
0,
13
9
,
46
9
, 11, 0,
4
3
,
44
9
,
32
3
,
2
3
,
17
9
,
16
3
, 11, 2,
28
9
,
58
9
, 12

t
,
lo que da un error
_
0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0

t
.
150
Bibliografa
[1] Richard L. Burden and J. Douglas Faires. An alisis numerico, 7a. ed. Thom-
son Learning, 2002.
[2] Philippe G. Ciarlet. Introduction ` a lanalyse numerique matricielle et ` a
loptimisation. MASSON, 1990.
[3] Philippe G. Ciarlet and Jacques-Louis Lions, editors. Handbook of nume-
rical analysis, Vol. 1, P.1. North-Holland, 1990.
[4] Philippe G. Ciarlet, B. Miara, and Jean-Marie Thomas. Excercices
danalyse numerique matricielle et doptimisation avec solutions, 2`e ed.
MASSON, 1987.
[5] Michel Crouzeix and Alain L. Mignot. Exercices danalyse numerique des
equations dierentielles. MASSON, 1993.
[6] Michel Crouziex and Alain L. Mignot. Analyse numerique des equations
dierentielles, 2`e ed. rev. et augm. MASSON, 1992.
[7] Robert Dautray and Jacques-Louis Lions. Analyse mathematique et calcul
numerique, Vol. 3. MASSON, 1987.
[8] Saber Elaydi. An introduction to dierence equations. Springer, 1999.
[9] Daniel Euvrard. Resolution numerique des equations aux derivees partielles
: de la physique, de la mecanique et des sciences de lingenieur : dierences
nies, elements nis, probl`emes en domaine non borne. MASSON, 1994.
[10] Anne Greenbaum. Iterative methods for solving linear systems. SIAM,
1997.
[11] Kenneth Homan and Ray Kunze.

Algebra lineal. Prentice-Hall Hispanoa-
mericana, S.A., 1973.
[12] Hayrettin Kardestuncer, Douglas H. Norrie, and F. Brezzi, editors. Finite
element handbook. McGraw-Hill, 1987.
[13] Young W. Kwon and Hyochoong Bang. The nite element method using
MATLAB. CRC Press, 1997.
151
152
[14] P. Lascaux and R. Theodor. Analyse numerique matricielle appliquee ` a
lart de lingenieur, Vol. 2, 2`e ed. refondue. MASSON, 1994.
[15] M. J. D. Powell. Approximation theory and methods. Cambridge University
Press, 1981.
[16] Pierre Arnaut Raviart and J. M. Thomas. Introduction ` a lanalyse numeri-
que des equations aux derivees partielles. MASSON, 1983.
[17] Michael Renardy and Robert C. Rogers. An introduction to partial die-
rential equations. Springer-Verlag, 1993.
[18] Michelle Schatzman. Analyse numerique. MASSON/InterEditions, 1991.
[19] A. H. Stroud. Approximate calculation of multiple integrals. Prentice-Hall,
1971.

Indice alfabetico
A-conjugados, 99
Adjunta de una matriz, 29
Alternada, 33
Aproximacion
por rectangulos, 18
por trapezoides, 19
Ascenso, 67
CauchySchwarz
Desigualdad de, 55
Chebyshev
Interpolaci on en los puntos de, 10
Cociente de Rayleigh, 51
Cofactores, 35
Condiciones de frontera
Dirichlet homogenea, 109
Neumann, 120
Conexiones, 131
Consistente, 82
Cuadratura numerica, 15
Descenso, 95
Descensos A-conjugados, 99
Descomposicion, 73
Descomposicion regular, 83
Desigualdad
de CauchySchwarz, 55
de H older, 55
Determinantes, 33
Diagonalizable, 38
Dirichlet
Condiciones de frontera, 109
Discretizacion, 125
Elementos nitos, 109
lineales, 113, 125
Elementos propios de una matriz, 37
espectro, 37
radio espectral, 38
valor propio, 37
vector propio, 37
Eliminacion
de Gauss, 68
Ensamblaje, 132
Enumeraci on, 128
Espectro, 37
Formula de Green
primera, 121
segunda, 122
Formulaci on variacional, 110, 123
Funci on
de base, 110
interpolante, 2
multilineal, 33
alternada, 33
Gauss
Eliminacion de, 68
GaussSeidel
Metodo de, 84
Gradiente, 98
Gradiente conjugado, 102
GramSchmidt
Ortogonalizacion de, 22
Green
primera formula de, 121
segunda formula de, 122
H older
153
154
Desigualdad de, 55
Hermite
Interpolaci on de, 5
matriz hermitiana, 29
cociente de Rayleigh, 51
denida positiva, 44
raz cuadrada, 50
semidenida positiva, 44
Integraci on numerica, 15
Interpolaci on
cuadratica, 19
de Hermite, 5
de Lagrange, 2
en los puntos de Chebyshev, 10
Existencia y unicidad del polino-
mio de, 3
Interpolante, 2
Jacobi
Metodo de, 83
Lagrange
Interpolaci on de, 2
Polinomios de, 3
LU, 73
Metodos del gradiente
descensos A-conjugados, 99
gradiente, 98, 99
gradiente conjudado, 102
Metodos iterativos, 81
de GaussSeidel, 84
de Jacobi, 83
relajaci on (SOR), 84
Matriz
adjunta, 29
aumentada, 69
con diagonal estrictamente domi-
nante, 30
de cofactores, 35
de permutacion, 31
de rigidez, 126
diagonal, 27
diagonalizable, 38
directamente Gaussreducible, 71
elemental, 127
Elementos propios, 37
espectro, 37
radio espectral, 38
valor propio, 37
vector propio, 37
hermitiana, 29
cociente de Rayleigh, 51
denida positiva, 44
raz cuadrada, 50
semidenida positiva, 44
normal, 48
ortogonal, 30
semejante
ortogonalmente, 48
unitariamente, 48
simetrica, 29
tipo L
(k)
, 73
transpuesta, 29
triangular inferior, 27
triangular superior, 27
unitaria, 30
Multilineal, 33
Multiplicidad, 5
Neumann
Condiciones de frontera, 120
Norma, 41
de Schur, 57
equivalencia, 63
matricial, 55
multiplicativa, 60
vectorial, 53
Notacion por bloques, 27

Optimo local, 96
Optimizaci on, 93
Ortigonalizacion
de GramSchmidt, 22
Ortogonalidad
matrices, 30
vectores, 41
Permutacion, 31
Matriz de, 31
Polinomios
8.2. Elementos nitos en dimensi on 2 155
de interpolaci on, 3
de Lagrange, 3
multiplicidad de races, 5
Producto escalar, 41
Radio espectral, 38
Rayleigh
Cociente de, 51
Regular splitting, 83
Relajaci on, 84
Runge, 9
Schur
Norma de, 57
Soporte, 125
SOR, 84
Suave, 109
Sucesi on
de matrices, 65
de vectores, 62
minimizante, 94
Transpuesta de una matriz, 29
Valor propio, 37
Vectores
ortogonales, 41
propios, 37
Sucesi on de, 62

You might also like