You are on page 1of 186

CURSO DE

lgebra Linear Aplicada


Antonio Cndido Faleiros
Centro de Matemtica, Computao e Cognio
Universidade Federal do ABC
Santo Andr, SP
6 de abril de 2009
Sumrio
1 Equaes lineares 1
1.1 Equao algbrica linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Sistemas de equaes algbricas lineares . . . . . . . . . . . . . . . . . . . 4
1.4 Sistema escalonado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Sistema inferiormente escalonado . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 O mtodo da eliminao de Gauss . . . . . . . . . . . . . . . . . . . . . . . 11
1.8 Matrizes inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9 Matrizes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.10 Clculo da inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.11 Fatorao LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.12 Decomposio PLU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.13 Decomposio de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Espao vetorial 33
2.1 Conceito de espao vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Dependncia linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Base e dimenso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4 Matriz de mudana de base . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.5 Subespao vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.6 Subespao gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3 Transformao linear 49
3.1 Matriz de uma transformao linear . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Isomorsmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3 Transformaes lineares em C
m1
. . . . . . . . . . . . . . . . . . . . . . . 60
4 Produto interno e norma 61
4.1 Produto interno em espaos vetoriais reais . . . . . . . . . . . . . . . . . . 61
4.2 Produto interno em espaos vetoriais complexos . . . . . . . . . . . . . . . 62
4.3 Funcional linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
i
ii Notas de aula do Prof. Antonio Cndido Faleiros
4.5 Ortogonalizao de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 68
4.6 Decomposio QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5 Soma de subespaos 77
5.1 Soma direta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.2 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6 Transformao adjunta 81
6.1 Posto de uma transformao linear . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Existncia de soluo dos sistemas lineares . . . . . . . . . . . . . . . . . . 87
7 Projetores 89
7.1 Projetores ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Projetores ortogonais em C
m1
. . . . . . . . . . . . . . . . . . . . . . . . 92
7.3 Ortogonalizao de Gram-Schmidt em C
m1
. . . . . . . . . . . . . . . . . 94
7.4 Ortogonalizao modicada de Gram-Schmidt . . . . . . . . . . . . . . . . 95
7.5 Contagem das operaes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8 Reetor de Householder 99
8.1 Decomposio QR usando o reetor de Householder . . . . . . . . . . . . . 101
8.2 O algoritmo para calcular R . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.3 Contagem das operaes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8.4 O algoritmo para calcular Q

. . . . . . . . . . . . . . . . . . . . . . . . . 104
8.5 O algoritmo para calcular Q . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9 Mnimos quadrados 107
9.1 Mnimos quadrados e a decomposio QR . . . . . . . . . . . . . . . . . . 109
9.2 Pseudo inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
9.3 Reta de regresso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
9.4 Interpolao polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
9.5 Ajuste polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
9.6 Aproximao polinomial de funes . . . . . . . . . . . . . . . . . . . . . . 112
9.7 Aproximao trigonomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10 Autovalores e autovetores 115
11 Espaos Invariantes 123
11.1 Polinmio mnimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.2 Matrizes em bloco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
11.3 Decomposio primria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.4 Diagonalizao de operadores normais . . . . . . . . . . . . . . . . . . . . . 135
11.5 Decomposio de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
11.6 Decomposio em valores singulares . . . . . . . . . . . . . . . . . . . . . . 141
Notas de aula do Prof. Antonio Cndido Faleiros iii
12 Forma cannica de Jordan 147
12.1 Operadores nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
12.2 Forma cannica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
12.3 Subespaos cclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
12.4 Forma cannica racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
12.5 Forma triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
12.6 Espaos quocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
13 Aplicaes 159
A Matrizes 161
A.1 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
A.2 Multiplicao de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
A.3 Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
A.4 Operaes elementares e matrizes elementares . . . . . . . . . . . . . . . . 166
B Determinante 169
B.1 Permutao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
B.2 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
B.3 Cofator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
B.4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
B.5 Determinante de Vandermonde . . . . . . . . . . . . . . . . . . . . . . . . 178
B.6 Determinante, uma denio alternativa . . . . . . . . . . . . . . . . . . . 179
iv Notas de aula do Prof. Antonio Cndido Faleiros
Captulo 1
Equaes lineares
1.1 Equao algbrica linear
Uma equao algbrica linear tpica nas variveis x
1
, x
2
e x
3

x
1
+ 2x
2
3x
3
= 5.
Resolv-la signica determinar todos os valores reais para x
1
, x
2
e x
3
que tornam ver-
dadeira a igualdade. Neste caso, explicitando x
1
em relao a x
2
e x
3
na equao, obte-
mos x
1
= 5 2x
2
+ 3x
3
. Para qualquer x
2
e x
3
reais, basta tomar x
1
= 5 2x
2
+ 3x
3
para
obter uma soluo. Neste exemplo, temos uma innidade de solues, onde podemos
variar livremente x
2
e x
3
.
De modo geral, dados os nmeros reais a
1
, . . . , a
n
e b, uma equao da forma
a
1
x
1
+ +a
n
x
n
= b (1.1)
chamada de equao algbrica linear nas variveis x
1
, x
2
, . . . , x
n
. As variveis
tambm so chamadas de incgnitas por serem os valores a serem determinados para
valer a igualdade. Os nmeros reais a
i
so chamados de coecientes e b a constante da
equao. A primeira incgnita com coeciente no nulo chamada de varivel principal
ou incgnita principal e as demais so chamadas de variveis livres.
Uma matriz coluna real v = [v
1
, . . . , v
n
]
T
soluo desta equao quando
a
1
v
1
+ +a
n
v
n
= b.
Diz-se ainda que a nupla de nmeros reais (v
1
, . . . , v
n
) satisfaz a equao.
Uma equao
0x
1
+ + 0x
n
= b,
em que todos os coecientes so nulos degenerada. Se b for igual a zero, ento toda
matriz coluna [x
1
, . . . , x
n
]
T
soluo. Se b for diferente de zero, a equao degenerada
no possui soluo.
As equaes no degeneradas com duas ou mais variveis possui innitas solues.
Uma equao no degenerado com uma nica varivel possui uma nica soluo.
1
2 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 1.1 Para todo s real, a matriz coluna [7 +3s, 2s]
T
soluo de 2x
1
3x
2
= 8
que, portanto, possui innitas solues. A varivel s que aparece neste exemplo chamado
de parmetro.
O conjunto de todas as solues de uma equao chamado conjunto soluo ou
soluo geral. Cada elemento deste conjunto , evidentemente, uma soluo e, quando
for conveniente, ser chamado de soluo particular.
Para determinar a soluo geral de uma equao no degenerada a
1
x
1
+ + a
n
x
n
=
b basta explicitar a incgnita principal em funo das variveis livres.
Exemplo 1.2 Para obter a soluo geral de x
1
7x
2
+ x
3
= 1, basta explicitar x
1
para
obter x
1
= 1+ 7x
2
x
3
. A soluo geral o conjunto de matrizes coluna
_
_
x
1
x
2
x
3
_
_
=
_
_
1 + 7x
2
x
3
x
2
x
3
_
_
=
_
_
1
0
0
_
_
+x
2
_
_
7
1
0
_
_
+x
3
_
_
1
0
1
_
_
.
A equao
a
1
x
1
+ +a
n
x
n
= 0
denominada de equao homognea. Ela est associada equao no homognea
(1.1) e, por esse motivo, chamada de equao homognea associada equao no
homognea
a
1
x
1
+ +a
n
x
n
= b.
O uso de matrizes pode simplicar a notao. Sendo a = [a
1
, . . . , a
n
]
T
a matriz dos
coecientes e x = [x
1
, . . . , x
n
]
T
a matriz das variveis, a equao acima pode ser
colocada na forma
a
T
x = b.
Exemplo 1.3 Consideremos novamente a equao do exemplo anterior x
1
7x
2
+ x
3
=
1, cuja soluo geral
_
_
x
1
x
2
x
3
_
_
=
_
_
1 + 7x
2
x
3
x
2
x
3
_
_
=
_
_
1
0
0
_
_
+x
2
_
_
7
1
0
_
_
+x
3
_
_
1
0
1
_
_
.
interessante observar que [1, 0, 0]
T
soluo da equao e que tanto [7, 1, 0]
T
quanto
[1, 0, 1]
T
so solues da equao homognea associada.
Este exemplo apresenta um fato geral.
Se v
1
, . . . , v
p
forem solues da equao homognea a
T
x = 0, ento
c
1
v
1
+ +c
p
v
p
continua sendo soluo, para qualquer escolha dos nmeros reais c
1
, . . . , c
n
. Esta soma
chamada de combinao linear das matrizes v
1
, . . . , v
p
.
Se um conjunto {v
1
, . . . , v
p
} de solues da equao homognea for tal que toda
soluo da equao homognea uma combinao linear dos seus elementos, diremos que
ele um conjunto gerador das solues da equao homognea.
Notas de aula do Prof. Antonio Cndido Faleiros 3
Exemplo 1.4 Explicitando x
1
na equao x
1
3x
2
+x
3
= 0, obtemos x
1
= 3x
2
x
3
para
da obter todas as solues desta equao
_
_
x
1
x
2
x
3
_
_
=
_
_
3x
2
x
3
x
2
x
3
_
_
= x
2
_
_
3
1
0
_
_
+x
3
_
_
1
0
1
_
_
.
Portanto, [3, 1, 0]
T
e [1, 0, 1]
T
formam um conjunto gerador de solues para a equao
dada.
Se w
0
for uma soluo da equao no homognea a
T
x = b e v for uma soluo da
equao homognea Ax = 0, ento w
0
+ v soluo da equao no homognea. Alm
disso, se w
1
for outra soluo de Ax = b, ento existe uma soluo u de Ax = 0 tal que
w
1
= w
0
+ u. Esta soluo u exatamente w
1
w
0
.
Do pargrafo acima tiramos uma lio muito interessante. Conhecendo todas as
solues da homognea e uma nica soluo da no homognea, conheceremos todas
as solues da no homognea.
1.2 Produto escalar
O produto matricial a
T
x denominado de produto escalar das matrizes coluna a e x,
sendo denotado por ha, xi , isto ,
ha, xi = a
T
x.
Este conceito de produto escalar importante e voltaremos a ele posteriormente.
Propriedades do produto escalar
Se x, y, z forem vetores coluna e k um nmero real,
1. hx, xi 0 e hx, xi = 0 se e s se x = 0.
2. hx, yi = hy, xi
3. hx, y +zi = hx, yi + hx, zi
4. hx, kyi = k hx, yi
Usando o produto escalar, a equao (1.1) assume a forma
ha, xi = b.
4 Notas de aula do Prof. Antonio Cndido Faleiros
1.3 Sistemas de equaes algbricas lineares
Um sistema de equaes como
3x
1
2x
2
= 6
x
1
+x
2
= 7
um sistema de equaes algbricas lineares. Nos problemas onde estes sistemas ocorrem,
o interesse se volta para a determinao dos valores de x
1
e x
2
que tornam verdadeiras
as duas igualdades. Neste exemplo, para determin-los, pode-se, por exemplo explicitar
x
1
na segunda equao x
1
= 7 x
2
, substituir esta expresso no lugar de x
1
na primeira
equao 3(7 x
2
) 2x
2
= 6 e expliciar x
2
obtendo x
2
= 3. Substituindo este valor na
expresso de x
1
em funo de x
2
obtemos x
1
= 7 x
2
= 7 3 = 4. Portanto os valores
de x
1
e x
2
que tornam verdadeiras as duas igualdades do sistema so x
1
= 4 e x
2
= 3.
Dados os nmeros reais a
ij
e b
i
, com i = 1, . . . , m e j = 1, . . . , n, o sistema de equaes
a
11
x
1
+ +a
1n
x
n
= b
1
=
a
m1
x
1
+ +a
mn
x
n
= b
m
chamado de sistema de equaes algbricas lineares comm equaes e n incgnitas.
Os nmeros a
ij
so denominados coecientes do sistema, b
i
so os termos constantes
e x
j
so as incgnitas ou variveis do sistema. Esta forma de apresentar o sistema
denominada de forma padro.
Podemos simplicar a notao usando matrizes. Em
A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
, x =
_

_
x
1
.
.
.
x
n
_

_
e b =
_

_
b
1
.
.
.
b
n
_

_
,
denominamos A de matriz dos coecientes, x de matriz das incgnitas e b de matriz
dos termos constantes do sistema. Na forma matricial, o sistema se reduz a
Ax = b.
A matriz [A | b] obtida acrescentando-se matriz A uma coluna nal com os elementos
de b, chamada de matriz aumentada do sistema linear.
Um vetor coluna real w tal que Aw = b chamado de soluo do sistema Ax = b.
Isto signica que w soluo de cada equao do sistema. Um sistema como este pode
ter ou no uma soluo.
Exemplo 1.5 O sistema

1 2
0 0

x
1
x
2

=

3
1

Notas de aula do Prof. Antonio Cndido Faleiros 5


no possui soluo pois no existem x
1
e x
2
que tornam verdadeira a segunda equao. A
segunda equao do sistema degenerada e seu segundo membro diferente de zero.
O sistema

1 2
0 1

x
1
x
2

=

4
1

possui uma nica soluo x


1
= 2 e x
2
= 1. Para obt-la, basta observar que, da segunda
equao x
2
= 1 e, da primeira, x
1
+ 2x
2
= 4. Como x
2
= 1, devemos ter x
1
= 2.
O sistema

1 2
2 4

x
1
x
2

=

3
6

possui innitas solues. De fato, explicitano x


1
na primira equao segue x
1
= 3 2x
2
.
Substituindo esta expresso na segunda vem 2(3 2x
2
)+4x
2
= 6 que se simplica em 6 =
6, ou seja, sempre satisfeita. Logo, qualquer matrix coluna [x
1
, x
2
]
T
= [3 2x
2
, x
2
]
T

uma soluo do sistema. A varivel x


2
pode variar livremente nos reais.
O conjunto de todas as solues do sistema chamado de conjunto soluo ou
soluo geral do sistema. Este conjunto pode ser vazio, ter um nico elemento ou
possuir innitos elementos. O sistema de equaes que no possui soluo chamado
incompatvel. Quando possui uma nica soluo compatvel determinado e, quando
possui innitas solues, chamado de compatvel indeterminado.
O sistema de equaes Ax = 0 chamado de homogneo. Quando b 6= 0, o sistema
de equaes Ax = b chamado de no homogneo. Um sistema est intimamente
ligado ao outro e, por esta razo, Ax = 0 chamado de sistema homogneo de equaes
associado ao sistema Ax = b.
A equao homognea Ax = 0 possui sempre a soluo trivial x = 0. Entretanto,
quando o sistema homogneo Ax = 0 possui uma soluo v no trivial, ela possuir
innitas solues pois cv ser soluo para qualquer nmero real c.
Podemos ir um pouco alm. Se v
1
, . . . , v
p
forem solues do sistema homogneo Ax =
0, ento
c
1
v
1
+ +c
p
v
p
ainda ser uma soluo do sistema homogneo para qualquer escolha dos nmeros reais
c
1
, . . . , c
n
. A soma acima chamada de combinao linear dos vetores {v
1
, . . . , v
p
}.
Se toda soluo de Ax = 0 for uma combinao linear dos elementos deste conjunto, ele
ser chamado de conjunto gerador das solues do sistema homogneo Ax = 0.
Se v for uma soluo de Ax = 0 e w
0
for uma soluo de Ax = b, ento w
0
+ v
soluo de Ax = b. Se w
1
for outra soluo de Ax = b, diferente de w
0
, ento u = w
1

w
0
soluo de Ax = 0. Logo, qualquer soluo w
1
do sistema Ax = b da forma w
1
=
w
0
+ u onde u soluo da equao homognea Ax = 0. Em outras palavras, conhecida
uma soluo w
0
de Ax = b, outra soluo w
1
deste sistema da forma w
1
= w
0
+ u, onde
u soluo do sistema homogneo Ax = 0.
Ao conhecer uma nica soluo do sistema no homogneo Ax = b e a soluo geral
do sistema homogneo Ax = 0, se conhece a soluo geral do sistema no homogneo.
6 Notas de aula do Prof. Antonio Cndido Faleiros
O sistema no homogneo Ax = b pode ter uma soluo ou no. Se a nica soluo
do sistema homogneo Ax = 0 for a trivial e Ax = b tiver uma soluo, ela ser nica.
Quando Ax = 0 possuir soluo no trivial e Ax = b possuir uma soluo, ento possuir
innitas outras.
Exemplo 1.6 Considere o sistema

1 2 5
0 1 6

_
_
x
1
x
2
x
3
_
_
=

7
3

.
Explicitando x
2
na segunda equao, x
2
= 3+ 6x
3
. Usando esta expresso de x
2
na
primeira equao e explicitando x
1
, segue x
1
= 13+ 7x
3
. Logo, toda soluo deste sis-
tema da forma
_
_
x
1
x
2
x
3
_
_
=
_
_
13
3
0
_
_
+x
3
_
_
7
6
1
_
_
Observe que [13, 3, 0]
T
uma soluo particular do sistema e [7, 6, 1]
T
soluo
do sistema homogneo associado. O valor de x
3
poder variar livremente no conjunto dos
nmeros reais.
No exemplo anterior, as variveis x
1
e x
2
foram expressas em termos de x
3
. neste caso,
chamamos x
1
e x
2
de variveis principais e x
3
a varivel livre.
1.4 Sistema escalonado
Uma matriz escalonada aquela em que
1. Todas as linhas nulas esto abaixo das linhas no nulas.
2. Numa linha no nula, o primeiro elemento no nulo igual a 1. Este elemento
chamado de piv ou lder da linha.
3. O piv de uma linha est direita do piv da linha de cima.
Exemplo 1.7 A matriz
_
_
1 0 3 0
0 0 1 2
0 0 0 0
_
_
escalonada.
Notas de aula do Prof. Antonio Cndido Faleiros 7
Um sistema Ax = b escalonado quando a matriz A for escalonada. As variveis que
multiplicam os pivs so denominadas de variveis principais e as demais de variveis
livres ou parmetros.
Achar as solues de um sistema escalonado bastante simples. Podem aparecer
equaes degeneradas na parte inferior do sistema. Se uma dessas equaes degeneradas
possuir segundo membro no nulo, o sistema no possui soluo. Se todos os segundos
membros das equaes degeneradas forem nulas, o sistema tem soluo. Para obt-las,
podemos desconsiderar as equaes degeneradas.
Eliminadas as equaes degeneradas, explicitamos as variveis principais de cada linha
em funo das demais, comeando na ltima linha e retornando at a primeira. A partir
da penltima equao use as variveis principais j explicitadas para colocar a varivel
principal daquela equao em termos das variveis livres. Com este processo obtm-se
todas as variveis principais em termos das variveis livres. Esta tcnica de soluo
denominada de substituio reversa.
Exemplo 1.8 O sistema
_
_
_
_
1 0 2 1
0 1 3 5
0 0 0 1
0 0 0 0
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
3
0
8
0
_
_
_
_
escalonado. As variveis x
1
, x
2
e x
4
so as variveis prinicipais e x
3
a varivel
livre. A ltima equao degenerada mas compatvel pois o segundo membro tambm
nulo. O sistema possui soluo e esta ltima equao pode ser desconsidereda uma vez
que qualquer matriz coluna real [x
1
, x
2
, x
3
, x
3
]
T
uma soluo. Eliminada esta equao,
a terceira passa a ser a ltima, onde explicitamos x
4
= 8. Da segunda, explicitamos x
2
=
3x
3
5x
4
. Usando o valor de x
4
determinado na etapa anterior, obtemos x
2
= 3x
3
40. Na primeira, explicitamos x
1
= 3 2x
3
+x
4
. Usando o valor de x
4
determinado
anteriormente, obtemos x
1
= 3 2x
3
+8 = 5 2x
3
. Colocamos as trs variveis prin-
cipais x
1
, x
2
e x
4
em funo da varivel livre x
3
. A soluo geral do sistema ser
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
5 2x
3
40 3x
3
x
3
8
_

_
=
_

_
5
40
0
8
_

_
+x
3
_

_
2
3
1
0
_

_
onde a varivel livre x
3
pode assumir qualquer valor real. interessante observar que
[2, 3, 1, 0]
T
soluo do sistema homogneo associado Ax = 0.
Uma matriz A de tamanho mn escalonada reduzida se for escalonada e cada piv
o nico elemento no nulo em sua coluna. Neste caso, o sistema Ax = b denominado
de sistema escalonado reduzido.
8 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 1.9 O sistema
_
_
1 2 0 3
0 0 1 1
0 0 0 0
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
3
0
0
_
_
escalonado reduzido. As variveis x
1
e x
3
so principais e x
2
e x
4
so livres. A ltima
equao degenerada mas compatvel. O mtodo da substituio reversa nos fornece x
3
=
x
4
e x
1
= 3 2x
2
3x
4
, onde as variveis principais esto em funo das variveis
livres.
Algoritmo da substituio reversa
Este algoritmo resolve o sistema Rx = b pelo mtodo da substituio reversa, onde R
quadrada, inversvel e triangular superior. Isto signica que
R =
_

_
r
11
r
12
r
1m
r
22
r
2m
.
.
.
.
.
.
r
mm
_

_
com r
ii
6= 0, para i = 1, . . . , m. Para resolver o sistema Rx = b, iniciamos explicitando
x
m
na ltima equao e, retornando at a primeira, explicitando as variveis principais
de cada equao em funo das variveis determinadas nas etapas anteriores. Assim,
x
m
= b
m
/r
mm
x
m1
= (b
m1
r
m1,m
x
m
) /r
m1,m1
x
m2
= (b
m2
r
m2,m1
x
m1
r
m2,m
x
m
) /r
m2,m2
e assim por diante. O caso geral, em que j = m1, m2, . . . , 1, assume a forma
x
j
=

b
j

m
X
k=j+1
r
jk
x
k
!,
r
mj,mj
==================================
Entrada: Matriz R de tamanho mm e matriz b de tamanho m 1.
Sada: Matriz x de tamanho m 1.
==================================
x = b ;
x(m) = b(m) / R(m,m);
for j = m-1:-1:1
x(j) = ( b(j) - R(j, j+1:m) * x(j+1:m) ) / R(j,j);
end
==================================
Notas de aula do Prof. Antonio Cndido Faleiros 9
1.5 Sistema inferiormente escalonado
Um procedimento semelhante pode ser adotado para matrizes m n inferiormente
escalonadas, que so aquelas com as seguintes caractersticas:
1. Se existirem linhas nulas, elas se localizam na parte inferior da matriz.
2. O ltimo elemento no nulo de uma linha igual a 1, sendo denominado de piv
ou lider da linha.
3. O piv de uma linha se encontra direita do piv da linha anterior.
Quando A for escalonada inferiormente, o sistema Ax = b chamado de sistema
inferiormente escalonado. As variveis que multiplicam os pivs so denominadas
de principais e as demais so denominadas livres. Se as equaes degeneradas deste
sistema forem compatveis, o sistema possui soluo que pode ser obtida pelo processo de
substituio direta. Primeiro, descartam-se as equaes degeneradas. Em seguida, a
partir da primeira equao, explicita-se a varivel principal em funo das variveis livres.
A partir da segunda, prossiga at a ltima, explicitando a varivel principal daquela
equao em funo das demais, usando as expresses das variveis principais obtidas
anteriormente para explicitar a varivel principal em funo das variveis livres apenas.
Uma matriz A de tamanho m n inferiormente escalonada reduzida quando
for inferiormente escalonada e cada piv for o nico elemento no nulo em sua coluna.
Neste caso, o sistema Ax = b denominado de sistema inferiormente escalonado
reduzido. Tais sistemas, quando compatveis, so facilmente resolvidos pelo processo de
substituio direta.
Algoritmo da substituio direta
Este algoritmo resolve o sistema Rx = b pelo mtodo da substituio reversa, onde R
quadrada, inversvel e triangular inferior. Isto signica que
R =
_

_
r
11
r
21
r
22
.
.
.
.
.
.
r
m1
r
m2
r
mm
_

_
com r
ii
6= 0, para i = 1, . . . , m. Para resolver o sistema Rx = b, iniciamos explicitando
x
1
na primeira equao e, prosseguindo at a ltima, vamos explicitando as variveis
principais de cada equao em funo das variveis determinadas nas etapas anteriores.
Assim,
x
1
= b
1
/r
11
x
2
= (b
2
r
21
x
1
) /r
22
x
3
= (b
3
r
31
x
1
r
32
x
2
) /r
3,3
10 Notas de aula do Prof. Antonio Cndido Faleiros
e assim por diante. O caso geral, em que j = 2, 3, . . . , m, assume a forma
x
j
=

b
j

j1
X
k=1
r
jk
x
k
!,
r
jj
Algoritmo da substituio direta
Este algoritmo resolve pelo mtodo da substituio direta um sistema Rx = b, onde
R uma matriz quadrada mm, triangular inferior, inversvel e b uma matriz coluna
m 1.
==================================
Entrada: Matrizes R e b.
Sada: Matriz x, soluo dos sistema Rx = b.
==================================
x = b ;
x(1) = b(1) / R(1,1);
for j = 2:m
x(j) = ( b(j) - R(j, 1:j-1) * x(1:j-1) ) / R(j,j);
end
==================================
1.6 Sistemas equivalentes
Uma tcnica muito usada para resolver sistemas de equaes lineares consiste em realizar
transformaes sobre o sistema original at se chegar a um sistema escalonado cuja soluo
simples. Para que esta tcnica se torne efetiva, as transformaes no podem alterar o
conjunto soluo do sistema.
Denio 1.10 Dois sistemas Ax = b e Bx = c so equivalentes quando ambos pos-
suem o mesmo conjunto soluo.
Existem operaes, denominadas elementares que, ao serem aplicadas a um sistema,
preserva suas solues, transformando-o em outro sistema equivalente. As operaes ele-
mentares so:
1. Permutar a ordem de duas equaes.
2. Multiplicar uma equao por uma constante no nula.
3. Adicionar a uma equao um mltiplo de outra.
Notas de aula do Prof. Antonio Cndido Faleiros 11
Num sistema de equaes, podemos enumer-las: equao 1, 2, . . . , m. Sejam i e j
nmeros inteiros entre 1 e n.
O operao que permuta as equaes i e j ser denotada por O(l
i
l
j
), a operao que
multiplica a equao i por um nmero r no nulo ser denotada por O(rl
i
) e a operao
que consiste em adicionar equao i um mltiplo r de outra equao j ser denotada
por O(l
i
+rl
j
).
As operaes elementares so reversveis. A operao O(l
i
l
j
) pode ser revertida
aplicando novamente esta mesma operao. A operao O(rl
i
) pode ser revertida apli-
cando a operao O(r
1
l
i
) e a operao O(l
i
+rl
j
) pode ser revertida aplicando a operao
O(l
i
rl
j
).
Vamos mostrar que essas transformaes levamo sistema original emoutro equivalente.
Faamos a prova para um caso particular que representa o caso geral.
Se [x
1
, x
2
, x
3
]
T
for uma soluo do sistema
a
11
x
1
+a
12
x
2
+a
13
x
3
= b
1
a
21
x
1
+a
22
x
2
+a
23
x
3
= b
2
(1.2)
a
31
x
1
+a
32
x
2
+a
33
x
3
= b
3
e r for um nmero real, ento vale ainda a igualdade
(a
11
+ra
21
)x
1
+ (a
12
+ra
22
)x
2
+ (a
13
+ra
23
)x
1
=
a
11
x
1
+a
12
x
2
+a
13
x
3
+r(a
21
x
1
+a
22
x
2
+a
23
x
3
) = b
1
+rb
2
mostrando que [x
1
, x
2
, x
3
]
T
soluo do sistema
(a
11
+ra
21
)x
1
+ (a
12
+ra
22
)x
2
+ (a
13
+ra
23
)x
1
= b
1
+rb
2
a
21
x
1
+a
22
x
2
+a
23
x
3
= b
2
(1.3)
a
31
x
1
+a
32
x
2
+a
33
x
3
= b
3
Isto signica que as solues do sistema (1.2) so solues do sistema (1.3) que foi obtido
do original a partir da transformao elementar O(l
1
+rl
2
). Logo, as solues de (1.3) so
solues de (1.2) pois esta pode ser obtida daquela pela operao O(l
1
rl
2
). Conclumos
que os sistemas original e o transformado so equivalentes.
De modo semelhante se pode provar que as outras operaes elementares transformam
um sistema em outro equivalente.
1.7 O mtodo da eliminao de Gauss
O mtodo de Gauss consiste em realisar operaes elementares sobre linhas no sistema
Ax = b, transformando-o num sistema escalonado equivalente e resolvendo-o por substi-
tuio reversa.
Como a matriz A dos coecientes e a matriz b das constantes contm todas as in-
formaes necessrias para montar o sistema, vamos considerar a matriz completa do
12 Notas de aula do Prof. Antonio Cndido Faleiros
sistema, obtida ao acrescentar a coluna b direita de A. Esta matriz ser denotada por
[A b]. A realizao de operaes elementares sobre as equaes equivalente realizao
de operaes elementares sobre as linhas da matriz completa.
Vamos escreve A R quando for possvel levar A em R efetuando operaes ele-
mentares sobre as linhas de A. Se R for escalonada, diremos que ela a forma escalonada
de A. Se R for escalonada reduzida, diremos que ela a forma escalonada reduzida
de A. Pode-se provar que a forma escalonada reduzida de uma matriz nica.
O processo de Gauss para resolver um sistema Ax = b descrito pelo algoritmo abaixo,
realizado sobre a matriz completa [A b].
Passo 1. Se A = 0, encerre o algoritmo. O sistema j escalonado.
Passo 2. Percorra as colunas da matriz completa [A b] da esquerda para a direita,
localizando a primeira no nula.
Passo 3. Percorra esta coluna de cima para baixo, localizando seu primeiro elemento
no nulo. Seja p o valor deste elemento.
Passo 4. Permute esta linha com a primeira.
Passo 5. Multiplique a atual primeira linha por p
1
, fazendo com que o primeiro
elemento no nulo da primeira linha que igual a 1. Este ser o piv da primeira linha.
A partir deste ponto, a primeira linha no sofrer outras modicaes.
Passo 6. Passe segunda linha, tranformando-a na primeira da prxima etapa.
Passo 7. Repita os passos de 1 a 6 com todas as linhas restantes.
Com este algoritmo, partimos da matriz [A b] e chegamos matriz [R c], onde R a
forma escalonada de A. O sistema Rx = c equivalente ao original.
Se existirem equaes degeneradas incompatveis no sistema Rx = c, ento o sistema
Ax = b no tem soluo.
Se todas as equaes degeneradas de Rx = c forem compatveis, o sistema Ax = b
tem soluo. Exclua as equaes degeneradas e use a substituio reversa para obter as
solues do sistema euqivalente Rx = c. Estas solues possuiro a forma
x = w
0
+c
1
v
1
+ +c
r
v
r
onde w
0
uma soluo de Rx = c e v
1
, . . . , v
r
so solues do sistema homogneo associado
Rx = 0. Os nmeros reais c
i
so arbitrrios e relacionados com as variveis livres. Os
nmeros reais c
1
, . . . , c
r
so denominados de parmetros.
O nmero de pivs de R igual ao nmero de linhas no nulas de R. Se existirem k
pivs, este ser o nmero de variveis principais do sistema. Se o nmero de incgnitas
do sistema for n, o nmero de variveis livres ser n k.
Se R for escalonada e A pode ser levada em R por transformaes elementares, o
nmero de pivs de R chamado de posto da matriz A.
Exemplo 1.11 Considere o sistema
x +y 2z = 0
2x + 2y 3z = 2
3x y + 2z = 12
Notas de aula do Prof. Antonio Cndido Faleiros 13
cuja matriz aumentada
_
_
1 1 2 0
2 2 3 2
3 1 2 12
_
_
Realizando as operaes O(l
2
= l
2
2l
1
) e O(l
3
= l
3
3l
1
) sobre a matriz chegamos em
_
_
1 1 2 0
0 0 1 2
0 4 8 12
_
_
.
Realizando a operao O(l
2
l
3
) segue
_
_
1 1 2 0
0 4 8 12
0 0 1 2
_
_
que uma matriz diagonal superior. Encerramos a primeira etapa do mtodo de elimi-
nao de Gauss.
Para completar o mtodo, caminhando de baixo para cima e da esquerda para a direita,
anulamos os elementos nas colunas acima da diagonal principal. Com as operaes O(l
2
=
l
2
8l
3
) e O(l
1
= l
1
+ 2l
3
), obtemos
_
_
1 1 0 4
0 4 0 4
0 0 1 2
_
_
Com as operaes O(l
2
= (1/4)l
2
) seguida de O(l
1
= l
1
l
2
) chegamos matriz
_
_
1 0 0 3
0 1 0 1
0 0 1 2
_
_
A matriz A foi transformada at se tornar uma matriz identidade. Agora, obter a soluo
do problema trivial x = 3, y = 1 e z = 2.
1.8 Matrizes inversas
Uma matriz quadrada A de tamanho m m inversvel quando existir uma matriz
quadrada B de tamanho m m tal que AB = BA = I
m
onde I
m
a matriz identidade
de ordem m. A matriz B chamada de inversa de A e denotada por A
1
.
Pela prpria denio, a matriz B tambm inversvel e sua inversa A. Assim, B
1
=
A e

A
1

1
= A.
Se A e B forem inversveis, ento AB so inversveis e (AB)
1
= B
1
A
1
. Se uma
matriz for triangular inferior, sua inversa tambm ser triangular inferior e, quando ela
for triangular superior, sua inversa tambm ser triangular superior.
14 Notas de aula do Prof. Antonio Cndido Faleiros
Teorema 1.12 Seja A uma matriz quadrada. So equivalentes as armaes:
1. A inversvel.
2. O sistema homogneo Ax = 0 possui apenas a soluo trivial x = 0.
3. A forma escalonada reduzida de A a matriz identidade.
4. O sistema Ax = b possui uma nica soluo para cada matriz coluna b.
5. Existe uma matriz quadrada B tal que AB = I.
Prova. (1) = (2) pois, se A inversvel e Ax = 0, ento A
1
Ax = 0 o que implica
em x = 0.
(2) = (3) pois, se a forma escalonada reduzida R de A no for a matriz identidade,
uma de suas linhas nula pois R quadrada. Portanto, Rx = 0 tem solues no nulas.
Se este fosse o caso, o sistema Ax = 0 teria solues no nulas, contrariando (2).
(3) = (4) pois, se A I ento o sistema Ax = b equivalente ao sistema Ix = c,
para alguma matriz coluna c, cuja soluo x = c, mostrando que o sistema Ax = b tem
sempre uma nica soluo para cada b.
(4) = (5) pois, sendo e
j
a coluna j da matriz identidade I, o sistema Ax = e
j
tem
uma nica soluo x = b
j
para j = 1, 2, . . . , n. Sendo B = [b
1
, . . . , b
n
], obtemos AB = I.
(5) = (1) pois, se AB = I e Bx = 0, ento ABx = 0 ou Ix = 0 o que implica em
x = 0. Logo, a condio (2) vale para B no lugar de A e, consequentemente, valem (3)
e (4) com B no lugar de A. Logo, pela parte (5), existe uma matriz C tal que BC = I.
Como C = IC = (AB)C = A(BC) = A, obtemos BA = I. Como AB = I por hiptese,
provamos que A inversvel.
Corolrio 1.13 Sejam A e B matrizes quadradas mm. Se AB = I, ento A e B so
inversveis e uma a inversa da outra.
Prova. Se AB = I, provamos que A inversvel e que B a inversa de A. Logo, B
inversvel e sua inversa A.
Este corolrio garante que AB = I o bastante para garantir que A e B so inversveis,
sendo uma a inversa da outra.
Corolrio 1.14 Se A = BC for inversvel, ento B e C so inversveis.
Prova. Sendo A = BC inversvel, (A
1
B) C = A
1
(BC) = A
1
A = I e assim C
inversvel. Por outro lado, B(CA
1
) = (BC)A
1
= AA
1
= I e B inversvel.
Notas de aula do Prof. Antonio Cndido Faleiros 15
1.9 Matrizes elementares
As matrizes elementares so aquelas obtidas a partir da identidade mediante uma
nica operao elementar. Vamos denotar por E(l
i
l
j
) a matriz elementar obtida a
partir da identidade pela permuta das linhas i e j. A matriz E(l
i
+rl
j
) denotar a matriz
elementar obtida da identidade adicionando linha i um mltiplo r da linha j. Se r um
nmero no nulo, E(rl
i
) denotar a matriz elementar obtida da identidade multiplicando
sua linha i por r.
Exemplo 1.15 As matrizes abaixo so elementares
_
_
0 0 1
0 1 0
1 0 0
_
_
_
_
7 0 0
0 1 0
0 0 1
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
sendo, respectivamente, as matrizes E(l
1
l
3
), E(7l
1
) e E(l
3
+ 3l
1
).
Os produtos
E(l
i
l
j
)A , E(rl
i
)A , E(l
i
+rl
j
)A
realizam sobre A as operaes elementares O(l
i
l
j
), O(rl
i
), e O(l
i
+rl
j
), respectiva-
mente.
Exemplo 1.16 Os produtos abaixo ilustram as armaes acima. Seja
A =
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
.
O produto
E(l
1
l
3
)A =
_
_
0 0 1
0 1 0
1 0 0
_
_
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
=
_
_
c
1
c
2
c
3
b
1
b
2
b
3
a
1
a
2
a
3
_
_
permuta a primeira com a terceira linha de A. O produto
E(7l
1
)A =
_
_
7 0 0
0 1 0
0 0 1
_
_
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
=
_
_
7a
1
7a
2
7a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
multiplica a primeira linha de A por 7. O produto
E(l
3
+ 5l
1
)A =
_
_
1 0 0
0 1 0
5 0 1
_
_
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
=
_
_
a
1
a
2
a
3
b
1
b
2
b
3
5a
1
+c
1
5a
2
+c
2
5a
3
+c
3
_
_
adiciona terceira linha de A o quntuplo de sua primeira linha.
16 Notas de aula do Prof. Antonio Cndido Faleiros
As matrizes elementares so inversveis. A inversa de E(l
i
+rl
j
) E(l
i
rl
j
), a inversa
de E(l
i
l
j
) ela mesma e, para r 6= 0, a inversa de E(rl
i
) E((1/r)l
i
).
H um teorema muito interessante relacionando matrizes inversveis com matrizes
elementares.
Teorema 1.17 Uma matriz quadrada inversvel se e s se for igual a um produto de
matrizes elementares.
Prova. Se uma matriz quadrada for o produto de matrizes elementares, ela inversvel
pois cada matriz elementar inversvel.
Se A for inversvel, ento o teorema 1.12 garante que a forma escalonada reduzida de
A a matriz identidade. Em consequncia existem matrizes elementares E
1
, E
2
, . . . ,
E
k
tais que E
k
E
2
E
1
A = I. Neste caso, A = E
1
1
E
1
2
E
1
k
. Como as inversas de
matrizes elementares so elementares, segue que A o produto de matrizes elementares.

Em termos de matrizes elementares, o mtodo da eliminao de Gauss usado para


resolver o sistema Ax = b pode ser descrito nos seguintes termos: multiplicamos os dois
lados do sistema sucessivamente por matrizes elementares E
1
, E
2
, . . . , E
k
E
k
E
2
E
1
Ax = E
k
E
2
E
1
b
executando operaes elementares sobre as linhas de A, at obter a matriz escalonada
U = E
k
E
2
E
1
A.
Sendo E = E
k
E
2
E
1
, o sistema original se transforma no sistema equivalente escalon-
ado
Ux = Eb
que ter soluo se linhas nulas em U corresponderem a linhas nulas em Eb. Quando este
for o caso, o sistema resolvido por substituio reversa.
Se existirem linhas nulas em U e as linhas correspondentes de Eb no forem nulas, o
sistema no tem soluo, incompatvel.
Exemplo 1.18 Vamos usar transformaes elementares para obter a forma escalonada
de
A =
_
_
5 1 3
10 5 8
15 6 16
_
_
.
Em lugar de executar uma operao elementar por vez, vamos executar as operaes lin-
eares necessrias para anular todos os elementos de cada coluna abaixo da diagonal prin-
cipal. Efetuando o produto
E
1
A =
_
_
1 0 0
2 1 0
3 0 1
_
_
_
_
5 1 3
10 5 8
15 6 16
_
_
=
_
_
5 1 3
0 3 2
0 3 7
_
_
Notas de aula do Prof. Antonio Cndido Faleiros 17
obtemos uma matriz onde os elementos da primeira linha abaixo da diagonal principal so
nulos. A matriz E
1
no elementar mas o produto de duas matrizes elementares
E
1
=
_
_
1 0 0
2 1 0
0 0 1
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
.
Efetuando o produto de E
1
A pela matriz elementar E
3
denida abaixo, obtemos
E
2
E
1
A =
_
_
1 0 0
0 1 0
0 1 1
_
_
_
_
5 1 3
0 3 2
0 3 7
_
_
=
_
_
5 1 3
0 3 2
0 0 5
_
_
que triangular superior. Denotemos por U esta matriz, de modo que E
2
E
1
A = U. A
matriz
E
2
E
1
=
_
_
1 0 0
0 1 0
0 1 1
_
_
_
_
1 0 0
2 1 0
3 0 1
_
_
=
_
_
1 0 0
2 1 0
1 1 1
_
_
triangular inferior, os elementos de sua diagonal principal unitria e sua inversa
L =
_
_
1 0 0
2 1 0
1 1 1
_
_
.
Um fato notvel desta inversa reside no fato de ser exatamente igual ao produto E
2
E
1
,
onde os elementos abaixo da diagonal principal aparecem com os sinais trocados. Assim,
E
2
E
1
A = U =
_
_
5 1 3
0 3 2
0 0 5
_
_
.
1.10 Clculo da inversa
Podemos completar o processo iniciado no exemplo da seo anterior at obter a inversa
de A.
Exemplo 1.19 No exemplo anterior, multiplicamos
A =
_
_
5 1 3
10 5 8
15 6 16
_
_
e E
2
E
1
=
_
_
1 0 0
2 1 0
1 1 1
_
_
,
para obter
U = E
2
E
1
A =
_
_
5 1 3
0 3 2
0 0 5
_
_
.
18 Notas de aula do Prof. Antonio Cndido Faleiros
Podemos multiplicar U por matrizes elementares at obter a inversa de A. Efetuando o
produto
E
3
U =
_
_
1 0 3/5
0 1 2/5
0 0 1/5
_
_
_
_
5 1 3
0 3 2
0 0 5
_
_
=
_
_
5 1 0
0 3 0
0 0 1
_
_
anulamos os elementos da terceira coluna acima da diagonal principal. A matriz E
3
o
produto de trs matrizes elementares
E
3
=
_
_
1 0 0
0 1 0
0 0 1/5
_
_
_
_
1 0 0
0 1 2/5
0 0 1
_
_
_
_
1 0 3/5
0 1 0
0 0 1
_
_
.
Em seguida, efetuamos o seguinte produto
E
4
E
3
U =
_
_
1 1/3 0
0 1/3 0
0 0 1
_
_
_
_
5 1 0
0 3 0
0 0 1
_
_
=
_
_
5 0 0
0 1 0
0 0 1
_
_
onde E
4
o produto de duas matrizes elementares
E
4
=
_
_
1 0 0
0 1/3 0
0 0 1
_
_
_
_
1 1/3 0
0 1 0
0 0 1
_
_
.
Finalmente, multiplicando E
4
E
3
U pela matriz elementar
E
5
=
_
_
1/5 0 0
0 1 0
0 0 1
_
_
obtemos
E
5
E
4
E
3
U = E
5
E
4
E
3
E
2
E
1
A = I
onde I a matriz identidade. O produto E
5
E
4
E
3
E
2
E
1
a inversa procurada
A
1
=
_
_
32
75
2
75

7
75

8
15
7
15

2
15

1
5

1
5
1
5
_
_
.
Este exemplo tpico do mtodo de Gauss-Jordan para determinar a inversa de
uma matriz A. Se E for o produto de matrizes elementares para as quais EA = I, ento
A
1
= E. Esta observao nos permite construir o seguinte algoritmo: tome a matriz
aumentada [A I] e realize operaes elementares sobre ela obtendo a matriz [EA EI]. No
momento que EA for igual identidade, EI = E ser a inversa A
1
de A.
Se nalgum ponto deste processo chegarmos a uma matriz aumentada [EA EI] com
linha nula, conclumos que A no tem inversa.
Notas de aula do Prof. Antonio Cndido Faleiros 19
Exemplo 1.20 Vamos usar o mtodo de Gauss-Jordan para obter a inversa de
A =
_
_
1 2 1
1 3 4
2 7 12
_
_
.
Inicialmente formamos a matriz aumentada
[A I] =
_
_
1 2 1 1 0 0
1 3 4 0 1 0
2 7 12 0 0 1
_
_
e realizamos operaes elementares sobre linha at chegar a (I | A
1
). Em lugar de aplicar
uma transformao elementar por vez, vamos aplicar um produto de transformaes lin-
eares que agiro sobre toda uma coluna.
_
_
1 0 0
1 1 0
2 0 1
_
_
_
_
1 2 1 1 0 0
1 3 4 0 1 0
2 7 12 0 0 1
_
_
=
_
_
1 2 1 1 0 0
0 1 3 1 1 0
0 3 10 2 0 1
_
_
_
_
1 0 0
0 1 0
0 3 1
_
_
_
_
1 2 1 1 0 0
0 1 3 1 1 0
0 3 10 2 0 1
_
_
=
_
_
1 2 1 1 0 0
0 1 3 1 1 0
0 0 1 1 3 1
_
_
_
_
1 0 1
0 1 3
0 0 1
_
_
_
_
1 2 1 1 0 0
0 1 3 1 1 0
0 0 1 1 3 1
_
_
=
_
_
1 2 0 0 3 1
0 1 0 4 10 3
0 0 1 1 3 1
_
_
_
_
1 2 0
0 1 0
0 0 1
_
_
_
_
1 2 0 0 3 1
0 1 0 4 10 3
0 0 1 1 3 1
_
_
=
_
_
1 0 0 8 17 5
0 1 0 4 10 3
0 0 1 1 3 1
_
_
Logo, a inversa de A
_
_
8 17 5
4 10 3
1 3 1
_
_
.
1.11 Fatorao LU
Multiplicando uma matriz A por matrizes elementares, podemos chegar a uma matriz U
triangular superior.
Para descrever o processo, vamos ampliar um pouco nosso conceito de matriz elemen-
tar e tambm denominar de elementar aquelas matrizes obtidas a partir da identidade
permitindo que os elementos de uma nica coluna abaixo da diagonal principal sejam
diferentes de zero.
20 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 1.21 Neste conceito ampliado, a matriz
_
_
1 0 0
2 1 0
3 0 1
_
_
elementar. Ela o produto de duas matrizes elementares
_
_
1 0 0
2 1 0
0 0 1
_
_
e
_
_
1 0 0
0 1 0
3 0 1
_
_
.
Podemos usar essas matrizes elementares para zerar todos os elementos abaixo da
diagonal principal de uma coluna de uma matriz A.
Exemplo 1.22 Este exemplo ilustra o anulamento de todos os elementos de abaixo da
diagonal da primeira coluna de uma matriz mediante o uso de uma matriz elementar
_
_
1 0 0
2 1 0
6 0 1
_
_
_
_
2 6 1
4 3 8
12 7 9
_
_
=
_
_
2 6 1
0 9 10
0 29 15
_
_
.
Seja Auma matriz mm. SejamE
1
, . . . , E
m1
matrizes elementares que, multiplicadas
esquerda de A a levam numa matriz triangular superior U. Os elementos abaixo da
diagonal principal da primeira coluna de E
1
A so nulos. Os elementos abaixo da diagonal
principal da primeira e segunda colunas de E
2
E
1
A so nulos e assim por diante. Este
procedimento resulta em
E
k
E
1
A = U
onde U triangular superior. A matriz
E = E
k
E
1
triangular inferior e os elementos da diagonal principal so todos iguais a 1. Sua inversa
L tambm triangular inferior e os elementos da diagonal principal so todos iguais a 1.
Com isto, obtemos a fatorao
A = LU
onde U uma matriz triangular superior e L uma matriz triangular inferior inversvel,
cujos elementos da diagonal principal so iguais a 1.
Exemplo 1.23 Vamos obter a decomposio LU da matriz
A =
_
_
1 2 0
2 1 5
4 1 13
_
_
.
Notas de aula do Prof. Antonio Cndido Faleiros 21
Efetuando o produto
E
1
A =
_
_
1 0 0
2 1 0
4 0 1
_
_
_
_
1 2 0
2 1 5
4 1 13
_
_
=
_
_
1 2 0
0 3 5
0 9 13
_
_
obtemos uma matriz cujos elementos abaixo da diagonal principal da primeira coluna so
iguais a zero. Agora, efetuando o produto
E
2
E
1
A =
_
_
1 0 0
0 1 0
0 3 1
_
_
_
_
1 2 0
0 3 5
0 9 13
_
_
=
_
_
1 2 0
0 3 5
0 0 2
_
_
obtemos a forma escalonada de A. Para chegar decomposio LU, basta calcular a in-
versa L = E
1
1
E
2
2
. As matrizes E
1
e E
2
nas multiplicaes acima so elementares
E
1
=
_
_
1 0 0
2 1 0
4 0 1
_
_
e E
2
=
_
_
1 0 0
0 1 0
0 3 1
_
_
e pode-se vericar que
E
1
1
=
_
_
1 0 0
2 1 0
4 0 1
_
_
e E
1
2
=
_
_
1 0 0
0 1 0
0 3 1
_
_
Oberve um fato interessante: para obter as inversas de E
1
e E
2
, basta trocar os sinais dos
elementos no nulos abaixo da diagonal principal. Em seguida, efetuando o produto
L = E
1
1
E
1
2
=
_
_
1 0 0
2 1 0
4 0 1
_
_
_
_
1 0 0
0 1 0
0 3 1
_
_
=
_
_
1 0 0
2 1 0
4 3 1
_
_
percebemos outro fato fantstico: para obter o produto L, basta colocar na matriz iden-
tidade os elementos no nulos de E
1
1
e E
1
2
nos seus devidos lugares. Agora tem-se a
decomposio LU de A
A =
_
_
1 0 0
2 1 0
4 3 1
_
_
_
_
1 2 0
0 3 5
0 0 2
_
_
.
O fato ocorrido no clculo de L do exemplo anterior no fortuito e sim um resultado
geral.
Para provar esta armao baseando-nos no livro de Trefethen e Bau.
22 Notas de aula do Prof. Antonio Cndido Faleiros
As matrizes L e U da decomposio LU de A podem ser obtidas pelo mtodo de
eliminao de Gauss. Como raro aplicar este mtodo a matrizes retangulares, vamos
descrev-lo para matrizes quadradas A pertencentes a C
mm
. Considere a matriz
A =
_

_
x x x x
x x x x
x x x x
x x x x
_

_
onde o x indica nmeros quaisquer. Faamos a primeira transformao
L
1
A =
_

_
x x x x
0 x x x
0 x x x
0 x x x
_

_
zerando os elementos abaixo da diagonal principal da primeira coluna. Faamos a segunda
transformao
L
2
L
1
A =
_

_
x x x x
0 x x x
0 0 x x
0 0 x x
_

_
zerando os elementos abaixo da diagonal principal da segunda coluna. Finalmente, com
a terceira transformao,
L
3
L
2
L
1
A =
_

_
x x x x
0 x x x
0 0 x x
0 0 0 x
_

_
= U
zeramos o elemento abaixo da diagonal principal da terceira coluna, obtendo assim a
matriz U. O negrito indica os elementos que foram modicados na transformao. Vejamos
um caso concreto.
Exemplo 1.24 A decomposio LU de
A =
_

_
1 3 2 0
2 7 5 1
1 5 5 4
0 3 4 6
_

A =
_

_
1 0 0 0
2 1 0 0
1 2 1 0
0 3 1 1
_

_
_

_
1 3 2 0
0 1 1 1
0 0 1 2
0 0 0 1
_

_
.
Notas de aula do Prof. Antonio Cndido Faleiros 23
que foi obtida multiplicando A pela esquerda por
L
1
=
_

_
1 0 0 0
2 1 0 0
1 0 1 0
0 0 0 1
_

_
, L
2
=
_

_
1 0 0 0
0 1 0 0
0 2 1 0
0 3 0 1
_

_
, L
3
=
_

_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 1 1
_

_
As inversas de L
1
, L
2
e L
3
so
_

_
1 0 0 0
2 1 0 0
1 0 1 0
0 0 0 1
_

_
,
_

_
1 0 0 0
0 1 0 0
0 2 1 0
0 3 0 1
_

_
,
_

_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 1 1
_

_
,
e podem ser obtidas de L
1
, L
2
e L
3
trocando o sinal dos elementos no nulos abaixo da
diagonal principal. Ainda
L = L
1
1
L
1
2
L
1
3
=
_

_
1 0 0 0
2 1 0 0
1 2 1 0
0 3 1 1
_

_
obtido a partir de L
1
1
, L
1
2
e L
1
3
simplesmente colocando na matriz identidade os
termos no nulos dessas trs matrizes em suas respectivos posies.
Frmulas gerais e dois golpes de sorte
Seja A uma matriz m m e denote por X a matriz obtida depois de k 1 passo de
eliminao. Denote por x
k
a coluna k de X no incio do passo k. A transformao L
k
deve ser escolhida de modo que
x
k
=
_

_
x
1k
.
.
.
x
kk
x
k+1,k
.
.
.
x
m,k
_

_
L
k
x
k
=
_

_
x
1k
.
.
.
x
kk
0
.
.
.
0
_

_
.
Para obter este efeito, para j = k + 1, . . . , m, subtramos

jk
=
x
jk
x
kk
24 Notas de aula do Prof. Antonio Cndido Faleiros
vezes a linha k da linha j. A forma da matriz L
k

L
k
=
1
.
.
.
1

k+1,k
1
.
.
.
.
.
.

m,k
1
.
Nos exemplos anteriores observamos dois golpes da sorte:
1. A inversa de L
k
obtida trocando os sinais dos elementos abaixo da diagonal.
2. A matriz L = L
1
1
L
1
2
L
1
m1
pode ser formada coletando as entradas de
jk
nos
locais apropriados.
Podemos reunir esses pedaos de boa fortuna como segue. Seja

k
=
_

_
0
.
.
.
0

k+1,k
.
.
.

m,k
_

_
.
Ento L
k
= I
k
e

k
, onde e
k
a coluna k da matriz identidade m m. Das denies
de
k
e e
k
obtemos
e

k
= 0
e
(I
k
e

k
)(I +
k
e

k
) = I
k
(e

k
)e

k
= I,
mostrando que a inversa de L
k

L
1
k
= I +
k
e

k
.
Para o segundo golpe de sorte, argumentamos como segue. Considere, por exemplo, o
produto L
1
k
L
1
k+1
. Como e

k+1
= 0, segue
L
1
k
L
1
k+1
= (I +
k
e

k
)(I +
k+1
e

k+1
) = I +
k
e

k
+
k+1
e

k+1
que escrita por extenso
L
1
k
L
1
k+1
=
_

_
1
.
.
.
1

k+1,k
1

k+2,k

k+2,k+1
1
.
.
.
.
.
.
.
.
.

m,k

m,k+1
1
_

_
Notas de aula do Prof. Antonio Cndido Faleiros 25
Esta matriz triangular inferior sendo obtida a partir da matriz identidade substituindo
os elementos abaixo da diagonal principal das coluna k e k + 1 pelos elementos de L
1
k
e
L
1
k+1
inseridas em seus lugares usuais abaixo da diagonal. Quando tomamos o produto
de todas estas matrizes para formar L, obtemos
L = L
1
1
L
1
2
L
1
m1
=
_

_
1

21
1

31

32
1
.
.
.
.
.
.
.
.
.
.
.
.

m1

m2

m,m1
1
_

_
onde

jk
=
x
jk
x
kk
so os multiplicadores necessrios para anular os elementos abaixo da diagonal da matriz
X = E
k1
E
1
A.
Tais fatos geram o seguinte algoritmo
=====================================
Algoritmo da eliminao gaussiana sem pivotamento
=====================================
Entrada: A
Sada: U e L.
=====================================
U = A e L = I.
for k = 1:m-1
for j = k+1:m
L(j,k) = U(j,k)/U(k,k);
U(j,k:m) = U(j,k:m) - L(j,k) * U(k,k:m);
end
end
=====================================
Neste algoritmo podemos usar uma nica matriz para armazenar L e U se abrirmos
mo de gravar a diagonal de L cujos elementos so unitrio. Se a matriz A no for mais
necessria, podemos us-la para gravar L e U.
Soluo Ax = b por fatorao LU
Dada a decomposio A = LU, o sistema Ax = b equivalente a LUx = b. Dena y =
Ux, resolva Ly = b e, em seguida, Ux = y para obter a soluo do sistema original. A
primeira etapa, para a fatorao A = LU, exige
2
3
m
3
ops. O segundo e o terceiro,
26 Notas de aula do Prof. Antonio Cndido Faleiros
para resolver os sistemas triangulares Ly = b e Ux = y, exigem m
2
ops. Dessa forma,
a resoluo pelo mtodo de Gauss, exige
2
3
m
3
ops.
A resoluo usando reetores de Householder, que veremos posteriormente, usa
4
3
m
3
ops. Qual seria a vantagem da fatorao QR sobre a fatorao LU?
1.12 Decomposio PLU
Nem sempre uma matriz A possui uma decomposio LU e um exemplo clssico

0 1
1 1

. Entretanto, a matriz B =

1 1
0 1

obtida de A pela permutao das linhas


possui uma decomposio LU
B =

1 0
0 1

1 1
0 1

.
Sempre possvel permutar as linhas de uma matriz A de modo que a matriz assim
obtida possui uma decomposio LU.
Uma matriz de permutao aquela obtida a partir da matriz identidade mediante
uma permutao qualquer de suas linhas. A matriz elementar E(l
i
l
j
) obtida da
identidade pela permutao das linhas i e j pertence a esta classe. Toda matriz de
permutao o produto de matrizes elementares deste tipo. O produto de duas matrizes
de permutao uma matriz de permutao e a inversa de uma matriz de permutao
uma matriz de permutao. Como tivemos a oportunidade de destacar, a inversa de
E(l
i
l
j
) ela mesma.
Exemplo 1.25 So matrizes de permutao
_

_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_

_
_

_
0 0 1 0
1 0 0 0
0 0 0 1
0 1 0 0
_

_
.
A segunda permutao a transformao elementar E(l
2
l
4
).
Seja P uma matriz de permutao obtida da identidade permutando as linha i e j.
Seja E a matriz elementar que, a no ser pelo fato de a coluna k possuir elementos no
nulos abaixo da diagonal principal, a identidade. Se k < i < j, ento

E = PEP
uma matriz com os elementos das linhas i e j da coluna k permutados de seus lugares.
Exemplo 1.26 Sejam
P =
_

_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_

_
e E =
_

_
1 0 0 0
2 1 0 0
3 0 1 0
4 0 0 1
_

_
Notas de aula do Prof. Antonio Cndido Faleiros 27
onde P a matriz de permutao obtida da identidade pela troca das linhas 2 e 4 e E a
matriz elementar com elementos no nulos fora da diagonal principal da primeira coluna.
Neste caso, k = 1, i = 2 e j = 4. O produto PAP igual a
_

_
1 0 0 0
4 1 0 0
3 0 1 0
2 0 0 1
_

_
.
Esta matriz pode ser obtida de A permutando os elementos das linhas 2 e 4 da coluna 1.
Fato interessantssimo.
Vamos descrever a decomposio PLU, obtida pelo mtodo da eliminao de Gauss
com pivotamento. Seguiremos o tratamento de Trefethen e Bau.
Seja X a matriz obtida no processo de eliminao Gaussiana depois de zerados os
elementos abaixo da diagonal principal das k 1 primeiras colunas. No passo seguinte,
mltiplos da linha k so subtradas das linhas k+1, . . . , m da matriz X com a qual se est
trabalhando, para introduzir zeros nas entradas k dessas linhas. A entrada x
kk
da matriz
X chamado de piv da coluna k. Prosseguindo o processo de eliminao, aplica-se a
X uma transformao elementar para zerar os elementos da coluna k abaixo da diagonal
principal.
_

_
x
kk
x x x
x x x x
x x x x
x x x x
_

_
x
kk
x x x
0 x x x
0 x x x
0 x x x
_

_
Entretanto, x
kk
pode ser nulo ou muito pequeno quando comparado aos demais elemen-
tos daquela coluna abaixo da diagonal. Neste caso, para evitar instabilidade numrica,
procura-se naquela coluna, dentre os elementos abaixo da diagonal principal, o de maior
mdulo. Troca-se esta linha com a linha k e este elemento de maior mdulo passa a ser
o piv da linha k. Esta troca de linhas denominada de pivotamento parcial. H um
processo conhecido por pivotamento onde se toma por piv o elemento de maior mdulo
na submatriz X
k:m,k:m
e o coloca na posio (k, k) mediante a troca de linhas e colunas.
Devido diculdade de gerenciar a troca de colunas e ao trabalho computacional para se
encontrar o piv, prefere-se o pivotamento parcial.
_

_
x
kk


x
jk


_

_
P
1

_
x
jk


x
kk


_

_
L
1

_
x
jk

0
0
0
_

_
Este algoritmo pode ser expresso como um produto de matrizes. No pivotamento parcial,
em cada etapa, realiza-se uma permutao para posicionar o piv da coluna no local
correto para, em seguida, aplicar uma matriz elementar para zerar os elementos abaixo
28 Notas de aula do Prof. Antonio Cndido Faleiros
da diagonal principal da coluna k. Este processo pode ser repetido coluna a coluna, at
transformar A numa matriz U triangular superior
L
m1
P
m1
L
2
P
2
L
1
P
1
A = U.
Exemplo 1.27 Considere a matriz (exemplo copiado)
A =
_

_
2 1 1 0
4 3 3 1
8 7 9 5
6 7 9 8
_

_
.
Para o pivotamento parcial, permutamos a primeira com a terceira coluna calculando
P
1
A =
_

_
0 0 1 0
0 1 0 0
1 0 0 0
0 0 0 1
_

_
_

_
2 1 1 0
4 3 3 1
8 7 9 5
6 7 9 8
_

_
=
_

_
8 7 9 5
4 3 3 1
2 1 1 0
6 7 9 8
_

_
.
Agora efetuamos o primeiro passo de eliminao: L
1
P
1
A =
_

_
1 0 0 0

1
2
1 0 0

1
4
0 1 0

3
4
0 0 1
_

_
_

_
8 7 9 5
4 3 3 1
2 1 1 0
6 7 9 8
_

_
=
_

_
8 7 9 5
0
1
2

3
2

3
2
0
3
4

5
4

5
4
0
7
4
9
4
17
4
_

_
.
Em seguida, trocamos a segunda com a quarta linha: P
2
L
1
P
1
A =
_

_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_

_
_

_
8 7 9 5
0
1
2

3
2

3
2
0
3
4

5
4

5
4
0
7
4
9
4
17
4
_

_
=
_

_
8 7 9 5
0
7
4
9
4
17
4
0
3
4

5
4

5
4
0
1
2

3
2

3
2
_

_
.
Efetuamos a segunda eliminao: L
2
P
2
L
1
P
1
A =
_

_
1 0 0 0
0 1 0 0
0
3
7
1 0
0
2
7
0 1
_

_
_

_
8 7 9 5
0
7
4
9
4
17
4
0
3
4

5
4

5
4
0
1
2

3
2

3
2
_

_
=
_

_
8 7 9 5
0
7
4
9
4
17
4
0 0
2
7
4
7
0 0
6
7

2
7
_

_
.
Agora permutamos a terceira linha com a quarta: P
3
L
2
P
2
L
1
P
1
A =
_

_
1 0 0 0
0 1 0 0
0 0 0 1
0 0 1 0
_

_
_

_
8 7 9 5
0
7
4
9
4
17
4
0 0
2
7
4
7
0 0
6
7

2
7
_

_
=
_

_
8 7 9 5
0
7
4
9
4
17
4
0 0
6
7

2
7
0 0
2
7
4
7
_

_
.
Finalmente, efetuamos a ltima eliminao: L
3
P
3
L
2
P
2
L
1
P
1
A =
_

_
1 0 0 0
0 1 0 0
0 0 1 0
0 0
1
3
1
_

_
_

_
8 7 9 5
0
7
4
9
4
17
4
0 0
6
7

2
7
0 0
2
7
4
7
_

_
=
_

_
8 7 9 5
0
7
4
9
4
17
4
0 0
6
7

2
7
0 0 0
2
3
_

_
.
Notas de aula do Prof. Antonio Cndido Faleiros 29
Um terceiro golpe de sorte na fatorao PLU
Todos os elementos de L abaixo da diagonal principal so menores ou iguais a 1 pois o
piv de cada linha escolhido de modo a tornar |x
kk
| = {|x
jk
| : k j m}
Analisemos a decomposio de uma matriz A de tamanho 4 4 que toma a forma
L
3
P
3
L
2
P
2
L
1
P
1
A = U
As matrizes P
1
, P
2
e P
3
so suas prprias inversas. Assim podemos escrever
L
3
P
3
L
2
P
2
L
1
P
1
= L
3
P
3
L
2
(P
3
P
3
)P
2
L
1
(P
2
P
3
P
3
P
2
)P
1
onde acrescentamos algumas matrizes ao produto e foram colocadas entre parntesis. Note
que elas so iguais matriz identidade. Podemos associar este produto
L
3
P
3
L
2
P
2
L
1
P
1
= L
3
(P
3
L
2
P
3
)(P
3
P
2
L
1
P
2
P
3
)(P
3
P
2
P
1
) = (

L
1

L
2

L
3
)(P
3
P
2
P
1
)
onde

L
3
= L
3
,

L = P
3
L
2
P
3
,

L = P
3
P
2
L
1
P
2
P
3
so matrizes elementares obtidas de L
3
, L
2
, L
1
permutando elementos abaixo da diagonal
principal.
Em geral, para uma matriz m m, a fatorao fornecida pela eliminao Gaussiana
com pivotamento parcial pode ser escrita na forma
(

L
m1


L
2

L
1
)(P
m1
P
2
P
1
)A = U,
onde

L
k
= P
m1
P
k+1
L
k
P
1
k+1
P
1
m1
.
O produto das matrizes

L
k
triangular inferior com elementos unitrios na diagonal
principal e facilmente invertvel. Basta trocar o sinal das entradas abaixo da diagonal,
como na eliminao Gaussiana sem pivotamento. Escrevendo
L = (

L
m1


L
2

L
1
)
1
e P = P
m1
P
2
P
1
,
temos
PA = LU.
Qualquer matriz quadrada A, singular ou no, possui uma fatorao deste tipo, onde P
uma matriz de permutao, L uma matriz triangular inferior com elementos unitrios
na diagonal principal e U triangular superior. Esta fatorao conhecida por fatorao
PLU de A.
Para obter a fatorao PLU de A, multiplique a matriz A por uma matriz de permu-
tao P e calcule a decomposio LU de A. Na prtica, no assim que se procede pois
no se conhece P a priori.
Vamos descrever um procedimento que justica o algoritmo que vamos descrever
abaixo. Seja A uma matriz m m e X = E
k
P
k
E
1
P
1
A =

E
k


E
1
P
k
P
1
A,
30 Notas de aula do Prof. Antonio Cndido Faleiros
onde P
i
so matrizes de permutao que posicionam o piv no lugar correto e

E
i
so
matrizes elementares que zeram as entradas abaixo da diagonal da coluna i de P
k
P
1
A. Vamos escrever X =

E

A onde

E =

E
k


E
1
e

A = P
k
P
1
A. Se k < m 1, o
processo no terminou e X, em geral, no triangular superior. A prxima etapa consiste
em aplicar uma permutao P que trocar uma linha i de X com sua linha k + 1 para
posicionar o piv da coluna no local correto. Neste caso, i > k + 1. A inversa de P P e
assim PP = I. Podemos usar este fato para escrever
PX = P

E

A = P

E(PP)

A = (P

EP)(P

A).
Lembramos que P

EP triangular inferior e a matriz

E onde se permutou a parte
no nula das linhas i e k + 1, situadas abaixo da diagonal cam permutadas. Desta
forma, sempre que se aplica uma permutao matriz

A se deve efetuar uma permutao
correspondente na matriz

E.
Este comentriio justica o algoritmo da eliminao Gaussiana com pivotamento par-
cial descrito abaixo.
Algoritmo da eliminao Gaussiana com pivotamento parcial
=============================
U = A, L = I, P = I
for k = 1:m-1
Selecione na coluna k a linha i na qual |u(i,k)| eh maximo
Permute as linhas U(k,k:m) e U(i,k:m)
Permute as linhas L(k,1:k-1) e L(i,1:k-1)
Permute as linhas P(k,:) e P(i,:)
for j = k+1:m
L(j,k) = U(j,k) / U(k,k)
U(j,k:m) = U(j,k:m) - L(j,k)*U(k,k:m)
end
end
=============================
1.13 Decomposio de Cholesky
Se a matriz A for simtrica e inversvel, uma permutao PA dessa matriz tem uma
decomposio PLU. Vamos, num primeiro momento, nos esquecer da permutao P e
escrever esta decomposio na forma A = LU de modo que
LU = A = A
T
= U
T
L
T
.
Como L e U so inversveis,
U

L
T

1
= L
1
U
T
= D
Notas de aula do Prof. Antonio Cndido Faleiros 31
diagonal pois U

L
T

1
triangular superior e L
1
U
T
triangular inferior. Assim, U =
DL
T
e obtemos a decomposio
A = LDL
T
onde L triangular inferior cujos elementos diagonais so iguais a 1 e D = L
1
U
T

diagonal.
Como os elementos da diagonal principal de L so iguais a 1, D = diag(U) onde
diag(U) uma matriz diagonal, cujos elementos da diagonal principal so iguais aos
elementos da diagonal de U.
Exemplo 1.28 Considere a decomposio A = LU abaixo
_
_
2 1 0
1 2 1
0 1 2
_
_
=
_
_
1 0 0
1/2 1 0
0 2/3 1
_
_
_
_
2 1 0
0 3/2 1
0 0 4/3
_
_
Sendo D = L
1
U
T
=
_
_
2 0 0
0 3/2 0
0 0 4/3
_
_
obtemos a decomposio LDL
T
_
_
2 1 0
1 2 1
0 1 2
_
_
=
_
_
1 0 0
1/2 1 0
0 2/3 1
_
_
_
_
2 0 0
0 3/2 0
0 0 4/3
_
_
_
_
1 1/2 0
0 1 2/3
0 0 1
_
_
.
Denio 1.29 Uma matriz simtrica A positiva denida se os elementos diagonais
de D na decomposio A = LDL
T
forem todos maiores do que zero. Neste caso, podemos
calcular a matriz

D e denir M = L

D, para assim obter a decomposio A = MM


T
denominada de decomposio de Cholesky da matriz A.
No exemplo acima,
M =
_
_
1 0 0
1/2 1 0
0 2/3 1
_
_
_
_

2 0 0
0
p
3/2 0
0 0
p
4/3
_
_
=
_
_

2 0 0

p
1/2
p
3/2 0
0
p
2/3
p
4/3
_
_
.
A decomposio de Cholesky de A
_
_
2 1 0
1 2 1
0 1 2
_
_
=
_
_

2 0 0

1
2

2
1
2

6 0
0
1
3

6
2
3

3
_
_
_
_

2
1
2

2 0
0
1
2

6
1
3

6
0 0
2
3

3
_
_
.
32 Notas de aula do Prof. Antonio Cndido Faleiros
Captulo 2
Espao vetorial
2.1 Conceito de espao vetorial
Seja K um corpo e V um conjunto no vazio, onde denimos duas operaes, sendo uma
a adio de vetores e a outra a multiplicao de um elemento do corpo K por um
elemento de V. Sejamv e w dois elementos de V e k um elemento do corpo K. Denotaremos
a adio de v e w por v + w e a multiplicao de k e v por kv. O conjunto V, com essas
operaes denominado de espao vetorial sobre o corpo K se, para todo u, v, w de
V e todo , de K, se vericarem as propriedades
1. Comutativa: v +w = w +v.
2. Associativa: (u +v) +w = u + (v +w).
3. Elemento neutro: Existe um elemento de V denotado por 0 tal que 0+v = v+0 = v.
4. Elemento oposto: Dado v em V existe um elemento denotado por v e tal que
v + (v) = (v) +v = 0.
5. Associatividade: ()v = (v).
6. Distributividade: ( +)v = v +v.
7. Distributividade: (v +w) = v +w.
8. Elemento unitrio: A multiplicao do elemento unitrio 1 de K pelo elemento v
de V igual a v, isto , 1v = v.
Os elementos de V so chamados vetores e os elementos de K de escalares. O
elemento v +w o vetor soma de v com w e o elemento v o produto de por v ou
ainda que v um mltiplo de v. O vetor v denominado oposto de v e 0 o vetor
nulo ou vetor zero. Denimos a diferena v w (leia-se v menos w) entre os vetores
v e w por v + (w).
33
34 Notas de aula do Prof. Antonio Cndido Faleiros
Em nosso curso, o corpo K ser o corpo Rdos nmeros reais ou o corpo C dos nmeros
complexos. Quando V for um espao vetorial sobre o corpo dos nmeros reais, diremos
que V um espao vetorial real. Quando V for um espao vetorial sobre o corpo dos
nmeros complexos, diremos que V um espao vetorial complexo.
Quando se diz que V um espao vetorial sobre o corpo K entenda-se que est
implcito a existncia das operaes de adio de vetores e multiplicao de um escalar
por um vetor. Quando o contexto permitir, omite-se a referncia ao corpo K e se diz
apenas que V um espao vetorial. O espao vetorial {0} que contm apenas o vetor
nulo denominado de espao vetorial trivial.
Exemplo 2.1 Seja R
n
o conjunto de todas as nuplas ordenadas (x
1
, x
2
, . . . , x
n
) de
nmeros reais. Duas nuplas ordenadas (x
1
, x
2
, . . . , x
n
) e (y
1
, y
2
, . . . , y
n
) so iguais se
x
1
= y
1
, x
2
= y
2
, . . . , x
n
= y
n
. Dene-se a operao de adio em R
n
por
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
)
e a multiplicao de um nmero real por uma nupla ordenada denida por
(x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
).
O R
n
com as operaes de adio de duas nuplas ordenadas e multiplicao de um escalar
por uma nupla um espao vetorial sobre os reais.
Exemplo 2.2 O conjunto R
mn
das matrizes mn com elementos reais munido com as
operaes de adio de matrizes e multiplicao de um nmero complexo por uma matriz
um espao vetorial sobre o corpo dos nmeros reais. O zero deste espao vetorial a
matriz nula e o elemento oposto (inverso aditivo) de A = [a
ij
] A = [a
ij
].
Exemplo 2.3 O conjunto das matrizes m por n com elementos complexos, que denotare-
mos por C
mn
, munido com as operaes de adio de matrizes e multiplicao de um
nmero complexo por uma matriz um espao vetorial sobre o corpo dos nmeros com-
plexos. O zero deste espao vetorial a matriz nula e o elemento oposto (inverso aditivo)
de A = [a
ij
] A = [a
ij
].
Exemplo 2.4 O conjunto de todos os polinmios de grau menor ou igual a n, com coe-
cientes reais, munido com as operaes de adio de polinmios e multiplicao de um
nmero real por um polinmio, um espao vetorial sobre o corpo dos reais. O conjunto
dos polinmios de grau menor ou igual a n com coecientes complexos com as operaes
acima um espao vetorial sobre o corpo dos nmeros complexos.
Exemplo 2.5 O conjunto de todos os polinmios com coecientes reais, munido com as
operaes de adio de polinmios e multiplicao de um nmero real por um polinmio,
um espao vetorial sobre o corpo dos reais. O conjunto de todos os polinmios com
coecientes complexos com as operaes acima um espao vetorial sobre o corpo dos
nmeros complexos.
Exemplo 2.6 O conjunto C[a, b] = {f : [a, b] R : f contnua} com as operaes de
adio de funes e multiplicao de um nmero real por uma funo um espao vetorial
sobre R.
Notas de aula do Prof. Antonio Cndido Faleiros 35
2.2 Dependncia linear
Todo elemento (x, y) do R
2
pode ser decomposto na seguinte soma
(x, y) = x(1, 0) +y(0, 1).
Esta maneira de decompor um vetor muito utilizada em lgebra Linear.
Sejam v
1
, . . . , v
n
vetores do espao vetorial V e escalares
1
, . . . ,
n
. O vetor
1
v
1
+
+
n
v
n
uma combinao linear dos vetores v
1
, . . . , v
n
.
Exemplo 2.7 O vetor (2, 3) do R
2
uma combinao linear dos vetores (1, 0) e (0, 1)
pois (2, 3) = 2(1, 0)+ 3(0, 1).
Seja {v
1
, . . . , v
n
} um subconjunto nito de V. Este conjunto linearmente depen-
dente se existirem escalares
1
, . . . ,
n
, nem todos nulos tais que

1
v
1
+ +
n
v
n
= 0.
Tambm se diz que os vetores v
1
, . . . , v
n
so linearmente dependentes. Notem que a
igualdade acima se verica para
1
= =
n
= 0. Se a nupla (
1
, . . . ,
n
) = (0, . . . ,
0) for a nica para a qual

1
v
1
+ +
n
v
n
= 0,
diremos que o conjunto {v
1
, . . . , v
n
} linearmente independente ou que os vetores
v
1
, . . . , v
n
so linearmente independentes.
Exemplo 2.8 O conjunto S = { (5, 7), (1, 0), (0, 1) } de vetores do R
2
linearmente
dependente pois
1(5, 7) 5(1, 0) 7(0, 1) = (0, 0).
O conjunto { (1, 2, 3), (0, 1, 1), (0, 0, 2) } de vetores do R
3
linearmente independente.
De fato, se
1
,
2
e
3
forem escalares tais que

1
(1, 2, 3) +
2
(0, 1, 1) +
3
(0, 0, 2) = (0, 0, 0)
ento

1
+ 0
2
+ 0
3
= 0
2
1
+
2
+ 0
3
= 0
3
1
+
2
+ 2
3
= 0
cuja nica soluo
1
=
2
=
3
= 0.
Todo conjunto {0, v
1
, . . . v
p
} que contm o vetor nulo linearmente dependente pois
1 0 + 0v
1
+ + 0v
p
= 0.
36 Notas de aula do Prof. Antonio Cndido Faleiros
Observe que, a dependncia linear do conjunto S = { (5, 7), (1, 0), (0, 1) } de vetores
do R
2
que se expressa por
1(5, 7) 5(1, 0) 7(0, 1) = (0, 0).
implica na possibilidade de escrever (5, 7) como uma combinao linear dos vetores (1, 0)
e (0, 1)
(5, 7) = 5(1, 0) + 7(0, 1).
Esta igualdade tambm implica na dependncia linear de S = { (5, 7), (1, 0), (0, 1) }. Tal
fato enunciado de modo geral no prximo teorema.
Proposio 2.9 Um conjunto {v
1
, . . . , v
n
} de vetores de um espao vetorial V linear-
mente dependente se e s se um dos seus elementos for combinao linear dos demais.
Prova. Se {v
1
, . . . , v
n
} for linearmente dependente, existem escalares
1
, . . . ,
n
, nem
todos nulos, tais que
1
v
1
+ +
n
v
n
= 0. Supondo
1
6= 0 (se
1
= 0, basta permutar os
vetores do conjunto para trazer o coeciente no nulo para a primeira posio) podemos
escrever v
1
como combinao linear de v
2
, . . . , v
n
v
1
=

1
1

2

v
2

1
1

n

v
n
.
Se v
1
for uma combinao linear de v
2
, . . . , v
n
, ento existem escalares
2
, . . . ,
n
tais
que
v
1
=
2
v
2
+ +
n
v
n
e
v
1
+ (
2
) v
2
+ + (
n
) v
n
= 0,
mostrando que {v
1
, . . . , v
n
} linearmente dependente.
Todo conjunto que contm um subconjunto linearmente dependente linearmente
dependente. Todo subconjunto de um conjunto de vetores linearmente independente
linearmente independente.
Proposio 2.10 Seja S um conjunto nito de vetores.
1. Se S for linearmente dependente, qualquer conjunto nito de vetores que o contm
tambm ser linearmente dependente.
2. Se S for linearmente independente, qualquer subconjunto de S ser linearmente
independente.
Prova. Seja S = {v
1
, . . . , v
n
}.
Notas de aula do Prof. Antonio Cndido Faleiros 37
1. Se S for linearmente dependente, existem escalares
1
, . . . ,
n
nem todos nulos tais
que
1
v
1
+ +
n
v
n
= 0. Seja S
0
um conjunto nito que contm S. Se w
1
, . . . , w
m
forem os elementos de S
0
que no pertencem a S, ento

1
v
1
+ +
n
v
n
+ 0w
1
+ + 0w
m
= 0
provando que S
0
linearmente dependente.
2. Se S for linearmente independente, seja S
0
um subconjunto de S. Se S
0
fosse linear-
mente dependente, S tambm o seria pela primeira parte. Logo S
0
linearmente
independente.

2.3 Base e dimenso


Seja B = {v
1
, . . . , v
n
} um conjunto nito de vetores em V. Se todo elemento de V for
uma combinao linear dos elementos de B, diremos que B gera V.
Exemplo 2.11 O conjunto B = {(1, 2), (1, 0), (0, 1)} gera o R
2
. Qualquer par ordenado
(x, y) pode ser decomposto nas combinaes lineares
(x, y) = 0(1, 2) +x(1, 0) +y(0, 1)
ou
(x, y) = x(1, 2) + 0(1, 0) + (y 2x)(0, 1).
Neste exemplo, o modo de escrever (x, y) como combinao linear dos elementos de B no
nica.
Exemplo 2.12 O conjunto B = {(2, 1), (1, 0) } gera o R
2
pois podemos escrever um par
ordenado (x, y) qualquer como combinao linear desses dois vetores
(x, y) = x(2, 1) + (y x)(1, 0).
Neste exemplo, o modo de escrever (x, y) como combinao linear dos elementos de B
nica.
Que diferena existe entre os conjuntos geradores dos exemplos acima? O primeiro
linearmente dependente e o segundo linearmente dependente.
Denio 2.13 Um conjunto nito de vetores linearmente independente e que gera V
uma base de V.
38 Notas de aula do Prof. Antonio Cndido Faleiros
Uma base B = {v
1
, . . . , v
n
} gera V. Assim, para cada vetor v em V existem escalares

1
, . . . ,
n
tais que
v =
1
v
1
+ +
n
v
n
.
Os vetores
1
v
1
, . . . ,
n
v
n
so denominados de componentes do vetor v na base B, os
escalares
1
, . . . ,
n
so as coordenadas de v na base B e a matriz coluna
[v]
B
= [
1
. . .
n
]
T
a matriz das coordenadas de v na base B.
Uma base ordenada B = {v
1
, v
2
, . . . , v
n
} aquela em que se estabelece que v
1
o
seu primeiro elemento, que v
2
o seu segundo elemento, e assim por diante. A ordem em
que seus elementos so escritos relevante.
Proposio 2.14 A matriz das coordenadas de um vetor numa base ordenada nica.
Prova. Seja B = {v
1
, . . . , v
n
} uma base ordenada de um espao vetorial V. Se v =
x
1
v
1
+ + x
n
v
n
e v = y
1
v
1
+ + y
n
v
n
forem duas decomposies de v nos elementos
da base B, ento
0 = v v = (x
1
y
1
)v
1
+ + (x
n
y
n
)v
n
e, da independncia linear dos vetores da base, x
i
= y
i
para i = 1, . . . , n.
De ora em diante, uma base ordenada ser chamada simplesmente de base. O contexto
indicar a necessidade de ser a base ordenada ou no.
Exemplo 2.15 Considere as nuplas e
1
= (1, 0, . . . , 0), e
2
= (0, 1, . . . , 0), e
n
= (0, 0,
. . . , 1), onde e
k
a linha k da matriz identidade n n. O conjunto de vetores {e
1
, e
2
,
. . . , e
n
} uma base tanto do R
n
quanto do C
n
e chamada de base cannica. Se x =
(x
1
, . . . , x
n
), ento x = x
1
e
1
+ + x
n
e
n
. Isto signica que as coordenadas de x na base
cannica so exatamente os elementos da nupla x.
Exemplo 2.16 O conjunto {1, x, x
2
} uma base do espao vetorial dos polinmios de
grau menor ou igual a dois com coecientes complexos.
Nem todo espao vetorial possui uma base tal como se deniu acima. O espao vetorial
de todos os polinmios com coecientes complexos no possui base no sentido denido
neste texto. No existe conjunto nito de polinmios que gera todos os demais. Todo
conjunto nito de polinmios tem um polinmio de grau mximo, que no seria capaz de
gerar os polinmios de grau superior ao polinmio de grau mximo do conjunto.
Todas as bases de um espao vetorial possuem o mesmo nmero de elementos, como
provaremos em seguida. Precederemos o teorema principal por trs lemas.
Lema 2.17 Seja {v
1
, . . . , v
n
} uma base de V e w =
1
v
1
+ +
n
v
n
. Se
i
6= 0, ento
{v
1
, . . . , v
i1
, w, v
i+1
, , . . . , v
n
}
tambm base.
Notas de aula do Prof. Antonio Cndido Faleiros 39
Prova. Para simplicar, provaremos o teorema supondo
1
6= 0. Se
1
= 0, podemos
reordenar os elementos da base para trazer para a primeira posio uma componente de w
diferente de zero. Sendo
1
6= 0, podemos explicitar v
1
na igualdade w =
1
v
1
+ +
n
v
n
para obter
v
1
=
1

1
w

2

1
v
2


n

1
v
n
=
1
w +
2
v
2
+ +
n
v
n
.
Vamos provar que {w, v
2
, . . . , v
n
} gera V. Sendo v um vetor qualquer de V, existem
escalares x
1
, x
2
, . . . , x
n
tais que
v = x
1
v
1
+x
2
v
2
+ +x
n
v
n
= x
1
(
1
w +
2
v
2
+ +
n
v
n
) +x
2
v
2
+ +x
n
v
n
= (x
1

1
)w + (x
1

2
+x
2
)v
2
+ + (x
1

n
+x
n
)v
n
,
provando que o conjunto {w, v
2
, . . . , v
n
} gera V.
Vamos provar que {w, v
2
, . . . , v
n
} linearmente independente. Sejam k
1
, k
2
, . . . , k
n
escalares tais que k
1
w+ k
2
v
2
+ + k
n
v
n
= 0. Se k
1
6= 0, ento
k
1
(
1
v
1
+
2
v
2
+ +
n
v
n
) +k
2
v
2
+ +k
n
v
n
= 0
ou
k
1

1
v
1
+ (k
1

2
+k
2
)v
2
+ + (k
1

n
+k
n
)v
n
= 0
com k
1

1
6= 0, o que contraria o fato de {v
1
, v
2
, . . . , v
n
} ser base de V. Logo, k
1
= 0
e a combinao linear k
1
w+ k
2
v
2
+ + k
n
v
n
= 0 se reduz a k
2
v
2
+ + k
n
v
n
= 0. Da
independncia linear do conjunto {v
2
, . . . , v
n
}, obtemos k
2
= = k
n
= 0, provando a
independncia linear de {w, v
2
, . . . , v
n
} que, portanto, base de V.
Lema 2.18 Seja {v
1
, . . . , v
n
} uma base com n elementos do espao vetorial V. Todo
conjunto linearmente independente com n elementos base de V.
Prova. Seja {w
1
, . . . , w
n
} um conjunto linearmente independente com n vetores de
V. Pode-se decompor w
1
na base {v
1
, . . . , v
n
} e escrever
w
1
= c
11
v
1
+ +c
n1
v
1
.
Como w
1
6= 0, pelo menos um dos coecientes desta combinao linear diferente de zero.
Podemos supor que c
11
6= 0 (se o c
11
fosse nulo, bastaria reordenar a base {v
1
, v
2
, . . . , v
n
}
de modo que, nesta nova ordem, c
11
6= 0).
Pelo lema anterior, {w
1
, v
2
, . . . , v
n
} base e podemos escrever
w
2
= c
12
w
1
+c
22
v
2
+ +c
n2
v
n
.
Os coecientes c
22
, . . . , c
n2
no podem ser todos nulos. De fato, se todos eles fossem nulos,
ento w
2
= c
12
w
1
, o que contraria a hiptese de o conjunto {w
1
, . . . , w
n
} ser linearmente
40 Notas de aula do Prof. Antonio Cndido Faleiros
independente. Assim, pelo menos um dos coecientes c
22
, . . . , c
n2
no nulo. Como
antes, podemos supor, sem perda de generalidade, que c
22
6= 0.
Pelo lema anterior, {w
1
, w
2
, v
3
, . . . , v
n
} base de V.
Prosseguindo com este raciocnio, substitumos todos os elementos da base {v
1
, . . . ,
v
n
} por w
1
, w
2
, . . . , w
n
, provando que {w
1
, w
2
, . . . , w
n
} base.
Lema 2.19 Se um espao vetorial V possuir uma base com n elementos, ento todo
conjunto de vetores em V com mais de n elementos linearmente dependente.
Prova. De fato, se houvesse um conjunto linearmente independente com mais do que
n elementos, qualquer subconjunto dele com n elementos seria base e os vetores restantes
seriam combinaes lineares desses n selecionados, contrariando a hiptese de independn-
cia linear do conjunto. Logo, no existe conjunto de vetores linearmente independente
com mais do que n elementos.
Estes lemas nos permitem enunciar o
Teorema 2.20 Se um espao vetorial V possuir uma base com n elementos, todas as
outras bases deste espao vetorial tm o mesmo nmero de elementos.
Prova. De fato, como todo conjunto com mais do que n elementos linearmente
dependente, no h base com mais do que n elementos.
Seja B
1
a base com n elementos. Se existisse alguma base B
2
com k elementos e k <
n, pelo lema anterior, a base B
1
seria linearmente dependente, possibilidade que se exclui
pela denio de base. Logo no existe base com menos do que n elementos.
Este teorema garante que todas as bases de um espao vetorial possui o mesmo nmero
de elementos o que justica a denio que segue.
Denio 2.21 Se um espao vetorial possui uma base, diremos que ele possui dimen-
so nita e que o nmero de elementos das bases a sua dimenso. Por denio, a
dimenso do espao vetorial trivial, aquele que contm apenas o vetor nulo, zero.
2.4 Matriz de mudana de base
Seja V um espao vetorial complexo de dimenso nita n > 0. Sejam B
1
= {u
1
, . . . , u
n
}
e B
2
= {v
1
, . . . , v
n
} duas bases de V. Podemos decompor cada elemento de B
2
numa
combinao linear dos elementos de B
1
v
1
= p
11
u
1
+p
21
u
2
+ +p
n1
u
n
v
2
= p
12
u
1
+p
22
u
2
+ +p
n2
u
n

v
n
= p
1n
u
1
+p
2n
u
2
+ +p
nn
u
n
Notas de aula do Prof. Antonio Cndido Faleiros 41
A matriz
M
12
=
_

_
p
11
p
12
p
1n
p
21
p
22
p
2n
.
.
.
.
.
.
.
.
.
.
.
.
p
n1
p
n2
p
nn
_

_
chamada de matriz de mudana de base, mais especicamente, matriz de mudana
da base B
1
para a base B
2
. Observe que as coordenadas do desenvolvimento de v
1
na
base B
1
formam a primeira coluna, as coordenadas do desenvolvimento de v
2
na base B
1
formam a primeira coluna,
Sendo B
3
= {w
1
, . . . , w
n
} uma terceira base de V, podemos escrever os vetores de B
3
como combinaes lineares dos elementos da base B
2
. Usando o smbolo de somatrio,
w
j
=
n
X
i=1
q
ij
v
i
e agora, M
23
= [q
ij
] a matriz de mudana da base B
2
para a base B
3
.
Das duas decomposies acima segue
w
j
=
X
k
q
kj
v
k
=
X
k
q
kj
X
i
p
ik
u
i
=
X
i

X
k
p
ik
q
kj
!
u
i
=
X
i
r
ij
u
i
onde M
13
= [r
ij
] = [
P
k
p
ik
q
kj
] a matriz de mudana da base B
1
para a base B
3
. Como
M
13
= [r
ij
] =
"
X
k
p
ik
q
kj
#
= [p
ik
][q
kj
] = M
12
M
23
,
provamos a identidade
M
13
= M
12
M
23
.
Quando B
3
= B
1
, a matriz M
13
a identidade I e M
23
= M
21
. Da igualdade acima segue
M
12
M
21
= I,
mostrando que as matrizes de mudana de base so inversveis e que a inversa de M
12

M
21
.
Sejam i e j inteiros do conjunto {1, 2, . . . , n}. O delta de Kronecker
ij
, um
conjunto de n
2
nmeros denidos do seguinte modo:
ij
= 1 quando i = j e
ij
= 0
quando i 6= j.
Observe que o elemento da linha i coluna j da matriz identidade I de ordem n n
exatamente
ij
e podemos usar o delta de Kronecker para escrever I = [
ij
].
As igualdades matriciais
M
12
M
21
= I e M
21
M
12
= I
42 Notas de aula do Prof. Antonio Cndido Faleiros
quando escritas componente a componente, fornece
X
k
p
ik
q
kj
=
ij
e
X
k
q
ik
p
kj
=
ij
para i e j percorrendo os valores 1, . . . , n.
Mudana de coordenadas
Teorema 2.22 Sejam B
1
e B
2
duas bases do espao vetorial V. Sejam
[u]
1
a matriz das coordenadas de u na base B
1
,
[u]
2
a matriz das coordenadas de u na base B
2
e
M
12
a matriz de mudana da base B
1
para a base B
2
.
Ento
[u]
1
= M
12
[u]
2
Prova. Sejam B
1
= {v
1
, . . . , v
n
} e B
2
= {w
1
, . . . , w
n
} as bases em questo. Se [u]
1
=
[x
1
, . . . , x
n
]
T
for a matriz das coordenadas de u na base B
1
, se [u]
2
= [y
1
, . . . , y
n
]
T
for a
matriz das coordenadas de u na base B
2
e se M
12
= [p
ij
] for a matriz de mudana da base
B
1
para a base B
2
, segue
u =
X
i
x
i
v
i
=
X
j
y
j
w
j
e
w
j
=
n
X
i=1
p
ij
v
i
.
Portanto,
u =
X
j
y
j
w
j
=
X
j
y
j
X
i
p
ij
v
i
=
X
i

X
j
p
ij
y
j
!
v
i
.
Como u =
P
i
x
i
v
i
, segue da unicidade da decomposio de um vetor nos elementos da
base que
x
i
=
X
j
p
ij
y
j
que corresponde igualdade matricial
[u]
1
= M
12
[u]
2
.

Notas de aula do Prof. Antonio Cndido Faleiros 43


2.5 Subespao vetorial
Seja V um espao vetorial e W um subconjunto no vazio de V. Diremos que W um
subespao vetorial de V se, para todo v e w em W e todo escalar , os vetores w e
v + w pertencerem a W. Em outras palavras, o subespao vetorial aquele subconjunto
fechado em relao adio e multiplicao por um escalar.
As operaes de adio de vetores e multiplicao por uma escalar denidas em V,
tambm se aplicam aos vetores de W, que est contido em V. Certamente, essas operaes
em W gozam das mesmas propriedades que em V. Deste argumento se conclui que todo
subespao vetorial , ele prprio, um espao vetorial.
O prprio V um subespao vetorial dele mesmo. O subespao {0} denominado de
subespao trivial de V. Os subespaos distintos de V so denominados de subespaos
prprios de V.
Exemplo 2.23 O conjunto W = { (x, y, 0) : x, y R } um subespao prprio de R
3
.
Um subespao vetorial sempre contm o vetor nulo. De fato, sendo 0 o escalar nulo,
para todo vetor v do subespao, 0v o vetor nulo e, por denio, pertence ao subespao.
SejamW
1
e W
2
subespaos vetoriais de umespao vetorial V. Asoma dos subespaos
W
1
+W
2
, denida por
W
1
+W
2
= {w
1
+w
2
: w
1
W
1
e w
2
W
2
}
e a interseo dos subespaos W
1
W
2
, denida por
W
1
W
2
= {w : w W
1
e w W
2
}
so subespaos vetoriais de V.
Nota 2.24 Nem sempre a unio
W
1
W
2
= {w V : w W
1
ou w W
2
}
de dois subespaos W
1
e W
2
de V um subespao vetorial de V. Se u e v pertencerem
unio, u + v pode no pertencer. Quando W
1
estiver contido em W
2
, ento W
1
W
2
=
W
2
e da a unio ser um subespao vetorial de V.
Seja W um subepao vetorial de V, um espao vetorial com dimenso nita. Ento
dim(W) = dim(V ) se e s se W = V e dim(W) < dim(V ) se e s se W for subespao
prprio de V.
Os subespaos de dimenso n 1 de um espao vetorial de dimenso n so chamados
de hiperplanos.
Exemplo 2.25 O subespao vetorial W = { x(1, 2, 0) +y(0, 3, 1) : x e y R } do R
3

um hiperplano.
44 Notas de aula do Prof. Antonio Cndido Faleiros
2.6 Subespao gerado
Seja S um subconjunto de V. O conjunto de todas as combinaes lineares nitas de
elementos de S um subespao vetorial de V, chamado de subespao gerado por S e
denotado por hSi . Diz-se ainda que S gera hSi ou que hSi gerado por S. O subespao
gerado por S um subespao vetorial de V.
Sendo S = { w
1
, . . . , w
k
} nito, ento
hSi = {
1
w
1
+ +
k
w
k
:
1
, . . . ,
k
R}.
Exemplo 2.26 Seja S = {e
1
, e
3
} um subconjunto do R
3
onde e
1
= (1, 0, 0, ) e e
3
= (0,
0, 1). O subespao gerado por S hSi = { (x, 0, y) : x, y R
3
}. Se considerarmos S
como subconjunto de C
3
ento hSi = { (x, 0, y) : x, y C}.
Base do subespao gerado
Seja S = {w
1
, . . . , w
k
} um conjunto de vetores de C
n
, de modo que
w
1
= (w
11
, w
12
, . . . , w
1n
)
w
2
= (w
21
, w
22
, . . . , w
2n
)

w
k
= (w
k1
, w
k2
, . . . , w
kn
)
Vamos descrever um processo para determinar uma base para o espao gerado por S no
qual lanamos mo de alguns fatos para nos auxiliar nesta tarefa. Vamos enumer-los
abaixo.
1. Retirar os vetores nulos de S no altera o espao gerado por S.
2. Permutar a ordem dos vetores de S no altera o espao gerado por S.
3. Se multiplicarmos um ou mais vetores de S por escalares no nulos, o espao gerado
por S no se altera.
4. Se substituirmos em S o vetor w
i
pelo vetor w
i
+ cw
j
, onde c um escalar, o espao
gerado por S permanece inalterado.
5. Se nenhum vetor de S for nulo e a matriz
_

_
w
11
w
12
w
1n
w
21
w
22
w
2n
.
.
.
.
.
.
.
.
.
.
.
.
w
k1
w
k2
w
kn
_

_
for escalonada, ento S linearmente independente e, portanto, uma base do
espao gerado por S.
Notas de aula do Prof. Antonio Cndido Faleiros 45
Os fatos enumerados acima nos permitem usar o mtodo da eliminao de Gauss para
determinar uma base para o espao gerado por S : Construa a matriz cujas linhas so
os elementos de w
1
, w
2
, . . . , w
k
, como acima e obtenha sua forma escalonada usando o
mtodo da eliminao de Gauss. As linhas no nulas da forma escalonada desta matriz
R =
_

_
r
11
r
12
r
1n
0 r
22
r
2n
0 0 r
3n
.
.
.
.
.
.
.
.
.
.
.
.
_

_
formaro a base de hSi .
Este procedimento pode ser usado para determinar o subespao gerado por S = { w
1
,
. . . , w
k
} mesmo quando S for um conjunto de vetores num espao vetorial de dimenso
nita V qualquer. Basta tomar uma base B = { v
1
, v
2
, . . . , v
n
} de V e decompor cada
elementos de S numa combinao linear de elementos de B
w
1
=
11
v
1
+
12
v
2
+ +
1n
v
n
w
2
=
21
v
1
+
22
v
2
+ +
2n
v
n

w
k
=
k1
v
1
+
k2
v
2
+ +
kn
v
n
formar a matriz
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.
.
.
.

k1

k2

kn
_

_
e proceder como no caso em que o espao vetorial o C
n
, obtendo, obter sua forma
escalonada
R =
_

_
r
11
r
12
r
1n
0 r
22
r
2n
0 0 r
3n
.
.
.
.
.
.
.
.
.
.
.
.
_

_
Os vetores no nulos obtidos na forma escalonada
r
11
v
1
+r
12
v
2
+ +r
1n
v
n
r
22
v
2
+r
23
v
3
+ +r
2n
v
n
r
33
v
3
+r
34
v
4
+ +r
3n
v
n
.
.
.
formaro uma base para o espao gerado por V.
46 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 2.27 Vamos determinar uma base do subespao vetorial do R
5
gerado por
w
1
= (1, 2, 2, 3, 4),
w
2
= (3, 8, 0, 2, 8),
w
3
= (1, 2, 2, 1, 0),
w
4
= (1, 2, 8, 8, 8),
w
5
= (2, 6, 3, 5, 9).
Construmos a matriz
_

_
1 2 2 3 4
3 8 0 2 8
1 2 2 1 0
1 2 8 8 8
2 6 3 5 9
_

_
e a escalonamos
_

_
1 0 0 0 0
3 1 0 0 0
1 0 1 0 0
1 0 0 1 0
2 0 0 0 1
_

_
_

_
1 2 2 3 4
3 8 0 2 8
1 2 2 1 0
1 2 8 8 8
2 6 3 5 9
_

_
=
_

_
1 2 2 3 4
0 2 6 11 20
0 0 0 2 4
0 0 10 5 4
0 2 1 11 17
_

_
_

_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 1 0 0 1
_

_
_

_
1 2 2 3 4
0 2 6 11 20
0 0 0 2 4
0 0 10 5 4
0 2 1 11 17
_

_
=
_

_
1 2 2 3 4
0 2 6 11 20
0 0 0 2 4
0 0 10 5 4
0 0 5 0 3
_

_
_

_
1 0 0 0 0
0 1 0 0 0
0 0 0 0 1
0 0 0 1 0
0 0 1 0 0
_

_
_

_
1 2 2 3 4
0 2 6 11 20
0 0 0 2 4
0 0 10 5 4
0 0 5 0 3
_

_
=
_

_
1 2 2 3 4
0 2 6 11 20
0 0 5 0 3
0 0 10 5 4
0 0 0 2 4
_

_
_

_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 2 1 0
0 0 0 0 1
_

_
_

_
1 2 2 3 4
0 2 6 11 20
0 0 5 0 3
0 0 10 5 4
0 0 0 2 4
_

_
=
_

_
1 2 2 3 4
0 2 6 11 20
0 0 5 0 3
0 0 0 5 10
0 0 0 2 4
_

_
_

_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1/5 0
0 0 0 2/5 1
_

_
_

_
1 2 2 3 4
0 2 6 11 20
0 0 5 0 3
0 0 0 5 10
0 0 0 2 4
_

_
=
_

_
1 2 2 3 4
0 2 6 11 20
0 0 5 0 3
0 0 0 1 2
0 0 0 0 0
_

_
Notas de aula do Prof. Antonio Cndido Faleiros 47
e assim, uma base do espao gerado por w
1
, w
2
, w
3
, w
4
, w
5
formada pelos vetores
z
1
= (1, 2, 2, 3, 4),
z
2
= (0, 2, 6, 11, 20),
z
3
= (0, 0, 5, 0, 3),
z
4
= (0, 0, 0, 1, 2).
48 Notas de aula do Prof. Antonio Cndido Faleiros
Captulo 3
Transformao linear
Neste captulo consideraremos que os espaos vetoriais esto denidos emummesmo corpo
K. Nos exemplos, K ser o corpo dos nmeros reais ou o corpo dos nmeros complexos.
Sejam V e W dois espaos vetoriais sobre um mesmo corpo K. Uma funo L : V W
uma transformao linear se, para todo par de vetores v, w em V e todo escalar
do corpo K,
L(v +w) = L(v) +L(w),
L(v) = L(v).
A notao Lv tambm usada para indicar L(v).
Podemos unir as duas igualdades acima dizendo que L linear quando a igualdade
L(v +w) = L(v) +L(w)
se vericar para todo e escalares e para todo v e w em V.
Toda transformao linear leva o zero de V no zero de W. De fato, L(0) = L(0 +0) =
L(0)+ L(0) = 2L(0) o que implica em L(0) = 0.
Exemplo 3.1 A transformao L
1
: R
2
R denida por L
1
(x, y) = 3x+ 2y linear.
A transformao L
2
: R
2
R
2
denida por L
2
(x, y) = (x y, 0) linear.
A transformao T : R
2
R denida por T(x, y) = x+y +2 no linear pois T(2x,
2y) = 2x+ 2y+ 2 diferente de 2T(x, y) = 2x+ 2y+ 4.
Uma transformao linear L : V V de um espao V sobre ele mesmo recebe o nome
de operador linear. Se V for um espao vetorial sobre um corpo K, uma transformao
linear L : V K recebe o nome de funcional linear.
Sendo L : V W e T : W U, denimos a composta T L : V U por
T L(v) = T(L(v)).
Tambm se denota T L por TL. Assim, TL(v) = T(L(v)).
49
50 Notas de aula do Prof. Antonio Cndido Faleiros
Pode-se provar por induo que, se L : V W for linear, se v
1
, . . . , v
n
forem vetores
de V e se
1
, . . . ,
n
forem escalares, ento
L(
1
v
1
+ +
n
v
n
) =
1
L(v
1
) + +
n
L(v
n
).
A partir desta frmula podemos armar que quando L for linear e {v
1
, . . . , v
n
} for
base de V, o conhecimento dos vetores w
1
= L(v
1
), . . . , w
n
= L(v
n
) suciente para
calcular o valor de L em qualquer vetor v. Basta decompor v em uma combinao linear
dos vetores da base
v = x
1
v
1
+ +x
n
v
n
e calcular
L(v) = L(x
1
v
1
+ +x
n
v
n
) = x
1
L(v
1
) + +x
n
L(v
n
) = x
1
w
1
+ +x
n
w
n
.
Exemplo 3.2 Seja L : R
3
R uma transformao linear e e
1
= (1, 0, 0), e
2
= (0, 1,
0) e e
3
= (0, 0, 1) os elementos da base cannica do R
3
. Se Le
1
= 5, Le
2
= 7, Le
3
= 11,
para qualquer (x
1
, x
2
, x
3
) em R
3
, teremos
L(x
1
, x
2
, x
3
) = L(x
1
e
1
+x
2
e
2
+x
3
e
3
)
= x
1
L(e
1
) +x
2
L(e
2
) +x
3
L(e
3
)
= 5x
1
+ 7x
2
+ 11x
3
.
Generalizando este exemplo, se Le
1
= a
1
, Le
2
= a
2
e Le
3
= a
3
, ento
L(x
1
, x
2
, x
3
) = L(x
1
e
1
+x
2
e
2
+x
3
e
3
)
= x
1
L(e
1
) +x
2
L(e
2
) +x
3
L(e
3
)
= a
1
x
1
+a
2
x
2
+a
3
x
3
.
Este exemplo nos d uma indicao da forma geral de um funcional linear L de R
n
em R. Vamos determin-la. Seja {e
1
, e
2
, . . . , e
n
} a base cannica do R
n
. Se L(e
i
) = a
i
para i = 1, . . . , n, ento, para todo (x
1
, . . . , x
n
) vale
L(x
1
, . . . , x
n
) = L(x
1
e
1
+ +x
n
e
n
) = x
1
L(e
1
) + +x
n
L(e
n
)
ou
L(x
1
, . . . , x
n
) = a
1
x
1
+ +a
n
x
n
.
Esta a forma geral de um funcional linear do R
n
em R.
Exemplo 3.3 Utilizando a forma geral, vemos que L
1
(x, y) = 5x 4y e L
2
(x, y) = 3x
so transformaes lineares de R
2
em R. Todavia, T(x, y) = x+ 2 no linear pois no
possui o formato estabelecido acima e observe que T no leva o zero de R
2
no zero de R.
Notas de aula do Prof. Antonio Cndido Faleiros 51
Vamos determinar agora a forma geral de uma uma transformao linear L de R
n
em
R
m
. Iniciemos com um exemplo ilustrativo com a transformao
L(x
1
, x
2
) = (x
1
3x
2
, 2x
1
, x
1
+ 4x
2
)
de R
2
em R
3
. Se denirmos
L
1
(x
1
, x
2
) = x
1
3x
2
, L
2
(x
1
, x
2
) = 3x
2
e L
3
(x
1
, x
2
) = x
1
+ 4x
2
ento
L(x
1
, x
2
) = ( L
1
(x
1
, x
2
), L
2
(x
1
, x
2
), L
3
(x
1
, x
2
) ).
Baseados neste exemplo, vemos que, se L uma transformao linear do R
n
em R
m
, para
qualquer x no R
n
, tem-se
L(x) = ( L
1
(x), . . . , L
m
(x) ),
onde L
1
(x), . . . , L
m
(x) so nmeros reais, dependentes de x. Vamos mostrar que L
1
, . . . ,
L
m
so funcionais lineares de R
n
em R. De fato, sendo e escalares e x, y nuplas
ordenadas, ento
L(x +y) = Lx +Ly
e assim,
( L
1
(x +y), . . . , L
m
(x +y) ) = ( L
1
x +L
1
y, . . . , L
m
x +L
m
y )
e, da igualdade desses elementos de R
m
, obtemos
L
1
(x +y) = L
1
x +L
1
y
. . .
L
m
(x +y) = L
m
x +L
m
y
mostrando que L
1
, . . . , L
m
so funcionais lineares de R
n
em R. A partir da, conclumos
que toda transformao linear L de R
n
em R
m
da forma
L(x
1
, . . . , x
n
) = ( a
11
x
1
+ +a
1n
x
n
, . . . , a
m1
x
1
+ +a
m,n
x
n
)
onde a
ij
, para i = 1, . . . , m e j = 1, . . . , n, so nmeros reais.
Exemplo 3.4 A transformao
L(x, y) = (2x y, x +y, y)
de R
2
em R
3
linear. A transformao
T(x, y) = (x, 0, x + 2y, 3x +y, 4y)
de R
2
em R
5
linear.
52 Notas de aula do Prof. Antonio Cndido Faleiros
Seja L : V W uma transformao linear. O conjunto
ker L = {v V : Lv = 0}
chamado de ncleo (kernel em ingls) de L e o conjunto
ImL = {Lv : v V }
a imagem de L. Tanto o ncleo de L quanto a sua imagem, so subespaos vetoriais
de V. A dimenso do ncleo de L denominada de nulidade de L.
Exemplo 3.5 Seja L a transformao linear de R
3
em R
3
denida por
L(x, y, z) = (x +z, 2x +y +z, x + 2y z).
Para determinar o ncleo de L escreva
L(x, y, z) = (x +z, 2x +y +z, x + 2y z) = (0, 0, 0)
e resolva o sistema correspondente igualdade acima
x +z = 0
2x +y +z = 0
x + 2y z = 0
cuja soluo x = z e y = z pode ser obtida pelo mtodo da eliminao de Gauss. Assim,
ker L = {(z, z, z) : z R}.
O ker L gerado por (1, 1, 1) e, portanto, tem dimenso 1.
Para determinar a imagem de L escrevemos
L(x, y, z) = (x +z, 2x +y +z, x + 2y z)
= x(1, 2, 1) +y(0, 1, 2) +z(1, 1, 1)
mostrando que todo elemento da imagem de L uma combinao linear dos vetores (1, 2,
1), (0, 1, 2) e (1, 1, 1). Para determinar uma base do espao gerado usamos o processo
de escalonamento. Construmos a matriz
_
_
1 2 1
0 1 2
1 1 1
_
_
cujas linhas so os elementos dos vetores que geram o subespao. Usando operaes
elementares sobre as linhas chegamos a
_
_
1 2 1
0 1 2
1 1 1
_
_
l
3
=l
3
l
1

_
_
1 2 1
0 1 2
0 1 2
_
_
l
3
=l
3
l
2

_
_
1 2 1
0 1 2
0 0 0
_
_
Notas de aula do Prof. Antonio Cndido Faleiros 53
e chegamos a uma base da imagem de L que formada pelos vetores
(1, 2, 1) , (0, 1, 2)
e conclumos que a imagem de L tem dimenso 2.
Adicionando a dimenso do ncleo com a dimenso da imagem obtemos 3 que a
dimenso do domnio de L.
O resultado do exemplo anterior em que a soma das dimenses do ncleo e da imagem
de L igual dimenso do domnio de L um resultado geral, como enuncia o prximo
teorema.
Teorema 3.6 Sejam V e W espaos vetoriais e L : V W linear. Se a dimenso de V
for nita, ento
dimV = dimIm(L) + dimker(L).
Prova. Quando L a transformao linear nula, que leva todos os vetores de V
no zero a Im(L) = {0} e nada resta a provar, uma vez que ker(L) = V. Assim, como
dimIm(L) = 0 e dimker(L) = dim(V ).
Se L no for a transformao linear nula, Im(L) 6= {0}. Seja {v
1
, . . . , v
p
} uma base do
ker(L). Podemos acrescentar vetores a este conjunto at obter uma base B = {v
1
, . . . , v
p
,
v
p+1
, . . . , v
n
} de V. Se provarmos que {L(v
p+1
), . . . , L(v
n
)} base da Im(L), o teorema
estar provado pois
dimker(L) + dimIm(L) = p + (n p) = n = dim(V ).
Inicialmente, observamos que nenhum dos vetores L(v
p+1
), . . . , L(v
n
) nulo. Se fosse, o
vetor correspondente pertenceria ao ncleo de L e B seria linearmente dependente, o que
no o caso pois base de V.
Provemos agora que {L(v
p+1
), . . . , L(v
n
)} base da Im(L).
1. O conjunto {L(v
p+1
), . . . , L(v
n
)} gera Im(L).
De fato, se w pertence Im(L), ento existe v em V tal que w = Lv. Podemos
escrever v como uma combinao linear dos elementos da base B,
v = x
1
v
1
+ +x
p
v
p
+x
p+1
v
p+1
+ +x
n
v
n
de onde segue
w = Lv = L(x
1
v
1
+ +x
p
v
p
+x
p+1
v
p+1
+ +x
n
v
n
)
= x
1
Lv
1
+ +x
p
Lv
p
+x
p+1
Lv
p+1
+ +x
n
Lv
n
= x
p+1
Lv
p+1
+ +x
n
Lv
n
,
mostrando que {Lv
p+1
, . . . , Lv
n
} gera a Im(L).
54 Notas de aula do Prof. Antonio Cndido Faleiros
2. O conjunto {Lv
p+1
, . . . , Lv
n
} linearmente independente.
Se fosse linearmente dependente, existiriam escalares k
p+1
, . . . , k
n
, nem todos nulos,
tais que
k
p+1
L(v
p+1
) + +k
n
L(v
n
) = 0
o que implica em
L(k
p+1
v
p+1
+ +k
n
v
n
) = 0
indicando que o vetor k
p+1
v
p+1
+ + k
n
v
n
pertenceria ao ker(L), sendo igual a uma
combinao linear dos vetores v
1
, . . . , v
p
que formam uma base do ncleo de L. Portanto,
existem escalares k
1
, . . . , k
p
tais que
k
p+1
v
p+1
+ +k
n
v
n
= k
1
v
1
+ +k
p
v
p
ou
k
1
v
1
+ +k
p
v
p
k
p+1
v
p+1
k
n
v
n
= 0
onde pelo menos um dos k
i
, com i = 1, . . . , p, diferente de zero, o que vai contraria a
hiptese de B ser base de V.
Das partes 1 e 2 conclumos que {Lv
p+1
, . . . , Lv
n
} base da Im(L).
Como {v
1
, . . . , v
p
} base do ker(L) e {Lv
p+1
, . . . , Lv
n
} base da Im(L), ento
dimker L + dimImL = p + (n p) = n = dimV
e o teorema est provado.
3.1 Matriz de uma transformao linear
Seja B
1
= {v
1
, . . . , v
n
} uma base de um espao vetorial V, B
2
= {w
1
, . . . , w
m
} uma base
de um espao vetorial W e L : V W uma transformao linear. Podemos decompor
cada vetor Lv
j
, com j = 1, . . . , n, numa combinao linear dos elementos da base B
2
Lv
1
= a
11
w
1
+a
21
w
2
+ +a
m1
w
m
Lv
2
= a
12
w
1
+a
22
w
2
+ +a
m2
w
m

Lv
n
= a
1n
w
1
+a
2n
w
2
+ +a
mn
w
m
Estas expresses podem ser escritas de modo taquigrco usando somatrio: para j = 1,
2, . . . , n
Lv
j
=
m
X
i=1
a
ij
w
i
.
Notas de aula do Prof. Antonio Cndido Faleiros 55
A matriz m por n
[L]
12
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
denominada de matriz de L nas bases B
1
e B
2
. Ainda se diz que [L]
12
a representao
matricial de L nas bases B
1
e B
2
.
Quando W = V e B
2
= B
1
, a matriz [L]
12
denotada por [L]
1
e denominada de matriz
de L na base B
1
. Tambm se diz que [L]
1
a representao matricial de L na base B
1
.
Para simplicar a notao, podemos escrever [L] em lugar de [L]
12
ou [L]
1
, conforme o
caso, sempre que o contexto for claro quanto s bases envolvidas.
Teorema 3.7 Sejam B
1
e B
2
bases dos espaos vetoriais V e W, respectivamente. Seja
L : V W uma transformao linear e v um vetor de V. Se [v]
1
for a matriz de v na
base B
1
, [Lv]
2
a matriz de Lv na base B
2
e [L]
12
for ma matriz de Lv nas bases B
1
e B
2
ento
[Lv]
2
= [L]
12
[v]
1
.
Prova. Sejam B
1
= {v
1
, . . . , v
n
} e B
2
= {w
1
, . . . , w
m
} as bases de V e W. Se
v =
n
X
j=1
x
j
v
j
, Lv =
m
X
i=1
y
i
w
i
, Lv
j
=
m
X
i=1
a
ij
w
i
,
ento [v]
1
= [x
1
, . . . , x
n
]
T
, [Lv]
2
= [y
1
, . . . , y
m
]
T
so matrizes coluna e [L]
12
= [a
ij
]
uma matriz retangular mn.
Por um lado,
Lv = L

X
j
x
j
v
j
!
=
X
j
x
j
L(v
j
)
=
X
j
x
j
X
i
a
ij
w
i
=
X
i

X
j
a
ij
x
j
!
w
i
e por outro,
Lv =
X
i
y
i
w
i
.
Da unicidade da decomposio de um vetor nos elementos da base,
y
i
=
n
X
j=1
a
ij
x
j
para i = 1, . . . , m que equivale igualdade matricial
[Lv]
2
= [L]
12
[v]
1
.

56 Notas de aula do Prof. Antonio Cndido Faleiros


Teorema 3.8 Sejam B
1
, B
2
e B
3
, respectivamente, bases dos espaos vetoriais V, W e U.
Sejam L
1
: V W e L
2
: W U lineares. Ento
[L
2
L
1
]
13
= [L
2
]
23
[L
1
]
12
.
Prova. Sejam B
1
= {v
1
, . . . , v
n
}, B
2
= {w
1
, . . . , w
m
} e B
3
= {u
1
, . . . , u
p
} as bases
em questo. Se
L
1
v
j
=
m
X
i=1
a
ij
w
i
,
L
2
w
i
=
p
X
k=1
b
ki
u
k
,
L
2
L
1
v
j
=
p
X
k=1
c
kj
u
k
,
ento [L
1
]
12
= [a
ij
], [L
2
]
23
= [b
ki
] e [L
2
L
1
]
13
= [c
kj
]. Como
L
2
L
1
v
j
= L
2

m
X
i=1
a
ij
w
i
!
=
m
X
i=1
a
ij
L
2
(w
i
)
=
m
X
i=1
a
ij
p
X
k=1
b
ki
u
k
=
p
X
k=1

m
X
i=1
b
ki
a
ij
!
u
k
segue
c
kj
=
m
X
i=1
b
ki
a
ij
para k = 1, . . . , p e j = 1, . . . , n, que resulta na igualdade matricial
[L
2
L
1
]
13
= [L
2
]
23
[L]
12
.

Teorema 3.9 Sejam B


1
e B
2
duas bases do espao vetorial V e L : V V um operador
linear. Seja M
12
a matriz de mudana da base B
1
para a base B
2
. Ento
M
12
[L]
2
= [L]
1
M
12
ou [L]
2
= M
1
12
[L]
1
M
12
.
Prova. Sejam B
1
= {v
1
, . . . , v
n
} e B
2
= {w
1
, . . . , w
n
} as bases em questo. Seja
M
12
= [m
ij
] a matriz de mudana da base B
1
para a base B
2
, de modo que
w
j
=
n
X
i=1
m
ij
v
i
.
Notas de aula do Prof. Antonio Cndido Faleiros 57
Sejam [L]
1
= [a
ij
] e [L]
2
= [b
ij
] as matrizes de L nas bases B
1
e B
2
, respectivamente.
Podemos escrever, para j = 1, . . . , n,
Lv
j
=
n
X
i=1
a
ij
v
i
, e Lw
j
=
n
X
i=1
b
ij
w
i
.
Por um lado,
Lw
j
=
X
k
b
kj
w
k
=
X
k
b
kj
X
i
m
ik
v
i
=
X
i

X
k
m
ik
b
kj
!
v
i
e por outro,
Lw
j
= L

X
k
m
kj
v
k
!
=
X
k
m
kj
L(v
k
) =
X
k
m
kj
X
i
a
ik
v
i
=
X
i

X
k
a
ik
m
kj
!
v
i
.
Pela unicidade de decomposio de vetores numa base, segue
X
k
m
ik
b
kj
=
X
k
a
ik
m
kj
,
igualdade vlida para i = 1, . . . , n e j = 1, . . . , m. Usando a notao matricial, conclui-se
a prova do teorema:
M
12
[L]
2
= [L]
1
M
12
.

Denio 3.10 Duas matrizes A e B so semelhantes se existir uma matriz inversvel


P tal que
B = P
1
AP.
De acordo com o teorema anterior, as representaes matriciais de uma transformao
linear L : V V so semelhantes.
3.2 Isomorsmo
Sejam V e W dois espaos vetoriais sobre o mesmo corpo. Uma tranformao L : V
W injetora se, para todo v
1
6= v
2
em V, ento L(v
1
) 6= L(v
2
). De forma equivalente, L
injetora se para todo v
1
e v
2
em V com L(v
1
) = L(v
2
) tem-se v
1
= v
2
.
58 Notas de aula do Prof. Antonio Cndido Faleiros
Teorema 3.11 Sejam V e W espaos vetoriais sobre o mesmo corpo. Seja L : V W
linear. L injetora se e s se ker(L) = {0}. Em outras palavras, L injetora se e s se
o zero o nico vetor levado por L em zero.
Uma transformao L : V W sobrejetora se, para todo w em W, existe pelo
menos um v em V tal que Lv = w. Uma transformao bijetora aquela que ao mesmo
tempo injetora e sobrejetora. As transformaes bijetoras L : V W possuem inversa
L
1
: W V que, por sua vez, bijetora e sua inversa L.
Denominamos isomorsmo transformao L : V W que linear e bijetora.
Neste caso sua inversa L
1
: W V linear e, portanto, um isomorsmo. Dois espaos
vetoriais V e W so isomorfos quando houver um isomorsmo de V em W.
Teorema 3.12 Dois espaos vetoriais V e W sobre um mesmo corpo e de dimenso nita
so isomorfos se e s se dimV = dimW.
Prova. Sejam V e W isomorfos e L : V W um isomorsmo entre eles. Dada uma
base {v
1
, . . . , v
n
} de V, vamos mostrar que {Lv
1
, . . . , Lv
n
} base de W.
1. Provemos que {Lv
1
, . . . , Lv
n
} gera W. Sendo L bijetora, para qualquer w em W,
existe v em V tal que w = Lv. Decompondo v na base {v
1
, . . . , v
n
}, obtemos v =
x
1
v
1
+ + x
n
v
n
e w = Lv = x
1
Lv
1
+ + x
n
Lv
n
, provando que {Lv
1
, . . . , Lv
n
}
gera W.
2. Provemos que {Lv
1
, . . . , Lv
n
} linearmente independente. Sejam k
1
, . . . , k
n
es-
calares tais que k
1
Lv
1
+ + k
n
Lv
n
= 0. Ento L(k
1
v
1
+ + k
n
v
n
) = 0 e, como
L(0) = 0 e L bijetora, segue k
1
v
1
+ + k
n
v
n
= 0. Pelo fato de {v
1
, . . . , v
n
} ser
base de V, conclumos que k
1
= = k
n
= 0, provando a independncia linear do
conjunto {Lv
1
, . . . , Lv
n
}.
As partes 1 e 2 provam que dimV = dimW.
Tomando dimV = dimW = n como hiptese, provemos que V e W so isomorfos.
Seja B
1
= {v
1
, . . . , v
n
} base de V e B
2
= {w
1
, . . . , w
n
} base de W. Seja L a transformao
linear de V em W que leva v
i
em w
i
, para i = 1, . . . , n, ou seja Lv
i
= w
i
. Vamos provar
que L um isomorsmo entre V e W.
3. Provemos que L sobrejetor. Dado qualquer s em W, podemos escrever
s = s
1
w
1
+ +s
n
w
n
= s
1
Lv
1
+ +s
n
Lv
n
= L(s
1
v
1
+ +s
n
v
n
),
provando que s est na imagem de L, provando a sobrejetividade de L.
4. Provemos que L injetor. Sejam x = x
1
v
1
+ + x
n
v
n
e y = y
1
v
1
+ + y
n
v
n
dois
vetores de V tais que Lx = Ly. Logo,
L(x
1
v
1
+ +x
n
v
n
) = L(y
1
v
1
+ +y
n
v
n
)
Notas de aula do Prof. Antonio Cndido Faleiros 59
ou seja,
x
1
w
1
+ +x
n
w
n
= y
1
w
1
+ +y
n
w
n
.
Da independncia linear de B
2
, conclumos que x
1
= y
1
, . . . , x
n
= y
n
, de onde resulta
a igualdade x = y, provando que L injetora.
De 3 e 4 conclumos que L um isomorsmo.
Teorema 3.13 Sejam V e W espaos vetoriais sobre o mesmo corpo, ambos com a
mesma dimenso e L : V W linear. So equivalentes:
1. L um isomorsmo.
2. L sobrejetora.
3. L injetora.
4. Se L(v) = 0, ento v = 0. Em outras palavras, ker(L) = {0}.
Prova. Provemos que (2) implica em (3). Seja L sobrejetora e {w
1
, . . . , w
n
} uma
base de W. Da sobrejetividade de L, existe um conjunto de vetores B = {v
1
, . . . , v
n
} em
V tais que Lv
i
= w
i
, para i = 1, . . . , n. O conjunto B base de V. Sejam x = x
1
v
1
+ +
x
n
v
n
e y = y
1
v
1
+ + y
n
v
n
dois vetores de V tais que Lx = Ly. Desta igualdade segue
x
1
w
1
+ + x
n
w
n
= y
1
w
1
+ + y
n
w
n
. A independncia linear de {w
1
, . . . , w
n
} implica
em x
1
= y
1
, . . . , x
n
= y
n
, ou x = y, provando a injetividade de L.
Provemos que (3) implica em (4). Se L injetora e L(v) = 0, como L(0) = 0, segue
que v = 0, provando que (3) implica em (4).
Provemos que (4) implica em (2). Sendo ker(L) = {0} e {v
1
, . . . , v
n
} uma base de V,
ento {Lv
1
, . . . , Lv
n
} uma base de W. De fato, se k
1
, . . . , k
n
forem escalares tais que
k
1
Lv
1
+ + k
n
Lv
n
= 0, ento L(k
1
v
1
+ + k
n
v
n
) = 0 e, como o ncleo de L contm
apenas o zero, k
1
v
1
+ + k
n
v
n
= 0. A independncia linear dos v
i
acarreta em k
1
= =
k
n
= 0, provando que conjunto {Lv
1
, . . . , Lv
n
} linearmente independente e, portanto,
base de W. Logo, L sobrejetor.
Teorema 3.14 Sejam B
1
e B
2
bases dos espaos V e W respectivamente e L : V W
um isomorsmo. Se A for a representao matricial de L nas bases B
1
e B
2
, ento A
1
ser a representao matricial de L
1
nas bases B
2
e B
1
.
Prova. Seja A = [a
ij
] a representao matricial de L nas bases B
1
e B
2
. Seja B = [b
ij
]
a representao matricial de L
1
nas bases B
2
e B
1
. Como L
1
L o operador identidade,
BA a matriz da transformao identidade na base B
1
e esta a matriz identidade. Ainda
temos que LL
1
o operador identidade e, desta maneira, AB a matriz da transformao
identidade na base B
2
e esta a matriz identidade o que prova ser B = A
1
.
60 Notas de aula do Prof. Antonio Cndido Faleiros
Teorema 3.15 Todo um espao vetorial V de dimenso n sobre um corpo K isomorfo
a K
n
.
Prova. Se {v
1
, . . . , v
n
} for uma base de V, ento denimos a transformao linear L :
V K
n
por Lv
i
= e
i
, onde {e
1
, . . . , e
n
} a base cannica do K
n
, isto , e
i
= (0, . . . ,
0, 1, 0, . . . , 0) onde o nico elemento no nulo o i-simo. Como L leva uma base de V
numa base de K
n
ela injetora e, portanto, um isomorsmo.
Podemos armar que os isomorsmos so os mensageiros que trazem e levam as pro-
priedades de um espao vetorial a outro. Se dois espaos vetoriais vetoriais forem iso-
morfos, todas as propriedades de um podem ser levados ao outro pelo isomorsmo. Isto
signica que, ao estudar as propriedades de um deles, teremos estudado as propriedades
do outro.
Por esta razo, ao estudar um espao vetorial real ou complexo V de dimenso n, os
prottipos so o R
n
e o C
n
, respectivamente. Se soubermos como proceder com um dos
dois, saberemos como proceder com V. Se{v
1
, . . . , v
n
} for uma base de V, basta usar a
correspondncia
x
1
v
1
+ +x
n
v
n
(x
1
, . . . , x
n
)
denida pelo isomorsmo estabelecido no teorema anterior.
3.3 Transformaes lineares em C
m1
Seja A uma matriz complexa m por n. Ento L : C
n1
C
m1
denida por L(x) = Ax
uma transformao linear.
Reciprocamente, vamos mostrar que toda transformao linear L : C
n1
C
m1

da forma L(x) = Ax, onde A uma matriz m por n.


Se {e
1
, . . . , e
n
} for a base cannica do C
n1
ento a
j
= L(e
j
) so vetores coluna em
C
m1
. Dado o vetor coluna x = [x
1
, . . . , x
n
]
T
= x
1
e
1
+ + x
n
e
n
do C
n
, ento
L(x) = L

n
X
j=1
x
j
e
j
!
=
n
X
j=1
x
j
L(e
j
)
=
n
X
j=1
x
j
a
j
= Ax
onde A = [a
1
, . . . , a
n
] a matriz complexa m por n, cujas colunas so a
1
, . . . , a
n
.
Em sntese, toda transformao L : C
n1
C
m1
do tipo L(x) = Ax, onde A
uma matriz complexa de ordem m por n. Por esta razo, podemos dizer que a matriz A
uma transformao linear e escrever A : C
n1
C
m1
.
intessante observar que, se B
1
= {e
1
, . . . , e
n
} for a base cannica do C
n1
, se B
2
=
{f
1
, . . . , f
m
} for a base cannica do C
m1
e se A for uma matriz complexa m por n, ento
a representao matricial da transformao linear A : C
n1
C
m1
nas bases B
1
e B
2
,
exatamente, a matriz A.
Captulo 4
Produto interno e norma
Neste captulo trabalharemos apenas com espaos vetoriais sobre o corpo dos nmeros
reais ou sobre o corpo dos nmeros complexos.
4.1 Produto interno em espaos vetoriais reais
Seja V um espao vetorial sobre o corpo R dos nmeros reais. Um produto interno em
V uma operao
h , i : V V R
que possui as propriedades abaixo, vlidas para todo v, w e z em V e todo a e b em R :
1. O produto interno positivo denido
hv, vi 0 e hv, vi = 0 se e s se v = 0.
2. O produto interno simtrico
hv, wi = hw, vi .
3. O produto interno linear na segunda varivel
hv, aw +bzi = a hv, wi +b hv, zi .
Das propriedades (2) e (3) se conclui que o produto interno liner na primeira varivel
hav +bw, zi = a hv, zi +b hw, zi .
Essas propriedades se extrai a linearidade do produto interno em relao primeira e
segunda varivel. Tanto que, se v
1
, . . . , v
p
e w
1
, . . . , w
q
forem vetores de V e a
i
, b
j
forem nmeros reais, ento
*
p
X
i=1
a
i
v
i
,
q
X
j=1
b
j
w
j
+
=
p
X
i=1
q
X
j=1
a
i
b
j
hv
i
, w
j
i .
61
62 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 4.1 Se x e y forem matrizes coluna R
n1
, o produto matricial x
T
y, onde x
T

a matriz transposta de x, denominado produto escalar das matrizes x e y. Um produto


interno em R
n1
proveniente do produto escalar hx, yi = x
T
y.
Exemplo 4.2 Seja P
2
(R) o conjunto dos polinmios com coecientes reais e grau menor
ou igual a 2. Neste espao vetorial,

a
0
+a
1
x +a
2
x
2
, b
0
+b
1
x +b
2
x
2

= a
0
b
0
+a
1
b
1
+a
2
b
2
um produto interno e
hf(x), g(x)i =
Z
1
1
f(x)g(x)dx
outro.
Exemplo 4.3 Seja C [a, b] o conjunto das funes reais de varivel real, denidas e con-
tnuas no intervalo [a, b]. Com as operaes de adio de funes e a multiplicao de um
nmero real por uma funo, C [a, b] um espao vetorial sobre o corpo de nmeros reais.
Nele
hf, gi =
Z
b
a
f(t)g(t) dt
um produto interno.
4.2 Produto interno em espaos vetoriais complexos
Vamos agora denir produto interno em um espao vetorial sobre o corpo C dos nmeros
complexos. O corpo dos nmeros complexos formado pelo conjunto de pares ordenados
(a, b) de nmeros reais, no qual denimos duas operaes, uma de adio e outra de
multiplicao. Os elementos desse corpo so denominados nmeros complexos. Dois
nmeros complexos (a, b) e (c, d) so iguais quando a = c e b = d e se escreve (a, b) =
(c, d) para expressar esta igualdade. O a a parte real e o b a parte imaginria do
nmero complexo (a, b). Denimos as operaes de adio e de multiplicao de dois
nmeros complexos por
(a, b) + (c, d) = (a +c, b +d)
e
(a, b) (c, d) = (ac bd, ad +bc).
O sinal de multiplicao pode ser omitido e tanto (a, b) (c, d) quanto (a, b) (c, d) possuem
o mesmo signicado. O nmero complexo (0, 1) denotado por i e denominado unidade
imaginria. Se denotarmos o nmero complexo (a, 0) simplesmente por a e vemos que
todo nmero complexo (a, b) pode ser escrito na forma a +bi. De fato,
(a, b) = (a, 0) + (b, 0)(0, 1) = a +bi
Notas de aula do Prof. Antonio Cndido Faleiros 63
e, a partir da, obtemos
(a +bi) + (c +di) = (a +c) + (b +d)i
e
(a +bi) (c +di) = (ac bd) + (ad +bc)i.
O sinal de multiplicao pode ser omitido e tanto (a+bi) (c+di) quanto (a+bi) (c+di)
possuem o mesmo signicado. Com a notao introduzida que identica o par (a, b) com
a+bi, os nmeros complexos a+bi e c+di so iguais se a = c e b = d e se escreve a+bi =
c +di para expressar esta igualdade. O nmero complexo z
1
+z
2
a soma de z
1
e z
2
. O
nmero complexo z
1
z
2
o produto de z
1
e z
2
.
O conjunto de todos os nmeros complexos com as operaes de adio e multiplicao
um corpo, denotado por C e denominado corpo dos nmeros complexos. O elemento
neutro da adio o 0 = 0+ 0i e o elemento neutro da multiplicao o 1 = 1+ 0i. O 0
denominado zero e 1 denominado de unidade. Se a+ bi for um nmero complexo,
ento seu inverso aditivo ou seu oposto, a + ( b)i e seu inverso multiplicativo
ou seu inverso,
(a +bi)

a
a
2
+b
2

b
a
2
+b
2
i

.
que existe apenas quando a +bi for diferente de zero. O oposto de z denotado por z
e o inverso de z denotado por z
1
.
Denimos a subtrao z
1
z
2
de dois nmeros complexos z
1
e z
2
por
z
1
z
2
= z
1
+ (z
2
)
e a diviso z
1
/z
2
, onde z
2
6= 0, por
z
1
z
2
= z
1
z
1
2
.
Sendo z = a + bi um nmero complexo, onde a e b so reais, z = a bi o seu
complexo conjugado e o nmero real |z| =

zz =

a
2
+b
2
o seu mdulo. Neste
caso, sendo z 6= 0, ento
z
1
=
z
z z
Exemplo 4.4 Se z = 3 + 4i, ento z = 3 4i e zz = (3 + 4i)(3 4i) = 25. Logo,
z
1
= (3 4i)/25.
Se z e w so nmeros complexos, valem as propriedades
z +w = z + w
zw = z w
z
1
= z
1
.
64 Notas de aula do Prof. Antonio Cndido Faleiros
Vamos tentar denir um produto interno em C
n
que mantenha as propriedades do
produto interno do R
n
. Se x = (x
1
, . . . , x
n
) e y = (y
1
, . . . , y
n
) forem dois elementos de
C
n
, ento, uma primeira tentativa seria
hx, yi = x
1
y
1
+ +x
n
y
n
.
Entretanto, com esta denio a primeira propriedade hx, xi 0 falha pois hx, xi nem
sempre real. Uma correo possvel consiste em denir
hx, yi = x
1
y
1
+ +x
n
y
n
que agora satisfaz s propriedades 1 e 3 do produto interno em espaos vetoriais sobre os
reais. Entretanto, a propriedade 2 no satisfeita. Em seu lugar vale
hx, yi = hy, xi.
Aceitamos esta propriedade como uma consequncia inevitvel e com isto em mente den-
imos o produto interno em espaos vetoriais sobre o corpo dos nmeros complexos.
Seja V um espao vetorial sobre o corpo C dos nmeros complexos. Um produto
interno em V uma operao
h , i : V V C
com as propriedades abaixo, vlidas para todo v, w e z em V e todo a e b em C :
1. O produto interno positivo denido
hv, vi 0 e hv, vi = 0 se e s se v = 0.
2. O produto interno hermitiano
hv, wi = hw, vi.
3. O produto interno linear na segunda varivel
hv , aw +bz i = a hv, wi +b hv, zi .
A partir das propriedades 2 e 3, se conclui que
h av +bw , zi = a hv, zi +

b hw, zi .
Se v, v
1
, . . . , v
p
e w. w
1
, . . . , w
q
forem vetores de V, se a
1
, . . . , a
p
e b
1
, . . . , b
q
forem
nmeros complexos, prova-se por induo que
*
v,
X
j
b
j
w
j
+
=
X
j
b
j
hv, w
j
i
*
X
i
a
i
v
i
, w
+
=
X
i
a
i
hv
i
, wi
Notas de aula do Prof. Antonio Cndido Faleiros 65
e, juntando as duas proprieades,
*
X
i
a
i
v
i
,
X
j
b
j
w
j
+
=
X
i
X
j
a
i
b
j
hv
i
, w
j
i .
Exemplo 4.5 Se x = [x
1
, . . . , x
n
]
T
e y = [y
1
, . . . , y
n
]
T
forem matrizes coluna em C
n1
,
denimos x

= [ x
1
, . . . , x
n
]. A operao hx, yi = x

y, que leva duas matrizes coluna em


C
n1
em uma matriz complexa 11 um produto interno em C
n
. Aqui identicamos [a],
uma matriz 1 1, com o nmero complexo a.
Exemplo 4.6 Seja V = {f : [a, b] C : f contnua}. Este conjunto com as operaes
de adio de funes de V e multiplicao de um nmero complexo por uma funo de
V um espao vetorial sobre o corpo dos nmeros complexos. Um produto interno neste
espao vetorial dado por
hf, gi =
Z
L
L
f(t)g(t) dt.
4.3 Funcional linear
Seja V um espao vetorial sobre um corpo C dos nmeros complexos. Uma transformao
linear f : V C recebe o nome de funcional linear em V.
Teorema 4.7 Seja V um espao vetorial sobre C, com dimenso nita e produto interno.
Dado um funcional linear f : V C. Ento existe um vetor w em V tal que f(v) =
hw, vi para todo v em V.
Prova. Seja {v
1
, . . . , v
n
} uma base ortonormal de V. Decompondo v nesta base e
calculando f(v) obtemos
f(v) = f(a
1
v
1
+ +a
n
v
n
) = a
1
f(v
1
) + +a
n
f(v
n
) = hw, vi
onde w = f(v
1
)v
1
+ + f(v
n
)v
n
.
Vamos mostrar que este vetor nico. Se houvesse outro vetor u tal que hv, wi =
hv, ui para todo v em V, ento hv, w ui = 0 para todo v. Tomando v = w u, segue
hw u, w ui = 0, mostrando que w = u.
O vetor w tal que f(v) = hw, vi para todo v em V pertence ao complemento ortogonal
do ker(f) uma vez que f(v) = 0 implica em hw, vi = 0.
Toda transformao linear L de um espao vetorial complexo V de dimenso n em
C
m
da forma
L(v) = ( f
1
(v), . . . , f
m
(v) ),
onde f
i
um funcional linear em V. Dado um produto interno em V, existem w
1
, . . . , w
m
em V tais que
L(v) = ( hw
1
, vi , . . . , hw
m
, vi ),
66 Notas de aula do Prof. Antonio Cndido Faleiros
4.4 Norma
Seja V um espao vetorial real ou complexo e v um vetor de V. A norma de v denida
por
kvk =
p
hv, vi.
Se kvk = 1, diz-se que o vetor unitrio.
Para todo v e w em V e todo escalar a, as igualdades abaixo se vericam.
1. kvk 0 e kvk = 0 se e s se v = 0.
2. kavk = |a| kvk .
3. kv +wk kvk + kwk (Desigualdade triangular)
Para provar esta ltima desigualdade, devemos provar a desigualdade de Cauchy-
Schwarz. Lembramos que, se a e b so reais, a a parte real e b a parte imaginria do
nmero complexo a + bi. As notaes Re (a + bi) e Im(a + bi) so usadas para designar
as partes real e imaginria do nmero complexo a +bi. Observe que, se z for um nmero
complexo, ento 2Re (z) = z +z e 2Im(z) = z z.
As desigualdades abaixo so teis. Sendo z um nmero complexo,
Re (z) |Re (z)| |z|
Im(z) |Im(z)| |z| .
Teorema 4.8 Seja V um espao vetorial sobre o corpo C dos nmeros complexos onde
se deniu um produto interno. Sejam v e w dois vetores em V. Vale a desigualdade de
Cauchy-Schwarz
|hv, wi| kvk kwk .
Prova. Seja um nmero real qualquer. Ento
0 hv +w, v +wi = hv, vi +hv, wi +hw, vi +
2
hw, wi
= kvk
2
+hv, wi +hv, wi +
2
kwk
2
= kvk
2
+ 2Re hv, wi +
2
kwk
2
kvk
2
+ 2|hv, wi| +
2
kwk
2
Como este polinmio real maior ou igual a zero para todo , seu discriminante =
4 |hv, wi|
2
4 kvk
2
kwk
2
menor ou igual a zero, ou seja,
|hv, wi|
2
kvk
2
kwk
2
.

Notas de aula do Prof. Antonio Cndido Faleiros 67


Esta desigualdade implica em
|hv, wi|
kvk kwk
1
para todo par de vetores v e w no nulos.
Seja V um espao vetorial sobre o corpo dos nmeros reais. A desigualdade de Cauchy-
Schwarz implica em
1
hv, wi
kvk kwk
1
o que motiva a denio de ngulo entre v e w, como sendo aquele nico nmero real ,
pertencente ao intervalo [0, ], para o qual
cos =
hv, wi
kvk kwk
.
Os vetores v e w so ortogonais quando = /2 ou hv, wi = 0, fato que ser indicado
pelo smbolo v w.
Quando estivermos em um espao vetorial sobre o corpo dos nmeros complexos, no
tem sentido denir ngulo entre vetores pois, neste caso, hv, wi pode ser um nmero
complexo. Entretanto diremos que dois vetores v e w em tal espao so ortogonais
quando hv, wi = 0 e usaremos o smbolo v w para designar este fato.
Se w for ortogonal a si mesmo, hw, wi = 0 e isto implica em w = 0. Se w for ortogonal
a todo elemento de V, ento ortogonal a si mesmo e w = 0. Se a dimenso de V for
nita e w for ortogonal a uma base de V, ento w = 0.
Um conjunto de vetores {v
1
, . . . , v
p
} ortogonal quando seus elementos forem dois
a dois ortogonais entre si. Se alm disto, todos os vetores possurem norma unitria, o
conjunto ortonormal.
Teorema 4.9 Seja V um espao vetorial de dimenso n e S = {v
1
, . . . , v
n
} um conjunto
ortogonal de vetores de V. Ento S uma base.
Prova. Basta provar que S linearmente independente. De fato, sejam k
1
, . . . , k
n
escalares tais que k
1
v
1
+ + k
n
v
n
= 0. Como hv
i
, 0i = 0, obtemos
0 = hv
i
, 0i = hv
i
, k
1
v
1
+ +k
n
v
n
i = k
i
hv
i
, v
i
i = k
i
kv
i
k
2
.
Como kv
i
k 6= 0, segue que k
i
= 0, provando a independncia linear de S.
Seja {v
1
, . . . , v
n
} uma base ortonormal de um espao vetorial V. Dado v = x
1
v
1
+ +
x
n
v
n
neste espao, multiplicando-o internamente por v
i
, obtemos x
i
= hv
i
, vi e assim,
v = hv
1
, vi v
1
+ + hv
p
, vi v
p
.
O prximo teorema apresenta a forma da matriz de mudana de bases quando as bases
envolvidas so ortonormais.
Seja A = [a
ij
] uma matriz complexa m n. A matriz A

= [b
ij
] onde b
ij
= a
ij
a
matriz adjunta de A. Se A

= A, a matriz A denominada hermitiana. Se A


1
= A

a
matriz A denominada unitria.
68 Notas de aula do Prof. Antonio Cndido Faleiros
Teorema 4.10 Sejam B
1
e B
2
bases ortonormais de um espao vetorial V sobre o corpo
C dos nmeros complexos. A matriz M
12
de mudana da base B
1
para a base B
2

hermitiana e unitria.
Prova. Sejam B
1
= {v
1
, . . . , v
n
} e B
2
= {w
1
, . . . , w
n
} as bases em questo, M
12
=
[a
ij
] e M
21
= [b
ij
] as matrizes de mudana da base B
1
para a base B
2
e da base B
2
para a
base B
1
, respectivamente. Sabemos que M
1
12
= M
21
e que
w
j
=
X
i
a
ij
v
i
e v
j
=
X
i
b
ij
w
i
.
Sendo as bases ortonormais, a
ij
= hv
i
, w
j
i = a
ji
e b
ij
= hw
i
, v
j
i = hv
j
, w
i
i = a
ji
, mostrando
que M

12
= M
12
e M
1
12
= M

12
.
Exemplo 4.11 Consideremos as bases B
1
= {e
1
, e
2
} e B
2
= {f
1
, f
2
} do R
2
, onde e
1
=
(1, 0), e
2
= (0, 1), f
1
= (1/5)(3, 4) e f
2
= (1/5)(4, 3). Ambas so ortonormais em
relao ao produto interno h(x
1
, y
1
), (x
2
, y
2
)i = x
1
x
2
+y
1
y
2
. Temos
f
1
=
3
5
e
1
+
4
5
e
2
f
1
=
4
5
e
1

3
5
e
2
e
e
1
=
3
5
f
1
+
4
5
f
2
e
1
=
4
5
f
1

3
5
f
2
.
Assim
M
12
= M
21
=

3
5
4
5
4
5

3
5

.
A matriz M
12
hermitiana e M
12
M

12
a matriz identidade, mostrando que M
12

unitria.
4.5 Ortogonalizao de Gram-Schmidt
Podemos, a partir de uma base {v
1
, . . . , v
n
} uma base de um espao vetorial V, obter
uma base ortogonal {w
1
, . . . , w
n
} de V, seguindo o procedimento descrito em seguida e
conhecido como processo de ortogonalizao de Gram-Schmidt.
Dena
w
1
= v
1
.
Agora escreva
w
2
= v
2

12
w
1
Notas de aula do Prof. Antonio Cndido Faleiros 69
e determine o escalar
12
para que a condio de ortogonalidade hw
1
, w
2
i = 0 seja satis-
feita. Substitua w
2
por v
2

12
w
1
nesta condio para obter

12
=
hw
1
, v
2
i
hw
1
, w
1
i
.
Em seguida, considere
w
3
= v
3

13
w
1

23
w
3
e determine
13
e
23
para tornar w
3
ortogonal a w
1
e w
2
. Das condies de ortogonalidade
hw
1
, w
3
i = 0 e hw
2
, w
3
i = 0 calcule

13
=
hw
1
, v
3
i
hw
1
, w
1
i
e
23
=
hw
2
, v
3
i
hw
2
, w
2
i
.
Prosseguindo com este raciocnio, se chega a um conjunto ortogonal {w
1
, . . . , w
n
} de
vetores que base de V. Observe que os vetores w
1
, w
2
, . . . , w
n
so denidos recursivamente
por
w
1
= v
1
e
w
k
= v
k

1k
w
1

k1,k
w
k1
para k = 2, . . . , n, onde

ik
=
hw
i
, v
k
i
hw
i
, w
i
i
.
A partir da base ortogonal {w
1
, . . . , w
n
} pode-se determinar uma base ortonormal {q
1
,
. . . , q
n
}, onde q
i
= w
i
/ kw
i
k . Esta base ortonormal pode ser obtida ao mesmo tempo em
que se obtm a base ortogonal. Comece com
w
1
= v
1
e q
1
= w
1
/ kw
1
k
e continue com o processo de ortogonalizao, tomando
w
2
= v
2
r
12
q
1
e q
2
= w
2
/ kw
2
k ,
w
3
= v
3
r
13
q
1
r
23
q
2
e q
3
= w
3
/ kw
3
k ,
e assim por diante, at que, num passo genrico k,
w
k
= v
k
r
1k
q
1
r
k1,k
q
k1
e q
k
= w
k
/ kw
k
k ,
onde
r
ik
= hq
i
, v
k
i ,
para k = 2, . . . , n e i = 1, . . . , k 1.
70 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 4.12 Os ternos ordenados (1, 0, 0), (0, 3/5, 4/5), (0, 4/5, 3/5) formam uma
base ortonormal no espao vetorial C
n
em relao ao produto interno
h (a
1
, a
2
, a
3
), (b
1
, b
2
, b
3
) i = a
1
b
1
+ a
2
b
2
+ a
3
b
3
.
Exemplo 4.13 Os polinmios 1, x, x
2
formam uma base ortonormal no espao vetorial
sobre C dos polinmios de grau menor ou igual a 2 e coecientes complexos, munido com
o produto interno

a
1
+a
2
x +a
3
x
2
, b
1
+b
2
x +b
3
x
2

= a
1
b
1
+ a
2
b
2
+ a
3
b
3
.
Exemplo 4.14 Considere o espao vetorial sobre C dos polinmios com coecientes com-
plexos de grau menor ou igual a 3, com o produto interno
hf, gi =
Z
1
1
f(x)g(x)dx.
O conjunto {1, x, x
2
, x
3
} uma base no ortogonal deste espao vetorial. A base ortogonal
obtida a partir dela, usando o procedimento de Gram-Schmidt,
{ 1, x, x
2
1/3, x
3
(3/5)x }.
Este procedimento pode ser estendido para o espao vetorial dos polinmios de grau
menor ou igual a n.
Denotemos por p
0
(x), p
1
(x), p
2
(x), . . . os polinmios obtidos de 1, x, x
2
, . . . pelo
processo de ortogonalizao de Gram-Schmidt, usando o produto interno denido acima.
Os polinmios L
k
(x) = p
k
(x)/p
k
(1) continuam ortogonais dois a dois e so denominados
de polinmios de Legendre. Os quatro primeiros so
L
0
(x) = 1, L
1
(x) = x, L
2
(x) =
3
2
x
2

1
2
, L
3
(x) =
5
2
x
3

3
2
x.
Tanto {1, x, x
2
, x
3
} quanto {L
0
(x), L
1
(x), L
2
(x), L
3
(x)} so bases do espao dos polinmios
de grau menor ou igual a 3. A segunda possui a vantagem de ser ortogonal, o que a torna
mais adequada para determinados clculos. Os mtodos espectrais usam polinmios ortog-
onais para resolver equaes diferenciais parciais tanto analtica quanto numericamente.
4.6 Decomposio QR
Vamos analisar o caso especial do espao vetorial complexo C
n1
com o produto interno
hx, yi = x

y.
Seja A = [v
1
, . . . , v
n
] uma matriz m n cujo coluna k v
k
. Um modo interessante
de olhar para o produto Ax, onde x = [x
1
, . . . , x
n
]
T
uma matriz em C
m1
consiste em
escrever
Ax = x
1
v
1
+ +x
n
v
n
Notas de aula do Prof. Antonio Cndido Faleiros 71
e observar que Ax uma combinao linear das colunas de A.
Mantendo a notao do pargrafo anterior, sendo b uma matriz coluna em C
m1
, a
igualdade matricial Ax = b, pode ser escrita na forma
b = x
1
v
1
+ +x
n
v
n
que pode ser interpretada do seguinte modo: x a matriz de b na base formada pelas
colunas de A. Se as colunas de A forem linearmente independentese b estiver na imagem
de A, a decomposio nica.
Ainda uma ltima observao, sendo A = [v
1
, . . . , v
n
], ento
A

=
_

_
v

1
.
.
.
v

n
_

_
e
A

A =
_

_
v

1
v
1
v

1
v
2
v

1
v
n
v

2
v
1
v

2
v
2
v

2
v
n
v

n
v
1
v

n
v
2
v

n
v
n
_

_
= [v

i
v
j
] .
Se {q
1
, . . . , q
n
} for uma base ortonormal emC
n1
, ento q

i
q
j
=
ij
. A matriz quadrada
Q = [q
1
, . . . , q
n
], cuja coluna k q
k
, unitria pois Q

Q = [q

i
q
j
] = [
ij
] = I. Concluso,
quando as colunas de uma matriz quadrada formarem uma base ortonormal de C
n1
, ela
unitria.
Vamos iniciar com um caso particular, em que n = 3. Seja {v
1
, v
2
, v
3
} uma base de
C
31
e {q
1
, q
2
, q
3
} a base ortonormal de C
31
obtida pelo processo de ortogonalizao
de Gram-Schmidt. Seja A = [v
1
, v
2
, v
3
] a matriz cuja coluna k v
k
e Q = [q
1
, q
2
, q
3
] a
matriz cuja coluna k q
k
. Sabemos, pelo desenvolvimento da seo anterior que
v
1
= w
1
v
2
= r
12
q
1
+w
2
v
3
= r
13
q
1
+r
23
q
2
+w
3
onde r
ik
= hq
i
, v
k
i quando i 6= k ou ainda,
v
1
= r
11
q
1
v
2
= r
12
q
1
+r
22
q
2
v
3
= r
13
q
1
+r
23
q
2
+r
33
q
3
com r
kk
= kw
k
k . Ento,
[v
1
, v
2
, v
3
] = [q
1
, q
2
, q
3
]
_
_
r
33
r
12
r
13
0 r
33
r
23
0 0 r
33
_
_
72 Notas de aula do Prof. Antonio Cndido Faleiros
ou A = QR, onde Q uma matriz unitria e
R =
_
_
r
33
r
12
r
13
0 r
33
r
23
0 0 r
33
_
_
triangular superior. Esta a chamada decomposio QR de uma matriz A,
Motivados por esse exemplo, vamos mostrar um processo para obter a decomposio
QR de uma matriz A em C
mn
, analizando dois casos separadamente. No primeiro, todas
as colunas de A so linearmente independentes e, no segundo caso, nem todas as colunas
de A so linearmente independentes.
As colunas da matriz so linearmente independentes
Seja A = [v
1
, . . . , v
n
] uma matriz complexa de ordem m por n, cujas colunas v
1
, . . . , v
n
so vetores linearmente independentes de C
m1
, o que exige m n. Usando o processo
de ortogonalizao de Gram-Schmidt, podemos escrever obter uma matriz Q = [q
1
, . . . ,
q
n
] cujas colunas formam uma base ortonormal para o espao gerado pelas colunas de A
e onde
v
1
= r
11
q
1
v
2
= r
12
q
1
+r
22
q
2
v
3
= r
13
q
1
+r
23
q
2
+r
33
q
3

Essas igualdades escritas na forma matricial resultam em
[v
1
, v
2
, v
3
, . . . , v
n
] = [q
1
, q
2
, q
3
, . . . , q
n
]
_

_
r
11
r
12
r
13

0 r
22
r
23

0 0 r
33


_

_
.
que se resume em
A =

Q

R
denominada decomposio QR reduzida de A.
Nesta decomposio, observe que o espao hv
1
i , gerado por v
1
igual ao espao hq
1
i
gerado por q
1
, o espao hv
1
, v
2
i gerado por v
1
e v
2
igual ao espao hq
1
, q
2
i gerado por q
1
,
q
2
, e assim por diante,
hq
1
i = hv
1
i ,
hq
1
, q
2
i = hv
1
, v
2
i ,
hq
1
, q
2
, q
3
i = hv
1
, v
2
, v
3
i ,
. . .
Notas de aula do Prof. Antonio Cndido Faleiros 73
Completemos a base {q
1
, . . . , q
n
} com os vetores unitrios q
n+1
, . . . , q
m
de modo que
{q
1
, . . . , q
n
, . . . , q
m
} seja uma base ortonormal de C
m
. A matriz Q = [q
1
, . . . , q
n
, . . . , q
m
]
obtida pela incluso de m n colunas direita de

Q e a matriz R obtida pela incluso
de mn linhas nulas na parte inferior de R so tais que
A = QR
que a chamada decomposio QR completa de A ou decomposio QR de A.
Realizado este desenvolvimento, podemos descrever o algoritmo clssico de Gram-
Schmidt, que possibilita a obteno da decomposio QR de uma mariz A. Alertamos o
leitor de que este algoritmo numericamente instvel.
================================
Algoritmo 8.1. Algoritmo clssico de Gram-Schmidt (instvel)
Entrada: Base {v
1
, . . . , v
n
} de C
n
Sada: Base ortonormal {q
1
, . . . , q
n
} de C
n
================================
for k = 1 to n
w
k
= v
k
for i = 1 to k 1
r
ik
= q

i
v
k
w
k
= w
k
r
ik
q
i
r
kk
= kw
k
k
q
k
= w
k
/r
kk
================================
Soluo de Ax = b usando a decomposio QR
Quando A uma matriz quadrada de ordem m, cujas colunas so linearmente indepen-
dentes, o sistema Ax = b possui uma nica soluo. Para resolver este sistema usando a
decomposio QR, procedemos do seguinte modo:
1. Calcule a decomposio A = QR.
2. Determine y = Q

b.
3. Resolva o sistema Rx = y na varivel x.
As colunas da matriz so linearmente dependentes
Passemos ao caso em que m n e as colunas de A formam um conjunto linearmente
dependente. Neste caso, l pelas tantas, v
k
depende linearmente das colunas v
1
, . . . , v
k1
,
sua esquerda, ou seja,
v
k
hv
1
, . . . , v
k1
i = hq
1
, . . . , q
k1
i
74 Notas de aula do Prof. Antonio Cndido Faleiros
e, para este valor de k,
w
k
= v
k
r
1k
q
1
r
2k
q
2
r
k1,k
q
k1
= 0.
Quando isto ocorre, escolhemos um vetor unitrio q
j
, ortogonal aos vetores q
1
, . . . , q
j1
,
obtendo um conjunto ortonormal {q
1
, . . . , q
j1
, q
j
}.
Vejamos um exemplo em que A = [v
1
, v
2
, v
3
, v
4
]. Suponha que v
1
e v
2
so linearmente
independentes. Usando o mtodo de ortogonalizao de Gram-Schmidt, calculamos
v
1
= r
11
q
1
v
2
= r
12
q
1
+r
22
q
2
Supondo v
3
no espao gerado por {q
1
, q
2
}, tem-se
w
3
= v
3
r
13
q
1
r
23
q
2
= 0
e
v
3
= r
13
q
1
+r
23
q
2
Da, escolhe-se de modo arbitrrio um q
3
unitrio, ortogonal a q
1
e a q
2
. Com esta escolha,
{q
1
, q
2
, q
3
} ortonormal e o espao que ele gera contm o espao gerado por {v
1
, v
2
, v
3
}.
Se v
4
no pertencer ao espao gerado por {q
1
, q
2
, q
3
}, Calcula-se
q
4
=
1
r
44
(v
4
r
14
q
1
r
24
q
2
r
34
q
3
)
quando ento
[v
1
, v
2
, v
3
, v
4
] = [q
1
, q
2
, q
3
, q
4
]
_

_
r
11
r
12
r
13
r
14
0 r
22
r
23
r
24
0 0 0 r
34
0 0 0 r
44
_

_
onde se observa que a matriz da direita triangular superior. Note-se que o espao gerado
por {q
1
, q
2
, q
3
, q
4
} contm o espao gerado por {v
1
, v
2
, v
3
, v
4
}.
No caso genrico, este procedimento continua, at obter as matrizes

Q e

R. As colunas
da matriz

Q = [q
1
, . . . , q
n
], de ordem m por n, so vetores ortogonais entre si e possuem
mdulo unitrio. A matriz

R, de ordemn por n, triangular superior. Para estas matrizes,
A =

Q

R.
Esta fatorao de A conhecida como decomposio QR reduzida de A.
Podemos acrescentar mn colunas q
n+1
, . . . , q
m
direita de

Q, de modo que {q
1
, . . . ,
q
n
, . . . , q
m
} seja uma base ortonormal de C
m
e assim, obter uma matriz unitria Q = [q
1
,
. . . , q
n
, . . . , q
m
], de ordem m por m, cujas colunas formam uma base ortonormal de C
m
.
Na continuao, devemos acrescentar mn linhas nulas na parte inferior de

R, obtendo
uma matriz R, de ordem m por n, triangular superior. As matrizes Q e R assim obtidas
so de tal forma que
A = QR.
Notas de aula do Prof. Antonio Cndido Faleiros 75
Esta a decomposio QR completa de A ou apenas decomposio QR de A.
Quando m < n, o procedimento semelhante ao anterior. A decomposio se encerra
quando obtemos o conjunto de m vetores B = {q
1
, . . . , q
m
}, que formam uma base
ortonormal de C
m
. A matriz quadrada Q = [q
1
, . . . , q
m
], de ordemm, e a matriz triangular
superior R de ordem m por n, obtidas no desenrolar do processo so tais que
A = QR.
Este produto conhecido como decomposio QR completa da matriz A ou decomposio
QR de A.
Exemplo 4.15 A decomposio QR de
_
_
1 3 0
1 0 1
0 1 2
_
_

_
_
1/

2 3/

22 1/

11
1/

2 3/

22 1/

11
0 2/

22 3/

11
_
_
_
_

2 3/

2 1/

2
0 11/

22 7/

22
0 0 5/

11
_
_
.
Exemplo 4.16 A decomposio QR de
_
_
1 3
1 0
0 1
_
_

_
_
1/

2 3/

22 1/

11
1/

2 3/

22 1/

11
0
p
2/11 3/

11
_
_
_
_

2 3/

2
0
p
11/2
0 0
_
_
Exemplo 4.17 A decomposio QR de
_
_
_
_
1 1 2
0 1 1
1 0 1
0 2 0
_
_
_
_

_
_
_
_
1/

2 1/

22 2/

33 3/

3
0 2/

22 4/

33 3/

3
1/

2 1/

22 2/

33 3/

3
0 4/

22 3/

33 0
_
_
_
_
_
_
_
_

2 1/

2 3/

2
0 1/

22 3/

22
0 0 6/

33
0 0 0
_
_
_
_
Exemplo 4.18 A decomposio QR de
_
_
_
_
1 1 2
0 1 1
1 0 1
0 0 0
_
_
_
_
76 Notas de aula do Prof. Antonio Cndido Faleiros

_
_
_
_
1/

2 1/

6 1/

3 0
0 2/

6 1

3 0
1/

2 1/

6 1

3 0
0 0 0 1
_
_
_
_
_
_
_
_

2 1/

2 3/

2
0 3/

6 3/

6
0 0 0
0 0 0
_
_
_
_
Exemplo 4.19 A decomposio QR de
_
_
1 1 2 0
0 1 1 1
1 0 1 3
_
_
A = QR, onde
Q =
_
_
1/

2 1/

6 1/

3
0 2/

6 1/

3
1/

2 1/

6 1/

3
_
_
e R =
_
_

2 1/

2 3/

2 3/

2
0 3/

6 3/

6 1/

6
0 0 0 4/

3
_
_
.
Captulo 5
Soma de subespaos
Sejam V
1
, . . . , V
k
subespaos vetoriais de V. O conjunto
V
1
+ +V
k
= { v
1
+ +v
k
: v
i
V
i
para i = 1, . . . , k }
um subespao vetorial de V e recebe o nome de soma de V
1
, . . . , V
k
.
Teorema 5.1 Sejam V e W dois subespaos de um espao vetorial U. Ento
dim(V +W) = dim(V ) + dim(W) dim(V W).
Prova. Quando V est contido em W, ento V W = V e V +W = W. Neste caso,
dim(V ) + dim(W) dim(V W) = dim(V ) + dim(W) dim(V ) = dim(W)
o que prova o teorema para este caso particular. Do mesmo modo se prova que o teorema
vale quando W est contido em V.
Vamos agora tratar o caso em que V W diferente de V e de W. Seja B
1
= {u
1
, . . . ,
u
p
} uma base de V W. Vamos complet-la de modo que B
2
= {u
1
, . . . , u
p
, v
1
, . . . , v
q
}
seja base de V e B
3
= {u
1
, . . . , u
p
, w
1
, . . . , w
r
} seja base de W. O conjunto B
4
= {u
1
,
. . . , u
p
, v
1
, . . . , v
q
, w
1
, . . . , w
r
} gera V +W e, se for linearmente independente, ser base
de V +W. Neste caso,
dim(V +W) = p +q +r = (q +p) + (r +p) p
= dim(V ) + dim(W) dim(V W)
e o teorema estar provado.
Falta provar que B
4
linearmente independente. Vamos mostrar que, se x
1
, . . . , x
p
,
y
1
, . . . , y
q
, z
1
, . . . , z
r
forem escalares tais que
x
1
u
1
+ +x
p
u
p
+y
1
v
1
+ +y
q
v
q
+z
1
w
1
+ +z
r
w
r
= 0,
ento todos eles so nulos. Analisemos esta possibilidade. Se algum y
j
for diferente de
zero, o vetor no nulo y
1
v
1
+ + y
q
v
q
seria uma combinao linear dos elementos de
77
78 Notas de aula do Prof. Antonio Cndido Faleiros
B
3
. Logo, ele estaria em W e em V ao mesmo tempo, estando na interseo V W
e assim y
1
v
1
+ + y
q
v
q
poderia ser escrito como uma combinao linear de u
1
, . . . ,
u
p
, contrariando a hiptese de B
2
ser base. Do mesmo modo no podemos ter um z
k
diferente de zero. Logo, y
j
e z
k
so todos nulos e a equao se reduz a x
1
u
1
+ + x
p
u
p
=
0. Sendo B
1
uma base, conclumos que x
1
, . . . , x
p
so todos nulos. Da B
4
linearmente
independente.
5.1 Soma direta
Denio 5.2 Sejam V
1
, . . . , V
k
subespaos vetoriais de V. Se todo v em V puder ser
escrito de forma nica como uma soma do tipo
v = v
1
+ +v
k
onde v
i
V
i
, diremos que V uma soma direta dos subespaos V
1
, . . . , V
k
e escreveremos
V = V
1
V
k
.
Se V = V
1
V
2
, ento V
1
e V
2
so denominados complementares.
Dois subespaos vetoriais V
1
e V
2
de V so disjuntos se a interseo V
1
V
2
contiver
apenas o zero.
Teorema 5.3 Sejam V
1
e V
2
subespaos vetorias de V tais que V = V
1
+ V
2
. Ento V =
V
1
V
2
se e s se V
1
, V
2
forem disjuntos.
Prova. Se V = V
1
V
2
, seja v um vetor de V na interseo de V
1
e V
2
. Ento
v = v
|{z}
V
1
+ 0
|{z}
V
2
= 0
|{z}
V
1
+ v
|{z}
V
2
e, como a decomposio nica, v = 0, provando que V
1
e V
2
so disjuntos.
Se V
1
e V
2
forem disjuntos, como V = V
1
+ V
2
, todo v em V pode ser decomposto
numa soma v = v
1
+ v
2
, com v
1
em V
1
e v
2
em V
2
. Se houvesse outra decomposio v =
w
1
+ w
k
, com w
1
em V
1
e w
2
em V
2
, ento v
1
+ v
2
= w
1
+ w
2
e assim, v
1
w
1
= w
2

v
2
. Sendo v
1
w
1
um vetor de V
1
igual a w
2
v
2
, um vetor de V
2
, ento v
1
w
1
est na
interseo de V
1
com V
2
e, como estes dois subespaos so disjuntos, v
1
w
1
= 0 ou v
1
=
w
1
. Com este resultado, obtemos w
2
v
2
= 0 ou v
2
= w
2
, provando que a decomposio
de v numa soma de um elemento de V
1
com um elemento de V
2
nica e assim, V = V
1

V
2
.
Quando V igual soma de mais do que dois subespaos, o fato de os espaos envolvidos
serem disjuntos dois a dois no suciente para garantir que V seja a soma direta desses
subespaos como nos mostra o exemplo a seguir.
Notas de aula do Prof. Antonio Cndido Faleiros 79
Exemplo 5.4 Seja V = R
2
e V
1
= {(x, 0) R
2
: x R}, V
2
= {(0, y) R
2
: y R},
V
3
= {(x, x) R
2
: x R}. Estes trs subespaos so disjuntos dois a dois, V = V
1
+
V
2
+ V
3
, mas V no a soma direta de V
1
, V
2
e V
3
.
A condio de serem disjuntos ser substituida pela condio de serem independentes.
Os subespaos vetoriais V
1
, . . . , V
k
de V so independentes se
v
1
+ +v
k
= 0,
com v
i
em V
i
, para i = 1, . . . , k, ento v
1
= = v
k
= 0.
Uma caracterizao da independncia dos subespaos a seguinte: Os subespaos V
1
,
. . . , V
k
so independentes se e s se V
j
for disjunto da soma V
1
+ + V
j1
, para j = 2,
. . . , k. Dois espaos vetoriais V
1
e V
2
de V so independentes se e s se forem disjuntos.
Teorema 5.5 Sejam V
1
, . . . , V
k
subespaos vetoriais de um espao vetorial V tais que
V = V
1
+ + V
k
. Ento V = V
1
V
k
se e s se V
1
, . . . , V
k
forem independentes.
Prova. Se V = V
1
V
k
, sejam v
1
, . . . , v
k
vetores de V
1
, . . . , V
k
, respectivamente,
e tais que v
1
+ + v
k
= 0. Como 0 = 0+ + 0, da unicidade da decomposio,
conclumos que v
i
= 0 para i = 1, . . . , k. Logo, V
1
, . . . , V
k
so independentes.
Se V = V
1
+ + V
k
e V
1
, . . . , V
k
forem independentes, todo v em V pode ser
decomposto numa soma v = v
1
+ + v
k
, com v
i
em V
i
, para i = 1, . . . , k. Se houvesse
outra decomposio v = w
1
+ + w
k
, com w
i
em V
i
, ento (v
1
w
1
)+ + (v
k
w
k
) =
0 e, da independncia dos subespaos vetoriais V
i
, conclumos que v
i
= w
i
, para i = 1,
. . . , k. Logo, a decomposio de v como soma de vetores de V
1
, . . . , V
k
nica e V = V
1

V
k
.
Teorema 5.6 Sejam V
1
, . . . , V
k
subespaos vetoriais de V, um espao vetorial com di-
menso nita. Se V = V
1
V
k
ento
dimV = dimV
1
+ + dimV
k
.
Prova. Seja B
i
base de V
i
para i = 1, . . . , k.
Se V = V
1
V
k
, todo v em V pode ser decomposto de forma nica numa soma
v = v
1
+ + v
k
, com v
i
em V
i
, para i = 1, . . . , k. Cada v
i
pode ser decomposto de
forma nica nos vetores da base B
i
. Logo, v pode ser escrito de forma nica como uma
combinao linear dos vetores da unio B
1
B
k
, provando que esta uma base de
V.
80 Notas de aula do Prof. Antonio Cndido Faleiros
5.2 Complemento ortogonal
Denio 5.7 Seja V um espao vetorial com produto interno e S um subespao vetorial
de V. O conjunto
S

= {v V : hv, si = 0 para todo s em S }


um subespao de V, chamado de complemento ortogonal de S.
Para mostrar que um determinado vetor v est em S

, basta mostrar que ele ortog-


onal a todo vetor de uma base de S. O nico vetor que est ao mesmo tempo em S e em
S

o vetor nulo e da,


S S

= {0}.
Teorema 5.8 Seja S um subespao vetorial de dimenso nita de um espao vetorial V
com produto interno. Ento V = S S

.
Prova. Seja {v
1
, . . . , v
p
} uma base ortonormal de S. Dado qualquer v em V, o vetor
w = v hv
1
, vi v
1
hv
p
, vi v
p
ortogonal a todo vetor de S. Desta forma, qualquer vetor v pode ser decomposto numa
soma v = s+ w, onde s = hv
1
, vi v
1
+ + hv
p
, vi v
p
pertence a S e w pertence a S

e
assim, V = S+ S

.
Vamos mostrar que esta decomposio nica. Se v = s
1
+ w
1
, com s
1
em S e w
1
em
S

, ento s + w = s
1
+ w
1
e assim, s s
1
= w
1
w, mostrando que os vetores s s
1
e
w
1
w esto na interseo S S

. Como a interseo s possui o vetor nulo, s = s e w =


w.
Se v um vetor de um subespao S de um espao vetorial V, ento v ortogonal
a todo vetor de S

e assim ele pertence ao



S

, mostrando que S est contido no


complemento ortogonal do complemento ortogonal de S, isto , S

S

. Por outro
lado, V = SS

= S

e assim, dimV = dimS+ dimS

= dimS

+ dim

,
que acarreta na igualdade dimS = dim

. Estando S contido em

S

e possuindo
ambos a mesma dimenso, eles so iguais

= S.
Captulo 6
Transformao adjunta
Sejam V e W espaos vetoriais complexos com dimenso nita e produto interno. Dado
uma tansformao linear L : V W, vamos mostrar que existe uma nica transformao
linear L

: W V tal que
hLv, wi = hv, L

wi .
para todo v em V e w em W.
Primeiro a existncia. Sendo B
1
= {v
1
, . . . , v
n
} uma base ortonormal de V e B
2
=
{w
1
, . . . , w
m
} uma base ortonormal de W podemos escrever Lv
j
, para j = 1, . . . , n, como
uma combinao linear dos elementos de B
2
Lv
1
= a
11
w
1
+a
21
w
2
+ +a
m1
w
m
Lv
2
= a
12
w
1
+a
22
w
2
+ +a
m2
w
m

Lv
n
= a
1n
w
1
+a
2n
w
2
+ +a
mn
w
m
Para denir uma transformao linear, basta estabelecer seu valor nos elementos de uma
base do seu domnio. Seja L

: W V aquela transformao linear que leva w


i
, para i =
1, 2, . . . , m, nos seguintes vetores de V
L

w
1
= a
11
v
1
+ a
12
v
2
+ + a
1n
v
n
L

w
2
= a
21
v
1
+ a
22
v
2
+ + a
2n
v
n

L

w
m
= a
m1
v
1
+ a
m2
v
2
+ + a
mn
v
n
Usando o smbolo de somatrio, os valores das transformaes lineares L e L

nas bases
de seus respectivos domnios se escrevem
Lv
j
=
m
X
i=1
a
ij
w
i
L

w
i
=
n
X
j=1
a
ij
v
j
.
81
82 Notas de aula do Prof. Antonio Cndido Faleiros
Da ortonormalidade das bases B
1
e B
2
, segue hLv
j
, w
i
i = hv
j
, L

w
i
i fazendo com que
hLv, wi = hv, L

wi
para todo v em V e w em W, o que prova a existncia.
Agora a unicidade. Se T : W V for outra transformao linear para a qual
hLv, wi = hv, Twi
para todo v em V e w em W, ento
hv, L

wi = hv, Twi
ou
hv, (L

T)wi = 0
ainda para todo v em V e w em W. Fazendo v = (L

T)w, obtemos
h (L

T)w, (L

T)w i = 0
ou (L

T)w = 0 para todo w em W, mostrando que T = L

, o que prova a unicidade.


A transformao linear L

recebe o nome de transformao adjunta de L.


Se L : V W e T : W U forem duas transformaes lineares, ento
(TL)

= L

.
Se A = [a
ij
] for a matriz de L : V W e B = [b
ij
] for a matriz de L

: W V nas
bases ortonormais B
1
e B
2
de V e W, respectivamente, ento b
ij
= a
ji
e
B = A

.
Esta relao entre as matrizes de L e L

s se verica se as bases forem ortonormais, como


nos mostra o prximo exemplo.
Este conceito de transformao adjunta se aplica a transformaes lineares entre es-
paos vetoriais reais. Neste caso, os escalares sero reais e a
ij
= a
ij
e
Exemplo 6.1 Seja L(x, y) = (2x+3y, 5x+7y, 11x+13y) uma transformao linear do
R
2
no R
3
. Consideremos nestes dois espaos seus respectivos produtos internos euclidianos
h (x
1
, y
1
), (x
2
, y
2
) i = x
1
x
2
+y
1
y
2
e
h (x
1
, y
1
, z
1
), (x
2
, y
2
, z
2
) i = x
1
x
2
+y
1
y
2
+z
1
z
2
.
Seja B
1
= {e
1
, e
2
} a base cannica do R
2
e B
2
= (f
1
, f
2
, f
3
) a base cannica do R
3
que so
ortonormais em relao aos produtos internos euclidianos de R
2
e R
3
, respectivamente.
Temos
Le
1
= 2f
1
+ 5f
2
+ 11f
3
Le
2
= 3f
1
+ 7f
2
+ 13f
3
Notas de aula do Prof. Antonio Cndido Faleiros 83
e
L

f
1
= 2e
1
+ 3e
2
L

f
2
= 5e
1
+ 7e
2
L

f
3
= 11e
1
+ 13e
2
de modo que
[L]
12
=
_
_
2 3
5 7
11 13
_
_
, [L

]
21
=

2 5 11
3 7 13

onde uma a transposta da outra.


Entretanto, se v
1
= (1, 2), v
2
= (0, 1), w
1
= (1, 1, 1), w
2
= (0, 1, 2) e w
3
= (0, 0, 1)
ento B
3
= {v
1
, v
2
} ser base de R
2
e B
4
= {w
1
, w
2
, w
3
} ser base de R
3
. Nenhuma das
duas ortonormal em relao ao produto interno euclidiano do R
2
e R
3
. O leitor poder
vericar que
Lv
1
= 8w
1
+ 11w
2
+ 7w
3
Lv
2
= 3w
1
+ 4w
2
+ 2w
3
e
L

w
1
= 18v
1
13v
2
L

w
2
= 27v
1
21v
2
L

w
3
= 11v
1
9v
2
As matrizes
[L]
34
=
_
_
8 3
11 4
7 2
_
_
e [L

]
43
=

18 27 11
13 21 9

no so mais uma a adjunta da outra.


Dada a transformao linear L, a transformao adjunta L

a nica que satisfaz


igualdade hLv, wi = hv, L

wi para todo v em V e todo w em W. De fato, se T for


outra transformao linear para a qual hLv, wi = hv, Twi para todo v e todo w, ento
hv, Twi = hv, L

wi e hv, Tw L

wi = 0 para todo v o que acarreta na igualdade Tw =


L

w para todo w, nos conduzindo igualdade T = L

.
Para todo v em V e w em W, tem-se
hL

w, vi = hv, L

wi = hLv, wi = hw, Lvi ,


mostrando que a adjunta da adjunta igual a L, isto ,
(L

= L.
Um operador linear L : V V auto-adjunto quando L

= L.
Os operadores LL

e L

L so auto-adjuntos.
84 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 6.2 Sejam x = (x
1
, x
2
, x
3
) e y = (y
1
, y
2
, y
3
) dois pontos do R
3
, consideremos o
produto interno hx, yi = x
1
y
2
+ x
2
y
2
+ x
2
y
3
. Em relao a este produto interno, o operador
linear L : R
3
R
3
denido por L(x, y, z) = (2x+ 3y+ 5z, 3x+ y, 5x+ 4z) auto-adjunto
pois L

= L.
Teorema 6.3 Sejam V e W espaos vetoriais com produto interno e L : V W linear.
Sendo L

: W V a adjunta de L, vale a relao


Im(L)

= ker(L

).
Prova. Se w Im(L)

, ento hLv, wi = 0 ou hv, L

wi = 0 para todo v V de onde


se conclui que L

w = 0 mostrando que w est no ker(L

).
Reciprocamente, se w ker(L

), ento hLv, wi = hv, L

wi = hv, 0i = 0 para todo


v V, provando, deste modo, que w ortogonal a todo elemento da imagem de L.
Conclui-se que w pertence ao complemento ortogonal da Im(L).
Como L

= L, substituindo L por L

na igualdade acima, segue


Im(L

= ker(L)
ou
Im(L

) = ker(L)

Sejam V e W espaos vetoriais com produto interno e L : V W linear. Sendo


L

: W V a adjunta de L,
V = ker(L) Im(L

).
Esta igualdade ocorre porque V = ker(L) ker(L)

= ker(L) Im(L

).
Quando L auto-adjunta,
Im(L)

= ker(L).
Teorema 6.4 Sejam V e W espaos vetoriais com produto interno e L : V W linear.
Sendo L

: W V a adjunta de L,
1. Im(L) = Im(LL

).
2. ker(L

) = ker(LL

).
Prova. 1a. Inicialmente provaremos que ImLL

ImL. Se w Im(LL

), ento
existe um w
1
tal que w = LL

w
1
= L(L

w
1
) provando que w Im(L).
1b. Vamos provar agora que Im(L) Im(LL

). Se w Im(L), ento w = Lv para


algum v em V. Podemos escrever de modo nico v = v
1
+ v
2
onde v
1
Im(L

) e v
2

ker(L). Logo w = Lv = Lv
1
+ Lv
2
= Lv
1
. Como v
1
ker(L)

= Im(L

), existe w
1
tal que
v
1
= L

w
1
e assim w = LL

w
1
, mostrando que w Im(LL

), o que completa a prova da


recproca.
Notas de aula do Prof. Antonio Cndido Faleiros 85
2a. Se w ker(L

) ento L

w = 0 e, em consequncia, LL

w = 0, provando que
ker(L

) ker(LL

).
2b. Se w ker(LL

) ento L(L

w) = 0 e L

w pertence ao ker(L) e Im(L

) cuja
interseo contm apenas o zero. Logo, L

w = 0, provando que w est no ker(L

). Com
isto, provamos que ker(LL

) ker(L

), o que completa a prova da parte 2 do teorema.

Resumindo: Para uma transformao linear L : V W e sua adjunta L

: W V
valem as identidades
(L

= L
Im(L

) = ker(L)

Im(LL

) = Im(L),
ker(LL

) = ker(L

).
Denio 6.5 Seja V um espao vetorial com produto interno. O operador linear L :
V V antiadjunto quando L

= L e unitrio quando L

= L
1
.
Teorema 6.6 Numa base ortonormal, a matriz A = [a
ij
] de um operador auto-adjunto
hermitiana (A = A

), a de um operador antiadjunto antihermitiana (A = A

) e a
de um operador unitrio unitria (A

= A
1
).
Teorema 6.7 O operador linear L : V V unitrio se e s se, para todo v
1
e v
2
em
V,
hLv
1
, Lv
2
i = hv
1
, v
2
i .
Para xar a nomenclatura, apresentamos o quadro abaixo.
Espao Real Espao Complexo
Operador Matriz Operador Matriz
auto-adjunto simtrica auto-adjunto hermitiana
antiadjunto anti-simtrica antiadjunto antihermitiana
ortogonal ortogonal unitrio unitria
6.1 Posto de uma transformao linear
Denio 6.8 Sejam V e W espaos vetoriais e L : V W uma transformao linear.
A dimenso da imagem de L chamada de posto de L.
Sendo A uma matriz complexa de ordem m por n. Considerada como uma trans-
formao linear de C
n
em C
m
, seu posto igual ao nmero de colunas linearmente
independentes que A possui.
O nmero de colunas linearmente independentes de uma matriz igual ao nmero de
suas linhas linearmente independente.
86 Notas de aula do Prof. Antonio Cndido Faleiros
Teorema 6.9 Sejam V e W espaos vetoriais de dimenso nita e L : V W uma
transformao linear. Seja A a representao matricial de L em relao a bases de V e
de W. O posto de L igual ao posto de A.
Exemplo 6.10 Seja L : R
3
R
3
denida por
L(x, y, z) = ( x + 2y z, 2x + 4y 2z, y + 2z )
= (x + 2y z)(1, 2, 0) + (y + 2z)(0, 0, 1),
cujo posto 2. A matriz de L em relao base cannica do R
3

A =
_
_
1 2 1
2 4 2
0 1 2
_
_
a primeira e terceira linha so linearmente independentes e a segunda o dobro da
primeira. As duas primeiras colunas so linearmente independentes e a terceira igual a
5 vezes a primeira mais 2 vezes a segunda. O posto de A dois.
Teorema 6.11 Sejam V e W espaos vetoriais com produto interno e dimenso nita.
Seja L : V W linear. O posto das transformaes lineares L, L

, L

L e LL

so iguais.
Prova. Sabemos que
V = ker(L) Im(L

),
de onde obtemos
dimker(L) + dimIm(L

) = dimV.
Por outro lado,
dimker(L) + dimIm(L) = dimV.
Dessas duas igualdades conclumos que dimIm(L

) = dimIm(L) provando que o posto


de L igual ao posto de L

.
Como Im(LL

) = Im(L) e Im(L

L) = Im(L

), o teorema est provado.


Corolrio 6.12 Seja A uma matriz complexa. As matrizes A, A

, AA

e A

A possuem
o mesmo posto.
Sejam V e W espaos vetoriais, ambos com dimenso nita. A imagem de uma
transformao linear L : V W est contida em W. Portanto, o posto de L deve ser
menor ou igual do que a dimenso de W. Se {v
1
, . . . , v
n
} for uma base de V, qualquer
vetor v em V pode ser decomposto de modo nico como uma combinao linear v =
x
1
v
1
+ + x
n
v
n
e assim, Lv = L(x
1
v
1
+ + x
n
v
n
) = x
1
Lv
1
+ + x
n
Lv
n
, mostrando
que {Lv
1
, . . . , Lv
n
} gera a imagem de L o que assim o posto de L deve ser menor ou
igual do que a dimenso de V. Conclumos que o posto de L no pode ser maior do que
a dimenso de V nem maior do que a dimenso de W. Motivados por este comentrio,
diremos que L tem posto mximo quando o posto de L for igual ao mnimo entre a
dimenso de V e a dimenso de W.
Notas de aula do Prof. Antonio Cndido Faleiros 87
Teorema 6.13 Sejam V e W espaos vetoriais com dimenso nita, ambos com produto
interno. Seja L : V W uma transformao linear com posto mximo.
1. Quando dimV dimW, a transformao linear L

L : V V um isomorsmo.
2. Quando dimW dimV, a transformao linear LL

: W W um isomorsmo.
Prova. Quando
1. posto(L) = dimV dimW, ento dimIm(L

L) = dimIm(L) = dim(V ) e assim


L

L sobrejetora e, portanto, um isomorsmo.


2. posto(L) = dimW dimV, ento dimIm(LL

) = dimIm(L

) = dim(W) e assim
LL

sobrejetora e, portanto, um isomorsmo.

6.2 Existncia de soluo dos sistemas lineares


As igualdades Im(L)

= ker(L

) e Im(L

) = ker(L)

possuem uma consequncia inter-


essante para sistemas de equaes lineares Ax = b, onde A uma matriz complexa mn
e b uma matriz complexa m 1. Nestes sistemas, as matrizes A e b so dadas e o que
se deseja determinar se existem matrizes coluna complexas x de tamanho n 1 tais
que Ax = b. Tais matrizes x so denominadas solues do sistema Ax = b. Existindo
solues, importante determin-las. Um mtodo usado na obteno das solues o da
eliminao de Gauss.
A matriz A uma transformao linear de C
n1
em C
m1
.
O sistema Ax = b tem soluo se e s se b estiver na imagem de A. Da igualdade
Im(A) = ker(A

conclmos que Ax = b tem soluo se e s se b for ortogonal a todo y


no ncleo de A

isto ,
hb, yi = 0
para todo y em C
m1
soluo do sistema homogneo A

y = 0.
O sistema homogneo Ax = 0 tem soluo x no nula se e s se x pertencer ao ncleo
de A. Da igualdade ker(A) = Im(A

, conclumos que x soluo do sistema homogneo


Ax = 0 se e s se x for ortogonal imagem de A

, isto hx, A

yi = para todo y em C
m1
.
Percebe-se do comentado acima que h uma estreita relao entre os sistemas lineares
Ax = b e A

y = c.
88 Notas de aula do Prof. Antonio Cndido Faleiros
Captulo 7
Projetores
Seja V um espao vetorial. Um operador linear P : V V um projetor em V se
P
2
= P. Sendo I : V V o operador identidade, o operador linear I P tambm um
projetor, denominado projetor complementar de P. Os projetores tambm recebem o
nome de operadores idempotentes.
Sejam S
1
e S
2
dois subespaos de V tais que V = S
1
S
2
. Considere o operador
P : V V denido por P(v
1
+ v
2
) = v
1
, para todo v
1
em S
1
e v
2
em S
2
. O operador
assim denido um projetor, denominado projetor sobre S
1
ao longo de S
2
. Sob estas
condies, S
1
a imagem de P e S
2
o ncleo de P.
Se v estiver na imagem de P, ento existe w em V tal que Pw = v. Sendo P uma
projeo, P
2
w = Pw o que implica em Pv = v. A imagem de (I P) igual ao ncleo
de P e a imagem de P igual ao ncleo de I P.
Teorema 7.1 Seja P : V V um projetor. Ento V = Im(P) ker(P).
Prova. (1) Seja v um vetor em V. Podemos escrever v = Pv+ (I P)v. Como Pv
est na imagem de P e (I P)v est no ncleo de V, segue V = Im(P)+ ker(P).
(2) Se v
1
na Im(P) e v
2
no ker(P) forem tais que v = v
1
+ v
2
, ento Pv = Pv
1
+ Pv
2
.
Como Pv
1
= v
1
e Pv
2
= 0, segue Pv = v
1
e (I P)v = v
2
, mostrando que a decomposio
de v numa soma de um elemento da Im(P) com um elemento do ker(P) nica. Logo,
V = Im(P) ker(P).
De acordo com este teorema, todo projetor P um projetor sobre sua imagem ao
longo do seu ncleo.
7.1 Projetores ortogonais
Seja V um espao vetorial com produto interno. Um projetor P em V ortogonal se a
sua imagem e seu ncleo forem ortogonais. Quando este for o caso, se diz que P projeta
ortogonalmente sobre sua imagem.
89
90 Notas de aula do Prof. Antonio Cndido Faleiros
Seja P : V V um projetor ortogonal e S sua imagem. Se a dimenso de S for nita,
V = S S

. Dado v em V, existe um nico s em S e um nico w em S

para os quais
v = s +w e
P(v) = s.
Se B = {q
1
, . . . , q
k
} for uma base ortonormal de S, podemos decompor Pv nesta base e
escrever
Pv = x
1
q
1
+ +x
k
q
k
.
Para determinar x
1
, . . . , x
k
, usamos o fato de v Pv ser ortogonal a todo vetor de S. Isto
signica que hq
i
, v Pvi = 0 para i = 1, . . . , k. Destas relaes e da ortonomalidade da
base B segue
0 = hq
i
, v Pvi = hq
i
, vi hq
i
, x
1
q
1
+ +x
k
q
k
i
= hq
i
, vi x
1
hq
i
, q
1
i x
i
hq
i
, q
i
i x
k
hq
i
, q
k
i
= hq
i
, vi x
i
hq
i
, q
i
i = hq
i
, vi x
i
ou
x
i
= hq
i
, vi
o que nos permite escrever
Pv = hq
1
, vi q
1
+ + hq
k
, vi q
k
.
e provamos o prximo teorema.
Teorema 7.2 Seja S um subespao de dimenso nita de um espao vetorial V com pro-
duto interno. Seja {q
1
, . . . , q
k
} uma base ortonormal de S. Se P for o projetor ortogonal
sobre S, ento, para todo v em V,
Pv = hq
1
, vi q
1
+ + hq
k
, vi q
k
.
A partir deste teorema obtemos outro de imediato para projetores em C
n1
. Vamos
lembrar que toda transformao linear L de C
n1
em C
n1
do tipo L(x) = Ax, onde A
uma matriz quadrada n n e iremos identicar a transformao linear L com a matriz
A. Se P for uma projeo em C
n1
, ento P ser uma matriz n n.
Corolrio 7.3 Considere o espao vetorial C
n1
com o produto interno hx, yi = x

y.
Seja P um projetor ortogonal em C
n1
e {q
1
, . . . , q
k
} uma base ortonormal da imagem
de P. Ento
P = q
1
q

1
+ +q
k
q

k
.
Prova. Observe que q
1
, q
2
, . . . , q
k
so matrizes coluna do C
n1
. Sendo x uma matriz
coluna em C
n1
, podemos escrever
hq
i
, xi q
i
= (q

i
x)q
i
= q
i
(q

i
x) = (q
i
q

i
)x
Notas de aula do Prof. Antonio Cndido Faleiros 91
e assim,
Px = hq
1
, xi q
1
+ + hq
k
, xi q
k
= (q
1
q

1
)x + + (q
k
q

k
)x
= (q
1
q

1
+ +q
k
q

k
) x.
Como esta igualdade vale para todo x,
P = q
1
q

1
+ +q
k
q

k
.

Quando P projeta ortogonalmente sobre o espao gerado por um nico vetor unitrio
q, temos
P = qq

.
Se x for uma matriz coluna no nula em C
n1
, no necessariamente unitrio, ento q =
x/ kxk unitrio e a projeo ortogonal P sobre o espao gerado por x
P = qq

=
x
kxk
x

kxk
=
xx

x
.
Vamos relembrar que, sendo x uma matriz coluna do C
n1
, ento x

x um nmero real
e xx

uma matriz complexa n por n.


O projetor complementar de P
I
xx

x
,
onde I a matriz identidade n n e sua imagem o ncleo de P.
Teorema 7.4 Seja V um espao vetorial com dimenso nita e um produto interno. Um
projetor P : V V ortogonal se e s se for auto-adjunto.
Prova. (1) Seja P uma projeo ortogonal e S = Im(P). Ento P uma projeo
sobre S ao longo de S

. Sabemos que V = S S

e, para todo v e w em V, existem e


so nicos v
1
e w
1
em S, v
2
e w
2
em S

para os quais, v = v
1
+ v
2
e w = w
1
+ w
2
. Assim,
da ortogonalidade dos vetores,
hPv, wi = hv
1
, w
1
+w
2
i = hv
1
, w
1
i
e
hv, Pwi = hv
1
+v
2
, w
1
i = hv
1
, w
1
i
provando que P auto-adjunto.
(2) Seja P uma projeo auto-adjunta de modo que
hPv, wi = hv, Pwi
92 Notas de aula do Prof. Antonio Cndido Faleiros
para todo v e w em V. Se w estiver no ker(P), ento
hPv, wi = hv, Pwi = hv, 0i = 0,
e, como Pv est na imagem de P, provamos que o ncleo e a imagem de P so ortogonais.
Logo, P um projetor ortogonal.
Teorema 7.5 Seja V um espao vetorial com produto interno e P : V V um projetor
ortogonal. O vetor Pv o vetor da Im(P) mais prximo de v.
Prova. Todo vetor u da imagem de P pode ser escrito na forma Pv+ w, com w na
imagem de P. Assim, v Pv pertence ao ker(P) que ortogonal Im(P) e acarretando
na ortogonalidade hv Pv, wi = 0 e
kv uk
2
= kv Pv wk
2
= hv Pv w, v Pv wi
= hv Pv, v Pvi hv Pv, wi hw, v Pvi + hw, wi
= kwk
2
+ kv Pvk
2
kv Pvk
2
provando que Pv o ponto da imagem de P mais prximo de v.
7.2 Projetores ortogonais em C
m1
Nesta seo vamos considerar o espao vetorial C
m1
com o produto interno hx, yi = x

y.
Usando uma base ortonormal
Seja P um projetor ortogonal em C
m1
e S sua imagem. Sendo P ortogonal, seu ncleo
S

. Seja {q
1
, . . . , q
n
} uma base ortonormal de S e {q
n+1
, . . . , q
m
} uma base ortonormal
de S

. Pelas propriedades provadas para uma projeo ortogonal P,


Pq
i
= q
i
para i = 1, . . . , n
Pq
i
= 0 para i = n + 1, . . . , m
Seja
Q = [ q
1
, . . . , q
n
, q
n+1
, . . . , q
m
]
a matriz cujas colunas so os vetores da base ortonormal {q
1
, . . . , q
n
, q
n+1
, . . . , q
m
} do
C
m1
e para a qual
PQ = Q,
onde uma matriz quadrada m m, onde os n primeiros elementos da diagonal so
iguais a 1 e todos os demais elementos so nulos. Podemos escrev-la usando blocos
=

I 0
0 0

Notas de aula do Prof. Antonio Cndido Faleiros 93


onde I a matriz identidade de tamanho n n. A matriz Q unitria pois suas colunas
so formadas a partir de uma base ortonormal de C
m1
. Sendo QQ

a matriz identidade,
chega-se a
P = QQ

.
Observe que apenas as n primeiras colunas de Qso relevantes neste produto. Eliminando-
as obtemos a matriz

Q = [q
1
, . . . , q
n
] com m linhas e n colunas para a qual
P =

Q

.
Como j se provou, P =
P
k
i=1
q
i
q

i
e dela obtemos a identidade
P =

Q

=
k
X
i=1
q
i
q

i
Usando uma base qualquer
Seja P um projetor ortogonal em C
m1
e v
1
, . . . , v
n
matrizes coluna em C
m1
tais que
B = {v
1
, . . . , v
n
} uma base da imagem de P. Para todo v em C
m1
, podemos escrever
Pv = x
1
v
1
+ +x
k
v
n
= Ax,
onde x = [x
1
, . . . , x
n
]
T
a matriz das coordenadas de Pv na base B e A = [v
1
, . . . , v
n
]
uma matriz de ordem m por n, cujas colunas so v
1
, . . . , v
n
. Esta matriz A dene uma
transformao linear de C
n1
em C
m1
.
O vetor v Pv est no complemento ortogonal da imagem de P e, para j = 1, . . . , n,
hv
j
, v Pvi = 0 ou v

j
Pv = v

j
v,
de onde segue
v

j
Ax = v

j
v.
Como a j sima linha de A

j
, a identidade acima resulta em
A

Ax = A

v.
Como as colunas de A so linearmente independentes, seu posto mximo e A

A : C
n1
C
n1
um isomorsmo, possuindo assim uma inversa, o que nos permite escrever
x = (A

A)
1
A

v
de onde resulta
Pv = Ax = A(A

A)
1
A

v.
Como esta igualdade vale para todo v em C
m1
,
P = A(A

A)
1
A

.
Se a base B for ortonormal, a matriz A unitria e da A

= A
1
. Com isto reobtemos
P = AA

, vlida quando usamos uma base ortonormal.


94 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 7.6 Determine o projetor ortogonal P sobre o espao gerado pelos vetores v
1
=
(1, 2, 0)
T
e v
2
= (0, 1, 1)
T
.
Inicialmente estabelecemos
A = [v
1
, v
2
] =
_
_
1 0
2 1
0 1
_
_
e calculamos
P = A(A

A)
1
A

=
_
_
1/3 1/3 1/3
1/3 5/6 1/6
1/3 1/6 5/6
_
_
.
Observe que Pv
1
= v
1
e Pv
2
= v
2
.
7.3 Ortogonalizao de Gram-Schmidt em C
m1
Vamos considerar o espao vetorial C
m1
com o produto interno hx, yi = x

y. Pelo
processo de ortogonalizao de Gram-Schmidt, partindo de uma base {v
1
, . . . , v
m
} de
C
m1
, pode-se obter uma base ortonormal {q
1
, . . . , q
m
}, de modo iterativo
w
1
= v
1
e q
1
=
w
1
kw
1
k
w
2
= v
2
hq
1
, v
2
i q
1
e q
2
=
w
2
kw
2
k
w
3
= v
3
hq
1
, v
3
i q
1
hq
2
, v
3
i q
2
e q
3
=
w
3
kw
3
k

A partir de q
1
= v
1
/ kv
1
k determinam-se recursivamente os demais elementos da base
ortonormal, mediante a frmula
w
j
= v
j

j1
X
i=1
hq
i
, v
j
i q
i
e q
j
=
w
j
kw
j
k
,
vlida para j = 2, . . . , m. Como hq
i
, v
j
i q
i
= q
i
q

i
v
j
, esta recorrncia pode ser reescrita na
forma
w
j
= v
j

j1
X
i=1
q
i
q

i
v
j
=

1
j1
X
i=1
q
i
q

i
!
v
j
A projeo ortogonal sobre o subespao S
j
gerado por {q
1
, . . . , q
j
}

Q
j

Q

j
=
j
X
i=1
q
i
q

i
Notas de aula do Prof. Antonio Cndido Faleiros 95
onde

Q
j
= [q
1
, . . . , q
j
] a matriz cujas colunas so q
1
, . . . , q
j
. A projeo ortogonal sobre
o complemento orgogonal de S
j

P
j
= I

Q
j

Q

j
e a frmula recursiva pode ser escrita de modo conciso como
w
j
= P
j1
v
j
e q
j
=
w
j
kw
j
k
.
Conclui-se que o algoritmo clssico de Gram-Schmidt pode ser expresso em termos destes
projetores
q
1
=
P
0
v
1
kP
0
v
1
k
, q
2
=
P
1
v
2
kP
1
v
2
k
, . . . , q
m
=
P
m1
v
m
kP
m1
v
m
k
,
onde P
0
a identidade e P
j
, para j = 1, . . . , n 1, a projeo ortogonal sobre o
complemento ortogonal do espao gerado por {q
1
, . . . , q
j
}.
7.4 Ortogonalizao modicada de Gram-Schmidt
Se q for uma matriz coluna unitria em C
m1
, a projeo ortogonal sobre o complemento
ortogonal do espao gerado por q
P
q
= I qq

.
Vamos, a partir de um conjunto linearmente independente {v
1
, . . . , v
n
} em C
m1
, obter
um conjunto ortonormal de matrizes coluna {q
1
, . . . , q
n
} em C
m1
. Observe que
P
q
2
P
q
1
= (I q

2
q
2
)(I q
1
q

1
) = I q
1
q

1
q
2
q

2
+q
1
q

1
q
2
q

2
= I q
1
q

1
q
2
q

2
pois q
1
q

1
q
2
q

2
= 0, uma vez que q

1
q
2
= 0. Prosseguindo com esse raciocnio, obtemos
P
q
j
P
q
2
P
q
1
=
j
Y
i=1
(I q
i
q

i
) =
= I
j
X
i=1
q
i
q

i
= I

Q
j

Q

j
uma vez que q
r
q

r
q
s
q

s
= 0 para todo r 6= s. O projetor P
j
= I

Q
j

Q

j
exatamente aquele
usado no algoritmo de Gram-Schmidt. A identidade
P
j
= P
q
j
P
q
2
P
q
1
ser usada no algoritmo modicado. A obteno de P
j
atravs das projees sucessivas
P
q
j
P
q
2
P
q
1
mais estvel numericamente do que o clculo clssico atravs da
matriz P
j
. Em lugar de calcular w
j
pela frmula,
w
j
= P
j1
v
j
96 Notas de aula do Prof. Antonio Cndido Faleiros
podemos usar outra
w
j
= P
q
j1
P
q
2
P
q
1
v
j
.
O algoritmo modicado calcula w
j
usando a seqncia
w
(1)
j
= v
j
w
(2)
j
= P
q
1
w
(1)
j
= w
(1)
j
q
1
q

1
w
(1)
j
w
(3)
j
= P
q
2
w
(2)
j
= w
(2)
j
q
2
q

2
w
(2)
j
,
.
.
.
w
j
= w
(j)
j
= P
q
j1
w
(j1)
j
= w
(j1)
j
q
j1
q

j1
w
(j1)
j
.
Na aritmtica computacional de preciso nita, este algoritmo introduz erros menores do
que o algoritmo clssico.
==============================
Algoritmo 8.2 Gram-Schmidt modicado (estvel)
Entrada: Um conjunto {v
1
, . . . , v
n
} em C
m1
linearmente independente
Sada: Um conjunto ortonormal {q
1
, . . . , q
m
} em C
m1
==============================
for j = 1 to n
w
j
= v
j
for j = 1 to n
r
jj
= w

j
w
j
q
j
= w
j
/r
jj
for k = j + 1 to n
r
jk
= q

j
w
k
w
k
= w
k
r
jk
q
j
==============================
Na prtica, pode-se sobrescrever v
j
com w
j
e sobrescrever w
j
com q
j
para economizar
memria.
7.5 Contagem das operaes
Vamos calcular o nmero de ops realizados na execuo do algoritmo modicado de
Gram-Schmidt. Cada operao realizada contabilizar um op em nossa contagem. Esta
operao pode ser uma adio, uma subtrao, uma multiplicao, uma diviso ou a
extrao de uma raiz quadrada. Quando m e n forem grandes, o loop que domina o
algoritmo o mais interno
for k = j + 1 to n
r
jk
= q

j
w
k
w
k
= w
k
r
jk
q
j
Notas de aula do Prof. Antonio Cndido Faleiros 97
O produto interno q

j
w
k
requer m multiplicaes e m1 adies. O clculo de w
k
r
jk
q
j
necessita de m multiplicaes e um igual nmero de subtraes. Somamos 4m ops para
um nico lao do loop. Como o lao em k, que varia de j + 1 a n, est dentro de outro
em j que varia de 1 a n, o nmero de ops usado neste algoritmo
n
X
j=1
n
X
k=j+1
4m = 4m
n
X
j=1
(n j) = 4m
n
2
n
2
= 2mn
2
2mn 2mn
2
,
onde o smbolo tem o seguinte signicado
lim
m,n
nmero de ops
2mn
2
= 1.
Concluimos que a fatorao QR usando Gram-Schmidt modicado demanda a realizao
de 2mn
2
ops.
98 Notas de aula do Prof. Antonio Cndido Faleiros
Captulo 8
Reetor de Householder
Seja v um vetor no nulo de C
m
. A matriz
H
v
= I 2
vv

v
chamada de matriz de Householder ou reetor de Householder. Se u for mltiplo
de v e w for ortogonal a v, ento
H
v
u = u e H
v
w = w.
Todo u que est em S reetido em u e todo w no complemento ortogonal de S se
mantm inalterado. Esta observao nos permite dizer que a matriz H
v
reete os vetores
de C
m
no complemento ortogonal de S.
Teorema 8.1 Seja v um vetor no nulo em C
m
. O reetor
H
v
= I 2
vv

v
hermitiano e unitrio.
O reetor H
v
hermitiano e unitrio mas no um projetor, visto que
H
2
v
= I.
Sejam x e y dois vetores do C
m
com normas iguais e hx, yi = hy, xi . Os vetores
v =
1
2
(x +y)
w =
1
2
(x y)
so ortogonais e o reetor de Householder H
v
tal que
H
v
x = y.
Este fato pode ser provado escrevendo x e y em termos de v e w
x = v +w e y = v w.
99
100 Notas de aula do Prof. Antonio Cndido Faleiros
Nota 8.2 Se os elementos de x e y forem todas reais, basta ter kxk = kyk para garantir
a igualdade entre hx, yi e hy, xi .
Podemos denir um reetor de Householder que leva um vetor x do C
m
num outro
y = (y
1
, 0, . . . , 0) onde apenas a primeira coordenada y
1
no nula. Iremos us-lo para
calcular a decomposio QR de uma matriz usando reetores de Householder, que so
operadores auto-adjuntos. Vamos sua descrio.
O sinal de um nmero complexo z denido por sign(0) = 1 e, quando z 6= 0,
sign(z) =
z
|z|
.
Observe que o sinal um nmero complexo de mdulo unitrio. Se z for real, seu sinal
ser +1 ou 1. Para todo nmero complexo z,
sign(z)sign(z) = 1.
Teorema 8.3 Seja x = (x
1
, x
2
, . . . , x
m
)
T
um vetor no nulo em C
m
, com x
1
complexo
no nulo e e
1
= (1, 0, . . . , 0)
T
o primeiro elemento da base cannica do C
m
. O reetor
H
v
, onde
v =
1
2
(x +sign(x
1
) kxk e
1
) ,
leva x em y = sign(x
1
) kxk e
1
, cujo nico elemento no nulo o primeiro.
Prova. O vetor
w =
1
2
(x sign(x
1
) kxk e
1
)
ortogonal a v e
x = u +w,
sign(x
1
) kxk e
1
= u w.
Portanto,
H
v
(x) = H
v
v +H
v
w = v +w = sign(x
1
) kxk e
1
.

Oy denido neste teorema tema forma (y


1
, 0, . . . , 0)
T
, onde apenas y
1
=sign(x
1
) kxk
no nulo. Esta escolha de u assegura que kxk kyk , o que fornece uma maior estabili-
dade numrica decomposio QR usando reetores de Householder descrita em seguida.
Notas de aula do Prof. Antonio Cndido Faleiros 101
8.1 Decomposio QR usando o reetor de House-
holder
A decomposio QR, baseada no processo de ortogonalizao de Gram-Schmidt o resul-
tado de sucessivas multiplicaes direita de A = [v
1
, . . . , v
n
] por matrizes elementares,
todas triangulares superiores, resultando numa matriz ortogonal Q = [q
1
, . . . , q
n
]
AR
1
R
n
= Q.
A matriz R
1
R
n
triangular superior e sua inversa R nos fornece a decomposio
A = QR.
Por seu turno, a decomposio QR baseada nas matrizes de Householder ser o resul-
tado da multiplicao esquerda de A por uma seqncia de matrizes ortogonais Q
1
, . . . ,
Q
n
, que resultaro numa matriz triangular R
Q
n
Q
1
A = R.
A matriz Q
1
Q
n
ortogonal e sua inversa Q nos fornecer a decomposio A = QR.
A idia de Householder, proposta em 1958, foi a de escolher Q
k
para zerar aqueles
elementos da coluna k de A, situados abaixo da diagonal. A multiplicao pela matriz Q
k
opera sobre A realizando uma combinao linear das linhas k, k +1, . . . , m, mantendo as
primeiras k 1 colunas inalteradas e anulando os elementos da coluna k situados abaixo
da diagonal. A matriz Q
1
uma matriz de Householder H
1
e a forma geral de Q
k
, para
k = 2, . . . , n,
Q
k
=

I 0
0 H
k

onde I a matriz identidade de ordem k 1 e H


k
uma matriz de Householder cuja
ordem m k+ 1.
Se x for o vetor de C
mk+1
formado pelos elementos da coluna k de A, extrados da
diagonal principal para baixo, o reetor de Householder H
k
procurado I vv

/v

v, onde
v =
1
2
(x +sign(x
1
) kxk e
1
) ,
e e
1
= (1, 0, . . . , 0) o primeiro elemento da base cannica do C
mk+1
. Pelo que foi visto
anteriormente,
H
k
x = (y
1
, 0, . . . , 0)
T
onde y
1
= sign(x
1
) kxk o nico elemento no nulo de H
k
x.
Sendo
A = [a
(1)
1
, a
(1)
2
, . . . , a
(1)
n
] =
_

_
a
(1)
11
a
(1)
12
a
(1)
13
a
(1)
1n
a
(1)
21
a
(1)
22
a
(1)
23
a
(1)
2n
a
(1)
31
a
(1)
32
a
(1)
33
a
(1)
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
(1)
m1
a
(1)
m2
a
(1)
m3
a
(1)
mn
_

_
102 Notas de aula do Prof. Antonio Cndido Faleiros
ento Q
1
= H
1
= I v
1
v

1
/v

1
v
1
onde
v
1
=
1
2
_

_
a
(1)
11
+sign(a
(1)
11
)

a
(1)
1

a
(1)
21
a
(1)
31
.
.
.
a
(1)
m1
_

_
e a
(1)
1
=
_
_
_
_
_
_
_
_
a
(1)
11
a
(1)
21
a
(1)
31
.
.
.
a
(1)
m1
_
_
_
_
_
_
_
_
esto em C
m
. Assim,
Q
1
A =
_

_
sign(a
11
)

a
(1)
1

a
(2)
12
a
(2)
13
a
(2)
1n
0 a
(2)
22
a
(2)
23
a
(2)
2n
0 a
(2)
32
a
(2)
33
a
(2)
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
(2)
m2
a
(2)
m3
a
(2)
mn
_

_
.
Eliminando a primeira linha e a primeira coluna de Q
1
A, obtemos a matriz
A
1
= [a
(2)
2
, a
(2)
3
, . . . , a
(2)
n
] =
_

_
a
(2)
22
a
(2)
23
a
(2)
2n
a
(2)
32
a
(2)
33
a
(2)
3n
.
.
.
.
.
.
.
.
.
.
.
.
a
(2)
m2
a
(2)
m3
a
(2)
mn
_

_
que de ordem m1 por n 1. Toma-se H
2
= I v
2
v

2
/v

2
v
2
, onde
v
2
=
1
2
_

_
a
(2)
22
+sign

a
(2)
22

a
(2)
2

e
(2)
1
a
(2)
32
.
.
.
a
(2)
m2
_

_
e a
(2)
2
=
_
_
_
_
_
a
(2)
22
a
(2)
32
.
.
.
a
(2)
m2
_
_
_
_
_
esto em C
m1
. Toma-se
Q
2
=

1 0
0 H
2

e, com esta escolha,


Q
2
Q
1
A =
_

_
sign(a
(1)
11
)

a
(1)
1

a
(2)
12
a
(2)
13
a
(2)
1n
0 sign(a
(2)
22
)

a
(2)
2

a
(3)
23
a
(3)
2n
0 0 a
(3)
33
a
(3)
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
(3)
m3
a
(3)
mn
_

_
.
Notas de aula do Prof. Antonio Cndido Faleiros 103
Na terceira etapa, toma-se
Q
3
=
_
_
1 0 0
0 1 0
0 0 H
3
_
_
sendo H
3
= I v
3
v

3
/v

3
v
3
, onde
v
3
=
1
2
_

_
a
(3)
33
+sign

a
(3)
33

a
(3)
3

a
(3)
43
.
.
.
a
(3)
m3
_

_
e a
(3)
3
=
_

_
a
(3)
33
a
(3)
43
.
.
.
a
(3)
m3
_

_
.
esto em C
m2
. Com esta escolha,
Q
2
Q
1
A =
_

_
sign

a
(1)
11

a
(1)
1

a
(2)
12
a
(2)
13

0 sign

a
(2)
22

a
(2)
2

a
(3)
23

0 0 sign

a
(3)
33

a
(3)
3


.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_

_
e o processo continua at obter uma matriz triangular superior
R = Q
n
Q
2
Q
1
A.
As matrizes Q
1
, Q
2
, . . . , Q
n
so todas unitrias, de modo que seu produto Q
n
Q
2
Q
1
,
que denotaremos por Q

, tambm unitria sendo Q sua inversa. Assim, Q

A = R, que
resulta na decomposio
A = QR
onde Q unitria e R triangular superior.
8.2 O algoritmo para calcular R
O algoritmo seguinte calcula a matriz R, m por n, triangular superior da decomposio
QR de uma matriz A de ordem m por n, com m n. Alm de R, este algoritmo constri
os vetores de reexo v
1
, . . . , v
n
.
=================================
Algoritmo 10.1 Fatorao QR de Householder
Entrada: A = (a
ij
), de ordem m por n.
Sada: Substitui a matriz A por R, que triangular superior. Calcula ainda as reexes
v
1
, . . . , v
n
.
=================================
104 Notas de aula do Prof. Antonio Cndido Faleiros
for k = 1 to n
x = A
k:m,k
v
k
= x +sign(x
1
) kxk e
1
v
k
= v
k
/ kv
k
k
A
k:m, k:n
= A
k:m, k:n
2v
k
(v

k
A
k:m, k:n
)
=================================
8.3 Contagem das operaes
Em cada loop, o clculo dominante o de A
k:m, k:n
. O vetor v
k
tem comprimento l =
m k+ 1. Para cada coluna de A
k:m, k:n
, preciso calcular o produto interno v

k
A
k:m, j
o que exige 2l 1 ops, sendo l multiplicaes e l 1 adies. Calculado este produto
interno, precisamos de 1 op para calcular 2(v

k
A
k:m, j
) e l multiplicaes para calcular
o produto deste escalar, 2(v

k
A
k:m, j
) pelo vetor v
k
. Finalmente, l subtraes para obter
A
k:m, j
2v
k
(v

k
A
k:m, j
). Efetuamos assim 4l operaes para calcular A
k:m, j
em cada loop.
Para calcular as n k+ 1 colunas de A
k:m, k:n
sero necessrios 4l(n k + 1) ops e na
execuo dos n loops exigir
n
X
k=1
4l(n k + 1) =
n
X
k=1
4(mk + 1)(n k + 1) = 2mn
2

2
3
n
3
+ 2mn +
2
3
n
ops. Usamos no clculo deste somatrio os seguintes resultados
n
X
k=1
1 = n,
n
X
k=1
k =
1
2
n(n + 1),
n
X
k=1
k
2
=
1
6
(n + 3n
2
+ 2n
3
).
Admitindo que m e n crescem na mesma razo, fazendo m e n , obtemos
2mn
2

2
3
n
3
ops para executar o algoritmo de Householder.
8.4 O algoritmo para calcular Q

A matriz Q ainda no foi calculada. Podemos usar as frmulas


Q

= Q
n
Q
2
Q
1
ou
Q = Q

1
Q

2
Q

n
para obt-la. Lembramos aqui que as matrizes Q
i
so unitrias e assim Q

i
= Q
1
i
.
Podemos calcular Q

b ou Qx. O prximo algoritmo calcula Q

b.
Notas de aula do Prof. Antonio Cndido Faleiros 105
=================================
Algoritmo 10.2 Fatorao QR de Householder
Entrada: As reexes v
1
, . . . , v
n
de ordem m por 1 e b de ordem m por 1
Sada: Substitui b pelo vetor Q

b de ordem m por 1.
=================================
for k = 1 to n
b
k:m
= b
k:m
2v
k
(v

k
b
k:m
)
=================================
Podemos usar este algoritmo para obter Q

, calculando suas colunas Q

e
1
, . . . , Q

e
m
de Q

.
8.5 O algoritmo para calcular Q
O prximo algoritmo calcula Qx.
=================================
Algoritmo 10.3 Fatorao QR de Householder
Entrada: As reexes v
1
, . . . , v
n
, de ordem m por 1 e o vetor x de ordem n por 1.
Sada: Substitui x pelo vetor Qx de ordem n por 1.
=================================
for k = n downto 1
x
k:m
= x
k:m
2v
k
(v

k
x
k:m
)
=================================
Podemos usar este algoritmo para calcular as colunas Qe
1
, . . . , Qe
m
de Q. Este o
mtodo de escolha quando se deseja calcular a matriz unitria Q.
Quando se deseja calcular apenas

Q da decomposio reduzida, basta calcular as
colunas Qe
1
, . . . , Qe
n
.
106 Notas de aula do Prof. Antonio Cndido Faleiros
Captulo 9
Mnimos quadrados
Seja A uma matriz complexa m por n e b um vetor coluna do C
m
. O sistema algbrico
Ax = b tem soluo se e somente se b for um ponto da imagem de A. Quando, alm disso
A for inversvel, Ax = b possui uma nica soluo dada por x = A
1
b.
Quando b no pertencer imagem de A, o sistema algbrico Ax = b no tem soluo.
Entretanto, podemos escolher c na imagem de Aque minimiza kc bk
2
e resolver o sistema
Ax = c. O ponto c da imagem de A mais prximo de b a projeo ortogonal de b sobre
a imagem de A. Seja Pb esta projeo. As solues de Ax = Pb, minimizam kAx bk
2
.
Quando o ker(A) = {0}, o sistema Ax = Pb tem soluo nica. Entretanto, quando
ker(A) contiver vetores no nulos, o sistema Ax = Pb possuir innitas solues. De fato,
se n for um elemento no nulo do ncleo de A e x
1
uma soluo de Ax = Pb, ento, para
todo nmero complexo c, A(x
1
+cn) = Pb.
Se x for uma soluo de Ax = Pb, podemos decomp-la numa soma x
1
= r +n onde
r est na imagem de A

e n est no ncleo de A, uma vez que C


n
= Im(A

) ker(A).
Observe que r a projeo ortogonal de x sobre a imagem de A

. Sendo x
1
qualquer outra
soluo do sistema Ax = Pb, ento A(x
1
x) = 0 e x
1
x = n
1
pertence ao ncleo de A
e assim x
1
= x +n
1
= r+ (n +n
1
), onde n +n
1
pertence ao ncleo de A e r a projeo
ortogonal sobre a imagem de A

de uma soluo qualquer do sistema Ax = Pb. Uma das


lies que se tira do raciocnio acima que projeo ortogonal sobre a imagem de A

de
uma soluo x qualquer de Ax = Pb sempre resulta no mesmo vetor r. Determinando
uma nica soluo do sistema Ax = Pb e todas as solues do sistema homogneo Ax =
0, teremos em mos todas as solues do sistema no homogneo Ax = Pb.
Cada soluo de Ax = Pb uma soluo por mnimos quadrados de Ax = b.
A projeo ortogonal r de uma soluo do sistema Ax = Pb sobre a imagem de A


chamada de soluo principal por mnimos quadrados de Ax = b.
Quando o sistema linear Ax = b tem soluo, suas solues coincidem com as solues
por mnimos quadrados de Ax = b.
Seguindo o esquema estabelecido at o momento, para obter a soluo principal por
mnimos quadrados de Ax = b, precisamos seguir a seguinte receita:
1. Determine Pb, a projeo ortogonal de b sobre a imagem de A.
107
108 Notas de aula do Prof. Antonio Cndido Faleiros
2. Determine x, uma soluo de Ax = Pb.
3. Determine r, a projeo ortogonal de x sobre a imagem de A

, que ortogonal ao
ncleo de A.
Exerccio 9.1 Para as matrizes abaixo, determine: a projeo ortogonal Pb de b sobre
a imagem de A, uma soluo de Ax = Pb e a projeo ortogonal r de x sobre a imagem
de A

.
1. A =
_
_
1 2
0 1
2 3
_
_
e b =
_
_
1
0
0
_
_
.
2. A =
_
_
1 0 1
2 1 0
3 1 1
_
_
e b =
_
_
1
1
1
_
_
.
Exerccio 9.2 Na decomposio QR de A =
_
_
1 2
0 1
1 2
_
_
, Q =
_
_
1/

2 0
0 1
1/

2 0
_
_
. Determine
a matriz que projeta sobre a imagem de A. Resolva o problema de mnimos quadrados
Ax = (1, 0, 0)
T
. (Sugesto: note que as colunas de Q do base ortogonal para a imagem
de A.)
A resoluo de um problema de mnimos quadrados bastante rdua. Felizmente
existe um atalho que nos dado pela proposio seguinte.
Teorema 9.3 Seja A uma matriz m por n e b um vetor coluna m por 1. Seja P a matriz
que projeta ortogonalmente sobre a imagem de A. Os sistemas lineares Ax = Pb e A

Ax =
A

b possuem as mesmas solues.


Prova. Observe inicialmente que Pb b Im(A)

= ker(A

).
1. Se x for soluo de Ax = Pb, ento Ax b = Pb b pertence ao ncleo de A

de
onde se conclui que A

(Ax b) = 0 ou
A

Ax = A

b.
2. Se x for soluo de A

Ax = A

b, ento A

(b Ax) = 0 e b Ax pertence ao
ncleo de A

, que ortogonal imagem de A. Desta forma, b = Ax+ (b Ax) uma


decomposio de b em um vetor Ax na imagem de A e outro b Ax no seu complemento
ortogonal. Logo, Pb = Ax.
Denio 9.4 A equao
A

Ax = A

b
chamada de equao normal do problema de mnimos quadrados para Ax = b.
Notas de aula do Prof. Antonio Cndido Faleiros 109
Embora seja redundante, nunca demais rearmar que, se x for uma soluo da
equao normal, ento a projeo ortogonal de b sobre a imagem de A igual a Ax
Pb = Ax.
Quando m n e a matriz A, de ordem m por n, possuir posto mximo n, suas colunas
sero linearmente independentes e o seu ncleo conter apenas o zero. A matriz A

A ser
inversvel e o problema de mnimos quadrados para Ax = b ter uma nica soluo
x = (A

A)
1
A

b.
Como Pb = Ax, a projeo ortogonal P sobre a imagem de A ser dada pelo produto
P = A(A

A)
1
A

.
9.1 Mnimos quadrados e a decomposio QR
Seja A =

Q

R a decomposio QR reduzida da matriz A. As colunas da matriz



Q = [q
1
,
. . . , q
k
] formam uma base ortonormal da imagem de A e

Q


Q a matriz identidade k por
k. A matriz

R, de ordem k por n, triangular superior,
A

A =

R

R =

R


R,
e a equao normal A

Ax = A

b toma a forma


Rx =

R

b.
Este sistema pode ser resolvido com facilidade, posto que

R triangular superior e

R


triangular inferior.
Quando m n e a matriz A de ordem m por n possuir posto mximo n, as matrizes
A

A e

R so inversveis o que permite reduzir a equao normal forma

Rx =

Q

b.
Neste caso,

R inversvel e esta equao tem soluo nica. A projeo P = A (A

A)
1
A

assumir uma forma mais simples


P = A(A

A)
1
A

=

Q

R(

R


R)
1

R

=

Q

.
9.2 Pseudo inversa
Quando m n e a matriz A de ordem m por n possuir posto mximo n, o problema de
mnimo quadrado para Ax = b tem uma nica soluo que coincide com a nica soluo
da equao normal
A

Ax = A

b.
110 Notas de aula do Prof. Antonio Cndido Faleiros
A matriz A

A inversvel neste caso e


x = (A

A)
1
A

b.
A matriz n por m
A
+
= (A

A)
1
A

,
chamada de pseudo-inversa de A. Ela recebe este nome pois x = A
+
b a soluo por
mnimos quadrados de Ax = b.
Sendo

Q

R for a decomposio QR reduzida de A, ento


x =

R
1

Q

b
e a pseudo-inversa ser dada por
A
+
=

R
1

Q

.
Continuando com A de ordem m por n e posto mximo n, a matriz A

A, alm de ser
inversvel, hermitiana e possui uma decomposio de Cholesky A

A = R

R, onde R
inversvel e triangular superior. Neste caso, a equao normal se reduz forma
R

Rx = A

b
e, sendo R triangular superior e R

triangular inferior, muito simples resolver o sistema.


9.3 Reta de regresso
Sejam (x
1
, y
1
), . . . , (x
m
, y
m
) pontos de C
2
. Determine a reta
y = c
0
+c
1
x
que minimiza o resduo
P
m
i=1
(c
0
+c
1
x
i
y
i
)
2
.
Consideremos em C
m
o produto interno denido por hx, yi = x

y e a norma denida
por kxk
2
=

x

x. Sendo
A =
_
_
_
1 x
1
.
.
.
.
.
.
1 x
m
_
_
_
, c =

c
0
c
1

, d =
_
_
_
y
1
.
.
.
y
m
_
_
_
,
ento
kAc dk
2
= hAc d, Ac di =
m
X
i=1
(c
0
+c
1
x
i
y
i
)
2
.
Portanto, o problema proposto equivalente ao problema de mnimos quadrados para
Ac = d no produto interno de C
m
denido por hx, yi = x

y.
Notas de aula do Prof. Antonio Cndido Faleiros 111
Se x
1
, . . . , x
m
no forem todos iguais, a matriz A tem posto 2. A equao normal
A

Ac = A

d do problema de mnimos quadrados para Ac = d

m
P
m
i=1
x
i
P
m
i=1
x
i
P
m
i=1
x
2
i

c
0
c
1

=
P
m
i=1
y
i
P
m
i=1
x
i
y
i

que ter soluo nica.


Sejam
x =
1
m
(x
1
+ +x
m
) e y =
1
m
(y
1
+ +y
m
)
os valores mdios de x
1
, . . . , x
m
e y
1
, . . . , y
m
, respectivamente. Podemos fazer a decom-
posio A = WT, onde
W =
_
_
_
1 (x
1
x)
.
.
.
.
.
.
1 (x
m
x)
_
_
_
, T =

1 x
0 1

onde as colunas de W formam uma base ortogonal para a imagem de A e T inversvel.


Com esta decomposio, a equao normal A

Ac = A

d assume a forma

m 0
0
P
m
i=1
(x
i
x)
2

c
0
+c
1
x
c
1

=
P
m
i=1
y
i
P
m
i=1
(x
i
x)y
i

cuja soluo imediata


c
1
=
P
m
i=1
(x
i
x)y
i
P
m
i=1
(x
i
x)
2
e c
0
= y c
1
x.
Exerccio 9.5 Calcule a reta de regresso para os dados (1; 3), (2; 6), (3; 5, 5), (4; 6, 5).
9.4 Interpolao polinomial
Dados os pontos (x
1
, y
1
), . . . , (x
m
, y
m
), determine c
0
, c
1
, . . . , c
m1
, de modo que o
polinmio
y = p(x) = c
0
+c
1
x + +c
m1
x
m1
seja tal que p(x
i
) = y
i
, para i = 1, 2, . . . , m1.
Estas condies nos levam ao sistema de equaes algbricas lineares Ac = d onde
A =
_
_
_
_
_
1 x
1
x
2
1
x
k
1
1 x
2
x
2
2
x
k
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
m
x
2
m
x
k
m
_
_
_
_
_
, c =
_
_
_
_
_
c
0
c
1
.
.
.
c
k
_
_
_
_
_
, d =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
.
Se os pontos x
1
, x
2
, . . . , x
m
forem todos distintos, a matriz A inversvel e o problema
tem soluo nica para qualquer y
1
, y
2
, . . . , y
m
.
112 Notas de aula do Prof. Antonio Cndido Faleiros
O polinmio p(x) assim obtido chamado de polinmio interpolador dos pares de
pontos (x
1
, y
1
), . . . , (x
m
, y
m
).
medida que o m cresce, o polinmio p oscila mais e mais. Se os pontos (x
i
, y
i
)
tiverem sido obtidos a partir de experimentos laboratoriais, p(x) pode no representar o
fenmeno que se pretende descrever.
9.5 Ajuste polinomial
Se os dados (x
i
, y
i
), i = 1, 2, . . . , m, forem provenientes de experimentos, a interpolao
polinomial fornece um polinmio que oscila muito e no representa adequadamente os
dados obtidos experimentalmente. Quanto maior for o conjunto de dados, mais oscilante
o polinmio. Desta forma, muito mais interessante procurar um polinmio de grau
menor, que oscila menos e se ajuste melhor aos dados observados, embora no passe nec-
essariamente por nenhum deles. Observando que dados experimentais so passveis de
erros, no um absurdo obter um polinmio que se ajuste a eles sem passar necessaria-
mente por nenhum deles. Fica no ar a pergunta: qual o grau do polinmio a ser usado.
Em geral, quando se faz um experimento, existem modelos matemticos que descrevem o
fenmeno. Se no houver, busca-se um por tentativas e erros. O critrio de ajuste pode
ser aquele fornecido pelo problema de mnimos quadrados.
Dados os pontos (x
1
, y
1
), . . . , (x
m
, y
m
), determine o polinmio
y = p(x) = c
0
+c
1
x + +c
k
x
k
de grau k menor do que m1 que minimiza o resduo
P
m
i=1
(p(x
i
) y
i
)
2
.
Minimizar este resduo equivalente minimizao da norma kAc dk
2
, onde
A =
_
_
_
_
_
1 x
1
x
2
1
x
k
1
1 x
2
x
2
2
x
k
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
m
x
2
m
x
k
m
_
_
_
_
_
, c =
_
_
_
_
_
c
0
c
1
.
.
.
c
k
_
_
_
_
_
, d =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
,
de modo que o problema proposto equivalente quele dos mnimos quadrados para Ac =
d com o produto interno
hx, yi = x

y.
Quando k = m1 camos no caso anterior da interpolao polinomial.
9.6 Aproximao polinomial de funes
Um problema semelhante ao anterior consiste em determinar o polinmio
y = p(x) = c
0
+c
1
x + +c
k
x
k
Notas de aula do Prof. Antonio Cndido Faleiros 113
de grau menor ou igual a k que melhor aproxima uma funo g(x) denida no intervalo
[a, b]. Logo surge a pergunta: em que sentido p(x) o melhor polinmio que aproxima
g(x)?
Numa tentativa de responder a esta indagao, legtima por sinal, poderamos pegar
m pontos a = x
1
x
2
x
m
= b igualmente espaados em [a, b] e assim determinar
o polinmio p(x) que minimiza a soma
S =
m
X
i=1
[p(x
i
) g(x
i
)]
2
.
Denotando g(x
i
) por y
i
, podemos resolver este problema usando a tcnica anterior de
ajuste polinomial.
Entretanto, antes de encerrar o caso, vamos elaborar um pouco mais este problema.
Para m xo, seja x = (b a)/m. Minimizar S ou S x a mesma coisa. medida
que o m cresce,
S x =
m
X
i=1
|p(x
i
) g(x
i
)|
2
x
converge para a integral
R
b
a
[f(x) g(x)]
2
dx. Tal fato motiva a denio do produto in-
terno
hf, gi =
Z
b
a
f(x) g(x) dx
e a norma correspondente a ele
kfk =
s
Z
b
a
|f(x)|
2
dx.
Nesta norma, kp gk
2
=
R
b
a
|p(x) g(x)|
2
dx.
O problema agora pode ser reformulado como segue: Seja g uma funo contnua,
denida no intervalo real [a, b]. Determine o polinmio p(x) = c
0
+ c
1
x+ + c
k
x
k
de
grau menor ou igual a k, que minimiza
kp gk
2
=
Z
b
a
|p(x) g(x)|
2
dx.
Sabemos que p obtido projetando g ortogonalmente sobre o espao dos polinmios
de grau menor ou igual a k. Podemos determinar este polinmio a partir de uma base
ortogonal para este espao vetorial. Sabemos que quando [a, b] = [1, 1], estes polinmios
esto relacionados aos polinmios de Legendre.
114 Notas de aula do Prof. Antonio Cndido Faleiros
9.7 Aproximao trigonomtrica
Podemos agora resolver um problema semelhante ao anterior, aproximando uma funo
real g(x), denida no intervalo [L, L], por uma funo trigonomrica
f(x) =
a
0
2
+
m
X
k=1
a
k
cos

k
L
x

+
m
X
k=1
b
k
sen

k
L
x

fazendo com que


kf gk
2
=
Z
L
L
|f(x) g(x)|
2
dx
seja o menor possvel. A norma acima proveniente do produto interno
hf, gi =
Z
L
L
f(x) g(x) dx
e, o que interessante observar, o conjunto de funes
{ 1, cos

k
L
x

, sen

k
L
x

: k = 1, 2, . . . , m }
ortogonal em relao a este produto interno. Pode-se calcular que h1, 1i = 2L e

cos

k
L
x

, cos

k
L
x

=

sen

k
L
x

, sen

k
L
x

= L.
Consequentemente,
a
0
=
1
L
Z
L
L
g(x)dx
a
k
=
1
L
Z
L
L
g(x) cos

k
L
x

dx
b
k
=
1
L
Z
L
L
g(x)sen

k
L
x

dx
para k = 1, 2, . . . , m.
Seja g(x) uma funo contnua por partes no intervalo [L, L] e h(x) sua extenso
peridica para toda a reta. medida que o m cresce, a aproximao trigonomtrica
converge para o valor mdio
g(x

) +g(x
+
)
2
onde
g(x

) = lim
sx

g(s) e g(x
+
) = lim
sx
+
g(s).
A teoria que trata das aproximaes por funes trigonomtricas denominada de
Anlise de Fourier e a cincia que estuda as aproximaes por seqncias de funes
ortogonais denominada de Anlise Harmnica.
Captulo 10
Autovalores e autovetores
Denio 10.1 Seja V um espao vetorial e L : V V um operador linear. Um escalar
um autovalor de L se existir um vetor v, no nulo, tal que Lv = v. O vetor v
chamado de autovetor de L correspondente ao autovalor .
Uma matriz quadrada A dene um operador linear de R
n
em R
n
se for real ou de C
n
em C
n
se for complexa. Um nmero real um autovalor de A se existir uma matriz
coluna x de ordem n por 1, no nula, tal que Ax = x. O vetor coluna x chamado de
autovetor de A correspondente ao autovalor .
Sendo x um autovetor de A correspondente ao autovalor ento
(I A)x = 0,
onde I a matriz identidade. A equao matricial acima possui soluo no trivial se e
s se
det(I A) = 0.
Se A for uma matriz de ordem n, o det(I A) um polinmio de grau n em . Sobre o
corpo dos nmeros complexos, a equao polinomial
det(tI A) = 0
possui pelo menos uma raiz . Substituindo este valor na equao matricial (I A)x = 0,
determinamos os autovalores x. Lembre-se: quando uma equao matricial homognea
possui soluo no trivial, esta soluo no nica. Se x
1
e x
2
so dois autovetores de A
correspondentes ao mesmo autovalor e
1
,
2
forem dois escalares, ento
1
x
1
+
2
x
2
ser autovetor de A correspondentes ao autovalor . O conjunto
auto() = {x C
n
: Ax = x}
um subespao vetorial de C
n
, chamado de autoespao de A correspodente ao autovalor
.
A matriz tI A chamada de matriz caracterstica de A, o polinmio (t) =
det(tIA) chamado de polinmio caracterstico de A e a equao polinomial det(tI
A) = 0 chamada de equao caracterstica de A.
115
116 Notas de aula do Prof. Antonio Cndido Faleiros
Para obter os autovalores e autovetores de A, calcule as razes
1
, . . . ,
s
da equao
caracterstica det(I A) = 0 e, para cada autovalor
i
, determine o conjunto soluo do
sistema homogneo
(I A)x = 0
para obter o autoespao de .
Se duas matrizes quadradas A e B forem semelhantes, ento existe uma matriz inver-
svel P tal que B = PAP
1
e
det(tI B) = det(tP
1
P P
1
AP) = det(P
1
(tI A)P) =
= det(P
1
) det(tI A) det(P) = det(tI A),
mostrando que matrizes semelhantes possuem a mesma equao caracterstica e, portanto,
os mesmos autovalores.
Para determinar autovalores e autovetores de um operador linear L : V V, onde V
um espao vetorial de dimenso nita n, escolhemos uma base B = {v
1
, . . . , v
n
} de V e
calculamos a matriz de L na base B que denotamos por A. Um escalar autovalor de
L se e s se for autovalor de A. Um vetor v no nulo autovetor de L correspondente ao
autovalor se e s se a matriz coluna x das coordenadas de v na base B for um autovetor
de A correspondente ao autovalor .
De fato, se A = (a
ij
), ento
Lv
j
=
n
X
i=1
a
ij
v
i
e, se x = (x
1
, . . . , x
n
)
T
, ento
v =
n
X
i=1
x
i
v
i
e
Lv =
n
X
j=1
x
j
Lv
j
=
n
X
j=1
x
j
n
X
i=1
a
ij
v
i
=
n
X
i=1

n
X
j=1
a
ij
x
j
!
v
i
.
Assim, Lv = v se e s se
P
n
i=1

P
n
j=1
a
ij
x
j

v
i
=
P
n
i=1
x
i
v
i
e, da independncia linear
dos elementos de B, esta igualdade se verica se e s se
P
n
j=1
a
ij
x
j
=
P
n
i=1
x
i
, para i =
1, . . . , n, que corresponde equao matricial Ax = x.
Desta forma, para calcular os autovalores e autovetores de um operador L num espao
vetorial de dimenso nita, basta calcular sua matriz A numa base B, determinar seus
autovalores
1
, . . . ,
s
, que sero os autovetores de L. A cada autovalor
i
, determine o
autoespao de A correspondente a este autovalor
auto(
i
) = {x C
n
: Ax =
i
x}
para obter os autovetores v de L correspondente ao autovalor
i
que sero dados por
v = x
1
v
1
+ +x
n
v
n
Notas de aula do Prof. Antonio Cndido Faleiros 117
onde x = (x
1
, . . . , x
n
)
T
autovetor de A correspondente ao autovalor
i
.
Seja um autovalor de L. Tal como no caso de matrizes, o conjunto
auto() = {v V : Lv = v}
um subespao vetorial de V, denominado de autoespao de L correspondente ao auto-
valor .
Se A for a matriz de L numa base B de V, ento tI A chamada de matriz
caracterstica de L, o polinmio det(tI A) chamado de polinmio caracterstico
de L e a equao polinomial det(tI A) = 0 chamada de equao caracterstica de
L.
Como as matrizes de uma transformao linear em bases diferentes so semelhantes, o
polinmio caracterstico de L no depende da base escolhida e, portanto, seus autovalores
no dependem da base escolhida. A mesmo acontece com os autovetores de L. Sua
determinao no depende da base escolhida.
Teorema 10.2 Autovetores de L correspondentes a autovalores distintos so linearmente
independentes.
Prova. Sejam v
1
, . . . , v
r
os autovetores de L correspondentes aos autovalores dis-
tintos
1
, . . . ,
r
. Vamos provar que estes autovetores formam um conjunto linearmente
independente.
1. Inicialmente provaremos que {v
1
, v
2
} linearmente independente. Sejam a
1
e a
2
dois escalares tais que a
1
v
1
+a
2
v
2
= 0. Multiplicando por
1
e por A vem
a
1

1
v
1
+a
2

1
v
2
= 0
e
a
1

1
v
1
+a
2

2
v
2
= 0.
Subtraindo uma da outra chega-se a a
2
(
1

2
)v
2
= 0. Como
1
6=
2
e v
2
6= 0, obtemos
a
2
= 0 e, consequentemente, a
1
= 0, provando que o conjunto {v
1
, v
2
} linearmente
independente. Do mesmo modo se prova que um conjunto formado por dois autovetores
{v
i
, v
j
} so linearmente independentes.
2. Vamos supor, como hiptese de induo, que qualquer subconjunto de {v
1
, . . . , v
r
}
com menos de r elementos linearmente independente.
3. Vamos provar que {v
1
, . . . , v
r
} linearmente independente. Consideremos a
equao
a
1
v
1
+a
2
v
2
+ +a
r
v
r
= 0,
onde a
i
so escalares. Multiplicando-a por A e por
1
, obtemos
a
1

1
v
1
+a
2

2
v
2
+ +a
r

r
v
r
= 0
e
a
1

1
v
1
+a
2

1
v
2
+ +a
r

1
v
r
= 0.
118 Notas de aula do Prof. Antonio Cndido Faleiros
Subtraindo uma da outra vem
a
2
(
2

1
)v
2
+ +a
r
(
r

1
)v
r
= 0
Sendo o conjunto {v
2
, . . . , v
r
} linearmente independente, a
2
(
2

1
) = = a
r
(
r

1
) =
0. Como os autovalores so distintos, a
2
= = a
r
= 0 e, em conseqncia, a
1
tambm
nulo, completando a prova de que o conjunto {v
1
, . . . , v
r
} linearmente independente.
Teorema 10.3 Seja V um espao com produto interno e L : V V auto-adjunto. Os
autovalores de L so reais e os autovetores correspondentes a autovalores distintos so
ortogonais.
Prova. Se Lv = v, onde v um vetor no nulo e escalar, ento hLv, vi = hv, Lvi
o que implica em

hv, vi = hv, vi ou (

) hv, vi = 0, de onde se conclui que



= .
Se v e w forem autovetores correspondentes aos autovalores reais distintos e , ento,
de hLv, wi = hv, Lwi o que implica em hv, wi = hv, wi ou ( ) hv, wi = 0. Como
6= , hv, wi = 0.
Teorema 10.4 Seja V um espao com produto interno e L : V V linear. Os autoval-
ores de L

L so reais e no negativos, isto , se for autovalor de L

L, ento 0.
Prova. Como L

L auto-adjunto, seus autovalores so reais. Seja v um autovetor de


L

L associado ao autovalor . De hLv, Lvi 0, segue


0 hLv, Lvi = hv, L

Lvi = hv, vi = hv, vi


Como hv, vi > 0, conclui-se que 0.
Teorema 10.5 Seja V um espao com produto interno e L : V V antiadjunto. Os
autovalores de L so nmeros imaginrios puros (nmeros complexos com parte real nula)
e os autovetores correspondentes a autovalores distintos so ortogonais.
Prova. Se v for um autovetor de L, com Lv = v ento
hLv, vi = hv, Lvi =

hv, vi = hv, vi =

=
provando que um nmero imaginrio com parte real nula.
Sejam v e w autovetores de L com Lv = v, Lw = w e 6= . Ento
hLv, wi = hv, Lwi =

hv, wi = hv, wi .
Sendo e imaginrios puros e distintos,

6= e assim, hv, wi = 0.
Notas de aula do Prof. Antonio Cndido Faleiros 119
Teorema 10.6 Seja V um espao com produto interno e L : V V unitrio. Os auto-
valores de L so nmeros complexos com mdulo unitrio e os autovetores correspondentes
a autovalores distintos so ortogonais.
Prova. Seja v um autovetor de L, com Lv = v. Ento
hLv, Lvi = hv, vi =

hv, vi = hv, vi =

= 1,
mostrando que um nmero complexo de mdulo unitrio.
Sejam v e w autovetores de L com Lv = v, Lw = w e 6= . Se hv, wi 6= 0, ento
hLv, Lwi = hv, wi = hv, wi = hv, wi = = 1.
Como possui mdulo unitrio, podemos escrev-lo na forma = exp(i), onde um
nmero real. Assim exp(i) = 1 e = exp(i) =

de onde se conclui que = , o
que contraria a hiptese.
Denio 10.7 Seja p(t) = c
0
+ c
1
t+ + c
k
t
k
um polinmio em t e A uma matriz
quadrada. Dene-se p(A), o valor do polinmio p(t) na matriz A, por
p(A) = c
0
I +c
1
A+ +c
k
A
k
onde I a matriz identidade com ordem igual de A. Se p(A) = 0, diremos que a matriz
A um zero do polinmio p(t).
Sejam A
k
, k = 0, 1, . . . , r, matrizes quadradas de mesma ordem. Os elementos da
matriz
A(t) = A
0
+A
1
t + +A
r
t
r
so polinmios de grau menor ou igual a r.
Teorema 10.8 (Cayley-Hamilton) Toda matriz um zero do seu polinmio caracters-
tico.
Prova. Seja A uma matriz quadrada de ordem n e B = tI A sua matriz caracters-
tica. Seu polinmio caracterstico
det B = det(tI A) = t
n
+c
n1
t
n1
+ +c
1
t +c
0
tem grau n. Cada elemento da adjunta clssica de B, denotada por adj(B), um polinmio
de grau n 1 ou inferior. Logo, adj(B) = B
n1
t
n1
+ + B
1
t+ B
0
um polinmio
matricial de grau n 1 ou inferior. Sabe-se que B
1
= adj(B)/ det(B) e assim,
det(B)I = adj(B) B.
Como
det(B)I = It
n
+c
n1
It
n1
+ +c
1
It +c
0
I
120 Notas de aula do Prof. Antonio Cndido Faleiros
e
adj(B) B =

B
n1
t
n1
+ +B
1
t +B
0

(tI A)
= B
n1
t
n
+ (B
n2
B
n1
A)t
n1
+ + (B
0
B
1
A)t +B
0
A
segue
I = B
n1
c
n1
I = B
n2
B
n1

c
1
I = B
0
B
1
A
c
0
I = B
0
A.
Multiplicando as igualdades, da primeira at a ltima por A
n
, A
n1
, . . . , A e I, respecti-
vamente, pela direita e adicionando os resultados, obtemos zero do lado direito e, do lado
esquerdo, o polinmio caracterstico
A
n
+c
n1
A
n1
+ +c
1
A+c
0
I
calculado na matriz A. Isto prova o teorema de Cayley-Hamilton.
Matrizes triangulares em bloco so aquelas do tipo
A =

A
1
B
0 A
2

onde A
1
e A
2
so matrizes quadradas, podendo ter a mesma ordem ou no. Ento
det(A) = det(A
1
) det(A
2
).
A matriz caracterstica de A tambm triangular por blocos e
det(tI A) = det(tI A
1
) det(tI A
2
).
Teorema 10.9 Seja A uma matriz triangular em blocos, cujos blocos diagonais so A
1
,
. . . , A
r
. Ento o polinmio caracterstico de A o produto dos polinmios caractersticos
de A
1
, . . . , A
r
, isto ,
det(tI A) = det(tI A
1
) det(tI A
r
).
O polinmio caracterstico de uma matriz quadrada complexa A pode ser fatorado em
fatores lineares,
(t) = (t
1
)
p
1
(t
k
)
p
k
,
onde
1
, . . . ,
k
so suas razes e p
1
, . . . , p
k
suas multiplicidades. O expoente p
k
a
multiplicidade algbrica do autovalor
k
.
Notas de aula do Prof. Antonio Cndido Faleiros 121
Denio 10.10 Seja um autovalor de uma matriz quadrada A de ordem n. A mul-
tiplicidade algbrica de a multiplicidade de como raz da equao caracterstica.
A multiplicade geomtrica de a dimenso do seu autoespao.
Exemplo 10.11 O polinmio caracterstico de A =
_
_
5 1 0
0 5 0
0 0 5
_
_
(t 5)
3
. Logo, 5
um autovalor de A de multiplicidade algbrica 3. O autoespao deste autovalor gerado
por (1, 0, 0)
T
e (0, 0, 1)
T
. Logo, a multiplicidade geomtrica do autovalor 5 2.
Teorema 10.12 A multiplicidade geomtrica de um autovalor nunca excede sua multi-
plicidade algbrica.
Prova. Seja V um espao vetorial de dimenso n e L : V V um operador linear.
Seja g a multiplicidade geomtrica de um autovalor de L. Existem g autovetores v
1
, . . . ,
v
g
linearmente independentes correspondentes ao autovalor . Completemos este conjunto
para obter uma base de V. Seja B = {v
1
, . . . , v
g
, w
1
, . . . , w
r
} esta base. A matriz de L
nesta base
M =
_
_
_
_
_
_
_
_
_
0 c
11
c
1r
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 c
p1
c
pr
0 0 b
11
b
1r
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 b
r1
b
rr
_
_
_
_
_
_
_
_
_
=

A C
0 B

onde A = I. O polinmio caracterstico de M (t) = det(tIM) = det(tIA) det(tI


B) = (t )
g
det(tI B). Portanto, (t )
g
deve dividir (t). Para que isto ocorra, a
multiplicidade algbrica de deve ser maior ou igual a g.
Teorema 10.13 Uma matriz quadrada A de ordem n semelhante a uma matriz diagonal
D se e s se A tem n autovetores linearmente independentes.
Prova. 1. Se A for semelhante a uma matriz diagonal D, ento existe uma matriz
inversvel P tal que AP = PD. Os elementos diagonais de D so os autovalores de A e
as colunas de P os autovetores. Sendo inversvel, as colunas de P so vetores linearmente
independentes.
2. Se A tem n autovetores linearmente independentes, sejam eles {v
1
, . . . , v
n
} que
formam uma base de V e para os quais Av
i
=
i
v
i
. Se P for a matriz cujas colunas so
formadas por esses vetores, temos AP = PD onde D = diag(
1
, . . . ,
n
).
Nota 10.14 No teorema anterior, os n autovalores
1
, . . . ,
n
no precisam ser todos
distintos.
122 Notas de aula do Prof. Antonio Cndido Faleiros
Seja P a matriz inversvel para a qual D = P
1
AP diagonal. Ento A = PDP
1

a chamada de fatorao diagonal de A.


Seja V um espao vetorial com dimenso n. Seja L : V V uma transformao linear,
cujo polinmio caracterstico
(t) = (t
1
)(t
2
) (t
n
)
pode ser fatorado em n fatores distintos do primeito grau. Ento L possui n autovetores
linearmente independentes e portanto, possui uma representao matricial diagonal, na
base formada pelos autovetores. Os elementos da diagonal desta representao so os
autovalores
i
.
Se D for diagonal e seus elementos diagonais forem d
11
, d
22
, . . . , d
nn
denotaremos esta
matriz por D = diag(d
11
, d
22
, . . . , d
nn
). Sendo A = PDP
1
, ento
A
m
=

PDP
1

m
= PD
m
P
1
= Pdiag(d
m
11
, d
m
22
, . . . , d
m
nn
)P
1
.
Sendo f(t) um polinmio,
f(A) = f

P DP
1

= P f(D) P
1
= Pdiag( f(d
11
), f(d
22
), . . . , f(d
nn
) )P
1
.
Alm disso, se os elementos diagonais de D forem no negativos, ento
B = Pdiag

p
k
1
, . . . ,
p
k
n

P
1
uma raiz quadrada de A pois B
2
= A.
Captulo 11
Espaos Invariantes
Denio 11.1 Seja L : V V um operador linear e W um subespao de V. Se L(W)
W, diremos que W invariante sob L.
Exemplo 11.2 Seja L(x, y, z) = ( x y, x + y, z ) um operador denido no espao
vetorial dos ternos ordenados. O subespao W = { (x, y, 0) : x, y R } invariante sob
L.
O subespao gerado por um vetor w no nulo invariante sob L se e s se w for um
autovetor de L.
Seja L : V V linear e f(t) um polinmio. O ker f(L) invariante sob L. Se W for
invariante sob L, ento W invariante sob f(L).
Denio 11.3 Seja W um subespao vetorial de V e L : V V um operador linear.
Se W for invariante sob L podemos denir T : W W por T(w) = L(w) para todo w
em W. O operador T linear em W e recebe o nome de restrio de L em W.
Sendo W invariante sob L, ento invariante sob L
k
, para todo k inteiro positivo. Se
f(t) for um polinmio, ento W invariante sob f(L). Sendo T a restrio de L a W,
para todo w em W, tem-se f(T)w = f(L)w.
Teorema 11.4 Seja L : V V linear e W subespao de V invariante sob L. Ento L
possui uma representao matricial em bloco

A C
0 B

onde A uma representao matricial da restrio de L em W.


123
124 Notas de aula do Prof. Antonio Cndido Faleiros
Prova. Seja {u
1
, . . . , u
j
} uma base de W e {u
1
, . . . , u
j
, v
1
, . . . , v
k
} uma base de V.
Como W invariante frente a L,
L(u
1
) = a
11
u
1
+ +a
j1
u
j

L(u
j
) = a
1j
u
1
+ +a
jj
u
j
L(v
1
) = c
11
u
1
+ +c
j1
u
j
+b
11
v
1
+ +b
k1
v
k

L(v
k
) = c
1k
u
1
+ +c
jk
u
j
+b
1k
v
1
+ +b
kk
v
k
e, portanto, a representao matricial de L nesta base
_
_
_
_
_
_
_
_
_
a
11
a
1j
c
11
c
1k
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j1
a
jj
c
j1
c
jk
0 0 b
11
a
1j
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 b
k1
b
kk
_
_
_
_
_
_
_
_
_
=

A C
0 B

Denio 11.5 Seja L : V V linear e V = W


1
W
r
, onde W
i
invariante sob
L. Seja L
i
a restrio de L a W
i
. Neste caso se diz que L a soma direta dos L
i
ou que
L decomponvel nos operadores L
i
, quando ento se escreve
L = L
1
L
r
.
Ainda se diz que os subespaos W
1
, . . . , W
r
reduzem L.
Teorema 11.6 Seja L : V V linear e W
1
, . . . , W
r
subespaos de V invariantes sob L
e tais que V = W
1
W
r
. Neste caso, L possui uma representao matricial diagonal
em bloco
A =
_
_
_
_
_
A
1
0 0
0 A
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
r
_
_
_
_
_
onde A
i
uma representao matricial da restrio L
i
de L no subespao W
i
.
Prova. Provaremos o teorema no caso em que V = W
1
W
2
. Sejam B
1
= {u
1
, . . . ,
u
r
} base de W
1
e B
2
= {w
1
, . . . , w
s
} base de W
2
. Como W
1
e W
2
so invariantes frente
Notas de aula do Prof. Antonio Cndido Faleiros 125
L,
L(u
1
) = a
11
u
1
+ +a
r1
u
r

L(u
r
) = a
1r
u
1
+ +a
rr
u
r
L(w
1
) = b
11
w
1
+ +b
s1
w
s

L(w
s
) = b
1s
w
1
+ +b
ss
w
s
Desta forma, a representao matricial de L nesta base
A =
_
_
_
_
_
_
_
_
_
a
11
a
1r
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
r1
a
rr
0 0
0 0 b
11
b
1s
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 b
s1
b
ss
_
_
_
_
_
_
_
_
_
=

A 0
0 B

Nas condies do teorema anterior, temos L = L


1
L
r
. A matriz A chamada
de soma direta de A
1
, . . . , A
r
e se escreve
A = A
1
A
r
.
11.1 Polinmio mnimo
Para obter representaes matriciais simplicadas de um operador linear preciso obter
subespaos invariantes. Se f(t) for um polinmio e L for um operador linear, ento o
ncleo de f(L) invariante sob L. Este fato nos fornece um modo sistemtico de obter
subespaos invariantes.
Em particular vamos provar que
Teorema 11.7 Seja L : V V linear e g(t), h(t) polinmios mnicos primos entre si,
tais que L um zero do polinmio f(t) = g(t)h(t). Ento os subespaos ker g(L) e ker g(L)
so invariantes sob L e
V = ker g(L) ker h(L)
Sabemos que L um zero de seu polinmio caracterstico. Vamos provar que todo
polinmio que tem L como zero possui os mesmos fatores irredutveis. Dentre eles,
destaca-se o de menor grau, denominado de polinmio mnimo de L.
Denio 11.8 Seja L : V V um operador linear. O polinmio mnimo de L aquele
polinmio mnico de menor grau para o qual m(L) = 0.
126 Notas de aula do Prof. Antonio Cndido Faleiros
Teorema 11.9 Toda matriz quadrada possui um nico polinmio mnimo.
Prova. (Existncia) Sabemos que a matriz L um zero do seu polinmio caracterstico
e assim, existe pelo menos um polinmio no nulo que possui L como zero. Considere
o conjunto de todos os polinmios mnicos que se anulam em L. Existe pelo menos um
polinmio no nulo de grau mnimo neste conjunto. Este um polinmio mnimo de L.
(Unicidade) Seja m(t) o polinmio mnico de menor grau para o qual m(L) = 0. Seja
f(t) outro polinmio mnico de mesmo grau que m(t) e que possui L como zero. Ento
g(t) = f(t) m(t) no nulo e seu grau menor que o grau de m(t). Ao mesmo tempo,
g(L) = 0, contrariando a hiptese de m(t) ser o polinmio de menor grau que possui L
como zero.
Teorema 11.10 O polinmio mnimo de L divide todo polinmio que tem L como zero.
Em particular, o polinmio mnimo de L divide o polinmio caracterstico de L.
Prova. Seja m(t) o polinmio mnimo de L e f(t) um polinmio mnico para o qual
f(L) = 0. O grau de f(t) maior do que o grau de m(t) e, pelo algoritmo da diviso,
f(t) = q(t)m(t)+r(t), onde grau(r) < grau(m). Existem duas possibilidades: r(t) = 0 ou
r(t) 6= 0. Esta possibilidade, r(t) 6= 0, deve ser descartada pois nos leva a uma contradio,
considerando-se que r(A) = 0 e o grau(r) < grau(m). Logo, r(t) = 0 e m(t) divide f(t).

Teorema 11.11 Seja m(t) o polinmio mnimo e (t) o polinmio caracterstico de um


operador linear L : V V. Se a dimenso de V for n, ento (t) divide m(t)
n
.
Prova. Seja f(t) = c
0
+c
1
t +c
2
t
2
+ +t
r
, qualquer polinmio mnico para o qual
f(L) = 0 ou
c
0
I +c
1
L +c
2
L
2
+ +L
r
= 0,
onde se pode explicitar c
0
I
c
0
I = c
1
L c
2
L
2
L
r
.
Esta expresso pode ser usada para eliminar c
0
I em f(t)I.
f(t)I = c
0
I +c
1
tI +c
2
t
2
I + +t
r
I
= c
1
(tI L) +c
2
(t
2
I L
2
) + + (t
r
I L
r
)
= (tI L)(c
1
+c
2
(tI +L) + + (t
r1
I +t
r2
L + +L
r1
))
= (tI L)B(t).
Se f(t) for o polinmio mnimo m(t) de L, vale (tI L)B(t) = m(t)I. Calculando o
determinante dos dois membros, segue
(t) det B(t) = m(t)
n
.

Notas de aula do Prof. Antonio Cndido Faleiros 127


Teorema 11.12 Os polinmios mnimo e caracterstico de um operador linear L possuem
os mesmos fatores irredutveis. Logo, possuem as mesmas razes.
Prova. Seja m(t) o polinmio mnimo e (t) o polinmio caracterstico de L.
Pelo teorema anterior, (t) divide m(t)
n
. Assim, os fatores irredutveis de (t) devem
ser fatores irredutveis de m(t)
n
que possui os mesmos fatores irredutveis que m(t).
Por outro lado, m(t) divide (t). Logo, os fatores irredutveis de m(t) tambm devem
ser fatores irredutveis de (t). Isto prova o teorema.
Corolrio 11.13 Um escalar um autovalor de um operador linear L se e s se for
uma raiz do polinmio mnimo de L.
Exemplo 11.14 Considere a matriz
A =
_
_
2 2 5
3 7 15
1 2 4
_
_
.
, eigenvectors:
_
_
_
_
_
2
1
0
_
_
,
_
_
5
0
1
_
_
_
_
_
1,
_
_
_
_
_
1
3
1
_
_
_
_
_
3Seu polinmio caracterstico
(t) = (t 1)
2
(t 3).
Os candidatos a polinmio mnimo so (t) e
f(t) = (t 1)(t 3).
J sabemos que (A) = 0. Vamos vericar se f(A) = 0. Sendo f(t) = t
2
4t + 3, um
clculo simples mostra que f(A) = A
2
4A + 3I = 0. Logo, f(t) o polinmio mnimo
de A.
Exemplo 11.15 O polinmio caracterstico e mnimo da matriz
_
_
5 2 0
0 5 2
0 0 5
_
_
so ambos iguais a (t 5)
3
.
Exemplo 11.16 Dada a matriz
A =
_
_
5 2 0
0 5 0
0 0 5
_
_
,
seu polinmio caracterstico (t 5)
3
e seu polinmio mnimo (t 5)
2
.
128 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 11.17 Dada a matriz
A =
_
_
5 0 0
0 5 0
0 0 5
_
_
,
seu polinmio caracterstico (t )
3
e seu polinmio mnimo (t ) .
Exemplo 11.18 Os polinmios caracterstico e mnimo de
A =
_
_
0 0 2
1 0 3
0 1 5
_
_
so ambos iguais a t
3
5t
2
3t 2.
Exemplo 11.19 Os polinmios caracterstico e mnimo de
_
_
_
_
0 0 0 2
1 0 0 3
0 1 0 5
0 0 1 7
_
_
_
_
so ambos iguais a t
4
7t
3
5t
2
3t 2.
Exemplo 11.20 Os polinmios caracterstico e mnimo de
_
_
_
_
0 0 0 a
0
1 0 0 a
1
0 1 0 a
2
0 0 1 a
3
_
_
_
_
so ambos iguais a t
4
a
3
t
3
a
2
t
2
a
1
t a
0
.
Exemplo 11.21 A matriz A =

5 6
3 2

tem dois autovalores: 4 e 7. Os autovetores


correspondentes a eles so

2
3

e

3
1

. Os polinmios caracterstico e mnimo so


iguais (t) = m(t) = t
2
3t 28. Assim
1
11

1 3
3 2

5 6
3 2

2 3
3 1

=

4 0
0 7

.
Exemplo 11.22 Os autovalores de

5 6
3 2

so 1 e 8 e os autovetores correspondentes
a eles so, respectivamente,

1
1

e

2
1

.
Notas de aula do Prof. Antonio Cndido Faleiros 129
Exemplo 11.23 A matriz C =

5 1
1 3

possui um nico autovalor real = 4 e um


nico autovetor linearmente independente

1
1

. Os polinmios caracterstico e mnimo


so iguais (t) = m(t) = t
2
8t + 16.
Exemplo 11.24 Os autovalores de

2 2
1 3

so 1 e 4. Os autovetores correspondentes
so

2
1

e

1
1

. Os polinmios carcterstico e mnimo so iguais: t


2
5t + 4.
Exemplo 11.25 Os autovalores de
_
_
4 1 1
2 5 2
1 1 2
_
_
so 3 e 5. Correspondente a
1
=
3 temos dois autovetores LI
_
_
1
1
0
_
_
e
_
_
1
0
1
_
_
. Correspondente a
2
= 5 temos um
autovetor LI
_
_
1
2
1
_
_
. Seu polinmio caracterstico (t) = (t 3)
2
(t 5) e mnimo
m(t) = (t 3) (t 5) .
Exemplo 11.26 Os autovalores de A =
_
_
3 1 1
0 6 3
0 1 2
_
_
so 3 e 5. Correspondentes ao
autovalor
1
= 3 temos dois autovetores linearmente independentes,
_
_
1
1
0
_
_
e
_
_
1
0
1
_
_
.
Todos os autovetores correspondentes ao autovalor
2
= 5 so mltiplos de
_
_
1
2
1
_
_
. O
polinmio caracterstico de A (t) = (t 3)
2
(t 5) e o polinmio mnimo m(t) =
(t 3) (t 5) .
Exemplo 11.27 Os autovalores de
_
_
3 1 1
7 5 1
6 6 2
_
_
so 2 e 4 e os autovetores corre-
spondentes so
_
_
1
1
0
_
_
e
_
_
0
1
1
_
_
. O polinmio caracterstico e mnimo so (t) = m(t) =
(t 4) (t + 2)
2
.
Exemplo 11.28 Dada a matriz
_
_
2 0 0
0 2 0
0 0 2
_
_
, seu polinmio caracterstico (t 2)
3
e
seu polinmio mnimo t 2.
130 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 11.29 Dada a matriz
_
_
2 1 0
0 2 0
0 0 2
_
_
, seu polinmio caracterstico (t 2)
3
e
seu polinmio mnimo (t 2)
2
.
Exemplo 11.30 Dada a matriz
_
_
2 1 0
0 2 1
0 0 2
_
_
, seu polinmio caracterstico (t 2)
3
e
seu polinmio mnimo (t 2)
3
Exemplo 11.31 Dada a matriz
_
_
_
_
_
_
2 0 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
1
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
1
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
1
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
0
1
_
_
_
_
_
_
formam uma base de C
5
. Seu polinmio caracterstico (t 2)
5
e seu polinmio mnimo t 2.
Exemplo 11.32 Dada a matriz
_
_
_
_
_
_
2 1 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores so
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
1
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
1
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
0
1
_
_
_
_
_
_
, seu polinmio caracterstico (t 2)
5
e seu polinmio mnimo (t 2)
2
.
Exemplo 11.33 Dada a matriz
_
_
_
_
_
_
2 1 0 0 0
0 2 1 0 0
0 0 2 0 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores so
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
1
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
0
1
_
_
_
_
_
_
, seu polinmio caracterstico (t 2)
5
e seu polinmio mnimo (t 2)
3
.
Notas de aula do Prof. Antonio Cndido Faleiros 131
Exemplo 11.34 Dada a matriz
_
_
_
_
_
_
2 1 0 0 0
0 2 1 0 0
0 0 2 1 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores so
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
0
0
0
0
1
_
_
_
_
_
_
,
polinmio caracterstico: (t 2)
5
, polinmio mnimo: (t 2)
4
.
Exemplo 11.35 Dada a matriz
_
_
_
_
_
_
2 1 0 0 0
0 2 1 0 0
0 0 2 1 0
0 0 0 2 1
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores so
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
, seu polinmio caracterstico (t 2)
5
e seu polinmio mnimo (t 2)
5
Nota 11.36 Parece-me que d para tirar uma regra para calcular a multiplicidade ge-
omtrica de um autovalor: Calcule os polinmios caracterstico e mnimo da matriz e
fatore-os. Se o polinmio caracterstico possuir o fator (t )
n
o polinmio caracters-
tico ter o fator (t )
m
com m n. O nmero de autovetores correspondentes a
(multiplicidade geomtrica de ) n m+ 1.
11.2 Matrizes em bloco
*** Incluir casos mais gerais do que apenas diagonais em bloco.
Se A e B forem matrizes quadradas, ento
D =

A 0
0 B

,
onde 0 so matrizes retangulares nulas, uma matriz diagonal em bloco. Se f(t) for
um polinmio em t, ento
f(D) =

f(A) 0
0 f(B)

.
Teorema 11.37 Sejam A
1
e A
2
so matrizes quadradas e
A =

A
1
0
0 A
2

uma matriz diagonal em bloco. Ento o polinmio mnimo de A igual ao mnimo mltiplo
comum dos polinmios mnimos dos blocos diagonais A
1
e A
2
.
132 Notas de aula do Prof. Antonio Cndido Faleiros
Prova. Sejam m(t), m
1
(t) e m
2
(t) os polinmios mnimos de A, A
1
e A
2
, respectiva-
mente. Vamos provar que m(t) = mmc{m
1
(t), m
2
(t)}. Sendo m(t) o polinmio mnimo
de A, ento
m(A) =

m(A
1
) 0
0 m(A
2
)

=

0 0
0 0

.
Conclui-se que m(A
1
) = m(A
2
) = 0. Logo, m
1
(t) e m
2
(t) dividem m(t) e da, m(t)
multiplo comum de m
1
(t) e m
2
(t).
Vamos mostrar que A uma raiz de todo polinmio mltiplo de m
1
(t) e m
2
(t). Sendo
f(t) um mltiplo comum de m
1
(t) e m
2
(t), ento
f(A) =

f(A
1
) 0
0 f(A
2
)

=

0 0
0 0

= 0
pois f(A
1
) = 0 e f(A
2
) = 0. Da A um zero de todo mltiplo comum de m
1
(t) e m
2
(t).
Sendo o polinmio mnimo o polimio de menor grau que possui A como raiz, m(t) o
mnimo mltiplo comum de g(t) e h(t).
Teorema 11.38 Seja A uma matriz diagonal em bloco, cujos blocos diagonais so A
1
,
A
2
, . . . , A
r
. Ento o polinmio mnimo de A igual ao mnimo mltiplo comum (mmc)
dos polinmios mnimos dos blocos diagonais A
i
m
A
(t) = mmc{ m
A
1
(t), m
A
2
(t), . . . , m
Ar
(t) }.
Prova. A prova usa o teorema anterior e induo em r.
Nota 11.39 Frisamos que este teorema se aplica a matrizes diagonais em blocos, en-
quanto o Teorema (10.9) que anlogo a este e se refere aos polinmios caractersticos,
aplica-se a matrizes triangulares em blocos.
11.3 Decomposio primria
Teorema 11.40 Seja L : V V uma transformao linear e W invariante sob L. Seja
L
W
: W W a restrio de L em W. Sob estas hipteses, o polinmio mnimo de L
W
divide o polinmio mnimo de L.
Prova. Se m(t) for o polinmio mnimo de L, ento m(L) = 0. Para todo w W,
temos m(L
W
)(w) = m(L)(w) = 0. Sendo L
W
um zero de m(t), o polinmio mnimo de
L
W
divide o polinmio mnimo de L.
Lembramos que, se f(t) e g(t) forem dois polinmios quaisquer,
f(t)g(t) = mdc(f(t), g(t))mmc(f(t), g(t))
Notas de aula do Prof. Antonio Cndido Faleiros 133
Teorema 11.41 Seja L : V V uma transformao linear, V
1
e V
2
invariantes sob L
de modo tal que V = V
1
V
2
. Sejam L
1
e L
2
as restries de L a V
1
e V
2
.
1. O polinmio mnimo de L o mnimo mltiplo comum dos polinmios mnimos de
L
1
e L
2
.
2. O polinmio caracterstico de L o produto dos polinmios caractersticos de L
1
e
de L
2
.
Prova. 1. Sejam m(t), m
1
(t) e m
2
(t) os polinmios mnimos de L, L
1
e L
2
, respecti-
vamente. Pelo teorema anterior, m(t) divisvel por m
1
(t) e por m
2
(t).
Seja f(t) outro polinmio que tem L por raiz. Ento f(L
1
) = f(L
2
) = 0 e f divisvel
por m
1
(t) e m
2
(t). Provamos que todo polinmio que tem L por raiz mltiplo comum
de m
1
(t) e m
2
(t). Sendo m(t) o polinmio de menor grau que tem L como raiz,
m(t) = mmc(m
1
(t), m
2
(t)).
2. Se B
1
= {u
1
, . . . , u
r
} for uma base de V
1
e B
2
= {w
1
, . . . , w
s
} for uma base de V
2
,
ento a unio B
1
B
2
uma base de V. Como V
1
e V
2
so invariantes sob L, para j = 1,
. . . , r, tem-se
Lu
j
=
r
X
i=1
a
ij
u
i
e, para j = 1, . . . , s,
Lw
j
=
r
X
i=1
b
ij
w
i
.
A matriz da transformao linear L nesta base triangular em bloco
M =

A 0
0 B

.
Consequentemente,
det(tI M) = det(tI A) det(tI B) =
L
1
(t)
L
2
(t).

Nota 11.42 No teorema anterior, se m


1
(t) e m
2
(t) forem primos entre si, ento m(t) =
m
1
(t)m
2
(t).
Teorema 11.43 Seja L : V V linear e g(t), h(t) polinmios mnicos primos entre si,
tais que L um zero do polinmio f(t) = g(t)h(t). Ento:
1. Os subespaos ker g(L) e ker h(L) so invariantes sob L e
V = ker g(L) ker h(L)
134 Notas de aula do Prof. Antonio Cndido Faleiros
2. Se f(t) for o polinmio mnimo de L, ento g(t) e h(t) so os polinmios mnimos
das restries de L ao ker g(L) e ao ker h(L), respectivamente.
Prova. Inicialmente, observamos que ker g(L) e ker h(L) so invariantes sob L.
1. Como g(t) e h(t) so primos entre si, existem polinmios r(t) e s(t) tais que
r(t)g(t) +s(t)h(t) = 1,
acarretando na igualdade
I = r(L)g(L) +s(L)h(L).
Sendo v um elemento de V, podemos escrever
v = r(L)g(L)v +s(L)h(L)v.
Nesta soma, r(L)g(L)v pertence ao ker h(L) e w = s(L)h(L)v pertence ao ker g(L).
De fato,
h(L)r(L)g(L)v = r(L)g(L)h(L)v = r(L)f(L)v = 0
pois f(L) = 0. De modo anlogo se prova que s(L)h(L)v pertence ao ker g(L).
Consequentemente,
V = ker g(L) + ker h(L).
Para completar a prova deste item, falta mostrar que esta decomposio nica.
Seja v = u+ w, uma decomposio de v, com u ker g(L) e w ker h(L). Ento,
u = r(L)g(L)u +s(L)h(L)u = s(L)h(L)u
= s(L)h(L)(u +w) = s(L)h(L)v.
De modo semelhante se prova que w = s(L)h(L)v.
Como a decomposio nica,
V = ker g(L) ker h(L).
2. Se f(t) = g(t)h(t) for o polinmio mnimo de L, ento ele divisvel pelos polinmios
mnimos m
1
(t) e m
2
(t) de L
1
e L
2
, como j se provou.
Por outro lado, g(L
1
) = 0 e h(L
2
) = 0. Portanto, m
1
(t) divide g(t) e m
2
(t) divide
h(t). Como g(t) e h(t) so primos entre si, o mesmo ocorre com m
1
(t) e m
2
(t) que
os divide.
Sendo m
1
(t) e m
2
(t) primos entre si e f(t) = mmc{m
1
(t), m
2
(t)}, segue
f(t) = m
1
(t)m
2
(t).
Por outro lado, f(t) = g(t)h(t), de onde segue que m
1
(t) = g(t) e m
2
(t) = h(t).
Notas de aula do Prof. Antonio Cndido Faleiros 135

Teorema 11.44 (Decomposio primria) Seja L : V V linear cujo polinmio mnimo


igual a
m(t) = f
1
(t)
n
1
f
r
(t)
nr
onde os polinmios f
i
(t) so mnicos, distintos e irredutveis. Ento f
i
(t)
n
i
so os
polinmios mnimos das restries de L a W
i
= ker (f
i
(L)
n
i
) e
V = W
1
W
r
.
Prova. Para simplicar a prova, vamos abordar o caso particular em que m(t) =
f
1
(t)
n
1
f
2
(t)
n
2
onde f
1
(t), f
2
(t) so polinmios mnicos, distintos e irredutveis. Certa-
mente, f
1
(t)
n
1
e f
2
(t)
n
2
so primos entre si. Este teorema decorre imediatamente do
anterior.
De fato, sabemos que V = W
1
W
2
, onde W
i
= ker f
i
(t)
n
i
e que f
i
(t)
n
i
, o polinmio
mnimo da restrio de L em W
i
.
Teorema 11.45 Uma transformao linear L : V V possui uma representao matri-
cial diagonal se e s se seu polinmio mnimo,
m(t) = (t
1
) (t
r
)
for um produto de polinmios lineares distintos. Os elementos da diagonal principal desta
matriz so os autovalores
1
, . . . ,
r
de L.
Prova. 1. Se L possui uma representao matricial diagonal D = diag(
1
, . . . ,
n
),
admitamos que apenas os r primeiros
i
so distintos. O polinmio caracterstico desta
transformao linear da forma (t) = (t
1
)
n
1
(t
r
)
nr
. O polinmio mnimo
possui os mesmos fatores de (t). Como (D
1
I) (D
r
I) = 0 o polinmio mnimo
de L (t
1
) (t
r
).
2. Sendo m(t) = (t
1
) (t
r
), ento existe uma decomposio de V numa soma
direta W
1
W
r
, onde W
i
= ker(L
i
I) o autoespao de V correspondente ao
autovalor
i
. Se B
i
= {v
i1
, v
i2
, . . . , v
is
i
} for uma base de W
i
, ento L(v
ij
) =
i
v
ij
. Seja B
a unio das bases B
i
, para i = 1, . . . , r, que uma base de V. Nesta base, a matriz que
representa L diagonal.
11.4 Diagonalizao de operadores normais
Um operador L : V V diagonalizvel se existir uma base {v
1
, . . . , v
n
} de V tal que
a matriz de L nesta base diagonal. Isto signica que a matriz de L numa base qualquer
136 Notas de aula do Prof. Antonio Cndido Faleiros
semelhante a uma matriz diagonal. Isto signica que, se A for a matriz de L numa base
de V, ento existe uma matriz inversvel P e uma matriz diagonal D tais que
A = PDP
1
.
Podemos nos perguntar qual a condio mais geral que um operador linear deve sat-
isfazer para ser diagonalizvel. Quando o operador linear L : V V auto-adjunto,
antiadjunto ou unitrio, ento LL

= L

L. Esta a condio mais geral sob a qual um


operador diagonalizvel.
Denio 11.46 Um operador linear L : V V normal quando
LL

= L

L.
A matriz quadrada A que satisfaz AA

= A

A denominada matriz normal.


Exemplo 11.47 Os operadores auto-adjuntos, antiadjuntos e unitrios so normais.
Exemplo 11.48 Se L for normal, I for o operador identidade e um escalar, ento o
operador L I normal.
Se for autovalor de L, ento

autovalor de L

. Se L for um operador normal,


provaremos logo em seguida que v autovetor de L correspondente ao autovalor se e s
se v for autovetor de L

correspondente ao autovalor

.
Quando L no normal, os autovetores de L no so, necessariamente, os autovetores
de L

.
Seja V um espao vetorial de dimenso nita com produto interno e L : V V um
operador linear. Se S for um subespao de V invariante sob L ento S

invariante sob
L

. Agora, quando L for normal e S for invariante sob L, provaremos que tanto S quanto
S

so invariantes sob L e L

.
Teorema 11.49 Seja L um operador normal sobre um espao vetorial de dimenso nita
com produto interno. Se v for autovetor de L correspondente ao autovalor , ento v
autovetor de L

correspondente ao autovalor

.
Prova. Se L normal, LL

= L

L e, portanto, hLv, Lwi = hL

v, L

wi para todo
v e w em V. Em particular, para todo v em V, hLv, Lvi = hL

v, L

vi que nos fornece a


igualdade kLvk = kL

vk . Para todo escalar , T = L I normal pois T

= L

I.
Sendo T normal, kTvk = kT

vk para todo v em V. Desta forma, Tv = 0 se e s se T

v =
0. Conclui-se que v autovetor de L se e s se for autovetor de L

.
Se for autovalor de L, seja v o autovetor correspondente. No item anterior provou-se
que v autovetor de L

. Sendo o autovalor correspondente segue

hv, vi = hv, vi = hLv, vi = hv, L

vi = hv, vi .
Sendo hv, vi 6= 0, segue =

.
Notas de aula do Prof. Antonio Cndido Faleiros 137
Teorema 11.50 Seja L uma transformao normal sobre um espao vetorial de dimenso
nita com produto interno V. Ento
1. V possui uma base ortonormal formada por autovetores de L.
2. Seja A uma matriz complexa normal de ordem n. Existe uma matriz unitria U e
uma matriz diagonal D para as quais
A = UDU
1
.
Prova. 1. Seja n a dimenso de V. A transformao L possui pelo menos um autovetor
v de mdulo unitrio. O subespao vetorial W = ger(v) e W

so invariantes sob L e
sob L

. A dimenso de W 1 e a de W

n 1.
Vamos provar que a restrio T de L em W

normal. Para todo v e w em W

temos hv, T

wi = hTv, wi = hLv, wi = hv, L

wi de onde conclumos que o adjunto de T


a restrio de L

a W

. Para todo v em W

, TT

v = LL

v = L

Lv = T

Tv, mostrando
que T normal.
O teorema agora ser demonstrado por induo na dimenso n do espao.
Se n = 1, nada resta a provar: a base de V contm apenas um autovetor v
1
de norma
unitria.
Vamos supor, como hiptese de induo, que o teorema vale para todos os operadores
normais em espaos vetoriais de dimenso n 1.
Provemos que o teorema vale para todo operador normal L denido em um espao
vetorial V de dimenso n. Seja v
1
um autovetor de L e W = ger(v
1
). Seja T a restrio
de L a W

. O operador T normal em W

que tem dimenso n 1. Pela hiptese de


induo, W

possui uma base ortonormal {v


2
, . . . , v
n
} cujos elementos so autovetores de
T. Os autovetores de T so autovetores de L. Ao incluirmos v
1
a este conjunto, obtemos
a base ortonormal {v
1
, v
2
, . . . , v
n
} formada por autovetores de L. Nela, a representao
matricial de L diagonal.
Teorema 11.51 Seja L um operador linear sobre um espao vetorial V de dimenso
nita. Se V possuir uma base ortonormal formada por autovetores de L, ento L
normal.
Prova. Seja B = {v
1
, . . . , v
n
} uma base ortonormal de V cujos elementos so autove-
tores de L, de modo que Lv
i
=
i
v
i
para i = 1, . . . , n. O escalar
i
o autovalor de L
correspondente ao autovetor v
i
. Se decompondo L

v
i
na base B, podemos escrever
L

v
i
=
X
j
a
ij
v
j
onde, graas ortonormalidade da base B, a
ij
= hL

v
i
, v
j
i . Por outro lado,
a
ij
= hL

v
i
, v
j
i = hv
i
, Lv
j
i = hv
i
,
j
v
j
i =
j
hv
i
, v
j
i =
j

ij
.
138 Notas de aula do Prof. Antonio Cndido Faleiros
Isto signica que a
ij
= 0 quando i 6= j e a
ii
=

i
, de modo que L

v
i
=

i
v
i
. Mostramos
assim que v
i
autovetor de L

correspondente ao autovalor

i
. Portanto, L

Lv
i
=
i

i
v
i
=
|
i
|
2
v
i
e LL

v
i
=

i
v
i
= |
i
|
2
v
i
. Sendo as transformaes L

L e LL

iguais em cada
elemento da base, so iguais no espao todo, provando que L normal.
Seja V um espao vetorial de dimenso nita com produto interno e L : V V uma
transformao normal. Sejam
1
, . . . ,
r
os autovalores de L e S
i
= {v V : Lv =
i
v}
o autoespao do autovalor
i
. Se {v
1i
, . . . , v
si
} for uma base ortonormal de S
i
, ento,
para todo v em S
i
temos L(v) =
i
hv
1i
, vi v
1i
+ +
i
hv
si
, vi v
si
=
i
P
i
(v), onde P
i
a projeo ortogonal de V sobre S
i
. Logo L coincide com
i
P
i
em S
i
. Se a soma dos
autoespaos S
i
resultar numa decomposio de V em soma direta, ento
L =
1
P
1
+ +
n
P
n
.
Teorema 11.52 (Verso projetiva do teorema espectral) Seja V um espao vetorial com-
plexo com produto interno e dimenso n. Seja L : V V um operador normal e {v
1
,
. . . , v
n
} uma base ortonormal de V, formada pelos autovalores de L. Os autoespaos S
i
=
auto(
i
), i = 1, . . . , r, so ortogonais dois a dois e sua soma igual a V. Se P
i
: V V
for a projeo ortogonal sobre S
i
, ento
P
1
+ +P
n
= I
e
L =
1
P
1
+ +
n
P
n
.
Teorema 11.53 (Verso do teorema espectral para matriz real simtrica) Seja A uma
matriz normal de ordem n. Sejam
1
, . . . ,
r
seus autovalores distintos. Ento
A =
1
P
1
+ +
r
P
r
onde P
i
so as matrizes que projetam ortogonalmente sobre o autoespao de
i
. Estes
autoespaos so ortogonais e sua soma direta igual a C
n
, de modo que
P
1
+ +P
k
= I.
Exemplo 11.54 A matriz A =
_
_
7 4 5
4 2 4
5 4 7
_
_
simtrica. Seus autovalores so
6, 12 e 6. Os autovetores correspondentes so (1, 1, 1)
T
, (1, 0, 1)
T
e (1, 2, 1)
T
.
Para montar S tal que A = SDS
1
, tomamos as colunas de S iguais aos autovetores
normalizados
S =
_
_
1/

3 1/

2 1/

6
1/

3 0 2/

6
1/

3 1/

2 1/

6
_
_
e D =
_
_
6 0 0
0 12 0
0 0 6
_
_
.
Notas de aula do Prof. Antonio Cndido Faleiros 139
Podemos escrever A como uma combinao linear de matrizes de projeo
A = 6P
1
+ 12P
2
6P
3
,
onde
P
1
=
_
_
1/3 1/3 1/3
1/3 1/3 1/3
1/3 1/3 1/3
_
_
, P
2
=
_
_
1/2 0 1/2
0 0 0
1/2 0 1/2
_
_
e P
3
=
1
6
_
_
1 2 1
2 4 2
1 2 1
_
_
Exemplo 11.55 A matriz A =
_
_
0 1 1
1 0 2
1 2 0
_
_
anti-simtrica. Seus autovalores so
0, i

5 e i

5. Os autovetores correspondentes so (2, 1, 1), (.4 .4899i, .2 .9798i,


1) e (.4 +.4899i, .2 +.9798i, 1).
Exemplo 11.56 A matriz A =
_
_
1/

3 2/

6 9
1/

3 1/

6 1/

2
1/

3 1/

6 1/

2
_
_
ortogonal. Seus autoval-
ores so 1; 0, 9381+ 0, 3464i e 0, 9381 0, 3464i. Os autovetores correspondentes so
(0, 5176; 1; 0, 4142),
(0, 1691 + 0, 9463i; 0, 3267 + 0, 4898i; 1),
(0, 1691 0, 9463i; 0, 3267 0, 4898i; 1).
11.5 Decomposio de Schur
Teorema 11.57 Dada uma matriz complexa A de ordem n, existe uma matriz unitria
U tal que
T = U

AU
triangular superior.
Prova. Ser usada a induo sobre n. Se n = 1, A triangular superior e nada resta
a provar. Se n > 1, assuma, como hiptese de induo, que o teorema verdadeiro para
toda matriz quadrada de ordem n1. Seja q
1
um autovetor unitrio correspondente a um
autovalor
1
de A. Construa uma base de C
n
onde um dos elementos q
1
. Use o processo
de ortogonalizao de Gram-Schmidt para obter uma base ortonormal {q
1
, . . . , q
n
} de
C
n
. A matriz
U
1
= [q
1
, . . . , q
n
]
unitria e
U

1
AU
1
=


1
b
1
0 A
1

140 Notas de aula do Prof. Antonio Cndido Faleiros


onde A
1
uma matriz quadrada de ordem n 1. De acordo com a hiptese de induo,
existe uma matriz unitria V
1
de ordem n 1 tal que
T
1
= V

1
A
1
V
1
triangular superior. A matriz
U
2
=

1 0
0 V
1

unitria e, sendo U = U
1
U
2
, segue
U

AU = U

2
(U

1
AU
1
) U
2
=

1 0
0 V

1


1
b
1
0 A
1

1 0
0 V
1

=


1
b
1
a
1
0 V

1
A
1
V
1

=


1
b
1
a
1
0 T
1

= T
que triangular superior.
Como A e T so semelhantes, possuem os mesmos autovalores e com a mesma mul-
tiplicidade. Sendo T triangular superior, os elementos da diagonal principal so seus
autovalores e, consequentemente, autovalores de A.
Nota 11.58 Sejam
1
, . . . ,
n
os elementos da diagonal principal de T. Como matrizes
semelhantes possuem o mesmo determinante e o mesmo trao, segue
det(A) =
1

n
e tr(A) =
1
+ +
n
.
Teorema 11.59 (Teorema Espectral). Se H uma matriz hermitiana, existe uma matriz
unitria U tal que U

HU diagonal.
Prova. Pelo teorema de Schur, existe U unitria tal que U

HU = T triangular
superior. Como T

= U

U = U

HU = T, vemos que T simtica. Logo, tambm


triangular inferior, ou seja, diagonal.
A matriz A =

0 1
1 0

no hermitiana mas ortogonalmente diagonalizvel, com


U =
1

1 i
i 1

.
A matriz mais geral diagonalizvel a normal.
Teorema 11.60 Uma matriz de ordem n diagonalizvel unitariamente se e s se for
normal.
Notas de aula do Prof. Antonio Cndido Faleiros 141
Prova. Se A for uma matriz de ordem n diagonalizvel unitriamente, existe uma
matriz unitria U tal que D = U

AU diagonal. Como D e D

so diagonais, segue
que DD

= D

D, ou (U

AU)(U

U) = (U

U)(U

AU) de onde segue U

AA

U =
U

AU. Multiplicando esquerda por U e direita por U

, obtemos AA

= A

A,
provando que A normal.
Se A for normal, ento AA

= A

A. Pelo teorema de Schur, existe uma matriz unitria


U tal que T = U

AU triangular superior. Vamos provar por induo em n que T


diagonal. Se n = 1, a matriz T diagonal. Se n > 1, ento
TT

= T

T.
Sendo T = [t
ij
], ento igualando os elementos (1, 1) em na igualdade acima, obtemos
|t
11
|
2
+ |t
12
|
2
+ + |t
1n
|
2
= |t
11
|
2
pois T triangular superior. Segue que t
12
= = t
1n
= 0. Logo T tem a forma de blocos
T =

t
11
0
0 T
1

onde T
1
normal e, por hiptese de induo, diagonal. Cnclui-se da que T diagonal,
completando a prova do teorema.
Nota 11.61 As matrizes normais reais 2 2 so as matrizes simtricas e aquelas com a
forma

a b
b a

11.6 Decomposio em valores singulares


Seja A uma matriz complexa m por n. A matriz A

A auto-adjunta e seus autovalores


so todos positivos ou nulos. Podemos posicion-los em ordem descrescente

1

2

n
0.
Sendo A

A auto-adjunta, existe uma base ortonormal {q


1
, . . . , q
n
} de C
n
onde q
i
o
autovetor correspondente ao autovalor
i
. A matriz
Q = [q
1
, . . . , q
n
]
cujas colunas so os autovetores de A

A, unitria e
A

AQ = QD
142 Notas de aula do Prof. Antonio Cndido Faleiros
onde D = diag(
1
, . . . ,
n
) uma matriz quadrada diagonal nn. Como
i
0, denimos

i
=

i
0. Seja r n o nmero de valores
i
diferentes de zero, de modo que

1

r
> 0 e
r+1
= =
n
= 0.
Para i = 1, . . . , r os vetores de C
m
denidos por
p
i
=
1

i
Aq
i
formam um conjunto ortonormal. Uma vez que q
r+1
, . . . , q
n
esto no ncleo de A (pois
so levados por A em 0), o conjunto {p
1
, . . . , p
r
} uma base ortonormal da imagem de
A e, por este motivo r o posto de A que deve ser menor ou igual a m.
Para provar que {p
1
, . . . , p
r
} um conjunto ortonormal, basta calcular, para 1 i,
j r, o produto interno
hp
i
, p
j
i =
1

j
hAq
i
, Aq
j
i =
1

j
hq
i
, A

Aq
j
i
=

2
j

j
hq
i
, q
j
i =

j

i
hq
i
, q
j
i =
ij
.
Pode-se completar {p
1
, . . . , p
r
} de modo a obter uma base ortonormal {p
1
, . . . , p
r
, p
r+1
,
. . . , p
m
} de C
m
.
A matriz mm
P = [p
1
, . . . , p
r
, p
r+1
, . . . , p
m
]
cujas colunas so os vetores p
i
, unitria e, pelo modo como foi construda,
AQ = P
onde
= diag{
1
, . . . ,
r
, 0, . . . , 0}.
uma matriz mn onde todos os elementos so nulos, excesso dos r primeiros elementos
da diagonal principal que so
1

r
. Lembramos que r min(m, n).
Como Q unitria, obtemos a decomposio de A em valores singulares
A = PQ

Os nmeros reais
1
, . . . ,
r
, 0, so denominado de valores singulares de A.
Usando a expresso de A deduzida acima, prova-se que
A

AQ = Q

e AA

P = P

mostrando que as colunas q


i
de Q so autovetores da matriz A

A, que as colunas p
i
de P
so autovetores da matriz AA

e, tanto no primeiro quanto no segundo caso, autovetores


correspondentes aos autovalores
2
i
.
Lembramos que

uma matriz diagonal mm e

uma matriz diagonal nn.


Se A tiver posto mximo, ento r = min{m, n} e uma das duas matrizes,

ou

,
possui todos os termos diagonais diferentes de zero e, portanto, no singular.
Provamos o seguinte teorema:
Notas de aula do Prof. Antonio Cndido Faleiros 143
Teorema 11.62 (Decomposio em valores singulares) Seja A uma matriz m n cujo
posto r (r min{m, n}). Ento:
1. Esta matriz possui r valores singulares
1

r
no nulos (incluindo sua
multiplicidade).
2. Existe um conjunto ortonormal {q
1
, . . . , q
r
} formado por autovetores de A

A, cor-
respondentes aos autovalores
2
1

2
r
tais que o conjunto
{p
1
, . . . , p
r
} = {
1

1
Aq
1
, . . . ,
1

r
Aq
r
}
uma base ortonormal da imagem de A.
3. Se {q
r+1
, . . . , q
n
} for uma base ortonormal do ncleo de A, ento {q
1
, . . . , q
r
, q
r+1
,
. . . , q
n
} uma base ortonormal de C
n
. Sendo
{ p
1
, . . . , p
r
, p
r+1
, . . . , p
m
}
uma base ortonormal de C
m
, ento
A = PQ

onde
P = [p
1
, . . . , p
m
]
Q = [q
1
, . . . , q
n
]
= diag(
1
, . . . ,
r
)
onde apenas os primeiros r elementos da diagonal principal so diferentes de zero e
iguais a
1
, . . . ,
r
.
Exemplo 11.63 Obtenha a decomposio em valores singulares de A =

1 2 0
2 1 0

.
Exemplo 11.64 Obtenha a decomposio em valores singulares de A =
_
_
1 2 0 1
1 0 2 1
2 2 2 2
_
_
.
Ento A

A =
_
_
_
_
6 6 6 6
6 8 4 6
6 4 8 6
6 6 6 6
_
_
_
_
cujos autovalores so 24, 4, 0 e 0.Os autovetores corre-
spondentes a eles so
1
2
_

_
1
1
1
1
_

_
,
1

2
_

_
0
1
1
0
_

_
,
1

12
_

_
3
1
1
1
_

_
,
1

6
_

_
0
1
1
2
_

_
144 Notas de aula do Prof. Antonio Cndido Faleiros
Assim,
Q =
_
_
_
_
1/2 0 3/

12 0
1/2 1/

2 1/

12 1/

6
1/2 1/

2 1/

12 1/

6
1/2 0 1/

12 2/

6
_
_
_
_
, =
_
_

24 0 0 0
0 2 0 0
0 0 0 0
_
_
.
Para determinar P, calculamos p
1
= (1/

24)Aq
1
e p
2
= (1/2)Aq
2
para obter
1

6
_
_
1
1
2
_
_
,
1

2
_
_
1
1
0
_
_
.
Como o contradomnio de A tem dimenso 3, precisamos de mais um vetor para formar
a base. Calculamos p
3
=

p
13
p
23
p
33

T
unitrio e fazendo-o ortogonal a p
1
e a p
2
.
Obtemos ento p
3
= (1/

3)

1 1 1

T
. Com estes vetores montamos
P =
_
_
1/

6 1/

2 1/

3
1/

6 1/

2 1/

3
2/

6 0 1/

3
_
_
.
Nota: Na decomposio em valores singulares de A, AQ = P, de modo que kAq
1
k
2
=
k
1
p
1
k
2
=
1
. Por outro lado, para qualquer x em R
n
com kxk
2
= 1, temos x =
P
n
i=1

i
q
i
onde
P
n
i=1

2
i
= 1. Da,
kAxk
2
2
=

n
X
i=1

i
Aq
i

2
2
=

r
X
i=1

i
p
i

2
2
=
r
X
i=1

2
i

2
i
kp
i
k
2
2
sendo a segunda igualdade verdadeira pois Aq
i
= 0 para i > r e a ltima igualdade se
justica pela ortogonalidade dos p
i
. Como kp
i
k
2
= 1, segue
kAxk
2
2
=
r
X
i=1

2
i

2
i

2
1
r
X
i=1

2
i

2
1
n
X
i=1

2
i
=
2
1
.
A primeira desigualdade se justica pois
1
o maior valor singular e a segunda por termos
acrescentado parcelas positivas soma. Provamos que kAxk
2
2

2
1
e que kAq
1
k
2
=
1
.
Logo,
kAk
2
= sup
xR
n
kxk
2
=1
kAxk
2
=
1
.
Se restringirmos A ao espao ger(q
1
)

podemos calcular
2
, repetindo o procedimento
acima

2
= sup
xhq
1
i

kxk
2
=1
kAxk
2
.
Certamente a decomposio por valores singulares no nica pois a escolha de Q e
de P no nica. Entretanto, temos o seguinte teorema:
Notas de aula do Prof. Antonio Cndido Faleiros 145
Teorema 11.65 Se
A = UST

for outra decomposio por valores singulares de A, ento S = , as colunas t


1
, . . . , t
n
de
T formam um conjunto ortonormal de autovetores de A

A correspondentes aos autovalores

1

2

r
0 = = 0, as colunas u
1
, . . . , u
m
de U so autovetores de AA

correspondentes aos mesmos autovalores e, para i = 1, . . . , r,


u
i
=
1

i
At
i
.
Prova. Como A

A = TS

UST

= T(S

S)T

, vemos que a matriz diagonal S

S
semelhante matriz A

A e, portanto, possuem os mesmos autovalores, o que prova a


igualdade S = .
Da decomposio acima, obtemos A

AT = TS

S de onde segue que as colunas de T


formam um conjunto ortonormal de autovetores de A

A correspondentes aos autovalores

1

2

r
0 = = 0.
Da mesma decomposio, obtemos AA

U = USS

de onde segue que as colunas de U


formam um conjunto ortonormal de autovetores de AA

correspondentes aos autovalores

1

2

r
0 = = 0.
Ainda da decomposio, segue AT = US, mostrando que u
i
=
1

i
At
i
para i = 1, . . . ,
r.
146 Notas de aula do Prof. Antonio Cndido Faleiros
Captulo 12
Forma cannica de Jordan
12.1 Operadores nilpotentes
Denio 12.1 Um operador linear L : V V nilpotente se L
k
= 0 para algum
inteiro k positivo. O menor k para o qual L
k
= 0 chamado de ndice da nilpotncia
de L.
Se o ndice da nilpotncia de L for k, signica que existe v em V tal que L
k1
v 6= 0.
Observe que L
k
= 0 quando L
k
v = 0 para todo v em V. Se L for nilpotente com ndice
k, seu polinmio mnimo ser t
k
e assim o seu nico autovalor o zero.
Teorema 12.2 Seja L : V V linear e v V no nulo tal que L
k1
(v) 6= 0 e L
k
(v) = 0.
Ento:
1. O conjunto S = { v, Lv, . . . , L
k1
(v) } linearmente independente.
2. O subespao gerado por S invariante sob L.
3. A restrio de L ao subespao gerado por S nilpotente com ndice k.
4. A matriz da restrio de L ao subespao gerado por S em relao base ordenada
S da forma
_
_
_
_
_
_
_
0 0 0 0
1 0 0 0
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
_
_
.
Prova. Vamos provar um item por vez.
1. Sejam
1
, . . . ,
k
escalares tais que
1
v+ +
k
L
k1
v = 0. Aplicando L
k1
a
esta igualdade, obtemos
1
L
k1
v = 0. Como L
k1
v 6= 0, segue
1
= 0. Aplicando
sucessivamente L
i
igualdade inicial, com i = k 2, k 3, . . . , 1, se prova que
2
=

3
= =
k
= 0, o que prova a primeira parte do teorema.
147
148 Notas de aula do Prof. Antonio Cndido Faleiros
2. Seja w =
1
v+ +
k
L
k1
v, onde
1
, . . . ,
k
so escalares, um vetor no subespao
gerado por S. Assim, Lw =
1
Lv+ +
k1
L
k1
v e, portanto, Lw pertence ao
subespao gerado por S.
3. Seja T : [S] [S] a restrio de L ao subespao [S] gerado por S. Como T
k
w =
0 para todo elemento de [S] e T
k1
v = L
k1
v 6= 0, conclumos que T nilpotente
com ndice k.
4. Como T(v) = Lv, T(Lv) = L
2
v, . . . , T(L
k2
v) = L
k1
v, T(L
k1
v) = 0 e conclumos
que a matriz de T na base S exatamente aquela apresentada no enunciado.

Em particular, quando L for nilpotente, seu ndice de nilpotncia menor ou igual


dimenso do espao vetorial.
Teorema 12.3 Seja L : V V linear. Para todo inteiro i 0,
1. ker L
i
ker L
i+1
2. L(ker L
i+1
) ker L
i
.
Prova. Se v pertence ao ker L
i
, ento L
i
v = 0 e L
i+1
v = L(L
i
v) = L0 = 0. Logo, v
pertence ao ker L
i+1
, o que prova a primeira parte do teorema.
Seja w um elemento de L(ker L
i+1
) = {Lv : v ker L
i+1
}. Ento w = Lv para algum
v no ker L
i+1
. Assim, L
i
w = L
i+1
v = 0, provando que w pertence ao ker L
i
. Provamos a
segunda parte do teorema.
Teorema 12.4 Seja L : V V linear e i > 0 um inteiro. Pelo teorema anterior,
ker L
i1
ker L
i
ker L
i+1
.
Suponhamos que
{ u
1
, . . . , u
r
}
{ u
1
, . . . , u
r
, v
1
, . . . , v
s
}
{ u
1
, . . . , u
r
, v
1
, . . . , v
s
, w
1
, . . . , w
t
}
sejam bases de ker L
i1
, ker L
i
e ker L
i+1
. Ento o conjunto
{ u
1
, . . . , u
r
, Lw
1
, . . . , Lw
t
}
linearmente independente e est contido no ker L
i
.
Notas de aula do Prof. Antonio Cndido Faleiros 149
Prova. O teorema anterior assegura que os vetores Lw
1
, . . . , Lw
t
pertencem ao ker L
i
.
Sejam
1
, . . . ,
r
,
1
, . . . ,
t
escalares tais que

1
u
1
+ +
r
u
r
+
1
Lw
1
+ +
t
Lw
t
= 0.
Aplicando L
i1
a esta igualdade, segue
L
i
(
1
w
1
+ +
t
w
t
) = 0,
mostrando que a combinao linear
1
w
1
+ +
t
w
t
pertence ao ker L
i
e pode ser escrito
como uma combinao linear de u
1
, . . . , u
r
, v
1
, . . . , v
s

1
w
1
+ +
t
w
t
= c
1
u
1
+ +c
r
u
r
+d
1
v
1
+ +d
s
v
s
.
Sendo {u
1
, . . . , u
r
, v
1
, . . . , v
s
, w
1
, . . . , w
t
} uma base, conclumos que todos os escalares
na igualdade acima so nulos e, em particular,
1
= =
t
= 0. Sendo {u
1
, . . . , u
r
}
uma base, deve-se ter tambm
1
= =
r
= 0, o que prova a independncia linear do
conjunto de vetores { u
1
, . . . , u
r
, Lw
1
, . . . , Lw
t
}.
Este resultado interessante pois ele nos permite inferir que s t. Sabemos que a
dimenso do ker L
i
cresce com i ou permanece inalterada. Alm disso, o acrscimo na
dimenso quando passamos do ker L
i
para o ker L
i+1
nunca maior do que o acrscimo
na dimenso quando passamos do ker L
i1
para o ker L
i
. ***
Teorema 12.5 (Forma cannica de um operador nilpotente) Seja L : V V um oper-
ador nilpotente com ndice k. Existe uma base na qual a representao matricial de L tem
a forma bloco diagonal
N =
_
_
_
_
_
N
1
0 0
0 N
2
0
0 0 N
3

.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
.
Cada bloco diagonal N
i
uma matriz quadrada que pode ser 1 1 e nula ou ter a forma
N
i
=
_
_
_
_
_
_
_
_
_
0 1 0 0 0
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
_
_
_
.
As ordens de todos os blocos so menores ou iguais a k. Pelo menos um bloco tem ordem k.
O nmero de blocos igual nulidade de L. O nmero de blocos do tipo N determinado
de modo nico por L.
Em lugar de demonstrar vamos dar exemplos.
150 Notas de aula do Prof. Antonio Cndido Faleiros
Exemplo 12.6 Seja L : V V um operador linear nilpotente com ndice k. Denotemos
por W
i
o ncleo de L
i
. Relembre inicialmente que, se
{u
1
, . . . , u
r
}
{u
1
, . . . , u
r
, v
1
, . . . , v
s
}
{u
1
, . . . , u
r
, v
1
, . . . , v
s
, w
1
, . . . , w
t
}
forem bases de W
i1
, W
i
e W
i+1
, respectivamente, ento o conjunto
{ u
1
, . . . , u
r
, L(w
1
), . . . , L(w
t
) }
linearmente independente em W
i
. Este fato nos fornece os fundamentos para obter
uma base de V na qual a representao de um operador nilpotente se encontra na forma
cannica preconizada.
1. Imaginemos que V tem dimenso n = 8 e que L : V V nilpotente com ndice
k = 4. Assim o ker L
4
= V. Denotemos o ker L
i
por W
i
. Seja {u
1
, u
2
, u
3
, u
4
, u
5
, u
6
,
u
7
, u
8
} uma base de V = W
4
= ker L
4
, de modo que
{u
1
, u
2
, u
3
} base do ker L.
{u
1
, u
2
, u
3
, u
4
, u
5
} base do ker L
2
.
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
} base do ker L
3
.
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
, u
8
} base de V = ker L
4
.
Podemos construir o seguinte quadro
W
1
W
2
W
3
W
4
u
1
u
2
u
3
u
4
u
5
u
6
u
7
u
8
L
3
u
8
L
2
u
7
u
10
L
2
u
8
Lu
7
Lu
8
u
9
u
8
w
1
w
5
w
8
w
2
w
6
w
3
w
7
w
4
A base ordenada {u
1
, . . . , u
8
} da segunda linha da tabela anterior substituda pela
base ordenada da terceira linha, que so renomeados na quarta linha para {w
1
, . . . ,
w
8
}. Os vetores u
9
e u
10
da terceira linha so construdos de modo que {Lu
8
, u
9
}
gere o mesmo subespao que {u
6
, u
7
} e {L
3
u
8
, L
2
u
7
, u
10
} gere o mesmo subespao
que {u
1
, u
2
, u
3
}.
Na base {w
1
, w
2
, w
3
, w
4
, w
5
, w
6
, w
7
, w
8
} a matriz de L possui a forma
_

_
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0
0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
_

_
Notas de aula do Prof. Antonio Cndido Faleiros 151
2. Consideremos ainda que V tem dimenso n = 8 e que L : V V nilpotente com
ndice k = 4. Seja {u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
, u
8
} uma base de V = W
4
, de modo que
{u
1
, u
2
, u
3
, u
4
} base de W
1
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
} base de W
2
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
} base de W
3
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
, u
8
} base de W
4
Podemos construir o seguinte quadro seguindo o esquema anterior.
W
1
W
2
W
3
W
4
u
1
u
2
u
3
u
4
u
5
u
6
u
7
u
8
L
3
u
8
Lu
9
u
10
u
11
L
2
u
8
u
9
Lu
8
u
8
w
1
w
5
w
7
w
8
w
2
w
6
w
3
w
4
Na base {w
1
, w
2
, w
3
, w
4
, w
5
, w
6
, w
7
, w
8
} a matriz de L possui a forma
_

_
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
_

_
12.2 Forma cannica de Jordan
Teorema 12.7 Seja L : V V linear com polinmio caracterstico e mnimo iguais a
(t) = (t
1
)
n
1
(t
r
)
n
r
m(t) = (t
1
)
m
1
(t
r
)
m
r
.
Ento L possui uma representao matricial em bloco diagonal J, denominada de forma
cannica de Jordan do operador L, cujos elementos diagonais tm a forma
J
ij
=
_

i
1 0 0 0
0
i
1 0 0
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
0 0 0
.
.
.
1 0
0 0 0
i
1
0 0 0 0
i
_

_
.
Para cada i xado,
152 Notas de aula do Prof. Antonio Cndido Faleiros
1. H pelo menos um J
ij
de ordem m
i
e todos os demais so de ordem menores ou
iguais a m
i
.
2. A soma das ordens dos J
ij
n
i
.
3. O nmero de J
ij
igual multiplicidade geomtrica de
i
, que igual nulidade
de N
i
= (L
i

i
I).
4. O nmero de blocos J
ij
de cada ordem possvel univocamente determinado por L.
A matriz J
ij
denominada bloco de Jordan pertencente ao autovalor
i
.
Observe que
J
ij
=
i
I +N
onde
N =
_

_
0 1 0 0 0
0 0 1 0 0
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
0 0 0
.
.
.
1 0
0 0 0 0 1
0 0 0 0 0
_

_
um bloco nilpotente.
Exemplo 12.8 Seja L : R
7
R
7
linear, cujos polinmios caracterstico e mnimo so
(t) = (t 2)
4
(t 3)
3
m(t) = (t 2)
2
(t 3)
2
A forma cannica de Jordan de L uma das seguintes
_

_
2 1
0 2
2 1
0 2
3 1
0 3
3
_

_
ou
_

_
2 1
0 2
2
2
3 1
0 3
3
_

_
A primeira matiz ocorre se L possui dois autovetores linearmente independentes perten-
centes ao seu autovalor 2 e a segunda ocorre se L tem trs autovetores linearmente inde-
pendentes pertencentes ao seu autovalor 2.
Exemplo 12.9 Vamos determinar a forma cannica J da matriz A =

0 1
1 2

. A
equao caracterstica de A ( 1)
2
= 0 e uma base do autoespao correspondente ao
Notas de aula do Prof. Antonio Cndido Faleiros 153
autovalor 1 v
1
=

1 1

T
. Calculamos ento (AI)
2
=

0 0
0 0

e vemos que o zero


autovalor desta matriz e que qualquer vetor autovetor correspondente ao zero. Tomemos
v
2
=

0 1

T
que, juntamente com v
1
, forma uma base do espao das matrizes 2 1. A
matriz S =

1 0
1 1

, cujas colunas so v
1
e v
2
, tem por inversa S
1
=

1 0
1 1

e tal
que J = S
1
AS =

1 0
0 1

.
Exemplo 12.10 Vamos determinar a forma cannica J da matriz A =
_
_
3 2 5
1 2 1
1 1 0
_
_
.
A equao caracterstica de A (1)(2)
2
= 0. A multiplicidade algbrica do autovalor
1 1 e do autovalor 2 2. Uma base do autoespao correspondente ao autovalor 1 for-
mada pelo vetor v
1
=

1 1 0

T
. Uma base do autoespao correspondente ao autovalor
2 formada pelo vetor

1 3 1

T
. Um conjunto gerador do autoespao de (A2I)
2
=
_
_
2 3 7
2 3 7
0 0 0
_
_
correspondente ao autovalor 0 formado pelos vetores v
3
=

3 2 0

T
e v
4
=

7 0 2

T
. Como nenhum deles mltiplo de

1 3 1

T
podemos tomar
v
3
para gerar a uma cadeia de Jordan de comprimento 2, correspondente ao autovalor 2
e calculamos v
2
= (A 2I)v
3
=

1 3 1

T
. A matriz S =
_
_
1 1 3
1 3 2
0 1 0
_
_
, cuja
inversa S
1
=
_
_
2 3 7
0 0 1
1 1 2
_
_
tal que J = S
1
AS =
_
_
1 0 0
0 2 1
0 0 2
_
_
que a forma
cannica da matriz A.
Exemplo 12.11 ***
12.3 Subespaos cclicos
Seja L : V V linear e v V no nulo (v 6= 0). Consideremos a seqncia
v, Lv, L
2
v, . . .
Seja k o menor inteiro para o qual
L
k
v [v, Lv, L
2
v, . . . , L
k1
v],
indicando com isto que o conjunto
{v, Lv, L
2
v, . . . , L
k1
v}
154 Notas de aula do Prof. Antonio Cndido Faleiros
linearmente independente.
O subespao vetorial
Z(v, L) = [v, Lv, L
2
v, . . . , L
k1
v]
chamado de subespao cclico de V gerado por L e v. Sua dimenso k.
Este subespao a interseo de todos os subespaos L invariantes que contm v.
Denotemos por L
v
a restrio de L a Z(v, L). Se
L
k
v = a
0
v a
1
Lv a
2
L
2
v a
k1
L
k1
v
ento
m
v
(t) = a
0
+a
1
t +a
2
t
2
+ +a
k1
t
k1
+t
k
o polinmio mnimo de L
v
e a representao de L
v
na base
{v, Lv, L
2
v, . . . , L
k1
v}

C =
_

_
0 0 0 0 0 a
0
1 0 0 0 0 a
1
0 1 0 0 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0 a
k3
0 0 0 1 0 a
k2
0 0 0 0 1 a
k1
_

_
denominada de matriz companheira do polinmio m
v
(t). O polinmio m
v
(t) denom-
inado de L anulador de v e Z(v, L).
12.4 Forma cannica racional
Lema 12.12 11.13. Seja L : V V linear, cujo polinmio mnimo f(t)
n
, onde f(t)
irredutvel. Ento existem v
1
, v
2
, . . . , v
r
tais que
V = Z(v
1
, L) Z(v
r
, L).
O polinmio mnimo da restrio de L a Z(v
i
, L) f(t)
n
i
, onde n
i
um nmero inteiro
menor ou iguais a n. Pode-se ordenar os expoentes n
i
de modo que
n = n
1
n
2
n
r
.
Qualquer outra decomposio de V em subespaos L cclicos tem o mesmo conjunto de
polinmios mnimos, que determinado de modo nico por L. Assim L tem uma repre-
sentao matricial
C =
_

_
C
(1)
0 0
0 C
(2)
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 C
(r)
_

_
Notas de aula do Prof. Antonio Cndido Faleiros 155
onde C
(i)
a matriz companheira do polinmio f(t)
n
i
.
Teorema 12.13 (Forma cannica racional) Seja L : V V linear com polinmio mn-
imo
m(t) = f
1
(t)
m
1
. . . f
s
(t)
ms
onde f
i
(t) so polinmios mnicos irredutveis distintos. Ento L possui uma nica rep-
resentao matricial em bloco
_

_
_

_
C
1
0 0
0 C
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 C
s
_

_
_

_
onde cada C
i
uma matriz com o formato
C
i
=
_

_
C
(1)
i
0 0
0 C
(2)
i
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 C
(r)
i
_

_
em que C
(j)
i
so matrizes companheiras de f
i
(t)
n
ij
onde se pode ordenar os n
ij
de modo
que
m
1
= n
11
n
12
n
1r
1

m
s
= n
s1
n
s2
n
srs
Esta a chamada forma cannica racional de L. Os polinmios f
i
(t)
n
ij
so chamados
de divisores elementares de L.
12.5 Forma triangular
Se um operador linear L possuir uma representao matricial triangular
A =
_
_
_
_
_
a
11
a
12
a
1n
0 a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
seu polinmio caracterstico pode ser fatorado em polinmios do primeiro grau
(t) = det(tI A) = (t a
11
)(t a
22
) (t a
nn
).
A recproca tambm verdadeira.
156 Notas de aula do Prof. Antonio Cndido Faleiros
Teorema 12.14 Seja n a dimenso de V e L : V V um operador linear cujo polinmio
caracterstico (t) pode ser fatorado num produto de fatores lineares
(t) = (t
1
)
n
1
(t
r
)
n
r
onde os nmeros
i
, i = 1, . . . , r so distintos e n
1
+ + n
r
= n. Ento L possui uma
representao matricial em forma triangular.
Prova. *** Como (t) pode ser fatorado em polinmios do primeiro grau, L possui
ao menos um autovalor. Denotemo-lo
1
e por v
1
o autovetor correspondente, de modo
que Lv
1
=
1
v
1
. Ento V = V
1
(V
1
)

onde V
1
= ger(v
1
). O espao V
1
invariantes sob
L. Seja L
1
a restrio de L a V
1
. {v
12
, . . . , v
1n
} uma base ortonormal de (V
1
)

. A matriz
de L nesta base da forma ***
12.6 Espaos quocientes
Esta uma maneira inteligente de denir projees em espaos vetoriais que no pos-
suem produto interno.
Seja W um subespao vetorial de V. Dado v V, denimos o conjunto
v +W = {v +w : w W},
denominado de classe lateral de W em V. Observe que 0 +W = W.
Podemos denir duas operaes no conjunto das classes laterais de modo a torn-lo
um espao vetorial.
Seja W um subespao vetorial de V. Sejam u e v dois vetores em V e k um escalar
pertencente ao corpo sobre o qual se dene o espao vetorial V. Denimos no conjunto
das classes laterais de W as operaes de adio de duas classes e multiplicao de uma
classe por um escalar por
(u +W) + (v +W) = (u +v) +W,
k(u +W) = ku +W.
O conjunto das classes laterais, com estas duas operaes, um espao vetorial sobre
o mesmo corpo sobre o qual se dene V. Este espao vetorial denominado espao
quociente de V por W e denotado por V/W. Se a dimenso de V for nita ento
dim(V/W) = dim(V ) dim(W).
Teorema 12.15 Seja L : V V linear e W um subespao L invariante de V. Ento L
induz um operador linear

L em V/W denido por

L(v +W) = L(v) +W.


Se L for um zero de um polinmio, ento

L tambm o . Assim, o polinmio mnimo de

L divide o polinmio mnimo de L.


Notas de aula do Prof. Antonio Cndido Faleiros 157
Exemplo 12.16 Vamos apresentar um exemplo que mostra como se pode obter uma rep-
resentao matricial triangular de uma transformao linear. Seja L : R
3
R
3
denida
por L(x, y, z) = (4x +y z, 2x +5y 2z, x +y +2z). A matriz de L na base cannica do
R
3

A =
_
_
4 1 1
2 5 2
1 1 2
_
_
Os vetores v
1
= (1, 1, 0), v
2
= (0, 1, 0), v
3
= (0, 0, 1) formam uma base do R
3
.
Destacamos que v
1
autovetor de L correspondente ao autovetor 3. Como
L(v
1
) = 3v
1
L(v
2
) = v
1
+ 6v
2
+v
3
L(v
3
) = v
1
3v
2
+ 2v
3
a matriz de L na base {v
1
, v
2
, v
3
}
B =
_
_
3 1 1
0 6 3
0 1 2
_
_
.
O espao vetorial W gerado por v
1
invariante sob L. Observe que a matriz de L na
base {v
1
, v
2
, v
3
} j possui a primeira coluna na forma desejada para se chegar forma
triangular.
Consideremos V = {v +W : v V } que o espao quociente V/W e a transformao
linear induzida L : V V denida por L(v) = L(v) +W. Para esta transformao,
L(v
1
) = 3v
1
+W = W = 0
L(v
2
) = v
1
+ 6v
2
+v
3
+W = 6v
2
+v
3
L(v
3
) = v
1
3v
2
+ 2v
3
+W = 3v
2
+ 2v
3
de modo que a matriz de L em relao base {v
2
, v
3
} de V
C =

6 3
1 2

.
Vamos omitir a barra e olhar para L no espao gerado por v
2
e v
3
. Sabemos que
L(v
2
) = 6v
2
+v
3
L(v
3
) = 3v
2
+ 2v
3
cuja matriz na base {v
1
, v
2
} C. Os autovalores de C so 5 e 3 e o autovetor relativo ao
autovalor 5 3v
2
+v
3
. Vamos ento passar da base {v
1
, v
2
, v
3
} para a base {w
1
, w
2
, w
3
}
onde
w
1
= v
1
, w
2
= 3v
2
+v
3
, w
3
= v
3
.
158 Notas de aula do Prof. Antonio Cndido Faleiros
O w
3
foi escolhido de modo arbitrrio, exigimos apenas que {w
1
, w
2
, w
3
} seja uma base
de V. Podemos inverter as relaes acima para obter
v
1
= w
1
, v
2
= (w
2
w
3
)/3, v
3
= w
3
.
Da segue
L(w
1
) = 3w
1
L(w
2
) = 2w
1
+ 5w
2
L(w
3
) = w
1
w
2
+ 3w
3
e, nesta base, a matriz de L
D =
_
_
3 2 1
0 5 1
0 0 3
_
_
que est na forma triangular. Esta transformao linear pode ser representada por uma
matriz diagonal pois ela possui trs autovetores linearmente independente.
Captulo 13
Aplicaes
Aproximao por polinmios
Cadeias de Markov
Circuitos eltricos
Diferenas nitas
Elementos nitos
Equao de Schredinger
Sistemas de equaes diferenciais
Exponencial de matriz
Formas quadrticas
Cnicas e qudricas
Mnimos quadrados
Modelo econmico de Leontief
Mtodo hngaro para alocao de tarefas
Cifras de Hill
Programao linear
Sries de Fourier
Sistemas de equaes diferenciais
Tenso nos meios contnuos
Teoria dos grafos
Teoria dos jogos
159
160 Notas de aula do Prof. Antonio Cndido Faleiros
Apndice A
Matrizes
Uma matriz um arranjo retangular de nmeros, denominados de elementos da matriz,
dispostos em linhas e colunas. Quando uma matriz possuir m linhas e n colunas diremos
que uma matriz mn ou matriz m por n ou matriz de ordem m por n. Matrizes reais
so aquelas cujos elementos so nmeros reais e matrizes complexas so aquelas cujos
elementos so nmeros complexos. Em nosso curso trabalharemos com matrizes reais ou
complexas.
Uma matriz com uma nica coluna chamada de vetor coluna e uma matriz com
uma nica linha chamada de vetor linha. Se o nmero de linhas for igual ao nmero de
colunas se diz que a matriz quadrada. Uma matriz quadrada com n linhas e n colunas
uma matriz n por n ou de ordem n. Neste caso, em lugar de dizermos que a ordem da
matriz m por m, diremos apenas que a matriz de ordem m.
A menos que se especique o contrrio, R
n
o conjunto das matrizes coluna reais,
que possuem n linhas e uma coluna. Denotaremos por C
n
ao conjunto de matrizes coluna
complexas, com n linhas e uma coluna. Designaremos o conjunto das matrizes reais m por
n pelo smbolo R
mn
e das matrizes complexas de ordem m por n pelo smbolo C
mn
.
Tambm usual escrever A
mn
para indicar que A possui m linhas e n colunas. Um
nmero real ou complexo ser denominado genericamente de escalar.
Usaremos a notao abreviada A = (a
ij
) para denotar uma matriz
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_
_
_
onde a
ij
o elemento da linha i e coluna j. No conjunto das matrizes m por n, se dene
a adio de duas matrizes e a multiplicao de uma matriz por um escalar atravs das
frmulas
(a
ij
) + (b
ij
) = (a
ij
+b
ij
)
k (a
ij
) = (ka
ij
)
onde k um escalar, (a
ij
) e (b
ij
) so matrizes de ordem m por n. Quando for conveniente,
escreveremos (a
ij
)k em lugar de k(a
ij
).
161
162 Notas de aula do Prof. Antonio Cndido Faleiros
A matriz em que todos os elementos so nulos chamada de matriz nula e ser
denotada por 0.
Se A = (a
ij
), ento A = (a
ij
) chamada de matriz oposta de A. Denimos a
diferena entre as matrizes A e B de mesma ordem por AB = A+ (B).
Propriedades
Nas propriedades enumeradas abaixo, A, B e C so matrizes de mesma ordem, incluindo
a matriz nula e k
1
, k
2
so escalares. O 1 indica a unidade escalar.
1. Associatividade: A+ (B +C) = (A+B) +C.
2. Comutatividade: A+B = B+ A.
3. Elemento neutro: A+ 0 = 0 +A = A.
4. Elemento oposto: A+ (A) = (A) +A = 0.
5. Associatividade: (k
1
k
2
)A = k
1
(k
2
A).
6. Distributividade: (k
1
+k
2
)A = k
1
A+k
2
A.
7. Distributividade: k
1
(A+B) = k
1
A+k
1
B.
8. Unidade: 1A = A
Estas propriedades indicam que o conjunto das matrizes m n com as operaes de
adio e multiplicao por um escalar um espao vetorial sobre o corpo dos escalares
que, em nosso caso, ser o corpo dos nmeros reais ou dos nmeros complexos.
A.1 Matrizes especiais
Seja A = (a
ij
) uma matriz m por n e p = min{m, n}. Os elementos a
11
, a
22
, . . . , a
pp
formam a diagonal principal da matriz A. Uma matriz diagonal se todos os elementos
fora da diagonal principal forem nulos.
A matriz identidade I de ordem m a matriz diagonal cujos elementos da diagonal
principal so todos iguais a 1. O delta de Kronecker, denido para todo i e j inteiros por

ij
= 1 se i = j

ij
= 0 se i 6= j
pode ser usado para representar os elementos da matriz identidade. Em termos deste
smbolo, I = (
ij
) .
Se os elementos abaixo da diagonal principal da matriz A forem nulos, a matriz
triangular superior. Se os elementos direita da diagonal principal de A forem nulos,
a matriz triangular inferior.
Notas de aula do Prof. Antonio Cndido Faleiros 163
Uma matriz A simtrica se A
T
= A, anti-simtrica se A
T
= A e ortogonal
se A
T
= A
1
.
Seja A = (a
ij
) uma matriz complexa de ordem m por n. Vamos indicar por a
ij
ao
complexo conjugado de a
ij
. A matriz A

= (b
ij
) de ordem n por m, onde
b
ij
= a
ji
a adjunta de A. Se A for real, ento A

= A
T
. Uma matriz complexa A hermitiana
se A

= A, anti-hermitiana se A

= A e unitria se A

= A
1
. As matrizes reais
simtricas so hermitianas, as matrizes reais anti-simtricas so anti-hermitianas e as
matrizes reais ortogonais so unitrias.
Denio A.1 Uma matriz m por n possui a forma escalonada se:
1. As linhas nulas, se existirem, se encontram na parte inferior da matriz.
2. Ao percorrer as linhas de cima para baixo, o primeiro elemento no nulo de cada
linha vai se deslocando para a direita.
O primeiro elemento no nulo em cada linha, quando percorrida da esquerda para a
direira, chamado de piv da linha.
Denio A.2 Uma matriz m por n possui a forma escalonada reduzida se:
1. As linhas nulas, se existirem, se encontram na parte inferior da matriz.
2. O primeiro elemento no nulo em cada linha, quando percorrida da esquerda para
a direira, igual a 1. Este o piv da linha.
3. So nulos todos os demais elementos da coluna que contm o piv.
4. Ao percorrer as linhas de cima para baixo, o primeiro elemento no nulo de cada
linha vai se deslocando para a direita.
A.2 Multiplicao de matrizes
A multiplicao a operao que leva duas matrizes A = (a
ij
)
mn
e B = (b
jk
)
np
na
matriz
AB =

n
X
k=1
a
ik
b
kj
!
de ordemque uma matriz m por p. Para efetuar o produto AB, o nmero de colunas de
A deve ser igual ao nmero de linhas de B. Quando este for o caso, se diz que A e B so
conformes para o produto.
A multiplicao de matrizes uma operao associativa e distributiva mas no
comutativa. Assim,
164 Notas de aula do Prof. Antonio Cndido Faleiros
1. A
1
(B
1
C
1
) = (A
1
B
1
)C
1
2. A
2
(B
2
+C
2
) = A
2
B
2
+A
2
C
2
3. (A
3
+B
3
)C
3
= A
3
C
3
+B
3
C
3
desde que as matrizes A
i
, B
i
e C
i
sejam conformes para a adio e a multiplicao.
Se se o nmero de linhas for diferente do nmero de colunas em A e B, ento o produto
AB pode estar denido e o produto BA no.
A.3 Inversa
Uma matriz quadrada A de ordem m inversvel se existir uma matriz quadrada B de
ordem m tal que AB = BA = I, onde I a matriz identidade de ordem m. A matriz
B a inversa de A, sendo denotada por A
1
. Sendo A = (a
ij
) e B = (b
ij
) , ento as
igualdades matriciais AB = BA = I resultam nas seguintes igualdades entre os elementos
de A, B e I
n
X
k=1
a
ik
b
kj
=
ij
e
n
X
k=1
b
ik
a
kj
=
ij
.
Se a matriz no for inversvel, diremos que singular.
A inversa de uma matriz nica pois, se B e C forem inversas de A, ento
B = BI = B(AC) = (BA)C = IC = C.
Se A for inversvel, ento A
1
inversvel e (A
1
)
1
= A. Se k for um escalar no nulo
e A for inversvel, ento kA inversvel e (kA)
1
= k
1
A
1
.
Teorema A.3 Sejam A e B matrizes quadradas tais que AB = I. Isto suciente para
garantir que BA = I.
Prova. A prova deste fato se baseia emumteorema da lgebra Linear que estabelece o
seguinte: Se as matrizes envolvidas foremde ordemn, o posto de I n e, consequentemente
o posto de A n, estabelecendo uma bijeo em C
n
. Ento B necessariamente a bijeo
inversa e BA = I.
Se A e B forem inversveis ento AB inversvel e (AB)
1
= A
1
B
1
. Este resultado
pode ser generalizado. Se A
1
, . . . , A
n
forem inversveis, ento o produto A
1
A
n

inversvel e
(A
1
A
n
)
1
= A
1
n
A
1
1
.
Se A for uma matriz inversvel, ento as equaes AX = B e Y A = C possuem soluo
nica dadas por X = A
1
B e Y = CA
1
.
Notas de aula do Prof. Antonio Cndido Faleiros 165
Se A for uma matriz quadrada, dene-se as potncias inteiras de A por
A
0
= I,
A
k
= A
k1
A,
A
k
=

A
1

k
=

A
k

1
.
para todo k 1 inteiro.
O posto de uma matriz o nmero de suas colunas que so linearmente independentes.
A nulidade de uma matriz a dimenso do seu ncleo.
Teorema A.4 Seja A uma matriz mn. O posto de A mais a nulidade de A igual a
n.
Teorema A.5 O posto de uma matriz no se modica se ela for multiplicada por uma
matriz inversvel.
Teorema A.6 Seja A uma matriz m n de posto k. Existe uma matriz P de ordem n,
e uma matriz Q de ordem m, ambas inversveis e tais que D = Q
1
AP uma matriz
diagonal onde os k primeiros elementos da diagonal so iguais a 1 e os demais so todos
nulos.
Teorema A.7 Seja A uma matriz mn de posto k. Existe uma matriz inversvel Q de
ordem m, tal que A
0
= Q
1
A uma matriz escalonada reduzida.
A transposta da matriz A = (a
ij
) de ordem m por n a matriz A
T
= (b
ij
) , de ordem
n por m, onde b
ij
= a
ji
. Vale a propriedade
(AB)
T
= B
T
A
T
.
Teorema A.8 O nmero de linhas linearmente independentes de uma matriz igual ao
nmero de colunas linearmente independentes.
Prova. Seja A
0
= Q
1
A a matriz escalonada reduzida do teorema anterior. O nmero
de linhas no nulas o nmero de linhas linearmente independentes em A
0
. Em A
0
, as
colunas linearmente independentes so aquelas que contm os pivs. Logo, o nmero
de linhas linearmente independentes de A
0
igual ao nmero de colunas linearmente
independentes. Como Q e Q
T
so inversveis, o posto de A = QA
0
e o de A
T
= (A
0
)
T
Q
T
so idnticos, mostrando que o nmero de linhas e o nmero de colunas linearmente
independentes de A so iguais.
166 Notas de aula do Prof. Antonio Cndido Faleiros
A.4 Operaes elementares e matrizes elementares
Operaes elementares sobre linhas
1. Permutar duas linhas.
2. Multiplicar uma linha de A por um escalar no nulo.
3. Adicionar a uma linha um mltiplo de outra linha.
Operaes elementares sobre colunas so denidas de modo anlogo.
As operaes elementares podem ser executadas mediante o produto de matrizes el-
ementares. A matriz que troca a linha i pela linha j aquela obtida a partir da matriz
identidade, trocando a linha i com a linha j. A matriz que multiplica a linha i de A por
um escalar k 6= 0 obtida a partir da identidade, trocando o elemento diagonal da linha
i por k. A matriz que adiciona um mltiplo k da linha i linha j obtida a partir da
matriz identidade, trocando o zero da linha i coluna j por k.
Se E for uma matriz elementar, EA realiza operaes elementares sobre as linhas de
A e AE realiza operaes elementares sobre as colunas de A, como mostram os exemplos
que seguem.
Se
E =
_
_
0 1 0
1 0 0
0 0 1
_
_
,
ento a matriz EA obtida de A trocando a primeira linha com a segunda; AE uma
matriz obtida de A trocando a primeira coluna com segunda.
Se
E =
_
_
0 0
0 1 0
0 0 1
_
_
,
ento a matriz EA obtida de A multiplicando a primeira linha por ; a matriz AE
obtida de A multiplicando a primeira coluna por .
Se
E =
_
_
1 0
0 1 0
0 0 1
_
_
,
ento EA uma matriz obtida de A adicionando vezes a segunda linha primeira; AE
uma matriz obtida de A adicionando vezes a primeira coluna segunda.
As matrizes elementares so inversveis. Se uma matriz A for inversvel e E uma
matriz elementar, ento AE e EA so inversveis.
Se uma coluna ou uma linha de uma matriz for identicamente nula, ela singular. Se
uma coluna de uma matriz for uma combinao linear das outras, a matriz singular.
Teorema A.9 Uma matriz quadrada A inversvel se e s se puder ser escrita como um
produto matrizes elementares.
Notas de aula do Prof. Antonio Cndido Faleiros 167
Prova. Se A for o produto de matrizes elementares, ela inversvel pois as matrizes
elementares so inversveis. Vamos provar a recproca.
Como A = (a
ij
) inversvel, nenhuma de suas colunas identicamente nula. Pelo
menos um elemento da primeira coluna diferente de zero. Se a
11
for igual a zero,
podemos permutar a primeira linha de A com outra cujo elemento da primeira coluna
diferente de zero. Denotemos ainda por a
11
o elemento da primeira linha e primeira
coluna da matriz transformada. Podemos dividir a primeira linha por a
11
de modo que
o elemento da primeira linha primeira coluna que igual a 1. Agora, podemos adicionar
s demais linhas de A mltiplos da primeira de modo que todos os elementos da primeira
coluna, exceto o primeiro, quem iguais a zero. Esta matriz obtida de A atravs de
operaes elementares inversvel e ser denotada por A
1
.
Se todos os elementos da segunda coluna de A
1
da diagonal principal para baixo forem
nulos, a segunda coluna de A
1
seria um mltiplo da primeira e esta matriz seria singular.
Como ela no singular, pelo menos um elemento da segunda coluna da diagonal principal
para baixo diferente de zero. Se necessrio, trocamos a segunda linha com outra abaixo
dela que possui elemento no nulo na segunda coluna. O elemento da segunda linha
segunda coluna desta matriz assim transformada no nulo e podemos dividir agora a
segunda linha por ele. O elemento (2, 2) ca igual a 1. Podemos agora adicionar s outras
linhas mltiplos da segunda de modo a anular todos os demais elementos da segunda
coluna. Observe que a primeira coluna no modicada neste processo pois o elemento
da primeira coluna da segunda linha zero. Denominemos esta nova matriz de A
2
. Ela
foi obtida de A
1
a partir de operaes elementares e, portanto, inversvel.
Continuando com este processo, chegamos matriz identidade, aplicando transfor-
maes elementares sobre as linhas de A. Sejam E
1
, E
2
, . . . , E
k
as matrizes elementares
que realizam estas operaes. Ento E
k
E
1
A = I e A = (E
k
E
1
)
1
I = E
1
1
E
1
k
.
Como a inversa de uma matriz elementar elementar, A um produto de matrizes ele-
mentares.
168 Notas de aula do Prof. Antonio Cndido Faleiros
Apndice B
Determinante
B.1 Permutao
Uma funo bijetora : {1, 2, . . . , n} {1, 2, . . . , n} chamada de permutao
do conjunto {1, 2, . . . , n}. Basta apresentar a nupla ordenada ((1), . . . , (n)) para
estabelecer sem ambiguidade. A identidade (1, 2, . . . , n) uma permutao. Sendo
bijetora, a permutao inversvel e, se (i) = j, sua inversa
1
leva j em i.
Sejam j e k dois inteiros distintos no conjunto {1, 2, . . . , n}. Uma permutao que
leva j em k e k em j, mantendo xos os outros inteiros, chamada de transposio.
Se for uma transposio, basta informar que (j) = k para inferir que (k) = j e que
(i) = i para todo i diferente de j e k.
Toda permutao a composio de um nmero nito de transposies. De fato,
sejam
i
, i = 1, . . . , n permutaes que tanto pode ser uma transposio quanto uma
identidade, denidas por

1
(1) = (1),

1
(2) = (2),
. . . ,

n
(
n1

2

1
(n)) = (n).
Estas equaes denem
1
,
2
, . . . ,
n
sem ambiguidade. Observe que, se (1) = 1, ento

1
a identidade. Se (2) =
1
(2),
2
a identidade. Em geral, para k 2, sendo
(k) =
k1

2

1
(k), ento
k
a permutao identidade. Em particular,
n
sempre
a identidade e foi colocada na composio apenas para carmos com um nmero exato de
n permutaes, entre transposies e identidades. A permutao igual composio

n

2

1
.
Retirando as identidades desta composio, vemos que uma composio de permu-
taes que, entretanto, no nica. Todavia, duas decomposio de em permutaes
ter ou um nmero par de fatores ou um nmero mpar de fatores. Provaremos esta
armao logo adiante.
169
170 Notas de aula do Prof. Antonio Cndido Faleiros
Seja uma permutao de {1, 2, . . . , n}. Se i < j e (i) > (j) diremos que o par
(i, j) uma inverso de . Denimos o sinal de do seguinte modo: Se o nmero de
inverses de for par, seu sinal ser +1. Se o nmero de inverses de for mpar, seu
sinal ser 1. O sinal de ser denotado por sign().
A permutao identidade no apresenta nenhuma inverso. Portanto, seu sinal +1.
Teorema B.1 Sejam
1
e
2
duas permutaes de {1, 2, . . . , n}. Ento
sign(
2

1
) = sign(
2
)sign(
1
).
Prova. Observe a tabela que vem em seguida, onde i < j.
Inverses

1

2

2

1
(i) <
1
(j)
2

1
(i) <
2

1
(j) 0 0 0

1
(i) <
1
(j)
2

1
(i) >
2

1
(j) 0 1 1

1
(i) >
1
(j)
2

1
(i) <
2

1
(j) 1 1 0

1
(i) >
1
(j)
2

1
(i) >
2

1
(j) 1 0 1
Ela mostra que quando h uma inverso em
2

1
ou h uma inverso em
1
ou h
uma em
2
mas no em ambas ao mesmo tempo. Quando no h inverso em
2

1
ento
no h inverso nem em
1
nem em
2
ou ambas apresentam uma inverso. Isto signica
que o nmero de inverses de
2

1
e a soma do nmero de inverses em
1
e
2
tm a
mesma paridade. Isto implica na igualdade dos sinais
sign(
2

1
) = sign(
2
)sign(
1
).

Se uma permutao mantm um nmero k xo, isto , se (k) = k, as inverses


envolvendo este nmero no precisam ser contadas no clculo do sinal. O nmero de
inverses (i, k), com i < k igual ao nmero de inverses (k, j) com k < j. Logo, o
nmero mantido xo pela permutao sempre leva a um nmero par de inverses. Esta
observao til na prova do prximo teorema.
Teorema B.2 O sinal de uma transposio 1.
Prova. Se a transposio levar i em j e j em i, de acordo com a observao feita
acima, podemos ignorar as inverses relativas aos nmeros mantidos xos. Sobram apenas
i e j, para os quais h uma inverso. Logo, o sinal da transposio 1.
Teorema B.3 Toda permutao uma composio de transposies. Esta composio
no nica. Entretanto, o nmero de transposies ou sempre par ou sempre mpar.
Prova. O sinal de toda transposio 1. Quando sign() = +1, qualquer decom-
posio de em transposies tem um nmero par de fatores. Quando sign() = 1, o
nmero de transposies que a compem mpar.
Notas de aula do Prof. Antonio Cndido Faleiros 171
Teorema B.4 O sinal de uma permutao igual ao sinal de sua inversa.
Prova. Como
1
a identidade cujo sinal +1, segue sign(
1
)sign() =sign(
1
) =
1. Logo, sign(
1
) e sign() so ambos iguais a +1 ou ambos iguais a 1.
B.2 Determinante
Seja A = (a
ij
) uma matriz quadrada de ordem n. O determinante de A denido por
det(A) =
X

sign()a
1(1)
a
2(2)
a
n(n)
onde pecorre o conjunto de todas as permutaes de {1, 2, . . . , n}.
Cada permutao de {1, 2, . . . , n} possui inversa . Se (i) = j, ento (j) = i
e a
i(i)
= a
(j)j
. Consequentemente, o produto a
1(1)
a
2(2)
a
n(n)
uma reordenao
a
(1)1
a
(2)2
a
(n)n
e, portanto, so iguais. Como sign() = sign(), segue
det(A) =
X

sign()a
(1)1
a
(2)2
a
(n)n
onde percorre o conjunto de todas as permutaes de {1, 2, . . . , n}.
Teorema B.5 O determinante de uma matriz igual ao determinante de sua transposta.
Prova. Se B = (b
ij
) for a transposta de A = (a
ij
), ento b
ij
= a
ji
. Assim,
det(A) =
X

sign()a
(1)1
a
(2)2
a
(n)n
=
X

sign()b
1(1)
b
2(2)
b
n(n)
= det(B).

Teorema B.6 Se uma linha ou uma coluna de uma matriz quadrada for nula, seu deter-
minante zero.
Prova. Quando a linha i for nula, a
i(i)
= 0 para toda permutao e assim, det(A) =
0. Uma coluna nula na matriz uma linha nula na transposta. Assim, det(A
T
) = 0 e,
portanto, det(A) = 0.
Teorema B.7 Se permutarmos duas linhas de uma matriz, o determinante muda de
sinal. Se permutarmos duas colunas de uma matriz, o determinante muda de sinal.
172 Notas de aula do Prof. Antonio Cndido Faleiros
Prova. Seja B = (b
ij
) a matriz obtida de A = (a
ij
) permutando-se as linhas r e s, de
modo que b
rj
= a
sj
e b
sj
= a
rj
. Assim,
det(B) =
X

sign() b
r(r)
b
s(s)

=
X

sign() a
s(r)
a
r(s)

=
X

sign() a
r(s)
a
s(r)

=
X

sign() a
r,(r)
a
s,(s)

onde a transposio que leva r em s e s em r. Como percorre todas as permutaes
possveis, tambm as percorre e assim,
det(B) =
X

sign() a
r(r)
a
s(s)
= det(A).

Teorema B.8 Se duas linhas ou duas colunas de uma matriz quadrada forem iguais, seu
determinante zero.
Prova. Se duas linhas da matriz A so iguais, ao trocar uma linha pela outra, a matriz
A permanece inalterada e seu determinante troca de sinal. Logo, det(A) = det(A), o
que resulta em det(A) = 0.
Teorema B.9 Seja A = [v
1
, . . . , v
j
+ w
j
, . . . , v
n
], B = [v
1
, . . . , v
j
, . . . , v
n
], e C = [v
1
,
. . . , w
j
, . . . , v
n
], matrizes quadradas de ordem n, onde v
1
, . . . , v
n
e w
j
so as colunas de
B e C. A coluna j de A v
j
+w
j
. Ento
det(A) = det(B) + det(C).
Prova. Imediata, a partir da denio.
Vale um teorema anlogo se os elementos de uma linha de A forem decompostos em
duas parcelas.
Teorema B.10 Sejam v
1
, . . . , v
n
vetores coluna em C
n
. Ento para todo escalar ,
det[v
1
, . . . , v
i
, . . . , v
n
] = det[v
1
, . . . , v
i
, . . . , v
n
]
O mesmo resultado se aplica ao multiplicarmos uma linha de A por um escalar .
Notas de aula do Prof. Antonio Cndido Faleiros 173
Prova. Imediata a partir da denio.
Corolrio B.11 Se A uma matriz quadrada de ordem n e um escalar,
det(A) =
n
det(A).
Teorema B.12 Se uma linha de uma matriz quadrada A for um mltiplo de outra linha
de A, ento det(A) = 0.
Prova. Se 6= 0, det[ . . . , v
i
, . . . , v
i
, . . . ] = det[ . . . , v
i
, . . . , v
i
, . . . ] = 0.
Quando = 0, uma linha da matriz nula e det(A) = 0.
Teorema B.13 O determinante de uma matriz no se altera se adicionarmos a uma de
suas colunas um mltiplo de outra. O mesmo resultado se aplica se adicionarmos a uma
de suas linhas um mltiplo de outra.
Prova. Se 6= 0, det[ . . . , v
i
, . . . , v
j
+ v
i
, . . . ] = det[ . . . , v
i
, . . . , v
j
, . . . ]+ det[
. . . , v
i
, . . . , v
i
, . . . ] = det[ . . . , v
i
, . . . , v
j
, . . . ].
Teorema B.14 Se A = (a
ij
) for uma matriz quadrada triangular superior ou triangular
inferior, ento
det(A) = a
11
a
22
a
nn
.
Prova. Se A for uma matriz quadrada de ordem n, triangular superior, ento a
ij
= 0
quando i > j. Sendo uma permutao de {1, 2, . . . , n} termo
a
1(1)
a
2(2)
a
n(n)
ser no nulo apenas quando (1) 1, (2) 2, . . . , (n) n. Isto s ocorre se (n) = n,
. . . , (2) = 2, (1) = 1. Da, o nico termo no nulo do determinante de A a
11
a
22

a
nn
.
Corolrio B.15 O determinante da matriz identidade igual a 1.
Teorema B.16 Seja A uma matriz quadrada. O det(A) 6= 0 se e s se A for inversvel.
Prova. Se A for inversvel, seja B a sua inversa. Como AB = I, det(A) det(B) = 1,
provando que det(A) 6= 0.
Quando A inversvel, suas colunas formam uma base da imagem indicando que suas
colunas so vetores linearmente independentes.
Se A for singular, uma de suas linhas combinao linear das outras e det(A) = 0.
174 Notas de aula do Prof. Antonio Cndido Faleiros
Teorema B.17 Se E for uma matriz elementar e A uma matriz quadrada, todas de
ordem n, ento det(EA) = det(E) det(A).
Prova. Se E for uma matriz elementar que permuta a linha i com a linha j, ento
det(E) = 1 e det(EA) = det(A), provando que det(EA) = det(E) det(A) para este
caso.
Se E for uma matriz elementar que multiplica uma linha por r, ento det(E) = r e
det(EA) = r det(A), provando que neste caso tambm vale o teorema.
Se E for uma matriz elementar que multiplica linha i um mltiplo r da linha j, ento
det(E) = 1 e det(EA) = det(A), provando que o teorema tambm vale neste ltimo caso,
o que completa a prova do teorema.
Corolrio B.18 Se E
1
, E
2
, . . . , E
k
forem matrizes elementares e A for uma matriz
quadrada, todas de ordem n, ento det(E
1
E
2
E
k
A) = det(E
1
) det(E
2
) det(E
k
)
det(A).
Teorema B.19 Se A e B forem matrizes quadradas de mesma ordem,
det(AB) = det(A) det(B).
Prova. Se A for inversvel, A = E
1
E
2
E
k
, onde E
1
, E
2
, . . . , E
k
so matrizes
elementares. Assim, det(AB) = det(E
1
E
2
E
k
B) = det(E
1
) det(E
2
) det(E
k
)
det(B) = det(A) det(B).
Se A ou B for singular, AB singular e det(AB) = 0 e det(A) det(B) = 0.
Corolrio B.20 Se A for uma matriz quadrada inversvel, det(A
1
) = 1/ det(A).
Teorema B.21 Matrizes quadradas semelhantes possuem o mesmo determinante.
Prova. Se A e B forem matrizes quadradas semelhantes, ento existe uma matriz
inversvel P de modo que B = PAP
1
e det(B) = det(P) det(A) det(P
1
) = det(A).
B.3 Cofator
Seja A = (a
ij
) uma matriz quadrada de ordem n. Seu determinante
det(A) =
X

sign()a
1(1)
a
n(n)
onde o somatrio
P

percorre todas as permutaes do conjunto S = {1, 2, . . . , n}.


Podemos agrupar esta soma do seguinte modo: tomemos todas as permutaes que levam
1 em 1, depois aquelas que levam 1 em 2 e assim por diante, at aquelas que levam 1 em
Notas de aula do Prof. Antonio Cndido Faleiros 175
n. Nas permutaes que levam 1 em 1 podemos colocar a
11
em evidncia; nas que levam
1 em 2, o a
12
pode ser colocado em evidncia e, naquelas que levam 1 em n podemos
colocar o a
1n
em evidncia e escrever
det(A) = a
11
c
11
+a
12
c
12
+a
13
c
13
+ +a
1n
c
1n
.
O escalar c
1j
chamado de cofator de a
1j
.
Vemos que c
11
=
P
(1)=1
sign()a
2(2)
a
n(n)
onde a soma percorre todas as per-
mutaes que levam 1 em 1. A cada permutao em {1, 2, . . . , n} que mantm xo o 1,
corresponde a uma permutao em S
0
= {2, 3, . . . , n}, onde (i) = (i) para i = 2, . . . ,
n. Ambas possuem o mesmo nmero de inverses e, portanto, possuem o mesmo sinal.
Para estabelecer o sinal de uma permutao, as inverses de um ponto xo no precisam
ser contadas, uma vez que o nmero dessas inverses um nmero par. Logo, c
11
=
P

sign()a
2(2)
a
n(n)
o determinante de uma matriz que se obtm de A excluindo
a primeira linha e a primeira coluna. Denotamos este determinante por A
11
.
Em geral, vamos denotar por A
ij
o determinante da matriz obtida quando se elimina
a linha i e a coluna j de A.
Para determinar o termo c
12
faz-se o seguinte raciocnio: Permutando a primeira
coluna de A com a segunda, obtemos uma matriz B = (b
ij
) onde b
11
= a
12
e det(B) =
det(A). Desta igualdade segue b
11
B
11
+ = a
12
c
12
+ e, como a
12
= b
11
, se conclui
que c
12
= B
11
. O escalar B
11
o determinante da matriz obtida de B ao excluir sua
primeira linha e sua primeira coluna, que so a primeira linha e a segunda coluna de A.
Este determinante foi denotado por A
12
. Desta forma, c
12
= A
12
.
O termo c
13
pode ser obtido trazendo a terceira coluna para o lugar da primeira,
fazendo duas permutaes: basta trocar esta coluna sucessivamente com as que esto
sua esquerda at conduzi-la para a posio da primeira. Neste processo, o sinal do
determinante da matriz se modica duas vezes. O determinante da matriz nal igual
ao de A. Por um raciocnio anlogo ao anterior, conclui-se que c
13
= A
13
, onde A
13
o
determinante da matriz obtida ao eliminar a primeira linha e a terceira coluna de A.
Prosseguindo com o raciocnio anterior, chega-se ao desenvolvimento
det(A) = a
11
c
11
+a
12
c
12
+a
13
c
13
+ +a
1n
c
1n
onde c
1j
= (1)
1j
A
1j
o cofator de a
1j
e A
1j
o determinante da matriz obtida ao eliminar
a linha 1 e a coluna j de A. Esta frmula desenvolve o determinante pela primeira linha
e conhecida por desenvolvimento do determinante pela primeira linha.
De modo semelhante, podemos desenvolver o determinante pela linha i, usando o
argumento seguinte. O determinante de A a soma de diversas parcelas, cada uma com n
fatores. Dentre os fatores de uma parcela do determinante h um nico elemento da linha
i. Aquelas parcelas que possuem como fator um elemento da linha i coluna j, no contm
como fator outro elemento da linha i nem outro elemento da coluna j. Nas parcelas que
possuem o fator a
ij
, vamos coloc-lo em evidncia. Denotemos por c
ij
o termo que ca
multiplicado por a
ij
e vamos cham-lo de cofator de a
ij
. Assim,
det(A) = a
ij
c
ij
+ ,
176 Notas de aula do Prof. Antonio Cndido Faleiros
onde os trs pontos se referem s parcelas que contm elementos da linha i e colunas
distintas da j. Mediante transposio de linhas e colunas, podemos transformar a matriz
A numa matriz B, onde o elemento a
ij
que posicionado na linha 1 coluna 1 de B.
Basta transpor i 1 vezes a linha i com as que esto acima, at posicion-la no topo da
matriz. Em seguida, mediante j 1 transposies da coluna j com as que esto sua
esquerda, coloca-se o elemento a
ij
na primeira posio da matriz. A cada transposio, o
determinante muda de sinal. Como h um total de (i1)+(j 1) transposies, det(A) =
(1)
(i1)+(j1)
det(B) = (1)
i+j
det(B). O determinante de B possuir parcelas onde um
dos fatores o a
ij
. Como a
ij
ocupa a primeira linha primeira coluna de B, sabemos de
antemo que det(B) = a
ij
c
ij
+ onde c
ij
o determinante de uma matriz obtida de B
pela eliminao de sua linha 1 coluna 1. Ora, a matriz obtida ao eliminar a linha 1 coluna
1 de B igual matriz obtida ao eliminar a linha i coluna j de A. Assim, det(A) =
(1)
i+j
a
ij
det A
ij
, onde A
ij
a matriz obtida de A retirando sua linha i e sua coluna j,
chamada de menor (i, j) de A. Provamos que o cofator de a
ij
no desenvolvimento do
det(A) c
ij
= (1)
i+j
det A
ij
.
Na soma que dene o determinante de A, podemos colocar em evidncia os elementos
a
i1
, a
i2
, . . . , a
in
. A parcela que contm um desses fatores no conter os demais. Cada
um deles ser multiplicado pelo seu cofator e assim
det(A) = a
i1
c
i1
+a
i2
c
i2
+a
i3
c
i3
+ +a
in
c
in
onde c
ij
= (1)
i+j
det A(i, j) o cofator de a
ij
. Como os elementos a
i1
, a
i2
, . . . , a
in
so
todos da linha i, a frmula acima conhecida por desenvolvimento do determinante pela
linha i.
Um argumento semelhante nos permite desenvolver o determinante pela coluna j.
Obtemos ento o desenvolvimento do determinante pela coluna j
det(A) = a
1j
c
1j
+a
2j
c
2j
+a
3j
c
3j
+ +a
nj
c
nj
Um modo prtico de utilizar estas frmulas consiste em aplicar transformaes ele-
mentares sobre a matriz zerando o maior nmero de elementos de uma linha ou de uma
coluna e usar as frmulas acima para reduzir o determinante original a uma soma de
outros envolvendo matrizes de ordem n 1. Este processo pode ser utilizado mais de
uma vez reduzindo sucessivamente a ordem das matrizes cujos determinantes precisam
ser calculados.
Denio B.22 Seja A uma matriz quadrada de ordem n. A matriz cujo elemento da
linha i coluna j c
ji
(observe a ordem dos ndices em que primeiro vem o j e depois o i)
chamada de matriz adjunta clssica de A e denotada por adj(A).
Teorema B.23 Se A for inversvel, ento A adj(A) = adj(A) A = det(A) I.
Prova. Provamos que
X
j
a
ij
c
ij
= det(A).
Notas de aula do Prof. Antonio Cndido Faleiros 177
Se i for diferente de k,
P
j
a
kj
c
ij
corresponderia ao determinante de uma matriz em que
a linha i foi substituda pela linha k. As linhas i e k desta matriz seriam iguais e seu
determinante seria igual a zero. Portanto, para i 6= k,
X
j
a
kj
c
ij
= 0.
Podemos usar o delta de Kronecker para unicar estas duas expresses em destaque
X
j
a
kj
c
ij
=
ik
det(A).
Ora, o lado esquerdo desta expresso o elemento da linha k coluna i da matriz A adj(A)
e o lado direito o elemento da linha k coluna i da matriz det(A) I, provando que
A adj(A) = det(A) I.
O lado esquerdo da expresso tambm o elemento da linha i coluna k da matriz
adj(A) A e o lado direito o elemento da linha i coluna k da matriz det(A) I, provando
que adj(A) A = det(A) I.
B.4 Regra de Cramer
Consideremos um sistema de n equaes com n incgnitas
n
X
j=1
a
ij
x
j
= b
i
,
para i = 1, 2, . . . , n. Se a matriz A = (a
ij
) for inversvel, o sistema possui soluo nica.
O mtodo de Cramer fornece um meio de resolver o sistema usando determinantes. Ele
pouco eciente e usado apenas para sistemas pequenos.
Sendo c
ij
os cofatores de a
ij
ento
P
i
a
ij
c
ik
=
jk
det(A)
n
X
i=1
c
ik
b
i
=
n
X
i=1
c
ik

n
X
j=1
a
ij
x
j
!
=
n
X
j=1

n
X
i=1
a
ij
c
ik
!
x
j
=
n
X
j=1
det(A)
jk
x
j
= det(A)x
k
Dividindo pelo det(A) segue
x
k
=
P
n
i=1
c
ik
b
i
det(A)
=

k
det(A)
,
onde
k
=
P
n
i=1
c
ik
b
i
o determinante de uma matriz obtida de A, trocando-se sua coluna
k por b

k
= det
_

_
a
11
a
1,k1
b
1
a
1,k+1
a
1n
a
21
a
2,k1
b
2
a
2,k+1
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n,k1
b
n
a
n,k+1
a
nn
_

_
178 Notas de aula do Prof. Antonio Cndido Faleiros
B.5 Determinante de Vandermonde
Sejam x
1
, . . . , x
n
nmeros reais. O nmero real
V
n
(x
1
, x
2
, . . . , x
n
) = det
_

_
1 x
1
x
2
1
x
n1
1
1 x
2
x
2
2
x
n1
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
x
n1
n
_

_
chamado de determinante de Vandermonde. Vamos mostrar que
V
n
(x
1
, . . . , x
n
) = (x
n
x
1
)(x
n
x
2
) (x
n
x
n1
).
Desenvolvendo V
n
(x
1
, . . . , x
n
) pela ltima linha, vemos que o cofator de x
n1
n
que
igual ao determinante de Vandermonde de ordem inferior
= V
n1
(x
1
, . . . , x
n1
).
Calculando os determinantes de Vandermonde para n = 2 e n = 3, obtemos V
2
(x
1
, x
2
) =
x
2
x
1
e V
3
(x
1
, x
2
, x
3
) = V
2
(x
1,
x
2
)(x
3
x
1
)(x
3
x
2
) = (x
2
x
1
) (x
3
x
1
)(x
3
x
2
).
Vamos provar por induo que
V
n
(x
1
, . . . , x
n
) =
Y
i<j
(x
j
x
i
),
adotando como hiptese de induo a validade de
V
n1
(x
1
, . . . , x
n1
) =
Y
i<j<n
(x
j
x
i
).
Da,
V
n
(x
1
, . . . , x
n
) = V
n1
(x
1
, . . . , x
n1
)
Y
i<n
(x
n
x
i
)
=
Y
i<j<n
(x
j
x
i
)
Y
i<n
(x
n
x
i
)
=
Y
i<j
(x
j
x
i
)
Esta igualdade vale mesmo quando os x
i
no forem distintos dois a dois, caso em que o
determinante de Vandermonde nulo.
Trocando o nmero x
n
pela varivel x, V
n
(x
1
, . . . , x
n1
, x) se torna um polinmio em
x de grau n 1 que possui x
1
, . . . , x
n1
como razes. Assim,
V
n
(x
1
, . . . , x
n1
, x) = (x x
1
)(x x
2
) (x x
n1
),
onde um nmero real que no depende de x.
Notas de aula do Prof. Antonio Cndido Faleiros 179
B.6 Determinante, uma denio alternativa
Seja A = (a
ij
) uma matriz m n e v
1
= (a
1j
) , v
2
= (a
2j
) . . . , v
n
= (a
nj
) suas colunas.
Usaremos a notao [v
1
, . . . , v
n
] para designar a matriz A. O determinante de A o
nmero real denotado por det(A) ou det A com as propriedades abaixo.
1. Multilinearidade
det[. . . , v
i
+w
i
, . . .] = det[. . . , v
i
, . . .] + det[. . . , w
i
, , . . .]
2. Alternatividade
det[. . . , v
i
, . . . , v
j
, . . .] = det[. . . , v
j
, . . . , v
i
, . . .].
3. Normalizao
det I = det[e
1
, . . . , e
n
] = 1,
onde I a matriz identidade de ordem n e e
j
= (0, . . . , 0, 1, 0, . . . , 0)
T
a matriz
coluna n 1 cujo nico elemento no nulo o da linha j, que igual a 1.
Pela alternatividade, se uma coluna da matriz for nula ou se duas colunas forem iguais,
seu determinante nulo. Agora, usando a multilinearidade e a observao acima, se for
um escalar,
det(. . . , v
i
, . . . , v
j
+v
i
, . . .) = det(. . . , v
i
, . . . , v
j
, . . .).
Da ca evidente que, se uma coluna for uma combinao linear das demais, ento seu
determinante nulo. Se for uma permutao de {1, 2, . . . , n} ento a alternatividade
garante que
det[e
(1)
, e
(2)
, . . . , e
(n)
] = sign()
pois a cada inverso de colunas h uma troca de sinal. Observando que v
j
=
P
n
i
j
=1
a
i
j
j
e
i
j
obtemos
det(A) =
X
i
1
X
i
2

X
i
n
a
i
1
1
a
i
2
2
a
inn
det[e
i
1
, e
i
2
, . . . , e
in
].
Se dois ndices em det[e
i
1
, e
i
2
, . . . , e
i
n
] forem iguais, o determinante nulo. Logo, as
parcelas no nulas so aquelas em que {i
1
, i
2
, . . . , i
n
} for uma permutao de {1, 2,
. . . , n} e assim,
det(A) =
X
i
1
X
i
2

X
i
n
sign(i
1
, i
2
, . . . , i
n
)a
i
1
1
a
i
2
2
a
inn
=
X

sign()a
(1)1
a
(2)2
a
(n)n
onde o somatrio percorre todas as permutao de {1, 2, . . . , n}. Esta exatamente
a denio anterior. A frmula acima ainda indica que as trs propriedades enumeradas
na denio de determinante so sucientes para garantir a existncia e unicidade do
determinante.
180 Notas de aula do Prof. Antonio Cndido Faleiros
Referncias Bibliogrcas
[CaDoCo] Callioli, C.A., Domingues, H.H., e Costa R.C.F., lgebra Linear e Aplicaes.
Editora Atual.
[Franklin] Joel N. Franklin, Matrix Theory, Dover publications, Inc., 1993.
[Homan] Homann & Kunze, lgebra Linear. Editora da USP com Editora Polgono.
[Kolman] Bernard Kolman, Introduo lgebra Linear com Aplicaes, sexta edio.
Editora LTC, 1998.
[Lang] Serge Lang, lgebra Linear. Editora Edgard Blcher.
[Lawson] Terry Lawson, lgebra Linear. Editora Edgard Blcher, 1997. Acompanham
este livro: Matlab Labs for Linear Algebra, Mathematica Labs for Linear
Algebra, Maple Labs for Linear Algebra.
[Lipschutz] Seymour Lipschutz, lgebra Linear. Coleo Schaum. Makron Books.
[Nering] Evar D. Nering, Linear Algebra and Matrix Theory. John Wiley & Sons, 1970.
[Nicholson] W. Keith Nicholson, lgebra Linear, segunda ed. McGraw-Hill, 2004.
[NobDan] Ben Noble & James W. Daniel, lgebra Linear Aplicada. Guanabara Koogan.
[Poole] David Poole (Foi traduzido), Linear Algebra: A Modern Introduction (with
CD-ROM) 2ed. Brooks Cole 2005.
[RoHo] Chris Rorres e Howard Anton, lgebra Linear com Aplicaes, oitava edio.
Editora Bookman, 2001.
[TrefBau] Lloyd N. Trefethen and David Bau III, Numerical Linear Algebra. SIAM,
Society for Industrial and Applied Mathematics, 1997.
181

You might also like