CURSO DE

Álgebra Linear Aplicada
Antonio Cândido Faleiros
Centro de Matemática, Computação e Cognição
Universidade Federal do ABC
Santo André, SP
6 de abril de 2009
Sumário
1 Equações lineares 1
1.1 Equação algébrica linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Sistemas de equações algébricas lineares . . . . . . . . . . . . . . . . . . . 4
1.4 Sistema escalonado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Sistema inferiormente escalonado . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 O método da eliminação de Gauss . . . . . . . . . . . . . . . . . . . . . . . 11
1.8 Matrizes inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9 Matrizes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.10 Cálculo da inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.11 Fatoração LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.12 Decomposição PLU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.13 Decomposição de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Espaço vetorial 33
2.1 Conceito de espaço vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Dependência linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Base e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4 Matriz de mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.5 Subespaço vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.6 Subespaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3 Transformação linear 49
3.1 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Isomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3 Transformações lineares em C
m×1
. . . . . . . . . . . . . . . . . . . . . . . 60
4 Produto interno e norma 61
4.1 Produto interno em espaços vetoriais reais . . . . . . . . . . . . . . . . . . 61
4.2 Produto interno em espaços vetoriais complexos . . . . . . . . . . . . . . . 62
4.3 Funcional linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
i
ii Notas de aula do Prof. Antonio Cândido Faleiros
4.5 Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 68
4.6 Decomposição QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5 Soma de subespaços 77
5.1 Soma direta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.2 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6 Transformação adjunta 81
6.1 Posto de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Existência de solução dos sistemas lineares . . . . . . . . . . . . . . . . . . 87
7 Projetores 89
7.1 Projetores ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Projetores ortogonais em C
m×1
. . . . . . . . . . . . . . . . . . . . . . . . 92
7.3 Ortogonalização de Gram-Schmidt em C
m×1
. . . . . . . . . . . . . . . . . 94
7.4 Ortogonalização modificada de Gram-Schmidt . . . . . . . . . . . . . . . . 95
7.5 Contagem das operações . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8 Refletor de Householder 99
8.1 Decomposição QR usando o refletor de Householder . . . . . . . . . . . . . 101
8.2 O algoritmo para calcular R . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.3 Contagem das operações . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8.4 O algoritmo para calcular Q

. . . . . . . . . . . . . . . . . . . . . . . . . 104
8.5 O algoritmo para calcular Q . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9 Mínimos quadrados 107
9.1 Mínimos quadrados e a decomposição QR . . . . . . . . . . . . . . . . . . 109
9.2 Pseudo inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
9.3 Reta de regressão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
9.4 Interpolação polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
9.5 Ajuste polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
9.6 Aproximação polinomial de funções . . . . . . . . . . . . . . . . . . . . . . 112
9.7 Aproximação trigonométrica . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10 Autovalores e autovetores 115
11 Espaços Invariantes 123
11.1 Polinômio mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.2 Matrizes em bloco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
11.3 Decomposição primária . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.4 Diagonalização de operadores normais . . . . . . . . . . . . . . . . . . . . . 135
11.5 Decomposição de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
11.6 Decomposição em valores singulares . . . . . . . . . . . . . . . . . . . . . . 141
Notas de aula do Prof. Antonio Cândido Faleiros iii
12 Forma canônica de Jordan 147
12.1 Operadores nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
12.2 Forma canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
12.3 Subespaços cíclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
12.4 Forma canônica racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
12.5 Forma triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
12.6 Espaços quocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
13 Aplicações 159
A Matrizes 161
A.1 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
A.2 Multiplicação de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
A.3 Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
A.4 Operações elementares e matrizes elementares . . . . . . . . . . . . . . . . 166
B Determinante 169
B.1 Permutação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
B.2 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
B.3 Cofator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
B.4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
B.5 Determinante de Vandermonde . . . . . . . . . . . . . . . . . . . . . . . . 178
B.6 Determinante, uma definição alternativa . . . . . . . . . . . . . . . . . . . 179
iv Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 1
Equações lineares
1.1 Equação algébrica linear
Uma equação algébrica linear típica nas variáveis x
1
, x
2
e x
3
é
x
1
+ 2x
2
−3x
3
= 5.
Resolvê-la significa determinar todos os valores reais para x
1
, x
2
e x
3
que tornam ver-
dadeira a igualdade. Neste caso, explicitando x
1
em relação a x
2
e x
3
na equação, obte-
mos x
1
= 5− 2x
2
+ 3x
3
. Para qualquer x
2
e x
3
reais, basta tomar x
1
= 5− 2x
2
+ 3x
3
para
obter uma solução. Neste exemplo, temos uma infinidade de soluções, onde podemos
variar livremente x
2
e x
3
.
De modo geral, dados os números reais a
1
, . . . , a
n
e b, uma equação da forma
a
1
x
1
+ · · · +a
n
x
n
= b (1.1)
é chamada de equação algébrica linear nas variáveis x
1
, x
2
, . . . , x
n
. As variáveis
também são chamadas de incógnitas por serem os valores a serem determinados para
valer a igualdade. Os números reais a
i
são chamados de coeficientes e b é a constante da
equação. A primeira incógnita com coeficiente não nulo é chamada de variável principal
ou incógnita principal e as demais são chamadas de variáveis livres.
Uma matriz coluna real v = [v
1
, . . . , v
n
]
T
é solução desta equação quando
a
1
v
1
+ · · · +a
n
v
n
= b.
Diz-se ainda que a ênupla de números reais (v
1
, . . . , v
n
) satisfaz a equação.
Uma equação
0x
1
+ · · · + 0x
n
= b,
em que todos os coeficientes são nulos é degenerada. Se b for igual a zero, então toda
matriz coluna [x
1
, . . . , x
n
]
T
é solução. Se b for diferente de zero, a equação degenerada
não possui solução.
As equações não degeneradas com duas ou mais variáveis possui infinitas soluções.
Uma equação não degenerado com uma única variável possui uma única solução.
1
2 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 1.1 Para todo s real, a matriz coluna [7 +3s, 2s]
T
é solução de 2x
1
−3x
2
= 8
que, portanto, possui infinitas soluções. A variável s que aparece neste exemplo é chamado
de parâmetro.
O conjunto de todas as soluções de uma equação é chamado conjunto solução ou
solução geral. Cada elemento deste conjunto é, evidentemente, uma solução e, quando
for conveniente, será chamado de solução particular.
Para determinar a solução geral de uma equação não degenerada a
1
x
1
+ · · · + a
n
x
n
=
b basta explicitar a incógnita principal em função das variáveis livres.
Exemplo 1.2 Para obter a solução geral de x
1
− 7x
2
+ x
3
= 1, basta explicitar x
1
para
obter x
1
= 1+ 7x
2
− x
3
. A solução geral é o conjunto de matrizes coluna
_
_
x
1
x
2
x
3
_
_
=
_
_
1 + 7x
2
−x
3
x
2
x
3
_
_
=
_
_
1
0
0
_
_
+x
2
_
_
7
1
0
_
_
+x
3
_
_
−1
0
1
_
_
.
A equação
a
1
x
1
+ · · · +a
n
x
n
= 0
é denominada de equação homogênea. Ela está associada à equação não homogênea
(1.1) e, por esse motivo, é chamada de equação homogênea associada à equação não
homogênea
a
1
x
1
+ · · · +a
n
x
n
= b.
O uso de matrizes pode simplificar a notação. Sendo a = [a
1
, . . . , a
n
]
T
a matriz dos
coeficientes e x = [x
1
, . . . , x
n
]
T
a matriz das variáveis, a equação acima pode ser
colocada na forma
a
T
x = b.
Exemplo 1.3 Consideremos novamente a equação do exemplo anterior x
1
− 7x
2
+ x
3
=
1, cuja solução geral é
_
_
x
1
x
2
x
3
_
_
=
_
_
1 + 7x
2
−x
3
x
2
x
3
_
_
=
_
_
1
0
0
_
_
+x
2
_
_
7
1
0
_
_
+x
3
_
_
−1
0
1
_
_
.
É interessante observar que [1, 0, 0]
T
é solução da equação e que tanto [7, 1, 0]
T
quanto
[−1, 0, 1]
T
são soluções da equação homogênea associada.
Este exemplo apresenta um fato geral.
Se v
1
, . . . , v
p
forem soluções da equação homogênea a
T
x = 0, então
c
1
v
1
+ · · · +c
p
v
p
continua sendo solução, para qualquer escolha dos números reais c
1
, . . . , c
n
. Esta soma é
chamada de combinação linear das matrizes v
1
, . . . , v
p
.
Se um conjunto {v
1
, . . . , v
p
} de soluções da equação homogênea for tal que toda
solução da equação homogênea é uma combinação linear dos seus elementos, diremos que
ele é um conjunto gerador das soluções da equação homogênea.
Notas de aula do Prof. Antonio Cândido Faleiros 3
Exemplo 1.4 Explicitando x
1
na equação x
1
−3x
2
+x
3
= 0, obtemos x
1
= 3x
2
− x
3
para
daí obter todas as soluções desta equação
_
_
x
1
x
2
x
3
_
_
=
_
_
3x
2
−x
3
x
2
x
3
_
_
= x
2
_
_
3
1
0
_
_
+x
3
_
_
−1
0
1
_
_
.
Portanto, [3, 1, 0]
T
e [−1, 0, 1]
T
formam um conjunto gerador de soluções para a equação
dada.
Se w
0
for uma solução da equação não homogênea a
T
x = b e v for uma solução da
equação homogênea Ax = 0, então w
0
+ v é solução da equação não homogênea. Além
disso, se w
1
for outra solução de Ax = b, então existe uma solução u de Ax = 0 tal que
w
1
= w
0
+ u. Esta solução u é exatamente w
1
− w
0
.
Do parágrafo acima tiramos uma lição muito interessante. Conhecendo todas as
soluções da homogênea e uma única solução da não homogênea, conheceremos todas
as soluções da não homogênea.
1.2 Produto escalar
O produto matricial a
T
x é denominado de produto escalar das matrizes coluna a e x,
sendo denotado por ha, xi , isto é,
ha, xi = a
T
x.
Este conceito de produto escalar é importante e voltaremos a ele posteriormente.
Propriedades do produto escalar
Se x, y, z forem vetores coluna e k um número real,
1. hx, xi ≥ 0 e hx, xi = 0 se e só se x = 0.
2. hx, yi = hy, xi
3. hx, y +zi = hx, yi + hx, zi
4. hx, kyi = k hx, yi
Usando o produto escalar, a equação (1.1) assume a forma
ha, xi = b.
4 Notas de aula do Prof. Antonio Cândido Faleiros
1.3 Sistemas de equações algébricas lineares
Um sistema de equações como
3x
1
−2x
2
= 6
x
1
+x
2
= 7
é um sistema de equações algébricas lineares. Nos problemas onde estes sistemas ocorrem,
o interesse se volta para a determinação dos valores de x
1
e x
2
que tornam verdadeiras
as duas igualdades. Neste exemplo, para determiná-los, pode-se, por exemplo explicitar
x
1
na segunda equação x
1
= 7− x
2
, substituir esta expressão no lugar de x
1
na primeira
equação 3(7 − x
2
)− 2x
2
= 6 e expliciar x
2
obtendo x
2
= 3. Substituindo este valor na
expressão de x
1
em função de x
2
obtemos x
1
= 7− x
2
= 7− 3 = 4. Portanto os valores
de x
1
e x
2
que tornam verdadeiras as duas igualdades do sistema são x
1
= 4 e x
2
= 3.
Dados os números reais a
ij
e b
i
, com i = 1, . . . , m e j = 1, . . . , n, o sistema de equações
a
11
x
1
+ · · · +a
1n
x
n
= b
1
· · · = · · ·
a
m1
x
1
+ · · · +a
mn
x
n
= b
m
é chamado de sistema de equações algébricas lineares comm equações e n incógnitas.
Os números a
ij
são denominados coeficientes do sistema, b
i
são os termos constantes
e x
j
são as incógnitas ou variáveis do sistema. Esta forma de apresentar o sistema é
denominada de forma padrão.
Podemos simplificar a notação usando matrizes. Em
A =
_
¸
_
a
11
· · · a
1n
.
.
.
.
.
.
.
.
.
a
m1
· · · a
mn
_
¸
_
, x =
_
¸
_
x
1
.
.
.
x
n
_
¸
_
e b =
_
¸
_
b
1
.
.
.
b
n
_
¸
_
,
denominamos A de matriz dos coeficientes, x de matriz das incógnitas e b de matriz
dos termos constantes do sistema. Na forma matricial, o sistema se reduz a
Ax = b.
A matriz [A | b] obtida acrescentando-se à matriz A uma coluna final com os elementos
de b, é chamada de matriz aumentada do sistema linear.
Um vetor coluna real w tal que Aw = b é chamado de solução do sistema Ax = b.
Isto significa que w é solução de cada equação do sistema. Um sistema como este pode
ter ou não uma solução.
Exemplo 1.5 O sistema
·
1 2
0 0
¸ ·
x
1
x
2
¸
=
·
3
1
¸
Notas de aula do Prof. Antonio Cândido Faleiros 5
não possui solução pois não existem x
1
e x
2
que tornam verdadeira a segunda equação. A
segunda equação do sistema é degenerada e seu segundo membro é diferente de zero.
O sistema
·
1 2
0 1
¸ ·
x
1
x
2
¸
=
·
4
1
¸
possui uma única solução x
1
= 2 e x
2
= 1. Para obtê-la, basta observar que, da segunda
equação x
2
= 1 e, da primeira, x
1
+ 2x
2
= 4. Como x
2
= 1, devemos ter x
1
= 2.
O sistema
·
1 2
2 4
¸ ·
x
1
x
2
¸
=
·
3
6
¸
possui infinitas soluções. De fato, explicitano x
1
na primira equação segue x
1
= 3− 2x
2
.
Substituindo esta expressão na segunda vem 2(3− 2x
2
)+4x
2
= 6 que se simplifica em 6 =
6, ou seja, é sempre satisfeita. Logo, qualquer matrix coluna [x
1
, x
2
]
T
= [3− 2x
2
, x
2
]
T
é
uma solução do sistema. A variável x
2
pode variar livremente nos reais.
O conjunto de todas as soluções do sistema é chamado de conjunto solução ou
solução geral do sistema. Este conjunto pode ser vazio, ter um único elemento ou
possuir infinitos elementos. O sistema de equações que não possui solução é chamado
incompatível. Quando possui uma única solução é compatível determinado e, quando
possui infinitas soluções, é chamado de compatível indeterminado.
O sistema de equações Ax = 0 é chamado de homogêneo. Quando b 6= 0, o sistema
de equações Ax = b é chamado de não homogêneo. Um sistema está intimamente
ligado ao outro e, por esta razão, Ax = 0 é chamado de sistema homogêneo de equações
associado ao sistema Ax = b.
A equação homogênea Ax = 0 possui sempre a solução trivial x = 0. Entretanto,
quando o sistema homogêneo Ax = 0 possui uma solução v não trivial, ela possuirá
infinitas soluções pois cv será solução para qualquer número real c.
Podemos ir um pouco além. Se v
1
, . . . , v
p
forem soluções do sistema homogêneo Ax =
0, então
c
1
v
1
+ · · · +c
p
v
p
ainda será uma solução do sistema homogêneo para qualquer escolha dos números reais
c
1
, . . . , c
n
. A soma acima é chamada de combinação linear dos vetores {v
1
, . . . , v
p
}.
Se toda solução de Ax = 0 for uma combinação linear dos elementos deste conjunto, ele
será chamado de conjunto gerador das soluções do sistema homogêneo Ax = 0.
Se v for uma solução de Ax = 0 e w
0
for uma solução de Ax = b, então w
0
+ v é
solução de Ax = b. Se w
1
for outra solução de Ax = b, diferente de w
0
, então u = w
1

w
0
é solução de Ax = 0. Logo, qualquer solução w
1
do sistema Ax = b é da forma w
1
=
w
0
+ u onde u é solução da equação homogênea Ax = 0. Em outras palavras, conhecida
uma solução w
0
de Ax = b, outra solução w
1
deste sistema é da forma w
1
= w
0
+ u, onde
u é solução do sistema homogêneo Ax = 0.
Ao conhecer uma única solução do sistema não homogêneo Ax = b e a solução geral
do sistema homogêneo Ax = 0, se conhece a solução geral do sistema não homogêneo.
6 Notas de aula do Prof. Antonio Cândido Faleiros
O sistema não homogêneo Ax = b pode ter uma solução ou não. Se a única solução
do sistema homogêneo Ax = 0 for a trivial e Ax = b tiver uma solução, ela será única.
Quando Ax = 0 possuir solução não trivial e Ax = b possuir uma solução, então possuirá
infinitas outras.
Exemplo 1.6 Considere o sistema
·
1 −2 5
0 1 −6
¸
_
_
x
1
x
2
x
3
_
_
=
·
7
3
¸
.
Explicitando x
2
na segunda equação, x
2
= 3+ 6x
3
. Usando esta expressão de x
2
na
primeira equação e explicitando x
1
, segue x
1
= 13+ 7x
3
. Logo, toda solução deste sis-
tema é da forma
_
_
x
1
x
2
x
3
_
_
=
_
_
13
3
0
_
_
+x
3
_
_
7
6
1
_
_
Observe que [13, 3, 0]
T
é uma solução particular do sistema e [7, 6, 1]
T
é solução
do sistema homogêneo associado. O valor de x
3
poder variar livremente no conjunto dos
números reais.
No exemplo anterior, as variáveis x
1
e x
2
foram expressas em termos de x
3
. neste caso,
chamamos x
1
e x
2
de variáveis principais e x
3
é a variável livre.
1.4 Sistema escalonado
Uma matriz escalonada é aquela em que
1. Todas as linhas nulas estão abaixo das linhas não nulas.
2. Numa linha não nula, o primeiro elemento não nulo é igual a 1. Este elemento é
chamado de pivô ou líder da linha.
3. O pivô de uma linha está à direita do pivô da linha de cima.
Exemplo 1.7 A matriz
_
_
1 0 3 0
0 0 1 2
0 0 0 0
_
_
é escalonada.
Notas de aula do Prof. Antonio Cândido Faleiros 7
Um sistema Ax = b é escalonado quando a matriz A for escalonada. As variáveis que
multiplicam os pivôs são denominadas de variáveis principais e as demais de variáveis
livres ou parâmetros.
Achar as soluções de um sistema escalonado é bastante simples. Podem aparecer
equações degeneradas na parte inferior do sistema. Se uma dessas equações degeneradas
possuir segundo membro não nulo, o sistema não possui solução. Se todos os segundos
membros das equações degeneradas forem nulas, o sistema tem solução. Para obtê-las,
podemos desconsiderar as equações degeneradas.
Eliminadas as equações degeneradas, explicitamos as variáveis principais de cada linha
em função das demais, começando na última linha e retornando até a primeira. A partir
da penúltima equação use as variáveis principais já explicitadas para colocar a variável
principal daquela equação em termos das variáveis livres. Com este processo obtém-se
todas as variáveis principais em termos das variáveis livres. Esta técnica de solução é
denominada de substituição reversa.
Exemplo 1.8 O sistema
_
_
_
_
1 0 2 −1
0 1 3 5
0 0 0 1
0 0 0 0
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
−3
0
8
0
_
_
_
_
é escalonado. As variáveis x
1
, x
2
e x
4
são as variáveis prinicipais e x
3
é a variável
livre. A última equação é degenerada mas compatível pois o segundo membro também é
nulo. O sistema possui solução e esta última equação pode ser desconsidereda uma vez
que qualquer matriz coluna real [x
1
, x
2
, x
3
, x
3
]
T
é uma solução. Eliminada esta equação,
a terceira passa a ser a última, onde explicitamos x
4
= 8. Da segunda, explicitamos x
2
=
−3x
3
−5x
4
. Usando o valor de x
4
determinado na etapa anterior, obtemos x
2
= −3x
3
−40. Na primeira, explicitamos x
1
= −3 −2x
3
+x
4
. Usando o valor de x
4
determinado
anteriormente, obtemos x
1
= −3 −2x
3
+8 = 5 −2x
3
. Colocamos as três variáveis prin-
cipais x
1
, x
2
e x
4
em função da variável livre x
3
. A solução geral do sistema será
_
¸
¸
_
x
1
x
2
x
3
x
4
_
¸
¸
_
=
_
¸
¸
_
5 −2x
3
−40 −3x
3
x
3
8
_
¸
¸
_
=
_
¸
¸
_
5
−40
0
8
_
¸
¸
_
+x
3
_
¸
¸
_
−2
−3
1
0
_
¸
¸
_
onde a variável livre x
3
pode assumir qualquer valor real. É interessante observar que
[−2, −3, 1, 0]
T
é solução do sistema homogêneo associado Ax = 0.
Uma matriz A de tamanho m×n é escalonada reduzida se for escalonada e cada pivô
é o único elemento não nulo em sua coluna. Neste caso, o sistema Ax = b é denominado
de sistema escalonado reduzido.
8 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 1.9 O sistema
_
_
1 2 0 3
0 0 1 1
0 0 0 0
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
−3
0
0
_
_
é escalonado reduzido. As variáveis x
1
e x
3
são principais e x
2
e x
4
são livres. A última
equação é degenerada mas compatível. O método da substituição reversa nos fornece x
3
=
−x
4
e x
1
= −3 −2x
2
−3x
4
, onde as variáveis principais estão em função das variáveis
livres.
Algoritmo da substituição reversa
Este algoritmo resolve o sistema Rx = b pelo método da substituição reversa, onde R é
quadrada, inversível e triangular superior. Isto significa que
R =
_
¸
¸
¸
_
r
11
r
12
· · · r
1m
r
22
· · · r
2m
.
.
.
.
.
.
r
mm
_
¸
¸
¸
_
com r
ii
6= 0, para i = 1, . . . , m. Para resolver o sistema Rx = b, iniciamos explicitando
x
m
na última equação e, retornando até a primeira, explicitando as variáveis principais
de cada equação em função das variáveis determinadas nas etapas anteriores. Assim,
x
m
= b
m
/r
mm
x
m−1
= (b
m−1
−r
m−1,m
x
m
) /r
m−1,m−1
x
m−2
= (b
m−2
−r
m−2,m−1
x
m−1
−r
m−2,m
x
m
) /r
m−2,m−2
e assim por diante. O caso geral, em que j = m−1, m−2, . . . , 1, assume a forma
x
j
=
Ã
b
j

m
X
k=j+1
r
jk
x
k
!,
r
m−j,m−j
==================================
Entrada: Matriz R de tamanho m×m e matriz b de tamanho m× 1.
Saída: Matriz x de tamanho m× 1.
==================================
x = b ;
x(m) = b(m) / R(m,m);
for j = m-1:-1:1
x(j) = ( b(j) - R(j, j+1:m) * x(j+1:m) ) / R(j,j);
end
==================================
Notas de aula do Prof. Antonio Cândido Faleiros 9
1.5 Sistema inferiormente escalonado
Um procedimento semelhante pode ser adotado para matrizes m × n inferiormente
escalonadas, que são aquelas com as seguintes características:
1. Se existirem linhas nulas, elas se localizam na parte inferior da matriz.
2. O último elemento não nulo de uma linha é igual a 1, sendo denominado de pivô
ou lider da linha.
3. O pivô de uma linha se encontra à direita do pivô da linha anterior.
Quando A for escalonada inferiormente, o sistema Ax = b é chamado de sistema
inferiormente escalonado. As variáveis que multiplicam os pivôs são denominadas
de principais e as demais são denominadas livres. Se as equações degeneradas deste
sistema forem compatíveis, o sistema possui solução que pode ser obtida pelo processo de
substituição direta. Primeiro, descartam-se as equações degeneradas. Em seguida, a
partir da primeira equação, explicita-se a variável principal em função das variáveis livres.
A partir da segunda, prossiga até a última, explicitando a variável principal daquela
equação em função das demais, usando as expressões das variáveis principais obtidas
anteriormente para explicitar a variável principal em função das variáveis livres apenas.
Uma matriz A de tamanho m × n é inferiormente escalonada reduzida quando
for inferiormente escalonada e cada pivô for o único elemento não nulo em sua coluna.
Neste caso, o sistema Ax = b é denominado de sistema inferiormente escalonado
reduzido. Tais sistemas, quando compatíveis, são facilmente resolvidos pelo processo de
substituição direta.
Algoritmo da substituição direta
Este algoritmo resolve o sistema Rx = b pelo método da substituição reversa, onde R é
quadrada, inversível e triangular inferior. Isto significa que
R =
_
¸
¸
¸
_
r
11
r
21
r
22
.
.
.
.
.
.
r
m1
r
m2
· · · r
mm
_
¸
¸
¸
_
com r
ii
6= 0, para i = 1, . . . , m. Para resolver o sistema Rx = b, iniciamos explicitando
x
1
na primeira equação e, prosseguindo até a última, vamos explicitando as variáveis
principais de cada equação em função das variáveis determinadas nas etapas anteriores.
Assim,
x
1
= b
1
/r
11
x
2
= (b
2
−r
21
x
1
) /r
22
x
3
= (b
3
−r
31
x
1
−r
32
x
2
) /r
3,3
10 Notas de aula do Prof. Antonio Cândido Faleiros
e assim por diante. O caso geral, em que j = 2, 3, . . . , m, assume a forma
x
j
=
Ã
b
j

j−1
X
k=1
r
jk
x
k
!,
r
jj
Algoritmo da substituição direta
Este algoritmo resolve pelo método da substituição direta um sistema Rx = b, onde
R é uma matriz quadrada m×m, triangular inferior, inversível e b é uma matriz coluna
m× 1.
==================================
Entrada: Matrizes R e b.
Saída: Matriz x, solução dos sistema Rx = b.
==================================
x = b ;
x(1) = b(1) / R(1,1);
for j = 2:m
x(j) = ( b(j) - R(j, 1:j-1) * x(1:j-1) ) / R(j,j);
end
==================================
1.6 Sistemas equivalentes
Uma técnica muito usada para resolver sistemas de equações lineares consiste em realizar
transformações sobre o sistema original até se chegar a um sistema escalonado cuja solução
é simples. Para que esta técnica se torne efetiva, as transformações não podem alterar o
conjunto solução do sistema.
Definição 1.10 Dois sistemas Ax = b e Bx = c são equivalentes quando ambos pos-
suem o mesmo conjunto solução.
Existem operações, denominadas elementares que, ao serem aplicadas a um sistema,
preserva suas soluções, transformando-o em outro sistema equivalente. As operações ele-
mentares são:
1. Permutar a ordem de duas equações.
2. Multiplicar uma equação por uma constante não nula.
3. Adicionar a uma equação um múltiplo de outra.
Notas de aula do Prof. Antonio Cândido Faleiros 11
Num sistema de equações, podemos enumerá-las: equação 1, 2, . . . , m. Sejam i e j
números inteiros entre 1 e n.
O operação que permuta as equações i e j será denotada por O(l
i
↔l
j
), a operação que
multiplica a equação i por um número r não nulo será denotada por O(rl
i
) e a operação
que consiste em adicionar à equação i um múltiplo r de outra equação j será denotada
por O(l
i
+rl
j
).
As operações elementares são reversíveis. A operação O(l
i
↔ l
j
) pode ser revertida
aplicando novamente esta mesma operação. A operação O(rl
i
) pode ser revertida apli-
cando a operação O(r
−1
l
i
) e a operação O(l
i
+rl
j
) pode ser revertida aplicando a operação
O(l
i
−rl
j
).
Vamos mostrar que essas transformações levamo sistema original emoutro equivalente.
Façamos a prova para um caso particular que representa o caso geral.
Se [x
1
, x
2
, x
3
]
T
for uma solução do sistema
a
11
x
1
+a
12
x
2
+a
13
x
3
= b
1
a
21
x
1
+a
22
x
2
+a
23
x
3
= b
2
(1.2)
a
31
x
1
+a
32
x
2
+a
33
x
3
= b
3
e r for um número real, então vale ainda a igualdade
(a
11
+ra
21
)x
1
+ (a
12
+ra
22
)x
2
+ (a
13
+ra
23
)x
1
=
a
11
x
1
+a
12
x
2
+a
13
x
3
+r(a
21
x
1
+a
22
x
2
+a
23
x
3
) = b
1
+rb
2
mostrando que [x
1
, x
2
, x
3
]
T
é solução do sistema
(a
11
+ra
21
)x
1
+ (a
12
+ra
22
)x
2
+ (a
13
+ra
23
)x
1
= b
1
+rb
2
a
21
x
1
+a
22
x
2
+a
23
x
3
= b
2
(1.3)
a
31
x
1
+a
32
x
2
+a
33
x
3
= b
3
Isto significa que as soluções do sistema (1.2) são soluções do sistema (1.3) que foi obtido
do original a partir da transformação elementar O(l
1
+rl
2
). Logo, as soluções de (1.3) são
soluções de (1.2) pois esta pode ser obtida daquela pela operação O(l
1
−rl
2
). Concluímos
que os sistemas original e o transformado são equivalentes.
De modo semelhante se pode provar que as outras operações elementares transformam
um sistema em outro equivalente.
1.7 O método da eliminação de Gauss
O método de Gauss consiste em realisar operações elementares sobre linhas no sistema
Ax = b, transformando-o num sistema escalonado equivalente e resolvendo-o por substi-
tuição reversa.
Como a matriz A dos coeficientes e a matriz b das constantes contêm todas as in-
formações necessárias para montar o sistema, vamos considerar a matriz completa do
12 Notas de aula do Prof. Antonio Cândido Faleiros
sistema, obtida ao acrescentar a coluna b à direita de A. Esta matriz será denotada por
[A b]. A realização de operações elementares sobre as equações é equivalente à realização
de operações elementares sobre as linhas da matriz completa.
Vamos escreve A → R quando for possível levar A em R efetuando operações ele-
mentares sobre as linhas de A. Se R for escalonada, diremos que ela é a forma escalonada
de A. Se R for escalonada reduzida, diremos que ela é a forma escalonada reduzida
de A. Pode-se provar que a forma escalonada reduzida de uma matriz é única.
O processo de Gauss para resolver um sistema Ax = b é descrito pelo algoritmo abaixo,
realizado sobre a matriz completa [A b].
Passo 1. Se A = 0, encerre o algoritmo. O sistema já é escalonado.
Passo 2. Percorra as colunas da matriz completa [A b] da esquerda para a direita,
localizando a primeira não nula.
Passo 3. Percorra esta coluna de cima para baixo, localizando seu primeiro elemento
não nulo. Seja p o valor deste elemento.
Passo 4. Permute esta linha com a primeira.
Passo 5. Multiplique a atual primeira linha por p
−1
, fazendo com que o primeiro
elemento não nulo da primeira linha fique igual a 1. Este será o pivô da primeira linha.
A partir deste ponto, a primeira linha não sofrerá outras modificações.
Passo 6. Passe à segunda linha, tranformando-a na primeira da próxima etapa.
Passo 7. Repita os passos de 1 a 6 com todas as linhas restantes.
Com este algoritmo, partimos da matriz [A b] e chegamos à matriz [R c], onde R é a
forma escalonada de A. O sistema Rx = c é equivalente ao original.
Se existirem equações degeneradas incompatíveis no sistema Rx = c, então o sistema
Ax = b não tem solução.
Se todas as equações degeneradas de Rx = c forem compatíveis, o sistema Ax = b
tem solução. Exclua as equações degeneradas e use a substituição reversa para obter as
soluções do sistema euqivalente Rx = c. Estas soluções possuirão a forma
x = w
0
+c
1
v
1
+ · · · +c
r
v
r
onde w
0
é uma solução de Rx = c e v
1
, . . . , v
r
são soluções do sistema homogêneo associado
Rx = 0. Os números reais c
i
são arbitrários e relacionados com as variáveis livres. Os
números reais c
1
, . . . , c
r
são denominados de parâmetros.
O número de pivôs de R é igual ao número de linhas não nulas de R. Se existirem k
pivôs, este será o número de variáveis principais do sistema. Se o número de incógnitas
do sistema for n, o número de variáveis livres será n −k.
Se R for escalonada e A pode ser levada em R por transformações elementares, o
número de pivôs de R é chamado de posto da matriz A.
Exemplo 1.11 Considere o sistema
x +y −2z = 0
2x + 2y −3z = 2
3x −y + 2z = 12
Notas de aula do Prof. Antonio Cândido Faleiros 13
cuja matriz aumentada é
_
_
1 1 −2 0
2 2 −3 2
3 −1 2 12
_
_
Realizando as operações O(l
2
= l
2
−2l
1
) e O(l
3
= l
3
−3l
1
) sobre a matriz chegamos em
_
_
1 1 −2 0
0 0 1 2
0 −4 8 12
_
_
.
Realizando a operação O(l
2
↔l
3
) segue
_
_
1 1 −2 0
0 −4 8 12
0 0 1 2
_
_
que é uma matriz diagonal superior. Encerramos a primeira etapa do método de elimi-
nação de Gauss.
Para completar o método, caminhando de baixo para cima e da esquerda para a direita,
anulamos os elementos nas colunas acima da diagonal principal. Com as operações O(l
2
=
l
2
−8l
3
) e O(l
1
= l
1
+ 2l
3
), obtemos
_
_
1 1 0 4
0 −4 0 −4
0 0 1 2
_
_
Com as operações O(l
2
= −(1/4)l
2
) seguida de O(l
1
= l
1
−l
2
) chegamos à matriz
_
_
1 0 0 3
0 1 0 1
0 0 1 2
_
_
A matriz A foi transformada até se tornar uma matriz identidade. Agora, obter a solução
do problema é trivial x = 3, y = 1 e z = 2.
1.8 Matrizes inversas
Uma matriz quadrada A de tamanho m × m é inversível quando existir uma matriz
quadrada B de tamanho m × m tal que AB = BA = I
m
onde I
m
é a matriz identidade
de ordem m. A matriz B é chamada de inversa de A e é denotada por A
−1
.
Pela própria definição, a matriz B também é inversível e sua inversa é A. Assim, B
−1
=
A e
¡
A
−1
¢
−1
= A.
Se A e B forem inversíveis, então AB são inversíveis e (AB)
−1
= B
−1
A
−1
. Se uma
matriz for triangular inferior, sua inversa também será triangular inferior e, quando ela
for triangular superior, sua inversa também será triangular superior.
14 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 1.12 Seja A uma matriz quadrada. São equivalentes as afirmações:
1. A é inversível.
2. O sistema homogêneo Ax = 0 possui apenas a solução trivial x = 0.
3. A forma escalonada reduzida de A é a matriz identidade.
4. O sistema Ax = b possui uma única solução para cada matriz coluna b.
5. Existe uma matriz quadrada B tal que AB = I.
Prova. (1) =⇒ (2) pois, se A é inversível e Ax = 0, então A
−1
Ax = 0 o que implica
em x = 0.
(2) =⇒ (3) pois, se a forma escalonada reduzida R de A não for a matriz identidade,
uma de suas linhas é nula pois R é quadrada. Portanto, Rx = 0 tem soluções não nulas.
Se este fosse o caso, o sistema Ax = 0 teria soluções não nulas, contrariando (2).
(3) =⇒ (4) pois, se A → I então o sistema Ax = b é equivalente ao sistema Ix = c,
para alguma matriz coluna c, cuja solução é x = c, mostrando que o sistema Ax = b tem
sempre uma única solução para cada b.
(4) =⇒ (5) pois, sendo e
j
a coluna j da matriz identidade I, o sistema Ax = e
j
tem
uma única solução x = b
j
para j = 1, 2, . . . , n. Sendo B = [b
1
, . . . , b
n
], obtemos AB = I.
(5) =⇒ (1) pois, se AB = I e Bx = 0, então ABx = 0 ou Ix = 0 o que implica em
x = 0. Logo, a condição (2) vale para B no lugar de A e, consequentemente, valem (3)
e (4) com B no lugar de A. Logo, pela parte (5), existe uma matriz C tal que BC = I.
Como C = IC = (AB)C = A(BC) = A, obtemos BA = I. Como AB = I por hipótese,
provamos que A é inversível. ¤
Corolário 1.13 Sejam A e B matrizes quadradas m×m. Se AB = I, então A e B são
inversíveis e uma é a inversa da outra.
Prova. Se AB = I, provamos que A é inversível e que B é a inversa de A. Logo, B é
inversível e sua inversa é A. ¤
Este corolário garante que AB = I é o bastante para garantir que A e B são inversíveis,
sendo uma a inversa da outra.
Corolário 1.14 Se A = BC for inversível, então B e C são inversíveis.
Prova. Sendo A = BC inversível, (A
−1
B) C = A
−1
(BC) = A
−1
A = I e assim C é
inversível. Por outro lado, B(CA
−1
) = (BC)A
−1
= AA
−1
= I e B é inversível. ¤
Notas de aula do Prof. Antonio Cândido Faleiros 15
1.9 Matrizes elementares
As matrizes elementares são aquelas obtidas a partir da identidade mediante uma
única operação elementar. Vamos denotar por E(l
i
←→ l
j
) a matriz elementar obtida a
partir da identidade pela permuta das linhas i e j. A matriz E(l
i
+rl
j
) denotará a matriz
elementar obtida da identidade adicionando à linha i um múltiplo r da linha j. Se r é um
número não nulo, E(rl
i
) denotará a matriz elementar obtida da identidade multiplicando
sua linha i por r.
Exemplo 1.15 As matrizes abaixo são elementares
_
_
0 0 1
0 1 0
1 0 0
_
_
_
_
7 0 0
0 1 0
0 0 1
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
sendo, respectivamente, as matrizes E(l
1
↔l
3
), E(7l
1
) e E(l
3
+ 3l
1
).
Os produtos
E(l
i
←→l
j
)A , E(rl
i
)A , E(l
i
+rl
j
)A
realizam sobre A as operações elementares O(l
i
←→l
j
), O(rl
i
), e O(l
i
+rl
j
), respectiva-
mente.
Exemplo 1.16 Os produtos abaixo ilustram as afirmações acima. Seja
A =
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
.
O produto
E(l
1
↔l
3
)A =
_
_
0 0 1
0 1 0
1 0 0
_
_
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
=
_
_
c
1
c
2
c
3
b
1
b
2
b
3
a
1
a
2
a
3
_
_
permuta a primeira com a terceira linha de A. O produto
E(7l
1
)A =
_
_
7 0 0
0 1 0
0 0 1
_
_
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
=
_
_
7a
1
7a
2
7a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
multiplica a primeira linha de A por 7. O produto
E(l
3
+ 5l
1
)A =
_
_
1 0 0
0 1 0
5 0 1
_
_
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
=
_
_
a
1
a
2
a
3
b
1
b
2
b
3
5a
1
+c
1
5a
2
+c
2
5a
3
+c
3
_
_
adiciona à terceira linha de A o quíntuplo de sua primeira linha.
16 Notas de aula do Prof. Antonio Cândido Faleiros
As matrizes elementares são inversíveis. A inversa de E(l
i
+rl
j
) é E(l
i
−rl
j
), a inversa
de E(l
i
↔l
j
) é ela mesma e, para r 6= 0, a inversa de E(rl
i
) é E((1/r)l
i
).
Há um teorema muito interessante relacionando matrizes inversíveis com matrizes
elementares.
Teorema 1.17 Uma matriz quadrada é inversível se e só se for igual a um produto de
matrizes elementares.
Prova. Se uma matriz quadrada for o produto de matrizes elementares, ela é inversível
pois cada matriz elementar é inversível.
Se A for inversível, então o teorema 1.12 garante que a forma escalonada reduzida de
A é a matriz identidade. Em consequência„ existem matrizes elementares E
1
, E
2
, . . . ,
E
k
tais que E
k
· · · E
2
E
1
A = I. Neste caso, A = E
−1
1
E
−1
2
· · · E
−1
k
. Como as inversas de
matrizes elementares são elementares, segue que A é o produto de matrizes elementares.
¤
Em termos de matrizes elementares, o método da eliminação de Gauss usado para
resolver o sistema Ax = b pode ser descrito nos seguintes termos: multiplicamos os dois
lados do sistema sucessivamente por matrizes elementares E
1
, E
2
, . . . , E
k
E
k
· · · E
2
E
1
Ax = E
k
· · · E
2
E
1
b
executando operações elementares sobre as linhas de A, até obter a matriz escalonada
U = E
k
· · · E
2
E
1
A.
Sendo E = E
k
· · · E
2
E
1
, o sistema original se transforma no sistema equivalente escalon-
ado
Ux = Eb
que terá solução se linhas nulas em U corresponderem a linhas nulas em Eb. Quando este
for o caso, o sistema é resolvido por substituição reversa.
Se existirem linhas nulas em U e as linhas correspondentes de Eb não forem nulas, o
sistema não tem solução, é incompatível.
Exemplo 1.18 Vamos usar transformações elementares para obter a forma escalonada
de
A =
_
_
5 1 3
10 5 8
15 6 16
_
_
.
Em lugar de executar uma operação elementar por vez, vamos executar as operações lin-
eares necessárias para anular todos os elementos de cada coluna abaixo da diagonal prin-
cipal. Efetuando o produto
E
1
A =
_
_
1 0 0
−2 1 0
−3 0 1
_
_
_
_
5 1 3
10 5 8
15 6 16
_
_
=
_
_
5 1 3
0 3 2
0 3 7
_
_
Notas de aula do Prof. Antonio Cândido Faleiros 17
obtemos uma matriz onde os elementos da primeira linha abaixo da diagonal principal são
nulos. A matriz E
1
não é elementar mas é o produto de duas matrizes elementares
E
1
=
_
_
1 0 0
−2 1 0
0 0 1
_
_
_
_
1 0 0
0 1 0
−3 0 1
_
_
.
Efetuando o produto de E
1
A pela matriz elementar E
3
definida abaixo, obtemos
E
2
E
1
A =
_
_
1 0 0
0 1 0
0 −1 1
_
_
_
_
5 1 3
0 3 2
0 3 7
_
_
=
_
_
5 1 3
0 3 2
0 0 5
_
_
que é triangular superior. Denotemos por U esta matriz, de modo que E
2
E
1
A = U. A
matriz
E
2
E
1
=
_
_
1 0 0
0 1 0
0 −1 1
_
_
_
_
1 0 0
−2 1 0
−3 0 1
_
_
=
_
_
1 0 0
−2 1 0
−1 −1 1
_
_
é triangular inferior, os elementos de sua diagonal principal é unitária e sua inversa é
L =
_
_
1 0 0
2 1 0
1 1 1
_
_
.
Um fato notável desta inversa reside no fato de ser exatamente igual ao produto E
2
E
1
,
onde os elementos abaixo da diagonal principal aparecem com os sinais trocados. Assim,
E
2
E
1
A = U =
_
_
5 1 3
0 3 2
0 0 5
_
_
.
1.10 Cálculo da inversa
Podemos completar o processo iniciado no exemplo da seção anterior até obter a inversa
de A.
Exemplo 1.19 No exemplo anterior, multiplicamos
A =
_
_
5 1 3
10 5 8
15 6 16
_
_
e E
2
E
1
=
_
_
1 0 0
−2 1 0
−1 −1 1
_
_
,
para obter
U = E
2
E
1
A =
_
_
5 1 3
0 3 2
0 0 5
_
_
.
18 Notas de aula do Prof. Antonio Cândido Faleiros
Podemos multiplicar U por matrizes elementares até obter a inversa de A. Efetuando o
produto
E
3
U =
_
_
1 0 −3/5
0 1 −2/5
0 0 1/5
_
_
_
_
5 1 3
0 3 2
0 0 5
_
_
=
_
_
5 1 0
0 3 0
0 0 1
_
_
anulamos os elementos da terceira coluna acima da diagonal principal. A matriz E
3
é o
produto de três matrizes elementares
E
3
=
_
_
1 0 0
0 1 0
0 0 1/5
_
_
_
_
1 0 0
0 1 −2/5
0 0 1
_
_
_
_
1 0 −3/5
0 1 0
0 0 1
_
_
.
Em seguida, efetuamos o seguinte produto
E
4
E
3
U =
_
_
1 −1/3 0
0 1/3 0
0 0 1
_
_
_
_
5 1 0
0 3 0
0 0 1
_
_
=
_
_
5 0 0
0 1 0
0 0 1
_
_
onde E
4
é o produto de duas matrizes elementares
E
4
=
_
_
1 0 0
0 1/3 0
0 0 1
_
_
_
_
1 −1/3 0
0 1 0
0 0 1
_
_
.
Finalmente, multiplicando E
4
E
3
U pela matriz elementar
E
5
=
_
_
1/5 0 0
0 1 0
0 0 1
_
_
obtemos
E
5
E
4
E
3
U = E
5
E
4
E
3
E
2
E
1
A = I
onde I é a matriz identidade. O produto E
5
E
4
E
3
E
2
E
1
é a inversa procurada
A
−1
=
_
_
32
75
2
75

7
75

8
15
7
15

2
15

1
5

1
5
1
5
_
_
.
Este exemplo é típico do método de Gauss-Jordan para determinar a inversa de
uma matriz A. Se E for o produto de matrizes elementares para as quais EA = I, então
A
−1
= E. Esta observação nos permite construir o seguinte algoritmo: tome a matriz
aumentada [A I] e realize operações elementares sobre ela obtendo a matriz [EA EI]. No
momento que EA for igual á identidade, EI = E será a inversa A
−1
de A.
Se nalgum ponto deste processo chegarmos a uma matriz aumentada [EA EI] com
linha nula, concluímos que A não tem inversa.
Notas de aula do Prof. Antonio Cândido Faleiros 19
Exemplo 1.20 Vamos usar o método de Gauss-Jordan para obter a inversa de
A =
_
_
1 2 1
1 3 4
2 7 12
_
_
.
Inicialmente formamos a matriz aumentada
[A I] =
_
_
1 2 1 1 0 0
1 3 4 0 1 0
2 7 12 0 0 1
_
_
e realizamos operações elementares sobre linha até chegar a (I | A
−1
). Em lugar de aplicar
uma transformação elementar por vez, vamos aplicar um produto de transformações lin-
eares que agirão sobre toda uma coluna.
_
_
1 0 0
−1 1 0
−2 0 1
_
_
_
_
1 2 1 1 0 0
1 3 4 0 1 0
2 7 12 0 0 1
_
_
=
_
_
1 2 1 1 0 0
0 1 3 −1 1 0
0 3 10 −2 0 1
_
_
_
_
1 0 0
0 1 0
0 −3 1
_
_
_
_
1 2 1 1 0 0
0 1 3 −1 1 0
0 3 10 −2 0 1
_
_
=
_
_
1 2 1 1 0 0
0 1 3 −1 1 0
0 0 1 1 −3 1
_
_
_
_
1 0 −1
0 1 −3
0 0 1
_
_
_
_
1 2 1 1 0 0
0 1 3 −1 1 0
0 0 1 1 −3 1
_
_
=
_
_
1 2 0 0 3 −1
0 1 0 −4 10 −3
0 0 1 1 −3 1
_
_
_
_
1 −2 0
0 1 0
0 0 1
_
_
_
_
1 2 0 0 3 −1
0 1 0 −4 10 −3
0 0 1 1 −3 1
_
_
=
_
_
1 0 0 8 −17 5
0 1 0 −4 10 −3
0 0 1 1 −3 1
_
_
Logo, a inversa de A é
_
_
8 −17 5
−4 10 −3
1 −3 1
_
_
.
1.11 Fatoração LU
Multiplicando uma matriz A por matrizes elementares, podemos chegar a uma matriz U
triangular superior.
Para descrever o processo, vamos ampliar um pouco nosso conceito de matriz elemen-
tar e também denominar de elementar aquelas matrizes obtidas a partir da identidade
permitindo que os elementos de uma única coluna abaixo da diagonal principal sejam
diferentes de zero.
20 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 1.21 Neste conceito ampliado, a matriz
_
_
1 0 0
2 1 0
3 0 1
_
_
é elementar. Ela é o produto de duas matrizes elementares
_
_
1 0 0
2 1 0
0 0 1
_
_
e
_
_
1 0 0
0 1 0
3 0 1
_
_
.
Podemos usar essas matrizes elementares para zerar todos os elementos abaixo da
diagonal principal de uma coluna de uma matriz A.
Exemplo 1.22 Este exemplo ilustra o anulamento de todos os elementos de abaixo da
diagonal da primeira coluna de uma matriz mediante o uso de uma matriz elementar
_
_
1 0 0
−2 1 0
−6 0 1
_
_
_
_
2 6 −1
4 3 8
12 7 9
_
_
=
_
_
2 6 −1
0 −9 10
0 −29 15
_
_
.
Seja Auma matriz m×m. SejamE
1
, . . . , E
m−1
matrizes elementares que, multiplicadas
à esquerda de A a levam numa matriz triangular superior U. Os elementos abaixo da
diagonal principal da primeira coluna de E
1
A são nulos. Os elementos abaixo da diagonal
principal da primeira e segunda colunas de E
2
E
1
A são nulos e assim por diante. Este
procedimento resulta em
E
k
· · · E
1
A = U
onde U é triangular superior. A matriz
E = E
k
· · · E
1
é triangular inferior e os elementos da diagonal principal são todos iguais a 1. Sua inversa
L também é triangular inferior e os elementos da diagonal principal são todos iguais a 1.
Com isto, obtemos a fatoração
A = LU
onde U é uma matriz triangular superior e L é uma matriz triangular inferior inversível,
cujos elementos da diagonal principal são iguais a 1.
Exemplo 1.23 Vamos obter a decomposição LU da matriz
A =
_
_
1 2 0
2 1 5
4 −1 13
_
_
.
Notas de aula do Prof. Antonio Cândido Faleiros 21
Efetuando o produto
E
1
A =
_
_
1 0 0
−2 1 0
−4 0 1
_
_
_
_
1 2 0
2 1 5
4 −1 13
_
_
=
_
_
1 2 0
0 −3 5
0 −9 13
_
_
obtemos uma matriz cujos elementos abaixo da diagonal principal da primeira coluna são
iguais a zero. Agora, efetuando o produto
E
2
E
1
A =
_
_
1 0 0
0 1 0
0 −3 1
_
_
_
_
1 2 0
0 −3 5
0 −9 13
_
_
=
_
_
1 2 0
0 −3 5
0 0 −2
_
_
obtemos a forma escalonada de A. Para chegar à decomposição LU, basta calcular a in-
versa L = E
−1
1
E
−2
2
. As matrizes E
1
e E
2
nas multiplicações acima são elementares
E
1
=
_
_
1 0 0
−2 1 0
−4 0 1
_
_
e E
2
=
_
_
1 0 0
0 1 0
0 −3 1
_
_
e pode-se verificar que
E
−1
1
=
_
_
1 0 0
2 1 0
4 0 1
_
_
e E
−1
2
=
_
_
1 0 0
0 1 0
0 3 1
_
_
Oberve um fato interessante: para obter as inversas de E
1
e E
2
, basta trocar os sinais dos
elementos não nulos abaixo da diagonal principal. Em seguida, efetuando o produto
L = E
−1
1
E
−1
2
=
_
_
1 0 0
2 1 0
4 0 1
_
_
_
_
1 0 0
0 1 0
0 3 1
_
_
=
_
_
1 0 0
2 1 0
4 3 1
_
_
percebemos outro fato fantástico: para obter o produto L, basta colocar na matriz iden-
tidade os elementos não nulos de E
−1
1
e E
−1
2
nos seus devidos lugares. Agora tem-se a
decomposição LU de A
A =
_
_
1 0 0
2 1 0
4 3 1
_
_
_
_
1 2 0
0 −3 5
0 0 −2
_
_
.
O fato ocorrido no cálculo de L do exemplo anterior não é fortuito e sim um resultado
geral.
Para provar esta afirmação baseando-nos no livro de Trefethen e Bau.
22 Notas de aula do Prof. Antonio Cândido Faleiros
As matrizes L e U da decomposição LU de A podem ser obtidas pelo método de
eliminação de Gauss. Como é raro aplicar este método a matrizes retangulares, vamos
descrevê-lo para matrizes quadradas A pertencentes a C
m×m
. Considere a matriz
A =
_
¸
¸
_
x x x x
x x x x
x x x x
x x x x
_
¸
¸
_
onde o x indica números quaisquer. Façamos a primeira transformação
L
1
A =
_
¸
¸
_
x x x x
0 x x x
0 x x x
0 x x x
_
¸
¸
_
zerando os elementos abaixo da diagonal principal da primeira coluna. Façamos a segunda
transformação
L
2
L
1
A =
_
¸
¸
_
x x x x
0 x x x
0 0 x x
0 0 x x
_
¸
¸
_
zerando os elementos abaixo da diagonal principal da segunda coluna. Finalmente, com
a terceira transformação,
L
3
L
2
L
1
A =
_
¸
¸
_
x x x x
0 x x x
0 0 x x
0 0 0 x
_
¸
¸
_
= U
zeramos o elemento abaixo da diagonal principal da terceira coluna, obtendo assim a
matriz U. O negrito indica os elementos que foram modificados na transformação. Vejamos
um caso concreto.
Exemplo 1.24 A decomposição LU de
A =
_
¸
¸
_
1 3 2 0
2 7 5 1
1 5 5 4
0 3 4 6
_
¸
¸
_
é
A =
_
¸
¸
_
1 0 0 0
2 1 0 0
1 2 1 0
0 3 1 1
_
¸
¸
_
_
¸
¸
_
1 3 2 0
0 1 1 1
0 0 1 2
0 0 0 1
_
¸
¸
_
.
Notas de aula do Prof. Antonio Cândido Faleiros 23
que foi obtida multiplicando A pela esquerda por
L
1
=
_
¸
¸
_
1 0 0 0
−2 1 0 0
−1 0 1 0
0 0 0 1
_
¸
¸
_
, L
2
=
_
¸
¸
_
1 0 0 0
0 1 0 0
0 −2 1 0
0 −3 0 1
_
¸
¸
_
, L
3
=
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 −1 1
_
¸
¸
_
As inversas de L
1
, L
2
e L
3
são
_
¸
¸
_
1 0 0 0
2 1 0 0
1 0 1 0
0 0 0 1
_
¸
¸
_
,
_
¸
¸
_
1 0 0 0
0 1 0 0
0 2 1 0
0 3 0 1
_
¸
¸
_
,
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 1 1
_
¸
¸
_
,
e podem ser obtidas de L
1
, L
2
e L
3
trocando o sinal dos elementos não nulos abaixo da
diagonal principal. Ainda
L = L
−1
1
L
−1
2
L
−1
3
=
_
¸
¸
_
1 0 0 0
2 1 0 0
1 2 1 0
0 3 1 1
_
¸
¸
_
é obtido a partir de L
−1
1
, L
−1
2
e L
−1
3
simplesmente colocando na matriz identidade os
termos não nulos dessas três matrizes em suas respectivos posições.
Fórmulas gerais e dois golpes de sorte
Seja A uma matriz m × m e denote por X a matriz obtida depois de k − 1 passo de
eliminação. Denote por x
k
a coluna k de X no início do passo k. A transformação L
k
deve ser escolhida de modo que
x
k
=
_
¸
¸
¸
¸
¸
¸
¸
_
x
1k
.
.
.
x
kk
x
k+1,k
.
.
.
x
m,k
_
¸
¸
¸
¸
¸
¸
¸
_
→L
k
x
k
=
_
¸
¸
¸
¸
¸
¸
¸
_
x
1k
.
.
.
x
kk
0
.
.
.
0
_
¸
¸
¸
¸
¸
¸
¸
_
.
Para obter este efeito, para j = k + 1, . . . , m, subtraímos
λ
jk
=
x
jk
x
kk
24 Notas de aula do Prof. Antonio Cândido Faleiros
vezes a linha k da linha j. A forma da matriz L
k
é
L
k
=
1
.
.
.
1
−λ
k+1,k
1
.
.
.
.
.
.
−λ
m,k
1
.
Nos exemplos anteriores observamos dois golpes da sorte:
1. A inversa de L
k
é obtida trocando os sinais dos elementos abaixo da diagonal.
2. A matriz L = L
−1
1
L
−1
2
· · · L
−1
m−1
pode ser formada coletando as entradas de λ
jk
nos
locais apropriados.
Podemos reunir esses pedaços de boa fortuna como segue. Seja
λ
k
=
_
¸
¸
¸
¸
¸
¸
¸
_
0
.
.
.
0
λ
k+1,k
.
.
.
λ
m,k
_
¸
¸
¸
¸
¸
¸
¸
_
.
Então L
k
= I− λ
k
e

k
, onde e
k
é a coluna k da matriz identidade m × m. Das definições
de λ
k
e e
k
obtemos
e

k
λ
k
= 0
e
(I −λ
k
e

k
)(I +λ
k
e

k
) = I −λ
k
(e

k
λ
k
)e

k
= I,
mostrando que a inversa de L
k
é
L
−1
k
= I +λ
k
e

k
.
Para o segundo golpe de sorte, argumentamos como segue. Considere, por exemplo, o
produto L
−1
k
L
−1
k+1
. Como e

k
λ
k+1
= 0, segue
L
−1
k
L
−1
k+1
= (I +λ
k
e

k
)(I +λ
k+1
e

k+1
) = I +λ
k
e

k

k+1
e

k+1
que escrita por extenso é
L
−1
k
L
−1
k+1
=
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
1
.
.
.
1
λ
k+1,k
1
λ
k+2,k
λ
k+2,k+1
1
.
.
.
.
.
.
.
.
.
λ
m,k
λ
m,k+1
1
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
Notas de aula do Prof. Antonio Cândido Faleiros 25
Esta matriz é triangular inferior sendo obtida a partir da matriz identidade substituindo
os elementos abaixo da diagonal principal das coluna k e k + 1 pelos elementos de L
−1
k
e
L
−1
k+1
inseridas em seus lugares usuais abaixo da diagonal. Quando tomamos o produto
de todas estas matrizes para formar L, obtemos
L = L
−1
1
L
−1
2
· · · L
−1
m−1
=
_
¸
¸
¸
¸
¸
_
1
λ
21
1
λ
31
λ
32
1
.
.
.
.
.
.
.
.
.
.
.
.
λ
m1
λ
m2
· · · λ
m,m−1
1
_
¸
¸
¸
¸
¸
_
onde
λ
jk
=
x
jk
x
kk
são os multiplicadores necessários para anular os elementos abaixo da diagonal da matriz
X = E
k−1
· · · E
1
A.
Tais fatos geram o seguinte algoritmo
=====================================
Algoritmo da eliminação gaussiana sem pivotamento
=====================================
Entrada: A
Saída: U e L.
=====================================
U = A e L = I.
for k = 1:m-1
for j = k+1:m
L(j,k) = U(j,k)/U(k,k);
U(j,k:m) = U(j,k:m) - L(j,k) * U(k,k:m);
end
end
=====================================
Neste algoritmo podemos usar uma única matriz para armazenar L e U se abrirmos
mão de gravar a diagonal de L cujos elementos são unitário. Se a matriz A não for mais
necessária, podemos usá-la para gravar L e U.
Solução Ax = b por fatoração LU
Dada a decomposição A = LU, o sistema Ax = b é equivalente a LUx = b. Defina y =
Ux, resolva Ly = b e, em seguida, Ux = y para obter a solução do sistema original. A
primeira etapa, para a fatoração A = LU, exige ∼
2
3
m
3
flops. O segundo e o terceiro,
26 Notas de aula do Prof. Antonio Cândido Faleiros
para resolver os sistemas triangulares Ly = b e Ux = y, exigem ∼ m
2
flops. Dessa forma,
a resolução pelo método de Gauss, exige ∼
2
3
m
3
flops.
A resolução usando refletores de Householder, que veremos posteriormente, usa ∼
4
3
m
3
flops. Qual seria a vantagem da fatoração QR sobre a fatoração LU?
1.12 Decomposição PLU
Nem sempre uma matriz A possui uma decomposição LU e um exemplo clássico é
·
0 1
1 1
¸
. Entretanto, a matriz B =
·
1 1
0 1
¸
obtida de A pela permutação das linhas
possui uma decomposição LU
B =
·
1 0
0 1
¸ ·
1 1
0 1
¸
.
Sempre é possível permutar as linhas de uma matriz A de modo que a matriz assim
obtida possui uma decomposição LU.
Uma matriz de permutação é aquela obtida a partir da matriz identidade mediante
uma permutação qualquer de suas linhas. A matriz elementar E(l
i
←→ l
j
) obtida da
identidade pela permutação das linhas i e j pertence a esta classe. Toda matriz de
permutação é o produto de matrizes elementares deste tipo. O produto de duas matrizes
de permutação é uma matriz de permutação e a inversa de uma matriz de permutação
é uma matriz de permutação. Como tivemos a oportunidade de destacar, a inversa de
E(l
i
←→l
j
) é ela mesma.
Exemplo 1.25 São matrizes de permutação
_
¸
¸
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
¸
¸
_
_
¸
¸
_
0 0 1 0
1 0 0 0
0 0 0 1
0 1 0 0
_
¸
¸
_
.
A segunda permutação é a transformação elementar E(l
2
←→l
4
).
Seja P uma matriz de permutação obtida da identidade permutando as linha i e j.
Seja E a matriz elementar que, a não ser pelo fato de a coluna k possuir elementos não
nulos abaixo da diagonal principal, é a identidade. Se k < i < j, então
˜
E = PEP
é uma matriz com os elementos das linhas i e j da coluna k permutados de seus lugares.
Exemplo 1.26 Sejam
P =
_
¸
¸
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
¸
¸
_
e E =
_
¸
¸
_
1 0 0 0
2 1 0 0
3 0 1 0
4 0 0 1
_
¸
¸
_
Notas de aula do Prof. Antonio Cândido Faleiros 27
onde P é a matriz de permutação obtida da identidade pela troca das linhas 2 e 4 e E é a
matriz elementar com elementos não nulos fora da diagonal principal da primeira coluna.
Neste caso, k = 1, i = 2 e j = 4. O produto PAP é igual a
_
¸
¸
_
1 0 0 0
4 1 0 0
3 0 1 0
2 0 0 1
_
¸
¸
_
.
Esta matriz pode ser obtida de A permutando os elementos das linhas 2 e 4 da coluna 1.
Fato interessantíssimo.
Vamos descrever a decomposição PLU, obtida pelo método da eliminação de Gauss
com pivotamento. Seguiremos o tratamento de Trefethen e Bau.
Seja X a matriz obtida no processo de eliminação Gaussiana depois de zerados os
elementos abaixo da diagonal principal das k − 1 primeiras colunas. No passo seguinte,
múltiplos da linha k são subtraídas das linhas k+1, . . . , m da matriz X com a qual se está
trabalhando, para introduzir zeros nas entradas k dessas linhas. A entrada x
kk
da matriz
X é chamado de pivô da coluna k. Prosseguindo o processo de eliminação, aplica-se a
X uma transformação elementar para zerar os elementos da coluna k abaixo da diagonal
principal.
_
¸
¸
_
x
kk
x x x
x x x x
x x x x
x x x x
_
¸
¸
_

_
¸
¸
_
x
kk
x x x
0 x x x
0 x x x
0 x x x
_
¸
¸
_
Entretanto, x
kk
pode ser nulo ou muito pequeno quando comparado aos demais elemen-
tos daquela coluna abaixo da diagonal. Neste caso, para evitar instabilidade numérica,
procura-se naquela coluna, dentre os elementos abaixo da diagonal principal, o de maior
módulo. Troca-se esta linha com a linha k e este elemento de maior módulo passa a ser
o pivô da linha k. Esta troca de linhas é denominada de pivotamento parcial. Há um
processo conhecido por pivotamento onde se toma por pivô o elemento de maior módulo
na submatriz X
k:m,k:m
e o coloca na posição (k, k) mediante a troca de linhas e colunas.
Devido à dificuldade de gerenciar a troca de colunas e ao trabalho computacional para se
encontrar o pivô, prefere-se o pivotamento parcial.
_
¸
¸
_
x
kk
∗ ∗ ∗
∗ ∗ ∗ ∗
x
jk
∗ ∗ ∗
∗ ∗ ∗ ∗
_
¸
¸
_
P
1
−→
_
¸
¸
_
x
jk
∗ ∗ ∗
∗ ∗ ∗ ∗
x
kk
∗ ∗ ∗
∗ ∗ ∗ ∗
_
¸
¸
_
L
1
−→
_
¸
¸
_
x
jk
∗ ∗ ∗
0 ∗ ∗ ∗
0 ∗ ∗ ∗
0 ∗ ∗ ∗
_
¸
¸
_
Este algoritmo pode ser expresso como um produto de matrizes. No pivotamento parcial,
em cada etapa, realiza-se uma permutação para posicionar o pivô da coluna no local
correto para, em seguida, aplicar uma matriz elementar para zerar os elementos abaixo
28 Notas de aula do Prof. Antonio Cândido Faleiros
da diagonal principal da coluna k. Este processo pode ser repetido coluna a coluna, até
transformar A numa matriz U triangular superior
L
m−1
P
m−1
· · · L
2
P
2
L
1
P
1
A = U.
Exemplo 1.27 Considere a matriz (exemplo copiado)
A =
_
¸
¸
_
2 1 1 0
4 3 3 1
8 7 9 5
6 7 9 8
_
¸
¸
_
.
Para o pivotamento parcial, permutamos a primeira com a terceira coluna calculando
P
1
A =
_
¸
¸
_
0 0 1 0
0 1 0 0
1 0 0 0
0 0 0 1
_
¸
¸
_
_
¸
¸
_
2 1 1 0
4 3 3 1
8 7 9 5
6 7 9 8
_
¸
¸
_
=
_
¸
¸
_
8 7 9 5
4 3 3 1
2 1 1 0
6 7 9 8
_
¸
¸
_
.
Agora efetuamos o primeiro passo de eliminação: L
1
P
1
A =
_
¸
¸
_
1 0 0 0

1
2
1 0 0

1
4
0 1 0

3
4
0 0 1
_
¸
¸
_
_
¸
¸
_
8 7 9 5
4 3 3 1
2 1 1 0
6 7 9 8
_
¸
¸
_
=
_
¸
¸
_
8 7 9 5
0 −
1
2

3
2

3
2
0 −
3
4

5
4

5
4
0
7
4
9
4
17
4
_
¸
¸
_
.
Em seguida, trocamos a segunda com a quarta linha: P
2
L
1
P
1
A =
_
¸
¸
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
¸
¸
_
_
¸
¸
_
8 7 9 5
0 −
1
2

3
2

3
2
0 −
3
4

5
4

5
4
0
7
4
9
4
17
4
_
¸
¸
_
=
_
¸
¸
_
8 7 9 5
0
7
4
9
4
17
4
0 −
3
4

5
4

5
4
0 −
1
2

3
2

3
2
_
¸
¸
_
.
Efetuamos a segunda eliminação: L
2
P
2
L
1
P
1
A =
_
¸
¸
_
1 0 0 0
0 1 0 0
0
3
7
1 0
0
2
7
0 1
_
¸
¸
_
_
¸
¸
_
8 7 9 5
0
7
4
9
4
17
4
0 −
3
4

5
4

5
4
0 −
1
2

3
2

3
2
_
¸
¸
_
=
_
¸
¸
_
8 7 9 5
0
7
4
9
4
17
4
0 0 −
2
7
4
7
0 0 −
6
7

2
7
_
¸
¸
_
.
Agora permutamos a terceira linha com a quarta: P
3
L
2
P
2
L
1
P
1
A =
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0 0 1
0 0 1 0
_
¸
¸
_
_
¸
¸
_
8 7 9 5
0
7
4
9
4
17
4
0 0 −
2
7
4
7
0 0 −
6
7

2
7
_
¸
¸
_
=
_
¸
¸
_
8 7 9 5
0
7
4
9
4
17
4
0 0 −
6
7

2
7
0 0 −
2
7
4
7
_
¸
¸
_
.
Finalmente, efetuamos a última eliminação: L
3
P
3
L
2
P
2
L
1
P
1
A =
_
¸
¸
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 −
1
3
1
_
¸
¸
_
_
¸
¸
_
8 7 9 5
0
7
4
9
4
17
4
0 0 −
6
7

2
7
0 0 −
2
7
4
7
_
¸
¸
_
=
_
¸
¸
_
8 7 9 5
0
7
4
9
4
17
4
0 0 −
6
7

2
7
0 0 0
2
3
_
¸
¸
_
.
Notas de aula do Prof. Antonio Cândido Faleiros 29
Um terceiro golpe de sorte na fatoração PLU
Todos os elementos de L abaixo da diagonal principal são menores ou iguais a 1 pois o
pivô de cada linha é escolhido de modo a tornar |x
kk
| = {|x
jk
| : k ≤ j ≤ m}
Analisemos a decomposição de uma matriz A de tamanho 4 × 4 que toma a forma
L
3
P
3
L
2
P
2
L
1
P
1
A = U
As matrizes P
1
, P
2
e P
3
são suas próprias inversas. Assim podemos escrever
L
3
P
3
L
2
P
2
L
1
P
1
= L
3
P
3
L
2
(P
3
P
3
)P
2
L
1
(P
2
P
3
P
3
P
2
)P
1
onde acrescentamos algumas matrizes ao produto e foram colocadas entre parêntesis. Note
que elas são iguais à matriz identidade. Podemos associar este produto
L
3
P
3
L
2
P
2
L
1
P
1
= L
3
(P
3
L
2
P
3
)(P
3
P
2
L
1
P
2
P
3
)(P
3
P
2
P
1
) = (
˜
L
1
˜
L
2
˜
L
3
)(P
3
P
2
P
1
)
onde
˜
L
3
= L
3
,
˜
L = P
3
L
2
P
3
,
˜
L = P
3
P
2
L
1
P
2
P
3
são matrizes elementares obtidas de L
3
, L
2
, L
1
permutando elementos abaixo da diagonal
principal.
Em geral, para uma matriz m × m, a fatoração fornecida pela eliminação Gaussiana
com pivotamento parcial pode ser escrita na forma
(
˜
L
m−1
· · ·
˜
L
2
˜
L
1
)(P
m−1
· · · P
2
P
1
)A = U,
onde
˜
L
k
= P
m−1
· · · P
k+1
L
k
P
−1
k+1
· · · P
−1
m−1
.
O produto das matrizes
˜
L
k
é triangular inferior com elementos unitários na diagonal
principal e facilmente invertível. Basta trocar o sinal das entradas abaixo da diagonal,
como na eliminação Gaussiana sem pivotamento. Escrevendo
L = (
˜
L
m−1
· · ·
˜
L
2
˜
L
1
)
−1
e P = P
m−1
· · · P
2
P
1
,
temos
PA = LU.
Qualquer matriz quadrada A, singular ou não, possui uma fatoração deste tipo, onde P
é uma matriz de permutação, L é uma matriz triangular inferior com elementos unitários
na diagonal principal e U é triangular superior. Esta fatoração é conhecida por fatoração
PLU de A.
Para obter a fatoração PLU de A, multiplique a matriz A por uma matriz de permu-
tação P e calcule a decomposição LU de A. Na prática, não é assim que se procede pois
não se conhece P a priori.
Vamos descrever um procedimento que justifica o algoritmo que vamos descrever
abaixo. Seja A uma matriz m × m e X = E
k
P
k
· · · E
1
P
1
A =
˜
E
k
· · ·
˜
E
1
P
k
· · · P
1
A,
30 Notas de aula do Prof. Antonio Cândido Faleiros
onde P
i
são matrizes de permutação que posicionam o pivô no lugar correto e
˜
E
i
são
matrizes elementares que zeram as entradas abaixo da diagonal da coluna i de P
k
· · · P
1
A. Vamos escrever X =
˜
E
˜
A onde
˜
E =
˜
E
k
· · ·
˜
E
1
e
˜
A = P
k
· · · P
1
A. Se k < m − 1, o
processo não terminou e X, em geral, não é triangular superior. A próxima etapa consiste
em aplicar uma permutação P que trocará uma linha i de X com sua linha k + 1 para
posicionar o pivô da coluna no local correto. Neste caso, i > k + 1. A inversa de P é P e
assim PP = I. Podemos usar este fato para escrever
PX = P
˜
E
˜
A = P
˜
E(PP)
˜
A = (P
˜
EP)(P
˜
A).
Lembramos que P
˜
EP é triangular inferior e é a matriz
˜
E onde se permutou a parte
não nula das linhas i e k + 1, situadas abaixo da diagonal ficam permutadas. Desta
forma, sempre que se aplica uma permutação à matriz
˜
A se deve efetuar uma permutação
correspondente na matriz
˜
E.
Este comentáriio justifica o algoritmo da eliminação Gaussiana com pivotamento par-
cial descrito abaixo.
Algoritmo da eliminação Gaussiana com pivotamento parcial
=============================
U = A, L = I, P = I
for k = 1:m-1
Selecione na coluna k a linha i na qual |u(i,k)| eh maximo
Permute as linhas U(k,k:m) e U(i,k:m)
Permute as linhas L(k,1:k-1) e L(i,1:k-1)
Permute as linhas P(k,:) e P(i,:)
for j = k+1:m
L(j,k) = U(j,k) / U(k,k)
U(j,k:m) = U(j,k:m) - L(j,k)*U(k,k:m)
end
end
=============================
1.13 Decomposição de Cholesky
Se a matriz A for simétrica e inversível, uma permutação PA dessa matriz tem uma
decomposição PLU. Vamos, num primeiro momento, nos esquecer da permutação P e
escrever esta decomposição na forma A = LU de modo que
LU = A = A
T
= U
T
L
T
.
Como L e U são inversíveis,
U
¡
L
T
¢
−1
= L
−1
U
T
= D
Notas de aula do Prof. Antonio Cândido Faleiros 31
é diagonal pois U
¡
L
T
¢
−1
é triangular superior e L
−1
U
T
é triangular inferior. Assim, U =
DL
T
e obtemos a decomposição
A = LDL
T
onde L é triangular inferior cujos elementos diagonais são iguais a 1 e D = L
−1
U
T
é
diagonal.
Como os elementos da diagonal principal de L são iguais a 1, D = diag(U) onde
diag(U) é uma matriz diagonal, cujos elementos da diagonal principal são iguais aos
elementos da diagonal de U.
Exemplo 1.28 Considere a decomposição A = LU abaixo
_
_
2 −1 0
−1 2 −1
0 −1 2
_
_
=
_
_
1 0 0
−1/2 1 0
0 −2/3 1
_
_
_
_
2 −1 0
0 3/2 −1
0 0 4/3
_
_
Sendo D = L
−1
U
T
=
_
_
2 0 0
0 3/2 0
0 0 4/3
_
_
obtemos a decomposição LDL
T
_
_
2 −1 0
−1 2 −1
0 −1 2
_
_
=
_
_
1 0 0
−1/2 1 0
0 −2/3 1
_
_
_
_
2 0 0
0 3/2 0
0 0 4/3
_
_
_
_
1 −1/2 0
0 1 −2/3
0 0 1
_
_
.
Definição 1.29 Uma matriz simétrica A é positiva definida se os elementos diagonais
de D na decomposição A = LDL
T
forem todos maiores do que zero. Neste caso, podemos
calcular a matriz

D e definir M = L

D, para assim obter a decomposição A = MM
T
denominada de decomposição de Cholesky da matriz A.
No exemplo acima,
M =
_
_
1 0 0
−1/2 1 0
0 −2/3 1
_
_
_
_

2 0 0
0
p
3/2 0
0 0
p
4/3
_
_
=
_
_

2 0 0

p
1/2
p
3/2 0
0 −
p
2/3
p
4/3
_
_
.
A decomposição de Cholesky de A é
_
_
2 −1 0
−1 2 −1
0 −1 2
_
_
=
_
_

2 0 0

1
2

2
1
2

6 0
0 −
1
3

6
2
3

3
_
_
_
_

2 −
1
2

2 0
0
1
2

6 −
1
3

6
0 0
2
3

3
_
_
.
32 Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 2
Espaço vetorial
2.1 Conceito de espaço vetorial
Seja K um corpo e V um conjunto não vazio, onde definimos duas operações, sendo uma
a adição de vetores e a outra a multiplicação de um elemento do corpo K por um
elemento de V. Sejamv e w dois elementos de V e k um elemento do corpo K. Denotaremos
a adição de v e w por v + w e a multiplicação de k e v por kv. O conjunto V, com essas
operações é denominado de espaço vetorial sobre o corpo K se, para todo u, v, w de
V e todo α, β de K, se verificarem as propriedades
1. Comutativa: v +w = w +v.
2. Associativa: (u +v) +w = u + (v +w).
3. Elemento neutro: Existe um elemento de V denotado por 0 tal que 0+v = v+0 = v.
4. Elemento oposto: Dado v em V existe um elemento denotado por −v e tal que
v + (−v) = (−v) +v = 0.
5. Associatividade: (αβ)v = α(βv).
6. Distributividade: (α +β)v = αv +βv.
7. Distributividade: α(v +w) = αv +αw.
8. Elemento unitário: A multiplicação do elemento unitário 1 de K pelo elemento v
de V é igual a v, isto é, 1v = v.
Os elementos de V são chamados vetores e os elementos de K de escalares. O
elemento v +w é o vetor soma de v com w e o elemento αv é o produto de α por v ou
ainda que αv é um múltiplo de v. O vetor −v é denominado oposto de v e 0 é o vetor
nulo ou vetor zero. Definimos a diferença v −w (leia-se v menos w) entre os vetores
v e w por v + (−w).
33
34 Notas de aula do Prof. Antonio Cândido Faleiros
Em nosso curso, o corpo K será o corpo Rdos números reais ou o corpo C dos números
complexos. Quando V for um espaço vetorial sobre o corpo dos números reais, diremos
que V é um espaço vetorial real. Quando V for um espaço vetorial sobre o corpo dos
números complexos, diremos que V é um espaço vetorial complexo.
Quando se diz que V é um espaço vetorial sobre o corpo K entenda-se que está
implícito a existência das operações de adição de vetores e multiplicação de um escalar
por um vetor. Quando o contexto permitir, omite-se a referência ao corpo K e se diz
apenas que V é um espaço vetorial. O espaço vetorial {0} que contém apenas o vetor
nulo é denominado de espaço vetorial trivial.
Exemplo 2.1 Seja R
n
o conjunto de todas as ênuplas ordenadas (x
1
, x
2
, . . . , x
n
) de
números reais. Duas ênuplas ordenadas (x
1
, x
2
, . . . , x
n
) e (y
1
, y
2
, . . . , y
n
) são iguais se
x
1
= y
1
, x
2
= y
2
, . . . , x
n
= y
n
. Define-se a operação de adição em R
n
por
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
)
e a multiplicação de um número real por uma ênupla ordenada é definida por
α(x
1
, x
2
, . . . , x
n
) = (αx
1
, αx
2
, . . . , αx
n
).
O R
n
com as operações de adição de duas ênuplas ordenadas e multiplicação de um escalar
por uma ênupla é um espaço vetorial sobre os reais.
Exemplo 2.2 O conjunto R
m×n
das matrizes m×n com elementos reais munido com as
operações de adição de matrizes e multiplicação de um número complexo por uma matriz
é um espaço vetorial sobre o corpo dos números reais. O zero deste espaço vetorial é a
matriz nula e o elemento oposto (inverso aditivo) de A = [a
ij
] é −A = [−a
ij
].
Exemplo 2.3 O conjunto das matrizes m por n com elementos complexos, que denotare-
mos por C
m×n
, munido com as operações de adição de matrizes e multiplicação de um
número complexo por uma matriz é um espaço vetorial sobre o corpo dos números com-
plexos. O zero deste espaço vetorial é a matriz nula e o elemento oposto (inverso aditivo)
de A = [a
ij
] é −A = [−a
ij
].
Exemplo 2.4 O conjunto de todos os polinômios de grau menor ou igual a n, com coe-
ficientes reais, munido com as operações de adição de polinômios e multiplicação de um
número real por um polinômio, é um espaço vetorial sobre o corpo dos reais. O conjunto
dos polinômios de grau menor ou igual a n com coeficientes complexos com as operações
acima é um espaço vetorial sobre o corpo dos números complexos.
Exemplo 2.5 O conjunto de todos os polinômios com coeficientes reais, munido com as
operações de adição de polinômios e multiplicação de um número real por um polinômio,
é um espaço vetorial sobre o corpo dos reais. O conjunto de todos os polinômios com
coeficientes complexos com as operações acima é um espaço vetorial sobre o corpo dos
números complexos.
Exemplo 2.6 O conjunto C[a, b] = {f : [a, b] → R : f é contínua} com as operações de
adição de funções e multiplicação de um número real por uma função é um espaço vetorial
sobre R.
Notas de aula do Prof. Antonio Cândido Faleiros 35
2.2 Dependência linear
Todo elemento (x, y) do R
2
pode ser decomposto na seguinte soma
(x, y) = x(1, 0) +y(0, 1).
Esta maneira de decompor um vetor é muito utilizada em Álgebra Linear.
Sejam v
1
, . . . , v
n
vetores do espaço vetorial V e escalares α
1
, . . . , α
n
. O vetor α
1
v
1
+
· · · + α
n
v
n
é uma combinação linear dos vetores v
1
, . . . , v
n
.
Exemplo 2.7 O vetor (2, 3) do R
2
é uma combinação linear dos vetores (1, 0) e (0, 1)
pois (2, 3) = 2(1, 0)+ 3(0, 1).
Seja {v
1
, . . . , v
n
} um subconjunto finito de V. Este conjunto é linearmente depen-
dente se existirem escalares α
1
, . . . , α
n
, nem todos nulos tais que
α
1
v
1
+ · · · +α
n
v
n
= 0.
Também se diz que os vetores v
1
, . . . , v
n
são linearmente dependentes. Notem que a
igualdade acima se verifica para α
1
= · · · = α
n
= 0. Se a ênupla (α
1
, . . . , α
n
) = (0, . . . ,
0) for a única para a qual
α
1
v
1
+ · · · +α
n
v
n
= 0,
diremos que o conjunto {v
1
, . . . , v
n
} é linearmente independente ou que os vetores
v
1
, . . . , v
n
são linearmente independentes.
Exemplo 2.8 O conjunto S = { (5, 7), (1, 0), (0, 1) } de vetores do R
2
é linearmente
dependente pois
1(5, 7) −5(1, 0) −7(0, 1) = (0, 0).
O conjunto { (1, 2, 3), (0, 1, 1), (0, 0, 2) } de vetores do R
3
é linearmente independente.
De fato, se α
1
, α
2
e α
3
forem escalares tais que
α
1
(1, 2, 3) +α
2
(0, 1, 1) +α
3
(0, 0, 2) = (0, 0, 0)
então
α
1
+ 0α
2
+ 0α
3
= 0

1

2
+ 0α
3
= 0

1

2
+ 2α
3
= 0
cuja única solução é α
1
= α
2
= α
3
= 0.
Todo conjunto {0, v
1
, . . . v
p
} que contém o vetor nulo é linearmente dependente pois
1 · 0 + 0v
1
+ · · · + 0v
p
= 0.
36 Notas de aula do Prof. Antonio Cândido Faleiros
Observe que, a dependência linear do conjunto S = { (5, 7), (1, 0), (0, 1) } de vetores
do R
2
que se expressa por
1(5, 7) −5(1, 0) −7(0, 1) = (0, 0).
implica na possibilidade de escrever (5, 7) como uma combinação linear dos vetores (1, 0)
e (0, 1)
(5, 7) = 5(1, 0) + 7(0, 1).
Esta igualdade também implica na dependência linear de S = { (5, 7), (1, 0), (0, 1) }. Tal
fato é enunciado de modo geral no próximo teorema.
Proposição 2.9 Um conjunto {v
1
, . . . , v
n
} de vetores de um espaço vetorial V é linear-
mente dependente se e só se um dos seus elementos for combinação linear dos demais.
Prova. Se {v
1
, . . . , v
n
} for linearmente dependente, existem escalares α
1
, . . . , α
n
, nem
todos nulos, tais que α
1
v
1
+ · · · + α
n
v
n
= 0. Supondo α
1
6= 0 (se α
1
= 0, basta permutar os
vetores do conjunto para trazer o coeficiente não nulo para a primeira posição) podemos
escrever v
1
como combinação linear de v
2
, . . . , v
n
v
1
=
¡
−α
−1
1
α
2
¢
v
2
−· · ·
¡
−α
−1
1
α
n
¢
v
n
.
Se v
1
for uma combinação linear de v
2
, . . . , v
n
, então existem escalares β
2
, . . . , β
n
tais
que
v
1
= β
2
v
2
+ · · · +β
n
v
n
e
v
1
+ (−β
2
) v
2
+ · · · + (−β
n
) v
n
= 0,
mostrando que {v
1
, . . . , v
n
} é linearmente dependente. ¤
Todo conjunto que contém um subconjunto linearmente dependente é linearmente
dependente. Todo subconjunto de um conjunto de vetores linearmente independente é
linearmente independente.
Proposição 2.10 Seja S um conjunto finito de vetores.
1. Se S for linearmente dependente, qualquer conjunto finito de vetores que o contém
também será linearmente dependente.
2. Se S for linearmente independente, qualquer subconjunto de S será linearmente
independente.
Prova. Seja S = {v
1
, . . . , v
n
}.
Notas de aula do Prof. Antonio Cândido Faleiros 37
1. Se S for linearmente dependente, existem escalares α
1
, . . . , α
n
nem todos nulos tais
que α
1
v
1
+ · · · + α
n
v
n
= 0. Seja S
0
um conjunto finito que contém S. Se w
1
, . . . , w
m
forem os elementos de S
0
que não pertencem a S, então
α
1
v
1
+ · · · +α
n
v
n
+ 0w
1
+ · · · + 0w
m
= 0
provando que S
0
é linearmente dependente.
2. Se S for linearmente independente, seja S
0
um subconjunto de S. Se S
0
fosse linear-
mente dependente, S também o seria pela primeira parte. Logo S
0
é linearmente
independente.
¤
2.3 Base e dimensão
Seja B = {v
1
, . . . , v
n
} um conjunto finito de vetores em V. Se todo elemento de V for
uma combinação linear dos elementos de B, diremos que B gera V.
Exemplo 2.11 O conjunto B = {(1, 2), (1, 0), (0, 1)} gera o R
2
. Qualquer par ordenado
(x, y) pode ser decomposto nas combinações lineares
(x, y) = 0(1, 2) +x(1, 0) +y(0, 1)
ou
(x, y) = x(1, 2) + 0(1, 0) + (y −2x)(0, 1).
Neste exemplo, o modo de escrever (x, y) como combinação linear dos elementos de B não
é única.
Exemplo 2.12 O conjunto B = {(2, 1), (1, 0) } gera o R
2
pois podemos escrever um par
ordenado (x, y) qualquer como combinação linear desses dois vetores
(x, y) = x(2, 1) + (y −x)(1, 0).
Neste exemplo, o modo de escrever (x, y) como combinação linear dos elementos de B é
única.
Que diferença existe entre os conjuntos geradores dos exemplos acima? O primeiro é
linearmente dependente e o segundo é linearmente dependente.
Definição 2.13 Um conjunto finito de vetores linearmente independente e que gera V é
uma base de V.
38 Notas de aula do Prof. Antonio Cândido Faleiros
Uma base B = {v
1
, . . . , v
n
} gera V. Assim, para cada vetor v em V existem escalares
α
1
, . . . , α
n
tais que
v = α
1
v
1
+ · · · +α
n
v
n
.
Os vetores α
1
v
1
, . . . , α
n
v
n
são denominados de componentes do vetor v na base B, os
escalares α
1
, . . . , α
n
são as coordenadas de v na base B e a matriz coluna
[v]
B
= [α
1
. . . α
n
]
T
é a matriz das coordenadas de v na base B.
Uma base ordenada B = {v
1
, v
2
, . . . , v
n
} é aquela em que se estabelece que v
1
é o
seu primeiro elemento, que v
2
é o seu segundo elemento, e assim por diante. A ordem em
que seus elementos são escritos é relevante.
Proposição 2.14 A matriz das coordenadas de um vetor numa base ordenada é única.
Prova. Seja B = {v
1
, . . . , v
n
} uma base ordenada de um espaço vetorial V. Se v =
x
1
v
1
+ · · · + x
n
v
n
e v = y
1
v
1
+ · · · + y
n
v
n
forem duas decomposições de v nos elementos
da base B, então
0 = v −v = (x
1
−y
1
)v
1
+ · · · + (x
n
−y
n
)v
n
e, da independência linear dos vetores da base, x
i
= y
i
para i = 1, . . . , n. ¤
De ora em diante, uma base ordenada será chamada simplesmente de base. O contexto
indicará a necessidade de ser a base ordenada ou não.
Exemplo 2.15 Considere as ênuplas e
1
= (1, 0, . . . , 0), e
2
= (0, 1, . . . , 0), e
n
= (0, 0,
. . . , 1), onde e
k
é a linha k da matriz identidade n × n. O conjunto de vetores {e
1
, e
2
,
. . . , e
n
} é uma base tanto do R
n
quanto do C
n
e é chamada de base canônica. Se x =
(x
1
, . . . , x
n
), então x = x
1
e
1
+ · · · + x
n
e
n
. Isto significa que as coordenadas de x na base
canônica são exatamente os elementos da ênupla x.
Exemplo 2.16 O conjunto {1, x, x
2
} é uma base do espaço vetorial dos polinômios de
grau menor ou igual a dois com coeficientes complexos.
Nem todo espaço vetorial possui uma base tal como se definiu acima. O espaço vetorial
de todos os polinômios com coeficientes complexos não possui base no sentido definido
neste texto. Não existe conjunto finito de polinômios que gera todos os demais. Todo
conjunto finito de polinômios tem um polinômio de grau máximo, que não seria capaz de
gerar os polinômios de grau superior ao polinômio de grau máximo do conjunto.
Todas as bases de um espaço vetorial possuem o mesmo número de elementos, como
provaremos em seguida. Precederemos o teorema principal por três lemas.
Lema 2.17 Seja {v
1
, . . . , v
n
} uma base de V e w = α
1
v
1
+· · · +α
n
v
n
. Se α
i
6= 0, então
{v
1
, . . . , v
i−1
, w, v
i+1
, , . . . , v
n
}
também é base.
Notas de aula do Prof. Antonio Cândido Faleiros 39
Prova. Para simplificar, provaremos o teorema supondo α
1
6= 0. Se α
1
= 0, podemos
reordenar os elementos da base para trazer para a primeira posição uma componente de w
diferente de zero. Sendo α
1
6= 0, podemos explicitar v
1
na igualdade w = α
1
v
1
+· · · +α
n
v
n
para obter
v
1
=
1
α
1
w −
α
2
α
1
v
2
−· · · −
α
n
α
1
v
n
= β
1
w +β
2
v
2
+ · · · +β
n
v
n
.
Vamos provar que {w, v
2
, . . . , v
n
} gera V. Sendo v um vetor qualquer de V, existem
escalares x
1
, x
2
, . . . , x
n
tais que
v = x
1
v
1
+x
2
v
2
+ · · · +x
n
v
n
= x
1

1
w +β
2
v
2
+ · · · +β
n
v
n
) +x
2
v
2
+ · · · +x
n
v
n
= (x
1
β
1
)w + (x
1
β
2
+x
2
)v
2
+ · · · + (x
1
β
n
+x
n
)v
n
,
provando que o conjunto {w, v
2
, . . . , v
n
} gera V.
Vamos provar que {w, v
2
, . . . , v
n
} é linearmente independente. Sejam k
1
, k
2
, . . . , k
n
escalares tais que k
1
w+ k
2
v
2
+ · · · + k
n
v
n
= 0. Se k
1
6= 0, então
k
1

1
v
1

2
v
2
+ · · · +α
n
v
n
) +k
2
v
2
+ · · · +k
n
v
n
= 0
ou
k
1
α
1
v
1
+ (k
1
α
2
+k
2
)v
2
+ · · · + (k
1
α
n
+k
n
)v
n
= 0
com k
1
α
1
6= 0, o que contraria o fato de {v
1
, v
2
, . . . , v
n
} ser base de V. Logo, k
1
= 0
e a combinação linear k
1
w+ k
2
v
2
+ · · · + k
n
v
n
= 0 se reduz a k
2
v
2
+ · · · + k
n
v
n
= 0. Da
independência linear do conjunto {v
2
, . . . , v
n
}, obtemos k
2
= · · · = k
n
= 0, provando a
independência linear de {w, v
2
, . . . , v
n
} que, portanto, é base de V. ¤
Lema 2.18 Seja {v
1
, . . . , v
n
} uma base com n elementos do espaço vetorial V. Todo
conjunto linearmente independente com n elementos é base de V.
Prova. Seja {w
1
, . . . , w
n
} um conjunto linearmente independente com n vetores de
V. Pode-se decompor w
1
na base {v
1
, . . . , v
n
} e escrever
w
1
= c
11
v
1
+ · · · +c
n1
v
1
.
Como w
1
6= 0, pelo menos um dos coeficientes desta combinação linear é diferente de zero.
Podemos supor que c
11
6= 0 (se o c
11
fosse nulo, bastaria reordenar a base {v
1
, v
2
, . . . , v
n
}
de modo que, nesta nova ordem, c
11
6= 0).
Pelo lema anterior, {w
1
, v
2
, . . . , v
n
} é base e podemos escrever
w
2
= c
12
w
1
+c
22
v
2
+ · · · +c
n2
v
n
.
Os coeficientes c
22
, . . . , c
n2
não podem ser todos nulos. De fato, se todos eles fossem nulos,
então w
2
= c
12
w
1
, o que contraria a hipótese de o conjunto {w
1
, . . . , w
n
} ser linearmente
40 Notas de aula do Prof. Antonio Cândido Faleiros
independente. Assim, pelo menos um dos coeficientes c
22
, . . . , c
n2
não é nulo. Como
antes, podemos supor, sem perda de generalidade, que c
22
6= 0.
Pelo lema anterior, {w
1
, w
2
, v
3
, . . . , v
n
} é base de V.
Prosseguindo com este raciocínio, substituímos todos os elementos da base {v
1
, . . . ,
v
n
} por w
1
, w
2
, . . . , w
n
, provando que {w
1
, w
2
, . . . , w
n
} é base. ¤
Lema 2.19 Se um espaço vetorial V possuir uma base com n elementos, então todo
conjunto de vetores em V com mais de n elementos é linearmente dependente.
Prova. De fato, se houvesse um conjunto linearmente independente com mais do que
n elementos, qualquer subconjunto dele com n elementos seria base e os vetores restantes
seriam combinações lineares desses n selecionados, contrariando a hipótese de independên-
cia linear do conjunto. Logo, não existe conjunto de vetores linearmente independente
com mais do que n elementos. ¤
Estes lemas nos permitem enunciar o
Teorema 2.20 Se um espaço vetorial V possuir uma base com n elementos, todas as
outras bases deste espaço vetorial têm o mesmo número de elementos.
Prova. De fato, como todo conjunto com mais do que n elementos é linearmente
dependente, não há base com mais do que n elementos.
Seja B
1
a base com n elementos. Se existisse alguma base B
2
com k elementos e k <
n, pelo lema anterior, a base B
1
seria linearmente dependente, possibilidade que se exclui
pela definição de base. Logo não existe base com menos do que n elementos. ¤
Este teorema garante que todas as bases de um espaço vetorial possui o mesmo número
de elementos o que justifica a definição que segue.
Definição 2.21 Se um espaço vetorial possui uma base, diremos que ele possui dimen-
são finita e que o número de elementos das bases é a sua dimensão. Por definição, a
dimensão do espaço vetorial trivial, aquele que contém apenas o vetor nulo, é zero.
2.4 Matriz de mudança de base
Seja V um espaço vetorial complexo de dimensão finita n > 0. Sejam B
1
= {u
1
, . . . , u
n
}
e B
2
= {v
1
, . . . , v
n
} duas bases de V. Podemos decompor cada elemento de B
2
numa
combinação linear dos elementos de B
1
v
1
= p
11
u
1
+p
21
u
2
+ · · · +p
n1
u
n
v
2
= p
12
u
1
+p
22
u
2
+ · · · +p
n2
u
n
· · ·
v
n
= p
1n
u
1
+p
2n
u
2
+ · · · +p
nn
u
n
Notas de aula do Prof. Antonio Cândido Faleiros 41
A matriz
M
12
=
_
¸
¸
¸
_
p
11
p
12
· · · p
1n
p
21
p
22
· · · p
2n
.
.
.
.
.
.
.
.
.
.
.
.
p
n1
p
n2
· · · p
nn
_
¸
¸
¸
_
é chamada de matriz de mudança de base, mais especificamente, matriz de mudança
da base B
1
para a base B
2
. Observe que as coordenadas do desenvolvimento de v
1
na
base B
1
formam a primeira coluna, as coordenadas do desenvolvimento de v
2
na base B
1
formam a primeira coluna,
Sendo B
3
= {w
1
, . . . , w
n
} uma terceira base de V, podemos escrever os vetores de B
3
como combinações lineares dos elementos da base B
2
. Usando o símbolo de somatório,
w
j
=
n
X
i=1
q
ij
v
i
e agora, M
23
= [q
ij
] é a matriz de mudança da base B
2
para a base B
3
.
Das duas decomposições acima segue
w
j
=
X
k
q
kj
v
k
=
X
k
q
kj
X
i
p
ik
u
i
=
X
i
Ã
X
k
p
ik
q
kj
!
u
i
=
X
i
r
ij
u
i
onde M
13
= [r
ij
] = [
P
k
p
ik
q
kj
] é a matriz de mudança da base B
1
para a base B
3
. Como
M
13
= [r
ij
] =
"
X
k
p
ik
q
kj
#
= [p
ik
][q
kj
] = M
12
M
23
,
provamos a identidade
M
13
= M
12
M
23
.
Quando B
3
= B
1
, a matriz M
13
é a identidade I e M
23
= M
21
. Da igualdade acima segue
M
12
M
21
= I,
mostrando que as matrizes de mudança de base são inversíveis e que a inversa de M
12
é
M
21
.
Sejam i e j inteiros do conjunto {1, 2, . . . , n}. O delta de Kronecker δ
ij
, é um
conjunto de n
2
números definidos do seguinte modo: δ
ij
= 1 quando i = j e δ
ij
= 0
quando i 6= j.
Observe que o elemento da linha i coluna j da matriz identidade I de ordem n ×n é
exatamente δ
ij
e podemos usar o delta de Kronecker para escrever I = [δ
ij
].
As igualdades matriciais
M
12
M
21
= I e M
21
M
12
= I
42 Notas de aula do Prof. Antonio Cândido Faleiros
quando escritas componente a componente, fornece
X
k
p
ik
q
kj
= δ
ij
e
X
k
q
ik
p
kj
= δ
ij
para i e j percorrendo os valores 1, . . . , n.
Mudança de coordenadas
Teorema 2.22 Sejam B
1
e B
2
duas bases do espaço vetorial V. Sejam
[u]
1
a matriz das coordenadas de u na base B
1
,
[u]
2
a matriz das coordenadas de u na base B
2
e
M
12
a matriz de mudança da base B
1
para a base B
2
.
Então
[u]
1
= M
12
[u]
2
Prova. Sejam B
1
= {v
1
, . . . , v
n
} e B
2
= {w
1
, . . . , w
n
} as bases em questão. Se [u]
1
=
[x
1
, . . . , x
n
]
T
for a matriz das coordenadas de u na base B
1
, se [u]
2
= [y
1
, . . . , y
n
]
T
for a
matriz das coordenadas de u na base B
2
e se M
12
= [p
ij
] for a matriz de mudança da base
B
1
para a base B
2
, segue
u =
X
i
x
i
v
i
=
X
j
y
j
w
j
e
w
j
=
n
X
i=1
p
ij
v
i
.
Portanto,
u =
X
j
y
j
w
j
=
X
j
y
j
X
i
p
ij
v
i
=
X
i
Ã
X
j
p
ij
y
j
!
v
i
.
Como u =
P
i
x
i
v
i
, segue da unicidade da decomposição de um vetor nos elementos da
base que
x
i
=
X
j
p
ij
y
j
que corresponde à igualdade matricial
[u]
1
= M
12
[u]
2
.
¤
Notas de aula do Prof. Antonio Cândido Faleiros 43
2.5 Subespaço vetorial
Seja V um espaço vetorial e W um subconjunto não vazio de V. Diremos que W é um
subespaço vetorial de V se, para todo v e w em W e todo escalar λ, os vetores λw e
v + w pertencerem a W. Em outras palavras, o subespaço vetorial é aquele subconjunto
fechado em relação à adição e à multiplicação por um escalar.
As operações de adição de vetores e multiplicação por uma escalar definidas em V,
também se aplicam aos vetores de W, que está contido em V. Certamente, essas operações
em W gozam das mesmas propriedades que em V. Deste argumento se conclui que todo
subespaço vetorial é, ele próprio, um espaço vetorial.
O próprio V é um subespaço vetorial dele mesmo. O subespaço {0} é denominado de
subespaço trivial de V. Os subespaços distintos de V são denominados de subespaços
próprios de V.
Exemplo 2.23 O conjunto W = { (x, y, 0) : x, y ∈ R } é um subespaço próprio de R
3
.
Um subespaço vetorial sempre contém o vetor nulo. De fato, sendo 0 o escalar nulo,
para todo vetor v do subespaço, 0v é o vetor nulo e, por definição, pertence ao subespaço.
SejamW
1
e W
2
subespaços vetoriais de umespaço vetorial V. Asoma dos subespaços
W
1
+W
2
, definida por
W
1
+W
2
= {w
1
+w
2
: w
1
∈ W
1
e w
2
∈ W
2
}
e a interseção dos subespaços W
1
∩ W
2
, definida por
W
1
∩ W
2
= {w : w ∈ W
1
e w ∈ W
2
}
são subespaços vetoriais de V.
Nota 2.24 Nem sempre a união
W
1
∪ W
2
= {w ∈ V : w ∈ W
1
ou w ∈ W
2
}
de dois subespaços W
1
e W
2
de V é um subespaço vetorial de V. Se u e v pertencerem à
união, u + v pode não pertencer. Quando W
1
estiver contido em W
2
, então W
1
∪ W
2
=
W
2
e daí a união será um subespaço vetorial de V.
Seja W um subepaço vetorial de V, um espaço vetorial com dimensão finita. Então
dim(W) = dim(V ) se e só se W = V e dim(W) < dim(V ) se e só se W for subespaço
próprio de V.
Os subespaços de dimensão n −1 de um espaço vetorial de dimensão n são chamados
de hiperplanos.
Exemplo 2.25 O subespaço vetorial W = { x(1, 2, 0) +y(0, 3, 1) : x e y ∈ R } do R
3
é
um hiperplano.
44 Notas de aula do Prof. Antonio Cândido Faleiros
2.6 Subespaço gerado
Seja S um subconjunto de V. O conjunto de todas as combinações lineares finitas de
elementos de S é um subespaço vetorial de V, chamado de subespaço gerado por S e é
denotado por hSi . Diz-se ainda que S gera hSi ou que hSi é gerado por S. O subespaço
gerado por S é um subespaço vetorial de V.
Sendo S = { w
1
, . . . , w
k
} finito, então
hSi = {α
1
w
1
+ · · · +α
k
w
k
: α
1
, . . . , α
k
∈ R}.
Exemplo 2.26 Seja S = {e
1
, e
3
} um subconjunto do R
3
onde e
1
= (1, 0, 0, ) e e
3
= (0,
0, 1). O subespaço gerado por S é hSi = { (x, 0, y) : x, y ∈ R
3
}. Se considerarmos S
como subconjunto de C
3
então hSi = { (x, 0, y) : x, y ∈ C}.
Base do subespaço gerado
Seja S = {w
1
, . . . , w
k
} um conjunto de vetores de C
n
, de modo que
w
1
= (w
11
, w
12
, . . . , w
1n
)
w
2
= (w
21
, w
22
, . . . , w
2n
)
· · ·
w
k
= (w
k1
, w
k2
, . . . , w
kn
)
Vamos descrever um processo para determinar uma base para o espaço gerado por S no
qual lançamos mão de alguns fatos para nos auxiliar nesta tarefa. Vamos enumerá-los
abaixo.
1. Retirar os vetores nulos de S não altera o espaço gerado por S.
2. Permutar a ordem dos vetores de S não altera o espaço gerado por S.
3. Se multiplicarmos um ou mais vetores de S por escalares não nulos, o espaço gerado
por S não se altera.
4. Se substituirmos em S o vetor w
i
pelo vetor w
i
+ cw
j
, onde c é um escalar, o espaço
gerado por S permanece inalterado.
5. Se nenhum vetor de S for nulo e a matriz
_
¸
¸
¸
_
w
11
w
12
· · · w
1n
w
21
w
22
· · · w
2n
.
.
.
.
.
.
.
.
.
.
.
.
w
k1
w
k2
· · · w
kn
_
¸
¸
¸
_
for escalonada, então S é linearmente independente e, portanto, é uma base do
espaço gerado por S.
Notas de aula do Prof. Antonio Cândido Faleiros 45
Os fatos enumerados acima nos permitem usar o método da eliminação de Gauss para
determinar uma base para o espaço gerado por S : Construa a matriz cujas linhas são
os elementos de w
1
, w
2
, . . . , w
k
, como acima e obtenha sua forma escalonada usando o
método da eliminação de Gauss. As linhas não nulas da forma escalonada desta matriz
R =
_
¸
¸
¸
_
r
11
r
12
· · · r
1n
0 r
22
· · · r
2n
0 0 · · · r
3n
.
.
.
.
.
.
.
.
.
.
.
.
_
¸
¸
¸
_
formarão a base de hSi .
Este procedimento pode ser usado para determinar o subespaço gerado por S = { w
1
,
. . . , w
k
} mesmo quando S for um conjunto de vetores num espaço vetorial de dimensão
finita V qualquer. Basta tomar uma base B = { v
1
, v
2
, . . . , v
n
} de V e decompor cada
elementos de S numa combinação linear de elementos de B
w
1
= β
11
v
1

12
v
2
+ · · · +β
1n
v
n
w
2
= β
21
v
1

22
v
2
+ · · · +β
2n
v
n
· · ·
w
k
= β
k1
v
1

k2
v
2
+ · · · +β
kn
v
n
formar a matriz
_
¸
¸
¸
_
β
11
β
12
· · · β
1n
β
21
β
22
· · · β
2n
.
.
.
.
.
.
.
.
.
.
.
.
β
k1
β
k2
· · · β
kn
_
¸
¸
¸
_
e proceder como no caso em que o espaço vetorial é o C
n
, obtendo, obter sua forma
escalonada
R =
_
¸
¸
¸
_
r
11
r
12
· · · r
1n
0 r
22
· · · r
2n
0 0 · · · r
3n
.
.
.
.
.
.
.
.
.
.
.
.
_
¸
¸
¸
_
Os vetores não nulos obtidos na forma escalonada
r
11
v
1
+r
12
v
2
+ · · · +r
1n
v
n
r
22
v
2
+r
23
v
3
+ · · · +r
2n
v
n
r
33
v
3
+r
34
v
4
+ · · · +r
3n
v
n
.
.
.
formarão uma base para o espaço gerado por V.
46 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 2.27 Vamos determinar uma base do subespaço vetorial do R
5
gerado por
w
1
= (1, 2, 2, −3, −4),
w
2
= (3, 8, 0, 2, 8),
w
3
= (1, 2, 2, −1, 0),
w
4
= (−1, −2, 8, 8, 8),
w
5
= (2, 6, 3, 5, 9).
Construímos a matriz
_
¸
¸
¸
¸
_
1 2 2 −3 −4
3 8 0 2 8
1 2 2 −1 0
−1 −2 8 8 8
2 6 3 5 9
_
¸
¸
¸
¸
_
e a escalonamos
_
¸
¸
¸
¸
_
1 0 0 0 0
−3 1 0 0 0
−1 0 1 0 0
1 0 0 1 0
−2 0 0 0 1
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 2 2 −3 −4
3 8 0 2 8
1 2 2 −1 0
−1 −2 8 8 8
2 6 3 5 9
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 0 2 4
0 0 10 5 4
0 2 −1 11 17
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 −1 0 0 1
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 0 2 4
0 0 10 5 4
0 2 −1 11 17
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 0 2 4
0 0 10 5 4
0 0 5 0 −3
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 0 0 0 0
0 1 0 0 0
0 0 0 0 1
0 0 0 1 0
0 0 1 0 0
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 0 2 4
0 0 10 5 4
0 0 5 0 −3
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 5 0 −3
0 0 10 5 4
0 0 0 2 4
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 −2 1 0
0 0 0 0 1
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 5 0 −3
0 0 10 5 4
0 0 0 2 4
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 5 0 −3
0 0 0 5 10
0 0 0 2 4
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1/5 0
0 0 0 −2/5 1
_
¸
¸
¸
¸
_
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 5 0 −3
0 0 0 5 10
0 0 0 2 4
_
¸
¸
¸
¸
_
=
_
¸
¸
¸
¸
_
1 2 2 −3 −4
0 2 −6 11 20
0 0 5 0 −3
0 0 0 1 2
0 0 0 0 0
_
¸
¸
¸
¸
_
Notas de aula do Prof. Antonio Cândido Faleiros 47
e assim, uma base do espaço gerado por w
1
, w
2
, w
3
, w
4
, w
5
é formada pelos vetores
z
1
= (1, 2, 2, −3, −4),
z
2
= (0, 2, −6, 11, 20),
z
3
= (0, 0, 5, 0, −3),
z
4
= (0, 0, 0, 1, 2).
48 Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 3
Transformação linear
Neste capítulo consideraremos que os espaços vetoriais estão definidos emummesmo corpo
K. Nos exemplos, K será o corpo dos números reais ou o corpo dos números complexos.
Sejam V e W dois espaços vetoriais sobre um mesmo corpo K. Uma função L : V →W
é uma transformação linear se, para todo par de vetores v, w em V e todo escalar α
do corpo K,
L(v +w) = L(v) +L(w),
L(αv) = αL(v).
A notação Lv também é usada para indicar L(v).
Podemos unir as duas igualdades acima dizendo que L é linear quando a igualdade
L(αv +βw) = αL(v) +βL(w)
se verificar para todo α e β escalares e para todo v e w em V.
Toda transformação linear leva o zero de V no zero de W. De fato, L(0) = L(0 +0) =
L(0)+ L(0) = 2L(0) o que implica em L(0) = 0.
Exemplo 3.1 A transformação L
1
: R
2
→R definida por L
1
(x, y) = 3x+ 2y é linear.
A transformação L
2
: R
2
→ R
2
definida por L
2
(x, y) = (x −y, 0) é linear.
A transformação T : R
2
→ R definida por T(x, y) = x+y +2 não é linear pois T(2x,
2y) = 2x+ 2y+ 2 é diferente de 2T(x, y) = 2x+ 2y+ 4.
Uma transformação linear L : V →V de um espaço V sobre ele mesmo recebe o nome
de operador linear. Se V for um espaço vetorial sobre um corpo K, uma transformação
linear L : V → K recebe o nome de funcional linear.
Sendo L : V →W e T : W →U, definimos a composta T ◦ L : V →U por
T ◦ L(v) = T(L(v)).
Também se denota T ◦ L por TL. Assim, TL(v) = T(L(v)).
49
50 Notas de aula do Prof. Antonio Cândido Faleiros
Pode-se provar por indução que, se L : V →W for linear, se v
1
, . . . , v
n
forem vetores
de V e se α
1
, . . . , α
n
forem escalares, então
L(α
1
v
1
+ · · · +α
n
v
n
) = α
1
L(v
1
) + · · · +α
n
L(v
n
).
A partir desta fórmula podemos afirmar que quando L for linear e {v
1
, . . . , v
n
} for
base de V, o conhecimento dos vetores w
1
= L(v
1
), . . . , w
n
= L(v
n
) é suficiente para
calcular o valor de L em qualquer vetor v. Basta decompor v em uma combinação linear
dos vetores da base
v = x
1
v
1
+ · · · +x
n
v
n
e calcular
L(v) = L(x
1
v
1
+ · · · +x
n
v
n
) = x
1
L(v
1
) + · · · +x
n
L(v
n
) = x
1
w
1
+ · · · +x
n
w
n
.
Exemplo 3.2 Seja L : R
3
→ R uma transformação linear e e
1
= (1, 0, 0), e
2
= (0, 1,
0) e e
3
= (0, 0, 1) os elementos da base canônica do R
3
. Se Le
1
= 5, Le
2
= 7, Le
3
= 11,
para qualquer (x
1
, x
2
, x
3
) em R
3
, teremos
L(x
1
, x
2
, x
3
) = L(x
1
e
1
+x
2
e
2
+x
3
e
3
)
= x
1
L(e
1
) +x
2
L(e
2
) +x
3
L(e
3
)
= 5x
1
+ 7x
2
+ 11x
3
.
Generalizando este exemplo, se Le
1
= a
1
, Le
2
= a
2
e Le
3
= a
3
, então
L(x
1
, x
2
, x
3
) = L(x
1
e
1
+x
2
e
2
+x
3
e
3
)
= x
1
L(e
1
) +x
2
L(e
2
) +x
3
L(e
3
)
= a
1
x
1
+a
2
x
2
+a
3
x
3
.
Este exemplo nos dá uma indicação da forma geral de um funcional linear L de R
n
em R. Vamos determiná-la. Seja {e
1
, e
2
, . . . , e
n
} a base canônica do R
n
. Se L(e
i
) = a
i
para i = 1, . . . , n, então, para todo (x
1
, . . . , x
n
) vale
L(x
1
, . . . , x
n
) = L(x
1
e
1
+ · · · +x
n
e
n
) = x
1
L(e
1
) + · · · +x
n
L(e
n
)
ou
L(x
1
, . . . , x
n
) = a
1
x
1
+ · · · +a
n
x
n
.
Esta é a forma geral de um funcional linear do R
n
em R.
Exemplo 3.3 Utilizando a forma geral, vemos que L
1
(x, y) = 5x −4y e L
2
(x, y) = 3x
são transformações lineares de R
2
em R. Todavia, T(x, y) = x+ 2 não é linear pois não
possui o formato estabelecido acima e observe que T não leva o zero de R
2
no zero de R.
Notas de aula do Prof. Antonio Cândido Faleiros 51
Vamos determinar agora a forma geral de uma uma transformação linear L de R
n
em
R
m
. Iniciemos com um exemplo ilustrativo com a transformação
L(x
1
, x
2
) = (x
1
−3x
2
, 2x
1
, −x
1
+ 4x
2
)
de R
2
em R
3
. Se definirmos
L
1
(x
1
, x
2
) = x
1
−3x
2
, L
2
(x
1
, x
2
) = 3x
2
e L
3
(x
1
, x
2
) = −x
1
+ 4x
2
então
L(x
1
, x
2
) = ( L
1
(x
1
, x
2
), L
2
(x
1
, x
2
), L
3
(x
1
, x
2
) ).
Baseados neste exemplo, vemos que, se L é uma transformação linear do R
n
em R
m
, para
qualquer x no R
n
, tem-se
L(x) = ( L
1
(x), . . . , L
m
(x) ),
onde L
1
(x), . . . , L
m
(x) são números reais, dependentes de x. Vamos mostrar que L
1
, . . . ,
L
m
são funcionais lineares de R
n
em R. De fato, sendo α e β escalares e x, y ênuplas
ordenadas, então
L(αx +βy) = αLx +βLy
e assim,
( L
1
(αx +βy), . . . , L
m
(αx +βy) ) = ( αL
1
x +βL
1
y, . . . , αL
m
x +βL
m
y )
e, da igualdade desses elementos de R
m
, obtemos
L
1
(αx +βy) = αL
1
x +βL
1
y
. . .
L
m
(αx +βy) = αL
m
x +βL
m
y
mostrando que L
1
, . . . , L
m
são funcionais lineares de R
n
em R. A partir daí, concluímos
que toda transformação linear L de R
n
em R
m
é da forma
L(x
1
, . . . , x
n
) = ( a
11
x
1
+ · · · +a
1n
x
n
, . . . , a
m1
x
1
+ · · · +a
m,n
x
n
)
onde a
ij
, para i = 1, . . . , m e j = 1, . . . , n, são números reais.
Exemplo 3.4 A transformação
L(x, y) = (2x −y, x +y, y)
de R
2
em R
3
é linear. A transformação
T(x, y) = (x, 0, x + 2y, −3x +y, 4y)
de R
2
em R
5
é linear.
52 Notas de aula do Prof. Antonio Cândido Faleiros
Seja L : V →W uma transformação linear. O conjunto
ker L = {v ∈ V : Lv = 0}
é chamado de núcleo (kernel em inglês) de L e o conjunto
ImL = {Lv : v ∈ V }
é a imagem de L. Tanto o núcleo de L quanto a sua imagem, são subespaços vetoriais
de V. A dimensão do núcleo de L é denominada de nulidade de L.
Exemplo 3.5 Seja L a transformação linear de R
3
em R
3
definida por
L(x, y, z) = (x +z, 2x +y +z, x + 2y −z).
Para determinar o núcleo de L escreva
L(x, y, z) = (x +z, 2x +y +z, x + 2y −z) = (0, 0, 0)
e resolva o sistema correspondente à igualdade acima
x +z = 0
2x +y +z = 0
x + 2y −z = 0
cuja solução x = −z e y = z pode ser obtida pelo método da eliminação de Gauss. Assim,
ker L = {(−z, z, z) : z ∈ R}.
O ker L é gerado por (−1, 1, 1) e, portanto, tem dimensão 1.
Para determinar a imagem de L escrevemos
L(x, y, z) = (x +z, 2x +y +z, x + 2y −z)
= x(1, 2, 1) +y(0, 1, 2) +z(1, 1, −1)
mostrando que todo elemento da imagem de L é uma combinação linear dos vetores (1, 2,
1), (0, 1, 2) e (1, 1, −1). Para determinar uma base do espaço gerado usamos o processo
de escalonamento. Construímos a matriz
_
_
1 2 1
0 1 2
1 1 −1
_
_
cujas linhas são os elementos dos vetores que geram o subespaço. Usando operações
elementares sobre as linhas chegamos a
_
_
1 2 1
0 1 2
1 1 −1
_
_
l
3
=l
3
−l
1

_
_
1 2 1
0 1 2
0 −1 −2
_
_
l
3
=l
3
−l
2

_
_
1 2 1
0 1 2
0 0 0
_
_
Notas de aula do Prof. Antonio Cândido Faleiros 53
e chegamos a uma base da imagem de L que é formada pelos vetores
(1, 2, 1) , (0, 1, 2)
e concluímos que a imagem de L tem dimensão 2.
Adicionando a dimensão do núcleo com a dimensão da imagem obtemos 3 que é a
dimensão do domínio de L.
O resultado do exemplo anterior em que a soma das dimensões do núcleo e da imagem
de L é igual à dimensão do domínio de L é um resultado geral, como enuncia o próximo
teorema.
Teorema 3.6 Sejam V e W espaços vetoriais e L : V →W linear. Se a dimensão de V
for finita, então
dimV = dimIm(L) + dimker(L).
Prova. Quando L é a transformação linear nula, que leva todos os vetores de V
no zero a Im(L) = {0} e nada resta a provar, uma vez que ker(L) = V. Assim, como
dimIm(L) = 0 e dimker(L) = dim(V ).
Se L não for a transformação linear nula, Im(L) 6= {0}. Seja {v
1
, . . . , v
p
} uma base do
ker(L). Podemos acrescentar vetores a este conjunto até obter uma base B = {v
1
, . . . , v
p
,
v
p+1
, . . . , v
n
} de V. Se provarmos que {L(v
p+1
), . . . , L(v
n
)} é base da Im(L), o teorema
estará provado pois
dimker(L) + dimIm(L) = p + (n −p) = n = dim(V ).
Inicialmente, observamos que nenhum dos vetores L(v
p+1
), . . . , L(v
n
) é nulo. Se fosse, o
vetor correspondente pertenceria ao núcleo de L e B seria linearmente dependente, o que
não é o caso pois é base de V.
Provemos agora que {L(v
p+1
), . . . , L(v
n
)} é base da Im(L).
1. O conjunto {L(v
p+1
), . . . , L(v
n
)} gera Im(L).
De fato, se w pertence à Im(L), então existe v em V tal que w = Lv. Podemos
escrever v como uma combinação linear dos elementos da base B,
v = x
1
v
1
+ · · · +x
p
v
p
+x
p+1
v
p+1
+ · · · +x
n
v
n
de onde segue
w = Lv = L(x
1
v
1
+ · · · +x
p
v
p
+x
p+1
v
p+1
+ · · · +x
n
v
n
)
= x
1
Lv
1
+ · · · +x
p
Lv
p
+x
p+1
Lv
p+1
+ · · · +x
n
Lv
n
= x
p+1
Lv
p+1
+ · · · +x
n
Lv
n
,
mostrando que {Lv
p+1
, . . . , Lv
n
} gera a Im(L).
54 Notas de aula do Prof. Antonio Cândido Faleiros
2. O conjunto {Lv
p+1
, . . . , Lv
n
} é linearmente independente.
Se fosse linearmente dependente, existiriam escalares k
p+1
, . . . , k
n
, nem todos nulos,
tais que
k
p+1
L(v
p+1
) + · · · +k
n
L(v
n
) = 0
o que implica em
L(k
p+1
v
p+1
+ · · · +k
n
v
n
) = 0
indicando que o vetor k
p+1
v
p+1
+ · · · + k
n
v
n
pertenceria ao ker(L), sendo igual a uma
combinação linear dos vetores v
1
, . . . , v
p
que formam uma base do núcleo de L. Portanto,
existem escalares k
1
, . . . , k
p
tais que
k
p+1
v
p+1
+ · · · +k
n
v
n
= k
1
v
1
+ · · · +k
p
v
p
ou
k
1
v
1
+ · · · +k
p
v
p
−k
p+1
v
p+1
−· · · −k
n
v
n
= 0
onde pelo menos um dos k
i
, com i = 1, . . . , p, diferente de zero, o que vai contraria a
hipótese de B ser base de V.
Das partes 1 e 2 concluímos que {Lv
p+1
, . . . , Lv
n
} é base da Im(L).
Como {v
1
, . . . , v
p
} é base do ker(L) e {Lv
p+1
, . . . , Lv
n
} é base da Im(L), então
dimker L + dimImL = p + (n −p) = n = dimV
e o teorema está provado. ¤
3.1 Matriz de uma transformação linear
Seja B
1
= {v
1
, . . . , v
n
} uma base de um espaço vetorial V, B
2
= {w
1
, . . . , w
m
} uma base
de um espaço vetorial W e L : V → W uma transformação linear. Podemos decompor
cada vetor Lv
j
, com j = 1, . . . , n, numa combinação linear dos elementos da base B
2
Lv
1
= a
11
w
1
+a
21
w
2
+ · · · +a
m1
w
m
Lv
2
= a
12
w
1
+a
22
w
2
+ · · · +a
m2
w
m
· · ·
Lv
n
= a
1n
w
1
+a
2n
w
2
+ · · · +a
mn
w
m
Estas expressões podem ser escritas de modo taquigráfico usando somatório: para j = 1,
2, . . . , n
Lv
j
=
m
X
i=1
a
ij
w
i
.
Notas de aula do Prof. Antonio Cândido Faleiros 55
A matriz m por n
[L]
12
=
_
_
_
_
_
a
11
a
12
· · · a
1n
a
21
a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
· · · a
mn
_
_
_
_
_
é denominada de matriz de L nas bases B
1
e B
2
. Ainda se diz que [L]
12
é a representação
matricial de L nas bases B
1
e B
2
.
Quando W = V e B
2
= B
1
, a matriz [L]
12
é denotada por [L]
1
e denominada de matriz
de L na base B
1
. Também se diz que [L]
1
é a representação matricial de L na base B
1
.
Para simplificar a notação, podemos escrever [L] em lugar de [L]
12
ou [L]
1
, conforme o
caso, sempre que o contexto for claro quanto às bases envolvidas.
Teorema 3.7 Sejam B
1
e B
2
bases dos espaços vetoriais V e W, respectivamente. Seja
L : V → W uma transformação linear e v um vetor de V. Se [v]
1
for a matriz de v na
base B
1
, [Lv]
2
a matriz de Lv na base B
2
e [L]
12
for ma matriz de Lv nas bases B
1
e B
2
então
[Lv]
2
= [L]
12
[v]
1
.
Prova. Sejam B
1
= {v
1
, . . . , v
n
} e B
2
= {w
1
, . . . , w
m
} as bases de V e W. Se
v =
n
X
j=1
x
j
v
j
, Lv =
m
X
i=1
y
i
w
i
, Lv
j
=
m
X
i=1
a
ij
w
i
,
então [v]
1
= [x
1
, . . . , x
n
]
T
, [Lv]
2
= [y
1
, . . . , y
m
]
T
são matrizes coluna e [L]
12
= [a
ij
] é
uma matriz retangular m×n.
Por um lado,
Lv = L
Ã
X
j
x
j
v
j
!
=
X
j
x
j
L(v
j
)
=
X
j
x
j
X
i
a
ij
w
i
=
X
i
Ã
X
j
a
ij
x
j
!
w
i
e por outro,
Lv =
X
i
y
i
w
i
.
Da unicidade da decomposição de um vetor nos elementos da base,
y
i
=
n
X
j=1
a
ij
x
j
para i = 1, . . . , m que equivale à igualdade matricial
[Lv]
2
= [L]
12
[v]
1
.
¤
56 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 3.8 Sejam B
1
, B
2
e B
3
, respectivamente, bases dos espaços vetoriais V, W e U.
Sejam L
1
: V →W e L
2
: W →U lineares. Então
[L
2
◦ L
1
]
13
= [L
2
]
23
[L
1
]
12
.
Prova. Sejam B
1
= {v
1
, . . . , v
n
}, B
2
= {w
1
, . . . , w
m
} e B
3
= {u
1
, . . . , u
p
} as bases
em questão. Se
L
1
v
j
=
m
X
i=1
a
ij
w
i
,
L
2
w
i
=
p
X
k=1
b
ki
u
k
,
L
2
L
1
v
j
=
p
X
k=1
c
kj
u
k
,
então [L
1
]
12
= [a
ij
], [L
2
]
23
= [b
ki
] e [L
2
L
1
]
13
= [c
kj
]. Como
L
2
L
1
v
j
= L
2
Ã
m
X
i=1
a
ij
w
i
!
=
m
X
i=1
a
ij
L
2
(w
i
)
=
m
X
i=1
a
ij
p
X
k=1
b
ki
u
k
=
p
X
k=1
Ã
m
X
i=1
b
ki
a
ij
!
u
k
segue
c
kj
=
m
X
i=1
b
ki
a
ij
para k = 1, . . . , p e j = 1, . . . , n, que resulta na igualdade matricial
[L
2
L
1
]
13
= [L
2
]
23
[L]
12
.
¤
Teorema 3.9 Sejam B
1
e B
2
duas bases do espaço vetorial V e L : V →V um operador
linear. Seja M
12
a matriz de mudança da base B
1
para a base B
2
. Então
M
12
[L]
2
= [L]
1
M
12
ou [L]
2
= M
−1
12
[L]
1
M
12
.
Prova. Sejam B
1
= {v
1
, . . . , v
n
} e B
2
= {w
1
, . . . , w
n
} as bases em questão. Seja
M
12
= [m
ij
] a matriz de mudança da base B
1
para a base B
2
, de modo que
w
j
=
n
X
i=1
m
ij
v
i
.
Notas de aula do Prof. Antonio Cândido Faleiros 57
Sejam [L]
1
= [a
ij
] e [L]
2
= [b
ij
] as matrizes de L nas bases B
1
e B
2
, respectivamente.
Podemos escrever, para j = 1, . . . , n,
Lv
j
=
n
X
i=1
a
ij
v
i
, e Lw
j
=
n
X
i=1
b
ij
w
i
.
Por um lado,
Lw
j
=
X
k
b
kj
w
k
=
X
k
b
kj
X
i
m
ik
v
i
=
X
i
Ã
X
k
m
ik
b
kj
!
v
i
e por outro,
Lw
j
= L
Ã
X
k
m
kj
v
k
!
=
X
k
m
kj
L(v
k
) =
X
k
m
kj
X
i
a
ik
v
i
=
X
i
Ã
X
k
a
ik
m
kj
!
v
i
.
Pela unicidade de decomposição de vetores numa base, segue
X
k
m
ik
b
kj
=
X
k
a
ik
m
kj
,
igualdade válida para i = 1, . . . , n e j = 1, . . . , m. Usando a notação matricial, conclui-se
a prova do teorema:
M
12
[L]
2
= [L]
1
M
12
.
¤
Definição 3.10 Duas matrizes A e B são semelhantes se existir uma matriz inversível
P tal que
B = P
−1
AP.
De acordo com o teorema anterior, as representações matriciais de uma transformação
linear L : V →V são semelhantes.
3.2 Isomorfismo
Sejam V e W dois espaços vetoriais sobre o mesmo corpo. Uma tranformação L : V →
W é injetora se, para todo v
1
6= v
2
em V, então L(v
1
) 6= L(v
2
). De forma equivalente, L
é injetora se para todo v
1
e v
2
em V com L(v
1
) = L(v
2
) tem-se v
1
= v
2
.
58 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 3.11 Sejam V e W espaços vetoriais sobre o mesmo corpo. Seja L : V →W
linear. L é injetora se e só se ker(L) = {0}. Em outras palavras, L é injetora se e só se
o zero é o único vetor levado por L em zero.
Uma transformação L : V → W é sobrejetora se, para todo w em W, existe pelo
menos um v em V tal que Lv = w. Uma transformação bijetora é aquela que é ao mesmo
tempo injetora e sobrejetora. As transformações bijetoras L : V → W possuem inversa
L
−1
: W → V que, por sua vez, é bijetora e sua inversa é L.
Denominamos isomorfismo à transformação L : V → W que é linear e bijetora.
Neste caso sua inversa L
−1
: W →V é linear e, portanto, um isomorfismo. Dois espaços
vetoriais V e W são isomorfos quando houver um isomorfismo de V em W.
Teorema 3.12 Dois espaços vetoriais V e W sobre um mesmo corpo e de dimensão finita
são isomorfos se e só se dimV = dimW.
Prova. Sejam V e W isomorfos e L : V →W um isomorfismo entre eles. Dada uma
base {v
1
, . . . , v
n
} de V, vamos mostrar que {Lv
1
, . . . , Lv
n
} é base de W.
1. Provemos que {Lv
1
, . . . , Lv
n
} gera W. Sendo L bijetora, para qualquer w em W,
existe v em V tal que w = Lv. Decompondo v na base {v
1
, . . . , v
n
}, obtemos v =
x
1
v
1
+ · · · + x
n
v
n
e w = Lv = x
1
Lv
1
+ · · · + x
n
Lv
n
, provando que {Lv
1
, . . . , Lv
n
}
gera W.
2. Provemos que {Lv
1
, . . . , Lv
n
} é linearmente independente. Sejam k
1
, . . . , k
n
es-
calares tais que k
1
Lv
1
+ · · · + k
n
Lv
n
= 0. Então L(k
1
v
1
+ · · · + k
n
v
n
) = 0 e, como
L(0) = 0 e L é bijetora, segue k
1
v
1
+ · · · + k
n
v
n
= 0. Pelo fato de {v
1
, . . . , v
n
} ser
base de V, concluímos que k
1
= · · · = k
n
= 0, provando a independência linear do
conjunto {Lv
1
, . . . , Lv
n
}.
As partes 1 e 2 provam que dimV = dimW.
Tomando dimV = dimW = n como hipótese, provemos que V e W são isomorfos.
Seja B
1
= {v
1
, . . . , v
n
} base de V e B
2
= {w
1
, . . . , w
n
} base de W. Seja L a transformação
linear de V em W que leva v
i
em w
i
, para i = 1, . . . , n, ou seja Lv
i
= w
i
. Vamos provar
que L é um isomorfismo entre V e W.
3. Provemos que L é sobrejetor. Dado qualquer s em W, podemos escrever
s = s
1
w
1
+ · · · +s
n
w
n
= s
1
Lv
1
+ · · · +s
n
Lv
n
= L(s
1
v
1
+ · · · +s
n
v
n
),
provando que s está na imagem de L, provando a sobrejetividade de L.
4. Provemos que L é injetor. Sejam x = x
1
v
1
+ · · · + x
n
v
n
e y = y
1
v
1
+ · · · + y
n
v
n
dois
vetores de V tais que Lx = Ly. Logo,
L(x
1
v
1
+ · · · +x
n
v
n
) = L(y
1
v
1
+ · · · +y
n
v
n
)
Notas de aula do Prof. Antonio Cândido Faleiros 59
ou seja,
x
1
w
1
+ · · · +x
n
w
n
= y
1
w
1
+ · · · +y
n
w
n
.
Da independência linear de B
2
, concluímos que x
1
= y
1
, . . . , x
n
= y
n
, de onde resulta
a igualdade x = y, provando que L é injetora.
De 3 e 4 concluímos que L é um isomorfismo. ¤
Teorema 3.13 Sejam V e W espaços vetoriais sobre o mesmo corpo, ambos com a
mesma dimensão e L : V →W linear. São equivalentes:
1. L é um isomorfismo.
2. L é sobrejetora.
3. L é injetora.
4. Se L(v) = 0, então v = 0. Em outras palavras, ker(L) = {0}.
Prova. Provemos que (2) implica em (3). Seja L sobrejetora e {w
1
, . . . , w
n
} uma
base de W. Da sobrejetividade de L, existe um conjunto de vetores B = {v
1
, . . . , v
n
} em
V tais que Lv
i
= w
i
, para i = 1, . . . , n. O conjunto B é base de V. Sejam x = x
1
v
1
+ · · · +
x
n
v
n
e y = y
1
v
1
+ · · · + y
n
v
n
dois vetores de V tais que Lx = Ly. Desta igualdade segue
x
1
w
1
+ · · · + x
n
w
n
= y
1
w
1
+ · · · + y
n
w
n
. A independência linear de {w
1
, . . . , w
n
} implica
em x
1
= y
1
, . . . , x
n
= y
n
, ou x = y, provando a injetividade de L.
Provemos que (3) implica em (4). Se L é injetora e L(v) = 0, como L(0) = 0, segue
que v = 0, provando que (3) implica em (4).
Provemos que (4) implica em (2). Sendo ker(L) = {0} e {v
1
, . . . , v
n
} uma base de V,
então {Lv
1
, . . . , Lv
n
} é uma base de W. De fato, se k
1
, . . . , k
n
forem escalares tais que
k
1
Lv
1
+ · · · + k
n
Lv
n
= 0, então L(k
1
v
1
+ · · · + k
n
v
n
) = 0 e, como o núcleo de L contém
apenas o zero, k
1
v
1
+ · · · + k
n
v
n
= 0. A independência linear dos v
i
acarreta em k
1
= · · · =
k
n
= 0, provando que conjunto {Lv
1
, . . . , Lv
n
} é linearmente independente e, portanto,
base de W. Logo, L é sobrejetor. ¤
Teorema 3.14 Sejam B
1
e B
2
bases dos espaços V e W respectivamente e L : V → W
um isomorfismo. Se A for a representação matricial de L nas bases B
1
e B
2
, então A
−1
será a representação matricial de L
−1
nas bases B
2
e B
1
.
Prova. Seja A = [a
ij
] a representação matricial de L nas bases B
1
e B
2
. Seja B = [b
ij
]
a representação matricial de L
−1
nas bases B
2
e B
1
. Como L
−1
L o operador identidade,
BA é a matriz da transformação identidade na base B
1
e esta é a matriz identidade. Ainda
temos que LL
−1
é o operador identidade e, desta maneira, AB é a matriz da transformação
identidade na base B
2
e esta é a matriz identidade o que prova ser B = A
−1
. ¤
60 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 3.15 Todo um espaço vetorial V de dimensão n sobre um corpo K é isomorfo
a K
n
.
Prova. Se {v
1
, . . . , v
n
} for uma base de V, então definimos a transformação linear L :
V → K
n
por Lv
i
= e
i
, onde {e
1
, . . . , e
n
} é a base canônica do K
n
, isto é, e
i
= (0, . . . ,
0, 1, 0, . . . , 0) onde o único elemento não nulo é o i-ésimo. Como L leva uma base de V
numa base de K
n
ela é injetora e, portanto, um isomorfismo. ¤
Podemos afirmar que os isomorfismos são os mensageiros que trazem e levam as pro-
priedades de um espaço vetorial a outro. Se dois espaços vetoriais vetoriais forem iso-
morfos, todas as propriedades de um podem ser levados ao outro pelo isomorfismo. Isto
significa que, ao estudar as propriedades de um deles, teremos estudado as propriedades
do outro.
Por esta razão, ao estudar um espaço vetorial real ou complexo V de dimensão n, os
protótipos são o R
n
e o C
n
, respectivamente. Se soubermos como proceder com um dos
dois, saberemos como proceder com V. Se{v
1
, . . . , v
n
} for uma base de V, basta usar a
correspondência
x
1
v
1
+ · · · +x
n
v
n
↔(x
1
, . . . , x
n
)
definida pelo isomorfismo estabelecido no teorema anterior.
3.3 Transformações lineares em C
m×1
Seja A uma matriz complexa m por n. Então L : C
n×1
→C
m×1
definida por L(x) = Ax
é uma transformação linear.
Reciprocamente, vamos mostrar que toda transformação linear L : C
n×1
→ C
m×1
é
da forma L(x) = Ax, onde A é uma matriz m por n.
Se {e
1
, . . . , e
n
} for a base canônica do C
n×1
então a
j
= L(e
j
) são vetores coluna em
C
m×1
. Dado o vetor coluna x = [x
1
, . . . , x
n
]
T
= x
1
e
1
+ · · · + x
n
e
n
do C
n
, então
L(x) = L
Ã
n
X
j=1
x
j
e
j
!
=
n
X
j=1
x
j
L(e
j
)
=
n
X
j=1
x
j
a
j
= Ax
onde A = [a
1
, . . . , a
n
] é a matriz complexa m por n, cujas colunas são a
1
, . . . , a
n
.
Em síntese, toda transformação L : C
n×1
→ C
m×1
é do tipo L(x) = Ax, onde A é
uma matriz complexa de ordem m por n. Por esta razão, podemos dizer que a matriz A
é uma transformação linear e escrever A : C
n×1
→C
m×1
.
É intessante observar que, se B
1
= {e
1
, . . . , e
n
} for a base canônica do C
n×1
, se B
2
=
{f
1
, . . . , f
m
} for a base canônica do C
m×1
e se A for uma matriz complexa m por n, então
a representação matricial da transformação linear A : C
n×1
→C
m×1
nas bases B
1
e B
2
é,
exatamente, a matriz A.
Capítulo 4
Produto interno e norma
Neste capítulo trabalharemos apenas com espaços vetoriais sobre o corpo dos números
reais ou sobre o corpo dos números complexos.
4.1 Produto interno em espaços vetoriais reais
Seja V um espaço vetorial sobre o corpo R dos números reais. Um produto interno em
V é uma operação
h , i : V ×V →R
que possui as propriedades abaixo, válidas para todo v, w e z em V e todo a e b em R :
1. O produto interno é positivo definido
hv, vi ≥ 0 e hv, vi = 0 se e só se v = 0.
2. O produto interno é simétrico
hv, wi = hw, vi .
3. O produto interno é linear na segunda variável
hv, aw +bzi = a hv, wi +b hv, zi .
Das propriedades (2) e (3) se conclui que o produto interno é liner na primeira variável
hav +bw, zi = a hv, zi +b hw, zi .
Essas propriedades se extrai a linearidade do produto interno em relação à primeira e à
segunda variável. Tanto é que, se v
1
, . . . , v
p
e w
1
, . . . , w
q
forem vetores de V e a
i
, b
j
forem números reais, então
*
p
X
i=1
a
i
v
i
,
q
X
j=1
b
j
w
j
+
=
p
X
i=1
q
X
j=1
a
i
b
j
hv
i
, w
j
i .
61
62 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 4.1 Se x e y forem matrizes coluna R
n×1
, o produto matricial x
T
y, onde x
T
é
a matriz transposta de x, é denominado produto escalar das matrizes x e y. Um produto
interno em R
n×1
é proveniente do produto escalar hx, yi = x
T
y.
Exemplo 4.2 Seja P
2
(R) o conjunto dos polinômios com coeficientes reais e grau menor
ou igual a 2. Neste espaço vetorial,
¸
a
0
+a
1
x +a
2
x
2
, b
0
+b
1
x +b
2
x
2
®
= a
0
b
0
+a
1
b
1
+a
2
b
2
é um produto interno e
hf(x), g(x)i =
Z
1
−1
f(x)g(x)dx
é outro.
Exemplo 4.3 Seja C [a, b] o conjunto das funções reais de variável real, definidas e con-
tínuas no intervalo [a, b]. Com as operações de adição de funções e a multiplicação de um
número real por uma função, C [a, b] é um espaço vetorial sobre o corpo de números reais.
Nele
hf, gi =
Z
b
a
f(t)g(t) dt
é um produto interno.
4.2 Produto interno em espaços vetoriais complexos
Vamos agora definir produto interno em um espaço vetorial sobre o corpo C dos números
complexos. O corpo dos números complexos é formado pelo conjunto de pares ordenados
(a, b) de números reais, no qual definimos duas operações, uma de adição e outra de
multiplicação. Os elementos desse corpo são denominados números complexos. Dois
números complexos (a, b) e (c, d) são iguais quando a = c e b = d e se escreve (a, b) =
(c, d) para expressar esta igualdade. O a é a parte real e o b é a parte imaginária do
número complexo (a, b). Definimos as operações de adição e de multiplicação de dois
números complexos por
(a, b) + (c, d) = (a +c, b +d)
e
(a, b) × (c, d) = (ac −bd, ad +bc).
O sinal de multiplicação pode ser omitido e tanto (a, b)× (c, d) quanto (a, b) (c, d) possuem
o mesmo significado. O número complexo (0, 1) é denotado por i e denominado unidade
imaginária. Se denotarmos o número complexo (a, 0) simplesmente por a e vemos que
todo número complexo (a, b) pode ser escrito na forma a +bi. De fato,
(a, b) = (a, 0) + (b, 0)(0, 1) = a +bi
Notas de aula do Prof. Antonio Cândido Faleiros 63
e, a partir daí, obtemos
(a +bi) + (c +di) = (a +c) + (b +d)i
e
(a +bi) × (c +di) = (ac −bd) + (ad +bc)i.
O sinal de multiplicação pode ser omitido e tanto (a+bi)× (c+di) quanto (a+bi) (c+di)
possuem o mesmo significado. Com a notação introduzida que identifica o par (a, b) com
a+bi, os números complexos a+bi e c+di são iguais se a = c e b = d e se escreve a+bi =
c +di para expressar esta igualdade. O número complexo z
1
+z
2
é a soma de z
1
e z
2
. O
número complexo z
1
×z
2
é o produto de z
1
e z
2
.
O conjunto de todos os números complexos com as operações de adição e multiplicação
é um corpo, denotado por C e denominado corpo dos números complexos. O elemento
neutro da adição é o 0 = 0+ 0i e o elemento neutro da multiplicação é o 1 = 1+ 0i. O 0
é denominado zero e 1 é denominado de unidade. Se a+ bi for um número complexo,
então seu inverso aditivo ou seu oposto, é −a + ( −b)i e seu inverso multiplicativo
ou seu inverso, é
(a +bi)
µ
a
a
2
+b
2

b
a
2
+b
2
i

.
que existe apenas quando a +bi for diferente de zero. O oposto de z é denotado por −z
e o inverso de z é denotado por z
−1
.
Definimos a subtração z
1
− z
2
de dois números complexos z
1
e z
2
por
z
1
−z
2
= z
1
+ (−z
2
)
e a divisão z
1
/z
2
, onde z
2
6= 0, por
z
1
z
2
= z
1
z
−1
2
.
Sendo z = a + bi um número complexo, onde a e b são reais, z = a− bi é o seu
complexo conjugado e o número real |z| =

zz =

a
2
+b
2
é o seu módulo. Neste
caso, sendo z 6= 0, então
z
−1
=
z
z z
Exemplo 4.4 Se z = 3 + 4i, então z = 3 − 4i e zz = (3 + 4i)(3 − 4i) = 25. Logo,
z
−1
= (3 −4i)/25.
Se z e w são números complexos, valem as propriedades
z +w = ¯ z + ¯ w
zw = ¯ z ¯ w
z
−1
= ¯ z
−1
.
64 Notas de aula do Prof. Antonio Cândido Faleiros
Vamos tentar definir um produto interno em C
n
que mantenha as propriedades do
produto interno do R
n
. Se x = (x
1
, . . . , x
n
) e y = (y
1
, . . . , y
n
) forem dois elementos de
C
n
, então, uma primeira tentativa seria
hx, yi = x
1
y
1
+ · · · +x
n
y
n
.
Entretanto, com esta definição a primeira propriedade hx, xi ≥ 0 falha pois hx, xi nem
sempre é real. Uma correção possível consiste em definir
hx, yi = x
1
y
1
+ · · · +x
n
y
n
que agora satisfaz às propriedades 1 e 3 do produto interno em espaços vetoriais sobre os
reais. Entretanto, a propriedade 2 não é satisfeita. Em seu lugar vale
hx, yi = hy, xi.
Aceitamos esta propriedade como uma consequência inevitável e com isto em mente defin-
imos o produto interno em espaços vetoriais sobre o corpo dos números complexos.
Seja V um espaço vetorial sobre o corpo C dos números complexos. Um produto
interno em V é uma operação
h , i : V ×V →C
com as propriedades abaixo, válidas para todo v, w e z em V e todo a e b em C :
1. O produto interno é positivo definido
hv, vi ≥ 0 e hv, vi = 0 se e só se v = 0.
2. O produto interno é hermitiano
hv, wi = hw, vi.
3. O produto interno é linear na segunda variável
hv , aw +bz i = a hv, wi +b hv, zi .
A partir das propriedades 2 e 3, se conclui que
h av +bw , zi = ¯ a hv, zi +
¯
b hw, zi .
Se v, v
1
, . . . , v
p
e w. w
1
, . . . , w
q
forem vetores de V, se a
1
, . . . , a
p
e b
1
, . . . , b
q
forem
números complexos, prova-se por indução que
*
v,
X
j
b
j
w
j
+
=
X
j
b
j
hv, w
j
i
*
X
i
a
i
v
i
, w
+
=
X
i
¯ a
i
hv
i
, wi
Notas de aula do Prof. Antonio Cândido Faleiros 65
e, juntando as duas proprieades,
*
X
i
a
i
v
i
,
X
j
b
j
w
j
+
=
X
i
X
j
¯ a
i
b
j
hv
i
, w
j
i .
Exemplo 4.5 Se x = [x
1
, . . . , x
n
]
T
e y = [y
1
, . . . , y
n
]
T
forem matrizes coluna em C
n×1
,
definimos x

= [¯ x
1
, . . . , ¯ x
n
]. A operação hx, yi = x

y, que leva duas matrizes coluna em
C
n×1
em uma matriz complexa 1×1 é um produto interno em C
n
. Aqui identificamos [a],
uma matriz 1 × 1, com o número complexo a.
Exemplo 4.6 Seja V = {f : [a, b] → C : f é contínua}. Este conjunto com as operações
de adição de funções de V e multiplicação de um número complexo por uma função de
V é um espaço vetorial sobre o corpo dos números complexos. Um produto interno neste
espaço vetorial é dado por
hf, gi =
Z
L
−L
f(t)g(t) dt.
4.3 Funcional linear
Seja V um espaço vetorial sobre um corpo C dos números complexos. Uma transformação
linear f : V → C recebe o nome de funcional linear em V.
Teorema 4.7 Seja V um espaço vetorial sobre C, com dimensão finita e produto interno.
Dado um funcional linear f : V → C. Então existe um vetor w em V tal que f(v) =
hw, vi para todo v em V.
Prova. Seja {v
1
, . . . , v
n
} uma base ortonormal de V. Decompondo v nesta base e
calculando f(v) obtemos
f(v) = f(a
1
v
1
+ · · · +a
n
v
n
) = a
1
f(v
1
) + · · · +a
n
f(v
n
) = hw, vi
onde w = f(v
1
)v
1
+ · · · + f(v
n
)v
n
.
Vamos mostrar que este vetor é único. Se houvesse outro vetor u tal que hv, wi =
hv, ui para todo v em V, então hv, w −ui = 0 para todo v. Tomando v = w− u, segue
hw −u, w −ui = 0, mostrando que w = u. ¤
O vetor w tal que f(v) = hw, vi para todo v em V pertence ao complemento ortogonal
do ker(f) uma vez que f(v) = 0 implica em hw, vi = 0.
Toda transformação linear L de um espaço vetorial complexo V de dimensão n em
C
m
é da forma
L(v) = ( f
1
(v), . . . , f
m
(v) ),
onde f
i
é um funcional linear em V. Dado um produto interno em V, existem w
1
, . . . , w
m
em V tais que
L(v) = ( hw
1
, vi , . . . , hw
m
, vi ),
66 Notas de aula do Prof. Antonio Cândido Faleiros
4.4 Norma
Seja V um espaço vetorial real ou complexo e v um vetor de V. A norma de v é definida
por
kvk =
p
hv, vi.
Se kvk = 1, diz-se que o vetor é unitário.
Para todo v e w em V e todo escalar a, as igualdades abaixo se verificam.
1. kvk ≥ 0 e kvk = 0 se e só se v = 0.
2. kavk = |a| kvk .
3. kv +wk ≤ kvk + kwk (Desigualdade triangular)
Para provar esta última desigualdade, devemos provar a desigualdade de Cauchy-
Schwarz. Lembramos que, se a e b são reais, a é a parte real e b a parte imaginária do
número complexo a + bi. As notações Re (a + bi) e Im(a + bi) são usadas para designar
as partes real e imaginária do número complexo a +bi. Observe que, se z for um número
complexo, então 2Re (z) = z +z e 2Im(z) = z −z.
As desigualdades abaixo são úteis. Sendo z um número complexo,
Re (z) ≤ |Re (z)| ≤ |z|
Im(z) ≤ |Im(z)| ≤ |z| .
Teorema 4.8 Seja V um espaço vetorial sobre o corpo C dos números complexos onde
se definiu um produto interno. Sejam v e w dois vetores em V. Vale a desigualdade de
Cauchy-Schwarz
|hv, wi| ≤ kvk kwk .
Prova. Seja λ um número real qualquer. Então
0 ≤ hv +λw, v +λwi = hv, vi +λhv, wi +λhw, vi +λ
2
hw, wi
= kvk
2
+λhv, wi +λhv, wi +λ
2
kwk
2
= kvk
2
+ 2λRe hv, wi +λ
2
kwk
2
≤ kvk
2
+ 2λ|hv, wi| +λ
2
kwk
2
Como este polinômio real é maior ou igual a zero para todo λ, seu discriminante ∆ =
4 |hv, wi|
2
− 4 kvk
2
kwk
2
é menor ou igual a zero, ou seja,
|hv, wi|
2
≤ kvk
2
kwk
2
.
¤
Notas de aula do Prof. Antonio Cândido Faleiros 67
Esta desigualdade implica em
|hv, wi|
kvk kwk
≤ 1
para todo par de vetores v e w não nulos.
Seja V um espaço vetorial sobre o corpo dos números reais. A desigualdade de Cauchy-
Schwarz implica em
−1 ≤
hv, wi
kvk kwk
≤ 1
o que motiva a definição de ângulo entre v e w, como sendo aquele único número real θ,
pertencente ao intervalo [0, π], para o qual
cos θ =
hv, wi
kvk kwk
.
Os vetores v e w são ortogonais quando θ = π/2 ou hv, wi = 0, fato que será indicado
pelo símbolo v ⊥ w.
Quando estivermos em um espaço vetorial sobre o corpo dos números complexos, não
tem sentido definir ângulo entre vetores pois, neste caso, hv, wi pode ser um número
complexo. Entretanto diremos que dois vetores v e w em tal espaço são ortogonais
quando hv, wi = 0 e usaremos o símbolo v ⊥ w para designar este fato.
Se w for ortogonal a si mesmo, hw, wi = 0 e isto implica em w = 0. Se w for ortogonal
a todo elemento de V, então é ortogonal a si mesmo e w = 0. Se a dimensão de V for
finita e w for ortogonal a uma base de V, então w = 0.
Um conjunto de vetores {v
1
, . . . , v
p
} é ortogonal quando seus elementos forem dois
a dois ortogonais entre si. Se além disto, todos os vetores possuírem norma unitária, o
conjunto é ortonormal.
Teorema 4.9 Seja V um espaço vetorial de dimensão n e S = {v
1
, . . . , v
n
} um conjunto
ortogonal de vetores de V. Então S é uma base.
Prova. Basta provar que S é linearmente independente. De fato, sejam k
1
, . . . , k
n
escalares tais que k
1
v
1
+ · · · + k
n
v
n
= 0. Como hv
i
, 0i = 0, obtemos
0 = hv
i
, 0i = hv
i
, k
1
v
1
+ · · · +k
n
v
n
i = k
i
hv
i
, v
i
i = k
i
kv
i
k
2
.
Como kv
i
k 6= 0, segue que k
i
= 0, provando a independência linear de S. ¤
Seja {v
1
, . . . , v
n
} uma base ortonormal de um espaço vetorial V. Dado v = x
1
v
1
+ · · · +
x
n
v
n
neste espaço, multiplicando-o internamente por v
i
, obtemos x
i
= hv
i
, vi e assim,
v = hv
1
, vi v
1
+ · · · + hv
p
, vi v
p
.
O próximo teorema apresenta a forma da matriz de mudança de bases quando as bases
envolvidas são ortonormais.
Seja A = [a
ij
] uma matriz complexa m × n. A matriz A

= [b
ij
] onde b
ij
= ¯ a
ij
é a
matriz adjunta de A. Se A

= A, a matriz A é denominada hermitiana. Se A
−1
= A

a
matriz A é denominada unitária.
68 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 4.10 Sejam B
1
e B
2
bases ortonormais de um espaço vetorial V sobre o corpo
C dos números complexos. A matriz M
12
de mudança da base B
1
para a base B
2
é
hermitiana e unitária.
Prova. Sejam B
1
= {v
1
, . . . , v
n
} e B
2
= {w
1
, . . . , w
n
} as bases em questão, M
12
=
[a
ij
] e M
21
= [b
ij
] as matrizes de mudança da base B
1
para a base B
2
e da base B
2
para a
base B
1
, respectivamente. Sabemos que M
−1
12
= M
21
e que
w
j
=
X
i
a
ij
v
i
e v
j
=
X
i
b
ij
w
i
.
Sendo as bases ortonormais, a
ij
= hv
i
, w
j
i = ¯ a
ji
e b
ij
= hw
i
, v
j
i = hv
j
, w
i
i = ¯ a
ji
, mostrando
que M

12
= M
12
e M
−1
12
= M

12
. ¤
Exemplo 4.11 Consideremos as bases B
1
= {e
1
, e
2
} e B
2
= {f
1
, f
2
} do R
2
, onde e
1
=
(1, 0), e
2
= (0, 1), f
1
= (1/5)(3, 4) e f
2
= (1/5)(4, −3). Ambas são ortonormais em
relação ao produto interno h(x
1
, y
1
), (x
2
, y
2
)i = x
1
x
2
+y
1
y
2
. Temos
f
1
=
3
5
e
1
+
4
5
e
2
f
1
=
4
5
e
1

3
5
e
2
e
e
1
=
3
5
f
1
+
4
5
f
2
e
1
=
4
5
f
1

3
5
f
2
.
Assim
M
12
= M
21
=
·
3
5
4
5
4
5

3
5
¸
.
A matriz M
12
é hermitiana e M
12
M

12
é a matriz identidade, mostrando que M
12
é
unitária.
4.5 Ortogonalização de Gram-Schmidt
Podemos, a partir de uma base {v
1
, . . . , v
n
} uma base de um espaço vetorial V, obter
uma base ortogonal {w
1
, . . . , w
n
} de V, seguindo o procedimento descrito em seguida e
conhecido como processo de ortogonalização de Gram-Schmidt.
Defina
w
1
= v
1
.
Agora escreva
w
2
= v
2
−β
12
w
1
Notas de aula do Prof. Antonio Cândido Faleiros 69
e determine o escalar β
12
para que a condição de ortogonalidade hw
1
, w
2
i = 0 seja satis-
feita. Substitua w
2
por v
2
− β
12
w
1
nesta condição para obter
β
12
=
hw
1
, v
2
i
hw
1
, w
1
i
.
Em seguida, considere
w
3
= v
3
−β
13
w
1
−β
23
w
3
e determine β
13
e β
23
para tornar w
3
ortogonal a w
1
e w
2
. Das condições de ortogonalidade
hw
1
, w
3
i = 0 e hw
2
, w
3
i = 0 calcule
β
13
=
hw
1
, v
3
i
hw
1
, w
1
i
e β
23
=
hw
2
, v
3
i
hw
2
, w
2
i
.
Prosseguindo com este raciocínio, se chega a um conjunto ortogonal {w
1
, . . . , w
n
} de
vetores que é base de V. Observe que os vetores w
1
, w
2
, . . . , w
n
são definidos recursivamente
por
w
1
= v
1
e
w
k
= v
k
−β
1k
w
1
−· · · −β
k−1,k
w
k−1
para k = 2, . . . , n, onde
β
ik
=
hw
i
, v
k
i
hw
i
, w
i
i
.
A partir da base ortogonal {w
1
, . . . , w
n
} pode-se determinar uma base ortonormal {q
1
,
. . . , q
n
}, onde q
i
= w
i
/ kw
i
k . Esta base ortonormal pode ser obtida ao mesmo tempo em
que se obtém a base ortogonal. Comece com
w
1
= v
1
e q
1
= w
1
/ kw
1
k
e continue com o processo de ortogonalização, tomando
w
2
= v
2
−r
12
q
1
e q
2
= w
2
/ kw
2
k ,
w
3
= v
3
−r
13
q
1
−r
23
q
2
e q
3
= w
3
/ kw
3
k ,
e assim por diante, até que, num passo genérico k,
w
k
= v
k
−r
1k
q
1
−· · · −r
k−1,k
q
k−1
e q
k
= w
k
/ kw
k
k ,
onde
r
ik
= hq
i
, v
k
i ,
para k = 2, . . . , n e i = 1, . . . , k −1.
70 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 4.12 Os ternos ordenados (1, 0, 0), (0, 3/5, 4/5), (0, 4/5, −3/5) formam uma
base ortonormal no espaço vetorial C
n
em relação ao produto interno
h (a
1
, a
2
, a
3
), (b
1
, b
2
, b
3
) i = ¯ a
1
b
1
+ ¯ a
2
b
2
+ ¯ a
3
b
3
.
Exemplo 4.13 Os polinômios 1, x, x
2
formam uma base ortonormal no espaço vetorial
sobre C dos polinômios de grau menor ou igual a 2 e coeficientes complexos, munido com
o produto interno
¸
a
1
+a
2
x +a
3
x
2
, b
1
+b
2
x +b
3
x
2
®
= ¯ a
1
b
1
+ ¯ a
2
b
2
+ ¯ a
3
b
3
.
Exemplo 4.14 Considere o espaço vetorial sobre C dos polinômios com coeficientes com-
plexos de grau menor ou igual a 3, com o produto interno
hf, gi =
Z
1
−1
f(x)g(x)dx.
O conjunto {1, x, x
2
, x
3
} é uma base não ortogonal deste espaço vetorial. A base ortogonal
obtida a partir dela, usando o procedimento de Gram-Schmidt, é
{ 1, x, x
2
−1/3, x
3
−(3/5)x }.
Este procedimento pode ser estendido para o espaço vetorial dos polinômios de grau
menor ou igual a n.
Denotemos por p
0
(x), p
1
(x), p
2
(x), . . . os polinômios obtidos de 1, x, x
2
, . . . pelo
processo de ortogonalização de Gram-Schmidt, usando o produto interno definido acima.
Os polinômios L
k
(x) = p
k
(x)/p
k
(1) continuam ortogonais dois a dois e são denominados
de polinômios de Legendre. Os quatro primeiros são
L
0
(x) = 1, L
1
(x) = x, L
2
(x) =
3
2
x
2

1
2
, L
3
(x) =
5
2
x
3

3
2
x.
Tanto {1, x, x
2
, x
3
} quanto {L
0
(x), L
1
(x), L
2
(x), L
3
(x)} são bases do espaço dos polinômios
de grau menor ou igual a 3. A segunda possui a vantagem de ser ortogonal, o que a torna
mais adequada para determinados cálculos. Os métodos espectrais usam polinômios ortog-
onais para resolver equações diferenciais parciais tanto analítica quanto numericamente.
4.6 Decomposição QR
Vamos analisar o caso especial do espaço vetorial complexo C
n×1
com o produto interno
hx, yi = x

y.
Seja A = [v
1
, . . . , v
n
] uma matriz m × n cujo coluna k é v
k
. Um modo interessante
de olhar para o produto Ax, onde x = [x
1
, . . . , x
n
]
T
é uma matriz em C
m×1
consiste em
escrever
Ax = x
1
v
1
+ · · · +x
n
v
n
Notas de aula do Prof. Antonio Cândido Faleiros 71
e observar que Ax é uma combinação linear das colunas de A.
Mantendo a notação do parágrafo anterior, sendo b uma matriz coluna em C
m×1
, a
igualdade matricial Ax = b, pode ser escrita na forma
b = x
1
v
1
+ · · · +x
n
v
n
que pode ser interpretada do seguinte modo: x é a matriz de b na base formada pelas
colunas de A. Se as colunas de A forem linearmente independentese b estiver na imagem
de A, a decomposição é única.
Ainda uma última observação, sendo A = [v
1
, . . . , v
n
], então
A

=
_
¸
_
v

1
.
.
.
v

n
_
¸
_
e
A

A =
_
¸
¸
_
v

1
v
1
v

1
v
2
v

1
v
n
v

2
v
1
v

2
v
2
v

2
v
n
v

n
v
1
v

n
v
2
v

n
v
n
_
¸
¸
_
= [v

i
v
j
] .
Se {q
1
, . . . , q
n
} for uma base ortonormal emC
n×1
, então q

i
q
j
= δ
ij
. A matriz quadrada
Q = [q
1
, . . . , q
n
], cuja coluna k é q
k
, é unitária pois Q

Q = [q

i
q
j
] = [δ
ij
] = I. Conclusão,
quando as colunas de uma matriz quadrada formarem uma base ortonormal de C
n×1
, ela
é unitária.
Vamos iniciar com um caso particular, em que n = 3. Seja {v
1
, v
2
, v
3
} uma base de
C
3×1
e {q
1
, q
2
, q
3
} a base ortonormal de C
3×1
obtida pelo processo de ortogonalização
de Gram-Schmidt. Seja A = [v
1
, v
2
, v
3
] a matriz cuja coluna k é v
k
e Q = [q
1
, q
2
, q
3
] a
matriz cuja coluna k é q
k
. Sabemos, pelo desenvolvimento da seção anterior que
v
1
= w
1
v
2
= r
12
q
1
+w
2
v
3
= r
13
q
1
+r
23
q
2
+w
3
onde r
ik
= hq
i
, v
k
i quando i 6= k ou ainda,
v
1
= r
11
q
1
v
2
= r
12
q
1
+r
22
q
2
v
3
= r
13
q
1
+r
23
q
2
+r
33
q
3
com r
kk
= kw
k
k . Então,
[v
1
, v
2
, v
3
] = [q
1
, q
2
, q
3
]
_
_
r
33
r
12
r
13
0 r
33
r
23
0 0 r
33
_
_
72 Notas de aula do Prof. Antonio Cândido Faleiros
ou A = QR, onde Q é uma matriz unitária e
R =
_
_
r
33
r
12
r
13
0 r
33
r
23
0 0 r
33
_
_
é triangular superior. Esta é a chamada decomposição QR de uma matriz A,
Motivados por esse exemplo, vamos mostrar um processo para obter a decomposição
QR de uma matriz A em C
m×n
, analizando dois casos separadamente. No primeiro, todas
as colunas de A são linearmente independentes e, no segundo caso, nem todas as colunas
de A são linearmente independentes.
As colunas da matriz são linearmente independentes
Seja A = [v
1
, . . . , v
n
] uma matriz complexa de ordem m por n, cujas colunas v
1
, . . . , v
n
são vetores linearmente independentes de C
m×1
, o que exige m ≥ n. Usando o processo
de ortogonalização de Gram-Schmidt, podemos escrever obter uma matriz Q = [q
1
, . . . ,
q
n
] cujas colunas formam uma base ortonormal para o espaço gerado pelas colunas de A
e onde
v
1
= r
11
q
1
v
2
= r
12
q
1
+r
22
q
2
v
3
= r
13
q
1
+r
23
q
2
+r
33
q
3
· · ·
Essas igualdades escritas na forma matricial resultam em
[v
1
, v
2
, v
3
, . . . , v
n
] = [q
1
, q
2
, q
3
, . . . , q
n
]
_
¸
¸
_
r
11
r
12
r
13
· · ·
0 r
22
r
23
· · ·
0 0 r
33
· · ·
· · · · · · · · · · · ·
_
¸
¸
_
.
que se resume em
A =
ˆ
Q
ˆ
R
denominada decomposição QR reduzida de A.
Nesta decomposição, observe que o espaço hv
1
i , gerado por v
1
é igual ao espaço hq
1
i
gerado por q
1
, o espaço hv
1
, v
2
i gerado por v
1
e v
2
é igual ao espaço hq
1
, q
2
i gerado por q
1
,
q
2
, e assim por diante,
hq
1
i = hv
1
i ,
hq
1
, q
2
i = hv
1
, v
2
i ,
hq
1
, q
2
, q
3
i = hv
1
, v
2
, v
3
i ,
. . .
Notas de aula do Prof. Antonio Cândido Faleiros 73
Completemos a base {q
1
, . . . , q
n
} com os vetores unitários q
n+1
, . . . , q
m
de modo que
{q
1
, . . . , q
n
, . . . , q
m
} seja uma base ortonormal de C
m
. A matriz Q = [q
1
, . . . , q
n
, . . . , q
m
]
obtida pela inclusão de m− n colunas à direita de
ˆ
Q e a matriz R obtida pela inclusão
de m−n linhas nulas na parte inferior de R são tais que
A = QR
que é a chamada decomposição QR completa de A ou decomposição QR de A.
Realizado este desenvolvimento, podemos descrever o algoritmo clássico de Gram-
Schmidt, que possibilita a obtenção da decomposição QR de uma mariz A. Alertamos o
leitor de que este algoritmo é numericamente instável.
================================
Algoritmo 8.1. Algoritmo clássico de Gram-Schmidt (instável)
Entrada: Base {v
1
, . . . , v
n
} de C
n
Saída: Base ortonormal {q
1
, . . . , q
n
} de C
n
================================
for k = 1 to n
w
k
= v
k
for i = 1 to k −1
r
ik
= q

i
v
k
w
k
= w
k
− r
ik
q
i
r
kk
= kw
k
k
q
k
= w
k
/r
kk
================================
Solução de Ax = b usando a decomposição QR
Quando A é uma matriz quadrada de ordem m, cujas colunas são linearmente indepen-
dentes, o sistema Ax = b possui uma única solução. Para resolver este sistema usando a
decomposição QR, procedemos do seguinte modo:
1. Calcule a decomposição A = QR.
2. Determine y = Q

b.
3. Resolva o sistema Rx = y na variável x.
As colunas da matriz são linearmente dependentes
Passemos ao caso em que m ≥ n e as colunas de A formam um conjunto linearmente
dependente. Neste caso, lá pelas tantas, v
k
depende linearmente das colunas v
1
, . . . , v
k−1
,
à sua esquerda, ou seja,
v
k
∈ hv
1
, . . . , v
k−1
i = hq
1
, . . . , q
k−1
i
74 Notas de aula do Prof. Antonio Cândido Faleiros
e, para este valor de k,
w
k
= v
k
−r
1k
q
1
−r
2k
q
2
−· · · −r
k−1,k
q
k−1
= 0.
Quando isto ocorre, escolhemos um vetor unitário q
j
, ortogonal aos vetores q
1
, . . . , q
j−1
,
obtendo um conjunto ortonormal {q
1
, . . . , q
j−1
, q
j
}.
Vejamos um exemplo em que A = [v
1
, v
2
, v
3
, v
4
]. Suponha que v
1
e v
2
são linearmente
independentes. Usando o método de ortogonalização de Gram-Schmidt, calculamos
v
1
= r
11
q
1
v
2
= r
12
q
1
+r
22
q
2
Supondo v
3
no espaço gerado por {q
1
, q
2
}, tem-se
w
3
= v
3
−r
13
q
1
−r
23
q
2
= 0
e
v
3
= r
13
q
1
+r
23
q
2
Daí, escolhe-se de modo arbitrário um q
3
unitário, ortogonal a q
1
e a q
2
. Com esta escolha,
{q
1
, q
2
, q
3
} é ortonormal e o espaço que ele gera contém o espaço gerado por {v
1
, v
2
, v
3
}.
Se v
4
não pertencer ao espaço gerado por {q
1
, q
2
, q
3
}, Calcula-se
q
4
=
1
r
44
(v
4
−r
14
q
1
−r
24
q
2
−r
34
q
3
)
quando então
[v
1
, v
2
, v
3
, v
4
] = [q
1
, q
2
, q
3
, q
4
]
_
¸
¸
_
r
11
r
12
r
13
r
14
0 r
22
r
23
r
24
0 0 0 r
34
0 0 0 r
44
_
¸
¸
_
onde se observa que a matriz da direita é triangular superior. Note-se que o espaço gerado
por {q
1
, q
2
, q
3
, q
4
} contém o espaço gerado por {v
1
, v
2
, v
3
, v
4
}.
No caso genérico, este procedimento continua, até obter as matrizes
ˆ
Q e
ˆ
R. As colunas
da matriz
ˆ
Q = [q
1
, . . . , q
n
], de ordem m por n, são vetores ortogonais entre si e possuem
módulo unitário. A matriz
ˆ
R, de ordemn por n, é triangular superior. Para estas matrizes,
A =
ˆ
Q
ˆ
R.
Esta fatoração de A é conhecida como decomposição QR reduzida de A.
Podemos acrescentar m−n colunas q
n+1
, . . . , q
m
à direita de
ˆ
Q, de modo que {q
1
, . . . ,
q
n
, . . . , q
m
} seja uma base ortonormal de C
m
e assim, obter uma matriz unitária Q = [q
1
,
. . . , q
n
, . . . , q
m
], de ordem m por m, cujas colunas formam uma base ortonormal de C
m
.
Na continuação, devemos acrescentar m−n linhas nulas na parte inferior de
ˆ
R, obtendo
uma matriz R, de ordem m por n, triangular superior. As matrizes Q e R assim obtidas
são de tal forma que
A = QR.
Notas de aula do Prof. Antonio Cândido Faleiros 75
Esta é a decomposição QR completa de A ou apenas decomposição QR de A.
Quando m < n, o procedimento é semelhante ao anterior. A decomposição se encerra
quando obtemos o conjunto de m vetores B = {q
1
, . . . , q
m
}, que formam uma base
ortonormal de C
m
. A matriz quadrada Q = [q
1
, . . . , q
m
], de ordemm, e a matriz triangular
superior R de ordem m por n, obtidas no desenrolar do processo são tais que
A = QR.
Este produto é conhecido como decomposição QR completa da matriz A ou decomposição
QR de A.
Exemplo 4.15 A decomposição QR de
_
_
−1 3 0
1 0 1
0 1 2
_
_
é
_
_
−1/

2 3/

22 −1/

11
1/

2 3/

22 −1/

11
0 2/

22 3/

11
_
_
_
_

2 −3/

2 1/

2
0 11/

22 7/

22
0 0 5/

11
_
_
.
Exemplo 4.16 A decomposição QR de
_
_
−1 3
1 0
0 1
_
_
é
_
_
−1/

2 3/

22 1/

11
1/

2 3/

22 1/

11
0
p
2/11 −3/

11
_
_
_
_

2 −3/

2
0
p
11/2
0 0
_
_
Exemplo 4.17 A decomposição QR de
_
_
_
_
1 1 2
0 1 1
1 0 1
0 2 0
_
_
_
_
é
_
_
_
_
1/

2 1/

22 2/

33 3/

3
0 2/

22 4/

33 −3/

3
1/

2 −1/

22 −2/

33 −3/

3
0 4/

22 −3/

33 0
_
_
_
_
_
_
_
_

2 1/

2 3/

2
0 1/

22 3/

22
0 0 6/

33
0 0 0
_
_
_
_
Exemplo 4.18 A decomposição QR de
_
_
_
_
1 1 2
0 1 1
1 0 1
0 0 0
_
_
_
_
76 Notas de aula do Prof. Antonio Cândido Faleiros
é
_
_
_
_
1/

2 1/

6 1/

3 0
0 2/

6 −1

3 0
1/

2 −1/

6 −1

3 0
0 0 0 1
_
_
_
_
_
_
_
_

2 1/

2 3/

2
0 3/

6 3/

6
0 0 0
0 0 0
_
_
_
_
Exemplo 4.19 A decomposição QR de
_
_
1 1 2 0
0 1 1 1
1 0 1 3
_
_
é A = QR, onde
Q =
_
_
1/

2 1/

6 1/

3
0 2/

6 −1/

3
1/

2 −1/

6 −1/

3
_
_
e R =
_
_

2 1/

2 3/

2 3/

2
0 3/

6 3/

6 −1/

6
0 0 0 −4/

3
_
_
.
Capítulo 5
Soma de subespaços
Sejam V
1
, . . . , V
k
subespaços vetoriais de V. O conjunto
V
1
+ · · · +V
k
= { v
1
+ · · · +v
k
: v
i
∈ V
i
para i = 1, . . . , k }
é um subespaço vetorial de V e recebe o nome de soma de V
1
, . . . , V
k
.
Teorema 5.1 Sejam V e W dois subespaços de um espaço vetorial U. Então
dim(V +W) = dim(V ) + dim(W) −dim(V ∩ W).
Prova. Quando V está contido em W, então V ∩ W = V e V +W = W. Neste caso,
dim(V ) + dim(W) −dim(V ∩ W) = dim(V ) + dim(W) −dim(V ) = dim(W)
o que prova o teorema para este caso particular. Do mesmo modo se prova que o teorema
vale quando W está contido em V.
Vamos agora tratar o caso em que V ∩W é diferente de V e de W. Seja B
1
= {u
1
, . . . ,
u
p
} uma base de V ∩ W. Vamos completá-la de modo que B
2
= {u
1
, . . . , u
p
, v
1
, . . . , v
q
}
seja base de V e B
3
= {u
1
, . . . , u
p
, w
1
, . . . , w
r
} seja base de W. O conjunto B
4
= {u
1
,
. . . , u
p
, v
1
, . . . , v
q
, w
1
, . . . , w
r
} gera V +W e, se for linearmente independente, será base
de V +W. Neste caso,
dim(V +W) = p +q +r = (q +p) + (r +p) −p
= dim(V ) + dim(W) −dim(V ∩ W)
e o teorema estará provado.
Falta provar que B
4
é linearmente independente. Vamos mostrar que, se x
1
, . . . , x
p
,
y
1
, . . . , y
q
, z
1
, . . . , z
r
forem escalares tais que
x
1
u
1
+ · · · +x
p
u
p
+y
1
v
1
+ · · · +y
q
v
q
+z
1
w
1
+ · · · +z
r
w
r
= 0,
então todos eles são nulos. Analisemos esta possibilidade. Se algum y
j
for diferente de
zero, o vetor não nulo y
1
v
1
+ · · · + y
q
v
q
seria uma combinação linear dos elementos de
77
78 Notas de aula do Prof. Antonio Cândido Faleiros
B
3
. Logo, ele estaria em W e em V ao mesmo tempo, estando na interseção V ∩ W
e assim y
1
v
1
+ · · · + y
q
v
q
poderia ser escrito como uma combinação linear de u
1
, . . . ,
u
p
, contrariando a hipótese de B
2
ser base. Do mesmo modo não podemos ter um z
k
diferente de zero. Logo, y
j
e z
k
são todos nulos e a equação se reduz a x
1
u
1
+ · · · + x
p
u
p
=
0. Sendo B
1
uma base, concluímos que x
1
, . . . , x
p
são todos nulos. Daí B
4
é linearmente
independente. ¤
5.1 Soma direta
Definição 5.2 Sejam V
1
, . . . , V
k
subespaços vetoriais de V. Se todo v em V puder ser
escrito de forma única como uma soma do tipo
v = v
1
+ · · · +v
k
onde v
i
∈ V
i
, diremos que V é uma soma direta dos subespaços V
1
, . . . , V
k
e escreveremos
V = V
1
⊕· · · ⊕V
k
.
Se V = V
1
⊕V
2
, então V
1
e V
2
são denominados complementares.
Dois subespaços vetoriais V
1
e V
2
de V são disjuntos se a interseção V
1
∩V
2
contiver
apenas o zero.
Teorema 5.3 Sejam V
1
e V
2
subespaços vetorias de V tais que V = V
1
+ V
2
. Então V =
V
1
⊕ V
2
se e só se V
1
, V
2
forem disjuntos.
Prova. Se V = V
1
⊕ V
2
, seja v um vetor de V na interseção de V
1
e V
2
. Então
v = v
|{z}
∈V
1
+ 0
|{z}
∈V
2
= 0
|{z}
∈V
1
+ v
|{z}
∈V
2
e, como a decomposição é única, v = 0, provando que V
1
e V
2
são disjuntos.
Se V
1
e V
2
forem disjuntos, como V = V
1
+ V
2
, todo v em V pode ser decomposto
numa soma v = v
1
+ v
2
, com v
1
em V
1
e v
2
em V
2
. Se houvesse outra decomposição v =
w
1
+ w
k
, com w
1
em V
1
e w
2
em V
2
, então v
1
+ v
2
= w
1
+ w
2
e assim, v
1
− w
1
= w
2

v
2
. Sendo v
1
− w
1
um vetor de V
1
igual a w
2
− v
2
, um vetor de V
2
, então v
1
− w
1
está na
interseção de V
1
com V
2
e, como estes dois subespaços são disjuntos, v
1
− w
1
= 0 ou v
1
=
w
1
. Com este resultado, obtemos w
2
− v
2
= 0 ou v
2
= w
2
, provando que a decomposição
de v numa soma de um elemento de V
1
com um elemento de V
2
é única e assim, V = V
1

V
2
. ¤
Quando V igual à soma de mais do que dois subespaços, o fato de os espaços envolvidos
serem disjuntos dois a dois não é suficiente para garantir que V seja a soma direta desses
subespaços como nos mostra o exemplo a seguir.
Notas de aula do Prof. Antonio Cândido Faleiros 79
Exemplo 5.4 Seja V = R
2
e V
1
= {(x, 0) ∈ R
2
: x ∈ R}, V
2
= {(0, y) ∈ R
2
: y ∈ R},
V
3
= {(x, x) ∈ R
2
: x ∈ R}. Estes três subespaços são disjuntos dois a dois, V = V
1
+
V
2
+ V
3
, mas V não é a soma direta de V
1
, V
2
e V
3
.
A condição de serem disjuntos será substituida pela condição de serem independentes.
Os subespaços vetoriais V
1
, . . . , V
k
de V são independentes se
v
1
+ · · · +v
k
= 0,
com v
i
em V
i
, para i = 1, . . . , k, então v
1
= · · · = v
k
= 0.
Uma caracterização da independência dos subespaços é a seguinte: Os subespaços V
1
,
. . . , V
k
são independentes se e só se V
j
for disjunto da soma V
1
+ · · · + V
j−1
, para j = 2,
. . . , k. Dois espaços vetoriais V
1
e V
2
de V são independentes se e só se forem disjuntos.
Teorema 5.5 Sejam V
1
, . . . , V
k
subespaços vetoriais de um espaço vetorial V tais que
V = V
1
+ · · · + V
k
. Então V = V
1
⊕ · · · ⊕ V
k
se e só se V
1
, . . . , V
k
forem independentes.
Prova. Se V = V
1
⊕ · · · ⊕ V
k
, sejam v
1
, . . . , v
k
vetores de V
1
, . . . , V
k
, respectivamente,
e tais que v
1
+ · · · + v
k
= 0. Como 0 = 0+ · · · + 0, da unicidade da decomposição,
concluímos que v
i
= 0 para i = 1, . . . , k. Logo, V
1
, . . . , V
k
são independentes.
Se V = V
1
+ · · · + V
k
e V
1
, . . . , V
k
forem independentes, todo v em V pode ser
decomposto numa soma v = v
1
+ · · · + v
k
, com v
i
em V
i
, para i = 1, . . . , k. Se houvesse
outra decomposição v = w
1
+ · · · + w
k
, com w
i
em V
i
, então (v
1
−w
1
)+ · · · + (v
k
−w
k
) =
0 e, da independência dos subespaços vetoriais V
i
, concluímos que v
i
= w
i
, para i = 1,
. . . , k. Logo, a decomposição de v como soma de vetores de V
1
, . . . , V
k
é única e V = V
1

· · · ⊕ V
k
. ¤
Teorema 5.6 Sejam V
1
, . . . , V
k
subespaços vetoriais de V, um espaço vetorial com di-
mensão finita. Se V = V
1
⊕· · · ⊕V
k
então
dimV = dimV
1
+ · · · + dimV
k
.
Prova. Seja B
i
base de V
i
para i = 1, . . . , k.
Se V = V
1
⊕· · · ⊕V
k
, todo v em V pode ser decomposto de forma única numa soma
v = v
1
+ · · · + v
k
, com v
i
em V
i
, para i = 1, . . . , k. Cada v
i
pode ser decomposto de
forma única nos vetores da base B
i
. Logo, v pode ser escrito de forma única como uma
combinação linear dos vetores da união B
1
∪ · · · ∪ B
k
, provando que esta é uma base de
V. ¤
80 Notas de aula do Prof. Antonio Cândido Faleiros
5.2 Complemento ortogonal
Definição 5.7 Seja V um espaço vetorial com produto interno e S um subespaço vetorial
de V. O conjunto
S

= {v ∈ V : hv, si = 0 para todo s em S }
é um subespaço de V, chamado de complemento ortogonal de S.
Para mostrar que um determinado vetor v está em S

, basta mostrar que ele é ortog-
onal a todo vetor de uma base de S. O único vetor que está ao mesmo tempo em S e em
S

é o vetor nulo e daí,
S ∩ S

= {0}.
Teorema 5.8 Seja S um subespaço vetorial de dimensão finita de um espaço vetorial V
com produto interno. Então V = S ⊕S

.
Prova. Seja {v
1
, . . . , v
p
} uma base ortonormal de S. Dado qualquer v em V, o vetor
w = v −hv
1
, vi v
1
−· · · −hv
p
, vi v
p
é ortogonal a todo vetor de S. Desta forma, qualquer vetor v pode ser decomposto numa
soma v = s+ w, onde s = hv
1
, vi v
1
+ · · · + hv
p
, vi v
p
pertence a S e w pertence a S

e
assim, V = S+ S

.
Vamos mostrar que esta decomposição é única. Se v = s
1
+ w
1
, com s
1
em S e w
1
em
S

, então s + w = s
1
+ w
1
e assim, s −s
1
= w
1
−w, mostrando que os vetores s −s
1
e
w
1
−w estão na interseção S ∩S

. Como a interseção só possui o vetor nulo, s = s e w =
w. ¤
Se v é um vetor de um subespaço S de um espaço vetorial V, então v é ortogonal
a todo vetor de S

e assim ele pertence ao
¡
S

¢

, mostrando que S está contido no
complemento ortogonal do complemento ortogonal de S, isto é, S ⊂
¡
S

¢

. Por outro
lado, V = S⊕S

= S


¡
S

¢

e assim, dimV = dimS+ dimS

= dimS

+ dim
¡
S

¢

,
que acarreta na igualdade dimS = dim
¡
S

¢

. Estando S contido em
¡
S

¢

e possuindo
ambos a mesma dimensão, eles são iguais
¡
S

¢

= S.
Capítulo 6
Transformação adjunta
Sejam V e W espaços vetoriais complexos com dimensão finita e produto interno. Dado
uma tansformação linear L : V →W, vamos mostrar que existe uma única transformação
linear L

: W → V tal que
hLv, wi = hv, L

wi .
para todo v em V e w em W.
Primeiro a existência. Sendo B
1
= {v
1
, . . . , v
n
} uma base ortonormal de V e B
2
=
{w
1
, . . . , w
m
} uma base ortonormal de W podemos escrever Lv
j
, para j = 1, . . . , n, como
uma combinação linear dos elementos de B
2
Lv
1
= a
11
w
1
+a
21
w
2
+ · · · +a
m1
w
m
Lv
2
= a
12
w
1
+a
22
w
2
+ · · · +a
m2
w
m
· · ·
Lv
n
= a
1n
w
1
+a
2n
w
2
+ · · · +a
mn
w
m
Para definir uma transformação linear, basta estabelecer seu valor nos elementos de uma
base do seu domínio. Seja L

: W →V aquela transformação linear que leva w
i
, para i =
1, 2, . . . , m, nos seguintes vetores de V
L

w
1
= ¯ a
11
v
1
+ ¯ a
12
v
2
+ · · · + ¯ a
1n
v
n
L

w
2
= ¯ a
21
v
1
+ ¯ a
22
v
2
+ · · · + ¯ a
2n
v
n
· · ·
L

w
m
= ¯ a
m1
v
1
+ ¯ a
m2
v
2
+ · · · + ¯ a
mn
v
n
Usando o símbolo de somatório, os valores das transformações lineares L e L

nas bases
de seus respectivos domínios se escrevem
Lv
j
=
m
X
i=1
a
ij
w
i
L

w
i
=
n
X
j=1
¯ a
ij
v
j
.
81
82 Notas de aula do Prof. Antonio Cândido Faleiros
Da ortonormalidade das bases B
1
e B
2
, segue hLv
j
, w
i
i = hv
j
, L

w
i
i fazendo com que
hLv, wi = hv, L

wi
para todo v em V e w em W, o que prova a existência.
Agora a unicidade. Se T : W → V for outra transformação linear para a qual
hLv, wi = hv, Twi
para todo v em V e w em W, então
hv, L

wi = hv, Twi
ou
hv, (L

−T)wi = 0
ainda para todo v em V e w em W. Fazendo v = (L

−T)w, obtemos
h (L

−T)w, (L

−T)w i = 0
ou (L

−T)w = 0 para todo w em W, mostrando que T = L

, o que prova a unicidade.
A transformação linear L

recebe o nome de transformação adjunta de L.
Se L : V →W e T : W →U forem duas transformações lineares, então
(TL)

= L

T

.
Se A = [a
ij
] for a matriz de L : V →W e B = [b
ij
] for a matriz de L

: W →V nas
bases ortonormais B
1
e B
2
de V e W, respectivamente, então b
ij
= ¯ a
ji
e
B = A

.
Esta relação entre as matrizes de L e L

só se verifica se as bases forem ortonormais, como
nos mostra o próximo exemplo.
Este conceito de transformação adjunta se aplica a transformações lineares entre es-
paços vetoriais reais. Neste caso, os escalares serão reais e ¯ a
ij
= a
ij
e
Exemplo 6.1 Seja L(x, y) = (2x+3y, 5x+7y, 11x+13y) uma transformação linear do
R
2
no R
3
. Consideremos nestes dois espaços seus respectivos produtos internos euclidianos
h (x
1
, y
1
), (x
2
, y
2
) i = x
1
x
2
+y
1
y
2
e
h (x
1
, y
1
, z
1
), (x
2
, y
2
, z
2
) i = x
1
x
2
+y
1
y
2
+z
1
z
2
.
Seja B
1
= {e
1
, e
2
} a base canônica do R
2
e B
2
= (f
1
, f
2
, f
3
) a base canônica do R
3
que são
ortonormais em relação aos produtos internos euclidianos de R
2
e R
3
, respectivamente.
Temos
Le
1
= 2f
1
+ 5f
2
+ 11f
3
Le
2
= 3f
1
+ 7f
2
+ 13f
3
Notas de aula do Prof. Antonio Cândido Faleiros 83
e
L

f
1
= 2e
1
+ 3e
2
L

f
2
= 5e
1
+ 7e
2
L

f
3
= 11e
1
+ 13e
2
de modo que
[L]
12
=
_
_
2 3
5 7
11 13
_
_
, [L

]
21
=
·
2 5 11
3 7 13
¸
onde uma é a transposta da outra.
Entretanto, se v
1
= (1, 2), v
2
= (0, 1), w
1
= (1, 1, 1), w
2
= (0, 1, 2) e w
3
= (0, 0, 1)
então B
3
= {v
1
, v
2
} será base de R
2
e B
4
= {w
1
, w
2
, w
3
} será base de R
3
. Nenhuma das
duas é ortonormal em relação ao produto interno euclidiano do R
2
e R
3
. O leitor poderá
verificar que
Lv
1
= 8w
1
+ 11w
2
+ 7w
3
Lv
2
= 3w
1
+ 4w
2
+ 2w
3
e
L

w
1
= 18v
1
−13v
2
L

w
2
= 27v
1
−21v
2
L

w
3
= 11v
1
−9v
2
As matrizes
[L]
34
=
_
_
8 3
11 4
7 2
_
_
e [L

]
43
=
·
18 27 11
−13 −21 −9
¸
não são mais uma a adjunta da outra.
Dada a transformação linear L, a transformação adjunta L

é a única que satisfaz
à igualdade hLv, wi = hv, L

wi para todo v em V e todo w em W. De fato, se T for
outra transformação linear para a qual hLv, wi = hv, Twi para todo v e todo w, então
hv, Twi = hv, L

wi e hv, Tw −L

wi = 0 para todo v o que acarreta na igualdade Tw =
L

w para todo w, nos conduzindo à igualdade T = L

.
Para todo v em V e w em W, tem-se
hL

w, vi = hv, L

wi = hLv, wi = hw, Lvi ,
mostrando que a adjunta da adjunta é igual a L, isto é,
(L

)

= L.
Um operador linear L : V →V é auto-adjunto quando L

= L.
Os operadores LL

e L

L são auto-adjuntos.
84 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 6.2 Sejam x = (x
1
, x
2
, x
3
) e y = (y
1
, y
2
, y
3
) dois pontos do R
3
, consideremos o
produto interno hx, yi = x
1
y
2
+ x
2
y
2
+ x
2
y
3
. Em relação a este produto interno, o operador
linear L : R
3
→R
3
definido por L(x, y, z) = (2x+ 3y+ 5z, 3x+ y, 5x+ 4z) é auto-adjunto
pois L

= L.
Teorema 6.3 Sejam V e W espaços vetoriais com produto interno e L : V →W linear.
Sendo L

: W →V a adjunta de L, vale a relação
Im(L)

= ker(L

).
Prova. Se w ∈ Im(L)

, então hLv, wi = 0 ou hv, L

wi = 0 para todo v ∈ V de onde
se conclui que L

w = 0 mostrando que w está no ker(L

).
Reciprocamente, se w ∈ ker(L

), então hLv, wi = hv, L

wi = hv, 0i = 0 para todo
v ∈ V, provando, deste modo, que w é ortogonal a todo elemento da imagem de L.
Conclui-se que w pertence ao complemento ortogonal da Im(L). ¤
Como L
∗∗
= L, substituindo L por L

na igualdade acima, segue
Im(L

)

= ker(L)
ou
Im(L

) = ker(L)

Sejam V e W espaços vetoriais com produto interno e L : V → W linear. Sendo
L

: W →V a adjunta de L,
V = ker(L) ⊕Im(L

).
Esta igualdade ocorre porque V = ker(L) ⊕ ker(L)

= ker(L) ⊕Im(L

).
Quando L é auto-adjunta,
Im(L)

= ker(L).
Teorema 6.4 Sejam V e W espaços vetoriais com produto interno e L : V →W linear.
Sendo L

: W →V a adjunta de L,
1. Im(L) = Im(LL

).
2. ker(L

) = ker(LL

).
Prova. 1a. Inicialmente provaremos que ImLL

⊂ ImL. Se w ∈ Im(LL

), então
existe um w
1
tal que w = LL

w
1
= L(L

w
1
) provando que w ∈ Im(L).
1b. Vamos provar agora que Im(L) ⊂ Im(LL

). Se w ∈ Im(L), então w = Lv para
algum v em V. Podemos escrever de modo único v = v
1
+ v
2
onde v
1
∈ Im(L

) e v
2

ker(L). Logo w = Lv = Lv
1
+ Lv
2
= Lv
1
. Como v
1
∈ ker(L)

= Im(L

), existe w
1
tal que
v
1
= L

w
1
e assim w = LL

w
1
, mostrando que w ∈ Im(LL

), o que completa a prova da
recíproca.
Notas de aula do Prof. Antonio Cândido Faleiros 85
2a. Se w ∈ ker(L

) então L

w = 0 e, em consequência, LL

w = 0, provando que
ker(L

) ⊂ ker(LL

).
2b. Se w ∈ ker(LL

) então L(L

w) = 0 e L

w pertence ao ker(L) e à Im(L

) cuja
interseção contém apenas o zero. Logo, L

w = 0, provando que w está no ker(L

). Com
isto, provamos que ker(LL

) ⊂ ker(L

), o que completa a prova da parte 2 do teorema.
¤
Resumindo: Para uma transformação linear L : V →W e sua adjunta L

: W →V
valem as identidades
(L

)

= L
Im(L

) = ker(L)

Im(LL

) = Im(L),
ker(LL

) = ker(L

).
Definição 6.5 Seja V um espaço vetorial com produto interno. O operador linear L :
V →V é antiadjunto quando L

= −L e unitário quando L

= L
−1
.
Teorema 6.6 Numa base ortonormal, a matriz A = [a
ij
] de um operador auto-adjunto é
hermitiana (A = A

), a de um operador antiadjunto é antihermitiana (A = −A

) e a
de um operador unitário é unitária (A

= A
−1
).
Teorema 6.7 O operador linear L : V → V é unitário se e só se, para todo v
1
e v
2
em
V,
hLv
1
, Lv
2
i = hv
1
, v
2
i .
Para fixar a nomenclatura, apresentamos o quadro abaixo.
Espaço Real Espaço Complexo
Operador Matriz Operador Matriz
auto-adjunto simétrica auto-adjunto hermitiana
antiadjunto anti-simétrica antiadjunto antihermitiana
ortogonal ortogonal unitário unitária
6.1 Posto de uma transformação linear
Definição 6.8 Sejam V e W espaços vetoriais e L : V →W uma transformação linear.
A dimensão da imagem de L é chamada de posto de L.
Sendo A uma matriz complexa de ordem m por n. Considerada como uma trans-
formação linear de C
n
em C
m
, seu posto é igual ao número de colunas linearmente
independentes que A possui.
O número de colunas linearmente independentes de uma matriz é igual ao número de
suas linhas linearmente independente.
86 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 6.9 Sejam V e W espaços vetoriais de dimensão finita e L : V → W uma
transformação linear. Seja A a representação matricial de L em relação a bases de V e
de W. O posto de L é igual ao posto de A.
Exemplo 6.10 Seja L : R
3
→ R
3
definida por
L(x, y, z) = ( x + 2y −z, 2x + 4y −2z, y + 2z )
= (x + 2y −z)(1, 2, 0) + (y + 2z)(0, 0, 1),
cujo posto é 2. A matriz de L em relação à base canônica do R
3
é
A =
_
_
1 2 −1
2 4 −2
0 1 2
_
_
a primeira e terceira linha são linearmente independentes e a segunda é o dobro da
primeira. As duas primeiras colunas são linearmente independentes e a terceira é igual a
−5 vezes a primeira mais 2 vezes a segunda. O posto de A é dois.
Teorema 6.11 Sejam V e W espaços vetoriais com produto interno e dimensão finita.
Seja L : V →W linear. O posto das transformações lineares L, L

, L

L e LL

são iguais.
Prova. Sabemos que
V = ker(L) ⊕Im(L

),
de onde obtemos
dimker(L) + dimIm(L

) = dimV.
Por outro lado,
dimker(L) + dimIm(L) = dimV.
Dessas duas igualdades concluímos que dimIm(L

) = dimIm(L) provando que o posto
de L é igual ao posto de L

.
Como Im(LL

) = Im(L) e Im(L

L) = Im(L

), o teorema está provado. ¤
Corolário 6.12 Seja A uma matriz complexa. As matrizes A, A

, AA

e A

A possuem
o mesmo posto.
Sejam V e W espaços vetoriais, ambos com dimensão finita. A imagem de uma
transformação linear L : V → W está contida em W. Portanto, o posto de L deve ser
menor ou igual do que a dimensão de W. Se {v
1
, . . . , v
n
} for uma base de V, qualquer
vetor v em V pode ser decomposto de modo único como uma combinação linear v =
x
1
v
1
+ · · · + x
n
v
n
e assim, Lv = L(x
1
v
1
+ · · · + x
n
v
n
) = x
1
Lv
1
+ · · · + x
n
Lv
n
, mostrando
que {Lv
1
, . . . , Lv
n
} gera a imagem de L o que assim o posto de L deve ser menor ou
igual do que a dimensão de V. Concluímos que o posto de L não pode ser maior do que
a dimensão de V nem maior do que a dimensão de W. Motivados por este comentário,
diremos que L tem posto máximo quando o posto de L for igual ao mínimo entre a
dimensão de V e a dimensão de W.
Notas de aula do Prof. Antonio Cândido Faleiros 87
Teorema 6.13 Sejam V e W espaços vetoriais com dimensão finita, ambos com produto
interno. Seja L : V →W uma transformação linear com posto máximo.
1. Quando dimV ≤ dimW, a transformação linear L

L : V →V é um isomorfismo.
2. Quando dimW ≤ dimV, a transformação linear LL

: W →W é um isomorfismo.
Prova. Quando
1. posto(L) = dimV ≤ dimW, então dimIm(L

L) = dimIm(L) = dim(V ) e assim
L

L é sobrejetora e, portanto, um isomorfismo.
2. posto(L) = dimW ≤ dimV, então dimIm(LL

) = dimIm(L

) = dim(W) e assim
LL

é sobrejetora e, portanto, um isomorfismo.
¤
6.2 Existência de solução dos sistemas lineares
As igualdades Im(L)

= ker(L

) e Im(L

) = ker(L)

possuem uma consequência inter-
essante para sistemas de equações lineares Ax = b, onde A é uma matriz complexa m×n
e b é uma matriz complexa m × 1. Nestes sistemas, as matrizes A e b são dadas e o que
se deseja é determinar se existem matrizes coluna complexas x de tamanho n × 1 tais
que Ax = b. Tais matrizes x são denominadas soluções do sistema Ax = b. Existindo
soluções, é importante determiná-las. Um método usado na obtenção das soluções é o da
eliminação de Gauss.
A matriz A é uma transformação linear de C
n×1
em C
m×1
.
O sistema Ax = b tem solução se e só se b estiver na imagem de A. Da igualdade
Im(A) = ker(A

)

conclímos que Ax = b tem solução se e só se b for ortogonal a todo y
no núcleo de A

isto é,
hb, yi = 0
para todo y em C
m×1
solução do sistema homogêneo A

y = 0.
O sistema homogêneo Ax = 0 tem solução x não nula se e só se x pertencer ao núcleo
de A. Da igualdade ker(A) = Im(A

)

, concluímos que x é solução do sistema homogêneo
Ax = 0 se e só se x for ortogonal à imagem de A

, isto é hx, A

yi = para todo y em C
m×1
.
Percebe-se do comentado acima que há uma estreita relação entre os sistemas lineares
Ax = b e A

y = c.
88 Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 7
Projetores
Seja V um espaço vetorial. Um operador linear P : V → V é um projetor em V se
P
2
= P. Sendo I : V →V o operador identidade, o operador linear I −P também é um
projetor, denominado projetor complementar de P. Os projetores também recebem o
nome de operadores idempotentes.
Sejam S
1
e S
2
dois subespaços de V tais que V = S
1
⊕ S
2
. Considere o operador
P : V → V definido por P(v
1
+ v
2
) = v
1
, para todo v
1
em S
1
e v
2
em S
2
. O operador
assim definido é um projetor, denominado projetor sobre S
1
ao longo de S
2
. Sob estas
condições, S
1
é a imagem de P e S
2
é o núcleo de P.
Se v estiver na imagem de P, então existe w em V tal que Pw = v. Sendo P uma
projeção, P
2
w = Pw o que implica em Pv = v. A imagem de (I − P) é igual ao núcleo
de P e a imagem de P é igual ao núcleo de I −P.
Teorema 7.1 Seja P : V →V um projetor. Então V = Im(P)⊕ ker(P).
Prova. (1) Seja v um vetor em V. Podemos escrever v = Pv+ (I − P)v. Como Pv
está na imagem de P e (I −P)v está no núcleo de V, segue V = Im(P)+ ker(P).
(2) Se v
1
na Im(P) e v
2
no ker(P) forem tais que v = v
1
+ v
2
, então Pv = Pv
1
+ Pv
2
.
Como Pv
1
= v
1
e Pv
2
= 0, segue Pv = v
1
e (I −P)v = v
2
, mostrando que a decomposição
de v numa soma de um elemento da Im(P) com um elemento do ker(P) é única. Logo,
V = Im(P)⊕ ker(P). ¤
De acordo com este teorema, todo projetor P é um projetor sobre sua imagem ao
longo do seu núcleo.
7.1 Projetores ortogonais
Seja V um espaço vetorial com produto interno. Um projetor P em V é ortogonal se a
sua imagem e seu núcleo forem ortogonais. Quando este for o caso, se diz que P projeta
ortogonalmente sobre sua imagem.
89
90 Notas de aula do Prof. Antonio Cândido Faleiros
Seja P : V →V um projetor ortogonal e S sua imagem. Se a dimensão de S for finita,
V = S⊕ S

. Dado v em V, existe um único s em S e um único w em S

para os quais
v = s +w e
P(v) = s.
Se B = {q
1
, . . . , q
k
} for uma base ortonormal de S, podemos decompor Pv nesta base e
escrever
Pv = x
1
q
1
+ · · · +x
k
q
k
.
Para determinar x
1
, . . . , x
k
, usamos o fato de v− Pv ser ortogonal a todo vetor de S. Isto
significa que hq
i
, v −Pvi = 0 para i = 1, . . . , k. Destas relações e da ortonomalidade da
base B segue
0 = hq
i
, v −Pvi = hq
i
, vi −hq
i
, x
1
q
1
+ · · · +x
k
q
k
i
= hq
i
, vi −x
1
hq
i
, q
1
i −· · · −x
i
hq
i
, q
i
i −· · · −x
k
hq
i
, q
k
i
= hq
i
, vi −x
i
hq
i
, q
i
i = hq
i
, vi −x
i
ou
x
i
= hq
i
, vi
o que nos permite escrever
Pv = hq
1
, vi q
1
+ · · · + hq
k
, vi q
k
.
e provamos o próximo teorema.
Teorema 7.2 Seja S um subespaço de dimensão finita de um espaço vetorial V com pro-
duto interno. Seja {q
1
, . . . , q
k
} uma base ortonormal de S. Se P for o projetor ortogonal
sobre S, então, para todo v em V,
Pv = hq
1
, vi q
1
+ · · · + hq
k
, vi q
k
.
A partir deste teorema obtemos outro de imediato para projetores em C
n×1
. Vamos
lembrar que toda transformação linear L de C
n×1
em C
n×1
é do tipo L(x) = Ax, onde A
é uma matriz quadrada n ×n e iremos identificar a transformação linear L com a matriz
A. Se P for uma projeção em C
n×1
, então P será uma matriz n ×n.
Corolário 7.3 Considere o espaço vetorial C
n×1
com o produto interno hx, yi = x

y.
Seja P um projetor ortogonal em C
n×1
e {q
1
, . . . , q
k
} uma base ortonormal da imagem
de P. Então
P = q
1
q

1
+ · · · +q
k
q

k
.
Prova. Observe que q
1
, q
2
, . . . , q
k
são matrizes coluna do C
n×1
. Sendo x uma matriz
coluna em C
n×1
, podemos escrever
hq
i
, xi q
i
= (q

i
x)q
i
= q
i
(q

i
x) = (q
i
q

i
)x
Notas de aula do Prof. Antonio Cândido Faleiros 91
e assim,
Px = hq
1
, xi q
1
+ · · · + hq
k
, xi q
k
= (q
1
q

1
)x + · · · + (q
k
q

k
)x
= (q
1
q

1
+ · · · +q
k
q

k
) x.
Como esta igualdade vale para todo x,
P = q
1
q

1
+ · · · +q
k
q

k
.
¤
Quando P projeta ortogonalmente sobre o espaço gerado por um único vetor unitário
q, temos
P = qq

.
Se x for uma matriz coluna não nula em C
n×1
, não necessariamente unitário, então q =
x/ kxk é unitário e a projeção ortogonal P sobre o espaço gerado por x é
P = qq

=
x
kxk
x

kxk
=
xx

x

x
.
Vamos relembrar que, sendo x uma matriz coluna do C
n×1
, então x

x é um número real
e xx

é uma matriz complexa n por n.
O projetor complementar de P é
I −
xx

x

x
,
onde I é a matriz identidade n ×n e sua imagem é o núcleo de P.
Teorema 7.4 Seja V um espaço vetorial com dimensão finita e um produto interno. Um
projetor P : V →V é ortogonal se e só se for auto-adjunto.
Prova. (1) Seja P uma projeção ortogonal e S = Im(P). Então P é uma projeção
sobre S ao longo de S

. Sabemos que V = S ⊕ S

e, para todo v e w em V, existem e
são únicos v
1
e w
1
em S, v
2
e w
2
em S

para os quais, v = v
1
+ v
2
e w = w
1
+ w
2
. Assim,
da ortogonalidade dos vetores,
hPv, wi = hv
1
, w
1
+w
2
i = hv
1
, w
1
i
e
hv, Pwi = hv
1
+v
2
, w
1
i = hv
1
, w
1
i
provando que P é auto-adjunto.
(2) Seja P uma projeção auto-adjunta de modo que
hPv, wi = hv, Pwi
92 Notas de aula do Prof. Antonio Cândido Faleiros
para todo v e w em V. Se w estiver no ker(P), então
hPv, wi = hv, Pwi = hv, 0i = 0,
e, como Pv está na imagem de P, provamos que o núcleo e a imagem de P são ortogonais.
Logo, P é um projetor ortogonal. ¤
Teorema 7.5 Seja V um espaço vetorial com produto interno e P : V →V um projetor
ortogonal. O vetor Pv é o vetor da Im(P) mais próximo de v.
Prova. Todo vetor u da imagem de P pode ser escrito na forma Pv+ w, com w na
imagem de P. Assim, v −Pv pertence ao ker(P) que é ortogonal à Im(P) e acarretando
na ortogonalidade hv −Pv, wi = 0 e
kv −uk
2
= kv −Pv −wk
2
= hv −Pv −w, v −Pv −wi
= hv −Pv, v −Pvi −hv −Pv, wi −hw, v −Pvi + hw, wi
= kwk
2
+ kv −Pvk
2
≥ kv −Pvk
2
provando que Pv é o ponto da imagem de P mais próximo de v. ¤
7.2 Projetores ortogonais em C
m×1
Nesta seção vamos considerar o espaço vetorial C
m×1
com o produto interno hx, yi = x

y.
Usando uma base ortonormal
Seja P um projetor ortogonal em C
m×1
e S sua imagem. Sendo P ortogonal, seu núcleo
é S

. Seja {q
1
, . . . , q
n
} uma base ortonormal de S e {q
n+1
, . . . , q
m
} uma base ortonormal
de S

. Pelas propriedades provadas para uma projeção ortogonal P,
Pq
i
= q
i
para i = 1, . . . , n
Pq
i
= 0 para i = n + 1, . . . , m
Seja
Q = [ q
1
, . . . , q
n
, q
n+1
, . . . , q
m
]
a matriz cujas colunas são os vetores da base ortonormal {q
1
, . . . , q
n
, q
n+1
, . . . , q
m
} do
C
m×1
e para a qual
PQ = QΣ,
onde Σ é uma matriz quadrada m × m, onde os n primeiros elementos da diagonal são
iguais a 1 e todos os demais elementos são nulos. Podemos escrevê-la usando blocos
Σ =
µ
I 0
0 0

Notas de aula do Prof. Antonio Cândido Faleiros 93
onde I é a matriz identidade de tamanho n ×n. A matriz Q é unitária pois suas colunas
são formadas a partir de uma base ortonormal de C
m×1
. Sendo QQ

a matriz identidade,
chega-se a
P = QΣQ

.
Observe que apenas as n primeiras colunas de Qsão relevantes neste produto. Eliminando-
as obtemos a matriz
ˆ
Q = [q
1
, . . . , q
n
] com m linhas e n colunas para a qual
P =
ˆ
Q
ˆ
Q

.
Como já se provou, P =
P
k
i=1
q
i
q

i
e dela obtemos a identidade
P =
ˆ
Q
ˆ
Q

=
k
X
i=1
q
i
q

i
Usando uma base qualquer
Seja P um projetor ortogonal em C
m×1
e v
1
, . . . , v
n
matrizes coluna em C
m×1
tais que
B = {v
1
, . . . , v
n
} é uma base da imagem de P. Para todo v em C
m×1
, podemos escrever
Pv = x
1
v
1
+ · · · +x
k
v
n
= Ax,
onde x = [x
1
, . . . , x
n
]
T
é a matriz das coordenadas de Pv na base B e A = [v
1
, . . . , v
n
]
é uma matriz de ordem m por n, cujas colunas são v
1
, . . . , v
n
. Esta matriz A define uma
transformação linear de C
n×1
em C
m×1
.
O vetor v −Pv está no complemento ortogonal da imagem de P e, para j = 1, . . . , n,
hv
j
, v −Pvi = 0 ou v

j
Pv = v

j
v,
de onde segue
v

j
Ax = v

j
v.
Como a j− ésima linha de A

é v

j
, a identidade acima resulta em
A

Ax = A

v.
Como as colunas de A são linearmente independentes, seu posto é máximo e A

A : C
n×1
→ C
n×1
é um isomorfismo, possuindo assim uma inversa, o que nos permite escrever
x = (A

A)
−1
A

v
de onde resulta
Pv = Ax = A(A

A)
−1
A

v.
Como esta igualdade vale para todo v em C
m×1
,
P = A(A

A)
−1
A

.
Se a base B for ortonormal, a matriz A é unitária e daí A

= A
−1
. Com isto reobtemos
P = AA

, válida quando usamos uma base ortonormal.
94 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 7.6 Determine o projetor ortogonal P sobre o espaço gerado pelos vetores v
1
=
(1, 2, 0)
T
e v
2
= (0, 1, 1)
T
.
Inicialmente estabelecemos
A = [v
1
, v
2
] =
_
_
1 0
2 1
0 1
_
_
e calculamos
P = A(A

A)
−1
A

=
_
_
1/3 1/3 −1/3
1/3 5/6 1/6
−1/3 1/6 5/6
_
_
.
Observe que Pv
1
= v
1
e Pv
2
= v
2
.
7.3 Ortogonalização de Gram-Schmidt em C
m×1
Vamos considerar o espaço vetorial C
m×1
com o produto interno hx, yi = x

y. Pelo
processo de ortogonalização de Gram-Schmidt, partindo de uma base {v
1
, . . . , v
m
} de
C
m×1
, pode-se obter uma base ortonormal {q
1
, . . . , q
m
}, de modo iterativo
w
1
= v
1
e q
1
=
w
1
kw
1
k
w
2
= v
2
−hq
1
, v
2
i q
1
e q
2
=
w
2
kw
2
k
w
3
= v
3
−hq
1
, v
3
i q
1
−hq
2
, v
3
i q
2
e q
3
=
w
3
kw
3
k
· · ·
A partir de q
1
= v
1
/ kv
1
k determinam-se recursivamente os demais elementos da base
ortonormal, mediante a fórmula
w
j
= v
j

j−1
X
i=1
hq
i
, v
j
i q
i
e q
j
=
w
j
kw
j
k
,
válida para j = 2, . . . , m. Como hq
i
, v
j
i q
i
= q
i
q

i
v
j
, esta recorrência pode ser reescrita na
forma
w
j
= v
j

j−1
X
i=1
q
i
q

i
v
j
=
Ã
1 −
j−1
X
i=1
q
i
q

i
!
v
j
A projeção ortogonal sobre o subespaço S
j
gerado por {q
1
, . . . , q
j
} é
ˆ
Q
j
ˆ
Q

j
=
j
X
i=1
q
i
q

i
Notas de aula do Prof. Antonio Cândido Faleiros 95
onde
ˆ
Q
j
= [q
1
, . . . , q
j
] é a matriz cujas colunas são q
1
, . . . , q
j
. A projeção ortogonal sobre
o complemento orgogonal de S
j
é
P
j
= I −
ˆ
Q
j
ˆ
Q

j
e a fórmula recursiva pode ser escrita de modo conciso como
w
j
= P
j−1
v
j
e q
j
=
w
j
kw
j
k
.
Conclui-se que o algoritmo clássico de Gram-Schmidt pode ser expresso em termos destes
projetores
q
1
=
P
0
v
1
kP
0
v
1
k
, q
2
=
P
1
v
2
kP
1
v
2
k
, . . . , q
m
=
P
m−1
v
m
kP
m−1
v
m
k
,
onde P
0
é a identidade e P
j
, para j = 1, . . . , n − 1, é a projeção ortogonal sobre o
complemento ortogonal do espaço gerado por {q
1
, . . . , q
j
}.
7.4 Ortogonalização modificada de Gram-Schmidt
Se q for uma matriz coluna unitária em C
m×1
, a projeção ortogonal sobre o complemento
ortogonal do espaço gerado por q é
P
⊥q
= I −qq

.
Vamos, a partir de um conjunto linearmente independente {v
1
, . . . , v
n
} em C
m×1
, obter
um conjunto ortonormal de matrizes coluna {q
1
, . . . , q
n
} em C
m×1
. Observe que
P
⊥q
2
P
⊥q
1
= (I −q

2
q
2
)(I −q
1
q

1
) = I −q
1
q

1
−q
2
q

2
+q
1
q

1
q
2
q

2
= I −q
1
q

1
−q
2
q

2
pois q
1
q

1
q
2
q

2
= 0, uma vez que q

1
q
2
= 0. Prosseguindo com esse raciocínio, obtemos
P
⊥q
j
· · · P
⊥q
2
P
⊥q
1
=
j
Y
i=1
(I −q
i
q

i
) =
= I −
j
X
i=1
q
i
q

i
= I −
ˆ
Q
j
ˆ
Q

j
uma vez que q
r
q

r
q
s
q

s
= 0 para todo r 6= s. O projetor P
j
= I −
ˆ
Q
j
ˆ
Q

j
é exatamente aquele
usado no algoritmo de Gram-Schmidt. A identidade
P
j
= P
⊥q
j
· · · P
⊥q
2
P
⊥q
1
será usada no algoritmo modificado. A obtenção de P
j
através das projeções sucessivas
P
⊥q
j
· · · P
⊥q
2
P
⊥q
1
é mais estável numericamente do que o cálculo clássico através da
matriz P
j
. Em lugar de calcular w
j
pela fórmula,
w
j
= P
j−1
v
j
96 Notas de aula do Prof. Antonio Cândido Faleiros
podemos usar outra
w
j
= P
⊥q
j−1
· · · P
⊥q
2
P
⊥q
1
v
j
.
O algoritmo modificado calcula w
j
usando a seqüência
w
(1)
j
= v
j
w
(2)
j
= P
⊥q
1
w
(1)
j
= w
(1)
j
−q
1
q

1
w
(1)
j
w
(3)
j
= P
⊥q
2
w
(2)
j
= w
(2)
j
−q
2
q

2
w
(2)
j
,
.
.
.
w
j
= w
(j)
j
= P
⊥q
j−1
w
(j−1)
j
= w
(j−1)
j
−q
j−1
q

j−1
w
(j−1)
j
.
Na aritmética computacional de precisão finita, este algoritmo introduz erros menores do
que o algoritmo clássico.
==============================
Algoritmo 8.2 Gram-Schmidt modificado (estável)
Entrada: Um conjunto {v
1
, . . . , v
n
} em C
m×1
linearmente independente
Saída: Um conjunto ortonormal {q
1
, . . . , q
m
} em C
m×1
==============================
for j = 1 to n
w
j
= v
j
for j = 1 to n
r
jj
= w

j
w
j
q
j
= w
j
/r
jj
for k = j + 1 to n
r
jk
= q

j
w
k
w
k
= w
k
−r
jk
q
j
==============================
Na prática, pode-se sobrescrever v
j
com w
j
e sobrescrever w
j
com q
j
para economizar
memória.
7.5 Contagem das operações
Vamos calcular o número de flops realizados na execução do algoritmo modificado de
Gram-Schmidt. Cada operação realizada contabilizará um flop em nossa contagem. Esta
operação pode ser uma adição, uma subtração, uma multiplicação, uma divisão ou a
extração de uma raiz quadrada. Quando m e n forem grandes, o loop que domina o
algoritmo é o mais interno
for k = j + 1 to n
r
jk
= q

j
w
k
w
k
= w
k
−r
jk
q
j
Notas de aula do Prof. Antonio Cândido Faleiros 97
O produto interno q

j
w
k
requer m multiplicações e m−1 adições. O cálculo de w
k
−r
jk
q
j
necessita de m multiplicações e um igual número de subtrações. Somamos 4m flops para
um único laço do loop. Como o laço em k, que varia de j + 1 a n, está dentro de outro
em j que varia de 1 a n, o número de flops usado neste algoritmo é
n
X
j=1
n
X
k=j+1
4m = 4m
n
X
j=1
(n −j) = 4m
n
2
−n
2
= 2mn
2
−2mn ∼ 2mn
2
,
onde o símbolo ∼ tem o seguinte significado
lim
m,n→∞
número de flops
2mn
2
= 1.
Concluimos que a fatoração QR usando Gram-Schmidt modificado demanda a realização
de ∼ 2mn
2
flops.
98 Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 8
Refletor de Householder
Seja v um vetor não nulo de C
m
. A matriz
H
v
= I −2
vv

v

v
é chamada de matriz de Householder ou refletor de Householder. Se u for múltiplo
de v e w for ortogonal a v, então
H
v
u = −u e H
v
w = w.
Todo u que está em S é refletido em −u e todo w no complemento ortogonal de S se
mantém inalterado. Esta observação nos permite dizer que a matriz H
v
reflete os vetores
de C
m
no complemento ortogonal de S.
Teorema 8.1 Seja v um vetor não nulo em C
m
. O refletor
H
v
= I −2
vv

v

v
é hermitiano e unitário.
O refletor H
v
é hermitiano e unitário mas não é um projetor, visto que
H
2
v
= I.
Sejam x e y dois vetores do C
m
com normas iguais e hx, yi = hy, xi . Os vetores
v =
1
2
(x +y)
w =
1
2
(x −y)
são ortogonais e o refletor de Householder H
v
é tal que
H
v
x = −y.
Este fato pode ser provado escrevendo x e y em termos de v e w
x = v +w e y = v −w.
99
100 Notas de aula do Prof. Antonio Cândido Faleiros
Nota 8.2 Se os elementos de x e y forem todas reais, basta ter kxk = kyk para garantir
a igualdade entre hx, yi e hy, xi .
Podemos definir um refletor de Householder que leva um vetor x do C
m
num outro
y = (y
1
, 0, . . . , 0) onde apenas a primeira coordenada y
1
é não nula. Iremos usá-lo para
calcular a decomposição QR de uma matriz usando refletores de Householder, que são
operadores auto-adjuntos. Vamos à sua descrição.
O sinal de um número complexo z é definido por sign(0) = 1 e, quando z 6= 0,
sign(z) =
z
|z|
.
Observe que o sinal é um número complexo de módulo unitário. Se z for real, seu sinal
será +1 ou −1. Para todo número complexo z,
sign(z)sign(z) = 1.
Teorema 8.3 Seja x = (x
1
, x
2
, . . . , x
m
)
T
um vetor não nulo em C
m
, com x
1
complexo
não nulo e e
1
= (1, 0, . . . , 0)
T
o primeiro elemento da base canônica do C
m
. O refletor
H
v
, onde
v =
1
2
(x +sign(x
1
) kxk e
1
) ,
leva x em y = −sign(x
1
) kxk e
1
, cujo único elemento não nulo é o primeiro.
Prova. O vetor
w =
1
2
(x −sign(x
1
) kxk e
1
)
é ortogonal a v e
x = u +w,
sign(x
1
) kxk e
1
= u −w.
Portanto,
H
v
(x) = H
v
v +H
v
w = −v +w = −sign(x
1
) kxk e
1
.
¤
Oy definido neste teorema tema forma (y
1
, 0, . . . , 0)
T
, onde apenas y
1
=−sign(x
1
) kxk
não é nulo. Esta escolha de u assegura que kxk ≤ kyk , o que fornece uma maior estabili-
dade numérica à decomposição QR usando refletores de Householder descrita em seguida.
Notas de aula do Prof. Antonio Cândido Faleiros 101
8.1 Decomposição QR usando o refletor de House-
holder
A decomposição QR, baseada no processo de ortogonalização de Gram-Schmidt é o resul-
tado de sucessivas multiplicações à direita de A = [v
1
, . . . , v
n
] por matrizes elementares,
todas triangulares superiores, resultando numa matriz ortogonal Q = [q
1
, . . . , q
n
]
A×R
1
× · · · ×R
n
= Q.
A matriz R
1
× · · · × R
n
é triangular superior e sua inversa R nos fornece a decomposição
A = QR.
Por seu turno, a decomposição QR baseada nas matrizes de Householder será o resul-
tado da multiplicação à esquerda de A por uma seqüência de matrizes ortogonais Q
1
, . . . ,
Q
n
, que resultarão numa matriz triangular R
Q
n
× · · · ×Q
1
· A = R.
A matriz Q
1
× · · · × Q
n
é ortogonal e sua inversa Q nos fornecerá a decomposição A = QR.
A idéia de Householder, proposta em 1958, foi a de escolher Q
k
para zerar aqueles
elementos da coluna k de A, situados abaixo da diagonal. A multiplicação pela matriz Q
k
opera sobre A realizando uma combinação linear das linhas k, k +1, . . . , m, mantendo as
primeiras k −1 colunas inalteradas e anulando os elementos da coluna k situados abaixo
da diagonal. A matriz Q
1
é uma matriz de Householder H
1
e a forma geral de Q
k
, para
k = 2, . . . , n, é
Q
k
=
·
I 0
0 H
k
¸
onde I é a matriz identidade de ordem k − 1 e H
k
é uma matriz de Householder cuja
ordem é m− k+ 1.
Se x for o vetor de C
m−k+1
formado pelos elementos da coluna k de A, extraídos da
diagonal principal para baixo, o refletor de Householder H
k
procurado é I− vv

/v

v, onde
v =
1
2
(x +sign(x
1
) kxk e
1
) ,
e e
1
= (1, 0, . . . , 0) é o primeiro elemento da base canônica do C
m−k+1
. Pelo que foi visto
anteriormente,
H
k
x = (y
1
, 0, . . . , 0)
T
onde y
1
= −sign(x
1
) kxk é o único elemento não nulo de H
k
x.
Sendo
A = [a
(1)
1
, a
(1)
2
, . . . , a
(1)
n
] =
_
¸
¸
¸
¸
¸
¸
_
a
(1)
11
a
(1)
12
a
(1)
13
· · · a
(1)
1n
a
(1)
21
a
(1)
22
a
(1)
23
· · · a
(1)
2n
a
(1)
31
a
(1)
32
a
(1)
33
· · · a
(1)
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
(1)
m1
a
(1)
m2
a
(1)
m3
· · · a
(1)
mn
_
¸
¸
¸
¸
¸
¸
_
102 Notas de aula do Prof. Antonio Cândido Faleiros
então Q
1
= H
1
= I− v
1
v

1
/v

1
v
1
onde
v
1
=
1
2
_
¸
¸
¸
¸
¸
¸
_
a
(1)
11
+sign(a
(1)
11
)
°
°
°a
(1)
1
°
°
°
a
(1)
21
a
(1)
31
.
.
.
a
(1)
m1
_
¸
¸
¸
¸
¸
¸
_
e a
(1)
1
=
_
_
_
_
_
_
_
_
a
(1)
11
a
(1)
21
a
(1)
31
.
.
.
a
(1)
m1
_
_
_
_
_
_
_
_
estão em C
m
. Assim,
Q
1
A =
_
¸
¸
¸
¸
¸
¸
_
−sign(a
11
)
°
°
°a
(1)
1
°
°
° a
(2)
12
a
(2)
13
· · · a
(2)
1n
0 a
(2)
22
a
(2)
23
· · · a
(2)
2n
0 a
(2)
32
a
(2)
33
· · · a
(2)
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
(2)
m2
a
(2)
m3
· · · a
(2)
mn
_
¸
¸
¸
¸
¸
¸
_
.
Eliminando a primeira linha e a primeira coluna de Q
1
A, obtemos a matriz
A
1
= [a
(2)
2
, a
(2)
3
, . . . , a
(2)
n
] =
_
¸
¸
¸
_
a
(2)
22
a
(2)
23
· · · a
(2)
2n
a
(2)
32
a
(2)
33
· · · a
(2)
3n
.
.
.
.
.
.
.
.
.
.
.
.
a
(2)
m2
a
(2)
m3
· · · a
(2)
mn
_
¸
¸
¸
_
que é de ordem m−1 por n −1. Toma-se H
2
= I −v
2
v

2
/v

2
v
2
, onde
v
2
=
1
2
_
¸
¸
¸
¸
_
a
(2)
22
+sign
³
a
(2)
22
´°
°
°a
(2)
2
°
°
°e
(2)
1
a
(2)
32
.
.
.
a
(2)
m2
_
¸
¸
¸
¸
_
e a
(2)
2
=
_
_
_
_
_
a
(2)
22
a
(2)
32
.
.
.
a
(2)
m2
_
_
_
_
_
estão em C
m−1
. Toma-se
Q
2
=
·
1 0
0 H
2
¸
e, com esta escolha,
Q
2
Q
1
A =
_
¸
¸
¸
¸
¸
¸
¸
_
−sign(a
(1)
11
)
°
°
°a
(1)
1
°
°
° a
(2)
12
a
(2)
13
· · · a
(2)
1n
0 −sign(a
(2)
22
)
°
°
°a
(2)
2
°
°
° a
(3)
23
· · · a
(3)
2n
0 0 a
(3)
33
· · · a
(3)
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
(3)
m3
· · · a
(3)
mn
_
¸
¸
¸
¸
¸
¸
¸
_
.
Notas de aula do Prof. Antonio Cândido Faleiros 103
Na terceira etapa, toma-se
Q
3
=
_
_
1 0 0
0 1 0
0 0 H
3
_
_
sendo H
3
= I− v
3
v

3
/v

3
v
3
, onde
v
3
=
1
2
_
¸
¸
¸
¸
_
a
(3)
33
+sign
³
a
(3)
33
´°
°
°a
(3)
3
°
°
°
a
(3)
43
.
.
.
a
(3)
m3
_
¸
¸
¸
¸
_
e a
(3)
3
=
_
¸
¸
¸
_
a
(3)
33
a
(3)
43
.
.
.
a
(3)
m3
_
¸
¸
¸
_
.
estão em C
m−2
. Com esta escolha,
Q
2
Q
1
A =
_
¸
¸
¸
¸
¸
¸
¸
¸
_
−sign
³
a
(1)
11
´°
°
°a
(1)
1
°
°
° a
(2)
12
a
(2)
13
· · ·
0 −sign
³
a
(2)
22
´°
°
°a
(2)
2
°
°
° a
(3)
23
· · ·
0 0 −sign
³
a
(3)
33
´°
°
°a
(3)
3
°
°
° · · ·
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · ·
_
¸
¸
¸
¸
¸
¸
¸
¸
_
e o processo continua até obter uma matriz triangular superior
R = Q
n
· · · Q
2
Q
1
A.
As matrizes Q
1
, Q
2
, . . . , Q
n
são todas unitárias, de modo que seu produto Q
n
· · · Q
2
Q
1
,
que denotaremos por Q

, também é unitária sendo Q sua inversa. Assim, Q

A = R, que
resulta na decomposição
A = QR
onde Q é unitária e R é triangular superior.
8.2 O algoritmo para calcular R
O algoritmo seguinte calcula a matriz R, m por n, triangular superior da decomposição
QR de uma matriz A de ordem m por n, com m ≥ n. Além de R, este algoritmo constrói
os vetores de reflexão v
1
, . . . , v
n
.
=================================
Algoritmo 10.1 Fatoração QR de Householder
Entrada: A = (a
ij
), de ordem m por n.
Saída: Substitui a matriz A por R, que é triangular superior. Calcula ainda as reflexões
v
1
, . . . , v
n
.
=================================
104 Notas de aula do Prof. Antonio Cândido Faleiros
for k = 1 to n
x = A
k:m,k
v
k
= x +sign(x
1
) kxk e
1
v
k
= v
k
/ kv
k
k
A
k:m, k:n
= A
k:m, k:n
− 2v
k
(v

k
A
k:m, k:n
)
=================================
8.3 Contagem das operações
Em cada loop, o cálculo dominante é o de A
k:m, k:n
. O vetor v
k
tem comprimento l =
m− k+ 1. Para cada coluna de A
k:m, k:n
, é preciso calcular o produto interno v

k
A
k:m, j
o que exige 2l− 1 flops, sendo l multiplicações e l − 1 adições. Calculado este produto
interno, precisamos de 1 flop para calcular 2(v

k
A
k:m, j
) e l multiplicações para calcular
o produto deste escalar, 2(v

k
A
k:m, j
) pelo vetor v
k
. Finalmente, l subtrações para obter
A
k:m, j
− 2v
k
(v

k
A
k:m, j
). Efetuamos assim 4l operações para calcular A
k:m, j
em cada loop.
Para calcular as n− k+ 1 colunas de A
k:m, k:n
serão necessários 4l(n − k + 1) flops e na
execução dos n loops exigirá
n
X
k=1
4l(n −k + 1) =
n
X
k=1
4(m−k + 1)(n −k + 1) = 2mn
2

2
3
n
3
+ 2mn +
2
3
n
flops. Usamos no cálculo deste somatório os seguintes resultados
n
X
k=1
1 = n,
n
X
k=1
k =
1
2
n(n + 1),
n
X
k=1
k
2
=
1
6
(n + 3n
2
+ 2n
3
).
Admitindo que m e n crescem na mesma razão, fazendo m e n →∞, obtemos
∼ 2mn
2

2
3
n
3
flops para executar o algoritmo de Householder.
8.4 O algoritmo para calcular Q

A matriz Q ainda não foi calculada. Podemos usar as fórmulas
Q

= Q
n
· · · Q
2
Q
1
ou
Q = Q

1
Q

2
· · · Q

n
para obtê-la. Lembramos aqui que as matrizes Q
i
são unitárias e assim Q

i
= Q
−1
i
.
Podemos calcular Q

b ou Qx. O próximo algoritmo calcula Q

b.
Notas de aula do Prof. Antonio Cândido Faleiros 105
=================================
Algoritmo 10.2 Fatoração QR de Householder
Entrada: As reflexões v
1
, . . . , v
n
de ordem m por 1 e b de ordem m por 1
Saída: Substitui b pelo vetor Q

b de ordem m por 1.
=================================
for k = 1 to n
b
k:m
= b
k:m
− 2v
k
(v

k
b
k:m
)
=================================
Podemos usar este algoritmo para obter Q

, calculando suas colunas Q

e
1
, . . . , Q

e
m
de Q

.
8.5 O algoritmo para calcular Q
O próximo algoritmo calcula Qx.
=================================
Algoritmo 10.3 Fatoração QR de Householder
Entrada: As reflexões v
1
, . . . , v
n
, de ordem m por 1 e o vetor x de ordem n por 1.
Saída: Substitui x pelo vetor Qx de ordem n por 1.
=================================
for k = n downto 1
x
k:m
= x
k:m
− 2v
k
(v

k
x
k:m
)
=================================
Podemos usar este algoritmo para calcular as colunas Qe
1
, . . . , Qe
m
de Q. Este é o
método de escolha quando se deseja calcular a matriz unitária Q.
Quando se deseja calcular apenas
ˆ
Q da decomposição reduzida, basta calcular as
colunas Qe
1
, . . . , Qe
n
.
106 Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 9
Mínimos quadrados
Seja A uma matriz complexa m por n e b um vetor coluna do C
m
. O sistema algébrico
Ax = b tem solução se e somente se b for um ponto da imagem de A. Quando, além disso
A for inversível, Ax = b possui uma única solução dada por x = A
−1
b.
Quando b não pertencer à imagem de A, o sistema algébrico Ax = b não tem solução.
Entretanto, podemos escolher c na imagem de Aque minimiza kc −bk
2
e resolver o sistema
Ax = c. O ponto c da imagem de A mais próximo de b é a projeção ortogonal de b sobre
a imagem de A. Seja Pb esta projeção. As soluções de Ax = Pb, minimizam kAx −bk
2
.
Quando o ker(A) = {0}, o sistema Ax = Pb tem solução única. Entretanto, quando
ker(A) contiver vetores não nulos, o sistema Ax = Pb possuirá infinitas soluções. De fato,
se n for um elemento não nulo do núcleo de A e x
1
uma solução de Ax = Pb, então, para
todo número complexo c, A(x
1
+cn) = Pb.
Se x for uma solução de Ax = Pb, podemos decompô-la numa soma x
1
= r +n onde
r está na imagem de A

e n está no núcleo de A, uma vez que C
n
= Im(A

) ⊕ ker(A).
Observe que r é a projeção ortogonal de x sobre a imagem de A

. Sendo x
1
qualquer outra
solução do sistema Ax = Pb, então A(x
1
−x) = 0 e x
1
− x = n
1
pertence ao núcleo de A
e assim x
1
= x +n
1
= r+ (n +n
1
), onde n +n
1
pertence ao núcleo de A e r é a projeção
ortogonal sobre a imagem de A

de uma solução qualquer do sistema Ax = Pb. Uma das
lições que se tira do raciocínio acima é que projeção ortogonal sobre a imagem de A

de
uma solução x qualquer de Ax = Pb sempre resulta no mesmo vetor r. Determinando
uma única solução do sistema Ax = Pb e todas as soluções do sistema homogêneo Ax =
0, teremos em mãos todas as soluções do sistema não homogêneo Ax = Pb.
Cada solução de Ax = Pb é uma solução por mínimos quadrados de Ax = b.
A projeção ortogonal r de uma solução do sistema Ax = Pb sobre a imagem de A

é
chamada de solução principal por mínimos quadrados de Ax = b.
Quando o sistema linear Ax = b tem solução, suas soluções coincidem com as soluções
por mínimos quadrados de Ax = b.
Seguindo o esquema estabelecido até o momento, para obter a solução principal por
mínimos quadrados de Ax = b, precisamos seguir a seguinte receita:
1. Determine Pb, a projeção ortogonal de b sobre a imagem de A.
107
108 Notas de aula do Prof. Antonio Cândido Faleiros
2. Determine x, uma solução de Ax = Pb.
3. Determine r, a projeção ortogonal de x sobre a imagem de A

, que é ortogonal ao
núcleo de A.
Exercício 9.1 Para as matrizes abaixo, determine: a projeção ortogonal Pb de b sobre
a imagem de A, uma solução de Ax = Pb e a projeção ortogonal r de x sobre a imagem
de A

.
1. A =
_
_
1 2
0 1
2 3
_
_
e b =
_
_
1
0
0
_
_
.
2. A =
_
_
1 0 1
2 1 0
3 1 1
_
_
e b =
_
_
1
1
1
_
_
.
Exercício 9.2 Na decomposição QR de A =
_
_
1 2
0 1
1 2
_
_
, Q =
_
_
1/

2 0
0 1
1/

2 0
_
_
. Determine
a matriz que projeta sobre a imagem de A. Resolva o problema de mínimos quadrados
Ax = (1, 0, 0)
T
. (Sugestão: note que as colunas de Q dão base ortogonal para a imagem
de A.)
A resolução de um problema de mínimos quadrados é bastante árdua. Felizmente
existe um atalho que nos é dado pela proposição seguinte.
Teorema 9.3 Seja A uma matriz m por n e b um vetor coluna m por 1. Seja P a matriz
que projeta ortogonalmente sobre a imagem de A. Os sistemas lineares Ax = Pb e A

Ax =
A

b possuem as mesmas soluções.
Prova. Observe inicialmente que Pb −b ∈ Im(A)

= ker(A

).
1. Se x for solução de Ax = Pb, então Ax −b = Pb− b pertence ao núcleo de A

de
onde se conclui que A

(Ax −b) = 0 ou
A

Ax = A

b.
2. Se x for solução de A

Ax = A

b, então A

(b − Ax) = 0 e b− Ax pertence ao
núcleo de A

, que é ortogonal à imagem de A. Desta forma, b = Ax+ (b − Ax) é uma
decomposição de b em um vetor Ax na imagem de A e outro b −Ax no seu complemento
ortogonal. Logo, Pb = Ax. ¤
Definição 9.4 A equação
A

Ax = A

b
é chamada de equação normal do problema de mínimos quadrados para Ax = b.
Notas de aula do Prof. Antonio Cândido Faleiros 109
Embora seja redundante, nunca é demais reafirmar que, se x for uma solução da
equação normal, então a projeção ortogonal de b sobre a imagem de A é igual a Ax
Pb = Ax.
Quando m ≥ n e a matriz A, de ordem m por n, possuir posto máximo n, suas colunas
serão linearmente independentes e o seu núcleo conterá apenas o zero. A matriz A

A será
inversível e o problema de mínimos quadrados para Ax = b terá uma única solução
x = (A

A)
−1
A

b.
Como Pb = Ax, a projeção ortogonal P sobre a imagem de A será dada pelo produto
P = A(A

A)
−1
A

.
9.1 Mínimos quadrados e a decomposição QR
Seja A =
ˆ
Q
ˆ
R a decomposição QR reduzida da matriz A. As colunas da matriz
ˆ
Q = [q
1
,
. . . , q
k
] formam uma base ortonormal da imagem de A e
ˆ
Q

ˆ
Q é a matriz identidade k por
k. A matriz
ˆ
R, de ordem k por n, é triangular superior,
A

A =
ˆ
R

ˆ
Q

ˆ
Q
ˆ
R =
ˆ
R

ˆ
R,
e a equação normal A

Ax = A

b toma a forma
ˆ
R

ˆ
Rx =
ˆ
R

ˆ
Q

b.
Este sistema pode ser resolvido com facilidade, posto que
ˆ
R é triangular superior e
ˆ
R

é
triangular inferior.
Quando m ≥ n e a matriz A de ordem m por n possuir posto máximo n, as matrizes
A

A e
ˆ
R são inversíveis o que permite reduzir a equação normal à forma
ˆ
Rx =
ˆ
Q

b.
Neste caso,
ˆ
R é inversível e esta equação tem solução única. A projeção P = A (A

A)
−1
A

assumirá uma forma mais simples
P = A(A

A)
−1
A

=
ˆ
Q
ˆ
R(
ˆ
R

ˆ
R)
−1
ˆ
R

ˆ
Q

=
ˆ
Q
ˆ
Q

.
9.2 Pseudo inversa
Quando m ≥ n e a matriz A de ordem m por n possuir posto máximo n, o problema de
mínimo quadrado para Ax = b tem uma única solução que coincide com a única solução
da equação normal
A

Ax = A

b.
110 Notas de aula do Prof. Antonio Cândido Faleiros
A matriz A

A é inversível neste caso e
x = (A

A)
−1
A

b.
A matriz n por m
A
+
= (A

A)
−1
A

,
é chamada de pseudo-inversa de A. Ela recebe este nome pois x = A
+
b é a solução por
mínimos quadrados de Ax = b.
Sendo
ˆ
Q
ˆ
R for a decomposição QR reduzida de A, então
x =
ˆ
R
−1
ˆ
Q

b
e a pseudo-inversa será dada por
A
+
=
ˆ
R
−1
ˆ
Q

.
Continuando com A de ordem m por n e posto máximo n, a matriz A

A, além de ser
inversível, é hermitiana e possui uma decomposição de Cholesky A

A = R

R, onde R é
inversível e triangular superior. Neste caso, a equação normal se reduz à forma
R

Rx = A

b
e, sendo R triangular superior e R

triangular inferior, é muito simples resolver o sistema.
9.3 Reta de regressão
Sejam (x
1
, y
1
), . . . , (x
m
, y
m
) pontos de C
2
. Determine a reta
y = c
0
+c
1
x
que minimiza o resíduo
P
m
i=1
(c
0
+c
1
x
i
−y
i
)
2
.
Consideremos em C
m
o produto interno definido por hx, yi = x

y e a norma definida
por kxk
2
=

x

x. Sendo
A =
_
_
_
1 x
1
.
.
.
.
.
.
1 x
m
_
_
_
, c =
µ
c
0
c
1

, d =
_
_
_
y
1
.
.
.
y
m
_
_
_
,
então
kAc −dk
2
= hAc −d, Ac −di =
m
X
i=1
(c
0
+c
1
x
i
−y
i
)
2
.
Portanto, o problema proposto é equivalente ao problema de mínimos quadrados para
Ac = d no produto interno de C
m
definido por hx, yi = x

y.
Notas de aula do Prof. Antonio Cândido Faleiros 111
Se x
1
, . . . , x
m
não forem todos iguais, a matriz A tem posto 2. A equação normal
A

Ac = A

d do problema de mínimos quadrados para Ac = d é
µ
m
P
m
i=1
x
i
P
m
i=1
x
i
P
m
i=1
x
2
i
¶µ
c
0
c
1

=
µ P
m
i=1
y
i
P
m
i=1
x
i
y
i

que terá solução única.
Sejam
x =
1
m
(x
1
+ · · · +x
m
) e y =
1
m
(y
1
+ · · · +y
m
)
os valores médios de x
1
, . . . , x
m
e y
1
, . . . , y
m
, respectivamente. Podemos fazer a decom-
posição A = WT, onde
W =
_
_
_
1 (x
1
−x)
.
.
.
.
.
.
1 (x
m
−x)
_
_
_
, T =
µ
1 x
0 1

onde as colunas de W formam uma base ortogonal para a imagem de A e T é inversível.
Com esta decomposição, a equação normal A

Ac = A

d assume a forma
µ
m 0
0
P
m
i=1
(x
i
−x)
2
¶µ
c
0
+c
1
x
c
1

=
µ P
m
i=1
y
i
P
m
i=1
(x
i
−x)y
i

cuja solução é imediata
c
1
=
P
m
i=1
(x
i
−x)y
i
P
m
i=1
(x
i
−x)
2
e c
0
= y −c
1
x.
Exercício 9.5 Calcule a reta de regressão para os dados (1; 3), (2; 6), (3; 5, 5), (4; 6, 5).
9.4 Interpolação polinomial
Dados os pontos (x
1
, y
1
), . . . , (x
m
, y
m
), determine c
0
, c
1
, . . . , c
m−1
, de modo que o
polinômio
y = p(x) = c
0
+c
1
x + · · · +c
m−1
x
m−1
seja tal que p(x
i
) = y
i
, para i = 1, 2, . . . , m−1.
Estas condições nos levam ao sistema de equações algébricas lineares Ac = d onde
A =
_
_
_
_
_
1 x
1
x
2
1
· · · x
k
1
1 x
2
x
2
2
· · · x
k
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
m
x
2
m
· · · x
k
m
_
_
_
_
_
, c =
_
_
_
_
_
c
0
c
1
.
.
.
c
k
_
_
_
_
_
, d =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
.
Se os pontos x
1
, x
2
, . . . , x
m
forem todos distintos, a matriz A é inversível e o problema
tem solução única para qualquer y
1
, y
2
, . . . , y
m
.
112 Notas de aula do Prof. Antonio Cândido Faleiros
O polinômio p(x) assim obtido é chamado de polinômio interpolador dos pares de
pontos (x
1
, y
1
), . . . , (x
m
, y
m
).
À medida que o m cresce, o polinômio p oscila mais e mais. Se os pontos (x
i
, y
i
)
tiverem sido obtidos a partir de experimentos laboratoriais, p(x) pode não representar o
fenômeno que se pretende descrever.
9.5 Ajuste polinomial
Se os dados (x
i
, y
i
), i = 1, 2, . . . , m, forem provenientes de experimentos, a interpolação
polinomial fornece um polinômio que oscila muito e não representa adequadamente os
dados obtidos experimentalmente. Quanto maior for o conjunto de dados, mais oscilante
é o polinômio. Desta forma, é muito mais interessante procurar um polinômio de grau
menor, que oscila menos e se ajuste melhor aos dados observados, embora não passe nec-
essariamente por nenhum deles. Observando que dados experimentais são passíveis de
erros, não é um absurdo obter um polinômio que se ajuste a eles sem passar necessaria-
mente por nenhum deles. Fica no ar a pergunta: qual o grau do polinômio a ser usado.
Em geral, quando se faz um experimento, existem modelos matemáticos que descrevem o
fenômeno. Se não houver, busca-se um por tentativas e erros. O critério de ajuste pode
ser aquele fornecido pelo problema de mínimos quadrados.
Dados os pontos (x
1
, y
1
), . . . , (x
m
, y
m
), determine o polinômio
y = p(x) = c
0
+c
1
x + · · · +c
k
x
k
de grau k menor do que m−1 que minimiza o resíduo
P
m
i=1
(p(x
i
) −y
i
)
2
.
Minimizar este resíduo é equivalente à minimização da norma kAc −dk
2
, onde
A =
_
_
_
_
_
1 x
1
x
2
1
· · · x
k
1
1 x
2
x
2
2
· · · x
k
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
m
x
2
m
· · · x
k
m
_
_
_
_
_
, c =
_
_
_
_
_
c
0
c
1
.
.
.
c
k
_
_
_
_
_
, d =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
,
de modo que o problema proposto é equivalente àquele dos mínimos quadrados para Ac =
d com o produto interno
hx, yi = x

y.
Quando k = m−1 caímos no caso anterior da interpolação polinomial.
9.6 Aproximação polinomial de funções
Um problema semelhante ao anterior consiste em determinar o polinômio
y = p(x) = c
0
+c
1
x + · · · +c
k
x
k
Notas de aula do Prof. Antonio Cândido Faleiros 113
de grau menor ou igual a k que melhor aproxima uma função g(x) definida no intervalo
[a, b]. Logo surge a pergunta: em que sentido p(x) é o melhor polinômio que aproxima
g(x)?
Numa tentativa de responder a esta indagação, legítima por sinal, poderíamos pegar
m pontos a = x
1
≤ x
2
≤ · · · ≤ x
m
= b igualmente espaçados em [a, b] e assim determinar
o polinômio p(x) que minimiza a soma
S =
m
X
i=1
[p(x
i
) −g(x
i
)]
2
.
Denotando g(x
i
) por y
i
, podemos resolver este problema usando a técnica anterior de
ajuste polinomial.
Entretanto, antes de encerrar o caso, vamos elaborar um pouco mais este problema.
Para m fixo, seja ∆x = (b − a)/m. Minimizar S ou S · ∆x é a mesma coisa. À medida
que o m cresce,
S · ∆x =
m
X
i=1
|p(x
i
) −g(x
i
)|
2
∆x
converge para a integral
R
b
a
[f(x) −g(x)]
2
dx. Tal fato motiva a definição do produto in-
terno
hf, gi =
Z
b
a
f(x)¯ g(x) dx
e a norma correspondente a ele
kfk =
s
Z
b
a
|f(x)|
2
dx.
Nesta norma, kp −gk
2
=
R
b
a
|p(x) −g(x)|
2
dx.
O problema agora pode ser reformulado como segue: Seja g uma função contínua,
definida no intervalo real [a, b]. Determine o polinômio p(x) = c
0
+ c
1
x+ · · · + c
k
x
k
de
grau menor ou igual a k, que minimiza
kp −gk
2
=
Z
b
a
|p(x) −g(x)|
2
dx.
Sabemos que p é obtido projetando g ortogonalmente sobre o espaço dos polinômios
de grau menor ou igual a k. Podemos determinar este polinômio a partir de uma base
ortogonal para este espaço vetorial. Sabemos que quando [a, b] = [−1, 1], estes polinômios
estão relacionados aos polinômios de Legendre.
114 Notas de aula do Prof. Antonio Cândido Faleiros
9.7 Aproximação trigonométrica
Podemos agora resolver um problema semelhante ao anterior, aproximando uma função
real g(x), definida no intervalo [−L, L], por uma função trigonomérica
f(x) =
a
0
2
+
m
X
k=1
a
k
cos
µ

L
x

+
m
X
k=1
b
k
sen
µ

L
x

fazendo com que
kf −gk
2
=
Z
L
−L
|f(x) −g(x)|
2
dx
seja o menor possível. A norma acima é proveniente do produto interno
hf, gi =
Z
L
−L
f(x)¯ g(x) dx
e, o que é interessante observar, o conjunto de funções
{ 1, cos
µ

L
x

, sen
µ

L
x

: k = 1, 2, . . . , m }
é ortogonal em relação a este produto interno. Pode-se calcular que h1, 1i = 2L e
¿
cos
µ

L
x

, cos
µ

L
x
¶À
=
¿
sen
µ

L
x

, sen
µ

L
x
¶À
= L.
Consequentemente,
a
0
=
1
L
Z
L
−L
g(x)dx
a
k
=
1
L
Z
L
−L
g(x) cos
µ

L
x

dx
b
k
=
1
L
Z
L
−L
g(x)sen
µ

L
x

dx
para k = 1, 2, . . . , m.
Seja g(x) uma função contínua por partes no intervalo [−L, L] e h(x) sua extensão
periódica para toda a reta. À medida que o m cresce, a aproximação trigonométrica
converge para o valor médio
g(x

) +g(x
+
)
2
onde
g(x

) = lim
s→x

g(s) e g(x
+
) = lim
s→x
+
g(s).
A teoria que trata das aproximações por funções trigonométricas é denominada de
Análise de Fourier e a ciência que estuda as aproximações por seqüências de funções
ortogonais é denominada de Análise Harmônica.
Capítulo 10
Autovalores e autovetores
Definição 10.1 Seja V um espaço vetorial e L : V →V um operador linear. Um escalar
λ é um autovalor de L se existir um vetor v, não nulo, tal que Lv = λv. O vetor v é
chamado de autovetor de L correspondente ao autovalor λ.
Uma matriz quadrada A define um operador linear de R
n
em R
n
se for real ou de C
n
em C
n
se for complexa. Um número real λ é um autovalor de A se existir uma matriz
coluna x de ordem n por 1, não nula, tal que Ax = λx. O vetor coluna x é chamado de
autovetor de A correspondente ao autovalor λ.
Sendo x um autovetor de A correspondente ao autovalor λ então
(λI −A)x = 0,
onde I é a matriz identidade. A equação matricial acima possui solução não trivial se e
só se
det(λI −A) = 0.
Se A for uma matriz de ordem n, o det(λI −A) é um polinômio de grau n em λ. Sobre o
corpo dos números complexos, a equação polinomial
det(tI −A) = 0
possui pelo menos uma raiz λ. Substituindo este valor na equação matricial (λI −A)x = 0,
determinamos os autovalores x. Lembre-se: quando uma equação matricial homogênea
possui solução não trivial, esta solução não é única. Se x
1
e x
2
são dois autovetores de A
correspondentes ao mesmo autovalor λ e α
1
, α
2
forem dois escalares, então α
1
x
1
+ α
2
x
2
será autovetor de A correspondentes ao autovalor λ. O conjunto
auto(λ) = {x ∈ C
n
: Ax = λx}
é um subespaço vetorial de C
n
, chamado de autoespaço de A correspodente ao autovalor
λ.
A matriz tI − A é chamada de matriz característica de A, o polinômio ∆(t) =
det(tI−A) é chamado de polinômio característico de A e a equação polinomial det(tI−
A) = 0 é chamada de equação característica de A.
115
116 Notas de aula do Prof. Antonio Cândido Faleiros
Para obter os autovalores e autovetores de A, calcule as raízes λ
1
, . . . , λ
s
da equação
característica det(λI −A) = 0 e, para cada autovalor λ
i
, determine o conjunto solução do
sistema homogêneo
(λI −A)x = 0
para obter o autoespaço de λ.
Se duas matrizes quadradas A e B forem semelhantes, então existe uma matriz inver-
sível P tal que B = PAP
−1
e
det(tI −B) = det(tP
−1
P −P
−1
AP) = det(P
−1
(tI −A)P) =
= det(P
−1
) det(tI −A) det(P) = det(tI −A),
mostrando que matrizes semelhantes possuem a mesma equação característica e, portanto,
os mesmos autovalores.
Para determinar autovalores e autovetores de um operador linear L : V →V, onde V
é um espaço vetorial de dimensão finita n, escolhemos uma base B = {v
1
, . . . , v
n
} de V e
calculamos a matriz de L na base B que denotamos por A. Um escalar λ é autovalor de
L se e só se for autovalor de A. Um vetor v não nulo é autovetor de L correspondente ao
autovalor λ se e só se a matriz coluna x das coordenadas de v na base B for um autovetor
de A correspondente ao autovalor λ.
De fato, se A = (a
ij
), então
Lv
j
=
n
X
i=1
a
ij
v
i
e, se x = (x
1
, . . . , x
n
)
T
, então
v =
n
X
i=1
x
i
v
i
e
Lv =
n
X
j=1
x
j
Lv
j
=
n
X
j=1
x
j
n
X
i=1
a
ij
v
i
=
n
X
i=1
Ã
n
X
j=1
a
ij
x
j
!
v
i
.
Assim, Lv = λv se e só se
P
n
i=1
³
P
n
j=1
a
ij
x
j
´
v
i
=
P
n
i=1
λx
i
v
i
e, da independência linear
dos elementos de B, esta igualdade se verifica se e só se
P
n
j=1
a
ij
x
j
=
P
n
i=1
λx
i
, para i =
1, . . . , n, que corresponde à equação matricial Ax = λx.
Desta forma, para calcular os autovalores e autovetores de um operador L num espaço
vetorial de dimensão finita, basta calcular sua matriz A numa base B, determinar seus
autovalores λ
1
, . . . , λ
s
, que serão os autovetores de L. A cada autovalor λ
i
, determine o
autoespaço de A correspondente a este autovalor
auto(λ
i
) = {x ∈ C
n
: Ax = λ
i
x}
para obter os autovetores v de L correspondente ao autovalor λ
i
que serão dados por
v = x
1
v
1
+ · · · +x
n
v
n
Notas de aula do Prof. Antonio Cândido Faleiros 117
onde x = (x
1
, . . . , x
n
)
T
é autovetor de A correspondente ao autovalor λ
i
.
Seja λ um autovalor de L. Tal como no caso de matrizes, o conjunto
auto(λ) = {v ∈ V : Lv = λv}
é um subespaço vetorial de V, denominado de autoespaço de L correspondente ao auto-
valor λ.
Se A for a matriz de L numa base B de V, então tI − A é chamada de matriz
característica de L, o polinômio det(tI −A) é chamado de polinômio característico
de L e a equação polinomial det(tI −A) = 0 é chamada de equação característica de
L.
Como as matrizes de uma transformação linear em bases diferentes são semelhantes, o
polinômio característico de L não depende da base escolhida e, portanto, seus autovalores
não dependem da base escolhida. A mesmo acontece com os autovetores de L. Sua
determinação não depende da base escolhida.
Teorema 10.2 Autovetores de L correspondentes a autovalores distintos são linearmente
independentes.
Prova. Sejam v
1
, . . . , v
r
os autovetores de L correspondentes aos autovalores dis-
tintos λ
1
, . . . , λ
r
. Vamos provar que estes autovetores formam um conjunto linearmente
independente.
1. Inicialmente provaremos que {v
1
, v
2
} é linearmente independente. Sejam a
1
e a
2
dois escalares tais que a
1
v
1
+a
2
v
2
= 0. Multiplicando por λ
1
e por A vem
a
1
λ
1
v
1
+a
2
λ
1
v
2
= 0
e
a
1
λ
1
v
1
+a
2
λ
2
v
2
= 0.
Subtraindo uma da outra chega-se a a
2

1
−λ
2
)v
2
= 0. Como λ
1
6= λ
2
e v
2
6= 0, obtemos
a
2
= 0 e, consequentemente, a
1
= 0, provando que o conjunto {v
1
, v
2
} é linearmente
independente. Do mesmo modo se prova que um conjunto formado por dois autovetores
{v
i
, v
j
} são linearmente independentes.
2. Vamos supor, como hipótese de indução, que qualquer subconjunto de {v
1
, . . . , v
r
}
com menos de r elementos é linearmente independente.
3. Vamos provar que {v
1
, . . . , v
r
} é linearmente independente. Consideremos a
equação
a
1
v
1
+a
2
v
2
+ · · · +a
r
v
r
= 0,
onde a
i
são escalares. Multiplicando-a por A e por λ
1
, obtemos
a
1
λ
1
v
1
+a
2
λ
2
v
2
+ · · · +a
r
λ
r
v
r
= 0
e
a
1
λ
1
v
1
+a
2
λ
1
v
2
+ · · · +a
r
λ
1
v
r
= 0.
118 Notas de aula do Prof. Antonio Cândido Faleiros
Subtraindo uma da outra vem
a
2

2
−λ
1
)v
2
+ · · · +a
r

r
−λ
1
)v
r
= 0
Sendo o conjunto {v
2
, . . . , v
r
} linearmente independente, a
2

2
−λ
1
) = · · · = a
r

r
−λ
1
) =
0. Como os autovalores são distintos, a
2
= · · · = a
r
= 0 e, em conseqüência, a
1
também é
nulo, completando a prova de que o conjunto {v
1
, . . . , v
r
} é linearmente independente. ¤
Teorema 10.3 Seja V um espaço com produto interno e L : V → V auto-adjunto. Os
autovalores de L são reais e os autovetores correspondentes a autovalores distintos são
ortogonais.
Prova. Se Lv = λv, onde v é um vetor não nulo e λ escalar, então hLv, vi = hv, Lvi
o que implica em
¯
λhv, vi = λhv, vi ou (
¯
λ −λ) hv, vi = 0, de onde se conclui que
¯
λ = λ.
Se v e w forem autovetores correspondentes aos autovalores reais distintos λ e µ, então,
de hLv, wi = hv, Lwi o que implica em λhv, wi = µhv, wi ou (λ − µ) hv, wi = 0. Como
λ 6= µ, hv, wi = 0. ¤
Teorema 10.4 Seja V um espaço com produto interno e L : V →V linear. Os autoval-
ores de L

L são reais e não negativos, isto é, se λ for autovalor de L

L, então λ ≥ 0.
Prova. Como L

L é auto-adjunto, seus autovalores são reais. Seja v um autovetor de
L

L associado ao autovalor λ. De hLv, Lvi ≥ 0, segue
0 ≤ hLv, Lvi = hv, L

Lvi = hv, λvi = λhv, vi
Como hv, vi > 0, conclui-se que λ ≥ 0. ¤
Teorema 10.5 Seja V um espaço com produto interno e L : V → V antiadjunto. Os
autovalores de L são números imaginários puros (números complexos com parte real nula)
e os autovetores correspondentes a autovalores distintos são ortogonais.
Prova. Se v for um autovetor de L, com Lv = λv então
hLv, vi = hv, −Lvi =⇒
¯
λhv, vi = −λhv, vi =⇒
¯
λ = −λ
provando que λ é um número imaginário com parte real nula.
Sejam v e w autovetores de L com Lv = λv, Lw = σw e λ 6= σ. Então
hLv, wi = hv, −Lwi =⇒
¯
λhv, wi = −σ hv, wi .
Sendo λ e σ imaginários puros e distintos,
¯
λ 6= −σ e assim, hv, wi = 0. ¤
Notas de aula do Prof. Antonio Cândido Faleiros 119
Teorema 10.6 Seja V um espaço com produto interno e L : V →V unitário. Os auto-
valores de L são números complexos com módulo unitário e os autovetores correspondentes
a autovalores distintos são ortogonais.
Prova. Seja v um autovetor de L, com Lv = λv. Então
hLv, Lvi = hv, vi =⇒
¯
λλhv, vi = hv, vi =⇒
¯
λλ = 1,
mostrando que λ é um número complexo de módulo unitário.
Sejam v e w autovetores de L com Lv = σv, Lw = λw e σ 6= λ. Se hv, wi 6= 0, então
hLv, Lwi = hv, wi =⇒ ¯ σλhv, wi = hv, wi =⇒ ¯ σλ = 1.
Como λ possui módulo unitário, podemos escrevê-lo na forma λ = exp(iθ), onde θ é um
número real. Assim ¯ σ exp(iθ) = 1 e ¯ σ = exp(−iθ) =
¯
λ de onde se conclui que λ = σ, o
que contraria a hipótese. ¤
Definição 10.7 Seja p(t) = c
0
+ c
1
t+ · · · + c
k
t
k
um polinômio em t e A uma matriz
quadrada. Define-se p(A), o valor do polinômio p(t) na matriz A, por
p(A) = c
0
I +c
1
A+ · · · +c
k
A
k
onde I é a matriz identidade com ordem igual à de A. Se p(A) = 0, diremos que a matriz
A é um zero do polinômio p(t).
Sejam A
k
, k = 0, 1, . . . , r, matrizes quadradas de mesma ordem. Os elementos da
matriz
A(t) = A
0
+A
1
t + · · · +A
r
t
r
são polinômios de grau menor ou igual a r.
Teorema 10.8 (Cayley-Hamilton) Toda matriz é um zero do seu polinômio caracterís-
tico.
Prova. Seja A uma matriz quadrada de ordem n e B = tI −A sua matriz caracterís-
tica. Seu polinômio característico
det B = det(tI −A) = t
n
+c
n−1
t
n−1
+ · · · +c
1
t +c
0
tem grau n. Cada elemento da adjunta clássica de B, denotada por adj(B), é um polinômio
de grau n − 1 ou inferior. Logo, adj(B) = B
n−1
t
n−1
+ · · · + B
1
t+ B
0
é um polinômio
matricial de grau n −1 ou inferior. Sabe-se que B
−1
= adj(B)/ det(B) e assim,
det(B)I = adj(B) · B.
Como
det(B)I = It
n
+c
n−1
It
n−1
+ · · · +c
1
It +c
0
I
120 Notas de aula do Prof. Antonio Cândido Faleiros
e
adj(B) · B =
¡
B
n−1
t
n−1
+ · · · +B
1
t +B
0
¢
(tI −A)
= B
n−1
t
n
+ (B
n−2
−B
n−1
A)t
n−1
+ · · · + (B
0
−B
1
A)t +B
0
A
segue
I = B
n−1
c
n−1
I = B
n−2
−B
n−1
· · ·
c
1
I = B
0
−B
1
A
c
0
I = B
0
A.
Multiplicando as igualdades, da primeira até a última por A
n
, A
n−1
, . . . , A e I, respecti-
vamente, pela direita e adicionando os resultados, obtemos zero do lado direito e, do lado
esquerdo, o polinômio característico
A
n
+c
n−1
A
n−1
+ · · · +c
1
A+c
0
I
calculado na matriz A. Isto prova o teorema de Cayley-Hamilton. ¤
Matrizes triangulares em bloco são aquelas do tipo
A =
µ
A
1
B
0 A
2

onde A
1
e A
2
são matrizes quadradas, podendo ter a mesma ordem ou não. Então
det(A) = det(A
1
) det(A
2
).
A matriz característica de A também é triangular por blocos e
det(tI −A) = det(tI −A
1
) det(tI −A
2
).
Teorema 10.9 Seja A uma matriz triangular em blocos, cujos blocos diagonais são A
1
,
. . . , A
r
. Então o polinômio característico de A é o produto dos polinômios característicos
de A
1
, . . . , A
r
, isto é,
det(tI −A) = det(tI −A
1
) · · · det(tI −A
r
).
O polinômio característico de uma matriz quadrada complexa A pode ser fatorado em
fatores lineares,
∆(t) = (t −λ
1
)
p
1
· · · (t −λ
k
)
p
k
,
onde λ
1
, . . . , λ
k
são suas raízes e p
1
, . . . , p
k
suas multiplicidades. O expoente p
k
é a
multiplicidade algébrica do autovalor λ
k
.
Notas de aula do Prof. Antonio Cândido Faleiros 121
Definição 10.10 Seja λ um autovalor de uma matriz quadrada A de ordem n. A mul-
tiplicidade algébrica de λ é a multiplicidade de λ como raíz da equação característica.
A multiplicade geométrica de λ é a dimensão do seu autoespaço.
Exemplo 10.11 O polinômio característico de A =
_
_
5 1 0
0 5 0
0 0 5
_
_
é (t − 5)
3
. Logo, 5 é
um autovalor de A de multiplicidade algébrica 3. O autoespaço deste autovalor é gerado
por (1, 0, 0)
T
e (0, 0, 1)
T
. Logo, a multiplicidade geométrica do autovalor 5 é 2.
Teorema 10.12 A multiplicidade geométrica de um autovalor nunca excede sua multi-
plicidade algébrica.
Prova. Seja V um espaço vetorial de dimensão n e L : V → V um operador linear.
Seja g a multiplicidade geométrica de um autovalor λ de L. Existem g autovetores v
1
, . . . ,
v
g
linearmente independentes correspondentes ao autovalor λ. Completemos este conjunto
para obter uma base de V. Seja B = {v
1
, . . . , v
g
, w
1
, . . . , w
r
} esta base. A matriz de L
nesta base é
M =
_
_
_
_
_
_
_
_
_
λ · · · 0 c
11
· · · c
1r
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · λ c
p1
· · · c
pr
0 · · · 0 b
11
· · · b
1r
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 b
r1
· · · b
rr
_
_
_
_
_
_
_
_
_
=
µ
A C
0 B

onde A = λI. O polinômio característico de M é ∆(t) = det(tI−M) = det(tI−A) det(tI−
B) = (t − λ)
g
det(tI − B). Portanto, (t − λ)
g
deve dividir ∆(t). Para que isto ocorra, a
multiplicidade algébrica de λ deve ser maior ou igual a g. ¤
Teorema 10.13 Uma matriz quadrada A de ordem n é semelhante a uma matriz diagonal
D se e só se A tem n autovetores linearmente independentes.
Prova. 1. Se A for semelhante a uma matriz diagonal D, então existe uma matriz
inversível P tal que AP = PD. Os elementos diagonais de D são os autovalores de A e
as colunas de P os autovetores. Sendo inversível, as colunas de P são vetores linearmente
independentes.
2. Se A tem n autovetores linearmente independentes, sejam eles {v
1
, . . . , v
n
} que
formam uma base de V e para os quais Av
i
= λ
i
v
i
. Se P for a matriz cujas colunas são
formadas por esses vetores, temos AP = PD onde D = diag(λ
1
, . . . , λ
n
). ¤
Nota 10.14 No teorema anterior, os n autovalores λ
1
, . . . , λ
n
não precisam ser todos
distintos.
122 Notas de aula do Prof. Antonio Cândido Faleiros
Seja P a matriz inversível para a qual D = P
−1
AP é diagonal. Então A = PDP
−1
é
a chamada de fatoração diagonal de A.
Seja V um espaço vetorial com dimensão n. Seja L : V →V uma transformação linear,
cujo polinômio característico
∆(t) = (t −λ
1
)(t −λ
2
) · · · (t −λ
n
)
pode ser fatorado em n fatores distintos do primeito grau. Então L possui n autovetores
linearmente independentes e portanto, possui uma representação matricial diagonal, na
base formada pelos autovetores. Os elementos da diagonal desta representação são os
autovalores λ
i
.
Se D for diagonal e seus elementos diagonais forem d
11
, d
22
, . . . , d
nn
denotaremos esta
matriz por D = diag(d
11
, d
22
, . . . , d
nn
). Sendo A = PDP
−1
, então
A
m
=
¡
PDP
−1
¢
m
= PD
m
P
−1
= Pdiag(d
m
11
, d
m
22
, . . . , d
m
nn
)P
−1
.
Sendo f(t) um polinômio,
f(A) = f
¡
P DP
−1
¢
= P f(D) P
−1
= Pdiag( f(d
11
), f(d
22
), . . . , f(d
nn
) )P
−1
.
Além disso, se os elementos diagonais de D forem não negativos, então
B = Pdiag
³
p
k
1
, . . . ,
p
k
n
´
P
−1
é uma raiz quadrada de A pois B
2
= A.
Capítulo 11
Espaços Invariantes
Definição 11.1 Seja L : V →V um operador linear e W um subespaço de V. Se L(W) ⊂
W, diremos que W é invariante sob L.
Exemplo 11.2 Seja L(x, y, z) = ( x − y, x + y, z ) um operador definido no espaço
vetorial dos ternos ordenados. O subespaço W = { (x, y, 0) : x, y ∈ R } é invariante sob
L.
O subespaço gerado por um vetor w não nulo é invariante sob L se e só se w for um
autovetor de L.
Seja L : V →V linear e f(t) um polinômio. O ker f(L) é invariante sob L. Se W for
invariante sob L, então W é invariante sob f(L).
Definição 11.3 Seja W um subespaço vetorial de V e L : V → V um operador linear.
Se W for invariante sob L podemos definir T : W → W por T(w) = L(w) para todo w
em W. O operador T é linear em W e recebe o nome de restrição de L em W.
Sendo W invariante sob L, então é invariante sob L
k
, para todo k inteiro positivo. Se
f(t) for um polinômio, então W é invariante sob f(L). Sendo T a restrição de L a W,
para todo w em W, tem-se f(T)w = f(L)w.
Teorema 11.4 Seja L : V → V linear e W subespaço de V invariante sob L. Então L
possui uma representação matricial em bloco
µ
A C
0 B

onde A é uma representação matricial da restrição de L em W.
123
124 Notas de aula do Prof. Antonio Cândido Faleiros
Prova. Seja {u
1
, . . . , u
j
} uma base de W e {u
1
, . . . , u
j
, v
1
, . . . , v
k
} uma base de V.
Como W é invariante frente a L,
L(u
1
) = a
11
u
1
+ · · · +a
j1
u
j
· · ·
L(u
j
) = a
1j
u
1
+ · · · +a
jj
u
j
L(v
1
) = c
11
u
1
+ · · · +c
j1
u
j
+b
11
v
1
+ · · · +b
k1
v
k
· · ·
L(v
k
) = c
1k
u
1
+ · · · +c
jk
u
j
+b
1k
v
1
+ · · · +b
kk
v
k
e, portanto, a representação matricial de L nesta base é
_
_
_
_
_
_
_
_
_
a
11
· · · a
1j
c
11
· · · c
1k
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j1
· · · a
jj
c
j1
· · · c
jk
0 · · · 0 b
11
· · · a
1j
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 b
k1
· · · b
kk
_
_
_
_
_
_
_
_
_
=
µ
A C
0 B

.
¤
Definição 11.5 Seja L : V →V linear e V = W
1
⊕· · · ⊕W
r
, onde W
i
é invariante sob
L. Seja L
i
a restrição de L a W
i
. Neste caso se diz que L é a soma direta dos L
i
ou que
L é decomponível nos operadores L
i
, quando então se escreve
L = L
1
⊕· · · ⊕L
r
.
Ainda se diz que os subespaços W
1
, . . . , W
r
reduzem L.
Teorema 11.6 Seja L : V →V linear e W
1
, . . . , W
r
subespaços de V invariantes sob L
e tais que V = W
1
⊕· · · ⊕W
r
. Neste caso, L possui uma representação matricial diagonal
em bloco
A =
_
_
_
_
_
A
1
0 · · · 0
0 A
2
· · · 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · A
r
_
_
_
_
_
onde A
i
é uma representação matricial da restrição L
i
de L no subespaço W
i
.
Prova. Provaremos o teorema no caso em que V = W
1
⊕ W
2
. Sejam B
1
= {u
1
, . . . ,
u
r
} base de W
1
e B
2
= {w
1
, . . . , w
s
} base de W
2
. Como W
1
e W
2
são invariantes frente
Notas de aula do Prof. Antonio Cândido Faleiros 125
L,
L(u
1
) = a
11
u
1
+ · · · +a
r1
u
r
· · ·
L(u
r
) = a
1r
u
1
+ · · · +a
rr
u
r
L(w
1
) = b
11
w
1
+ · · · +b
s1
w
s
· · ·
L(w
s
) = b
1s
w
1
+ · · · +b
ss
w
s
Desta forma, a representação matricial de L nesta base é
A =
_
_
_
_
_
_
_
_
_
a
11
· · · a
1r
0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
r1
· · · a
rr
0 · · · 0
0 · · · 0 b
11
· · · b
1s
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 b
s1
· · · b
ss
_
_
_
_
_
_
_
_
_
=
µ
A 0
0 B

.
¤
Nas condições do teorema anterior, temos L = L
1
⊕· · · ⊕L
r
. A matriz A é chamada
de soma direta de A
1
, . . . , A
r
e se escreve
A = A
1
⊕· · · ⊕A
r
.
11.1 Polinômio mínimo
Para obter representações matriciais simplificadas de um operador linear é preciso obter
subespaços invariantes. Se f(t) for um polinômio e L for um operador linear, então o
núcleo de f(L) é invariante sob L. Este fato nos fornece um modo sistemático de obter
subespaços invariantes.
Em particular vamos provar que
Teorema 11.7 Seja L : V → V linear e g(t), h(t) polinômios mônicos primos entre si,
tais que L é um zero do polinômio f(t) = g(t)h(t). Então os subespaços ker g(L) e ker g(L)
são invariantes sob L e
V = ker g(L) ⊕ker h(L)
Sabemos que L é um zero de seu polinômio característico. Vamos provar que todo
polinômio que tem L como zero possui os mesmos fatores irredutíveis. Dentre eles,
destaca-se o de menor grau, denominado de polinômio mínimo de L.
Definição 11.8 Seja L : V →V um operador linear. O polinômio mínimo de L é aquele
polinômio mônico de menor grau para o qual m(L) = 0.
126 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 11.9 Toda matriz quadrada possui um único polinômio mínimo.
Prova. (Existência) Sabemos que a matriz L é um zero do seu polinômio característico
e assim, existe pelo menos um polinômio não nulo que possui L como zero. Considere
o conjunto de todos os polinômios mônicos que se anulam em L. Existe pelo menos um
polinômio não nulo de grau mínimo neste conjunto. Este é um polinômio mínimo de L.
(Unicidade) Seja m(t) o polinômio mônico de menor grau para o qual m(L) = 0. Seja
f(t) outro polinômio mônico de mesmo grau que m(t) e que possui L como zero. Então
g(t) = f(t)− m(t) não é nulo e seu grau é menor que o grau de m(t). Ao mesmo tempo,
g(L) = 0, contrariando a hipótese de m(t) ser o polinômio de menor grau que possui L
como zero. ¤
Teorema 11.10 O polinômio mínimo de L divide todo polinômio que tem L como zero.
Em particular, o polinômio mínimo de L divide o polinômio característico de L.
Prova. Seja m(t) o polinômio mínimo de L e f(t) um polinômio mônico para o qual
f(L) = 0. O grau de f(t) é maior do que o grau de m(t) e, pelo algoritmo da divisão,
f(t) = q(t)m(t)+r(t), onde grau(r) < grau(m). Existem duas possibilidades: r(t) = 0 ou
r(t) 6= 0. Esta possibilidade, r(t) 6= 0, deve ser descartada pois nos leva a uma contradição,
considerando-se que r(A) = 0 e o grau(r) < grau(m). Logo, r(t) = 0 e m(t) divide f(t).
¤
Teorema 11.11 Seja m(t) o polinômio mínimo e ∆(t) o polinômio característico de um
operador linear L : V →V. Se a dimensão de V for n, então ∆(t) divide m(t)
n
.
Prova. Seja f(t) = c
0
+c
1
t +c
2
t
2
+ · · · +t
r
, qualquer polinômio mônico para o qual
f(L) = 0 ou
c
0
I +c
1
L +c
2
L
2
+ · · · +L
r
= 0,
onde se pode explicitar c
0
I
c
0
I = −c
1
L −c
2
L
2
−· · · −L
r
.
Esta expressão pode ser usada para eliminar c
0
I em f(t)I.
f(t)I = c
0
I +c
1
tI +c
2
t
2
I + · · · +t
r
I
= c
1
(tI −L) +c
2
(t
2
I −L
2
) + · · · + (t
r
I −L
r
)
= (tI −L)(c
1
+c
2
(tI +L) + · · · + (t
r−1
I +t
r−2
L + · · · +L
r−1
))
= (tI −L)B(t).
Se f(t) for o polinômio mínimo m(t) de L, vale (tI − L)B(t) = m(t)I. Calculando o
determinante dos dois membros, segue
∆(t) det B(t) = m(t)
n
.
¤
Notas de aula do Prof. Antonio Cândido Faleiros 127
Teorema 11.12 Os polinômios mínimo e característico de um operador linear L possuem
os mesmos fatores irredutíveis. Logo, possuem as mesmas raízes.
Prova. Seja m(t) o polinômio mínimo e ∆(t) o polinômio característico de L.
Pelo teorema anterior, ∆(t) divide m(t)
n
. Assim, os fatores irredutíveis de ∆(t) devem
ser fatores irredutíveis de m(t)
n
que possui os mesmos fatores irredutíveis que m(t).
Por outro lado, m(t) divide ∆(t). Logo, os fatores irredutíveis de m(t) também devem
ser fatores irredutíveis de ∆(t). Isto prova o teorema. ¤
Corolário 11.13 Um escalar λ é um autovalor de um operador linear L se e só se λ for
uma raiz do polinômio mínimo de L.
Exemplo 11.14 Considere a matriz
A =
_
_
2 2 −5
3 7 −15
1 2 −4
_
_
.
, eigenvectors:
_
_
_
_
_
−2
1
0
_
_
,
_
_
5
0
1
_
_
_
_
_
↔1,
_
_
_
_
_
1
3
1
_
_
_
_
_
↔3Seu polinômio característico é
∆(t) = (t −1)
2
(t −3).
Os candidatos a polinômio mínimo são ∆(t) e
f(t) = (t −1)(t −3).
Já sabemos que ∆(A) = 0. Vamos verificar se f(A) = 0. Sendo f(t) = t
2
− 4t + 3, um
cálculo simples mostra que f(A) = A
2
−4A + 3I = 0. Logo, f(t) é o polinômio mínimo
de A.
Exemplo 11.15 O polinômio característico e mínimo da matriz
_
_
5 2 0
0 5 2
0 0 5
_
_
são ambos iguais a (t −5)
3
.
Exemplo 11.16 Dada a matriz
A =
_
_
5 2 0
0 5 0
0 0 5
_
_
,
seu polinômio característico é (t −5)
3
e seu polinômio mínimo é (t −5)
2
.
128 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 11.17 Dada a matriz
A =
_
_
5 0 0
0 5 0
0 0 5
_
_
,
seu polinômio característico é (t −λ)
3
e seu polinômio mínimo é (t −λ) .
Exemplo 11.18 Os polinômios característico e mínimo de
A =
_
_
0 0 2
1 0 3
0 1 5
_
_
são ambos iguais a t
3
−5t
2
−3t −2.
Exemplo 11.19 Os polinômios característico e mínimo de
_
_
_
_
0 0 0 2
1 0 0 3
0 1 0 5
0 0 1 7
_
_
_
_
são ambos iguais a t
4
−7t
3
−5t
2
−3t −2.
Exemplo 11.20 Os polinômios característico e mínimo de
_
_
_
_
0 0 0 a
0
1 0 0 a
1
0 1 0 a
2
0 0 1 a
3
_
_
_
_
são ambos iguais a t
4
−a
3
t
3
−a
2
t
2
−a
1
t −a
0
.
Exemplo 11.21 A matriz A =
µ
5 6
3 −2

tem dois autovalores: −4 e 7. Os autovetores
correspondentes a eles são
µ
2
−3

e
µ
3
1

. Os polinômios característico e mínimo são
iguais ∆(t) = m(t) = t
2
−3t −28. Assim
1
11
µ
1 −3
3 2
¶µ
5 6
3 −2
¶µ
2 3
−3 1

=
µ
−4 0
0 7

.
Exemplo 11.22 Os autovalores de
µ
5 6
3 2

são −1 e 8 e os autovetores correspondentes
a eles são, respectivamente,
µ
−1
1

e
µ
2
1

.
Notas de aula do Prof. Antonio Cândido Faleiros 129
Exemplo 11.23 A matriz C =
µ
5 −1
1 3

possui um único autovalor real λ = 4 e um
único autovetor linearmente independente
µ
1
1

. Os polinômios característico e mínimo
são iguais ∆(t) = m(t) = t
2
−8t + 16.
Exemplo 11.24 Os autovalores de
µ
2 2
1 3

são 1 e 4. Os autovetores correspondentes
são
µ
2
−1

e
µ
1
1

. Os polinômios carcterístico e mínimo são iguais: t
2
−5t + 4.
Exemplo 11.25 Os autovalores de
_
_
4 1 −1
2 5 −2
1 1 2
_
_
são 3 e 5. Correspondente a λ
1
=
3 temos dois autovetores LI
_
_
−1
1
0
_
_
e
_
_
1
0
1
_
_
. Correspondente a λ
2
= 5 temos um
autovetor LI
_
_
1
2
1
_
_
. Seu polinômio característico é ∆(t) = (t −3)
2
(t −5) e mínimo é
m(t) = (t −3) (t −5) .
Exemplo 11.26 Os autovalores de A =
_
_
3 −1 1
0 6 −3
0 1 2
_
_
são 3 e 5. Correspondentes ao
autovalor λ
1
= 3 temos dois autovetores linearmente independentes,
_
_
−1
1
0
_
_
e
_
_
1
0
1
_
_
.
Todos os autovetores correspondentes ao autovalor λ
2
= 5 são múltiplos de
_
_
1
2
1
_
_
. O
polinômio característico de A é ∆(t) = (t −3)
2
(t −5) e o polinômio mínimo é m(t) =
(t −3) (t −5) .
Exemplo 11.27 Os autovalores de
_
_
−3 1 −1
−7 5 −1
−6 6 −2
_
_
são −2 e 4 e os autovetores corre-
spondentes são
_
_
1
1
0
_
_
e
_
_
0
1
1
_
_
. O polinômio característico e mínimo são ∆(t) = m(t) =
(t −4) (t + 2)
2
.
Exemplo 11.28 Dada a matriz
_
_
2 0 0
0 2 0
0 0 2
_
_
, seu polinômio característico é (t −2)
3
e
seu polinômio mínimo é t −2.
130 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 11.29 Dada a matriz
_
_
2 1 0
0 2 0
0 0 2
_
_
, seu polinômio característico é (t −2)
3
e
seu polinômio mínimo é (t −2)
2
.
Exemplo 11.30 Dada a matriz
_
_
2 1 0
0 2 1
0 0 2
_
_
, seu polinômio característico é (t −2)
3
e
seu polinômio mínimo é (t −2)
3
Exemplo 11.31 Dada a matriz
_
_
_
_
_
_
2 0 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
1
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
1
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
1
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
0
1
_
_
_
_
_
_
formam uma base de C
5
. Seu polinômio característico é (t −2)
5
e seu polinômio mínimo é t −2.
Exemplo 11.32 Dada a matriz
_
_
_
_
_
_
2 1 0 0 0
0 2 0 0 0
0 0 2 0 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores são
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
1
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
1
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
0
1
_
_
_
_
_
_
, seu polinômio característico é (t −2)
5
e seu polinômio mínimo é (t −2)
2
.
Exemplo 11.33 Dada a matriz
_
_
_
_
_
_
2 1 0 0 0
0 2 1 0 0
0 0 2 0 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores são
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
1
0
_
_
_
_
_
_
,
_
_
_
_
_
_
0
0
0
0
1
_
_
_
_
_
_
, seu polinômio característico é (t −2)
5
e seu polinômio mínimo é (t −2)
3
.
Notas de aula do Prof. Antonio Cândido Faleiros 131
Exemplo 11.34 Dada a matriz
_
_
_
_
_
_
2 1 0 0 0
0 2 1 0 0
0 0 2 1 0
0 0 0 2 0
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores são
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
0
0
0
0
1
_
_
_
_
_
_
,
polinômio característico: (t −2)
5
, polinômio mínimo: (t −2)
4
.
Exemplo 11.35 Dada a matriz
_
_
_
_
_
_
2 1 0 0 0
0 2 1 0 0
0 0 2 1 0
0 0 0 2 1
0 0 0 0 2
_
_
_
_
_
_
, seus autovetores são
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
, seu polinômio característico é (t −2)
5
e seu polinômio mínimo é (t −2)
5
Nota 11.36 Parece-me que dá para tirar uma regra para calcular a multiplicidade ge-
ométrica de um autovalor: Calcule os polinômios característico e mínimo da matriz e
fatore-os. Se o polinômio característico possuir o fator (t − λ)
n
o polinômio caracterís-
tico terá o fator (t − λ)
m
com m ≤ n. O número de autovetores correspondentes a λ
(multiplicidade geométrica de λ) é n −m+ 1.
11.2 Matrizes em bloco
*** Incluir casos mais gerais do que apenas diagonais em bloco.
Se A e B forem matrizes quadradas, então
D =
µ
A 0
0 B

,
onde 0 são matrizes retangulares nulas, é uma matriz diagonal em bloco. Se f(t) for
um polinômio em t, então
f(D) =
µ
f(A) 0
0 f(B)

.
Teorema 11.37 Sejam A
1
e A
2
são matrizes quadradas e
A =
µ
A
1
0
0 A
2

uma matriz diagonal em bloco. Então o polinômio mínimo de A é igual ao mínimo múltiplo
comum dos polinômios mínimos dos blocos diagonais A
1
e A
2
.
132 Notas de aula do Prof. Antonio Cândido Faleiros
Prova. Sejam m(t), m
1
(t) e m
2
(t) os polinômios mínimos de A, A
1
e A
2
, respectiva-
mente. Vamos provar que m(t) = mmc{m
1
(t), m
2
(t)}. Sendo m(t) o polinômio mínimo
de A, então
m(A) =
µ
m(A
1
) 0
0 m(A
2
)

=
µ
0 0
0 0

.
Conclui-se que m(A
1
) = m(A
2
) = 0. Logo, m
1
(t) e m
2
(t) dividem m(t) e daí, m(t) é
multiplo comum de m
1
(t) e m
2
(t).
Vamos mostrar que A é uma raiz de todo polinômio múltiplo de m
1
(t) e m
2
(t). Sendo
f(t) um múltiplo comum de m
1
(t) e m
2
(t), então
f(A) =
µ
f(A
1
) 0
0 f(A
2
)

=
µ
0 0
0 0

= 0
pois f(A
1
) = 0 e f(A
2
) = 0. Daí A é um zero de todo múltiplo comum de m
1
(t) e m
2
(t).
Sendo o polinômio mínimo o poliômio de menor grau que possui A como raiz, m(t) é o
mínimo múltiplo comum de g(t) e h(t). ¤
Teorema 11.38 Seja A uma matriz diagonal em bloco, cujos blocos diagonais são A
1
,
A
2
, . . . , A
r
. Então o polinômio mínimo de A é igual ao mínimo múltiplo comum (mmc)
dos polinômios mínimos dos blocos diagonais A
i
m
A
(t) = mmc{ m
A
1
(t), m
A
2
(t), . . . , m
Ar
(t) }.
Prova. A prova usa o teorema anterior e indução em r. ¤
Nota 11.39 Frisamos que este teorema se aplica a matrizes diagonais em blocos, en-
quanto o Teorema (10.9) que é análogo a este e se refere aos polinômios característicos,
aplica-se a matrizes triangulares em blocos.
11.3 Decomposição primária
Teorema 11.40 Seja L : V →V uma transformação linear e W invariante sob L. Seja
L
W
: W → W a restrição de L em W. Sob estas hipóteses, o polinômio mínimo de L
W
divide o polinômio mínimo de L.
Prova. Se m(t) for o polinômio mínimo de L, então m(L) = 0. Para todo w ∈ W,
temos m(L
W
)(w) = m(L)(w) = 0. Sendo L
W
um zero de m(t), o polinômio mínimo de
L
W
divide o polinômio mínimo de L. ¤
Lembramos que, se f(t) e g(t) forem dois polinômios quaisquer,
f(t)g(t) = mdc(f(t), g(t))mmc(f(t), g(t))
Notas de aula do Prof. Antonio Cândido Faleiros 133
Teorema 11.41 Seja L : V → V uma transformação linear, V
1
e V
2
invariantes sob L
de modo tal que V = V
1
⊕V
2
. Sejam L
1
e L
2
as restrições de L a V
1
e V
2
.
1. O polinômio mínimo de L é o mínimo múltiplo comum dos polinômios mínimos de
L
1
e L
2
.
2. O polinômio característico de L é o produto dos polinômios característicos de L
1
e
de L
2
.
Prova. 1. Sejam m(t), m
1
(t) e m
2
(t) os polinômios mínimos de L, L
1
e L
2
, respecti-
vamente. Pelo teorema anterior, m(t) é divisível por m
1
(t) e por m
2
(t).
Seja f(t) outro polinômio que tem L por raiz. Então f(L
1
) = f(L
2
) = 0 e f é divisível
por m
1
(t) e m
2
(t). Provamos que todo polinômio que tem L por raiz é múltiplo comum
de m
1
(t) e m
2
(t). Sendo m(t) o polinômio de menor grau que tem L como raiz,
m(t) = mmc(m
1
(t), m
2
(t)).
2. Se B
1
= {u
1
, . . . , u
r
} for uma base de V
1
e B
2
= {w
1
, . . . , w
s
} for uma base de V
2
,
então a união B
1
∪ B
2
é uma base de V. Como V
1
e V
2
são invariantes sob L, para j = 1,
. . . , r, tem-se
Lu
j
=
r
X
i=1
a
ij
u
i
e, para j = 1, . . . , s,
Lw
j
=
r
X
i=1
b
ij
w
i
.
A matriz da transformação linear L nesta base é triangular em bloco
M =
µ
A 0
0 B

.
Consequentemente,
det(tI −M) = det(tI −A) det(tI −B) = ∆
L
1
(t)∆
L
2
(t).
¤
Nota 11.42 No teorema anterior, se m
1
(t) e m
2
(t) forem primos entre si, então m(t) =
m
1
(t)m
2
(t).
Teorema 11.43 Seja L : V →V linear e g(t), h(t) polinômios mônicos primos entre si,
tais que L é um zero do polinômio f(t) = g(t)h(t). Então:
1. Os subespaços ker g(L) e ker h(L) são invariantes sob L e
V = ker g(L) ⊕ker h(L)
134 Notas de aula do Prof. Antonio Cândido Faleiros
2. Se f(t) for o polinômio mínimo de L, então g(t) e h(t) são os polinômios mínimos
das restrições de L ao ker g(L) e ao ker h(L), respectivamente.
Prova. Inicialmente, observamos que ker g(L) e ker h(L) são invariantes sob L.
1. Como g(t) e h(t) são primos entre si, existem polinômios r(t) e s(t) tais que
r(t)g(t) +s(t)h(t) = 1,
acarretando na igualdade
I = r(L)g(L) +s(L)h(L).
Sendo v um elemento de V, podemos escrever
v = r(L)g(L)v +s(L)h(L)v.
Nesta soma, r(L)g(L)v pertence ao ker h(L) e w = s(L)h(L)v pertence ao ker g(L).
De fato,
h(L)r(L)g(L)v = r(L)g(L)h(L)v = r(L)f(L)v = 0
pois f(L) = 0. De modo análogo se prova que s(L)h(L)v pertence ao ker g(L).
Consequentemente,
V = ker g(L) + ker h(L).
Para completar a prova deste item, falta mostrar que esta decomposição é única.
Seja v = u+ w, uma decomposição de v, com u ∈ ker g(L) e w ∈ ker h(L). Então,
u = r(L)g(L)u +s(L)h(L)u = s(L)h(L)u
= s(L)h(L)(u +w) = s(L)h(L)v.
De modo semelhante se prova que w = s(L)h(L)v.
Como a decomposição é única,
V = ker g(L) ⊕ker h(L).
2. Se f(t) = g(t)h(t) for o polinômio mínimo de L, então ele é divisível pelos polinômios
mínimos m
1
(t) e m
2
(t) de L
1
e L
2
, como já se provou.
Por outro lado, g(L
1
) = 0 e h(L
2
) = 0. Portanto, m
1
(t) divide g(t) e m
2
(t) divide
h(t). Como g(t) e h(t) são primos entre si, o mesmo ocorre com m
1
(t) e m
2
(t) que
os divide.
Sendo m
1
(t) e m
2
(t) primos entre si e f(t) = mmc{m
1
(t), m
2
(t)}, segue
f(t) = m
1
(t)m
2
(t).
Por outro lado, f(t) = g(t)h(t), de onde segue que m
1
(t) = g(t) e m
2
(t) = h(t).
Notas de aula do Prof. Antonio Cândido Faleiros 135
¤
Teorema 11.44 (Decomposição primária) Seja L : V →V linear cujo polinômio mínimo
é igual a
m(t) = f
1
(t)
n
1
· · · f
r
(t)
nr
onde os polinômios f
i
(t) são mônicos, distintos e irredutíveis. Então f
i
(t)
n
i
são os
polinômios mínimos das restrições de L a W
i
= ker (f
i
(L)
n
i
) e
V = W
1
⊕· · · ⊕W
r
.
Prova. Para simplificar a prova, vamos abordar o caso particular em que m(t) =
f
1
(t)
n
1
f
2
(t)
n
2
onde f
1
(t), f
2
(t) são polinômios mônicos, distintos e irredutíveis. Certa-
mente, f
1
(t)
n
1
e f
2
(t)
n
2
são primos entre si. Este teorema decorre imediatamente do
anterior.
De fato, sabemos que V = W
1
⊕W
2
, onde W
i
= ker f
i
(t)
n
i
e que f
i
(t)
n
i
, é o polinômio
mínimo da restrição de L em W
i
. ¤
Teorema 11.45 Uma transformação linear L : V →V possui uma representação matri-
cial diagonal se e só se seu polinômio mínimo,
m(t) = (t −λ
1
) · · · (t −λ
r
)
for um produto de polinômios lineares distintos. Os elementos da diagonal principal desta
matriz são os autovalores λ
1
, . . . , λ
r
de L.
Prova. 1. Se L possui uma representação matricial diagonal D = diag( λ
1
, . . . , λ
n
),
admitamos que apenas os r primeiros λ
i
são distintos. O polinômio característico desta
transformação linear é da forma ∆(t) = (t − λ
1
)
n
1
· · · (t − λ
r
)
nr
. O polinômio mínimo
possui os mesmos fatores de ∆(t). Como (D−λ
1
I) · · · (D−λ
r
I) = 0 o polinômio mínimo
de L é (t −λ
1
) · · · (t −λ
r
).
2. Sendo m(t) = (t −λ
1
) · · · (t −λ
r
), então existe uma decomposição de V numa soma
direta W
1
⊕ · · · ⊕ W
r
, onde W
i
= ker(L − λ
i
I) é o autoespaço de V correspondente ao
autovalor λ
i
. Se B
i
= {v
i1
, v
i2
, . . . , v
is
i
} for uma base de W
i
, então L(v
ij
) = λ
i
v
ij
. Seja B
a união das bases B
i
, para i = 1, . . . , r, que é uma base de V. Nesta base, a matriz que
representa L é diagonal. ¤
11.4 Diagonalização de operadores normais
Um operador L : V →V é diagonalizável se existir uma base {v
1
, . . . , v
n
} de V tal que
a matriz de L nesta base é diagonal. Isto significa que a matriz de L numa base qualquer
136 Notas de aula do Prof. Antonio Cândido Faleiros
é semelhante a uma matriz diagonal. Isto significa que, se A for a matriz de L numa base
de V, então existe uma matriz inversível P e uma matriz diagonal D tais que
A = PDP
−1
.
Podemos nos perguntar qual a condição mais geral que um operador linear deve sat-
isfazer para ser diagonalizável. Quando o operador linear L : V → V é auto-adjunto,
antiadjunto ou unitário, então LL

= L

L. Esta é a condição mais geral sob a qual um
operador é diagonalizável.
Definição 11.46 Um operador linear L : V →V é normal quando
LL

= L

L.
A matriz quadrada A que satisfaz AA

= A

A é denominada matriz normal.
Exemplo 11.47 Os operadores auto-adjuntos, antiadjuntos e unitários são normais.
Exemplo 11.48 Se L for normal, I for o operador identidade e λ um escalar, então o
operador L −λI é normal.
Se λ for autovalor de L, então
¯
λ é autovalor de L

. Se L for um operador normal,
provaremos logo em seguida que v é autovetor de L correspondente ao autovalor λ se e só
se v for autovetor de L

correspondente ao autovalor
¯
λ.
Quando L não é normal, os autovetores de L não são, necessariamente, os autovetores
de L

.
Seja V um espaço vetorial de dimensão finita com produto interno e L : V → V um
operador linear. Se S for um subespaço de V invariante sob L então S

é invariante sob
L

. Agora, quando L for normal e S for invariante sob L, provaremos que tanto S quanto
S

são invariantes sob L e L

.
Teorema 11.49 Seja L um operador normal sobre um espaço vetorial de dimensão finita
com produto interno. Se v for autovetor de L correspondente ao autovalor λ, então v é
autovetor de L

correspondente ao autovalor
¯
λ.
Prova. Se L é normal, LL

= L

L e, portanto, hLv, Lwi = hL

v, L

wi para todo
v e w em V. Em particular, para todo v em V, hLv, Lvi = hL

v, L

vi que nos fornece a
igualdade kLvk = kL

vk . Para todo escalar λ, T = L −λI é normal pois T

= L


¯
λI.
Sendo T normal, kTvk = kT

vk para todo v em V. Desta forma, Tv = 0 se e só se T

v =
0. Conclui-se que v é autovetor de L se e só se for autovetor de L

.
Se λ for autovalor de L, seja v o autovetor correspondente. No item anterior provou-se
que v é autovetor de L

. Sendo µ o autovalor correspondente segue
¯
λhv, vi = hλv, vi = hLv, vi = hv, L

vi = µhv, vi .
Sendo hv, vi 6= 0, segue µ =
¯
λ. ¤
Notas de aula do Prof. Antonio Cândido Faleiros 137
Teorema 11.50 Seja L uma transformação normal sobre um espaço vetorial de dimensão
finita com produto interno V. Então
1. V possui uma base ortonormal formada por autovetores de L.
2. Seja A uma matriz complexa normal de ordem n. Existe uma matriz unitária U e
uma matriz diagonal D para as quais
A = UDU
−1
.
Prova. 1. Seja n a dimensão de V. A transformação L possui pelo menos um autovetor
v de módulo unitário. O subespaço vetorial W = ger(v) e W

são invariantes sob L e
sob L

. A dimensão de W é 1 e a de W

é n −1.
Vamos provar que a restrição T de L em W

é normal. Para todo v e w em W

temos hv, T

wi = hTv, wi = hLv, wi = hv, L

wi de onde concluímos que o adjunto de T é
a restrição de L

a W

. Para todo v em W

, TT

v = LL

v = L

Lv = T

Tv, mostrando
que T é normal.
O teorema agora será demonstrado por indução na dimensão n do espaço.
Se n = 1, nada resta a provar: a base de V contém apenas um autovetor v
1
de norma
unitária.
Vamos supor, como hipótese de indução, que o teorema vale para todos os operadores
normais em espaços vetoriais de dimensão n −1.
Provemos que o teorema vale para todo operador normal L definido em um espaço
vetorial V de dimensão n. Seja v
1
um autovetor de L e W = ger(v
1
). Seja T a restrição
de L a W

. O operador T é normal em W

que tem dimensão n − 1. Pela hipótese de
indução, W

possui uma base ortonormal {v
2
, . . . , v
n
} cujos elementos são autovetores de
T. Os autovetores de T são autovetores de L. Ao incluirmos v
1
a este conjunto, obtemos
a base ortonormal {v
1
, v
2
, . . . , v
n
} formada por autovetores de L. Nela, a representação
matricial de L é diagonal. ¤
Teorema 11.51 Seja L um operador linear sobre um espaço vetorial V de dimensão
finita. Se V possuir uma base ortonormal formada por autovetores de L, então L é
normal.
Prova. Seja B = {v
1
, . . . , v
n
} uma base ortonormal de V cujos elementos são autove-
tores de L, de modo que Lv
i
= λ
i
v
i
para i = 1, . . . , n. O escalar λ
i
é o autovalor de L
correspondente ao autovetor v
i
. Se decompondo L

v
i
na base B, podemos escrever
L

v
i
=
X
j
a
ij
v
j
onde, graças à ortonormalidade da base B, ¯ a
ij
= hL

v
i
, v
j
i . Por outro lado,
¯ a
ij
= hL

v
i
, v
j
i = hv
i
, Lv
j
i = hv
i
, λ
j
v
j
i = λ
j
hv
i
, v
j
i = λ
j
δ
ij
.
138 Notas de aula do Prof. Antonio Cândido Faleiros
Isto significa que a
ij
= 0 quando i 6= j e a
ii
=
¯
λ
i
, de modo que L

v
i
=
¯
λ
i
v
i
. Mostramos
assim que v
i
é autovetor de L

correspondente ao autovalor
¯
λ
i
. Portanto, L

Lv
i
= λ
i
¯
λ
i
v
i
=

i
|
2
v
i
e LL

v
i
=
¯
λ
i
λ
i
v
i
= |λ
i
|
2
v
i
. Sendo as transformações L

L e LL

iguais em cada
elemento da base, são iguais no espaço todo, provando que L é normal. ¤
Seja V um espaço vetorial de dimensão finita com produto interno e L : V →V uma
transformação normal. Sejam λ
1
, . . . , λ
r
os autovalores de L e S
i
= {v ∈ V : Lv = λ
i
v}
o autoespaço do autovalor λ
i
. Se {v
1i
, . . . , v
si
} for uma base ortonormal de S
i
, então,
para todo v em S
i
temos L(v) = λ
i
hv
1i
, vi v
1i
+ · · · + λ
i
hv
si
, vi v
si
= λ
i
P
i
(v), onde P
i
é a projeção ortogonal de V sobre S
i
. Logo L coincide com λ
i
P
i
em S
i
. Se a soma dos
autoespaços S
i
resultar numa decomposição de V em soma direta, então
L = λ
1
P
1
+ · · · +λ
n
P
n
.
Teorema 11.52 (Versão projetiva do teorema espectral) Seja V um espaço vetorial com-
plexo com produto interno e dimensão n. Seja L : V → V um operador normal e {v
1
,
. . . , v
n
} uma base ortonormal de V, formada pelos autovalores de L. Os autoespaços S
i
=
auto(λ
i
), i = 1, . . . , r, são ortogonais dois a dois e sua soma é igual a V. Se P
i
: V →V
for a projeção ortogonal sobre S
i
, então
P
1
+ · · · +P
n
= I
e
L = λ
1
P
1
+ · · · +λ
n
P
n
.
Teorema 11.53 (Versão do teorema espectral para matriz real simétrica) Seja A uma
matriz normal de ordem n. Sejam λ
1
, . . . , λ
r
seus autovalores distintos. Então
A = λ
1
P
1
+ · · · +λ
r
P
r
onde P
i
são as matrizes que projetam ortogonalmente sobre o autoespaço de λ
i
. Estes
autoespaços são ortogonais e sua soma direta é igual a C
n
, de modo que
P
1
+ · · · +P
k
= I.
Exemplo 11.54 A matriz A =
_
_
7 4 −5
4 −2 4
−5 4 7
_
_
é simétrica. Seus autovalores são
6, 12 e −6. Os autovetores correspondentes são (1, 1, 1)
T
, (−1, 0, 1)
T
e (1, −2, 1)
T
.
Para montar S tal que A = SDS
−1
, tomamos as colunas de S iguais aos autovetores
normalizados
S =
_
_
1/

3 −1/

2 1/

6
1/

3 0 −2/

6
1/

3 1/

2 1/

6
_
_
e D =
_
_
6 0 0
0 12 0
0 0 −6
_
_
.
Notas de aula do Prof. Antonio Cândido Faleiros 139
Podemos escrever A como uma combinação linear de matrizes de projeção
A = 6P
1
+ 12P
2
−6P
3
,
onde
P
1
=
_
_
1/3 1/3 1/3
1/3 1/3 1/3
1/3 1/3 1/3
_
_
, P
2
=
_
_
1/2 0 −1/2
0 0 0
−1/2 0 1/2
_
_
e P
3
=
1
6
_
_
1 −2 1
−2 4 −2
1 −2 1
_
_
Exemplo 11.55 A matriz A =
_
_
0 1 1
−1 0 2
−1 −2 0
_
_
é anti-simétrica. Seus autovalores são
0, i

5 e −i

5. Os autovetores correspondentes são (2, −1, 1), (−.4 −.4899i, .2 −.9798i,
1) e (−.4 +.4899i, .2 +.9798i, 1).
Exemplo 11.56 A matriz A =
_
_
1/

3 2/

6 9
1/

3 −1/

6 −1/

2
1/

3 −1/

6 1/

2
_
_
é ortogonal. Seus autoval-
ores são −1; 0, 9381+ 0, 3464i e 0, 9381− 0, 3464i. Os autovetores correspondentes são
(0, 5176; 1; 0, 4142),
(0, 1691 + 0, 9463i; −0, 3267 + 0, 4898i; 1),
(0, 1691 −0, 9463i; −0, 3267 −0, 4898i; 1).
11.5 Decomposição de Schur
Teorema 11.57 Dada uma matriz complexa A de ordem n, existe uma matriz unitária
U tal que
T = U

AU
é triangular superior.
Prova. Será usada a indução sobre n. Se n = 1, A é triangular superior e nada resta
a provar. Se n > 1, assuma, como hipótese de indução, que o teorema é verdadeiro para
toda matriz quadrada de ordem n−1. Seja q
1
um autovetor unitário correspondente a um
autovalor λ
1
de A. Construa uma base de C
n
onde um dos elementos é q
1
. Use o processo
de ortogonalização de Gram-Schmidt para obter uma base ortonormal {q
1
, . . . , q
n
} de
C
n
. A matriz
U
1
= [q
1
, . . . , q
n
]
é unitária e
U

1
AU
1
=
·
λ
1
b
1
0 A
1
¸
140 Notas de aula do Prof. Antonio Cândido Faleiros
onde A
1
é uma matriz quadrada de ordem n −1. De acordo com a hipótese de indução,
existe uma matriz unitária V
1
de ordem n −1 tal que
T
1
= V

1
A
1
V
1
é triangular superior. A matriz
U
2
=
·
1 0
0 V
1
¸
é unitária e, sendo U = U
1
U
2
, segue
U

AU = U

2
(U

1
AU
1
) U
2
=
·
1 0
0 V

1
¸ ·
λ
1
b
1
0 A
1
¸ ·
1 0
0 V
1
¸
=
·
λ
1
b
1
a
1
0 V

1
A
1
V
1
¸
=
·
λ
1
b
1
a
1
0 T
1
¸
= T
que é triangular superior. ¤
Como A e T são semelhantes, possuem os mesmos autovalores e com a mesma mul-
tiplicidade. Sendo T triangular superior, os elementos da diagonal principal são seus
autovalores e, consequentemente, autovalores de A.
Nota 11.58 Sejam λ
1
, . . . , λ
n
os elementos da diagonal principal de T. Como matrizes
semelhantes possuem o mesmo determinante e o mesmo traço, segue
det(A) = λ
1
× · · · ×λ
n
e tr(A) = λ
1
+ · · · +λ
n
.
Teorema 11.59 (Teorema Espectral). Se H é uma matriz hermitiana, existe uma matriz
unitária U tal que U

HU é diagonal.
Prova. Pelo teorema de Schur, existe U unitária tal que U

HU = T é triangular
superior. Como T

= U

H

U = U

HU = T, vemos que T é simética. Logo, também é
triangular inferior, ou seja, é diagonal. ¤
A matriz A =
·
0 −1
1 0
¸
não é hermitiana mas é ortogonalmente diagonalizável, com
U =
1

2
·
−1 i
i −1
¸
.
A matriz mais geral diagonalizável é a normal.
Teorema 11.60 Uma matriz de ordem n é diagonalizável unitariamente se e só se for
normal.
Notas de aula do Prof. Antonio Cândido Faleiros 141
Prova. Se A for uma matriz de ordem n diagonalizável unitáriamente, existe uma
matriz unitária U tal que D = U

AU é diagonal. Como D e D

são diagonais, segue
que DD

= D

D, ou (U

AU)(U

A

U) = (U

A

U)(U

AU) de onde segue U

AA

U =
U

A

AU. Multiplicando à esquerda por U e à direita por U

, obtemos AA

= A

A,
provando que A é normal.
Se A for normal, então AA

= A

A. Pelo teorema de Schur, existe uma matriz unitária
U tal que T = U

AU é triangular superior. Vamos provar por indução em n que T é
diagonal. Se n = 1, a matriz T é diagonal. Se n > 1, então
TT

= T

T.
Sendo T = [t
ij
], então igualando os elementos (1, 1) em na igualdade acima, obtemos
|t
11
|
2
+ |t
12
|
2
+ · · · + |t
1n
|
2
= |t
11
|
2
pois T é triangular superior. Segue que t
12
= · · · = t
1n
= 0. Logo T tem a forma de blocos
T =
·
t
11
0
0 T
1
¸
onde T
1
é normal e, por hipótese de indução, é diagonal. Cnclui-se daí que T é diagonal,
completando a prova do teorema. ¤
Nota 11.61 As matrizes normais reais 2 ×2 são as matrizes simétricas e aquelas com a
forma
·
a −b
b a
¸
11.6 Decomposição em valores singulares
Seja A uma matriz complexa m por n. A matriz A

A é auto-adjunta e seus autovalores
são todos positivos ou nulos. Podemos posicioná-los em ordem descrescente
λ
1
≥ λ
2
≥ · · · ≥ λ
n
≥ 0.
Sendo A

A auto-adjunta, existe uma base ortonormal {q
1
, . . . , q
n
} de C
n
onde q
i
é o
autovetor correspondente ao autovalor λ
i
. A matriz
Q = [q
1
, . . . , q
n
]
cujas colunas são os autovetores de A

A, é unitária e
A

AQ = QD
142 Notas de aula do Prof. Antonio Cândido Faleiros
onde D = diag(λ
1
, . . . , λ
n
) é uma matriz quadrada diagonal n×n. Como λ
i
≥ 0, definimos
σ
i
=

λ
i
≥ 0. Seja r ≤ n o número de valores σ
i
diferentes de zero, de modo que
σ
1
≥ · · · ≥ σ
r
> 0 e σ
r+1
= · · · = σ
n
= 0.
Para i = 1, . . . , r os vetores de C
m
definidos por
p
i
=
1
σ
i
Aq
i
formam um conjunto ortonormal. Uma vez que q
r+1
, . . . , q
n
estão no núcleo de A (pois
são levados por A em 0), o conjunto {p
1
, . . . , p
r
} é uma base ortonormal da imagem de
A e, por este motivo r é o posto de A que deve ser menor ou igual a m.
Para provar que {p
1
, . . . , p
r
} é um conjunto ortonormal, basta calcular, para 1 ≤ i,
j ≤ r, o produto interno
hp
i
, p
j
i =
1
σ
i
σ
j
hAq
i
, Aq
j
i =
1
σ
i
σ
j
hq
i
, A

Aq
j
i
=
σ
2
j
σ
i
σ
j
hq
i
, q
j
i =
σ
j
σ
i
hq
i
, q
j
i = δ
ij
.
Pode-se completar {p
1
, . . . , p
r
} de modo a obter uma base ortonormal {p
1
, . . . , p
r
, p
r+1
,
. . . , p
m
} de C
m
.
A matriz m×m
P = [p
1
, . . . , p
r
, p
r+1
, . . . , p
m
]
cujas colunas são os vetores p
i
, é unitária e, pelo modo como foi construída,
AQ = PΣ
onde
Σ = diag{σ
1
, . . . , σ
r
, 0, . . . , 0}.
é uma matriz m×n onde todos os elementos são nulos, à excessão dos r primeiros elementos
da diagonal principal que são σ
1
≥ · · · ≥ σ
r
. Lembramos que r ≤ min(m, n).
Como Q é unitária, obtemos a decomposição de A em valores singulares
A = PΣQ

Os números reais σ
1
, . . . , σ
r
, 0, são denominado de valores singulares de A.
Usando a expressão de A deduzida acima, prova-se que
A

AQ = QΣ

Σ e AA

P = PΣΣ

mostrando que as colunas q
i
de Q são autovetores da matriz A

A, que as colunas p
i
de P
são autovetores da matriz AA

e, tanto no primeiro quanto no segundo caso, autovetores
correspondentes aos autovalores σ
2
i
.
Lembramos que ΣΣ

é uma matriz diagonal m×m e Σ

Σ é uma matriz diagonal n×n.
Se A tiver posto máximo, então r = min{m, n} e uma das duas matrizes, ΣΣ

ou Σ

Σ,
possui todos os termos diagonais diferentes de zero e, portanto, é não singular.
Provamos o seguinte teorema:
Notas de aula do Prof. Antonio Cândido Faleiros 143
Teorema 11.62 (Decomposição em valores singulares) Seja A uma matriz m × n cujo
posto é r (r ≤ min{m, n}). Então:
1. Esta matriz possui r valores singulares σ
1
≥ · · · ≥ σ
r
não nulos (incluindo sua
multiplicidade).
2. Existe um conjunto ortonormal {q
1
, . . . , q
r
} formado por autovetores de A

A, cor-
respondentes aos autovalores σ
2
1
≥ · · · ≥ σ
2
r
tais que o conjunto
{p
1
, . . . , p
r
} = {
1
σ
1
Aq
1
, . . . ,
1
σ
r
Aq
r
}
é uma base ortonormal da imagem de A.
3. Se {q
r+1
, . . . , q
n
} for uma base ortonormal do núcleo de A, então {q
1
, . . . , q
r
, q
r+1
,
. . . , q
n
} é uma base ortonormal de C
n
. Sendo
{ p
1
, . . . , p
r
, p
r+1
, . . . , p
m
}
uma base ortonormal de C
m
, então
A = PΣQ

onde
P = [p
1
, . . . , p
m
]
Q = [q
1
, . . . , q
n
]
Σ = diag(σ
1
, . . . , σ
r
)
onde apenas os primeiros r elementos da diagonal principal são diferentes de zero e
iguais a σ
1
, . . . , σ
r
.
Exemplo 11.63 Obtenha a decomposição em valores singulares de A =
µ
1 2 0
2 1 0

.
Exemplo 11.64 Obtenha a decomposição em valores singulares de A =
_
_
1 2 0 1
1 0 2 1
2 2 2 2
_
_
.
Então A

A =
_
_
_
_
6 6 6 6
6 8 4 6
6 4 8 6
6 6 6 6
_
_
_
_
cujos autovalores são 24, 4, 0 e 0.Os autovetores corre-
spondentes a eles são
1
2
_
¸
¸
_
1
1
1
1
_
¸
¸
_
,
1

2
_
¸
¸
_
0
−1
1
0
_
¸
¸
_
,
1

12
_
¸
¸
_
−3
1
1
1
_
¸
¸
_
,
1

6
_
¸
¸
_
0
−1
−1
2
_
¸
¸
_
144 Notas de aula do Prof. Antonio Cândido Faleiros
Assim,
Q =
_
_
_
_
1/2 0 −3/

12 0
1/2 −1/

2 1/

12 −1/

6
1/2 1/

2 1/

12 −1/

6
1/2 0 1/

12 2/

6
_
_
_
_
, Σ =
_
_

24 0 0 0
0 2 0 0
0 0 0 0
_
_
.
Para determinar P, calculamos p
1
= (1/

24)Aq
1
e p
2
= (1/2)Aq
2
para obter
1

6
_
_
1
1
2
_
_
,
1

2
_
_
−1
1
0
_
_
.
Como o contradomínio de A tem dimensão 3, precisamos de mais um vetor para formar
a base. Calculamos p
3
=
¡
p
13
p
23
p
33
¢
T
unitário e fazendo-o ortogonal a p
1
e a p
2
.
Obtemos então p
3
= (1/

3)
¡
1 1 −1
¢
T
. Com estes vetores montamos
P =
_
_
1/

6 −1/

2 1/

3
1/

6 1/

2 1/

3
2/

6 0 −1/

3
_
_
.
Nota: Na decomposição em valores singulares de A, AQ = PΣ, de modo que kAq
1
k
2
=

1
p
1
k
2
= σ
1
. Por outro lado, para qualquer x em R
n
com kxk
2
= 1, temos x =
P
n
i=1
α
i
q
i
onde
P
n
i=1
α
2
i
= 1. Daí,
kAxk
2
2
=
°
°
°
°
°
n
X
i=1
α
i
Aq
i
°
°
°
°
°
2
2
=
°
°
°
°
°
r
X
i=1
α
i
σ
i
p
i
°
°
°
°
°
2
2
=
r
X
i=1
σ
2
i
α
2
i
kp
i
k
2
2
sendo a segunda igualdade verdadeira pois Aq
i
= 0 para i > r e a última igualdade se
justifica pela ortogonalidade dos p
i
. Como kp
i
k
2
= 1, segue
kAxk
2
2
=
r
X
i=1
σ
2
i
α
2
i
≤ σ
2
1
r
X
i=1
α
2
i
≤ σ
2
1
n
X
i=1
α
2
i
= σ
2
1
.
A primeira desigualdade se justifica pois σ
1
é o maior valor singular e a segunda por termos
acrescentado parcelas positivas à soma. Provamos que kAxk
2
2
≤ σ
2
1
e que kAq
1
k
2
= σ
1
.
Logo,
kAk
2
= sup
x∈R
n
kxk
2
=1
kAxk
2
= σ
1
.
Se restringirmos A ao espaço ger(q
1
)

podemos calcular σ
2
, repetindo o procedimento
acima
σ
2
= sup
x∈hq
1
i

kxk
2
=1
kAxk
2
.
Certamente a decomposição por valores singulares não é única pois a escolha de Q e
de P não é única. Entretanto, temos o seguinte teorema:
Notas de aula do Prof. Antonio Cândido Faleiros 145
Teorema 11.65 Se
A = UST

for outra decomposição por valores singulares de A, então S = Σ, as colunas t
1
, . . . , t
n
de
T formam um conjunto ortonormal de autovetores de A

A correspondentes aos autovalores
σ
1
≥ σ
2
≥ · · · ≥ σ
r
≥ 0 = · · · = 0, as colunas u
1
, . . . , u
m
de U são autovetores de AA

correspondentes aos mesmos autovalores e, para i = 1, . . . , r,
u
i
=
1
σ
i
At
i
.
Prova. Como A

A = TS

U

UST

= T(S

S)T

, vemos que a matriz diagonal S

S
é semelhante à matriz A

A e, portanto, possuem os mesmos autovalores, o que prova a
igualdade S = Σ.
Da decomposição acima, obtemos A

AT = TS

S de onde segue que as colunas de T
formam um conjunto ortonormal de autovetores de A

A correspondentes aos autovalores
σ
1
≥ σ
2
≥ · · · ≥ σ
r
≥ 0 = · · · = 0.
Da mesma decomposição, obtemos AA

U = USS

de onde segue que as colunas de U
formam um conjunto ortonormal de autovetores de AA

correspondentes aos autovalores
σ
1
≥ σ
2
≥ · · · ≥ σ
r
≥ 0 = · · · = 0.
Ainda da decomposição, segue AT = US, mostrando que u
i
=
1
σ
i
At
i
para i = 1, . . . ,
r. ¤
146 Notas de aula do Prof. Antonio Cândido Faleiros
Capítulo 12
Forma canônica de Jordan
12.1 Operadores nilpotentes
Definição 12.1 Um operador linear L : V → V é nilpotente se L
k
= 0 para algum
inteiro k positivo. O menor k para o qual L
k
= 0 é chamado de índice da nilpotência
de L.
Se o índice da nilpotência de L for k, significa que existe v em V tal que L
k−1
v 6= 0.
Observe que L
k
= 0 quando L
k
v = 0 para todo v em V. Se L for nilpotente com índice
k, seu polinômio mínimo será t
k
e assim o seu único autovalor é o zero.
Teorema 12.2 Seja L : V →V linear e v ∈ V não nulo tal que L
k−1
(v) 6= 0 e L
k
(v) = 0.
Então:
1. O conjunto S = { v, Lv, . . . , L
k−1
(v) } é linearmente independente.
2. O subespaço gerado por S é invariante sob L.
3. A restrição de L ao subespaço gerado por S é nilpotente com índice k.
4. A matriz da restrição de L ao subespaço gerado por S em relação à base ordenada
S é da forma
_
_
_
_
_
_
_
0 0 0 0 · · ·
1 0 0 0 · · ·
0 1 0 0 · · ·
0 0 1 0 · · ·
.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
_
_
.
Prova. Vamos provar um item por vez.
1. Sejam β
1
, . . . , β
k
escalares tais que β
1
v+ · · · + β
k
L
k−1
v = 0. Aplicando L
k−1
a
esta igualdade, obtemos β
1
L
k−1
v = 0. Como L
k−1
v 6= 0, segue β
1
= 0. Aplicando
sucessivamente L
i
à igualdade inicial, com i = k −2, k −3, . . . , 1, se prova que β
2
=
β
3
= · · · = β
k
= 0, o que prova a primeira parte do teorema.
147
148 Notas de aula do Prof. Antonio Cândido Faleiros
2. Seja w = α
1
v+ · · · + α
k
L
k−1
v, onde α
1
, . . . , α
k
são escalares, um vetor no subespaço
gerado por S. Assim, Lw = α
1
Lv+ · · · + α
k−1
L
k−1
v e, portanto, Lw pertence ao
subespaço gerado por S.
3. Seja T : [S] → [S] a restrição de L ao subespaço [S] gerado por S. Como T
k
w =
0 para todo elemento de [S] e T
k−1
v = L
k−1
v 6= 0, concluímos que T é nilpotente
com índice k.
4. Como T(v) = Lv, T(Lv) = L
2
v, . . . , T(L
k−2
v) = L
k−1
v, T(L
k−1
v) = 0 e concluímos
que a matriz de T na base S é exatamente aquela apresentada no enunciado.
¤
Em particular, quando L for nilpotente, seu índice de nilpotência é menor ou igual à
dimensão do espaço vetorial.
Teorema 12.3 Seja L : V →V linear. Para todo inteiro i ≥ 0,
1. ker L
i
⊂ ker L
i+1
2. L(ker L
i+1
) ⊂ ker L
i
.
Prova. Se v pertence ao ker L
i
, então L
i
v = 0 e L
i+1
v = L(L
i
v) = L0 = 0. Logo, v
pertence ao ker L
i+1
, o que prova a primeira parte do teorema.
Seja w um elemento de L(ker L
i+1
) = {Lv : v ∈ ker L
i+1
}. Então w = Lv para algum
v no ker L
i+1
. Assim, L
i
w = L
i+1
v = 0, provando que w pertence ao ker L
i
. Provamos a
segunda parte do teorema. ¤
Teorema 12.4 Seja L : V →V linear e i > 0 um inteiro. Pelo teorema anterior,
ker L
i−1
⊂ ker L
i
⊂ ker L
i+1
.
Suponhamos que
{ u
1
, . . . , u
r
}
{ u
1
, . . . , u
r
, v
1
, . . . , v
s
}
{ u
1
, . . . , u
r
, v
1
, . . . , v
s
, w
1
, . . . , w
t
}
sejam bases de ker L
i−1
, ker L
i
e ker L
i+1
. Então o conjunto
{ u
1
, . . . , u
r
, Lw
1
, . . . , Lw
t
}
é linearmente independente e está contido no ker L
i
.
Notas de aula do Prof. Antonio Cândido Faleiros 149
Prova. O teorema anterior assegura que os vetores Lw
1
, . . . , Lw
t
pertencem ao ker L
i
.
Sejam α
1
, . . . , α
r
, β
1
, . . . , β
t
escalares tais que
α
1
u
1
+ · · · +α
r
u
r

1
Lw
1
+ · · · +β
t
Lw
t
= 0.
Aplicando L
i−1
a esta igualdade, segue
L
i

1
w
1
+ · · · +β
t
w
t
) = 0,
mostrando que a combinação linear β
1
w
1
+· · · +β
t
w
t
pertence ao ker L
i
e pode ser escrito
como uma combinação linear de u
1
, . . . , u
r
, v
1
, . . . , v
s
β
1
w
1
+ · · · +β
t
w
t
= c
1
u
1
+ · · · +c
r
u
r
+d
1
v
1
+ · · · +d
s
v
s
.
Sendo {u
1
, . . . , u
r
, v
1
, . . . , v
s
, w
1
, . . . , w
t
} uma base, concluímos que todos os escalares
na igualdade acima são nulos e, em particular, β
1
= · · · = β
t
= 0. Sendo {u
1
, . . . , u
r
}
uma base, deve-se ter também α
1
= · · · = α
r
= 0, o que prova a independência linear do
conjunto de vetores { u
1
, . . . , u
r
, Lw
1
, . . . , Lw
t
}. ¤
Este resultado é interessante pois ele nos permite inferir que s ≥ t. Sabemos que a
dimensão do ker L
i
cresce com i ou permanece inalterada. Além disso, o acréscimo na
dimensão quando passamos do ker L
i
para o ker L
i+1
nunca é maior do que o acréscimo
na dimensão quando passamos do ker L
i−1
para o ker L
i
. ***
Teorema 12.5 (Forma canônica de um operador nilpotente) Seja L : V → V um oper-
ador nilpotente com índice k. Existe uma base na qual a representação matricial de L tem
a forma bloco diagonal
N =
_
_
_
_
_
N
1
0 0 · · ·
0 N
2
0 · · ·
0 0 N
3
· · ·
.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
.
Cada bloco diagonal N
i
é uma matriz quadrada que pode ser 1 × 1 e nula ou ter a forma
N
i
=
_
_
_
_
_
_
_
_
_
0 1 0 · · · 0 0
0 0 1 · · · 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 1 0
0 0 0 · · · 0 1
0 0 0 · · · 0 0
_
_
_
_
_
_
_
_
_
.
As ordens de todos os blocos são menores ou iguais a k. Pelo menos um bloco tem ordem k.
O número de blocos é igual à nulidade de L. O número de blocos do tipo N é determinado
de modo único por L.
Em lugar de demonstrar vamos dar exemplos.
150 Notas de aula do Prof. Antonio Cândido Faleiros
Exemplo 12.6 Seja L : V →V um operador linear nilpotente com índice k. Denotemos
por W
i
o núcleo de L
i
. Relembre inicialmente que, se
{u
1
, . . . , u
r
}
{u
1
, . . . , u
r
, v
1
, . . . , v
s
}
{u
1
, . . . , u
r
, v
1
, . . . , v
s
, w
1
, . . . , w
t
}
forem bases de W
i−1
, W
i
e W
i+1
, respectivamente, então o conjunto
{ u
1
, . . . , u
r
, L(w
1
), . . . , L(w
t
) }
é linearmente independente em W
i
. Este fato nos fornece os fundamentos para obter
uma base de V na qual a representação de um operador nilpotente se encontra na forma
canônica preconizada.
1. Imaginemos que V tem dimensão n = 8 e que L : V → V é nilpotente com índice
k = 4. Assim o ker L
4
= V. Denotemos o ker L
i
por W
i
. Seja {u
1
, u
2
, u
3
, u
4
, u
5
, u
6
,
u
7
, u
8
} uma base de V = W
4
= ker L
4
, de modo que
{u
1
, u
2
, u
3
} é base do ker L.
{u
1
, u
2
, u
3
, u
4
, u
5
} é base do ker L
2
.
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
} é base do ker L
3
.
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
, u
8
} é base de V = ker L
4
.
Podemos construir o seguinte quadro
W
1
W
2
W
3
W
4
u
1
u
2
u
3
u
4
u
5
u
6
u
7
u
8
L
3
u
8
L
2
u
7
u
10
L
2
u
8
Lu
7
Lu
8
u
9
u
8
w
1
w
5
w
8
w
2
w
6
w
3
w
7
w
4
A base ordenada {u
1
, . . . , u
8
} da segunda linha da tabela anterior é substituída pela
base ordenada da terceira linha, que são renomeados na quarta linha para {w
1
, . . . ,
w
8
}. Os vetores u
9
e u
10
da terceira linha são construídos de modo que {Lu
8
, u
9
}
gere o mesmo subespaço que {u
6
, u
7
} e {L
3
u
8
, L
2
u
7
, u
10
} gere o mesmo subespaço
que {u
1
, u
2
, u
3
}.
Na base {w
1
, w
2
, w
3
, w
4
, w
5
, w
6
, w
7
, w
8
} a matriz de L possui a forma
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0
0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
Notas de aula do Prof. Antonio Cândido Faleiros 151
2. Consideremos ainda que V tem dimensão n = 8 e que L : V →V é nilpotente com
índice k = 4. Seja {u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
, u
8
} uma base de V = W
4
, de modo que
{u
1
, u
2
, u
3
, u
4
} é base de W
1
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
} é base de W
2
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
} é base de W
3
{u
1
, u
2
, u
3
, u
4
, u
5
, u
6
, u
7
, u
8
} é base de W
4
Podemos construir o seguinte quadro seguindo o esquema anterior.
W
1
W
2
W
3
W
4
u
1
u
2
u
3
u
4
u
5
u
6
u
7
u
8
L
3
u
8
Lu
9
u
10
u
11
L
2
u
8
u
9
Lu
8
u
8
w
1
w
5
w
7
w
8
w
2
w
6
w
3
w
4
Na base {w
1
, w
2
, w
3
, w
4
, w
5
, w
6
, w
7
, w
8
} a matriz de L possui a forma
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
12.2 Forma canônica de Jordan
Teorema 12.7 Seja L : V →V linear com polinômio característico e mínimo iguais a
∆(t) = (t −λ
1
)
n
1
· · · (t −λ
r
)
n
r
m(t) = (t −λ
1
)
m
1
· · · (t −λ
r
)
m
r
.
Então L possui uma representação matricial em bloco diagonal J, denominada de forma
canônica de Jordan do operador L, cujos elementos diagonais têm a forma
J
ij
=
_
¸
¸
¸
¸
¸
¸
¸
_
λ
i
1 0 · · · 0 0
0 λ
i
1 · · · 0 0
.
.
.
.
.
.
.
.
.
· · ·
.
.
.
.
.
.
0 0 0
.
.
.
1 0
0 0 0 · · · λ
i
1
0 0 0 · · · 0 λ
i
_
¸
¸
¸
¸
¸
¸
¸
_
.
Para cada i fixado,
152 Notas de aula do Prof. Antonio Cândido Faleiros
1. Há pelo menos um J
ij
de ordem m
i
e todos os demais são de ordem menores ou
iguais a m
i
.
2. A soma das ordens dos J
ij
é n
i
.
3. O número de J
ij
é igual à multiplicidade geométrica de λ
i
, que é igual à nulidade
de N
i
= (L
i
−λ
i
I).
4. O número de blocos J
ij
de cada ordem possível é univocamente determinado por L.
A matriz J
ij
é denominada bloco de Jordan pertencente ao autovalor λ
i
.
Observe que
J
ij
= λ
i
I +N
onde
N =
_
¸
¸
¸
¸
¸
¸
¸
_
0 1 0 · · · 0 0
0 0 1 · · · 0 0
.
.
.
.
.
.
.
.
.
· · ·
.
.
.
.
.
.
0 0 0
.
.
.
1 0
0 0 0 · · · 0 1
0 0 0 · · · 0 0
_
¸
¸
¸
¸
¸
¸
¸
_
é um bloco nilpotente.
Exemplo 12.8 Seja L : R
7
→R
7
linear, cujos polinômios característico e mínimo são
∆(t) = (t −2)
4
(t −3)
3
m(t) = (t −2)
2
(t −3)
2
A forma canônica de Jordan de L é uma das seguintes
_
¸
¸
¸
¸
¸
¸
¸
¸
_
2 1
0 2
2 1
0 2
3 1
0 3
3
_
¸
¸
¸
¸
¸
¸
¸
¸
_
ou
_
¸
¸
¸
¸
¸
¸
¸
¸
_
2 1
0 2
2
2
3 1
0 3
3
_
¸
¸
¸
¸
¸
¸
¸
¸
_
A primeira matiz ocorre se L possui dois autovetores linearmente independentes perten-
centes ao seu autovalor 2 e a segunda ocorre se L tem três autovetores linearmente inde-
pendentes pertencentes ao seu autovalor 2.
Exemplo 12.9 Vamos determinar a forma canônica J da matriz A =
·
0 1
−1 2
¸
. A
equação característica de A é (λ − 1)
2
= 0 e uma base do autoespaço correspondente ao
Notas de aula do Prof. Antonio Cândido Faleiros 153
autovalor 1 é v
1
=
£
1 1
¤
T
. Calculamos então (A−λI)
2
=
·
0 0
0 0
¸
e vemos que o zero é
autovalor desta matriz e que qualquer vetor é autovetor correspondente ao zero. Tomemos
v
2
=
£
0 1
¤
T
que, juntamente com v
1
, forma uma base do espaço das matrizes 2 ×1. A
matriz S =
·
1 0
1 1
¸
, cujas colunas são v
1
e v
2
, tem por inversa S
−1
=
·
1 0
−1 1
¸
e é tal
que J = S
−1
AS =
·
1 0
0 1
¸
.
Exemplo 12.10 Vamos determinar a forma canônica J da matriz A =
_
_
3 −2 5
−1 2 1
−1 1 0
_
_
.
A equação característica de A é (λ−1)(λ−2)
2
= 0. A multiplicidade algébrica do autovalor
1 é 1 e do autovalor 2 é 2. Uma base do autoespaço correspondente ao autovalor 1 é for-
mada pelo vetor v
1
=
£
1 1 0
¤
T
. Uma base do autoespaço correspondente ao autovalor
2 é formada pelo vetor
£
1 3 1
¤
T
. Um conjunto gerador do autoespaço de (A−2I)
2
=
_
_
−2 3 −7
−2 3 −7
0 0 0
_
_
correspondente ao autovalor 0 é formado pelos vetores v
3
=
£
3 2 0
¤
T
e v
4
=
£
−7 0 2
¤
T
. Como nenhum deles é múltiplo de
£
1 3 1
¤
T
podemos tomar
v
3
para gerar a uma cadeia de Jordan de comprimento 2, correspondente ao autovalor 2
e calculamos v
2
= (A − 2I)v
3
=
£
−1 −3 −1
¤
T
. A matriz S =
_
_
1 −1 3
1 −3 2
0 −1 0
_
_
, cuja
inversa é S
−1
=
_
_
−2 3 −7
0 0 −1
1 −1 2
_
_
é tal que J = S
−1
AS =
_
_
1 0 0
0 2 1
0 0 2
_
_
que é a forma
canônica da matriz A.
Exemplo 12.11 ***
12.3 Subespaços cíclicos
Seja L : V →V linear e v ∈ V não nulo (v 6= 0). Consideremos a seqüência
v, Lv, L
2
v, . . .
Seja k o menor inteiro para o qual
L
k
v ∈ [v, Lv, L
2
v, . . . , L
k−1
v],
indicando com isto que o conjunto
{v, Lv, L
2
v, . . . , L
k−1
v}
154 Notas de aula do Prof. Antonio Cândido Faleiros
é linearmente independente.
O subespaço vetorial
Z(v, L) = [v, Lv, L
2
v, . . . , L
k−1
v]
é chamado de subespaço cíclico de V gerado por L e v. Sua dimensão é k.
Este subespaço é a interseção de todos os subespaços L invariantes que contêm v.
Denotemos por L
v
a restrição de L a Z(v, L). Se
L
k
v = −a
0
v −a
1
Lv −a
2
L
2
v −· · · −a
k−1
L
k−1
v
então
m
v
(t) = a
0
+a
1
t +a
2
t
2
+ · · · +a
k−1
t
k−1
+t
k
é o polinômio mínimo de L
v
e a representação de L
v
na base
{v, Lv, L
2
v, . . . , L
k−1
v}
é
C =
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
0 0 0 · · · 0 0 −a
0
1 0 0 · · · 0 0 −a
1
0 1 0 · · · 0 0 −a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 0 0 −a
k−3
0 0 0 · · · 1 0 −a
k−2
0 0 0 · · · 0 1 −a
k−1
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
denominada de matriz companheira do polinômio m
v
(t). O polinômio m
v
(t) é denom-
inado de L anulador de v e Z(v, L).
12.4 Forma canônica racional
Lema 12.12 11.13. Seja L : V →V linear, cujo polinômio mínimo é f(t)
n
, onde f(t) é
irredutível. Então existem v
1
, v
2
, . . . , v
r
tais que
V = Z(v
1
, L) ⊕· · · ⊕Z(v
r
, L).
O polinômio mínimo da restrição de L a Z(v
i
, L) é f(t)
n
i
, onde n
i
é um número inteiro
menor ou iguais a n. Pode-se ordenar os expoentes n
i
de modo que
n = n
1
≥ n
2
≥ · · · ≥ n
r
.
Qualquer outra decomposição de V em subespaços L cíclicos tem o mesmo conjunto de
polinômios mínimos, que é determinado de modo único por L. Assim L tem uma repre-
sentação matricial
C =
_
¸
¸
¸
_
C
(1)
0 · · · 0
0 C
(2)
· · · 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · C
(r)
_
¸
¸
¸
_
Notas de aula do Prof. Antonio Cândido Faleiros 155
onde C
(i)
é a matriz companheira do polinômio f(t)
n
i
.
Teorema 12.13 (Forma canônica racional) Seja L : V →V linear com polinômio mín-
imo
m(t) = f
1
(t)
m
1
. . . f
s
(t)
ms
onde f
i
(t) são polinômios mônicos irredutíveis distintos. Então L possui uma única rep-
resentação matricial em bloco
_
¸
¸
¸
_
_
¸
¸
¸
_
C
1
0 · · · 0
0 C
2
· · · 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · C
s
_
¸
¸
¸
_
_
¸
¸
¸
_
onde cada C
i
é uma matriz com o formato
C
i
=
_
¸
¸
¸
_
C
(1)
i
0 · · · 0
0 C
(2)
i
· · · 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · C
(r)
i
_
¸
¸
¸
_
em que C
(j)
i
são matrizes companheiras de f
i
(t)
n
ij
onde se pode ordenar os n
ij
de modo
que
m
1
= n
11
≥ n
12
≥ · · · ≥ n
1r
1
· · ·
m
s
= n
s1
≥ n
s2
≥ · · · ≥ n
srs
Esta é a chamada forma canônica racional de L. Os polinômios f
i
(t)
n
ij
são chamados
de divisores elementares de L.
12.5 Forma triangular
Se um operador linear L possuir uma representação matricial triangular
A =
_
_
_
_
_
a
11
a
12
· · · a
1n
0 a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · a
nn
_
_
_
_
_
seu polinômio característico pode ser fatorado em polinômios do primeiro grau
∆(t) = det(tI −A) = (t −a
11
)(t −a
22
) · · · (t −a
nn
).
A recíproca também é verdadeira.
156 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema 12.14 Seja n a dimensão de V e L : V →V um operador linear cujo polinômio
característico ∆(t) pode ser fatorado num produto de fatores lineares
∆(t) = (t −λ
1
)
n
1
· · · (t −λ
r
)
n
r
onde os números λ
i
, i = 1, . . . , r são distintos e n
1
+ · · · + n
r
= n. Então L possui uma
representação matricial em forma triangular.
Prova. *** Como ∆(t) pode ser fatorado em polinômios do primeiro grau, L possui
ao menos um autovalor. Denotemo-lo λ
1
e por v
1
o autovetor correspondente, de modo
que Lv
1
= λ
1
v
1
. Então V = V
1
⊕(V
1
)

onde V
1
= ger(v
1
). O espaço V
1
é invariantes sob
L. Seja L
1
a restrição de L a V
1
. {v
12
, . . . , v
1n
} uma base ortonormal de (V
1
)

. A matriz
de L nesta base é da forma *** ¤
12.6 Espaços quocientes
Esta é uma maneira inteligente de definir “projeções” em espaços vetoriais que não pos-
suem produto interno.
Seja W um subespaço vetorial de V. Dado v ∈ V, definimos o conjunto
v +W = {v +w : w ∈ W},
denominado de classe lateral de W em V. Observe que 0 +W = W.
Podemos definir duas operações no conjunto das classes laterais de modo a torná-lo
um espaço vetorial.
Seja W um subespaço vetorial de V. Sejam u e v dois vetores em V e k um escalar
pertencente ao corpo sobre o qual se define o espaço vetorial V. Definimos no conjunto
das classes laterais de W as operações de adição de duas classes e multiplicação de uma
classe por um escalar por
(u +W) + (v +W) = (u +v) +W,
k(u +W) = ku +W.
O conjunto das classes laterais, com estas duas operações, é um espaço vetorial sobre
o mesmo corpo sobre o qual se define V. Este espaço vetorial é denominado espaço
quociente de V por W e é denotado por V/W. Se a dimensão de V for finita então
dim(V/W) = dim(V )− dim(W).
Teorema 12.15 Seja L : V →V linear e W um subespaço L invariante de V. Então L
induz um operador linear
¯
L em V/W definido por
¯
L(v +W) = L(v) +W.
Se L for um zero de um polinômio, então
¯
L também o é. Assim, o polinômio mínimo de
¯
L divide o polinômio mínimo de L.
Notas de aula do Prof. Antonio Cândido Faleiros 157
Exemplo 12.16 Vamos apresentar um exemplo que mostra como se pode obter uma rep-
resentação matricial triangular de uma transformação linear. Seja L : R
3
→R
3
definida
por L(x, y, z) = (4x +y −z, 2x +5y −2z, x +y +2z). A matriz de L na base canônica do
R
3
é
A =
_
_
4 1 −1
2 5 −2
1 1 2
_
_
Os vetores v
1
= (−1, 1, 0), v
2
= (0, 1, 0), v
3
= (0, 0, 1) formam uma base do R
3
.
Destacamos que v
1
é autovetor de L correspondente ao autovetor 3. Como
L(v
1
) = 3v
1
L(v
2
) = −v
1
+ 6v
2
+v
3
L(v
3
) = v
1
−3v
2
+ 2v
3
a matriz de L na base {v
1
, v
2
, v
3
} é
B =
_
_
3 −1 1
0 6 −3
0 1 2
_
_
.
O espaço vetorial W gerado por v
1
é invariante sob L. Observe que a matriz de L na
base {v
1
, v
2
, v
3
} já possui a primeira coluna na forma desejada para se chegar à forma
triangular.
Consideremos V = {v +W : v ∈ V } que é o espaço quociente V/W e a transformação
linear induzida L : V →V definida por L(v) = L(v) +W. Para esta transformação,
L(v
1
) = 3v
1
+W = W = 0
L(v
2
) = −v
1
+ 6v
2
+v
3
+W = 6v
2
+v
3
L(v
3
) = v
1
−3v
2
+ 2v
3
+W = −3v
2
+ 2v
3
de modo que a matriz de L em relação à base {v
2
, v
3
} de V é
C =
µ
6 −3
1 2

.
Vamos omitir a barra e olhar para L no espaço gerado por v
2
e v
3
. Sabemos que
L(v
2
) = 6v
2
+v
3
L(v
3
) = −3v
2
+ 2v
3
cuja matriz na base {v
1
, v
2
} é C. Os autovalores de C são 5 e 3 e o autovetor relativo ao
autovalor 5 é 3v
2
+v
3
. Vamos então passar da base {v
1
, v
2
, v
3
} para a base {w
1
, w
2
, w
3
}
onde
w
1
= v
1
, w
2
= 3v
2
+v
3
, w
3
= v
3
.
158 Notas de aula do Prof. Antonio Cândido Faleiros
O w
3
foi escolhido de modo arbitrário, exigimos apenas que {w
1
, w
2
, w
3
} seja uma base
de V. Podemos inverter as relações acima para obter
v
1
= w
1
, v
2
= (w
2
−w
3
)/3, v
3
= w
3
.
Daí segue
L(w
1
) = 3w
1
L(w
2
) = −2w
1
+ 5w
2
L(w
3
) = w
1
−w
2
+ 3w
3
e, nesta base, a matriz de L é
D =
_
_
3 −2 1
0 5 −1
0 0 3
_
_
que está na forma triangular. Esta transformação linear pode ser representada por uma
matriz diagonal pois ela possui três autovetores linearmente independente.
Capítulo 13
Aplicações
Aproximação por polinômios
Cadeias de Markov
Circuitos elétricos
Diferenças finitas
Elementos finitos
Equação de Schröedinger
Sistemas de equações diferenciais
Exponencial de matriz
Formas quadráticas
Cônicas e quádricas
Mínimos quadrados
Modelo econômico de Leontief
Método húngaro para alocação de tarefas
Cifras de Hill
Programação linear
Séries de Fourier
Sistemas de equações diferenciais
Tensão nos meios contínuos
Teoria dos grafos
Teoria dos jogos
159
160 Notas de aula do Prof. Antonio Cândido Faleiros
Apêndice A
Matrizes
Uma matriz é um arranjo retangular de números, denominados de elementos da matriz,
dispostos em linhas e colunas. Quando uma matriz possuir m linhas e n colunas diremos
que é uma matriz m×n ou matriz m por n ou matriz de ordem m por n. Matrizes reais
são aquelas cujos elementos são números reais e matrizes complexas são aquelas cujos
elementos são números complexos. Em nosso curso trabalharemos com matrizes reais ou
complexas.
Uma matriz com uma única coluna é chamada de vetor coluna e uma matriz com
uma única linha é chamada de vetor linha. Se o número de linhas for igual ao número de
colunas se diz que a matriz é quadrada. Uma matriz quadrada com n linhas e n colunas
é uma matriz n por n ou de ordem n. Neste caso, em lugar de dizermos que a ordem da
matriz é m por m, diremos apenas que a matriz é de ordem m.
A menos que se especifique o contrário, R
n
é o conjunto das matrizes coluna reais,
que possuem n linhas e uma coluna. Denotaremos por C
n
ao conjunto de matrizes coluna
complexas, com n linhas e uma coluna. Designaremos o conjunto das matrizes reais m por
n pelo símbolo R
m×n
e das matrizes complexas de ordem m por n pelo símbolo C
m×n
.
Também é usual escrever A
m×n
para indicar que A possui m linhas e n colunas. Um
número real ou complexo será denominado genericamente de escalar.
Usaremos a notação abreviada A = (a
ij
) para denotar uma matriz
A =
_
_
_
a
11
· · · a
1n
.
.
.
.
.
.
.
.
.
a
m1
· · · a
mn
_
_
_
onde a
ij
é o elemento da linha i e coluna j. No conjunto das matrizes m por n, se define
a adição de duas matrizes e a multiplicação de uma matriz por um escalar através das
fórmulas
(a
ij
) + (b
ij
) = (a
ij
+b
ij
)
k (a
ij
) = (ka
ij
)
onde k é um escalar, (a
ij
) e (b
ij
) são matrizes de ordem m por n. Quando for conveniente,
escreveremos (a
ij
)k em lugar de k(a
ij
).
161
162 Notas de aula do Prof. Antonio Cândido Faleiros
A matriz em que todos os elementos são nulos é chamada de matriz nula e será
denotada por 0.
Se A = (a
ij
), então −A = (−a
ij
) é chamada de matriz oposta de A. Definimos a
diferença entre as matrizes A e B de mesma ordem por A−B = A+ (−B).
Propriedades
Nas propriedades enumeradas abaixo, A, B e C são matrizes de mesma ordem, incluindo
a matriz nula e k
1
, k
2
são escalares. O 1 indica a unidade escalar.
1. Associatividade: A+ (B +C) = (A+B) +C.
2. Comutatividade: A+B = B+ A.
3. Elemento neutro: A+ 0 = 0 +A = A.
4. Elemento oposto: A+ (−A) = (−A) +A = 0.
5. Associatividade: (k
1
k
2
)A = k
1
(k
2
A).
6. Distributividade: (k
1
+k
2
)A = k
1
A+k
2
A.
7. Distributividade: k
1
(A+B) = k
1
A+k
1
B.
8. Unidade: 1A = A
Estas propriedades indicam que o conjunto das matrizes m × n com as operações de
adição e multiplicação por um escalar é um espaço vetorial sobre o corpo dos escalares
que, em nosso caso, será o corpo dos números reais ou dos números complexos.
A.1 Matrizes especiais
Seja A = (a
ij
) uma matriz m por n e p = min{m, n}. Os elementos a
11
, a
22
, . . . , a
pp
formam a diagonal principal da matriz A. Uma matriz é diagonal se todos os elementos
fora da diagonal principal forem nulos.
A matriz identidade I de ordem m é a matriz diagonal cujos elementos da diagonal
principal são todos iguais a 1. O delta de Kronecker, definido para todo i e j inteiros por
δ
ij
= 1 se i = j
δ
ij
= 0 se i 6= j
pode ser usado para representar os elementos da matriz identidade. Em termos deste
símbolo, I = (δ
ij
) .
Se os elementos abaixo da diagonal principal da matriz A forem nulos, a matriz é
triangular superior. Se os elementos à direita da diagonal principal de A forem nulos,
a matriz é triangular inferior.
Notas de aula do Prof. Antonio Cândido Faleiros 163
Uma matriz A é simétrica se A
T
= A, é anti-simétrica se A
T
= −A e ortogonal
se A
T
= A
−1
.
Seja A = (a
ij
) uma matriz complexa de ordem m por n. Vamos indicar por ¯ a
ij
ao
complexo conjugado de a
ij
. A matriz A

= (b
ij
) de ordem n por m, onde
b
ij
= ¯ a
ji
é a adjunta de A. Se A for real, então A

= A
T
. Uma matriz complexa A é hermitiana
se A

= A, anti-hermitiana se A

= −A e unitária se A

= A
−1
. As matrizes reais
simétricas são hermitianas, as matrizes reais anti-simétricas são anti-hermitianas e as
matrizes reais ortogonais são unitárias.
Definição A.1 Uma matriz m por n possui a forma escalonada se:
1. As linhas nulas, se existirem, se encontram na parte inferior da matriz.
2. Ao percorrer as linhas de cima para baixo, o primeiro elemento não nulo de cada
linha vai se deslocando para a direita.
O primeiro elemento não nulo em cada linha, quando percorrida da esquerda para a
direira, é chamado de pivô da linha.
Definição A.2 Uma matriz m por n possui a forma escalonada reduzida se:
1. As linhas nulas, se existirem, se encontram na parte inferior da matriz.
2. O primeiro elemento não nulo em cada linha, quando percorrida da esquerda para
a direira, é igual a 1. Este é o pivô da linha.
3. São nulos todos os demais elementos da coluna que contém o pivô.
4. Ao percorrer as linhas de cima para baixo, o primeiro elemento não nulo de cada
linha vai se deslocando para a direita.
A.2 Multiplicação de matrizes
A multiplicação é a operação que leva duas matrizes A = (a
ij
)
m×n
e B = (b
jk
)
n×p
na
matriz
AB =
Ã
n
X
k=1
a
ik
b
kj
!
de ordemque é uma matriz m por p. Para efetuar o produto AB, o número de colunas de
A deve ser igual ao número de linhas de B. Quando este for o caso, se diz que A e B são
conformes para o produto.
A multiplicação de matrizes é uma operação associativa e distributiva mas não é
comutativa. Assim,
164 Notas de aula do Prof. Antonio Cândido Faleiros
1. A
1
(B
1
C
1
) = (A
1
B
1
)C
1
2. A
2
(B
2
+C
2
) = A
2
B
2
+A
2
C
2
3. (A
3
+B
3
)C
3
= A
3
C
3
+B
3
C
3
desde que as matrizes A
i
, B
i
e C
i
sejam conformes para a adição e a multiplicação.
Se se o número de linhas for diferente do número de colunas em A e B, então o produto
AB pode estar definido e o produto BA não.
A.3 Inversa
Uma matriz quadrada A de ordem m é inversível se existir uma matriz quadrada B de
ordem m tal que AB = BA = I, onde I é a matriz identidade de ordem m. A matriz
B é a inversa de A, sendo denotada por A
−1
. Sendo A = (a
ij
) e B = (b
ij
) , então as
igualdades matriciais AB = BA = I resultam nas seguintes igualdades entre os elementos
de A, B e I
n
X
k=1
a
ik
b
kj
= δ
ij
e
n
X
k=1
b
ik
a
kj
= δ
ij
.
Se a matriz não for inversível, diremos que é singular.
A inversa de uma matriz é única pois, se B e C forem inversas de A, então
B = BI = B(AC) = (BA)C = IC = C.
Se A for inversível, então A
−1
é inversível e (A
−1
)
−1
= A. Se k for um escalar não nulo
e A for inversível, então kA é inversível e (kA)
−1
= k
−1
A
−1
.
Teorema A.3 Sejam A e B matrizes quadradas tais que AB = I. Isto é suficiente para
garantir que BA = I.
Prova. A prova deste fato se baseia emumteorema da Álgebra Linear que estabelece o
seguinte: Se as matrizes envolvidas foremde ordemn, o posto de I é n e, consequentemente
o posto de A é n, estabelecendo uma bijeção em C
n
. Então B é necessariamente a bijeção
inversa e BA = I. ¤
Se A e B forem inversíveis então AB é inversível e (AB)
−1
= A
−1
B
−1
. Este resultado
pode ser generalizado. Se A
1
, . . . , A
n
forem inversíveis, então o produto A
1
· · · A
n
é
inversível e
(A
1
· · · A
n
)
−1
= A
−1
n
· · · A
−1
1
.
Se A for uma matriz inversível, então as equações AX = B e Y A = C possuem solução
única dadas por X = A
−1
B e Y = CA
−1
.
Notas de aula do Prof. Antonio Cândido Faleiros 165
Se A for uma matriz quadrada, define-se as potências inteiras de A por
A
0
= I,
A
k
= A
k−1
A,
A
−k
=
¡
A
−1
¢
k
=
¡
A
k
¢
−1
.
para todo k ≥ 1 inteiro.
O posto de uma matriz é o número de suas colunas que são linearmente independentes.
A nulidade de uma matriz é a dimensão do seu núcleo.
Teorema A.4 Seja A uma matriz m×n. O posto de A mais a nulidade de A é igual a
n.
Teorema A.5 O posto de uma matriz não se modifica se ela for multiplicada por uma
matriz inversível.
Teorema A.6 Seja A uma matriz m ×n de posto k. Existe uma matriz P de ordem n,
e uma matriz Q de ordem m, ambas inversíveis e tais que D = Q
−1
AP é uma matriz
diagonal onde os k primeiros elementos da diagonal são iguais a 1 e os demais são todos
nulos.
Teorema A.7 Seja A uma matriz m×n de posto k. Existe uma matriz inversível Q de
ordem m, tal que A
0
= Q
−1
A é uma matriz escalonada reduzida.
A transposta da matriz A = (a
ij
) de ordem m por n é a matriz A
T
= (b
ij
) , de ordem
n por m, onde b
ij
= a
ji
. Vale a propriedade
(AB)
T
= B
T
A
T
.
Teorema A.8 O número de linhas linearmente independentes de uma matriz é igual ao
número de colunas linearmente independentes.
Prova. Seja A
0
= Q
−1
A a matriz escalonada reduzida do teorema anterior. O número
de linhas não nulas é o número de linhas linearmente independentes em A
0
. Em A
0
, as
colunas linearmente independentes são aquelas que contém os pivôs. Logo, o número
de linhas linearmente independentes de A
0
é igual ao número de colunas linearmente
independentes. Como Q e Q
T
são inversíveis, o posto de A = QA
0
e o de A
T
= (A
0
)
T
Q
T
são idênticos, mostrando que o número de linhas e o número de colunas linearmente
independentes de A são iguais. ¤
166 Notas de aula do Prof. Antonio Cândido Faleiros
A.4 Operações elementares e matrizes elementares
Operações elementares sobre linhas
1. Permutar duas linhas.
2. Multiplicar uma linha de A por um escalar não nulo.
3. Adicionar a uma linha um múltiplo de outra linha.
Operações elementares sobre colunas são definidas de modo análogo.
As operações elementares podem ser executadas mediante o produto de matrizes el-
ementares. A matriz que troca a linha i pela linha j é aquela obtida a partir da matriz
identidade, trocando a linha i com a linha j. A matriz que multiplica a linha i de A por
um escalar k 6= 0 é obtida a partir da identidade, trocando o elemento diagonal da linha
i por k. A matriz que adiciona um múltiplo k da linha i à linha j é obtida a partir da
matriz identidade, trocando o zero da linha i coluna j por k.
Se E for uma matriz elementar, EA realiza operações elementares sobre as linhas de
A e AE realiza operações elementares sobre as colunas de A, como mostram os exemplos
que seguem.
Se
E =
_
_
0 1 0
1 0 0
0 0 1
_
_
,
então a matriz EA é obtida de A trocando a primeira linha com a segunda; AE é uma
matriz obtida de A trocando a primeira coluna com segunda.
Se
E =
_
_
β 0 0
0 1 0
0 0 1
_
_
,
então a matriz EA é obtida de A multiplicando a primeira linha por β; a matriz AE é
obtida de A multiplicando a primeira coluna por β.
Se
E =
_
_
1 β 0
0 1 0
0 0 1
_
_
,
então EA é uma matriz obtida de A adicionando β vezes a segunda linha à primeira; AE
é uma matriz obtida de A adicionando β vezes a primeira coluna à segunda.
As matrizes elementares são inversíveis. Se uma matriz A for inversível e E é uma
matriz elementar, então AE e EA são inversíveis.
Se uma coluna ou uma linha de uma matriz for identicamente nula, ela é singular. Se
uma coluna de uma matriz for uma combinação linear das outras, a matriz é singular.
Teorema A.9 Uma matriz quadrada A é inversível se e só se puder ser escrita como um
produto matrizes elementares.
Notas de aula do Prof. Antonio Cândido Faleiros 167
Prova. Se A for o produto de matrizes elementares, ela é inversível pois as matrizes
elementares são inversíveis. Vamos provar a recíproca.
Como A = (a
ij
) é inversível, nenhuma de suas colunas é identicamente nula. Pelo
menos um elemento da primeira coluna é diferente de zero. Se a
11
for igual a zero,
podemos permutar a primeira linha de A com outra cujo elemento da primeira coluna
é diferente de zero. Denotemos ainda por a
11
o elemento da primeira linha e primeira
coluna da matriz transformada. Podemos dividir a primeira linha por a
11
de modo que
o elemento da primeira linha primeira coluna fique igual a 1. Agora, podemos adicionar
às demais linhas de A múltiplos da primeira de modo que todos os elementos da primeira
coluna, exceto o primeiro, fiquem iguais a zero. Esta matriz obtida de A através de
operações elementares é inversível e será denotada por A
1
.
Se todos os elementos da segunda coluna de A
1
da diagonal principal para baixo forem
nulos, a segunda coluna de A
1
seria um múltiplo da primeira e esta matriz seria singular.
Como ela não é singular, pelo menos um elemento da segunda coluna da diagonal principal
para baixo é diferente de zero. Se necessário, trocamos a segunda linha com outra abaixo
dela que possui elemento não nulo na segunda coluna. O elemento da segunda linha
segunda coluna desta matriz assim transformada é não nulo e podemos dividir agora a
segunda linha por ele. O elemento (2, 2) fica igual a 1. Podemos agora adicionar às outras
linhas múltiplos da segunda de modo a anular todos os demais elementos da segunda
coluna. Observe que a primeira coluna não é modificada neste processo pois o elemento
da primeira coluna da segunda linha é zero. Denominemos esta nova matriz de A
2
. Ela
foi obtida de A
1
a partir de operações elementares e, portanto, é inversível.
Continuando com este processo, chegamos à matriz identidade, aplicando transfor-
mações elementares sobre as linhas de A. Sejam E
1
, E
2
, . . . , E
k
as matrizes elementares
que realizam estas operações. Então E
k
· · · E
1
A = I e A = (E
k
· · · E
1
)
−1
I = E
−1
1
· · · E
−1
k
.
Como a inversa de uma matriz elementar é elementar, A é um produto de matrizes ele-
mentares. ¤
168 Notas de aula do Prof. Antonio Cândido Faleiros
Apêndice B
Determinante
B.1 Permutação
Uma função bijetora σ : {1, 2, . . . , n} → {1, 2, . . . , n} é chamada de permutação
do conjunto {1, 2, . . . , n}. Basta apresentar a ênupla ordenada (σ(1), . . . , σ(n)) para
estabelecer σ sem ambiguidade. A identidade (1, 2, . . . , n) é uma permutação. Sendo
bijetora, a permutação é inversível e, se σ(i) = j, sua inversa σ
−1
leva j em i.
Sejam j e k dois inteiros distintos no conjunto {1, 2, . . . , n}. Uma permutação que
leva j em k e k em j, mantendo fixos os outros inteiros, é chamada de transposição.
Se τ for uma transposição, basta informar que τ(j) = k para inferir que τ(k) = j e que
τ(i) = i para todo i diferente de j e k.
Toda permutação é a composição de um número finito de transposições. De fato,
sejam τ
i
, i = 1, . . . , n permutações que tanto pode ser uma transposição quanto uma
identidade, definidas por
τ
1
(1) = σ(1),
τ
2
τ
1
(2) = σ(2),
. . . ,
τ
n

n−1
· · · τ
2
τ
1
(n)) = σ(n).
Estas equações definem τ
1
, τ
2
, . . . , τ
n
sem ambiguidade. Observe que, se σ(1) = 1, então
τ
1
é a identidade. Se σ(2) = τ
1
(2), τ
2
é a identidade. Em geral, para k ≥ 2, sendo
σ(k) = τ
k−1
· · · τ
2
τ
1
(k), então τ
k
é a permutação identidade. Em particular, τ
n
é sempre
a identidade e foi colocada na composição apenas para ficarmos com um número exato de
n permutações, entre transposições e identidades. A permutação σ é igual à composição
τ
n
· · · τ
2
τ
1
.
Retirando as identidades desta composição, vemos que σ é uma composição de permu-
tações que, entretanto, não é única. Todavia, duas decomposição de σ em permutações
terá ou um número par de fatores ou um número ímpar de fatores. Provaremos esta
afirmação logo adiante.
169
170 Notas de aula do Prof. Antonio Cândido Faleiros
Seja σ uma permutação de {1, 2, . . . , n}. Se i < j e σ(i) > σ(j) diremos que o par
(i, j) é uma inversão de σ. Definimos o sinal de σ do seguinte modo: Se o número de
inversões de σ for par, seu sinal será +1. Se o número de inversões de σ for ímpar, seu
sinal será −1. O sinal de σ será denotado por sign(σ).
A permutação identidade não apresenta nenhuma inversão. Portanto, seu sinal é +1.
Teorema B.1 Sejam σ
1
e σ
2
duas permutações de {1, 2, . . . , n}. Então
sign(σ
2
σ
1
) = sign(σ
2
)sign(σ
1
).
Prova. Observe a tabela que vem em seguida, onde i < j.
Inversões
σ
1
σ
2
σ
2
σ
1
σ
1
(i) < σ
1
(j) σ
2
σ
1
(i) < σ
2
σ
1
(j) 0 0 0
σ
1
(i) < σ
1
(j) σ
2
σ
1
(i) > σ
2
σ
1
(j) 0 1 1
σ
1
(i) > σ
1
(j) σ
2
σ
1
(i) < σ
2
σ
1
(j) 1 1 0
σ
1
(i) > σ
1
(j) σ
2
σ
1
(i) > σ
2
σ
1
(j) 1 0 1
Ela mostra que quando há uma inversão em σ
2
σ
1
ou há uma inversão em σ
1
ou há
uma em σ
2
mas não em ambas ao mesmo tempo. Quando não há inversão em σ
2
σ
1
então
não há inversão nem em σ
1
nem em σ
2
ou ambas apresentam uma inversão. Isto significa
que o número de inversões de σ
2
σ
1
e a soma do número de inversões em σ
1
e σ
2
têm a
mesma paridade. Isto implica na igualdade dos sinais
sign(σ
2
σ
1
) = sign(σ
2
)sign(σ
1
).
¤
Se uma permutação σ mantém um número k fixo, isto é, se σ(k) = k, as inversões
envolvendo este número não precisam ser contadas no cálculo do sinal. O número de
inversões (i, k), com i < k é igual ao número de inversões (k, j) com k < j. Logo, o
número mantido fixo pela permutação sempre leva a um número par de inversões. Esta
observação é útil na prova do próximo teorema.
Teorema B.2 O sinal de uma transposição é −1.
Prova. Se a transposição levar i em j e j em i, de acordo com a observação feita
acima, podemos ignorar as inversões relativas aos números mantidos fixos. Sobram apenas
i e j, para os quais há uma inversão. Logo, o sinal da transposição é −1. ¤
Teorema B.3 Toda permutação é uma composição de transposições. Esta composição
não é única. Entretanto, o número de transposições ou é sempre par ou é sempre ímpar.
Prova. O sinal de toda transposição é −1. Quando sign(σ) = +1, qualquer decom-
posição de σ em transposições tem um número par de fatores. Quando sign(σ) = −1, o
número de transposições que a compõem é ímpar. ¤
Notas de aula do Prof. Antonio Cândido Faleiros 171
Teorema B.4 O sinal de uma permutação é igual ao sinal de sua inversa.
Prova. Como σ
−1
σ é a identidade cujo sinal é +1, segue sign(σ
−1
)sign(σ) =sign(σ
−1
σ) =
1. Logo, sign(σ
−1
) e sign(σ) são ambos iguais a +1 ou ambos iguais a −1. ¤
B.2 Determinante
Seja A = (a
ij
) uma matriz quadrada de ordem n. O determinante de A é definido por
det(A) =
X
σ
sign(σ)a
1σ(1)
a
2σ(2)
· · · a
nσ(n)
onde σ pecorre o conjunto de todas as permutações de {1, 2, . . . , n}.
Cada permutação σ de {1, 2, . . . , n} possui inversa τ. Se σ(i) = j, então τ(j) = i
e a
iσ(i)
= a
τ(j)j
. Consequentemente, o produto a
1σ(1)
a
2σ(2)
· · · a
nσ(n)
é uma reordenação
a
τ(1)1
a
τ(2)2
· · · a
τ(n)n
e, portanto, são iguais. Como sign(σ) = sign(τ), segue
det(A) =
X
τ
sign(τ)a
τ(1)1
a
τ(2)2
· · · a
τ(n)n
onde τ percorre o conjunto de todas as permutações de {1, 2, . . . , n}.
Teorema B.5 O determinante de uma matriz é igual ao determinante de sua transposta.
Prova. Se B = (b
ij
) for a transposta de A = (a
ij
), então b
ij
= a
ji
. Assim,
det(A) =
X
σ
sign(σ)a
σ(1)1
a
σ(2)2
· · · a
σ(n)n
=
X
σ
sign(σ)b
1σ(1)
b
2σ(2)
· · · b
nσ(n)
= det(B).
¤
Teorema B.6 Se uma linha ou uma coluna de uma matriz quadrada for nula, seu deter-
minante é zero.
Prova. Quando a linha i for nula, a
iσ(i)
= 0 para toda permutação σ e assim, det(A) =
0. Uma coluna nula na matriz é uma linha nula na transposta. Assim, det(A
T
) = 0 e,
portanto, det(A) = 0. ¤
Teorema B.7 Se permutarmos duas linhas de uma matriz, o determinante muda de
sinal. Se permutarmos duas colunas de uma matriz, o determinante muda de sinal.
172 Notas de aula do Prof. Antonio Cândido Faleiros
Prova. Seja B = (b
ij
) a matriz obtida de A = (a
ij
) permutando-se as linhas r e s, de
modo que b
rj
= a
sj
e b
sj
= a
rj
. Assim,
det(B) =
X
σ
sign(σ) · · · b
rσ(r)
· · · b
sσ(s)
· · ·
=
X
σ
sign(σ) · · · a
sσ(r)
· · · a
rσ(s)
· · ·
=
X
σ
sign(σ) · · · a
rσ(s)
· · · a
sσ(r)
· · ·
= −
X
στ
sign(στ) · · · a
r,στ(r)
· · · a
s,στ(s)
· · ·
onde τ é a transposição que leva r em s e s em r. Como σ percorre todas as permutações
possíveis, στ também as percorre e assim,
det(B) = −
X
σ
sign(σ) · · · a
rσ(r)
· · · a
sσ(s)
· · · = −det(A).
¤
Teorema B.8 Se duas linhas ou duas colunas de uma matriz quadrada forem iguais, seu
determinante é zero.
Prova. Se duas linhas da matriz A são iguais, ao trocar uma linha pela outra, a matriz
A permanece inalterada e seu determinante troca de sinal. Logo, det(A) = −det(A), o
que resulta em det(A) = 0. ¤
Teorema B.9 Seja A = [v
1
, . . . , v
j
+ w
j
, . . . , v
n
], B = [v
1
, . . . , v
j
, . . . , v
n
], e C = [v
1
,
. . . , w
j
, . . . , v
n
], matrizes quadradas de ordem n, onde v
1
, . . . , v
n
e w
j
são as colunas de
B e C. A coluna j de A é v
j
+w
j
. Então
det(A) = det(B) + det(C).
Prova. Imediata, a partir da definição. ¤
Vale um teorema análogo se os elementos de uma linha de A forem decompostos em
duas parcelas.
Teorema B.10 Sejam v
1
, . . . , v
n
vetores coluna em C
n
. Então para todo escalar β,
det[v
1
, . . . , βv
i
, . . . , v
n
] = β det[v
1
, . . . , v
i
, . . . , v
n
]
O mesmo resultado se aplica ao multiplicarmos uma linha de A por um escalar β.
Notas de aula do Prof. Antonio Cândido Faleiros 173
Prova. Imediata a partir da definição. ¤
Corolário B.11 Se A é uma matriz quadrada de ordem n e β um escalar,
det(βA) = β
n
det(A).
Teorema B.12 Se uma linha de uma matriz quadrada A for um múltiplo de outra linha
de A, então det(A) = 0.
Prova. Se β 6= 0, det[ . . . , v
i
, . . . , βv
i
, . . . ] = β det[ . . . , v
i
, . . . , v
i
, . . . ] = 0.
Quando β = 0, uma linha da matriz é nula e det(A) = 0. ¤
Teorema B.13 O determinante de uma matriz não se altera se adicionarmos a uma de
suas colunas um múltiplo de outra. O mesmo resultado se aplica se adicionarmos a uma
de suas linhas um múltiplo de outra.
Prova. Se β 6= 0, det[ . . . , v
i
, . . . , v
j
+ βv
i
, . . . ] = det[ . . . , v
i
, . . . , v
j
, . . . ]+ β det[
. . . , v
i
, . . . , v
i
, . . . ] = det[ . . . , v
i
, . . . , v
j
, . . . ]. ¤
Teorema B.14 Se A = (a
ij
) for uma matriz quadrada triangular superior ou triangular
inferior, então
det(A) = a
11
a
22
· · · a
nn
.
Prova. Se A for uma matriz quadrada de ordem n, triangular superior, então a
ij
= 0
quando i > j. Sendo σ uma permutação de {1, 2, . . . , n} termo
a
1σ(1)
a
2σ(2)
· · · a
nσ(n)
será não nulo apenas quando σ(1) ≥ 1, σ(2) ≥ 2, . . . , σ(n) ≥ n. Isto só ocorre se σ(n) = n,
. . . , σ(2) = 2, σ(1) = 1. Daí, o único termo não nulo do determinante de A é a
11
a
22
· · ·
a
nn
. ¤
Corolário B.15 O determinante da matriz identidade é igual a 1.
Teorema B.16 Seja A uma matriz quadrada. O det(A) 6= 0 se e só se A for inversível.
Prova. Se A for inversível, seja B a sua inversa. Como AB = I, det(A) det(B) = 1,
provando que det(A) 6= 0.
Quando A é inversível, suas colunas formam uma base da imagem indicando que suas
colunas são vetores linearmente independentes.
Se A for singular, uma de suas linhas é combinação linear das outras e det(A) = 0. ¤
174 Notas de aula do Prof. Antonio Cândido Faleiros
Teorema B.17 Se E for uma matriz elementar e A uma matriz quadrada, todas de
ordem n, então det(EA) = det(E) det(A).
Prova. Se E for uma matriz elementar que permuta a linha i com a linha j, então
det(E) = −1 e det(EA) = −det(A), provando que det(EA) = det(E) det(A) para este
caso.
Se E for uma matriz elementar que multiplica uma linha por r, então det(E) = r e
det(EA) = r det(A), provando que neste caso também vale o teorema.
Se E for uma matriz elementar que multiplica à linha i um múltiplo r da linha j, então
det(E) = 1 e det(EA) = det(A), provando que o teorema também vale neste último caso,
o que completa a prova do teorema. ¤
Corolário B.18 Se E
1
, E
2
, . . . , E
k
forem matrizes elementares e A for uma matriz
quadrada, todas de ordem n, então det(E
1
E
2
· · · E
k
A) = det(E
1
) det(E
2
) · · · det(E
k
)
det(A).
Teorema B.19 Se A e B forem matrizes quadradas de mesma ordem,
det(AB) = det(A) det(B).
Prova. Se A for inversível, A = E
1
E
2
· · · E
k
, onde E
1
, E
2
, . . . , E
k
são matrizes
elementares. Assim, det(AB) = det(E
1
E
2
· · · E
k
B) = det(E
1
) det(E
2
) · · · det(E
k
)
det(B) = det(A) det(B).
Se A ou B for singular, AB é singular e det(AB) = 0 e det(A) det(B) = 0. ¤
Corolário B.20 Se A for uma matriz quadrada inversível, det(A
−1
) = 1/ det(A).
Teorema B.21 Matrizes quadradas semelhantes possuem o mesmo determinante.
Prova. Se A e B forem matrizes quadradas semelhantes, então existe uma matriz
inversível P de modo que B = PAP
−1
e det(B) = det(P) det(A) det(P
−1
) = det(A). ¤
B.3 Cofator
Seja A = (a
ij
) uma matriz quadrada de ordem n. Seu determinante é
det(A) =
X
σ
sign(σ)a
1σ(1)
· · · a
nσ(n)
onde o somatório
P
σ
percorre todas as permutações do conjunto S = {1, 2, . . . , n}.
Podemos agrupar esta soma do seguinte modo: tomemos todas as permutações que levam
1 em 1, depois aquelas que levam 1 em 2 e assim por diante, até aquelas que levam 1 em
Notas de aula do Prof. Antonio Cândido Faleiros 175
n. Nas permutações que levam 1 em 1 podemos colocar a
11
em evidência; nas que levam
1 em 2, o a
12
pode ser colocado em evidência e, naquelas que levam 1 em n podemos
colocar o a
1n
em evidência e escrever
det(A) = a
11
c
11
+a
12
c
12
+a
13
c
13
+ · · · +a
1n
c
1n
.
O escalar c
1j
é chamado de cofator de a
1j
.
Vemos que c
11
=
P
σ(1)=1
sign(σ)a
2σ(2)
· · · a
nσ(n)
onde a soma percorre todas as per-
mutações que levam 1 em 1. A cada permutação σ em {1, 2, . . . , n} que mantém fixo o 1,
corresponde a uma permutação π em S
0
= {2, 3, . . . , n}, onde π(i) = σ(i) para i = 2, . . . ,
n. Ambas possuem o mesmo número de inversões e, portanto, possuem o mesmo sinal.
Para estabelecer o sinal de uma permutação, as inversões de um ponto fixo não precisam
ser contadas, uma vez que o número dessas inversões é um número par. Logo, c
11
=
P
π
sign(π)a
2π(2)
· · · a
nπ(n)
é o determinante de uma matriz que se obtém de A excluindo
a primeira linha e a primeira coluna. Denotamos este determinante por A
11
.
Em geral, vamos denotar por A
ij
o determinante da matriz obtida quando se elimina
a linha i e a coluna j de A.
Para determinar o termo c
12
faz-se o seguinte raciocínio: Permutando a primeira
coluna de A com a segunda, obtemos uma matriz B = (b
ij
) onde b
11
= a
12
e det(B) =
−det(A). Desta igualdade segue b
11
B
11
+· · · = −a
12
c
12
+ · · · e, como a
12
= b
11
, se conclui
que c
12
= −B
11
. O escalar B
11
é o determinante da matriz obtida de B ao excluir sua
primeira linha e sua primeira coluna, que são a primeira linha e a segunda coluna de A.
Este determinante foi denotado por A
12
. Desta forma, c
12
= −A
12
.
O termo c
13
pode ser obtido trazendo a terceira coluna para o lugar da primeira,
fazendo duas permutações: basta trocar esta coluna sucessivamente com as que estão
à sua esquerda até conduzi-la para a posição da primeira. Neste processo, o sinal do
determinante da matriz se modifica duas vezes. O determinante da matriz final é igual
ao de A. Por um raciocínio análogo ao anterior, conclui-se que c
13
= A
13
, onde A
13
é o
determinante da matriz obtida ao eliminar a primeira linha e a terceira coluna de A.
Prosseguindo com o raciocínio anterior, chega-se ao desenvolvimento
det(A) = a
11
c
11
+a
12
c
12
+a
13
c
13
+ · · · +a
1n
c
1n
onde c
1j
= (−1)
1j
A
1j
é o cofator de a
1j
e A
1j
é o determinante da matriz obtida ao eliminar
a linha 1 e a coluna j de A. Esta fórmula desenvolve o determinante pela primeira linha
e é conhecida por desenvolvimento do determinante pela primeira linha.
De modo semelhante, podemos desenvolver o determinante pela linha i, usando o
argumento seguinte. O determinante de A é a soma de diversas parcelas, cada uma com n
fatores. Dentre os fatores de uma parcela do determinante há um único elemento da linha
i. Aquelas parcelas que possuem como fator um elemento da linha i coluna j, não contém
como fator outro elemento da linha i nem outro elemento da coluna j. Nas parcelas que
possuem o fator a
ij
, vamos colocá-lo em evidência. Denotemos por c
ij
o termo que fica
multiplicado por a
ij
e vamos chamá-lo de cofator de a
ij
. Assim,
det(A) = a
ij
c
ij
+ · · · ,
176 Notas de aula do Prof. Antonio Cândido Faleiros
onde os três pontos se referem às parcelas que contém elementos da linha i e colunas
distintas da j. Mediante transposição de linhas e colunas, podemos transformar a matriz
A numa matriz B, onde o elemento a
ij
fique posicionado na linha 1 coluna 1 de B.
Basta transpor i −1 vezes a linha i com as que estão acima, até posicioná-la no topo da
matriz. Em seguida, mediante j − 1 transposições da coluna j com as que estão à sua
esquerda, coloca-se o elemento a
ij
na primeira posição da matriz. A cada transposição, o
determinante muda de sinal. Como há um total de (i−1)+(j −1) transposições, det(A) =
(−1)
(i−1)+(j−1)
det(B) = (−1)
i+j
det(B). O determinante de B possuirá parcelas onde um
dos fatores é o a
ij
. Como a
ij
ocupa a primeira linha primeira coluna de B, sabemos de
antemão que det(B) = a
ij
c
ij
+ · · · onde c
ij
é o determinante de uma matriz obtida de B
pela eliminação de sua linha 1 coluna 1. Ora, a matriz obtida ao eliminar a linha 1 coluna
1 de B é igual à matriz obtida ao eliminar a linha i coluna j de A. Assim, det(A) =
(−1)
i+j
a
ij
det A
ij
, onde A
ij
é a matriz obtida de A retirando sua linha i e sua coluna j,
chamada de menor (i, j) de A. Provamos que o cofator de a
ij
no desenvolvimento do
det(A) é c
ij
= (−1)
i+j
det A
ij
.
Na soma que define o determinante de A, podemos colocar em evidência os elementos
a
i1
, a
i2
, . . . , a
in
. A parcela que contém um desses fatores não conterá os demais. Cada
um deles será multiplicado pelo seu cofator e assim
det(A) = a
i1
c
i1
+a
i2
c
i2
+a
i3
c
i3
+ · · · +a
in
c
in
onde c
ij
= (−1)
i+j
det A(i, j) é o cofator de a
ij
. Como os elementos a
i1
, a
i2
, . . . , a
in
são
todos da linha i, a fórmula acima é conhecida por desenvolvimento do determinante pela
linha i.
Um argumento semelhante nos permite desenvolver o determinante pela coluna j.
Obtemos então o desenvolvimento do determinante pela coluna j
det(A) = a
1j
c
1j
+a
2j
c
2j
+a
3j
c
3j
+ · · · +a
nj
c
nj
Um modo prático de utilizar estas fórmulas consiste em aplicar transformações ele-
mentares sobre a matriz zerando o maior número de elementos de uma linha ou de uma
coluna e usar as fórmulas acima para reduzir o determinante original a uma soma de
outros envolvendo matrizes de ordem n − 1. Este processo pode ser utilizado mais de
uma vez reduzindo sucessivamente a ordem das matrizes cujos determinantes precisam
ser calculados.
Definição B.22 Seja A uma matriz quadrada de ordem n. A matriz cujo elemento da
linha i coluna j é c
ji
(observe a ordem dos índices em que primeiro vem o j e depois o i)
é chamada de matriz adjunta clássica de A e é denotada por adj(A).
Teorema B.23 Se A for inversível, então A· adj(A) = adj(A) · A = det(A) · I.
Prova. Provamos que
X
j
a
ij
c
ij
= det(A).
Notas de aula do Prof. Antonio Cândido Faleiros 177
Se i for diferente de k,
P
j
a
kj
c
ij
corresponderia ao determinante de uma matriz em que
a linha i foi substituída pela linha k. As linhas i e k desta matriz seriam iguais e seu
determinante seria igual a zero. Portanto, para i 6= k,
X
j
a
kj
c
ij
= 0.
Podemos usar o delta de Kronecker para unificar estas duas expressões em destaque
X
j
a
kj
c
ij
= δ
ik
det(A).
Ora, o lado esquerdo desta expressão é o elemento da linha k coluna i da matriz A· adj(A)
e o lado direito é o elemento da linha k coluna i da matriz det(A) · I, provando que
A· adj(A) = det(A) · I.
O lado esquerdo da expressão também é o elemento da linha i coluna k da matriz
adj(A) · A e o lado direito é o elemento da linha i coluna k da matriz det(A) · I, provando
que adj(A) · A = det(A) · I. ¤
B.4 Regra de Cramer
Consideremos um sistema de n equações com n incógnitas
n
X
j=1
a
ij
x
j
= b
i
,
para i = 1, 2, . . . , n. Se a matriz A = (a
ij
) for inversível, o sistema possui solução única.
O método de Cramer fornece um meio de resolver o sistema usando determinantes. Ele é
pouco eficiente e é usado apenas para sistemas pequenos.
Sendo c
ij
os cofatores de a
ij
então
P
i
a
ij
c
ik
= δ
jk
det(A)
n
X
i=1
c
ik
b
i
=
n
X
i=1
c
ik
Ã
n
X
j=1
a
ij
x
j
!
=
n
X
j=1
Ã
n
X
i=1
a
ij
c
ik
!
x
j
=
n
X
j=1
det(A)δ
jk
x
j
= det(A)x
k
Dividindo pelo det(A) segue
x
k
=
P
n
i=1
c
ik
b
i
det(A)
=

k
det(A)
,
onde ∆
k
=
P
n
i=1
c
ik
b
i
é o determinante de uma matriz obtida de A, trocando-se sua coluna
k por b

k
= det
_
¸
¸
¸
_
a
11
· · · a
1,k−1
b
1
a
1,k+1
· · · a
1n
a
21
· · · a
2,k−1
b
2
a
2,k+1
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
· · · a
n,k−1
b
n
a
n,k+1
· · · a
nn
_
¸
¸
¸
_
178 Notas de aula do Prof. Antonio Cândido Faleiros
B.5 Determinante de Vandermonde
Sejam x
1
, . . . , x
n
números reais. O número real
V
n
(x
1
, x
2
, . . . , x
n
) = det
_
¸
¸
¸
_
1 x
1
x
2
1
· · · x
n−1
1
1 x
2
x
2
2
· · · x
n−1
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
· · · x
n−1
n
_
¸
¸
¸
_
é chamado de determinante de Vandermonde. Vamos mostrar que
V
n
(x
1
, . . . , x
n
) = α(x
n
−x
1
)(x
n
−x
2
) · · · (x
n
−x
n−1
).
Desenvolvendo V
n
(x
1
, . . . , x
n
) pela última linha, vemos que α é o cofator de x
n−1
n
que é
igual ao determinante de Vandermonde de ordem inferior
α = V
n−1
(x
1
, . . . , x
n−1
).
Calculando os determinantes de Vandermonde para n = 2 e n = 3, obtemos V
2
(x
1
, x
2
) =
x
2
−x
1
e V
3
(x
1
, x
2
, x
3
) = V
2
(x
1,
x
2
)(x
3
−x
1
)(x
3
−x
2
) = (x
2
−x
1
) (x
3
−x
1
)(x
3
−x
2
).
Vamos provar por indução que
V
n
(x
1
, . . . , x
n
) =
Y
i<j
(x
j
−x
i
),
adotando como hipótese de indução a validade de
V
n−1
(x
1
, . . . , x
n−1
) =
Y
i<j<n
(x
j
−x
i
).
Daí,
V
n
(x
1
, . . . , x
n
) = V
n−1
(x
1
, . . . , x
n−1
)
Y
i<n
(x
n
−x
i
)
=
Y
i<j<n
(x
j
−x
i
)
Y
i<n
(x
n
−x
i
)
=
Y
i<j
(x
j
−x
i
)
Esta igualdade vale mesmo quando os x
i
não forem distintos dois a dois, caso em que o
determinante de Vandermonde é nulo.
Trocando o número x
n
pela variável x, V
n
(x
1
, . . . , x
n−1
, x) se torna um polinômio em
x de grau n −1 que possui x
1
, . . . , x
n−1
como raízes. Assim,
V
n
(x
1
, . . . , x
n−1
, x) = α(x −x
1
)(x −x
2
) · · · (x −x
n−1
),
onde α é um número real que não depende de x.
Notas de aula do Prof. Antonio Cândido Faleiros 179
B.6 Determinante, uma definição alternativa
Seja A = (a
ij
) uma matriz m × n e v
1
= (a
1j
) , v
2
= (a
2j
) . . . , v
n
= (a
nj
) suas colunas.
Usaremos a notação [v
1
, . . . , v
n
] para designar a matriz A. O determinante de A é o
número real denotado por det(A) ou det A com as propriedades abaixo.
1. Multilinearidade
det[. . . , αv
i
+βw
i
, . . .] = αdet[. . . , v
i
, . . .] +β det[. . . , w
i
, , . . .]
2. Alternatividade
det[. . . , v
i
, . . . , v
j
, . . .] = −det[. . . , v
j
, . . . , v
i
, . . .].
3. Normalização
det I = det[e
1
, . . . , e
n
] = 1,
onde I é a matriz identidade de ordem n e e
j
= (0, . . . , 0, 1, 0, . . . , 0)
T
é a matriz
coluna n × 1 cujo único elemento não nulo é o da linha j, que é igual a 1.
Pela alternatividade, se uma coluna da matriz for nula ou se duas colunas forem iguais,
seu determinante é nulo. Agora, usando a multilinearidade e a observação acima, se α for
um escalar,
det(. . . , v
i
, . . . , v
j
+αv
i
, . . .) = det(. . . , v
i
, . . . , v
j
, . . .).
Daí fica evidente que, se uma coluna for uma combinação linear das demais, então seu
determinante é nulo. Se σ for uma permutação de {1, 2, . . . , n} então a alternatividade
garante que
det[e
σ(1)
, e
σ(2)
, . . . , e
σ(n)
] = sign(σ)
pois a cada inversão de colunas há uma troca de sinal. Observando que v
j
=
P
n
i
j
=1
a
i
j
j
e
i
j
obtemos
det(A) =
X
i
1
X
i
2
· · ·
X
i
n
a
i
1
1
a
i
2
2
· · · a
inn
det[e
i
1
, e
i
2
, . . . , e
in
].
Se dois índices em det[e
i
1
, e
i
2
, . . . , e
i
n
] forem iguais, o determinante é nulo. Logo, as
parcelas não nulas são aquelas em que {i
1
, i
2
, . . . , i
n
} for uma permutação σ de {1, 2,
. . . , n} e assim,
det(A) =
X
i
1
X
i
2
· · ·
X
i
n
sign(i
1
, i
2
, . . . , i
n
)a
i
1
1
a
i
2
2
· · · a
inn
=
X
σ
sign(σ)a
σ(1)1
a
σ(2)2
· · · a
σ(n)n
onde o somatório percorre todas as permutação σ de {1, 2, . . . , n}. Esta é exatamente
a definição anterior. A fórmula acima ainda indica que as três propriedades enumeradas
na definição de determinante são suficientes para garantir a existência e unicidade do
determinante.
180 Notas de aula do Prof. Antonio Cândido Faleiros
Referências Bibliográficas
[CaDoCo] Callioli, C.A., Domingues, H.H., e Costa R.C.F., Álgebra Linear e Aplicações.
Editora Atual.
[Franklin] Joel N. Franklin, Matrix Theory, Dover publications, Inc., 1993.
[Hoffman] Hoffmann & Kunze, Álgebra Linear. Editora da USP com Editora Polígono.
[Kolman] Bernard Kolman, Introdução à Álgebra Linear com Aplicações, sexta edição.
Editora LTC, 1998.
[Lang] Serge Lang, Álgebra Linear. Editora Edgard Blücher.
[Lawson] Terry Lawson, Álgebra Linear. Editora Edgard Blücher, 1997. Acompanham
este livro: Matlab Labs for Linear Algebra, Mathematica Labs for Linear
Algebra, Maple Labs for Linear Algebra.
[Lipschutz] Seymour Lipschutz, Álgebra Linear. Coleção Schaum. Makron Books.
[Nering] Evar D. Nering, Linear Algebra and Matrix Theory. John Wiley & Sons, 1970.
[Nicholson] W. Keith Nicholson, Álgebra Linear, segunda ed. McGraw-Hill, 2004.
[NobDan] Ben Noble & James W. Daniel, Álgebra Linear Aplicada. Guanabara Koogan.
[Poole] David Poole (Foi traduzido), Linear Algebra: A Modern Introduction (with
CD-ROM) 2ed. Brooks Cole 2005.
[RoHo] Chris Rorres e Howard Anton, Álgebra Linear com Aplicações, oitava edição.
Editora Bookman, 2001.
[TrefBau] Lloyd N. Trefethen and David Bau III, Numerical Linear Algebra. SIAM,
Society for Industrial and Applied Mathematics, 1997.
181

Sumário
1 Equações lineares 1.1 Equação algébrica linear . . . . . . . . . 1.2 Produto escalar . . . . . . . . . . . . . . 1.3 Sistemas de equações algébricas lineares 1.4 Sistema escalonado . . . . . . . . . . . . 1.5 Sistema inferiormente escalonado . . . . 1.6 Sistemas equivalentes . . . . . . . . . . . 1.7 O método da eliminação de Gauss . . . . 1.8 Matrizes inversas . . . . . . . . . . . . . 1.9 Matrizes elementares . . . . . . . . . . . 1.10 Cálculo da inversa . . . . . . . . . . . . 1.11 Fatoração LU . . . . . . . . . . . . . . . 1.12 Decomposição PLU . . . . . . . . . . . . 1.13 Decomposição de Cholesky . . . . . . . . 2 Espaço vetorial 2.1 Conceito de espaço vetorial . 2.2 Dependência linear . . . . . 2.3 Base e dimensão . . . . . . . 2.4 Matriz de mudança de base 2.5 Subespaço vetorial . . . . . 2.6 Subespaço gerado . . . . . . 1 1 3 4 6 9 10 11 13 15 17 19 26 30 33 33 35 37 40 43 44

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

3 Transformação linear 49 3.1 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . 54 3.2 Isomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.3 Transformações lineares em Cm×1 . . . . . . . . . . . . . . . . . . . . . . . 60 4 Produto interno e norma 4.1 Produto interno em espaços vetoriais reais . . . 4.2 Produto interno em espaços vetoriais complexos 4.3 Funcional linear . . . . . . . . . . . . . . . . . . 4.4 Norma . . . . . . . . . . . . . . . . . . . . . . . i 61 61 62 65 66

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

ii

Notas de aula do Prof. Antonio Cândido Faleiros 4.5 Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 68 4.6 Decomposição QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

5 Soma de subespaços 77 5.1 Soma direta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 5.2 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 6 Transformação adjunta 81 6.1 Posto de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . 85 6.2 Existência de solução dos sistemas lineares . . . . . . . . . . . . . . . . . . 87 7 Projetores 7.1 Projetores ortogonais . . . . . . . . . . . . . . 7.2 Projetores ortogonais em Cm×1 . . . . . . . . 7.3 Ortogonalização de Gram-Schmidt em Cm×1 . 7.4 Ortogonalização modificada de Gram-Schmidt 7.5 Contagem das operações . . . . . . . . . . . . 8 Refletor de Householder 8.1 Decomposição QR usando o refletor 8.2 O algoritmo para calcular R . . . . 8.3 Contagem das operações . . . . . . 8.4 O algoritmo para calcular Q∗ . . . 8.5 O algoritmo para calcular Q . . . . 89 89 92 94 95 96 99 101 103 104 104 105

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

9 Mínimos quadrados 9.1 Mínimos quadrados e a decomposição 9.2 Pseudo inversa . . . . . . . . . . . . 9.3 Reta de regressão . . . . . . . . . . . 9.4 Interpolação polinomial . . . . . . . . 9.5 Ajuste polinomial . . . . . . . . . . . 9.6 Aproximação polinomial de funções . 9.7 Aproximação trigonométrica . . . . . 10 Autovalores e autovetores

QR . . . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

107 . 109 . 109 . 110 . 111 . 112 . 112 . 114 115 123 . 125 . 131 . 132 . 135 . 139 . 141

11 Espaços Invariantes 11.1 Polinômio mínimo . . . . . . . . . . . . 11.2 Matrizes em bloco . . . . . . . . . . . . 11.3 Decomposição primária . . . . . . . . . 11.4 Diagonalização de operadores normais . 11.5 Decomposição de Schur . . . . . . . . . 11.6 Decomposição em valores singulares . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A. . . . . . . . 155 . . . . . . . . . . . . . . . 12. . . . . . . 156 159 161 162 163 164 166 169 169 171 174 177 178 179 . . . . . . . . . . . . . . B. . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 Operações elementares e matrizes elementares B Determinante B. .3 Cofator . . . . . . . . . . . . . . . A. . . . . . . .4 Regra de Cramer . 147 . . . . . . . . . . . . . . . . . uma definição alternativa . . . . . . . B. . B. . . . . . 12. . . . . . . 153 . . . .6 Determinante. . . . . . . . . . . .6 Espaços quocientes . . . . . 151 . . . . .4 Forma canônica racional . . . . . . .Notas de aula do Prof. . B. . . . . . . .3 Inversa . . . . . . . . . B. . . . . . . . . . . . . . . . . . . . . . . . .1 Matrizes especiais . . . . 12. . . . . .2 Determinante . . . . . . . A. . . . . . . . .3 Subespaços cíclicos . . . . . . . . . . . . . . . .5 Forma triangular . . . . . . . . . . . . . . . . . . . . . . 13 Aplicações A Matrizes A. . . . . .2 Multiplicação de matrizes . . . . . .5 Determinante de Vandermonde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 . . . . . . . . . . . . 12. . . . . . . . . . . . . . . . . . . . . .2 Forma canônica de Jordan 12. . . . . . . . . . . . . . iii 147 . . . . . . . . . . . . . .1 Operadores nilpotentes . . . . . . . . . . . . . Antonio Cândido Faleiros 12 Forma canônica de Jordan 12. . . . . . . .1 Permutação . . . . . . . . . . .

iv Notas de aula do Prof. Antonio Cândido Faleiros .

explicitando x1 em relação a x2 e x3 na equação. . Uma equação não degenerado com uma única variável possui uma única solução. Neste exemplo. As equações não degeneradas com duas ou mais variáveis possui infinitas soluções. x2 e x3 que tornam verdadeira a igualdade.1 Equação algébrica linear x1 + 2x2 − 3x3 = 5.1) Uma equação algébrica linear típica nas variáveis x1 . Para qualquer x2 e x3 reais. Uma equação 0x1 + · · · + 0xn = b. . Resolvê-la significa determinar todos os valores reais para x1 . x2 e x3 é é chamada de equação algébrica linear nas variáveis x1 . A primeira incógnita com coeficiente não nulo é chamada de variável principal ou incógnita principal e as demais são chamadas de variáveis livres. dados os números reais a1 . . an e b. . em que todos os coeficientes são nulos é degenerada. . . xn . . Se b for igual a zero. Os números reais ai são chamados de coeficientes e b é a constante da equação. . . Uma matriz coluna real v = [v1 . onde podemos variar livremente x2 e x3 . . a equação degenerada não possui solução.Capítulo 1 Equações lineares 1. basta tomar x1 = 5− 2x2 + 3x3 para obter uma solução. uma equação da forma a1 x1 + · · · + an xn = b (1. De modo geral. . . . Neste caso. obtemos x1 = 5− 2x2 + 3x3 . xn ]T é solução. As variáveis também são chamadas de incógnitas por serem os valores a serem determinados para valer a igualdade. . então toda matriz coluna [x1 . . . . 1 . . Diz-se ainda que a ênupla de números reais (v1 . Se b for diferente de zero. temos uma infinidade de soluções. vn ]T é solução desta equação quando a1 v1 + · · · + an vn = b. . vn ) satisfaz a equação. . x2 .

1 Para todo s real. . 0. . cn . . Exemplo 1. uma solução e. . Para determinar a solução geral de uma equação não degenerada a1 x1 + · · · + an xn = b basta explicitar a incógnita principal em função das variáveis livres. Se um conjunto {v1 . O conjunto de todas as soluções de uma equação é chamado conjunto solução ou solução geral. 0]T quanto [−1. Antonio Cândido Faleiros Exemplo 1. . é chamada de equação homogênea associada à equação não homogênea a1 x1 + · · · + an xn = b. Se v1 . . diremos que ele é um conjunto gerador das soluções da equação homogênea. 0]T é solução da equação e que tanto [7. a1 x1 + · · · + an xn = 0 O uso de matrizes pode simplificar a notação. portanto. . A variável s que aparece neste exemplo é chamado de parâmetro. . vp . 1]T são soluções da equação homogênea associada. . an ]T a matriz dos coeficientes e x = [x1 . 1. . Exemplo 1. xn ]T a matriz das variáveis. será chamado de solução particular. . evidentemente. . então c1 v1 + · · · + cp vp continua sendo solução. . . por esse motivo. . . Ela está associada à equação não homogênea (1.1) e. . . vp } de soluções da equação homogênea for tal que toda solução da equação homogênea é uma combinação linear dos seus elementos. basta explicitar x1 para obter x1 = 1+ 7x2 − x3 . A solução geral é o conjunto de matrizes coluna           x1 7 −1 1 + 7x2 − x3 1  x2  =   =  0  + x2  1  + x3  0  . Este exemplo apresenta um fato geral. a matriz coluna [7 + 3s. 2s]T é solução de 2x1 − 3x2 = 8 que. Esta soma é chamada de combinação linear das matrizes v1 . . x2 x3 x3 0 1 0 A equação é denominada de equação homogênea.3 Consideremos novamente a equação do exemplo anterior x1 − 7x2 + x3 = 1. . .2 Notas de aula do Prof. vp forem soluções da equação homogênea aT x = 0. 0. Sendo a = [a1 . . para qualquer escolha dos números reais c1 . . x2 0 0 1 x3 x3 É interessante observar que [1. quando for conveniente. . cuja solução geral é           x1 1 + 7x2 − x3 1 7 −1  x2  =   =  0  + x2  1  + x3  0  . a equação acima pode ser colocada na forma aT x = b. .2 Para obter a solução geral de x1 − 7x2 + x3 = 1. Cada elemento deste conjunto é. possui infinitas soluções.

Exemplo 1. se w1 for outra solução de Ax = b. xi . Conhecendo todas as soluções da homogênea e uma única solução da não homogênea. 1]T formam um conjunto gerador de soluções para a equação dada. Do parágrafo acima tiramos uma lição muito interessante. xi = 0 se e só se x = 0. yi Usando o produto escalar. 2.4 Explicitando x1 na equação x1 − 3x2 + x3 = 0. xi ≥ 0 e hx. obtemos x1 = 3x2 − x3 para daí obter todas as soluções desta equação         x1 3 −1 3x2 − x3  x2  =   = x2  1  + x3  0  . sendo denotado por ha. kyi = k hx. hx. ha. Além disso. xi 3. y + zi = hx. Esta solução u é exatamente w1 − w0 . . yi = hy. isto é.Notas de aula do Prof. Propriedades do produto escalar Se x. a equação (1.2 Produto escalar O produto matricial aT x é denominado de produto escalar das matrizes coluna a e x. 1. hx. hx. zi 4. então existe uma solução u de Ax = 0 tal que w1 = w0 + u.1) assume a forma ha. hx. xi = b. 1. Antonio Cândido Faleiros 3 Portanto. conheceremos todas as soluções da não homogênea. Este conceito de produto escalar é importante e voltaremos a ele posteriormente. x2 x3 x3 0 1 Se w0 for uma solução da equação não homogênea aT x = b e v for uma solução da equação homogênea Ax = 0. então w0 + v é solução da equação não homogênea. 1. 0]T e [−1. y. [3. z forem vetores coluna e k um número real. xi = aT x. 0. yi + hx.

Um sistema como este pode ter ou não uma solução. xn bn am1 · · · amn denominamos A de matriz dos coeficientes. x de matriz das incógnitas e b de matriz dos termos constantes do sistema.   . . . Exemplo 1. . pode-se.  e b =  . bi são os termos constantes e xj são as incógnitas ou variáveis do sistema. Dados os números reais aij e bi .. é chamada de matriz aumentada do sistema linear. . . Isto significa que w é solução de cada equação do sistema. . Nos problemas onde estes sistemas ocorrem. por exemplo explicitar x1 na segunda equação x1 = 7− x2 . A= . . Substituindo este valor na expressão de x1 em função de x2 obtemos x1 = 7− x2 = 7− 3 = 4. Podemos simplificar a notação usando matrizes. com i = 1.4 Notas de aula do Prof. . Um vetor coluna real w tal que Aw = b é chamado de solução do sistema Ax = b. m e j = 1. . .3 Sistemas de equações algébricas lineares 3x1 − 2x2 = 6 x1 + x2 = 7 Um sistema de equações como é um sistema de equações algébricas lineares. A matriz [A | b] obtida acrescentando-se à matriz A uma coluna final com os elementos de b. o sistema se reduz a Ax = b.. Antonio Cândido Faleiros 1. Os números aij são denominados coeficientes do sistema. . para determiná-los.   . Portanto os valores de x1 e x2 que tornam verdadeiras as duas igualdades do sistema são x1 = 4 e x2 = 3. o sistema de equações a11 x1 + · · · + a1n xn = b1 ··· = ··· am1 x1 + · · · + amn xn = bm é chamado de sistema de equações algébricas lineares com m equações e n incógnitas.  x= . Em       x1 b1 a11 · · · a1n  . n. . o interesse se volta para a determinação dos valores de x1 e x2 que tornam verdadeiras as duas igualdades. . . . Neste exemplo. .5 O sistema · ¸· ¸ · ¸ 1 2 0 0 x1 x2 = 3 1 . Esta forma de apresentar o sistema é denominada de forma padrão. Na forma matricial. . substituir esta expressão no lugar de x1 na primeira equação 3(7 − x2 )− 2x2 = 6 e expliciar x2 obtendo x2 = 3.

cn . Antonio Cândido Faleiros 5 não possui solução pois não existem x1 e x2 que tornam verdadeira a segunda equação. é chamado de compatível indeterminado. A equação homogênea Ax = 0 possui sempre a solução trivial x = 0. Se toda solução de Ax = 0 for uma combinação linear dos elementos deste conjunto. A segunda equação do sistema é degenerada e seu segundo membro é diferente de zero. . De fato. O sistema ¸ · ¸ · ¸· 4 1 2 x1 = 1 0 1 x2 possui uma única solução x1 = 2 e x2 = 1. se conhece a solução geral do sistema não homogêneo. O conjunto de todas as soluções do sistema é chamado de conjunto solução ou solução geral do sistema. devemos ter x1 = 2. x1 + 2x2 = 4. . Este conjunto pode ser vazio. ele será chamado de conjunto gerador das soluções do sistema homogêneo Ax = 0. . . Entretanto. então c1 v1 + · · · + cp vp ainda será uma solução do sistema homogêneo para qualquer escolha dos números reais c1 . Logo. . . Um sistema está intimamente ligado ao outro e. é sempre satisfeita. Se w1 for outra solução de Ax = b. x2 ]T = [3− 2x2 . O sistema de equações Ax = 0 é chamado de homogêneo. onde u é solução do sistema homogêneo Ax = 0. Ax = 0 é chamado de sistema homogêneo de equações associado ao sistema Ax = b. outra solução w1 deste sistema é da forma w1 = w0 + u. da segunda equação x2 = 1 e. ou seja. Para obtê-la. A variável x2 pode variar livremente nos reais. vp forem soluções do sistema homogêneo Ax = 0. Quando possui uma única solução é compatível determinado e. Podemos ir um pouco além. quando possui infinitas soluções. Ao conhecer uma única solução do sistema não homogêneo Ax = b e a solução geral do sistema homogêneo Ax = 0. A soma acima é chamada de combinação linear dos vetores {v1 . . . basta observar que. conhecida uma solução w0 de Ax = b. o sistema de equações Ax = b é chamado de não homogêneo. Em outras palavras. ter um único elemento ou possuir infinitos elementos. . vp }. Como x2 = 1. diferente de w0 . . O sistema de equações que não possui solução é chamado incompatível. O sistema ¸ · ¸ · ¸· 3 1 2 x1 = x2 6 2 4 possui infinitas soluções. ela possuirá infinitas soluções pois cv será solução para qualquer número real c. qualquer matrix coluna [x1 . Se v for uma solução de Ax = 0 e w0 for uma solução de Ax = b. então w0 + v é solução de Ax = b. . Substituindo esta expressão na segunda vem 2(3− 2x2 ) + 4x2 = 6 que se simplifica em 6 = 6. qualquer solução w1 do sistema Ax = b é da forma w1 = w0 + u onde u é solução da equação homogênea Ax = 0. x2 ]T é uma solução do sistema. . Logo. quando o sistema homogêneo Ax = 0 possui uma solução v não trivial.Notas de aula do Prof. da primeira. explicitano x1 na primira equação segue x1 = 3− 2x2 . por esta razão. . Se v1 . Quando b 6= 0. então u = w1 − w0 é solução de Ax = 0.

O pivô de uma linha está à direita do pivô da linha de cima. Se a única solução do sistema homogêneo Ax = 0 for a trivial e Ax = b tiver uma solução. Usando esta expressão de x2 na primeira equação e explicitando x1 . 6. 0]T é uma solução particular do sistema e [7. Exemplo 1. Antonio Cândido Faleiros O sistema não homogêneo Ax = b pode ter uma solução ou não. 1]T é solução do sistema homogêneo associado. O valor de x3 poder variar livremente no conjunto dos números reais. . 3. Este elemento é chamado de pivô ou líder da linha.7 A matriz   1 0 3 0  0 0 1 2  0 0 0 0 é escalonada.4 Sistema escalonado Uma matriz escalonada é aquela em que 1. 3. Numa linha não nula. 2. Logo.6 Notas de aula do Prof. ela será única. então possuirá infinitas outras. x2 = 3+ 6x3 . as variáveis x1 e x2 foram expressas em termos de x3 . 1. chamamos x1 e x2 de variáveis principais e x3 é a variável livre. Quando Ax = 0 possuir solução não trivial e Ax = b possuir uma solução. o primeiro elemento não nulo é igual a 1. No exemplo anterior. segue x1 = 13+ 7x3 . Exemplo 1. Todas as linhas nulas estão abaixo das linhas não nulas. neste caso.6 Considere o sistema · 1 −2 5 0 1 −6 ¸  · ¸ x1  x2  = 7 . 3 x3  Explicitando x2 na segunda equação. toda solução deste sistema é da forma       x1 13 7  x2  =  3  + x3  6  0 1 x3 Observe que [13.

Da segunda. podemos desconsiderar as equações degeneradas. explicitamos x1 = −3 −2x3 +x4 . x3 . Exemplo 1. A solução geral do sistema será         5 − 2x3 5 −2 x1  −3   x2   −40 − 3x3   −40        =  x3  =    0  + x3  1  x3 8 0 x4 8 onde a variável livre x3 pode assumir qualquer valor real. 0]T é solução do sistema homogêneo associado Ax = 0. Na primeira. onde explicitamos x4 = 8. x2 e x4 são as variáveis prinicipais e x3 é a variável livre. Podem aparecer equações degeneradas na parte inferior do sistema. obtemos x1 = −3 −2x3 +8 = 5 −2x3 .Notas de aula do Prof. explicitamos as variáveis principais de cada linha em função das demais. começando na última linha e retornando até a primeira. Esta técnica de solução é denominada de substituição reversa. As variáveis x1 . Usando o valor de x4 determinado anteriormente. x2 . É interessante observar que [−2. Eliminadas as equações degeneradas. A partir da penúltima equação use as variáveis principais já explicitadas para colocar a variável principal daquela equação em termos das variáveis livres. Uma matriz A de tamanho m×n é escalonada reduzida se for escalonada e cada pivô é o único elemento não nulo em sua coluna. o sistema tem solução. Eliminada esta equação. Neste caso. x3 ]T é uma solução. . O sistema possui solução e esta última equação pode ser desconsidereda uma vez que qualquer matriz coluna real [x1 . A última equação é degenerada mas compatível pois o segundo membro também é nulo. a terceira passa a ser a última. Se uma dessas equações degeneradas possuir segundo membro não nulo. Se todos os segundos membros das equações degeneradas forem nulas.8 O sistema  1  0   0 0 0 1 0 0  x1 2 −1   x2 3 5  0 1   x3 0 0 x4  −3   0   =   8  0   é escalonado. As variáveis que multiplicam os pivôs são denominadas de variáveis principais e as demais de variáveis livres ou parâmetros. o sistema Ax = b é denominado de sistema escalonado reduzido. explicitamos x2 = −3x3 −5x4 . Usando o valor de x4 determinado na etapa anterior. Achar as soluções de um sistema escalonado é bastante simples. −3. Para obtê-las. Colocamos as três variáveis principais x1 . 1. Com este processo obtém-se todas as variáveis principais em termos das variáveis livres. o sistema não possui solução. x2 e x4 em função da variável livre x3 . obtemos x2 = −3x3 −40. Antonio Cândido Faleiros 7 Um sistema Ax = b é escalonado quando a matriz A for escalonada.

 .m xm ) /rm−2. . . xm = bm /rmm xm−1 = (bm−1 − rm−1. 1. m. Antonio Cândido Faleiros é escalonado reduzido.8 Exemplo 1. onde as variáveis principais estão em função das variáveis livres. Isto significa que   r11 r12 · · · r1m  r22 · · · r2m    R= . explicitando as variáveis principais de cada equação em função das variáveis determinadas nas etapas anteriores. for j = m-1:-1:1 x(j) = ( b(j) . .. iniciamos explicitando xm na última equação e. . em que j = m − 1..m−1 xm−1 − rm−2. x(m) = b(m) / R(m. m − 2. . Algoritmo da substituição reversa Este algoritmo resolve o sistema Rx = b pelo método da substituição reversa.m). ================================== x = b .9 O sistema Notas de aula do Prof. retornando até a primeira.R(j. Saída: Matriz x de tamanho m × 1.m−2 e assim por diante. As variáveis x1 e x3 são principais e x2 e x4 são livres. onde R é quadrada. . O método da substituição reversa nos fornece x3 = −x4 e x1 = −3 −2x2 −3x4 .m−1 xm−2 = (bm−2 − rm−2. . para i = 1.   . A última equação é degenerada mas compatível. j+1:m) * x(j+1:m) ) / R(j. Assim. Para resolver o sistema Rx = b. . .j). assume a forma !. Ã m X xj = bj − rm−j. end ================================== . rmm    x1 −3 1 2 0 3    0 0 1 1   x2  =  0   x3  0 0 0 0 0 x4    com rii 6= 0. O caso geral.m xm ) /rm−1.m−j rjk xk k=j+1 ================================== Entrada: Matriz R de tamanho m × m e matriz b de tamanho m × 1. inversível e triangular superior.

explicitando a variável principal daquela equação em função das demais. são facilmente resolvidos pelo processo de substituição direta. 3. . O pivô de uma linha se encontra à direita do pivô da linha anterior. O último elemento não nulo de uma linha é igual a 1. Em seguida.5 Sistema inferiormente escalonado Um procedimento semelhante pode ser adotado para matrizes m × n inferiormente escalonadas. . A partir da segunda. explicita-se a variável principal em função das variáveis livres. x1 = b1 /r11 x2 = (b2 − r21 x1 ) /r22 x3 = (b3 − r31 x1 − r32 x2 ) /r3.3 . prosseguindo até a última. As variáveis que multiplicam os pivôs são denominadas de principais e as demais são denominadas livres. o sistema Ax = b é denominado de sistema inferiormente escalonado reduzido. Quando A for escalonada inferiormente.. Algoritmo da substituição direta Este algoritmo resolve o sistema Rx = b pelo método da substituição reversa. elas se localizam na parte inferior da matriz. sendo denominado de pivô ou lider da linha. inversível e triangular inferior. vamos explicitando as variáveis principais de cada equação em função das variáveis determinadas nas etapas anteriores.. prossiga até a última. Uma matriz A de tamanho m × n é inferiormente escalonada reduzida quando for inferiormente escalonada e cada pivô for o único elemento não nulo em sua coluna. que são aquelas com as seguintes características: 1. o sistema possui solução que pode ser obtida pelo processo de substituição direta. Antonio Cândido Faleiros 9 1. usando as expressões das variáveis principais obtidas anteriormente para explicitar a variável principal em função das variáveis livres apenas. Se existirem linhas nulas. Neste caso. Isto significa que   r11  r21 r22    R= .  . . . o sistema Ax = b é chamado de sistema inferiormente escalonado. para i = 1. Primeiro. m. iniciamos explicitando x1 na primeira equação e. Tais sistemas. . Se as equações degeneradas deste sistema forem compatíveis. Assim.  . 2.Notas de aula do Prof. quando compatíveis. onde R é quadrada. a partir da primeira equação. Para resolver o sistema Rx = b.  rm1 rm2 · · · rmm com rii 6= 0. descartam-se as equações degeneradas.

Antonio Cândido Faleiros e assim por diante. 2. ao serem aplicadas a um sistema. as transformações não podem alterar o conjunto solução do sistema. . solução dos sistema Rx = b. Permutar a ordem de duas equações. onde R é uma matriz quadrada m × m. inversível e b é uma matriz coluna m × 1. assume a forma xj = Ã bj − j−1 X k=1 rjk xk !. As operações elementares são: 1.10 Notas de aula do Prof. 3. triangular inferior. Para que esta técnica se torne efetiva. m.10 Dois sistemas Ax = b e Bx = c são equivalentes quando ambos possuem o mesmo conjunto solução.6 Sistemas equivalentes Uma técnica muito usada para resolver sistemas de equações lineares consiste em realizar transformações sobre o sistema original até se chegar a um sistema escalonado cuja solução é simples. em que j = 2. Multiplicar uma equação por uma constante não nula. Existem operações.1). . 1:j-1) * x(1:j-1) ) / R(j. . for j = 2:m x(j) = ( b(j) . Definição 1. 3.j). preserva suas soluções. . ================================== Entrada: Matrizes R e b. rjj Algoritmo da substituição direta Este algoritmo resolve pelo método da substituição direta um sistema Rx = b. transformando-o em outro sistema equivalente. denominadas elementares que. O caso geral.R(j. . Adicionar a uma equação um múltiplo de outra. Saída: Matriz x. x(1) = b(1) / R(1. ================================== x = b . end ================================== 1.

2. Se [x1 .7 O método da eliminação de Gauss O método de Gauss consiste em realisar operações elementares sobre linhas no sistema Ax = b. vamos considerar a matriz completa do . A operação O(li ↔ lj ) pode ser revertida aplicando novamente esta mesma operação. Vamos mostrar que essas transformações levam o sistema original em outro equivalente. x3 ]T for uma solução do sistema a11 x1 + a12 x2 + a13 x3 = b1 a21 x1 + a22 x2 + a23 x3 = b2 a31 x1 + a32 x2 + a33 x3 = b3 e r for um número real. .3) Isto significa que as soluções do sistema (1. As operações elementares são reversíveis. Logo. Sejam i e j números inteiros entre 1 e n. Como a matriz A dos coeficientes e a matriz b das constantes contêm todas as informações necessárias para montar o sistema. . m.Notas de aula do Prof.3) que foi obtido do original a partir da transformação elementar O(l1 + rl2 ). Façamos a prova para um caso particular que representa o caso geral.2) pois esta pode ser obtida daquela pela operação O(l1 − rl2 ). .2) são soluções do sistema (1. podemos enumerá-las: equação 1. transformando-o num sistema escalonado equivalente e resolvendo-o por substituição reversa. x3 ]T é solução do sistema (a11 + ra21 )x1 + (a12 + ra22 )x2 + (a13 + ra23 )x1 = b1 + rb2 a21 x1 + a22 x2 + a23 x3 = b2 a31 x1 + a32 x2 + a33 x3 = b3 (1. De modo semelhante se pode provar que as outras operações elementares transformam um sistema em outro equivalente.3) são soluções de (1. então vale ainda a igualdade (a11 + ra21 )x1 + (a12 + ra22 )x2 + (a13 + ra23 )x1 = a11 x1 + a12 x2 + a13 x3 + r(a21 x1 + a22 x2 + a23 x3 ) = b1 + rb2 mostrando que [x1 . a operação que multiplica a equação i por um número r não nulo será denotada por O(rli ) e a operação que consiste em adicionar à equação i um múltiplo r de outra equação j será denotada por O(li + rlj ). Antonio Cândido Faleiros 11 Num sistema de equações. Concluímos que os sistemas original e o transformado são equivalentes. x2 . .2) (1. 1. as soluções de (1. O operação que permuta as equações i e j será denotada por O(li ↔ lj ). x2 . A operação O(rli ) pode ser revertida aplicando a operação O(r−1 li ) e a operação O(li +rlj ) pode ser revertida aplicando a operação O(li − rlj ).

a primeira linha não sofrerá outras modificações. Passe à segunda linha. Se o número de incógnitas do sistema for n. realizado sobre a matriz completa [A b]. . encerre o algoritmo. localizando a primeira não nula. Se existirem equações degeneradas incompatíveis no sistema Rx = c. vr são soluções do sistema homogêneo associado Rx = 0. o número de variáveis livres será n − k. . diremos que ela é a forma escalonada de A. Este será o pivô da primeira linha. O processo de Gauss para resolver um sistema Ax = b é descrito pelo algoritmo abaixo. O sistema Rx = c é equivalente ao original. Passo 2. Com este algoritmo. Passo 7. Se existirem k pivôs. partimos da matriz [A b] e chegamos à matriz [R c]. Se A = 0. . Passo 1. o sistema Ax = b tem solução. Exclua as equações degeneradas e use a substituição reversa para obter as soluções do sistema euqivalente Rx = c. tranformando-a na primeira da próxima etapa. Pode-se provar que a forma escalonada reduzida de uma matriz é única. O sistema já é escalonado. Passo 5.11 Considere o sistema x + y − 2z = 0 2x + 2y − 3z = 2 3x − y + 2z = 12 . Passo 6. Repita os passos de 1 a 6 com todas as linhas restantes. Multiplique a atual primeira linha por p−1 . fazendo com que o primeiro elemento não nulo da primeira linha fique igual a 1. . . Os números reais c1 . Antonio Cândido Faleiros sistema. Se todas as equações degeneradas de Rx = c forem compatíveis. Se R for escalonada e A pode ser levada em R por transformações elementares. este será o número de variáveis principais do sistema. Se R for escalonada. Percorra as colunas da matriz completa [A b] da esquerda para a direita. onde R é a forma escalonada de A. Exemplo 1. Estas soluções possuirão a forma x = w0 + c1 v1 + · · · + cr vr onde w0 é uma solução de Rx = c e v1 . Percorra esta coluna de cima para baixo. localizando seu primeiro elemento não nulo. então o sistema Ax = b não tem solução. Seja p o valor deste elemento. Esta matriz será denotada por [A b]. A partir deste ponto. . Passo 4. A realização de operações elementares sobre as equações é equivalente à realização de operações elementares sobre as linhas da matriz completa. Passo 3. . Se R for escalonada reduzida. . Permute esta linha com a primeira.12 Notas de aula do Prof. Vamos escreve A → R quando for possível levar A em R efetuando operações elementares sobre as linhas de A. Os números reais ci são arbitrários e relacionados com as variáveis livres. O número de pivôs de R é igual ao número de linhas não nulas de R. diremos que ela é a forma escalonada reduzida de A. o número de pivôs de R é chamado de posto da matriz A. obtida ao acrescentar a coluna b à direita de A. cr são denominados de parâmetros.

8 Matrizes inversas Uma matriz quadrada A de tamanho m × m é inversível quando existir uma matriz quadrada B de tamanho m × m tal que AB = BA = Im onde Im é a matriz identidade de ordem m. Com as operações O(l2 = l2 − 8l3 ) e O(l1 = l1 + 2l3 ). Se uma matriz for triangular inferior. Assim. 0 −4 8 12 Realizando a operação O(l2 ↔ l3 ) segue   1 1 −2 0  0 −4 8 12  0 0 1 2 Com as operações O(l2 = −(1/4)l2 ) seguida  1 0  0 1 0 0 que é uma matriz diagonal superior. y = 1 e z = 2. quando ela for triangular superior. Para completar o método. sua inversa também será triangular inferior e. sua inversa também será triangular superior. então AB são inversíveis e (AB)−1 = B −1 A−1 . Encerramos a primeira etapa do método de eliminação de Gauss. obter a solução do problema é trivial x = 3. Antonio Cândido Faleiros cuja matriz aumentada é   1 1 −2 0  2 2 −3 2  3 −1 2 12 13 Realizando as operações O(l2 = l2 − 2l1 ) e O(l3 = l3 − 3l1 ) sobre a matriz chegamos em   1 1 −2 0  0 0 1 2 .Notas de aula do Prof. B −1 = Ae ¡ −1 ¢−1 A = A. A matriz B é chamada de inversa de A e é denotada por A−1 . . 1. obtemos   1 1 0 4  0 −4 0 −4  0 0 1 2 de O(l1 = l1 − l2 ) chegamos à matriz  0 3 0 1  1 2 A matriz A foi transformada até se tornar uma matriz identidade. Pela própria definição. Agora. Se A e B forem inversíveis. caminhando de baixo para cima e da esquerda para a direita. a matriz B também é inversível e sua inversa é A. anulamos os elementos nas colunas acima da diagonal principal.

(5) =⇒ (1) pois. Antonio Cândido Faleiros Teorema 1. Logo. O sistema Ax = b possui uma única solução para cada matriz coluna b. cuja solução é x = c. existe uma matriz C tal que BC = I. . Como AB = I por hipótese. Se este fosse o caso. 5. 4. São equivalentes as afirmações: 1. se A é inversível e Ax = 0. A é inversível. valem (3) e (4) com B no lugar de A. para alguma matriz coluna c. contrariando (2). 3. O sistema homogêneo Ax = 0 possui apenas a solução trivial x = 0. Existe uma matriz quadrada B tal que AB = I. Logo. o sistema Ax = ej tem uma única solução x = bj para j = 1. B(CA−1 ) = (BC)A−1 = AA−1 = I e B é inversível. Sendo A = BC inversível. A forma escalonada reduzida de A é a matriz identidade. uma de suas linhas é nula pois R é quadrada. Como C = IC = (AB)C = A(BC) = A. . sendo uma a inversa da outra.12 Seja A uma matriz quadrada. se A → I então o sistema Ax = b é equivalente ao sistema Ix = c. (1) =⇒ (2) pois.14 Se A = BC for inversível. Corolário 1. . a condição (2) vale para B no lugar de A e. se AB = I e Bx = 0. provamos que A é inversível. ¤ Este corolário garante que AB = I é o bastante para garantir que A e B são inversíveis. Sendo B = [b1 . B é inversível e sua inversa é A. obtemos AB = I. n. (3) =⇒ (4) pois. consequentemente. Rx = 0 tem soluções não nulas. . Prova.14 Notas de aula do Prof. . Portanto. 2. bn ]. provamos que A é inversível e que B é a inversa de A. 2. então ABx = 0 ou Ix = 0 o que implica em x = 0. mostrando que o sistema Ax = b tem sempre uma única solução para cada b. Prova. obtemos BA = I. Se AB = I. Prova. Por outro lado. então B e C são inversíveis. então A−1 Ax = 0 o que implica em x = 0. ¤ Corolário 1. . se a forma escalonada reduzida R de A não for a matriz identidade. . pela parte (5).13 Sejam A e B matrizes quadradas m × m. Se AB = I. (2) =⇒ (3) pois. . o sistema Ax = 0 teria soluções não nulas. então A e B são inversíveis e uma é a inversa da outra. (4) =⇒ (5) pois. ¤ . Logo. sendo ej a coluna j da matriz identidade I. (A−1 B) C = A−1 (BC) = A−1 A = I e assim C é inversível.

O produto    a2 a3 7a1 7a2 7a3 b2 b3  =  b1 b2 b3  c2 c3 c1 c2 c3 adiciona à terceira linha de A o quíntuplo de sua primeira linha.Notas de aula do Prof. as matrizes E(l1 ↔ l3 ). Antonio Cândido Faleiros 15 1.9 Matrizes elementares As matrizes elementares são aquelas obtidas a partir da identidade mediante uma única operação elementar. Seja  a3 b3  . E(rli )A . produto    a3 a2 a3 a1  b3  =  b1 b2 b3 c3 5a1 + c1 5a2 + c2 5a3 + c3 .15 As matrizes  0 0  0 1 1 0 Os produtos E(li ←→ lj )A . O   1 0 0 a1 a2 E(l3 + 5l1 )A =  0 1 0   b1 b2 c1 c2 5 0 1     0 0 1 a1 a2 a3 c1 c2 c3 E(l1 ↔ l3 )A =  0 1 0   b1 b2 b3  =  b1 b2 b3  c1 c2 c3 a1 a2 a3 1 0 0 A. permuta a primeira com a terceira linha de   a1 7 0 0  0 1 0   b1 E(7l1 )A = c1 0 0 1 multiplica a primeira linha de A por 7. E(li + rlj )A realizam sobre A as operações elementares O(li ←→ lj ). E(rli ) denotará a matriz elementar obtida da identidade multiplicando sua linha i por r. respectivamente. Vamos denotar por E(li ←→ lj ) a matriz elementar obtida a partir da identidade pela permuta das linhas i e j. c3 abaixo são elementares    1 7 0 0  0 1 0  0  0 0 0 1  1 0 0  0 1 0  3 0 1  sendo. A matriz E(li + rlj ) denotará a matriz elementar obtida da identidade adicionando à linha i um múltiplo r da linha j. respectivamente. Exemplo 1.16 Os produtos abaixo ilustram as  a1 a2 A =  b1 b2 c1 c2 O produto  afirmações acima. e O(li + rlj ). E(7l1 ) e E(l3 + 3l1 ). Exemplo 1. Se r é um número não nulo. O(rli ).

vamos executar as operações lineares necessárias para anular todos os elementos de cada coluna abaixo da diagonal principal. E2 . A inversa de E(li + rlj ) é E(li − rlj ). para r 6= 0. . −1 −1 −1 Ek tais que Ek · · · E2 E1 A = I.17 Uma matriz quadrada é inversível se e só se for igual a um produto de matrizes elementares.16 Notas de aula do Prof. a inversa de E(li ↔ lj ) é ela mesma e.18 Vamos usar transformações de  5  10 A= 15 elementares para obter a forma escalonada  1 3 5 8 . Como as inversas de matrizes elementares são elementares. Antonio Cândido Faleiros As matrizes elementares são inversíveis. Efetuando o produto      1 0 0 5 1 3 5 1 3 E1 A =  −2 1 0   10 5 8  =  0 3 2  −3 0 1 15 6 16 0 3 7 . Quando este for o caso. então o teorema 1. Neste caso. . segue que A é o produto de matrizes elementares. é incompatível. . . Se existirem linhas nulas em U e as linhas correspondentes de Eb não forem nulas. Ek Ek · · · E2 E1 Ax = Ek · · · E2 E1 b executando operações elementares sobre as linhas de A. Há um teorema muito interessante relacionando matrizes inversíveis com matrizes elementares. A = E1 E2 · · · Ek . o sistema é resolvido por substituição reversa. Em consequência„ existem matrizes elementares E1 . Se uma matriz quadrada for o produto de matrizes elementares. . 6 16 Em lugar de executar uma operação elementar por vez. E2 . . .12 garante que a forma escalonada reduzida de A é a matriz identidade. até obter a matriz escalonada U = Ek · · · E2 E1 A. . Se A for inversível. Sendo E = Ek · · · E2 E1 . ¤ Em termos de matrizes elementares. Prova. o método da eliminação de Gauss usado para resolver o sistema Ax = b pode ser descrito nos seguintes termos: multiplicamos os dois lados do sistema sucessivamente por matrizes elementares E1 . ela é inversível pois cada matriz elementar é inversível. a inversa de E(rli ) é E((1/r)li ). o sistema não tem solução. o sistema original se transforma no sistema equivalente escalonado Ux = Eb que terá solução se linhas nulas em U corresponderem a linhas nulas em Eb. Exemplo 1. Teorema 1.

0 0 1 −3 0 1 Efetuando o produto de E1 A pela matriz elementar E3 definida     1 0 0 5 1 3 5  0 1 0  0 3 2  =  0 E2 E1 A = 0 −1 1 0 3 7 0 abaixo. Assim. 1 1 1 que é triangular superior. Denotemos por U matriz   1 0 0 1  0 1 0   −2 E2 E1 = 0 −1 1 −3 esta matriz. 0 0 5 1. multiplicamos     1 0 0 5 1 3 A =  10 5 8  e E2 E1 =  −2 1 0  . Exemplo 1. obtemos  1 3 3 2  0 5 é triangular inferior. de modo   0 0 1 0  =  −2 1 1 0 0 1 −1 −1 que E2 E1 A = U.Notas de aula do Prof. Antonio Cândido Faleiros 17 obtemos uma matriz onde os elementos da primeira linha abaixo da diagonal principal são nulos. A matriz E1 não é elementar mas é o produto de duas matrizes elementares    1 0 0 1 0 0 E1 =  −2 1 0   0 1 0  . A  0 0  1 Um fato notável desta inversa reside no fato de ser exatamente igual ao produto E2 E1 . onde os elementos abaixo da diagonal principal aparecem com os sinais trocados. 0 0 5  para obter . −1 −1 1 15 6 16  5 1 3 U = E2 E1 A =  0 3 2  .   5 1 3 E2 E1 A = U =  0 3 2  . os elementos de sua diagonal principal é unitária e sua inversa é   1 0 0 L =  2 1 0 .19 No exemplo anterior.10 Cálculo da inversa Podemos completar o processo iniciado no exemplo da seção anterior até obter a inversa de A.

No momento que EA for igual á identidade. O produto E5 E4 E3 E2 E1 é a inversa procurada   32 7 2 − 75 75 75 8 2 7 A−1 =  − 15 15 − 15  . então A−1 = E. A matriz E3 é o onde E4 é o produto de duas matrizes elementares    1 0 0 1 −1/3 0 1 0 .18 Notas de aula do Prof. Esta observação nos permite construir o seguinte algoritmo: tome a matriz aumentada [A I] e realize operações elementares sobre ela obtendo a matriz [EA EI]. Se E for o produto de matrizes elementares para as quais EA = I. Se nalgum ponto deste processo chegarmos a uma matriz aumentada [EA EI] com linha nula. multiplicando E4 E3 U pela matriz  1/5 E5 =  0 0 obtemos elementar  0 0 1 0  0 1 Em seguida. Efetuando o produto      1 0 −3/5 5 1 3 5 1 0 E3 U =  0 1 −2/5   0 3 2  =  0 3 0  0 0 1/5 0 0 5 0 0 1 anulamos os elementos da terceira coluna produto de três matrizes elementares   1 0 0 1  0 1 0  0 E3 = 0 0 1/5 0   0 0 1 0 −3/5 1 −2/5   0 1 0 . . Antonio Cândido Faleiros Podemos multiplicar U por matrizes elementares até obter a inversa de A. efetuamos o seguinte produto      1 −1/3 0 5 1 0 5 0 0 E4 E3 U =  0 1/3 0   0 3 0  =  0 1 0  0 0 1 0 0 1 0 0 1 E5 E4 E3 U = E5 E4 E3 E2 E1 A = I onde I é a matriz identidade. concluímos que A não tem inversa. E4 =  0 1/3 0   0 0 0 1 0 0 1 Finalmente. 0 1 0 0 1 acima da diagonal principal. EI = E será a inversa A−1 de A. 1 1 1 −5 −5 5 Este exemplo é típico do método de Gauss-Jordan para determinar a inversa de uma matriz A.

a inversa de A é 1. podemos chegar a uma matriz U triangular superior. vamos ampliar um pouco nosso conceito de matriz elementar e também denominar de elementar aquelas matrizes obtidas a partir da identidade permitindo que os elementos de uma única coluna abaixo da diagonal principal sejam diferentes de zero. Antonio Cândido Faleiros Exemplo 1.11 Fatoração LU Multiplicando uma matriz A por matrizes elementares. 1 −3 1   2 1 1 0 0 1 3 −1 1 0  0 1 1 −3 1  2 0 0 3 −1 1 0 −4 10 −3  0 1 1 −3 1  0 0 8 −17 5 1 0 −4 10 −3  0 1 1 −3 1 Logo. Em lugar de aplicar uma transformação elementar por vez. vamos aplicar um produto de transformações lineares que agirão sobre toda uma coluna. 2 7 12 Inicialmente formamos a matriz aumentada   1 2 1 1 0 0 [A I] =  1 3 4 0 1 0  2 7 12 0 0 1 19 e realizamos operações elementares sobre linha até chegar a (I | A−1 ). Para descrever o processo.20 Vamos usar o método de Gauss-Jordan para obter a inversa de   1 2 1 A =  1 3 4 . .      1 0 0 1 2 1 1 0 0 1 2 1 1 0 0  −1 1 0   1 3 4 0 1 0  =  0 1 3 −1 1 0  −2 0 1 2 7 12 0 0 1 0 3 10 −2 0 1    1 0 0 1 2 1 1 0 0 1  0 1 0   0 1 3 −1 1 0  =  0 0 3 10 −2 0 1 0 −3 1 0     1 0 −1 1 2 1 1 0 0 1  0 1 −3   0 1 3 −1 1 0  =  0 0 0 1 0 0 1 1 −3 1 0     1 −2 0 1 2 0 0 3 −1 1  0 1 0   0 1 0 −4 10 −3  =  0 0 0 1 0 0 1 1 −3 1 0   8 −17 5  −4 10 −3  .Notas de aula do Prof.

e 0 0 1 3 0 1 Podemos usar essas matrizes elementares para zerar todos os elementos abaixo da diagonal principal de uma coluna de uma matriz A. A matriz E = Ek · · · E1 é triangular inferior e os elementos da diagonal principal são todos iguais a 1. . Com isto. obtemos a fatoração A = LU onde U é uma matriz triangular superior e L é uma matriz triangular inferior inversível. cujos elementos da diagonal principal são iguais a 1. . 4 −1 13 . Exemplo 1.21 Neste conceito ampliado. multiplicadas à esquerda de A a levam numa matriz triangular superior U. a matriz   1 0 0  2 1 0  3 0 1 é elementar. Este procedimento resulta em Ek · · · E1 A = U onde U é triangular superior.22 Este exemplo ilustra o anulamento de todos os elementos de abaixo da diagonal da primeira coluna de uma matriz mediante o uso de uma matriz elementar      1 0 0 2 6 −1 2 6 −1  −2 1 0   4 3 8  =  0 −9 10  .20 Notas de aula do Prof. Antonio Cândido Faleiros Exemplo 1.23 Vamos obter a decomposição LU da matriz   1 2 0 A =  2 1 5 . Ela é o produto de duas matrizes elementares     1 0 0 1 0 0  2 1 0   0 1 0 . Em−1 matrizes elementares que. Sua inversa L também é triangular inferior e os elementos da diagonal principal são todos iguais a 1. Sejam E1 . −6 0 1 12 7 9 0 −29 15 Seja A uma matriz m×m. . Os elementos abaixo da diagonal principal da primeira e segunda colunas de E2 E1 A são nulos e assim por diante. Exemplo 1. Os elementos abaixo da diagonal principal da primeira coluna de E1 A são nulos. .

efetuando o produto −1 −1 L = E1 E2     1 0 0 1 0 0 1 0 0 =  2 1 0  0 1 0  =  2 1 0  4 0 1 0 3 1 4 3 1  percebemos outro fato fantástico: para obter o produto L. basta trocar os sinais dos elementos não nulos abaixo da diagonal principal. Agora. As matrizes E1 e E2 nas multiplicações acima são elementares  1 0 0 E1 =  −2 1 0  −4 0 1 e pode-se verificar que −1 E1   e  1 0 0 E2 =  0 1 0  0 −3 1  1 0 0 = 0 1 0  0 3 1    1 0 0 = 2 1 0  4 0 1  e −1 E2 Oberve um fato interessante: para obter as inversas de E1 e E2 . Para provar esta afirmação baseando-nos no livro de Trefethen e Bau. Antonio Cândido Faleiros Efetuando o produto     1 0 0 1 2 0 1 2 0 E1 A =  −2 1 0   2 1 5  =  0 −3 5  −4 0 1 4 −1 13 0 −9 13  21 obtemos uma matriz cujos elementos abaixo da diagonal principal da primeira coluna são iguais a zero. basta calcular a in−1 −2 versa L = E1 E2 . 4 3 1 0 0 −2  O fato ocorrido no cálculo de L do exemplo anterior não é fortuito e sim um resultado geral. Para chegar à decomposição LU.Notas de aula do Prof. efetuando o produto     1 0 0 1 2 0 1 2 0 E2 E1 A =  0 1 0   0 −3 5  =  0 −3 5  0 −3 1 0 −9 13 0 0 −2 obtemos a forma escalonada de A. . Agora tem-se a decomposição LU de A   1 0 0 1 2 0 A =  2 1 0   0 −3 5  . basta colocar na matriz iden−1 −1 tidade os elementos não nulos de E1 e E2 nos seus devidos lugares. Em seguida.

2  1 . Façamos a segunda transformação   x x x x  0 x x x   L2 L1 A =   0 0 x x  0 0 x x  x x  =U x  x da segunda coluna.24 A decomposição LU de   0 1   4  6 2 1 1 0 zerando os elementos abaixo da diagonal principal a terceira transformação. vamos descrevê-lo para matrizes quadradas A pertencentes a Cm×m . Vejamos um caso concreto. Exemplo 1.22 Notas de aula do Prof. Façamos a  x x  0 x L1 A =   0 x 0 x As matrizes L e U da decomposição LU de A podem ser obtidas pelo método de eliminação de Gauss. O negrito indica os elementos que foram modificados na transformação.  x x x  0 x x L3 L2 L1 A =   0 0 x 0 0 0 zerando os elementos abaixo da diagonal principal da primeira coluna. com é 1  2 A=  1 0  1  2 A=  1 0 0 1 2 3 0 0 1 1 3 7 5 3 2 5 5 4  0 1 3  0 1 0  0  0 0 1 0 0  0 1  . Finalmente. Como é raro aplicar este método a matrizes retangulares. obtendo assim a matriz U. Considere a matriz   x x x x  x x x x   A=  x x x x  x x x x primeira transformação  x x x x   x x  x x zeramos o elemento abaixo da diagonal principal da terceira coluna. Antonio Cândido Faleiros onde o x indica números quaisquer.

L2 e L3 trocando o sinal dos elementos não nulos abaixo da diagonal principal. para j = k + 1. L−1 e L−1 simplesmente colocando na matriz identidade os 1 2 3 termos não nulos dessas três matrizes em suas respectivos posições. xm.   .  → Lk xk =    0    . .   xkk xk =   xk+1. 0   xjk xkk Para obter este efeito.       xkk  . L3 =   0 0 1 0  1 0 0 −1  0 0   .  .k  .  . subtraímos λjk = . m. . A transformação Lk deve ser escolhida de modo que x1k  .Notas de aula do Prof.   0 0  0 1 0 1 0 0 0 0 1 1 e podem ser obtidas de L1 . . L2 e L3 são 1  2   1 0 0 1 0 0 0 0 1 0 0 1 2 3 0 0 1 0   1 0  0  0  .  . Denote por xk a coluna k de X no início do passo k. . L2 =   0 −2 0  1 0 −3   1 0  0  0  . Fórmulas gerais e dois golpes de sorte Seja A uma matriz m × m e denote por X a matriz obtida depois de k − 1 passo de eliminação.   0 0  0 1 0 0 1 0   0 1 0 0   0 1 0 0  . . Ainda 1  2 =  1 0  0 1 2 3 0 0 1 1  0 0   0  1 L = L−1 L−1 L−1 1 2 3 é obtido a partir de L−1 .k   x1k   . 0  1  0 0   0  1 23 As inversas de L1 . Antonio Cândido Faleiros que foi obtida multiplicando A pela esquerda por 1  −2 L1 =   −1 0   0 1 0 0 0 0 1 0   0 1 0   0 1 0  . .  .    .

k 1 λk+2.   . . 1 λk+1..k λk+2. . Nos exemplos anteriores observamos dois golpes da sorte: 1.k            L−1 L−1 k k+1      =     .k+1 1 . Lk = 1 −λk+1. . k k k k L−1 = I + λk e∗ . k k Para o segundo golpe de sorte. .   ... 2.  λk+1. . Antonio Cândido Faleiros vezes a linha k da linha j.k+1 1 λm. segue k k k+1 L−1 L−1 = (I + λk e∗ )(I + λk+1 e∗ ) = I + λk e∗ + λk+1 e∗ k k+1 k k+1 k k+1 que escrita por extenso é  1 . . argumentamos como segue. λm.. por exemplo. λm. A forma da matriz Lk é 1 ... Das definições k de λk e ek obtemos e∗ λk = 0 k e mostrando que a inversa de Lk é (I − λk e∗ )(I + λk e∗ ) = I − λk (e∗ λk )e∗ = I.  . ..24 Notas de aula do Prof. .k Então Lk = I− λk e∗ . o produto L−1 L−1 . Podemos reunir esses pedaços de boa fortuna como segue.     0  λk =  . Considere. .k   .k .. 1 −λm. A inversa de Lk é obtida trocando os sinais dos elementos abaixo da diagonal. A matriz L = L−1 L−1 · · · L−1 pode ser formada coletando as entradas de λjk nos 1 2 m−1 locais apropriados. Seja   0 .  .k 1 . Como e∗ λk+1 = 0. onde ek é a coluna k da matriz identidade m × m.

. Defina y = Ux.k) * U(k. Antonio Cândido Faleiros 25 Esta matriz é triangular inferior sendo obtida a partir da matriz identidade substituindo os elementos abaixo da diagonal principal das coluna k e k + 1 pelos elementos de L−1 e k L−1 inseridas em seus lugares usuais abaixo da diagonal.m−1 1 xjk xkk são os multiplicadores necessários para anular os elementos abaixo da diagonal da matriz X = Ek−1 · · · E1 A. Ux = y para obter a solução do sistema original. em seguida.k:m) = U(j.k)/U(k. for k = 1:m-1 for j = k+1:m L(j.L(j.k) = U(j. A primeira etapa... O segundo e o terceiro.  . . exige ∼ 2 m3 flops. .k:m) . 3 onde . obtemos   1  λ21  1    λ31 λ32 1  L = L−1 L−1 · · · L−1 =   1 2 m−1  . ===================================== U = A e L = I. end end ===================================== Neste algoritmo podemos usar uma única matriz para armazenar L e U se abrirmos mão de gravar a diagonal de L cujos elementos são unitário. Se a matriz A não for mais necessária. Quando tomamos o produto k+1 de todas estas matrizes para formar L. . resolva Ly = b e.k:m). para a fatoração A = LU. λm1 λm2 · · · λm. .. podemos usá-la para gravar L e U.Notas de aula do Prof. U(j.  .  .k). Solução Ax = b por fatoração LU Dada a decomposição A = LU. o sistema Ax = b é equivalente a LUx = b. Tais fatos geram o seguinte algoritmo λjk = ===================================== Algoritmo da eliminação gaussiana sem pivotamento ===================================== Entrada: A Saída: U e L.

então ˜ E = P EP é uma matriz com os elementos das linhas i e j da coluna k permutados de seus lugares. a resolução pelo método de Gauss. 1  0 A segunda permutação é a transformação elementar E(l2 ←→ l4 ). 3 A resolução usando refletores de Householder. Entretanto. a inversa de E(li ←→ lj ) é ela mesma. a matriz B = 0 1 1 1 possui uma decomposição LU · ¸· ¸ 1 0 1 1 B= . Exemplo 1. Qual seria a vantagem da fatoração QR sobre a fatoração LU? 1. usa ∼ 4 m3 3 flops. exigem ∼ m2 flops. O produto de duas matrizes de permutação é uma matriz de permutação e a inversa de uma matriz de permutação é uma matriz de permutação. Dessa forma. a não ser pelo fato de a coluna k possuir elementos não nulos abaixo da diagonal principal. Toda matriz de permutação é o produto de matrizes elementares deste tipo. Uma matriz de permutação é aquela obtida a partir da matriz identidade mediante uma permutação qualquer de suas linhas. Se k < i < j. que veremos posteriormente. A matriz elementar E(li ←→ lj ) obtida da identidade pela permutação das linhas i e j pertence a esta classe.25 São matrizes de permutação   1 0 0 0  0 0 0 1     0 0 1 0  0 1 0 0  0  1   0 0 0 0 0 1 1 0 0 0  0 0  . Seja E a matriz elementar que. Antonio Cândido Faleiros para resolver os sistemas triangulares Ly = b e Ux = y. exige ∼ 2 m3 flops.26 Notas de aula do Prof. Exemplo 1.26 Sejam   0 1   0  0   0 0   0  1 1  0 P =  0 0 0 0 0 1 0 0 1 0 e 1  2 E=  3 4 0 1 0 0 0 0 1 0 . Como tivemos a oportunidade de destacar. Seja P uma matriz de permutação obtida da identidade permutando as linha i e j. é a identidade. 0 1 0 1 Sempre é possível permutar as linhas de uma matriz A de modo que a matriz assim obtida possui uma decomposição LU.12 Decomposição PLU Nem sempre uma matriz A possui uma decomposição LU e um exemplo clássico é ¸ ¸ · · 1 1 0 1 obtida de A pela permutação das linhas .

No passo seguinte. O produto P AP é igual a   1 0 0 0  4 1 0 0     3 0 1 0 . Troca-se esta linha com a linha k e este elemento de maior módulo passa a ser o pivô da linha k. Esta troca de linhas é denominada de pivotamento parcial. . para evitar instabilidade numérica. dentre os elementos abaixo da diagonal principal. A entrada xkk da matriz X é chamado de pivô da coluna k. k) mediante a troca de linhas e colunas. No pivotamento parcial. . i = 2 e j = 4.k:m e o coloca na posição (k. realiza-se uma permutação para posicionar o pivô da coluna no local correto para. obtida pelo método da eliminação de Gauss com pivotamento. múltiplos da linha k são subtraídas das linhas k +1. em seguida. Seja X a matriz obtida no processo de eliminação Gaussiana depois de zerados os elementos abaixo da diagonal principal das k − 1 primeiras colunas. . Neste caso. k = 1. m da matriz X com a qual se está trabalhando. onde P é a matriz de permutação obtida da identidade pela troca das linhas 2 e 4 e E é a matriz elementar com elementos não nulos fora da diagonal principal da primeira coluna. aplica-se a X uma transformação elementar para zerar os elementos da coluna k abaixo da diagonal principal. prefere-se o pivotamento parcial. Fato interessantíssimo. em cada etapa. procura-se naquela coluna. Seguiremos o tratamento de Trefethen e Bau. Prosseguindo o processo de eliminação. xkk pode ser nulo ou muito pequeno quando comparado aos demais elementos daquela coluna abaixo da diagonal. o de maior módulo. aplicar uma matriz elementar para zerar os elementos abaixo Vamos descrever a decomposição P LU. Neste caso. para introduzir zeros nas entradas k dessas linhas. Devido à dificuldade de gerenciar a troca de colunas e ao trabalho computacional para se encontrar o pivô. 2 0 0 1 Entretanto. .       xjk ∗ ∗ ∗ xjk ∗ ∗ ∗ xkk ∗ ∗ ∗      ∗ ∗ ∗ ∗   P1  ∗ ∗ ∗ ∗  L1  0 ∗ ∗ ∗    xjk ∗ ∗ ∗  −  xkk ∗ ∗ ∗  −  0 ∗ ∗ ∗  → → 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ Este algoritmo pode ser expresso como um produto de matrizes. Antonio Cândido Faleiros 27 Esta matriz pode ser obtida de A permutando os elementos das linhas 2 e 4 da coluna 1. Há um processo conhecido por pivotamento onde se toma por pivô o elemento de maior módulo na submatriz Xk:m.     xkk x x x xkk x x x   x x x x    → 0 x x x   0 x x x   x x x x  x x x x 0 x x x .Notas de aula do Prof.

7 7 0 0 −6 −2 7 7   . Antonio Cândido Faleiros da diagonal principal da coluna k. 9 5  9 8 Para o pivotamento parcial.  .   . trocamos a  1 0 0  0 0 0   0 0 1 0 1 0 terceira coluna calculando  9 5 3 1  .27 Considere a matriz (exemplo  2 1  4 3 A=  8 7 6 7 Lm−1 Pm−1 · · · L2 P2 L1 P1 A = U. −5 −5  4 4 9 4 17 4 Agora permutamos  1  0   0 0 Efetuamos a segunda  1 0  0 1   0 3 7 0 2 7 Finalmente. até transformar A numa matriz U triangular superior Exemplo 1. efetuamos a última eliminação: L3 P3 L2 P2 L1 P1 A =     8 7 9 5 1 0 0 0 8 7 9 5 17  17  0 7 9  0 1 0 0  0 7 9 4 4 4  4 4 4     0 0 1 0   0 0 −6 −2  =  0 0 −6 −2 7 7 7 7 4 2 0 0 −1 1 0 0 −2 7 0 0 0 3 7 3 a terceira linha  0 0 0 8 1 0 0  0  0 0 1  0 0 1 0 0 eliminação: L2 P2 L1 P1 A =  8 7 9 5 0 0 9 17 0 0  0 7 4 4 4  1 0   0 −3 −5 −5 4 4 4 0 1 0 −1 −3 −3 2 2 2 segunda com a quarta linha: P2 L1 P1 A =    8 7 9 5 0 8 7 9 5 9 17   0 −1 −3 −3   0 7 1  2 2 2  =  4 4 4 0   0 −3 −5 −5   0 −3 −5 −5 4 4 4 4 4 4 9 17 0 0 7 0 −1 −3 −3 4 4 4 2 2 2    com a quarta: P3 L2 P2 L1 P1 A =   8 7 9 5 7 9 5 7 9 17  17  0 7 9 4 4 4  =  4 4 4 4 0 −2 7   0 0 −6 −2 7 7 7 4 0 −6 −2 0 0 −2 7 7 7 7  8 7 9 5 17    0 7 9 4 4 4  =   0 0 −2 4  . Este processo pode ser repetido coluna a coluna.    . copiado)  1 0 3 1  . 1 0  9 8  9 5 −3 −3  2 2 .28 Notas de aula do Prof. permutamos a primeira com a P1 A =     8 7 0 0 1 0 2 1 1 0  0 1 0 0  4 3 3 1   4 3      1 0 0 0  8 7 9 5  =  2 1 6 7 0 0 0 1 6 7 9 8 Agora efetuamos o primeiro passo de eliminação: L1 P1 A =     8 7 1 0 0 0 8 7 9 5  −1 1 0 0   4 3 3 1   0 −1 2    2   −1 0 1 0   2 1 1 0  =  0 −3 4 4 6 7 9 8 −3 0 0 1 0 7 4 4 Em seguida.

Qualquer matriz quadrada A. onde P é uma matriz de permutação. Esta fatoração é conhecida por fatoração P LU de A. possui uma fatoração deste tipo. Seja A uma matriz m × m e X = Ek Pk · · · E1 P1 A = Ek · · · E1 Pk · · · P1 A. como na eliminação Gaussiana sem pivotamento. Podemos associar este produto ˜ ˜ ˜ L3 P3 L2 P2 L1 P1 = L3 (P3 L2 P3 )(P3 P2 L1 P2 P3 )(P3 P2 P1 ) = (L1 L2 L3 )(P3 P2 P1 ) onde ˜ ˜ ˜ L3 = L3 . Assim podemos escrever L3 P3 L2 P2 L1 P1 = L3 P3 L2 (P3 P3 )P2 L1 (P2 P3 P3 P2 )P1 onde acrescentamos algumas matrizes ao produto e foram colocadas entre parêntesis. Na prática. L = P3 L2 P3 . Note que elas são iguais à matriz identidade. P2 e P3 são suas próprias inversas. multiplique a matriz A por uma matriz de permutação P e calcule a decomposição LU de A. singular ou não. . Basta trocar o sinal das entradas abaixo da diagonal. Escrevendo ˜ ˜ ˜ L = (Lm−1 · · · L2 L1 )−1 temos P A = LU. a fatoração fornecida pela eliminação Gaussiana com pivotamento parcial pode ser escrita na forma ˜ ˜ ˜ (Lm−1 · · · L2 L1 )(Pm−1 · · · P2 P1 )A = U. −1 −1 ˜ Lk = Pm−1 · · · Pk+1 Lk Pk+1 · · · Pm−1 . e P = Pm−1 · · · P2 P1 . L1 permutando elementos abaixo da diagonal principal. L é uma matriz triangular inferior com elementos unitários na diagonal principal e U é triangular superior. Antonio Cândido Faleiros Um terceiro golpe de sorte na fatoração P LU 29 Todos os elementos de L abaixo da diagonal principal são menores ou iguais a 1 pois o pivô de cada linha é escolhido de modo a tornar |xkk | = {|xjk | : k ≤ j ≤ m} Analisemos a decomposição de uma matriz A de tamanho 4 × 4 que toma a forma L3 P3 L2 P2 L1 P1 A = U As matrizes P1 . para uma matriz m × m. L2 . Vamos descrever um procedimento que justifica o algoritmo que vamos descrever ˜ ˜ abaixo. Para obter a fatoração P LU de A. onde ˜ O produto das matrizes Lk é triangular inferior com elementos unitários na diagonal principal e facilmente invertível. Em geral. não é assim que se procede pois não se conhece P a priori. L = P3 P2 L1 P2 P3 são matrizes elementares obtidas de L3 .Notas de aula do Prof.

˜ ˜ Lembramos que P EP é triangular inferior e é a matriz E onde se permutou a parte não nula das linhas i e k + 1. o processo não terminou e X. Neste caso. Desta ˜ forma. nos esquecer da permutação P e escrever esta decomposição na forma A = LU de modo que LU = A = AT = U T LT .:) for j = k+1:m L(j. Vamos escrever X = E A onde E = Ek · · · E1 e A = Pk · · · P1 A. sempre que se aplica uma permutação à matriz A se deve efetuar uma permutação ˜ correspondente na matriz E. L = I. uma permutação P A dessa matriz tem uma decomposição P LU.k:m) .k) U(j.k:m) end end ============================= 1. Este comentáriio justifica o algoritmo da eliminação Gaussiana com pivotamento parcial descrito abaixo. A próxima etapa consiste em aplicar uma permutação P que trocará uma linha i de X com sua linha k + 1 para posicionar o pivô da coluna no local correto.k:m) e U(i. Se k < m − 1.k) = U(j.1:k-1) e L(i. não é triangular superior. P = I for k = 1:m-1 Selecione na coluna k a linha i na qual |u(i. Antonio Cândido Faleiros ˜ onde Pi são matrizes de permutação que posicionam o pivô no lugar correto e Ei são matrizes elementares que zeram as entradas abaixo da diagonal da coluna i de Pk · · · P1 ˜ ˜ ˜ ˜ ˜ ˜ A.k:m) Permute as linhas L(k. ¡ ¢−1 = L−1 U T = D U LT .:) e P(i. em geral. situadas abaixo da diagonal ficam permutadas.30 Notas de aula do Prof. Podemos usar este fato para escrever ˜˜ ˜ ˜ ˜ ˜ P X = P E A = P E(P P )A = (P EP )(P A). Vamos.k)| eh maximo Permute as linhas U(k.1:k-1) Permute as linhas P(k. i > k + 1.L(j.13 Decomposição de Cholesky Se a matriz A for simétrica e inversível. Como L e U são inversíveis.k)*U(k. A inversa de P é P e assim P P = I. Algoritmo da eliminação Gaussiana com pivotamento parcial ============================= U = A.k) / U(k.k:m) = U(j. num primeiro momento.

Notas de aula do Prof. 0 −1 2 0 −2/3 1 0 0 4/3 0 0 1  Definição 1.28 Considere a decomposição A = LU abaixo     2 −1 0 1 0 0 2 −1 0  −1 2 −1  =  −1/2 1 0   0 3/2 −1  0 −1 2 0 −2/3 1 0 0 4/3   2 0 0 −1 T  0 3/2 0  obtemos a decomposição LDLT Sendo D = L U = 0 0 4/3       2 −1 0 1 0 0 2 0 0 1 −1/2 0  −1 2 −1  =  −1/2 1 0   0 3/2 0   0 1 −2/3  . Exemplo 1. cujos elementos da diagonal principal são iguais aos elementos da diagonal de U.   √   √  2 p0 0 2 0 0 1 0 0 p p 1 0  0 M =  −1/2 3/2 p0  =  − 1/2 3/2 p0  . 2 3 √ √ 2 2 0 0 3 3 3 3 A decomposição de Cholesky de A é . Como os elementos da diagonal principal de L são iguais a 1. Neste caso. Assim.29 Uma matriz simétrica A é positiva definida se os elementos diagonais de D na decomposição A = LDLT forem todos maiores do que zero. Antonio Cândido Faleiros 31 ¡ ¢−1 é diagonal pois U LT é triangular superior e L−1 U T é triangular inferior. p 0 −2/3 1 4/3 4/3 0 0 0 − 2/3    √ 2 0 2 −1 0 √ √  −1 2 −1  =  − 1 2 1 6 2 2 √ 0 −1 2 0 −1 6 3 √  √  0 2 −1 2 0 2 √ √ 1 0  0 6 −1 6  . D = diag(U) onde diag(U) é uma matriz diagonal. No exemplo acima. podemos √ √ calcular a matriz D e definir M = L D. para assim obter a decomposição A = MM T denominada de decomposição de Cholesky da matriz A. U = DLT e obtemos a decomposição A = LDLT onde L é triangular inferior cujos elementos diagonais são iguais a 1 e D = L−1 U T é diagonal.

Antonio Cândido Faleiros .32 Notas de aula do Prof.

4. Comutativa: v + w = w + v. 2. Definimos a diferença v − w (leia-se v menos w) entre os vetores v e w por v + (−w). O vetor −v é denominado oposto de v e 0 é o vetor nulo ou vetor zero. com essas operações é denominado de espaço vetorial sobre o corpo K se. 5.1 Conceito de espaço vetorial Seja K um corpo e V um conjunto não vazio. 1v = v. Associatividade: (αβ)v = α(βv). Distributividade: (α + β)v = αv + βv. 7. Associativa: (u + v) + w = u + (v + w). 3. w de V e todo α. 33 . Distributividade: α(v + w) = αv + αw. β de K. Denotaremos a adição de v e w por v + w e a multiplicação de k e v por kv. 8. Os elementos de V são chamados vetores e os elementos de K de escalares. sendo uma a adição de vetores e a outra a multiplicação de um elemento do corpo K por um elemento de V. se verificarem as propriedades 1. v. para todo u. Elemento unitário: A multiplicação do elemento unitário 1 de K pelo elemento v de V é igual a v.Capítulo 2 Espaço vetorial 2. Elemento oposto: Dado v em V existe um elemento denotado por −v e tal que v + (−v) = (−v) + v = 0. O elemento v + w é o vetor soma de v com w e o elemento αv é o produto de α por v ou ainda que αv é um múltiplo de v. Elemento neutro: Existe um elemento de V denotado por 0 tal que 0+v = v +0 = v. isto é. onde definimos duas operações. 6. O conjunto V. Sejam v e w dois elementos de V e k um elemento do corpo K.

x2 . x2 + y2 . αx2 . O espaço vetorial {0} que contém apenas o vetor nulo é denominado de espaço vetorial trivial. . . .2 O conjunto Rm×n das matrizes m × n com elementos reais munido com as operações de adição de matrizes e multiplicação de um número complexo por uma matriz é um espaço vetorial sobre o corpo dos números reais.5 O conjunto de todos os polinômios com coeficientes reais. xn + yn ) e a multiplicação de um número real por uma ênupla ordenada é definida por α(x1 . . αxn ). O zero deste espaço vetorial é a matriz nula e o elemento oposto (inverso aditivo) de A = [aij ] é −A = [−aij ].4 O conjunto de todos os polinômios de grau menor ou igual a n. . . . . . y2 . . é um espaço vetorial sobre o corpo dos reais. O conjunto de todos os polinômios com coeficientes complexos com as operações acima é um espaço vetorial sobre o corpo dos números complexos. O zero deste espaço vetorial é a matriz nula e o elemento oposto (inverso aditivo) de A = [aij ] é −A = [−aij ].34 Notas de aula do Prof. . y2 . . . Exemplo 2. . Quando V for um espaço vetorial sobre o corpo dos números reais. . Quando se diz que V é um espaço vetorial sobre o corpo K entenda-se que está implícito a existência das operações de adição de vetores e multiplicação de um escalar por um vetor. x2 . . diremos que V é um espaço vetorial complexo. . .6 O conjunto C[a. yn ) são iguais se x1 = y1 . yn ) = (x1 + y1 . O conjunto dos polinômios de grau menor ou igual a n com coeficientes complexos com as operações acima é um espaço vetorial sobre o corpo dos números complexos. Exemplo 2. munido com as operações de adição de matrizes e multiplicação de um número complexo por uma matriz é um espaço vetorial sobre o corpo dos números complexos. Exemplo 2. b] = {f : [a. .1 Seja Rn o conjunto de todas as ênuplas ordenadas (x1 . . xn ) de números reais. Antonio Cândido Faleiros Em nosso curso. . . . . Duas ênuplas ordenadas (x1 . que denotaremos por Cm×n . munido com as operações de adição de polinômios e multiplicação de um número real por um polinômio. . Define-se a operação de adição em Rn por (x1 . . . xn = yn . xn ) + (y1 . . x2 . . omite-se a referência ao corpo K e se diz apenas que V é um espaço vetorial. é um espaço vetorial sobre o corpo dos reais. xn ) = (αx1 . . . b] → R : f é contínua} com as operações de adição de funções e multiplicação de um número real por uma função é um espaço vetorial sobre R. com coeficientes reais. Exemplo 2. Exemplo 2. o corpo K será o corpo R dos números reais ou o corpo C dos números complexos. Exemplo 2. x2 . . Quando V for um espaço vetorial sobre o corpo dos números complexos. diremos que V é um espaço vetorial real. Quando o contexto permitir. munido com as operações de adição de polinômios e multiplicação de um número real por um polinômio. . . .3 O conjunto das matrizes m por n com elementos complexos. xn ) e (y1 . x2 = y2 . O Rn com as operações de adição de duas ênuplas ordenadas e multiplicação de um escalar por uma ênupla é um espaço vetorial sobre os reais. . .

2 Dependência linear (x. α2 e α3 forem escalares tais que α1 (1. y) = x(1. O vetor α1 v1 + · · · + αn vn é uma combinação linear dos vetores v1 . 1) = (0. . vn . . 1). 3) = 2(1. . Antonio Cândido Faleiros 35 2. . . Todo elemento (x. . . . vp } que contém o vetor nulo é linearmente dependente pois 1 · 0 + 0v1 + · · · + 0vp = 0. 1) + α3 (0. y) do R2 pode ser decomposto na seguinte soma Esta maneira de decompor um vetor é muito utilizada em Álgebra Linear. . 0) + y(0. . vn vetores do espaço vetorial V e escalares α1 . diremos que o conjunto {v1 . vn são linearmente dependentes. 0. . vn } um subconjunto finito de V. Este conjunto é linearmente dependente se existirem escalares α1 . 0) então α1 + 0α2 + 0α3 = 0 2α1 + α2 + 0α3 = 0 3α1 + α2 + 2α3 = 0 cuja única solução é α1 = α2 = α3 = 0. . 2. . . (1. 2. Seja {v1 . (0. 0)+ 3(0. Exemplo 2. 0) for a única para a qual α1 v1 + · · · + αn vn = 0. . Também se diz que os vetores v1 . . 0) − 7(0. . 7). . . . . . 2) = (0. 1) pois (2. 1. 1). 1. 3). . . . . . Notem que a igualdade acima se verifica para α1 = · · · = αn = 0. . Sejam v1 . . 3) + α2 (0. . 0. . 7) − 5(1. vn } é linearmente independente ou que os vetores v1 . . 0) e (0. 0.7 O vetor (2. Exemplo 2. αn ) = (0.Notas de aula do Prof. De fato. 0). (0. 1) } de vetores do R2 é linearmente dependente pois 1(5. . .8 O conjunto S = { (5. . se α1 . . . . . . . Se a ênupla (α1 . . O conjunto { (1. Todo conjunto {0. 2) } de vetores do R3 é linearmente independente. 3) do R2 é uma combinação linear dos vetores (1. 0). nem todos nulos tais que α1 v1 + · · · + αn vn = 0. (0. αn . αn . . vn são linearmente independentes. 1). v1 . .

. . . 0) + 7(0.9 Um conjunto {v1 . vn } for linearmente dependente. 1) = (0.10 Seja S um conjunto finito de vetores. . vn }. 7) = 5(1. (1. 1) } de vetores do R2 que se expressa por 1(5. . Esta igualdade também implica na dependência linear de S = { (5. Se S for linearmente dependente. Antonio Cândido Faleiros Observe que. Se {v1 . . 1 1 Se v1 for uma combinação linear de v2 . . αn . 0). . Se S for linearmente independente. 1. 0) − 7(0. . Supondo α1 6= 0 (se α1 = 0. . Tal fato é enunciado de modo geral no próximo teorema. Prova. nem todos nulos. . Proposição 2. (1. 2. . . 1). . 7) como uma combinação linear dos vetores (1. . 1) }. . a dependência linear do conjunto S = { (5. . 7). vn } é linearmente dependente. vn } de vetores de um espaço vetorial V é linearmente dependente se e só se um dos seus elementos for combinação linear dos demais. implica na possibilidade de escrever (5. vn . 0). qualquer subconjunto de S será linearmente independente. . tais que α1 v1 + · · · + αn vn = 0. 0) e (0. 0). . Seja S = {v1 . então existem escalares β 2 . . (0. Todo subconjunto de um conjunto de vetores linearmente independente é linearmente independente. (0. . β n tais que v1 = β 2 v2 + · · · + β n vn e mostrando que {v1 . . . vn ¡ ¡ ¢ ¢ v1 = −α−1 α2 v2 − · · · −α−1 αn vn .36 Notas de aula do Prof. . ¤ v1 + (−β 2 ) v2 + · · · + (−β n ) vn = 0. 7). Prova. Todo conjunto que contém um subconjunto linearmente dependente é linearmente dependente. . . . . qualquer conjunto finito de vetores que o contém também será linearmente dependente. existem escalares α1 . . . . 1) (5. . 7) − 5(1. Proposição 2. . basta permutar os vetores do conjunto para trazer o coeficiente não nulo para a primeira posição) podemos escrever v1 como combinação linear de v2 .

Qualquer par ordenado (x. Antonio Cândido Faleiros 37 1. 0) } gera o R2 pois podemos escrever um par ordenado (x. Se w1 . αn nem todos nulos tais que α1 v1 + · · · + αn vn = 0. ¤ 2. 0) + (y − 2x)(0.11 O conjunto B = {(1. 2) + x(1. . . . então α1 v1 + · · · + αn vn + 0w1 + · · · + 0wm = 0 provando que S 0 é linearmente dependente. 2) + 0(1. (1. . Se todo elemento de V for uma combinação linear dos elementos de B. . Que diferença existe entre os conjuntos geradores dos exemplos acima? O primeiro é linearmente dependente e o segundo é linearmente dependente. o modo de escrever (x. 0). . wm forem os elementos de S 0 que não pertencem a S. y) como combinação linear dos elementos de B é única. 1) + (y − x)(1. Logo S 0 é linearmente independente. 0) + y(0. . . 1)} gera o R2 .13 Um conjunto finito de vetores linearmente independente e que gera V é uma base de V. diremos que B gera V. . (0. existem escalares α1 . 2). Se S for linearmente dependente. 0). 1). y) = x(2. . Neste exemplo. vn } um conjunto finito de vetores em V. Seja S 0 um conjunto finito que contém S. S também o seria pela primeira parte. Neste exemplo. (1. 1). o modo de escrever (x. . y) como combinação linear dos elementos de B não é única. y) pode ser decomposto nas combinações lineares (x. y) qualquer como combinação linear desses dois vetores (x. y) = x(1. Exemplo 2. Se S 0 fosse linearmente dependente.12 O conjunto B = {(2. Exemplo 2. Definição 2. 2. 1) ou (x. Se S for linearmente independente.3 Base e dimensão Seja B = {v1 .Notas de aula do Prof. y) = 0(1. seja S 0 um subconjunto de S. . .

. . . 1). Se αi 6= 0. . . . . . . vi+1 . vn } uma base ordenada de um espaço vetorial V. então {v1 . . xi = yi para i = 1. Se v = x1 v1 + · · · + xn vn e v = y1 v1 + · · · + yn vn forem duas decomposições de v nos elementos da base B. . . . . en = (0. Assim. . e2 = (0. A ordem em que seus elementos são escritos é relevante. O espaço vetorial de todos os polinômios com coeficientes complexos não possui base no sentido definido neste texto. 0). . . . . ¤ . que v2 é o seu segundo elemento. para cada vetor v em V existem escalares α1 . . Os vetores α1 v1 . . . . então x = x1 e1 + · · · + xn en . .15 Considere as ênuplas e1 = (1. e. . . .17 Seja {v1 . . 0. e2 . . . . αn vn são denominados de componentes do vetor v na base B. Exemplo 2. x2 } é uma base do espaço vetorial dos polinômios de grau menor ou igual a dois com coeficientes complexos. en } é uma base tanto do Rn quanto do Cn e é chamada de base canônica. . . vn } também é base. xn ). . . .16 O conjunto {1. . . Uma base ordenada B = {v1 . 0). Lema 2. . vn } uma base de V e w = α1 v1 + · · · + αn vn . e assim por diante. os escalares α1 . . . . Antonio Cândido Faleiros Uma base B = {v1 . w. . . 1. vn } é aquela em que se estabelece que v1 é o seu primeiro elemento. Todas as bases de um espaço vetorial possuem o mesmo número de elementos. x. . Isto significa que as coordenadas de x na base canônica são exatamente os elementos da ênupla x. . Exemplo 2. como provaremos em seguida. . . Seja B = {v1 . v2 . Se x = (x1 . . onde ek é a linha k da matriz identidade n × n. da independência linear dos vetores da base. . . .14 A matriz das coordenadas de um vetor numa base ordenada é única. αn ]T é a matriz das coordenadas de v na base B. O contexto indicará a necessidade de ser a base ordenada ou não. Não existe conjunto finito de polinômios que gera todos os demais.38 Notas de aula do Prof. . . . . então 0 = v − v = (x1 − y1 )v1 + · · · + (xn − yn )vn De ora em diante. . n. . Precederemos o teorema principal por três lemas. vn } gera V. . Prova. 0. O conjunto de vetores {e1 . . αn tais que v = α1 v1 + · · · + αn vn . Nem todo espaço vetorial possui uma base tal como se definiu acima. que não seria capaz de gerar os polinômios de grau superior ao polinômio de grau máximo do conjunto. Proposição 2. αn são as coordenadas de v na base B e a matriz coluna [v]B = [α1 . . uma base ordenada será chamada simplesmente de base. . vi−1 . . Todo conjunto finito de polinômios tem um polinômio de grau máximo.

Como w1 6= 0. v2 . . . . vn }. . então w2 = c12 w1 . . portanto. . . . cn2 não podem ser todos nulos. vn } de modo que. . v2 . vn } é linearmente independente. . . wn } um conjunto linearmente independente com n vetores de V. k1 = 0 e a combinação linear k1 w+ k2 v2 + · · · + kn vn = 0 se reduz a k2 v2 + · · · + kn vn = 0. xn tais que v = x1 v1 + x2 v2 + · · · + xn vn = x1 (β 1 w + β 2 v2 + · · · + β n vn ) + x2 v2 + · · · + xn vn = (x1 β 1 )w + (x1 β 2 + x2 )v2 + · · · + (x1 β n + xn )vn . Se α1 = 0. . então k1 (α1 v1 + α2 v2 + · · · + αn vn ) + k2 v2 + · · · + kn vn = 0 ou k1 α1 v1 + (k1 α2 + k2 )v2 + · · · + (k1 αn + kn )vn = 0 com k1 α1 6= 0. . . . . . v2 . k2 . Todo conjunto linearmente independente com n elementos é base de V. obtemos k2 = · · · = kn = 0. . vn } é base e podemos escrever w2 = c12 w1 + c22 v2 + · · · + cn2 vn . x2 . . . . podemos explicitar v1 na igualdade w = α1 v1 +· · ·+αn vn para obter v1 = 1 α2 αn w − v2 − · · · − vn = β 1 w + β 2 v2 + · · · + β n vn . . . . . . . {w1 . Os coeficientes c22 . vn } que. . Se k1 6= 0. provaremos o teorema supondo α1 6= 0. bastaria reordenar a base {v1 . Para simplificar. Prova. vn } gera V. . c11 6= 0). Logo. .Notas de aula do Prof. . . . v2 . . . kn escalares tais que k1 w+ k2 v2 + · · · + kn vn = 0. . . . pelo menos um dos coeficientes desta combinação linear é diferente de zero. . . Sendo α1 6= 0. vn } gera V. . . Pelo lema anterior. . . .18 Seja {v1 . podemos reordenar os elementos da base para trazer para a primeira posição uma componente de w diferente de zero. . wn } ser linearmente . se todos eles fossem nulos. é base de V. . Podemos supor que c11 6= 0 (se o c11 fosse nulo. provando a independência linear de {w. . nesta nova ordem. provando que o conjunto {w. . v2 . v2 . . Sendo v um vetor qualquer de V. Vamos provar que {w. Seja {w1 . Antonio Cândido Faleiros 39 Prova. o que contraria a hipótese de o conjunto {w1 . . Pode-se decompor w1 na base {v1 . ¤ Lema 2. α1 α1 α1 Vamos provar que {w. . . . vn } ser base de V. vn } uma base com n elementos do espaço vetorial V. De fato. . Sejam k1 . o que contraria o fato de {v1 . Da independência linear do conjunto {v2 . . . existem escalares x1 . vn } e escrever w1 = c11 v1 + · · · + cn1 v1 . v2 . . . .

substituímos todos os elementos da base {v1 . . Podemos decompor cada elemento de B2 numa combinação linear dos elementos de B1 v1 = p11 u1 + p21 u2 + · · · + pn1 un v2 = p12 u1 + p22 u2 + · · · + pn2 un ··· vn = p1n u1 + p2n u2 + · · · + pnn un . . ¤ Lema 2. aquele que contém apenas o vetor nulo. provando que {w1 . diremos que ele possui dimensão finita e que o número de elementos das bases é a sua dimensão.4 Matriz de mudança de base Seja V um espaço vetorial complexo de dimensão finita n > 0. . . é zero. De fato. então todo conjunto de vetores em V com mais de n elementos é linearmente dependente. . w2 . . . w2 . v3 . Prova. sem perda de generalidade. qualquer subconjunto dele com n elementos seria base e os vetores restantes seriam combinações lineares desses n selecionados. Antonio Cândido Faleiros independente. wn } é base. un } e B2 = {v1 . . . Seja B1 a base com n elementos. Sejam B1 = {u1 . . não existe conjunto de vetores linearmente independente com mais do que n elementos. Logo não existe base com menos do que n elementos. vn } duas bases de V. . wn . . como todo conjunto com mais do que n elementos é linearmente dependente. Pelo lema anterior. . vn } por w1 . . . . . todas as outras bases deste espaço vetorial têm o mesmo número de elementos. vn } é base de V. Definição 2.19 Se um espaço vetorial V possuir uma base com n elementos. . a base B1 seria linearmente dependente. {w1 .20 Se um espaço vetorial V possuir uma base com n elementos. Logo. ¤ Estes lemas nos permitem enunciar o Teorema 2. podemos supor. . . . . a dimensão do espaço vetorial trivial. . Prova. w2 . possibilidade que se exclui pela definição de base. que c22 6= 0. . Por definição. Assim. . . contrariando a hipótese de independência linear do conjunto. . Se existisse alguma base B2 com k elementos e k < n. se houvesse um conjunto linearmente independente com mais do que n elementos. Prosseguindo com este raciocínio. Como antes.21 Se um espaço vetorial possui uma base. .40 Notas de aula do Prof. cn2 não é nulo. ¤ Este teorema garante que todas as bases de um espaço vetorial possui o mesmo número de elementos o que justifica a definição que segue. pelo menos um dos coeficientes c22 . 2. pelo lema anterior. não há base com mais do que n elementos. De fato.

. . O delta de Kronecker δ ij . mais especificamente. .. Da igualdade acima segue M12 M21 = I. . . n}. . M13 = [rij ] = k X i rij ui provamos a identidade M13 = M12 M23 . Das duas decomposições acima segue X X X wj = qkj vk = qkj pik ui = Ã X X i k k k pik qkj ! i ui = P onde M13 = [rij ] = [ k pik qkj ] é a matriz de mudança da base B1 para a base B3 . . M23 = [qij ] é a matriz de mudança da base B2 para a base B3 . Como # " X pik qkj = [pik ][qkj ] = M12 M23 . . . 6 Observe que o elemento da linha i coluna j da matriz identidade I de ordem n × n é exatamente δ ij e podemos usar o delta de Kronecker para escrever I = [δ ij ]. Quando B3 = B1 . mostrando que as matrizes de mudança de base são inversíveis e que a inversa de M12 é M21 . . 2. . a matriz M13 é a identidade I e M23 = M21 . é um conjunto de n2 números definidos do seguinte modo: δ ij = 1 quando i = j e δ ij = 0 quando i = j. Observe que as coordenadas do desenvolvimento de v1 na base B1 formam a primeira coluna. pn1 pn2 · · · pnn qij vi e agora. . Sendo B3 = {w1 . . . . matriz de mudança da base B1 para a base B2 . as coordenadas do desenvolvimento de v2 na base B1 formam a primeira coluna. Sejam i e j inteiros do conjunto {1. . podemos escrever os vetores de B3 como combinações lineares dos elementos da base B2 .Notas de aula do Prof. wj = n X i=1   M12 =   p11 p12 · · · p1n p21 p22 · · · p2n . As igualdades matriciais M12 M21 = I e M21 M12 = I . Usando o símbolo de somatório. wn } uma terceira base de V. . . Antonio Cândido Faleiros A matriz       41 é chamada de matriz de mudança de base.

42 Notas de aula do Prof.22 Sejam B1 e B2 duas bases do espaço vetorial V. . Sejam [u]1 a matriz das coordenadas de u na base B1 . . segue da unicidade da decomposição de um vetor nos elementos da xi = X j pij yj que corresponde à igualdade matricial [u]1 = M12 [u]2 . . Então [u]1 = M12 [u]2 Prova. . . . . Mudança de coordenadas Teorema 2. yn ]T for a matriz das coordenadas de u na base B2 e se M12 = [pij ] for a matriz de mudança da base B1 para a base B2 . . . Antonio Cândido Faleiros quando escritas componente a componente. i xi vi . ¤ . fornece X X pik qkj = δij e qik pkj = δ ij k k para i e j percorrendo os valores 1. xn ]T for a matriz das coordenadas de u na base B1 . . . Se [u]1 = [x1 . . . . u = X j i n X i=1 pij vi . n. yj wj = = Como u = base que P Ã X X j X j yj pij yj ! X i pij vi vi . . vn } e B2 = {w1 . Sejam B1 = {v1 . . segue X X xi vi = yj wj u= i j e wj = Portanto. . . . . [u]2 a matriz das coordenadas de u na base B2 e M12 a matriz de mudança da base B1 para a base B2 . wn } as bases em questão. se [u]2 = [y1 .

que está contido em V. Se u e v pertencerem à união.25 O subespaço vetorial W = { x(1. 2. . O próprio V é um subespaço vetorial dele mesmo. Deste argumento se conclui que todo subespaço vetorial é. Em outras palavras. De fato. y ∈ R } é um subespaço próprio de R3 . Quando W1 estiver contido em W2 . para todo vetor v do subespaço. u + v pode não pertencer.Notas de aula do Prof. As operações de adição de vetores e multiplicação por uma escalar definidas em V. os vetores λw e v + w pertencerem a W. por definição. 3.24 Nem sempre a união W1 ∪ W2 = {w ∈ V : w ∈ W1 ou w ∈ W2 } de dois subespaços W1 e W2 de V é um subespaço vetorial de V. Exemplo 2. Certamente. Sejam W1 e W2 subespaços vetoriais de um espaço vetorial V. A soma dos subespaços W1 + W2 . 0) : x. também se aplicam aos vetores de W. y. sendo 0 o escalar nulo. 0) + y(0. Um subespaço vetorial sempre contém o vetor nulo. Os subespaços distintos de V são denominados de subespaços próprios de V. 0v é o vetor nulo e. definida por W1 ∩ W2 = {w : w ∈ W1 e w ∈ W2 } são subespaços vetoriais de V. então W1 ∪ W2 = W2 e daí a união será um subespaço vetorial de V. ele próprio.5 Subespaço vetorial Seja V um espaço vetorial e W um subconjunto não vazio de V.23 O conjunto W = { (x. essas operações em W gozam das mesmas propriedades que em V. Exemplo 2. 1) : x e y ∈ R } do R3 é um hiperplano. pertence ao subespaço. o subespaço vetorial é aquele subconjunto fechado em relação à adição e à multiplicação por um escalar. definida por W1 + W2 = {w1 + w2 : w1 ∈ W1 e w2 ∈ W2 } e a interseção dos subespaços W1 ∩ W2 . um espaço vetorial. Diremos que W é um subespaço vetorial de V se. Antonio Cândido Faleiros 43 2. para todo v e w em W e todo escalar λ. um espaço vetorial com dimensão finita. Seja W um subepaço vetorial de V. Os subespaços de dimensão n − 1 de um espaço vetorial de dimensão n são chamados de hiperplanos. Nota 2. O subespaço {0} é denominado de subespaço trivial de V. Então dim(W ) = dim(V ) se e só se W = V e dim(W ) < dim(V ) se e só se W for subespaço próprio de V.

Sendo S = { w1 . . o espaço gerado por S permanece inalterado. w12 . 3. . . . . . . . . portanto. 1. O conjunto de todas as combinações lineares finitas de elementos de S é um subespaço vetorial de V. Se nenhum vetor de S for nulo e a matriz  w11 w12  w21 w22   .. O subespaço gerado por S é um subespaço vetorial de V. . · · · wkn for escalonada. . 2. wk1 wk2      · · · w1n · · · w2n . . .  . . Antonio Cândido Faleiros 2. wk } um conjunto de vetores de Cn . y) : x. Diz-se ainda que S gera hSi ou que hSi é gerado por S. . Se substituirmos em S o vetor wi pelo vetor wi + cwj . . Se considerarmos S como subconjunto de C3 então hSi = { (x. . . y ∈ C}. 5. . . Se multiplicarmos um ou mais vetores de S por escalares não nulos. onde c é um escalar. . αk ∈ R}. 0. . 0. 0. . y ∈ R3 }. é uma base do espaço gerado por S. o espaço gerado por S não se altera. . wk2 . . wkn ) Vamos descrever um processo para determinar uma base para o espaço gerado por S no qual lançamos mão de alguns fatos para nos auxiliar nesta tarefa. Exemplo 2. . w22 . e3 } um subconjunto do R3 onde e1 = (1. w2n ) ··· wk = (wk1 . Vamos enumerá-los abaixo. . 4. . Permutar a ordem dos vetores de S não altera o espaço gerado por S. Retirar os vetores nulos de S não altera o espaço gerado por S. y) : x. então S é linearmente independente e. de modo que w1 = (w11 . então hSi = {α1 w1 + · · · + αk wk : α1 . Base do subespaço gerado Seja S = {w1 .26 Seja S = {e1 . 0. O subespaço gerado por S é hSi = { (x.44 Notas de aula do Prof.6 Subespaço gerado Seja S um subconjunto de V. . . chamado de subespaço gerado por S e é denotado por hSi . w1n ) w2 = (w21 . 0.. 1). . ) e e3 = (0. wk } finito. .

. . . como acima e obtenha sua forma escalonada usando o método da eliminação de Gauss. . obter sua forma escalonada   r11 r12 · · · r1n  0 r22 · · · r2n    R= 0 0 · · · r3n    ... . w2 . . As linhas não nulas da forma escalonada desta matriz   r11 r12 · · · r1n  0 r22 · · · r2n    R= 0 0 · · · r3n    . . . . obtendo. Os vetores não nulos obtidos na forma escalonada r11 v1 + r12 v2 + · · · + r1n vn r22 v2 + r23 v3 + · · · + r2n vn r33 v3 + r34 v4 + · · · + r3n vn . . . . .. . . . . . . . Este procedimento pode ser usado para determinar o subespaço gerado por S = { w1 . . formarão uma base para o espaço gerado por V. v2 . Basta tomar uma base B = { v1 . wk } mesmo quando S for um conjunto de vetores num espaço vetorial de dimensão finita V qualquer. . . .. . . vn } de V e decompor cada elementos de S numa combinação linear de elementos de B w1 = β 11 v1 + β 12 v2 + · · · + β 1n vn w2 = β 21 v1 + β 22 v2 + · · · + β 2n vn ··· wk = β k1 v1 + β k2 v2 + · · · + β kn vn formar a matriz      β 11 β 12 · · · β 1n β 21 β 22 · · · β 2n . . . . . . . . . formarão a base de hSi . . . wk . .Notas de aula do Prof. . . . Antonio Cândido Faleiros 45 Os fatos enumerados acima nos permitem usar o método da eliminação de Gauss para determinar uma base para o espaço gerado por S : Construa a matriz cujas linhas são os elementos de w1 . . . β k1 β k2 · · · β kn      e proceder como no caso em que o espaço vetorial é o Cn . . .

2. (2. (1. 0. 0). 2. −2. 5. 8. 6. 8). e a escalonamos      1 2 2 −3 −4 1 2 2 −3 −4 1 0 0 0 0  −3 1 0 0 0   3 8 0 2 8   0 2 −6 11 20        −1 0 1 0 0   1 2 4  2 2 −1 0  =  0 0 0       1 0 0 1 0   −1 −2 8 8 4  8   0 0 10 5 0 2 −1 11 17 2 6 3 5 9 −2 0 0 0 1      1 2 2 −3 −4 1 2 2 −3 −4 1 0 0 0 0  0 1 0 0 0   0 2 −6 11 20   0 2 −6 11 20        0 0 1 0 0  0 0 0 2 4  2 4 = 0 0 0       0 0 0 1 0   0 0 10 5 4  4   0 0 10 5 0 0 5 0 −3 0 2 −1 11 17 0 −1 0 0 1      1 2 2 −3 −4 1 2 2 −3 −4 1 0 0 0 0  0 1 0 0 0   0 2 −6 11 20   0 2 −6 11 20        0 0 0 0 1  0 0 0 0 −3  2 4 = 0 0 5       0 0 0 1 0   0 0 10 5 4  4   0 0 10 5 0 0 0 2 4 0 0 5 0 −3 0 0 1 0 0      1 2 2 −3 −4 1 2 2 −3 −4 1 0 0 0 0  0 1 0 0 0   0 2 −6 11 20   0 2 −6 11 20        0 0 1 0 0  0 0 5 0 −3  0 −3  =  0 0 5       0 0 −2 1 0   0 0 10 5 5 10  4   0 0 0 0 0 0 2 4 0 0 0 2 4 0 0 0 0 1      1 2 2 −3 −4 1 2 2 −3 −4 1 0 0 0 0  0 1 0 0 0   0 2 −6 11 20   0 2 −6 11 20        0 0 1 0 −3  0 −3  =  0 0 5 0 0  0 0 5       0 0 0 1/5 0   0 0 0 1 2  5 10   0 0 0 0 0 0 0 0 0 0 0 2 4 0 0 0 −2/5 1  1 2 2 −3 −4 3 8 0 2 8   1 2 2 −1 0   −1 −2 8 8 8  2 6 3 5 9 . 3. (3. Antonio Cândido Faleiros Exemplo 2. −4). 2.46 Notas de aula do Prof. 2. 8). 2.27 Vamos determinar uma base do subespaço vetorial do R5 gerado por w1 w2 w3 w4 w5 Construímos a matriz       = = = = = (1. −3. 8. 9). 8. −1. (−1.

w2 . −3). w5 é formada pelos vetores z1 z2 z3 z4 = = = = (1. 1. 5. −6. 0. −3. (0. 0. 20). 11. w4 . 2. w3 . (0. (0. 0. Antonio Cândido Faleiros e assim. uma base do espaço gerado por w1 . 2). −4). 0. 2.Notas de aula do Prof. 47 . 2.

48 Notas de aula do Prof. Antonio Cândido Faleiros .

Sejam V e W dois espaços vetoriais sobre um mesmo corpo K. y) = 2x+ 2y+ 4. uma transformação linear L : V → K recebe o nome de funcional linear. L(v + w) = L(v) + L(w). L(αv) = αL(v). y) = (x − y. A transformação L2 : R2 → R2 definida por L2 (x. T L(v) = T (L(v)). Podemos unir as duas igualdades acima dizendo que L é linear quando a igualdade L(αv + βw) = αL(v) + βL(w) se verificar para todo α e β escalares e para todo v e w em V. y) = 3x+ 2y é linear. 2y) = 2x+ 2y+ 2 é diferente de 2T (x. 49 . A transformação T : R2 → R definida por T (x. w em V e todo escalar α do corpo K.Capítulo 3 Transformação linear Neste capítulo consideraremos que os espaços vetoriais estão definidos em um mesmo corpo K. K será o corpo dos números reais ou o corpo dos números complexos. Também se denota T ◦ L por T L. Exemplo 3. Nos exemplos. Assim. Uma transformação linear L : V → V de um espaço V sobre ele mesmo recebe o nome de operador linear. L(0) = L(0 + 0) = L(0)+ L(0) = 2L(0) o que implica em L(0) = 0.1 A transformação L1 : R2 → R definida por L1 (x. definimos a composta T ◦ L : V → U por T ◦ L(v) = T (L(v)). Se V for um espaço vetorial sobre um corpo K. Uma função L : V → W é uma transformação linear se. A notação Lv também é usada para indicar L(v). 0) é linear. Toda transformação linear leva o zero de V no zero de W. Sendo L : V → W e T : W → U. y) = x + y + 2 não é linear pois T (2x. De fato. para todo par de vetores v.

. n. . e2 = (0. Le2 = a2 e Le3 = a3 . . . αn forem escalares.2 Seja L : R3 → R uma transformação linear e e1 = (1. . . 0. . xn ) = a1 x1 + · · · + an xn . . então L(x1 . . Basta decompor v em uma combinação linear dos vetores da base v = x1 v1 + · · · + xn vn e calcular L(v) = L(x1 v1 + · · · + xn vn ) = x1 L(v1 ) + · · · + xn L(vn ) = x1 w1 + · · · + xn wn . . x2 . x2 . . 0). . o conhecimento dos vetores w1 = L(v1 ). se Le1 = a1 . . e2 . Le3 = 11. y) = 3x são transformações lineares de R2 em R. 1. Antonio Cândido Faleiros Pode-se provar por indução que. wn = L(vn ) é suficiente para calcular o valor de L em qualquer vetor v. . . . teremos L(x1 . . . Exemplo 3. . T (x. . 1) os elementos da base canônica do R3 . . Este exemplo nos dá uma indicação da forma geral de um funcional linear L de Rn em R. y) = 5x − 4y e L2 (x. então L (α1 v1 + · · · + αn vn ) = α1 L(v1 ) + · · · + αn L(vn ). 0. . então. Esta é a forma geral de um funcional linear do Rn em R. x3 ) = L(x1 e1 + x2 e2 + x3 e3 ) = x1 L(e1 ) + x2 L(e2 ) + x3 L(e3 ) = a1 x1 + a2 x2 + a3 x3 . x2 . Todavia. . Se L(ei ) = ai para i = 1. . Exemplo 3. para todo (x1 . y) = x+ 2 não é linear pois não possui o formato estabelecido acima e observe que T não leva o zero de R2 no zero de R. . . en } a base canônica do Rn . vn } for base de V. Vamos determiná-la. Le2 = 7. . Generalizando este exemplo. Se Le1 = 5. . se L : V → W for linear. .50 Notas de aula do Prof. A partir desta fórmula podemos afirmar que quando L for linear e {v1 .3 Utilizando a forma geral. . . x3 ) em R3 . . . vn forem vetores de V e se α1 . para qualquer (x1 . xn ) vale L(x1 . . x3 ) = L(x1 e1 + x2 e2 + x3 e3 ) = x1 L(e1 ) + x2 L(e2 ) + x3 L(e3 ) = 5x1 + 7x2 + 11x3 . se v1 . . vemos que L1 (x. 0) e e3 = (0. xn ) = L(x1 e1 + · · · + xn en ) = x1 L(e1 ) + · · · + xn L(en ) ou L(x1 . . . Seja {e1 .

. L2 (x1 . Lm (αx + βy) ) = ( αL1 x + βL1 y. . Antonio Cândido Faleiros 51 Vamos determinar agora a forma geral de uma uma transformação linear L de Rn em R . concluímos que toda transformação linear L de Rn em Rm é da forma L(x1 . . Lm são funcionais lineares de Rn em R. x + 2y. am1 x1 + · · · + am. . . L3 (x1 . . −3x + y. . Lm (αx + βy) = αLm x + βLm y mostrando que L1 . dependentes de x. onde L1 (x). . . . sendo α e β escalares e x. A transformação T (x. Lm são funcionais lineares de Rn em R. x2 ). são números reais. x2 ) = −x1 + 4x2 . . .. αLm x + βLm y ) e. da igualdade desses elementos de Rm . tem-se L(x) = ( L1 (x). . Vamos mostrar que L1 . m e j = 1. . vemos que. L2 (x1 . então L(x1 . . x2 ) ). xn ) = ( a11 x1 + · · · + a1n xn . y) de R2 em R3 é linear. . x2 ) = x1 − 3x2 . n. . Lm (x) são números reais. x2 ). . . obtemos L1 (αx + βy) = αL1 x + βL1 y . Lm (x) ). . A partir daí. . então L(αx + βy) = αLx + βLy e assim. x + y. y ênuplas ordenadas. Baseados neste exemplo.4 A transformação L(x. . . . . x2 ) = (x1 − 3x2 . ( L1 (αx + βy). De fato. para qualquer x no Rn . se L é uma transformação linear do Rn em Rm . .Notas de aula do Prof. . 0. . . Iniciemos com um exemplo ilustrativo com a transformação m L(x1 . 2x1 . y) = (x. 4y) de R2 em R5 é linear. .n xn ) onde aij . −x1 + 4x2 ) de R2 em R3 . y) = (2x − y. x2 ) = 3x2 e L3 (x1 . . . Se definirmos L1 (x1 . . . . . x2 ) = ( L1 (x1 . . . . para i = 1. Exemplo 3. ..

z) = (x + z. tem dimensão 1. 2x + y + z. ker L = {(−z. Para determinar o núcleo de L escreva L(x. elementares sobre as linhas chegamos a      1 2 1 1 2 1 1 2  0 1 2  l3 =l3 −l1  0 1  l3 =l3 −l2  0 1 2 → → 1 1 −1 0 −1 −2 0 0 Usando operações . 2. Exemplo 3.5 Seja L a transformação linear de R3 em R3 definida por L(x. x + 2y − z) = (0. y. x + 2y − z) = x(1. Para determinar a imagem de L escrevemos L(x. Assim. Para determinar uma base do espaço gerado usamos o processo de escalonamento. 1) + y(0. são subespaços vetoriais de V. 2x + y + z. (0. O ker L é gerado por (−1. Antonio Cândido Faleiros Seja L : V → W uma transformação linear. 0. 1. Construímos a matriz   1 2 1  0 1 2  1 1 −1  1 2  0 cujas linhas são os elementos dos vetores que geram o subespaço.52 Notas de aula do Prof. 1) e. z) = (x + z. z) = (x + z. 1. 1). 0) e resolva o sistema correspondente à igualdade acima x+z = 0 2x + y + z = 0 x + 2y − z = 0 cuja solução x = −z e y = z pode ser obtida pelo método da eliminação de Gauss. x + 2y − z). y. z. 2x + y + z. y. portanto. 1. O conjunto ker L = {v ∈ V : Lv = 0} é chamado de núcleo (kernel em inglês) de L e o conjunto Im L = {Lv : v ∈ V } é a imagem de L. 1. 2. Tanto o núcleo de L quanto a sua imagem. 2) e (1. A dimensão do núcleo de L é denominada de nulidade de L. −1). z) : z ∈ R}. −1) mostrando que todo elemento da imagem de L é uma combinação linear dos vetores (1. 1. 2) + z(1.

que leva todos os vetores de V no zero a Im (L) = {0} e nada resta a provar. .6 Sejam V e W espaços vetoriais e L : V → W linear. vp . então dim V = dim Im (L) + dim ker(L). . . . . . . . Podemos escrever v como uma combinação linear dos elementos da base B. . . Im (L) 6= {0}. . . 2) 53 e concluímos que a imagem de L tem dimensão 2. . . mostrando que {Lvp+1 . Adicionando a dimensão do núcleo com a dimensão da imagem obtemos 3 que é a dimensão do domínio de L.Notas de aula do Prof. Prova. . o vetor correspondente pertenceria ao núcleo de L e B seria linearmente dependente. (0. Teorema 3. 1. De fato. Assim. . uma vez que ker(L) = V. vn } de V. O conjunto {L(vp+1 ). . se w pertence à Im (L). Se fosse. . . . L(vn )} gera Im (L). . L(vn ) é nulo. como dim Im (L) = 0 e dim ker(L) = dim(V ). . observamos que nenhum dos vetores L(vp+1 ). vp+1 . como enuncia o próximo teorema. o teorema estará provado pois dim ker(L) + dim Im (L) = p + (n − p) = n = dim(V ). então existe v em V tal que w = Lv. . . vp } uma base do ker(L). L(vn )} é base da Im (L). Antonio Cândido Faleiros e chegamos a uma base da imagem de L que é formada pelos vetores (1. Inicialmente. L(vn )} é base da Im (L). . . O resultado do exemplo anterior em que a soma das dimensões do núcleo e da imagem de L é igual à dimensão do domínio de L é um resultado geral. 2. Se a dimensão de V for finita. . Se L não for a transformação linear nula. Provemos agora que {L(vp+1 ). . Seja {v1 . Quando L é a transformação linear nula. . v = x1 v1 + · · · + xp vp + xp+1 vp+1 + · · · + xn vn de onde segue w = Lv = L(x1 v1 + · · · + xp vp + xp+1 vp+1 + · · · + xn vn ) = x1 Lv1 + · · · + xp Lvp + xp+1 Lvp+1 + · · · + xn Lvn = xp+1 Lvp+1 + · · · + xn Lvn . o que não é o caso pois é base de V. Lvn } gera a Im (L). . . 1) . 1. . Se provarmos que {L(vp+1 ). Podemos acrescentar vetores a este conjunto até obter uma base B = {v1 . .

. . wm } uma base de um espaço vetorial W e L : V → W uma transformação linear. . Lvn } é linearmente independente. n. . sendo igual a uma combinação linear dos vetores v1 .1 Matriz de uma transformação linear Seja B1 = {v1 . . Portanto. . . . com j = 1. Lvj = i=1 . . . . . . numa combinação linear dos elementos da base B2 Lv1 = a11 w1 + a21 w2 + · · · + am1 wm Lv2 = a12 w1 + a22 w2 + · · · + am2 wm ··· Lvn = a1n w1 + a2n w2 + · · · + amn wm Estas expressões podem ser escritas de modo taquigráfico usando somatório: para j = 1. . . . . . . . . B2 = {w1 . ¤ 3. . . . O conjunto {Lvp+1 . . Lvn } é base da Im (L). diferente de zero. . . . com i = 1. . . existem escalares k1 . . Antonio Cândido Faleiros 2. . tais que kp+1 L(vp+1 ) + · · · + kn L(vn ) = 0 o que implica em L(kp+1 vp+1 + · · · + kn vn ) = 0 indicando que o vetor kp+1 vp+1 + · · · + kn vn pertenceria ao ker(L). . vp } é base do ker(L) e {Lvp+1 . . nem todos nulos. Como {v1 . o que vai contraria a hipótese de B ser base de V. . . 2. Se fosse linearmente dependente. . vn } uma base de um espaço vetorial V. existiriam escalares kp+1 . vp que formam uma base do núcleo de L. . . kn . . então dim ker L + dim Im L = p + (n − p) = n = dim V e o teorema está provado. Lvn } é base da Im (L). kp tais que kp+1 vp+1 + · · · + kn vn = k1 v1 + · · · + kp vp ou k1 v1 + · · · + kp vp − kp+1 vp+1 − · · · − kn vn = 0 onde pelo menos um dos ki . n m X aij wi . . . . . p. . . . Podemos decompor cada vetor Lvj . .54 Notas de aula do Prof. Das partes 1 e 2 concluímos que {Lvp+1 .

a matriz [L]12 é denotada por [L]1 e denominada de matriz de L na base B1 . . . . vn } e B2 = {w1 . Antonio Cândido Faleiros A matriz m por n [L]12       55 é denominada de matriz de L nas bases B1 e B2 . sempre que o contexto for claro quanto às bases envolvidas. . podemos escrever [L] em lugar de [L]12 ou [L]1 . .. então [v]1 = [x1 . . . Se [v]1 for a matriz de v na base B1 . Seja L : V → W uma transformação linear e v um vetor de V. ym ]T são matrizes coluna e [L]12 = [aij ] é uma matriz retangular m × n. . [Lv]2 a matriz de Lv na base B2 e [L]12 for ma matriz de Lv nas bases B1 e B2 então [Lv]2 = [L]12 [v]1 .Notas de aula do Prof.. [Lv]2 = [y1 . . Se v= n X j=1 m X i=1 m X i=1   =  a11 a21 . . . . xn ]T .7 Sejam B1 e B2 bases dos espaços vetoriais V e W. . Teorema 3. . Ainda se diz que [L]12 é a representação matricial de L nas bases B1 e B2 . . . . Também se diz que [L]1 é a representação matricial de L na base B1 . . . . Por um lado. ¤ . Quando W = V e B2 = B1 . Para simplificar a notação. . Lvj = aij wi . Prova. à ! X X Lv = L xj vj = xj L (vj ) j j = e por outro. am2 · · · amn xj vj . X j xj X i aij wi = X i à X X i j aij xj ! wi Lv = yi wi . . . . Sejam B1 = {v1 . . Lv = yi wi . Da unicidade da decomposição de um vetor nos elementos da base. n X aij xj yi = j=1 para i = 1. conforme o caso. am1 a12 · · · a1n a22 · · · a2n . . . . m que equivale à igualdade matricial [Lv]2 = [L]12 [v]1 . respectivamente. wm } as bases de V e W.

wn } as bases em questão. bases dos espaços vetoriais V. . B2 e B3 . . . de modo que wj = n X i=1 mij vi . [L2 ]23 = [bki ] e [L2 L1 ]13 = [ckj ]. . . m X i=1 bki aij Prova. . . Como Ãm ! m X X L2 L1 vj = L2 aij wi = aij L2 (wi ) i=1 = segue m X i=1 aij X k=1 p bki uk = Ãm X X k=1 i=1 i=1 p bki aij ! uk ckj = para k = 1. . . . . Seja M12 a matriz de mudança da base B1 para a base B2 . Sejam L1 : V → W e L2 : W → U lineares. . Sejam B1 = {v1 . X X k=1 k=1 p i=1 p então [L1 ]12 = [aij ]. .8 Sejam B1 . . Se L1 vj = L2 wi = L2 L1 vj = m X aij wi . p e j = 1. Antonio Cândido Faleiros Teorema 3. bki uk . Seja M12 = [mij ] a matriz de mudança da base B1 para a base B2 . Então [L2 ◦ L1 ]13 = [L2 ]23 [L1 ]12 . ckj uk . . wm } e B3 = {u1 .56 Notas de aula do Prof. vn }. .9 Sejam B1 e B2 duas bases do espaço vetorial V e L : V → V um operador linear. respectivamente. W e U. . . . n. . up } as bases em questão. ¤ Teorema 3. Prova. . . . . . vn } e B2 = {w1 . . . . B2 = {w1 . . que resulta na igualdade matricial [L2 L1 ]13 = [L2 ]23 [L]12 . Então M12 [L]2 = [L]1 M12 ou −1 [L]2 = M12 [L]1 M12 . Sejam B1 = {v1 .

Pela unicidade de decomposição de vetores numa base. e Lwj = n X i=1 bij wi . De acordo com o teorema anterior. segue X X mik bkj = aik mkj . Usando a notação matricial. então L(v1 ) 6= L(v2 ). Antonio Cândido Faleiros 57 Sejam [L]1 = [aij ] e [L]2 = [bij ] as matrizes de L nas bases B1 e B2 . Lwj = e por outro. para todo v1 6= v2 em V. . . . k k igualdade válida para i = 1. . . conclui-se a prova do teorema: M12 [L]2 = [L]1 M12 . . . para j = 1. n e j = 1. .Notas de aula do Prof. . Uma tranformação L : V → W é injetora se. . Podemos escrever. m. 3. De forma equivalente. n. L é injetora se para todo v1 e v2 em V com L(v1 ) = L(v2 ) tem-se v1 = v2 . ¤ Definição 3. . . Lvj = Por um lado.2 Isomorfismo Sejam V e W dois espaços vetoriais sobre o mesmo corpo. . Lwj = L = à X k n X i=1 aij vi .10 Duas matrizes A e B são semelhantes se existir uma matriz inversível P tal que B = P −1 AP. as representações matriciais de uma transformação linear L : V → V são semelhantes. X k bkj wk = X k bkj X i mik vi = à X X i k mik bkj ! vi mkj vk à X X i k ! = ! X k mkj L (vk ) = X k mkj X i aik vi aik mkj vi . respectivamente.

. . Lvn } é linearmente independente. .11 Sejam V e W espaços vetoriais sobre o mesmo corpo. . Em outras palavras. Pelo fato de {v1 . . provando que s está na imagem de L. Então L(k1 v1 + · · · + kn vn ) = 0 e. L é injetora se e só se ker(L) = {0}. Denominamos isomorfismo à transformação L : V → W que é linear e bijetora. Dada uma base {v1 . . . Seja B1 = {v1 . concluímos que k1 = · · · = kn = 0. Lvn }. . existe pelo menos um v em V tal que Lv = w. . provando que {Lv1 . . L é injetora se e só se o zero é o único vetor levado por L em zero. Logo. . . Prova. . Sejam V e W isomorfos e L : V → W um isomorfismo entre eles. Vamos provar que L é um isomorfismo entre V e W. . wn } base de W. Provemos que L é injetor. . obtemos v = x1 v1 + · · · + xn vn e w = Lv = x1 Lv1 + · · · + xn Lvn . . por sua vez. . . . Provemos que L é sobrejetor. . . . . . . Tomando dim V = dim W = n como hipótese. podemos escrever s = s1 w1 + · · · + sn wn = s1 Lv1 + · · · + sn Lvn = L(s1 v1 + · · · + sn vn ). . . Sendo L bijetora. . Sejam k1 . Sejam x = x1 v1 + · · · + xn vn e y = y1 v1 + · · · + yn vn dois vetores de V tais que Lx = Ly. Dado qualquer s em W. provemos que V e W são isomorfos. . Decompondo v na base {v1 . As partes 1 e 2 provam que dim V = dim W. . . vn }. . . . Dois espaços vetoriais V e W são isomorfos quando houver um isomorfismo de V em W. existe v em V tal que w = Lv. As transformações bijetoras L : V → W possuem inversa L−1 : W → V que. Seja L a transformação linear de V em W que leva vi em wi . Teorema 3. Lvn } é base de W. . Lvn } gera W. . L(x1 v1 + · · · + xn vn ) = L(y1 v1 + · · · + yn vn ) . vn } base de V e B2 = {w1 . é bijetora e sua inversa é L. para todo w em W. provando a independência linear do conjunto {Lv1 . como L(0) = 0 e L é bijetora. . . . vn } ser base de V. 1. Neste caso sua inversa L−1 : W → V é linear e. 2. Antonio Cândido Faleiros Teorema 3. 4. . para i = 1. . Uma transformação L : V → W é sobrejetora se. Provemos que {Lv1 . para qualquer w em W. . n. .58 Notas de aula do Prof. 3. . Uma transformação bijetora é aquela que é ao mesmo tempo injetora e sobrejetora. kn escalares tais que k1 Lv1 + · · · + kn Lvn = 0. Lvn } gera W. provando a sobrejetividade de L. segue k1 v1 + · · · + kn vn = 0. vn } de V. ou seja Lvi = wi . . Seja L : V → W linear. Provemos que {Lv1 . um isomorfismo. vamos mostrar que {Lv1 . . .12 Dois espaços vetoriais V e W sobre um mesmo corpo e de dimensão finita são isomorfos se e só se dim V = dim W. portanto. .

. . Lvn } é uma base de W. x1 w1 + · · · + xn wn = y1 w1 + · · · + yn wn . ker(L) = {0}. .Notas de aula do Prof. Da sobrejetividade de L. L é injetora. ¤ Teorema 3. . ¤ Teorema 3. . L é sobrejetor. 3. . concluímos que x1 = y1 . . . . Logo. como o núcleo de L contém apenas o zero. existe um conjunto de vetores B = {v1 . então A−1 será a representação matricial de L−1 nas bases B2 e B1 . . n. . . . kn forem escalares tais que k1 Lv1 + · · · + kn Lvn = 0. de onde resulta a igualdade x = y.13 Sejam V e W espaços vetoriais sobre o mesmo corpo. . Provemos que (4) implica em (2). Sendo ker(L) = {0} e {v1 . . Ainda temos que LL−1 é o operador identidade e. . xn = yn . . Provemos que (2) implica em (3). 4. . xn = yn . então L(k1 v1 + · · · + kn vn ) = 0 e. São equivalentes: 1. . provando que conjunto {Lv1 . vn } uma base de V. como L(0) = 0. . Seja B = [bij ] a representação matricial de L−1 nas bases B2 e B1 . . . wn } uma base de W. .14 Sejam B1 e B2 bases dos espaços V e W respectivamente e L : V → W um isomorfismo. Lvn } é linearmente independente e. Antonio Cândido Faleiros ou seja. Prova. L é um isomorfismo. ou x = y. . Se L é injetora e L(v) = 0. k1 v1 + · · · + kn vn = 0. segue que v = 0. . Seja L sobrejetora e {w1 . L é sobrejetora. para i = 1. BA é a matriz da transformação identidade na base B1 e esta é a matriz identidade. 59 Da independência linear de B2 . desta maneira. . Seja A = [aij ] a representação matricial de L nas bases B1 e B2 . . . então {Lv1 . Provemos que (3) implica em (4). . De 3 e 4 concluímos que L é um isomorfismo. O conjunto B é base de V. Sejam x = x1 v1 + · · · + xn vn e y = y1 v1 + · · · + yn vn dois vetores de V tais que Lx = Ly. ambos com a mesma dimensão e L : V → W linear. . . então v = 0. Se L(v) = 0. . De fato. portanto. . provando que L é injetora. . provando que (3) implica em (4). . Prova. wn } implica em x1 = y1 . provando a injetividade de L. . base de W. Se A for a representação matricial de L nas bases B1 e B2 . AB é a matriz da transformação identidade na base B2 e esta é a matriz identidade o que prova ser B = A−1 . . ¤ . 2. . Como L−1 L o operador identidade. Desta igualdade segue x1 w1 + · · · + xn wn = y1 w1 + · · · + yn wn . A independência linear dos vi acarreta em k1 = · · · = kn = 0. Em outras palavras. se k1 . A independência linear de {w1 . . . vn } em V tais que Lvi = wi .

onde {e1 . . . . basta usar a correspondência x1 v1 + · · · + xn vn ↔ (x1 . podemos dizer que a matriz A é uma transformação linear e escrever A : Cn×1 → Cm×1 . . se B1 = {e1 . um isomorfismo. . en } é a base canônica do K n . . ¤ Podemos afirmar que os isomorfismos são os mensageiros que trazem e levam as propriedades de um espaço vetorial a outro. toda transformação L : Cn×1 → Cm×1 é do tipo L(x) = Ax. Se soubermos como proceder com um dos dois. an . Como L leva uma base de V numa base de K n ela é injetora e. Prova.60 Notas de aula do Prof. É intessante observar que. Por esta razão. . . todas as propriedades de um podem ser levados ao outro pelo isomorfismo. 1.3 Transformações lineares em Cm×1 Seja A uma matriz complexa m por n. ei = (0. Se{v1 . en } for a base canônica do Cn×1 então aj = L(ej ) são vetores coluna em Cm×1 . . . . . a matriz A. . onde A é uma matriz complexa de ordem m por n. . . . 3. se B2 = {f1 . portanto. . . en } for a base canônica do Cn×1 . . . Se {e1 . . . Se {v1 . 0) onde o único elemento não nulo é o i-ésimo. Por esta razão. fm } for a base canônica do Cm×1 e se A for uma matriz complexa m por n. Então L : Cn×1 → Cm×1 definida por L(x) = Ax é uma transformação linear. Dado o vetor coluna x = [x1 . então ! Ã n n X X xj ej = xj L (ej ) L(x) = L j=1 j=1 = n X j=1 xj aj = Ax onde A = [a1 . . . . . . .15 Todo um espaço vetorial V de dimensão n sobre um corpo K é isomorfo a K n. Se dois espaços vetoriais vetoriais forem isomorfos. Em síntese. Reciprocamente. . exatamente. . an ] é a matriz complexa m por n. . ao estudar as propriedades de um deles. os protótipos são o Rn e o Cn . teremos estudado as propriedades do outro. . Antonio Cândido Faleiros Teorema 3. saberemos como proceder com V. ao estudar um espaço vetorial real ou complexo V de dimensão n. . . . 0. . onde A é uma matriz m por n. . . . 0. . xn ]T = x1 e1 + · · · + xn en do Cn . vn } for uma base de V. isto é. . . . . cujas colunas são a1 . então a representação matricial da transformação linear A : Cn×1 → Cm×1 nas bases B1 e B2 é. vamos mostrar que toda transformação linear L : Cn×1 → Cm×1 é da forma L(x) = Ax. . . então definimos a transformação linear L : V → K n por Lvi = ei . xn ) definida pelo isomorfismo estabelecido no teorema anterior. . vn } for uma base de V. Isto significa que. . respectivamente. .

wj i . wi = hw. O produto interno é linear na segunda variável hv. Tanto é que. então + * p q p q X X XX ai vi . válidas para todo v. vi . Essas propriedades se extrai a linearidade do produto interno em relação à primeira e à segunda variável. . 3. zi . Um produto interno em V é uma operação h . bj forem números reais. vi ≥ 0 e hv. zi + b hw. bj wj = ai bj hvi . wi + b hv. i: V ×V →R que possui as propriedades abaixo. zi = a hv. . vi = 0 se e só se v = 0. aw + bzi = a hv. . se v1 . O produto interno é positivo definido hv.Capítulo 4 Produto interno e norma Neste capítulo trabalharemos apenas com espaços vetoriais sobre o corpo dos números reais ou sobre o corpo dos números complexos. . i=1 j=1 i=1 j=1 61 . vp e w1 . zi . . . . 2. 4. . wq forem vetores de V e ai . Das propriedades (2) e (3) se conclui que o produto interno é liner na primeira variável hav + bw. w e z em V e todo a e b em R : 1.1 Produto interno em espaços vetoriais reais Seja V um espaço vetorial sobre o corpo R dos números reais. O produto interno é simétrico hv.

b)× (c. b) + (c. d) para expressar esta igualdade. b]. b) pode ser escrito na forma a + bi.2 Seja P2 (R) o conjunto dos polinômios com coeficientes reais e grau menor ou igual a 2. b0 + b1 x + b2 x2 = a0 b0 + a1 b1 + a2 b2 é um produto interno e hf (x). De fato. Se denotarmos o número complexo (a. ad + bc).1 Se x e y forem matrizes coluna Rn×1 . b + d) e (a. Neste espaço vetorial. O número complexo (0. b] é um espaço vetorial sobre o corpo de números reais. b) = (a. yi = xT y. O sinal de multiplicação pode ser omitido e tanto (a. uma de adição e outra de multiplicação. 0)(0. 0) + (b. Definimos as operações de adição e de multiplicação de dois números complexos por (a. b] o conjunto das funções reais de variável real.62 Notas de aula do Prof. b) × (c. gi = f (t)g(t) dt a 4. d) possuem o mesmo significado. 1) = a + bi . d) = (ac − bd. d) = (a + c. Um produto interno em Rn×1 é proveniente do produto escalar hx. O a é a parte real e o b é a parte imaginária do número complexo (a. Com as operações de adição de funções e a multiplicação de um número real por uma função. O corpo dos números complexos é formado pelo conjunto de pares ordenados (a. o produto matricial xT y. Exemplo 4. Os elementos desse corpo são denominados números complexos. 1) é denotado por i e denominado unidade imaginária. b) = (c. d) quanto (a. b) e (c. (a. Dois números complexos (a.2 Produto interno em espaços vetoriais complexos Vamos agora definir produto interno em um espaço vetorial sobre o corpo C dos números complexos. ­ ® a0 + a1 x + a2 x2 . g(x)i = é outro. no qual definimos duas operações. Exemplo 4. b) de números reais. definidas e contínuas no intervalo [a. 0) simplesmente por a e vemos que todo número complexo (a. b) (c. Nele Z b hf. C [a. Z 1 f (x)g(x)dx −1 é um produto interno. b). Antonio Cândido Faleiros Exemplo 4. é denominado produto escalar das matrizes x e y. onde xT é a matriz transposta de x.3 Seja C [a. d) são iguais quando a = c e b = d e se escreve (a.

4 Se z = 3 + 4i. O número complexo z1 × z2 é o produto de z1 e z2 . Neste caso.Notas de aula do Prof. os números complexos a + bi e c + di são iguais se a = c e b = d e se escreve a + bi = c + di para expressar esta igualdade. O número complexo z1 + z2 é a soma de z1 e z2 . Definimos a subtração z1 − z2 de dois números complexos z1 e z2 por z1 − z2 = z1 + (−z2 ) e a divisão z1 /z2 . z = a− bi é o seu √ √ complexo conjugado e o número real |z| = zz = a2 + b2 é o seu módulo. então z z −1 = zz Exemplo 4. Antonio Cândido Faleiros e. Se z e w são números complexos. z −1 = (3 − 4i)/25. por z1 −1 = z1 z2 . onde z2 6= 0. O conjunto de todos os números complexos com as operações de adição e multiplicação é um corpo. z2 Sendo z = a + bi um número complexo. então seu inverso aditivo ou seu oposto. z ¯ . Se a+ bi for um número complexo. onde a e b são reais. obtemos (a + bi) + (c + di) = (a + c) + (b + d)i e (a + bi) × (c + di) = (ac − bd) + (ad + bc)i. O 0 é denominado zero e 1 é denominado de unidade. é −a + ( −b)i e seu inverso multiplicativo ou seu inverso. sendo z 6= 0. 63 O sinal de multiplicação pode ser omitido e tanto (a + bi)× (c + di) quanto (a + bi) (c + di) possuem o mesmo significado. a partir daí. (a + bi) a2 + b2 a2 + b2 que existe apenas quando a + bi for diferente de zero. denotado por C e denominado corpo dos números complexos. Logo. O elemento neutro da adição é o 0 = 0+ 0i e o elemento neutro da multiplicação é o 1 = 1+ 0i. b) com a + bi. O oposto de z é denotado por −z e o inverso de z é denotado por z −1 . Com a notação introduzida que identifica o par (a. é ¶ µ b a − i . então z = 3 − 4i e zz = (3 + 4i)(3 − 4i) = 25. valem as propriedades z+w = z+w ¯ ¯ zw = z w ¯¯ −1 = z −1 .

. vi ≥ 0 e hv. com esta definição a primeira propriedade hx. . ap e b1 . . . . se conclui que h av + bw . yn ) forem dois elementos de Cn . . O produto interno é linear na segunda variável hv . então. . wi ¯ . xi nem sempre é real. . w e z em V e todo a e b em C : 1. O produto interno é hermitiano hv. a propriedade 2 não é satisfeita. válidas para todo v. . vp e w. . . O produto interno é positivo definido hv. yi = hy. A partir das propriedades 2 e 3. . . yi = x1 y1 + · · · + xn yn que agora satisfaz às propriedades 1 e 3 do produto interno em espaços vetoriais sobre os reais. prova-se por indução que * + X X v. wi + b hv. 3. Uma correção possível consiste em definir hx. . se a1 . . . . v1 . wi = hw. yi = x1 y1 + · · · + xn yn . Aceitamos esta propriedade como uma consequência inevitável e com isto em mente definimos o produto interno em espaços vetoriais sobre o corpo dos números complexos. Se x = (x1 . vi = 0 se e só se v = 0. . w + j = X i ai hvi . zi . . . zi . Seja V um espaço vetorial sobre o corpo C dos números complexos. . . bq forem números complexos. Antonio Cândido Faleiros Vamos tentar definir um produto interno em Cn que mantenha as propriedades do produto interno do Rn . vi. Um produto interno em V é uma operação h . Em seu lugar vale hx. wq forem vetores de V. Entretanto. xn ) e y = (y1 . = bj wj bj hv. xi ≥ 0 falha pois hx. uma primeira tentativa seria hx. ¯ b Se v. . xi.64 Notas de aula do Prof. Entretanto. w1 . i: V ×V →C com as propriedades abaixo. aw + bz i = a hv. 2. zi + ¯ hw. zi = a hv. . wj i * X i j ai vi .

Um produto interno neste espaço vetorial é dado por Z L hf. . Teorema 4. . yi = x∗ y. + * XX X X ai vi . . xn ]. Se houvesse outro vetor u tal que hv.5 Se x = [x1 . ¯ i j i j 65 Exemplo 4. . que leva duas matrizes coluna em x ¯ Cn×1 em uma matriz complexa 1 × 1 é um produto interno em Cn . Seja {v1 . . Uma transformação linear f : V → C recebe o nome de funcional linear em V. existem w1 . b] → C : f é contínua}. . vi onde w = f (v1 )v1 + · · · + f (vn )vn . vi . Este conjunto com as operações de adição de funções de V e multiplicação de um número complexo por uma função de V é um espaço vetorial sobre o corpo dos números complexos. juntando as duas proprieades. . wm em V tais que L(v) = ( hw1 . Dado um funcional linear f : V → C. fm (v) ). Toda transformação linear L de um espaço vetorial complexo V de dimensão n em Cm é da forma L(v) = ( f1 (v). vi para todo v em V. Exemplo 4. vi ). xn ]T e y = [y1 . Dado um produto interno em V. Vamos mostrar que este vetor é único.3 Funcional linear Seja V um espaço vetorial sobre um corpo C dos números complexos. . Tomando v = w− u. . . bj wj = ai bj hvi . definimos x∗ = [¯1 . .7 Seja V um espaço vetorial sobre C. onde fi é um funcional linear em V. . . w − ui = 0. . . . . . . vi para todo v em V pertence ao complemento ortogonal do ker(f ) uma vez que f (v) = 0 implica em hw. segue hw − u. com o número complexo a. mostrando que w = u. . . w − ui = 0 para todo v. Então existe um vetor w em V tal que f (v) = hw.Notas de aula do Prof. . ui para todo v em V. . ¤ O vetor w tal que f (v) = hw. . então hv. com dimensão finita e produto interno. . Prova. wi = hv. −L 4. . uma matriz 1 × 1. yn ]T forem matrizes coluna em Cn×1 . . . Decompondo v nesta base e calculando f (v) obtemos f (v) = f (a1 v1 + · · · + an vn ) = a1 f (v1 ) + · · · + an f (vn ) = hw. . Aqui identificamos [a]. Antonio Cândido Faleiros e. A operação hx. vn } uma base ortonormal de V. gi = f (t)g(t) dt.6 Seja V = {f : [a. wj i . hwm . vi = 0.

Sejam v e w dois vetores em V. Prova. wi|2 ≤ kvk2 kwk2 . seu discriminante ∆ = 4 |hv. Para todo v e w em V e todo escalar a. ¤ . se a e b são reais. Vale a desigualdade de Cauchy-Schwarz |hv. se z for um número complexo. Teorema 4. wi| ≤ kvk kwk . Sendo z um número complexo. A norma de v é definida por p kvk = hv.4 Norma Seja V um espaço vetorial real ou complexo e v um vetor de V. diz-se que o vetor é unitário. a é a parte real e b a parte imaginária do número complexo a + bi. kv + wk ≤ kvk + kwk (Desigualdade triangular) Para provar esta última desigualdade. devemos provar a desigualdade de CauchySchwarz. Lembramos que. Seja λ um número real qualquer. wi + λ hw. |hv. wi|2 − 4 kvk2 kwk2 é menor ou igual a zero. 3. wi kvk2 + λhv. vi. wi + λ hv. vi + λ2 hw. ou seja. então 2Re (z) = z + z e 2Im (z) = z − z. Antonio Cândido Faleiros 4. as igualdades abaixo se verificam. Se kvk = 1. wi| + λ2 kwk2 Como este polinômio real é maior ou igual a zero para todo λ. wi + λ2 kwk2 kvk2 + 2λRe hv. As desigualdades abaixo são úteis. 2. kavk = |a| kvk . 1. As notações Re (a + bi) e Im (a + bi) são usadas para designar as partes real e imaginária do número complexo a + bi. Re (z) ≤ |Re (z)| ≤ |z| Im (z) ≤ |Im (z)| ≤ |z| . Então 0 ≤ = = ≤ hv + λw. Observe que. wi + λ2 kwk2 kvk2 + 2λ |hv. v + λwi = hv. kvk ≥ 0 e kvk = 0 se e só se v = 0.66 Notas de aula do Prof. vi + λ hv.8 Seja V um espaço vetorial sobre o corpo C dos números complexos onde se definiu um produto interno.

Se w for ortogonal a todo elemento de V. para o qual cos θ = hv. então w = 0. . . Seja A = [aij ] uma matriz complexa m × n. wi = 0. . De fato. wi . Se além disto. Se A∗ = A. obtemos Como kvi k 6= 0. A desigualdade de CauchySchwarz implica em hv. sejam k1 . . Dado v = x1 v1 + · · · + xn vn neste espaço. π]. não tem sentido definir ângulo entre vetores pois. v = hv1 . wi| ≤1 kvk kwk para todo par de vetores v e w não nulos. neste caso. wi −1 ≤ ≤1 kvk kwk o que motiva a definição de ângulo entre v e w. hw. Como hvi .Notas de aula do Prof. pertencente ao intervalo [0. . O próximo teorema apresenta a forma da matriz de mudança de bases quando as bases envolvidas são ortonormais. ¤ Seja {v1 . fato que será indicado pelo símbolo v ⊥ w. . todos os vetores possuírem norma unitária. kvk kwk Os vetores v e w são ortogonais quando θ = π/2 ou hv. Entretanto diremos que dois vetores v e w em tal espaço são ortogonais quando hv. . . Se a dimensão de V for finita e w for ortogonal a uma base de V. . wi = 0 e isto implica em w = 0. . 0i = 0. o conjunto é ortonormal. . vi v1 + · · · + hvp . provando a independência linear de S. . Antonio Cândido Faleiros Esta desigualdade implica em 67 |hv. 0i = hvi . A matriz A∗ = [bij ] onde bij = aij é a ¯ matriz adjunta de A. Prova. multiplicando-o internamente por vi . então é ortogonal a si mesmo e w = 0. . wi = 0 e usaremos o símbolo v ⊥ w para designar este fato. vi i = ki kvi k2 . wi pode ser um número complexo. Quando estivermos em um espaço vetorial sobre o corpo dos números complexos. Então S é uma base. vi e assim. k1 v1 + · · · + kn vn i = ki hvi . Teorema 4. Se w for ortogonal a si mesmo. Um conjunto de vetores {v1 . vp } é ortogonal quando seus elementos forem dois a dois ortogonais entre si. obtemos xi = hvi . vn } um conjunto ortogonal de vetores de V. vn } uma base ortonormal de um espaço vetorial V. Basta provar que S é linearmente independente. . vi vp . hv. . a matriz A é denominada hermitiana. 0 = hvi . Seja V um espaço vetorial sobre o corpo dos números reais. kn escalares tais que k1 v1 + · · · + kn vn = 0. . . Se A−1 = A∗ a matriz A é denominada unitária. segue que ki = 0.9 Seja V um espaço vetorial de dimensão n e S = {v1 . como sendo aquele único número real θ.

Sabemos que M12 = M21 e que X X wj = aij vi e vj = bij wi . 5 5 · 3 5 4 5 4 5 3 4 e1 + e2 5 5 4 3 e1 − e2 = 5 5 ∗ A matriz M12 é hermitiana e M12 M12 é a matriz identidade. i i Sendo as bases ortonormais. wn } de V. y2 )i = x1 x2 + y1 y2 . . .11 Consideremos as bases B1 = {e1 . 4. f1 = (1/5)(3. 0). wn } as bases em questão. Ambas são ortonormais em relação ao produto interno h(x1 . Defina w1 = v1 . seguindo o procedimento descrito em seguida e conhecido como processo de ortogonalização de Gram-Schmidt. 1). M12 = [aij ] e M21 = [bij ] as matrizes de mudança da base B1 para a base B2 e da base B2 para a −1 base B1 . wi i = aji . −3). ¤ Exemplo 4. . respectivamente.68 Notas de aula do Prof. . e2 = (0. . y1 ). .5 Ortogonalização de Gram-Schmidt Podemos. Prova. Agora escreva w2 = v2 − β 12 w1 . . mostrando ¯ ¯ −1 ∗ ∗ que M12 = M12 e M12 = M12 . Sejam B1 = {v1 . Antonio Cândido Faleiros Teorema 4. 4) e f2 = (1/5)(4. . A matriz M12 de mudança da base B1 para a base B2 é hermitiana e unitária. a partir de uma base {v1 .10 Sejam B1 e B2 bases ortonormais de um espaço vetorial V sobre o corpo C dos números complexos. obter uma base ortogonal {w1 . . . vn } e B2 = {w1 . . wj i = aji e bij = hwi . f2 } do R2 . (x2 . . . −3 5 ¸ . aij = hvi . . mostrando que M12 é unitária. onde e1 = (1. vj i = hvj . . e2 } e B2 = {f1 . vn } uma base de um espaço vetorial V. Temos f1 = f1 e e1 = e1 Assim M12 = M21 = 3 4 f1 + f2 5 5 4 3 = f1 − f2 . .

onde qi = wi / kwi k . w3 = v3 − r13 q1 − r23 q2 e assim por diante. wn são definidos recursivamente por w1 = v1 e wk = vk − β 1k w1 − · · · − β k−1. . tomando w2 = v2 − r12 q1 e q2 = w2 / kw2 k . w3 i = 0 e hw2 . w1 i e β 23 = hw2 .k wk−1 para k = 2. . . Comece com w1 = v1 e q1 = w1 / kw1 k e continue com o processo de ortogonalização. se chega a um conjunto ortogonal {w1 . Antonio Cândido Faleiros 69 e determine o escalar β 12 para que a condição de ortogonalidade hw1 . onde β ik = hwi . . . . . . w1 i Prosseguindo com este raciocínio. wn } pode-se determinar uma base ortonormal {q1 . . vk i . w2 i hw1 . hwi . k − 1. v3 i . e qk = wk / kwk k . . Esta base ortonormal pode ser obtida ao mesmo tempo em que se obtém a base ortogonal.k qk−1 onde rik = hqi . Das condições de ortogonalidade hw1 . e q3 = w3 / kw3 k . . . wn } de vetores que é base de V. . n. hw1 . w2 i = 0 seja satisfeita. . para k = 2. v2 i . v3 i hw1 . . num passo genérico k. até que. Substitua w2 por v2 − β 12 w1 nesta condição para obter β 12 = Em seguida. wi i A partir da base ortogonal {w1 . .Notas de aula do Prof. w2 . . . w3 i = 0 calcule β 13 = hw1 . hw2 . considere w3 = v3 − β 13 w1 − β 23 w3 e determine β 13 e β 23 para tornar w3 ortogonal a w1 e w2 . . . vk i . . . . wk = vk − r1k q1 − · · · − rk−1. . . qn }. n e i = 1. . . . . Observe que os vetores w1 .

b2 . gi = f (x)g(x)dx. . . a3 ). A segunda possui a vantagem de ser ortogonal. xn ]T é uma matriz em Cm×1 consiste em escrever Ax = x1 v1 + · · · + xn vn .6 Decomposição QR hx. x2 . b1 + b2 x + b3 x2 = a1 b1 + a2 b2 + a3 b3 . L1 (x) = x. ¯ ¯ ¯ Exemplo 4. x3 } quanto {L0 (x). os polinômios obtidos de 1. 0. L3 (x) = x3 − x. x2 formam uma base ortonormal no espaço vetorial sobre C dos polinômios de grau menor ou igual a 2 e coeficientes complexos.12 Os ternos ordenados (1. . 4/5. . Os métodos espectrais usam polinômios ortogonais para resolver equações diferenciais parciais tanto analítica quanto numericamente. pelo processo de ortogonalização de Gram-Schmidt. Um modo interessante de olhar para o produto Ax. vn ] uma matriz m × n cujo coluna k é vk . Este procedimento pode ser estendido para o espaço vetorial dos polinômios de grau menor ou igual a n. A base ortogonal obtida a partir dela. x3 } é uma base não ortogonal deste espaço vetorial. L2 (x). (b1 . L3 (x)} são bases do espaço dos polinômios de grau menor ou igual a 3. onde x = [x1 . x2 . x3 − (3/5)x }. usando o produto interno definido acima. p1 (x). a2 . Vamos analisar o caso especial do espaço vetorial complexo Cn×1 com o produto interno Seja A = [v1 . . p2 (x). .13 Os polinômios 1. Antonio Cândido Faleiros Exemplo 4. x. . −3/5) formam uma base ortonormal no espaço vetorial Cn em relação ao produto interno ¯ ¯ ¯ h (a1 . (0. Denotemos por p0 (x). x.14 Considere o espaço vetorial sobre C dos polinômios com coeficientes complexos de grau menor ou igual a 3. x2 . Os quatro primeiros são 3 1 5 3 L0 (x) = 1. yi = x∗ y. 4. . Exemplo 4. munido com o produto interno ­ ® a1 + a2 x + a3 x2 . x. . x. . usando o procedimento de Gram-Schmidt. b3 ) i = a1 b1 + a2 b2 + a3 b3 . 2 2 2 2 Tanto {1. (0. . com o produto interno Z 1 hf. −1 O conjunto {1. . x2 − 1/3. x. 4/5). 0). é { 1. . L2 (x) = x2 − . Os polinômios Lk (x) = pk (x)/pk (1) continuam ortogonais dois a dois e são denominados de polinômios de Legendre. 3/5. L1 (x). . o que a torna mais adequada para determinados cálculos.70 Notas de aula do Prof.

. q2 . Mantendo a notação do parágrafo anterior. Ainda uma última observação.  ∗ vn vn v1 = w1 v2 = r12 q1 + w2 v3 = r13 q1 + r23 q2 + w3 onde rik = hqi . então qi qj = δ ij . v1 = r11 q1 v2 = r12 q1 + r22 q2 v3 = r13 q1 + r23 q2 + r33 q3 com rkk = kwk k .  r33 r12 r13 [v1 . . . . em que n = 3. vk i quando i 6= k ou ainda. ela é unitária. Se as colunas de A forem linearmente independentese b estiver na imagem de A. . vn ]. ∗ vn e ∗ Se {q1 .Notas de aula do Prof. sendo A = [v1 . Antonio Cândido Faleiros 71 e observar que Ax é uma combinação linear das colunas de A. qn } for uma base ortonormal em Cn×1 . q3 } a base ortonormal de C3×1 obtida pelo processo de ortogonalização de Gram-Schmidt. é unitária pois Q Q = [qi qj ] = [δ ij ] = I. Então. então   ∗ v1  . Seja A = [v1 . .  . pelo desenvolvimento da seção anterior que ∗ ∗ v1 v1 v1 v2 ∗  v v v∗v A∗ A =  2 1 2 2  ∗ ∗ vn v1 vn v2   ∗ v1 vn ∗ v2 vn  ∗  = [vi vj ] . v2 . a igualdade matricial Ax = b. . v2 . pode ser escrita na forma b = x1 v1 + · · · + xn vn que pode ser interpretada do seguinte modo: x é a matriz de b na base formada pelas colunas de A. a decomposição é única. Seja {v1 . qn ]. A matriz quadrada ∗ ∗ Q = [q1 . quando as colunas de uma matriz quadrada formarem uma base ortonormal de Cn×1 . cuja coluna k é qk . Conclusão. . . . . q3 ] a matriz cuja coluna k é qk . . v3 ] a matriz cuja coluna k é vk e Q = [q1 . sendo b uma matriz coluna em Cm×1 .  A∗ =  . v3 ] = [q1 . q2 . Vamos iniciar com um caso particular. v3 } uma base de 3×1 C e {q1 . v2 . q3 ]  0 r33 r23  0 0 r33  . Sabemos. q2 .

observe que o espaço hv1 i . vn são vetores linearmente independentes de Cm×1 . no segundo caso. v2 . . v2 i . . Esta é a chamada decomposição QR de uma matriz A. . . Antonio Cândido Faleiros é triangular superior. . gerado por v1 é igual ao espaço hq1 i gerado por q1 . . v2 . vn ] = [q1 . o que exige m ≥ n. . hq1 i = hv1 i . . ···  ··· ou A = QR. q2 i gerado por q1 . analizando dois casos separadamente. . . o espaço hv1 . . Usando o processo de ortogonalização de Gram-Schmidt. vamos mostrar um processo para obter a decomposição QR de uma matriz A em Cm×n . . q3 . . . . e assim por diante.  ··· ···  . v3 . hq1 . q3 i = hv1 . nem todas as colunas de A são linearmente independentes. q2 . .. qn ] cujas colunas formam uma base ortonormal para o espaço gerado pelas colunas de A e onde v1 = r11 q1 v2 = r12 q1 + r22 q2 v3 = r13 q1 + r23 q2 + r33 q3 ··· Essas igualdades escritas na forma matricial resultam em  r11  0 [v1 . No primeiro. todas as colunas de A são linearmente independentes e. hq1 . . . q2 . . As colunas da matriz são linearmente independentes Seja A = [v1 . v2 i gerado por v1 e v2 é igual ao espaço hq1 . q2 . vn ] uma matriz complexa de ordem m por n. onde Q é uma matriz unitária e   r33 r12 r13 R =  0 r33 r23  0 0 r33 r12 r13 r22 r23 0 r33 ··· ··· que se resume em . .72 Notas de aula do Prof.. Nesta decomposição. qn ]   0 ··· ˆˆ A = QR denominada decomposição QR reduzida de A. v3 i . Motivados por esse exemplo. q2 i = hv1 . cujas colunas v1 . podemos escrever obter uma matriz Q = [q1 . .

. . . Alertamos o leitor de que este algoritmo é numericamente instável. . vk−1 i = hq1 . . . . qn . . vk ∈ hv1 . vk−1 . . . . . lá pelas tantas. . . que possibilita a obtenção da decomposição QR de uma mariz A. ou seja. A matriz Q = [q1 . . . qk−1 i . . podemos descrever o algoritmo clássico de GramSchmidt. cujas colunas são linearmente independentes. . . 2. . . . . . qm } seja uma base ortonormal de Cm . . . Determine y = Q∗ b. . vk depende linearmente das colunas v1 . . . Resolva o sistema Rx = y na variável x. ================================ Algoritmo 8. Neste caso. procedemos do seguinte modo: 1. . . . à sua esquerda. .Notas de aula do Prof. . . . Algoritmo clássico de Gram-Schmidt (instável) Entrada: Base {v1 . Antonio Cândido Faleiros 73 Completemos a base {q1 . qn } com os vetores unitários qn+1 . As colunas da matriz são linearmente dependentes Passemos ao caso em que m ≥ n e as colunas de A formam um conjunto linearmente dependente. . 3. . o sistema Ax = b possui uma única solução. qm de modo que {q1 . . Para resolver este sistema usando a decomposição QR. . . qn . . Calcule a decomposição A = QR. vn } de Cn Saída: Base ortonormal {q1 . qn } de Cn ================================ for k = 1 to n wk = vk for i = 1 to k − 1 ∗ rik = qi vk wk = wk − rik qi rkk = kwk k qk = wk /rkk ================================ Solução de Ax = b usando a decomposição QR Quando A é uma matriz quadrada de ordem m. . qm ] ˆ obtida pela inclusão de m − n colunas à direita de Q e a matriz R obtida pela inclusão de m − n linhas nulas na parte inferior de R são tais que A = QR que é a chamada decomposição QR completa de A ou decomposição QR de A. Realizado este desenvolvimento. .1.

. v3 . . . q3 } é ortonormal e o espaço que ele gera contém o espaço gerado por {v1 . Usando o método de ortogonalização de Gram-Schmidt. . ˆˆ A = QR. As matrizes Q e R assim obtidas são de tal forma que A = QR. qj−1 . q2 . escolhe-se de modo arbitrário um q3 unitário. de modo que {q1 . ortogonal aos vetores q1 . q2 . . . v2 . Para estas matrizes. Note-se que o espaço gerado por {q1 . . q2 . cujas colunas formam uma base ortonormal de Cm . qn ]. Quando isto ocorre. até obter as matrizes Q e R. Se v4 não pertencer ao espaço gerado por {q1 . obtendo uma matriz R. . Esta fatoração de A é conhecida como decomposição QR reduzida de A. qj }. qm } seja uma base ortonormal de Cm e assim. . v2 . Calcula-se q4 = quando então 1 (v4 − r14 q1 − r24 q2 − r34 q3 ) r44   r14 r24   r34  r44 onde se observa que a matriz da direita é triangular superior. qm ]. q3 }. . . este procedimento continua. para este valor de k. obtendo um conjunto ortonormal {q1 . . qj−1 . v2 . . . q3 . v4 ]. Suponha que v1 e v2 são linearmente independentes. q4 ]   0 0 0 0 0 0 . devemos acrescentar m − n linhas nulas na parte inferior de R. é triangular superior. . r11 r12 r13  0 r22 r23 [v1 . . Com esta escolha. . ˆ ˆ No caso genérico. são vetores ortogonais entre si e possuem ˆ módulo unitário. obter uma matriz unitária Q = [q1 . ˆ Na continuação. . . A matriz R. . . calculamos v1 = r11 q1 v2 = r12 q1 + r22 q2 Supondo v3 no espaço gerado por {q1 . . de ordem n por n. ortogonal a q1 e a q2 . v3 }. qn . v3 . v2 . . As colunas ˆ da matriz Q = [q1 . q3 . tem-se w3 = v3 − r13 q1 − r23 q2 = 0 e v3 = r13 q1 + r23 q2 Daí. v4 }. de ordem m por n. . . de ordem m por n. . q2 . de ordem m por m. qn . v4 ] = [q1 . . . Notas de aula do Prof. . qm à direita de Q. escolhemos um vetor unitário qj . . triangular superior. . Vejamos um exemplo em que A = [v1 .74 e. q4 } contém o espaço gerado por {v1 . {q1 .k qk−1 = 0. . v3 . ˆ Podemos acrescentar m − n colunas qn+1 . Antonio Cândido Faleiros wk = vk − r1k q1 − r2k q2 − · · · − rk−1. q2 }.

Exemplo 4. . A matriz quadrada Q = [q1 . que formam uma base ortonormal de Cm . de ordem m. qm ].Notas de aula do Prof. e a matriz triangular superior R de ordem m por n. . A decomposição se encerra quando obtemos o conjunto de m vetores B = {q1 . qm }. . . Antonio Cândido Faleiros 75 Esta é a decomposição QR completa de A ou apenas decomposição QR de A. obtidas no desenrolar do processo são tais que A = QR. . o procedimento é semelhante ao anterior. . .15 A decomposição QR de   −1 3 0  1 0 1  0 1 2  é Exemplo 4.18 A decomposição QR de  √ √ √ √   √ −1/ 2 3/√22 1/√11 2 −3/ 2 √ p  1/ 2 3/ 22 1/ 11   0 11/2  p √ 0 0 2/11 −3/ 11 0   1 1 2  0 1 1   Exemplo 4. .17 A decomposição QR de   1 0 1  0 2 0 √ √ √  √ √ √  √ 1/ 2 1/√22 2/√33 3/ √ 3 2 1/ 2 3/ 2 √ √  0 2/ √ 22 4/ √ 33 −3/√3   0 1/ 22 3/√22  é √  1/ 2 −1/ 22 −2/ 33 −3/ 3   0 0 6/ 33 √ √ 0 0 0 0 4/ 22 −3/ 33 0 1  0   1 0 1 1 0 0  2 1   1  0     .16 A decomposição QR de  é  √ √ √  √ √ √  −1/ 2 3/√22 −1/√11 2 −3/ 2 1/ 2 √ √ √  1/ 2 3/ 22 −1/ 11   0 11/ 22 7/ 22  . √ √ √ 0 2/ 22 3/ 11 0 0 5/ 11  −1 3  1 0  0 1 Exemplo 4. Quando m < n. Este produto é conhecido como decomposição QR completa da matriz A ou decomposição QR de A.

76 √ √ √ 1/ 2 1/√6 1/ √3  0 2/ √ −1√3 6 é √  1/ 2 −1/ 6 −1 3 0 0 0  Notas de aula do Prof. onde √ √   √ 1/ 2 1/√6 1/ √ 3  0 Q= 2/ √ −1/√3  6 √ 1/ 2 −1/ 6 −1/ 3 Exemplo 4. Antonio Cândido Faleiros √ √   √ 0 2 1/√2 3/√2 0   0 3/ 6 3/ 6    0 0  0  0 0 0 0 1 é A = QR.19 A decomposição QR de   1 1 2 0  0 1 1 1  1 0 1 3 √ √ √   √ 2 1/√2 3/√2 3/ √ 2  0 3/ 6 3/ 6 −1/ 6  . R= √ 0 0 0 −4/ 3 e .

Vk . . . dim(V ) + dim(W ) − dim(V ∩ W ) = dim(V ) + dim(W ) − dim(V ) = dim(W ) o que prova o teorema para este caso particular. . Neste caso. . se for linearmente independente. . então V ∩ W = V e V + W = W. . Vamos agora tratar o caso em que V ∩ W é diferente de V e de W. . se x1 . dim(V + W ) = p + q + r = (q + p) + (r + p) − p = dim(V ) + dim(W ) − dim(V ∩ W ) e o teorema estará provado. . . w1 . z1 . . .1 Sejam V e W dois subespaços de um espaço vetorial U. . Prova. up . Falta provar que B4 é linearmente independente. . Neste caso. . xp . O conjunto V1 + · · · + Vk = { v1 + · · · + vk : vi ∈ Vi para i = 1. . Vamos mostrar que. Se algum yj for diferente de zero. . . up } uma base de V ∩ W. . . Analisemos esta possibilidade. . Seja B1 = {u1 . . . up . . . . . k } é um subespaço vetorial de V e recebe o nome de soma de V1 . . . Vk subespaços vetoriais de V. . up . . vq } seja base de V e B3 = {u1 . . . . . .Capítulo 5 Soma de subespaços Sejam V1 . . v1 . . Então dim(V + W ) = dim(V ) + dim(W ) − dim(V ∩ W ). . . v1 . então todos eles são nulos. será base de V + W. Vamos completá-la de modo que B2 = {u1 . . . . . . . wr } seja base de W. . . Teorema 5. . . . zr forem escalares tais que x1 u1 + · · · + xp up + y1 v1 + · · · + yq vq + z1 w1 + · · · + zr wr = 0. wr } gera V + W e. . o vetor não nulo y1 v1 + · · · + yq vq seria uma combinação linear dos elementos de 77 . . . y1 . . Do mesmo modo se prova que o teorema vale quando W está contido em V. . Quando V está contido em W. vq . O conjunto B4 = {u1 . yq . . w1 .

como V = V1 + V2 . . . . com v1 em V1 e v2 em V2 . Antonio Cândido Faleiros B3 . Sendo B1 uma base. como estes dois subespaços são disjuntos. Logo. Vk subespaços vetoriais de V. Dois subespaços vetoriais V1 e V2 de V são disjuntos se a interseção V1 ∩ V2 contiver apenas o zero. . v1 − w1 = w2 − v2 . Logo. . então V1 e V2 são denominados complementares. yj e zk são todos nulos e a equação se reduz a x1 u1 + · · · + xp up = 0. Sendo v1 − w1 um vetor de V1 igual a w2 − v2 . . . com w1 em V1 e w2 em V2 .2 Sejam V1 . . Se V = V1 ⊕ V2 . up . . Do mesmo modo não podemos ter um zk diferente de zero. . xp são todos nulos. . Teorema 5. ele estaria em W e em V ao mesmo tempo. Então V = V1 ⊕ V2 se e só se V1 . provando que V1 e V2 são disjuntos. diremos que V é uma soma direta dos subespaços V1 . Se houvesse outra decomposição v = w1 + wk . . . Se V1 e V2 forem disjuntos. ¤ 5. contrariando a hipótese de B2 ser base. Com este resultado. Daí B4 é linearmente independente. . provando que a decomposição de v numa soma de um elemento de V1 com um elemento de V2 é única e assim. Se todo v em V puder ser escrito de forma única como uma soma do tipo v = v1 + · · · + vk onde vi ∈ Vi . o fato de os espaços envolvidos serem disjuntos dois a dois não é suficiente para garantir que V seja a soma direta desses subespaços como nos mostra o exemplo a seguir. então v1 + v2 = w1 + w2 e assim. . V = V1 ⊕ V2 . concluímos que x1 . Então 0 0 v v = |{z} + |{z} = |{z} + |{z} v ∈V1 ∈V2 ∈V1 ∈V2 e. ¤ Quando V igual à soma de mais do que dois subespaços.1 Soma direta Definição 5. v = 0. todo v em V pode ser decomposto numa soma v = v1 + v2 . estando na interseção V ∩ W e assim y1 v1 + · · · + yq vq poderia ser escrito como uma combinação linear de u1 . v1 − w1 = 0 ou v1 = w1 . Se V = V1 ⊕ V2 . V2 forem disjuntos.3 Sejam V1 e V2 subespaços vetorias de V tais que V = V1 + V2 . como a decomposição é única. Prova. . Vk e escreveremos V = V1 ⊕ · · · ⊕ Vk . um vetor de V2 . obtemos w2 − v2 = 0 ou v2 = w2 . seja v um vetor de V na interseção de V1 e V2 .78 Notas de aula do Prof. então v1 − w1 está na interseção de V1 com V2 e. .

. . V = V1 + V2 + V3 . para i = 1. da unicidade da decomposição. . . com vi em Vi . v pode ser escrito de forma única como uma combinação linear dos vetores da união B1 ∪ · · · ∪ Bk . Se V = V1 + · · · + Vk e V1 . y) ∈ R2 : y ∈ R}. Vk de V são independentes se v1 + · · · + vk = 0. Então V = V1 ⊕ · · · ⊕ Vk se e só se V1 . x) ∈ R2 : x ∈ R}. . com wi em Vi . . respectivamente. . . Vk são independentes se e só se Vj for disjunto da soma V1 + · · · + Vj−1 . sejam v1 . todo v em V pode ser decomposto de forma única numa soma v = v1 + · · · + vk . . . Vk forem independentes. para i = 1. . 0) ∈ R2 : x ∈ R}. provando que esta é uma base de V. . concluímos que vi = wi . . V1 . .4 Seja V = R2 e V1 = {(x. . Se V = V1 ⊕ · · · ⊕Vk . todo v em V pode ser decomposto numa soma v = v1 + · · · + vk . . . Estes três subespaços são disjuntos dois a dois. . . . k. k. e tais que v1 + · · · + vk = 0. . então (v1 − w1 )+ · · · + (vk − wk ) = 0 e. . Logo. . a decomposição de v como soma de vetores de V1 . Vk . Vk subespaços vetoriais de V. mas V não é a soma direta de V1 . .5 Sejam V1 . . . . Teorema 5. para i = 1. . Logo. . . A condição de serem disjuntos será substituida pela condição de serem independentes. . Cada vi pode ser decomposto de forma única nos vetores da base Bi . . . k. então v1 = · · · = vk = 0. para i = 1. Vk subespaços vetoriais de um espaço vetorial V tais que V = V1 + · · · + Vk . . k. Vk são independentes. com vi em Vi . . V2 = {(0. . . k. . . Vk forem independentes.Notas de aula do Prof.6 Sejam V1 . Os subespaços vetoriais V1 . Prova. . . k. vk vetores de V1 . ¤ Teorema 5. ¤ . Seja Bi base de Vi para i = 1. Se V = V1 ⊕ · · · ⊕ Vk . V3 = {(x. Como 0 = 0+ · · · + 0. . . . . um espaço vetorial com dimensão finita. . . . Se houvesse outra decomposição v = w1 + · · · + wk . . Se V = V1 ⊕ · · · ⊕Vk então dim V = dim V1 + · · · + dim Vk . da independência dos subespaços vetoriais Vi . . . Prova. . . . Antonio Cândido Faleiros 79 Exemplo 5. k. Vk é única e V = V1 ⊕ · · · ⊕ Vk . . . . . V2 e V3 . Logo. . . Dois espaços vetoriais V1 e V2 de V são independentes se e só se forem disjuntos. . . . . . . Uma caracterização da independência dos subespaços é a seguinte: Os subespaços V1 . . . para j = 2. concluímos que vi = 0 para i = 1. com vi em Vi .

onde s = hv1 . vi v1 − · · · − hvp .8 Seja S um subespaço vetorial de dimensão finita de um espaço vetorial V com produto interno. qualquer vetor v pode ser decomposto numa soma v = s+ w. Se v = s1 + w1 . então s + w = s1 + w1 e assim. Então V = S ⊕ S ⊥ . dim V = dim S+ dim S ⊥ = dim S ⊥ + dim S ⊥ . mostrando que S está contido no ¡ ¢⊥ complemento ortogonal do complemento ortogonal de S. O conjunto S ⊥ = {v ∈ V : hv. Teorema 5. . V = S+ S ⊥ . Dado qualquer v em V. Desta forma. ¤ Se v é um vetor de um subespaço S de um espaço vetorial V. Estando S contido em S ⊥ e possuindo ambos a mesma dimensão. S . vi vp é ortogonal a todo vetor de S. Prova. Vamos mostrar que esta decomposição é única. . s − s1 = w1 − w. ¡ ¢⊥ ¡ ¢⊥ que acarreta na igualdade dim S = dim S ⊥ .2 Complemento ortogonal Definição 5. Antonio Cândido Faleiros 5. Para mostrar que um determinado vetor v está em S ⊥ . S ∩ S ⊥ = {0}. si = 0 para todo s em S } é um subespaço de V. com s1 em S e w1 em ⊥ S . vp } uma base ortonormal de S. o vetor w = v − hv1 . mostrando que os vetores s − s1 e w1 − w estão na interseção S ∩ S ⊥ . . Seja {v1 . V = S ⊕S ⊥ = S ⊥ ⊕ S ⊥ e assim. vi v1 + · · · + hvp . Por outro ¡ ¢⊥ ¡ ¢⊥ lado. . então v é ortogonal ¡ ¢⊥ a todo vetor de S ⊥ e assim ele pertence ao S ⊥ . isto é. vi vp pertence a S e w pertence a S ⊥ e assim. basta mostrar que ele é ortogonal a todo vetor de uma base de S. O único vetor que está ao mesmo tempo em S e em S ⊥ é o vetor nulo e daí. eles são iguais ¡ ⊥ ¢⊥ = S. s = s e w = w.7 Seja V um espaço vetorial com produto interno e S um subespaço vetorial de V. Como a interseção só possui o vetor nulo. S ⊂ S ⊥ .80 Notas de aula do Prof. chamado de complemento ortogonal de S.

Primeiro a existência. . os valores das transformações lineares L e L∗ nas bases de seus respectivos domínios se escrevem Lvj = L∗ wi = m X i=1 n X j=1 aij wi aij vj . . . . Dado uma tansformação linear L : V → W. . . L∗ wi . 2. Sendo B1 = {v1 . Seja L∗ : W → V aquela transformação linear que leva wi . wi = hv. para j = 1. . . para todo v em V e w em W. wm } uma base ortonormal de W podemos escrever Lvj . . basta estabelecer seu valor nos elementos de uma base do seu domínio. . . . . vamos mostrar que existe uma única transformação linear L∗ : W → V tal que hLv. . .Capítulo 6 Transformação adjunta Sejam V e W espaços vetoriais complexos com dimensão finita e produto interno. n. m. nos seguintes vetores de V L∗ w1 = a11 v1 + a12 v2 + · · · + a1n vn ¯ ¯ ¯ ∗ L w2 = a21 v1 + a22 v2 + · · · + a2n vn ¯ ¯ ¯ ··· ∗ ¯ ¯ ¯ L wm = am1 v1 + am2 v2 + · · · + amn vn Usando o símbolo de somatório. vn } uma base ortonormal de V e B2 = {w1 . para i = 1. ¯ 81 . . como uma combinação linear dos elementos de B2 Lv1 = a11 w1 + a21 w2 + · · · + am1 wm Lv2 = a12 w1 + a22 w2 + · · · + am2 wm ··· Lvn = a1n w1 + a2n w2 + · · · + amn wm Para definir uma transformação linear.

(x2 . (L∗ − T )wi = 0 . o que prova a unicidade. obtemos h (L∗ − T )w. Agora a unicidade. Consideremos nestes dois espaços seus respectivos produtos internos euclidianos h (x1 . o que prova a existência. T wi ou ainda para todo v em V e w em W. hv. 5x + 7y. então (T L)∗ = L∗ T ∗ . 11x + 13y) uma transformação linear do R2 no R3 . L∗ wi para todo v em V e w em W. Fazendo v = (L∗ − T )w. y1 . Se L : V → W e T : W → U forem duas transformações lineares. e2 } a base canônica do R2 e B2 = (f1 . z2 ) i = x1 x2 + y1 y2 + z1 z2 . wi = hv. z1 ). wi i = hvj . Este conceito de transformação adjunta se aplica a transformações lineares entre espaços vetoriais reais. wi = hv. f2 . Neste caso. Temos Le1 = 2f1 + 5f2 + 11f3 Le2 = 3f1 + 7f2 + 13f3 h (x1 .82 Notas de aula do Prof.1 Seja L(x. A transformação linear L∗ recebe o nome de transformação adjunta de L. segue hLvj . Antonio Cândido Faleiros Da ortonormalidade das bases B1 e B2 . mostrando que T = L∗ . L∗ wi = hv. Esta relação entre as matrizes de L e L∗ só se verifica se as bases forem ortonormais. respectivamente. y2 ) i = x1 x2 + y1 y2 e Seja B1 = {e1 . (L∗ − T )w i = 0 ou (L∗ − T )w = 0 para todo w em W. (x2 . Se A = [aij ] for a matriz de L : V → W e B = [bij ] for a matriz de L∗ : W → V nas bases ortonormais B1 e B2 de V e W. y) = (2x + 3y. Se T : W → V for outra transformação linear para a qual hLv. então hv. então bij = aji e ¯ B = A∗ . respectivamente. y2 . T wi para todo v em V e w em W. f3 ) a base canônica do R3 que são ortonormais em relação aos produtos internos euclidianos de R2 e R3 . y1 ). os escalares serão reais e aij = aij e ¯ Exemplo 6. como nos mostra o próximo exemplo. L∗ wi i fazendo com que hLv.

L∗ wi = hLv. Entretanto. vi = hv. O leitor poderá verificar que Lv1 = 8w1 + 11w2 + 7w3 Lv2 = 3w1 + 4w2 + 2w3 e L∗ w1 = 18v1 − 13v2 L∗ w2 = 27v1 − 21v2 L∗ w3 = 11v1 − 9v2 As matrizes [L]34  8 3 =  11 4  7 2  · 18 27 11 −13 −21 −9 ¸ e [L ]43 = ∗ não são mais uma a adjunta da outra. Dada a transformação linear L. a transformação adjunta L∗ é a única que satisfaz à igualdade hLv. L∗ wi e hv. Antonio Cândido Faleiros e L∗ f1 = 2e1 + 3e2 L∗ f2 = 5e1 + 7e2 L∗ f3 = 11e1 + 13e2 de modo que [L]12  2 3 = 5 7  . 1. 1. wi = hw. Nenhuma das duas é ortonormal em relação ao produto interno euclidiano do R2 e R3 . Para todo v em V e w em W. T wi para todo v e todo w. nos conduzindo à igualdade T = L∗ . wi = hv. Um operador linear L : V → V é auto-adjunto quando L∗ = L. 0. T w − L∗ wi = 0 para todo v o que acarreta na igualdade T w = L∗ w para todo w. Lvi . w2 . se T for outra transformação linear para a qual hLv. w2 = (0. w3 } será base de R3 . 2). 1). tem-se hL∗ w. então hv. L∗ wi para todo v em V e todo w em W. . v2 } será base de R2 e B4 = {w1 . De fato. 11 13  · ¸ 83 [L ]21 = ∗ 2 5 11 3 7 13 onde uma é a transposta da outra. v2 = (0. (L∗ )∗ = L. 1) então B3 = {v1 . se v1 = (1. w1 = (1. Os operadores LL∗ e L∗ L são auto-adjuntos. T wi = hv. wi = hv. isto é.Notas de aula do Prof. mostrando que a adjunta da adjunta é igual a L. 1). 2) e w3 = (0.

ker(L∗ ) = ker(LL∗ ). Se w ∈ Im (L)⊥ .3 Sejam V e W espaços vetoriais com produto interno e L : V → W linear. Quando L é auto-adjunta. Se w ∈ Im (L). .4 Sejam V e W espaços vetoriais com produto interno e L : V → W linear. x3 ) e y = (y1 . 1. V = ker(L) ⊕ Im (L∗ ). x2 .2 Sejam x = (x1 .84 Notas de aula do Prof. Antonio Cândido Faleiros Exemplo 6. Sendo L∗ : W → V a adjunta de L. segue Im (L∗ )⊥ = ker(L) ou Im (L∗ ) = ker(L)⊥ Sejam V e W espaços vetoriais com produto interno e L : V → W linear. z) = (2x+ 3y+ 5z. Conclui-se que w pertence ao complemento ortogonal da Im (L). 1b. Im (L) = Im (LL∗ ). Como v1 ∈ ker(L)⊥ = Im (L∗ ). então hLv. provando. se w ∈ ker(L∗ ). 1a. existe w1 tal que v1 = L∗ w1 e assim w = LL∗ w1 . wi = 0 ou hv. vale a relação Im (L)⊥ = ker(L∗ ). Podemos escrever de modo único v = v1 + v2 onde v1 ∈ Im (L∗ ) e v2 ∈ ker(L). 3x+ y. Esta igualdade ocorre porque V = ker(L) ⊕ ker(L)⊥ = ker(L) ⊕ Im (L∗ ). Prova. 2. Vamos provar agora que Im (L) ⊂ Im (LL∗ ). Sendo L∗ : W → V a adjunta de L. que w é ortogonal a todo elemento da imagem de L. o que completa a prova da recíproca. Sendo L∗ : W → V a adjunta de L. deste modo. Teorema 6. y2 . y3 ) dois pontos do R3 . ¤ Como L∗∗ = L. L∗ wi = hv. Prova. 0i = 0 para todo v ∈ V. consideremos o produto interno hx. Reciprocamente. então existe um w1 tal que w = LL∗ w1 = L(L∗ w1 ) provando que w ∈ Im (L). Im (L)⊥ = ker(L). y. 5x+ 4z) é auto-adjunto pois L∗ = L. Em relação a este produto interno. Se w ∈ Im (LL∗ ). Logo w = Lv = Lv1 + Lv2 = Lv1 . o operador linear L : R3 → R3 definido por L(x. yi = x1 y2 + x2 y2 + x2 y3 . então w = Lv para algum v em V. então hLv. Teorema 6. mostrando que w ∈ Im (LL∗ ). Inicialmente provaremos que Im LL∗ ⊂ Im L. wi = hv. substituindo L por L∗ na igualdade acima. L∗ wi = 0 para todo v ∈ V de onde se conclui que L∗ w = 0 mostrando que w está no ker(L∗ ).

Notas de aula do Prof. O operador linear L : V → V é antiadjunto quando L∗ = −L e unitário quando L∗ = L−1 . Teorema 6. v2 i . Considerada como uma transformação linear de Cn em Cm . provamos que ker(LL∗ ) ⊂ ker(L∗ ). Sendo A uma matriz complexa de ordem m por n. Antonio Cândido Faleiros 85 2a. para todo v1 e v2 em V. O número de colunas linearmente independentes de uma matriz é igual ao número de suas linhas linearmente independente. ker(L∗ ).6 Numa base ortonormal.1 Posto de uma transformação linear Definição 6.5 Seja V um espaço vetorial com produto interno. em consequência. A dimensão da imagem de L é chamada de posto de L. 2b.7 O operador linear L : V → V é unitário se e só se. seu posto é igual ao número de colunas linearmente independentes que A possui.8 Sejam V e W espaços vetoriais e L : V → W uma transformação linear. Se w ∈ ker(L∗ ) então L∗ w = 0 e. . Logo. apresentamos o quadro abaixo. Espaço Real Espaço Complexo Operador Matriz Operador Matriz auto-adjunto simétrica auto-adjunto hermitiana antiadjunto anti-simétrica antiadjunto antihermitiana ortogonal ortogonal unitário unitária 6. L∗ w = 0. Lv2 i = hv1 . a matriz A = [aij ] de um operador auto-adjunto é hermitiana (A = A∗ ). LL∗ w = 0. Teorema 6. hLv1 . Se w ∈ ker(LL∗ ) então L(L∗ w) = 0 e L∗ w pertence ao ker(L) e à Im (L∗ ) cuja interseção contém apenas o zero. Com isto. o que completa a prova da parte 2 do teorema. Definição 6. provando que ker(L∗ ) ⊂ ker(LL∗ ). Para fixar a nomenclatura. ¤ Resumindo: Para uma transformação linear L : V → W e sua adjunta L∗ : W → V valem as identidades (L∗ )∗ Im (L∗ ) Im (LL∗ ) ker(LL∗ ) = = = = L ker(L)⊥ Im (L). provando que w está no ker(L∗ ). a de um operador antiadjunto é antihermitiana (A = −A∗ ) e a de um operador unitário é unitária (A∗ = A−1 ).

A matriz de L em relação à  1  2 A= 0 base canônica do R3 é  2 −1 4 −2  1 2 a primeira e terceira linha são linearmente independentes e a segunda é o dobro da primeira. O posto das transformações lineares L. y + 2z ) = (x + 2y − z)(1. o posto de L deve ser menor ou igual do que a dimensão de W. Teorema 6. vn } for uma base de V. 2x + 4y − 2z.12 Seja A uma matriz complexa. Sejam V e W espaços vetoriais. Seja A a representação matricial de L em relação a bases de V e de W. Motivados por este comentário. Prova. . As matrizes A. ambos com dimensão finita. . o teorema está provado. z) = ( x + 2y − z. A∗ . .11 Sejam V e W espaços vetoriais com produto interno e dimensão finita. . 0. A imagem de uma transformação linear L : V → W está contida em W. Como Im (LL∗ ) = Im (L) e Im (L∗ L) = Im (L∗ ). . Se {v1 . qualquer vetor v em V pode ser decomposto de modo único como uma combinação linear v = x1 v1 + · · · + xn vn e assim. 2.9 Sejam V e W espaços vetoriais de dimensão finita e L : V → W uma transformação linear. Dessas duas igualdades concluímos que dim Im (L∗ ) = dim Im (L) provando que o posto de L é igual ao posto de L∗ . cujo posto é 2. dim ker(L) + dim Im (L) = dim V. dim ker(L) + dim Im (L∗ ) = dim V. O posto de L é igual ao posto de A. . diremos que L tem posto máximo quando o posto de L for igual ao mínimo entre a dimensão de V e a dimensão de W. As duas primeiras colunas são linearmente independentes e a terceira é igual a −5 vezes a primeira mais 2 vezes a segunda. ¤ Corolário 6. Antonio Cândido Faleiros Teorema 6. Sabemos que de onde obtemos Por outro lado. Portanto. y. Lvn } gera a imagem de L o que assim o posto de L deve ser menor ou igual do que a dimensão de V.10 Seja L : R3 → R3 definida por L(x. Lv = L(x1 v1 + · · · + xn vn ) = x1 Lv1 + · · · + xn Lvn . 1). . Concluímos que o posto de L não pode ser maior do que a dimensão de V nem maior do que a dimensão de W. L∗ L e LL∗ são iguais. L∗ . . V = ker(L) ⊕ Im (L∗ ). O posto de A é dois. Exemplo 6.86 Notas de aula do Prof. mostrando que {Lv1 . Seja L : V → W linear. AA∗ e A∗ A possuem o mesmo posto. 0) + (y + 2z)(0. .

um isomorfismo. Quando dim W ≤ dim V. então dim Im (L∗ L) = dim Im (L) = dim(V ) e assim L∗ L é sobrejetora e. portanto. onde A é uma matriz complexa m × n e b é uma matriz complexa m × 1. a transformação linear LL∗ : W → W é um isomorfismo. Percebe-se do comentado acima que há uma estreita relação entre os sistemas lineares Ax = b e A∗ y = c. Da igualdade Im(A) = ker(A∗ )⊥ conclímos que Ax = b tem solução se e só se b for ortogonal a todo y no núcleo de A∗ isto é. 1. Nestes sistemas. 2. Existindo soluções. Da igualdade ker(A) = Im(A∗ )⊥ . yi = 0 . portanto. A∗ yi = para todo y em Cm×1 . ambos com produto interno. hb. posto(L) = dim V ≤ dim W. Tais matrizes x são denominadas soluções do sistema Ax = b. 2. então dim Im (LL∗ ) = dim Im (L∗ ) = dim(W ) e assim LL∗ é sobrejetora e. Um método usado na obtenção das soluções é o da eliminação de Gauss. Quando 1. as matrizes A e b são dadas e o que se deseja é determinar se existem matrizes coluna complexas x de tamanho n × 1 tais que Ax = b. posto(L) = dim W ≤ dim V.13 Sejam V e W espaços vetoriais com dimensão finita. é importante determiná-las. isto é hx. concluímos que x é solução do sistema homogêneo Ax = 0 se e só se x for ortogonal à imagem de A∗ . Seja L : V → W uma transformação linear com posto máximo. a transformação linear L∗ L : V → V é um isomorfismo. Quando dim V ≤ dim W. O sistema homogêneo Ax = 0 tem solução x não nula se e só se x pertencer ao núcleo de A. As igualdades Im (L)⊥ = ker(L∗ ) e Im (L∗ ) = ker(L)⊥ possuem uma consequência interessante para sistemas de equações lineares Ax = b. um isomorfismo. A matriz A é uma transformação linear de Cn×1 em Cm×1 . Antonio Cândido Faleiros 87 Teorema 6.Notas de aula do Prof. Prova.2 Existência de solução dos sistemas lineares para todo y em Cm×1 solução do sistema homogêneo A∗ y = 0. ¤ 6. O sistema Ax = b tem solução se e só se b estiver na imagem de A.

Antonio Cândido Faleiros .88 Notas de aula do Prof.

segue P v = v1 e (I −P )v = v2 . Sob estas condições. (1) Seja v um vetor em V. para todo v1 em S1 e v2 em S2 . se diz que P projeta ortogonalmente sobre sua imagem. Sendo P uma projeção. Logo. Se v estiver na imagem de P. (2) Se v1 na Im (P ) e v2 no ker(P ) forem tais que v = v1 + v2 . Considere o operador P : V → V definido por P (v1 + v2 ) = v1 . Sejam S1 e S2 dois subespaços de V tais que V = S1 ⊕ S2 . todo projetor P é um projetor sobre sua imagem ao longo do seu núcleo. o operador linear I − P também é um projetor. Então V = Im (P )⊕ ker(P ). 7. Sendo I : V → V o operador identidade.1 Projetores ortogonais Seja V um espaço vetorial com produto interno. V = Im (P )⊕ ker(P ).1 Seja P : V → V um projetor. Prova. 89 . Um projetor P em V é ortogonal se a sua imagem e seu núcleo forem ortogonais. P 2 w = P w o que implica em P v = v. A imagem de (I − P ) é igual ao núcleo de P e a imagem de P é igual ao núcleo de I − P. mostrando que a decomposição de v numa soma de um elemento da Im (P ) com um elemento do ker(P ) é única. Um operador linear P : V → V é um projetor em V se P 2 = P. S1 é a imagem de P e S2 é o núcleo de P. Os projetores também recebem o nome de operadores idempotentes. então P v = P v1 + P v2 . ¤ De acordo com este teorema. então existe w em V tal que P w = v. segue V = Im (P )+ ker(P ). denominado projetor sobre S1 ao longo de S2 . Quando este for o caso. Teorema 7. Como P v1 = v1 e P v2 = 0. Como P v está na imagem de P e (I − P )v está no núcleo de V.Capítulo 7 Projetores Seja V um espaço vetorial. denominado projetor complementar de P. O operador assim definido é um projetor. Podemos escrever v = P v+ (I − P )v.

. Se P for uma projeção em Cn×1 . Sendo x uma matriz coluna em Cn×1 . qi i = hqi . qk são matrizes coluna do Cn×1 . . x1 q1 + · · · + xk qk i = hqi . Seja {q1 . então P será uma matriz n × n. . qk } uma base ortonormal da imagem de P. Teorema 7.2 Seja S um subespaço de dimensão finita de um espaço vetorial V com produto interno. então. . Então ∗ ∗ P = q1 q1 + · · · + qk qk . Seja P um projetor ortogonal em Cn×1 e {q1 . . k. vi − x1 hqi . . . Para determinar x1 . . qk i = hqi . podemos decompor P v nesta base e escrever P v = x1 q1 + · · · + xk qk . Dado v em V. xk . vi qk . . e provamos o próximo teorema. q2 . qk } uma base ortonormal de S. qi i − · · · − xk hqi . qk } for uma base ortonormal de S. v − P vi = hqi . . vi − xi ou xi = hqi . Corolário 7. Se a dimensão de S for finita. Isto significa que hqi . yi = x∗ y. . .90 Notas de aula do Prof. Prova. q1 i − · · · − xi hqi . . . podemos escrever ∗ ∗ ∗ hqi . V = S⊕ S ⊥ .3 Considere o espaço vetorial Cn×1 com o produto interno hx. vi q1 + · · · + hqk . existe um único s em S e um único w em S ⊥ para os quais v = s+w e P (v) = s. . onde A é uma matriz quadrada n × n e iremos identificar a transformação linear L com a matriz A. Observe que q1 . vi − xi hqi . Vamos lembrar que toda transformação linear L de Cn×1 em Cn×1 é do tipo L(x) = Ax. xi qi = (qi x)qi = qi (qi x) = (qi qi )x . v − P vi = 0 para i = 1. . vi − hqi . Se B = {q1 . Se P for o projetor ortogonal sobre S. usamos o fato de v− P v ser ortogonal a todo vetor de S. . para todo v em V. . Destas relações e da ortonomalidade da base B segue 0 = hqi . A partir deste teorema obtemos outro de imediato para projetores em Cn×1 . . vi q1 + · · · + hqk . . . . vi o que nos permite escrever P v = hq1 . . P v = hq1 . . Antonio Cândido Faleiros Seja P : V → V um projetor ortogonal e S sua imagem. vi qk .

P wi = hv1 + v2 . w1 i = hv1 . w1 + w2 i = hv1 . Prova. P x = hq1 . O projetor complementar de P é I− xx∗ . v = v1 + v2 e w = w1 + w2 . Então P é uma projeção sobre S ao longo de S ⊥ . Se x for uma matriz coluna não nula em Cn×1 . w1 i provando que P é auto-adjunto. Assim. 91 ¤ Quando P projeta ortogonalmente sobre o espaço gerado por um único vetor unitário q. hP v. Como esta igualdade vale para todo x. da ortogonalidade dos vetores.Notas de aula do Prof. para todo v e w em V. ∗ ∗ P = q1 q1 + · · · + qk qk . w1 i e hv. P wi . existem e são únicos v1 e w1 em S. sendo x uma matriz coluna do Cn×1 . P = qq = kxk kxk xx ∗ Vamos relembrar que. x∗ x onde I é a matriz identidade n × n e sua imagem é o núcleo de P. xi qk ∗ ∗ = (q1 q1 )x + · · · + (qk qk )x ∗ ∗ = (q1 q1 + · · · + qk qk ) x. temos P = qq∗ . Um projetor P : V → V é ortogonal se e só se for auto-adjunto. (1) Seja P uma projeção ortogonal e S = Im (P ). Antonio Cândido Faleiros e assim. Sabemos que V = S ⊕ S ⊥ e. então x∗ x é um número real e xx∗ é uma matriz complexa n por n. xi q1 + · · · + hqk . (2) Seja P uma projeção auto-adjunta de modo que hP v. não necessariamente unitário. wi = hv1 . v2 e w2 em S ⊥ para os quais. então q = x/ kxk é unitário e a projeção ortogonal P sobre o espaço gerado por x é xx∗ x x∗ = ∗ .4 Seja V um espaço vetorial com dimensão finita e um produto interno. Teorema 7. wi = hv.

Logo. P qi = qi P qi = 0 Seja Q = [ q1 . v − P v pertence ao ker(P ) que é ortogonal à Im (P ) e acarretando na ortogonalidade hv − P v. wi − hw. onde Σ é uma matriz quadrada m × m. wi = hv. v − P vi + hw. . Assim. . P wi = hv. . . qn+1 . . Seja {q1 . . v − P vi − hv − P v. Prova. . . Pelas propriedades provadas para uma projeção ortogonal P. . . . n i = n + 1. qn . wi = kwk2 + kv − P vk2 ≥ kv − P vk2 provando que P v é o ponto da imagem de P mais próximo de v. ¤ Teorema 7. Podemos escrevê-la usando blocos ¶ µ I 0 Σ= 0 0 para para i = 1. provamos que o núcleo e a imagem de P são ortogonais. Todo vetor u da imagem de P pode ser escrito na forma P v+ w. . como P v está na imagem de P. qm } do Cm×1 e para a qual P Q = QΣ. . . yi = x∗ y. . ¤ 7. . então hP v. Se w estiver no ker(P ). . Sendo P ortogonal.92 Notas de aula do Prof. m . onde os n primeiros elementos da diagonal são iguais a 1 e todos os demais elementos são nulos. P é um projetor ortogonal. com w na imagem de P. . 0i = 0. . qn+1 . wi = 0 e kv − uk2 = kv − P v − wk2 = hv − P v − w. . . qn } uma base ortonormal de S e {qn+1 . . . seu núcleo é S ⊥ . Antonio Cândido Faleiros para todo v e w em V. . qn . . . . .5 Seja V um espaço vetorial com produto interno e P : V → V um projetor ortogonal. qm } uma base ortonormal de S ⊥ . . e. .2 Projetores ortogonais em Cm×1 Nesta seção vamos considerar o espaço vetorial Cm×1 com o produto interno hx. Usando uma base ortonormal Seja P um projetor ortogonal em Cm×1 e S sua imagem. v − P v − wi = hv − P v. . O vetor P v é o vetor da Im (P ) mais próximo de v. . qm ] a matriz cujas colunas são os vetores da base ortonormal {q1 .

. Sendo QQ∗ a matriz identidade. qn ] com m linhas e n colunas para a qual ˆˆ P = QQ∗ . P = Pk ∗ i=1 qi qi e dela obtemos a identidade k X i=1 ∗ qi qi ˆˆ P = QQ∗ = Usando uma base qualquer Seja P um projetor ortogonal em Cm×1 e v1 . . . . . . seu posto é máximo e A∗ A : Cn×1 → Cn×1 é um isomorfismo. . Antonio Cândido Faleiros 93 onde I é a matriz identidade de tamanho n × n. cujas colunas são v1 . . v − P vi = 0 de onde segue ∗ ∗ vj Ax = vj v. . possuindo assim uma inversa. n. . . .Notas de aula do Prof. vn } é uma base da imagem de P. . . . A∗ Ax = A∗ v. o que nos permite escrever x = (A∗ A)−1 A∗ v de onde resulta P v = Ax = A(A∗ A)−1 A∗ v. vn . Como esta igualdade vale para todo v em Cm×1 . para j = 1. Se a base B for ortonormal. Observe que apenas as n primeiras colunas de Q são relevantes neste produto. válida quando usamos uma base ortonormal. O vetor v − P v está no complemento ortogonal da imagem de P e. . ∗ Como a j− ésima linha de A∗ é vj . . . . a matriz A é unitária e daí A∗ = A−1 . Eliminandoˆ as obtemos a matriz Q = [q1 . . . xn ]T é a matriz das coordenadas de P v na base B e A = [v1 . . Para todo v em Cm×1 . Com isto reobtemos P = AA∗ . . P = A(A∗ A)−1 A∗ . . . . onde x = [x1 . . vn ] é uma matriz de ordem m por n. vn matrizes coluna em Cm×1 tais que B = {v1 . . Como já se provou. chega-se a P = QΣQ∗ . a identidade acima resulta em ou ∗ ∗ vj P v = vj v. . hvj . Esta matriz A define uma transformação linear de Cn×1 em Cm×1 . podemos escrever P v = x1 v1 + · · · + xk vn = Ax. Como as colunas de A são linearmente independentes. A matriz Q é unitária pois suas colunas são formadas a partir de uma base ortonormal de Cm×1 .

1)T . partindo de uma base {v1 . . esta recorrência pode ser reescrita na forma ! Ã j−1 j−1 X X ∗ ∗ wj = vj − qi qi vj = 1 − qi qi vj i=1 i=1 A projeção ortogonal sobre o subespaço Sj gerado por {q1 . Pelo processo de ortogonalização de Gram-Schmidt. . Antonio Cândido Faleiros Exemplo 7. . . . . . v2 ] =  2 1  0 1 e calculamos  1/3 1/3 −1/3 P = A(A∗ A)−1 A∗ =  1/3 5/6 1/6  . . vj i qi e qj = wj . m. . kwj k ∗ válida para j = 2. mediante a fórmula wj = vj − j−1 X i=1 hqi . pode-se obter uma base ortonormal {q1 . vj i qi = qi qi vj .6 Determine o projetor ortogonal P sobre o espaço gerado pelos vetores v1 = (1. . . 1. . qm }. de modo iterativo w1 = v1 e q1 = w1 kw1 k w2 = v2 − hq1 . qj } é ˆ ˆj Qj Q∗ = j X i=1 ∗ qi qi . 0)T e v2 = (0. . v3 i q2 e q3 = w3 kw3 k A partir de q1 = v1 / kv1 k determinam-se recursivamente os demais elementos da base ortonormal. v2 i q1 e q2 = ··· w2 kw2 k w3 = v3 − hq1 . . v3 i q1 − hq2 . vm } de Cm×1 . −1/3 1/6 5/6  Observe que P v1 = v1 e P v2 = v2 . 2.3 Ortogonalização de Gram-Schmidt em Cm×1 Vamos considerar o espaço vetorial Cm×1 com o produto interno hx. Como hqi . . Inicialmente estabelecemos   1 0 A = [v1 . 7.94 Notas de aula do Prof. yi = x∗ y. .

. . . obter um conjunto ortonormal de matrizes coluna {q1 . qj . . qj ] é a matriz cujas colunas são q1 .Notas de aula do Prof. . a partir de um conjunto linearmente independente {v1 . Em lugar de calcular wj pela fórmula. Antonio Cândido Faleiros 95 ˆ onde Qj = [q1 . vn } em Cm×1 . . 7. . . . obtemos j Y i=1 ∗ (I − qi qi ) = j X i=1 ∗ ˆ ˆj qi qi = I − Qj Q∗ P⊥qj · · · P⊥q2 P⊥q1 = = I− ∗ ∗ ˆ ˆj uma vez que qr qr qs qs = 0 para todo r 6= s. O projetor Pj = I − Qj Q∗ é exatamente aquele usado no algoritmo de Gram-Schmidt. . . . . qj }. . . . . . q1 = kP0 v1 k kP1 v2 k kPm−1 vm k onde P0 é a identidade e Pj . wj = Pj−1 vj . . . . q2 = . . a projeção ortogonal sobre o complemento ortogonal do espaço gerado por q é P⊥q = I − qq∗ . Observe que ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ P⊥q2 P⊥q1 = (I − q2 q2 )(I − q1 q1 ) = I − q1 q1 − q2 q2 + q1 q1 q2 q2 = I − q1 q1 − q2 q2 ∗ ∗ ∗ pois q1 q1 q2 q2 = 0.4 Ortogonalização modificada de Gram-Schmidt Se q for uma matriz coluna unitária em Cm×1 . . é a projeção ortogonal sobre o complemento ortogonal do espaço gerado por {q1 . A projeção ortogonal sobre o complemento orgogonal de Sj é ˆ ˆj Pj = I − Qj Q∗ e a fórmula recursiva pode ser escrita de modo conciso como wj . . Prosseguindo com esse raciocínio. Vamos. qm = . wj = Pj−1 vj e qj = kwj k Conclui-se que o algoritmo clássico de Gram-Schmidt pode ser expresso em termos destes projetores P0 v1 P1 v2 Pm−1 vm . n − 1. . uma vez que q1 q2 = 0. qn } em Cm×1 . A obtenção de Pj através das projeções sucessivas P⊥qj · · · P⊥q2 P⊥q1 é mais estável numericamente do que o cálculo clássico através da matriz Pj . . para j = 1. A identidade Pj = P⊥qj · · · P⊥q2 P⊥q1 será usada no algoritmo modificado. . .

2 Gram-Schmidt modificado (estável) Entrada: Um conjunto {v1 . qm } em Cm×1 ============================== for j = 1 to n wj = vj for j = 1 to n ∗ rjj = wj wj qj = wj /rjj for k = j + 1 to n ∗ rjk = qj wk wk = wk − rjk qj ============================== Na prática. . . O algoritmo modificado calcula wj usando a seqüência (1) (2) (3) wj wj wj = vj ∗ = P⊥q1 wj = wj − q1 q1 wj (2) (2) (1) (1) (1) (2) ∗ = P⊥q2 wj = wj − q2 q2 wj . uma multiplicação. . Cada operação realizada contabilizará um flop em nossa contagem. wj Na aritmética computacional de precisão finita. este algoritmo introduz erros menores do que o algoritmo clássico. Esta operação pode ser uma adição. . Quando m e n forem grandes. . . 7. . . Antonio Cândido Faleiros wj = P⊥qj−1 · · · P⊥q2 P⊥q1 vj . ============================== Algoritmo 8. pode-se sobrescrever vj com wj e sobrescrever wj com qj para economizar memória. .96 podemos usar outra Notas de aula do Prof. .5 Contagem das operações Vamos calcular o número de flops realizados na execução do algoritmo modificado de Gram-Schmidt. vn } em Cm×1 linearmente independente Saída: Um conjunto ortonormal {q1 . . uma subtração. o loop que domina o algoritmo é o mais interno for k = j + 1 to n ∗ rjk = qj wk wk = wk − rjk qj . uma divisão ou a extração de uma raiz quadrada. (j) (j−1) (j−1) (j−1) ∗ = wj = P⊥qj−1 wj = wj − qj−1 qj−1 wj .

que varia de j + 1 a n. Como o laço em k.n→∞ 2mn2 lim Concluimos que a fatoração QR usando Gram-Schmidt modificado demanda a realização de ∼ 2mn2 flops. 2 j=1 k=j+1 j=1 onde o símbolo ∼ tem o seguinte significado número de flops = 1.Notas de aula do Prof. Antonio Cândido Faleiros 97 ∗ O produto interno qj wk requer m multiplicações e m−1 adições. está dentro de outro em j que varia de 1 a n. O cálculo de wk −rjk qj necessita de m multiplicações e um igual número de subtrações. m. Somamos 4m flops para um único laço do loop. o número de flops usado neste algoritmo é n n X X n X n2 − n 4m = 4m (n − j) = 4m = 2mn2 − 2mn ∼ 2mn2 . .

Antonio Cândido Faleiros .98 Notas de aula do Prof.

1 Seja v um vetor não nulo em Cm . visto que 2 Hv = I. vv ∗ v∗ v 1 (x + y) 2 1 w = (x − y) 2 são ortogonais e o refletor de Householder Hv é tal que v = Hv x = −y. yi = hy. O refletor Hv = I − 2 é hermitiano e unitário. Sejam x e y dois vetores do Cm com normas iguais e hx. Se u for múltiplo de v e w for ortogonal a v. Todo u que está em S é refletido em −u e todo w no complemento ortogonal de S se mantém inalterado.Capítulo 8 Refletor de Householder Seja v um vetor não nulo de Cm . xi . Teorema 8. . então Hv = I − 2 Hv u = −u e Hv w = w. A matriz vv ∗ v∗ v é chamada de matriz de Householder ou refletor de Householder. O refletor Hv é hermitiano e unitário mas não é um projetor. Os vetores Este fato pode ser provado escrevendo x e y em termos de v e w x=v+w e 99 y = v − w. Esta observação nos permite dizer que a matriz Hv reflete os vetores de Cm no complemento ortogonal de S.

cujo único elemento não nulo é o primeiro. O vetor w= é ortogonal a v e x = u + w. basta ter kxk = kyk para garantir a igualdade entre hx. xm )T um vetor não nulo em Cm . 2 leva x em y = −sign(x1 ) kxk e1 . xi . sign(z)sign(z) = 1. Iremos usá-lo para calcular a decomposição QR de uma matriz usando refletores de Householder. Portanto. . yi e hy. . 0)T . .3 Seja x = (x1 . 0) onde apenas a primeira coordenada y1 é não nula. . . x2 . o que fornece uma maior estabilidade numérica à decomposição QR usando refletores de Householder descrita em seguida. que são operadores auto-adjuntos. 0.100 Notas de aula do Prof. Para todo número complexo z. Podemos definir um refletor de Householder que leva um vetor x do Cm num outro y = (y1 . com x1 complexo não nulo e e1 = (1. . sign(x1 ) kxk e1 = u − w. 6 sign(z) = z .2 Se os elementos de x e y forem todas reais. 1 (x − sign(x1 ) kxk e1 ) 2 . Vamos à sua descrição. O refletor Hv . seu sinal será +1 ou −1. |z| Observe que o sinal é um número complexo de módulo unitário. . . Esta escolha de u assegura que kxk ≤ kyk . 0. . onde 1 v = (x + sign(x1 ) kxk e1 ) . . ¤ O y definido neste teorema tem a forma (y1 . . . Se z for real. 0)T o primeiro elemento da base canônica do Cm . . . Antonio Cândido Faleiros Nota 8. O sinal de um número complexo z é definido por sign(0) = 1 e. quando z = 0. Prova. 0. Hv (x) = Hv v + Hv w = −v + w = −sign(x1 ) kxk e1 . Teorema 8. onde apenas y1 = −sign(x1 ) kxk não é nulo. . .

. . a decomposição QR baseada nas matrizes de Householder será o resultado da multiplicação à esquerda de A por uma seqüência de matrizes ortogonais Q1 . . 0)T onde y1 = −sign(x1 ) kxk é o único elemento não Sendo  (1) a11  (1)  a21  (1) (1) (1) (1) A = [a1 . 0. . . . . a1n (1) a2n (1) a3n . . A matriz R1 × · · · × Rn é triangular superior e sua inversa R nos fornece a decomposição A = QR. A matriz Q1 × · · · × Qn é ortogonal e sua inversa Q nos fornecerá a decomposição A = QR. . (1) (1) am2 am3 (1) (1) ··· ··· ··· . situados abaixo da diagonal. baseada no processo de ortogonalização de Gram-Schmidt é o resultado de sucessivas multiplicações à direita de A = [v1 . . resultando numa matriz ortogonal Q = [q1 . Qn ..1 Decomposição QR usando o refletor de Householder A decomposição QR. . (1) (1)         · · · amn . . . . . . para k = 2. . . Antonio Cândido Faleiros 101 8. qn ] A × R1 × · · · × Rn = Q. . a2 .Notas de aula do Prof. . am1 (1) nulo de Hk x. n. . é ¸ · I 0 Qk = 0 Hk onde I é a matriz identidade de ordem k − 1 e Hk é uma matriz de Householder cuja ordem é m− k+ 1. m.. . . 0. . . . Se x for o vetor de Cm−k+1 formado pelos elementos da coluna k de A. an ] =  a31   . foi a de escolher Qk para zerar aqueles elementos da coluna k de A. vn ] por matrizes elementares. 2 e e1 = (1. Pelo que foi visto anteriormente. Por seu turno. . extraídos da diagonal principal para baixo. Hk x = (y1 . A matriz Q1 é uma matriz de Householder H1 e a forma geral de Qk . que resultarão numa matriz triangular R Qn × · · · × Q1 · A = R. . . a12 a13 (1) (1) a22 a23 (1) (1) a32 a33 . . . . A idéia de Householder. . todas triangulares superiores. . proposta em 1958. A multiplicação pela matriz Qk opera sobre A realizando uma combinação linear das linhas k. k + 1.  . . 0) é o primeiro elemento da base canônica do Cm−k+1 . . onde v= 1 (x + sign(x1 ) kxk e1 ) . o refletor de Householder Hk procurado é I− vv ∗ /v ∗ v. . . mantendo as primeiras k − 1 colunas inalteradas e anulando os elementos da coluna k situados abaixo da diagonal. . .

(3) a12 (2) a13 (2) ··· 0 0 am3 (3)  (3) a2n    (3)  . . 2   .  . . a(2) ] =  32 .. . · · · a3n  . .. . . Assim. 2  . .  . ∗ ∗ então Q1 = H1 = I− v1 v1 /v1 v1 onde ° °  (1) (1) ° (1) ° a11 + sign(a11 ) °a1 °  (1)  a21 1 (1) v1 =  a31 2  . .  . · 1 0 0 H2 ¸ ° ° (2) ° (2) ° (3) −sign(a22 ) °a2 ° a23 · · · 0 . . . . (2) (2) a1n (2) (2) 0 a22 a23 · · · a2n (2) (2) (2) a32 a33 · · · a3n .  (2) (2) a22 a23  a(2) a(2)  (2) (2) 33 A1 = [a2 . .  . .102 Notas de aula do Prof.. . . com esta escolha. . . . (2) (2) am2 am2 Eliminando a primeira linha e a primeira coluna de Q1 A. .  . .         estão em Cm−1 . Toma-se H2 = I − v2 v2 /v2 v2 . am1  (1) (1)         ∗ ∗ que é de ordem m − 1 por n − 1. a3 ...         e a1 (1) am1 (1)    =     a11 (1) a21 (1) a31 . . . . . (2) (2) (2) am2 am3 · · · amn obtemos a matriz (2)  · · · a2n (2) · · · a3n   . . . . Antonio Cândido Faleiros estão em Cm . · · · amn (2)    . a33 . . (2) (2) am2 am3    Q1 A =      ° ° ° (1) ° (2) (2) −sign(a11 ) °a1 ° a12 a13 · · · 0 0 .. n . . Toma-se Q2 = e.      Q2 Q1 A =     ° ° (1) ° (1) ° −sign(a11 ) °a1 ° 0 0 . (3) · · · amn a1n (2)  . . .  . onde ³ ´° °    (2) (2) (2) ° (2) ° (2) a22 + sign a22 °a2 ° e1 a22    a(2) (2)   1 a32  e a(2) =  32 v2 =   .  .

Com esta escolha. vn . .  . . . . 2 .. Qn são todas unitárias. este algoritmo constrói os vetores de reflexão v1 . .            ··· ··· ··· . que é triangular superior. . Além de R. m por n. que denotaremos por Q∗ . Assim. ∗ ∗ sendo H3 = I− v3 v3 /v3 v3 . . onde ³ ´° °  (3) (3) ° (3) ° a33 + sign a33 °a3 °  (3) 1 a43 v3 =  . ================================= .  ³ ´° ° (1) ° (1) ° (2) (2) −sign a11 °a1 ° a a13  ³ 12 ´ ° °  (2) ° (2) ° (3)  a23 0 −sign a22 °a2 °  ³ ´° ° (3) ° (3) ° Q2 Q1 A =   0 0 −sign a33 °a3 °   . . . . . que resulta na decomposição A = QR onde Q é unitária e R é triangular superior. com m ≥ n. triangular superior da decomposição QR de uma matriz A de ordem m por n. . vn . . 0 0 0 e o processo continua até obter uma matriz triangular superior R = Qn · · · Q2 Q1 A. toma-se  1 0 0 Q3 =  0 1 0  0 0 H3         a33 (3) a43 . . . Antonio Cândido Faleiros Na terceira etapa. e (3) a3 am3 (3)   =     .1 Fatoração QR de Householder Entrada: A = (aij ). Q2 . Saída: Substitui a matriz A por R. Calcula ainda as reflexões v1 . . 8. . de modo que seu produto Qn · · · Q2 Q1 .Notas de aula do Prof.  . também é unitária sendo Q sua inversa. Q∗ A = R.2 O algoritmo para calcular R O algoritmo seguinte calcula a matriz R. am3 (3) (3) 103 estão em Cm−2 . . . ··· As matrizes Q1 . .. ================================= Algoritmo 10. de ordem m por n. .

j ) pelo vetor vk . o cálculo dominante é o de Ak:m. k:n . j ). j o que exige 2l− 1 flops. j ) e l multiplicações para calcular ∗ o produto deste escalar. fazendo m e n → ∞. 2 k=1 n X 1 k2 = (n + 3n2 + 2n3 ). Para calcular as n− k+ 1 colunas de Ak:m. k:n − 2vk (vk Ak:m. k:n serão necessários 4l(n − k + 1) flops e na execução dos n loops exigirá n X k=1 4l(n − k + 1) = n X 2 2 4(m − k + 1)(n − k + 1) = 2mn2 − n3 + 2mn + n 3 3 k=1 flops. 2(vk Ak:m.3 Contagem das operações Em cada loop. l subtrações para obter ∗ Ak:m. Q = Q∗ Q∗ · · · Q∗ 1 2 n . sendo l multiplicações e l − 1 adições. Podemos usar as fórmulas ou para obtê-la. Finalmente. k:n = Ak:m. j − 2vk (vk Ak:m. 6 k=1 Admitindo que m e n crescem na mesma razão. Efetuamos assim 4l operações para calcular Ak:m. k:n .4 O algoritmo para calcular Q∗ Q∗ = Qn · · · Q2 Q1 A matriz Q ainda não foi calculada. O vetor vk tem comprimento l = ∗ m− k+ 1. obtemos 2 ∼ 2mn2 − n3 3 flops para executar o algoritmo de Householder. i i Podemos calcular Q∗ b ou Qx. Antonio Cândido Faleiros for k = 1 to n x = Ak:m. O próximo algoritmo calcula Q∗ b. Usamos no cálculo deste somatório os seguintes resultados n X k=1 1 = n.k vk = x + sign(x1 ) kxk e1 vk = vk / kvk k ∗ Ak:m. Calculado este produto ∗ interno.104 Notas de aula do Prof. Para cada coluna de Ak:m. precisamos de 1 flop para calcular 2(vk Ak:m. n X 1 k = n(n + 1). é preciso calcular o produto interno vk Ak:m. 8. Lembramos aqui que as matrizes Qi são unitárias e assim Q∗ = Q−1 . j em cada loop. k:n ) ================================= 8.

basta calcular as colunas Qe1 . . . ˆ Quando se deseja calcular apenas Q da decomposição reduzida. Qem de Q. . Este é o método de escolha quando se deseja calcular a matriz unitária Q. de ordem m por 1 e o vetor x de ordem n por 1. .Notas de aula do Prof. . . ================================= for k = 1 to n ∗ bk:m = bk:m − 2vk (vk bk:m ) ================================= Podemos usar este algoritmo para obter Q∗ . . . vn de ordem m por 1 e b de ordem m por 1 Saída: Substitui b pelo vetor Q∗ b de ordem m por 1. vn . 8. .2 Fatoração QR de Householder Entrada: As reflexões v1 . . calculando suas colunas Q∗ e1 . .3 Fatoração QR de Householder Entrada: As reflexões v1 . Saída: Substitui x pelo vetor Qx de ordem n por 1. . . . ================================= for k = n downto 1 ∗ xk:m = xk:m − 2vk (vk xk:m ) ================================= Podemos usar este algoritmo para calcular as colunas Qe1 . ================================= Algoritmo 10. . . Q∗ em de Q∗ . . Antonio Cândido Faleiros 105 ================================= Algoritmo 10. .5 O algoritmo para calcular Q O próximo algoritmo calcula Qx. . . . Qen .

106

Notas de aula do Prof. Antonio Cândido Faleiros

Capítulo 9 Mínimos quadrados
Seja A uma matriz complexa m por n e b um vetor coluna do Cm . O sistema algébrico Ax = b tem solução se e somente se b for um ponto da imagem de A. Quando, além disso A for inversível, Ax = b possui uma única solução dada por x = A−1 b. Quando b não pertencer à imagem de A, o sistema algébrico Ax = b não tem solução. Entretanto, podemos escolher c na imagem de A que minimiza kc − bk2 e resolver o sistema Ax = c. O ponto c da imagem de A mais próximo de b é a projeção ortogonal de b sobre a imagem de A. Seja P b esta projeção. As soluções de Ax = P b, minimizam kAx − bk2 . Quando o ker(A) = {0}, o sistema Ax = P b tem solução única. Entretanto, quando ker(A) contiver vetores não nulos, o sistema Ax = P b possuirá infinitas soluções. De fato, se n for um elemento não nulo do núcleo de A e x1 uma solução de Ax = P b, então, para todo número complexo c, A(x1 + cn) = P b. Se x for uma solução de Ax = P b, podemos decompô-la numa soma x1 = r + n onde r está na imagem de A∗ e n está no núcleo de A, uma vez que Cn = Im (A∗ ) ⊕ ker(A). Observe que r é a projeção ortogonal de x sobre a imagem de A∗ . Sendo x1 qualquer outra solução do sistema Ax = P b, então A(x1 − x) = 0 e x1 − x = n1 pertence ao núcleo de A e assim x1 = x + n1 = r+ (n + n1 ), onde n + n1 pertence ao núcleo de A e r é a projeção ortogonal sobre a imagem de A∗ de uma solução qualquer do sistema Ax = P b. Uma das lições que se tira do raciocínio acima é que projeção ortogonal sobre a imagem de A∗ de uma solução x qualquer de Ax = P b sempre resulta no mesmo vetor r. Determinando uma única solução do sistema Ax = P b e todas as soluções do sistema homogêneo Ax = 0, teremos em mãos todas as soluções do sistema não homogêneo Ax = P b. Cada solução de Ax = P b é uma solução por mínimos quadrados de Ax = b. A projeção ortogonal r de uma solução do sistema Ax = P b sobre a imagem de A∗ é chamada de solução principal por mínimos quadrados de Ax = b. Quando o sistema linear Ax = b tem solução, suas soluções coincidem com as soluções por mínimos quadrados de Ax = b. Seguindo o esquema estabelecido até o momento, para obter a solução principal por mínimos quadrados de Ax = b, precisamos seguir a seguinte receita: 1. Determine P b, a projeção ortogonal de b sobre a imagem de A. 107

108

Notas de aula do Prof. Antonio Cândido Faleiros

2. Determine x, uma solução de Ax = P b. 3. Determine r, a projeção ortogonal de x sobre a imagem de A∗ , que é ortogonal ao núcleo de A. Exercício 9.1 Para as matrizes abaixo, determine: a projeção ortogonal P b de b sobre a imagem de A, uma solução de Ax = P b e a projeção ortogonal r de x sobre a imagem de A∗ .     1 2 1 1. A =  0 1  e b =  0  . 0 2 3     1 0 1 1  2 1 0  e b =  1 . 2. A = 3 1 1 1     √ 1 2 1/ 2 0  Exercício 9.2 Na decomposição QR de A =  0 1  , Q =  0 √ 1 . Determine 1 2 1/ 2 0 a matriz que projeta sobre a imagem de A. Resolva o problema de mínimos quadrados Ax = (1, 0, 0)T . (Sugestão: note que as colunas de Q dão base ortogonal para a imagem de A.) A resolução de um problema de mínimos quadrados é bastante árdua. Felizmente existe um atalho que nos é dado pela proposição seguinte. Teorema 9.3 Seja A uma matriz m por n e b um vetor coluna m por 1. Seja P a matriz que projeta ortogonalmente sobre a imagem de A. Os sistemas lineares Ax = P b e A∗ Ax = A∗ b possuem as mesmas soluções. Prova. Observe inicialmente que P b − b ∈ Im (A)⊥ = ker(A∗ ). 1. Se x for solução de Ax = P b, então Ax − b = P b− b pertence ao núcleo de A∗ de onde se conclui que A∗ (Ax − b) = 0 ou A∗ Ax = A∗ b. 2. Se x for solução de A∗ Ax = A∗ b, então A∗ (b − Ax) = 0 e b− Ax pertence ao núcleo de A∗ , que é ortogonal à imagem de A. Desta forma, b = Ax+ (b − Ax) é uma decomposição de b em um vetor Ax na imagem de A e outro b − Ax no seu complemento ortogonal. Logo, P b = Ax. ¤ Definição 9.4 A equação A∗ Ax = A∗ b é chamada de equação normal do problema de mínimos quadrados para Ax = b.

1 Mínimos quadrados e a decomposição QR ˆˆ ˆ Seja A = QR a decomposição QR reduzida da matriz A. nunca é demais reafirmar que. 9. qk ] formam uma base ortonormal da imagem de A e Q ˆ k.Notas de aula do Prof. R é inversível e esta equação tem solução única. suas colunas serão linearmente independentes e o seu núcleo conterá apenas o zero. ˆ Neste caso. as matrizes ∗ ˆ A A e R são inversíveis o que permite reduzir a equação normal à forma ˆ ˆ Rx = Q∗ b. Como P b = Ax. de ordem m por n. As colunas da matriz Q = [q1 . se x for uma solução da equação normal. . Quando m ≥ n e a matriz A de ordem m por n possuir posto máximo n. o problema de mínimo quadrado para Ax = b tem uma única solução que coincide com a única solução da equação normal A∗ Ax = A∗ b. A projeção P = A (A∗ A)−1 ∗ A assumirá uma forma mais simples ˆ ˆ ˆˆ ˆ ˆ ˆˆ P = A(A∗ A)−1 A∗ = QR(R∗ R)−1 R∗ Q∗ = QQ∗ . a projeção ortogonal P sobre a imagem de A será dada pelo produto P = A(A∗ A)−1 A∗ . A matriz R. de ordem k por n. possuir posto máximo n. Quando m ≥ n e a matriz A. posto que R é triangular superior e R∗ é triangular inferior. . A matriz A∗ A será inversível e o problema de mínimos quadrados para Ax = b terá uma única solução x = (A∗ A)−1 A∗ b. ˆ ∗ Q é a matriz identidade k por ˆ . e a equação normal A∗ Ax = A∗ b toma a forma ˆ ˆ ˆ ˆ R∗ Rx = R∗ Q∗ b. ˆ ˆ Este sistema pode ser resolvido com facilidade. ˆ ˆ ˆˆ ˆ ˆ A∗ A = R∗ Q∗ QR = R∗ R. então a projeção ortogonal de b sobre a imagem de A é igual a Ax P b = Ax. Antonio Cândido Faleiros 109 Embora seja redundante. .2 Pseudo inversa Quando m ≥ n e a matriz A de ordem m por n possuir posto máximo n. é triangular superior. . 9.

A matriz n por m A+ = (A∗ A)−1 A∗ . 2 i=1 Portanto. yi = x∗ y. . . . a matriz A∗ A. d =  . Continuando com A de ordem m por n e posto máximo n.3 Reta de regressão y = c0 + c1 x Sejam (x1 . . Ela recebe este nome pois x = A+ b é a solução por mínimos quadrados de Ax = b. . Sendo     1 x1 y1 µ ¶ c0  . onde R é inversível e triangular superior. . i=1 Consideremos em Cm o produto interno definido por hx. Neste caso.110 A matriz A∗ A é inversível neste caso e Notas de aula do Prof. ˆˆ Sendo QR for a decomposição QR reduzida de A. c1 1 xm ym então m X kAc − dk = hAc − d. além de ser inversível. é muito simples resolver o sistema.  .  A= . c= . o problema proposto é equivalente ao problema de mínimos quadrados para Ac = d no produto interno de Cm definido por hx. . (xm . ym ) pontos de C2 . Determine a reta P que minimiza o resíduo m (c0 + c1 xi − yi )2 . sendo R triangular superior e R∗ triangular inferior. é hermitiana e possui uma decomposição de Cholesky A∗ A = R∗ R. . .   . é chamada de pseudo-inversa de A. 9. então ˆ ˆ x = R−1 Q∗ b e a pseudo-inversa será dada por ˆ ˆ A+ = R−1 Q∗ . y1 ). Ac − di = (c0 + c1 xi − yi )2 . Antonio Cândido Faleiros x = (A∗ A)−1 A∗ b. . . a equação normal se reduz à forma R∗ Rx = A∗ b e. yi = x∗ y e a norma definida √ por kxk2 = x∗ x.

. . d= .   . . . .Notas de aula do Prof. determine c0 .4 Interpolação polinomial Dados os pontos (x1 . Antonio Cândido Faleiros 111 Se x1 . (4. cm−1 . . . . . xm não forem todos iguais. . . y1 ). xm e y1 . onde   1 (x1 − x) ¶ µ 1 x   . . . . . ym . m − 1. Sejam onde as colunas de W formam uma base ortogonal para a imagem de A e T é inversível. 5. ym . 1 xm x2 · · · xk m m ck ym Se os pontos x1 . c= .   . . . .  .  .. T = W = . 5). para i = 1. xm forem todos distintos. (2. . A equação normal A Ac = A∗ d do problema de mínimos quadrados para Ac = d é ¶µ ¶ µ Pm ¶ µ Pm c0 m i=1 xi i=1 yi Pm Pm 2 = Pm c1 i=1 xi i=1 xi i=1 xi yi ∗ que terá solução única. y2 . ym ). . . (3. . . . 0 1 1 (xm − x) x= Exercício 9.  . a equação normal A∗ Ac = A∗ d assume a forma ¶µ ¶ µ ¶ µ Pm c0 + c1 x m P 0 Pm i=1 yi = m 2 c1 0 i=1 (xi − x) i=1 (xi − x)yi cuja solução é imediata Pm (xi − x)yi c1 = Pi=1 m 2 i=1 (xi − x) e c0 = y − c1 x. 2. . 6. . . . c1 . . . . a matriz A tem posto 2. . . . . . x2 . 3). . . Estas condições nos levam ao sistema de equações algébricas lineares Ac = d onde       c0 y1 1 x1 x2 · · · xk 1 1  c1   y2   1 x2 x2 · · · xk  2 2       A= . a matriz A é inversível e o problema tem solução única para qualquer y1 . . . 9. .  . 1 1 (x1 + · · · + xm ) e y = (y1 + · · · + ym ) m m os valores médios de x1 . Podemos fazer a decomposição A = W T. . (xm . 6).  . de modo que o polinômio y = p(x) = c0 + c1 x + · · · + cm−1 xm−1 seja tal que p(xi ) = yi . . . Com esta decomposição. . . .5 Calcule a reta de regressão para os dados (1. . . respectivamente. .  . 5).

112

Notas de aula do Prof. Antonio Cândido Faleiros

O polinômio p(x) assim obtido é chamado de polinômio interpolador dos pares de pontos (x1 , y1 ), . . . , (xm , ym ). À medida que o m cresce, o polinômio p oscila mais e mais. Se os pontos (xi , yi ) tiverem sido obtidos a partir de experimentos laboratoriais, p(x) pode não representar o fenômeno que se pretende descrever.

9.5

Ajuste polinomial

Se os dados (xi , yi ), i = 1, 2, . . . , m, forem provenientes de experimentos, a interpolação polinomial fornece um polinômio que oscila muito e não representa adequadamente os dados obtidos experimentalmente. Quanto maior for o conjunto de dados, mais oscilante é o polinômio. Desta forma, é muito mais interessante procurar um polinômio de grau menor, que oscila menos e se ajuste melhor aos dados observados, embora não passe necessariamente por nenhum deles. Observando que dados experimentais são passíveis de erros, não é um absurdo obter um polinômio que se ajuste a eles sem passar necessariamente por nenhum deles. Fica no ar a pergunta: qual o grau do polinômio a ser usado. Em geral, quando se faz um experimento, existem modelos matemáticos que descrevem o fenômeno. Se não houver, busca-se um por tentativas e erros. O critério de ajuste pode ser aquele fornecido pelo problema de mínimos quadrados. Dados os pontos (x1 , y1 ), . . . , (xm , ym ), determine o polinômio y = p(x) = c0 + c1 x + · · · + ck xk

de modo que o problema proposto é equivalente àquele dos mínimos quadrados para Ac = d com o produto interno hx, yi = x∗ y. Quando k = m − 1 caímos no caso anterior da interpolação polinomial.

P de grau k menor do que m − 1 que minimiza o resíduo m (p(xi ) − yi )2 . i=1 Minimizar este resíduo é equivalente à minimização da norma kAc − dk2 , onde       c0 y1 1 x1 x2 · · · xk 1 1  c1   y2   1 x2 x2 · · · xk  2 2       , c= .  , d= .  , A= . . . .. .  . . . .  .  .   .  .  . . . . . ck ym 1 xm x2 · · · xk m m

9.6

Aproximação polinomial de funções
y = p(x) = c0 + c1 x + · · · + ck xk

Um problema semelhante ao anterior consiste em determinar o polinômio

Notas de aula do Prof. Antonio Cândido Faleiros

113

de grau menor ou igual a k que melhor aproxima uma função g(x) definida no intervalo [a, b]. Logo surge a pergunta: em que sentido p(x) é o melhor polinômio que aproxima g(x)? Numa tentativa de responder a esta indagação, legítima por sinal, poderíamos pegar m pontos a = x1 ≤ x2 ≤ · · · ≤ xm = b igualmente espaçados em [a, b] e assim determinar o polinômio p(x) que minimiza a soma S=
m X i=1

[p(xi ) − g(xi )]2 .

Denotando g(xi ) por yi , podemos resolver este problema usando a técnica anterior de ajuste polinomial. Entretanto, antes de encerrar o caso, vamos elaborar um pouco mais este problema. Para m fixo, seja ∆x = (b − a)/m. Minimizar S ou S · ∆x é a mesma coisa. À medida que o m cresce, m X |p(xi ) − g(xi )|2 ∆x S · ∆x =
i=1

converge para a integral terno

Rb
a

[f (x) − g(x)]2 dx. Tal fato motiva a definição do produto inhf, gi = Z
b

f (x)¯(x) dx g

a

e a norma correspondente a ele s Z
b

kf k =

a

|f (x)|2 dx.

Rb Nesta norma, kp − gk2 = a |p(x) − g(x)|2 dx. O problema agora pode ser reformulado como segue: Seja g uma função contínua, definida no intervalo real [a, b]. Determine o polinômio p(x) = c0 + c1 x+ · · · + ck xk de grau menor ou igual a k, que minimiza kp − gk =
2

Z

b

a

|p(x) − g(x)|2 dx.

Sabemos que p é obtido projetando g ortogonalmente sobre o espaço dos polinômios de grau menor ou igual a k. Podemos determinar este polinômio a partir de uma base ortogonal para este espaço vetorial. Sabemos que quando [a, b] = [−1, 1], estes polinômios estão relacionados aos polinômios de Legendre.

114

Notas de aula do Prof. Antonio Cândido Faleiros

9.7

Aproximação trigonométrica

Podemos agora resolver um problema semelhante ao anterior, aproximando uma função real g(x), definida no intervalo [−L, L], por uma função trigonomérica ¶ X ¶ µ µ m m a0 X kπ kπ f (x) = + x + x ak cos bk sen 2 L L k=1 k=1 fazendo com que kf − gk =
2

seja o menor possível. A norma acima é proveniente do produto interno Z L hf, gi = f (x)¯(x) dx g
−L

Z

L

−L

|f (x) − g(x)|2 dx

e, o que é interessante observar, o conjunto de funções µ ¶ µ ¶ kπ kπ { 1, cos x , sen x : k = 1, 2, . . . , m } L L é ortogonal em relação a este produto interno. Pode-se calcular que h1, 1i = 2L e ¶ µ ¶À ¿ µ ¶ µ ¶À ¿ µ kπ kπ kπ kπ x , cos x = sen x , sen x = L. cos L L L L Consequentemente, a0 ak bk Z 1 L = g(x)dx L −L ¶ µ Z 1 L kπ x dx = g(x) cos L −L L ¶ µ Z 1 L kπ x dx = g(x)sen L −L L

para k = 1, 2, . . . , m. Seja g(x) uma função contínua por partes no intervalo [−L, L] e h(x) sua extensão periódica para toda a reta. À medida que o m cresce, a aproximação trigonométrica converge para o valor médio g(x− ) + g(x+ ) 2 onde g(x− ) = lim g(s) e g(x+ ) = lim g(s). − +
s→x s→x

A teoria que trata das aproximações por funções trigonométricas é denominada de Análise de Fourier e a ciência que estuda as aproximações por seqüências de funções ortogonais é denominada de Análise Harmônica.

Sobre o corpo dos números complexos. O vetor v é chamado de autovetor de L correspondente ao autovalor λ. Um escalar λ é um autovalor de L se existir um vetor v. O vetor coluna x é chamado de autovetor de A correspondente ao autovalor λ. o polinômio ∆(t) = det(tI −A) é chamado de polinômio característico de A e a equação polinomial det(tI − A) = 0 é chamada de equação característica de A. Uma matriz quadrada A define um operador linear de Rn em Rn se for real ou de Cn em Cn se for complexa. Se x1 e x2 são dois autovetores de A correspondentes ao mesmo autovalor λ e α1 . A matriz tI − A é chamada de matriz característica de A. tal que Ax = λx. Sendo x um autovetor de A correspondente ao autovalor λ então (λI − A)x = 0. então α1 x1 + α2 x2 será autovetor de A correspondentes ao autovalor λ. Um número real λ é um autovalor de A se existir uma matriz coluna x de ordem n por 1. α2 forem dois escalares. A equação matricial acima possui solução não trivial se e só se det(λI − A) = 0. 115 . esta solução não é única. Lembre-se: quando uma equação matricial homogênea possui solução não trivial. O conjunto auto(λ) = {x ∈ Cn : Ax = λx} é um subespaço vetorial de Cn . tal que Lv = λv. Se A for uma matriz de ordem n.Capítulo 10 Autovalores e autovetores Definição 10. onde I é a matriz identidade. determinamos os autovalores x. o det(λI − A) é um polinômio de grau n em λ. a equação polinomial det(tI − A) = 0 possui pelo menos uma raiz λ. não nula.1 Seja V um espaço vetorial e L : V → V um operador linear. Substituindo este valor na equação matricial (λI −A)x = 0. chamado de autoespaço de A correspodente ao autovalor λ. não nulo.

determinar seus autovalores λ1 . . calcule as raízes λ1 . então existe uma matriz inversível P tal que B = P AP −1 e det(tI − B) = det(tP −1 P − P −1 AP ) = det(P −1 (tI − A)P ) = = det(P −1 ) det(tI − A) det(P ) = det(tI − A). . Um escalar λ é autovalor de L se e só se for autovalor de A. xn ) . . . Desta forma. A cada autovalor λi . . λs . . determine o conjunto solução do sistema homogêneo (λI − A)x = 0 para obter o autoespaço de λ. Antonio Cândido Faleiros Para obter os autovalores e autovetores de A. então T v= e Lv = n X j=1 n X j=1 n X i=1 xi vi à n n X X i=1 j=1 xj Lvj = xj ´ P ³Pn P Assim. Lv = λv se e só se n aij xj vi = n λxi vi e. para i = j=1 i=1 1. De fato. vn } de V e calculamos a matriz de L na base B que denotamos por A. que serão os autovetores de L. . . então n X aij vi Lvj = i=1 e. . . Um vetor v não nulo é autovetor de L correspondente ao autovalor λ se e só se a matriz coluna x das coordenadas de v na base B for um autovetor de A correspondente ao autovalor λ. . da independência linear i=1 j=1 i=1 P P dos elementos de B. Se duas matrizes quadradas A e B forem semelhantes. para calcular os autovalores e autovetores de um operador L num espaço vetorial de dimensão finita. . para cada autovalor λi . se x = (x1 . os mesmos autovalores. . portanto. . . escolhemos uma base B = {v1 . . . se A = (aij ). . λs da equação característica det(λI − A) = 0 e. que corresponde à equação matricial Ax = λx. . basta calcular sua matriz A numa base B. .116 Notas de aula do Prof. esta igualdade se verifica se e só se n aij xj = n λxi . Para determinar autovalores e autovetores de um operador linear L : V → V. . determine o autoespaço de A correspondente a este autovalor auto(λi ) = {x ∈ Cn : Ax = λi x} para obter os autovetores v de L correspondente ao autovalor λi que serão dados por v = x1 v1 + · · · + xn vn n X i=1 aij vi = aij xj ! vi . mostrando que matrizes semelhantes possuem a mesma equação característica e. onde V é um espaço vetorial de dimensão finita n. n.

v2 } é linearmente independente. Seja λ um autovalor de L. .Notas de aula do Prof. . vr } com menos de r elementos é linearmente independente. . Consideremos a equação a1 v1 + a2 v2 + · · · + ar vr = 0. consequentemente. Subtraindo uma da outra chega-se a a2 (λ1 − λ2 )v2 = 0. . Teorema 10. . . . Se A for a matriz de L numa base B de V. Prova. a1 = 0. obtemos a1 λ1 v1 + a2 λ2 v2 + · · · + ar λr vr = 0 e a1 λ1 v1 + a2 λ1 v2 + · · · + ar λ1 vr = 0. A mesmo acontece com os autovetores de L. Vamos supor. Como as matrizes de uma transformação linear em bases diferentes são semelhantes. que qualquer subconjunto de {v1 . obtemos a2 = 0 e. Inicialmente provaremos que {v1 . Sejam v1 . denominado de autoespaço de L correspondente ao autovalor λ. . . Antonio Cândido Faleiros onde x = (x1 . Multiplicando-a por A e por λ1 . . 1. então tI − A é chamada de matriz característica de L. 3. seus autovalores não dependem da base escolhida. provando que o conjunto {v1 . o polinômio característico de L não depende da base escolhida e. Sua determinação não depende da base escolhida. Tal como no caso de matrizes. o conjunto auto(λ) = {v ∈ V : Lv = λv} 117 é um subespaço vetorial de V.2 Autovetores de L correspondentes a autovalores distintos são linearmente independentes. onde ai são escalares. . . Sejam a1 e a2 dois escalares tais que a1 v1 + a2 v2 = 0. vj } são linearmente independentes. . . . Vamos provar que estes autovetores formam um conjunto linearmente independente. Vamos provar que {v1 . . como hipótese de indução. λr . vr } é linearmente independente. xn )T é autovetor de A correspondente ao autovalor λi . o polinômio det(tI − A) é chamado de polinômio característico de L e a equação polinomial det(tI − A) = 0 é chamada de equação característica de L. portanto. . . Multiplicando por λ1 e por A vem a1 λ1 v1 + a2 λ1 v2 = 0 e a1 λ1 v1 + a2 λ2 v2 = 0. 2. . Do mesmo modo se prova que um conjunto formado por dois autovetores {vi . vr os autovetores de L correspondentes aos autovalores distintos λ1 . . Como λ1 6= λ2 e v2 6= 0. v2 } é linearmente independente. .

118 Subtraindo uma da outra vem Notas de aula do Prof. Se v for um autovetor de L. . então hLv. . de onde se conclui que λ = λ. Como λ 6= µ. Lwi o que implica em λ hv. wi = 0. −Lvi =⇒ λ hv. Os autovalores de L são números imaginários puros (números complexos com parte real nula) e os autovetores correspondentes a autovalores distintos são ortogonais. Prova. isto é. de hLv. λvi = λ hv. −Lwi =⇒ λ hv. L∗ Lvi = hv. vi = λ hv. . seus autovalores são reais. Prova. Se Lv = λv. . vi = −λ hv. vi = 0. De hLv. Lvi ≥ 0. a1 também é nulo. completando a prova de que o conjunto {v1 . hv. Lvi = hv. . então λ ≥ 0. a2 (λ2 −λ1 ) = · · · = ar (λr −λ1 ) = 0. vi = hv. Prova.4 Seja V um espaço com produto interno e L : V → V linear. vi > 0. vi =⇒ λ = −λ provando que λ é um número imaginário com parte real nula. ¤ Teorema 10. Antonio Cândido Faleiros a2 (λ2 − λ1 )v2 + · · · + ar (λr − λ1 )vr = 0 Sendo o conjunto {v2 . vi ou (λ − λ) hv. a2 = · · · = ar = 0 e. em conseqüência. conclui-se que λ ≥ 0. wi . wi = 0. hv. wi = −σ hv. wi = hv.5 Seja V um espaço com produto interno e L : V → V antiadjunto. segue 0 ≤ hLv. então. Como os autovalores são distintos. Sejam v e w autovetores de L com Lv = λv. . ¤ Teorema 10. ¤ . onde v é um vetor não nulo e λ escalar. vr } linearmente independente. Então 6 ¯ hLv. Se v e w forem autovetores correspondentes aos autovalores reais distintos λ e µ. Lw = σw e λ = σ. Os autovalores de L∗ L são reais e não negativos.3 Seja V um espaço com produto interno e L : V → V auto-adjunto. vi Como hv. ¤ Teorema 10. wi = µ hv. se λ for autovalor de L∗ L. λ 6= −σ e assim. Seja v um autovetor de L∗ L associado ao autovalor λ. vr } é linearmente independente. com Lv = λv então ¯ ¯ hLv. Lvi ¯ ¯ ¯ o que implica em λ hv. wi = hv. Como L∗ L é auto-adjunto. wi = 0. ¯ Sendo λ e σ imaginários puros e distintos. vi = hv. . Os autovalores de L são reais e os autovetores correspondentes a autovalores distintos são ortogonais. wi ou (λ − µ) hv. .

.6 Seja V um espaço com produto interno e L : V → V unitário.Notas de aula do Prof. Antonio Cândido Faleiros 119 Teorema 10. r. Se p(A) = 0. Define-se p(A). Então ¯ ¯ hLv. wi =⇒ σλ hv. vi =⇒ λλ = 1. Seja v um autovetor de L. .8 (Cayley-Hamilton) Toda matriz é um zero do seu polinômio característico. Lw = λw e σ 6= λ. por p(A) = c0 I + c1 A + · · · + ck Ak onde I é a matriz identidade com ordem igual à de A. Sabe-se que B −1 = adj(B)/ det(B) e assim. Seu polinômio característico det B = det(tI − A) = tn + cn−1 tn−1 + · · · + c1 t + c0 tem grau n. Os autovalores de L são números complexos com módulo unitário e os autovetores correspondentes a autovalores distintos são ortogonais. mostrando que λ é um número complexo de módulo unitário. Os elementos da matriz A(t) = A0 + A1 t + · · · + Ar tr são polinômios de grau menor ou igual a r. podemos escrevê-lo na forma λ = exp(iθ). vi =⇒ λλ hv. ¤ Definição 10. adj(B) = Bn−1 tn−1 + · · · + B1 t+ B0 é um polinômio matricial de grau n − 1 ou inferior. o valor do polinômio p(t) na matriz A. Logo. é um polinômio de grau n − 1 ou inferior. Como det(B)I = Itn + cn−1 Itn−1 + · · · + c1 It + c0 I . wi 6= 0. k = 0. Sejam Ak . ¯ ¯ Como λ possui módulo unitário. Cada elemento da adjunta clássica de B.7 Seja p(t) = c0 + c1 t+ · · · + ck tk um polinômio em t e A uma matriz quadrada. Lvi = hv. det(B)I = adj(B) · B. 1. onde θ é um ¯ número real. vi = hv. . Seja A uma matriz quadrada de ordem n e B = tI − A sua matriz característica. wi = hv. Assim σ exp(iθ) = 1 e σ = exp(−iθ) = λ de onde se conclui que λ = σ. diremos que a matriz A é um zero do polinômio p(t). Prova. matrizes quadradas de mesma ordem. denotada por adj(B). Se hv. o ¯ ¯ que contraria a hipótese. Prova. Sejam v e w autovetores de L com Lv = σv. Teorema 10. então hLv. com Lv = λv. wi =⇒ σλ = 1. . Lwi = hv.

. cujos blocos diagonais são A1 . ¤ Matrizes triangulares em bloco são aquelas do tipo ¶ µ A1 B A= 0 A2 onde A1 e A2 são matrizes quadradas. . da primeira até a última por An . Teorema 10. Então o polinômio característico de A é o produto dos polinômios característicos de A1 . Ar . . respectivamente. onde λ1 . .9 Seja A uma matriz triangular em blocos. . Então det(A) = det(A1 ) det(A2 ). . . A matriz característica de A também é triangular por blocos e det(tI − A) = det(tI − A1 ) det(tI − A2 ). . . do lado esquerdo. An−1 . o polinômio característico An + cn−1 An−1 + · · · + c1 A + c0 I calculado na matriz A. A e I. isto é. . . ∆(t) = (t − λ1 )p1 · · · (t − λk )pk . obtemos zero do lado direito e. Antonio Cândido Faleiros ¢ ¡ adj(B) · B = Bn−1 tn−1 + · · · + B1 t + B0 (tI − A) = Bn−1 tn + (Bn−2 − Bn−1 A)tn−1 + · · · + (B0 − B1 A)t + B0 A segue I = Bn−1 cn−1 I = Bn−2 − Bn−1 ··· c1 I = B0 − B1 A c0 I = B0 A. .120 e Notas de aula do Prof. . . O polinômio característico de uma matriz quadrada complexa A pode ser fatorado em fatores lineares. podendo ter a mesma ordem ou não. . O expoente pk é a multiplicidade algébrica do autovalor λk . pk suas multiplicidades. pela direita e adicionando os resultados. . Isto prova o teorema de Cayley-Hamilton. . . . Multiplicando as igualdades. . λk são suas raízes e p1 . Ar . . det(tI − A) = det(tI − A1 ) · · · det(tI − Ar ).

. . .14 No teorema anterior.12 A multiplicidade geométrica de um autovalor nunca excede sua multiplicidade algébrica. . 0. . as colunas de P são vetores linearmente independentes. Teorema 10.  . Prova. .. Portanto. 1)T . 0)T e (0. vg . . . . 0..10 Seja λ um autovalor de uma matriz quadrada A de ordem n. .. Seja V um espaço vetorial de dimensão n e L : V → V um operador linear. O autoespaço deste autovalor é gerado por (1. . ¶  µ  A C 0 · · · λ cp1 · · · cpr   M = = 0 B  0 · · · 0 b11 · · · b1r   . . Se A for semelhante a uma matriz diagonal D. Prova.Notas de aula do Prof.  . . 2. 5 é 0 0 5 um autovalor de A de multiplicidade algébrica 3. então existe uma matriz inversível P tal que AP = P D. . . temos AP = P D onde D = diag(λ1 . . vn } que formam uma base de V e para os quais Avi = λi vi . . . a multiplicidade algébrica de λ deve ser maior ou igual a g. 1. Seja B = {v1 . Se A tem n autovetores linearmente independentes.. Sendo inversível.  . . . Seja g a multiplicidade geométrica de um autovalor λ de L. . . A multiplicade geométrica de λ é a dimensão do seu autoespaço. . Se P for a matriz cujas colunas são formadas por esses vetores. .. Logo. .   5 1 0 Exemplo 10. . . 0 · · · 0 br1 · · · brr onde A = λI.   . . . . . .13 Uma matriz quadrada A de ordem n é semelhante a uma matriz diagonal D se e só se A tem n autovetores linearmente independentes. wr } esta base. Antonio Cândido Faleiros 121 Definição 10.11 O polinômio característico de A =  0 5 0  é (t − 5)3 . . a multiplicidade geométrica do autovalor 5 é 2. λn ). Completemos este conjunto para obter uma base de V. os n autovalores λ1 . . w1 . ¤ Teorema 10. ¤ Nota 10. .  . . (t − λ)g deve dividir ∆(t). A multiplicidade algébrica de λ é a multiplicidade de λ como raíz da equação característica. λn não precisam ser todos distintos. Para que isto ocorra. . Existem g autovetores v1 . . . . . . O polinômio característico de M é ∆(t) = det(tI −M) = det(tI −A) det(tI − B) = (t − λ)g det(tI − B). sejam eles {v1 . . Os elementos diagonais de D são os autovalores de A e as colunas de P os autovetores. . . vg linearmente independentes correspondentes ao autovalor λ. .. Logo. . . A matriz de L nesta base é   λ · · · 0 c11 · · · c1r  .

Então A = P DP −1 é a chamada de fatoração diagonal de A. 11 22 nn Sendo f (t) um polinômio. . kn P −1 B = P diag é uma raiz quadrada de A pois B 2 = A. dnn ). . . . . . . se os elementos diagonais de D forem não negativos. . . . d22 . Além disso. . então ¡ ¢m Am = P DP −1 = P Dm P −1 = P diag(dm . Os elementos da diagonal desta representação são os autovalores λi . possui uma representação matricial diagonal. d22 . Seja L : V → V uma transformação linear. . f (dnn ) )P −1 . na base formada pelos autovetores. dnn denotaremos esta matriz por D = diag(d11 . . ¢ ¡ f (A) = f P D P −1 = P f (D) P −1 = P diag( f (d11 ). Antonio Cândido Faleiros Seja P a matriz inversível para a qual D = P −1 AP é diagonal. . então ³p p ´ k1 . . cujo polinômio característico ∆(t) = (t − λ1 )(t − λ2 ) · · · (t − λn ) pode ser fatorado em n fatores distintos do primeito grau. dm . .122 Notas de aula do Prof. . Então L possui n autovetores linearmente independentes e portanto. . . dm )P −1 . . f (d22 ). Se D for diagonal e seus elementos diagonais forem d11 . Sendo A = P DP −1 . . Seja V um espaço vetorial com dimensão n.

Capítulo 11 Espaços Invariantes
Definição 11.1 Seja L : V → V um operador linear e W um subespaço de V. Se L(W ) ⊂ W, diremos que W é invariante sob L. Exemplo 11.2 Seja L(x, y, z) = ( x − y, x + y, z ) um operador definido no espaço vetorial dos ternos ordenados. O subespaço W = { (x, y, 0) : x, y ∈ R } é invariante sob L. O subespaço gerado por um vetor w não nulo é invariante sob L se e só se w for um autovetor de L. Seja L : V → V linear e f (t) um polinômio. O ker f (L) é invariante sob L. Se W for invariante sob L, então W é invariante sob f (L). Definição 11.3 Seja W um subespaço vetorial de V e L : V → V um operador linear. Se W for invariante sob L podemos definir T : W → W por T (w) = L(w) para todo w em W. O operador T é linear em W e recebe o nome de restrição de L em W. Sendo W invariante sob L, então é invariante sob Lk , para todo k inteiro positivo. Se f (t) for um polinômio, então W é invariante sob f (L). Sendo T a restrição de L a W, para todo w em W, tem-se f (T )w = f (L)w. Teorema 11.4 Seja L : V → V linear e W subespaço de V invariante sob L. Então L possui uma representação matricial em bloco µ A C 0 B ¶

onde A é uma representação matricial da restrição de L em W. 123

124

Notas de aula do Prof. Antonio Cândido Faleiros

Prova. Seja {u1 , . . . , uj } uma base de W e {u1 , . . . , uj , v1 , . . . , vk } uma base de V. Como W é invariante frente a L, L(u1 ) = a11 u1 + · · · + aj1 uj ··· L(uj ) = a1j u1 + · · · + ajj uj L(v1 ) = c11 u1 + · · · + cj1 uj + b11 v1 + · · · + bk1 vk ··· L(vk ) = c1k u1 + · · · + cjk uj + b1k v1 + · · · + bkk vk e, portanto, a representação matricial de L nesta base é  a11 · · · a1j  . ... . . . .  .  aj1 · · · ajj    0 ··· 0  . .  . .. . . . . 0 ··· 0  c11 · · · c1k . .. . . . .  µ . .  ¶  A C cj1 · · · cjk  . = 0 B b11 · · · a1j  . .. .  . . .  . . bk1 · · · bkk

¤

Definição 11.5 Seja L : V → V linear e V = W1 ⊕ · · · ⊕Wr , onde Wi é invariante sob L. Seja Li a restrição de L a Wi . Neste caso se diz que L é a soma direta dos Li ou que L é decomponível nos operadores Li , quando então se escreve L = L1 ⊕ · · · ⊕ Lr . Ainda se diz que os subespaços W1 , . . . , Wr reduzem L. Teorema 11.6 Seja L : V → V linear e W1 , . . . , Wr subespaços de V invariantes sob L e tais que V = W1 ⊕ · · · ⊕Wr . Neste caso, L possui uma representação matricial diagonal em bloco   A1 0 · · · 0  0 A2 · · · 0    A= . . .. .  . . .   . . . . 0 0 · · · Ar onde Ai é uma representação matricial da restrição Li de L no subespaço Wi . Prova. Provaremos o teorema no caso em que V = W1 ⊕ W2 . Sejam B1 = {u1 , . . . , ur } base de W1 e B2 = {w1 , . . . , ws } base de W2 . Como W1 e W2 são invariantes frente

Notas de aula do Prof. Antonio Cândido Faleiros L, L(u1 ) = a11 u1 + · · · + ar1 ur ··· L(ur ) = a1r u1 + · · · + arr ur L(w1 ) = b11 w1 + · · · + bs1 ws ··· L(ws ) = b1s w1 + · · · + bss ws Desta forma, a representação  a11  . .  .   a A =  r1  0  .  . . 0 ¤ matricial de L nesta base é  · · · a1r 0 · · · 0 . .. . ... . . . . .  µ . . .  ¶  A 0 · · · arr 0 · · · 0  . = 0 B · · · 0 b11 · · · b1s   . .. . ... . . . . .  . . . · · · 0 bs1 · · · bss

125

Nas condições do teorema anterior, temos L = L1 ⊕ · · · ⊕Lr . A matriz A é chamada de soma direta de A1 , . . . , Ar e se escreve A = A1 ⊕ · · · ⊕ Ar .

11.1

Polinômio mínimo

Para obter representações matriciais simplificadas de um operador linear é preciso obter subespaços invariantes. Se f (t) for um polinômio e L for um operador linear, então o núcleo de f (L) é invariante sob L. Este fato nos fornece um modo sistemático de obter subespaços invariantes. Em particular vamos provar que Teorema 11.7 Seja L : V → V linear e g(t), h(t) polinômios mônicos primos entre si, tais que L é um zero do polinômio f (t) = g(t)h(t). Então os subespaços ker g(L) e ker g(L) são invariantes sob L e V = ker g(L) ⊕ ker h(L) Sabemos que L é um zero de seu polinômio característico. Vamos provar que todo polinômio que tem L como zero possui os mesmos fatores irredutíveis. Dentre eles, destaca-se o de menor grau, denominado de polinômio mínimo de L. Definição 11.8 Seja L : V → V um operador linear. O polinômio mínimo de L é aquele polinômio mônico de menor grau para o qual m(L) = 0.

Prova. deve ser descartada pois nos leva a uma contradição. ¤ Teorema 11. Se f (t) for o polinômio mínimo m(t) de L. contrariando a hipótese de m(t) ser o polinômio de menor grau que possui L como zero. Ao mesmo tempo. Antonio Cândido Faleiros Teorema 11. Prova. então ∆(t) divide m(t)n .11 Seja m(t) o polinômio mínimo e ∆(t) o polinômio característico de um operador linear L : V → V. qualquer polinômio mônico para o qual f (L) = 0 ou c0 I + c1 L + c2 L2 + · · · + Lr = 0. onde se pode explicitar c0 I c0 I = −c1 L − c2 L2 − · · · − Lr . ¤ . Se a dimensão de V for n. O grau de f (t) é maior do que o grau de m(t) e. Existem duas possibilidades: r(t) = 0 ou r(t) 6= 0. Esta expressão pode ser usada para eliminar c0 I em f (t)I. Seja m(t) o polinômio mínimo de L e f (t) um polinômio mônico para o qual f (L) = 0. vale (tI − L)B(t) = m(t)I. (Unicidade) Seja m(t) o polinômio mônico de menor grau para o qual m(L) = 0. pelo algoritmo da divisão. considerando-se que r(A) = 0 e o grau(r) < grau(m). Seja f (t) = c0 + c1 t + c2 t2 + · · · + tr . r(t) = 0 e m(t) divide f (t). o polinômio mínimo de L divide o polinômio característico de L. Em particular. segue ∆(t) det B(t) = m(t)n . Então g(t) = f (t)− m(t) não é nulo e seu grau é menor que o grau de m(t). ¤ Teorema 11. (Existência) Sabemos que a matriz L é um zero do seu polinômio característico e assim.126 Notas de aula do Prof. Prova. f (t) = q(t)m(t)+r(t). r(t) 6= 0. Existe pelo menos um polinômio não nulo de grau mínimo neste conjunto. existe pelo menos um polinômio não nulo que possui L como zero.10 O polinômio mínimo de L divide todo polinômio que tem L como zero. Este é um polinômio mínimo de L. f (t)I = = = = c0 I + c1 tI + c2 t2 I + · · · + tr I c1 (tI − L) + c2 (t2 I − L2 ) + · · · + (tr I − Lr ) (tI − L)(c1 + c2 (tI + L) + · · · + (tr−1 I + tr−2 L + · · · + Lr−1 )) (tI − L)B(t). Calculando o determinante dos dois membros. Seja f (t) outro polinômio mônico de mesmo grau que m(t) e que possui L como zero. onde grau(r) < grau(m). Esta possibilidade.9 Toda matriz quadrada possui um único polinômio mínimo. Considere o conjunto de todos os polinômios mônicos que se anulam em L. g(L) = 0. Logo.

Logo. 1 2 −4        5   −2  1   1  . Prova.13 Um escalar λ é um autovalor de um operador linear L se e só se λ for uma raiz do polinômio mínimo de L. Antonio Cândido Faleiros 127 Teorema 11.  0  ↔ 1. Seja m(t) o polinômio mínimo e ∆(t) o polinômio característico de L.15 O polinômio característico e mínimo da matriz   5 2 0  0 5 2  0 0 5 são ambos iguais a (t − 5)3 . possuem as mesmas raízes. Exemplo 11. m(t) divide ∆(t). os fatores irredutíveis de m(t) também devem ser fatores irredutíveis de ∆(t). f (t) é o polinômio mínimo de A. . ¤ Corolário 11. Isto prova o teorema. f (t) = (t − 1)(t − 3). Exemplo 11. Exemplo 11.12 Os polinômios mínimo e característico de um operador linear L possuem os mesmos fatores irredutíveis. Por outro lado. Logo. Já sabemos que ∆(A) = 0.  3  ↔ 3Seu polinômio característico é . Assim. Sendo f (t) = t2 − 4t + 3. Logo. os fatores irredutíveis de ∆(t) devem ser fatores irredutíveis de m(t)n que possui os mesmos fatores irredutíveis que m(t). eigenvectors:     0 1 1 ∆(t) = (t − 1)2 (t − 3). Vamos verificar se f (A) = 0. ∆(t) divide m(t)n . um cálculo simples mostra que f (A) = A2 − 4A + 3I = 0. Pelo teorema anterior.14 Considere a matriz  2 2 −5 A =  3 7 −15  .Notas de aula do Prof.16 Dada a matriz  5 2 0 A =  0 5 0 . 0 0 5  Os candidatos a polinômio mínimo são ∆(t) e  seu polinômio característico é (t − 5)3 e seu polinômio mínimo é (t − 5)2 .

21 A matriz A = −2 ¶3 µ ¶ µ 3 2 .128 Exemplo 11. 0 0 5  são ambos iguais a t4 − 7t3 − 5t2 − 3t − 2. 1 1 . Antonio Cândido Faleiros seu polinômio característico é (t − λ)3 e seu polinômio mínimo é (t − λ) .22 Os autovalores de ¶ 3µ 2 ¶ µ 2 −1 . Exemplo 11. ¶ µ 5 6 tem dois autovalores: −4 e 7. Os polinômios característico e mínimo são e correspondentes a eles são 1 −3 iguais ∆(t) = m(t) = t2 − 3t − 28. Os autovetores Exemplo 11.19 Os polinômios característico e mínimo de   0 0 0 2  1 0 0 3     0 1 0 5  0 0 1 7 Exemplo 11. e a eles são. 3 −2 −3 1 0 7 11 3 2 ¶ µ 5 6 são −1 e 8 e os autovetores correspondentes Exemplo 11.18 Os polinômios característico e  0 0  1 0 A= 0 1 são ambos iguais a t3 − 5t2 − 3t − 2. respectivamente. Assim ¶µ ¶ µ ¶ µ ¶µ 1 1 −3 5 6 2 3 −4 0 = . Exemplo 11.17 Dada a matriz Notas de aula do Prof.20 Os polinômios característico  0 0 0  1 0 0   0 1 0 0 0 1 e mínimo de  a0 a1   a2  a3 são ambos iguais a t4 − a3 t3 − a2 t2 − a1 t − a0 . mínimo de  2 3  5  5 0 0 A =  0 5 0 .

Notas de aula do Prof. Os polinômios característico e mínimo único autovetor linearmente independente 1 são iguais ∆(t) = m(t) = t2 − 8t + 16.   3 −1 1 Exemplo 11.25 Os autovalores de  2 5 −2  são 3 e 5. seu polinômio característico é (t − 2)3 e 0 0 2 seu polinômio mínimo é t − 2.   2 0 0 Exemplo 11. . ¶ µ 2 2 são 1 e 4. Correspondente a λ1 = 1 2   1  −1 1  1  e  0  .26 Os autovalores de A =  0 6 −3  são 3 e 5.24 Os autovalores de 1 3 ¶ µ ¶ µ 1 2 . e são 1 −1   4 1 −1 Exemplo 11. Os autovetores correspondentes Exemplo 11. 0 1   1  2 .28 Dada a matriz  0 2 0  . Correspondente a λ2 = 5 temos um 3 temos dois autovetores LI 0 1   1 autovetor LI  2  . Os polinômios carcterístico e mínimo são iguais: t2 − 5t + 4. Antonio Cândido Faleiros µ 129 ¶ 5 −1 Exemplo 11. O polinômio característico e mínimo são ∆(t) = m(t) = spondentes são 0 1 2 (t − 4) (t + 2) .   −3 1 −1 Exemplo 11.27 Os autovalores de  −7 5 −1  são −2 e 4 e os autovetores corre−6 6 −2     1 0  1  e  1  . Seu polinômio característico é ∆(t) = (t − 3)2 (t − 5) e mínimo é 1 m(t) = (t − 3) (t − 5) . Correspondentes ao 0 1 2     −1 1  1  e  0 . autovalor λ1 = 3 temos dois autovetores linearmente independentes. O Todos os autovetores correspondentes ao autovalor λ2 = 5 são múltiplos de 1 2 polinômio característico de A é ∆(t) = (t − 3) (t − 5) e o polinômio mínimo é m(t) = (t − 3) (t − 5) .23 A matriz C = possui um único autovalor real λ = 4 e um 1 3 µ ¶ 1 .

Seu polinômio característico é (t − 2)5        0   1   0  1 0 0 e seu polinômio mínimo é t − 2.130  Notas de aula do Prof. seus autovetores são  0  . seu polinômio característico é (t − 2)5 e seu polinômio mínimo é (t − 2)3 .  1  .   .31 Dada a matriz        .      1   0  1 0    Exemplo 11. seus autovetores são        1 0 0 0 0       . seu polinômio característico é (t − 2)3 e 0 0 2 2 seu polinômio mínimo é (t − 2) .        0 1 0 0 0   .29 Dada a matriz  0 2 0  .  0  formam uma base de C5 .       0 1 2 1 0 0 0  0   0   0 2 0 0 0        Exemplo 11.  0  .30 Dada a matriz  0 2 1  .  0  .  2 1 0 Exemplo 11.32 Dada a matriz  0 0 2 0 0  .        0   0   0 0 0 2 0  0 0 0 0 0 0 2     0 0  0   0       0  .     Exemplo 11.      0 0 0 1 0    . seus autovetores       1 0 0 0 0     . seu polinômio característico é (t − 2)5 e seu polinômio mínimo é (t − 2)2 . Antonio Cândido Faleiros  2 1 0 Exemplo 11.          0 0 0  0   0   0         1  .33 Dada a matriz         0 0 0 0 1   2 0 0 0 0 1 2 0 0 0 0 1 2 0 0 0 0 0 2 0 0 0 0 0 2      . seu polinômio característico é (t − 2)3 e 0 0 2 3 seu polinômio mínimo é (t − 2)  2 0 0 0 0 0 2 0 0 0 0 0 2 0 0 0 0 0 2 0 0 0 0 0 2       .

35 Dada a matriz  0 0 2 1 0  . O número de autovetores correspondentes a λ (multiplicidade geométrica de λ) é n − m + 1. é uma matriz diagonal em bloco.   Nota 11. . Se f (t) for um polinômio em t.    0 1 2 1 0 0 0  0  0  0 2 1 0 0      Exemplo 11. Se A e B forem matrizes quadradas. então µ ¶ A 0 D= . Antonio Cândido Faleiros  131    . então ¶ µ f (A) 0 . seus autovetores são  0   0      0  0  0 0 0 2 0  1 0 0 0 0 0 2 5 4 polinômio característico: (t − 2) . Se o polinômio característico possuir o fator (t − λ)n o polinômio característico terá o fator (t − λ)m com m ≤ n. seu polinômio característico é (t − 2)5 e seu polinômio mínimo é (t − 2)5    0  0 11. polinômio mínimo: (t − 2) .2 Matrizes em bloco *** Incluir casos mais gerais do que apenas diagonais em bloco.34 Dada a matriz  0 0 2 1 0  . f (D) = 0 f (B) Teorema 11.36 Parece-me que dá para tirar uma regra para calcular a multiplicidade geométrica de um autovalor: Calcule os polinômios característico e mínimo da matriz e fatore-os. seus autovetores são    0 0 0 2 1  0 0 0 0 2   1  0     0  .   2 1 0 0 0  0 2 1 0 0    Exemplo 11. Então o polinômio mínimo de A é igual ao mínimo múltiplo comum dos polinômios mínimos dos blocos diagonais A1 e A2 .Notas de aula do Prof.37 Sejam A1 e A2 são matrizes quadradas e ¶ µ A1 0 A= 0 A2 uma matriz diagonal em bloco. 0 B onde 0 são matrizes retangulares nulas.

Então o polinômio mínimo de A é igual ao mínimo múltiplo comum (mmc) dos polinômios mínimos dos blocos diagonais Ai mA (t) = mmc{ mA1 (t). A2 . Sendo LW um zero de m(t). Sob estas hipóteses. mA2 (t). Daí A é um zero de todo múltiplo comum de m1 (t) e m2 (t). respectivamente. enquanto o Teorema (10. Prova. então m(L) = 0. então ¶ ¶ µ µ 0 0 f (A1 ) 0 =0 = f (A) = 0 0 0 f (A2 ) pois f (A1 ) = 0 e f (A2 ) = 0. Vamos mostrar que A é uma raiz de todo polinômio múltiplo de m1 (t) e m2 (t). Para todo w ∈ W.3 Decomposição primária Teorema 11. Sendo o polinômio mínimo o poliômio de menor grau que possui A como raiz. . m(t) é o mínimo múltiplo comum de g(t) e h(t). Antonio Cândido Faleiros Prova. temos m(LW )(w) = m(L)(w) = 0. Logo.39 Frisamos que este teorema se aplica a matrizes diagonais em blocos.132 Notas de aula do Prof. .38 Seja A uma matriz diagonal em bloco. Seja LW : W → W a restrição de L em W. aplica-se a matrizes triangulares em blocos. g(t))mmc(f (t). se f (t) e g(t) forem dois polinômios quaisquer. . mAr (t) }. cujos blocos diagonais são A1 . Se m(t) for o polinômio mínimo de L. o polinômio mínimo de LW divide o polinômio mínimo de L.9) que é análogo a este e se refere aos polinômios característicos. m1 (t) e m2 (t) os polinômios mínimos de A. A prova usa o teorema anterior e indução em r. m2 (t)}. Sendo m(t) o polinômio mínimo de A. Ar . Sendo f (t) um múltiplo comum de m1 (t) e m2 (t). . Prova. ¤ Teorema 11. o polinômio mínimo de LW divide o polinômio mínimo de L. f (t)g(t) = mdc(f (t). Vamos provar que m(t) = mmc{m1 (t). ¤ Nota 11. . Sejam m(t).40 Seja L : V → V uma transformação linear e W invariante sob L. 0 m(A2 ) 0 0 Conclui-se que m(A1 ) = m(A2 ) = 0. A1 e A2 . m(t) é multiplo comum de m1 (t) e m2 (t). g(t)) . 11. ¤ Lembramos que. . . m1 (t) e m2 (t) dividem m(t) e daí. . então µ ¶ µ ¶ m(A1 ) 0 0 0 m(A) = = .

Pelo teorema anterior. Lwj = A matriz da transformação linear L nesta base é triangular em bloco ¶ µ A 0 . ur } for uma base de V1 e B2 = {w1 . 1. . Seja f (t) outro polinômio que tem L por raiz.Notas de aula do Prof. 1.43 Seja L : V → V linear e g(t). Sejam L1 e L2 as restrições de L a V1 e V2 . . s. Antonio Cândido Faleiros 133 Teorema 11. Como V1 e V2 são invariantes sob L. 2. tais que L é um zero do polinômio f (t) = g(t)h(t). L1 e L2 . . m1 (t) e m2 (t) os polinômios mínimos de L. Prova. . Provamos que todo polinômio que tem L por raiz é múltiplo comum de m1 (t) e m2 (t). . . tem-se r X Luj = aij ui i=1 e. respectivamente. Teorema 11. . . M= 0 B Consequentemente. O polinômio mínimo de L é o mínimo múltiplo comum dos polinômios mínimos de L1 e L2 . h(t) polinômios mônicos primos entre si. Então f (L1 ) = f (L2 ) = 0 e f é divisível por m1 (t) e m2 (t). Sendo m(t) o polinômio de menor grau que tem L como raiz. Os subespaços ker g(L) e ker h(L) são invariantes sob L e V = ker g(L) ⊕ ker h(L) r X i=1 bij wi .41 Seja L : V → V uma transformação linear. V1 e V2 invariantes sob L de modo tal que V = V1 ⊕ V2 . ¤ Nota 11. . Sejam m(t). m(t) = mmc(m1 (t). m2 (t)).42 No teorema anterior. . . . Então: 1. . . det(tI − M) = det(tI − A) det(tI − B) = ∆L1 (t)∆L2 (t). m(t) é divisível por m1 (t) e por m2 (t). . para j = 1. ws } for uma base de V2 . . 2. para j = 1. . então a união B1 ∪ B2 é uma base de V. Se B1 = {u1 . r. se m1 (t) e m2 (t) forem primos entre si. O polinômio característico de L é o produto dos polinômios característicos de L1 e de L2 . então m(t) = m1 (t)m2 (t).

Para completar a prova deste item. existem polinômios r(t) e s(t) tais que r(t)g(t) + s(t)h(t) = 1. segue f (t) = m1 (t)m2 (t). de onde segue que m1 (t) = g(t) e m2 (t) = h(t). Por outro lado. f (t) = g(t)h(t). como já se provou. r(L)g(L)v pertence ao ker h(L) e w = s(L)h(L)v pertence ao ker g(L). Se f (t) for o polinômio mínimo de L. Prova. Antonio Cândido Faleiros 2. u = r(L)g(L)u + s(L)h(L)u = s(L)h(L)u = s(L)h(L)(u + w) = s(L)h(L)v. De modo semelhante se prova que w = s(L)h(L)v.134 Notas de aula do Prof. De modo análogo se prova que s(L)h(L)v pertence ao ker g(L). Por outro lado. Como g(t) e h(t) são primos entre si. falta mostrar que esta decomposição é única. m1 (t) divide g(t) e m2 (t) divide h(t). com u ∈ ker g(L) e w ∈ ker h(L). o mesmo ocorre com m1 (t) e m2 (t) que os divide. observamos que ker g(L) e ker h(L) são invariantes sob L. Sendo m1 (t) e m2 (t) primos entre si e f (t) = mmc{m1 (t). Inicialmente. Nesta soma. g(L1 ) = 0 e h(L2 ) = 0. Sendo v um elemento de V. 1. Portanto. h(L)r(L)g(L)v = r(L)g(L)h(L)v = r(L)f (L)v = 0 pois f (L) = 0. podemos escrever v = r(L)g(L)v + s(L)h(L)v. V = ker g(L) ⊕ ker h(L). Como g(t) e h(t) são primos entre si. Seja v = u+ w. m2 (t)}. Se f (t) = g(t)h(t) for o polinômio mínimo de L. respectivamente. então g(t) e h(t) são os polinômios mínimos das restrições de L ao ker g(L) e ao ker h(L). De fato. acarretando na igualdade I = r(L)g(L) + s(L)h(L). Como a decomposição é única. uma decomposição de v. . Consequentemente. 2. V = ker g(L) + ker h(L). Então. então ele é divisível pelos polinômios mínimos m1 (t) e m2 (t) de L1 e L2 .

m(t) = (t − λ1 ) · · · (t − λr ) for um produto de polinômios lineares distintos. Se L possui uma representação matricial diagonal D = diag( λ1 . Prova. ¤ 11. Como (D − λ1 I) · · · (D − λr I) = 0 o polinômio mínimo de L é (t − λ1 ) · · · (t − λr ). .44 (Decomposição primária) Seja L : V → V linear cujo polinômio mínimo é igual a m(t) = f1 (t)n1 · · · fr (t)nr onde os polinômios fi (t) são mônicos. . . ¤ Teorema 11.45 Uma transformação linear L : V → V possui uma representação matricial diagonal se e só se seu polinômio mínimo. r. λr de L. distintos e irredutíveis. Nesta base. 1. Certamente. . . λn ). Sendo m(t) = (t − λ1 ) · · · (t − λr ). . f1 (t)n1 e f2 (t)n2 são primos entre si. é o polinômio mínimo da restrição de L em Wi . Antonio Cândido Faleiros ¤ 135 Teorema 11. . . . Prova. vamos abordar o caso particular em que m(t) = f1 (t)n1 f2 (t)n2 onde f1 (t). . Os elementos da diagonal principal desta matriz são os autovalores λ1 . sabemos que V = W1 ⊕ W2 . . onde Wi = ker(L − λi I) é o autoespaço de V correspondente ao autovalor λi . que é uma base de V.Notas de aula do Prof. para i = 1. visi } for uma base de Wi . f2 (t) são polinômios mônicos. vn } de V tal que a matriz de L nesta base é diagonal. Isto significa que a matriz de L numa base qualquer . admitamos que apenas os r primeiros λi são distintos. então L(vij ) = λi vij . onde Wi = ker fi (t)ni e que fi (t)ni . . então existe uma decomposição de V numa soma direta W1 ⊕ · · · ⊕ Wr . Se Bi = {vi1 . Seja B a união das bases Bi . distintos e irredutíveis. . . . a matriz que representa L é diagonal. O polinômio mínimo possui os mesmos fatores de ∆(t). . Para simplificar a prova. O polinômio característico desta transformação linear é da forma ∆(t) = (t − λ1 )n1 · · · (t − λr )nr . 2. Então fi (t)ni são os polinômios mínimos das restrições de L a Wi = ker (fi (L)ni ) e V = W1 ⊕ · · · ⊕ Wr . . Este teorema decorre imediatamente do anterior. . .4 Diagonalização de operadores normais Um operador L : V → V é diagonalizável se existir uma base {v1 . De fato. vi2 . .

¤ .48 Se L for normal. Se L for um operador normal. LL∗ = L∗ L e. seja v o autovetor correspondente. L∗ wi para todo v e w em V. os autovetores de L∗ . Agora. os autovetores de L não são. Se S for um subespaço de V invariante sob L então S ⊥ é invariante sob L∗ . então v é ¯ autovetor de L∗ correspondente ao autovalor λ.136 Notas de aula do Prof. L∗ vi que nos fornece a ¯ igualdade kLvk = kL∗ vk . ∗ ∗ Sendo T normal. hLv. quando L for normal e S for invariante sob L. Seja V um espaço vetorial de dimensão finita com produto interno e L : V → V um operador linear. Se λ for autovalor de L. I for o operador identidade e λ um escalar.46 Um operador linear L : V → V é normal quando LL∗ = L∗ L. para todo v em V. então o operador L − λI é normal. Quando L não é normal. Lwi = hL∗ v. Lvi = hL∗ v. necessariamente. vi . Se v for autovetor de L correspondente ao autovalor λ. antiadjunto ou unitário.49 Seja L um operador normal sobre um espaço vetorial de dimensão finita com produto interno. L∗ vi = µ hv. Em particular. ¯ Sendo hv. Sendo µ o autovalor correspondente segue ¯ λ hv. ¯ Se λ for autovalor de L. então λ é autovalor de L∗ . hLv. se A for a matriz de L numa base de V. provaremos que tanto S quanto S ⊥ são invariantes sob L e L∗ . Quando o operador linear L : V → V é auto-adjunto. Para todo escalar λ. provaremos logo em seguida que v é autovetor de L correspondente ao autovalor λ se e só ¯ se v for autovetor de L∗ correspondente ao autovalor λ. No item anterior provou-se que v é autovetor de L∗ . Esta é a condição mais geral sob a qual um operador é diagonalizável. Teorema 11. vi = hλv. vi = hv. A matriz quadrada A que satisfaz AA∗ = A∗ A é denominada matriz normal. Exemplo 11. antiadjuntos e unitários são normais. T = L − λI é normal pois T ∗ = L∗ − λI. então existe uma matriz inversível P e uma matriz diagonal D tais que A = P DP −1 . Se L é normal. Podemos nos perguntar qual a condição mais geral que um operador linear deve satisfazer para ser diagonalizável. então LL∗ = L∗ L. segue µ = λ. Antonio Cândido Faleiros é semelhante a uma matriz diagonal. vi 6= 0. Isto significa que. Conclui-se que v é autovetor de L se e só se for autovetor de L∗ . Desta forma. Definição 11. vi = hLv. T v = 0 se e só se T v = 0. kT vk = kT vk para todo v em V. Exemplo 11. portanto. Prova.47 Os operadores auto-adjuntos.

¯ . vn } cujos elementos são autovetores de T. O operador T é normal em W ⊥ que tem dimensão n − 1. Ao incluirmos v1 a este conjunto. Para todo v e w em W ⊥ temos hv. Provemos que o teorema vale para todo operador normal L definido em um espaço vetorial V de dimensão n. de modo que Lvi = λi vi para i = 1. vj i = λj δ ij . Prova. Os autovetores de T são autovetores de L. . mostrando que T é normal.51 Seja L um operador linear sobre um espaço vetorial V de dimensão finita. W ⊥ possui uma base ortonormal {v2 . . T T ∗ v = LL∗ v = L∗ Lv = T ∗ T v. A transformação L possui pelo menos um autovetor v de módulo unitário. . Seja v1 um autovetor de L e W = ger(v1 ). . . . Se decompondo L∗ vi na base B. a representação matricial de L é diagonal. . 2. Prova. . Seja B = {v1 . T ∗ wi = hT v. ¯ aij = hL∗ vi . 1. vn } uma base ortonormal de V cujos elementos são autovetores de L. . podemos escrever X aij vj L∗ vi = j onde. ¤ Teorema 11. Por outro lado. nada resta a provar: a base de V contém apenas um autovetor v1 de norma unitária. aij = hL∗ vi . Se n = 1. . vn } formada por autovetores de L. . O subespaço vetorial W = ger(v) e W ⊥ são invariantes sob L e sob L∗ . .50 Seja L uma transformação normal sobre um espaço vetorial de dimensão finita com produto interno V. que o teorema vale para todos os operadores normais em espaços vetoriais de dimensão n − 1. obtemos a base ortonormal {v1 . Se V possuir uma base ortonormal formada por autovetores de L. Existe uma matriz unitária U e uma matriz diagonal D para as quais A = U DU −1 . . Nela. Então 1. Pela hipótese de indução. Seja A uma matriz complexa normal de ordem n. λj vj i = λj hvi .Notas de aula do Prof. Seja n a dimensão de V. Seja T a restrição de L a W ⊥ . O teorema agora será demonstrado por indução na dimensão n do espaço. Vamos provar que a restrição T de L em W ⊥ é normal. Antonio Cândido Faleiros 137 Teorema 11. L∗ wi de onde concluímos que o adjunto de T é a restrição de L∗ a W ⊥ . graças à ortonormalidade da base B. v2 . Vamos supor. V possui uma base ortonormal formada por autovetores de L. Lvj i = hvi . wi = hv. vj i = hvi . . . Para todo v em W ⊥ . como hipótese de indução. . A dimensão de W é 1 e a de W ⊥ é n − 1. wi = hLv. n. O escalar λi é o autovalor de L correspondente ao autovetor vi . então L é normal. vj i .

L∗ Lvi = λi λi vi = 2 ∗ ¯ i λi vi = |λi |2 vi . Sejam λ1 . . . de modo que L∗ vi = λi vi . então. Sejam λ1 .   7 4 −5 Exemplo 11.53 (Versão do teorema espectral para matriz real simétrica) Seja A uma matriz normal de ordem n. . . vi v1i + · · · + λi hvsi . . Teorema 11. Teorema 11. formada pelos autovalores de L. . vi vsi = λi Pi (v). 1)T . 1)T . vn } uma base ortonormal de V. vsi } for uma base ortonormal de Si . . Seus autovalores são −5 4 7 6. Os autovetores correspondentes são (1. . λr seus autovalores distintos. −2. Mostramos ∗ ¯ ¯ assim que vi é autovetor de L correspondente ao autovalor λi . . então P1 + · · · + Pn = I e L = λ1 P1 + · · · + λn Pn . . (−1. Sendo as transformações L∗ L e LL∗ iguais em cada |λi | vi e LL vi = λ elemento da base. 0. λr os autovalores de L e Si = {v ∈ V : Lv = λi v} o autoespaço do autovalor λi . são iguais no espaço todo. Seja L : V → V um operador normal e {v1 . Então A = λ1 P1 + · · · + λr Pr onde Pi são as matrizes que projetam ortogonalmente sobre o autoespaço de λi . . . onde Pi é a projeção ortogonal de V sobre Si . . Logo L coincide com λi Pi em Si . Antonio Cândido Faleiros ¯ ¯ Isto significa que aij = 0 quando i 6= j e aii = λi . Se a soma dos autoespaços Si resultar numa decomposição de V em soma direta. 1)T e (1. então L = λ1 P1 + · · · + λn Pn . i = 1. . Estes autoespaços são ortogonais e sua soma direta é igual a Cn . .54 A matriz A =  4 −2 4  é simétrica. 12 e −6. ¤ Seja V um espaço vetorial de dimensão finita com produto interno e L : V → V uma transformação normal. 0 −2/ 6  √ √ 0 0 −6 1/ 3 1/ 2 1/ 6 . . Portanto. . . . tomamos as colunas de S iguais aos autovetores normalizados √ √   √   6 1/√3 −1/ 2 1/ √ 6 0 0 S =  1/√3 e D =  0 12 0  . 1. Os autoespaços Si = auto(λi ). são ortogonais dois a dois e sua soma é igual a V. para todo v em Si temos L(v) = λi hv1i . Se {v1i . provando que L é normal.138 Notas de aula do Prof. Se Pi : V → V for a projeção ortogonal sobre Si . de modo que P1 + · · · + Pk = I. Para montar S tal que A = SDS −1 . r.52 (Versão projetiva do teorema espectral) Seja V um espaço vetorial complexo com produto interno e dimensão n. .

Seus autoval√ −1/ 6 1/ 2 0. 1691 − 0. onde 139  0 1 1 Exemplo 11. .9798i. 4142). . Construa uma base de Cn onde um dos elementos é q1 . 3267 − 0. que o teorema é verdadeiro para toda matriz quadrada de ordem n − 1. Se n > 1.5 Decomposição de Schur Teorema 11. . . 1).9798i. 3464i.56 A matriz A =  1/√3 1/ 3 ores são −1. i 5 e −i 5. Seja q1 um autovetor unitário correspondente a um autovalor λ1 de A. 9463i. 0. existe uma matriz unitária U tal que T = U ∗ AU é triangular superior. 9463i. 1). (−.4 − .2 + . P2 =  0 6 1/3 1/3 1/3 −1/2 0 1/2 1 −2 1   (0. 3267 + 0.4 + . qn } de Cn . 9381+ 0. assuma.55 A matriz A =  −1 0 2  é anti-simétrica. 0. . qn ] é unitária e ∗ U1 AU1 = · λ1 b1 0 A1 ¸ . Prova. Será usada a indução sobre n. .2 − . 4898i. Use o processo de ortogonalização de Gram-Schmidt para obter uma base ortonormal {q1 . Seus autovalores são −1 −2 0 √ √ 0. 1). −1. 9381−  √  2/ √ 6 9√ −1/√6 −1/ 2  é ortogonal. A matriz U1 = [q1 . 11. . A é triangular superior e nada resta a provar.57 Dada uma matriz complexa A de ordem n. −0. 5176. Se n = 1. . 1691 + 0. como hipótese de indução. 1) e (−.4899i. (0. Os autovetores correspondentes são (2. −0.4899i. 4898i. Os autovetores correspondentes são      1/3 1/3 1/3 1/2 0 −1/2 1 −2 1 1 0 0  e P3 =  −2 4 −2  P1 =  1/3 1/3 1/3  . 1.Notas de aula do Prof. √ 1/√3 Exemplo 11. 1). 3464i e 0. . Antonio Cândido Faleiros Podemos escrever A como uma combinação linear de matrizes de projeção A = 6P1 + 12P2 − 6P3 . . (0.

59 (Teorema Espectral). A matriz U2 = é unitária e. segue ∗ ∗ U ∗ AU = U2 (U1 AU1 ) U2 ¸· ¸· ¸ · λ1 b1 1 0 1 0 = 0 A1 0 V1 0 V1∗ ¸ · ¸ · b1 a1 λ1 b1 a1 λ1 = =T = 0 V1∗ A1 V1 0 T1 · 1 0 0 V1 ¸ que é triangular superior. Teorema 11.60 Uma matriz de ordem n é diagonalizável unitariamente se e só se for normal. existe U unitária tal que U ∗ HU = T é triangular superior. . possuem os mesmos autovalores e com a mesma multiplicidade. Se H é uma matriz hermitiana. Como T ∗ = U ∗ H ∗ U = U ∗ HU = T. Pelo teorema de Schur. Como matrizes semelhantes possuem o mesmo determinante e o mesmo traço. vemos que T é simética. A matriz mais geral diagonalizável é a normal. . também é triangular inferior. Nota 11. . ¤ ¸ · 0 −1 não é hermitiana mas é ortogonalmente diagonalizável. autovalores de A. .140 Notas de aula do Prof. segue det(A) = λ1 × · · · × λn e tr(A) = λ1 + · · · + λn . ou seja.58 Sejam λ1 . é diagonal. Logo. Prova. consequentemente. Sendo T triangular superior. sendo U = U1 U2 . Antonio Cândido Faleiros onde A1 é uma matriz quadrada de ordem n − 1. De acordo com a hipótese de indução. existe uma matriz unitária U tal que U ∗ HU é diagonal. ¤ Como A e T são semelhantes. os elementos da diagonal principal são seus autovalores e. λn os elementos da diagonal principal de T. . Teorema 11. com A matriz A = 1 0 1 U=√ 2 · −1 i i −1 ¸ . existe uma matriz unitária V1 de ordem n − 1 tal que T1 = V1∗ A1 V1 é triangular superior.

então AA∗ = A∗ A. existe uma matriz unitária U tal que T = U ∗ AU é triangular superior. Antonio Cândido Faleiros 141 Prova. Multiplicando à esquerda por U e à direita por U ∗ . . obtemos |t11 |2 + |t12 |2 + · · · + |t1n |2 = |t11 |2 pois T é triangular superior. ¤ Nota 11. qn } de Cn onde qi é o autovetor correspondente ao autovalor λi . . Se A for normal. Sendo A∗ A auto-adjunta. completando a prova do teorema. . Como D e D∗ são diagonais. é diagonal. . é unitária e A∗ AQ = QD . 1) em na igualdade acima. obtemos AA∗ = A∗ A. Se A for uma matriz de ordem n diagonalizável unitáriamente.6 Decomposição em valores singulares Seja A uma matriz complexa m por n. ou (U ∗ AU)(U ∗ A∗ U) = (U ∗ A∗ U )(U ∗ AU) de onde segue U ∗ AA∗ U = U ∗ A∗ AU.61 As matrizes normais reais 2 × 2 são as matrizes simétricas e aquelas com a forma ¸ · a −b b a 11. Se n = 1. Pelo teorema de Schur. Sendo T = [tij ]. Se n > 1. qn ] cujas colunas são os autovetores de A∗ A. existe uma matriz unitária U tal que D = U ∗ AU é diagonal. Segue que t12 = · · · = t1n = 0. A matriz A∗ A é auto-adjunta e seus autovalores são todos positivos ou nulos. . então T T ∗ = T ∗ T. então igualando os elementos (1. segue que DD∗ = D∗ D. . por hipótese de indução. Cnclui-se daí que T é diagonal. A matriz Q = [q1 . Logo T tem a forma de blocos · ¸ t11 0 T = 0 T1 onde T1 é normal e. provando que A é normal. . . a matriz T é diagonal. Podemos posicioná-los em ordem descrescente λ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0.Notas de aula do Prof. existe uma base ortonormal {q1 . Vamos provar por indução em n que T é diagonal.

pr . r os vetores de Cm definidos por 1 pi = Aqi σi σ1 ≥ · · · ≥ σr > 0 e σr+1 = · · · = σ n = 0. obtemos a decomposição de A em valores singulares A = P ΣQ∗ Os números reais σ 1 . . n} e uma das duas matrizes. 0. . . . à excessão dos r primeiros elementos da diagonal principal que são σ 1 ≥ · · · ≥ σ r . então r = min{m. pr } é um conjunto ortonormal. Antonio Cândido Faleiros onde √ = diag(λ1 . o produto interno 1 1 hAqi . . definimos D σ i = λi ≥ 0. Se A tiver posto máximo. . pm } de Cm . . . n). pr } é uma base ortonormal da imagem de A e. σiσj σi Pode-se completar {p1 . A∗ Aqj i hpi . pm ] cujas colunas são os vetores pi . . formam um conjunto ortonormal. . Usando a expressão de A deduzida acima. Lembramos que r ≤ min(m. . de modo que Para i = 1. . . . para 1 ≤ i. qn estão no núcleo de A (pois são levados por A em 0). . σ r . . . . pr . são denominado de valores singulares de A. . . . 0}. Como Q é unitária.142 Notas de aula do Prof. . AQ = P Σ onde Σ = diag{σ 1 . pr+1 . é não singular. Como λi ≥ 0. por este motivo r é o posto de A que deve ser menor ou igual a m. . Uma vez que qr+1 . λn ) é uma matriz quadrada diagonal n×n. . pelo modo como foi construída. j ≤ r. . . . pj i = σiσj σi σj 2 σj σj = hqi . . Seja r ≤ n o número de valores σ i diferentes de zero. . . . . . . que as colunas pi de P são autovetores da matriz AA∗ e. Aqj i = hqi . . tanto no primeiro quanto no segundo caso. é unitária e. prova-se que A∗ AQ = QΣ∗ Σ e AA∗ P = P ΣΣ∗ mostrando que as colunas qi de Q são autovetores da matriz A∗ A. . . . pr } de modo a obter uma base ortonormal {p1 . 0. . o conjunto {p1 . portanto. i Lembramos que ΣΣ∗ é uma matriz diagonal m×m e Σ∗ Σ é uma matriz diagonal n×n. qj i = hqi . . . . A matriz m × m P = [p1 . . . ΣΣ∗ ou Σ∗ Σ. é uma matriz m×n onde todos os elementos são nulos. . σ r . possui todos os termos diagonais diferentes de zero e. pr+1 . qj i = δ ij . . . autovetores correspondentes aos autovalores σ 2 . . . Provamos o seguinte teorema: . . Para provar que {p1 . . . basta calcular.

.64 Obtenha a decomposição em valores singulares de A =  1 0 2 1  . . Se {qr+1 . . então A = P ΣQ∗ onde P = [p1 . . . . . σ r ) onde apenas os primeiros r elementos da diagonal principal são diferentes de zero e iguais a σ 1 . . . 4.63 Obtenha a decomposição em valores singulares de A = 2 1 0   1 2 0 1 Exemplo 11. . √  −1  2 1  2 1  12  1  6  −1  1 0 1 2 . σ r . √1  1  . ¶ µ 1 2 0 . . pr . Sendo { p1 . . . . pm } uma base ortonormal de Cm . . . . 2 2 2 2   6 6 6 6  6 8 4 6   Então A∗ A =   6 4 8 6  cujos autovalores são 24. qr . qr } formado por autovetores de A∗ A. qn ] Σ = diag(σ 1 . . . . . Aqr } σ1 σr é uma base ortonormal da imagem de A. . Esta matriz possui r valores singulares σ 1 ≥ · · · ≥ σr não nulos (incluindo sua multiplicidade). . . .Os autovetores corre6 6 6 6 spondentes a eles são         1 0 −3 0     1 1  1  1    . qn } for uma base ortonormal do núcleo de A. . n}).62 (Decomposição em valores singulares) Seja A uma matriz m × n cujo posto é r (r ≤ min{m. qr+1 . . . . Então: 1. . . . correspondentes aos autovalores σ2 ≥ · · · ≥ σ2 tais que o conjunto 1 r {p1 . . pm ] Q = [q1 . √  −1  . . 2. então {q1 . . . . . . . . 0 e 0.Notas de aula do Prof. pr } = { 1 1 Aq1 . . Existe um conjunto ortonormal {q1 . . 3. . qn } é uma base ortonormal de Cn . pr+1 . Antonio Cândido Faleiros 143 Teorema 11. . . Exemplo 11. . .

para qualquer x em Rn com kxk2 = 1. segue kAxk2 = 2 r X i=1 Nota: Na decomposição em valores singulares de A. Q=  1/2 1/ 2 1/√12 −1/ 6  √ 0 0 0 0 1/2 0 1/ 12 2/ 6 √ Para determinar P. calculamos p1 = (1/ 24)Aq1 e p2 = (1/2)Aq2 para obter     1 −1 1 1 √  1 . 6 2 2 0  sendo a segunda igualdade verdadeira pois Aqi = 0 para i > r e a última igualdade se justifica pela ortogonalidade dos pi . Calculamos p3 = p13 p23 p33 √ ¡ ¢T . temos o seguinte teorema: . temos x = n αi qi k2 i=1 onde n α2 = 1. x∈hq1 i⊥ kxk2 =1 Certamente a decomposição por valores singulares não é única pois a escolha de Q e de P não é única. Por outro lado. repetindo o procedimento acima σ 2 = sup kAxk2 . Σ =  0 2 0 0 . Como kpi k2 = 1. i=1 i °2 ° r °2 ° n r ° ° °X °X X ° ° ° ° 2 αi Aqi ° = ° αi σ i pi ° = σ 2 α2 kpi k2 kAxk2 = ° i i 2 ° ° ° ° i=1 2 i=1 2 i=1 Como o contradomínio de A tem dimensão 3. Daí. precisamos de mais um vetor para formar ¡ ¢T unitário e fazendo-o ortogonal a p1 e a p2 .144 Assim. 1 2 Logo. Antonio Cândido Faleiros √   √  1/2 0√ −3/ 12 0√ √ 24 0 0 0  1/2 −1/ 2 1/ 12 −1/ 6  √ √ √ . AQ = P Σ. √  1 . a base. de modo que P 1 k2 = kAq kσ 1 p1P = σ 1 . kAk2 = sup kAxk2 = σ 1 . Com estes vetores montamos Obtemos então p3 = (1/ 3) 1 1 −1 √ √   √ 1/√6 −1/ 2 1/√3 √ P =  1/√6 1/ 2 1/ √  . x∈Rn kxk2 =1 r X i=1 α2 ≤ σ 2 i 1 n X i=1 α2 = σ 2 . 3 2/ 6 0 −1/ 3 σ 2 α2 ≤ σ 2 i i 1 A primeira desigualdade se justifica pois σ 1 é o maior valor singular e a segunda por termos acrescentado parcelas positivas à soma. Notas de aula do Prof. Provamos que kAxk2 ≤ σ 2 e que kAq1 k2 = σ 1 . i 1 Se restringirmos A ao espaço ger(q1 )⊥ podemos calcular σ 2 . Entretanto.

r.65 Se A = U ST ∗ 145 for outra decomposição por valores singulares de A. obtemos AA∗ U = USS ∗ de onde segue que as colunas de U formam um conjunto ortonormal de autovetores de AA∗ correspondentes aos autovalores σ 1 ≥ σ 2 ≥ · · · ≥ σ r ≥ 0 = · · · = 0. o que prova a igualdade S = Σ. segue AT = U S. . para i = 1. . possuem os mesmos autovalores. então S = Σ. . obtemos A∗ AT = T S ∗ S de onde segue que as colunas de T formam um conjunto ortonormal de autovetores de A∗ A correspondentes aos autovalores σ 1 ≥ σ 2 ≥ · · · ≥ σ r ≥ 0 = · · · = 0. . . Antonio Cândido Faleiros Teorema 11. mostrando que ui = σi Ati para i = 1. . . r. . . vemos que a matriz diagonal S ∗ S é semelhante à matriz A∗ A e. Da decomposição acima. ¤ . σi Prova.Notas de aula do Prof. um de U são autovetores de AA∗ correspondentes aos mesmos autovalores e. Da mesma decomposição. tn de T formam um conjunto ortonormal de autovetores de A∗ A correspondentes aos autovalores σ 1 ≥ σ 2 ≥ · · · ≥ σ r ≥ 0 = · · · = 0. . . 1 Ainda da decomposição. . Como A∗ A = T S ∗ U ∗ U ST ∗ = T (S ∗ S)T ∗ . ui = 1 Ati . . portanto. . as colunas t1 . . as colunas u1 . .

Antonio Cândido Faleiros .146 Notas de aula do Prof.

O subespaço gerado por S é invariante sob L. O conjunto S = { v. . Vamos provar um item por vez.2 Seja L : V → V linear e v ∈ V não nulo tal que Lk−1 (v) 6= 0 e Lk (v) = 0. ··· ··· ··· ···     . . . A restrição de L ao subespaço gerado por S é nilpotente com índice k. Aplicando sucessivamente Li à igualdade inicial.   1. Se o índice da nilpotência de L for k. . k − 3. Lk−1 (v) } é linearmente independente. segue β 1 = 0. . Aplicando Lk−1 a esta igualdade. 4. . Então: 1. .Capítulo 12 Forma canônica de Jordan 12. . . O menor k para o qual Lk = 0 é chamado de índice da nilpotência de L. . Observe que Lk = 0 quando Lk v = 0 para todo v em V.1 Um operador linear L : V → V é nilpotente se Lk = 0 para algum inteiro k positivo. 1. obtemos β 1 Lk−1 v = 0. .1 Operadores nilpotentes Definição 12. significa que existe v em V tal que Lk−1 v 6= 0. Lv. 2. . . Como Lk−1 v 6= 0. . β k escalares tais que β 1 v+ · · · + β k Lk−1 v = 0. 147 . A matriz da restrição de L ao subespaço S é da forma  0 0 0  1 0 0   0 1 0   0 0 1  . . . . . com i = k − 2. Se L for nilpotente com índice k. Sejam β 1 . seu polinômio mínimo será tk e assim o seu único autovalor é o zero. gerado por S em relação à base ordenada 0 0 0 0 . . . se prova que β 2 = β 3 = · · · = β k = 0. Prova. Teorema 12. 3. . . o que prova a primeira parte do teorema.

Então w = Lv para algum v no ker Li+1 . . v1 . .4 Seja L : V → V linear e i > 0 um inteiro. então Li v = 0 e Li+1 v = L(Li v) = L0 = 0. provando que w pertence ao ker Li . um vetor no subespaço gerado por S. Teorema 12. Para todo inteiro i ≥ 0. . T (Lk−2 v) = Lk−1 v. Assim. concluímos que T é nilpotente com índice k. Lw = α1 Lv+ · · · + αk−1 Lk−1 v e. portanto. . ur . ur . . . . v1 . ur . . Seja w um elemento de L(ker Li+1 ) = {Lv : v ∈ ker Li+1 }. . . w1 . . Seja T : [S] → [S] a restrição de L ao subespaço [S] gerado por S. . Pelo teorema anterior. 3. . . v pertence ao ker Li+1 . . . . . . Logo. . Assim. Então o conjunto { u1 . αk são escalares. ¤ Teorema 12. . . Como T (v) = Lv. Antonio Cândido Faleiros 2. . . . Lwt } é linearmente independente e está contido no ker Li . ker Li−1 ⊂ ker Li ⊂ ker Li+1 . vs } { u1 . onde α1 . wt } sejam bases de ker Li−1 . 4. Provamos a segunda parte do teorema. . T (Lv) = L2 v. o que prova a primeira parte do teorema. . L(ker Li+1 ) ⊂ ker Li . seu índice de nilpotência é menor ou igual à dimensão do espaço vetorial. . ker Li ⊂ ker Li+1 2. Lw pertence ao subespaço gerado por S. Li w = Li+1 v = 0. Seja w = α1 v+ · · · + αk Lk−1 v. . ¤ Em particular. . vs . Lw1 . . . ker Li e ker Li+1 . . . Como T k w = 0 para todo elemento de [S] e T k−1 v = Lk−1 v 6= 0. quando L for nilpotente. . T (Lk−1 v) = 0 e concluímos que a matriz de T na base S é exatamente aquela apresentada no enunciado. Prova. Se v pertence ao ker Li . . 1. . . .3 Seja L : V → V linear. Suponhamos que { u1 . . . ur } { u1 .148 Notas de aula do Prof.

Lw1 . . Em lugar de demonstrar vamos dar exemplos. . Antonio Cândido Faleiros 149 Prova. *** Teorema 12. Existe uma base na qual a representação matricial de L tem a forma bloco diagonal   N1 0 0 ···  0 N2 0 · · ·    N = 0 0 N3 · · ·  . ur } uma base. . . O número de blocos do tipo N é determinado de modo único por L. . mostrando que a combinação linear β 1 w1 + · · · + β t wt pertence ao ker Li e pode ser escrito como uma combinação linear de u1 . . . . . . ¤ Este resultado é interessante pois ele nos permite inferir que s ≥ t.. . . . . O número de blocos é igual à nulidade de L. Aplicando Li−1 a esta igualdade. . .5 (Forma canônica de um operador nilpotente) Seja L : V → V um operador nilpotente com índice k. Sabemos que a dimensão do ker Li cresce com i ou permanece inalterada. . segue Li (β 1 w1 + · · · + β t wt ) = 0. v1 . deve-se ter também α1 = · · · = αr = 0. wt } uma base. . em particular. . vs . . v1 . O teorema anterior assegura que os vetores Lw1 . Além disso. . . o acréscimo na dimensão quando passamos do ker Li para o ker Li+1 nunca é maior do que o acréscimo na dimensão quando passamos do ker Li−1 para o ker Li . . . Sendo {u1 . . . . . . .  . . Lwt pertencem ao ker Li . . Pelo menos um bloco tem ordem k. β 1 = · · · = β t = 0. . . . . . . .  0 0 0 ··· 1 0     0 0 0 ··· 0 1  0 0 0 ··· 0 0 As ordens de todos os blocos são menores ou iguais a k. . . . ur . αr . . w1 .   . . β t escalares tais que α1 u1 + · · · + αr ur + β 1 Lw1 + · · · + β t Lwt = 0. . Ni =  . o que prova a independência linear do conjunto de vetores { u1 . . . Sejam α1 . . Sendo {u1 . Cada bloco diagonal Ni é uma matriz quadrada que pode ser 1 × 1 e nula ou ter a forma   0 1 0 ··· 0 0  0 0 1 ··· 0 0     . . . . Lwt }. ur . . . ur . . . vs β 1 w1 + · · · + β t wt = c1 u1 + · · · + cr ur + d1 v1 + · · · + ds vs . . . . concluímos que todos os escalares na igualdade acima são nulos e. . β 1 . . . . . .Notas de aula do Prof. . . . . .   ..

150 Notas de aula do Prof. u2 . . u3 . . u10 } gere o mesmo subespaço que {u1 . u7 . vs } {u1 . . {u1 . . ur } {u1 . u2 . u7 . Assim o ker L4 = V. u7 } e {L3 u8 . u3 } é base do ker L. u7 } é base do ker L3 . w4 . . . Os vetores u9 e u10 da terceira linha são construídos de modo que {Lu8 . . . vs . . u6 .  0 1 0  0 0 1   0 0 0   0 0 0   0 0 0   0 0 0   0 0 0 0 0 0 w8 } a matriz de L possui a forma  0 0 0 0 0 0 0 0 0 0   1 0 0 0 0   0 0 0 0 0   0 0 1 0 0   0 0 0 1 0   0 0 0 0 0  0 0 0 0 0 . u6 . . {u1 . . {u1 . de modo que {u1 . . . . . w1 . u9 } gere o mesmo subespaço que {u6 . Denotemos o ker Li por Wi . wt } forem bases de Wi−1 . u8 } da segunda linha da tabela anterior é substituída pela base ordenada da terceira linha. . v1 . Imaginemos que V tem dimensão n = 8 e que L : V → V é nilpotente com índice k = 4. que são renomeados na quarta linha para {w1 . . u8 } é base de V = ker L4 . Podemos construir o seguinte quadro u1 L3 u8 w1 W1 u2 L2 u7 w5 W2 u3 u10 w8 u4 L2 u8 w2 u5 Lu7 w6 W3 u6 Lu8 w3 u7 u9 w7 W4 u8 u8 w4 A base ordenada {u1 . . . u2 . u4 . . u2 . Na base {w1 . u8 } uma base de V = W4 = ker L4 . v1 . . . Relembre inicialmente que. Wi e Wi+1 . respectivamente. . 1. . w5 . L(w1 ). Seja {u1 . . . u3 }. . w7 . . w8 }. . Este fato nos fornece os fundamentos para obter uma base de V na qual a representação de um operador nilpotente se encontra na forma canônica preconizada. . então o conjunto { u1 . u6 . ur . . u4 . . u2 . w3 . u4 . u5 . u5 } é base do ker L2 . Antonio Cândido Faleiros Exemplo 12. . u3 . . u4 .6 Seja L : V → V um operador linear nilpotente com índice k. ur . . u3 . L2 u7 . w6 . . u3 . u2 . . . . ur . w2 . u5 . u5 . L(wt ) } é linearmente independente em Wi . Denotemos por Wi o núcleo de Li . . se {u1 .

Jij =  . w6 .. w2 .. u3 . de modo que {u1 . W1 u1 L3 u8 w1 u2 Lu9 w5 u3 u10 w7 u4 u11 w8 W2 u5 L2 u8 w2 u6 u9 w6 W3 u7 Lu8 w3 W4 u8 u8 w4 Na base {w1 . u6 } é base de W2 {u1 . u4 . u3 . u5 .  .7 Seja L : V → V linear com polinômio característico e mínimo iguais a Para cada i fixado. u8 } é base de W4 Podemos construir o seguinte quadro seguindo o esquema anterior. 1 0     0 0 0 · · · λi 1  0 0 0 ··· 0 λi . u7 } é base de W3 {u1 . u2 . . Seja {u1 . w3 . u7 . . . Consideremos ainda que V tem dimensão n = 8 e que L : V → V é nilpotente com índice k = 4. w5 . Teorema 12.  0 1 0  0 0 1   0 0 0   0 0 0   0 0 0   0 0 0   0 0 0 0 0 0 w8 } a matriz de L possui a forma  0 0 0 0 0 0 0 0 0 0   1 0 0 0 0   0 0 0 0 0   0 0 1 0 0   0 0 0 0 0   0 0 0 0 0  0 0 0 0 0 12.2 Forma canônica de Jordan ∆(t) = (t − λ1 )n1 · · · (t − λr )nr m(t) = (t − λ1 )m1 · · · (t − λr )mr . . u5 . u5 . . Então L possui uma representação matricial em bloco diagonal J.  . u4 . Antonio Cândido Faleiros 151 2. u7 . u6 . u6 . u6 . u2 . u2 .. cujos elementos diagonais têm a forma   λi 1 0 · · · 0 0  0 λi 1 · · · 0 0   . denominada de forma canônica de Jordan do operador L. u2 . u5 . u8 } uma base de V = W4 .Notas de aula do Prof. . w7 . .    . u3 .. u4 } é base de W1 {u1 . u2 . u4 . . w4 . u3 . u3 .  0 0 0 . ··· . u4 .

4. . ··· . O número de blocos Jij de cada ordem possível é univocamente determinado por L. . . . Há pelo menos um Jij de ordem mi e todos os demais são de ordem menores ou iguais a mi .8 Seja L : R7 → R7 linear. Observe que Jij = λi I + N onde  1 0 ··· 0 0  0 1 ··· 0 0   . . cujos polinômios característico e mínimo são ∆(t) = (t − 2)4 (t − 3)3 m(t) = (t − 2)2 (t − 3)2 A forma canônica de Jordan de L é uma das seguintes    2 1 2 1  0 2   0 2       2 2 1       2 0 2 ou       3 1 3 1       0 3 0 3 3 3  A primeira matiz ocorre se L possui dois autovetores linearmente independentes pertencentes ao seu autovalor 2 e a segunda ocorre se L tem três autovetores linearmente independentes pertencentes ao seu autovalor 2. ¸ · 0 1 ..  0 0 0 1 0     0 0 0 ··· 0 1  0 0 0 ··· 0 0 0 0 . A soma das ordens dos Jij é ni .. . que é igual à nulidade de Ni = (Li − λi I).  .9 Vamos determinar a forma canônica J da matriz A = −1 2 equação característica de A é (λ − 1)2 = 0 e uma base do autoespaço correspondente ao          .   .152 Notas de aula do Prof. . . Exemplo 12. O número de Jij é igual à multiplicidade geométrica de λi . Antonio Cândido Faleiros 1.  é um bloco nilpotente. .. A Exemplo 12. 3. A matriz Jij é denominada bloco de Jordan pertencente ao autovalor λi .   N =  . 2.

Antonio Cândido Faleiros £ ¤T 2 153 · ¸ 0 0 . correspondente ao autovalor 2   1 −1 3 £ ¤T e calculamos v2 = (A − 2I)v3 = −1 −3 −1 . . .3 Subespaços cíclicos v. . L2 v. Lk−1 v} . . Seja L : V → V linear e v ∈ V não nulo (v 6= 0). Uma base do autoespaço correspondente ao autovalor 1 é for£ ¤T . 0 1   3 −2 5 Exemplo 12. cuja 0 −1 0    −2 3 −7 1 0 0 0 −1  é tal que J = S −1 AS =  0 2 1  que é a forma inversa é S −1 =  0 1 −1 2 0 0 2 canônica da matriz A. . Exemplo 12.Notas de aula do Prof. Calculamos então (A−λI) = e vemos que o zero é autovalor 1 é v1 = 1 1 0 0 autovalor desta matriz e que qualquer vetor é autovetor correspondente ao zero. cujas colunas são v1 e v2 . Como nenhum deles é múltiplo de 1 3 1 podemos tomar v3 para gerar a uma cadeia de Jordan de comprimento 2. L2 v. tem por inversa S = e é tal matriz S = 1 1· −1 1 ¸ 1 0 que J = S −1 AS = . L2 v.¸juntamente com v1 .10 Vamos determinar a forma canônica J da matriz A =  −1 2 1  . . . . Lv. . . indicando com isto que o conjunto {v.11 *** 12. . −1 1 0 2 A equação característica de A é (λ−1)(λ−2) = 0. Lk−1 v]. Tomemos £ ¤T v2 = 0 1 · que. Lv. A ¸ 1 0 1 0 −1 . Consideremos a seqüência Seja k o menor inteiro para o qual Lk v ∈ [v. Uma base do autoespaço correspondente ao autovalor mada pelo vetor v1 = 1 1 0 £ ¤T 2 é formada pelo vetor 1 3 1 . A matriz S =  1 −3 2  . A multiplicidade algébrica do autovalor 1 é 1 e do autovalor 2 é 2. forma uma base do espaço das · matrizes 2 × 1. Um conjunto gerador do autoespaço de (A − 2I)2 =   −2 3 −7 £ ¤  −2 3 −7  correspondente ao autovalor 0 é formado pelos vetores v3 = 3 2 0 T 0 0 0 £ ¤T £ ¤T e v4 = −7 0 2 . Lv.

Lk−1 v] é chamado de subespaço cíclico de V gerado por L e v.. L). L2 v. Pode-se ordenar os expoentes ni de modo que n = n1 ≥ n2 ≥ · · · ≥ nr . L). L) é f (t)ni . . . . . .154 é linearmente independente.            mv (t) = a0 + a1 t + a2 t2 + · · · + ak−1 tk−1 + tk denominada de matriz companheira do polinômio mv (t). Sua dimensão é k. Qualquer outra decomposição de V em subespaços L cíclicos tem o mesmo conjunto de polinômios mínimos. .. Antonio Cândido Faleiros Z(v. . 0 0 0 · · · 0 0 −ak−3 0 0 0 · · · 1 0 −ak−2 0 0 0 · · · 0 1 −ak−1 0 1 0 . Denotemos por Lv a restrição de L a Z(v. v2 . . . . cujo polinômio mínimo é f (t)n . 12. .4 Forma canônica racional Lema 12. Lk−1 v} é      C=      · · · 0 0 −a0 · · · 0 0 −a1 · · · 0 0 −a2 .   . 0 0 0 . . L) = [v. . onde ni é um número inteiro menor ou iguais a n. . . Assim L tem uma representação matricial   C (1) 0 · · · 0  0 C (2) · · · 0    C= . . que é determinado de modo único por L. 0 0 1 . . . onde f (t) é irredutível. L2 v. Lv. .12 11. . Este subespaço é a interseção de todos os subespaços L invariantes que contêm v..  . L). . . . O subespaço vetorial Notas de aula do Prof. Se Lk v = −a0 v − a1 Lv − a2 L2 v − · · · − ak−1 Lk−1 v então é o polinômio mínimo de Lv e a representação de Lv na base {v. . Então existem v1 . L) ⊕ · · · ⊕ Z(vr . . . . Lv. . . . . Seja L : V → V linear. vr tais que O polinômio mínimo da restrição de L a Z(vi . 0 0 · · · C (r) V = Z(v1 .. . O polinômio mv (t) é denominado de L anulador de v e Z(v.13. . . .

A recíproca também é verdadeira. ... . 0 0 ··· . 155 Teorema 12.  . .  . Então L possui uma única representação matricial em bloco   C1 0 · · · 0  0 C2 · · · 0     . . .5 Forma triangular matricial triangular  a1n a2n   .  . . . . Antonio Cândido Faleiros onde C (i) é a matriz companheira do polinômio f (t)ni . . 0 0 · · · Cs onde cada Ci é uma matriz com o formato  (1) Ci 0 ··· 0  0 C (2) · · · 0  i Ci =  . . . . . .. Os polinômios fi (t)nij são chamados de divisores elementares de L. . . . 12. . (r) 0 0 · · · Ci (j)      em que Ci que são matrizes companheiras de fi (t)nij onde se pode ordenar os nij de modo m1 = n11 ≥ n12 ≥ · · · ≥ n1r1 ··· ms = ns1 ≥ ns2 ≥ · · · ≥ nsrs Esta é a chamada forma canônica racional de L. .   . .  . . . Se um operador linear L possuir uma representação  a11 a12 · · ·  0 a22 · · ·  A= .. . . ann seu polinômio característico pode ser fatorado em polinômios do primeiro grau ∆(t) = det(tI − A) = (t − a11 )(t − a22 ) · · · (t − ann ).Notas de aula do Prof.13 (Forma canônica racional) Seja L : V → V linear com polinômio mínimo m(t) = f1 (t)m1 .  . fs (t)ms onde fi (t) são polinômios mônicos irredutíveis distintos.

. Assim. Podemos definir duas operações no conjunto das classes laterais de modo a torná-lo um espaço vetorial. de modo que Lv1 = λ1 v1 . Prova. *** Como ∆(t) pode ser fatorado em polinômios do primeiro grau. com estas duas operações. L . Então V = V1 ⊕ (V1 )⊥ onde V1 = ger(v1 ). Se a dimensão de V for finita então dim(V /W ) = dim(V )− dim(W ). . Então L ¯ induz um operador linear L em V /W definido por ¯ L(v + W ) = L(v) + W. i = 1. Teorema 12. Então L possui uma representação matricial em forma triangular. v1n } uma base ortonormal de (V1 )⊥ . . Definimos no conjunto das classes laterais de W as operações de adição de duas classes e multiplicação de uma classe por um escalar por (u + W ) + (v + W ) = (u + v) + W. Este espaço vetorial é denominado espaço quociente de V por W e é denotado por V /W. . L possui ao menos um autovalor. . .14 Seja n a dimensão de V e L : V → V um operador linear cujo polinômio característico ∆(t) pode ser fatorado num produto de fatores lineares ∆(t) = (t − λ1 )n1 · · · (t − λr )nr onde os números λi . O espaço V1 é invariantes sob L. Dado v ∈ V. . O conjunto das classes laterais.15 Seja L : V → V linear e W um subespaço L invariante de V. Seja W um subespaço vetorial de V. . {v12 . A matriz de L nesta base é da forma *** ¤ 12. r são distintos e n1 + · · · + nr = n. então L também o é. k(u + W ) = ku + W. o polinômio mínimo de ¯ divide o polinômio mínimo de L. Antonio Cândido Faleiros Teorema 12. definimos o conjunto v + W = {v + w : w ∈ W }. Sejam u e v dois vetores em V e k um escalar pertencente ao corpo sobre o qual se define o espaço vetorial V. ¯ Se L for um zero de um polinômio. denominado de classe lateral de W em V. Seja W um subespaço vetorial de V. Seja L1 a restrição de L a V1 . Denotemo-lo λ1 e por v1 o autovetor correspondente.6 Espaços quocientes Esta é uma maneira inteligente de definir “projeções” em espaços vetoriais que não possuem produto interno. é um espaço vetorial sobre o mesmo corpo sobre o qual se define V.156 Notas de aula do Prof. Observe que 0 + W = W.

x + y + 2z). 1. 0). v2 . Sabemos que L(v2 ) = 6v2 + v3 L(v3 ) = −3v2 + 2v3 cuja matriz na base {v1 . Consideremos V = {v + W : v ∈ V } que é o espaço quociente V /W e a transformação linear induzida L : V → V definida por L(v) = L(v) + W. v2 = (0. w2 . L(v1 ) = 3v1 + W = W = 0 L(v2 ) = −v1 + 6v2 + v3 + W = 6v 2 + v3 L(v3 ) = v1 − 3v2 + 2v3 + W = −3v 2 + 2v 3 de modo que a matriz de L em relação à base {v 2 . w3 = v3 . Observe que a matriz de L na base {v1 . A matriz de L na base canônica do R3 é   4 1 −1 A =  2 5 −2  1 1 2 Os vetores v1 = (−1. v2 . v3 = (0.16 Vamos apresentar um exemplo que mostra como se pode obter uma representação matricial triangular de uma transformação linear.Notas de aula do Prof. Antonio Cândido Faleiros 157 Exemplo 12. 2x + 5y − 2z. Seja L : R3 → R3 definida por L(x. w3 } onde w1 = v1 . v2 } é C. v 3 } de V é µ ¶ 6 −3 C= . 0 1 2  O espaço vetorial W gerado por v1 é invariante sob L. v2 . v3 } para a base {w1 . w2 = 3v2 + v3 . v3 } já possui a primeira coluna na forma desejada para se chegar à forma triangular. 1) formam uma base do R3 . Os autovalores de C são 5 e 3 e o autovetor relativo ao autovalor 5 é 3v2 + v3 . Vamos então passar da base {v1 . 0). Para esta transformação. 1. z) = (4x + y − z. Destacamos que v1 é autovetor de L correspondente ao autovetor 3. y. 0. . Como L(v1 ) = 3v1 L(v2 ) = −v1 + 6v2 + v3 L(v3 ) = v1 − 3v2 + 2v3 a matriz de L na base {v1 . v3 } é  3 −1 1 B =  0 6 −3  . 1 2 Vamos omitir a barra e olhar para L no espaço gerado por v2 e v3 .

Antonio Cândido Faleiros O w3 foi escolhido de modo arbitrário. Podemos inverter as relações acima para obter v1 = w1 . exigimos apenas que {w1 .158 Notas de aula do Prof. w2 . w3 } seja uma base de V. que está na forma triangular. v3 = w3 . a matriz de L é  3 −2 1 D =  0 5 −1  0 0 3  v2 = (w2 − w3 )/3. nesta base. . Esta transformação linear pode ser representada por uma matriz diagonal pois ela possui três autovetores linearmente independente. Daí segue L(w1 ) = 3w1 L(w2 ) = −2w1 + 5w2 L(w3 ) = w1 − w2 + 3w3 e.

Capítulo 13 Aplicações Aproximação por polinômios Cadeias de Markov Circuitos elétricos Diferenças finitas Elementos finitos Equação de Schröedinger Sistemas de equações diferenciais Exponencial de matriz Formas quadráticas Cônicas e quádricas Mínimos quadrados Modelo econômico de Leontief Método húngaro para alocação de tarefas Cifras de Hill Programação linear Séries de Fourier Sistemas de equações diferenciais Tensão nos meios contínuos Teoria dos grafos Teoria dos jogos 159 .

Antonio Cândido Faleiros .160 Notas de aula do Prof.

com n linhas e uma coluna. Quando uma matriz possuir m linhas e n colunas diremos que é uma matriz m × n ou matriz m por n ou matriz de ordem m por n. se define a adição de duas matrizes e a multiplicação de uma matriz por um escalar através das fórmulas (aij ) + (bij ) = (aij + bij ) k (aij ) = (kaij ) onde k é um escalar.Apêndice A Matrizes Uma matriz é um arranjo retangular de números.  A= . Um número real ou complexo será denominado genericamente de escalar. . Usaremos a notação abreviada A = (aij ) para denotar uma matriz   a11 · · · a1n  . No conjunto das matrizes m por n. Uma matriz com uma única coluna é chamada de vetor coluna e uma matriz com uma única linha é chamada de vetor linha. Também é usual escrever Am×n para indicar que A possui m linhas e n colunas. dispostos em linhas e colunas.. Uma matriz quadrada com n linhas e n colunas é uma matriz n por n ou de ordem n. Rn é o conjunto das matrizes coluna reais. Neste caso..  . Denotaremos por Cn ao conjunto de matrizes coluna complexas. denominados de elementos da matriz. . Matrizes reais são aquelas cujos elementos são números reais e matrizes complexas são aquelas cujos elementos são números complexos. Designaremos o conjunto das matrizes reais m por n pelo símbolo Rm×n e das matrizes complexas de ordem m por n pelo símbolo Cm×n . em lugar de dizermos que a ordem da matriz é m por m. diremos apenas que a matriz é de ordem m. A menos que se especifique o contrário. Em nosso curso trabalharemos com matrizes reais ou complexas. Quando for conveniente. Se o número de linhas for igual ao número de colunas se diz que a matriz é quadrada. que possuem n linhas e uma coluna. (aij ) e (bij ) são matrizes de ordem m por n. am1 · · · amn onde aij é o elemento da linha i e coluna j. . . 161 . escreveremos (aij )k em lugar de k(aij ).

Antonio Cândido Faleiros A matriz em que todos os elementos são nulos é chamada de matriz nula e será denotada por 0. 2. k2 são escalares. Elemento neutro: A + 0 = 0 + A = A. 3. 6. Os elementos a11 . 7. Se A = (aij ). Se os elementos abaixo da diagonal principal da matriz A forem nulos. B e C são matrizes de mesma ordem. Associatividade: A + (B + C) = (A + B) + C. . em nosso caso. app formam a diagonal principal da matriz A. Em termos deste símbolo. Elemento oposto: A + (−A) = (−A) + A = 0. .1 Matrizes especiais Seja A = (aij ) uma matriz m por n e p = min{m. O delta de Kronecker. Associatividade: (k1 k2 )A = k1 (k2 A). Distributividade: (k1 + k2 )A = k1 A + k2 A. 5. então −A = (−aij ) é chamada de matriz oposta de A. I = (δ ij ) . definido para todo i e j inteiros por δ ij = 1 δ ij = 0 se se i=j i 6= j pode ser usado para representar os elementos da matriz identidade. 1. Se os elementos à direita da diagonal principal de A forem nulos. incluindo a matriz nula e k1 . Definimos a diferença entre as matrizes A e B de mesma ordem por A − B = A + (−B). . Unidade: 1A = A Estas propriedades indicam que o conjunto das matrizes m × n com as operações de adição e multiplicação por um escalar é um espaço vetorial sobre o corpo dos escalares que.162 Notas de aula do Prof. 4. A. Propriedades Nas propriedades enumeradas abaixo. a matriz é triangular inferior. A. Distributividade: k1 (A + B) = k1 A + k1 B. O 1 indica a unidade escalar. n}. A matriz identidade I de ordem m é a matriz diagonal cujos elementos da diagonal principal são todos iguais a 1. a matriz é triangular superior. 8. . Comutatividade: A + B = B+ A. Uma matriz é diagonal se todos os elementos fora da diagonal principal forem nulos. a22 . será o corpo dos números reais ou dos números complexos. .

São nulos todos os demais elementos da coluna que contém o pivô. O primeiro elemento não nulo em cada linha. Assim. é anti-simétrica se AT = −A e ortogonal se AT = A−1 . Este é o pivô da linha. Uma matriz complexa A é hermitiana se A∗ = A.1 Uma matriz m por n possui a forma escalonada se: 1. então A∗ = AT . Para efetuar o produto AB. se encontram na parte inferior da matriz. Definição A. se encontram na parte inferior da matriz. se existirem. 2. O primeiro elemento não nulo em cada linha. A matriz A = (bij ) de ordem n por m. As matrizes reais simétricas são hermitianas.2 Multiplicação de matrizes A multiplicação é a operação que leva duas matrizes A = (aij )m×n e B = (bjk )n×p na matriz à n ! X AB = aik bkj k=1 de ordemque é uma matriz m por p. Seja A = (aij ) uma matriz complexa de ordem m por n. anti-hermitiana se A∗ = −A e unitária se A∗ = A−1 . quando percorrida da esquerda para a direira. quando percorrida da esquerda para a direira. onde ¯ bij = aji é a adjunta de A.2 Uma matriz m por n possui a forma escalonada reduzida se: 1. Antonio Cândido Faleiros 163 Uma matriz A é simétrica se AT = A. é igual a 1. o número de colunas de A deve ser igual ao número de linhas de B. 3. Se A for real. Vamos indicar por aij ao ¯ ∗ complexo conjugado de aij . se existirem. Definição A. As linhas nulas. Ao percorrer as linhas de cima para baixo. Ao percorrer as linhas de cima para baixo. Quando este for o caso. se diz que A e B são conformes para o produto. As linhas nulas. é chamado de pivô da linha. A. o primeiro elemento não nulo de cada linha vai se deslocando para a direita. o primeiro elemento não nulo de cada linha vai se deslocando para a direita. A multiplicação de matrizes é uma operação associativa e distributiva mas não é comutativa. 2.Notas de aula do Prof. . 4. as matrizes reais anti-simétricas são anti-hermitianas e as matrizes reais ortogonais são unitárias.

Teorema A. . Então B é necessariamente a bijeção inversa e BA = I. A1 (B1 C1 ) = (A1 B1 )C1 2. −1 . o posto de I é n e. então B = BI = B(AC) = (BA)C = IC = C. se B e C forem inversas de A. Sendo A = (aij ) e B = (bij ) . Se se o número de linhas for diferente do número de colunas em A e B. Antonio Cândido Faleiros desde que as matrizes Ai . n 1 Se A for uma matriz inversível.164 1. então o produto AB pode estar definido e o produto BA não. onde I é a matriz identidade de ordem m. consequentemente o posto de A é n. . Prova. sendo denotada por A−1 . então as equações AX = B e Y A = C possuem solução única dadas por X = A−1 B e Y = CA−1 . A. então o produto A1 · · · An é inversível e (A1 · · · An )−1 = A−1 · · · A−1 . (A3 + B3 )C3 = A3 C3 + B3 C3 Notas de aula do Prof. A matriz B é a inversa de A. . diremos que é singular.3 Sejam A e B matrizes quadradas tais que AB = I. então kA é inversível e (kA)−1 = k−1 A−1 . A prova deste fato se baseia em um teorema da Álgebra Linear que estabelece o seguinte: Se as matrizes envolvidas forem de ordem n.3 Inversa Uma matriz quadrada A de ordem m é inversível se existir uma matriz quadrada B de ordem m tal que AB = BA = I. Este resultado pode ser generalizado. A inversa de uma matriz é única pois. Isto é suficiente para garantir que BA = I. ¤ Se A e B forem inversíveis então AB é inversível e (AB)−1 = A−1 B −1 . Se A for inversível. . Se k for um escalar não nulo e A for inversível. An forem inversíveis. estabelecendo uma bijeção em Cn . k=1 k=1 Se a matriz não for inversível. então as igualdades matriciais AB = BA = I resultam nas seguintes igualdades entre os elementos de A. Bi e Ci sejam conformes para a adição e a multiplicação. Se A1 . então A−1 é inversível e (A−1 ) = A. A2 (B2 + C2 ) = A2 B2 + A2 C2 3. B e I n n X X aik bkj = δ ij e bik akj = δ ij .

5 O posto de uma matriz não se modifica se ela for multiplicada por uma matriz inversível.6 Seja A uma matriz m × n de posto k. Teorema A. ¡ ¢k ¡ ¢−1 . mostrando que o número de linhas e o número de colunas linearmente independentes de A são iguais.4 Seja A uma matriz m × n. Seja A0 = Q−1 A a matriz escalonada reduzida do teorema anterior. onde bij = aji . Teorema A. Teorema A. as colunas linearmente independentes são aquelas que contém os pivôs. O posto de uma matriz é o número de suas colunas que são linearmente independentes.7 Seja A uma matriz m × n de posto k. Como Q e QT são inversíveis. define-se as potências inteiras de A por A0 = I. Vale a propriedade (AB)T = B T AT . ambas inversíveis e tais que D = Q−1 AP é uma matriz diagonal onde os k primeiros elementos da diagonal são iguais a 1 e os demais são todos nulos. A nulidade de uma matriz é a dimensão do seu núcleo.8 O número de linhas linearmente independentes de uma matriz é igual ao número de colunas linearmente independentes. e uma matriz Q de ordem m. Antonio Cândido Faleiros Se A for uma matriz quadrada. Teorema A. Existe uma matriz P de ordem n.Notas de aula do Prof. Existe uma matriz inversível Q de ordem m. Ak = Ak−1 A. A−k = A−1 = Ak 165 para todo k ≥ 1 inteiro. O posto de A mais a nulidade de A é igual a n. Prova. o número de linhas linearmente independentes de A0 é igual ao número de colunas linearmente independentes. Teorema A. ¤ . o posto de A = QA0 e o de AT = (A0 )T QT são idênticos. O número de linhas não nulas é o número de linhas linearmente independentes em A0 . de ordem n por m. A transposta da matriz A = (aij ) de ordem m por n é a matriz AT = (bij ) . tal que A0 = Q−1 A é uma matriz escalonada reduzida. Logo. Em A0 .

Adicionar a uma linha um múltiplo de outra linha. EA realiza operações elementares sobre as linhas de A e AE realiza operações elementares sobre as colunas de A. 0 0 1 então a matriz EA é obtida de A trocando a primeira linha com a segunda. Se   1 β 0 E =  0 1 0 . trocando o elemento diagonal da linha i por k. AE é uma matriz obtida de A trocando a primeira coluna com segunda. então AE e EA são inversíveis. ela é singular. trocando a linha i com a linha j. 0 0 1 então EA é uma matriz obtida de A adicionando β vezes a segunda linha à primeira. a matriz AE é obtida de A multiplicando a primeira coluna por β. trocando o zero da linha i coluna j por k. A matriz que troca a linha i pela linha j é aquela obtida a partir da matriz identidade. Se uma coluna ou uma linha de uma matriz for identicamente nula. então a matriz EA é obtida de A multiplicando a primeira linha por β. AE é uma matriz obtida de A adicionando β vezes a primeira coluna à segunda. como mostram os exemplos que seguem. Se   β 0 0 E =  0 1 0 . 2. a matriz é singular. Teorema A. A matriz que multiplica a linha i de A por um escalar k 6= 0 é obtida a partir da identidade. Se uma coluna de uma matriz for uma combinação linear das outras.4 Operações elementares e matrizes elementares Operações elementares sobre linhas 1. Se uma matriz A for inversível e E é uma matriz elementar. As operações elementares podem ser executadas mediante o produto de matrizes elementares. A matriz que adiciona um múltiplo k da linha i à linha j é obtida a partir da matriz identidade. Antonio Cândido Faleiros A. Se E for uma matriz elementar. 0 0 1 .166 Notas de aula do Prof. Multiplicar uma linha de A por um escalar não nulo. As matrizes elementares são inversíveis. Operações elementares sobre colunas são definidas de modo análogo. 3.9 Uma matriz quadrada A é inversível se e só se puder ser escrita como um produto matrizes elementares. Permutar duas linhas. Se   0 1 0 E =  1 0 0 .

Observe que a primeira coluna não é modificada neste processo pois o elemento da primeira coluna da segunda linha é zero. exceto o primeiro. fiquem iguais a zero. 2) fica igual a 1. Como a inversa de uma matriz elementar é elementar. ela é inversível pois as matrizes elementares são inversíveis. a segunda coluna de A1 seria um múltiplo da primeira e esta matriz seria singular. Como ela não é singular. Se todos os elementos da segunda coluna de A1 da diagonal principal para baixo forem nulos. podemos adicionar às demais linhas de A múltiplos da primeira de modo que todos os elementos da primeira coluna. Podemos agora adicionar às outras linhas múltiplos da segunda de modo a anular todos os demais elementos da segunda coluna. O elemento da segunda linha segunda coluna desta matriz assim transformada é não nulo e podemos dividir agora a segunda linha por ele. Sejam E1 . Se a11 for igual a zero. Denotemos ainda por a11 o elemento da primeira linha e primeira coluna da matriz transformada. . aplicando transformações elementares sobre as linhas de A. Denominemos esta nova matriz de A2 . Ek as matrizes elementares −1 −1 que realizam estas operações. Ela foi obtida de A1 a partir de operações elementares e. Se necessário. podemos permutar a primeira linha de A com outra cujo elemento da primeira coluna é diferente de zero. Então Ek · · · E1 A = I e A = (Ek · · · E1 )−1 I = E1 · · · Ek . nenhuma de suas colunas é identicamente nula. chegamos à matriz identidade. Se A for o produto de matrizes elementares. . A é um produto de matrizes elementares. Vamos provar a recíproca. pelo menos um elemento da segunda coluna da diagonal principal para baixo é diferente de zero. Continuando com este processo. E2 . Antonio Cândido Faleiros 167 Prova.Notas de aula do Prof. portanto. Pelo menos um elemento da primeira coluna é diferente de zero. é inversível. ¤ . Podemos dividir a primeira linha por a11 de modo que o elemento da primeira linha primeira coluna fique igual a 1. Esta matriz obtida de A através de operações elementares é inversível e será denotada por A1 . Agora. . . Como A = (aij ) é inversível. trocamos a segunda linha com outra abaixo dela que possui elemento não nulo na segunda coluna. O elemento (2.

Antonio Cândido Faleiros .168 Notas de aula do Prof.

σ(n)) para estabelecer σ sem ambiguidade. A identidade (1. τ n é sempre a identidade e foi colocada na composição apenas para ficarmos com um número exato de n permutações. se σ(1) = 1. . . . . Provaremos esta afirmação logo adiante. . . τ n sem ambiguidade. então τ 1 é a identidade. Se τ for uma transposição. . Basta apresentar a ênupla ordenada (σ(1). Em particular.Apêndice B Determinante B. Toda permutação é a composição de um número finito de transposições. . τ 2 é a identidade. . mantendo fixos os outros inteiros. . .. . De fato. 2. Se σ(2) = τ 1 (2). . i = 1. . entre transposições e identidades. 2. então τ k é a permutação identidade. . vemos que σ é uma composição de permutações que. A permutação σ é igual à composição τ n · · · τ 2 τ 1. τ 2 τ 1 (2) = σ(2). Retirando as identidades desta composição. sendo σ(k) = τ k−1 · · · τ 2 τ 1 (k). sua inversa σ−1 leva j em i. . não é única. . . 2. a permutação é inversível e. duas decomposição de σ em permutações terá ou um número par de fatores ou um número ímpar de fatores. é chamada de transposição. n}. τ n (τ n−1 · · · τ 2 τ 1 (n)) = σ(n). . Observe que. 2. Todavia. . Uma permutação que leva j em k e k em j. . .1 Permutação Uma função bijetora σ : {1. . n} → {1. . . sejam τ i . basta informar que τ (j) = k para inferir que τ (k) = j e que τ (i) = i para todo i diferente de j e k. definidas por τ 1 (1) = σ(1). entretanto. . para k ≥ 2. τ 2 . n permutações que tanto pode ser uma transposição quanto uma identidade. n) é uma permutação.. . Sendo bijetora. . . Estas equações definem τ 1 . se σ(i) = j.. n} é chamada de permutação do conjunto {1. 2. . . . . Em geral. 169 . n}. Sejam j e k dois inteiros distintos no conjunto {1.

o número de transposições ou é sempre par ou é sempre ímpar. Definimos o sinal de σ do seguinte modo: Se o número de inversões de σ for par. Portanto. isto é. . Isto implica na igualdade dos sinais sign(σ 2 σ 1 ) = sign(σ 2 )sign(σ 1 ). Teorema B. A permutação identidade não apresenta nenhuma inversão. 2. Isto significa que o número de inversões de σ 2 σ 1 e a soma do número de inversões em σ 1 e σ 2 têm a mesma paridade. Logo. seu sinal será −1. o número de transposições que a compõem é ímpar. Quando sign(σ) = −1. . . j) com k < j. com i < k é igual ao número de inversões (k. k). se σ(k) = k. . j) é uma inversão de σ. podemos ignorar as inversões relativas aos números mantidos fixos. Quando sign(σ) = +1. qualquer decomposição de σ em transposições tem um número par de fatores. Se i < j e σ(i) > σ(j) diremos que o par (i. para os quais há uma inversão. Entretanto. . de acordo com a observação feita acima. seu sinal é +1. Então sign(σ 2 σ 1 ) = sign(σ 2 )sign(σ 1 ). Sobram apenas i e j. ¤ Se uma permutação σ mantém um número k fixo. as inversões envolvendo este número não precisam ser contadas no cálculo do sinal. ¤ Teorema B.170 Notas de aula do Prof. 2. Quando não há inversão em σ 2 σ 1 então não há inversão nem em σ 1 nem em σ 2 ou ambas apresentam uma inversão. Se o número de inversões de σ for ímpar. Logo. O sinal de toda transposição é −1. Esta observação é útil na prova do próximo teorema. o número mantido fixo pela permutação sempre leva a um número par de inversões. n}. Esta composição não é única.3 Toda permutação é uma composição de transposições. seu sinal será +1.2 O sinal de uma transposição é −1. o sinal da transposição é −1. Prova. . . Inversões σ1 σ2 σ2σ1 σ 1 (i) < σ 1 (j) σ 2 σ 1 (i) < σ 2 σ 1 (j) 0 0 0 σ 1 (i) < σ 1 (j) σ 2 σ 1 (i) > σ 2 σ 1 (j) 0 1 1 σ 1 (i) > σ 1 (j) σ 2 σ 1 (i) < σ 2 σ 1 (j) 1 1 0 σ 1 (i) > σ 1 (j) σ 2 σ 1 (i) > σ 2 σ 1 (j) 1 0 1 Ela mostra que quando há uma inversão em σ 2 σ 1 ou há uma inversão em σ 1 ou há uma em σ 2 mas não em ambas ao mesmo tempo. Observe a tabela que vem em seguida. Se a transposição levar i em j e j em i. O sinal de σ será denotado por sign(σ). Prova. . onde i < j. Prova. Teorema B. ¤ . n}. Antonio Cândido Faleiros Seja σ uma permutação de {1. O número de inversões (i.1 Sejam σ 1 e σ 2 duas permutações de {1.

. Como sign(σ) = sign(τ ). . seu determinante é zero. . ¤ Teorema B. . Antonio Cândido Faleiros Teorema B.7 Se permutarmos duas linhas de uma matriz. Como σ −1 σ é a identidade cujo sinal é +1. Consequentemente. Quando a linha i for nula. det(A) = 0. segue sign(σ −1 )sign(σ) = sign(σ −1 σ) = 1. . Cada permutação σ de {1.2 Determinante Seja A = (aij ) uma matriz quadrada de ordem n. Se σ(i) = j. .4 O sinal de uma permutação é igual ao sinal de sua inversa. n} possui inversa τ . X det(A) = sign(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n = X σ σ sign(σ)b1σ(1) b2σ(2) · · · bnσ(n) = det(B). Logo. 171 Prova. O determinante de A é definido por X det(A) = sign(σ)a1σ(1) a2σ(2) · · · anσ(n) σ onde σ pecorre o conjunto de todas as permutações de {1. o determinante muda de sinal.Notas de aula do Prof. segue X det(A) = sign(τ )aτ (1)1 aτ (2)2 · · · aτ (n)n τ onde τ percorre o conjunto de todas as permutações de {1. ¤ Teorema B. det(A) = 0. Prova. o produto a1σ(1) a2σ(2) · · · anσ(n) é uma reordenação aτ (1)1 aτ (2)2 · · · aτ (n)n e. . sign(σ −1 ) e sign(σ) são ambos iguais a +1 ou ambos iguais a −1. . ¤ B. Se permutarmos duas colunas de uma matriz. det(AT ) = 0 e. Uma coluna nula na matriz é uma linha nula na transposta. portanto. Assim. . . n}. portanto. aiσ(i) = 0 para toda permutação σ e assim. . Se B = (bij ) for a transposta de A = (aij ). n}.6 Se uma linha ou uma coluna de uma matriz quadrada for nula. . Prova. 2. Teorema B. então bij = aji . 2. então τ (j) = i e aiσ(i) = aτ (j)j . . Assim. são iguais.5 O determinante de uma matriz é igual ao determinante de sua transposta. 2. o determinante muda de sinal.

172

Notas de aula do Prof. Antonio Cândido Faleiros

Prova. Seja B = (bij ) a matriz obtida de A = (aij ) permutando-se as linhas r e s, de modo que brj = asj e bsj = arj . Assim, X sign(σ) · · · brσ(r) · · · bsσ(s) · · · det(B) = = = X
σ σ σ

= −

X

sign(σ) · · · asσ(r) · · · arσ(s) · · · sign(σ) · · · arσ(s) · · · asσ(r) · · ·

X
στ

sign(στ ) · · · ar,στ (r) · · · as,στ (s) · · ·

onde τ é a transposição que leva r em s e s em r. Como σ percorre todas as permutações possíveis, στ também as percorre e assim, X det(B) = − sign(σ) · · · arσ(r) · · · asσ(s) · · · = − det(A).
σ

¤

Teorema B.8 Se duas linhas ou duas colunas de uma matriz quadrada forem iguais, seu determinante é zero. Prova. Se duas linhas da matriz A são iguais, ao trocar uma linha pela outra, a matriz A permanece inalterada e seu determinante troca de sinal. Logo, det(A) = − det(A), o que resulta em det(A) = 0. ¤ Teorema B.9 Seja A = [v1 , . . . , vj + wj , . . . , vn ], B = [v1 , . . . , vj , . . . , vn ], e C = [v1 , . . . , wj , . . . , vn ], matrizes quadradas de ordem n, onde v1 , . . . , vn e wj são as colunas de B e C. A coluna j de A é vj + wj . Então det(A) = det(B) + det(C). Prova. Imediata, a partir da definição. ¤ Vale um teorema análogo se os elementos de uma linha de A forem decompostos em duas parcelas. Teorema B.10 Sejam v1 , . . . , vn vetores coluna em Cn . Então para todo escalar β, det[v1 , . . . , βvi , . . . , vn ] = β det[v1 , . . . , vi , . . . , vn ] O mesmo resultado se aplica ao multiplicarmos uma linha de A por um escalar β.

Notas de aula do Prof. Antonio Cândido Faleiros Prova. Imediata a partir da definição. ¤ Corolário B.11 Se A é uma matriz quadrada de ordem n e β um escalar, det(βA) = β n det(A).

173

Teorema B.12 Se uma linha de uma matriz quadrada A for um múltiplo de outra linha de A, então det(A) = 0. Prova. Se β 6= 0, det[ . . . , vi , . . . , βvi , . . . ] = β det[ . . . , vi , . . . , vi , . . . ] = 0. Quando β = 0, uma linha da matriz é nula e det(A) = 0. ¤ Teorema B.13 O determinante de uma matriz não se altera se adicionarmos a uma de suas colunas um múltiplo de outra. O mesmo resultado se aplica se adicionarmos a uma de suas linhas um múltiplo de outra. Prova. Se β = 0, det[ . . . , vi , . . . , vj + βvi , . . . ] = det[ . . . , vi , . . . , vj , . . . ]+ β det[ 6 . . . , vi , . . . , vi , . . . ] = det[ . . . , vi , . . . , vj , . . . ]. ¤ Teorema B.14 Se A = (aij ) for uma matriz quadrada triangular superior ou triangular inferior, então det(A) = a11 a22 · · · ann . Prova. Se A for uma matriz quadrada de ordem n, triangular superior, então aij = 0 quando i > j. Sendo σ uma permutação de {1, 2, . . . , n} termo a1σ(1) a2σ(2) · · · anσ(n) será não nulo apenas quando σ(1) ≥ 1, σ(2) ≥ 2, . . . , σ(n) ≥ n. Isto só ocorre se σ(n) = n, . . . , σ(2) = 2, σ(1) = 1. Daí, o único termo não nulo do determinante de A é a11 a22 · · · ann . ¤ Corolário B.15 O determinante da matriz identidade é igual a 1. Teorema B.16 Seja A uma matriz quadrada. O det(A) 6= 0 se e só se A for inversível. Prova. Se A for inversível, seja B a sua inversa. Como AB = I, det(A) det(B) = 1, provando que det(A) = 0. 6 Quando A é inversível, suas colunas formam uma base da imagem indicando que suas colunas são vetores linearmente independentes. Se A for singular, uma de suas linhas é combinação linear das outras e det(A) = 0. ¤

174

Notas de aula do Prof. Antonio Cândido Faleiros

Teorema B.17 Se E for uma matriz elementar e A uma matriz quadrada, todas de ordem n, então det(EA) = det(E) det(A). Prova. Se E for uma matriz elementar que permuta a linha i com a linha j, então det(E) = −1 e det(EA) = − det(A), provando que det(EA) = det(E) det(A) para este caso. Se E for uma matriz elementar que multiplica uma linha por r, então det(E) = r e det(EA) = r det(A), provando que neste caso também vale o teorema. Se E for uma matriz elementar que multiplica à linha i um múltiplo r da linha j, então det(E) = 1 e det(EA) = det(A), provando que o teorema também vale neste último caso, o que completa a prova do teorema. ¤ Corolário B.18 Se E1 , E2 , . . . , Ek forem matrizes elementares e A for uma matriz quadrada, todas de ordem n, então det(E1 E2 · · · Ek A) = det(E1 ) det(E2 ) · · · det(Ek ) det(A). Teorema B.19 Se A e B forem matrizes quadradas de mesma ordem, det(AB) = det(A) det(B). Prova. Se A for inversível, A = E1 E2 · · · Ek , onde E1 , E2 , . . . , Ek são matrizes elementares. Assim, det(AB) = det(E1 E2 · · · Ek B) = det(E1 ) det(E2 ) · · · det(Ek ) det(B) = det(A) det(B). Se A ou B for singular, AB é singular e det(AB) = 0 e det(A) det(B) = 0. ¤ Corolário B.20 Se A for uma matriz quadrada inversível, det(A−1 ) = 1/ det(A). Teorema B.21 Matrizes quadradas semelhantes possuem o mesmo determinante. Prova. Se A e B forem matrizes quadradas semelhantes, então existe uma matriz inversível P de modo que B = P AP −1 e det(B) = det(P ) det(A) det(P −1 ) = det(A). ¤

B.3

Cofator

Seja A = (aij ) uma matriz quadrada de ordem n. Seu determinante é X det(A) = sign(σ)a1σ(1) · · · anσ(n)
σ

onde o somatório σ percorre todas as permutações do conjunto S = {1, 2, . . . , n}. Podemos agrupar esta soma do seguinte modo: tomemos todas as permutações que levam 1 em 1, depois aquelas que levam 1 em 2 e assim por diante, até aquelas que levam 1 em

P

O escalar c1j é chamado de cofator de a1j . P Vemos que c11 = σ(1)=1 sign(σ)a2σ(2) · · · anσ(n) onde a soma percorre todas as permutações que levam 1 em 1. c11 = π sign(π)a2π(2) · · · anπ(n) é o determinante de uma matriz que se obtém de A excluindo a primeira linha e a primeira coluna. Desta forma. portanto. . as inversões de um ponto fixo não precisam ser P contadas. onde A13 é o determinante da matriz obtida ao eliminar a primeira linha e a terceira coluna de A. onde π(i) = σ(i) para i = 2. Esta fórmula desenvolve o determinante pela primeira linha e é conhecida por desenvolvimento do determinante pela primeira linha. fazendo duas permutações: basta trocar esta coluna sucessivamente com as que estão à sua esquerda até conduzi-la para a posição da primeira. Este determinante foi denotado por A12 . Em geral. O determinante da matriz final é igual ao de A. vamos denotar por Aij o determinante da matriz obtida quando se elimina a linha i e a coluna j de A. . . corresponde a uma permutação π em S 0 = {2. De modo semelhante. que são a primeira linha e a segunda coluna de A. chega-se ao desenvolvimento det(A) = a11 c11 + a12 c12 + a13 c13 + · · · + a1n c1n onde c1j = (−1)1j A1j é o cofator de a1j e A1j é o determinante da matriz obtida ao eliminar a linha 1 e a coluna j de A. . A cada permutação σ em {1. n. usando o argumento seguinte. 2. o sinal do determinante da matriz se modifica duas vezes. Por um raciocínio análogo ao anterior. cada uma com n fatores. . Logo. Para determinar o termo c12 faz-se o seguinte raciocínio: Permutando a primeira coluna de A com a segunda. O escalar B11 é o determinante da matriz obtida de B ao excluir sua primeira linha e sua primeira coluna. conclui-se que c13 = A13 . Antonio Cândido Faleiros 175 n. Nas parcelas que possuem o fator aij . não contém como fator outro elemento da linha i nem outro elemento da coluna j. Aquelas parcelas que possuem como fator um elemento da linha i coluna j. . Denotamos este determinante por A11 . . Dentre os fatores de uma parcela do determinante há um único elemento da linha i. 3. obtemos uma matriz B = (bij ) onde b11 = a12 e det(B) = − det(A). n} que mantém fixo o 1. Ambas possuem o mesmo número de inversões e. Assim. Desta igualdade segue b11 B11 + · · · = −a12 c12 + · · · e. possuem o mesmo sinal. nas que levam 1 em 2. Para estabelecer o sinal de uma permutação. podemos desenvolver o determinante pela linha i. . . . O termo c13 pode ser obtido trazendo a terceira coluna para o lugar da primeira.Notas de aula do Prof. O determinante de A é a soma de diversas parcelas. naquelas que levam 1 em n podemos colocar o a1n em evidência e escrever det(A) = a11 c11 + a12 c12 + a13 c13 + · · · + a1n c1n . n}. se conclui que c12 = −B11 . Neste processo. . . det(A) = aij cij + · · · . como a12 = b11 . Denotemos por cij o termo que fica multiplicado por aij e vamos chamá-lo de cofator de aij . uma vez que o número dessas inversões é um número par. vamos colocá-lo em evidência. Nas permutações que levam 1 em 1 podemos colocar a11 em evidência. . c12 = −A12 . o a12 pode ser colocado em evidência e. Prosseguindo com o raciocínio anterior.

22 Seja A uma matriz quadrada de ordem n. até posicioná-la no topo da matriz. Assim. Cada um deles será multiplicado pelo seu cofator e assim det(A) = ai1 ci1 + ai2 ci2 + ai3 ci3 + · · · + ain cin onde cij = (−1)i+j det A(i. . podemos colocar em evidência os elementos ai1 . ain .23 Se A for inversível. . Este processo pode ser utilizado mais de uma vez reduzindo sucessivamente a ordem das matrizes cujos determinantes precisam ser calculados. podemos transformar a matriz A numa matriz B. . Como aij ocupa a primeira linha primeira coluna de B. . Teorema B. Como há um total de (i−1)+(j −1) transposições. Mediante transposição de linhas e colunas. o determinante muda de sinal. então A · adj(A) = adj(A) · A = det(A) · I. Basta transpor i − 1 vezes a linha i com as que estão acima. det(A) = (−1)(i−1)+(j−1) det(B) = (−1)i+j det(B). mediante j − 1 transposições da coluna j com as que estão à sua esquerda. A matriz cujo elemento da linha i coluna j é cji (observe a ordem dos índices em que primeiro vem o j e depois o i) é chamada de matriz adjunta clássica de A e é denotada por adj(A). Provamos que o cofator de aij no desenvolvimento do det(A) é cij = (−1)i+j det Aij . Obtemos então o desenvolvimento do determinante pela coluna j det(A) = a1j c1j + a2j c2j + a3j c3j + · · · + anj cnj Um modo prático de utilizar estas fórmulas consiste em aplicar transformações elementares sobre a matriz zerando o maior número de elementos de uma linha ou de uma coluna e usar as fórmulas acima para reduzir o determinante original a uma soma de outros envolvendo matrizes de ordem n − 1. . Definição B. Um argumento semelhante nos permite desenvolver o determinante pela coluna j. A cada transposição. . chamada de menor (i. coloca-se o elemento aij na primeira posição da matriz. ai2 . Provamos que X j aij cij = det(A). a fórmula acima é conhecida por desenvolvimento do determinante pela linha i. j) de A. det(A) = (−1)i+j aij det Aij . onde o elemento aij fique posicionado na linha 1 coluna 1 de B. Como os elementos ai1 . . A parcela que contém um desses fatores não conterá os demais. a matriz obtida ao eliminar a linha 1 coluna 1 de B é igual à matriz obtida ao eliminar a linha i coluna j de A. ain são todos da linha i. Na soma que define o determinante de A. Antonio Cândido Faleiros onde os três pontos se referem às parcelas que contém elementos da linha i e colunas distintas da j.176 Notas de aula do Prof. . Prova. sabemos de antemão que det(B) = aij cij + · · · onde cij é o determinante de uma matriz obtida de B pela eliminação de sua linha 1 coluna 1. Ora. onde Aij é a matriz obtida de A retirando sua linha i e sua coluna j. O determinante de B possuirá parcelas onde um dos fatores é o aij . j) é o cofator de aij . Em seguida. . ai2 .

Ele é pouco eficiente e é usado apenas para sistemas pequenos. ¤ B. Portanto.k−1 b2 a2. o sistema possui solução única. . o lado esquerdo desta expressão é o elemento da linha k coluna i da matriz A· adj(A) e o lado direito é o elemento da linha k coluna i da matriz det(A) · I. trocando-se sua coluna  a11 · · · a1. . .. As linhas i e k desta matriz seriam iguais e seu determinante seria igual a zero. . P Sendo cij os cofatores de aij então i aij cik = δ jk det(A) Ã n ! Ã n ! n n n n X X X X X X cik bi = cik aij xj = aij cik xj = det(A)δ jk xj = det(A)xk i=1 i=1 j=1 j=1 i=1 j=1 Dividindo pelo det(A) segue xk = onde ∆k = k por b Pn i=1 cik bi Pn i=1 cik bi det(A) = ∆k . j Podemos usar o delta de Kronecker para unificar estas duas expressões em destaque X akj cij = δ ik det(A). . Antonio Cândido Faleiros 177 P Se i for diferente de k. . . . X akj cij = 0. . .k+1 · · · a2n . .k+1 · · · ann   ∆k = det   .4 Regra de Cramer n X j=1 Consideremos um sistema de n equações com n incógnitas aij xj = bi . .k−1 b1 a1. provando que A · adj(A) = det(A) · I. j akj cij corresponderia ao determinante de uma matriz em que a linha i foi substituída pela linha k. . O método de Cramer fornece um meio de resolver o sistema usando determinantes. O lado esquerdo da expressão também é o elemento da linha i coluna k da matriz adj(A) · A e o lado direito é o elemento da linha i coluna k da matriz det(A) · I..Notas de aula do Prof. . j Ora.k+1 · · · a1n a21 · · · a2. . 2. provando que adj(A) · A = det(A) · I.. .k−1 bn an. . . an1 · · · an. . para i = 1. Se a matriz A = (aij ) for inversível. n. . det(A)      é o determinante de uma matriz obtida de A. . para i 6= k.

Desenvolvendo Vn (x1 . . . xn ) = (xj − xi ). . . . xn−1 ) = (xj − xi ). . Assim. . . Vn (x1 . . . O número real  1  1  Vn (x1 . . . Calculando os determinantes de Vandermonde para n = 2 e n = 3. vemos que α é o cofator de xn−1 que é n igual ao determinante de Vandermonde de ordem inferior α = Vn−1 (x1 . i<j<n Daí. . x2 . . . . . . x) = α(x − x1 )(x − x2 ) · · · (x − xn−1 ). . . xn ) = Vn−1 (x1 .. . . . xn−1 como raízes. . x2 . . . xn números reais. . Vamos provar por indução que Y Vn (x1 . caso em que o determinante de Vandermonde é nulo. . xn−1 ) = Y Y (xn − xi ) i<n Y (xj − xi ) = i<j i<j<n Y (xj − xi ) (xn − xi ) i<n Esta igualdade vale mesmo quando os xi não forem distintos dois a dois. . xn ) = det  . . Vn (x1 . Antonio Cândido Faleiros B. . Vn (x1 . . . x2 )(x3 − x1 )(x3 − x2 ) = (x2 − x1 ) (x3 − x1 )(x3 − x2 ). . . . 2 n−1 xn xn · · · xn      Sejam x1 . . 1 é chamado de determinante de Vandermonde. x2 ) = x2 − x1 e V3 (x1 . . .178 Notas de aula do Prof. . Vamos mostrar que Vn (x1 . . . . . xn ) = α(xn − x1 )(xn − x2 ) · · · (xn − xn−1 ). .5 Determinante de Vandermonde x1 x2 · · · xn−1 1 1 x2 x2 · · · xn−1 2 2 .  . . . . . x3 ) = V2 (x1. obtemos V2 (x1 . . . . xn ) pela última linha. Trocando o número xn pela variável x. i<j adotando como hipótese de indução a validade de Y Vn−1 (x1 . . . . xn−1 ). xn−1 . . . x) se torna um polinômio em x de grau n − 1 que possui x1 . xn−1 . . . . onde α é um número real que não depende de x.

. vj . 0. . n} então a alternatividade garante que det[eσ(1) . o determinante é nulo. det(. 1. 2. . . . . . . . . Se σ for uma permutação de {1. . se uma coluna for uma combinação linear das demais. in )ai1 1 ai2 2 · · · ain n det(A) = = X σ i1 i2 in sign(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n onde o somatório percorre todas as permutação σ de {1. . . . . . eσ(n) ] = sign(σ) P pois a cada inversão de colunas há uma troca de sinal. . Pela alternatividade. . ei2 . . . Multilinearidade det[. . . . . . . 0.). . . . . . . . . . . seu determinante é nulo. wi . 2. . vi . . . . se α for um escalar. i1 i2 in Se dois índices em det[ei1 . . . . ei2 . . .] 2. . as parcelas não nulas são aquelas em que {i1 . . Esta é exatamente a definição anterior. vi . A fórmula acima ainda indica que as três propriedades enumeradas na definição de determinante são suficientes para garantir a existência e unicidade do determinante. in } for uma permutação σ de {1. .) = det(. . onde I é a matriz identidade de ordem n e ej = (0. . Alternatividade det[. que é igual a 1. i2 . O determinante de A é o número real denotado por det(A) ou det A com as propriedades abaixo. . . . . . . . . usando a multilinearidade e a observação acima. . . . 2. . . . vi . Daí fica evidente que. XX X ··· sign(i1 . . . . 0)T é a matriz coluna n × 1 cujo único elemento não nulo é o da linha j. . . .] = α det[. . . . 1. . . . . vj . . . . . . . Logo. então seu determinante é nulo. . i2 . . 3. . v2 = (a2j ) . vn ] para designar a matriz A. Antonio Cândido Faleiros 179 B. . αvi + βwi . . n}. en ] = 1. .] + β det[.]. vi . . . . . ein ]. . .6 Determinante. . . Observando que vj = nj =1 aij j eij i obtemos XX X det(A) = ··· ai1 1 ai2 2 · · · ain n det[ei1 . vj . .Notas de aula do Prof. se uma coluna da matriz for nula ou se duas colunas forem iguais. vi . . .] = − det[. Normalização det I = det[e1 . ein ] forem iguais. n} e assim. eσ(2) . . uma definição alternativa Seja A = (aij ) uma matriz m × n e v1 = (a1j ) . . . . . Agora. Usaremos a notação [v1 . . . . vj + αvi . . vn = (anj ) suas colunas. . .

180 Notas de aula do Prof. Antonio Cândido Faleiros .

. Maple Labs for Linear Algebra. Álgebra Linear Aplicada. [Hoffman] Hoffmann & Kunze. Editora da USP com Editora Polígono. Terry Lawson.A.F. 1998. Domingues. Álgebra Linear. Álgebra Linear.. 1970. Daniel. Serge Lang. [Nicholson] W. Franklin. Inc. 2004. Linear Algebra and Matrix Theory. segunda ed. Mathematica Labs for Linear Algebra. John Wiley & Sons. Editora Atual. Linear Algebra: A Modern Introduction (with CD-ROM) 2ed. C. sexta edição. Editora Edgard Blücher.H. Editora Edgard Blücher. Coleção Schaum. Matrix Theory. Guanabara Koogan. Álgebra Linear. [NobDan] [Poole] [RoHo] [TrefBau] Ben Noble & James W. Nering. Introdução à Álgebra Linear com Aplicações. Makron Books. [Lipschutz] Seymour Lipschutz. Álgebra Linear. Álgebra Linear. Editora Bookman. Acompanham este livro: Matlab Labs for Linear Algebra.C. David Poole (Foi traduzido). [Franklin] Joel N. [Nering] Evar D. 1997. SIAM.. McGraw-Hill. Álgebra Linear com Aplicações. 1993. oitava edição. Editora LTC.Referências Bibliográficas [CaDoCo] Callioli.. Chris Rorres e Howard Anton. Keith Nicholson. H. 181 . 1997. Trefethen and David Bau III. Numerical Linear Algebra. Dover publications. Álgebra Linear e Aplicações. 2001. Lloyd N. Brooks Cole 2005. e Costa R. [Kolman] [Lang] [Lawson] Bernard Kolman. Society for Industrial and Applied Mathematics.

Sign up to vote on this title
UsefulNot useful