You are on page 1of 273

aal

i i
2017/2/2
page
i i

To
picos de Algebra Linear:
Decomposic es Matriciais e Aplicac
o o es

Humberto Jose Bortolossi


Universidade Federal Fluminense

1.0
VERSAO
2 de fevereiro de 2017

Por favor, envie suas sugestoes, correcoes e crticas para


hjbortol@vm.u.br.

i i

i i
aal
i i
2017/2/2
page 1
i i

Sum
ario

1 Espa
cos Vetoriais 4
1.1 Espacos Vetoriais . . . . . . . . . . . . . . . . . . . . . 4
1.2 Subespacos Vetoriais . . . . . . . . . . . . . . . . . . . 7
1.3 Operacoes com Subespacos Vetoriais . . . . . . . . . . 8
1.4 Combinac oes Lineares e Geradores . . . . . . . . . . . 10
1.5 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Espacos Finitamente Gerados . . . . . . . . . . . . . . 14
1.7 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Aplicac
ao: EDOs . . . . . . . . . . . . . . . . . . . . . 19
1.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Revis
ao: Transforma coes Lineares 27
2.1 Transformacoes Lineares . . . . . . . . . . . . . . . . . 27
2.2 Nucleo e Imagem . . . . . . . . . . . . . . . . . . . . . 32
2.3 Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 A Matriz de Uma Transformacao Linear . . . . . . . . 35
2.5 Posto . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . 40

3 Sistemas Lineares e A Decomposi c


ao LU 45
3.1 Cisalhamentos . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Motivac
ao: Sistemas Lineares 2 por 2 . . . . . . . . . 50
3.3 Motivac
ao: Sistemas Lineares 3 por 3 . . . . . . . . . 53
3.4 A Decomposicao LU . . . . . . . . . . . . . . . . . . . 57
3.5 Resoluc
ao de Sistemas Lineares . . . . . . . . . . . . . 68
3.6 Pivotamento Parcial . . . . . . . . . . . . . . . . . . . 72

i i

i i
aal
i i
2017/2/2
page 2
i i

2 Sum
ario

3.7 Aplicacao: O Metodo de Newton . . . . . . . . . . . . 82


3.8 Variantes da Decomposicao LU . . . . . . . . . . . . . 85
3.9 Aplicacao: Classicacao de Pontos Crticos . . . . . . 86
3.10 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . 90

4 Ortogonalidade e A Decomposi c
ao QR 100
4.1 Produto Interno e Norma . . . . . . . . . . . . . . . . 100
4.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . 105
4.3 Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 107
4.4 Matrizes Ortogonais . . . . . . . . . . . . . . . . . . . 112
4.5 A Decomposicao QR . . . . . . . . . . . . . . . . . . . 114
4.6 Aplicacao: O Metodo dos Mnimos Quadrados . . . . 116
4.7 Householder e Givens . . . . . . . . . . . . . . . . . . 123
4.8 Subespacos Ortogonais . . . . . . . . . . . . . . . . . . 130
4.9 O Teorema Fundamental da Algebra Linear . . . . . . 132
4.10 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . 134

5 SVD e A Pseudoinversa 143


5.1 Autovalores e O Teorema Espectral . . . . . . . . . . . 143
5.2 Valores Singulares . . . . . . . . . . . . . . . . . . . . 150
5.3 A Decomposicao em Valores Singulares (SVD) . . . . 154
5.4 Aplicac
ao: Imagens Digitais . . . . . . . . . . . . . . . 160
5.5 Mnimos Quadrados e A Pseudoinversa . . . . . . . . . 162
5.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . 167

6 Programa cao Linear 169


6.1 Denicoes . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.2 O Teorema Fundamental da Programacao Linear . . . 173
6.3 Relacoes com Convexidade . . . . . . . . . . . . . . . . 177
6.4 O Metodo Simplex . . . . . . . . . . . . . . . . . . . . 181
6.5 Dualidade . . . . . . . . . . . . . . . . . . . . . . . . . 191
6.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . 197

7 Teoria dos Jogos 199


7.1 O que e um jogo? . . . . . . . . . . . . . . . . . . . . . 199
7.2 Soluc
oes de um jogo em estrategias puras . . . . . . . 202
7.3 Estrategias mistas . . . . . . . . . . . . . . . . . . . . 213
7.4 Soluc
oes de um jogo em estrategias mistas . . . . . . . 217

i i

i i
aal
i i
2017/2/2
page 3
i i

Sum
ario 3

7.5 O Teorema de Equilbrio de Nash . . . . . . . . . . . . 227


7.6 Jogos de Soma Zero . . . . . . . . . . . . . . . . . . . 228
7.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . 242

A Respostas de Exerccios Selecionados 248

Bibliograa 267

Indice 269

i i

i i
aal
i i
2017/2/2
page 4
i i

Captulo 1

Espacos Vetoriais

1.1 Espacos Vetoriais

Deniao 1.1 (Espac


c o Vetorial) Sejam
(1) V = um conjunto de vetores,

(2) K = Q ou K = R ou K = C um conjunto de escalares,


(3) + : V V V uma operacao de adicao de veto-
(u, v)  u+v
res e
(4) : K V V uma operacao de multiplicacao de
(, v)  v
vetor por escalar.
Diremos que (V, K, +, ) e um espaco vetorial se as seguintes
oes forem satisfeitas , K e u, v, w V :
condic
(A1) (comutatividade) u + v = v + u,

i i

i i
aal
i i
2017/2/2
page 5
i i

[SEC. 1.1: ESPAC


OS VETORIAIS 5

(A2) (associatividade) (u + v) + w = u + (v + w),


(A3) (vetor nulo) 0 V tal que v V , v + 0 = 0 + v = v,
(A4) (inverso aditivo) v V , w V tal que v + w = 0,

(M1) (associatividade) ( ) v = ( v),


ao por 1) 1 v = v,
(M2) (multiplicac

(D1) (distributividade) (u + v) = u + v,
(D2) (distributividade) ( + ) v = v + v.

Notacoes: se w e o inverso aditivo de v, entao escreveremos w = v.


Tambem escrevemos u v para representar u + (v).

Exemplo 1.1 (O espac o vetorial das n-uplas ordenadas)


O conjunto de vetores
V = Rn = {(v1 , . . . , vn ) | v1 R, . . . , vn R}
com o conjunto de escalares K = R e as operacoes
u + v = (u1 , . . . , un ) + (v1 , . . . , vn ) = (u1 + v1 , . . . , un + vn ),
u = (u1 , . . . , un ) = ( u1 , . . . , un )
constituem um espaco vetorial (exerccio!).

o vetorial das sequ


Exemplo 1.2 (O espac encias reais) O con-
junto de vetores
V = R = {(v1 , . . . , vi , . . .) | v1 R, . . . , vi R, . . .}
com o conjunto de escalares K = R e as operacoes
u + v = (u1 , . . . , ui , . . .) + (v1 , . . . , vi , . . .) = (u1 + v1 , . . . , ui + vi , . . .),
u = (u1 , . . . , ui , . . .) = ( u1 , . . . , ui , . . .)
constituem um espaco vetorial (exerccio!).

i i

i i
aal
i i
2017/2/2
page 6
i i

6 [CAP. 1: ESPAC
OS VETORIAIS

Exemplo 1.3 (O espac o vetorial das matrizes reais m n)


O conjunto de vetores
V = Mmn (R)


a11 a1n


.. .. .. a R para 1 i m e 1 j n
= . . . ij



am1 amn
com o conjunto de escalares K = R e as operacoes

u11 u1n v11 v1n
.. . .
.. + ... .. ..
u+v = . .. . .
um1 umn vm1 vmn

u11 + v11 u1n + v1n
.. .. ..
= . . . ,
um1 + vm1 umn + vmn

u11 u1n u11 u1n
.. .. .. .. .. ..
u = . . . = . . .
um1 umn um1 umn
constituem um espaco vetorial (exerccio!).

Exemplo 1.4 (O espac


o vetorial das func
o es reais) O con-
junto de vetores
V = F (X, R)
= conjunto de todas as funcoes f de X em R com X =
com o conjunto de escalares K = R e as operacoes
f + g: X R
,
x  (f + g)(x)= f (x) + g(x)
f : X R
x  ( f )(x) = f (x)
constituem um espaco vetorial (exerccio!).

i i

i i
aal
i i
2017/2/2
page 7
i i

[SEC. 1.2: SUBESPAC


OS VETORIAIS 7

Proposic
ao 1.1 Em um espaco vetorial valem as seguintes
propriedades:
(1) O vetor nulo e u
nico.
(2) O inverso aditivo de um vetor e u
nico.
(3) Se u + w = v + w, entao u = v.
(4) 0 v = 0 e 0 = 0.
(5) Se = 0 e v = 0, entao v = 0.
(6) (1) v = v.
(7) 0 = 0.
(8) (v) = v.

Demonstrac ao: Vamos demonstrar que o vetor nulo de um espaco


vetorial e u  dois vetores nulos do espaco vetorial.
nico. Considere 0 e 0
Temos que:
(A3)
0 =0  + 0(A3)
= 0.
As demonstrac
oes das demais propriedades cam como exerccio.

1.2 Subespa
cos Vetoriais

Deni ao 1.2 (Subespac


c o Vetorial) Sejam (V, K, +, )
um espaco vetorial. Um subespaco vetorial de V e um sub-
conjunto W V com as seguintes propriedades:
(1) 0 W .
(2) Se w1 , w2 W , entao w1 + w2 W .
(3) Se K e w W , entao w W .

i i

i i
aal
i i
2017/2/2
page 8
i i

8 [CAP. 1: ESPAC
OS VETORIAIS

 
Note que, em particular, W, K, +|W W , |KW e, em si mesmo,
um espaco vetorial. {0} e V sao sempre subespacos de V , para qual-
quer espaco vetorial V .

Exemplo 1.5 W = {(v1 , v2 , . . . , vn ) Rn | v1 = 0} e subespaco


de Rn .

Exemplo 1.6 W = {A Mnn (R) | A = AT } (conjunto das matri-


zes reais simetricas) e subespaco de Mnn (R).

Exemplo 1.7 W = {f F (R, R) | f e contnua} (conjunto das fun-


coes reais contnuas) e subespaco de F (R, R).

Exemplo 1.8 O conjunto denido por



a11 x1 + + a1n xn = 0,

n ..
W = (x1 , . . . , xn ) R .



am1 x1 + + amn xn = 0.
(solucoes de um sistema linear homogeneo) e subespaco de Rn .

1.3 Opera
coes com Subespacos Vetoriais

Proposi ao 1.2 (Intersec


c a o) Seja {W } uma colecao de
subespacos vetoriais de um espaco vetorial V . Entao, a in-
tersecao 
W = W

tambem e um subespaco vetorial de V .

Demonstrac
ao:
(1) Para todo , temos que 0 
W , pois cada W e subespaco
vetorial de V . Logo, 0 W = W .

i i

i i
aal
i i
2017/2/2
page 9
i i

[SEC. 1.3: OPERAC


OES COM SUBESPAC
OS VETORIAIS 9


(2) Se w1 , w2 W = W , entao w1 , w2 W , para todo
. Como cada W e subespaco vetorial,
 segue-se que w1 +
w2 W , . Logo, w1 + w2 W = W .

(3) Se K e w W = W , entao w W , para todo .
Como cada W e subespacovetorial, segue-se que w W ,
. Logo, w W = W .

Observa c
ao. Uni
ao de subespacos nao e, em geral, um subespaco.
Note que W1 = {(x, 0) R2 | x R} e W2 = {(0, y) R2 | y R}
ao subespacos de R2 , mas W = W1 W2 n
s ao e subespaco de R2 .
De fato: w1 = (1, 0) W , w2 = (0, 1) W , mas w = w1 + w2 =
(1, 1)  W .

Proposi ao 1.3 (Soma) Sejam W1 e W2 dois subespacos de


c
um espaco vetorial V . Ent
ao, a soma

W = W1 + W2 = {w1 + w2 V | w1 W1 e w2 W2 }

tambem e um subespaco de V .

Demonstraca
o: Exerccio.

Deni ao 1.3 (Soma Direta) Dizemos que W e soma direta


c
dos subespacos W1 e W2 se

W1 + W2 = W e W1 W2 = {0}.

Notacao: W = W1 W2 . Mais geralmente, dizemos que W e a


soma direta dos subespacos W1 , . . . , Wk se, e somente se,

W = W1 + + Wk
e
j {1, . . . , k}, Wj (W1 + + Wj1 + Wj+1 + Wk ) = {0}.

i i

i i
aal
i i
2017/2/2
page 10
i i

10 [CAP. 1: ESPAC
OS VETORIAIS

Exemplo 1.9 S
ao exemplos de soma direta de subespacos vetoriais:

(1) R2 = W1 W2 , onde W1 = {(x, 0) R2 | x R} e W2 =


{(0, y) R2 | y R};

(2) Mnn (K) = W1 W2 , onde W1 = {A Mnn (K) | A = AT } e


W2 = {A Mnn (K) | A = AT };

(3) F (R, R) = W1 W2 , onde W1 = {f F (R, R) | f e par} e


W2 = {f F (R, R) | f e mpar}.

1.4 Combinac
oes Lineares e Geradores

Deni
c
ao 1.4 Seja V um espaco vetorial.

(1) Um vetor v V e uma combinac ao linear dos vetores


v1 , . . . , vk V se existem escalares 1 , . . . , k K tais
que
k
v = 1 v1 + + k vk = i vi .
i=1

(2) Seja B um subconjunto de V . O subespaco gerado por B,


denotado por [B], e o conjunto formado por todo todo ele-
mento de V que e uma combinacao linear de um n umero
nito de elementos de B. Convencao: [] = {0}.

(3) Se [B] = V , dizemos que B e um conjunto de geradores


de V .

Exemplo 1.10

(1) [(1, 0), (0, 1)] = R2 .

i i

i i
aal
i i
2017/2/2
page 11
i i

[SEC. 1.4: COMBINAC


OES LINEARES E GERADORES 11

(2) [(1, 0), (0, 1), (1, 1)] = R2 .


(3) [R2 ] = R2 .
(4) [1, x, . . . , xn , . . .] = P(R), onde P(R) e o espaco vetorial dos
polin omios com coecientes reais.

Observaao (combinac
c es lineares e sistemas lineares). Note
o
que

a11 x1 + + a1n xn = b1 ,

..
.

am1 x1 + + amn xn = bm .


a11 a1n b1
.. .
x1 ... + + xn ... = .
am1 amn bm
Moral: o sistema linear possui solucao se, e somente se, o vetor
(b1 , . . . , bm ) pode ser escrito como combinacao linear dos vetores
(a11 , . . . , am1 ), . . . , (a1n , . . . , amn ).

Observa ao (combinac
c o es lineares e multiplicac
a o de ma-
trizes). Note que
ym1 = Bmr xr1


y1 | | x1

.. = b1 b ..
. r .
ym | | xr


y1 | |

.. = x1 b1 + + xr br .
.
ym | |

i i

i i
aal
i i
2017/2/2
page 12
i i

12 [CAP. 1: ESPAC
OS VETORIAIS

Moral: se y = B x, entao y e combinacao linear das colunas da


matriz B.

Observa ao (combinac
c o es lineares e multiplicac
a o de ma-
trizes). Note que

Amn = Bmr Crn




| |
a1 an

| |

=

| | c11 c1r

b1 br .. ..
. .
| | cr1 crn


| | | c1j

aj = b1 br .. ,
.
| | | crj

para todo 1 j n. Moral: se A = B C, entao as colunas da


matriz A s
ao combinacoes lineares das colunas da matriz B.

Observaao (gerados e a escolha do corpo K). Note que


c

B = {(1, 0), (0, 1)}

e um conjunto gerador de V = C2 sobre K = C. De fato: (z1 , z2 )


C2 , (z1 , z2 ) = z1 (1, 0) + z2 (0, 1). Mas B = {(1, 0), (0, 1)} n
ao
e um conjunto gerador de V = C2 sobre K = R. Por exemplo,
(i, 0)  [(1, 0), (0, 1)]. Por outro lado,

B = {(1, 0), (0, 1), (i, 0), (0, i)}

i i

i i
aal
i i
2017/2/2
page 13
i i

[SEC. 1.5: BASES 13

e um conjunto gerador de V = C2 sobre K = R, uma vez que se


(z1 , z2 ) C, z1 = a1 + b1 i, z2 = a2 + b2 i, a1 , a2 , b1 , b2 R, entao
(z1 , z2 ) = a1 (1, 0) + a2 (0, 1) + b1 (i, 0) + b2 (0, i).

1.5 Bases

Deni ao 1.5 Sejam (V, K, +, ) um espaco vetorial e B um


c
subconjunto de V .
(1) Dizemos que B e um conjunto linearmente independente
(LI) se, para qualquer escolha de vetores v1 , . . . , vk B
tais que

1 v1 + + k vk = 0 1 = = k = 0,

onde 1 , . . . , k K. Por convencao, e LI.


(2) Dizemos que B e linearmente dependente (LD) se ele nao
for LI.

Exemplo 1.11
(1) {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)} e LI em (Rn , R, +, ).
(2) {(1, 0), (0, 1), (i, 0), (0, i)} e LI em (C2 , R, +, ).
(3) {(1, 0), (0, 1), (i, 0), (0, i)} e LD em (C2 , C, +, ). De fato: note
que i (1, 0) + 0 (0, 1) 1 (i, 0) + 0 (0, i) = (0, 0).
(4) O conjunto innito
 
fn : [a, b] R

t  fn (t) = tn nN
e um conjunto LI em C([a, b], R). De fato: pelo teorema funda-
mental da algebra,
(t [a, b], 1 tn1 + + k tnk = 0) 1 = = k = 0.

i i

i i
aal
i i
2017/2/2
page 14
i i

14 [CAP. 1: ESPAC
OS VETORIAIS

Deni ao 1.6 (Base) Sejam (V, K, +, ) um espaco vetorial


c
e B um subconjunto de V . Dizemos que B e uma base de V se B
for um conjunto gerador de V e B for linearmente independente.

Exemplo 1.12
(1) {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)} e uma base do espaco
vetorial (Rn , R, +, ). Ela e denominada base can onica de Rn .
(2) {(1, 0), (0, 1), (i, 0), (0, i)} e uma base de (C2 , R, +, ).
(3) {(1, 0), (0, 1)} e uma base de (C2 , C, +, ).
(4) O conjunto innito
 
fn : [a, b] R

t  fn (t) = t n
nN{0}

e uma base de P([a, b], R) = conjunto das funcoes polinomiais


de [a, b] em R sobre K = R.

1.6 Espacos Finitamente Gerados

Deni ao 1.7 (Espac


c os finitamente gerados) Dizemos
que um espaco vetorial (V, K, +, ) e nitamente gerado se ele
possui um conjunto gerador nito.

Exemplo 1.13
(1) (R2 , R, +, ) e nitamente gerado pelo conjunto B = {(1, 0), (0, 1)}.
(2) (R2 , Q, +, ) n
ao e nitamente gerado. De fato: Q e enumer avel
e uniao nita de conjuntos enumer aveis e ainda enumer
avel, con-
tudo R2 n ao e enumer avel.

i i

i i
aal
i i
2017/2/2
page 15
i i

[SEC. 1.6: ESPAC


OS FINITAMENTE GERADOS 15

(3) (Pn ([a, b], R), R, +, ) nao e nitamente gerado.

(4) (Pn ([a, b], R), R, +, ) e nitamente gerado pelo conjunto B =


{1, x, . . . , xn }.

Proposi ao 1.4 Se B = {v1 , . . . , vk } e um conjunto gerador


c
de V , ent
ao todo conjunto LI de V possui no maximo k elemen-
tos.

Demonstracao: Vamos mostrar que todo subconjunto de V com mais


do que k vetores e LD. Seja X = {u1 , . . . , um } um subconjunto de V
com m > k elementos. Como B = {v1 , . . . , vk } e um conjunto gera-
dor para V , existem escalares aij , com 1 i k e 1 j m tais
que
k

u1 = a11 v1 + + ak1 vk = i=1 ai1 vi ,
..
.
k
um = a1m v1 + + akm vk = i=1 aim vi .

Vamos agora estudar as combinacoes lineares de u1 , . . . , um em ter-


mos de v1 , . . . , vk :

x1 u1 + + xm um
=

x1 (a11 v1 + + ak1 vk ) + + xm (a1m v1 + + akm vk )


=

(a11 x1 + + a1m xm ) v1 + + (ak1 x1 + + akm xm ) vk .

Para mostrar que {u1 , . . . , um } e LD, precisamos exibir x1 , . . . , xm


n
ao todos nulos tais que a combinacao linear acima resulta no vetor
nulo. Para isto, basta exibir x1 , . . . , xm n
ao todos nulos tais que

a11 x1 + + a1m xm = 0,

..
.

ak1 x1 + + akm xm = 0.

i i

i i
aal
i i
2017/2/2
page 16
i i

16 [CAP. 1: ESPAC
OS VETORIAIS

Ou seja, o sistema linear homogeneo abaixo deve ter pelo menos uma
soluc
ao (x1 , . . . , xm ) nao nula:

a11 x1 + + a1m xm = 0,

..
.

ak1 x1 + + akm xm = 0.
Mas isto acontece, porque o n
umero de equacoes (k) e menor do que
o n
umero de vari
aveis (m).

Corolario 1.1 Se (V, K, +, ) e um espaco vetorial nao nulo -


nitamente gerado, ent
ao toda base de V possui o mesmo n umero
de elementos, denominado dimens ao de V .

Demonstrac ao: Sejam B e B  duas bases de V . Como V e nitamente


gerado e B e B  s
ao LI, pela proposicao anterior, B e B  sao conjuntos
nitos. Sejam entao m = #B e m = #B  . Como [B] = V e B  e LI,
pela proposicao anterior, m m. Do mesmo modo, Como [B  ] = V
e B e LI, pela proposicao anterior, m m . Logo, m = m .

Exemplo 1.14 dimR (Rn ) = n. dimR (C2 ) = 4. dimC (C2 ) = 2.


dimR (P([a, b], R)) = . dimR (Mmn (R)) = m n. dimK ({0}) = 0
(lembre-se que, por convencao, e LI e [] = {0}).

Corolario 1.2 Seja (V, K, +, ) um espaco vetorial de di-


mensao n 1.
(1) Todo conjunto de vetores com mais do que n elementos e
LD.
(2) Nenhum conjunto com menos do que n elementos pode ge-
rar V .

Demonstraca
o: Exerccio.

i i

i i
aal
i i
2017/2/2
page 17
i i

[SEC. 1.6: ESPAC


OS FINITAMENTE GERADOS 17

Proposi ao 1.5 Seja B = {v1 , . . . , vk } um subconjunto LI de


c
um espaco vetorial V . Se v  [B], entao {v1 , . . . , vk , v} tambem
e LI.

Demonstracao: Suponha, por absurdo, que {v1 , . . . , vk , v} seja LD.


Ent
ao existem escalares 1 , . . . , k , nao todos nulos tais que

1 v1 + + k vk + v = 0.

Obrigatoriamente, = 0 pois, caso contr ario, {v1 , . . . , vk } seria LD.


Ent
ao,
1 k
v= v1 vk [B].

Uma contradicao.

Teorema 1.1 (completamento de base)


(1) Todo espaco vetorial nao nulo nitamente gerado possui
uma base.
(2) Se B e subconjunto LI de um espaco vetorial V nitamente
gerado, entao existe base de V que contem B.

Demonstracao: Exerccio (basta usar sucessivamente a proposicao


anterior para construi uma base).

Teorema 1.2 Seja V um espaco vetorial e sejam W1 , W2 dois


subespacos vetoriais de V , ambos de dimensao nita. Entao

dimK (W1 + W2 ) = dimK (W1 ) + dimK (W2 ) dimK (W1 W2 ).

Demonstrac
ao: Exerccio.

i i

i i
aal
i i
2017/2/2
page 18
i i

18 [CAP. 1: ESPAC
OS VETORIAIS

1.7 Coordenadas

Proposi ao 1.6 Seja V um espaco vetorial de dimensao n 1


c
e seja B V . As duas armacoes abaixo sao equivalentes.
(a) B e uma base de V .
(b) Todo elemento de V se escreve de maneira u
nica como com-
ao linear de elementos de B.
binac

Demonstrac
ao:
[(a) (b)] Como B e base de V , certamente B gera V . Logo, todo
vetor v de V se escreve como combinacao linear de elementos de B.
Resta mostrar que os coecientes desta combinacao linear s
ao u
nicos.
Vamos escrever B = {v1 , . . . , vn } e supor que

v = 1 v1 + + n vn = 1 v1 + + n vn .

Logo, (1 1 ) v1 + + (n n ) vn = 0. Como {v1 , . . . , vn } e


LI, segue-se que 1 = 1 , . . . , n = n .

[(b) (a)] Como, por hipotese, todo elemento v se escreve de ma-


neira u nica como combinacao linear de elementos de B, segue-se
que B gera V . Resta mostrar que B e LI. Seja v1 , . . . , vk V e
1 , . . . , k K tais que

1 v1 + + k vk = 0.

Temos tambem que:

0 v1 + + 0 vk = 0.

Como, por hipotese, todo vetor se escreve de maneira u


nica como
ao linear de elementos de B, segue-se que
combinac

1 = = k = 0.

Isto mostra que B e LI.

i i

i i
aal
i i
2017/2/2
page 19
i i

[SEC. 1.8: APLICAC


AO: EDOS 19

Deni cao 1.8 (Coordenadas) Seja B = {v1 , . . . , vn } uma


base de V . Fixando-se a ordem dos elementos desta base, pela
proposicao anterior, cada elemento v de V ca determinado de
maneira unvoca pelos coecientes 1 , . . . , n da combinacao
linear
v = 1 v1 + + n vn .
A n-upla ordenada

[v]B = (1 , . . . , n )B

a denominada coordenadas do vetor v com relacao `a base B.


ser

1.8 Aplicac
ao: EDOs
Seja W o conjunto das solucoes da equacao diferencial linear ho-
mogenea de ordem k com coecientes constantes:

y (k) + ak1 y (k1) + + a1 y  + a0 y = 0.

Isto signica que:

(1) y F (R, R),

(2) y tem derivada ate ordem k para qualquer x R e

(3) x R,

y (k) (x) + ak1 y (k1) (x) + + a1 y  (x) + a0 y(x) = 0.

W e um subespaco de F (R, R) (exerccio!). Mais ainda: W e um


subespaco de C (R, R) (exerccio!).
O objetivo desta secao e demonstrar que W e um subespaco ve-
torial de dimensao k. Para isto, vamos precisar do seguinte teorema,
cuja demonstracao pode ser encontrada em [14].

i i

i i
aal
i i
2017/2/2
page 20
i i

20 [CAP. 1: ESPAC
OS VETORIAIS

Teorema 1.3 (Exist encia e Unicidade) Existe uma u nica


ao y : R R para o problema de valor inicial
soluc
 (k)
y (x) + ak1 y (k1) (x) + + a1 y  (x) + a0 y(x) = 0,
y(0) = c0 , y  (0) = c1 , ..., y (k1) (0) = ck1 .

Teorema 1.4 O subespaco W das solucoes da equacao diferen-


cial linear homogenea de ordem k com coecientes constantes

y (k) + ak1 y (k1) + + a1 y  + a0 y = 0.

tem dimens
ao k.

Demonstrac ao: Usando o teorema de existencia e unicidade, sejam,


respectivamente, y1 , y2 , . . . , yk as solucoes dos seguintes problemas
de valor inicial:

y (k) (x) + ak1 y (k1) (x) + + a1 y  (x) + a0 y(x) = 0,
y(0) = 1, y  (0) = 0, . . . , y (k1) (0) = 0,

y (k) (x) + ak1 y (k1) (x) + + a1 y  (x) + a0 y(x) = 0,
y(0) = 0, y  (0) = 1, . . . , y (k1) (0) = 0,
..
.

y (k) (x) + ak1 y (k1) (x) + + a1 y  (x) + a0 y(x) = 0,
y(0) = 0, y  (0) = 1, . . . , y (k1) (0) = 1.

Vamos mostrar que B = {y1 , . . . , yk } e uma base de W e, desse modo,


teremos estabelecido que a dimensao de W e k. Para mostrar que
B = {y1 , . . . , yk } e uma base de W , vamos mostrar que B gera W e
que B e LI.
Seja z W . Armamos que

z = z(0)y1 + z  (0)y2 + + z (k1) (0)yk

i i

i i
aal
i i
2017/2/2
page 21
i i

[SEC. 1.8: APLICAC


AO: EDOS 21

(de modo que B gera W ). De fato: note que a funcao f denida por
f = z(0)y1 + z  (0)y2 + + z (k1) (0)yk
tambem satisfaz o problema de valor inicial:

y (k) (x) + ak1 y (k1) (x) + + a1 y  (x) + a0 y(x) = 0,
y(0) = z(0), y  (0) = z  (0), . . . , y (k1) (0) = z (k1) (0).

Note tambem que a pr opria funcao z satisfaz o mesmo problema de


valor inicial:

y (k) (x) + ak1 y (k1) (x) + + a1 y  (x) + a0 y(x) = 0,
y(0) = z(0), y  (0) = z  (0), . . . , y (k1) (0) = z (k1) (0).

Pelo Teorema de Existencia e Unicidade, segue-se que


z = f = z(0)y1 + z  (0)y2 + + z (k1) (0)yk .
Sejam 1 , . . . , k escalares tais que 1 y1 + 2 y2 + k yk = 0.
Sendo assim,
1 y1 + 2 y2 + k yk = 0,
1 y1 + 2 y2 + k yk = 0,
..
.
(k1) (k1) (k1)
1 y1 + 2 y2 + k yk = 0.
Agora
1 y1 + 2 y2 + k yk = 0 1 y1 (0) + 2 y2 (0) + k yk (0) = 0 1 = 0,
1 y1 + 2 y2 + k yk = 0 1 y1 (0) + 2 y2 (0) + k yk (0) = 0 2 = 0,
..
.
(k1) (k1) (k1)
1 y1 + 2 y2 + k yk =0

(k1) (k1) (k1)
1 y1 (0) + 2 y2 (0) + k yk (0) = 0

k = 0.

i i

i i
aal
i i
2017/2/2
page 22
i i

22 [CAP. 1: ESPAC
OS VETORIAIS

Isto demonstra que B = {y1 , y2 , . . . , yk } e LI.

1.9 Exerccios

[01] Sejam V = {(a, b) R2 | a > 0 e b > 0} e K = R. Dena as


operacoes

: V V V
((a, b), (c, d))  (a, b) (c, d) = (a c, b d)
e
: KV V
(, (a, b))   (a, b) = (a , b ).

(a) Mostre que e  estao bem denidas, isto e, que se K


e (a, b), (c, d) V , entao (a, b) (c, d) V e  (a, b) V .
(b) Mostre que (V, K, , ) e um espaco vetorial.

[02] Demonstre as propriedades abaixo.

(1) O vetor nulo e u


nico.
(2) O inverso aditivo e u
nico.
(3) Se u + w = v + w, entao u = v.
(4) 0 v = 0 e 0 = 0.
(5) Se = 0 e v = 0, ent
ao v = 0.
(6) (1) v = v.
(7) 0 = 0.
(8) (v) = v.

[03] Sejam V = R2 e K = R. Dena as operacoes : V V V e


 : KV V por (x1 , y1 )(x2 , y2 ) = (x1 +x2 +1, y1 +y2 +1) e
 (x, y) = ( x, y). (V, K, , ) e um espaco vetorial? Em
caso negativo, quais condicoes da denicao de espaco vetorial
s
ao violadas?

i i

i i
aal
i i
2017/2/2
page 23
i i

[SEC. 1.9: EXERCICIOS 23

[04] Os conjuntos W1 = {A Mnn (K) | det(A) = 0} e W2 =


{A Mnn (K) | det(A) = 0} sao subespacos vetoriais de V =
Mnn (K)? Justique a sua resposta!

[05] Os conjuntos W1 = {A Mnn (K) | tr(A) = 0} e W2 =


{A Mnn (K) | tr(A) = 0} sao subespacos vetoriais de V =
Mnn (K)? Justique a sua resposta! Lembre-se que se A =
(aij ), com 1 i, j n, entao
n

tr(A) = a11 + a22 + + ann = aii .
i=1

[06] (a) Mostre que o conjunto C([a, b], R) de todas as funcoes


f : [a, b] R contnuas e um espaco vetorial sobre K = R.
(b) O conjunto W = {f C([a, b], R) | f (a) = f (b)} e um su-
bespaco vetorial de C([a, b], R)? Justique a sua resposta!

[07] (a) Mostre que o conjunto C (R, R) de todas as funcoes f : R


R innitamente derivaveis e um espaco vetorial sobre K =
R.
(b) O conjunto W = {f C (R, R) | f  2f  + f = 0} e um
subespaco vetorial de C (R, R)? Justique a sua resposta!

[08] Dada uma matriz M Mnn (K), seja W o conjunto de todas


as matrizes em Mnn (K) que comutam com M :

W = {A Mnn (K) | AM = M A}.

O conjunto W e um subespaco vetorial de Mnn (K)? Justi-


que a sua resposta!

[09] Mostre que se W1 e W2 sao subespacos de V , entao, W1 + W2


tambem e subespaco de V .

[10] Se W e um subespaco vetorial de V , o que e W + W ?

[11] Sejam, W , W1 e W2 subespacos de um espaco vetorial V . De-


monstre ou de um contraexemplo: se W1 + W = W2 + W , entao
W1 = W2 .

i i

i i
aal
i i
2017/2/2
page 24
i i

24 [CAP. 1: ESPAC
OS VETORIAIS

[12] Sejam W , W1 e W2 subespacos de V , com W1 W e W2 W .


Mostre que as duas armacoes a seguir s
ao equivalentes.

(a) W = W1 W2 .
(b) Todo vetor w W se escreve de maneira u nica como
soma w = w1 + w2 , onde w1 W1 e w2 W2 .

[13] (a) Sejam


W1 = {A Mnn (K) | A = AT }
e
W2 = {A Mnn (K) | A = AT }.
Mostre que Mnn (K) = W1 W2 .
(b) Sejam
W1 = {f F (R, R) | f e par}
e
W2 = {f F (R, R) | f e mpar}.
Mostre que F (R, R) = W1 W2 .

[14] Sejam W1 e W2 subespacos vetoriais de V . Mostre que W1 W2


e um subespaco vetorial de V se, e somente se, W1 W2 ou
W2 W1 .

[15] Se B um subconjunto de um espaco vetorial V .

(a) Mostre que [B] e um subespaco vetorial de V .


(b) Mostre que [B] e a intersecao de todos os subespacos veto-
riais de V que contem o conjunto B. Mais precisamente,
mostre que 
[B] = W.
W B
W co de V
e subespa

[16] Mostre que um subconjunto B de um espaco vetorial V e LI se,


e somente se, cada subconjunto nito de B e LI.

[17] Se os vetores v1 , . . . , vk sao LI, prove que o mesmo se da com


os vetores v1 , v2 v1 , . . . , vk v1 . Vale a recproca?

i i

i i
aal
i i
2017/2/2
page 25
i i

[SEC. 1.9: EXERCICIOS 25

[18] Ache uma base de Mmn (C) como espaco vetorial sobre K =
C. Quantos elementos tem esta base? E se considerarmos
Mmn (C) como espaco vetorial sobre R?
[19] Prove que {1, ex , e2 x , e3 x , e4 x } e um subconjunto linearmente
independente de C (R, R).
[20] Encontre uma base para o espaco vetorial

5x + y + 2z 3w = 0,

W = (x, y, w) R4 6 x + y 3 z + 2 w = 0,
3 x + y + 12 z + 2 w
= 0.

[21] Encontre um contraexemplo para a seguinte armacao: se B =


{v1 , v2 , v3 , v4 } e uma base para (R4 , R, +, ) e W e subespaco
vetorial de R4 , entao algum subconjunto de B e uma base de W .
[22] Dado o conjunto nito X = {p1 , . . . , pk }, obtenha uma base
para o espaco vetorial F (X, R).
[23] (a) Encontre uma base para o espaco vetorial das matrizes reais
simetricas:

W1 = {A Mnn (R) | A = AT }.

(b) Encontre uma base para o espaco vetorial das matrizes anti-
simetricas:

W2 = {A Mnn (K) | A = AT }.

[24] Mostre que se V = W1 W2 , entao dimK (V ) = dimK (W1 ) +


dimK (W2 ).
[25] Seja V um espaco vetorial e sejam W1 , W2 dois subespacos
vetoriais de V , ambos de dimensao nita. Mostre que

dimK (W1 + W2 ) = dimK (W1 ) + dimK (W2 ) dimK (W1 W2 ).

[26] Sejam W1 e W2 subespacos de dimens


ao 3 de um espaco vetorial
de dimensao 5. Mostre que W1 W2 = {0}.

i i

i i
aal
i i
2017/2/2
page 26
i i

26 [CAP. 1: ESPAC
OS VETORIAIS

[27] Sejam x0 < x1 < x2 < < xn n


umeros reais. Dena os n + 1
polin
omios de grau n:
n

(x xk )
k=0
k=i
pi (x) = n

(xi xk )
k=0
k=i

(x x0 ) (x xi1 ) (x xi+1 ) (x xn )
= ,
(xi x0 ) (xi xi1 ) (xi xi+1 ) (xi xn )
para i = 0, . . . , n. Suponha que n = 3, x0 = 1, x1 = 2, x2 = 3
e x3 = 4.
(a) Calcule p0 (x), p1 (x), p2 (x) e p3 (x).
(b) Mostre que {p0 , p1 , p2 , p3 } forma uma base para o espaco
vetorial V = P3 (R) das funcoes polinomiais reais de grau
menor do que ou igual a 3. Dica:

0, se i = j,
pi (xj ) = ij =
1, se i = j.

(c) Calcule as coordenadas de q(x) = 2 + 3 x + 4 x2 + 5 x3 nesta


base.
(d) Mostre que o item (b) vale para um n 1 qualquer e
conclua que
n

(x xk )
n
 n
 k=0
k=i
p(x) = yi pi (x) = yi n

i=0 i=0
(xi xk )
k=0
k=i

e uma expressao para o polinomio de Lagrange que in-


terpola os pontos (x0 , y0 ), . . . , (xn , yn ), isto e, o u
nico po-
linomio p de grau n tal que p(xi ) = yi para todo i =
0, . . . , n.

i i

i i
aal
i i
2017/2/2
page 27
i i

Captulo 2

Revis
ao:
Transforma
c
oes
Lineares

2.1 Transformac
oes Lineares

Deni cao 2.1 (Transformac a o Linear) Sejam U e V


espacos vetoriais sobre K. Uma funcao T : U V e uma trans-
formac
ao linear se
(1) u1 , u2 U, T(u1 + v2 ) = T(u1 ) + T(u2 ).
(2) K, u U, T( u) = T(u).

Proposi ao 2.1 Sejam U e V espacos vetoriais sobre K e


c
T : U V uma transformacao linear.
(1) T(0U ) = 0V .
(2) T(u) = T(u).

27

i i

i i
aal
i i
2017/2/2
page 28
i i

28
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES

(3) 1 , . . . , k K, u1 , . . . , uk U ,
 k  k
 
T i ui = i T(ui ).
i=1 i=1

Demonstrac ao: Vamos demonstrar a propriedade (1). As demons-


tracoes das demais propriedades cam como exerccio. Temos que
T(0U ) = T(0 0U ) = 0 T(0U ) = 0V .

Exemplo 2.1 S
ao exemplos de transformacoes lineares:

(1) T: U V (funcao nula).


u  T(u) = 0V

(2) Id : U U (funcao identidade em U ).


u  T(u) = u

(3) T : Mn1 (K)


M (K)
m1
x1 y1 a11 a1n x1
.. .. .. .. .. .. .
.  . = . . . .
xn ym am1 amn xn

(4) T : C (R, R) C (R, R) (derivada).


f  T (f ) = f 

(5) T : C([a, b], R) R (integral).


 b
f  T (f ) = f (x) dx
a

Exemplo 2.2 Rotacoes no plano em torno da origem s ao trans-


oes lineares (Figura 2.1 (a)): R (u + v) = R (u) + R (v)
formac
(Figura 2.1 (b)) e R ( v) = R (u) (Figura 2.1 (c)).

i i

i i
aal
i i
2017/2/2
page 29
i i

[SEC. 2.1: TRANSFORMAC


OES LINEARES 29

(a)

(b)

(c)

Figura 2.1: Rotac


oes no plano em torno da origem s
ao trans-
formac
oes lineares.

i i

i i
aal
i i
2017/2/2
page 30
i i

30
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES

Teorema 2.1 Seja B = {u1 , . . . , un } base de U . Se


{v1 , . . . , vn } V (nao necessariamente uma base de V ), entao
existe uma u nica transformacao linear T : U V tal que

T(u1 ) = v1 , ..., T(un ) = vn .

Demonstraca
o:
(Existencia) Seja u U .  Como B e base de U , existem u
nicos 1 ,
. . . , n K tais que u = ni=1 i ui . Dena T(u) = ni=1 i vi .
T e linear e T(ui ) = vi , i = 1, . . . , n (exerccio!).
(Unicidade) Considere agora S : U V outra transformacao linear
tal que S(ui ) = vi , i = 1, . . . , n. Ent
ao u U ,
 n  n n
  
S(u) = S i ui = i S(ui ) = i vi
i=1 i=1 i=1
n
 n 
 
= i T(ui ) = T i ui = T(u).
i=1 i=1

Exemplo 2.3 Seja T : R2 R2 uma transformacao linear tal que


T(1, 0) = (1, 2) e T(0, 1) = (3, 4). Entao
T(2, 3) = T(2 (1, 0) + 3 (0, 1)) = 2 T(1, 0) + 3 T(0, 1)
= 2 (1, 2) + 3 (3, 4) = (11, 16).

Exemplo 2.4 Seja R : R2 R2 a rotacao, em torno da origem, de


um angulo . Como calcular R (x, y)? Pelo teorema anterior, basta
calcular R (1, 0) e R (0, 1). Pela Figura 2.2, vemos que
R (1, 0) = (+ cos(), + sen()), R (0, 1) = ( sen(), + cos()).
Logo,
 
R (x, y) = R x (1, 0) + y (0, 1) = x R (1, 0) + y R (0, 1)
   
= x + cos(), + sen() + y sen(), + cos()
 
= cos() x sen() y, sen() x + cos() y .

i i

i i
aal
i i
2017/2/2
page 31
i i

[SEC. 2.1: TRANSFORMAC


OES LINEARES 31

Figura 2.2: Para calcular R (x, y), basta saber R (1, 0) e R (0, 1).

Matricialmente,
 !  
x cos() sen() x
R = .
y sen() cos() y

Teorema 2.2 Sejam U e V espacos vetoriais sobre K. Entao


(1) Se S : U V e T : U V sao duas transformacoes lineares,
entao S + T : U V tambem e uma transformacao linear.
(2) Se K e T : U V e uma transformacao linear, ent
ao
T : U V tambem e uma transformacao linear.
(3) Corolario: L (U, V ) = {T : U V | T e linear} e um
espaco vetorial.

Demonstrac
ao: Exerccio.

Teorema 2.3 Sejam U , V e W espacos vetoriais sobre K.

i i

i i
aal
i i
2017/2/2
page 32
i i

32
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES

(1) Se T : U V e S : V W sao transformacoes lineares,


entao S T : U W tambem e uma transformacao linear.
Em outras palavras, composicao de transformacoes lineares
tambem e uma transformacao linear.
(2) Se T : U V e uma transformacao linear inversvel, entao
sua inversa T1 : V U tambem e uma transformacao
linear.

Demonstrac
ao: Exerccio.

2.2 N
ucleo e Imagem

Deni ao 2.2 (Nu


c cleo e Imagem) Seja T : U V uma
transformac
ao linear.
(1) O n
ucleo de T e o conjunto

Ker(T) = {u U | T(u) = 0}.

(2) A imagem de T e o conjunto

Im(T) = {v V | u U com T(u) = v}.

Proposi c
ao 2.2 Ker(T) e subespaco vetorial de U e Im(T) e
subespaco vetorial de V .

Demonstrac
ao: Exerccio.

Lema 2.1 Seja T : U V uma transformacao linear. Se


B = {u1 , . . . , un } e uma base de U , entao {T(u1 ), . . . , T(un )}
gera Im(T).

i i

i i
aal
i i
2017/2/2
page 33
i i


[SEC. 2.2: NUCLEO E IMAGEM 33

ao: Seja v = T(u) Im(T). Como B e base de U ,


Demonstrac
u = 1 u1 + + n un .
Ent
ao:
v = T(u) = T(1 u1 + + n un ) = 1 T(u1 ) + + n T(un ).
Assim, v [T(u1 ), . . . , T(un )].

Teorema 2.4 (do nu cleo e da imagem) Seja T : U V


uma transformacao linear entre espacos vetoriais de dimensao
nita. Entao

dimK (U ) = dimK (Ker(T)) + dimK (Im(T)).

ao: Suponha Ker(T) = {0} e seja {u1 , . . . , uk } base


Demonstrac
de Ker(T). Se k = dimK (U ), o resultado e imediato. Se k < dimK (U ),
complete {u1 , . . . , uk } para obter uma base de U :
1 , . . . , u
{u1 , . . . , uk , u  nk }.
Temos que {T(
u1 ), . . . , T(
unk )} gera Im(T) pois, pelo lema,
[T(u1 ), . . . , T(uk ), T(
u1 ), . . . , T(
unk )] = [T(
u1 ), . . . , T(
unk )]
= Im(T).
Agora, {T(
u1 ), . . . , T(
unk )} e LI. De fato:
1 T(
u1 ) + +
nk T(
unk ) = 0

1 + +
1 u
T(  nk ) = 0
nk u

1 u
1 + + nk u nk Ker(T)

1 + +
1 u
nk u  nk = 1 u1 + + k uk

1 u1 k uk + 1 + +
1 u  nk = 0
nk u

i i

i i
aal
i i
2017/2/2
page 34
i i

34
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES


1 = 0, . . . , k = 0, 1 = 0, . . . ,
nk = 0.
Logo dimK (Im(T)) = nk, o que estabelece o resultado. O caso Ker(T) =
{0} e an
alogo e car
a como exerccio.

2.3 Isomorfismos

Deni ao 2.3 (Isomorfismo) Dizemos que uma trans-


c
formacao linear T : U V e um isomorsmo se T e inversvel,
isto e, se existe T1 : V U tal que

T T1 = IdV e T1 T = IdU .

Lembramos que T : U V e inversvel se, e somente se, T e


bijetiva, isto e, T e injetiva e sobrejetiva.

Exemplo 2.5 Se A e uma matriz inversvel, entao

T : Mn1 (K)
M (K)
n1
x1 y1 a11 a1n x1
.. .. .. .. .. ..
.  . = . . . .
xn yn an1 ann xn
" #$ %
A
e um isomorsmo.

Proposiao 2.3 Seja T : U V uma transformacao linear.


c
Ent
ao
T e injetiva Ker(T) = {0}.

Demonstrac
ao: Exerccio.

i i

i i
aal
i i
2017/2/2
page 35
i i

[SEC. 2.4: A MATRIZ DE UMA TRANSFORMAC LINEAR


AO 35

Proposi ao 2.4 Seja T : U V uma transformacao linear en-


c
tre espacos de dimens
ao nita, com dimK (U ) = dimK (V ). Entao

T e injetiva T e sobrejetiva
T e um isomorsmo.

Demonstrac
ao: Exerccio.

Teorema 2.5 Sejam U e V espacos vetoriais de dimensao -


nita. Se dimK (U ) = dimK (V ), entao U e V sao isomorfos. Em
particular, todo espaco vetorial de dimensao n e isomorfo a Kn .

Demonstraca o: Se B = {u1 , . . . , un } e base de U e C = {v1 , . . . , vn },


entao a aplicacao denida por

T(u) = T(1 u1 + + n un ) = 1 v1 + + n vn

e um isomorsmo entre U e V .

2.4 A Matriz de Uma Transformac


ao Li-
near

Deni cao 2.4 (Coordenadas) Seja B = {v1 , . . . , vn } uma


base de V . Fixando-se a ordem dos elementos desta base, pela
proposicao anterior, cada elemento v de V ca determinado de
maneira unvoca pelos coecientes 1 , . . . , n da combinacao
linear
v = 1 v1 + + n vn .
A n-upla ordenada

[v]B = (1 , . . . , n )B

i i

i i
aal
i i
2017/2/2
page 36
i i

36
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES

a denominada coordenadas do vetor v com relacao `a base B.


ser

Deni cao 2.5 (Matriz de uma transformac o linear)


a
Sejam T : U V uma transformacao linear, U = {u1 , . . . , un }
uma base ordenada de U e V = {v1 , . . . , vm } uma base ordenada
de V . Existem escalares aij K, com 1 i m e 1 j n,
tais que

T(u1 ) = a11 v1 + a21 v2 + + am1 vm ,


T(u2 ) = a12 v1 + a22 v2 + + am2 vm ,
..
.
T(un ) = a1n v1 + a2n v2 + + amn vm .

A matriz de T com relac as bases U


ao ` e V e

a11 a12 a1n
& 'V a21 a22 a2n

T U = . .. .. .. .
.. . . .
am1 am2 amn mn

Exemplo 2.6 Seja T : R3 R2 denida por

T(x, y, z) = (x + y, x + z).

Se U = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e V = {(1, 0), (0, 1)} entao

T(1, 0, 0) = (1, 1) = 1 (1, 0) + 1 (0, 1),


T(0, 1, 0) = (1, 0) = 1 (1, 0) + 0 (0, 1),
T(0, 0, 1) = (0, 1) = 0 (1, 0) + 1 (0, 1).

Logo:

& 'V 1 1 0
T U= .
1 0 1

i i

i i
aal
i i
2017/2/2
page 37
i i

[SEC. 2.4: A MATRIZ DE UMA TRANSFORMAC LINEAR


AO 37

Exemplo 2.7 Seja T : R3 R2 denida por


T(x, y, z) = (x + y, x + z).
 = {(1, 0), (1, 1)}, entao
Se U = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e V
T(1, 0, 0) = (1, 1) = 0 (1, 0) + 1 (1, 1),
T(0, 1, 0) = (1, 0) = 1 (1, 0) + 0 (1, 1),
T(0, 0, 1) = (0, 1) = 1 (1, 0) + 1 (1, 1).
Logo: 
& 'V 0 1 1
T U= .
1 0 1

Observa c
ao. Varias denicoes e operacoes com transformacoes li-
neares podem ser traduzidas em termos matriciais. A tabela abaixo
exibe algumas destas relacoes.

Transformac
ao Matriz
& 'V
T T U
& 'V & '
T(u) T U u U

& 'V & 'V


S+T S U + T U

& 'W & 'V


ST S V T U
(& 'V )1
T1 T U

& 'V & ' & '


u Ker(T) T U u U = 0

& 'V & '


v Im(T) O sistema T U x = v V tem solucao.

Teorema 2.6 (mudanc a de base) Sejam U e U bases de U e



sejam V e V bases de V . Ent
ao

i i

i i
aal
i i
2017/2/2
page 38
i i

38
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES

& 'V & 'V & 'V & 'U


T 
U
= IdV V T U IdU U .
Se U = V , ent
ao
& 'U (& 'U )1 & 'U & 'U
T 
U
= IdV 
U
T U IdU U .

2.5 Posto

Deni cao 2.6 (Posto) Seja T : U V uma transformacao


linear entre espacos vetoriais de dimensao nita. O posto de T
e a dimensao da imagem de T: rank(T) = dimK (Im(T)).

& 'V
Observa c
ao. rank(T) = n aximo de colunas LI de T U .
umero m
De fato:
v Im(T)

& 'V & '
O sistema T U x = v V tem solucao.

V
a11 a1n x1
..
O sistema . .. .. .. = &v'
. . . V
am1 amn U xn
tem solucao.


a11 a1n
& '
O sistema x1 ... + + xn ... = v V
am1 amn
tem solucao.

i i

i i
aal
i i
2017/2/2
page 39
i i

[SEC. 2.5: POSTO 39


& '
v V
pertence ao espaco gerado pelas colunas


a11 a1n
.. .
. , . . . , .. .



am1 amn

Deni ao 2.7 (Posto segundo colunas e segundo li-


c
nhas)
(1) O posto segundo colunas de uma matriz A Mmn (K) e o
n
umero m aximo de colunas linearmente independentes.
(2) O posto segundo linhas de uma matriz A Mmn (K) e o
n
umero m aximo de linhas linearmente independentes.

Teorema 2.7 Para toda matriz A Mmn (K), o posto se-


gundo linhas e o posto segundo colunas sao iguais.

Demonstraca o: Sejam A uma matriz com posto segundo colunas


igual a r, C(A) o espaco gerado pelas colunas de A e R(A) o espaco
gerado pelas colunas de A. Como dimK (C(A)) = r, existem colunas
b1 , . . . , br de A que formam uma base para C(A). Seja B a matriz
m r denida por [b1 , . . . , br ]. Como toda coluna de A e uma
combinac ao linear de b1 , . . . , br , podemos escrever que
A=BC
para algumas matriz Crn . Ent ao AT = CT BT . Sendo assim,
T
as linhas de A (colunas de A ) sao combinacoes lineares das linhas
de C (colunas de CT ). Portanto, R(A) R(C). Assim,
dimK (R(A)) dimK (R(C)) r = dimK (C(A)).
Trocando-se A por AT acima, segue-se que dimK (C(A)) dimK (R(A)).
Logo dimK (C(A)) = dimK (R(A)).

i i

i i
aal
i i
2017/2/2
page 40
i i

40
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES

2.6 Exerccios
[01] Mostre que cada uma das transformacoes abaixo e linear.
(a) T : R3 R dada por T(x, y, z) = x + 2 y + z.
(b) T : P(R) P(R) dada por (T(p))(x) = x2 p (x).
(c) T : M22 (R)  M22 (R) dada por T(X) = M X XM ,
onde 
1 2
M=
0 1
[02] (Rota co
es) No texto deste captulo calculamos a formula para
a rotac
ao de (x, y) em torno da origem (0, 0) por um angulo :
 
R (x, y) = cos() x sen() y, sen() x + cos() y .
Calcule agora a f ormula para a rotacao de (x, y) em torno
de (a, b) por um angulo .
[03] (Cisalhamentos) Um cisalhamento em R2 e uma aplicacao
T : R2 R2 da forma
T(x, y) = (x, p x + y),
onde p e uma constante.
(a) Mostre que T e uma transformacao linear.
(b) Desenhe a imagem por T do quadrado [0, 1] [0, 1].
[04] Mostre que L (U, V ) = {T : U V | T e linear} e um espaco
vetorial.
[05] (a) Mostre que as seguintes transformacoes lineares
T11 : R2 R2
,
(x1 , x2 )  T11 (x1 , x2 ) = (x1 , 0)

T12 : R2 R2
,
(x1 , x2 )  T12 (x1 , x2 ) = (0, x1 )

T21 : R2 R2
,
(x1 , x2 )  T21 (x1 , x2 ) = (x2 , 0)

i i

i i
aal
i i
2017/2/2
page 41
i i

[SEC. 2.6: EXERCICIOS 41

T22 : R2 R2
(x1 , x2 )  T22 (x1 , x2 ) = (0, x2 )

formam uma base para L (R2 , R2 ). Conclua que


dimR (L (R2 , R2 )) = 4.

(b) Mais geralmente, mostre que as seguintes transformacoes


lineares de Rn para Rm


T 1 1 (x1 , x2 , . . . , xn ) = (x1 , 0, . . . , 0),

T 1 2 (x1 , x2 , . . . , xn ) = (0, x1 , . . . , 0),
..

.


T 1m (x1 , x2 , . . . , xn ) = (0, 0, . . . , x1 ),


T 2 1 (x1 , x2 , . . . , xn ) = (x2 , 0, . . . , 0),

T 2 2 (x1 , x2 , . . . , xn ) = (0, x2 , . . . , 0),
..

.


T 2m (x1 , x2 , . . . , xn ) = (0, 0, . . . , x2 ),
..
.



Tn 1 (x1 , x2 , . . . , xn ) = (xn , 0, . . . , 0),

Tn 2 (x1 , x2 , . . . , xn ) = (0, xn , . . . , 0),
..

.


Tnm (x1 , x2 , . . . , xn ) = (0, 0, . . . , xn )
formam uma base para L (Rn , Rm ). Conclua que
dimR (L (Rn , Rm )) = n m.

[06] Mostre que a composicao de transformacoes lineares e ainda


uma transformacao linear.
[07] Mostre que uma funcao T : Rn R e uma transformacao linear
se, e somente se, existem a1 , . . . , an R tais que
n

T (x1 , . . . , xn ) = ai xi .
i=1

i i

i i
aal
i i
2017/2/2
page 42
i i

42
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES

[08] Seja T : U V uma transformacao linear. Diga se cada uma


das sentencas abaixo e verdadeira ou falsa. Caso ela seja verda-
deira, apresente uma demonstracao e, caso ela seja falsa, apre-
sente um contra-exemplo.

(a) Se u U e tal que T(u) = 0, entao u = 0.


(b) Se T(u) = T(u1 ) + T(u2 ), entao u = u1 + u2 .
(c) Se u e combinacao linear de u1 , . . . , uk , entao T(u) e com-
ao linear de T(u1 ), . . . , T(uk ).
binac
(d) Se {T(u1 ), . . . , T(uk )} e LI em V , entao {u1 , . . . , uk } e LI
em U .
(e) Se {u1 , . . . , uk } e LI em U , ent
ao {T(u1 ), . . . , T(uk )} e LI
em V .
( f ) Se [T(u1 ), . . . , T(uk )] = V , entao [u1 , . . . , uk ] = U .
(g) Se [u1 , . . . , uk ] = U , entao [T(u1 ), . . . , T(uk )] = V .
(h) Se U = V e [T(u1 ), . . . , T(uk )] = U , entao [u1 , . . . , uk ] =
U.
( i ) Se U = V e [u1 , . . . , uk ] = U , entao [T(u1 ), . . . , T(uk )] =
U.

[09] Mostre que se T : U V e uma transformacao linear inversvel,


entao sua inversa T1 : V U tambem e uma transformacao
linear.

[10] (a) Mostre que T : R R denido por T(x1 , x2 , . . .) =


(0, x1 , x2 , x3 , . . .) e uma transformacao linear injetiva, mas
n
ao sobrejetiva.
(b) Mostre que S : R R denido por S(x1 , x2 , . . .) =
(x2 , x3 , x4 , . . .) e uma transformacao linear sobrejetiva, mas
n
ao injetiva.

[11] Diga se cada uma das sentencas abaixo e verdadeira ou falsa.


Caso ela seja verdadeira, apresente uma demonstracao e, caso
ela seja falsa, apresente um contra-exemplo.

(a) Se T : Rn Rm e injetiva, ent


ao dimR (Im(T)) = n.

i i

i i
aal
i i
2017/2/2
page 43
i i

[SEC. 2.6: EXERCICIOS 43

(b) Se T : Rn Rm e sobrejetiva, entao dimR (Ker(T)) = n


m.
(c) Se S, T L (Rn , Rn ), com dimR (Im(S)) = dimR (Im(T)),
entao

dimR (Im(S T)) = dimR (Im(T S)) = dimR (Im(S)).

[12] Sejam S, T L (U, U ). Diga se cada uma das sentencas abaixo


e verdadeira ou falsa. Caso ela seja verdadeira, apresente uma
demonstracao e, caso ela seja falsa, apresente um contra-exemplo.
(a) Se S T e inversvel, entao S e T sao inversveis.
(b) Se S T e inversvel e dimK (U ) < , entao S e T sao
inversveis.
[13] Sejam T : U V e S : V W transformacoes lineares. Diga
se cada uma das sentencas abaixo e verdadeira ou falsa. Caso
ela seja verdadeira, apresente uma demonstracao e, caso ela seja
falsa, apresente um contra-exemplo.
(a) Se S T e sobrejetiva, entao S e sobrejetiva.
(b) Se S T e sobrejetiva, entao T e sobrejetiva.
(c) Se S T e injetiva, ent
ao S e injetiva.
(d) Se S T e injetiva, ent
ao T e injetiva.
Mostre ainda que, se U = V = W e U tem dimens ao nita,
entao estas quatro sentencas s
ao verdadeiras.
[14] Calcule (S1 T S)1000 .
[15] Seja T : R2 R2 o operador linear cuja matriz na base can
onica C =
{(1, 0), (0, 1)} e 
8 2
A= .
12 2
(a) Calcule a matriz B de T na base

C = {(1, 3), (2, 4)}.

(b) Calcule uma matriz P tal que A = P1 B P.

i i

i i
aal
i i
2017/2/2
page 44
i i

44
[CAP. 2: REVISAO: TRANSFORMAC
OES LINEARES

(c) Calcule An , onde n e um n


umero natural positivo.
[16] Seja T : V V um operador linear denido em um espaco
vetorial bidimensional V . Se a matriz de T com relacao a uma
base V de V e 
& 'V a b
T V= ,
c d
mostre que

T2 (a + d) T + (a d b c) IdV = 0.

[17] Seja A uma matriz real com 64 linhas e 17 colunas. Se o


posto de A e 11, quantos vetores independentes satisfazem a
equacao A x = 0? E quantos vetores independentes satisfa-
zem AT y = 0?

[18] Sejam A e B matrizes tais que o produto AB esta denido.


Mostre que

rank(AB) min{rank(A), rank(B)}.

[19] Seja A uma matriz mn de posto r, r = 0. Mostre que existem


matrizes B e C de ordens m r e r n, respectivamente, tais
que rank(B) = rank(C) = r e A = BC. Esta decomposicao e
denominada rank factorization da matriz A.
[20] Sejam A e B matrizes m n. Mostre que rank(A + B)
rank(A) + rank(B).

i i

i i
aal
i i
2017/2/2
page 45
i i

Captulo 3

Sistemas Lineares e
A Decomposi c
ao LU

3.1 Cisalhamentos

Deni ao 3.1 (Cisalhamentos no Plano) Um cisalha-


c
mento horizontal (isto e, na direcao do eixo x) de raz
ao p no
plano e uma transformacao linear T : R2 R2 da forma

T(x, y) = (x + p y, y).

Em termos matriciais,
  !  

x x 1 p x
=T = .
y y 0 1 y

Um cisalhamento vertical (isto e, na direcao do eixo y) de raz


ao p
no plano e uma transformacao linear T : R2 R2 da forma

T(x, y) = (x, p x + y).

Em termos matriciais,

45

i i

i i
aal
i i
2017/2/2
page 46
i i

46 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

  !  

x x 1 0 x
=T = .
y y p 1 y

Cisalhamentos horizontais transformam quadrados em paralelo-


gramos de mesma altura, mantendo as medidas dos lados horizontais
do quadrado. Por exemplo, o cisalhamento horizontal de raz ao 1
transforma o quadrado de vertices
(0, 0), (2, 0), (2, 2) e (0, 2)
no paralelogramo de vertices
(0, 0), (0, 2), (4, 2) e (2, 2)
(veja a Figura 3.1).

Figura 3.1: A imagem de um quadrado por um cisalhamento hori-


zontal de razao 1.

Cisalhamentos verticais tambem transformam quadrados em pa-


ralelogramos de mesma altura mas, agora, eles mantem as medidas
dos lados verticais do quadrado. Por exemplo, o cisalhamento vertical
de razao 1 transforma o quadrado de vertices
(0, 0), (2, 0), (2, 2) e (0, 2)

i i

i i
aal
i i
2017/2/2
page 47
i i

[SEC. 3.1: CISALHAMENTOS 47

no paralelogramo de vertices

(0, 0), (2, 2), (2, 4) e (0, 2)

(veja a Figura 3.2).

Figura 3.2: A imagem de um quadrado por um cisalhamento vertical


de raz
ao 1.

Teorema 3.1
(a) Um cisalhamento vertical de raz ao p no plano e uma trans-
formac
ao linear inversvel e sua inversa e um cisalhamento
vertical de razao p.
(b) Um cisalhamento horizontal de raz ao p no plano e uma
transformac
ao linear inversvel e sua inversa e um cisalha-
mento horizontal de razao p.

Demonstrac
ao: Na base canonica, a matriz associada a um cisalha-
mento vertical de raz
ao p e dada por

1 0
A= .
p 1

i i

i i
aal
i i
2017/2/2
page 48
i i

48 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Esta matriz e inversvel e sua inversa e dada por



1 0
B= ,
p 1

pois AB = I. Note que B e a matriz associada a um cisalhamento


vertical de razao p. Isto demonstra o item (a). A demonstracao do
item (b) ca como exerccio.

Como veremos mais adiante, o metodo de eliminacao gaussiana


e a decomposic
ao LU est
ao fortemente relacionados com cisalhamen-
tos verticais. No caso de sistemas lineares com mais do que duas
vari
aveis, vamos precisar de cisalhamentos verticais que agem em
cada plano coordenado. Por exemplo, em R3 , vamos precisar das
matrizes

1 0 0
Exy = p 1 0 ,
0 0 1

1 0 0
Exz = 0 1 0 ,
p 0 1

1 0 0
Eyz = 0 1 0 .
0 p 1

A matriz Exy dene um cisalhamento na direcao do eixo y no plano xy


(a componente na direcao do eixo z permanece inalterada). Por sua
vez, a matriz Exz dene um cisalhamento na direcao do eixo z no
plano xz (a componente na direcao do eixo y permanece inalterada).
Por m, a matriz Eyz dene um cisalhamento na direcao do eixo z no
plano yz (a componente na direcao do eixo x permanece inalterada).
Estas matrizes sao inversveis e elas denem cisalhamentos do mesmo
tipo que suas inversas:

1 0 0
E1
xy =
p 1 0 ,
0 0 1

i i

i i
aal
i i
2017/2/2
page 49
i i

[SEC. 3.1: CISALHAMENTOS 49



1 0 0
E1
xz = 0 1 0 ,
p 0 1

1 0 0
E1
yz = 0 1 0 .
0 p 1

Observa c
ao. Tambem chamaremos as matrizes acima de cisalha-
mentos, embora alguns autores, para dimensoes maiores do que 2,
usem o nome cisalhamento para outro tipo de transformacao. Por
exemplo, em R3 , existem tres cisalhamentos:

1 0 0
Cx = p 1 0 ,
p 0 1

1 p 0
Cy = 0 1 0 ,
0 p 1

1 0 p
Cz = 0 1 p ,
0 0 1

nas direcoes dos eixos x, y e z, respectivamente.

Observa cao. No endereco http://www.uff.br/cdme/tl2x2/ o lei-


tor encontrara um aplicativo interativo que permite estudar a geo-
metria das transformacoes lineares do plano no plano. As imagens
das Figuras 3.1 e 3.2 foram geradas com este aplicativo. Sugerimos
as seguintes matrizes para serem usadas com o aplicativo:
(a) rotacao de 90 em torno da origem no sentido anti-hor
ario:

0 1
M= ,
1 0

(b) uma homotetia em relacao `a origem:



2 0
M= ,
0 2

i i

i i
aal
i i
2017/2/2
page 50
i i

50 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

(c) projecao no eixo x:



1 0
M= ,
0 0

(d) projec
ao no eixo y:

0 0
M= ,
0 1

(e) reex
ao com relacao ao eixo x:

1 0
M= ,
0 1

( f ) reex
ao com relacao ao eixo y:

1 0
M= .
0 1

3.2 Motivac
ao: Sistemas Lineares 2 por 2
Vamos apresentar duas interpretacoes geometricas para a solucao
do sistema linear 
2 x y = 1,
x + y = 5,
uma interpretando as linhas e a outra interpretando as colunas do
sistema.
Na interpretac
ao segundo as linhas, cada linha do sistema repre-
senta a equac
ao de uma reta. Resolver o sistema consiste, ent ao, em
determinar o ponto de intersecao destas retas (Figura 3.3 (a)).
Na interpretacao segundo as colunas, os coecientes de x e de y
e os termos independentes do sistema s ao considerados como vetores
no plano:
  
2 1 1
u= , v= , w= .
1 1 5

i i

i i
aal
i i
2017/2/2
page 51
i i

[SEC. 3.2: MOTIVAC


AO: SISTEMAS LINEARES 2 POR 2 51

(a)

(b)

Figura 3.3: Interpretacao geometrica (a) segundo as linhas e (b) se-


gundo as colunas do sistema.

i i

i i
aal
i i
2017/2/2
page 52
i i

52 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Resolver o sistema consiste, ent ao, em determinar os coecientes s


e t de uma combinacao linear de u e v que seja igual ao vetor w:
w = s u + t v (Figura 3.3 (b)).
O metodo classico da eliminacao gaussiana procura resolver o sis-
tema usando operac oes elementares sobre as linhas da matriz aumen-
tada, de forma a deixa-la na forma escalonada:
 
2 1 5 L2 L2 12 L1 2 1 5
.
1 1 5 0 3/2 5/2

ao elementar L2 L2 12 L1 pode ser codicada


Observamos a operac
em termos matriciais:
  
1 0 2 1 5 2 1 5
= .
1/2 1 1 1 5 0 3/2 5/2

Escrevendo
  
1 0 2 1 2 1
E= , A= e U= ,
1/2 1 1 1 0 3/2
segue-se que
EA = U.
Note que E e uma matriz triangular inferior (isto e, todos os elemen-
tos da matriz acima da diagonal principal sao iguais a zero) e que E
dene um cisalhamento vertical (na direcao do eixo y). Note tambem
que a matriz U, por sua vez, e triangular superior (isto e, todos os
elementos da matriz abaixo da diagonal principal sao iguais a zero).
Pelo Teorema 3.1, a matriz E e inversvel e sua inversa L = E1
tambem e um cisalhamento:

1 0
L= .
1/2 1

Assim:

EA = U LEA = LU IA = LU A = LU.

Resumindo: atraves do metodo da eliminacao gaussiana, conseguimos


escrever a matriz A como produto de uma matriz L triangular inferior

i i

i i
aal
i i
2017/2/2
page 53
i i

[SEC. 3.3: MOTIVAC


AO: SISTEMAS LINEARES 3 POR 3 53

com todos os elementos da diagonal principal iguais a 1 por uma


matriz triangular superior U.
O cisalhamento E faz uma troca de vari aveis de tal modo que o ve-
tor u e levado em um vetor que e paralelo ao eixo x (Figura 3.4 (b)).
Neste novo sistema de coordenadas, o sistema linear correspondente
e mais simples de se resolver, pois uma das retas e paralela ao eixo x
(Figura 3.4 (a)).

3.3 Motivac
ao: Sistemas Lineares 3 por 3
Vamos ver mais um exemplo, agora em dimensao 3. Considere
o seguinte sistema linear:

4x2y +2z = 5,
2x+4y = 5,

x+2y +4z = 5.

Na interpretacao segundo as linhas, cada linha do sistema repre-


senta a equacao de um plano. Resolver o sistema consiste, ent
ao, em
determinar o ponto de intersecao destes tres planos.
Na interpretac
ao segundo as colunas, os coecientes de x, de y e
de z e dos termos independentes do sistema sao considerados como
vetores no plano:


4 2 2 5
v1 = 2 , v2 = 4 , v3 = 0 , w = 5 .
1 2 2 5

ao, em determinar os coecientes s1 ,


Resolver o sistema consiste, ent
s2 e s3 de uma combinacao linear de v1 , v2 e v que seja igual ao
vetor w: w = s1 v1 + s2 v2 + s3 v3 .
Vamos agora escalonar a matriz aumentada associado ao sistema
linear:

i i

i i
aal
i i
2017/2/2
page 54
i i

54 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

(a)

(b)

Figura 3.4: Interpretacao geometrica (a) segundo as linhas e (b) se-


gundo as colunas do sistema.

i i

i i
aal
i i
2017/2/2
page 55
i i

[SEC. 3.3: MOTIVAC


AO: SISTEMAS LINEARES 3 POR 3 55

4 2 2 5 L2 L2 12 L1
4 2 2 5
2 4 0 5 0 5 1 5/2

1 2 4 5 1 2 4 5

L3 L3 14 L1
4 2 2 5
0 5 1 5/2

0 5/2 7/2 5/4



L3 L3 12 L2
4 2 2 5
0 5 1 5/2
0 0 4 5/2

Como no caso 2 por 2, as operacoes elementares aplicadas acima


podem ser codicadas em termos matriciais:

1 0 0 1 0 0 1 0 0 4 2 2
0 1 0 0 1 0 1/2 1 0 2 4 0
0 1/2 1 1/4 0 1 0 0 1 1 2 4
" #$ %" #$ %" #$ %" #$ %
E3 E2 E1 A
=


4 2 2
2 5 1 .
0 0 4
" #$ %
U

As matrizes E1 , E2 e E3 sao cisalhamentos, triangulares inferiores,


inversveis e com todos os elementos da diagonais principal iguais a 1.
As inversas de E1 , E2 e E3 sao faceis de se calcular:

1 0 0
E1
1 =
1/2 1 0 ,
0 0 1

1 0 0
E1
2 =
0 1 0 ,
1/4 0 1


1 0 0
E1
3 = 0 1 0 .
0 1/2 1

i i

i i
aal
i i
2017/2/2
page 56
i i

56 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Uma vez que E3 E2 E1 A = U, segue-se que A = LU, onde


1 0 0
L = E1 1 1
1 E2 E3 = 1/2 1 0 .
1/4 1/2 1

importante notar que a ordem em que as operacoes s


E ao efetuadas
e importante para obter a estrutura da matriz L, isto e, triangular
inferior com todos os elementos da diagonal principal iguais a 1. Mais
precisamente, as operacoes elementares sao realizadas na seguinte
ordem:

L1 L1 l21 L2 , L1 L1 l31 L3 e L2 L2 l32 L2 .

As matrizes que codicam estas operacao sao dadas respectivamente


por


1 0 0
E1
1 = l21 1 0 ,
0 0 1

1 0 0
E1
2 = 0 1 0 ,
l31 0 1

1 0 0
E1
3 = 0 1 0 ,
0 l32 1

de forma que E3 E2 E1 A = U e uma matriz triangular superior. As-


sim,

A = E1 E1 E1 U
1 2 3
1 0 0 1 0 0 1 0 0
= l21 1 0 0 1 0 0 1 0 U
0 0 1 l31 0 1 0 l32 1

i i

i i
aal
i i
2017/2/2
page 57
i i

[SEC. 3.4: A DECOMPOSIC LU


AO 57

1 0 0 1 0 0
= l21 1 0 0 1 0 U
0 0 1 l31 l32 1

1 0 0
= l21 1 0 U
l31 l32 1
" #$ %
L
As contas acima tambem mostram quais sao os elementos da ma-
triz L que est
ao abaixo da diagonal principal: estes elementos s ao
justamente os coecientes l21 , l31 e l32 usados nas operacoes elemen-
tares no processo de eliminacao gaussiana.

3.4 A Decomposic
ao LU

Deni ao 3.2 (A Decomposic


c ao LU) Seja A uma ma-
triz n n. Dizemos que as matrizes L e U formam uma decom-
posic
ao LU para a matriz A se:
ao matrizes n n,
(a) L e U s
(b) A = LU,
(c) U e uma matriz triangular superior (isto e, se U = (uij ),
entao uij = 0 para todo i > j),
(d) L e uma matriz triangular inferior com todos os elementos
da diagonal principal iguais a 1 (isto e, se L = (lij ), entao
lij = 0 para todo i < j e lii = 1 para todo i).

Exemplo 3.1 As matrizes


 
1 0 2 1
L= e U=
1/2 1 0 2/3
formam uma decomposicao LU para a matriz

2 1
A= .
1 1

i i

i i
aal
i i
2017/2/2
page 58
i i

58 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Exemplo 3.2 As matrizes



1 0 0 4 2 2
L = 1/2 1 0 e U = 2 5 1
1/4 1/2 1 0 0 4

formam uma decomposicao LU para a matriz



4 2 2
A= 2 4 0 .
1 2 4

Observa c
ao. Nem toda matriz possui uma decomposicao LU. Con-
sidere, por exemplo, a matriz

1 2 3
A = 2 4 7 .
2 5 3

Suponha, por absurdo, que A tenha uma decomposicao LU:



1 2 3 1 0 0 u11 u12 u13
2 4 7 = l21 1 0 0 u22 u23 .
2 5 3 l31 l32 1 0 0 u33

Temos assim que u11 = 1, u12 = 2 e u13 = 3. Logo, l21 = 2 e


2 l21 + u22 = 4 e 3 l21 + u23 = 7, de modo que u22 = 0 e u23 = 1.
Consequentemente, l31 = 3 e 2 l31 + l32 u22 = 5. Mas 2 l31 + l32 u22 =
2 (3) + l32 (0) = 6 que e diferente de 5, uma contradicao.

Observa c
ao. Existem matrizes que nao possuem uma decompo-
sicao LU mesmo se n
ao exigirmos que a matriz L tenha todos os
elementos da diagonal principal iguais a 1. Considere, por exemplo,
a matriz 
0 1
A=
1 1
e suponha, por absurdo, que A possua uma decomposicao da forma:
  
0 1 a 0 x y
= .
1 1 b c 0 z

i i

i i
aal
i i
2017/2/2
page 59
i i

[SEC. 3.4: A DECOMPOSIC LU


AO 59

Segue-se entao que ax = 0, de modo que a = 0 ou x = 0. Mas, se


a = 0, entao
   
0 0 x y 0 0 0 1
= = ,
b c 0 z bx by + cz 1 1
uma contradicao. Por outro lado, se x = 0, entao
   
a 0 0 y 0 ay 0 1
= = ,
b c 0 z 0 by + cz 1 1
tambem uma contradicao.

Proposi
c
ao 3.1
(a) Se L e uma matriz triangular inferior inversvel, entao sua
inversa L1 tambem e triangular inferior.
(b) Se L tem todos os elementos de sua diagonal principal iguais
ao o mesmo ocorre com sua inversa L1 .
a 1, ent

Demonstrac
ao:
(a) Observe inicialmente que se L e uma matriz inversvel, entao
todos os elementos de sua diagonal principal sao diferentes de 0
pois, caso contr ario, o determinante de L (que e igual ao produto
dos elementos da diagonal principal) seria igual a zero e L nao
seria inversvel. Escrevendo

l11 0 0 0
l21 l22 0 0

l31 l32 l33 0
L =
.. .. .. .. ..
. . . . .
ln1 ln2 ln3 lnn
e
a11 a12 a13 a1n
a21 a22 a23 a2n

1 a31 a32 a33 a3n
L = ,
.. .. .. .. ..
. . . . .
an1 an2 an3 ann

i i

i i
aal
i i
2017/2/2
page 60
i i

60 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

temos que

l11 0 0 0 a11 a12 a13 a1n
l21 l22 0 0 a21 a22 a23 a2n

l31 l32 l33 0 a31 a32 a33 a3n

.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
ln1 ln2 ln3 lnn an1 an2 an3 ann
" #$ %" #$ %
L L1

=

1 0 0 0
0 1 0 0

0 0 1 0

.. .. .. .. ..
. . . . .
0 0 0 1
" #$ %
I

Multiplicando-se sucessivamente a primeira linha de L pelas co-


lunas 1, 2, 3, . . . , n de L1 , obtemos as seguintes igualdades:

l11 a11 = 1, l11 a12 = 0, l11 a13 = 0, ..., l11 a1n = 0.

Lembrando que l11 = 0, segue-se que

a11 = 1/l11 , a12 = 0, a13 = 0, ..., a1n = 0.

Multiplicando-se sucessivamente a segunda linha de L pelas colu-


nas 2, 3, 4, . . . , n de L1 e usando que a12 = a13 = = a1n = 0,
obtemos as seguintes igualdades:

l22 a22 = 1, l22 a23 = 0, l22 a24 = 0, ..., l22 a2n = 0.

Lembrando que l22 = 0, segue-se que

a22 = 1/l22 , a23 = 0, a24 = 0, ..., a2n = 0.

Prosseguindo-se com este processo, vemos que todos os elementos


de L1 acima de sua diagonal principal sao iguais a zero e, assim,
L1 e uma matriz triangular inferior.

i i

i i
aal
i i
2017/2/2
page 61
i i

[SEC. 3.4: A DECOMPOSIC LU


AO 61

(b) Note que, em (a), se lii = 1 para todo i = 1, . . . , n, entao aii =


1/lii = 1 para todo i = 1, . . . , n.

Proposi c
ao 3.2 Se U e uma matriz triangular superior in-
versvel, entao sua inversa U1 tambem e triangular superior.

Demonstrac
ao: Exerccio.

Proposi c
ao 3.3 Se L1 e L2 sao duas matrizes triangulares in-
ao o produto L1 L2 tambem e triangular inferior.
feriores, ent
Se L1 e L2 tem todos os elementos de suas diagonais principais
iguais a 1, entao o mesmo ocorre com produto L1 L2 .

Demonstraca
o: Basta observar a estrutura

0 0 0 0 0 0
0 0 0 0

0 0
.
.. .. .. . . . .. .. .. .. .
. . . . .. . . . . ..

Proposi cao 3.4 O produto de duas matrizes triangulares su-


periores e ainda triangular superior.

Demonstrac
ao: Exerccio.

Teorema 3.2 Se A e inversvel e possui uma decomposicao LU


(com todos os elementos da diagonal principal de L iguais a 1),
entao esta decomposicao e u
nica.

Demonstrac ao: Suponha que existem duas decomposicoes LU para


a matriz A: A = LU = L  U.
 Como A e inversvel, U e U
 tambem
s
ao inversveis (por que?). Entao
U
LU = L  L
 1 LU = U
 L
 1 L = UU
 1 .

i i

i i
aal
i i
2017/2/2
page 62
i i

62 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Seja D = L  1 L = UU
 1 . Com o produto de matrizes triangulares
inferiores e triangular inferior e o produto de matrizes triangulares
superior e triangular superior, conclumos que D e, ao mesmo tempo,
triangular inferior e triangular superior. Sendo assim, D e uma matriz
diagonal. Como todos elementos das diagonais principais de L  1 e L
sao iguais a 1, segue-se que D e a matriz identidade. Assim,

 1 L = I L = L
L  e  1 = I U = U.
UU 

Deni ao 3.3 (Menor de uma matriz) Seja A uma matriz


c
nn. Um menor de ordem k e o determinante de uma submatriz
k k de A obtida removendo-se n k linhas e n k colunas
de A.

Exemplo 3.3 Considere a matriz 33



a b c
A= d e f .
g h i

Os menores de ordem 1 da matriz A sao dados por

|a|, |b|, |c|, |d|, |e|, |f |, |g|, |h| e |i|.

Os menores de ordem 2 da matriz A sao dados por



e f d f d e
, ,
h i g i g h ,

b c a c a b
, , ,
h i g i g h

b c a c a b
, , .
e f d f d e

O menor de ordem 3 da matriz A e dado por

i i

i i
aal
i i
2017/2/2
page 63
i i

[SEC. 3.4: A DECOMPOSIC LU


AO 63

a b c

d e f .

g h i
O smbolo |A| denota o determinante da matriz A (nao confunda
com o modulo de um numero real).

Deni ao 3.4 (Menor principal de uma matriz) Um me-


c
nor principal de ordem k e um menor de ordem k no qual as mes-
mas linhas e colunas foram removidas. Mais especicamente, se
as linhas i1 , . . . , ink foram removidas, entao as colunas remo-
vidas sao as de ndices i1 , . . . , ink .

Exemplo 3.4 Considere a matriz 33



a b c
A= d e f .
g h i
Os menores principais de ordem 1 da matriz A sao dados por
|a|, |e| e |i|.
Os menores principais de ordem 2 da matriz A sao dados por

e f a c a b
, ,
h i g i d e .
O menor principal de ordem 3 da matriz A e dado por

a b c

d e f .

g h i
O smbolo |A| denota o determinante da matriz A (nao confunda
com o modulo de um numero real).

Denicao 3.5 (Menor principal lder de uma matriz)


Um menor principal lder de ordem k e um menor principal de
ordem k onde foram removidas as u ltimas n k linhas e n k
colunas.

i i

i i
aal
i i
2017/2/2
page 64
i i

64 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Exemplo 3.5 Considere a matriz 33



a b c
A= d e f .
g h i

Os menores principais lderes de ordem 1, 2 e 3 de A sao dados,


respectivamente, por

a b c
a b
|a|, e d e f .
d e
g h i

O smbolo |A| denota o determinante da matriz A (nao confunda


com o modulo de um numero real).

Teorema 3.3 As seguintes sentencas sao equivalentes:


(1) Existe uma u nica decomposicao A = LU com L triangular
inferior com todos os elementos de sua diagonal principal
iguais a 1 e U inversvel.
(2) Todos os menores principais lderes de A sao diferentes de
zero.

Observa ao (multiplicac
c o por blocos). A demonstracao que
a
apresentaremos faz uso da multiplicacao por blocos. Por exemplo, se

Arr B r(nr)
M=
C(nr)r D(nr)(nr)

e
 rr
A  r(nr)
B
*=
M


 (nr)r
C  (nr)(nr)
D

i i

i i
aal
i i
2017/2/2
page 65
i i

[SEC. 3.4: A DECOMPOSIC LU


AO 65

entao
 + BC
AA   
AB + BD
*=
MM .
 + DC
CA   + DD
CB 

possvel
Um exemplo mais explcito e apresentado na Figura 3.5. E
fazer multiplicac
oes por blocos mesmo que os blocos diagonais nao
sejam quadrados (veja o Exerccio [12] na pagina 92).
ao do Teorema 3.3: [(1) (2)] Para cada k {1, . . . , n},
Demonstrac
escreva A em blocos

A11 A12
A= ,
A21 A22

com A11 um bloco principal k k. Por hipotese, A possui uma


decomposicao LU: A = LU. A decomposicao em blocos da matriz A
induz decomposic
oes em blocos em L e U:
  
A11 A12 L11 0 U11 U12
=
A21 A22 L21 L22 0 U22

L11 U11 L11 U12
=
L21 U11 L21 U12 + L22 U22

Assim, A11 = L11 U11 , com L11 uma matriz triangular inferior com
os elementos de sua diagonal principal todos iguais a 1 e U11 uma
matriz triangular superior. Observe que

det(A11 ) = det(L11 U11 ) = det(L11 ) det(U11 )


k
 k

= 1 (U11 )ii = (U11 )ii
i=1 i=1
= produto dos elementos da diagonal principal de U11 .

Como U e triangular superior e inversvel, segue-se que todos os ele-


mentos de sua diagonal principal devem ser diferentes de zero pois,
caso contr
ario, o determinante de U seria igual a zero (lembre-se que
o determinante de uma matriz triangular superior e igual ao produto
dos elementos de sua diagonal principal). Uma vez que os elemen-
tos da diagonal principal de U11 tambem sao elementos da diagonal

i i

i i
i
i

i
i

66


a b c 
a b c


d e f  
e 
f
d

g h i 
g 
h i

=

a b  
a b  c   a b c c 

+ g h + i
d f c 
d f d f f f




  b    c  
a
g h + i 
g 
h g h + i i

d e f

Figura 3.5: Um exemplo de multiplicacao por blocos.


[CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC
AO
LU

i
i
aal

i
i
page 66
2017/2/2
aal
i i
2017/2/2
page 67
i i

[SEC. 3.4: A DECOMPOSIC LU


AO 67

principal de U, segue-se que


k

det(A11 ) = (U11 )ii = 0.
i=1

Assim, para cada k {1, . . . , n}, o k-esimo menor principal lder


de A e diferente de zero.

[(2) (1)] A demonstracao sera feita


& por' inducao no tamanho n
da matriz A. Se n = 1, ent ao A = a . Como a = 0 (pois, por
hipotese, todos os menores principais lderes de A sao diferentes de
zero), segue-se que & '& '
A= 1 a ,
" #$ % " #$ %
L U
com L matriz triangular inferior com todos os elementos de sua di-
agonal principal iguais a 1 e U matriz triangular superior inversvel.
Vamos agora tratar do passo indutivo: seja M uma matriz (n + 1)
(n + 1) cujos menores principais lderes de todas as ordens sao dife-
rentes de zero. Escreva

Ann bn1
M= .
(cT )1n 11

Como os menores principais lderes de todas as ordens de A (que


tambem menores principais lderes de M) sao diferentes de zero, pela
hipotese de inducao, existem u nicas matrizes L (triangular inferior
com todos os elementos de sua diagonal principal iguais a 1) e U
(triangular superior inversvel) tais que

A = LU.

Vamos determinar matrizes un1 , n1 e 11 tais que


 
 L 0  U u
L= e U=
T 1 0

formem uma decomposicao LU para a matriz M: M = L U.


 Agora,
   
Ann bn1 L 0 U u LU Lu
= = .
(cT )1n 11 T 1 0 T U T c +

i i

i i
aal
i i
2017/2/2
page 68
i i

68 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Assim, u,  e 11 devem satisfazer as equacoes matriciais


b = Lu, cT = T U e T + = .
Como L e inversvel, temos que
b = Lu Lu = b u = L1 b.
Como U e inversvel, sua transposta UT tambem e inversvel e, por-
tanto,
cT = T U (T U)T = (cT )T UT  = c  = (UT )1 c.
Temos tambem que
T + = = T u = U1 cT .
Resta mostrar que U  e inversvel. Como det(U)  = det(U) e
det(U) = 0 (pois U e inversvel), basta mostrar que = 0. Mas
det(M) = det(L) det(U)
 = 1 det(U) = det(U) . Uma vez
que det(M) = 0 (pois M e inversvel) segue-se que = 0. A unicidade
da decomposic
ao LU segue-se do Teorema 3.2.

Observa c
ao. O Teorema 3.2 da uma caracterizacao para a existencia
de decomposic
oes LU de matrizes inversveis. O artigo [11] de Okunev
e Johnson, publicado em 1997, d a uma caracterizacao para matrizes
gerais, n
ao necessariamente inversveis.

3.5 Resolu
c
ao de Sistemas Lineares

Algoritmo 3.1 (Resoluc o de sistemas lineares usando


a
a decomposic a o LU) Para resolver um sistema linear Ax =
b, os passos s
ao os seguintes:
Passo 1. Obtenha a decomposicao LU da matriz A (Algo-
ritmo 3.2). Note ent
ao que o sistema Ax = b e equi-
valente ao sistema LUx = b.
Passo 2. Resolva o sistema linear especial Ly = b usando subs-
tituicao progressiva (Algoritmo 3.3).

i i

i i
aal
i i
2017/2/2
page 69
i i

[SEC. 3.5: RESOLUC DE SISTEMAS LINEARES


AO 69

Passo 3. Resolva o sistema linear especial Ux = u usando subs-


tituic
ao retroativa (Algoritmo 3.4).

A seguir descrevemos e contaremos o numero de multiplicacoes/di-


vis
oes dos Algoritmos 3.2, 3.3 e 3.4. Para isto, as identidades abaixo
ser
ao u
teis:
s

1 = s r + 1, (3.1)
p=r
s
(1 + s) s s2 s
p = = + (3.2)
p=1
2 2 2
s
s (s + 1) (2 s + 1) s3 s2 s
p2 = = + + . (3.3)
p=1
6 3 2 6

Algoritmo 3.2 (Decomposic


a o LU, Golub e Van Loan,
gina 99)
pa
for k = 1 : n 1
for i = k + 1 : n
A(i, k) = A(i, k)/A(k, k);
for j = k + 1 : n
A(i, j) = A(i, j) A(i, k) A(k, j);
end
end
end

O n
umero de multiplicacoes/divis
oes do Algoritmo 3.2 e o seguinte:

n1
  n  n n1
  n
1 + 1 = (1 + n k)
k=1 i=k+1 j=k+1 k=1 i=k+1
n1
  n

 
= (1 + n k) 1
k=1 i=k+1

i i

i i
aal
i i
2017/2/2
page 70
i i

70 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

n1

= ((1 + n k) (n k))
k=1
n1
  
= (n + n2 ) (2 n + 1) k + k 2
k=1

Logo,

n1
 n
 n
 n1
 n1
 n1

1 + 1 = (n + n2 ) 1 (2 n + 1) k+ k2 .
k=1 i=k+1 j=k+1 k=1 k=1 k=1

Usando entao as F
ormulas 3.1, 3.2 e 3.3, obtemos que

n1
 n
 n

1 + n3 n
1 = .
3 3
k=1 i=k+1 j=k+1

Algoritmo 3.3 (Substituic


a o progressiva: Ly = b)

y(1) = b(1)
for i = 2 : n
s = 0;
for k = 1 : i 1
s = s + L(i, k) y(k);
end
y(i) = b(i) s;
end

O n
umero de multiplicacoes/divis
oes do Algoritmo 3.3 e o seguinte:

n 
 i1
n2 n
1= .
2 2
i=2 k=1

i i

i i
aal
i i
2017/2/2
page 71
i i

[SEC. 3.5: RESOLUC DE SISTEMAS LINEARES


AO 71

Algoritmo 3.4 (Substituic


a o regressiva: Ux = y)

for j = n : 1 : 1
s = 0;
for k = j + 1 : n
s = s + U (k, j) x(j);
end
x(j) = (y(j) s)/U (j, j);
end

O n
umero de multiplicacoes/divis
oes do Algoritmo 3.4 e o seguinte:

 n
n2 n
1 + 1 = + .
j=1
2 2
k=j+1

Observa cao. A Regra de Cramer usa determinantes para se resolver


sistemas lineares. Se estes determinantes forem calculados usando-se
a Regra de Laplace, o n umero de multiplicacoes cresce muito com o
tamanho n da matriz. Se cn e o numero de multiplicacoes necessarias
para se calcular o determinante de uma matriz n n pela Regra de
Laplace, entao c1 = 0 e c2 = 2. Observe para que o caso n = 3, a
Regra de Laplace tem a seguinte estrutura:



= () () + () .

Logo, c3 = 3 + 3 c2 . Mais geralmente, cn = n + n cn1 para todo


n 2. Em particular,

cn n cn1 n (n 1) cn2 n (n 1) 3 2 = n!.

Uma maneira mais eciente de se calcular o determinante de uma


matriz e atraves de sua decomposicao LU: se A = LU, entao
n
 n

det(A) = det(LU) = det(L) det(U) = 1 Uii = Uii .
i=1 i=1

i i

i i
aal
i i
2017/2/2
page 72
i i

72 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Observa c
ao. Note que o Algoritmo 3.2 armazena os elementos das
matrizes L e U da decomposicao LU da matriz A na pr opria ma-
triz A: se A = (aij ), L = (lij ) e U = (uij ), entao

lij = aij para todo i > j e uij = aij para todo i j.

Ja sabemos que os elementos da diagonal principal de L sao todos


iguais a 1 e, portanto, eles nao precisam ser armazenados. Alem da
economia de armazenamento dos dados, este esquema tem outra van-
tagem: caso seja necess ario resolver varios sistemas lineares Ax = b
com a mesma matriz A, mas com diferentes valores de b, basta calcu-
lar a decomposicao LU de A uma u nica vez (a um preco n3 /3 n/3)
e, ent
ao, usar os algoritmos de substituicao progressiva e regressiva
para cada novo valor de b (a um preco n2 ). Um exemplo tpico
onde isto acontece e a tarefa de se calcular a inversa de uma matriz
inversvel A: as colunas de A1 sao solucoes dos sistemas lineares

Ax = e1 , Ax = e2 , ..., Ax = en ,

onde e1 , e2 , . . . , en s
ao os vetores da base canonica de Rn . E possvel
demonstrar que sao necess arias 4 n /3 n/3 multiplicacoes/divis
3
oes
para calcular a inversa de uma matriz n n com este esquema. Se o
metodo de escalonamento fosse & usado' (isto e, fazer operacoes elemen-
tares na matriz aumentada A I ate transform a-la em uma ma-
& '
triz da forma I B , de modo que B = A1 ), seriam necess arias
4 n3 /3 + n2 /2 5 n/6 multiplicacoes/divis oes.

3.6 Pivotamento Parcial


O Algoritmo 3.2 pode falhar, mesmo para matrizes inversveis.
Vejamos um exemplo:

1 1 1 1 1 1
2 2 5 L2 L 2 2 L1
0 0 3
4 6 8 4 6 8

1 1 1
L3 L3 4 L1
0 0 3 .
0 2 4

i i

i i
aal
i i
2017/2/2
page 73
i i

[SEC. 3.6: PIVOTAMENTO PARCIAL 73

Note que o algoritmo nao pode continuar, uma vez que o elemento na
segunda linha e na segunda coluna da u ltima matriz (o elemento pivo)
necess
e igual a zero. E ario introduzir uma nova operacao elementar,
a permutacao de linhas da matriz,

1 1 1 1 1 1
0 0 3 L2 L3
0 2 4 ,
0 2 4 0 0 3

a qual, como os cisalhamentos, tambem pode ser codicada atraves


da multiplicacao por uma matriz de permutacao P:

1 0 0 1 1 1 1 1 1
0 0 1 0 0 3 = 0 2 4 .
0 1 0 0 2 4 0 0 3
" #$ %
P

Trataremos agora de algumas propriedades de matrizes de per-


mutacao. Sejam r, s {1, . . . , n}, com r = s. A matriz de per-
mutac
ao elementar Ers e matriz obtida permutando-se as linhas r
e s da matriz identidade Inn :


1



..
. 0


1

0 1 r

Ers = .. .. .. .
. . .

1 0 s

1

0 ..
.


1
r s
Note que as colunas r e s tambem foram permutadas. Destacamos
as seguintes propriedades das matrizes de permutacao elementares:

(1) Ers A e a matriz obtida permutando-se as linhas r e s de A.

i i

i i
aal
i i
2017/2/2
page 74
i i

74 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Exemplo:

1 0 0 1 2 3 1 2 3
0 0 1 4 5 6 = 7 8 9 .
0 1 0 7 8 9 4 5 6
" #$ %" #$ % " #$ %
E23 A E23 A

(2) AErs e a matriz obtida permutando-se as colunas r e s de A.


Exemplo:

1 2 3 1 0 0 1 3 2
4 5 6 0 0 1 = 4 6 5 .
7 8 9 0 1 0 7 9 8
" #$ %" #$ % " #$ %
A E23 E23 A

interessante interpretar a igualdade acima em termos de com-


E
binacoes lineares e multiplicacao por matrizes (veja a primeira
observacao na pagina 12).
(3) Ers e inversvel, pois det(Ers ) = 1 (lembre-se que para termos
uma permutacao, r = s). Mais ainda: E1 rs = Ers .

(4) ETrs = Ers .

Mais geralmente, dizemos que uma matriz P e uma matriz de


permutac
ao se ela se escreve como produto de matrizes de permutacao
elementares:

P = Erk sk Erk1 sk1 Er2 s2 Er1 s1 .

Note entao que (1) cada linha de uma matriz de permutacao P possui
apenas um elemento igual a 1, sendo todos os demais iguais a 0,
e (2) cada coluna de uma matriz de permutacao P possui apenas um
elemento igual a 1, sendo todos os demais iguais a 0. Uma matriz de
permutacao e inversvel e sua inversa e igual a

P1 = PT .

De fato: note que

i i

i i
aal
i i
2017/2/2
page 75
i i

[SEC. 3.6: PIVOTAMENTO PARCIAL 75

PT P

=
(Erk sk Erk1 sk1 Er2 s2 Er1 s1 )T (Erk sk Erk1 sk1 Er2 s2 Er1 s1 )

=
ETr1 s1 ETr2 s2 ETrk1 sk1 ETrk sk Erk sk Erk1 sk1 Er2 s2 Er1 s1
" #$ %
I

=
ETr1 s1 ETr2 s2 ETrk1 sk1 Erk1 sk1 Er2 s2 Er1 s1
" #$ %
I
=

I.

Ao contrario das matrizes de permutacao elementares, uma matriz


de permutacao n
ao e necessariamente simetrica. De fato, considere

0 1 0 0 0 1 0 1 0
P = E12 E13 = 1 0 0 0 1 0 = 0 0 1 .
0 0 1 1 0 0 1 0 0

Em termos das matrizes de permutacao elementares, temos que

PT = (E12 E13 )T = ET13 ET12 = E13 E12 = P.

Em outras palavras, permutar primeiro as linhas 1 e 3 de uma matriz


para, depois, permutar as linhas 1 e 2, n
ao produz o mesmo resultado
do que permutar primeiro as linhas 1 e 2 para, depois, permutar
as linhas 1 e 3.
Vamos ver como o metodo de pivotamento parcial age em uma
matriz A de tamanho 3 por 3.

(1) Dada a matriz A, pode acontecer do elemento a11 ser igual a 0


e, assim, nao seria possvel executar logo o primeiro passo da
eliminacao gaussiana. Devemos, portanto, procurar por um ele-
mento n ao nulo nos elementos restantes da coluna e, entao, fazer
a permutacao das linhas correspondentes. A ideia e procurar pelo
maior elemento em modulo (o elemento piv o). Mais ainda, por

i i

i i
aal
i i
2017/2/2
page 76
i i

76 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

razoes numericas, como veremos mais adiante, mesmo que a11


seja diferente de 0, e conveniente troca-lo por um elemento que,
em m odulo, seja maior do que |a11 |. Vamos indicar esta per-
mutacao com a notacao
P1,1+ .
O 1+ indica que a linha 1 foi trocada por uma linha i, com
i > 1, ou que n ao houve troca, pois o elemento a11 ja e, em
modulo, o maior elemento entre os elementos procurados (e, neste
caso, P1,1+ = I). Se a matriz A e inversvel, algum elemento
da primeira coluna de A e diferente de 0 pois, caso contrario,
o determinante de A seria igual a 0. Se a coluna 1 da matriz A
for nula, basta entao para a coluna 2 e repetir o processo aqui
descrito.

o na posicao (1, 1) de P1,1+ A e diferente de zero,


(2) Se o elemento piv
podemos ent ao aplicar as operacoes elementares da eliminacao
gaussiana: os cisalhamentos. Vamos usar as notacoes E1,2 e E1,3
para indic
a-los:
E1,3 E1,2 P1,1+ .

(3) A proxima etapa e trocar o elemento na posicao (2, 2) da ma-


triz E1,3 E1,2 P1,1+ pelo elemento de maior modulo na segunda
coluna a partir da posicao (2, 2) (nesta etapa, n
ao consideramos
mais a primeira linha). Esta operacao e codicada por uma ma-
triz de permutacao P2,2+ ?

P2,2+ E1,3 E1,2 P1,1+ .

(4) Podemos entao aplicar a u


ltima operacao elementar, um cisalha-
mento, obtendo a matriz superior:

U = E2,3 P2,2+ E1,3 E1,2 P1,1+ .

(5) As estruturas das matrizes P1,1+ , P2,2+ , E1,2 , E2,3 , E1,3 e a or-
dem em que elas aparecem na construcao da matriz U permitem
obter uma decomposicao matricial da forma

PA = LU.

i i

i i
aal
i i
2017/2/2
page 77
i i

[SEC. 3.6: PIVOTAMENTO PARCIAL 77

De fato: como as matrizes de permutacao elementares s


ao in-
versveis, podemos reescrever a equacao

E2,3 P2,2+ E1,3 E1,2 P1,1+ = U

da seguinte maneira:

E2,3 (P2,2+ E1,3 E1,2 P1


2,2+ )(P2,2+ P1,1+ )A = U,

ou, ainda, como P1


2,2+ = P2,2+ ,

E2,3 (P2,2+ E1,3 E1,2 P2,2+ )(P2,2+ P1,1+ )A = U.

O produto E1,3 E1,2 tem a seguinte estrutura



1 0 0
E1,3 E1,2 = 1 0 .
0 1

Se P2,2+ n
ao e a matriz identidade, os produtos

1 0 0
P2,2+ 1 0 P2,2+
0 1

trocam as duas u ltimas linhas e as duas u


ltimas colunas de E1,3 E1,2 ,
logo P2,2+ E1,3 E1,2 P2,2+ tem a mesma estrutura de E1,3 E1,2 :

1 0 0
P2,2+ E1,3 E1,2 P2,2+ = 1 0 .
0 1

Portanto, a estrutura da matriz E2,3 (P2,2+ E1,3 E1,2 P2,2+ ) e da


forma triangular inferior:

1 0 0
E2,3 (P2,2+ E1,3 E1,2 P2,2+ ) = 1 0 .
1

Como a inversa de matriz triangular inferior com todos os elemen-


tos da diagonal principal iguais a 1 e ainda uma matriz triangular

i i

i i
aal
i i
2017/2/2
page 78
i i

78 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

inferior com todos os elementos da diagonal principal iguais a 1


(Proposic
ao 3.1), segue-se que

P2,2+ P1,1+ A = LU.


" #$ %
P

Como exerccio, tente repetir o metodo acima para matrizes 4 por 4


e convenca-se que ele pode ser generalizado para o caso geral.

Proposicao 3.5 Toda matriz A (nao necessariamente qua-


drada ou inversvel) possui uma decomposicao da forma

PA = LU,

onde P e uma matriz de permutacao, L e uma matriz triangular


inferior e U e uma matriz tal que uij = 0 para i > j. Se A tem
tamanho m por n, entao P e L tem tamanho m por m e U tem
tamanho m por n.

Observacao. A escolha do pivo como o maior elemento em modulo


aumenta a estabilidade numerica do metodo. Como exemplo, consi-
dere a matriz 
1020 1
A = .
1 1
Sem pivotamento, com aritmetica exata, obtemos
 
1 0 1020 1
L= e U= .
10 20
1 0 1 1020

Mas, no computador, estas matrizes sao arredondadas para


 
= 1 0  1020 1
L e U = ,
10 20
1 0 1020

de forma que 
U = 1020 1
L .
1 0

i i

i i
aal
i i
2017/2/2
page 79
i i

[SEC. 3.6: PIVOTAMENTO PARCIAL 79

Se resolvermos o sistema Ax = b para b = [ 1 0 ]T , sem pivota-


 e U,
mento, isto e, com as matrizes L  teremos
  
y1 = 1, y1 1
=
1020 y1 + y2 = 0 y2 1020
e
  
1020 x1 + x2 = y1 = 1, x1 0
= ,
1020 x2 = y2 = 1020 x2 1
enquanto que a solucao correta e
 !
1 1
(x1 , x2 ) = , (1, 1).
1020 1 1 1020
Agora, usando o pivotamento parcial, com aritmetica exata, obtemos
as matrizes
  
1 0 1 1 0 1
L= , U= e P= .
1020 1 0 1 1020 1 0
Mas, no computador, a matriz U e arredondada para

/ 1 1
U= .
0 1

Se resolvermos o sistema Ax = b para b = [ 1 0 ]T , com pivota-


/ teremos
mento, isto e, com as matrizes L e U,
/ = Pb.
Ax = b PAx = Pb LUx
Agora, dado que Pb = [ 0 1 ]T , temos que
  
y1 = 0, y1 0
=
1020 y1 + y2 = 1 y2 1
e   
x1 + x2 = y1 = 0, x1 1
= ,
x2 = y2 = 1 x2 1
enquanto que a solucao correta e
 !
1 1
(x1 , x2 ) = , (1, 1).
1020 1 1 1020

i i

i i
aal
i i
2017/2/2
page 80
i i

80 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Deni ao 3.6 (Matriz estritamente diagonal domi-


c
nante) Dizemos que uma matriz A de tamanho n por n e
estritamente diagonal dominante se, para todo i = 1, . . . , n,
n

|aii | > |aij |.
j=1
j=i


2 1 0
Exemplo 3.6 A matriz 1 3 1 e estritamente diagonal
0 1 2

5 1
dominante. A matriz nao e estritamente diagonal domi-
4 2
nante.

Proposi ao 3.6 Se AT e estritamente diagonal dominante,


c
entao a decomposicao LU de A pode ser calculada sem pivo-
tamento de linhas.
Demonstrac
ao: A demonstracao ser
a feita por inducao sobre o tama-
nho n da matriz A. Se n = 1, o resultado e evidente:
A = [ a11 ] = [ 1 ][ a11 ] = LU.
Suponha agora que toda matriz de tamanho n por n cuja transposta
e estritamente diagonal dominante possui uma decomposicao LU que
pode ser calculada sem pivotamento de linhas e considere uma ma-
triz A de tamanho n + 1 por n + 1 cuja transposta AT e estritamente
diagonal dominante. Escreva A da seguinte maneira:

wT
A= ,
v C

onde e um escalar (uma matriz 1 por 1). Uma vez que AT e


estritamente diagonal dominante, segue-se que, em particular, =
0. Os cisalhamentos correspondentes `as operacoes elementares para

i i

i i
aal
i i
2017/2/2
page 81
i i

[SEC. 3.6: PIVOTAMENTO PARCIAL 81

a primeira coluna da matriz A podem ser codicados atraves da


matriz 
1 0T
E=
v/ I
de modo que
  
1 0T wT wT
EA = =
v/ I v C 0 C vwT /
 
1 0T wT
= T .
0 C vw / 0 I

Portanto,
 
1 0T wT
A = E1 T
0 C vw / 0 I
 T
 T

1 0 1 0 wT
=
v/ I 0 C vwT / 0 I
 T
 T
 T
1 0 1 0 w
= ,
v/ I 0 B 0 I

onde B = C vwT /. Se mostramos que BT e estritamente dia-


gonal dominante, entao, pela hipotese de inducao, B tera uma de-
composicao LU (B = LB UB ) e, a partir desta decomposicao LU
para B, sera possvel construir uma decomposicao LU para A (sem
pivotamentos de linhas):
  
1 0T 1 0T wT
A =
v/ I 0 LB UB 0 I
 T
 T
1 0 w
= = LA UA .
v/ LB 0 UB

Para mostrar que BT e estritamente diagonal dominante, observe


primeiro que, por AT ser estritamente diagonal dominante,
n
 n

|cij | < |cjj | |wj | e |vi | < || |vj |
i=1 i=1
i=j i=j

i i

i i
aal
i i
2017/2/2
page 82
i i

82 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

para todo 1 j n. Como queremos mostrar que a transposta da


matriz B e estritamente diagonal dominante, vamos entao comparar
o modulo de cada elemento da diagonal principal da matriz B com
a soma dos m odulos dos demais elementos na mesma coluna:
n
vi wj () 
n
  n n
|wj | 
|bij | = cij |cij | + |vi |
i=1 i=1
i=1
|| i=1
i=j i=j i=j i=j

|wj | w v
j j
< (|cjj | |wj |) + (|| |vj |) = |cjj |
||
wj vj
()

cjj = |bjj |,

onde, em (), usamos a desigualdade triangular e o fato de |wj |/||
nao depender de i e, em (), usamos a desigualdade |x||y| |xy|
para todo x, y R.

3.7 Aplicac
ao: O M
etodo de Newton
O metodo de Newton e um algoritmo numerico que tem como
nalidade calcular uma aproximacao de uma raiz de funcao real de
uma variavel, isto e, aproximar um n umero real p tal que f (p) = 0,
com f : R R. A ideia do metodo e muito simples. A partir de
uma aproximac ao inicial x0 , calculamos a equacao da reta tangente
ao graco de f no ponto x0 ,

y = g(x) = f (x0 ) + f  (x0 )(x x0 ).

Observe que encontrar uma raiz da aproximacao g e mais facil do que


encontrar uma raiz da funcao original f :

f (x0 )
y = g(x) = f (x0 ) + f  (x0 )(x x0 ) x = x0 .
f  (x0 )

O numero x1 = x0 f (x0 )/f  (x0 ) (Figura 3.6) e uma outra apro-


ximacao da raiz p de f (estamos supondo, evidentemente, que f  (x0 ) =
0). Basta agora repetir o processo, trocando x0 por x1 para calcular

i i

i i
aal
i i
2017/2/2
page 83
i i

[SEC. 3.7: APLICAC


AO:
O METODO DE NEWTON 83

Figura 3.6: Um passo do metodo de Newton.

x2 , e assim por diante. Espera-se que a sequencia gerada por esta


construc
ao convirja para a raiz p de f .
O metodo de Newton pode ser generalizado para funcoes vetoriais
do tipo
F : Rn Rn ,
seguindo a mesma construcao do caso escalar. A partir de uma apro-
ximacao inicial x0 , calculamos a equacao da aproximacao (am) de F
no ponto x0 ,

y = G(x) = F(x0 ) + DF(x0 )(x x0 ),

onde DF(x0 ), de tamanho n n, e a matriz jacobiana de F no


ponto x0 :

F1 F1
x1 (x0 ) xn
(x0 )

.. ..
DF(x0 ) = .. ,
. . .
Fn Fn
(x0 ) (x0 )
x1 xn nn

i i

i i
aal
i i
2017/2/2
page 84
i i

84 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

onde F1 , . . . , Fn : Rn R sao as funcoes coordenadas de F:

F(x) = (F1 (x), . . . , Fn (x)).

Observe que encontrar uma raiz da aproximacao G e mais facil


do que encontrar uma raiz da funcao original F:

F(x0 ) + DF(x0 )(x x0 ) = 0 DF(x0 )(x x0 ) = F(x0 )

x x0 = [DF(x0 )]1 F(x0 ) x = x0 [DF(x0 )]1 F(x0 ).

O ponto x1 = x0 [DF(x0 )]1 F(x0 ) e uma outra aproximacao da


raiz p de F (estamos supondo, evidentemente, que a matriz DF(x0 )
seja inversvel). Basta agora repetir o processo, trocando x0 por x1
para calcular x2 , e assim por diante.
No caso escalar, a derivada f  (p ) e um n umero e, portanto, faz
sentido dividir por f  (p). No caso vetorial, a derivada e uma matriz
e, portanto, a divisao e substituda pelo uso da inversa. Se usarmos
a notac
ao
1
= [f (x0 )]1 ,
f (x0 )
a formula de iterac
ao para o caso vetorial ca muito parecida com o
caso escalar.
Numericamente, dado o ponto x0 , n ao se calcula o ponto x1 pela
formula
x1 = x0 [DF(x0 )]1 F(x0 ),
pois calcular a inversa de uma matriz e computacionalmente caro. O
que se faz e resolver o sistema linear (algo mais barato, que pode ser
feito com a decomposicao LU):

DF(x0 ) z = F(x0 )

e, ent
ao, tomar x1 = x0 + z.
O metodo de Newton e uma manifestacao de uma ideia central na
teoria do calculo: para se resolver um problema nao-linear (em geral
muito difcil), o que se faz e tentar simplicar o problema com uma
aproximacao am (o papel da derivada e fundamental nesta parte),
resolver o problema no caso simplicado (algo mais f acil de se fazer)

i i

i i
aal
i i
2017/2/2
page 85
i i

[SEC. 3.8: VARIANTES DA DECOMPOSIC LU


AO 85

e, ent
ao, relacionar a solucao do problema simplicado com a solucao
do problema original.
Naturalmente, a exemplo do caso escalar, a sequencia gerada pelo
metodo de Newton vetorial pode nao convergir. Nao estudaremos,
aqui, questoes de convergencia, testes de parada e detalhes de imple-
mentacao. Indicamos, ao leitor interessado, as referencias [06, 07, 10].

3.8 Variantes da Decomposi


cao LU

Deni ao 3.7 (A Decomposic


c ao LDU) Seja A uma ma-
triz n n. Dizemos que as matrizes L, D e U formam uma
decomposica
o LDU para a matriz A se:
ao matrizes n n,
(a) L, D e U s
(b) A = LDU,
(c) U e uma matriz triangular superior com todos os elementos
da diagonal principal iguais a 1 (isto e, se U = (uij ), entao
uij = 0 para todo i > j e uii = 1 para todo i),
(d) D e uma matriz diagonal,
(e) L e uma matriz triangular inferior com todos os elementos
da diagonal principal iguais a 1 (isto e, se L = (lij ), entao
lij = 0 para todo i < j e lii = 1 para todo i).

Teorema 3.4 Se A e inversvel e possui uma decom-


posic
ao LDU (com todos os elementos da diagonal principal
de L e de U iguais a 1), ent
ao esta decomposicao e u
nica.

Demonstrac ao: Sejam A = LDU e A = L DU duas decomposi-


c
oes LDU para A. Como as matrizes DU e D U sao matrizes tri-
angulares superiores, A = L(DU) e A = L(  D
 U)
 sao duas decom-
posicoes LU para a matriz A. Assim, pelo Teorema 3.2,

L=L e  U.
DU = D 

i i

i i
aal
i i
2017/2/2
page 86
i i

86 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Como as matrizes U e U  tem todos os elementos da diagonal principal


iguais a 1, segue-se que
D = D. 
Mas D = D  e uma matriz inversvel (pois A e uma matriz inversvel).
Portanto,
U = U. 

Observa c
ao. Note que se A e simetrica e possui uma decomposi-
cao LDU, entao pelo Teorema 3.4, esta decomposicao e da forma
A = LT DL.
Mais ainda: se todos os elementos da diagonal principal da matriz
diagonal D = (dij ) s
ao maiores do que zero, entao
 T L,
A=L 

=
com L DL, onde D representa a matriz diagonal

d11 0 0
0 d22 0

D= . . . .. .
.. .. .. .

0 0 dnn

Deni ao 3.8 (A Decomposic


c o de Cholesky) Seja A
a
uma matriz n n. Dizemos que a matriz L forma uma de-
composic
ao de Cholesky para a matriz A se L e uma matriz
triangular inferior e A = LT L.

3.9 Aplicacao: Classificac


ao de Pontos
Crticos

Deniao 3.9 (Matriz positiva definida) Dizemos que


c
uma matriz A simetrica e positiva denida se

xT Ax > 0 para todo x Rn , x = 0.

i i

i i
aal
i i
2017/2/2
page 87
i i

[SEC. 3.9: APLICAC


AO: CLASSIFICAC DE PONTOS CRITICOS
AO 87

Matrizes positivas denidas aparecem, por exemplo, na classicacao


de pontos crticos de funcoes reais de varias variaveis: se f : Rn R
e uma funcao de classe C 2 , p e um ponto crtico de f (isto e, se a
derivada de f em p e igual a 0) e a matriz hessiana de f em p,
 !
f 2
D2 f (p) = (p) ,
xi xj

e positiva denida, entao p e um ponto de mnimo local de f . A


demonstracao deste fato (que n
ao faremos aqui) usa a aproximacao
de f por seu polinomio de Taylor de ordem 2:

1
f (x) f (p) + Df (p) (x p) + (x p)T D2 f (p)(x p).
2
Existem v arias maneiras de determinar se uma matriz simetrica A
e positiva denida. Os dois proximos teoremas apresentam duas ca-
racterizacoes de matrizes positivas denidas.

Teorema 3.5 Seja A uma matriz real simetrica. Mostre que


as duas sentencas abaixo sao equivalentes.
(1) A e positiva denida.
nica decomposicao na forma A = LLT , onde
(2) A possui uma u
L e uma matriz triangular inferior com diagonal positiva.

Demonstrac ao:
(1) (2): como vT Av > 0 para todo v = 0, segue-se que A e in-
versvel (veja o Exerccio [16]). Mais ainda, considerando-se os veto-
res da forma v = [ v1 vk 0 0 ]T , vemos que as submatrizes
correspondentes aos menores principais lderes s ao tambem positivas
denidas. Em particular, todos os menores principais lderes da ma-
triz A sao diferentes de zero. Assim, pelo Teorema 3.3 na pagina 64,
A tem uma uma decomposicao LU, onde L tem todos os elementos
da diagonal principal iguais a 1. Como A e simetrica, segue-se que

LU = UT LT .

i i

i i
aal
i i
2017/2/2
page 88
i i

88 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

Sendo assim,  
U LT 1 = L1 UT .
O lado esquerdo desta equacao e uma matriz triangular superior,
enquanto que o lado direito e uma matriz triangular inferior. Assim,
 
U LT 1 = L1 UT = D
 
e uma matriz diagonal. Conclumos ent ao que U LT 1 = D e,
portanto, U = DLT . Podemos ent ao escrever que A = LDLT .
Todos os elementos da diagonal principal de D sao positivos, pois

dkk = eTk Dek


 T T 1 T
= L (L ) ek D(LT (LT )1 ek )
 T 1 T
= (L ) ek LDLT ((LT )1 ek )
= vT Av > 0,

onde v = (LT )1 ek , com ek o k-esimo vetor da base can


onica. Agora,

 representa a matriz diagonal com dii = dii , vemos que
se D
D
A = LD  T LT = (LD)(L
  T =L
D) LT ,

onde L  = LD.
 Isto mostra que A tem uma decomposicao de Cho-
lesky.

(2) (1): como L e inversvel, segue-se que LT tambem e inversvel.


Assim, LT v = 0, para todo v = 0. Portanto,
0 02
vT Av = vT LLT v = (LT v)T (LT v) = 0LT v0 > 0.

Isto mostra que A e positiva denida.

Teorema 3.6 Seja A uma matriz real simetrica. Mostre que


as duas sentencas abaixo sao equivalentes.
(1) A e positiva denida.
(2) Todos os menores principais lderes de A sao positivos.

i i

i i
aal
i i
2017/2/2
page 89
i i

[SEC. 3.9: APLICAC


AO: CLASSIFICAC DE PONTOS CRITICOS
AO 89

Demonstraca o:
(1) (2): se A e positiva denida, entao A = LLT para alguma
matriz triangular inferior L com diagonal positiva. Decompondo A
em blocos:
   T
A11 A12 L11 L12 L11 LT21
= .
A21 A22 L21 L22 LT12 LT22

Portanto, det(A11 ) = det(L11 LT11 ) = (det(A11 )) > 0. Aplicando


2

este argumento para blocos A11 de tamanho k k, para k = 1, . . . , n,


conclumos que todos os menores principais lderes de A sao positivos.

(2) (1): como, por hipotese, todos os menores principais lderes


s
ao positivos, em particular, eles s
ao diferentes de zero. Assim, pelo
Teorema 3.3 na pagina 64, A tem uma uma decomposicao LU, onde L
tem todos os elementos da diagonal principal iguais a 1. Como A e
simetrica, segue-se que

LU = UT LT .

Sendo assim,  
U LT 1 = L1 UT .
O lado esquerdo desta equacao e uma matriz triangular superior,
enquanto que o lado direito e uma matriz triangular inferior. Assim,
 
U LT 1 = L1 UT = D
 
e uma matriz diagonal. Conclumos ent ao que U LT 1 = D e,
portanto, U = DLT . Podemos ent ao escrever que A = LDLT .
Note que os menores principais lderes |Ak | de ordem k de A iguais
a d11 dkk . Como, por hip
otese,

|A1 | = d11 > 0, |A2 | = d11 d22 > 0, . . . , |An | = d11 dnn > 0,

conclumos que todos os elementos da diagonal principal de Dsao


 representa a matriz diagonal com dii = dii ,
positivos. Agora, se D
vemos que
D
A = LD 
 T LT = (LD)(L  T =L
D) LT ,

i i

i i
aal
i i
2017/2/2
page 90
i i

90 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

onde L = LD.  Isto mostra que A tem uma decomposicao de Cho-



lesky A = LL  T , onde L
 tem diagonal positiva. Logo, pelo teorema
anterior, A e positiva denida.

3.10 Exerccios
[01] Mostre que se A e uma matriz inversvel, entao AT tambem e
inversvel e (AT )1 = (A1 )T .
[02] Se A e B sao matrizes reais tais que AB = I, entao dizemos
que B e uma inversa `
a direita de A e que A e uma inversa `
a
esquerda de B. Por exemplo,

 1 0 
1 0 0 1 0
0 1 = .
0 1 0 0 1
2 3

(a) De um exemplo de uma matriz com mais do que uma in-


versa `
a direita.
(b) Mostre que uma matriz quadrada n
ao pode possuir mais
do que uma inversa `a direita.
(c) Mostre que se A e B sao duas matrizes quadradas tais que
AB = I, entao BA = I. Em outras palavras, se A possui
uma inversa B `a direita, entao B tambem e a inversa a`
esquerda de A.
[03] Interprete geometricamente o sistema linear

x+ y = 4
2x 2y = 4

em termos das linhas (intersecao de retas) e das colunas (com-


binac
ao linear de vetores).
[04] Usando eliminac
ao gaussiana, obtenha a decomposicao LU da
matriz
1 1 4
A= 2 2 0 .
3 3 2

i i

i i
aal
i i
2017/2/2
page 91
i i

[SEC. 3.10: EXERCICIOS 91

Em seguida, use esta decomposicao para resolver o sistema li-


near Ax = b, onde
0
b = 1 .
1/2

[05] Usando eliminacao gaussiana, obtenha a decomposicao LU da


matriz
1 1 0 3
1 0 3 1
A= 0
.
1 1 1
3 0 1 2
Em seguida, use esta decomposicao para resolver o sistema li-
near Ax = b, onde
4
0
b= 3 .

[06] Encontre todas as decomposicoes LU da matriz



1 5
A= ,
3 15

onde L tem todos os elementos da diagonal principal iguais a 1.

[07] Mostre que toda matriz da forma



0 a
A=
0 b

possui innitas decomposicoes LU.

[08] Verdadeiro ou falso? Se uma matriz A possui uma decomposi-


cao LU, onde L tem todos os elementos da diagonal principal
U
iguais a 1, entao A tambem possui uma decomposicao L  onde

U tem todos os elementos da diagonal principal iguais a 1 e L 
e uma matriz triangular inferior qualquer.

i i

i i
aal
i i
2017/2/2
page 92
i i

92 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

[09] Suponha que voce saiba as entradas de uma matriz A inversvel


e as entradas da componente U da decomposicao LU de A.
Que algoritmo voce usaria para calcular L?

[10] Escreva um pseudocodigo para a solucao por substituicao pro-


gressiva de um sistema linear da forma Ly = b, onde L e uma
matriz triangular inferior com todos os elementos da diagonal
principal iguais a 1.

[11] No MATLAB, a funcao rand(m,n) gera uma matriz m n cujas


entradas sao numeros aleatorios distribudos uniformemente no
intervalo [0, 1]. Considere os seguintes comandos:

n = 3; A = rand(n, n); B = 0.5(A + A);


C = 0.5(A A);

que denem as variaveis n (dimens ao), A (matriz quadrada ge-


rada de maneira aleatoria), B e C.

(a) Para diferentes valores de x (por exemplo, atribuindo-se


x = rand(n, 1)), calcule as express
oes xAx e xBx no
MATLAB. O que voce observa? Tente fazer uma conjectura
e prove-a!
(b) Para diferentes valores de x (por exemplo, atribuindo-se
x = rand(n, 1)), calcule a expressao xCx no MATLAB. O
que voce observa? Tente fazer uma conjectura e prove-a!

[12] Efetue a multiplicacao A B das duas matrizes A e B da-


das abaixo usando (1) o metodo da multiplicacao por blocos e
(2) o produto convencional de matrizes.

1 2 1 1 0 1


1 0 1
1 1 1
A= ,
0 1 1 1 0 1
1 1
0 0 1 0
1 0 1 2 1 0

i i

i i
aal
i i
2017/2/2
page 93
i i

[SEC. 3.10: EXERCICIOS 93



1 0 1 2 1

1 1 2 0 1



B= 1 0 1 1 2 .
1
1 0 0 1
2
2 1 0 1
0 1 1 1 1

[13] Seja 
B C
A= ,
0 I
onde B e C s ao matrizes n n, 0 e a matriz nula n n e I e a
matriz identidade n n. Mostre que se B I for nao singular
(isto e, se B I for inversvel), entao, para todo k 1,
 k
B (Bk I)(B I1 )C
Ak = .
0 I

[14] Seja A uma matriz n n inversvel, e sejam u e v dois vetores


em Rn . Encontre condicoes necess
arias e sucientes para que a
matriz 
A = AT u
v 0
seja inversvel, e apresente uma formula para a inversa quando
ela existir.
[15] O codigo abaixo e uma implementacao em MATLAB do metodo
de Newton. Voce deve armazena-lo em um arquivo com o nome
newton sm.m.
function [ x , R, i t e r ] =
newton sm ( n e w t o n f f , newto n df , x0 , . . .
t o l , nmax , v a r a r g i n )
i t e r = 0 ; e r r = t o l + 1 ; x = x0 ;
while e r r > t o l & i t e r <= nmax
FF = f e v a l ( n e w t o n f f , x , v a r a r g i n { : } ) ;
DF = f e v a l ( newto n df , x , v a r a r g i n { : } ) ;
d e l t a = DF\FF ;

i i

i i
aal
i i
2017/2/2
page 94
i i

94 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

x = x + delta ;
e r r = norm( d e l t a ) ;
iter = iter + 1;
end
R = norm( f e v a l ( n e w t o n f f , x , v a r a r g i n { : } ) ) ;
i f i t e r >= nmax
f p r i n t f ( Too many i t e r a t i o n s . ) ;
f p r i n t f ( R e s i d u a l : %e . \ n , R ) ;
else
f p r i n t f ( S u c c e s s with %i s t e p ( s ) . ) ;
f p r i n t f ( R e s i d u a l : %e . \ n , i t e r , R ) ;
end
return

Para us
a-lo, por exemplo, para encontrar um zero da funcao

F(x1 , x2 ) = (x21 + x22 1, sen(x1 /2) + x32 ),

isto e, para encontrar uma solucao do sistema n


ao linear

x21 + x22 1 = 0,
sen(x1 /2) + x32 = 0

voce deve criar funcoes de nomes newton e newton df que


especicam, respectivamente, F e sua matriz jacobiana DF:
function FF = n e w t o n f f ( x )
FF ( 1 , 1 ) = x ( 1 ) 2 + x ( 2 ) 2 1 ;
FF ( 2 , 1 ) = s i n ( pi x ( 1 ) / 2 ) + x ( 2 ) 3 ;
return

function DF = newto n df ( x )
p i 2 = 0 . 5 pi ;
DF( 1 , 1 ) = 2x ( 1 ) ;
DF( 1 , 2 ) = 2x ( 2 ) ;
DF( 2 , 1 ) = p i 2 cos ( p i 2 x ( 1 ) ) ;
DF( 2 , 2 ) = 3x ( 2 ) 2 ;
return

i i

i i
aal
i i
2017/2/2
page 95
i i

[SEC. 3.10: EXERCICIOS 95

Feito isto, basta denir o valor inicial x0, a tolerancia tol e


o n
umero m aximo de iteracoes maxiter e, entao, fazer a cha-
mada da funcao newton sm:
x0 = [ 1 ; 1 ] ; t o l =1e 5; m a x i t e r =10;
[ x , F , i t e r ] = newton sm ( @ newto n ff ,
@newton df ,
x0 , t o l , m a x i t e r ) ;

(a) Usando o c odigo MATLAB descrito acima para o metodo de


Newton, calcule uma aproximacao de uma solucao do sis-
tema nao linear

1 + x2 y 2 + ex cos(y) = 0,
2 xy + ex sen(y) = 0
tomando x0 = [1; 4] como valor inicial.
(b) Usando o c odigo MATLAB descrito acima para o metodo de
Newton, calcule uma aproximacao de uma solucao do sis-
tema nao linear

xy z 2 = 1,
xyz x2 + y 2 = 1,

ex ey + z = 3.
tomando x0 = [1; 1; 1] como valor inicial. O que acontece,
se voce iniciar o algoritmo com x0 = [0; 0; 1]? Explique!
[16] Mostre que se uma matriz Ann e positiva denida, entao Ann
e uma matriz inversvel.
[17] (Equa c
oes diferenciais) O objetivo deste exerccio e mostrar
como sistemas lineares podem ser usados para obter uma apro-
ximacao do seguinte problema de contorno:

u (x) + c(x) u(x) = f (x), para todo x (0, 1),
(3.4)
u(0) = , u(1) = ,
onde e sao duas constantes reais, c e uma funcao contnua
n
ao-negativa denida em [0, 1] e f e uma funcao contnua de-
nida em [0, 1]. Dena, para 0 i n,
i
xi = , ui = u(xi ), ci = c(xi ), fi = f (xi ).
n

i i

i i
aal
i i
2017/2/2
page 96
i i

96 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

(a) Mostre que


u(p + h) 2 u(p) + u(p h)
lim = u (p)
h0 h2
(dica: use a regra de LHopital). Tomando p = xi e h =
1/n, conclua que
2 u(xi ) u(xi1 ) u(xi+1 )
u (xi ) . (3.5)
n2
Substituindo u (xi ) pela aproximacao discreta 3.5 na equacao
diferencial 3.4, mostre que os valores ui satisfazem as seguintes
n 1 equacoes algebricas:
2 ui ui1 ui+1
+ ci u i = f i , 1 i n 1,
n2
mais as duas condicoes de contorno: u0 = , un = . Conclua
que u = [ u1 un1 ]T satisfaz o sistema linear

Au = b,

onde

f1 + n2

f2


..
b= . e


fn2

fn1 + n2
c1
2+ 1 0 0
n2
c2 .. .. ..
1 2+ 2 . . .
n

2

A=n .. .. .
0 . . 1 0

.. .. cn2
. . 1 2+ 2 1
n
cn1
0 0 1 2+ 2
n

i i

i i
aal
i i
2017/2/2
page 97
i i

[SEC. 3.10: EXERCICIOS 97

Observe que c(x) > 0 para todo x [0, 1], entao A e uma
matriz estritamente diagonal dominante.

(b) Mostre que


n1
1 n1
2
 
T
v Av = ci vi2 +n 2
v12 + 2
vn1 + (vi vi1 )
2
.
i=1 i=2

Conclua que A e positiva denida, logo inversvel.


(c) Considerando n = 20, c(x) = 4 para todo x [0, 1],
f (x) = 4( 2 + 1) x sen(2x) 4 cos(2 x) e = = 0,
use o MATLAB para resolver o sistema linear correspondente.
Com os valores de ui , desenhe, em um mesmo sistema de
eixos coordenados, os pontos (xi , ui ) e o gr
aco da solucao
y = u(x) = x sen(2 x) deste problema de valor inicial.

[18] (Opcional: splines c ubicos) Sejam (x1 , y1 ), (x2 , y2 ), . . . ,


(xn , yn ) pontos no plano. Por comodidade, vamos supor que
x1 < x2 < < xn . Queremos encontrar uma funcao
n
3
f : [x1 , xn ] = [xj , xj+1 ] R
j=1

que seja de classe C 2 , satisfazendo f (xj ) = yj e de tal maneira


que f restrita ao intervalo [xj , xj+1 ],

f |[xj ,xj+1 ] ,

seja uma funcao polinomial de grau 3. Para isto, inicial-


mente, vamos supor que sejam conhecidos os valores de d2 f /dx2
nos pontos xj :
d2 f
yj := 2 (xj ).
dx
Lembrando que, para x [xj , xj+1 ], a funcao l(x) = A(x) yj +
B(x) yj+1 , com
xj+1 x x xj
A(x) := e B(x) := = 1 A(x),
xj+1 xj xj+1 xj

i i

i i
aal
i i
2017/2/2
page 98
i i

98 [CAP. 3: SISTEMAS LINEARES E A DECOMPOSIC LU


AO

fornece uma interpolacao linear por partes para os pontos (x1 , y1 ),


. . . , (xn , yn ), vamos procurar nossa funcao f na forma

f (x) = l(x) + C(x) yj + D(x) yj+1




= A(x) yj + B(x) yj+1 + C(x) yj + D(x) yj+1



,

com C = C(x) e D = D(x) funcoes polinomiais de grau 3.


Como queremos que f (xj ) = yj , as funcoes C e D devem satis-
fazer
C(xj ) = C(xj+1 ) = D(xj ) = D(xj+1 ) = 0, (3.6)
para todo j = 1, . . . , n. Mais ainda, como f deve ser de classe C 2 ,
e razo
avel tomar
d2 C xj+1 x d2 D x xj
(x) = e (x) = . (3.7)
dx 2 xj+1 xj dx2 xj+1 xj

(a) Mostre que se C e D satisfazem as condicoes 3.6 e 3.7,


entao, obrigatoriamente,
1 
C(x) = (A(x))3 A(x) (xj+1 xj )2 (3.8)
6
e
1 
D(x) = (B(x))3 B(x) (xj+1 xj )2 . (3.9)
6
Dica: integre as equacoes 3.7 duas vezes sucessivamente e
use as condicoes de contorno 3.6!
(b) Mostre que

df yj+1 yj 3 (A(x))2 1
(x) = (xj+1 xj ) yj +
dx xj+1 xj 6
3 (B(x))2 1 
(xj+1 xj ) yj+1 (3.10)
6
e que
d2 f
(x) = A(x) yj + B(x) yj+1

. (3.11)
dx2
Conclua que, de fato, (d2 f /dx2 )(xj ) = yj , para cada j =
1, . . . , n.

i i

i i
aal
i i
2017/2/2
page 99
i i

[SEC. 3.10: EXERCICIOS 99

(c) Como f deve ser de classe C 2 , em particular, sua deri-


vada df /dx deve ser contnua em cada ponto xj , para j =
2, . . . , n 1. Assim
df df
(xj ) = (xj +),
dx dx
com j = 2, . . . , n 1. A partir desta equacao, conclua que
os yj satisfazem as equacoes
xj xj1  xj+1 xj1  xj+1 xj 
yj1 + yj + yj+1
6 3 6
=
yj+1 yj yj yj1
, (3.12)
xj+1 xj xj xj1

isto e, os yj satisfazem um sistema linear tridiagonal com


n 2 equacoes e n vari aveis.
O sistema linear denido por 3.12 e indeterminado. Existem
duas maneiras classicas de obter um sistema determinado.
(1) Tomar y1 = yn = 0. A funcao interpoladora f , neste
caso, e denominada spline c
ubico natural.
(2) Fornecer os valores das derivadas de ordem 1 de f nos
pontos x1 e xn e acrescentar as equacoes 3.10 com x = x1
e x = xn `as equacoes do sistema 3.12.
(d) Escreva o sistema linear 3.12 para o conjunto de pontos

C = {(0, 1), (1, 1), (2, 1), (3, 1), (4, 1), (5, 1)}

usando as abordagens (a) e (b). No caso (b), suponha que


df df
(0) = 0 e (5) = 1.
dx dx
Resolva cada sistema e, em um mesmo sistema de eixo co-
ordenados, desenhe os pontos de C e os dois splines inter-
poladores.

i i

i i
aal
i i
2017/2/2
page 100
i i

Captulo 4

Ortogonalidade e
A Decomposic
ao QR

4.1 Produto Interno e Norma

Deni ao 4.1 (Produto interno) Seja (V, K, +, ) um


c
espaco vetorial. Dizemos que a funcao  ,  : V V K e
um produto interno em V se:
(P1) u + v, w = u, v + v, w, para todo u, v, w V .
(P2)  u, v = u, v, para todo K, para todo u, v V .
(P3) u, v = v, u, para todo u, v V .
(P4) u, u > 0, para todo u = 0.

Observa cao. Se, em (P3). trocassemos a condicao u, v = v, u


pela condicao u, v = v, u, ent
ao teramos uma contradicao para
o caso K = C. De fato: por um lado, v, v > 0 para todo v = 0.
Por outro lado,
i v, i v = i v, i v = i i v, v = i2 v, v = v, v < 0,

100

i i

i i
aal
i i
2017/2/2
page 101
i i

[SEC. 4.1: PRODUTO INTERNO E NORMA 101

para todo v = 0, uma contradicao.

Proposiao 4.1 Se  ,  : V V K e um produto interno


c
em um espaco vetorial (V, K, +, ), entao
(1) 0, v = v, 0 = 0, para todo v V .
(2) u, v + w = u, v + u, w, para todo u, v, w V .
(3) v, v = 0 se, e somente se, v = 0.
(4) u, v = u, v, para todo K, para todo u, v V .

Demonstrac
ao:
(1) 0, v = 0 0, v = 0 0, v = 0.
(2) u, v + w = v + w, u = v, u + w, u = v, u + w, u =
u, v + u, w.
(3) Se v, v = 0, entao, por (P4), v = 0. Por outro lado, se v = 0,
entao por (1), v, v = 0.
(4) Exerccio.

Exemplo 4.1
u, v = (u1 , . . . , un ), (v1 , . . . , vn ) = u1 v1 + + un vn

u1
& '
= vT u = v1 vn ...
un
e um produto interno em (Rn , R, +, ).

Exemplo 4.2
z, w = (z1 , . . . , zn ), (w1 , . . . , wn ) = z1 w1 + + zn wn
e um produto interno em (Cn , C, +, ).

i i

i i
aal
i i
2017/2/2
page 102
i i

102 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

Exemplo 4.3 Se Ann e uma matriz simetrica positiva denida,


entao u, v = vT Au e um produto interno em (Rn , R, +, ). Note,
por exemplo, que
()
u, v = vT Au = (vT Au)T = uT AT (vT )T = uT Av = v, u ,

onde, em (), usamos que toda matriz 1 por 1 e simetrica.

Exemplo 4.4 Se B e uma matriz inversvel qualquer, entao u, v =


vT BT Bu e um produto interno em (Rn , R, +, ). Note, por exemplo,
que para todo u = 0,

() ()
u, u = uT BT Bu = (Bu)T (Bu) = vT v = v12 + + vn2 > 0,

onde, em (), usamos a troca de vari avel v = Bu. A desigual-


dade () e verdadeira, pois se u = 0 e B e inversvel, entao v =
Bu = 0 e, portanto, vT v = v12 + + vn2 > 0.

Exemplo 4.5
 b
f, g = f (x)g(x) dx
a

e um produto em (C([a, b]), R, +, ), o espaco vetorial das funcoes


reais contnuas denidas no intervalo [a, b]. Para mostrar que  , 
satisfaz a propriedade (P4), o seguinte resultado de calculo ser a ne-
cess
ario: se F e uma funcao contnua nao negativa denida no in-
tervalo [a, b] e se existe p [a, b] tal que F (p) > 0, entao existe um
intervalo aberto I tal que p I e F (x) > 0 para todo x I [a, b].
Em particular,
 b
F (x) dx > 0.
a

Assim, se f C([a, b]) e f = 0, ent


ao F = f f 0 e, portanto,
 b  b
f, f  = f (x)f (x) dx = [f (x)]2 dx > 0.
a a

i i

i i
aal
i i
2017/2/2
page 103
i i

[SEC. 4.1: PRODUTO INTERNO E NORMA 103

Deni ao 4.2 (Norma) Se (V, K, +, ) um espaco vetorial


c
com produto interno  ,  : V V K, denominaremos a fun-
c
ao
|| || : V K 4
v  ||v|| = v, v
de norma associada ao produto interno  ,  em V .

Proposi
c
ao 4.2
(1) ||v|| 0, para todo v V .
(2) ||v|| = 0 se, e somente se, v = 0.
(3) || v|| = ||v||, para todo K, para todo v V .

Demonstrac
ao: Exerccio.

Teorema 4.1 (Desigualdade de Cauchy-Schwarz) Para


todo u, v V ,
| u, v | ||u|| ||v||.
Mais ainda: a igualdade vale se, e somente se, {u, v} for LD.

Demonstracao: Se v = 0, o resultado e imediato. Suponha entao


que v = 0. Agora, para todo , K e para todo u V ,
0  u v, u v
= u, u v, u u, v + v, v
= ||2 ||u||2 2 Re( u, v) + ||2 ||v||2 .
Escolhendo = ||v||2 e = u, v, segue-se que
u, v = ||v||2 ||2 R.
Logo,
0  u v, u v

i i

i i
aal
i i
2017/2/2
page 104
i i

104 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

= ||v||4 ||u||2 2 ||v||2 ||2 + | u, v |2 ||v||2


= ||v||4 ||u||2 2 ||v||2 | u, v |2 + ||v||2 | u, v |2
 
= ||v||2 ||u||2 ||v||2 | u, v |2 .
Uma vez que ||v||2 > 0, conclumos que ||u||2 ||v||2 | u, v |2 0.
Sendo assim, | u, v |2 ||u||2 ||v||2 e, portanto,
| u, v | ||u|| ||v||.
Agora, se | u, v | = ||u||||v||, entao | u, v |2 = ||u||2 ||v||2 e, por-
tanto,
 
0  u v, u v = ||v||2 ||u||2 ||v||2 | u, v |2 = 0,
ou seja,  u v, u v = 0. Mas, ent
ao
u v = 0.
Uma vez que = ||v|| = 0, a igualdade acima mostra que o con-
junto {u, v} e LD. Por outro lado, se {u, v} e LD, entao u = v.
Assim,
| u, v | = | v, v | = || | v, v | = || ||v||2 = || ||v|| ||v||
= ||v|| ||v|| = ||u|| ||v||.

Corol ario 4.1 (Desigualdade triangular) Para todo


u, v V ,
||u + v|| ||u|| + ||v||.

Demonstrac
ao:

||u + v||2 = u + v, u + v = ||u||2 + u, v + v, u + ||v||2


= ||u||2 + 2 Re(u, v) + ||v||2
()
||u||2 + 2 | u, v | + ||v||2
()
||u||2 + 2 ||u||||v|| + ||v||2 = (||u|| + ||v||)2 .
Portanto, ||u + v|| ||u|| + ||v||. Note que, em (*), usamos que
Re(z) | Re(z)| |z| para todo n umero complexo z e, em (**),

i i

i i
aal
i i
2017/2/2
page 105
i i

[SEC. 4.2: ORTOGONALIDADE 105

usamos a Desigualdade de Cauchy-Schwarz.

4.2 Ortogonalidade

Deni ao 4.3 Seja (V, K, +, ) um espaco vetorial com pro-


c
duto interno  ,  : V V K. Dizemos que dois vetores u
ao ortogonais se u, v = 0. Um conjunto A e ortogonal se
e v s
para todo u, v A, com u = v, u e v sao ortogonais. Um con-
junto A e ortonormal se ele e ortogonal e, alem disto, ||v|| = 1,
para todo v A.

Exemplo 4.6 A = {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)} e um


conjunto ortonormal em (Rn , R, +, ) com o produto interno can onico
descrito no Exemplo 4.1.

Exemplo 4.7 A = {fn C([0, 2 ]) | fn (x) = cos(n x), n N} e um


conjunto ortogonal em C([0, 2 ]) com o produto interno descrito no
Exemplo 4.5, pois

 2 0, se m = n,
fn , fm  = cos(n x) cos(m x) dx = , se m = n = 0,
0
2 , se m = n = 0.

Assim, e0 (x) = 1/ 2 e en (x) = cos(n x)/ , para n N, formam
um conjunto ortonormal innito em (C([0, 2 ]), R, +, ).

Proposi ao 4.3 Seja (V, K, +, ) um espaco vetorial com pro-


c
duto interno  ,  : V V K e seja A um subconjunto orto-
gonal de V formado por vetores n ao nulos.

i i

i i
aal
i i
2017/2/2
page 106
i i

106 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

(a) Se v [v1 , . . . , vk ], com v1 , . . . , vk A, entao


k
 v, vi 
v= vi .
i=1
||vi ||2

(b) A e LI.

Demonstrac
ao:
(a) Se v [v1 , . . . , vk ], entao existem escalares i K tais que
k
v = i=1 i vi . Logo,
5 k 6 k
 
v, vj  = i vi , vj = i vi , vj  = j vj , vj 
i=1 i=1
= j ||vj || . 2

Sendo assim, j = v, vj  /||vj ||2 e, portanto,


k
 v, vi 
v= vi .
i=1
||vi ||2

(b) Observe que


k
5 k
6
 
i vi = 0 i vi , vj = 0, vj  = 0
i=1 i=1
k

i v, vj  = 0 j vj , vj  = 0
i=1

()
j = 0,

para todo j = 1, . . . , k. Isto mostra que o conjunto A e LI. Note


que, em (*), usamos que vj , vj  = ||vj ||2 = 0, pois vj = 0.

i i

i i
aal
i i
2017/2/2
page 107
i i

[SEC. 4.3: GRAM-SCHMIDT 107

Corolario 4.2 Se {v1 , . . . , vn } e uma base ortonormal de V


e v V , entao
 n
v= vi , v vi .
i=1

4.3 Gram-Schmidt

Teorema 4.2 (O processo de ortonormalizac o de


a
Gram-Schmidt) Seja {v1 , . . . , vk } um subconjunto LI de um
espaco vetorial (V, K, +, ) com produto interno  ,  : V V
K. Para cada i = 1, . . . , k, dena
i1
 j
w
i = vi
w vi , wj  wj e wi = .
 j ||
||w
j=1

Entao o conjunto {w1 , . . . , wk } e ortonormal (e, em particu-


lar, LI) e

[w1 ] = [v1 ],
[w1 , w2 ] = [v1 , v2 ],
..
.
[w1 , w2 , . . . , wk ] = [v1 , v2 , . . . , vk ].

Demonstracao: A prova ser


a feita por inducao em k. O caso k =
1 e imediato. Suponha entao que obtivemos vetores {w1 , . . . , wr }
ortonormais tais que

[w1 ] = [v1 ],
[w1 , w2 ] = [v1 , v2 ],
..
.
[w1 , w2 , . . . , wr ] = [v1 , v2 , . . . , vr ].

i i

i i
aal
i i
2017/2/2
page 108
i i

108 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

Dena
r
  r+1
w
r+1 = vr+1
w vi , wj  wj e wr+1 = .
 r+1 ||
||w
j=1

Note que:

 r+1 = 0, pois vr+1  [v1 , . . . , vr ] = [w1 , . . . , wr ] e o conjunto


(1) w
{v1 , . . . , vr , vr+1 } e LI.

(2) ||wr+1 || = 1.

(3) {w1 , . . . , wr , wr+1 } e ortogonal, pois para todo s r,


r
vr+1 , ws  j=1 vr+1 , wj  wj , ws 
wr+1 , ws  = r

vr+1 j=1 vi , wj  wj
v , w  vr+1 , ws 
= r+1 s = 0.
r
vr+1 j=1 vi , wj  wj

(4) [w1 , . . . , wr , wr+1 ] = [v1 , . . . , vr , vr+1 ]. De fato: pela denicao


de wr+1 , segue-se que

wr+1 [w1 , . . . , wr , vr+1 ] = [v1 , . . . , vr , vr+1 ].

Logo,
[w1 , . . . , wr , wr+1 ] [v1 , . . . , vr , vr+1 ].
Dado que dimK ([w1 , . . . , wr , wr+1 ]) = dimK ([v1 , . . . , vr , vr+1 ]) =
r + 1, vemos que [w1 , . . . , wr , wr+1 ] = [v1 , . . . , vr , vr+1 ].

interessante observar a geometria do processo em R2 : considere dois


E
vetores v1 e v2 tais que {v1 , v2 } e LI. O primeiro passo do processo
de ortonormalizac
ao de Gram-Schmidt dene

1
w v1
 1 = v1 e w1 =
w = .
 1 ||
||w ||v1 ||

i i

i i
aal
i i
2017/2/2
page 109
i i

[SEC. 4.3: GRAM-SCHMIDT 109

Figura 4.1: O processo de ortonormalizacao de Gram-Schmidt em R2 .

Queremos calcular agora w  2 seja ortogonal a w1 . Para


 2 tal que w
isto, basta encontrar um vetor ? tal que ? seja um m ultiplo de w1
ew  2 = v2 ? seja ortogonal a w1 (Figura 4.1), isto e,
7 8
? = w1 e v2 ? , w1 = 0.
Sendo assim, v2 w1 , w1  = 0. Logo, = v2 , w1  e, portanto,
? = v2 , w1  w1 . Consequentemente,

1
w
 2 = v2 ? = v2 v2 , w1  w1 e w2 =
w .
 2 ||
||w
Note que ? e a projecao ortogonal de v2 na direcao de w1 . Vemos
assim que sao as projecoes ortogonais que sustentam o processo de
ortonormalizacao de Gram-Schmidt.

Corol
ario 4.3 Todo espaco vetorial de dimensao nita com
produto interno possui uma base ortonormal.

Exemplo 4.8 Considere



3 0 0
v1 = 4 , v2 = 0 e v3 = 1 .
0 1 0

i i

i i
aal
i i
2017/2/2
page 110
i i

110 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

Usando o processo de ortonormalizacao de Gram-Schmidt, temos ini-


cialmente que
3
3
1
w 5
 1 = v1 = 4 e w1 =
w = 45 .
 1 ||
||w
0 0

No passo seguinte, obtemos que


3
0 5 0
 2 = v2 v2 , w1  w1 = 0 0 45 = 0
w
1 0 1

e
0
2
w
w2 = = 0 .
 2 ||
||w 1
Por u
ltimo, segue-se que

3
w = v3 v3 , w1  w1 v3 , w2  w2
3 12
0 0 25
4 5
1 4 0 0 = 9
=
5 5 25
0 0 1 0

e 4
5
3
w
w3 = = 35 .
 3 ||
||w
0

Observa c
ao. No processo de ortonormalizacao descrito no exemplo
anterior, dado que w  1 /||w
 1 = v1 e w1 = w  1 ||, segue-se que

 1 || w1 .
v1 = ||w

Do mesmo modo, uma vez que w  2 /||w


 2 = v2 v2 , w1  w1 w2 = w  2 ||,
conclumos que

 2 || w2 .
v2 = v2 , w1  w1 + ||w

i i

i i
aal
i i
2017/2/2
page 111
i i

[SEC. 4.3: GRAM-SCHMIDT 111

Finalmente, uma vez que w  3 = v3 v3 , w1  w1 v3 , w2  w2 w3 =


 3 /||w
w  3 ||, segue-se que

 3 || w3 .
v3 = v3 , w1  w1 + v3 , w2  w2 + ||w

Resumindo:

v1 =  1 || w1 ,
||w
v2 = v2 , w1  w1 +  2 || w2 ,
||w
v3 = v3 , w1  w1 + v3 , w2  w2 +  3 || w3 .
||w

Estas relacoes podem ser codicadas usando-se multiplicacao de ma-


trizes (veja a primeira observacao na pagina 12):

| | |
v1 v2 v3

| | |
=


| | |  1 ||
||w v2 , w1  v3 , w1 
w1 w2 w3 0  2 ||
||w v3 , w2 
.
| | | 0 0  3 ||
||w

Desta maneira, se

| | |
A=
v1 v2 v3

| | |

e uma matriz inversvel, isto e, se o conjunto {v1 , v2 , v3 } e LI, o pro-


cesso de ortonormalizacao de Gram-Schmidt obtem, para A, uma
decomposicao da forma
A = QR

onde a matriz R e triangular superior inversvel com todos os ele-

i i

i i
aal
i i
2017/2/2
page 112
i i

112 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

mentos de sua diagonal principal positivos e a matriz



| | |
Q= w1 w2 w3
| | |

possui a seguinte propriedade: QT Q = I, isto e, Q e uma matriz


ortogonal.
Note que o processo e geral: se A e uma matriz de tamanho m
por k cujas colunas v1 , . . . , vk sao LI, entao as equacoes do processo
de ortonormalizac
ao de Gram-Schmidt
i1
 j
w
i = vi
w vi , wj  wj e wi = .
 j ||
||w
j=1

garantem que A = QR, onde Q e uma matriz ortogonal de tamanho


m por k e R e uma matriz triangular superior inversvel de tamanho k
por k cujos elementos rij satisfazem

0, se i > j,
rij =  i ||,
||w se i = j,

vj , wi  , se i < j.

4.4 Matrizes Ortogonais

Deni ao 4.4 (Matriz ortogonal) Dizemos que uma ma-


c
triz Q de tamanho m por n e ortogonal se QT Q = I.

Proposi
c
ao 4.4 Seja Q uma matriz quadrada ortogonal.
Ent
ao:
(1) Q1 = QT .
(2) Q1 e ortogonal.
(3) det(Q) = 1 ou Q = 1.

i i

i i
aal
i i
2017/2/2
page 113
i i

[SEC. 4.4: MATRIZES ORTOGONAIS 113

Demonstracao: Vamos demonstrar o item (2). Os demais itens carao


como exerccios. Note que

QQ1 = I (QQ1 )T = IT = I (Q1 )T QT = I


(Q1 )T Q1 = I.

Como (Q1 )T Q1 = I, segue-se que Q1 e uma matriz ortogonal.

Proposic
ao 4.5 O produto de duas matrizes ortogonais e
ainda uma matriz ortogonal.

Demonstraca
o: Exerccio.

Proposi ao 4.6 Sejam Q uma matriz quadrada,  ,  o pro-


c
onico em Rn e || || a norma associada a  , .
duto interno can
As seguintes sentencas s
ao equivalentes:
(1) Q e uma matriz ortogonal.
(2) ||Qv|| = ||v|| para todo v Rn (Q preserva norma).
(3) ||Qu Qv|| = ||u v||, para todo u, v Rn (Q preserva
distancia).
(4) Qu, Qv = u, v, para todo u, v Rn (Q preserva pre-
serva produto interno).
(5) Se {u1 , . . . , un } e uma base ortonormal de Rn , entao
{Qu1 , . . . , Qun } e tambem base ortonormal de Rn .

Demonstracao: Vamos comecar demonstrando que (3) (4). Pela


identidade de polarizacao

1 1
u, v = ||u + v||2 ||u v||2 ,
4 4

i i

i i
aal
i i
2017/2/2
page 114
i i

114 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

temos que
1 1
Qu, Qv = ||Qu + Qv||2 ||Qu Qv||2
4 4
1 1
= ||Qu Q(v)|| ||Qu Qv||2
2
4 4
(3) 1 1
= ||u (v)|| ||u v||2
2
4 4
1 1
= ||u + v|| ||u v||2 = u, v .
2
4 4
Agora vamos demonstrar que (4) (1). A condicao (4), em termos
matriciais, signica que, para todo u, v Rn , uT QT Qv = uT v.
Desta maneira,

(4) 0, se i = j,
(QT Q)ij = eTi QT Qej = eTi ej = ij =
1, se i = j.

Portanto, QT Q = I. Assim, estabelecemos que

(3) (4) (1).

As demonstrac
oes das demais implicacoes cam como exerccios.

4.5 A Decomposic
ao QR

Deni ao 4.5 (A Decomposic


c ao QR) Seja A uma ma-
triz m n. Dizemos que as matrizes Q e R formam uma de-
composic
ao QR para a matriz A se:
(a) Q e uma matriz m n e R e uma matriz n n,
(b) A = QR,
(c) Q e uma matriz ortogonal (isto e, se QT Q = I),
(d) R e uma matriz triangular superior com todos os elementos
da diagonal principal maiores do que ou iguais a 0.

i i

i i
aal
i i
2017/2/2
page 115
i i

[SEC. 4.5: A DECOMPOSIC QR


AO 115

Proposi c
ao 4.7 Toda matriz A inversvel possui uma u nica
decomposicao QR, isto e, existem u
nicas matrizes Q ortogonal
e R triangular superior com todos os elementos de sua diagonal
principal positivos, tais que A = QR.

Demonstracao: Como vimos, a existencia de uma decomposicao QR


e consequencia do processo de ortonormalizacao de Gram-Schmidt.
Vamos demonstrar agora a unicidade desta decomposicao. Suponha
que A possua duas decomposicoes QR: A = QR = Q  R.
 Portanto,

 1 Q = RR
Q  1 .

Desta maneira, a matriz Q  1 Q = RR


 1 e, ao mesmo tempo, or-
togonal (como produto de matrizes ortogonais) e triangular superior
(como produto de matrizes triangulares superiores). Logo, a ma-
 1 Q e da seguinte forma:
triz Q


0
M=Q  1 Q = .. .. . .

. .
. . . ..
0 0 ...

Como as colunas da matriz M formam um conjunto ortonormal, con-


clumos que a primeira coluna w1 de M e igual a e1 . Pelo mesmo
motivo, a segunda coluna de M e tal que w2 , e1  = 0 e ||w2 || = 1.
Sendo assim, w2 = e2 . Prosseguindo com este argumento, con-
clumos que a j-esima coluna wj de M e igual a ej . Portanto, M e
uma matriz diagonal cujos elementos da diagonal principal pertencem
ao conjunto {1, 1}. Mas M = Q  1 e todos os elementos
 1 Q = RR
 1
das diagonais principais de R, R, R e, portanto, todos os elemen-
tos da diagonal principal de RR  1 sao positivos. Isto mostra que
wj = ej para todo j = 1, . . . , n. Em outras palavras,
 1 Q = RR
Q  1 = I.

 1 Q = RR
Mas, se Q  1 = I, entao


Q=Q e 
R = R.

i i

i i
aal
i i
2017/2/2
page 116
i i

116 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

4.6 Aplicac
ao: O M
etodo dos Mnimos
Quadrados

Proposi c
ao 4.8 Seja W um subespaco vetorial de dimensao
nita de um espaco vetorial (V, K, +, ) com produto interno
 ,  : V V K. Se v V , entao existe um u  W
nico w
que minimiza a funcao

f (w) = ||v w||2 .

Mais ainda: v w W = {v V | w, v = 0, w W }.


 e denominada a projec
O vetor w ao ortogonal de v em W .

 = v e f (w)
ao: Se v W , entao w
Demonstrac  = ||v w||  2 =
||v v|| = 0. Suponha ent
2
ao que v
 W . Seja {w1 , . . . , wk } uma
base ortonormal de W . Dena
k

 =
w v, wj  wj .
j=1

 W . De fato:
Armamos que v w
5 k
6

 wi  = v
v w, v, wj  wj , wi = v, wi  v, wi  = 0.
j=1

Sendo assim, para todo w W ,

f (w) =  + (w
||v w||2 = ||(v w)  w)||2
()
=  2 + ||w
||v w||  w||2 ||v w||
 2 = f (w).


Note que, em (), usamos o Teorema de Pit agoras (Exerccio [03]


deste captulo). Isto estabelece a existencia do ponto de mnimo
global de f em W . Para demonstrar a unicidade, observe que, pela
desigualdade acima,

 = f (w)
f (w)  2 = ||v w||2 ||w
||v w||  w||2 = 0
 = w.
w

i i

i i
aal
i i
2017/2/2
page 117
i i

[SEC. 4.6: APLICAC


AO:
O METODO DOS MINIMOS QUADRADOS 117

Como j a vimos, se um sistema linear Ax = b nao possui solucao,


entao o vetor b n
ao pertence ao espaco gerado pelas colunas a1 , . . . , an
da matriz A, isto e, b  Im(A) = C(A). Nesta situacao, algo que
pode ser feito e o seguinte: procurar dentre os vetores da imagem
de A, por aquele que esta mais proximo de b:
min ||b w||2 = minn ||b Ax||2 .
wIm(A)=C(A) xR

Pela Proposicao 4.8, sabemos que o mnimo ocorre em um u


nico ponto
 Im(A) = C(A) que satisfaz a seguinte condicao:
w
 e perpendicular a`s colunas de A.
bw ()
Agora, como w Im(A) = C(A), existe pelo menos um vetor x  Rn

tal que w = A 
x. Em termos de x, a condicao () signica que bA x
e perpendicular a`s colunas a1 , . . . , an de A (Figura 4.2).

Figura 4.2: b A x e perpendicular ao espaco gerado pelas colu-


nas a1 , . . . , an da matriz A.

Desta maneira, aT1 (b A


x) = 0, . . . , aTn (b A
x) = 0, ou seja,
T
A (b A
x) = 0 ou, ainda,
AT A
x = AT b. ()

i i

i i
aal
i i
2017/2/2
page 118
i i

118 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

As equacoes denidas por () sao denominadas equacoes normais


para o sistema Ax = b. Note que, em virtude da Proposicao 4.8,
sempre existe pelo menos um x  Rn que e solucao do sistema li-
near (). Caso exista mais de um x  tal que AT A
x = AT b, e usual
escolher aquele de menor norma.

Exemplo 4.9 Considere



1 2 4
A= 1 3 e b = 5 .
0 0 6

O sistema linear Ax = b nao possui solucao. Usando o metodo dos


mnimos quadrados, vamos procurar por x  R3 tal que ||b Ax||2
seja mnimo. Uma vez que
 
T 2 5 T 9
A A= e A b=
5 13 23

as equacoes normais nos d


ao que

 4
2
 = (AT A)1 AT b =
x e x = 5 .
A
1
0

Exemplo 4.10 Frequentemente, quando fazemos experimentos ou


observacoes estatsticas, obtemos dados que podemos dispor em uma
tabela:
x y
x1 y1
x2 y2 .
.. ..
. .
xn yn
Gostaramos de descobrir se os dados obtidos podem estar relacio-
nados de alguma maneira. Em geral, a primeira coisa que tentamos
vericar e se os dados satisfazem a equacao de uma reta. No caso

i i

i i
aal
i i
2017/2/2
page 119
i i

[SEC. 4.6: APLICAC


AO:
O METODO DOS MINIMOS QUADRADOS 119

particular em que a tabela possui apenas dois pontos (com x1 = x2 ),


sabemos que existe uma u nica reta que passa por eles. Por exemplo,
a reta que passa pelos dois pontos da tabela

x y
1 2
5 7

e dada pela equacao

5 3
y= x+ .
4 4
Contudo, se a tabela possui tres ou mais pontos, seria muita sorte
encontrar uma reta y = a x+b tal que yi = a xi +b para todo i. Neste
caso, a ideia e usar o metodo dos mnimos quadrados para obter uma
reta representativa. O sistema linear


a x1 + b = y1 ,

a x2 + b = y2 ,
..

.


a xn + b = yn ,

se escreve, em termos matriciais, da seguinte forma:



x1 1 y1
x2 1  y2
a
.. .. = .. .
. . b .
xn 1 yn
" #$ % " #$ %
A b

Uma vez que


n n
 n
x2i xi xi yi
i=1
AT A = n
i=1
e AT b = i=1
n ,

xi n yi
i=1 i=1

i i

i i
aal
i i
2017/2/2
page 120
i i

120 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

as equacoes normais nos d


ao que

a
= (AT A)1 AT b
b
n
 n  n 
  
n xi yi xi yi

i=1 i=1
 n
i=1
2
n
 
n xi
2
xi

i=1 i=1
=  n
 n   n  n  .

  
2
xi yi xi yi

i=1 i=1 i=1 i=1
 n 2
n 

n x2i xi
i=1 i=1

ao di = |a xi + b yi | representa
Para cada i = 1, . . . , n, a express
a distancia vertical do ponto (xi , yi ) ate a reta y = a x + b, isto e,
o desvio da reta com relacao ao ponto (Figura 4.3). Neste contexto,

(x 2, y2) y = ax +b

d2 (x 3, a x 3+b)

d3
(x 2, a x 2+b )

(x 1, a x 1+b )
(x 3, y3)
d1

(x 1, y1)

0 x

Figura 4.3: A dist ancia vertical agregada entre os tres pontos (x1 , y1 ),
(x2 , y2 ), (x3 , y3 ) e a reta y = ax + b.

i i

i i
aal
i i
2017/2/2
page 121
i i

[SEC. 4.6: APLICAC


AO:
O METODO DOS MINIMOS QUADRADOS 121

os valores para a e b dados pelas equacoes normais,


n
 n  n 
  
n xi yi xi yi
i=1 i=1 i=1
a=
n
 n
2
 
n x2i xi
i=1 i=1

e  n
 n   n  n

   
x2i yi xi yi
i=1 i=1 i=1 i=1
b=
n
 n
2
 
n x2i xi
i=1 i=1
s
ao justamente aqueles que minimizam a soma dos quadrados dos
desvios:
n

s(a, b) = d21 + d22 + + d2n = (a xi + b yi )2 .
i=1

Tambem e possvel deduzir os valores de a e b otimos usando tecnicas


de c
alculo diferencial. O leitor interessado pode consultar o Captu-
lo 11 do livro [02].

Observa c
ao. Vamos agora obter uma formula explcita para a proje-
ao ortogonal de um vetor b Rm no espaco W = C(A) gerado pelas
c
colunas de uma matriz A Mmn (R), para o caso em que AT A e
uma matriz inversvel. Seja
PrC(A) : Rm C(A)
b  PrC(A) (b)
a projecao ortogonal de Rm em W = C(A). Sabemos que PrC(A) (b) =
Ax para algum x  argminxRn ||b Ax||2 . Mais ainda, tambem sa-
bemos que x  satisfaz as equacoes normais AT Ax = AT b. Se AT A
e uma matriz inversvel, entao x  = (AT A)1 AT b e, portanto,
x = A(AT A)1 AT b.
PrC(A) (b) = A
" #$ %
M

i i

i i
aal
i i
2017/2/2
page 122
i i

122 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

Observaao. A matriz M = A(AT A)1 AT satisfaz duas proprie-


c
dades:
1. M2 = M. De fato:
M2 = MM = A(AT A)1 AT A(AT A)1 AT
" #$ %
I
= A(AT A)1 AT = M.

2. MT = M. De fato:
()
MT = (AT )T ((AT A)1 )T AT = (AT )T ((AT A)T )1 AT
= A(AT A)1 AT = M.
Note que, em (), usamos o seguinte resultado: se B e uma matriz
inversvel, entao (B1 )T = (BT )1 . Com efeito:
BB1 = I (B1 )T BT = IT = I (BT )1 = (B1 )T .

Ser
a que toda matriz P que satisfaz as duas propriedades acima e uma
projecao? A resposta e sim, de acordo com a pr
oxima proposicao.

Proposi c
ao 4.9 Se P e uma matriz n por n, simetrica, satis-
fazendo P2 = P, ent ao P e a projecao de Rn no subespaco
vetorial W = C(P).

Demonstrac ao: Basta mostrar que b Pb e ortogonal a W = C(P),


isto e, que para todo y W = C(P), (b Pb)T y = 0. Mas,
se y W = C(P) = Im(P), entao y = Pc, para algum c Rn .
Entao,
(b Pb)T y = (b Pb)T Pc = (bT bT PT )Pc
= (bT bT P)Pc = bT Pc bT P2 c
= bT Pc bT Pc = 0.

Observac
ao. A decomposicao QR simplica o problema dos mnimos
quadrados. De fato, se A e uma matriz cujas colunas sao LI e A =

i i

i i
aal
i i
2017/2/2
page 123
i i

[SEC. 4.7: HOUSEHOLDER E GIVENS 123

QR, entao as equacoes normais cam assim:


AT Ax = AT b (QR)T QRx = (QR)T b
RT QT QRx = RT QT b
RT Rx = RT QT b
Rx = QT b.
Lembre-se que se as colunas de A sao LI, entao R e RT sao matrizes
inversveis.

4.7 Householder e Givens


Se A e uma matriz cujas colunas sao LI, vimos que o processo de
ortonormalizacao de Gram-Schmidt, atraves de projecoes ortogonais,
obtem uma decomposicao QR para A. Nesta secao veremos duas
outras maneiras de construir a decomposicao QR de uma matriz:
atraves das transformacoes de Householder (que usam reex oes) e
as rotac
oes de Givens.
Dado um vetor u Rn , com ||u|| = 1, queremos encontrar a ma-
triz da transformac
ao linear
H : Rn Rn
,
x  Hx
que, a cada x Rn , associa Hx, que e a reex
ao de x com relacao
ao hiperplano {u} (Figura 4.4).
Note que Hx = x 2 Px, onde Px e a projecao ortogonal de x
no subespaco vetorial W = [u]. Ja sabemos que Px = x, u u.
Portanto,
Hx = x 2 Px = x 2 x, u u = x 2 uT xu.
Uma vez que uT x e uma matriz 1 por 1, vale que uT xu = uuT x.
Desta maneira,
Hx = x 2 uuT x = (I 2 uuT )x H = I 2 uuT .
A matriz H e ortogonal, pois
HT H = (I 2 uuT )T (I 2 uuT ) = (I 2 uuT )(I 2 uuT )
= I 2 uuT 2 uuT + 4 u u T
"#$%u uT = I.
1

i i

i i
aal
i i
2017/2/2
page 124
i i

124 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

ao de x com relacao ao hiperplano {u} .


Figura 4.4: Hx e a reex

A ideia agora e determinar uma matriz H1 = I 2 uuT (denominada


matriz de Householder) tal que,





H1
v 1



" #$ %
A

||v1 ||

0

.. ,
=

.
B
0
0

i i

i i
aal
i i
2017/2/2
page 125
i i

[SEC. 4.7: HOUSEHOLDER E GIVENS 125

o primeiro passo para obter uma matriz R triangular superior com


diagonal positiva. Como determinar o vetor u? A reexao H1 deve
levar v1 em ||v1 || e1 . Para isto, basta considerar
v1 ||v1 || e1
u= .
||v1 ||v1 || e1 ||
A Figura 4.5 ilustra o motivo de tal escolha. Tambem nao e difcil
vericar diretamente que, com esta escolha de u, H1 v1 = ||v1 || e1 .
O proximo passo e determinar uma nova matriz H2 de tal forma que

Figura 4.5: A transformacao de Householder que leva v1 em ||v1 || e1 .


||v1 ||
0

0 0
H2 H1 A = ,
.. .. .. .. ..
. . . . .
0 0
Isto pode ser feito tomando-se H2 com a seguinte estrutura em blocos:

1 0T
H2 = ,
0 I 2 wwT

i i

i i
aal
i i
2017/2/2
page 126
i i

126 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

onde a matriz de Householder I 2 wwT e calculada de maneira


completamente analoga ao que foi feito para a matriz inicial A mas,
agora, operando sobre o bloco B. Repetindo-se de maneira indutiva
este processo, obtemos uma equacao matricial da forma
Hn H2 H1 A = R,
onde as matrizes H1 , H2 , . . . , Hn sao ortogonais e a matriz R e
triangular superior com todos os elementos da diagonal principal di-
ferentes de zero. A decomposicao QR e entao dada, em princpio,
por
A = HT1 HT2 HTn R.
" #$ %
Q

Pode acontecer (como veremos no pr oximo exemplo), do u ltimo ele-


mento rnn da diagonal principal de R ser negativo. Neste caso, basta
multiplicar a linha n de R e a coluna n de Q por 1 para obter, no
nal, uma decomposicao QR com R triangular superior com diagonal
positiva.

Exemplo 4.11 Vamos calcular a decomposicao QR da matriz



3 0 0
A= 4 0 1
0 1 0
usando as transformacoes de Householder.

Passo 1. Temos que



3 2
v1 = 4 , ||v1 || = 5, u = v1 ||v1 || e1 = 4 ,
0 0
3
2 4
0

u 1 5 5
u= = 4 , H1 = I 2 uuT = 45 35 0 ,
||
u|| 20 0 0 0 1
4

5 0 5

H1 A = 0 0 35 .
0 1 0

i i

i i
aal
i i
2017/2/2
page 127
i i

[SEC. 4.7: HOUSEHOLDER E GIVENS 127

Passo 2. Temos que



0 35
B=
1 0
 
0 1
v2 = , ||v2 || = 1,  = v1 ||v1 || e1 =
u ,
1 1


u 1 1
u= = ,
||
u|| 2 1

0 0 0 1 0 0
H2 = 0 = 0 0 1 ,
I 2 uuT
0 0 1 0

4

5 0 5
H2 H1 A = 0 1 0 .
0 0 35

Desta maneira, vemos que


4
3 4
4

5 0 5 5 0 5 5 0 5
A = HT1 HT2 0 1 0 = 54 0 35 0 1 0 .
0 0 35 0 1 0 0 0 35

Observe que o elemento (3, 3) da matriz triangular superior e nega-


tivo. Para obter uma decomposicao QR, basta multiplicar a terceira
linha da matriz triangular superior e a terceira coluna da matriz or-
togonal por 1:
3
5 0 45 5 0 4
5
A = 54 0 3
5 0 1 0 .
3
0 1 0 0 0
" #$ %" #$ 5
%
Q R

Para modicar, via multiplicacoes por matrizes ortogonais, uma


data matriz em uma matriz triangular superior, o metodo de Givens

i i

i i
aal
i i
2017/2/2
page 128
i i

128 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

emprega rotac
oes da forma


1



..
. 0


1

c s p

G= .. .. ..
. . .

s c q

1

0 ..
.
1
p q
de tal maneira que



.. ..
. .



a p a2 + b 2 p
.
G
.. =

..
.
.


b q 0 q


. .
.. ..

Escolhendo-se entao valores sucessivos de p e q adequados, e possvel


colocar zeros nos elementos (i, j), com i > j, da matriz inicial.
Note que, no plano xp xq , os valores de c (cosseno) e s (seno) sao
determinados por
  
c s a a2 + b 2
= e c2 + s2 = 1,
s c b 0

isto e,
4
ac bs = a2 + b 2 , bc + as = 0 e c2 + s2 = 1,

i i

i i
aal
i i
2017/2/2
page 129
i i

[SEC. 4.7: HOUSEHOLDER E GIVENS 129

cuja solucao e dada explicitamente por

a b
c= es= .
a + b2
2 a2 + b 2

Exemplo 4.12 Vamos calcular a decomposicao QR da matriz



3 0 0
A= 4 0 1
0 1 0

usando as rotac
oes de Givens.

Passo 1. Temos que


4
a = 3, b = 4, a2 + b2 = 5, c = 3/5, s = 4/5,
3 4
4

5 5 0 5 0 5
G1 = 45 3
5 0 , G1 A = 0 0 3
5 .
0 0 1 0 1 0

Passo 2. Temos que


4
a = 0, b = 1, a2 + b2 = 1, c = 0, s = 1,
4

1 0 0 5 0 5
G2 = 0 0 0 , G2 G1 A = 0 1 0 .
0 1 1 0 0 35

Desta maneira, vemos que


4
3 4
4

5 0 5 5 0 5 5 0 5
A = GT1 GT2 0 1 0 = 54 0 35 0 1 0 .
0 0 35 0 1 0 0 0 35

Observe que o elemento (3, 3) da matriz triangular superior e nega-


tivo. Para obter uma decomposicao QR, basta multiplicar a terceira

i i

i i
aal
i i
2017/2/2
page 130
i i

130 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

linha da matriz triangular superior e a terceira coluna da matriz or-


togonal por 1:
3
5 0 45 5 0 4
5
A = 54 0 3
5 0 1 0 .
3
0 1 0 0 0
" #$ %" #$ 5
%
Q R

Observa cao. O n umero de operacoes (multiplicacoes e divisoes)


necess
arias para se resolver um problema de mnimos quadrados (isto
e, o c
alculo da decomposicao QR e a resolucao do sistema linear
triangular superior) e igual a

2 n2 m 2 n3 /3

para o processo de ortonormalizacao de Gram-Schmidt e para as trans-


formac
oes de Householder. Para as rotacoes de Givens, este n
umero
e igual a
3 n2 m n3 .
O processo de Gram-Schmidit nao e numericamente estavel. Mais
detalhes em [05, paginas 109, 121 e 123] e [07, paginas 225 e 227].

4.8 Subespa
cos Ortogonais

Deni ao 4.6 (Conjunto ortogonal) Seja S um subcon-


c
junto (n ao necessariamente um subespaco vetorial) de espaco
vetorial (V, K, +, ) um espaco vetorial com produto interno
 ,  : V V K. O conjunto ortogonal a S e

S = {v V | s, v = 0, para todo s S}.

Observa
c
oes.
(1) S e um subespaco vetorial de V , mesmo que S nao o seja.
(2) {0} = V .

i i

i i
aal
i i
2017/2/2
page 131
i i

[SEC. 4.8: SUBESPAC


OS ORTOGONAIS 131

(3) V = {0}.
ao B = {0}.
(4) Se B e uma base de V , ent

Proposi ao 4.10 Sejam (V, K, +, ) um espaco vetorial com


c
produto interno  ,  : V V K, W um subespaco veto-
rial de V e {w1 , . . . , wk } um conjunto gerador de W (isto e,
[w1 , . . . , wk ] = W ). Entao

v W se, e somente se, v, wi  = 0, i = 1, . . . , k.

Demonstrac
ao: Exerccio.

Proposi ao 4.11 Sejam (V, K, +, ) um espaco vetorial de di-


c
mensao nita com produto interno  ,  : V V K e W um
subespaco vetorial de V . Ent
ao

V = W W .

Demonstracao: Seja BW = {w  1, . . . , w
 k } uma base de W . Pelo pro-
cesso de ortonormalizacao de Gram-Schmidt, existe um conjunto or-
tonormal {w1 , . . . , wk } tal que
W = [w1 , . . . , wk ].
Complete o conjunto {w1 , . . . , wk } para obter uma base de V , diga-
mos, {w1 , . . . , wk , u 1 , . . . , u
 nk }. Novamente pelo processo de or-
tonormalizac ao de Gram-Schmidt, existe um conjunto ortonormal
{w1 , . . . , wk , u1 , . . . , unk } que e base de V . Assim, se v V , entao
k
 nk

v= v, wi  wi + v, uj  uj .
i=1 j1
" #$ % " #$ %
W W

Isto mostra que V = W + W . Agora, se v W W , entao v v,


isto e, v, v = ||v||2 = 0. Logo, v = 0 e, portanto, V = W W .

i i

i i
aal
i i
2017/2/2
page 132
i i

132 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

Corolario 4.4 Sejam (V, K, +, ) um espaco vetorial de di-


mensao nita com produto interno  ,  : V V K e W
um subespaco vetorial de V . Ent
ao

dimK (V ) = dimK (W ) + dimK (W ).

4.9
O Teorema Fundamental da Algebra
Linear

Seja A : Rn Rm uma transformacao linear. Sem risco de con-


fusao, vamos denotar por A a matriz desta transformacao linear com
relac onicas de Rn e Rm . Note, entao, que A tem
ao a`s bases can
tamanho m n. Dena a transformacao linear adjunta

AT : Rm Rn

como a transformac ao linear cuja matriz com relacao `as bases can
o-
nicas de Rm e Rn e a matriz AT , a matriz transposta de A (veja
tambem o Exerccio [21] deste captulo).
Observe que os conjuntos Ker(A) e Im(AT ) = R(A) s ao su-
bespacos vetoriais de Rn e que os conjuntos Im(A) = C(A) e Ker(AT )
(o n ao subespacos vetoriais de Rm .
ucleo a esquerda) s
Seja r = dimR (Im(A)) = dimR (C(A)) o posto de A. Temos ent ao
os seguintes fatos:

(1) dimR (Ker(A)) = n r (pelo Teorema do N


ucleo e da Imagem).

(2) dimR (Im(AT )) = dimR (R(A)) = dimR (C(A)) = r Note que, na


penultima igualdade, usamos o fato de que o posto segundo linhas
de uma matriz e igual ao seu posto segundo colunas (Teorema 2.7
na pagina 39).

(3) dimR (Ker(AT )) = m dimR (Im(AT )) = m r. Note que, na


primeira igualdade, usamos o Teorema do N
ucleo e da Imagem.

i i

i i
aal
i i
2017/2/2
page 133
i i


[SEC. 4.9: O TEOREMA FUNDAMENTAL DA ALGEBRA LINEAR 133

(4) Ker(A) = (R(A)) = (C(AT )) = (Im(AT )) . Com efeito:


uma vez que dimR (Im(AT )) = r temos que dimR ((Im(AT )) ) =
n r (pelo Corolario 4.4). Como dimR (Ker(A)) = n r, vemos
que os subespacos vetoriais (de Rn ) Im(AT ) e Ker(A) possuem
a mesma dimens ao. Mas Ker(A) (Im(AT )) , pois

x Ker(A) Ax = 0 xT AT = 0T
xT AT y = 0, y Rm
 AT y, x = 0, y Rm
x (Im(AT )) .

Portanto, Ker(A) = (Im(AT )) e, assim,

Rn = Ker(A) Im(AT ).

(5) Ker(AT ) = (C(A)) = (Im(A)) . Com efeito: uma vez que


dimR (Im(A)) = r segue-se que dimR ((Im(A)) ) = m r (pelo
ario 4.4). Como dimR (Ker(AT )) = m r, vemos que os
Corol
subespacos vetoriais (de Rm ) Im(A) e Ker(AT ) possuem a mesma
dimensao. Mas Ker(AT ) (Im(A)) , pois

y Ker(AT ) AT y = 0 yT A = 0T
yT Ax = 0, x Rn
 Ax, y = 0, x Rn
y (Im(A)) .

Portanto, Ker(AT ) = (Im(A)) e, assim,

Rm = Ker(AT ) Im(A).


Demonstramos entao o Teorema Fundamental da Algebra Linear:

Teorema 4.3 (Fundamental da Algebra Linear) Seja


A : Rn Rm uma transformacao linear.

i i

i i
aal
i i
2017/2/2
page 134
i i

134 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

Parte 1: Os quatro subespacos fundamentais, Im(A) = C(A),


Ker(A), Im(AT ) = R(A) e Ker(AT ), tem as seguintes
dimens
oes:
1. Im(A) = C(A) tem dimens
ao r.
ao n r.
2. Ker(A) tem dimens
3. Im(AT ) = R(A) tem dimens
ao r.
4. Ker(AT tem dimens
ao m r.
Parte 2: Ker(A) = (Im(AT )) e Ker(AT ) = (Im(A)) . Em
particular,

Rn = Ker(A) Im(AT ), Rm = Ker(AT ) Im(A)

e (conforme a Figura 4.6)

A : Rn = Ker(A) Im(AT ) Rm = Ker(AT ) Im(A)


x = xK + xR  A(x) = A(xR ).

4.10 Exerccios
[01] Seja T : U V uma transformacao linear injetora. Se , V e
um produto escalar em V , mostre que
u1 , u2 U = T(u1 ), T(u2 )V
dene um produto escalar em U .
Corolario: se U e um subespaco vetorial de V e V possui um
produto interno , V , entao considerando-se T como a in-
clus
ao natural de U em V (isto e, a transformacao identi-
dade restrita a U ), pelo resultado anterior, teremos como con-
sequencia que , V restrito a U U e um produto interno
em U .
[02] (Identidades de polariza c
ao) Considere um espaco veto-
rial (V, K, +, ) com produto interno ,  : V V K.

i i

i i
aal
i i
2017/2/2
page 135
i i

[SEC. 4.10: EXERCICIOS 135

Figura 4.6: O Teorema Fundamental da Algebra


Linear.

i i

i i
aal
i i
2017/2/2
page 136
i i

136 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

(a) Mostre que se K = R, entao


1 1
u, v = ||u + v||2 ||u v||2 .
4 4
(b) Mostre que se K = C, entao
1 1 i i
u, v = ||u+v||2 ||uv||2 + ||u+i v||2 ||uiv||2 .
4 4 4 4
[03] (O Teorema de Pit agoras) Demonstre o Teorema de Pita-
goras: se u e v sao vetores ortogonais, entao
||u + v||2 = ||u||2 + ||v||2 .

[04] Use a desigualdade de Schwarz em R3 para provar que, dados


valores reais positivos a1 , a2 e a3 em R, entao
 !
1 1 1
(a1 + a2 + a2 ) + + 9.
a1 a2 a3

[05] Mostre que o produto de duas matrizes ortogonais e ortogonal.


[06] Demonstre a Proposicao 4.6.
[07] Mostre que a matriz de rotacao R (veja o Exemplo 2.4 na
pagina 30) e uma matriz ortogonal. O que e Ra Rb ? Deduza as
identidades trigonometricas para sen(a + b) e cos(a + b) a partir
da multiplicacao Ra Rb .
[08] Seja u Rn um vetor unitario. Mostre que Q = I 2uuT
e uma matriz ortogonal (ela e uma reexao com relacao ao
plano {v Rn | uT v = 0}, tambem conhecida como trans-
formac
ao de Householder). Calcule Q quando
& '
uT = 1/2 1/2 1/2 1/2 .

[09] Aplique o processo de ortonormalizacao de Gram-Schmidt para


os vetores

0 0 1
v1 = 0 , v2 = 1 e v3 = 1
1 1 1
e escreva o resultado na forma A = QR.

i i

i i
aal
i i
2017/2/2
page 137
i i

[SEC. 4.10: EXERCICIOS 137

[10] Mostre que se u, v = 0 para todo v V , entao u = 0.

[11] (a) Mostre que se A, B Mnn (R), entao tr(AB) = tr(BA).


(b) Mostre que se A Mnn (R), entao tr(AT ) = tr(A).
(c) Mostre que se A Mnn (R) e tr(AT A) = 0, ent
ao A = 0.
(d) Mostre que
A, B = tr(AT B)
dene um produto interno em V = Mnn (R).

[12] Sejam

1 0  1
x1
A= 0 1 , x= e b = 3 .
x2
1 11 4

Calcule os pontos crticos da funcao f (x1 , x2 ) = ||b Ax||2


(aqui || || e a norma euclidiana) e os compare com a solucao
das equac oes normais AT Ax = AT b.

[13] Seja P a projec


ao em um subespaco vetorial W e Q a projecao
no complemento ortogonal W T . O que e P+Q? E PQ? Mostre
que P Q e igual a sua pr
opria inversa.

[14] Mostre que se P = PT P, entao P e uma matriz de projecao.

[15] Seja P a matriz de projecao de um vetor em R3 no plano-xy.


Desenhe uma gura para descrever o efeito da matriz de reex
ao
H = I 2 P. Explique geometricamente e algebricamente, por
que H2 = I.

[16] Se PC = A(AT A)1 AT e a projecao sobre o espaco das colunas


de A, qual e a projecao PR sobre o espaco das linhas de A?

[17] Mostre que a melhor aproximacao pelo metodos dos quadrados


mnimos para um conjunto de medidas y1 , . . . , ym por uma reta
horizontal (isto e, por uma funcao constante y = c) e a media
y1 + + ym
c= .
m

i i

i i
aal
i i
2017/2/2
page 138
i i

138 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

Em termos estatsticos, a escolha y que minimiza o erro E 2 (y) =


(y1 y)2 + + (ym y)2 e igual a media da amostra. O valor
E 2 (y) e denominado a vari ancia 2 da amostra.

[18] (O algoritmo QR) Texto extrado do livro Numerical Com-


puting with Matlab, escrito por Cleve Moler, programador ori-
ginal do MATLAB:

The QR algorithm is one of the most important,


widely used, and successful tools we have in technical
computation. Several variants of it are in the math-
ematical core of Matlab. They compute the eigen-
values of real symmetric matrices, real nonsymmetric
matrices, and pairs of complex matrices, and the sin-
gular values of general matrices.

Dada uma matriz A0 = A, calcule sua decomposicao QR:

A0 = Q0 R0

e, ent
ao, troque permute os fatores:

A1 = R0 Q0 .

As matrizes A1 e A0 sao matrizes semelhantes, uma vez que


Q1 1
0 A0 Q0 = Q0 (Q0 R0 )Q0 = A1 . Desta maneira, a conti-
nuac
ao do processo sempre obtem uma matriz com os mesmos
autovalores da matriz original:

Ak = Qk Rk e, ent
ao, Ak+1 = Rk Qk .

Sob certas hipoteses, e possvel mostrar que Ak converge para


uma matriz triangular cujos elementos da diagonal principal
s
ao os autovalores da matriz A. Este metodo numerico para se
calcular autovalores e conhecido como unshift QR algorithm.
Para detalhes, aperfeicoamentos e demonstracoes do algoritmo,
consulte o livro [05]. O objetivo deste exerccio e fazer experi-
mentos com o algoritmo QR no MATLAB.

(a) Escolha quatro n


umeros reais distintos: r = [1 2 3 4].

i i

i i
aal
i i
2017/2/2
page 139
i i

[SEC. 4.10: EXERCICIOS 139

(b) Dena uma matriz A cujos autovalores sejam as entradas


do vetor r. Dica: calculo os valores das constantes c0 , c1 ,
c2 e c3 tais que

c0 + c1 x + c2 x2 + c3 x3 + x4 = (x 1)(x 2)(x 3)(x 4)

e tome A como a matriz companheira:



0 0 0 c0
1 0 0 c1
A= 0 1 0 c2
.

0 0 1 c3

(c) Aplique a interacao QR:


n = 40; for i=1:n [Q, R] = qr(A); A = RQ; end; A.

[19] Considere a transformacao de Householder H = I 2uuT , onde

v ||v||e1
u= ,
||v ||v||e1 ||

onica de Mn1 (R). Mostre


com e1 o primeiro vetor da base can
que
Hv = ||v||e1 .

[20] Calcule a decomposicao QR das matrizes



1 1 1 0 0 1

A= 1 1 0 e
B= 0 1 1
1 0 0 1 1 1

usando (a) o processo de ortonormalizacao de Gram-Schmidt,


(b) as transformacoes de Householder e (c) as rotacoes de Gi-
vens.

[21] (Transforma cao adjunta) Sejam U e V espacos vetoriais de


dimensao nita com produto interno e seja T : U V uma
transformac
ao linear.

i i

i i
aal
i i
2017/2/2
page 140
i i

140 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

(a) Dado v V , mostre que existe um u  U tal


nico vetor u
que
 U
T(u), vV = u, u
para todo u U .
(b) O item (a) permite denir uma aplicacao
T : V U
v  T (v) = u
,
 e o u
onde u  U .
nico vetor em U tal que T(u), vV = u, u
Mostre que T e uma transformacao linear, denominada
adjunta de T.
(c) Sejam BU e BV bases ortonormais de U e V , respectiva-
mente. Mostre que se A = (aij ) e a matriz de T com
relac as bases U e V , entao a matriz de T com relacao
ao `
as estas mesmas bases e A = (aji ). Note que se K = R,
entao A = AT .
[22] Seja V = C([1, 1], R) com o produto interno dado por
 1
f, g = f (x) g(x) dx.
1

Seja W V o subespaco vetorial formado pelas funcoes mpares,


isto e,
W = {f V | f (x) = f (x) para todo x [1, 1]}.
Determine o complemento ortogonal W de W .
[23] Seja V = C([0, 2 ], R) com o produto interno dado por
 2
f, g = f (x) g(x) dx.
0

Determine argmingW ||f g||2 , onde W = [1, cos, sen] e f (x) =


x 1.
[24] Seja V um espaco vetorial de dimensao nita com produto
interno. Se W e um subespaco vetorial de V , mostre que
(W ) = W .

i i

i i
aal
i i
2017/2/2
page 141
i i

[SEC. 4.10: EXERCICIOS 141

[25] Seja B = {v1 , . . . , vn } uma base de um espaco vetorial V com


produto interno. Mostre que B = {0}.
[26] Mostre que o sistema Ax = b possui pelo menos uma solucao
se, e somente se,
AT y = 0 bT y = 0.

[27] Seja A uma matriz real m n. Mostre que a transformacao


linear
T : R(A) C(A)
x  T(x) = Ax
e inversvel. Aqui R(A) representa o espaco vetorial gerado
pelas linhas de A e C(A) representa o espaco vetorial gerado
pelas colunas de A.

[28] O Teorema Fundamental da Algebra Linear e frequentemente
enunciado na forma da alternativa de Fredholm: para quaisquer
A e b, um, e somente um, dos sistemas abaixo possui pelo
menos uma solucao:
(1) Ax = b.
(2) AT y = 0 e yT b = 0.
Em outras palavras, ou b esta em C(A) ou existe y Ker(AT )
tal que yT b = 0. Mostre que, de fato, o sistemas (1) e (2) n
ao
podem possuir pelo menos uma solucao simultaneamente.
[29] Seja T : Rn Rn a projecao em W = [u], com u = 0, usando-
onico em Rn .
se o produto interno can
(a) Mostre que, para todo x Rn , T(x) = Ax, onde A =
uuT /||u||2 .
(b) Mostre que A2 = A.
(c) Mostre que tr(A) = 1.
(d) A e uma matriz inversvel? Justique a sua resposta!
[30] Diga se cada uma das sentencas abaixo e verdadeira ou falsa.
Se ela for verdadeira, apresente uma demonstracao. Se ela for
falsa, apresente um contra-exemplo.

i i

i i
aal
i i
2017/2/2
page 142
i i

142 [CAP. 4: ORTOGONALIDADE E A DECOMPOSIC QR


AO

(a) Sejam U e V subespacos vetoriais de um espaco vetorial


ao U e
com produto interno. Se U e ortogonal a V , ent

ortogonal a V .
(b) Se U e ortogonal a V e V e ortogonal a W , entao U e
ortogonal a W .

i i

i i
aal
i i
2017/2/2
page 143
i i

Captulo 5

SVD e A Pseudoinversa

5.1 Autovalores e O Teorema Espectral

Deni ao 5.1 Seja A Mnn (R). Dizemos que C e um


c
autovalor da matriz A se existe v Cn , com v = 0, tal que

Av = v.

Neste caso, dizemos que v e um autovetor de A associado ao au-


tovalor .

Proposi ao 5.1 Seja A Mnn (R). As seguintes sentencas


c
s
ao equivalentes:
(1) e um autovalor de A.
(2) A matriz A I nao e inversvel.
(3) Ker(A I) = {0}.
(4) e raiz do polinomio caracterstico p(x) = det(A xI).

143

i i

i i
aal
i i
2017/2/2
page 144
i i

144 [CAP. 5: SVD E A PSEUDOINVERSA

Demonstrac
ao: Exerccio.

Proposicao 5.2 Se A Mnn (R) e simetrica, entao todos


os autovalores de A sao reais.
Demonstracao: (Seguindo [01]) Seja = a + b i um autovalor de A
(com a, b R). Uma vez que det(A I) = 0, temos que
det((A a I) b i I) = 0.
Multiplicando-se os dois lados desta igualdade por det((A a I) +
b i I), obtemos que
det((A a I) b i I) det((A a I) + b i I) = 0
Desta maneira,
det(((A a I) b i I)((A a I) + b i I)) = det((A a I)2 + b2 I) = 0.
Em particular, a matriz (A a I)2 + b2 I n
ao e inversvel. Por outro
lado, uma vez que A e simetrica,
xT (A a I)2 x = xT (A a I)T (A a I) x
= ((A a I) x)T ((A a I) x)
= ||(A a I) x||2 0
para todo x Rn , isto e, a matriz A a I e positiva semidenida.
Suponha, por absurdo, que b seja diferente de 0. Entao b2 I seria
positiva denida e, como a soma de uma matriz positiva semidenida
com uma matriz positiva denida e ainda positiva denida, segue-se
que (A a I)2 + b2 I tambem seria positiva denida. Mas matrizes
positivas denidas sao inversveis (Exerccio [16] do Captulo 3), uma
ao. Assim, b = 0 e R.
contradic

Proposi cao 5.3 Seja A Mnn (R) uma matriz simetrica. Se


ao dois autovalores de A, com 1 = 2 , e se v1 e v2 sao
1 e 2 s
autovetores associados aos autovalores 1 e 2 , respectivamente,
entao v1 e v2 s
ao ortogonais.

i i

i i
aal
i i
2017/2/2
page 145
i i

[SEC. 5.1: AUTOVALORES E O TEOREMA ESPECTRAL 145

o: Temos que Av1 = 1 v1 e Av2 = 2 v2 . Portanto,


Demonstraca

Av1 , v2  = vT2 Av1 = vT2 (1 v1 ) = 1 vT2 v1 = 1 v1 , v2  .

Por outro lado,

Av1 , v2  = vT2 Av1 = vT2 AT v1 = (Av2 )T v1 = (2 v2 )T v1


= 2 vT2 v1 = 2 v1 , v2  .

Logo, 1 v1 , v2  = 2 v1 , v2 . Uma vez que 1 = 2 , devemos ter


v1 , v2  = 0. Portanto, v1 e v2 sao ortogonais.

Teorema 5.1 (Teorema Espectral para matrizes reais


simetricas) Se A Mnn (R) e uma matriz simetrica, entao
existe matriz ortogonal Q tal que

QT AQ = D = diag(1 , . . . , n ),

isto e, QT AQ e uma matriz diagonal cujos elementos da diago-


nal principal s
ao os autovalores de A.

Demonstrac ao: (Seguindo [01]) O caso n = 1 e imediato. Suponha


entao que, para toda matriz B real simetrica de tamanho nn, exista
uma matriz ortogonal Q  tal que Q  e uma matriz diagonal cujos
 T BQ
elementos da diagonal principal sao os autovalores de B. Seja q /1 um
autovetor associado a um autovalor 1 de A. Sem perda de genera-
lidade, podemos supor que ||/ / uma matriz ortogonal
q1 || = 1. Seja Q
cuja primeira coluna e q /1 . Tal matriz sempre existe: complete o con-
junto {/ q1 } para obter uma base de Rn e, ent ao, use o processo de
ortonormalizacao de Gram-Schmidt para obter uma base ortonormal
{/ /n }. Desta maneira:
q1 , . . . , q

1 0 0
0
M=Q / =
/ T AQ ..

.
. B
0

i i

i i
aal
i i
2017/2/2
page 146
i i

146 [CAP. 5: SVD E A PSEUDOINVERSA

De fato: se M = (mij ) e M = Q / T AQ,


/ entao mij = q/Ti A/
qj . Por-
tanto,

T T 1 , se i = 1,
/ i A/
mi1 = q /i q
q1 = 1 q /j =
0, se i 2.

Uma vez que A e simetrica, segue-se que M = Q / T AQ / tambem e


simetrica e, entao m1i = 0 para todo i 2. Observe agora que
os autovalores de Q / sao os mesmos valores de A: 1 , . . . , n
/ T AQ
(exerccio!). Portanto, os autovalores de B sao 2 , . . . , n . Uma vez
que M = Q / e uma matriz simetrica, segue-se que B tambem e
/ T AQ
simetrica. Pela hipotese de inducao,

 T BQ
Q  = diag(2 , . . . , n ).

Dena
1 0 0
0
/
Q=Q ..

.
. 
Q
0

Note entao que QT AQ = diag(1 , . . . , n ).

Observac
ao. Se q1 , . . . , qn sao as colunas da matriz Q no enunciado
do Teorema Especial, entao

QT AQ = diag(1 , . . . , n ) AQ = Q diag(1 , . . . , n )
Aqi = i qi , i = 1, . . . , n,

isto e, qi e um autovetor associado ao autovalor i . Note tambem


que se QT AQ = diag(1 , . . . , n ), entao

A = Q diag(1 , . . . , n )QT

ou, ainda,
A = 1 q1 qT1 + + n qn qTn .

Esta u
ltima igualdade e conhecida como a decomposic
ao espectral da
matriz A.

i i

i i
aal
i i
2017/2/2
page 147
i i

[SEC. 5.1: AUTOVALORES E O TEOREMA ESPECTRAL 147

Teorema 5.2 Seja A uma matriz simetrica n n. Dena

m = min xT Ax e M = max xT Ax.


||x||=1 ||x||=1

Ent
ao
1. m e o menor autovalor de A e o mnimo ocorre quando x e
um autovetor unitario associado,
2. M e o maior autovalor de A e o maximo ocorre quando x e
um autovetor unitario associado.

Demonstraca o: Pelo Teorema Espectral, considere uma base ortonor-


mal {v1 , . . . , vn } de autovetores associados aos autovalores 1 , . . . ,
n . Se
 n
x= i vi ,
i=1

entao ||x||2 = 21 + + 2n e ||x|| = 1 21 + + 2n = 1. Temos


tambem que
 n T
 n
xT Ax = i vi A j vj
i=1 j=1
 n  n
 
= i vTi j Avj
i=1 j=1
 n  n

 
= i vTi j j vj
i=1 j=1
n 
 n
= i j j vTi vj
i=1 j=1
n

= i 2i .
i=1

i i

i i
aal
i i
2017/2/2
page 148
i i

148 [CAP. 5: SVD E A PSEUDOINVERSA

Desta maneira,
n

M = max xT Ax = max i 2i .
||x||=1 21 ++2n =1
i=1

Sem perda de generalidade, vamos supor que

1 2 n .

Note agora que




1 21 = 1 21 ,

2 22 1 22 , n n
 
.. i 2i 1 2i = 1 1 = 1 .

.

i=1 i=1
n 2n 1 2n .

Assim, M 1 . Tomando 2 = = n = 0 e 1 = 1, vemos que


M = 1 e este valor e atingido em x = 1v1 + 0v2 + + 0vn = v1 .
Um argumento an alogo mostra que m = n e o mnimo e atingido
em x = vn .
Agora,
n se (1 , . . . , n
) e outro ponto que maximiza f (1 , . . . , n ) =
2 n 2
i=1 i i sujeito a i=1 i = 1, ent
ao

1 = f (1 , . . . , n ) = 1 (1 )2 + + n (n )2 .

Por outro lado,

1 = 1 1 = 1 ((1 )2 + + (n )2 )) = 1 (1 )2 + + 1 (n )2 .

Sendo assim, subtraindo-se as duas equacoes, vemos que

(1 2 )(2 )2 + + (1 n )(n )2 = 0.

Desta maneira, para os autovalores i diferentes de 1 , obrigatoria-


mente i = 0. Desta maneira
n
 n

x= i vi = i vi
i=1 i=1
i =1

i i

i i
aal
i i
2017/2/2
page 149
i i

[SEC. 5.1: AUTOVALORES E O TEOREMA ESPECTRAL 149

e autovetor associado ao autovalor 1 . Um mesmo argumento mostra


que qualquer outro ponto de mnimo global de x  xT Ax sujeito
a ||x|| = 1 deve ser um autovetor associado ao autovalor n .

Teorema 5.3 Sejam A, v1 e 1 , como no enunciado e na de-


monstracao do Teorema 5.2. Entao o maximo de

f (x) = xT Ax

sujeito `as restricoes

xT x = ||x||2 = 1 e xT v1 = 0

e o segundo maior autovalor 2 de A e o m aximo e atingido


quando x e um autovetor unitario correspondente.

Demonstraca o: Como antes, o problema de maximizar f (x) = xT Ax


sujeito a ||x|| = 1 e xT v1 = 0 e equivalente a maximizar
n

f (1 , . . . , n ) = i 2i
i=1

sujeito a
21 + + 2n = 1 e 1 = 0.

Note que a condicao 1 = 0 e consequencia da restricao xT v1 = 0.


Agora, como antes,


2 22 = 2 22 ,

3 22 n n
2 22 ,  
.. i 2i 2 2i = 2 1 = 2 .

.

i=2 i=2
n 2n 2 2n .

aximo ocorre quando 1 = 3 = = n = 0 e 2 = 1.


O m

i i

i i
aal
i i
2017/2/2
page 150
i i

150 [CAP. 5: SVD E A PSEUDOINVERSA

Teorema 5.4 Seja A uma matriz n n simetrica com uma


diagonalizacao ortogonal A = Q diag(1 , , n )QT , com 1
2 n . Ent
ao, para k = 2, . . . , n, o valor maximo de

f (x) = xT Ax

sujeito `as restricoes

xT x = 1, xT v1 = 0, ..., xT vk1 = 0,

e o autovalor k e este maximo ocorre quando x e um autovetor


unitario correspondente.

Demonstrac
ao: Analoga `a demonstracao do Teorema 5.3.

5.2 Valores Singulares


Exemplo 5.1 A matriz

4 11 14
A=
8 7 2

dene uma transformacao linear x  T(x) = Ax de R3 para R2 .


Se B = {(x1 , x2 , x3 R3 | x21 + x22 + x23 = 1}, entao a imagem T(B)
de B por T e uma elipse de centro na origem (0, 0), como ilustra
a Figura 5.1. Vamos determinar um vetor unitario x B para o qual
||Ax|| e maximo (isto e, ||Ax|| e um ponto da elipse mais afastado
da origem (0, 0)).
Observe que o ponto otimo que maximiza ||Ax|| e o mesmo ponto
otimo que maximiza ||Ax||2 (que e uma funcao mais facil de se estu-

dar). Agora
||Ax||2 = Ax, Ax = xT AT Ax.

A matriz AT A e simetrica. Assim, o problema de maximizar f (x) =


xT (AT A)x sujeito a ||x|| = 1 pode ser resolvido atraves do Teo-

i i

i i
i
i

i
i

[SEC. 5.2: VALORES SINGULARES

Figura 5.1: Imagem T(B) de uma esfera unitaria B por uma transformacao linear T.
151

i
i
aal

i
i
page 151
2017/2/2
aal
i i
2017/2/2
page 152
i i

152 [CAP. 5: SVD E A PSEUDOINVERSA

rema 5.2. Temos que



80 100 40
AT A = 100 170 140 .
40 140 200

Os autovalores de AT A sao 1 = 360, 2 = 90 e 3 = 0. Os autove-


tores correspondentes sao:

1/3 2/3 2/3
v1 = 2/3 , v2 = 1/3 e v3 = 2/3 .
2/3 2/3 1/3

O valor m aximo de f (x) = xT (AT A)x sujeito a ||x|| = 1 e 1 = 360


que e obtido fazendo-se x = v1 . O vetor

1/3 
18
Av1 = A 2/3 =
6
2/3

e um dos pontos da elipse mais afastado da origem (o ponto V1 na Fi-


gura 5.1).

Se A Mmn (R), entao AT A e simetrica e, entao, pelo Te-


orema Espectral, ortogonalmente diagonalizavel. Seja {v1 , . . . , vn }
uma base ortonormal formada pelos autovalores de AT A. Assim,

0 ||Avi ||2 = vTi AT Avi = vTi i vi = i vTi vi = i ||vi ||2 = i ,

para todo i = 1, . . . , n. Isto mostra que todos os autovalores de AT A


s
ao n
ao negativos. Reordenando se necess ario, podemos assumir que
1 2 n 0.

Deni ao 5.2 (Valores singulares) Seja A Mmn (R)


c
e sejam 1 2 n 0 os autovalores de AT A.
Os valores singulares da matriz A sao as razes quadradas dos
autovalores de AT A: 4
i = i .

i i

i i
aal
i i
2017/2/2
page 153
i i

[SEC. 5.2: VALORES SINGULARES 153

Uma vez que i = ||Avi ||2 , vemos que os valores singulares sao,
portanto, as normas dos vetores ||Av1 ||, . . . , ||Avn ||.

Exemplo 5.2 Seja A a matriz do Exemplo 5.1. Os autovalores


de AT A s
ao 360, 90 e 0. Assim, os valores singulares de A sao

1 = 360 = 6 10, 2 = 90 = 3 10, e 3 = 0.

Note que

1 = max ||Ax||, com o maximo atingido em x = v1


||x||=1

e
2 = max ||Ax||, com o maximo atingido em x = v2 .
||x||=1
xT v1 =0

Para o vetor v2 no Exemplo 5.1,



 2/3 
4 11 14 1/3 = 3
Av2 = ,
8 7 2 9
2/3

que corresponde ao ponto V2 na Figura 5.1. Note, ent


ao, que os dois
primeiros valores singulares determinam os comprimentos dos dois
semieixos da elipse T(B).

Teorema 5.5 Seja A Mmn (R) uma matriz que possui exa-
tamente r valores singulares n
ao nulos:

1 2 r > 0, r+1 = r+2 = = n = 0.

Ent
ao o posto de A e r.

Demonstrac ao: Seja {v1 , . . . , vn } base ortonormal de autovetores


de AT A cujos autovalores satisfazem 1 2 n . Assim,
para i = j,

Avi , Avj  = vTj AT Avi = vTj i vi = i vTj vi = 0.

i i

i i
aal
i i
2017/2/2
page 154
i i

154 [CAP. 5: SVD E A PSEUDOINVERSA

Portanto, {Av1 , . . . , Avn } e um conjunto ortogonal que gera C(A) =


Im(A). Uma vez que i = ||Avi ||, se

1 2 r > 0, r+1 = r+2 = = n = 0,

entao

Av1 = 0, Av2 = 0, . . . , Avr = 0,


Avr+1 = Avr+2 = = Avn = 0.

Logo, o conjunto de vetores nao nulos {Av1 , . . . , Avr } e LI e gera


o subespaco vetorial C(A) = Im(A). Sendo assim, rank(A) = r.

5.3 A Decomposic
ao em Valores Singula-
res (SVD)

Teorema 5.6 Seja A Mmn (R) uma matriz com posto r.


Ent
ao existe uma matriz

Drr 0r(nr)
mn = ,
0(mr)r 0(mr)(nr)

onde os elementos da diagonal principal da matriz D sao os r


valores singulares n
ao nulos de A:

1 2 r > 0,

e existem matrizes ortogonais Umm e Vnn tais que

A = UVT .

As colunas de U s ao denominadas de vetores singulares ` a es-


querda e as coluna de V de vetores singulares `
a direita. O pro-
duto UVT e denominado uma SVD (singular value decompo-
sition) para a matriz A.

i i

i i
aal
i i
2017/2/2
page 155
i i

[SEC. 5.3: A DECOMPOSIC EM VALORES SINGULARES (SVD)


AO 155

Demonstraca
o: Como na demonstracao do Teorema 5.5, sejam i
e i com 4
i = i = ||Avi || > 0, 1 i r,
e
{Av1 , . . . , Avr } base ortogonal de C(A).
Para cada 1 i r, dena
1 1
ui = Avi = Avi ,
||Avi || i
de modo que
Avi = i ui , para i = 1, . . . , r.
ao {u1 , . . . , ur } e uma base ortonormal para C(A) = Im(A). Es-
Ent
tenda este conjunto para uma base ortonormal de Rm (usando o te-
orema de completamento de bases e o processo de ortonormalizacao
de Gram-Schmidt): {u1 , . . . , ur , ur+1 , . . . , um }. Dena:

| | | |
U= u1 um e V = v1
vn
.
| | | |

As matrizes U e V s
ao ortogonais e

| | | |
AV = Av 1 Av r 0 0

| | | |

| | | |
=
1 u1 r ur 0 0 .

| | | |

Portanto,

| | | |
AV =
u1 ur ur+1 um

| | | |

= U,

i i

i i
aal
i i
2017/2/2
page 156
i i

156 [CAP. 5: SVD E A PSEUDOINVERSA

onde 
diag(1 , . . . , r ) 0
= .
0 0 mn

Mas, se AV = U, entao A = UVT .

Observa cao. A decomposicao em valores singulares de uma ma-


nica, pois ela depende de como a base {u1 , . . . , ur } foi
triz nao e u
estendida. Contudo, se A = U 
V T e outra decomposicao em valo-
res singulares para a matriz A, entao os elementos ()ii de sao
obrigatoriamente os valores singulares de A. De fato: observe que se
A=U  V T , ent
ao
AT A 
= (U V
 T )T (U
V
T) = V T
TU
TU
V

T
= V TV  = V TD V.


Agora, se 
 = diag( r )
1 , . . . , 0
,
0 0 mn
entao 
 =
T
 = 1 )2 , . . . , (
diag(( r )2 ) 0
D .
0 0 nn

Assim, os autovalores de AT A (os quadrados dos valores singulares


de A) sao os mesmos autovalores de V TD  V.
 Uma vez V  e uma
T
matriz ortogonal, conclumos que os autovalores de A A sao ( 1 )2 ,
. . . , ( 2
1 , . . . ,
r ) ). Desta maneira, r sao os valores singulares n
ao
nulos de A.

Exemplo 5.3 Seja A a matriz do Exemplo 5.1. Dos c alculos feitos


neste exemplo e no Exemplo 5.2, temos que
 
1 3/10 1 1/10
u1 = Av1 = e u2 = Av2 = .
1 1/ 10 2 3/ 10
O conjunto {u1 , u2 } e uma base ortonormal de R2 . Logo nao e ne-
ario fazer um completamente de base. Colocando U = [ u1 u2 ],
cess
V = [ v1 v2 v3 ],
 
6 10 0 6 10 0 0
D= e = ,
0 3 10 0 3 10 0

i i

i i
aal
i i
2017/2/2
page 157
i i

[SEC. 5.3: A DECOMPOSIC EM VALORES SINGULARES (SVD)


AO 157

obtemos uma SVD para a matriz A:


A

=

4 11 14
8 7 2

=
T
  1/3 2/3 2/3
3/10 1/10 6 10 0 0 2/3 1/3 2/3
1/ 10 3/ 10 0 3 10 0
= 2/3 2/3 1/3

UVT .

Exemplo 5.4 Neste exemplo vamos calcular uma decomposicao em


valores singulares da matriz

1 1
A = 2 2 .
2 2

9 9
Observe que AT A = , cujos autovalores s
ao 1 = 18
9 9
e 2 = 0. Os autovetores correspondentes s ao
 
1/2 1/2
v1 = e v2 = .
1/ 2 1/ 2
Agora,

2/2 1/3
1
Av1 = 4/2 , 1 = ||Av1 || = 3 2, u1 = Av1 = 2/3
1
4/ 2 2/3
e
Av2 = 0.
Precisamos agora estender o conjunto {u1 } para uma base ortonormal
de R3 . Note que (x1 , x2 , x3 ) {u1 } (x1 , x2 , x3 ), u1  = 0
x1 2 x2 + 2 x3 = 0 x1 = 2 x2 2 x3 , isto e,

i i

i i
aal
i i
2017/2/2
page 158
i i

158 [CAP. 5: SVD E A PSEUDOINVERSA


x1 1/3 x1 2 2
x2 2/3 x2 = x2 1 + x3 0 .

x3 2/3 x3 0 1
" #$ % " #$ %
2
u 3
u

2, u
O conjunto {u1 , u  3 } e ortogonal. Usando o processo de ortonor-
malizacao de Gram-Schmidt, obtemos

2/5 2/45
u2 = 1/ 5 e u3 = 4/45
0 5/ 45

de modo que {u1 , u2 , u3 } e base ortonormal de R3 . Desta maneira,


obtemos a seguinte SVD para a matriz A:

A
=


1 1
2 2
2 2
=


1/3 2/5 2/45 3 2 0 
2/3 2/2 2/2
1/ 5 4/45 0 0
2/ 2 2/ 2
2/3 0 5/ 45 0 0
=

UVT .

Teorema 5.7 Seja A Mmn (R) uma matriz com posto r e


seja
UVT
uma SVD para A. Entao:
(1) As primeiras r colunas de U formam uma base ortonormal
para Im(A) = C(A).

i i

i i
aal
i i
2017/2/2
page 159
i i

[SEC. 5.3: A DECOMPOSIC EM VALORES SINGULARES (SVD)


AO 159

(2) As u
ltimas mr colunas de U formam uma base ortonormal
para Ker(AT ).
(3) As u
ltimas nr colunas de V formam uma base ortonormal
para Ker(A).
(4) As primeiras r colunas de V formam uma base ortonormal
para Im(AT ) = C(AT ) = R(A).

ao: Se A = UVT , entao AV = U, isto e,


Demonstrac

| | | |
AV = Av 1 Av r Av r+1 Av n


| | | |

| | | |
=
1 u1 r ur 0 0 ,

| | | |

com 1 r > 0.

Da desigualdade acima, vemos que ui = Avi /i Im(A), para


todo i = 1, . . . , r. Logo, [u1 , . . . , ur ] Im(A). Como {u1 , . . . , ur }
e LI e dimR (Im(A)) = r, conclumos que [u1 , . . . , ur ] = Im(A).
Desta maneira, {u1 , . . . , ur } e uma base ortonormal para Im(A) =
C(A). Por ortogonalidade e pelo Teorema Fundamental da Algebra
Linear, segue-se que o conjunto {ur+1 , . . . , um } e base ortonormal
para (Im(A)) = Ker(AT ).

A partir da igualdade AV = U, vemos tambem que Avi = 0,


para todo i = r + 1, . . . , n. Logo, [vr+1 , . . . , vn ] Ker(A). Como
dimR (Ker(A)) = n r, conclumos que [vr+1 , . . . , vn ] = Ker(A).
Desta maneira, {vr+1 , . . . , vn } e uma base ortonormal para Ker(A).
Novamente, por ortogonalidade e pelo Teorema Fundamental da Al-
gebra Linear, segue-se que o conjunto {v1 , . . . , vr } e base ortonormal
para (Ker(A)) = Im(AT ) = C(AT ) = R(A).

i i

i i
aal
i i
2017/2/2
page 160
i i

160 [CAP. 5: SVD E A PSEUDOINVERSA

5.4 Aplicac
ao: Imagens Digitais
Imagens digitais em tons de cinza (grayscale em ingles) podem
ser representadas por matrizes. Cada elemento da matriz determina
a intensidade do pixel correspondente. Por conveniencia, a maioria
dos arquivos digitais atuais usam n umeros inteiros entre 0 (para in-
dicar a cor preta, ausencia de intensidade) e 255 (para indicar a cor
branca, intensidade maxima), totalizando entao 256 tons de cinza
diferentes.
Considere agora a situacao em que uma imagem A em tons de
cinza, de tamanho 1000 por 1000, deve ser transmitida por um satelite
para um laboratorio na Terra. Em princpio, o satelite teria que en-
viar 1 milhao de n umeros. O que pode ser feito e o seguinte: o satelite
calcula uma SVD para A: A = UVT . Se u1 , . . . , um sao as colu-
nas de U; v1 , . . . , vn sao as colunas de V e 1 r > 0 sao
os valores singulares n ao nulos de A, entao

A = 1 u1 vT1 + 2 u2 vT2 + + r ur vTr .

Como, tipicamente, apenas os primeiros valores singulares i sao sig-


nicantes (os demais sao pequenos), basta entao que o satelite en-
vie, digamos, as 20 primeiras colunas de U e de V e os 20 primeiros
umeros i (totalizando entao apenas 201000+201000+20 = 40020
n
n
umeros que devem ser enviados). Ao receber estes dados, o labo-
rat
orio na Terra calcula a matriz

1 u1 vT1 + 2 u2 vT2 + + 20 u20 vT20

que dar a uma aproximacao da imagem original. Vamos ver um


exemplo: a imagem abaixo, o quadrado m agico extrado da gra-
vura Melencolia I do artista renascentista alemao Albrecht D urer
(14711528), tem 359 371 = 133189 pixels. A partir da SVD da
matriz correspondente a este imagem, podemos calcular as matrizes
1 u1 vT1 + 2 u2 vT2 + + r ur vTr para r = 1, 10, 35 e 50. Estas ma-
trizes geram aproximacoes para a imagem original, como ilustra a Fi-
gura 5.2. Note que a imagem original corresponde ao caso r = 359.

i i

i i
aal
i i
2017/2/2
page 161
i i

[SEC. 5.4: APLICAC


AO: IMAGENS DIGITAIS 161

Figura 5.2: Quadrado magico da gravura Melencolia I de Albrecht


D
urer.

r=1 r = 10

r = 35 r = 50

Figura 5.3: Aproximacoes da imagem original para r = 1, r = 10,


r = 35 e r = 10.

i i

i i
aal
i i
2017/2/2
page 162
i i

162 [CAP. 5: SVD E A PSEUDOINVERSA

5.5 Mnimos Quadrados e A Pseudoin-


versa
Na Sec ao 4.6 do Captulo 4, estudamos o seguinte problema de
otimizacao:
minn ||b Ax||.
xR

Vimos que um ponto de mnimo sempre existe e ele deve satisfazer


as equac
oes normais
AT Ax = AT b.

Se AT A e uma matriz inversvel, entao a solucao e u  =


nica: x
(AT A)1 AT b. O que fazer quando a matriz AT A nao e inversvel
e existem innitas solucoes? A ideia e entao procurar por um ele-
mento x+ de menor norma que satisfaca as equacoes normais. Nesta
sec
ao veremos como obter uma formula explcita para x+ em termos
de uma SVD para a matriz A.

Exemplo 5.5 Considere:



x1
1 0 0 0 x2 b1
A= 0 2 0 0 , x=
x3 e b = b2 ,
0 0 0 0 b3
x4

 que minimiza ||b Ax||?


com 1 2 > 0. Qual e um x

12 0 0 0 1
x 1 b1
0 22 0 0 x
 2 b2
AT A
x = AT b
0
2 =
0 0 0 x3 0
0 0 0 0 4
x 0

b1 /1
b2 /2
=
x x
.
3
4
x

Agora, qual e x+ de tamanho mnimo que minimiza ||b Ax||? Res-

i i

i i
aal
i i
2017/2/2
page 163
i i

[SEC. 5.5: MINIMOS QUADRADOS E A PSEUDOINVERSA 163

posta:

b1 /1 1/1 0 0
b / b1
x+ = 2 2 0 1/2 0 b2 = A+ b.
0 = 0 0 0
b3
0 0 0 0
" #$ %
A+

Exemplo 5.6 Considere:



 x1
diag(1 , . . . , r ) 0
A== , x = ... e
0 0 mn
xn

b1

b = ... ,
bm

com 1 r > 0. Seguindo os mesmos passos do exemplo


anterior, e possvel demonstrar que o vetor x+ de tamanho mnimo
que minimiza ||b x|| e

b1 /1
..
.
 b1
br /r diag(1/1 , . . . , 1/r ) 0 ..
x+ = 0 = .
0 0 nm
.. " #$ % bm
. +
0
+
= b.

Exemplo 5.7 Mais geralmente, considere uma matriz real A de ta-


manho m por n. Seja UVT uma SVD para A. Armamos que
o vetor x+ de tamanho mnimo que minimiza ||bx|| e x+ = A+ b,
onde
A+ = V+ UT .

i i

i i
aal
i i
2017/2/2
page 164
i i

164 [CAP. 5: SVD E A PSEUDOINVERSA

De fato: note que


(1) (2)
||b Ax|| = ||b UVT x|| = ||UT b VT x|| = ||UT b y||,

onde, em (1) usamos o fato de que UT e ortogonal, logo preserva


norma e, em (2), zemos a troca de vari aveis y = VT x (note que esta
aveis preserva norma: ||y|| = ||x||, pois VT e ortogonal).
troca de vari
Desta maneira,

min ||b Ax|| = min ||UT b y||.


xRn yRn
||x|| m
nima ||y|| m
nima

Em y, o problema que temos e exatamente aquele estudado no exem-


plo anterior. Sendo assim, o vetor y de tamanho mnimo que mini-
miza ||UT b y|| e
y+ = + UT b.
Desta maneira,

y+ = + UT b VT x+ = + UT b V1 x+ = + UT b
x+ = V+ UT b x+ = A+ b.

Deni ao 5.3 Seja UVT uma SVD para uma matriz A.


c
A pseudoinversa de A e a matriz

A+ = V+ UT .

Proposi
c
ao 5.4
(1) Se b Rm , entao x+ = A+ b R(A).
ao ortogonal de b em C(A) e AA+ b.
(2) A projec

(3) A+ C(A) = ( A|R(A) )1 .

Demonstrac
ao:

i i

i i
aal
i i
2017/2/2
page 165
i i

[SEC. 5.5: MINIMOS QUADRADOS E A PSEUDOINVERSA 165

(1) De fato:

A+ b

=
V+ UT b

=

| | | | T
1 v1 r vr 0 0 (U b)

| | | |

e uma combinacao linear dos vetores {1 v1 , . . . , r vr } (que ge-


ram R(A)) cujos coecientes da combinacao linear s ao os ele-
mentos do vetor UT b. Assim, x+ = A+ b R(A).
(2) Como x+ e uma solucao do problema minxRn ||b Ax||, segue-
se que Ax+ = AA+ b e a projecao ortogonal de b em C(A),
em virtude da Proposicao 4.8. Tambem e possvel vericar este
resultado diretamente:

AT (b AA+ b) = AT b AT AA+ b
= VT UT b VT VT V+ UT b
= VT UT v VT + UT b
()
= VT UT b VT UT b
= 0.

Note que, em (), usamos que



Irr 0
+ = e T (+ ) = T .
0 0

(3) De fato: vamos mostrar que AA+ b = b para todo b Im(A)


e A+ Ax = x para todo x R(A). Para isto, sera u til dividir
as matrizes U e V em blocos:
& ' & '
U = U1 U2 e V = V1 V2 ,

i i

i i
aal
i i
2017/2/2
page 166
i i

166 [CAP. 5: SVD E A PSEUDOINVERSA

com U1 uma matriz r m e V1 uma matriz r n. De acordo com


o Teorema 5.7, as colunas de U2 formam uma base para Ker(AT )
e as colunas de V2 formam uma base para Ker(A). Assim, se b
Im(A) e x R(A), entao

UT2 b = 0 e VT2 x = 0.

Agora, para todo b Im(A),

AA+ b = (UVT )(V+ UT )b = U+ UT b


 
& ' Irr 0 UT1
= U1 U2 b
0 0 UT2
 
& ' Irr 0 UT1 b
= U1 U2
0 0 UT2 b
 
& ' UT1 b & ' UT1 b
= U1 U2 = U1 U2
0 UT2 b

& ' UT1
= U1 U2 b = UUT b = b
UT2

e, para todo x R(A),

A+ Ax = (V+ UT )(UVT )x = V+ VT x
 
& ' Irr 0 VT1
= V1 V2 x
0 0 VT2
 
& ' Irr 0 VT1 b
= V1 V2
0 0 VT2 b
 
& ' VT1 x & ' VT1 x
= V1 V2 = V1 V2
0 VT2 x

& ' VT1
= V1 V2 x = VVT x = x.
VT2

i i

i i
aal
i i
2017/2/2
page 167
i i

[SEC. 5.6: EXERCICIOS 167

5.6 Exerccios
[01] Seja Q uma matriz ortogonal. Mostre que A e QT AQ possuem
os mesmos autovalores.
[02] Seja A uma matriz real n n simetrica. Sejam 1 , . . . , n os
n autovalores de A. Suponha que |1 | |2 | |n |.
Considere o problema de otimizacao
M = max ||Ax||
||x||=1

Mostre que M = |1 | e que o valor maximo ocorre quando x


e um autovetor unitario correspondente ao autovalor 1 . Aqui,
|| || e a normal euclidiana usual.
[03] Se uma decomposicao em valores singulares da matriz A e A =
UVT , encontre uma SVD para AT . Como estao relacionados
os valores singulares de A e AT ?
[04] Mostre que se Q e uma matriz ortogonal m m, entao QA tem
os mesmos valores singulares que A.
[05] Calcule uma decomposicao SVD da matriz

1 1
A= 0 1 .
1 1

3 2 2
[06] Calcule uma SVD da matriz A = .
2 3 2

[07] Mostre que se A tem posto r, entao AT A tambem tem posto r.


[08] Mostre, atraves de um exemplo, que a decomposicao SVD de
uma matriz pode nao ser u
nica.
[09] Suponha que uma matriz A inversvel tenha uma SVD na forma
A = UVT . Encontre uma SVD para A1 .
[10] Mostre que se A e uma matriz quadrada, entao o | det(A)|
(o valor absoluto do determinante de A) e igual ao produto dos
valores singulares de A.

i i

i i
aal
i i
2017/2/2
page 168
i i

168 [CAP. 5: SVD E A PSEUDOINVERSA

[11] Mostre que se A e positiva denida e simetrica, ent


ao os valores
singulares de A coincidem com os autovalores de A.
[12] Sejam A Mmn (R) e B Mpn (R). Se a1 , . . . , an sao
as colunas de A e b1 , . . . , bn sao as colunas de B, mostre que

ABT = a1 bT1 + + an bTn .

[13] Seja A uma matriz m n cujos valores singulares nao nulos sao
1 , . . . , r , os vetores singulares `a esquerda s
a o u1 , . . . , u m e
os vetores singulares a` direita sao v1 , . . . , vn . Mostre que A
pode ser escrita como soma de matrizes de posto 1:

A = 1 u1 vT1 + 2 u2 vT2 + + r ur vTr .

[14] Mostre que se A tem colunas linearmente independentes, entao


A+ = (AT A)1 AT .
[15] Vale sempre que (AB)+ = B+ A+ ? Justique a sua resposta!
[16] Se A e uma matriz quadrada inversvel, quem e sua a pseudoin-
versa A+ ?
[17] Se Q e uma matriz m n com colunas ortonormais, quem e
a sua pseudoinversa Q+ ?
[18] Mostre que a pseudo-inversa X = A+ de A satisfaz `as quatro
condic
oes de Moore-Penrose:

AXA = A, XAX = X, (AX)T = AX e (XA)T = XA.

Observacao: e possvel demonstrar que a pseudo-inversa A+


de A e a u
nica matriz X que satisfaz estas quatro propriedades.

i i

i i
aal
i i
2017/2/2
page 169
i i

Captulo 6

Programa
c
ao Linear

6.1 Definic
oes
Um programa linear e um problema de otimizacao onde a funcao
que queremos otimizar e as restricoes s
ao todas lineares. Por exemplo,

minimizar x1 + x2
x1 ,x2 R
sujeito a 3 x1 + 2 x2 8,
x1 + 5 x2 7, (6.1)
x1 0,
x2 0

e um programa linear. Para resolve-lo, precisamos encontrar um


ponto (x1 , x2 ) do conjunto admissvel

K = {(x1 , x2 ) R2 | 3 x1 + 2 x2 8, x1 + 5 x2 7, x1 0, x2 0}

que torna o valor da func ao objetivo o(x1 , x2 ) = x1 + x2 o menor


possvel. O conjunto K esta desenhado na Figura 6.1. Por inspecao,
vemos que a solucao otima e dada por (x1 , x2 ) = (2, 1). Este ponto e
a intersecao da curva de nvel f (x1 , x2 ) = x1 + x2 = c mais baixa
que intercepta o conjunto admissvel.
Dizemos que um programa linear esta na forma padr ao se todas
as vari
aveis de decisao sao nao-negativas e se todas as restricoes sao

169

i i

i i
aal
i i
2017/2/2
page 170
i i

170 [CAP. 6: PROGRAMAC LINEAR


AO

x2

0 2 3 7 x1

Figura 6.1: O conjunto admissvel do programa linear 6.1.

em igualdade:

minimizar R c1 x1 + + cn xn
x1 ,...,xn
sujeito a a11 x1 + + a1n xn = b1 ,
.. .. .. .. ..
. . . . .
am1 x1 + + amn xn = bm ,
e x1 0, . . . , xn 0.

Todo programa linear pode ser reescrito na forma padr ao com o uso
de vari
aveis de folga. Por exemplo, uma restricao da forma

ai1 x1 + + ain xn bi

pode ser substituda, de maneira equivalente, pelas restricoes

ai1 x1 + + ain xn yi = bi e yi 0.

Se uma vari
avel de decis ao xi pode assumir qualquer valor real, isto e,
se n
ao existe restricao de nao-negatividade em xi , entao podemos

i i

i i
aal
i i
2017/2/2
page 171
i i

[SEC. 6.1: DEFINIC


OES 171

substituir xi por ui vi , a diferenca de dois n


umeros positivos. Se
colocarmos o programa linear 6.1 na forma padr ao, obtemos o se-
guinte PL:
minimizar x1 + x2
x1 ,x2 ,y1 ,y2 R
sujeito a 3 x1 + 2 x2 y1 = 8,
x1 + 5 x2 y2 = 7,
x1 0, (6.2)
x2 0,
y1 0,
y2 0.

Um programa linear pode ser escrito de forma mais compacta


usando-se matrizes e vetores:

minimizar
n
cT x
xR (6.3)
sujeito a Ax = b e x 0,

onde x Rn , c Rn , b Rm e A e uma matriz m n. Note


que o conjunto admissvel K = {x Rn | Ax = b e x 0} de um
programa linear, quando nao-vazio, e um politopo convexo, e que
as hiperfcies de nvel da funcao objetivo sao hiperplanos.
Problemas de maximizacao podem ser transformados em proble-
mas de minimizacao substituindo-se a funcao objetivo o por o. Mais
precisamente, x e uma solucao otima de

maximizar
n
cT x
xR
sujeito a Ax = b e x 0,

se, e somente se, x tambem e solucao de

minimizar
n
cT x
xR
sujeito a Ax = b e x 0.

Na teoria de programacao linear, assume-se que m < n (existem


mais incognitas do que restricoes em igualdade) e que o posto da ma-
triz A e m, isto e, as m linhas de A sao linearmente independentes.

i i

i i
aal
i i
2017/2/2
page 172
i i

172 [CAP. 6: PROGRAMAC LINEAR


AO

Sabemos, ent ao, que existem m colunas de A que s ao linearmente in-


dependentes. Renomeando-se ndices se necess ario, podemos assumir
que estas colunas sejam as m primeiras. Isto induz uma decomposicao
de A, de x e de c:
 
& ' xB cB
A= B N , x= , c= ,
xN cN
onde B e uma matriz m m inversvel. Com esta decomposicao,
o Problema 6.3 pode ser escrito na forma

minimizar cTB xB + cTN xN


xB Rm ,xN Rnm
sujeito a BxB + NxN = b, (6.4)
xB 0, xN 0.

Como o sistema linear Ax = b e equivalente a BxB + NxN = b,


segue-se ent
ao que existe uma solucao x de Ax = b na forma

xB
.
0
Esta solucao e denominada soluc ao b
asica do sistema linear Ax =
b associada a` base B. As componentes de xB sao denominadas
vari
aveis basicas. Se em uma solucao basica, pelo menos uma das
vari
aveis basicas e igual a zero, dizemos ent
ao que a solucao basica e
degenerada.

Exemplo 6.1 Considere


 
1 0 1 1
A= e b= .
0 1 1 0

 1
1 0
(1) Se B = , entao xB = 0 e uma solucao basica
0 1
0
degenerada do sistema Ax = b.

 1
1 1
(2) Se B = , entao xB = 0 e uma solucao basica
0 1
0
degenerada do sistema Ax = b.

i i

i i
aal
i i
2017/2/2
page 173
i i

[SEC. 6.2: O TEOREMA FUNDAMENTAL DA PROGRAMAC LINEAR


AO 173

 0
0 1
(3) Se B = , entao xB = 1 e uma solucao basica
1 1
1
n
ao degenerada do sistema Ax = b.

Observa c
ao. Uma vari avel b
asica nula pode ser trocada por uma
vari
avel n
ao b
asica que tambem e nula.

6.2 O Teorema Fundamental da Progra-


mac
ao Linear

Teorema 6.1 (Teorema Fundamental da Programa c


ao
Linear) Considere um programa linear na forma padr
ao 6.3,
com A matriz m n de posto m.
(a) Se o programa linear possui um ponto admissvel, entao ele
possui um ponto admissvel que e uma solucao basica do
sistema linear Ax = b.
(b) Se o programa linear possui um ponto otimo, entao ele pos-
sui um ponto otimo que e uma solucao basica do sistema
linear Ax = b.

Demonstrac
ao:
(a) Seja x = [ x1 xn ]T um ponto admissvel, isto e, um ponto
que satisfaz
Ax = b e x0. ()
Denotando-se por a1 , . . . , an as colunas da matriz A, segue-se
que
Ax = b x1 a1 + + xn an = b.
Suponha que p destas variaveis x1 , . . . , xn sejam diferentes de
zero. Sem perda, podemos supor que estas sejam as p primeiras
colunas. Logo,
x1 a1 + + xp ap = b.

i i

i i
aal
i i
2017/2/2
page 174
i i

174 [CAP. 6: PROGRAMAC LINEAR


AO

Caso 1. Se {a1 , . . . , ap } e LI, entao p m. Se p = m, entao


[ x1 xp 0 0 ]T e uma solucao basica de (). Se p < m,
entao existem outras m p colunas (entre as n p colunas res-
tantes) que, junto com {a1 , . . . , ap } formam um conjunto LI. Fa-
zendo as variaveis xi correspondentes iguais a zero, obtemos uma
solucao b
asica (degenerada) admissvel para ().

Caso 2. Se {a1 , . . . , ap } LD, entao existem constantes y1 , . . . ,


yp n
ao todas nulas tais que

y1 a1 + + yp ap = 0.

Sem perda, podemos supor que pelo menos um dos yi e posi-


tivo (caso contrario, basta multiplicar a equacao acima por 1).
Dena
z( ) = x y,
onde y = [ y1 yp 0 0 ]T . Note que

Az( ) = Ax Ay = b 0 = b, R.

Agora, zi = 0, zi < 0 ou zi > 0 dependendo de e yi . Note que,


quando = 0,

z(0) = x = [ x1 . . . xp 0 . . . 0 ]T 0.
"#$% "#$%
>0 >0

Agora, se aumenta, xi yi aumenta, diminui ou permanece


constante dependendo se yi < 0, yi > 0 ou yi = 0, respectiva-
mente. Aumente ate que uma ou mais componentes de z( ) se
anulem:  
xi
= min y > 0, i = 1, . . . , p .
yi
i

Para este valor de , z( ) satisfaz () e tem no maximo p 1


componentes positivas. Se as p 1 colunas forem LI, camos no
Caso 1. Se elas forem LD, repetimos o processo.

i i

i i
aal
i i
2017/2/2
page 175
i i

[SEC. 6.2: O TEOREMA FUNDAMENTAL DA PROGRAMAC LINEAR


AO 175

(b) Seja x = [ x1 xn ]T uma solucao otimo admissvel. Como


antes, supondo que as p primeiras componentes s ao maiores do
que zero, temos dois casos a considerar.

Caso 1. Se {a1 , . . . , ap } e LI, ent ao p m. Se p = m, entao


[ x1 xp 0 0 ]T e uma solucao b
asica admissvel otima para
o programa linear

minimizar
n
cT x
xR ()
sujeito a Ax = b e x 0.

Se p < m, entao existem outras mp colunas (entre as np colu-


nas restantes) que, junto com {a1 , . . . , ap } formam um conjunto
LI. Fazendo as variaveis xi correspondentes iguais a zero, obte-
mos uma solucao basica (degenerada) admissvel otima para ().

Caso 2. Se {a1 , . . . , ap } e LD, como antes, considere z( ) =


x y. Note que, para todo tal que
 
xi
max y < 0, i = 1, . . . , p
yi
j

< <
 
xi
min yj > 0, i = 1, . . . , p ,
yi

z( ) satisfaz as restricoes (). Se nao existir yj < 0, ent ao z( )


satisfaz as restric
oes () para todo tal que
 
xi
< < min y > 0, i = 1, . . . , p .
yi
j

Pelo fato de x ser uma solucao otima, obrigatoriamente cT y = 0


(pois caso contrario, basta, de 0, aumentar se cT y < 0 ou dimi-
T
nuir se c y > 0 para obter um ponto z( ) admissvel cujo valor
da funcao objetivo e menor). Assim, cT z( ) = cT x . Tomando
 
xi
= min yi > 0, i = 1, . . . , p ,
yi

i i

i i
aal
i i
2017/2/2
page 176
i i

176 [CAP. 6: PROGRAMAC LINEAR


AO

z( ) e ainda uma solucao admissvel otima com no maximo p 1


coordenadas positivas. Se as respectivas colunas s ao LI, camos
no Caso 1. Se elas forem LD, repetimos o processo.

Teorema 6.2 Seja B uma base do Problema 6.3 e seja


 1
B b
x=
0

a soluc
ao b
asica correspondente. Temos que x e admissvel se,
e somente se, B1 b0. Mais ainda, x e otimo se, e somente se,

cTB B1 A c.

Demonstrac
ao: Por construcao,
 1
B b
x=
0

satisfaz a restricao Ax = b. Assim, para que x seja admissvel, basta


que x 0, isto e, basta que B1 b0. Para obter a condicao de
otimalidade, seja 
B
x
=
x
N
x
um ponto admissvel qualquer. Entao B xB + N
xN = b e, portanto,
B = B1 b B1 N
x xN . Desta maneira,
 1
B b
x= e otimo
0

 
& ' B 1
b & ' B
x
cTB cTN cTB cTN ,  N 0
xB , x
0 N
x

cTB B1 b cTB x
B + cTN x
N ,  N 0
xB , x

i i

i i
aal
i i
2017/2/2
page 177
i i

[SEC. 6.3: RELAC


OES COM CONVEXIDADE 177

cTB B1 b cTB (B1 b B1 N


xN ) + cTN x
N , 
xN 0

cTB B1 N
xN cTN x
N , 
xN 0

cTB B1 N cTN

cTB B1 A cT .

6.3 Rela
coes com Convexidade

Deni ao 6.1 (Conjuntos convexos) Dizemos que U Rn


c
e um conjunto convexo se, e somente se, para todo p, q U
tem-se
(1 t) p + t q U,
para todo t [0, 1], isto e, se o segmento de reta que une dois
pontos quaisquer de U esta sempre contido em U .

(a) (b)

Figura 6.2: O conjunto da esquerda e convexo enquanto que o da


direita nao o e.

i i

i i
aal
i i
2017/2/2
page 178
i i

178 [CAP. 6: PROGRAMAC LINEAR


AO

Teorema 6.3 Seja {U } uma famlia de conjuntos convexos


em Rn Ent
ao 
U

tambem e um conjunto convexo em Rn .

O proximo teorema da uma interpretacao geometrica para pontos


admissveis que s
ao solucoes basicas: eles correspondem aos pontos
extremos (vertices) do politopo K = {x Rn | Ax = b e x 0}.

Deni c
ao 6.2 (Ponto Extremo) Dizemos que um ponto x
em um conjunto convexo U e ponto extremo de U se nao existem
dois outros pontos distintos x1 e x2 em U tais que x = x1 +
(1 ) x2 para algum no intervalo (0, 1).

Na Figura 6.3, x1 , x2 e x3 sao os u nicos pontos extremos do


conjunto admissvel K do PL 6.1. O ponto x4 nao e um ponto ex-
tremo de K, pois ele pode ser escrito como uma combinacao con-
vexa de x2 K e x3 K. Como x6 = x5 + (1 ) x7 para
algum (0, 1), vemos que o ponto x6 (no interior do conjunto
admissvel) tambem n
ao e um ponto extremo de K.

Teorema 6.4 (Equival encia entre Pontos Extremos e


Solu co
es Basicas) Seja A uma matriz m n de posto m,
b um vetor em Rm e K = {x Rn | Ax = b e x 0} o con-
junto admissvel de 6.3. Entao x e um ponto extremo de K
se, e somente se, x e um ponto admissvel que e solucao b
asica
de Ax = b.

Demonstrac
ao:
() Seja x uma solucao b
asica admissvel de

minimizar
n
cT x
xR ()
sujeito a Ax = b e x 0.

i i

i i
aal
i i
2017/2/2
page 179
i i

[SEC. 6.3: RELAC


OES COM CONVEXIDADE 179

x2

4 x1 x6 x7

x5
3

x2
1 x4
x3
0
2 3 7 x1

Figura 6.3: x1 , x2 e x3 sao os u


nicos pontos extremos do conjunto
admissvel do PL 6.1.

Sem perda de generalidade, podemos assumir que x corresponde `a es-


colha das m primeiras colunas de A como colunas LI. Assim,

x = [ x1 xm 0 0 ]T .

Suponha, por absurdo, que x nao seja um ponto extremo de K. Sendo


assim, existem y, z K e (0, 1) tais que x = (1 ) y + z,
isto e,

[ x1 xm 0 0 ]T
=

(1 ) [ y1 ym ym+1 yn ]T + [ z1 zm zm+1 zn ]T .

Logo, (1 ) yi + zi = 0, para todo i = m+ 1, . . . , n. Mas 1 > 0,


yi 0, > 0 e zi 0. Sendo assim, yi = 0 e zi = 0 para todo i =
m + 1, . . . , n. Escrevendo

 0 ],
x=[x  0 ],
y=[y z=[
z 0 ], A=[BN]

e lembrando que x, y e z satisfazem a restricao Ax = b, temos ent


ao

i i

i i
aal
i i
2017/2/2
page 180
i i

180 [CAP. 6: PROGRAMAC LINEAR


AO

que 
& 
x '
Ax = b B N B
x = b,
 0
& ' y
Ay = b B N B
y = b,
 0
& ' z
Ax = z B N B
z = b.
0
=y
Como B e uma matriz m por m inversvel, segue-se que x =
z=
B1 b e, portanto, x = y = z.

() Seja x um ponto extremo de K. Suponha, sem perda de gene-


ralidade, que as componentes nao nulas de x sejam as k primeiras.
Vamos mostrar que as colunas a1 , . . . , ak formam um conjunto LI e,
com isto, x e uma solucao b asica admissvel. Suponha, por absurdo,
que {a1 , . . . , ak } seja LD. Entao existem escalares 1 , . . . , k nao
todos nulos tais que

1 a1 + k ak = 0.

Seja y = [ 1 k 0 0 ]T . Como xi > 0 para todo i = 1, . . . , k,


e possvel escolher > 0 tal que

x y0 e x + y0.

Note que z1 = x y K, z2 = x + y K e
1 1
x= (x y) + (x + y) .
2 2
Isto nao pode ocorrer, uma vez que x e um ponto extremo de K. Logo,
{a1 , . . . , ak } e LI e x e uma solucao basica admissvel (possivelmente
degenerada) de ().

Corol ario 6.1 Se K = {x Rn | Ax = b e x 0} e n


ao va-
zio, ent
ao ele possui pelo menos um ponto extremo.

Demonstrac ao: Se K e n
ao vazio, ent
ao ele possui um ponto ad-
missvel. Pelo Teorema Fundamental da Programacao Linear, existe

i i

i i
aal
i i
2017/2/2
page 181
i i


[SEC. 6.4: O METODO SIMPLEX 181

entao uma solucao admissvel b


asica. Pelo Teorema 6.4, esta solucao
admissvel b
asica e um ponto extremo de K.

Corol ario 6.2 Se existe uma solucao otima para um programa


linear, ent
ao existe uma solucao otima que e um ponto extremo
do conjunto admissvel.

Corolario 6.3 O conjunto K = {x Rn | Ax = b e x 0}


possui um n
umero nito de pontos extremos.

Demonstrac
ao: Existe um n
umero nito de solucoes basicas, logo K
possui um n
umero nito de pontos extremos.

6.4 O M
etodo Simplex
O metodo simplex e um algoritmo inventado pelo matematico
americano George Bernard Dantzig (19142005) para se resolver pro-
gramas lineares numericamente. Essencialmente, o que o metodo
simplex faz e, a partir de um dos pontos extremos do conjunto ad-
missvel K (uma solucao b asica admissvel), pular de um ponto ex-
tremo a outro ponto extremo adjacente ate atingir o ponto extremo
correspondente `a solucao otimo do programa linear.
A organizac ao do metodo se faz atraves de tableaux (plural de
tableau, em frances), tabelas onde se registram os coecientes das
restric
oes e da funcao objetivo. Inicialmente, o tableau ca assim:

A b
.
T T
c 0

A Fase I do metodo simplex consiste em obter uma solucao basica


admissvel. O Exerccio [02] deste captulo da os detalhes de como

i i

i i
aal
i i
2017/2/2
page 182
i i

182 [CAP. 6: PROGRAMAC LINEAR


AO

fazer isto. De posse de uma solucao basica admissvel, reordena-


mos o tableau de forma a separar o bloco da matriz A em dois sub-
blocos: o sub-bloco B formado pelas colunas de A correspondentes
as variaveis b
` asicas e o sub-bloco N formado pelas colunas de A cor-
respondentes a`s vari aveis nao basicas. Esta particao de A induz uma
particao nos coecientes da funcao objetivo e nas vari aveis de decis
ao:

& ' xB
cT = cTB cTN , x = .
xN

O tableau, com estas particoes, ca ent


ao assim:

B N b
. ()
cTB cTN 0T

Note que a matriz B e inversvel e que a solucao b


asica correspondente
a B e dada por
 1
B b
x= .
0
Usando escalonamentos no tableau (), obtemos um novo tableau onde
as vari
aveis b
asicas aparecem uma por linha, com coecientes iguais
a 1 (a u
ltima linha ainda nao foi escalonada):

1 1
I B N B b
. ()
T T T
cB cN 0

A ideia agora e reescrever a funcao objetivo em termos das variaveis


n asicas xN . Uma vez que xB + B1 NxN = B1 b, segue-se que
ao b
xB = B1 b B1 NxN . Portanto,

cT x = cTB xB + cTN xN = cTB (B1 b B1 NxN ) + cTN xN


= (cTN cTB B1 N)xN + cTB B1 b.

O coeciente (cTN cTB B1 N) de xN e o termo independente cTB B1 b


(este u
ltimo, com sinal trocado) aparecem no tableau se zermos o es-

i i

i i
aal
i i
2017/2/2
page 183
i i


[SEC. 6.4: O METODO SIMPLEX 183

calonamento da u
ltima linha de ():

I B1 N B 1
b
.
0T cTN cTB B1 N cTB B1 b

Seja rT = cTN cTB B1 N. Note que na solucao b


asica, xN = 0 e

cT x = rT xN + cTB B1 b = cTB B1 b.

Se alguma entrada de r e negativa, podemos aumentar (de zero!)


a coordenada de xN correspondente a esta entrada de forma a dimi-
nuir o valor da funcao objetivo. Note que, com isto, uma variavel que
e n
ao basica se tornara basica e, em consequencia, uma vari
avel que e
b
asica devera se tornar nao basica. Se mais do que uma componente
de r e negativa, escolheremos aquela que e mais negativa. Mais pre-
cisamente, se rT = [ r1 . . . rnm ], ri e a componente mais negativa
de r, u e a i-esima coluna de N e

0
..
.

0

xN =
posicao i,
0

.
..
0

entao xB = B1 bB1 NxN = B1 bB1 ( u) = B1 b B1 u.


Portanto, xB 0 para
 1 
(B b)j 1
0 min (B u) > 0 .
(B1 u)j
j

Assim, a variavel b
asica que se tornara nao basica e aquela de ndice k
tal que
 1 
(B1 b)k (B b)j 1
= = min (B u) > 0 .
(B1 u)j
j
(B1 u)k

i i

i i
aal
i i
2017/2/2
page 184
i i

184 [CAP. 6: PROGRAMAC LINEAR


AO

Se (B1 u)i < 0 para todo i, entao poder arbitrariamente grande,


mantendo-se admissibilidade e fazendo com que a funcao objetivo
tenda a . O programa linear n ao possui solucao neste caso.
Se o vetor r tem todas as componentes n ao negativas, ent ao nao e
possvel diminuir o valor da funcao objetivo. Assim, a solucao basica
admissvel atual e uma solucao otima (veja as condicoes de otimali-
dade dadas no Teorema 6.2). Este e o teste de parada do metodo
simplex.

Algoritmo 6.5 (Passo do Simplex)


(1) Calcule T = cTB B1 e r = cN T N.
(2) Se r0, pare. A solucao b
asica admissvel e otima.

Se ri e a componente mais negativa de r, escolha


a i-esima coluna de N para entrar no conjunto de vari
aveis
b
asicas. Denote esta coluna por u.
(3) Calcule v = B1 u.
(4) Calcule
 
(B1 b)j
= min (v)j > 0 .
(v)j
Se nao existe i tal que (v)i > 0, ent
ao a funcao objetivo
tente a no conjunto admissvel. Se
 1 
(B1 b)k (B b)j 1
= = min (B u)j > 0 ,
(v)k (B1 u)j

entao a variavel associada a k-esima coluna de B deixar


ao
conjunto de vari aveis b
asicas.
(5) Atualize B e a solucao xB = B1 b. Volte para a Etapa (1).

Observa c
ao. Note que, no Algoritmo 6.5, os objetos que precisamos
calcular s
ao soluc
oes de tres sistemas lineares que podem ser obtidos

i i

i i
aal
i i
2017/2/2
page 185
i i


[SEC. 6.4: O METODO SIMPLEX 185

atraves de decomposicoes LU:


T = cTB B1 T B = cTB BT = cB ,
v = B1 u Bu = v, xB = B1 b BxB = b.

Exemplo 6.2 Vamos usar o metodo simplex para encontrar uma


soluc
ao otima do seguinte programa linear:

minimizar x1 + x2
x1 ,x2 R
sujeito a x1 + 2 x2 6,
2 x1 + x2 6,
x1 0,
x2 0.

Devemos primeiro reescreve-lo na forma padr


ao (com a inclusao de
duas vari
aveis de folga):

minimizar x1 + x2
x1 ,x2 ,x3 ,x4 R
sujeito a x1 + 2 x2 x3 = 6,
2 x1 + x2 x4 = 6,
x1 0,
x2 0,
x3 0,
x4 0.

Usando x2 e x3 como varias basicas (de forma que x1 = 0 e x4 = 0),


obtemos o seguinte tableau:
x2 x3 x1 x4 b
2 1 1 0 6
.
1 0 2 1 6
1 0 1 0 0
Escalonando, obtemos
x2 x3 x1 x4 b
1 0 2 1 6
.
0 1 3 2 6
0 0 1 1 6

i i

i i
aal
i i
2017/2/2
page 186
i i

186 [CAP. 6: PROGRAMAC LINEAR


AO

A soluc
ao b
asica admissvel correspondente e
(x2 , x3 , x1 , x4 ) = (6, 6, 0, 0).
No proximo passo, a variavel x1 entrara no conjunto de variaveis
asicas (pois r1 = 1 < 0). Para descobrir quem saira, observe que:
b
x2 sair
a para 2 x1 = 6, isto e, para x1 = 3,
x3 sair
a para 3 x1 = 6, isto e, para x1 = 2.
Como 2 < 3, descobrimos que x3 sair a do conjunto de vari
aveis
b
asicas. Isto nos leva ao pr
oximo tableau:
x2 x1 x3 x4 b
1 2 0 1 6
.
0 3 1 2 6
0 1 0 1 6
Escalonando, obtemos
x2 x1 x3 x4 b
1 0 2/3 1/3 2
.
0 1 1/3 2/3 2
0 0 1/3 1/3 4
Como r1 = 1/3 > 0 e r2 = 1/3 > 0, conclumos que a solucao b
asica
admissvel
(x2 , x1 , x3 , x4 ) = (2, 2, 0, 0)
e uma solucao
otimo do programa linear, com custo otimo igual a 4.
A Figura 6.4 exibe o conjunto admissvel do programa linear inicial
e indica as solucoes b
asicas obtidas pelo metodo simplex.

Exemplo 6.3 Vamos usar o metodo simplex para encontrar uma


solucao
otima do seguinte programa linear:

minimizar x1 2 x2
x1 ,x2 R
sujeito a x1 + 3 x2 9,
x1 + x2 5,
x1 4,
x1 0,
x2 0.

i i

i i
aal
i i
2017/2/2
page 187
i i


[SEC. 6.4: O METODO SIMPLEX 187

x2

6 Soluo bsica 1

Soluo bsica tima


2

0 2 6 x1

Figura 6.4: O conjunto admissvel do programa linear do Exem-


plo 6.2.

O programa linear na forma padr


ao ca assim:

minimizar x1 2 x2
x1 ,x2 ,x3 ,x4 ,x5 R
sujeito a x1 + 3 x2 + x3 = 9,
x1 + x2 + x4 = 5,
x1 + x5 = 4,
x1 0,
x2 0,
x3 0,
x4 0,
x5 0.

Usando x3 , x4 e x5 como varias basicas (de forma que x1 = 0 e


x2 = 0), obtemos o seguinte tableau:

i i

i i
aal
i i
2017/2/2
page 188
i i

188 [CAP. 6: PROGRAMAC LINEAR


AO

x3 x4 x5 x1 x2 b
1 0 0 1 3 9
0 1 0 1 1 5 .
0 0 1 1 0 4
0 0 0 1 2 0
A solucao b
asica admissvel correspondente e

(x3 , x4 , x5 , x1 , x2 ) = (9, 5, 4, 0, 0).

No pr avel x2 entrara na base (pois r2 = 2 < 0 e


oximo passo, a vari
r2 < r1 = 1 < 0). Para descobrir quem saira, observe que:
x3 sair
a para 3 x2 = 9, isto e, para x2 = 3,
x4 sair
a para x2 = 5.
Como 3 < 5, descobrimos que x3 sair a do conjunto de vari
aveis
b
asicas. Isto nos leva ao pr
oximo tableau:
x2 x4 x5 x1 x3 b
3 0 0 1 1 9
1 1 0 1 0 5 .
0 0 1 1 0 4
2 0 0 1 0 0
Escalonando, obtemos
x2 x4 x5 x1 x3 b
1 0 0 1/3 1/3 3
0 1 0 2/3 1/3 2 .
0 0 1 1 0 4
0 0 0 1/3 2/3 6
A solucao b
asica admissvel correspondente e

(x2 , x4 , x5 , x1 , x3 ) = (3, 2, 4, 0, 0).

No proximo passo, a vari


avel x1 entrara na base e a variavel x4 sair
a
(pois r1 = 1/3 < 0). Para descobrir quem saira, observe que:
x2 sair
a para x1 /3 = 3, isto e, para x1 = 9,
x4 sair
a para 2 x1 /3 = 2, isto e, para x1 = 3,
x5 sair
a para x1 = 4.

i i

i i
aal
i i
2017/2/2
page 189
i i


[SEC. 6.4: O METODO SIMPLEX 189

Como 3 < 4 < 5, descobrimos que x4 sair


a do conjunto de vari
aveis
b
asicas.
x2 x1 x5 x4 x3 b
1 1/3 0 0 1/3 3
0 2/3 0 1 1/3 2 .
0 1 1 0 0 4
0 1/3 0 0 2/3 6

Escalonando, obtemos

x2 x1 x5 x4 x3 b
1 0 0 1/2 1/2 2
0 1 0 3/2 1/2 3 .
0 0 1 3/2 1/2 1
0 0 0 1/2 1/2 7

A solucao b
asica admissvel correspondente e

(x2 , x1 , x5 , x4 , x3 ) = (3, 2, 4, 0, 0).

ao e otima com custo otimo igual a 7. A Figura 6.5 exibe


Esta soluc
o conjunto admissvel do programa linear inicial e indica as solucoes
b
asicas obtidas pelo metodo simplex.

Observa
c
ao. Note que, para o programa linear com o seguinte ta-
bleau
x2 x3 x1 x4 b
1 0 2 1 6
,
0 1 3 2 6
0 0 1 1 6

vale que x3 3 x1 = 6, isto e, x3 = 6 + 3 x1 . Assim, x1 pode ser


tomado arbitrariamente grande, mantendo-se admissibilidade (com
x3 sempre positivo) e fazendo com que a funcao objetivo tenda a .
O programa linear n ao possui ent
ao solucao otima.

Observa c
ao. Caso solucoes basicas admissveis degeneradas apa-
recam durante a execucao do metodo simplex, este pode entrar em

i i

i i
aal
i i
2017/2/2
page 190
i i

190 [CAP. 6: PROGRAMAC LINEAR


AO

x2

Soluo bsica 2
3

Soluo bsica tima


2

0 Soluo bsica 1 3 4 x1

Figura 6.5: O conjunto admissvel do programa linear do Exem-


plo 6.3.

um ciclo repetitivo sem chegar na solucao admissvel otima. Existem


adaptacoes do metodo simplex que evitam estes ciclos. Para detalhes,
indicamos a referencia [09].

Observa c
ao. Existem programas lineares para os quais o n umero
de operac oes necess
arios pelo metodo simplex para encontrar uma
soluc
ao
otima depende exponencialmente das dimens oes do problema.
Este e o caso dos programas lineares idealizados por Victor Klee e
George Minty em 1972:
n

maximizar 10nj xj
x1 ,...,xn R
j=1
i1

sujeito a 2 xj + xi 100i1 , i = 1, . . . , n,
j=1
xj 0, j = 1, . . . , n.

N
ao obstante, o metodo simplex tem mostrado desempenho eciente

i i

i i
aal
i i
2017/2/2
page 191
i i

[SEC. 6.5: DUALIDADE 191

em problemas pr
aticos.

Observa c
ao. Em 1979, o matematico Leonid Genrikhovich Kha-
chiyan (19522005) prop os um algoritmo (baseado no metodo dos
elipsoides de Naum Zuselevich Shor (1937-2006)) que, teoricamente,
permite resolver programas lineares em tempo polinomial. Com isto,
cou estabelecido que programas lineares s ao problemas de comple-
xidade polinomial. O algoritmo de Khachiyan teve pouco impacto
pratico, pois ele se mostrou menos eciente que o algoritmo sim-
plex em aplicacoes. Contudo, o algoritmo inspirou novos algoritmos
para o c alculo de solucoes de programas lineares: os assim denomi-
nados algoritmos de pontos interiores. Ao contrario do metodo sim-
plex, os algoritmos de pontos interiores geram pontos que caminham
pelo interior do conjunto admissvel ate encontrar a solucao otima.
Em 1984, o matematico Narendra K. Karmarkar (nascido em 1957)
prop os um algoritmo de ponto interior competitivo com o metodo
simplex. Para mais detalhes sobre os algoritmos de pontos interiors,
indicamos as referencias [08, 09].

6.5 Dualidade

Deni
c
ao 6.3 (O problema dual) O problema dual de

minimizar
n
cT x
xR (6.5)
sujeito a Ax b e x 0,

e o programa linear

maximizar
m
T b
R (6.6)
sujeito a AT c e 0,

onde T b = m i=1 i bi . O problema 6.6
e denominado o pro-
blema dual de 6.5. Neste contexto, o problema 6.5 e denominado
problema primal.

i i

i i
aal
i i
2017/2/2
page 192
i i

192 [CAP. 6: PROGRAMAC LINEAR


AO

Por exemplo, o problema dual do programa linear 6.1 e

minimizar 8 1 + 7 2
1 ,2 R
sujeito a 3 1 + 2 1,
2 1 + 5 2 1, (6.7)
1 0,
2 0.

O problema dual de qualquer programa linear pode ser encontrado


convertendo-o para o formato 6.5. Por exemplo, como Ax = b se,
e somente se, Ax b e Ax b, o programa linear na forma
padr
ao 6.3 pode ser escrito na forma do problema primal 6.5 da se-
guinte maneira equivalente

minimizar
n
cT x
xR
 
A b
sujeito a x e x 0.
A b

Particionando-se agora as vari


aveis duais na forma (u, v), o problema
dual deste u
ltimo PL e

minimizar
n
uT b vT b
xR
sujeito a AT u AT v c, u 0 e v 0.

Fazendo-se = u v, o problema acima pode ser simplicado, o que


nos leva ao seguinte par de problemas duais:

Par Dual 6.1


(problema primal) (problema dual)
minimizar
n
T
c x maximizar
m
T b
xR R
sujeito a Ax = b, sujeito a AT c.
x 0,

i i

i i
aal
i i
2017/2/2
page 193
i i

[SEC. 6.5: DUALIDADE 193

Outros pares de problemas duais de interesse s


ao dados a seguir.

Par Dual 6.2


(problema primal) (problema dual)
maximizar
n
T
c x minimizar
m
T b
xR R
sujeito a Ax = b, sujeito a AT c.
x 0,

Par Dual 6.3 (O da Denicao 6.3)


(problema primal) (problema dual)
minimizar
n
T
c x maximizar
m
T b
xR R
sujeito a Ax b, sujeito a AT c,
x 0, 0.

Par Dual 6.4


(problema primal) (problema dual)
T
maximizar
m
b y minimizar cT x
yR n
xR
sujeito a Ay c, sujeito a xT A bT,
y 0, x 0.

Teorema 6.5 (Teorema fraco da dualidade) Se x e sao


admissveis para os problemas 6.3 e 6.6, respectivamente, entao
cT x T b.

i i

i i
aal
i i
2017/2/2
page 194
i i

194 [CAP. 6: PROGRAMAC LINEAR


AO

Demonstrac
ao: Temos que
(1) (2)
T b T Ax cT x,
onde, em (1), usamos que 0 e bAx e, em (2), usamos que x0
e T AcT .

Observa c
ao. Este teorema mostra que um ponto admissvel para
um dos problemas fornece uma cota para o valor da funcao objetivo
do outro problema. Os valores associados com o problema primal s ao
sempre maiores ou iguais aos valores associados com o problema dual.
Como corolario, vemos que se um par de pontos admissveis pode ser
encontrado para os problemas primal e dual com valores iguais da
func
ao objetivo, ent
ao estes pontos s
ao otimos.

ario 6.4 Se x e sao pontos admissveis para os pro-


Corol
blemas primal e dual na Denicao 6.3, respectivamente, e

cT x = ( )T b,

entao x e s
ao pontos admissveis otimos para seus respec-
tivos problemas.

Teorema 6.6 (do equilbrio) Suponha que x e satisfacam


as seguintes condic
oes de folgas complementares:

se ( Ax )i > (b)i , entao ()i = 0 e


(6.8)
se (T A)j < (c)j , entao (x)j = 0.

ao x e s
Ent ao solucoes otimas para os problemas primal e dual
da Denic ao 6.3, respectivamente. Reciprocamente, solucoes
admissveis otimas para estes problemas devem satisfazer as
condicoes 6.8.

Demonstracao: Vamos mostrar que se as condicoes 6.8 sao satisfeitas,


entao x e s
ao tais que
cT x = ( )T b

i i

i i
aal
i i
2017/2/2
page 195
i i

[SEC. 6.5: DUALIDADE 195

e, com isto, pelo corolario anterior, x e sao solucoes otimas para


os respectivos problemas primal e dual. Temos que
(1) (2)
bT = T b T (Ax) = (T A) x cT x
onde, em (1), usamos que (T )i = 0 toda vez que (b)i < (Ax)i e,
em (2), usamos que (x)i = 0 toda vez que (cT )i > (T A)i . Como,
pelo Teorema Fraco da Dualidade, T bcT x, temos a igualdade:
cT x = ( )T b.

Se x e s
ao soluc
oes admissveis otimos para seus respectivos pro-
blemas, entao cT x = bT . Na demonstracao do Teorema Fraco da
Dualidade vimos que T bT AxcT x, Portanto,
bT = T b = T Ax e cT x = T Ax.
Ent
ao, obrigatoriamente,
(Ax)i > (b)i ()i = 0 e (T A)j < (c)j (x)j = 0.

Teorema 6.7 (Teorema forte de dualidade) Se o proble-


ma primal ou o problema dual possui uma solucao admissvel
otima, entao os dois problemas possuem solucoes otimas. Mais

ainda, para estas solucoes otimas, os valores das funcoes obje-
tivos sao iguais. Se nao existem solucoes otimas, ent ao duas
possibilidades podem ocorrer: (a) os conjuntos admissveis dos
dois problemas sao ambos vazios ou (b) um e vazio e o outro
tem funcao objetivo nao limitada (o maximo e + e o mnimo
e ).

Demonstrac ao: Vamos supor que o problema primal tenha uma solu-
c
ao admissvel otima e vamos mostrar que o problema dual tambem
possui uma solucao
otima. O caso em que o dual possui uma solucao
otima e tratado da mesma maneira, convertendo o problema dual

para a forma

minimizar
m
T b
R
sujeito a AT c,
0.

i i

i i
aal
i i
2017/2/2
page 196
i i

196 [CAP. 6: PROGRAMAC LINEAR


AO

Agora, usando vari


aveis de folga, podemos reescrever as restricoes do
problema dual na seguinte forma:
 
& ' x x
A I = b, 0.
w w

Apos v
arios passos do metodo simplex, obtemos uma matriz da forma
& '
B N

com custo cT = [ cTB cTN ]. Em um ponto otimo, vale que

r = cTN cTB B1 N0

e 
& ' B1 b
T
c x= cTB cTN = cTB B1 b
0
e o custo mnimo. Escolhendo T = cTB B1 , vemos que

T b = cTB B1 b = cT x.

Resta mostrar que satisfaz as restricoes do problema dual T AcT ,


isto e, dualizando em igualdades,
& '
T A I cT .

Aplicando-se na desigualdade acima as mesmas operacoes usadas no


problema primal que conduziram `a solucao otima, obtemos que
& ' & '
T B N cTB cTN .

Mas, se T = cTB B1 , entao

T B = cTB B1 B = cTB e T N = cTB B1 NcTN .

A desigualdade ocorre pela condicao de otimalidade: r = cTN


cTB B1 N0.

O conjunto admissvel do problema dual 6.7 do programa linear 6.1


esta desenhado na Figura 6.6. Por inspecao, vemos que a solucao

i i

i i
aal
i i
2017/2/2
page 197
i i

[SEC. 6.6: EXERCICIOS 197

tima e dada por (1 , 2 ) = (4/13, 1/13). Este ponto e a intersecao da


o
curva de nvel g(1 , 2 ) = 8 1 + 7 2 = c mais alta que intercepta
o conjunto admissvel. Lembrando que (x1 , x2 ) = (2, 1) e a solucao
do problema primal 6.1, vemos que

f (x1 , x2 ) = x1 + x2 = 3 = 8 1 + 7 2 = g(1 , 2 ),

como arma o teorema forte da dualidade.

3/7

1/5

(4/13, 1/13)

3/8
0 1/3 1

Figura 6.6: O conjunto admissvel do problema dual 6.7 do programa


linear 6.1.

6.6 Exerccios
[01] Mostre que o conjunto admissvel {x Rn | Ax = b e x0} de
um programa linear na forma padrao e um subconjunto convexo
de Rn .

[02] A Fase I do metodo simplex consiste em encontrar uma solucao

i i

i i
aal
i i
2017/2/2
page 198
i i

198 [CAP. 6: PROGRAMAC LINEAR


AO

b
asica e admissvel inicial para o programa linear

minimizar
n
cT x
xR
sujeito a Ax = b,
x0.

Apos uma troca conveniente de sinais para tornar b0, consi-


dere o seguinte problema auxiliar:

minimizar T w
xRn ,wRm
sujeito a Ax + w = b,
x0, w0.

Mostre que, para este novo problema, a solucao (x, w) = (0, b)


e, ao mesmo tempo, b asica e admissvel. O metodo simplex
ao ser usado para obter uma solucao otima (x , w ).
pode ent
Se w = 0, mostre que x e uma solucao basica e admissvel
para o programa linear inicial.
[03] Use o metodo simplex para resolver o programa linear abaixo.

minimizar 2 x1 + x2
x1 ,x2 R
sujeito a x1 + x2 4,
x1 + 3 x2 12,
x1 x2 0,
x1 0,
x2 0.

i i

i i
aal
i i
2017/2/2
page 199
i i

Captulo 7

Teoria dos Jogos

7.1 O que
e um jogo?
A teoria dos jogos pode ser denida como a teoria dos modelos
matematicos que estuda a escolha de decisoes otimas sob condicoes
de conito. O elemento basico em um jogo e o conjunto de jogadores
que dele participam. Cada jogador tem um conjunto de estrategias.
Quando cada jogador escolhe sua estrategia, temos entao uma si-
tuac
ao ou perl no espaco de todas as situacoes (pers) possveis.
Cada jogador tem interesse ou preferencias para cada situacao no
jogo. Em termos matem aticos, cada jogador tem uma func ao uti-
lidade que atribui um n umero real (o ganho ou payo do jogador)
a cada situac
ao do jogo. Mais especicamente, um jogo tem os se-
guintes elementos basicos: existe um conjunto nito de jogadores,
representado por
G = {g1 , g2 , . . . , gn },
e cada jogador gi G possui um conjunto nito

Si = {si1 , si2 , . . . , simi }

de opcoes, denominadas estrategias puras do jogador gi (mi 2).


Um vetor
s = (s1j1 , s2j2 , . . . , snjn ),

199

i i

i i
aal
i i
2017/2/2
page 200
i i

200 [CAP. 7: TEORIA DOS JOGOS

onde siji e uma estrategia pura para o jogador gi G, e denomi-


nado um perl de estrategias puras. O conjunto de todos os pers de
estrategias puras formam, portanto, o produto cartesiano
n

S= Si = S1 S2 Sn ,
i=1

denominado espaco de estrategias puras do jogo. Para cada joga-


dor gi G, existe uma func
ao utilidade
ui : S R
s  ui (s)

que associa o ganho (payo) ui (s) do jogador gi a cada perl de


estrategias puras s S. Esta funcao utilidade e uma forma de re-
presentar a preferencia do jogador gi com relacao aos varios pers de
estrategias do jogo.
Jogos descritos nesta forma s ao denominados jogos estrategicos ou
jogos na forma normal . Neles, cada jogador deve fazer a sua escolha
de estrategia sem o conhecimento das escolhas dos demais jogadores.
Admite-se, contudo, que cada jogador conhece toda a estrutura do
jogo. Por este motivo, jogos deste tipo tambem s ao denominados
jogos nao-cooperativos de informac ao completa.
Assume-se tambem que os jogadores sejam racionais, isto e, eles
sempre escolher ao acoes que maximizem a sua funcao utilidade. Alem
de ser racional, cada jogador (1) sabe que seus advers arios tambem
s
ao racionais, (2) sabe que eles sabem que o jogador sabe que eles sao
racionais, ad innitum.

Exemplo 7.1 (O dilema do prisioneiro) Possivelmente o exem-


plo mais conhecido na teoria dos jogos e o dilema do prisioneiro. Ele
foi formulado por Albert W. Tucker em 1950, em um seminario para
psicologos na Universidade de Stanford, para ilustrar a diculdade de
se analisar certos tipos de jogos.
A situacao e a seguinte: dois ladr
oes, Al e Bob, s
ao capturados
e acusados de um mesmo crime. Presos em selas separadas e sem
poderem se comunicar entre si, o delegado de plant ao faz a seguinte
proposta: cada um pode escolher entre confessar ou negar o crime.
Se nenhum deles confessar, ambos ser ao submetidos a uma pena de

i i

i i
aal
i i
2017/2/2
page 201
i i

UM JOGO?
[SEC. 7.1: O QUE E 201

1 ano. Se os dois confessarem, ent


ao ambos terao pena de 5 anos. Mas
se um confessar e o outro negar, entao o que confessou sera libertado
e o outro ser
a condenado a 10 anos de pris ao. Neste contexto, temos

G = {Al, Bob},
SAl = {confessar, negar}, SBob = {confessar, negar},
S = SAl SBob =
{(confessar, confessar), (confessar, negar),
(negar, confessar), (negar, negar)}.

As duas funcoes utilidade


uAl : S R e uBob : S R
s
ao dadas por

uAl (confessar, confessar) = 5, uAl (confessar, negar) = 0,


uAl (negar, confessar) = 10, uAl (negar, negar) = 1,

(que representam os ganhos de Al) e

uBob (confessar, confessar) = 5, uBob (confessar, negar) = 10,


uBob (negar, confessar) = 0, uBob (negar, negar) = 1

(que representam os ganhos de Bob). E uma pratica representar os


payos dos jogadores atraves de uma matriz, denominada matriz de
payos.

Bob
confessar negar
confessar (5, 5) (0, 10)
Al

negar (10, 0) (1, 1)

Nesta matriz, os n umeros de cada celula representam, respectiva-


mente, os payos de Al e Bob para as escolhas de Al e Bob corres-
pondentes a celula.

i i

i i
aal
i i
2017/2/2
page 202
i i

202 [CAP. 7: TEORIA DOS JOGOS

Exemplo 7.2 (A batalha dos sexos) Um homem e a sua mulher


desejam sair para passear. O homem prefere assistir a um jogo de
futebol enquanto que sua mulher prefere ir ao cinema. Se eles forem
juntos para o futebol, ent ao o homem tem satisfacao maior do que a
mulher. Por outro lado, se eles forem juntos ao cinema, entao a mu-
lher tem satisfacao maior do que o homem. Finalmente, se eles sarem
sozinhos, entao ambos cam igualmente insatisfeitos. Esta situacao
tambem pode ser modelada como um jogo estrategico. Temos:

G = {homem, mulher},
Shomem = {futebol, cinema}, Smulher = {futebol, cinema},
S = Shomem Smulher =
{(futebol, futebol), (futebol, cinema),
(cinema, futebol), (cinema, cinema)}.

As duas funcoes utilidade uhomem : S R e umulher : S R sao


descritas pela seguinte matriz de payos:
Mulher
futebol cinema
futebol (10, 5) (0, 0) .
Homem

cinema (0, 0) (5, 10)

7.2 Solu
c
oes de um jogo em estrat
egias
puras
Uma soluc ao de um jogo e uma prescricao ou previs
ao sobre o re-
sultado do jogo. Existem varios conceitos diferentes de solucao. Nesta
sec
ao, investigaremos os dois conceitos mais comuns: domin ancia e
equilbrio de Nash.
Considere o dilema do prisioneiro. Como encontrar uma solucao
para o dilema de Al e Bob, isto e, que estrategias s ao plausveis

i i

i i
aal
i i
2017/2/2
page 203
i i

[SEC. 7.2: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS PURAS 203

se os dois prisioneiros querem minimizar1 o tempo de cadeia? Se


analisarmos o jogo do ponto de vista de Al, ele pode raciocinar da
seguinte maneira:

Duas coisas podem acontecer: Bob pode confessar ou


Bob pode negar. Se Bob confessar, entao e melhor para
mim confessar tambem. Se Bob n ao confessar, entao eu
co livre se eu confessar. Em qualquer um dos casos, e
melhor para mim confessar. Entao, eu confessarei.

Se analisarmos agora o jogo do ponto de vista de Bob, podemos


aplicar a mesma linha de raciocnio e concluir que Bob tambem ir
a
confessar. Assim, ambos confessarao e car
ao presos por 5 anos.
Em termos da teoria dos jogos, dizemos que (1) os dois joga-
dores possuem uma estrategia dominante, isto e, todas menos uma
estrategia e estritamente dominada, (2) que o jogo e resol
uvel por do-
minancia estrita iterada e (3) que o jogo termina em uma solucao que
e um equilbrio de estrategia dominante, conceitos que deniremos a
seguir.

Domin
ancia em estrat
egias puras
Frequentemente, iremos discutir pers de estrategia na qual ape-
nas a estrategia de um unico jogador gi G ir
a variar, enquanto que
as estrategias de seus oponentes permanecerao xas. Denote por

si = (s1j1 , . . . , s(i1)ji1 , s(i+1)ji+1 , . . . , snjn )


Si = S1 Si1 Si+1 Sn

uma escolha de estrategia para todos os jogadores, menos o jogador gi .


Desta maneira, um perl de estrategias pode ser convenientemente
denotado por

s = (siji , si ) = (s1j1 , . . . , s(i1)ji1 , siji , s(i+1)ji+1 , . . . , snjn ).

1 No Exemplo 7.1, os payos foram definidos como n umeros 0. Desta ma-


neira, minimizar o tempo de cadeia e equivalente a maximizar o payo.

i i

i i
aal
i i
2017/2/2
page 204
i i

204 [CAP. 7: TEORIA DOS JOGOS

Deni ao 7.1 (Estrate


c gia Pura Estritamente Domi-
nada) Dizemos que uma estrategia pura sik Si do joga-
dor gi G e estritamente dominada pela estrategia sik Si se,
independentemente das escolhas dos demais jogadores, o joga-
dor gi ganhar mais escolhendo sik do que sik , isto e, se

ui (sik , si ) > ui (sik , si ),

para todo si Si .

Deni
c
ao 7.2 (em estrat
egias puras)
(a) (Domina ncia Estrita Iterada) Domin ancia estrita ite-
rada e o processo no qual, sequencialmente, se eliminam as
estrategias que sao estritamente dominadas.
(b) (Equilbrio de Estrat egia Estritamente Dominan-
te) Quando o processo de dominancia estrita iterada reduz
o jogo para um u nico perl de estrategias puras s , dizemos
que s e um equilbrio de estrategia estritamente dominante.

Exemplo 7.3 Considere o jogo determinado pela matriz de payos


abaixo.

g2
s21 s22 s23 s24
s11 (5, 2) (2, 6) (1, 4) (0, 4)

s12 (0, 0) (3, 2) (2, 1) (1, 1)


g1
s13 (7, 0) (2, 2) (1, 1) (5, 1)

s14 (9, 5) (1, 3) (0, 2) (4, 8)

i i

i i
aal
i i
2017/2/2
page 205
i i

[SEC. 7.2: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS PURAS 205

Neste jogo, para o jogador g2 , a estrategia s21 e estritamente domi-


nada pela estrategia s24 e, assim, a primeira coluna da matriz pode
ser eliminada.
g2
s22 s23 s24
s11 (2, 6) (1, 4) (0, 4)

s12 (3, 2) (2, 1) (1, 1)


g1
s13 (2, 2) (1, 1) (5, 1)

s14 (1, 3) (0, 2) (4, 8)

Agora, nesta matriz reduzida, para o jogador g1 , as estrategias s11


e s14 sao estritamente dominadas pelas estrategias s12 e s13 , respec-
tivamente. Portanto, as linhas 1 e 4 podem ser eliminadas. Alem
disso, a estrategia s23 do jogador g2 e estritamente dominada pela es-
trategia s22 . Assim, a coluna 2 tambem pode ser eliminada. Obtemos
entao uma matriz reduzida 2 2.
g2
s22 s24
s12 (3, 2) (1, 1)
g1
s13 (2, 2) (5, 1)

Finalmente, a estrategia s24 do jogador g2 e estritamente dominada


pela estrategia s22 e, na matriz 2 1 resultante, a estrategia s13 do
jogador g1 e estritamente dominada pela estrategia s12 . Vemos ent ao
que (s12 , s22 ) e o equilbrio de estrategias estritamente dominantes do
jogo: o jogador g1 escolhe a estrategia s12 (ganhando 3) e o jogador g2
escolhe a estrategia s22 (ganhando 2).

Note que, em cada passo do processo de eliminacao das estrategias


estritamente dominadas, o jogo e substitudo por um outro jogo

i i

i i
aal
i i
2017/2/2
page 206
i i

206 [CAP. 7: TEORIA DOS JOGOS

mais simples, no sentido de que o conjunto de estrategias puras


de um jogador (aquele que tem uma estrategia estritamente domi-
nada) e substitudo por um subconjunto com menos elementos (ob-
tido removendo-se justamente as estrategias que sao estritamente do-
minadas). No exemplo acima, os conjuntos de estrategias puras ini-
ciais dos dois jogadores sao dados, respectivamente, por

S1 = {s11 , s12 , s13 , s14 } e S2 = {s21 , s22 , s23 , s24 }.

Como a estrategia pura s21 e estritamente dominada por s24 , o con-


junto S2 e substitudo por {s22 , s23 , s24 } = S2 {s21 }. O conjunto S1
permanece o mesmo. Sendo assim, podemos substituir o jogo original
por um mais simples, onde os conjuntos de estrategias puras dos dois
jogadores sao dados por
(1) (1)
S1 = {s11 , s12 , s13 , s14 } e S2 = {s22 , s23 , s24 }.

As funcoes utilidade do novo jogo s


ao as restricoes das funcoes utili-
dade do jogo original aos novos conjuntos de estrategias puras:

u1 |S (1) e u2 |S (1) .
1 2

Para o novo jogo, vemos que as estrategias s11 e s14 sao estritamente
dominadas pelas estrategias s12 e s13 , respectivamente. Logo, pode-
mos simplicar o jogo mais uma vez, considerando os conjuntos de
estrategias puras
(2) (2)
S1 = {s12 , s13 } e S2 = {s22 , s23 , s24 }.

Seguindo com as outras eliminacoes, terminamos com um jogo muito


simples, onde cada conjunto de estrategias puras e unitario:
(5) (5)
S1 = {s12 } e S2 = {s22 }.

Este processo de eliminacao gerou, portanto, uma cadeia de espacos


de estrategias puras:

(1) (1) (2) (2)


S = S1 S2  S (1) = S1 S2  S (2) = S1 S2 
(5) (5)
 S (5) = S1 S2 = {(s12 , s22 )}.

i i

i i
aal
i i
2017/2/2
page 207
i i

[SEC. 7.2: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS PURAS 207

Neste exemplo, a tecnica de domin ancia estrita iterada forneceu um


u
nico perl de estrategias como solucao do jogo, no caso, o perl
(5) (5)
(s12 , s22 ) S1 S2 .
Contudo, pode acontecer da tecnica fornecer v arios pers ou, ate
mesmo, fornecer todo o espaco de estrategias, como e o caso da bata-
lha dos sexos, onde n
ao existem estrategias estritamente dominadas.

Um outro conceito importante e o de estrategia pura fracamente


dominada.

Deni ao 7.3 (Estrate


c gia Pura Fracamente Domi-
nada) Dizemos que uma estrategia pura sik Si do joga-
dor gi G e fracamente dominada pela estrategia sik Si
se
ui (sik , si ) ui (sik , si ),
para todo si Si e, pelo menos para algum si Si ,

ui (sik , si ) > ui (sik , si ).

Em outras palavras, sik Si e fracamente dominada por


sik Si se, independentemente das escolhas dos demais joga-
dores, o jogador gi nada perde se trocar a estrategia sik Si
pela estrategia sik Si e, pelo menos para uma escolha dos
demais jogadores, esta troca da ao jogador gi um ganho maior.

Deni
c
ao 7.4
(a) (Domina ncia Fraca Iterada) Domin ancia fraca iterada
e o processo no qual, sequencialmente, se eliminam as es-
trategias que sao fracamente dominadas.
(b) (Equilbrio de Estrat egia Fracamente Dominante)
Quando o processo de dominancia fraca iterada reduz o jogo
para um unico perl de estrategias puras s , dizemos que

s e um equilbrio de estrategia fracamente dominante.

i i

i i
aal
i i
2017/2/2
page 208
i i

208 [CAP. 7: TEORIA DOS JOGOS

Exemplo 7.4 Considere o jogo cuja matriz de payos e dada por:

g2
s21 s22
s11 (1, 1) (1, 0) .
g1
s12 (1, 0) (0, 1)

A estrategia s12 do jogador g1 e fracamente dominada pela estra-


tegia s11 . Eliminando-a, obtemos a matriz reduzida:

g2
s21 s22
.
g1 s11 (1, 1) (1, 0)

Vemos agora que a estrategia s22 do jogador 2 e estritamente do-


minada pela estrategia s21 . Sendo assim, (s11 , s21 ) e o equilbrio de
estrategias fracamente dominadas do jogo.

Uma pergunta natural e se o processo de eliminacao das estrategias


dominadas depende ou n ao da ordem em que s ao realizadas. Para
o caso de estrategias estritamente dominadas, pode-se mostrar que
esta ordem e irrelevante, isto e, independentemente da ordem em
que as estrategias (estritamente dominadas) s ao eliminadas, obtem-se
sempre a mesma matriz reduzida no nal do processo. Por outro lado,
o processo de eliminac ao das estrategias fracamente dominadas pode
conduzir a resultados diferentes, dependendo da ordem de eliminacao.
Considere, por exemplo, o jogo:

g2
s21 s22 s23
s11 (0, 2) (0, 0) (1, 0) .
g1
s12 (0, 3) (1, 0) (0, 0)

i i

i i
aal
i i
2017/2/2
page 209
i i

[SEC. 7.2: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS PURAS 209

Eliminando-se, em sequencia, as estrategias s23 (que e estritamente


dominada por s21 ), s11 (que e fracamente dominada por s12 ) e s22
(que e estritamente dominada por s21 ), obtemos (s12 , s21 ) como res-
posta. Agora, eliminando-se, em sequencia, as estrategias s22 (que
e estritamente dominada por s21 ), s12 (que e fracamente dominada
por s11 ) e s23 (que e estritamente dominada por s21 ), obtemos outra
resposta: (s11 , s21 ).

Equilbrio de Nash em estrat


egias puras
Uma soluc ao estrategica ou equilbrio de Nash de um jogo e um
perl de estrategias onde cada jogador n ao tem incentivo de mudar
sua estrategia se os demais jogadores nao o zerem.

Deni ao 7.5 (Equilbrio de Nash) Dizemos que um perl


c
de estrategias

s = (s1 , . . . , s(i1) , si , s(i+1) , . . . , sn ) S

e um equilbrio de Nash se

ui (si , si ) ui (siji , si )

para todo i = 1, . . . , n e para todo ji = 1, . . . , mi , com mi 2.

Exemplo 7.5
(a) No dilema do prisioneiro (Exemplo 7.1), o perl de estrategias
(confessar, confessar) e um equilbrio de Nash. De fato:
uAl (confessar, confessar) = 5 > 10 = uAl (negar, confessar)
e
uBob (confessar, confessar) = 5 > 10 = uBob (confessar, negar).
Estas desigualdades mostram que, para o perl de estrategias
(confessar, confessar), um prisioneiro n
ao se sente motivado a

i i

i i
aal
i i
2017/2/2
page 210
i i

210 [CAP. 7: TEORIA DOS JOGOS

mudar a sua estrategia se o outro n


ao o zer (ele n
ao vai car
menos tempo na cadeia fazendo isto).
J
a o perl (negar, confessar) n
ao e um equilbrio de Nash do
jogo pois, neste caso, dado que Bob decide confessar, Al ca
menos tempo na cadeia se mudar a sua estrategia de negar para
confessar. Em outras palavras, para o perl (negar, confessar),
Al se sente motivado a mudar a sua estrategia se Bob n
ao o zer.
Os pers (confessar, negar) e (negar, negar) tambem n ao sao
equilbrios de Nash. Em (confessar, negar), Bob se sente moti-
vado a mudar a sua estrategia se Al nao o zer e, em (negar,
negar), cada um dos prisioneiros se sente motivado a mudar a
sua estrategia se o outro nao o zer. Desta maneira, vemos que
ou nico equilbrio de Nash do jogo e (confessar, confessar).
(b) Na batalha dos sexos (Exemplo 7.2), os pers de estrategia (fu-
tebol, futebol) e (cinema, cinema) s
ao os u
nicos equilbrios de
Nash do jogo.
(c) No Exemplo 7.3, o u nico equilbrio de Nash do jogo e o perl de
estrategias (s12 , s22 ).

Existem, contudo, jogos que nao possuem equilbrios de Nash em


estrategias puras. Este e o caso, por exemplo, do jogo de comparar
moedas (matching pennies).

Exemplo 7.6 (Comparar moedas) Nesse jogo, dois jogadores exi-


bem, ao mesmo tempo, a moeda que cada um esconde em sua mao.
Se ambas as moedas apresentam cara ou coroa, o segundo jogador
d
a sua moeda para o primeiro. Se uma das moedas apresenta cara,
enquanto a outra apresenta coroa, e a vez do primeiro jogador dar
sua moeda para o segundo. Esse jogo se encontra representado por
sua matriz de payos dada abaixo.
g2
s21 s22
s11 (+1, 1) (1, +1)
g1
s12 (1, +1) (+1, 1)

i i

i i
aal
i i
2017/2/2
page 211
i i

[SEC. 7.2: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS PURAS 211

Observe que o perl de estrategias (s11 , s21 ) nao e um equilbrio de


Nash em estrategias puras, pois se o jogador g1 mantiver a sua es-
trategia s11 , o jogador g2 tera um ganho maior se mudar sua es-
trategia de s21 para s22 , isto e, ele se sente motivado a mudar a sua
estrategia se o jogador g1 nao mudar a sua escolha. O mesmo com-
portamento ocorre para o perl de estrategias (s12 , s22 ). Ja, para os
pers (s11 , s22 ) e (s12 , s21 ), e o jogador g1 que se sente motivado a
mudar de estrategia para ganhar mais, se o jogador g2 mantiver a sua
estrategia. Isto mostra que o jogo de comparar moedas nao possui
equilbrios de Nash em estrategias puras.

Existe uma maneira conveniente de se caracterizar equilbrios de


Nash atraves das func
oes de melhor resposta. De maneira informal,
a melhor resposta de um jogador para uma determinada escolha de
estrategias dos demais jogadores e o conjunto de estrategias do jo-
gador que maximizam o seu ganho quando os demais jogadores nao
mudam as suas escolhas. Mais precisamente, temos a seguinte

Deni ao 7.6 (Func


c es de melhor resposta) A funcao de
o
melhor resposta do jogador gi e a aplicacao

MRi : Si 2Si

denida por

MRi (si ) = argmaxsi Si ui (si , si )


= {si Si | si Si , ui (si , si ) ui (si , si )},

com si Si (aqui 2Si representa o conjunto das partes de Si ).


A funcao de melhor resposta do jogo e a aplicacao

MR : S 2S

denida por

MR(s) = (MR1 (s1 ), MR2 (s2 ), . . . , MRn (sn )),

i i

i i
aal
i i
2017/2/2
page 212
i i

212 [CAP. 7: TEORIA DOS JOGOS

com s S. Observacao: alguns autores usam as notacoes


MRi : Si Si e MRi : Si Si para representar a funcao
de melhor resposta MRi : Si 2Si .

Exemplo 7.7
(a) No dilema do prisioneiro (Exemplo 7.1), temos
MRAl : SBob SAl
confessar  {confessar}
negar  {confessar}

MRBob : SAl SBob


confessar  {confessar}
negar  {confessar}.

(b) Na batalha dos sexos (Exemplo 7.2), temos


MRHomem : SMulher SHomem
futebol  {futebol}
cinema  {cinema}

MRMulher : SHomem SMulher


futebol  {futebol}
cinema  {cinema}.

(c) No Exemplo 7.3, temos


MR1 (s21 ) = {s14 }, MR1 (s22 ) = {s12 },
MR1 (s23 ) = {s12 }, MR1 (s24 ) = {s13 },
MR2 (s11 ) = {s22 }, MR2 (s12 ) = {s22 },
MR2 (s13 ) = {s22 }, MR2 (s14 ) = {s24 }.

(d) No jogo de comparar moedas (Exemplo 7.6), temos


MR1 (s21 ) = {s11 }, MR1 (s22 ) = {s12 },
MR2 (s11 ) = {s22 }, MR2 (s12 ) = {s21 }.

i i

i i
aal
i i
2017/2/2
page 213
i i


[SEC. 7.3: ESTRATEGIAS MISTAS 213

A proxima proposicao e uma consequencia direta das denicoes


de equilbrio de Nash e funcoes de melhor resposta.

Proposi ao 7.1 s = (s1 , . . . , si , . . . , sn ) S e um equilbrio


c
de Nash em estrategias puras se, e somente se, si MRi (si )
para todo i = 1, . . . , n.

Valem as seguintes relacoes entre domin ancia e equilbrio de Nash


em estrategias puras: (1) o processo de dominancia estrita iterada nao
pode eliminar um equilbrio de Nash ao simplicar um jogo e (2) se o
processo de dominancia estrita iterada deixa apenas um u nico perl
de estrategias puras s , entao s e o u
nico equilbrio de Nash do jogo.
Demonstrac oes destes fatos podem ser encontradas em [03].

7.3 Estrat
egias mistas
Como vimos no jogo de comparar moedas do Exemplo 7.6, existem
jogos que nao possuem equilbrios de Nash em estrategias puras. Uma
alternativa para estes casos e a de considerar o jogo do ponto de vista
probabilstico, isto e, ao inves de escolher um perl de estrategias
puras, o jogador deve escolher uma distribuic ao de probabilidade sobre
suas estrategias puras.
Uma estrategia mista pi para o jogador gi G e uma distribuicao
de probabilidades sobre o conjunto Si de estrategias puras do jogador,
isto e, pi e um elemento do conjunto
 mi
9

mi
mi = (x1 , . . . , xmi ) R | x1 0, . . . , xmi 0 e xk = 1 .
k=1

Assim, se pi = (pi1 , pi2 , . . . , pimi ), entao


mi

pi1 0, pi2 0, ..., pimi 0 e pik = 1.
k=1

Note que cada mi e um conjunto compacto e convexo. Nas


Figuras 7.1 e 7.2 temos os desenhos de 2 e 3 , respectivamente. Os

i i

i i
aal
i i
2017/2/2
page 214
i i

214 [CAP. 7: TEORIA DOS JOGOS

pontos extremos (vertices) de mi , isto e, os pontos da forma

e1 = (1, 0, . . . , 0, 0), e2 = (0, 1, . . . , 0, 0), . . . , emi = (0, 0, . . . , 0, 1)

dao, respectivamente, probabilidade 1 a`s estrategias puras si1 , si2 ,


. . . , simi . Desta maneira, podemos considerar a distribuicao de pro-
babilidade ek como a estrategia mista que representa a estrategia
pura sik do jogador gi .

x2
1

0 1 x1

: ;
Figura 7.1: 2 = (x1 , x2 ) R2 | x1 0, x2 0 e x1 + x2 = 1 .

O espaco de todos os pers de estrategia mista e o produto car-


tesiano
= m1 m2 mn ,
denominado espaco de estrategias mistas. Como o produto cartesiano
de conjuntos compactos e convexos e compacto e convexo, vemos que
e compacto e convexo.
Um vetor p e denominado um perl de estrategias mistas.
Como no caso de estrategias puras, usaremos a notacao pi para
representar as estrategias mistas de todos os jogadores, excluindo-se
a do jogador gi . Desta maneira, escreveremos

(pi , pi )

i i

i i
aal
i i
2017/2/2
page 215
i i


[SEC. 7.3: ESTRATEGIAS MISTAS 215

x3

0 1 x2

1
x1

:
Figura 7.2: 3 = (x1 , x2 , x3 ) R3 | x1 0, x2 0, x3 0 e x1 +
x2 + x3 = 1}.

para representar p = (p1 , . . . , pi , . . . , pn ). Como a estrategia pura sik


pode ser identicada com a distribuicao de probabilidades que da
peso 1 a sik e peso 0 a`s demais estrategias do jogador gi , usaremos

(sik , pi )

como uma notacao alternativa para o perl de estrategias mistas


(ek , pi ). Do mesmo modo, usaremos

(pi , si )

para indicar o perl de estrategias mistas onde o jogador gi escolhe


a distribuicao de probabilidades pi e os demais jogadores escolhem
ao peso 1 `as estrategias puras em si .
distribuicoes que d
Cada perl de estrategias mistas p = (p1 , . . . , pn ) determina
um payo esperado (utilidade esperada), uma media dos payos pon-
derada pelas distribuicoes de probabilidades p1 , . . . , pn . Mais preci-

i i

i i
aal
i i
2017/2/2
page 216
i i

216 [CAP. 7: TEORIA DOS JOGOS

samente, se

p = (p1 , p2 , . . . , pn )
= (p11 , p12 , . . . , p1m1 ; p21 , p22 , . . . , p2m2 ; . . . ; pn1 , pn2 , . . . , pnmn ),
" #$ % " #$ % " #$ %
p1 p2 pn

entao
m1 
 m2 mn

ui (p) = p1j1 p2j2 pnjn ui (s1j1 , s2j2 , . . . , snjn ).
j1 =1 j2 =1 jn =1
(7.1)
Cuidado com o abuso de notacao: estamos usando ui para representar
a funcao utilidade tanto em estrategias puras quanto em estrategias
mistas.
Como exemplo, considere o jogo de comparar moedas na pagi-
na 210. Se g1 escolhe a distribuicao de probabilidade p1 = (1/4, 3/4)
e g2 escolhe a distribuicao de probabilidade p2 = (1/3, 2/3), entao
os payos esperados associados ao perl de estrategias mistas p =
(p1 , p2 ) = (1/4, 3/4; 1/3, 2/3) sao dados por


2 
2
u1 (p) = p1j1 p2j2 u1 (s1j1 , s2j2 )
j1 =1 j2 =1
= p11 p21 u1 (s11 , s21 ) + p11 p22 u1 (s11 , s22 ) +
p12 p21 u1 (s12 , s21 ) + p12 p22 u1 (s12 , s22 )
1 1 1 2 3 1 3 2
= (+1) + (1) + (1) + (+1)
4 3 4 3 4 3 4 3
1
= +
6
e, analogamente,


2 
2
u2 (p) = p1j1 p2j2 u2 (s1j1 , s2j2 )
j1 =1 j2 =1
= p11 p21 u2 (s11 , s21 ) + p11 p22 u2 (s11 , s22 ) +
p12 p21 u2 (s12 , s21 ) + p12 p22 u2 (s12 , s22 )

i i

i i
aal
i i
2017/2/2
page 217
i i

[SEC. 7.4: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS MISTAS 217

1 1 1 2 3 1 3 2
= (1) + (+1) + (+1) + (1)
4 3 4 3 4 3 4 3
1
= .
6

7.4 Solu
c
oes de um jogo em estrat
egias
mistas
Todos os criterios b
asicos para solucoes de jogos em estrategias
puras podem ser estendidos para estrategias mistas.

Domin
ancia em estrat
egias mistas

Deni ao 7.7 (Estrate


c gia Mista Estritamente Domi-
nada) Dizemos que uma estrategia mista pi mi do joga-
dor gi G e estritamente dominada pela estrategia pi mi
se, independentemente das escolhas de distribuicoes de proba-
bilidade dos demais jogadores, o jogador gi ganha mais esco-
lhendo pi do que pi , isto e, se

ui (pi , pi ) > ui (pi , pi ),

para todo pi i = m1 mi1 mi+1 mn .

Como os payos ui (pi , pi ) e ui (pi , pi ) sao, respectivamente,


oes convexas dos payos ui (pi , si ) e ui (pi , si ),
combinac
segue-se que a condicao acima e equivalente a

ui (pi , si ) > ui (pi , si ),

para todos pers de estrategias puras si Si .

Exemplo 7.8 Considere o jogo com a seguinte matriz de payos:

i i

i i
aal
i i
2017/2/2
page 218
i i

218 [CAP. 7: TEORIA DOS JOGOS

g2
s21 s22
s11 (5, 3) (0, 0)
.
g1 s12 (0, 0) (5, 3)

s13 (2, 1) (2, 1)

A estrategia mista p1 = (0, 0, 1) 3 do jogador g1 e estritamente


dominada pela estrategia mista p1 = (1/2, 1/2, 0) 3 , pois
 !
 1 1 5 5 5
u1 (p1 , p2 ) = u1 , , 0; p21 , p22 = p21 + p22 =
2 2 2 2 2

 !
>

u1 (p1 , p2 ) = u1 0 , 0 , 1; p21 , p22 = 2 p21 + 2 p22 = 2

para todo p2 = (p21 , p22 ) 2 . Como p1 = (0, 0, 1) representa


a estrategia pura s13 do jogador g1 , este exemplo tambem mostra
que uma estrategia pura pode nao ser dominada por nenhuma outra
estrategia puras mas, ainda sim, ser dominada por uma estrategia
mista.

Deni ao 7.8 (Domina


c ncia Estrita Iterada em Estra-
(0) (0)

tegias Mistas) Sejam Si = Si e mi = mi . Dena, recur-
sivamente,

(n) (n1)
Si = {s Si | pi (n1)
mi tal que
(n1)
si Si , ui (pi , si ) > ui (s, si )}

i i

i i
aal
i i
2017/2/2
page 219
i i

[SEC. 7.4: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS MISTAS 219

mi = {pi = (pi1 , . . . , pimi ) mi |


(n)
(n)
k = 1, . . . , mi , pik > 0 somente se sik Si }.

A intersecao


Si =
(n)
Si
n=0

e o conjunto de estrategias puras que sobrevivem a remocao


iterada de estrategias estritamente dominadas e


mi = {pi mi | pi mi

tal que si Si , ui (pi , si ) > ui (pi , si )}


()

e o conjunto de todas as estrategias mistas do jogador gi que


sobreviveram a tecnica de dominancia estrita iterada.

Note que Si(n) e o conjunto de estrategias puras em Si(n1) que n


ao sao
estritamente dominadas pelas estrategias mistas em (n1)mi e que (n)
mi
e o conjunto de estrategias mistas que da probabilidades positivas
apenas para as estrategias puras em Si(n) .

Deni ao 7.9 (Equilbrio de Estrat


c egia Estritamente
Dominante) Se, no processo de dominancia estrita iterada, o
conjunto S = S1 Sn e unitario, isto e, se

S = {s },

entao dizemos que s e um equilbrio de estrategia estritamente


dominante.

Como no caso de estrategias puras, e possvel mostrar que os conjun-


tos S = S1 Sn e =
m1 mn n
ao dependem da
ordem em que as estrategias estritamente dominadas s ao removidas.
Nao apresentaremos a demonstracao deste fato aqui. O leitor interes-

i i

i i
aal
i i
2017/2/2
page 220
i i

220 [CAP. 7: TEORIA DOS JOGOS

sado poder a encontr


a-la (bem como as denicoes e resultados sobre
estrategias mistas fracamente dominadas) nas referencias [04, 12].

Equilbrio de Nash em estrat


egias mistas

Deni ao 7.10 (Equilbrio de Nash) Dizemos que um per-


c
l de estrategias mistas

p = (p1 , p2 , . . . , pn ) = m1 m2 mn

e um equilbrio de Nash se

ui (pi , pi ) ui (p, pi )

para todo p mi , isto e, nenhum jogador sente motivacao


de trocar a sua estrategia mista se os demais jogadores nao o
zerem.

Exemplo 7.9
(a) No dilema do prisioneiro (Exemplo 7.1), o perl de estrategias
mistas
p = (p1 , p2 ) = (1, 0; 1, 0)
e um equilbrio de Nash, pois

u1 (p1 , p2 ) = u1 (p11 , p12 ; 1, 0) = 5 p11 10


5 = u1 (1, 0; 1, 0) = u1 (p1 , p2 )

para todo p1 = (p11 , p12 ) 2 e

u2 (p1 , p2 ) = u2 (1, 0; p21 , p22 ) = 5 p21 10


5 = u2 (1, 0; 1, 0) = u2 (p1 , p2 )

para todo p2 = (p21 , p22 ) 2 . Observe que este equilbrio


corresponde ao equilbrio em estrategias puras

s = (confessar, confessar).

i i

i i
aal
i i
2017/2/2
page 221
i i

[SEC. 7.4: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS MISTAS 221

Mostraremos mais adiante que este e o u


nico equilbrio de Nash
em estrategias mistas do jogo.

(b) Na batalha dos sexos (Exemplo 7.2), os equilbrios de Nash em


estrategias mistas sao

(1, 0; 1, 0), (0, 1; 0, 1) e (2/3, 1/3; 1/3, 2/3).

Os dois primeiros pers de estrategias mistas correspondem a`s


estrategias puras (futebol, futebol) e (cinema, cinema), respec-
tivamente. Mostraremos mais adiante que estes s ao os u
nicos
equilbrios de Nash em estrategias mistas do jogo.

(c) No Exemplo 7.3, o u


nico equilbrio de Nash em estrategia mista
e o ponto
(0, 1, 0, 0; 0, 1, 0, 0)

que corresponde ao equilbrio de Nash (s12 , s22 ) em estrategias


puras.

(d) No jogo de comparar moedas do Exemplo 7.6, o u


nico equilbrio
de Nash em estrategias mistas e o ponto

(1/2, 1/2; 1/2, 1/2).

Como no caso de estrategias puras, podemos caracterizar equil-


brios de Nash em estrategias mistas atraves das funcoes de melhor
resposta. Considere um jogo com espaco de estrategias mistas =
m1 mi mn . No que se segue, usaremos as seguintes
notac
oes:

(Si ) = mi e (Si ) = m1 mi1 mi+1 mn .

i i

i i
aal
i i
2017/2/2
page 222
i i

222 [CAP. 7: TEORIA DOS JOGOS

Deni cao 7.11 (Func


o es de melhor resposta em estra-
t
egias mistas) A funcao de melhor resposta do jogador gi e a
aplicacao
MRi : (Si ) 2(Si )
denida por MRi (pi ) = argmaxpi (Si ) ui (pi , pi ), isto e,

MRi (pi )

=
{pi (Si ) | pi (Si ), ui (pi , pi ) ui (pi , pi )},

com pi (Si ). A funcao de melhor resposta do jogo e a


aplicacao
MR : 2
denida por

MR(p) = (MR1 (p1 ), MR2 (p2 ), . . . , MRn (pn )),

com p .

Note que, como (Si ) e um conjunto compacto n ao-vazio e a


ao pi  ui (pi , pi ) e contnua, podemos usar o teorema de Wei-
func
erstrass para garantir que MRi (pi ) = argmaxpi (Si ) ui (pi , pi ) e
um conjunto n ao-vazio para todo pi (Si ).
A proxima proposicao e uma consequencia direta das denicoes
de equilbrio de Nash e funcoes de melhor resposta em estrategias
mistas.

Proposi ao 7.2 p = (p1 , . . . , pi , . . . , pn ) e um equilbrio


c
de Nash em estrategias mistas se, e somente se, pi MRi (pi )
para todo i = 1, . . . , n, isto e, p MR(p ).

Exemplo 7.10 Suponha que, na batalha dos sexos (Exemplo 7.2),


a mulher escolha a estrategia mista p2 = (1/2, 1/2). Qual e a melhor

i i

i i
aal
i i
2017/2/2
page 223
i i

[SEC. 7.4: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS MISTAS 223

resposta do homem a esta estrategia da mulher? Para responder a


esta pergunta, observe inicialmente que

uHomem(p1 , p2 ) = uHomem (p11 , p12 ; p21 , p22 )


= p11 p21 uHomem (futebol, futebol) +
p11 p22 uHomem (futebol, cinema) +
p12 p21 uHomem (cinema, futebol) +
p12 p22 uHomem (cinema, cinema)
= 10 p11 p21 + 5 p12 p22

e, portanto, uHomem (p11 , p12 ; 1/2, 1/2) = 5 p11 + (5/2) p12 . Desta
maneira,

MRHomem (1/2, 1/2) = argmax(p11 ,p12 )2 (5 p11 + (5/2) p12 ).

Segue-se que a melhor resposta do homem a` estrategia mista p2 =


(1/2, 1/2) da mulher e obtida resolvendo-se o seguinte problema de
otimizacao:

maximizar 5 p11 + (5/2) p12


sujeito a p11 + p12 = 1,
p11 0,
p12 0,

ao e (p11 , p12 ) = (1, 0). Sendo assim, MRHomem (1/2, 1/2) =


cuja soluc
{(1, 0)}.

No caso de jogos com apenas dois jogadores, cada um com apenas


duas estrategias puras, e possvel escrever as estrategias mistas de
uma maneira mais simplicada:

2 = {(p, 1 p) R2 | 0 p 1},

isto e, cada elemento de 2 pode ser identicado com um numero real


no intervalo [0, 1]. Com isto, as funcoes de melhor resposta podem
ser reescritas de forma a depender de apenas de um n umero real. Por
exemplo, se o homem escolhe uma estrategia mista (p, 1 p) 2 ,
qual e a melhor resposta da mulher a esta estrategia do homem?

i i

i i
aal
i i
2017/2/2
page 224
i i

224 [CAP. 7: TEORIA DOS JOGOS

Escrevendo as estrategias mistas da mulher na forma (q, 1 q) 2 ,


vemos que

uMulher(p, 1 p; q, 1 q) = 15 pq + 10 10 q 10 p
= 5 (3 p 2) q + 10 (1 p).

Sendo assim,

MRMulher(p) = argmax(q,1q)2 (5 (3 p 2) q + 10 (1 p))


= argmaxq[0,1] (5 (3 p 2) q + 10 (1 p)),

onde, por simplicidade, estamos escrevendo MRMulher(p) no lugar


de MRMulher (p, 1 p). Assim, dada a escolha de p [0, 1] do homem,
a mulher quer encontrar os valores de q [0, 1] que maximizam o valor
de sua utilidade uMulher = 5 (3 p 2) q + 10 (1 p). Se p [0, 2/3),
entao 3 p 2 < 0 e, para maximizar a sua utilidade, a mulher dever a
escolher q = 0. Se p = 2/3, entao 3 p 2 = 0 e, portanto, a utilidade
uMulher = 10 (1 p) da mulher n ao dependera de q. Neste caso, a
mulher poder a escolher qualquer valor de q em [0, 1]. Se p (2/3, 1],
entao 3 p 2 > 0 e, para maximizar a sua utilidade, a mulher dever a
escolher q = 1. Mostramos ent ao que

{0}, se p [0, 2/3),
MRMulher (p) = [0, 1], se p = 2/3,

{1}, se p (2/3, 1].

Esta func
ao de melhor resposta pode ser representada gracamente,
como mostra a Figura 7.3.
Do mesmo modo, se a mulher escolhe uma estrategia mista (q, 1q)
2 , ent
ao

uHomem (p, 1 p; q, 1 q) = 15 pq + 5 5 q 5 p
= 5 (3 q 1) p + 5 (1 q),

de modo que

MRHomem (q) = argmax(p,1p)2 (5 (3 q 1) p + 5 (1 q))


= argmaxp[0,1] (5 (3 q 1) p + 5 (1 q)).

i i

i i
aal
i i
2017/2/2
page 225
i i

[SEC. 7.4: SOLUC


OES
DE UM JOGO EM ESTRATEGIAS MISTAS 225

(Mulher) q

(Futebol) 1

(Cinema)
0 2/3 1 p (Homem)

(Cinema) (Futebol)

Figura 7.3: Representacao gr


aca da funcao de melhor resposta da
mulher no jogo da batalha dos sexos.

Assim, dada a escolha de q [0, 1] da mulher, o homem quer en-


contrar os valores de p [0, 1] que maximizam o valor de sua utili-
dade uHomem = 5 (3 q 1) p + 5 (1 q). Se q [0, 1/3), entao 3 q
1 < 0 e, para maximizar a sua utilidade, o homem dever a esco-
lher p = 0. Se q = 1/3, ent ao 3 q 1 = 0 e, portanto, a utilidade
uHomem = 5 (1 q) do homem n ao dependera de p. Neste caso, o
homem poder a escolher qualquer valor de p em [0, 1]. Se q (1/3, 1],
entao 3 q 1 > 0 e, para maximizar a sua utilidade, o homem dever a
escolher p = 1. Mostramos ent ao que

{0}, se q [0, 1/3),
MRHomem (q) = [0, 1], se q = 1/3,

{1}, se q (1/3, 1].

Esta funcao de melhor resposta pode ser representada gracamente,


como mostra a Figura 7.4.

Agora, pela Proposicao 7.2, segue-se que um perl de estrategias


mistas (p , 1 p ; q , 1 q ) e um equilbrio de Nash se, e somente se,
q MRMulher (p ) e p MRHomem (q ). Desta maneira, os valores
de p e q que geram equilbrios de Nash correspondem aos pontos
de intersecao entre as representacoes gr acas das funcoes de melhor

i i

i i
aal
i i
2017/2/2
page 226
i i

226 [CAP. 7: TEORIA DOS JOGOS

(Homem) p

(Futebol) 1

(Cinema)
0 1/3 1 q (Mulher)

(Cinema) (Futebol)

Figura 7.4: Representacao gr


aca da funcao de melhor resposta do
homem no jogo da batalha dos sexos.

resposta da mulher e do homem, quando representadas em um mesmo


sistema de eixos, como ilustra a Figura 7.5.
Vemos, portanto, que a batalha dos sexos possui apenas 3 equilbrios
de Nash em estrategias mistas:

(0, 1; 0, 1), (2/3, 1/3; 1/3, 2/3) e (1, 0; 1, 0),

que correspondem, respectivamente, aos tres u nicos pontos de inter-


ao (p , q ) = (0, 0), (p , q ) = (2/3, 1/3) e (p , q ) = (1, 1) das
sec
duas representacoes gr acas.

Como vimos no jogo de comparar moedas no Exemplo 7.6, existem


jogos que nao possuem equilbrios de Nash em estrategias puras e, ate
agora, todos os jogos apresentados em nossos exemplos possuem pelo
menos um equilbrio de Nash em estrategias mistas. Uma pergunta
natural e se a existencia de equilbrios de Nash em estrategias mistas
e um resultado geral ou nao. A resposta e sim! No proximo captulo
apresentaremos e demonstraremos o teorema de equilbrio de Nash,
que garante a existencia de equilbrios em estrategias mistas para
jogos nitos.
Valem as seguintes relacoes entre domin ancia e equilbrio de Nash
em estrategias mistas: (1) o processo de dominancia estrita iterada

i i

i i
aal
i i
2017/2/2
page 227
i i

[SEC. 7.5: O TEOREMA DE EQUILIBRIO DE NASH 227

(Mulher) q

(Futebol) 1

1/3

(Cinema)
0 2/3 1 p (Homem)

(Cinema) (Futebol)

Figura 7.5: Calculando os equilbrios de Nash usando as representa-


coes gr
acas das duas funcoes de melhor resposta.

em estrategias mistas nao pode eliminar um equilbrio de Nash e (2) se


o processo de dominancia estrita iterada em estrategias mistas deixa
apenas um u nico perl de estrategias, entao este perl e um equilbrio
de Nash do jogo. Nao apresentaremos as demonstracoes destes re-
sultados aqui. O leitor interessado poder a encontra-las nas referen-
cias [04, 12].

7.5 O Teorema de Equilbrio de Nash


O teorema de equilbrio de Nash estabelece que todo jogo nito
possui pelo menos um equilbrio de Nash em estrategias mistas. Este
resultado foi provado por John Forbes Nash Jr. em sua tese de dou-
torado em 1949 na Universidade de Princeton.

Teorema 7.1 (do equilbrio de Nash) Todo jogo denido


por matrizes de payos possui um equilbrio de Nash.

N ao daremos uma demonstracao deste teorema aqui. O leitor inte-


ressado pode consultar a referencia [03], que apresenta duas demons-
trac
oes obtidas atraves de dois teoremas de ponto xo: o de Brouwer

i i

i i
aal
i i
2017/2/2
page 228
i i

228 [CAP. 7: TEORIA DOS JOGOS

e o de Kakutani. Contudo, na pr oxima secao, daremos uma demons-


tracao do Teorema de Equilbrio de Nash para uma classe especial
de jogos, os jogos de soma zero. Nestes jogos, a soma dos payos dos
dois jogadores e sempre zero: o que um jogador ganha, o outro perde.
Veremos tambem que, para este tipo de jogo, os equilbrios de Nash
em estrategias mistas podem ser facilmente calculados resolvendo-se
um problema de programacao linear.

7.6 Jogos de Soma Zero


Jogos de soma constante com dois jogadores

Deni cao 7.12 (Jogos de soma constante com dois jo-


gadores) Um jogo de soma constante com dois jogadores e um
jogo com dois jogadores, comumente denominados jogador linha
e jogador coluna, com estrategias Sjogador linha = {1, 2, . . . , m} e
Sjogador coluna = {1, 2, . . . , n} e matriz de payos

jogador coluna
1 2 n
1 (a11 , b11 ) (a12 , b12 ) (a1n , b1n )
jogador linha

2 (a21 , b21 ) (a22 , b22 ) (a2n , b2n )


.. .. .. .. ..
. . . . .

m (am1 , bm1 ) (am2 , bm2 ) (amn , bmn )

satisfazendo aij + bij = c = constante, para todo i = 1, . . . , m


e j = 1, . . . , n. No caso particular em que a constante c e zero,
dizemos que o jogo tem soma zero.

Em termos de estrategias mistas, se p = (p1 , . . . , pm ) m e uma


distribuicao de probabilidades para as estrategias puras do jogador

i i

i i
aal
i i
2017/2/2
page 229
i i

[SEC. 7.6: JOGOS DE SOMA ZERO 229

linha e q = (q1 , . . . , qn ) n e uma distribuicao de probabilidades


para as estrategias puras do jogador coluna, ent ao o payo esperado
para o jogador linha e
m 
 n
ul (p, q) = pi qj aij
i=1 j=1
a11 a12 a1n q1
& '
a21 a22 a2n
q2

= p1 p2 pm .. .. .. .. .. ,
. . . . .
am1 am2 amn qn

isto e,

a11 a12 a1n
a21 a22 a2n

ul (p, q) = pT Aq, com A = .. .. .. .. .
. . . .
am1 am2 amn

Analogamente, o payo esperado para o jogador coluna e dado por



b11 b12 b1n
b21 b22 b2n

uc (p, q) = pT Bq, com B = .. .. .. .. .
. . . .
bm1 bm2 bmn

Uma vez que o jogo tem soma constante, vemos que



a11 a12 a1n b11 b12 b1n
a21 a22 a2n b21 b22 b2n

A+B = .. .. .. .. + .. .. .. ..
. . . . . . . .
am1 am2 amn bm1 bm2 bmn

c c c
c c c

= .. .. .. .. ,
. . . .
c c c

i i

i i
aal
i i
2017/2/2
page 230
i i

230 [CAP. 7: TEORIA DOS JOGOS

isto e,

c c c 1 1 1
c c c 1 1 1

A+B = C = .. .. .. .. = c .. .. .. .. = c 1 ,
. . . . . . . .
c c c 1 1 1

onde 1 denota a matriz m n formada com 1 em todas as suas


entradas. Sendo assim, e facil de ver que
uc (p, q) = pT Bq = pT (c 1 A)q = cpT 1 q pT Aq = c ul (p, q)

onde, na u ltima igualdade, usamos que pT 1 q = 1, pois p e q sao


distribuicoes de probabilidades e, por isto,
m
 n

pi = 1 e qj = 1.
i=1 j=1

Em particular, vale a seguinte propriedade importante:


ul (p , q ) ul (p, q ) uc (p , q ) uc (p, q ). (7.2)

Equilbrio de Nash em estrat


egias puras

Deni ao 7.13 (Ponto de sela) Dizemos que um elemento


c
aij de uma matriz A e um ponto de sela da matriz A se ele for
simultaneamente um mnimo em sua linha e um maximo em sua
coluna, isto e, se

aij ail para todo l = 1, . . . , n e


aij akj para todo k = 1, . . . , m.

O termo ponto de sela vem do fato que se desenharmos o graco


dos payos do jogador linha, a vizinhanca do ponto de sela lembra o
formato de uma sela de cavalo (Figura 7.6).

i i

i i
aal
i i
2017/2/2
page 231
i i

[SEC. 7.6: JOGOS DE SOMA ZERO 231

payoff

has
Colunas Lin

Figura 7.6: Ponto de sela.

Teorema 7.2 O elemento aij e um ponto de sela da matriz A


se, e somente se, o par (i, j) e um equilbrio de Nash em es-
trategias puras para o jogo.

Demonstrac
ao:
() Seja aij um ponto de sela da matriz A. Como aij e maximo
em sua coluna, vale que

ul (i, j) = aij akj = ul (k, j)

para todo k = 1, . . . , m, isto e, o jogador linha nao pode aumentar o


seu payo se o jogador coluna mantiver a escolha da coluna j. Por
outro lado, como aij e mnimo em sua linha, vale que

uc (i, j) = bij = c aij c ail = bil = uc (i, l)

i i

i i
aal
i i
2017/2/2
page 232
i i

232 [CAP. 7: TEORIA DOS JOGOS

para todo l = 1, . . . , n, isto e, o jogador coluna nao pode aumentar


o seu payo se o jogador linha mantiver a escolha da linha i. Isto
mostra que o perl de estrategias puras (i, j) e um equilbrio de Nash
do jogo.
() Seja (i, j) e um equilbrio de Nash do jogo. A partir das
consideracoes acima, e facil de ver que aij e maximo em sua coluna
e mnimo em sua linha e que, portanto, aij e um ponto de sela da
matriz A.

Teorema 7.3 Se aij e ars sao dois pontos de sela da matriz A,


entao ais e arj tambem sao pontos de sela da matriz A e

aij = ars = ais = arj .

Demonstrac
ao: Considere a matriz

.. ..
. .
aij ais

.. .. ..
A= . . . .

arj ars

.. ..
. .

Como aij e ars sao pontos de sela, sabemos que eles s ao mnimos
em suas respectivas linhas e m
aximos em suas respectivas colunas.
Assim,
aij ais ars e aij arj ars ,

e, portanto,
aij = ais = arj = ars .

Observe que ais e mnimo em sua linha, pois aij = ais e mnimo
da mesma linha e que ais e maximo em sua coluna, pois ars = ais
e maximo da mesma coluna. Analogamente, arj e mnimo em sua
linha, pois ars = arj e mnimo da mesma linha e arj e maximo em

i i

i i
aal
i i
2017/2/2
page 233
i i

[SEC. 7.6: JOGOS DE SOMA ZERO 233

sua coluna, pois arj = aij e maximo da mesma coluna. Conclumos


entao que ais e arj tambem s
ao pontos de sela da matriz A.

O payo mnimo do jogador linha, se ele escolher a linha k, e dado


por
ak = min akl .
1ln

Analogamente, o payo mnimo do jogador coluna, se ele escolher a


coluna l, e dado por c al , onde

al = max akl .
1km

Dena
vl (A) = max ak = max min akl
1km 1km 1ln
e
vc (A) = min al = min max akl .
1ln 1ln 1km

Teorema 7.4 Para toda matriz A, tem-se vc (A) vl (A).

Demonstraca
o: Temos que para todo k = 1, . . . , m e j = 1, . . . , n,
akj min akl .
1ln
Assim,
max akj max min akl = vl (A),
1km 1km 1ln

para todo j = 1, . . . , n. Conseq


uentemente,

vc (A) = min max akj max min akl = vl (A).


1jn 1km 1km 1ln

O proximo teorema caracteriza a existencia de pontos de sela e,


portanto, a existencia de equilbrios de Nash em estrategias puras,
em termos das funcoes vl e vc .

Teorema 7.5 Uma matriz A tem um ponto de sela se, e so-


mente se, vl (A) = vc (A).

i i

i i
aal
i i
2017/2/2
page 234
i i

234 [CAP. 7: TEORIA DOS JOGOS

Demonstrac ao:
() Se aij e um ponto de sela da matriz A, entao vale que
aij = min1ln ail = ai . Como vl (A) = max1km ak , e claro que
vl (A) ai = aij . Por outro lado, aij = max1km akj = aj . Como
vc (A) = min1ln al , segue-se que vc (A) aj = aij . Combinando
estas duas desigualdades, conclumos que vc (A) aij vl (A). Mas,
pelo teorema anterior, vc (A) vl (A) e, sendo assim, vc (A) = vl (A).
() Como vl (A) = max1rm ar , existe uma linha i tal que
vl (A) = ai . Como, por sua vez, ai = min1sn ais , existe uma co-
luna l tal que ai = ail . Assim, vl (A) = ai = ail . Analogamente, como
vc (A) = min1sn as , existe uma coluna j tal que vc (A) = aj . Como,
por sua vez, aj = max1rm arj , existe uma linha k tal que aj = akj .
Assim, vc (A) = aj = akj . Uma vez que, por hipotese, vl (A) = vc (A),
temos que
ail = ai = vl (A) = vc (A) = aj = akj .

Armamos que aij e um ponto de sela da matriz A. Com efeito, aij


aj = ai ais , para todo s = 1, . . . , n, isto e, aij e o mnimo de sua
linha. Por outro lado, aij ai = aj arj , para todo r = 1, . . . , m,
isto e, aij e o maximo de sua coluna. Portanto, aij e um ponto de
sela da matriz A.

Corol ario 7.1 Um jogo de dois jogadores com soma constante


denido pela matriz de payos A do jogador linha tem um
equilbrio de Nash em estrategias puras se, e somente se,

vl (A) = vc (A).

Exemplo 7.11 Considere o jogo de soma zero cujos payos do jo-


gador linha sao dados pela matriz A abaixo.

i i

i i
aal
i i
2017/2/2
page 235
i i

[SEC. 7.6: JOGOS DE SOMA ZERO 235

mnimo das linhas



3 1 1 0 0
0 0
1 2 0
A =
1 0 2 1 0
3 1 2 2 1
m
aximo das colunas 3 1 2 2

Como vl (A) = m
aximo dos mnimos das linhas = 1 = vc (A) = mnimo
dos maximos das colunas, segue-se que o jogo possui um equilbrio
de Nash em estrategias puras. De fato, a42 e um ponto de sela da
matriz A.

Exemplo 7.12 Considere o jogo de soma zero cujos payos do jo-


gador linha sao dados pela matriz A abaixo.

mnimo das linhas



3 2 1 0 0
0 0
1 2 0
A =
1 0 2 1 0
3 1 2 2 1
m
aximo das colunas 3 2 2 2

Como vl (A) = m aximo dos mnimos das linhas = 1 < 2 = vc (A) =


mnimo dos maximos das colunas, segue-se que o jogo n
ao possui um
equilbrio de Nash em estrategias puras.

Equilbrio de Nash em estrat


egias mistas
Dena

vl (A) = max min pT Aq e vc (A) = min max pT Aq.


pm qn qn pm

i i

i i
aal
i i
2017/2/2
page 236
i i

236 [CAP. 7: TEORIA DOS JOGOS

Teorema 7.6 Para toda matriz A, tem-se vc (A) vl (A).

o: Temos que para todo p m ,


Demonstraca
pT Aq min pT Ay.
yn

Assim,
max pT Aq max min pT Ay = vl (A).
pm pm yn

Conseq
uentemente,
vc (A) = min max pT Aq max min pT Ay = vl (A).
qn pm pm yn

O pr
oximo teorema caracteriza a existencia de equilbrios de Nash
em estrategias mistas em termos das funcoes vl e vc .

Teorema 7.7 Um perl de estrategias mistas (p , q ) e um


equilbrio de Nash de um jogo de dois jogadores com soma cons-
tante denido pela matriz de payos A do jogador linha se, e
somente se,
vl (A) = vc (A) = pT Aq .

Demonstrac
ao:
() Se (p , q ) e um equilbrio de Nash, entao
pT Aq = ul (p , q ) ul (p, q ) = pT Aq ,
para todo p m . Em particular,
pT Aq = max pT Aq min max pT Ay = vc (A).
pm yn pm

Vale tambem que


pT Aq = c uc (p , q ) c uc (p , q) = pT Aq,
para todo q n . Em particular,
pT Aq = min pT Aq max min xT Aq = vl (A).
qn xm qn

i i

i i
aal
i i
2017/2/2
page 237
i i

[SEC. 7.6: JOGOS DE SOMA ZERO 237

Desta maneira, vl (A) vc (A). Como, pelo teorema anterior, vl (A)


vc (A), conclumos que vl (A) = vc (A).
() Como vl (A) = maxpm minqn pT Aq, existe p m tal
que
vl (A) = min pT Aq.
qn

Analogamente, como vc (A) = minqn maxpm pT Aq, existe q


m tal
vc (A) = max pT Aq .
pm

otese, vl (A) = vc (A), temos que


Uma vez que, por hip

min pT Aq = vl (A) = vc (A) = max pT Aq .


qn pm

Armamos que (p , q ) e um equilbrio de Nash do jogo. Com efeito,

ul (p , q ) = pT Aq min pT Aq =
qn

max pT Aq xT Aq = ul (x, q ),
pm

para todo x m . Por outro lado,

uc (p , q ) = c pT Aq c max pT Aq =
pm

c min pT Aq c pT Ay = uc (p , y),
qn

para todo y n . Desta maneira, (p , q ) e um equilbrio de Nash


do jogo.

O teorema minimax de von Neumann


O proximo teorema estabelece que, para jogos de dois jogadores
com soma zero, vl (A) = vc (A) sempre. Sendo assim, pelo teorema 7.7,
segue-se que, para esta classe de jogos, sempre existe pelo menos um
equilbrio de Nash em estrategias mistas.

i i

i i
aal
i i
2017/2/2
page 238
i i

238 [CAP. 7: TEORIA DOS JOGOS

Teorema 7.8 (minimax de von Neumann) Para todo jogo


de soma zero com dois jogadores, representado pela matriz
de payos A do jogador linha, sempre existe um perl de es-
trategias mistas (p , q ) m n satisfazendo

vl (A) = max min pT Aq


pm qn

=
pT Aq
=
min max pT Aq = vc (A).
qn pm

Em particular, (p , q ) e um equilbrio de Nash do jogo.

Daremos uma demonstracao deste teorema minimax de von Neu-


mann usando o teorema de dualidade da teoria de programacao linear.
Lembramos que um problema de programacao linear e um problema
de otimizacao com funcao objetivo e restricoes lineares:

(problema primal)
maximizar bT y
sujeito a Ay c,
y 0,

onde as desigualdades devem ser interpretadas componente a com-


ponente. A cada problema de programacao linear (problema primal)
podemos associar um outro problema de otimizacao (problema dual):

(problema dual)
minimizar cT x
sujeito a x A bT ,
T

x 0.

i i

i i
aal
i i
2017/2/2
page 239
i i

[SEC. 7.6: JOGOS DE SOMA ZERO 239

Teorema 7.9 (da dualidade em programac


ao linear)

(a) O problema primal possui uma solucao se, e somente se, o


problema dual possui uma solucao.
(b) Se y e solucao do problema primal e x e solucao do pro-
blema dual, ent ao cT x = bT y .

Uma demonstrac ao do teorema de dualidade pode ser encontrada


em [?, ?].
Demonstrac ao do teorema minimax: sem perda de generalidade,
podemos assumir que todas as entradas da matriz de payos A do jo-
gador linha sao positivas. Caso contr ario, basta substituir A por A =
A + D e B = A por B  = D + B, onde D = d 1 , com d >
max1im,1jn |aij |. Observe que A +B  = 0 (isto e, o jogo denido
 
pelas matrizes A e B tem soma zero) e que (p , q ) e um equilbrio
de Nash para o jogo denido pela matriz A se, e somente se, (p , q )
e um equilbrio de Nash para o jogo denido pela matriz A. 
T T
Sejam c = (1, 1, . . . , 1) e b = (1, 1, . . . , 1) . Considere os proble-
mas de programacao linear:
(problema primal) (problema dual)
T
maximizar b y minimizar cT x
sujeito a Ay c, sujeito a x A bT ,
T

y 0, x 0.
Passo 1: o problema dual possui uma solucao.
Como A > 0, o conjunto admissvel
X = {x Rm | xT A bT e x 0}
e nao vazio. Por outro lado, como c = (1, 1, . . . , 1)T , a funcao ob-
jetivo do problema e escrita como x = (x1 , x2 , . . . , xm )  cT x =
x1 + x2 + + xm . Assim, o problema dual consiste em encontrar o
ponto do conjunto X mais pr oximo da origem segundo a norma da
soma || ||1 , um problema que certamente possui uma solucao pois,
se p X, entao podemos compacticar o conjunto admissvel in-
cluindo a restricao ||x||1 ||p||1 e, com isso, podemos usar o teorema
de Weierstrass para garantir a existencia de um mnimo.

i i

i i
aal
i i
2017/2/2
page 240
i i

240 [CAP. 7: TEORIA DOS JOGOS

Passo 2: construcao do equilbrio de Nash.


Dado que o problema dual possui uma solucao, pelo teorema de
dualidade, o problema primal tambem possui. Mais ainda: se x e
solucao do problema dual e y e solucao do problema primal, entao

cT x = (x )T Ay = bT y .

Seja = cT x = bT y (que e > 0 pois (0, 0, . . . , 0) nao e admissvel)


e dena
x y
p = e q = .

Armamos que (p , q ) e um equilbrio de Nash do jogo. Com efeito:
claramente p m e q n , pois p 0 (ja que x 0 e > 0),
q 0 (ja que y 0 e > 0),
m
 m
 x i cT x
pi = = = =1
i=1 i=1

e
m
 n
 yj bT y
qj = = = = 1.
j=1 j=1

Agora, como xT A bT , temos que para todo q n , xT Aq


T n
b q = j=1 qj = 1. Mas p = x /. Desta maneira, pT Aq =
pT Aq , para todo q n . Conseq
uentemente,

uc (p , q ) = pT Aq pT Aq = uc (p , q)

para todo q n . Mostramos entao que o jogador coluna nao pode


aumentar o seu payo esperado trocando q por q, se o jogador linha
mantiver a escolha p . Analogamente, como
m Ay c, temos que
para todo p m , pT Ay pT c = i=1 pi = 1. Mas y =
q /. Desta maneira, p Aq = pT Aq , para todo p m .
Consequentemente,

ul (p , q ) = pT Aq pT Aq = ul (p, q ),

para todo p m . Mostramos entao que o jogador linha nao pode


aumentar o seu payo esperado trocando p por p, se o jogador co-

i i

i i
aal
i i
2017/2/2
page 241
i i

[SEC. 7.6: JOGOS DE SOMA ZERO 241

luna mantiver a escolha q . Conclumos, portanto, que (p , q ) e um


equilbrio de Nash do jogo.

Alem de estabelecer a existencia de equilbrios de Nash, a demons-


tracao que demos sugere uma maneira de calcul a-los: resolvendo-se
dois problemas de programacao linear.

Exemplo 7.13 Considere o seguinte jogo de soma zero:


C
c1 c2
l1 (85/100, 85/100) (70/100, 70/100)
L
l2 (60/100, 60/100) (90/100, 90/100)

Para encontrar um equilbrio de Nash, devemos resolver os seguintes


problemas de programacao linear
(problema primal)
maximizar  y1 + y2 
85/100 70/100 y1 1
sujeito a ,
60/100 90/100  y2  1
y1 0
,
y2 0
(problema dual)
minimizar  x1 + x2
& ' 85/100 70/100 & '
sujeito a x1 x2 1 1 ,
60/100 90/100
 
x1 0
,
x2 0

isto e,
(problema primal) (problema dual)
maximizar y1 + y2 minimizar x1 + x2
sujeito a 17y1 + 14y2 20, sujeito a 7x1 + 12x2 20,
6y1 + 9y2 10, 7x1 + 9x2 10,
y1 0, x1 0,
y2 0, x2 0.

i i

i i
aal
i i
2017/2/2
page 242
i i

242 [CAP. 7: TEORIA DOS JOGOS

ao do problema dual e x = (20/23, 10/23) (Figura 7.7) e a


A soluc
ao do problema primal e y = (40/69, 50/69), com
soluc

30
= x1 + x2 = y1 + y2 = .
23

x2

30/23

10/23

0 20/23 30/23 x1

Figura 7.7: Solucao do problema dual.

Desta maneira, o u nico equilbrio de Nash para o problema e dado


pelo ponto (p , q ), onde
 !  !
x 2 1 y 4 5
p = = , e q = = , .
3 3 9 9

7.7 Exerccios
[01] Use o processo de dominancia estrita iterada para reduzir o jogo
cuja matriz de payos e dada abaixo.

i i

i i
aal
i i
2017/2/2
page 243
i i

[SEC. 7.7: EXERCICIOS 243

y1

30/23

50/69

0 40/69 30/23 y1

Figura 7.8: Solucao do problema primal.

g2
s21 s22 s23 s24
s11 (3, 0) (1, 1) (5, 4) (0, 2)

g1 s12 (1, 1) (3, 2) (6, 0) (2, 1)

s13 (0, 2) (4, 4) (7, 2) (3, 0)

[02] Considere a matriz de payos para os jogadores L (linhas) e C


(colunas), a seguir:

C
c1 c2
l1 (3, 3) (0, 1)
L
l2 (1, 1) (2, 3)

Pede-se:

i i

i i
aal
i i
2017/2/2
page 244
i i

244 [CAP. 7: TEORIA DOS JOGOS

(a) Determinar se existe alguma estrategia estritamente domi-


nante para algum jogador.
(b) Determinar se existe algum equilbrio de Nash (em estrate-
gias puras). Caso exista mais do que um equilbrio, quantos
e quais sao.
[03] A partir da matriz de payos a seguir para os jogadores L (li-
nhas) e C colunas,

C
c1 c2
l1 (3, 2) (4, 4)
L
l2 (1, 1) (9, 2)

determine:
(a) Se algum jogador possui alguma estrategia dominante.
(b) Quantos equilbrios de Nash em estrategias puras existem.
[04] Considere um jogo com tres jogadores: A, B e C. As estrategias
do jogador A s ao {x1 , x2 , x3 }, as estrategias do jogador B sao
{y1 , y2 } e as estrategias do jogador C sao {z1 , z2 , z3 , z4 }. Se
o jogador B escolhe a estrategia y1 , os payos sao dados pela
matriz

C
z1 z2 z3 z4
x1 (5, 0, 2) (1, 0, 1) (3, 0, 6) (1, 2, 1)

A x2 (3, 2, 2) (9, 1, 8) (2, 0, 5) (2, 0, 2)

x3 (1, 0, 0) (1, 0, 9) (4, 0, 8) (3, 0, 3)

Por outro lado, se o jogador B escolhe a estrategia y2 , entao os


payos s
ao dados por

i i

i i
aal
i i
2017/2/2
page 245
i i

[SEC. 7.7: EXERCICIOS 245

C
z1 z2 z3 z4
x1 (0, 1, 1) (0, 1, 2) (2, 1, 3) (0, 3, 9)

A x2 (0, 3, 2) (1, 2, 3) (2, 1, 8) (2, 1, 0)

x3 (1, 1, 0) (2, 1, 1) (3, 2, 2) (3, 1, 3)

Use a tecnica de domin


ancia estrita iterada para reduzir a ma-
triz deste jogo.

[05] Repita o exerccio anterior com a matriz de payos

C
z1 z2 z3 z4
x1 (1, 2, 9) (2, 9, 9) (3, 7, 9) (2, 8, 9)

A x2 (3, 8, 3) (4, 5, 4) (4, 1, 3) (3, 9, 3)

x3 (2, 9, 9) (3, 9, 9) (3, 9, 9) (2, 9, 9)

caso o jogador B escolha a estrategia y1 e a matriz de payos

C
z1 z2 z3 z4
x1 (2, 1, 9) (3, 9, 9) (2, 9, 9) (1, 9, 9)

A x2 (4, 9, 1) (4, 2, 2) (3, 2, 1) (2, 2, 1)

x3 (1, 9, 9) (2, 9, 9) (2, 9, 9) (1, 9, 9)

caso ele escolha a estrategia y2 .

i i

i i
aal
i i
2017/2/2
page 246
i i

246 [CAP. 7: TEORIA DOS JOGOS

[06] Considere um jogo com tres jogadores: A, B e C. As estrategias


do jogador A sao {x1 , x2 , x3 }, as estrategias do jogador B sao
{y1 , y2 } e as estrategias do jogador C sao {z1 , z2 , z3 , z4 }. Se
o jogador B escolhe a estrategia y1 , os payos sao dados pela
matriz

C
z1 z2 z3 z4
x1 (1, 2, 1) (2, 3, 1) (1, 0, 2) (1, 4, 1)

A x2 (2, 0, 1) (1, 2, 1) (3, 1, 3) (3, 2, 1)

x3 (1, 0, 1) (1, 1, 1) (2, 5, 1) (1, 3, 1)

Por outro lado, se o jogador B escolhe a estrategia y2 , entao os


payos s
ao dados por

C
z1 z2 z3 z4
x1 (0, 0, 0) (1, 2, 3) (1, 3, 0) (1, 1, 1)

A x2 (2, 1, 0) (1, 5, 1) (2, 2, 3) (1, 5, 2)

x3 (2, 1, 1) (1, 0, 1) (1, 0, 4) (1, 5, 3)

Calcule os equilbrios de Nash em estrategias puras deste jogo.


[07] Calcule os pontos de sela da matriz

24 23 22 25
10 22 20 19
A= 27
.
25 22 23
20 28 16 15

[08] Como no Exemplo 7.13, escreva os problemas primal e dual do


jogo de comparar moedas (Exemplo 7.6, pagina 210). Resolva

i i

i i
aal
i i
2017/2/2
page 247
i i

[SEC. 7.7: EXERCICIOS 247

estes problemas de otimizacao para encontrar o equilbrio de


Nash em estrategias mistas do jogo.
[09] Mostre como encontrar pelo menos um equilbrio de Nash de
um jogo de soma zero 2 2 geral.
[10] Encontre pelo menos um equilbrio de Nash em estrategias mis-
tas do jogo de soma zero denido pela matriz

1 +5 +1 2
A= .
+1 3 2 +5

[11] Sejam p m e q n duas estrategias mistas de um jogo


de soma zero com dois jogadores. Mostre que se o mnimo dos
ganhos medios do jogador linha usando p e igual ao maximo
das perdas medias do jogador coluna usando q , isto e, se

min ul (p , el ) = max (uc (ek , q )),


1ln 1km

entao (p , q ) e um equilbrio de Nash do jogo. Aqui ek re-


presenta o k-esimo vetor da base can onica de Rm e el o l-
n
esimo vetor da base can onica de R . Use este resultado para
mostrar que as estrategias mistas p = (6/37, 20/37, 0, 11/37)
e q = (14/37, 4/37, 0, 19/37, 0) constituem um equilbrio de
Nash do jogo de soma zero denido pela matriz

5 8 3 1 6
4 2 6 3 5
A= 2 4 6 4 1 .

1 3 2 5 3

[12] Considere um jogo de soma zero denido por uma matriz A


inversvel que possui um equilbrio de Nash (p , q ) totalmente
misto (isto e, 0 < pi , qj < 1 para todo i, j {1, . . . , n}). Mostre
que
T A1 A1
p = T 1 e q = T 1 ,
A A
& 'T
onde = 1 1 .

i i

i i
aal
i i
2017/2/2
page 248
i i

Ap
endice A

Respostas de Exerccios
Selecionados

Captulo 1

[11] A sentenca e falsa: W = R2 , W1 = [(1, 0)] e W2 = [(0, 1)] e um


contraexemplo.
[14] () Suponha, por absurdo, que W1 W2 seja um subespaco
vetorial de V , mas W1  W2 e W2  W1 . Ent
ao existe w1 W1
tal que w1  W2 e existe w2 W2 tal que w2  W1 . Como
W1 W1 W2 e W2 W1 W2 , segue-se que w = w1 + w2
W1 W2 . Agora w  W1 pois, caso contr ario, w2 = w w1
seria um elemento de W1 . Do mesmo modo, w  W2 pois,
caso contr ario, w1 = w w2 seria um elemento de W2 . Assim,
w  W1 e w  W2 . Consequentemente, w  W1 W2 , uma
contradicao.
() Se W1 W2 ou W2 W1 entao W1 W2 = W2 ou
W1 W2 = W1 . Em qualquer um dos dois casos, W1 W2 e
subespaco vetorial de V .
[25] Seja B = {w1 , . . . , wr } uma base de W1 W2 . Usando o Te-
orema 1.1, use B para construir bases de W1 e W2 : B1 =

248

i i

i i
aal
i i
2017/2/2
page 249
i i

249

1 , . . . , v
{v1 , . . . , vr , v  s } e B2 = {v1 , . . . , vr , v
/1 , . . . , v
/t }. Se mos-
tramos que

1 , . . . , v
A = {v1 , . . . , vr , v s, v
/1 , . . . , v
/t }

e uma base para W1 W2 , teremos entao estabelecido o resul-


tado. O conjunto A gera W1 W2 pois, se w W1 W2 ,
entao w = w1 + w2 , com w1 W1 e w2 W2 . Como B1 gera
W1 e B2 gera W2 , temos que
r
 s
 r
 t

w1 = i vi + j
j v e w2 = i vi + /k v
/k .
i=1 j=1 i=1 k=1

Sendo assim,
r
 s
 t

w = w1 + w2 = (i + i )vi + j +
j v
/k v
/k [A].
i=1 j=1 k=1

j ,
Vamos agora mostrar que A e LI. Sejam i , /k K tais que
r
 s
 t

i vi + j +
j v /k = 0.
/k v

i=1 j=1 k=1

Logo,
r
 s
 t

i vi + j =
j v /k .
/k v

i=1 j=1 k=1
  
Mas ri=1 i vi + sj=1 j e um vetor de W1 e tk=1
j v /k
/k v
r s
e um vetor de W2 . Assim, i=1 i vi + j=1 j W1 W2 .
j v
Dado que B gera W1 W2 , temos que
r
 s
 r

i vi + j =
j v i v i ,
i=1 j=1 i=1

para escalares 1 , . . . , r K. Portanto,


r
 s

(i i )vi + j = 0.
j v

i=1 j=1

i i

i i
aal
i i
2017/2/2
page 250
i i

250 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Mas B1 e uma base para W1 . Assim, obrigatoriamente,

1 = =
s = 0.

Logo,
r
 s
 t
 r
 t

i vi + j +
j v /k = 0
/k v i vi + /k = 0.
/k v

i=1 j=1 k=1 i=1 k=1

Mas B2 e uma base para W2 . Assim, obrigatoriamente,

1 = = r =
/1 = =
/t = 0.

Captulo 2
[08] O item (h) e verdadeiro. Demonstracao: sem perda de gene-
ralidade, podemos supor que o conjunto {T(u1 ), . . . , T(uk )} e
LI e, portanto, uma base de U . Assim, dimK (U ) = k e, pelo
item (d) (que e verdadeiro), {u1 , . . . , uk } tambem e LI. Como,
#{u1 , . . . , uk } = k, segue-se que {u1 , . . . , uk } tambem e uma
base de U . Em particular, [u1 , . . . , uk ] = U .
O item ( i ) e falso. Como contra-exemplo, considere U = V =
R2 , u1 = (1, 0), u2 = (0, 1) e T(x, y) = (0, 0).
[11] O item (c) e falso. Como contra-exemplo, considere n = 2,
S(x, y) = (x, 0) e T(x, y) = (0, y). Temos que dimR (Im(S)) =
dimR (Im(T)) = 1, mas dimR (Im(S T)) = dimR (Im(T S)) =
0 = 1 = dimR (Im(S)).
[12] O item (a) e falso. Contra-exemplo: U = R , T(x1 , x2 , . . .) =
(0, x1 , x2 , x3 , . . .) e S(x1 , x2 , . . .) = (x2 , x3 , x4 , . . .).
[13] (a) V.
(b) F. Contra-exemplo: U = R2 , V = R2 , W = {(0, 0)},
T(x, y) = (x, 0) e S(x, y) = (0, 0).
(c) F. Contra-exemplo: U = [(1, 0)], V = R2 , W = R2 , T(x, 0) =
(x, 0) e S(x, y) = (x, 0).

i i

i i
aal
i i
2017/2/2
page 251
i i

251

(d) V.
Observacao: para a segunda parte, a hip otese de que U =
V = W tenha dimensao nita e importante. De fato: consi-
dere U = V = W = R , T(x1 , x2 , . . .) = (0, x1 , x2 , x3 , . . .) e
S(x1 , x2 , . . .) = (x2 , x3 , x4 , . . .). Note que S T = IdR e sobre-
jetiva, mas T n ao e sobrejetiva. Do mesmo modo, S T = IdR
e injetiva, mas S nao e injetiva.
[18] Um vetor v em C(AB) e da forma ABx para algum vetor x.
Como v = ABx = A(Bx), conclumos que v C(A). Assim
C(AB) C(A). Logo,

rank(AB) = dimK (C(AB)) dimK (C(A)) = rank(A).

Usando agora este fato, temos que

rank(AB) = rank(BT AT ) rank(BT ) = rank(B).

Consequentemente, rank(AB) min{rank(A), rank(B)}.


[19] Em sala de aula vimos que podemos escrever A = BC, onde
B e m r e C = r n. Desde que as colunas de B sao
LI, rank(B) = r. Desde que C tem r linhas, rank(C) r.
Contudo, pelo exerccio anterior, r = rank(A) = rank(BC)
min{rank(B), rank(C)} rank(C). Logo, rank(C) = r.
[20] Sejam A = XY e B = UV as rank factorizations de A e B.
Entao

& ' Y
A + B = XY + UV = X U .
V

Ent
ao, pelo Exerccio [18],
& '
rank(A + B) rank X U .

Sejam x1 , . . . , xp e u1 , . . . , uq bases de C(X) e&C(U), respecti-


'
vamente. Qualquer vetor no espaco coluna de X U pode
ser expresso como uma combinacao linear destes p + q vetores.
Entao
& '
rank X U rank(X) + rank(U) = rank(A) + rank(B).

i i

i i
aal
i i
2017/2/2
page 252
i i

252 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Captulo 3


 1 0
1 0 0  =
[02] (a) Tome A = ao B = 0 1 e B
. Ent
0 1 0
2 3

1 0
0 1 s
ao duas inversas a` direita de A.
2 3
(b) Suponha que exista uma matriz B tal que AB = I, todas
de tamanho n n. Isto signica que as colunas da matriz
identidade se escrevem como combinacao linear das colunas
da matriz A, sendo os coecientes dados pelas entradas da
matriz B:

ek = b1k a1 + b2k a2 + + bnk an ,

para 1 k n. Como as n colunas de I geram Rn , con-


clumos que as n colunas de A tambem geram Rn . Em par-
ticular, as colunas de A formam uma base para Rn . Desta
maneira, os coecientes bjk sao unicamente determinados.
(c) Seja C = BA I + B. Ent
ao

AC = ABA AI + AB = IA A + I = I.

Assim, C (como B) e uma inversa a` direita de A. Pelo


ao C = BA I + B implica
item anterior, B = C. Ent
em BA = I.

[08] A sentenca e falsa. Como contra-exemplo, considere A = 0,


L = I e U = 0.

[09] Note que A = LU UT LT = AT , com UT uma matriz trian-


gular inferior. Assim, as colunas lTk de LT (para 1 k n) po-
dem ser calculadas usando-se substituicoes retroativas: UT lTk =
aTk (para 1 k n).

i i

i i
aal
i i
2017/2/2
page 253
i i

253

[13] Note que



Bk Bk1 C + + B1 C + C
Ak =
0 I

Bk (Bk1 + + B1 + I)C
= .
0 I

Agora, como (Bk1 + + B1 + I)(B I) = Bk I e, por


hipotese, B I e inversvel, vemos ent
ao que
Bk1 + + B1 + I = (Bk I)(B I)1 .
Desta maneira,

k Bk (Bk I)(B I1 )C
A = .
0 I

[14] Para que a matriz A  seja inversvel, e necessario e suciente


que sua u ltima coluna nao seja combinacao linear das demais
colunas. Como A e inversvel, existe um u nico x Rn tal que
u = Ax. De fato, x = A1 u. Assim, para que a u ltima co-
luna de A n ao seja combinacao linear das demais, e necessario
e suciente que a combinacao dos elementos de vT com coe-
cientes dados pelas entradas de x = A1 u sejam diferentes do
numero 0, isto e,
vT x = vT A1 u = 0.
Suponha agora que A  seja inversvel (vT A1 u = 0). Vamos
calcular uma f
ormula para a inversa de A. Escrevendo
  
A u B c I 0
=
vT 0 dT e 0T 0
conclumos que
AB + udT = I, Ac + eu = 0, vT B = 0T , vT c = 1.
Da segunda equacao, segue-se que c = eA1 u. Substituindo
ltima equacao, obtemos que vT (eA1 u) = 1.
este valor na u
Logo
1 1
e = T 1 e c = T 1 A1 u.
v A u v A u

i i

i i
aal
i i
2017/2/2
page 254
i i

254 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Da primeira equacao temos que B = A1 A1 udT . Substi-


tuindo este valor na terceira equacao, obtemos que vT A1
vT (A1 udT ) = vT A1 (vT A1 u)dT = 0T . Logo,
1 1
dT = vT A1 e B = A1 T 1 A1 uvT A1 .
vT A1 u v A u
Portanto,
 1
A u
vT 0
=

1 1 1 T 1 1 1
A vT A1 u A uv A vT A1 u
A u
1 1 .
vT A1 T 1
v A1 u
T v A u

[16] Suponha, por absurdo, que A nao seja inversvel. Entao A


ao e injetiva, logo Ker(A) = 0, isto e, existe v =
n  0 tal que
A(v) = 0. Ent ao, vT Av = vT 0 = 0. Mas isto contradiz a
hipotese de A ser positiva denida.

Captulo 4
[04] Basta usar a desigualdade de Schwarz com os vetores

u = ( a1 , a2 , a3 ) e v = (1/ a1 , 1/ a2 , 1/ a3 ).

[13] Se {v1 , . . . , vk } e uma base ortonormal de W e {vk+1 , . . . , vn } e


uma base ortonormal de W , entao {v1 , . . . , vk , vk+1 , . . . , vn }
e uma base ortonormal de Rn = W W . Nesta base, P e Q
se escrevem da seguinte maneira

Ikk 0k(nk)
P=
0(nk)k 0(nk)(nk)
e 
0kk 0k(nk)
Q= .
0(nk)k I(nk)(nk)

i i

i i
aal
i i
2017/2/2
page 255
i i

255

ao, P + Q = Inn , PQ = 0nn e


Ent

Ikk 0k(nk)
PQ=
0(nk)k I(nk)(nk)

opria inversa, pois (P Q)(P Q) = I.


que e igual a sua pr

[14] Note que P e simetrica, pois PT = (PT P)T = PT (PT )T =


PT P = P. Agora, usando que PT = P, temos que

P2 = PT PPT P = PT PT PT P = PT PT P = PT P = P.

[16] PR = B(BT B)1 BT , onde B = AT . Sendo assim, PR =


AT (AAT )1 A.

[18] Os itens (a), (b) e (c) podem ser resumidos no seguinte c


odigo
MATLAB:

r = [1 2 3 4]; A = compan(poly(r)); n = 40;


for i=1:n [Q, R] = qr(A); A = RQ; end; A

[21] (a) Seja BU = {u1 , . . . , un } uma base ortonormal de U . Dena


n

=
u T(ui ), vV ui .
i=1

 U coin-
Os funcionais lineares u  T(u), vV e u  u, u
cidem em uma base de U . Logo, eles coincidem sempre.
1 e u
Para a unicidade, considere dois vetores u  2 tais que

 1 U = u, u
T(u), vV = u, u  2 U

1 u
para todo u U . Em particular, u, u  2 U = 0, para
todo u U . Escolhendo u = u 1 u 2 , conclumos que
1 u
u  2 = 0, isto e, u
1 = u
2.

[22] Seja U o espaco vetorial das funcoes pares. Como o produto de


uma funcao par por uma funcao mpar e uma funcao mpar e
integrais de funcoes mpares no intervalo [1, 1] e zero, certa-
mente U W . Seja agora f W . Podemos escrever f , de

i i

i i
aal
i i
2017/2/2
page 256
i i

256 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

maneira u
nica, como soma de uma funcao par com uma funcao
mpar: f = fP + fI . Agora, para todo g W ,
 1
f, g = 0 f (x) g(x) dx = 0
1
 1
(fP (x) + fI (x)) g(x) dx = 0
1
 1  1
fP (x) g(x) dx + fI (x) g(x) dx = 0
1 1
 1
fI (x) g(x) dx = 0.
1

Como esta u ltima igualdade e valida para qualquer funcao g


mpar, podemos escolher g = fI . Assim,
 1
fI (x) fI dx = 0 fI , fi  = 0 fI = 0.
1

Logo, f = fP + fI = fP U . Isto mostra que W U e,


consequentemente, U = W .

[23] Se g1 (x) = 1/ 2 , g2 (x) = cos(x)/ e g3 (x) = sen(x)/ ,
entao {g1 , g2 , g3 } e uma base ortonormal para W . Assim, se
g argmingW ||f g||2 , entao


g(x) = f, g1  g1 (x) + f, g2  g2 (x) + f, g3  g3 (x)
= 1 2 sen(x).

[24] Se w W , entao w, u = 0 para todo u W . Logo, que


w (W ) e, sendo assim, conclumos que W e subespaco
vetorial de (W ) . Por outro lado,

dimK (V ) = dimK (W ) + dimK (W )


= dimK (W ) + dimK ((W ) ),

isto e, dimK (W ) = dimK ((W ) ). Logo, W = (W ) .

i i

i i
aal
i i
2017/2/2
page 257
i i

257

n
[25] Seja v B . Como B e uma base de V , v = i=1 i vi . Assim:
5 n 6 n
 
||v||2 = v, v = i vi , v = i vi , v = 0.
" #$ %
i=1 i=1
=0

Desta maneira, v = 0.

[26] Dizer que o sistema Ax = b possui pelo menos uma solucao


e equivalente a dizer que b C(A). Dizer que AT y = 0
bT y = 0 e equivalente a dizer que b (Ker(AT )) . Mas, pelo

Teorema Fundamental da Algebra Linear, C(A) = (Ker(AT )) ,
o que estabelece o resultado.

[27] Como dimR (R(A)) = dimR (C(A)), basta mostrar que T e so-
brejetiva. Seja y C(A). Existe x Rn tal que Ax = y.

Pelo Teorema Fundamental da Algebra Linear, Rn = Ker(A)
R(A). Assim, existem u nicos xK Ker(A) e xR R(A)
tais que x = xK + xR . Como Ax = AxR , conclumos que
T(xR ) = AxR = y.

[30] (a) A sentenca e falsa. Considere o espaco vetorial R3 munido


com o produto interno can onico. Sejam U = [(1, 0, 0)] e
V = [(0, 0, 1)]. Note que U e ortogonal a V , mas U =
[(0, 1, 0), (0, 0, 1)] nao e ortogonal a V = [(1, 0, 0), (0, 1, 0)].
(b) A sentenca e falsa. Considere o espaco vetorial R3 munido
com o produto interno can onico, Sejam U = [(1, 0, 0)], V =
[(0, 0, 0)] e W = U . Note que U e ortogonal a V , V e
ortogonal a W , mas U nao e ortogonal a W .

Captulo 5
[01] Observe que

p(x) = det(QT AQ xI) = det(QT AQ xQT Q)


= det(QT ) det(A xI) det(Q)) = (det(Q))2 det(A xI)
= det(A xI).

i i

i i
aal
i i
2017/2/2
page 258
i i

258 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

ou seja, A e QT AQ possuem o mesmo polinomio caracterstico.


Logo, A e QT AQ possuem os mesmos autovalores.

[03] Se A = UVT , onde e mn, entao AT = VT UT , com T


uma matriz n m. Observe que se

Drr 0r(nr)
= ,
0(mr)r 0(mr)(nr)

entao 
Drr 0r(mr)
T = .
0(nr)r 0(nr)(mr)
Isto mostra que A e AT possuem os mesmos valores singulares.
Observacao: se A e uma matriz 2n, entao AAT e apenas 22
e seus autovalores sao mais faceis de se calcular manualmente
do que os autovalores de AT A.

[07] Seja UVT uma SVD para A. Ent ao AT = VT UT . Por-


tanto, A A = V( )V . Note que V(T )VT e uma SVD
T T T

para AT A. Como os elementos nao nulos da diagonal principal


de (T ) sao os quadrados dos valores singulares n
ao nulos
de A, conclumos que AT A possui o mesmo posto de A.

[08] Considere

1 0 0 1 0 0
U() = 0 + cos() sen() , = 0 0 0 e
0 + sen() + cos() 0 0 0

1 0 0
V = 0 1 0 .
0 0 1

Como = U()VT , para todo R, vemos que possui


innitas SVD diferentes.

[12] Note que, para todo 1 i m e 1 j p,


n
 n

(ABT )ij = (A)ik (BT )kj = (ak bTk )ij .
k=1 k=1

i i

i i
aal
i i
2017/2/2
page 259
i i

259

Portanto,
n

ABT = ak bTk .
k=1
T
[14] Seja A = UV a SVD de A. Ent
ao:
(AT A)1 AT = (VT UT UT VT )1 VUT
= (VD2 VT )1 VT UT
= V(D2 )+ VT VT UT
= V+ UT = A+ .

[15] Nem sempre (AB)+ = B+ A+ . Considere, por exemplo,



& ' 0 & '
A= 1 1 0 e B = 1 de modo que AB = 1 .
1
Ent
ao

1/2 & ' & '
A+ = 1/2 , B+ = 0 1/2 1/2 e (AB)+ = 1 .
0
Mas & '
B+ A + = 1/4 .
+ 1
[16] A = A .
[17] Q+ = QT .
[18] Seja A = UVT uma SVD da matriz A. Sabemos que A+ =
V+ UT . Assim:
AXA = UVT V+ UT UVT = U+ VT
= UVT = A,
XAX = V+ UT UVT V+ UT = V+ + UT
= V+ UT = A+ = X,
(AX)T = (UVT V+ UT )T = U(+ )T UT
= U(+ )UT = UVT V+ UT = AX,
(XA)T = (V+ UT UVT )T = V(+ )T VT
= V(+ )VT = V+ UT UVT = XA.

i i

i i
aal
i i
2017/2/2
page 260
i i

260 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Captulo 7
[01] O processo de dominancia estrita iterada reduz o jogo para uma
matriz 11 com um u nico perl de estrategias puras: (s13 , s22 ).

[02] (a) Nao existem estrategias dominantes neste jogo.


(b) (l1 , c1 ) e (l2 , c2 ) sao os u
nicos equilbrios de Nash em es-
trategias puras do jogo.

[03] (a) c2 domina estritamente c1 .


(b) (l2 , c2 ) e o u
nico equilbrio de Nash em estrategias puras do
jogo.

[04] O processo de dominancia estrita iterada reduz o jogo para


uma matriz 1 1 1 com um u
nico perl de estrategias puras:
(x3 , y2 , z4 ).

[05] O processo de dominancia estrita iterada reduz o jogo para


uma matriz 1 1 1 com um u
nico perl de estrategias puras:
(x2 , y1 , z2 ).

[06] O perl de estrategias (x2 , y2 , z3 ) e o u


nico equilbrio de Nash
em estrategias puras do jogo.

[07] A matriz A tem dois pontos de sela: a13 e a33 .

[08] No jogo de comparar moedas,



+1 1
A=
1 +1

Como A tem entradas negativas, vamos substitu-la por


 
A = +1 1 + 2 1 = +3 +1 .
1 +1 +1 +3

Assim:

(problema primal)

i i

i i
aal
i i
2017/2/2
page 261
i i

261

maximizar y1 + y2
sujeito a 3 y1 + y2 1,
y1 + 3 y2 1,
y1 0,
y2 0,

(problema dual)

minimizar x1 + x2
sujeito a 3 x1 + x2 1,
x1 + 3 x2 1,
x1 0,
x2 0.

A solucao do problema dual e (x1 , x2 ) = (1/4, 1/4) e a solucao


do problema primal e (y1 , y2 ) = (1/4, 1/4). Se
1
= x1 + x2 = y1 + y2 = ,
2
segue-se que o u nico equilbrio de Nash do jogo de comparar
moedas e dado por (p , q ), onde
 !  !
(x1 , x2 ) 1 1 (y1 , y2 ) 1 1
p = = , e q = = , .
2 2 2 2

[09] Considere o seguinte jogo matricial geral de ordem 2 2:



a b
A= .
d c

Se existe um ponto de sela, basta usarmos os resultados da Sub-


secao 7.6 para encontrar um equilbrio de Nash do jogo. Supo-
nha ent ao que a matriz A nao possua pontos de sela. Desta
maneira, o jogo possui apenas equilbrios de Nash

(p , 1 p ; q , 1 q )

totalmente mistos, isto e, com 0 < p , q < 1. Se a b, entao


b < c, caso contr
ario b seria um ponto de sela. Desde que b < c,

i i

i i
aal
i i
2017/2/2
page 262
i i

262 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

devemos ter c > d pois, caso contr ario, c seria um ponto de


sela. Prosseguindo desta maneira, vemos que d < a e a > b.
Em outras palavras, se a b, entao a > b, b < c, c > d e d < a.
Por simetria, se a b, entao a < b, b > c, c < d e d > a.
Com isto mostramos que se nao existem pontos de sela, ent ao
ou a > b, b < c, c > d e d < a, ou a < b, b < c, c < d e d > a.
Usando as Equacoes ??, obtemos que
a p + d (1 p ) = b p + c (1 p )
Resolvendo para p , encontraremos que
cd
p =
(a b) + (c d)
Como nao existem pontos de sela, (a b) e (c d) sao ambos
positivos ou ambos negativos, e consequentemente, 0 < p < 1.
O ganho medio do jogador linha usando esta estrategia e
ac bd
v = a p + d (1 p ) = .
(a b) + (c d)
Analogamente, usando as Equacoes ??, obtemos a seguinte ex-
press
ao:
cb
q =
(a b) + (c d)
com 0 < q < 1. A perda media do jogador coluna usando esta
estrategia e
ac bd
v = a q + d(1 q ) = .
(a b) + (c d)
[10] Como A n
ao possui pontos de sela, o jogo possui apenas equilbrios
de Nash
(p , 1 p ; q , 1 q )
totalmente mistos, isto e, com 0 < p , q < 1. Se v e o valor
do jogo, entao usando as desigualdades ?? com q = ek R4
para k = 1, 2, 3, 4, vemos que

 v
& ' 1 +5 +1 2 v
p 1 p
v ,
+1 3 2 +5
v

i i

i i
aal
i i
2017/2/2
page 263
i i

263

v*

5 Coluna 2

3
v*

*{
=

8p
{7

=
p*

v*
+
v* = 5
2 Coluna 3
1 {2p p*
{
*+ =3
1 v*

0 1 p*
{1 Coluna 1

{2 Coluna 4

{3

Figura A.1: Envelope inferior.

isto e,

v 2 p + 1,

v 8 p 3,
(A.1)
v
3 p 2,

v 7 p + 5.
oes ans v = 2 p + 1, v = 8 p 3, v = 3 p 2
As func
e v = 3 p 2 representam os ganhos medios do jogador linha

quando ele escolhe a distribuicao de probabilidades (p , 1p) e


o jogador coluna escolhe as colunas 1, 2, 3 e 4, respectivamente.
Os gracos destas funcoes para 0 p 1 estao desenhados na
Figura A.1.
Para um valor xo de p , o jogador linha est
a seguro de que seu
ganho medio e pelo menos o mnimo destas quatro funcoes cal-
culadas em p , o envelope inferior destas quatro funcoes. Como
o jogador linha pretende maximizar os seus ganhos medios,

i i

i i
aal
i i
2017/2/2
page 264
i i

264 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

entao ele precisa encontrar p que atinge o maximo deste en-


velope inferior. De acordo com a Figura A.1, o m aximo ocorre
justamente na intersecao das retas v = 2 p +1 e v = 3 p 2,
as quais representam, respectivamente, as colunas 1 e 3 do jo-
gador coluna. Deste modo, uma solucao do jogo 2 4 original
pode ser obtida estudando-se o jogo 2 2 denido pela matriz

1 +1
R= .
+1 2

O valor deste jogo e v = 1/5 para p = 3/5 e q = 3/5.


Assim, um equilbrio de Nash do jogo original e dado por
 !
3 2 3 2
(p , 1 p ; q , 0, 1 q , 0) = , ; , 0, , 0 .
5 5 5 5

Naturalmente, a tecnica aqui descrita pode ser aplicada para


qualquer jogo de soma zero com matriz A de tamanho 2 n.

[11] Lembre-se que ul (p, q) = pT Aq e ul (p, q) = pT Aq. Sejam


ek e el tais que

min ul (p , el ) = ul (p , el )
1ln

e
max (uc (ek , q )) = uc (ek , q ),
1km

isto e, pT Ael pT Ael para todo l e eTk Aq eTk Aq para


todo k. Desta maneira,

eTk Aq eTk Aq = (pT Ael ) = pT Ael pT Ael ,

para todo k = 1, . . . , m e l = 1, . . . , n. Por linearidade, segue-se


que
pT Aq pT Aq,
para todo p m e q n . Em particular, pT Aq pT Aq
e pT Aq pT Aq, isto e, ul (p, q ) ul (p , q ) e uc (p , q)
uc (p , q ) para todo p m e q n . Isto mostra que (p , q )
e um equilbrio de Nash do jogo.

i i

i i
aal
i i
2017/2/2
page 265
i i

265

Para a matriz A de tamanho 4 5 do enunciado, temos que


121 121 160
ul (p , e1 ) = , ul (p , e2 ) = , ul (p , e3 ) = ,
37 37 37
121 169
ul (p , e4 ) = e ul (p , e5 ) = ,
37 37
e
121 121 120
uc (e1 , q ) = , uc (e2 , q ) = , uc (e3 , q ) = e
37 37 37
121
uc (e4 , q ) = ,
37
de modo que

min ul (p , el ) = 121/37 = max (uc (ek , q )) = 121/37.


1ln 1km

Pelo resultado acima, isto mostra que (p , q ) e um equilbrio


de Nash do jogo.
[12] Se (p , q ) e um equilbrio de Nash totalmente misto, ent
ao,
pelas relacoes ??,
n

aij qj = v , i {1, . . . , n}.
j=1

Estas equac
oes podem ser escritas usando-se matrizes da se-
guinte maneira: Aq = v . Como, por hipotese, A e uma
matriz inversvel, segue-se que q = v A1 . Agora,
n
 1
qj = 1 1 = T q = v T A v = .
j=1
T A1
Sendo assim,
A1
q =
.
T A1
Do mesmo modo, pelas relacoes ??,
n

pi aij = v , j {1, . . . , n}.
i=1

i i

i i
aal
i i
2017/2/2
page 266
i i

266 [CAP. A: RESPOSTAS DE EXERCICIOS SELECIONADOS

Estas equac
oes podem ser escritas usando-se matrizes da se-
guinte maneira: pT Aq = v . Como, por hipotese, A e uma
matriz inversvel, segue-se que p = v A1 e, assim,

A1
p = .
T A1

i i

i i
aal
i i
2017/2/2
page 267
i i

Referencias
Bibliogr
aficas

[01] Bapat, R. B. Linear Algebra and Linear Models. Second Edi-


tion. Springer-Verlag, 2000.

[02] Bortolossi, H. J. C
alculo Diferencial a V
arias Vari
aveis: Uma
Introduc
ao `
a Teoria de Otimizac
ao. Editora PUC-Rio, Edicoes
Loyola, 2002.

[03] Bortolossi, H. J.; Sartini, B.; Garbugio, G. Uma Introduc


ao `
a
Teoria Economica dos Jogos. IMPA, 2007.

[04] Y. C. Chen, N. Y. Long e X. Luo, Iterated Strict Dominance


in General Games. CIRANO Working Papers, 2007s-03, 2007.

[05] Demmel, J. Applied Numerical Linear Algebra. SIAM, 1996.

[06] Dennis Jr.; Schnabel, R. B. Numerical Methods for Unconstrai-


ned Optimization and Nonlinear Equations, Classics in Applied
Mathematics, 16, SIAM, 1996.

[07] Golub, G. H.; Van Load, C. F. Matrix Computations. Third


Edition. The Johns Hopkins University Press, 1996.

[08] Gonzaga, C. C. Algoritmos de Pontos Interiores Para Pro-


gramaca
o Linear. IMPA, 1989.

[09] Luenberger, D. G.; Ye, Y. Linear and Nonlinear Programming.


Third Edition. Springer-Verlag, 2008.

267

i i

i i
aal
i i
2017/2/2
page 268
i i

268
REFERENCIAS
BIBLIOGRAFICAS

[10] Nocedal, J.; Wright, S. J. Numerical Optimization, Springer Se-


ries in Operations Research, Springer Verlag, New York, 1999.
[11] Okunev, P.; Johnson, C. Necessary and Sucient Conditions
for Existence of the LU Factorization of an Arbitrary Matrix.
arXiv:math.NA/0506382, 1997.
[12] M. Dufwenberg e M. Stegeman, Existence and Uniqueness of
Maximal Reductions Under Iterated Strict Dominance. Econo-
metrica, vol. 70, n. 5, pp. 20072023, 2002.
[13] Strang, G. Linear Algebra and Its Applications, Fourth Edition.
Thomson Brooks/Cole, 2006.
[14] Sotomayor, J. Licoes de Equac
oes Diferenciais Ordin
arias.
Projeto Euclides, IMPA, 1979.

i i

i i
aal
i i
2017/2/2
page 269
i i

Indice

Adjunta de uma transformacao QR, 111, 114


linear, 132, 139 Derivada, 28
Algoritmo QR, 138 Desigualdade
Alternativa de Fredholm, 141 de Cauchy-Schwarz, 103
Autovalor, 143 triangular, 104
Autovetor, 143 Dimensao, 16
Dominancia
Base, 14 em estrategias mistas, 217
canonica, 14 em estrategias puras, 203
Blocos, multiplicacao por, 64 estrita iterada, 204, 218
fraca iterada, 207
Cholesky, decomposicao de, 86
Cisalhamento, 40, 45 Elemento pivo, 75
Combinacao linear, 10 Equacao diferencial, 19, 95
Condic
oes de Moore-Penrose, Equacoes normais, 118
168 Equilbrio
Conjunto de estrategia estritamente
admissvel de um PL, 169 dominante, 204, 219
convexo, 177 de estrategia fracamente do-
de geradores, 10 minante, 207
ortogonal, 105, 130 de Nash, 209
Coordenadas, 19, 35 em estrategias mistas, 220
Espaco vetorial, 4
Decomposic
ao nitamente gerado, 14
de Cholesky, 86 Espaco de estrategias
em valores singulares, 154 mistas, 214
espectral, 146 puras, 200
LDU, 85 Estrategia
LU, 57, 69 mista, 213

269

i i

i i
aal
i i
2017/2/2
page 270
i i

270 INDICE

pura, 199 o dilema do prisioneiro, 200

Forma
LDU, decomposicao, 85
normal, 200
Linearmente
padrao de um PL, 169
dependente, 13
Fredholm, alternativa, 141
independente, 13
Func
ao
LU, decomposicao, 57
de melhor reposta, 211
objetivo de um PL, 169
utilidade, 200 Metodo de Newton, 82
esperada, 215 Matriz
companheira, 139
Ganho, 199 de Householder, 124
Givens, rotacoes de, 128 de permutacao, 74
Gram-Schmidt, processo de or- de permutacao elementar,
tonormalizac ao, 107 73
de rotacao, 30
Hessiana, matriz, 87 de uma transformacao li-
Homotetia, 49 near, 36
Householder, transformacao de, estritamente diagonal do-
124, 136 minante, 80
hessiana, 87
Identidade de polarizacao, 113
jacobiana, 84
Imagem, 32
menor, 62
Integral, 28
menor principal de uma,
Intersecao de subespacos, 8
63
Isomorsmo, 34
menor principal lder de uma,
Jacobiana, matriz, 84 63
Jogo ortogonal, 112
a batalha dos sexos, 202 positiva denida, 86
comparar moedas, 210 positiva semidenida, 144
de soma zero, 228 triangular inferior, 52
2 2, 247 triangular superior, 52
2 n, 264 Matriz de payos, 201
matriz inversvel, 247 Melhor resposta, 211
estrategico, 200 Menor, 62
na forma normal, 200 principal, 63
n
ao-cooperativo, 200 principal lder, 63

i i

i i
aal
i i
2017/2/2
page 271
i i

INDICE 271

Moore-Penrose, condicoes de, Reex ao, 50


168 Regra
Multiplicacao por blocos, 64 de Cramer, 71
de Laplace, 71
N
ucleo, 32 Rotacao, 28, 30, 40, 49
Nash Rotacoes de Givens, 128
Equilbrio de
em estrategias mistas, 220 Singular value decomposition,
em estrategias puras, 209 154
Nash Jr., John Forbes, 227 Solucao
Norma, 103 basica de um PL, 172
degenerada, 172
Ortogonal, conjunto, 105 Solucao estrategica, 209
Ortogonalidade, 105 Soma
de subespacos, 9
Payo , 199 direta de subespacos, 9
Perl de estrategias Spline c ubico, 97
mistas, 214 Subespaco
puras, 200 gerado, 10
Piv
o, elemento, 75 vetorial, 7
Polarizacao, identidade de, 113 Subespacos fundamentais, 134
Polinomio caracterstico, 143 SVD, 154
Polinomio de Lagrange, 26
Ponto Teorema
extremo, 178 de Pitagoras, 136
Posto, 38 espectral, 145
segundo colunas, 39 forte de dualidade, 195
segundo linhas, 39 fraco da dualidade, 193
Problema
Fundamental da Algebra
dual, 191 Linear, 133
dual de um LP, 191 fundamental da programacao
primal de um LP, 191 linear, 173
Produto interno, 100 Transformacao
Projecao, 50, 109 adjunta, 139
ortogonal, 116 de Householder, 124, 136
Pseudoinversa, 164 linear, 27
Tucker, Albert W., 200
QR, algoritmo, 138
QR, decomposicao, 111, 114 Utilidade, 200

i i

i i
aal
i i
2017/2/2
page 272
i i

272 INDICE

esperada, 215

Valor singular, 152


Vari
avel
basica de um PL, 172
de folga de um PL, 170
Vetor singular
a direita, 154
`
a esquerda, 154
`

i i

i i