You are on page 1of 149

Metodos Matematicos

Prof. Pablo Siqueira Meirelles


Departamento de Mecanica Computacional
UNICAMP
Novembro 22, 2011
4
Conte udo
I Primeia parte 15
1 N umeros complexos 17
1.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Representa cao de n umeros complexos . . . . . . . . . . . . . . . . . . . . . 17
1.3 Operac oes com n umeros complexos . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Produto por um n umero real . . . . . . . . . . . . . . . . . . . . . . 19
1.3.3 Produto de dois n umeros complexos . . . . . . . . . . . . . . . . . 19
1.3.4 Potencia de expoente racional . . . . . . . . . . . . . . . . . . . . . 19
1.3.5 Inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.6 Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.7 Radicac ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.8 Logaritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.9 Formula de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Transcendentes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Series 23
2.1 Series numericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1 Teoremas de convergencia . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.2 Series de termos positivos reais . . . . . . . . . . . . . . . . . . . . 24
2.1.3 Criterios de convergencia de series de termos positivos . . . . . . . 25
2.1.4 Convergencia absoluta e convergencia condicional . . . . . . . . . . 26
2.1.5 Series de termos alternados . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Operac oes com series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Produto de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Sucessao de func oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Serie de func oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Series de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5.1 Soma, diferenca e produto de series de potencia . . . . . . . . . . . 29
2.5.2 Expansao em serie de potencias . . . . . . . . . . . . . . . . . . . . 30
5
3 Vetores 33
3.1 Sistema de coordenadas cartesiano . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Diferentes notac oes: . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Opera coes com vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Soma, subtracao . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 Multiplicac ao por um escalar . . . . . . . . . . . . . . . . . . . . . 35
3.2.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.4 Produto vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.5 Produto escalar triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.6 Produto vetorial triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.7 Produto interno entre vetores complexos . . . . . . . . . . . . . . . 37
3.3 Campos vetoriais e escalares . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.1 Denicao de campo vetorial . . . . . . . . . . . . . . . . . . . . . . 38
3.3.2 Denicao de campo escalar . . . . . . . . . . . . . . . . . . . . . . 38
3.3.3 Operador Nabla . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.4 Operador laplaciano . . . . . . . . . . . . . . . . . . . . . . . . 41
4 Nota cao indicial 43
4.1 Notacao classica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 Notacao indicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.1 Denicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.2 Convenc ao soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.3 Notacao de diferenciacao . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Delta de Kronecker
ij
. . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.5 Operador alternante ou alternador
ijk
. . . . . . . . . . . . . . . . 47
4.2.6 Aplicacoes do tensor
ijk
. . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.7 Relacao entre
ij
e
klm
. . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5 Vetores Euclidianos 51
5.1 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.1 Algumas denicoes para a norma . . . . . . . . . . . . . . . . . . . 53
5.2 Obtencao de uma base ortogonal . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.1 Metodo de ortogonaliza c ao de Gram-Schmidt . . . . . . . . . . . . 54
6 Produto escalar e projecoes em uma reta 59
6.1 Vetor projecao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2 Matriz projetora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.3 Teorema da projec ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6
7 Matrizes 67
7.1 Notac ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2 Denic oes e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.3 Norma de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.4 Determinante de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . 72
7.5 Calculo do determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.6 Auto-valores de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.7 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.8 Subespacos fundamentais de uma matriz . . . . . . . . . . . . . . . . . . 76
8 Autovalores e autovetores de uma matriz 77
8.1 Propriedades, teoremas, denic oes . . . . . . . . . . . . . . . . . . . . . . 79
8.2 N umero de condic ao espectral de uma matriz . . . . . . . . . . . . . . . . 82
8.3 Teorema do crculo de Gerschgorin . . . . . . . . . . . . . . . . . . . . . . 82
8.4 Transla cao de autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.5 Problema de autovalores e autovetores
generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.6 Calculo de autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . 85
8.6.1 Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.6.2 Metodo da potencia . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.7 Condicionamento do autosistema [A]{x} = {x} . . . . . . . . . . . . . . . 89
8.7.1 Condicionamento dos autovalores . . . . . . . . . . . . . . . . . . . 89
8.7.2 Condicionamento dos autovetores . . . . . . . . . . . . . . . . . . . 90
8.8 Forma quadr atica de uma matriz [A]
NN
. . . . . . . . . . . . . . . . . . 90
II Segunda parte 91
9 Metodos de resolucao de sistemas de equacoes lineares 93
9.1 Classicac ao de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.1.1 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.1.2 Sistemas super-determinados . . . . . . . . . . . . . . . . . . . . . 94
9.1.3 Sistemas sub-determinados . . . . . . . . . . . . . . . . . . . . . . 95
9.1.4 Sistemas homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.2 Sistemas triangulares (determinados) . . . . . . . . . . . . . . . . . . . . . 95
9.2.1 Denic ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.2.2 Sistema triangular inferior ([L]) . . . . . . . . . . . . . . . . . . . . 96
9.2.3 Sistema triangular superior ([U]) . . . . . . . . . . . . . . . . . . . 96
9.3 Armazenamento esparso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.3.1 Convers ao de ndice . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.4 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.4.1 Metodo de resolu cao baseado na decomposic ao QR: . . . . . . . . . 99
9.4.2 Metodos de resoluc ao baseados em decomposic ao triangular . . . . 101
7
9.4.3 Decomposi cao triangular de Cholesky . . . . . . . . . . . . . . . . 102
9.4.4 Decomposi cao triangular de Doolittle . . . . . . . . . . . . . . . . 102
9.5 Sistemas simetricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
9.5.1 Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
9.5.2 Decomposi cao de DOOLITTLE . . . . . . . . . . . . . . . . . . . . 104
9.5.3 Decomposi cao de CROUT: . . . . . . . . . . . . . . . . . . . . . . 105
9.5.4 Decomposi cao de GAUSS (LDU): . . . . . . . . . . . . . . . . . . 105
9.6 N umero de condi cao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.6.1 Estimativa de c[A] . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.6.2 Estimativa melhorada de K c[A]: . . . . . . . . . . . . . . . . . 107
9.7 Sistemas de equac oes lineares: escalonamento (balanceamento) . . . . . . 108
9.7.1 Escalonamento diagonal (por coluna) para [A]{x} = {b} . . . . . . 108
9.7.2 Escalonamento diagonal (por linha) para [A]{x} = {b} . . . . . . . 108
9.7.3 Escalonamento diagonal (linha e coluna) para [A]{x} = {b} . . . . 109
9.7.4 Metodos de obtenc ao de [D]
L
e [D]
C
(resumo) . . . . . . . . . . . . 110
10 Transforma coes similares 113
10.1 Transforma c ao unitaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10.2 Transforma c ao ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10.3 Forma diagonal de uma matriz [A] . . . . . . . . . . . . . . . . . . . . . . 115
10.4 Propriedades e teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
10.5 Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
10.6 Transforma c ao de Householder . . . . . . . . . . . . . . . . . . . . . . . . 119
10.7 Decomposic ao QR usando a transforma c ao de Householder . . . . . . . . 120
10.8 Aplicacoes da decomposi cao QR . . . . . . . . . . . . . . . . . . . . . . . . 123
10.8.1 Resolucao de sistemas super-determinados . . . . . . . . . . . . . . 123
10.9 Forma de Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11 Pseudo-inversa e decomposicao em valores singulares 129
11.1 Decomposi cao em valores singulares - SVD . . . . . . . . . . . . . . . . . . 130
11.1.1 Armazenamento computacional . . . . . . . . . . . . . . . . . . . . 132
11.2 Algumas aplicac oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.2.1 Calculo da pseudo-inversa . . . . . . . . . . . . . . . . . . . . . . . 132
11.2.2 Decomposic ao polar . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.2.3 Resoluc ao de sistemas de equa coes . . . . . . . . . . . . . . . . . . 134
11.2.4 Sistemas nao homogeneos . . . . . . . . . . . . . . . . . . . . . . . 136
11.2.5 Sistemas retangulares . . . . . . . . . . . . . . . . . . . . . . . . . 136
11.2.6 Algoritmo SVD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
12 Integradores lineares 139
12.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
12.2 Integradores lineares de um passo . . . . . . . . . . . . . . . . . . . . . . 139
12.2.1 Integradores explcitos (
1
= 0) . . . . . . . . . . . . . . . . . . . 139
8
12.2.2 Integradores implcitos (
1
= 0) . . . . . . . . . . . . . . . . . . . 141
12.3 Metodos de 2 passos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
12.4 Runge Kutta explcito de quarta ordem . . . . . . . . . . . . . . . . . . 141
12.4.1 Generalizacao para sistemas de equac oes diferenciais . . . . . . . 143
12.5 Famlia de integradores trapezoidais . . . . . . . . . . . . . . . . . . . . 143
12.5.1 Integradores tpicos . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.5.2 Algoritmos na forma { x} . . . . . . . . . . . . . . . . . . . . . . 144
12.5.3 Algoritmos na forma {x}
N+1
. . . . . . . . . . . . . . . . . . . . 145
12.6 Caractersticas relevantes de um integrador . . . . . . . . . . . . . . . . 146
12.6.1 Analise de estabilidade do algoritmo: . . . . . . . . . . . . . . . . 146
12.7 Analise dos integradores da famlia trapezoidal . . . . . . . . . . . . . . 147
12.8 Escolha do integrador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
9
10
Lista de Figuras
1.1 Representa cao graca. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1 Vetor no espaco cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Vetor denido por dois pontos. . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Produto vetorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 area do paralelogramo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.6 Superfcie (x, y, z) = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7 Curva de equac ao (x, y) = . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1 Domnio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.1 Base euclidiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.1 Projec ao ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2 Distancia de um ponto a um plano. . . . . . . . . . . . . . . . . . . . . . . 62
8.1 Crculo de Gerschgorin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
9.1 Matriz triangular cheia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.2 Matriz triangular em banda. . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.3 Matriz triangular sky-line. . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.4 Conversao de ndices de matriz para vetor. . . . . . . . . . . . . . . . . . . 98
10.1 Interpolac ao por mnimos quadrados. . . . . . . . . . . . . . . . . . . . . . 123
12.1 Integrador de Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
12.2 Metodo de integra c ao explcito de Runge-Kutta de ordem 4. . . . . . . . . 142
12.3 Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
12.4 Fator de amplicac ao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
11
12
Prefacio
A elaboracao e resolucao de modelos matematicos que representem os sistemas em
estudo constitui uma atividade essencial nas ciencias exatas, e mesmo em algumas nao
tao exatas, a exemplo da economia.
O matematico holandes Peter Eikof [7], autor de um dos mais conhecidos livros de
identica cao de sistemas, tem porem se preocupado em alertar para dois erros freq uentes
e que devem ser evitados pelos usuarios: jamais se apaixonar pelos modelos, pois eles
nunca serao melhores do que a realidade, e nunca tentar ir alem dos limites de validade
dos modelos. Somente a experiencia prossional e capaz de conferir a real coerencia e
dimensao a estas observac oes.
Em consonancia com estas observacoes, e nao apesar delas, e tarefa dos cien-
tistas elaborar modelos cada vez mais precisos, conaveis e gerais, e ao mesmo tempo
disponibilizar as ferramentas necessarias `a explora cao destes modelos.
A matematica, atraves da sua longa historia, tem se desenvolvido de maneira nao
uniforme no tempo, impulsionada pelas conjunturas e em congruencia com circunstancias
sociais, economicas, tecnologicas, cientcas e ate teologicas e losocas. No passado re-
cente o desenvolvimento da matematica aplicada tem se tornado um aliado imprescindvel
para o avan co acelerado da tecnologia. A exigencia crescente de precisao tem motivado
a elaborac ao de modelos sosticados para representar fenomenos mais complexos. A
verica cao (valida c ao) e correc ao (ajuste) dos modelos tem recebido um auxlio enorme
pela evolu c ao nos meios de observacao dos fenomenos fsicos, reetida principalmente na
evolu cao dos transdutores, possibilitada pela microeletronica, e nos meios de coleta e
processamento dos sinais.
Por outro lado, a manipulac ao de modelos maiores e mais sosticados, somado `a
exigencia de reducao nos tempos de processamento, requerem hardwares cada vez mais
poderosos e metodos numericos cada vez mais ecientes e robustos.
A procura da fronteira entre a sosticac ao dos procedimentos experimentais e o en-
riquecimento dos conhecimentos que a evolu c ao dos processamentos matematicos podem
extrair das informacoes obtidas da observac ao da realidade, pode ser sentida no seguinte
confronto de ideias: Lanczos [1] defende que, a evolucao das ferramentas matematicas
nao sera jamais capaz de compensar a falta de dados experimentais, ao que Jezequel [2]
contrap oe,

E necess ario desenvolver o processamento matematico tanto quanto possvel
para extrair o maximo proveito dos dados experimentais disponveis.
Finalmente, e impossvel nao mencionar a virada de pagina historica promovida
nas tres ultimas decadas do seculo XX pela evolu c ao e disseminac ao dos recursos computa-
13
cionais. Atualmente e difcil conceber qualquer atividade cientca aplicada ou tecnologica
sem o uso da informatica. Esta realidade conferiu enorme importancia aos metodos aprox-
imados de calculo numerico, e portanto o conhecimento destas ferramentas e parte impre-
scindvel na formac ao de qualquer cientista ou tecnologo da atualidade.
14
Parte I
Primeia parte
15
Captulo 1
N umeros complexos
1.1 Introducao
Uma forma simples de classicar as caractersticas dos n umeros com os quais trabalhamos
e dividi-los em n umeros racionais, irracionais e complexos. O conjunto dos dois primeiros
constitui o universo dos n umeros reais, que podem ser representados gracamente num
eixo (espaco R1). Os n umeros complexos sao uma generalizacao dos n umeros reais para
o plano (espa co R2).
No esquema a seguir e apresentada esta classicacao dos n umeros reais, assim como
algumas das suas caractersticas.
N umeros racionais
_
_
_
Ordenados
Densos
Representaveis por uma frac ao
N umeros irracionais Nao representaveis por uma frac ao
_

_
N umeros reais
Os n umeros reais constituem um conjunto ordenado, denso e contnuo, existindo por-
tanto uma correspondencia biunvoca destes n umeros com os pontos de um eixo orientado.
Os n umeros complexos sao formados por um par de n umeros reais, representaveis
em eixos mutuamente perpendiculares, constituindo portanto uma correspondencia com
todos os pontos do plano, chamado Plano Complexo.
Os eixos sao chamados eixo real e eixo imagin ario, abscissa e ordenada do sistema
ortogonal plano de coordenadas respectivamente.
1.2 Representa cao de n umeros complexos
Dene-se o n umero imaginario puro i =

1 i
2
= 1. Este e o versor orienta c ao do
eixo imaginario.
Observacao: Alguns autores preferem representar o n umero imaginario puro por j no
lugar de i.
17
Qualquer n umero complexo c pode ser representado de diferentes formas, tais como:
c = a + ib ; c = (cos + isen) = = ( + 2k) , c = e
i
, c = (a, b)
Para estas representa coes sao validas as
rela c oes:
=

a
2
+ b
2
(Modulo)
= arctg
_
b
a
_
(Fase ou argumento)
Figura 1.1: Representa cao graca.
Denic ao - Complexo conjugado: e chamado conjugado do n umero complexo c = a+ib
ao n umero c = a ib, para qualquer valor real de a e b.
1.3 Operac oes com n umeros complexos
1.3.1 Soma
(a + ib) + (c + id) = (a + c) + i(b + d)
Propriedades:
Existencia
Unicidade
Associativa
Comutativa
Existencia do neutro
Triangular: |Z
1
+ Z
2
| |Z
1
| +|Z
2
|
18
1.3.2 Produto por um n umero real
r.(a + ib) = ra + irb
Propriedades:
Existencia
Unicidade
Associativa
Distributiva
Existencia do neutro
1.3.3 Produto de dois n umeros complexos
Dene-se o produto de dois n umeros complexos da forma a seguir
1
:
(a + ib).(c + id) = ac + iad + ibc + i
2
bd = (ac bd) + i(ad + bc)
. = .( + )
Propriedades:
Existencia
Unicidade
Associativa
Distributiva
Existencia do neutro
1.3.4 Potencia de expoente racional
Z
0
= 1 Z = 0
Z
1
= Z Z
Z
n
= Z.Z.....Z
. .
n
()
n
=
n
n
1
Demonstrar a equivalencia entre as duas expressoes como exerccio
19
1.3.5 Inverso
Seja o complexo c = a + ib
Dene-se o inverso de c:
c
1
=
1
c
=
1
a + ib
=
a ib
a
2
+ b
2
=
c
|c|
2
Com esta denic ao se verica que c.
1
c
= (a + ib).
(aib)
a
2
+b
2
=
a
2
+b
2
a
2
+b
2
= 1
Pela denicao de potencia: ()
1
=
1

1.3.6 Quociente
Multiplica c ao pelo inverso.
1.3.7 Radicacao
n
_
=
n
_
( + 2k) = (( + 2k))
1/n
= ()
1/n

1
n
( + 2k)
=
n

n
+ k
2
n
_
No plano complexo, a raiz de ordem n tem sempre n soluc oes.
1.3.8 Logaritmo
Ln() = x + iy e
x+iy
=
e
x+iy
= e
x
.e
iy
= e
x
y =
x = Ln() e y = + 2k
Ln() = Ln() + i( + 2k)
1.3.9 Formula de Moivre
(cos + i sin )
m
= cos(m) + i sin(m) (m inteiro)
Demonstra c ao:
(cos + i sin )
m
= (e
i
)
m
= e
im
= cos(m) + i sin(m)
Observac ao: Para qualquer n umero complexo
e
i
= ()
m
=
m
(m) =
m
e
im
20
1.4 Transcendentes elementares
e
iz
= cos z + i sin z
e
iz
= cos z i sin z
=
_

_
cos z =
e
iz
+ e
iz
2
sin z =
e
iz
e
iz
2i
tan z =
1
i
e
iz
e
iz
e
iz
+ e
iz
Denicoes:
cosh z =
e
z
+ e
z
2
sinh z =
e
z
e
z
2
tanh z =
e
z
e
z
e
z
+ e
z
Exerccios:
1. Demonstrar que:
a. . = .( + )
b. cos z =
e
iz
+e
iz
2
c. sin z =
e
iz
e
iz
2i
d. tan z =
1
i
e
iz
e
iz
e
iz
+e
iz
e. cosh z = cos iz
f. sinh z = i sin iz
g. tanh z = i tan iz
2. Utilizando as func oes transcendentes achar expressoes simplicadas para:
a. sin(a b)
b. cos(a b)
c. tan(a b)
d. sin(a) sin(b)
e. cos(a) cos(b)
21
f. tan(a) tan(b)
g. sin
2
x + cos
2
x
h. cos
2
x sin
2
x
i. sinh
2
x + cosh
2
x
j. cosh
2
x sinh
2
x
k. sinh(x y)
l. cosh(x y)
22
Captulo 2
Series
2.1 Series numericas
Seja uma seq uencia de n umeros, reais ou complexos: a
1
; a
2
; a
3
; ; a
n
; Dene-se
a serie numerica S como sendo a seq uencia de n umeros S
1
; S
2
; S
3
; ; S
n
; , onde
cada termo e obtido pela regra seguinte:
S
1
= a
1
; S
2
= a
1
+ a
2
; S
3
= a
1
+ a
2
+ a
3
; ; S
n
= a
1
+ a
2
+ a
3
+ + a
n
;
O termo S
n
e chamado reduzida de ordem n, ou soma parcial de ordem n, da serie.
Portanto pode se denir uma serie numerica como sendo uma sucessao de reduzidas.
Denicao - Uma serie e dita convergente se a sucessao das reduzidas tem limite nito.
Denicao - A serie e dita convergente, divergente ou oscilante, se S = lim
n
S
n
existe
nito, existe ou nao existe, respectivamente.
Exemplo - Serie geometrica: S
n+1
= 1 +q + q
2
+ q
3
+ .... + q
n
(q complexo)
Observacao: S
n
=
q
n
1
q1
1
1
Demonstracao por inducao nita:
- Para n = 1 = S
1
=
q
1
1
q1
= 1
Observa cao - tambem poderamos comecar demonstrando para n = 2: S
2
=
q
2
1
q1
=
(q+1)(q1)
q1
= q + 1
- Admitimos para n = N qualquer: S
N
= 1 + q + .... + q
N1
=
q
N
1
q1
- Finalmente demonstramos que se vale para N, tambem vale para N + 1:
S
N+1
= 1 + q + .... + q
N1
+ q
N
= S
N
+ q
N
=
q
N
1
q1
+ q
N
=
q
N
1+q
N+1
q
N
q1
=
q
N+1
1
q1
Portanto a igualdade esta demonstrada.
23
Para o exemplo anterior;
S
n
=
q
n
1
q 1
_

_
|q| < 1 |q
n
| 0 S
n

1
1q
(Converge)
|q| > 1 |q
n
| S
n
(Diverge)
|q| = 1
_

_
q = 1 S
n
= n lim
n
S
n
= (Diverge)
q = 1 S
n
= 1 1 + 1 . . .

_
S
n=2N
= 0
S
n=2N+1
= 1
(Oscila)
q = 1 q = cos + i sin ( = n)
q
n
= cos n + i sin n (Oscila)
Denic ao: r = S S
n
e o resduo de ordem n da serie convergente de limite S.
2.1.1 Teoremas de convergencia
1. Adicionar ou tirar um n umero nito de termos nao altera o carater convergente ou
nao da serie. ( Pode alterar o valor de S, se a serie for convergente)
2. Uma serie convergente multiplicada termo a termo por um escalar c continua con-
vergente. O limite passa a ser c.S.
3. A serie resultante da soma/diferenca termo a termo de duas series convergentes e
convergente. O limite da nova serie sera S = S
1
S
2
.
4. Uma condic ao necessaria (nao suciente) para a convergencia da serie e lim
n
a
n
= 0
5. Condicao de convergencia de Cauchy: Uma serie e convergente dado > 0
arbitr ario, existe N |a
n+1
+ ........ + a
n+p
| < n > N, p natural qualquer 1.
Esta condicao e equivalente a dizer que S
n
e convergente |S
n+p
S
n
| < n > N,
p natural qualquer.
2.1.2 Series de termos positivos reais
Observac oes:
1. Series de termos complexos podem ser reduzidas a pares de series de termos reais.
2. Series de termos negativos podem ser interpretadas como o oposto de uma serie de
termos positivos.
Propriedade: Series de termos reais positivos sao convergentes ou divergentes, nunca
oscilantes.
Princpio de Weierstrass:
S
n
< K n S
n
S (Convergente)
S
n
nao acotada S
n
Divergente
24
2.1.3 Criterios de convergencia de series de termos positivos
1. Compara c ao
(a) Se

n=1
a
n
converge de soma A
b
n
a
n
n
Entao

n=1
b
n
converge de soma B <= A , pois

n=1
b
n

n=1
a
n
A
(b) Se

n=1
a
n
diverge
b
n
a
n
n
Entao

n=1
b
n
diverge. (Se b
n
convergisse, a
n
convergeria pelo teorema anterior).
(c) Se 0 < h <
a
n
b
n
< k, entao

n=1
a
n
e

n=1
b
n
sao da mesma classe.
Demonstra cao:
a
n
< k.b
n
Se b
n
converge, a
n
tambem converge por 1.a.
h.b
n
< a
n
Se b
n
diverge, a
n
tambem diverge por 1.b.
(d) Generalizac ao: Se lim
n
a
n
b
n
= l > 0 nito, ent ao

n=1
a
n
e

n=1
b
n
sao da mesma
classe.
Exemplos de series que podem ser utilizadas como referencias para classicar outras
series por compara c ao:
(a)

n=1
(
n
n+1
)
n
2
e Convergente
(b)

n=1
n
2
n
e Convergente
(c)

n=1
1
n!
e Convergente de soma e
(d)

n=1
1
2
n
e Convergente de soma 2
2. Criterio de DAlembert
Se
a
n+1
a
n
_

_
< 1 n > N

n=1
a
n
converge
1 n > N

n=1
a
n
diverge
25
Ou:
lim
n
a
n+1
a
n
=
_
_
_
< 1 Converge
> 1 Diverge
= 1 Nao se sabe
3. Criterio de Cauchy:
Se
n

a
n
_

_
< 1 n > N

n=1
a
n
converge
1 para innitos valores de n

n=1
a
n
diverge
Ou:
lim
n
n

a
n
=
_
_
_
< 1 Converge
> 1 Diverge
= 1 Nao se sabe
4. Criterio de Rabe
n(1
a
n
a
n1
)
_

_
> 1 n > N

n=1
a
n
converge
1 n > N

n=1
a
n
diverge
Ou:
lim
n
n(1
a
n
a
n1
) =
_
_
_
> 1 Converge
< 1 Diverge
= 1 Nao se sabe
5. Criterio da integral de Cauchy
Dene-se f(n) = a
n
Se f(x)
_
monotona decrescente
_

c
f(x)dx convergente
_

n=1
a
n
convergente
Observac ao: c e arbitrario tal que f(x) denida e contnua em c < x <
2.1.4 Convergencia absoluta e convergencia condicional
Seja uma serie S
(1)
n
= a
1
+ a
2
+ + a
n
, com termos a
i
positivos ou negativos.
Dene-se a serie S
(2)
n
= |a
1
| +|a
2
| + ..... +|a
n
|
Se S
(2)
n
converge S
(1)
n
converge, e e dita absolutamente convergente.
Se S
(2)
n
diverge
_
_
_
S
(1)
n
diverge
ou
S
(1)
n
condicionalmente convergente
26
2.1.5 Series de termos alternados
Denic ao: S
n
=

n=1
(1)
n1
a
n
, a
n
todos com o mesmo sinal.
Teorema de Leibnitz: Uma serie de termos alternados e convergente se:
1. a sucessao a
n
e monotona decrescente
2. lim
n
a
n
= 0
Exemplos de series de sinais alternados convergentes:
1.

n=1
(1)
(n1)
(
1
n
) e convergente de soma Ln(2)
2.

n=1
(1)
(n1)
(
1
n!
) e convergente de soma
1
e
3.

n=1
(1)
(n+1)
(
1
2
n
) e convergente de soma
2
3
Regra do limitante do resduo - Considerando apenas os n primeiros termos de uma
serie convergente de termos alternados, o resduo R
n
= S S
n
tem o sinal do primeiro
termo desprezado e e em modulo, menor do que esse termo: |R
n
| = |S S
n
| < |a
n+1
|
2.2 Operac oes com series
2.2.1 Soma

n=1
(a
n
+ b
n
) =

n=1
a
n
+

n=1
b
n
= Converge para A + B
2.2.2 Produto de Cauchy
W
n
= A
n
B
n
=
n

i=1
i

j=1
a
j
b
i+1j
= somatoria de todos os termos acima da diagonal
secundaria de [a
n
b
n
]:
[a
n
b
n
] =
_

_
a
1
b
1
a
1
b
n

.
.
.
.
.
.
.
.
.
a
n
b
1
a
n
b
n

.
.
.
.
.
.
_

_
A
n
B
n
A
n1
B
n1
e igual a somatoria dos termos
da diagonal secundaria da matriz [a
n
b
n
].
Teorema de Mertens:
Se

n=1
a
n
converge absolutamente para a soma A e

n=1
b
n
converge absolutamente para
a soma B, ent ao

n=1
W
n
converge absolutamente para a soma A.B.
27
2.3 Sucessao de func oes
Seq uencia de func oes com domnio comum.
Denic ao - limite de uma sucessao de funcoes:
lim
n
f
n
(x) = f(x) se dado > 0 arbitr ario, existe N(, x)|f
n
(x) f(x)| < n >
N(, x) ; x [a, b]
Denic ao - Convergencia uniforme: e dito que f
n
(x) converge uniformemente para
f(x) quando N e func ao apenas de , e nao de x:
|f
n
(x) f(x)| < n > N, x [a, b]
Notac ao: f
n
(x)
[a,b]
f(x)
2.4 Serie de func oes
Sao chamadas series de func oes (ou funcionais) aquelas que tem as suas reduzidas denidas
por sucessoes de func oes: S
N
(x) =
N

i=1
f
i
(x). As func oes f
n
(x) devem ter domnios de
denic ao comuns.
Denic ao:

n=1
f
n
(x) e convergente de soma S(x) se lim
n
S
n
(x) = S(x) em [a, b].
Denic ao:

n=1
f
n
(x) e uniformemente convergente de soma S(x) se S
n
(x)
[a,b]
S(x).
Condic ao de convergencia de Cauchy: A condic ao necessaria e suciente para que
uma serie S
n
(x) seja uniformemente convergente em [a, b] e que, dado > 0, exista N
independente de x tal que |S
n+p
(x) S
n
(x)| <
_
n > N independente de x
p natural qualquer
Criterio de Weierstrass: A serie

i
f
i
(x) converge uniformemente num dado intervalo,
se existe uma serie numerica convergente

i
c
i
tal que, para todo x pertencente ao intervalo
considerado, e vericado que |f
n
(x)| c
n
.
A serie

i
c
i
e chamada maiorante da serie

i
f
i
(x).
Propriedades:
1. Se f
i
(x) contnua, e S
n
(x) uniformemente convergente num intervalo, ent ao S(x) e
contnua no intervalo.
2. A integral da soma de uma serie funcional,
_
S(x)dx, e igual a soma dos integrais
dos termos,

i
__
f
i
(x)dx
_
.
28
2.5 Series de potencias
Sao series da forma S
n
(x) =
n

i=1
a
i
(x a)
i
, com os termos a, a
i
constantes.
Propriedade: As series de potencia sao absolutamente convergentes para todo x tal
que |x a| < .
Denicao: e chamado raio de convergencia da serie de potencias.
Teorema de Abel: Se uma serie de potencias e convergente para um valor x
1
tal que x
1

a > 0, ent ao ela e uniformemente convergente no intervalo (a (x


1
a), a + (x
1
a)).
Calculo de :
1

= lim
n
|a
n+1
|
|a
n
|
(2.1)
1

= lim
n
n
_
|a
n
| (2.2)
Ja que, usando DAlembert:
lim
n

a
n+1
(x a)
n+1
a
n
(x a)
n

= lim
n
|a
n+1
|
|a
n
|
|x a| 1
Como a serie converge para |x a| , na fronteira temos
lim
n
|a
n+1
|
|a
n
|
= 1 lim
n
|a
n+1
|
|a
n
|
=
1

A expressao para o calculo do da equac ao 2.2 pode ser demonstrada de forma analoga
utilizando o criterio de Cauchy.
Observacoes:
1. Quando o limite nao existe, deve ser utilizado o limite superior, lim.
2. Na fronteira (x a = ), e necessario vericar a convergencia.
2.5.1 Soma, diferenca e produto de series de potencia
Duas series de potencias, com raios de convergencia
1
e
2
respectivamente, podem ser
somadas, subtradas ou multiplicadas a la Cauchy. A serie resultante tera raio de
convergencia min (
1
,
2
).
29
2.5.2 Expansao em serie de potencias
As func oes contnuas e innitamente derivaveis podem ser expandidas em series de potencias.
Qualquer reduzida da serie e uma aproxima c ao da sua funcao soma.
Uma forma muito utilizada para se obter a expansao em serie de potencias e a
serie de Taylor:
f(x) =

p=0
f
(p)
(a)
p!
(x a)
p
Pode ser observado que a aproxima c ao para f(x) e exata em x = a, para qualquer
ordem da reduzida.
A serie de McLaurin e um caso particular da serie de Taylor, quando a = 0.
f(x) =

p=0
f
(p)
(0)
p!
x
p
Observac oes:
Toda serie de potencia e a expansao em serie de Taylor ou McLaurin da sua func ao
soma.
A expansao em serie de Taylor ou McLaurin pode ser realizada para varias variaveis
simultaneamente, utilizando derivadas parciais.
Existem outras expansoes muito utilizadas, por exemplo as series trigonometricas
(serie de Fourier).
30
Exerccios:
1. Verique a convergencia das series numericas:
a. S
n
=

i=0
1
i!
b. S
n
=

i=0
(1)
i 1
i!
c. S
n
=

i=0
1
2
i
d. S
n
=

i=0
(1)
i 1
2
i
e. S
n
=

i=0
1
i
2k
f. S
n
=

i=0
(1)
i 1
i
2k
2. Demonstre a expressao da equac ao 2.2
3. Ache o raio de convergencia da serie S
n
=

i=0
x
i
i
. Analise a convergencia no intervalo
[, ].
4. Achar a expansao em serie de potencias e raio de convergencia para:
a. (1 + x)

1
2
b. e
x
31
32
Captulo 3
Vetores
Bibliograa sugerida para os captulos 3 e 4: [10] Wai-Fah Chen & Atef F. Saleeb Con-
stitutive Equation for Engineering Materials, Vol. 1: Elasticity and Modeling. Jhon
Wiley, 1982, Cap. 1.
3.1 Sistema de coordenadas cartesiano
(a) Vetor denido por 2 pontos. (b) Componentes cartesianas.
Figura 3.1: Vetor no espaco cartesiano
Base normal: destrogira
33
3.1.1 Diferentes notac oes:
(

i ,

j ,

k ) = (

e
1
,

e
2
,

e
3
)
||

e
i
|| = 1 (comprimento unitario)
(i = 1, 2, 3)

V
1
= v
1

i = v
1

e
1

V
2
= v
2

j = v
2

e
2

V
3
= v
3

k = v
3

e
3

V =

V
1
+

V
2
+

V
3

V = v
1

e
1
+ v
2

e
2
+ v
3

e
3


V = v
1

i + v
2

j + v
3

k
{v} =
_
_
_
v
1
v
2
v
3
_
_
_
= [v
1
, v
2
, v
3
]

V = {v} E
3
, v
i
E
1
(i = 1, 2, 3)
Figura 3.2: Vetor denido por dois pontos.
Sejam A e B dois pontos no plano (xy).
O vetor

V =

AB =

A, onde

A e

B sao os vetores denidos a partir dos pontos


A(a
1
, a
2
, a
3
) e B(b
1
, b
2
, b
3
) e a origem do sistema de coordenadas (xy). Esta armacao e
valida para espacos de qualquer ordem. Para espacos de ordem 3 ca:

B = b
1

e
1
+ b
2

e
2
+ b
3

e
3

A = a
1

e
1
+ a
2

e
2
+ a
3

e
3

V =

A = (b
1
a
1
)

e
1
+ (b
2
a
2
)

e
2
+ (b
3
a
3
)

e
3
3.2 Operac oes com vetores
Seja

A = [a
1
, a
2
, a
3
],

B = [b
1
, b
2
, b
3
],

C = [c
1
, c
2
, c
3
]
3.2.1 Soma, subtracao

C =

B, c
i
= a
i
b
i
i = (1, 2, 3)
34
3.2.2 Multiplica cao por um escalar

B =

A, b
i
= a
i
i = (1, 2, 3)
3.2.3 Produto escalar

B = ||

A||.||

B|| cos
Figura 3.3: Produto escalar
.
Utilizando as propriedades distributiva e associativa com relac ao ao produto por um
escalar:

B = (a
1

i + a
2

j + a
3

k ) (b
1

i + b
2

j + b
3

k )
= a
1
b
1
(

i ) + a
2
b
2
(

j ) + a
3
b
3
(

k )
+ a
1
b
2
(

j ) + a
1
b
3
(

k ) + a
2
b
1
(

i )
+ a
2
b
3
(

k ) + a
3
b
1
(

i ) + a
3
b
2
(

j )
Num sistema de coordenadas ortonormal:
_

i = ||

i ||.||

i || cos 0 = 1

j = ||

i ||.||

j || cos 90 = 0

k = ||

i ||.||

k || cos 90 = 0

k = ||

j ||.||

k || cos 90 = 0

j = ||

j ||.||

j || cos 0 = 1

k = ||

k ||.||

k || cos 0 = 1
(3.1)
Substitundo na equac ao anterior:

B = a
1
b
1
+ a
2
b
2
+ a
3
b
3
=
3

i=1
a
i
b
i
=

A
35
Portanto,
_
_
_

A
_
_
_ =

i=1
a
2
i
=
_

A
Produto escalar entre vetores complexos
Por denicao, o produto escalar entre vetores complexos e dado por:

W = ({v}

)
T
{w} =
N

i=1
v
i
w
i
{v}

- Conjugado do vetor {v}.


v - Conjugado do n umero v.
_
(v
R
jv
I
)
i
(w
R
+ jw
I
)
i
= (v
R
w
R
+ v
I
w
I
+ j(v
R
w
I
v
I
w
R
))
i
(w
R
jw
I
)
i
(v
R
+ jv
I
)
i
= (v
R
w
R
+ v
I
w
I
+ j(v
I
w
R
v
R
w
I
))
i
para vetores
complexos
_

V

W =

W =

V
3.2.4 Produto vetorial

C =

B
||

C|| = ||

A||.||

B|| sin

C ao plano denido por



A e

B

A,

B e

C formam um triedro direto
(destrogiro)
Propriedade:

A

B = (

A)
Figura 3.4: Produto vetorial.
Em coordenadas Cartesianas ortonormais:
Permutac ao cclica: Positiva -
3

1 2
(1 2 3), (2 3 1), (3 1 2)

j =

k , etc...
Negativa -
3

1 2
(1 3 2), (3 2 1), (2 1 3)

k =

j , etc...
36

C =

i

j

k
a
1
a
2
a
3
b
1
b
2
b
3

i (a
2
b
3
a
3
b
2
) +

j (a
3
b
1
a
1
b
3
) +

k (a
1
b
2
a
2
b
1
)
ou

C =

e
1

e
2

e
3
a
1
a
2
a
3
b
1
b
2
b
3

e
1
(a
2
b
3
a
3
b
2
) +

e
2
(a
3
b
1
a
1
b
3
) +

e
3
(a
1
b
2
a
2
b
1
)
||

C|| =area do paralelogramo denido por



A e

B.

C e perpendicular ao plano formado por



A e

B.
Figura 3.5: area do paralelogramo.
area = ||

A||.H H = ||

B|| sin = area = ||

A||.||

B|| sin =
_
_
_

B
_
_
_
3.2.5 Produto escalar triplo

A (

C) =

C (

B) =

B (

A)

a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3

c
1
c
2
c
3
a
1
a
2
a
3
b
1
b
2
b
3

b
1
b
2
b
3
c
1
c
2
c
3
a
1
a
2
a
3

= Volume do paraleleppedo
3.2.6 Produto vetorial triplo
Formula de expulsao:

A (

C) =

B(

C)

C(

B)
(

B)

C =

B(

C)

A(

C)
3.2.7 Produto interno entre vetores complexos
O produto interno entre dois vetores

V e

W complexos e um n umero complexo que
satisfaz:
1. Simetria: <

V ,

W > = <

W,

V >
37
2. <

V ,

V > > 0 para



V =

0 . Se <

V ,

V > = 0

V =

0 .
3. <

V +

W,

U >= <

U ,

V > + <

U ,

W >
<

U ,

V +

W >= <

V ,

U > + <

W,

U >
Exemplos:
1) Produto escalar entre vetores reais,

W = {v}
T
{w} =
N

i=1
v
i
w
i
= {w}
T
{v} =

V
2) Produto escalar entre vetores complexos denido anteriormente:

W = {v}
T
{w} =
N

i=1
v
i
w
i
=
N

i=1
w
i
v
i
= {w}
T
{v} =

V
3.3 Campos vetoriais e escalares
3.3.1 Denicao de campo vetorial
Fun coes denidas por grandezas vetoriais no E
n
.
Exemplos no E
3
:
_

_
Velocidade

V (x
1
, x
2
, x
3
)
For ca

F (x
1
, x
2
, x
3
)
Momento

M(x
1
, x
2
, x
3
) (pseudo-vetor)
3.3.2 Denicao de campo escalar
Fun coes denidas por grandezas escalares no E
n
.
Exemplos no E
3
:
_

_
Pressao P(x
1
, x
2
, x
3
)
Campo magnetico (x
1
, x
2
, x
3
)
Campo eletrico E(x
1
, x
2
, x
3
)
Campo gravitacional G(x
1
, x
2
, x
3
)
Observa cao: As for cas eletromagneticas e gravitacionais constituem campos vetoriais,
mas os campos eletromagneticos e gravitacionais sao escalares.
3.3.3 Operador Nabla
Aplica c oes do Operador (Nabla, de Hamilton ou DEL)
Formalmente se dene o operador =

x

i +

y

j +

z

k =

x
1

e
1
+

x
2

e
2
+

x
3

e
3
38
Gradiente de uma funcao escalar
O operador e aplicado a uma funcao escalar, resultando num vetor: Portanto transforma
campos escalares em campos vetoriais.
() =
()
x

i +
()
y

j +
()
z

k =
()
x
1

e
1
+
()
x
2

e
2
+
()
x
3

e
3
() Representa qualquer func ao escalar diferenciavel (x, y, z).
Seja (x, y, z) uma funcao escalar : R
3
R
1
GRAD (x, y, z) = (x, y, z) =

x

i +

y

j +

z

k
(x, y, z) = [

x
,

y
,

z
]
Propriedade: (x
1
, y
1
, z
1
) e um vetor normal `a superfcie da func ao (x, y, z) = ,
no ponto (x
1
, y
1
, z
1
), = constante.
Demonstra cao:
Figura 3.6: Superfcie (x, y, z) = .
Seja

r = x

i + y

j + z

k , o vetor posicao de um ponto P(x,y,z), pertencente `a


superfcie denida por (x, y, z) = .
d

r = dx

i + dy

j + dz

k e um vetor tangente `a superfcie no ponto P(x,y,z).


39
Figura 3.7: Curva de equacao (x, y) = .
d

r = lim
QP

S
d

r e um vetor tangente `a curva (x, y) =


d

r e um vetor tangente `a superfcie (x, y, z) = .


Mas (x, y, z)d

r =

x
dx+

y
dy+

z
dz = d = 0, pois (x, y, z) = = constante.
Logo e normal a d

r .
Divergente de um vetor
O operador e formalmente multiplicado escalarmente por um vetor, resultando em um
escalar. Portanto transforma campos vetoriais em campos escalares.

V (x, y, z) = v
1

i + v
2

j + v
3

k
DIV

V =

V =
v
1
x
+
v
2
y
+
v
3
z
(3.2)

V = (
()
x

i +
()
y

j +
()
z

k ) (v
1

i + v
2

j + v
3

k )
=
v
1
x
(

i ) +
v
2
y
(

j ) +
v
3
z
(

k ) +
v
2
x
(

j ) +
v
3
x
(

k )
+
v
1
y
(

i ) +
v
3
y
(

k ) +
v
1
z
(

i ) +
v
2
z
(

j )
Lembrando que os produtos escalares de

i ,

j , e

k por eles mesmos e igual `a unidade,


e que os produtos escalares entre dois deles e igual a zero (ver equacoes 3.1), chega-se na
equa c ao (3.2).
40
Rotacional de um campo vetorial
O operador e formalmente multiplicado vetorialmente por um vetor, resultando em um
vetor. Portanto transforma campos vetoriais em campos vetoriais.
ROT

V =

V =

i

j

k
()
x
1
()
x
2
()
x
3
v
1
v
2
v
3

i (
v
3
x
2

v
2
x
3
) +

j (
v
1
x
3

v
3
x
1
) +

k (
v
2
x
1

v
1
x
2
)

V =

e
1

e
2

e
3
()
x
1
()
x
2
()
x
3
v
1
v
2
v
3

e
1
(
v
3
x
2

v
2
x
3
) +

e
2
(
v
1
x
3

v
3
x
1
) +

e
3
(
v
2
x
1

v
1
x
2
)
3.3.4 Operador laplaciano
Denic ao:
() = () =
2
() =

2
()
x
2
+

2
()
y
2
+

2
()
z
2
Laplaciano de uma func ao escalar (x, y, z):
(x, y, z) =
2
(x, y, z) = =

2

x
2
+

2

y
2
+

2

z
2
Transforma campos escalares em campos escalares.
Exerccio: Demonstre as seguintes propriedades:
ROT GRAD = = 0
DIV ROT

V = (

V ) = 0
(.) = +
(

V ) = (

V ) +

V
41
42
Captulo 4
Nota cao indicial
Seja um sistema de coordenadas cartesiano denido por (x
1
, x
2
, x
3
) na base (

e
1
,

e
2
,

e
3
).
Figura 4.1: Domnio.
(x
1
, x
2
, x
3
) : R
3
R
1
e uma funcao escalar contnua em D.

A,

B,

C sao vetores:

A = a
1

e
1
+ a
2

e
2
+ a
3

e
3
ou [a
1
, a
2
, a
3
] ou
_
_
_
a
1
a
2
a
3
_
_
_

B = b
1

e
1
+ b
2

e
2
+ b
3

e
3
ou [b
1
, b
2
, b
3
] ou
_
_
_
b
1
b
2
b
3
_
_
_
43
4.1 Nota cao classica
(x
1
, x
2
, x
3
) =

x
1

e
1
+

x
2

e
2
+

x
3

e
3
=
3

i=1

x
i

e
i
ou
(x
1
, x
2
, x
3
) = (

x
1
,

x
2
,

x
3
) ou
_
_
_

x
1

x
2

x
3
_
_
_
() =
3

i=1
()
x
i

e
i
=
_

_
()
x
1
()
x
2
()
x
3
_

_
DIV

A =

A =
3

i=1
a
i
x
i
=
a
1
x
1
+
a
2
x
2
+
a
3
x
3
ROT

A =

A =

e
1

e
2

e
3
()
x
1
()
x
2
()
x
3
a
1
a
2
a
3

e
1
(
a
3
x
2

a
2
x
3
) +

e
2
(
a
1
x
3

a
3
x
1
) +

e
3
(
a
2
x
1

a
1
x
2
)

2
= =
3

i=1

x
i
x
i
=

2

x
2
1
+

2

x
2
2
+

2

x
2
3
4.2 Nota cao indicial
4.2.1 Denicao
Um vetor cartesiano

V e representado por suas componentes.

V = v
1

e
1
+ v
2

e
2
+ v
3

e
3
= [v
1
, v
2
, v
3
] v
i
Portanto:

V v
i
(Fica implcito que o ndice i varia de 1 a 3, i = 1, 2, 3)

v =(x
1
, x
2
, x
3
) =x
i
ou x
j.
Qualquer vari avel (

V ,

v , etc...) com um ndice v


i
ou v
j
sem repetic ao, denota um
vetor. i ou j e chamado ndice livre (free index).

A =a
i
,

B =b
i
,

C =c
i

C =

A +

B

c
i
= a
i
+ b
i
Fica implcito que i = 1, 2, 3.
e equivalente a (c
1
, c
2
, c
3
) = [(a
1
+ b
1
), (a
2
+ b
2
), (a
3
+ b
3
)]
44

B =

A = [b
1
, b
2
, b
3
] = [a
1
, a
2
, a
3
]

b
j
= a
j
Dois ndices livres indicam uma matriz (3x3)
a
ij
(implcito que i e j variam de 1 a 3)
a
ij
=
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
Tres ndices livres indicam uma matriz 3D (3x3x3)
a
ijk
=
k j
i
_
_
a
111
a
121
a
131
a
211
a
221
a
231
a
311
a
321
a
331
_
_
(i, j, k) variam de 1 a 3.
4.2.2 Convencao soma
Toda vez que houver repeticao de ndice em um termo e entendido uma somatoria em que
os ndices variam de 1 a 3.
O ndice repetido se chama ndice mudo (dummy index).
Um ndice so pode repetir uma vez num mesmo termo.
Exemplos:
Notac ao classica Notac ao indicial

B =
3

i=1
a
i
b
i
=

A

B = a
i
b
i
=
3

i=1

x
i

e
i
=

x
i

e
i
=

x
j

e
j
a
ij
x
j
= b
i
=
_
i ndice livre.
j ndice mudo.
=
={a
i1
x
1
+ a
i2
x
2
+ a
i3
x
3
= b
i
} =
i = 1
i = 2
i = 3
_
_
_
a
11
x
1
+ a
12
x
2
+ a
13
x
3
= b
1
a
21
x
1
+ a
22
x
2
+ a
23
x
3
= b
2
a
31
x
1
+ a
32
x
2
+ a
33
x
3
= b
3
_
_
_
=
=
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
_
_
_
x
1
x
2
x
3
_
_
_
=
_
_
_
b
1
b
2
b
3
_
_
_
45
4.2.3 Nota cao de diferenciacao
A diferenciacao e indicada por uma vrgula como ndice.
Exemplos:
Gradiente de :
_

_
=

x
i

e
i
=
,i

e
i
(Nota cao indicial como soma vetorial)
=

x
i
=
,i
(Nota ce indicial como componente do vetor gradiente)
=
,
i
Divergente de

A:

A = (
a
1
x
1
+
a
2
x
2
+
a
3
x
3
) =
a
i
x
i
Notac ao indicial
= a
i,i
= (a
1,1
+ a
2,2
+ a
3,3
)

A = a
i,i
Laplaciano de :

2
= =

2

x
2
1
+

2

x
2
2
+

2

x
2
3
=

2

x
i
x
i
(Notacao indicial)
=
,ii
=
,
11
+
,
22
+
,
33

2
=
,ii
4.2.4 Delta de Kronecker
ij
Tensor
ij
Matriz (3x3)

ij

_
_
1 0 0
0 1 0
0 0 1
_
_
_

ij
= 1 i = j

ij
= 0 i = j

ij
e tambem um operador matricial (operador substituic ao).

ij
v
j
= v
i
(o operador
ij
aplicado em um vetor v
j
substitui o ndice repetido do
vetor pelo ndice livre).

ij
v
i
= v
j

ij
v
j
=
i1
v
1
+
i2
v
2
+
i3
v
3
= v
i

ij

ij
=
ii
ou
jj
=
11
+
22
+
33
= 3

ij
a
ij
= a
ii
ou a
jj
= (a
11
+ a
22
+ a
33
)

e
i

e
j
=
ij
46
4.2.5 Operador alternante ou alternador
ijk
Tensor
ijk
Tensor
_
_
_
Alternante
ou
Alternador

ijk
3 ndices livres 3
3
= 27 componentes (Matriz 3x3x3)
Denicao:

ijk
= 0 se houver ndice repetido (nesse caso nao signica soma)

ijk
= 1 se a partir da ordem natural (i, j, k) = (1, 2, 3), o n umero de
permuta coes for par

ijk
= 1 se a permutac ao for mpar
Permutacoes pares Permutac oes mpares
(1 2 3) (1 3 2)
(2 3 1) (3 2 1)
(3 1 2) (2 1 3)
4.2.6 Aplica c oes do tensor
ijk

C =

B =

e
1

e
2

e
3
a
1
a
2
a
3
b
1
b
2
b
3

=
ijk

e
i
a
j
b
k
=
ijk
a
j
b
k

e
i
=
ijk
a
j
b
k

A (

C) =

a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3

= a
i

e
i

jkl

e
j
b
k
c
l
=
jkl
a
i
b
k
c
l
(

e
i

e
j
. .

ij
) =
ij

jkl
. .

ikl
a
i
b
k
c
l
=
ijk
a
i
b
j
c
k
= a
1
b
2
c
3
+ a
2
b
3
c
1
+ a
3
b
1
c
2
(a
1
b
3
c
2
+ a
2
b
1
c
3
+ a
3
b
2
c
1
) + 0 + 0 + + 0 + 0
|a
ij
| =

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

=
ijk
a
1i
a
2j
a
3k
4.2.7 Relacao entre
ij
e
klm

ijk

ist
=
js

kt

jt

ks
4.3 Exerccios
Usando notac ao indicial,
47
1. mostrar que
i12

i23
= 0

i12

i23
=
12

23

13

22
= 0
2. mostrar que,

A (

C) =

B(

C)

C(

B)
Lado esquerdo da equac ao;

D =

A (

C
. .

E
)
_

D =

E d
i
=
ijk
a
j
e
k

E =

C e
k
=
kst
b
s
c
t
d
i
=
ijk
a
j

kst
b
s
c
t
d
i
=
ijk

kst
a
j
b
s
c
t

ijk
=
kij
d
i
=
kij

kst
a
j
b
s
c
t
= (
is

jt

it

js
)a
j
b
s
c
t

is
b
s
= b
i

it
c
t
= c
i
_
=
jt
a
j
..
a
t
b
i
c
t

js
a
j
..
a
s
b
s
c
i
d
i
= a
t
b
i
c
t
a
s
b
s
c
i
d
i
= b
i
(a
t
c
t
) c
i
(a
s
b
s
)

D =

B (

C)

C (

B)
3. mostrar que
ijk

kji
= 6

kji
=
ijk

ijk

kji
=
ijk

ijk
= (
jj

kk

jk

kj
. .

jj
)

ii
= 3
ijk

kji
= 9 + 3 = 6
4. mostrar que = 0
=
ijk
_

x
j
__

x
k
_
=
ijk

x
j
x
k

ijk

,jk
= 0

ijk

,jk
=
123

,23
+
132

,32
. .
0
+
213

,13
+
231

,31
. .
0
+
312

,12
+
321

,21
. .
0
= 0
5. Mostrar indicialmente que (

A) = (

A)
2

A = a
i

A =
2
a
1

e
1
+
2
a
2

e
2
+
2
a
3

e
3

A =
2
a
i
= a
i,jj
Denindo

A = b
i
=
ijk
a
k,j

(

A) =

B =
lmi
b
i,m
=
lmi

ijk
a
k,jm
=
ilm

ijk
a
k,,jm
= (
lj

mk

lk

mj
)a
k,jm
(

A) = (
lj

mk
a
k,jm
. .
a
m,jm

lk

mj
a
k,jm
. .
a
k,mm
) =
lj
a
m,jm
. .
a
m,lm

lk
a
k,mm
. .
a
l,mm
= a
m,lm
a
l,mm
48
a
m,lm
= (a
m,m
) = (

A)
a
l,mm
=
2
a
l
=
2

A
_
a
m,lm
a
l,mm
= (

A)
2

A
4.4 Problemas
Mostrar (indicialmente) que:
a)
ijk
A
j
A
k
=

A = 0
b)
ijk

ij
= 0
c) (

A) = 0
d) Dada a matriz simetrica
ij
(
ij
=
ji
) e
_
Q
1
=
ijk

ijm

km
P
1
=
ii
Q
2
=
ijk

imn

jm

kn
P
2
=
ij

ji
mostrar que,
_
Q
1
= 2P
1
Q
2
= P
2
1
P
2
e) Dado b
i
=
a
i

a
j
a
j
, mostrar que b
i
e um vetor unitario.
49
50
Captulo 5
Vetores Euclidianos
Considere-se no espaco euclidiano E
3
, um referencial (x,y,z) destrogiro.
Um vetor

V pode ser especicado por suas compo-
nentes,

V = v
1

e
1
+ v
2

e
2
+ v
3

e
3
ou v
1

i + v
2

j + v
3

k
ou simplesmente

V =
_
_
_
v
1
v
2
v
3
_
_
_
= {V }
Onde

e
1
=
_
_
_
1
0
0
_
_
_
,

e
2
=
_
_
_
0
1
0
_
_
_
,

e
3
=
_
_
_
0
0
1
_
_
_
Figura 5.1: Base euclidiana.
Diz-se que

V E
3
(ou

V C
3
se as componentes forem complexas).
Nota: Pode-se generalizar o espaco E
3
para um espaco N-dimensional E
N
. Neste caso,
{V } E
N
pode ser denido por suas N componentes,
{V } =
_

_
v
1
v
2
.
.
.
v
N
_

_
Denicao: Vetores linearmente independentes (vetores LI)
Um conjunto de vetores [{x}
1
, {x}
2
, . . . , {x}
N
], {x}
i
E
N
, e denido como
linearmente independente (LI) se e somente se a combina c ao linear,
51

1
{x}
1
+
2
{x}
2
+ . . . +
N
{x}
N
= {0}
admitir somente a soluc ao trivial,
1
=
2
= =
N
= 0

1
{x}
1
+
2
{x}
2
+ . . . +
N
{x}
N
= {0}
[{x}
1
{x}
2
. . . {x}
N
]
_

2
.
.
.

N
_

_
= {0}
_

_
_

_
x
11
x
21
.
.
.
x
N1
_

_
_

_
x
12
x
22
.
.
.
x
N2
_

_

_

_
x
1N
x
2N
.
.
.
x
NN
_

_
_

_
_

2
.
.
.

N
_

_
= {0}
[X]
(NN)
{} = {0}
Se |[X]| = 0 {} = [X]
1
{0} = {0} (soluc ao trivial unica, conjunto LI)
Se |[X]| = 0 O sistema homogeneo apresenta soluc oes nao triviais o conjunto de
vetores e chamado linearmente dependente, (LD).
Denicao: Num espaco E
N
, qualquer conjunto de N vetores LI, [{b}
1
, {b}
2
, . . . , {b}
N
]
constitui uma base vetorial para o E
N
.
Qualquer vetor {V } do E
N
, {V } E
N
, pode ser escrito como uma combina c ao linear
dos vetores da base,
{V } =
1
{b}
1
+
2
{b}
2
+ . . . +
N
{b}
N
ou {V } = [{b}
1
{b}
2
. . . {b}
N
]
_

2
.
.
.

N
_

_
N e a dimensao do espaco vetorial E
N
.
Produto escalar entre dois vetores {A} =
_

_
a
1
a
2
.
.
.
a
N
_

_
e {B} =
_

_
b
1
b
2
.
.
.
b
N
_

_
em uma base
ortonormal:
({A}, {B}) = ({B}, {A}) = {A} {B} = {A}
T
{B} =
N

i=1
a
i
b
i
Denicao - Base ortogonal: ({b}
1
, {b}
2
, . . . , {b}
N
) e uma base ortogonal se,
52
{b}
T
i
{b}
j
= 0 quando i = j
= 0 quando i = j
Denicao: Base ortonormal: ({b}
1
, {b}
2
, . . . , {b}
N
) e uma base ortonormal se,
{b}
T
i
{b}
j
=
ij
=
_
0 quando i = j
1 quando i = j

ij
delta de Kronecker.
Obs.: Muitas vezes a base ortonormal e chamada ortogonal.
5.1 Norma de um vetor
Denicao: Norma de um vetor {V } {V }

{V }

e um escalar que satisfaz 3 condic oes:


(i) {V }

> 0 {V } = {0}; {V }

= 0 implica em {V } = {0}
(ii) {V }

= ||. {V }

(iii) {U} +{V }

{U}

+{V }

(propriedade triangular)
5.1.1 Algumas denic oes para a norma
(i) Norma euclidiana ou Frobenius:
{V }
E
ou {V }
2
=
_
{V }
T
{V } =

_
N

i=1
|v
i
|
2
(ii) Norma maxima (ou absoluta):
{V }

= Maximo
i
|v
i
|
(iii) Taxicab norm:
{V }
1
=
N

i=1
|v
i
|
(iv) Norma generalizada p:
{V }
p
=
p

_
N

i=1
|v
i
|
p
p inteiro, 1 p <
53
Denic ao: Vetor unitario {V }

= 1
Portanto o vetor unitario depende da norma utilizada.
5.2 Obtencao de uma base ortogonal
Problema: dado uma base qualquer, [{b}
1
, {b}
2
, . . . , {b}
N
]
obter uma base ortogonal, [{u}
1
, {u}
2
, . . . , {u}
N
].
Sapoe-se que o conjunto de vetores [{b}
1
, {b}
2
, . . . , {b}
N
] seja LI. Caso contr ario nao
constituiria uma base.
5.2.1 Metodo de ortogonaliza cao de Gram-Schmidt
Dado um conjunto de vetores LI, [{b}
1
, {b}
2
, . . . , {b}
M
], M N, {b}
i
E
N
, obter
um conjunto de vetores ortonormais [{u}
1
, {u}
2
, . . . , {u}
M
], {u}
T
i
{u}
j
=
ij
Algoritmo basico:
1. i=1
{p}
1
= {b}
1
(5.1)
2. Normalizar {p}
1
:

11
= {p}
1

2
=

_
N

j=1
p
2
j
(5.2)
{u}
1
=
{p}
1

11
(5.3)
Das equac oes 5.1, 5.2 e 5.3,
{b}
1
=
11
{u}
1
3. i = 2
{p}
2
= {b}
2

12
{u}
1
(5.4)
Impondo a condi cao de ortogonalidade entre {p}
2
e {u}
1
,
{p}
T
2
{u}
1
= {u}
T
1
{p}
2
= 0 (5.5)
54
Pre-multiplicando a equacao 5.4 por {u}
T
1
,
{u}
T
1
{p}
2
= {u}
T
1
{b}
2

12
{u}
T
1
{u}
1
. .
1
= 0 (5.6)

12
= {u}
T
1
{b}
2
(5.7)
4. Normaliza c ao de {p}
2
,

22
= {p}
2

2
(5.8)
{u}
2
=
{p}
2

22
(5.9)
{p}
2
=
22
{u}
2
Das equac oes 5.4 e 5.9,
{b}
2
=
12
{u}
1
+
22
{u}
2
(5.10)
5. i = 3
{p}
3
= {b}
3

13
{u}
1

23
{u}
2
(5.11)
da ortogonalidade,
{p}
T
3
{u}
1
= {p}
T
3
{u}
2
= 0 (5.12)
{u}
T
1
equa cao 5.11{u}
T
1
{p}
3
= {u}
T
1
{b}
3

13
{u}
T
1
{u}
1
. .
1

23
{u}
T
1
{u}
2
. .
0
= 0

13
= {u}
T
1
{b}
3
(5.13)
{u}
T
2
equa cao 5.11{u}
T
2
{p}
3
= {u}
T
2
{b}
3

13
{u}
T
2
{u}
1
. .
0

23
{u}
T
2
{u}
2
. .
1
= 0

23
= {u}
T
2
{b}
3
(5.14)
55
6. Normaliza cao de {p}
3

33
= {p}
3

2
(5.15)
{u}
3
=
{p}
3

33
(5.16)
Das equac oes 5.11 e 5.16,
{b}
3
=
13
{u}
1
+
23
{u}
2
+
33
{u}
3
(5.17)
7. Para i qualquer, analogamente, obtem-se:
{p}
i
= {b}
i

i1

j=1

ji
{u}
j
(5.18)

ji
= {u}
T
j
{b}
i
j = 1, 2, . . . , (i 1) (5.19)

ii
= {p}
i

2
(5.20)
{u}
i
=
{p}
i

ii
(5.21)
Das equac oes 5.18 e 5.21,
{b}
i
=
1i
{u}
1
+
2i
{u}
2
+ +
ii
{u}
i
=
i

j=1

ji
{u}
j
(5.22)
8. Repetir ate i = M, M N.
Da equac ao 5.22 pode-se ver que,
[{b}
1
{b}
2
{b}
M
] = [{u}
1
{u}
2
{u}
M
]
_

11

12

13

1M
0
22

23

2M
0 0
33

3M
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
MM
_

_
N
_
_
_
_
_
B
_
_
. .
M
= N
_
_
_
_
_
U
_
_
. .
M
[R]
_
_


[0]
_
_
. .
M
_
_
_
M
[U]
MN
T
[U]
NM
= [I]
MM
(as colunas de [U] sao ortogonais entre si)
Se M = N [U]
T
[U] = [U][U]
T
= [I] (as linhas tambem sao ortogonais entre si)
Observac ao: Essa decomposi cao e chamada de decomposic

ao QR
56
Algoritmo Gram-Schmidt modicado:
Do ponto de vista numerico e conveniente modicar ligeiramente o algoritmo basico. O
objetivo e minimizar os erros de truncamento.
1. i = 1
{p}
1
= {b}
1

11
= {p}
1

2
=

_
N

j=1
p
2
j
{u}
1
=
{p}
1

11
{b}
1
=
11
{u}
1
2. i = 2

12
= {u}
T
1
{b}
2
{p}
2
= {b}
2

12
{u}
1

22
= {p}
2

{u}
2
=
{p}
2

22
{b}
2
=
12
{u}
1
+
22
{u}
2
3. i = 3

13
= {u}
T
1
{b}
3
{p}
1
3
= {b}
3

13
{u}
1

23
= {u}
T
2
{p}
1
3
{p}
2
3
= {p}
1
3

23
{u}
2

33
=
_
_
{p}
2
3
_
_
{u}
3
=
{p}
2
3

33
{b}
3
=
13
{u}
1
+
23
{u}
2
+
33
{u}
3
57
4. Analogamente para i qualquer:

1i
= {u}
T
1
{b}
i
{p}
1
i
= {b}
i

1i
{u}
1

2i
= {u}
T
2
{p}
1
i
{p}
2
i
= {p}
1
i

2i
{u}
2

3i
= {u}
T
3
{p}
2
i
{p}
3
i
= {p}
2
i

3i
{u}
3
.
.
. =
.
.
.

(i1),i
= {u}
T
i1
{p}
(i2)
i
{p}
(i1)
i
= {p}
(i2)
i

(i1),i
{u}
i1

ii
=
_
_
{p}
i1
i
_
_
{u}
i
=
{p}
i1
i

ii
{b}
i
=
1i
{u}
1
+
2i
{u}
2
+ +
ii
{u}
i
Observac ao: No algoritmo modicado, {p}
i1
i
e calculado de modo que
{u}
T
j
{p}
(i1)
i
= 0 (j = 1, 2, . . . , (i 1)) e imposto para cada {u}
j
, independente-
mente.
Programa 1: Programar o Gram Schmidt modicado:
Dados M vetores LI, M N, [B]
NM
= [{b}
1
{b}
2
{b}
M
], {b}
i
E
N
, achar M
vetores ortogonais [U]
NM
= [{u}
1
{u}
2
{u}
M
]
Verica c ao da ortogonalidade: [U]
T
[U] = [I]
MM
[R] =
_

11

12

1M
0
22

2M
.
.
.
.
.
.
.
.
.
.
.
.
0 0
MM
_

_
Sada: [B]
NM
, [U]
NM
, [R]
MM
Vericar [B] = [U].[R].
58
Captulo 6
Produto escalar e projecoes em uma
reta
6.1 Vetor projecao
Figura 6.1: Projecao ortogonal.
Dados dois vetores euclidianos:

A (a
1
, a
2
, a
3
), {a} =
_
_
_
a
1
a
2
a
3
_
_
_

B (b
1
, b
2
, b
3
), {b} =
_
_
_
b
1
b
2
b
3
_
_
_
achar a projecao de

B em

A.
59
cos =

E
_
_
_

A
_
_
_
E
=
_
{a}
T
{a} =

i=1
a
2
i
_
_
_

B
_
_
_
E
=
_
{b}
T
{b} =

i=1
b
2
i
Seja

P a projecao de

B em

A

P =

A
_
_
_

A
_
_
_
E
=

_
{a}
T
{a}

A, =
_
_
_

P
_
_
_
E
=

A
_
_
_

A
_
_
_
E
=
{b}
T
{a}
({a}
T
{a})
1/2

E
=

{a}
T
{a}
Vetor unitario na direc ao de

A.

P =
{b}
T
{a}
({a}
T
{a})
1/2

A
({a}
T
{a})
1/2
=
{a}
T
{b}
{a}
T
{a}

A
6.2 Matriz projetora
Na forma de componentes:

P =
_
_
_
p
1
p
2
p
3
_
_
_
= {p};

A =
_
_
_
a
1
a
2
a
3
_
_
_
= {a};

B =
_
_
_
b
1
b
2
b
3
_
_
_
= {b}
{p} =
{a}
T
{b}
{a}
T
{a}
{a} =
{a}{a}
T
{a}
T
{a}
{b}
_
{a}{a}
T
{a}
T
{a}
_
(NN)
= [P] {p} = [P]
(NN)
{b}
Denic ao: A matriz [P] =
{a}{a}
T
{a}
T
{a}
e chamada matriz projetora ou matriz projecao.
Ela projeta um vetor {b} qualquer na direcao de {a}.
Propriedades da matriz [P]
1. Simetrica: ([P]
T
= [P])
[P]
T
=
_
{a}{a}
T
{a}
T
{a}
_
T
=
({a}
T
)
T
({a})
T
{a}
T
{a}
=
{a}{a}
T
{a}
T
{a}
= [P]
2. Idempotente: [P][P] = [P] ([P][P] = [P]
2
= [P])
60
[P][P] =
{a}({a}
T
{a}
T
{a}
.
{a}){a}
T
{a}
T
{a}
=
({a}
T
{a})
({a}
T
{a})
. .
1
({a}{a}
T
)
({a}
T
{a})
=
{a}{a}
T
{a}
T
{a}
= [P]
Observacao: um caso particular importante e o dos vetores {b} que produzem uma
projec ao nula.
[P]{b} = {0}
{a}{a}
T
{a}
T
{a}
{b} = {0} {a}
T
{b} = {0}
* qualquer vetor {b}{a} produz um vetor nulo quando projetado em {a}.
6.3 Teorema da projecao
Dado dois vetores coplanares nao paralelos

V
1
e

V
2
no E
3
,

V
1
=
_
_
_
v
11
v
21
v
31
_
_
_
e

V
2
=
_
_
_
v
12
v
22
v
32
_
_
_
, e um ponto B nao pertencente ao plano S
2
denido por

V
1
e

V
2
, qual e a
distancia do ponto B ao plano S
2
?
Plano S
2
denido por

V
1
e

V
2
S
2
= {

R E
3
|

R = x
1

V
1
+ x
2

V
2
}, x
1
, x
2
escalares.
Na forma matricial:
_
_
_
r
1
r
2
r
3
_
_
_
= x
1
_
_
_
v
11
v
21
v
31
_
_
_
+ x
2
_
_
_
v
12
v
22
v
32
_
_
_
_
_
_
r
1
r
2
r
3
_
_
_
=
_
_
v
11
v
12
v
21
v
22
v
31
v
32
_
_
_
x
1
x
2
_
{r} = [A]{x}
Seja um ponto O de referencia no plano S
2
. Seja um ponto A(a
1
, a
2
, a
3
) denido pelo
vetor

R (ou vice-versa), pertencente ao plano S
2
. Seja um ponto B(b
1
, b
2
, b
3
) denido
pelo vetor

B (ou vice-versa).
61
(O ponto O e a origem
do sistema de referencia)

B =

OB

R =

OA
Figura 6.2: Distancia de um ponto a um plano.
A distancia AB entre o ponto A e o ponto B pode ser obtida de,

B +

BA =

BA =

B
onde

R =

OA.
AB =
_
_
_

B
_
_
_
E
A menor distancia entre o ponto B e um ponto A do S
2
e a distancia entre o ponto B
e o plano S
2
.
d = AB
Mnimo
= Mnimo
r
1
,r
2
,r
3
_
_
_

B
_
_
_
E
{R} =
_
_
_
r
1
r
2
r
3
_
_
_
Solu c ao:
_
_
_

B
_
_
_
E
e mnimo quando (

B)

R, isto e (

B)

R = 0 =

R (

B).
Mnimo

R
_
_
_

B
_
_
_ = Mnimo

R
_
_
_

B
_
_
_
2
_
_
_

B
_
_
_
2
= (

B) (

B) = (

B)

R (

B)

B
d
2
=
_
_
_

B
_
_
_
2
Mnimo
= min|(

B)

B|
Para determinar o vetor

R:

R (

B) = 0
([A]{x})
T
([A]{x} {b}) = {x}
T
[A]
T
([A]{x} {b}) = 0
{x}
T
[A]
T
[A]{x} {x}
T
[A]
T
{b} = 0
{x}
T
([A]
T
[A]{x} [A]
T
{b}
. .
{0}
) = 0 [A]
T
[A]{x} = [A]
T
{b}
62
O vetor

R que produz a distancia entre B e S
2
e obtido de [A]
T
[A]{x} = [A]
T
{b}:
{x}
(21)
= ( [A]
(23)
T
[A]
(32)
. .
(22)
)
1
[A]
T
(23)
{b}
(31)
{

R} = x
1

V
1
+ x
2

V
2
= [A]{x}
Como
_
x
1
x
2
_
e a soluc ao que torna
_
_
_

B
_
_
_
2
mnimo e equivalente `a soluc ao
por mnimos quadrados.
Neste caso, {R} e a projecao de

B no plano S
2
.
{x} = (A
T
A)
1
A
T
{b}
Pre-multiplicando por [A]:
[A]{x} = A(A
T
A)
1
A
T
. .
(33)
{b}
{R}
(31)
= [P]
(33)
{b}
(31)
Projec ao de {b} em S
2
[P] = A(A
T
A)
1
A
T
e a matriz de projec ao,
simetrica.
Idempotente: [P]
2
= A(A
T
A)
1
A
T
A(A
T
A)
1
. .
[I]
A
T
= A(A
T
A)
1
A
T
= [P]
Generaliza cao do Teorema da projec ao:
Seja um conjunto de vetores LI, ({V }
1
, {V }
2
, . . . , {V }
M
)
{V }
i
E
N
{V }
i
=
_

_
v
1i
v
2i
.
.
.
v
Ni
_

_
M N.
[{V }
1
{V }
2
{V }
M
] =
_

_
_

_
v
11
v
21
.
.
.
v
N1
_

_
_

_
v
12
v
22
.
.
.
v
N2
_

_


.
.
.

_

_
v
1M
v
2M
.
.
.
v
NM
_

_
_

_
= [A]
(NM)
O conjunto de M vetores LI dene um plano S
M
, M-dimensional, S
M
E
N
.
S
M
=
_
{R} E
N
| {R} = x
1
{V }
1
+ x
2
{V }
2
+ + x
M
{V }
M
, (x
1
, . . . , x
M
) escalares
_
Na forma matricial, {R}
(N1)
= [{V }
1
{V }
2
{V }
M
]
_

_
x
1
x
2
.
.
.
x
N
_

_
= [A]
(NM)
{x}
(M1)
63
Para qualquer vetor {B} =
_

_
b
1
b
2
.
.
.
b
N
_

_
, {B} E
N
, existe um vetor {p} S
M
tal que
{B} {p}
2
e mnimo.
Nesse caso, ({B} {p}) e ortogonal a {p}, isto e ({B} {p}) {p} = 0.
O vetor {p} e obtido de {p}
(N1)
= [A(A
T
A)
1
A
T
]
. .
[P]
(NN)
{B}
(N1)
{p} e a projecao de {B} no plano S
M
.
Exemplo: Dado um ponto B que dene o vetor

B =
_
_
_
5
5
5
_
_
_
= {b}, e o plano
denido por

e
1
=

2
2
_
_
_
1
0
0
_
_
_
e

e
2
=

2
2
_
_
_
0
1
0
_
_
_
; S
2
= {

R = x
1

e
1
+ x
2

e
2
}, calcular a
projecao {p} de

B em S
2
. Calcular a distancia de B a S
2
.
Observac ao: e possvel vericar que o ponto B nao pertence ao plano S
2
.
Soluc ao:
{p} = [A(A
T
A)
1
A
T
]{b} {p} =
_
_
1 0
0 1
0 0
_
_
_
1 0
0 1
_ _
1 0 0
0 1 0
_
{b} =
_
_
1 0 0
0 1 0
0 0 0
_
_
. .
[P]
{b}
{p} =
_
_
1 0 0
0 1 0
0 0 0
_
_
_
_
_
5
5
5
_
_
_
=
_
_
_
5
5
0
_
_
_
d = {B} {p}
E
=
_
_
_
_
_
_
_
_
_
5
5
5
_
_
_

_
_
_
5
5
0
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
0
0
5
_
_
_
_
_
_
_
_
_
= 5
Observac ao:
[P] =

2
2
_
_
1 0
1 1
0 0
_
_
_
_

2
2
_
1 1 0
0 1 0
_

2
2
_
_
1 0
1 1
0 0
_
_
_
_
1

2
2
_
1 1 0
0 1 0
_
=
_
_
1 0 0
0 1 0
0 0 0
_
_
{p} = [P]{b} =
_
_
_
5
5
0
_
_
_
64
Resultado obvio, ja que os pares de vetores
_
_
_
1
0
0
_
_
_
;
_
_
_
0
1
0
_
_
_
e

2
2
_
_
_
1
0
0
_
_
_
;

2
2
_
_
_
0
1
0
_
_
_
denem o mesmo plano.
Exerccios:
1. Achar a matriz projetora do vetor {

V } =
_

_
1
2
3
4
_

_
Achar a projecao do vetor {

B} =
_

_
5
5
5
5
_

_
na direcao de {

V }.
2. Dado o plano S que passa por O(2, 1, 0) e denido pelos vetores

e
1
=
_
_
_
1
0
1
_
_
_
e

e
2
=
_
_
_
0
0
1
_
_
_
, e o ponto P(5, 1, 1), achar:
(a) Projecao do vetor

OP sobre S.
(b) Distancia de P a S.
65
66
Captulo 7
Matrizes
7.1 Nota cao
[A] = [a
ij
] =
_

_
a
11
a
12
a
1N
a
21
a
22
a
2N
.
.
.
.
.
.
.
.
.
.
.
.
a
M1
a
M2
a
MN
_

_
(MN)
Generaliza cao:
a
ijk
(Matriz 3D)
7.2 Denic oes e propriedades
Denic ao - Matriz diagonal:
_

_
.
.
.
D
.
.
.
_

_
(NN)
=
_

_
d
1
0 0
0 d
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 d
N
_

_
67
Denic ao - Matriz identidade:
[I]
(NN)
=
_

_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
Denic ao - Matriz transposta: [A]
T
Trocam-se as linhas e as colunas de [A].
[A]
(34)
=
_
_
a
11
a
12
a
13
a
14
a
21
a
22
a
23
a
24
a
31
a
32
a
33
a
34
_
_
[A]
T
(43)
=
_

_
a
11
a
21
a
31
a
12
a
22
a
32
a
13
a
23
a
33
a
14
a
24
a
34
_

_
Propriedade:
[A]
(MN)
= [B]
(ML)
. [C]
(LN)
=[A]
T
= [C]
T
.[B]
T
Denic ao - Matriz simetrica:
[A] = [A]
T
Denic ao - Matriz anti-simetrica:
[A] = [A]
T
diagonal nula em [A] e [A]
T
.
Denic ao - Matriz complexa:
[C]
(MN)
= [A]
(MN)
+ j [B]
(MN)
([A] e [B] matrizes reais).
Denic ao - Matriz conjugada:
[C]

= [A] j[B]
Denic ao - Matriz inversa [A]
NN
1
:
[A][A]
1
= [A]
1
[A] = [I]
Propriedade:
[A]
(NN)
= [B]
(NN)
. [C]
(NN)
=[A]
1
= [C]
1
.[B]
1
68
Denicao - Matriz triangular:
_

_
Superior [U]
(NN)
=
_
_


0
_
_
u
ij
= 0 se i > j
Inferior [L]
(NN)
=
_
_
0


_
_
l
ij
= 0 se i < j
Denicao - Matriz ortogonal [P]
(NN)
:
[P]
T
= [P]
1
[P]
T
[P] = [P][P]
T
= [I] =
_

_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
[P] = [{p}
1
{p}
2
. . . {p}
N
]
As colunas de [P] sao ortogonais entre si {p}
i
.{p}
j
=
ij
.
Analogamente, as linhas de [P] tambem sao ortogonais entre si.
Propriedades:
[P]{x}

= {x}

(a norma e preservada)
[P]{x} [P]{y} = {x} {y} (o produto escalar e preservado)
Denicao - Matriz unitaria:
Seja [U]
(NN)
complexa. [U]
(NN)
e unitaria se:
([U]

)
T
[U] = ([U]
T
)

[U] = [U]([U]

)
T
= [I]
Ou seja, ([U]

)
T
= [U]
1
.
Uma matriz ortogonal e uma matriz unitaria real.
Denicao - Matriz hermitiana:
[A] = [A]
H
e hermitiana se:
([A]

)
T
= ([A]
T
)

= [A]
Se [A] = [B] + j[C] [A]
T
= [B]
T
+ j[C]
T
69
([A]

)
T
= ([A]
T
)

= [B]
T
j[C]
T
Se [A] hermitiana
_
Parte real simetrica [B] = [B]
T
Parte imagin aria anti-simetrica [C] = [C]
T
Observa cao: A diagonal principal e sempre real.
Denic ao - Matriz anti-hermitiana: Se ([A]

)
T
= [A]
Parte real anti-simetrica.
Parte imaginaria simetrica.
Observac ao: A diagonal principal e sempre imaginaria pura.
Propriedade: Se [A] e hermitiana j[A] e anti-hermitiana e vice versa.
Observac ao: Nao confundir matriz hermitiana, que e uma matriz que apresenta a
propriedade ([A]

)
T
= [A], com a hermitian de uma matriz, H([A]) = ([A]

)
T
, que e em
geral diferente de [A].
Denic ao - Matriz normal [N]:
([N]

)
T
[N] = [N]([N]

)
T
As matrizes unitarias, hermitianas e anti-hermitianas sao normais.
Denic ao - Tra co de uma matriz [A]
(NN)
: tr[A]
tr[A] =
N

i=1
a
ii
Propriedades:
1. Seja [A]
(NN)
, [B]
(NN)
tr([A][B]) = tr([B][A]) =
N

i=1
N

j=1
a
ij
b
ji
2. tr([A] + [B]) = tr[A] + tr[B]
3. tr[A] = tr([A]

)
T
= tr[A]

(Observac ao: a e o conjugado do escalar a)


4. tr[A][B][C] = tr[C][A][B] = tr[B][C][A]
70
7.3 Norma de matrizes
Denic ao - Norma de uma matriz [A], [A]

: e um escalar que satisfaz as condic oes


_

_
1) [A]

> 0, exceto para [A] = [0]. ([A]

= 0 [A] = [0])
2) [A]

= || . [A]

, escalar
3) [A] + [B]

[A]

+[B]

4) [A].[B]

[A]

. [B]

(Propriedade das normas subordinadas).


Exemplos de normas:
Seja [A]
(MN)
Norma de Frobenius ou norma Euclidiana
[A]
E
= [A]
F
=

_
N

i=1
N

j=1
|a
ij
|
2
=
_
tr(([A]

)
T
[A])
Norma absoluta
[A]
A
= Max
i,j
|a
ij
|
Propriedade - A norma de uma matriz pode ser associada `a norma de um vetor:
[A]

= Max
{x} ={0}
[A]{x}

{x}

ou [A]

= Max
{x}

=1
[A]{x}

Tais normas (de uma matriz) sao chamadas de norma de uma matriz subordinada `a
norma de um vetor e satisfazem a 4
a
condic ao da denicao de norma acima mencionada:
[A].[B]

[A]

. [B]

Propriedade 1: [I]

= 1 para qualquer norma subordinada.


Propriedade 2: Qualquer norma de vetor e matriz que satisfaz [A].{x}

[A]

. {x}

e chamada consistente ou compatvel.


Exemplos:
Norma Taxicab:
[A]
1
= Max
j
N

i=1
|a
ij
| (soma da coluna j).
A norma
1
e uma norma subordinada a {x}
1
=
N

i=1
|x
i
|
71
Norma :
[A]

= Max
i
N

j=1
|a
ij
| (soma da linha i).
A norma

e uma norma subordinada a {x}

= Max
i
|x
i
|
Norma espectral:
[A]
s
=
_
Maximo autovalor de([A]

)
T
[A]
Portanto [A]
s
e subordinada a {x}
E
Obs.: [A]
E
e consistente com {x}
E
, mas nao e subordinada pois [I]
E
=

N.
7.4 Determinante de uma matriz
Denic ao - O determinante de uma matriz [A]
(NN)
=
_

_
a
11
a
12
a
1N
a
21
a
22
a
2N
.
.
.
.
.
.
.
.
.
.
.
.
a
N1
a
N2
a
NN
_

_
e
|A| =
N!

p=1
(1)
p
a
1i
p
a
2j
p
a
3k
p
a
Nt
p
onde (i, j, k, . . . , t)
p
sao todas as N! permutac oes de 1, 2, 3, , N
Denic ao - Cofator de uma matriz [A]
(NN)
, |M
ij
|:
|M
ij
| = (1)
i+j
(determinante de [A], eliminadas a linha i e a coluna j)
Denic ao - Matriz dos cofatores de [A]: Cada elemento c
ij
da matriz e composto pelo
cofator |M
ij
| .
[C] =
_

_
|M
11
| |M
12
| |M
1N
|
|M
21
| |M
22
| |M
2N
|
.
.
.
.
.
.
.
.
.
.
.
.
|M
N1
| |M
N2
| |M
NN
|
_

_
Denic ao - Matriz adjunta de [A]: Transposta da matriz dos cofatores de [A] [C]
T
.
Denic ao - Menor de ordem m da matriz [A]
(rs)
, r e s m: Matriz quadrada (mm)
obtida de [A]
(rs)
, eliminando-se linhas e colunas.
72
7.5 Calculo do determinante
Calculo do determinante de [A]
(NN)
utilizando expansao em cofatores.
|[A]| =
N

j=1
a
ij
|M
ij
|
(Para um i qualquer)
=
N

i=1
a
ij
|M
ij
|
(Para um j qualquer)
Note-se que cada cofator |M
ij
| pode ser expandido de novo pela mesma regra.
Propriedades:
Matriz [A] singular |[A]| = 0
|[A]| =

[A]
T

|[A].[B]| = |[A]| . |[B]|, [A] e [B] quadradas, (N N).


Se [B]
(NN)
e obtido de [A]
(NN)
multiplicando-se uma linha ou coluna por um escalar ,
entao
|[B]| = |[A]| .
Trocando-se duas linhas ou duas colunas de [A], inverte-se o sinal do determinante.
Se [B]
(NN)
e obtido de [A]
(NN)
somando-se a qualquer linha ou coluna de [A] uma
combina c ao linear de linhas ou colunas, respectivamente, de [A], ent ao|[B]| = |[A]|.
Se [U]
(NN)
e triangular superior, entao |[U]| =
N

i=1
u
ii
(elementos da diagonal principal).
Se [L]
(NN)
e triangular inferior, entao |[L]| =
N

i=1
l
ii
(elementos da diagonal principal).
Observac ao: Os auto-valores de [U] e [L] estao na diagonal principal. Isto pode ser
visualizado obtendo-se o polinomio caracterstico pela expansao em cofatores.
7.6 Auto-valores de uma matriz
Por denicao, sao auto-vetores de uma matriz os vetores que se projetam sobre eles mes-
mos na transforma c ao denida pela matriz, sendo os auto-valores as relac oes que existem
entre as normas euclideanas dos vetores projetados e dos vetores originais (Captulo 8).
Portanto, sao autovalores de uma matriz [A]
(NN)
, N valores que satisfazem a equac ao,
[A]{x} = {x}
ou
73
([A] [I]){x} = {0}
Esta equac ao representa um sistema homogeneo, e portanto terao soluc oes nao triviais
somente se o determinante do sistema for nulo. Impondo esta restricao temos,
|[A] [I]| =

a
11
a
12
a
1N
a
21
a
22
a
2N
.
.
.
.
.
.
.
.
.
.
.
.
a
N1
a
N2
a
NN

= 0 P(
N
) = 0
O polinomio P(
N
) e chamado polinomio caracterstico ou equac ao caracterstica do
sistema.
P(
N
) = a
N

N
+ a
N1

N1
+ + a
1
+ a
0
= 0
Para cada solucao (auto-valor)
i
, i = 1, . . . , N, existe associada uma solucao {x}
i
do
sistema homogeneo:
([A]
i
[I]){x}
i
= {0}
{x}
i
e um auto-vetor de [A] associado ao auto-valor
i
.
Denic ao - Posto (rank) de uma matriz [A]
(MN)
, [A]: e a ordem da maior matriz nao
singular que pode ser formada retirando-se linhas e/ou colunas de [A].
Propriedades:
1. [A]
(MN)
Min{M, N}
2. Se [B] e sub-matriz de [A], [B] [A]
3. Se [A] = k
_
Existem no maximo k colunas de [A] LI.
Existem no maximo k linhas de [A] LI.
4. [A] = [A]
T
= ([A]

)
T
5. [A] = ([A]([A]

)
T
) = (([A]

)
T
[A])
6. Se [A]
(MN)
= K existe [X]
(MK)
, [M]
(KK)
e [Y ]
(KN)
tal que [A] = [X][M][Y ], det[M] = 0
7. Se [A]
(MN)
, [B]
(NP)
([A][B]) Min{[A], [B]}. A igualdade acontece somente se
[A] e [B] tiverem posto cheio.
8. ([A] + [B]) [A] + [B]
74
Denicao - Raio espectral de uma matriz [A]
(NN)
, [A]: Maximo autovalor de [A], em
valor absoluto.
Denicao - N umero de condicao espectral de uma matriz [A]
(NN)
, c[A]
S
:
c[A]
S
= [A]
s
_
_
[A]
1
_
_
s
=
||
M ax
||
Mn
e uma medida do condicionamento numerico de [A]
(NN)
.
Mede a sensitividade da matriz em relac ao a uma perturbacao (nos seus coecientes,
[A], ou em quem a matriz esta aplicada ).
Exemplo:
[A]{x} = {b} [A], {b}, {x}
Quanto maior c[A]
S
, pior e o condicionamento numerico na resolu cao do sistema de
equac oes. O caso limite acontece quando [A] e singular ||
Mn
= 0 c[A]
S
= .
7.7 Produto interno
Denic ao: O produto interno entre duas matrizes [A]
(MN)
e [B]
(MN)
e um escalar (real ou
complexo) que satisfaz as condicoes:
1. < [A], [B] > = < [B], [A] >
2. < [A], [A] > > 0 se [A] = [0]; < [A], [A] > = 0 [A] = [0]
3. < [A] + [B], [C] > = < [A], [C] > + < [B], [C] >
Observac ao: O produto interno de matrizes pode ser denido utilizando o produto
interno de vetores, por exemplo:
< [A], [B] >
u,v
=
< [A]{u}, [B]{v} >
u
< {v}, {v} >
v
; {v} = {0}
onde < (.), (.) >
u
e < (.), (.) >
v
representam produtos internos vetoriais.
Outros exemplos de produtos internos de matrizes:
< [A], [B] >
v
=
({v}

)
T
([A]

)
T
[B]{v}
({v}

)
T
{v}
; {v} = {0}
< [A], [B] >= tr(([A]

)
T
[B])
etc...
75
7.8 Subespacos fundamentais de uma matriz
Os quatro subespacos fundamentais de uma matriz [A]
(MN)
sao:
1. Subespaco das colunas de [A], R([A]) subespaco gerado por todas as combina c oes
das colunas de [A]
(MN)
. R([A]) E
M
.
2. Subespaco das linhas de [A], R([A]
T
) subespaco gerado por todas as combina c oes
das colunas de [A]
T
(NM)
(ou linhas de [A]). R([A]
T
) E
N
.
3. Subespaco nulo (direito) de [A], N([A]) subespaco constitudo por todos os ve-
tores que satisfazem a equac ao [A]
(MN)
{x}
(N1)
= {0}
(M1)
. N([A]) E
N
.
4. Subespaco nulo (esquerdo) de [A], N([A]
T
) subespaco constitudo por todos
os vetores que satisfazem a equacao [A]
T
(NM)
{y}
(M1)
= {0}
(N1)
, ou {y}
T
(1M)
[A]
(MN)
= {0}
T
(1N)
.
N([A]
T
) E
M
.
_
N([A]) e R([A]
T
) R
N
N([A]
T
) e R([A]) R
M
Os subespacos nulos sao chamados de kernel de [A].
R([A]) dimensao r (n umero de colunas LI), posto de [A] = [A] = r.
R([A]
T
) dimensao r (n umero de linhas LI), posto de [A]
T
= ([A]
T
) = r.
N([A]) dimensao (N r) (N r) vetores LI formando uma base.
N([A]
T
) dimensao (M r) (M r) vetores LI formando uma base.
76
Captulo 8
Autovalores e autovetores de uma
matriz
Seja [A] uma matriz N N qualquer.
Os autovetores da matriz [A] sao, por denicao, os vetores que se projetam sobre si
mesmos na transforma cao [A]{x} = {y}. Portanto, se {x} e um autovetor, {y} e colinear
com {x} e ent ao {y} = {x}. O fator de escala e o autovalor associado ao autovetor
{x}.
Portanto o auto-sistema de equac oes e dado por:
[A]{x} = {x} ou ([A] [I]){x} = {0} (8.1)
onde tanto como {x} sao incognitas.
Como (8.1) e um sistema de equac oes homogeneo, a soluc ao nao trivial so ocorre
quando o determinante e nulo.
|[A] [I]| = P(
N
) = 0 (8.2)
Matricialmente,

(a
11
) a
12
a
1N
a
21
(a
22
) a
2N
.
.
.
.
.
.
.
.
.
.
.
.
a
N1
a
N2
(a
NN
)

= P(
N
) = 0
A expressao do determinante |[A] [I]| resulta num polinomio de grau N, P(
N
),
denominado polinomio caracterstico:
P(
N
) =
N
+
N1

N1
+
N2

N2
+ +
0
= 0
As N raizes de P(
N
) = 0
1
,
2
, . . . ,
N
, sao chamadas autovalores de [A].
Obtidos os autovalores
i
, pode-se voltar `a equacao (8.1) e resolver o sistema ho-
mogeneo,
77
([A]
i
[I]){x}
i
= {0} {x}
i
{x}
i
e o autovetor associado ao autovalor
i
.
Portanto, os autovalores e autovetores aparecem aos pares,
(
1
, {x}
1
), (
2
, {x}
2
), . . . , (
N
, {x}
N
).
A matriz [S]
NN
= [{x}
1
{x}
2
{x}
N
] e a matriz dos autovetores de [A], tambem
chamada matriz modal.
As aplicacoes da teoria de autovalores e autovetores sao in umeras.
Exemplo: Seja um sistema de equac oes diferenciais lineares de ordem 1,
{ y} = [A]
NN
{y} + {b}
N1
(8.3)
A estabilidade do sistema e analisada tomando-se o sistema homogeneo,
{ y} = [A]{y} (8.4)
A solucao de (8.4) e do tipo,
{y} = {y
0
}e
t
(8.5)
{ y} = {y
0
}e
t
(8.6)
Substituindo (8.5) e (8.6) em (8.4),
{y
0
}e
t
= [A]{y
0
}e
t
[A]{y
0
} = {y
0
} (8.7)
A equacao (8.7) caracteriza um problema de autovalores e autovetores de [A].
Da equac ao (8.7) obtem-se os autovalores
1
, . . . ,
N
e os autovetores {}
1
, . . . , {}
N
.
Como sao N soluc oes LI (autovetores LI), a soluc ao geral da equacao homogenea e a
combina c ao linear {y} =

N
i=1
C
i
{
i
}e

i
t
.
Num caso geral um autovalor pode ser complexo, pois e uma raiz de um polinomio
com coecientes reais,

i
=
i
+ j
i
(8.8)
A equacao (8.5) pode ser escrita na forma,
{y} =
N

i=1
C
i
{}
i
e
(
i
+j
i
)t
(8.9)
78
Se algum autovalor
i
possuir parte real positiva
i
> 0 o sistema e instavel pois o
termo {}
i
e

i
t
tende a crescer sem limite com o tempo.
A componente imaginaria indica caracter oscilatorio do sistema, pois,
e
j
i
t
= cos(
i
t) + j sin(
i
t) (8.10)
Exemplo: Vibrac oes livres:
[M]
(NN)
{ x} + [K]
(NN)
{x} = {0} (8.11)
A soluc ao e da forma,
{x} = {}e
jt
(8.12)
para [M] e [K] reais, simetricas, [M] positivo-denida e [K] semi-positivo-denida.
Da equac ao (8.12) podemos observar que,
{ x} =
2
{}e
jt
(8.13)
Substituindo (8.12) e (8.13) em (8.11),
([K]
2
[M]){} = {0}

2
Freq uencia natural do sistema (8.11)
{} Modo de vibrar associado a
2
.
8.1 Propriedades, teoremas, denic oes
Se
i
e autovalor complexo

i
Tambem e autovalor.
Se {}
i
e autovetor complexo {}

i
tambem e autovetor.
Os autovalores de [A] e de [A]
T
sao os mesmos, os autovetores nao necessariamente.
Se
1
,
2
, . . . ,
N
sao autovalores de [A],
1

1
,
1

2
, ,
1
N
sao os autovalores de [A]
1
.
Os autovetores sao os mesmos.

M
1
,
M
2
, . . . ,
M
N
sao os autovalores de [A]
M
= [A].[A]. .[A]
. .
M
Se [A] e normal ([A][A

]
T
= [A

]
T
[A]) [A] e diagonaliz avel (autovetores LI),
portanto sendo [S] a matriz dos autovetores de [A], [S] e nao singular,
[S]
1
[A][S] =
_

_
.
.
.
0

0
.
.
.
_

_
Observac ao: Uma matriz hermitiana e normal.
79
Se [A] e hermitiana os autovalores sao reais e os autovetores ortogonais.
[A] e diagonaliz avel.
Uma matriz real simetrica, ou imagina c ao anti simetrica, e hermitiana.
Uma matriz unitaria e normal
Uma matriz real unitaria e ortogonal.
Se [A] e anti-hermitiana os autovalores sao imaginarios.
Uma matriz real anti-simetrica, ou imagina c ao simetrica, e anti-hermitiana.
Se [A] e unitaria |
i
| = 1 (i = 1, 2, . . . , N)
Se [A] e ortogonal
i
= 1
Normaliza c ao
_
_
_
unitaria autovetores ortonormais.
hermitiana autovetores ortogonais se autovalores diferentes
(Strang [4], pg.295).
Se [U] ou [L] forem triangulares
_
_
_

i
= u
ii
ou

i
= l
ii
Se
1
,
2
, . . . ,
N
sao autovalores de [A]
N

i=1

i
=
N

i=1
a
ii
= Tra co de [A] e
N

i=1

i
=
|[A]|
Se os autovalores de uma matriz [A]
NN
, real, simetrica, forem distintos
(
1
<
2
< <
N
) os autovetores {x}
1
, {x}
2
, . . . , {x}
N
sao ortogonais entre
si {x}
T
i
{x}
j
= 0 para todo i = j.
Demonstra cao:
[A]{x}
i
=
i
{x}
i
(8.14)
[A]{x}
j
=
j
{x}
j
(8.15)
Pre multiplicando as equac oes (8.14) e (8.15) por {x}
T
j
e {x}
T
i
respectivamente:
{x}
T
j
[A]{x}
i
=
i
{x}
T
j
{x}
i
{x}
T
i
[A]{x}
j
=
j
{x}
T
i
{x}
j
Subtraindo uma da outra:
80
{x}
T
j
[A]{x}
i
{x}
T
i
[A]{x}
j
. .
0
= (
i

j
){x}
T
i
{x}
j
(
i

j
){x}
T
i
{x}
j
= 0
Como (
i

j
) = 0 {x}
T
i
{x}
j
= 0
Se os autovalores forem repetidos os autovetores podem ser escolhidos or-
togonais entre si, pois [A] e simetrica, portanto Hermitiana, portanto normal.
Seja [A]
NN
real, nao simetrica.
[A]{}
D
= {}
D
{}
D
e o autovetor `a direita de [A].
_
_
_
[A]
T
{}
E
= {}
E
ou
{}
T
E
[A] = {}
T
E
_
_
_
{}
E
e o autovetor `a esquerda de [A].
Pode-se mostrar que se (
1
<
2
< <
N
) (autovalores distintos):
{}
T
Ej
{}
Di
= 0 (i = j)
Se [A] nao e normal e os autovalores forem repetidos os autovetores podem ser
LI ou LD.
Se [A] for normal os autovetores sao LI, mesmo se os autovalores forem repetidos.
_
_
_
uma hermitiana e normal
uma unitaria e hermitiana
uma ortogonal e unitaria
_
_
_

autovetores ortogonais, pois [U

]
T
[A][U] = [],
onde [U] e unitaria.
Seja [A] real, simetrica.
Se todos os autovalores forem positivos,
i
> 0 [A] e positivo-denida.
Se todos os autovalores forem negativos,
i
< 0 [A] e negativo-denida.
Se todos os autovalores forem
i
0 [A] e semi-positivo-denida.
Se todos os autovalores forem
i
0 [A] e semi-negativo-denida.
{x}
T
[A]{x} e a forma quadr atica de [A].
Teorema: Sejam
i
os autovalores de ([A

]
T
[A])
Se [A] e hermitiana
2
max

N

i=1
N

j=1
|a
ij
|
2
= tra co de ([A

]
T
[A]) = [A]
2
81
Uma matriz real simetrica e hermitiana, e portanto:

2
max

N

i=1
N

j=1
a
2
ij
8.2 N umero de condicao espectral de uma matriz
Dada uma matriz [A], o n umero de condic ao espectral, c[A]
S
, e denido como segue:
c[A]
S
= [A]
S
.
_
_
[A]
1
_
_
S
=

Max
=
|
i
|
Max
|
j
|
min
Aplica c ao: condicionamento de um sistema linear de equa coes [A]{x} = {b}
Seja {b} uma perturbac ao em {b}. A solucao {x} cara perturbada de {x},
[A]({x} + {x}) = {b} + {b}
Mostra-se que,
{x}
E
{x}
E
c[A]
{b}
E
{b}
E
ou se [A] e uma perturbac ao nos coecientes de [A],
([A] + [A])({x} + {x}) = {b}
{x}
{x}
c[A]
[A]
[A]
c[A]
S
e uma estimativa para a amplicac ao das perturbacoes {b} ou [A] na solucao
{x}.
De um modo geral quanto maior c[A]
S
menos bem condicionado a resolu cao
numerica de [A]{x} = {b}.
c[A]
S
= 1 condicionamento numerico ideal para a resoluc ao de [A]{x} = {b}.
8.3 Teorema do crculo de Gerschgorin

1
,
2
, . . . ,
N
sao autovalores de [A]
(NN)
qualquer.
os autovalores de [A] estao contidos num crculo de raio R
i
=
N

j=1
i=j
|a
ij
|, com centros
nos valores a
ii
da diagonal principal de [A].
| a
ii
| R
i
=
N

j=1
i=j
|a
ij
|
82
Exemplo:
[A] =
_
_
2, 5 1 0
1 5

2
0

2 10
_
_
=

1
= 3, 136

2
= 4, 000

3
= 10, 364
Figura 8.1: Crculo de Gerschgorin.
1, 5
i
11, 414 i = 1, 2, 3
1, 5
1
3, 5 2, 586
2
7, 414 8, 585
3
11, 414
Observacao: O teorema fornece valores limitantes para os autovalores de [A].
- Strang [4], pg. 386
- Westlake [5], pg. 129
- Noble [6], pg. 289
8.4 Transla cao de autovalores

1
,
2
, . . . ,
N
sao os autovalores de uma matriz [A]
NN
.
([A] [I]){x} = {0} (8.16)
pode ser escrito como,
= (8.17)
De (8.16) em (8.17),
([A] ( )[I]){x} = {0}
[([A] + [I]) [I]]{x} = {0}
([B] [I]){x} = {0}
83

1
,
2
, . . . ,
N
sao os autovalores de [B],
[B] =
_

_
(a
11
+ ) a
12
a
1N
a
21
(a
22
+ ) a
2N
.
.
.
.
.
.
.
.
.
.
.
.
a
N1
a
N2
(a
NN
+ )
_

_
Da equacao (8.17),

i
=
i
+
Quando se soma [I] `a matriz [A] os autovalores
i
da matriz ([A] + [I]) sofrem
uma translac ao de em relac ao aos valores
i
de [A].
Os autovetores nao sao afetados.
Aplicac oes: - Tornar todos os autovalores positivos.
- Melhorar a relac ao

.
- etc...
8.5 Problema de autovalores e autovetores
generalizado
Existem outras formas de autovalores e autovetores envolvendo matrizes.
Por exemplo:
[A]{x} = [B]{x}
onde [A] e [B] sao reais e simetricas.
[A] Semi-positivo denida.
[B] Positivo denida.
Ou
(
2
[M] + [C] + [K]){x} = {0}
no caso de vibrac oes livres amortecidas.
Exemplo:
[K]{x} =
2
[M]{x}
ou
(
2
[M] i[C] [K]){x} = {0}
Como os autovetores sao, da mesma forma que no caso anterior, as soluc oes de um
sistema homogeneo de equacoes lineares, o procedimento de calculo e identico ao ja visto.
84
8.6 Calculo de autovalores e autovetores
8.6.1 Algoritmo QR
Seja [A]
NN
uma matriz qualquer.
Teorema: Existe uma matriz [M]
NN
unitaria tal que, [M]
T
[A][M] = [U],
onde [U] e uma matriz triangular superior.
Observacao: Poderia ser triangular inferior, [L].
Como [A] e [U] sao similares
i
= u
ii
(i = 1, 2, . . . , N)
Algoritmo:
1. Matriz [A]
0
NN
, real, com autovalores reais por simplicidade.
Criterio de convergencia:
_
Nmax = n umero maximo de itera coes.
= limite para o zero
2. i = 0
(a) Decomposicao QR: [A]
0
= [Q]
0
[R]
0
(b) [A]
1
= [R]
0
[Q]
0
([A]
1
= [Q]
T
0
[A]
0
. .
[R]
0
[Q]
0
)
3. i = 1
(a) Decomposicao QR: [A]
1
= [Q]
1
[R]
1
(b) [A]
2
= [R]
1
[Q]
1
([A]
2
= [Q]
T
1
[A]
1
[Q]
1
= [Q]
T
1
[Q]
T
0
[A]
0
[Q]
0
[Q]
1
)
4. i = j + 1
[A]
j+1
= [R]
j
[Q]
j
=[U], triangular superior.
[A]
j+1
= [Q]
T
j
[Q]
T
j1
[Q]
T
2
[Q]
T
1
[Q]
T
0
. .
[Q]
T
[A]
0
[Q]
0
[Q]
1
[Q]
2
[Q]
j1
[Q]
j
. .
[Q]
= [Q]
T
[A]
0
[Q]
j +1 [Q] Tende para a matriz dos autovetores [S] = [{}
1
{}
2
{}
N
]
5. Criterio de convergencia: A matriz [A]
j+1
tem que ser diagonal.
Usar teorema de Gerschgorin
_

_
Para K = 2 a N
RR(K) = 0
RR(K) =
K1

l=1
|a
il
| l = i
if RR(K) > , ainda nao convergiu.
Se RR(K) < K
i
= a
ii
(i = 1, 2, . . . , N) sao os autovalores.
[Q] = [Q]
0
[Q]
1
[Q]
2
[Q]
j1
[Q]
j
e a matriz dos autovetores.
85
Outra forma para vericar a convergencia:

N
K=2

K1
l=1
|a
Kl
| <
Observac ao: Se os autovalores forem complexos o algoritmo precisa ser modicado
para funcionar.
Se [A] for real, simetrica, j+1 [A]
j+1

_

1
.
.
.

N
_

_
=
_

_
.
.
.

.
.
.
_

_
Problema 5: Programar o algoritmo QR para [A] real simetrica.
Sada: [A], diagonal(
1
,
2
, ,
N
), [Q] (matriz dos autovetores).
Exemplos para verica cao:
1.
[A] =
_

_
6 4 4 1
4 6 1 4
4 1 6 4
1 4 4 6
_

_
_
_
_

1
= 1

2
=
3
= 5

4
= 15
2.
[A] =
_

_
5 4 1 1
4 5 1 1
1 1 4 2
1 1 2 4
_

_
_

1
= 10

2
= 5

3
= 2

4
= 1
3.
[A] =
_

_
1 1 1 1 1 1
1/2 1/3 1/4 1/5 1/6 1/7
1/3 1/4 1/5 1/6 1/7 1/8
1/4 1/5 1/6 1/7 1/8 1/9
1/5 1/6 1/7 1/8 1/9 1/10
1/6 1/7 1/8 1/9 1/10 1/11
_

_
_

1
= 2, 132376

2
= 0, 2214068

3
= 0, 0318433

4
= 0, 8983233 10
3

5
= 0, 1706278 10
4

6
= 0, 1394499 10
6
8.6.2 Metodo da potencia
Estimativa do maior autovalor (em modulo), ||
M aximo
., e do autovetor {x}
i
corre-
spondente.
[A]
NN
real, simetrica, com todos os autovalores reais e distintos.
|
1
| > |
2
| > |
3
| > > |
N
|
1. Dados: [A]
NN
, {x}
0
= {0} qualquer.
N
Max
= n umero maximo de iterac oes.
= criterio de convergencia.
{x}
0
=
{x}
0
{x}
0

2
={x}
0

2
= 1
86
2. i = 1
[A]{x}
0
= {x}
1
Normalizar {x}
1
: {x}
1
=
{x}
1
{x}
1

2
={x}
1

2
= 1
3. i = 2
[A]{x}
1
= {x}
2
Normalizar {x}
2
: {x}
2
=
{x}
2
{x}
2

2
={x}
2

2
= 1
4. i qualquer
[A]{x}
i1
= {x}
i
{x}
i
=
{x}
i
{x}
i

2
={x}
i

2
= 1
5. Criterio de convergencia:
{x}
i
{x}
i1

{x}
i

convergiu

1
{x}
T
i
[A]{x}
i
||
Maximo
= |
1
|
e {x}
i
e o autovetor correspondente.
Prova da convergencia:
[A]{x}
i
= {x}
i+1
{x}
i+1
=
{x}
i+1
{x}
i+1

(i + 1) ||
Maximo
{x}
i+1

{x}
i+1
{}, autovetor correspondente a ||
Maximo
[A] real, simetrica {}
T
i
{}
j
=
ij
87
1. {x}
0

2
= 1
{x}
0
=
1
{}
1
+
2
{}
2
+ +
N
{}
N
, {}
i
autovetores de [A], {}
i
=
1, 0
{x}
0

2
= 1 = {x}
T
0
{x}
0
= (
1
{}
1
+
2
{}
2
+ +
N
{}
N
)
T
(
1
{}
1
+
2
{}
2
+
+
N
{}
N
)
{x}
T
0
{x}
0
=
2
1
+
2
2
+ +
2
N
= 1, 0
2. i = 1
[A]{x}
0
= {x}
1
[A](
1
{}
1
+
2
{}
2
+ +
N
{}
N
) =
{x}
1
..

1
{}
1
+
2

2
{}
2
+ +
N

N
{}
N
{x}
1
=
1
_

1
{}
1
+
2

1
{}
2
+ +
N

1
{}
N
_
{x}
1

2
=
_
{x}
T
1
{x}
1
=
_
(
1

1
)
2
+ (
2

2
)
2
+ + (
N

N
)
2
= |
1
|
_

2
1
+
2
2
(

1
)
2
+ +
2
N
(

1
)
2
. .

1
{x}
1

2
=
1
|
1
|
{x}
1
=
{x}
1
{x}
1

=
1

1
_

1
{}
1
+
2
(

1
){}
2
+ +
N
(

1
){}
N
_
3. i = 2
[A]{x}
1
= {x}
2
=
1

1
_

1
{}
1
+
2
(

2
2

1
){}
2
+ +
N
(

2
N

1
){}
N
_
{x}
2
=
|
1
|

1
_

1
{}
1
+
2
(

1
)
2
{}
2
+ +
N
(

1
)
2
{}
N
_
{x}
2

2
=
|
1
|

1
_

2
1
+
2
2
(

1
)
4
+ +
2
N
(

1
)
4
. .

2
{x}
2
= |
1
|

1
{x}
2
=
{x}
2
{x}
2

=
1

2
_

1
{}
1
+
2
(

1
)
2
{}
2
+ +
N
(

1
)
2
{}
N
_
4. [A] = {x}
3
=
|
1
|

2
_

1
{}
1
+
2
(

1
)
3
{}
2
+ +
N
(

1
)
3
{}
N
_
{x}
3

2
= |
1
|

3
=
_

2
1
+
2
2
(

1
)
6
+ +
2
N
(

1
)
6
88
{x}
3
=
{x}
3
{x}
3

=
1

3
_

1
{}
1
+
2
(

1
)
3
{}
2
+ +
N
(

1
)
3
{}
N
_
5.
i
=
_

2
1
+
2
2
(

1
)
2i
+ +
2
N
(

1
)
2i
{x}
i
= |
1
|

i

i1
lim
i

i
=
1
ja lim
i
(

1
)
2i
= 0, dado que |
1
| > |
j
|
lim
i

i1
= 1
lim
i
{x}
i
= |
1
|
lim
i
{x}
i
={}
1

1
=lim
i
{x}
T
i
[A]{x}
i
8.7 Condicionamento do autosistema [A]{x} = {x}
(Referencia: [6], pg. 289-295)
8.7.1 Condicionamento dos autovalores
Teorema:
Seja [S] = [{x}
1
{x}
2
{x}
N
] a matriz dos autovetores, LI, e
1
,
2
, . . . ,
N
os auto-
valores de uma matriz [A]
NN
.
e {} sao aproxima coes de um autovalor e autovetor de [A].
{}

= 1 ( = 2, ou 1)
{r} = [A]{} {} = {0}, pois e {} sao aproxima coes.
Entao, ao menos um autovalor de [A] satisfaz,
|
i
| {r}
2
. [S] .
_
_
[S]
1
_
_
Se [S] for uma matriz unitaria: |
i
| = 1 (autovalores de [S])
Mnimo
i
|
i
| {r}
2
Teorema: [A]{x} = {x}
_

i
{x}
i
_
autovalores e autovetores.
Seja uma perturba cao [A] na matriz [A].
e um autovalor de [A] + [A].
{}, ({} = 1) e um autovetor correspondente a .
Entao ao menos um autovalor
i
de [A] satisfaz
89
|
i
| [A] . [S] .
_
_
[S]
1
_
_
Observa cao: 1) O condicionamento dos autovalores de [A] depende de c[S]
S
, n umero
de condi cao espectral de [S].
2) Se [S] for uma matriz unitaria, |
i
| [A]
2
= os autovalores de matrizes
[A] normais sao sempre bem condicionados ([6], pg. 294).
8.7.2 Condicionamento dos autovetores
De um modo geral, autovetores correspondentes a autovalores nao repetidos, bem sepa-
rados entre si, sao bem condicionados ( [6], pg. 295).
8.8 Forma quadratica de uma matriz [A]
NN
Denic ao: Seja [A]
NN
hermitiana.
A forma quadr atica de [A] e denida como,
Q({x}) = {x

}
T
[A]{x}
Teorema: Q({x}) e sempre real qualquer que seja {x}.
Teorema: Os autovalores de [A] hermitiana sao todos reais.
Se Q({x}) > 0 {x} = {0} [A] e positivo-denida.
Q({x}) 0 {x} = {0} [A] ca semi-positivo-denida.
Q({x}) < 0 {x} = {0} [A] ca negativo-denida.
Q({x}) 0 {x} = {0} [A] ca semi-negativo-denida.
Observac ao: Para [A]
NN
real, simetrica, Q({x}) = {x}
T
[A]{x}
Teorema: [A]
NN
real, simetrica e positivo-denida se e somente se:
(i) {x}
T
[A]{x} > 0, {x} = {0}
ou (ii) Todos os autovalores sao positivos (
i
> 0, i = 1, . . . , N)
ou (iii) Qualquer sub-matriz superior `a esquerda tem determinante po-
sitivo:
[A] =
_
[A]
K


_
|[A]
K
| > 0
90
Parte II
Segunda parte
91
Captulo 9
Metodos de resolucao de sistemas de
equac oes lineares
9.1 Classica cao de sistemas
Diversas classicacoes sao possveis, para os sistemas de equac oes, em func ao das carac-
tersticas da matriz de coecientes [A] e do vetor de termos independentes {b}.
A seguir e apresentada uma classicacao que sera utilizada para denir o metodo
numerico de resoluc ao mais adequado a cada caso.
Sistema: [A]
(MN)
{x}
(N1)
= {b}
(M1)
[A]
(MN)
matriz real, qualquer.
_

_
M = N
_
[A] = N Sistema determinado
[A] < N Sistema sub determinado
M > N Sistema super determinado ( [A] N)
M < N Sistema sub determinado ( [A] M)
{b} = 0 Sistemas homogeneos
Teorema de Rouche
[A]
(NN)
= P e [A
.
.
.{b}] = P

=
_
_
_
P = P

= N Sistema determinado
P = P

< N Sistema indeterminado


P = P

Sistema incompatvel
9.1.1 Sistemas determinados
[A]
(NN)
{x}
(N1)
= {b}
(N1)
|[A]| = 0
[A] = N
_
Solu cao unica: {x} = [A]
1
{b}
Numericamente e difcil de denir |[A]| = 0 ou [A] = N ( [A] = rank[A])
Exemplo:
93
[A]
(NN)
=
_

_
10
10
10
10
.
.
.
10
10
_

_
=|[A]| = (10
10
)
N
Se N = 10 |[A]| = 10
100
. Entretanto, [A] tem determinante = 0, apesar de
aparentemente desprezvel, e e bem condicionada (condicionamento otimo), pois c[A]
s
=
1, 0.
Metodos de resolucao
_

_
Diretos: Decomposic ao triangular (Gauss, Cholesky, Crout, Doolittle, etc...)
Decomposi cao QR, QL (por transforma cao unitaria (Givens, Householder))
Iterativos: Jacobi, Lanczos, Gauss-Seidel, Newton-Raphson, etc...
Gradientes conjugados.
Se o sistema e mal condicionado os metodos baseados em transforma c oes unitarias
(QR ou QL por exemplo) sao os recomendados.
Mal condicionamento c [A] > 10
6
> 10
8
> 10
10
Varia com o n umero de dgitos da
mantissa no computador
Sistemas mal condicionados onde se deseja grande precisao metodo SVD (decom-
posicao em valores singulares). (Inversa generalizada, pseudo-inversa).

E um metodo com-
putacionalmente muito custoso. Usualmente nao e utilizado em sistemas muito grandes.
9.1.2 Sistemas super-determinados
M > N
[A]
(MN)
{x}
(N1)
= {b}
(M1)
com M > N : M
_

_
_

_
A
_

_
. .
N
_
_
_
x
_
_
_
=
_

_
b
_

_
Metodos de resolucao
_
Para [A] = N = Recomendado o metodo QR ou QL.
Para [A] < N = SVD.
94
9.1.3 Sistemas sub-determinados
M < N ou [A] < N, para M, N qualquer.
[A] M M
_
_
_
_
_
A
_
_
. .
N
_

_
x
_

_
=
_
_
_
b
_
_
_
Metodos de resolucao:
Como [A] < N Sistema nao determinado Metodo SVD (decomposicao em valores
singulares, ou inversa generalizada ou pseudo-inversa)(Captulo 11).
9.1.4 Sistemas homogeneos
[A]
(NN)
{x}
(N1)
= {0}
(N1)
Metodos de resolucao
Se
_
[A] = N
|[A]| = 0
= Soluc ao unica trivial {x} = [A]
1
{0} = {0}
Se [A] < N = Elimina cao de Gauss, se as dependencias e independencias
lineares forem bem denidas.
= SVD se houver problema de condicionamento numerico.
9.2 Sistemas triangulares (determinados)
9.2.1 Denicao
Sistema triangular inferior:
_
_
[0]


_
_
_
_
_
x
_
_
_
=
_
_
_
b
_
_
_
[L]{x} = {b} ={x} = [L]
1
{b}
Sistema triangular superior:
_
_


[0]
_
_
_
_
_
x
_
_
_
=
_
_
_
b
_
_
_
95
[U]{x} = {b} ={x} = [U]
1
{b}
9.2.2 Sistema triangular inferior ([L])
_

_
l
11
l
21
l
22
[0]
l
31
l
32
l
33
.
.
.
.
.
.
.
.
.
.
.
.
l
N1
l
N2
l
N3
l
NN
_

_
_

_
x
1
x
2
x
3
.
.
.
x
N
_

_
=
_

_
b
1
b
2
b
3
.
.
.
b
N
_

_
Da primeira equac ao l
11
.x
1
= b
1
= x
1
= b
1
/l
11
Da segunda equac ao l
21
.x
1
+ l
22
.x
2
= b
2
= x
2
= (b
2
l
21
.x
1
)/l
22
Da terceira equac ao l
31
.x
1
+ l
32.
x
2
+ l
33.
x
3
= b
3
= x
3
= (b
3
l
31
.x
1
l
32
.x
2
)/l
33
Generalizando para a vari avel i temos, da i esima equac ao:
l
i1
.x
1
+ l
i2.
x
2
+ + l
ii.
x
i
= b
i
= x
i
= (b
i

i1

j=1
l
ij
.x
j
)/l
ii
i = 2, 3, ..., N
9.2.3 Sistema triangular superior ([U])
_

_
u
11
u
1,N2
u
1,N1
u
1,N
.
.
.
.
.
.
.
.
.
.
.
.
u
N2,N2
u
N2,N1
u
N2,N
[0] u
N1,N1
u
N1,N
u
N,N
_

_
_

_
x
1
.
.
.
x
N2
x
N1
x
N
_

_
=
_

_
b
1
.
.
.
b
N2
b
N1
b
N
_

_
Da ultima equacao u
N,N
.x
N
= b
N
= x
N
= b
N
/u
N,N
Da pen ultima equa cao u
N1,N1
.x
N1
+ u
N1,N
.x
N
= b
N1
=
x
N1
= (b
N1
u
N1,N
.x
N
)/u
N1,N1
Da equa cao anterior u
N2,N2
.x
N2
+ u
N2,N1
.x
N1
+ u
N2,N
.x
N
= b
N2
=
= x
N2
= (b
N2
u
N2,N1
.x
N1
u
N2,N
.x
N
)/u
N2,N2
Generalizando para a vari avel i temos:
u
Ni,Ni
.x
Ni
+ + u
Ni,N
.x
N
= b
Ni
= x
Ni
= (b
Ni

j=Ni+1
u
Ni,j
.x
j
)/u
Ni,Ni
i = 1, 2, 3, ..., N 1
96
ou, mudando os ndices:
x
i
= (b
i

j=i+1
u
i,j
.x
j
)/u
i,i
i = N 1, N 2, ..., 3, 2, 1
9.3 Armazenamento esparso
Utilizado para matrizes triangulares ou simetricas.
O armazenamento e feito na forma de vetor, por linhas ou colunas.
- Matriz Cheia:
Figura 9.1: Matriz triangular cheia.
- Matriz banda:
Figura 9.2: Matriz triangular em banda.
97
- Matriz skyline:
Figura 9.3: Matriz triangular sky-line.
9.3.1 Conversao de ndice
Para matriz triangular superior (i j) armazenada num vetor por colunas, o ndice de
um elemento no vetor, ij, pode ser calculado a partir do par de ndices correspondente `a
localizacao do mesmo elemento na matriz, (i, j), utilizando o seguinte tradutor de ndices:
ij = (j 1) j/2 + i i j
Figura 9.4: Convers ao de ndices de matriz para vetor.
98
Observacao: Um tradutor analogo e possvel para o armazenamento em banda e sky-
line.
Por exemplo para o armazenamento da banda superior, de largura nb, num vetor por
colunas, o ndice do vetor pode ser calculado utilizando o seguinte tradutor de ndices:
ij =
j(j1)
2
+ i j nb
ij =
nb(nb+1)
2
+ j (nb 1) nb
2
+ i j > nb
9.4 Sistemas determinados
[A]
(NN)
{x}
(N1)
= {b}
(N1)
; |[A]| = 0
9.4.1 Metodo de resolucao baseado na decomposicao QR:
Dados [A]
(NN)
, real, qualquer, nao singular, e {b}
(N1)
qualquer, obter {x}
(N1)
que
satisfaca [A]
(NN)
{x}
(N1)
= {b}
(N1)
1. Decomposicao QR: [A] = [Q].[R], onde
_
[Q] ortogonal ([Q]
T
[Q] = [Q][Q]
T
= [I])
[R] triangular superior.

E utilizado um processo de ortogonaliza cao, por exemplo o de Gram-Schmidt (captulo


5 ou referencia [5], pg. 24).
[A]
Gram

Schmidt
[Q] [R] = [Q]
T
[A]
2. {y} = [Q]
T
{b}
3. Resolver o sistema triangular superior [R] {x} = {y}
soluc ao
{x}
(N1)
Ressumindo os 3 passos descritos acima:
[A] {x} = {b} =[Q]
(NN)
.[R]
(NN)
{x}
(N1)
. .
{y}
= {b}
(N1)
[Q]{y} = {b}. Multiplicando por [Q]
T
: [Q]
T
[Q]
. .
[I]
{y} = [Q]
T
{b} {y} = [Q]
T
{b}
[R] {x} = {y} Sistema triangular superior:
_
_


[0]
_
_
_
_
_
x
_
_
_
=
_
_
_
y
_
_
_
Indicador de condicionamento:
[Q] e uma matriz ortogonal (teoricamente) c[Q] = 1
c[A] = c([Q].[R]) c[Q].c[R] = c[R]
c[R] =
|r
ii
|
Max
|r
jj
|
Min
_
Para sistemas diagonais ou triangulares e equivalente a c[A] =
||
Max
||
Min
_
.
99
Nos exemplos a seguir temos: |[L]| = 1 = Mal condicionado.
|[L]| = 10
10N
= Bem condicionado.
[L] =
_

_
10
10
10
10
[0]
10
10
.
.
.
.
.
.
.
.
.
.
.
.
10
10
_

_
(Bem condicionado)
[L] =
_

_
10
50
10
50
[0]
1
.
.
.
.
.
.
.
.
.
.
.
.
1
_

_
(Mal condicionado)
qualquer valor.
Programa 2: Programar a resolucao do sistema [A]{x} = {b}, usando a decomposic ao
QR e Gram-Schmidt modicado.
Exemplo para teste:
a
ij
=
_
d para i = j
1 para i = j
N = 10 [A] =
_

_
d 1 1 1
1 d 1 1
1 1 d 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 d
_

_
. .
10
_

_
10
_
_
_

i
= d 1 i = 1, 2, ..., N 1

N
= N + d 1
Testar para os dois casos seguintes:
Caso 1: d = 1, 1
i
= 1, 1 1 = 0, 1

N
= 10 + 1, 1 1 = 10, 1
{b} =
_

_
10, 1
10, 1
.
.
.
10, 1
_

_
c[A] = 10, 1 10
c[A] = 1, 01 10
2
Caso 2: d = 1, 00000001
i
= 1, 00000001 1 = 0, 00000001

N
= 10 + 1, 00000001 1 = 10, 00000001
{b} =
_

_
10, 00000001
10, 00000001
.
.
.
10, 00000001
_

_
c[A] = 1, 000000001 10
9
Calcular resduo para os dois casos.
100
9.4.2 Metodos de resolucao baseados em decomposicao trian-
gular (LU ou LDU)
[A]
(NN)
, real, qualquer, nao singular. Existe uma decomposic ao triangular LU tal que,
[A] = [L][U] =
_
_
[0]


_
_
_
_


[0]
_
_
[A] {x} = {b} =[L][U] {x}
. .
{y}
= {b} [L]{y} = {b}
[L]{y} = {b} e um sistema triangular inferior e possvel resolver para {y}.
[U] {x} = {y} e um sistema triangular superior e possvel resolver para {x}.
Decomposic ao CHOLESKY:
[L] =
_

_
[0]
.
.
.
.
.
.

_

_
[U] = [L]
T
=
_

_

.
.
.
.
.
.
[0]
_

_
A decomposicao de Cholesky e simples e bastante utilizada para sistemas simetricos
positivo-denidos de coecientes reais. Se a matriz [A] nao for simetrica, a matriz [L]
resultante e complexa.
Decomposic ao CROUT:
[L] =
_

_
[0]
.
.
.
.
.
.

_

_
[U] =
_

_
1
.
.
.
.
.
.
[0] 1
_

_
u
i,i
= 1, 0 i = 1, 2, ..., N
Decomposic ao de DOOLITTLE:
[L] =
_

_
1 [0]
.
.
.
.
.
.
1
_

_
[U] =
_

_

.
.
.
.
.
.
[0]
_

_
l
i,i
= 1, 0 i = 1, 2, ..., N
Decomposic ao triangular LDU:
[L] =
_

_
1 [0]
.
.
.
.
.
.
1
_

_
l
i,i
=1,0
[U] =
_

_
1
.
.
.
.
.
.
[0] 1
_

_
u
i,i
=1,0
[D] =
_

_
d
1,1
[0]
.
.
.
[0] d
N,N
_

_
d
i,j
=0 i=j
101
9.4.3 Decomposicao triangular de Cholesky
[A] =
_

_
a
11

a
21
a
22
Sim.
a
31
a
32
a
33

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
N1
a
N2
a
N3
a
NN
_

_
=
_

_
l
11
l
21
l
22
[0]
l
31
l
32
l
33
.
.
.
.
.
.
.
.
.
.
.
.
l
N1
l
N2
l
N3
l
NN
_

_
_

_
l
11
l
21
l
31
l
N1
l
22
l
32
l
N2
l
33
l
N3
[0]
.
.
.
.
.
.
l
NN
_

_
Igualando termo a termo, somente a metade inferior devido e simetria:
Primeira linha: l
2
11
= a
11
l
11
=

a
11
Segunda linha: l
21
l
11
= a
21
l
21
=
a
21
l
11
l
2
21
+ l
2
22
= a
22
l
22
=
_
a
22
l
2
21
Terceira linha: l
31
l
11
= a
31
l
31
=
a
31
l
11
l
31
l
21
+ l
32
l
22
= a
32
l
32
=
a
32
l
31
l
21
l
22
l
2
31
+ l
2
32
+ l
2
33
= a
33
l
33
=
_
a
33
l
2
31
l
2
32
i-esima linha: l
ij
=
a
ij

j1
P
k=1
l
ik
l
jk
l
jj
; j < i
l
ii
=

a
ii

i1

k=1
l
2
ik
9.4.4 Decomposicao triangular de Doolittle
[A] =
_

_
a
11
a
12
a
13
a
1N
a
21
a
22
a
23
a
2N
a
31
a
32
a
33
a
3N
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
N1
a
N2
a
N3
a
NN
_

_
=
_

_
1
l
21
1 [0]
l
31
l
32
1
.
.
.
.
.
.
.
.
.
.
.
.
l
N1
l
N2
l
N3
1
_

_
_

_
u
11
u
12
u
13
u
1N
u
22
u
23
u
2N
u
33
u
3N
[0]
.
.
.
.
.
.
u
NN
_

_
1
a
linha de [A]: a
11
= u
11
a
12
= u
12
a
1N
= u
1N
102
u
1j
= a
1j
j = 1, 2, ..., N
1
a
coluna de [A]: a
21
= l
21
u
11
l
21
= a
21
/u
11
a
31
= l
31
u
11
l
31
= a
31
/u
11
a
41
= l
41
u
11
l
41
= a
41
/u
11
.
.
.
a
N1
= l
N1
u
11
l
N1
= a
N1
/u
11
l
i1
= a
i1
/u
11
, i = 1, 2, ..., N
2
a
linha de [A]: a
22
= l
21
u
12
+ u
22
u
22
= a
22
l
21
u
12
a
23
= l
21
u
13
+ u
23
u
23
= a
23
l
21
u
13
a
24
= l
21
u
14
+ u
24
u
24
= a
24
l
21
u
14
.
.
.
a
2N
= l
21
u
1N
+ u
2N
u
2N
= a
2N
l
21
u
1N
u
2j
= a
2j
l
21
u
1j
j = 2, 3, ..., N
2
a
coluna de [A]: a
32
= l
31
u
12
+ l
32
u
22
l
32
= (a
32
l
31
u
12
)/u
22
a
42
= l
41
u
12
+ l
42
u
22
l
42
= (a
42
l
41
u
12
)/u
22
a
52
= l
51
u
12
+ l
52
u
22
l
52
= (a
52
l
51
u
12
)/u
22
.
.
.
a
N2
= l
N1
u
12
+ l
N2
u
22
l
N2
= (a
N2
l
N1
u
12
)/u
22
l
i2
= (a
i2
l
i1
u
12
)/u
22
i = 3, 4, ..., N
3
a
linha de [A]: a
33
= l
31
u
13
+ l
32
u
23
+ u
33
u
33
= a
33
l
31
u
13
l
32
u
23
a
34
= l
31
u
14
+ l
32
u
24
+ u
34
u
34
= a
34
l
31
u
14
l
32
u
24
a
35
= l
31
u
15
+ l
32
u
25
+ u
35
u
35
= a
35
l
31
u
15
l
32
u
25
.
.
.
a
3N
= l
31
u
1N
+ l
32
u
2N
+ u
3N
u
3N
= a
3N
l
31
u
1N
l
32
u
2N
u
3j
= a
3j

31

k=1
l
3k
u
kj
j = 3, 4, ..., N
103
3
a
coluna de [A]: Analogamente,
l
i3
= (a
i3

31

k=1
l
ik
u
k3
)/u
33
i = 4, 5, ..., N
Resumo:
_
u
1j
= a
1j
j = 1, 2, ..., N
l
i1
= a
i1
/u
11
i = 2, 3, ..., N (l
11
= 1)
Calcular alternadamente: (i e j = 2, 3, ..., N)
u
ij
= a
ij

i1

k=1
l
ik
u
kj
Para um determinado i
j = i, (i + 1), ..., N
l
ij
= (a
ij

j1

k=1
l
ik
u
kj
)/u
jj
Para um determinado j
i = (j + 1), (j + 2), ..., N
Observac ao: l
ii
= 1 i
Repetir para i = i + 1 e j = j + 1.
Nota: As formulas para CROUT podem ser obtidas da mesma forma.
9.5 Sistemas simetricos
[A]{x} = {b} com [A] = [A]
T
9.5.1 Cholesky
Ja foi visto na sec ao 9.4.3
9.5.2 Decomposicao de DOOLITTLE
Para sistemas simetricos, a decomposic ao de Doolittle resulta em:
[A] = [L][U] l
ii
= 1 i = 1, 2, ..., N
_

_
1 0 0
l
21
1 0
.
.
.
.
.
.
.
.
.
.
.
.
l
N1
l
N2
1
_

_
_

_
u
11
u
12
u
1N
0 u
22
u
2N
.
.
.
.
.
.
.
.
.
.
.
.
0 0 u
NN
_

_
[U] pode ser fatorada: [U] =
_

_
d
11
0 0
0 d
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 d
NN
_

_
_

_
1 u
12
u
1N
0 1 u
2N
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
= [D][U]
( d
ii
= u
ii
)
104
u
1j
= d
11
u
1j
j = 1, 2, ..., N
u
2j
= d
22
u
2j
j = 2, 3, ..., N
.
.
.
u
ij
= d
ii
u
ij
j = i, (i + 1), ..., N
_
[A] = [L][U] = [L][D][U]
Se [A] = [A]
T
[U] = [L]
T
_
=[A] = [L][D][L]
T
ou [U]
T
[D][U]
9.5.3 Decomposicao de CROUT:
Analogamente, partindo da decomposic ao de Crout obtem-se:
[A] = [L][U] onde u
ii
= 1, 0 i = 1, 2, ..., N
Nesse caso [L] e fatorado, [L] = [L][D]
Entao [A] = [L][D][U] [L] = [U]
T
[A] = [U]
T
[D][U]
Portanto para sistemas simetricos ([A] = [A]
T
):
[A] = [U]
T
[D][U] (a) [U] e a matriz de referencia.
ou
[A] = [L][D][L]
T
(b) [L] e a matriz de referencia.
9.5.4 Decomposicao de GAUSS (LDU):
A decomposicao de Gauss para sistemas simetricos recai no metodo de DOOLITTLE ou
CROUT simetricos. Para sistemas simetricos [L] = [U]
T
.
d
i
= d
ii
i = 1, 2, ..., N [D] =
_

_
d
1
d
2
.
.
.
d
N
_

_
_
d
1
= a
11
u
1j
= a
1j
/d
1
j = 1, 2, ..., N
Calcular alternadamente:
d
i
= a
ii

i1

k=1
u
ki
d
k
u
ki
u
ii
= 1 i
u
ij
= (a
ij

i1

k=1
u
ki
d
k
u
kj
)/d
i
i = 2, 3, ..., N j = (i + 1), (i + 2), ..., N
Programa 3: Programar a resoluc ao do sistema [A]{x} = {b}, usando a decomposicao
LU, para os mesmos sistemas do programa 2.
a
ij
=
_
d para i = j
1 para i = j
105
N = 10 [A] =
_

_
d 1 1 1
1 d 1 1
1 1 d 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 d
_

_
. .
10
_

_
10
_
_
_

i
= d 1 i = 1, 2, ..., N 1

N
= N + d 1
Testar para os dois casos citados anteriormente:
Caso 1: d = 1, 1
Caso 2: d = 1, 00000001
9.6 N umero de condicao
Para sistemas lineares [A]{x} = {b}, e possvel estimar o n umero de condicao c[A].
Observac ao: So determinante nao indica o condicionamento do sistema. Pode ocorrer
que um sistema com |[L]| = 1 seja mal condicionado.
Por exemplo, para sistemas triangulares: |[L]| =
N

i=1
l
ii
= l
11
.l
22
. . . . .l
NN
Se l
11
= 10
6
,
l
(2:N1),(2:N1)
= 1, l
NN
= 10
6
|L| = 1, mas o sistema e mal condicionado.
A seguir sao apresentadas formula c oes para metodos que utilizam a decomposic ao
triangular LU [3].
9.6.1 Estimativa de c[A]
Seja [A]
(NN)
real simetrica.
[A] = [U]
T
[D][U] [D] =
_

_
d
1
d
2
.
.
.
d
N
_

_
[U] =
_

_
1 u
12
u
1N
0 1 u
2N
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
Seja d
s
tal que |d
i
| |d
s
| i = 1, 2, ..., N d
s
e o valor maximo em modulo.
e seja d
r
tal que |d
r
| |d
i
| i = 1, 2, ..., N d
r
e o valor mnimo em modulo.
Portanto,
_
|d
s
| = Max(|d
i
|)
|d
r
| = Min(|d
i
|)
Uma estimativa de c[A] e dada por K,
K =
|d
s
|
|d
r
|
=
||
Max
||
Min
, ja visto.
106
9.6.2 Estimativa melhorada de K c[A]:
Seja {e}
r
=
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
Linha r de [D] correspondente a |d
r
|, (Min(|d
i
|))
{e}
s
=
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
Linha s de [D] correspondente a |d
s
|, (Max(|d
i
|))
Resolver o sistema triangular superior:
1. [U]{}
r
= {e}
r
{}
r
2. {}
s
= [U]
T
{e}
s
{}
s
3. Estimativa melhorada

K c[A]:

K = {}
r

E
. {}
s

E
.
K
..
_
|d
s
|
|d
r
|
_
Observacao:
{

}
s
=
{}
s
{}
s

E
e uma estimativa do autovetor de [A] correspondente a
N
(Max(||))
{

}
r
=
{}
r
{}
r

E
e uma estimativa do autovetor de [A] correspondente a
1
(Min(||))
Analogamente pode-se obter uma estimativa de c[A] para [A] nao simetrica e com
autovalores reais.
[A] = [L][D][U]
|d
s
| |d
i
| i = 1, 2, ..., N
|d
r
| |d
i
| i = 1, 2, ..., N
K =
|d
s
|
|d
r
|
c[A]
Estimativa melhorada:
107
[U]{}
r
= {e}
r
{}
r
{

}
r
=
{}
r
{}
r

E
[L]
1
{}
s
= {e}
s
{}
s
= [L]{e}
s
{

}
s
=
{}
s
{}
s

K = {}
r
. {}
s
.K K =
|d
s
|
|d
r
|
9.7 Sistemas de equac oes lineares: escalonamento
(balanceamento)
Seja o sistema de equac oes lineares [A]
(NN)
{x}
(N1)
= {b}
(N1)
9.7.1 Escalonamento diagonal (por coluna) para [A]{x} = {b}
[A]
c
= [A][D]
c
[D]
c
=
_

_
d
1
d
2
.
.
.
d
N
_

_
d
i
= inverso do elemento da coluna (i) de [A] com maior modulo:
d
i
=
1
Max
j
|a
ji
|
[A] = [A]
c
[D]
1
c
[A]
c
[D]
1
c
{x}
. .
{y}
= {b}
[A]
c
{y} = {b} {y}
[D]
1
c
{x} = {y} {x} = [D]
c
{y} =
_

_
y
1
d
1
y
2
d
2
.
.
.
y
N
d
N
_

_
9.7.2 Escalonamento diagonal (por linha) para [A]{x} = {b}
[A]
L
= [D]
L
[A] onde d
i
=
_
Max
j
|a
ji
|
_
1
[A] = [D]
1
L
[A]
L
[D]
1
L
[A]
L
{x} = {b}
108
[A]
L
{x} = [D]
L
{b}
. .
y
=
_

_
d
1
b
1
d
2
b
2
.
.
.
d
N
b
N
_

_
[A]
L
{x} = {y} {x}
9.7.3 Escalonamento diagonal (linha e coluna) para [A]{x} = {b}
[A]
LC
= [D]
L
[A]
. .
[A]
L
[D]
C
(d
i
)
L
=
_
Max
j
|a
ij
|
_
1
[A]
LC
= [A]
L
[D]
C
(d
i
)
C
=
_
Max
j
|a
ji
|
L
_
1
(|a
ji
|
L
da matriz ja escalonada por
linha)
[A] = [D]
1
L
[A]
LC
[D]
1
C
[D]
1
L
[A]
LC
[D]
1
C
{x}
. .
{y}
= {b}
[A]
LC
{y} = [D]
L
{b} {y}
[D]
1
C
{x} = {y} {x} = [D]
C
{y}
Exemplo:
[A] =
_
_
1 1 2 10
9
2 1 1 10
9
1 2 0
_
_
[A]
C
= [A][D]
C
[D]
1
C
=
_
_
2 0 0
0 2 0
0 0 2 10
9
_
_
[D]
C
=
_
_
0, 5 0 0
0 0, 5 0
0 0 0, 5 10
9
_
_
[A]
C
=
_
_
1 1 2 10
9
2 1 1 10
9
1 2 0
_
_
_
_
0, 5
0, 5
0, 5 10
9
_
_
=
_
_
0, 5 0, 5 1
1 0, 5 0, 5
0, 5 1 0
_
_
Resultados obtidos utilizando o comando cond do MATLAB:
cond([A]) = 1, 34 10
9
cond([A]
c
) = 2, 61
109
9.7.4 Metodos de obtencao de [D]
L
e [D]
C
(resumo)
[D]
1
=
_

_
d
1
d
2
.
.
.
d
N
_

_
(a) (d
i
)
L
= Max
j
|a
ij
| (i = 1, 2, ..., N) = obten cao de [D]
L
.
(d
i
)
C
= Max
j
|a
ji
| (i = 1, 2, ..., N) = obten cao de [D]
C
.
(b) d
i
=
_
N

j=1
a
2
ij
_
1/2
= obten cao de [D]
L
. (Equivalente e a norma euclidiana da linha
i).
d
i
=
_
N

j=1
a
2
ji
_
1/2
= obtenc ao de [D]
C
. (Equivalente `a norma euclidiana da coluna
i).
(c) -scaling
d
i
=
M
, onde e a base numerica do computador (normalmente sistema binario
= 2).
M e um n umero inteiro tal que

d
i


M
<

d
i
(

d
i
e obtido do metodo (a) ou (b))
Observac ao: o escalonamento nao produz erro de truncamento.
A multiplica c ao de um n umero (na base ) por uma potencia de nao afeta a mantissa
do n umero, so o expoente.
Nota: No escalonamento diagonal por coluna o vetor {b} pode ser balanceado simul-
taneamente.
Considerando novamente o problema [A] {x} = {b}:
Seja t o fator de escalonamento do vetor {b},
t =
1
Max
j
|b
j
|
ou t =
1
_
N

j=1
b
2
j
_
1/2
110
[A]
C
= [A][D]
C
= [A] = [A]
C
[D]
1
C
O sistema de equac oes torna-se
[A]
..
[A]
C
[D]
1
C
{x} = {b}
[D]
1
C
{x} = {y} [A]
C
{y} = {b}
Multiplicando tudo por t [A]
C
t{y}
..
{y}
= t{b} = {b}
{y} = t{y} = [A]
1
C
{b} {y} =
1
t
{y} [D]
1
C
{x} = {y} {x} = [D]
C
{y}
Exerccio: Resolver sistemas mal condicionados com e sem condicionamento, usando
{x} = [A]
1
{b}.
111
112
Captulo 10
Transforma c oes similares
As transforma c oes similares e especialmente as unitarias sao importantes, pois sao as bases
para in umeros algoritmos de resolucao de sistemas de equac oes lineares, de problemas de
autovalores e autovetores algebricos, etc...
Denicao: Considere-se a matriz [A]
(NN)
qualquer, e [M]
(NN)
nao singular. Pode-se
obter uma matriz [B]
(NN)
a partir de [A] e [M] tal que,
[B] = [M]
1
[A][M]
ou
[B] = [M][A][M]
1
As matrizes [A] e [B] sao chamadas similares e a transforma cao [A] [B] e chamada
transforma c ao similar.
Propriedade: - Os auto-valores de [A] e [B] sao os mesmos.
- Os auto-vetores sao, normalmente, distintos.
Demonstra cao:
- Relac ao entre os autovalores:
As equac oes caractersticas de [A] e [B] sao,
([A] [I]){x} = {0} (10.1)
([B] [I]){y} = {0} (10.2)
A soluc ao nao trivial para um sistema homogeneo e obtida da condicao,
|[A] [I]| = 0 e |[B] [I]| = 0 (10.3)
Por exemplo, considere-se a equac ao (10.3)
|[B] [I]| = P
B
(
N
) = 0 (polinomio caracterstico)

[M]
1
[A][M] [M]
1
[I][M]

[M]
1
([A] [I])[M]

[M]
1

. |[A] [I]| . |[M]| = |[A] [I]| = P


A
(
N
) = 0
113
Observar que |[M]
1
| e |[M]| cancelam ja que |[M]| . |[M]
1
| = 1, ou |[M]| =
1
|[M]
1
|
.
Portanto temos que:
P
B
(
N
) = |[B] [I]| = P
A
(
N
) = |[A] [I]| = 0
Como [A] e [B] possuem o mesmo polinomio caracterstico tambem possuem os mesmos
autovalores.
- Relacao entre os autovetores:
[A]{x} = {x}
[M][B][M]
1
{x} = {x} [B][M]
1
{x}
. .
{y}
= [M]
1
{x}
. .
{y}
[B]{y} = {y}
Portanto a relacao entre os autovetores e
{y} = [M]
1
{x} ou {x} = [M]{y}
10.1 Transforma cao unitaria
Denic ao: Se [M] e uma matriz unitaria entao a transforma cao,
[B] = ([M]

)
T
[A][M] ou [B] = [M][A]([M]

)
T
e chamada de transforma c ao unitaria.
Lembrete: Matriz unitaria e aquela que satisfaz ([M]

)
T
= ([M]
T
)

= [M]
1

([M]

)
T
.[M] = [M].([M]

)
T
= [I]
10.2 Transforma cao ortogonal
Denic ao: Se [M] for uma matriz unitaria real [M] e ortogonal e a transforma cao se
chama transforma cao ortogonal.
[M] ortogonal [M]
T
[M] = [M][M]
T
= [I] [M]
T
= [M]
1
Portanto as linhas e as colunas de [M] sao ortonormais entre si.
[B] = [M]
T
[A][M] ou [B] = [M][A][M]
T
114
10.3 Forma diagonal de uma matriz [A]
[A]
NN
possui uma forma diagonal quando existe uma matriz diagonal,
[] =
_

2
.
.
.

N
_

_
, similar.
Exemplo:
Seja [S]
NN
= [{x}
1
{x}
2
{x}
N
], a matriz cujas colunas sao os autovetores de [A].
[A]{x}
i
=
i
{x}
i
[A] [S] = [S] []
[A]
..
[{x}
1
{x}
2
{x}
N
] =
..
[{x}
1
{x}
2
{x}
N
]
_

2
.
.
.

N
_

_
Se os autovetores (colunas de [S]) forem LI [S] e nao singular e pode-se escrever
que,
[S]
1
[A][S] = []
Por denic ao, [A] e [] sao similares e a diagonal de [] constituda dos autovalores
de [A].
10.4 Propriedades e teoremas
Teorema: Se os autovalores de [A] sao distintos (
1
>
2
> >
N
), ent ao [A] e
diagonaliz avel (os autovetores sao LI).
Teorema: [A][S] = [S][] so acontece se [S] for a matriz dos autovetores de [A].
Propriedade: Nem toda matriz e diagonaliz avel, pois se houver autovalores repetidos pode
acontecer o caso em que os autovetores sao LD.
Propriedade: A matriz [S] nao e unica. Depende da normaliza cao dos autovetores.
([A]
i
[I]){x}
i
= {0}
Como {x}
i
e soluc ao de uma equacao homogenea innitas solu coes {x}
i
.
e comum normalizar {x}
j
{x}
j

= 1, no entanto a norma escolhida pode tambem


variar.
Teorema: Forma canonica de Schur (lema de Schur).
115
Para qualquer [A]
NN
, existe uma matriz [M] unitaria tal que
[M

]
T
[A][M] = [U] =
_

_
u
11
u
12
. . . u
1N
0 u
22
. . . u
2N
.
.
.
.
.
.
.
.
.
.
.
.
0 0 u
NN
_

_
([U] e triangular superior).
[A] e [U] sao similares.
Portanto os autovalores de [A] sao os elementos da diagonal principal de [U].

i
= u
ii
(i = 1, 2, . . . , N)
Se [A] for hermitiana [U] e diagonal.
Teorema: Toda matriz hermitiana ([A

]
T
= [A]) e diagonaliz avel.
(Os autovetores sao LI. Portanto toda matriz real simetrica ou imaginaria anti-simetrica
tem autovetores LI e e diagonalizavel).
Teorema: Toda matriz [A]
NN
hermitiana pode ser decomposta na forma,
[A] = [S][][S

]
T
(Decomposicao espectral)
Portanto seus autovetores podem ser ortogonalizados.
Teorema: Se [A]
NN
e hermitiana e [M]
NN
unitaria, ent ao [B] = [M

]
T
[A][M] tambem e
hermitiana.
([M]
H
[A][M])
H
= [M]
H
([M]
H
([A])
H
= [M]
H
[A]
H
[M] = [M]
H
[A][M]
Teorema: Se [M]
NN
e unitaria existe [S]
NN
unitaria tal que
[S

]
T
[M][S] =
_

2
.
.
.

N
_

_
|
i
| = 1 (i = 1, 2, . . . , N).
Portanto os autovetores podem ser ortonormalizados.
Teorema: Se [M]
NN
e ortogonal existe [S]
NN
ortogonal tal que
[S]
T
[M][S] =
_

2
.
.
.

N
_

_
,
i
= 1
116
Teorema: Se [N]
NN
e uma matriz normal ([N]
H
[N] = [N][N]
H
), entao existe [S]
NN
unitaria tal que
[S

]
T
[N][S] =
_

2
.
.
.

N
_

_
([4], pg.311 e pg. 315).
Portanto os autovetores podem ser ortonormalizados. Entao:
- Toda matriz normal e diagonaliz avel.
- Toda matriz unitaria e normal.
- Toda matriz hermitiana e normal.
- Toda matriz ortogonal e normal.
- Toda matriz ortogonal e unitaria.
- Toda matriz real simetrica e hermitiana.
- Toda matriz imaginaria anti-simetrica e hermitiana.
Exemplos de aplicacao:
1. Resoluc ao de sistemas de equac oes diferenciais
_
dx
dt
_
= [A]
NN
{x}
Seja a mudan ca de variavel {x} = [M]
NN
{v} onde [M] e nao singular.
_
dx
dt
_
= [M]
_
dv
dt
_
= [A][M]{v}

_
dv
dt
_
= [M]
1
[A][M]{v}
Se [M] = [S] e a matriz dos autovetores de [A] e [S] tem colunas LI
_
dv
dt
_
= []{v}
Obtem-se N equac oes diferenciais desacopladas.

2. Teste de convergencia de sistemas iterativos


Seja um Metodo iterativo linear: {u}
i+1
= [A]{u}
i
+{b}
Considere-se uma iterac ao linear exata: {u} = [A]{u} +{b}
onde {u} e o valor exato.
Subtraindo uma equac ao da outra, {u} {u}
i+1
. .
{ e}
i+1
= [A]({u} {u}
i
. .
{ e}
i
)
117
{ e}
i+1
, { e}
i
vetor dos erros.
Seja a transforma cao {u} = [M]{v} { e} = [M]{e}
[M]{e}
i+1
= [A][M]{e}
i
{e}
i+1
= [M]
1
[A][M]{e}
i
Se [M] = [S] e a matriz dos autovetores de [A] e [S] for LI, entao
[M]
1
[A][M] =
_

2
.
.
.

N
_

_
Se |
i
| < 1 o algoritmo converge para a solucao exata, pois o erro diminui em cada
itera cao.
10.5 Forma canonica de Jordan
Seja [A]
NN
, qualquer.
Se os autovetores de [A] [S] = [{}
1
{}
2
{}
N
] forem LI, ent ao [A] e diago-
nalizavel.
[S]
1
[A][S] = []
Se houver autovalores repetidos e autovetores LD [A] nao e diagonaliz avel.
Se houver s autovetores LI, s < N, existe [M]
NN
, tal que:gon
[J] = [M]
1
[A][M] =
_

_
[J]
1
[J]
2
.
.
.
[J]
s
_

_
(Forma canonica de Jordan).
onde
[J]
i
=
_

i
1 0 0
0
i
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
0 0 0
i
_

_
. .
r
_

_
r
Na equac ao anterior, r e o n umero de repeticoes do autovalor
i
cujos autovetores sao
LD.
118
Esta decomposic ao e unica.
Um
i
repetido pode aparecer em blocos diferentes.
Duas matrizes [A] e [B] sao similares se tiverem a mesma forma canonica de Jordan,
[J].
Os metodos numericos para se obter [J] nao sao muito estaveis com rela cao a uma
varia c ao [A] da matriz [A].
Exemplo de transforma cao ortogonal: Matriz de rotac ao
Denicao - Matriz de rotacao plana: [M] =
_
cos sin
sin cos
_
=
_
c s
s c
_
[M]
T
[M]

= [M][M]
T
= [I] [M] e uma matriz ortogonal.
_
c s
s c
_ _
c s
s c
_
=
_
(c
2
+ s
2
) 0
0 (c
2
+ s
2
)
_
=
_
1 0
0 1
_
= [I]
Pode ser construda uma matriz [M] de rota cao (N N):
[M] =
(i)
(j)
(i) (j)
_

_
[I]
.
.
. [0]
.
.
. [0]
c s
[0]
.
.
. [I]
.
.
. [0]
s c
[0]
.
.
. [0]
.
.
. [I]
_

_
Teorema: Se [M]
0
(NN)
e [M]
1
(NN)
sao ortogonais, [M]
2
= [M]
0
[M]
1
tambem e ortogonal:
[M]
T
2
[M]
2
= ([M]
0
[M]
1
)
T
([M]
0
[M]
1
) = [M]
T
1
[M]
T
0
[M]
0
. .
[I]
[M]
1
= [I]
10.6 Transforma cao de Householder
Seja [H]
(NN)
, real, simetrica, ortogonal obtida de,
[H] = [I]
2{v}{v}
T
{v}
2
E
{v}
(N1)
, real.
[H] e simetrica, pois [H]
T
= [H]:
[H]
T
=
_
[I]
2{v}{v}
T
{v}
2
E
_
T
= [I]
T

2
_
{v}
T
_
T
{v}
T
{v}
2
E
= [I]
2{v}{v}
T
{v}
2
E
= [H]
[H] e ortogonal, pois [H]
T
[H] = [H][H]
T
= [I]:
119
[H]
T
[H] =
_
[I]
2{v}{v}
T
{v}
2
E
_
T
_
[I]
2{v}{v}
T
{v}
2
E
_
= [I]
4{v}{v}
T
{v}
2
E
+
4{v}{v}
T
{v}{v}
T
{v}
4
E
= [I]
4{v}{v}
T
{v}
2
E
+
4{v}{v}
T
{v}
2
E
{v}
4
E
= [I]
Propriedade da transforma c ao de Householder:
Seja {x}
(N1)
qualquer.
[H]
(NN)
= [I]
2{v}{v}
T
{v}
2
E
, onde {v} = {x} + {Z}
= {x}
E
{Z} =
_

_
0
.
.
.
1
.
.
.
0
_

_
i-esima linha.
ent ao
[H]{x} = {Z} =
_

_
0
.
.
.

.
.
.
0
_

_
i-esima linha.
a transforma c ao zera o vetor {x} com excec ao da linha (i).
Portanto [H]{x}
E
= {x}
E
= (as matrizes ortogonais preservam as normas dos
vetores).
Exerccio: Mostrar que [H]{x} = {Z}.
10.7 Decomposicao QR usando a transforma cao de
Householder
Seja [A]
0
(NN)
real, qualquer, nao singular.
120
Decomposic ao QR: [A]
0
(NN)
= [Q]
(NN)
[R]
(NN)
onde [Q] e uma matriz ortogonal ([Q]
T
[Q] =
[I] [Q]
T
= [Q]
1
) e [R] e triangular superior.
Se [A]
0
(MN)
, M N, [A]
0
(MN)
= [Q]
(MM)
[R]
(MN)
e [Q]
(MM)
T
[Q]
(MM)
= [I]
(MM)
Dado:
[A]
0
(MN)
= [{a}
0
1
{a}
0
2
{a}
0
N
]
Constroi-se,
[H]
0
(MM)
= [I]
(MM)

2{v}
0
({v}
0
)
T
{v}
0

2
E
onde {v}
0
(M1)
= {a}
0
1
(M1)
+
0
{z}
0
(M1)

0
= {a}
0
1
e {z}
0
=
_

_
1
0
.
.
.
0
_

_
Transforma c ao,
[A]
1
(MN)
= [H]
0
(MM)
[A]
0
(MN)
[A]
1
=
_

0

0
.
.
. {a}
1
2
{a}
1
3
.
.
.
{a}
1
N
0
_

_
{a}
1
2
(M1)1
2
a
coluna a partir do a
22
.
Constroi-se,
[

H]
1
(M1)(M1)
= [I]
2{v}
1
({v}
1
)
T
{v}
1

2
onde {v}
1
(M1)1
= {a}
1
2
+
1
{z}
1

1
= {a}
1
2
e {z}
1
=
_

_
1
0
.
.
.
0
_

_
[H]
1
(MM)
=
_

_
1 0 0
0
.
.
. [

H]
1
(M1)(M1)
0
_

_
Transforma c ao,
[A]
2
(MN)
= [H]
1
(MM)
[A]
1
(MN)
= [H]
1
[H]
0
[A]
0
. .
[A]
1

121
[A]
2
=
_

0

0
1

0 0
.
.
.
.
.
. {a}
2
3
{a}
2
4
.
.
.
{a}
2
N
0 0
_

_
Constru c ao:
[

H]
2
(M2)(M2)
= [I]
2{v}
2
({v}
2
)
T
{v}
2

2
onde {v}
2
(M2)1
= {a}
2
3
+
2
{z}
2

2
= {a}
2
3
e {z}
2
=
_

_
1
0
.
.
.
0
_

_
[H]
2
=
_

_
1 0 0 0
0 1 0 0
0 0
.
.
.
.
.
. [

H]
2
0 0
_

_
Transforma cao:
[A]
3
(MN)
= [H]
2
(MM)
[A]
2
(MN)
= [H]
2
[H]
1
[H]
0
[A]
0
[A]
3
=
_

0

0
1

0 0
2

0 0 0
.
.
.
.
.
.
.
.
. {a}
3
4
{a}
3
5
.
.
.
{a}
3
N
0 0 0
_

_
Fazendo sucessivas transforma c oes:
[A]
N1
(MN)
= [H]
N2
[H]
N3
[H]
1
[H]
0
. .
[Q]
T
(MM)
[A]
0
(MN)
= [R]
(MN)
[Q]
T
(MM)
[A]
0
(MN)
= [R]
(MN)
Pre-multiplicando por [Q] [Q][Q]
T
[A]
0
= [Q][R] [A]
0
= [Q][R]
Observac ao: Foi utilizado o teorema que mostra que qualquer produto de matrizes
ortogonais resulta em uma matriz ortogonal.
Portanto [Q] = [H]
0
[H]
1
[H]
N3
[H]
N2
e ortogonal [Q]
T
= [Q]
1
[Q][Q]
T
=
[I]
Aplicando este resultado na expressao anterior [I][A]
0
= [Q][R] [A]
0
(MN)
= [Q]
(MM)
[R]
(MN)
122
Para efeito computacional pode-se mostrar que: [A]
0
(MN)
= [Q]
(MN)
[R]
(NN)
, onde foram
eliminadas as ultimas colunas de [Q] e as linhas de [R] abaixo da linha N.
10.8 Aplica c oes da decomposicao QR
10.8.1 Resolucao de sistemas super-determinados
Exemplo: Ajuste linear por mnimos quadrados (Resolucao de um sistema de equac oes
lineares superdeterminado).
[A]
(MN)
{x}
(N1)
= {b}
(M1)
M N
Figura 10.1: Interpolac ao por mnimos quadrados.
y(x) = ax
2
+ bx + c = M medidas
_

_
y
1
= ax
2
1
+ bx
1
+ c
y
2
= ax
2
2
+ bx
2
+ c
y
3
= ax
2
3
+ bx
3
+ c
.
.
.
y
M
= ax
2
M
+ bx
M
+ c
Matricialmente,
123
_

_
x
2
1
x
1
1
x
2
2
x
2
1
x
2
3
x
3
1
.
.
.
.
.
.
.
.
.
x
2
M
x
M
1
_

_
_
_
_
a
b
c
_
_
_
=
_

_
y
1
y
2
y
3
.
.
.
y
M
_

_
[A]
(MN)
{x}
(N1)
= {b}
(M1)
M N
Denic ao: Vetor dos resduos {r}
(M1)
= [A]
(MN)
{x}
(N1)
{b}
(M1)
{x} =
_

_
x
1
x
2
.
.
.
x
N
_

_
Quando M = N e [A]
(NN)
e nao singular soluc ao unica:
{x} = [A]
1
{b}
e {r} = {0} (solu cao exata).
Quando M > N geralmente {r} > 0 para qualquer {x} nao nulo.
{r} = [A]{x} {b}
Funcao erro: E = {r}
2
2
= {r}
T
{r}
Mnimos quadrados minimizar E = minimizar {r}
T
{r}
E = {r}
T
{r} = ([A]{x} {b})
T
([A]{x} {b})
= {x}
T
[A]
T
[A]{x} 2{x}
T
[A]
T
{b} +{b}
T
{b}
Condic ao de mnimo de E
_
E
x
i
_
=
_

_
E
x
1
E
x
2
.
.
.
E
x
N
_

_
= {0},
_
E
x
i
_
= E = 2[A]
T
[A]{x} 2[A]
T
{b} = {0}
[A]
T
(NM)
[A]
(MN)
{x}
(N1)
= [A]
T
(NM)
{b}
(M1)
Portanto a solucao por mnimos quadrados e
{x}
(N1)
= ([A]
T
[A]
. .
(NN)
)
1
[A]
T
(NM)
{b}
(M1)
124
Solu cao por decomposic ao QR:
[A]
(MN)
{x}
(N1)
= {b}
(M1)
M N
[A]
(MN)
= [Q]
(MN)
[R]
(NN)
=[Q][R]{x} = {b}
Pre-multiplicando por [Q]
T
[Q]
T
[Q]
. .
[I]
[R]{x} = [Q]
T
{b}
[R]{x} = [Q]
T
{b} = {x} = [R]
1
[Q]
T
{b}
Solu cao por mnimos quadrados:
{x} = ([A]
T
[A])
1
[A]
T
{b} = ([R]
T
[Q]
T
[Q]
. .
[I]
[R])
1
[R]
T
[Q]
T
{b}
= ([R]
T
[R])
1
[R]
T
[Q]
T
{b} = [R]
1
[R]
T
[R]
T
. .
[I]
[Q]
T
{b}
{x} = [R]
1
[Q]
T
{b}
Portanto a soluc ao por decomposicao QR e solucao mnimos quadrados.
10.9 Forma de Hessenberg
Seja [A]
NN
real, qualquer.
[A]
0
= [{a}
1
{a}
2
{a}
N
]
Construir [H]
0
:
Seja [

H]
0
(N1)(N1)
= [I]
2{v}{v}
T

2
0
{v} = {a}
0
1
+
0
{z}
0
{a}
0
1
1
a
coluna de [A]
0
a partir da 2
a
linha: {a}
0
1
=
_

_
a
21
a
31
.
.
.
a
N1
_

_
0
1

0
= {a}
0
1

{z}
0
=
_

_
1
0
.
.
.
0
_

_
125
[H]
0
(NN)
=
_

_
1 0 0
0
.
.
. [

H]
0
(N1)(N1)
0
_

_
[A]
1
= [H]
0
[A]
0
[H]
0
=
_

_
a
11
a
12
a
13
a
1N

0

0
.
.
. {a}
1
2
{a}
1
3
.
.
.
{a}
1
N
0
_

_
_
[A]
0
e [A]
1
sao
matrizes similares.
_
Montar [H]
1
[H]
1
=
_

_
1 0 0 0
0 1 0 0
0 0
.
.
.
.
.
. [

H]
1
(N2)(N2)
0 0
_

_
[

H]
1
(N1)(N1)
= [I]
2{v}
1
{v}
T
1

2
1
[ v]
1
= {a}
1
2
+
1
{z}
1
, onde:
{a}
1
2
=
_

_
a
32
a
42
.
.
.
a
N2
_

_
1
;
1
= {a}
1
2
e {z}
1
=
_

_
1
0
.
.
.
0
_

_
[A]
2
= [H]
1
[A]
1
[H]
1
= [H]
1
[H]
0
[A]
0
[H]
0
[H]
1
[A]
2
=
_

_
a
11
a
12
a
13
a
14
a
1N

0

0
1

0 0
.
.
.
.
.
. {a}
2
3
{a}
2
4
.
.
.
{a}
2
N
0 0
_

_
E assim sucessivamente, ate
126
[A]
H
= [A]
N3
= [H]
N4
[A]
N4
[H]
N4
=
_

_
.
.
.

0
.
.
.

1
.
.
.

2
.
.
.

.
.
.
[0]
N4
.
.
.

.
.
.

_

_
_
Forma de
Hessenberg
_
Se [A]
0
(NN)
for simetrica, a forma de Hessenberg e
tri-diagonal, simetrica e similar
=
Aplica cao: Em vez de calcular os autovalores/autovetores de uma matriz [A]
0
nao
esparsa utiliza-se [A]
H
tri-diagonal ou quase-triangular economia de operac oes,
principalmente se o sistema de resolucao empregado for iterativo.
127
128
Captulo 11
Pseudo-inversa e decomposicao em
valores singulares
Denic ao: Dada uma matriz [A]
MN
qualquer (M >, = ou < N), dene-se como inversa generalizada
(pseudo-inversa ou inversa de Moore-Penrose) de [A], a matriz [A]
+
NM
que satisfaz as
condic oes:
1. [A]
MN
[A]
+
NM
[A]
MN
= [A]
MN
2. [A]
+
NM
[A]
MN
[A]
+
NM
= [A]
+
NM
3. [A] [A]
+
e [A]
+
[A] sao matrizes hermitianas, isto e
(a) ([A][A]
+
)
T
= [A] [A]
+
(b) ([A]
+
[A])
T
= [A]
+
[A]
Obs.: Se [A] for real, ([A][A]
+
)
T
= [A] [A]
+
e ([A]
+
[A])
T
= [A]
+
[A] (Simetricas).
4. [A]
+
e uma matriz unica.
Observac ao: Resultado dos trabalhos publicados por Eliakim Hastings Moore (1920)
[11] e Roger Penrose (1955) [12].
Aplica coes importantes:
Analise numerica.
Analise funcional.
Estatstica matematica.
129
11.1 Decomposicao em valores singulares - SVD
(Singular Value Decomposition)
Teorema: Seja [A]
MN
uma matriz qualquer (M >, = ou < N), real ou complexa.
Existe uma decomposicao unica, [A]
MN
= [U]
MM
[]
MN
[V

]
T
NN
, onde:
1. [U]
MM
e [V ]
NN
sao unitarias: ([U

]
T
[U] = [U][U

]
T
= [I])
([V

]
T
[V ] = [V ][V

]
T
= [I])
Observac ao: Se [A] for real, [U] e [V ] sao ortogonais.
2. As colunas de [U]
MM
sao autovetores de [A]
(MN)
[A

]
T
(NM)
3. As colunas de [V ]
NN
sao autovetores de [A

]
T
(NM)
[A]
(MN)
4. []
MN
=
M
_

_
..

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
M

0
0
.
.
.
0


.
.
.

0
0
.
.
.
0
. .
_

_
_

_
M
N
se M < N
ou []
MN
=
_

_
N
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
N
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
. .
_

_
_

_
N
M se M > N
onde
i
= +

i
i = 1, 2, . . . , M para M < N
i = 1, 2, . . . , N para M > N

i
sao os autovalores (reais) de [A

]
T
(NM)
[A]
(MN)
para N M, ou [A]
(MN)
[A

]
T
(NM)
para M N.

i
0 sao reais pois [A

]
T
[A] ou [A][A

]
T
sao hermitianas.
Os
i
sao os valores singulares de [A]
(MN)
.
Demonstra c ao de 2. e 3.: as colunas de [U] e [V ] sao autovetores de [A][A

]
T
e [A

]
T
[A]
respectivamente.
130
Seja [A]
(MN)
real; [U]
MM
e [V ]
NN
sao ortogonais.
[A]
(MN)
= [U]
(MM)
[]
(MN)
[V ]
T
(NN)
, [A]
T
(MN)
= [V ]
(NN)
[]
T
(NM)
[U]
T
(MM)
Demonstra cao de 2.
[A]
(MN)
[A]
T
(NM)
= [U][][V ]
T
[V ]
. .
[I]
[]
T
[U]
T
= [U] [][]
T
. .
2
6
6
6
6
6
6
6
4

1
0

2
.
.
.
0
M
3
7
7
7
7
7
7
7
5
[U]
T
Pos-multiplicando por [U]:
[([A][A]
T
)[U] =
_

1
0

2
.
.
.
0
M
_

_
[U] [U] e a matriz dos autovetores de ([A][A]
T
).
Analogamente, demonstrac ao de 3.
[A]
T
(NM)
[A]
(MN)
= [V ][]
T
[U]
T
[U]
. .
[I]
[][V ]
T
= [V ][]
T
[]
. .
[]
[V ]
T

[V ]
T
([A]
T
[A])[V ] =
_

1
0

2
.
.
.
0
N
_

_
[V ] e a matriz dos autovetores de
([A]
T
[A]).
131
11.1.1 Armazenamento computacional
M > N :
[A]
(MN)
= [U]
(MM)
[]
(MN)
[V ]
T
(NN)
_

_
_

_
=
_

_
_

_
_

1
0

2
.
.
.
0
N
[0]
_

_
_

_
_

_
M
N
_

_
_

_
= M
N
_

_
_

_
N
N
_

1
0

2
.
.
.
0
N
_

_
N
N
_

_
_

_
M < N :
[A]
(MN)
= [U]
(MM)
[]
(MN)
[V ]
T
(NN)
_
_
_
_
=
_
_
_
_
_

1
0
.
.
.
[0]
0
M
_

_
_

_
_

_
M
N
_
_
_
_
= M
M
_
_
_
_
M
M
_

1
0
.
.
.
0
M
_

_
M
N
_
_
_
_
11.2 Algumas aplica coes
11.2.1 Calculo da pseudo-inversa
[A]
(MN)
[A]
+
(NM)
Hipotese:
M > N

E utilizado armazenamento computacional.


[A] real.
132
[A]
(MN)
= [U]
(MM)
[]
(MN)
[V ]
T
(NN)
onde [] =
_

2
.
.
.

N
_

_
Teorema: A pseudo-inversa de [A] e dada por
[A]
+
(NM)
= [V ]
(NN)
[]
+
(NM)
[U]
T
(MM)
, onde:
[]
+
=
_

+
1

+
2
.
.
.

+
N
_

_
=
_

_
1/
1
1/
2
.
.
.
1/
N
_

+
i
=
1

i
se
i
> 0

+
i
= 0 se
i
= 0
[][]
+
= [I] se nao houver
i
= 0, ja que
i

+
i
= 1
i
= 0.
Propriedades da inversa generalizada:
1. [A][A]
+
[A] = [A]
[U][][V ]
T
[V ]
. .
[I]
[]
+
[U]
T
[U]
. .
[I]
[][V ]
T
= [U][][]
+
. .
[I]
[][V ]
T
= [U][][V ]
T
= [A]
Observac ao: O teste nao funciona numericamente se houver algum valor singular
nulo,
i
= 0.
Analogamente pode-se vericar que,
2. [A]
+
[A][A]
+
= [A]
+
[V ][]
+
[U]
T
[U]
. .
[I]
[][V ]
T
[V ]
. .
[I]
[]
+
[U]
T
= [V ][]
+
[]
. .
[I]
[]
+
[U]
T
= [V ][]
+
[U]
T
= [A]
+
3. (a) ([A][A]
+
)
T
= [A][A]
+
= [I]
([U][][V ]
T
[V ]
. .
[I]
[]
+
[U]
T
)
T
= ([U][][]
+
. .
[I]
[U]
T
= [U][U]
T
= [I] (para [A] real).
(b) Analogamente verica-se que,
([A]
+
[A])
T
= [A]
+
[A] = [I]
([V ][]
+
[U]
T
[U]
. .
[I]
[][V ]
T
)
T
= ([V ][V ]
T
)
T
= [I]
133
11.2.2 Decomposicao polar
Seja [A]
(NN)
qualquer.
Tese: Existe uma decomposicao unica na forma,
[A]
(NN)
= [U]
(NN)
[S]
(NN)
onde
[U] e unitaria e
[S] e hermitiana
_
positivo-denida se [A] for nao singular.
semi-positivo-denida se [A] for singular.
Nota: Se [A] for real [U] = [Q] ortogonal e
[S] e real e simetrica.
Exemplo: [A]
(NN)
real [A] = [U][][V ]
T
.
Como [V ]
T
[V ] = [I] ([V ] e ortogonal)
[A] = [U][V ]
T
. .
[Q] ortogonal
[S]
..
[V ][][V ]
T
= [Q][S]
[S] simetrica e no maximo semi-positivo denida, pois
i
0.
Teorema: Existe uma decomposic ao polar reversa.
[A] = [U][][V ]
T
= ([U][][U]
T
. .
[

S]
)([U][V ]
T
. .
[

Q]
) = [

S][

Q], com
_
[

S] simetrica
[

Q] ortogonal
11.2.3 Resolucao de sistemas de equac oes
Sistemas homogeneos
[A]
(NN)
{x} = {0}
Se |[A]| = 0 solu cao trivial unica {x} = [A]
1
{0} = {0}
Se |[A]| = 0 um (ou mais) auto-valor nulo.
solu cao nao trivial.
134
[A]
(NN)
= [U]
(NN)
[]
_

2
.
.
.

r
0
.
.
.
0
_

_
[V ]
T
(NN)

i
> 0 i r

i
= 0 i = (r + 1), . . . , N
(11.1)
[U] = [{u}
1
{u}
2
{u}
N
]
[V ] = [{v}
1
{v}
2
{v}
N
]
Pos multiplicando (11.1) por [V ],
[A] [V ] = [A] [{v}
1
{v}
N
] = [U] [] [V ]
T
[V ]
. .
[I]
= [{u}
1
{u}
N
]
_

1
.
.
.

r
0
.
.
.
0
_

_
Portanto
[A]{v}
1
=
1
{u}
1
[A]{v}
2
=
2
{u}
2
.
.
.
[A]{v}
i
=
i
{u}
i
i = 1, 2, . . . , r
[A]{v}
j
= {0} j = (r + 1), (r + 2), . . . , N
{v}
j
, j = (r + 1), (r + 2), . . . , N solu coes independentes de [A] {x} = {0}.
Analogamente pode-se achar a soluc ao de [A]
T
{y} = {0}:
Dado,
[A] = [U] [] [V ]
T
(11.2)
Pre-multiplicando (11.2) por [U]
T
,
[U]
T
[A] = [U]
T
[U]
. .
[I]
[] [V ]
T
(11.3)
Transpondo (11.3),
135
([U]
T
[A])
T
= [A]
T
[U] = [V ] []
[A]
T
[{u}
1
{u}
2
{u}
N
] = [{v}
1
{v}
2
{v}
N
]
_

2
.
.
.

r
0
.
.
.
0
_

_
[A]
T
{u}
1
=
1
{v}
1
[A]
T
{u}
2
=
2
{v}
2
.
.
.
[A]
T
{u}
i
=
i
{v}
i
i = 1, 2, . . . , r
[A]
T
{u}
j
= {0} j = (r + 1), (r + 2), . . . , N
{u}
j
, j = (r + 1), (r + 2), . . . , N solu coes independentes de [A]
T
{y} = {0}.
11.2.4 Sistemas nao homogeneos
[A]
NN
{x} = {b}
{x}
+
= [A]
+
{b} = [V ][]
+
[U]
T
{b}
{x}
+
=
_
_
| | |
| | |
| | |
_
_
_

_
1/
1
1/
2
.
.
.
1/
N
_

_
_
_



_
_
{b}
Como
i
> 0, se [A]
NN
e nao singular, nao ha problema com
1

i
> 0. Para [A] singular,
dene-se
1

i
= 0 para
i
= 0.
Notas:
Utilizar SVD so se o sistema for muito mal condicionado (ou se |[A]| = 0).
Alto custo computacional se a ordem do sistema for alta.
{x}
+
e tal que minimiza [A] {x} {b}
2
(e equivalente a mnimos quadrados).
11.2.5 Sistemas retangulares
[A]
MN
real; [A]
MN
{x}
N1
= {b}
M1
Solu c ao usando pseudo inversa:
136
{x}
+
N1
= [A]
+
NM
{b}
M1
a) [A]
MN
= [U]
MN
[]
NN
[V ]
T
NN
M > N
{x}
+
= [V ]
NN
[]
+
NN
[U]
T
NM
{b}
M1
M > N
b) [A]
MN
= [U]
MM
[]
MM
[V ]
T
MN
M < N
{x}
+
= [V ]
NM
[]
+
MM
[U]
T
MM
{b}
M1
M < N
Notas:
{x}
+
minimiza [A] {x} {b}
2
.
No caso a), M > N, {x}
+
e soluc ao do problema de mnimos quadrados. Nesse
caso, para N grande, utilizar SVD so se houver problema de mau condicionamento.
No caso M < N (ou M = N mas [A] singular) o sistema e consistente
{b}
T
1M
{y}
M1
= 0 {y}
M1
tal que [A]
NM
T
{y}
M1
= {0}
11.2.6 Algoritmo SVD
(De Golub & Reinsch, 1970 [13]).
1. Transforma cao de [A]
MN
real numa matriz [J]
0
MN
, bi-diagonal superior.
[A] = M
_

_
_

_
| | |
| | |
| | |
| | |
_

_
. .
N
[J]
0
=
_

_
.
.
.
.
.
.
[0]
.
.
.
.
.
.
[0]
.
.
.
[0]
_

_
. .
N
_

_
M
[A] = M
_
_
_
_
_



_
_
. .
N
[J]
0
=
_

_
.
.
.
.
.
.
[0]
.
.
.
.
.
.
[0]
[0]
.
.
.
_

_
. .
N
_
_
_
M
[A]
MN
= [P]
MM
[J]
0
MN
[Q]
T
NN
[J]
0
MN
= [P]
T
MM
[A]
MN
[Q]
NN
137
onde [Q] e [P] sao matrizes de transforma cao ortogonais (usando Householder)
Teorema: Os valores singulares de [A] e [J]
0
sao os mesmos.
2. Obtido [J]
0
aplica-se algum metodo para diagonalizar [J]
T
0
[J]
0
ou [J]
0
[J]
T
0
.
[J]
T
0
_

_
.
.
.
.
.
.
.
.
.
[0]
.
.
.
.
.
.
_

_
NM
[J]
0
_

_
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
[0]
_

_
MN
=
_

_
.
.
.
.
.
.
[0]
.
.
.
.
.
.
.
.
.
[0]
.
.
.
.
.
.
_

_
NN
(tri-diagonal, simetrica).
Dos autovalores
i
de [J]
T
0
[J]
0
,
i
0 calculam-se os
i
=

i
(i = 1, . . . , N).
[J]
0
MN
= [G] [] [H]
T
onde
_
[G] matriz dos autovetores de [J]
0
[J]
T
0
[H] matriz dos autovetores de [J]
T
0
[J]
0
3. [A]
MN
= [U] [] [V ]
T
onde
_
[U] = [P] [G]
[V ] = [Q] [H] [H]
T
[Q]
T
= [V ]
T
138
Captulo 12
Integradores lineares para problemas
de primeira ordem.
12.1 Introducao
Dado
dy(t)
dt
= f(y, t) com a condic ao inicial y(t
0
) = y
0
calcular y(t) para t [t
0
, t
f
].
Nota: y
0
e f(y, t) sao dados do problema. Se f(y) for nao linear a equa cao diferencial
e nao-linear.
Nota cao:
_
_
_
y
0
= y(t
0
)
f
0
= f(y
0
, t
0
)
y
0
=
dy(t
0
)
dt
= f
0
_
_
_

_
_
_
y
i
= y(t
i
)
f
i
= f(y
i
, t
i
)
y
i
=
dy(t
i
)
dt
= f
i
_
_
_
Supoe-se o tempo discretizado em varios instantes, t
0
< t
1
< t
2
< . . . < t
i
< t
i+1
<
. . . < t
N
, e conhecida a funcao f(y, t).
H
i1
= t
i
t
i1
e o passo de integra c ao.
Se H
i
for constante, t
N
= t
0
+ NH.
12.2 Integradores lineares de um passo
y
N+1
= H[
1
f(y
N+1
, t
N+1
) +
2
f(y
N
, t
N
)]
Nesse caso, para se obter y
N+1
= y(t
N+1
), utilizam-se os dados do passo anterior t
N
,
(y
N
e f(y
N
, t
N
)).
Se
1
= 0 y
N+1
= H
2
f(y
N
, t
N
)
O integrador e chamado explcito. (y
N+1
e obtido explicitamente qualquer que seja a
forma da funcao f(y, t)).
Se
1
= 0 integrador implcito.
12.2.1 Integradores explcitos (
1
= 0)
Exemplo: Integrador de Euler para frente (forward Euler).
139
Proposto por Euler para resolver o problema da Brachistocrona
1
, e tem como funda-
mento a expansao em serie de Taylor truncada na primeira ordem (aproxima c ao linear).
y
N+1
= y
N
+ Hf(y
N
, t
N
) (nesse caso
2
= (
y
N
Hf
N
+ 1))
Figura 12.1: Integrador de Euler.
y
N+1
= y
N
+ Hf(y
N
, t
N
)
y
N+2
= y
N+1
+ Hf(y
N+1
, t
N+1
)
.
.
.
O incremento da func ao e aproximado pela tangente:
Htg
N
= Hf(y
N
, t
N
)
_

_
tg
N
=
y
N+1
y
N
H
= y
N
= f
N
tg
N+1
=
y
N+2
y
N+1
H
= y
N+1
= f
N+1
.
.
.
-
Exemplo:
dy(t)
dt
= y
2
+ y
. .
f
y
N+1
= y
N
+ Hf(y
N
, t
N
) = y
N
+ H(y
2
N
+ y
N
)
-
1
y
_
1 +
_
dy
dx
_
2
_
= C
140
12.2.2 Integradores implcitos (
1
= 0)
y
N+1
=
1
Hf(y
N+1
, t
N+1
) +
2
Hf(y
N
, t
N
)
Exemplo: Integrador Crank-Nicolson (ou regra do trapezio, ou regra do ponto medio).
y
N+1
= y
N
+
H
2
[f(y
N+1
, t
N+1
) + f(y
N
, t
N
)]
Nesse caso y
N+1
nao pode ser obtido diretamente da formula devido ao termo f(y
N+1
, t
N+1
)
que e especco de cada equac ao diferencial.
Exemplo:
dy
dt
= y
2
+ y
y
N+1
= y
N
+
H
2
[f(y
N+1
, t
N+1
) + f(y
N
, t
N
)]
y
N+1
= y
N
+
H
2
[y
2
N+1
+ y
N+1
+ y
2
N
+ y
N
]
Re-arranjando:
y
2
N+1
+ (1
2
H
)y
N+1
+ y
2
N
+ (1 +
2
H
)y
N
= 0
A soluc ao deste polinomio de segundo grau fornece y
N+1
.
12.3 Metodos de 2 passos
y
N+2
=
3
Hf(y
N+2
, t
N+2
) +
2
Hf(y
N+1
, t
N+1
) +
1
Hf(y
N
, t
N
)
Nota: Os metodos multi-passos nao sao muito utilizados porque para o primeiro passo
e necessario utilizar um outro metodo de um passo.
12.4 Runge Kutta explcito de quarta ordem
dy(t)
dt
= f(y, t)
y
0
= y(t
0
)
y
N+1
= y
N
+
1
6
[K
1
+ 2K
2
+ 2K
3
+ K
4
]
onde,
K
1
= Hf(y
N
, t
N
) passo de Euler no instante t
N
.
K
2
= Hf(y
N
+
K
1
2
, t
N
+
H
2
) Euler no instante t
N
+
H
2
= t
N+
1
2
, usando K
1
para
estimar y
N+
1
2
= (y
N
+
K
1
2
).
K
3
= Hf(y
N
+
K
2
2
, t
N
+
H
2
) Euler no instante t
N
+
H
2
= t
N+
1
2
, usando K
2
para
estimar y
N+
1
2
= (y
N
+
K
2
2
).
141
Figura 12.2: Metodo de integra c ao explcito de Runge-Kutta de ordem 4.
K
4
= Hf(y
N
+ K
3
, t
N
+ H) Euler no instante t
N
+ H = t
N+1
, usando a estimativa
y
N+1
= (y
N
+ K
3
).
Runge-Kutta faz uma media ponderada entre as derivadas nos instantes t
N
, t
N+
1
2
e
t
N+1
, usando valores estimados de y
N
, y
N+
1
2
e y
N+1
, (usando Euler).
O Runge-Kutta explcito e um dos melhores integradores explcitos de 1 passo (para
problemas de 1
a
ordem).
- A precisao e muito boa.
-

E adequado para problemas de transiente forte.
Nota: Um metodo de primeira ordem pode ser aplicado numa equac ao diferencial de
segunda ordem.
Exemplo:
d
2
y(t)
dt
2
= f
_
t, y,
dy
dt
_
Condi c oes iniciais: y
0
= y(t
0
)
y
0
=
dy(t
0
)
dt
A equac ao
d
2
y(t)
dt
2
= f
_
t, y,
dy
dt
_
pode ser transformada num sistema de primeira ordem:
Dene-se Z(t) =
dy
dt

dZ
dt
= f(t, y, Z)
Portanto,
_
dy(t)
dt
dZ(t)
dt
_
=
_
Z(t)
f(t, y, Z)
_
142
Com as condicoes iniciais: y
0
= y(t
0
)
Z
0
= Z(t
0
) =
dy
dt
(t
0
)
12.4.1 Generalizacao para sistemas de equacoes diferenciais
Os integradores podem ser facilmente generalizados para sistemas de equa coes diferenciais.
Exemplo: Runge-Kutta
_ _
dy(t)
dt
_
= {f({y(t)}, t)}
{y}
0
= {y(t
0
)}
_
onde
_

_
{y} =
_

_
y
1
.
.
.
y
N
_

_
_
dy(t)
dt
_
=
_

_
dy
1
(t)
dt
.
.
.
dy
N
(t)
dt
_

_
{f({y(t)}, t)} =
_

_
f
1
({y(t)}, t)
.
.
.
f
N
({y(t)}, t)
_

_
H = t
N+1
t
N
{y}
N+1
= {y}
N
+
1
6
[{K
1
} + 2{K
2
} + 2{K
3
} +{K
4
}]
onde:
{K
1
} = H {f({y}
N
, t
N
)}
{K
2
} = H
_
f({y}
N
+
1
2
{K
1
}, t
N
+
H
2
)
_
t
N+
1
2
= t
N
+
H
2
t
N+1
= t
N
+ H
{K
3
} = H
_
f({y}
N
+
1
2
{K
2
}, t
N
+
H
2
)
_
{K
4
} = H {f({y}
N
+{K
3
}, t
N
+ H)}
12.5 Famlia de integradores trapezoidais
Seja o sistema de equacoes diferenciais:
[M]{ x} + [K]{x} = {F(t)}
{x}
0
= {x(t
0
)}
[M]
(NN)
real, simetrica, positivo-denida.
[K]
(NN)
real, simetrica, semi-positivo-denida.
143
Nota c ao: { x}
N+1
= { x(t
N+1
)}
{x}
N+1
= {x(t
N+1
)}
{F}
N+1
= {F(t
N+1
)}
Equac oes discretizadas da famlia de integradores trapezoidais.
[M]{ x}
N+1
+ [K]{x}
N+1
= {F}
N+1
(12.1)
{x}
N+1
= {x}
N
+ t{ x}
N+
(12.2)
{ x}
N+
= { x}
N
(1 ) +{ x}
N+1
[0, 1] (12.3)
Observa cao: Na equacao (12.2), se = 0 passo de Euler para frente.
se = 1 passo de Euler para traz.
Da equacao (12.3)
{ x}
N+1
=
1

( { x}
N+
. .
{x}
N+1
{x}
N
t
(1 ){ x}
N
) =
1
t
[{x}
N+1
{x}
N
t(1 ){ x}
N
]
12.5.1 Integradores tpicos
Metodo Tipo
0
Euler (Forward Euler)
(Diferenca para frente)
Explcito
1/2
Crank-Nicolson
(Regra do trapezio)
(Regra do ponto medio)
Implcito
1
Euler (Backward Euler)
(Diferenca para traz)
Implcito
Implementa c ao computacional: Forma { x}
N+1
Forma {x}
N+1
Os algoritmos tanto na forma {x}
N+1
como na forma { x}
N+1
sao obtidos utilizando
as equa coes (12.1), (12.2) e (12.3).
12.5.2 Algoritmos na forma { x}
1.
[M]{ x} + [K]{x} = {F(t)}
{x}
0
= {x(t
0
)}
2. Calculo de { x}
0
= { x(t
0
)}
Da equac ao (12.1) { x}
0
= [M]
1
({F}
0
[K]{x}
0
) (N = 0)
144
3. Calculo do valor preditor para {x}
N+1
.
{x}
p
N+1
= {x}
N
+ (1 )t{ x}
N
Observac ao: Para = 0 {x}
p
N+1
e obtido por um passo de Euler.
4. Resolver o sistema:
([M] t[K]){ x}
N+1
= {F}
N+1
[K]{x}
p
N+1
(12.4)
A equac ao (12.4) foi obtida das combina coes das equac oes (12.1), (12.2) e (12.3).
Combinando (12.2) e (12.3):
{x}
N+1
= {x}
p
N+1
+ t{ x}
N+1
(12.5)
Substituindo a equac ao (12.5) na equacao (12.1) obtem-se a equac ao (12.4).
5. {x}
N+1
= {x}
p
N+1
+ t{ x}
N+1
6. N = N + 1
Se N N
mnimo
repetir passo 3.
Observac ao: A forma { x} e conveniente para = 0 (explcito).
12.5.3 Algoritmos na forma {x}
N+1
1. Dados
2. { x}
0
= [M]
1
({F}
0
[K]{x}
0
) (N = 0)
3. {x}
p
N+1
= {x}
N
+ (1 )t{ x}
N
4. Resolver
1
t
[[M] + t[K]]{x}
N+1
= {F}
N+1
+
1
t
[M]{x}
p
N+1
5.
{ x}
N+1
=
{x}
N+1
{x}
p
N+1
t
6. N = N + 1
Se N N
mnimo
repetir passo 3.
Observacao: A forma {x}
N+1
nao e conveniente quando = 0.
145
12.6 Caractersticas relevantes de um integrador
Convergencia
Estabilidade
Precisao
Convergencia: O algoritmo e convergente para um dado t
i
se {x}
i
{x(t
i
)} (valor
teorico exato) quando t 0
Estabilidade: Diz respeito `a forma como se da a convergencia.
Precisao:

E a taxa de convergencia com que {x}
i
{x(t
i
)} quando t 0, para um
dado t
i
.
Quanto mais preciso for o algoritmo, maior pode ser o t utilizado, para se obter o
mesmo erro.
12.6.1 Analise de estabilidade do algoritmo:
Normalmente a analise de estabilidade do algoritmo e feita tomando-se como referencia
uma equa cao diferencial linear que representa um sistema fsico estavel, por exemplo:
dy(t)
dt
+ y(t) = 0, > 0
A solucao exata e dada por y(t) = Ce
t
.
Portanto, como 0, o sistema e estavel para qualquer perturbac ao C = 0.
Figura 12.3: Convergencia.
Para qualquer C nito y(t) 0 quando t .
Para = 0 o sistema se mantem estavel na posicao
inicial, y(t) = constante = y.
Seja y(t) a soluc ao exata do problema,
_
dy(t)
dt
+ y(t) = 0
y(0) = y(t
0
)
_
0
146
- Seja um dado integrador e as solu coes aproximadas pelo mesmo: y
1
, . . . , y
N1
, y
N
, y
N+1
, . . .
nos instantes t
1
, . . . , t
N1
, t
N
, t
N+1
, . . .
- t = t
N+1
t
N
- Se
|y
N+1
|
|y
N
|
1 para qualquer t o integrador e incondicionalmente estavel.
- Se
|y
N+1
|
|y
N
|
1 para 0 t t
crtico
o integrador e condicionalmente estavel.
- Se
|y
N+1
|
|y
N
|
> 1 para qualquer t o integrador e instavel.
12.7 Analise dos integradores da famlia trapezoidal
Equac ao diferencial de referencia:
y(t) + y(t) = 0, 0 (12.6)
Passo preditor:
y
p
N+1
= y
N
+ (1 )t y
N
(12.7)
Da equac ao diferencial (12.6),
y
N
= y
N
(12.8)
De (12.8) em (12.7):
y
p
N+1
= y
N
(1 )ty
N
= (1 (1 )t)y
N
(12.9)
Do algoritmo na forma {x}
N+1
:
1
t
(1 +t)y
N+1
= 0 +
y
p
N+1
t
= (1 (1 )t)
y
N
t
y
N+1
y
N
=
(1(1)t)
(1+t)
= A Fator de amplicac ao.
y
N+1
= Ay
N
Condi cao de estabilidade do integrador: |A| 1
|y
N+1
|
|y
N
|
= |A| 1
1. Para = 0 A = 1, qualquer que seja t.
2. Para > 0 |A| 1 ou 1 A 1
Analise do termo A 1
A) Como
_
> 0
t > 0
_
t > 0
_
(1 +t) 1
(1 )t 0
_

(1(1)t)
(1+t)
< 1 para
qualquer [0, 1] e t > 0.
147
B) Analise de, 1
(1(1)t)
(1+t)
a. Para
1
2
1 1 < A qualquer que seja t, (t).
Portanto para
1
2
1 os integradores sao incondicionalmente estaveis.
b. Para 0 <
1
2
:
1
(1(1)t)
(1+t)
(1 + t) (1 (1 )t)
2 (2 1)t
t
2
(12)
t
2
(12)
t
crtico
=
2
(12)
M ax
t t
crtico
Ent ao, para 0 <
1
2
o algoritmo e condicionalmente estavel.
O t
crtico
depende do sendo usado e de
Max
, que e uma caracterstica do sistema
fsico sendo analisado.
(
Max
no caso de um sistema de equac oes diferenciais).
y
N+1
= Ay
N
limA
t
= A

Figura 12.4: Fator de amplicac ao.


Observac ao: O valor de t para o qual A = 0 chama-se limite de oscila cao, (t)
0
.
148
y
N+1
= Ay
N
y
N+1
= A
(N+1)
y
0
.
Para valores de t > (t)
0
A < 0. Portanto A
(N+1)
muda de sinal em cada passo.
Para =
1
2
e t >> 5 |A| 1.
Havera pouco decaimento e as componentes modais altas se comportar a como se A =
(1)
N+1
. Sao modos esp urios gerados pelo integrador.
Solu cao: Filtrar as oscilac oes atraves do uso da media entre dois passos consecutivos,
y
N+
1
2
= (y
N+1
+ y
N
)/2.
12.8 Escolha do integrador
Explcito ou implcito?
Criterio: Balanco entre os requisitos:
_
- Precisao
- Estabilidade
, do integrador em relacao ao
problema sendo resolvido.
Seja t
est
= t
crtico
em relacao `a estabilidade do integrador, e t
prec
= t necessario
para atender os requisitos de precisao.
1. Se t
prec
<< t
est
utilizar um integrador explcito. Normalmente nesses casos a
resposta do sistema envolve um transiente forte (solicita cao do tipo impacto, ondas
de choque, etc...).
2. Se t
prec
>> t
est
utilizar um integrador implcito. Normalmente quando se
deseja analisar regimes permanentes que envolvem os auto-valores mais baixos do
sistema.
Exemplos para teste:
_
dy(t)
dt
= 4t

y y
e
(t) = (1 +t
2
)
2
0 t 2
y(0) = 0
_
dy(t)
dt
= 10(y 1)
2
y
e
(t) =
1
1+10
t
0 t 40
y(0) = 2
149
150
Bibliograa
[1] C. Lanczos: Linear dierential operators. Van Nostrand, New York, 1961.
[2] L. J`ez`equel: Synth`ese Modale: Theorie et extensions. Tese de doutoramento, Uni-
versit`e Claude Bernard (Lyon, France), 1985.
[3] P.E. Gill, W. Murray & M.H. Wright: Practical Optimization. Academic Press,
(1981).
[4] G. Strang: Linear Algebra and its Applications. Harcourt Brace Jovanovich Publish-
ers, 3
rd
edition (1988).
[5] J.R. Westlake: A Handbook of Numerical Matrix Inversion and Solution of Linear
Equations. Wiley (1968).
[6] B. Noble & J.W. Daniel: Applied Linear Algebra. Prentice-Hall, 2
nd
edition (1977).
[7] P. Eykho: System Identication. John Wiley & Sons Ltd. (1974).
[8] J.H. Wilkinson: The Algebraic Eigenvalue Problem. Oxford Press (1965).
[9] T.J.R. Hughes: The Finite Element Method. Prentice-Hall (1987).
[10] W.-F. Chen & A.F. Saleeb: Constitutive Equations for Engineering Materials, Vol.
1, Chapter 1. Wiley (1982).
[11] E.H. Moore: On the Reciprocal of the General Algebric Matrix. Bulletin of the
American mathematical Society Number 26, pp. 394-395 (1920).
[12] R. Penrose: A Generalized Inverse for Matrices. Procedings of the Cambridge Philo-
sophical Society Number 51, pp.406-413 (1955).
[13] G.H. Golub & C. Reinsch: SVD and Least Squares Solutions. Numerische Math., 14,
pp. 403-420, (1970).
151

You might also like