“fcatalo” — 2007/5/30 — 14:37 — page i — #1

Do original
Mathematical methods for physicists
Traduc¸ ˜ ao autorizada da edic¸ ˜ ao publicada por Elsevier Inc.
Copyright c 2005
c 2007, Elsevier Editora Ltda.
Todos os direitos reservados e protegidos pela Lei 9.610 de 19/02/1998.
Nenhuma parte deste livro, sem autorizac¸ ˜ ao pr´ evia por escrito da editora,
poder´ a ser reproduzida ou transmitida sejam quais forem os meios empregados:
eletrˆ onicos, mecˆ anicos, fotogr´ aficos, gravac¸ ˜ ao ou quaisquer outros.
Projeto Gr´ afico e Editorac¸ ˜ ao Eletrˆ onica: Maria do Socorro V.M. de Barros/Francisca Val´ eria F. Gomes
Revis˜ ao Gr´ afica: Mar´ılia Pinto de Oliveira/Renato Ros´ ario Carvalho
Copidesque: Ivone Teixeira
Editora Campus/Elsevier
A Qualidade da Informac¸ ˜ ao
Rua Sete de Setembro, 111 – 16
0
andar
20050-006 – Rio de Janeiro – RJ – Brasil
Telefone: (21) 3970-9300 Fax: (021) 2507-1991
E-mail: info@elsevier.com.br
Escrit ´ orio S˜ ao Paulo:
Rua Quintana, 753, 8
0
andar
04569-011 – Brooklin - S˜ ao Paulo - SP
Tel.: (11) 5105-8555
ISBN 10: 85-352-2050-X
ISBN 13: 978-85-352-2050-6
Nota: Muito zelo e t´ ecnica foram empregados na edic¸ ˜ ao desta obra. No entanto, podem ocorrer erros de digitac¸ ˜ ao, impress˜ ao ou
d´ uvida conceitual. Em qualquer das hip´ oteses, solicitamos a comunicac¸ ˜ ao ` a nossa Central de Atendimentos, para que possamos
esclarecer ou encaminhar a quest˜ ao.
Nem a editora nem os autores assumem qualquer responsabilidade por eventuais danos ou perdas a pessoas ou bens,
originados do uso desta publicac¸ ˜ ao.
Central de Atendimento:
Tel.: 0800-265340
Rua Sete de Setembro, 111, 16
0
andar – Centro – Rio de Janeiro
e-mail: info@elsevier.com.br
site: www.campus.com.br
CIP-Brasil, catalogac¸ ˜ ao-na-fonte.
Sindicato Nacional dos Editores de Livros, RJ.
A732f Arfken, George B. (George Brown), 1922.
F´ısica matem´ atica: m´ etodos matem´ aticos para engenharia e f´ısica/
George Arfken e Hans Weber .
traduc¸ ˜ ao de Arlete Simille Marques
– Rio de Janeiro: Elsevier, 2007.
Traduc¸ ˜ ao de: Mathematical methods for physicists, 6th ed
ISBN 978-85-352-2050-6
1. F´ısica. 2. F´ısica. I. Weber, Hans-Jurgen. II. T´ıtulo.
07-0469. CDD 510
CDU 51
12.02.07 16.02.07 000480
“livro” — 2007/8/1 — 15:06 — page v — #2
Pref´ acio
Por seis edic¸ ˜ oes at´ e agora, M´ etodos matem´ aticos para f´ısicos forneceu todos os m´ etodos matem´ aticos que os
pretendentes ` as carreiras de cientistas e engenheiros provavelmente encontrar˜ ao como estudantes e pesquisadores.
H´ a material mais do que suficiente para um curso de graduac¸ ˜ ao ou p´ os-graduac¸ ˜ ao de dois semestres.
O livro ´ e avanc¸ado no sentido de que as relac¸ ˜ oes matem´ aticas quase sempre s˜ ao provadas, al´ em de ilustradas
em termos de exemplos. Essas provas n˜ ao s˜ ao o que um matem´ atico consideraria como rigorosas, mas d˜ ao um
esboc¸o das id´ eias e enfatizam as relac¸ ˜ oes que s˜ ao essenciais para o estudo da f´ısica e campos relacionados. Essa
abordagem incorpora teoremas que normalmente n˜ ao s˜ ao citados nas abordagens mais gerais, mas se adaptam
perfeitamente bem ` as aplicac¸ ˜ oes mais restritas exigidas pela f´ısica. Por exemplo, um f´ısico normalmente aplica o
teorema de Stokes a uma superf´ıcie partindo do entendimento t´ acito de que ela ´ e simplesmente conectada. Neste
livro, essas suposic¸ ˜ oes ficam mais expl´ıcitas.
Habilidades para Resolver Problemas
O livro tamb´ em adota um foco deliberado sobre habilidades para resolver problemas. Esse n´ıvel mais avanc¸ado
de entendimento e aprendizado ativo ´ e rotineiro em cursos de f´ısica e requer pr´ atica da parte do leitor. Seguindo
esse princ´ıpio, os conjuntos extensivos de problemas apresentados em cada cap´ıtulo fazem parte integral do livro.
Foram revisados e atualizados com cuidado e seu n´ umero aumentou nesta Sexta Edic¸ ˜ ao.
Como o Livro deve ser Usado
Estudantes de graduac¸ ˜ ao ter˜ ao melhor aproveitamento se comec¸arem revendo o Cap´ıtulo 1 de acordo com o n´ıvel
de treinamento da classe. A Sec¸ ˜ ao 1.2 sobre as propriedades de transformac¸ ˜ ao de vetores, o produto cruzado e
a invariˆ ancia do produto escalar sob rotac¸ ˜ oes pode ser adiada at´ e o in´ıcio da an´ alise tensorial, para a qual essas
sec¸ ˜ oes funcionam como uma introduc¸ ˜ ao e servem como exemplos. Podem continuar seus estudos com ´ algebra
linear no Cap´ıtulo 3 e ent˜ ao, talvez passar para tensores e simetrias (Cap´ıtulos 2 e 4) e, em seguida, an´ alise real e
complexa (Cap´ıtulos 5 a 7), equac¸ ˜ oes diferenciais (Cap´ıtulos 9 e 10) e func¸ ˜ oes especiais (Cap´ıtulos 11 a 13).
Em geral, o n´ ucleo de um curso de graduac¸ ˜ ao de um semestre compreende os Cap´ıtulos 5 a 10 e 11 a 13, que
tratam de an´ alise real e complexa, equac¸ ˜ oes diferenciais e func¸ ˜ oes especiais. Dependendo do n´ıvel dos estudantes
em um curso, pode-se estudar um pouco de ´ algebra linear no Cap´ıtulo 3 (eigenvalores, por exemplo,), juntamente
com simetrias (teoria de grupo no Cap´ıtulo 4). Tensores (Cap´ıtulo 2) podem ser estudados se necess´ ario ou se
desejado. A teoria de grupo tamb´ em pode ser inclu´ıda com equac¸ ˜ oes diferenciais (Cap´ıtulos 9 e 10). Relac¸ ˜ oes
adequadas foram inclu´ıdas e discutidas nos Cap´ıtulos 4 e 9.
Um curso de dois semestres pode abordar tensores, teoria de grupo e func¸ ˜ oes especiais (Cap´ıtulos 11 a 13)
mais extensivamente e adicionar s´ eries de Fourier (Cap´ıtulo 14), transformadas integrais (Cap´ıtulo 15), equac¸ ˜ oes
integrais (Cap´ıtulo 16) e c´ alculo de variac¸ ˜ oes (Cap´ıtulo 17).
v
“livro” — 2007/8/1 — 15:06 — page vi — #3
vi F´ısica Matem´ atica Arfken • Weber
Mudanc¸as na Sexta Edic¸ ˜ ao
Nesta Sexta Edic¸ ˜ ao foram feitas mudanc¸as em quase todos os cap´ıtulos, acrescentando exemplos e problemas e
mais derivac¸ ˜ oes de resultados. V´ arios erros de ortografia causados pela digitalizac¸ ˜ ao para o sistema LaTeX, um
processo sujeito a erros ` a taxa de muitos erros por p´ aginas foram corrigidos, juntamente com erros tais como o das
matrizes γ de Dirac no Cap´ıtulo 3. Alguns cap´ıtulos mudaram de lugar. A func¸ ˜ ao gama agora est´ a no Cap´ıtulo 8,
logo ap´ os os Cap´ıtulos 6 e 7 sobre func¸ ˜ oes complexas de uma vari´ avel, j´ a que ´ e uma aplicac¸ ˜ ao desses m´ etodos.
Equac¸ ˜ oes diferencias agora est˜ ao nos Cap´ıtulos 9 e 10. Foi acrescentado um novo Cap´ıtulo sobre probabilidade,
bem como novas subsec¸ ˜ oes sobre formas diferenciais e equac¸ ˜ oes de Mathieu atendendo a insistentes pedidos
de leitores e estudantes ao longo dos anos. As novas subsec¸ ˜ oes s˜ ao mais avanc¸adas e escritas no estilo conciso
do livro, elevando-as assim ao n´ıvel de p´ os-graduac¸ ˜ ao. Foram acrescentados muitos exemplos, por exemplo nos
Cap´ıtulos 1 e 2, que costumam ser usados na f´ısica ou s˜ ao figurinhas carimbadas em cursos de f´ısica. Foram feitas
v´ arias adic¸ ˜ oes no Cap´ıtulo 3, tais como dependˆ encia linear de vetores, espac¸os vetoriais duais e decomposic¸ ˜ ao
espectral de matrizes sim´ etricas ou Hermitianas. Uma subsec¸ ˜ ao sobre a equac¸ ˜ ao de difus˜ ao d´ a destaque especial
a m´ etodos para adaptar soluc¸ ˜ oes de equac¸ ˜ oes diferenciais parciais a condic¸ ˜ oes de fronteira. Foram desenvolvidas
novas f´ ormulas para polinomiais de Hermite, inclu´ıdas no Cap´ıtulo 13 e ´ uteis para tratar vibrac¸ ˜ oes moleculares;
elas s˜ ao de interesse do f´ısico-qu´ımico.
Agradecimentos
Contamos com o benef´ıcio do conselho e da ajuda de muitas pessoas. Algumas das revis˜ oes atendem a coment´ arios
feitos por leitores e ex-alunos, como o Dr. K. Bodoor e J. Hughes. Nossos agradecimentos e eles e aos editores
Barbara Holland e Tom Singer que organizaram os testes de precis˜ ao. Gostar´ıamos de agradecer em particular
ao Dr. Michael Bozoian e ao Prof. Frank Harris por sua inestim´ avel ajuda na verificac¸ ˜ ao de precis˜ ao e a Simon
Crump, Editor de Produc¸ ˜ ao por seu gerenciamento especializado de Sexta Edic¸ ˜ ao.
“livro” — 2007/8/1 — 15:06 — page vii — #4
Sum´ ario
1 An´ alise Vetorial 1
1.1 Definic¸ ˜ oes, Abordagem Elementar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Rotac¸ ˜ ao dos Eixos Coordenados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Produto Escalar ou Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Produto de Vetores ou Produto Externo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Produto Escalar Triplo, Produto Vetorial Triplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6 Gradiente, ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.7 Divergˆ encia, ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.8 Rotacional, ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.9 Aplicac¸ ˜ oes Sucessivas de ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.10 Integrac¸ ˜ ao Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.11 Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.12 Teorema de Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.13 Teoria do Potencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.14 Lei de Gauss, Equac¸ ˜ ao de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.15 Func¸ ˜ ao Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.16 Teorema de Helmholtz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2 An´ alise Vetorial em Coordenadas Curvas e Tensores 80
2.1 Coordenadas Ortogonais em R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.2 Operadores Vetoriais Diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.3 Sistemas de Coordenadas Especiais: Introduc¸ ˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2.4 Coordenadas Cil´ındricas Circulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.5 Coordenadas Polares Esf´ ericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.6 An´ alise Tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
2.7 Contrac¸ ˜ ao, Produto Direto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
vii
“livro” — 2007/8/1 — 15:06 — page viii — #5
viii F´ısica Matem´ atica Arfken • Weber
2.8 Regra do Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.9 Pseudotensores, Tensores Duais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
2.10 Tensores Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
2.11 Operadores de Derivadas de Tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3 Determinantes e Matrizes 126
3.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
3.3 Matrizes Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
3.4 Matrizes hermitianas, Matrizes Unit´ arias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
3.5 Diagonizac¸ ˜ ao de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
3.6 Matrizes Normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
4 Teoria dos Grupos 183
4.1 Introduc¸ ˜ ao ` a Teoria dos Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
4.2 Geradores de Grupos Cont´ınuos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
4.3 Momento Angular Orbital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
4.4 Acoplamento de Momento Angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
4.5 Grupo Homogˆ eneo de Lorentz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
4.6 Covariˆ ancia de Lorentz de Equac¸ ˜ oes de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . 215
4.7 Grupos Discretos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
4.8 Formas Diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
5 S´ eries Infinitas 245
5.1 Conceitos Fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
5.2 Testes de Convergˆ encia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
5.3 S´ eries Alternantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
5.4
´
Algebra de S´ eries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
5.5 S´ erie de Func¸ ˜ oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
5.6 Expans˜ ao de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
5.7 S´ erie de Potˆ encias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
5.8 Integrais El´ıpticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
5.9 N´ umeros de Bernoulli e F´ ormula de Euler-Maclaurin . . . . . . . . . . . . . . . . . . . . . . . . 286
5.10 S´ eries Assint´ oticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
5.11 Produtos Infinitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
“livro” — 2007/8/1 — 15:06 — page ix — #6
SUM´ ARIO ix
6 Func¸ ˜ oes de uma Vari´ avel Complexa I 305
6.1
´
Algebra Complexa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
6.2 Condic¸ ˜ oes de Cauchy-Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
6.3 Teorema Integral de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
6.4 F´ ormula Integral de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
6.5 Expans˜ ao de Laurent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
6.6 Singularidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
6.7 Mapeamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
6.8 Mapeamento Conformal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
7 Func¸ ˜ oes de uma Vari´ avel Complexa II 345
7.1 C´ alculo de Res´ıduos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
7.2 Relac¸ ˜ oes de Dispers˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
7.3 M´ etodo das Inclinac¸ ˜ oes mais Acentuadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
8 A Func¸ ˜ ao Gama (Func¸ ˜ ao Fatorial) 377
8.1 Definic¸ ˜ oes, Propriedades Simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
8.2 Func¸ ˜ oes Digama e Poligama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386
8.3 S´ erie de Stirling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
8.4 A Func¸ ˜ ao Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
8.5 Func¸ ˜ oes Gama Incompletas e Func¸ ˜ oes Relacionadas . . . . . . . . . . . . . . . . . . . . . . . . 398
9 Equac¸ ˜ oes Diferenciais 404
9.1 Equac¸ ˜ oes Diferenciais Parciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
9.2 Equac¸ ˜ oes Diferenciais de Primeira Ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
9.3 Separac¸ ˜ ao de Vari´ aveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418
9.4 Pontos Singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
9.5 Soluc¸ ˜ oes de S´ erie — M´ etodo de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
9.6 Uma Segunda Soluc¸ ˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
9.7 Equac¸ ˜ ao N˜ ao-Homogˆ enea — Func¸ ˜ ao de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
9.8 EDP de Fluxo de Calor ou de Difus˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462
10 Teoria de Sturm-Liouville —Func¸ ˜ oes Ortogonais 469
10.1 EDO Auto-Adjuntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 469
10.2 Operadores Hermitianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479
“livro” — 2007/8/1 — 15:06 — page x — #7
x F´ısica Matem´ atica Arfken • Weber
10.3 Ortogonalizac¸ ˜ ao de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484
10.4 Completude de Autofunc¸ ˜ oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 490
10.5 Func¸ ˜ ao de Green — Expans˜ ao em Autofunc¸ ˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . 499
11 Func¸ ˜ oes de Bessel 510
11.1 Func¸ ˜ oes de Bessel da Primeira Esp´ ecie, J
ν
(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . 510
11.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524
11.3 Func¸ ˜ oes de Neumann e Func¸ ˜ oes de Bessel da Segunda Esp´ ecie . . . . . . . . . . . . . . . . . . . 529
11.4 Func¸ ˜ oes de Hankel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534
11.5 Func¸ ˜ oes Modificadas de Bessel I
ν
(x) e K
ν
(x) . . . . . . . . . . . . . . . . . . . . . . . . . . 539
11.6 Expans˜ oes Assint´ oticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544
11.7 Func¸ ˜ oes Esf´ ericas de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548
12 Func¸ ˜ oes de Legendre 560
12.1 Func¸ ˜ ao Geratriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 560
12.2 Relac¸ ˜ oes de Recorrˆ encia e Propriedades Especiais . . . . . . . . . . . . . . . . . . . . . . . . . 566
12.3 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 571
12.4 Definic¸ ˜ oes Alternativas de Polinˆ omios de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . 580
12.5 Func¸ ˜ oes Associadas de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
12.6 Harmˆ onicos Esf´ ericos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595
12.7 Operadores de Momento Angular Orbital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 600
12.8 O Teorema da Adic¸ ˜ ao para Harmˆ onicos Esf´ ericos . . . . . . . . . . . . . . . . . . . . . . . . . . 603
12.9 Integrais de Produtos de Trˆ es Harmˆ onicos Esf´ ericos . . . . . . . . . . . . . . . . . . . . . . . . . 607
12.10 Func¸ ˜ oes de Legendre da Segunda Esp´ ecie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 610
12.11 Harmˆ onicos Esf´ ericos Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615
13 Mais Func¸ ˜ oes Especiais 618
13.1 Func¸ ˜ oes de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 618
13.2 Func¸ ˜ oes de Laguerre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633
13.3 Polinˆ omios de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 642
13.4 Func¸ ˜ oes Hipergeom´ etricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 650
13.5 Func¸ ˜ oes Hipergeom´ etricas Confluentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653
13.6 Func¸ ˜ oes de Mathieu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
14 S´ eries de Fourier 667
“livro” — 2007/8/1 — 15:06 — page xi — #8
SUM´ ARIO xi
14.1 Propriedades Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 667
14.2 Vantagens, Usos da S´ erie de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 672
14.3 Aplicac¸ ˜ oes de S´ eries de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 675
14.4 Propriedades da S´ erie de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 684
14.5 Fenˆ omeno de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 688
14.6 Transformada Discreta de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 691
14.7 Expans˜ ao de Fourier de Func¸ ˜ oes de Mathieu . . . . . . . . . . . . . . . . . . . . . . . . . . . . 695
15 Transformadas Integrais 705
15.1 Transformadas Integrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 705
15.2 Desenvolvimento da Integral de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 708
15.3 Transformadas de Fourier —Teorema da Invers˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . 710
15.4 Transformada de Fourier de Derivadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716
15.5 Teorema de Convoluc¸ ˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 720
15.6 Representac¸ ˜ ao de Momentum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 723
15.7 Func¸ ˜ ao de Transferˆ encia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 728
15.8 Transformadas de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 731
15.9 Transformada de Laplace de Derivadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 736
15.10 Outras Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 741
15.11Teorema da Convoluc¸ ˜ ao (“Faltungs”) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 750
15.12 Transformada Inversa de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 753
16 Equac¸ ˜ oes Integrais 763
16.1 Introduc¸ ˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763
16.2 Transformadas Integrais, Func¸ ˜ oes Geradoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 768
16.3 S´ erie de Neumann, N´ ucleos Separ´ aveis (Degenerados) . . . . . . . . . . . . . . . . . . . . . . . 772
16.4 Teoria de Hilbert-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 781
17 C´ alculo de Variac¸ ˜ oes 787
17.1 Uma Vari´ avel Dependente e uma Vari´ avel Independente . . . . . . . . . . . . . . . . . . . . . . . 787
17.2 Aplicac¸ ˜ oes da Equac¸ ˜ ao de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 792
17.3 Diversas Vari´ aveis Dependentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 798
17.4 Diversas Vari´ aveis Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 802
17.5 Diversas Vari´ aveis Dependentes e Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . 803
17.6 Multiplicadores de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804
“livro” — 2007/8/1 — 15:06 — page xii — #9
xii F´ısica Matem´ atica Arfken • Weber
17.7 Variac¸ ˜ ao com V´ınculos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 808
17.8 T´ ecnica Variacional de Rayleigh-Ritz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 814
18 M´ etodos N˜ ao-Lineares e Caos 818
18.1 Introduc¸ ˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 818
18.2 O Mapa Log´ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 819
18.3 Sensibilidade a Condic¸ ˜ oes Iniciais e Parˆ ametros . . . . . . . . . . . . . . . . . . . . . . . . . . . 822
18.4 Equac¸ ˜ oes Diferenciais N˜ ao-Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 825
19 Probabilidade 842
19.1 Definic¸ ˜ oes, Propriedades Simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 842
19.2 Vari´ aveis Aleat´ orias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 847
19.3 Distribuic¸ ˜ ao Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 857
19.4 Distribuic¸ ˜ ao de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 859
19.5 Distribuc¸ ˜ ao Normal de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 861
19.6 Estat´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 864
“livro” — 2007/8/1 — 15:06 — page 1 — #11
1
An´ alise Vetorial
1.1 Definic¸ ˜ oes, Abordagem Elementar
Na ciˆ encia e na engenharia, freq¨ uentemente encontramos quantidades que tˆ em grandeza e apenas grandeza: massa,
tempo e temperatura. Denominamos essas grandezas quantidades escalares e elas continuam as mesmas, n˜ ao
importando as coordenadas que usarmos. Ao contr´ ario, muitas quantidades f´ısicas interessantes tˆ em grandeza
e, al´ em disso, uma direc¸ ˜ ao associada. Esse segundo grupo inclui deslocamento, velocidade, acelerac¸ ˜ ao, forc¸a,
momento linear e momento angular. Quantidades que tˆ em grandeza e direc¸ ˜ ao s˜ ao denominadas quantidades
vetoriais. Em geral, em tratamentos elementares, um vetor ´ e definido como uma quantidade que tem grandeza
e direc¸ ˜ ao. Para distinguir vetores de escalares, identificamos quantidades vetoriais com letras em negrito, isto ´ e, V.
Nosso vetor pode ser convenientemente representado por uma seta de comprimento proporcional ` a grandeza. A
direc¸ ˜ ao da seta d´ a a direc¸ ˜ ao do vetor, e o sentido positivo de direc¸ ˜ ao ´ e indicado pela ponta. Por essa representac¸ ˜ ao,
a adic¸ ˜ ao vetorial
C = A+B (1.1)
consiste em colocar a extremidade traseira do vetor B na ponta do vetor A. Ent˜ ao o vetor C ´ e representado por
uma seta desenhada a partir da extremidade traseira de A at´ e a ponta de B. Esse procedimento, a lei de adic¸ ˜ ao
do triˆ angulo, atribui significado ` a Equac¸ ˜ ao (1.1) e ´ e ilustrado na Figura 1.1. Completando o paralelogramo, vemos
que
Figura 1.1: Lei do triˆ angulo da adic¸ ˜ ao vetorial.
C = A+B = B+A, (1.2)
como mostra a Figura 1.2. Em palavras, a adic¸ ˜ ao de vetores ´ e comutativa.
Para a soma de trˆ es vetores, (Figura 1.3),
D = A+B+C,
podemos primeiro somar Ae B:
A+B = E.
Ent˜ ao, essa soma ´ e adicionada a C:
D = E+C.
1
“livro” — 2007/8/1 — 15:06 — page 2 — #12
2 F´ısica Matem´ atica Arfken • Weber
Figura 1.2: Lei do paralelogramo da adic¸ ˜ ao vetorial.
Figura 1.3: A adic¸ ˜ ao de vetores ´ e associativa.
De modo semelhante, podemos primeiro somar B e C:
B+C = F.
Ent˜ ao,
D = A+F.
Em termos da express˜ ao original,
(A+B) +C = A+ (B+C).
A adic¸ ˜ ao de vetores ´ e associativa.
Um exemplo f´ısico direto da lei de adic¸ ˜ ao do paralelogramo ´ e dado por um peso suspenso por dois fios. Se o
ponto de junc¸ ˜ ao (O na Figura 1.4) estiver em equil´ıbrio, a soma vetorial das duas forc¸as F
1
e F
2
deve exatamente
anular a forc¸a da gravidade dirigida para baixo, F
3
. Nesse caso, a lei de adic¸ ˜ ao do paralelogramo est´ a sujeita ` a
verificac¸ ˜ ao experimental imediata.
1
A subtrac¸ ˜ ao pode ser executada definindo o negativo de um vetor como um vetor da mesma grandeza, mas com
sentido inverso. Ent˜ ao,
A−B = A+ (−B).
Na Figura 1.3,
A = E−B.
Note que os vetores s˜ ao tratados como objetos geom´ etricos que s˜ ao independentes de qualquer sistema de
coordenadas. Esse conceito de independˆ encia de um sistema de coordenadas preferencial ´ e desenvolvido com
detalhes na sec¸ ˜ ao seguinte.
A representac¸ ˜ ao do vetor A por uma seta sugere uma segunda possibilidade. A seta A (Figura 1.5), iniciando
na origem,
2
termina no ponto (A
x
, A
y
, A
z
). Assim, se concordarmos que o vetor deve comec¸ar na origem, a
extremidade positiva pode ser especificada dando as coordenadas cartesianas (A
x
, A
y
, A
z
) da ponta da seta.
Embora A possa representar qualquer quantidade vetorial (momento linear, campo el´ etrico etc.), uma
quantidade vetorial particularmente importante, o deslocamento da origem at´ e o ponto (x, y, z) ´ e denotado pelo
1
Em termos estritos, a adic¸ ˜ ao pela regra do paralelogramo foi introduzida como uma definic¸ ˜ ao. Experimentos mostram que, se admitirmos
que as forc¸as s˜ ao quantidades vetoriais e as combinarmos pela adic¸ ˜ ao do paralelogramo, a condic¸ ˜ ao de equil´ıbrio de forc¸a resultante zero ´ e
satisfeita.
2
Poder´ıamos iniciar em qualquer ponto de nosso sistema cartesiano de referˆ encia; escolhemos a origem por simplicidade. Essa liberdade de
deslocar a origem do sistema de coordenadas sem afetar a geometria ´ e denominada invari ˆ ancia de translac¸ ˜ ao.
“livro” — 2007/8/1 — 15:06 — page 3 — #13
1. AN´ ALISE VETORIAL 3
Figura 1.4: Equil´ıbrio de forc¸as: F
1
+F
2
= −F
3
.
Figura 1.5: Componentes cartesianas e co-senos diretores de A.
“livro” — 2007/8/1 — 15:06 — page 4 — #14
4 F´ısica Matem´ atica Arfken • Weber
s´ımbolo especial r. Ent˜ ao, podemos escolher entre nos referirmos ao deslocamento como o vetor r ou como a
colec¸ ˜ ao (x, y, z), as coordenadas de sua extremidade:
r ↔(x, y, z). (1.3)
Usando r para a grandeza do vetor r, constatamos que a Figura 1.5 mostra que as coordenadas da extremidade e a
grandeza s˜ ao relacionadas por
x = r cos α, y = r cos β, z = r cos γ. (1.4)
Aqui, cos α, cos β e cos γ s˜ ao denominados co-senos diretores, sendo α o ˆ angulo entre o vetor dado e o eixo x
positivo e assim por diante. Um pouco mais de vocabul´ ario: as quantidades A
x
, A
y
e A
z
s˜ ao conhecidas como as
componentes (cartesianas) de Aou as projec¸ ˜ oes de A, com cos
2
α + cos
2
β + cos
2
γ = 1.
Assim, qualquer vetor A pode ser resolvido em suas componentes (ou projetado sobre os eixos coordenados)
para resultar A
x
= Acos α etc., como na Equac¸ ˜ ao (1.4). Podemos escolher entre nos referirmos ao vetor como
uma quantidade ´ unica Aou ` as suas componentes (A
x
, A
y
, A
z
). Note que o ´ındice x em A
x
denota a componente
x e n˜ ao uma dependˆ encia da vari´ avel x. A decis˜ ao de utilizar Aou suas componentes (A
x
, A
y
, A
z
) ´ e, em essˆ encia,
uma escolha entre uma representac¸ ˜ ao geom´ etrica ou uma representac¸ ˜ ao alg´ ebrica. Use qualquer das representac¸ ˜ oes
segundo sua conveniˆ encia. A representac¸ ˜ ao “geom´ etrica da seta no espac¸o” pode ajudar na visualizac¸ ˜ ao. O
conjunto alg´ ebrico de componentes em geral ´ e mais adequado para c´ alculos precisos num´ ericos ou alg´ ebricos.
Vetores entram na f´ısica em duas formas distintas: (1) um vetor A pode representar uma ´ unica forc¸a agindo
sobre um ´ unico ponto. A forc¸a da gravidade agindo no centro de gravidade ilustra essa forma; (2) um vetor
A pode ser definido sobre uma regi˜ ao estendida, isto ´ e, A e suas componentes podem ser func¸ ˜ oes da posic¸ ˜ ao
A
x
= A
x
(x, y, z) e assim por diante. Exemplos desse tipo s˜ ao a velocidade de um fluido variando de ponto a
ponto em um dado volume e campos el´ etricos e magn´ eticos. Esses dois casos podem ser distinguidos referindo-se
ao vetor definido sobre uma regi˜ ao como um campo vetorial. O conceito do vetor definido sobre uma regi˜ ao e
sendo uma func¸ ˜ ao de posic¸ ˜ ao se tornar´ a de extrema importˆ ancia na diferenciac¸ ˜ ao e integrac¸ ˜ ao de vetores.
Neste est´ agio ´ e conveniente introduzir vetores unit´ arios ao longo de cada um dos eixos coordenados. Seja ˆ x um
vetor de grandeza unit´ aria apontando na direc¸ ˜ ao positiva x, ˆ y, um vetor de grandeza unit´ aria na direc¸ ˜ ao positiva
y, e ˆz um vetor de grandeza unit´ aria na direc¸ ˜ ao positiva z. Ent˜ ao, ˆ xA
x
´ e um vetor de grandeza igual a [A
x
[ e na
direc¸ ˜ ao x. Por adic¸ ˜ ao de vetores,
A = ˆ xA
x
+ ˆ yA
y
+ˆzA
z
. (1.5)
Note que, se Ase anular, todas as suas componentes devem se anular individualmente, isto ´ e, se
A = 0, ent˜ ao A
x
= A
y
= A
z
= 0.
Isso significa que esses vetores unit´ arios servem como uma base ou um conjunto completo de vetores no espac¸o
euclidiano tridimensional, em termos do qual qualquer vetor pode ser expandido. Assim, a Equac¸ ˜ ao (1.5) ´ e uma
afirmac¸ ˜ ao de que os trˆ es vetores unit´ arios ˆ x, ˆ y e ˆz varrem nosso espac¸o tridimensional real: qualquer vetor pode
ser escrito como uma combinac¸ ˜ ao linear de ˆ x, ˆ y e ˆz. Visto que ˆ x, ˆ y e ˆz s˜ ao linearmente independentes (nenhum ´ e
uma combinac¸ ˜ ao linear dos outros dois), eles formam uma base para o espac¸o euclidiano tridimensional real. Por
fim, pelo teorema de Pit´ agoras, o m´ odulo do vetor A ´ e
[A[ =
_
A
2
x
+A
2
y
+A
2
z
_
1/2
. (1.6)
Note que os vetores unit´ arios associados ` as coordenadas n˜ ao s˜ ao o ´ unico conjunto completo ou base. Essa resoluc¸ ˜ ao
de um vetor em suas componentes pode ser realizada em uma variedade de sistemas coordenados, como ser´ a
mostrado no Cap´ıtulo 2. Aqui, vamos nos restringir ` as coordenadas cartesianas, em que os vetores unit´ arios tˆ em
as coordenadas ˆ x = (1, 0, 0), ˆ y = (0, 1, 0) e ˆz = (0, 0, 1), e todos tˆ em comprimento e direc¸ ˜ ao constantes,
propriedades caracter´ısticas das coordenadas cartesianas.
Em substituic¸ ˜ ao ` a t´ ecnica gr´ afica, a adic¸ ˜ ao e a subtrac¸ ˜ ao de vetores agora podem ser realizadas em termos de
suas componentes. Para A = ˆ xA
x
+ ˆ yA
y
+ˆzA
z
e B = ˆ xB
x
+ ˆ yB
y
+ˆzB
z
,
A±B = ˆ x(A
x
±B
x
) + ˆ y(A
y
±B
y
) +ˆz(A
z
±B
z
). (1.7)
Deve-se enfatizar aqui que os vetores unit´ arios ˆ x, ˆ y e ˆz s˜ ao usados por conveniˆ encia. Eles n˜ ao s˜ ao essenciais;
podemos descrever vetores e us´ a-los exclusivamente em termos de suas componentes: A ↔ (A
x
, A
y
, A
z
). Essa
“livro” — 2007/8/1 — 15:06 — page 5 — #15
1. AN´ ALISE VETORIAL 5
´ e a abordagem das duas mais poderosas e mais sofisticadas definic¸ ˜ oes de vetor que ser˜ ao discutidas na pr´ oxima
sec¸ ˜ ao. Contudo, ˆ x, ˆ y e ˆz enfatizam a direc¸ ˜ ao.
At´ e aqui definimos as operac¸ ˜ oes de adic¸ ˜ ao e subtrac¸ ˜ ao de vetores. Nas pr´ oximas sec¸ ˜ oes ser˜ ao definidas trˆ es
variedades de multiplicac¸ ˜ ao com base em sua aplicabilidade: um produto escalar, ou interno, um produto vetorial
peculiar ao espac¸o tridimensional e um produto direto, ou externo, que resulta em um tensor de segunda ordem. A
divis˜ ao por um vetor n˜ ao ´ e definida.
Exerc´ıcios
1.1.1 Mostre como encontrar Ae B, dados A+B e A−B.
1.1.2 O vetor A, cuja grandeza ´ e 1,732 unidade e faz ˆ angulos iguais com os eixos coordenados. Ache
A
x
A
y
e A
z
.
1.1.3 Calcule as componentes de um vetor unit´ ario que se encontra no plano xy e faz ˆ angulos iguais com
as direc¸ ˜ oes positivas dos eixos x e y.
1.1.4 A velocidade do veleiro A em relac¸ ˜ ao ao veleiro B, v
rel
, ´ e definida pela equac¸ ˜ ao v
rel
= v
A
− v
B
,
onde v
A
´ e a velocidade de A e v
B
´ e a velocidade de B. Determine a velocidade de A em relac¸ ˜ ao a
B se
v
A
= 30 km/h no sentido leste
v
B
= 40 km/h no sentido norte.
Resposta: v
rel
= 50 km/h, 53, 1

no sentido sudeste.
1.1.5 Um veleiro navega durante 1 h a 4 km/h (em relac¸ ˜ ao ` a ´ agua) no rumo constante de b´ ussola de 40

nordeste. O veleiro ´ e levado simultaneamente por uma corrente. Ao final de uma hora o barco est´ a
a 6,12 km de seu ponto de partida. A reta entre seu ponto de partida e sua localizac¸ ˜ ao est´ a a 60

nordeste. Ache as componentes x (rumo leste) e y (rumo norte) da velocidade da ´ agua.
Resposta: v
leste
= 2, 73 km/h, v
norte
≈ 0 km/h.
1.1.6 Uma equac¸ ˜ ao vetorial pode ser reduzida ` a forma A = B. A partir disso, mostre que a equac¸ ˜ ao
vetorial ´ unica ´ e equivalente a trˆ es equac¸ ˜ oes escalares. Admitindo a validade da segunda lei de
Newton, F = ma, como uma equac¸ ˜ ao vetorial, isso significa que a
x
depende somente de F
x
e ´ e
independente de F
y
e F
z
.
1.1.7 Os v´ ertices A, B e C de um triˆ angulo s˜ ao dados pelos pontos (−1, 0, 2), (0, 1, 0) e (1, −1, 0),
respectivamente. Ache o ponto D, tal que a figura ABCD forme um paralelogramo plano.
Resposta: (0, −2, 2) ou (2, 0, −2).
1.1.8 Um triˆ angulo ´ e definido pelos v´ ertices de trˆ es vetores A, B e C, que se estendem da origem. Em
termos de A, Be C, mostre que a soma vetorial dos lados sucessivos do triˆ angulo (AB+BC+CA)
´ e zero, sendo que o lado AB vai de A a B etc.
1.1.9 Uma esfera de raio a tem centro em um ponto r
1
.
(a) Escreva a equac¸ ˜ ao alg´ ebrica para a esfera.
(b) Escreva uma equac¸ ˜ ao vetorial para a esfera.
Resposta: (a) (x −x
1
)
2
+ (y −y
1
)
2
+ (z −z
1
)
2
= a
2
.
(b) r = r
1
+a, com r
1
= centro.
(a assume todas as direc¸ ˜ oes mas tem uma grandeza fixa a.)
1.1.10 Um refletor de canto ´ e formado por trˆ es superf´ıcies refletoras mutuamente perpendiculares. Mostre
que um raio de luz que incide sobre esse refletor (atingindo todas as trˆ es superf´ıcies) ´ e refletido de
volta ao longo de uma linha paralela ` a linha de incidˆ encia.
Sugest˜ ao: Considere o efeito de uma reflex˜ ao sobre as componentes de um vetor que descreve a
direc¸ ˜ ao do raio de luz.
1.1.11 Lei de Hubble. Hubble descobriu que gal´ axias distantes est˜ ao se afastando com uma velocidade
proporcional ` a sua distˆ ancia do local onde estamos na Terra. Para a i-´ esima gal´ axia,
v
i
= H
0
r
i
,
tendo n´ os na origem. Mostre que esse afastamento das gal´ axias em relac¸ ˜ ao a n´ os n˜ ao implica que
estamos no centro do universo. Especificamente, considere a gal´ axia em r
1
uma nova origem e
mostre que ainda assim a lei de Hubble ´ e obedecida.
“livro” — 2007/8/1 — 15:06 — page 6 — #16
6 F´ısica Matem´ atica Arfken • Weber
1.1.12 Ache os vetores diagonais de um cubo unit´ ario com um v´ ertice na origem e seus trˆ es lados ao longo
dos eixos cartesianos. Mostre que h´ a quatro diagonais de comprimento

3. Representando essas
diagonais como vetores, quais s˜ ao suas componentes? Mostre que o comprimento das diagonais das
faces do cubo ´ e

2 e determine suas componentes.
1.2 Rotac¸ ˜ ao dos Eixos Coordenados
3
Na sec¸ ˜ ao anterior, vetores foram definidos ou representados de dois modos equivalentes: (1) geometricamente,
especificando grandeza e direc¸ ˜ ao, como uma seta, e (2) algebricamente, especificando as componentes relativas
aos eixos cartesianos. A segunda definic¸ ˜ ao ´ e adequada para a an´ alise vetorial deste cap´ıtulo. Nesta sec¸ ˜ ao,
s˜ ao apresentadas duas definic¸ ˜ oes mais refinadas sofisticadas e poderosas. A primeira ´ e que o campo vetorial
´ e determinado em termos do comportamento de suas componentes sob rotac¸ ˜ ao dos eixos coordenados. Essa
abordagem de teoria de transformac¸ ˜ ao leva ` a an´ alise tensorial do Cap´ıtulo 2 e a grupos de transformac¸ ˜ ao no
Cap´ıtulo 4. A segunda ´ e a definic¸ ˜ ao de componente da Sec¸ ˜ ao 1.1 refinada e generalizada segundo os conceitos dos
matem´ aticos de vetor e espac¸o vetorial. Essa abordagem leva a espac¸os de func¸ ˜ ao, incluindo o espac¸o de Hilbert.
A definic¸ ˜ ao de vetor como uma quantidade que tem grandeza e direc¸ ˜ ao ´ e incompleta. Por um lado, encontramos
quantidades, tais como constantes el´ asticas e ´ındices de refrac¸ ˜ ao em cristais anisotr´ opicos, que tˆ em grandeza
e direc¸ ˜ ao, mas n˜ ao s˜ ao vetores. Por outro lado, nossa abordagem ingˆ enua ´ e inaquedequada para generalizar e
estender para quantidades mais complexas. Procuramos uma nova definic¸ ˜ ao de campo vetorial usando nosso vetor
coordenada r como um prot´ otipo.
H´ a uma base f´ısica para nosso desenvolvimento de uma nova definic¸ ˜ ao. Descrevemos nosso mundo f´ısico pela
Matem´ atica, mas essa descric¸ ˜ ao e quaisquer previs˜ oes f´ısicas que possamos fazer devem ser independentes de
nossas convenc¸ ˜ oes matem´ aticas.
Em nosso caso espec´ıfico, admitimos que o espac¸o ´ e isotr´ opico; isto ´ e, n˜ ao h´ a uma direc¸ ˜ ao preferencial ou todas
as direc¸ ˜ oes s˜ ao equivalentes. Ent˜ ao, o sistema f´ısico que est´ a sendo analisado ou a lei da f´ısica que est´ a sendo
enunciada n˜ ao pode e n˜ ao deve depender de nossa escolha ou orientac¸ ˜ ao dos eixos coordenados. Especificamente,
se uma quantidade S n˜ ao depender da orientac¸ ˜ ao dos eixos coordenados, ela ´ e denominada escalar.
Agora retornamos ao conceito do vetor r como um objeto geom´ etrico independente do sistema de coordenadas.
Vamos examinar r em dois sistemas diferentes, um rotacionado em relac¸ ˜ ao ao outro.
Por simplicidade, em primeiro lugar consideramos o caso bidimensional. Se as coordenadas x e y forem
rotacionadas no sentido anti-hor´ ario por um ˆ angulo ϕ, mantendo r fixo (Figura 1.6), obtemos as seguintes relac¸ ˜ oes
entre as componentes projetadas no sistema original (sem linha) e projetadas no novo sistema rotacionado (com
linha):
x
t
= xcos ϕ +ysen ϕ,
y
t
= −xsen ϕ +y cos ϕ.
(1.8)
Vimos na Sec¸ ˜ ao 1.1 que um vetor pode ser representado pelas coordenadas de um ponto; isto ´ e, as coordenadas
eram proporcionais ` as componentes do vetor. Por conseguinte, as componentes de um vetor devem se transformar,
sob rotac¸ ˜ ao, em coordenadas de um ponto (tal como r). Portanto, sempre que qualquer par de quantidades A
x
e
A
y
no sistema de coordenadas xy ´ e transformado em (A
t
x
, A
t
y
) por essa rotac¸ ˜ ao do sistema de coordenadas com
A
t
x
= A
x
cos ϕ +A
y
sen ϕ,
A
t
y
= −A
x
sen ϕ +A
y
cos ϕ,
(1.9)
definimos
4
A
x
e A
y
como as componentes de um vetor A. Nosso vetor agora ´ e definido em termos da
transformac¸ ˜ ao de suas componentes sob rotac¸ ˜ ao do sistema de coordenadas. Se A
x
e A
y
se transformam do mesmo
modo que x e y, as componentes do vetor geral bidimensional da coordenada r, elas s˜ ao as componentes de um
vetor A. Se A
x
e A
y
n˜ ao mostrarem essa invariˆ ancia de forma (tamb´ em denominada covariˆ ancia) quando as
coordenadas forem rotacionadas, elas n˜ ao formam um vetor.
As componentes do campo vetorial A
x
e A
y
que satisfazem as equac¸ ˜ oes definidoras, Equac¸ ˜ oes (1.9), associam
uma grandeza A e uma direc¸ ˜ ao com cada ponto no espac¸o. A grandeza ´ e uma quantidade escalar, invariante
em relac¸ ˜ ao ` a rotac¸ ˜ ao do sistema de coordenadas. A direc¸ ˜ ao (relativa ao sistema “sem linha”) ´ e, da mesma
maneira, invariante pela rotac¸ ˜ ao do sistema coordenado (veja o Exerc´ıcio 1.2.1). O resultado de tudo isso ´ e
que as componentes de um vetor podem variar de acordo com a rotac¸ ˜ ao do sistema coordenado “com linha”.
3
Esta sec¸ ˜ ao ´ e opcional aqui. Ser´ a essencial para o Cap´ıtulo 2.
4
Uma quantidade escalar n˜ ao depende da orientac¸ ˜ ao de coordenadas; S

= S expressa o fato de que ela ´ e invariante sob rotac¸ ˜ ao das
coordenadas.
“livro” — 2007/8/1 — 15:06 — page 7 — #17
1. AN´ ALISE VETORIAL 7
Figura 1.6: Rotac¸ ˜ ao de eixos coordenados cartesianos ao redor do eixo z.
´
E isso que dizem as Equac¸ ˜ oes (1.9). Mas a variac¸ ˜ ao com o ˆ angulo ´ e tal que as componentes no sistema
coordenado rotacionado A
t
x
e A
t
y
definem um vetor com a mesma grandeza e a mesma direc¸ ˜ ao do vetor definido
pelas componentes A
x
e A
y
em relac¸ ˜ ao aos eixos coordenados x e y (compare com o Exerc´ıcio 1.2.1). As
componentes de A em um determinado sistema de coordenadas constituem a representac¸ ˜ ao de A naquele
sistema de coordenadas. As Equac¸ ˜ oes (1.9), as relac¸ ˜ oes de transformac¸ ˜ ao, s˜ ao uma garantia de que a entidade
A ´ e independente da rotac¸ ˜ ao do sistema de coordenada.
Para passar para trˆ es e, mais adiante, quatro dimens˜ oes, achamos conveniente usar uma notac¸ ˜ ao mais compacta.
Seja
x →x
1
y →x
2
(1.10)
a
11
= cos ϕ, a
12
= sen ϕ,
a
21
= −sen ϕ, a
22
= cos ϕ.
(1.11)
Ent˜ ao as Equac¸ ˜ oes (1.8) tornam-se
x
t
1
= a
11
x
1
+a
12
x
2
,
x
t
2
= a
21
x
1
+a
22
x
2
.
(1.12)
O coeficiente a
ij
pode ser interpretado como um co-seno diretor, o co-seno do ˆ angulo entre x
t
i
e x
j
; isto ´ e,
a
12
= cos(x
t
1
, x
2
) = sen ϕ,
a
21
= cos(x
t
2
, x
1
) = cos
_
ϕ +
π
2
_
= −sen ϕ.
(1.13)
A vantagem da nova notac¸ ˜ ao
5
´ e que ela nos permite usar o s´ımbolo de somat´ orio e reescrever as Equac¸ ˜ oes (1.12)
como
x
t
i
=
2

j=1
a
ij
x
j
, i = 1, 2. (1.14)
5
Vocˆ e talvez estranhe a substituic¸ ˜ ao de uma parˆ ametro ϕ por quatro parˆ ametros a
ij
.
´
E claro que a
ij
n˜ ao constitui um conjunto m´ınimo de
parˆ ametros. Para duas dimens˜ oes os quatro a
ij
est˜ ao sujeitos ` as trˆ es limitac¸ ˜ oes dadas na Equac¸ ˜ oes (1.18). A justificativa para esse conjunto
redundante de co-senos diretores ´ e a conveniˆ encia que ele oferece. Esperamos que essa conveniˆ encia se torne mais evidente nos Cap´ıtulos 2
e 3. Para rotac¸ ˜ oes tridimensionais (9 a
ij
, mas somente trˆ es independentes) s˜ ao fornecidas descric¸ ˜ oes alternativas por: (1) ˆ angulos de Euler
discutidos na Sec¸ ˜ ao 3.3, (2) quat´ ernions, e (3) parˆ ametros de Cayley-Klein. Essas alternativas tˆ em suas respectivas vantagens e desvantagens.
“livro” — 2007/8/1 — 15:06 — page 8 — #18
8 F´ısica Matem´ atica Arfken • Weber
Note que i continua como um parˆ ametro que d´ a origem a uma ´ unica equac¸ ˜ ao quando for igualado a 1 e a uma
segunda equac¸ ˜ ao quando for igualado a 2. O ´ındice j, ´ e claro, ´ e um ´ındice de somat ´ orio, um ´ındice fict´ıcio e, como
acontece com uma vari´ avel de integrac¸ ˜ ao, j pode ser substitu´ıdo por qualquer outro s´ımbolo conveniente.
Agora, a generalizac¸ ˜ ao para trˆ es, quatro ou N dimens˜ oes ´ e simples. Diz-se que o conjunto de N quantidades V
j
forma as componentes de um vetor N-dimensional Vse e somente se seus valores relativos aos eixos coordenados
rotacionados forem dados por
V
t
i
=
N

j=1
a
ij
V
j
, i = 1, 2, . . . , N. (1.15)
Como antes, a
ij
´ e o co-seno do ˆ angulo entre x
t
i
e x
j
. Muitas vezes o limite superior de N e a faixa correspondente
de i n˜ ao ser˜ ao indicados.
´
E dado como certo que vocˆ e sabe quantas dimens˜ oes seu espac¸o tem.
Pela definic¸ ˜ ao de a
ij
como o co-seno do ˆ angulo entre a direc¸ ˜ ao x
t
i
positiva e a direc¸ ˜ ao x
j
positiva, podemos
escrever (coordenadas cartesianas)
6
a
ij
=
∂x
t
i
∂x
j
. (1.16a)
Usando a rotac¸ ˜ ao inversa (ϕ →−ϕ) temos
x
j
=
2

i=1
a
ij
x
t
i
ou
∂x
j
∂x
t
i
= a
ij
. (1.16b)
Note que essas s˜ ao derivadas parciais. Usando as Equac¸ ˜ oes (1.16a) e (1.16b), a Equac¸ ˜ ao (1.15) torna-se
V
t
i
=
N

j=1
∂x
t
i
∂x
j
V
j
=
N

j=1
∂x
j
∂x
t
i
V
j
. (1.17)
Os co-senos diretores a
ij
satisfazem uma condic¸ ˜ ao de ortogonalidade

i
a
ij
a
ik
= δ
jk
, (1.18)
ou, equivalentemente,

i
a
ji
a
ki
= δ
jk
. (1.19)
Aqui, o s´ımbolo δ
jk
´ e o delta de Kronecker definido por
δ
jk
= 1 para j = k,
δ
jk
= 0 para j ,= k.
(1.20)
´
E f´ acil verificar que as Equac¸ ˜ oes (1.18) e a Equac¸ ˜ ao (1.19) s˜ ao v´ alidas no caso bidimensional, substituindo os
a
ij
espec´ıficos das Equac¸ ˜ oes (1.11). O resultado ´ e a bem conhecida identidade sen
2
ϕ + cos
2
ϕ = 1 para o caso
de n˜ ao-nulo. Para verificar a Equac¸ ˜ ao (1.18) na forma geral, podemos usar as formas das derivadas parciais das
Equac¸ ˜ oes (1.16a) e (1.16b) para obter

i
∂x
j
∂x
t
i
∂x
k
∂x
t
i
=

i
∂x
j
∂x
t
i
∂x
t
i
∂x
k
=
∂x
j
∂x
k
. (1.21)
A ´ ultima etapa ´ e obtida usando-se as regras padr˜ oes para a diferenciac¸ ˜ ao parcial, admitindo que x
j
´ e uma func¸ ˜ ao de
x
t
1
, x
t
2
, x
t
3
e assim por diante. O resultado final, ∂x
j
/∂x
k
, ´ e igual a δ
jk
, j´ a que se admite que x
j
e x
k
, como eixos
coordenados, s˜ ao perpendiculares (duas ou trˆ es dimens˜ oes) ou ortogonais (para qualquer n´ umero de dimens˜ oes).
De modo equivalente, podemos admitir que x
j
e x
k
(j ,= k) s˜ ao vari´ aveis totalmente independentes. Se j = k, a
derivada parcial ´ e claramente igual a 1.
Ao redefinir um vetor em termos do modo como suas componentes se transformam sob uma rotac¸ ˜ ao do sistema
de coordenadas, devemos enfatizar dois pontos:
6
Diferencie x

i
em relac¸ ˜ ao a x
j
. Veja a discuss˜ ao ap´ os a Equac¸ ˜ ao (1.21).
“livro” — 2007/8/1 — 15:06 — page 9 — #19
1. AN´ ALISE VETORIAL 9
1. Essa definic¸ ˜ ao ´ e desenvolvida porque ´ e ´ util e apropriada para descrever nosso mundo f´ısico. Nossas equac¸ ˜ oes
vetoriais ser˜ ao independentes de qualquer sistema de coordenadas particular. (O sistema de coordenadas n˜ ao
precisa nem ao menos ser cartesiano.) A equac¸ ˜ ao vetorial sempre pode ser expressa em algum sistema de
coordenadas particular e, para obter resultados num´ ericos, devemos, em ´ ultima instˆ ancia, expressar a equac¸ ˜ ao
em algum sistema de coordenadas espec´ıfico.
2. Essa definic¸ ˜ ao est´ a sujeita a uma generalizac¸ ˜ ao que abrir´ a o ramo da matem´ atica conhecido como an´ alise
tensorial (Cap´ıtulo 2).
Aqui, devemos fazer uma qualificac¸ ˜ ao. O comportamento das componentes do vetor sob rotac¸ ˜ ao das
coordenadas ´ e usado na Sec¸ ˜ ao 1.3 para provar que um produto escalar ´ e um escalar; na Sec¸ ˜ ao 1.4, para provar
que um produto vetorial ´ e um vetor; e na Sec¸ ˜ ao 1.6, para mostrar que o gradiente de um escalar ψ, ∇ψ, ´ e um vetor.
O restante deste cap´ıtulo prossegue tendo como base as definic¸ ˜ oes menos restritivas de vetor dadas na Sec¸ ˜ ao 1.1.
Resumo: Vetores e Espac¸o Vetorial
Em matem´ atica costuma-se denominar uma tripla ordenada de n´ umeros reais (x
1
, x
2
, x
3
) vetor x. O n´ umero x
n
´ e denominado a n-´ esima componente do vetor x. A colec¸ ˜ ao de todos esses vetores (obedecendo ` as propriedades
apresentadas a seguir) forma um espac¸o vetorial tridimensional real. Atribu´ımos cinco propriedades a nossos
vetores: se x = (x
1
, x
2
, x
3
) e y = (y
1
, y
2
, y
3
),
1. Igualdade de vetores: x = y significa x
i
= y
i
, i = 1, 2, 3.
2. Adic¸ ˜ ao de vetores: x +y = z significa x
i
+y
i
= z
i
, i = 1, 2, 3.
3. Multiplicac¸ ˜ ao escalar: ax ↔(ax
1
, ax
2
, ax
3
) (com a real).
4. Negativo de um vetor: −x = (−1)x ↔(−x
1
, −x
2
, −x
3
).
5. Vetor nulo: Existe um vetor nulo 0 ↔(0, 0, 0).
Uma vez que as componentes de nosso vetor s˜ ao n´ umeros reais (ou complexos), as seguintes propriedades
tamb´ em valem:
1. A adic¸ ˜ ao de vetores ´ e comutativa: x +y = y +x.
2. A adic¸ ˜ ao de vetores ´ e associativa: (x +y) +z = x + (y +z).
3. A multiplicac¸ ˜ ao escalar ´ e distributiva:
a(x +y) = ax +ay e tamb´ em (a +b)x = ax +bx.
4. A multiplicac¸ ˜ ao escalar ´ e associativa: (ab)x = a(bx).
Al´ em disso, o vetor nulo 0 ´ e ´ unico, assim como o negativo de um dado vetor x.
No que tange aos vetores em si, essa abordagem ´ e uma mera formalizac¸ ˜ ao da discuss˜ ao da componente da
Sec¸ ˜ ao 1.1. A importˆ ancia est´ a nas extens˜ oes, que ser˜ ao consideradas em cap´ıtulos posteriores. No Cap´ıtulo 4,
mostramos que vetores formam um grupo abeliano sob adic¸ ˜ ao e um espac¸o linear com as transformac¸ ˜ oes no
espac¸o linear descritas por matrizes. Por fim, e talvez mais importante, para a F´ısica avanc¸ada, o conceito de
vetores apresentado aqui pode ser generalizado para: (1) quantidades complexas,
7
(2) func¸ ˜ oes e (3) um n´ umero
infinito de componentes. Isso leva a espac¸os de func¸ ˜ oes de infinitas dimens˜ oes, os espac¸os de Hilbert, que s˜ ao
importantes na moderna teoria quˆ antica. Uma breve introduc¸ ˜ ao ` as expans˜ oes de func¸ ˜ oes e ao espac¸o de Hilbert
aparece na Sec¸ ˜ ao 10.4.
Exerc´ıcios
1.2.1 (a) Mostre que a grandeza de um vetor A, A = (A
2
x
+ A
2
y
)
1/2
, ´ e independente da orientac¸ ˜ ao do
sistema de coordenadas rotacionado.
_
A
2
x
+A
2
y
_
1/2
=
_
A
t2
x
+A
t2
y
_
1/2
,
isto ´ e, ´ e independente do ˆ angulo de rotac¸ ˜ ao ϕ.
Essa independˆ encia do ˆ angulo ´ e expressa dizendo que A ´ e invariante sob rotac¸ ˜ oes.
(b) Em um ponto (x, y) dado, A define um ˆ angulo α relativo ao eixo x positivo e um ˆ angulo α
t
relativo ao eixo x
t
positivo. O ˆ angulo entre x e x
t
´ e ϕ. Mostre que A = A
t
define a mesma
7
O espac¸o vetorial de n dimens˜ oes de n reais costuma ser denominado R
n
, e o espac¸o vetorial de n dimens˜ oes de n complexas ´ e
denominado C
n
.
“livro” — 2007/8/1 — 15:06 — page 10 — #20
10 F´ısica Matem´ atica Arfken • Weber
direc¸ ˜ ao no espac¸o quando expresso em termos de suas componentes “linha”, bem como quando
expresso em termos de suas componentes “sem linha”; isto ´ e,
α
t
= α −ϕ.
1.2.2 Prove a condic¸ ˜ ao de ortogonalidade

i
a
ji
a
ki
= δ
jk
. Como um caso especial disso, os co-senos
diretores da Sec¸ ˜ ao 1.1 satisfazem a relac¸ ˜ ao
cos
2
α + cos
2
β + cos
2
γ = 1,
um resultado que segue da Equac¸ ˜ ao (1.6).
1.3 Produto Escalar ou Produto Interno
Agora que j´ a definimos vetores, passaremos a combin´ a-los. As leis para combinac¸ ˜ ao de vetores devem
ser matematicamente consistentes. Dentre as possibilidades que s˜ ao consistentes, selecionamos duas que s˜ ao
interessantes tanto em termos matem´ aticos quanto em termos f´ısicos. Uma terceira possibilidade ´ e apresentada
no Cap´ıtulo 2, no qual formamos tensores.
A projec¸ ˜ ao de um vetor A sobre um eixo coordenado, que d´ a suas componentes cartesianas na Equac¸ ˜ ao (1.4),
define um caso geom´ etrico especial do produto escalar entre Ae os vetores unit´ arios coordenados:
A
x
= Acos α ≡ A ˆ x, A
y
= Acos β ≡ A ˆ y, A
z
= Acos γ ≡ A ˆz. (1.22)
Esse caso especial de um produto escalar em conjunc¸ ˜ ao com propriedades gerais do produto escalar ´ e suficiente
para compreender o caso geral do produto escalar.
Exatamente como a projec¸ ˜ ao ´ e linear em A, queremos que o produto escalar de dois vetores seja linear em Ae
B, isto ´ e, obedec¸a ` as leis distributiva e associativa
A (B+C) = A B+A C (1.23a)
A (yB) = (yA) B = yA B, (1.23b)
em que y ´ e um n´ umero. Agora podemos usar a decomposic¸ ˜ ao de B em suas componentes cartesianas conforme a
Equac¸ ˜ ao (1.5), B = B
x
ˆ x + B
y
ˆ y + B
z
ˆz, para construir o escalar geral ou o produto escalar dos vetores A e B
como
A B = A (B
x
ˆ x +B
y
ˆ y +B
z
ˆz)
= B
x
A ˆ x +B
y
A ˆ y +B
z
A ˆz por aplicac¸ ˜ ao das Equac¸ ˜ oes (1.23a) e (1.23b)
= B
x
A
x
+B
y
A
y
+B
z
A
z
por substituic¸ ˜ ao na Equac¸ ˜ ao (1.22).
Por conseguinte
A B ≡

i
B
i
A
i
=

i
A
i
B
i
= B A. (1.24)
Se A = B na Equac¸ ˜ ao (1.24), recuperamos a grandeza A = (

A
2
i
)
1/2
de A na Equac¸ ˜ ao (1.6) pela
Equac¸ ˜ ao (1.24).
´
E obvio, pela Equac¸ ˜ ao (1.24), que o produto escalar trata A e B da mesma maneira, ou seja, ´ e sim´ etrico em A
e B e ´ e comutativo. Assim, alternativa e equivalentemente, podemos primeiro generalizar as Equac¸ ˜ oes (1.22) para
a projec¸ ˜ ao A
B
de A na direc¸ ˜ ao de um vetor B ,= 0, em que A
B
= Acos θ ≡ A
ˆ
B, em que
ˆ
B = B/B ´ e o vetor
unit´ ario na direc¸ ˜ ao de B e θ ´ e o ˆ angulo entre A e B, como mostra a Figura 1.7. De modo semelhante, projetamos
Asobre Bcomo B
A
= Bcos θ ≡ B
ˆ
A. Em segundo lugar, fazemos essas projec¸ ˜ oes sim´ etricas em Ae B, o que
leva ` a definic¸ ˜ ao
A B ≡ A
B
B = AB
A
= ABcos θ. (1.25)
A lei distributiva na Equac¸ ˜ ao (1.23a) ´ e ilustrada na Figura 1.8, que mostra que a soma das projec¸ ˜ oes de B e C
sobre A, B
A
+C
A
´ e igual ` a projec¸ ˜ ao de B+C sobre A, (B+C)
A
.
Segue das Equac¸ ˜ oes (1.22), (1.24) e (1.25) que os vetores unit´ arios das coordenadas satisfazem ` as relac¸ ˜ oes
ˆ x ˆ x = ˆ y ˆ y = ˆz ˆz = 1, (1.26a)
“livro” — 2007/8/1 — 15:06 — page 11 — #21
1. AN´ ALISE VETORIAL 11
Figura 1.7: Produto escalar A B = ABcos θ.
Figura 1.8: A lei distributiva A (B+C) = AB
A
+AC
A
= A(B+C)
A
, Equac¸ ˜ ao (1.23a).
enquanto
ˆ x ˆ y = ˆ x ˆz = ˆ y ˆz = 0. (1.26b)
Se a definic¸ ˜ ao de componente, Equac¸ ˜ ao (1.24), for rotulada como uma definic¸ ˜ ao alg´ ebrica, ent˜ ao a
Equac¸ ˜ ao (1.25) ´ e uma definic¸ ˜ ao geom´ etrica. Uma das aplicac¸ ˜ oes mais comuns do produto escalar na f´ısica ´ e
no c´ alculo de trabalho = forc¸adeslocamento cos θ, que ´ e interpretada como o deslocamento vezes a projec¸ ˜ ao
da forc¸a ao longo da direc¸ ˜ ao de deslocamento, isto ´ e, o produto escalar da forc¸a e do deslocamento, W = F S.
Se A B = 0 e sabemos que A ,= 0 e B ,= 0, ent˜ ao, pela Equac¸ ˜ ao (1.25), cos θ = 0 ou θ = 90

, 270

e
assim por diante. Os vetores A e B devem ser perpendiculares. Alternativamente, podemos dizer que A e B s˜ ao
ortogonais. Os vetores unit´ arios ˆ x, ˆ y e ˆz s˜ ao mutuamente ortogonais. Para desenvolver um pouco mais essa noc¸ ˜ ao
de ortogonalidade, suponha que n seja um vetor unit´ ario e r um vetor n˜ ao-zero no plano xy, isto ´ e, r = ˆ xx + ˆ yy
(Figura 1.9). Se
n r = 0
para todas as escolhas de r, ent˜ ao n deve ser perpendicular (ortogonal) ao plano xy.
Muitas vezes ´ e conveniente substituir ˆ x, ˆ y e ˆz por vetores unit´ arios com ´ındices e
m
, m = 1, 2, 3, com ˆ x = e
1
e assim por diante. Ent˜ ao, as Equac¸ ˜ oes (1.26a) e (1.26b) tornam-se
e
m
e
n
= δ
mn
. (1.26c)
Para m ,= n, os vetores unit´ arios e
m
e e
n
s˜ ao ortogonais. Para m = n, cada vetor ´ e normalizado ` a unidade, isto
´ e, tem grandeza unit´ aria. O conjunto e
m
´ e denominado ortonormal. Uma grande vantagem da Equac¸ ˜ ao (1.26c)
sobre as Equac¸ ˜ oes (1.26a) e (1.26b) ´ e que a Equac¸ ˜ ao (1.26c) pode ser imediatamente generalizada para espac¸o
N dimensional: m, n = 1, 2, . . . , N. Por fim, estamos escolhendo conjuntos de vetores unit´ arios e
m
que s˜ ao
ortonormais por conveniˆ encia – uma conveniˆ encia muito grande.
Invari ˆ ancia do Produto Escalar sob Rotac¸ ˜ oes
Ainda n˜ ao mostramos que a palavra escalar ´ e justificada ou que o produto escalar ´ e, de fato, uma quantidade
escalar. Para fazer isso, investigamos o comportamento de A B sob a rotac¸ ˜ ao do sistema de coordenadas. Pela
“livro” — 2007/8/1 — 15:06 — page 12 — #22
12 F´ısica Matem´ atica Arfken • Weber
Figura 1.9: Um vetor normal.
utilizac¸ ˜ ao da Equac¸ ˜ ao (1.15),
A
t
x
B
t
x
+A
t
y
B
t
y
+A
t
z
B
t
z
=

i
a
xi
A
i

j
a
xj
B
j
+

i
a
yi
A
i

j
a
yj
B
j
+

i
a
zi
A
i

j
a
zj
B
j
. (1.27)
Usando os ´ındices k e l para somar xy e z, obtemos

k
A
t
k
B
t
k
=

l

i

j
a
li
A
i
a
lj
B
j
, (1.28)
e, rearranjando os termos do lado direto, temos

k
A
t
k
B
t
k
=

l

i

j
(a
li
a
lj
)A
i
B
j
=

i

j
δ
ij
A
i
B
j
=

i
A
i
B
i
. (1.29)
As ´ ultimas duas etapas s˜ ao executadas utilizando a Equac¸ ˜ ao (1.18), a condic¸ ˜ ao de ortogonalidade dos co-senos
diretores e as Equac¸ ˜ oes (1.20), que definem o delta de Kronecker. O efeito do delta de Kronecker ´ e cancelar todos
os termos de um somat ´ orio para qualquer ´ındice, exceto para o termo cujos ´ındices s˜ ao iguais. Na Equac¸ ˜ ao (1.29)
seu efeito ´ e estabelecer j = i e eliminar o somat ´ orio em j.
´
E claro que tamb´ em pod´ıamos, da mesma forma,
estabelecer i = j e eliminar o somat´ orio em i. A Equac¸ ˜ ao (1.29) nos d´ a

k
A
t
k
B
t
k
=

i
A
i
B
i
, (1.30)
que ´ e exatamente a nossa definic¸ ˜ ao de uma quantidade escalar, uma quantidade que permanece invariante sob a
rotac¸ ˜ ao do sistema coordenado.
Por uma abordagem similar que explora esse conceito de invariˆ ancia, tomamos C = A+B e o multiplicamos
escalarmente por ele mesmo:
C C = (A+B) (A+B)
= A A+B B+ 2A B. (1.31)
Uma vez que
C C = C
2
, (1.32)
“livro” — 2007/8/1 — 15:06 — page 13 — #23
1. AN´ ALISE VETORIAL 13
o quadrado da grandeza do vetor C e, por isso, uma quantidade invariante, vemos que
A B =
1
2
_
C
2
−A
2
−B
2
_
, invariante. (1.33)
Uma vez que o lado direito da Equac¸ ˜ ao (1.33) ´ e invariante — isto ´ e, uma quantidade escalar —, o lado esquerdo,
A B, tamb´ em deve ser invariante sob rotac¸ ˜ ao do sistema coordenado. Por conseguinte, A B ´ e um escalar.
A Equac¸ ˜ ao (1.31) ´ e, na realidade, uma outra forma da lei dos co-senos, que ´ e
C
2
= A
2
+B
2
+ 2ABcos θ. (1.34)
Comparando as Equac¸ ˜ oes (1.31) e (1.34), temos uma outra verificac¸ ˜ ao da Equac¸ ˜ ao (1.25) ou, se preferirmos, uma
derivac¸ ˜ ao vetorial da lei dos co-senos (Figura 1.10).
Figura 1.10: A lei dos co-senos.
O produto escalar, dado pela Equac¸ ˜ ao (1.24), pode ser generalizado de duas maneiras. O espac¸o n˜ ao precisa
ficar restrito a trˆ es dimens˜ oes. Em um espac¸o n dimensional, a Equac¸ ˜ ao (1.24) se aplica com a soma indo de 1 a
n. Al´ em do mais, n pode ser infinito, quando ent˜ ao a soma ´ e uma s´ erie infinita convergente (Sec¸ ˜ ao 5.2). A outra
generalizac¸ ˜ ao estende o conceito de vetor para abranger func¸ ˜ oes. A func¸ ˜ ao an´ aloga de um produto escalar, ou
interno, aparece na Sec¸ ˜ ao 10.4.
Exerc´ıcios
1.3.1 Dois vetores de grandeza unit´ aria e
i
e e
j
devem ser paralelos ou perpendiculares um ao outro.
Mostre que e
i
e
j
fornece uma interpretac¸ ˜ ao da Equac¸ ˜ ao (1.18), a relac¸ ˜ ao de ortogonalidade do
co-seno diretor.
1.3.2 Dado que (1) o produto escalar de um vetor unit´ ario por ele mesmo ´ e a unidade e (2) essa relac¸ ˜ ao ´ e
v´ alida em todos os sistemas de coordenadas (rotacionados), mostre que ˆ x
t
ˆ x
t
= 1 (com o sistema
“linha”rotacionado de 45

ao redor do eixo z em relac¸ ˜ ao ao sistema “sem linha”) implica que
ˆ x ˆ y = 0.
1.3.3 O vetor r, que inicia na origem, termina no ponto no espac¸o (x, y, z) e especifica esse ponto. Ache
a superf´ıcie abrangida pela extremidade de r se
(a) (r −a) a = 0. Caracterize a geometricamente.
(b) (r −a) r = 0. Descreva o papel geom´ etrico de a.
O vetor a ´ e constante (em grandeza e direc¸ ˜ ao).
1.3.4 A energia de interac¸ ˜ ao entre dois dipolos de momentos µ
1
e µ
2
pode ser escrita na forma vetorial
V = −
µ
1
µ
2
r
3
+
3(µ
1
r)(µ
2
r)
r
5
e na forma escalar
V =
µ
1
µ
2
r
3
(2 cos θ
1
cos θ
2
−sen θ
1
sen θ
2
cos ϕ).
Aqui, θ
1
e θ
2
s˜ ao os ˆ angulos de µ
1
e µ
2
em relac¸ ˜ ao a r, enquanto ϕ ´ e o azimute de µ
2
em relac¸ ˜ ao
ao plano de µ
1
–r (Figura 1.11). Mostre que essas duas formas s˜ ao equivalentes.
Sugest˜ ao: A Equac¸ ˜ ao (12.178) ser´ a ´ util.
“livro” — 2007/8/1 — 15:06 — page 14 — #24
14 F´ısica Matem´ atica Arfken • Weber
1.3.5 Um cano desce em diagonal pela parede sul de um edif´ıcio, fazendo um ˆ angulo de 45

com a
horizontal. Ao chegar a uma quina da parede, o cano muda de direc¸ ˜ ao e continua descendo na
diagonal por uma parede leste, ainda fazendo um ˆ angulo de 45

com a horizontal. Qual ´ e o ˆ angulo
entre as sec¸ ˜ oes do cano da parede sul e da parede leste?
Resposta: 120

.
Figura 1.11: Dois momentos dipolares.
1.3.6 Ache a distˆ ancia mais curta entre um observador no ponto (2, 1, 3) e um foguete em vˆ oo livre com
velocidade de (1, 2, 3) m/s. O foguete foi lanc¸ado do ponto (1, 1, 1) no tempo t = 0. As distˆ ancias
est˜ ao expressas em quilˆ ometros.
1.3.7 Prove a lei dos co-senos a partir do triˆ angulo com v´ ertices nos pontos C e A da Figura 1.10 e da
projec¸ ˜ ao do vetor B sobre o vetor A.
1.4 Produto de Vetores ou Produto Externo
Uma segunda forma de multiplicac¸ ˜ ao de vetores emprega o seno do ˆ angulo inclu´ıdo em vez do co-seno. Por
exemplo, o momento angular de um corpo mostrado na ponta do vetor distˆ ancia da Figura 1.12 ´ e definido como
Figura 1.12: Momento angular.
momento angular = brac¸o do raio momento linear
= distˆ ancia momento linear sen θ .
Por conveniˆ encia no tratamento de problemas relacionados a quantidades tais como momento angular, torque e
velocidade angular, definimos o produto vetorial ou produto externo como
C = AB, com C = ABsen θ. (1.35)
“livro” — 2007/8/1 — 15:06 — page 15 — #25
1. AN´ ALISE VETORIAL 15
Diferente do caso anterior do produto escalar, Cagora ´ e um vetor e atribu´ımos a ele uma direc¸ ˜ ao perpendicular ao
plano de Ae B, tal que A, B e C formam um sistema do dextrogiro. Com essa escolha de direc¸ ˜ ao temos
AB = −BA, anticomutac¸ ˜ ao. (1.36a)
Por essa definic¸ ˜ ao de produto externo, temos
ˆ x ˆ x = ˆ y ˆ y = ˆz ˆz = 0, (1.36b)
ao passo que
ˆ x ˆ y = ˆz, ˆ y ˆz = ˆ x, ˆz ˆ x = ˆ y,
ˆ y ˆ x = −ˆz, ˆz ˆ y = −ˆ x, ˆ x ˆz = −ˆ y.
(1.36c)
Entre os exemplos de produtos externo na f´ısica matem´ atica est˜ ao a relac¸ ˜ ao entre o momento linear p e o
momento angular L, com L definido como
L = r p,
relac¸ ˜ ao entre velocidade linear v e velocidade angular ω,
v = ω r.
Os vetores v e p descrevem propriedades da part´ıcula ou sistema f´ısico. Contudo, o vetor posic¸ ˜ ao r ´ e determinado
pela escolha da origem das coordenadas. Isso significa que ω e L dependem da escolha da origem.
A familiar induc¸ ˜ ao magn´ etica B costuma ser definida pela equac¸ ˜ ao do produto vetorial da forc¸a
8
F
M
= qv B (unidades mks).
Aqui, v ´ e a velocidade da carga el´ etrica q e F
M
´ e a forc¸a resultante sobre a carga em movimento.
O produto externo tem uma importante interpretac¸ ˜ ao geom´ etrica, que utilizaremos em sec¸ ˜ oes subseq¨ uentes. No
paralelogramo definido por Ae B(Figura 1.13), Bsen θ ´ e a altura se A for tomado como o comprimento da base.
Ent˜ ao [A B[ = ABsen θ ´ e a ´ area do paralelogramo. Como vetor, A B ´ e a ´ area do paralelogramo definido
por Ae B, com o vetor de ´ area normal ao plano do paralelogramo. Isso sugere que a ´ area (com sua orientac¸ ˜ ao no
espac¸o) pode ser tratada como uma quantidade vetorial.
Figura 1.13: Representac¸ ˜ ao em paralelogramo do produto vetorial.
Uma definic¸ ˜ ao alternativa do produto vetorial pode ser derivada do caso especial dos vetores unit´ arios
coordenados nas Equac¸ ˜ ao (1.36c) junto com a linearidade do produto externo em ambos os argumentos vetoriais,
8
Aqui, admite-se que o campo el´ etrico E ´ e zero.
“livro” — 2007/8/1 — 15:06 — page 16 — #26
16 F´ısica Matem´ atica Arfken • Weber
por analogia com as Equac¸ ˜ oes (1.23) para o produto escalar.
A(B+C) = AB+AC, (1.37a)
(A+B) C = AC+BC, (1.37b)
A(yB) = yAB = (yA) B, (1.37c)
em que y ´ e, mais uma vez, um n´ umero. Usando a decomposic¸ ˜ ao de A e B em suas componentes cartesianas de
acordo com a Equac¸ ˜ ao (1.5), encontramos
AB ≡ C = (C
x
, C
y
, C
z
) = (A
x
ˆ x +A
y
ˆ y +A
z
ˆz) (B
x
ˆ x +B
y
ˆ y +B
z
ˆz)
= (A
x
B
y
−A
y
B
x
)ˆ x ˆ y + (A
x
B
z
−A
z
B
x
)ˆ x ˆz
+ (A
y
B
z
−A
z
B
y
)ˆ y ˆz ,
aplicando as Equac¸ ˜ oes (1.37a) e (1.37b) e substituindo as Equac¸ ˜ oes (1.36a), (1.36b) e (1.36c), de modo que as
componentes cartesianas de AB se tornam
C
x
= A
y
B
z
−A
z
B
y
, C
y
= A
z
B
x
−A
x
B
z
, C
z
= A
x
B
y
−A
y
B
x
, (1.38)
ou
C
i
= A
j
B
k
−A
k
B
j
, i, j, k todos diferentes, (1.39)
e com permutac¸ ˜ ao c´ıclica dos ´ındices i, j e k correspondendo a x, y e z, respectivamente. O produto vetorial C
pode ser representado mnemonicamente por um determinante
9
C =
¸
¸
¸
¸
¸
¸
ˆ x ˆ y ˆz
A
x
A
y
A
z
B
x
B
y
B
z
¸
¸
¸
¸
¸
¸
≡ ˆ x
¸
¸
¸
¸
A
y
A
z
B
y
B
z
¸
¸
¸
¸
− ˆ y
¸
¸
¸
¸
A
x
A
z
B
x
B
z
¸
¸
¸
¸
+ˆz
¸
¸
¸
¸
A
x
A
y
B
x
B
y
¸
¸
¸
¸
, (1.40)
que deve ser expandido pela linha superior para reproduzir as trˆ es componentes de Clistadas nas Equac¸ ˜ oes (1.38).
A Equac¸ ˜ ao (1.35) poderia ser denominada definic¸ ˜ ao geom´ etrica do produto vetorial. Ent˜ ao as Equac¸ ˜ oes (1.38)
seriam uma definic¸ ˜ ao alg´ ebrica.
Para mostrar a equivalˆ encia entre a Equac¸ ˜ ao (1.35) e a definic¸ ˜ ao de componente, as Equac¸ ˜ oes (1.38), vamos
formar os produtos A C e B C, usando as Equac¸ ˜ oes (1.38). Temos
A C = A (AB)
= A
x
(A
y
B
z
−A
z
B
y
) +A
y
(A
z
B
x
−A
x
B
z
) +A
z
(A
x
B
y
−A
y
B
x
)
= 0. (1.41)
De modo semelhante,
B C = B (AB) = 0. (1.42)
As Equac¸ ˜ oes (1.41) e (1.42) mostram que C ´ e perpendicular a ambos, A e B (cos θ = 0, θ = ±90

) e, portanto,
perpendicular ao plano que eles determinam. A direc¸ ˜ ao positiva ´ e determinada considerando casos especiais, tais
como os vetores unit´ arios ˆ x ˆ y = ˆz (C
z
= +A
x
B
y
).
O m´ odulo ´ e obtido por
(AB) (AB) = A
2
B
2
−(A B)
2
= A
2
B
2
−A
2
B
2
cos
2
θ
= A
2
B
2
sen
2
θ. (1.43)
Por conseguinte,
C = ABsen θ. (1.44)
9
Veja a Sec¸ ˜ ao 3.1 para um breve resumo de determinantes.
“livro” — 2007/8/1 — 15:06 — page 17 — #27
1. AN´ ALISE VETORIAL 17
A primeira etapa na Equac¸ ˜ ao (1.43) pode ser verificada pela expans˜ ao na forma de componentes usando as
Equac¸ ˜ oes (1.38) para A B e a Equac¸ ˜ ao (1.24) para o produto escalar. Pelas Equac¸ ˜ oes (1.41), (1.42) e (1.44),
vemos a equivalˆ encia das Equac¸ ˜ oes (1.35) e (1.38), as duas definic¸ ˜ oes de produto vetorial.
Resta ainda o problema de verificar que C = A B ´ e, de fato, um vetor, isto ´ e, obedece ` a Equac¸ ˜ ao (1.15), a
lei de transformac¸ ˜ ao vetorial. Iniciando em um sistema rotacionado (sistema “linha”),
C
t
i
= A
t
j
B
t
k
−A
t
k
B
t
j
, i, j, e k em ordem c´ıclica,
=

l
a
jl
A
l

m
a
km
B
m

l
a
kl
A
l

m
a
jm
B
m
=

l,m
(a
jl
a
km
−a
kl
a
jm
)A
l
B
m
. (1.45)
A combinac¸ ˜ ao de co-senos diretores entre parˆ enteses desaparece para m = l. Por conseguinte, temos j e k
assumindo valores fixos, dependendo da escolha de l e seis combinac¸ ˜ oes de l e m. Se i = 3, ent˜ ao j = 1, k = 2,
(ordem c´ıclica) e temos as seguintes combinac¸ ˜ oes de co-senos diretores:
10
a
11
a
22
−a
21
a
12
= a
33
,
a
13
a
21
−a
23
a
11
= a
32
,
a
12
a
23
−a
22
a
13
= a
31
(1.46)
e seus negativos. As Equac¸ ˜ oes (1.46) s˜ ao identidades satisfeitas pelos co-senos diretores. Elas podemser verificadas
com a utilizac¸ ˜ ao de determinantes e matrizes (veja Exerc´ıcio 3.3.3). Substituindo M na Equac¸ ˜ ao (1.45),
C
t
3
= a
33
A
1
B
2
+a
32
A
3
B
1
+a
31
A
2
B
3
−a
33
A
2
B
1
−a
32
A
1
B
3
−a
31
A
3
B
2
= a
31
C
1
+a
32
C
2
+a
33
C
3
=

n
a
3n
C
n
. (1.47)
Permutando os ´ındices para pegar C
t
1
e C
t
2
, vemos que a Equac¸ ˜ ao (1.15) ´ e satisfeita, e C ´ e, de fato, um vetor.
´
E preciso mencionar que essa natureza vetorial do produto externo ´ e um acidente associado com a natureza
tridimensional do espac¸o ordin´ ario.
11
Veremos, no Cap´ıtulo 2, que o produto cruzado tamb´ em pode ser tratado
como um tensor anti-sim´ etrico de segunda ordem.
Se definirmos um vetor como uma trinca ordenada de n´ umeros (ou func¸ ˜ oes), como na ´ ultima parte da Sec¸ ˜ ao
1.2, ent˜ ao n˜ ao h´ a problema algum em identificar o produto cruzado como um vetor. A operac¸ ˜ ao de produto externo
mapeia as duas trincas Ae B para uma terceira trinca, C, que ´ e, por definic¸ ˜ ao, um vetor.
Agora temos dois modos de multiplicar vetores: uma terceira forma aparece no Cap´ıtulo 2. Mas, e a divis˜ ao por
um vetor? Acontece que a raz˜ ao B/An˜ ao ´ e exclusivamente especificada (Exerc´ıcio 3.2.21), a menos que se exija
que Ae B sejam tamb´ em paralelos. Por conseguinte, a divis˜ ao de um vetor por outro n˜ ao ´ e definida.
Exerc´ıcios
1.4.1 Mostre que as medianas de um triˆ angulo se interceptam no centro, que est´ a a 2/3 do comprimento
da mediana a partir de cada v´ ertice. Construa um exemplo num´ erico e represente-o em um gr´ afico.
1.4.2 Prove a lei dos co-senos partindo de A
2
= (B−C)
2
.
1.4.3 Comec¸ando com C = A+B, mostre que CC = 0 leva a
AB = −BA.
1.4.4 Mostre que
(a) (A−B) (A+B) = A
2
−B
2
10
As Equac¸ ˜ oes (1.46) s˜ ao v´ alidas para rotac¸ ˜ oes porque preservam volumes. Para uma transformac¸ ˜ ao ortogonal mais geral, a do lado direito
das Equac¸ ˜ oes (1.46) ´ e multiplicada pelo determinante da matriz de transformac¸ ˜ ao (veja Cap´ıtulo 3 para matrizes e determinantes).
11
Especificamente, as Equac¸ ˜ oes (1.46) s˜ ao v´ alidas apenas para o espac¸o tridimensional. Veja D. Hestenes e G. Sobczyk, Clifford Algebra to
Geometric Calculus (Dordrecht: Reidel, 1984) para uma generalizac¸ ˜ ao mais ampla do produto externo.
“livro” — 2007/8/1 — 15:06 — page 18 — #28
18 F´ısica Matem´ atica Arfken • Weber
(b) (A−B) (A+B) = 2AB
As leis distributivas necess´ arias aqui,
A (B+C) = A B+A C
e
A(B+C) = AB+AC,
podem ser verificadas com facilidade (se desejado) por expans˜ ao em componentes cartesianas.
1.4.5 Dados os trˆ es vetores
P = 3ˆ x + 2ˆ y −ˆz,
Q = −6ˆ x −4ˆ y + 2ˆz,
R = ˆ x −2ˆ y −ˆz,
determine dois que s˜ ao perpendiculares e dois que s˜ ao paralelos ou antiparalelos.
1.4.6 Se P = ˆ xP
x
+ ˆ yP
y
e Q = ˆ xQ
x
+ ˆ yQ
y
s˜ ao dois vetores n˜ ao-paralelos quaisquer (tamb´ em n˜ ao-
antiparalelos) no plano xy, mostre que PQest´ a na direc¸ ˜ ao z.
1.4.7 Prove que (AB) (AB) = (AB)
2
−(A B)
2
.
1.4.8 Usando os vetores
P = ˆ xcos θ + ˆ ysen θ,
Q = ˆ xcos ϕ − ˆ ysen ϕ,
R = ˆ xcos ϕ + ˆ ysen ϕ,
prove as familiares identidades trigonom´ etricas
sen(θ +ϕ) = sen θ cos ϕ + cos θsen ϕ,
cos(θ +ϕ) = cos θ cos ϕ −sen θsen ϕ.
1.4.9 (a) Ache um vetor Aque ´ e perpendicular a
U = 2ˆ x + ˆ y −ˆz,
V = ˆ x − ˆ y +ˆz.
(b) O que ´ e A se, al´ em desse requisito, impusermos que ele tenha m´ odulo unit´ ario?
1.4.10 Se quatro vetores a, b, c e d estiverem todos no mesmo plano, mostre que
(a b) (c d) = 0.
Sugest˜ ao: Considere as direc¸ ˜ oes dos vetores do produto externo.
1.4.11 As coordenadas dos trˆ es v´ ertices de um triˆ angulo s˜ ao (2, 1, 5), (5, 2, 8) e (4, 8, 2). Calcule sua ´ area
por m´ etodos vetoriais, seu centro e medianas. Comprimentos em cent´ımetros.
Sugest˜ ao: Veja o Exerc´ıcio 1.4.1.
1.4.12 Os v´ ertices do paralelogramo ABCD s˜ ao (1, 0, 0), (2, −1, 0), (0, −1, 1) e (−1, 0, 1) na ordem.
Calcule as ´ areas vetoriais do triˆ angulo ABD e do triˆ angulo BCD. As duas ´ areas vetoriais s˜ ao
iguais?
Resposta:
´
Area
ABD
= −
1
2
(ˆ x + ˆ y + 2ˆz).
1.4.13 A origem e os trˆ es vetores A, Be C(todos comec¸ando na origem) definem um tetraedro. Tomando
a direc¸ ˜ ao para fora como positiva, calcule a ´ area vetorial total das quatro superf´ıcies tetra´ edricas.
Nota: Na Sec¸ ˜ ao 1.11 esse resultado ´ e generalizado para qualquer superf´ıcie fechada.
“livro” — 2007/8/1 — 15:06 — page 19 — #29
1. AN´ ALISE VETORIAL 19
Figura 1.14: Triˆ angulo esf´ erico.
1.4.14 Ache os lados e os ˆ angulos do triˆ angulo esf´ erico ABC definido pelos trˆ es vetores
A = (1, 0, 0),
B =
_
1

2
, 0,
1

2
_
,
C =
_
0,
1

2
,
1

2
_
.
Cada vetor tem in´ıcio na origem (Figura 1.14).
1.4.15 Derive a lei dos senos (Figura 1.15):
Figura 1.15: Lei dos senos.
“livro” — 2007/8/1 — 15:06 — page 20 — #30
20 F´ısica Matem´ atica Arfken • Weber
sen α
[A[
=
sen β
[B[
=
sen γ
[C[
.
1.4.16 A induc¸ ˜ ao magn´ etica B ´ e definida pela equac¸ ˜ ao de forc¸a de Lorentz,
F = q(v B).
Executando trˆ es experimentos, constatamos que, se
v = ˆ x,
F
q
= 2ˆz −4ˆ y,
v = ˆ y,
F
q
= 4ˆ x −ˆz,
v = ˆz,
F
q
= ˆ y −2ˆ x.
Pelos resultados desses trˆ es experimentos separados, calcule a induc¸ ˜ ao magn´ etica B.
1.4.17 Defina um produto externos de dois vetores em espac¸o bidimensional e dˆ e uma interpretac¸ ˜ ao
geom´ etrica de sua construc¸ ˜ ao.
1.4.18 Ache a distˆ ancia mais curta entre as trajet ´ orias de dois foguetes em vˆ oo livre. Admita que a trajet ´ oria
do primeiro foguete r = r
1
+ t
1
v
1
com lanc¸amento em r
1
= (1, 1, 1) e velocidade v
1
= (1, 2, 3)
e que a trajet ´ oria do segundo foguete seja r = r
2
+ t
2
v
2
, com r
2
= (5, 2, 1) e v
2
= (−1, −1, 1).
Distˆ ancias em quilˆ ometros; velocidades em quilˆ ometros por hora.
1.5 Produto Escalar Triplo, Produto Vetorial Triplo
Produto Escalar Triplo
As Sec¸ ˜ oes 1.3 e 1.4 abrangeram os dois tipos de multiplicac¸ ˜ ao que nos interessam aqui. Contudo, h´ a combinac¸ ˜ oes
de trˆ es vetores, A (BC) e A(BC), que ocorrem com freq¨ uˆ encia suficiente para merecer mais atenc¸ ˜ ao.
A combinac¸ ˜ ao
A (BC)
´ e conhecida como produto escalar triplo. B C resulta em um vetor que, multiplicado escalarmente por A,
d´ a um escalar. Notamos que (A B) C representa um escalar multiplicado em produto externo por um vetor,
uma operac¸ ˜ ao que n˜ ao ´ e definida. Por conseq¨ uˆ encia, se concordarmos em excluir essa interpretac¸ ˜ ao indefinida, os
parˆ enteses podem ser omitidos e o produto escalar triplo pode ser escrito como A BC.
Usando as Equac¸ ˜ oes (1.38) para o produto externo e a Equac¸ ˜ ao (1.24) para o produto escalar, obtemos
A BC = A
x
(B
y
C
z
−B
z
C
y
) +A
y
(B
z
C
x
−B
x
C
z
) +A
z
(B
x
C
y
−B
y
C
x
)
= B CA = C AB
= −A CB = −C BA = −B AC, e assim por diante. (1.48)
H´ a um alto grau de simetria na expans˜ ao da componente. Cada termo cont´ em os fatores A
i
, B
j
e C
k
. Se i, j e k
estiverem em ordem c´ıclica (x, y, z), o sinal ´ e positivo. Se a ordem for antic´ıclica, o sinal ´ e negativo. Al´ em disso,
o produto escalar e o produto externo podem ser permutados,
A BC = AB C. (1.49)
Uma representac¸ ˜ ao conveniente da expans˜ ao de componentes da Equac¸ ˜ ao (1.48) ´ e dada pelo determinante
A BC =
¸
¸
¸
¸
¸
¸
A
x
A
y
A
z
B
x
B
y
B
z
C
x
C
y
C
z
¸
¸
¸
¸
¸
¸
. (1.50)
As regras para permutar linhas e colunas de umdeterminante
12
fornecemuma verificac¸ ˜ ao imediata das permutac¸ ˜ oes
listadas na Equac¸ ˜ ao (1.48), enquanto a simetria de A, B e C na forma de determinante sugere a relac¸ ˜ ao dada na
12
Veja a Sec¸ ˜ ao 3.1 para um resumo das propriedades de determinantes.
“livro” — 2007/8/1 — 15:06 — page 21 — #31
1. AN´ ALISE VETORIAL 21
Equac¸ ˜ ao 1.49. Os produtos triplos encontrados na Sec¸ ˜ ao 1.4, que mostraram que ABera perpendicular a ambos,
Ae B, eram casos especiais do resultado geral (Equac¸ ˜ ao (1.48)).
O produto escalar triplo possui uma interpretac¸ ˜ ao geom´ etrica direta. Os trˆ es vetores A, B e C podem ser
interpretados como definindo um paralelep´ıpedo (Figura 1.16):
Figura 1.16: Representac¸ ˜ ao em paralelep´ıpedo do produto escalar triplo.
[BC[ = BCsen θ
= ´ area da base do paralelogramo. (1.51)
A direc¸ ˜ ao, ´ e claro, ´ e normal ` a base. Introduzir o produto escalar por Anessa express˜ ao significa multiplicar a ´ area
da base pela projec¸ ˜ ao de Asobre a normal, ou seja, base vezes altura. Portanto,
A BC = volume do paralelep´ıpedo definido por A, B e C.
O produto escalar triplo encontra uma aplicac¸ ˜ ao interessante e importante na construc¸ ˜ ao de um reticulado cristalino
rec´ıproco. Admitamos que a, b e c (n˜ ao necessariamente mutuamente perpendiculares) representem os vetores que
definem um reticulado cristalino. Ent˜ ao, o deslocamento de um ponto do reticulado para outro pode ser escrito
r = n
a
a +n
b
b +n
c
c, (1.52)
com n
a
, n
b
e n
c
assumindo valores inteiros. Com esses vetores podemos formar
a
t
=
b c
a b c
, b
t
=
c a
a b c
, c
t
=
a b
a b c
. (1.53a)
Vemos que a
t
´ e perpendicular ao plano que cont´ em b e c, e podemos mostrar com facilidade que
a
t
a = b
t
b = c
t
c = 1, (1.53b)
ao passo que
a
t
b = a
t
c = b
t
a = b
t
c = c
t
a = c
t
b = 0. (1.53c)
´
E por essas Equac¸ ˜ oes (1.53b) e (1.53c) que o nome reticulado rec´ıproco ´ e associado com os pontos r
t
=
n
t
a
a
t
+n
t
b
b
t
+n
t
c
c
t
. O espac¸o matem´ atico no qual esse reticulado rec´ıproco existe ` as vezes ´ e denominado espac¸o
de Fourier, com base em relac¸ ˜ oes com a an´ alise de Fourier apresentada nos Cap´ıtulos 14 e 15. Esse reticulado
rec´ıproco ´ e ´ util em problemas que envolvem a dispers˜ ao de ondas pelos v´ arios planos de um cristal. Mais detalhes
podem ser encontrados em R. B. Leighton, Principles of Modern Physics, pp. 440-448 [Nova York: McGraw-Hill
(1959)].
Produto Vetorial Triplo
O segundo produto triplo de interesse ´ e A (B C), que ´ e um vetor. Aqui, os parˆ enteses devem ser mantidos,
como se pode verificar por um caso especial (ˆ x ˆ x) ˆ y = 0, enquanto ˆ x (ˆ x ˆ y) = ˆ x ˆz = −ˆ y.
“livro” — 2007/8/1 — 15:06 — page 22 — #32
22 F´ısica Matem´ atica Arfken • Weber
Exemplo 1.5.1 UM PRODUTO VETORIAL TRIPLO
Para os vetores
A = ˆ x + 2ˆ y −ˆz = (1, 2, −1), B = ˆ y +ˆz = (0, 1, 1), C = ˆ x − ˆ y = (0, 1, 1),
BC =
¸
¸
¸
¸
¸
¸
ˆ x ˆ y ˆz
0 1 1
1 −1 0
¸
¸
¸
¸
¸
¸
= ˆ x + ˆ y −ˆz,
e
A(BC) =
¸
¸
¸
¸
¸
¸
ˆ x ˆ y ˆz
1 2 −1
1 1 −1
¸
¸
¸
¸
¸
¸
= −ˆ x −ˆz = −(ˆ y +ˆz) −(ˆ x − ˆ y)
= −B−C.

Reescrevendo o resultado na ´ ultima linha do Exemplo 1.5.1 como uma combinac¸ ˜ ao linear de B e C, notamos
que, ao seguirmos uma abordagem geom´ etrica, o produto vetorial triplo ´ e perpendicular a A e B C. O plano
definido por B e C ´ e perpendicular a BC e, assim, o produto triplo est´ a nesse plano (veja a Figura 1.17)
Figura 1.17: B e C est˜ ao no plano xy. BC ´ e perpendicular ao plano xy e ´ e mostrado aqui ao longo do eixo z.
Ent˜ ao, A(BC) ´ e perpendicular ao eixo z e, por conseguinte, est´ a de volta ao plano xy.
A(BC) = uB+vC. (1.54)
Considerando que o produto escalar da Equac¸ ˜ ao (1.54) com A resulta zero para o lado esquerdo, portanto,
uA B + vA C = 0. Por conseguinte, u = wA C e v = −wA B para um w adequado. Substituindo
esses valores na Equac¸ ˜ ao (1.54), temos
A(BC) = w
_
B(A C) −C(A B)
¸
; (1.55)
queremos mostrar que
w = 1
na Equac¸ ˜ ao (1.55), uma importante relac¸ ˜ ao tamb´ em conhecida como regra BAC–CAB. Uma vez que a
Equac¸ ˜ ao (1.55) ´ e linear em A, B e C, w ´ e independente dessas grandezas. Isto ´ e, precisamos apenas mostrar
que w = 1 para vetores unit´ arios
ˆ
A,
ˆ
B,
ˆ
C. Vamos denotar
ˆ
B
ˆ
C = cos α,
ˆ
C
ˆ
A = cos β,
ˆ
A
ˆ
B = cos γ, e elevar
“livro” — 2007/8/1 — 15:06 — page 23 — #33
1. AN´ ALISE VETORIAL 23
a Equac¸ ˜ ao (1.55) ao quadrado para obter
_
ˆ
A(
ˆ
B
ˆ
C)
¸
2
=
ˆ
A
2
(
ˆ
B
ˆ
C)
2

_
ˆ
A (
ˆ
B
ˆ
C)
¸
2
= 1 −cos
2
α −
_
ˆ
A (
ˆ
B
ˆ
C)
¸
2
= w
2
_
(
ˆ
A
ˆ
C)
2
+ (
ˆ
A
ˆ
B)
2
−2(
ˆ
A
ˆ
B)(
ˆ
A
ˆ
C)(
ˆ
B
ˆ
C)
¸
= w
2
_
cos
2
β + cos
2
γ −2 cos αcos β cos γ
_
, (1.56)
usando (
ˆ
A
ˆ
B)
2
=
ˆ
A
2
ˆ
B
2
−(
ˆ
A
ˆ
B)
2
repetidas vezes (veja Equac¸ ˜ ao (1.43) para uma prova). Por conseq¨ uˆ encia,
o volume (ao quadrado) abrangido por
ˆ
A,
ˆ
B,
ˆ
C que ocorre na Equac¸ ˜ ao (1.56) pode ser escrito como
_
ˆ
A (
ˆ
B
ˆ
C)
¸
2
= 1 −cos
2
α −w
2
_
cos
2
β + cos
2
γ −2 cos αcos β cos γ
_
.
Aqui, w
2
= 1, visto que esse volume ´ e sim´ etrico em α, β, γ. Isto ´ e, w = ±1 e ´ e independente de
ˆ
A,
ˆ
B,
ˆ
C. Usando
mais uma vez o caso especial ˆ x (ˆ x ˆ y) = −ˆ y na Equac¸ ˜ ao (1.55), finalmente temos w = 1. (Uma derivac¸ ˜ ao
alternativa usando o s´ımbolo de Levi-Civita ε
ijk
apresentado no Cap´ıtulo 2 ´ e o t ´ opico do Exerc´ıcio 2.9.8.)
Poder´ıamos observar que, exatamente como vetores s˜ ao independentes das coordenadas, tamb´ em uma equac¸ ˜ ao
vetorial ´ e independente do sistema de coordenadas particular. O sistema de coordenadas apenas determina as
componentes. Se a equac¸ ˜ ao vetorial puder ser estabelecida em coordenadas cartesianas, ela pode ser estabelecida
e v´ alida em qualquer dos sistemas de coordenadas que ser˜ ao apresentados no Cap´ıtulo 2. Assim, a Equac¸ ˜ ao (1.55)
pode ser verificada por um m´ etodo direto, se bem que n˜ ao muito elegante, de expans˜ ao em componentes cartesianas
(veja o Exerc´ıcio 1.5.2).
Exerc´ıcios
1.5.1 Um dos v´ ertices de um paralelep´ıpedo de vidro est´ a na origem (Figura 1.18). Os trˆ es v´ ertices
adjacentes est˜ ao em (3, 0, 0), (0, 0, 2) e (0, 3, 1). Todos os comprimentos s˜ ao dados em cent´ımetros.
Calcule o n´ umero de cent´ımetros c´ ubicos de vidro no paralelep´ıpedo usando o produto escalar triplo.
Figura 1.18: Paralelep´ıpedo: produto escalar triplo.
1.5.2 Verifique a expans˜ ao do produto vetorial triplo
A(BC) = B(A C) −C(A B)
por expans˜ ao direta em coordenadas cartesianas.
“livro” — 2007/8/1 — 15:06 — page 24 — #34
24 F´ısica Matem´ atica Arfken • Weber
1.5.3 Mostre que a primeira etapa na Equac¸ ˜ ao (1.43), que ´ e
(AB) (AB) = A
2
B
2
−(A B)
2
,
´ e consistente com a regra BAC–CAB para um produto vetorial triplo.
1.5.4 S˜ ao dados os trˆ es vetores A, B e C,
A = ˆ x + ˆ y,
B = ˆ y +ˆz,
C = ˆ x −ˆz.
(a) Calcule o produto escalar triplo, A BC. Observando que A = B+C, dˆ e uma interpretac¸ ˜ ao
geom´ etrica do seu resultado para o produto escalar triplo.
(b) Calcule A(BC).
1.5.5 O momento angular orbital L de uma part´ıcula ´ e dado por L = r p = mr v, em que p ´ e o
momento linear. Com as velocidades linear e angular relacionadas por v = ω r, mostre que
L = mr
2
_
ω −ˆr(ˆr ω)
¸
.
Aqui, ˆr ´ e um vetor unit´ ario na direc¸ ˜ ao r. Para r ω = 0 isso se reduz a L = Iω, com o momento
de in´ ercia I dado por mr
2
. Na Sec¸ ˜ ao 3.5 esse resultado ´ e generalizado para formar um tensor de
in´ ercia.
1.5.6 A energia cin´ etica de uma ´ unica part´ıcula ´ e dada por T =
1
2
mv
2
. Para o movimento de rotac¸ ˜ ao,
essa express˜ ao se transforma em
1
2
m(ω r)
2
. Mostre que
T =
1
2
m
_
r
2
ω
2
−(r ω)
2
¸
.
Para r ω = 0 essa express˜ ao se reduz a T =
1
2

2
, com o momento de in´ ercia I dado por mr
2
.
1.5.7 Mostre que
13
a (b c) +b (c a) +c (a b) = 0.
1.5.8 Um vetor A ´ e decomposto em um vetor radial A
r
e um vetor tangencial A
t
. Se ˆr for um vetor
unit´ ario na direc¸ ˜ ao radial, mostre que
(a) A
r
=ˆr(A ˆr) e
(b) A
t
= −ˆr (ˆr A).
1.5.9 Prove que uma condic¸ ˜ ao necess´ aria e suficiente para que os trˆ es vetores (n˜ ao-nulos) A, Be Csejam
coplanares ´ e que o produto escalar triplo seja nulo
A BC = 0.
1.5.10 Trˆ es vetores, A, B e C, s˜ ao dados por
A = 3ˆ x −2ˆ y + 2ˆz,
B = 6ˆ x + 4ˆ y −2ˆz,
C = −3ˆ x −2ˆ y −4ˆz.
Calcule os valores de A BC e A(BC), C(AB) e B(CA).
1.5.11 O vetor D ´ e uma combinac¸ ˜ ao linear de trˆ es vetores n˜ ao-coplanares (e n˜ ao-ortogonais):
D = aA+bB+cC.
Mostre que os coeficientes s˜ ao dados por uma raz˜ ao de produtos escalares triplos,
a =
D BC
A BC
, e assim por diante.
13
Esta ´ e a identidade de Jacobi para produtos vetoriais; para comutadores, ´ e importante no contexto de ´ algebras de Lie (veja a Equac¸ ˜ ao (4.16)
na Sec¸ ˜ ao 4.2).
“livro” — 2007/8/1 — 15:06 — page 25 — #35
1. AN´ ALISE VETORIAL 25
1.5.12 Mostre que
(AB) (CD) = (A C)(B D) −(A D)(B C).
1.5.13 Mostre que
(AB) (CD) = (A BD)C−(A BC)D.
1.5.14 Para um triˆ angulo, esf´ erico, tal como o representado na Figura 1.14, mostre que
sen A
sen BC
=
sen B
sen CA
=
sen C
sen AB
.
Aqui, sen A ´ e o seno do ˆ angulo inclu´ıdo em A, enquanto, BC ´ e o lado oposto (em radianos).
1.5.15 Dados
a
t
=
b c
a b c
, b
t
=
c a
a b c
, c
t
=
a b
a b c
,
e a b c ,= 0, mostre que
(a) x y
t
= δ
xy
, (x, y = a, b, c),
(b) a
t
b
t
c
t
= (a b c)
−1
,
(c) a =
b
t
c
t
a
t
b
t
c
t
.
1.5.16 Se x y
t
= δ
xy
, (x, y = a, b, c), prove que
a
t
=
b c
a b c
.
(Este problema ´ e o inverso do Problema 1.5.15.)
1.5.17 Mostre que qualquer vetor V pode ser expresso em termos dos vetores rec´ıprocos
a
t
, b
t
,c
t
(do Problema 1.5.15) por
V = (V a)a
t
+ (V b)b
t
+ (V c)c
t
.
1.5.18 Uma carga el´ etrica q
1
movendo-se com velocidade v
1
produz uma induc¸ ˜ ao magn´ etica B dada por
B =
µ
0

q
1
v
1
ˆr
r
2
(unidades mks),
em que ˆr aponta de q
1
para o ponto em que B ´ e medido (lei de Biot e Savart).
(a) Mostre que a forc¸a magn´ etica sobre uma segunda carga q
2
, velocidade v
2
, ´ e dada pelo produto
vetorial triplo
F
2
=
µ
0

q
1
q
2
r
2
v
2
(v
1
ˆr).
(b) Escreva a forc¸a magn´ etica correspondente F
1
que q
2
exerce sobre q
1
. Defina seu vetor unit´ ario
radial. Como F
1
e F
2
se comparam?
(c) Calcule F
1
e F
2
para o caso de q
1
e q
2
se movimentarem ao longo de trajet´ orias paralelas lado
a lado.
Resposta:
(b) F
1
= −
µ
0

q
1
q
2
r
2
v
1
(v
2
ˆr).
Em geral, n˜ ao h´ a nenhuma relac¸ ˜ ao simples entre
F
1
and F
2
. Especificamente, a terceira lei de Newton, F
1
= −F
2
, n˜ ao se aplica.
(c) F
1
=
µ
0

q
1
q
2
r
2
v
2
ˆr = −F
2
.
Atrac¸ ˜ ao m´ utua.
“livro” — 2007/8/1 — 15:06 — page 26 — #36
26 F´ısica Matem´ atica Arfken • Weber
1.6 Gradiente, ∇
Para dar uma motivac¸ ˜ ao para a natureza vetorial das derivadas parciais, apresentamos agora a variac¸ ˜ ao total de
uma func¸ ˜ ao F(x, y),
dF =
∂F
∂x
dx +
∂F
∂y
dy.
Ela consiste em variac¸ ˜ oes independentes nas direc¸ ˜ oes x e y. Escrevemos dF como uma soma de dois incrementos,
um deles exclusivamente na direc¸ ˜ ao x e o outro na direc¸ ˜ ao y,
dF(x, y) ≡ F(x +dx, y +dy) −F(x, y)
=
_
F(x +dx, y +dy) −F(x, y +dy)
¸
+
_
F(x, y +dy) −F(x, y)
¸
=
∂F
∂x
dx +
∂F
∂y
dy,
somando e subtraindo F(x, y + dy). O teorema do valor m´ edio (isto ´ e, a continuidade de F) nos diz que, aqui,
∂F/∂x ∂F/∂y s˜ ao avaliadas no mesmo ponto ξ, η entre x e x +dx, y e y + dy, respectivamente.
`
A medida que
dx →0 e dy →0, ξ →x e η →y. Esse resultado se generaliza para trˆ es dimens˜ oes e para mais de trˆ es dimens˜ oes.
Por exemplo, para uma func¸ ˜ ao ϕ de trˆ es vari´ aveis,
dϕ(x, y, z) ≡
_
ϕ(x +dx, y +dy, z +dz) −ϕ(x, y +dy, z +dz)
¸
+
_
ϕ(x, y +dy, z +dz) −ϕ(x, y, z +dz)
¸
+
_
ϕ(x, y, z +dz) −ϕ(x, y, z)
¸
(1.57)
=
∂ϕ
∂x
dx +
∂ϕ
∂y
dy +
∂ϕ
∂z
dz.
Algebricamente, dϕ na variac¸ ˜ ao total ´ e um produto escalar da mudanc¸a na posic¸ ˜ ao dr e da mudanc¸a direcional de
ϕ. E agora estamos prontos para reconhecer a derivada parcial tridimensional como um vetor, o que nos leva ao
conceito de gradiente.
Suponha que ϕ(x, y, z) seja uma func¸ ˜ ao escalar pontual, isto ´ e, uma func¸ ˜ ao cujo valor depende dos valores
das coordenadas (x, y, z). Como um escalar, ela deve ter o mesmo valor em um dado ponto fixo no espac¸o,
independente da rotac¸ ˜ ao de nosso sistema de coordenadas, ou
ϕ
t
(x
t
1
, x
t
2
, x
t
3
) = ϕ(x
1
, x
2
, x
3
). (1.58)
Diferenciando em relac¸ ˜ ao a x
t
i
obtemos
∂ϕ
t
(x
t
1
, x
t
2
, x
t
3
)
∂x
t
i
=
∂ϕ(x
1
, x
2
, x
3
)
∂x
t
i
=

j
∂ϕ
∂x
j
∂x
j
∂x
t
i
=

j
a
ij
∂ϕ
∂x
j
(1.59)
pelas regras da diferenciac¸ ˜ ao parcial e Equac¸ ˜ oes (1.16a) e (1.16b). Mas a comparac¸ ˜ ao com a Equac¸ ˜ ao (1.17), a
lei de transformac¸ ˜ ao vetorial, agora mostra que constru´ımos um vetor com componentes ∂ϕ/∂x
j
. Denominamos
esse vetor gradiente de ϕ.
Um simbolismo conveniente ´ e
∇ϕ = ˆ x
∂ϕ
∂x
+ ˆ y
∂ϕ
∂y
+ˆz
∂ϕ
∂z
(1.60)
ou
∇= ˆ x

∂x
+ ˆ y

∂y
+ˆz

∂z
. (1.61)
∇ϕ (ou del ϕ) ´ e nosso gradiente do escalar ϕ, enquanto o pr´ oprio ∇ (del) ´ e um operador diferencial vetorial
(dispon´ıvel para operar sobre um escalar ϕ ou diferenci´ a-lo). Todas as relac¸ ˜ oes para ∇ (del) podem ser derivadas
da natureza h´ıbrida de del em termos das derivadas parciais, bem como de sua natureza vetorial.
O gradiente de um escalar ´ e de extrema importˆ ancia em f´ısica e em engenharia para expressar a relac¸ ˜ ao entre
um campo de forc¸a e um campo de potencial,
forc¸a F = −∇(potencial V ), (1.62)
“livro” — 2007/8/1 — 15:06 — page 27 — #37
1. AN´ ALISE VETORIAL 27
que vale para campos gravitacionais, bem como para campos eletrost´ aticos, entre outros. Note que o sinal de menos
na Equac¸ ˜ ao (1.62) resulta em ´ agua fluindo montanha abaixo, em vez de montanha acima! Se uma forc¸a pode ser
descrita, como na Equac¸ ˜ ao (1.62), por uma ´ unica func¸ ˜ ao V (r) em todos os lugares, denominamos a func¸ ˜ ao escalar
V seu potencial. Como a forc¸a ´ e a derivada direcional do potencial, podemos achar o potencial, se ele existir,
integrando a forc¸a ao longo de alguma trajet´ oria adequada. Como a variac¸ ˜ ao total dV = ∇V dr = −F dr
´ e o trabalho realizado contra a forc¸a ao longo da trajet´ oria dr, reconhecemos o significado f´ısico do potencial
(diferenc¸a) como trabalho e energia. Al´ em do mais, em uma soma de incrementos de trajet´ oria, os pontos
intermedi´ arios se cancelam:
_
V (r +dr
1
+dr
2
) −V (r +dr
1
)
¸
+
_
V (r +dr
1
) −V (r)
¸
= V (r +dr
2
+dr
1
) −V (r),
portanto, o trabalho integrado ao longo de alguma trajet ´ oria desde um ponto inicial r
i
at´ e um ponto final r ´ e
dado pela diferenc¸a de potencial V (r) − V (r
i
) nos pontos extremos da trajet´ oria. Portanto, essas forc¸as s˜ ao
especialmente simples e bem comportadas: s˜ ao denominadas conservativas. Quando houver perda de energia
devido a atrito ao longo da trajet´ oria, ou a algum outro tipo de dissipac¸ ˜ ao, o trabalho depender´ a da trajet´ oria,
e essas forc¸as n˜ ao poder˜ ao ser conservativas: n˜ ao existe potencial. Discutiremos forc¸as conservativas com mais
detalhes na Sec¸ ˜ ao 1.13.
Exemplo 1.6.1 O GRADIENTE DE UM POTENCIAL V (r)
Vamos calcular o gradiente de V (r) = V (
_
x
2
+y
2
+z
2
), portanto,
∇V (r) = ˆ x
∂V (r)
∂x
+ ˆ y
∂V (r)
∂y
+ˆz
∂V (r)
∂z
.
Agora, V (r) depende de x por meio da dependˆ encia de r de x. Portanto,
14
∂V (r)
∂x
=
dV (r)
dr

∂r
∂x
.
De r como uma func¸ ˜ ao de x, y, z, temos
∂r
∂x
=
∂(x
2
+y
2
+z
2
)
1/2
∂x
=
x
(x
2
+y
2
+z
2
)
1/2
=
x
r
.
Portanto,
∂V (r)
∂x
=
dV (r)
dr

x
r
.
Permutando as coordenadas (x →y, y →z, z →x) para obter as derivadas de y e z, obtemos
∇V (r) = (ˆ xx + ˆ yy +ˆzz)
1
r
dV
dr
=
r
r
dV
dr
=ˆr
dV
dr
.
Aqui, ˆr ´ e um vetor unit´ ario (r/r) na direc¸ ˜ ao radial positiva. O gradiente de uma func¸ ˜ ao de r ´ e um vetor na
direc¸ ˜ ao radial (positiva ou negativa). Na Sec¸ ˜ ao 2.5, ˆ r ´ e visto como um dos trˆ es vetores unit´ arios ortonormais de
coordenadas esf´ ericas polares e ˆr ∂/∂r como a componente radial de ∇.
Uma Interpretac¸ ˜ ao Geom´ etrica
Uma aplicac¸ ˜ ao imediata de ∇ϕ resulta de seu produto escalar com um incremento de comprimento
dr = ˆ xdx + ˆ y dy +ˆz dz.
14
Esse ´ e um caso especial da regra da cadeia da diferenciac¸ ˜ ao:
∂V (r, θ, ϕ)
∂x
=
∂V
∂r
∂r
∂x
+
∂V
∂θ
∂θ
∂x
+
∂V
∂ϕ
∂ϕ
∂x
,
em que ∂V/∂θ = ∂V/∂ϕ = 0, ∂V/∂r →dV/dr.
“livro” — 2007/8/1 — 15:06 — page 28 — #38
28 F´ısica Matem´ atica Arfken • Weber
Assim, obtemos
∇ϕ dr =
∂ϕ
∂x
dx +
∂ϕ
∂y
dy +
∂ϕ
∂z
dz = dϕ,
a mudanc¸a na func¸ ˜ ao escalar ϕ correspondente a uma mudanc¸a na posic¸ ˜ ao dr. Agora considere P e Q dois pontos
sobre uma superf´ıcie ϕ(x, y, z) = C, uma constante. Esses pontos s˜ ao escolhidos de modo que Q est´ a a uma
distˆ ancia dr de P. Ent˜ ao, indo de P a Q, a mudanc¸a em ϕ(x, y, z) = C ´ e dada por
dϕ = (∇ϕ) dr = 0 , (1.63)
desde que continuemos sobre a superf´ıcie ϕ(x, y, z) = C. Isso mostra que ∇ϕ ´ e perpendicular a dr. Uma vez que
dr pode ter qualquer direc¸ ˜ ao a partir de P, contanto que permanec¸a na superf´ıcie de ϕ constante e o ponto Q ´ e
restrito ` a superf´ıcie mas tem direc¸ ˜ ao arbitr´ aria, ∇ϕ ´ e visto como normal ` a superf´ıcie ϕ = constante (Figura 1.19).
Figura 1.19: O incremento de comprimento dr tem de permanecer sobre a superf´ıcie ϕ = C.
Se agora permitirmos que dr nos leve de uma superf´ıcie ϕ = C
1
para uma superf´ıcie adjacente ϕ = C
2
(Figura 1.20),
dϕ = C
1
−C
2
= ∆C = (∇ϕ) dr. (1.64)
Figura 1.20: Gradiente.
Para um dado dϕ, [dr[ ´ e um m´ınimo quando for escolhido paralelo a ∇ϕ (cos θ = 1) ou, para um dado [dr[, a
mudanc¸a na func¸ ˜ ao escalar ϕ ´ e maximizada escolhendo dr paralelo a ∇ϕ. Isso identifica ∇ϕ como um vetor que
tem a direc¸ ˜ ao da m´ axima taxa de mudanc¸a espacial de ϕ, uma identificac¸ ˜ ao que ser´ a ´ util no Cap´ıtulo 2 quando
considerarmos sistemas coordenados n˜ ao-cartesianos. Essa identificac¸ ˜ ao de ∇ tamb´ em pode ser desenvolvida
usando o c´ alculo de variac¸ ˜ oes a um v´ınculo, Exerc´ıcio 17.6.9.
“livro” — 2007/8/1 — 15:06 — page 29 — #39
1. AN´ ALISE VETORIAL 29
Exemplo 1.6.2 FORC¸ A COMO GRADIENTE DE UM POTENCIAL
Como um exemplo espec´ıfico do precedente e como uma extens˜ ao do Exemplo 1.6.1, consideramos as superf´ıcies
que consistem em cascas esf´ ericas concˆ entricas, Figura 1.21. Temos
Figura 1.21: Gradiente para ϕ(x, y, z) = (x
2
+ y
2
+ z
2
)
1/2
, cascas esf´ ericas: (x
2
2
+ y
2
2
+ z
2
2
)
1/2
= r
2
=
C
2
,(x
2
1
+y
2
1
+z
2
1
)
1/2
= r
1
= C
1
.
ϕ(x, y, z) =
_
x
2
+y
2
+z
2
_
1/2
= r = C,
em que r ´ e o raio, igual a C, nossa constante. ∆C = ∆ϕ = ∆r, a distˆ ancia entre duas cascas. Pelo Exemplo 1.6.1,
∇ϕ(r) =ˆr
dϕ(r)
dr
=ˆr.
O gradiente est´ a na direc¸ ˜ ao radial e ´ e normal ` a superf´ıcie esf´ erica ϕ = C.
Exemplo 1.6.3 INTEGRAC¸ ˜ AO DE GRADIENTE POR PARTES
Vamos provar a f´ ormula
_
A(r) ∇f(r) d
3
r = −
_
f(r)∇ A(r) d
3
r, em que A ou f ou ambas se anulam no
infinito de modo que as partes integradas s˜ ao nulas. Essa condic¸ ˜ ao ´ e satisfeita se, por exemplo, A for o potencial
vetorial eletromagn´ etico e f for uma func¸ ˜ ao de onda de estado ligado ψ(r).
Escrevendo o produto interno em coordenadas cartesianas, integrando cada integral unidimensional por partes
e desprezando os termos integrados, obtemos
_
A(r) ∇f(r) d
3
r =
__ _
A
x
f[

x=−∞

_
f
∂A
x
∂x
dx
_
dy dz +
= −
___
f
∂A
x
∂x
dxdy dz −
___
f
∂A
y
∂y
dy dxdz −
___
f
∂A
z
∂z
dz dxdy
= −
_
f(r)∇ A(r) d
3
r.
Se A = e
ikz
ˆe descreve um f´ oton saindo na direc¸ ˜ ao do vetor unit´ ario de polarizac¸ ˜ ao constante ˆe e f = ψ(r) ´ e uma
func¸ ˜ ao de onda de estado ligado que decai exponencialmente, ent˜ ao
_
e
ikz
ˆe ∇ψ(r) d
3
r = −e
z
_
ψ(r)
de
ikz
dz
d
3
r = −ike
z
_
ψ(r)e
ikz
d
3
r,
porque somente a componente z do gradiente contribui.
“livro” — 2007/8/1 — 15:06 — page 30 — #40
30 F´ısica Matem´ atica Arfken • Weber
Exerc´ıcios
1.6.1 Se S(x, y, z) = (x
2
+y
2
+z
2
)
−3/2
, ache
(a) ∇S no ponto (1, 2, 3);
(b) o m´ odulo do gradiente de S, [∇S[ em (1, 2, 3); e
(c) os co-senos diretores de ∇S em (1, 2, 3).
1.6.2 (a) Ache um vetor unit´ ario perpendicular ` a superf´ıcie
x
2
+y
2
+z
2
= 3
no ponto (1, 1, 1). Comprimentos em cent´ımetros.
(b) Derive a equac¸ ˜ ao do plano tangente ` a superf´ıcie em (1, 1, 1).
Resposta: (a) (ˆ x + ˆ y +ˆz)/

3, (b) x +y +z = 3.
1.6.3 Dado um vetor r
12
= ˆ x(x
1
− x
2
) + ˆ y(y
1
− y
2
) +ˆz(z
1
− z
2
), mostre que ∇
1
r
12
(gradiente com
respeito a x
1
, y
1
e z
1
da grandeza r
12
) ´ e um vetor unit´ ario na direc¸ ˜ ao de r
12
.
1.6.4 Se uma func¸ ˜ ao vetorial F depender de coordenadas espaciais (x, y, z) e tamb´ em do tempo t, mostre
que
dF = (dr ∇)F +
∂F
∂t
dt.
1.6.5 Mostre que ∇(uv) = v∇u +u∇v, em que u e v s˜ ao func¸ ˜ oes escalares diferenci´ aveis de x, y e z.
(a) Mostre que a condic¸ ˜ ao necess´ aria e suficiente para que u(x, y, z) e v(x, y, z) sejam relacionadas
por alguma func¸ ˜ ao f(u, v) = 0 ´ e que (∇u) (∇v) = 0.
(b) Se u = u(x, y) e v = v(x, y), mostre que a condic¸ ˜ ao (∇u) (∇v) = 0 resulta no jacobiano
bidimensional
J
_
u, v
x, y
_
=
¸
¸
¸
¸
∂u
∂x
∂u
∂y
∂v
∂x
∂v
∂y
¸
¸
¸
¸
= 0.
Admite-se que as func¸ ˜ oes u e v s˜ ao diferenci´ aveis.
1.7 Divergˆ encia, ∇
Adiferenciac¸ ˜ ao de uma func¸ ˜ ao vetorial ´ e uma simples extens˜ ao da diferenciac¸ ˜ ao de quantidades escalares. Suponha
que r(t) descreva a posic¸ ˜ ao de um sat´ elite em algum tempo t. Ent˜ ao, para diferenciac¸ ˜ ao em relac¸ ˜ ao ao tempo,
dr(t)
dt
= lim
∆→t
r(t + ∆t) −r(t)
∆t
= v, velocidade linear.
Graficamente, mais uma vez temos a inclinac¸ ˜ ao de uma curva ´ orbita, ou trajet´ oria, como mostra a Figura 1.22.
Figura 1.22: Diferenciac¸ ˜ ao de um vetor.
Se resolvermos r(t) em suas componentes cartesianas, dr/dt sempre se reduz diretamente a uma soma
vetorial de n˜ ao mais do que trˆ es derivadas escalares (para o espac¸o tridimensional). Em outros sistemas de
“livro” — 2007/8/1 — 15:06 — page 31 — #41
1. AN´ ALISE VETORIAL 31
coordenadas (Cap´ıtulo 2), a situac¸ ˜ ao ´ e mais complicada, pois a direc¸ ˜ ao dos vetores unit´ arios n˜ ao ´ e mais constante.
A diferenciac¸ ˜ ao em relac¸ ˜ ao ` as coordenadas espaciais ´ e resolvida do mesmo modo que a diferenciac¸ ˜ ao em relac¸ ˜ ao
ao tempo, como veremos nos par´ agrafos seguintes.
Na Sec¸ ˜ ao 1.6, ∇foi definido como um operador vetorial. Agora, dando atenc¸ ˜ ao ` as suas propriedades vetoriais
e diferenciais, deixamos que ele opere sobre um vetor. Primeiro, como um vetor, fazemos seu produto escalar por
um segundo vetor para obter
∇ V =
∂V
x
∂x
+
∂V
y
∂y
+
∂V
z
∂z
, (1.65a)
express˜ ao conhecida como a divergˆ encia de V, que ´ e um escalar, como discutido na Sec¸ ˜ ao 1.3.
Exemplo 1.7.1 DIVERGˆ ENCIA DE VETOR COORDENADO
Calcule ∇ r:
∇ r =
_
ˆ x

∂x
+ ˆ y

∂y
+ˆz

∂z
_
(ˆ xx + ˆ yy +ˆzz)
=
∂x
∂x
+
∂y
∂y
+
∂z
∂z
,
ou ∇ r = 3.
Exemplo 1.7.2 DIVERGˆ ENCIA DE CAMPO DE FORC¸ A CENTRAL
Generalizando o Exemplo 1.7.1,

_
rf(r)
_
=

∂x
_
xf(r)
¸
+

∂y
_
y f(r)
¸
+

∂z
_
z f(r)
¸
= 3f(r) +
x
2
r
df
dr
+
y
2
r
df
dr
+
z
2
r
df
dr
= 3f(r) +r
df
dr
.
A manipulac¸ ˜ ao das derivadas parciais que levam ` a segunda equac¸ ˜ ao no Exemplo 1.7.2 ´ e discutida no Exemplo
1.6.1. Em particular, se f(r) = r
n−1
,

_
rr
n−1
_
= ∇ ˆrr
n
= 3r
n−1
+ (n −1)r
n−1
= (n + 2)r
n−1
. (1.65b)
Essa divergˆ encia desaparece para n = −2, em r = 0, um fato importante na Sec¸ ˜ ao 1.14.
Exemplo 1.7.3 INTEGRAC¸ ˜ AO POR PARTES DA DIVERGˆ ENCIA
Vamos provar a f´ ormula
_
f(r)∇ A(r) d
3
r = −
_
A ∇f d
3
r, em que Aou ou ambas se anulam no infinito.
Para mostrar isso faremos, como no Exemplo 1.6.3, a integrac¸ ˜ ao por partes ap´ os escrever o produto interno em
coordenadas cartesianas. Como os termos integrados s˜ ao avaliados no infinito, em que s˜ ao nulos, obtemos
_
f(r)∇ A(r) d
3
r =
_
f
_
∂A
x
∂x
dxdy dz +
∂A
y
∂y
dy dxdz +
∂A
z
∂z
dz dxdy
_
= −
_ _
A
x
∂f
∂x
dxdy dz +A
y
∂f
∂y
dy dxdz +A
z
∂f
∂z
dz dxdy
_
= −
_
A ∇f d
3
r.

“livro” — 2007/8/1 — 15:06 — page 32 — #42
32 F´ısica Matem´ atica Arfken • Weber
Uma Interpretac¸ ˜ ao F´ısica
Para desenvolver uma percepc¸ ˜ ao da significˆ ancia f´ısica da divergˆ encia, considere ∇ (ρv) com v(x, y, z) a
velocidade de um fluido compress´ıvel e ρ(x, y, z) sua densidade no ponto (x, y, z). Se considerarmos um pequeno
volume dxdy dz (Figura 1.23) em x = y = z = 0, o fluido que escoa por esse volume por unidade de tempo
(direc¸ ˜ ao x positiva) pela face EFGH ´ e (taxa de fluxo em)
EFGH
= ρv
x
[
x=0
= dy dz. As componentes do fluxo
ρv
y
e ρv
z
tangenciais a essa face nada contribuem para o fluxo atrav´ es dessa face. A taxa de fluxo de sa´ıda (ainda
na direc¸ ˜ ao x positiva) pela face ABCD ´ e ρv
x
[
x=dx
dy dz. Para comparar esses fluxos e achar o fluxo l´ıquido de
sa´ıda, expandimos esse ´ ultimo resultado, como a variac¸ ˜ ao total na Sec¸ ˜ ao 1.6.
15
Isso resulta
Figura 1.23: Paralelep´ıpedo retangular diferencial (no primeiro octante).
(taxa de fluxo de sa´ıda)
ABCD
= ρv
x
[
x=dx
dy dz
=
_
ρv
x
+

∂x
(ρv
x
) dx
_
x=0
dy dz.
Aqui, o termo da derivada ´ e um primeiro termo de correc¸ ˜ ao, que leva em conta a possibilidade de densidade n˜ ao-
uniforme ou velocidade n˜ ao-uniforme ou ambas.
16
O termo de ordem zero ρv
x
[
x=0
(correspondente a um fluxo
uniforme) ´ e cancelado:
Velocidade l´ıquida de fluxo de sa´ıda[
x
=

∂x
(ρv
x
) dxdy dz.
De modo equivalente, podemos chegar a esse resultado por
lim
∆x→0
ρv
x
(∆x, 0, 0) −ρv
x
(0, 0, 0)
∆x

∂[ρv
x
(x, y, z)]
∂x
¸
¸
¸
¸
0,0,0
.
Agora, o eixo x n˜ ao est´ a recebendo nenhum tratamento preferencial. O resultado precedente para as duas faces
perpendiculares ao eixo x deve valer para as duas faces perpendiculares ao eixo y, com x substitu´ıdo por y e a
mudanc¸as correspondentes para y e z: y → z, z → x. Essa ´ e uma permutac¸ ˜ ao c´ıclica das coordenadas. Mais
uma outra permutac¸ ˜ ao c´ıclica d´ a o resultado para as duas faces restantes de nosso paralelep´ıpedo. Adicionando a
velocidade de fluxo l´ıquida para todos os trˆ es pares de superf´ıcies de nosso elemento de volume, temos
Fluxo l´ıquido
(por unidade de tempo)
=
_

∂x
(ρv
x
) +

∂y
(ρv
y
) +

∂z
(ρv
z
)
_
dxdy dz
= ∇ (ρv) dxdy dz. (1.66)
15
Aqui, temos o incremento dx e mostramos que uma derivada parcial em relac¸ ˜ ao a ρvx tamb´ em pode depender de y e z.
16
Em termos estritos, ρvx representa sobre a face EFGH e, de modo semelhante, a express˜ ao ρvx+(∂/∂x)(ρvx) dx representa uma m´ edia
sobre a face ABCD. Usando um volume diferencial arbitrariamente pequeno, constatamos que as m´ edias se reduzem aos valores empregados
aqui.
“livro” — 2007/8/1 — 15:06 — page 33 — #43
1. AN´ ALISE VETORIAL 33
Por conseguinte, o fluxo de nosso fluido compress´ıvel que escoa do elemento de volume dxdy dz por volume
unit´ ario por unidade de tempo ´ e ∇ (ρv). Da´ı o nome divergˆ encia. Uma aplicac¸ ˜ ao direta ´ e na equac¸ ˜ ao de
continuidade
∂ρ
∂t
+∇ (ρv) = 0, (1.67a)
que afirma que um fluxo l´ıquido que escoa do volume resulta em uma diminuic¸ ˜ ao densidade dentro do volume.
Note que, na Equac¸ ˜ ao (1.67a), ρ ´ e considerada uma poss´ıvel func¸ ˜ ao de tempo, bem como do espac¸o. A divergˆ encia
aparece em uma grande variedade de problemas f´ısicos, abrangendo desde uma densidade de probabilidade de
corrente em mecˆ anica quˆ antica at´ e vazamento de nˆ eutrons em um reator nuclear.
A combinac¸ ˜ ao ρ(x, y, z, t) na qual f ´ e uma func¸ ˜ ao escalar e V ´ e uma func¸ ˜ ao vetorial, pode ser escrita
∇ (fV) =

∂x
(fV
x
) +

∂y
(fV
y
) +

∂z
(fV
z
)
=
∂f
∂x
V
x
+f
∂V
x
∂x
+
∂f
∂y
V
y
+f
∂V
y
∂y
+
∂f
∂z
V
z
+f
∂V
z
∂z
= (∇f) V+f∇ V, (1.67b)
que ´ e exatamente o que esperar´ıamos para a derivada de um produto. Note que ∇como um operador diferencial
distingue ambas, f e V; como um vetor, ele ´ e multiplicado escalarmente por V (em cada termo).
Se tivermos o caso especial da divergˆ encia que se anula de um vetor a zero,
∇ B = 0, (1.68)
diz-se que o vetor B ´ e solenoidal. O termo solenoidal vem do exemplo no qual B ´ e a induc¸ ˜ ao magn´ etica e a
Equac¸ ˜ ao (1.68) parece com uma das equac¸ ˜ oes de Maxwell. Quando um vetor ´ e solenoidal, ele pode ser escrito
como o rotacional de um outro vetor conhecido como o potencial vetorial. (Na Sec¸ ˜ ao 1.13 calcularemos esse
potencial vetorial.)
Exerc´ıcios
1.7.1 Para uma part´ıcula que se movimenta em uma ´ orbita circular, r = ˆ xr cos ωt + ˆ yrsen ωt,
(a) avalie r ˙ r, com ˙ r =
dr
dt
= v.
(b) Mostre que ¨r +ω
2
r = 0 com ¨r =
dv
dt
.
O raio r e a velocidade angular ω s˜ ao constantes.
Resposta: (a) ˆzωr
2
.
1.7.2 O vetor A satisfaz a lei de transformac¸ ˜ ao vetorial, Equac¸ ˜ ao (1.15). Mostre diretamente que sua
derivada em relac¸ ˜ ao ao tempo dA/dt tamb´ em satisfaz a Equac¸ ˜ ao (1.15) e ´ e, portanto, um vetor.
1.7.3 Mostre, por diferenciac¸ ˜ ao das componentes, que
(a)
d
dt
(A B) =
dA
dt
B+A
dB
dt
,
(b)
d
dt
(AB) =
dA
dt
B + A
dB
dt
, exatamente como a derivada do produto de duas func¸ ˜ oes
alg´ ebricas.
1.7.4 No Cap´ıtulo 2 veremos que os vetores unit´ arios em sistemas de coordenadas n˜ ao-cartesianos
usualmente s˜ ao func¸ ˜ oes das vari´ aveis coordenadas, e
i
= e
i
(q
1
, q
2
, q
3
) e [e
i
[ = 1. Mostre que
∂e
i
/∂q
j
= 0 ou ∂e
i
/∂q
j
´ e ortogonal a e
i
.
Sugest˜ ao: ∂e
2
i
/∂q
j
= 0.
1.7.5 Prove que ∇ (a b) = b (∇a) −a (∇b).
Sugest˜ ao: Trate como um produto escalar triplo.
1.7.6 O campo eletrost´ atico de uma carga pontual q ´ e
E =
q
4πε
0

ˆr
r
2
.
Calcule a divergˆ encia de E. O que acontece na origem?
“livro” — 2007/8/1 — 15:06 — page 34 — #44
34 F´ısica Matem´ atica Arfken • Weber
1.8 Rotacional, ∇
Uma outra operac¸ ˜ ao poss´ıvel com o operador vetorial ∇ ´ e fazer o produto externo dele com um vetor. Obtemos
∇V = ˆ x
_

∂y
V
z


∂z
V
y
_
+ ˆ y
_

∂z
V
x


∂x
V
z
_
+ˆz
_

∂x
V
y


∂y
V
x
_
=
¸
¸
¸
¸
¸
¸
ˆ x ˆ y ˆz

∂x

∂y

∂z
V
x
V
y
V
z
¸
¸
¸
¸
¸
¸
, (1.69)
que ´ e denominada a rotacional de V. Ao expandir esse determinante, devemos considerar a natureza de derivada
de ∇. Especificamente, V ∇ ´ e definido somente como um operador, um outro operador vetorial diferencial.
Certamente n˜ ao ´ e igual, em geral, a −∇V.
17
No caso da Equac¸ ˜ ao (1.69), o determinante deve ser expandido de
cima para baixo, de modo que obtenhamos as derivadas como mostrado na parte do meio da Equac¸ ˜ ao (1.69). Se
introduzirmos o produto externo de ∇no produto entre um escalar e um vetor, podemos mostrar que
∇(fV)[
x
=
_

∂y
(fV
z
) −

∂z
(fV
y
)
_
=
_
f
∂V
z
∂y
+
∂f
∂y
V
z
−f
∂V
y
∂z

∂f
∂z
V
y
_
= f∇V[
x
+ (∇f) V[
x
. (1.70)
Se permutarmos as coordenadas x → y, y → z, z → x para pegar a componente y e ent˜ ao permut´ a-las uma
segunda vez para pegar a componente z, ent˜ ao
∇(fV) = f∇V+ (∇f) V, (1.71)
que ´ e o produto vetorial an´ alogo da Equac¸ ˜ ao (1.67b). Mais uma vez, como um operador diferencial, ∇diferencia
ambas, f e V. Como um vetor, ele faz um produto externo em V (em cada termo).
Exemplo 1.8.1 POTENCIAL VETORIAL DE UM CAMPO CONSTANTE B
Pela eletrodinˆ amica sabemos que ∇ B = 0, cuja soluc¸ ˜ ao geral ´ e B = ∇ A, em que A(r) ´ e denominado
potencial vetor (de induc¸ ˜ ao magn´ etica), porque ∇ (∇A) = (∇∇) A ≡ 0, como um produto escalar triplo
com dois vetores idˆ enticos. Essa ´ ultima identidade n˜ ao mudar´ a se adicionarmos o gradiente de alguma func¸ ˜ ao
escalar ao potencial vetorial que, portanto, n˜ ao ´ e ´ unico.
Em nosso caso, queremos mostrar que um potencial vetorial ´ e A =
1
2
(Br).
Usando a regra BAC–CBA juntamente com o Exemplo 1.7.1, constatamos que
2∇A = ∇(Br) = (∇ r)B−(B ∇)r = 3B−B = 2B,
em que indicamos, pela ordenac¸ ˜ ao do produto escalar do segundo termo, que o gradiente ainda age sobre o vetor
coordenado.
Exemplo 1.8.2 ROTACIONAL DE UM CAMPO DE FORC¸ A CENTRAL
Calcule ∇(rf(r)). Pela Equac¸ ˜ ao (1.71),

_
rf(r)
_
= f(r)∇r +
_
∇f(r)
¸
r. (1.72)
Primeiro,
∇r =
¸
¸
¸
¸
¸
¸
ˆ x ˆ y ˆz

∂x

∂y

∂z
x y z
¸
¸
¸
¸
¸
¸
= 0. (1.73)
17
Com esse mesmo esp´ırito, se A for um operador diferencial, n˜ ao ´ e necessariamente verdade que A A = θ. Especificamente, para o
operador de momento angular da mecˆ anica quˆ antica, L = −i(r ∇) encontramos que L L = iL. Veja Sec¸ ˜ oes 4.3 e 4.4 para mais
detalhes.
“livro” — 2007/8/1 — 15:06 — page 35 — #45
1. AN´ ALISE VETORIAL 35
Segundo, usando ∇f(r) =ˆr(df/dr) (Exemplo 1.6.1), obtemos
∇rf(r) =
df
dr
ˆr r = 0. (1.74)
Esse produto vetorial se reduz a zero, visto que r =ˆrr e ˆr ˆr = 0.
Para desenvolver uma percepc¸ ˜ ao melhor do significado do rotacional, consideramos a circulac¸ ˜ ao de fluido ao
redor de um circuito fechado diferencial no plano xy, Figura 1.24.
Figura 1.24: Circulac¸ ˜ ao ao redor de um c´ırculo fechado diferencial.
Embora a circulac¸ ˜ ao seja dada tecnicamente por uma integral vetorial de linha
_
V dλ (Sec¸ ˜ ao 1.10), podemos
estabelecer aqui as integrais escalares equivalentes. Vamos admitir que a circulac¸ ˜ ao seja
circulac¸ ˜ ao
1234
=
_
1
V
x
(x, y) dλ
x
+
_
2
V
y
(x, y) dλ
y
+
_
3
V
x
(x, y) dλ
x
+
_
4
V
y
(x, y) dλ
y
. (1.75)
Os n´ umeros 1, 2, 3 e 4 se referem aos segmentos de reta numerados na Figura 1.24. Na primeira integral,

x
= +dx; mas, na terceira integral, dλ
x
= −dx porque o terceiro segmento de reta ´ e atravessado na direc¸ ˜ ao
negativa de x. De modo semelhante, dλ
y
= +dy para a segunda integral, −dy para a quarta. Em seguida, os
integrandos referem-se ao ponto (x
0
, y
0
) com uma expans˜ ao de Taylor
18
levando em conta o deslocamento do
segmento de reta 3 em relac¸ ˜ ao a 1 e o do segmento 2 em relac¸ ˜ ao a 4. Para nossos segmentos de reta diferenciais,
isso resulta em
circulac¸ ˜ ao
1234
= V
x
(x
0
, y
0
) dx +
_
V
y
(x
0
, y
0
) +
∂V
y
∂x
dx
_
dy
+
_
V
x
(x
0
, y
0
) +
∂V
x
∂y
dy
_
(−dx) +V
y
(x
0
, y
0
)(−dy)
=
_
∂V
y
∂x

∂V
x
∂y
_
dxdy. (1.76)
Dividindo por dxdy, temos
circulac¸ ˜ ao por unidade de ´ area = ∇V[
z
. (1.77)
A circulac¸ ˜ ao
19
ao redor de nossa ´ area diferencial no plano xy ´ e dada pela componente z de ∇V. Em princ´ıpio, o
rotacional ∇Vem (x
0
, y
0
) poderia ser determinado inserindo uma roda propulsora (ou roda de p´ as) (diferencial)
no fluido em movimento no ponto (x
0
, y
0
). A rotac¸ ˜ ao da pequena roda de p´ as seria uma medida do rotacional, e
seu eixo estaria ao longo da direc¸ ˜ ao de ∇V, que ´ e perpendicular ao plano da circulac¸ ˜ ao.
Usaremos o resultado, Equac¸ ˜ ao (1.76), na Sec¸ ˜ ao 1.12 para derivar o teorema de Stokes. Sempre que o rotacional
de um vetor V se reduz a zero,
∇V = 0, (1.78)
18
Aqui, Vy(x0 +dx, y0) = Vy(x0, y0) +(
∂Vy
∂x
)x
0
y
0
dx + . Os termos de ordem mais alta ser˜ ao descartados no limite, ` a medida que
dx →0. Um termo de correc¸ ˜ ao para a variac¸ ˜ ao de Vy com y ´ e cancelado pelo termo correspondente na quarta integral.
19
Em dinˆ amica dos fluidos ∇V ´ e denominado “vorticidade”.
“livro” — 2007/8/1 — 15:06 — page 36 — #46
36 F´ısica Matem´ atica Arfken • Weber
V ´ e denominado irrotacional. Os exemplos f´ısicos mais importantes de vetores irrotacionais s˜ ao a forc¸a
gravitacional e a forc¸a eletrost´ atica. Em cada caso,
V = C
ˆr
r
2
= C
r
r
3
, (1.79)
em que C ´ e uma constante e ˆr ´ e o vetor unit´ ario na direc¸ ˜ ao radial que aponta para fora. Para o caso gravitacional,
temos C = −Gm
1
m
2
, dado pela lei da gravitac¸ ˜ ao universal de Newton. Se C = q
1
q
2
/4πε
0
, temos a lei da
eletrost´ atica de Coulomb (unidades mks). Pode-se demonstrar que a forc¸a Vdada na Equac¸ ˜ ao (1.79) ´ e irrotacional
por expans˜ ao direta em componentes cartesianas, como fizemos no Exemplo 1.8.1. Uma outra abordagem ´ e
desenvolvida no Cap´ıtulo 2, no qual expressamos ∇, o rotacional, em termos de coordenadas esf´ ericas polares.
Na Sec¸ ˜ ao 1.13 veremos que, sempre que um vetor for irrotacional, ele pode ser escrito como o gradiente (negativo)
de um potencial escalar. Na Sec¸ ˜ ao 1.16, provaremos que um campo vetorial pode ser resolvido em uma parte
irrotacional e em uma parte solenoidal (sujeita a condic¸ ˜ oes no infinito). Em termos do campo eletromagn´ etico isso
corresponde ` a resoluc¸ ˜ ao em um campo el´ etrico irrotacional e em um campo magn´ etico solenoidal.
Para ondas em um meio el´ astico, se o deslocamento u for irrotacional, ∇ u = 0, ondas planas (ou ondas
esf´ ericas em grandes distˆ ancias) se tornam longitudinais. Se u for solenoidal, ∇ u = 0, ent˜ ao as ondas tornam-se
transversais. Uma perturbac¸ ˜ ao s´ısmica produzir´ a um deslocamento que pode ser resolvido em uma parte solenoidal
e em uma parte irrotacional (compare com a Sec¸ ˜ ao 1.16). A parte irrotacional d´ a origem ` as ondas de terremoto
longitudinais P (prim´ arias). A parte solenoidal d´ a origem ` as ondas transversais mais lentas S (secund´ arias).
Usando o gradiente, a divergˆ encia e o rotacional e, ´ e claro, a regra BAC–CAB, podemos construir ou
verificar um grande n´ umero de identidades vetoriais ´ uteis. Para verificac¸ ˜ ao, a completa expans˜ ao em componentes
cartesianas ´ e sempre uma possibilidade.
`
As vezes, se usarmos a percepc¸ ˜ ao em vez de manipulac¸ ˜ ao de componentes
cartesianas, o processo de verificac¸ ˜ ao pode ser drasticamente encurtado.
Lembre-se de que ∇ ´ e um operador vetorial, uma criatura h´ıbrida que satisfaz dois conjuntos de regras:
1. regras vetoriais e
2. regras de diferenciac¸ ˜ ao parcial — incluindo diferenciac¸ ˜ ao de um produto.
Exemplo 1.8.3 GRADIENTE DE UM PRODUTO ESCALAR
Verifique que
∇(A B) = (B ∇)A+ (A ∇)B+B(∇A) +A(∇B). (1.80)
Esse exemplo particular depende de reconhecer que ∇(A B) ´ e o tipo de termo que aparece na expans˜ ao
BAC–CAB de um produto vetorial triplo, Equac¸ ˜ ao (1.55). Por exemplo,
A(∇B) = ∇(A B) −(A ∇)B,
com o ∇ diferenciando somente B, e n˜ ao A. Pela comutatividade de fatores em um produto escalar, podemos
permutar Ae B e escrever
B(∇A) = ∇(A B) −(B ∇)A,
agora com ∇ diferenciando somente A, e n˜ ao B. Somando essas duas equac¸ ˜ oes, obtemos ∇ diferenciando
o produto A B e a identidade, Equac¸ ˜ ao (1.80). Essa identidade ´ e freq¨ uentemente usada na teoria do
eletromagnetismo. O Exerc´ıcio 1.8.13 ´ e uma ilustrac¸ ˜ ao simples.
Exemplo 1.8.4 INTEGRAC¸ ˜ AO DO ROTACIONAL POR PARTES
Vamos provar a f´ ormula
_
C(r) (∇ A(r)) d
3
r =
_
A(r) (∇ C(r)) d
3
r, em que A ou C ou ambas se
anulam no infinito.
Para mostrar isso, utilizamos, como nos Exemplos 1.6.3 e 1.7.3, integrac¸ ˜ ao por partes ap´ os escrever o produto
interno e o rotacional em coordenadas cartesianas. Como os termos integrados se anulam no infinito, obtemos
_
C(r)
_
∇A(r)
_
d
3
r
=
_ _
C
z
_
∂A
y
∂x

∂A
x
∂y
_
+C
x
_
∂A
z
∂y

∂A
y
∂z
_
+C
y
_
∂A
x
∂z

∂A
z
∂x
__
d
3
r
=
_ _
A
x
_
∂C
z
∂y

∂C
y
∂z
_
+A
y
_
∂C
x
∂z

∂C
z
∂x
_
+A
z
_
∂C
y
∂x

∂C
x
∂y
__
d
3
r
=
_
A(r)
_
∇C(r)
_
d
3
r,
“livro” — 2007/8/1 — 15:06 — page 37 — #47
1. AN´ ALISE VETORIAL 37
apenas rearranjando adequadamente os termos ap´ os a integrac¸ ˜ ao por partes.
Exerc´ıcios
1.8.1 Mostre, por rotac¸ ˜ ao de coordenadas, que as componentes do rotacional de um vetor se transformam
como um vetor.
Sugest˜ ao: As identidades dos co-senos diretores da Equac¸ ˜ ao (1.46) est˜ ao dispon´ıveis conforme
necess´ ario.
1.8.2 Mostre que u v ´ e solenoidal se u e v forem, cada um, irrotacionais.
1.8.3 Se A ´ e irrotacional, mostre que Ar ´ e solenoidal.
1.8.4 Um corpo r´ıgido est´ a girando com velocidade angular constante ω. Mostre que a velocidade linear
v ´ e solenoidal.
1.8.5 Se uma func¸ ˜ ao vetorial f (x, y, z) n˜ ao ´ e irrotacional, mas o produto de f, e uma func¸ ˜ ao escalar
g(x, y, z) ´ e irrotacional, mostre que, ent˜ ao,
f ∇f = 0.
1.8.6 Se (a) V = ˆ xV
x
(x, y) + ˆ yV
y
(x, y) e (b) ∇V ,= 0, prove que ∇V ´ e perpendicular a V.
1.8.7 Classicamente, o momento angular orbital ´ e dado por L = rp, em que p ´ e o momento linear. Para
passar da mecˆ anica cl´ assica para a mecˆ anica quˆ antica, substitua p pelo operador −i∇(Sec¸ ˜ ao 15.6).
Mostre que o operador do momento angular da mecˆ anica quˆ antica temcomponentes cartesianas (em
unidades de )
L
x
= −i
_
y

∂z
−z

∂y
_
,
L
y
= −i
_
z

∂x
−x

∂z
_
,
L
z
= −i
_
x

∂y
−y

∂x
_
.
1.8.8 Usando os operadores de momento angular dados anteriormente, mostre que eles satisfazem
relac¸ ˜ oes de comutac¸ ˜ ao da forma
[L
x
, L
y
] ≡ L
x
L
y
−L
y
L
x
= iL
z
e, portanto,
L L = iL.
Essas relac¸ ˜ oes de comutac¸ ˜ ao ser˜ ao consideradas mais adiante como definindo relac¸ ˜ oes de um
operador de momento angular — Exerc´ıcio 3.2.15, exerc´ıcio seguinte e Cap´ıtulo 4.
1.8.9 Com a notac¸ ˜ ao de colchetes de comutac¸ ˜ ao [L
x
, L
y
] = L
x
L
y
−L
y
L
x
, o vetor do momento angular
L satisfaz [L
x
, L
y
] = iL
z
, etc., ou L L = iL.
Se dois outros vetores a e b comutarem um com o outro e com L, isto ´ e, [a, b] = [a, L] = [b, L] =
0, mostre que
[a L, b L] = i(a b) L.
1.8.10 Para A = ˆ xA
x
(x, y, z) e B = ˆ xB
x
(x, y, z), avalie cada termo no vetor identidade
∇(A B) = (B ∇)A+ (A ∇)B+B(∇A) +A(∇B)
e verifique se a identidade foi satisfeita.
1.8.11 Verifique a identidade vetorial
∇(AB) = (B ∇)A−(A ∇)B−B(∇ A) +A(∇ B).
1.8.12 Como uma alternativa ` a identidade vetorial do Exemplo 1.8.3 mostre que
∇(A B) = (A∇) B+ (B∇) A+A(∇ B) +B(∇ A).
“livro” — 2007/8/1 — 15:06 — page 38 — #48
38 F´ısica Matem´ atica Arfken • Weber
1.8.13 Verifique a identidade
A(∇A) =
1
2

_
A
2
_
−(A ∇)A.
1.8.14 Se Ae B s˜ ao vetores constantes, mostre que
∇(A Br) = AB.
1.8.15 Uma distribuic¸ ˜ ao de correntes el´ etricas cria um momento magn´ etico constante m = const. A forc¸a
sobre mem uma induc¸ ˜ ao magn´ etica externa B ´ e dada por
F = ∇(Bm).
Mostre que
F = (m ∇)B.
Nota: Admitindo nenhuma dependˆ encia temporal dos campos, as equac¸ ˜ oes de Maxwell resultam
∇B = 0. Tamb´ em ∇ B = 0.
1.8.16 Um dipolo el´ etrico de momento p est´ a localizado na origem. O dipolo cria uma potencial el´ etrico
em r dado por
ψ(r) =
p r
4πε
0
r
3
.
Ache o campo el´ etrico, E = −∇ψ em r.
1.8.17 O potencial vetorial A de um dipolo magn´ etico, momento de dipolo m, ´ e dado por A(r) =

0
/4π)(mr/r
3
). Mostre que a induc¸ ˜ ao magn´ etica B = ∇A ´ e dada por
B =
µ
0

3ˆr(ˆr m) −m
r
3
.
Nota: O processo limitador que resulta em dipolos pontuais ´ e discutido na Sec¸ ˜ ao 12.1 para dipolos
el´ etricos e na Sec¸ ˜ ao 12.5 para dipolos magn´ eticos.
1.8.18 A velocidade do fluxo bidimensional de um l´ıquido ´ e dada por
V = ˆ xu(x, y) − ˆ yv(x, y) .
Se o l´ıquido ´ e incompress´ıvel e o fluxo ´ e irrotacional, mostre que
∂u
∂x
=
∂v
∂y
e
∂u
∂y
= −
∂v
∂x
.
Essas s˜ ao as condic¸ ˜ oes de Cauchy-Riemann da Sec¸ ˜ ao 6.2.
1.8.19 A avaliac¸ ˜ ao feita nesta sec¸ ˜ ao das quatro integrais para a circulac¸ ˜ ao omitiu termos da s´ erie de Taylor
como ∂V
x
/∂x, ∂V
y
/∂y e todas as derivadas de segunda ordem. Mostre que ∂V
x
/∂x, ∂V
y
/∂y se
cancelam quando as quatro integrais s˜ ao somadas e que os termos da derivada de segunda ordem
s˜ ao descartados no limite ` a medida que dx →0, dy →0.
Sugest˜ ao: Calcule a circulac¸ ˜ ao por unidade de ´ area e ent˜ ao tome o limite dx →0, dy →0.
1.9 Aplicac¸ ˜ oes Sucessivas de ∇
Agora j´ a definimos gradiente, divergˆ encia e rotacional para obter vetor, escalar e quantidades vetoriais,
respectivamente. Permitindo que ∇opere sobre cada uma dessas quantidades, obtemos
(a) ∇ ∇ϕ , (b) ∇∇ϕ , (c) ∇∇ V ,
(d) ∇ ∇V , (e) ∇(∇V) ,
todas as cinco express˜ oes envolvendo derivadas de segunda ordem e todas elas aparecendo nas equac¸ ˜ oes
diferenciais de segunda ordem da f´ısica matem´ atica, em particular na teoria eletromagn´ etica.
A primeira express˜ ao, ∇ ∇ϕ, a divergˆ encia do gradiente, ´ e denominada laplaciano de ϕ. Temos
∇ ∇ϕ =
_
ˆ x

∂x
+ ˆ y

∂y
+ˆz

∂z
_

_
ˆ x
∂ϕ
∂x
+ ˆ y
∂ϕ
∂y
+ˆz
∂ϕ
∂z
_
=

2
ϕ
∂x
2
+

2
ϕ
∂y
2
+

2
ϕ
∂z
2
. (1.81a)
“livro” — 2007/8/1 — 15:06 — page 39 — #49
1. AN´ ALISE VETORIAL 39
Quando ϕ ´ e o potencial eletrost´ atico, temos
∇ ∇ϕ = 0 (1.81b)
em pontos em que a densidade de carga reduz-se a zero, que ´ e a equac¸ ˜ ao de Laplace da eletrost´ atica. Muitas vezes,
a combinac¸ ˜ ao ∇ ∇ ´ e escrita ∇
2
ou ∆ na literatura europ´ eia.
Exemplo 1.9.1 LAPLACIANO DE UM POTENCIAL
Calcule ∇ ∇V (r).
Referindo aos Exemplos 1.6.1 e 1.7.2,
∇ ∇V (r) = ∇ ˆr
dV
dr
=
2
r
dV
dr
+
d
2
V
dr
2
,
substituindo f(r) no Exemplo 1.7.2 por 1/r dV/dr. Se V (r) = r
n
, essa express˜ ao se reduz a
∇ ∇r
n
= n(n + 1)r
n−2
,
que se reduz a zero para n = 0 [V (r) = constante] e para n = −1; isto ´ e, V (r) = 1/r ´ e a soluc¸ ˜ ao da
Equac¸ ˜ ao de Laplace, ∇
2
V (r) = 0. Isso para r ,= 0. Em r = 0, est´ a envolvida uma func¸ ˜ ao delta de Dirac
(veja a Equac¸ ˜ ao (1.169) e a Sec¸ ˜ ao 9.7).
A express˜ ao (b) pode ser escrita
∇∇ϕ =
¸
¸
¸
¸
¸
¸
¸
ˆ x ˆ y ˆz

∂x

∂y

∂z
∂ϕ
∂x
∂ϕ
∂y
∂ϕ
∂z
¸
¸
¸
¸
¸
¸
¸
.
Expandindo o determinante, obtemos
∇∇ϕ = ˆ x
_

2
ϕ
∂y ∂z


2
ϕ
∂z ∂y
_
+ ˆ y
_

2
ϕ
∂z ∂x


2
ϕ
∂x∂z
_
+ˆz
_

2
ϕ
∂x∂y


2
ϕ
∂y ∂x
_
= 0, (1.82)
admitindo que a ordem da diferenciac¸ ˜ ao parcial pode ser permutada. Isso ´ e verdade, contanto que essas derivadas
parciais de segunda ordem de ϕ sejam func¸ ˜ oes cont´ınuas. Ent˜ ao, pela Equac¸ ˜ ao (1.82), o rotacional de um gradiente
´ e identicamente zero. Por conseguinte, todos os gradientes s˜ ao irrotacionais. Note que o zero na Equac¸ ˜ ao (1.82) vem
como uma identidade matem´ atica, independente de qualquer f´ısica. O zero na Equac¸ ˜ ao (1.81b) ´ e uma conseq¨ uˆ encia
da f´ısica.
A express˜ ao (d) ´ e um produto escalar triplo que pode ser escrito
∇ ∇V =
¸
¸
¸
¸
¸
¸
¸

∂x

∂y

∂z

∂x

∂y

∂z
V
x
V
y
V
z
¸
¸
¸
¸
¸
¸
¸
. (1.83)
Novamente, admitindo continuidade de modo que a ordem de diferenciac¸ ˜ ao seja irrelevante, obtemos
∇ ∇V = 0. (1.84)
A divergˆ encia de um rotacional desaparece ou todos os rotacionais s˜ ao solenoidais. Na Sec¸ ˜ ao 1.16 veremos que os
vetores podem ser resolvidos em partes solenoidais e partes irrotacionais pelo teorema de Helmholtz.
As duas express˜ oes restantes satisfazem a uma relac¸ ˜ ao
∇(∇V) = ∇∇ V−∇ ∇V, (1.85)
v´ alida em coordenadas cartesianas (mas n˜ ao em coordenadas curvas). Isso segue imediatamente da Equac¸ ˜ ao (1.55),
a regra BAC–CAB que reescrevemos, de modo que Caparec¸a na extrema direita de cada termo. O termo ∇ ∇V
n˜ ao foi inclu´ıdo em nossa lista, mas pode ser definido pela Equac¸ ˜ ao (1.85).
“livro” — 2007/8/1 — 15:06 — page 40 — #50
40 F´ısica Matem´ atica Arfken • Weber
Exemplo 1.9.2 EQUAC¸ ˜ AO DE ONDA ELETROMAGN´ ETICA
Uma importante aplicac¸ ˜ ao dessa relac¸ ˜ ao vetorial (Equac¸ ˜ ao 1.86) aparece na derivac¸ ˜ ao da equac¸ ˜ ao de onda
eletromagn´ etica. No v´ acuo, as equac¸ ˜ oes de Maxwell tornam-se
∇ B = 0, (1.86a)
∇ E = 0, (1.86b)
∇B = ε
0
µ
0
∂E
∂t
, (1.86c)
∇E = −
∂B
∂t
. (1.86d)
Aqui, E ´ e o campo el´ etrico, B ´ e a induc¸ ˜ ao magn´ etica, ε
0
´ e a permissividade el´ etrica e µ
0
´ e a permeabilidade
magn´ etica (unidades SI), portanto ε
0
µ
0
= 1/c
2
, c sendo a velocidade da luz. A relac¸ ˜ ao tem conseq¨ uˆ encias
importantes. Como ε
0
, µ
0
podem ser medidos em qualquer referencial, a velocidade da luz ´ e a mesma em qualquer
referencial.
Suponha que eliminemos Bdas Equac¸ ˜ oes (1.87c) e (1.87d). Podemos fazer isso tomando o rotacional de ambos
os lados da Equac¸ ˜ ao (1.87d) e a derivada em relac¸ ˜ ao ao tempo de ambos os lados da Equac¸ ˜ ao (1.87c). Visto que as
derivadas de espac¸o e tempo comutam,

∂t
∇B = ∇
∂B
∂t
,
obtemos
∇(∇E) = −ε
0
µ
0

2
E
∂t
2
.
A aplicac¸ ˜ ao das Equac¸ ˜ oes (1.86) e (1.87b) resulta
∇ ∇E = ε
0
µ
0

2
E
∂t
2
, (1.87)
a equac¸ ˜ ao vetorial da onda eletromagn´ etica. Novamente, se E for expresso em coordenadas cartesianas, a
Equac¸ ˜ ao (1.87) se separa em trˆ es equac¸ ˜ oes escalares de onda, cada uma envolvendo o laplaciano escalar.
Quando carga el´ etrica e densidades de corrente externas s˜ ao mantidas como termos dominantes nas equac¸ ˜ oes
de Maxwell, equac¸ ˜ oes de onda similares s˜ ao v´ alidas para o potencial el´ etrico e para o potencial vetor. Para mostrar
isso, resolvemos a Equac¸ ˜ ao (1.86a) escrevendo B = ∇Acomo uma espiral do potencial vetorial. Essa express˜ ao
´ e substitu´ıda na lei da induc¸ ˜ ao de Faraday em forma diferencial, Equac¸ ˜ ao (1.86d), para resultar ∇(E+
∂A
∂t
) = 0.
O rotacional que desaparece implica que E+
∂A
∂t
´ e um gradiente e, portanto, pode ser escrito como −∇ϕ, em que
ϕ(r, t) ´ e definido como o potencial el´ etrico (n˜ ao-est´ atico). Esses resultados para os campos B e E
B = ∇A, E = −∇ϕ −
∂A
∂t
, (1.88)
resolvem as equac¸ ˜ oes homogˆ eneas de Maxwell.
Agora mostramos que as equac¸ ˜ oes n˜ ao-homogˆ eneas de Maxwell,
lei de Gauss: ∇ E = ρ/ε
0
, lei de Oersted: ∇B−
1
c
2
∂E
∂t
= µ
0
J , (1.89)
em forma diferencial levam a equac¸ ˜ oes de onda para os potenciais ϕ e A, contanto que ∇ A seja determinado
pela restric¸ ˜ ao
1
c
2
∂ϕ
∂t
+ ∇ A = 0. Essa opc¸ ˜ ao por fixar a divergˆ encia do potencial vetorial, denominada calibre
de Lorentz, serve para desvincular as equac¸ ˜ oes diferenciais de ambos os potenciais. Esse v´ınculo de calibre n˜ ao ´ e
uma restric¸ ˜ ao; n˜ ao tem nenhum efeito f´ısico.
Substituindo nossa soluc¸ ˜ ao do campo el´ etrico na lei de Gauss temos
ρ
ε
0
= ∇ E = −∇
2
ϕ −

∂t
∇ A = −∇
2
ϕ +
1
c
2

2
ϕ
∂t
2
, (1.90)
“livro” — 2007/8/1 — 15:06 — page 41 — #51
1. AN´ ALISE VETORIAL 41
a equac¸ ˜ ao de onda para o potencial el´ etrico. Na ´ ultima etapa utilizamos o calibre de Lorentz para substituir a
divergˆ encia do potencial vetor pela derivada em relac¸ ˜ ao ao tempo do potencial el´ etrico e assim desvincular ϕ de
A.
Por fim, substitu´ımos B = ∇ A na lei de Oersted e usamos a Equac¸ ˜ ao (1.85), que expande ∇
2
em termos
de uma componente longitudinal (o termo gradiente) e de uma componente transversal (o termo rotacional). Isso
resulta
µ
0
J +
1
c
2
∂E
∂t
= ∇(∇A) = ∇(∇ A) −∇
2
A = µ
0
J −
1
c
2
_

∂ϕ
∂t
+

2
A
∂t
2
_
,
em que usamos a soluc¸ ˜ ao do campo el´ etrico (Equac¸ ˜ ao (1.88)) na ´ ultima etapa. Agora vemos que a condic¸ ˜ ao do
calibre de Lorentz elimina os termos de gradiente, de modo que a equac¸ ˜ ao de onda
1
c
2

2
A
∂t
2
−∇
2
A = µ
0
J (1.91)
para o potencial vetor permanec¸a.
Por fim, voltando ` a lei de Oersted, tomando a divergˆ encia da Equac¸ ˜ ao (1.89), desprezando ∇ (∇ B) = 0,
e substituindo a lei de Gauss por ∇ E = ρ/
0
, encontramos µ
0
∇ J = −
1
0c
2
∂ρ
∂t
, em que
0
µ
0
= 1/c
2
, isto ´ e, a
equac¸ ˜ ao de continuidade para a densidade de corrente. Essa etapa justifica a inclus˜ ao da corrente de deslocamento
de Maxwell na generalizac¸ ˜ ao da lei de Oersted para situac¸ ˜ oes n˜ ao-estacion´ arias.
Exerc´ıcios
1.9.1 Verifique a Equac¸ ˜ ao (1.85),
∇(∇V) = ∇∇ V−∇ ∇V,
por expans˜ ao direta em coordenadas cartesianas.
1.9.2 Mostre que a identidade
∇(∇V) = ∇∇ V−∇ ∇V
resulta da regra BAC–CAB para um produto vetorial triplo. Justifique qualquer alterac¸ ˜ ao da ordem
de fatores nos termos BAC e CAB.
1.9.3 Prove que ∇(ϕ∇ϕ) = 0.
1.9.4 Dado que o rotacional de F ´ e igual ao rotacional de G, mostre que a diferenc¸a entre F e G pode
ser (a) uma constante e (b) um gradiente de uma func¸ ˜ ao escalar.
1.9.5 A equac¸ ˜ ao de Navier-Stokes da hidrodinˆ amica cont´ em um termo n˜ ao-linear (v ∇)v. Mostre que
o rotacional desse termo pode ser escrito como −∇[v (∇v)].
1.9.6 Da equac¸ ˜ ao de Navier-Stokes para o fluxo constante de um fluido viscoso incompress´ıvel, temos o
termo

_
v (∇v)
¸
,
em que v ´ e a velocidade do fluido. Mostre que esse termo reduz-se a zero para o caso especial.
v = ˆ xv(y, z).
1.9.7 Prove que (∇u) (∇v) ´ e solenoidal, em que u e v s˜ ao func¸ ˜ oes escalares diferenci´ aveis.
1.9.8 ϕ ´ e umescalar que satisfaz a equac¸ ˜ ao de Laplace, ∇
2
ϕ = 0. Mostre que ∇ϕ ´ e solenoidal e tamb´ em
irrotacional.
1.9.9 Sendo ψ uma func¸ ˜ ao escalar (de onda), mostre que
(r ∇) (r ∇)ψ = r
2

2
ψ −r
2

2
ψ
∂r
2
−2r
∂ψ
∂r
.
(Na verdade, isso pode ser demonstrado com mais facilidade em coordenadas esf´ ericas polares,
Sec¸ ˜ ao 2.5.)
“livro” — 2007/8/1 — 15:06 — page 42 — #52
42 F´ısica Matem´ atica Arfken • Weber
1.9.10 Em uma massa isolada (n˜ ao-rotacional), tal como uma estrela, a condic¸ ˜ ao para equil´ıbrio ´ e
∇P +ρ∇ϕ = 0 .
Aqui, P ´ e a press˜ ao total, ρ ´ e a densidade e ϕ ´ e o potencial gravitacional. Mostre que, a qualquer
ponto dado, as normais ` as superf´ıcies de press˜ ao constante e potencial gravitacional constante s˜ ao
paralelas.
1.9.11 Na teoria do el´ etron de Pauli, encontramos a express˜ ao
(p −eA) (p −eA)ψ,
em que ψ ´ e uma func¸ ˜ ao (de onda) escalar e A ´ e o potencial vetor magn´ etico relacionado ` a induc¸ ˜ ao
magn´ etica B por B = ∇ A. Dado que p = −i∇, mostre que essa express˜ ao se reduz a ieBψ.
Mostre que isso leva ao g fator orbital g
L
= 1 escrevendo o momento magn´ etico como µ = g
L
L
em unidades de magnetons de Bohr e L = −ir ∇. Veja tamb´ em Exerc´ıcio 1.13.7.
1.9.12 Mostre que qualquer soluc¸ ˜ ao da equac¸ ˜ ao
∇(∇A) −k
2
A = 0
satisfaz automaticamente a equac¸ ˜ ao de Helmholtz

2
A+k
2
A = 0
e a condic¸ ˜ ao solenoidal
∇ A = 0.
Sugest˜ ao: Deixe ∇ operar na primeira equac¸ ˜ ao.
1.9.13 A teoria da conduc¸ ˜ ao de calor leva a uma equac¸ ˜ ao do tipo

2
Ψ = k[∇Φ[
2
,
em que Φ ´ e um potencial que satisfaz ` a equac¸ ˜ ao de Laplace: ∇
2
Φ = 0. Mostre que uma soluc¸ ˜ ao
dessa equac¸ ˜ ao ´ e
Ψ =
1
2

2
.
1.10 Integrac¸ ˜ ao Vetorial
A etapa seguinte ap´ os a diferenciac¸ ˜ ao de vetores ´ e integr´ a-los. Vamos comec¸ar com integrais de linha e ent˜ ao
prosseguir com integrais de superf´ıcie e de volume. Em cada caso, o m´ etodo de ataque ser´ a reduzir as integrais
vetoriais a integrais escalares, com as quais supomos que o leitor esteja familiarizado.
Integrais de linha
Usando um incremento de comprimento dr = ˆ xdx + ˆ y dy +ˆz dz, podemos encontrar as integrais de linha
_
C
ϕdr, (1.92a)
_
C
V dr, (1.92b)
_
C
Vdr . (1.92c)
Em cada uma dessas express˜ oes a integral ´ e sobre algum contorno C que pode ser aberto (ponto inicial e ponto
final separados) ou fechado (formando um circuito fechado). Por causa de sua interpretac¸ ˜ ao f´ısica apresentada a
seguir, a segunda forma, Equac¸ ˜ ao (1.92b), ´ e, de longe, a mais importante das trˆ es.
Com ϕ, um escalar, a primeira integral se reduz imediatamente a
_
C
ϕdr = ˆ x
_
C
ϕ(x, y, z) dx + ˆ y
_
C
ϕ(x, y, z) dy +ˆz
_
C
ϕ(x, y, z) dz. (1.93)
“livro” — 2007/8/1 — 15:06 — page 43 — #53
1. AN´ ALISE VETORIAL 43
Essa separac¸ ˜ ao empregou a relac¸ ˜ ao
_
ˆ xϕdx = ˆ x
_
ϕdx, (1.94)
que ´ e permiss´ıvel porque os vetores unit´ arios cartesianos ˆ x, ˆ y e ˆz s˜ ao constantes em m´ odulos, bem como em
direc¸ ˜ ao. Talvez essa relac¸ ˜ ao seja ´ obvia nesse caso, mas n˜ ao ser´ a nos sistemas n˜ ao-cartesianos encontrados no
Cap´ıtulo 2.
As trˆ es integrais do lado direito da Equac¸ ˜ ao (1.93) s˜ ao integrais escalares comuns, e, para evitar complicac¸ ˜ oes,
admitimos que elas s˜ ao integrais de Riemann. Contudo, note que a integral em relac¸ ˜ ao a x n˜ ao pode ser avaliada
a menos que y e z sejam conhecidos em termos de x, e o mesmo vale para as integrais em relac¸ ˜ ao a y e z.
Isso significa simplesmente que o trajeto de integrac¸ ˜ ao C deve ser especificado. A menos que o integrando tenha
propriedades especiais, de modo que a integral dependa somente do valor das extremidades, o valor depender´ a da
escolha particular do contorno C. Por exemplo, se escolhermos o caso muito especial de ϕ = 1, a Equac¸ ˜ ao (1.91a)
´ e apenas a distˆ ancia vetorial desde o in´ıcio do contorno C at´ e a extremidade, nesse caso independente da escolha
de trajeto conectando as extremidades fixas. Com dr = ˆ xdx +ˆ y dy +ˆz dz, a segunda e a terceira formas tamb´ em
se reduzem a integrais escalares e, como na Equac¸ ˜ ao (1.92a), s˜ ao dependentes, em geral, da escolha do trajeto. A
forma (Equac¸ ˜ ao (1.92b)) ´ e exatamente a mesma encontrada quando calculamos o trabalho realizado por uma forc¸a
que varia ao longo do trajeto.
W =
_
F dr =
_
F
x
(x, y, z) dx +
_
F
y
(x, y, z) dy +
_
F
z
(x, y, z) dz. (1.95a)
Nessa express˜ ao, F ´ e a forc¸a exercida sobre uma part´ıcula.
Exemplo 1.10.1 TRABALHO DEPENDENTE DO TRAJETO
A forc¸a exercida sobre um corpo ´ e F = −ˆ xy + ˆ yx. O problema ´ e calcular o trabalho realizado quando se vai da
origem ao ponto (1, 1):
W =
_
1,1
0,0
F dr =
_
1,1
0,0
(−y dx +xdy). (1.95b)
Separando as duas integrais, obtemos
W = −
_
1
0
y dx +
_
1
0
xdy. (1.95c)
A primeira integral n˜ ao pode ser avaliada at´ e que especifiquemos os valores de y quando x vai de 0 a 1. Da mesma
forma, a segunda integral requer que x seja uma func¸ ˜ ao de y. Considere, em primeiro lugar, o trajeto mostrado na
Figura 1.25. Ent˜ ao
W = −
_
1
0
0 dx +
_
1
0
1 dy = 1, (1.95d)
Figura 1.25: Um trajeto de integrac¸ ˜ ao.
y = 0 ao longo do primeiro segmento do trajeto e x = 1 ao longo do segundo. Se selecionarmos o trajeto
[x = 0, 0 ≤ y ≤ 1] e [0 ≤ x ≤ 1, y = 1], ent˜ ao a Equac¸ ˜ ao (1.95c) d´ a W = −1. Para essa forc¸a, o trabalho
realizado depende da escolha do trajeto.
“livro” — 2007/8/1 — 15:06 — page 44 — #54
44 F´ısica Matem´ atica Arfken • Weber
Integrais de Superf´ıcie
Integrais de superf´ıcie aparecem nas mesmas formas que integrais de linha, sendo o elemento de ´ area tamb´ em
um vetor, dσ.
20
Esse elemento de ´ area costuma ser escrito ndA, no qual n ´ e um vetor unit´ ario (normal) para
indicar a direc¸ ˜ ao positiva.
21
H´ a duas convenc¸ ˜ oes para escolher a direc¸ ˜ ao positiva. Na primeira, se a superf´ıcie
for uma superf´ıcie fechada, concordamos em tomar a direc¸ ˜ ao normal para fora como positiva. Na segunda, se a
superf´ıcie for uma superf´ıcie aberta, a normal positiva depende da direc¸ ˜ ao na qual o per´ımetro da superf´ıcie aberta
´ e percorrido. Se os dedos da m˜ ao direita forem colocados na direc¸ ˜ ao do percurso ao redor do per´ımetro, a normal
positiva ser´ a indicada pelo polegar da m˜ ao direita. Como ilustrac¸ ˜ ao, o c´ırculo no plano xy (Figura 1.26) mapeado
de x para y para −x para −y e de volta para x ter´ a sua normal positiva paralela ao eixo z positivo (para o sistema
de coordenadas dextrogiras).
Figura 1.26: Regra da m˜ ao direita para a normal positiva.
An´ alogas ` as integrais de linha, Equac¸ ˜ oes (1.92a) a (1.92c), as integrais de superf´ıcie podem aparecer nas formas
_
ϕdσ,
_
V dσ,
_
Vdσ.
Mais uma vez, o produto escalar ´ e, de longe, a forma mais comumente encontrada. A integral de superf´ıcie
_
Vdσ
pode ser interpretada como um escoamento ou fluxo atrav´ es da superf´ıcie dada. E isso foi o que realmente fizemos
na Sec¸ ˜ ao 1.7 para obter a significˆ ancia do termo de divergˆ encia. Essa identificac¸ ˜ ao reaparece na Sec¸ ˜ ao 1.11 como
teorema de Gauss. Note que, em termos f´ısicos, bem como pelo produto escalar, as componentes tangenciais da
velocidade nada contribuem para o fluxo atrav´ es da superf´ıcie.
Integrais de Volume
Integrais de volume s˜ ao um tanto mais simples, porque o elemento de volume dτ ´ e uma quantidade escalar.
22
Temos _
V
Vdτ = ˆ x
_
V
V
x
dτ + ˆ y
_
V
V
y
dτ +ˆz
_
V
V
z
dτ, (1.96)
novamente reduzindo a integral vetorial a uma soma vetorial de integrais escalares.
Definic¸ ˜ oes Integrais de Gradiente, Divergˆ encia e Rotacional
Uma aplicac¸ ˜ ao interessante e significativa de nossas integrais de superf´ıcie e volume ´ e sua utilizac¸ ˜ ao no
desenvolvimento de definic¸ ˜ oes alternativas de nossas relac¸ ˜ oes diferenciais. Encontramos
∇ϕ = lim
R
dτ→0
_
ϕdσ
_

, (1.97)
∇ V = lim
R
dτ→0
_
V dσ
_

, (1.98)
∇V = lim
R
dτ→0
_
dσ V
_

. (1.99)
20
Lembre-se de que na Sec¸ ˜ ao 1.4 a ´ area (de um paralelogramo) ´ e representada por um vetor de produto externo.
21
Embora n sempre tenha comprimento unit´ ario, sua direc¸ ˜ ao pode perfeitamente ser uma func¸ ˜ ao da posic¸ ˜ ao.
22
Os s´ımbolos d
3
r e d
3
x costumam ser usados para denotar um elemento de volume em espac¸o de coordenadas (xyz ou x1x2x3).
“livro” — 2007/8/1 — 15:06 — page 45 — #55
1. AN´ ALISE VETORIAL 45
Nessas trˆ es equac¸ ˜ oes,
_
dτ ´ e o volume de uma pequena regi˜ ao do espac¸o e dσ ´ e o elemento de ´ area vetorial desse
volume. A identificac¸ ˜ ao da Equac¸ ˜ ao (1.98) como a divergˆ encia de V foi realizada na Sec¸ ˜ ao 1.7. Aqui, mostramos
que a Equac¸ ˜ ao (1.97) ´ e consistente com nossa definic¸ ˜ ao anterior de ∇ϕ (Equac¸ ˜ ao (1.60)). Por simplicidade,
escolhemos dτ como o volume diferencial dxdy dz (Figura 1.27). Desta vez, colocamos a origem no centro
geom´ etrico de nosso elemento de volume. A integral de ´ area leva a seis integrais, uma para cada uma das seis faces.
Lembrando que dσ aponta para fora, dσ ˆ x = −[dσ[ para a superf´ıcie EFHG e +[dσ[ para a superf´ıcieABDC,
temos
Figura 1.27: Paralelep´ıpedo retangular diferencial (origem no centro).
_
ϕdσ = −ˆ x
_
EFHG
_
ϕ −
∂ϕ
∂x
dx
2
_
dy dz + ˆ x
_
ABDC
_
ϕ +
∂ϕ
∂x
dx
2
_
dy dz
− ˆ y
_
AEGC
_
ϕ −
∂ϕ
∂y
dy
2
_
dxdz + ˆ y
_
BFHD
_
ϕ +
∂ϕ
∂y
dy
2
_
dxdz
−ˆz
_
ABFE
_
ϕ −
∂ϕ
∂z
dz
2
_
dxdy +ˆz
_
CDHG
_
ϕ +
∂ϕ
∂z
dz
2
_
dxdy.
Usando as variac¸ ˜ oes totais, avaliamos cada integrando na origem com uma correc¸ ˜ ao inclu´ıda para corrigir o
deslocamento (±dx/2, etc.) do centro da face em relac¸ ˜ ao ` a origem. Tendo escolhido o volume total como de
tamanho diferencial (
_
dτ = dxdy dz), abandonamos os sinais de integral no lado direito e obtemos
_
ϕdσ =
_
ˆ x
∂ϕ
∂x
+ ˆ y
∂ϕ
∂y
+ˆz
∂ϕ
∂z
_
dxdy dz. (1.100)
Dividindo por
_
dτ = dxdy dz,
verificamos a Equac¸ ˜ ao (1.97).
Essa verificac¸ ˜ ao foi supersimplificada ao ignorar outros termos de correc¸ ˜ ao al´ em das derivadas de primeira
ordem. Esses termos adicionais, que s˜ ao introduzidos na Sec¸ ˜ ao 5.6, quando ´ e desenvolvida a expans˜ ao de Taylor,
desaparecem no limite
_
dτ →0 (dx →0, dy →0, dz →0).
Essa, ´ e claro, ´ e a raz˜ ao para especificar que esse limite fosse tomado nas Equac¸ ˜ oes (1.97), (1.98) e (1.99) . A
verificac¸ ˜ ao da Equac¸ ˜ ao (1.99) segue exatamente essas mesmas linhas, utilizando um volume diferencial dxdy dz.
“livro” — 2007/8/1 — 15:06 — page 46 — #56
46 F´ısica Matem´ atica Arfken • Weber
Exerc´ıcios
1.10.1 O campo de forc¸a que age sobre um oscilador linear bidimensional pode ser descrito por
F = −ˆ xkx − ˆ yky.
Compare o trabalho realizado movimentando-se contra esse campo de forc¸a entre (1, 1) a (4, 4)
pelos seguintes trajetos em linha reta:
(a) (1, 1) →(4, 1) →(4, 4)
(b) (1, 1) →(1, 4) →(4, 4)
(c) (1, 1) →(4, 4) ao longo de x = y.
Isso significa avaliar

_
(4,4)
(1,1)
F dr
ao longo de cada trajeto.
1.10.2 Ache o trabalho realizado para percorrer um c´ırculo unit´ ario no plano xy:
(a) no sentido anti-hor´ ario de 0 a π,
(b) no sentido hor´ ario de 0 a −π, realizando trabalho contra um campo de forc¸a dado por
F =
−ˆ xy
x
2
+y
2
+
ˆ yx
x
2
+y
2
.
Note que o trabalho realizado depende do trajeto.
1.10.3 Calcule o trabalho que vocˆ e realiza para ir de um ponto (1, 1) a um ponto (3, 3). A forc¸a que vocˆ e
exerce ´ e dada por
F = ˆ x(x −y) + ˆ y(x +y).
Especifique claramente o trajeto que escolheu. Note que esse campo de forc¸a ´ e n˜ ao-conservativo.
1.10.4 Avalie
_
r dr.
Nota: O s´ımbolo
_
significa que o trajeto de integrac¸ ˜ ao ´ e um circuito fechado.
1.10.5 Avalie
1
3
_
s
r dσ
sobre o cubo unit´ ario definido pelo ponto (0, 0, 0) e as interceptac¸ ˜ oes unit´ arias sobre os eixos x, y
e z positivos. Note que (a) r dσ ´ e zero para trˆ es das superf´ıcies e (b) cada uma das trˆ es superf´ıcies
restantes contribui com a mesma quantidade para a integral.
1.10.6 Mostre, por expans˜ ao da integral de superf´ıcie, que
lim
R
dτ→0
_
s
dσ V
_

= ∇V.
Sugest˜ ao: Escolha o volume
_
dτ como um volume diferencial dxdy dz.
1.11 Teorema de Gauss
Aqui derivamos uma relac¸ ˜ ao ´ util entre uma integral de superf´ıcie de um vetor e a integral de volume da divergˆ encia
daquele vetor. Vamos admitir que o vetor V e suas derivadas de primeira ordem sejam cont´ınuos sobre a regi˜ ao
simplesmente conectada (que n˜ ao tem orif´ıcio, tal como o de uma rosquinha) de interesse. Ent˜ ao, o teorema de
Gauss afirma que

∂V
V dσ =
___
V
∇ Vdτ. (1.101a)
Traduzindo em palavras, a integral de superf´ıcie de um vetor sobre uma superf´ıcie fechada ´ e igual ` a integral de
volume da divergˆ encia daquele vetor integrada sobre o volume inclu´ıdo pela superf´ıcie.
Imagine que o volume V seja subdividido em um n´ umero arbitrariamente grande de pequeninos paralelep´ıpedos
(diferenciais). Para cada paralelep´ıpedo

seis superf´ıcies
V dσ = ∇ Vdτ , (1.101b)
“livro” — 2007/8/1 — 15:06 — page 47 — #57
1. AN´ ALISE VETORIAL 47
Figura 1.28: Cancelamento exato de dσ sobre superf´ıcies interiores. Nenhum cancelamento sobre a superf´ıcie
exterior.
pela an´ alise da Sec¸ ˜ ao 1.7, Equac¸ ˜ ao (1.66), substituindo ρv por V. O somat´ orio ´ e executado sobre as seis faces do
paralelep´ıpedo. Fazendo o somat ´ orio para todos os paralelep´ıpedos, constatamos que os termos V dσ se cancelam
(aos pares) para todas as faces interiores; somente as contribuic¸ ˜ oes das superf´ıcies exteriores (Figura 1.28)
sobrevivem. An´ alogo ` a definic¸ ˜ ao de uma integral de Riemann como o limite de uma soma, tomamos o limite no
qual o n´ umero de paralelep´ıpedos se aproxima do infinito (→ ∞) e as dimens˜ oes de cada um se aproximam de
zero(→0):

superf´ıcies exteriores
V dσ

=

volumes
∇ Vdτ
_
S
V dσ =
_
V
∇ Vdτ.
O resultado ´ e a Equac¸ ˜ ao (1.101a), o teorema de Gauss.
De um ponto de vista f´ısico, a Equac¸ ˜ ao (1.66) determinou ∇ V como o fluxo l´ıquido de sa´ıda de fluido por
unidade de volume. A integral de volume ent˜ ao d´ a o fluxo de sa´ıda l´ıquido total. Mas a integral de superf´ıcie
_
V dσ ´ e apenas outra maneira de expressar essa mesma quantidade, que ´ e a igualdade, o teorema de Gauss.
Teorema de Green
Um corol´ ario do teorema de Gauss freq¨ uentemente usado ´ e uma relac¸ ˜ ao conhecida como teorema de Green. Se u
e v s˜ ao duas func¸ ˜ oes escalares, temos as identidades
∇ (u∇v) = u∇ ∇v + (∇u) (∇v), (1.102)
∇ (v ∇u) = v∇ ∇u + (∇v) (∇u). (1.103)
Subtraindo a Equac¸ ˜ ao (1.103) da Equac¸ ˜ ao (1.102), integrando sobre umvolume (u, v e suas derivadas, admitidas
como cont´ınuas) e aplicando a Equac¸ ˜ ao (1.101a) (teorema de Gauss), obtemos
___
V
(u∇ ∇v −v∇ ∇u) dτ =

∂V
(u∇v −v∇u) dσ. (1.104)
Esse ´ e o teorema de Green. N´ os o utilizamos para desenvolver func¸ ˜ oes de Green no Cap´ıtulo 9. Uma forma
alternativa do teorema de Green, derivada apenas da Equac¸ ˜ ao (1.102) , ´ e

∂V
u∇v dσ =
___
V
u∇ ∇v dτ +
___
V
∇u ∇v dτ. (1.105)
Essa ´ e a forma do teorema de Green usada na Sec¸ ˜ ao 1.16.
“livro” — 2007/8/1 — 15:06 — page 48 — #58
48 F´ısica Matem´ atica Arfken • Weber
Formas alternativas do Teorema de Gauss
Embora a Equac¸ ˜ ao (1.101a) envolvendo a divergˆ encia seja, de longe, a forma mais importante do teorema de
Gauss, integrais de volume envolvendo o gradiente e o rotacional tamb´ em podem aparecer. Suponha
V(x, y, z) = V (x, y, z)a, (1.106)
no qual a ´ e um vetor de m´ odulo constante e direc¸ ˜ ao constante, por´ em arbitr´ aria. (Vocˆ e escolhe a direc¸ ˜ ao, por´ em,
t˜ ao logo a escolha, conserve-a fixa.) A Equac¸ ˜ ao (1.101a) torna-se
a

∂V
V dσ =
___
V
∇ aV dτ = a
___
V
∇V dτ (1.107)
pela Equac¸ ˜ ao (1.67b). Essa express˜ ao pode ser reescrita como
a
_

∂V
V dσ −
___
V
∇V dτ
_
= 0. (1.108)
Visto que [a[ , = 0 e sua direc¸ ˜ ao s˜ ao arbitr´ arios, significando que o co-seno do ˆ angulo inclu´ıdo nem sempre pode
desaparecer, os termos entre colchetes devem ser zero.
23
O resultado ´ e

∂V
V dσ =
___
V
∇V dτ. (1.109)
De maneira semelhante, usando V = a P no qual a ´ e um vetor constante, podemos mostrar

∂V
dσ P =
___
V
∇Pdτ. (1.110)
Essas duas ´ ultimas formas do teorema de Gauss s˜ ao usadas na forma vetorial da teoria da difrac¸ ˜ ao de Kirchoff.
Elas tamb´ em podem ser usadas para verificar as Equac¸ ˜ oes (1.97) e (1.99). O teorema de Gauss tamb´ em pode ser
estendido para tensores (veja a Sec¸ ˜ ao 2.11).
Exerc´ıcios
1.11.1 Usando o teorema de Gauss, prove que

S
dσ = 0
Se S = ∂V for uma superf´ıcie fechada.
1.11.2 Mostre que
1
3

S
r dσ = V,
em que V ´ e o volume contido pela superf´ıcie fechada S = ∂V .
Nota: Essa ´ e uma generalizac¸ ˜ ao do Exerc´ıcio 1.10.5.
1.11.3 Se B = ∇A, mostre que

S
B dσ = 0
para qualquer superf´ıcie fechada S.
1.11.4 Sobre algum volume V seja ψ uma soluc¸ ˜ ao da equac¸ ˜ ao de Laplace (com as derivadas aparecendo
como cont´ınuas). Prove que a integral sobre qualquer superf´ıcie fechada em V da derivada normal
de ψ (∂ψ/∂n ou ∇ψ n) ser´ a zero.
1.11.5 Por analogia com a definic¸ ˜ ao integral de gradiente, divergˆ encia e rotacional da Sec¸ ˜ ao 1.10, mostre
que

2
ϕ = lim
R
dτ→0
_
∇ϕ dσ
_

.
23
Essa explorac¸ ˜ ao da natureza arbitr´ aria de uma parte de um problema ´ e uma t´ ecnica valiosa e muito utilizada. O vetor arbitr´ ario ´ e usado
novamente nas Sec¸ ˜ oes 1.12 e 1.13. Outros exemplos aparecem na Sec¸ ˜ ao 1.14 (integrandos igualados) e na Sec¸ ˜ ao 2.8, sobre regra do quociente.
“livro” — 2007/8/1 — 15:06 — page 49 — #59
1. AN´ ALISE VETORIAL 49
1.11.6 O vetor deslocamento el´ etrico D satisfaz a equac¸ ˜ ao de Maxwell ∇ D = ρ, em que ρ ´ e a
densidade de carga (por unidade de volume). Na fronteira entre dois meios h´ a uma densidade de
carga superficial σ (por unidade de ´ area). Mostre que uma condic¸ ˜ ao de fronteira para D ´ e
(D
2
−D
1
) n = σ ,
em que n ´ e um vetor normal ` a superf´ıcie e est´ a fora do meio 1.
Sugest˜ ao: Considere uma caixinha como a mostrada na Figura 1.29.
Figura 1.29: Caixinha.
1.11.7 Pela Equac¸ ˜ ao (1.67b), com V o campo el´ etrico E e f o potencial eletrost´ atico ϕ, mostre que, para
integrac¸ ˜ ao sobre todo o espac¸o,
_
ρϕdτ = ε
0
_
E
2
dτ.
Isso corresponde a uma integrac¸ ˜ ao tridimensional por partes.
Sugest˜ ao: E = −∇ϕ, ∇ E = ρ/ε
0
. Vocˆ e pode admitir que ϕ se reduz a zero quando r ´ e grande,
pelo menos t˜ ao rapidamente quanto r
−1
.
1.11.8 Uma determinada distribuic¸ ˜ ao de corrente el´ etrica estacion´ aria est´ a localizada no espac¸o.
Escolhendo uma superf´ıcie de fronteira longe o suficiente para que a densidade de corrente J seja
zero em todos os pontos da superf´ıcie, mostre que
___
Jdτ = 0.
Sugest˜ ao: Tome uma componente de J por vez. Com ∇ J = 0, mostre que J
i
= ∇ (x
i
J) e
aplique o teorema de Gauss.
1.11.9 Pode-se demonstrar que a criac¸ ˜ ao de um sistema localizado de correntes el´ etricas estacion´ arias
(densidade de corrente J) e campos magn´ eticos pode requerer uma quantidade de trabalho
W =
1
2
___
H Bdτ.
Transforme isso em
W =
1
2
___
J Adτ.
Aqui A ´ e o potencial vetor magn´ etico: ∇A = B.
Sugest˜ ao: Nas equac¸ ˜ oes de Maxwell tome o termo corrente de deslocamento ∂D/∂t = 0. Se os
campos e correntes forem localizados, pode-se tomar uma superf´ıcie limitadora longe o suficiente
para que as integrais dos campos e correntes sobre a superf´ıcie resultem zero.
1.11.10 Prove a generalizac¸ ˜ ao do teorema de Green:
___
V
(vLu −uLv) dτ =

∂V
p(v∇u −u∇v) dσ.
Aqui L ´ e o operador auto-adjunto (Sec¸ ˜ ao 10.1),
L = ∇
_
p(r)∇
¸
+q(r)
e p, q, u e v s˜ ao func¸ ˜ oes da posic¸ ˜ ao, sendo que p e q tˆ em derivadas de primeira ordem cont´ınuas e u
e v tˆ em derivadas de segunda ordem cont´ınuas.
Nota: Esse teorema de Green generalizado aparece na Sec¸ ˜ ao 9.7.
“livro” — 2007/8/1 — 15:06 — page 50 — #60
50 F´ısica Matem´ atica Arfken • Weber
1.12 Teorema de Stokes
O teorema de Gauss relaciona a integral de volume de uma derivada de uma func¸ ˜ ao com uma integral da func¸ ˜ ao
sobre a superf´ıcie fechada que limita o volume. Aqui consideramos a relac¸ ˜ ao an´ aloga entre a integral de superf´ıcie
de uma derivada de uma func¸ ˜ ao com a integral de linha da func¸ ˜ ao sendo o trajeto de integrac¸ ˜ ao o per´ımetro da
superf´ıcie limitadora.
Vamos tomar a superf´ıcie e subdividi-la em uma rede de retˆ angulos arbitrariamente pequenos. Na Sec¸ ˜ ao
1.8 mostramos que a circulac¸ ˜ ao ao redor de tal retˆ angulo diferencial (no plano xy) ´ e ∇ V[
z
dxdy. Pela
Equac¸ ˜ ao (1.76) aplicada a um retˆ angulo diferencial,

quatro lados
V dλ = ∇V dσ. (1.111)
Somamos todos os pequenos retˆ angulos, como na definic¸ ˜ ao de uma integral de Riemann. As contribuic¸ ˜ oes de
superf´ıcie (lado direito da Equac¸ ˜ ao (1.111)) s˜ ao somadas. As integrais de linha (lado esquerdo da Equac¸ ˜ ao (1.111))
de todos os segmentos de reta interiores se cancelam identicamente. Somente a integral de linha ao
redor do per´ımetro sobrevive (Figura 1.30). Tomando o limite usual ` a medida que o n´ umero de retˆ angulos se
aproxima do infinito enquanto dx →0, dy →0, temos
Figura 1.30: Cancelamento exato nos trajetos interiores. Nenhum cancelamento no trajeto exterior.

segmentos de reta
exteriores
V dλ

=

retˆ angulos
∇V dσ

(1.112)
_
V dλ =
_
S
∇V dσ.
Esse ´ e o teorema de Stokes. A integral de superf´ıcie ` a direita ´ e sobre a superf´ıcie limitada pelo per´ımetro ou
contorno, para a integral de linha ` a esquerda. A direc¸ ˜ ao do vetor que representa a ´ area est´ a fora do plano do papel
apontando para o leitor se a direc¸ ˜ ao da transversal ao redor do contorno para a integral de linha estiver no sentido
matem´ atico positivo, como mostrado na Figura 1.30.
Essa demonstrac¸ ˜ ao do teorema de Stokes ´ e limitada pelo fato de termos usado uma expans˜ ao de Maclaurin
de V(x, y, z) ao estabelecer a Equac¸ ˜ ao (1.76) na Sec¸ ˜ ao 1.8. Na verdade, basta exigir que o rotacional de
V(x, y, z) exista e que seja integr´ avel sobre a superf´ıcie. Uma prova do teorema da integral de Cauchy an´ aloga
ao desenvolvimento do teorema de Stokes feito aqui, por´ em usando essas condic¸ ˜ oes menos restritivas, aparece na
Sec¸ ˜ ao 6.3.
´
E ´ obvio que o teorema de Stokes se aplica a uma superf´ıcie aberta.
´
E poss´ıvel considerar uma superf´ıcie fechada
um caso-limite de uma superf´ıcie aberta com a abertura (e, portanto, o per´ımetro) decrescendo para zero. Esse ´ e o
assunto do Exerc´ıcio 1.12.7.
“livro” — 2007/8/1 — 15:06 — page 51 — #61
1. AN´ ALISE VETORIAL 51
Formas Alternativas do Teorema de Stokes
Assim como no teorema de Gauss, outras relac¸ ˜ oes entre integrais de superf´ıcie e de linha s˜ ao poss´ıveis.
Encontramos
_
S
dσ ∇ϕ =
_
∂S
ϕdλ (1.113)
e
_
S
(dσ ∇) P =
_
∂S
dλ P. (1.114)
A Equac¸ ˜ ao (1.113) pode ser verificada com facilidade pela substituic¸ ˜ ao V = aϕ, na qual a ´ e um vetor de m´ odulo
constante e direc¸ ˜ ao constante, como na Sec¸ ˜ ao 1.11. Substituindo no teorema de Stokes, Equac¸ ˜ ao (1.112),
_
S
(∇aϕ) dσ = −
_
S
a ∇ϕ dσ
= −a
_
S
∇ϕ dσ. (1.115)
Para a integral de linha,
_
∂S
aϕ dλ = a
_
∂S
ϕdλ, (1.116)
obtemos
a
__
∂S
ϕdλ +
_
S
∇ϕ dσ
_
= 0. (1.117)
Uma vez que a escolha da direc¸ ˜ ao de a ´ e arbitr´ aria, a express˜ ao entre parˆ enteses deve se anular, verificando assim a
Equac¸ ˜ ao (1.113). A Equac¸ ˜ ao (1.114) pode ser derivada de forma semelhante usando V = aP, na qual a ´ e, mais
uma vez, um vetor constante. Podemos usar o teorema de Stokes para derivar as leis de Oersted e Faraday a partir
de duas das equac¸ ˜ oes de Maxwell e vice-versa, reconhecendo assim que as primeiras s˜ ao uma forma integrada das
´ ultimas.
Exemplo 1.12.1 LEIS DE OERSTED E FARADAY
Considere o campo magn´ etico gerado por um fio el´ etrico que transporta uma corrente I. Partindo da lei diferencial
de Maxwell ∇ H = J, Equac¸ ˜ ao (1.89) (com a corrente de deslocamento de Maxwell ∂D/∂t = 0 para o caso
de uma corrente estacion´ aria pela lei de Ohm), integramos sobre uma ´ area fechada S perpendicular ao fio e o
envolvendo e aplicamos o teorema de Stokes para obter
I =
_
S
J dσ =
_
S
(∇H) dσ =
_
∂S
H dr,
que ´ e a lei de Oersted. Aqui, a integral de linha ´ e ao longo de ∂S, a curva fechada que circunda a ´ area da sec¸ ˜ ao
transversal S.
De modo semelhante, podemos integrar a equac¸ ˜ ao de Maxwell para ∇E, Equac¸ ˜ ao (1.86d), para resultar a lei
da induc¸ ˜ ao de Faraday. Imagine movimentar um circuito fechado (∂S) de fio (de ´ area S) atrav´ es de um campo de
induc¸ ˜ ao magn´ etica B. Integramos a equac¸ ˜ ao de Maxwell e usamos o teorema de Stokes, resultando
_
∂S
E dr =
_
S
(∇E) dσ = −
d
dt
_
S
B dσ = −

dt
,
que ´ e a lei de Faraday. A integral de linha do lado esquerdo representa a voltagem induzida no circuito fechado de
fio, enquanto o lado direito ´ e a mudanc¸a ao longo do tempo do fluxo magn´ etico Φ atrav´ es da superf´ıcie m´ ovel S
do fio.
Os teoremas de Stokes e de Gauss s˜ ao de grande importˆ ancia em uma ampla variedade de problemas que
envolvem c´ alculo vetorial. Podemos ter uma id´ eia de seu poder e versatilidade pelos exerc´ıcios das Sec¸ ˜ oes 1.11 e
1.12 e pelo desenvolvimento da teoria do potencial nas Sec¸ ˜ oes 1.13 e 1.14.
“livro” — 2007/8/1 — 15:06 — page 52 — #62
52 F´ısica Matem´ atica Arfken • Weber
Exerc´ıcios
1.12.1 Dado um vetor t = −ˆ xy + ˆ yx, mostre, com a ajuda do teorema de Stokes, que a integral ao redor
de uma curva fechada cont´ınua no plano xy,
1
2
_
t dλ =
1
2
_
(xdy −y dx) = A,
´ e a ´ area limitada pela curva.
1.12.2 O c´ alculo do momento magn´ etico de um circuito fechado de corrente leva ` a integral de linha
_
r dr.
(a) Integre ao redor do per´ımetro de um circuito de corrente (no plano xy) e mostre que a grandeza
escalar dessa integral de linha ´ e duas vezes a ´ area da superf´ıcie envolvida.
(b) O per´ımetro de uma elipse ´ e descrito por r = ˆ xa cos θ + ˆ ybsen θ. Pela parte (a), mostre que a
´ area da elipse ´ e πab.
1.12.3 Avalie
_
r dr usando a forma alternativa do teorema de Stokes dada pela Equac¸ ˜ ao (1.114):
_
S
(dσ ∇) P =
_
dλ P.
Considere que o circuito est´ a inteiramente sobre o plano xy.
1.12.4 Em estado estacion´ ario o campo magn´ etico Hsatisfaz ` a equac¸ ˜ ao de Maxwell ∇H = J, em que
J ´ e a densidade de corrente (por metro quadrado). Na fronteira entre dois meios h´ a uma densidade
superficial de corrente K. Mostre que uma condic¸ ˜ ao de fronteira em H ´ e
n (H
2
−H
1
) = K
em que n ´ e um vetor unit´ ario normal ` a superf´ıcie e fora do meio 1.
Sugest˜ ao: Considere um circuito estreito perpendicular ` a interface, como mostrado na Figura 1.31.
Figura 1.31: Trajeto de integrac¸ ˜ ao na fronteira de dois meios.
1.12.5 Pelas equac¸ ˜ oes de Maxwell, ∇ H = J, sendo que, neste caso, J ´ e a densidade de corrente e
E = 0, mostre por essa relac¸ ˜ ao, que
_
H dr = I,
em que I ´ e a corrente el´ etrica l´ıquida contida pela integral do circuito fechado. Essas s˜ ao as formas
diferencial e integral da lei de Amp` ere do magnetismo.
1.12.6 Uma induc¸ ˜ ao magn´ etica B ´ e gerada por corrente el´ etrica em um anel de raio R. Mostre que o
m´ odulo do potencial vetor A(B = ∇A) no anel pode ser
[A[ =
ϕ
2πR
,
em que ϕ ´ e o fluxo magn´ etico total que passa pelo anel.
Nota: A ´ e tangencial ao anel e pode ser mudado pela adic¸ ˜ ao do gradiente de uma func¸ ˜ ao escalar.
1.12.7 Prove que
_
S
∇V dσ = 0,
se S for uma superf´ıcie fechada.
“livro” — 2007/8/1 — 15:06 — page 53 — #63
1. AN´ ALISE VETORIAL 53
1.12.8 Avalie
_
r dr (Exerc´ıcio 1.10.4) pelo teorema de Stokes.
1.12.9 Prove que
_
u∇v dλ = −
_
v∇u dλ.
1.12.10 Prove que
_
u∇v dλ =
_
S
(∇u) (∇v) dσ.
1.13 Teoria do Potencial
Potencial Escalar
Se uma forc¸a sobre uma dada regi˜ ao simplesmente conexa do espac¸o S (o que significa que ela n˜ ao tem orif´ıcios)
puder ser expressa como o gradiente negativo de uma func¸ ˜ ao escalar ϕ,
F = −∇ϕ, (1.118)
denominamos ϕumpotencial escalar que descreve a forc¸a por uma s´ o func¸ ˜ ao emvez de trˆ es. Umpotencial escalar ´ e
determinado a menos de uma constante aditiva, a qual pode ser usada para ajustar seu valor no infinito (usualmente
zero) ou em algum outro ponto. A forc¸a F que aparece como o gradiente negativo de um potencial escalar de
valor ´ unico ´ e denominada forc¸a conservativa. Queremos saber quando existe uma func¸ ˜ ao potencial escalar. Para
responder a esta pergunta, estabelecemos duas outras relac¸ ˜ oes como equivalentes ` a Equac¸ ˜ ao (1.118). S˜ ao elas
∇F = 0 (1.119)
e _
F dr = 0, (1.120)
para todo trajeto fechado em nossa regi˜ ao simplesmente conectada S. Vamos mostrar que cada uma dessas trˆ es
equac¸ ˜ oes implica as outras duas. Comecemos com
F = −∇ϕ. (1.121)
Ent˜ ao
∇F = −∇∇ϕ = 0 (1.122)
pela Equac¸ ˜ ao (1.82) ou Equac¸ ˜ ao (1.118) implica Equac¸ ˜ ao (1.119). Retornando ` a integral de linha, temos
_
F dr = −
_
∇ϕ dr = −
_
dϕ, (1.123)
usando a Equac¸ ˜ ao (1.118). Agora, dϕ pode ser integrado para dar ϕ. Visto que especificamos um circuito
fechado, as extremidades coincidem e obtemos zero para todo trajeto fechado em nossa regi˜ ao S para a qual
a Equac¸ ˜ ao (1.118) for v´ alida. Aqui ´ e importante notar a restric¸ ˜ ao de que o potencial tenha um valor ´ unico e
que a Equac¸ ˜ ao (1.118) seja v´ alida para todos os pontos em S. Esse problema pode surgir ao usar um potencial
magn´ etico escalar, umprocedimento perfeitamente v´ alido, contanto que nenhuma corrente l´ıquida esteja envolvida.
T˜ ao logo escolhamos um trajeto no espac¸o que envolva uma corrente l´ıquida, o potencial magn´ etico escalar deixa
de ter um valor ´ unico e nossa an´ alise n˜ ao se aplica mais.
Continuando essa demonstrac¸ ˜ ao de equivalˆ encia, vamos admitir que valha a Equac¸ ˜ ao (1.120). Se
_
F dr = 0
para todos os trajetos em S, vemos que o valor da integral que une dois pontos distintos A e B ´ e independente do
trajeto (Figura 1.32). Nossa premissa ´ e que
_
ACBDA
F dr = 0. (1.124)
Portanto,
_
ACB
F dr = −
_
BDA
F dr =
_
ADB
F dr, (1.125)
invertendo o sinal pela invers˜ ao da direc¸ ˜ ao de integrac¸ ˜ ao. Em termos f´ısicos, isso significa que o trabalho realizado
para ir de A a B ´ e independente do trajeto e que o trabalho realizado para percorrer um trajeto fechado ´ e zero.
´
E
por essa raz˜ ao que denominamos essa forc¸a conservativa: a energia ´ e conservada.
“livro” — 2007/8/1 — 15:06 — page 54 — #64
54 F´ısica Matem´ atica Arfken • Weber
Figura 1.32: Poss´ıveis trajetos para realizar trabalho.
Com o resultado mostrado na Equac¸ ˜ ao (1.125), temos que o trabalho realizado depende somente das
extremidades A e B. Isto ´ e,
Trabalho realizado pela forc¸a =
_
B
A
F dr = ϕ(A) −ϕ(B). (1.126)
A Equac¸ ˜ ao (1.126) define um potencial escalar (em termos estritos, a diferenc¸a de potencial entre os pontos A
e B) e fornece um meio para calcular o potencial. Se o ponto B for tomado como uma vari´ avel, digamos (x, y, z),
ent˜ ao a diferenciac¸ ˜ ao em relac¸ ˜ ao a x, y e z recuperar´ a a Equac¸ ˜ ao (1.118).
A escolha de sinal para o lado direito ´ e arbitr´ aria. Aqui, a escolha ´ e feita para obter concordˆ ancia com a
Equac¸ ˜ ao (1.118) e para garantir que a ´ agua correr´ a montanha abaixo e n˜ ao montanha acima. Para os pontos A
e B separados por uma distˆ ancia dr, a Equac¸ ˜ ao (1.126) se torna
F dr = −dϕ = −∇ϕ dr , (1.127)
que pode ser reescrita como
(F +∇ϕ) dr = 0, (1.128)
e, visto que dr ´ e arbitr´ aria, a Equac¸ ˜ ao (1.118) deve resultar. Se
_
F dr = 0, (1.129)
podemos obter a Equac¸ ˜ ao (1.119) usando o teorema de Stokes (Equac¸ ˜ ao (1.112)):
_
F dr =
_
∇F dσ. (1.130)
Se tomarmos o trajeto de integrac¸ ˜ ao como o per´ımetro de uma ´ area diferencial arbitr´ aria dσ, o integrando na
integral de superf´ıcie deve se anular. Da´ı a Equac¸ ˜ ao (1.120) implica a Equac¸ ˜ ao (1.119).
Por fim, se ∇ F = 0, basta inverter nosso enunciado do teorema de Stokes (Equac¸ ˜ ao (1.130)) para
derivar a Equac¸ ˜ ao (1.120). Ent˜ ao, pelas Equac¸ ˜ oes (1.126) a (1.128) ´ e derivado o enunciado inicial F = −∇ϕ.
A tripla equivalˆ encia ´ e demonstrada (Figura 1.33). Resumindo, uma func¸ ˜ ao potencial escalar de valor ´ unico
ϕ existe se e somente se F for irrotacional ou o trabalho executado ao redor de todo o circuito fechado for
zero. Os campos de forc¸a gravitacional e eletrost´ atica, dados pela Equac¸ ˜ ao (1.79), s˜ ao irrotacionais e, portanto,
conservativos. Potenciais escalares gravitacionais e eletrost´ aticos existem. Agora, calculando o trabalho realizado
(Equac¸ ˜ ao (1.126)), passamos a determinar trˆ es potenciais (Figura 1.34).
Exemplo 1.13.1 POTENCIAL GRAVITACIONAL
Ache o potencial escalar para a forc¸a gravitacional sobre uma massa unit´ aria m
1
,
F
G
= −
Gm
1
m
2
ˆr
r
2
= −
kˆr
r
2
, (1.131)
“livro” — 2007/8/1 — 15:06 — page 55 — #65
1. AN´ ALISE VETORIAL 55
Figura 1.33: Formulac¸ ˜ oes equivalentes de uma forc¸a conservativa.
Figura 1.34: Energia potencial versus distˆ ancia (gravitacional, centr´ıfuga e do oscilador harmˆ onico simples).
“livro” — 2007/8/1 — 15:06 — page 56 — #66
56 F´ısica Matem´ atica Arfken • Weber
dirigida radialmente para dentro. Integrando a Equac¸ ˜ ao (1.118) de infinito at´ e a posic¸ ˜ ao r, obtemos
ϕ
G
(r) −ϕ
G
(∞) = −
_
r

F
G
dr = +
_

r
F
G
dr. (1.132)
Utilizando F
G
= −F
aplicada
, uma comparac¸ ˜ ao com a Equac¸ ˜ ao (1.95a) mostra que o potencial ´ e o trabalho
realizado para trazer a massa unit´ aria do infinito. (Podemos definir apenas diferenc¸a de potencial. Neste caso,
determinamos arbitrariamente que o potencial no infinito ´ e zero. A integral do lado direito da Equac¸ ˜ ao (1.132) ´ e
negativa, o que significa que ϕ
G
(r) ´ e negativo. Visto que F
G
´ e radial, obtemos uma contribuic¸ ˜ ao para ϕ somente
quando dr ´ e radial ou
ϕ
G
(r) = −
_

r
k dr
r
2
= −
k
r
= −
Gm
1
m
2
r
.
O sinal negativo final ´ e uma conseq¨ uˆ encia da forc¸a de atrac¸ ˜ ao da gravidade.
Exemplo 1.13.2 POTENCIAL CENTR´IFUGO
Calcule o potencial escalar para a forc¸a centr´ıfuga por massa unit´ aria, F
C
= ω
2
rˆr, dirigida radialmente para
fora. Em termos f´ısicos, vocˆ e poderia sentir essa forc¸a em um grande disco girat ´ orio horizontal de um parque de
divers˜ oes. Procedendo como no Exemplo 1.13.1, mas integrando da origem para fora e tomando ϕ
C
(0) = 0, temos
ϕ
C
(r) = −
_
r
0
F
C
dr = −
ω
2
r
2
2
.
Se invertermos os sinais, tomando F
SHO
= −kr, obtemos ϕ
SHO
=
1
2
kr
2
, o potencial oscilador harmˆ onico
simples.
Os potenciais gravitacional, centr´ıfugo e do oscilador harmˆ onico simples s˜ ao mostrados na Figura 1.34. Fica
claro que o oscilador harmˆ onico simples produz estabilidade e descreve uma forc¸a restauradora. O potencial
centr´ıfugo descreve uma situac¸ ˜ ao inst´ avel.
Termodinˆ amica —Diferenciais Exatas
Em termodinˆ amica, que ` as vezes ´ e denominada uma procura por diferenciais exatas, encontramos equac¸ ˜ oes da
forma
df = P(x, y) dx +Q(x, y) dy. (1.133a)
O problema usual ´ e determinar se
_
(P(x, y) dx +Q(x, y) dy) depende somente das extremidades, isto ´ e, se df ´ e,
de fato, uma diferencial exata. A condic¸ ˜ ao necess´ aria e suficiente ´ e que
df =
∂f
∂x
dx +
∂f
∂y
dy (1.133b)
ou que
P(x, y) = ∂f/∂x,
Q(x, y) = ∂f/∂y.
(1.133c)
As Equac¸ ˜ oes (1.133c) dependem de satisfazer a relac¸ ˜ ao
∂P(x, y)
∂y
=
∂Q(x, y)
∂x
. (1.133d)
Contudo, isso ´ e exatamente an´ alogo ` a Equac¸ ˜ ao (1.119), a exigˆ encia de que F seja irrotacional. De fato, a
componente z da Equac¸ ˜ ao (1.119) resulta
∂F
x
∂y
=
∂F
y
∂x
, (1.133e)
com
F
x
=
∂f
∂x
, F
y
=
∂f
∂y
.
“livro” — 2007/8/1 — 15:06 — page 57 — #67
1. AN´ ALISE VETORIAL 57
Potencial Vetorial
Em alguns ramos da f´ısica, em especial a eletrodinˆ amica, ´ e conveniente introduzir um potencial vetor A, tal que o
campo (de forc¸a) B seja dado por
B = ∇A. (1.134)
´
E claro que, se a Equac¸ ˜ ao (1.134) valer, ∇ B = 0 pela Equac¸ ˜ ao (1.84) e B ´ e solenoidal. Aqui, queremos
desenvolver um inverso, para mostrar que, quando B ´ e solenoidal, existe um potencial vetor A. Demonstramos a
existˆ encia de Acalculando-o. Suponha B = ˆ xb
1
+ ˆ yb
2
+ˆzb
3
e nosso desconhecido A = ˆ xa
1
+ ˆ ya
2
+ˆza
3
. Pela
Equac¸ ˜ ao (1.134),
∂a
3
∂y

∂a
2
∂z
= b
1
, (1.135a)
∂a
1
∂z

∂a
3
∂x
= b
2
, (1.135b)
∂a
2
∂x

∂a
1
∂y
= b
3
. (1.135c)
Vamos admitir que as coordenadas foram escolhidas de modo que A ´ e paralelo ao plano yz; isto ´ e, a
1
= 0.
24
Ent˜ ao,
b
2
= −
∂a
3
∂x
,
b
3
=
∂a
2
∂x
.
(1.136)
Integrando, obtemos
a
2
=
_
x
x0
b
3
dx +f
2
(y, z),
a
3
= −
_
x
x0
b
2
dx +f
3
(y, z),
(1.137)
em que f
2
e f
3
s˜ ao func¸ ˜ oes arbitr´ arias de y e z mas n˜ ao s˜ ao func¸ ˜ oes de x. Essas duas equac¸ ˜ oes podem ser
verificadas diferenciando e recuperando a Equac¸ ˜ ao (1.136). A Equac¸ ˜ ao (1.135a) se torna
25
∂a
3
∂y

∂a
2
∂z
= −
_
x
x0
_
∂b
2
∂y
+
∂b
3
∂z
_
dx +
∂f
3
∂y

∂f
2
∂z
=
_
x
x0
∂b
1
∂x
dx +
∂f
3
∂y

∂f
2
∂z
, (1.138)
usando ∇ B = 0. Integrando em relac¸ ˜ ao a x, obtemos
∂a
3
∂y

∂a
2
∂z
= b
1
(x, y, z) −b
1
(x
0
, y, z) +
∂f
3
∂y

∂f
2
∂z
. (1.139)
Lembrando que f
3
e f
2
s˜ ao func¸ ˜ oes arbitr´ arias de y e z, escolhemos
f
2
= 0,
f
3
=
_
y
y0
b
1
(x
0
, y, z) dy,
(1.140)
de modo que o lado esquerdo da Equac¸ ˜ ao (1.139) se reduz a b
1
(x, y, z), em concordˆ ancia com a Equac¸ ˜ ao (1.135a).
Com f
2
e f
3
dadas pela Equac¸ ˜ ao (1.140), podemos construir A:
A = ˆ y
_
x
x0
b
3
(x, y, z) dx +ˆz
__
y
y0
b
1
(x
0
, y, z) dy −
_
x
x0
b
2
(x, y, z) dx
_
. (1.141)
Contudo, isso ainda n˜ ao est´ a bem completo. Podemos adicionar qualquer constante, j´ a que B ´ e uma derivada de
A. O mais importante ´ e que podemos adicionar qualquer gradiente de uma func¸ ˜ ao escalar ∇ϕ sem afetar B em
nada. Por fim, as func¸ ˜ oes f
2
e f
3
n˜ ao s˜ ao ´ unicas. Outras escolhas poderiam ter sido feitas. Em vez de estabelecer
a
1
= 0 para obter a Equac¸ ˜ ao (1.136), qualquer permutac¸ ˜ ao c´ıclica 1, 2, 3, x, y, z, x
0
, y
0
, z
0
tamb´ em funcionaria.
24 ´
E claro que isso pode ser feito em qualquer ponto. Mas n˜ ao ´ e nada ´ obvio que essa pressuposic¸ ˜ ao seja v´ alida para todos os pontos; isto ´ e,
que Aser´ a bidimensional. A justificativa para essa pressuposic¸ ˜ ao ´ e que ela funciona; a Equac¸ ˜ ao (1.141) satisfaz a Equac¸ ˜ ao (1.134).
25
A f´ ormula de Leibniz no Exerc´ıcio 9.6.13 ´ e ´ util aqui.
“livro” — 2007/8/1 — 15:06 — page 58 — #68
58 F´ısica Matem´ atica Arfken • Weber
Exemplo 1.13.3 UM POTENCIAL VETORIAL MAGN´ ETICO PARA UM CAMPO MAGN´ ETICO CONSTANTE
Para ilustrar a construc¸ ˜ ao de um potencial vetor magn´ etico, tomamos o caso especial, se bem que importante, de
uma induc¸ ˜ ao magn´ etica constante
B = ˆzB
z
, (1.142)
na qual B
z
´ e uma constante. As Equac¸ ˜ oes (1.135a a c) se tornam
∂a
3
∂y

∂a
2
∂z
= 0,
∂a
1
∂z

∂a
3
∂x
= 0, (1.143)
∂a
2
∂x

∂a
1
∂y
= B
z
.
Se admitirmos que a
1
= 0, como antes, ent˜ ao, pela Equac¸ ˜ ao (1.141),
A = ˆ y
_
x
B
z
dx = ˆ yxB
z
, (1.144)
tomando uma constante de integrac¸ ˜ ao igual a zero. Pode-se verificar com facilidade que esse A satisfaz a
Equac¸ ˜ ao (1.134).
Para mostrar que a escolha a
1
= 0 n˜ ao era sagrada ou ao menos n˜ ao era exigida, vamos tentar estabelecer
a
3
= 0. Pela Equac¸ ˜ ao (1.143),
∂a
2
∂z
= 0, (1.145a)
∂a
1
∂z
= 0, (1.145b)
∂a
2
∂x

∂a
1
∂y
= B
z
. (1.145c)
Vemos que a
1
e a
2
s˜ ao independentes de z ou
a
1
= a
1
(x, y), a
2
= a
2
(x, y). (1.146)
A Equac¸ ˜ ao (1.145c) ´ e satisfeita se tomarmos
a
2
= p
_
x
B
z
dx = pxB
z
(1.147)
e
a
1
= (p −1)
_
y
B
z
dy = (p −1)yB
z
, (1.148)
sendo p qualquer constante. Ent˜ ao,
A = ˆ x(p −1)yB
z
+ ˆ ypxB
z
. (1.149)
Novamente, verifica-se que as Equac¸ ˜ oes (1.134), (1.142) e (1.149) s˜ ao consistentes. A comparac¸ ˜ ao das
Equac¸ ˜ oes (1.144) e (1.149) mostra imediatamente que A n˜ ao ´ e ´ unico. A diferenc¸a entre as Equac¸ ˜ oes (1.144) e
(1.149) e o aparecimento do parˆ ametro p na Equac¸ ˜ ao (1.149) pode ser justificada reescrevendo a Equac¸ ˜ ao (1.149)
como
A = −
1
2
(ˆ xy − ˆ yx)B
z
+
_
p −
1
2
_
(ˆ xy + ˆ yx)B
z
= −
1
2
(ˆ xy − ˆ yx)B
z
+
_
p −
1
2
_
B
z
∇ϕ (1.150)
com
ϕ = xy. (1.151)

“livro” — 2007/8/1 — 15:06 — page 59 — #69
1. AN´ ALISE VETORIAL 59
O primeiro termo em Aent˜ ao corresponde ` a forma usual
A =
1
2
(Br) , (1.152)
para B, uma constante.
Adicionar um gradiente de uma func¸ ˜ ao escalar, digamos Λ ao potencial vetor A n˜ ao afeta B, pela
Equac¸ ˜ ao (1.82); isso ´ e conhecido como transformac¸ ˜ ao de calibre (veja os Exerc´ıcios 1.13.9 e 4.6.4):
A →A
t
= A+∇Λ. (1.153)
Suponha agora que a func¸ ˜ ao de onda ψ
0
resolva a equac¸ ˜ ao de Schr¨ odinger da mecˆ anica quˆ antica sem campo de
induc¸ ˜ ao magn´ etica B,
_
1
2m
(−i∇)
2
+V −E
_
ψ
0
= 0, (1.154)
que descreve uma part´ıcula de massa m e carga e. Quando B ´ e ligado, a equac¸ ˜ ao de onda se torna
_
1
2m
(−i∇−eA)
2
+V −E
_
ψ = 0. (1.155)
Sua soluc¸ ˜ ao ψ adquire um fator de fase que depende das coordenadas em geral,
ψ(r) = exp
_
ie

_
r
A(r
t
) dr
t
_
ψ
0
(r). (1.156)
Pela relac¸ ˜ ao
(−i∇−eA)ψ = exp
_
ie

_
A dr
t
__
(−i∇−eA)ψ
0
−iψ
0
ie

A
_
= exp
_
ie

_
A dr
t
_
(−i∇ψ
0
), (1.157)
´ e ´ obvio que ψ resolve a Equac¸ ˜ ao (1.153) se ψ
0
resolver a Equac¸ ˜ ao (1.154). A derivada covariante de calibre
∇ − i(e/)A descreve o acoplamento de uma part´ıcula carregada com o campo magn´ etico. Costuma ser
denominada substituic¸ ˜ ao m´ınima e tem um papel central no eletromagnetismo quˆ antico, a primeira e mais simples
teoria de calibre na f´ısica.
Resumindo essa discuss˜ ao do potencial vetor: quando um vetor B ´ e solenoidal, existe um potencial vetor A,
tal que B = ∇ A. A ´ e indeterminado a menos de um gradiente aditivo, o que corresponde ao zero arbitr´ ario
de um potencial, uma constante de integrac¸ ˜ ao para o potencial escalar.
Em muitos problemas o potencial vetor magn´ etico A ser´ a obtido pela distribuic¸ ˜ ao de corrente que produz a
induc¸ ˜ ao magn´ etica B, o que significa resolver a equac¸ ˜ ao (vetor) de Poisson (veja o Exerc´ıcio 1.14.4).
Exerc´ıcios
1.13.1 Se uma forc¸a F ´ e dada por
F =
_
x
2
+y
2
+z
2
_
n
(ˆ xx + ˆ yy +ˆzz),
ache:
(a) ∇ F.
(b) ∇F.
(c) Um potencial escalar ϕ(x, y, z) tal que F = −∇ϕ.
(d) Para qual valor do expoente n o potencial escalar diverge na origem e tamb´ em no infinito?
Resposta: (a) (2n + 3)r
2n
, (b) 0,
(c) −
1
2n+2
r
2n+2
, n ,= −1, (d) n = −1,
ϕ = −ln r.
“livro” — 2007/8/1 — 15:06 — page 60 — #70
60 F´ısica Matem´ atica Arfken • Weber
1.13.2 Uma esfera de raio a ´ e uniformemente carregada (por todo o seu volume). Construa o potencial
eletrost´ atico ϕ(r) para 0 ≤ r < ∞.
Sugest˜ ao: Na Sec¸ ˜ ao 1.14 mostra-se que a forc¸a de Coulomb sobre uma carga de teste em r = r
0
depende somente da carga para distˆ ancias menores do que r
0
e ´ e independente da carga para
distˆ ancias maiores que r
0
. Note que isso se aplica a uma distribuic¸ ˜ ao de carga esfericamente
sim´ etrica.
1.13.3 O problema usual da mecˆ anica cl´ assica ´ e calcular o movimento de uma part´ıcula dado o potencial.
Para uma esfera macic¸a n˜ ao-rotativa com densidade uniforme (ρ
0
), a lei de Gauss da Sec¸ ˜ ao 1.14
leva a uma forc¸a gravitacional sobre uma massa unit´ aria m
0
no ponto r
0
produzida pela atrac¸ ˜ ao da
massa em r ≤ r
0
. A massa em r > r
0
nada contribui para a forc¸a.
(a) Mostre que F/m
0
= −(4πGρ
0
/3)r, 0 ≤ r ≤ a, em que a ´ e o raio da esfera.
(b) Ache o potencial gravitacional correspondente, 0 ≤ r ≤ a.
(c) Imagine um orif´ıcio vertical atravessando completamente o centro da Terra at´ e o lado oposto.
Desprezando a rotac¸ ˜ ao da Terra e admitindo uma densidade uniforme ρ
0
= 5, 5 gm/cm
3
,
calcule a natureza do movimento de uma part´ıcula que cai dentro do orif´ıcio. Qual ´ e seu
per´ıodo?
Nota: Na verdade, F ∝ r ´ e uma aproximac¸ ˜ ao muito ruim. Por causa da densidade vari´ avel, a
aproximac¸ ˜ ao F = constante ao longo da metade exterior de uma linha radial e F ∝ r ao longo
da metade interior ´ e uma aproximac¸ ˜ ao muito mais exata.
1.13.4 A origem das coordenadas cartesianas est´ a no centro da Terra. A Lua est´ a sobre o eixo z, a uma
distˆ ancia fixa R (distˆ ancia centro a centro). A forc¸a de mar´ e exercida pela Lua sobre uma part´ıcula
na superf´ıcie da Terra (ponto x, y, z) ´ e dada por
F
x
= −GMm
x
R
3
, F
y
= −GMm
y
R
3
, F
z
= +2GMm
z
R
3
.
Ache o potencial gerado por essa forc¸a de mar´ e.
Resposta: −
GMm
R
3
_
z
2

1
2
x
2

1
2
y
2
_
.
Em termos dos polinˆ omios de Legendre do
Cap´ıtulo 12 essa express˜ ao se torna

GMm
R
3
r
2
P
2
(cos θ).
1.13.5 Um fio longo e reto que transporta uma corrente I produz uma induc¸ ˜ ao magn´ etica B com
componentes
B =
µ
0
I

_

y
x
2
+y
2
,
x
x
2
+y
2
, 0
_
.
Ache um potencial vetor magn´ etico A.
Resposta: A = −ˆz(µ
0
I/4π) ln(x
2
+y
2
). (Essa soluc¸ ˜ ao n˜ ao ´ e ´ unica).
1.13.6 Se
B =
ˆr
r
2
=
_
x
r
3
,
y
r
3
,
z
r
3
_
,
ache um vetor Atal que ∇A = B. Uma soluc¸ ˜ ao poss´ıvel ´ e
A =
ˆ xyz
r(x
2
+y
2
)

ˆ yxz
r(x
2
+y
2
)
.
1.13.7 Mostre que o par de equac¸ ˜ oes
A =
1
2
(Br), B = ∇A
´ e satisfeito por qualquer induc¸ ˜ ao magn´ etica constante B.
“livro” — 2007/8/1 — 15:06 — page 61 — #71
1. AN´ ALISE VETORIAL 61
1.13.8 O vetor B ´ e formado pelo produto de dois gradientes
B = (∇u) (∇v),
em que u e v s˜ ao func¸ ˜ oes escalares.
(a) Mostre que B ´ e solenoidal.
(b) Mostre que
A =
1
2
(u∇v −v ∇u)
´ e um potencial vetor para B, considerando que
B = ∇A.
1.13.9 A induc¸ ˜ ao magn´ etica B est´ a relacionada ao potencial vetor magn´ etico potential A por
B = ∇A. Pelo teorema de Stokes
_
B dσ =
_
A dr.
Mostre que cada lado dessa equac¸ ˜ ao ´ e invariante sob a transformac¸ ˜ ao de calibre, A →A+∇ϕ.
Nota: Considere a func¸ ˜ ao ϕ uma func¸ ˜ ao de valor ´ unico. A transformac¸ ˜ ao de calibre completa ´ e
considerada no Exerc´ıcio 4.6.4.
1.13.10 Sendo E o campo el´ etrico e Ao potencial vetor magn´ etico, mostre que [E+∂A/∂t] ´ e irrotacional
e que, portanto, podemos escrever
E = −∇ϕ −
∂A
∂t
.
1.13.11 A forc¸a total sobre uma carga q movimentando-se com velocidade v ´ e
F = q(E+v B) .
Usando os potenciais escalar e vetorial, mostre que
F = q
_
−∇ϕ −
dA
dt
+∇(A v)
_
.
Note que agora temos uma derivada total de tempo de Aem lugar da derivada parcial do Exerc´ıcio
1.13.10.
1.14 Lei de Gauss, Equac¸ ˜ ao de Poisson
Lei de Gauss
Considere uma carga el´ etrica pontual q na origem de nosso sistema coordenado. Isso produz um campo el´ etrico E
dado por
26
E =
qˆr
4πε
0
r
2
. (1.158)
Agora derivamos a lei de Gauss, que afirma que a integral de superf´ıcie na Figura 1.35 ´ e q/ε
0
se a superf´ıcie
fechada S = ∂V incluir a origem (onde q est´ a localizada) e zero se a superf´ıcie n˜ ao incluir a origem. A superf´ıcie
S ´ e qualquer superf´ıcie fechada; n˜ ao precisa ser esf´ erica.
Usando o teorema de Gauss, Equac¸ ˜ oes (1.101a) e (1.101b) (e desprezando q/4πε
0
), obtemos
_
S
ˆr dσ
r
2
=
_
V

_
ˆr
r
2
_
dτ = 0 , (1.159)
pelo Exemplo 1.7.2, contanto que a superf´ıcie S n˜ ao inclua a origem, onde os integrandos n˜ ao s˜ ao definidos. Isso
prova a segunda parte da lei de Gauss.
A primeira parte, na qual a superf´ıcie S deve incluir a origem, pode ser resolvida cercando a origem com uma
pequena esfera S
t
= ∂V
t
de raio δ (Figura 1.36). Para n˜ ao haver d´ uvida alguma sobre o que est´ a dentro e o que est´ a
26
O campo el´ etrico E ´ e definido como a forc¸a por carga unit´ aria sobre uma pequena carga estacion´ aria de teste qt:E = F/qt. Pela lei de
Coulomb, a forc¸a sobre qt devida a q ´ e F = (qqt/4πε0)(ˆr/r
2
). Quando dividimos por qt, obtemos a Equac¸ ˜ ao (1.158).
“livro” — 2007/8/1 — 15:06 — page 62 — #72
62 F´ısica Matem´ atica Arfken • Weber
Figura 1.35: Lei de Gauss.
fora, imagine o volume fora da superf´ıcie externa S e o volume dentro da superf´ıcie S
t
(r < δ) conectados por um
pequeno orif´ıcio. Isso une as superf´ıcies S e S
t
, combinando-as em uma ´ unica superf´ıcie fechada simplesmente
conexa. Como podemos considerar o raio do orif´ıcio imagin´ ario t˜ ao pequeno a ponto de desaparecer, n˜ ao h´ a
nenhuma contribuic¸ ˜ ao adicional ` a integral de superf´ıcie. A superf´ıcie interna ´ e escolhida deliberadamente como
esf´ erica, portanto poderemos integr´ a-la. Agora o teorema de Gauss se aplica ao volume entre S e S
t
sem nenhuma
dificuldade. Temos
_
S
ˆr dσ
r
2
+
_
S

ˆr dσ
t
δ
2
= 0. (1.160)
“livro” — 2007/8/1 — 15:06 — page 63 — #73
1. AN´ ALISE VETORIAL 63
Figura 1.36: Exclus˜ ao da origem.
Podemos avaliar a segunda integral, para dσ
t
= −ˆrδ
2
dΩ, na qual dΩ ´ e um elemento do ˆ angulo s´ olido. O sinal de
menos aparece porque concordamos, na Sec¸ ˜ ao 1.10, que a normal positiva ˆr
t
aponta para fora do volume. Nesse
caso, ˆr
t
que aponta para fora est´ a na direc¸ ˜ ao radial negativa, ˆr
t
= −ˆr. Integrando sobre todos os ˆ angulos, temos
_
S

ˆr dσ
t
δ
2
= −
_
S

ˆr ˆrδ
2
dΩ
δ
2
= −4π, (1.161)
independente do raio δ. Com as constantes da Equac¸ ˜ ao (1.158), isso resulta em
_
S
E dσ =
q
4πε
0
4π =
q
ε
0
, (1.162)
concluindo a prova da lei de Gauss. Note que, embora a superf´ıcie S possa ser esf´ erica, ela n˜ ao precisa ser esf´ erica.
Avanc¸ando um pouco mais, consideramos uma carga distribu´ıda de modo que
q =
_
V
ρ dτ. (1.163)
A Equac¸ ˜ ao (1.162) ainda se aplica, agora interpretando q como a carga total distribu´ıda encerrada pela superf´ıcie
S:
_
S
E dσ =
_
V
ρ
ε
0
dτ. (1.164)
Usando o teorema de Gauss, temos
_
V
∇ Edτ =
_
V
ρ
ε
0
dτ. (1.165)
Uma vez que nosso volume ´ e completamente arbitr´ ario, as integrandas devem ser iguais ou
∇ E =
ρ
ε
0
, (1.166)
uma das equac¸ ˜ oes de Maxwell. Se invertermos o argumento, a lei de Gauss resulta imediatamente da equac¸ ˜ ao de
Maxwell.
Equac¸ ˜ ao de Poisson
Se substituirmos E por −∇ϕ, a Equac¸ ˜ ao (1.166) se torna
∇ ∇ϕ = −
ρ
ε
0
, (1.167a)
que ´ e a equac¸ ˜ ao de Poisson. Para a condic¸ ˜ ao ρ = 0 essa express˜ ao se reduz a uma equac¸ ˜ ao ainda mais famosa,
∇ ∇ϕ = 0, (1.167b)
“livro” — 2007/8/1 — 15:06 — page 64 — #74
64 F´ısica Matem´ atica Arfken • Weber
a equac¸ ˜ ao de Laplace. Encontramos freq¨ uentemente a equac¸ ˜ ao de Laplace na discuss˜ ao de v´ arios sistemas
coordenados (Cap´ıtulo 2) e de func¸ ˜ oes especiais da f´ısica matem´ atica que aparecemcomo suas soluc¸ ˜ oes. Aequac¸ ˜ ao
de Poisson ser´ a de inestim´ avel valor no desenvolvimento da teoria das func¸ ˜ oes de Green (Sec¸ ˜ ao 9.7).
Por comparac¸ ˜ ao direta entre a lei da forc¸a eletrost´ atica de Coulomb e a lei da gravitac¸ ˜ ao universal de Newton,
F
E
=
1
4πε
0
q
1
q
2
r
2
ˆr, F
G
= −G
m
1
m
2
r
2
ˆr.
Toda a teoria de potenciais desta sec¸ ˜ ao se aplica igualmente bem a potenciais gravitacionais. Por exemplo, a
equac¸ ˜ ao gravitacional de Poisson ´ e
∇ ∇ϕ = +4πGρ, (1.168)
sendo ρ agora uma densidade de massa.
Exerc´ıcios
1.14.1 Desenvolva a lei de Gauss para o caso bidimensional em que
ϕ = −q
ln ρ
2πε
0
, E = −∇ϕ = q
ˆ ρ
2πε
0
ρ
.
Aqui, q ´ e a carga na origem ou a carga da linha por comprimento unit´ ario se o sistema bidimensional
for uma fatia de espessura unit´ aria de um sistema (cil´ındrico circular) tridimensional. A vari´ avel ρ
´ e medida radialmente para fora a partir da linha de carga ˆ ρ ´ e o vetor unit´ ario correspondente (veja
a Sec¸ ˜ ao 2.4).
1.14.2 (a) Mostre que a lei de Gauss resulta da equac¸ ˜ ao de Maxwell
∇ E =
ρ
ε
0
.
Aqui, ρ ´ e a densidade de carga usual.
(b) Admitindo que o campo el´ etrico de uma carga pontual q ´ e esfericamente sim´ etrico, mostre
que a lei de Gauss implica a express˜ ao de Coulomb inversamente proporcional ao quadrado da
distˆ ancia.
E =
qˆr
4πε
0
r
2
.
1.14.3 Mostre que o valor do potencial eletrost´ atico ϕ em qualquer ponto P ´ e igual ` a m´ edia do potencial
sobre qualquer superf´ıcie esf´ erica centrada em P. N˜ ao h´ a cargas el´ etricas sobre a esfera ou dentro
dela.
Sugest˜ ao: Use o teorema de Green, Equac¸ ˜ ao (1.104), com u
−1
= r, a distˆ ancia a partir de P, e
v = ϕ. Note tamb´ em a Equac¸ ˜ ao (1.170) na Sec¸ ˜ ao 1.15.
1.14.4 Usando as equac¸ ˜ oes de Maxwell, mostre que, para um sistema (corrente estacion´ aria) o potencial
vetor magn´ etico Asatisfaz uma equac¸ ˜ ao vetorial de Poisson

2
A = −µ
0
J,
contanto que imponhamos ∇ A = 0.
1.15 Func¸ ˜ ao Delta de Dirac
Pelo Exemplo 1.6.1 e pelo desenvolvimento da lei de Gauss na Sec¸ ˜ ao 1.14,
_
∇ ∇
_
1
r
_
dτ = −
_

_
ˆr
r
2
_
dτ =
_
−4π
0,
(1.169)
dependendo de a integrac¸ ˜ ao incluir ou n˜ ao a origem r = 0. Esse resultado pode ser expresso convenientemente
introduzindo a func¸ ˜ ao delta de Dirac,

2
_
1
r
_
= −4πδ(r) ≡ −4πδ(x)δ(y)δ(z). (1.170)
“livro” — 2007/8/1 — 15:06 — page 65 — #75
1. AN´ ALISE VETORIAL 65
Essa func¸ ˜ ao delta de Dirac ´ e definida por suas propriedades atribu´ıdas
δ(x) = 0, x ,= 0 (1.171a)
f(0) =
_

−∞
f(x)δ(x) dx, (1.171b)
em que f(x) ´ e qualquer func¸ ˜ ao bem-comportada e a integrac¸ ˜ ao inclui a origem. Como um caso especial da
Equac¸ ˜ ao (1.171b),
_

−∞
δ(x) dx = 1. (1.171c)
Pela Equac¸ ˜ ao (1.171b), δ(x) deve ser um pico infinitamente alto, infinitamente estreito em x = 0, como na
descric¸ ˜ ao de uma forc¸a impulsiva (Sec¸ ˜ ao 15.9) ou a densidade de carga para uma carga pontual.
27
O problema ´ e
que n˜ ao existe tal func¸ ˜ ao, no sentido usual de func¸ ˜ ao. Todavia, a propriedade crucial na Equac¸ ˜ ao (1.171b) pode
ser desenvolvida rigorosamente como o limite de uma seq¨ uˆ encia de func¸ ˜ oes, uma distribuic¸ ˜ ao. Por exemplo, a
func¸ ˜ ao delta pode ser aproximada pela seq¨ uˆ encia de func¸ ˜ oes, Equac¸ ˜ oes (1.172) a (1.175) e Figuras 1.37 a 1.40:
Figura 1.37: Func¸ ˜ ao seq¨ uˆ encia δ.
δ
n
(x) =
_
_
_
0, x < −
1
2n
n, −
1
2n
< x <
1
2n
0, x >
1
2n
(1.172)
δ
n
(x) =
n

π
exp
_
−n
2
x
2
_
(1.173)
δ
n
(x) =
n
π

1
1 +n
2
x
2
(1.174)
δ
n
(x) =
sen nx
πx
=
1

_
n
−n
e
ixt
dt. (1.175)
27
A func¸ ˜ ao delta ´ e freq¨ uentemente invocada para descrever forc¸as de alcance muito curto, como forc¸as nucleares. Ela tamb´ em aparece na
normalizac¸ ˜ ao de func¸ ˜ oes de ondas cont´ınuas da mecˆ anica quˆ antica. Compare a Equac¸ ˜ ao (1.193c) para func¸ ˜ oes de ondas planas.
“livro” — 2007/8/1 — 15:06 — page 66 — #76
66 F´ısica Matem´ atica Arfken • Weber
Figura 1.38: Func¸ ˜ ao seq¨ uˆ encia δ.
Figura 1.39: Func¸ ˜ ao seq¨ uˆ encia δ.
“livro” — 2007/8/1 — 15:06 — page 67 — #77
1. AN´ ALISE VETORIAL 67
Figura 1.40: Func¸ ˜ ao seq¨ uˆ encia δ.
Essas aproximac¸ ˜ oes tˆ emgraus variados de utilidade. AEquac¸ ˜ ao (1.172) ´ e ´ util para prover uma derivac¸ ˜ ao simples da
propriedade de integral, Equac¸ ˜ ao (1.171b). AEquac¸ ˜ ao (1.173) ´ e conveniente para diferenciar. Suas derivadas levam
aos polinˆ omios de Hermite. A Equac¸ ˜ ao (1.175) ´ e particularmente ´ util na an´ alise de Fourier e em suas aplicac¸ ˜ oes
na mecˆ anica quˆ antica. Na teoria da s´ erie de Fourier, a Equac¸ ˜ ao (1.175) muitas vezes aparece (modificada) como o
“Kernel”de Dirichlet:
δ
n
(x) =
1

sen[(n +
1
2
)x]
sen(
1
2
x)
. (1.176)
Ao usar essas aproximac¸ ˜ oes na Equac¸ ˜ ao (1.171b) e mais adiante, admitimos que f(x) ´ e bem comportada — n˜ ao
oferece problemas quando x ´ e grande.
Para a maioria dos prop´ ositos f´ısicos, essas aproximac¸ ˜ oes s˜ ao bastante adequadas. De um ponto de vista
matem´ atico, a situac¸ ˜ ao ainda ´ e insatisfat´ oria: os limites
lim
n→∞
δ
n
(x)
n˜ ao existem.
Uma sa´ıda para essa dificuldade ´ e dada pela teoria das distribuic¸ ˜ oes. Reconhecendo que a Equac¸ ˜ ao (1.171b)
´ e a propriedade fundamental, focalizamos nossa atenc¸ ˜ ao nela, em vez de em δ(x) em si. As Equac¸ ˜ oes (1.172) a
(1.175) com n = 1, 2, 3, . . . podem ser interpretadas como seq¨ uˆ encias de func¸ ˜ oes normalizadas:
_

−∞
δ
n
(x) dx = 1. (1.177)
A seq¨ uˆ encia de integrais tem o limite
lim
n→∞
_

−∞
δ
n
(x)f(x) dx = f(0). (1.178)
Note que a Equac¸ ˜ ao (1.178) ´ e o limite de uma seq¨ uˆ encia de integrais. Novamente, o limite de δ
n
(x), com
n →∞, n˜ ao existe. (Os limites para todas as quatro formas de δ
n
(x) divergem em x = 0.)
Podemos tratar δ(x) consistentemente na forma
_

−∞
δ(x)f(x) dx = lim
n→∞
_

−∞
δ
n
(x)f(x) dx. (1.179)
δ(x) ´ e denominada distribuic¸ ˜ ao (n˜ ao uma func¸ ˜ ao) definida pelas seq¨ uˆ encias δ
n
(x), como indicado na
Equac¸ ˜ ao (1.179). Poder´ıamos enfatizar que a integral do lado esquerdo da Equac¸ ˜ ao (1.179) n˜ ao ´ e uma integral
de Riemann.
28
´
E um limite.
Essa distribuic¸ ˜ ao δ(x) ´ e somente uma dentre a infinidade de distribuic¸ ˜ oes poss´ıveis, mas ´ e a distribuic¸ ˜ ao em que
estamos interessados por causa da Equac¸ ˜ ao (1.171b).
Por essas seq¨ uˆ encias de func¸ ˜ oes, vemos que a func¸ ˜ ao delta de Dirac deve ser par em x, δ(−x) = δ(x).
A propriedade da integral, Equac¸ ˜ ao (1.171b), ´ e ´ util em casos em que o argumento da func¸ ˜ ao delta ´ e uma func¸ ˜ ao
28
Ela pode ser tratada como uma integral de Stieltjes, se desejado. δ(x) dx ´ e substitu´ıda por du(x), em que u(x) ´ e a func¸ ˜ ao degrau de
Heaviside (compare com o Exerc´ıcio 1.15.13).
“livro” — 2007/8/1 — 15:06 — page 68 — #78
68 F´ısica Matem´ atica Arfken • Weber
g(x) com zeros simples nos eixos reais, o que leva ` as regras
δ(ax) =
1
a
δ(x), a > 0, (1.180)
δ
_
g(x)
_
=

a,
g(a)=0,
g

(a),=0
δ(x −a)
[g
t
(a)[
. (1.181a)
A Equac¸ ˜ ao (1.180) pode ser escrita como
_

−∞
f(x)δ(ax) dx =
1
a
_

−∞
f
_
y
a
_
δ(y) dy =
1
a
f(0),
aplicando a Equac¸ ˜ ao (1.171b). A Equac¸ ˜ ao (1.180) pode ser escrita como δ(ax) =
1
]a]
δ(x) para a < 0. Para provar
a Equac¸ ˜ ao (1.181a) decompomos a integral
_

−∞
f(x)δ
_
g(x)
_
dx =

a
_
a+ε
a−ε
f(x)δ
_
(x −a)g
t
(a)
_
dx (1.181b)
em uma soma de integrais sobre pequenos intervalos contendo os zeros de g(x). Nesses intervalos, g(x) ≈
g(a) + (x − a)g
t
(a) = (x − a)g
t
(a). Usando a Equac¸ ˜ ao (1.180) do lado direito da Equac¸ ˜ ao (1.181b), obtemos a
integral da Equac¸ ˜ ao (1.181a).
Usando integrac¸ ˜ ao por partes, tamb´ em podemos definir a derivada δ
t
(x) da func¸ ˜ ao delta de Dirac pela relac¸ ˜ ao
_

−∞
f(x)δ
t
(x −x
t
) dx = −
_

−∞
f
t
(x)δ(x −x
t
) dx = −f
t
(x
t
). (1.182)
Usamos δ(x) freq¨ uentemente e a denominamos func¸ ˜ ao delta de Dirac
29
—por raz˜ oes hist´ oricas. Lembre-se de
que ela, na verdade, n˜ ao ´ e uma func¸ ˜ ao.
´
E, em essˆ encia, uma notac¸ ˜ ao abreviada, definida implicitamente como o
limite de integrais em uma seq¨ uˆ encia, δ
n
(x), conforme a Equac¸ ˜ ao (1.179). Deve ficar entendido que nossa func¸ ˜ ao
delta de Dirac temsignificado apenas como parte de umintegrando. Nesse esp´ırito, o operador linear
_
dxδ(x−x
0
)
opera sobre f(x) e resulta f(x
0
):
L(x
0
)f(x) ≡
_

−∞
δ(x −x
0
)f(x) dx = f(x
0
). (1.183)
Ela tamb´ em pode ser classificada como um mapeamento linear ou simplesmente como uma func¸ ˜ ao generalizada.
Transferindo nossa singularidade para o ponto x = x
t
, escrevemos a func¸ ˜ ao delta de Dirac como δ(x − x
t
). A
Equac¸ ˜ ao (1.171b) se torna
_

−∞
f(x)δ(x −x
t
) dx = f(x
t
). (1.184)
Como descric¸ ˜ ao de uma singularidade em x = x
t
, a func¸ ˜ ao delta de Dirac pode ser escrita como δ(x − x
t
) ou
como δ(x
t
−x). Partindo para trˆ es dimens˜ oes e usando coordenadas esf´ ericas polares, obtemos
_

0
_
π
0
_

0
δ(r)r
2
drsen θ dθ dϕ =
___

−∞
δ(x)δ(y)δ(z) dxdy dz = 1. (1.185)
Essa express˜ ao corresponde a uma singularidade (ou fonte) na origem. Novamente, se nossa fonte estiver em
r = r
1
, a Equac¸ ˜ ao (1.185) se torna
___
δ(r
2
−r
1
)r
2
2
dr
2
sen θ
2

2

2
= 1. (1.186)
29
Dirac introduziu a func¸ ˜ ao delta na mecˆ anica quˆ antica. Na verdade, a func¸ ˜ ao delta pode ser rastreada at´ e Kirchhoff, 1882. Se quiser mais
detalhes, consulte M. Jammer, The Conceptual Development of Quantum Mechanics. Nova York: McGraw-Hill (1966), p. 301.
“livro” — 2007/8/1 — 15:06 — page 69 — #79
1. AN´ ALISE VETORIAL 69
Exemplo 1.15.1 CARGA TOTAL DENTRO DE UMA ESFERA
Considere o fluxo el´ etrico total
_
E dσ que sai de uma esfera de raio Rao redor da origem e que circunda n cargas
e
j
, localizadas nos pontos r
j
com r
j
< R, isto ´ e, dentro da esfera. A forc¸a do campo el´ etrico E = −∇ϕ(r), em
que o potencial
ϕ =
n

j=1
e
j
[r −r
j
[
=
_
ρ(r
t
)
[r −r
t
[
d
3
r
t
´ e a soma dos potenciais de Coulomb gerados por cada carga e a densidade de carga total ´ e ρ(r) =

j
e
j
δ(r −r
j
).
A func¸ ˜ ao delta ´ e usada aqui como uma abreviatura de uma densidade semelhante ` a pontual. Agora, usamos o
teorema de Gauss para
_
E dσ = −
_
∇ϕ dσ = −
_

2
ϕdτ =
_
ρ(r)
ε
0
dτ =

j
e
j
ε
0
em conjunc¸ ˜ ao com a forma diferencial da lei de Gauss, ∇ E = −ρ/ε
0
, e

j
e
j
_
δ(r −r
j
) dτ =

j
e
j
.

Exemplo 1.15.2 ESPAC¸ O DE FASE
Na teoria da dispers˜ ao de part´ıculas relativistas usando diagramas de Feynman, encontramos a seguinte integral
sobre a energia da part´ıcula dispersa (consideramos a velocidade da luz c = 1):
_
d
4

_
p
2
−m
2
_
f(p) ≡
_
d
3
p
_
dp
0
δ
_
p
2
0
−p
2
−m
2
_
f(p)
=
_
E>0
d
3
p f(E, p)
2
_
m
2
+p
2
+
_
E<0
d
3
p f(E, p)
2
_
m
2
+p
2
,
em que usamos a Equac¸ ˜ ao (1.181a) nos zeros E = ±
_
m
2
+p
2
do argumento da func¸ ˜ ao delta. O significado
f´ısico de δ(p
2
− m
2
) ´ e que a part´ıcula de massa m e quadrimento p
µ
= (p
0
, p) est´ a sobre sua camada de massa,
porque p
2
= m
2
´ e equivalente a E = ±
_
m
2
+p
2
. Ent˜ ao, o elemento de volume sobre a camada de massa no
espac¸o dos momentos ´ e o invariante de Lorentz
d
3
p
2E
, em contraste com o elemento n˜ ao-relativista d
3
p do espac¸o de
momento. O fato de ocorrer uma energia negativa ´ e uma peculiaridade da cinem´ atica relativista que ´ e relacionada
` a antipart´ıcula.
Representac¸ ˜ ao da Func¸ ˜ ao Delta por Func¸ ˜ oes Ortogonais
A func¸ ˜ ao delta de Dirac
30
pode ser expandida em termos de qualquer base de func¸ ˜ oes ortogonais reais ¦ϕ
n
(x), n =
0, 1, 2, . . .¦. Essas func¸ ˜ oes aparecer˜ ao no Cap´ıtulo 10 como soluc¸ ˜ oes de equac¸ ˜ oes diferenciais ordin´ arias da forma
Sturm-Liouville.
Elas satisfazem as relac¸ ˜ oes de ortogonalidade
_
b
a
ϕ
m
(x)ϕ
n
(x) dx = δ
mn
, (1.187)
em que o intervalo (a, b) pode ser infinito em qualquer extremidade ou em ambas. [Por conveniˆ encia, admitimos
que ϕ
n
foi definido de modo a incluir (w(x))
1/2
se as relac¸ ˜ oes de ortogonalidade contiverem uma func¸ ˜ ao de peso
positiva adicional w(x).] Usamos o conjunto de ϕ
n
para expandir a func¸ ˜ ao delta como
δ(x −t) =

n=0
a
n
(t)ϕ
n
(x), (1.188)
30
Esta sec¸ ˜ ao ´ e opcional aqui. N˜ ao ser´ a necess´ aria at´ e o Cap´ıtulo 10.
“livro” — 2007/8/1 — 15:06 — page 70 — #80
70 F´ısica Matem´ atica Arfken • Weber
em que os coeficientes a
n
s˜ ao func¸ ˜ oes da vari´ avel t. Multiplicando por ϕ
m
(x) e integrando sobre o intervalo de
ortogonalidade (Equac¸ ˜ ao (1.187)), temos
a
m
(t) =
_
b
a
δ(x −t)ϕ
m
(x) dx = ϕ
m
(t) (1.189)
ou
δ(x −t) =

n=0
ϕ
n
(t)ϕ
n
(x) = δ(t −x). (1.190)
Essa s´ erie ´ e, com certeza, n˜ ao-uniformemente convergente (veja o Cap´ıtulo 5), mas pode ser usada como parte de
um integrando no qual a integrac¸ ˜ ao resultante a tornar´ a convergente (compare com a Sec¸ ˜ ao 5.5).
Suponha que formemos a integral
_
F(t)δ(t −x) dx, em que admitimos que F(t) pode ser expandida em uma
s´ erie de func¸ ˜ oes ortogonais ϕ
p
(t), uma propriedade denominada completude. Ent˜ ao, obtemos
_
F(t)δ(t −x) dt =
_ ∞

p=0
a
p
ϕ
p
(t)

n=0
ϕ
n
(x)ϕ
n
(t) dt
=

p=0
a
p
ϕ
p
(x) = F(x), (1.191)
e os produtos cruzados
_
ϕ
p
ϕ
n
dt (n ,= p) desaparecem por ortogonalidade (Equac¸ ˜ ao (1.187)). Referindo-nos ` a
definic¸ ˜ ao da func¸ ˜ ao delta de Dirac, Equac¸ ˜ ao (1.171b), vemos que nossa representac¸ ˜ ao da s´ erie, Equac¸ ˜ ao (1.190),
satisfaz a propriedade definidora da func¸ ˜ ao delta de Dirac e, portanto, ´ e uma representac¸ ˜ ao dela. Essa representac¸ ˜ ao
da func¸ ˜ ao delta de Dirac ´ e denominada fechamento. A admiss˜ ao de completude de um conjunto de func¸ ˜ oes para
expans˜ ao de δ(x − t) d´ a a relac¸ ˜ ao de fechamento. O inverso, ou seja, fechamento implica completude, ´ e o t´ opico
do Exerc´ıcio 1.15.16.
Representac¸ ˜ oes Integrais para a Func¸ ˜ ao Delta
Transformadas integrais, tais como a integral de Fourier
F(ω) =
_

−∞
f(t) exp(iωt) dt
do Cap´ıtulo 15, levam a representac¸ ˜ oes integrais correspondentes da func¸ ˜ ao delta de Dirac. Por exemplo, tome
δ
n
(t −x) =
sen n(t −x)
π(t −x)
=
1

_
n
−n
exp
_
iω(t −x)
_
dω, (1.192)
usando a Equac¸ ˜ ao (1.175). Temos
f(x) = lim
n→∞
_

−∞
f(t)δ
n
(t −x) dt, (1.193a)
em que δ
n
(t−x) ´ e a seq¨ uˆ encia na Equac¸ ˜ ao (1.192), que define a distribuic¸ ˜ ao δ(t−x). Note que a Equac¸ ˜ ao (1.193a)
admite que f(t) ´ e cont´ınua em t = x. Se substituirmos a Equac¸ ˜ ao (1.192) na Equac¸ ˜ ao (1.193a), obtemos
f(x) = lim
n→∞
1

_

−∞
f(t)
_
n
−n
exp
_
iω(t −x)
_
dω dt. (1.193b)
Permutando a ordem de integrac¸ ˜ ao e ent˜ ao tomando o limite, ` a medida que n → ∞, temos o teorema da integral
de Fourier, Equac¸ ˜ ao (15.20).
Entendendo que est´ a certo apresent´ a-la sob um sinal de integral como na Equac¸ ˜ ao (1.193a), a identificac¸ ˜ ao
δ(t −x) =
1

_

−∞
exp
_
iω(t −x)
_
dω (1.193c)
provˆ e uma representac¸ ˜ ao integral muito ´ util da func¸ ˜ ao delta. Quando a transformada de Laplace (veja as
Sec¸ ˜ oes 15.1 e 15.9)
L
δ
(s) =
_

0
exp(−st)δ(t −t
0
) = exp(−st
0
), t
0
> 0 (1.194)
“livro” — 2007/8/1 — 15:06 — page 71 — #81
1. AN´ ALISE VETORIAL 71
´ e invertida, obtemos a representac¸ ˜ ao complexa
δ(t −t
0
) =
1
2πi
_
γ+i∞
γ−i∞
exp
_
s(t −t
0
)
_
ds, (1.195)
que ´ e essencialmente equivalente ` a representac¸ ˜ ao pr´ evia da func¸ ˜ ao delta de Dirac.
Exerc´ıcios
1.15.1 Seja
δ
n
(x) =
_
_
_
0, x < −
1
2n
,
n, −
1
2n
< x <
1
2n
,
0,
1
2n
< x .
Mostre que
lim
n→∞
_

−∞
f(x)δ
n
(x) dx = f(0),
admitindo que f(x) ´ e cont´ınua em x = 0.
1.15.2 Verifique que a seq¨ uˆ encia δ
n
(x), baseada na func¸ ˜ ao
δ
n
(x) =
_
0, x < 0,
ne
−nx
, x > 0,
´ e uma seq¨ uˆ encia delta (que satisfaz a Equac¸ ˜ ao (1.178)). Note que a singularidade est´ a em +0, o
lado positivo da origem.
Sugest˜ ao: Substitua o limite superior (∞) por c/n, em que c ´ e grande mas finito, e use o teorema
do valor m´ edio do c´ alculo integral.
1.15.3 Para
δ
n
(x) =
n
π

1
1 +n
2
x
2
,
(Equac¸ ˜ ao (1.174)), mostre que
_

−∞
δ
n
(x) dx = 1.
1.15.4 Demonstre que δ
n
= sen nx/πx ´ e uma distribuic¸ ˜ ao delta, mostrando que
lim
n→∞
_

−∞
f(x)
sen nx
πx
dx = f(0).
Admita que f(x) ´ e cont´ınua em x = 0 e se anula quando x →±∞.
Sugest˜ ao: Substitua x por y/n e considere limn →∞antes de integrar.
1.15.5 O m´ etodo de Fejer para somar s´ eries ´ e associado com a func¸ ˜ ao
δ
n
(t) =
1
2πn
_
sen (nt/2)
sen (t/2)
_
2
.
Mostre que δ
n
(t) ´ e uma distribuic¸ ˜ ao delta, no sentido de que
lim
n→∞
1
2πn
_

−∞
f(t)
_
sen (nt/2)
sen (t/2)
_
2
dt = f(0).
1.15.6 Prove que
δ
_
a(x −x
1
)
¸
=
1
a
δ(x −x
1
).
Nota: Se δ[a(x − x
1
)] for considerada par em relac¸ ˜ ao a x
1
, a relac¸ ˜ ao vale para a negativo se 1/a
pode ser substitu´ıdo por 1/[a[.
1.15.7 Mostre que
δ
_
(x −x
1
)(x −x
2
)
¸
=
_
δ(x −x
1
) +δ(x −x
2
)
¸
/[x
1
−x
2
[.
Sugest˜ ao: Procure usar o Exerc´ıcio 1.15.6.
“livro” — 2007/8/1 — 15:06 — page 72 — #82
72 F´ısica Matem´ atica Arfken • Weber
1.15.8 Usando a seq¨ uˆ encia delta da curva de erro de Gauss (δ
n
=
n

π
e
−n
2
x
2
), mostre que
x
d
dx
δ(x) = −δ(x),
tratando δ(x) e sua derivada como na Equac¸ ˜ ao (1.179).
1.15.9 Mostre que
_

−∞
δ
t
(x)f(x) dx = −f
t
(0).
Aqui, admitimos que f
t
(x) ´ e cont´ınua em x = 0.
1.15.10 Prove que
δ
_
f(x)
_
=
¸
¸
¸
¸
df(x)
dx
¸
¸
¸
¸
−1
x=x0
δ(x −x
0
),
em que x
0
´ e escolhido de modo que f(x
0
) = 0.
Sugest˜ ao: Note que δ(f) df = δ(x) dx.
1.15.11 Mostre que em coordenadas esf´ ericas polares, (r, cos θ, ϕ), a func¸ ˜ ao delta δ(r
1
−r
2
) se torna
1
r
2
1
δ(r
1
−r
2
)δ(cos θ
1
−cos θ
2
)δ(ϕ
1
−ϕ
2
).
Generalize isso para as coordenadas curvil´ıneas (q
1
, q
2
, q
3
) da Sec¸ ˜ ao 2.1 com fatores de escala h
1
,
h
2
e h
3
.
1.15.12 Um desenvolvimento rigoroso de transformadas de Fourier
31
inclui, como um teorema as relac¸ ˜ oes
lim
a→∞
2
π
_
x2
x1
f(u +x)
sen ax
x
dx
=
_
¸
¸
_
¸
¸
_
f(u + 0) +f(u −0), x
1
< 0 < x
2
f(u + 0), x
1
= 0 < x
2
f(u −0), x
1
< 0 = x
2
0, x
1
< x
2
< 0 or 0 < x
1
< x
2
.
Verifique esses resultados usando a func¸ ˜ ao delta de Dirac.
1.15.13 (a) Se definirmos uma seq¨ uˆ encia δ
n
(x) = n/(2 cosh
2
nx), mostre que
_

−∞
δ
n
(x) dx = 1, independente de n.
(b) Continuando essa an´ alise, mostre que
32
_
x
−∞
δ
n
(x) dx =
1
2
[1 + tanh nx] ≡ u
n
(x),
e
lim
n→∞
u
n
(x) =
_
0, x < 0,
1, x > 0.
Esta ´ e a func¸ ˜ ao degrau unit´ ario de Heaviside (Figura 1.41).
1.15.14 Mostre que uma func¸ ˜ ao degrau unit´ ario u(x) pode ser representada por
u(x) =
1
2
+
1
2πi
P
_

−∞
e
ixt
dt
t
,
em que P significa o valor principal de Cauchy (Sec¸ ˜ ao 7.1).
31
I.N. Sneddon, Fourier Transforms. Nova York: McGraw-Hill (1951).
32
Muitos outros s´ımbolos s˜ ao usados para essa func¸ ˜ ao. Essa ´ e a notac¸ ˜ ao AMS-55 (veja a nota de rodap´ e 4 no Cap´ıtulo 5 como referˆ encia):
u para unidade.
“livro” — 2007/8/1 — 15:06 — page 73 — #83
1. AN´ ALISE VETORIAL 73
Figura 1.41:
1
2
[1 + tanh nx] e a func¸ ˜ ao degrau unit´ ario de Heaviside.
1.15.15 Como variac¸ ˜ ao da Equac¸ ˜ ao (1.175), considere
δ
n
(x) =
1

_

−∞
e
ixt−]t]/n
dt.
Mostre que essa express˜ ao se reduz a (n/π)1/(1 +n
2
x
2
), Equac¸ ˜ ao (1.174), e que
_

−∞
δ
n
(x) dx = 1.
Nota: Em termos de transformadas integrais, a equac¸ ˜ ao inicial aqui pode ser interpretada como uma
transformada exponencial de Fourier de e
−]t]/n
ou como uma transformada de Laplace de e
ixt
.
1.15.16 (a) A representac¸ ˜ ao da func¸ ˜ ao delta de Dirac dada pela Equac¸ ˜ ao (1.190),
δ(x −t) =

n=0
ϕ
n
(x)ϕ
n
(t),
´ e freq¨ uentemente denominada relac¸ ˜ ao de fechamento. Para um conjunto ortonormal de
func¸ ˜ oes reais, ϕ
n
, mostre que fechamento implica completude, isto ´ e, a Equac¸ ˜ ao (1.191) resulta
da Equac¸ ˜ ao (1.190).
Sugest˜ ao: Podemos considerar
F(x) =
_
F(t)δ(x −t) dt.
(b) Seguindo a sugest˜ ao da parte (a), vocˆ e encontra a integral
_
F(t)ϕ
n
(t) dt. Como vocˆ e sabe que
essa integral ´ e finita?
1.15.17 Para o intervalo finito (−π, π) escreva a func¸ ˜ ao delta de Dirac δ(x − t) como uma s´ erie de senos
e co-senos: sen nx, cos nx, n = 0, 1, 2, . . . Note que, embora essas func¸ ˜ oes sejam ortogonais, elas
n˜ ao s˜ ao normalizadas ` a unidade.
1.15.18 No intervalo (−π, π), δ
n
(x) =
n

π
exp(−n
2
x
2
).
(a) Escreva δ
n
(x) como uma s´ erie de Fourier de co-senos.
(b) Mostre que sua s´ erie de Fourier est´ a de acordo com uma expans˜ ao de Fourier de δ(x) no limite
quando n →∞.
(c) Confirme a natureza de func¸ ˜ ao delta de sua s´ erie de Fourier mostrando que, para qualquer f(x)
que seja finito no intervalo [−π, π] e cont´ınuo em x = 0,
_
π
−π
f(x)
_
expans˜ ao de Fourier de δ

(x)
¸
dx = f(0).
1.15.19 (a) Escreva δ
n
(x) =
n

π
exp(−n
2
x
2
) no intervalo (−∞, ∞) como uma integral de Fourier e
compare o limite n →∞com a Equac¸ ˜ ao (1.193c).
(b) Escreva δ
n
(x) = nexp(−nx) como uma transformada de Laplace e compare o limite n →∞
com a Equac¸ ˜ ao (1.195).
Sugest˜ ao: Veja as Equac¸ ˜ oes (15.22) e (15.23) para (a) e a Equac¸ ˜ ao (15.212) para (b).
“livro” — 2007/8/1 — 15:06 — page 74 — #84
74 F´ısica Matem´ atica Arfken • Weber
1.15.20 (a) Mostre que a func¸ ˜ ao delta de Dirac δ(x − a), expandida em uma s´ erie de Fourier de senos no
meio-intervalo (0, L), (0 < a < L), ´ e dada por
δ(x −a) =
2
L

n=1
sen
_
nπa
L
_
sen
_
nπx
L
_
.
Note que, na verdade, essa s´ erie descreve
−δ(x +a) +δ(x −a) no intervalo (−L, L).
(b) Integrando ambos os lados da equac¸ ˜ ao precedente de 0 a x, mostre que a expans˜ ao do co-seno
da onda quadrada
f(x) =
_
0, 0 ≤ x < a
1, a < x < L,
´ e, para 0 ≤ x < L,
f(x) =
2
π

n=1
1
n
sen
_
nπa
L
_

2
π

n=1
1
n
sen
_
nπa
L
_
cos
_
nπx
L
_
.
(c) Verifique que o termo
2
π

n=1
1
n
sen
_
nπa
L
_
´ e
¸
f(x)
_

1
L
_
L
0
f(x) dx.
1.15.21 Verifique a expans˜ ao de Fourier de co-seno da onda quadrada, Exerc´ıcio 1.15.20(b), por c´ alculo
direto dos coeficientes de Fourier.
1.15.22 Podemos definir uma seq¨ uˆ encia
δ
n
(x) =
_
n, [x[ < 1/2n,
0, [x[ > 1/2n.
(Essa ´ e a Equac¸ ˜ ao (1.172).) Expresse δ
n
(x) como uma integral de Fourier (via o teorema da integral
de Fourier, transformada inversa etc.). Por fim, mostre que podemos escrever
δ(x) = lim
n→∞
δ
n
(x) =
1

_

−∞
e
−ikx
dk.
1.15.23 Usando a seq¨ uˆ encia
δ
n
(x) =
n

π
exp
_
−n
2
x
2
_
,
mostre que
δ(x) =
1

_

−∞
e
−ikx
dk.
Nota: Lembre que δ(x) ´ e definida em termos de seu comportamento como parte de um
integrando — em especial as Equac¸ ˜ oes (1.178) e (1.189).
1.15.24 Derive representac¸ ˜ oes de seno e co-seno de δ(t − x) que s˜ ao compar´ aveis com a representac¸ ˜ ao
exponencial, Equac¸ ˜ ao (1.193c).
Resposta:
2
π
_

0
sen ωtsen ωxdω,
2
π
_

0
cos ωt cos ωxdω.
1.16 Teorema de Helmholtz
Na Sec¸ ˜ ao 1.13 foi enfatizado que a escolha de um potencial vetor magn´ etico A n˜ ao era ´ unica. A divergˆ encia de
Aainda era indeterminada. Nesta sec¸ ˜ ao s˜ ao desenvolvidos dois teoremas sobre a divergˆ encia e o rotacional de um
vetor. O primeiro teorema tem o seguinte enunciado:
Um vetor ´ e unicamente especificado dando sua divergˆ encia e sua espiral dentro de uma regi˜ ao simplesmente
conexa (sem orif´ıcios) e seu componente normal sobre a fronteira.
Note que as sub-regi˜ oes, onde a divergˆ encia e o rotacional s˜ ao definidos (muitas vezes em termos de func¸ ˜ oes
delta de Dirac), s˜ ao parte de nossa regi˜ ao e n˜ ao se espera que sejam removidas aqui ou no teorema de Helmholtz
“livro” — 2007/8/1 — 15:06 — page 75 — #85
1. AN´ ALISE VETORIAL 75
que vem em seguida. Vamos considerar
∇ V
1
= s,
∇V
1
= c,
(1.196)
em que s pode ser interpretada como uma densidade de fonte (carga) e c como uma densidade de circulac¸ ˜ ao
(corrente). Admitindo tamb´ em que a componente normal V
1n
na fronteira ´ e dada, queremos mostrar que V
1
´ e
´ unico. Fazemos isso admitindo a existˆ encia de um segundo vetor, V
2
, que satisfaz a Equac¸ ˜ ao (1.196) e tem a
mesma componente normal na fronteira, e ent˜ ao mostrando que V
1
−V
2
= 0. Seja
W = V
1
−V
2
.
Ent˜ ao
∇ W = 0 (1.197)
e
∇W = 0. (1.198)
Visto que W ´ e irrotacional, podemos escrever (pela Sec¸ ˜ ao (1.13))
W = −∇ϕ. (1.199)
Substituindo essa express˜ ao na Equac¸ ˜ ao (1.197), obtemos
∇ ∇ϕ = 0, (1.200)
a equac¸ ˜ ao de Laplace.
Agora nos utilizamos do teorema de Green na forma dada na Equac¸ ˜ ao (1.105), com u e v cada um igual a ϕ.
Visto que
W
n
= V
1n
−V
2n
= 0 (1.201)
na fronteira, o teorema de Green se reduz a
_
V
(∇ϕ) (∇ϕ) dτ =
_
V
W Wdτ = 0. (1.202)
A quantidade W W = W
2
´ e n˜ ao-negativa, e portanto devemos ter
W = V
1
−V
2
= 0 (1.203)
em tudo. Assim, V
1
´ e ´ unico, o que prova o teorema.
Para nosso potencial vetor magn´ etico Aa relac¸ ˜ ao B = ∇Aespecifica o rotacional de A. Muitas vezes, por
conveniˆ encia, estabelecemos ∇ A = 0 (compare com o Exerc´ıcio 1.14.4). Ent˜ ao (com condic¸ ˜ oes de fronteira),
A ´ e fixo.
Esse teorema pode ser escrito como um teorema de unicidade para soluc¸ ˜ oes da equac¸ ˜ ao de Laplace,
Exerc´ıcio 1.16.1. Nessa forma, esse teorema de unicidade ´ e de grande importˆ ancia para a soluc¸ ˜ ao de problemas
de valores de fronteira eletrost´ aticos e da equac¸ ˜ ao de Laplace. Se pudermos encontrar uma soluc¸ ˜ ao da equac¸ ˜ ao
de Laplace que satisfac¸a as condic¸ ˜ oes necess´ arias de fronteira, ent˜ ao nossa soluc¸ ˜ ao ´ e a soluc¸ ˜ ao completa. Esses
problemas de valor de fronteira s˜ ao discutidos nas Sec¸ ˜ oes 12.3 e 12.5.
Teorema de Helmholtz
O segundo teorema que provaremos ´ e o teorema de Helmholtz.
Um vetor Vque satisfac¸a a Equac¸ ˜ ao (1.196) com ambas as densidades de fonte e de circulac¸ ˜ ao desaparecendo
no infinito pode ser escrito como a soma de duas partes, uma das quais ´ e irrotacional e a outra solenoidal.
Note que, por simplicidade, nossa regi˜ ao ´ e simplesmente conexa, sendo toda espac¸o. O teorema de Helmholtz
ser´ a claramente satisfeito se pudermos escrever V como
V = −∇ϕ +∇A, (1.204a)
sendo −∇ϕ irrotacional e ∇A solenoidal. Passamos a justificar a Equac¸ ˜ ao (1.204a).
V ´ e um vetor conhecido. Consideramos a divergˆ encia e o rotacional
∇ V = s(r) (1.204b)
∇V = c(r) (1.204c)
“livro” — 2007/8/1 — 15:06 — page 76 — #86
76 F´ısica Matem´ atica Arfken • Weber
Figura 1.42: Pontos de fonte e de campo.
sendo s(r) e c(r) agora func¸ ˜ oes conhecidas da posic¸ ˜ ao. Por essas duas func¸ ˜ oes constru´ımos um potencial escalar
ϕ(r
1
),
ϕ(r
1
) =
1

_
s(r
2
)
r
12

2
, (1.205a)
e um potencial vetor A(r
1
),
A(r
1
) =
1

_
c(r
2
)
r
12

2
. (1.205b)
Se s = 0, ent˜ ao V ´ e solenoidal e a Equac¸ ˜ ao (1.205a) implica ϕ = 0. Pela Equac¸ ˜ ao (1.204a), V = ∇ A,
sendo A como dado na Equac¸ ˜ ao (1.141), que ´ e consistente com a Sec¸ ˜ ao 1.13. Al´ em disso, se c = 0, ent˜ ao V ´ e
irrotacional e a Equac¸ ˜ ao (1.205b) implica A = 0, e a Equac¸ ˜ ao (1.204a) implica V = −∇ϕ, consistente com a
teoria do potencial escalar da Sec¸ ˜ ao 1.13.
Aqui, o argumento r
1
indica (x
1
, y
1
, z
1
), o ponto do campo; r
2
, as coordenadas do ponto da fonte (x
2
, y
2
, z
2
),
enquanto
r
12
=
_
(x
1
−x
2
)
2
+ (y
1
−y
2
)
2
+ (z
1
−z
2
)
2
¸
1/2
. (1.206)
Quando uma direc¸ ˜ ao ´ e associada com r
12
, a direc¸ ˜ ao positiva ´ e considerada afastando-se da fonte e dirigida ao
pondo de campo. Em termos vetoriais, r
12
= r
1
− r
2
, como mostra a Figura 1.42.
´
E claro que s e c devem
se anular com suficiente rapidez em grandes distˆ ancias para que as integrais existam. A expans˜ ao e a avaliac¸ ˜ ao
propriamente ditas de integrais como as Equac¸ ˜ oes (1.205a) e (1.205b) s˜ ao tratadas na Sec¸ ˜ ao 12.1.
Pelo teorema da unicidade no in´ıcio desta sec¸ ˜ ao, V ´ e unicamente especificado por sua divergˆ encia, s, e
rotacional, c (e condic¸ ˜ oes de fronteira). Voltando ` a Equac¸ ˜ ao (1.204a), temos
∇ V = −∇ ∇ϕ, (1.207a)
a divergˆ encia do rotacional que se anula, e
∇V = ∇(∇A), (1.207b)
o rotacional do gradiente que se anula. Se pudermos mostrar que
−∇ ∇ϕ(r
1
) = s(r
1
) (1.207c)
e

_
∇A(r
1
)
_
= c(r
1
), (1.207d)
ent˜ ao V, como dado na Equac¸ ˜ ao (1.204a), ter´ a a divergˆ encia e o rotacional adequados. Nossa descric¸ ˜ ao ser´ a
internamente consistente, e a Equac¸ ˜ ao (1.204a) ser´ a justificada.
33
Primeiro, consideramos a divergˆ encia de V:
∇ V = −∇ ∇ϕ = −
1

∇ ∇
_
s(r
2
)
r
12

2
. (1.208)
33
Alternativamente, poder´ıamos resolver a Equac¸ ˜ ao (1.207c), equac¸ ˜ ao de Poisson, e comparar a soluc¸ ˜ ao com o potencial constru´ıdo,
Equac¸ ˜ ao (1.205a). A soluc¸ ˜ ao da Equac¸ ˜ ao de Poisson ´ e desenvolvida na Sec¸ ˜ ao 9.7.
“livro” — 2007/8/1 — 15:06 — page 77 — #87
1. AN´ ALISE VETORIAL 77
O operador laplaciano, ∇ ∇ ou ∇
2
opera sobre as coordenadas do campo (x
1
, y
1
, z
1
) e, assim, comuta com a
integrac¸ ˜ ao em relac¸ ˜ ao a (x
2
, y
2
, z
2
). Temos
∇ V = −
1

_
s(r
2
)∇
2
1
_
1
r
12
_

2
. (1.209)
Devemos fazer duas pequenas modificac¸ ˜ oes na Equac¸ ˜ ao (1.169) antes de aplic´ a-la. Primeiro, nossa fonte est´ a em
r
2
, e n˜ ao na origem. Isso significa que um resultado n˜ ao-zero da lei de Gauss aparece se, e somente se, a superf´ıcie
S incluir o ponto r = r
2
. Para mostrar isso, reescrevemos a Equac¸ ˜ ao (1.170):

2
_
1
r
12
_
= −4πδ(r
1
−r
2
). (1.210)
Esse deslocamento da fonte para r
2
pode ser incorporado ` a equac¸ ˜ ao de definic¸ ˜ ao (1.171b) como
δ(r
1
−r
2
) = 0, r
1
,= r
2
, (1.211a)
_
f(r
1
)δ(r
1
−r
2
) dτ
1
= f(r
2
). (1.211b)
Em segundo lugar, notando que diferenciar r
−1
12
duas vezes em relac¸ ˜ ao a x
2
, y
2
, z
2
´ e o mesmo que diferenciar duas
vezes em relac¸ ˜ ao a x
1
, y
1
, z
1
, temos

2
1
_
1
r
12
_
= ∇
2
2
_
1
r
12
_
= −4πδ(r
1
−r
2
)
= −4πδ(r
2
−r
1
). (1.212)
Reescrevendo a Equac¸ ˜ ao (1.209) e usando a func¸ ˜ ao delta de Dirac, Equac¸ ˜ ao (1.212), podemos integrar para obter
∇ V = −
1

_
s(r
2
)∇
2
2
_
1
r
12
_

2
= −
1

_
s(r
2
)(−4π)δ(r
2
−r
1
) dτ
2
= s(r
1
). (1.213)
A etapa final resulta da Equac¸ ˜ ao (1.211b), com os ´ındices 1 e 2 permutados. Nosso resultado, Equac¸ ˜ ao (1.213),
mostra que as formas admitidas de V e do potencial escalar ϕ est˜ ao de acordo com a divergˆ encia dada
(Equac¸ ˜ ao (1.204b)).
Para concluir a prova do teorema de Helmholtz, precisamos mostrar que o que admitimos ´ e consistente com a
Equac¸ ˜ ao (1.204c), isto ´ e, que o rotacional de V ´ e igual a c(r
1
). Pela Equac¸ ˜ ao (1.204a),
∇V = ∇(∇A)
= ∇∇ A−∇
2
A. (1.214)
O primeiro termo, ∇∇ A, leva a
4π∇∇ A =
_
c(r
2
) ∇
1

1
_
1
r
12
_

2
(1.215)
pela Equac¸ ˜ ao (1.205b). Novamente substituindo as derivadas de segunda ordem em relac¸ ˜ ao a x
1
, y
1
, z
1
por
derivadas de segunda ordem em relac¸ ˜ ao a x
2
, y
2
, z
2
, integramos cada componente
34
da Equac¸ ˜ ao (1.215)
por partes:
4π∇∇ A[
x
=
_
c(r
2
) ∇
2

∂x
2
_
1
r
12
_

2
=
_

2

_
c(r
2
)

∂x
2
_
1
r
12
__

2

_
_

2
c(r
2
)
¸

∂x
2
_
1
r
12
_

2
. (1.216)
34
Isso evita criar o tensor c(r2)∇2.
“livro” — 2007/8/1 — 15:06 — page 78 — #88
78 F´ısica Matem´ atica Arfken • Weber
A segunda integral desaparece porque a densidade de circulac¸ ˜ ao c ´ e solenoidal.
35
A primeira integral pode ser
transformada em uma integral de superf´ıcie pelo teorema de Gauss. Se c for limitado no espac¸o ou se anular mais
rapidamente do que 1/r para r grande, de modo que a integral na Equac¸ ˜ ao (1.205b) existe, ent˜ ao, escolhendo uma
superf´ıcie suficientemente grande, a primeira integral do lado direito da Equac¸ ˜ ao (1.216) tamb´ em se anula.
Com ∇∇ A = 0, a Equac¸ ˜ ao (1.214) agora se reduz a
∇V = −∇
2
A = −
1

_
c(r
2
)∇
2
1
_
1
r
12
_

2
. (1.217)
Isso ´ e exatamente como a Equac¸ ˜ ao (1.209), exceto que o escalar s(r
2
) ´ e substitu´ıdo pela densidade de circulac¸ ˜ ao
vetorial c(r
2
). Introduzindo a func¸ ˜ ao delta de Dirac, como antes, como um modo conveniente de realizar a
integrac¸ ˜ ao, constatamos que a Equac¸ ˜ ao (1.217) ´ e reduzida ` a Equac¸ ˜ ao (1.196). Vemos que as formas que admitimos
para V, dadas pela Equac¸ ˜ ao (1.204a), e para o potencial vetor A, dadas pela Equac¸ ˜ ao (1.205b), est˜ ao de acordo
com a Equac¸ ˜ ao (1.196) que especifica o rotacional de V.
Isso conclui a prova do teorema de Helmholtz, mostrando que um vetor pode ser resolvido em partes irrotacional
e solenoidal. Aplicado ao campo eletromagn´ etico, resolvemos nosso campo vetorial V em um campo el´ etrico
irrotacional E, derivado de umpotencial escalar ϕ, e umcampo de induc¸ ˜ ao magn´ etica solenoidal B, derivado de um
potencial vetor A. A densidade de fonte s(r) pode ser interpretada como uma densidade de carga el´ etrica (dividida
pela permissividade ε), enquanto a densidade de circulac¸ ˜ ao c(r) se torna densidade de corrente el´ etrica (vezes a
permeabilidade magn´ etica µ).
Exerc´ıcios
1.16.1 Impl´ıcita nesta sec¸ ˜ ao est´ a uma prova de que uma func¸ ˜ ao ψ(r) ´ e unicamente especificada exigindo-
se que (1) satisfac¸a a equac¸ ˜ ao de Laplace e (2) satisfac¸a um conjunto completo de condic¸ ˜ oes de
fronteira. Desenvolva essa prova explicitamente.
1.16.2 (a) Admitindo que P ´ e uma soluc¸ ˜ ao da equac¸ ˜ ao vetorial de Poisson, ∇
2
1
P(r
1
) = −V(r
1
),
desenvolva uma prova alternativa do teorema de Helmholtz, mostrando que V pode ser escrito
como
V = −∇ϕ +∇A,
em que
A = ∇P,
e
ϕ = ∇ P.
(b) Resolvendo a equac¸ ˜ ao vetorial de Poisson, encontramos
P(r
1
) =
1

_
V
V(r
2
)
r
12

2
.
Mostre que esta soluc¸ ˜ ao, substitu´ıda em ϕ e Ada parte (a) leva ` as express˜ oes dadas para ϕ e A
na Sec¸ ˜ ao 1.16.
Leituras Adicionais
Borisenko, A. I., e I. E. Taropov, Vector and Tensor Analysis with Applications. Englewood Cliffs, NJ: Prentice-
Hall (1968). Nova tiragem, Dover (1980).
Davis, H. F., e A. D. Snider, Introduction to Vector Analysis, 7
a
ed. Boston: Allyn & Bacon (1995).
Kellogg, O. D., Foundations of Potential Theory. Nova York: Dover (1953). Publicada originalmente em 1929. O
texto cl´ assico sobre a teoria do potencial.
Lewis, P. E., e J. P. Ward, Vector Analysis for Engineers and Scientists. Reading, MA: Addison-Wesley (1989).
Marion, J. B., Principles of Vector Analysis. Nova York: Academic Press (1965). Uma apresentac¸ ˜ ao
moderadamente avanc¸ada da an´ alise vetorial orientada para a an´ alise de tensores. Rotac¸ ˜ oes e outras
transformac¸ ˜ oes s˜ ao descritas com as matrizes apropriadas.
Spiegel, M.R. Vector Analysis, Nova York: McGraw-Hill (1989).
Tai, C.-T., Generalized Vector and Dyadic Analysis. Oxford: Oxford University Press (1996).
35
Lembre-se de que c = ∇V ´ e conhecido.
“livro” — 2007/8/1 — 15:06 — page 79 — #89
1. AN´ ALISE VETORIAL 79
Wrede, R. C., Introduction to Vector and Tensor Analysis. Nova York: Wiley (1963). Nova tiragem, Nova York:
Dover (1972). Bela introduc¸ ˜ ao hist´ orica. Excelente discuss˜ ao de diferenciac¸ ˜ ao de vetores e aplicac¸ ˜ oes ` a
mecˆ anica.
“livro” — 2007/8/1 — 15:06 — page 80 — #90
2
An´ alise Vetorial em Coordenadas Curvas e
Tensores
No Cap´ıtulo 1 nos restringimos quase completamente a sistemas retangulares ou de coordenadas cartesianas. Um
sistema de coordenadas cartesianas oferece uma vantagem ´ unica: todos os trˆ es vetores unit´ arios, ˆ x, ˆ y e ˆ z, tˆ em
direc¸ ˜ ao e m´ odulos constantes. Introduzimos a distˆ ancia radial r, mas at´ e ela foi tratada como uma func¸ ˜ ao de x, y
e z. Infelizmente, nem todos os problemas f´ısicos se adaptam bem a uma soluc¸ ˜ ao em coordenadas cartesianas. Por
exemplo, no caso de um problema de forc¸a central, F = ˆrF(r), tal como uma forc¸a gravitacional ou eletrost´ atica,
as coordenadas cartesianas podem ser extraordinariamente inadequadas. Um problema como este exige a utilizac¸ ˜ ao
de um sistema de coordenadas no qual a distˆ ancia radial ´ e tomada como uma das coordenadas, isto ´ e, coordenadas
polares esf´ ericas.
A quest˜ ao ´ e que o sistema de coordenadas deve ser escolhido para se ajustar ao problema, explorar qualquer
restric¸ ˜ ao ou simetria nele presente. Ent˜ ao, ´ e prov´ avel que seja resolvido com mais facilidade do que se o forc¸armos
a se ajustar a uma estrutura cartesiana.
Naturalmente h´ a um prec¸o a pagar pela utilizac¸ ˜ ao de um sistema de coordenadas n˜ ao-cartesiano. Ainda n˜ ao
escrevemos express˜ oes para gradiente, divergˆ encia ou rotacional em qualquer dos sistemas de coordenadas n˜ ao-
cartesianos. Essas express˜ oes s˜ ao desenvolvidas de forma geral na Sec¸ ˜ ao 2.2. Em primeiro lugar, desenvolvemos
um sistema de coordenadas curvil´ıneas, um sistema geral que pode ser particularizado para qualquer dos sistemas
particulares de interesse. N´ os o particularizaremos para coordenadas cil´ındricas circulares na Sec¸ ˜ ao 2.4, e para
coordenadas polares esf´ ericas na Sec¸ ˜ ao (2.5).
2.1 Coordenadas Ortogonais em R
3
Em coordenadas cartesianas tratamos com trˆ es fam´ılias de planos mutuamente perpendiculares: x = constante,
y = constante, e z = constante. Imagine que sobrepomos a esse sistema trˆ es outras fam´ılias de superf´ıcies
q
i
(x, y, z), i = 1, 2, 3. As superf´ıcies de qualquer uma das fam´ılias q
i
n˜ ao precisam ser paralelas umas ` as outras
e n˜ ao precisam ser planas. Se isso for dif´ıcil de visualizar, a figura de um sistema de coordenadas espec´ıfico
como o da Figura (2.3) talvez possa ajudar. As trˆ es novas fam´ılias de superf´ıcies n˜ ao precisam ser mutuamente
perpendiculares mas, por simplicidade, impomos essa condic¸ ˜ ao (Equac¸ ˜ ao (2.7)) porque coordenadas ortogonais s˜ ao
comuns em aplicac¸ ˜ oes f´ısicas. Essa ortogonalidade tem muitas vantagens: coordenadas ortogonais s˜ ao quase iguais
a coordenadas cartesianas quando ´ areas e volumes infinitesimais s˜ ao produtos de diferenciais de coordenadas.
Nesta sec¸ ˜ ao desenvolvemos o formalismo geral de coordenadas ortogonais, derivamos da geometria e das
coordenadas diferenciais e os usamos para elementos de linha, de ´ area e de volume em integrais m´ ultiplas e
operadores vetoriais. Podemos descrever qualquer ponto (x, y, z) como a intersec¸ ˜ ao de trˆ es planos em coordenadas
cartesianas ou como a intersec¸ ˜ ao das trˆ es superf´ıcies que formam nossas novas coordenadas cil´ındricas.
Descrevendo as superf´ıcies coordenadas curvil´ıneas por q
1
= constante, q
2
= constante, q
3
= constante, podemos
identificar nosso ponto por (q
1
, q
2
, q
3
) bem como por (x, y, z):
Coordenadas curvil´ıneas gerais
q
1
, q
2
, q
3
x = x(q
1
, q
2
, q
3
)
y = y(q
1
, q
2
, q
3
)
z = z(q
1
, q
2
, q
3
)
Coordenadas cil´ındricas circulares
ρ, ϕ, z
−∞< x = ρ cos ϕ < ∞
−∞< y = ρsen ϕ < ∞
−∞< z = z < ∞
(2.1)
80
“livro” — 2007/8/1 — 15:06 — page 81 — #91
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 81
especificando x, y, z em termos de q
1
, q
2
, q
3
e das relac¸ ˜ oes inversas
q
1
= q
1
(x, y, z) 0 ≤ ρ =
_
x
2
+y
2
_
1/2
< ∞
q
2
= q
2
(x, y, z) 0 ≤ ϕ = arctg(y/x) < 2π
q
3
= q
3
(x, y, z) −∞< z = z < ∞.
(2.2)
Como uma ilustrac¸ ˜ ao espec´ıfica das superf´ıcies gerais e abstratas, q
1
, q
2
, q
3
, as equac¸ ˜ oes de transformac¸ ˜ ao para
coordenadas cil´ındricas circulares (Sec¸ ˜ ao 2.4) s˜ ao inclu´ıdas nas Equac¸ ˜ oes (2.1) e (2.2). Com cada fam´ılia de
superf´ıcies q
i
= constante podemos associar um vetor unit´ ario ˆ q
i
normal ` a superf´ıcie q
i
= constante e na direc¸ ˜ ao
de q
i
crescente. Em geral, esses vetores unit´ arios depender˜ ao da posic¸ ˜ ao no espac¸o. Ent˜ ao, um vetor V pode ser
escrito
V = ˆ q
1
V
1
+ ˆ q
2
V
2
+ ˆ q
3
V
3
, (2.3)
mas o vetor de coordenadas ou de posic¸ ˜ ao ´ e em geral diferente,
r ,= ˆ q
1
q
1
+ ˆ q
2
q
2
+ ˆ q
3
q
3
,
como demonstram os casos especiais r = rˆr, para coordenadas polares esf´ ericas, e r = ρˆ ρ+zˆ z, para coordenadas
cil´ındricas. Os ˆ q
i
s˜ ao normalizados a ˆ q
2
i
= 1 e formam um sistema de coordenadas dextrogiro com volume
ˆ q
1
(ˆ q
2
ˆ q
3
) > 0.
A diferenciac¸ ˜ ao de x nas Equac¸ ˜ oes (2.1) leva ` a variac¸ ˜ ao total ou diferencial
dx =
∂x
∂q
1
dq
1
+
∂x
∂q
2
dq
2
+
∂x
∂q
3
dq
3
, (2.4)
e, de modo semelhante, por diferenciac¸ ˜ ao de y e z. Em notac¸ ˜ ao vetorial, dr =

i
∂r
∂qi
dq
i
. Pelo teorema de
Pit´ agoras em coordenadas cartesianas, o quadrado da distˆ ancia entre dois pontos vizinhos ´ e
ds
2
= dx
2
+dy
2
+dz
2
.
Substituir dr mostra que em nosso espac¸o de coordenadas curvil´ıneo o quadrado do elemento de distˆ ancia pode
ser escrito como uma forma quadr´ atica nas diferenciais dq
i
:
ds
2
= dr dr = dr
2
=

ij
∂r
∂q
i

∂r
∂q
j
dq
i
dq
j
= g
11
dq
2
1
+g
12
dq
1
dq
2
+g
13
dq
1
dq
3
+g
21
dq
2
dq
1
+g
22
dq
2
2
+g
23
dq
2
dq
3
+g
31
dq
3
dq
1
+g
32
dq
3
dq
2
+g
33
dq
2
3
=

ij
g
ij
dq
i
dq
j
, (2.5)
em que termos mistos n˜ ao-zero dq
i
dq
j
com i ,= j sinalizam que essas coordenadas n˜ ao s˜ ao ortogonais, isto ´ e, que
as direc¸ ˜ oes tangenciais ˆ q
i
n˜ ao s˜ ao mutuamente ortogonais. Espac¸os para os quais a Equac¸ ˜ ao (2.5) ´ e uma express˜ ao
leg´ıtima s˜ ao denominados m´ etricos ou riemannianos.
Escrevendo a Equac¸ ˜ ao (2.5) mais explicitamente, vemos que
g
ij
(q
1
, q
2
, q
3
) =
∂x
∂q
i
∂x
∂q
j
+
∂y
∂q
i
∂y
∂q
j
+
∂z
∂q
i
∂z
∂q
j
=
∂r
∂q
i

∂r
∂q
j
(2.6)
s˜ ao produtos escalares dos vetores tangentes
∂r
∂qi
` as curvas r para q
j
= constante, j ,= i. Podemos considerar
que essas func¸ ˜ oes de coeficientes g
ij
, que agora passaremos a investigar, especificam a natureza do sistema de
coordenadas (q
1
, q
2
, q
3
). Esses coeficientes s˜ ao denominados coletivamente como m´ etrica e mostraremos na Sec¸ ˜ ao
(2.10) que formam um tensor sim´ etrico de segunda ordem.
1
Na relatividade geral os componentes m´ etricos s˜ ao
1
A natureza tensorial do conjunto g
ij
resulta da regra do quociente (Sec¸ ˜ ao 2.8). Ent˜ ao, a lei de transformac¸ ˜ ao tensorial d´ a a Equac¸ ˜ ao (2.5).
“livro” — 2007/8/1 — 15:06 — page 82 — #92
82 F´ısica Matem´ atica Arfken • Weber
determinados pelas propriedades da mat´ eria; isto ´ e, as g
ij
s˜ ao soluc¸ ˜ oes das equac¸ ˜ oes de campo de Einstein com o
tensor energia-momento como termo condutor. Podemos chamar isso de “geometria e f´ısica s˜ ao imbricadas.”
Habitualmente nos limitamos a sistemas de coordenadas ortogonais (superf´ıcies mutuamente perpendiculares),
o que significa (veja o Exerc´ıcio 2.1.1)
2
g
ij
= 0, i ,= j, (2.7)
e ˆ q
i
ˆ q
j
= δ
ij
. (Sistemas de coordenadas n˜ ao-ortogonais s˜ ao considerados com mais detalhes nas Sec¸ ˜ oes 2.10 e
2.11 na estrutura da an´ alise tensorial). Agora, para simplificar a notac¸ ˜ ao, escrevemos g
ii
= h
2
i
> 0, portanto,
ds
2
= (h
1
dq
1
)
2
+ (h
2
dq
2
)
2
+ (h
3
dq
3
)
2
=

i
(h
i
dq
i
)
2
. (2.8)
Os sistemas de coordenadas ortogonais espec´ıficos s˜ ao descritos em sec¸ ˜ oes subseq¨ uentes especificando esses
fatores de escala (positivos) h
1
, h
2
, e h
3
. Inversamente, os fatores de escala podem ser convenientemente
identificados pela relac¸ ˜ ao
ds
i
= h
i
dq
i
,
∂r
∂q
i
= h
i
ˆ q
i
(2.9)
para qualquer dq
i
, mantendo todas as outras q constantes. Aqui, ds
i
´ e um comprimento diferencial ao longo da
direc¸ ˜ ao ˆ q
i
. Note que as trˆ es coordenadas curvil´ıneas q
1
, q
2
, q
3
n˜ ao precisam ter comprimentos. Os fatores de
escala h
i
podem depender de q e podem ter dimens˜ oes. O produto h
i
dq
i
deve ter uma dimens˜ ao de comprimento.
O vetor de distˆ ancia diferencial dr pode ser escrito
dr = h
1
dq
1
ˆ q
1
+h
2
dq
2
ˆ q
2
+h
3
dq
3
ˆ q
3
=

i
h
i
dq
i
ˆ q
i
.
Usando essa forma de componente curvil´ınea, constatamos que uma integral de linha se torna
_
V dr =

i
_
V
i
h
i
dq
i
.
Pela Equac¸ ˜ ao (2.9) podemos desenvolver imediatamente os elementos de ´ area e volume

ij
= ds
i
ds
j
= h
i
h
j
dq
i
dq
j
(2.10)
e
dτ = ds
1
ds
2
ds
3
= h
1
h
2
h
3
dq
1
dq
2
dq
3
. (2.11)
As express˜ oes nas Equac¸ ˜ oes (2.10) e (2.11) concordam, ´ e claro, com os resultados da utilizac¸ ˜ ao das Equac¸ ˜ oes de
transformac¸ ˜ ao, Equac¸ ˜ ao (2.1) e de jacobianos (descritos resumidamente; veja tamb´ em o Exerc´ıcio 2.1.5).
Pela Equac¸ ˜ ao (2.10) um elemento de ´ area pode ser expandido:
dσ = ds
2
ds
3
ˆ q
1
+ds
3
ds
1
ˆ q
2
+ds
1
ds
2
ˆ q
3
= h
2
h
3
dq
2
dq
3
ˆ q
1
+h
3
h
1
dq
3
dq
1
ˆ q
2
+h
1
h
2
dq
1
dq
2
ˆ q
3
.
Uma integral de superf´ıcie se torna
_
V dσ =
_
V
1
h
2
h
3
dq
2
dq
3
+
_
V
2
h
3
h
1
dq
3
dq
1
+
_
V
3
h
1
h
2
dq
1
dq
2
.
(Exemplos dessas integrais de linha e de superf´ıcie aparecem nas Sec¸ ˜ oes 2.4 e 2.5.)
Antecipando novas formas de equac¸ ˜ oes para c´ alculo vetorial que aparecem na pr´ oxima sec¸ ˜ ao, vamos enfatizar
que a ´ algebra vetorial ´ e a mesma em coordenadas curvil´ıneas ortogonais e em coordenadas cartesianas.
2
Em cosmologia relativista os elementos n˜ ao-diagonais da m´ etrica g
ij
costumam ser igualados a zero como conseq¨ uˆ encia de hip´ oteses
f´ısicas tais como nenhuma rotac¸ ˜ ao, como acontece em dϕdt, dθ dt.
“livro” — 2007/8/1 — 15:06 — page 83 — #93
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 83
Especificamente para o produto escalar,
A B =

ik
A
i
ˆ q
i
ˆ q
k
B
k
=

ik
A
i
B
k
δ
ik
=

i
A
i
B
i
= A
1
B
1
+A
2
B
2
+A
3
B
3
, (2.12)
em que os ´ındices inferiores indicam componentes curvil´ıneas. Para o produto externo,
AB =
¸
¸
¸
¸
¸
¸
ˆ q
1
ˆ q
2
ˆ q
3
A
1
A
2
A
3
B
1
B
2
B
3
¸
¸
¸
¸
¸
¸
, (2.13)
como na Equac¸ ˜ ao (1.40).
Antes, particularizamos para coordenadas localmente retangulares que s˜ ao adaptadas para simetrias especiais.
Agora vamos examinar brevemente o caso mais geral em que as coordenadas n˜ ao s˜ ao necessariamente ortogonais.
Elementos de superf´ıcie e volume s˜ ao parte de integrais m´ ultiplas que s˜ ao comuns em aplicac¸ ˜ oes f´ısicas, tais
como determinac¸ ˜ oes de centro de massa e momentos de in´ ercia. Normalmente escolhemos coordenadas conforme
a simetria do problema particular. No Cap´ıtulo 1 usamos o teorema de Gauss para transformar uma integral de
volume em uma integral de superf´ıcie e o teorema de Stokes para transformar uma integral de superf´ıcie em uma
integral de linha. No caso de coordenadas ortogonais, os elementos de superf´ıcie e de volume s˜ ao simplesmente
produtos dos elementos de linha h
i
dq
i
(veja as equac¸ ˜ oes (2.10) e 2.11)). Para o caso geral, usamos o significado
geom´ etrico de ∂r/∂q
i
na Equac¸ ˜ ao (2.5) como vetores tangentes. Comec¸amos com o elemento de superf´ıcie
cartesiano dxdy, que se torna um retˆ angulo infinitesimal nas novas coordenadas q
1
, q
2
formadas pelos dois vetores
incrementais
dr
1
= r(q
1
+dq
1
, q
2
) −r(q
1
, q
2
) =
∂r
∂q
1
dq
1
,
dr
2
= r(q
1
, q
2
+dq
2
) −r(q
1
, q
2
) =
∂r
∂q
2
dq
2
, (2.14)
cuja ´ area ´ e a componente z de seu produto externo, ou
dxdy = dr
1
dr
2
¸
¸
z
=
_
∂x
∂q
1
∂y
∂q
2

∂x
∂q
2
∂y
∂q
1
_
dq
1
dq
2
=
¸
¸
¸
¸
¸
∂x
∂q1
∂x
∂q2
∂y
∂q1
∂y
∂q2
¸
¸
¸
¸
¸
dq
1
dq
2
. (2.15)
O coeficiente de transformac¸ ˜ ao em forma de determinante ´ e denominado jacobiano.
De maneira semelhante, o elemento de volume dxdy dz se torna o produto escalar triplo dos trˆ es vetores de
deslocamento infinitesimal dr
i
= dq
i
∂r
∂qi
ao longo das q
i
direc¸ ˜ oes ˆ q
i
, que, de acordo com a Sec¸ ˜ ao 1.5, toma a
forma
dxdy dz =
¸
¸
¸
¸
¸
¸
¸
∂x
∂q1
∂x
∂q2
∂x
∂q3
∂y
∂q1
∂y
∂q2
∂y
∂q3
∂z
∂q1
∂z
∂q2
∂z
∂q3
¸
¸
¸
¸
¸
¸
¸
dq
1
dq
2
dq
3
. (2.16)
Aqui, o determinante tamb´ em ´ e denominado jacobiano, e assim por diante em dimens˜ oes mais altas.
Para coordenadas ortogonais, os jacobianos simplificam-se para produtos dos vetores ortogonais na Equac¸ ˜ ao
(2.9). Resulta que eles s˜ ao produtos exatos dos h
i
; por exemplo, do volume jacobiano se torna
h
1
h
2
h
3
(ˆ q
1
ˆ q
2
) ˆ q
3
= h
1
h
2
h
3
,
e assim por diante.
“livro” — 2007/8/1 — 15:06 — page 84 — #94
84 F´ısica Matem´ atica Arfken • Weber
Exemplo 2.1.1 JACOBIANOS PARA COORDENADAS POLARES
Vamos ilustrar a transformac¸ ˜ ao do elemento de volume cartesiano bidimensional dxdy para coordenadas polares
ρ, ϕ, com x = ρ cos ϕ, y = ρsen ϕ. (Veja tamb´ em a Sec¸ ˜ ao 2.4. Aqui,
dxdy =
¸
¸
¸
¸
¸
∂x
∂ρ
∂x
∂ϕ
∂y
∂ρ
∂y
∂ϕ
¸
¸
¸
¸
¸
dρ dϕ =
¸
¸
¸
¸
cos ϕ −ρsen ϕ
sen ϕ ρ cos ϕ
¸
¸
¸
¸
dρ dϕ = ρ dρ dϕ.
De modo semelhante, em coordenadas esf´ ericas (veja a Sec¸ ˜ ao 2.5) obtemos, de x = rsen θ cos ϕ, y =
rsen θsen ϕ, z = r cos θ, o jacobiano
J =
¸
¸
¸
¸
¸
¸
¸
∂x
∂r
∂x
∂θ
∂x
∂ϕ
∂y
∂r
∂y
∂θ
∂y
∂ϕ
∂z
∂r
∂z
∂θ
∂z
∂ϕ
¸
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
sen θ cos ϕ r cos θ cos ϕ −rsen θsen ϕ
sen θsen ϕ r cos θsen ϕ rsen θ cos ϕ
cos θ −rsen θ 0
¸
¸
¸
¸
¸
¸
= cos θ
¸
¸
¸
¸
r cos θ cos ϕ −rsen θsen ϕ
r cos θsen ϕ rsen θ cos ϕ
¸
¸
¸
¸
+rsen θ
¸
¸
¸
¸
sen θ cos ϕ −rsen θsen ϕ
sen θsen ϕ rsen θ cos ϕ
¸
¸
¸
¸
= r
2
_
cos
2
θsen θ + sen
3
θ
_
= r
2
sen θ ,
expandindo o determinante ao longo da terceira linha. Da´ı o elemento de volume se torna dxdy dz =
r
2
drsen θ dθ dϕ. A integral de volume pode ser escrita como
_
f(x, y, z) dxdy dz =
_
f
_
x(r, θ, ϕ), y(r, θ, ϕ), z(r, θ, ϕ)
_
r
2
drsen θ dθ dϕ.

Resumindo, desenvolvemos o formalismo geral para an´ alise vetorial em coordenadas curvil´ıneas ortogonais
em R
3
. Para a maioria das aplicac¸ ˜ oes, podem ser escolhidas coordenadas localmente ortogonais para as quais
os elementos de superf´ıcie e de volume em integrais m´ ultiplas s˜ ao produtos de elementos de linha. Para o caso
n˜ ao-ortogonal geral, os determinantes jacobianos se aplicam.
Exerc´ıcios
2.1.1 Mostre que limitar nossa atenc¸ ˜ ao a sistemas de coordenadas ortogonais implica que g
ij
= 0 ser´ a
i ,= j (Equac¸ ˜ ao (2.7)).
Sugest˜ ao: Construa um triˆ angulo de lados ds
1
, ds
2
e ds
3
. A Equac¸ ˜ ao (2.9) deve valer
independentemente de g
ij
= 0 ou n˜ ao. Ent˜ ao compare ds
2
da Equac¸ ˜ ao (2.5) com um c´ alculo que
utilize a lei dos co-senos. Mostre que cos θ
12
= g
12
/

g
11
g
22
.
2.1.2 No sistema coordenado polar esf´ erico, q
1
= r, q
2
= θ, q
3
= ϕ. As equac¸ ˜ oes de transformac¸ ˜ ao
correspondentes ` a Equac¸ ˜ ao (2.1) s˜ ao
x = rsen θ cos ϕ, y = rsen θsen ϕ, z = r cos θ.
(a) Calcule os fatores de escala de coordenadas polares esf´ ericas: h
r
, h
θ
e h
ϕ
.
(b) Verifique os fatores de escala que calculou pela relac¸ ˜ ao ds
i
= h
i
dq
i
.
2.1.3 O sistema de coordenadas u, v, z usado com muita freq¨ uˆ encia em eletrost´ atica e hidrodinˆ amica ´ e
definido por
xy = u, x
2
−y
2
= v, z = z.
Esse sistema u, v, z ´ e ortogonal.
(a) Com suas pr´ oprias palavras, fac¸a uma breve descric¸ ˜ ao da natureza de cada uma das trˆ es fam´ılias
de superf´ıcies coordenadas.
(b) Esboce o sistema no plano xy mostrando as intersec¸ ˜ oes de superf´ıcies de u constante e
superf´ıcies de v constante com o plano xy.
(c) Indique as direc¸ ˜ oes dos vetores unit´ arios ˆ u e ˆ v em todos os quatro quadrantes.
(d) Por fim, esse sistema u, v, z ´ e dextrogiro (ˆ u ˆ v = +ˆ z) ou levogiro (ˆ u ˆ v = −ˆ z)?
2.1.4 O sistema de coordenadas cil´ındrico el´ıptico consiste em trˆ es fam´ılias de superf´ıcies:
1)
x
2
a
2
cosh
2
u
+
y
2
a
2
sen h
2
u
= 1; 2)
x
2
a
2
cos
2
v

y
2
a
2
sen
2
v
= 1; 3) z = z.
“livro” — 2007/8/1 — 15:06 — page 85 — #95
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 85
Esboce as superf´ıcies coordenadas u = constante e v = constante na intersec¸ ˜ ao com o primeiro
quadrante do plano xy. Mostre os vetores unit´ arios ˆ u e ˆ v. O intervalo de u ´ e 0 ≤ u < ∞. O
intervalo de v ´ e 0 ≤ v ≤ 2π.
2.1.5 Um sistema ortogonal bidimensional ´ e descrito pelas coordenadas q
1
e q
2
. Mostre que o jacobiano
J
_
x, y
q
1
, q
2
_

∂(x, y)
∂(q
1
, q
2
)

∂x
∂q
1
∂y
∂q
2

∂x
∂q
2
∂y
∂q
1
= h
1
h
2
est´ a de acordo com a Equac¸ ˜ ao (2.10).
Sugest˜ ao:
´
E mais f´ acil trabalhar com o quadrado de cada lado dessa equac¸ ˜ ao.
2.1.6 No espac¸o de Minkowski definimos x
1
= x, x
2
= y, x
3
= z e x
0
= ct. Fazemos isso para que o
intervalo m´ etrico se torne ds
2
= dx
2
0
– dx
2
1
– dx
2
2
– dx
2
3
(com c = velocidade da luz). Mostre que a
m´ etrica no espac¸o de Minkowski ´ e
(g
ij
) =
_
_
_
_
1 0 0 0
0 −1 0 0
0 0 −1 0
0 0 0 −1
_
_
_
_
.
Usamos o espac¸o de Minkowski nas Sec¸ ˜ oes 4.5 e 4.6 para descrever as transformac¸ ˜ oes de Lorentz.
2.2 Operadores Vetoriais Diferenciais
Voltamos ` a nossa restric¸ ˜ ao a sistemas coordenados ortogonais.
Gradiente
O ponto de partida para desenvolver os operadores de gradiente, de divergˆ encia e de rotacional em coordenadas
curvil´ıneas ´ e a interpretac¸ ˜ ao geom´ etrica do gradiente como o vetor que tem a grandeza e a direc¸ ˜ ao da m´ axima
taxa de mudanc¸a espacial (compare com a Sec¸ ˜ ao 1.6). Por essa interpretac¸ ˜ ao, a componente de ∇ψ(q
1
, q
2
, q
3
) na
direc¸ ˜ ao normal ` a fam´ılia de superf´ıcies q
1
= constante ´ e dada por
3
ˆ q
1
∇ψ = ∇ψ[
1
=
∂ψ
∂s
1
=
1
h
1
∂ψ
∂q
1
, (2.17)
uma vez que essa ´ e a taxa de mudanc¸a de ψ variando q
1
e mantendo q
2
e q
3
fixas. A quantidade ds
1
´ e um
comprimento diferencial na direc¸ ˜ ao de q
1
crescente (compare com as Equac¸ ˜ oes (2.9)). Na Sec¸ ˜ ao 2.1 apresentamos
um vetor unit´ ario ˆ q
1
para indicar essa direc¸ ˜ ao. Repetindo a Equac¸ ˜ ao (2.17) para q
2
e novamente para q
3
e fazendo
a adic¸ ˜ ao vetorial, vemos que o gradiente se torna
∇ψ(q
1
, q
2
, q
3
) = ˆ q
1
∂ψ
∂s
1
+ ˆ q
2
∂ψ
∂s
2
+ ˆ q
3
∂ψ
∂s
3
= ˆ q
1
1
h
1
∂ψ
∂q
1
+ ˆ q
2
1
h
2
∂ψ
∂q
2
+ ˆ q
3
1
h
3
∂ψ
∂q
3
=

i
ˆ q
i
1
h
i
∂ψ
∂q
i
. (2.18)
O Exerc´ıcio 2.2.4 oferece uma alternativa matem´ atica independente dessa interpretac¸ ˜ ao f´ısica do gradiente. A
variac¸ ˜ ao total de uma func¸ ˜ ao,
dψ = ∇ψ dr =

i
1
h
i
∂ψ
∂q
i
ds
i
=

i
∂ψ
∂q
i
dq
i
´ e consistente com a Equac¸ ˜ ao (2.18), ´ e claro.
3
Evitamos aqui a utilizac¸ ˜ ao de ϕ para rotular uma func¸ ˜ ao porque, por convenc¸ ˜ ao, esse s´ımbolo ´ e usado para denotar uma coordenada
azimutal.
“livro” — 2007/8/1 — 15:06 — page 86 — #96
86 F´ısica Matem´ atica Arfken • Weber
Divergˆ encia
O operador de divergˆ encia pode ser obtido da segunda definic¸ ˜ ao da Equac¸ ˜ ao (1.98), do Cap´ıtulo 1 ou tamb´ em pelo
teorema de Gauss, Sec¸ ˜ ao 1.11. Vamos usar a Equac¸ ˜ ao (1.98),
∇ V(q
1
, q
2
, q
3
) = lim
R
dτ→0
_
V dσ
_

, (2.19)
com um volume diferencial h
1
h
2
h
3
dq
1
dq
2
dq
3
(Figura 2.1). Note que as direc¸ ˜ oes positivas foram escolhidas de
modo que (ˆ q
1
, ˆ q
2
, ˆ q
3
) formem um conjunto dextrogiro, ˆ q
1
ˆ q
2
= ˆ q
3
.
A diferenc¸a de integrais de ´ areas para as duas faces q
1
= constante ´ e dada por
_
V
1
h
2
h
3
+

∂q
1
(V
1
h
2
h
3
) dq
1
_
dq
2
dq
3
−V
1
h
2
h
3
dq
2
dq
3
=

∂q
1
(V
1
h
2
h
3
) dq
1
dq
2
dq
3
, (2.20)
Figura 2.1: Elemento de volume curvil´ıneo.
exatamente como nas Sec¸ ˜ oes 1.7 e 1.10.
4
Aqui, V
i
= V ˆ q
i
´ e a projec¸ ˜ ao de V sobre a direc¸ ˜ ao ˆ q
i
. Somando os
resultados semelhantes para os outros dois pares de superf´ıcies, obtemos
_
V(q
1
, q
2
, q
3
) dσ
=
_

∂q
1
(V
1
h
2
h
3
) +

∂q
2
(V
2
h
3
h
1
) +

∂q
3
(V
3
h
1
h
2
)
_
dq
1
dq
2
dq
3
.
Agora, usando a Equac¸ ˜ ao (2.19), a divis˜ ao por nosso volume diferencial resulta em
∇ V(q
1
, q
2
, q
3
) =
1
h
1
h
2
h
3
_

∂q
1
(V
1
h
2
h
3
) +

∂q
2
(V
2
h
3
h
1
) +

∂q
3
(V
3
h
1
h
2
)
_
. (2.21)
Podemos obter o laplaciano combinando as Equac¸ ˜ oes (2.18) e (2.21), usando V = ∇ψ(q
1
, q
2
, q
3
). Isso leva a
∇ ∇ψ(q
1
, q
2
, q
3
)
=
1
h
1
h
2
h
3
_

∂q
1
_
h
2
h
3
h
1
∂ψ
∂q
1
_
+

∂q
2
_
h
3
h
1
h
2
∂ψ
∂q
2
_
+

∂q
3
_
h
1
h
2
h
3
∂ψ
∂q
3
__
. (2.22)
4
Uma vez que tomamos o limite dq1, dq2, dq3 →0, as derivadas de segunda ordem e de ordens mais altas ser˜ ao descartadas.
“livro” — 2007/8/1 — 15:06 — page 87 — #97
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 87
Rotacional
Por fim, para desenvolver ∇ V, vamos aplicar o teorema de Stokes (Sec¸ ˜ ao 1.12) e, como fizemos com
a divergˆ encia, tomar o limite, ` a medida que a ´ area da superf´ıcie torna-se cada vez menor, tendendo a zero.
Trabalhando com uma componente por vez, consideramos um elemento de superf´ıcie diferencial na superf´ıcie
curvil´ınea q
1
= constante. De
_
s
∇V dσ = ˆ q
1
(∇V)h
2
h
3
dq
2
dq
3
(2.23)
(teorema do valor m´ edio do c´ alculo integral), o teorema de Stokes resulta
ˆ q
1
(∇V)h
2
h
3
dq
2
dq
3
=
_
V dr, (2.24)
com a integral de linha sobre a superf´ıcie q
1
= constante. Acompanhando o circuito fechado (1, 2, 3, 4) da Figura
2.2,
_
V(q
1
, q
2
, q
3
) dr = V
2
h
2
dq
2
+
_
V
3
h
3
+

∂q
2
(V
3
h
3
) dq
2
_
dq
3

_
V
2
h
2
+

∂q
3
(V
2
h
2
)dq
3
_
dq
2
−V
3
h
3
dq
3
=
_

∂q
2
(h
3
V
3
) −

∂q
3
(h
2
V
2
)
_
dq
2
dq
3
. (2.25)
Escolhemos um sinal positivo quando percorremos a direc¸ ˜ ao positiva nas partes 1 e 2 e um sinal negativo
nas partes 3 e 4 porque aqui estamos indo na direc¸ ˜ ao negativa. (Termos de ordens mais altas foram omitidos em
expans˜ oes de Maclaurin ou Taylor. Eles se anular˜ ao ` a medida que a superf´ıcie ficar cada vez menor, tendendo a
zero (dq
2
→0, dq
3
→0).)
Pela Equac¸ ˜ ao (2.24)),
∇V[
1
=
1
h
2
h
3
_

∂q
2
(h
3
V
3
) −

∂q
3
(h
2
V
2
)
_
. (2.26)
Figura 2.2: Elemento de superf´ıcie curvil´ınea com q
1
= constante.
As duas componentes restantes de ∇ V podem ser obtidas por permutac¸ ˜ ao c´ıclica dos ´ındices. Como no
Cap´ıtulo 1, muitas vezes ´ e conveniente escrever o rotacional em forma de determinante:
∇V =
1
h
1
h
2
h
3
¸
¸
¸
¸
¸
¸
¸
¸
¸
ˆ q
1
h
1
ˆ q
2
h
2
ˆ q
3
h
3

∂q
1

∂q
2

∂q
3
h
1
V
1
h
2
V
2
h
3
V
3
¸
¸
¸
¸
¸
¸
¸
¸
¸
. (2.27)
“livro” — 2007/8/1 — 15:06 — page 88 — #98
88 F´ısica Matem´ atica Arfken • Weber
Lembre-se de que, por causa da presenc¸a dos operadores diferenciais, esse determinante deve ser expandido de
cima para baixo. Note que essa equac¸ ˜ ao n˜ ao ´ e idˆ entica ` a forma para o produto externo de dois vetores (Equac¸ ˜ ao
(2.13)). ∇n˜ ao ´ e um vetor comum; ´ e um operador vetorial.
Nossa interpretac¸ ˜ ao geom´ etrica do gradiente e a utilizac¸ ˜ ao dos teoremas de Gauss e de Stokes (ou definic¸ ˜ oes
integrais de divergˆ encia e rotacional) nos habilitaram a obter essas quantidades sem ter de diferenciar os vetores
unit´ arios ˆ q
i
. Existem modos alternativos para determinar grad, div e rot com base em diferenciac¸ ˜ ao direta dos ˆ q
i
.
Uma dessas abordagens expressa os ˆ q
i
de um sistema de coordenadas espec´ıfico em suas componentes cartesianas
(Exerc´ıcios 2.4.1 e 2.5.1) e diferencia essa forma cartesiana (Exerc´ıcios 2.4.3 e 2.5.2). A quest˜ ao aqui ´ e que as
derivadas dos ˆ x, ˆ y e ˆ z cartesianos desaparecem, visto que a direc¸ ˜ ao bem como o m´ odulo de ˆ x, ˆ y e ˆ z s˜ ao constantes.
Uma segunda abordagem [L. J. Kijewski, Am. J. Phys. 33: 816 (1965)] admite a igualdade de ∂
2
r/∂q
i
∂q
j
e

2
r/∂q
j
∂q
i
e desenvolve as derivadas de ˆ q
i
em uma forma curvil´ınea geral. Os Exerc´ıcios 2.2.3 e 2.2.4 s˜ ao
baseados nesse m´ etodo.
Exerc´ıcios
2.2.1 Desenvolva argumentos para mostrar que produtos escalares e vetoriais (que n˜ ao envolvam ∇) em
coordenadas curvil´ıneas ortogonais em R
3
s˜ ao calculados, como em coordenadas cartesianas, sem
nenhum envolvimento de fatores escalares.
2.2.2 Tendo ˆ q
1
como um vetor unit´ ario na direc¸ ˜ ao crescente de q
1
, mostre que
(a) ∇ ˆ q
1
=
1
h
1
h
2
h
3
∂(h
2
h
3
)
∂q
1
(b) ∇ ˆ q
1
=
1
h
1
_
ˆ q
2
1
h
3
∂h
1
∂q
3
− ˆ q
3
1
h
2
∂h
1
∂q
2
_
.
Note que, mesmo que ˆ q
1
seja um vetor unit´ ario, sua divergˆ encia e rotacional n˜ ao desaparecem
necessariamente.
2.2.3 Mostre que os vetores unit´ arios ortogonais ˆ q
j
podem ser definidos por
ˆ q
i
=
1
h
i
∂r
∂q
i
. (a)
Em particular, mostre que ˆ q
i
ˆ q
i
= 1 leva a uma express˜ ao para h
i
de acordo com as Equac¸ ˜ oes
(2.9). A Equac¸ ˜ ao (a) pode ser tomada como um ponto de partida para derivar
∂ˆ q
i
∂q
j
= ˆ q
j
1
h
i
∂h
j
∂q
i
, i ,= j
e
∂ˆ q
i
∂q
i
= −

j,=i
ˆ q
j
1
h
j
∂h
i
∂q
j
.
2.2.4 Derive
∇ψ = ˆ q
1
1
h
1
∂ψ
∂q
1
+ ˆ q
2
1
h
2
∂ψ
∂q
2
+ ˆ q
3
1
h
3
∂ψ
∂q
3
por aplicac¸ ˜ ao direta da Equac¸ ˜ ao (1.97),
∇ψ = lim
R
dτ→0
_
ψ dσ
_

.
Sugest˜ ao: A avaliac¸ ˜ ao da integral de superf´ıcie resultar´ a em termos como (h
1
h
2
h
3
)
−1
(∂/∂q
1
)
(ˆ q
1
h
2
h
3
). Os resultados listados no Exerc´ıcio 2.2.3 s˜ ao ´ uteis. O cancelamento de termos
indesejados ocorre quando as contribuic¸ ˜ oes de todos os trˆ es pares de superf´ıcies s˜ ao somadas.
2.3 Sistemas de Coordenadas Especiais: Introduc¸ ˜ ao
H´ a pelo menos 11 sistemas de coordenadas nos quais a equac¸ ˜ ao tridimensional de Helmholtz pode ser
desmembrada em trˆ es equac¸ ˜ oes diferenciais comuns. Alguns desses sistemas de coordenadas conseguiram
proeminˆ encia no desenvolvimento hist´ orico da mecˆ anica quˆ antica. Outros sistemas, tal como o de coordenadas
“livro” — 2007/8/1 — 15:06 — page 89 — #99
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 89
bipolares, satisfazem necessidades especiais. Em parte porque as necessidades n˜ ao s˜ ao muito freq¨ uentes, mas
principalmente porque o desenvolvimento de computadores e de t´ ecnicas de programac¸ ˜ ao eficientes reduziu a
necessidade desses sistemas de coordenadas, a discuss˜ ao neste cap´ıtulo ´ e limitada a (1) coordenadas cartesianas,
(2) coordenadas polares esf´ ericas e (3) coordenadas cil´ındricas circulares. Especificac¸ ˜ oes e detalhes dos outros
sistemas coordenados podem ser encontrados nas duas primeiras edic¸ ˜ oes desta obra e nas Leituras Adicionais ao
final deste cap´ıtulo (Morse e Feshbach, Margenau e Murphy).
2.4 Coordenadas Cil´ındricas Circulares
No sistema de coordenadas cil´ındricas circulares as trˆ es coordenadas curvil´ıneas (q
1
, q
2
, q
3
) s˜ ao rotuladas (ρ, ϕ, z).
Estamos usando ρ para a distˆ ancia perpendicular em relac¸ ˜ ao ao eixo z e guardando r para a distˆ ancia a partir da
origem. Os limites de ρ, ϕ e z s˜ ao
0 ≤ ρ < ∞, 0 ≤ ϕ ≤ 2π, e −∞< z < ∞.
Para ρ = 0, ϕ n˜ ao ´ e bem definido. As superf´ıcies coordenadas (mostradas na Figura 2.3) s˜ ao:
1. Cilindros circulares para a direita (dextrogiros) que tˆ em o eixo z como um eixo em comum,
ρ =
_
x
2
+y
2
_
1/2
= constante.
2. Semiplanos que passam pelo eixo z,
ϕ = tg
−1
_
y
x
_
= constante
3. Planos paralelos ao plano xy como no sistema cartesiano,
z = constante
Figura 2.3: Coordenadas cil´ındricas circulares.
Invertendo as equac¸ ˜ oes precedentes para ρ e ϕ (ou indo diretamente ` a Figura 2.3), obtemos as relac¸ ˜ oes de
transformac¸ ˜ ao
x = ρ cos ϕ, y = ρsen ϕ, z = z. (2.28)
“livro” — 2007/8/1 — 15:06 — page 90 — #100
90 F´ısica Matem´ atica Arfken • Weber
Figura 2.4: Vetores unit´ arios em coordenadas cil´ındricas circulares.
O eixo z permanece inalterado. Este ´ e, em essˆ encia, um sistema curvil´ıneo bidimensional com a adic¸ ˜ ao de um eixo
cartesiano z para formar um sistema tridimensional.
Conforme a Equac¸ ˜ ao (2.5) ou pelos elementos de comprimento ds
i
, os fatores de escala s˜ ao
h
1
= h
ρ
= 1, h
2
= h
ϕ
= ρ, h
3
= h
z
= 1. (2.29)
Os vetores unit´ arios ˆ q
1
, ˆ q
2
, ˆ q
3
recebem novas denominac¸ ˜ oes (ˆ ρ, ˆ ϕ, ˆ z), como na Figura 2.4. O vetor unit´ ario
ˆ ρ ´ e normal ` a superf´ıcie cil´ındrica, apontando na direc¸ ˜ ao do raio crescente ρ. O vetor unit´ ario ˆ ϕ ´ e tangencial ` a
superf´ıcie cil´ındrica, perpendicular ao semiplano ϕ = constante e aponta na direc¸ ˜ ao do ˆ angulo azimutal crescente
ϕ. O terceiro vetor unit´ ario, ˆ z, ´ e o vetor unit´ ario cartesiano usual. Eles s˜ ao mutuamente ortogonais,
ˆ ρ ˆ ϕ = ˆ ϕ ˆ z = ˆz ˆ ρ = 0,
e o vetor coordenado e um vetor geral V s˜ ao expressos como
r = ˆ ρρ + ˆ zz, V = ˆ ρV
ρ
+ ˆ ϕV
ϕ
+ ˆ zV
z
.
Um deslocamento diferencial dr pode ser escrito como
dr = ˆ ρds
ρ
+ ˆ ϕds
ϕ
+ ˆ z dz
= ˆ ρdρ + ˆ ϕρ dϕ + ˆ z dz. (2.30)
Exemplo 2.4.1 LEI DA
´
AREA PARA MOVIMENTO PLANET ´ ARIO
Em primeiro lugar derivamos a lei de Kepler em coordenadas cil´ındricas dizendo que o vetor raio abrange ´ areas
iguais em tempos iguais, pela conservac¸ ˜ ao do momento angular.
Consideramos o Sol localizado na origem como uma fonte da forc¸a gravitacional central F = f(r)ˆr. Ent˜ ao, o
momento angular orbital L = mr v de um planeta de massa m e velocidade v ´ e conservado porque o torque
dL
dt
= m
dr
dt

dr
dt
+r m
dv
dt
= r F =
f(r)
r
r r = 0.
Por conseguinte, L = constante. Agora podemos determinar que o eixo z se estende ao longo da direc¸ ˜ ao do vetor
do momento angular orbital, L = Lˆz, e trabalhar em coordenadas cil´ındricas r = (ρ, ϕ, z) = ρˆ ρ com z = 0.
O planeta se move no plano xy porque r e v s˜ ao perpendiculares a L. Assim, expandimos sua velocidade como
segue:
v =
dr
dt
= ˙ ρˆ ρ +ρ
dˆ ρ
dt
.
“livro” — 2007/8/1 — 15:06 — page 91 — #101
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 91
Por
ˆ ρ = (cos ϕ, sen ϕ),
∂ˆ ρ

= (−sen ϕ, cos ϕ) = ˆ ϕ,
constatamos que
dˆ ρ
dt
=
dˆ ρ


dt
= ˙ ϕˆ ϕ usando a regra da cadeia, portanto v = ˙ ρˆ ρ + ρ
dˆ ρ
dt
= ˙ ρˆ ρ + ρ ˙ ϕˆ ϕ. Quando
substitu´ımos as expans˜ oes de ˆ ρ e v em coordenadas polares, obtemos
L = mρ v = mρ(ρ ˙ ϕ)(ˆ ρ ˆ ϕ) = mρ
2
˙ ϕˆz = constante.
A ´ area triangular abrangida pelo vetor raio ρ no tempo dt (lei da ´ area), quando integrada sobre uma revoluc¸ ˜ ao,
´ e dada por
A =
1
2
_
ρ(ρ dϕ) =
1
2
_
ρ
2
˙ ϕdt =
L
2m
_
dt =

2m
, (2.31)
se substituirmos mρ
2
˙ ϕ = L = constante. Aqui, τ ´ e o per´ıodo, isto ´ e, o tempo para uma revoluc¸ ˜ ao do planeta em
sua ´ orbita.
A primeira lei de Kepler afirma que a ´ orbita ´ e uma elipse. Agora derivamos a equac¸ ˜ ao orbital ρ(ϕ) da elipse
em coordenadas polares, em que na Figura 2.5 o Sol est´ a em um foco, que ´ e a origem de nossas coordenadas
cil´ındricas. A partir da construc¸ ˜ ao geom´ etrica da elipse sabemos que ρ
t
+ ρ = 2a, em que a ´ e o semi-eixo maior;
mostraremos que isso equivale ` a forma convencional da equac¸ ˜ ao da elipse. A distˆ ancia entre ambos os focos ´ e
0 < 2a < 2a, em que 0 < < 1 ´ e denominado excentricidade da elipse. Para um c´ırculo, = 0 porque ambos
os focos coincidem com o centro. H´ a um ˆ angulo, como mostra a Figura 2.5, em que as distˆ ancias ρ
t
= ρ = a
s˜ ao iguais e o teorema de Pit´ agoras aplicado a esse triˆ angulo retˆ angulo d´ a b
2
+ a
2

2
= a
2
. Como resultado,

1 −
2
= b/a ´ e a raz˜ ao entre o semi-eixo menor (b) e o semi-eixo maior a.
Figura 2.5: Elipse em coordenadas polares.
Agora considere o triˆ angulo de lados denominados ρ
t
, ρ, 2a na Figura 2.5 e ˆ angulo oposto ρ
t
igual a π − ϕ.
Ent˜ ao, aplicando a lei dos co-senos, obtemos
ρ
t 2
= ρ
2
+ 4a
2

2
+ 4ρa cos ϕ.
Agora, substituindo ρ
t
= 2a −ρ, cancelando ρ
2
em ambos os lados e dividindo por 4a, temos
ρ(1 + cos ϕ) = a
_
1 −
2
_
≡ p, (2.32)
a equac¸ ˜ ao da ´ orbita de Kepler em coordenadas polares.
Alternativamente, revertemos ` as coordenadas cartesianas para constatar, pela Equac¸ ˜ ao (2.32) com x = ρ cos ϕ,
que
ρ
2
= x
2
+y
2
= (p −x)
2
= p
2
+x
2

2
−2px,
portanto, a familiar equac¸ ˜ ao da elipse em coordenadas cartesianas,
_
1 −
2
_
_
x +
p
1 −
2
_
2
+y
2
= p
2
+
p
2

2
1 −
2
=
p
2
1 −
2
,
continua em vigor. Se compararmos este resultado com a forma padr˜ ao da elipse,
(x −x
0
)
2
a
2
+
y
2
b
2
= 1,
“livro” — 2007/8/1 — 15:06 — page 92 — #102
92 F´ısica Matem´ atica Arfken • Weber
confirmamos que
b =
p

1 −
2
= a
_
1 −
2
, a =
p
1 −
2
,
e a distˆ ancia x
0
entre o centro e o foco ´ e a, como mostra a Figura 2.5.

As operac¸ ˜ oes diferenciais envolvendo ∇resultam das Equac¸ ˜ oes (2.18), (2.21), (2.22) e (2.27):
∇ψ(ρ, ϕ, z) = ˆ ρ
∂ψ
∂ρ
+ ˆ ϕ
1
ρ
∂ψ
∂ϕ
+ ˆ z
∂ψ
∂z
, (2.33)
∇ V =
1
ρ

∂ρ
(ρV
ρ
) +
1
ρ
∂V
ϕ
∂ϕ
+
∂V
z
∂z
, (2.34)

2
ψ =
1
ρ

∂ρ
_
ρ
∂ψ
∂ρ
_
+
1
ρ
2

2
ψ
∂ϕ
2
+

2
ψ
∂z
2
, (2.35)
∇V =
1
ρ
¸
¸
¸
¸
¸
¸
¸
¸
¸
ˆ ρ ρˆ ϕ ˆz

∂ρ

∂ϕ

∂z
V
ρ
ρV
ϕ
V
z
¸
¸
¸
¸
¸
¸
¸
¸
¸
. (2.36)
Por fim, para problemas como guias de ondas circulares e ressonadores de cavidade cil´ındrica, o vetor ∇
2
V
laplaciano resolvido em coordenadas cil´ındricas circulares ´ e

2
V[
ρ
= ∇
2
V
ρ

1
ρ
2
V
ρ

2
ρ
2
∂V
ϕ
∂ϕ
,

2
V[
ϕ
= ∇
2
V
ϕ

1
ρ
2
V
ϕ
+
2
ρ
2
∂V
ρ
∂ϕ
, (2.37)

2
V[
z
= ∇
2
V
z
,
que resulta da Equac¸ ˜ ao (1.85). A raz˜ ao b´ asica para esta forma particular da componente z ´ e que o eixo z ´ e um eixo
cartesiano; isto ´ e,

2
(ˆ ρV
ρ
+ ˆ ϕV
ϕ
+ ˆ zV
z
) = ∇
2
(ˆ ρV
ρ
+ ˆ ϕV
ϕ
) + ˆ z∇
2
V
z
= ˆ ρf(V
ρ
, V
ϕ
) + ˆ ϕg(V
ρ
, V
ϕ
) + ˆ z∇
2
V
z
.
Finalmente, o operador ∇
2
que opera sobre os vetores unit´ arios ˆ ρ, ˆ ϕ permanece no plano ˆ ρˆ ϕ.
Exemplo 2.4.2 UM TERMO DE NAVIER-STOKES
As Equac¸ ˜ oes de Navier-Stokes da hidrodinˆ amica contˆ em um termo n˜ ao-linear

_
v (∇v)
¸
,
em que v ´ e a velocidade do fluido. Para um fluido que escoa por um cano cil´ındrico na direc¸ ˜ ao z,
v = ˆ zv(ρ).
Pela Equac¸ ˜ ao (2.36),
∇v =
1
ρ
¸
¸
¸
¸
¸
¸
¸
¸
¸
ˆ ρ ρˆ ϕ ˆ z

∂ρ

∂ϕ

∂z
0 0 v(ρ)
¸
¸
¸
¸
¸
¸
¸
¸
¸
= −ˆ ϕ
∂v
∂ρ
v (∇v) =
¸
¸
¸
¸
¸
¸
¸
¸
ˆ ρ ˆ ϕ ˆz
0 0 v
0 −
∂v
∂ρ
0
¸
¸
¸
¸
¸
¸
¸
¸
= ˆ ρv(ρ)
∂v
∂ρ
.
“livro” — 2007/8/1 — 15:06 — page 93 — #103
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 93
Finalmente,

_
v (∇v)
_
=
1
ρ
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
ˆ ρ ρˆ ϕ ˆ z

∂ρ

∂ϕ

∂z
v
∂v
∂ρ
0 0
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
= 0,
portanto, para este caso particular, o termo n˜ ao-linear se anula.
Exerc´ıcios
2.4.1 Decomponha os vetores unit´ arios cil´ındricos circulares em suas componentes cartesianas (Figura
2.6).
Resposta: ˆ ρ = ˆ xcos ϕ + ˆ ysen ϕ,
ˆ ϕ = −ˆ xsen ϕ + ˆ y cos ϕ,
ˆ z = ˆ z.
2.4.2 Decomponha os vetores unit´ arios cartesianos em suas componentes cil´ındricas circulares (Figura
2.6).
RESP. ˆ x = ˆ ρcos ϕ − ˆ ϕsen ϕ,
ˆ y = ˆ ρsen ϕ + ˆ ϕcos ϕ,
ˆ z = ˆ z.
2.4.3 Pelos resultados do Exerc´ıcio 2.4.1 mostre que
∂ˆ ρ
∂ϕ
= ˆ ϕ,
∂ˆ ϕ
∂ϕ
= −ˆ ρ
e que todas as outras derivadas de primeira ordem dos vetores unit´ arios cil´ındricos circulares em
relac¸ ˜ ao ` as coordenadas cil´ındricas circulares se anulam.
2.4.4 Compare ∇ V (Equac¸ ˜ ao (2.34)) com o operador gradiente
∇= ˆ ρ

∂ρ
+ ˆ ϕ
1
ρ

∂ϕ
+ ˆ z

∂z
(Equac¸ ˜ ao (2.33)) multiplicado escalarmente por V. Note que os operadores diferenciais de ∇
diferenciam ambos os vetores unit´ arios e as componentes de V.
Sugest˜ ao: ˆ ϕ(1/ρ)(∂/∂ϕ) ˆ ρV
ρ
se torna ˆ ϕ
1
ρ

∂ϕ
(ˆ ρV
ρ
) e n˜ ao se anula.
2.4.5 (a) Mostre que r = ˆ ρρ + ˆ zz.
(b) Trabalhando inteiramente em coordenadas cil´ındricas circulares, mostre que
∇ r = 3 e ∇r = 0.
2.4.6 (a) Mostre que a operac¸ ˜ ao de paridade (reflex˜ ao passando pela origem) sobre um ponto (ρ, ϕ, z)
relativa aos eixos fixos x, y, z consiste na transformac¸ ˜ ao
ρ →ρ, ϕ →ϕ ±π, z →−z.
(b) Mostre que ˆ ρ e ˆ ϕ tˆ em paridade ´ımpar (revers˜ ao de direc¸ ˜ ao) e que ˆ z tem paridade par.
Nota: Os vetores unit´ arios cartesianos ˆ x, ˆ y e ˆ z permanecem constantes.
2.4.7 Um corpo r´ıgido est´ a em rotac¸ ˜ ao ao redor de um eixo fixo com uma velocidade angular constante
ω. Admita que ω est´ a ao longo do eixo z. Expresse o vetor posic¸ ˜ ao r em coordenadas cil´ındricas
circulares e, usando coordenadas cil´ındricas circulares,
(a) calcule v = ω r, (b) calcule ∇v.
RESP. (a) v = ˆ ϕωρ,
(b) ∇v = 2ω.
“livro” — 2007/8/1 — 15:06 — page 94 — #104
94 F´ısica Matem´ atica Arfken • Weber
Figura 2.6: Coordenadas polares planas.
2.4.8 Ache as componentes cil´ındricas circulares da velocidade e da acelerac¸ ˜ ao de uma part´ıcula em
movimento,
v
ρ
= ˙ ρ, a
ρ
= ¨ ρ −ρ ˙ ϕ
2
,
v
ϕ
= ρ ˙ ϕ, a
ϕ
= ρ¨ ϕ + 2˙ ρ ˙ ϕ,
v
z
= ˙ z, a
z
= ¨ z.
Sugest˜ ao:
r(t) = ˆ ρ(t)ρ(t) + ˆ zz(t)
=
_
ˆ xcos ϕ(t) + ˆ ysen ϕ(t)
¸
ρ(t) + ˆ zz(t).
Nota: ˙ ρ = dρ/dt, ¨ ρ = d
2
ρ/dt
2
, e assim por diante.
2.4.9 Resolva a Equac¸ ˜ ao de Laplace, ∇
2
ψ = 0, em coordenadas cil´ındricas para ψ = ψ(ρ).
Resposta: ψ = k ln
ρ
ρ
0
.
2.4.10 Em coordenadas cil´ındricas circulares voltadas para a direita, uma determinada func¸ ˜ ao vetorial ´ e
dada por
V(ρ, ϕ) = ˆ ρV
ρ
(ρ, ϕ) + ˆ ϕV
ϕ
(ρ, ϕ).
Mostre que ∇V tem somente uma componente z. Note que esse resultado valer´ a para qualquer
vetor confinado ` a superf´ıcie q
3
= constante, contanto que cada um dos produtos h
1
V
1
e h
2
V
2
seja
independente de q
3
.
2.4.11 Para o escoamento de um fluido viscoso incompress´ıvel, as equac¸ ˜ oes de Navier-Stokes levam a
−∇
_
v (∇v)
_
=
η
ρ
0

2
(∇v).
Aqui, η ´ e a densidade do fluido. Para escoamento axial em um cano cil´ındrico admitimos que a
velocidade v ´ e
v = ˆ zv(ρ).
Pelo Exemplo 2.4.2,

_
v (∇v)
_
= 0
para essa escolha de v.
“livro” — 2007/8/1 — 15:06 — page 95 — #105
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 95
Mostre que

2
(∇v) = 0
e que essa express˜ ao leva ` a equac¸ ˜ ao diferencial
1
ρ
d

_
ρ
d
2
v

2
_

1
ρ
2
dv

= 0
e que essa express˜ ao ´ e satisfeita por
v = v
0
+a
2
ρ
2
.
2.4.12 Um fio condutor ao longo do eixo z transporta uma corrente I. O potencial vetor magn´ etico
resultante ´ e dado por
A = ˆ z
µI

ln
_
1
ρ
_
.
Mostre que a induc¸ ˜ ao magn´ etica B ´ e dada por
B = ˆ ϕ
µI
2πρ
.
2.4.13 Uma forc¸a ´ e descrita por
F = −ˆ x
y
x
2
+y
2
+ ˆ y
x
x
2
+y
2
.
(a) Expresse F em coordenadas cil´ındricas circulares.
Operando inteiramente em coordenadas cil´ındricas circulares para (b) e (c),
(b) calcule o rotacional de F e
(c) calcule o trabalho realizado por F para percorrer o c´ırculo unit´ ario uma vez em sentido anti-
hor´ ario.
(d) Como vocˆ e concilia os resultados de (b) e (c)?
2.4.14 Uma onda eletromagn´ etica transversal (transverse electromagnetic wave – TEM) em um guia de
onda coaxial tem um campo el´ etrico E = E(ρ, ϕ)e
i(kz−ωt)
e um campo de induc¸ ˜ ao magn´ etica
B = B(ρ, ϕ)e
i(kz−ωt)
. Uma vez que a onda ´ e transversal, nem E nem B tˆ em uma componente z.
Os dois campos satisfazem a equac¸ ˜ ao vetorial de Laplace

2
E(ρ, ϕ) = 0

2
B(ρ, ϕ) = 0.
(a) Mostre que E = ˆ ρE
0
(a/ρ)e
i(kz−ωt)
e B = ˆ ϕB
0
(a/ρ)e
i(kz−ωt)
s˜ ao soluc¸ ˜ oes. Aqui, a ´ e o raio
do condutor interno e E
0
e B
0
s˜ ao amplitudes constantes.
(b) Admitindo um v´ acuo dentro do guia de onda, verifique que as equac¸ ˜ oes de Maxwell s˜ ao
satisfeitas com
B
0
/E
0
= k/ω = µ
0
ε
0
(ω/k) = 1/c.
2.4.15 Um c´ alculo do efeito de pinc¸amento (pinch) magneto-hidrodinˆ amico envolve a avaliac¸ ˜ ao de
(B ∇)B. Se a induc¸ ˜ ao magn´ etica B for considerada B = ˆ ϕB
ϕ
(ρ), mostre que
(B ∇)B = −ˆ ρB
2
ϕ
/ρ.
2.4.16 A velocidade linear de part´ıculas em um corpo r´ıgido que est´ a em rotac¸ ˜ ao com velocidade angular
ω ´ e dada por
v = ˆ ϕρω.
Integre
_
v dλ ao redor de um c´ırculo no plano xy e verifique que
_
v dλ
´ area
= ∇v[
z
.
2.4.17 Um pr´ oton de massa m, carga +e e momento (assint´ otico) p = mv incide sobre um n´ ucleo de carga
+Ze a um parˆ ametro de impacto b. Determine a distˆ ancia de maior aproximac¸ ˜ ao do pr´ oton.
“livro” — 2007/8/1 — 15:06 — page 96 — #106
96 F´ısica Matem´ atica Arfken • Weber
2.5 Coordenadas Polares Esf´ ericas
Designando (q
1
, q
2
, q
3
) por (r, θ, ϕ), vemos que o sistema de coordenadas polares esf´ ericas consiste no seguinte:
1. Esferas concˆ entricas centradas na origem,
r =
_
x
2
+y
2
+z
2
_
1/2
= constante.
2. Cones circulares retos centrados no eixo (polar) z com v´ ertices na origem,
θ = arccos
z
(x
2
+y
2
+z
2
)
1/2
= constante.
3. Semiplanos que passam pelo eixo polar z,
ϕ = arctg
y
x
= constante
Por causa de nossa escolha arbitr´ aria de definic¸ ˜ oes de θ, o ˆ angulo polar, e ϕ, o ˆ angulo azimutal, o eixo z merece
tratamento especial. As equac¸ ˜ oes de transformac¸ ˜ ao correspondentes ` a Equac¸ ˜ ao (2.1) s˜ ao
x = rsen θ cos ϕ, y = rsenθsen ϕ, z = r cos θ, (2.38)
Figura 2.7: Elementos de ´ area em coordenadas polares esf´ ericas.
medindo θ a partir do eixo z positivo e no plano xy a partir do eixo x positivo. As faixas de valores s˜ ao 0 ≤ r < ∞,
0 ≤ θ ≤ π e 0 ≤ ϕ ≤ 2π. Em r = 0, θ e ϕ s˜ ao indefinidos. Por diferenciac¸ ˜ ao da Equac¸ ˜ ao (2.38),
h
1
= h
r
= 1,
h
2
= h
θ
= r, (2.39)
h
3
= h
ϕ
= rsen θ.
Isso d´ a um elemento de linha
dr = ˆr dr +
ˆ
θr dθ + ˆ ϕrsen θ dϕ,
portanto
ds
2
= dr dr = dr
2
+r
2

2
+r
2
sen
2
θ dϕ
2
,
“livro” — 2007/8/1 — 15:06 — page 97 — #107
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 97
e as coordenadas s˜ ao obviamente ortogonais. Nesse sistema coordenado esf´ erico, o elemento de ´ area (para
r = constante) ´ e
dA = dσ
θϕ
= r
2
sen θ dθ dϕ, (2.40)
a ´ area clara, n˜ ao-sombreada, na Figura 2.7. Integrando sobre o azimute ϕ, constatamos que o elemento de ´ area se
transforma no anel de largura dθ,
dA
θ
= 2πr
2
sen θ dθ. (2.41)
Essa forma aparecer´ a repetidas vezes em problemas em coordenadas polares esf´ ericas com simetria azimutal, tal
como a dispers˜ ao de um feixe de part´ıculas n˜ ao-polarizado. Por definic¸ ˜ ao de radianos s´ olidos, ou estereorradianos,
um elemento de ˆ angulo s´ olido dΩ ´ e dado por
dΩ =
dA
r
2
= sen θ dθ dϕ. (2.42)
Figura 2.8: Coordenadas polares esf´ ericas.
Integrando sobre toda a superf´ıcie, obtemos
_
dΩ = 4π.
Pela Equac¸ ˜ ao (2.11) o elemento de volume ´ e
dτ = r
2
drsen θ dθ dϕ = r
2
dr dΩ. (2.43)
Os vetores unit´ arios em coordenadas polares esf´ ericas s˜ ao mostrados na Figura 2.8.
´
E preciso salientar que a direc¸ ˜ ao dos vetores unit´ arios ˆr,
ˆ
θ e ˆ ϕvaria ` a medida que os ˆ angulos θ e ϕvariam.
Especificamente, as derivadas θ e ϕ desses vetores unit´ arios em coordenadas polares esf´ ericas n˜ ao desaparecem
(Exerc´ıcio 2.5.2). Quando diferenciamos vetores em um sistema polar esf´ erico (ou em qualquer sistema n˜ ao-
cartesiano), essa variac¸ ˜ ao dos vetores unit´ arios com a posic¸ ˜ ao n˜ ao deve ser desprezada. Em termos dos vetores
unit´ arios cartesianos de direc¸ ˜ ao fixa ˆ x, ˆ y e ˆ z (cf. Equac¸ ˜ ao (2.38)),
ˆr = ˆ xsen θ cos ϕ + ˆ ysen θsen ϕ + ˆ z cos θ,
ˆ
θ = ˆ xcos θ cos ϕ + ˆ y cos θsen ϕ −ˆ zsen θ =
∂ˆr
∂θ
, (2.44)
ˆ ϕ = −ˆ xsen ϕ + ˆ y cos ϕ =
1
sen θ
∂ˆr
∂ϕ
,
“livro” — 2007/8/1 — 15:06 — page 98 — #108
98 F´ısica Matem´ atica Arfken • Weber
que resultam de
0 =
∂ˆr
2
∂θ
= 2ˆr
∂ˆr
∂θ
, 0 =
∂ˆr
2
∂ϕ
= 2ˆr
∂ˆr
∂ϕ
.
Note que o Exerc´ıcio 2.5.5 d´ a a transformac¸ ˜ ao inversa e que um determinado vetor agora pode ser expresso de
v´ arios modos diferentes (por´ em equivalentes). Por exemplo, o vetor posic¸ ˜ ao r pode ser escrito da forma
r = ˆrr = ˆr
_
x
2
+y
2
+z
2
_
1/2
= ˆ xx + ˆ yy + ˆ zz
= ˆ xrsen θ cos ϕ + ˆ yrsen θsen ϕ + ˆ zr cos θ. (2.45)
Selecione a forma que for mais ´ util para seu problema particular.
Pela Sec¸ ˜ ao 2.2, denominando os vetores unit´ arios coordenados curvil´ıneos ˆ q
1
, ˆ q
2
e ˆ q
3
como ˆr,
ˆ
θ e ˆ ϕ, temos
∇ψ = ˆr
∂ψ
∂r
+
ˆ
θ
1
r
∂ψ
∂θ
+ ˆ ϕ
1
rsen θ
∂ψ
∂ϕ
, (2.46)
∇ V =
1
r
2
sen θ
_
sen θ

∂r
(r
2
V
r
) +r

∂θ
(sen θV
θ
) +r
∂V
ϕ
∂ϕ
_
, (2.47)
∇ ∇ψ =
1
r
2
sen θ
_
sen θ

∂r
_
r
2
∂ψ
∂r
_
+

∂θ
_
sen θ
∂ψ
∂θ
_
+
1
sen θ

2
ψ
∂ϕ
2
_
, (2.48)
∇V =
1
r
2
sen θ
¸
¸
¸
¸
¸
¸
¸
¸
¸
ˆr r
ˆ
θ rsen θˆ ϕ

∂r

∂θ

∂ϕ
V
r
rV
θ
rsen θV
ϕ
¸
¸
¸
¸
¸
¸
¸
¸
¸
. (2.49)
H´ a ocasi˜ oes em que precisamos do laplaciano vetorial ∇
2
Vem coordenadas polares esf´ ericas. O melhor modo
de obtˆ e-lo ´ e usar o vetor identidade (Equac¸ ˜ ao (1.85)) do Cap´ıtulo 1. Como referˆ encia

2
V[
r
=
_

2
r
2
+
2
r

∂r
+

2
∂r
2
+
cos θ
r
2
sen θ

∂θ
+
1
r
2

2
∂θ
2
+
1
r
2
sen
2
θ

2
∂ϕ
2
_
V
r
+
_

2
r
2

∂θ

2 cos θ
r
2
sen θ
_
V
θ
+
_

2
r
2
sen θ

∂ϕ
_
V
ϕ
= ∇
2
V
r

2
r
2
V
r

2
r
2
∂V
θ
∂θ

2 cos θ
r
2
sen θ
V
θ

2
r
2
sen θ
∂V
ϕ
∂ϕ
, (2.50)

2
V[
θ
= ∇
2
V
θ

1
r
2
sen
2
θ
V
θ
+
2
r
2
∂V
r
∂θ

2 cos θ
r
2
sen
2
θ
∂V
ϕ
∂ϕ
, (2.51)

2
V[
ϕ
= ∇
2
V
ϕ

1
r
2
sen
2
θ
V
ϕ
+
2
r
2
sen θ
∂V
r
∂ϕ
+
2 cos θ
r
2
sen
2
θ
∂V
θ
∂ϕ
. (2.52)
N˜ ao se pode negar que essas express˜ oes para as componentes de ∇
2
Vs˜ ao confusas, mas ` as vezes s˜ ao necess´ arias.
Exemplo 2.5.1 ∇, ∇ , ∇ PARA UMA FORC¸ A CENTRAL
Usando as Equac¸ ˜ oes (2.46) a (2.49 ), podemos reproduzir por inspec¸ ˜ ao alguns dos resultados derivados no
Cap´ıtulo 1 pela trabalhosa aplicac¸ ˜ ao de coordenadas cartesianas.
Pela Equac¸ ˜ ao (2.46),
∇f(r) = ˆr
df
dr
,
∇r
n
= ˆrnr
n−1
.
(2.53)
Para o potencial de Coulomb V = Ze/(4πε
0
r), o campo el´ etrico ´ e E = −∇V =
Ze
4πε0r
2
ˆr.
Pela Equac¸ ˜ ao (2.47),
∇ ˆrf(r) =
2
r
f(r) +
df
dr
,
∇ ˆrr
n
= (n + 2)r
n−1
.
(2.54)
“livro” — 2007/8/1 — 15:06 — page 99 — #109
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 99
Para r > 0, a densidade de carga do campo el´ etrico do potencial de Coulomb ´ e ρ = ∇ E =
Ze
4πε0

ˆr
r
2
= 0
porque n = −2.
Pela Equac¸ ˜ ao (2.48),

2
f(r) =
2
r
df
dr
+
d
2
f
dr
2
, (2.55)

2
r
n
= n(n + 1)r
n−2
, (2.56)
em contraste com a derivada de segunda ordem radial ordin´ aria de r
n
que envolve n −1 em vez de n + 1.
Por fim, pela Equac¸ ˜ ao (2.49),
∇ˆrf(r) = 0. (2.57)

Exemplo 2.5.2 POTENCIAL VETOR MAGN´ ETICO
O c´ alculo do potencial vetor magn´ etico de um ´ unico circuito de corrente no plano xy usa a lei de Oersted,
∇H = J, em conjunc¸ ˜ ao com µ
0
H = B = ∇A(veja os Exemplos 1.9.2 e 1.12.1) e envolve a avaliac¸ ˜ ao de
µ
0
J = ∇
_
∇ ˆ ϕA
ϕ
(r, θ)
¸
.
Em coordenadas polares esf´ ericas, essa express˜ ao se reduz a
µ
0
J = ∇
1
r
2
sen θ
¸
¸
¸
¸
¸
¸
¸
¸
¸
ˆr r
ˆ
θ rsen θˆ ϕ

∂r

∂θ

∂ϕ
0 0 rsen θA
ϕ
(r, θ)
¸
¸
¸
¸
¸
¸
¸
¸
¸
= ∇
1
r
2
sen θ
_
ˆr

∂θ
(rsen θA
ϕ
) −r
ˆ
θ

∂r
(rsen θA
ϕ
)
_
.
Tomando o rotacional uma segunda vez, obtemos
µ
0
J =
1
r
2
sen θ
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
ˆr r
ˆ
θ rsen θˆ ϕ

∂r

∂θ

∂ϕ
1
r
2
sen θ

∂θ
(rsen θA
ϕ
) −
1
rsen θ

∂r
(rsen θA
ϕ
) 0
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
Expandindo o determinante ao longo da linha superior, temos
µ
0
J = −ˆ ϕ
_
1
r

2
∂r
2
(rA
ϕ
) +
1
r
2

∂θ
_
1
sen θ

∂θ
(sen θA
ϕ
)
__
= −ˆ ϕ
_

2
A
ϕ
(r, θ) −
1
r
2
sen
2
θ
A
ϕ
(r, θ)
_
. (2.58)

Exerc´ıcios
2.5.1 Expresse os vetores unit´ arios polares esf´ ericos em vetores unit´ arios cartesianos.
Resposta: ˆr = ˆ xsen θ cos ϕ + ˆ ysen θsen ϕ + ˆ z cos θ,
ˆ
θ = ˆ xcos θ cos ϕ + ˆ y cos θsen ϕ −ˆ zsen θ,
ˆ ϕ = −ˆ xsen ϕ + ˆ y cos ϕ.
2.5.2 (a) Pelos resultados do Exerc´ıcio 2.5.1, calcule as derivadas parciais ˆr,
ˆ
θ e ˆ ϕ em relac¸ ˜ ao a r, θ e ϕ.
(b) Com ∇dado por
ˆr

∂r
+
ˆ
θ
1
r

∂θ
+ ˆ ϕ
1
rsen θ

∂ϕ
(maior taxa de mudanc¸a espacial), use os resultados da parte (a) para calcular ∇ ∇ψ. Essa ´ e
uma derivac¸ ˜ ao alternativa do laplaciano.
Nota: As derivadas do ∇ da esquerda operam sobre os vetores unit´ arios do ∇ antes da
multiplicac¸ ˜ ao escalar dos vetores unit´ arios.
“livro” — 2007/8/1 — 15:06 — page 100 — #110
100 F´ısica Matem´ atica Arfken • Weber
2.5.3 Um corpo r´ıgido est´ a em rotac¸ ˜ ao ao redor de um eixo fixo com uma velocidade angular constante
ω. Admita ω ao longo do eixo z. Usando coordenadas polares esf´ ericas,
(a) Calcule
v = ω r.
(b) Calcule
∇v.
Resposta: (a) v = ˆ ϕωrsen θ,
(b) ∇v = 2ω.
2.5.4 O sistema coordenado (x, y, z) ´ e rotacionado atrav´ es de um ˆ angulo Φ em sentido anti-hor´ ario
ao redor de um eixo definido pelo vetor unit´ ario n no sistema (x
t
, y
t
, z
t
). Em termos das novas
coordenadas, o vetor raio se torna
r
t
= r cos Φ+r nsen Φ+n(n r)(1 −cos Φ).
(a) Derive essa express˜ ao partindo de considerac¸ ˜ oes geom´ etricas.
(b) Mostre que ela se reduz, como esperado, n = ˆ z. A resposta, em forma de matriz, aparece na
Equac¸ ˜ ao (3.90).
(c) Verifique que r
t 2
= r
2
.
2.5.5 Resolvas os vetores unit´ arios cartesianos para suas componentes polares esf´ ericas:
ˆ x = ˆrsen θ cos ϕ +
ˆ
θ cos θ cos ϕ − ˆ ϕsen ϕ,
ˆ y = ˆrsen θsen ϕ +
ˆ
θ cos θsen ϕ + ˆ ϕcos ϕ,
ˆ z = ˆr cos θ −
ˆ
θsen θ.
2.5.6 A direc¸ ˜ ao de um vetor ´ e dada pelos ˆ angulos θ
1
e ϕ
1
. Para um segundo vetor, os ˆ angulos
correspondentes s˜ ao θ
2
e ϕ
2
. Mostre que o co-seno do ˆ angulo inclu´ıdo γ ´ e dado por
cos γ = cos θ
1
cos θ
2
+ sen θ
1
sen θ
2
cos(ϕ
1
−ϕ
2
).
Veja Figura 12.15.
2.5.7 Um certo vetor V n˜ ao tem nenhuma componente radial. Seu rotacional n˜ ao tem nenhuma
componente tangencial. O que isso implica no que se refere ` a dependˆ encia radial das componentes
tangenciais de V?
2.5.8 A f´ısica moderna d´ a grande realce ` a propriedade de paridade — quer uma quantidade permanec¸a
invariante ou mude de sinal sob uma invers˜ ao do sistema coordenado. Em coordenadas cartesianas
isso quer dizer x →−x, y →−y e z →−z.
(a) Mostre que a invers˜ ao (reflex˜ ao passando pela origem) de um ponto (r, θ, ϕ) relativa aos eixos
fixos x, y, z consiste na transformac¸ ˜ ao
r →r, θ →π −θ, ϕ →ϕ ±π.
(b) Mostre que ˆr e ˆ ϕ tˆ em paridade ´ımpar (revers˜ ao de direc¸ ˜ ao) e que
ˆ
θ tem paridade par.
2.5.9 Sendo Aum vetor qualquer,
A ∇r = A.
(a) Verifique esse resultado em coordenadas cartesianas.
(b) Verifique esse resultado usando coordenadas polares esf´ ericas. (A Equac¸ ˜ ao (2.46) d´ a ∇.)
“livro” — 2007/8/1 — 15:06 — page 101 — #111
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 101
2.5.10 Ache as componentes coordenadas esf´ ericas da velocidade e da acelerac¸ ˜ ao de uma part´ıcula em
movimento:
v
r
= ˙ r,
v
θ
= r
˙
θ,
v
ϕ
= rsen θ ˙ ϕ,
a
r
= ¨ r −r
˙
θ
2
−rsen
2
θ ˙ ϕ
2
,
a
θ
= r
¨
θ + 2 ˙ r
˙
θ −rsen θ cos θ ˙ ϕ
2
,
a
ϕ
= rsen θ¨ ϕ + 2 ˙ rsen θ ˙ ϕ + 2r cos θ
˙
θ ˙ ϕ.
Sugest˜ ao:
r(t) = ˆr(t)r(t)
=
_
ˆ xsen θ(t) cos ϕ(t) + ˆ ysen θ(t)sen ϕ(t) + ˆ z cos θ(t)
¸
r(t).
Nota: Usando as t´ ecnicas lagrangianas da Sec¸ ˜ ao 17.3, podemos obter esses resultados de um
modo mais elegante. O ponto em ˙ r,
˙
θ, ˙ ϕ significa derivada em relac¸ ˜ ao ao tempo, ˙ r = dr/dt,
˙
θ =
dθ/dt, ˙ ϕ = dϕ/dt. Newton ´ e que deu origem a essa notac¸ ˜ ao.
2.5.11 Uma part´ıcula m entra em movimento reagindo a uma forc¸a central conforme a segunda lei de
Newton
m¨r = ˆrf(r).
Mostre que r ˙ r = c, uma constante, e que a interpretac¸ ˜ ao geom´ etrica dessa express˜ ao leva ` a
segunda lei de Kepler.
2.5.12 Expresse ∂/∂x, ∂/∂y, ∂/∂z em coordenadas polares esf´ ericas.
RESP.

∂x
= sen θ cos ϕ

∂r
+ cos θ cos ϕ
1
r

∂θ

sen ϕ
rsen θ

∂ϕ
,
[10pt]

∂y
= sen θsen ϕ

∂r
+ cos θsen ϕ
1
r

∂θ
+
cos ϕ
rsen θ

∂ϕ
,
[10pt]

∂z
= cos θ

∂r
−sen θ
1
r

∂θ
.
Sugest˜ ao: Iguale ∇
xyz
e ∇
rθϕ
.
2.5.13 Pelo Exerc´ıcio 2.5.12 mostre que
−i
_
x

∂y
−y

∂x
_
= −i

∂ϕ
.
Este ´ e o operador da mecˆ anica quˆ antica correspondente ` a componente z do momento angular
orbital.
2.5.14 Definido o operador do momento angular da mecˆ anica quˆ antica como L = −i(r∇), mostre que
(a) L
x
+iL
y
= e

_

∂θ
+icotgθ

∂ϕ
_
,
(b) L
x
−iL
y
= −e
−iϕ
_

∂θ
−icotgθ

∂ϕ
_
.
(Esses s˜ ao os operadores de levantamento e abaixamento da Sec¸ ˜ ao 4.3.)
2.5.15 Verifique que L L = iL em coordenadas polares esf´ ericas. L = −i(r ∇), o operador de
momento angular orbital da mecˆ anica quˆ antica.
Sugest˜ ao: Use coordenadas polares esf´ ericas para L mas componentes cartesianas para o produto
vetorial.
2.5.16 (a) Pela Equac¸ ˜ ao (2.46) mostre que
L = −i(r ∇) = i
_
ˆ
θ
1
sen θ

∂ϕ
− ˆ ϕ

∂θ
_
.
“livro” — 2007/8/1 — 15:06 — page 102 — #112
102 F´ısica Matem´ atica Arfken • Weber
(b) Resolva
ˆ
θ e ˆ ϕ para componentes cartesianas e determine L
x
, L
y
e L
z
em termos de θ, ϕ e suas
derivadas.
(c) Por L
2
= L
2
x
+L
2
y
+L
2
z
, mostre que
L
2
= −
1
sen θ

∂θ
_
sen θ

∂θ
_

1
sen
2
θ

2
∂ϕ
2
= −r
2

2
+

∂r
_
r
2

∂r
_
.
Esta ´ ultima identidade ´ e ´ util para relacionar o momento angular orbital e a equac¸ ˜ ao diferencial de
Legendre, Exerc´ıcio 9.3.8.
2.5.17 Sendo L = −ir ∇, verifique as identidades de operador
(a) ∇= ˆr

∂r
−i
r L
r
2
,
(b) r∇
2
−∇
_
1 +r

∂r
_
= i∇L.
2.5.18 Mostre que as trˆ es formas seguintes (coordenadas esf´ ericas) de ∇
2
ψ(r) s˜ ao equivalentes:
(a)
1
r
2
d
dr
_
r
2
dψ(r)
dr
_
; (b)
1
r
d
2
dr
2
_
rψ(r)
¸
; (c)
d
2
ψ(r)
dr
2
+
2
r
dψ(r)
dr
.
A segunda forma ´ e particularmente conveniente para estabelecer a correspondˆ encia entre as
descric¸ ˜ oes polares esf´ ericas e as descric¸ ˜ oes cartesianas de um problema.
2.5.19 Um modelo da coroa solar admite que a equac¸ ˜ ao de estado est´ avel de fluxo de calor,
∇ (k∇T) = 0,
´ e satisfeita. Aqui, k, a condutividade t´ ermica ´ e proporcional a T
5/2
. Admitindo que a temperatura
T ´ e proporcional a r
n
, mostre que a equac¸ ˜ ao de fluxo de calor ´ e satisfeita por T = T
0
(r
0
/r)
2/7
.
2.5.20 Um certo campo de forc¸a ´ e dado por
F = ˆr
2P cos θ
r
3
+
ˆ
θ
P
r
3
sen θ, r ≥ P/2
(em coordenadas polares esf´ ericas).
(a) Examine ∇F para ver se existe um potencial.
(b) Calcule
_
F dλ para um c´ırculo unit´ ario no plano θ = π/2. O que isso indica em relac¸ ˜ ao ` a
forc¸a ser conservativa ou n˜ ao-conservativa?
(c) Se vocˆ e acredita que F pode ser descrita por F = −∇ψ, ache ψ. Caso contr´ ario, afirme,
simplesmente, que n˜ ao existe nenhum potencial aceit´ avel.
2.5.21 (a) Mostre que A = −ˆ ϕcotgθ/r ´ e uma soluc¸ ˜ ao de ∇A = ˆr/r
2
.
(b) Mostre que essa soluc¸ ˜ ao em coordenadas polares esf´ ericas est´ a de acordo com a soluc¸ ˜ ao dada
para o Exerc´ıcio 1.13.6:
A = ˆ x
yz
r(x
2
+y
2
)
− ˆ y
xz
r(x
2
+y
2
)
.
Note que a soluc¸ ˜ ao diverge para θ = 0, π correspondendo a x, y = 0.
(c) Por fim, mostre que A = −
ˆ
θϕsen θ/r ´ e uma soluc¸ ˜ ao. Note que, embora esta soluc¸ ˜ ao n˜ ao
divirja (r ,= 0), ela n˜ ao ´ e mais de valor ´ unico para todos os poss´ıveis ˆ angulos azimutais.
2.5.22 Um potencial vetor magn´ etico ´ e dado por
A =
µ
0

mr
r
3
.
Mostre que isso leva ` a induc¸ ˜ ao magn´ etica Bde um dipolo magn´ etico pontual com momento dipolar
m.
“livro” — 2007/8/1 — 15:06 — page 103 — #113
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 103
RESP. para m = ˆ zm,
∇A = ˆr
µ
0

2mcos θ
r
3
+
ˆ
θ
µ
0

msen θ
r
3
.
Compare com as Equac¸ ˜ oes (12.133) e (12.134)
2.5.23 Quando as distˆ ancias em relac¸ ˜ ao ` a fonte s˜ ao grandes, a radiac¸ ˜ ao dipolar el´ etrica tem campos
E = a
E
sen θ
e
i(kr−ωt)
r
ˆ
θ, B = a
B
sen θ
e
i(kr−ωt)
r
ˆ ϕ.
Mostre que as equac¸ ˜ oes de Maxwell
∇E = −
∂B
∂t
e ∇B = ε
0
µ
0
∂E
∂t
s˜ ao satisfeitas se tomarmos
a
E
a
B
=
ω
k
= c = (ε
0
µ
0
)
−1/2
.
Sugest˜ ao: Uma vez que r ´ e grande, termos de ordem r
−2
podem ser descartados.
2.5.24 O potencial vetor magn´ etico para uma casca esf´ erica girante uniformemente carregada ´ e
A =
_
¸
_
¸
_
ˆ ϕ
µ
0
a
4
σω
3

sen θ
r
2
, r > a
ˆ ϕ
µ
0
aσω
3
r cos θ, r < a.
(a = raio da casca esf´ erica, σ = densidade superficial de carga e ω = velocidade angular). Ache a
induc¸ ˜ ao magn´ etica B = ∇A.
RESP. B
r
(r, θ) =

0
a
4
σω
3

cos θ
r
3
, r > a,
B
θ
(r, θ) =
µ
0
a
4
σω
3

sen θ
r
3
, r > a,
B = ˆ z

0
aσω
3
, r < a.
2.5.25 (a) Explique por que ∇
2
em coordenadas polares planas resulta de ∇
2
em coordenadas cil´ındricas
circulares com z = constante.
(b) Explique por que usar ∇
2
em coordenadas polares esf´ ericas e restringir θ a π/2 n˜ ao leva ` a
forma polar plana de ∇.
Nota:

2
(ρ, ϕ) =

2
∂ρ
2
+
1
ρ

∂ρ
+
1
ρ
2

2
∂ϕ
2
.
2.6 An´ alise Tensorial
Introduc¸ ˜ ao, Definic¸ ˜ oes
Tensores s˜ ao importantes em muitas ´ areas da f´ısica, incluindo relatividade geral e eletrodinˆ amica. Escalares e
vetores s˜ ao casos especiais de tensores. No Cap´ıtulo 1, uma quantidade que n˜ ao mudava sob rotac¸ ˜ oes do sistema
de coordenadas em um espac¸o tridimensional, uma invariante, era denominada escalar. Um escalar ´ e especificado
por um n´ umero real e ´ e um tensor de ordem 0. Uma quantidade cujas componentes se transformavam sob rotac¸ ˜ oes
como as da distˆ ancia de um ponto a partir de uma origem escolhida (Equac¸ ˜ ao (1.9), Sec¸ ˜ ao 1.2) era denominada
vetor. A transformac¸ ˜ ao das componentes do vetor sob uma rotac¸ ˜ ao das coordenadas preserva o vetor como uma
entidade geom´ etrica (tal como uma seta no espac¸o), independentemente da orientac¸ ˜ ao da estrutura de referˆ encia.
Em um espac¸o tridimensional, um vetor ´ e especificado por 3 = 3
1
n´ umeros reais, por exemplo, suas componentes
cartesianas, e ´ e um tensor de ordem 1. Um tensor de ordem n tem 3
n
componentes que se transformam de
uma maneira definida.
5
Essa filosofia de transformac¸ ˜ ao ´ e de crucial importˆ ancia para a an´ alise tensorial e obedece
ao conceito de vetor e de espac¸o vetorial (ou linear) dos matem´ aticos e ` a noc¸ ˜ ao dos f´ısicos de que observ´ aveis
f´ısicos n˜ ao dependem da escolha de estruturas coordenadas. H´ a uma base f´ısica para tal filosofia: descrevemos o
5
Em um espac¸o N dimensional, um tensor de ordem n tem N
n
componentes.
“livro” — 2007/8/1 — 15:06 — page 104 — #114
104 F´ısica Matem´ atica Arfken • Weber
mundo f´ısico pela matem´ atica, mas quaisquer previs˜ oes f´ısicas que fazemos devem ser independentes de nossas
convenc¸ ˜ oes matem´ aticas, tal como um sistema de coordenadas com sua origem arbitr´ aria e orientac¸ ˜ ao de seus
eixos.
H´ a uma poss´ıvel ambig¨ uidade na lei de transformac¸ ˜ ao de um vetor
A
t
i
=

j
a
ij
A
j
, (2.59)
na qual a
ij
´ e o co-seno do ˆ angulo entre o eixo x
t
i
e o eixo x
j
. Se partirmos de um vetor distˆ ancia diferencial dr,
ent˜ ao, tomando dx
t
i
como uma func¸ ˜ ao das vari´ aveis “sem linha”,
dx
t
i
=

j
∂x
t
i
∂x
j
dx
j
(2.60)
por diferenciac¸ ˜ ao parcial. Se estabelecermos
a
ij
=
∂x
t
i
∂x
j
, (2.61)
as Equac¸ ˜ oes (2.59) e (2.60) s˜ ao consistentes. Qualquer conjunto de quantidades A
j
, transformando-se de acordo
com
A
t i
=

j
∂x
t
i
∂x
j
A
j
, (2.62a)
´ e definido como um vetor contravariante cujos ´ındices escrevemos como ´ındices superiores (sobrescritos); isso
inclui o vetor de coordenadas cartesianas x
i
= x
i
de agora em diante.
Contudo, j´ a encontramos um tipo ligeiramente diferente de transformac¸ ˜ ao vetorial. O gradiente de um escalar
∇ϕ, definido por
∇ϕ = ˆ x
∂ϕ
∂x
1
+ ˆ y
∂ϕ
∂x
2
+ ˆ z
∂ϕ
∂x
3
, (2.63)
usando x
1
, x
2
, x
3
para x, y, z, se transforma em
∂ϕ
t
∂x
t i
=

j
∂ϕ
∂x
j
∂x
j
∂x
t i
, (2.64)
usando ϕ = ϕ(x, y, z) = ϕ(x
t
, y
t
, z
t
) = ϕ
t
, ϕ definido como uma quantidade escalar. Note que isso ´ e diferente
da Equac¸ ˜ ao (2.62) considerando que temos ∂x
j
/∂x
t i
em vez de ∂x
t i
/∂x
j
. A Equac¸ ˜ ao (2.64) ´ e tomada como a
definic¸ ˜ ao de um vetor covariante com o gradiente como prot´ otipo. O covariante an´ alogo da Equac¸ ˜ ao (2.62a) ´ e
A
t
i
=

j
∂x
j
∂x
t i
A
j
. (2.62b)
Somente em coordenadas cartesianas ´ e
∂x
j
∂x
t i
=
∂x
t i
∂x
j
= a
ij
, (2.65)
de modo que n˜ ao h´ a nenhuma diferenc¸a entre transformac¸ ˜ oes contravariantes e covariantes. Em outros sistemas, a
Equac¸ ˜ ao (2.65) em geral n˜ ao se aplica, e a distinc¸ ˜ ao entre contravariante e covariante ´ e real e deve ser observada.
Isso ´ e de extrema importˆ ancia no espac¸o riemanniano curvo da relatividade geral.
No restante desta sec¸ ˜ ao as componentes de qualquer vetor contravariante s˜ ao denotadas por um ´ındice
superior (sobrescrito), A
i
, enquanto um ´ındice inferior (subscrito) ´ e usado para as componentes de um vetor
covariante A
i
.
6
6
Isso significa que as coordenadas (x, y, z) s˜ ao escritas (x
1
, x
2
, x
3
), uma vez que r se transforma em um vetor contravariante. A
ambig¨ uidade de ter x
2
representando x ao quadrado e tamb´ em y ´ e o prec¸o que pagamos.
“livro” — 2007/8/1 — 15:06 — page 105 — #115
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 105
Definic¸ ˜ ao de Tensores de Ordem 2
Agora passamos a definir tensores contravariantes, mistos e covariantes de ordem 2 pelas seguintes equac¸ ˜ oes
para suas componentes sob transformac¸ ˜ oes de coordenadas:
A
tij
=

kl
∂x
t i
∂x
k
∂x
t j
∂x
l
A
kl
,
B
t i
j
=

kl
∂x
t i
∂x
k
∂x
l
∂x
t j
B
k
l
, (2.66)
C
t
ij
=

kl
∂x
k
∂x
t i
∂x
l
∂x
t j
C
kl
.
´
E claro que a ordem segue o n´ umero de derivadas parciais (ou co-senos direcionais) na definic¸ ˜ ao: 0 para um escalar,
1 para um vetor, 2 para um tensor de ordem 2, e assim por diante. Cada ´ındice (superior ou inferior) abrange o
n´ umero de dimens˜ oes do espac¸o. O n´ umero de ´ındices (igual ` a ordem do tensor) ´ e independente das dimens˜ oes do
espac¸o. Vemos que A
kl
´ e contravariante em relac¸ ˜ ao a ambos os ´ındices, C
kl
´ e covariante em relac¸ ˜ ao a ambos os
´ındices e B
k
l
se transforma de modo contravariante em relac¸ ˜ ao ao primeiro ´ındice k, mas de modo covariante em
relac¸ ˜ ao ao segundo ´ındice l. Mais uma vez, se estivermos usando coordenadas cartesianas, todas as trˆ es formas dos
tensores contravariantes, mistos e covariantes de segunda ordem s˜ ao as mesmas.
Assim como as componentes de um vetor, as leis de transformac¸ ˜ ao para as componentes de um tensor, Equac¸ ˜ ao
(2.66), resultam em entidades (e propriedades) que s˜ ao independentes da escolha da estrutura de referˆ encia.
´
E
isso que torna a an´ alise tensorial importante em f´ısica. A independˆ encia em relac¸ ˜ ao ` a estrutura de referˆ encia
(invariˆ ancia) ´ e ideal para expressar e investigar leis f´ısicas universais.
O tensor de segunda ordem A (componentes A
kl
) pode ser convenientemente representado escrevendo suas
componentes em um arranjo quadrado (3 3, se estivermos em espac¸o tridimensional):
A =
_
_
A
11
A
12
A
13
A
21
A
22
A
23
A
31
A
32
A
33
_
_
. (2.67)
Isso n˜ ao significa que qualquer arranjo quadrado de n´ umeros ou func¸ ˜ oes forme um tensor. A condic¸ ˜ ao essencial ´ e
que as componentes se transformem segundo a Equac¸ ˜ ao (2.66).
No contexto da an´ alise matricial, as equac¸ ˜ oes de transformac¸ ˜ ao precedentes tornam-se (para coordenadas
cartesianas) uma transformac¸ ˜ ao de similaridade ortogonal; veja a Sec¸ ˜ ao 3.3. Na Sec¸ ˜ ao 3.5 desenvolvemos uma
interpretac¸ ˜ ao geom´ etrica de um tensor de segunda ordem (tensor de in´ ercia).
Resumindo, tensores s˜ ao sistemas de componentes organizados por um ou mais ´ındices que se transformam
de acordo com regras espec´ıficas sob um conjunto de transformac¸ ˜ oes. O n´ umero de ´ındices ´ e denominado ordem
do tensor. Se as transformac¸ ˜ oes forem rotac¸ ˜ oes de coordenadas em um espac¸o tridimensional, ent˜ ao a an´ alise
tensorial equivale ao que fizemos nas sec¸ ˜ oes sobre coordenadas curvil´ıneas e coordenadas cartesianas no Cap´ıtulo
1. Nas quatro dimens˜ oes do espac¸o-tempo de Minkowski, as transformac¸ ˜ oes s˜ ao transformac¸ ˜ oes de Lorentz, e
tensores de ordem 1 s˜ ao denominados quadrivetores.
Adic¸ ˜ ao e Subtrac¸ ˜ ao de Tensores
A adic¸ ˜ ao e a subtrac¸ ˜ ao de tensores s˜ ao definidas em termos dos elementos individuais, exatamente como para
vetores. Se
A +B = C, (2.68)
ent˜ ao
A
ij
+B
ij
= C
ij
.
´
E claro que A e B devem ser tensores da mesma ordem e ambos expressos em espac¸o com o mesmo n´ umero de
dimens˜ oes.
Convenc¸ ˜ ao de Soma
Em an´ alise tensorial costuma-se adotar uma convenc¸ ˜ ao para a soma, que ´ e colocar a Equac¸ ˜ ao (2.66) e as equac¸ ˜ oes
tensoriais subseq¨ uentes sob uma forma mais compacta. Contanto que estejamos distinguindo entre contravariˆ ancia
“livro” — 2007/8/1 — 15:06 — page 106 — #116
106 F´ısica Matem´ atica Arfken • Weber
e covariˆ ancia, vamos concordar que, quando um ´ındice aparecer de um lado de uma equac¸ ˜ ao, uma vez como
´ındice superior e outra vez como ´ındice inferior (exceto para as coordenadas em que ambos s˜ ao ´ındices inferiores),
automaticamente somamos sobre aquele ´ındice. Ent˜ ao podemos escrever a segunda express˜ ao na Equac¸ ˜ ao (2.66)
como
B
t i
j
=
∂x
t i
∂x
k
∂x
l
∂x
t j
B
k
l
, (2.69)
subentendendo-se que a soma do lado direito ´ e executada sobre k e l. Essa ´ e a convenc¸ ˜ ao da soma de Einstein.
7
O
´ındice i ´ e superior porque est´ a associado com o contravariante x
t i
; da mesma forma, j ´ e um ´ındice inferior porque
est´ a relacionado com o gradiente covariante.
Para ilustrar a utilizac¸ ˜ ao da convenc¸ ˜ ao da soma e algumas das t´ ecnicas de an´ alise tensorial, vamos mostrar que
o nosso conhecido delta de Kronecker, δ
kl
, ´ e na realidade um tensor misto de ordem 2, δ
k
l
.
8
A quest˜ ao ´ e: δ
k
l
se
transforma de acordo com a Equac¸ ˜ ao (2.66)? Este ´ e nosso crit´ erio para cham´ a-lo de tensor. Usando a convenc¸ ˜ ao
de soma, temos,
δ
k
l
∂x
t i
∂x
k
∂x
l
∂x
t j
=
∂x
t i
∂x
k
∂x
k
∂x
t j
, (2.70)
pela definic¸ ˜ ao do delta de Kronecker. Agora,
∂x
t i
∂x
k
∂x
k
∂x
t j
=
∂x
t i
∂x
t j
, (2.71)
por diferenciac¸ ˜ ao parcial do lado direito (regra da cadeia). Contudo, x
t i
e x
t j
s˜ ao coordenadas independentes e,
por conseguinte, a variac¸ ˜ ao de uma delas em relac¸ ˜ ao ` a outra deve ser zero se elas forem diferentes, unidade ou
coincidirem; isto ´ e,
∂x
t i
∂x
t j
= δ
t i
j
. (2.72)
Por conseq¨ uˆ encia,
δ
t i
j
=
∂x
t i
∂x
k
∂x
l
∂x
t j
δ
k
l
,
mostrando que os δ
k
l
s˜ ao, de fato, as componentes de um tensor misto de segunda ordem. Note que esse resultado
´ e independente do n´ umero de dimens˜ oes de nosso espac¸o. A raz˜ ao para o ´ındice superior i e o ´ındice inferior j ´ e a
mesma que na Equac¸ ˜ ao (2.69). O delta de Kronecker tem mais uma propriedade interessante. Ele tem as mesmas
componentes em todos os nossos sistemas coordenados rotacionados e, portanto, ´ e denominado isotr´ opico. Na
Sec¸ ˜ ao 2.9 encontraremos um tensor isotr´ opico de terceira ordem e trˆ es tensores isotr´ opicos de quarta ordem. N˜ ao
existe nenhum tensor (vetor) isotr´ opico de primeira ordem.
Simetria – Anti-simetria
Aordemna qual os ´ındices aparecememnossa descric¸ ˜ ao de umtensor ´ e importante. Emgeral, A
mn
´ e independente
de A
nm
, mas h´ a alguns casos de especial interesse. Se, para todos m e n,
A
mn
= A
nm
, (2.73)
denominamos o tensor sim´ etrico. Se, por outro lado,
A
mn
= −A
nm
, (2.74)
o tensor ´ e anti-sim´ etrico.
´
E claro que todo tensor (de segunda ordem) pode ser decomposto em partes sim´ etrica e
anti-sim´ etrica pela identidade
A
mn
=
1
2
_
A
mn
+A
nm
_
+
1
2
_
A
mn
−A
nm
_
, (2.75)
sendo o primeiro termo ` a direita um tensor sim´ etrico e o segundo um tensor anti-sim´ etrico. Uma decomposic¸ ˜ ao
similar de func¸ ˜ oes em partes sim´ etrica e anti-sim´ etrica ´ e de extrema importˆ ancia em mecˆ anica quˆ antica.
7
Neste contexto, seria melhor escrever ∂x
i
/∂x
k
como a
i
k
e ∂x
l
/∂x
j
como b
l
j
.
8
Na pr´ atica ´ e comum nos referirmos a um tensor como A especificando uma componente t´ıpica, A
ij
. Contanto que o leitor evite escrever
absurdos como A = A
ij
, n˜ ao h´ a mal nenhum.
“livro” — 2007/8/1 — 15:06 — page 107 — #117
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 107
Espinores
Houve ´ epoca em que se pensava que o sistema de escalares, vetores, tensores (segunda ordem), e assim por
diante, formava um sistema matem´ atico completo, um sistema adequado para descrever uma f´ısica independente
da escolha de estrutura de referˆ encia. Mas o universo e a f´ısica matem´ atica n˜ ao s˜ ao t˜ ao simples assim. No reino
das part´ıculas elementares, por exemplo, part´ıculas de spin zero
9
(m´ esons π, part´ıculas α) podem ser descritas com
escalares, part´ıculas de spin 1 (dˆ euterons) por vetores e part´ıculas de spin 2 (gr´ avitons) por tensores. Essa listagem
omite as part´ıculas mais comuns: el´ etrons, pr´ otons e nˆ eutrons, todas com spin
1
2
. Elas s˜ ao adequadamente descritas
por espinores. Um espinor n˜ ao ´ e um escalar, vetor ou tensor. Uma breve introduc¸ ˜ ao aos espinores no contexto da
teoria de grupo (J = 1/2) aparece na Sec¸ ˜ ao 4.3.
Exerc´ıcios
2.6.1 Mostre que, se todas as componentes de qualquer tensor de qualquer ordem se anulam em um
determinado sistema coordenado particular, elas se anulam em qualquer sistema de coordenadas.
Nota: Esta quest˜ ao adquire especial importˆ ancia no espac¸o quadridimensional curvo da relatividade
geral. Se uma quantidade, expressa como um tensor, existir em um sistema de coordenadas, ela
existir´ a em todos os sistemas de coordenadas e n˜ ao ´ e apenas uma conseq¨ uˆ encia da escolha de um
sistema de coordenadas (como s˜ ao as forc¸as centr´ıfugas e de Coriolis em mecˆ anica newtoniana).
2.6.2 As componentes do tensor A s˜ ao iguais ` as componentes correspondentes do tensor B em um
determinado sistema de coordenadas, denotado pelo ´ındice superior 0; isto ´ e,
A
0
ij
= B
0
ij
.
Mostre que aquele tensor A ´ e igual ao tensor B, A
ij
= B
ij
, em todos os sistemas de coordenadas.
2.6.3 As ´ ultimas trˆ es componentes de umvetor quadridimensional se anulamemcada umde dois ssitemas
de referˆ encia. Se o segundo sistema de referˆ encia n˜ ao for uma mera rotac¸ ˜ ao do primeiro ao redor do
eixo x
0
, isto ´ e, se ao menos um dos coeficientes a
i0
(i = 1, 2, 3) ,= 0, mostre que a componente de
ordem zero se anula em todos os sistemas de referˆ encia. Traduzindo para mecˆ anica relativista, isso
significa que, se o momento for conservado em dois referenciais de Lorentz, ent˜ ao a energia ser´ a
conservada em todos os referenciais de Lorentz.
2.6.4 Pela an´ alise do comportamento de um tensor geral de segunda ordem sob rotac¸ ˜ oes de 90

e 180

ao
redor dos eixos de coordenadas, mostre que um tensor isotr´ opico de segunda ordem em um espac¸o
tridimensional deve ser um m´ ultiplo de δ
ij
.
2.6.5 O tensor de curvatura quadridimensional de quarta ordem de Riemann-Christoffel da relatividade
geral, R
iklm
, satisfaz as relac¸ ˜ oes de simetria
R
iklm
= −R
ikml
= −R
kilm
.
Com ´ındices variando de 0 a 3, mostre que o n´ umero de componentes independentes ´ e reduzido de
256 a 36 e que a condic¸ ˜ ao
R
iklm
= R
lmik
reduz ainda mais o n´ umero de componentes independentes para 21. Por fim, se as componentes
satisfizerem uma identidade R
iklm
+ R
ilmk
+ R
imkl
= 0, mostre que o n´ umero de componentes
independentes ´ e reduzido para 20.
Nota: A identidade final, de trˆ es termos, fornece novas informac¸ ˜ oes somente se todos os quatro
´ındices forem diferentes. Ent˜ ao, ela reduz de um terc¸o o n´ umero de componentes independentes.
2.6.6 T
iklm
´ e anti-sim´ etrico em relac¸ ˜ ao a todos os pares de ´ındices. Quantas componentes independentes
ele tem (em um espac¸o tridimensional)?
2.7 Contrac¸ ˜ ao, Produto Direto
Contrac¸ ˜ ao
Quando tratamos de vetores, formamos um produto escalar (Sec¸ ˜ ao 1.3) somando produtos de componentes
correspondentes:
A B = A
i
B
i
(convenc¸ ˜ ao de soma). (2.76)
9
O spin de part´ıculas ´ e o momento angular intr´ınseco (em unidades de ).
´
E distinto do momento angular orbital cl´ assico devido ao
movimento.
“livro” — 2007/8/1 — 15:06 — page 108 — #118
108 F´ısica Matem´ atica Arfken • Weber
A generalizac¸ ˜ ao dessa express˜ ao em an´ alise tensorial ´ e um processo conhecido como contrac¸ ˜ ao. Dois ´ındices, um
covariante e o outro contravariante, s˜ ao igualados um ao outro, e ent˜ ao (como subentendido pela convenc¸ ˜ ao de
soma) somamos sobre esse ´ındice repetido. Por exemplo, vamos contrair o tensor misto de segunda ordem B
t i
j
,
B
t i
i
=
∂x
t i
∂x
k
∂x
l
∂x
t i
B
k
l
=
∂x
l
∂x
k
B
k
l
(2.77)
usando a Equac¸ ˜ ao (2.71) e, ent˜ ao, pela Equac¸ ˜ ao (2.72),
B
t i
i
= δ
l
k
B
k
l
= B
k
k
. (2.78)
Nosso tensor misto de segunda ordem contra´ıdo ´ e invariante e, por conseguinte, um escalar.
10
Isso ´ e exatamente o
que obtivemos na Sec¸ ˜ ao 1.3 para o produto escalar de dois vetores e na Sec¸ ˜ ao 1.7 para a divergˆ encia de um vetor.
Em geral, a operac¸ ˜ ao de contrac¸ ˜ ao reduz em 2 a ordem de um tensor. Um exemplo da utilizac¸ ˜ ao da contrac¸ ˜ ao
aparece no Cap´ıtulo 4.
Produto Direto
As componentes de um vetor covariante (tensor de primeira ordem) a
i
e e as de um vetor contravariante (tensor
de primeira ordem) b
j
podem ser multiplicadas componente por componente para dar o termo geral a
i
b
j
. Essa
operac¸ ˜ ao, pela Equac¸ ˜ ao (2.66), ´ e na verdade um tensor de segunda ordem porque
a
t
i
b
t j
=
∂x
k
∂x
t i
a
k
∂x
t j
∂x
l
b
l
=
∂x
k
∂x
t i
∂x
t j
∂x
l
_
a
k
b
l
_
. (2.79)
Contraindo, obtemos
a
t
i
b
t i
= a
k
b
k
, (2.80)
como nas Equac¸ ˜ oes (2.77) e (2.78), para dar o produto escalar regular.
Para o caso de dois vetores, o produto direto ´ e um tensor de segunda ordem. Nesse sentido, podemos atribuir
significado a ∇E, que n˜ ao foi definido dentro da estrutura da an´ alise vetorial. Em geral, o produto direto de dois
tensores ´ e um tensor de ordem igual ` a soma das duas ordens iniciais, isto ´ e,
A
i
j
B
kl
= C
i
j
kl
, (2.81a)
em que C
i
j
kl
´ e um tensor de quarta ordem. Pelas Equac¸ ˜ oes (2.66),
C
t i
j
kl
=
∂x
t i
∂x
m
∂x
n
∂x
t j
∂x
tk
∂x
p
∂x
tl
∂x
q
C
m
n
pq
. (2.81b)
O produto direto ´ e uma t´ ecnica para criar novos tensores, de ordens mais altas. O Exerc´ıcio 2.7.1 ´ e uma
forma do produto direto na qual o primeiro fator ´ e ∇. Aplicac¸ ˜ oes aparecem na Sec¸ ˜ ao 4.6.
Quando T ´ e um tensor cartesiano de en´ esima ordem, (∂/∂x
i
)T
jkl
. . . , uma componente de ∇T, ´ e um tensor
cartesiano de ordem n + 1 (Exerc´ıcio 2.7.1). Contudo, (∂/∂x
i
)T
jkl
. . . n˜ ao ´ e um tensor em espac¸os mais gerais.
Em sistemas n˜ ao-cartesianos, ∂/∂x
t i
agir´ a sobre as derivadas parciais ∂x
p
/∂x
t q
e destruir´ a a simples relac¸ ˜ ao de
transformac¸ ˜ ao de tensor (veja a Equac¸ ˜ ao (2.129)).
At´ e aqui, a distinc¸ ˜ ao entre uma transformac¸ ˜ ao covariante e uma transformac¸ ˜ ao contravariante foi mantida
porque ela n˜ ao existe em um espac¸o n˜ ao-euclidiano e porque ´ e de grande importˆ ancia na relatividade geral.
Nas Sec¸ ˜ oes 2.10 e 2.11 desenvolveremos relac¸ ˜ oes diferenciais para tensores gerais. Entretanto, por causa da
simplificac¸ ˜ ao conseguida, muitas vezes nos restringimos a tensores cartesianos. Como observamos na Sec¸ ˜ ao 2.6, a
distinc¸ ˜ ao entre contravariˆ ancia e covariˆ ancia desaparece.
Exerc´ıcios
2.7.1 Se T
i
´ e um tensor de ordem n, mostre que ∂T
i
/∂x
j
´ e um tensor de ordem n + 1 (coordenadas
cartesianas).
Nota: Em sistemas de coordenadas n˜ ao-cartesianas os coeficientes a
ij
s˜ ao, em geral, func¸ ˜ oes das
coordenadas, e a derivada simples de um tensor de ordemn n˜ ao ´ e um tensor exceto no caso especial
de n = 0. Neste caso, a derivada realmente resulta em um vetor covariante (tensor de ordem 1) pela
Equac¸ ˜ ao (2.64).
10
Em an´ alise matricial, este escalar ´ e o trac¸o da matriz, Sec¸ ˜ ao 3.2.
“livro” — 2007/8/1 — 15:06 — page 109 — #119
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 109
2.7.2 Se T
ijk
´ e um tensor de ordem n, mostre que

j
∂T
ijk
/∂x
j
´ e um tensor de ordem n − 1
(coordenadas cartesianas).
2.7.3 O operador

2

1
c
2

2
∂t
2
pode ser escrito como
4

i=1

2
∂x
2
i
,
usando x
4
= ict. Este ´ e o laplaciano quadridimensional, ` as vezes denominado o d’alembertiano e
denotado por
2
. Mostre que ele ´ e um operador escalar, ou seja, ´ e invariante sob transformac¸ ˜ oes
de Lorentz.
2.8 Regra do Quociente
Se A
i
e B
j
s˜ ao vetores, como vimos na Sec¸ ˜ ao 2.7, ´ e f´ acil mostrar que A
i
B
j
´ e um tensor de segunda ordem. Aqui,
estamos preocupados com uma variedade de relac¸ ˜ oes inversas. Considere equac¸ ˜ oes como
K
i
A
i
= B (2.82a)
K
ij
A
j
= B
i
(2.82b)
K
ij
A
jk
= B
ik
(2.82c)
K
ijkl
A
ij
= B
kl
(2.82d)
K
ij
A
k
= B
ijk
. (2.82e)
De acordo com nossa restric¸ ˜ ao a sistemas cartesianos, escrevemos todos os ´ındices como ´ındices inferiores e, a
menos que outra coisa seja especificada, ´ındices de soma repetidos.
Em cada uma dessas express˜ oes, A e B s˜ ao tensores conhecidos de ordem indicada pelo n´ umero de ´ındices
e A ´ e arbitr´ ario. Em cada caso, K ´ e uma quantidade desconhecida. Desejamos estabelecer as propriedades de
transformac¸ ˜ ao de K. A regra do quociente afirma que, se a Equac¸ ˜ ao de interesse for v´ alida em todos os sistemas
de coordenadas cartesianas (rotacionadas), K ´ e um tensor da ordem indicada. A importˆ ancia, na teoria da f´ısica, ´ e
que a regra do quociente pode estabelecer a natureza tensorial das quantidades. O Exerc´ıcio 2.8.1 ´ e uma ilustrac¸ ˜ ao
simples disso. A regra do quociente (Equac¸ ˜ ao (2.82b)) mostra que a matriz de in´ ercia que aparece na equac¸ ˜ ao do
momento angular L = Iω, Sec¸ ˜ ao 3.5, ´ e um tensor.
Ao provar a regra do quociente, consideramos a Equac¸ ˜ ao (2.82b) um caso t´ıpico. Em nosso sistema de
coordenadas “linha”,
K
t
ij
A
t
j
= B
t
i
= a
ik
B
k
, (2.83)
usando as propriedades de transformac¸ ˜ ao vetorial de B. Uma vez que a equac¸ ˜ ao ´ e v´ alida em todos os sistemas de
coordenadas cartesianas rotacionadas,
a
ik
B
k
= a
ik
(K
kl
A
l
). (2.84)
Agora, transformando Avolta para o sistema de coordenadas “linha”
11
(compare com a Equac¸ ˜ ao (2.62)), temos
K
t
ij
A
t
j
= a
ik
K
kl
a
jl
A
t
j
. (2.85)
Rearranjando, obtemos
(K
t
ij
−a
ik
a
jl
K
kl
)A
t
j
= 0. (2.86)
Isso deve ser v´ alido para cada valor do ´ındice i e para cada sistema de coordenadas “linha”. Visto que A
t
j
´ e
arbitr´ ario,
12
conclu´ımos que
K
t
ij
= a
ik
a
jl
K
kl
, (2.87)
11
Note a ordem dos ´ındices do co-seno direcional a
jl
nesta transformac¸ ˜ ao inversa. Temos
A
l
=
X
j
∂x
l
∂x

j
A

j
=
X
j
a
jl
A

j
.
12
Poder´ıamos, por exemplo, tomar A

1
= 1 e A

m
= 0 para m ,= 1. Ent˜ ao, a Equac¸ ˜ ao K

i1
= a
ik
a
1l
K
kl
resultaria imediatamente. O
restante da Equac¸ ˜ ao (2.87) vem de outras escolhas especiais do A

j
arbitr´ ario.
“livro” — 2007/8/1 — 15:06 — page 110 — #120
110 F´ısica Matem´ atica Arfken • Weber
que ´ e a nossa definic¸ ˜ ao de tensor de segunda ordem.
As outras equac¸ ˜ oes podem ser tratadas de modo semelhante, dando origem ` a outras formas da regra do
quociente. Devemos observar uma pequena armadilha: a regra do quociente n˜ ao se aplica necessariamente se
B for zero. As propriedades de transformac¸ ˜ ao de zero s˜ ao indeterminadas.
Exemplo 2.8.1 EQUAC¸ ˜ OES DE MOVIMENTO E EQUAC¸ ˜ OES DE CAMPO
Em mecˆ anica cl´ assica, as equac¸ ˜ oes de movimento de Newton m˙ v = Fnos dizem, com base na regra do quociente,
que, se a massa ´ e um escalar e a forc¸a um vetor, ent˜ ao a acelerac¸ ˜ ao a ≡ ˙ v ´ e um vetor. Em outras palavras, o car´ ater
de vetor da forc¸a como o termo essencial imp˜ oe seu car´ ater de vetor sobre a acelerac¸ ˜ ao, contanto que o fator de
escala m seja escalar.
A equac¸ ˜ ao de onda da eletrodinˆ amica ∂
2
A
µ
= J
µ
envolve a vers˜ ao quadridimensional do laplaciano ∂
2
=

2
c
2
∂t
2
−∇
2
, um escalar de Lorentz, e a corrente quadrivetorial externa J
µ
como seu termo essencial. Pela regra do
quociente, inferimos que o potencial vetorial A
µ
tamb´ em ´ e quadrivetorial. Se a corrente essencial ´ e um quadrivetor,
o potencial vetorial deve ser de ordem 1 pela regra do quociente.

A regra do quociente ´ e uma substituta para a divis˜ ao ilegal de vetores.
Exerc´ıcios
2.8.1 O somat ´ orio duplo K
ij
A
i
B
j
´ e invariante para quaisquer dois vetores A
i
e B
j
. Prove que K
ij
´ e um
tensor de segunda ordem.
Nota: Na forma ds
2
(invariante) = g
ij
dx
i
dx
j
, este resultado mostra que a matriz g
ij
´ e um tensor.
2.8.2 A Equac¸ ˜ ao K
ij
A
jk
= B
ik
´ e v´ alida para todas as orientac¸ ˜ oes do sistema de coordenadas. Se A e B
s˜ ao tensores arbitr´ arios de segunda ordem, mostre que K tamb´ em ´ e um tensor de segunda ordem.
2.8.3 A exponencial em uma onda plana ´ e exp[i(k r −ωt)]. Reconhecemos x
µ
= (ct, x
1
, x
2
, x
3
) como
um vetor prot ´ otipo em um espac¸o de Minkowski. Se k r −ωt ´ e um escalar sob transformac¸ ˜ oes de
Lorentz (Sec¸ ˜ ao 4.5), mostre que k
µ
= (ω/c, k
1
, k
2
, k
3
) ´ e um vetor em um espac¸o de Minkowski.
Nota: A multiplicac¸ ˜ ao por leva a (E/c, p) como um vetor em um espac¸o de Minkowski.
2.9 Pseudotensores, Tensores Duais
At´ e aqui nossas transformac¸ ˜ oes de coordenadas se restringiram ` as rotac¸ ˜ oes passivas puras. Agora consideramos o
efeito de reflex˜ oes ou invers˜ oes.
Figura 2.9: Invers˜ ao de coordenadas cartesianas – vetor polar.
Se tivermos coeficientes de transformac¸ ˜ ao a
ij
= −δ
ij
, ent˜ ao, pela Equac¸ ˜ ao (2.60),
x
i
= −x
t i
, (2.88)
que ´ e uma invers˜ ao ou transformac¸ ˜ ao de paridade. Note que essa transformac¸ ˜ ao muda nosso sistema de
coordenadas inicial dextrogiro em um sistema de coordenadas levogiro.
13
Nosso vetor prot ´ otipo r com
componentes (x
1
, x
2
, x
3
) se transforma em
r
t
=
_
x
t 1
, x
t 2
, x
t 3
_
=
_
−x
1
, −x
2
, −x
3
_
.
13
Esta ´ e uma invers˜ ao do sistema de coordenadas ou dos eixos coordenados; objetos no mundo f´ısico permanecem fixos.
“livro” — 2007/8/1 — 15:06 — page 111 — #121
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 111
Esse novo vetor r
t
tem componentes negativas em relac¸ ˜ ao ao novo conjunto transformado de eixos. Como mostra
a Figura 2.9, inverter as direc¸ ˜ oes dos eixos coordenados e inverter os sinais das componentes resulta em r
t
= r.
O vetor (uma seta no espac¸o) fica exatamente como era antes da execuc¸ ˜ ao da transformac¸ ˜ ao. O vetor posic¸ ˜ ao r
e todos os outros vetores cujas componentes se comportam dessa maneira (invertendo o sinal com a invers˜ ao dos
eixos coordenados) s˜ ao denominados vetores polares e tˆ em paridade ´ımpar.
Uma diferenc¸a fundamental aparece quando encontramos um vetor definido como o produto externo de dois
vetores polares. Seja C = AB, em que ambos, Ae B, s˜ ao vetores polares. Pela Equac¸ ˜ ao (1.33), as componentes
de C s˜ ao dadas por
C
1
= A
2
B
3
−A
3
B
2
, (2.89)
e assim por diante. Agora, quando os eixos coordenados s˜ ao invertidos, A
i
→ −A
t i
, B
j
→ −B
t
j
, mas, por sua
definic¸ ˜ ao, C
k
→ +C
tk
; isto ´ e, nosso vetor produto externo, vetor C, n˜ ao se comporta como um vetor polar
sob invers˜ ao. Para distinguir, n´ os o rotulamos como um pseudovetor ou vetor axial (veja a Figura 2.10)) que tem
paridade par. O termo vetor axial ´ e freq¨ uentemente usado porque esses produtos externos costumam aparecer a
partir de uma descric¸ ˜ ao de rotac¸ ˜ ao.
Figura 2.10: Invers˜ ao das coordenadas cartesianas — vetor axial.
Eis alguns exemplos:
velocidade angular v = ω r,
momento angular orbital L = r p,
torque, forc¸a = F, N = r F,
campo de induc¸ ˜ ao magn´ etica B,
∂B
∂t
= −∇E.
Em v = ω r, o vetor axial ´ e a velocidade angular ω, e r e v = dr/ dt s˜ ao vetores polares.
´
E claro que vetores
axiais ocorrem com freq¨ uˆ encia em f´ısica, embora, em geral, esse fato n˜ ao seja destacado. Em um sistema de
coordenadas dextrogiro, um vetor axial C tem um sentido de rotac¸ ˜ ao associado a ele dado por uma regra da m˜ ao
direita (compare com a Sec¸ ˜ ao 1.4). No sistema invertido, levogiro, o sentido de rotac¸ ˜ ao ´ e para o lado esquerdo, o
que ´ e indicado pelas setas curvas na Figura 2.10.
A distinc¸ ˜ ao entre vetores polares e axiais tamb´ em pode ser ilustrada por uma reflex˜ ao. Um vetor polar se reflete
em um espelho como uma seta f´ısica real, Figura 2.11a. Nas Figuras 2.9 e 2.10 as coordenadas s˜ ao invertidas;
o mundo f´ısico continua fixo. Aqui, os eixos coordenados permanecem fixos; o mundo ´ e refletido, como em um
espelho no plano xz. Especificamente nessa representac¸ ˜ ao, mantemos os eixos fixos e associamos uma troca de
sinal com a componente do vetor. Para um espelho no plano xz, P
y
→−P
y
. Temos
P = (P
x
, P
y
, P
z
)
P
t
= (P
x
, −P
y
, P
z
) vetor polar.
Um vetor axial, tal como um campo magn´ etico Hou um momento magn´ etico µ (= corrente ´ area do circuito
de corrente) comporta-se de maneira bem diferente sob reflex˜ ao. Considere o campo magn´ etico H e o momento
magn´ etico µ que ser˜ ao produzidos por uma carga el´ etrica que se movimenta por uma trajet ´ oria circular (Exerc´ıcio
5.8.4 e Exemplo 12.5.3). A reflex˜ ao inverte o sentido de rotac¸ ˜ ao da carga.
“livro” — 2007/8/1 — 15:06 — page 112 — #122
112 F´ısica Matem´ atica Arfken • Weber
a
b
Figura 2.11: (a) Espelho no plano xz; (b) espelho no plano xz.
Os dois circuitos fechados de corrente e os momentos magn´ eticos resultantes s˜ ao mostrados na Figura 2.11b.
Temos
µ = (µ
x
, µ
y
, µ
z
)
µ
t
= (−µ
x
, µ
y
, −µ
z
) vetor axial refletido.
Se concordamos que o universo n˜ ao se importa se usamos um sistema coordenado dextrogiro ou levogiro,
ent˜ ao n˜ ao tem sentido adicionar um vetor axial a um vetor polar. Na Equac¸ ˜ ao vetorial A = B, A e B s˜ ao ou
vetores polares ou vetores axiais.
14
Restric¸ ˜ oes semelhantes se aplicam a escalares e pseudotensores e, em geral,
aos tensores e pseudotensores considerados a seguir.
Em geral, pseudo-escalares, pseudovetores e pseudotensores se transformar˜ ao em
S
t
= JS, C
t
i
= Ja
ij
C
j
, A
t
ij
= Ja
ik
a
jl
A
kl
, (2.90)
em que J ´ e o determinante
15
do arranjo de coeficientes a
mn
, o jacobiano da transformac¸ ˜ ao de paridade. Em nossa
invers˜ ao, o jacobiano ´ e
J =
¸
¸
¸
¸
¸
¸
−1 0 0
0 −1 0
0 0 −1
¸
¸
¸
¸
¸
¸
= −1. (2.91)
Para uma reflex˜ ao de um eixo, o eixo x,
J =
¸
¸
¸
¸
¸
¸
−1 0 0
0 1 0
0 0 1
¸
¸
¸
¸
¸
¸
= −1, (2.92)
e, mais uma vez, o jacobiano J = −1. Por outro lado, para todas as rotac¸ ˜ oes puras, o jacobiano J ´ e sempre +1.
Matrizes de rotac¸ ˜ ao s˜ ao discutidas com mais detalhes na Sec¸ ˜ ao 3.3.
No Cap´ıtulo 1 mostramos que o produto escalar triplo S = A B C ´ e um escalar (sob rotac¸ ˜ oes). Agora,
considerando a transformac¸ ˜ ao de paridade dada pela Equac¸ ˜ ao (2.88), vemos que S →−S, provando que o produto
14
A grande excec¸ ˜ ao a essa regra est´ a no decaimento beta, nas interac¸ ˜ oes fracas. Neste caso, o universo distingue entre sistemas dextrogiros
e levogiro e adicionamos interac¸ ˜ oes vetoriais polares e axiais.
15
Determinantes s˜ ao descritos na Sec¸ ˜ ao 3.1.
“livro” — 2007/8/1 — 15:06 — page 113 — #123
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 113
escalar triplo ´ e, na verdade, um pseudo-escalar: esse comportamento foi prenunciado pela analogia geom´ etrica
de um volume. Se todos os trˆ es parˆ ametros de volume — comprimento, profundidade e altura — mudarem de
distˆ ancias positivas para distˆ ancias negativas, o produto dos trˆ es ser´ a negativo.
S´ımbolo de Levi-Civita
Para utilizac¸ ˜ ao futura ´ e conveniente introduzir o s´ımbolo tridimensional de Levi-Civita ε
ijk
, definido por
ε
123
= ε
231
= ε
312
= 1,
ε
132
= ε
213
= ε
321
= −1, (2.93)
todos os outros ε
ijk
= 0.
Note que ε
ijk
´ e anti-sim´ etrico em relac¸ ˜ ao a todos os pares de ´ındices. Agora suponha que temos um pseudotensor
de terceira ordem que, em um determinado sistema de coordenadas, ´ e igual a δ
ijk
, ε
ijk
. Ent˜ ao,
δ
t
ijk
= [a[a
ip
a
jq
a
kr
ε
pqr
(2.94)
pela definic¸ ˜ ao de pseudotensor. Agora,
a
1p
a
2q
a
3r
ε
pqr
= [a[ (2.95)
por expans˜ ao direta do determinante, mostrando que δ
t
123
= [a[
2
= 1 = ε
123
. Considerando as outras
possibilidades uma por uma, encontramos
δ
t
ijk
= ε
ijk
(2.96)
para rotac¸ ˜ oes e reflex˜ oes. Por conseguinte, ε
ijk
´ e um pseudotensor.
16
,
17
Al´ em do mais, ele ´ e visto como um
pseudotensor isotr´ opico com as mesmas componentes em todos os sistemas coordenados cartesianos.
Tensores duais
Podemos associar qualquer tensor anti-sim´ etrico de segunda ordem C (em um espac¸o tridimensional) um
pseudovetor dual C
i
definido por
C
i
=
1
2
ε
ijk
C
jk
. (2.97)
Aqui, o anti-sim´ etrico C pode ser escrito como
C =
_
_
0 C
12
−C
31
−C
12
0 C
23
C
31
−C
23
0
_
_
. (2.98)
Sabemos que C
i
deve se transformar em um vetor sob rotac¸ ˜ oes a partir da dupla contrac¸ ˜ ao do (pseudo) tensor
de quinta ordem ε
ijk
C
mn
, mas que, na verdade, ele ´ e um pseudovetor pela natureza de ε
ijk
. Especificamente, as
componentes de C s˜ ao dadas por
(C
1
, C
2
, C
3
) =
_
C
23
, C
31
, C
12
_
. (2.99)
Note a ordem c´ıclica dos ´ındices que resulta da ordem c´ıclica das componentes de ε
ijk
. A Equac¸ ˜ ao (2.99) significa
que nosso produto vetorial tridimensional pode ser literalmente tomado como um pseudovetor ou um tensor anti-
sim´ etrico de segunda ordem, dependendo de como preferirmos escrevˆ e-lo.
Se tomarmos trˆ es vetores (polares) A, B e C, podemos definir o produto direto
V
ijk
= A
i
B
j
C
k
. (2.100)
Por uma extens˜ ao da an´ alise da Sec¸ ˜ ao (2.6), V
ijk
´ e um tensor de terceira ordem. A quantidade dual
V =
1
3!
ε
ijk
V
ijk
(2.101)
16
A utilidade de εpqr vai muito al´ em desta sec¸ ˜ ao. Por exemplo, as matrizes M
k
do Exerc´ıcio 3.2.16 s˜ ao derivadas de (Mr)pq = −iεpqr.
Grande parte da an´ alise vetorial elementar pode ser escrita sob uma forma muito compacta usando ε
ijk
e a identidade do Exerc´ıcio 2.9.4. Veja
A. A. Evett, “Permutation symbol approach to elementary vector analysis”. Am. J. Phys. 34: 503 (1966).
17
O valor num´ erico de εpqr ´ e dado pelo produto escalar triplo de vetores unit´ arios de coordenadas:
ˆ xp ˆ xq ˆ xr.
Deste ponto de vista, cada elemento de εpqr ´ e um pseudo-escalar, mas os εpqr formam, coletivamente, um pseudotensor de terceiro grau.
“livro” — 2007/8/1 — 15:06 — page 114 — #124
114 F´ısica Matem´ atica Arfken • Weber
´ e claramente um pseudo-escalar. Por expans˜ ao, verificamos que
V =
¸
¸
¸
¸
¸
¸
A
1
B
1
C
1
A
2
B
2
C
2
A
3
B
3
C
3
¸
¸
¸
¸
¸
¸
(2.102)
´ e nosso familiar produto escalar triplo.
Para utilizac¸ ˜ ao na escrita das equac¸ ˜ oes de Maxwell em forma covariante, Sec¸ ˜ ao 4.6, ´ e interessante estender
essa an´ alise vetorial dual para espac¸o quadridimensional e, em particular, indicar que o elemento de volume
quadridimensonal dx
0
dx
1
dx
2
dx
3
´ e um pseudo-escalar.
Introduzios o s´ımbolo de Levi-Civita ε
ijkl
, o an´ alogo quadridimensional de ε
ijk
. Essa quantidade ε
ijkl
´ e definida como totalmente anti-sim´ etrica em todos os quatro ´ındices. Se (ijkl) for uma permutac¸ ˜ ao
par
18
de (0, 1, 2, 3), ent˜ ao ε
ijkl
´ e definido como +1; se for uma permutac¸ ˜ ao ´ımpar, ent˜ ao ε
ijkl
´ e −1, e ´ e 0
se quaisquer dois ´ındices forem iguais. Pode-se provar que o ε
ijkl
de Levi-Civita ´ e um pseudotensor de ordem
4 por an´ alise semelhante ` a usada para determinar a natureza de tensor de ε
ijk
. Introduzindo o produto direto de
quatro vetores como tensor de quarta ordem com componentes
H
ijkl
= A
i
B
j
C
k
D
l
, (2.103)
constru´ıdas a partir dos vetores polares A, B, C e D, podemos definir a quantidade dual
H =
1
4!
ε
ijkl
H
ijkl
, (2.104)
um pseudo-escalar por causa da qu´ adrupla contrac¸ ˜ ao com o pseudotensor ε
ijkl
. Agora, sejam A, B, C e D
deslocamentos infinitesimais ao longo dos quatro eixos coordenados (espac¸o de Minkowski),
A =
_
dx
0
, 0, 0, 0
_
B =
_
0, dx
1
, 0, 0
_
, e assim por diante,
(2.105)
e
H = dx
0
dx
1
dx
2
dx
3
. (2.106)
O elemento de volume quadridimensional agora ´ e identificado como um pseudo-escalar. Usamos esse resultado
na Sec¸ ˜ ao 4.6. Esse resultado podia ser esperado dos resultados da teoria especial da relatividade. A contrac¸ ˜ ao de
Lorentz-Fitzgerald de dx
1
dx
2
dx
3
apenas equilibra a dilatac¸ ˜ ao do tempo de dx
0
.
Entramos nesse espac¸o quadridimensional como uma simples extens˜ ao matem´ atica do espac¸o tridimensional e,
na verdade, poder´ıamos ter discutido espac¸os de 5, 6 ou N dimens˜ oes com essa mesma facilidade. Isso ´ e t´ıpico
do poder da an´ alise das componentes. Em termos f´ısicos, esse espac¸o quadridimensional pode ser tomado como
espac¸o de Minkowski,
_
x
0
, x
1
, x
2
, x
3
_
= (ct, x, y, z), (2.107)
em que t ´ e tempo. Esta ´ e a fus˜ ao de espac¸o e tempo conseguida na relatividade especial. As transformac¸ ˜ oes que
descrevem as rotac¸ ˜ oes em espac¸o quadridimensional s˜ ao as transformac¸ ˜ oes de Lorentz da relatividade especial.
Encontramos essas transformac¸ ˜ oes de Lorentz na Sec¸ ˜ ao 4.6.
Tensores Irredut´ıveis
Para algumas aplicac¸ ˜ oes, em particular em teoria quˆ antica do momento angular, nossos tensores cartesianos n˜ ao
s˜ ao particularmente convenientes. Em linguagem matem´ atica, nosso tensor geral de segunda ordemA
ij
´ e redut´ıvel,
o que significa que pode ser decomposto em partes de tensores de ordem mais baixa. Na verdade, j´ a fizemos isso.
Pela Equac¸ ˜ ao (2.78),
A = A
i
i
(2.108)
´ e uma quantidade escalar, o trac¸o de A
ij
.
19
Acabamos de mostrar que a porc¸ ˜ ao anti-sim´ etrica,
B
ij
=
1
2
(A
ij
−A
ji
), (2.109)
18
Uma permutac¸ ˜ ao ´ e ´ımpar se envolver um n´ umero ´ımpar de trocas de ´ındices adjacentes, tal como (0 1 2 3) → (0 2 1 3). Permutac¸ ˜ oes
pares surgem de um n´ umero par de transposic¸ ˜ oes de ´ındices adjacentes. (Na verdade, a palavra adjacente ´ e desnecess´ aria.) ε0123 = +1.
19
Uma abordagem alternativa, usando matrizes, ´ e dada na Sec¸ ˜ ao 3.3 (veja o Exerc´ıcio 3.3.9).
“livro” — 2007/8/1 — 15:06 — page 115 — #125
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 115
´ e equivalente a um (pseudo)vetor ou
B
ij
= C
k
permutac¸ ˜ ao c´ıclica de i, j, k. (2.110)
Subtraindo o escalar A e o vetor C
k
de nosso tensor original, temos um tensor de segunda ordem irredut´ıvel,
sim´ etrico, de trac¸o zero, S
ij
, no qual
S
ij
=
1
2
(A
ij
+A
ji
) −
1
3

ij
, (2.111)
com cinco componentes independentes. Ent˜ ao, finalmente, nosso tensor cartesiano original pode ser escrito
A
ij
=
1
3

ij
+C
k
+S
ij
. (2.112)
As trˆ es quantidades A, C
k
e S
ij
formam tensores esf´ ericos de ordens 0, 1 e 2, respectivamente, transformando-
se harmˆ onicos esf´ ericos Y
M
L
(Cap´ıtulo 12) para L = 0, 1 e 2. Mais detalhes sobre esses tensores esf´ ericos e suas
utilizac¸ ˜ oes ser˜ ao encontrados no Cap´ıtulo 4 e nos livros de autoria de Rose e Edmonds l´ a citados.
Um exemplo espec´ıfico da reduc¸ ˜ ao precedente ´ e dado pelo tensor quadripolo el´ etrico sim´ etrico
Q
ij
=
_
_
3x
i
x
j
−r
2
δ
ij
_
ρ(x
1
, x
2
, x
3
) d
3
x.
O termo −r
2
δ
ij
representa uma subtrac¸ ˜ ao do trac¸o escalar (os trˆ es termos i = j). Os Q
ij
resultantes tˆ em trac¸o
zero.
Exerc´ıcios
2.9.1 Um arranjo quadrado anti-sim´ etrico ´ e dado por
_
_
0 C
3
−C
2
−C
3
0 C
1
C
2
−C
1
0
_
_
=
_
_
0 C
12
C
13
−C
12
0 C
23
−C
13
−C
23
0
_
_
,
em que (C
1
, C
2
, C
3
) formam um pseudovetor. Admitindo que a relac¸ ˜ ao
C
i
=
1
2!
ε
ijk
C
jk
vale em todos os sistemas de coordenadas, prove que C
jk
´ e um tensor. (Essa ´ e uma outra forma do
teorema do quociente.)
2.9.2 Mostre que o produto vetorial ´ e exclusivo do espac¸o tridimensional; isto ´ e, somente em trˆ es
dimens˜ oes podemos estabelecer uma correspondˆ encia um - para - um entre as componentes de
um tensor anti-sim´ etrico (segunda ordem) e as componentes de um vetor.
2.9.3 Mostre que em R
3
(a) δ
ii
= 3,
(b) δ
ij
ε
ijk
= 0,
(c) ε
ipq
ε
jpq
= 2δ
ij
,
(d) ε
ijk
ε
ijk
= 6.
2.9.4 Mostre que em R
3
ε
ijk
ε
pqk
= δ
ip
δ
jq
−δ
iq
δ
jp
.
2.9.5 (a) Expresse as componentes de vetor produto externo C, C = A B, em termos de ε
ijk
e das
componentes de Ae B.
(b) Use a anti-simetria de ε
ijk
para mostrar que A AB = 0.
Resposta: (a) C
i
= ε
ijk
A
j
B
k
.
2.9.6 (a) Mostre que o tensor de in´ ercia (matriz) pode ser escrito
I
ij
= m(x
i
x
j
δ
ij
−x
i
x
j
)
para uma part´ıcula de massa m em (x
1
, x
2
, x
3
).
“livro” — 2007/8/1 — 15:06 — page 116 — #126
116 F´ısica Matem´ atica Arfken • Weber
(b) Mostre que
I
ij
= −M
il
M
lj
= −mε
ilk
x
k
ε
ljm
x
m
,
em que M
il
= m
1/2
ε
ilk
x
k
. Esta ´ e a contrac¸ ˜ ao de dois tensores de segunda ordem e ´ e idˆ entica
ao produto matricial da Sec¸ ˜ ao 3.2.
2.9.7 Escreva ∇ ∇ A e ∇ ∇ϕ em tensorial de tensor (com ´ındices) em R
3
, de modo que fique
´ obvio que cada express˜ ao se anula.
RESP. ∇ ∇A = ε
ijk

∂x
i

∂x
j
A
k
,
(∇∇ϕ)
i
= ε
ijk

∂x
j

∂x
k
ϕ.
2.9.8 Expressando produtos externos em termos de s´ımbolos de Levi-Civita (ε
ijk
), derive a regra BAC–
CAB, Equac¸ ˜ ao (1.55).
Sugest˜ ao: A relac¸ ˜ ao do Exerc´ıcio 2.9.4 ´ e ´ util.
2.9.9 Verifique que cada um dos seguintes tensores de quarta ordem ´ e isotr´ opico, isto ´ e, tem a mesma
forma independente de qualquer rotac¸ ˜ ao dos sistemas coordenados.
(a) A
ijkl
= δ
ij
δ
kl
,
(b) B
ijkl
= δ
ik
δ
jl

il
δ
jk
,
(c) C
ijkl
= δ
ik
δ
jl
−δ
il
δ
jk
.
2.9.10 Mostre que o s´ımbolo de Levi-Civita de dois ´ındices ε
ij
´ e um pseudotensor de segunda ordem (em
um espac¸o bidimensional). Isso contradiz a unicidade de δ
ij
) (Exerc´ıcio 2.6.4)?
2.9.11 Represente ε
ij
por uma matriz 2 2 e, usando a rotac¸ ˜ ao de matriz 2 2 da Sec¸ ˜ ao 3.3, mostre que
ε
ij
´ e invariante sob transformac¸ ˜ oes de similaridade ortogonais.
2.9.12 Dado A
k
=
1
2
ε
ijk
B
ij
com B
ij
= −B
ji
, anti-sim´ etrico, mostre que
B
mn
= ε
mnk
A
k
.
2.9.13 Mostre que a identidade vetorial
(AB) (CD) = (A C)(B D) −(A D)(B C)
(Exerc´ıcio 1.5.12) resulta diretamente da descric¸ ˜ ao de um produto externo de ε
ijk
e a identidade do
Exerc´ıcio 2.9.4.
2.9.14 Generalize o produto externo de dois vetores para um espac¸o n dimensional para n = 4, 5, . . . .
Verifique a consistˆ encia de sua construc¸ ˜ ao e discuta exemplos concretos. Veja o Exerc´ıcio 1.4.17
para o caso n = 2.
2.10 Tensores Gerais
A distinc¸ ˜ ao entre transformac¸ ˜ oes contravariantes e covariantes foi estabelecida na Sec¸ ˜ ao 2.6. Ent˜ ao, por
conveniˆ encia, restringimos nossa atenc¸ ˜ ao ` as coordenadas cartesianas (nas quais a distinc¸ ˜ ao desaparece). Agora,
nestas duas sec¸ ˜ oes finais, voltamos ` as coordenadas n˜ ao-cartesianas e ressuscitamos a dependˆ encia contravariante
e covariante. Assim como na Sec¸ ˜ ao 2.6, ser´ a usado um ´ındice superior (sobrescrito) para denotar dependˆ encia
contravariante e um ´ındice inferior (subscrito) para denotar dependˆ encia covariante. O tensor m´ etrico da Sec¸ ˜ ao 2.1
ser´ a usado para relacionar ´ındices contravariantes e covariantes.
Nesta sec¸ ˜ ao, damos ˆ enfase ` a diferenciac¸ ˜ ao, culminando na construc¸ ˜ ao da derivada covariante. Vimos na Sec¸ ˜ ao
2.7 que a derivada de um vetor resulta em um tensor de segunda ordem, em coordenadas cartesianas. Em sistemas
de coordenadas n˜ ao-cartesianas, ´ e a derivada covariante de um vetor, em vez da derivada ordin´ aria, que d´ a um
tensor de segunda ordem por diferenciac¸ ˜ ao de um vetor.
Tensor M´ etrico
Vamos comec¸ar com a transformac¸ ˜ ao de vetores de um conjunto de coordenadas (q
1
, q
2
, q
3
) para outro
r = (x
1
, x
2
, x
3
). As novas coordenadas s˜ ao func¸ ˜ oes (em geral n˜ ao-lineares) x
i
(q
1
, q
2
, q
3
) das antigas, tais como
coordenadas polares esf´ ericas (r, θ, φ). Mas suas diferenciais obedecem ` a lei da transformac¸ ˜ ao linear
dx
i
=
∂x
i
∂q
j
dq
j
, (2.113a)
“livro” — 2007/8/1 — 15:06 — page 117 — #127
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 117
ou
dr = ε
j
dq
j
(2.113b)
em notac¸ ˜ ao vetorial. Por conveniˆ encia, tomamos os vetores de base ε
1
= (
∂x
1
∂q
1
,
∂x
1
∂q
2
,
∂x
1
∂q
3
), ε
2
e ε
3
para formar um
conjunto dextrogiro. Esses vetores n˜ ao s˜ ao necessariamente ortogonais. Al´ em disso, ser´ a imposta uma limitac¸ ˜ ao ao
espac¸o tridimensional somente para as discuss˜ oes de produtos externos e rotacionais. Exceto nesses casos, esses
ε
i
podem estar em espac¸o N dimensional, incluindo o espac¸o-tempo quadridimensional da relatividade geral e
especial. Os vetores de base ε
i
podem ser expressos por
ε
i
=
∂r
∂q
i
, (2.114)
como no Exerc´ıcio 2.2.3. Todavia, note que, aqui, o ε
i
n˜ ao tem necessariamente grandeza unit´ aria. Pelo Exerc´ıcio
2.2.3, vetores unit´ arios s˜ ao
e
i
=
1
h
i
∂r
∂q
i
(sem somat´ orio),
e, portanto,
ε
i
= h
i
e
i
(sem somat´ orio). (2.115)
Os ε
i
est˜ ao relacionados aos vetores unit´ arios e
i
pelos fatores de escala h
i
da Sec¸ ˜ ao 2.2. Os e
i
n˜ ao tˆ em dimens˜ oes;
os ε
i
tˆ em as dimens˜ oes de h
i
. Dando um exemplo espec´ıfico, em coordenadas polares esf´ ericas,
ε
r
= e
r
= ˆr, ε
θ
= re
θ
= r
ˆ
θ, ε
ϕ
= rsen θe
ϕ
= rsen θˆ ϕ. (2.116)
Em espac¸os euclidianos, ou em um espac¸o de Minkowski da relatividade especial, as derivadas parciais na Equac¸ ˜ ao
(2.113) s˜ ao constantes que definem as novas coordenadas em termos das antigas. N´ os as usamos para definir as
leis de transformac¸ ˜ ao de vetores nas Equac¸ ˜ oes (2.59) e (2.62) e de tensores na Equac¸ ˜ ao (2.66). Generalizando,
definimos um vetor contravariante V
i
sob transformac¸ ˜ oes de coordenadas gerais se suas componentes se
transformam segundo
V
t i
=
∂x
i
∂q
j
V
j
, (2.117a)
ou
V
t
= V
j
ε
j
(2.117b)
em notac¸ ˜ ao vetorial. Para vetores covariantes inspecionamos a transformac¸ ˜ ao do operador gradiente

∂x
i
=
∂q
j
∂x
i

∂q
j
(2.118)
usando a regra da cadeia. Por
∂x
i
∂q
j
∂q
j
∂x
k
= δ
i
k
(2.119)
fica claro que a Equac¸ ˜ ao (2.118) ´ e relacionada com a transformac¸ ˜ ao inversa da Equac¸ ˜ ao (2.113),
dq
j
=
∂q
j
∂x
i
dx
i
. (2.120)
Por conseguinte, definimos um vetor covariante V
i
se
V
t
i
=
∂q
j
∂x
i
V
j
(2.121a)
for v´ alida ou, em notac¸ ˜ ao vetorial,
V
t
= V
j
ε
j
, (2.121b)
em que ε
j
s˜ ao os vetores contravariantes g
ji
ε
i
= ε
j
.
Tensores de segunda ordem s˜ ao definidos como na Equac¸ ˜ ao (2.66),
A
tij
=
∂x
i
∂q
k
∂x
j
∂q
l
A
kl
, (2.122)
“livro” — 2007/8/1 — 15:06 — page 118 — #128
118 F´ısica Matem´ atica Arfken • Weber
e tensores de ordem mais alta s˜ ao definidos de modo semelhante.
Como na Sec¸ ˜ ao 2.1, constru´ımos o quadrado de um deslocamento diferencial
(ds)
2
= dr dr =
_
ε
i
dq
i
_
2
= ε
i
ε
j
dq
i
dq
j
. (2.123)
Comparando essa express˜ ao com (ds)
2
da Sec¸ ˜ ao 2.1, Equac¸ ˜ ao (2.5), identificamos ε
i
ε
j
como o tensor m´ etrico
covariante
ε
i
ε
j
= g
ij
. (2.124)
Fica claro que g
ij
´ e sim´ etrico. A natureza de tensor de g
ij
resulta da regra do quociente, Exerc´ıcio 2.8.1. Tomamos
a relac¸ ˜ ao
g
ik
g
kj
= δ
i
j
(2.125)
para definir o tensor contravariante correspondente g
ik
. O contravariante g
ik
entra como o inverso
20
do covariante
g
kj
. Usamos esse contravariante g
ik
para elevar ´ındices, convertendo um ´ındice covariante em um ´ındice
contravariante, como mostramos a seguir. De maneira semelhante, o covariante g
kj
ser´ a usado para reduzir ´ındices.
A escolha de g
ik
e g
kj
para essa operac¸ ˜ ao de elevac¸ ˜ ao-reduc¸ ˜ ao ´ e arbitr´ aria. Qualquer tensor de segunda ordem (e
seu inverso) serviria. Especificamente, temos
g
ij
ε
j
= ε
i
vetores b´ asicos covariantes
contravariantes relacionados,
g
ij
F
j
= F
i
componentes vetoriais covariantes e
contravariantes relacionadas.
(2.126)
Ent˜ ao,
g
ij
ε
j
= ε
i
como o ´ındice correspondente
g
ij
F
j
= F
i
reduzindo relac¸ ˜ oes.
(2.127)
´
E preciso enfatizar mais uma vez que os ε
i
e ε
j
n˜ ao tˆ em grandeza unit´ aria. Isso pode ser visto nas
Equac¸ ˜ oes (2.116) e no tensor m´ etrico g
ij
para coordenadas polares esf´ ericas e sua inversa g
ij
:
(g
ij
) =
_
_
1 0 0
0 r
2
0
0 0 r
2
sen
2
θ
_
_
_
g
ij
_
=
_
_
_
_
_
1 0 0
0
1
r
2
0
0 0
1
r
2
sen
2
θ
_
_
_
_
_
.
S´ımbolos de Christoffel
Vamos formar a diferencial de um escalar ψ,
dψ =
∂ψ
∂q
i
dq
i
. (2.128)
Visto que dq
i
s˜ ao as componentes de um vetor contravariante, as derivadas parciais ∂ψ/∂q
i
devem formar um
vetor covariante, pela regra do quociente. O gradiente de um escalar se torna
∇ψ =
∂ψ
∂q
i
ε
i
. (2.129)
Note que ∂ψ/∂q
i
n˜ ao s˜ ao as componentes de gradiente da Sec¸ ˜ ao 2.2, porque ε
i
,= e
i
da Sec¸ ˜ ao 2.2.
Passando para as derivadas de um vetor, constatamos que a situac¸ ˜ ao ´ e muito mais complicada, porque os vetores
de base ε
i
s˜ ao, em geral, n˜ ao-constantes. Lembre-se de que n˜ ao estamos mais nos restringindo ` as coordenadas
cartesianas e aos agrad´ aveis e convenientes ˆ x, ˆ y, ˆ z! A diferenciac¸ ˜ ao direta da Equac¸ ˜ ao (2.117a) resulta em
∂V
tk
∂q
j
=
∂x
k
∂q
i
∂V
i
∂q
j
+

2
x
k
∂q
j
∂q
i
V
i
, (2.130a)
ou, em notac¸ ˜ ao vetorial,
∂V
t
∂q
j
=
∂V
i
∂q
j
ε
i
+V
i
∂ε
i
∂q
j
. (2.130b)
20
Se o tensor g
kj
for escrito como uma matriz, o tensor g
ik
´ e dado pela matriz inversa.
“livro” — 2007/8/1 — 15:06 — page 119 — #129
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 119
O lado direito da Equac¸ ˜ ao (2.130a) difere da lei da transformac¸ ˜ ao para um tensor misto de segunda ordem no
segundo termo, que cont´ em derivadas de segunda ordem das coordenadas x
k
. Estas ´ ultimas s˜ ao n˜ ao-zero para
transformac¸ ˜ oes de coordenadas n˜ ao-lineares.
Agora, ∂ε
i
/∂q
j
ser´ a alguma combinac¸ ˜ ao linear dos ε
k
, sendo que o coeficiente depende dos ´ındices i e j da
derivada parcial e do ´ındice k do vetor de base. Escrevemos
∂ε
i
∂q
j
= Γ
k
ij
ε
k
. (2.131a)
Multiplicando por ε
m
e usando ε
m
ε
k
= δ
m
k
do Exerc´ıcio 2.10.2, temos
Γ
m
ij
= ε
m

∂ε
i
∂q
j
. (2.131b)
Γ
k
ij
´ e um s´ımbolo de Christoffel da segunda esp´ ecie. Tamb´ em ´ e denominado coeficiente de conex˜ ao. Esses Γ
k
ij
n˜ ao s˜ ao tensores de terceira ordem e as ∂V
i
/∂q
j
da Equac¸ ˜ ao (2.130a) n˜ ao s˜ ao tensores de segunda ordem. As
Equac¸ ˜ oes (2.131) devem ser comparadas com os resultados citados no Exerc´ıcio 2.2.3 (lembrando-se de que, em
geral, ε
i
,= e
i
). Em coordenadas cartesianas, Γ
k
ij
= 0 para todos os valores dos ´ındices i, j e k. Esses s´ımbolos de
Christoffel com trˆ es ´ındices podem ser calculados pelas t´ ecnicas da Sec¸ ˜ ao 2.2. Este ´ e o t ´ opico do Exerc´ıcio 2.10.8.
A Equac¸ ˜ ao (2.138) oferece um m´ etodo mais f´ acil. Usando a Equac¸ ˜ ao (2.114), obtemos
∂ε
i
∂q
j
=

2
r
∂q
j
∂q
i
=
∂ε
j
∂q
i
= Γ
k
ji
ε
k
. (2.132)
Por conseq¨ uˆ encia, os s´ımbolos de Christoffel s˜ ao sim´ etricos nos ´ındices mais baixos:
Γ
k
ij
= Γ
k
ji
. (2.133)
S´ımbolos de Christoffel como Derivadas do Tensor M´ etrico
Muitas vezes ´ e conveniente ter uma express˜ ao expl´ıcita para os s´ımbolos de Christoffel em termos de derivadas do
tensor m´ etrico. Como etapa inicial, definimos o s´ımbolo de Christoffel da primeira esp´ ecie [ij, k] por
[ij, k] ≡ g
mk
Γ
m
ij
, (2.134)
do qual resulta a simetria [ij, k] = [ji, k]. Mais uma vez, esse [ij, k] n˜ ao ´ e um tensor de terceira ordem. Pela
Equac¸ ˜ ao (2.131b),
[ij, k] = g
mk
ε
m

∂ε
i
∂q
j
= ε
k

∂ε
i
∂q
j
. (2.135)
Agora diferenciamos g
ij
= ε
i
ε
j
, Equac¸ ˜ ao (2.124):
∂g
ij
∂q
k
=
∂ε
i
∂q
k
ε
j

i

∂ε
j
∂q
k
= [ik, j] + [jk, i] (2.136)
pela Equac¸ ˜ ao (2.135). Ent˜ ao,
[ij, k] =
1
2
_
∂g
ik
∂q
j
+
∂g
jk
∂q
i

∂g
ij
∂q
k
_
, (2.137)
e
Γ
s
ij
= g
ks
[ij, k]
=
1
2
g
ks
_
∂g
ik
∂q
j
+
∂g
jk
∂q
i

∂g
ij
∂q
k
_
. (2.138)
Esses s´ımbolos de Christoffel s˜ ao aplicados na pr´ oxima sec¸ ˜ ao.
“livro” — 2007/8/1 — 15:06 — page 120 — #130
120 F´ısica Matem´ atica Arfken • Weber
Derivada Covariante
Com os s´ımbolos de Christoffel, a Equac¸ ˜ ao (2.130b) pode ser reescrita como
∂V
t
∂q
j
=
∂V
i
∂q
j
ε
i
+V
i
Γ
k
ij
ε
k
. (2.139)
Agora, i e k no ´ ultimo termo s˜ ao ´ındices mudos. Permutando i e k (apenas neste ´ unico termo), temos
∂V
t
∂q
j
=
_
∂V
i
∂q
j
+V
k
Γ
i
kj
_
ε
i
. (2.140)
A quantidade entre parˆ enteses ´ e denominada derivada covariante, V
i
;j
. Temos
V
i
;j

∂V
i
∂q
j
+V
k
Γ
i
kj
. (2.141)
O ´ındice inferior ;j indica diferenciac¸ ˜ ao em relac¸ ˜ ao a q
j
. A diferencial dV
t
se torna
dV
t
=
∂V
t
∂q
j
dq
j
= [V
i
;j
dq
j

i
. (2.142)
Uma comparac¸ ˜ ao com as Equac¸ ˜ oes (2.113) ou (2.122) mostra que a quantidade entre colchetes ´ e a i-´ esima
componente contravariante de um vetor. Visto que dq
j
´ e a j-´ esima componente contravariante de um vetor
(novamente, Equac¸ ˜ ao (2.113)), V
i
;j
deve ser a ij-´ esima componente de um tensor (misto) de segunda ordem (regra
do quociente). As derivadas covariantes das componentes contravariantes de um vetor formam um tensor misto de
segunda ordem, V
i
;j
.
Uma vez que s´ımbolos de Christoffel se anulam em coordenadas cartesianas, a derivada covariante e a derivada
parcial ordin´ aria coincidem:
∂V
i
∂q
j
= V
i
;j
(coordenadas cartesianas) (2.143)
A derivada covariante de um vetor covariante V
i
´ e dada por (Exerc´ıcio 2.10.9)
V
i;j
=
∂V
i
∂q
j
−V
k
Γ
k
ij
. (2.144)
Assim como V
i
;j
, V
i;j
´ e um tensor de segunda ordem.
A importˆ ancia da derivada covariante na f´ısica ´ e que: “Uma substituic¸ ˜ ao constante de derivadas parciais
regulares por derivadas covariantes transporta as leis da f´ısica (sob a forma de componente) do espac¸o-tempo
plano para o espac¸o-tempo curvo (riemanniano) da relatividade geral. De fato, esta substituic¸ ˜ ao pode ser tomada
como um enunciado matem´ atico do princ´ıpio da equivalˆ encia de Einstein”.
21
Geod´ esicas, Transporte Paralelo
A derivada covariante de vetores-tensores e os s´ımbolos de Christoffel tamb´ em podem ser abordados a partir de
geod´ esicas. Uma geod´ esica em espac¸o euclidiano ´ e uma linha reta. Em geral, ´ e a curva de comprimento mais
curto entre dois pontos e a curva ao longo da qual se movimenta uma part´ıcula em queda livre. As elipses dos
planetas s˜ ao geod´ esicas ao redor do Sol, e a Lua est´ a em queda livre ao redor da Terra sobre uma geod´ esica. Visto
que podemos lanc¸ar uma part´ıcula em qualquer direc¸ ˜ ao, uma geod´ esica pode ter qualquer direc¸ ˜ ao passando por
um dado ponto. Por conseq¨ uˆ encia, a equac¸ ˜ ao da geod´ esica pode ser obtida do princ´ıpio variacional da ´ optica de
Fermat (consulte o Cap´ıtulo 17 para a equac¸ ˜ ao de Euler),
δ
_
ds = 0, (2.145)
em que ds
2
´ e a m´ etrica, Equac¸ ˜ ao (2.123), de nosso espac¸o. Usando a variac¸ ˜ ao de ds
2
,
2 ds δ ds = dq
i
dq
j
δ g
ij
+g
ij
dq
i
δ dq
j
+g
ij
dq
j
δ dq
i
, (2.146)
21
C. W. Misner, K. S. Thorne e J. A. Wheeler, Gravitation. San Francisco: W. H. Freeman (1973), p. 387.
“livro” — 2007/8/1 — 15:06 — page 121 — #131
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 121
na Equac¸ ˜ ao (2.145), obtemos
1
2
_ _
dq
i
ds
dq
j
ds
δg
ij
+g
ij
dq
i
ds
d
ds
δ dq
j
+g
ij
dq
j
ds
d
ds
δ dq
i
_
ds = 0, (2.147)
em que ds mede o comprimento sobre a geod´ esica. Expressando as variac¸ ˜ oes
δg
ij
=
∂g
ij
∂q
k
δ dq
k
≡ (∂
k
g
ij
)δ dq
k
em termos das variac¸ ˜ oes independentes δ dq
k
, deslocando suas derivadas nos outros dois termos da Equac¸ ˜ ao
(2.147), integrando por partes e renomeando os ´ındices de somat´ orio obtemos
1
2
_ _
dq
i
ds
dq
j
ds

k
g
ij

d
ds
_
g
ik
dq
i
ds
+g
kj
dq
j
ds
__
δ dq
k
ds = 0. (2.148)
O integrando da Equac¸ ˜ ao (2.148), igualado a zero, ´ e a equac¸ ˜ ao geod´ esica.
´
E a equac¸ ˜ ao de Euler de nosso problema
variacional. Expandindo
dg
ik
ds
= (∂
j
g
ik
)
dq
j
ds
,
dg
kj
ds
= (∂
i
g
kj
)
dq
i
ds
(2.149)
ao longo da geod´ esica, encontramos
1
2
dq
i
ds
dq
j
ds
(∂
k
g
ij
−∂
j
g
ik
−∂
i
g
kj
) −g
ik
d
2
q
i
ds
2
= 0. (2.150)
Multiplicando a Equac¸ ˜ ao (2.150) por g
kl
e usando a Equac¸ ˜ ao (2.125), encontramos a equac¸ ˜ ao geod´ esica
d
2
q
l
ds
2
+
dq
i
ds
dq
j
ds
1
2
g
kl
(∂
i
g
kj
+∂
j
g
ik
−∂
k
g
ij
) = 0, (2.151)
em que o coeficiente das velocidades ´ e o s´ımbolo de Christoffel Γ
l
ij
da Equac¸ ˜ ao (2.138).
Geod´ esicas s˜ ao curvas que independem da escolha de coordenadas. Elas podem ser desenhadas passando por
qualquer ponto do espac¸o em v´ arias direc¸ ˜ oes. Visto que o comprimento ds medido ao longo da geod´ esica ´ e um
escalar, as velocidades dq
i
/ds (de uma part´ıcula em queda livre ao longo da geod´ esica, por exemplo) formam
um vetor contravariante. Por conseq¨ uˆ encia, V
k
dq
k
/ds ´ e um escalar bem definido sobre qualquer geod´ esica, que
podemos diferenciar de modo a definir a derivada covariante de qualquer vetor covariante V
k
. Usando a Equac¸ ˜ ao
(2.151), obtemos, do escalar
d
ds
_
V
k
dq
k
ds
_
=
dV
k
ds
dq
k
ds
+V
k
d
2
q
k
ds
2
=
∂V
k
∂q
i
dq
i
ds
dq
k
ds
−V
k
Γ
k
ij
dq
i
ds
dq
j
ds
(2.152)
=
dq
i
ds
dq
k
ds
_
∂V
k
∂q
i
−Γ
l
ik
V
l
_
.
Quando o teorema do quociente ´ e aplicado ` a Equac¸ ˜ ao (2.152), ele nos diz que
V
k;i
=
∂V
k
∂q
i
−Γ
l
ik
V
l
(2.153)
´ e um tensor covariante que define a derivada covariante de V
k
, consistente com a Equac¸ ˜ ao (2.144). Tensores de
ordens mais elevadas podem ser derivados de maneira semelhante.
O segundo termo da Equac¸ ˜ ao (2.153) define o transporte paralelo ou deslocamento,
δV
k
= Γ
l
ki
V
l
δq
i
, (2.154)
do vetor covariante V
k
desde o ponto de coordenadas q
i
at´ e q
i
+ δq
i
. O transporte paralelo, δU
k
, de um vetor
covariante U
k
pode ser encontrado pela invariˆ ancia do produto escalar U
k
V
k
sob o transporte paralelo,
δ(U
k
V
k
) = δU
k
V
k
+U
k
δV
k
= 0, (2.155)
“livro” — 2007/8/1 — 15:06 — page 122 — #132
122 F´ısica Matem´ atica Arfken • Weber
em conjunc¸ ˜ ao com o teorema do quociente.
Em suma, quando deslocamos um vetor at´ e um ponto vizinho, o transporte paralelo impede que ele fique para
fora de nosso espac¸o. Isso pode ser visto com clareza na superf´ıcie de uma esfera em uma geometria esf´ erica,
em que um vetor tangente deve permanecer tangente quando transladado ao longo de alguma trajet´ oria sobre a
esfera. Isso explica por que a derivada covariante de um vetor ou tensor ´ e naturalmente definida transladando-a
ao longo de uma geod´ esica na direc¸ ˜ ao desejada.
Exerc´ıcios
2.10.1 As Equac¸ ˜ oes (2.115) e (2.116) usam o fator de escala h
i
, citando o Exerc´ıcio 2.2.3. Na Sec¸ ˜ ao 2.2
t´ınhamos nos restringido a sistemas de coordenadas ortogonais, embora a Equac¸ ˜ ao (2.115) seja
v´ alida para sistemas n˜ ao-ortogonais. Justifique a utilizac¸ ˜ ao da Equac¸ ˜ ao (2.115) para sistemas n˜ ao-
ortogonais.
2.10.2 (a) Mostre que ε
i
ε
j
= δ
i
j
.
(b) Pelo resultado da parte (a), mostre que
F
i
= F ε
i
e F
i
= F ε
i
.
2.10.3 Para o caso especial do espac¸o tridimensional, sendo que (ε
1
, ε
2
, ε
3
) definem um sistema de
coordenadas dextrogiro, n˜ ao necessariamente ortogonal, mostre que
ε
i
=
ε
j
ε
k
ε
j
ε
k
ε
i
, i, j, k = 1, (2, 3 e permutac¸ ˜ oes c´ıclicas).
Nota: Esses vetores de base contravariantes ε
i
definem o espac¸o do reticulado rec´ıproco da Sec¸ ˜ ao
1.5.
2.10.4 Prove que o tensor m´ etrico contravariante ´ e dado por
g
ij
= ε
i
ε
j
.
2.10.5 Se os vetores covariantes ε
i
s˜ ao ortogonais, mostre que
(a) g
ij
´ e diagonal,
(b) g
ii
= 1/g
ii
(sem somat´ orio),
(c) [ε
i
[ = 1/[ε
i
[.
2.10.6 Derive os tensores m´ etricos covariantes e contravariantes para coordenadas cil´ındricas circulares.
2.10.7 Transforme o lado direito da Equac¸ ˜ ao (2.129),
∇ψ =
∂ψ
∂q
i
ε
i
,
para a base e
i
e verifique que essa express˜ ao est´ a de acordo com o gradiente desenvolvido na Sec¸ ˜ ao
2.2 (para coordenadas ortogonais).
2.10.8 Avalie ∂ε
i
/∂q
j
para coordenadas polares esf´ ericas e, a partir desses resultados, calcule Γ
k
ij
para
coordenadas polares esf´ ericas.
Nota: O Exerc´ıcio 2.5.2 oferece uma maneira de calcular as derivadas parciais necess´ arias. Lembre-
se de que
ε
1
= ˆr mas ε
2
= r
ˆ
θ e ε
3
= rsen θˆ ϕ.
2.10.9 Mostre que a derivada covariante de um vetor covariante ´ e dada por
V
i;j

∂V
i
∂q
j
−V
k
Γ
k
ij
.
Sugest˜ ao: Diferencie
ε
i
ε
j
= δ
i
j
.
2.10.10 Verifique que V
i;j
= g
ik
V
k
;j
, mostrando que
∂V
i
∂q
j
−V
s
Γ
s
ij
= g
ik
_
∂V
k
∂q
j
+V
m
Γ
k
mj
_
.
“livro” — 2007/8/1 — 15:06 — page 123 — #133
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 123
2.10.11 Pelo tensor m´ etrico cil´ındrico circular g
ij
, calcule o Γ
k
ij
para coordenadas cil´ındricas circulares.
Nota: H´ a somente trˆ es Γ n˜ ao-nulos.
2.10.12 Usando o Γ
k
ij
do Exerc´ıcio 2.10.11, escreva as derivadas covariantes V
i
;j
de um vetor V em
coordenadas cil´ındricas circulares.
2.10.13 Um cristal tricl´ınico ´ e descrito usando um sistema de coordenadas obl´ıquo. Os trˆ es vetores
covariantes de base s˜ ao
ε
1
= 1, 5ˆ x,
ε
2
= 0, 4ˆ x + 1, 6ˆ y,
ε
3
= 0, 2ˆ x + 0, 3ˆ y + 1, 0ˆ z.
(a) Calcule os elementos do tensor m´ etrico covariante g
ij
.
(b) Calcule os s´ımbolos de Christoffel de trˆ es ´ındices, Γ
k
ij
. (Esse ´ e um c´ alculo “por inspec¸ ˜ ao”.)
(c) Pela forma do produto externo do Exerc´ıcio 2.10.3 calcule o vetor de base contravariante ε
3
.
(d) Usando as formas expl´ıcitas ε
3
e ε
i
, verifique que ε
3
ε
i
= δ
3
i
.
Nota: Se fosse necess´ ario, o tensor m´ etrico covariante poderia ser determinado achando o inverso
de g
ij
ou achando ε
i
e usando g
ij
= ε
i
ε
j
.
2.10.14 Verifique que
[ij, k] =
1
2
_
∂g
ik
∂q
j
+
∂g
jk
∂q
i

∂g
ij
∂q
k
_
.
Sugest˜ ao: Substitua a Equac¸ ˜ ao (2.135) no lado direito e mostre que resulta uma identidade.
2.10.15 Mostre que, para o tensor m´ etrico g
ij;k
= 0, g
ij
;k
= 0.
2.10.16 Mostre que o deslocamento paralelo δ dq
i
= d
2
q
i
ao longo de uma geod´ esica. Construa uma
geod´ esica por deslocamento paralelo de δ dq
i
.
2.10.17 Construa a derivada covariante de um vetor V
i
por transporte paralelo partindo do procedimento
limitador
lim
dq
j
→0
V
i
(q
j
+dq
j
) −V
i
(q
j
)
dq
j
.
2.11 Operadores de Derivadas de Tensores
Nesta sec¸ ˜ ao a diferenciac¸ ˜ ao covariante da Sec¸ ˜ ao 2.10 ´ e aplicada para derivar novamente as operac¸ ˜ oes diferenciais
de vetores da Sec¸ ˜ ao 2.2 sob forma de tensor geral.
Divergˆ encia
Substituindo a derivada parcial pela derivada covariante, admitimos que a divergˆ encia ´ e
∇ V = V
i
;i
=
∂V
i
∂q
i
+V
k
Γ
i
ik
. (2.156)
Expressando Γ
i
ik
pela Equac¸ ˜ ao (2.138), temos
Γ
i
ik
=
1
2
g
im
_
∂g
im
∂q
k
+
∂g
km
∂q
i

∂g
ik
∂q
m
_
. (2.157)
Quando contra´ıdos com g
im
os dois ´ ultimos termos da chave se cancelam, visto que
g
im
∂g
km
∂q
i
= g
mi
∂g
ki
∂q
m
= g
im
∂g
ik
∂q
m
. (2.158)
Ent˜ ao,
Γ
i
ik
=
1
2
g
im
∂g
im
∂q
k
. (2.159)
Pela teoria dos determinantes, Sec¸ ˜ ao 3.1,
∂g
∂q
k
= gg
im
∂g
im
∂q
k
, (2.160)
“livro” — 2007/8/1 — 15:06 — page 124 — #134
124 F´ısica Matem´ atica Arfken • Weber
em que g ´ e o determinante da m´ etrica, g = det(g
ij
). Substituindo esse resultado na Equac¸ ˜ ao (2.158), obtemos
Γ
i
ik
=
1
2g
∂g
∂q
k
=
1
g
1/2
∂g
1/2
∂q
k
. (2.161)
Isso resulta em
∇ V = V
i
;i
=
1
g
1/2

∂q
k
_
g
1/2
V
k
_
. (2.162)
Para comparar esse resultado com a Equac¸ ˜ ao (2.21), note que h
1
h
2
h
3
= g
1/2
e V
i
(coeficiente contravariante de
ε
i
) = V
i
/h
i
(sem somat´ orio), em que V
i
´ e o coeficiente de e
i
.
Laplaciano
Na Sec¸ ˜ ao 2.2, a substituic¸ ˜ ao do vetor V em ∇ V por ∇ψ levou ao laplaciano ∇ ∇ψ. Aqui, temos um
contravariante V
i
. Usando o tensor m´ etrico para criar um contravariante ∇ψ, fazemos a substituic¸ ˜ ao
V
i
→g
ik
∂ψ
∂q
k
.
Ent˜ ao, o laplaciano ∇ ∇ψ torna-se
∇ ∇ψ =
1
g
1/2

∂q
i
_
g
1/2
g
ik
∂ψ
∂q
k
_
. (2.163)
Para os sistemas ortogonais da Sec¸ ˜ ao 2.2 o tensor m´ etrico ´ e diagonal e o contravariante g
ii
(sem somat ´ orio) se
torna
g
ii
= (h
i
)
−2
.
A Equac¸ ˜ ao (2.163) se reduz a
∇ ∇ψ =
1
h
1
h
2
h
3

∂q
i
_
h
1
h
2
h
3
h
2
i
∂ψ
∂q
i
_
,
de acordo com a Equac¸ ˜ ao (2.22).
Rotacional
A diferenc¸a de derivadas que aparece no rotacional (Equac¸ ˜ ao (2.27) ser´ a escrita como
∂V
i
∂q
j

∂V
j
∂q
i
.
Mais uma vez, lembre-se de que, aqui, as componentes V
i
s˜ ao coeficientes dos vetores de base (n˜ ao-unit´ arios)
contravariantes ε
i
. Os V
i
da Sec¸ ˜ ao 2.2 s˜ ao coeficientes de vetores unit´ arios e
i
. Somando e subtraindo, obtemos
∂V
i
∂q
j

∂V
j
∂q
i
=
∂V
i
∂q
j
−V
k
Γ
k
ij

∂V
j
∂q
i
+V
k
Γ
k
ji
= V
i;j
−V
j;i
, (2.164)
usando a simetria dos s´ımbolos de Christoffel. A diferenc¸a caracter´ıstica de derivadas do rotacional se torna uma
diferenc¸a de derivadas covariantes e, portanto, ´ e um tensor de segunda ordem (covariante em ambos os ´ındices).
Como enfatizado na Sec¸ ˜ ao 2.9, a forma vetorial especial do rotacional existe somente em espac¸o tridimensional.
Pela Equac¸ ˜ ao (2.138) fica claro que todos os trˆ es s´ımbolos de Chistoffel com trˆ es ´ındices se anulam no espac¸o
de Minkowski e no espac¸o-tempo real da relatividade especial com
g
λµ
=
_
_
_
_
1 0 0 0
0 −1 0 0
0 0 −1 0
0 0 0 −1
_
_
_
_
.
Aqui,
x
0
= ct, x
1
= x, x
2
= y, e x
3
= z.
Isso conclui o desenvolvimento de operadores diferenciais em forma de tensor geral. (O gradiente foi dado na
Sec¸ ˜ ao 2.10.) Al´ em de suas aplicac¸ ˜ oes nos campos de elasticidade e eletromagnetismo, esses diferenciais tamb´ em
encontram aplicac¸ ˜ ao na mecˆ anica (mecˆ anica lagrangiana, mecˆ anica hamiltoniana e nas equac¸ ˜ oes de Euler para
rotac¸ ˜ ao de corpo r´ıgido); na mecˆ anica dos fluidos; e talvez o mais importante, no espac¸o-tempo curvo de modernas
teorias da gravidade.
“livro” — 2007/8/1 — 15:06 — page 125 — #135
2. AN´ ALISE VETORIAL EM COORDENADAS CURVAS E TENSORES 125
Exerc´ıcios
2.11.1 Verifique a Equac¸ ˜ ao (2.160),
∂g
∂q
k
= gg
im
∂g
im
∂q
k
,
para o caso espec´ıfico de coordenadas polares esf´ ericas.
2.11.2 Comec¸ando com a divergˆ encia em notac¸ ˜ ao de tensor, Equac¸ ˜ ao (2.162), desenvolva a divergˆ encia de
um vetor em coordenadas polares esf´ ericas, Equac¸ ˜ ao (2.47).
2.11.3 O vetor covariante A
i
´ e o gradiente de um escalar. Mostre que a diferenc¸a de derivadas covariantes
A
i;j
−A
j;i
se anula.
Leituras Adicionais
Dirac, P. A. M., General Theory of Relativity. Princeton, NJ: Princeton University Press (1996).
Hartle, J. B., Gravity, San Francisco: Addison-Wesley, 2003. Este texto usa um m´ınimo de an´ alise tensorial.
Jeffreys, H., Cartesian Tensors. Cambridge: Cambridge University Press (1952). Esta ´ e uma excelente discuss˜ ao
de tensores cartesianos e sua aplicac¸ ˜ ao a uma ampla variedade de campos da f´ısica cl´ assica.
Lawden, D. F., An Introduction to Tensor Calculus, Relativity and Cosmology, 3
a
ed. Nova York: Wiley (1982).
Margenau, H., e G. M. Murphy, The Mathematics of Physics and Chemistry, 2
a
, Princeton, NJ: Van Nostrand
(1956). O Cap´ıtulo 5 cobre coordenadas curvil´ıneas, e o 13, sistemas coordenados espec´ıficos.
Misner, C. W., K. S. Thorne, e J. A. Wheeler, Gravitation. San Francisco: W. H. Freeman (1973), p. 387.
Moller, C., The Theory of Relativity. Oxford: Oxford University Press 1955. Reimpresso 1972. Nova tiragem
1972. A maioria dos textos sobre relatividade geral inclui uma discuss˜ ao de an´ alise tensorial. O Cap´ıtulo 4
desenvolve c´ alculo de tensores, incluindo o t ´ opico de tensores duais. A extens˜ ao para sistemas n˜ ao-cartesianos,
como exigida pela relatividade geral, ´ e apresentada no Cap´ıtulo 9.
Morse, P. M., e H. Feshbach, Methods of Theoretical Physics. New York: McGraw-Hill (1953). Nova York:
McGraw-Hill (1953). O Cap´ıtulo 5 inclui uma descric¸ ˜ ao de diferentes sistemas coordenados. Note que Morse
e Feshbach n˜ ao se furtam de usar sistemas coordenados levogiros nem mesmo para coordenadas cartesianas.
Dispersos por este excelente e dif´ıcil livro h´ a muitos exemplos da utilizac¸ ˜ ao dos v´ arios sistemas coordenados
na resoluc¸ ˜ ao de problemas de f´ısica. Mais 11 sistemas de coordenadas ortogonais fascinantes, por´ em pouco
encontrados, s˜ ao discutidos na segunda edic¸ ˜ ao 1970 de Mathematical Methods for Physicists.
Ohanian, H. C., e R. Ruffini, Gravitation and Spacetime, 2
a
ed. Nova York: Norton & Co. (1994). Uma
introduc¸ ˜ ao bem escrita ` a geometria riemanniana.
Sokolnikoff, I. S., Tensor Analysis – Theory and Applications, 2
a
ed. Nova York: Wiley (1964). Particularmente
´ util por sua extens˜ ao da an´ alise tensorial para geometrias n˜ ao-euclidianas.
Weinberg, S., Gravitation and Cosmology. Principles and Applications of the General Theory of Relativity. Nova
York: Wiley (1972). Este livro e o escrito por Misner, Thorne e Wheeler s˜ ao os dois textos principais sobre
relatividade geral e cosmologia (com tensores em espac¸o n˜ ao-cartesiano.)
Young, E. C., Vector and Tensor Analysis, 2
a
ed. Nova York: Marcel Dekker (1993).
“livro” — 2007/8/1 — 15:06 — page 126 — #136
3
Determinantes e Matrizes
3.1 Determinantes
Iniciamos o estudo de matrizes resolvendo equac¸ ˜ oes lineares que nos levar˜ ao a determinantes e matrizes. O
conceito de determinante e a sua notac¸ ˜ ao foram introduzidos pelo c´ elebre matem´ atico e fil ´ osofo alem˜ ao Gottfried
Wilhelm von Leibniz.
Equac¸ ˜ oes Lineares Homogˆ eneas
Uma das maiores aplicac¸ ˜ oes de determinantes ´ e no estabelecimento de uma condic¸ ˜ ao para a existˆ encia de uma
soluc¸ ˜ ao n˜ ao-trivial para um conjunto de equac¸ ˜ oes alg´ ebricas lineares homogˆ eneas. Suponha que temos trˆ es
inc´ ognitas x
1
, x
2
, x
3
(ou n equac¸ ˜ oes com n inc´ ognitas):
a
1
x
1
+a
2
x
2
+a
3
x
3
= 0,
b
1
x
1
+b
2
x
2
+b
3
x
3
= 0, (3.1)
c
1
x
1
+c
2
x
2
+c
3
x
3
= 0.
O problema ´ e determinar sob que condic¸ ˜ oes h´ a qualquer soluc¸ ˜ ao ` a parte da trivial x
1
= 0, x
2
= 0, x
3
= 0.
Se usarmos notac¸ ˜ ao vetorial x = (x
1
, x
2
, x
3
) para a soluc¸ ˜ ao e trˆ es linhas a = (a
1
, a
2
, a
3
), b = (b
1
, b
2
, b
3
),
c = (c
1
, c
2
, c
3
) de coeficientes, ent˜ ao as trˆ es Equac¸ ˜ oes (3.1) tornam-se
a x = 0, b x = 0, c x = 0. (3.2)
A interpretac¸ ˜ ao geom´ etrica dessas trˆ es equac¸ ˜ oes vetoriais ´ e que x ´ e ortogonal a a, b e c. Se o volume abrangido
por a, b, c dado pelo determinante (ou produto escalar triplo, veja a Equac¸ ˜ ao (1.50) da Sec¸ ˜ ao 1.5))
D
3
= (a b) c = det(a, b, c) =
¸
¸
¸
¸
¸
¸
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
¸
¸
¸
¸
¸
¸
(3.3)
n˜ ao for zero, ent˜ ao existe apenas a soluc¸ ˜ ao trivial x = 0.
Ao contr´ ario, se o citado determinante de coeficientes for nulo, ent˜ ao um dos vetores linha ´ e uma combinac¸ ˜ ao
linear dos outros dois. Vamos admitir que c encontre-se no plano definido por a e b, isto ´ e, que a terceira equac¸ ˜ ao
seja uma combinac¸ ˜ ao linear das duas primeiras e n˜ ao-independente. Ent˜ ao, x ´ e ortogonal ` aquele plano, de modo
que x ∼ a b. Uma vez que equac¸ ˜ oes homogˆ eneas podem ser multiplicadas por n´ umeros arbitr´ arios, somente
raz˜ oes dos x
i
s˜ ao relevantes, para os quais ent˜ ao obtemos raz˜ oes de determinantes 2 2
x
1
x
3
=
a
2
b
3
−a
3
b
2
a
1
b
2
−a
2
b
1
x
2
x
3
= −
a
1
b
3
−a
3
b
1
a
1
b
2
−a
2
b
1
(3.4)
a partir dos componentes do produto externo a b, contanto que x
3
∼ a
1
b
2
− a
2
b
1
,= 0. Essa ´ e a regra de
Cramer para trˆ es equac¸ ˜ oes lineares homogˆ eneas.
Equac¸ ˜ oes lineares n˜ ao-homogˆ eneas
O caso mais simples de duas equac¸ ˜ oes com duas inc´ ognitas,
a
1
x
1
+a
2
x
2
= a
3
, b
1
x
1
+b
2
x
2
= b
3
, (3.5)
126
“livro” — 2007/8/1 — 15:06 — page 127 — #137
3. DETERMINANTES E MATRIZES 127
pode ser reduzido ao caso anterior inserindo-a em um espac¸o tridimensional com um vetor soluc¸ ˜ ao x =
(x
1
, x
2
, −1) e vetores linha a = (a
1
, a
2
, a
3
), b = (b
1
, b
2
, b
3
). Como antes, as Equac¸ ˜ oes (3.5) em notac¸ ˜ ao vetorial,
a x = 0 e b x = 0, implicam que x ∼ a b, portanto a an´ aloga das Equac¸ ˜ oes (3.4) ´ e v´ alida. Entretanto, para
que isso se aplique, a terceira componente de a b n˜ ao deve ser zero, isto ´ e, a
1
b
2
− a
2
b
1
,= 0, porque a terceira
componente de x ´ e −1 ,= 0. O resultado disso s˜ ao os x
i
sob a forma
(3.6a)
x
1
=
a
3
b
2
−b
3
a
2
a
1
b
2
−a
2
b
1
=
¸
¸
¸
¸
a
3
a
2
b
3
b
2
¸
¸
¸
¸
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
,
x
2
=
a
1
b
3
−a
3
b
1
a
1
b
2
−a
2
b
1
=
¸
¸
¸
¸
a
1
a
3
b
1
b
3
¸
¸
¸
¸
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
. (3.6b)
O determinante no numerador de x
1
(x
2
) ´ e obtido do determinante dos coeficientes
¸
¸
a1 a2
b2 b2
¸
¸
pela substituic¸ ˜ ao do
primeiro (segundo) vetor coluna pelo vetor
_
a3
b3
_
do lado n˜ ao-homogˆ eneo da Equac¸ ˜ ao (3.5). Essa ´ e regra de
Cramer para um conjunto de duas equac¸ ˜ oes lineares n˜ ao-homogˆ eneas com duas inc´ ognitas.
Essas soluc¸ ˜ oes de equac¸ ˜ oes lineares em termos de determinantes podem ser generalizadas para n dimens˜ oes. O
determinante ´ e um arranjo quadrado
D
n
=
¸
¸
¸
¸
¸
¸
¸
¸
a
1
a
2
a
n
b
1
b
2
b
n
c
1
c
2
c
n

¸
¸
¸
¸
¸
¸
¸
¸
(3.7)
de n´ umeros (ou func¸ ˜ oes), aqui, em nosso caso, os coeficientes de n equac¸ ˜ oes lineares. O n´ umero n de colunas
(e de linhas) no arranjo costuma ser denominado ordem do determinante. A generalizac¸ ˜ ao da expans˜ ao na
Equac¸ ˜ ao (1.48) do produto escalar triplo (de vetores linhas de trˆ es equac¸ ˜ oes lineares) leva ao seguinte valor do
determinante D
n
em n dimens˜ oes
D
n
=

i,j,k,...
ε
ijk
a
i
b
j
c
k
, (3.8)
em que ε
ijk
, an´ alogo ao s´ımbolo de Levi-Civita da Sec¸ ˜ ao 2.9, ´ e +1 para permutac¸ ˜ oes pares
1
(ijk ) de
(123 n), −1 para permutac¸ ˜ oes ´ımpares e zero se algum ´ındice for repetido.
Especificamente, para o determinante de terceira ordem D
3
da Equac¸ ˜ ao (3.3), a Equac¸ ˜ ao (3.8) leva a
D
3
= +a
1
b
2
c
3
−a
1
b
3
c
2
−a
2
b
1
c
3
+a
2
b
3
c
1
+a
3
b
1
c
2
−a
3
b
2
c
1
. (3.9)
Ent˜ ao, o determinante de terceira ordem ´ e essa combinac¸ ˜ ao linear particular de produtos. Cada produto cont´ em
um e somente um elemento de cada linha e de cada coluna. Cada produto ´ e adicionado se as colunas (´ındices)
representarem uma permutac¸ ˜ ao par e subtra´ıdo se tivermos uma permutac¸ ˜ ao ´ımpar. A Equac¸ ˜ ao (3.3) pode ser
considerada a notac¸ ˜ ao abreviada para a Equac¸ ˜ ao (3.9). O n´ umero de termos no somat´ orio (Equac¸ ˜ ao (3.8) ´ e 24 para
um determinante de quarta ordem, n! para um determinante de ordemn. Por causa da aparic¸ ˜ ao dos sinais negativos
na Equac¸ ˜ ao (3.9) (e possivelmente tamb´ em nos elementos individuais), pode haver consider´ avel cancelamento.
´
E
bem poss´ıvel que um determinante de grandes elementos tenha um valor muito pequeno.
Diversas propriedades de determinantes de ordem n resultam da Equac¸ ˜ ao (3.8). Mais uma vez, para sermos
espec´ıficos, a Equac¸ ˜ ao (3.9) para determinantes de terceira ordem ´ e usada para ilustrar essas propriedades.
Desenvolvimento Laplaciano por Menores
A Equac¸ ˜ ao (3.9) pode ser escrita
D
3
= a
1
(b
2
c
3
−b
3
c
2
) −a
2
(b
1
c
3
−b
3
c
1
) +a
3
(b
1
c
2
−b
2
c
1
)
= a
1
¸
¸
¸
¸
¸
b
2
b
3
c
2
c
3
¸
¸
¸
¸
¸
−a
2
¸
¸
¸
¸
¸
b
1
b
3
c
1
c
3
¸
¸
¸
¸
¸
+a
3
¸
¸
¸
¸
¸
b
1
b
2
c
1
c
2
¸
¸
¸
¸
¸
. (3.10)
1
Em uma seq¨ uˆ encia linear, abcd , qualquer transposic¸ ˜ ao ´ unica, simples, de elementos adjacentes d´ a como resultado uma permutac¸ ˜ ao
´ımpar da seq¨ uˆ encia original: abcd →bacd. Duas dessas transposic¸ ˜ oes resultam em uma permutac¸ ˜ ao par. Em geral, um n´ umero ´ımpar dessas
trocas de elementos adjacentes resulta em uma permutac¸ ˜ ao ´ımpar; um n´ umero par dessas transposic¸ ˜ oes resulta em uma permutac¸ ˜ ao par.
“livro” — 2007/8/1 — 15:06 — page 128 — #138
128 F´ısica Matem´ atica Arfken • Weber
Em geral, o determinante de ordemn pode ser expandido como uma combinac¸ ˜ ao linear dos produtos dos elementos
de qualquer linha (ou de qualquer coluna) e dos determinantes de ordem (n − 1) formados pela eliminac¸ ˜ ao da
linha e da coluna do determinante original no qual o elemento aparece. Esse arranjo reduzido (22 neste exemplo
espec´ıfico) ´ e denominado menor. Se o elemento estiver na i-´ esima linha da j-´ esima coluna, o sinal associado com
o produto ´ e (−1)
i+j
. O menor que tem esse sinal ´ e denominado co-fator. Se M
ij
for usado para designar o menor
formado omitindo-se a i-´ esima linha e a j-´ esima coluna e C
ij
for o co-fator correspondente, a Equac¸ ˜ ao (3.10) se
torna
D
3
=
3

j=1
(−1)
j+1
a
j
M
1j
=
3

j=1
a
j
C
1j
. (3.11)
Neste caso, expandindo ao longo da primeira linha, temos i = 1 e o somat´ orio sobre j as colunas.
Esta expans˜ ao de Laplace pode ser usada com vantagem na avaliac¸ ˜ ao de determinantes de ordens mais elevadas
nos quais v´ arios elementos s˜ ao zero. Por exemplo, para achar o valor do determinante
D =
¸
¸
¸
¸
¸
¸
¸
¸
0 1 0 0
−1 0 0 0
0 0 0 1
0 0 −1 0
¸
¸
¸
¸
¸
¸
¸
¸
, (3.12)
expandimos atrav´ es da linha superior para obter
D = (−1)
1+2
(1)
¸
¸
¸
¸
¸
¸
−1 0 0
0 0 1
0 −1 0
¸
¸
¸
¸
¸
¸
. (3.13)
Novamente, expandindo pela linha superior, obtemos
D = (−1) (−1)
1+1
(−1)
¸
¸
¸
¸
0 1
−1 0
¸
¸
¸
¸
=
¸
¸
¸
¸
0 1
−1 0
¸
¸
¸
¸
= 1. (3.14)
(Este determinante D – Equac¸ ˜ ao (3.12) ´ e formado a partir de uma das matrizes de Dirac que aparecem na teoria
relativista do el´ etron de Dirac na Sec¸ ˜ ao 3.4.)
Anti-Simetria
O determinante muda de sinal se quaisquer duas linhas forem permutadas ou se quaisquer duas colunas forem
permutadas. Isso resulta do car´ ater par-´ımpar do ε de Levi-Civita na Equac¸ ˜ ao (3.8) ou, explicitamente, da forma
das Equac¸ ˜ oes (3.9) e (3.10).
2
Essa propriedade foi usada na Sec¸ ˜ ao 2.9 para desenvolver uma combinac¸ ˜ ao linear totalmente anti-sim´ etrica.
Tamb´ em ´ e usada com freq¨ uˆ encia em mecˆ anica quˆ antica na construc¸ ˜ ao de uma func¸ ˜ ao de onda de muitas part´ıculas
que, de acordo com os princ´ıpios de exclus˜ ao de Pauli, ser´ a anti-sim´ etrica sob a permutac¸ ˜ ao de quaisquer duas
part´ıculas idˆ enticas de spin
1
2
(el´ etrons, pr´ otons, nˆ eutrons etc.).
• Como um caso especial de anti-simetria, qualquer determinante com duas linhas iguais ou com duas colunas
iguais ´ e igual a zero.
• Se cada elemento em uma linha ou cada elemento em uma coluna for zero, o determinante ´ e igual a zero.
• Se cada elemento em uma linha ou cada elemento em uma coluna for multiplicado por uma constante, o
determinante ´ e multiplicado por aquela constante.
• O valor de um determinante n˜ ao se altera se um m´ ultiplo de uma linha for adicionado (coluna por coluna) a uma
outra linha ou se um m´ ultiplo de uma coluna dor adicionado (linha por linha) a uma outra coluna.
3
Temos
¸
¸
¸
¸
¸
¸
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
a
1
+ka
2
a
2
a
3
b
1
+kb
2
b
2
b
3
c
1
+kc
2
c
2
c
3
¸
¸
¸
¸
¸
¸
. (3.15)
2
A invers˜ ao de sinal ´ e razoavelmente ´ obvia para a permutac¸ ˜ ao de duas linhas (ou colunas) adjacentes, porque essa ´ e uma permutac¸ ˜ ao
claramente ´ımpar. Mostre que a permutac¸ ˜ ao de quaisquer duas linhas ainda ´ e uma permutac¸ ˜ ao ´ımpar.
3
Isso deriva do significado geom´ etrico do determinante como o volume do paralelep´ıpedo abrangido por seus vetores coluna. Deslocar o
paralelep´ıpedo para o lado sem mudar sua altura n˜ ao modifica o volume.
“livro” — 2007/8/1 — 15:06 — page 129 — #139
3. DETERMINANTES E MATRIZES 129
Usando o desenvolvimento de Laplace no lado direito, obtemos
¸
¸
¸
¸
¸
¸
a
1
+ka
2
a
2
a
3
b
1
+kb
2
b
2
b
3
c
1
+kc
2
c
2
c
3
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
¸
¸
¸
¸
¸
¸
+k
¸
¸
¸
¸
¸
¸
a
2
a
2
a
3
b
2
b
2
b
3
c
2
c
2
c
3
¸
¸
¸
¸
¸
¸
, (3.16)
ent˜ ao, pela propriedade de anti-simetria, o segundo determinante do lado direito de Equac¸ ˜ ao (3.16) se anula,
verificando a Equac¸ ˜ ao (3.15).
Como um caso especial, um determinante ´ e igual a zero se quaisquer duas linhas forem proporcionais ou
quaisquer duas colunas forem proporcionais.
Algumas relac¸ ˜ oes ´ uteis envolvendo determinantes ou matrizes aparecem nos Exerc´ıcios das Sec¸ ˜ oes 3.2 e 3.4.
Voltando ` as Equac¸ ˜ oes (3.1) homogˆ eneas e multiplicando o determinante dos coeficientes por x
1
, e ent˜ ao
somando x
2
vezes a segunda coluna e x
3
vezes a terceira coluna, podemos estabelecer diretamente a condic¸ ˜ ao
para a presenc¸a de uma soluc¸ ˜ ao n˜ ao-trivial para as Equac¸ ˜ oes (3.1):
x
1
¸
¸
¸
¸
¸
¸
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
a
1
x
1
a
2
a
3
b
1
x
1
b
2
b
3
c
1
x
1
c
2
c
3
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
a
1
x
1
+a
2
x
2
+a
3
x
3
a
2
a
3
b
1
x
1
+b
2
x
2
+b
3
x
3
b
2
b
3
c
1
x
1
+c
2
x
2
+c
3
x
3
c
2
c
3
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
0 a
2
a
3
0 b
2
b
3
0 c
2
c
3
¸
¸
¸
¸
¸
¸
= 0. (3.17)
Portanto, x
1
(e x
2
e x
3
) devem ser zero a menos que o determinante de coeficientes se anule. Ao contr´ ario (veja
o texto ap´ os da Equac¸ ˜ ao (3.3), podemos mostrar que, se o determinante dos coeficientes desaparecer, existe, de
fato, uma soluc¸ ˜ ao n˜ ao-trivial. Isso ´ e usado na Sec¸ ˜ ao 9.6 para estabelecer a dependˆ encia ou independˆ encia linear
de um conjunto de func¸ ˜ oes.
Se nossas equac¸ ˜ oes lineares forem n˜ ao-homogˆ eneas, isto ´ e, assim como nas Equac¸ ˜ oes (3.5), se os zeros no
lado direito das Equac¸ ˜ oes (3.1) forem substitu´ıdos por a
4
, b
4
e c
4
, respectivamente, ent˜ ao, pela Equac¸ ˜ ao (3.17),
obtemos
x
1
=
¸
¸
¸
¸
¸
¸
a
4
a
2
a
3
b
4
b
2
b
3
c
4
c
2
c
3
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
¸
¸
¸
¸
¸
¸
, (3.18)
que generaliza a Equac¸ ˜ ao (3.6a) para n = 3 dimens˜ oes etc. Se o determinante dos coeficientes se anular, o conjunto
n˜ ao-homogˆ eneo de equac¸ ˜ oes n˜ ao tem nenhuma soluc¸ ˜ ao — a menos que os numeradores tamb´ em desaparec¸am.
Nesse caso, podem existir soluc¸ ˜ oes, mas elas n˜ ao s˜ ao ´ unicas (veja um exemplo espec´ıfico no Exerc´ıcio 3.1.3).
Para trabalho num´ erico essa soluc¸ ˜ ao por determinante, Equac¸ ˜ ao (3.18), ´ e extremamente dif´ıcil de manejar. O
determinante pode envolver n´ umeros grandes com sinais alternados, e na subtrac¸ ˜ ao de dois n´ umeros grandes o erro
relativo pode se elevar a ponto de o resultado ficar sem sentido. Al´ em disso, embora o m´ etodo do determinante
seja ilustrado aqui com trˆ es equac¸ ˜ oes e trˆ es inc´ ognitas, n˜ ao seria dif´ıcil termos 200 equac¸ ˜ oes com 200 inc´ ognitas
que, por envolver at´ e 200! termos em cada determinante, representam um desafio at´ e mesmo para computadores
de alta velocidade. Tem de haver um modo melhor.
Na verdade, h´ a modos melhores. Um dos melhores ´ e um processo direto que costuma ser denominado
eliminac¸ ˜ ao de Gauss. Para ilustrar essa t´ ecnica, considere o seguinte conjunto de equac¸ ˜ oes.
Exemplo 3.1.1 ELIMINAC¸ ˜ AO DE GAUSS
Resolva
3x + 2y +z = 11
2x + 3y +z = 13 (3.19)
x +y + 4z = 12.
O determinante das equac¸ ˜ oes lineares n˜ ao-homogˆ eneas (3.19) ´ e 18, portanto existe uma soluc¸ ˜ ao.
Por conveniˆ encia e para a acur´ acia num´ erica ´ otima, as equac¸ ˜ oes s˜ ao rearranjadas de modo que os maiores
“livro” — 2007/8/1 — 15:06 — page 130 — #140
130 F´ısica Matem´ atica Arfken • Weber
coeficientes fiquem ao longo da diagonal principal (do canto superior esquerdo ao canto inferior direito). Isso j´ a
foi feito no conjunto precedente.
A t´ ecnica de Gauss ´ e usar a primeira equac¸ ˜ ao para eliminar a primeira inc´ ognita, x, das equac¸ ˜ oes restantes.
Ent˜ ao, a segunda (nova) equac¸ ˜ ao ´ e usada para eliminar y da ´ ultima equac¸ ˜ ao. Em geral, prosseguimos de cima para
baixo por todo o conjunto de equac¸ ˜ oes e, ent˜ ao, ap´ os determinarmos uma das inc´ ognitas, continuamos de baixo
para cima para resolver para cada uma das outras inc´ ognitas sucessivamente.
Dividindo cada linha por seu coeficiente inicial, vemos que as Equac¸ ˜ oes (3.19) se tornam
x +
2
3
y +
1
3
z =
11
3
x +
3
2
y +
1
2
z =
13
2
(3.20)
x +y + 4z = 12.
Agora, usando a primeira equac¸ ˜ ao, eliminamos x da segunda e terceira equac¸ ˜ oes:
x +
2
3
y +
1
3
z =
11
3
5
6
y +
1
6
z =
17
6
(3.21)
1
3
y +
11
3
z =
25
3
e
x +
2
3
y +
1
3
z =
11
3
y +
1
5
z =
17
5
(3.22)
y + 11z = 25.
Repetindo a t´ ecnica, usamos a nova segunda equac¸ ˜ ao para eliminar y da terceira equac¸ ˜ ao:
x +
2
3
y +
1
3
z =
11
3
y +
1
5
z =
17
5
(3.23)
54z = 108,
ou
z = 2.
Por fim, prosseguindo de baixo para cima, obtemos
y +
1
5
2 =
17
5
,
ou
y = 3.
Ent˜ ao, tendo determinado z e y,
x +
2
3
3 +
1
3
2 =
11
3
,
e
x = 1.
A t´ ecnica talvez n˜ ao parec¸a t˜ ao elegante quanto a Equac¸ ˜ ao (3.18), mas se adapta bem a computadores e ´ e muito
mais r´ apida do que o tempo gasto com determinantes.
Essa t´ ecnica de Gauss pode ser usada para converter um determinante para a forma triangular
D =
¸
¸
¸
¸
¸
¸
a
1
b
1
c
1
0 b
2
c
2
0 0 c
3
¸
¸
¸
¸
¸
¸
para um determinante de terceira ordem cujos elementos n˜ ao devem ser confundidos com os da Equac¸ ˜ ao (3.3).
Nessa forma, D = a
1
b
2
c
3
. Para um determinante de ordem n a avaliac¸ ˜ ao da forma triangular requer somente
multiplicac¸ ˜ oes, em comparac¸ ˜ ao com as n! requeridas para o caso geral.
Uma variac¸ ˜ ao dessa eliminac¸ ˜ ao progressiva ´ e conhecida como eliminac¸ ˜ ao de Gauss-Jordan. Comec¸amos como
na eliminac¸ ˜ ao de Gauss, que j´ a examinamos, mas cada nova equac¸ ˜ ao considerada ´ e usada para eliminar uma
“livro” — 2007/8/1 — 15:06 — page 131 — #141
3. DETERMINANTES E MATRIZES 131
vari´ avel de todas as outras equac¸ ˜ oes e n˜ ao apenas das que est˜ ao abaixo dela. Se tiv´ essemos usado essa eliminac¸ ˜ ao
de Gauss-Jordan, a Equac¸ ˜ ao (3.23) teria se tornado
x +
1
5
z =
7
5
y +
1
5
z =
17
5
(3.24)
z = 2,
usando a segunda equac¸ ˜ ao das Equac¸ ˜ oes (3.22) para eliminar y da primeira e da terceira equac¸ ˜ oes. Ent˜ ao, a terceira
equac¸ ˜ ao das Equac¸ ˜ oes (3.24) ´ e usada para eliminar z da primeira e da segunda, resultando em
x = 1
y = 3 (3.25)
z = 2.
Voltaremos a essa t´ ecnica de Gauss-Jordan na Sec¸ ˜ ao 3.2 para inverter matrizes.
Uma outra t´ ecnica adequada para uso em computador ´ e a t´ ecnica de iterac¸ ˜ ao de Gauss-Seidel. Cada t´ ecnica tem
suas vantagens e desvantagens. Os m´ etodos de Gauss e de Gauss-Jordan podem apresentar problemas de precis˜ ao
para grandes determinantes. Isso tamb´ em ´ e um problema para invers˜ ao de matriz (Sec¸ ˜ ao 3.2). O m´ etodo Gauss-
Seidel, por ser iterativo, pode apresentar problemas de convergˆ encia. O pacote Scientific Subroutine Package (SSP)
da IBM usa as t´ ecnicas de Gauss e Gauss-Jordan. O m´ etodo iterativo de Gauss-Seidel e os m´ etodos de eliminac¸ ˜ ao
de Gauss e Gauss-Jordan s˜ ao discutidos com consider´ avel detalhe por Ralston e Wilf e tamb´ em por Pennington.
4
C´ odigos para computadores em FORTRAN e em outras linguagens de programac¸ ˜ ao e literatura extensiva para a
eliminac¸ ˜ ao de Gauss-Jordan e outras tamb´ em s˜ ao dados por Press et al.
5

Dependˆ encia Linear de Vetores
Dois vetores bidimensionais n˜ ao-zero
a
1
=
_
a
11
a
12
_
,= 0, a
2
=
_
a
21
a
22
_
,= 0
s˜ ao definidos como linearmente dependentes se for poss´ıvel encontrar dois n´ umeros x
1
, x
2
que n˜ ao sejam
ambos zero, de modo que a relac¸ ˜ ao linear x
1
a
1
+ x
2
a
2
= 0 seja v´ alida. S˜ ao linearmente independentes se
x
1
= 0 = x
2
for a ´ unica soluc¸ ˜ ao dessa relac¸ ˜ ao linear. Escrevendo-a em componentes cartesianas, obtemos duas
equac¸ ˜ oes lineares homogˆ eneas
a
11
x
1
+a
21
x
2
= 0, a
12
x
1
+a
22
x
2
= 0
das quais extra´ımos o seguinte crit´ erio para independˆ encia linear de dois vetores usando a regra de Cramer. Se
a
1
, a
2
abrangerem uma ´ area n˜ ao-zero, isto ´ e, seu determinante [
a11 a21
a12 a22
[ ,= 0, ent˜ ao o conjunto de equac¸ ˜ oes
lineares homogˆ eneas tem somente a soluc¸ ˜ ao x
1
= 0 = x
2
. Se o determinante for zero, ent˜ ao existe uma
soluc¸ ˜ ao n˜ ao-trivial x
1
, x
2
, e nossos vetores s˜ ao linearmente dependentes. Em particular, os vetores unit´ arios
nas direc¸ ˜ oes x e y s˜ ao linearmente dependentes, sendo que a relac¸ ˜ ao linear x
1
ˆ x
1
+x
2
ˆ x
2
=
_
x1
x2
_
=
_
0
0
_
tem somente
a soluc¸ ˜ ao trivial x
1
= 0 = x
2
.
Trˆ es ou mais vetores em um espac¸o bidimensional s˜ ao sempre linearmente dependentes. Assim, o n´ umero
m´ aximo de vetores linearmente independentes em espac¸o bidimensional ´ e 2. Por exemplo, dados a
1
, a
2
, a
3
,
x
1
a
1
+ x
2
a
2
+ x
3
a
3
= 0, a relac¸ ˜ ao linear sempre tem soluc¸ ˜ oes n˜ ao-triviais. Se um dos vetores for zero, a
dependˆ encia linear ´ e ´ obvia porque o coeficiente do vetor zero pode ser escolhido como n˜ ao-zero e os coeficientes
dos outros vetores como zero. Portanto, admitimos que todos eles sejam n˜ ao-zero. Se a
1
e a
2
s˜ ao linearmente
independentes, escrevemos a relac¸ ˜ ao linear
a
11
x
1
+a
21
x
2
= −a
31
x
3
, a
12
x
1
+a
22
x
2
= −a
32
x
3
,
como um conjunto de duas equac¸ ˜ oes lineares n˜ ao-homogˆ eneas e aplicamos a regra de Cramer. Visto que o
determinante ´ e n˜ ao-zero, podemos achar uma soluc¸ ˜ ao n˜ ao-trivial x
1
, x
2
para qualquer x
3
n˜ ao-zero. Esse argumento
4
A. Ralston e H. Wilf, editores, Mathematical Methods for Digital Computers. Nova York: Wiley 1960; R. H. Pennington, Introductory
Computer Methods and Numerical Analysis. Nova York: Macmillan 1970.
5
W. H. Press, B. P. Flannery, S. A. Teukolsky e W. T. Vetterling, Numerical Recipes, 2
a
ed., Cambridge, UK: Cambridge University Press
(1992), Cap´ıtulo 2.
“livro” — 2007/8/1 — 15:06 — page 132 — #142
132 F´ısica Matem´ atica Arfken • Weber
vale para qualquer par de vetores linearmente independentes. Se todos os pares forem linearmente dependentes,
qualquer dessas relac¸ ˜ oes lineares ´ e uma relac¸ ˜ ao entre os trˆ es vetores e damos tudo por terminado. Se houver mais do
que trˆ es vetores, escolhemos quaisquer trˆ es deles e aplicamos o racioc´ınio precedente e colocamos os coeficientes
dos outros vetores, x
j
= 0, na relac¸ ˜ ao linear.
• Vetores mutuamente ortogonais s˜ ao linearmente independentes.
Admita uma relac¸ ˜ ao linear

i
c
i
v
i
= 0. Introduzindo o produto direto de v
j
nessa express˜ ao usando v
j
v
i
= 0
para j ,= i, obtemos c
j
v
j
v
j
= 0, portanto, todo c
j
= 0 porque v
2
j
,= 0.
A extens˜ ao desses teoremas ´ e direta para n ou mais vetores em um espac¸o euclidiano dimensional n. Assim,
o n´ umero m´ aximo de vetores linearmente independentes em espac¸o n dimensional ´ e n. Os vetores unit´ arios
de coordenadas s˜ ao linearmente independentes porque abrangem um paralelep´ıpedo n˜ ao-zero em um espac¸o n
dimensional e seu determinante ´ e unit´ ario.
Procedimento de Gram-Schmidt
Em um espac¸o vetorial dimensional n com um produto interno (ou escalar), sempre podemos construir uma
base ortonormal de n vetores w
i
com w
i
w
j
= δ
ij
partindo de n vetores linearmente independentes v
i
,
i = 0, 1, . . . , n −1.
Comec¸amos normalizando v
0
para a unidade, definindo w
0
=
v0

v0
2
. Ent˜ ao projetamos v
0
formando u
1
=
v
1
+a
10
w
0
, escolhendo o coeficiente de mistura a
10
, de modo que v
0
u
1
= 0. Fazendo o produto escalar de v
0
em u
1
temos a
10
= −
v0v1

v
2
0
= −v
1
w
0
. Mais uma vez normalizamos u
1
definindo w
1
=
u1

u
2
1
. Aqui, u
2
1
,= 0
porque v
0
, v
1
s˜ ao linearmente independentes. Essa primeira etapa se generaliza para
u
j
= v
j
+a
j0
w
0
+a
j1
w
1
+ +a
jj−1
w
j−1
,
com coeficientes a
ji
= −v
j
w
i
. A normalizac¸ ˜ ao de w
j
=
uj

u
2
j
conclui nossa construc¸ ˜ ao.
Devemos observar que, embora esse procedimento de Gram-Schmidt seja uma maneira poss´ıvel de construir um
conjunto ortogonal ou ortonormal, os vetores w
i
n˜ ao s˜ ao ´ unicos. H´ a um n´ umero infinito de conjuntos ortonormais
poss´ıveis.
Como ilustrac¸ ˜ ao da liberdade envolvida, considere dois vetores (n˜ ao-paralelos) A e B no plano xy. Podemos
normalizar A para grandeza unit´ aria e ent˜ ao formar B
t
= aA + B, de modo que B
t
seja perpendicular a A.
Normalizando B
t
conclu´ımos a ortogonalizac¸ ˜ ao de Gram-Schmidt para dois vetores. Mas quaisquer dois vetores
unit´ arios perpendiculares, tais como ˆ x e ˆ y, poderiam ter sido escolhidos como nosso conjunto ortonormal.
Novamente, com um n´ umero infinito de poss´ıveis rotac¸ ˜ oes de ˆ x e ˆ y ao redor do eixo z, temos um n´ umero infinito
de poss´ıveis conjuntos ortonormais.
Exemplo 3.1.2 VETORES POR ORTOGONALIZAC¸ ˜ AO DE GRAM-SCHMIDT
Para ilustrar o m´ etodo, consideramos dois vetores
v
0
=
_
1
1
_
, v
1
=
_
1
−2
_
,
que n˜ ao s˜ ao nem ortogonais nem normalizados. Normalizando o primeiro vetor w
0
= v
0
/

2, constru´ımos
u
1
= v
1
+a
10
w
0
de modo que seja ortogonal a v
0
. Isso nos d´ a
u
1
v
0
= 0 = v
1
v
0
+
a
10

2
v
2
0
= −1 +a
10

2,
portanto, o coeficiente ajust´ avel de mistura a
10
= 1/

2. O resultado ´ e
u
1
=
_
1
−2
_
+
1
2
_
1
1
_
=
3
2
_
1
−1
_
,
portanto, o segundo vetor ortonormal se torna
w
1
=
1

2
_
1
−1
_
.
Verificamos que w
0
w
1
= 0. Os dois vetores w
0
, w
1
formam um conjunto ortonormal de vetores, uma base de
espac¸o euclidiano bidimensional.
“livro” — 2007/8/1 — 15:06 — page 133 — #143
3. DETERMINANTES E MATRIZES 133
Exerc´ıcios
3.1.1 Avalie os seguintes determinantes:
(a)
¸
¸
¸
¸
¸
¸
1 0 1
0 1 0
1 0 0
¸
¸
¸
¸
¸
¸
, (b)
¸
¸
¸
¸
¸
¸
1 2 0
3 1 2
0 3 1
¸
¸
¸
¸
¸
¸
, (c)
1

2
¸
¸
¸
¸
¸
¸
¸
¸
0

3 0 0

3 0 2 0
0 2 0

3
0 0

3 0
¸
¸
¸
¸
¸
¸
¸
¸
.
3.1.2 Teste o conjunto de equac¸ ˜ oes lineares homogˆ eneas
x + 3y + 3z = 0, x −y +z = 0, 2x +y + 3z = 0
para verificar se ele possui uma soluc¸ ˜ ao n˜ ao-trivial e ache uma soluc¸ ˜ ao.
3.1.3 Dado o par de equac¸ ˜ oes
x + 2y = 3, 2x + 4y = 6,
(a) Mostre que o determinante dos coeficientes se anulam.
(b) Mostre que os determinantes do numerador (Equac¸ ˜ ao (3.18)) tamb´ em se anulam.
(c) Ache ao menos duas soluc¸ ˜ oes.
3.1.4 Expresse as componentes de ABcomo determinantes 22. Ent˜ ao mostre que o produto escalar
A (AB) resulta em uma expans˜ ao laplaciana de um determinante 3 3. Por fim, note que duas
linhas do determinante 3 3 s˜ ao idˆ enticas e, por conseguinte, que A (AB) = 0.
3.1.5 Se C
ij
´ e o co-fator do elemento a
ij
(formado pela eliminac¸ ˜ ao da i-´ esima linha e da j-´ esima coluna
e inclus˜ ao de um sinal (−1)
i+j
), mostre que
(a)

i
a
ij
C
ij
=

i
a
ji
C
ji
= [A[, em que [A[ ´ e o determinante com os elementos a
ij
,
(b)

i
a
ij
C
ik
=

i
a
ji
C
ki
= 0, j ,= k.
3.1.6 Um determinante com todos os elementos de ordem unit´ aria pode ser surpreendentemente pequeno.
O determinante de Hilbert H
ij
= (i + j − 1)
−1
, i, j = 1, 2, . . . , n ´ e not ´ orio por seus valores
pequenos.
(a) Calcule o valor dos determinantes de Hilbert de ordem n para n = 1, 2 e 3.
(b) Se houver uma sub-rotina dispon´ıvel, ache os determinantes de Hilbert de ordem n para n = 4,
5 e 6.
Resposta: n Det(H
n
)
1 1.
2 8, 33333 10
−2
3 4, 62963 10
−4
4 1, 65344 10
−7
5 3, 74930 10
−12
6 5, 36730 10
−18
3.1.7 Resolva o seguinte conjunto de equac¸ ˜ oes lineares simultˆ aneas. Os resultados devem ter cinco casas
decimais.
1, 0x
1
+ 0, 9x
2
+ 0, 8x
3
+ 0, 4x
4
+ 0, 1x
5
= 1, 0
0, 9x
1
+ 1, 0x
2
+ 0, 8x
3
+ 0, 5x
4
+ 0, 2x
5
+ 0, 1x
6
= 0, 9
0, 8x
1
+ 0, 8x
2
+ 1, 0x
3
+ 0, 7x
4
+ 0, 4x
5
+ 0, 2x
6
= 0, 8
0, 4x
1
+ 0, 5x
2
+ 0, 7x
3
+ 1, 0x
4
+ 0, 6x
5
+ 0, 3x
6
= 0, 7
0, 1x
1
+ 0, 2x
2
+ 0, 4x
3
+ 0, 6x
4
+ 1, 0x
5
+ 0, 5x
6
= 0, 6
0, 1x
2
+ 0, 2x
3
+ 0, 3x
4
+ 0, 5x
5
+ 1, 0x
6
= 0, 5.
Nota: Essas equac¸ ˜ oes tamb´ em podem ser resolvidas por invers˜ ao de matriz, Sec¸ ˜ ao 3.2.
3.1.8 Resolva as equac¸ ˜ oes lineares a x = c, ax+b = 0 para x = (x
1
, x
2
, x
3
) com vetores constantes
a ,= 0, b e constante c.
“livro” — 2007/8/1 — 15:06 — page 134 — #144
134 F´ısica Matem´ atica Arfken • Weber
Resposta: x =
c
a
2
a + (a b)/a
2
.
3.1.9 Resolva as equac¸ ˜ oes lineares a x = d, b x = e, c x = f, para x = (x
1
, x
2
, x
3
) com vetores
constantes a, b, c e constantes d, e, f de modo que (a b) c ,= 0.
Resposta: [(a b) c]x = d(b c) +e(c a) +f(a b).
3.1.10 Expresse em forma vetorial a soluc¸ ˜ ao (x
1
, x
2
, x
3
) de ax
1
+ bx
2
+ cx
3
+ d = 0 com vetores
constantes a, b, c, d, de modo que (a b) c ,= 0.
3.2 Matrizes
A an´ alise matricial pertence ` a ´ algebra linear porque matrizes s˜ ao operadores lineares ou mapas, tais como rotac¸ ˜ oes.
Suponha, por exemplo, que rotacionamos as coordenadas cartesianas de um espac¸o bidimensional, como na Sec¸ ˜ ao
1.2, de modo que, em notac¸ ˜ ao vetorial
_
x
t
1
x
t
2
_
=
_
x
1
cos ϕ +x
2
sen ϕ
−x
2
sen ϕ +x
2
cos ϕ
_
=
_
j
a
1j
x
j

j
a
2j
x
j
_
. (3.26)
Denominamos o arranjo de elementos (
a11 a12
a21 a22
) matriz 2 2 A consistindo em duas linhas e duas colunas e
consideramos os vetores x, x
t
matrizes 2 1. Tomamos o somat´ orio de produtos na Equac¸ ˜ ao (3.26) como uma
definic¸ ˜ ao de multiplicac¸ ˜ ao de matrizes envolvendo o produto escalar de cada vetor linha de A com o vetor
coluna x. Assim, em notac¸ ˜ ao matricial, a Equac¸ ˜ ao (3.26) se torna
x
t
= Ax. (3.27)
Para estender essa definic¸ ˜ ao de multiplicac¸ ˜ ao de uma matriz por um vetor coluna ao produto de duas matrizes
2 2, vamos fazer a rotac¸ ˜ ao de coordenadas e, em seguida, uma segunda rotac¸ ˜ ao dada pela matriz B, tal que
x
tt
= Bx
t
. (3.28)
Em forma de componente,
x
tt
i
=

j
b
ij
x
t
j
=

j
b
ij

k
a
jk
x
k
=

k
_

j
b
ij
a
jk
_
x
k
. (3.29)
O somat´ orio em relac¸ ˜ ao a j ´ e a multiplicac¸ ˜ ao matricial que define uma matriz C = BA, tal que
x
tt
i
=

k
c
ik
x
k
, (3.30)
ou x
tt
= Cx em notac¸ ˜ ao matricial. Mais uma vez, essa definic¸ ˜ ao envolve os produtos escalares de vetores linhas de
B com vetores colunas de A. Essa definic¸ ˜ ao de multiplicac¸ ˜ ao matricial ´ e generalizada para matrizes mn e ´ e ´ util;
na verdade, essa utilidade ´ e a justificativa de sua existˆ encia. A interpretac¸ ˜ ao geom´ etrica ´ e que o produto matricial
das duas matrizes BA ´ e a rotac¸ ˜ ao que leva o sistema “sem linha” diretamente para o sistema de coordenadas
“duas linhas”. Antes de passarmos para definic¸ ˜ oes formais, vocˆ e deve notar que o operador A ´ e descrito por seu
efeito sobre as coordenadas ou vetores de base. Os elementos de matriz a
ij
constituem uma representac¸ ˜ ao do
operador, uma representac¸ ˜ ao que depende da escolha de uma base.
O caso especial de uma matriz de uma s´ o coluna e n linhas ´ e denominado vetor coluna, [x), com componentes
x
i
, i = 1, 2, . . . , n. Se A for uma matriz n n, [x) um vetor coluna de n componentes, A[x) ´ e definida como
nas Equac¸ ˜ oes (3.26) e (3.27). De modo semelhante, se uma matriz tiver uma linha e n colunas, ´ e denominada
vetor linha, ¸x[ com componentes x
i
, i = 1, 2, . . . , n. Est´ a claro que ¸x[ resulta de [x) pela permutac¸ ˜ ao de
linhas e colunas, uma operac¸ ˜ ao matricial denominada transposic¸ ˜ ao. A transposic¸ ˜ ao para qualquer matriz A,
˜
A ´ e
denominada
6
“A transposta” com elementos de matriz (
˜
A)
ik
= A
ki
. Transpor um produto de matrizes AB inverte
a ordem e d´ a
˜
B
˜
A; de modo semelhante, A[x) transposta ´ e ¸x[A. O produto escalar toma a forma de ¸x[y) =

i
x
i
y
i
(x

i
em um espac¸o vetorial complexo. Essa notac¸ ˜ ao “bra-ket” de Dirac ´ e usada extensivamente em mecˆ anica
quˆ antica e no Cap´ıtulo 10, e tamb´ em passaremos a us´ a-la aqui.
De um modo mais abstrato, podemos definir o espac¸o dual
˜
V de funcionais lineares F em um espac¸o vetorial
V , em que cada funcional linear F de
˜
V atribui um n´ umero F(v), de modo que
F(c
1
v
1
+c
2
v
2
) = c
1
F(v
1
) +c
2
F(v
2
) ,
6
Alguns textos (incluindo o nosso, ` as vezes) denotam A transposta por A
T
.
“livro” — 2007/8/1 — 15:06 — page 135 — #145
3. DETERMINANTES E MATRIZES 135
para quaisquer vetores v
1
, v
2
de nosso espac¸o vetorial V e n´ umeros c
1
, c
2
. Se definirmos a soma de dois funcionais
por linearidade como
(F
1
+F
2
)(v) = F
1
(v) +F
2
(v),
ent˜ ao
˜
V ´ e um espac¸o linear por construc¸ ˜ ao.
O teorema de Riesz diz que h´ a uma correspondˆ encia um - para um - entre funcionais lineares F em
˜
V e vetores
f em um espac¸o vetorial V que tenha um produto interno (ou escalar) ¸f [v) definido para qualquer
par de vetores f , v.
A prova depende do produto escalar por definic¸ ˜ ao de uma funcional linear F para qualquer vetor f de V , tal
como F(v) = ¸f [v) para qualquer v de V . A linearidade do produto escalar em f mostra que esses funcionais
formam um espac¸o vetorial (necessariamente contido em
˜
V ). Note que um funcional linear ´ e completamente
especificado quando ´ e definido para todo vetor v de um dado espac¸o vetorial.
Por outro lado, partindo de qualquer funcional linear n˜ ao-trivial F de
˜
V , constru´ımos agora um vetor ´ unico f
de V , de modo que F(v) = f v ´ e dada por um produto interno. Comec¸amos a partir de uma base ortonormal
w
i
de vetores em V usando o procedimento de Gram-Schmidt (veja a Sec¸ ˜ ao 3.2). Tome qualquer vetor v de V e
expanda-o como v =

i
w
i
vw
i
. Ent˜ ao, o funcional linear F(v) =

i
w
i
vF(w
i
) ´ e bem definido em V . Se
definirmos o vetor espec´ıfico f =

i
F(w
i
)w
i
, ent˜ ao seu produto interno com um vetor arbitr´ ario v ´ e dado por
¸f [v) = f v =

i
F(w
i
)w
i
v = F(v), que prova o teorema de Riesz.
Definic¸ ˜ oes B´ asicas
Uma matriz ´ e definida como um arranjo quadrado ou retangular de n´ umeros ou func¸ ˜ oes que obedece a certas leis.
Essa ´ e um extens˜ ao perfeitamente l´ ogica de conceitos matem´ aticos familiares. Em aritm´ etica lidamos com n´ umeros
´ unicos. Na teoria de vari´ aveis complexas (Cap´ıtulo 6) lidamos com pares ordenados de n´ umeros, (1, 2) = 1 + 2i,
para os quais a ordem ´ e importante. Agora, consideramos n´ umeros (ou func¸ ˜ oes) ordenadas em um arranjo quadrado
ou retangular. Por conveniˆ encia, em nosso trabalho mais adiante os n´ umeros s˜ ao diferenciados por dois ´ındices
inferiores (subscritos), sendo que o primeiro indica a linha (horizontal) e o segundo indica a coluna (vertical) na
qual o n´ umero aparece. Por exemplo, a
13
´ e o elemento da matriz na primeira linha, terceira coluna. Por conseguinte,
se A ´ e uma matriz com m linhas e n colunas,
A =
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

a
m1
a
m2
a
mn
_
_
_
_
. (3.31)
Talvez o fato mais importante a notar ´ e que os elementos a
ij
n˜ ao s˜ ao combinados um com o outro. Uma matriz
n˜ ao ´ e um determinante.
´
E um arranjo ordenado de n´ umeros, n˜ ao um n´ umero ´ unico.
A matriz A, at´ e aqui apenas um arranjo de n´ umeros, tem as propriedades que a ela atribu´ımos. Literalmente,
isso quer dizer construir uma nova forma de matem´ atica. Definimos que matrizes A, B, com elementos a
ij
, b
ij
,
respectivamente, se combinam conforme as regras a seguir.
Ordem
Voltando ` as equac¸ ˜ oes lineares homogˆ eneas, Equac¸ ˜ ao (3.1), notamos que a matriz de coeficientes, A, ´ e composta
de trˆ es vetores linhas, sendo que cada um representa uma equac¸ ˜ ao linear do conjunto. Se seu produto escalar triplo
n˜ ao for zero, ent˜ ao elas abrangem um volume n˜ ao-zero e s˜ ao linearmente independentes, e as equac¸ ˜ oes lineares
homogˆ eneas tˆ em somente a soluc¸ ˜ ao trivial. Nesse caso, diz-se que a matriz ´ e de ordem 3. Em n dimens˜ oes o
volume representado pelo produto escalar triplo torna-se o determinante, det(A), para uma matriz quadrada. Se
det(A) ,= 0, a matriz n n matrix A ´ e de ordem n. O caso da Equac¸ ˜ ao (3.1), em que o vetor c encontra-se no
plano varrido por a e b, por corresponder ` a ordem 2 da matriz de coeficientes porque somente dois de seus vetores
linhas a, b, correspondentes a duas equac¸ ˜ oes) s˜ ao independentes. Em geral, a ordemr de uma matriz ´ e o n´ umero
m´ aximo de vetores linhas ou vetores colunas independentes que ela tem, com 0 ≤ r ≤ n.
Igualdade
Matriz A = Matriz B se, e somente se, a
ij
= b
ij
para todos os valores de i e j. Isso, ´ e claro, requer que cada uma,
A e B, seja arranjo mn (m linhas, n colunas).
Adic¸ ˜ ao, Subtrac¸ ˜ ao
A±B = C se, e somente se, a
ij
±b
ij
= c
ij
para todos os valores de i e j, sendo que os elementos s˜ ao combinados
conforme as leis da ´ algebra ordin´ aria (ou da aritm´ etica se forem n´ umeros simples). Isso significa que
“livro” — 2007/8/1 — 15:06 — page 136 — #146
136 F´ısica Matem´ atica Arfken • Weber
A + B = B + A, comutac¸ ˜ ao. Al´ em disso, a lei associativa ´ e satisfeita (A + B) + C = A + (B + C). Se todos os
elementos s˜ ao zero, a matriz, denominada matriz nula, ´ e denotada por O. Para toda A,
A +O = O +A = A,
com
O =
_
_
_
_
0 0 0
0 0 0
0 0 0

_
_
_
_
. (3.32)
Essas matrizes mn formam um espac¸o linear em relac¸ ˜ ao ` a adic¸ ˜ ao e ` a subtrac¸ ˜ ao.
Multiplicac¸ ˜ ao (por um Escalar)
A multiplicac¸ ˜ ao da matriz A pela quantidade escalar α ´ e definida como
αA = (αA), (3.33)
na qual os elementos αA s˜ ao αa
ij
; isto ´ e, cada elemento da matriz A ´ e multiplicado pelo fator escalar. Isto ´ e um
surpreendente contraste com o comportamento de determinantes no qual o fator α multiplica apenas uma coluna
ou uma linha e n˜ ao todo elemento do determinante inteiro. Uma conseq¨ uˆ encia dessa multiplicac¸ ˜ ao escalar ´ e que
αA = Aα, comutac¸ ˜ ao.
Se A for uma matriz quadrada, ent˜ ao
det(αA) = α
n
det(A).
Multiplicac¸ ˜ ao de Matrizes, Produto Interno
AB = C se, e somente se,
7
c
ij
=

k
a
ik
b
kj
. (3.34)
O elemento ij de C ´ e formado como um produto escalar da i-´ esima fila de A com a j-´ esima coluna de B (o que
exige que A tenha o n´ umero de colunas (n) igual ao n´ umero de linhas de B. O ´ındice mudo k assume todos os
valores 1, 2, . . . , n, sucessivamente; isto ´ e,
c
ij
= a
i1
b
1j
+a
i2
b
2j
+a
i3
b
3j
, (3.35)
para n = 3.
´
E obvio que o ´ındice mudo k pode ser substitu´ıdo por qualquer outro s´ımbolo que n˜ ao esteja em uso
sem alterar a Equac¸ ˜ ao (3.34). Talvez a situac¸ ˜ ao possa ser esclarecida afirmando que a Equac¸ ˜ ao (3.34) define o
m´ etodo de combinar certas matrizes. Para ilustrar que tenha um r´ otulo, esse m´ etodo de combinac¸ ˜ ao ´ e denominado
multiplicac¸ ˜ ao de matrizes. Para ilustrar considere duas matrizes (denominadas matrizes de Pauli):
σ
1
=
_
0 1
1 0
_
e σ
3
=
_
1 0
0 −1
_
. (3.36)
O elemento
11
do produto, (σ
1
σ
3
)
11
, ´ e dado pela soma dos produtos de elementos da primeira fila de σ
1
com os
elementos correspondentes da primeira coluna σ
3
:
_
0 1
1 0
_
_
1 0
0 −1
_
→0 1 + 1 0 = 0.
Continuando, temos
σ
1
σ
3
=
_
0 1 + 1 0 0 0 + 1 (−1)
1 1 + 0 0 1 0 + 0 (−1)
_
=
_
0 −1
1 0
_
. (3.37)
Aqui

1
σ
3
)
ij
= σ
1i1
σ
31j

1i2
σ
32j
.
7
Aqui, alguns autores seguem a convenc¸ ˜ ao do somat ´ orio (compare com a Sec¸ ˜ ao 2.6).
“livro” — 2007/8/1 — 15:06 — page 137 — #147
3. DETERMINANTES E MATRIZES 137
A aplicac¸ ˜ ao direta da definic¸ ˜ ao de multiplicac¸ ˜ ao de matrizes mostra que
σ
3
σ
1
=
_
0 1
−1 0
_
(3.38)
e pela Equac¸ ˜ ao (3.37)
σ
3
σ
1
= −σ
1
σ
3
. (3.39)
Exceto em casos especiais, a multiplicac¸ ˜ ao de matrizes n˜ ao ´ e comutativa:
8
AB ,= BA. (3.40)
Contudo, pela definic¸ ˜ ao de multiplicac¸ ˜ ao de matrizes, podemos mostrar
9
que uma lei associativa ´ e v´ alida,
(AB)C = A(BC). H´ a tamb´ em uma lei distributiva, A(B +C) = AB +AC.
A matriz unit´ aria 1 tem elementos δ
ij
, de Kronecker, e a propriedade de que 1A = A1 = A para todo A,
1 =
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1

_
_
_
_
_
_
. (3.41)
Deve-se notar que ´ e poss´ıvel que o produto de duas matrizes seja a matriz nula sem que nenhuma delas seja uma
matriz nula. Por exemplo, se
A =
_
1 1
0 0
_
e B =
_
1 0
−1 0
_
,
AB = O. Isso ´ e diferente da multiplicac¸ ˜ ao de n´ umeros reais ou complexos, que formam um campo, ao passo
que a estrutura aditiva e multiplicativa de matrizes ´ e denominada anel pelos matem´ aticos. Veja tamb´ em o
Exerc´ıcio 3.2.6(a), pelo qual fica evidente que, se AB = 0, ao menos uma das matrizes deve ter um determinante
zero (ou seja, ser singular como definido ap´ os a Equac¸ ˜ ao (3.50) nesta sec¸ ˜ ao).
Se A ´ e uma matriz n n com determinante [A[ , = 0, ent˜ ao ela tem uma ´ unica inversa A
−1
que satisfaz
AA
−1
= A
−1
A = 1. Se B ´ e tamb´ em uma matriz n n com inversa B
−1
, ent˜ ao o produto AB tem a inversa
(AB)
−1
= B
−1
A
−1
(3.42)
porque ABB
−1
A
−1
= 1 = B
−1
A
−1
AB (veja tamb´ em Exerc´ıcios 3.2.31 e 3.2.32).
O teorema do produto, que diz que o determinante do produto, [AB[, de duas matrizes A e B ´ e igual ao produto
dos determinantes, [A[[B[, liga matrizes com determinantes. Para provar isso, considere os n vetores colunas
c
k
= (

j
a
ij
b
jk
, i = 1, 2, . . . , n) da matriz produto C = AB para k = 1, 2, . . . , n. Cada c
k
=

jk
b
jkk
a
jk
´ e uma soma de n vetores colunas a
jk
= (a
ijk
, i = 1, 2, . . . , n). Note que agora estamos usando um ´ındice j
k
diferente de somat ´ orio de produto para cada coluna c
k
. Uma vez que qualquer determinante D(b
1
a
1
+ b
2
a
2
) =
b
1
D(a
1
) + b
2
D(a
2
) ´ e linear em seus vetores colunas, podemos retirar o sinal de somat ´ orio que est´ a na frente do
determinante de cada vetor coluna em C juntamente com o fator b
jkk
comum da coluna, de modo que
[C[ =

j

k
s
b
j11
b
j22
b
jnn
det(a
j1
a
j2
, . . . , a
jn
). (3.43)
Se rearranjarmos os vetores colunas a
jk
do fator determinante na Equac¸ ˜ ao (3.43) na ordem correta, ent˜ ao podemos
puxar o fator comum det(a
1
, a
2
, . . . , a
n
) = [A[ ` a frente dos n sinais de somat ´ orio na Equac¸ ˜ ao (3.43). Essas
permutac¸ ˜ oes de colunas geram o sinal correto ε
j1j2jn
para produzir na Equac¸ ˜ ao (3.43) a express˜ ao presente na
Equac¸ ˜ ao (3.8) para [B[, de modo que
[C[ = [A[

j

k
s
ε
j1j2jn
b
j11
b
j22
b
jnn
= [A[[B[, (3.44)
o que prova o teorema do produto.
8
Comutac¸ ˜ ao, ou falta de comutac¸ ˜ ao, ´ e descrita de modo conveniente pelo s´ımbolo de comutador, o colchete, [A, B] = AB − BA. A
Equac¸ ˜ ao (3.40) torna-se [A, B] ,= 0.
9
Note que as definic¸ ˜ oes b´ asicas de igualdade, adic¸ ˜ ao e multiplicac¸ ˜ ao s˜ ao dadas em termos dos elementos da matriz, os a
ij
. Todas as
nossas operac¸ ˜ oes matriciais podem ser executadas em termos dos elementos da matriz. Contudo, tamb´ em podemos tratar uma matriz como um
operador alg´ ebrico ´ unico, como na Equac¸ ˜ ao (3.40). Elementos de matrizes e operadores ´ unicos, cada um tem suas vantagens, como veremos
na pr´ oxima sec¸ ˜ ao. Usaremos as duas abordagens.
“livro” — 2007/8/1 — 15:06 — page 138 — #148
138 F´ısica Matem´ atica Arfken • Weber
Produto Direto
Em seguida, apresentamos um segundo procedimento para multiplicar matrizes, conhecido como tensor direto ou
produto de Kronecker. Se A ´ e uma matriz mm e B ´ e uma matriz n n, ent˜ ao o produto direto ´ e
A ⊗B = C. (3.45)
C ´ e uma matriz mn mn com elementos
C
αβ
= A
ij
B
kl
, (3.46)
com
α = m(i −1) +k, β = n(j −1) +l.
Por exemplo, se A e B forem ambas matrizes 2 2
A ⊗B =
_
a
11
B a
12
B
a
21
B a
22
B
_
=
_
_
_
_
a
11
b
11
a
11
b
12
a
12
b
11
a
12
b
12
a
11
b
21
a
11
b
22
a
12
b
21
a
12
b
22
a
21
b
11
a
21
b
12
a
22
b
11
a
22
b
12
a
21
b
21
a
21
b
22
a
22
b
21
a
22
b
22
_
_
_
_
. (3.47)
O produto direto ´ e associativo, mas n˜ ao comutativo. Como exemplo do produto direto, as matrizes de Dirac
da Sec¸ ˜ ao 3.4 podem ser desenvolvidas como produtos diretos das matrizes de Pauli e da matriz unit´ aria. Outros
exemplos aparecem na construc¸ ˜ ao de grupos (veja o Cap´ıtulo 4) e em espac¸o vetorial ou espac¸o de Hilbert da teoria
quˆ antica.
Exemplo 3.2.1 PRODUTO DIRETO DE VETORES
O produto direto de dois vetores bidimensionais ´ e um vetor de quatro componentes,
_
x
0
x
1
_

_
y
0
y
1
_
=
_
_
_
_
x
0
y
0
x
0
y
1
x
1
y
0
x
1
y
1
_
_
_
_
;
enquanto o produto direto de trˆ es desses vetores,
_
x
0
x
1
_

_
y
0
y
1
_

_
z
0
z
1
_
=
_
_
_
_
_
_
_
_
_
_
_
_
x
0
y
0
z
0
x
0
y
0
z
1
x
0
y
1
z
0
x
0
y
1
z
1
x
1
y
0
z
0
x
1
y
0
z
1
x
1
y
1
z
0
x
1
y
1
z
1
_
_
_
_
_
_
_
_
_
_
_
_
,
´ e um vetor de (2
3
= 8) dimens˜ oes.
Matrizes Diagonais
Um tipo especial importante de matriz ´ e a matriz quadrada na qual todos os elementos n˜ ao-diagonais s˜ ao zero.
Especificamente, se uma matriz 3 3 A for diagonal, ent˜ ao
A =
_
_
a
11
0 0
0 a
22
0
0 0 a
33
_
_
.
Uma interpretac¸ ˜ ao f´ısica de tais matrizes diagonais e o m´ etodo para reduzir matrizes a essa forma diagonal s˜ ao
considerados na Sec¸ ˜ ao 3.5. Aqui, nos limitamos a destacar uma propriedade significativa de matrizes diagonais —
a multiplicac¸ ˜ ao de matrizes diagonais ´ e comutativa,
AB = BA, se cada uma A e B for diagonal.
“livro” — 2007/8/1 — 15:06 — page 139 — #149
3. DETERMINANTES E MATRIZES 139
A multiplicac¸ ˜ ao por uma matriz diagonal [d
1
, d
2
, . . . , d
n
] que tenha somente elementos n˜ ao-zero na diagonal ´ e
particularmente simples:
_
1 0
0 2
__
1 2
3 4
_
=
_
1 2
2 3 2 4
_
=
_
1 2
6 8
_
;
enquanto a ordem oposta d´ a
_
1 2
3 4
__
1 0
0 2
_
=
_
1 2 2
3 2 4
_
=
_
1 4
3 8
_
.
Assim, uma matriz diagonal n˜ ao comuta com uma outra matriz a menos que ambas sejam diagonais ou que
a matriz diagonal seja proporcional ` a matriz unit´ aria. Isso ´ e confirmado pela forma mais geral
[d
1
, d
2
, . . . , d
n
]A =
_
_
_
_
d
1
0 0
0 d
2
0

0 0 d
n
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

a
n1
a
n2
a
nn
_
_
_
_
=
_
_
_
_
d
1
a
11
d
1
a
12
d
1
a
1n
d
2
a
21
d
2
a
22
d
2
a
2n

d
n
a
n1
d
n
a
n2
d
n
a
nn
_
_
_
_
,
enquanto
A[d
1
, d
2
, . . . , d
n
] =
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
d
1
0 0
0 d
2
0

0 0 d
n
_
_
_
_
=
_
_
_
_
d
1
a
11
d
2
a
12
d
n
a
1n
d
1
a
21
d
2
a
22
d
n
a
2n

d
1
a
n1
d
2
a
n2
d
n
a
nn
_
_
_
_
.
Aqui, denominamos [d
1
, . . . , d
n
] a matriz diagonal com elementos diagonais d
1
, . . . , d
n
. No caso especial de
multiplicac¸ ˜ ao de duas matrizes diagonais, simplesmente multiplicamos os elementos correspondentes da matriz
diagonal que, obviamente, ´ e comutativa.
Trac¸o
Em qualquer matriz quadrada, a soma dos elementos diagonais ´ e denominada trac¸o.
´
E claro que o trac¸o ´ e uma operac¸ ˜ ao linear:
trac¸o(A −B) = trac¸o(A) −trac¸o(B).
Uma de suas propriedades interessantes e ´ uteis ´ e que o trac¸o de um produto de duas matrizes A e B ´ e independente
da ordem da multiplicac¸ ˜ ao:
trac¸o(AB) =

i
(AB)
ii
=

i

j
a
ij
b
ji
=

j

i
b
ji
a
ij
=

j
(BA)
jj
(3.48)
= trac¸o(BA).
Isso vale mesmo que AB ,= BA. A Equac¸ ˜ ao (3.48) significa que o trac¸o de qualquer comutador [A, B] = AB−BA
´ e zero. Pela Equac¸ ˜ ao (3.48) obtemos
trac¸o(ABC) = trac¸o(BCA) = trac¸o(CAB),
“livro” — 2007/8/1 — 15:06 — page 140 — #150
140 F´ısica Matem´ atica Arfken • Weber
que mostra que o trac¸o ´ e invariante sob permutac¸ ˜ ao c´ıclica das matrizes em um produto.
Para uma matriz sim´ etrica real ou uma matriz hermitiana complexa (veja a Sec¸ ˜ ao 3.4), o trac¸o ´ e a soma, e o
determinante ´ e o produto de seus autovalores e ambos s˜ ao coeficientes do polinˆ omio caracter´ıstico. No Exerc´ıcio
3.4.23 a operac¸ ˜ ao de tomar o trac¸o seleciona um termo de uma soma de 16 termos. O trac¸o servir´ a a uma func¸ ˜ ao
semelhante em relac¸ ˜ ao a matrizes, assim como a ortogonalidade serve a vetores e func¸ ˜ oes.
Em termos de tensores (Sec¸ ˜ ao 2.7), o trac¸o ´ e uma contrac¸ ˜ ao e, assim como o tensor contra´ıdo de segunda ordem,
´ e um escalar (invariante).
Matrizes s˜ ao extensivamente usadas para representar os elementos de grupos (compare com o Exerc´ıcio 3.2.7
e o Cap´ıtulo 4). Na teoria de grupo, o trac¸o da matriz que representa o elemento de grupo ´ e conhecido como
car´ ater. A raz˜ ao para o nome especial e para a atenc¸ ˜ ao especial ´ e que o trac¸o ou car´ ater permanece invariante sob
transformac¸ ˜ oes de similaridade (compare com o Exerc´ıcio 3.3.9).
Invers˜ ao de Matriz
No in´ıcio desta sec¸ ˜ ao, a matriz A ´ e introduzida como a representac¸ ˜ ao de um operador que transforma (linearmente)
os eixos coordenados. Uma rotac¸ ˜ ao seria um exemplo de tal transformac¸ ˜ ao linear. Agora procuramos a
transformac¸ ˜ ao inversa A
−1
que ir´ a restaurar os eixos coordenados originais. Isso quer dizer: como matriz ou como
equac¸ ˜ ao de operador,
10
AA
−1
= A
−1
A = 1. (3.49)
Com (A
−1
)
ij
≡ a
(−1)
ij
,
a
(−1)
ij

C
ji
[A[
, (3.50)
sendo C
ji
o co-fator (veja a discuss˜ ao anterior da Equac¸ ˜ ao (3.11)) de a
ij
e a suposic¸ ˜ ao de que o determinante de
A, [A[ , = 0. Se for zero, ´ e dita singular. N˜ ao existe inversa.
H´ a uma grande variedade de t´ ecnicas alternativas. Uma das melhores e mais comumente usadas ´ e a t´ ecnica de
invers˜ ao de matriz de Gauss-Jordan. A teoria ´ e baseada nos resultados dos Exerc´ıcios 3.2.34 e 3.2.35, que mostram
que existem matrizes M
L
tais que o produto M
L
A ser´ a A, mas com
a. uma fila multiplicada por uma constante ou
b. uma fila substitu´ıda pela fila original menos um m´ ultiplo de uma outra fila ou
c. filas permutadas.
Outras matrizes M
R
operando pela direita a (AM
R
) podem executar as mesmas operac¸ ˜ oes nas colunas de A.
Isso quer dizer que as filas e colunas da matriz podem ser alteradas (por multiplicac¸ ˜ ao de matrizes) como se
estiv´ essemos lidando com determinantes. Portanto, podemos aplicar as t´ ecnicas de eliminac¸ ˜ ao de Gauss-Jordan da
Sec¸ ˜ ao 3.1 a elementos da matriz. Por conseguinte, existe uma matriz M
L
(ou M
R
) tal que
11
M
L
A = 1. (3.51)
Ent˜ ao, M
L
= A
−1
. Determinamos M
L
executando as operac¸ ˜ oes de eliminac¸ ˜ ao idˆ enticas sobre a matriz unit´ aria.
Ent˜ ao,
M
L
1 = M
L
. (3.52)
Para esclarecer isso, consideramos um exemplo espec´ıfico.
Exemplo 3.2.2 INVERS ˜ AO DE MATRIZ DE GAUSS-JORDAN
Queremos inverter a matriz
A =
_
_
3 2 1
2 3 1
1 1 4
_
_
. (3.53)
Por conveniˆ encia escrevemos A e 1 lado a lado e executamos operac¸ ˜ oes idˆ enticas em cada uma:
_
_
3 2 1
2 3 1
1 1 4
_
_
e
_
_
1 0 0
0 1 0
0 0 1
_
_
. (3.54)
10
Aqui, e em todo este cap´ıtulo, nossas matrizes tˆ em ordem finita. Se A for uma matriz de ordem infinita (nn com n →∞), ent˜ ao a vida
fica mais dif´ıcil. Para que A
−1
seja a inversa, ´ e preciso exigir que
AA
−1
= 1 e A
−1
A = 1.
Uma relac¸ ˜ ao n˜ ao implica mais a outra.
11
Lembre-se de que det(A) ,= 0.
“livro” — 2007/8/1 — 15:06 — page 141 — #151
3. DETERMINANTES E MATRIZES 141
Para sermos sistem´ aticos, multiplicamos cada linha para obter a
k1
= 1,
_
_
_
1
2
3
1
3
1
3
2
1
2
1 1 4
_
_
_ e
_
_
_
1
3
0 0
0
1
2
0
0 0 1
_
_
_. (3.55)
Subtraindo a primeira linha da segunda e da terceira linhas, obtemos
_
_
_
1
2
3
1
3
0
5
6
1
6
0
1
3
11
3
_
_
_ e
_
_
_
1
3
0 0

1
3
1
2
0

1
3
0 1
_
_
_. (3.56)
Ent˜ ao dividimos a segunda linha (de ambas as matrizes) por
5
6
e subtra´ımos
2
3
vezes ela da primeira linha e
1
3
vezes ela da terceira linha. Os resultados para ambas as matrizes s˜ ao
_
_
_
1 0
1
5
0 1
1
5
0 0
18
5
_
_
_ e
_
_
_
3
5

2
5
0

2
5
3
5
0

1
5

1
5
1
_
_
_. (3.57)
Dividimos a terceira linha (de ambas as matrizes) por
18
5
. Ent˜ ao, como ´ ultima etapa, subtra´ımos
1
5
vezes a terceira
linha de cada uma das duas primeiras linhas (de ambas as matrizes). Nosso par final ´ e
_
_
1 0 0
0 1 0
0 0 1
_
_
e A
−1
=
_
_
_
11
18

7
18

1
18

7
18
11
18

1
18

1
18

1
18
5
18
_
_
_. (3.58)
A verificac¸ ˜ ao ´ e multiplicar a A original pela A
−1
calculada para ver se realmente obtemos a matriz unit´ aria 1.

Assim como a soluc¸ ˜ ao de Gauss-Jordan para equac¸ ˜ oes alg´ ebricas lineares simultˆ aneas, essa t´ ecnica se adapta
bem a computadores. De fato, essa t´ ecnica de invers˜ ao de matriz de Gauss-Jordan provavelmente constar´ a da
biblioteca de programas como uma sub-rotina (veja as Sec¸ ˜ oes 2.3 e 2.4 de Press et al., loc. cit.).
Para matrizes de forma especial, a matriz inversa pode ser dada em forma fechada. Por exemplo, para
A =
_
_
a b c
b d b
c b e
_
_
, (3.59)
a matriz inversa tem uma forma similar, por´ em ligeiramente mais geral,
A
−1
=
_
_
α β
1
γ
β
1
δ β
2
γ β
2

_
_
, (3.60)
com elementos de matriz dados por
Dα = ed −b
2
, Dγ = −
_
cd −b
2
_
, Dβ
1
= (c −e)b, Dβ
2
= (c −a)b,
Dδ = ae −c
2
, D = ad −b
2
, D = b
2
(2c −a −e) +d
_
ae −c
2
_
,
em que D = det(A) ´ e o determinante da matriz A. Se e = a em A, ent˜ ao a matriz inversa A
−1
tamb´ em ´ e
simplificada para
β
1
= β
2
, = α, D =
_
a
2
−c
2
_
d + 2(c −a)b
2
.
Como prova, vamos elaborar o elemento matricial 11 do produto AA
−1
= 1. Encontramos
aα +bβ
1
+cγ =
1
D
_
a
_
ed −b
2
_
+b
2
(c −e) −c
_
cd −b
2

=
1
D
_
−ab
2
+aed + 2b
2
c −b
2
e −c
2
d
_
=
D
D
= 1.
“livro” — 2007/8/1 — 15:06 — page 142 — #152
142 F´ısica Matem´ atica Arfken • Weber
Do mesmo modo, verificamos que o elemento matricial 12 se anula,

1
+bδ +cβ
2
=
1
D
_
ab(c −e) +b
_
ae −c
2
_
+cb(c −a)
¸
= 0,
e assim por diante.
Entretanto, note que nem sempre podemos achar uma inversa de A
−1
resolvendo para os elementos matriciais
a, b, . . . de A, porque nem toda matriz inversa A
−1
da forma que aparece na Equac¸ ˜ ao (3.60) tem uma A
correspondente da forma especial que aparece na Equac¸ ˜ ao (3.59), como mostra com clareza o Exemplo 3.2.2.
Matrizes s˜ ao arranjos quadrados ou retangulares de n´ umeros que definem transformac¸ ˜ oes lineares, tais como
rotac¸ ˜ oes de um sistema de coordenadas. Como tal, elas s˜ ao operadores lineares. Matrizes quadradas podem ser
invertidas quando seu determinante n˜ ao for nulo. Quando uma matriz define um sistema de equac¸ ˜ oes lineares, a
matriz inversa o resolve. Matrizes que tˆ em o mesmo n´ umero de linhas e colunas podem ser somadas e subtra´ıdas.
Elas formam o que os matem´ aticos denominam anel com uma matriz unit´ aria e uma matriz zero. Matrizes tamb´ em
s˜ ao ´ uteis para representar operac¸ ˜ oes de grupo e operadores em espac¸os de Hilbert.
Exerc´ıcios
3.2.1 Mostre que a multiplicac¸ ˜ ao de matrizes ´ e associativa, (AB)C = A(BC).
3.2.2 Mostre que
(A +B)(A −B) = A
2
−B
2
se, e somente se, A e B comutarem,
[A, B] = 0.
3.2.3 Demonstre que a matriz A ´ e um operador linear mostrando que
A(c
1
r
1
+c
2
r
2
) = c
1
Ar
1
+c
2
Ar
2
.
Pode-se mostrar que uma matriz n n ´ e o operador linear mais geral em um espac¸o vetorial
n dimensional. Isso significa que todo operador linear nesse espac¸o vetorial n dimensional ´ e
equivalente a uma matriz.
3.2.4 (a) N´ umeros complexos, a +ib, com a e b reais, podem ser representados por (ou s˜ ao isom´ orficos
com) matrizes 2 2:
a +ib ↔
_
a b
−b a
_
.
Mostre que essa representac¸ ˜ ao matricial ´ e v´ alida para (i) adic¸ ˜ ao e (ii) multiplicac¸ ˜ ao.
(b) Ache a matriz correspondente (a +ib)
−1
.
3.2.5 Se A ´ e uma matriz n n, mostre que
det(−A) = (−1)
n
det A.
3.2.6 (a) A equac¸ ˜ ao matricial A
2
= 0 n˜ ao implica A = 0. Mostre que a matriz mais geral 2 2 cujo
quadrado ´ e zero pode ser escrita como
_
ab b
2
−a
2
−ab
_
,
em que a e b s˜ ao n´ umeros reais ou complexos.
(b) Se C = A +B, em geral
det C ,= det A + det B.
Construa um exemplo num´ erico espec´ıfico para ilustrar essa desigualdade.
3.2.7 Dadas as trˆ es matrizes
A =
_
−1 0
0 −1
_
, B =
_
0 1
1 0
_
, C =
_
0 −1
−1 0
_
,
ache todos os produtos poss´ıveis de A, B e C, dois por vez, incluindo quadrados. Expresse suas
respostas em termos de A, B e C, e 1, a matriz unit´ aria. Essas trˆ es matrizes, juntamente com
a matriz unit´ aria, formam uma representac¸ ˜ ao de um grupo matem´ atico, o Vierergruppe (veja a
Cap´ıtulo 4).
“livro” — 2007/8/1 — 15:06 — page 143 — #153
3. DETERMINANTES E MATRIZES 143
3.2.8 Dada
K =
_
_
0 0 i
−i 0 0
0 −1 0
_
_
,
mostre que
K
n
= KKK (n fatores) = 1
(com a escolha adequada de n, n ,= 0).
3.2.9 Verifique a identidade de Jacobi,
_
A, [B, C]
¸
=
_
B, [A, C]
¸

_
C, [A, B]
¸
.
Isso ´ e ´ util em descric¸ ˜ oes matriciais de part´ıculas elementares (veja a Equac¸ ˜ ao (4.16)). Como recurso
mnemˆ onico, vocˆ e poderia observar que a identidade de Jacobi tem a mesma forma que a regra
BAC–CAB da Sec¸ ˜ ao 1.5.
3.2.10 Mostre que as matrizes
A =
_
_
0 1 0
0 0 0
0 0 0
_
_
, B =
_
_
0 0 0
0 0 1
0 0 0
_
_
, C =
_
_
0 0 1
0 0 0
0 0 0
_
_
satisfazem as relac¸ ˜ oes de comutac¸ ˜ ao.
[A, B] = C, [A, C] = 0, e [B, C] = 0.
3.2.11 Seja
i =
_
_
_
_
0 1 0 0
−1 0 0 0
0 0 0 1
0 0 −1 0
_
_
_
_
, j =
_
_
_
_
0 0 0 −1
0 0 −1 0
0 1 0 0
1 0 0 0
_
_
_
_
e
k =
_
_
_
_
0 0 −1 0
0 0 0 1
1 0 0 0
0 −1 0 0
_
_
_
_
.
Mostre que
(a) i
2
= j
2
= k
2
= −1, em que 1 ´ e a matriz unit´ aria.
(b) ij = −ji = k,
jk = −kj = i,
ki = −ik = j.
Essas trˆ es matrizes (i, j e k) mais a matriz unit´ aria 1 formam uma base para quat´ ernions. Uma base
alternativa ´ e dada pelas quatro matrizes 2 2 iσ
1
, iσ
2
, −iσ
3
, 1, em que os sigma s˜ ao as matrizes
de spin de Pauli do Exerc´ıcio 3.2.13.
3.2.12 Uma matriz com elementos a
ij
= 0 para j < i pode ser denominada triangular direita superior.
Os elementos ` a esquerda inferior (embaixo e ` a esquerda da diagonal principal) se anulam. S˜ ao
exemplos as matrizes nos Cap´ıtulos 12 e 13, Exerc´ıcio 13.1.21, relativas a s´ eries de potˆ encias e
expans˜ oes de autofunc¸ ˜ oes. Mostre que o produto de duas matrizes triangulares superiores direitas ´ e
uma matriz triangular superior direita.
3.2.13 As trˆ es matrizes de spin de Pauli s˜ ao
σ
1
=
_
0 1
1 0
_
, σ
2
=
_
0 −i
i 0
_
, e σ
3
=
_
1 0
0 −1
_
.
Mostre que
(a) (σ
i
)
2
= 1
2
,
(b) σ
j
σ
k
= iσ
l
, (j, k, l) = (1, 2, 3), (2, 3, 1), (3, 1, 2) (permutac¸ ˜ ao c´ıclica),
“livro” — 2007/8/1 — 15:06 — page 144 — #154
144 F´ısica Matem´ atica Arfken • Weber
(c) σ
i
σ
j

j
σ
i
= 2δ
ij
1
2
; 1
2
´ e a matriz 2 2 unit´ aria.
Essas matrizes foram usadas por Pauli na teoria n˜ ao-relativista de spin do el´ etron.
3.2.14 Usando as σ
i
de Pauli do Exerc´ıcio 3.2.13, mostre que
(σ · a)(σ · b) = a · b 1
2
+ iσ · (a ×b).
Aqui,
σ ≡ ˆ xσ
1
+ ˆ yσ
2
+ˆzσ
3
,
a e b s˜ ao vetores ordin´ arios e 1
2
´ e a matriz unit´ aria 2 2.
3.2.15 Uma descric¸ ˜ ao de part´ıculas de spin 1 usa as matrizes
M
x
=
1

2
_
_
0 1 0
1 0 1
0 1 0
_
_
, M
y
=
1

2
_
_
0 −i 0
i 0 −i
0 i 0
_
_
e
M
z
=
_
_
1 0 0
0 0 0
0 0 −1
_
_
.
Mostre que
(a) [M
x
, M
y
] = iM
z
, e assim por diante
12
(permutac¸ ˜ ao c´ıclica de ´ındices). Usando o s´ımbolo de
Levi-Civita da Sec¸ ˜ ao 2.9, podemos escrever
[M
p
, M
q
] = iε
pqr
M
r
.
(b) M
2
≡ M
2
x
+M
2
y
+M
2
z
= 2 1
3
, em que 1
3
´ e a matriz unidade 3 3.
(c) [M
2
, M
i
] = 0,
[M
z
, L
+
] = L
+
,
[L
+
, L

] = 2M
z
,
em que
L
+
≡ M
x
+iM
y
,
L

≡ M
x
−iM
y
.
3.2.16 Repita o Exerc´ıcio 3.2.15 usando uma representac¸ ˜ ao alternativa,
M
x
=
_
_
0 0 0
0 0 −i
0 i 0
_
_
, M
y
=
_
_
0 0 i
0 0 0
−i 0 0
_
_
e
M
z
=
_
_
0 −i 0
i 0 0
0 0 0
_
_
.
No Cap´ıtulo 4 essas matrizes aparecem como os geradores do grupo de rotac¸ ˜ ao.
3.2.17 Mostre que a equac¸ ˜ ao matricial-vetorial
_
M ∇+ 1
3
1
c

∂t
_
ψ = 0
reproduz as equac¸ ˜ oes de Maxwell no v´ acuo. Aqui, ψ ´ e um vetor coluna com componentes
ψ
j
= B
j
−iE
j
/c, j = x, y, z. M ´ e um vetor cujos elementos s˜ ao as matrizes de momento angular
do Exerc´ıcio 3.2.16. Note que ε
0
µ
0
= 1/c
2
, 1
3
´ e a matriz unit´ aria 3 3.
Do Exerc´ıcio 3.2.15(b),
M
2
ψ = 2ψ.
Uma comparac¸ ˜ ao com a equac¸ ˜ ao relativista de el´ etrons de Dirac sugere que a “part´ıcula” de
radiac¸ ˜ ao eletromagn´ etica, o f´ oton, tem massa de repouso zero e um spin de 1 (em unidades de
h).
12
[A, B] = AB −BA.
“livro” — 2007/8/1 — 15:06 — page 145 — #155
3. DETERMINANTES E MATRIZES 145
3.2.18 Repita o Exerc´ıcio 3.2.15, usando as matrizes para um spin de 3/2,
M
x
=
1
2
_
_
_
_
0

3 0 0

3 0 2 0
0 2 0

3
0 0

3 0
_
_
_
_
, M
y
=
i
2
_
_
_
_
0 −

3 0 0

3 0 −2 0
0 2 0 −

3
0 0

3 0
_
_
_
_
,
e
M
z
=
1
2
_
_
_
_
3 0 0 0
0 1 0 0
0 0 −1 0
0 0 0 −3
_
_
_
_
.
3.2.19 Um operador P comuta com J
x
e J
y
, as componentes x e y de um operador de momento angular.
Mostre que P comuta com a terceira componente do momento angular, isto ´ e, que
[P, J
z
] = 0.
Sugest˜ ao: As componentes do momento angular devem satisfazer a relac¸ ˜ ao de comutac¸ ˜ ao do
Exerc´ıcio 3.2.15(a).
3.2.20 As matrizes L
+
e L

do Exerc´ıcio 3.2.15 s˜ ao operadores progressivos (veja o Cap´ıtulo 4): L
+
operando em um sistema de projec¸ ˜ ao de spin m elevar´ a a projec¸ ˜ ao de spin para m+ 1 se m estiver
abaixo de seu m´ aximo. L
+
operando sobre m
m´ ax
d´ a zero. L

reduz a projec¸ ˜ ao de spin em etapas
unit´ arias de uma maneira semelhante. Dividindo por

2, temos
L
+
=
_
_
0 1 0
0 0 1
0 0 0
_
_
, L

=
_
_
0 0 0
1 0 0
0 1 0
_
_
.
Mostre que
L
+
[−1) = [0), L

[−1) = vetor coluna nulo,
L
+
[0) = [1), L

[0) = [−1),
L
+
[1) = vetor coluna nulo, L

[1) = [0),
em que
[−1) =
_
_
0
0
1
_
_
, [0) =
_
_
0
1
0
_
_
, e [1) =
_
_
1
0
0
_
_
representam estados de projec¸ ˜ ao de spin −1, 0, e 1, respectivamente.
Nota: Operadores diferenciais an´ alogos a esses operadores progressivos aparecem no Exerc´ıcio
12.6.7.
3.2.21 Os vetores Ae B s˜ ao relacionados pelo tensor T,
B = TA.
Dados A e B, mostre que n˜ ao h´ a nenhuma soluc¸ ˜ ao ´ unica para as componentes de T.
´
E por isso
que a divis˜ ao vetorial B/A ´ e indefinida (` a parte o caso especial de A e B paralelos, e T, ent˜ ao um
escalar).
3.2.22 Poder´ıamos pedir um vetor A
−1
, um inverso de um dado vetor A no sentido de que
A A
−1
= A
−1
A = 1.
Mostre que essa relac¸ ˜ ao n˜ ao ´ e suficiente para definir A
−1
unicamente; ent˜ ao, A teria um n´ umero
infinito de inversos.
3.2.23 Se A ´ e uma matriz diagonal, com todos os elementos diagonais diferentes, e A e B comutam, mostre
que B ´ e diagonal.
“livro” — 2007/8/1 — 15:06 — page 146 — #156
146 F´ısica Matem´ atica Arfken • Weber
3.2.24 Se A e B s˜ ao diagonais, mostre que A e B comutam.
3.2.25 Mostre que o trac¸o (ABC) = trac¸o(CBA) se qualquer das trˆ es matrizes comutam.
3.2.26 Matrizes de momento angular satisfazem uma relac¸ ˜ ao de comutac¸ ˜ ao
[M
j
, M
k
] = iM
l
, j, k, l c´ıclicos.
Mostre que o trac¸o de cada matriz de momento angular se anula.
3.2.27 (a) O operador trac¸o substitui uma matriz A por seu trac¸o; isto ´ e,
trac¸o(A) =

i
a
ii
.
Mostre que o trac¸o ´ e um operador linear.
(b) O operador det substitui uma matriz A por seu determinante; isto ´ e,
det(A) = determinante de A.
Mostre que det n˜ ao ´ e um operador linear.
3.2.28 A e B anticomutam: BA = −AB. Al´ em disso, A
2
= 1, B
2
= 1. Mostre que trac¸o(A) =
trac¸o(B) = 0.
Nota: As matrizes de Pauli e Dirac (Sec¸ ˜ ao 3.4) s˜ ao exemplos espec´ıficos.
3.2.29 Sendo [x) um vetor coluna N dimensional e ¸y[ um vetor linha N dimensional, mostre que
trac¸o
_
[x)¸y[
_
= ¸y[x).
Nota: [x)¸y[ significa produto direto de vetor coluna [x) com vetor ¸y[. O resultado ´ e uma matriz
quadrada N N.
3.2.30 (a) Se duas matrizes n˜ ao-singulares anticomutarem, mostre que o trac¸o de cada uma ´ e zero. N˜ ao-
singular significa que o determinante da matriz ´ e n˜ ao-zero.
(b) Para que as condic¸ ˜ oes da parte (a) sejam v´ alidas, A e B devem ser matrizes n n com n par.
Mostre que, se n for ´ımpar, resulta uma contradic¸ ˜ ao.
3.2.31 Se uma matriz tiver uma inversa, mostre que a inversa ´ e ´ unica.
3.2.32 Se A
−1
tem elementos
_
A
−1
_
ij
= a
(−1)
ij
=
C
ji
[A[
,
em que C
ji
´ e o co-fator de ordem ji de [A[, mostre que
A
−1
A = 1.
Por conseq¨ uˆ encia, se A
−1
´ e a inversa de A (if [A[ , = 0).
3.2.33 Mostre que det A
−1
= (det A)
−1
.
Nota: Se det A ´ e zero, ent˜ ao A n˜ ao tem nenhuma inversa. A ´ e singular.
3.2.34 Ache as matrizes M
L
, tais que o produto M
L
A ser´ a A, por´ em com:
(a) a i-´ esima linha multiplicada por uma constante k (a
ij
→ka
ij
, j = 1, 2, 3, . . .);
(b) a i-´ esima linha substitu´ıda pela i-´ esima linha original, menos um m´ ultiplo da m-´ esima linha
(a
ij
→a
ij
−Ka
mj
, i = 1, 2, 3, . . .);
(c) a i-´ esima e a m-´ esima linhas permutadas (a
ij
→a
mj
, a
mj
→a
ij
, j = 1, 2, 3, . . .).
3.2.35 Ache as matrizes M
R
, tais que o produto AM
R
ser´ a A, por´ em com
(a) (a) a i-´ esima coluna multiplicada por uma constante k (a
ji
→ka
ji
, j = 1, 2, 3, . . .);
(b) a i-´ esima coluna substitu´ıda pela i-´ esima coluna original, menos um m´ ultiplo da m-´ esima
coluna (a
ji
→a
ji
−ka
jm
, j = 1, 2, 3, . . .);
(c) a i-´ esima e a m-´ esima colunas permutadas (a
ji
→a
jm
, a
jm
→a
ji
, j = 1, 2, 3, . . .).
3.2.36 Ache a inversa de
A =
_
_
3 2 1
2 2 1
1 1 4
_
_
.
“livro” — 2007/8/1 — 15:06 — page 147 — #157
3. DETERMINANTES E MATRIZES 147
3.2.37 (a) Reescreva a Equac¸ ˜ ao (2.4) do Cap´ıtulo 2 (e as equac¸ ˜ oes correspondentes para dy e dz) como
uma ´ unica equac¸ ˜ ao matricial
[dx
k
) = J[dq
j
).
J ´ e uma matriz de derivadas, a matriz jacobiana. Mostre que
¸dx
k
[dx
k
) = ¸dq
i
[G[dq
j
),
sendo que a (matriz) m´ etrica G tem elementos g
ij
dados pela Equac¸ ˜ ao (2.6).
(b) Mostre que
det(J) dq
1
dq
2
dq
3
= dxdy dz,
sendo det(J) o Jacobiano usual.
3.2.38 Matrizes tˆ em uma utilidade muito grande para permanecer como propriedade exclusiva dos f´ısicos.
Elas podem aparecer onde quer que haja relac¸ ˜ oes lineares. Por exemplo, em um estudo de
movimento populacional, a frac¸ ˜ ao inicial de uma populac¸ ˜ ao fixa em cada uma das n ´ areas (ou
ind´ ustrias ou religi˜ oes etc.) ´ e representada por um vetor coluna de n componentes P. O movimento
de pessoas de uma ´ area para outra em um tempo dado ´ e descrito por uma matriz (estoc´ astica) nn
T. Aqui, T
ij
´ e a frac¸ ˜ ao da populac¸ ˜ ao na j-´ esima ´ area que passa para a i-´ esima ´ area. (As frac¸ ˜ oes
que n˜ ao passam s˜ ao cobertas por i = j.) Com P descrevendo a distribuic¸ ˜ ao inicial da populac¸ ˜ ao, a
distribuic¸ ˜ ao final da populac¸ ˜ ao ´ e dada pela equac¸ ˜ ao matricial TP = Q.
Por essa definic¸ ˜ ao,

n
i=1
P
i
= 1.
(a) Mostre que a conservac¸ ˜ ao de pessoas requer que
n

i=1
T
ij
= 1, j = 1, 2, . . . , n.
(b) Prove que
n

i=1
Q
i
= 1
preserva a conservac¸ ˜ ao de pessoas.
3.2.39 Dada uma matriz A 6 6 com elementos a
ij
= 0.5
]i−j]
, i = 0, 1, 2, . . . , 5; i = 0, 1, 2, . . . , 5, ache
A
−1
. Liste seus elementos matriciais at´ e a quinta casa decimal.
Resposta : A
−1
=
1
3
_
_
_
_
_
_
_
_
4 −2 0 0 0 0
−2 5 −2 0 0 0
0 −2 5 −2 0 0
0 0 −2 5 −2 0
0 0 0 −2 5 −2
0 0 0 0 −2 4
_
_
_
_
_
_
_
_
.
3.2.40 O Exerc´ıcio 3.1.7 pode ser escrito sob forma de matriz:
AX = C.
Ache A
−1
e calcule X como A
−1
C.
3.2.41 (a) Escreva uma sub-rotina que multiplicar´ a matrizes complexas. Admita que as matrizes
complexas est˜ ao em uma forma geral retangular.
(b) Teste sua sub-rotina multiplicando pares das matrizes 4 4 de Dirac, Sec¸ ˜ ao 3.4.
3.2.42 (a) Escreva uma sub-rotina que chamar´ a a sub-rotina de multiplicac¸ ˜ ao de matrizes complexa do
Exerc´ıcio 3.2.41 e calcular´ a o comutador bracket das duas matrizes complexas.
(b) Teste sua sub-rotina de comutador bracket complexo com as matrizes do Exerc´ıcio 3.2.16.
3.2.43 Polinˆ omio interpolador ´ e o nome dado ao polinˆ omio de grau (n −1) determinado por (e que passa
atrav´ es de) n pontos, (x
i
, y
i
) com todos os x
i
distintos. Esse polinˆ omio interpolador forma uma
base para quadraturas num´ ericas.
“livro” — 2007/8/1 — 15:06 — page 148 — #158
148 F´ısica Matem´ atica Arfken • Weber
(a) Mostre que exigir que um polinˆ omio de grau (n − 1) em x passe por cada um dos n pontos
(x
i
, y
i
) com todos os x
i
distintos resulta em n equac¸ ˜ oes simultˆ aneas da forma
n−1

j=0
a
j
x
j
i
= y
i
, i = 1, 2, . . . , n.
(b) Escreva um programa de computador que ler´ a n pontos de dados e retornar´ a os n coeficientes
a
j
. Se houver uma sub-rotina dispon´ıvel, use-a para resolver equac¸ ˜ oes simultˆ aneas.
(c) Reescreva o conjunto de equac¸ ˜ oes simultˆ aneas como uma equac¸ ˜ ao matricial
XA = Y.
(d) Repita o c´ alculo de computador da parte (b), mas, desta vez, resolva para o vetor A invertendo
a matriz X (novamente, usando uma sub-rotina).
3.2.44 Um c´ alculo dos valores de potencial eletrost´ atico dentro de um cilindro leva a
V (0, 0) = 52, 640 V (0, 6) = 25, 844
V (0, 2) = 48, 292 V (0, 8) = 12, 648
V (0, 4) = 38, 270 V (1, 0) = 0.0.
O problema ´ e determinar os valores do argumento para o qual V = 10, 20, 30, 40 e 50. Expresse
V (x) como uma s´ erie

5
n=0
a
2n
x
2n
. (Requisitos de simetria do problema original exigem que
V (x) seja uma func¸ ˜ ao par de x.) Determine os coeficientes a
2n
. Agora que V (x) ´ e uma func¸ ˜ ao
conhecida de x, ache a raiz de V (x) − 10 = 0, 0 ≤ x ≤ 1. Repita para V (x) − 20, e assim por
diante.
Resposta: a
0
= 52, 640,
a
2
= −117, 676,
V (0, 6851) = 20.
3.3 Matrizes Ortogonais
O espac¸o tridimensional ordin´ ario pode ser descrito com as coordenadas cartesianas (x
1
, x
2
, x
3
). Consideramos
um segundo conjunto de coordenadas cartesianas (x
t
1
, x
t
2
, x
t
3
), cuja origem e orientac¸ ˜ ao (para a direita ou para a
esquerda) coincidem com as do primeiro conjunto, mas cuja orientac¸ ˜ ao ´ e diferente (Figura 3.1). Podemos dizer
que os eixos coordenados “com linha” foram rotacionados em relac¸ ˜ ao aos eixos coordenados iniciais, “sem linha”.
Uma vez que essa rotac¸ ˜ ao ´ e uma operac¸ ˜ ao linear, esperamos uma equac¸ ˜ ao matricial que relacione a base “com
linha”com a base “sem linha”.
Esta sec¸ ˜ ao repete partes dos Cap´ıtulos 1 e 2 em um contexto ligeiramente diferente e com uma ˆ enfase diferente.
Antes, a atenc¸ ˜ ao estava voltada para vetor ou tensor. No caso do tensor, as propriedades de transformac¸ ˜ ao eram
fortemente destacadas e muito cr´ıticas. Aqui a ˆ enfase recai sobre a descric¸ ˜ ao da rotac¸ ˜ ao de coordenadas em si — a
matriz. Propriedades de transformac¸ ˜ ao, o comportamento da matriz quando a base ´ e trocada, aparecem no final
desta sec¸ ˜ ao. As Sec¸ ˜ oes 3.4 e 3.5 continuam com propriedades de transformac¸ ˜ ao em espac¸os vetoriais complexos.
Co-senos Diretores
Um vetor unit´ ario ao longo do eixo x
t
1
(ˆ x
t
1
) pode ser decomposto em componentes ao longo dos eixos x
1
, x
2
e x
3
pela t´ ecnica usual de projec¸ ˜ ao:
ˆ x
t
1
= ˆ x
1
cos(x
t
1
, x
1
) + ˆ x
2
cos(x
t
1
, x
2
) + ˆ x
3
cos(x
t
1
, x
3
). (3.61)
A Equac¸ ˜ ao (3.61) ´ e um exemplo espec´ıfico das relac¸ ˜ oes lineares discutidas no in´ıcio da Sec¸ ˜ ao 3.2.
Por conveniˆ encia, esses co-senos, que s˜ ao os co-senos direcionais, s˜ ao rotulados
cos(x
t
1
, x
1
) = ˆ x
t
1
ˆ x
1
= a
11
,
cos(x
t
1
, x
2
) = ˆ x
t
1
ˆ x
2
= a
12
, (3.62a)
cos(x
t
1
, x
3
) = ˆ x
t
1
ˆ x
3
= a
13
.
“livro” — 2007/8/1 — 15:06 — page 149 — #159
3. DETERMINANTES E MATRIZES 149
Figura 3.1: Sistemas de coordenadas cartesianas.
Continuando, temos
cos(x
t
2
, x
1
) = ˆ x
t
2
ˆ x
1
= a
21
,
(3.62b)
cos(x
t
2
, x
2
) = ˆ x
t
2
ˆ x
2
= a
22
,
e assim por diante, em que a
21
,= a
12
em geral. Agora, a Equac¸ ˜ ao (3.62) pode ser reescrita como
ˆ x
t
1
= ˆ x
1
a
11
+ ˆ x
2
a
12
+ ˆ x
3
a
13
, (3.62c)
e tamb´ em
ˆ x
t
2
= ˆ x
1
a
21
+ ˆ x
2
a
22
+ ˆ x
3
a
23
,
(3.62d)
ˆ x
t
3
= ˆ x
1
a
31
+ ˆ x
2
a
32
+ ˆ x
3
a
33
.
Tamb´ em podemos seguir por outro caminho resolvendo ˆ x
1
, ˆ x
2
e ˆ x
3
em componentes no sistema “com linha”.
Ent˜ ao
ˆ x
1
= ˆ x
t
1
a
11
+ ˆ x
t
2
a
21
+ ˆ x
t
3
a
31
,
ˆ x
2
= ˆ x
t
1
a
12
+ ˆ x
t
2
a
22
+ ˆ x
t
3
a
32
, (3.63)
ˆ x
3
= ˆ x
t
1
a
13
+ ˆ x
t
2
a
23
+ ˆ x
t
3
a
33
.
Associando ˆ x
1
e ˆ x
t
1
com o ´ındice inferior 1, ˆ x
2
e ˆ x
t
2
com o ´ındice inferior 2, ˆ x
3
e ˆ x
t
3
com o ´ındice inferior
3, vemos que em cada caso o primeiro ´ındice inferior de a
ij
refere-se ao vetor unit´ ario “com linha” (ˆ x
t
1
, ˆ x
t
2
, ˆ x
t
3
),
enquanto o segundo ´ındice inferior se refere ao vetor unit´ ario “sem linha”(ˆ x
1
, ˆ x
2
, ˆ x
3
).
Aplicac¸ ˜ oes a Vetores
Se considerarmos um vetor cujas componentes s˜ ao func¸ ˜ oes da posic¸ ˜ ao no espac¸o, ent˜ ao
V(x
1
, x
2
, x
3
) = ˆ x
1
V
1
+ ˆ x
2
V
2
+ ˆ x
3
V
3
,
(3.64)
V
t
(x
t
1
, x
t
2
, x
t
3
) = ˆ x
t
1
V
t
1
+ ˆ x
t
2
V
t
2
+ ˆ x
t
3
V
t
3
,
“livro” — 2007/8/1 — 15:06 — page 150 — #160
150 F´ısica Matem´ atica Arfken • Weber
uma vez que o ponto pode ser dado tanto pelas coordenadas (x
1
, x
2
, x
3
) quanto pelas coordenadas (x
t
1
, x
t
2
, x
t
3
).
Note que, em termos geom´ etricos, V e V
t
s˜ ao o mesmo vetor (por´ em com componentes diferentes). Os eixos
coordenados est˜ ao sendo rotacionados; o vetor permanece fixo. Usando as Equac¸ ˜ oes (3.62) para eliminar ˆ x
1
, ˆ x
2
e
ˆ x
3
, podemos decompor a Equac¸ ˜ ao (3.64) em trˆ es equac¸ ˜ oes escalares,
V
t
1
= a
11
V
1
+a
12
V
2
+a
13
V
3
,
V
t
2
= a
21
V
1
+a
22
V
2
+a
23
V
3
, (3.65)
V
t
3
= a
31
V
1
+a
32
V
2
+a
33
V
3
.
Em particular, essas relac¸ ˜ oes ser˜ ao v´ alidas para as coordenadas de um ponto (x
1
, x
2
, x
3
) e (x
t
1
, x
t
2
, x
t
3
), dando
x
t
1
= a
11
x
1
+a
12
x
2
+a
13
x
3
,
x
t
2
= a
21
x
1
+a
22
x
2
+a
23
x
3
, (3.66)
x
t
3
= a
31
x
1
+a
32
x
2
+a
33
x
3
,
e, de modo semelhante, para as coordenadas “com linha”. Com essa notac¸ ˜ ao o conjunto das trˆ es Equac¸ ˜ oes (3.66)
pode ser escrito como
x
t
i
=
3

j=1
a
ij
x
j
, (3.67)
em que i assume os valores 1, 2 e 3 e o resultado s˜ ao trˆ es equac¸ ˜ oes separadas.
Agora vamos deixar de lado esses resultados e tentar uma abordagem diferente para o mesmo problema.
Consideramos dois sistemas de coordenadas (x
1
, x
2
, x
3
) e (x
t
1
, x
t
2
, x
t
3
) com uma origem comum em um ponto
(x
1
, x
2
, x
3
) no sistema “sem linha”, (x
t
1
, x
t
2
, x
t
3
) no sistema “com linha”. Note a ambig¨ uidade usual. O mesmo
s´ımbolo x denota o eixo coordenado e tamb´ em uma distˆ ancia particular ao longo desse eixo. Uma vez que nosso
sistema ´ e linear, x
t
i
deve ser uma combinac¸ ˜ ao linear do x
i
. Seja
x
t
i
=
3

j=1
a
ij
x
j
. (3.68)
Os a
ij
podem ser identificados como os co-senos diretores. Mais adiante essa identificac¸ ˜ ao ´ e efetuada para o caso
bidimensional.
Se tivermos dois conjuntos de quantidades (V
1
, V
2
, V
3
) no sistema sem linha e (V
t
1
, V
t
2
, V
t
3
) no sistema com
linha, relacionados da mesma forma que as coordenadas de um ponto em dois sistemas diferentes (Equac¸ ˜ ao (3.68)),
V
t
i
=
3

j=1
a
ij
V
j
, (3.69)
ent˜ ao, assim como na Sec¸ ˜ ao 1.2, as quantidades (V
1
, V
2
, V
3
) s˜ ao definidas como as componentes de um vetor que
permanece fixo enquanto as coordenadas sofrem rotac¸ ˜ ao; isto ´ e, um vetor ´ e definido em termos de propriedades de
transformac¸ ˜ ao de suas componentes sob uma rotac¸ ˜ ao dos eixos coordenados. Em certo sentido, as coordenadas de
um ponto foram usadas como vetor representativo. A eficiˆ encia e a utilidade dessa definic¸ ˜ ao ficaram aparentes no
cap´ıtulo 2, em que ela foi estendida para definir pseudovetores e tensores.
Pela Equac¸ ˜ ao (3.67) podemos derivar informac¸ ˜ oes interessantes sobre os a
ij
que descrevem a orientac¸ ˜ ao do
sistema de coordenadas (x
t
1
, x
t
2
, x
t
3
) em relac¸ ˜ ao ao sistema (x
1
, x
2
, x
3
). O comprimento desde a origem at´ e o
ponto ´ e o mesmo em ambos os sistemas. Elevando ao quadrado, por conveniˆ encia,
13

i
x
2
i
=

i
x
t 2
i
=

i
_

j
a
ij
x
j
__

k
a
ik
x
k
_
=

j,k
x
j
x
k

i
a
ij
a
ik
. (3.70)
Essa express˜ ao pode valer para todos os pontos se, e somente se,

i
a
ij
a
ik
= δ
jk
, j, k = 1, 2, 3. (3.71)
13
Note que s˜ ao usados dois ´ındices independentes: j e k.
“livro” — 2007/8/1 — 15:06 — page 151 — #161
3. DETERMINANTES E MATRIZES 151
Note que a Equac¸ ˜ ao (3.71) ´ e equivalente ` a equac¸ ˜ ao matricial (3.83); veja tamb´ em as Equac¸ ˜ oes (3.87a) at´ e (3.87d).
A verificac¸ ˜ ao da Equac¸ ˜ ao (3.71), se necess´ aria, pode ser obtida voltando ` a Equac¸ ˜ ao (3.70) e estabelecendo
r = (x
1
, x
2
, x
3
) = (1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 0), e assim por diante, para avaliar as nove relac¸ ˜ oes dadas
pela Equac¸ ˜ ao (3.71). Este processo ´ e v´ alido, j´ a que a Equac¸ ˜ ao (3.70) deve ser v´ alida para todos os r para um
dado conjunto de a
ij
. A Equac¸ ˜ ao (3.71), uma conseq¨ uˆ encia de se exigir que o comprimento permanec¸a constante
(invariante) sob rotac¸ ˜ ao do sistema de coordenadas, ´ e denominada condic¸ ˜ ao de ortogonalidade. Os a
ij
, escritos
como uma matriz A sujeita ` a Equac¸ ˜ ao (3.71), formam uma matriz ortogonal, uma primeira definic¸ ˜ ao de uma
matriz ortogonal. Note que a Equac¸ ˜ ao (3.71) n˜ ao ´ e multiplicac¸ ˜ ao de matrizes. Mais exatamente, ´ e interpretada
mais adiante como um produto escalar de duas colunas de A.
Em notac¸ ˜ ao matricial, a Equac¸ ˜ ao (3.67) se torna
[x
t
) = A[x). (3.72)
Figura 3.2: Rotac¸ ˜ ao de coordenadas.
Condic¸ ˜ oes de Ortogonalidade – Caso Bidimensional
Podemos entender melhor os a
ij
e a condic¸ ˜ ao de ortogonalidade considerando mais detalhadamente a rotac¸ ˜ ao em
duas dimens˜ oes (que pode ser imaginada como um sistema tridimensional com os eixos x
1
, x
2
rotacionados ao
redor de x
3
). Pela Figura 3.2,
x
t
1
= x
1
cos ϕ +x
2
sen ϕ,
x
t
2
= −x
1
sen ϕ +x
2
cos ϕ.
(3.73)
Portanto, pela Equac¸ ˜ ao (3.72)
A =
_
cos ϕ sen ϕ
−sen ϕ cos ϕ
_
. (3.74)
Note que A se reduz ` a matriz unit´ aria para ϕ = 0. Um ˆ angulo de rotac¸ ˜ ao zero significa que nada mudou. Fica claro
pela Figura 3.2 que
a
11
= cos ϕ = cos(x
t
1
, x
1
),
(3.75)
a
12
= sen ϕ = cos
_
π
2
−ϕ
_
= cos(x
t
1
, x
2
),
e assim por diante, identificando os elementos matriciais a
ij
como os co-senos diretores. A Equac¸ ˜ ao (3.71), a
condic¸ ˜ ao de ortogonalidade, se torna
sen
2
ϕ + cos
2
ϕ = 1,
(3.76)
sen ϕcos ϕ −sen ϕcos ϕ = 0.
“livro” — 2007/8/1 — 15:06 — page 152 — #162
152 F´ısica Matem´ atica Arfken • Weber
A extens˜ ao para trˆ es dimens˜ oes (rotac¸ ˜ ao das coordenadas atrav´ es de um ˆ angulo ϕ em sentido anti-hor´ ario ao
redor de x
3
) ´ e simplesmente
A =
_
_
cos ϕ sen ϕ 0
−sen ϕ cos ϕ 0
0 0 1
_
_
. (3.77)
O a
33
= 1 expressa o fato de que x
t
3
= x
3
, uma vez que a rotac¸ ˜ ao foi executada ao redor do eixo x
3
. Os zeros
garantem que x
t
1
e x
t
2
n˜ ao dependem de x
3
e que x
t
3
n˜ ao depende de x
1
e x
2
.
Matriz Inversa A
−1
Voltando ` a matriz de transformac¸ ˜ ao geral A, a matriz inversa A
−1
´ e definida de modo tal que
[x) = A
−1
[x
t
). (3.78)
Isto ´ e, A
−1
descreve o inverso da rotac¸ ˜ ao dada por A e retorna o sistema coordenado ` a sua posic¸ ˜ ao original.
Simbolicamente, as Equac¸ ˜ oes (3.72) e (3.78) se combinam e resultam em
[x) = A
−1
A[x), (3.79)
e, uma vez que [x) ´ e arbitr´ ario,
A
−1
A = 1, (3.80)
a matriz unit´ aria. De modo semelhante,
AA
−1
= 1, (3.81)
usando as Equac¸ ˜ oes (3.72) e (3.78) e eliminando [x) em vez de [x
t
).
Matriz Transposta,
˜
A
Podemos determinar os elementos de nossa matriz inversa postulada A
−1
utilizando a condic¸ ˜ ao de ortogonalidade.
A Equac¸ ˜ ao (3.71), a condic¸ ˜ ao de ortogonalidade, n˜ ao est´ a de acordo com nossa definic¸ ˜ ao de multiplicac¸ ˜ ao de
matrizes, mas pode ser colocada na forma requerida definindo-se uma nova matriz
˜
A, tal que
˜ a
ji
= a
ij
. (3.82)
A Equac¸ ˜ ao (3.71) se torna
˜
AA = 1. (3.83)
Esta ´ e uma reafirmac¸ ˜ ao da condic¸ ˜ ao de ortogonalidade e pode ser tomada como a restric¸ ˜ ao que define uma matriz
ortogonal, uma segunda definic¸ ˜ ao de uma matriz ortogonal. Multiplicando a Equac¸ ˜ ao (3.83) por A
−1
partindo da
direita e usando a Equac¸ ˜ ao (3.81), temos
˜
A = A
−1
, (3.84)
uma terceira definic¸ ˜ ao de matriz ortogonal. Esse resultado importante, isto ´ e, a inversa ´ e igual ` a transposta, vale
somente para matrizes ortogonais e, na verdade, pode ser tomado como mais uma reafirmac¸ ˜ ao da condic¸ ˜ ao de
ortogonalidade.
Multiplicando a Equac¸ ˜ ao (3.84) por A partindo da esquerda, obtemos
A
˜
A = 1 (3.85)
ou

i
a
ji
a
ki
= δ
jk
, (3.86)
que ´ e mais outra forma da condic¸ ˜ ao de ortogonalidade.
Resumindo, a condic¸ ˜ ao de ortogonalidade pode ser enunciada de v´ arios modos equivalentes:

i
a
ij
a
ik
= δ
jk
, (3.87a)

i
a
ji
a
ki
= δ
jk
, (3.87b)
˜
AA = A
˜
A = 1, (3.87c)
˜
A = A
−1
. (3.87d)
“livro” — 2007/8/1 — 15:06 — page 153 — #163
3. DETERMINANTES E MATRIZES 153
Qualquer dessas relac¸ ˜ oes ´ e um condic¸ ˜ ao necess´ aria e suficiente para que A seja ortogonal.
Agora ´ e poss´ıvel ver e entender por que o termo ortogonal ´ e adequado para essas matrizes. Temos a forma geral
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
,
uma matriz de co-senos direcionais na qual a
ij
´ e o co-seno do ˆ angulo entre x
t
i
e x
j
. Por conseq¨ uˆ encia, a
11
, a
12
,
a
13
s˜ ao as direc¸ ˜ oes dos co-senos de x
t
1
relativas a x
1
, x
2
, x
3
. Esses trˆ es elementos de A definem uma unidade de
comprimento ao longo de x
t
1
, isto ´ e, um vetor unit´ ario ˆ x
t
1
,
ˆ x
t
1
= ˆ x
1
a
11
+ ˆ x
2
a
12
+ ˆ x
3
a
13
.
A relac¸ ˜ ao de ortogonalidade (Equac¸ ˜ ao (3.86)) ´ e simplesmente uma afirmac¸ ˜ ao de que os vetores unit´ arios ˆ x
t
1
, ˆ x
t
2
e ˆ x
t
3
s˜ ao mutuamente perpendiculares ou ortogonais. Nossa matriz de transformac¸ ˜ ao ortogonal A transforma um
sistema de coordenadas ortogonal em um segundo sistema de coordenadas ortogonal por rotac¸ ˜ ao e/ou reflex˜ ao.
Como um exemplo do uso de matrizes, os vetores unit´ arios em coordenadas polares esf´ ericas podem ser escritos
como
_
_
ˆr
ˆ
θ
ˆ ϕ
_
_
= C
_
_
ˆ x
ˆ y
ˆ z
_
_
, (3.88)
em que C ´ e dado no Exerc´ıcio 2.5.1. Essa express˜ ao ´ e equivalente ` as Equac¸ ˜ oes (3.62) comx
t
1
, x
t
2
e x
t
3
substitu´ıdos
por ˆr,
ˆ
θ e ˆ ϕ. Pela an´ alise precedente, ⊂ ´ e ortogonal. Por conseguinte, a relac¸ ˜ ao inversa se torna
_
_
ˆ x
ˆ y
ˆ z
_
_
= C
−1
_
_
ˆr
ˆ
θ
ˆ ϕ
_
_
=
˜
C
_
_
ˆr
ˆ
θ
ˆ ϕ
_
_
, (3.89)
e o Exerc´ıcio 2.5.5 ´ e resolvido por inspec¸ ˜ ao. Aplicac¸ ˜ oes similares de matrizes inversas aparecememconex˜ ao coma
transformac¸ ˜ ao de uma s´ erie de potˆ encias para uma s´ erie de func¸ ˜ oes ortogonais (ortogonalizac¸ ˜ ao de Gram-Schmidt
na Sec¸ ˜ ao 10.3) e com a soluc¸ ˜ ao num´ erica de equac¸ ˜ oes integrais.
ˆ
Angulos de Euler
Nossa matriz de transformac¸ ˜ ao A cont´ em nove co-senos diretores.
´
E claro que somente trˆ es deles s˜ ao
independentes, sendo que a Equac¸ ˜ ao (3.71) provˆ e seis restric¸ ˜ oes. De modo equivalente, podemos dizer que
s˜ ao necess´ arios dois parˆ ametros (θ e ϕ coordenadas polares esf´ ericas) para fixar o eixo de rotac¸ ˜ ao. Ent˜ ao, um
parˆ ametro adicional descreve a quantidade de rotac¸ ˜ ao ao redor do eixo especificado. (Na formulac¸ ˜ ao lagrangiana
da mecˆ anica (Sec¸ ˜ ao 17.3) ´ e necess´ ario descrever A usando algum conjunto de trˆ es parˆ ametros independentes em
vez dos co-senos diretores redundantes). A escolha usual de parˆ ametros s˜ ao os ˆ angulos de Euler.
14
O objetivo ´ e descrever a orientac¸ ˜ ao de um sistema rotacionado final (x
ttt
1
, x
ttt
2
, x
ttt
3
) relativa a algum sistema
coordenado inicial (x
1
, x
2
, x
3
). O sistema final ´ e desenvolvido em trˆ es etapas, sendo que cada uma delas envolve
uma rotac¸ ˜ ao descrita por um ˆ angulo de Euler (Figura 3.3):
1. As coordenadas s˜ ao rotacionadas ao redor do eixo x
3
atrav´ es de um ˆ angulo α em sentido anti-hor´ ario at´ e os
novos eixos denotados por x
t
1
, x
t
2
, x
t
3
. (Os eixos x
3
e x
t
3
coincidem.)
2. As coordenadas s˜ ao rotacionadas ao redor do eixo x
t
2
.
15
Atrav´ es de um ˆ angulo β em sentido anti-hor´ ario at´ e os
novos eixos denotados por x
tt
1
, x
tt
2
, x
tt
3
. (Os eixos x
t
2
e x
tt
2
coincidem.)
3. A terceira e ´ ultima rotac¸ ˜ ao ´ e atrav´ es de um ˆ angulo γ em sentido anti-hor´ ario ao redor do eixo x
tt
1
, resultando no
sistema x
ttt
1
, x
ttt
2
, x
ttt
3
. (Os eixos x
tt
3
e x
ttt
3
coincidem.)
As trˆ es matrizes que descrevem essas rotac¸ ˜ oes s˜ ao
R
z
(α) =
_
_
cos α sen α 0
−sen α cos α 0
0 0 1
_
_
, (3.90)
14
H´ a quase tantas definic¸ ˜ oes de ˆ angulos de Euler quanto autores. Aqui seguimos a opc¸ ˜ ao que costuma ser adotada pelos que trabalham nas
´ areas da teoria de grupo e da teoria quˆ antica do momento angular (compare com as Sec¸ ˜ oes 4.3 e 4.4).
15
Alguns autores escolhem esta segunda rotac¸ ˜ ao ao redor do eixo x

1
.
“livro” — 2007/8/1 — 15:06 — page 154 — #164
154 F´ısica Matem´ atica Arfken • Weber
Figura 3.3: (a) Rotac¸ ˜ ao ao redor de x
3
atrav´ es do ˆ angulo α; (b) Rotac¸ ˜ ao ao redor de x
t
2
atrav´ es do ˆ angulo β; (c)
Rotac¸ ˜ ao ao redor de x
tt
3
atrav´ es do ˆ angulo γ,
exatamente como a Equac¸ ˜ ao (3.77),
R
y
(β) =
_
_
cos β 0 −sen β
0 1 0
sen β 0 cos β
_
_
(3.91)
e
R
z
(γ) =
_
_
cos γ sen γ 0
−sen γ cos γ 0
0 0 1
_
_
. (3.92)
A rotac¸ ˜ ao total ´ e descrita pelo produto matricial triplo,
A(α, β, γ) = R
z
(γ)R
y
(β)R
z
(α). (3.93)
Note a ordem: R
z
(α) opera em primeiro lugar, em seguida, R
y
(β) e, por fim, R
z
(γ). A multiplicac¸ ˜ ao direta
resulta
A(α, β, γ)
=
_
_
cos γ cos β cos α −sen γsen α cos γ cos βsen α + sen γ cos α −cos γsen β
−sen γ cos β cos α −cos γsen α −sen γ cos βsen α + cos γ cos α sen γsen β
sen β cos α sen βsen α cos β
_
_
(3.94)
Igualar A(a
ij
) a A(α, β, γ), elemento por elemento, resulta nos co-senos direcionais em termos dos trˆ es ˆ angulos de
Euler. Poder´ıamos usar essa identificac¸ ˜ ao do ˆ angulo de Euler para verificar as identidades dos co-senos direcionais,
Equac¸ ˜ ao (1.46) da Sec¸ ˜ ao 1.4, mas a abordagem do Exerc´ıcio 3.3.3 ´ e muito mais elegante.
Propriedades de Simetria
Nossa descric¸ ˜ ao de matriz leva ao grupo de rotac¸ ˜ ao SO(3) no espac¸o tridimensional R
3
, e a descric¸ ˜ ao de rotac¸ ˜ oes
por ˆ angulos de Euler forma uma base para o desenvolvimento do grupo de rotac¸ ˜ ao no Cap´ıtulo 4. Rotac¸ ˜ oes tamb´ em
podem ser descritas pelo grupo unit´ ario SU(2) em espac¸o bidimensional C
2
sobre os n´ umeros complexos. O
conceito de grupos como SU(2) e suas generalizac¸ ˜ oes e t´ ecnicas te´ oricas de grupo s˜ ao encontrados com freq¨ uˆ encia
na moderna f´ısica de part´ıculas, em que propriedades de simetria desempenham um importante papel. O grupo
SU(2) tamb´ em ´ e considerado no Cap´ıtulo 4. O poder e a flexibilidade das matrizes condenaram os quat´ ernions ` a
obscuridade no in´ıcio do s´ eculo XX.
16
Devemos observar que as matrizes foram tratadas de duas maneiras na discuss˜ ao anterior: por seus componentes
e como entidades separadas. Cada t´ ecnica tem suas pr´ oprias vantagens e ambas s˜ ao ´ uteis.
A matriz transporta ´ e ´ util para uma discuss˜ ao de propriedades de simetria. Se
A =
˜
A, a
ij
= a
ji
, (3.95)
a matriz ´ e denomina sim´ etrica, enquanto, se
A = −
˜
A, a
ij
= −a
ji
, (3.96)
16
R. J. Stephenson, “Development of vector analysis from quaternions”. Am. J. Phys. 34: 194 (1966).
“livro” — 2007/8/1 — 15:06 — page 155 — #165
3. DETERMINANTES E MATRIZES 155
ela ´ e denominada anti-sim´ etrica ou sim´ etrica deslocada. Os elementos da diagonal desaparecem.
´
E f´ acil mostrar
que qualquer matriz (quadrada) pode ser escrita como a soma de uma matriz sim´ etrica e uma matriz anti-sim´ etrica.
Considere a identidade
A =
1
2
[A +
˜
A] +
1
2
[A −
˜
A]. (3.97)
[A +
˜
A] ´ e claramente sim´ etrica, ao passo que [A −
˜
A] ´ e claramente anti-sim´ etrica. Esta ´ e a matriz an´ aloga ` a
da Equac¸ ˜ ao (2.75), Cap´ıtulo 2, para tensores. De maneira semelhante, uma func¸ ˜ ao pode ser subdividida em suas
partes: par e ´ımpar.
At´ e aqui interpretamos a matriz ortogonal como rotac¸ ˜ ao do sistema de coordenadas. Isso altera as componentes
de um vetor fixo (que n˜ ao sofre rotac¸ ˜ ao com as coordenadas (Figura 1.6, Cap´ıtulo 1). Contudo, uma matriz
ortogonal A pode ser interpretada igualmente bem como uma rotac¸ ˜ ao do vetor na direc¸ ˜ ao oposta (Figura 3.4).
Essas duas possibilidades – (1) rotacionar o vetor mantendo as coordenadas fixas e (2) rotacionar as coordenadas
(no sentido contr´ ario) mantendo o vetor fixo – tˆ em uma analogia direta na teoria quˆ antica. A rotac¸ ˜ ao (uma
transformac¸ ˜ ao de tempo) do vetor de estado d´ a o quadro de Schr¨ odinger. A rotac¸ ˜ ao da base mantendo o vetor
de estado fixo resulta no quadro de Heisenberg.
Figura 3.4: Coordenadas fixas — vetor rotacionado.
Suponha que interpretemos a matriz A como rotacionando um vetor r at´ e a posic¸ ˜ ao mostrada por r
1
; isto ´ e, em
um sistema coordenado particular temos uma relac¸ ˜ ao
r
1
= Ar. (3.98)
Agora, vamos rotacionar as coordenadas aplicando a matriz B, que rotaciona (x, y, z) para (x
t
, y
t
, z
t
),
r
t
1
= Br
1
= BAr = (Ar)
t
= BA
_
B
−1
B
_
r
=
_
BAB
−1
_
Br =
_
BAB
−1
_
r
t
. (3.99)
Br
1
´ e exatamente r
1
no novo sistema de coordenadas, sendo que uma interpretac¸ ˜ ao similar ´ e v´ alida para Br. Da´ı,
neste novo sistema (Br), ´ e rotacionada at´ e a posic¸ ˜ ao (Br
1
) pela matriz BAB
−1
:
Br
1

=
(BAB
−1
)

Br

r
t
1
=
A
t
r
t
No novo sistema as coordenadas foram rotacionadas pela matriz B; A tem a forma A
t
, na qual
A
t
= BAB
−1
. (3.100)
“livro” — 2007/8/1 — 15:06 — page 156 — #166
156 F´ısica Matem´ atica Arfken • Weber
A
t
opera em espac¸o x
t
, y
t
, z
t
, assim como A opera em espac¸o x, y, z.
A transformac¸ ˜ ao definida pela Equac¸ ˜ ao (3.100), sendo B qualquer matriz, n˜ ao necessariamente ortogonal, ´ e
conhecida como transformac¸ ˜ ao de similaridade. Na forma de componentes, a Equac¸ ˜ ao (3.100) torna-se
a
t
ij
=

k,l
b
ik
a
kl
_
B
−1
_
lj
. (3.101)
Agora, se B ´ e ortogonal,
_
B
−1
_
lj
= (
˜
B)
lj
= b
jl
, (3.102)
e temos
a
t
ij
=

k,l
b
ik
b
jl
a
kl
. (3.103)
Talvez seja ´ util pensar emA novamente como um operador, possivelmente como eixos coordenados em rotac¸ ˜ ao,
relacionando momento angular e velocidade angular de um s´ olido em rotac¸ ˜ ao (Sec¸ ˜ ao 3.5). A matriz A ´ e a
representac¸ ˜ ao de um dado sistema coordenado ou base. Mas h´ a direc¸ ˜ oes associadas com A — eixos dos cristais,
eixos de simetria no s´ olido em rotac¸ ˜ ao, e assim por diante —, de modo que a representac¸ ˜ ao A depende da base. A
transformac¸ ˜ ao de similaridade mostra exatamente como a representac¸ ˜ ao que se altera muda com uma mudanc¸a da
base.
Relac¸ ˜ ao com Tensores
Comparando a Equac¸ ˜ ao (3.103) com as equac¸ ˜ oes da Sec¸ ˜ ao 2.6, vemos que ela ´ e a definic¸ ˜ ao de um tensor de
segunda ordem. Da´ı, uma matriz que se transforma por uma transformac¸ ˜ ao de similaridade ortogonal ´ e, por
definic¸ ˜ ao, um tensor. Ent˜ ao, ´ e claro que qualquer matriz ortogonal A, se interpretada como rotacionando um
vetor (Equac¸ ˜ ao (3.98)), pode ser denominada tensor. Contudo, se considerarmos a matriz ortogonal como
uma colec¸ ˜ ao de co-senos direcionais fixos, dando a nova orientac¸ ˜ ao de um sistema coordenado, n˜ ao h´ a nenhuma
propriedade de tensor envolvida.
As propriedades de simetria e anti-simetria definidas antes s˜ ao preservadas sob transformac¸ ˜ oes de similaridade
ortogonais. Seja A uma matriz sim´ etrica, A =
˜
A e
A
t
= BAB
−1
. (3.104)
Agora,
˜
A
t
=
˜
B
−1
˜
A
˜
B = B
˜
AB
−1
, (3.105)
visto que B ´ e ortogonal. Mas A =
˜
A. Por conseguinte,
˜
A
t
= BAB
−1
= A
t
, (3.106)
mostrando que a propriedade de simetria ´ e invariante sob uma transformac¸ ˜ ao de similaridade ortogonal. Em geral,
a simetria n˜ ao ´ e preservada sob uma transformac¸ ˜ ao de similaridade n˜ ao-ortogonal.
Exerc´ıcios
Nota: Admita que todos os elementos matriciais sejam reais.
3.3.1 Mostre que o produto de duas matrizes ortogonais ´ e ortogonal.
Nota: Esta ´ e uma etapa fundamental para demonstrar que todas as matrizes ortogonais nn formam
um grupo (Sec¸ ˜ ao 4.1).
3.3.2 Se A ´ e ortogonal, mostre que seu determinante = ±1.
3.3.3 Se A ´ e ortogonal e det A = +1, mostre que (det A)a
ij
= C
ij
, em que C
ij
´ e o co-fator de a
ij
.
Isso d´ a como resultado as identidades da Equac¸ ˜ ao (1.46), usadas na Sec¸ ˜ ao 1.4 para mostrar que um
produto cruzado de vetores (em espac¸o tridimensional) ´ e, ele mesmo, um vetor.
Sugest˜ ao: Note o Exerc´ıcio 3.2.32.
3.3.4 Um outro conjunto de rotac¸ ˜ oes de Euler de uso comum ´ e
(1) uma rotac¸ ˜ ao ao redor do eixo x
3
por meio de um ˆ angulo ϕ, em sentido anti-hor´ ario,
(2) uma rotac¸ ˜ ao ao redor do eixo x
t
1
por meio de um ˆ angulo θ, em sentido anti-hor´ ario,
(3) uma rotac¸ ˜ ao ao redor do eixo x
tt
3
por meio de um ˆ angulo ψ, em sentido anti-hor´ ario.
Se
“livro” — 2007/8/1 — 15:06 — page 157 — #167
3. DETERMINANTES E MATRIZES 157
α = ϕ −π/2 ϕ = α +π/2
β = θ θ = β
γ = ψ +π/2 ψ = γ −π/2,
mostre que os sistemas finais s˜ ao idˆ enticos.
3.3.5 Suponha que a Terra se mova (seja rotacionada) de modo que o p´ olo norte passe para a posic¸ ˜ ao
30

norte, 20

oeste (sistema original de latitude e longitude) e que o meridiano 10

aponte para a
direc¸ ˜ ao sul.
(a) Quais s˜ ao os ˆ angulos de Euler que descrevem essa rotac¸ ˜ ao?
(b) Ache os co-senos direcionais correspondentes.
Resposta: (b) A =
_
_
0, 9551 −0, 2552 −0, 1504
0, 0052 0, 5221 −0, 8529
0, 2962 0, 8138 0, 5000
_
_
.
3.3.6 Verifique que a matriz de rotac¸ ˜ ao do ˆ angulo de Euler, Equac¸ ˜ ao (3.94), ´ e invariante sob a
transformac¸ ˜ ao
α →α +π, β →−β, γ →γ −π.
3.3.7 Mostre que a matriz de rotac¸ ˜ ao do ˆ angulo de Euler A(α, β, γ) satisfaz as seguintes relac¸ ˜ oes:
(a) A
−1
(α, β, γ) =
˜
A(α, β, γ),
(b) A
−1
(α, β, γ) = A(−γ, −β, −α).
3.3.8 Mostre que o trac¸o do produto de uma matriz sim´ etrica por uma matriz anti-sim´ etrica ´ e zero.
3.3.9 Mostre que o trac¸o de uma matriz permanece invariante sob transformac¸ ˜ oes de similaridade.
3.3.10 Mostre que o determinante de uma matriz permanece invariante sob transformac¸ ˜ oes de similaridade.
Nota: Os Exerc´ıcios 3.3.9 e 3.3.10 mostram que o trac¸o e o determinante s˜ ao independentes das
coordenadas cartesianas. Eles s˜ ao caracter´ısticos da matriz (operador) em si.
3.3.11 Mostre que a propriedade de anti-simetria ´ e invariante sob transformac¸ ˜ oes de similaridade
ortogonais.
3.3.12 A ´ e 2 2 e ortogonal. Ache a forma mais geral de
A =
_
a b
c d
_
.
Compare com a rotac¸ ˜ ao bidimensional.
3.3.13 [x) e [y) s˜ ao vetores colunas. Sob uma transformac¸ ˜ ao ortogonal S, [x
t
) = S[x), [y
t
) = S[y).
Mostre que o produto escalar ¸x [ y) ´ e invariante sob essa transformac¸ ˜ ao ortogonal.
Nota: Isso ´ e equivalente ` a invariˆ ancia do produto escalar de dois vetores, Sec¸ ˜ ao 1.3.
3.3.14 Mostre que a soma dos quadrados dos elementos de uma matriz permanece invariante sob
transformac¸ ˜ oes de similaridade ortogonais.
3.3.15 Como uma generalizac¸ ˜ ao do Exerc´ıcio 3.3.14, mostre que

jk
S
jk
T
jk
=

l,m
S
t
lm
T
t
lm
,
em que os elementos “com linha” e “sem linha” s˜ ao relacionados por uma transformac¸ ˜ ao de
similaridade ortogonal. Esse resultado ´ e ´ util para derivar invariantes em teoria eletromagn´ etica
(compare com a Sec¸ ˜ ao 4.6).
Nota: Esse produto M
jk
=

S
jk
T
jk
` as vezes ´ e denominado produto de Hadamard. Na estrutura
da an´ alise tensorial, Cap´ıtulo 2, este exerc´ıcio torna-se uma contrac¸ ˜ ao dupla de dois tensores de
segunda ordem e, portanto, ´ e claramente um escalar (invariante).
3.3.16 Uma rotac¸ ˜ ao ϕ
1
+ ϕ
2
ao redor do eixo z ´ e executada como duas rotac¸ ˜ oes sucessivas, cada
uma ao redor do eixo z. Use a representac¸ ˜ ao matricial das rotac¸ ˜ oes para derivar as identidades
trigonom´ etricas.
cos(ϕ
1

2
) = cos ϕ
1
cos ϕ
2
−sen ϕ
1
sen ϕ
2
,
sen(ϕ
1

2
) = sen ϕ
1
cos ϕ
2
+ cos ϕ
1
sen ϕ
2
.
“livro” — 2007/8/1 — 15:06 — page 158 — #168
158 F´ısica Matem´ atica Arfken • Weber
3.3.17 Um vetor coluna V tem componentes V
1
e V
2
em um sistema inicial (“sem linha”). Calcule V
t
1
e V
t
2
para:
(a) uma rotac¸ ˜ ao das coordenadas atrav´ es de um ˆ angulo θ em sentido anti-hor´ ario,
(b) uma rotac¸ ˜ ao do vetor atrav´ es de um ˆ angulo θ em sentido hor´ ario.
Os resultados das partes (a) e (b) devem ser idˆ enticos.
3.3.18 Escreva uma sub-rotina que testar´ a se uma matriz real NN ´ e sim´ etrica. Simetria pode ser definida
como
0 ≤ [a
ij
−a
ji
[ ≤ ε,
em que ε ´ e alguma pequena tolerˆ ancia (que leva em conta o erro de truncamento, e assim por diante,
no computador).
3.4 Matrizes hermitianas, Matrizes Unit´ arias
Definic¸ ˜ oes
At´ e aqui admitimos, em geral, que nosso espac¸o vetorial linear ´ e um espac¸o real e que os elementos da matriz
(as representac¸ ˜ oes dos operadores lineares) s˜ ao reais. Para muitos c´ alculos da f´ısica cl´ assica, elementos matriciais
reais ser˜ ao suficientes. Todavia, em mecˆ anica quˆ antica, vari´ aveis complexas s˜ ao inevit´ aveis por causa da forma
das relac¸ ˜ oes b´ asicas de comutac¸ ˜ ao (ou da forma da equac¸ ˜ ao dependente do tempo de Schr¨ odinger). Com isso em
mente, generalizamos para o caso de elementos matriciais complexos. Para tratar esses elementos, vamos definir,
ou rotular, algumas novas propriedades.
1. Conjugado complexo, A

, formado tomando o conjugado complexo (i → −i) de cada elemento, em que
i =

−1.
2. Adjunta, A

, formada pela transposic¸ ˜ ao de A

,
A

=

A

=
˜
A

. (3.107)
3. Matriz hermitiana: a matriz A ´ e denominada hermitiana ou auto-adjunta se
A = A

. (3.108)
Se A ´ e real, ent˜ ao A

=
˜
A e matrizes hermitianas s˜ ao matrizes sim´ etricas reais. Na mecˆ anica quˆ antica (ou
mecˆ anica matricial), em geral as matrizes s˜ ao constru´ıdas para ser hermitianas ou unit´ arias.
4. Matriz unit´ aria: matriz U ´ e denominada unit´ aria se
U

= U
−1
. (3.109)
Se U ´ e real, ent˜ ao U
−1
=
˜
U; portanto, matrizes unit´ arias reais s˜ ao matrizes ortogonais. Isso representa uma
generalizac¸ ˜ ao do conceito de matriz ortogonal (compare com a Equac¸ ˜ ao (3.84)).
5. (AB)

= A

B

, (AB)

= B

A

.
Se os elementos da matriz s˜ ao complexos, o f´ısico quase sempre se preocupar´ a com matrizes hermitianas
e matrizes unit´ arias. Matrizes unit´ arias tˆ em especial importˆ ancia na mecˆ anica quˆ antica porque deixam o
comprimento de um vetor (complexo) inalterado — an´ aloga ` a operac¸ ˜ ao de uma matriz ortogonal sobre um vetor
real.
´
E por essa raz˜ ao que a matriz S da teoria da dispers˜ ao ´ e uma matriz unit´ aria. Uma importante excec¸ ˜ ao em
matrizes unit´ arias ´ e o grupo de matrizes de Lorentz, Cap´ıtulo 4. Usando o espac¸o de Minkowski, vemos que essas
matrizes n˜ ao s˜ ao unit´ arias.
Em um espac¸o linear n dimensional complexo, o quadrado do comprimento de um ponto ˜ x =
x
T
(x
1
, x
2
, . . . , x
n
) ou o quadrado de sua distˆ ancia desde a origem 0 ´ e definido como x

x =

x

i
x
i
=

[x
i
[
2
.
Se uma transformac¸ ˜ ao de coordenada y = Ux n˜ ao alterar a distˆ ancia, ent˜ ao x

x = y

y = (Ux)

Ux = x

U

Ux.
Uma vez que x ´ e arbitr´ ario, resulta que U

U = 1
n
; isto ´ e, U ´ e uma matriz unit´ aria n n. Se x
t
= Ax ´ e um
mapa linear, ent˜ ao sua matriz nas novas coordenadas torna-se a transformac¸ ˜ ao unit´ aria (an´ aloga ` a transformac¸ ˜ ao
de similaridade).
A
t
= UAU

, (3.110)
porque Ux
t
= y
t
= UAx = UAU
−1
y = UAU

y.
“livro” — 2007/8/1 — 15:06 — page 159 — #169
3. DETERMINANTES E MATRIZES 159
Matrizes de Pauli e Dirac
O conjunto de trˆ es matrizes 2 2, σ, de Pauli,
σ
1
=
_
0 1
1 0
_
, σ
2
=
_
0 −i
i 0
_
, σ
3
=
_
1 0
0 −1
_
, (3.111)
foi introduzido por W. Pauli para descrever uma part´ıcula de spin 1/2 em mecˆ anica quˆ antica n˜ ao-relativista. Pode-
se mostrar de imediato que (compare com Exerc´ıcios 3.2.13 e 3.2.14) a σ de Pauli satisfaz
σ
i
σ
j

j
σ
i
= 2δ
ij
1
2
, anticomutac¸ ˜ ao (3.112)
σ
i
σ
j
= iσ
k
, i, j, k uma permutac¸ ˜ ao c´ıclica de 1, 2, 3 (3.113)

i
)
2
= 1
2
, (3.114)
em que 1
2
´ e a matriz 2 2 unit´ aria. Assim, o vetor σ/2 satisfaz ` as mesmas relac¸ ˜ oes de comutac¸ ˜ ao,

i
, σ
j
] ≡ σ
i
σ
j
−σ
j
σ
i
= 2iε
ijk
σ
k
, (3.115)
que o momento angular orbital L (LL = iL, veja o Exerc´ıcio 2.5.15 e os grupos SO(3) e SU(2) no Cap´ıtulo 4).
As trˆ es matrizes σ de Pauli e a matriz unidade formam um conjunto completo, portanto, qualquer matriz
hermitiana 2 2, M, pode ser expandida como
M = m
0
1
2
+ m
1
σ
1
+ m
2
σ
2
+ m
3
σ
3
= m
0
+ m· σ, (3.116)
em que os m
i
formam um vetor constante m. Usando (σ
i
)
2
= 1
2
e trac¸o(σ
i
) = 0 obtemos, pela Equac¸ ˜ ao (3.116),
os coeficientes de expans˜ ao m
i
formando trac¸os
2m
0
= trac¸o(M), 2m
i
= trac¸o(Mσ
i
), i = 1, 2, 3. (3.117)
Somando e multiplicando essas matrizes 2 2, geramos a ´ algebra de Pauli.
17
Note que trac¸o(σ
i
) = 0 para
i = 1, 2, 3.
Em 1927, P. A. M. Dirac estendeu esse formalismo a part´ıculas de movimento r´ apido de spin
1
2
, tais como
el´ etrons (e neutrinos). Para incluir a relatividade especial, ele partiu da energia de Einstein, em vez da cin´ etica
n˜ ao-relativista e energia potencial, E
2
= p
2
c
2
+m
2
c
4
. A chave da equac¸ ˜ ao de Dirac ´ e fatorar
E
2
−p
2
c
2
= E
2
−(cσ · p)
2
= (E −cσ · p)(E + cσ · p) = m
2
c
4
, (3.118)
usando a identidade da matriz 2 2
(σ · p)
2
= p
2
1
2
. (3.119)
A matriz unidade 2 2 1
2
n˜ ao est´ a escrita explicitamente na Equac¸ ˜ ao (3.118), e a Equac¸ ˜ ao (3.119) resulta do
Exerc´ıcio 3.2.14 para a = b = p. De maneira equivalente, podemos introduzir duas matrizes γ
t
e γ para fatorar
E
2
−p
2
c
2
diretamente:
_

t
⊗1
2
−c(γ ⊗σ) p
¸
2
= E
2
γ
t 2
⊗1
2
+c
2
γ
2
⊗(σ p)
2
−Ec(γ
t
γ +γγ
t
) ⊗σ p
= E
2
−p
2
c
2
= m
2
c
4
. (3.119
t
)
Para que a Equac¸ ˜ ao (3.119’) seja v´ alida, as condic¸ ˜ oes
γ
t 2
= 1 = −γ
2
, γ
t
γ +γγ
t
= 0 (3.120)
devem ser satisfeitas. Assim, as matrizes γ
t
e γ anticomutam, exatamente como as trˆ es matrizes de Pauli; portanto,
elas n˜ ao podem ser n´ umeros reais ou complexos. Como as condic¸ ˜ oes (3.120) podem ser cumpridas por matrizes
2 2, escrevemos sinais de produto direto (veja o Exemplo 3.2.1) na Equac¸ ˜ ao (3.119’) porque s˜ ao multiplicadas
por 1
2
, matrizes σ respectivamente, sendo
γ
t
=
_
1 0
0 −1
_
, γ =
_
0 1
−1 0
_
. (3.121)
17
Para conhecer seu significado geom´ etrico, consulte W. E. Baylis, J. Huschilt e Jiansu Wei, Am. J. Phys. 60: 788 (1992).
“livro” — 2007/8/1 — 15:06 — page 160 — #170
160 F´ısica Matem´ atica Arfken • Weber
As matrizes 4 4 de produto direto na Equac¸ ˜ ao (3.119’) s˜ ao as quatro matrizes γ de Dirac convencionais.
γ
0
= γ
t
⊗1
2
=
_
1
2
0
0 −1
2
_
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 −1 0
0 0 0 −1
_
_
_
_
,
γ
1
= γ ⊗σ
1
=
_
0 σ
1
−σ
1
0
_
=
_
_
_
_
0 0 0 1
0 0 1 0
0 −1 0 0
−1 0 0 0
_
_
_
_
,
γ
3
= γ ⊗σ
3
=
_
0 σ
3
−σ
3
0
_
=
_
_
_
_
0 0 1 0
0 0 0 −1
−1 0 0 0
0 1 0 0
_
_
_
_
, (3.122)
e, de modo semelhante, para γ
2
= γ⊗σ
2
. Em notac¸ ˜ ao vetorial, σ = γ⊗σ ´ e um vetor com trˆ es componentes, cada
um uma matriz 4 4, uma generalizac¸ ˜ ao do vetor de matrizes de Pauli para um vetor de matrizes 4 4. As quatro
matrizes γ
i
s˜ ao as componentes do quadrivetor γ
µ
= (γ
0
, γ
1
, γ
2
, γ
3
). Se reconhecermos na Equac¸ ˜ ao (1.119’)

⊗1
2
−c(γ ⊗σ) · p = γ
µ
p
µ
= γ · p = (γ
0
, γ) · (E, cp) (3.123)
como um produto escalar de dois quadrivetores γ
µ
e p
µ
(veja o grupo de Lorentz no Cap´ıtulo 4), ent˜ ao a
Equac¸ ˜ ao (3.119’) com p
2
= p p = E
2
− p
2
c
2
pode ser considerada uma generalizac¸ ˜ ao quadrivetorial da
Equac¸ ˜ ao (3.119).
Resumindo, o tratamento relativista de uma part´ıcula de spin 1/2 leva a matrizes 4 4, enquanto o spin 1/2
de uma part´ıcula n˜ ao-relativista ´ e descrito pelas matrizes de Pauli, σ, 2 ×2.
Por analogia com a ´ algebra de Pauli, podemos formar produtos a partir das matrizes γ
µ
b´ asicas e de suas
combinac¸ ˜ oes lineares e a partir da matriz unidade 1 = 1
4
, desse modo generalizando uma ´ algebra de 16 dimens˜ oes
(denominada ´ algebra de Clifford
18
). Uma base (com propriedades convenientes de transformac¸ ˜ ao de Lorentz, veja
o Cap´ıtulo 4) ´ e dada (em notac¸ ˜ ao matricial 2 2 da Equac¸ ˜ ao (3.122) por
1
4
, γ
5
= iγ
0
γ
1
γ
2
γ
3
=
_
0 1
2
1
2
0
_
, γ
µ
, γ
5
γ
µ
, σ
µν
= i
_
γ
µ
γ
ν
−γ
ν
γ
µ
_
/2. (3.124)
As matrizes γ anticomutam, isto ´ e, suas combinac¸ ˜ oes sim´ etricas
γ
µ
γ
ν

ν
γ
µ
= 2g
µν
1
4
, (3.125)
em que g
00
= 1 = −g
11
= −g
22
= −g
33
, e g
µν
= 0 para µ ,= ν, s˜ ao zero ou proporcionais ` a matriz unidade
4 4 1
4
, enquanto as seis combinac¸ ˜ oes anti-sim´ etricas na Equac¸ ˜ ao (3.124) d˜ ao novos elementos de base que
se transformam como um tensor sob transformac¸ ˜ oes de Lorentz (veja o Cap´ıtulo 4). Qualquer matriz 4 4
pode ser expandida em termos desses 16 elementos, e os coeficientes de expans˜ ao s˜ ao dados pela formac¸ ˜ ao de
trac¸os similares ao caso 2 2 na Equac¸ ˜ ao (3.117) usando trac¸o(1
4
) = 4, trac¸o(γ
5
) = 0, trac¸o(γ
µ
) = 0 =
trac¸o(γ
5
γ
µ
), trac¸o(σ
µν
) = 0 µ, ν = 0, 1, 2, 3 (veja o Exerc´ıcio 3.4.23). No Cap´ıtulo 4 mostramos que γ
5
´ e ´ımpar
sob paridade; portanto, se transforma como um vetor axial que tem paridade par.
A ´ algebra do spin gerada pelas matrizes de Pauli ´ e apenas uma representac¸ ˜ ao matricial da ´ algebra
quadridimensional de Clifford, enquanto Hestenes e colaboradores (loc. cit.) desenvolveram em seu c´ alculo
geom´ etrico uma ´ algebra livre de representac¸ ˜ ao (isto ´ e, “livre de coordenadas”) que cont´ em n´ umeros complexos,
vetores, a sub´ algebra do quat´ ernion e produtos externos generalizados como ´ areas direcionadas (denominadas
bivetores). Essa estrutura alg´ ebrico-geom´ etrica ´ e talhada para a mecˆ anica quˆ antica n˜ ao-relativista, enquanto
espinores adquirem aspectos geom´ etricos e os teoremas de Gauss e Stokes aparecem como componentes de
um teorema unificado. A ´ algebra geom´ etrica desses autores correspondente ` a ´ algebra de dezesseis dimens˜ oes
de Clifford das matrizes γ de Dirac ´ e a adequada estrutura livre de coordenadas para mecˆ anica quˆ antica e
eletrodinˆ amica.
A discuss˜ ao de matrizes ortogonais na Sec¸ ˜ ao 3.3 e matrizes unit´ arias nesta sec¸ ˜ ao ´ e apenas um in´ıcio. Extens˜ oes
ulteriores s˜ ao de importˆ ancia vital na f´ısica de part´ıculas “elementares”. Com as matrizes de Pauli e Dirac podemos
18
D. Hestenes e G. Sobczyk, loc. cit.; D. Hestenes, Am. J. Phys. 39. 1.013 (1971); e J. Math. Phys. 16: 556 (1975).
“livro” — 2007/8/1 — 15:06 — page 161 — #171
3. DETERMINANTES E MATRIZES 161
desenvolver func¸ ˜ oes de onda de espinor para el´ etrons, pr´ otons e outras part´ıculas relativistas de spin
1
2
. As
rotac¸ ˜ oes de sistemas coordenados levam a D
j
(α, β, γ), o grupo de rotac¸ ˜ ao usualmente representado por matrizes
nas quais os elementos s˜ ao func¸ ˜ oes dos ˆ angulos de Euler que descrevem a rotac¸ ˜ ao. O grupo unit´ ario especial
SU(3) (composto de matrizes unit´ arias 3 3 com determinante +1) tem sido usado com consider´ avel sucesso
para descrever m´ esons e b´ arions envolvidos nas interac¸ ˜ oes fortes, uma teoria de calibre que agora ´ e denominada
cromodinˆ amica quˆ antica. Essas extens˜ oes s˜ ao consideradas com mais detalhe no Cap´ıtulo 4.
Exerc´ıcios
3.4.1 Mostre que
det(A

) = (det A)

= det
_
A

_
.
3.4.2 Trˆ es matrizes de momento angular satisfazem a relac¸ ˜ ao b´ asica de comutac¸ ˜ ao
[J
x
, J
y
] = iJ
z
(e permutac¸ ˜ ao c´ıclica de ´ındices). Se duas das matrizes tˆ em elementos reais, mostre que os
elementos da terceira devem ser imagin´ arios puros.
3.4.3 Mostre que (AB)

= B

A

.
3.4.4 Uma matriz C = S

S. Mostre que o trac¸o ´ e definido positivo a menos que S seja a matriz nula, caso
em que trac¸o (C) = 0.
3.4.5 Se A e B s˜ ao matrizes hermitianas, mostre que (AB +BA) e i(AB −BA) tamb´ em s˜ ao hermitianas.
3.4.6 A matriz C ´ e n˜ ao-hermitiana. Mostre que, ent˜ ao, C+C

e i(C−C

) s˜ ao hermitianas. Isso significa
que uma matriz n˜ ao-hermitiana pode ser decomposta em duas partes hermitianas,
C =
1
2
_
C +C

_
+
1
2i
i
_
C −C

_
.
Essa decomposic¸ ˜ ao de uma matriz em duas partes de matrizes hermitianas ´ e an´ aloga ` a
decomposic¸ ˜ ao de um n´ umero complexo z em x +iy, em que x = (z +z

)/2 e y = (z −z

)/2i.
3.4.7 A e B s˜ ao duas matrizes hermitianas n˜ ao-comutativas
AB −BA = iC.
Prove que C ´ e hermitiana.
3.4.8 Mostre que uma matriz hermitiana permanece hermitiana sob transformac¸ ˜ oes de similaridade
unit´ aria.
3.4.9 Duas matrizes A e B s˜ ao hermitianas. Ache uma condic¸ ˜ ao necess´ aria e suficiente para que seu
produto AB seja hermitiano.
Resposta: [A, B] = 0.
3.4.10 Mostre que a rec´ıproca (isto ´ e, a inversa) de uma matriz unit´ aria ´ e unit´ aria.
3.4.11 Uma transformac¸ ˜ ao de similaridade particular resulta em
A
t
= UAU
−1
,
A
t†
= UA

U
−1
.
Se a relac¸ ˜ ao adjunta for preservada (A

= A


) e det U = 1, mostre que U deve ser unit´ aria.
3.4.12 Duas matrizes U e H s˜ ao relacionadas por
U = e
iaH
,
sendo a real. (A func¸ ˜ ao exponencial ´ e definida por uma expans˜ ao de Maclaurin. Isso ser´ a feito na
Sec¸ ˜ ao 5.6.)
(a) Se H ´ e hermitiana, mostre que U ´ e unit´ aria.
(b) Se U ´ e unit´ aria, mostre que H ´ e hermitiana. (H ´ e independente de a.)
“livro” — 2007/8/1 — 15:06 — page 162 — #172
162 F´ısica Matem´ atica Arfken • Weber
Nota: Sendo H a hamiltoniana,
ψ(x, t) = U(x, t)ψ(x, 0) = exp(−itH/)ψ(x, 0)
´ e uma soluc¸ ˜ ao da equac¸ ˜ ao dependente do tempo de Schr¨ odinger. U(x, t) = exp(−itH/) ´ e o
“operador de evoluc¸ ˜ ao”.
3.4.13 Um operador T(t + ε, t) descreve a mudanc¸a na func¸ ˜ ao de onda de t a t + ε. Para ε real e
suficientemente pequeno, de modo que ε
2
possa ser desprezado,
T(t +ε, t) = 1 −
i

εH(t).
(a) Se T ´ e unit´ ario, mostre que H ´ e hermitiana.
(b) Se H ´ e hermitiana, mostre que T ´ e unit´ ario.
Nota: Quando H(t) ´ e independente de tempo, essa relac¸ ˜ ao pode ser colocada em forma exponencial
— Exerc´ıcio 3.4.12.
3.4.14 Mostre que uma forma alternativa,
T(t +ε, t) =
1 −iεH(t)/2
1 +iεH(t)/2
,
est´ a de acordo com o T da parte (a) do Exerc´ıcio 3.4.13, desprezando ε
2
, e ´ e exatamente unit´ ario
(para H hermitiana).
3.4.15 Prove que o produto direto de duas matrizes unit´ arias ´ e unit´ ario.
3.4.16 Mostre que γ
5
anticomuta com todas as quatro γ
µ
.
3.4.17 Use o s´ımbolo quadridimensional de Levi-Civita ε
λµνρ
com ε
0123
= −1 (generalizando as
Equac¸ ˜ oes (2.93) na Sec¸ ˜ ao 2.9 para quatro dimens˜ oes) e mostre que (i) 2γ
5
σ
µν
= −iε
µναβ
σ
αβ
usando a convenc¸ ˜ ao de soma da Sec¸ ˜ ao 2.6 e (ii) γ
λ
γ
µ
γ
ν
= g
λµ
γ
ν
−g
λν
γ
µ
+g
µν
γ
λ
+iε
λµνρ
γ
ρ
γ
5
.
Defina γ
µ
= g
µν
γ
ν
usando g
µν
= g
µν
para elevar e baixar ´ındices.
3.4.18 Avalie os seguintes trac¸os (veja a Equac¸ ˜ ao (3.123) para a notac¸ ˜ ao):
(i) trac¸o(γ aγ b) = 4a b,
(ii) trac¸o(γ aγ bγ c) = 0,
(iii) trac¸o(γ aγ bγ cγ d) = 4(a bc d −a cb d +a db c),
(iv) trac¸o(γ
5
γ aγ bγ cγ d) = 4iε
αβµν
a
α
b
β
c
µ
d
ν
.
3.4.19 Mostre que (i) γ
µ
γ
α
γ
µ
= −2γ
α
, (ii) γ
µ
γ
α
γ
β
γ
µ
= 4g
αβ
, e (iii) γ
µ
γ
α
γ
β
γ
ν
γ
µ
= −2γ
ν
γ
β
γ
α
.
3.4.20 Se M =
1
2
(1 +γ
5
), mostre que
M
2
= M.
Note que γ
5
pode ser substitu´ıda por qualquer outra matriz de Dirac (qualquer Γ
i
da
Equac¸ ˜ ao (3.124)). Se M ´ e hermitiana, ent˜ ao este resultado, M
2
= M, ´ e a equac¸ ˜ ao de definic¸ ˜ ao
para um operador de projec¸ ˜ ao da mecˆ anica quˆ antica.
3.4.21 Mostre que
α ×α = 2iσ ⊗1
2
,
onde α = γ
0
γ ´ e um vetor
α = (α
1
, α
2
, α
3
).
Note que, se α ´ e um vetor polar (Sec¸ ˜ ao 2.4), ent˜ ao σ ´ e um vetor axial.
3.4.22 Prove que as 16 matrizes de Dirac formam um conjunto linearmente independente.
3.4.23 Se admitirmos que uma dada matriz A 44 (com elementos constantes) pode ser escrita como uma
combinac¸ ˜ ao linear das 16 matrizes de 16 Dirac
A =
16

i=1
c
i
Γ
i
,
mostre que
c
i
∼ trac¸o(AΓ
i
).
“livro” — 2007/8/1 — 15:06 — page 163 — #173
3. DETERMINANTES E MATRIZES 163
3.4.24 Se C = iγ
2
γ
0
´ e a matriz de conjugac¸ ˜ ao de carga, mostre que Cγ
µ
C
−1
= −˜ γ
µ
, em que ˜ indica
transposic¸ ˜ ao.
3.4.25 Seja x
t
µ
= Λ
ν
µ
x
ν
a rotac¸ ˜ ao por um ˆ angulo θ ao redor do eixo 3,
x
t
0
= x
0
, x
t
1
= x
1
cos θ +x
2
sen θ,
x
t
2
= −x
1
sen θ +x
2
cos θ, x
t
3
= x
3
.
Use R = exp(iθσ
12
/2) = cos θ/2 + iσ
12
sen θ/2 (veja a Equac¸ ˜ ao (3.170b)) e mostre que as
γ se transformam exatamente como as coordenadas x
µ
, isto ´ e, Λ
ν
µ
γ
ν
= R
−1
γ
µ
R. (Note que
γ
µ
= g
µν
γ
ν
e que as γ
µ
s˜ ao bem definidas somente at´ e uma transformac¸ ˜ ao de similaridade.)
De modo semelhante, se x
t
= Λx ´ e um boost (transformac¸ ˜ ao de Lorentz pura) ao longo do eixo 1,
isto ´ e,
x
t
0
= x
0
cosh ζ −x
1
sen hζ, x
t
1
= −x
0
sen hζ +x
1
cosh ζ,
x
t
2
= x
2
, x
t
3
= x
3
,
com tghζ = v/c e B = exp(−iζσ
01
/2) = cosh ζ/2 − iσ
01
sen hζ/2 (veja a Equac¸ ˜ ao (3.170b),
mostre que Λ
ν
µ
γ
ν
= Bγ
µ
B
−1
.
3.4.26 (a) Dado r
t
= Ur, sendo U uma matriz unit´ aria e r um vetor (coluna) com elementos complexos,
mostre que a norma m´ odulo de r ´ e invariante sob esta operac¸ ˜ ao.
(b) A matriz U transforma qualquer vetor coluna r com elementos complexos em r
t
, deixando a
grandeza invariante: r

r = r
t †
r
t
. Mostre que U ´ e unit´ aria.
3.4.27 Escreva uma sub-rotina para testar se uma matriz complexa nn ´ e auto-adjunta. Ao exigir igualdade
de elementos matriciais a
ij
= a

ij
, permita uma pequena tolerˆ ancia ε para compensar o erro de
truncamento do computador.
3.4.28 Escreva uma sub-rotina que formar´ a a adjunta de uma matriz M N complexa.
3.4.29 (a) Escreva uma sub-rotina que tomar´ a uma matriz M N complexa A e dar´ a como resultado o
produto A

A.
Sugest˜ ao: Esta sub-rotina pode chamar as sub-rotinas dos Exerc´ıcios 3.2.41 e 3.4.28.
(b) Teste sua sub-rotina tomando A como uma ou mais das matrizes de Dirac, Equac¸ ˜ ao (3.124).
3.5 Diagonizac¸ ˜ ao de Matrizes
Matriz de Momento de In´ ercia
Em muitos problemas de f´ısica que envolvem matrizes sim´ etricas reais ou hermitianas complexas, ´ e desej´ avel
executar uma transformac¸ ˜ ao de similaridade ortogonal real ou uma transformac¸ ˜ ao unit´ aria (correspondente a uma
rotac¸ ˜ ao do sistema de coordenadas) para reduzir a matriz a uma forma diagonal, com todos os elementos n˜ ao-
diagonais iguais a zero. Um exemplo particularmente direto disso ´ e a matriz de momento de in´ ercia I de um corpo
r´ıgido. Pela definic¸ ˜ ao de momento angular L, temos
L = Iω, (3.126)
sendo ω a velocidade angular.
19
Constata-se que a matriz de in´ ercia I tem componentes diagonais
I
xx
=

i
m
i
_
r
2
i
−x
2
i
_
, e assim por diante , (3.127)
sendo que o ´ındice inferior i refere-se ` a massa m
i
localizada em r
i
= (x
i
, y
i
, z
i
). Para os componentes n˜ ao-
diagonais, temos
I
xy
= −

i
m
i
x
i
y
i
= I
yx
. (3.128)
Por inspec¸ ˜ ao, a matriz I ´ e sim´ etrica. Al´ em disso, uma vez que I aparece em uma equac¸ ˜ ao f´ısica da forma (3.126),
que ´ e v´ alida para todas as orientac¸ ˜ oes do sistema de coordenadas, ela pode ser considerada um tensor (regra do
quociente, Sec¸ ˜ ao 2.3).
A chave agora ´ e orientar os eixos coordenados (ao longo de uma estrutura de corpo fixo), de modo que os
I
xy
e os outros elementos n˜ ao-diagonais desaparec¸am. Como conseq¨ uˆ encia e indicac¸ ˜ ao dessa orientac¸ ˜ ao, se a
19
A matriz de momento de in´ ercia tamb´ em pode ser desenvolvida a partir da energia cin´ etica de um corpo em rotac¸ ˜ ao, T = 1/2ω|I|ω.
“livro” — 2007/8/1 — 15:06 — page 164 — #174
164 F´ısica Matem´ atica Arfken • Weber
velocidade angular se encontrar ao longo de um desses eixos principais realinhados, a velocidade angular e o
momento angular ser˜ ao paralelos. Como ilustrac¸ ˜ ao, a estabilidade de rotac¸ ˜ ao ´ e usada por jogadores de futebol
(americano) quando jogam a bola girando ao redor de seu eixo longo principal.
Autovetores, Autovalores
´
E instrutivo considerar um quadro geom´ etrico deste problema. Se a matriz de in´ ercia I for multiplicada de cada
lado por um vetor unit´ ario de direc¸ ˜ ao vari´ avel, ˆ n = (α, β, γ), ent˜ ao, na notac¸ ˜ ao bracket de Dirac da Sec¸ ˜ ao 3.2,
¸ˆ n[I[ˆ n) = I, (3.129)
emque I ´ e o momento de in´ ercia ao redor da direc¸ ˜ ao ˆ n e umn´ umero (escalar) positivo. Executando a multiplicac¸ ˜ ao,
obtemos
I = I
xx
α
2
+I
yy
β
2
+I
zz
γ
2
+ 2I
xy
αβ + 2I
xz
αγ + 2I
yz
βγ, (3.130)
uma forma quadr´ atica definida positiva que deve ser um elips´ oide (veja a Figura 3.5). Pela geometria anal´ıtica,
sabemos que os eixos coordenados sempre podem ser rotacionados para coincidir com os eixos de nosso elips´ oide.
Em muitos casos elementares, em especial quando a simetria est´ a presente, esses novos eixos, denominados
eixos principais, podem ser encontrados por inspec¸ ˜ ao. Podemos achar os eixos localizando os extremos locais
do elips´ oide em termos das componentes vari´ aveis de n, sujeitos ` a restric¸ ˜ ao ˆ n
2
= 1. Para lidar com a restric¸ ˜ ao,
introduzimos um multiplicador de Lagrange λ (Sec¸ ˜ ao 17.6). Diferenciar ¸ˆ n[I[ˆ n) −λ¸ˆ n[ˆ n),

∂n
j
_
¸ˆ n[I[ˆ n) −λ¸ˆ n[ˆ n)
_
= 2

k
I
jk
n
k
−2λn
j
= 0, j = 1, 2, 3 (3.131)
d´ a como resultado as equac¸ ˜ oes de autovalor
I[ˆ n) = λ[ˆ n). (3.132)
Figura 3.5: Elips´ oide de momento de in´ ercia.
O mesmo resultado pode ser encontrado por m´ etodos puramente geom´ etricos. Agora passamos a desenvolver
um m´ etodo geral para achar os elementos diagonais e os eixos principais.
Se R
−1
=
˜
R ´ e a matriz ortogonal real, tal que n
t
= Rn ou [n
t
) = R[n) na notac¸ ˜ ao de Dirac s˜ ao as novas
“livro” — 2007/8/1 — 15:06 — page 165 — #175
3. DETERMINANTES E MATRIZES 165
coordenadas, ent˜ ao, usando ¸n
t
[R = ¸n[ na Equac¸ ˜ ao (3.132), obtemos
¸n[I[n) = ¸n
t
[RI
˜
R[n
t
) = I
t
1
n
t 2
1
+I
t
2
n
t 2
2
+I
t
3
n
t 2
3
, (3.133)
em que I
t
i
> 0 s˜ ao os momentos de in´ ercia principais. A matriz de in´ ercia I
t
na Equac¸ ˜ ao (3.133) ´ e diagonal nas
novas coordenadas,
I
t
= RI
˜
R =
_
_
I
t
1
0 0
0 I
t
2
0
0 0 I
t
3
_
_
. (3.134)
Se reescrevermos a Equac¸ ˜ ao (3.134) usando R
−1
=
˜
R na forma
˜
RI
t
= I
˜
R (3.135)
e admitirmos que
˜
R = (v
1
, v
2
, v
3
) consiste em trˆ es vetores colunas, ent˜ ao a Equac¸ ˜ ao (3.135) se subdivide em trˆ es
equac¸ ˜ oes de autovalor
Iv
i
= I
t
i
v
i
, i = 1, 2, 3 (3.136)
com autovalores I
t
i
e autovetores v
i
. Os nomes vieram da literatura alem˜ a sobre mecˆ anica quˆ antica. Como essas
equac¸ ˜ oes s˜ ao lineares e homogˆ eneas (para i fixo), pela Sec¸ ˜ ao 3.1 seus determinantes tˆ em de se anular:
¸
¸
¸
¸
¸
¸
I
11
−I
t
i
I
12
I
13
I
12
I
22
−I
t
i
I
23
I
13
I
23
I
33
−I
t
i
¸
¸
¸
¸
¸
¸
= 0. (3.137)
Substituindo o autovalor I
t
i
por uma vari´ avel λ vezes a matriz unidade 1, podemos reescrever a Equac¸ ˜ ao (3.136)
como
(I −λ1)[v) = 0. (3.136
t
)
O determinante igualado a zero,
[I −λ1[ = 0, (3.137
t
)
´ e um polinˆ omio c´ ubico em λ; sua trˆ es ra´ızes, ´ e claro, s˜ ao os I
t
i
. Voltando ` a Equac¸ ˜ ao (3.136) ou (3.136’) e nela
substituindo uma raiz por vez, podemos achar os autovetores correspondentes. Por causa de suas aplicac¸ ˜ oes em
teorias astronˆ omicas, a Equac¸ ˜ ao (3.137) ou (3.137) ´ e conhecida como equac¸ ˜ ao secular.
20
O mesmo tratamento
se aplica a qualquer matriz sim´ etrica real I, exceto que seus autovalores n˜ ao precisam ser todos positivos. Al´ em
disso, a condic¸ ˜ ao de ortogonalidade na Equac¸ ˜ ao (3.87) para R afirma que, em termos geom´ etricos, os autovetores
v
i
s˜ ao vetores unit´ arios mutuamente ortogonais. Na verdade, eles formam o novo sistema de coordenadas. O fato
de quaisquer dois autovetores v
i
, v
j
serem ortogonais se I
t
i
,= I
t
j
resulta da Equac¸ ˜ ao (3.136) em conjunc¸ ˜ ao com a
simetria de I pela multiplicac¸ ˜ ao por v
i
e v
j
, respectivamente.
¸v
j
[I[v
i
) = I
t
i
v
j
v
i
= ¸v
i
[I[v
j
) = I
t
j
v
i
v
j
. (3.138a)
Visto que I
t
i
,= I
t
j
e a Equac¸ ˜ ao (3.138a) implicam que (I
t
j
−I
t
i
)v
i
v
j
= 0, ent˜ ao v
i
v
j
= 0.
Podemos escrever as formas quadr´ aticas na Equac¸ ˜ ao (3.133) como uma soma de quadrados nas coordenadas
originais [n),
¸n[I[n) = ¸n
t
[RI
˜
R[n
t
) =

i
I
t
i
(n v
i
)
2
, (3.138b)
porque, em termos de componentes, as linhas da matriz de rotac¸ ˜ ao em n
t
= Rn ou
_
_
_
n
t
1
n
t
2
n
t
3
_
_
_ =
_
_
v
1
n
v
2
n
v
3
n
_
_
20
A Equac¸ ˜ ao (3.126) tomar´ a essa forma quando ω se encontrar ao longo de um dos eixos principais. Ent˜ ao, L = λω e Iω = λω. Na
literatura matem´ atica λ costuma ser denominado valor caracter´ıstico, ω, um vetor caracter´ıstico.
“livro” — 2007/8/1 — 15:06 — page 166 — #176
166 F´ısica Matem´ atica Arfken • Weber
s˜ ao compostas dos autovetores v
i
. A identidade subjacente da matriz,
I =

i
I
t
i
[v
i
)¸v
i
[, (3.138c)
pode ser vista como a decomposic¸ ˜ ao espectral do tensor de in´ ercia (ou de qualquer matriz sim´ etrica real). Aqui, a
palavra espectral ´ e apenas um outro termo para a expans˜ ao de termos em seus autovalores. Quando multiplicamos
esta expans˜ ao de autovalor por ¸n[ ` a esquerda e [n) ` a direita, reproduzimos a relac¸ ˜ ao anterior entre formas
quadr´ aticas. O operador P
i
= [v
i
)¸v
i
[ ´ e um operador de projec¸ ˜ ao que satisfaz P
2
i
= P
i
que projeta a i-´ esima
componente w
i
de qualquer vetor [w) =

j
w
j
[v
j
) que ´ e expandido em termos do autovetor de base [v
j
). Isso ´ e
verificado por
P
i
[w) =

j
w
j
[v
i
)¸v
i
[v
j
) = w
i
[v
i
) = v
i
w[v
i
).
Finalmente, a identidade

i
[v
i
)¸v
i
[ = 1
expressa a completude da base de autovetor segundo a qual qualquer vetor [w) =

i
w
i
[v
i
) pode ser expandido
em termos dos autovetores. Multiplicar a relac¸ ˜ ao de completude por [w) prova a expans˜ ao [w) =

i
¸v
i
[w)[v
i
).
Uma extens˜ ao importante do teorema da decomposic¸ ˜ ao espectral se aplica ` as matrizes comutativas sim´ etricas
(ou hermitianas) A, B: se [A, B] = 0, ent˜ ao existe uma matriz (unit´ aria) ortogonal que diagonaliza ambas, A e
B; isto ´ e, ambas as matrizes tˆ em autovetores comuns se os autovalores forem n˜ ao-degenerados. O inverso desse
teorema tamb´ em ´ e v´ alido.
Para provar esse teorema, diagonalizamos A : Av
i
= a
i
v
i
. Multiplicando cada equac¸ ˜ ao de autovalor por B
obtemos BAv
i
= a
i
Bv
i
= A(Bv
i
), que diz que Bv
i
´ e um autovetor de A com autovalor a
i
. Por conseq¨ uˆ encia,
Bv
i
= b
i
v
i
com b
i
. Ao contr´ ario, se os vetores v
i
s˜ ao autovetores comuns de A e B, ent˜ ao ABv
i
= Ab
i
v
i
=
a
i
b
i
v
i
= BAv
i
. Uma vez que os autovetores v
i
s˜ ao completos, isso implica AB = BA.
Matrizes Hermitianas
Para espac¸os vetoriais complexos, matrizes hermitianas e unit´ arias desempenham o mesmo papel que matrizes
sim´ etricas e ortogonais em espac¸os vetoriais reais, respectivamente. Em primeiro lugar, vamos generalizar o
importante teorema sobre os elementos diagonais e os eixos principais para a equac¸ ˜ ao de autovalor
A[r) = λ[r) . (3.139)
Agora mostramos que, se A ´ e uma matriz hermitiana
21
seus autovalores s˜ ao reais e seus autovetores s˜ ao ortogonais.
Sejam λ
i
e λ
j
dois autovalores, e [r
i
) e [r
j
), os autovetores, correspondentes de A, uma matriz hermitiana.
Ent˜ ao,
A[r
i
) = λ
i
[r
i
), (3.140)
A[r
j
) = λ
j
[r
j
). (3.141)
A Equac¸ ˜ ao (3.140) ´ e multiplicada por ¸r
j
[:
¸r
j
[A[r
i
) = λ
i
¸r
j
[r
i
). (3.142)
A Equac¸ ˜ ao (3.141) ´ e multiplicada por ¸r
i
[ para dar
¸r
i
[A[r
j
) = λ
j
¸r
i
[r
j
). (3.143)
Tomando a adjunta
22
dessa equac¸ ˜ ao, temos
¸r
j
[A

[r
i
) = λ

j
¸r
j
[r
i
), (3.144)
21
Se A ´ e real, o requisito hermitiano se reduz a um requisito de simetria,
22
Note que ¸r
j
[ = [r
j
)

para vetores complexos.
“livro” — 2007/8/1 — 15:06 — page 167 — #177
3. DETERMINANTES E MATRIZES 167
ou
¸r
j
[A[r
i
) = λ

j
¸r
j
[ , r
i
) . (3.145)
visto que A ´ e hermitiana. Subtraindo a Equac¸ ˜ ao (3.145) da Equac¸ ˜ ao (3.142), obtemos

i
−λ

j
)¸r
j
[r
i
) = 0. (3.146)
Este ´ e um resultado geral para todas as poss´ıveis combinac¸ ˜ oes de i e j. Em primeiro lugar, seja j = i. Ent˜ ao, a
Equac¸ ˜ ao (3.146) se torna

i
−λ

i
)¸r
i
[r
i
) = 0. (3.147)
Uma vez que ¸r
i
[r
i
) = 0 seria uma soluc¸ ˜ ao trivial da Equac¸ ˜ ao (3.147), conclu´ımos que
λ
i
= λ

i
, (3.148)
ou λ
i
´ e real, para todo i.
Em segundo lugar, para i ,= j e λ
i
,= λ
j
,

i
−λ
j
)¸r
j
[r
i
) = 0, (3.149)
ou
¸r
j
[r
i
) = 0, (3.150)
o que significa que os autovetores de autovalores distintos s˜ ao ortogonais, sendo a Equac¸ ˜ ao (3.150) nossa
generalizac¸ ˜ ao de ortogonalidade neste espac¸o complexo.
23
Se λ
i
= λ
j
(caso degenerado), [r
i
) n˜ ao ´ e automaticamente ortogonal a [r
j
), pode ser transformado em
ortogonal.
24
Considere, mais uma vez, o problema f´ısico da matriz de momento de in´ ercia. Se x
1
´ e um eixo de
simetria rotacional, ent˜ ao constataremos que λ
2
= λ
3
. Cada um dos autovetores [r
2
) e [r
3
) ´ e perpendicular ao eixo
de simetria, [r
1
), mas encontra-se em qualquer lugar no plano perpendicular a [r
1
); isto ´ e, qualquer combinac¸ ˜ ao
linear de [r
2
) e [r
3
) tamb´ em ´ e um autovetor. Considere (a
2
[r
2
) +a
3
[r
3
)) com a
2
e a
3
constantes. Ent˜ ao,
A
_
a
2
[r
2
) +a
3
[r
3
)
_
= a
2
λ
2
[r
2
) +a
3
λ
3
[r
3
)
= λ
2
_
a
2
[r
2
) +a
3
[r
3
)
_
, (3.151)
como era de esperar, porque x
1
´ e um eixo de simetria rotacional. Por conseguinte, se [r
1
) e [r
2
) s˜ ao fixos, podemos
simplesmente escolher que [r
3
) esteja no plano perpendicular a [r
1
) e tamb´ em perpendicular a [r
2
). Um m´ etodo
geral de soluc¸ ˜ oes ortogonalizadoras, o processo de Gram-Schmidt (Sec¸ ˜ ao 3.1), ´ e aplicado ` as func¸ ˜ oes na Sec¸ ˜ ao
10.3.
O conjunto de n autovetores ortogonais [r
i
) de nossa matriz hermitiana n n A forma um conjunto completo,
abrangendo o espac¸o n dimensional (complexo),

i
[r
i
)¸r
i
[ = 1. Este fato ´ e ´ util em um c´ alculo variacional dos
autovalores, Sec¸ ˜ ao 17.8.
A decomposic¸ ˜ ao espectral de qualquer matriz hermitiana A ´ e provada por analogia com matrizes sim´ etricas
reais
A =

i
λ
i
[r
i
)¸r
i
[,
com autovalores reais λ
i
e autovetores ortonormais [r
i
).
Autovalores e autovetores n˜ ao s˜ ao limitados a matrizes hermitianas. Todas as matrizes tˆ em ao menos um
autovalor e um autovetor. Contudo, somente matrizes hermitianas tˆ em todos os autovetores ortogonais e todos
os autovalores reais.
23
A teoria correspondente para operadores diferenciais (teoria de Sturm-Liouville) aparece na Sec¸ ˜ ao 10.2. A equac¸ ˜ ao integral an´ aloga (teoria
de Hilbert–Schmidt) ´ e dada na Sec¸ ˜ ao 16.4.
24
Aqui, estamos admitindo que os autovetores das λ
i
n vezes degeneradas abrangem o espac¸o n dimensional correspondente. Isso pode ser
mostrado incluindo um parˆ ametro ε na matriz original para remover a degenerac¸ ˜ ao e ent˜ ao deixar que ε se aproxime de zero (compare com o
Exerc´ıcio 3.5.30). Isso ´ e an´ alogo a interromper uma degenerac¸ ˜ ao em espectroscopia at ˆ omica aplicando um campo magn´ etico externo (efeito
de Zeeman).
“livro” — 2007/8/1 — 15:06 — page 168 — #178
168 F´ısica Matem´ atica Arfken • Weber
Matrizes Anti-Hermitianas
Ocasionalmente encontramos na teoria quˆ antica matrizes anti-hermitianas:
A

= −A.
Conforme a an´ alise da primeira parte desta sec¸ ˜ ao, podemos mostrar que
(a) Os autovalores s˜ ao imagin´ arios puros (ou zero).
(b) Os autovetores correspondentes a autovalores distintos s˜ ao ortogonais.
A matriz R formada a partir dos autovetores normalizados ´ e unit´ aria. Esta propriedade anti-hermitiana ´ e
preservada sob transformac¸ ˜ oes unit´ arias.
Exemplo 3.5.1 AUTOVALORES E AUTOVETORES DE UMA MATRIZ SIM´ ETRICA REAL
Seja
A =
_
_
0 1 0
1 0 0
0 0 0
_
_
. (3.152)
A equac¸ ˜ ao secular ´ e
¸
¸
¸
¸
¸
¸
−λ 1 0
1 −λ 0
0 0 −λ
¸
¸
¸
¸
¸
¸
= 0, (3.153)
ou
−λ
_
λ
2
−1
_
= 0, (3.154)
expandindo por menores. As ra´ızes s˜ ao λ = −1, 0, 1. Para achar o autovetor correspondente a λ = −1,
substitu´ımos esse valor na equac¸ ˜ ao de autovalor, Equac¸ ˜ ao (3.139),
_
_
−λ 1 0
1 −λ 0
0 0 −λ
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
. (3.155)
Com λ = −1, isso resulta
x +y = 0, z = 0. (3.156)
Dentro de um fator de escala arbitr´ ario e um sinal arbitr´ ario (ou fator de fase), ¸r
1
[ = (1, −1, 0). Note que
(para [r) real em espac¸o ordin´ ario) o autovetor destaca uma reta no espac¸o. O sentido positivo ou negativo n˜ ao
´ e determinado. Essa indeterminac¸ ˜ ao podia ser esperada se not´ assemos que a Equac¸ ˜ ao (3.139) ´ e homogˆ enea em
[r). Por conveniˆ encia, exigiremos que os autovetores sejam normalizados para a unidade, ¸r
1
[r
1
) = 1. Com esta
condic¸ ˜ ao,
¸r
1
[ =
_
1

2
,
−1

2
, 0
_
(3.157)
´ e fixo, exceto por um sinal geral. Para λ = 0 , a Equac¸ ˜ ao (3.139) resulta em
y = 0, x = 0, (3.158)
¸r
2
[ = (0, 0, 1) ´ e um autovetor adequado. Por fim, para λ = 1, obtemos
−x +y = 0, z = 0, (3.159)
ou
¸r
3
[ =
_
1

2
,
1

2
, 0
_
. (3.160)
A ortogonalidade de r
1
, r
2
e r
3
, correspondente a trˆ es autovalores distintos, pode ser verificada com facilidade.
A decomposic¸ ˜ ao espectral correspondente resulta
A = (−1)
_
1

2
, −
1

2
, 0
_
_
_
_
1

2

1

2
0
_
_
_+ (+1)
_
1

2
,
1

2
, 0
_
_
_
_
1

2
1

2
0
_
_
_+ 0(0, 0, 1)
_
_
0
0
1
_
_
= −
_
_
_
1
2

1
2
0

1
2
1
2
0
0 0 0
_
_
_+
_
_
_
1
2
1
2
0
1
2
1
2
0
0 0 0
_
_
_ =
_
_
0 1 0
1 0 0
0 0 0
_
_
.

“livro” — 2007/8/1 — 15:06 — page 169 — #179
3. DETERMINANTES E MATRIZES 169
Exemplo 3.5.2 AUTOVALORES DEGENERADOS
Considere
A =
_
_
1 0 0
0 0 1
0 1 0
_
_
. (3.161)
A equac¸ ˜ ao secular ´ e
¸
¸
¸
¸
¸
¸
1 −λ 0 0
0 −λ 1
0 1 −λ
¸
¸
¸
¸
¸
¸
= 0 (3.162)
ou
(1 −λ)
_
λ
2
−1
_
= 0, λ = −1, 1, 1, (3.163)
um caso degenerado. Se λ = −1, a equac¸ ˜ ao de autovalor (3.139) resulta
2x = 0, y +z = 0. (3.164)
Um autovetor normalizado adequado ´ e
¸r
1
[ =
_
0,
1

2
,
−1

2
_
. (3.165)
Para λ = 1, obtemos
−y +z = 0. (3.166)
Qualquer autovetor que satisfac¸a a Equac¸ ˜ ao (3.166) ´ e perpendicular a r
1
. Temos um n´ umero infinito de opc¸ ˜ oes.
Suponha, como uma das opc¸ ˜ oes poss´ıveis, que r
2
´ e tomado como
¸r
2
[ =
_
0,
1

2
,
1

2
_
, (3.167)
o que claramente satisfaz a Equac¸ ˜ ao (3.166). Ent˜ ao, r
3
deve ser perpendicular a r
1
e podemos fazer com que seja
perpendicular a r
2
por
25
r
3
= r
1
r
2
= (1, 0, 0). (3.168)
A decomposic¸ ˜ ao espectral correspondente resulta
A = −
_
0,
1

2
, −
1

2
_
_
_
_
0
1

2

1

2
_
_
_+
_
0,
1

2
,
1

2
_
_
_
_
0
1

2
1

2
_
_
_+ (1, 0, 0)
_
_
1
0
0
_
_
= −
_
_
_
0 0 0
0
1
2

1
2
0 −
1
2
1
2
_
_
_+
_
_
_
0 0 0
0
1
2
1
2
0
1
2
1
2
_
_
_+
_
_
1 0 0
0 0 0
0 0 0
_
_
=
_
_
1 0 0
0 0 1
0 1 0
_
_
.

Func¸ ˜ oes de Matrizes
Polinˆ omios com um ou mais argumentos matriciais s˜ ao bem definidos e ocorrem com freq¨ uˆ encia. A s´ erie de
potˆ encia de uma matriz tamb´ em pode ser definida, contanto que ela convirja para cada elemento da matriz (veja o
Cap´ıtulo 5). Por exemplo, se A ´ e qualquer matriz n n, ent˜ ao as s´ eries de potˆ encia
exp(A) =

j=0
1
j!
A
j
, (3.169a)
sen(A) =

j=0
(−1)
j
(2j + 1)!
A
2j+1
, (3.169b)
cos(A) =

j=0
(−1)
j
(2j)!
A
2j
(3.169c)
25
A utilizac¸ ˜ ao do produto cruzado ´ e limitada a espac¸o tridimensional (veja a Sec¸ ˜ ao 1.4).
“livro” — 2007/8/1 — 15:06 — page 170 — #180
170 F´ısica Matem´ atica Arfken • Weber
s˜ ao matrizes nn bem definidas. Para as matrizes de Pauli σ
k
a identidade de Euler para θ real e k = 1, 2 ou 3
exp(iσ
k
θ) = 1
2
cos θ +iσ
k
sen θ, (3.170a)
resulta da reuni˜ ao de todas as potˆ encias ´ımpares e pares de θ em s´ eries separadas usando σ
2
k
= 1. Para as matrizes
4 4 σ
jk
= 1 de Dirac com (σ
jk
)
2
= 1 se j ,= k = 1, 2 ou 3 obtemos, de maneira similar (sem escrever mais a
´ obvia matriz unidade 1
4
),
exp
_

jk
θ
_
= cos θ +iσ
jk
sen θ, (3.170b)
enquanto
exp
_

0k
ζ
_
= cosh ζ +iσ
0k
sen hζ (3.170c)
vale para ζ real porque (iσ
0k
)
2
= 1 para k = 1, 2,
Para uma matriz hermitiana A h´ a uma matriz unit´ aria U que a diagonaliza; isto ´ e, UAU

= [a
1
, a
2
, . . . , a
n
].
Ent˜ ao, a f´ ormula de trac¸o
det
_
exp(A)
_
= exp
_
trac¸o(A)
_
(3.171)
´ e obtida (veja os Exerc´ıcios 3.5.2 e 3.5.9) por
det
_
exp(A)
_
= det
_
Uexp(A)U

_
= det
_
exp
_
UAU

__
= det exp[a
1
, a
2
, . . . , a
n
] = det
_
e
a1
, e
a2
, . . . , e
an
¸
=

e
ai
= exp
_

a
i
_
= exp
_
trac¸o(A)
_
,
usando UA
i
U

= (UAU

)
i
na s´ erie de potˆ encias da Equac¸ ˜ ao (3.169a), para exp(UAU

), e o teorema do produto
para determinantes na Sec¸ ˜ ao 3.2.
Essa f´ ormula de trac¸o ´ e um caso especial da lei da decomposic¸ ˜ ao espectral para qualquer func¸ ˜ ao f(A)
(infinitamente diferenci´ avel) para a hermitiana A:
f(A) =

i
f(λ
i
)[r
i
)¸r
i
[,
em que [r
i
) s˜ ao os autovetores comuns de A e A
j
. Essa expans˜ ao de autovalor resulta de A
j
[r
i
) = λ
j
i
[r
i
),
multiplicada por f
(j)
(0)/j! e somada sobre j para formar a expans˜ ao de Taylor de f(λ
i
) e dar como
resultado f(A)[r
i
) = f(λ
i
)[r
i
). Por fim, somando sobre i e usando completude, obtemos f(A)

i
[r
i
)¸r
i
[ =

i
f(λ
i
)[r
i
)¸r
i
[ = f(A), q.e.d.
Exemplo 3.5.3 EXPONENCIAL DE UMA MATRIZ DIAGONAL
Se a matriz A ´ e diagonal como
σ
3
=
_
1 0
0 −1
_
,
ent˜ ao sua en´ esima potˆ encia tamb´ em ´ e diagonal com seus elementos matriciais diagonais elevados ` a en´ esima
potˆ encia:
σ
3
=
_
1 0
0 −1
_
.
Ent˜ ao, fazendo o somat´ orio da s´ erie exponencial, elemento por elemento, temos
e
σ3
=
_


n=0
1
n!
0
0


n=0
(−1)
n
n!
_
=
_
e 0
0
1
e
_
.
Se escrevermos a matriz diagonal geral como A = [a
1
, a
2
, . . . , a
n
] com elementos diagonais a
j
, ent˜ ao A
m
=
[a
m
1
, a
m
2
, . . . , a
m
n
] e, fazendo o somat ´ orio das exponenciais, mais uma vez elemento por elemento, obtemos
e
A
= [e
a1
, e
a2
, . . . , e
an
].
Usando a lei da decomposic¸ ˜ ao espectral, obtemos diretamente
e
σ3
= e
+1
(1, 0)
_
1
0
_
+e
−1
(0, 1)
_
0
1
_
=
_
e 0
0 e
−1
_
.
“livro” — 2007/8/1 — 15:06 — page 171 — #181
3. DETERMINANTES E MATRIZES 171

Uma outra relac¸ ˜ ao importante ´ e a f´ ormula de Baker-Hausdorff,
exp(iG)Hexp(−iG) = H + [iG, H] +
1
2
_
iG, [iG, H]
¸
+ , (3.172)
que resulta da multiplicac¸ ˜ ao da s´ erie de potencias por exp(iG) e da reuni˜ ao dos termos com as mesmas potˆ encias
de iG. Aqui, definimos
[G, H] = GH −HG
como o comutador de G e H.
A an´ alise precedente tem a vantagem de exibir e esclarecer relac¸ ˜ oes conceituais na diagonalizac¸ ˜ ao de matrizes.
Contudo, para matrizes maiores do que 3 3, ou talvez 4 4, o processo rapidamente se torna t˜ ao incˆ omodo
que recorremos a computadores e a t´ ecnicas iterativas.
26
Uma dessas t´ ecnicas ´ e o m´ etodo de Jacobi
para determinar autovalores e autovetores de matrizes sim´ etricas reais. Essa t´ ecnica de Jacobi para determinar
autovalores e autovetores e o m´ etodo de Gauss-Seidel para resolver sistemas de equac¸ ˜ oes lineares simultˆ aneas
s˜ ao exemplos de m´ etodos de afrouxamento. S˜ ao t´ ecnicas iterativas nas quais os erros podem decrescer ou afrouxar
enquanto as iterac¸ ˜ oes continuam. M´ etodos de afrouxamento s˜ ao utilizados extensivamente para a soluc¸ ˜ ao de
equac¸ ˜ oes diferenciais parciais.
Exerc´ıcios
3.5.1 (a) Comec¸ando com o momento angular orbital do i-´ esimo elemento de massa,
L
i
= r
i
×p
i
= m
i
r
i
×(ω ×r
i
),
derive a matriz de in´ ercia tal que L = Iω, |L = I|ω.
(b) Repita a derivac¸ ˜ ao comec¸ando com energia cin´ etica
T
i
=
1
2
m
i
(ω ×r
i
)
2
_
T =
1
2
ω|I|ω
_
.
3.5.2 Mostre que os autovalores de uma matriz ficam inalterados se a matriz ´ e transformada por uma
transformac¸ ˜ ao de similaridade.
Esta propriedade n˜ ao est´ a limitada a matrizes sim´ etricas ou a matrizes hermitianas. Ela vale
para qualquer matriz que satisfac¸a a equac¸ ˜ ao de autovalor, Equac¸ ˜ ao (3.139). Se conseguirmos
trazer nossa matriz para a forma diagonal por uma transformac¸ ˜ ao de similaridade, ent˜ ao duas
conseq¨ uˆ encias imediatas s˜ ao:
1. O trac¸o (soma de autovalores) ´ e invariante sob uma transformac¸ ˜ ao de similaridade.
2. O determinante (produto de autovalores) ´ e invariante sob uma transformac¸ ˜ ao de similaridade.
Nota: A invariˆ ancia do trac¸o e do determinante costuma ser demonstrada usando o teorema de
Cayley-Hamilton: uma matriz satisfaz sua pr´ opria equac¸ ˜ ao (secular) caracter´ıstica.
3.5.3 Como um inverso do teorema que afirma que matrizes hermitianas tˆ em autovalores reais e que
autovetores correspondentes a autovalores distintos s˜ ao ortogonais, mostre que, se
(a) os autovalores de uma matriz s˜ ao reais e
(b) os autovetores satisfazem r

i
r
j
= δ
ij
= ¸r
i
[r
j
),
ent˜ ao a matriz ´ e hermitiana.
3.5.4 Mostre que uma matriz real n˜ ao-sim´ etrica n˜ ao pode ser diagonalizada por uma transformac¸ ˜ ao de
similaridade ortogonal.
Sugest˜ ao: Admita que a matriz real n˜ ao-sim´ etrica pode ser diagonalizada e desenvolva uma
contradic¸ ˜ ao.
3.5.5 As matrizes que representam as componentes do momento angular J
x
, J
y
e J
z
s˜ ao todas
hermitianas. Mostre que os autovalores de J
2
, em que J
2
= J
2
x
+J
2
y
+J
2
z
, s˜ ao reais e n˜ ao-negativos.
3.5.6 A tem autovalores λ
i
autovetores correspondentes [x
i
). Mostre que A
−1
tem os mesmos
autovetores, mas com autovalores λ
−1
i
.
26
Em sistemas de dimens˜ oes mais altas, a equac¸ ˜ ao secular pode ser muito mal condicionada no que diz respeito ` a determinac¸ ˜ ao de suas
ra´ızes (os autovalores). A soluc¸ ˜ ao direta por computador pode ser muito inexata. Em geral, preferem-se t´ ecnicas iterativas para diagonalizar a
matriz original. Veja as Sec¸ ˜ oes 2.7 e 2.9 de Press et al., loc. cit.
“livro” — 2007/8/1 — 15:06 — page 172 — #182
172 F´ısica Matem´ atica Arfken • Weber
3.5.7 Uma matriz quadrada com determinante zero ´ e denominada singular.
(a) Se A ´ e singular, mostre que h´ a ao menos um vetor coluna n˜ ao-zero v, tal que
A[v) = 0.
(b) Se h´ a um vetor n˜ ao-zero [v), tal que
A[v) = 0,
mostre que A ´ e uma matriz singular. Isso significa que, se uma matriz (ou operador) tiver
zero como um autovalor, a matriz (ou operador) n˜ ao tem nenhuma inversa e seu
determinante ´ e zero.
3.5.8 A mesma transformac¸ ˜ ao de similaridade diagonaliza cada uma de duas matrizes. Mostre que as
matrizes originais devem comutar. (Isto ´ e particularmente importante na formulac¸ ˜ ao matricial – de
Heisenberg – da mecˆ anica quˆ antica.)
3.5.9 Duas matrizes hermitianas A e B tˆ em os mesmos autovalores. Mostre que A e B s˜ ao relacionadas
por uma transformac¸ ˜ ao de similaridade unit´ aria.
3.5.10 Ache os autovalores e um conjunto ortonormal (ortogonal e normalizado) de autovetores para as
matrizes do Exerc´ıcio 3.2.15.
3.5.11 Mostre que a matriz de in´ ercia para uma ´ unica part´ıcula de massa m em (x, y, z) tem um
determinante. Explique esse resultado em termos da invariˆ ancia do determinante de uma matriz sob
transformac¸ ˜ ao de similaridade (Exerc´ıcio 3.3.10) e de uma poss´ıvel rotac¸ ˜ ao do sistema coordenado.
3.5.12 Um certo corpo r´ıgido pode ser representado por trˆ es massas pontuais: m
1
= 1 em (1, 1, −2),
m
2
= 2 em (−1, −1, 0) e m
3
= 1 em (1, 1, 2).
(a) Ache a matriz de in´ ercia.
(b) Diagonalize a matriz de in´ ercia obtendo os autovalores e os eixos principais (como autovetores
ortonormais).
Figura 3.6: Localizac¸ ˜ ao de massa para tensor de in´ ercia.
“livro” — 2007/8/1 — 15:06 — page 173 — #183
3. DETERMINANTES E MATRIZES 173
3.5.13 Massas unit´ arias s˜ ao colocadas como mostra a Figura 3.6.
(a) Ache a matriz do momento de in´ ercia.
(b) Ache os autovalores e um conjunto de autovetores ortonormais.
(c) Explique a degenerac¸ ˜ ao em termos da simetria do sistema.
Resposta: I =
_
_
4 −1 −1
−1 4 −1
−1 −1 4
_
_
λ
1
= 2
r
1
= (1/

3, 1/

3, 1/

3 )
λ
2
= λ
3
= 5.
3.5.14 Uma massa m
1
= 1/2 kg est´ a localizada em (1, 1, 1) (metros), uma massa m
2
= 1/2 kg est´ a em
(−1, −1, −1). As duas massas s˜ ao unidas por um bast˜ ao ideal (sem peso, r´ıgido).
(a) Ache o tensor de in´ ercia desse par de massas.
(b) Ache os autovalores e autovetores dessa matriz de in´ ercia.
(c) Explique o significado, a significˆ ancia f´ısica do autovalor λ = 0. Qual ´ e a significˆ ancia do
autovetor correspondente?
(d) Agora que vocˆ e resolveu este problema por t´ ecnicas matriciais bastante sofisticadas, explique
como poderia obter
(1) λ = 0 e λ =? — por inspec¸ ˜ ao (isto ´ e, usando bom senso).
(2) r
λ=0
=? — por inspec¸ ˜ ao (isto ´ e, usando f´ısica de calouro).
3.5.15 Massas unit´ arias est˜ ao nos oito v´ ertices de um cubo (±1, ±1, ±1). Ache a matriz
do momento de in´ ercia e mostre que h´ a uma degenerac¸ ˜ ao tripla. Isso significa que,
no que concerne a momentos de in´ ercia, a estrutura c´ ubica exibe simetria esf´ erica.
Ache os autovalores e autovetores ortonormais correspondentes das matrizes seguintes (como
verificac¸ ˜ ao num´ erica, note que a soma dos autovalores ´ e igual ` a soma dos elementos diagonais
da matriz original, Exerc´ıcio 3.3.9). Note tamb´ em a correspondˆ encia entre det A = 0 e a existˆ encia
de λ = 0, como requerido pelos Exerc´ıcios 3.5.2 e 3.5.7.
3.5.16 A =
_
_
1 0 1
0 1 0
1 0 1
_
_
. Resposta: λ = 0, 1, 2.
3.5.17 A =
_
_
1

2 0

2 0 0
0 0 0
_
_
. Resposta: λ = −1, 0, 2.
3.5.18 A =
_
_
1 1 0
1 0 1
0 1 1
_
_
. Resposta: λ = −1, 1, 2.
3.5.19 A =
_
_
1

8 0

8 1

8
0

8 1
_
_
. Resposta: λ = −3, 1, 5.
3.5.20 A =
_
_
1 0 0
0 1 1
0 1 1
_
_
. Resposta: λ = 0, 1, 2.
3.5.21 A =
_
_
1 0 0
0 1

2
0

2 0
_
_
. Resposta: λ = −1, 1, 2.
3.5.22 A =
_
_
0 1 0
1 0 1
0 1 0
_
_
. Resposta: λ = −

2, 0,

2.
“livro” — 2007/8/1 — 15:06 — page 174 — #184
174 F´ısica Matem´ atica Arfken • Weber
3.5.23 A =
_
_
2 0 0
0 1 1
0 1 1
_
_
. Resposta: λ = 0, 2, 2.
3.5.24 A =
_
_
0 1 1
1 0 1
1 1 0
_
_
. Resposta: λ = −1, −1, 2.
3.5.25 A =
_
_
1 −1 −1
−1 1 −1
−1 −1 1
_
_
. Resposta: λ = −1, 2, 2.
3.5.26 A =
_
_
1 1 1
1 1 1
1 1 1
_
_
. Resposta: λ = 0, 0, 3.
3.5.27 A =
_
_
5 0 2
0 1 0
2 0 2
_
_
. Resposta: λ = 1, 1, 6.
3.5.28 A =
_
_
1 1 0
1 1 0
0 0 0
_
_
. Resposta: λ = 0, 0, 2.
3.5.29 A =
_
_
5 0

3
0 3 0

3 0 3
_
_
. Resposta: λ = 2, 3, 6.
3.5.30 (a) Determine os autovalores e autovetores de
_
1 ε
ε 1
_
.
Note que os autovalores s˜ ao degenerados para ε = 0, mas que os autovetores s˜ ao ortogonais
para todo ε ,= 0 e ε →0.
(b) Determine os autovalores e autovetores de
_
1 1
ε
2
1
_
.
Note que os autovalores s˜ ao degenerados para ε = 0 e que para essa matriz (n˜ ao-sim´ etrica) os
autovetores (ε = 0) n˜ ao abrangem o espac¸o.
(c) Ache o co-seno do ˆ angulo entre os dois autovetores como uma func¸ ˜ ao de ε para 0 ≤ ε ≤ 1.
3.5.31 (a) Tome os coeficientes das equac¸ ˜ oes lineares simultˆ aneas do Exerc´ıcio 3.1.7 como os elementos
matriciais a
ij
da matriz A (sim´ etrica). Calcule os autovalores e autovetores.
(b) Forme uma matriz R cujas colunas s˜ ao os autovetores de A, e calcule o produto matricial triplo
˜
RAR.
Resposta: λ = 3, 33163.
3.5.32 Repita o Exerc´ıcio 3.5.31 usando a matriz do Exerc´ıcio 3.2.39.
3.5.33 Descreva as propriedades geom´ etricas da superf´ıcie
x
2
+ 2xy + 2y
2
+ 2yz +z
2
= 1.
Como ela est´ a orientada em espac¸o tridimensional? Ela ´ e uma sec¸ ˜ ao cˆ onica? Caso positivo, de que
tipo?
“livro” — 2007/8/1 — 15:06 — page 175 — #185
3. DETERMINANTES E MATRIZES 175
3.5.34 Para uma matriz hermitiana n n A com autovalores distintos λ
j
e uma func¸ ˜ ao f, mostre que a lei
da decomposic¸ ˜ ao espectral pode ser expressa como
f(A) =
n

j=1
f(λ
j
)

i,=j
(A −λ
i
)

i,=j

j
−λ
i
)
.
Esta f´ ormula se deve a Sylvester.
3.6 Matrizes Normais
Na Sec¸ ˜ ao 3.5 nossa preocupac¸ ˜ ao primordial foramas matrizes hermitianas ou matrizes sim´ etricas reais e o processo
propriamente dito de achar os autovalores e autovetores. Nesta sec¸ ˜ ao
27
generalizamos para matrizes normais,
considerando as matrizes hermitianas e a matriz unit´ aria como casos especiais. Tamb´ em s˜ ao considerados o
importante problema da f´ısica referente a modos normais de vibrac¸ ˜ ao e o problema numericamente importante
de matrizes mal condicionadas.
Uma matriz normal ´ e uma matriz que comuta com sua adjunta,
_
A, A

¸
= 0.
Tabela 3.1
Matriz Autovalores Autovetores
(para diferentes autovalores)
Hermitiana Real Ortogonais
Anti-hermitiana Imagin´ aria pura (ou zero) Ortogonais
Unit´ aria Grandeza unit´ aria Ortogonais
Normal Se A tem autovalor λ, Ortogonais
A

λ

A e A

tˆ em os
mesmos autovetores
Exemplos ´ obvios e importantes s˜ ao matrizes hermitianas e matrizes unit´ arias. Mostraremos que matrizes
normais tˆ em autovetores ortogonais (veja a Tabela 3.1). Nossa demonstrac¸ ˜ ao ter´ a duas etapas.
I. Admitamos que A tem um autovetor [x) e autovalor correspondente λ. Ent˜ ao,
A[x) = λ[x) (3.173)
ou
(A −λ1)[x) = 0. (3.174)
Por conveniˆ encia, a combinac¸ ˜ ao A −λ1 ser´ a denominada B. Tomando a adjunta da equac¸ ˜ ao (3.174), obtemos
¸x[(A −λ1)

= 0 = ¸x[B

. (3.175)
Como
_
(A −λ1)

, (A −λ1)
¸
=
_
A, A

¸
= 0,
temos
_
B, B

¸
= 0. (3.176)
A matriz B tamb´ em ´ e normal.
Pelas Equac¸ ˜ oes (3.174) e (3.175) formamos
¸x[B

B[x) = 0. (3.177)
Essa express˜ ao ´ e igual a
¸x[BB

[x) = 0 (3.178)
27
Matrizes normais s˜ ao a maior classe de matrizes que podem ser diagonalizadas por transformac¸ ˜ oes unit´ arias. Uma discuss˜ ao mais ampla
de matrizes normais pode ser encontrada em P. A. Macklin, “Normal matrices for physicists”. Am. J. Phys. 52: 513 (1984).
“livro” — 2007/8/1 — 15:06 — page 176 — #186
176 F´ısica Matem´ atica Arfken • Weber
pela Equac¸ ˜ ao (3.176). Agora, a Equac¸ ˜ ao (3.178) pode ser reescrita como
_
B

[x)
_

_
B

[x)
_
= 0. (3.179)
Assim,
B

[x) =
_
A

−λ

1
_
[x) = 0. (3.180)
Vemos que, para matrizes normais, A

tem os mesmos autovetores que A, exceto os autovalores conjugados
complexos.
II. Agora, considerando mais de um autovetor-autovalor, temos
A[x
i
) = λ
i
[x
i
), (3.181)
A[x
j
) = λ
j
[x
j
). (3.182)
Multiplicando a Equac¸ ˜ ao (3.182) a partir da esquerda por ¸x
i
[, temos
¸x
i
[A[x
j
) = λ
j
¸x
i
[x
j
). (3.183)
Tomando a transposta da Equac¸ ˜ ao (3.181), obtemos
¸x
i
[A =
_
A

[x
i
)
_

. (3.184)
Pela Equac¸ ˜ ao (3.180), sendo que A

tem os mesmos autovetores que A, exceto os autovalores conjugados
complexos,
_
A

[x
i
)
_

=
_
λ

i
[x
i
)
_

= λ
i
¸x
i
[. (3.185)
Substituindo na Equac¸ ˜ ao (3.183), temos
λ
i
¸x
i
[x
j
) = λ
j
¸x
i
[x
j
)
ou

i
−λ
j
)¸x
i
[x
j
) = 0. (3.186)
Essa express˜ ao ´ e a mesma que a Equac¸ ˜ ao (3.149).
Para λ
i
,= λ
j
,
¸x
j
[x
i
) = 0.
Os autovetores correspondentes a diferentes autovalores de uma matriz normal s˜ ao ortogonais. Isso significa
que uma matriz normal pode ser diagonalizada por uma transformac¸ ˜ ao unit´ aria. A matriz unit´ aria requerida pode
ser constru´ıda a partir dos autovetores ortonormais, como mostramos antes, na Sec¸ ˜ ao 3.5.
O inverso desse resultado tamb´ em ´ e verdadeiro. Se A pode ser diagonalizada por uma transformac¸ ˜ ao unit´ aria,
ent˜ ao A ´ e normal.
Modos Normais de Vibrac¸ ˜ ao
Consideramos as vibrac¸ ˜ oes de um modelo cl´ assico de mol´ ecula de CO
2
.
´
E uma ilustrac¸ ˜ ao da aplicac¸ ˜ ao de
t´ ecnicas matriciais a um problema que n˜ ao comec¸a como um problema matricial. Tamb´ em nos d´ a um exemplo
dos autovalores e autovetores de uma matriz real assim´ etrica.
Exemplo 3.6.1 MODOS NORMAIS
Considere trˆ es massas sobre o eixo x ligadas por molas, como mostra a Figura 3.7. Admitimos que as forc¸as das
molas s˜ ao lineares (pequenos deslocamentos, lei de Hooke) e que a massa ´ e obrigada a permanecer sobre o eixo x.
Usando uma coordenada diferente para cada massa, a segunda lei de Newton resulta no conjunto de equac¸ ˜ oes
¨ x
1
= −
k
M
(x
1
−x
2
)
¨ x
2
= −
k
m
(x
2
−x
1
) −
k
m
(x
2
−x
3
) (3.187)
¨ x
3
= −
k
M
(x
3
−x
2
).
“livro” — 2007/8/1 — 15:06 — page 177 — #187
3. DETERMINANTES E MATRIZES 177
Figura 3.7: Oscilador duplo.
O sistema de massas est´ a vibrando. Procuramos as freq¨ uˆ encias comuns, ω, tais que todas as massas vibrem com
a mesma freq¨ uˆ encia. Esses s˜ ao os modos normais. Seja
x
i
= x
i0
e
iωt
, i = 1, 2, 3.
Substituindo este conjunto na Equac¸ ˜ ao (3.187), podemos reescrevˆ e-lo como
_
_
_
k
M

k
M
0

k
m
2k
m

k
m
0 −
k
M
k
M
_
_
_
_
_
x
1
x
2
x
3
_
_
= +ω
2
_
_
x
1
x
2
x
3
_
_
, (3.188)
com o fator comume
iωt
dividido. Temos uma equac¸ ˜ ao matricial de autovalor com a matriz assim´ etrica. A equac¸ ˜ ao
secular ´ e
¸
¸
¸
¸
¸
¸
¸
k
M
−ω
2

k
M
0

k
m
2k
m
−ω
2

k
m
0 −
k
M
k
M
−ω
2
¸
¸
¸
¸
¸
¸
¸
= 0. (3.189)
Isso leva a
ω
2
_
k
M
−ω
2
__
ω
2

2k
m

k
M
_
= 0.
Os autovalores s˜ ao
ω
2
= 0,
k
M
,
k
M
+
2k
m
,
todos reais.
Os autovetores correspondentes s˜ ao determinados voltando ` a Equac¸ ˜ ao (3.188) e nela substituindo os
autovalores, um por vez. Para ω
2
= 0, a Equac¸ ˜ ao (3.188) d´ a como resultado,
x
1
−x
2
= 0, −x
1
+ 2x
2
−x
3
= 0, −x
2
+x
3
= 0.
Ent˜ ao obtemos
x
1
= x
2
= x
3
.
Essa express˜ ao descreve uma translac¸ ˜ ao pura sem nenhum movimento relativo das massas e nenhuma vibrac¸ ˜ ao.
Para ω
2
= k/M, a Equac¸ ˜ ao (3.188) resulta em
x
1
= −x
3
, x
2
= 0.
As duas massas externas est˜ ao se movimentando em direc¸ ˜ oes opostas. A massa que est´ a no centro ´ e estacion´ aria.
Para ω
2
= k/M + 2k/m, as componentes do autovetor s˜ ao
x
1
= x
3
, x
2
= −
2M
m
x
1
.
As duas massas externas est˜ ao se movimentando juntas. A massa situada no centro est´ a se movimentando em
direc¸ ˜ ao contr´ aria ` as outras duas externas. O momento l´ıquido ´ e zero.
Qualquer deslocamento das trˆ es massas ao longo do eixo x pode ser descrito como uma combinac¸ ˜ ao linear
desses trˆ es tipos de movimento: translac¸ ˜ ao, mais duas formas de vibrac¸ ˜ ao.
“livro” — 2007/8/1 — 15:06 — page 178 — #188
178 F´ısica Matem´ atica Arfken • Weber
Sistemas Mal Condicionados
Um sistema de equac¸ ˜ oes lineares simultˆ aneas pode ser escrito como
A[x) = [y) ou A
−1
[y) = [x), (3.190)
com A e [y) conhecidos e [x) desconhecido. Quando um pequeno erro em [y) resulta em um erro maior em [x),
ent˜ ao a matriz A ´ e dita mal condicionada. Sendo [δx) um erro em [x) e [δx) um erro em [y), os erros relativos
podem ser escritos como
_
¸δx[δx)
¸x[x)
_
1/2
≤ K(A)
_
¸δy[δy)
¸y[y)
_
1/2
. (3.191)
Aqui, K(A), uma propriedade da matriz A, ´ e denominada n´ umero da condic¸ ˜ ao. Para A hermitiana, uma forma do
n´ umero da condic¸ ˜ ao ´ e dada por
28
K(A) =
[λ[
m´ ax
[λ[
m´ın
. (3.192)
Uma forma aproximada devida a Turing
29
´ e
K(A) = n[A
ij
]
m´ ax
_
A
−1
ij
¸
m´ ax
, (3.193)
na qual n ´ e a ordem da matriz e [A
ij
]
m´ ax
´ e o elemento m´ aximo em A.
Exemplo 3.6.2 UMA MATRIZ MAL CONDICIONADA
Um exemplo comum de uma matriz mal condicionada ´ e a matriz de Hilbert, H
ij
= (i + j − 1)
−1
. A matriz de
Hilbert de ordem 4, H
4
, ´ e encontrada em um ajuste de dados por m´ınimos quadrados a um polinˆ omio de terceiro
grau. Temos
H
4
=
_
_
_
_
_
1
1
2
1
3
1
4
1
2
1
3
1
4
1
5
1
3
1
4
1
5
1
6
1
4
1
5
1
6
1
7
_
_
_
_
_
. (3.194)
Os elementos da matriz inversa (ordem n) s˜ ao dados por
_
H
−1
n
_
ij
=
(−1)
i+j
i +j −1

(n +i −1)!(n +j −1)!
[(i −1)!(j −1)!]
2
(n −i)!(n −j)!
. (3.195)
Para n = 4,
H
−1
4
=
_
_
_
_
16 −120 240 −140
−120 1200 −2700 1680
240 −2700 6480 −4200
−140 1680 −4200 2800
_
_
_
_
. (3.196)
Pela Equac¸ ˜ ao (3.193) a estimativa de Turing para o n´ umero de condic¸ ˜ ao para
K
Turing
= 4 1 6480
= 2, 59 10
4
.
Esse resultado alerta que um erro de entrada pode ser multiplicado por 26.000 no c´ alculo do resultado de sa´ıda,
o que equivale a dizer que H
4
est´ a mal condicionada. Se vocˆ e encontrar um sistema muito mal condicionado, ter´ a
duas alternativas (al´ em de abandonar o problema):
(a) Tentar uma abordagem matem´ atica diferente.
(b) Tentar obter n´ umeros mais significativos e levar a tarefa a cabo por forc¸a bruta.
Como vimos antes, t´ ecnicas matriciais de autovetor-autovalor n˜ ao est˜ ao limitadas ` a soluc¸ ˜ ao de problemas
estritamente matriciais. Um outro exemplo da transferˆ encia de t´ ecnicas de uma ´ area para outra ´ e visto na aplicac¸ ˜ ao
de t´ ecnicas matriciais – a soluc¸ ˜ ao de equac¸ ˜ oes integrais de autovalor de Fredholm, Sec¸ ˜ ao 16.3. Por sua vez, essas
t´ ecnicas matriciais s˜ ao reforc¸adas pelo um c´ alculo variacional da Sec¸ ˜ ao 17.8.
28
G. E. Forsythe e C. B. Moler, Computer Solution of Linear Algebraic Systems. Englewood Cliffs, NJ, Prentice Hall (1967).
29
Compare com J. Todd, The Condition of the Finite Segments of the Hilbert Matrix, Applied Mathematics Series n
o
313. Washington, DC:
National Bureau of Standards.
“livro” — 2007/8/1 — 15:06 — page 179 — #189
3. DETERMINANTES E MATRIZES 179
Exerc´ıcios
3.6.1 Mostre que toda matriz 22 temdois autovetores e correspondentes autovalores. Os autovetores n˜ ao
s˜ ao necessariamente ortogonais e podem ser degenerados. Os autovalores n˜ ao s˜ ao necessariamente
reais.
3.6.2 Como uma ilustrac¸ ˜ ao do Exerc´ıcio 3.6.1, ache os autovalores e correspondentes autovetores para
_
2 4
1 2
_
.
Note que os autovetores n˜ ao s˜ ao ortogonais.
Resposta: λ
1
= 0, r
1
= (2, −1);
λ
2
= 4, r
2
= (2, 1).
3.6.3 Se A ´ e uma matriz 2 2, mostre que seus autovalores λ satisfazem a equac¸ ˜ ao secular.
3.6.4 Admitindo que uma matriz unit´ aria U satisfaz uma equac¸ ˜ ao de autovalor Ur = λr, mostre que os
autovalores da matriz unit´ aria tˆ em m´ odulo unit´ ario. Este mesmo resultado ´ e v´ alido para matrizes
ortogonais reais.
3.6.5 Visto que uma matriz ortogonal que descreve uma rotac¸ ˜ ao em um espac¸o tridimensional real ´ e
um caso especial de uma matriz unit´ aria, tal matriz ortogonal pode ser diagonalizada por uma
transformac¸ ˜ ao unit´ aria.
(a) Mostre que a soma dos trˆ es autovalores ´ e 1 + 2 cos ϕ, em que ϕ ´ e o ˆ angulo l´ıquido de rotac¸ ˜ ao
ao redor de um ´ unico eixo fixo.
(b) Dado que um autovalor ´ e 1, mostre que os outros dois autovalores devem ser e

e e
−iϕ
.
Nossa matriz de rotac¸ ˜ ao ortogonal (elementos reais) tem autovalores complexos.
3.6.6 A ´ e uma matriz hermitiana de en´ esima ordem com autovetores ortonormais [x
i
) e autovalores reais
λ
1
≤ λ
2
≤ λ
3
≤ ≤ λ
n
. Mostre que para um vetor de m´ odulo unit´ ario [y),
λ
1
≤ ¸y[A[y) ≤ λ
n
.
3.6.7 Uma matriz particular ´ e hermitiana e tamb´ em unit´ aria. Mostre que seus autovalores s˜ ao todos ±1.
Nota: As matrizes de Pauli e Dirac s˜ ao exemplos espec´ıficos.
3.6.8 Para sua teoria relativista do el´ etron, Dirac requeria um conjunto de quatro matrizes an-
ticomutativas. Admita que essas matrizes devem ser hermitianas e unit´ arias. Se essas matrizes
s˜ ao n n, mostre que n deve ser par. Com matrizes 2 2, matrizes inadequadas (por quˆ e?),
isso demonstra que as menores matrizes poss´ıveis que formam um conjunto de quatro matrizes
anticomutativas, hermitianas, unit´ arias, s˜ ao 4 4.
3.6.9 A ´ e uma matriz normal com autovalores λ
n
e autovetores ortonormais [x
n
). Mostre que A pode ser
escrita como
A =

n
λ
n
[x
n
)¸x
n
[.
Sugest˜ ao: Mostre que ambas as formas desse autovetor, essa A e a A original d˜ ao o mesmo resultado
quando agem sobre um vetor arbitr´ ario [y).
3.6.10 A tem autovalores −1 e autovetores correspondentes
_
1
0
_
e
_
0
1
_
. Construa A.
Resposta: A =
_
1 0
0 −1
_
.
3.6.11 Uma matriz n˜ ao-hermitiana A tem autovalores λ
i
e autovetores correspondentes [u
i
). A matriz
adjunta A

tem o mesmo conjunto de autovalores mas autovetores correspondentes diferentes, [v
i
).
Mostre que os autovetores formam um conjunto biortogonal, no sentido de que
¸v
i
[u
j
) = 0 para λ

i
,= λ
j
.
3.6.12 Dado um par de equac¸ ˜ oes:
A[f
n
) = λ
n
[g
n
)
˜
A[g
n
) = λ
n
[f
n
) com A real,
“livro” — 2007/8/1 — 15:06 — page 180 — #190
180 F´ısica Matem´ atica Arfken • Weber
(a) Prove que [f
n
) ´ e um autovetor de (
˜
AA) com autovalor λ
2
n
.
(b) Prove que [g
n
) ´ e um autovetor de (A
˜
A) com autovalor λ
2
n
.
(c) Explique como vocˆ e sabe que
(1) Os [f
n
) formam um conjunto ortogonal.
(2) Os [g
n
) formam um conjunto ortogonal.
(3) λ
2
n
´ e real.
Prove que A do exerc´ıcio anterior pode ser escrito como
A =

n
λ
n
[g
n
)¸f
n
[,
com os [g
n
) e ¸f
n
[ normalizados para unidade.
Sugest˜ ao: Expanda seu vetor arbitr´ ario como uma combinac¸ ˜ ao linear de [f
n
).
3.6.14 Dado
A =
1

5
_
2 2
1 −4
_
,
(a) Construa a transposta
˜
A e as formas sim´ etricas
˜
AA e A
˜
A.
(b) Por A
˜
A[g
n
) = λ
2
n
[g
n
), ache λ
n
e [g
n
). Normalize os [g
n
).
(c) Por
˜
AA[f
n
) = λ
2
n
[g
n
), ache λ
n
[mesmo da (b)] e [f
n
). Normalize os [f
n
).
(d) Verifique que A[f
n
) = λ
n
[g
n
) e
˜
A[g
n
) = λ
n
[f
n
).
(e) Verifique que A =

n
λ
n
[g
n
)¸f
n
[.
3.6.15 Dados os autovalores λ
1
= 1, λ
2
= −1 e os autovetores correspondentes
[f
1
) =
_
1
0
_
, [g
1
) =
1

2
_
1
1
_
, [f
2
) =
_
0
1
_
e [g
2
) =
1

2
_
1
−1
_
,
(a) construa A;
(b) verifique que A[f
n
) = λ
n
[g
n
);
(c) verifique que
˜
A[g
n
) = λ
n
[f
n
).
Resposta: A =
1

2
_
1 −1
1 1
_
.
3.6.16 Este exerc´ıcio ´ e uma continuac¸ ˜ ao do Exerc´ıcio 3.4.12, em que a matriz unit´ aria U e a matriz
hermitiana H s˜ ao relacionadas por
U = e
iaH
.
(a) Se trac¸o H = 0, mostre que det U = +1.
(b) Se det U = +1, mostre que trac¸o H = 0.
Sugest˜ ao: H pode ser diagonalizada por uma transformac¸ ˜ ao de similaridade. Ent˜ ao, interpretando a
exponencial por uma expans˜ ao de Maclaurin, Utamb´ em ´ e diagonal. Os autovalores correspondentes
s˜ ao dados por u
j
= exp(iah
j
).
Nota: Essas propriedades e as do Exerc´ıcio 3.4.12 s˜ ao vitais no desenvolvimento do conceito de
geradores na teoria de grupo, Sec¸ ˜ ao 4.2.
3.6.17 Uma matriz A tem n autovalores A
i
. Se B = e
A
, mostre que B tem os mesmos autovetores que A,
com os autovalores correspondentes B
i
dados por B
i
= exp(A
i
).
Nota: e
A
´ e definido pela expans˜ ao de Maclaurin da exponencial:
e
A
= 1 +A +
A
2
2!
+
A
3
3!
+ .
“livro” — 2007/8/1 — 15:06 — page 181 — #191
3. DETERMINANTES E MATRIZES 181
3.6.18 Uma matriz P ´ e um operador de projec¸ ˜ ao (veja a discuss˜ ao ap´ os a Equac¸ ˜ ao (3.138c)) que satisfaz a
condic¸ ˜ ao
P
2
= P.
Mostre que os autovalores correspondentes (ρ
2
)
λ
e ρ
λ
satisfazem a relac¸ ˜ ao
_
ρ
2
_
λ
= (ρ
λ
)
2
= ρ
λ
.
Isso significa que os autovalores de P s˜ ao 0 e 1.
3.6.19 Na equac¸ ˜ ao matricial autovetor-autovalor
A[r
i
) = λ
i
[r
i
),
A ´ e uma matriz hermitiana nn. Por simplicidade, admita que seus n autovalores reais s˜ ao distintos
e que λ
1
´ e o maior. Se [r) ´ e uma aproximac¸ ˜ ao de [r
1
),
[r) = [r
1
) +
n

i=2
δ
i
[r
i
),
mostre que
¸r[A[r)
¸r[r)
≤ λ
1
e que o erro em λ
1
´ e de ordem [δ
i
[
2
. Considere [δ
i
[ ¸1.
Sugest˜ ao: Os n [r
i
) formam um conjunto ortogonal completo que abrange o espac¸o n dimensional
(complexo).
3.6.20 Duas massas iguais est˜ ao ligadas uma ` a outra e as paredes por molas, como mostra a Figura 3.8. As
massas s˜ ao obrigadas a permanecer sobre uma linha horizontal.
(a) Estabelec¸a a equac¸ ˜ ao de acelerac¸ ˜ ao newtoniana para cada massa.
(b) Resolva a equac¸ ˜ ao secular para os autovetores.
(c) Determine os autovetores e, assim, os modos normais de movimento.
Figura 3.8: Oscilador triplo.
3.6.21 Dada uma matriz normal A com autovalores λ
j
, mostre que A

tem autovalores λ

j
, sua parte real
(A +A

)/2 tem autovalores 1(λ
j
), e sua parte imagin´ aria (A −A

)/2i tem autovalores ·(λ
j
).
Leituras Adicionais
Aitken, A. C., Determinants and Matrices. Nova York: Interscience (1956). Nova tiragem, Greenwood (1983).
Uma introduc¸ ˜ ao de f´ acil leitura a determinantes e matrizes.
Barnett, S., Matrices: Methods and Applications. Oxford: Clarendon Press (1990).
Bickley, W. G., e R. S. H. G. Thompson, Matrices – Their Meaning and Manipulation. Princeton, NJ: Van
Nostrand (1964). Um apanhado abrangente de matrizes em problemas de f´ısica, suas propriedades anal´ıticas e
t´ ecnicas num´ ericas.
Brown, W. C., Matrices and Vector Spaces. Nova York: Dekker (1991).
Gilbert, J. e L., Linear Algebra and Matrix Theory. San Diego: Academic Press (1995).
“livro” — 2007/8/1 — 15:06 — page 182 — #192
182 F´ısica Matem´ atica Arfken • Weber
Heading, J., Matrix Theory for Physicists. Londres: Longmans, Green and Co. (1958). Uma introduc¸ ˜ ao de
f´ acil leitura a determinantes e matrizes, com aplicac¸ ˜ oes ` a mecˆ anica, eletromagnetismo, relatividade especial
e mecˆ anica quˆ antica.
Vein, R., e P. Dale, Determinants and Their Applications in Mathematical Physics. Berlim: Springer (1998).
Watkins, D. S., Fundamentals of Matrix Computations. Nova York: Wiley (1991).
“livro” — 2007/8/1 — 15:06 — page 183 — #193
4
Teoria dos Grupos
O ju´ızo disciplinado sobre o que ´ e agrad´ avel, sim´ etrico e
elegante tem-se revelado repetidas vezes um excelente
guia sobre o modo como a natureza funciona.
MURRAY GELL-MANN
4.1 Introduc¸ ˜ ao ` a Teoria dos Grupos
Na mecˆ anica cl´ assica, a simetria de um sistema f´ısico leva ` as leis da conservac¸ ˜ ao. A conservac¸ ˜ ao do momento
angular ´ e uma conseq¨ uˆ encia direta da simetria rotacional, que significa invariˆ ancia sob rotac¸ ˜ oes espaciais. No
primeiro terc¸o do s´ eculo XX, Wigner e outros perceberam que a invariˆ ancia era um conceito fundamental para o
entendimento dos novos fenˆ omenos quˆ anticos e para o desenvolvimento de teorias adequadas. Assim, na mecˆ anica
quˆ antica o conceito de momento angular e spin tornou-se ainda mais essencial. Suas generalizac¸ ˜ oes, isospin na
f´ısica nuclear e simetria de sabor na f´ısica de part´ıculas, s˜ ao ferramentas indispens´ aveis para construir e resolver
teorias. Generalizac¸ ˜ oes do conceito de invariˆ ancia de calibre da eletrodinˆ amica cl´ assica para a simetria de isospin
resultaram na teoria de calibre eletrofraca.
Em cada caso, o conjunto dessas operac¸ ˜ oes de simetria forma um grupo. A teoria dos grupos ´ e a ferramenta
matem´ atica para tratar invariantes e simetrias. Ela traz unificac¸ ˜ ao e formalizac¸ ˜ ao de princ´ıpios, tais como reflex˜ oes
espaciais, ou paridade, momento angular e geometria, que s˜ ao muito usadas por f´ısicos.
O papel fundamental da teoria dos grupos em geometria foi reconhecido h´ a mais de um s´ eculo por matem´ aticos
(por ex., o Programa Erlanger de Felix Klein). Em geometria euclidiana, a distˆ ancia entre dois pontos, o produto
escalar de dois vetores ou m´ etrica n˜ ao s˜ ao alterados sob rotac¸ ˜ oes ou translac¸ ˜ oes. Essas simetrias s˜ ao caracter´ısticas
dessa geometria. Em relatividade especial, a m´ etrica, ou produto escalar de quatro vetores, difere da m´ etrica da
geometria euclidiana no sentido de que n˜ ao ´ e mais definida positiva e ´ e invariante sob transformac¸ ˜ oes de Lorentz.
Para um cristal, a simetria dos grupos cont´ em apenas um n´ umero finito de rotac¸ ˜ oes em valores discretos de
ˆ angulos ou reflex˜ oes. A teoria desses grupos discretos ou finitos, desenvolvida originalmente como um ramo
da matem´ atica pura, agora ´ e uma ferramenta ´ util para o desenvolvimento da cristalografia e da f´ısica da mat´ eria
condensada. Uma breve introduc¸ ˜ ao a essa ´ area aparece na Sec¸ ˜ ao 4.7. Quando as rotac¸ ˜ oes dependem de ˆ angulos
que variam continuamente (os ˆ angulos de Euler da Sec¸ ˜ ao 3.3), os grupos de rotac¸ ˜ ao tˆ em um n´ umero infinito de
elementos. Esses grupos cont´ınuos (ou grupos de Lie
1
) s˜ ao o t ´ opico das Sec¸ ˜ oes 4.2-4.6. Na Sec¸ ˜ ao 4.8 damos
uma introduc¸ ˜ ao a formas diferenciais, com aplicac¸ ˜ oes ` as equac¸ ˜ oes de Maxwell e t ´ opicos dos Cap´ıtulos 1 e 2, que
permite ver esses t´ opicos sob uma perspectiva diferente.
Definic¸ ˜ ao de um Grupo
Um grupo Gpode ser definido como um conjunto de objetos ou operac¸ ˜ oes, rotac¸ ˜ oes, transformac¸ ˜ oes, denominados
elementos de G, que podem ser combinados ou “multiplicados” para formar um produto bem definido em G,
denotado por um *, que satisfaz as seguintes quatro condic¸ ˜ oes:
1. Se a e b s˜ ao dois elementos quaisquer de G, ent˜ ao o produto a ∗ b tamb´ em ´ e um elemento de G, em que b age
antes de a; ou (a, b) para a ∗ b associa (ou mapeia) um elemento a ∗ b de G com o par (a, b) de elementos de G.
Essa propriedade ´ e conhecida como “G ´ e fechado sob multiplicac¸ ˜ ao de seus pr´ oprios elementos”.
2. Essa multiplicac¸ ˜ ao ´ e associativa: (a ∗ b) ∗ c = a ∗ (b ∗ c).
3. H´ a um elemento unit´ ario
2
em G, tal que 1 ∗ a = a ∗ 1 = a para todo elemento em G. O unit´ ario ´ e ´ unico:
1
O nome se deve ao matem´ atico norueguˆ es Sophus Lie.
2
Segundo E. Wigner, o elemento unit´ ario de um grupo costuma ser rotulado E, do alem˜ ao Einheit, isto ´ e, unidade, ou apenas 1, ou I para
identidade.
183
“livro” — 2007/8/1 — 15:06 — page 184 — #194
184 F´ısica Matem´ atica Arfken • Weber
1 = 1
t
∗ 1 = 1
t
.
4. H´ a um inverso, ou rec´ıproco, de cada elemento a de G, rotulado a
−1
, tal que a ∗ a
−1
= a
−1
∗ a = 1. O inverso
´ e ´ unico: se a
−1
e a
t−1
s˜ ao ambos inversos de a, ent˜ ao a
t−1
= a
t−1
∗ (a ∗ a
t−1
) = (a
t−1
∗ a) ∗ a
−1
= a
−1
.
Visto que usar * para representar multiplicac¸ ˜ ao ´ e mac¸ante, em geral esse sinal ´ e omitido e fica simplesmente
subentendido. De agora em diante, escreveremos ab em vez de a ∗ b .
• Se um subconjunto G
t
de G ´ e fechado sob multiplicac¸ ˜ ao, ele ´ e um grupo e ´ e denominado subgrupo de G; isto
´ e, G
t
´ e fechado sob a multiplicac¸ ˜ ao de G. O unit´ ario de G sempre forma um subgrupo de G.
• Se gg
t
g
−1
´ e um elemento de G
t
para qualquer g de G e g
t
de G
t
, ent˜ ao G
t
´ e denominado subgrupo invariante
de G. O subgrupo constitu´ıdo do unit´ ario ´ e invariante. Se os elementos do grupo forem matrizes quadradas,
ent˜ ao gg
t
g
−1
corresponde a uma transformac¸ ˜ ao de similaridade (veja a Equac¸ ˜ ao (3.100)).
• Se ab = ba para todos a, b de G, o grupo ´ e denominado abeliano, isto ´ e, a ordem n˜ ao importa nos produtos; a
multiplicac¸ ˜ ao comutativa costuma ser denotada por um sinal +. Exemplos s˜ ao espac¸os vetoriais cujo unit´ ario ´ e
o vetor zero e −a ´ e o inverso de a para todos os elementos a de G.
Exemplo 4.1.1 GRUPOS ORTOGONAIS E UNIT ´ ARIOS
Matrizes ortogonais nn formam o grupo O(n), e SO(n) se seus determinantes s˜ ao +1 (S quer dizer “especial”).
Se
˜
O
i
= O
−1
i
para i = 1 e 2 (veja a Sec¸ ˜ ao 3.3 para matrizes ortogonais) s˜ ao elementos de O(n), ent˜ ao o produto

O
1
O
2
=
˜
O
2
˜
O
1
= O
−1
2
O
−1
1
= (O
1
O
2
)
−1
tamb´ em ´ e uma matriz ortogonal emO(n), provando assim o fechamento sob multiplicac¸ ˜ ao (de matrizes). O inverso
´ e a matriz transposta (ortogonal). O unit´ ario do grupo ´ e a matriz unit´ aria n dimensional 1
n
. Uma matriz ortogonal
real n n tem n(n − 1)/2 parˆ ametros independentes. Para n = 2, h´ a somente um parˆ ametro: um ˆ angulo. Para
n = 3, h´ a trˆ es parˆ ametros independentes: os trˆ es ˆ angulos de Euler da Sec¸ ˜ ao 3.3.
Se
˜
O
i
= O
−1
i
(para i = 1 e 2) s˜ ao elementos de SO(n), ent˜ ao o fechamento ainda exige provar que seu produto
tem determinante +1, o que resulta do teorema do produto no Cap´ıtulo 3.
Do mesmo modo, matrizes unit´ arias n n formam o grupo U(n), e SU(n) se seus determinantes s˜ ao +1. Se
U

i
= U
−1
i
(veja a Sec¸ ˜ ao 3.4 para matrizes unit´ arias) s˜ ao elementos de U(n), ent˜ ao
(U
1
U
2
)

= U

2
U

1
= U
−1
2
U
−1
1
= (U
1
U
2
)
−1
,
portanto, o produto ´ e unit´ ario e um elemento de U(n), provando assim fechamento sob multiplicac¸ ˜ ao. Cada matriz
unit´ aria tem uma inversa (sua adjunta hermitiana) que, novamente, ´ e unit´ aria.
Se U

i
= U
−1
i
s˜ ao elementos de SU(n), ent˜ ao o fechamento requer que provemos que seu produto tamb´ em tem
determinante +1, o que resulta do teorema do produto no Cap´ıtulo 3.
• Grupos ortogonais s˜ ao denominados grupos de Lie; isto ´ e, eles dependem de parˆ ametros que variam
continuamente (os ˆ angulos de Euler e sua generalizac¸ ˜ ao para dimens˜ oes mais altas); eles s˜ ao compactos porque
os ˆ angulos variam em intervalos fechados finitos (que contˆ em o limite de qualquer seq¨ uˆ encia convergente de
ˆ angulos). Grupos unit´ arios tamb´ ems˜ ao compactos. Translac¸ ˜ oes formamumgrupo n˜ ao-compacto porque o limite
de translac¸ ˜ oes com distˆ ancia d →∞n˜ ao faz parte do grupo. O grupo de Lorentz tamb´ em n˜ ao ´ e compacto.
Homomorfismo, Isomorfismo
Pode haver uma correspondˆ encia entre os elementos de dois grupos: um para um, dois para um ou muitos para
um. Se essa correspondˆ encia preservar a multiplicac¸ ˜ ao do grupo, dizemos que os dois grupos s˜ ao homom´ orficos.
Uma correspondˆ encia homom´ orfica muito importante entre o grupo de rotac¸ ˜ ao SO(3) e o grupo unit´ ario SU(2) ´ e
desenvolvida na Sec¸ ˜ ao 4.2. Se a correspondˆ encia for um-para-um, ainda preservando a multiplicac¸ ˜ ao de grupos,
3
ent˜ ao os grupos s˜ ao isom´ orficos.
• Se um grupo G ´ e homom´ orfico a um grupo de matrizes G
t
, ent˜ ao G
t
´ e denominado representac¸ ˜ ao de G. Se G e
G
t
s˜ ao isom´ orficos, a representac¸ ˜ ao ´ e denominada fiel. H´ a muitas representac¸ ˜ oes de grupos; elas n˜ ao s˜ ao ´ unicas.
Exemplo 4.1.2 ROTAC¸ ˜ OES
Um outro exemplo instrutivo para um grupo ´ e o conjunto de rotac¸ ˜ oes de coordenadas em sentido anti-hor´ ario do
espac¸o euclidiano tridimensional ao redor de seu eixo z. Pelo Cap´ıtulo 3 sabemos que tal rotac¸ ˜ ao ´ e descrita por uma
3
Suponha que os elementos de um grupo sejam rotulados g
i
, os elementos de um segundo grupo, h
i
. Ent˜ ao g
i
↔h
i
´ e uma correspondˆ encia
um-para-um para todos os valores de i. Se g
i
g
j
= g
k
e h
i
h
j
= h
k
, ent˜ ao g
k
e h
k
devem ser os elementos correspondentes do grupo.
“livro” — 2007/8/1 — 15:06 — page 185 — #195
4. TEORIA DOS GRUPOS 185
transformac¸ ˜ ao linear das coordenadas envolvendo uma matriz 3 3 composta de trˆ es rotac¸ ˜ oes que dependem dos
ˆ angulos de Euler. Se o eixo z ´ e fixo, a transformac¸ ˜ ao linear ´ e atrav´ es de um ˆ angulo ϕ do sistema de coordenadas
xy para uma nova orientac¸ ˜ ao na Equac¸ ˜ ao (1.8), Figura 1.6, e Sec¸ ˜ ao 3.3:
_
_
x
t
y
t
z
t
_
_
= R
z
(ϕ)
_
_
x
y
z
_
_

_
_
cos ϕ sen ϕ 0
−sen ϕ cos ϕ 0
0 0 1
_
_
_
_
x
y
z
_
_
(4.1)
envolve s´ o um ˆ angulo da rotac¸ ˜ ao ao redor do eixo z. Como mostramos no Cap´ıtulo 3, a transformac¸ ˜ ao linear de duas
rotac¸ ˜ oes sucessivas envolve o produto das matrizes correspondentes ` a soma dos ˆ angulos. O produto corresponde a
duas rotac¸ ˜ oes, R
z

1
)R
z

2
), e ´ e definido pela rotac¸ ˜ ao emprimeiro lugar pelo ˆ angulo ϕ
2
e ent˜ ao por ϕ
1
. Conforme
a Equac¸ ˜ ao (3.29), isso corresponde ao produto das submatrizes ortogonais 2 2
_
cos ϕ
1
sen ϕ
1
−sen ϕ
1
cos ϕ
1
__
cos ϕ
2
sen ϕ
2
−sen ϕ
2
cos ϕ
2
_
=
_
cos(ϕ
1

2
) sen(ϕ
1

2
)
−sen(ϕ
1

2
) cos(ϕ
1

2
)
_
,
(4.2)
usando as f´ ormulas de adic¸ ˜ ao para as func¸ ˜ oes trigonom´ etricas. A unidade no canto inferior direito da matriz
na Equac¸ ˜ ao (4.1) tamb´ em ´ e reproduzida na multiplicac¸ ˜ ao. O produto ´ e claramente uma rotac¸ ˜ ao, representada
pela matriz ortogonal com ˆ angulo ϕ
1
+ ϕ
2
. A multiplicac¸ ˜ ao associativa de grupos corresponde ` a multiplicac¸ ˜ ao
associativa de matrizes.
´
E comutativa, ou abeliana, porque a ordem em que essas rotac¸ ˜ oes s˜ ao executadas n˜ ao
importa. Ainversa da rotac¸ ˜ ao com ˆ angulo ϕ ´ e a rotac¸ ˜ ao com o ˆ angulo −ϕ. Aunidade corresponde ao ˆ angulo ϕ = 0.
Eliminando os vetores de coordenadas na Equac¸ ˜ ao (4.1), podemos associar a matriz da transformac¸ ˜ ao linear com
cada rotac¸ ˜ ao, que ´ e uma multiplicac¸ ˜ ao de grupos que preserva o mapeamento um para um, um isomorfismo: as
matrizes formam uma representac¸ ˜ ao fiel do grupo de rotac¸ ˜ ao. A unidade no canto direito tamb´ em ´ e sup´ erflua,
assim como os vetores de coordenadas, e pode ser suprimida. Isso define um outro isomorfismo e representac¸ ˜ ao
pelas submatrizes 2 2:
R
z
(ϕ) =
_
_
_
cos ϕ sin ϕ 0
−sen ϕ cos ϕ 0
0 0 1
_
_
_ →R(ϕ) =
_
cos ϕ sen ϕ
−sen ϕ cos ϕ
_
. (4.3)
O nome do grupo ´ e SO(2), se o ˆ angulo ϕ variar continuamente de 0 para 2π; SO(2) tem infinitamente muitos
elementos e ´ e compacto.
O grupo de rotac¸ ˜ oes R
z
´ e obviamente isom´ orfico ao grupo de rotac¸ ˜ oes na Equac¸ ˜ ao (4.3). A unidade com ϕ = 0
e a rotac¸ ˜ ao comϕ = π formam um subgrupo finito. Os subgrupos finitos com ˆ angulos 2πm/n, sendo n um inteiro,
m = 0, 1, . . . , n −1 s˜ ao c´ıclicos; isto ´ e, as rotac¸ ˜ oes R(2πm/n) = R(2π/n)
m
.
Em seguida discutiremos somente os grupos de rotac¸ ˜ ao SO(n) e grupos unit´ arios SU(n) entre os cl´ assicos
grupos de Lie. (Mais exemplos de grupos finitos ser˜ ao dados na Sec¸ ˜ ao 4.7.)
Representac¸ ˜ oes —Redut´ıvel e Irredut´ıvel
A representac¸ ˜ ao de elementos de um grupo por matrizes ´ e uma t´ ecnica muito poderosa e tem sido adotada quase
universalmente pelos f´ısicos. A utilizac¸ ˜ ao de matrizes n˜ ao imp˜ oe nenhuma restric¸ ˜ ao significativa. Pode-se mostrar
que os elementos de qualquer grupo finito e dos grupos cont´ınuos das Sec¸ ˜ oes 4.2-4.4 podem ser representados por
matrizes. Exemplos s˜ ao as rotac¸ ˜ oes descritas na Equac¸ ˜ ao (4.3).
Para ilustrar como representac¸ ˜ oes matriciais surgem de uma simetria, considere a equac¸ ˜ ao estacion´ aria de
Schr¨ odinger – ou alguma outra equac¸ ˜ ao de autovalor, tal como Iv
i
= I
i
v
i
, para os principais momentos de in´ ercia
de um corpo r´ıgido na mecˆ anica cl´ assica, como por exemplo,
Hψ = Eψ. (4.4)
Vamos admitir que a hamiltoniana H permanec¸a invariante sob um grupo G de transformac¸ ˜ oes R em G (rotac¸ ˜ oes
de coordenadas, por exemplo, para um potencial central V (r) na hamiltoniana H); isto ´ e,
H
R
= RHR
−1
= H, RH = HR. (4.5)
“livro” — 2007/8/1 — 15:06 — page 186 — #196
186 F´ısica Matem´ atica Arfken • Weber
Agora considere uma soluc¸ ˜ ao ψ da Equac¸ ˜ ao (4.4) e a “rotacione”: ψ → Rψ. Ent˜ ao, Rψ tem a mesma energia E
porque, multiplicando a Equac¸ ˜ ao (4.4), por R e usando a Equac¸ ˜ ao (4.5), temos como resultado
RHψ = E(Rψ) =
_
RHR
−1
_
Rψ = H(Rψ). (4.6)
Em outras palavras, todas as soluc¸ ˜ oes rotacionadas Rψ s˜ ao degeneradas em energia ou formam o que os f´ısicos
denominam multipleto. Por exemplo, os estados de spin-up (para cima) e spin-down (para baixo) de um el´ etron
ligado no estado fundamental do hidrogˆ enio formam um dubleto, e os estados cujos n´ umeros quˆ anticos de projec¸ ˜ ao
s˜ ao m = −l, −l + 1, . . . , l do momento angular orbital l formam um multipleto com 2l + 1 estados de base.
Vamos admitir que esse espac¸o vetorial V
ψ
de soluc¸ ˜ oes transformadas tenha uma dimens˜ ao finita n. Sejam
ψ
1
, ψ
2
, . . . , ψ
n
uma base. Visto que Rψ
j
´ e um membro do multipleto, podemos expandi-lo em termos de suas
bases

j
=

k
r
jk
ψ
k
. (4.7)
Assim, a cada R em G podemos associar uma matriz (r
jk
). Exatamente como no Exemplo 4.1.2, duas rotac¸ ˜ oes
sucessivas correspondem ao produto de suas matrizes, portanto esse mapa R → (r
jk
) ´ e uma representac¸ ˜ ao de
G. Para que uma representac¸ ˜ ao seja irredut´ıvel, ´ e necess´ ario que possamos tomar qualquer elemento de V
ψ
e,
fazendo uma rotac¸ ˜ ao de todos os elementos R de G, transform´ a-lo em todos os outros elementos de V
ψ
. Se nem
todos os elementos de V
ψ
forem alcanc¸ados, ent˜ ao V
ψ
se subdivide em uma soma direta de dois ou mais subespac¸os
vetoriais, V
ψ
= V
1
⊕ V
2
⊕ , que s˜ ao mapeados sobre si mesmos, rotacionando seus elementos. Por exemplo,
o estado 2s e os estados 2p do n´ umero quˆ antico principal n = 2 do ´ atomo de hidrogˆ enio tˆ em a mesma energia
(isto ´ e, s˜ ao degenerados) e formam uma representac¸ ˜ ao redut´ıvel porque o estado 2s n˜ ao pode ser rotacionado para
estados 2p e vice-versa (o momento angular ´ e conservado sob rotac¸ ˜ oes). Nesse caso a representac¸ ˜ ao ´ e denominada
redut´ıvel. Ent˜ ao, podemos achar uma base em V
ψ
(isto ´ e, existe uma matriz unit´ aria U) de modo que
U(r
jk
)U

=
_
_
_
_
r
1
0
0 r
2

.
.
.
.
.
.
_
_
_
_
(4.8)
para todo R de G, e todas as matrizes (r
jk
) tˆ em forma de blocos diagonais similar. Aqui, r
1
, r
2
, . . . s˜ ao matrizes
de dimens˜ oes mais baixas do que (r
jk
) alinhadas ao longo da diagonal e os 0’s s˜ ao matrizes compostas de zeros.
Podemos dizer que a representac¸ ˜ ao foi decomposta em r
1
+r
2
+ junto com V
ψ
= V
1
⊕V
2
⊕ .
As representac¸ ˜ oes irredut´ıveis desempenham um papel na teoria dos grupos que ´ e aproximadamente an´ alogo
ao dos vetores unit´ arios da an´ alise vetorial. Elas s˜ ao as representac¸ ˜ oes mais simples; todas as outras podem ser
montadas a partir delas. (Veja a Sec¸ ˜ ao 4.4 sobre coeficientes de Clebsch-Gordan e tableaux de Young.)
Exerc´ıcios
4.1.1 Mostre que uma matriz ortogonal n n tem n(n −1)/2 parˆ ametros independentes.
Sugest˜ ao: A condic¸ ˜ ao de ortogonalidade, Equac¸ ˜ ao (3.71), provˆ e limitac¸ ˜ oes.
4.1.2 Mostre que uma matriz unit´ aria n n tem n
2
−1 parˆ ametros independentes.
Sugest˜ ao: Cada elemento pode ser complexo, dobrando o n´ umero de parˆ ametros poss´ıveis. Algumas
das equac¸ ˜ oes de restric¸ ˜ ao tamb´ em s˜ ao complexas e contam como duas restric¸ ˜ oes.
4.1.3 O grupo linear especial SL(2) consiste em todas as matrizes 2 2 (com elementos complexos) que
tˆ em um determinante +1. Mostre que essas matrizes formam um grupo.
Nota: O grupo SL(2) pode ser relacionado com o grupo completo de Lorentz na Sec¸ ˜ ao 4.4 por uma
relac¸ ˜ ao muito semelhante ` a existente entre o grupo SU(2) e o grupo SO(3).
4.1.4 Mostre que as rotac¸ ˜ oes ao redor do eixo z formam um subgrupo de SO(3). Este subgrupo ´ e
invariante?
4.1.5 Mostre que, se R, S, T s˜ ao elementos de um grupo G, de modo que RS = T e R → (r
ik
), S →
(s
ik
) ´ e uma representac¸ ˜ ao de acordo com a Equac¸ ˜ ao (4.7), ent˜ ao
(r
ik
)(s
ik
) =
_
t
ik
=

n
r
in
s
nk
_
,
isto ´ e, a multiplicac¸ ˜ ao de grupos traduz-se em multiplicac¸ ˜ ao de matrizes para qualquer
representac¸ ˜ ao de grupo.
“livro” — 2007/8/1 — 15:06 — page 187 — #197
4. TEORIA DOS GRUPOS 187
4.2 Geradores de Grupos Cont´ınuos
Uma propriedade caracter´ıstica de grupos cont´ınuos, conhecidos como grupos de Lie, ´ e que os parˆ ametros de
um elemento de produto s˜ ao func¸ ˜ oes anal´ıticas
4
dos parˆ ametros dos fatores. A natureza anal´ıtica das func¸ ˜ oes
(diferenciabilidade) nos permite desenvolver o conceito de gerador e reduzir o estudo do grupo inteiro a um estudo
dos elementos do grupo na vizinhanc¸a do elemento de identidade.
A id´ eia essencial de Lie era estudar elementos R em um grupo G que fossem infinitesimalmente pr´ oximos ` a
unidade de G. Vamos considerar o grupo SO(2) umexemplo simples. As matrizes de rotac¸ ˜ ao 22 na Equac¸ ˜ ao (4.2)
podem ser escritas em forma exponencial usando a identidade de Euler, Equac¸ ˜ ao (3.170a), como
R(ϕ) =
_
cos ϕ sen ϕ
−sen ϕ cos ϕ
_
= 1
2
cos ϕ +iσ
2
sen ϕ = exp(iσ
2
ϕ). (4.9)
Pela forma exponencial ´ e ´ obvio que a multiplicac¸ ˜ ao dessas matrizes ´ e equivalente ` a adic¸ ˜ ao dos argumentos
R(ϕ
2
)R(ϕ
1
) = exp(iσ
2
ϕ
2
) exp(iσ
2
ϕ
1
) = exp
_

2

1

2
)
_
= R(ϕ
1

2
).
Rotac¸ ˜ oes pr´ oximas a 1 tˆ em ˆ angulo pequeno ϕ ≈ 0.
Isso sugere que procuremos uma representac¸ ˜ ao exponencial
R = exp(iεS) = 1 +iεS +O
_
ε
2
_
, ε →0, (4.10)
para elementos do grupo R em G pr´ oximos da unidade 1. As transformac¸ ˜ oes infinitesimais s˜ ao εS, e os S s˜ ao
denominados geradores de G. Eles formam um espac¸o linear porque a multiplicac¸ ˜ ao dos elementos do grupo R se
traduz na adic¸ ˜ ao de geradores S. A dimens˜ ao desse espac¸o vetorial (sobre os n´ umeros complexos) ´ e a ordem de
G, isto ´ e, o n´ umero de geradores linearmente independentes do grupo.
Se R ´ e uma rotac¸ ˜ ao, ela n˜ ao altera o elemento de volume do espac¸o coordenado que ela rotaciona, isto ´ e,
det(R) = 1, e podemos usar a Equac¸ ˜ ao (3.171) para ver que
det(R) = exp
_
trac¸o (ln R)
_
= exp
_
iεtrac¸o (S)
_
= 1
indica que εtrac¸o (S) = 0 e, dividindo pelo parˆ ametro pequeno, por´ em n˜ ao-zero, ε, que geradores tˆ em trac¸os
nulos.
trac¸o (S) = 0. (4.11)
Esse ´ e o caso n˜ ao somente dos grupos de rotac¸ ˜ ao SO(n) mas tamb´ em dos grupos unit´ arios SU(n).
Se R de G na Equac¸ ˜ ao (4.10) ´ e unit´ ario, ent˜ ao S

= S ´ e hermitiano, o que tamb´ em ´ e o caso de SO(n) e SU(n).
Isso explica por que o i extra foi inserido na Equac¸ ˜ ao (4.10).
A seguir, vamos desmembrar a unidade em quatro etapas, de maneira semelhante ao transporte paralelo na
geometria diferencial. Expandimos os elementos do grupo
R
i
= exp(iε
i
S
i
) = 1 +iε
i
S
i

1
2
ε
2
i
S
2
i
+ ,
R
−1
i
= exp(−iε
i
S
i
) = 1 −iε
i
S
i

1
2
ε
2
i
S
2
i
+ ,
(4.12)
at´ e a segunda ordem no parˆ ametro de grupo pequeno ε
i
porque os termos lineares e diversos termos quadr´ aticos
s˜ ao cancelados no produto (Figura 4.1)
R
−1
i
R
−1
j
R
i
R
j
= 1 +ε
i
ε
j
[S
j
, S
i
] + ,
= 1 +ε
i
ε
j

k
c
k
ji
S
k
+ , (4.13)
quando a Equac¸ ˜ ao (4.12) ´ e substitu´ıda na Equac¸ ˜ ao (4.13). A ´ ultima linha ´ e v´ alida porque o produto na
Equac¸ ˜ ao (4.13) ´ e, novamente, um elemento de grupo, R
ij
, pr´ oximo ` a unidade no grupo G. Por conseguinte,
seu expoente deve ser uma combinac¸ ˜ ao linear dos geradores S
k
, e seu parˆ ametro infinitesimal de grupo tem de
ser proporcional ao produto ε
i
ε
j
. Comparando ambas as linhas na Equac¸ ˜ ao (4.13), encontramos a relac¸ ˜ ao de
fechamento dos geradores do grupo de Lie, G,
[S
i
, S
j
] =

k
c
k
ij
S
k
. (4.14)
4
Aqui, anal´ıtica significa ter derivadas de todas as ordens.
“livro” — 2007/8/1 — 15:06 — page 188 — #198
188 F´ısica Matem´ atica Arfken • Weber
Figura 4.1: Ilustrac¸ ˜ ao da Equac¸ ˜ ao (4.13).
Os coeficientes c
k
ij
s˜ ao as constantes estruturais do grupo G. Uma vez que o comutador na Equac¸ ˜ ao (4.14) ´ e
anti-sim´ etrico em i e j, o mesmo acontece com as constantes estruturais nos ´ındices inferiores,
c
k
ij
= −c
k
ji
. (4.15)
Se o comutador na Equac¸ ˜ ao (4.14) for tomado como uma lei de multiplicac¸ ˜ ao de geradores, vemos que o espac¸o
vetorial de geradores se torna uma ´ algebra, a ´ algebra de Lie ( do grupo G. Uma ´ algebra tem duas estruturas de
grupo, um produto comutativo denotado por um s´ımbolo + (essa ´ e a adic¸ ˜ ao de geradores infinitesimais de um
grupo de Lie) e uma multiplicac¸ ˜ ao (o comutador de geradores). Muitas vezes, uma ´ algebra ´ e um espac¸o vetorial
com uma multiplicac¸ ˜ ao, tal como um anel de matrizes quadradas. Para SU(l + 1), a ´ algebra de Lie ´ e denominada
/
l
, para SO(2l +1) ´ e B
l
, e para SO(2l) ´ e T
l
, em que l = 1, 2, . . . ´ e um inteiro positivo, denominado mais adiante
grau do grupo de Lie G ou de sua ´ algebra (.
Por fim, a identidade de Jacobi vale para todos os comutadores duplos
_
[S
i
, S
j
], S
k
¸
+
_
[S
j
, S
k
], S
i
¸
+
_
[S
k
, S
i
], S
j
¸
= 0, (4.16)
o que ´ e verificado com facilidade usando a definic¸ ˜ ao de qualquer comutador [A, B] ≡ AB − BA. Quando a
Equac¸ ˜ ao (4.14) ´ e substitu´ıda na Equac¸ ˜ ao (4.16) encontramos uma outra restric¸ ˜ ao ` as constantes estruturais,

m
_
c
m
ij
[S
m
, S
k
] +c
m
jk
[S
m
, S
i
] +c
m
ki
[S
m
, S
j
]
_
= 0. (4.17)
Inserindo novamente a Equac¸ ˜ ao (4.14), a Equac¸ ˜ ao (4.17) implica

mn
_
c
m
ij
c
n
mk
S
n
+c
m
jk
c
n
mi
S
n
+c
m
ki
c
n
mj
S
n
_
= 0, (4.18)
em que o fator comum S
n
(e o somat´ orio sobre n) pode ser descartado porque os geradores s˜ ao linearmente
independentes. Da´ı,

m
_
c
m
ij
c
n
mk
+c
m
jk
c
n
mi
+c
m
ki
c
n
mj
_
= 0. (4.19)
As relac¸ ˜ oes (4.14), (4.15) e (4.19) formam a base das ´ algebras de Lie pelas quais elementos finitos do grupo de Lie
pr´ oximos ` a sua unidade podem ser reconstru´ıdos.
Voltando ` a Equac¸ ˜ ao (4.5), a inversa de R ´ e R
−1
= exp(−iεS). Expandimos H
R
de acordo com a f´ ormula de
Baker-Hausdorff, Equac¸ ˜ ao (3.172),
H = H
R
= exp(iεS)H exp(−iεS) = H +iε[S, H] −
1
2
ε
2
_
S[S, H]
¸
+ (4.20)
Descartamos H da Equac¸ ˜ ao (4.20), dividimos pelo ε, pequeno (por´ em n˜ ao-zero), e deixamos que ε → 0. Ent˜ ao a
Equac¸ ˜ ao (4.20) indica que o comutador
[S, H] = 0. (4.21)
Se S e H s˜ ao matrizes hermitianas, a Equac¸ ˜ ao (4.21) implica que S e H podem ser diagonalizadas simultaneamente
e tˆ em autovetores comuns (para matrizes, veja a Sec¸ ˜ ao 3.5; para operadores, veja o lema de Schur na Sec¸ ˜ ao 4.3).
Se S e H s˜ ao operadores diferenciais como a hamiltoniana e o momento angular orbital na mecˆ anica quˆ antica,
“livro” — 2007/8/1 — 15:06 — page 189 — #199
4. TEORIA DOS GRUPOS 189
ent˜ ao a Equac¸ ˜ ao (4.21) indica que S e H tˆ em autofunc¸ ˜ oes comuns e que os autovalores degenerados de H podem
ser distinguidos pelos autovalores dos geradores S. Essas autofunc¸ ˜ oes e autovalores, s, s˜ ao soluc¸ ˜ oes de equac¸ ˜ oes
diferenciais separadas, Sψ
s
= sψ
s
, portanto a teoria dos grupos (isto ´ e, as simetrias) leva ` a separac¸ ˜ ao de vari´ aveis
para uma equac¸ ˜ ao diferencial parcial que ´ e invariante sob as transformac¸ ˜ oes do grupo.
Por exemplo, vamos tomar a hamiltoniana de uma ´ unica part´ıcula,
H = −

2
2m
1
r
2

∂r
r
2

∂r
+

2
2mr
2
L
2
+V (r) ,
que ´ e invariante sob SO(3) e, portanto, uma func¸ ˜ ao da distˆ ancia radial r, do gradiente radial e do operador
rotacionalmente invariante L
2
de SO(3). Substituindo o operador de momento angular orbital L
2
por seu autovalor
l(l + 1), obtemos a equac¸ ˜ ao radial de Schr¨ odinger (ODE – equac¸ ˜ ao diferencial ordin´ aria),
HR
l
(r) =
_


2
2m
1
r
2
d
dr
r
2
d
dr
+

2
l(l + 1)
2mr
2
+V (r)
_
R
l
(r) = E
l
R
l
(r),
em que R
l
(r) ´ e a func¸ ˜ ao de onda radial.
Para simetria cil´ındrica, a invariˆ ancia de H sob rotac¸ ˜ oes ao redor do eixo z exigiria que H fosse independente
do ˆ angulo de rotac¸ ˜ ao ϕ, o que leva ` a ODE
HR
m
(z, ρ) = E
m
R
m
(z, ρ),
sendo m o autovalor de L
z
= −i∂/∂ϕ, o componente z do operador do momento angular orbital. Se quiser
examinar mais exemplos, veja o m´ etodo de separac¸ ˜ ao de vari´ aveis para equac¸ ˜ oes diferenciais parciais na Sec¸ ˜ ao 9.3
e func¸ ˜ oes especiais no Cap´ıtulo 12. Esta ´ e, de longe, a mais importante aplicac¸ ˜ ao da teoria de grupo na mecˆ anica
quˆ antica.
Nas subsec¸ ˜ oes seguintes estudaremos exemplos de grupos ortogonais e unit´ arios para entender melhor os
conceitos gerais desta sec¸ ˜ ao.
Grupos de Rotac¸ ˜ ao SO(2) e SO(3)
Para SO(2) como definido pela Equac¸ ˜ ao (4.3) h´ a somente um gerador linearmente independente, σ
2
, e a ordem de
SO(2) ´ e 1. Obtemos σ
2
pela Equac¸ ˜ ao (4.9) por diferenciac¸ ˜ ao na unidade de SO(2), isto ´ e, ϕ = 0,
−idR(ϕ)/dϕ[
ϕ=0
= −i
_
−sen ϕ cos ϕ
−cos ϕ −sen ϕ
_
¸
¸
¸
¸
ϕ=0
= −i
_
0 1
−1 0
_
= σ
2
. (4.22)
Para as rotac¸ ˜ oes R
z
(ϕ) ao redor do eixo z descritas pela Equac¸ ˜ ao (4.1), o gerador ´ e dado por
−idR
z
(ϕ)/dϕ[
ϕ=0
= S
z
=
_
_
_
0 −i 0
i 0 0
0 0 0
_
_
_, (4.23)
em que o fator i ´ e inserido para fazer de S
z
um hermitiano. Ent˜ ao, a rotac¸ ˜ ao R
z
(δϕ) atrav´ es de um ˆ angulo
infinitesimal δϕ pode ser expandida at´ e a primeira ordem em δϕ pequeno como
R
z
(δϕ) = 1
3
+iδϕS
z
. (4.24)
Uma rotac¸ ˜ ao finita R(ϕ) pode ser composta de rotac¸ ˜ oes infinitesimais sucessivas
R
z
(δϕ
1
+δϕ
2
) = (1 +iδϕ
1
S
z
)(1 +iδϕ
2
S
z
). (4.25)
Seja δϕ = ϕ/N para N rotac¸ ˜ oes com N →∞. Ent˜ ao,
R
z
(ϕ) = lim
N→∞
_
1 + (iϕ/N)S
z
¸
N
= exp(iϕS
z
). (4.26)
Esta forma identifica S
z
como o gerador do grupo R
z
, um subgrupo abeliano de SO(3), o grupo de rotac¸ ˜ oes em
trˆ es dimens˜ oes com determinante +1. Cada matriz 3 3 R
z
(ϕ) ´ e ortogonal e, portanto, unit´ aria, e trac¸o(S
z
) = 0,
de acordo com a Equac¸ ˜ ao (4.11).
“livro” — 2007/8/1 — 15:06 — page 190 — #200
190 F´ısica Matem´ atica Arfken • Weber
Por diferenciac¸ ˜ ao das rotac¸ ˜ oes de coordenadas
R
x
(ψ) =
_
_
_
_
_
1 0 0
0 cos ψ
mboxsen ψ
0 −sen ψ cos ψ
_
_
_
_
_
, R
y
(θ) =
_
_
_
cos θ 0 −sen θ
0 1 0
sen θ 0 cos θ
_
_
_, (4.27)
obtemos os geradores
S
x
=
_
_
_
0 0 0
0 0 −i
0 i 0
_
_
_, S
y
=
_
_
_
0 0 i
0 0 0
−i 0 0
_
_
_ (4.28)
de R
x
(R
y
), o subgrupo de rotac¸ ˜ oes ao redor dos eixos.
Rotac¸ ˜ ao de Func¸ ˜ oes e Momento Angular Orbital
Na discuss˜ ao precedente, os elementos de grupo s˜ ao matrizes que rotacionam as coordenadas. Qualquer sistema
f´ısico que esteja sendo descrito ´ e mantido fixo. Agora vamos manter as coordenadas fixas e rotacionar uma func¸ ˜ ao
ψ(x, y, z) relativa ` as nossas coordenadas fixas. Com R para rotacionar as coordenadas,
x
t
= Rx, (4.29)
definimos R sobre ψ por
Rψ(x, y, z) = ψ
t
(x, y, z) ≡ ψ(x
t
). (4.30)
Traduzindo em palavras, R opera sobre a func¸ ˜ ao ψ, criando uma nova func¸ ˜ ao ψ
t
que ´ e numericamente igual a
ψ(x
t
), em que x
t
s˜ ao as coordenadas rotacionadas por R. Se R rotaciona as coordenadas em sentido anti-hor´ ario, o
efeito de R ´ e rotacionar o padr˜ ao da func¸ ˜ ao ψ em sentido hor´ ario.
Voltando ` as Equac¸ ˜ oes (4.30) e (4.1), considere novamente uma rotac¸ ˜ ao infinitesimal, ϕ → δϕ. Ent˜ ao, usando
R
z
Equac¸ ˜ ao (4.1), obtemos
R
z
(δϕ)ψ(x, y, z) = ψ(x +yδϕ, y −xδϕ, z). (4.31)
O lado direito pode ser expandido em primeira ordem no δϕ pequeno para resultar
R
z
(δϕ)ψ(x, y, z) = ψ(x, y, z) −δϕ¦x∂ψ/∂y −y∂ψ/∂x¦ +O(δϕ)
2
= (1 −iδϕL
z
)ψ(x, y, z), (4.32)
sendo que a express˜ ao diferencial entre chaves ´ e o momento angular orbital angular iL
z
(Exerc´ıcio 1.8.7). Visto
que uma rotac¸ ˜ ao ao redor do eixo z primeiro de ϕ e em seguida de δϕ ´ e dada por
R
z
(ϕ +δϕ)ψ = R
z
(δϕ)R
z
(ϕ)ψ = (1 −iδϕL
z
)R
z
(ϕ)ψ, (4.33)
temos (como uma equac¸ ˜ ao de operador)
dR
z

= lim
δϕ→0
R
z
(ϕ +δϕ) −R
z
(ϕ)
δϕ
= −iL
z
R
z
(ϕ). (4.34)
Nesta forma, a Equac¸ ˜ ao (4.34) ´ e integrada de imediato para
R
z
(ϕ) = exp(−iϕL
z
). (4.35)
Note que R
z
(ϕ) rotaciona func¸ ˜ oes (em sentido hor´ ario) relativas a coordenadas fixas e que L
z
´ e a componente z
do momento angular orbital L. A constante de integrac¸ ˜ ao ´ e fixada pela condic¸ ˜ ao de fronteira R
z
(0) = 1.
Como sugerido pela Equac¸ ˜ ao (4.32), L
z
relaciona-se a S
z
por
L
z
= (x, y, z)S
z
_
_
_
∂/∂x
∂/∂y
∂/∂z
_
_
_ = −i
_
x

∂y
−y

∂x
_
, (4.36)
portanto, L
x
, L
y
e L
z
satisfazem as mesmas relac¸ ˜ oes de comutac¸ ˜ ao,
[L
i
, L
j
] = iε
ijk
L
k
, (4.37)
que S
x
, S
y
e S
z
e d˜ ao como resultado as mesmas constantes estruturais iε
ijk
de SO(3).
“livro” — 2007/8/1 — 15:06 — page 191 — #201
4. TEORIA DOS GRUPOS 191
Homomorfismo SU(2) —SO(3)
Uma vez que matrizes unit´ arias 2 2 transformam vetores bidimensionais complexos preservando a norma desses
vetores, elas representam as transformac¸ ˜ oes mais gerais (uma base em espac¸o de Hilbert) de func¸ ˜ oes de onda de
spin
1
2
em mecˆ anica quˆ antica n˜ ao-relativista. Por convenc¸ ˜ ao, os estados de base desse sistema s˜ ao escolhidos como
[↑) =
_
1
0
_
, [↓) =
_
0
1
_
,
correspondendo a estados de spin
1
2
dirigidos para cima (up) e para baixo (down), respectivamente. Podemos
mostrar que o grupo unit´ ario especial SU(2) de matrizes unit´ arias 2 2 com determinante +1 tem como
geradores todas as trˆ es matrizes σ
i
de Pauli (enquanto as rotac¸ ˜ oes da Equac¸ ˜ ao (4.3) formam um subgrupo abeliano
unidimensional). Portanto, SU(2) ´ e de ordem 3 e depende de trˆ es parˆ ametros cont´ınuos reais ξ, η, ζ, que costumam
ser denominados parˆ ametros de Cayley-Klein. Para construir seu elemento geral, comec¸amos com a observac¸ ˜ ao
de que aquelas matrizes 2 2 ortogonais s˜ ao matrizes unit´ arias reais, portanto formam um subgrupo de SU(2).
Tamb´ em vemos que
_
e

0
0 e
−iα
_
´ e unit´ aria para um ˆ angulo real α com determinante +1. Portanto, essas matrizes simples e evidentemente unit´ arias
formam um outro subgrupo de SU(2) do qual podemos obter todos os elementos de SU(2), isto ´ e, a matriz 2 2
unit´ aria geral de determinante +1. Para uma func¸ ˜ ao de onda de spin
1
2
de dois componentes da mecˆ anica quˆ antica,
essa matriz unit´ aria diagonal corresponde ` a multiplicac¸ ˜ ao da func¸ ˜ ao de onda com spin para cima por um vetor de
fase e

e da componente com spin para baixo pelo fator de fase inverso. Usando o ˆ angulo real η em vez de ϕ para
a matriz de rotac¸ ˜ ao e ent˜ ao multiplicando pelas matrizes unit´ arias diagonais, constru´ımos uma matriz unit´ aria 22
que depende de trˆ es parˆ ametros e ´ e, claramente, um elemento mais geral de SU(2):
_
e

0
0 e
−iα
__
cos η sen η
−sen η cos η
__
e

0
0 e
−iβ
_
=
_
e

cos η e

sen η
−e
−iα
sen η e
−iα
cos η
__
e

0
0 e
−iβ
_
=
_
e
i(α+β)
cos η e
i(α−β)
sen η
−e
−i(α−β)
sen η e
−i(α+β)
cos η
_
.
Definindo α +β ≡ ξ, α −β ≡ ζ, na verdade constru´ımos o elemento geral def SU(2):
U(ξ, η, ζ) =
_
e

cos η e

sen η
−e
−iζ
sen η e
−iξ
cos η
_
=
_
a b
−b

a

_
. (4.38)
Para ver isso, escrevemos o elemento geral SU(2) como U =
_
a b
c d
_
com n´ umeros complexos a, b, c, d, de modo
que det(U) = 1. Escrevendo unitariedade, U

= U
−1
, e usando a Equac¸ ˜ ao (3.50) para a inversa, obtemos
_
a

c

b

d

_
=
_
d −b
−c a
_
,
indicando que c = −b

, d = a

, como mostra a Equac¸ ˜ ao (4.38).
´
E f´ acil verificar que o determinante det(U) = 1 e
que U

U = 1 = UU

s˜ ao v´ alidos.
Para obter os geradores, diferenciamos (e desprezamos fatores gerais irrelevantes):
−i∂U/∂ξ
]ξ=0,η=0
=
_
1 0
0 −1
_
= σ
3
, (4.39a)
−i∂U/∂η
]η=0,ζ=0
=
_
0 −i
i 0
_
= σ
2
. (4.39b)
“livro” — 2007/8/1 — 15:06 — page 192 — #202
192 F´ısica Matem´ atica Arfken • Weber
Para evitar um fator 1/sen η para η → 0 na diferenciac¸ ˜ ao com relac¸ ˜ ao a ζ, desta vez usamos o lado direito
da Equac¸ ˜ ao (4.38) para U para imagin´ arios puros b = iβ com β → 0, de modo que a =
_
1 −β
2
de
[a[
2
+[b[
2
= a
2

2
= 1. Diferenciando tal U, obtemos o terceiro gerador,
−i

∂β
_ _
1 −β
2


_
1 −β
2

¸
¸
¸
¸
β=0
= −i
_
_

β

1−β
2
i
−i
β

1−β
2
_
_
¸
¸
¸
¸
¸
β=0
=
_
0 1
1 0
_
= σ
1
. (4.39c)
As matrizes de Pauli s˜ ao todas de trac¸o nulo e hermitianas.
Tendo as matrizes de Pauli como geradores, os elementos U
1
, U
2
, U
3
de SU(2) podem ser gerados por
U
1
= exp(ia
1
σ
1
/2), U
2
= exp(ia
2
σ
2
/2), U
3
= exp(ia
3
σ
3
/2). (4.40)
Os trˆ es parˆ ametros a
i
s˜ ao reais. O fator extra 1/2 est´ a presente nos expoentes para fazer com que S
i
= σ
i
/2
satisfac¸a as mesmas relac¸ ˜ oes de comutac¸ ˜ ao,
[S
i
, S
j
] = iε
ijk
S
k
, (4.41)
que o momento angular na Equac¸ ˜ ao (4.37).
Para relacionar e comparar nossos resultados, a Equac¸ ˜ ao (4.3) d´ a um operador de rotac¸ ˜ ao para rotacionar as
coordenadas cartesianas no espac¸o tridimensional R
3
. Usando a matriz do momento angular S
3
, temos como
o operador de rotac¸ ˜ ao correspondente em um espac¸o bidimensional (complexo) R
z
(ϕ) = exp(iϕσ
3
/2). Para
rotacionar a func¸ ˜ ao vetorial de onda de duas componentes (spinor) ou uma part´ıcula de spin 1/2 em relac¸ ˜ ao
a coordenadas fixas, o operador de rotac¸ ˜ ao correspondente ´ e R
z
(ϕ) = exp(−iϕσ
3
/2), de acordo com a
Equac¸ ˜ ao (4.35).
De modo mais geral, usando a identidade de Euler, Equac¸ ˜ ao (3.170a), na Equac¸ ˜ ao (4.40) obtemos
U
j
= cos
_
a
j
2
_
+iσ
j
sin
_
a
j
2
_
. (4.42)
Aqui, o parˆ ametro a
j
aparece como um ˆ angulo, o coeficiente de um momento angular ϕ parecido com uma
matriz na Equac¸ ˜ ao (4.26). A selec¸ ˜ ao de matrizes de Pauli corresponde ` as rotac¸ ˜ oes do ˆ angulo de Euler descritas
na Sec¸ ˜ ao 3.3.
Como acabamos de ver, os elementos de SU(2) descrevem rotac¸ ˜ oes em um espac¸o bidimensional complexo
que deixam [z
1
[
2
+ [z
2
[
2
invariante. O determinante ´ e +1. H´ a trˆ es parˆ ametros reais independentes. Nosso grupo
ortogonal real SO(3) claramente descreve rotac¸ ˜ oes em um espac¸o tridimensional ordin´ ario com a importante
caracter´ıstica de deixar x
2
+ y
2
+ z
2
invariante. E tamb´ em h´ a trˆ es parˆ ametros reais independentes. As
interpretac¸ ˜ oes da rotac¸ ˜ ao e a igualdade de n´ umeros de parˆ ametros sugerem a existˆ encia de alguma correspondˆ encia
entre os grupos SU(2) e SO(3). Desenvolvemos aqui esta correspondˆ encia.
A operac¸ ˜ ao de SU(2) sobre uma matriz ´ e dada por uma transformac¸ ˜ ao unit´ aria, Equac¸ ˜ ao (4.5), com R = U e
Figura 4.2:
Figura 4.2: Ilustrac¸ ˜ ao de M
t
= UMU

na Equac¸ ˜ ao (4.43).
M
t
= UMU

. (4.43)
“livro” — 2007/8/1 — 15:06 — page 193 — #203
4. TEORIA DOS GRUPOS 193
Tomando M como uma matriz 2 2, notamos que qualquer matriz 2 2 pode ser escrita como uma combinac¸ ˜ ao
linear da matriz unidade com as trˆ es matrizes de Pauli da Sec¸ ˜ ao 3.4. Seja Ma matriz de trac¸o zero,
M = xσ
1
+yσ
2
+zσ
3
=
_
z x −iy
x +iy −z
_
, (4.44)
sendo que a matriz unidade n˜ ao entra. Uma vez que o trac¸o ´ e invariante sob uma transformac¸ ˜ ao de similaridade
unit´ aria (Exerc´ıcio 3.3.9), M
t
deve ter a mesma forma,
M
t
= x
t
σ
1
+y
t
σ
2
+z
t
σ
3
=
_
z
t
x
t
−iy
t
x
t
+iy
t
−z
t
_
. (4.45)
O determinante tamb´ em ´ e invariante sob uma transformac¸ ˜ ao unit´ aria (Exerc´ıcio 3.3.10). Por conseguinte,

_
x
2
+y
2
+z
2
_
= −
_
x
t 2
+y
t 2
+z
t 2
_
, (4.46)
ou x
2
+ y
2
+ z
2
´ e invariante sob essa operac¸ ˜ ao de SU(2), exatamente como acontece com SO(3). Operac¸ ˜ oes de
SU(2) sobre Mdevem produzir rotac¸ ˜ oes das coordenadas x, y, z que ali aparecem. Isso sugere que SU(2) e SO(3)
podem ser isom´ orficos ou, ao menos, homom´ orficos.
A que corresponde essa operac¸ ˜ ao de SU(2) ´ e o problema que abordaremos agora, considerando casos especiais.
Voltando ` a Equac¸ ˜ ao (4.38), seja a = e

e b = 0 ou
U
3
=
_
e

0
0 e
−iξ
_
. (4.47)
Adiantando-nos ` a Equac¸ ˜ ao (4.51), damos um ´ındice inferior 3 a essa U.
Executando uma transformac¸ ˜ ao de similaridade unit´ aria, Equac¸ ˜ ao (4.43), em cada uma das trˆ es σ de Pauli de
SU(2), temos
U
3
σ
1
U

3
=
_
e

0
0 e
−iξ
__
0 1
1 0
__
e
−iξ
0
0 e

_
=
_
0 e
2iξ
e
−2iξ
0
_
. (4.48)
Expressamos esse resultado em termos das σ
i
de Pauli, como na Equac¸ ˜ ao (4.44), para obter
U
3

1
U

3
= xσ
1
cos 2ξ −xσ
2
sen2ξ. (4.49)
De modo semelhante,
U
3

2
U

3
= yσ
1
sen2ξ +yσ
2
cos 2ξ,
U
3

3
U

3
= zσ
3
. (4.50)
Por essas express˜ oes de ˆ angulos duplos, vemos que temos de comec¸ar com um meio-ˆ angulo: ξ = α/2. Ent˜ ao,
somando as Equac¸ ˜ oes (4.49) e (4.50) e comparando com as Equac¸ ˜ oes (4.44) e (4.45), obtemos
x
t
= xcos α +ysen α
y
t
= −xsen α +y cos α (4.51)
z
t
= z.
A transformac¸ ˜ ao unit´ aria 2 2 usando U
3
(α) ´ e equivalente ao operador de rotac¸ ˜ ao R(α) da Equac¸ ˜ ao (4.3).
A correspondˆ encia de
U
2
(β) =
_
cos β/2 sen β/2
−sen β/2 cos β/2
_
(4.52)
e R
y
(β) e de
U
1
(ϕ) =
_
cos ϕ/2 isen ϕ/2
isen ϕ/2 cos ϕ/2
_
(4.53)
“livro” — 2007/8/1 — 15:06 — page 194 — #204
194 F´ısica Matem´ atica Arfken • Weber
e R
1
(ϕ) resultam de maneira semelhante. Note que U
k
(ψ) tem a forma geral
U
k
(ψ) = 1
2
cos ψ/2 +iσ
k
sen ψ/2, (4.54)
em que k = 1, 2, 3.
A correspondˆ encia
U
3
(α) =
_
e
iα/2
0
0 e
−iα/2
_

_
_
_
cos α sen α 0
−sen α cos α 0
0 0 1
_
_
_ = R
z
(α) (4.55)
n˜ ao ´ e uma simples correspondˆ encia um para um. Especificamente, assim como α emR
z
vai de 0 a 2π, o parˆ ametro
em U
3
, α/2, vai de 0 a π. Achamos
R
z
(α + 2π) = R
z
(α)
U
3
(α + 2π) =
_
−e
iα/2
0
0 −e
−iα/2
_
= −U
3
(α). (4.56)
Portanto, ambas, U
3
(α) e U
3
(α + 2π) = −U
3
(α), correspondem a R
z
(α). A correspondˆ encia ´ e 2 para 1 ou
SU(2) e SO(3) s˜ ao homom´ orficos. O estabelecimento da correspondˆ encia entre as representac¸ ˜ oes de SU(2) e as
de SO(3) significa que as representac¸ ˜ oes conhecidas de SU(2) nos d˜ ao, automaticamente, as representac¸ ˜ oes de
SO(3).
Combinando as v´ arias rotac¸ ˜ oes, constatamos que uma transformac¸ ˜ ao unit´ aria usando
U(α, β, γ) = U
3
(γ)U
2
(β)U
3
(α) (4.57)
corresponde ` a rotac¸ ˜ ao geral de Euler R
z
(γ)R
y
(β)R
z
(α). Por multiplicac¸ ˜ ao direta,
U(α, β, γ) =
_
e
iγ/2
0
0 e
−iγ/2
__
cos β/2 sen β/2
−sen β/2 cos β/2
__
e
iα/2
0
0 e
−iα/2
_
=
_
e
i(γ+α)/2
cos β/2 e
i(γ−α)/2
sen β/2
−e
−i(γ−α)/2
sen β/2 e
−i(γ+α)/2
cos β/2
_
. (4.58)
Esta ´ e nossa forma geral alternativa, Equac¸ ˜ ao (4.38), com
ξ = (γ +α)/2, η = β/2, ζ = (γ −α)/2. (4.59)
Assim, pela Equac¸ ˜ ao (4.58) podemos identificar os parˆ ametros da Equac¸ ˜ ao (4.38) como
a = e
i(γ+α)/2
cos β/2
b = e
i(γ−α)/2
sen β/2. (4.60)
Isospin SU(2) e Simetria de Sabor SU(3)
A aplicac¸ ˜ ao da teoria de grupos ` as part´ıculas “elementares” foi denominada por Wigner como o terceiro est´ agio de
teoria de grupos e f´ısica. O primeiro est´ agio foi a procura dos 32 grupos pontuais cristalogr´ aficos e dos 230 grupos
espaciais que d˜ ao as simetrias cristalinas, Sec¸ ˜ ao 4.7. O segundo est´ agio foi uma procura por representac¸ ˜ oes como
as de SO(3) e SU(2), Sec¸ ˜ ao 4.2. Agora, neste est´ agio, os f´ısicos est˜ ao de volta ` a procura de grupos.
Nas d´ ecadas de 1930 a 1960 o estudo de part´ıculas interagindo fortemente na f´ısica nuclear e na de altas energias
levou ao grupo de isospin SU(2) e ` a simetria de sabor SU(3). Na d´ ecada de 1930, ap´ os a descoberta do nˆ eutron,
Heisenberg propˆ os que as forc¸as nucleares eram independentes de carga. A diferenc¸a entre a massa do nˆ eutron e a
do pr´ oton era de apenas 1,6%. Se essa pequena diferenc¸a de massa for ignorada, o nˆ eutron e o pr´ oton podem ser
considerados dois estados de carga (ou isospin) de um dubleto, denominado n´ ucleon. Ao longo de z o isospin I
tem projec¸ ˜ ao I
3
= 1/2 para o pr´ oton e I
3
= −1/2 para o nˆ eutron. O isospin nada tem a ver com spin (o momento
angular intr´ınseco de uma part´ıcula), mas o estado de isospin a duas componentes obedece ` as mesmas relac¸ ˜ oes
matem´ aticas que o estado de spin 1/2. Para o n´ ucleon, I = τ/2 s˜ ao as usuais matrizes de Pauli e os estados de
isospin ±1/2 s˜ ao autovetores da matriz de Pauli τ
3
=
_
1 0
0 −1
_
. De modo semelhante, os trˆ es estados de carga do
“livro” — 2007/8/1 — 15:06 — page 195 — #205
4. TEORIA DOS GRUPOS 195
p´ıon (π
+
, π
0
, π

) formam um tripleto. O p´ıon ´ e a mais leve de todas as part´ıculas de interac¸ ˜ ao forte e ´ e o portador
da forc¸a nuclear a longas distˆ ancias, muito semelhante ao f´ oton para a forc¸a eletromagn´ etica. A interac¸ ˜ ao forte d´ a
tratamento semelhante aos membros dessas fam´ılias de part´ıculas, ou multipletos, e conserva isospin. A simetria ´ e
o grupo SU(2) de isospin.
Tabela 4.1 B´ arions com spin
1
2
paridade par
Massa (MeV) Y I I
3
Ξ

1321,32 −
1
2
Ξ −1
1
2
Ξ
0
1314,9 +
1
2
Σ

1197,43 −1
Σ Σ
0
1192,55 0 1 0
Σ
+
1189,37 +1
Λ Λ 1115,63 0 0 0
n 939,566 −
1
2
N 1
1
2
p 938,272 +
1
2
Na d´ ecada de 1960, proliferaram part´ıculas produzidas como ressonˆ ancias por aceleradores. As oito mostradas
na Tabela 4.1 atra´ıram particular atenc¸ ˜ ao.
5
Os n´ umeros quˆ anticos conservados relevantes que s˜ ao an´ alogos e
generalizac¸ ˜ oes de L
z
e L
2
do SO(3) s˜ ao I
3
e I
2
para isospin e Y para hipercarga. Part´ıculas podem ser agrupadas
em multipletos de carga ou de isospin. Ent˜ ao a hipercarga pode ser tomada como duas vezes a carga m´ edia do
multipleto. Para o n´ ucleon, isto ´ e, o dubleto nˆ eutron-pr´ oton, Y = 2
1
2
(0+1) = 1. Na Tabela 4.1 est˜ ao relacionados
os valores de hipercarga e isospin para b´ arions como o n´ ucleon e seus parceiros (aproximadamente degenerados).
Eles formam um octeto, como mostra a Figura 4.3, depois do que a simetria correspondente passa a chamar-se
caminho ´ octuplo. Em 1961, Gell-Mann e tamb´ em Ne’eman (independentemente) sugeriram que a interac¸ ˜ ao forte
deveria ser (aproximadamente) invariante sob um grupo unit´ ario especial tridimensional, SU(3) isto ´ e, tem uma
simetria de sabor SU(3).
Figura 4.3: Diagrama de peso do octeto de b´ arions para SU(3).
A escolha de SU(3) foi baseada, em primeiro lugar, nos dois n´ umeros quˆ anticos conservados e independentes,
H
1
= I
3
e H
2
= Y (isto ´ e, geradores com [I
3
, Y ] = 0, que n˜ ao sejam invariantes de Casimir; veja o sum´ ario
na Sec¸ ˜ ao 4.3) que pedem um grupo de ordem (posto) 2. Em segundo lugar, o grupo devia ter uma representac¸ ˜ ao
octodimensional para dar conta dos b´ arions quase degenerados e quatro octetos similares para os m´ esons. De certa
forma, SU(3) ´ e a generalizac¸ ˜ ao mais simples do isospin SU(2). Trˆ es de seus geradores s˜ ao matrizes hermitianas
5
Todas as massas s˜ ao dadas em unidades de energia, 1 MeV = 10
6
eV.
“livro” — 2007/8/1 — 15:06 — page 196 — #206
196 F´ısica Matem´ atica Arfken • Weber
3 3 de trac¸o zero que contˆ em as matrizes 2 2 de isospin de Pauli τ
i
no canto superior esquerdo,
λ
i
=
_
_
_
τ
i
0
0
0 0 0
_
_
_, i = 1, 2, 3. (4.61a)
Assim, o grupo de isospin SU(2) ´ e um subgrupo do SU(3) de sabor com I
3
= λ
3
/2. Quatro outros geradores
tˆ em os 1 fora da diagonal de τ
1
, e −i, i de τ
2
em todas as outras localizac¸ ˜ oes poss´ıveis para formar matrizes
hermitianas 3 3 de trac¸o nulo.
λ
4
=
_
_
_
0 0 1
0 0 0
1 0 0
_
_
_, λ
5
=
_
_
_
0 0 −i
0 0 0
i 0 0
_
_
_,
λ
6
=
_
_
_
0 0 0
0 0 1
0 1 0
_
_
_, λ
7
=
_
_
_
0 0 0
0 0 −i
0 i 0
_
_
_.
(4.61b)
O segundo gerador diagonal tem a matriz unidade bidimensional 1
2
no canto superior esquerdo, o que o torna
claramente independente do subgrupo SU(2) de isospin por causa de seu trac¸o n˜ ao-nulo naquele subespac¸o, e −2
no terceiro lugar da diagonal, o que o torna de trac¸o nulo.
λ
8
=
1

3
_
_
_
1 0 0
0 1 0
0 0 −2
_
_
_. (4.61c)
Ao todo h´ a 3
2
− 1 = 8 geradores para SU(3), que tem ordem 8. As constantes de estrutura de SU(3) podem ser
obtidas com facilidade dos comutadores desses geradores.
Voltando ` a simetria de sabor SU(3), imaginamos que o hamiltoniano para nossos oito b´ arions seja composto de
trˆ es partes:
H = H
forte
+H
m´ edio
+H
eletromagn´ etico
. (4.62)
A primeira parte, H
forte
, tem a simetria SU(3) e leva ` a degenerac¸ ˜ ao ´ octupla. A introduc¸ ˜ ao do termo que rompe
a simetria H
m´ edio
remove parte da degenerac¸ ˜ ao dando massas diferentes aos quatro multipletos de isospin


, Ξ
0
), (Σ

, Σ
0
, Σ
+
), Λ, e N = (p, n). Esses ainda s˜ ao multipletos porque H
m´ edio
tem simetria SU(2) de
isospin . Por fim, a presenc¸a de forc¸as dependentes de carga subdivide os multipletos de isospin e remove a ´ ultima
degenerescˆ encia. Essa seq¨ uˆ encia imaginada ´ e mostrada na Figura 4.4.
Figura 4.4: Subdivis˜ ao da massa do b´ arion.
A representac¸ ˜ ao por octeto n˜ ao ´ e a representac¸ ˜ ao mais simples de SU(3). As representac¸ ˜ oes mais simples s˜ ao
as triangulares mostradas na Figura 4.5, das quais todas as outras podem ser geradas por acoplamento generalizado
“livro” — 2007/8/1 — 15:06 — page 197 — #207
4. TEORIA DOS GRUPOS 197
de momento angular (veja a Sec¸ ˜ ao 4.4 sobre quadros de Young). A representac¸ ˜ ao fundamental na Figura 4.5a
cont´ em os quarks u (up), d (down) e s (estranho), e a Figura 4.5b cont´ em os antiquarks correspondentes. Uma
vez que octetos de m´ esons podem ser obtidos das representac¸ ˜ oes de quarks como q¯ q, com 3
2
= 8 + 1 estados,
isso sugere que m´ esons contˆ em quarks (e antiquarks) como seus constituintes (veja o Exerc´ıcio 4.4.3). O modelo
de quark resultante d´ a uma bem-sucedida descric¸ ˜ ao de espectroscopia hadrˆ onica. A resoluc¸ ˜ ao de seu problema
com o princ´ıpio de exclus˜ ao de Pauli resultou eventualmente na teoria de calibre de SU(3) cor da interac¸ ˜ ao forte
denominada cromodinˆ amica quˆ antica (QCD).
Figura 4.5: (a) Representac¸ ˜ ao fundamental de SU(3), o diagrama de pesos para os quarks u, d, s; (b) diagrama de
pesos para os antiquarks ¯ u,
¯
d, ¯ s.
Para manter a teoria dos grupos e suas proezas muito reais sob uma perspectiva adequada, devemos enfatizar
que ela identifica e formaliza simetrias. Classifica (e ` as vezes prevˆ e) part´ıculas. Mas, exceto por afirmar que uma
parte do hamiltoniano tem simetria SU(2) e uma outra parte tem geometria SU(3), a teoria dos grupos nada diz
sobre a interac¸ ˜ ao de part´ıculas. Lembre-se de que declarar que o potencial atˆ omico ´ e esfericamente sim´ etrico nada
nos diz sobre a dependˆ encia radial do potencial ou da func¸ ˜ ao de onda. Ao contr´ ario, em uma teoria de calibre,
a interac¸ ˜ ao ´ e mediada por b´ osons vetoriais (como o f´ oton na eletrodinˆ amica quˆ antica) e unicamente determinada
pela derivada covariante de calibre (veja a Sec¸ ˜ ao 1.13).
Exerc´ıcios
4.2.1 (i) Mostre que as matrizes de Pauli s˜ ao os geradores de SU(2) sem usar a parametrizac¸ ˜ ao da matriz
2 2 unit´ aria geral na Equac¸ ˜ ao (4.38). (ii) Derive os oito geradores independentes λ
i
de SU(3) de
maneira semelhante. Normalize esses geradores de modo que tr(λ
i
λ
j
) = 2δ
ij
. Ent˜ ao determine as
constantes estruturais de SU(3).
Sugest˜ ao: As λ
i
tˆ em trac¸o nulo e s˜ ao matrizes hermitianas 3 3.
(iii) Construa a invariante quadr´ atica de Casimir de SU(3).
Sugest˜ ao: Trabalhe por analogia com σ
2
1

2
2

2
3
de SU(2) ou L
2
de SO(3).
4.2.2 Prove que a forma geral de uma matriz 2 2 unit´ aria unimodular ´ e
U =
_
a b
−b

a

_
com a

a +b

b = 1.
4.2.3 Determine trˆ es subgrupos SU(2) de SU(3).
4.2.4 Um operador de translac¸ ˜ ao T(a) converte ψ(x) a ψ(x +a),
T(a)ψ(x) = ψ(x +a).
Em termos do operador de momento linear (mecˆ anica quˆ antica), p
x
= −id/dx, mostre que
T(a) = exp(iap
x
), isto ´ e, p
x
´ e o gerador de translac¸ ˜ oes.
Sugest˜ ao: Expanda ψ(x +a) como uma s´ erie de Taylor.
“livro” — 2007/8/1 — 15:06 — page 198 — #208
198 F´ısica Matem´ atica Arfken • Weber
4.2.5 Considere que a equac¸ ˜ ao de elemento geral de SU(2), Equac¸ ˜ ao (4.38), seja composta de trˆ es
rotac¸ ˜ oes de Euler: (i) uma rotac¸ ˜ ao de a/2 ao redor do eixo z, (ii) uma rotac¸ ˜ ao de b/2 ao redor
do novo eixo x, e (iii) uma rotac¸ ˜ ao de c/2 ao redor do novo eixo z. (Todas as rotac¸ ˜ oes s˜ ao em
sentido anti-hor´ ario.) Usando os geradores σ de Pauli, mostre que esses ˆ angulos de rotac¸ ˜ ao s˜ ao
determinados por
a = ξ −ζ +
π
2
= α +
π
2
b = 2η = β
c = ξ +ζ −
π
2
= γ −
π
2
.
Nota: Aqui, os ˆ angulos a e b n˜ ao s˜ ao o a e b da Equac¸ ˜ ao (4.38).
4.2.6 Rotacione uma func¸ ˜ ao de onda n˜ ao-relativista
˜
ψ = (ψ

, ψ

) de spin 1/2 ao redor do eixo z por um
ˆ angulo pequeno dθ. Ache o gerador correspondente.
4.3 Momento Angular Orbital
O conceito cl´ assico de momento angular, L
class
= r p, ´ e apresentado na Sec¸ ˜ ao 1.4 para introduzir o produto
vetorial. Seguindo a representac¸ ˜ ao usual de Schr¨ odinger da mecˆ anica quˆ antica, o momento linear cl´ assico p ´ e
substitu´ıdo pelo operador −i∇. O operador de momento angular orbital na mecˆ anica quˆ antica se torna
6
L
QM
= −ir ∇. (4.63)
Isso ´ e usado repetidas vezes nas Sec¸ ˜ oes 1.8, 1.9 e 2.4 para ilustrar operadores diferenciais vetoriais. Pelo Exerc´ıcio
1.8.8 as componentes do momento angular satisfazem as relac¸ ˜ oes de comutac¸ ˜ ao
[L
i
, L
j
] = iε
ijk
L
k
. (4.64)
O ε
ijk
´ e o s´ımbolo de Levi-Civita da Sec¸ ˜ ao 2.9. Fica subentendido o somat ´ orio sobre o ´ındice k.
O operador diferencial correspondente ao quadrado do momento angular
L
2
= L L = L
2
x
+L
2
y
+L
2
z
(4.65)
pode ser determinado por
L L = (r p) (r p), (4.66)
que ´ e o assunto dos Exerc´ıcios 1.9.9 e 2.5.17(b). Visto que L
2
, sendo um produto escalar, ´ e invariante sob rotac¸ ˜ oes
isto ´ e, um escalar rotacional, esperamos que [L
2
, L
i
] = 0, o que tamb´ em pode ser verificado diretamente.
A Equac¸ ˜ ao (4.64) apresenta as relac¸ ˜ oes de comutac¸ ˜ ao b´ asicas das componentes do momento angular da
mecˆ anica quˆ antica. De fato, dentro da estrutura da mecˆ anica quˆ antica e da teoria dos grupos, essas relac¸ ˜ oes de
comutac¸ ˜ ao definem um operador de momento angular. N´ os as usaremos agora para construir os auto-estados do
momento angular e achar os autovalores. Para o momento angular orbital, eles s˜ ao os harmˆ onicos esf´ ericos da
Sec¸ ˜ ao 12.6.
Abordagem do Operador de Levantamento e Abaixamento
Vamos comec¸ar com uma abordagem geral, na qual o momento angular J que consideramos pode representar um
momento angular orbital L, um spin σ/2 ou um momento angular total L +σ/2 etc. Admitimos que
1. J ´ e um operador hermitiano cujas componentes satisfazem as relac¸ ˜ oes de comutac¸ ˜ ao.
[J
i
, J
j
] = iε
ijk
J
k
,
_
J
2
, J
i
¸
= 0. (4.67)
Caso contr´ ario, J ´ e arbitr´ ario. (Veja o Exerc´ıcio 4.3.l.)
2. [λM) ´ e simultaneamente uma autofunc¸ ˜ ao normalizada (ou autovetor) de J
z
com M e uma autofunc¸ ˜ ao
7
de J
2
,
J
z
[λM) = M[λM), J
2
[λM) = λ[λM), ¸λM[λM) = 1. (4.68)
6
Por simplicidade, igualamos a 1. Isso significa que o momento angular ´ e medido em unidades de .
7
Que [λM) pode ser uma autofunc¸ ˜ ao de ambos, Jz, e J
2
, resulta de [Jz, J
2
] = 0 na Equac¸ ˜ ao (4.67). Para SU(2), ¸λM[λM) ´ e o produto
escalar (dos vetores ou spinores bra e ket) na notac¸ ˜ ao braket introduzida na Sec¸ ˜ ao 3.1. Para SO(3), [λM) ´ e uma func¸ ˜ ao Y (θ, ϕ) e [λM

)
´ e uma func¸ ˜ ao Y

(θ, ϕ) e o elemento de matriz ¸λM[λM

) ≡
R

ϕ=0
R
π
θ=0
Y

(θ, ϕ)Y

(θ, ϕ)sen θ dθ dϕ ´ e a sobreposic¸ ˜ ao delas. Todavia,
em nossa abordagem alg´ ebrica, apenas a norma na Equac¸ ˜ ao (4.68) ´ e usada e elementos matriciais dos operadores de momento angular s˜ ao
reduzidos ` a norma por meio da equac¸ ˜ ao de autovalor para Jz, Equac¸ ˜ ao (4.68) e Equac¸ ˜ oes (4.83) e (4.84).
“livro” — 2007/8/1 — 15:06 — page 199 — #209
4. TEORIA DOS GRUPOS 199
Agora mostraremos que λ = J(J + 1) e ent˜ ao acharemos outras propriedades de [λM). O tratamento ilustrar´ a
a generalidade e o poder de t´ ecnicas de operador, em particular a utilizac¸ ˜ ao de operadores de levantamento e
abaixamento.
8
Os operadores de levantamento e abaixamento s˜ ao definidos como
J
+
= J
x
+iJ
y
, J

= J
x
−iJ
y
. (4.69)
Em termos desses operadores, J
2
pode ser reescrito como
J
2
=
1
2
(J
+
J

+J

J
+
) +J
2
z
. (4.70)
Pelas relac¸ ˜ oes de comutac¸ ˜ ao, Equac¸ ˜ ao (4.67), encontramos
[J
z
, J
+
] = +J
+
, [J
z
, J

] = −J

, [J
+
, J

] = 2J
z
. (4.71)
Uma vez que J
+
comuta com J
2
(Exerc´ıcio 4.3.1),
J
2
_
J
+
[λM)
_
= J
+
_
J
2
[λM)
_
= λ
_
J
+
[λM)
_
. (4.72)
Por conseguinte, J
+
[λM) ´ e ainda uma autofunc¸ ˜ ao de J
2
com autovalor λ e, de modo semelhante, para J

[λM).
Mas, pela Equac¸ ˜ ao (4.71),
J
z
J
+
= J
+
(J
z
+ 1), (4.73)
ou
J
z
_
J
+
[λM)
_
= J
+
(J
z
+ 1)[λM) = (M + 1)J
+
[λM). (4.74)
Portanto, J
+
[λM) ainda ´ e uma autofunc¸ ˜ ao de J
z
mas com autovalor M + 1. J
+
elevou o autovalor de 1 e, por
isso, ´ e denominado operador de elevac¸ ˜ ao. De modo semelhante, J

diminui o autovalor de 1 e ´ e denominado
operador de rebaixamnto.
Tomando valores esperados e usando J

x
= J
x
, J

y
= J
y
, obtemos
¸λM[J
2
−J
2
z
[λM) = ¸λM[J
2
x
+J
2
y
[λM) =
¸
¸
J
x
[λM)
¸
¸
2
+
¸
¸
J
y
[λM)
¸
¸
2
e vemos que λ − M
2
≥ 0, portanto, M tem um limite. Seja J o maior M. Ent˜ ao, J
+
[λJ) = 0, o que implica
J

J
+
[λJ) = 0. Da´ı, combinando as Equac¸ ˜ oes (4.70) e (4.71) para obter
J
2
= J

J
+
+J
z
(J
z
+ 1), (4.75)
constatamos, pela Equac¸ ˜ ao (4.75), que
0 = J

J
+
[λJ) =
_
J
2
−J
2
z
−J
z
_
[λJ) =
_
λ −J
2
−J
_
[λJ).
Portanto,
λ = J(J + 1) ≥ 0, (4.76)
com J n˜ ao-negativo. Agora renomeamos os estados [λM) ≡ [JM). De modo semelhante, seja J
t
o menor M.
Ent˜ ao, J

[JJ
t
) = 0. Por
J
2
= J
+
J

+J
z
(J
z
−1), (4.77)
vemos que
0 = J
+
J

[JJ
t
) =
_
J
2
+J
z
−J
2
z
_
[JJ
t
) =
_
λ +J
t
−J
t 2
_
[JJ
t
). (4.78)
Da´ı,
λ = J(J + 1) = J
t
(J
t
−1) = (−J)(−J −1).
Portanto, J
t
= −J, e M varia em passos inteiros de −J a +J,
−J ≤ M ≤ J. (4.79)
8
Operadores de levantamento e abaixamento podem ser desenvolvidos para outras func¸ ˜ oes matem´ aticas. Compare com a subsec¸ ˜ ao seguinte,
sobre grupos de Lie, e com a Sec¸ ˜ ao 13.1, para os polinˆ omios de Hermite.
“livro” — 2007/8/1 — 15:06 — page 200 — #210
200 F´ısica Matem´ atica Arfken • Weber
Comec¸ando de [JJ) e aplicando J

repetidas vezes, chegamos a todos os outros estados [JM). Por conseguinte,
[JM) forma uma representac¸ ˜ ao irredut´ıvel de SO(3) ou SU(2); M varia e J ´ e fixo.
Ent˜ ao, usando as Equac¸ ˜ oes (4.67), (4.75) e (4.77) obtemos
J

J
+
[JM) =
_
J(J + 1) −M(M + 1)
¸
[JM) = (J −M)(J +M + 1)[JM),
J
+
J

[JM) =
_
J(J + 1) −M(M −1)
¸
[JM) = (J +M)(J −M + 1)[JM).
(4.80)
Como J
+
e J

s˜ ao conjugados hermitianos,
9
J

+
= J

, J


= J
+
, (4.81)
os autovalores na Equac¸ ˜ ao (4.80) devem ser positivos ou zero.
10
Alguns exemplos da Equac¸ ˜ ao (4.81) s˜ ao dados
pelas matrizes dos Exerc´ıcios 3.2.13 (spin 1/2). Alguns exemplos da Equac¸ ˜ ao (4.81) s˜ ao dados pelas matrizes dos
Exerc´ıcios 3.2.13 (spin 1/2), 3.2.15 (spin 1) e 3.2.18 (spin 3/2). Para os operadores de levantamento e abaixamento
de momento angular orbital, L
+
e L

, s˜ ao dadas formas expl´ıcitas nos Exerc´ıcios 2.5.14 e 12.6.7. Agora vocˆ e pode
mostrar (veja tamb´ em o Exerc´ıcio 12.7.2) que
¸JM[J

_
J
+
[JM)
_
=
_
J
+
[JM)
_

J
+
[JM). (4.82)
Uma vez que J
+
eleva o autovalor M para M + 1, denominamos a autofunc¸ ˜ ao resultante [JM + 1). A
normalizac¸ ˜ ao ´ e dada pela Equac¸ ˜ ao (4.80) como
J
+
[JM) =
_
(J −M)(J +M + 1)[JM + 1) =
_
J(J + 1) −M(M + 1)[JM + 1), (4.83)
tomando a raiz quadrada positiva e n˜ ao introduzindo nenhum fator de fase. Pelos mesmos argumentos,
J

[JM) =
_
(J +M)(J −M + 1)[JM −1) =
_
(J(J + 1) −M(M −1)[JM −1). (4.84)
Aplicando J
+
` a Equac¸ ˜ ao (4.84), obtemos a segunda linha da Equac¸ ˜ ao (4.80) e verificamos que a Equac¸ ˜ ao (4.84) ´ e
consistente com a Equac¸ ˜ ao (4.83).
Por fim, visto que M vai de −J a +J em passos unit´ arios, 2J deve ser um inteiro; J ´ e um inteiro ou metade de
um inteiro ´ımpar. Como veremos mais adiante, se J ´ e um momento angular orbital L, o conjunto [LM) para todo
M ´ e uma base que define uma representac¸ ˜ ao de SO(3) e, ent˜ ao, L ser´ a inteiro. Em coordenadas polares esf´ ericas
θ, ϕ, as func¸ ˜ oes [LM) tornam-se os harmˆ onicos esf´ ericos Y
M
L
(θ, ϕ) da Sec¸ ˜ ao 12.6. Os conjuntos de estados [JM)
com J da metade do inteiro definem representac¸ ˜ oes de SU(2) que n˜ ao s˜ ao representac¸ ˜ oes de SO(3); obtemos
J = 1/2, 3/2, 5/2, . . . . Nosso momento angular ´ e quantizado essencialmente como um resultado das relac¸ ˜ oes de
comutac¸ ˜ ao. Todas essas representac¸ ˜ oes s˜ ao irredut´ıveis, como sugere uma aplicac¸ ˜ ao dos operadores de elevac¸ ˜ ao e
rebaixamento.
Resumo de Grupos de Lie e
´
Algebras de Lie
As relac¸ ˜ oes gerais de comutac¸ ˜ ao, Equac¸ ˜ ao (4.14) na Sec¸ ˜ ao 4.2, para um cl´ assico grupo de Lie [SO(n) e SU(n)
em particular], podem ser simplificadas para ficar mais parecidas com a Equac¸ ˜ ao (4.71) para SO(3) e SU(2) nesta
sec¸ ˜ ao. Aqui, estamos fazendo uma mera revis˜ ao e, como regra, n˜ ao apresentamos provas para v´ arios teoremas que
explicamos.
Em primeiro lugar escolhemos geradores linearmente independentes e mutuamente comutativos H
i
que s˜ ao
generalizac¸ ˜ oes de J
z
para SO(3) e SU(2). Seja l o n´ umero m´ aximo de tais H
i
com
[H
i
, H
k
] = 0. (4.85)
Ent˜ ao, l ´ e denominado grau do grupo de Lie G ou sua ´ algebra de Lie (. O grau e a dimens˜ ao, ou ordem, de alguns
grupos de Lie s˜ ao dados na Tabela 4.2. Pode-se demonstrar que todos os outros geradores E
α
s˜ ao operadores de
elevac¸ ˜ ao e rebaixamento em relac¸ ˜ ao a todos os H
i
, portanto,
[H
i
, E
α
] = α
i
E
α
, i = 1, 2, . . . , l. (4.86)
9
A conjugac¸ ˜ ao hermitiana ou operac¸ ˜ ao adjunta ´ e definida para matrizes na Sec¸ ˜ ao 3.5, e para operadores em geral, na Sec¸ ˜ ao 10.1.
10
Se quiser uma excelente discuss˜ ao sobre operadores adjuntos e espac¸os hilbertianos, consulte A. Messiah, Quantum Mechanics. Nova
York: Wiley (1961), Cap´ıtulo 7.
“livro” — 2007/8/1 — 15:06 — page 201 — #211
4. TEORIA DOS GRUPOS 201
O conjunto dos denominados vetores ra´ızes (α
1
, α
2
, . . . , α
l
) forma o diagrama raiz de (.
Quando os H
i
comutam, eles podem ser simultaneamente diagonalizados (para matrizes sim´ etricas (ou
hermitianas), veja o Cap´ıtulo 3; para operadores, veja o Cap´ıtulo 10). Os H
i
nos d˜ ao um conjunto de autovalores
m
1
, m
2
, . . . , m
l
[n´ umeros quˆ anticos de projec¸ ˜ ao ou aditivos generalizando M de J
z
em SO(3) e SU(2)]. O
conjunto dos denominados vetores de peso (m
1
, m
2
, . . . , m
l
) para uma representac¸ ˜ ao irredut´ıvel (multipleto)
forma um diagrama de peso.
Tabela 4.2 Grau e ordem de grupos unit´ arios e rotacionais
´
Algebra de Lie /
l
B
l
T
l
Grupo de Lie SU(l + 1) SO(2l + 1) SO(2l)
Grau l l l
Ordem l(l + 2) l(2l + 1) l(2l −1)
H´ a l operadores invariantes C
i
, denominados operadores de Casimir, que comutam com todos os geradores e
s˜ ao generalizac¸ ˜ oes de J
2
,
[C
i
, H
j
] = 0, [C
i
, E
α
] = 0, i = 1, 2, . . . , l. (4.87)
O primeiro, C
1
, ´ e uma func¸ ˜ ao quadr´ atica dos geradores; os outros s˜ ao mais complicados. Uma vez que os
C
j
comutam com todos os H
j
, eles podem ser diagonalizados simultaneamente com os H
j
. Seus autovalores
c
1
, c
2
, . . . , c
l
caracterizam representac¸ ˜ oes irredut´ıveis e permanecem constantes enquanto o vetor de pesos varia
sobre qualquer representac¸ ˜ ao irredut´ıvel particular. Assim, a autofunc¸ ˜ ao geral pode ser escrita como
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
, (4.88)
generalizando o multipleto [JM) de SO(3) e SU(2). Suas equac¸ ˜ oes de autovalor s˜ ao
H
i
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
= m
i
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
(4.89a)
C
i
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
= c
i
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
. (4.89b)
Agora podemos mostrar que E
α
[(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
) tem o vetor de pesos (m
1
+ α
1
, m
2
+
α
2
, . . . , m
l
+ α
l
) usando as relac¸ ˜ oes de comutac¸ ˜ ao, Equac¸ ˜ ao (4.86), em conjunc¸ ˜ ao com as Equac¸ ˜ oes (4.89a) e
(4.89b):
H
i
E
α
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
=
_
E
α
H
i
+ [H
i
, E
α
]

¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
= (m
i

i
)E
α
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
. (4.90)
Portanto,
E
α
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_

¸
¸
(c
1
, . . . , c
l
)m
1

1
, . . . , m
l

l
_
,
a generalizac¸ ˜ ao das Equac¸ ˜ oes (4.83) e (4.84) de SO(3). Essas mudanc¸as de autovalores pelo operador E
α
s˜ ao
denominadas suas regras de selec¸ ˜ ao em mecˆ anica quˆ antica. Elas s˜ ao exibidas no diagrama-raiz de uma ´ algebra de
Lie.
Exemplos de diagramas-raiz para SU(2) e SU(3), s˜ ao dados na Figura 4.6. Se ligarmos as ra´ızes denotadas por
setas na Figura 4.6b a um peso nas Figuras 4.3 ou 4.5a, b, podemos chegar a qualquer outro estado (representando
po um ponto no diagrama de pesos).
Aqui, o lema de Schur se aplica: um operador H que comuta com todos os operadores de grupo e, portanto,
com todos os geradores H
i
de um determinado grupo (cl´ assico) de Lie G tem como autovetores todos os estados
de um multipleto e ´ e degenerado com o multipleto. Como conseq¨ uˆ encia, esse operador comuta com todos os
invariantes de Casimir, [H, C
i
] = 0.
O ´ ultimo resultado ´ e claro porque os invariantes de Casimir s˜ ao constru´ıdos a partir de geradores e operadores
de elevac¸ ˜ ao e abaixamento do grupo. Para provar o restante, seja ψ um autovetor, Hψ = Eψ. Ent˜ ao, para qualquer
rotac¸ ˜ ao R de G, temos HRψ = ERψ, que diz que Rψ ´ e um auto-estado com o mesmo autovalor E juntamente
comψ. Uma vez que [H, C
i
] = 0, todos os invariantes de Casimir podem ser diagonalizados simultaneamente com
“livro” — 2007/8/1 — 15:06 — page 202 — #212
202 F´ısica Matem´ atica Arfken • Weber
Figura 4.6: Diagrama-raiz para (a) SU(2) e (b) SU(3).
H e um auto-estado de H ´ e um auto-estado de todos os C
i
. Visto que [H
i
, C
i
] = 0, os auto-estados rotacionados
Rψ s˜ ao autoestados de C
i
, juntamente com ψ pertencentes ao mesmo multipleto caracterizado pelos autovalores
c
i
de C
i
.
Por fim, esse operador H n˜ ao pode induzir transic¸ ˜ oes entre diferentes multipletos do grupo porque
¸
(c
t
1
, c
t
2
, . . . , c
t
l
)m
t
1
, m
t
2
, . . . , m
t
l
¸
¸
H
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
= 0.
Usando [H, C
j
] = 0 (para qualquer j) temos
0 =
¸
(c
t
1
, c
t
2
, . . . , c
t
l
)m
t
1
, m
t
2
, . . . , m
t
l
¸
¸
[H, C
j
]
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
= (c
j
−c
t
j
)
¸
(c
t
1
, c
t
2
, . . . , c
t
l
)m
t
1
, m
t
2
, . . . , m
t
l
¸
¸
H
¸
¸
(c
1
, c
2
, . . . , c
l
)m
1
, m
2
, . . . , m
l
_
.
Se c
t
j
,= c
j
para alguns j, segue-se a equac¸ ˜ ao precedente.
Exerc´ıcios
4.3.1 Mostre que (a) [J
+
, J
2
] = 0, (b) [J

, J
2
] = 0.
4.3.2 Derive o diagrama-raiz de SU(3) na Figura 4.6b a partir dos geradores λ
i
na Equac¸ ˜ ao (4.61).
Sugest˜ ao: Elabore primeiro o caso SU(2) na Figura 4.6a a partir das matrizes de Pauli.
4.4 Acoplamento de Momento Angular
Em sistemas de muitos corpos da mecˆ anica cl´ assica, o momento angular total ´ e o somat ´ orio L =

i
L
i
dos momentos angulares orbitais individuais. Qualquer part´ıcula isolada tem momento angular conservado. Na
mecˆ anica quˆ antica, o momento angular conservado surge quando part´ıculas se movimentam em um potencial
central, tal como o potencial de Coulomb na f´ısica at ˆ omica, um potencial de modelo de camada em f´ısica nuclear
ou um potencial de confinamento de um modelo de quark na f´ısica de part´ıculas. Na equac¸ ˜ ao relativ´ıstica de Dirac,
o momento angular orbital j´ a n˜ ao ´ e mais conservado, por´ em J = L + S ´ e conservado, com o momento angular
total de uma part´ıcula consistindo em seu momento angular orbital e intr´ınseco, denominado spin S = σ/2, em
unidades de .
Pode-se mostrar de imediato que a soma de operadores de momento angular obedece ` as mesmas relac¸ ˜ oes de
comutac¸ ˜ ao na Equac¸ ˜ ao (4.37) ou na Equac¸ ˜ ao (4.41) que os operadores individuais de momento angular, contanto
que os operadores de part´ıculas diferentes comutem.
Coeficientes de Clebsch-Gordan: SU(2)–SO(3)
´
E claro que a combinac¸ ˜ ao de dois momentos angulares comutativos J
i
para formar sua soma
J = J
1
+J
2
, [J
1i
, J
2i
] = 0, (4.91)
ocorre com freq¨ uˆ encia em aplicac¸ ˜ oes e J satisfaz as relac¸ ˜ oes de comutac¸ ˜ ao do momento angular
[J
j
, J
k
] = [J
1j
+J
2j
, J
1k
+J
2k
] = [J
1j
, J
1k
] + [J
2j
, J
2k
] = iε
jkl
(J
1l
+J
2l
) = iε
jkl
J
l
.
O momento angular total para uma part´ıcula ´ unica com spin 1/2, por exemplo, um el´ etron ou um quark, ´ e uma
soma do momento angular orbital e do spin. O momento angular orbital total para duas part´ıculas sem spin ´ e
“livro” — 2007/8/1 — 15:06 — page 203 — #213
4. TEORIA DOS GRUPOS 203
L = L
1
+ L
2
. Para que J
2
e J
z
da Equac¸ ˜ ao (4.91) sejam ambos diagonais, [J
2
, J
z
] = 0 tem de ser v´ alida. Para
demonstrar isso, usamos as ´ obvias relac¸ ˜ oes de comutac¸ ˜ ao [J
iz
, J
2
j
] = 0 e
J
2
= J
2
1
+J
2
2
+ 2J
1
J
2
= J
2
1
+J
2
2
+J
1+
J
2−
+J
1−
J
2+
+ 2J
1z
J
2z
(4.91
t
)
em conjunc¸ ˜ ao com a Equac¸ ˜ ao (4.71), para ambos J
i
, para obter
_
J
2
, J
z
¸
= [J
1−
J
2+
+J
1+
J
2−
, J
1z
+J
2z
]
= [J
1−
, J
1z
]J
2+
+J
1−
[J
2+
, J
2z
] + [J
1+
, J
1z
]J
2−
+J
1+
[J
2−
, J
2z
]
= J
1−
J
2+
−J
1−
J
2+
−J
1+
J
2−
+J
1+
J
2−
= 0.
De maneira similar, provamos [J
2
, J
2
i
] = 0. Por conseguinte, os autovalores de J
2
i
, J
2
, J
z
podem ser usados para
rotular os estados de momento angular total [J
1
J
2
JM).
Os estados do produto [J
1
m
1
)[J
2
m
2
) obviamente satisfazem as equac¸ ˜ oes de autovalor
J
z
[J
1
m
1
)[J
2
m
2
) = (J
1z
+J
2z
)[J
1
m
1
)[J
2
m
2
) = (m
1
+m
2
)[J
1
m
1
)[J
2
m
2
)
= M[J
1
m
1
)[J
2
m
2
), (4.92)
J
2
i
[J
1
m
1
)[J
2
m
2
) = J
i
(J
i
+ 1)[J
1
m
1
)[J
2
m
2
),
mas n˜ ao ter˜ ao J
2
diagonal exceto para os estados extremos com M = ±(J
1
+ J
2
) e J = J
1
+ J
2
(veja a Figura
4.7a). Para ver isso usamos a Equac¸ ˜ ao (4.91’) mais uma vez, em conjunc¸ ˜ ao com as Equac¸ ˜ oes (4.83) e (4.84) em
Figura 4.7: Acoplamento de dois momentos angulares: (a) paralelo, (b) antiparalelo, (c) caso geral.
J
2
[J
1
m
1
)J
2
m
2
) =
_
J
1
(J
1
+ 1) +J
2
(J
2
+ 1) + 2m
1
m
2
_
[J
1
m
1
)[J
2
m
2
)
+
_
J
1
(J
1
+ 1) −m
1
(m
1
+ 1)
_
1/2
_
J
2
(J
2
+ 1) −m
2
(m
2
−1)
_
1/2
[J
1
m
1
+ 1)[J
2
m
2
−1) +
_
J
1
(J
1
+ 1) −m
1
(m
1
−1)
_
1/2

_
J
2
(J
2
+ 1) −m
2
(m
2
+ 1)
_
1/2
[J
1
m
1
−1)[J
2
m
2
+ 1). (4.93)
Os dois ´ ultimos termos na Equac¸ ˜ ao (4.93) desaparecem somente quando m
1
= J
1
e m
2
= J
2
ou m
1
= −J
1
e
m
2
= −J
2
. Em ambos os casos J = J
1
+ J
2
resulta da primeira linha da Equac¸ ˜ ao (4.93). Por conseguinte, em
geral, temos de formar combinac¸ ˜ oes adequadas de estados de produto
[J
1
J
2
JM) =

m1,m2
C
_
J
1
J
2
J[m
1
m
2
M
_
[J
1
m
1
)[J
2
m
2
), (4.94)
de modo que J
2
tenha autovalor J(J+1). As quantidades C(J
1
J
2
J[m
1
m
2
M) na Equac¸ ˜ ao (4.94) s˜ ao denominadas
coeficientes de Clebsch-Gordan. Pela Equac¸ ˜ ao (4.92) vemos que eles desaparecem a menos que M = m
1
+m
2
,
reduzindo a soma dupla a uma soma ´ unica. Aplicar J
±
a [JM) mostra que os autovalores M de J
z
satisfazem as
desigualdades usuais −J ≤ M ≤ J.
´
E claro que o m´ aximo J
m´ ax
= J
1
+J
2
(veja a Figura 4.7a). Nesse caso, a Equac¸ ˜ ao (4.93) se reduz a um estado
de produto puro.
[J
1
J
2
J = J
1
+J
2
M = J
1
+J
2
) = [J
1
J
1
)[J
2
J
2
), (4.95a)
“livro” — 2007/8/1 — 15:06 — page 204 — #214
204 F´ısica Matem´ atica Arfken • Weber
portanto, o coeficiente de Clebsch-Gordan
C(J
1
J
2
J = J
1
+J
2
[J
1
J
2
J
1
+J
2
) = 1. (4.95b)
O m´ınimo J = J
1
−J
2
(se J
1
> J
2
, veja a Figura 4.7b) e J = J
2
−J
1
para J
2
> J
1
resulta se mantivermos em
mente que h´ a exatamente tantos produtos de estado quanto estados [JM), isto ´ e,
J
m´ ax

J=J
m´ın
(2J + 1) = (J
m´ ax
−J
m´ın
+ 1)(J
m´ ax
+J
m´ın
+ 1)
= (2J
1
+ 1)(2J
2
+ 1). (4.96)
Essa condic¸ ˜ ao ´ e v´ alida porque os estados [J
1
J
2
JM) s˜ ao apenas um rearranjo de todos os estados de produto na
forma de representac¸ ˜ oes irredut´ıveis de momento angular total.
´
E equivalente ` a regra do triˆ angulo:
∆(J
1
J
2
J) = 1, se [J
1
−J
2
[ ≤ J ≤ J
1
+J
2
;
∆(J
1
J
2
J) = 0, se n˜ ao for.
(4.97)
Isso indica que um multipleto completo de cada valor J de J
m´ın
a J
m´ ax
d´ a conta de todos os estados e que todos os
estados [JM) s˜ ao necessariamente ortogonais. Em outras palavras, a Equac¸ ˜ ao (4.94) define uma transformac¸ ˜ ao
unit´ aria a partir do conjunto de produtos de base ortogonal de estados de part´ıcula ´ unica [J
1
m
1
; J
2
m
2
) =
[J
1
m
1
)[J
2
m
2
) para os estados de duas part´ıculas [J
1
J
2
JM). Os coeficientes de Clebsch-Gordan s˜ ao exatamente
os elementos da matriz de sobreposic¸ ˜ ao.
C(J
1
J
2
J[m
1
m
2
M) ≡ ¸J
1
J
2
JM[J
1
m
1
; J
2
m
2
). (4.98)
A construc¸ ˜ ao expl´ıcita no que segue mostra que eles s˜ ao todos reais. Os estados na Equac¸ ˜ ao (4.94) s˜ ao
ortonormalizados, contanto que as restric¸ ˜ oes

m1,m2, m1+m2=M
C(J
1
J
2
J[m
1
m
2
M)C(J
1
J
2
J
t
[m
1
m
2
M
t
)
= ¸J
1
J
2
JM[J
1
J
2
J
t
M
t
) = δ
JJ
δ
MM

(4.99a)

J,M
C(J
1
J
2
J[m
1
m
2
M)C(J
1
J
2
J[m
t
1
m
t
2
M)
= ¸J
1
m
1
[J
1
m
t
1
)¸J
2
m
2
[J
2
m
t
2
) = δ
m1m

1
δ
m2m

2
(4.99b)
sejam v´ alidas.
Agora estamos prontos para construir mais diretamente os estados de momento angular total partindo de
[J
m´ ax
= J
1
+ J
2
M = J
1
+ J
2
) na Equac¸ ˜ ao (4.95a) e usando o operador de rebaixamento J

= J
1−
+ J
2−
repetidas vezes. Na primeira etapa usamos a Equac¸ ˜ ao (4.84) para
J
i−
[J
i
J
i
) =
_
J
i
(J
i
+ 1) −J
i
(J
i
−1)
_
1/2
[J
i
J
i
−1) = (2J
i
)
1/2
[J
i
J
i
−1),
que substitu´ımos em (J
1−
+ J
2−
)[J
1
J
1
)[J
2
J
2
). Normalizando o estado resultante com M = J
1
+ J
2
− 1
adequadamente para 1, obtemos
[J
1
J
2
J
1
+J
2
J
1
+J
2
−1) =
_
J
1
/(J
1
+J
2
)
_
1/2
[J
1
J
1
−1)[J
2
J
2
)
+
_
J
2
/(J
1
+J
2
)
_
1/2
[J
1
J
1
)[J
2
J
2
−1). (4.100)
A Equac¸ ˜ ao (4.100) d´ a os coeficientes de Clebsch-Gordan
C(J
1
J
2
J
1
+J
2
[J
1
−1 J
2
J
1
+J
2
−1) =
_
J
1
/(J
1
+J
2
)
_
1/2
,
C(J
1
J
2
J
1
+J
2
[J
1
J
2
−1 J
1
+J
2
−1) =
_
J
2
/(J
1
+J
2
)
_
1/2
.
(4.101)
Ent˜ ao aplicamos J

mais uma vez e normalizamos os estados obtidos at´ e alcanc¸armos [J
1
J
2
J
1
+ J
2
M) com
M = −(J
1
+J
2
). Desse modo, os coeficientes de Clebsch-Gordan C(J
1
J
2
J
1
+J
2
[m
1
m
2
M) podemser calculados
etapa a etapa e s˜ ao todos reais.
“livro” — 2007/8/1 — 15:06 — page 205 — #215
4. TEORIA DOS GRUPOS 205
A pr´ oxima etapa ´ e perceber que o ´ unico outro estado com M = J
1
+ J
2
− 1 ´ e o topo da pr´ oxima torre mais
baixa de estados [J
1
+ J
2
− 1M). Visto que [J
1
+ J
2
− 1 J
1
+ J
2
− 1) ´ e ortogonal a [J
1
+ J
2
J
1
+ J
2
− 1) na
Equac¸ ˜ ao (4.100), ele deve ser a outra combinac¸ ˜ ao linear com um sinal de menos relativo.
[J
1
+J
2
−1 J
1
+J
2
−1) = −
_
J
2
/(J
1
+J
2
)
_
1/2
[J
1
J
1
−1)[J
2
J
2
)
+
_
J
1
/(J
1
+J
2
)
_
1/2
[J
1
J
1
)[J
2
J
2
−1), (4.102)
at´ e um sinal geral.
Por conseguinte, determinamos os coeficientes de Clebsch-Gordan (para J
2
≥ J
1
)
C(J
1
J
2
J
1
+J
2
−1[J
1
−1 J
2
J
1
+J
2
−1) = −
_
J
2
/(J
1
+J
2
)
_
1/2
,
C(J
1
J
2
J
1
+J
2
−1[J
1
J
2
−1 J
1
+J
2
−1) =
_
J
1
/(J
1
+J
2
)
_
1/2
.
(4.103)
Mais uma vez, continuamos a usar J

at´ e alcanc¸armos M = −(J
1
+ J
2
− 1), e continuamos normalizando os
estados resultantes [J
1
+J
2
−1M) da torre J = J
1
+J
2
−1.
Para chegar ao topo da torre seguinte, [J
1
+J
2
−2M) comM = J
1
+J
2
−2, lembramos que j´ a constru´ımos dois
estados comaquele M. Ambos, [J
1
+J
2
J
1
+J
2
−2) e [J
1
+J
2
−1 J
1
+J
2
−2), s˜ ao combinac¸ ˜ oes lineares conhecidas
dos trˆ es estados de produto [J
1
J
1
)[J
2
J
2
−2), [J
1
J
1
−1) [J
2
J
2
−1), e a menos de [J
1
J
1
−2)[J
2
J
2
). A terceira
combinac¸ ˜ ao linear ´ e f´ acil de achar pela ortogonalidade desses dois estados, at´ e uma fase geral, que ´ e escolhida pelas
convenc¸ ˜ oes de fase de Condon-Shortley
11
de modo que o coeficiente C(J
1
J
2
J
1
+J
2
−2[J
1
J
2
−2 J
1
+J
2
−2)
do ´ ultimo estado de produto ´ e positivo para [J
1
J
2
J
1
+J
2
−2 J
1
+J
2
−2).
´
E direto, embora um pouco tedioso,
determinar o restante dos coeficientes de Clebsch-Gordan.
Numerosas relac¸ ˜ oes de recorrˆ encia podem ser derivadas de elementos matriciais de v´ arios operadores de
momento angular, para as quais nos referimos, ` a literatura.
12
As propriedades de simetria dos coeficientes de Clebsch-Gordan s˜ ao mais bem exibidas nos s´ımbolos 3j de
Wigner mais sim´ etricos, que s˜ ao tabulados:
_
J
1
J
2
J
3
m
1
m
2
m
3
_
=
(−1)
J1−J2−m3
(2J
3
+ 1)
1/2
C(J
1
J
2
J
3
[m
1
m
2
, −m
3
), (4.104a)
obedecendo ` as relac¸ ˜ oes de simetria
_
J
1
J
2
J
3
m
1
m
2
m
3
_
= (−1)
J1+J2+J3
_
J
k
J
l
J
n
m
k
m
l
m
n
_
, (4.104b)
para (k, l, n) uma permutac¸ ˜ ao ´ımpar de (1, 2, 3). Umdos lugares mais importantes emque aparecemos coeficientes
de Clebsch-Gordan ´ e em elementos matriciais de operadores tensoriais, que s˜ ao governados pelo teorema de
Wigner-Eckart discutido na pr´ oxima sec¸ ˜ ao, sobre tensores esf´ ericos. Um outro ´ e o acoplamento de operadores ou
vetores de estado a momento angular total, tal como um acoplamento spin-´ orbita. Reacoplar operadores e estados
em elementos matriciais leva a s´ımbolos 6j e 9j. Coeficientes de Clebsch-Gordan podem ser, e s˜ ao, calculados
para outros grupos de Lie, tal como SU(3).
Tensores Esf´ ericos
No Cap´ıtulo 2, as propriedades de tensores cartesianos s˜ ao definidas usando o grupo de transformac¸ ˜ oes lineares
gerais n˜ ao-singulares, que cont´ em as rotac¸ ˜ oes tridimensionais como um subgrupo. Um tensor de uma dada
ordem que ´ e irredut´ıvel em relac¸ ˜ ao ao grupo total pode perfeitamente tornar-se redut´ıvel para o grupo de rotac¸ ˜ ao
SO(3). Para explicar este ponto, considere o tensor de segunda ordem com T
jk
= x
j
y
k
para j, k = 1, 2, 3. Ele
cont´ em o tensor sim´ etrico S
jk
= (x
j
y
k
+ x
k
y
j
)/2 e o tensor anti-sim´ etrico A
jk
= (x
j
y
k
− x
k
y
j
)/2, portanto
T
jk
= S
jk
+ A
jk
. Isso reduz T
jk
em SO(3). Contudo, sob rotac¸ ˜ oes o produto escalar x y ´ e invariante e, por
11
E. U. Condon e G. H. Shortley, Theory of Atomic Spectra. Cambridge, UK: Cambridge University Press (1935).
12
H´ a uma rica literatura sobre esse assunto, por ex., A. R. Edmonds, Angular Momentum in Quantum Mechanics. Princeton, NJ: Princeton
University Press (1957); M. E. Rose, Elementary Theory of Angular Momentum. Nova York: Wiley (1957); A. de-Shalit e I. Talmi, Nuclear
Shell Model. Nova York: Academic Press (1963); Dover (2005). Coeficientes de Clebsch-Gordan s˜ ao tabulados em M. Rotenberg, R. Bivins,
N. Metropolis e J. K. Wooten, Jr., The 3j- and 6j-Symbols. Cambridge, MA: Massachusetts Institute of Technology Press (1959).
“livro” — 2007/8/1 — 15:06 — page 206 — #216
206 F´ısica Matem´ atica Arfken • Weber
conseguinte, ´ e irredut´ıvel em SO(3). Assim, S
jk
pode ser reduzido por subtrac¸ ˜ ao do m´ ultiplo de x y que o torna
sem trac¸o. Isso leva ao tensor irredut´ıvel SO(3)
S
t
jk
=
1
2
(x
j
y
k
+x
k
y
j
) −
1
3
x yδ
jk
.
Tensores de ordens mais altas podem ser tratados de maneira semelhante. Quando formamos tensores a partir
de produtos das componentes do vetor de coordenadas r, ent˜ ao, em coordenadas polares que s˜ ao talhadas para a
simetria SO(3), terminamos com os harmˆ onicos esf´ ericos do Cap´ıtulo 12.
A forma dos operadores de levantamento e abaixamento para SO(3) na Sec¸ ˜ ao 4.3 nos leva a introduzir as
componentes esf´ ericas (note, todavia, a normalizac¸ ˜ ao e os sinais diferentes prescritos pelos Y
lm
) de um vetor A:
A
+1
= −
1

2
(A
x
+iA
y
), A
−1
=
1

2
(A
x
−iA
y
), A
0
= A
z
. (4.105)
Ent˜ ao, para o vetor de coordenadas r em coordenadas polares, temos,
r
+1
= −
1

2
rsen θe

= r
_

3
Y
11
, r
−1
=
1

2
rsen θe
−iϕ
= r
_

3
Y
1,−1
,
r
0
= r
_

3
Y
10
,
(4.106)
em que Y
lm
(θ, ϕ) s˜ ao os harmˆ onicos esf´ ericos do Cap´ıtulo 12. Mais uma vez, as componentes esf´ ericas jm dos
tensores T
jm
de ordem mais alta j podem ser introduzidas de modo semelhante.
Um operador tensorial esf´ erico T
jm
irredut´ıvel de ordem j tem 2j + 1 componentes, exatamente como os
harmˆ onicos esf´ ericos e m varia de −j a +j. Sob uma rotac¸ ˜ ao R(α), α representa os ˆ angulos de Euler, os Y
lm
se
transformam em
Y
lm
(ˆr
t
) =

m

Y
lm
(ˆr)D
l
m

m
(R), (4.107a)
onde ˆr
t
= (θ
t
, ϕ
t
) s˜ ao obtidos de ˆr = (θ, ϕ) pela rotac¸ ˜ ao R e s˜ ao os ˆ angulos do mesmo ponto no referencial
rotacionado, e
D
J
m

m
(α, β, γ) = ¸Jm[ exp(iαJ
z
) exp(iβJ
y
) exp(iγJ
z
)[Jm
t
)
s˜ ao as matrizes de rotac¸ ˜ ao. Portanto, para o operador T
jm
, definimos
RT
jm
R
−1
=

m

T
jm
D
j
m

m
(α). (4.107b)
Para uma rotac¸ ˜ ao infinitesimal (veja a Equac¸ ˜ ao (4.20) na Sec¸ ˜ ao 4.2 sobre geradores), o lado esquerdo da
Equac¸ ˜ ao (4.107b) ´ e simplificado para um comutador e o lado direito para os elementos matriciais de J, o gerador
infinitesimal da rotac¸ ˜ ao R:
[J
n
, T
jm
] =

m

T
jm
¸jm
t
[J
n
[jm). (4.108)
Se substituirmos nas Equac¸ ˜ oes (4.83) e (4.84) os elementos matriciais de J
m
, obteremos as leis alternativas de
transformac¸ ˜ ao de um operador tensorial
[J
0
, T
jm
] = mT
jm
, [J
±
, T
jm
] = T
jm±1
_
(j −m)(j ±m+ 1)
_
1/2
. (4.109)
Podemos usar os coeficientes de Clebsch-Gordan da subsec¸ ˜ ao anterior para acoplar dois tensores de uma dada
ordem a uma outra ordem. Um exemplo ´ e o produto externo ou vetorial de dois vetores a e b no Cap´ıtulo 1. Vamos
escrever ambos os vetores em componentes esf´ ericas a
m
e b
m
. Ent˜ ao, verificamos que o tensor C
m
de ordem 1 ´ e
definido como
C
m

m1m2
C(111[m
1
m
2
m)a
m1
b
m2
=
i

2
(a b)
m
. (4.110)
Uma vez que C
m
´ e um tensor esf´ erico de ordem 1, linear nas componentes de a e b, ele deve ser proporcional
ao produto vetorial C
m
= N(a b)
m
. A constante N pode ser determinada a partir de um caso especial,
a = ˆ x, b = ˆ y, em essˆ encia, escrevendo ˆ x ˆ y = ˆ z em componentes esf´ ericas como segue. Usando
(ˆ z)
0
= 1; (ˆ x)
1
= −1/

2, (ˆ x)
−1
= 1/

2;
(ˆ y)
1
= −i/

2, (ˆ y)
−1
= −i/

2,
“livro” — 2007/8/1 — 15:06 — page 207 — #217
4. TEORIA DOS GRUPOS 207
a Equac¸ ˜ ao (4.110) para m = 0 se torna
C(111[1, −1, 0)
_
(ˆ x)
1
(ˆ y)
−1
−(ˆ x)
−1
(ˆ y)
1
¸
= N
_
(ˆ z)
0
_
= N
=
1

2
_

1

2
_

i

2
_

1

2
_

i

2
__
=
i

2
,
em que usamos C(111[101) =
1

2
da Equac¸ ˜ ao (4.103) em lugar de J
1
= 1 = J
2
, o que implica C(111[1, −1, 0) =
1

2
usando as Equac¸ ˜ oes (4.104a,b):
_
1 1 1
1 0 −1
_
= −
1

3
C(111[101) = −
1
6
= −
_
1 1 1
1 −1 0
_
= −
1

3
C(111[1, −1, 0).
Um pouco mais simples ´ e o produto escalar usual de dois vetores no Cap´ıtulo 1, no qual a e b s˜ ao acoplados a
momento angular zero:
a b ≡ −(ab)
0

3 ≡ −

3

m
C(110[m, −m, 0)a
m
b
−m
. (4.111)
Mais uma vez, a ordem zero de nosso produto de tensores implica a b = n(ab)
0
. A constante n pode ser
determinada por um caso especial, em essˆ encia escrevendo ˆ z
2
= 1 em componentes esf´ ericas: ˆ z
2
= 1 =
nC(110[000) = −
n

3
.
Uma outra aplicac¸ ˜ ao de tensores usada com freq¨ uˆ encia ´ e o reacoplamento que envolve s´ımbolos 6j para trˆ es
operadores e 9j para quatro operadores.
12
Umexemplo ´ e o produto escalar seguinte, para o qual se pode demonstrar
que
σ
1

2
r =
1
3
r
2
σ
1
σ
2
+ (σ
1
σ
2
)
2
(rr)
2
, (4.112)
mas que tamb´ em pode ser rearranjado por meios elementares. Aqui, os operadores tensoriais s˜ ao definidos como

1
σ
2
)
2m
=

m1m2
C(112[m
1
m
2
m)σ
1m1
σ
2m2
, (4.113)
(rr)
2m
=

m
C(112[m
1
m
2
m)r
m1
r
m2
=
_

15
r
2
Y
2m
(ˆr), (4.114)
e o produto escalar de tensores de ordem 2 como

1
σ
2
)
2
(rr)
2
=

m
(−1)
m

1
σ
2
)
2m
(rr)
2,−m
=

5
_

1
σ
2
)
2
(rr)
2
_
0
. (4.115)
Uma das aplicac¸ ˜ oes mais importantes de operadores tensoriais esf´ ericos ´ e o teorema de Wigner-Eckart. Esse
teorema diz que um elemento matricial de um operador em tensor esf´ erico T
km
de ordem k entre estados de
momento angular j e j
t
se fatora um coeficiente de Clebsch-Gordan e um denominado elemento de matriz
reduzida, denotado por barras duplas, que n˜ ao tem mais dependˆ encia alguma dos n´ umeros quˆ anticos de projec¸ ˜ ao
m, m
t
, n:
¸j
t
m
t
[T
kn
[jm) = C(kjj
t
[nmm
t
)(−1)
k−j+j

¸j
t
|T
k
|j)/
_
(2j
t
+ 1). (4.116)
Em outras palavras, tais elementos matriciais se fatoram em uma parte dinˆ amica, o elemento de matriz reduzida,
e em uma parte geom´ etrica, o coeficiente de Clebsch-Gordan que cont´ em as propriedades rotacionais (expressas
pelos n´ umeros quˆ anticos de projec¸ ˜ ao) da invariˆ ancia SO(3). Para ver isso, acoplamos T
kn
com o estado inicial ao
momento angular total j
t
:
[j
t
m
t
)
0

nm
C(kjj
t
[nmm
t
)T
kn
[jm). (4.117)
Sob rotac¸ ˜ oes, o estado [j
t
m
t
)
0
se transforma exatamente como [j
t
m
t
). Assim, o elemento da matriz de
sobreposic¸ ˜ ao ¸j
t
m
t
[j
t
m
t
)
0
´ e um escalar rotacional que n˜ ao tem dependˆ encia alguma de m
t
, de modo que podemos
tomar a m´ edia das projec¸ ˜ oes,
¸JM[j
t
m
t
)
0
=
δ
Jj
δ
Mm

2j
t
+ 1

µ
¸j
t
µ[j
t
µ)
0
. (4.118)
“livro” — 2007/8/1 — 15:06 — page 208 — #218
208 F´ısica Matem´ atica Arfken • Weber
Em seguida, substitu´ımos nossa definic¸ ˜ ao, Equac¸ ˜ ao (4.117), na Equac¸ ˜ ao (4.118) e invertemos a relac¸ ˜ ao,
Equac¸ ˜ ao (4.117), usando ortogonalidade, Equac¸ ˜ ao (4.99b), para constatar que
¸JM[T
kn
[jm) =

j

m

C(kjj
t
[nmm
t
)
δ
Jj
δ
Mm

2J + 1

µ
¸Jµ[Jµ)
0
, (4.119)
o que prova o teorema de Wigner-Eckart, Equac¸ ˜ ao (4.116).
13
Como aplicac¸ ˜ ao, podemos escrever os elementos das matrizes de Pauli em termos dos coeficientes de Clebsch-
Gordan. Aplicamos o teorema de Wigner-Eckart a
¸
1
2
γ
¸
¸
σ
α
¸
¸
1
2
β
_
= (σ
α
)
γβ
= −
1

2
C
_
1
1
2
1
2
¸
¸
αβγ

1
2
_
_
σ
_
_
1
2
_
. (4.120)
Visto que ¸
1
2
1
2

0
[
1
2
1
2
) = 1 com σ
0
= σ
3
e C(1
1
2
1
2
[ 0
1
2
1
2
) = −1/

3, encontramos
¸
1
2
_
_
σ
_
_
1
2
_
=

6, (4.121)
que, substitu´ıdo na Equac¸ ˜ ao (4.120), resulta em

α
)
γβ
= −

3C
_
1
1
2
1
2
¸
¸
αβγ
_
. (4.122)
Note que o α = ±1, 0 denota as componentes esf´ ericas das matrizes de Pauli.
Tableaux de Young para SU(n)
Os Tableaux de Young (TY) fornecem um m´ etodo poderoso e elegante para decompor produtos de representac¸ ˜ oes
de grupo SU(n) em somas de representac¸ ˜ oes irredut´ıveis. Os TY d˜ ao as dimens˜ oes e os tipos de simetria das
representac¸ ˜ oes irredut´ıveis nessa denominada s´ erie de Clebsch-Gordan, embora n˜ ao dˆ eem os coeficientes de
Clebsch-Gordan pelos quais os estados de produto s˜ ao acoplados aos n´ umeros quˆ anticos de cada representac¸ ˜ ao
irredut´ıvel das s´ eries (veja a Equac¸ ˜ ao (4.94)).
Produtos de representac¸ ˜ oes correspondem a estados de multipart´ıculas. Neste contexto, permutac¸ ˜ oes de
part´ıculas s˜ ao importantes quando tratamos com diversas part´ıculas idˆ enticas. Permutac¸ ˜ oes de n objetos idˆ enticos
formam o grupo sim´ etrico S
n
. Uma conex˜ ao pr´ oxima entre representac¸ ˜ oes irredut´ıveis de S
n
, que s˜ ao os TY, e as
dos SU(n), ´ e dada por este teorema: todo estado de N part´ıcula de S
n
que ´ e composto de estados de uma ´ unica
part´ıcula do multipleto fundamental n dimensional SU(n) pertence a uma representac¸ ˜ ao irredut´ıvel SU(n). Uma
prova est´ a no Cap´ıtulo 22 de Wybourne
14
.
Para SU(2) a representac¸ ˜ ao fundamental ´ e uma caixa que representa os estados de spin +
1
2
(para cima) e −
1
2
(para baixo) e tem dimens˜ ao 2. Para SU(3) a caixa compreende os trˆ es estados de quark no triˆ angulo da Figura 4.5a;
tem dimens˜ ao 3.
Um arranjo de caixas mostrado na Figura 4.8 com λ
1
caixas na primeira linha, λ
2
caixas na segunda linha, . . . ,
e λ
n−1
caixas na ´ ultima linha ´ e denominado tableau de Young (TY), denotado por [λ
1
, . . . , λ
n−1
], e representa
uma representac¸ ˜ ao irredut´ıvel de SU(n) se, e somente se,
λ
1
≥ λ
2
≥ ≥ λ
n−1
. (4.123)
Caixas na mesma linha s˜ ao representac¸ ˜ oes sim´ etricas; as que est˜ ao na mesma coluna s˜ ao anti-sim´ etricas. Um TY
de apenas uma linha ´ e totalmente sim´ etrico. Um TY de uma ´ unica coluna ´ e totalmente anti-sim´ etrico.
H´ a no m´ aximo n − 1 linhas para o TY de SU(n) porque uma coluna de n caixas ´ e a representac¸ ˜ ao totalmente
anti-sim´ etrica do singleto (determinante de Slater de estados de uma part´ıcula ´ unica) que pode ser eliminado de
TY.
Um arranjo de N caixas ´ e um estado de N part´ıculas cujas caixas podem ser rotuladas por inteiros positivos,
de modo que os n´ umeros (ou r´ otulos de part´ıculas) em uma linha do TY n˜ ao diminuem da esquerda para a direita
e os de qualquer uma coluna aumentam de cima para baixo. Ao contr´ ario das poss´ıveis repetic¸ ˜ oes de n´ umeros de
linhas, os n´ umeros em qualquer coluna devem ser diferentes por causa da anti-simetria desses estados.
O produto de um TY com uma ´ unica caixa [1] ´ e a soma do TY formado quando a caixa ´ e colocada no final de
cada linha do TY, contanto que o TY resultante seja leg´ıtimo, isto ´ e, obedec¸a ` a Equac¸ ˜ ao (4.123). Para SU(2), o
produto de duas caixas, representac¸ ˜ oes de spin 1/2 de dimens˜ ao 2, gera
[1] ⊗[1] = [2] ⊕[1, 1], (4.124)
13
O fator extra (−1)
k−j+j

/
p
(2j

+ 1) na Equac¸ ˜ ao (4.116) ´ e apenas uma convenc¸ ˜ ao que varia na literatura.
14
B.G. Wybourne Classical Groups for Physicists. Nova York: Wiley (1974).
“livro” — 2007/8/1 — 15:06 — page 209 — #219
4. TEORIA DOS GRUPOS 209
Figura 4.8: Tableau de Young (TY) para SU(n).
(a) (b)
Figura 4.9: Ilustrac¸ ˜ ao de (a) N e (b) D na Equac¸ ˜ ao (4.125) para o octeto de SU(3) no tableau de Young.
a representac¸ ˜ ao sim´ etrica de spin 1 de dimens˜ ao 3 e o singleto anti-sim´ etrico de dimens˜ ao 1 mencionado antes.
A coluna de n − 1 caixas ´ e a representac¸ ˜ ao conjugada da representac¸ ˜ ao fundamental; seu produto com uma
´ unica caixa cont´ em a coluna de n caixas, que ´ e o singleto. Para SU(3), a representac¸ ˜ ao conjugada da caixa ´ unica
[1] ou representac¸ ˜ ao fundamental de quark ´ e o triˆ angulo invertido na Figura 4.5b, [1, 1], que representa os trˆ es
antiquarks ¯ u,
¯
d, ¯ s, obviamente tamb´ em de dimens˜ ao 3.
A dimens˜ ao de um TY ´ e dada pela raz˜ ao
dimTY =
N
D
. (4.125)
O numerador N ´ e obtido escrevendo um n em todas as caixas do TY ao longo da diagonal (n + 1) em todas
as caixas imediatamente acima da diagonal (n − 1), imediatamente abaixo da diagonal etc. N ´ e o produto de
todos os n´ umeros no TY. A Figura 4.9a mostra um exemplo para a representac¸ ˜ ao em octeto de SU(3), em que
N = 2 3 4 = 24. H´ a uma f´ ormula fechada que ´ e equivalente ` a Equac¸ ˜ ao (4.125).
15
O denominador D ´ e o produto
de todos os ganchos.
16
Desenhamos um gancho atrav´ es de cada caixa do TY comec¸ando por uma linha horizontal
que parte da direita da caixa em quest˜ ao e ent˜ ao continua na vertical fora do TY. O n´ umero de caixas atravessadas
pela linha do gancho ´ e o n´ umero de gancho da caixa. D ´ e o produto de todos os n´ umeros de gancho do TY. A
Figura 4.9b mostra um exemplo de octeto de SU(3), cujo n´ umero de gancho ´ e D = 1 3 1 = 3. Por conseguinte,
a dimens˜ ao do octeto de SU(3) ´ e 24/3 = 8, da´ı seu nome.
Agora podemos calcular as dimens˜ oes do TY na Equac¸ ˜ ao (4.124). Para SU(2), elas s˜ ao 22 = 3+1 = 4. Para
SU(3), s˜ ao 3 3 = 3 4/(1 2) +3 2/(2 1) = 6 +3 = 9. Para o produto do TY de SU(3) quark vezes antiquark
obtemos
[1, 1] ⊗[1] = [2, 1] ⊕[1, 1, 1], (4.126)
isto ´ e, octeto e singleto, que s˜ ao precisamente os multipletos de m´ esons considerados na subsec¸ ˜ ao sobre o caminho
´ octuplo, a simetria de sabor SU(3) que sugere que m´ esons s˜ ao estados ligados de um quark e um antiquark,
15
Veja, por exemplo, M. Hamermesh, Group Theory and Its Application to Physical Problems. Reading, MA: Addison-Wesley (1962).
16
F. Close, Introduction to Quarks and Partons. Nova York: Academic Press (1979).
“livro” — 2007/8/1 — 15:06 — page 210 — #220
210 F´ısica Matem´ atica Arfken • Weber
configurac¸ ˜ oes q¯ q. Para o produto de trˆ es quarks obtemos
_
[1] ⊗[1]
_
⊗[1] =
_
[2] ⊕[1, 1]
_
⊗[1] = [3] ⊕2[2, 1] ⊕[1, 1, 1], (4.127)
isto ´ e, decupleto, octeto e singleto, que s˜ ao os multipletos observados para os b´ arions, que sugerem que eles s˜ ao
estados ligados de trˆ es quarks, configurac¸ ˜ oes qqq.
Como vimos, TY descreve a decomposic¸ ˜ ao de um produto de representac¸ ˜ oes irredut´ıveis de SU(n) em
representac¸ ˜ oes irredut´ıveis de SU(n), que ´ e denominada s´ erie de Clebsch-Gordan, enquanto os coeficientes de
Clebsch-Gordan considerados antes permitem a construc¸ ˜ ao dos estados individuais nessa s´ erie.
Exerc´ıcios
4.4.1 Derive relac¸ ˜ oes de recorrˆ encia para coeficientes de Clebsch-Gordan. Use-as para calcular
C(11J[m
1
m
2
M) para J = 0, 1, 2.
Sugest˜ ao: Use os elementos de matriz conhecidos de J
+
= J
1+
+J
2+
, J
i+
, e J
2
= (J
1
+J
2
)
2
etc.
4.4.2 Mostre que (Y
l
χ)
J
M
=

C(l
1
2
J[m
l
m
s
M)Y
lml
χ
ms
, em que χ
±1/2
s˜ ao as autofunc¸ ˜ oes de spin
para cima e para baixo de σ
3
= σ
z
, se transformam como um tensor esf´ erico de ordem J.
4.4.3 Quando o spin de quarks ´ e levado em conta, a simetria de sabor SU(3) ´ e substitu´ıda pela simetria
SU(6) Por quˆ e? Obtenha o tableau de Young para a configurac¸ ˜ ao de antiquark ¯ q. Ent˜ ao decomponha
o produto q¯ q. Quais representac¸ ˜ oes de SU(3) est˜ ao contidas na representac¸ ˜ ao n˜ ao trivial de SU(6)
para m´ esons?
Sugest˜ ao: Determine as dimens˜ oes de todos os TY.
4.4.4 Para l = 1, a Equac¸ ˜ ao (4.107a) se torna
Y
m
1

t
, ϕ
t
) =
1

m

=−1
D
1
m

m
(α, β, γ)Y
m

1
(θ, ϕ).
Reescreva esses harmˆ onicos esf´ ericos em forma cartesiana. Mostre que as equac¸ ˜ oes de coordenadas
cartesianas resultantes s˜ ao equivalentes ` a matriz de rotac¸ ˜ ao de Euler A(α, β, γ), Equac¸ ˜ ao (3.94),
rotacionando as coordenadas.
4.4.5 Admitindo que D
j
(α, β, γ) ´ e unit´ ario, mostre que
l

m=−l
Y
m∗
l

1
, ϕ
1
)Y
m
l

2
, ϕ
2
)
´ e uma quantidade escalar (invariante sob rotac¸ ˜ oes ). Esse ´ e um tensor esf´ erico an´ alogo a um produto
escalar de vetores.
4.4.6 (a) Mostre que a dependˆ encia α e γ de D
j
(α, β, γ) pode ser eliminada por fatorac¸ ˜ ao, de modo que
D
j
(α, β, γ) = A
j
(α)d
j
(β)C
j
(γ).
(b) Mostre que A
j
(α) e C
j
(γ) s˜ ao diagonais. Ache as formas expl´ıcitas.
(c) Mostre que d
j
(β) = D
j
(0, β, 0).
4.4.7 A forma de m exponencial de momento angular dos operadores de rotac¸ ˜ ao do ˆ angulo de Euler ´ e
R = R
z
(γ)R
y
(β)R
z
(α)
= exp(−iγJ
z
) exp(−iβJ
y
) exp(−iαJ
z
).
Mostre que em termos dos eixos originais
R = exp(iαJ
z
) exp(−iβJ
y
) exp(−iγJ
z
).
Sugest˜ ao: Os operadores R se transformam como matrizes. A rotac¸ ˜ ao ao redor do eixo y
t
(segunda
rotac¸ ˜ ao de Euler) pode ser referida ao eixo y original por
exp(−iβJ
y
) = exp(−iαJ
z
) exp(−iβJ
y
) exp(iαJ
z
).
“livro” — 2007/8/1 — 15:06 — page 211 — #221
4. TEORIA DOS GRUPOS 211
4.4.8 Usando o teorema de Wigner-Eckart, prove o teorema da decomposic¸ ˜ ao para um operador de vetor
esf´ erico ¸j
t
m
t
[T
1m
[jm) =
¸jm

]JT1]jm)
j(j+1)
δ
jj
.
4.4.9 Usando o teorema de Wigner-Eckart, prove a
¸j
t
m
t
[J
M
J T
1
[jm) = ¸jm
t
[J
M
[jm)δ
j

j
¸jm[J T
1
[jm).
4.5 Grupo Homogˆ eneo de Lorentz
Generalizando a abordagem de vetores da Sec¸ ˜ ao 1.2, em relatividade especial exigimos que nossas leis da f´ısica
sejam covariantes
17
sob
a. translac¸ ˜ oes do espac¸o e do tempo,
b. rotac¸ ˜ oes no espac¸o real, tridimensional e
c. transformac¸ ˜ oes de Lorentz.
A exigˆ encia de covariˆ ancia sob translac¸ ˜ oes ´ e baseada na homogeneidade do espac¸o e do tempo. Covariˆ ancia sob
rotac¸ ˜ oes ´ e uma asserc¸ ˜ ao da isotropia de espac¸o. O requisito de covariˆ ancia de Lorentz vem da relatividade especial.
Todas essas trˆ es transformac¸ ˜ oes juntas formam o grupo n˜ ao-homogˆ eneo de Lorentz ou o grupo de Poincar´ e.
Quando exclu´ıdas as translac¸ ˜ oes, as rotac¸ ˜ oes no espac¸o e a transformac¸ ˜ ao de Lorentz juntas formam um grupo
— o grupo homogˆ eneo de Lorentz.
Em primeiro lugar, geramos um subgrupo, as transformac¸ ˜ oes de Lorentz nas quais a velocidade relativa v
est´ a ao longo do eixo x = x
1
. O gerador pode ser determinado considerando sistemas de referˆ encia espac¸o-
temporais movimentando-se com uma velocidade relativa δv, um infinit´ esimo.
18
As relac¸ ˜ oes s˜ ao similares ` aquelas
para rotac¸ ˜ oes no espac¸o real, Sec¸ ˜ oes 1.2, 2.6 e 3.3, exceto que, aqui, o ˆ angulo de rotac¸ ˜ ao ´ e imagin´ ario puro
(compare com a Sec¸ ˜ ao 4.6).
Transformac¸ ˜ oes de Lorentz s˜ ao lineares n˜ ao somente nas coordenadas espaciais x
i
mas tamb´ em no tempo t.
Elas se originam das equac¸ ˜ oes de Maxwell da eletrodinˆ amica, que s˜ ao invariantes sob transformac¸ ˜ oes de Lorentz,
como veremos mais adiante. Transformac¸ ˜ oes de Lorentz deixam a forma quadr´ atica c
2
t
2
− x
2
1
− x
2
2
− x
2
3
=
x
2
0
−x
2
1
−x
2
2
−x
2
3
invariante, em que x
0
= ct. Vemos isso se acendermos uma fonte de luz na origem do sistema
de coordenadas. No tempo t, a luz viajou a distˆ ancia ct =
_
x
2
i
, portanto c
2
t
2
− x
2
1
− x
2
2
− x
2
3
= 0. A
relatividade especial requer que em todos os sistemas (inerciais) que se movimentam com velocidade v ≤ c em
qualquer direc¸ ˜ ao relativa ao sistema x
i
e tˆ em a mesma origem no tempo t = 0, c
2
t
t 2
−x
t 2
1
−x
t 2
2
−x
t 2
3
= 0 tamb´ em
seja v´ alida. Um espac¸o-tempo quadridimensional com a m´ etrica x x = x
2
= x
2
0
− x
2
1
− x
2
2
− x
2
3
´ e denominado
espac¸o de Minkowski, com o produto escalar de dois quadrivetores definido como a b = a
0
b
0
−a b. Usando o
tensor m´ etrico,
(g
µν
) =
_
g
µν
_
=
_
_
_
_
_
_
1 0 0 0
0 −1 0 0
0 0 −1 0
0 0 0 −1
_
_
_
_
_
_
, (4.128)
podemos elevar e abaixar os ´ındices de um quadrivetor, tal como as coordenadas x
µ
= (x
0
, x), de modo que
x
µ
= g
µν
x
ν
= (x
0
, −x) e x
µ
g
µν
x
ν
= x
2
0
− x
2
, ficando subentendida a convenc¸ ˜ ao da soma de Einstein. Para o
gradiente, ∂
µ
= (∂/∂x
0
, −∇) = ∂/∂x
µ
e ∂
µ
= (∂/∂x
0
, ∇), portanto, ∂
2
= ∂
µ

µ
= (∂/∂x
0
)
2
− ∇
2
´ e um
escalar de Lorentz, exatamente como a m´ etrica x
2
= x
2
0
−x
2
.
Para v ¸ c, no limite n˜ ao-relativista, uma transformac¸ ˜ ao de Lorentz deve ser galileana. Por conseguinte, para
derivar a forma de uma transformac¸ ˜ ao de Lorentz ao longo do eixo x
1
, comec¸amos com uma transformac¸ ˜ ao
galileana para a velocidade relativa infinitesimal δv:
x
t 1
= x
1
−δvt = x
1
−x
0
δβ. (4.129)
Aqui, β = v/c. Por simetria, escrevemos tamb´ em
x
t 0
= x
0
+aδβx
1
, (4.129
t
)
escolhendo o parˆ ametro a, de modo que x
2
0
−x
2
1
seja invariante,
x
t 2
0
−x
t 2
1
= x
2
0
−x
2
1
. (4.130)
17
Ser covariante significa ter a mesma forma em sistemas coordenados diferentes, de modo que n˜ ao h´ a um sistema de referˆ encia preferido
(compare com as Sec¸ ˜ oes 1.2 e 2.6).
18
Essa derivac¸ ˜ ao, com uma m´ etrica ligeiramente diferente, aparece em um artigo de J. L. Strecker, Am. J. Phys. 35: 12 (1967).
“livro” — 2007/8/1 — 15:06 — page 212 — #222
212 F´ısica Matem´ atica Arfken • Weber
Lembre-se de que x
µ
= (x
0
, x) ´ e o vetor prot ´ otipo quadridimensional no espac¸o de Minkowski. Assim,
a Equac¸ ˜ ao (4.130) ´ e uma simples declarac¸ ˜ ao da invariˆ ancia do quadrado da grandeza do vetor “distˆ ancia”
sob transformac¸ ˜ ao de Lorentz no espac¸o de Minkowski.
´
E aqui que a relatividade especial entra em nossa
transformac¸ ˜ ao. Elevando ao quadrado e subtraindo as Equac¸ ˜ oes (4.129) e (4.129
t
) e descartando os termos de
ordem (δβ)
2
, encontramos a = −1. As Equac¸ ˜ oes (4.129) e (4.129’) podem ser combinadas como uma equac¸ ˜ ao
matricial
_
x
t 0
x
t 1
_
= (1
2
−δβσ
1
)
_
x
0
x
1
_
; (4.131)
por acaso, σ
1
´ e a matriz de Pauli, σ
1
, e o parˆ ametro δβ representa uma alterac¸ ˜ ao infinitesimal. Usando as mesmas
t´ ecnicas da Sec¸ ˜ ao 4.2, repetimos a transformac¸ ˜ ao N vezes para desenvolver uma transformac¸ ˜ ao finita com o
parˆ ametro de velocidade ρ = Nδβ. Ent˜ ao,
_
x
t 0
x
t 1
_
=
_
1
2

ρσ
1
N
_
N
_
x
0
x
1
_
. (4.132)
No limite, ` a medida que N →∞,
lim
N→∞
_
1
2

ρσ
1
N
_
N
= exp(−ρσ
1
). (4.133)
Assim como na Sec¸ ˜ ao 4.2, a exponencial ´ e interpretada por uma expans˜ ao de Maclaurin,
exp(−ρσ
1
) = 1
2
−ρσ
1
+
1
2!
(ρσ
1
)
2

1
3!
(ρσ
1
)
3
+ . (4.134)
Notando que (σ
1
)
2
= 1
2
,
exp(−ρσ
1
) = 1
2
cosh ρ −σ
1
sinh ρ. (4.135)
Por conseq¨ uˆ encia, nossa transformac¸ ˜ ao finita de Lorentz ´ e
_
x
t 0
x
t 1
_
=
_
cosh ρ −senh ρ
−senh ρ cosh ρ
__
x
0
x
1
_
. (4.136)
σ
1
gerou as representac¸ ˜ oes dessa transformac¸ ˜ ao de Lorentz pura. As quantidades cosh ρ e senhρ podem ser
identificadas considerando a origem do sistema de coordenadas “com linha”, x
t 1
= 0 ou x
1
= vt. Substituindo na
Equac¸ ˜ ao (4.136), temos
0 = x
1
cosh ρ −x
0
senh ρ. (4.137)
Com x
1
= vt and x
0
= ct,
tgh ρ = β =
v
c
.
Note a rapidez ρ ,= v/c, exceto no limite com que v → 0. A rapidez ´ e o parˆ ametro aditivo para a transformac¸ ˜ ao
de Lorentz puras (“boosts”) ao longo do mesmo eixo que corresponde a ˆ angulos para rotac¸ ˜ oes ao redor do mesmo
eixo. Usando 1 −tgh
2
ρ = (cosh
2
ρ)
−1
,
cosh ρ =
_
1 −β
2
_
−1/2
≡ γ, senh ρ = βγ. (4.138)
O grupo de transformac¸ ˜ oes de Lorentz n˜ ao ´ e compacto, porque o limite de uma seq¨ uˆ encia de rapidez que tende ao
infinito n˜ ao ´ e mais um elemento do grupo.
O caso especial precedente da velocidade paralela a um eixo do espac¸o ´ e f´ acil, mas ilustra a t´ ecnica por
exponenciac¸ ˜ ao dos geradores das transformac¸ ˜ oes infinitesimais de velocidade. Agora, esta t´ ecnica exata pode ser
aplicada para derivar a transformac¸ ˜ ao de Lorentz para a velocidade relativa v n˜ ao-paralela a qualquer eixo do
espac¸o. As matrizes dadas pela Equac¸ ˜ ao (4.136) para o caso de v = ˆ xv
x
formam um subgrupo. As matrizes no
caso geral, n˜ ao. O produto de duas matrizes de transformac¸ ˜ ao de Lorentz L(v
1
) e L(v
2
) resulta em uma terceira
matriz de Lorentz, L(v
3
), se as duas velocidades v
1
e v
2
foremparalelas. Avelocidade resultante, v
3
, ´ e relacionada
com v
1
e v
2
pela lei da adic¸ ˜ ao de velocidade de Einstein, Exerc´ıcio 4.5.3. Se v
1
e v
2
n˜ ao forem paralelas, essa
relac¸ ˜ ao simples n˜ ao existe. Especificamente, considere trˆ es referenciais S, S
t
e S
tt
, com S e S
t
relacionados por
“livro” — 2007/8/1 — 15:06 — page 213 — #223
4. TEORIA DOS GRUPOS 213
L(v
1
) e S
t
e S
tt
relacionados por L(v
2
). Se a velocidade de S
tt
relativa ao sistema original S ´ e v
3
, S
tt
n˜ ao ´ e obtida
de S por L(v
3
) = L(v
2
)L(v
1
). Em vez disso, constatamos que
L(v
3
) = RL(v
2
)L(v
1
), (4.139)
em que R ´ e uma matriz 3 3 de rotac¸ ˜ ao no espac¸o inserida em nosso espac¸o-tempo quadridimensional. Com v
1
e v
2
n˜ ao-paralelas, o sistema final, S
tt
, ´ e rotacionado em relac¸ ˜ ao a S. Essa rotac¸ ˜ ao ´ e a origem da precess˜ ao de
Thomas envolvida em termos de acoplamento spin-´ orbita em f´ısica atˆ omica e nuclear. Por causa de sua presenc¸a,
as transformac¸ ˜ oes de Lorentz puras L(v) por si s´ os n˜ ao formam um grupo.
Cinem´ atica e Dinˆ amica em Espac¸o-Tempo de Minkowski
Vimos que a propagac¸ ˜ ao da luz determina a m´ etrica
r
2
−c
2
t
2
= 0 = r
t 2
−c
2
t
t 2
,
em que x
µ
= (ct, r) ´ e o quadrivetor de coordenadas. Para uma part´ıcula que se movimenta com velocidade v, a
vers˜ ao infinitesimal invariante de Lorentz
c dτ ≡
_
dx
µ
dx
µ
=
_
c
2
dt
2
−dr
2
= dt
_
c
2
−v
2
define o tempo pr´ oprio invariante τ em sua trajet ´ oria. Por causa da dilac¸ ˜ ao do tempo em referenciais em
movimento, um rel ´ ogio de tempo real acompanha a part´ıcula (no seu referencial de repouso) e funciona ` a menor
taxa poss´ıvel em comparac¸ ˜ ao com a de qualquer outro referencial inercial (um observador, por exemplo). A
quadrivelocidade da part´ıcula agora pode ser adequadamente definida como
dx
µ

= u
µ
=
_
c

c
2
−v
2
,
v

c
2
−v
2
_
,
portanto, u
2
= 1, e o quadrimomento p
µ
= cmu
µ
= (
E
c
, p) resulta na famosa relac¸ ˜ ao de energia de Einstein
E =
mc
2
_
1 −v
2
/c
2
= mc
2
+
m
2
v
2
± .
Uma conseq¨ uˆ encia de u
2
= 1 e seu significado f´ısico ´ e que a part´ıcula est´ a sobre sua camada de massa p
2
= m
2
c
2
.
Agora formulamos a equac¸ ˜ ao de Newton para uma part´ıcula ´ unica de massa m em relatividade especial como
dp
µ

= K
µ
, sendo que K
µ
denota o quadrivetor forc¸a, portanto sua parte vetorial da equac¸ ˜ ao coincide com a forma
usual. Para µ = 1, 2, 3 usamos dτ = dt
_
1 −v
2
/c
2
e encontramos
1
_
1 −v
2
/c
2
dp
dt
=
F
_
1 −v
2
/c
2
= K,
que determina K em termos da forc¸a usual F. Precisamos achar K
0
. Prosseguimos por analogia com a derivac¸ ˜ ao
de conservac¸ ˜ ao de energia, multiplicando a equac¸ ˜ ao de forc¸a na quadrivelocidade
mu
ν
du
ν

=
m
2
du
2

= 0,
porque u
2
= 1 = constante. O outro lado da equac¸ ˜ ao de Newton resulta em
0 =
1
c
u K =
K
0
_
1 −v
2
/c
2

F v/c
_
1 −v
2
/c
2
2
,
portanto, K
0
=
Fv/c

1−v
2
/c
2
´ e relacionada ` a taxa de trabalho realizado pela forc¸a sobre a part´ıcula.
Agora abordamos colis˜ oes de dois corpos, nas quais a conservac¸ ˜ ao de energia-momento toma a forma p
1
+p
2
=
p
3
+ p
4
, em que p
µ
i
s˜ ao os quadrimomentos das part´ıculas. Como o produto escalar de qualquer quadrivetor por
ele pr´ oprio ´ e invariante sob transformac¸ ˜ oes de Lorentz, ´ e conveniente definir a energia invariante de Lorentz ao
quadrado, s = (p
1
+ p
2
)
2
= P
2
, em que P
µ
´ e o quadrimomento total, e usar unidades em que a velocidade da
luz c = 1. O sistema de laborat´ orio (lab) ´ e definido como a estrutura de repouso da part´ıcula com quadrimomento
“livro” — 2007/8/1 — 15:06 — page 214 — #224
214 F´ısica Matem´ atica Arfken • Weber
p
µ
2
= (m
2
, 0) e referencial do centro de momento (cms) ´ e definido pelo quadrimomento total P
µ
= (E
1
+E
2
, 0).
Quando a energia incidente de lavorat ´ orio E
L
1
´ e dada, ent˜ ao
s = p
2
1
+p
2
2
+ 2p
1
p
2
= m
2
1
+m
2
2
+ 2m
2
E
L
1
´ e determinada. Agora, as energias cms das quatro part´ıculas s˜ ao obtidas de produtos escalares
p
1
P = E
1
(E
1
+E
2
) = E
1

s,
portanto,
E
1
=
p
1
(p
1
+p
2
)

s
=
m
2
1
+p
1
p
2

s
=
m
2
1
−m
2
2
+s
2

s
,
E
2
=
p
2
(p
1
+p
2
)

s
=
m
2
2
+p
1
p
2

s
=
m
2
2
−m
2
1
+s
2

s
,
E
3
=
p
3
(p
3
+p
4
)

s
=
m
2
3
+p
3
p
4

s
=
m
2
3
−m
2
4
+s
2

s
,
E
4
=
p
4
(p
3
+p
4
)

s
=
m
2
4
+p
3
p
4

s
=
m
2
4
−m
2
3
+s
2

s
,
por substituic¸ ˜ ao de
2p
1
p
2
= s −m
2
1
−m
2
2
, 2p
3
p
4
= s −m
2
3
−m
2
4
.
Assim, todas as energias cms E
i
dependem somente da energia incidente, mas n˜ ao do ˆ angulo de dispers˜ ao. Para
espalhamento el´ astico, m
3
= m
1
, m
4
= m
2
, portanto E
3
= E
1
, E
4
= E
2
. A transferˆ encia de momento invariante
de Lorentz ao quadrado
t = (p
1
−p
3
)
2
= m
2
1
+m
2
3
−2p
1
p
3
depende linearmente do co-seno do ˆ angulo de espalhamento.
Exemplo 4.5.1 DECAIMENTO DO K´ AON E LIMIAR DE FOTOPRODUC¸ ˜ AO DE P´ION
Ache as energias cin´ eticas do m´ uon de massa 106 MeV e neutrino sem massa no qual um m´ eson K de massa
494 MeV decai em seu referencial de repouso.
A conservac¸ ˜ ao de energia e momento d´ a m
K
= E
µ
+E
ν
=

s. A aplicac¸ ˜ ao da cinem´ atica relativista descrita
anteriormente resulta em
E
µ
=
p
µ
(p
µ
+p
ν
)
m
K
=
m
2
µ
+p
µ
p
ν
m
K
,
E
ν
=
p
ν
(p
µ
+p
ν
)
m
K
=
p
µ
p
ν
m
K
.
Combinando ambos os resultados, obtemos m
2
K
= m
2
µ
+ 2p
µ
p
ν
, portanto
E
µ
= T
µ
+m
µ
=
m
2
K
+m
2
µ
2m
K
= 258, 4 MeV,
E
ν
= T
ν
=
m
2
K
−m
2
µ
2m
K
= 235, 6 MeV.
Como outro exemplo, na produc¸ ˜ ao de um p´ıon neutro por um f´ oton incidente de acordo com γ +p →π
0
+p
t
no
limiar, o p´ıon neutro e o pr´ oton s˜ ao criados em repouso no cms. Por conseguinte,
s = (p
γ
+p)
2
= m
2
p
+ 2m
p
E
L
γ
= (p
π
+p
t
)
2
= (m
π
+m
p
)
2
,
portanto, E
L
γ
= m
π
+
m
2
π
2mp
= 144.7 MeV.
“livro” — 2007/8/1 — 15:06 — page 215 — #225
4. TEORIA DOS GRUPOS 215
Exerc´ıcios
4.5.1 Duas transformac¸ ˜ oes de Lorentz s˜ ao executadas em sucess˜ ao: v
1
ao longo do eixo x e em seguida
v
2
ao longo do eixo y. Mostre que a transformac¸ ˜ ao resultante (dada pelo produto dessas duas
transformac¸ ˜ oes sucessivas) n˜ ao pode ser colocada na forma de uma ´ unica transformac¸ ˜ ao de
Lorentz.
Nota: A discrepˆ ancia corresponde a uma rotac¸ ˜ ao.
4.5.2 Derive novamente a transformac¸ ˜ ao de Lorentz, trabalhando inteiramente no espac¸o real
(x
0
, x
1
, x
2
, x
3
) com x
0
= x
0
= ct. Mostre que a transformac¸ ˜ ao de Lorentz pode ser escrita como
L(v) = exp(ρσ), sendo
σ =
_
_
_
_
_
_
0 −λ −µ −ν
−λ 0 0 0
−µ 0 0 0
−ν 0 0 0
_
_
_
_
_
_
e λ, µ, ν s˜ ao os co-senos diretores da velocidade v.
4.5.3 Usando a relac¸ ˜ ao matricial, Equac¸ ˜ ao (4.136), seja a rapidez ρ
1
relacionada aos referenciais de
Lorentz (x
t 0
, x
t 1
) e (x
0
, x
1
). Seja ρ
2
relacionada a (x
tt 0
, x
tt 1
) e (x
t 0
, x
t 1
). Por fim, seja ρ
relacionada a (x
tt 0
, x
tt 1
) e (x
0
, x
1
). Por ρ = ρ
1
+ ρ
2
derive a lei da adic¸ ˜ ao de velocidade de
Einstein
v =
v
1
+v
2
1 +v
1
v
2
/c
2
.
4.6 Covari ˆ ancia de Lorentz de Equac¸ ˜ oes de Maxwell
Se uma lei f´ısica deve ser v´ alida para todas as orientac¸ ˜ oes de nossas coordenadas (reais) — isto ´ e, deve ser
invariante sob rotac¸ ˜ oes —, os termos da equac¸ ˜ ao devem ser covariantes sob rotac¸ ˜ oes (Sec¸ ˜ oes 1.2 e 2.6). Isso quer
dizer que escrevemos as leis da f´ısica na forma matem´ atica escalar = escalar, vetor = vetor, tensor de segunda
ordem = tensor de segunda ordem, e assim por diante. De modo semelhante, se uma lei da f´ısica deve ser v´ alida
para todos os sistemas inerciais, os termos da equac¸ ˜ ao devem ser covariantes sob transformac¸ ˜ oes de Lorentz.
Usando o espac¸o de Minkowski (ct = x
0
; x = x
1
, y = x
2
, z = x
3
), temos um espac¸o quadridimensional com a
m´ etrica g
µν
(Equac¸ ˜ ao (4.128), Sec¸ ˜ ao 4.5). As transformac¸ ˜ oes de Lorentz s˜ ao lineares no espac¸o e no tempo nesse
espac¸o real quadridimensional.
19
Aqui, consideramos equac¸ ˜ oes de Maxwell,
∇E = −
∂B
∂t
, (4.140a)
∇H =
∂D
∂t
+ρv, (4.140b)
∇ D = ρ, (4.140c)
∇ B = 0, (4.140d)
e as relac¸ ˜ oes
D = ε
0
E, B = µ
0
H. (4.141)
Os s´ımbolos tˆ em seus significados usuais como dados na Sec¸ ˜ ao 1.9. Por simplicidade, admitimos o v´ acuo (ε = ε
0
,
µ = µ
0
).
Admitimos que as equac¸ ˜ oes de Maxwell s˜ ao v´ alidas em todos os sistemas inerciais; isto ´ e, as equac¸ ˜ oes de
Maxwell s˜ ao consistentes com a relatividade especial. (Na verdade, a covariˆ ancia das equac¸ ˜ oes de Maxwell
sob transformac¸ ˜ oes de Lorentz foi demonstrada por Lorentz e Poincar´ e antes de Einstein propor sua teoria da
relatividade especial. Nosso objetivo imediato ´ e reescrever as equac¸ ˜ oes de Maxwell como equac¸ ˜ oes de tensores
em um espac¸o de Minkowski. Isso far´ a com que a covariˆ ancia de Lorentz fique expl´ıcita ou evidente.
19
Uma derivac¸ ˜ ao te´ orica de grupo da transformac¸ ˜ ao de Lorentz em espac¸o de Minkowski aparece na Sec¸ ˜ ao 4.5. Veja tamb´ em H. Goldstein,
Classical Mechanics. Cambridge, MA: Addison-Wesley (1951), Cap´ıtulo 6. A equac¸ ˜ ao m´ etrica x
2
0
− x
2
= 0, independente do referencial,
leva ` as transformac¸ ˜ oes de Lorentz.
“livro” — 2007/8/1 — 15:06 — page 216 — #226
216 F´ısica Matem´ atica Arfken • Weber
Em termos de um escalar, ϕ, e potenciais vetores magn´ eticos, A, podemos resolver
20
a Equac¸ ˜ ao (4.140d) e
ent˜ ao (4.140a) por
B = ∇A
E = −
∂A
∂t
−∇ϕ. (4.142)
A Equac¸ ˜ ao (4.142) especifica o rotacional de A; a divergˆ encia de A ainda ´ e indefinida (compare com a Sec¸ ˜ ao
1.16). Podemos, e assim o faremos para conveniˆ encia futura, impor mais uma restric¸ ˜ ao de calibre ao potencial
vetorial A:
∇ A+ε
0
µ
0
∂ϕ
∂t
= 0. (4.143)
Esta ´ e a relac¸ ˜ ao calibre de Lorentz. Ela servir´ a para desacoplar as equac¸ ˜ oes diferenciais para A e ϕ que vir˜ ao em
seguida. Os potenciais A e ϕ ainda n˜ ao s˜ ao completamente fixos. A liberdade restante ´ e o t ´ opico do Exerc´ıcio
4.6.4.
Agora reescrevemos as equac¸ ˜ oes de Maxwell em termos dos potenciais A e ϕ. Pelas Equac¸ ˜ oes (4.140c) para
∇ D, (4.141) e (4.142),

2
ϕ +∇
∂A
∂t
= −
ρ
ε
0
, (4.144)
enquanto as Equac¸ ˜ oes (4.140b) para ∇He (4.142) e Equac¸ ˜ ao (1.86c) do Cap´ıtulo 1 resultam em

2
A
∂t
2
+∇
∂ϕ
∂t
+
1
ε
0
µ
0
_
∇∇ A−∇
2
A
_
=
ρv
ε
0
. (4.145)
Usando a relac¸ ˜ ao de Lorentz, Equac¸ ˜ ao (4.143), e a relac¸ ˜ ao ε
0
µ
0
= 1/c
2
, obtemos
_

2

1
c
2

2
∂t
2
_
A = −µ
0
ρv,
_

2

1
c
2

2
∂t
2
_
ϕ = −
ρ
ε
0
. (4.146)
Agora, o operador diferencial (veja tamb´ em o Exerc´ıcio 2.7.3)

2

1
c
2

2
∂t
2
≡ −∂
2
≡ −∂
µ

µ
´ e um laplaciano quadridimensional, usualmente denominado d’alembertiano e ` as vezes tamb´ em denotado por .
´
E um escalar por construc¸ ˜ ao (veja o Exerc´ıcio 2.7.3).
Por conveniˆ encia, definimos
A
1

A
x
µ
0
c
= cε
0
A
x
, A
3

A
z
µ
0
c
= cε
0
A
z
,
A
2

A
y
µ
0
c
= cε
0
A
y
, A
0
≡ ε
0
ϕ = A
0
.
(4.147)
Se, al´ em disso, definirmos uma densidade de corrente quadrivetorial
ρv
x
c
≡ j
1
,
ρv
y
c
≡ j
2
,
ρv
z
c
≡ j
3
, ρ ≡ j
0
= j
0
, (4.148)
ent˜ ao a Equac¸ ˜ ao (4.146) pode ser escrita na forma

2
A
µ
= j
µ
. (4.149)
A equac¸ ˜ ao de onda (4.149) ´ e parecida com uma equac¸ ˜ ao quadrivetorial, mas parece n˜ ao constituir prova.
Para provar que ela ´ e uma equac¸ ˜ ao quadrivetorial, comec¸amos investigando as propriedades de transformac¸ ˜ ao
da corrente generalizada j
µ
.
20
Compare com a Sec¸ ˜ ao 1.13, em especial com o Exerc´ıcio 1.13.10.
“livro” — 2007/8/1 — 15:06 — page 217 — #227
4. TEORIA DOS GRUPOS 217
Uma vez que um elemento de carga el´ etrica de ´ e uma quantidade invariante, temos
de = ρdx
1
dx
2
dx
3
, invariante. (4.150)
Vimos na Sec¸ ˜ ao 2.9 que o elemento de volume quadridimensional dx
0
dx
1
dx
2
dx
3
tamb´ em era invariante, um
pseudo-escalar. Comparando este resultado, Equac¸ ˜ ao (2.106), com a Equac¸ ˜ ao (4.150), vemos que a densidade de
carga ρ deve se transformar do mesmo modo que dx
0
, a componente de ordem zero de um vetor quadridimensional
dx
λ
. Igualamos ρ = j
0
, sendo que, agora, j
0
est´ a estabelecida como a componente de ordem zero de um
quadrivetor. As outras partes da Equac¸ ˜ ao (4.148) podem ser expandidas como
j
1
=
ρv
x
c
=
ρ
c
dx
1
dt
= j
0
dx
1
dx
0
. (4.151)
Uma vez que acabamos de mostrar que j
0
se transforma como dx
0
, isso significa que j
1
se transforma como
dx
1
. Com resultados similares para j
2
e j
3
, temos j
λ
se transformando como dx
λ
, provando que j
λ
´ e um vetor
quadridimensional no espac¸o de Minkowski.
Admitimos que a Equac¸ ˜ ao (4.149), que resulta diretamente das equac¸ ˜ oes de Maxwell, Equac¸ ˜ oes (4.140), ´ e
v´ alida em todos os sistemas cartesianos (todos os referenciais de Lorentz). Ent˜ ao, pela regra do quociente, Sec¸ ˜ ao
2.8, A
µ
tamb´ em ´ e um vetor e a Equac¸ ˜ ao (4.149) ´ e uma equac¸ ˜ ao tensorial leg´ıtima.
Agora, trabalhando para tr´ as, a Equac¸ ˜ ao (4.142) pode ser escrita
ε
0
E
j
= −
∂A
j
∂x
0

∂A
0
∂x
j
, j = 1, 2, 3,
(4.152)
1
µ
0
c
B
i
=
∂A
k
∂x
j

∂A
j
∂x
k
, (i, j, k) = permutac¸ ˜ ao c´ıclica(1, 2, 3).
Definimos um novo tensor,

µ
A
λ
−∂
λ
A
µ
=
∂A
λ
∂x
µ

∂A
µ
∂x
λ
≡ F
µλ
= −F
λµ
(µ, λ = 0, 1, 2, 3),
um tensor anti-sim´ etrico de segunda ordem, j´ a que A
λ
´ e um vetor. Escrito explicitamente,
F
µλ
ε
0
=
_
_
_
_
_
_
0 E
x
E
y
E
z
−E
x
0 −cB
z
cB
y
−E
y
cB
z
0 −cB
x
−E
z
−cB
y
cB
x
0
_
_
_
_
_
_
,
F
µλ
ε
0
=
_
_
_
_
_
_
0 −E
x
−E
y
−E
z
E
x
0 −cB
z
cB
y
E
y
cB
z
0 −cB
x
E
z
−cB
y
cB
x
0
_
_
_
_
_
_
.
(4.153)
Note que em nosso espac¸o quadridimensional de Minkowski E e B n˜ ao s˜ ao mais vetores, mas juntos formam
um tensor de segunda ordem. Com esse tensor podemos escrever as duas equac¸ ˜ oes n˜ ao-homogˆ eneas de Maxwell
((4.140b) e (4.140c)) combinadas como uma equac¸ ˜ ao tensorial,
∂F
λµ
∂x
µ
= j
λ
. (4.154)
O lado esquerdo da Equac¸ ˜ ao (4.154) ´ e uma divergˆ encia quadridimensional de um tensor e, portanto, um vetor. Isso,
´ e claro, ´ e equivalente a contrair um tensor de terceira ordem parcial ∂F
λµ
/∂x
ν
(compare com os Exerc´ıcios 2.7.1
e 2.7.2). As duas equac¸ ˜ oes homogˆ eneas de Maxwell — (4.140a) para ∇E e (4.140d) para ∇ B — podem ser
expressas sob a forma de tensor
∂F
23
∂x
1
+
∂F
31
∂x
2
+
∂F
12
∂x
3
= 0 (4.155)
para a Equac¸ ˜ ao (4.140d) e trˆ es equac¸ ˜ oes da forma

∂F
30
∂x
2

∂F
02
∂x
3
+
∂F
23
∂x
0
= 0 (4.156)
para a Equac¸ ˜ ao (4.140a). (Uma segunda equac¸ ˜ ao permuta 120, uma terceira permuta 130.). Visto que

λ
F
µν
=
∂F
µν
∂x
λ
≡ t
λµν
“livro” — 2007/8/1 — 15:06 — page 218 — #228
218 F´ısica Matem´ atica Arfken • Weber
´ e um tensor (de terceira ordem), as Equac¸ ˜ oes (4.140a) e (4.140d) s˜ ao dadas pela equac¸ ˜ ao tensorial
t
λµν
+t
νλµ
+t
µνλ
= 0. (4.157)
Pelas Equac¸ ˜ oes (4.155) e (4.156) vocˆ e entender´ a que se sup˜ oe que os ´ındices λ, µ e ν s˜ ao diferentes. Na verdade, a
Equac¸ ˜ ao (4.157) se reduz automaticamente a 0 = 0 se quaisquer dois ´ındices coincidirem. Uma forma alternativa
da Equac¸ ˜ ao (4.157) aparece no Exerc´ıcio 4.6.14.
Transformac¸ ˜ ao de Lorentz de E e B
A construc¸ ˜ ao das Equac¸ ˜ oes tensoriais (4.154) e (4.157) conclui nosso objetivo inicial de reescrever as equac¸ ˜ oes
de Maxwell sob forma tensorial.
21
Agora exploraremos as propriedades de tensores de nossos quatro vetores e do
tensor F
µν
.
Para a transformac¸ ˜ ao de Lorentz correspondente ao movimento ao longo do eixo z(x
3
) com velocidade v, os
“co-senos diretores” s˜ ao dados por
22
x
t 0
= γ
_
x
0
−βx
3
_
x
t 3
= γ
_
x
3
−βx
0
_
,
(4.158)
em que
β =
v
c
e
γ =
_
1 −β
2
_
−1/2
. (4.159)
Usando as propriedades de transformac¸ ˜ ao tensorial, podemos calcular os campos el´ etrico e magn´ etico no sistema
em movimento em termos dos valores no referencial original. Pelas Equac¸ ˜ oes (2.66), (4.153) e (4.158) obtemos
E
t
x
=
1
_
1 −β
2
_
E
x

v
c
2
B
y
_
,
E
t
y
=
1
_
1 −β
2
_
E
y
+
v
c
2
B
x
_
, (4.160)
E
t
z
= E
z
e
B
t
x
=
1
_
1 −β
2
_
B
x
+
v
c
2
E
y
_
,
B
t
y
=
1
_
1 −β
2
_
B
y

v
c
2
E
x
_
, (4.161)
B
t
z
= B
z
.
Esse acoplamento de E e B ´ e de se esperar. Considere, por exemplo, o caso de campo el´ etrico zero no sistema
“sem linha”
E
x
= E
y
= E
z
= 0.
Est´ a claro que n˜ ao haver´ a nenhuma forc¸a sobre uma part´ıcula carregada estacion´ aria. Quando a part´ıcula est´ a em
movimento com uma pequena velocidade v ao longo do eixo z,
23
um observador na part´ıcula vˆ e campos (que
exercem uma forc¸a sobre sua part´ıcula carregada) dados por
E
t
x
= −vB
y
,
E
t
y
= vB
x
,
em que B ´ e um campo de induc¸ ˜ ao magn´ etica no sistema “sem linha”. Essas equac¸ ˜ oes podem ser postas em forma
vetorial
E
t
= v B (4.162)
21
Teorias modernas de eletrodinˆ amica quˆ antica e das part´ıculas elementares costumam ser escritas nessa forma “evidentemente covariante”
para garantir consistˆ encia com a relatividade especial. Ao contr´ ario, a insistˆ encia em tal forma tensorial tem sido um ´ util guia na construc¸ ˜ ao
dessas teorias.
22
Uma derivac¸ ˜ ao te´ orica de grupo da transformac¸ ˜ ao de Lorentz aparece na Sec¸ ˜ ao 4.5. Veja tamb´ em Goldstein, loc. cit., Cap´ıtulo 6.
23
Se a velocidade n˜ ao for pequena, ´ e preciso uma transformac¸ ˜ ao relativista da forc¸a.
“livro” — 2007/8/1 — 15:06 — page 219 — #229
4. TEORIA DOS GRUPOS 219
ou
F = qv B,
que costuma ser considerada a definic¸ ˜ ao operacional da induc¸ ˜ ao magn´ etica B.
Invariantes Eletromagn´ eticas
Por fim, as propriedades do tensor (ou vetor) nos permitem construir um grande n´ umero de quantidades invariantes.
Uma delas, muito importante, ´ e o produto escalar dos dois vetores quadridimensionais ou quadrivetores A
λ
e j
λ
.
Temos
A
λ
j
λ
= −cε
0
A
x
ρv
x
c
−cε
0
A
y
ρv
y
c
−cε
0
A
z
ρv
z
c

0
ϕρ
= ε
0
(ρϕ −A J), invariante, (4.163)
sendo A o potencial vetor magn´ etico usual e J a densidade de corrente ordin´ aria. O primeiro termo, ρϕ, ´ e o
acoplamento el´ etrico est´ atico ordin´ ario, com dimens˜ oes de energia por unidade de volume. Da´ı nosso invariante
escalar rec´ em-constru´ıdo ser uma densidade de energia. A interac¸ ˜ ao dinˆ amica de campo e corrente ´ e dada pelo
produto A J. Esse invariante A
λ
j
λ
aparece nas lagrangianas eletromagn´ eticos dos Exerc´ıcios 17.3.6 e 17.5.1.
Outros poss´ıveis invariantes eletromagn´ eticos aparecem nos Exerc´ıcios 4.6.9 e 4.6.11.
O grupo de Lorentz ´ e o grupo de simetria da eletrodinˆ amica, da teoria de calibre eletrofraco e das interac¸ ˜ oes
fortes descritas pela cromodinˆ amica Lorentz quˆ antica: ele governa a relatividade especial. A m´ etrica do espac¸o-
tempo de Minkowski ´ e a invariante de Lorentz, e expressa a propagac¸ ˜ ao da luz; isto ´ e, a velocidade da luz ´ e a
mesma em todas as estruturas inerciais. As equac¸ ˜ oes de movimento de Newton podem ser estendidas diretamente
para a relatividade especial. As cinem´ aticas, nas colis˜ oes de dois corpos s˜ ao importantes aplicac¸ ˜ oes da ´ algebra
vetorial, no espac¸o-tempo de Minkowski.
Exerc´ıcios
4.6.1 (a) Mostre que todo quadrivetor no espac¸o de Minkowski pode ser decomposto em um vetor
ordin´ ario no espac¸o tridimensional e um escalar ordin´ ario no espac¸o tridimensional. Exemplos:
(ct, r), (ρ, ρv/c), (ε
0
ϕ, cε
0
A), (E/c, p), (ω/c, k).
Sugest˜ ao: Considere uma rotac¸ ˜ ao das coordenadas do espac¸o tridimensional com tempo fixo.
(b) Mostre que o inverso de (a) n˜ ao ´ e verdadeiro — todo trivetor mais um escalar n˜ ao formam um
quadrivetor de Minkowski.
4.6.2 (a) Mostre que

µ
j
µ
= ∂ j =
∂j
µ
∂x
µ
= 0.
(b) Mostre como a equac¸ ˜ ao tensorial precedente pode ser interpretada como um enunciado da
continuidade de carga e corrente em espac¸o e tempo tridimensionais ordin´ arios.
(c) Se sabemos que essa equac¸ ˜ ao ´ e v´ alida em todas as estruturas de referˆ encia da Lorentz, por que
n˜ ao podemos concluir que j
µ
´ e um vetor?
4.6.3 Escreva a condic¸ ˜ ao de calibre de Lorentz (Equac¸ ˜ ao (4.143)) como uma equac¸ ˜ ao tensorial no espac¸o
de Minkowski.
4.6.4 Uma transformac¸ ˜ ao de calibre consiste em variar o potencial escalar ϕ
1
e o potencial vetor A
1
de
acordo com a relac¸ ˜ ao
ϕ
2
= ϕ
1
+
∂χ
∂t
,
A
2
= A
1
−∇χ.
A nova func¸ ˜ ao χ deve satisfazer a equac¸ ˜ ao de onda homogˆ enea

2
χ −
1
c
2

2
χ
∂t
2
= 0.
Mostre o seguinte:
(a) A relac¸ ˜ ao de calibre de Lorentz n˜ ao se altera.
“livro” — 2007/8/1 — 15:06 — page 220 — #230
220 F´ısica Matem´ atica Arfken • Weber
(b) Os novos potenciais satisfazemas mesmas equac¸ ˜ oes de onda n˜ ao-homogˆ eneas que os potenciais
originais satisfaziam.
(c) Os campos E e B n˜ ao se alteram.
A invariˆ ancia de nossa teoria eletromagn´ etica sob essa transformac¸ ˜ ao ´ e denominada invariˆ ancia de
calibre.
4.6.5 Uma part´ıcula carregada, carga q, massa m, obedece ` a equac¸ ˜ ao covariante de Lorentz
dp
µ

=
q
ε
0
mc
F
µν
p
ν
,
em que p
ν
´ e o vetor quadrimomento (E/c; p
1
, p
2
, p
3
), τ ´ e o tempo pr´ oprio, dτ = dt
_
1 −v
2
/c
2
,
um escalar de Lorentz. Mostre que as formas espac¸o-temporais expl´ıcitas s˜ ao
dE
dt
= qv E;
dp
dt
= q(E+v B).
4.6.6 A partir dos elementos da matriz de transformac¸ ˜ ao de Lorentz (Equac¸ ˜ ao (4.158), derive a lei da
adic¸ ˜ ao de velocidade de Einstein
u
t
=
u −v
1 −(uv/c
2
)
ou u =
u
t
+v
1 + (u
t
v/c
2
)
,
em que u = c dx
3
/dx
0
e u
t
= c dx
t 3
/dx
t 0
.
Sugest˜ ao: Se L
12
(v) ´ e a matriz que transforma o sistema 1 no sistema 2, L
23
(u
t
) ´ e a matriz que
transforma o sistema 2 no sistema 3, L
13
(u) ´ e a matriz que transforma o sistema 1 diretamente
no sistema 3, ent˜ ao L
13
(u) = L
23
(u
t
)L
12
(v). Dessa relac¸ ˜ ao matricial extraia a lei da adic¸ ˜ ao de
velocidade de Einstein.
4.6.7 O dual de um tensor quadridimensional de segunda ordem B pode ser definido por
˜
B, em que os
elementos do tensor dual s˜ ao dados por
˜
B
ij
=
1
2!
ε
ijkl
B
kl
.
Mostre que
˜
B se transforma em
(a) um tensor de segunda ordem sob rotac¸ ˜ oes,
(b) um pseudotensor sob invers˜ oes.
Note: Aqui, o til n˜ ao significa transposta.
4.6.8 Construa
˜
F, o dual de F, em que F ´ e o tensor eletromagn´ etico dado pela Equac¸ ˜ ao (4.153).
Resposta:
˜
F
µν
= ε
0
_
_
_
_
_
_
0 −cB
x
−cB
y
−cB
z
cB
x
0 E
z
−E
y
cB
y
−E
z
0 E
x
cB
z
E
y
−E
x
0
_
_
_
_
_
_
.
Isso corresponde a
cB →−E,
E →cB.
Essa transformac¸ ˜ ao, ` as vezes denominada transformac¸ ˜ ao dual, deixa invariantes as equac¸ ˜ oes de
Maxwell no v´ acuo (ρ = 0).
4.6.9 Como a contrac¸ ˜ ao qu´ adrupla de um pseudotensor de quarta ordem e dois tensores de segunda ordem
ε
µλνσ
F
µλ
F
νσ
´ e claramente um pseudo-escalar, avalie-o.
Resposta: −8ε
2
0
cB E.
4.6.10 (a) Se um campo eletromagn´ etico ´ e puramente el´ etrico (ou puramente magn´ etico) em um particular
referencial de Lorentz, mostre que E e B ser˜ ao ortogonais em outros sistemas de referˆ encia de
Lorentz.
“livro” — 2007/8/1 — 15:06 — page 221 — #231
4. TEORIA DOS GRUPOS 221
(b) Ao contr´ ario, se E e B s˜ ao ortogonais em um determinado referencial de Lorentz, existe um
sistema de referˆ encia de Lorentz no qual E(ou B) desaparece. Ache esse sistema de referˆ encia.
4.6.11 Mostre que c
2
B
2
−E
2
´ e um escalar de Lorentz.
4.6.12 Visto que (dx
0
, dx
1
, dx
2
, dx
3
) ´ e um quadrivetor, dx
µ
dx
µ
´ e um escalar. Avalie esse escalar para
uma part´ıcula em movimento em dois sistemas de coordenadas diferentes. (a) um sistema de
coordenadas fixo em relac¸ ˜ ao a vocˆ e (sistema de laborat ´ orio) (b) em um sistema de coordenadas
que se movimenta com uma part´ıcula em movimento (velocidade v em relac¸ ˜ ao a vocˆ e). Rotulando
o incremento de tempo por dτ no sistema da part´ıcula e por dt no sistema de laborat ´ orio, mostre
que
dτ = dt
_
1 −v
2
/c
2
.
τ ´ e o tempo pr´ oprio da part´ıcula, uma quantidade invariante de Lorentz.
4.6.13 Expanda a express˜ ao escalar

1

0
F
µν
F
µν
+
1
ε
0
j
µ
A
µ
em termos dos campos e potenciais. A express˜ ao resultante ´ e a densidade lagrangiana usada no
Exerc´ıcio 17.5.1.
4.6.14 Mostre que a Equac¸ ˜ ao (4.157) pode ser escrita como
ε
αβγδ
∂F
αβ
∂x
γ
= 0.
4.7 Grupos Discretos
Nesta sec¸ ˜ ao, consideramos grupos com um n´ umero finito de elementos. Na f´ısica, os grupos costumam aparecer
como um conjunto de operac¸ ˜ oes que deixa um sistema inalterado, invariante. Essa ´ e uma express˜ ao de simetria.
De fato, uma simetria pode ser definida como a invariˆ ancia da hamiltoniana de um sistema sob um grupo de
transformac¸ ˜ oes. Simetria, neste sentido, ´ e importante na mecˆ anica cl´ assica, mas se torna ainda mais importante e
mais profunda na mecˆ anica quˆ antica Nesta sec¸ ˜ ao investigamos as propriedades de simetria de conjuntos de objetos
(´ atomos em uma mol´ ecula ou cristal). Isso nos d´ a ilustrac¸ ˜ oes adicionais dos conceitos de grupo da Sec¸ ˜ ao 4.1
e leva diretamente a grupos di´ edricos. Por sua vez, grupos di´ edricos abrem o estudo dos 32 grupos pontuais
cristalogr´ aficos e dos 230 grupos espaciais que s˜ ao t˜ ao importantes em cristalografia e na f´ısica do estado s´ olido.
Devemos citar que foi por meio do estudo de simetrias cristalinas que os conceitos de simetria e teoria dos grupos
entraram na F´ısica. Nesta ´ area, as condic¸ ˜ oes de grupos abstratos muitas vezes assumem significados f´ısicos diretos
em termos de transformac¸ ˜ oes de vetores, spinores e tensores.
Como exemplo simples, mas n˜ ao trivial, de grupo finito, considere o conjunto 1, a, b, c, que se combina
conforme a tabela de multiplicac¸ ˜ ao de grupo
24
(veja a Figura 4.10). As quatro condic¸ ˜ oes da definic¸ ˜ ao de “grupo”
est˜ ao claramente satisfeitas. Os elementos a, b, c e 1 s˜ ao entidades matem´ aticas abstratas, sem nenhuma restric¸ ˜ ao,
exceto a tabela de multiplicac¸ ˜ ao da Figura 4.10.
Figura 4.10: Tabela de multiplicac¸ ˜ ao de grupo.
24
A ordem dos fatores ´ e linha-coluna: ab = c no exemplo anterior indicado.
“livro” — 2007/8/1 — 15:06 — page 222 — #232
222 F´ısica Matem´ atica Arfken • Weber
Agora, para uma representac¸ ˜ ao espec´ıfica dos elementos desse grupo, fac¸amos
1 →1, a →i, b →−1, c →−i, (4.164)
combinados por multiplicac¸ ˜ ao ordin´ aria. Novamente, as quatro condic¸ ˜ oes de grupo s˜ ao satisfeitas e esses quatro
elementos formam um grupo, que denominamos C
4
. Uma vez que a multiplicac¸ ˜ ao dos elementos do grupo ´ e
comutativa, o grupo ´ e denominado comutativo ou abeliano. Nosso grupo ´ e tamb´ em um grupo c´ıclico, no sentido
de que os elementos podem ser escritos como potˆ encias sucessivas de um elemento, nesse caso i
n
, n = 0, 1, 2, 3.
Note que, escrevendo a Equac¸ ˜ ao (4.164) selecionamos uma representac¸ ˜ ao fiel espec´ıfica para esse grupo de quatro
objetos.
Reconhecemos que os elementos de grupo 1, i, −1, −i podem ser interpretados como rotac¸ ˜ oes sucessivas de
90

no plano complexo. Ent˜ ao, pela Equac¸ ˜ ao (3.74), criamos o conjunto de quatro matrizes 2 2 (substituindo
−ϕ na Equac¸ ˜ ao (3.74) para rotacionar um vetor em vez de rotacionar as coordenadas):
R(ϕ) =
_
cos ϕ −sen ϕ
sen ϕ cos ϕ
_
,
e para ϕ = 0, π/2, π, e 3π/2 temos
1 =
_
1 0
0 1
_
A =
_
0 −1
1 0
_
B =
_
−1 0
0 −1
_
C =
_
0 1
−1 0
_
.
(4.165)
Esse conjunto de quatro matrizes forma um grupo, sendo que a lei de combinac¸ ˜ ao ´ e a multiplicac¸ ˜ ao de matrizes.
Temos, portanto, uma segunda representac¸ ˜ ao fiel. Por multiplicac¸ ˜ ao de matrizes verificamos que essa representac¸ ˜ ao
tamb´ em ´ e abeliana e c´ıclica. H´ a uma clara correspondˆ encia um-para-um entre as duas representac¸ ˜ oes
1 ↔1 ↔1 a ↔i ↔A b ↔−1 ↔B c ↔−i ↔C. (4.166)
No grupo C
4
as duas representac¸ ˜ oes (1, i, −1, −i) e (1, A, B, C) s˜ ao isom´ orficas.
Tabela 4.3
1 V
1
V
2
V
3
1 1 V
1
V
2
V
3
V
1
V
1
1 V
3
V
2
V
2
V
2
V
3
1 V
1
V
3
V
3
V
2
V
1
1
Em contraste com isso, n˜ ao existe tal correspondˆ encia entre qualquer dessas representac¸ ˜ oes do grupo C
4
e
um outro grupo de quatro objetos, o Vierergruppe (Exerc´ıcio 3.2.7). A tabela de multiplicac¸ ˜ ao do Vierergruppe ´ e
mostrada na Tabela 4.3. Confirmando a falta de correspondˆ encia entre o grupo representado por (1, i, −1, −i) ou
as matrizes (1, A, B, C) da Equac¸ ˜ ao (4.165), note que, embora o Vierergruppe seja abeliano, n˜ ao ´ e c´ıclico. O grupo
c´ıclico C
4
e o Vierergruppe n˜ ao s˜ ao isom´ orficos.
Classes e Car´ ater
Considere um elemento de grupo x transformado em um elemento de grupo y por uma transformada de
similaridade em relac¸ ˜ ao a g
i
um elemento do grupo
g
i
xg
−1
i
= y. (4.167)
O elemento de grupo y ´ e conjugado a x. Uma classe ´ e um conjunto de elementos de grupo mutuamente
conjugados. Em geral, esse conjunto de elementos que formam uma classe n˜ ao satisfaz os postulados de grupo
e n˜ ao ´ e um grupo. De fato, o elemento unit´ ario 1, que ´ e sempre uma classe por si s´ o, ´ e a ´ unica classe que tamb´ em
´ e um subgrupo. Todos os membros de uma dada classe s˜ ao equivalentes, no sentido de que qualquer um dos
elementos ´ e uma transformada de similaridade de qualquer outro elemento.
´
E claro que, se um grupo ´ e abeliano,
todo elemento ´ e uma classe por si s´ o. Constatamos que
“livro” — 2007/8/1 — 15:06 — page 223 — #233
4. TEORIA DOS GRUPOS 223
1. Cada elemento do grupo original pertence a uma, e somente uma, classe.
2. O n´ umero de elementos em uma classe ´ e um fator da ordem do grupo.
Obtemos uma poss´ıvel interpretac¸ ˜ ao f´ısica do conceito de classe observando que y ´ e uma transformada de
similaridade de x. Se g
i
representa uma rotac¸ ˜ ao do sistema de coordenadas, ent˜ ao y ´ e a mesma operac¸ ˜ ao que x,
mas relativa ` as novas coordenadas relacionadas.
Na Sec¸ ˜ ao 3.3 vimos que uma matriz real se transforma sob rotac¸ ˜ ao das coordenadas por uma transformac¸ ˜ ao
de similaridade ortogonal. Dependendo da escolha de estrutura de referˆ encia, por essˆ encia a mesma matriz
pode assumir uma infinidade de formas diferentes. Do mesmo modo, nossas representac¸ ˜ oes de grupo podem
ser colocadas em uma infinidade de formas diferentes usando transformac¸ ˜ oes unit´ arias. Mas cada uma dessas
representac¸ ˜ oes transformadas ´ e isom´ orfica com a original. Pelo Exerc´ıcio 3.3.9, o trac¸o de cada elemento (cada
matriz de nossa representac¸ ˜ ao) ´ e invariante sob transformac¸ ˜ oes unit´ arias. Exatamente por ser invariante, o trac¸o
(sob o novo r´ otulo car´ ater) assume umpapel de certa importˆ ancia na teoria dos grupos, emparticular emaplicac¸ ˜ oes
` a f´ısica do estado s´ olido.
´
E claro que todos os membros de uma dada classe (em uma dada representac¸ ˜ ao) tˆ em o
mesmo car´ ater. Elementos de classes diferentes podem ter o mesmo car´ ater, mas elementos com car´ ater diferente
n˜ ao podem estar na mesma classe.
O conceito de classe ´ e importante (1) por causa do trac¸o ou car´ ater e (2) porque o n´ umero de representac¸ ˜ oes
irredut´ıveis n˜ ao-equivalentes de um grupo ´ e igual ao n´ umero de classes.
Subgrupos e Classes Laterais
Freq¨ uentemente, um subconjunto dos elementos do grupo (incluindo o elemento unit´ ario I) satisfar´ a por si s´ o os
quatro requisitos de grupo e, portanto, ´ e um grupo. Tal subconjunto ´ e denominado subgrupo. Todo grupo tem dois
subgrupos triviais: o elemento unit´ ario sozinho e o grupo em si. Os elementos 1 e b do grupo de quatro elementos
C
4
discutido antes forma um subgrupo n˜ ao-trivial. Na Sec¸ ˜ ao 4.1 consideramos SO(3) o grupo (cont´ınuo) de todas
as rotac¸ ˜ oes em espac¸o ordin´ ario. As rotac¸ ˜ oes ao redor de qualquer um dos eixos formam um subgrupo de SO(3).
Numerosos outros exemplos de subgrupos aparecem nas sec¸ ˜ oes seguintes.
Considere um subgrupo H com elementos h
i
e um elemento de grupo x que n˜ ao est´ a em H. Ent˜ ao, xh
i
e h
i
x
n˜ ao est˜ ao no subgrupo H. Os conjuntos gerados por
xh
i
, i = 1, 2, . . . e h
i
x, i = 1, 2, . . .
s˜ ao denominados classes laterais, respectivamente, os grupos laterais esquerdo e direito do subgrupo H em relac¸ ˜ ao
a x. Podemos mostrar (admita o contr´ ario e prove uma contradic¸ ˜ ao) que o grupo lateral de um subgrupo tem o
mesmo n´ umero de elementos distintos que o subgrupo. Estendendo esse resultado, podemos expressar o grupo
original G como a soma de H e dos grupos laterais:
G = H +x
1
H +x
2
H + .
Ent˜ ao, a ordem de qualquer subgrupo ´ e um divisor da ordem do grupo.
´
E esse resultado que torna o conceito
de grupo lateral significativo. Na sec¸ ˜ ao seguinte o grupo de seis elementos D
3
(ordem 6) tem subgrupos de ordem
1, 2 e 3. D
3
n˜ ao pode ter (e n˜ ao tem) subgrupos de ordem 4 ou 5.
A transformada de similaridade de um subgrupo H por um elemento fixo de grupo que n˜ ao est´ a emH, xHx
−1
,
resulta em um subgrupo, Exerc´ıcio 4.7.8. Se esse novo subgrupo ´ e idˆ entico a H para todo x, isto ´ e,
xHx
−1
= H,
ent˜ ao H ´ e denominado subgrupo invariante, normal ou autoconjugado. Esses subgrupos est˜ ao envolvidos
na an´ alise de multipletos de espectros atˆ omicos e nucleares e das part´ıculas discutidas na Sec¸ ˜ ao 4.2. Todos os
subgrupos de um grupo comutativo (abeliano) s˜ ao automaticamente invariantes.
Dois Objetos — Eixo de Simetria Dupla
Em primeiro lugar, considere o sistema bidimensional de dois ´ atomos idˆ enticos no plano xy em (1, 0) e (−1, 0),
Figura 4.11. Quais rotac¸ ˜ oes
25
podem ser executadas (mantendo ambos os ´ atomos no plano xy), que deixar˜ ao esse
sistema invariante? O primeiro candidato ´ e, obviamente, o operador unit´ ario 1. A rotac¸ ˜ ao de π radianos ao redor
do eixo z completa a lista. Portanto, temos um grupo bastante desinteressante de dois membros (1, −1). O eixo z
´ e denominado eixo de simetria dupla — correspondente aos dois ˆ angulos de rotac¸ ˜ ao, 0 e π, que deixam o sistema
invariante.
25
Aqui exclu´ımos deliberadamente reflex˜ oes e invers˜ oes. Elas devem voltar ` a cena no desenvolvimento do conjunto completo de 32 grupos
pontuais cristalogr´ aficos.
“livro” — 2007/8/1 — 15:06 — page 224 — #234
224 F´ısica Matem´ atica Arfken • Weber
Figura 4.11: Mol´ eculas diatˆ omicas de H
2
, N
2
, O
2
, Cl
2
.
Nosso sistema fica mais interessante em trˆ es dimens˜ oes. Imagine agora uma mol´ ecula (ou parte de um cristal)
com ´ atomos do elemento X em±a no eixo y, e ´ atomos do elemento Z em±c no eixo z, como mostra a Figura 4.12.
Fica claro agora que cada eixo ´ e um eixo de simetria dupla. Usando R
x
(π) para designar uma rotac¸ ˜ ao de π radianos
ao redor do eixo x, podemos montar uma representac¸ ˜ ao matricial das rotac¸ ˜ oes como na Sec¸ ˜ ao 3.3:
Figura 4.12: Simetria D
2
.
R
x
(π) =
_
_
_
1 0 0
0 −1 0
0 0 −1
_
_
_, R
y
(π) =
_
_
_
−1 0 0
0 1 0
0 0 −1
_
_
_,
R
z
(π) =
_
_
_
−1 0 0
0 −1 0
0 0 1
_
_
_, 1 =
_
_
_
1 0 0
0 1 0
0 0 1
_
_
_.
(4.168)
Esses quatro elementos [1, R
x
(π), R
y
(π), R
z
(π)] formam um grupo abeliano. A tabela de multiplicac¸ ˜ ao do grupo
´ e mostrada na Tabela 4.4.
“livro” — 2007/8/1 — 15:06 — page 225 — #235
4. TEORIA DOS GRUPOS 225
Tabela 4.4
1 R
x
(π) R
y
(π) R
z
(π)
1 1 R
x
R
y
R
x
R
x
(π) R
x
1 R
z
R
y
R
y
(π) R
y
R
z
1 R
x
R
z
(π) R
z
R
y
R
x
1
Os produtos mostrados na Tabela 4.4 podem ser obtidos por um de dois modos distintos: (1) podemos analisar
as operac¸ ˜ oes em si — uma rotac¸ ˜ ao de π ao redor do eixo x seguida por uma rotac¸ ˜ ao de π ao redor do eixo
y ´ e equivalente a uma rotac¸ ˜ ao de π ao redor do eixo z: R
y
(π)R
x
(π) = R
z
(π). (2) Alternativamente, uma vez
estabelecida uma representac¸ ˜ ao fiel, podemos obter os produtos por multiplicac¸ ˜ ao de matrizes.
´
E aqui que se
revela todo o poder da matem´ atica, quando o sistema ´ e muito complexo para uma interpretac¸ ˜ ao f´ısica direta.
A comparac¸ ˜ ao com os Exerc´ıcios 3.2.7, 4.7.2 e 4.7.3 mostra que esse grupo ´ e o Vierergruppe. As matrizes da
Equac¸ ˜ ao (4.168) s˜ ao isom´ orficas com as do Exerc´ıcio 3.2.7. Al´ em disso, s˜ ao redut´ıveis, j´ a que s˜ ao diagonais. Os
subgrupos s˜ ao (1, R
x
), (1, R
y
) e (1, R
z
). Eles s˜ ao invariantes. Deve-se notar uma rotac¸ ˜ ao de π ao redor do eixo y e
uma rotac¸ ˜ ao de π ao redor do eixo x: R
z
(π)R
y
(π) = R
x
(π). Em termos de simetria, se y e z s˜ ao eixos de simetria
dupla, x ´ e automaticamente um eixo de simetria tripla.
Este grupo de simetria
26
, o Vierergruppe, costuma ser representado por D
2
, em que D significa um grupo
di´ edrico e o ´ındice 2 significa um eixo de simetria dupla (e nenhum eixo de simetria mais alta).
Trˆ es Objetos — Eixo de Simetria Tripla
Considere agora trˆ es ´ atomos idˆ enticos nos v´ ertices de um triˆ angulo equil´ atero, Figura 4.13. Rotac¸ ˜ oes do tri ˆ angulo
de 0, 2π/3 e 4π/3 deixam o triangulo invariante. Em forma matricial, temos
27
Figura 4.13: Operac¸ ˜ oes de simetria em um triˆ angulo equil´ atero.
26
Um grupo de simetria ´ e um grupo de operac¸ ˜ oes que preserva a simetria, isto ´ e, rotac¸ ˜ oes, reflex˜ oes e invers˜ oes. Um grupo sim´ etrico ´ e o
grupo de permutac¸ ˜ oes de objetos distintos — de ordem n!.
27
Note que aqui estamos rotacionando o tri ˆ angulo em sentido anti-hor´ ario em relac¸ ˜ ao a coordenadas fixas.
“livro” — 2007/8/1 — 15:06 — page 226 — #236
226 F´ısica Matem´ atica Arfken • Weber
1 = R
z
(0) =
_
1 0
0 1
_
A = R
z
(2π/3) =
_
cos 2π/3 −sen 2π/3
sen 2π/3 cos 2π/3
_
=
_
−1/2 −

3/2

3/2 −1/2
_
B = R
z
(4π/3) =
_
−1/2

3/2


3/2 −1/2
_
. (4.169)
O eixo z ´ e um eixo de simetria tripla. (1, A, B) formam um grupo c´ıclico, um subgrupo do grupo completo de seis
elementos resultante.
No plano xy h´ a trˆ es eixos de simetria adicionais — sendo que cada ´ atomo (v´ ertice) e o centro geom´ etrico
definem um eixo. Cada um destes ´ e um eixo de simetria dupla. Essas rotac¸ ˜ oes podem ser descritas com muita
facilidade dentro de nossa estrutura bidimensional introduzindo reflex˜ oes. A rotac¸ ˜ ao de π ao redor do eixo C (ou
y), que significa a permuta de ´ atomos (sem estrutura) a e c, ´ e apenas uma reflex˜ ao do eixo x:
C = R
C
(π) =
_
−1 0
0 1
_
. (4.170)
Podemos substituir a rotac¸ ˜ ao ao redor do eixo D por uma rotac¸ ˜ ao de 4π/3 (ao redor de nosso eixo z) seguida por
uma reflex˜ ao do eixo x (x →−x) (Figura 4.14).
Figura 4.14: O triˆ angulo da direita ´ e o triˆ angulo da esquerda rotacionado 180

ao redor do eixo D. D = CB.
D = R
D
(π) = CB
=
_
−1 0
0 1
__
−1/2

3/2


3/2 −1/2
_
=
_
1/2 −

3/2


3/2 −1/2
_
. (4.171)
De maneira similar, a rotac¸ ˜ ao de π ao redor do eixo E, permutando a e b, ´ e substitu´ıda por uma rotac¸ ˜ ao de 2π/3(A)
seguida por uma reflex˜ ao
28
do eixo x:
E = R
E
(π) = CA
=
_
−1 0
0 1
__
−1/2 −

3/2

3/2 −1/2
_
=
_
1/2

3/2

3/2 −1/2
_
. (4.172)
A tabela completa de multiplicac¸ ˜ ao do grupo ´ e
28
Note que, como uma conseq¨ uˆ encia dessas reflex˜ oes, det(C) = det(D) = det(E) = −1. As rotac¸ ˜ oes A e B, ´ e claro, tˆ em um determinante
de +1.
“livro” — 2007/8/1 — 15:06 — page 227 — #237
4. TEORIA DOS GRUPOS 227
1 A B C D E
1 1 A B C D E
A A B 1 D E C
B B 1 A E C D
C C E D 1 B A
D D C E A 1 B
E E D C B A 1
Note que cada elemento do grupo aparece somente uma vez em cada linha e em cada coluna, como requer o
teorema do rearranjo, Exerc´ıcio 4.7.4. Al´ em disso, pela tabela de multiplicac¸ ˜ ao, vemos que o grupo ´ e n˜ ao-abeliano.
Constru´ımos um grupo de seis elementos e uma representac¸ ˜ ao matricial 22 irredut´ıvel desse grupo. O ´ unico outro
grupo distinto de seis elementos ´ e o grupo c´ıclico [1, R, R
2
, R
3
, R
4
, R
5
], com
R = e
2πi/6
ou R = e
−πiσ2/3
=
_
1/2 −

3/2

3/2 1/2
_
. (4.173)
Nosso grupo [1, A, B, C, D, E] ´ e denominado D
3
em cristalografia, o grupo di´ edrico com um eixo de simetria tripla.
Os trˆ es eixos (C, D e E) no plano xy automaticamente se tornam eixos de simetria dupla. Como conseq¨ uˆ encia,
(1, C), (1, D) e (1, E) formam subgrupos de dois elementos. Nenhum desses subgrupos de dois elementos de D
3
´ e
invariante.
Um resultado geral e muito importante para grupos finitos de h elementos ´ e que

i
n
2
i
= h, (4.174)
em que n
i
´ e a dimens˜ ao das matrizes da i-´ esima representac¸ ˜ ao irredut´ıvel. Essa igualdade, ` as vezes denominada
teorema da dimensionalidade, ´ e muito ´ util para estabelecer as representac¸ ˜ oes irredut´ıveis de umgrupo. Aqui, para
D
3
temos 1
2
+ 1
2
+ 2
2
= 6 para nossas trˆ es representac¸ ˜ oes. N˜ ao existe nenhuma outra representac¸ ˜ ao irredut´ıvel
desse grupo de simetria de trˆ es objetos. (As outras representac¸ ˜ oes s˜ ao a identidade e ±1, dependendo de haver ou
n˜ ao uma reflex˜ ao envolvida.)
Grupos Di´ edricos, D
n
Um grupo di´ edrico D
n
com eixo de simetria ˆ enupla, implica n eixos com separac¸ ˜ ao angular de 2π/n radianos
em que n ´ e um inteiro positivo mas, sob qualquer outro aspecto, sem restric¸ ˜ oes. Se aplicarmos os argumentos de
simetria a redes cristalinas, ent˜ ao n ´ e limitado a 1, 2, 3, 4 e 6. O requisito de invariˆ ancia da rede cristalina sob
translac¸ ˜ oes no plano perpendicular ao eixo ˆ enuplo exclui n = 5, 7 e valores mais altos. Tente cobrir completamente
um plano com pent´ agonos regulares idˆ enticos e sem nenhuma sobreposic¸ ˜ ao.
29
Para mol´ eculas individuais, essa
restric¸ ˜ ao n˜ ao existe, embora os exemplos com n > 6 sejam raros; n = 5 ´ e uma possibilidade real. Como exemplo,
o grupo de simetria para o rutenoceno, (C
5
H
5
)
2
Ru, ilustrado na Figura 4.15, ´ e D
5
.
30
Grupos Cristalogr´ aficos Pontuais e Espaciais
Os grupos di´ edricos que acabamos de considerar s˜ ao exemplos de grupos pontuais cristalogr´ aficos. Um grupo
pontual ´ e composto de combinac¸ ˜ oes de rotac¸ ˜ oes e reflex˜ oes (incluindo invers˜ oes) que deixar˜ ao inalteradas algumas
redes cristalinas. Limitar as operac¸ ˜ oes a rotac¸ ˜ oes e reflex˜ oes (incluindo invers˜ oes) significa que um ponto — a
origem — permanece fixo, da´ı o termo grupo pontual. Incluindo os grupos c´ıclicos, dois grupos c´ ubicos (simetrias
tetra´ edricas e octa´ edricas) e as formas impr´ oprias (que envolvem reflex˜ oes), chegamos a um total de 32 grupos
pontuais cristalogr´ aficos.
Se, ` as operac¸ ˜ oes de rotac¸ ˜ ao e reflex˜ ao que produziram aqueles grupos pontuais acrescentarmos a possibilidade
de translac¸ ˜ oes e ainda exigirmos que algumas redes cristalinas permanec¸am invariantes, chegamos aos grupos
espaciais. H´ a 230 grupos espaciais distintos, um n´ umero assombroso, exceto, talvez, para os especialistas da ´ area.
Se quiser mais detalhes (que podem abranger centenas de p´ aginas), veja Leituras Adicionais.
Exerc´ıcios
4.7.1 Mostre que as matrizes 1, A, B e C da Equac¸ ˜ ao (4.165) s˜ ao redut´ıveis. Reduza-as.
Nota: Isso significa transformar A e C para a forma diagonal (pela mesma transformac¸ ˜ ao unit´ aria).
Sugest˜ ao: A e C s˜ ao anti-hermitianas. Seus autovetores ser˜ ao ortogonais.
29
Para D6 imagine o plano coberto com hex´ agonos regulares e o eixo de rotac¸ ˜ ao passando pelo centro geom´ etrico de um deles.
30
Na verdade, o r´ otulo t´ ecnico completo ´ e D
5h
, com h indicando invariˆ ancia sob uma reflex˜ ao do eixo qu´ıntuplo.
“livro” — 2007/8/1 — 15:06 — page 228 — #238
228 F´ısica Matem´ atica Arfken • Weber
Figura 4.15: Rutenoceno.
4.7.2 Entre as operac¸ ˜ oes poss´ıveis em uma rede cristalina est˜ ao A
π
(rotac¸ ˜ ao por π), m (reflex˜ ao) e i
(invers˜ ao). Essas trˆ es operac¸ ˜ oes se combinam como
A
2
π
= m
2
= i
2
= 1,
A
π
m = i, m i = A
π
, e i A
π
= m.
Mostre que o grupo (1, A
π
, m, i) ´ e isom´ orfico com o Vierergruppe.
4.7.3 Quatro operac¸ ˜ oes poss´ıveis no plano s˜ ao:
1. nenhuma alterac¸ ˜ ao
_
x →x
y →y
2. invers˜ ao
_
x →−x
y →−y
3. reflex˜ ao
_
x →−x
y →y
4. reflex˜ ao
_
x →x
y →−y.
(a) Mostre que essas quatro operac¸ ˜ oes formam um grupo.
(b) Mostre que esse grupo ´ e isom´ orfico com o Vierergruppe.
(c) Monte uma representac¸ ˜ ao matricial 2 2.
4.7.4 Teorema do rearranjo: dado um grupo de n elementos distintos (I, a, b, c, . . . , n), mostre que o
conjunto de produtos (aI, a
2
, ab, ac . . . an) reproduz os n elementos distintos em uma nova ordem.
4.7.5 Usando a representac¸ ˜ ao matricial 2 2 do Exerc´ıcio 3.2.7 para o Vierergruppe,
(a) Mostre que h´ a quatro classes, cada uma com um elemento.
(b) Calcule o car´ ater (trac¸o) de cada classe. Note que duas classes diferentes podem ter o mesmo
car´ ater.
(c) Mostre que h´ a trˆ es subgrupos de dois elementos. (O elemento unit´ ario, por si s´ o, sempre forma
um subgrupo.)
“livro” — 2007/8/1 — 15:06 — page 229 — #239
4. TEORIA DOS GRUPOS 229
(d) Para qualquer um dos subgrupos de dois elementos mostre que o subgrupo e um ´ unico grupo
lateral reproduzem o Vierergruppe original.
Note que subgrupos, classes e grupos laterais s˜ ao inteiramente diferentes.
4.7.6 Usando a representac¸ ˜ ao matricial 2 2, Equac¸ ˜ ao (4.165), de C
4
,
(a) Mostre que h´ a quatro classes, cada uma com um elemento.
(b) Calcule o car´ ater (trac¸o) de cada classe.
(c) Mostre que h´ a apenas um subgrupo de dois elementos.
(d) Mostre que o subgrupo e um ´ unico grupo lateral reproduzem o grupo original.
4.7.7 Prove que o n´ umero de elementos distintos em um grupo lateral de um subgrupo ´ e o mesmo que o
n´ umero de elementos no subgrupo.
4.7.8 Um subgrupo H tem elementos h
i
. Seja x um elemento fixo do grupo original Ge n˜ ao um membro
de H. A transformada
xh
i
x
−1
, i = 1, 2, . . .
gera um subgrupo conjugado xHx
−1
. Mostre que esse subgrupo conjugado satisfaz cada um dos
quatro postulados de grupo e, portanto, ´ e um grupo.
4.7.9 (a) Um determinado grupo ´ e abeliano. Um segundo grupo ´ e criado substituindo cada elemento do
grupo original g
i
por g
−1
i
. Mostre que os dois grupos s˜ ao isom´ orficos.
Nota: Isto significa mostrar que, se a
i
b
i
= c
i
, ent˜ ao a
−1
i
b
−1
i
= c
−1
i
.
(b) Continuando a parte (a), se os dois grupos s˜ ao isom´ orficos, mostre que cada um deve ser
abeliano.
4.7.10 (a) Uma vez que vocˆ e tenha uma representac¸ ˜ ao matricial de qualquer grupo, uma representac¸ ˜ ao
unidimensional pode ser obtida usando os determinantes das matrizes. Mostre que as relac¸ ˜ oes
multiplicativas s˜ ao preservadas nesta representac¸ ˜ ao por determinante.
(b) Use determinantes para obter um representante unidimensional de D
3
.
4.7.11 Explique como a relac¸ ˜ ao

i
n
2
i
= h
se aplica ao Vierergruppe (h = 4) e ao grupo di´ edrico D
3
com h = 6.
4.7.12 Mostre que o subgrupo (1, A, B) de D
3
´ e um subgrupo invariante.
4.7.13 O grupo D
3
pode ser discutido como um grupo de permutac¸ ˜ ao de trˆ es objetos. A matriz B,
por exemplo, rotaciona o v´ ertice a (localizac¸ ˜ ao original 1) at´ e a posic¸ ˜ ao antes ocupada por c
(localizac˜ ao 3). O v´ ertice b muda da localizac¸ ˜ ao 2 para a localizac¸ ˜ ao 1, e assim por diante. Como
uma permutac¸ ˜ ao, (abc) →(bca). Em trˆ es dimens˜ oes
_
_
_
0 1 0
0 0 1
1 0 0
_
_
_
_
_
_
a
b
c
_
_
_ =
_
_
_
b
c
a
_
_
_
(a) Desenvolva representac¸ ˜ oes 3 3 an´ alogas para os outros elementos de D
3
.
(b) Reduza sua representac¸ ˜ ao 3 3 para a representac¸ ˜ ao 2 2 desta sec¸ ˜ ao.
(Essa representac¸ ˜ ao 3 3 deve ser redut´ıvel ou a Equac¸ ˜ ao (4.174) ser´ a violada.)
Nota: Na verdade, a reduc¸ ˜ ao de uma representac¸ ˜ ao redut´ıvel pode ser desajeitada. Muitas vezes ´ e
mais f´ acil desenvolver diretamente uma nova representac¸ ˜ ao da dimens˜ ao requerida.
4.7.14 (a) O grupo de permutac¸ ˜ ao de quatro objetos P
4
tem 4! = 24 elementos. Tratando os quatro
elementos do grupo c´ıclico C
4
como permutac¸ ˜ oes, monte uma representac¸ ˜ ao matricial 4 4 de
C
4
. C
4
que se torna um subgrupo de P
4
.
(b) Como vocˆ e sabe que essa representac¸ ˜ ao matricial 4 4 de C
4
deve ser redut´ıvel?
Nota: C
4
´ e abeliano e todo grupo abeliano de h objetos tem somente h representac¸ ˜ oes irredut´ıveis
unidimensionais.
4.7.15 (a) Os objetos (abcd) s˜ ao permutados para (dacb). Escreva uma representac¸ ˜ ao matricial 44 dessa
permutac¸ ˜ ao.
“livro” — 2007/8/1 — 15:06 — page 230 — #240
230 F´ısica Matem´ atica Arfken • Weber
(b) A permutac¸ ˜ ao (abdc) para (dacb) ´ e ´ımpar ou par?
(c) Essa permutac¸ ˜ ao ´ e um poss´ıvel membro do grupo D
4
? Justifique sua resposta.
4.7.16 Os elementos do grupo di´ edrico D
n
podem ser escritos na forma
S
λ
R
µ
z
(2π/n), λ = 0, 1
µ = 0, 1, . . . , n −1,
em que R
z
(2π/n) representa uma rotac¸ ˜ ao de 2π/n ao redor do eixo de simetria ˆ enupla, enquanto
S representa uma rotac¸ ˜ ao de π ao redor de um eixo que passa pelo centro do pol´ıgono regular e por
um de seus v´ ertices.
Para S = E mostre que essa forma pode descrever as matrizes A, B, C e D de D
3
.
Nota: Os elementos R
z
e S s˜ ao denominados geradores desse grupo finito. De maneira semelhante,
i ´ e o gerador do grupo dado pela Equac¸ ˜ ao (4.164).
4.7.17 Mostre que o grupo c´ıclico de n objetos, C
n
, pode ser representado por r
m
, m = 0, 1, 2, . . . , n−1.
Aqui, r ´ e um gerador dado por
r = exp(2πis/n).
O parˆ ametro s assume os valores s = 1, 2, 3, . . . , n, sendo que cada valor de s resulta em uma
representac¸ ˜ ao unidimensional (irredut´ıvel) diferente de C
n
.
4.7.18 Desenvolva a representac¸ ˜ ao matricial 2 2 irredut´ıvel do grupo de operac¸ ˜ oes (rotac¸ ˜ oes e reflex˜ oes)
que transformam um quadrado nele mesmo. Dˆ e a tabela de multiplicac¸ ˜ ao de grupo.
Nota: Este ´ e o grupo de simetria de um quadrado e tamb´ em o grupo di´ edrico D
4
. (Veja a
Figura 4.16.)
Figura 4.16: Quadrado.
4.7.19 O grupo de permutac¸ ˜ ao de quatro objetos cont´ em 4! = 24 elementos. Pelo Exerc´ıcio 4.7.18, D
4
, o
grupo de D
4
, o grupo de simetria para um quadrado tem menos de 24 elementos. Explique a relac¸ ˜ ao
entre D
4
e o grupo de permutac¸ ˜ ao de quatro objetos.
4.7.20 Um plano ´ e coberto com hex´ agonos regulares, como mostra a Figura 4.17.
(a) Determine a simetria di´ edrica de um eixo perpendicular ao plano que passa pelo v´ ertice comum
de trˆ es hex´ agonos (A). Isto ´ e, se o eixo tiver simetria ˆ enupla, mostre (com explicac¸ ˜ ao detalhada)
qual ´ e n. Escreva a matriz que descreve a m´ınima rotac¸ ˜ ao positiva (n˜ ao-zero) do arranjo de
hex´ agonos que ´ e um membro de seu grupo D
n
.
(b) (b) Repita a parte (a) para um eixo perpendicular ao plano passando pelo centro geom´ etrico de
um hex´ agono (B).
4.7.21 Em um cristal c´ ubico simples, poder´ıamos ter ´ atomos idˆ enticos em r = (la, ma, na), com l, m e n
assumindo todos os valores inteiros.
(a) Mostre que cada eixo cartesiano ´ e um eixo de simetria qu´ adruplo.
“livro” — 2007/8/1 — 15:06 — page 231 — #241
4. TEORIA DOS GRUPOS 231
Figura 4.17: Hex´ agono.
(b) O grupo c´ ubico consistir´ a em todas as operac¸ ˜ oes (rotac¸ ˜ oes, reflex˜ oes, invers˜ ao) que deixam o
cristal c´ ubico simples invariante. Considerando a permutac¸ ˜ ao dos eixos coordenados negativo
e positivo, fac¸a uma previs˜ ao de quantos elementos esse grupo c´ ubico conter´ a.
4.7.22 (a) Pela tabela de multiplicac¸ ˜ ao D
3
da Figura 4.18, construa uma tabela de transformadas de
similaridade mostrando xyx
−1
, onde as faixas de x e y abrangem todos os seis elementos de
D
3
.
(b) Divida os elementos de D
3
em classes. Usando a representac¸ ˜ ao matricial 2 2 das
Equac¸ ˜ oes (4.169)-(4.172), observe o trac¸o (car´ ater) de cada classe.
Figura 4.18: Tabela de multiplicac¸ ˜ ao.
4.8 Formas Diferenciais
Nos Cap´ıtulos 1 e 2 adotamos a vis˜ ao de que, em n dimens˜ oes, um vetor ´ e um ˆ enupla de n´ umeros reais e que
seus componentes se transformam adequadamente sob mudanc¸as das coordenadas. Nesta sec¸ ˜ ao partimos da vis˜ ao
alternativa, na qual se imagina um vetor como um segmento de reta dirigido, uma seta. A finalidade da id´ eia ´ e
esta: embora o conceito de vetor como um segmento de reta n˜ ao se generalize para espac¸o-tempo (variedades de
geometria diferencial), exceto se trabalharmos no espac¸o plano tangente que requer a inserc¸ ˜ ao de dimens˜ oes extras
auxiliares, as formas diferenciais de Elie Cartan s˜ ao naturais em espac¸o-tempo curvado e uma poderosa ferramenta.
O c´ alculo pode ser baseado em formas diferenciais, como Edwards mostrou em seu livro cl´ assico (veja as Leituras
Adicionais). O c´ alculo de Cartan leva a uma not´ avel unificac¸ ˜ ao de conceitos e teoremas de an´ alise vetorial que vale
“livro” — 2007/8/1 — 15:06 — page 232 — #242
232 F´ısica Matem´ atica Arfken • Weber
a pena analisar. Agora, a utilizac¸ ˜ ao de formas diferenciais est´ a amplamente disseminada em geometria diferencial
e an´ alise avanc¸ada (sobre variedades).
A noc¸ ˜ ao de Cartan de vetor ´ e baseada na correspondˆ encia um-para-um entre os espac¸os lineares de vetores de
deslocamento e operadores diferenciais direcionais (componentes do gradiente formam uma base). Uma vantagem
crucial dos ´ ultimos ´ e que eles podem ser generalizados para espac¸o-tempo curvado. Al´ em do mais, descrever
vetores em termos de derivadas direcionais ao longo de curvas especifica unicamente o vetor em um dado ponto
sem a necessidade de invocar coordenadas. Em ´ ultima instˆ ancia, uma vez que precisamos de coordenadas para
especificar pontos, o formalismo de Cartan, embora uma ferramenta matem´ atica elegante para a derivac¸ ˜ ao eficiente
de teoremas de an´ alise vetorial, em princ´ıpio n˜ ao tem nenhuma vantagem sobre o formalismo de componente.
1-Formas
Definimos dx, dy, dz em espac¸o euclidiano tridimensional como func¸ ˜ oes que atribuem a um segmento de
reta direcionado PQ do ponto P ao ponto Q a mudanc¸a correspondente em x, y, z. O s´ımbolo dx representa
“comprimento orientado da projec¸ ˜ ao de uma curva sobre o eixo x” etc. Note que dx, dy, dz podem, mas n˜ ao,
precisam, ser infinitesimalmente pequenos e n˜ ao devem ser confundidas com as diferenciais ordin´ arias que
associamos com integrais e quocientes diferenciais. Uma func¸ ˜ ao do tipo
Adx +Bdy +C dz, A, B, C n´ umeros reais (4.175)
´ e definida como uma 1-forma constante.
Exemplo 4.8.1 1-FORMA CONSTANTE
Para uma forc¸a constante F = (A, B, C), o trabalho realizado ao longo do deslocamento de P = (3, 2, 1) a
Q = (4, 5, 6) ´ e dado por
W = A(4 −3) +B(5 −2) +C(6 −1) = A+ 3B + 5C.
Se F ´ e um campo de forc¸a, ent˜ ao suas componentes retangulares A(x, y, z), B(x, y, z), C(x, y, z) depender˜ ao
da localizac¸ ˜ ao e a 1-forma (n˜ ao-constante) dW = F dr corresponder´ a ao conceito de trabalho realizado contra o
campo de forc¸a F(r) ao longo de dr sobre uma curva no espac¸o. Uma quantidade finita de trabalho
W =
_
C
_
A(x, y, z) dx +B(x, y, z) dy +C(x, y, z) dz
¸
(4.176)
envolve a familiar integral de linha ao longo de uma curva orientada C em que a 1-forma dW descreve a quantidade
de trabalho para pequenos deslocamentos (segmentos na trajet´ oria C). Sob essa luz, o integrando f(x) dx de uma
integral
_
b
a
f(x) dx consistindo na func¸ ˜ ao f e na medida dx como o comprimento orientado aqui ´ e considerada
uma 1-forma. O valor da integral ´ e obtido da integral de linha ordin´ aria.
2-Formas
Considere uma unidade de fluxo de massa na direc¸ ˜ ao z, isto ´ e, um fluxo na direc¸ ˜ ao de z crescente, de modo que
uma unidade de massa atravesse um quadrado unit´ ario no plano xy em tempo unit´ ario. A orientac¸ ˜ ao simbolizada
pela seq¨ uˆ encia de pontos na Figura 4.19,
(0, 0, 0) →(1, 0, 0) →(1, 1, 0) →(0, 1, 0) →(0, 0, 0),
ser´ a denominada anti-hor´ aria, como de costume. Uma unidade de fluxo na direc¸ ˜ ao z ´ e definida pela func¸ ˜ ao
dxdy
31
que atribui a retˆ angulos orientados no espac¸o a ´ area orientada de suas projec¸ ˜ oes no plano xy. De modo
semelhante, umfluxo unit´ ario na direc¸ ˜ ao x ´ e descrito por dxdy = dy dx e umfluxo unit´ ario na direc¸ ˜ ao y por dz dx.
A ordem inversa, dz dx, ´ e ditada pela convenc¸ ˜ ao de orientac¸ ˜ ao e dz dx = −dxdz por definic¸ ˜ ao. Essa anti-simetria
´ e consistente com o produto cruzado de dois vetores que representam ´ areas orientadas em espac¸o euclidiano. Essa
noc¸ ˜ ao ´ e generalizada para pol´ıgonos e superf´ıcies diferenci´ aveis curvadas aproximadas por pol´ıgonos e volumes.
31
Muitos autores denotam este produto cunha como dx∧dy comdy∧dx = −dx∧dy. Note que o produto dxdy = dydx para diferenciais
ordin´ arias.
“livro” — 2007/8/1 — 15:06 — page 233 — #243
4. TEORIA DOS GRUPOS 233
Figura 4.19: Retˆ angulo orientado em sentido anti-hor´ ario.
Exemplo 4.8.2 FLUXO MAGN´ ETICO ATRAV´ ES DE UMA SUPERF´ICIE ORIENTADA
Se B = (A, B, C) ´ e uma induc¸ ˜ ao magn´ etica constante, ent˜ ao a constante 2-forma
Ady dz +Bdz dx +C dxdy
descreve o fluxo magn´ etico atrav´ es de um retˆ angulo orientado. Se B ´ e um campo de induc¸ ˜ ao magn´ etica que varia
atrav´ es de uma superf´ıcie S, ent˜ ao o fluxo
Φ =
_
S
_
B
x
(r) dy dz +B
y
(r) dz dx +B
z
(r) dxdy
¸
(4.177)
atrav´ es da superf´ıcie orientada S envolve a familiar integrac¸ ˜ ao (de Riemann) sobre retˆ angulos orientados
aproximadamente pequenos a partir dos quais S ´ e montada.
Adefinic¸ ˜ ao de
_
ω depende da decomposic¸ ˜ ao de ω =

i
ω
i
, em que cada uma das formas diferenciais ω
i
´ e n˜ ao-
nula apenas em um pequeno trecho da superf´ıcie S que cobre a superf´ıcie. Ent˜ ao, pode-se demonstrar que

i
_
ω
i
converge, porque os trechos ficam cada vez menores e mais numerosos, at´ e o limite
_
ω, que ´ e independente dessas
decomposic¸ ˜ oes. Caso o leitor queira mais detalhes e provas, consulte Edwards nas Leituras Adicionais.
3-Formas
Uma 3-forma dxdy dz representa um volume orientado. Por exemplo, o determinante de trˆ es vetores em espac¸o
euclidiano muda de sinal se invertermos a ordem de dois vetores. O determinante mede o volume orientado
abrangido pelos trˆ es vetores. Em particular,
_
V
ρ(x, y, z) dxdy dz representa a carga total dentro do volume V
se ρ for a densidade de carga. Formas diferenciais de dimens˜ oes mais altas em espac¸os de dimens˜ oes mais altas
s˜ ao definidas de maneira semelhante e denominadas formas k com k = 0, 1, 2, . . . .
Se uma 3-forma
ω = A(x
1
, x
2
, x
3
) dx
1
dx
2
dx
3
= A
t
(x
t
1
, x
t
2
, x
t
3
) dx
t
1
dx
t
2
dx
t
3
(4.178)
em uma variedade tridimensional ´ e expressa em termos de novas coordenadas, ent˜ ao h´ a um mapa um-para-um,
diferenci´ avel, x
t
i
= x
t
i
(x
1
, x
2
, x
3
), entre essas coordenadas com jacobiano
J =
∂(x
t
1
, x
t
2
, x
t
3
)
∂(x
1
, x
2
, x
3
)
= 1,
e A = A
t
J = A
t
, de modo que
_
V
ω =
_
V
Adx
1
dx
2
dx
3
=
_
V

A
t
dx
t
1
dx
t
2
dx
t
3
. (4.179)
Essa declarac¸ ˜ ao explica detalhadamente a independˆ encia de parˆ ametro de integrais sobre formas diferenciais, uma
vez que, em essˆ encia, parametrizac¸ ˜ oes s˜ ao arbitr´ arias. As regras que governam a integrac¸ ˜ ao de formas diferenciais
s˜ ao definidas sobre variedades. Estas s˜ ao cont´ınuas se pudermos nos movimentar continuamente (na verdade,
admitimos que elas s˜ ao diferenci´ aveis) de ponto a ponto, e orientadas, se a orientac¸ ˜ ao das curvas generalizar para
superf´ıcies e volumes at´ e a dimens˜ ao de toda a base m´ ultipla. As regras para formas diferenciais s˜ ao:
“livro” — 2007/8/1 — 15:06 — page 234 — #244
234 F´ısica Matem´ atica Arfken • Weber
• Se ω = aω
1
+a
t
ω
t
1
, sendo a, a, a
t
n´ umeros reais, ent˜ ao
_
S
ω = a
_
S
ω
1
+a
t
_
S
ω
t
1
, em que S ´ e uma variedade
compacta, orientada, cont´ınua, com fronteira.
• Se a orientac¸ ˜ ao for invertida, ent˜ ao a integral
_
S
ω muda de sinal.
Derivada Exterior
Agora apresentaremos a derivada exterior d de uma func¸ ˜ ao f, uma 0-forma:
df ≡
∂f
∂x
dx +
∂f
∂y
dy +
∂f
∂z
dz =
∂f
∂x
i
dx
i
, (4.180)
que gera uma 1-forma ω
1
= df, a diferencial de f (ou derivada externa), o gradiente na an´ alise vetorial padr˜ ao. Ao
fazer o somat´ orio sobre as coordenadas, usamos, e continuaremos a usar, a convenc¸ ˜ ao de somat´ orio de Einstein.
Aplicando a derivada exterior d a uma 1-forma, definimos
d(Adx +Bdy +C dz) = dAdx +dBdy +dC dz (4.181)
com func¸ ˜ oes A, B, C. Essa definic¸ ˜ ao, em conjunc¸ ˜ ao com df exatamente como acabamos de dar, liga vetores a
operadores diferenciais ∂
i
=

∂xi
. De maneira semelhante, estendemos d para k-formas. Contudo, aplicar d duas
vezes d´ a zero, ddf = 0, porque
d(df) = d
∂f
∂x
dx +d
∂f
∂y
dy
=
_

2
f
∂x
2
dx +

2
f
∂x∂y
dy
_
dx +
_

2
f
∂y∂x
dx +

2
f
∂y
2
dy
_
dy
=
_

2
f
∂y ∂x


2
f
∂x∂y
_
dxdy = 0. (4.182)
Isso resulta do fato de que, em derivadas parciais mistas, a ordem n˜ ao importa, contanto que todas as func¸ ˜ oes sejam
suficientemente deriv´ aveis. Do mesmo modo podemos provar que ddω
1
= 0 para uma ω
1
, de 1-forma, etc.
As regras que governam formas diferenciais, com ω
k
denotando uma forma k, que usamos at´ e aqui s˜ ao
• dxdx = 0 = dy dy = dz dz, dx
2
i
= 0;
• dxdy = −dy dx, dx
i
dx
j
= −dx
j
dx
i
, i ,= j;
• dx
1
dx
2
dx
k
´ e totalmente anti-sim´ etrica na dx
i
, i = 1, 2, . . . , k.
• df =
∂f
∂xi
dx
i
;
• d(ω
k
+ Ω
k
) = dω
k
+dΩ
k
, linearidade;
• ddω
k
= 0.
Agora aplicamos a derivada exterior d a produtos de formas diferenciais, comec¸ando com func¸ ˜ oes (0-forma).
Temos
d(fg) =
∂(fg)
∂x
i
dx
i
=
_
f
∂g
∂x
i
+
∂f
∂x
i
g
_
dx
i
= f dg +dfg. (4.183)
Se ω
1
=
∂g
∂xi
dx
i
´ e uma 1-forma e f ´ e uma func¸ ˜ ao, ent˜ ao
d(fω
1
) = d
_
f
∂g
∂x
i
dx
i
_
= d
_
f
∂g
∂x
i
_
dx
i
=

_
f
∂g
∂xi
_
∂x
j
dx
j
dx
i
=
_
∂f
∂x
j
∂g
∂x
i
+f

2
g
∂x
i
∂x
j
_
dx
j
dx
i
= dfω
1
+f dω
1
, (4.184)
como esperado. Mas, se ω
t
1
=
∂f
∂xj
dx
j
´ e uma outra 1-forma, ent˜ ao
d(ω
1
ω
t
1
) = d
_
∂g
∂x
i
dx
i
∂f
∂x
j
dx
j
_
= d
_
∂g
∂x
i
∂f
∂x
j
_
dx
i
dx
j
=

_
∂g
∂xi
∂f
∂xj
_
∂x
k
dx
k
dx
i
dx
j
=

2
g
∂x
i
∂x
k
dx
k
dx
i
∂f
∂x
j
dx
j

∂g
∂x
i
dx
i

2
f
∂x
j
∂x
k
dx
k
dx
j
= dω
1
ω
t
1
−ω
1

t
1
. (4.185)
“livro” — 2007/8/1 — 15:06 — page 235 — #245
4. TEORIA DOS GRUPOS 235
Essa prova ´ e v´ alida para 1-formas mais gerais ω = f
i
dx
i
com func¸ ˜ oes f
i
. Portanto, em geral, definimos k-formas:
d(ω
k
ω
t
k
) = (dω
k

t
k
+ (−1)
k
ω
k
(dω
t
k
). (4.186)
Em geral, a derivada exterior de uma k-forma ´ e uma (k + 1) forma.
Exemplo 4.8.3 ENERGIA POTENCIAL
Como aplicac¸ ˜ ao emduas dimens˜ oes (por simplicidade), considere o potencial V (r) uma 0-forma e dV sua derivada
exterior. Integrando V ao longo de uma trajet´ oria orientada C de r
1
at´ e r
2
temos
V (r
2
) −V (r
1
) =
_
C
dV =
_
C
_
∂V
∂x
dx +
∂V
∂y
dy
_
=
_
C
∇V dr, (4.187)
em que a ´ ultima integral ´ e a f´ ormula-padr˜ ao para a diferenc¸a de potencial de energia que faz parte do teorema da
conservac¸ ˜ ao de energia. A trajet´ oria e a independˆ encia de parametrizac¸ ˜ ao s˜ ao evidentes nesse caso especial.
Retrocessos (pullbacks)
Se um mapa linear L
2
do plano uv para o plano xy tem a forma
x = au +bv +c, y = eu +fv +g, (4.188)
pol´ıgonos orientados no plano uv s˜ ao mapeados para pol´ıgonos similares no plano xy, contanto que o determinante
a L
2
seja n˜ ao-zero. A 2-forma
dxdy = (a du +b dv)(e du +f dv) = (af −be)dudv (4.189)
pode ser traduzida de volta do plano xy para o plano uv. Isso significa que uma integral sobre uma superf´ıcie
simplesmente conectada S se torna
_
12(S)
dxdy = (af −be)
_
S
dudv, (4.190)
e (af − be) dudv ´ e o retorno de dxdy, oposto ` a direc¸ ˜ ao do mapa L
2
do plano uv para o plano xy.
´
E claro que o
determinante af −be do mapa L
2
´ e simplesmente o jacobiano, gerado sem muito esforc¸o pelas formas diferenciais
na Equac¸ ˜ ao (4.189).
De modo semelhante, um mapa linear L
3
do espac¸o u
1
u
2
u
3
para o espac¸o x
1
x
2
x
3
x
i
= a
ij
u
j
+b
i
, i = 1, 2, 3, (4.191)
gera automaticamente sua forma jacobiana a partir da forma
dx
1
dx
2
dx
3
=
_
3

j=1
a
1j
du
j
__
3

j=1
a
2j
du
j
__
3

j=1
a
3j
du
j
_
= (a
11
a
22
a
33
−a
12
a
21
a
33
± )du
1
du
2
du
3
= det
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
du
1
du
2
du
3
. (4.192)
Assim, formas diferenciais geram as regras que governam determinantes.
Dados dois mapas lineares em seq¨ uˆ encia ´ e poss´ıvel provar diretamente que o retrocesso sob um mapa composto
´ e o retrocesso do retrocesso. Este teorema ´ e o an´ alogo em formas diferenciais da multiplicac¸ ˜ ao de matrizes.
Agora vamos considerar a curva C definida por um parˆ ametro t em contraste com uma curva definida por uma
equac¸ ˜ ao. Por exemplo, o c´ırculo ¦(cos t, sen t); 0 ≤ t ≤ 2π¦ ´ e uma parametrizac¸ ˜ ao por t, ao passo que o c´ırculo
¦(x, y); x
2
+y
2
= 1¦ ´ e uma definic¸ ˜ ao por uma equac¸ ˜ ao. Ent˜ ao, a integral de linha
_
C
_
A(x, y)dx +B(x, y) dy
¸
=
_
tf
ti
_
A
dx
dt
+B
dy
dt
_
dt (4.193)
“livro” — 2007/8/1 — 15:06 — page 236 — #246
236 F´ısica Matem´ atica Arfken • Weber
para func¸ ˜ oes cont´ınuas A, B, dx/dt, dy/dt se torna uma integral unidimensional sobre o intervalo orientado
t
i
≤ t ≤ t
f
. Claramente, a 1-forma [A
dx
dt
+ B
dy
dt
] dt na linha t ´ e obtida da 1-forma Adx + Bdy no plano
xy via o mapa xy x = x(t), da linha t para a curva C no plano xy. A 1-forma [A
dx
dt
+ B
dy
dt
] dt ´ e denominada
retrocesso da 1-forma Adx + Bdy sob o mapa x = x(t), y = y(t). Usando retrocessos podemos mostrar que
integrais sobre 1-formas s˜ ao independentes da parametrizac¸ ˜ ao da trajet´ oria.
Nesse sentido, o quociente diferencial
dy
dx
pode ser considerado o coeficiente de dx no retorno de dy sob a
func¸ ˜ ao y = f(x) ou dy = f
t
(x) dx. Esse conceito de retrocesso se generaliza imediatamente para mapas em trˆ es
ou mais dimens˜ oes e para k-formas comk > 1. Em particular, pode-se verificar que a regra da cadeia ´ e um retorno:
Se
y
i
= f
i
(x
1
, x
2
, . . . , x
n
), i = 1, 2, . . . , l e
z
j
= g
j
(y
1
, y
2
, . . . , y
l
), j = 1, 2, . . . , m (4.194)
s˜ ao mapas diferenci´ aveis de R
n
→ R
l
e R
l
→ R
m
, ent˜ ao o mapa composto R
n
→ R
m
´ e diferenci´ avel e o
retrocesso de qualquer k-forma sob o mapa composto ´ e igual ao retrocesso do retrocesso. Esse teorema ´ e ´ util para
estabelecer que integrais de k-formas s˜ ao independentes de parˆ ametro.
De forma semelhante, definimos a diferencial df como o retrocesso da 1-forma dz sob a func¸ ˜ ao z = f(x, y):
dz = df =
∂f
∂x
dx +
∂f
∂y
dy. (4.195)
Exemplo 4.8.4 TEOREMA DE STOKES
Como outra aplicac¸ ˜ ao, em primeiro lugar vamos esboc¸ar a derivac¸ ˜ ao-padr˜ ao da vers˜ ao mais simples do teorema de
Stokes para um retˆ angulo S = [a ≤ x ≤ b, c ≤ y ≤ d] orientado em sentido anti-hor´ ario, sendo ∂S sua fronteira
_
∂S
(Adx +Bdy) =
_
b
a
A(x, c) dx +
_
d
c
B(b, y) dy +
_
a
b
A(x, d) dx +
_
c
d
B(a, y) dy
=
_
d
c
_
B(b, y) −B(a, y)
¸
dy −
_
b
a
_
A(x, d) −A(x, c)
¸
dx
=
_
d
c
_
b
a
∂B
∂x
dxdy −
_
b
a
_
d
c
∂A
∂y
dy dx
=
_
S
_
∂B
∂x

∂A
∂y
_
dxdy, (4.196)
que vale para qualquer superf´ıcie simplesmente conectada S que possa ser reunida por retˆ angulos.
Agora demonstramos a utilizac¸ ˜ ao de formas diferenciais para obter o mesmo teorema (novamente em duas
dimens˜ oes, por simplicidade):
d(Adx +Bdy) = dAdx +dBdy
=
_
∂A
∂x
dx +
∂A
∂y
dy
_
dx +
_
∂B
∂x
dx +
∂B
∂y
dy
_
dy =
_
∂B
∂x

∂A
∂y
_
dxdy,
(4.197)
usando as regras destacadas anteriormente. Integrando sobre uma superf´ıcie S e sua fronteira ∂S, respectivamente,
obtemos
_
∂S
(Adx +Bdy) =
_
S
d(Adx +Bdy) =
_
S
_
∂B
∂x

∂A
∂y
_
dxdy. (4.198)
Aqui, as contribuic¸ ˜ oes ` a integral da esquerda advindas de fronteiras internas se cancelam como de h´ abito, porque
s˜ ao orientadas em direc¸ ˜ oes opostas sobre retˆ angulos adjacentes. Para cada retˆ angulo interno orientado que comp˜ oe
a superf´ıcie simplesmente conectada S, usamos
_
R
ddx =
_
∂R
dx = 0. (4.199)
“livro” — 2007/8/1 — 15:06 — page 237 — #247
4. TEORIA DOS GRUPOS 237
Note que a derivada exterior gera automaticamente a componente z do rotacional.
Em trˆ es dimens˜ oes, o teorema de Stokes deriva da identidade de forma diferencial que envolve o potencial vetor
Ae a induc¸ ˜ ao magn´ etica B = ∇A,
d(A
x
dx +A
y
dy +A
z
dz) = dA
x
dx +dA
y
dy +dA
z
dz
=
_
∂A
x
∂x
dx +
∂A
x
∂y
dy +
∂A
x
∂z
dz
_
dx +
=
_
∂A
z
∂y

∂A
y
∂z
_
dy dz +
_
∂A
x
∂z

∂A
z
∂x
_
dz dx +
_
∂A
y
∂x

∂A
x
∂y
_
dxdy,
(4.200)
gerando todos os componentes do rotacional em espac¸o tridimensional. Essa identidade ´ e integrada sobre cada
retˆ angulo orientado que comp˜ oe a superf´ıcie simplesmente conectada S (que n˜ ao tem buracos, isto ´ e, onde cada
curva se contrai at´ e um ponto da superf´ıcie) e ent˜ ao ´ e somada sobre todos os retˆ angulos adjacentes, para resultar o
fluxo magn´ etico atrav´ es de S,
Φ =
_
S
[B
x
dy dz +B
y
dz dx +B
z
dxdy]
=
_
∂S
[A
x
dx +A
y
dy +A
z
dz], (4.201)
ou, na notac¸ ˜ ao-padr˜ ao de an´ alise vetorial (teorema de Stokes, Cap´ıtulo 1),
_
S
B da =
_
S
(∇A) da =
_
∂S
A dr. (4.202)

Exemplo 4.8.5 TEOREMA DE GAUSS
Considere a lei de Gauss, Sec¸ ˜ ao 1.14. Integramos a densidade el´ etrica ρ =
1
ε0
∇ E sobre o volume de um ´ unico
paralelep´ıpedo V = [a ≤ x ≤ b, c ≤ y ≤ d, e ≤ z ≤ f] orientado por dxdy dz (para o lado direito), o lado x = b
de V orientado por dy dz (sentido anti-hor´ ario, como vemos por x > b), e assim por diante. Usando
E
x
(b, y, z) −E
x
(a, y, z) =
_
b
a
∂E
x
∂x
dx, (4.203)
temos, na notac¸ ˜ ao de formas diferenciais, somando sobre todos os paralelep´ıpedos que comp˜ oem o volume 1,
_
∂\
E
x
dy dz =
_
\
∂E
x
∂x
dxdy dz. (4.204)
Integrando a identidade (2-forma) do fluxo el´ etrico
d(E
x
dy dz +E
y
dz dx +E
z
dxdy) = dE
x
dy dz +dE
y
dz dx +dE
z
dxdy
=
_
∂E
x
∂x
+
∂E
y
∂y
+
∂E
z
∂z
_
dxdy dz (4.205)
sobre a superf´ıcie simplesmente conectada ∂1 temos o teorema de Gauss,
_
∂\
(E
x
dy dz +E
y
dz dx +E
z
dxdy) =
_
\
_
∂E
x
∂x
+
∂E
y
∂y
+
∂E
z
∂z
_
dxdy dz, (4.206)
ou, em notac¸ ˜ ao-padr˜ ao de an´ alise vetorial,
_
∂\
E da =
_
\
∇ E d
3
r =
q
ε
0
. (4.207)

“livro” — 2007/8/1 — 15:06 — page 238 — #248
238 F´ısica Matem´ atica Arfken • Weber
Esses exemplos s˜ ao casos diferentes de um ´ unico teorema sobre formas diferenciais. Para explicar por que,
vamos comec¸ar com um pouco de terminologia, uma definic¸ ˜ ao preliminar de uma variedade diferenci´ avel
M: ela ´ e uma colec¸ ˜ ao de pontos (m-tuplas de n´ umeros reais) que s˜ ao conectados suavemente (isto ´ e,
diferenciavelmente) uns com os outros, de modo que a vizinhanc¸a de cada ponto parece ser um pedac¸o
simplesmente conectado de um espac¸o cartesiano m-dimensional “suficiente pr´ oximo” ao redor do ponto e que o
cont´ em. Aqui, m, que permanece constante de ponto a ponto, ´ e denominada dimens˜ ao da variedade. S˜ ao exemplos
o espac¸o euclidiano m-dimensional R
m
e a esfera m-dimensional
S
m
=
_
_
x
1
, . . . , x
m+1
_
;
m+1

i=1
_
x
i
_
2
= 1
_
.
Qualquer superf´ıcie com bordas agudas, cantos ou vazios n˜ ao ´ e uma base m´ ultipla em nosso sentido, isto ´ e, n˜ ao
´ e diferenci´ avel. Em geometria diferencial, todos os movimentos, tais como translac¸ ˜ ao e deslocamento paralelo,
s˜ ao locais, isto ´ e, s˜ ao definidos por infinit´ esimos. Se aplicarmos a derivada exterior d a uma func¸ ˜ ao f(x
1
, . . . , x
m
)
sobre M, geramos 1-formas b´ asicas:
df =
∂f
∂x
i
dx
i
, (4.208)
em que x
i
(P) s˜ ao func¸ ˜ oes coordenadas. Como antes, temos d(df) = 0 porque
d(df) = d
_
∂f
∂x
i
_
dx
i
=

2
f
∂x
j
∂x
i
dx
j
dx
i
=

j<i
_

2
f
∂x
j
∂x
i


2
f
∂x
i
∂x
j
_
dx
j
dx
i
= 0 (4.209)
porque a ordem das derivadas n˜ ao importa. Qualquer 1-forma ´ e uma combinac¸ ˜ ao linear ω =

i
ω
i
dx
i
com
func¸ ˜ oes ω
i
.
Teorema de Stokes Generalizado sobre Formas Diferenciais
Seja ω uma forma (k − 1) cont´ınua no espac¸o x
1
x
2
x
n
definida em todos os lugares sobre uma variedade S
compacta, orientada, diferenci´ avel, k-dimensional, com fronteira ∂S em espac¸o x
1
x
2
x
n
. Ent˜ ao
_
∂S
ω =
_
S
dω. (4.210)
Aqui
dω = d(Adx
1
dx
2
dx
k−1
+ ) = dAdx
1
dx
2
dx
k−1
+ . (4.211)
A energia potencial no Exemplo 4.8.3, dado esse teorema para o potencial ω = V , 0-forma; o teorema de Stokes no
Exemplo 4.8.4 ´ e esse teorema para o potencial vetorial 1-forma

i
A
i
dx
i
(para espac¸os euclidianos dx
i
= dx
i
);
e o teorema de Gauss no Exemplo 4.8.5 ´ e o teorema de Stokes para o fluxo el´ etrico 2-forma no espac¸o euclidiano
tridimensional.
O m´ etodo de integrac¸ ˜ ao por partes pode ser generalizado para formas diferenciais usando a Equac¸ ˜ ao (4.186):
_
S

1
ω
2
=
_
∂S
ω
1
ω
2
−(−1)
k1
_
S
ω
1

2
. (4.212)
Isto ´ e provado integrando a identidade
d(ω
1
ω
2
) = dω
1
ω
2
+ (−1)
k1
ω
1

2
, (4.213)
com o termo integrado
_
S
d(ω
1
ω
2
) =
_
∂S
ω
1
ω
2
.
Nosso pr´ oximo objetivo ´ e colocar as Sec¸ ˜ oes 2.10 e 2.11 na linguagem das formas diferenciais. At´ e aqui
trabalhamos em espac¸o euclidiano bi ou tridimensional.
“livro” — 2007/8/1 — 15:06 — page 239 — #249
4. TEORIA DOS GRUPOS 239
Exemplo 4.8.6 VARIEDADE DE RIEMANN
Vamos examinar o espac¸o-tempo curvado de Riemann das Sec¸ ˜ oes 2.10-2.11 e reformular um pouco dessa an´ alise
tensorial em espac¸os curvos na linguagem das formas diferenciais. Lembre-se de que, aqui, ´ e importante distinguir
entre ´ındices inferiores e superiores. Am´ etrica g
ij
Equac¸ ˜ ao (2.123) pode ser escrita emtermos de vetores tangentes,
Equac¸ ˜ ao (2.114), como segue:
g
ij
=
∂x
l
∂q
i
∂x
l
∂q
j
, (4.214)
em que a soma sobre o ´ındice l denota o produto interno dos vetores tangentes. (Aqui continuamos a usar a
convenc¸ ˜ ao da soma de Einstein sobre ´ındices repetidos. Como antes, o tensor m´ etrico ´ e usado para elevar e reduzir
´ındices repetidos). O conceito fundamental de conex˜ ao envolve os s´ımbolos de Christoffel, que abordamos em
primeiro lugar. Aderivada exterior de umvetor tangente pode ser expandida emtermos da base de vetores tangentes
(compare com a Equac¸ ˜ ao (2.131a)),
d
_
∂x
l
∂q
i
_
= Γ
k
ij
∂x
l
∂q
k
dq
j
, (4.215)
introduzindo, desse modo, os s´ımbolos de Christoffel da segunda esp´ ecie. Aplicando d ` a Equac¸ ˜ ao (4.214), obtemos
dg
ij
=
∂g
ij
∂q
m
dq
m
= d
_
∂x
l
∂q
i
_
∂x
l
∂q
j
+
∂x
l
∂q
i
d
_
∂x
l
∂q
j
_
(4.216)
=
_
Γ
k
im
∂x
l
∂q
k
∂x
l
∂q
j
+ Γ
k
jm
∂x
l
∂q
i
∂x
l
∂q
k
_
dq
m
=
_
Γ
k
im
g
kj
+ Γ
k
jm
g
ik
_
dq
m
.
Comparando os coeficientes de dq
m
, temos
∂g
ij
∂q
m
= Γ
k
im
g
kj
+ Γ
k
jm
g
ik
. (4.217)
Usando o s´ımbolo de Christoffel da primeira esp´ ecie,
[ij, m] = g
km
Γ
k
ij
, (4.218)
podemos reescrever a Equac¸ ˜ ao (4.217) como
∂g
ij
∂q
m
= [im, j] + [jm, i], (4.219)
o que corresponde ` a Equac¸ ˜ ao (2.136) e implica a Equac¸ ˜ ao (2.137). Verificamos que
[ij, m] =
1
2
_
∂g
im
∂q
j
+
∂g
jm
∂q
i

∂g
ij
∂q
m
_
(4.220)
´ e a ´ unica soluc¸ ˜ ao da Equac¸ ˜ ao (4.219) e que
Γ
k
ij
= g
mk
[ij, m] =
1
2
g
mk
_
∂g
im
∂q
j
+
∂g
jm
∂q
i

∂g
ij
∂q
m
_
(4.221)
resulta disso.
Operador* de Hodge
As diferenciais dx
i
, i = 1, 2, . . . , m, formam uma base de um espac¸o vetorial que ´ e considerado dual em
relac¸ ˜ ao ` as derivadas ∂
i
=

∂x
i
; elas s˜ ao 1-formas b´ asicas. Por exemplo, o espac¸o vetorial 1 = ¦(a
1
, a
2
, a
3

´ e dual ao espac¸o vetorial de planos (func¸ ˜ oes lineares de f) em espac¸o euclidiano tridimensional 1

= ¦f ≡
a
1
x
1
+a
2
x
2
+a
3
x
3
−d = 0¦. O gradiente
∇f =
_
∂f
∂x
1
,
∂f
∂x
2
,
∂f
∂x
3
_
= (a
1
, a
2
, a
3
) (4.222)
“livro” — 2007/8/1 — 15:06 — page 240 — #250
240 F´ısica Matem´ atica Arfken • Weber
d´ a um mapa um-para-um, diferenci´ avel, de 1

para 1. Essas relac¸ ˜ oes duais s˜ ao generalizadas pelo operador

de
Hodge, baseado no s´ımbolo de Levi-Civita da Sec¸ ˜ ao 2.9.
Sejam os vetores unit´ arios ˆ x
i
uma base ortonormal orientada do espac¸o euclidiano tridimensional. Ent˜ ao o

de
Hodge de escalares ´ e definido pelo elemento de base
∗1 ≡
1
3!
ε
ijk
ˆ x
i
ˆ x
j
ˆ x
k
= ˆ x
1
ˆ x
2
ˆ x
3
, (4.223)
que corresponde a (ˆ x
1
ˆ x
2
) ˆ x
3
em notac¸ ˜ ao vetorial padr˜ ao. Aqui, ˆ x
i
ˆ x
j
ˆ x
k
´ e o produto externo totalmente anti-
sim´ etrico dos vetores unit´ arios que corresponde a (ˆ x
i
ˆ x
j
) ˆ x
k
em notac¸ ˜ ao vetorial padr˜ ao. Para vetores,

´ e
definido para a base de vetores unit´ arios como
∗ˆ x
i

1
2!
ε
i
jk
ˆ x
j
ˆ x
k
. (4.224)
Em particular,
∗ˆ x
1
= ˆ x
2
ˆ x
3
, ∗ˆ x
2
= ˆ x
3
ˆ x
1
, ∗ˆ x
3
= ˆ x
1
ˆ x
2
. (4.225)
Para ´ areas orientadas,

´ e definido sobre elementos de ´ area de base como
∗(ˆ x
i
ˆ x
j
) ≡ ε
k
ij
ˆ x
k
, (4.226)
portanto,
∗(ˆ x
1
ˆ x
2
) = ε
3
12
ˆ x
3
= ˆ x
3
, ∗(ˆ x
1
ˆ x
3
) = ε
2
13
ˆ x
2
= −ˆ x
2
,
∗(ˆ x
2
ˆ x
3
) = ε
1
23
ˆ x
1
= ˆ x
1
. (4.227)
Para volumes,

´ e definido como
∗(ˆ x
1
ˆ x
2
ˆ x
3
) ≡ ε
123
= 1. (4.228)
Exemplo 4.8.7 PRODUTO EXTERNO DE VETORES
O produto externo de dois vetores
a =
3

i=1
a
i
ˆ x
i
, b =
3

i=1
b
i
ˆ x
i
(4.229)
´ e dado por
ab =
_
3

i=1
a
i
ˆ x
i
__
3

j=1
b
i
ˆ x
j
_
=

i<j
_
a
i
b
j
−a
j
b
i
_
ˆ x
i
ˆ x
j
, (4.230)
ao passo que a Equac¸ ˜ ao (4.224) implica
∗(ab) = a b. (4.231)

Em seguida, vamos analisar as Sec¸ ˜ oes 2.1-2.2 sobre coordenadas curvil´ıneas na linguagem das formas
diferenciais.
Exemplo 4.8.8 LAPLACIANO EM COORDENADAS ORTOGONAIS
Considere coordenadas ortogonais onde a m´ etrica (Equac¸ ˜ ao (2.5)) leva a elementos de comprimento
ds
i
= h
i
dq
i
, n˜ ao somados. (4.232)
Aqui, as dq
i
s˜ ao diferenciais ordin´ arias. As 1-formas associadas com as direc¸ ˜ oes ˆ q
i
ε
i
= h
i
dq
i
, n˜ ao somadas. (4.233)
Ent˜ ao o gradiente ´ e definido pela 1-forma
df =
∂f
∂q
i
dq
i
=
_
1
h
i
∂f
∂q
i
_
ε
i
. (4.234)
“livro” — 2007/8/1 — 15:06 — page 241 — #251
4. TEORIA DOS GRUPOS 241
Aplicamos o operador de Hodge a df, gerando a 2-forma
∗df =
_
1
h
i
∂f
∂q
i
_
∗ ε
i
=
_
1
h
1
∂f
∂q
1
_
ε
2
ε
3
+
_
1
h
2
∂f
∂q
2
_
ε
3
ε
1
+
_
1
h
3
∂f
∂q
3
_
ε
1
ε
2
=
_
h
2
h
3
h
1
∂f
∂q
1
_
dq
2
dq
3
+
_
h
1
h
3
h
2
∂f
∂q
2
_
dq
3
dq
1
+
_
h
1
h
2
h
3
∂f
∂q
3
_
dq
1
dq
2
.
(4.235)
Aplicando uma outra derivada exterior d, obtemos o laplaciano
d(∗df) =

∂q
1
_
h
2
h
3
h
1
∂f
∂q
1
_
dq
1
dq
2
dq
3
+

∂q
2
_
h
1
h
3
h
2
∂f
∂q
2
_
dq
2
dq
1
dq
2
dq
3
+

∂q
3
_
h
1
h
2
h
3
∂f
∂q
3
_
dq
3
dq
1
dq
2
dq
3
=
1
h
1
h
2
h
3
_

∂q
1
_
h
2
h
3
h
1
∂f
∂q
1
_
+

∂q
2
_
h
1
h
3
h
2
∂f
∂q
2
_
+

∂q
3
_
h
1
h
2
h
3
∂f
∂q
3
__
ε
1
ε
2
ε
3
= ∇
2
f dq
1
dq
2
dq
3
. (4.236)
Dividindo pelo elemento de volume, temos a Equac¸ ˜ ao (2.22). Lembre-se de que os elementos de volume dxdy dz
e ε
1
ε
2
ε
3
devem ser iguais porque ε
i
e dx, dy, dz s˜ ao 1-formas ortonormais e o mapa de xyz para as q
i
coordenadas
´ e um-para-um.
Exemplo 4.8.9 EQUAC¸ ˜ OES DE MAXWELL
Agora trabalhamos em espac¸o quadridimensional de Minkowski, o espac¸o-tempo plano, homogˆ eneo, da
relatividade especial, para discutir a eletrodinˆ amica cl´ assica em termos de formas diferenciais. Comec¸amos
introduzindo o campo eletromagn´ etico 2-forma (tensor de campo em notac¸ ˜ ao relativista padr˜ ao):
F = −E
x
dt dx −E
y
dt dy −E
z
dt dz +B
x
dy dz +B
y
dz dx +B
z
dxdy
=
1
2
F
µν
dx
µ
dx
ν
, (4.237)
que cont´ em a 1-forma el´ etrica E = E
x
dx + E
y
dy + E
z
dz e o fluxo magn´ etico 2-forma. Aqui, termos com
1-formas em ordem oposta foram combinados. (Para a Equac¸ ˜ ao (4.237) ser v´ alida, a induc¸ ˜ ao magn´ etica est´ a em
unidades de c; isto ´ e, B
i
→ cB
i
sendo c a velocidade da luz ou trabalhamos em unidades em que c = 1. Al´ em
disso, F est´ a em unidades de 1/ε
0
, a constante diel´ etrica do v´ acuo. E mais, o potencial vetorial ´ e definido como
A
0
= ε
0
φ, com o potencial el´ etrico n˜ ao-est´ atico φ e A
1
=
Ax
µ
0
c
, . . . (veja a Sec¸ ˜ ao 4.6 se quiser mais detalhes). O
campo F de 2-forma abrange a lei da induc¸ ˜ ao de Faraday que diz que uma carga em movimento sofre a ac¸ ˜ ao de
forc¸as magn´ eticas.
Aplicando a derivada exterior d, geramos automaticamente as equac¸ ˜ oes homogˆ eneas de Maxwell por F:
dF = −
_
∂E
x
∂y
dy +
∂E
x
∂z
dz
_
dt dx −
_
∂E
y
∂x
dx +
∂E
y
∂z
dz
_
dt dy

_
∂E
z
∂x
dx +
∂E
z
∂y
dy
_
dt dz +
_
∂B
x
∂x
dx +
∂B
x
∂t
dt
_
dy dz
+
_
∂B
y
∂t
dt +
∂B
y
∂y
dy
_
dz dx +
_
∂B
z
∂t
dt +
∂B
z
∂z
dz
_
dxdy
=
_

∂E
x
∂y
+
∂E
y
∂x
+
∂B
z
∂t
_
dt dxdy +
_

∂E
x
∂z
+
∂E
z
∂x

∂B
y
∂t
_
dt dxdz
+
_

∂E
y
∂z
+
∂E
z
∂y
+
∂B
x
∂t
_
dt dy dz = 0 (4.238)
que, em notac¸ ˜ ao-padr˜ ao de an´ alise vetorial, toma a familiar forma vetorial de equac¸ ˜ oes homogˆ eneas de Maxwell,
∇E+
∂B
∂t
= 0. (4.239)
“livro” — 2007/8/1 — 15:06 — page 242 — #252
242 F´ısica Matem´ atica Arfken • Weber
Uma vez que dF = 0, isto ´ e, n˜ ao h´ a nenhum termo-guia, de modo que F ´ e fechada e deve existir um ω = A
µ
dx
µ
1-forma, de modo que F = dω. Agora,
dω = ∂
ν
A
µ
dx
ν
dx
µ
, (4.240)
que, em notac¸ ˜ ao-padr˜ ao leva ` a forma relativista convencional do tensor de campo eletromagn´ etico,
F
µν
= ∂
µ
A
ν
−∂
ν
A
µ
. (4.241)
Assim, as equac¸ ˜ oes homogˆ eneas de Maxwell, dF = 0, s˜ ao equivalentes a ∂
ν
F
µν
= 0.
Para derivar dessa mesma forma as equac¸ ˜ oes n˜ ao-homogˆ eneas de Maxwell, introduzimos o tensor dual de
campo eletromagn´ etico
˜
F
µν
=
1
2
ε
µναβ
F
αβ
, (4.242)
e, em termos de formas diferenciais,
∗F = ∗
_
F
µν
dx
µ
dx
ν
_
= F
µν

_
dx
µ
dx
ν
_
=
1
2
F
µν
ε
µν
αβ
dx
α
dx
β
. (4.243)
Aplicando as derivadas exteriores, obtemos
d(∗F) =
1
2
ε
µν
αβ
(∂
γ
F
µν
) dx
γ
dx
α
dx
β
, (4.244)
o lado esquerdo das equac¸ ˜ oes n˜ ao-homogˆ eneas de Maxwell, uma 3-forma. Seu termo-guia ´ e o dual da densidade
de corrente el´ etrica, uma 3-forma:
∗J = J
α
_
∗dx
α
_
= J
α
ε
α
µνλ
dx
µ
dx
ν
dx
λ
= ρ dxdy dz −J
x
dt dy dz −J
y
dt dz dx −J
z
dt dxdy. (4.245)
No todo, as equac¸ ˜ oes n˜ ao-homogˆ eneas de Maxwell tomam a elegante forma
d(∗F) = ∗J. (4.246)
A estrutura de forma diferencial trouxe consider´ avel unificac¸ ˜ ao ` a ´ algebra vetorial e, de forma mais geral,
` a an´ alise tensorial variedades, tal como a uni˜ ao dos teoremas de Stokes e Gauss, forneceu uma reformulac¸ ˜ ao
elegante das equac¸ ˜ oes de Maxwell e uma derivac¸ ˜ ao do laplaciano emcoordenadas ortogonais curvas, entre outras.
Exerc´ıcios
4.8.1 Avalie a 1-forma a dx +2b dy +4c dz no segmento de linha PQ, com P = (3, 5, 7), Q = (7, 5, 3).
4.8.2 Se o campo de forc¸a ´ e constante e movimentar uma part´ıcula da origemat´ e (3, 0, 0) requer a unidade
de trabalho, de (−1, −1, 0) a (−1, 1, 0) exige b unidades de trabalho e de (0, 0, 4) a (0, 0, 5) precisa
de c unidade de trabalho, ache a 1-forma do trabalho.
4.8.3 Avalie o fluxo descrito pela 2-forma dxdy + 2 dy dz + 3 dz dx atrav´ es do triˆ angulo orientado PQR
com v´ ertices em
P = (3, 1, 4), Q = (−2, 1, 4), R = (1, 4, 1).
4.8.4 Os pontos, na ordem dada a seguir,
(0, 1, 1), (3, −1, −2), (4, 2, −2), (−1, 0, 1)
s˜ ao coplanares ou formam um volume orientado (para o lado direito ou para o lado esquerdo)?
4.8.5 Escreva a lei de Oersted,
_
∂S
H dr =
_
S
∇H da ∼ I,
em notac¸ ˜ ao de forma diferencial.
4.8.6 Descreva o campo el´ etrico pela 1-forma E
1
dx + E
2
dy + E
3
dz e a induc¸ ˜ ao magn´ etica pela
2-forma B
1
dy dz + B
2
dz dx + B
3
dxdy. Ent˜ ao formule a lei de Faraday da induc¸ ˜ ao em termos
dessas formas.
“livro” — 2007/8/1 — 15:06 — page 243 — #253
4. TEORIA DOS GRUPOS 243
4.8.7 Avalie a 1-forma
xdy
x
2
+y
2

y dx
x
2
+y
2
no c´ırculo unit´ ario ao redor da origem, com orientac¸ ˜ ao anti-hor´ aria.
4.8.8 Ache o retrocesso de dxdz sob x = ucos v, y = u −v,
4.8.9 Ache o retrocesso da forma dy dz + dz dx + dxdy sob o mapa x = sen θ cos ϕ, y = sen θsen ϕ,
z = cos θ.
4.8.10 Parametrize a superf´ıcie obtida pela rotac¸ ˜ ao do c´ırculo (x − 2)
2
+ z
2
= 1, y = 0 ao redor do eixo
z com orientac¸ ˜ ao em sentido anti-hor´ ario, como visto de fora.
4.8.11 Uma 1-forma Adx + Bdy ´ e definida como fechada se
∂A
∂y
=
∂B
∂x
.
´
E denominada exata se houver
uma func¸ ˜ ao f, tal que
∂f
∂x
= A e
∂f
∂y
= B. Determine quais das seguintes 1-formas s˜ ao fechadas ou
exatas e ache as func¸ ˜ oes correspondentes f para as que s˜ ao exatas:
y dx +xdy,
y dx +xdy
x
2
+y
2
,
_
ln(xy) + 1
¸
dx +
x
y
dy,

y dx
x
2
+y
2
+
xdy
x
2
+y
2
, f(z) dz com z = x +iy.
4.8.12 Mostre que

n
i=1
x
2
i
= a
2
define uma base m´ ultipla diferenci´ avel de dimens˜ ao D = n−1 se a ,= 0
e D = 0 se a = 0.
4.8.13 Mostre que o conjunto de matrizes ortogonais 2 2 forma uma base m´ ultipla diferenci´ avel e
determine sua dimens˜ ao.
4.8.14 Determine o valor da 2-forma Ady dz + Bdz dx + C dxdy sobre um paralelogramo com lados
a, b.
4.8.15 Prove a invariˆ ancia de Lorentz das equac¸ ˜ oes de Maxwell na linguagem das formas diferenciais.
Leituras Adicionais
Buerger, M. J., Elementary Crystallography. Nova York: Wiley (1956). Uma discuss˜ ao de simetrias de cristais.
Buerger desenvolve todos os 32 grupos pontuais e todos os 230 grupos espaciais. Alguns dos livros deste
autor relacionados ao assunto s˜ ao Contemporary Crystallography. Nova York: McGraw-Hill (1970); Crystal
Structure Analysis. Nova York: Krieger (1979) (nova tiragem em 1960); e Introduction to Crystal Geometry.
Nova York: Krieger (1977) (nova tiragem, 1971).
Burns, G., e A. M. Glazer, Space Groups for Solid-State Scientists. Nova York: Academic Press (1978). Um
tratamento bem organizado e de f´ acil leitura de grupos e sua aplicac¸ ˜ ao ao estado s´ olido.
de-Shalit, A., e I. Talmi, Nuclear Shell Model. Nova York: Academic Press (1963). Adotamos as convenc¸ ˜ oes de
fase de Condon-Shortley apresentadas nesse texto.
Edmonds, A. R., Angular Momentum in Quantum Mechanics. NJ: Princeton University Press (1957).
Edwards, H. M., Advanced Calculus: A Differential Forms Approach. Boston: Birkh¨ auser (1994).
Falicov, L. M., Group Theory and Its Physical Applications. Notas compiladas por A. Luehrmann. Chicago:
University of Chicago Press (1966). Teoria dos grupos com ˆ enfase em aplicac¸ ˜ oes a simetrias de cristais e f´ısica
do estado s´ olido.
Gell-Mann, M., e Y. Ne’eman, The Eightfold Way. Nova York: Benjamin (1965). Uma coletˆ anea de artigos
relevantes sobre SU(3) e as part´ıculas da f´ısica de alta energia. Diversas sec¸ ˜ oes introdut´ orias por Gell-Mann e
Ne’eman s˜ ao de especial utilidade.
Greiner, W., e B. M¨ uller, Quantum Mechanics Symmetries. Berlim: Springer (1989). Referimo-nos a este livro para
mais detalhes e numerosos exerc´ıcios que s˜ ao examinados detalhadamente.
Hamermesh, M., Group Theory and Its Application to Physical Problems. Reading, MA: Addison-Wesley
(1962). Um apanhado detalhado e rigoroso de grupos finitos e grupos cont´ınuos. Os 32 grupos pontuais s˜ ao
desenvolvidos. Os grupos cont´ınuos s˜ ao tratados, com a ´ algebra de Lie inclu´ıda. Grande n´ umero de aplicac¸ ˜ oes
` as f´ısicas atˆ omica e nuclear.
Hassani, S., Foundations of Mathematical Physics. Boston: Allyn and Bacon (1991).
Heitler, W., The Quantum Theory of Radiation, 2
a
. ed. Oxford: Oxford University Press (1947). Nova tiragem,
Nova York: Dover (1983).
“livro” — 2007/8/1 — 15:06 — page 244 — #254
244 F´ısica Matem´ atica Arfken • Weber
Higman, B., Applied Group-Theoretic and Matrix Methods. Oxford: Clarendon Press (1955). Um desenvolvimento
bastante complexo, por´ em de f´ acil compreens˜ ao de an´ alise matricial e teoria dos grupos.
Jackson, J. D., Classical Electrodynamics, 3
a
. ed. Nova York: Wiley (1998).
Messiah, A., Quantum Mechanics, vol. II. Amsterdam: North-Holland (1961).
Panofsky, W. K. H., e M. Phillips, Classical Electricity and Magnetism, 2
a
. ed. Reading, MA: Addison-Wesley
(1962). A covariˆ ancia de Lorentz de equac¸ ˜ oes de Maxwell ´ e desenvolvida para o v´ acuo e tamb´ em para meios
materiais. Panofsky e Phillips usam tensores contravariantes e covariantes.
Park, D. “Resource letter SP-1 on symmetry in physics”. Am. J. Phys. 36: 577-584 (1968). Inclui uma grande
selec¸ ˜ ao de referˆ encias b´ asicas sobre teoria dos grupos e suas aplicac¸ ˜ oes ` a f´ısica: ´ atomos, mol´ eculas, n´ ucleos,
s´ olidos e part´ıculas elementares.
Ram, B., “Physics of the SU(3) symmetry model.”Am. J. Phys. 35: 16 (1967). Uma excelente discuss˜ ao das
aplicac¸ ˜ oes do SU(3) ` as part´ıculas de interac¸ ˜ oes fortes (b´ arions). Esse assunto tamb´ em ´ e discutido em R. D.
Young, Physics of the quark model. Am. J. Phys. 41: 472 (1973).
Rose, M. E., Elementary Theory of Angular Momentum. Nova York: Wiley (1957). Nova tiragem. Nova York:
Dover (1995). Como parte do desenvolvimento da teoria quˆ antica do momento angular, Rose inclui um
apanhado detalhado e de f´ acil leitura do grupo de rotac¸ ˜ ao.
Wigner, E. P., Group Theory and Its Application to the Quantum Mechanics of Atomic Spectra (traduzido por
J. J. Griffin). Nova York: Academic Press (1959). Este livro ´ e a referˆ encia cl´ assica da teoria dos grupos para
o f´ısico. O grupo de rotac¸ ˜ ao ´ e tratado com consider´ avel detalhe. H´ a um grande n´ umero de aplicac¸ ˜ oes ` a f´ısica
at ˆ omica.
“livro” — 2007/8/1 — 15:06 — page 245 — #255
5
S´ eries Infinitas
5.1 Conceitos Fundamentais
S´ eries infinitas, literalmente somas de um n´ umero infinito de termos, ocorrem com freq¨ uˆ encia tanto na matem´ atica
pura quanto na aplicada. Elas podem ser usadas pelo matem´ atico puro para definir func¸ ˜ oes como uma abordagem
fundamental da teoria de func¸ ˜ oes, bem como para calcular valores precisos de constantes transcendentais e func¸ ˜ oes
transcendentais. Na matem´ atica da Ciˆ encia e da Engenharia, as s´ eries infinitas est˜ ao por toda parte, porque
aparecem na avaliac¸ ˜ ao de integrais (Sec¸ ˜ oes 5.6 e 5.7), na soluc¸ ˜ ao de equac¸ ˜ oes diferenciais (Sec¸ ˜ oes 9.5 e 9.6) e
como s´ eries de Fourier (Cap´ıtulo 14) e competem com as representac¸ ˜ oes integrais na descric¸ ˜ ao de um grande
n´ umero de func¸ ˜ oes especiais (Cap´ıtulos 11, 12 e 13). Na Sec¸ ˜ ao 16.3, a soluc¸ ˜ ao da s´ erie de Neumann para equac¸ ˜ oes
integrais nos d´ a mais de um exemplo da ocorrˆ encia e utilizac¸ ˜ ao de s´ eries infinitas.
Desde o in´ıcio enfrentamos o problema de atribuir significado ` a soma de um n´ umero infinito de termos.
A abordagem usual ´ e a das somas parciais. Se temos uma seq¨ uˆ encia infinita de termos u
1
, u
2
, u
3
, u
4
, u
5
, . . . ,
definimos a i-´ esima soma parcial como
s
i
=
i

n=1
u
n
. (5.1)
Essa ´ e uma soma finita e n˜ ao oferece dificuldade alguma. Se as somas parciais s
i
convergem para um limite (finito),
` a medida que i →∞,
lim
i→∞
s
i
= S, (5.2)
diz-se que a s´ erie infinita


n=1
u
n
´ e convergente e tem o valor S. Note que, de um modo razo´ avel, plaus´ıvel,
por´ em ainda assim arbitr´ ario, definimos a s´ erie infinita como igual a S e que uma condic¸ ˜ ao necess´ aria para
essa convergˆ encia para um limite ´ e que lim
n→∞
u
n
= 0. Entretanto, essa condic¸ ˜ ao n˜ ao ´ e suficiente para garantir
convergˆ encia. A Equac¸ ˜ ao (5.2) costuma ser escrita em notac¸ ˜ ao matem´ atica formal:
A condic¸ ˜ ao para a existˆ encia de um limite S ´ e que, para cada ε > 0, haja um N = N(ε) fixo tal que
[S −s
i
[ < ε, para i > N.
Essa condic¸ ˜ ao ´ e freq¨ uentemente derivada do crit´ erio de Cauchy aplicado ` as somas parciais s
i
. O crit´ erio de
Cauchy ´ e:
Uma condic¸ ˜ ao necess´ aria e suficiente para que uma seq¨ uˆ encia (s
i
) convirja ´ e que, para cada ε > 0, haja um
n´ umero fixo N tal que
[s
j
−s
i
[ < ε, para todo i, j > N.
Isso significa que as somas parciais individuais devem se agrupar ` a medida que avanc¸amos bastante na seq¨ uˆ encia.
O crit´ erio de Cauchy pode ser estendido com facilidade para seq¨ uˆ encias de func¸ ˜ oes. N´ os o vemos nessa forma
na Sec¸ ˜ ao 5.5, na definic¸ ˜ ao de convergˆ encia uniforme, e na Sec¸ ˜ ao 10.4, no desenvolvimento do espac¸o de Hilbert.
Nossas somas parciais s
i
podem n˜ ao convergir a um limite ´ unico, mas oscilar, como no caso

n=1
u
n
= 1 −1 + 1 −1 + 1 + −(−1)
n
+ .
´
E claro que, s
i
= 1 para ´ımpar, mas s
i
= 0 para i par. N˜ ao h´ a nenhuma convergˆ encia para um limite, e s´ eries como
essa s˜ ao denominadas oscilantes. Sempre que a seq¨ uˆ encia de somas parciais divergir (aproximar-se de ±∞), diz-
se que a s´ erie infinita diverge. Muitas vezes, o termo divergente ´ e ampliado para incluir tamb´ em s´ eries oscilantes.
245
“livro” — 2007/8/1 — 15:06 — page 246 — #256
246 F´ısica Matem´ atica Arfken • Weber
Como avaliamos as somas parciais pela aritm´ etica comum, a s´ erie convergente, definida em termos de um limite
das somas parciais, assume uma posic¸ ˜ ao de suprema importˆ ancia. Dois exemplos podem esclarecer a natureza de
convergˆ encia ou divergˆ encia de uma s´ erie e tamb´ em servir˜ ao como base para uma investigac¸ ˜ ao mais detalhada na
pr´ oxima sec¸ ˜ ao.
Exemplo 5.1.1 A S´ ERIE GEOM´ ETRICA
A seq¨ uˆ encia geom´ etrica, comec¸ando com a e com uma raz˜ ao r (= a
n+1
/a
n
independente de n), ´ e dada por
a +ar +ar
2
+ar
3
+ +ar
n−1
+ .
A en´ esima soma parcial ´ e dada por
1
s
n
= a
1 −r
n
1 −r
. (5.3)
Tomando o limite para n →∞,
lim
n→∞
s
n
=
a
1 −r
, para [r[ < 1. (5.4)
Da´ı, por definic¸ ˜ ao, a s´ erie geom´ etrica infinita converge para [r[ < 1 e ´ e dada por

n=1
ar
n−1
=
a
1 −r
. (5.5)
Por outro lado, se [r[ ≥ 1, a condic¸ ˜ ao necess´ aria u
n
→0 n˜ ao ´ e satisfeita e a s´ erie infinita diverge.
Exemplo 5.1.2 A S´ ERIE HARMˆ ONICA
Como um segundo exemplo mais complicado, consideramos a s´ erie harmˆ onica

n=1
1
n
= 1 +
1
2
+
1
3
+
1
4
+ +
1
n
+ . (5.6)
Temos o lim
n→∞
u
n
= lim
n→∞
1/n = 0, mas isso n˜ ao ´ e suficiente para garantir convergˆ encia. Se agruparmos os
termos (nenhuma alterac¸ ˜ ao na ordem) como
1 +
1
2
+
_
1
3
+
1
4
_
+
_
1
5
+
1
6
+
1
7
+
1
8
_
+
_
1
9
+ +
1
16
_
+ , (5.7)
cada par de parˆ enteses inclui p termos da forma
1
p + 1
+
1
p + 2
+ +
1
p +p
>
p
2p
=
1
2
. (5.8)
Formando somas parciais pela adic¸ ˜ ao dos grupos entre parˆ enteses, um por um, obtemos
s
1
= 1, s
4
>
5
2
,
s
2
=
3
2
, s
5
>
6
2
,
s
3
>
4
2
, s
n
>
n + 1
2
.
(5.9)
Considerada dessa maneira, a s´ erie harmˆ onica ´ e certamente divergente.
2
Uma demonstrac¸ ˜ ao alternativa e
independente de sua divergˆ encia aparece na Sec¸ ˜ ao 5.2.

Se os u
n
> 0 est˜ ao decrescendo monotonicamente para zero, isto ´ e, u
n
> u
n+1
para todo n, ent˜ ao

n
u
n
est´ a
convergindo para S se, e somente se, s
n
−nu
n
convergir para S.
`
A medida que as somas parciais s
n
convergem
para S, esse teorema indica que nu
n
→0, para n →∞.
Para provar esse teorema, comec¸amos por concluir de 0 < u
n+1
< u
n
e
s
n+1
−(n + 1)u
n+1
= s
n
−nu
n+1
= s
n
−nu
n
+n(u
n
−u
n+1
) > s
n
−nu
n
1
Multiplique e divida sn =
P
n−1
m=0
ar
m
por 1 −r.
2
A s´ erie harmˆ onica (finita) aparece em uma nota interessante sobre o m´ aximo deslocamento est´ avel de uma pilha de moedas. P. R. Johnson,
“The Leaning Tower of Lire”. Am. J. Phys. 23: 240 (1955).
“livro” — 2007/8/1 — 15:06 — page 247 — #257
5. S´ ERIES INFINITAS 247
que s
n
− nu
n
aumenta ` a medida que n → ∞. Como conseq¨ uˆ encia de s
n
− nu
n
< s
n
≤ S, s
n
− nu
n
converge para um valor s ≤ S. Excluindo a cauda de termos positivos u
i
− u
n
de i = ν + 1 to n, inferimos,
por s
n
−nu
n
> u
0
+(u
1
−u
n
) + +(u
ν
−u
n
) = s
ν
−νu
n
que s
n
−nu
n
≥ s
ν
para n →∞. Por conseguinte,
s ≥ S, tamb´ em, portanto, s = S e nu
n
→0.
Quando aplicado ` a s´ erie harmˆ onica

n
1
n
com n
1
n
= 1, esse teorema indica que ela n˜ ao converge; diverge
para +∞.
Adic¸ ˜ ao, Subtrac¸ ˜ ao de S´ eries
Se temos duas s´ erie convergentes

n
u
n
→ s e

n
v
n
→ S, a soma e a diferenc¸a das duas tamb´ em convergir˜ ao
para s ±S porque suas somas parciais satisfazem
¸
¸
s
j
±S
j
−(s
i
±S
i
)
¸
¸
=
¸
¸
s
j
−s
i
±(S
j
−S
i
)
¸
¸
≤ [s
j
−s
i
[ +[S
j
−S
i
[ < 2
usando a desigualdade triangular
[a[ −[b[ ≤ [a +b[ ≤ [a[ +[b[
para a = s
j
−s
i
, b = S
j
−S
i
.
Uma s´ erie convergente

n
u
n
→ S pode ser multiplicada termo a termo por um n´ umero real a. A nova s´ erie
convergir´ a a aS porque
[as
j
−as
i
[ =
¸
¸
a(s
j
−s
i
)
¸
¸
= [a[[s
j
−s
i
[ < [a[.
Essa multiplicac¸ ˜ ao por uma constante pode ser generalizada para uma multiplicac¸ ˜ ao por termos c
n
de uma
seq¨ uˆ encia limitada de n´ umeros.
Se

n
u
n
converge para S e 0 < c
n
≤ M s˜ ao limitados, ent˜ ao

n
u
n
c
n
´ e convergente. Se

n
u
n
´ e divergente
e c
n
> M > 0, ent˜ ao

n
u
n
c
n
diverge.
Para provar esse teorema tomamos i, j suficientemente grandes, de modo que [s
j
−s
i
[ < . Ent˜ ao,
j

i+1
u
n
c
n
≤ M
j

i+1
u
n
= M[s
j
−s
i
[ < M.
O caso divergente resulta de

n
u
n
c
n
> M

n
u
n
→∞.
Usando o teorema binomial
3
(Sec¸ ˜ ao 5.6), podemos expandir a func¸ ˜ ao (1 +x)
−1
:
1
1 +x
= 1 −x +x
2
−x
3
+ + (−x)
n−1
+ . (5.10)
Se deixarmos x →1, essa s´ erie se torna
1 −1 + 1 −1 + 1 −1 + , (5.11)
uma s´ erie que denominamos oscilante no in´ıcio desta sec¸ ˜ ao. Embora ela n˜ ao convirja no sentido usual, podemos
atribuir um significado a essa s´ erie. Euler, por exemplo, atribuiu um valor de 1/2 a essa seq¨ uˆ encia oscilante com
base na correspondˆ encia entre essa s´ erie e a func¸ ˜ ao bem definida (1+x)
−1
. Infelizmente, tal correspondˆ encia entre
s´ erie e func¸ ˜ ao n˜ ao ´ e ´ unica e essa abordagem deve ser refinada. Foram desenvolvidos outros m´ etodos para atribuir
um significado a uma s´ erie divergente ou oscilante, m´ etodos para definir uma soma. Veja G. H. Hardy, Divergent
S´ eries, Chelsea Publishing Co. 2
a
ed. (1992). Contudo, em geral, o interesse desse aspecto das s´ eries infinitas
para o cientista ou engenheiro ´ e relativamente pequeno. Uma excec¸ ˜ ao a essa afirmativa, a muito importante s´ erie
assint´ otica ou semiconvergente, ´ e considerada na Sec¸ ˜ ao 5.10.
Exerc´ıcios
5.1.1 Mostre que

n=1
1
(2n −1)(2n + 1)
=
1
2
.
Sugest˜ ao: Mostre (por induc¸ ˜ ao matem´ atica) que s
m
= m/(2m+ 1).
3
A Equac¸ ˜ ao (5.10) pode ser verificada multiplicando ambos os lados por 1 +x.
“livro” — 2007/8/1 — 15:06 — page 248 — #258
248 F´ısica Matem´ atica Arfken • Weber
5.1.2 Mostre que

n=1
1
n(n + 1)
= 1.
Ache a soma parcial s
m
e verifique se est´ a correta por induc¸ ˜ ao matem´ atica.
Nota: O m´ etodo de expans˜ ao em frac¸ ˜ oes parciais, Sec¸ ˜ ao 15.8, oferece um modo alternativo para
resolver os Exerc´ıcios 5.1.1 e 5.1.2.
5.2 Testes de Convergˆ encia
Embora s´ eries n˜ ao-convergentes possam ser ´ uteis em certos casos especiais (compare com a Sec¸ ˜ ao 5.10), por
quest˜ ao de conveniˆ encia, se n˜ ao de necessidade, normalmente insistimos que nossas s´ eries sejam convergentes.
Portanto, poder dizer de antem˜ ao se uma dada s´ erie ´ e convergente torna-se uma quest˜ ao de extrema importˆ ancia.
Desenvolveremos v´ arios testes poss´ıveis, comec¸ando com os testes simples e relativamente insens´ıveis e passando
para os testes mais complicados, por´ em bastante sens´ıveis. Por enquanto, vamos considerar uma s´ erie de termos
positivos a
n
≥ 0, deixando os termos negativos para a sec¸ ˜ ao seguinte.
Teste de Comparac¸ ˜ ao
Se, termo a termo, uma s´ erie de termos 0 ≤ u
n
≤ a
n
, na qual os a
n
formam uma s´ erie convergente, a s´ erie

n
u
n
tamb´ em ´ e convergente. Se u
n
≤ a
n
para todos os n, ent˜ ao

n
u
n


n
a
n
e

n
u
n
, portanto, ´ e convergente.
Se, termo a termo, uma s´ erie de termos v
n
≥ b
n
, na qual os b
n
formam uma s´ erie divergente, a s´ erie

n
v
n
tamb´ em ´ e divergente. Note que comparac¸ ˜ oes de u
n
com b
n
ou v
n
ou a
n
n˜ ao resultam em nenhuma informac¸ ˜ ao.
Se v
n
≥ b
n
para todos os n, ent˜ ao

n
v
n

n
b
n
e, portanto,

n
v
n
´ e divergente.
Para a s´ erie convergente a
n
j´ a temos a s´ erie geom´ etrica, ao passo que a s´ erie harmˆ onica servir´ a como a s´ erie
divergente de comparac¸ ˜ ao b
n
. Na medida em que outras s´ eries s˜ ao identificadas como convergente ou divergente,
elas podem ser usadas no lugar das s´ eries conhecidas nesse teste de comparac¸ ˜ ao. Todos os testes desenvolvidos
nesta sec¸ ˜ ao s˜ ao, em essˆ encia, testes de comparac¸ ˜ ao. A Figura 5.1 mostra esses testes e as inter-relac¸ ˜ oes.
Figura 5.1: Testes de comparac¸ ˜ ao.
Exemplo 5.2.1 UMA S´ ERIE DE DIRICHLET
Teste


n=1
n
−p
, p = 0, 999, para convergˆ encia. Visto que n
−0,999
> n
−1
e b
n
= n
−1
forma a s´ erie
harmˆ onica divergente, o teste de comparac¸ ˜ ao mostra que

n
n
−0,999
´ e divergente. Generalizando, diz-se que

n
n
−p
´ e divergente para todo p ≤ 1 mas convergente para p > 1 (veja o Exemplo 5.2.3).
Teste da Raiz de Cauchy
Se (a
n
)
1/n
≤ r < 1 para todo n suficientemente grande, com r independente de n, ent˜ ao

n
a
n
´ e convergente.
Se (a
n
)
1/n
≥ 1 para todo n suficientemente grande, ent˜ ao

n
a
n
´ e divergente.
A prime