You are on page 1of 276

DADOS DE ODINRIGHT

Sobre a obra:

A presente obra é disponibilizada pela equipe eLivros e


seus diversos parceiros, com o objetivo de oferecer
conteúdo para uso parcial em pesquisas e estudos
acadêmicos, bem como o simples teste da qualidade da
obra, com o fim exclusivo de compra futura.

É expressamente proibida e totalmente repudíavel a


venda, aluguel, ou quaisquer uso comercial do presente
conteúdo.

Sobre nós:

O eLivros e seus parceiros disponibilizam conteúdo de


dominio publico e propriedade intelectual de forma
totalmente gratuita, por acreditar que o conhecimento e
a educação devem ser acessíveis e livres a toda e
qualquer pessoa. Você pode encontrar mais obras em
nosso site: eLivros.

Como posso contribuir?

Você pode ajudar contribuindo de várias maneiras,


enviando livros para gente postar Envie um livro ;)

Ou ainda podendo ajudar financeiramente a pagar custo


de servidores e obras que compramos para postar, faça
uma doação aqui :)

"Quando o mundo estiver unido na busca do


conhecimento, e não mais lutando por dinheiro e
poder, então nossa sociedade poderá enfim evoluir
a um novo nível."

eLivros .love

Converted by convertEPub
Ao mestre Ronaldo Rogério de Freitas Mourão, in
memoriam.

Agradecimentos

O ano era 2005 – centenário do annus mirabilis de Einstein.


Eu estava para publicar meu primeiro livro, e tive a sorte
de poder contar com a colaboração sempre generosa do
astrônomo Ronaldo Rogério de Freitas Mourão. Grande
mestre da divulgação da astronomia no Brasil, ele não só
concordou em escrever o texto que adornaria a orelha do
meu Rumo ao Infinito, como me concederia mais um
grande presente, ao pedir que eu prefaciasse uma nova
edição do seu Explicando a Teoria da Relatividade,
publicada naquele ano.

Era a primeira vez que eu colocava em livro um arrazoado


de palavras sobre a imensa contribuição de Einstein para a
ciência. Natural que agora, 12 anos depois, ao publicar
meu próprio livro sobre o assunto, eu o dedique ao mestre
Mourão. Estou certo de que não só para mim, mas para
todos os amantes da astronomia da minha geração e de
possivelmente umas duas gerações antes dela, não há
palavras suficientes para agradecê-lo. Pode apostar que, ao
longo dessas páginas, um pouco ali e um tantinho acolá, há
muito da influência positiva, intensa e marcante de
Ronaldo Mourão.

Gostaria de aproveitar o espaço também e agradecer a


Alexandre Versignassi, editor dos editores, por mais um
convite irresistível e pelo tratamento cuidadoso e cheio de
boas ideias do manuscrito, com a dedicação que já me
acostumei a receber do pessoal da SUPER.

Em todo livro, meu esforço é sempre muito grande para


não escorregar na casca de banana e evitar erros e
imprecisões. Mas nesse em particular, dada a imensa
responsabilidade de retratar as contribuições de Einstein
para a física dos séculos 20 e 21 de forma inteligível,
acurada e ao mesmo tempo divertida, eu estava
determinado a não deixar absolutamente nada passar.
Óbvio que nisso eu fracassei – todo mundo erra, até
Einstein –, mas certamente teria sido muito pior se não
fossem meus grandes amigos e “leitores-beta”, Cássio
Leandro Barbosa e Estevam Santiago. Sugestões anotadas
e implementadas!

Também agradeço a Dulcídio Braz Jr., Carlos Alberto Torres


e José Ildefonso, que se dispuseram a ler o manuscrito em
tempo recorde e fizeram relevantes e inspiradas
observações. O livro certamente saiu melhor graças a eles
todos. E, no que ele não saiu a contento, anote aí: a culpa é
toda minha.

Por fim, agradeço a você, leitor, pela confiança depositada


e pela companhia ao longo das últimas duzentas e tantas
páginas. Espero sinceramente que esta

jornada pela mente de Einstein tenha sido tão fascinante


para você quanto ela pareceu a mim quando primeiro
tomei ciência de suas incríveis teorias.

Salvador Nogueira

São Paulo, 6 de abril de 2017.

Sumário

SEGUNDA CAPA

EM MEMÓRIA

AGRADECIMENTOS

INTRODUÇÃO

Bem-vindos à mente de Einstein


CAPÍTULOS

1 A existência dos átomos

2 A realidade do mundo quântico

3 O espaço e o tempo

4 A equação mais famosa do mundo

5 A gravidade

6 Revoluções tecnológicas

7 A origem do Universo

8 O erro que se revelou um grande acerto

9 Buracos negros

10 Lentes de aumento cósmicas

11 Ondas gravitacionais

12 Mais rápido que a luz

13 Viagens no tempo

14 Um novo estado da matéria

15 Teletransporte quântico

16 A teoria final

BIBLIOGRAFIA

Artigos

Livros
FICHA CATALOGRÁFICA

SOBRE O AUTOR

Introdução

Bem

-vindoà

mentede

Einstein

É uma daquelas histórias que passa de livro em livro, de


biografia em biografia, e, embora ninguém saiba ao certo
quanto há de verdade nela, é tão boa que ao menos
merecia ser verdadeira. Então vamos lá novamente. Em
1931, Charlie Chaplin convida Albert Einstein para a estreia
de seu mais recente filme, Luzes da Cidade. Em Hollywood,
conforme as duas estrelas – uma da arte e outra da ciência
– caminham juntas, são reconhecidas por uma multidão,
que passa a aplaudi-las fervorosamente. “Eles nos
aplaudem”, disse Chaplin a seu convidado de honra, “eu
porque todo mundo me entende e você porque ninguém o
entende”.

Diversas versões desse episódio – algumas mais


engraçadas – circulam por aí desde a primeira vez em que
ele foi mencionado, numa autobiografia publicada em 1947
por János Plesch, médico e amigo de Einstein por mais de
duas décadas. E, sendo ou não verdadeiro, o caso exprime
um fato real bastante conhecido: a imensa maioria das
pessoas acha as ideias do físico alemão tão geniais quanto
impenetráveis, o que as faz desistir de entendê-las antes
mesmo de tentar.
Nem podemos dizer que se trata de um temor infundado.
Se alguém chega para você e diz, de sopetão, que o tempo
e o espaço são flexíveis, matéria e energia são a mesma
coisa, e eventos que são simultâneos para uma pessoa não
serão simultâneos para outra, a reação mais comum é
jogar tudo para o alto e correr em desespero, diante de um
mundo que claramente não é mais o que costumava ser.
Natural. Foi exatamente desse modo, por sinal, que boa
parte dos físicos reagiu no início do século 20, quando
Einstein começou a dizer essas coisas todas. Tudo parecia
tão maluco que a Academia Real de Ciências da Suécia
nem teve coragem de premiá-lo com o Nobel pela teoria da
relatividade –

de onde nasceram todas essas ideias –, e sim por algo mais


trivial, e menos sujeito a controvérsias: sua explicação de
um fenômeno conhecido como efeito fotoelétrico, em que a
incidência de luz sobre uma placa metálica leva ao
surgimento de uma corrente elétrica. (Não subestime o
tamanho dessa realização, contudo: ela foi o primeiro
grande trabalho baseado na física quântica, que produziria
uma revolução tão grande quanto a relatividade – senão
maior).

Fico feliz, portanto, de encontrá-lo aqui, lendo estas linhas.


Isso mostra que você é uma das pessoas que acham que
vale a pena entender o que Einstein nos revelou sobre o
Universo. E eis o primeiro grande segredo para que tudo
fique claro: a grande barreira à compreensão é que
tentamos justamente começar pelas conclusões da teoria,
e não pelas premissas. E aí, além de ficar bem mais difícil
de entender, perdemos um dos mais encantadores
aspectos da mente de Einstein: seu apreço incondicional
por ideias belas e simples.

Pense no paradoxo dos gêmeos, a ideia de que um dos


irmãos viajando pelo espaço em altíssima velocidade
envelhece muito mais devagar do que o outro que ficou na
Terra. Cabe lembrar que, para chegar à conclusão de que
isso de fato acontece, Einstein precisou apenas de duas
premissas básicas, ambas de uma simplicidade ímpar. A
primeira soa como um truísmo, uma verdade em si mesma:
as leis da física produzem resultados iguais para quaisquer
observadores em condições equiparáveis de movimento,
ou seja, sem aceleração relativa entre si.

Dá para acreditar nisso sem grandes questionamentos,


não? A segunda é menos óbvia, mas nem por isso menos
elementar: a luz no vácuo, para qualquer observador, ou
seja, em qualquer referencial, viaja sempre à mesma
velocidade, independentemente de onde parte ou aonde
chega. Enfim, ela é invariante. Se você correr com seu
carro atrás de uma Ferrari, não vai alcançá-la. Mas vai
observar o carrinho vermelho se afastando de você a uma
velocidade menor.

Com a luz isso não acontece. Pegue uma Ferrari, ou um


jato, ou a nave espacial mais veloz que um dia será
construída. Não acontece nada. O raio de luz continua se
afastando com a mesma velocidade aparente, como se
“fugisse” de você. Em outras palavras, a velocidade
relativa de uma Ferrari varia. Se ela estiver a 250 km/h e
você, a 100 km/h, essa velocidade relativa entre vocês será
de 150 km/h. Se você acelerar mais um pouco, diminui
para 100 km/h. Com a luz não. A velocidade dela é de 1,08
km/h. Acelere a 1 bilhão de km/h, e o que acontece? A luz
continua se afastando de você a exatamente 1,08 bilhão
de km/h. Igual quando você está parado. Em outras
palavras, a velocidade da luz é absoluta. Não varia nunca.
(Não por acaso, Einstein, de início, chamou sua criação de
“teoria da invariância”, antes de adotar o termo
“relatividade”.)
Pronto: com base nessas duas premissas, e mais nada,
Einstein destrói o espaço e o tempo fixos e imutáveis
concebidos por Isaac Newton e reformula nosso modo de
enxergar a realidade. Como? Calma, estamos apenas na
introdução. Vamos chegar lá.

O principal objetivo deste livro, por sinal, é mostrar que


não há nada que impeça você de chegar às mesmas
conclusões a que o grande físico alemão chegou, e então
aceitá-las como naturais. Em essência, quero provar que
ninguém precisa ser um Einstein para compreender as
ideias de Einstein.

Por outro lado – e isso também é uma mensagem


importante –, foi preciso haver um Einstein para dar à luz
todas essas descobertas fascinantes.

Albert nasceu em Ulm, então parte do Império Alemão, em


14 de março de 1879, filho de Hermann Einstein com
Pauline Koch. Aos 17 anos, para evitar o serviço militar, ele
renunciou à cidadania alemã e foi admitido na Politécnica
Federal Suíça em Zurique. Lá ele conheceria Mileva Marić,
a única mulher dentre os estudantes de matemática e
física. O romance entre os dois logo floresceu e Mileva teria
influência importante em suas futuras ideias científicas.

Einstein formou-se em 1900, mas passou dois anos


procurando trabalho, até finalmente conseguir uma vaga
no escritório de patentes de Berna, como examinador-
assistente. Trabalhando lá, em meio à papelada, encontrou
tempo para desenvolver algumas de suas ideias mais
geniais. Einstein rotineiramente usava o que ele chamou de
gedankenexperimenten – “experimentos mentais”, em
alemão. Eram testes que na realidade não teriam como ser
executados, mas podiam acontecer dentro da mente, se o
imaginador tivesse um sentido de abstração
suficientemente aguçado.
Em 1905, com apenas 26 anos, Einstein teria seu grande
surto criativo, com uma série de artigos científicos que
confirmariam a existência dos átomos (nosso assunto do
capítulo 1), explicariam o efeito fotoelétrico com base em
uma descrição quântica da luz (iniciando assim uma
revolução científica de primeira grandeza, da qual
falaremos no capítulo 2), formulariam a teoria da
relatividade restrita (redefinindo espaço e tempo, como
veremos no capítulo 3) e descreveriam a equação mais
famosa da ciência: E=mc2 (em que energia e matéria se
tornam faces da mesma moeda, como veremos no capítulo
4).

Tão incríveis e frenéticas foram essas realizações que 1905


ficou conhecido como o annus mirabilis – ano miraculoso –
da física. Havia, contudo, muito mais a ser feito. O físico
alemão sabia que a sua primeira versão da relatividade
estava incompleta e precisava ser ainda desenvolvida, de
modo a ser generalizada para todas as circunstâncias
possíveis. Albert passou boa parte da década seguinte
buscando essa resposta.

Em 1909, Einstein se tornou professor da Universidade de


Zurique e, em 1914,

retornou à Alemanha, onde se tornaria diretor do Instituto


Kaiser Wilhelm para Física e professor da Universidade
Humboldt de Berlim. Foi lá que o físico concluiu a teoria da
relatividade geral – sua obra-prima científica. Publicada em
1916, é ela que permite a Einstein suplantar Isaac Newton,
ao criar uma nova e mais sofisticada teoria da gravitação –
assunto que abordaremos no capítulo 5.

Em seguida, no capítulo 6, exploraremos algumas das


consequências tecnológicas das ideias de Einstein – e elas
vão mais longe do que se costuma pensar.
Daí em diante libertaremos todo o poder exploratório da
relatividade, que nos permite compreender a origem e a
evolução do Universo (capítulo 7), seu potencial destino
(capítulo 8), a bizarra natureza dos buracos negros
(capítulo 9), os fenômenos das lentes gravitacionais
(capítulo 10) e o fato de que o próprio tecido do espaço-
tempo pode ser chacoalhado pela gravidade, nas agora
famosas e recentemente confirmadas ondas gravitacionais
(capítulo 11).

Também é verdade que os escritores de ficção científica


devem tanto a Einstein quanto os próprios físicos, pois a
relatividade geral permite, ao menos em teoria, coisas
realmente incríveis, a começar por viagens no tempo
(capítulo 13).

Mais adiante, explicamos os aspectos mais surpreendentes


da mecânica quântica explorados por Einstein, como a
previsão de que haveria um novo estado da matéria a
temperaturas muito baixas, o condensado de Bose-Einstein
(capítulo 14), e a de que partículas poderiam de alguma
forma se comunicar instantaneamente a distância, no
fenômeno conhecido como emaranhamento (capítulo 15) –
algo que parecia loucura completa até ser demonstrado
experimentalmente. E hoje é graças a isso que
pesquisadores no mundo inteiro realizam testes de
teletransporte quântico.

Por fim, terminamos, no capítulo 16, onde Einstein também


parou, com uma busca incessante de três décadas por uma
teoria capaz de costurar a relatividade e a mecânica
quântica. A maior parte desse esforço se deu nos Estados
Unidos, onde Einstein se exilou em 1933, depois que Adolf
Hitler chegou ao poder na Alemanha. O físico tornou-se
pesquisador do Instituto de Estudos Avançados da
Universidade de Princeton, onde permaneceria até sua
morte, em 18 de abril de 1955. E até hoje os físicos
seguem se debatendo para tentar realizar o sonho dele e
construir essa “teoria final”, que potencialmente explicaria
de forma segura o que levou ao surgimento do Universo e
o que existe no interior dos buracos negros.

A premissa deste livro não é retratar detalhadamente a


vida de Einstein – e por isso mesmo aproveitei aqui para
contar algo de sua biografia –, mas sim os trabalhos
científicos dele e as enormes consequências que eles
tiveram, para a

física e para o mundo.

Com esse objetivo, lancei mão tanto quanto pude de


trechos dos próprios artigos científicos de Einstein. Minha
esperança é não só ajudar a quebra o paradigma de que
(como lendariamente teria dito Chaplin) ninguém consegue
entendê-lo, como também mostrar que, mesmo diante de
questões complexas e escrevendo para um público
especializado, ele era capaz de expor seu pensamento com
profunda e notável clareza.

Outro mito que espero ver quebrado é aquele que retrata o


físico alemão como uma espécie de guru infalível da
ciência. A parte do “guru” já se desmancha quando
entendemos o contexto das realizações de Einstein, e
vemos o quanto ele agia e reagia ao que outros cientistas
na época estavam fazendo. Diferentemente da imagem
popular que se faz dele, não se tratava de um messias
científico pregando no alto de uma montanha; muito pelo
contrário, era um teórico com uma incrível capacidade de
abstração que digladiava com problemas que estavam na
pauta do dia dos cientistas de sua época – e nem sempre
ele estava do lado certo. Cai por terra também, portanto, a
aura de “infalível”.

Einstein era muito bom justamente porque não tinha medo


de errar. Se um cientista tem medo de errar, ele jamais
tem ideias verdadeiramente revolucionárias. Fazer mais do
mesmo é seguro, mas também não induz progresso. E uma
das coisas mais incríveis do trabalho do físico alemão ao
longo de suas fecundas décadas de pesquisa é que muitos
de seus “erros” produziram resultados tão importantes
quanto os seus acertos.

Einstein muitas vezes esteve certo. Em outras, esteve


errado. Em algumas, errou acertando. E noutras ainda,
acertou errando – como vamos entender ao longo deste
livro. O ponto, porém, é que ele nunca perdeu de vista seu
objetivo maior: entender a natureza tal como ela é. E nisso
ele possivelmente foi mais longe que todos que já pisaram
neste planeta.

Nas páginas a seguir, seguiremos seus passos.

A EXISTÊNCIA

DOS ÁTOMOS

Como Einstein provou a existência dos átomos, e revelou a


natureza real da matéria.

Às vezes não nos damos conta de como não sabíamos


praticamente nada sobre o Universo

em que vivemos até bem pouco tempo atrás. A

ciência moderna – o único instrumento de produção do


conhecimento sabidamente eficaz – só nasceu há cerca de
quatro séculos, e nossa curva de aprendizagem engrenou
de forma exponencial apenas no final do século 19, começo
do século 20. Anteontem.
Hoje é trivial falar de átomos e moléculas. Ninguém, nem
mesmo em textos jornalísticos destinados aos curiosos por
ciência, se dá ao trabalho de explicar o que eles são.
Quando dizemos que a água é uma molécula, ninguém se
sente confuso, e a fórmula química H O está na ponta da
língua até do mais tímido 2

concorrente do Show do Milhão. Em vista disso, é um


choque saber que, no início do século passado, os físicos
ainda se debatiam sobre a real existência dos átomos. E
coube a Einstein, em 1905, fornecer a prova definitiva – no
primeiro de cinco grandes trabalhos que ele produziria só
naquele ano. Para humilhar ainda mais, Einstein faria essas
coisas só nas horas vagas, pois seu emprego corrente era
de analista no escritório de patentes em Berna, na Suíça.

A questão se perde na origem dos tempos: a matéria é


contínua ou descontínua? Há uma unidade mínima de
matéria, indivisível?

O problema lembra um dos famosos paradoxos de Zenão,


filósofo grego que viveu entre 490 e 430 a.C. Recontado
por Aristóteles (o texto original se perdeu), ele sugere uma
corrida emocionante entre o mítico Aquiles e uma humilde
tartaruga. O herói, sem medo de ser feliz, deixa a tartaruga
abrir cem metros de vantagem. E aí parte em disparada
em seu encalço, até atingir os cem metros. Mas, claro, a
essa altura, a tartaruga já avançou mais um ou dois
metros.

Inabalado, Aquiles avança mais dois metros, para


descobrir, chocado, que a tartaruga já se moveu de novo. E
então ele avança para atingir o ponto onde ela está, para
encontrá-la apenas um pouquinho mais adiante. Quando
ele chegar lá, ela terá avançado mais um tantico. E o
processo se estende pela eternidade – isso se tratarmos
uma reta como uma linha com infinitos pontos. Sempre
haverá infinitos pontos separando a tartaruga de Aquiles,
não importando quão pequena seja a distância entre eles.

A despeito de não refletir a realidade, trata-se de um


problema lógico formidável. Como lidar com séries de
números infinitos dessa maneira e resolver o paradoxo de
Zenão? Uma outra alternativa, claro, é supor que não
existem infinitos pontos na pista de corrida. Talvez o
mundo seja feito de elementos

descontínuos – você pega a pista, divide na metade, depois


na metade da metade, em seguida na metade da metade
da metade, para então chegar à metade da metade da
metade da metade, até que chega um ponto em que se
torna impossível dividir mais. Você chegou a uma unidade
indivisível de matéria, ou mesmo de espaço físico, além da
qual não se pode mais dividir. Por consequência, a pista de
corrida pode ser vista como a soma dessas pequenas
unidades descontínuas. E como em dado momento, para
um certo tempo, a tartaruga terá de avançar somente uma
ou nenhuma unidade descontínua, Aquiles poderá afinal
ultrapassá-la. Acelera, Aquiles!

Zenão foi o mais elegante a formular o paradoxo, mas a


questão da continuidade ou descontinuidade da matéria
perturbava os filósofos desde sempre. E átomo nada mais é
que a palavra grega para descrever “aquele que não se
pode dividir”.

As origens da corrente filosófica do atomismo – a defesa de


que toda a matéria do mundo é descontínua em sua
natureza mais elementar – transcendem a Grécia Antiga.
Houve proponentes da ideia na Índia, mas as versões mais
conhecidas no Ocidente foram avançadas pelo grego
Demócrito de Abdera, que viveu entre 460

e 370 a.C., e parecem ter seguido uma tradição já


estabelecida por seu mentor, Leucipo.
Demócrito defendia que só existem duas coisas no mundo
– o vazio e os átomos. Ironicamente, a ideia não foi
exatamente um hit nas paradas de sucesso da filosofia
grega. Platão desprezava tanto Demócrito que torcia para
que seus livros fossem todos queimados. Sabe como é,
Platão estava na gloriosa Atenas, capital do pensamento
intelectual, e Demócrito, no olhar dele, era só um caipira
do interior querendo aparecer com essas ideias insanas de
vazio e átomos. (Pior: de fato, nenhum dos escritos
completos de Demócrito sobreviveu; apenas fragmentos,
muitas vezes citados por seus rivais, chegaram até nós.) O
ATOMISMOMODERNO

A hipótese de Demócrito só foi encontrar um público cativo


entre os “filósofos naturais” do Renascimento (assim eram
chamados os cientistas naqueles tempos), sobretudo entre
os químicos, para os quais a existência de unidades
mínimas da matéria parecia resolver um bocado de
problemas. Já adentrando a modernidade, o inglês John
Dalton (1766-1844) demonstrou que os átomos eram uma
ótima explicação de como certas substâncias podiam se
combinar apenas em proporções específicas. Ao formular o
que viria a ser a teoria atômica moderna, ele escreveu em
um artigo publicado em 1805: “Os elementos do oxigênio
podem se combinar com uma certa porção de gás nitroso
ou com duas vezes essa porção, mas não com quantidades
intermediárias.”

No fim das contas, ao resumir sua teoria em 1808, Dalton


avançou as ideias de que os elementos químicos são feitos
de partículas extremamente pequenas – os átomos. Cada
elemento teria um átomo diferente em tamanho e massa, e
não poderia ser dividido, criado nem destruído. Esses
amálgamas de átomos de diferentes elementos, por sua
vez, se combinariam em taxas de números inteiros para
formar compostos químicos. E as reações químicas nada
mais seriam do que rearranjos desses átomos em
diferentes moléculas.

Ainda que Dalton não estivesse 100% correto (hoje


sabemos que átomos são, sim, criados e destruídos), a
ideia era brilhante. E extremamente controversa. Por essas,
durante todo o século 19, a ideia de que os átomos
existiam mesmo, não eram só um conceito filosófico, ainda
escapava aos cientistas. Só Einstein mataria a charada, e
de forma inusitada: ao investigar um fenômeno descrito
por um botânico.

MOVIMENTOBROWNIANO

Em 1827, o pesquisador escocês Robert Brown (1773-1858)


estava usando um microscópio para observar pequenas
partículas que se desprendiam de cavidades em grãos de
pólen na água. Ele notou que as partículas faziam um
movimento aleatório, alternando sua direção
constantemente, mas não teve ideia do que poderia estar
causando essas mudanças súbitas de rumo.

O fenômeno ficou conhecido como movimento browniano


em homenagem à descrição precisa feita pelo botânico,
mas aquela não era a primeira vez que se via algo
parecido. Na verdade, você quase certamente já observou
movimento browniano, sem saber que o nome dele era
esse.

Sabe quando você está num quarto quase totalmente


escuro e a luz que entra da rua por uma fresta na janela
ilumina pequenas partículas suspensas no ar, cujo
movimento é frenético e imprevisível? Em parte, esse
movimento é causado pelas correntes do ar, claro, mas
uma boa parte é puro movimento browniano, tal qual
descrito por Robert Brown. Só trocamos o fluido onde estão
as partículas em suspensão. Para ele, era a água; para nós,
é o ar.
O que causa esse movimento que atordoou o pobre
botânico do século 19?

Bem, o poeta romano Lucrécio, lá pelo ano 60 a.C., já tinha


uma certa ideia do que devia ser, quando escreveu o
poema científico “A Natureza das Coisas”.

Confira alguns trechos*:

Repara quando por estância obscura

Do sol penetra a réstia fulgurante;

Nela verás corpúsculos sem conto

De modos mil, e direções mesclar-se.

(...)

Tanto mais nos corpúsculos movidos

À luzerna do sol cumpre atentares,

Que eles indicam a existência oculta

Da agitação dos átomos latente.

(...)

Dos átomos assim dimana e sobe

Gradual o movimento até ser visto

Por nós nesses corpúsculos, que nadam

Do pai da luz na réstia cintilante,

Ainda que as causas dele ocultas fiquem.


É incrível que um poeta tenha conseguido, há mais de 2 mil
anos, descrever o movimento browniano, e também sua
causa, que é justamente a agitação intrínseca dos átomos.
E quem provou que essa era mesmo a causa foi Einstein.

Veja como.

*TRADUÇÃO DE ANTONIO JOSÉ DE LIMA LEITÃO,


PUBLICADA EM 1851 E AJUSTADA APENAS NA
ORTOGRAFIA AQUI

EINSTEINADENTRAORECINTO

Em 11 de maio de 1905, os editores do Annalen der Physik,


principal periódico científico de física da época, publicado
na Alemanha, receberam um manuscrito de Albert Einstein.
Seu título era “O movimento de pequenas partículas
suspensas num líquido estacionário demandado pela teoria
cinética molecular do calor”.

O físico alemão abre seu artigo da seguinte maneira:

Neste trabalho será demonstrado que, de acordo com a


teoria cinética-molecular do calor, corpos de tamanho
microscopicamente visível suspensos num líquido irão
realizar movimentos de tal magnitude que podem ser
facilmente observados num microscópio, por conta dos
movimentos moleculares do calor. É

possível que os movimentos a ser discutidos aqui sejam


idênticos ao chamado “movimento molecular browniano”;
entretanto, a informação disponível a mim relativa a esse
último é tão pouco precisa que eu não posso formar
julgamento sobre a questão.

No fim, era mesmo o movimento browniano. Mas que


diacho é essa tal teoria cinética molecular do calor? Em
essência, é basicamente a noção – hoje mais do que
confirmada, na época não – de que a matéria é feita de
partículas em constante agitação, ou seja, que carregam
uma energia de movimento (cinética, para os íntimos)
batizada de energia térmica. Para que essa teoria esteja
certa, é preciso que de fato a matéria seja feita de
partículas – átomos e moléculas – para começo de
conversa.

De acordo com Einstein, e seguindo firmemente a trilha de


migalhas de pão que vem desde a Grécia Antiga, as
partículas suspensas na água têm seu

movimento errático porque estão o tempo todo se


chocando com as moléculas do líquido. Embora uma única
colisão possa fazer pouco para mover um grão de poeira
muito maior que uma molécula individual de água, o fato é
que são incontáveis cutucões desses a cada segundo. Mais
precisamente, algo em torno de 100 trilhões de colisões
por segundo. E, claro, a cada momento, por um fator
aleatório, haverá mais colisões para uma determinada
direção, o que resulta num empurrão naquele sentido. Um
instante depois, a mesma aleatoriedade sugere que o
movimento será em outra direção, e assim vai.

Uma boa metáfora para entender o processo é imaginar


uma imensa bola inflável jogada sobre os espectadores
durante um show de rock. O público, naturalmente, está
energizado com a música, saltando e se movendo – a
teoria cinética do calor está funcionando a pleno vapor ali.
A bola, claro, é muito maior que qualquer uma das
pessoas. Mas, quando ela é jogada sobre elas, a galera
instintivamente dá um tapa empurrando-a de volta para o
ar. Em que direção ela vai? Quase impossível prever, uma
vez que vai depender da soma de todos os tapas
simultâneos dados na bola. E o mesmo processo vai se
repetir de novo, e de novo e de novo. As pessoas se tornam
moléculas, e a bola é uma partícula suspensa, executando
um movimento browniano.

Legal, determinar como se dá o movimento é interessante,


mas um probleminha aí é sugerir que ele é aleatório. Como
então podemos testar essa teoria? Einstein tem a resposta.
Seu objetivo é formular um método para calcular não o
movimento da partícula a cada instante – o que seria
inviável –, mas sim o quanto, em média, uma partícula vai
se deslocar (tanto faz para onde) com o passar do tempo.

Assim, ele não precisa mais se preocupar com o efeito


individual que trilhões de moléculas de água fariam sobre
uma partícula a cada segundo; ao abarcar o efeito coletivo
médio de todas as moléculas de água, o problema se torna
abordável. E leva Einstein a uma conclusão surpreendente:
o movimento total de uma partícula browniana na água
não é proporcional ao tempo transcorrido, como poderia se
esperar, mas sim à raiz quadrada do tempo transcorrido.

Traduzindo: se uma partícula se moveu 1 milímetro em 1


segundo, quando tiverem transcorridos 2 segundos, ela
não deve ter se afastado 2 milímetros de seu ponto de
origem, mas sim 1,4 milímetro (1,4 é a raiz aproximada de
2). Com 3 segundos, não serão 3 milímetros, mas 1,7
milímetro (raiz quadrada de 3), e assim por diante.

Pare um segundo para pensar no que isso significa.


Einstein ofereceu, com sua teoria do movimento
browniano, uma predição clara. Agora, os
experimentalistas poderiam ir para o laboratório e tentar
confirmá-la.

E um resultado experimental favorável levaria a algo ainda


mais relevante: não

só teríamos a certeza, buscada há séculos, de que átomos


e moléculas de fato existem, como a teoria de Einstein
poderia pela primeira vez permitir calcular o tamanho e a
massa dos átomos.

Ele termina o artigo dando exatamente essa sugestão:


“Espera-se que algum pesquisador possa ter sucesso
rapidamente em resolver o problema apontado aqui, que é
tão importante em conexão com a teoria do calor.”

Os experimentalistas, claro, não perderam tempo e logo


partiram para realizar o teste das conclusões de Einstein.
De início, os resultados pareceram contrariar a teoria – as
partículas pareciam se mover entre três e seis vezes mais
do que o trabalho do físico alemão sugeria. Mas quem
realizou a mais detalhada e cuidadosa bateria de testes foi
o físico francês Jean Baptiste Perrin (1870–1942), em 1908.
E as previsões de Einstein bateram na mosca com o que
ele observou, encerrando a conversa. A teoria atômica de
Dalton finalmente se confirmava, pondo fim a milênios de
especulação.

Mais que isso, Perrin partiu para calcular o tamanho e a


massa dos átomos, exatamente como Einstein sugerira em
seu trabalho original. E tornou nossas aulas de química no
Ensino Médio bem mais interessantes. Pela primeira vez,
Perrin podia dizer quantos átomos havia em cada pedaço
de matéria que a gente consegue pegar com as mãos – em
1 grama de hidrogênio, por exemplo, temos o número
conhecido como 1 mol: 6,022 x 10ˆ23, ou,
aproximadamente 602

bilhões de trilhões de átomos.

Com tamanho sucesso, Jean Perrin foi agraciado com o


Nobel de Física em 1926, “por seu trabalho sobre a
estrutura descontínua da matéria”. E quanto a Einstein?
Bem, ele já havia recebido o mesmo prêmio cinco anos
antes, baseado principalmente num artigo que ele havia
escrito dois meses antes de decifrar o mistério do
movimento browniano – e que serviria como um dos
alicerces da misteriosa física quântica. É o que veremos a
seguir.

A REALIDADE

DO MUNDO

QUÂNTICO

A partir de um problema aparentemente trivial, nascia um


dos conceitos mais revolucionários da história da ciência.

E Einstein, claro, teve papel fundamental nisso.

O século 19 terminou com uma incrível dose de otimismo


científico. A teoria da evolução pela seleção natural,
apresentada por Charles Darwin (1809–1882) e Alfred
Russel Wallace (1823-1913), pela primeira vez dava sentido
ao mundo da biologia; a química caminhava para
compreender e prever a natureza das substâncias e suas
reações; e a física parecia estar prestes a triunfar sobre
todos os problemas que a natureza lhe impunha.

A luz, possivelmente o maior desses mistérios da natureza,


àquela altura parecia completamente esclarecida por sua
descrição como uma onda eletromagnética, feita pelo
escocês James Clerk Maxwell (1831–1879), e com ela vinha
a compreensão do magnetismo e da eletricidade, na
primeira grande unificação de duas forças aparentemente
díspares da natureza. Era a chamada Teoria Eletrodinâmica.

Já o comportamento da matéria também parecia ter sua


compreensão encaminhada, com a teoria atômica em
franca evolução e a noção de que o calor, como já
mencionamos anteriormente, era nada mais que o
resultado da emissão de energia extraída do movimento de
partículas. A essas novas revelações se juntava a
gravidade, que já havia sido expressa com eloquência
matemática incomparável por Isaac Newton (1643–1727)
no século 17. O que mais haveria para compreender além
disso? Começava a se cristalizar a noção de que o futuro da
física se resumiria a realizar experimentos para determinar
com precisão cada vez maior as constantes da natureza,
mas todas as leis básicas que a regiam pareciam ter sido
descobertas.

Foi com esse otimismo que sir William Thompson (1824–


1907), mais conhecido como Lorde Kelvin, discursou para a
Instituição Real da Grã-Bretanha, em 27 de abril de 1900,
no crepúsculo do século 19. Um dos maiores especialistas
em termodinâmica e sumidade da física em seu tempo – a
escala absoluta de temperatura, que começa no zero
absoluto (em que o movimento das partículas em tese
cessaria por completo), foi batizada em sua homenagem –,
Kelvin também passaria à história como um dos mais
presunçosos (e equivocados) futurólogos de todos os
tempos. Não me entenda mal; o homem era um gênio.
Mas, quando encasquetava com uma ideia, ninguém lhe
tirava da cabeça. Veja só: em 1895, ele havia dito, por
exemplo, que máquinas de voar mais pesadas que o ar –
vulgo aviões – eram fisicamente impossíveis. Ele chegou a
dizer também que os raios X eram uma fraude, e que o
rádio jamais teria utilidade.

Naquela ocasião, diante de seus pares e com sua fleuma


usual, Kelvin oferecia

um panorama do que restaria aos físicos solucionar no


século vindouro. Em sua visão, o futuro da pesquisa
científica em física seria bem tedioso. Ele disse: “A beleza e
a clareza da teoria dinâmica, que assevera que calor e luz
são modos de movimento, estão no presente obscurecidas
por duas nuvens”.

E que nuvens seriam essas? Eram observações que


insistiam em desafiar as teorias estabelecidas: uma delas
era o espectro luminoso de um corpo negro e a outra, o
fracasso nas buscas pelo “éter luminífero”, o meio material
que em tese serviria de suporte para a propagação das
ondas de luz.

Numa coisa Kelvin estava certo: essas duas nuvenzinhas


aparentemente inofensivas concentrariam a maior parte da
atenção dos físicos, dentre eles Einstein, no início do século
20. O que ninguém poderia prever é que dali nasceriam
duas revoluções completas, que virariam toda a física de
ponta-cabeça e trariam uma imensa tempestade sobre o
céu azul previsto por Kelvin. Claro, sairíamos dela
entendendo muito melhor a natureza do Universo, mas ao
custo da demolição de ideias cultivadas pelos cientistas por
séculos. Neste capítulo, trataremos da primeira delas.

RADIAÇÃODECORPONEGRO

Antes de entendermos a reviravolta, precisamos dar uma


paradinha para entender um pouco melhor a natureza de
uma das nuvens citadas por Kelvin. O

que é o tal do espectro luminoso de um corpo negro e por


que ele estava causando problemas aos físicos?

Como já mencionei antes, a termodinâmica especificava


que havia uma energia de agitação (ou energia térmica)
das partículas que compunham um objeto, e essa energia
poderia ser emitida (e assim transmitida) como calor na
forma de radiação – ondas eletromagnéticas, também
conhecidas por aí como luz visível quando estão na faixa
que vai do vermelho ao violeta.
Isso explica por que óculos infravermelhos podem enxergar
pessoas mesmo na escuridão total – o calor dos nossos
corpos, resultado da agitação das partículas em nós, é
emitido na forma de radiação infravermelha, que então é
captada por esses instrumentos. Nessa hora, estamos
invisíveis nos comprimentos de onda de luz visível, do
vermelho ao violeta, mas brilhamos com clareza em
infravermelho – que nossos olhos não podem ver, mas
ainda assim é acessível aos nossos sentidos; podemos
percebê-lo na pele pelo tato.

Agora, se você liga o interruptor e ilumina o ambiente com


luz que podemos enxergar, seu corpo passa a emitir não só
infravermelho, mas também essa luz, que ele reflete (e
assim permite que as outras pessoas enxerguem você sem
usar óculos infravermelhos). Essa mistura de luz visível
refletida e de radiação infravermelha emitida torna
complicada – mas não impossível – a tarefa de

calcular o total de luz que sai do seu corpo nessas


circunstâncias.

De forma geral, os físicos não gostam de situações que


misturem diversos efeitos e fenômenos, porque isso torna
mais difícil testar hipóteses, teorias e predições específicas.
O sonho deles, portanto, era ter um corpo negro para
realizar seus experimentos. Mas veja, escuro mesmo, como
nunca se viu em lugar nenhum: algo incapaz de refletir
mesmo a mínima quantidade de radiação eletromagnética,
visível ou não.

Um objeto desses é chamado de “ideal”, ou seja, só existe


no mundo das ideias. Na prática, no mundo real, não há
nada como ele. (A título de curiosidade, uma empresa
britânica chamada Surrey NanoSystems usou nanotubos de
carbono para desenvolver, em 2014, a substância mais
escura conhecida na Terra. O material, batizado de
Vantablack, só reflete 0,035% de toda a luz que incide
sobre ele.)

Apesar de não haver em parte alguma um objeto 100%


escuro, há diversas aproximações que chegam perto do
ideal. As mais óbvias são o Sol e as estrelas.

Sim, por mais bizarro que possa soar, o Sol e as estrelas,


para os físicos, são

“corpos negros”. Isso porque praticamente toda a luz


emitida por esses objetos é fruto exclusivo de radiação
térmica emanada deles mesmos, e não a reflexão de luz
vinda de outros objetos. (Claro que as estrelas iluminam
umas as outras, mas a quantidade de radiação de uma
estrela que chega a outra é tão pequena, perto do brilho
natural de cada uma delas, que você pode desprezar sem
medo).

É graças a esse fato que hoje podemos usar medições do


espectro luminoso das estrelas (em que a cor
predominante coincide com o ponto de máxima emissão)
para determinar com razoável precisão a temperatura de
cada uma delas. Como praticamente toda a energia
detectada é fruto de emissão térmica, é possível relacionar
um valor a outro com facilidade. (A superfície do Sol,
chamada de fotosfera, irradia com uma temperatura de
5.772 Kelvin, ou 5.499

graus Celsius; a escala Celsius é igual à Kelvin, com a


diferença de que a primeira tem seu marco zero na
temperatura em que a água congela ao nível do mar na
Terra, 0 grau Celsius, e a segunda tem seu início no zero
absoluto, onde cessa todo o movimento das partículas, a
-273 graus Celsius.) Só que ninguém na época sabia
exatamente qual era a correlação entre a temperatura e o
espectro luminoso, e ninguém podia colocar um
termômetro nas estrelas. Para matar essa charada, os
cientistas precisavam de um arranjo experimental que
permitisse medir, em laboratório, tanto a temperatura
como a radiação de um corpo negro.

E a solução para isso não poderia ser mais simples: um


forno fechado e completamente

opaco.

Estranho?

Pense

comigo:

nessas

condições,

completamente selado, nenhuma luz externa pode


adentrá-lo. Ou seja, a única

radiação que circular lá dentro será fruto do aquecimento


interno – emissão térmica, como a das estrelas.

Claro, se o forno é completamente fechado, não há como


os pesquisadores medirem essa radiação que fica
ricocheteando em suas paredes internas – ela vai ficar toda
lá dentro, escondida. Para resolver o problema, faz-se um
pequeno furo numa das paredes do forno, a partir de onde
se pode medir a luz que sai de lá de dentro. É bem verdade
que, nesse momento, o corpo negro já não é mais lá tão
negro, pois alguma radiação também pode entrar dentro
do forno pelo furinho. Mas é uma quantidade desprezável –
o forno não esfria nem esquenta significativamente por
causa disso, permanece em equilíbrio térmico.

Com esse esquema, os cientistas do século 19 podiam


medir a temperatura e o espectro da radiação que saía do
forno, e assim confrontar essas observações com a teoria
então vigente de como essas duas coisas deviam se
relacionar. E aí que a porca torceu o rabo. Os experimentos
teimavam em não concordar com a teoria, acentuando-se
mais a divergência quanto maior a temperatura do corpo
negro. E mais: eventualmente alguns cientistas
demonstrariam que, a seguir as leis clássicas da física,
conforme a temperatura aumentava, o nível de radiação
emitida podia tender ao infinito. Eis que de repente, a
julgar pelas equações, um corpo negro deveria ser capaz
de emitir energia infinita.

Isso, óbvio, é impossível. Alguma coisa estava seriamente


errada – e só podia ser com a teoria, porque os
experimentos não mentem e não apresentam essa
chocante escalada rumo à energia infinita, mais tarde
batizada de “catástrofe do ultravioleta”.

Eis, portanto, uma das “nuvenzinhas” de Kelvin. Qual era a


verdadeira fórmula a atrelar temperatura ao espectro de
emissão térmica do corpo negro? O

cientista escocês não precisaria esperar muito por uma


solução. Ela viria da Alemanha no final daquele mesmo
ano, pelas mãos trepidantes de Max Planck (1858-1947).

NASCEOQUANTUM

Planck era tão conservador quanto um conservador podia


ser. Membro de uma família de intelectuais e aristocratas,
seu pai era professor de direito, e seu avô e bisavô,
teólogos.

O primeiro contato que Planck teve com o problema da


radiação do corpo negro se deu em 1894, por razões
puramente práticas. Ele fora contatado por uma companhia
elétrica para desenvolver a lâmpada elétrica mais eficiente
possível. Note que estamos falando de um problema
clássico de corpo negro: o filamento dentro da lâmpada
praticamente não emite radiação até que é aquecido, por
meio da eletricidade, e aí passa a gerar uma emissão
térmica que

tem relação com a temperatura. Mas qual a temperatura


ideal para obter a melhor iluminação? Faltava aí uma
equação eficaz capaz de fazer essa predição.

(Aliás, cabe um parêntese aqui para mencionar por que os


físicos estavam todos ouriçados pela investigação da teoria
do calor naquela época. Estamos falando do século 19,
momento histórico em que as máquinas a vapor
revolucionaram a indústria. Era importante ter uma teoria
que desse conta de explicar e, então, aprimorar o principal
motor da civilização na época.) Planck investigou o
problema durante longos anos, mas o físico não se
satisfaria apenas encontrando uma fórmula basicona que
desse conta de resolver o problema prático do espectro de
corpo negro. E nem passavam pela cabeça dele problemas
como o da “catástrofe do ultravioleta”, que só seria
definida anos depois. O que ele se preocupou em obter era
uma solução que fosse derivada de princípios
fundamentais da física, principalmente a Segunda Lei da
Termodinâmica – a famosa Lei da Entropia.

É um conceito com o qual todo mundo tem familiaridade,


mas muita gente não conhece o nome. Olhe para o seu
quarto. Agora experimente ficar sem arrumá-lo durante
vários dias. Inevitavelmente, ele mergulhará no mais
profundo caos.

Você começa com cada coisa separada em seu lugar e


termina com um amontoado de bagunça indistinta. Sem
meias palavras, isto é a entropia – a noção de que qualquer
sistema fechado, seja ele o seu quarto ou o Universo,
inevitavelmente caminha para um gradual processo de
desorganização. O grau de entropia é, em essência, o grau
de bagunça.

Formulada originalmente por Lorde Kelvin em meados do


século 19, essa Segunda Lei da Termodinâmica era tão
rígida quanto seu proclamador: seria um processo
inevitável, que estabelecia de forma clara a direção da seta
do tempo.

Processos entrópicos, em sistemas fechados, não são


reversíveis. A bagunça sempre aumenta. Um copo que se
quebra em mil pedaços não pode se recolar perfeitamente.
Seu quarto nunca, jamais irá se arrumar sozinho – você
pode arrumá-lo, mas aí estará usando sua própria energia
para isso, e o sistema não será mais fechado. Aí o sistema
fechado passa a ser a soma de você e o seu quarto, e a
energia que você dispendeu arrumando-o acabará por
levar você a um estado de entropia mais elevado –
provavelmente estirado no sofá por algumas horas –,
mantendo a entropia geral sempre num estado crescente.
Você só pode reduzir localmente a entropia se topar
aumentá-la em algum outro lugar. E o total sempre cresce.
Sempre.

A questão é: por que isso acontece? Kelvin, e com ele


Planck, achava que era apenas uma propriedade
fundamental do Universo, um sintoma da passagem do
tempo, por assim dizer. O Universo era assim e pronto.
QUANDO UM SISTEMA AVANÇA DE UM SISTEMA
ORGANIZADO PARA UM MAIS

DESORDENADO, DIZEMOS QUE ELE SOFREU


AUMENTO DE ENTROPIA.

Quem não concordava com isso era o austríaco Ludwig


Boltzmann (1844-1906).

Ele achava que a segunda lei da termodinâmica não era


um princípio rígido, mas apenas uma consequência do fato
de que átomos e moléculas têm movimentos aleatórios. De
acordo com ele, essa aleatoriedade naturalmente caminha
para a desorganização por uma questão de probabilidade.
É vastamente mais provável que elementos de um sistema
em movimento aleatório caminhem para uma
desorganização cada vez maior do que subitamente se
reorganizem. Mas não há uma lei rígida que os proíba de se
reorganizar. Basta dizer apenas que as chances de isso
acontecer são infinitesimalmente pequenas.

No final do século 19, Boltzmann usou o atomismo para


explicar o comportamento dos gases (na sua teoria cinética
dos gases) e para derivar uma fórmula da entropia baseada
nessa perspectiva de probabilidade e movimento aleatório.
Estabeleceu com isso as fundações de um ramo da física
conhecido como mecânica estatística. Mas foi durante
muito tempo ridicularizado por suas ideias, diante de uma
comunidade acadêmica que queria só dar fim às duas
nuvenzinhas de Kelvin e decretar a física como encerrada.

Planck odiava as ideias de Boltzmann, que reduziam

a sagrada Segunda Lei da Termodinâmica a um jogo de


probabilidades, e nem acreditava que os átomos existissem
de fato, a despeito dos sucessos que a teoria atômica já
tinha

atingido. (A prova definitiva da existência dos átomos só


seria fornecida por Einstein um pouco mais tarde, em 1905,
como vimos no capítulo anterior.) Para o tradicionalista
físico alemão, a relação entre temperatura e movimento
consistia na existência de osciladores na própria matéria,
que não seria feita de

átomos, mas teria

uma natureza contínua.

Em outubro de 1900, Planck desenvolveu uma equação


para finalmente explicar o espectro de corpo negro, mas
não conseguiu derivá-la a partir de uma interpretação
conservadora da Segunda Lei da Termodinâmica, tal qual
apresentada por Kelvin, em que a energia seria emitida de
forma contínua, conforme as leis do eletromagnetismo
previam. Relutantemente, teve de lançar mão da mecânica
estatística de Boltzmann para chegar lá, o que ele
qualificou como “um ato de desespero”, pois, nesse caso, a
emissão se faria de forma segmentada, por meio de
“pacotes” de energia. Em 14 de dezembro de 1900, ele
apresentou à Sociedade Física Alemã a sua fórmula, tão
bela quanto simples, para o valor de energia de cada
pacote:

E = hν

A energia eletromagnética (E) era igual à frequência da


onda eletromagnética (a letra grega ν, pronunciada como
“ni”) multiplicada por uma constante, que ficou conhecida
como constante de Planck – um número absurdamente
pequeno que podia ser calculado com base nos
experimentos (6,62607004 × 10-34 m2 kg/s, caso você
queira dar uma olhada nele).

O pressuposto para a fórmula, que ficou conhecido como o


Postulado de Planck, é que a energia só podia ser emitida
em quantidades discretas, em

“pacotes” fixos – ou seja, em múltiplos de uma unidade


elementar.

Você há de se lembrar do paradoxo de Zenão, que


exploramos no capítulo anterior, e como uma das soluções
para ele exige que tratemos um trajeto em termos de
unidades mínimas, que não se pode subdividir. Aqui é
basicamente a mesma coisa, mas aplicada à energia. Se
você a for dividindo pela metade, depois pela metade da
metade, e depois pela metade da metade da metade, no
fim das contas chegará a um pedacinho que não poderá
mais ser dividido – ele é a unidade mínima de energia. Ele
é o que Planck chamou de quantum – a palavra vem do
latim e pode ser traduzida como “quantia” – a quantia
mínima de energia que a natureza pode produzir.

É uma doce ironia que, ao postular que a energia tem


quantidades mínimas indivisíveis, Planck fez o mesmo por
ela que o atomismo havia feito pela matéria. E ainda mais
irônico que o físico alemão visse seu trabalho todo como
apenas um artefato matemático, uma malandragem
desesperada, para chegar à fórmula do espectro de corpo
negro. Ele não acreditava na existência material dos
quanta (plural de quantum) de energia, tanto quanto não
apostava na realidade dos átomos.

Frustrado pelo próprio sucesso, Planck passou boa parte de


sua carreira depois disso tentando desfazer o que havia
feito – e de algum modo retraduzir os quanta de energia
em termos que o compatibilizassem com uma noção de
matéria e energia contínuas. “Minhas inúteis tentativas de
reintegrar o quantum à teoria clássica se estenderam por
vários anos e me causaram muitos problemas”, escreveu
Planck.

Curiosamente, logo após sua introdução, os quanta não


chamaram muita atenção. Estava todo mundo tão
encantando com a solução prática do problema

– a apresentação de uma fórmula precisa para o espectro


de corpo negro, dissipando uma das nuvenzinhas de Kelvin
– que ninguém percebeu a imensa tempestade
revolucionária se avizinhando no horizonte. Coube a Albert
Einstein mostrar que, longe de ser um artefato
“matemágico”, o quantum tinha vindo para ficar.

OQUEÉALUZMESMO?

Em 1905, o primeiro problema em que Einstein concentrou


sua atenção, antes mesmo de elaborar uma maneira de
confirmar a existência dos átomos, foi o chamado efeito
fotoelétrico.

Ao longo do século 19, diversos físicos investigaram

esse estranho fenômeno, que fazia com que alguns


materiais, particularmente os metais, gerassem uma
corrente elétrica ao serem expostos à luz.
Diversas implicações e efeitos de processo foram
investigados, em particular com o uso de luz ultravioleta,
mas alguma coisa parecia fora da ordem. Seguindo a teoria
então vigente da luz, que indicava que a radiação luminosa
era feita de ondas eletromagnéticas, isso acontecia porque
a energia das ondas era transferida para os elétrons, que
então se desprendiam do metal.

Até aí tudo bem. A coisa emperrava quando entrávamos no


aspecto quantitativo. A teoria eletromagnética,
desenvolvida por James Clerk Maxwell no século 19,
sugeria que o aumento de intensidade de luz causaria um
aumento na taxa de emissão dos elétrons e que, se a luz
fosse muito fraca, haveria um atraso entre sua incidência e
a emissão de um elétron, pois ele precisaria acumular
energia antes de saltar do átomo. Só que nada disso batia
com os experimentos.

(Em retrospecto, parece muito ingênuo que Kelvin fosse


capaz de afirmar, em 1900, que a física estava prestes a
chegar ao fim, ao mesmo tempo em que havia tantos
desacordos entre teoria e experimentação. Mas é natural
que cientistas veteranos se acomodem às ideias
estabelecidas e tratem com desprezo fenômenos que
parecem contrariá-las. A tendência deles é imaginar que
uma acomodação simples, com pequenas alterações à
teoria, vá resolver tudo. A coisa

só muda mesmo quando surge uma nova geração de


cientistas, com ideias novas, para enfrentar os velhos
problemas e alcançar um novo paradigma científico. E

aí o ciclo se repete. Ou, pelo menos, essa é a ideia básica


do filósofo da ciência Thomas Kuhn para explicar a
evolução das ideias científicas ao longo do tempo.)

Einstein bateu o olho no trabalho de Planck sobre o


espectro de corpo negro e percebeu que ele poderia
resolver todos os problemas para explicar o efeito
fotoelétrico: bastaria para isso parar de tratar a luz como
onda eletromagnética e a abordar como se fosse feita de
quanta, seguindo a equação de Planck para a energia do
quantum de luz.

Em 18 de março de 1905, Albert Einstein submeteu ao


periódico Annalen der Physik um artigo com o título “Um
ponto de vista heurístico sobre a criação e a conversão da
luz”.

Lá, ele escreve:

De fato, parece a mim que as observações da ‘radiação de


corpo negro’, fotoluminescência, a produção de raios
catódicos por luz ultravioleta e outros fenômenos
envolvendo a emissão ou a conversão da luz podem ser
melhor compreendidos sob a premissa de que a energia da
luz é distribuída de forma descontínua no espaço. De
acordo com a suposição considerada aqui, quando um raio
de luz que se inicia em um ponto é propagado, a energia
não é distribuída de forma contínua sobre um volume cada
vez maior, mas consiste num número finito de quanta de
energia, localizados no espaço, que se movem sem ser
divididos e que podem ser absorvidos ou emitidos apenas
por inteiro.

A seguir, eu comunicarei o trem de pensamento e os fatos


que me levaram a essa conclusão, na esperança de que o
ponto de vista a ser dado possa se mostrar útil para alguns
pesquisadores em suas investigações.

Esse trecho ajuda também a mostrar algo extremamente


marcante em Einstein: a clareza cristalina de seu
pensamento. Não chega a ser um texto de divulgação
científica, claro, mas lembremos que Einstein não estava
escrevendo para o público, e sim para seus colegas físicos,
que tinham total entendimento prévio do contexto do
debate. Em linhas gerais, o problema que Einstein está
apresentando ali é que, se vamos tratar átomos e elétrons
como unidades indivisíveis e finitas, e ondas
eletromagnéticas como coisas contínuas, que em princípio
poderiam ser divididas num número infinito de pedaços,
em algum momento haverá contradições entre as duas
teorias, que vão se manifestar – e já estavam se
manifestando – em experimentos.

Tendo isso em vista, e inspirado pelo sucesso relutante de


Planck, Einstein decide que é hora de vermos a luz de outra
maneira. Como ele mesmo reconhece, a teoria ondulatória
de Maxwell, segundo a qual a luz é uma onda
eletromagnética que se propaga no espaço, está certa. Mas
precisamos encarar o fato de que, quando as
circunstâncias envolvem a participação de partículas
individuais – como é o caso dos elétrons no efeito
fotoelétrico –, precisamos de

uma outra descrição da luz, que a trate como um conjunto


de partículas. Ou, como Einstein preferiu chamar, “quanta
de luz”. Hoje, nós chamamos esses quanta de fótons.

O artigo foi publicado em 9 de junho daquele ano e iniciou


a revolução quântica, que Planck até então tentava
insistentemente varrer para debaixo do tapete, depois de
tê-la dado asas. Os quanta não eram um artefato
matemático; eram reais, tinham existência física, e agora
Einstein estava dizendo que a luz era feita deles. Mas, ele
asseverava, a luz também era uma onda, porque, lembre-
se, a energia do quantum é igual à constante de Planck
multiplicada pela frequência – e a frequência só pode dizer
respeito a uma onda. Isso, de certa maneira, dava suporte
ao sucesso de Maxwell e sugeria a ideia verdadeiramente
revolucionária da física quântica: a luz tinha uma natureza
dual, era ao mesmo tempo onda e partícula.
Em 1918, Planck recebeu seu Prêmio Nobel em Física, “em
reconhecimento dos serviços prestados ao avanço da física
por sua descoberta dos quanta de energia”. Para Einstein,
a premiação viria três anos depois, “por serviços à física
teórica e especialmente pela descoberta da lei do efeito
fotoelétrico”.

Pode parecer pouco, mas com a proposta de Einstein sobre


a natureza dual da luz, finalmente a caixa de Pandora do
mundo quântico estava escancarada. O que sairia dele? A
descoberta de que, nas menores escalas, o Universo é
completamente absurdo.

UMMUNDODEPROBABILIDADES

Um grande avanço promovido pela teoria quântica foi uma


compreensão refinada dos átomos, depois da descoberta
dos elétrons, com sua carga negativa, no fim do século 19.
A primeira evolução sobre a proposta original de John
Dalton veio com sir Joseph John Thomson (1856-1940). Foi
ele, aliás, que mostrou que os raios catódicos – fenômeno
que aparecia entre dois eletrodos submetidos a uma
voltagem em um ambiente de vácuo – eram compostos por
partículas de carga negativa que tinham massa muito
inferior à dos átomos, em 1897. Era a primeira evidência
dos constituintes individuais das correntes elétricas, os
elétrons. Em 1904, Thomson propôs seu modelo atômico,
que era baseado em ideias de Kelvin e mais lembrava um
pudim de passas – os elétrons ficariam “grudados” aos
átomos, misturados a uma massa bem maior de carga
positiva, o que os deixaria, ao final, com carga neutra.

O modelo, entretanto, não foi corroborado pelos


experimentos promovidos pelo neozelandês Ernest
Rutherford (1871-1937), em parceria com seus colegas
Hans Geiger (1882-1945) e Ernest Marsden (1889-1970).
Os testes, realizados entre 1908 e 1910, usavam
elementos radioativos capazes de emitir partículas

alfa (na realidade, núcleos atômicos de hélio) na direção de


uma fina folha de ouro, com uma emulsão sensível atrás
dela. Se os átomos de ouro fossem como sugeria Thomson,
as partículas alfa deveriam passar direto pelo ouro e
marcar a emulsão, sofrendo no máximo um leve desvio.

Mas não foi isso que se viu. As partículas alfa se desviavam


em várias direções. Em alguns momentos, até mesmo
ricocheteavam para a frente, rebatidas pelo ouro. Em 1911,
Rutherford então formulou um novo modelo atômico, mais
próximo do que acabaria se consagrando: com os elétrons
e sua carga negativa orbitando o núcleo, pequeno e
concentrado, com sua carga positiva.

O modelo, é claro, lembra um sistema planetário; o núcleo


faz o papel do Sol, e os planetas seriam os elétrons. No
caso em questão, “miniplanetas” com carga negativa
orbitando uma “estrela” com carga positiva. Cargas
opostas, como todo mundo sabe – e já sabia naquela época
–, se atraem. Só que tem um detalhe que estraga a
analogia: cargas elétricas, quando aceleradas, irradiam e,
portanto, perdem energia. Perdendo energia, os elétrons
deveriam cair no núcleo atômico.

O que então impediria o átomo de ser completamente


instável, com os elétrons mais leves mergulhando
loucamente nos núcleos mais pesados?

Eis que a física quântica parte para o resgate quando todas


as teorias clássicas falham. Usando-a para modelar o
átomo de hidrogênio – o menor e mais simples que existe,
com um único elétron ao seu redor –, o físico dinamarquês
Niels Bohr (1885-1962) mostrou em 1913 que era possível
preservar a estabilidade atômica evocando alguns
postulados – fatos admitidos como corretos mesmo sem
provas.

O primeiro era o mais basicão: os elétrons devem circular o


núcleo atômico em órbitas definidas. Nada de muito novo
com relação a Rutherford. O segundo era que a cada órbita
corresponde um nível específico de energia, e o terceiro,
que esses níveis de energia só podiam ser múltiplos
inteiros de uma determinada quantidade mínima – o
quantum. Por fim, o quarto afirma que os elétrons só
podem mudar de órbita ganhando ou perdendo uma
quantidade bem determinada de energia. Esses seriam os
famosos “saltos quânticos” (que, ao contrário do que o uso
da expressão no cotidiano parece sugerir, são bem
pequenininhos). Eles se dão entre órbitas bem definidas,
estabelecidas por múltiplos inteiros da constante de Planck
lá de cima. Olha a quantização agindo!

Vamos entender isso melhor. Quando um fóton (um


quantum de luz) bate num elétron e carrega uma
quantidade de energia suficiente, ele o leva a um novo
nível de energia, que o atira para uma órbita mais elevada.
Mas eventualmente ele descerá novamente, e aí emitirá
um fóton de volta, cuja energia sempre corresponderá ao
salto quântico que ele fizer. O mecanismo é uma forma

elegante de enxergar o princípio da conservação da


energia em ação.

Com o modelo de Bohr, o mundo atômico começava a


entregar seus segredos.

Mas note que hoje conhecemos esses avanços todos como


“a velha teoria quântica”. Bohr, que ganhou o Prêmio Nobel
em Física de 1922 “por seus serviços na investigação da
estrutura dos átomos e da radiação que emana deles”,
ainda era incapaz de responder por átomos mais pesados e
complexos.
Seu modelo servia apenas para o hidrogênio, o elemento
mais simples da tabela periódica. Para ir além,
precisaríamos da “nova teoria quântica”, que começaria
com Louis de Broglie (1892-1987).

Em 1924, o jovem francês, então com 27 anos, fez pela


matéria em sua tese de doutorado exatamente a mesma
coisa que Einstein havia feito pela luz em 1905.

Se a radiação eletromagnética, até então tida como uma


onda, podia também ser uma partícula (o fóton), por que
não as partículas também serem uma onda? Em seu
trabalho, de Broglie postulou exatamente isso para o
elétron e sugeriu que toda forma de matéria também vivia
essa dualidade onda-partícula.

De uma hora para a outra, uma realidade subjacente a


tudo que vemos na natureza começava a emergir – tudo,
fosse radiação ou matéria, parecia ser, a um só tempo,
onda e partícula. A tese de Louis de Broglie tinha como
uma de suas bases de sustentação o estudo de Einstein a
respeito da luz, e o físico alemão se interessou de imediato
pelo novo avanço. Mas quem o elevou a um outro patamar
foi o austríaco Erwin Schrödinger (1887-1961).

Ao final de 1925, ele partiu do postulado do francês, de que


todo sistema quântico tinha uma onda associada a ele, e
concebeu uma equação que permitia fazer predições sobre
o comportamento de partículas e conjuntos de partículas. A
equação de Schrödinger, publicada em janeiro de 1926 no
Annalen der Physik, foi o passo decisivo para transformar a
teoria quântica num mecanismo preditivo da natureza em
suas menores escalas. E o que ela revelou foi que o
microcosmo não se comporta nem um pouco como o nosso
mundo clássico, newtoniano.

Para o austríaco, o fato de cada partícula ter uma função


de onda associada significava que era completamente
impossível determinar com exatidão sua localização no
espaço a cada momento do tempo – o máximo que se
podia fazer era calcular o nível de probabilidade de ela
estar em qualquer dos locais possíveis. Agora, se o seu
experimento for especialmente concebido para determinar
a posição da partícula, o que se dá é o “colapso da função
de onda”; você passa a saber onde a partícula está, mas
ela já não se comporta mais seguindo o padrão ondulatório
esperado de uma entidade dual onda-partícula.

Parece louco. E é mesmo. Uma das melhores formas de


visualizar todo esse processo é por meio de um antigo
experimento – que até hoje não ficou velho –, envolvendo
duas fendas.

Se você projeta um feixe de luz num anteparo com duas


pequenas fendas, o que se vê na parede atrás dele é um
padrão de diversas franjas de luz e sombra –

um padrão de interferência. O primeiro a fazer isso foi


Thomas Young, em 1801, e serviu como prova de que a
radiação luminosa era mesmo uma onda. Isso porque, ao
passar pelas duas fendas, a luz cria duas frentes de onda
que então interagem uma com a outra, criando os padrões
de interferência vistos na parede.

Não é tão difícil entender o que está rolando. Pense nas


ondas que vemos no mar. Elas são basicamente oscilações
em que a água sobe e desce, sobe e desce.

Agora imagine duas ondas se encontrando no mar. Se elas


se encontrarem no ponto em que estão as duas cristas,
uma vai se somar à outra naquele ponto, e teremos uma
onda ainda mais alta. Agora, se uma crista encontrar um
vale, o que teremos é o cancelamento de ambas naquele
ponto. Isso é interferência, construtiva no primeiro caso,
destrutiva no segundo. Quando as ondas de luz interferem
umas com as outras após passar pelas duas fendas, em
certos locais elas se somam (faixas iluminadas na parede)
e em outros se anulam (faixas escuras). Esse efeito é
característico de qualquer onda, seja ela de luz, som ou
água.

O EXPERIMENTO DA DUPLA FENDA É UM CLÁSSICO. O


PADRÃO DE FRANJAS REFLETE

A INTERFERÊNCIA ENTRE AS ONDAS EMANADAS DE


CADA UMA DAS FENDAS.

Difícil contestar a natureza ondulatória da luz depois dessa.


Mas sabemos, graças a Einstein, que a luz também é uma
partícula. O que acontece se, no experimento da dupla
fenda, dispararmos um quantum de luz – um fóton – de
cada vez?
Esse experimento foi realizado e ilustra perfeitamente a
dualidade onda-partícula. Cada fóton vai chegar à parede e
marcar seu local exato de impacto.

De início, o padrão parecerá aleatório, mas, conforme mais


e mais fótons passarem pelas fendas, veremos que eles
recaem estatisticamente muito mais sobre as regiões das
franjas iluminadas, revelando o padrão de interferência. Ou
seja: cada partícula de luz também se comporta como uma
onda de luz.

O mesmo experimento foi feito mais tarde com elétrons, o


que demonstrou que, além de se comportarem como
partículas, eles também podem se comportar como ondas.

CINCO ETAPAS DE UM EXPERIMENTO DE DUPLA


FENDA COM ELÉTRONS. NO COMEÇO, ERAM APENAS
11; NO FINAL, 140 MIL COLISÕES. E AÍ O PADRÃO DE
INTERFERÊNCIA FICA BEM CLARO.

Se você parar para pensar, vai ver que esse experimento é


completamente contraintuitivo. Quando vemos um elétron
ou um fóton ser disparado de cada vez, imaginamos que
ele só pode passar por uma ou por outra, ou nem passar!

Mas o padrão de distribuição estatística de onde ele vai


parar sugere que, de algum modo, ele passa pelas duas
fendas ao mesmo tempo e interfere consigo mesmo para
chegar a seu destino final. Mas como pode um elétron estar
em dois lugares ao mesmo tempo?
A soma entre experimento e teoria parece sugerir a ideia
de que uma partícula existe ao mesmo tempo em todos os
lugares que pode existir – e em todos os estados quânticos
que puder existir – até que alguma interação faça com que
ela defina sua condição – em termos técnicos, que ocorra o
colapso da função de onda. Ou seja, num mundo 100%
quântico, você só pode ser algo definido se alguém
observá-lo de forma definida sendo esse algo. Se isso não
acontecer, em princípio você é todas as coisas que puder
ser e estará em todos os lugares em que puder estar ao
mesmo tempo.

E por que essa realidade fundamental das partículas não se


traduz para o nosso dia a dia macroscópico? Bem, a nossa
“sorte” é que as partículas estão o tempo todo interagindo
umas com as outras – “observando-se” mutuamente, por
assim dizer – e assim definindo seus próprios estados, de
forma que qualquer agregado suficientemente grande de
partículas acaba sofrendo o colapso da função de

onda e se comporta como um objeto clássico, regido pela


física tranquilona de Isaac Newton. Mas já foi demonstrado
em laboratório que, em condições controladas, você pode
manter um número arbitrariamente alto de partículas sem
colapsar a função de onda, preservando-o nessa condição
de “sobreposição de estados”.

A essa altura, esse papo deve estar soando completamente


lunático. E não pense que os físicos responsáveis por essa
revolução também não achavam isso tudo o mais completo
absurdo. Schrödinger criou um experimento mental para
demonstrar esse paradoxo em 1935.

Veja só, na mente dele (você não precisa denunciá-lo à


Sociedade Protetora dos Animais, portanto), o austríaco
aprisionou um gato numa caixa totalmente fechada. Mas
não era uma caixa qualquer. Ela tinha em seu interior uma
fonte de radiação – um único átomo, que podia ou não
sofrer decaimento radioativo. Um sensor estaria pronto
para detectar a radiação e, caso a detectasse, ele soltaria
um martelo, que quebraria um frasco de veneno e mataria
o pobre felino.

O dilema quântico aí é o seguinte: a caixa está fechada, de


forma que é impossível para nós saber se o átomo sofreu
decaimento ou não. E como não houve o colapso da função
de onda, todas as coisas possíveis estariam acontecendo
ao mesmo tempo. O átomo teria e não teria sofrido
decaimento, e o gato, por sua vez, estaria vivo e morto, ao
mesmo tempo.

Claro, quando abríssemos a caixa, a função de onda


sofreria seu colapso e só teríamos um gato ou morto ou
vivo, não os dois. Mas, antes de abrir a caixa, tudo que se
podia saber, a partir da mecânica quântica, era a
probabilidade de que o colapso conduzisse a um gato
morto ou vivo.

O experimento mental ilustra o absurdo da situação. Ao


atrelar a situação do animal à ambiguidade quântica,
Schrödinger tentava mostrar que nosso entendimento da
mecânica quântica devia estar equivocado ou, no mínimo,
incompleto. Mas a verdade é que até hoje não sabemos se
o gato de Schrödinger pode mesmo estar vivo e morto ao
mesmo tempo.

E esse foi o momento em que Einstein se voltou contra sua


própria criação, rejeitando a teoria quântica. Ele não
aceitava que, em seu estado mais fundamental, a natureza
fosse probabilística, e não determinística, à moda da física
newtoniana. Em uma carta ao colega Max Born datada de 4
de dezembro de 1926, ele escreveu:

A mecânica quântica certamente é imponente. Mas uma


voz interior me diz que essa não é ainda a verdade (...). Eu,
de modo algum, estou convencido de que Ele joga dados.

“Ele”, no caso, seria Deus, claro. Mas não em seu sentido


literal; era apenas uma metáfora para descrever aquele
que detém o conhecimento final, aquele que a

ciência almeja algum dia encontrar. Einstein não era


religioso e deixou claro isso numa carta escrita em 1954:

Eu não acredito num Deus pessoa e nunca neguei isso (...).


Se há algo em mim que pode ser chamado de religioso
então é a admiração irrestrita pela estrutura do mundo até
onde nossa ciência pode revelá-la.

Já a brincadeira com o jogo de dados, claro, referia-se ao


fato de que ele não acreditava que, em sua essência, a
natureza pudesse ser meramente um jogo de
probabilidades, como sugeria a mecânica quântica.

Mal sabia ele que no ano seguinte à carta a Max Born, em


1927, o físico alemão Werner Heisenberg (1901-1976) não
só manteria a assertividade probabilística estabelecida por
Schrödinger, mas também introduziria um limite
fundamental ao que pode ser conhecido
experimentalmente, mesmo com o colapso da função de
onda.

Em suma, Heisenberg demonstrou que você não pode fazer


seu bolo e comê-lo também. Se você quiser determinar
com precisão absoluta a posição de uma partícula, terá de
sacrificar automaticamente qualquer conhecimento a
respeito de velocidade. Inversamente, se quiser saber com
que velocidade exatamente se desloca uma partícula, terá
de abdicar de saber de sua posição. Alternativamente, você
pode determinar mais ou menos as duas coisas, mas uma
precisão maior de um lado obrigará a uma imprecisão
maior do outro.
Esse ficou conhecido como o princípio da incerteza de
Heisenberg e, a exemplo de tudo que já falamos aqui sobre
a mecânica quântica, foi testado e retestado em
incontáveis experimentos. Até hoje, a teoria não falhou
uma vezinha sequer e permitiu que fizéssemos previsões
incrivelmente precisas sobre o comportamento da matéria.

É um contraste forte com a época em que Kelvin


proclamava o fim iminente da física. Uma de suas
nuvenzinhas levou a um entendimento totalmente novo,
mais profundo e mais misterioso da natureza – que
teremos oportunidade de abordar em mais detalhes alguns
capítulos adiante.

Agora, contudo, temos de nos lembrar que Kelvin havia


deixado aos físicos do século 20 uma segunda nuvem. E
assim que Einstein colocou suas mãos nela, dali brotou
outra imensa tempestade, da qual nem mesmo o grande
Isaac Newton, intocado por três séculos, sairia ileso. É o
que veremos a seguir.

O ESPAÇO

E O TEMPO

Como a tentativa de detectar o meio de propagação das


ondas de luz levou Einstein a redefinir os parâmetros
fundamentais da natureza.

No século 17, duas teorias competiam para explicar a


misteriosa natureza da luz: o físico britânico Isaac Newton,
em seus profundos estudos de óptica, sugeria que ela seria
corpuscular, feita de partículas. Já o astrônomo holandês
Christiaan Huygens (1629-1695) passou a defender, em
1678, que a luz na verdade era uma onda.
No embate de titãs, com o passar dos séculos, a visão de
Huygens acabou prevalecendo, pois a hipótese ondulatória
explicava diversos fenômenos que a proposta corpuscular
era incapaz de esclarecer, como os experimentos de dupla
fenda que descrevemos no capítulo anterior.

A aceitação da ideia de que a luz era mesmo uma onda


atingiu seu auge com James Clerk Maxwell. Num dos
maiores feitos da história da ciência, em 1873, o escocês
revelou que eletricidade e magnetismo, antes tidos como
forças diferentes, eram fenômenos entrelaçados. Sua
refinada descrição matemática de ambos como faces de
uma mesma moeda podia explicar com absoluta precisão
como campos elétricos podiam gerar magnetismo e como
campos magnéticos podiam gerar eletricidade. Saíam de
cena os campos elétricos e magnéticos, e restava apenas
um único campo eletromagnético, com a sua onda
associada, a onda eletromagnética.

Curiosamente, essas mesmas equações indicavam com


que velocidade essas ondas deveriam viajar pelo vácuo, e
o valor coincidia com o que já era medido para a
velocidade da luz. De repente, tudo fazia sentido: a luz não
era meramente uma onda; ela era uma onda
eletromagnética.

Pode soar como uma coisa muito moderna, mas


astrônomos já têm medido a velocidade da luz desde 1676.
O primeiro a fazê-lo foi o astrônomo dinamarquês Ole
Christensen Rømer (1644-1710). Ele observou mais de cem
eclipses da lua joviana Io de Júpiter (que havia sido
descoberta por Galileu Galilei menos de um século antes,
em 1610), cronometrando o momento observado do
fenômeno, e notou que o tempo que levava entre os
eclipses se encurtava quando a Terra estava mais próxima
de Júpiter e se alongava quando ela estava mais distante.
Como, pelas leis de movimento planetário, esses períodos
deviam ser virtualmente idênticos, Rømer concluiu que a
diferença observada só podia ser uma consequência da
velocidade da luz – quando a Terra estava mais perto, a luz
tinha uma distância menor a percorrer e chegava mais
depressa; inversamente, quando ela estava mais longe, o
caminho era mais longo e ela demorava mais a chegar.

Efetuando os cálculos, num trabalho feito em parceria com


o astrônomo franco-italiano Giovanni Domenico Cassini, em
Paris, Rømer concluiu que a luz

precisava de 10 a 11 minutos para cruzar pelo espaço uma


distância igual ao afastamento médio entre a Terra e o Sol,
o que daria cerca de 220 mil km/s. Para uma medida feita
em 1676, nada mal. Hoje sabemos que a luz viaja pelo
vácuo a 299.792,458 km/s e percorre a distância Terra-Sol
em 8 minutos e 19 segundos.

(Para não torturar demais nos cálculos, é comum atribuir à


velocidade da luz no vácuo, indicada pela letra c nas
equações, o valor aproximado de 300 mil km/s –

1,08 bilhão de km/h.)

No século 19, uma medida bem próxima da moderna já


existia, mas restava um mistério ainda mais elementar: se
a luz é uma onda eletromagnética com velocidade finita,
qual é o meio por onde se propaga essa onda?

Convenhamos, é um questionamento justo. Afinal de


contas, todas as outras ondas conhecidas precisavam de
um meio para se propagar. Seria impossível imaginar ondas
no mar sem a água; é justamente o balanço da água que
pode ser descrito como a onda. O mesmo se aplica às
ondas sonoras; elas precisam de um meio material – nem
que seja o ar – para se propagar, e são justamente essas
vibrações do ar que percebemos como som. E, claro, já
sabemos desde muito antes do filme Alien, de 1979, que
no espaço ninguém ouve você gritar. Mas também
sabemos que no espaço a luz viaja toda pimpona, sem se
incomodar com nada. Mas por qual meio material as ondas
luminosas estão vibrando, em pleno vácuo? Seria o próprio
vácuo algo mais que o nada?

Daí surgiu a ideia de postular a existência de algo que


servisse de meio material para a propagação das ondas de
luz, algo que os cientistas chamavam de éter luminífero. (A
palavra éter foi emprestada dos filósofos gregos antigos,
em particular Aristóteles, que viveu no século 4 a.C. Ele
defendia que o mundo terrestre era feito de quatro
elementos fundamentais – terra, água, fogo e ar – e que o
cosmos acima tinha como matéria-prima uma outra
substância, inexistente por aqui: o éter. A palavra remete a
etéreo, sutil, como deveria ser a perfeição aristotélica do
mundo das esferas celestes. Claro, o éter luminífero dos
físicos do século 19 era outra coisa; não era algo que
perfazia os planetas e estrelas, mas sim algo que
permeasse todo o Universo e servisse de meio de
propagação para as ondas eletromagnéticas. E é bom
também não confundir esses dois éteres aí com o éter da
química – uma classe de compostos orgânicos que tem
baixa reatividade. Em retrospecto, filósofos e cientistas
parecem mesmo ter um caso de amor com a palavra éter.)

Uma vez postulado, tornava-se imperativo realizar a


detecção do éter luminífero e com isso desvendar suas
propriedades, dando máxima consagração à teoria
eletromagnética de Maxwell. E essa era justamente uma
das duas nuvenzinhas descritas por Lorde Kelvin que
pairavam sobre o céu da física no começo do século 20. Ao
procurarem o éter, os cientistas encontrariam algo

ainda mais surpreendente: a natureza do espaço e do


tempo.
UMEXPERIMENTOFRACASSADO?

Em 1881, o físico Albert Michelson (1852-1931), nascido na


Polônia, mas radicado nos Estados Unidos, acreditava ter
concebido um arranjo experimental capaz de finalmente
detectar o éter. Era um interferômetro.

Em essência, ele consistia numa fonte de luz que era


disparada contra um espelho semitransparente. Parte dos
raios luminosos passaria direto por ele e parte seria
redirecionada a um ângulo de 90 graus. Formava-se assim
um “L” de luz, com comprimentos exatamente iguais nos
dois braços e espelhos nas duas pontas, fazendo com que
a luz retornasse mais uma vez a seu ponto de origem.

Michelson partia do pressuposto – bastante em voga entre


os cientistas da época – de que a Terra, conforme viajava
em sua órbita ao redor do Sol, estava constantemente
atravessando o éter luminífero. Ao atravessá-lo, como seria
de se esperar, ela geraria um “vento de éter” na direção
contrária. Se a luz é uma onda que se propaga pelo éter,
ao disparar dois feixes de luz em direções perpendiculares,
a velocidade total de propagação de ambos seria a soma
da velocidade da luz pelo éter com a velocidade do “vento
do éter”. É como imaginar um avião no ar. Se o avião se
desloca pelo ar a, digamos, 500 km/h, mas o próprio ar
está se deslocando com um vento de proa (vindo de frente
para ele) de, digamos, 10 km/h, a velocidade do avião com
relação ao solo será de 490 km/h (somamos os 500 com os
-10 do vento contrário). Se, inversamente, o vento é de
popa (vem de trás), a velocidade do avião com relação ao
solo seria de 510 km/h (500+10).

A esperança do físico americano era que a diferença na


velocidade da luz entre os dois braços do experimento
indicasse a presença e a natureza do éter. E
acreditava que iria detectar minúsculas variações nessas
velocidades ao reunir novamente a luz, de forma que as
ondas interferissem umas com as outras, gerando um
padrão de interferência diferente do que seria esperado
caso a luz fizesse os dois percursos exatamente no mesmo
tempo.

Era um arranjo inteligente. Tinha tudo para funcionar. Mas


Michelson frustrou-se ao notar que seu experimento
produzia resultados com muitas variações e incertezas –
em algumas rodadas experimentais, parecia até mesmo
que a luz chegava exatamente ao mesmo tempo nos dois
braços, dando a entender que não havia éter algum.

Mas ele não desistiu. Reconhecendo que faltava precisão a


seu instrumento original, o físico passou a trabalhar a partir
de 1885 com o americano Edward Morley (1838-1923) no
que seria uma versão maior, mais precisa e mais
sofisticada de seu interferômetro. Entre abril e julho de
1887 eles estavam com o

equipamento pronto para as primeiras rodadas de


observação. O desvio no padrão de interferência esperado
pelo efeito do vento de éter era 40 vezes maior que o nível
estimado de precisão.

Os dois ficaram chocados, contudo, ao notar que as únicas


variações detectadas caíam justamente sobre a margem
de erro experimental.

Aparentemente, seus resultados, reportados no American


Journal of Science, eram consistentes com a luz chegando
exatamente ao mesmo tempo dos dois braços do
experimento. Era como se o éter tivesse velocidade zero
em relação à Terra, a despeito de seus movimentos. Ou,
dizendo de forma ainda mais enfática, era como se ele não
existisse.
O experimento de Michelson-Morley passou à posteridade
como o resultado negativo mais importante da história da
ciência. E agora você vai saber exatamente por quê.

NASCEARELATIVIDADE

E se a medição que indicava a indetectabilidade do éter


estivesse na verdade revelando uma propriedade ainda
mais fundamental do Universo? E se a velocidade da luz,
medida como sempre a mesma em insistentes
experimentos, fosse de fato sempre a mesma, não
importando a velocidade do objeto que a estivesse
emitindo ou de quem a estivesse detectando?

Esse foi o princípio mais desnorteante e contraintuitivo de


que partiu Albert Einstein para submeter ao Annalen der
Physik, em 30 de junho de 1905, o artigo

“Sobre a eletrodinâmica dos corpos em movimento”.


Ninguém sabia disso naquele momento, mas ali, no que o
próprio Einstein definiria como um “esboço grosseiro”,
estava nascendo a teoria da relatividade restrita, chamada
também de especial – e com ela viria junto uma refundação
completa das noções que tínhamos de espaço e de tempo.

Desde Isaac Newton, no século 17, era costumeiro


apresentar o espaço e o tempo como medidas absolutas,
imutáveis. Eles eram como que um pano de fundo para o
desenrolar dos eventos no mundo, uma espécie de grade
quadriculada que oferecia um referencial privilegiado
segundo o qual poder-se-ia escrever as leis da física. Nesse
sentido, a ideia do éter luminífero imóvel era
extremamente conveniente – ela fornecia esse referencial
absoluto segundo o qual quaisquer eventos podiam ser
medidos.

Os experimentos, contudo, agora rechaçavam a existência


desse ponto de vista privilegiado. O éter era, na melhor das
hipóteses, completamente indetectável.

Na pior, inexistente. Além disso, as equações do


eletromagnetismo de Maxwell, apesar de sua incrível
precisão, apresentavam assimetrias estranhas quando
aplicadas a corpos em movimento, justamente por se
basearem nesse referencial

absoluto. Veja só.

Se você movimenta um ímã na vizinhança de um fio


condutor em repouso, vê uma corrente elétrica aparecer
nesse fio – é a clássica indução eletromagnética.

Em contrapartida, se você move um fio condutor nos


arredores de um ímã em repouso, vê, naturalmente, a
mesma corrente elétrica. Afinal de contas, que diferença
faz entre movimentar o ímã ou o fio?

O problema com o eletromagnetismo de Maxwell é que ele


partia de uma física newtoniana, que tratava igualmente
todos os referenciais segundo um padrão universal, e aí,
embora a teoria descrevesse perfeitamente o fenômeno
observável – o surgimento de uma corrente –, a explicação
que emergia dela parecia assimétrica. Se considerássemos
o movimento do ímã, a influência causadora do fenômeno
é o surgimento de um campo elétrico; se, inversamente,
descrevêssemos o movimento do fio, o culpado pela
observação seria o emergente campo magnético. Essa
assimetria era uma pedra no sapato de Einstein. Em seu
artigo, ele escreveu:

Exemplos desse tipo, junto com as tentativas mal-


sucedidas de descobrir qualquer movimento da Terra
relativo ao ‘meio da luz’ [éter], sugerem que os fenômenos
da eletrodinâmica assim como os da mecânica não
possuem propriedades correspondentes à ideia de repouso
absoluto. Elas sugerem, em vez disso, que, como já foi
mostrado à primeira ordem de pequenas quantidades, as
mesmas leis da eletrodinâmica e da óptica serão válidas
para todos os referenciais para os quais as equações da
mecânica são preservadas. Nós elevaremos essa
conjectura (cujo sentido a partir daqui chamaremos de
‘Princípio da Relatividade’) ao status de um postulado, e
também introduziremos outro postulado, que é apenas
aparentemente irreconciliável com o anterior, qual seja,
que a luz é sempre propagada no espaço vazio com uma
velocidade definida c que é independente do estado de
movimento do corpo emissor. Esses dois postulados são
suficientes para a obtenção de uma teoria simples e
consistente da eletrodinâmica de corpos em movimento
baseada na teoria de Maxwell para corpos estacionários. A
introdução de um ‘éter luminífero’

mostrar-se-á supérflua uma vez que a visão a ser


desenvolvida aqui não exigirá um ‘espaço absolutamente
estacionário’ que tenha propriedades especiais, nem
designará um vetor-velocidade a um ponto do espaço vazio
em que processos eletromagnéticos acontecem.

Com efeito, várias dessas ideias já estavam no ar na época


em que Einstein escreveu seu trabalho. O matemático
francês Henri Poincaré, no ano anterior, em dezembro de
1904, escreveu no Bulletin des Sciences Mathématiques
que “o princípio da relatividade propõe que as leis dos
fenômenos físicos devem ser as mesmas, seja para um
observador fixo, seja para um observador que se desloca
num movimento de translação uniforme, de tal modo que
nós não temos e não podemos ter nenhum meio de
diferenciar se nós não estamos sendo conduzidos por um
movimento semelhante”.

E por que as leis devem ser as mesmas? Bem, porque


todos os movimentos retilíneos uniformes são
indistinguíveis do próprio repouso e entre si.
Traduzindo: se estamos num avião, já em velocidade de
cruzeiro, voando em

linha reta, numa atmosfera calma, com as janelas


fechadas, é impossível saber se estamos em repouso na
pista do aeroporto ou viajando a 1.000 km/h em pleno ar.

Somente quando introduzimos acelerações ou curvas


(turbulência serve!), é possível, de dentro da aeronave, ter
alguma pista de nosso próprio movimento (e aí nos
apavorarmos de acordo). Mas entre estarmos voando a
uma velocidade constante em linha reta e estarmos
parados, não há diferença perceptível que qualquer
experimento possa revelar. E, se as duas situações são
indistinguíveis, dizem Poincaré e Einstein, as mesmas leis
da física que se aplicam a nós no avião estacionado no
aeroporto devem valer também num movimento retilíneo
uniforme.

Até aí tudo bem. Nada radicalmente novo. O postulado


realmente revolucionário de Einstein, e apenas implícito no
trabalho de Poincaré, é o que diz respeito à velocidade da
luz.

As implicações da premissa de que ela tem sempre a


mesma velocidade, não importa o que aconteça, são
assustadoras e rompem completamente com nossas
noções intuitivas. Prepare-se para adentrar no mundo em
que o espaço e o tempo são, eles mesmos, relativos.

APOSTANDOCORRIDACOMUMRAIODE
LUZ

Ao postular que a luz sempre viaja à mesma velocidade,


independentemente da velocidade de quem observa essa
luz, Einstein estava lançando mão de um último recurso
para um problema intelectual com que ele já duelava havia
uma década. Em 1905, o alemão tinha apenas 26 anos,
mas a primeira vez que ele se mostrou intrigado pelo
comportamento incomum e misterioso das ondas
eletromagnéticas foi bem antes, aos 16 anos.

Ele mesmo conta, em suas Notas Autobiográficas, de um


gedankenexperiment que realizou quando adolescente –
um experimento mental, que não podia ser realizado na
prática, mas era acessível à imaginação –, ao especular
como seria apostar corrida com um raio de luz.

Se eu perseguir um raio de luz com a velocidade c (a


velocidade da luz no vácuo), eu deveria observar esse raio
de luz como um campo eletromagnético em repouso,
embora oscilando no espaço. Parece não existir algo assim,
contudo, nem com base na experiência, nem de acordo
com as equações de Maxwell. Desde o princípio parecia a
mim intuitivamente claro que, a julgar pelo ponto de vista
de um observador assim, tudo teria de acontecer de acordo
com as mesmas leis que valeriam para um observador que,
relativo à Terra, estivesse em repouso. Pois como o
primeiro observador saberia ou seria capaz de determinar
que ele está num estado de movimento uniforme rápido?

A única forma de realmente se desfazer desse paradoxo é


imaginar que a luz sempre chega a um observador à
velocidade da luz, não importando a velocidade em que ele
viaja com relação a ela. E isso é chocante.

Quer ver? Lembre-se de como é viajar de carro numa


estrada. Imagine que estamos viajando à velocidade
máxima permitida, 100 km/h. Se o automóvel da frente e o
seu estão se deslocando à mesma velocidade, temos a
impressão de que ele está parado com relação a nós. Em
compensação, quando olhamos para a pista ao lado,
destinada a viagens no sentido contrário, vemos os carros
passando por nós a uma velocidade incrível. Nós
avançamos para a frente a 100 km/h, eles vêm a 100 km/h,
e a sensação é de que eles passam por nós a 200 km/h.
Isso é o básico das leis de movimento clássicas. As
velocidades se somam. Imagine que, da janela do carro,
você agora atira uma bola de golfe para a frente, a 20 km/h
(estou presumindo que o vento não vai atrapalhar, o que
não é muito realista, mas vá lá). Do seu ponto de vista, ela
está se afastando a 20 km/h. Mas, da perspectiva de um
observador em repouso na beira da estrada (talvez aquele
gordinho safo das propagandas do posto Ipiranga), a
velocidade da bola é de 120

km/h, pois somam-se as velocidades do carro e da bola.

Ok, agora vamos entender o que Einstein postulou: a luz


sempre viaja à mesma velocidade no vácuo,
independentemente do estado de movimento da fonte ou
do observador. Nesse caso, se você tiver um instrumento a
bordo do seu carro para medir a velocidade da luz, pouco
importa se ela está vindo do carro à frente – em repouso
com relação a você – ou de um automóvel na pista de
sentido contrário, aproximando-se rapidamente de você.
Em ambos os casos, a velocidade será sempre a mesma, e
não se somará às demais velocidades do experimento.

Até aí, tudo entendido. E nem parece tão traumático – até


que você analisa o que isso realmente significa.

Vamos lá. Imagine um outro experimento na nossa estrada.


Agora, precisaremos de uma fonte de luz e um espelho no
interior do nosso carro, e queremos medir o tempo que a
luz leva para ir da nossa fonte, instalada no teto, até o
espelho, no assoalho, e então voltar para a fonte.

O que vemos é o raio de luz descendo em linha reta e


retornando à origem, numa viagem a estonteantes 300 mil
km/s.
Agora, vamos imaginar o que o gordinho do posto Ipiranga,
à beira da estrada, também viu o nosso experimento.
Conforme o nosso carro seguia em movimento, ele
observou a luz realizar uma trajetória na diagonal para
atingir o espelho no assoalho, e então uma nova trajetória
na diagonal, desta vez para cima, até chegar ao teto do
veículo.

Tanto do ponto de vista de quem estava no carro como do


de quem estava na beira da estrada, contudo, a velocidade
da luz foi sempre a mesma. E, se foi a mesma nos dois
casos, é óbvio que o tempo que a luz levou para fazer o
percurso observado por quem estava em repouso foi maior
(uma vez que a distância

percorrida também era maior) do que o tempo


cronometrado no interior do veículo (onde a distância era
menor). Mas é o mesmo e único evento! Um único
experimento, realizado uma única vez, e o gordinho na
beira da estrada e nós não conseguimos concordar sequer
sobre quanto tempo ele consumiu! Aí você pergunta para o
cara em repouso na beira da pista quanto tempo levou no
cronômetro dele, e a ele só resta responder: “Melhor você
perguntar lá no posto Ipiranga...”

O que realmente aconteceu, e isso é extremamente


chocante, é que o tempo passou mais devagar para quem
estava em movimento do que para quem estava em
repouso. Diz o ditado que a vida é dura para quem é mole.
Na verdade, Einstein demonstrou que a vida é rápida para
quem é mole. Quanto mais depressa você se mover, mais
devagar vai andar o seu relógio e mais tempo você vai
viver, com relação a quem está em repouso.

Note como, só de postular que a velocidade da luz é


sempre a mesma não importando o seu referencial inercial,
Einstein já jogou fora a perspectiva newtoniana de que o
tempo é absoluto. Só que tem mais: o espaço absoluto
também vai por água abaixo nessa.

TEMPOFLEXÍVEL,ESPAÇOFLEXÍVEL

Quando você trata uma velocidade como uma constante,


não importando a velocidade do observador, está mexendo
não só com tempo, mas com espaço.

Afinal de contas, qualquer velocidade é uma distância


percorrida dividida pelo tempo que se levou para percorrê-
la.

Então voltemos à nossa estrada, dessa vez com um arranjo


experimental ligeiramente diferente. Agora a nossa fonte
de luz ficará no nosso para-choque traseiro e o nosso
espelho ficará no para-choque frontal. Mudamos isso para
que possamos medir o comprimento do nosso carro.

Sabendo que a velocidade da luz é sempre igual, podemos


calcular o comprimento ao multiplicar a velocidade da luz
pelo tempo que ela levou para bater e voltar, dividido por
dois (uma vez que a luz fez duas vezes o percurso).

O mesmo procedimento será feito por alguém observando


na beira da estrada.

Dessa vez, curiosamente, o caminho da ida e volta do raio


de luz será exatamente o mesmo observado dentro do
veículo, pois na ida do raio de luz o para-choque frontal
está se afastando à velocidade de 100 km/h, mas na volta
o para-choque traseiro está se aproximando a essa mesma
velocidade, o que anula o efeito de afastamento da ida.
Considerando que a velocidade da luz é a mesma para
ambos os observadores, assim como a distância total
percorrida pelos raios de luz, o tempo que eles vão marcar
para observar a ida e a volta dos raios é o mesmo.
Só que tem uma pegadinha aí: já estabelecemos pelo
nosso experimento anterior que o tempo à beira da estrada
passa mais rápido do que para o carro em movimento. Se o
tempo passa mais rápido para quem está parado no
acostamento, e a luz viaja sempre à mesma velocidade, a
distância entre o para-choque frontal e traseiro do carro
tem de se encurtar na mesma proporção, para compensar.
Ou seja, para o cara do posto Ipiranga, um carro passando
por ele parecerá ter um comprimento menor do que o que
é observado pelo motorista dentro do veículo – o espaço se
contrai para objetos em movimento, mas apenas na
dimensão que está na direção do movimento. Para o
gordinho na beira da estrada, o carro parecerá mais curto,
mas terá a mesma altura!

SE DISPARAMOS O RAIO DE LUZ DENTRO DO CARRO


NA DIREÇÃO DO SENTIDO DO

MOVIMENTO, VEMOS QUE A DISTÂNCIA PERCORRIDA


PELA LUZ SEGUNDO A OBSERVAÇÃO DE ALGUÉM
DENTRO DO VEÍCULO E EM REPOUSO NO
ACOSTAMENTO É

IGUAL; CONTUDO, COMO O TEMPO PASSA MAIS


DEVAGAR PARA O OBSERVADOR NO

VEÍCULO, O COMPRIMENTO AUTOMATICAMENTE SE


ENCURTA PARA O OBSERVADOR

QUE ESTÁ À BEIRA DA ESTRADA.


Curiosamente, as operações matemáticas que permitem
calcular a contração de comprimento no sentido do
movimento foram estabelecidas pelo físico irlandês George
FitzGerald (1851-1901), em 1889, e, de forma
independente, por seu colega holandês Hendrik Antoon
Lorentz (1853-1928), em 1892, para explicar como seria
possível obter os resultados vistos no experimento de
Michelson-Morley e ainda assim salvar a cara da hipótese
do éter luminífero. Quando Einstein chegou com a
relatividade restrita, tudo se esclareceu, e ficou nítido que
tanto a dilatação do tempo quanto a contração do
comprimento eram fenômenos reais.

E, se você acha que isso já foi bagunça o suficiente para


acabar com os ordenados referenciais absolutos de tempo
e espaço de Newton, não viu nada ainda. Com a
relatividade restrita, Einstein acabaria também com o
conceito de simultaneidade absoluta. Dois eventos que
acontecem simultaneamente para um referencial não serão
simultâneos para outro referencial.

A essa altura, você já deve estar desconfiando por quê.


Ninguém atribui contrações no espaço e dilatações no
tempo para diferentes referenciais e sai impune. Mas
vamos tentar entender isso com um exemplo caro aos
amantes do

futebol: a marcação de um impedimento.

EINSTEINCONTRAOSBANDEIRINHAS

Veja, a marcação de um impedimento numa partida de


futebol depende fundamentalmente de dois eventos que
precisam acontecer simultaneamente: no mesmo momento
em que um jogador lança a bola a um companheiro à
frente, o destinatário do passe não pode estar à frente do
penúltimo defensor do time adversário.
Agora, imagine um torcedor em repouso na arquibancada
que esteja exatamente à mesma distância do jogador
prestes a passar a bola e do que está para recebê-la. A luz
parte de ambos à sua costumeira velocidade e chega
simultaneamente ao torcedor, que nota que o destinatário
do lançamento, no momento exato do lançamento, está um
passinho à frente do penúltimo defensor.

O jogador até tenta recuar para se colocar em posição


legal, mas não há tempo.

Impedido.

Contudo, adicionando dramaticidade à partida, o


bandeirinha, correndo na direção do ataque ao longo da
linha lateral, manda o jogo seguir. O que houve?

Ele errou?

Roubalheira descarada?

Bem, como diria o comentarista esportivo, a regra da física


é clara. Como o bandeirinha estava correndo na lateral (em
velocidade constante, para mantermos as coisas dentro da
relatividade restrita), seu referencial inercial era diferente
do torcedor em repouso. Do ponto de vista dele, o
impedimento do atacante rolou um tantico antes de seu
companheiro lançar a bola – quando isso aconteceu para o
bandeirinha, o destinatário do passe já havia recuado para
trás da linha de impedimento e estava em condição legal.
Gol de Einstein.

Vale lembrar que não é só uma questão de que momento a


luz de cada um dos jogadores chega a cada um dos
observadores. Como os observadores estão em movimento
um em relação ao outro, o ritmo do tempo e as distâncias
no espaço para eles são diferentes. Quem tem razão? O
jogador estava ou não impedido?
Segundo a relatividade restrita, ambos têm razão. Para o
bandeirinha em movimento retilíneo uniforme, o atacante
tinha condição de jogo; para o torcedor em repouso, havia
impedimento. Em suma, dois eventos que são simultâneos
em um referencial inercial não são simultâneos se um dos
referenciais estiver em movimento em relação ao outro,
como no caso do bandeirinha em movimento e do torcedor
em repouso.

E agora? Choramos em desespero depois de todos esses


anos acreditando nas câmeras “tira-teima” das
transmissões esportivas de televisão? Não, calma.

Respira. Existe uma boa razão pela qual nada disso é


realmente preocupante e

não corremos risco de ver uma equipe rival pedindo para


impugnar todos os títulos de seu time do coração. Nenhum
desses efeitos malucos – relatividade de simultaneidade,
dilatação do tempo e contração do espaço – é perceptível
no nosso cotidiano porque todas as velocidades que
experimentamos corriqueiramente são muito, muito
pequenas, se comparadas à velocidade da luz.

Quanto mais baixas são as velocidades, mais a física


lembra o absolutismo newtoniano. Somente quando
chegamos a velocidades relativísticas, ou seja, bem
próximas de 300 mil km/s (a própria velocidade da luz), as
coisas mudam de figura. Para esses casos, precisamos de
um cara genial como Einstein, capaz de descobrir como o
Universo funciona e como seriam as coisas se jogadores de
futebol e bandeirinhas se deslocassem muito, muito
depressa.

OPARADOXODOSGÊMEOS

Do ponto de vista filosófico, a relatividade especial é uma


teoria que tem muito a dizer. Ao varrer para baixo do
tapete o espaço e o tempo absolutos, ela estabelece
também que não existe uma verdade absoluta. A verdade
depende fundamentalmente de quem a observa, pois
eventos que são simultâneos para um observador não o
são para outro que esteja se deslocando a uma velocidade
diferente. E, como todos nós nos deslocamos
constantemente a velocidades diferentes, cada um tem o
seu próprio tempo e seu próprio espaço. Cada relógio é um
relógio e cada régua é uma régua. É verdade que as
variações entre a minha perspectiva e a sua são mínimas,
imperceptíveis, pois estamos sempre viajando a
velocidades muito inferiores à da luz. Mas os efeitos estão
lá, mesmo assim. Do ponto de vista qualitativo, é
impossível eu manter o meu relógio 100%

sincronizado ao seu o tempo todo, não importa quanto eu


queira.

Quando o editor do Annalen der Physik, na época ninguém


menos que o grande Max Planck, recebeu o artigo de
Einstein sobre a relatividade especial, percebeu
imediatamente que era um texto revolucionário. Embora
muitas das ideias lá descritas já estivessem pululando aqui
e ali, a capacidade de síntese, o ordenamento de ideias e a
clareza de pensamento de Einstein fizeram com que todas
as implicações imediatamente surgissem. E não tardou
para que outros cientistas começassem a aplicar a
relatividade em experimentos mentais que levassem
inevitavelmente a paradoxos.

O mais famoso desses é, sem dúvida, o chamado

paradoxo dos gêmeos.

A versão original dessa história foi apresentada pelo físico


francês Paul Langevin em 1911, e indica o que aconteceria
se um viajante espacial pudesse empreender uma jornada
numa espaçonave viajando a uma velocidade próxima à da
luz, enquanto seu irmão gêmeo permanecesse na Terra.

Vamos seguir esse trem de raciocínio. Digamos que o


astronauta fosse visitar o sistema estelar mais próximo do
Sol, Alfa Centauri, a aproximadamente quatro anos-luz de
distância. Sua velocidade de cruzeiro será de 0,8 c, ou 80%
da velocidade da luz. Como a relatividade especial só trata
de circunstâncias em que há movimento uniforme, vamos
supor que ele faz a trajetória em linha reta e já começa a
viagem a 0,8 c, instantaneamente.

Bom, a essa velocidade, uma viagem até Alfa Centauri


levaria cinco anos na ida e outros cinco anos na volta, pelo
tempo da Terra. Espera-se que o gêmeo que ficou no
planeta esteja dez anos mais velho quando ele retornar.

Os relógios de bordo, contudo, andam mais devagar, como


mostrou Einstein, e a relatividade permite calcular com
precisão quão lentamente eles avançam.

Sei que não é usual colocar fórmulas matemáticas em


livros de divulgação científica, como este, mas essa em
particular eu faço questão, porque é a fórmula que
permitirá a você calcular as diferenças da passagem do
tempo para quaisquer circunstâncias que você imaginar:

t’ = t√1 - V2/c2

A FÓRMULA PARA CALCULAR DILATAÇÃO DO TEMPO.


T’ É O TEMPO A BORDO DA ESPAÇONAVE, RELATIVO A
QUEM FICOU NA TERRA; T É O TEMPO DA TERRA; V É
A VELOCIDADE DA ESPAÇONAVE E C É A VELOCIDADE
DA LUZ.

Vamos aplicá-la ao exemplo da viagem para Alfa Centauri.


Sabemos quem são t, V e c. Queremos saber t’.
Substituindo na equação:
t’ = 10√1 - 0,82c2/c2

t’ = 10√1 - 0,64 = 10√0,36 = 10 × 0,6 = 6

Ou seja, quando o gêmeo retorna à Terra, seu irmão


envelheceu dez anos desde a partida, mas ele sentiu a
passagem de apenas seis anos em sua viagem de ida e
volta até Alfa Centauri. Embora ambos tenham nascido
juntos, agora um é quatro anos mais velho do que outro.

Os efeitos da dilatação temporal, conforme descritos, são


uma ótima notícia para quem deseja empreender viagens
impensavelmente longas pelo espaço. Em tese, você pode
ir aonde quiser, em todo o Universo conhecido, num
intervalo inferior ao seu tempo de vida – contanto que viaje
depressa o suficiente (mas ainda respeitando o limite de
velocidade máxima do Universo, que é a própria velocidade
da luz, algo que abordaremos em breve).

Quer ver? Vamos imaginar que você queira atravessar a


Via Láctea, a nossa galáxia, de uma ponta a outra. São 100
mil anos-luz de distância. E digamos que

você queira fazer essa viagem em dez anos, tempo de


bordo. Apliquemos a equação!

t’= 10 anos

t = 100.000 (é o tempo que se passará na Terra


viajando a uma velocidade muito, muito próxima à
da luz)

V2= x2c2 (em que x é o percentual da velocidade da


luz) 10 = 100.000√1 - V2/c2

10/100.000 = √1 - x2

(10/100.000)2 = 1 - x2
0,00000001 = 1 - x2

x2 = 1 - 0,00000001

x2 = 0,99999999

x = 0,999999995

Ou seja, para fazer a travessia da Via Láctea em dez anos,


tudo que você precisa é partir numa viagem a
99,9999995% da velocidade da luz. Claro, a essa altura,
depois de uma jornada dessas, você nem precisa pensar
em voltar. Pois pouco mais de 100 mil anos teriam se
passado na Terra, e nem sabemos se existe ainda alguém
por lá.

Até aí, efeitos incríveis. Mas onde está o paradoxo?


Paradoxo supostamente é um problema sem solução lógica
consistente. E aqui estamos vendo efeitos que podemos
calcular e compreender. Cadê o drama?

O paradoxo emerge quando pensamos nisso tudo no


contexto do princípio da relatividade, segundo o qual as
leis físicas que valem para um observador num referencial
inercial também devem valer para outro observador em
outros referenciais inerciais, uma vez que ambos são
indistinguíveis entre si para quem está neles (é a história
do avião voando em velocidade constante sem turbulência
e do avião no aeroporto).

Ou seja, do ponto de vista do gêmeo astronauta, por tudo


que ele pode dizer, sua espaçonave esteve o tempo todo
parada e a Terra é que se afastou dele, enquanto Alfa
Centauri se aproximava, seguido pelo movimento inverso,
em que o sistema estelar volta a se afastar e a Terra se
aproximou de novo de seu veículo espacial. E como esse
ponto de vista é tão válido quanto o de quem ficou em
repouso na Terra e viu que a espaçonave é que está se
deslocando, o astronauta poderia esperar que na verdade o
tempo passasse mais devagar para o irmão dele, e não
para ele.

Então, se o gêmeo na espaçonave viu seis anos


transcorrerem, ele pode calcular que, para o irmão que se
afastou e se aproximou novamente na Terra, o

tempo transcorrido seria ainda menor – mais precisamente,


3,6 anos. Eis aí o paradoxo! Afinal, em qual dos referenciais
o tempo de fato passa mais devagar, a bordo da
espaçonave ou na Terra? É impossível que seja nos dois.

O fato concreto é que o tempo passará mais devagar a


bordo da espaçonave, e não na Terra, e o paradoxo só se
desfaz quando se evocam elementos que desprezamos em
nossa simplificação do problema. O principal deles é a
aceleração. Tratamos o viajante espacial como um
referencial inercial, mas ele na verdade terá de acelerar até
0,8 c, desacelerar em Alfa Centauri, reacelerar rumo à
Terra e desacelerar na chegada. A relatividade especial de
Einstein não trata de acelerações – e justamente por isso
ficou conhecida como “teoria da relatividade restrita”. Ao
tratarmos referenciais não inerciais como inerciais,
aparecem paradoxos que, na verdade, não existem.

Contudo, mesmo no contexto da relatividade restrita,


descontando os fenômenos causados pelas acelerações, é
possível desfazer qualquer dúvida sobre o paradoxo dos
gêmeos. Mas, para isso, é preciso dar um passo final na
compreensão do que são, na verdade, o espaço e o tempo.

SURGEOCONTINUUMESPAÇO-TEMPO

Inspirado de início pelo eletromagnetismo de Maxwell, em


1907, o matemático alemão

Hermann
Minkowski

(1864–1909)

concebeu

uma

releitura

surpreendente da relatividade especial: ele propôs que o


tempo nada mais é do que mais uma dimensão, e que a
teoria de seu ex-aluno (Minkowski havia lecionado na
Escola Politécnica de Zurique, onde Einstein estudou) seria
mais bem compreendida num espaço quadridimensional: o
incrível continuum espaço-tempo.

Não é fácil imaginar um espaço quadridimensional. Nossas


mentes são treinadas para enxergar apenas três dimensões
– comprimento, largura e altura –

e é assim que percebemos o mundo. O tempo, por sua vez,


é algo que interpretamos de uma maneira inteiramente
diferente e, vamos combinar, indefinível. Nós sabemos o
que é por experimentá-lo, mas existe uma dificuldade
inerente em descrevê-lo em termos que não dependam
dessa compreensão intuitiva. Definir objetivamente o
tempo é tão complicado quanto imaginar um espaço de
quatro dimensões.

A matemática, no entanto, é a rainha das abstrações. Você


pode não ver o tempo, pode nem sequer imaginar
visualmente, mas há um meio de descrevê-lo
matematicamente. Não foi à toa que Galileu Galilei disse
em seu livro O

Ensaiador, de 1623, que...


A filosofia [no sentido de filosofia natural, física] está
escrita nesse grande livro – eu me refiro ao Universo

– que permanece continuamente aberto ao nosso olhar,


mas não pode ser compreendido a não ser que alguém
primeiro aprenda a compreender a linguagem e interpretar
os símbolos com que ele foi escrito. Ele é escrito na
linguagem da matemática, e seus caracteres são
triângulos, círculos e outras figuras geométricas, sem as
quais é humanamente impossível entender uma única
palavra dele; sem eles, estaríamos vagando por um
labirinto escuro.

Com sua leitura do espaço-tempo como um ambiente de


quatro dimensões, Minkowski dissolveu os mistérios da
dilatação do tempo, da contração do espaço e da
relatividade da simultaneidade. Pois se imaginarmos o
tempo como uma dimensão, tudo isso se torna
absolutamente natural.

Para efeito de esclarecimento, vamos imaginar o paradoxo


dos gêmeos nessa geometria quadridimensional proposta
pelo ex-professor de Einstein. Já estamos de acordo que
representar graficamente as quatro dimensões não faria o
menor sentido visual para nós, então lançaremos mão de
uma simplificação – a primeira de várias que faremos para
tratar o espaço-tempo. Vamos reduzir o número de
dimensões, representando apenas duas delas num gráfico
plano – no eixo x do gráfico temos o espaço, e no eixo t, o
tempo.

A imagem representa a viagem dos dois irmãos pelo


espaço-tempo. Um deles permaneceu sempre sobre o
ponto zero do eixo x, viajando apenas pelo tempo, o eixo t
– sempre na Terra. O outro se deslocou até Alfa Centauri e
retornou. Deste modo, ele se moveu não só no eixo t, mas
também no eixo x.

O gráfico mostra claramente que os dois viajaram pelo


espaço-tempo por caminhos diferentes, com comprimentos
diferentes, e ambos podem concordar sobre isso. O grau de
inclinação da trajetória do gêmeo astronauta, por sua vez,
indica a velocidade com que sua espaçonave se desloca.
Quanto mais perto de c (a velocidade da luz) ela chegar,
mais longe da normal ficará sua trajetória pelo espaço
(mais inclinada na direção do eixo x). E se, por acaso, a
espaçonave atingir a velocidade c, ela irá se deslocar
somente sobre o eixo x, sem se mover em t. Na prática, o
tempo para por completo para ela.

Isso tem um significado muito especial. Na prática, é como


se todos os objetos

– eu, você, a Terra, Alfa Centauri, os gêmeos e todo o resto


– estejam viajando constantemente à velocidade da luz.
Mas não pelo espaço, nem pelo tempo. Nós estamos todos
viajando constantemente à velocidade da luz pelo
continuum espaço-tempo.

Tudo que você pode fazer é rearranjar a distribuição


proporcional de sua velocidade entre o espaço e o tempo.
Se você está em repouso, 100% da sua velocidade de
deslocamento avança na direção do tempo. Se, por outro
lado, você está em movimento retilíneo uniforme, parte da
sua velocidade de deslocamento na direção do tempo é
redistribuída para o espaço. E, se você realiza uma viagem
à velocidade da luz no espaço, isso significa que toda a sua
velocidade foi transferida para o eixo espacial, e você
parou de se deslocar no tempo. Do ponto de vista do
espaço-tempo, no entanto, sua velocidade jamais muda. É
sempre igual à da luz.

O que isso significa? Vamos lá. Para começo de conversa,


significa que a luz –

viajando, naturalmente, à velocidade da luz – nunca fica


velha. Imagine um fóton que saiu há 13 bilhões de anos de
uma galáxia muito afastada e chegou agora, após uma
longa viagem, ao espelho côncavo do telescópio espacial
Hubble. O fóton viajante traz para nós a informação de
como era esse objeto celeste 13 bilhões de anos atrás e, no
entanto, do ponto de vista da própria partícula, é como se
a viagem tivesse sido instantânea, pois o tempo não passa
para ela. Toda a velocidade de um fóton está concentrada
no eixo do espaço. A velocidade dele no eixo do tempo,
portanto, é zero. E, se essa velocidade é zero, o tempo não
passa para ele.

Mas e nós, humanos? Poderíamos fazer uma jornada


semelhante à desse fóton? E daria para ir além, e
ultrapassar a velocidade da luz?

Vire a página.

A EQUAÇÃO MAIS

FAMOSA DO MUNDO
Einstein usa a relatividade para atrelar definitivamente
matéria e energia, como faces da mesma moeda, e, de

quebra, para definir qual é a velocidade máxima

permitida no Universo.

Nos três últimos capítulos, vimos três grandes revoluções


produzidas por Einstein – todas via

artigos científicos produzidos em 1905. Relembrando de


forma cronológica: no primeiro artigo, ele demonstrou que
os átomos eram reais; no segundo, mostrou que a energia,
de certa forma, também é feita de seus

“átomos” (caso dos fótons, as partículas de energia que


formam a luz); no terceiro artigo, por fim, fez desabar o
teto sobre a cabeça de Isaac Newton, ao revelar que
espaço e tempo não são fixos e imutáveis, mas móveis e
dependentes, de uma forma profunda, do movimento das
coisas.

Qualquer cientista de qualquer época consideraria sua


carreira extremamente bem-sucedida se tivesse sido o
autor de um, e apenas um, desses trabalhos.

Einstein fez tudo isso em questão de meses. Aos 26 anos.


Nas horas vagas, enquanto trabalhava como burocrata no
escritório de patentes de Berna, na Suíça. Isso, por si só, dá
a dimensão da genialidade do alemão. Mas era um gênio
que nunca ficava satisfeito.

A despeito de adquirir de imediato enorme admiração entre


seus pares, ele francamente não via nada especial
naqueles três trabalhos, feitos “nas coxas”

(ou, para usar uma expressão mais elegante, “no verso de


envelopes”), durante o pouco tempo que lhe sobrava do
trabalho burocrático no escritório de patentes.

Contudo, quando 1905 já chegava ao fim, em 27 de


setembro, o periódico alemão Annalen der Physik receberia
um último artigo assinado por Einstein naquele ano. O
título: “A inércia de um corpo depende de seu conteúdo de
energia?”

Ele abre seu texto de maneira atípica, direta, em que quase


se pode perceber sua empolgação. Nem se dá ao trabalho
de reintroduzir seus leitores à relatividade restrita, que ele
havia apresentado em seu trabalho anterior. Vai direto ao
assunto:

Os resultados da investigação anterior levam a uma


conclusão muito interessante, que será aqui deduzida.

Baseando-se nas equações de James Clerk Maxwell e


Heinrich Hertz (1857 –

1894), respectivamente o formulador da teoria das ondas


eletromagnéticas e seu confirmador experimental, e no
princípio da relatividade, que norteou seu trabalho anterior,
Einstein se põe a brincar com a matemática.

Sua investigação é: o que acontece com a inércia de um


corpo que ganha energia?

Vamos rapidamente relembrar a inércia. O conceito remete


a Galileu e a

Newton, e foi este último que melhor expressou sua


definição clássica, ao dizer que, num referencial inercial,
um objeto ou permanece em repouso ou continua a se
mover a uma velocidade constante, a não ser que uma ou
mais forças ajam sobre ele para freá-lo.
Essa é, por sinal, a famosa primeira lei newtoniana do
movimento. Em resumo, é algo que a essa altura todo
mundo que deu uma freada brusca já sabe: se o seu corpo
está em movimento, não é trivial pará-lo. Enquanto o carro
freia, seu corpo deseja continuar em movimento – em seu
movimento inercial. Na melhor das hipóteses, esse
movimento é contido pela força exercida pelo cinto de
segurança, preso ao carro que parou. Numa situação
intermediária de drama, o airbag se infla e faz o serviço. E,
no limite extremo, ninguém o impede de sair voando pelo
vidro (não tente isso na estrada).

Até aí, belezinha, nada que não experimentemos no dia a


dia. Mas a segunda lei de Newton ajuda a entender esse
processo ainda melhor, quando ela determina que uma
força resultante – justamente o que pode tirá-lo do seu
movimento inercial na direção do vidro – é igual à massa
multiplicada pela aceleração.

Isso quer dizer, em essência, que, quanto mais massa tiver


um objeto, maior terá de ser a força resultante para dar a
ele a mesma aceleração (ou, no caso, desaceleração, que é
o mesmo que uma aceleração, só que com sinal invertido,
negativa).

Resumindo a ópera: quanto mais massa você tiver, mais


resistente o cinto de segurança terá de ser para contê-lo. E
frear o carro, por sua vez, exige freios mais modestos do
que os capazes de conter um caminhão de oito eixos, pela
simples diferença de massa entre os dois veículos.

Tudo isso aí valia para o Newton, show de bola. Mas quando


Einstein entrou na sala e reescreveu um bom pedaço da
física newtoniana que estava rabiscado no quadro negro,
apresentando todos aqueles efeitos que o movimento
relativo tem sobre o espaço e o tempo, era mais que justo
ele se perguntar: será que essas novidades todas também
teriam efeito sobre a inércia? Será que um corpo sobre o
qual é exercida uma força, de forma que ele ganhe
velocidade (e, portanto, energia cinética, a energia de
movimento), tem a mesma inércia que o mesmo corpo
antes dessa força? De acordo com Newton, sim. Afinal, a
massa seria sempre a mesma não importando o estado de
movimento, e a energia cinética não tem nada a ver com
inércia, que seria proporcional apenas à velocidade.

E isso de fato vale a velocidades baixas, o que justifica o


fato de seguirmos aprendendo Newton fervorosamente na
escola. Mas passa a não valer mais quando atingimos
velocidades mais altas, comparáveis à da luz – ponto em
que a chegada da relatividade acaba com a festa
newtoniana. Massageando as

equações, Einstein chegou a uma conclusão notável e


mostrou que energia e matéria se relacionam intimamente
– são intercambiáveis, na verdade. Todo corpo deve ter
uma energia mínima, uma energia de repouso, que está
justamente presa na forma de massa. Quando você acelera
um corpo, está dando a ele energia de movimento, de
forma que a energia total dele aumenta. Mas onde essa
energia fica guardada? No bolso? Não. Ela é convertida em
massa! Ao se mover, um corpo fica com mais massa, e
portanto mais inércia, do que tinha antes.

Inversamente, se você freia um objeto, ele vai emitir essa


energia para fora, como radiação. No caso do automóvel, a
maior parte dela virá do calor que vai sair do sistema de
freios para pará-lo, que representa a dissipação da energia
de movimento, ou cinética, de acordo com as leis de
Newton. Einstein, porém, descobriu que uma minúscula
fração dessa energia dissipada tem origem na perda de
massa do carro.
Foi o que ele escreveu, já nos finalmentes do seu quarto
grande trabalho de 1905:

Se um corpo libera a energia L em forma de radiação,

sua massa diminui por L/c2 [o valor dela dividido pelo


quadrado da velocidade da luz]. O fato de que a energia
retirada do corpo se torna energia de radiação (...)

nos leva à conclusão mais geral de que a massa de

um corpo é uma medida de seu conteúdo de energia.

Você pode não ter notado, mas nesse trechinho Einstein


enunciou a mais famosa equação do mundo: m = L/c2.

Ainda não reconheceu? Então tente passar o c2 para o


outro lado da igualdade (ele está dividindo, logo passará
multiplicando), e troque o L, a energia, pelo mais comum E.
Temos aí:

E = mc2

A energia de repouso de um objeto é igual à massa


multiplicada pelo quadrado da velocidade da luz.

OQUEISSOSIGNIFICA?

Até parece uma nota de rodapé diante da grandeza


transformadora da relatividade restrita, que abordamos no
capítulo anterior. O leitor pode ser tentado a pensar: “O
cara já zoou com o tempo e o espaço mesmo, qual é o
problema em bagunçar também com as noções
newtonianas de matéria e energia e dizer que, no fundo, no
fundo, elas são a mesma coisa?”

Num nível mais elementar, a equação de Einstein faz uma


conciliação entre
dois princípios que eram tratados como diferentes na física
newtoniana: o da conservação da massa e o da
conservação da energia. Newton dizia: você não pode
destruir (ou criar) massa e não pode destruir (ou criar)
energia. Logo, a massa que começa num sistema fechado é
a mesma que termina nele, e o mesmo vale para a energia.

Einstein vai lá e fala: não, não é bem isso, Niltão! Na


verdade, o que temos no Universo é um princípio unificado
de conservação de matéria-energia. Você pode terminar
com mais energia do que começou e pode também
terminar com menos matéria (ou vice-versa), mas a soma
dos dois, que pode ser calculada precisamente por meio da
equação, nunca pode mudar.

Em resumo, o Universo é basicamente uma enorme casa


de câmbio. Você pode chegar lá e converter matéria em
energia e energia em matéria, da mesma forma que
converte reais em dólares e dólares em reais. Mas você
jamais espera chegar lá de mãos abanando e receber um
monte de dinheiro de graça (a não ser que você tenha
algum envolvimento com os crimes investigados na
Operação Lava-Jato).

Além de demonstrar que o Universo é uma casa de câmbio,


Einstein mostrou que ela é bastante rigorosa em suas
operações. A cotação é sempre a mesma: o quadrado da
velocidade da luz, c2.

No artigo em que apresenta essa fórmula, ele também teve


um lampejo impressionante ao sugerir que processos
radioativos poderiam confirmá-la. “Não é impossível que,
com corpos cujo conteúdo de energia seja variável a um
alto grau (por exemplo com sais de rádio), a teoria possa
ser colocada à prova de forma bem-sucedida”, escreveu ao
final de seu artigo, publicado em 21 de novembro de 1905.
Com efeito, nos processos radioativos, o produto do
decaimento tem massa um pouco menor que o material
original, e a essa perda corresponde exatamente a emissão
de energia na forma de radiação.

Infelizmente, contudo, naquela época era impossível medir


com precisão a pequena redução de massa causada pela
liberação de energia – em parte pela imprecisão das
balanças, mas sobretudo pela lentidão com que os isótopos
radioativos sofriam o decaimento. A meia-vida do rádio
(definida como o tempo que leva para que metade de uma
amostra feita dele sofra decaimento) é de cerca de 1.600
anos. Tempo demais para um experimento.

Só bem mais tarde, em 1932, com a descoberta dos


nêutrons – os primos dos prótons que vivem no interior do
núcleo atômico –, diversos experimentos com isótopos
mais pesados de lítio bombardeados por prótons mediram
a equivalência massa-energia de Einstein e chegaram aos
resultados previstos pela fórmula com uma margem de
erro de apenas 0,5%.

Contudo, a demonstração mais dramática de E=mc2 veio


em agosto de 1945, quando os Estados Unidos colocaram
um ponto final na Segunda Guerra Mundial ao lançar duas
bombas atômicas contra o Japão, uma sobre a cidade de
Hiroshima e outra sobre Nagazaki.

Ambas eram bombas de fissão nuclear, em que uma


reação rápida de bombardeio de nêutrons faz com que os
núcleos pesados se quebrem. Uma pequena fração da
matéria é, por esse processo violento de reação em cadeia,
convertida em energia. Quanta energia? A equação diz: o
total da massa perdida multiplicado pelo quadrado da
velocidade da luz, aquele número bizarramente alto –
90.000.000.000.000.000. (Esse número segue o Sistema
Internacional de Unidades, que trata velocidade em metros
por segundo. Multiplicado pela massa em quilos, seguindo
a equação de Einstein, ele daria o total de energia
envolvido, em joules. E, caso você esteja curioso, para a
bomba de Hiroshima, o resultado é de aproximadamente
63 trilhões de joules.) Cada uma das bombas usou um
material fissionável – urânio no caso da Little Boy, atirada
sobre Hiroshima em 6 de agosto daquele ano, e plutônio no
caso da Fat Man, lançada contra Nagazaki três dias depois.
Detalhes de seu funcionamento eram diferentes, mas o
importante nelas era a produção de uma reação em cadeia
que levasse à quebra rápida dos átomos pesados,
liberando a energia associada à massa perdida.

A bomba de Hiroshima tinha 64 kg de urânio-235 (a


variedade mais facilmente fissionável), dos quais apenas
cerca de 1% chegou a passar pelo processo de quebra –
640 g. Desses 640 g, apenas 0,7 g foram dissipados na
forma de energia. Esse tantinho de nada resultou numa
detonação equivalente a 15 mil toneladas de TNT e matou
cerca de 80 mil pessoas.

Foi uma demonstração chocante e devastadora da teoria


de Einstein, que o levou a figurar na capa da revista Time
em julho de 1946, com um cogumelo nuclear ao fundo
onde se lê a equação: E=mc2.

Foi sem dúvida por conta disso que a equação de Einstein


se tornou a mais famosa da história. Mas uma coisa
importante a dizer sobre isso é que não foi a relatividade
restrita que viabilizou o desenvolvimento das armas
atômicas. O

estudo da fissão nuclear – em que núcleos de átomos


pesados são quebrados e com isso liberam energia – e,
posteriormente, da fusão – em que núcleos atômicos são
reunidos, liberando ainda mais energia do que na fissão –
avançou naturalmente a partir das investigações feitas de
elementos radioativos e da estrutura interna do próprio
átomo.

O único papel de E=mc2 nesse processo era permitir


estimar quanta energia pode ser liberada a partir da
dissolução de certa quantidade de matéria.*

*(POR OUTRO LADO, EINSTEIN TEVE, SIM, UM PAPEL


PREPONDERANTE NO

DESENVOLVIMENTO DAS PRIMEIRAS ARMAS


NUCLEARES – SÓ QUE DE ORDEM

POLÍTICA, E NÃO CIENTÍFICA. CONTO A HISTÓRIA EM


DETALHES NO MEU LIVRO

CIÊNCIA PROIBIDA, TAMBÉM PUBLICADO PELA


SUPER.) O L I M I T E D E V E L O C I D A D E D O U N I
VERSO

Além de mostrar que matéria e energia são


intercambiáveis, ou seja, que aquilo que conhecemos como
matéria é basicamente uma forma bem concentrada de
energia, E=mc2 tem outra consequência fundamental: ela
estabelece que nada pode viajar mais depressa que a luz
no vácuo.

É uma ideia que, de certa forma, já estava embutida desde


o início na descrição que a relatividade restrita faz do
espaço-tempo, conforme a exploramos no capítulo anterior.
Lembra do que acontece quando passamos a viajar cada
vez mais perto da velocidade da luz? O sentido do
deslocamento pelo espaço-tempo (que sempre tem a
mesma velocidade, c) começa a se tornar desprezável no
tempo e se concentrar somente nas dimensões espaciais.
Ao atingir a velocidade da luz, temos um limite
fundamental, pois o tempo para. E, se o tempo para, o
próprio conceito de velocidade perde o sentido, uma vez
que essa grandeza nada mais é do que a distância
percorrida dividida pelo tempo gasto. Como ultrapassar a
velocidade da luz se nela o tempo gasto já é zero? A
matemática elementar já nos diz desde sempre: não se
pode dividir por zero.

Portanto, se uma grandeza física está dizendo que você


deve dividir algo por zero, é sinal de que você atingiu
algum limite fundamental intransponível. (Ou errou a
conta!)

Mas que limite é esse? E=mc2 esclarece a questão de


forma insofismável.

Ela diz em essência que quanto mais energia cinética você


dá a um corpo, mais essa energia é incorporada a ele e
mais massa ele ganha. Quanto mais massa ele ganha, mais
energia você precisa dispender para efetuar uma nova
alteração de velocidade, que por sua vez deixará o objeto
com ainda mais massa, que exigirá ainda mais energia
para continuar acelerando, num processo infinito.

Para fazer um objeto atingir a velocidade da luz, ele


acabaria tendo massa infinita, o que por sua vez exigiria
energia infinita para empurrá-lo ainda mais depressa.

Em outras palavras, se a relatividade restrita descreve


mesmo o mundo em que vivemos, deve ser impossível
para qualquer coisa romper a velocidade da luz, ou mesmo
atingi-la. Trata-se de um limite embutido no próprio
Universo. E a luz, por sua vez, só se desloca a essa
velocidade porque sua massa de repouso é zero.

Em tese, qualquer corpo cuja massa de repouso seja


diferente de zero não pode jamais atingir a velocidade da
luz.
Pode, contudo, chegar bem perto dela. É o que fazemos
com nossos aceleradores de partículas, como o Large
Hadron Collider (LHC), o Grande Colisor de Hádrons.
“Hádrons”, diga-se, são partículas feitas de quarks (caso de
prótons e nêutrons). Instalados na fronteira entre a Suíça e
a França, poderosos ímãs supercondutores aceleram
prótons pelos túneis do acelerador num circuito circular de
27 km. Com um consumo de energia nababesco, esse
sistema vai dando velocidade crescente aos prótons, que
atingem uma velocidade de 0,99999999 c.

Muito, muito próxima da velocidade da luz – meros 11 km/h


mais lentos que ela.

A esse ritmo alucinante, o próton ganha muita massa –


7.500 vezes mais massa. E aí os cientistas cuidadosamente
fazem com que esses prótons velocíssimos de massa
avantajada colidam uns com os outros, vindos de sentidos
opostos no túnel. Toda a massa que eles acumularam é
subitamente desfeita em radiação. A energia dessa
radiação, então, “condensa” na forma de outras partículas.
É assim que os físicos do LHC conseguem estudar os
componentes mais elementares de matéria: fabricando-os
no acelerador, segundo a relação E=mc2.

Experimentos assim também são uma demonstração


eloquente de como o limite máximo de velocidade do
Universo se impõe de forma imperiosa. Não importa
quantos milhões de anos você deixe os prótons rodando lá
no LHC, eles nunca atingirão exatamente a velocidade da
luz, a não ser que você tenha um suprimento infinito de
energia para os supercondutores. Não acredita? Boa sorte
com a conta de luz!

Mesmo em 1905, quando tudo isso estava longe de ser


demonstrado, Einstein tinha a convicção de que havia
chegado a um entendimento fundamental da dualidade
matéria-energia. Ele não foi o primeiro a sugerir que havia
uma relação sobre elas – até mesmo Newton chegou a
aventar que luz e matéria pudessem ser intercambiáveis –,
mas Albert foi o primeiro a oferecer uma visão clara do
significado dessa relação: massa e energia são
equivalentes, e isso é uma consequência inevitável da
simetria entre espaço e tempo.

Quando 1905 acabou, além de ter dado existência material


aos átomos e ter explicado o efeito fotoelétrico, Einstein
havia lançado uma teoria bastante abrangente sobre
espaço, tempo, matéria e energia.

Parece repetitivo, mas vale relembrar, e gravar na mente,


as principais implicações disso. Estas aqui:

– Para objetos que se movem, o tempo se dilata; ou seja,


passa mais devagar em relação àqueles que estão em
repouso.

– Para objetos que se movem, o espaço se contrai na


direção do seu

movimento, em relação àqueles que estão em repouso.

– Eventos simultâneos para um observador num referencial


inercial não são simultâneos para outro observador em
outro referencial inercial.

– Matéria e energia são equivalentes, e um corpo ganha


mais massa conforme se desloca a uma velocidade maior,
em relação àqueles que estão em repouso.

– O Universo impõe uma velocidade-limite igual a c para


todos os objetos, uma vez que acelerar além de c exige
uma quantidade infinita de energia.
E esse é o resumo do que vimos nos últimos dois capítulos
– a história da relatividade restrita. Agora, lembre-se: ela
tem esse nome porque nada foi dito até agora sobre corpos
que estejam em aceleração com relação a outros. Em
1905, Einstein levou a relatividade apenas aos referenciais
inerciais, mas como ela se aplicaria aos referenciais não
inerciais, que sofrem algum tipo de aceleração e
desaceleração?

Além disso, E=mc2 sugeria mais um problema para o


bonito, mas antiquado, castelo de cartas de Isaac Newton.
O físico inglês sugeria, em sua gloriosa teoria da gravitação
universal, que a gravidade era uma força que se transmitia
instantaneamente pelo espaço. A relatividade sugeria de
forma forçosa que nada poderia ser instantâneo, e que um
limite máximo para a transmissão dela se impunha – a
velocidade da luz no vácuo.

Einstein passaria a década seguinte se debatendo entre


esses dois problemas –

um esforço concentrado de generalizar a relatividade para


todos os referenciais, inerciais ou não, e reconciliar sua
teoria do espaço e do tempo com a gravitação newtoniana.

O resultado desse esforço prolongado e solitário, que hoje é


tido como a sua obra-prima, é exatamente o que
abordaremos a seguir.

A GRAVIDADE

Como Einstein chegou à teoria da relatividade geral e


concluiu a demolição da visão de mundo newtoniana,

explicando a gravidade como um fenômeno do espaço-


tempo.

Não há dúvida que todo corpo real deve estender-se por


quatro dimensões: ter comprimento, largura, altura e...

duração.

Mas, por uma natural imperfeição da carne, que logo lhes


explicarei, somos inclinados a desprezar esse fato. Há
realmente quatro dimensões, três das quais são chamadas
de três planos do Espaço, e uma quarta, o Tempo. Existe,
no entanto, uma tendência a estabelecer uma distinção
irreal entre aquelas três dimensões e a última, porque
acontece que nossa consciência se move
descontinuamente numa só direção ao longo do Tempo, do
princípio ao fim de nossas vidas.

Eu me lembro de ter ficado arrepiado ao ler essas palavras


pela primeira vez.

Trata-se de uma descrição primorosa do espaço-tempo,


mas ela não foi feita por Albert Einstein em 1905, como se
poderia esperar, e sim pelo escritor de ficção científica
britânico H.G. Wells, em seu clássico A Máquina do Tempo,
publicado dez anos antes, em 1895.

É um daqueles momentos estonteantes em que


percebemos que a boa ficção científica, saída da mente de
um escritor perceptivo, é realmente capaz de antecipar a
ciência e o futuro. Mas também é evidência de que a
principal realização de Einstein em seu ano miraculoso, a
relatividade restrita, teria sido desenvolvida de todo modo,
com ou sem ele. Diversos físicos e matemáticos chegaram
muito, muito perto de formular a relatividade restrita de
maneira completa. O holandês Hendrik Lorentz criou as
transformações matemáticas usadas para descrever a
contração de dimensão na direção do movimento dos
corpos. O francês Henri Poincaré chegou a formular o
princípio da relatividade e conseguiu, de forma
independente, estabelecer a relação E=mc2, embora
apenas conferindo a ela significado matemático, não físico.

Einstein realizou, nesse sentido, uma grande síntese,


lançando mão de seu pensamento lógico e coerente para
reunir todos os pensamentos disparatados numa
formulação que redefinia espaço e tempo como um
continuum de quatro dimensões. Há por isso quem
questione até mesmo a primazia dele. E é certo dizer que
poderia até levar mais alguns anos, mas as ideias contidas
em seu trabalho sobre a relatividade restrita acabariam
sendo apresentadas por outros.

Elas eram claramente condizentes com o espírito de seu


tempo, conforme H.G.

Wells já prenunciava. Newton inevitavelmente seria


subjugado em suas noções de espaço e tempo imutáveis.

O que não era em absoluto garantido é o que viria depois.


A despeito de seu sucesso, Einstein sabia que a sua teoria
da relatividade estava incompleta, pois só se aplicava a
referenciais inerciais. É uma restrição enorme, dado que
todos os corpos em movimento acabam passando por
acelerações, o que os torna não

inerciais. O físico sabia que seu trabalho não estaria


concluído sem que todos os referenciais, não importando
seu estado de movimento, fossem contemplados. E,
enquanto o resto do mundo científico se refestelava nos
resultados produzidos pela relatividade restrita, Einstein se
dedicaria a um enorme esforço individual para levar a
termo seu trabalho.

Se a relatividade restrita era algo que viria ao mundo de


qualquer modo, a relatividade geral exigiu toda a
obstinação e perspicácia do físico alemão, ao longo de uma
década de esforços, e provavelmente não teria sido
formulada tão cedo sem ele. A chave para o sucesso veio
de uma ideia que o alemão teve em 1907 – algo tão
importante que ele declarou enfaticamente ser seu
“pensamento mais feliz”.

O P R I N C Í P I O D A E Q U I VA L Ê N C I A Einstein já
sabia que a relatividade restrita implorava por uma revisão
da teoria da gravidade. Ao estabelecer que nada no
Universo pode se deslocar mais depressa que a luz, ela
entrava em conflito direto com a gravitação newtoniana,
cuja fórmula estabelecia a intensidade da força
gravitacional de acordo com a distância entre dois corpos.
Só a distância. Newton não falava sobre o tempo.

Dessa forma, para sir Isaac, a atração gravitacional


ocorreria sempre de forma instantânea, não importando a
distância entre os corpos.

O físico alemão então partiu para um daqueles seus


experimentos mentais, os gedankenexperimenten. Ele se
imaginou dentro de um elevador.

Não parece impressionante, né? Vamos combinar que, para


a maioria de nós, pobres mortais, a principal imagem
mental de entrar num elevador é aquela cara de paisagem
que fazemos rotineiramente para não ter de encarar de
forma desconfortável os outros passageiros. Certo, Einstein
era diferente. Ele imaginou que seu elevador estivesse em
queda livre, despencando por um longo fosso.

O que acontece nessa hora? Eu e você naturalmente


ficaríamos apavorados além de qualquer pensamento
racional. Mas Einstein, aquele danado, se deu conta de que
simplesmente flutuaríamos em relação ao elevador, como
se estivéssemos sem peso. Sem janelas dentro do
elevador, seríamos incapazes de dizer se estávamos caindo
para o nosso fim no fundo do fosso ou se, em vez disso,
estávamos flutuando no espaço, imóveis, longe de
qualquer campo gravitacional digno de nota.

Ou seja, para um observador em queda livre, é impossível


determinar se ele está mesmo caindo ou se está
simplesmente longe de qualquer campo gravitacional. As
situações são equivalentes.

Einstein também pensou na situação inversa. Suponhamos


que, depois de nossa viagem horrorosa em queda livre, o
sistema de freios de emergência do

elevador tenha entrado em operação e conseguido


estacionar a cabine. Em sua parada, nós, que parecíamos
flutuar no ar, despencamos de volta no chão. Agora
podemos sentir a força da gravidade da Terra nos puxando,
com uma aceleração de 9,8 metros por segundo ao
quadrado (uma forma chique de dizer que, em queda livre,
aceleramos 9,8 m/s a cada segundo).

Certo. Agora Einstein nos projeta mentalmente para outro


elevador nas profundezas do espaço, longe de quaisquer
outros objetos e, portanto, livre de campos gravitacionais
apreciáveis. A única diferença é que um foguete está
conectado ao cabo do elevador, nos puxando para cima a
uma aceleração constante de 9,8 m/s2.

E agora? Ao termos a cabine do elevador puxada para


cima, somos naturalmente imprensados para baixo, e a
força que sentimos dos nossos pés contra o chão é
exatamente a mesma que sentiríamos parados sobre a
superfície da Terra. De novo, temos duas situações
equivalentes: sem uma janela no elevador, seríamos
incapazes de dizer se estamos sendo rebocados no espaço
ou se estamos firmemente parados em nosso planeta.

Todas essas viagens de elevador nos ofertam uma


revelação profunda acerca do mundo de velocidades baixas
em que vivemos. Dito de uma forma técnica, elas sugerem
que a massa inercial (aquela que impõe uma resistência a
acelerações) e a massa gravitacional (aquela sobre a qual
age a gravidade) de um objeto são, necessariamente,
idênticas. Não fossem, seria possível a um passageiro do
elevador determinar se ele está acelerando puxado por um
foguete ou se está simplesmente sob a influência de um
campo gravitacional.

Esse é o chamado “princípio da equivalência” de Einstein –


o único postulado sobre o qual ele assentou sua teoria da
relatividade geral. E fica fácil aí entender como ela
naturalmente se torna uma teoria da gravitação. Se
gravidade e aceleração são equivalentes e indistinguíveis,
e o movimento, como sugere a relatividade restrita, se
traduz em distorções no espaço-tempo (réguas se
contraem, relógios andam mais devagar), então gravidade
e aceleração são também distorções do espaço-tempo, e
nada mais que isso.

C U R VA T U R A N O E S P A Ç O - T E M P O

Se a relatividade restrita trouxe a incrível revelação de que


espaço e tempo na verdade eram partes da mesma coisa –
um continuum espaço-tempo de quatro dimensões que
podia ser descrito geometricamente –, a relatividade geral
aprofundou esse entendimento ao descrever a gravidade
como uma curva no espaço-tempo.

Eu sei, eu sei, a gente não conseguia nem imaginar um


espaço quadridimensional, como podemos entender o que
é um espaço 4D, e curvo?
Bem, a exemplo do que fizemos no capítulo anterior,
vamos lançar mão de um truque barato – reduzir a
descrição a um número menor de dimensões – para tornar
tudo imaginável.

Imagine, portanto, que vivemos num universo


bidimensional, a exemplo do descrito no inspirado livro de
Edwin Abbott Abbott, Flatland (1884). (Ótima leitura, a
propósito!) Só podemos perceber, portanto, largura e
comprimento, mas não temos a menor sensação de altura.
É como se ela não existisse para nós.

A um ser bidimensional, seria tão difícil imaginar uma


terceira dimensão de espaço quanto para nós é complicado
imaginar uma quarta.

O espaço vazio seria, portanto, como uma folha


quadriculada. Mas não seria feita de papel, um material
inelástico, que não pode se comprimir ou esticar.

Uma folha quadriculada de papel seria o espaço de


Newton, com suas medidas imutáveis. Somos
bidimensionais nesse exemplo, mas somos einsteinianos
também, ora bolas! Portanto, nossa folha é de borracha,
maleável.
Eis então que vamos ver a gravidade em ação. Colocamos
uma bola de ferro –

o equivalente da Terra – bem no meio de nosso universo


bidimensional de borracha, até então suspenso no ar, como
uma cama elástica quadrada. O que temos? Continuamos
com um espaço bidimensional – é a mesma boa e velha
folha de borracha –, mas agora ela se curva! A geometria
da folha quadriculada é distorcida e transformada pela
presença de massa no centro dela, e vemos que o que
antes eram linhas regularmente espaçadas agora já não o
são mais –

saltamos de um espaço euclidiano, que segue a descrição


clássica de Euclides, o geômetra da Grécia Antiga, para um
espaço não euclidiano, com uma curvatura embutida nele.

Sabemos que a luz sempre viaja em linha reta. Mas se,


para citar o filósofo contemporâneo e narrador de Fórmula
1 Galvão Bueno, “a reta era meio curva”: um raio de luz
que passasse por ali também teria de fazer uma curva
correspondente à que existe no próprio espaço.

O ESPAÇO-TEMPO REPRESENTADO DE MANEIRA


BIDIMENSIONAL PARA FACILITAR

NOSSA VISUALIZAÇÃO. QUANDO COLOCAMOS UM


CORPO COM MASSA NELE, COMO A TERRA, ELE SE
CURVA.

Essa, aliás, foi a primeira grande previsão que Einstein


extraiu do que viria a ser a sua nova teoria da gravitação –
a da relatividade geral –, ainda nos estágios iniciais de
formulação, em 1907.

Partindo do princípio de equivalência, não é difícil entender


por que a gravidade curva os raios de luz. Voltemos ao
nosso elevador, novamente amarrado a um foguete no
espaço vazio, com uma aceleração constante. Agora
imagine um dispositivo que emite um raio de luz de uma
das paredes do elevador à outra.

A luz, sabemos, viaja em linha reta, e sua velocidade é


sempre a mesma –

nunca se soma à velocidade do objeto que a emite. Se um


observador externo, fora do elevador, pudesse enxergar
através das paredes, ele veria o raio de luz avançar numa
linha reta, paralela ao chão, e chegar ao outro lado do
elevador num ponto muito mais baixo da parede oposta
porque a cabine em si está acelerando para cima.

E agora vem a surpresa: quem está dentro da cabine não


vê o raio de luz seguir reto. Vê o raio se curvando para
chegar ao outro lado mais baixo do que partiu.

O princípio da equivalência reza que aceleração uniforme e


gravidade são coisas indistinguíveis. Logo, um campo
gravitacional também seria capaz de

“entortar a luz”. O que isso quer dizer? Não é a luz que


entorta, mas sim o próprio espaço-tempo ao seu redor que
se curva, fazendo com que a luz, ao cruzar esse trecho
“torto” do espaço-tempo, siga uma trajetória igualmente
torta.

Com isso, Einstein concluiu não apenas que a gravidade é


capaz de curvar o espaço-tempo, mas algo bem mais
especial: que a gravidade é a própria distorção do espaço-
tempo. Enquanto Newton entendia a gravidade como uma

“misteriosa força de atração a distância”, Einstein a viu


pelo que ela realmente era: o fruto da geometria curva do
espaço-tempo. Quanto mais um corpo
“entorta” o espaço-tempo, mais força de atração
gravitacional ele gera.

DESAFIOSMATEMÁTICOS

Do ponto de vista qualitativo, Einstein já nos oferecia uma


perspectiva desenvolta e madura da gravidade desde
1907, ao imaginar o princípio de equivalência. Não há
dúvida de que essa descrição da gravidade como um
fenômeno geométrico do espaço-tempo era mais atraente
que a de Newton.

Afinal de contas, em sua teoria da gravitação universal, o


físico inglês do século 17 estava descrevendo uma ação
que se propagava entre dois corpos a distância, sem
qualquer explicação racional que nos ajudasse a
compreender sua natureza.

O próprio Newton se sentia desconfortável com sua teoria.


Em uma carta a Richard Bentley, escrita em 25 de fevereiro
de 1692 (pelo antigo calendário juliano), ele disse:

É inconcebível que matéria bruta inanimada devesse (sem


a mediação de algo mais que não é material) operar sobre
e afetar outra matéria sem contato mútuo. (...) Que a
gravidade deveria ser inata, inerente e essencial à matéria,
de forma que um corpo pudesse agir sobre outro a uma
distância através de um vácuo, sem a mediação de algo
mais, pelo qual e através do qual sua ação e força possa
ser transmitida de um a outro, é para mim um absurdo tão
grande que acredito que homem algum que tenha em
questões filosóficas uma faculdade competente de pensar
possa incorrer nele. A gravidade precisa ser causada por
um agente atuando constantemente de acordo com certas
leis; mas se esse agente é material ou imaterial, deixo a
questão para a consideração de meus leitores.
Einstein resolve esse dilema com elegância: não seria
preciso um agente para transmitir a gravidade de um corpo
a outro, porque ela sequer seria uma força entre corpos, e
sim uma curvatura no espaço-tempo. O que vemos como a
ação gravitacional seria apenas o movimento natural de
objetos por um espaço-tempo curvo.

Se retornarmos à nossa descrição bidimensional do espaço-


tempo, fica fácil visualizar a diferença. Imagine que, além
da bola de ferro pesada que temos no meio da nossa cama
elástica, atiremos uma pequena bolinha de gude
tangencialmente à bola de ferro, com uma velocidade
apropriada.

Segundo a descrição newtoniana do mundo (espaço-tempo


inflexível), a bolinha de gude simplesmente passaria reto, a
não ser que houvesse algum agente prendendo-a à bola de
ferro – algo como um barbante amarrando-as. Se esse
fosse o caso, a bolinha de gude orbitaria ao redor da bola
de ferro. Eis o porquê de Newton não poder imaginar a
gravidade sem um agente: sem o cordão a unir os corpos,
como eles poderiam transferir uma força um ao outro
capaz de ditar seu movimento mútuo?

Einstein reformula essa ideia – sua folha é elástica e se


curva na direção da bola de ferro. Nessas circunstâncias, a
bolinha de gude naturalmente orbita ao redor da esfera
maior, seguindo seu caminho natural pelo espaço-tempo. É
o que acontece com a Lua girando ao redor da Terra, e a
Terra ao redor do Sol.
A LUA GIRA AO REDOR DA TERRA SEGUINDO A
CURVATURA QUE A MASSA DO NOSSO

PLANETA CAUSA NO TECIDO DO ESPAÇO-TEMPO.]

E assim é, de fato. Mas não bastava a Einstein apresentar


essa visão filosoficamente mais consistente e aceitável da
gravitação. Seu desafio real era formular matematicamente
a teoria, de modo que ela pudesse ter um sucesso ainda
maior que a gravitação clássica, newtoniana. E foi isso que
tomou oito anos do físico alemão, entre 1907 e 1915.
Einstein era um matemático competente, mas os desafios
impostos pela descrição geométrica da gravidade estavam
acima dos seus domínios.
As ferramentas de cálculo até já existiam, desenvolvidas
meio século antes pelo alemão Georg Friedrich Bernhard
Riemann (1826–1866), um matemático brilhante que
decidiu investigar geometrias não euclidianas. Eram até
então um desenvolvimento obscuro, posto que criado
apenas como um exercício matemático, sem qualquer
pretensão de descrever uma realidade física.

Para que Einstein chegasse a elas, foi fundamental o papel


de seu velho amigo Marcel Grossmann. Matemático
nascido na Hungria, Grossmann havia sido colega de classe
de Einstein na Escola Politécnica Federal de Zurique e se
manteve próximo do físico durante muitos anos. Foi o
padrasto de Grossmann quem conseguiu para Einstein o
emprego no escritório de patentes em Berna.

Mais tarde, o próprio Grossmann mexeu os pauzinhos para


trazer Einstein para o

corpo docente da Politécnica como professor de física. Sua


especialidade como matemático era justamente geometria
diferencial e cálculo tensorial – os instrumentos
riemmannianos que faltavam a Einstein para desenvolver
em termos matemáticos suas ideias a respeito da
gravitação.

Foi muita ginástica matemática, com longos esforços de


tentativa e erro, até que Einstein encontrou a formulação
certa para suas equações de campo (campo gravitacional,
no caso). Com esse trabalho resolvido, ele tinha nas mãos
uma nova teoria, capaz de explicar a gravidade de forma
mais complexa e precisa do que Newton fora capaz.

A relatividade geral foi apresentada ao mundo em quatro


trabalhos separados apresentados por Einstein em
novembro de 1915 diante da Academia Prussiana de
Ciências. E os resultados foram todos consolidados em um
longo artigo de revisão submetido em março de 1916 aos
Annalen der Physik. Ele trazia também o primeiro sucesso
observacional da relatividade geral como uma teoria
gravitacional superior à de Newton.

OMISTÉRIODAÓRBITADEMERCÚRIO

As equações de Newton eram notavelmente eficazes para


descrever os movimentos dos planetas ao redor do Sol.
Elas explicavam por que os astros tinham as velocidades e
trajetórias que tinham, animados pela gravidade.

A teoria era tão precisa e eficiente que, quando os


pesquisadores notaram, em 1845, que o movimento de
Urano, o sétimo planeta, descoberto apenas 64 anos antes,
ousava desafiar as predições newtonianas, os astrônomos
Urbain Le Verrier, da França, e John Couch Adams, da
Inglaterra, foram capazes de inferir, de forma
independente, a existência de um oitavo planeta, capaz de
explicar com sua própria gravidade as irregularidades
orbitais observadas em Urano. Com efeito, em 1846,
pesquisadores do Observatório de Berlim encontraram
Netuno –

o planeta previsto por Le Verrier e Adams. Esse era o


tamanho do poder da teoria de Newton – ela podia prever a
existência de astros até então nunca observados.

Restava ainda um desafio planetário para a consagração


completa de Newton: um estranho padrão de movimento
da órbita de Mercúrio, que a teoria gravitacional vigente
não contemplava.

Mercúrio, como se sabe, é o mais interno dos planetas do


Sistema Solar. Ele tem uma órbita bastante excêntrica, ou
seja, executa uma elipse alongada, que ora o traz para
mais perto do Sol, ora para mais longe. (A rigor, todos os
planetas executam elipses em suas órbitas, mas, no
Sistema Solar, Mercúrio tem a mais excêntrica delas – a
mais afastada de uma trajetória aproximadamente
circular.) O momento de máxima aproximação do Sol é
chamado de periélio, e os

astrônomos notaram que o ponto desse periélio se


deslocava um pouquinho para trás a cada nova órbita de
Mercúrio, e esse deslocamento – a precessão do periélio –
se dava a um ritmo muito maior do que aquele previsto
pelas equações de Newton.

Esse cálculo, por si só, era extremamente desafiador. Era


preciso determinar não só a influência gravitacional do Sol
sobre Mercúrio, mas também de todos os outros planetas –
uma força pequena, mas nada desprezável. O resultado,
uma vez que se contabilizavam todas essas influências,
sugeria que o periélio de Mercúrio deveria sofrer uma
precessão de 531 segundos de arco (equivalente a mero
0,1475 grau) a cada século, relativo a um fundo de estrelas
distantes.
O que os astrônomos observavam, contudo, era uma
precessão de 574

segundos por século – uma diferença de 43 segundos de


arco. Mísero 0,0119

grau. Mas ainda assim uma diferença mensurável. Uma


pedra no sapato da teoria newtoniana.

A PRECESSÃO DO PERIÉLIO DE MERCÚRIO ERA MAIOR


DO QUE PREVIAM OS

CÁLCULOS BASEADOS NA TEORIA DA GRAVIDADE DE


NEWTON.

Le Verrier, animado pelo sucesso que teve ao prever a


existência de Netuno com base em irregularidades na
órbita de Urano, tentou aplicar a mesma estratégia a
Mercúrio, postulando, em 1859, a existência de um planeta
desconhecido, ainda mais interno, que ele chamou de
Vulcano.

A confiança era tanta no gênio de Newton e nos cálculos de


Le Verrier que, nos anos seguintes, diversos observadores
julgaram ter visto Vulcano, ora

realizando trânsitos à frente do disco solar, ora durante


eclipses totais do Sol – os únicos momentos em que seria
possível procurar o tal astro, uma vez que, de tão interno,
ele estaria quase todo o tempo escondido sob o clarão da
nossa estrela-mãe.

No fim, foram todos alarmes falsos, alguns até mesmo


falsificações grosseiras.

Ainda assim, Le Verrier morreu em 1877 convencido de que


havia descoberto dois planetas – Netuno e Vulcano. Poucos
na comunidade científica compartilhavam dessa convicção,
e as buscas pelo hipotético planeta mais interno acabaram
cessando. Restava apenas a intrigante precessão do
periélio de Mercúrio, como um fenômeno na categoria
Arquivo X: inexplicado.

Isso até Einstein chegar com sua teoria da relatividade


geral, em 1915. Se para a gravidade de Newton a
discrepância mercuriana era um pesadelo, para ele, era
uma bênção – uma forma de testar suas equações de
campo gravitacional num problema bem conhecido e
documentado.

A precessão de Mercúrio virou sua pedra de toque: o físico


alemão só se deu por satisfeito com sua formulação
matemática da teoria quando percebeu que ela conseguia
explicar, já numa primeira aproximação, a diferença de 43
segundos de arco observada no fenômeno.

Graças à relatividade geral, a hipótese da existência de


Vulcano não era mais necessária. Mas, claro, ninguém
poderia descartar, àquela altura, um cenário alternativo em
que Einstein estivesse errado, Newton certo, e um planeta
intramercuriano ainda estivesse lá fora, esperando para ser
descoberto com observações mais cuidadosas das
imediações do Sol.

A relatividade geral só poderia ser definitivamente


consagrada se ela descrevesse um efeito que não pudesse
ser explicado pela gravidade newtoniana nem mesmo com
remendos

como a postulação de corpos celestes desconhecidos. E


Einstein sabia exatamente que efeito era esse.

OCAMINHODALUZ

Em 1911, Einstein publicaria na Annalen der Physik o que


era apenas seu segundo artigo a abordar a relatividade
geral. O título era “Sobre a influência da gravitação na
propagação da luz”, o que já dava uma boa pista da
motivação do físico em publicá-lo.

Numa contribuição publicada há quatro anos, tentei


responder se a propagação [de luz] é ou não influenciada
pela gravitação. Eu retorno a esse tema porque minha
apresentação anterior do assunto não me satisfaz, mas
ainda mais porque agora eu vejo que uma das mais
importantes consequências de meu tratamento anterior é
capaz de ser testada experimentalmente. Daí decorre a
partir da teoria a ser apresentada aqui que raios de luz
passando perto do Sol são defletidos por seu campo
gravitacional de

forma que a distância angular aparente entre o Sol e uma


estrela fixa visível próxima a ele é acrescida de quase um
segundo de arco.

O que Einstein estava dizendo é que, ao observarmos as


estrelas que se dispõem na região do céu onde está o Sol,
a presença de nossa estrela-mãe, com seu campo
gravitacional, será capaz de mudar o percurso dos raios de
luz provenientes delas, fazendo com que elas pareçam
estar numa posição ligeiramente diferente daquela que é
medida quando o mesmo campo estelar é observado na
ausência do Sol.

Claro, é impossível ver as estrelas nos arredores da posição


solar no céu pelo simples fato de que não dá para ver
estrelas de dia. Mas essa condição pode ser contornada em
uma circunstância muito específica: os eclipses totais do
Sol.

Quando a Lua se interpõe entre o Sol e os observadores em


Terra, a imensa maioria do brilho é bloqueada de nossa
vista, de modo que chapas fotográficas são capazes de
registrar a posição de estrelas naquele momento.
Logo após publicar seu artigo, em 1911, Einstein passou a
encorajar observadores a tentar confirmar seus cálculos
com eclipses. Para a sorte dele, ninguém conseguiu de
imediato fazer as observações requeridas, a despeito de
ocasiões não terem faltado a partir de 1912. E foi para a
sorte dele porque, na ocasião de sua publicação, o físico
ainda não havia encontrado a matemática certa para
representar o espaço-tempo curvo de sua teoria da
gravidade. Com correções que ele só faria em 1914,
Einstein descobriu que o desvio na posição aparente das
estrelas cuja luz seria desviada pela gravidade do Sol seria
de, na verdade, 1,75 segundo de arco, o dobro de seu
cálculo original.

Contudo, o início da Primeira Guerra Mundial, no mesmo


ano em que Einstein chegaria aos cálculos corretos,
tornaria mais complicadas as iniciativas de observação de
eclipses solares, uma vez que os locais de onde eles são
vistos como totais se estendem por faixas estreitas ao
longo do globo. Você precisa de expedições internacionais
para coletar dados astronômicos durante eclipses.

As hostilidades da Primeira Guerra também levaram a


relatividade geral a ser pouco conhecida fora da Alemanha.
Mas um dos cientistas a se apaixonar por ela à primeira
vista, por intermédio de publicações do astrônomo
holandês Willem de Sitter (1872–1934), foi o inglês Arthur
Eddington (1882–1944). Caberia a ele, em conjunto com
Frank Watson Dyson (1868–1939), então astrônomo real
britânico, organizar as expedições que, já depois do fim da
Primeira Guerra, em 1919, confirmariam a predição de
Einstein.
A PRESENÇA DO SOL CURVA OS RAIOS DE LUZ DE
ESTRELAS DISTANTES, MUDANDO

SUA POSIÇÃO APARENTE NO CÉU DURANTE UM


ECLIPSE SOLAR TOTAL.

Em 29 de maio de 1919, grupos de cientistas liderados por


Dyson e Eddington foram à Ilha do Príncipe, então colônia
de Portugal na costa oeste da África, e à cidade de Sobral,
no Ceará, para fazer chapas que revelassem a posição das
estrelas de fundo

durante um eclipse solar.

O fenômeno oferecia uma grande oportunidade, porque a


duração máxima da fase total era relativamente longa – 6
minutos e 51 segundos –, o que dava mais tempo para que
abrisse uma brecha entre as nuvens e se pudesse fazer um
registro adequado. Ademais, havia diversas estrelas
brilhantes de fundo na ocasião, o que facilitaria as
medições do efeito tão sutil.

Apesar disso, não foi fácil. Em Príncipe, onde estava


Eddington, a nebulosidade no céu não deu trégua, e tudo
que se conseguiu foram relances do eclipse por entre as
nuvens. Apenas uma das fotografias tiradas de lá teve
algum valor para o esforço de tentar confirmar a previsão
de Einstein.

Em Sobral, por outro lado, o tempo estava ótimo. Sob o


comando do astrônomo Andrew Crommelin (1865–1939) e
com a colaboração logística do Observatório Nacional,
então dirigido pelo franco-brasileiro Henrique Morize
(1860–1930), diversas imagens de qualidade puderam ser
captadas.

Reunidas as imagens, coube aos britânicos apresentar os


resultados, que foram lidos diante da Royal Society, em
Londres, em 6 de novembro de 1919. Em sua conclusão, os
pesquisadores diziam o seguinte:

(...) Os resultados das expedições a Sobral e a Príncipe


podem deixar poucas dúvidas de que a deflexão da luz
acontece nas redondezas do Sol, e que é pela quantidade
demandada pela teoria da relatividade generalizada de
Einstein, atribuída ao campo gravitacional do Sol.

Einstein não ficou surpreso com a confirmação – para ele, o


sucesso com o periélio de Mercúrio já era suficiente para
formar sua convicção pessoal a respeito da teoria. Tanto
que, reza a lenda, quando um assistente perguntou a ele o
que faria se a observação do eclipse não confirmasse a
teoria, ele teria respondido: “Então eu teria pena do bom
Deus. A teoria estaria correta mesmo assim.”

A confirmação espetacular, claro, virou instantaneamente


notícia de primeira página em jornais do mundo todo.
Depois de reescrever as definições de espaço, tempo,
matéria, energia e gravidade, e viver para ver sua teoria
confirmada, Einstein seria convertido na maior celebridade
da ciência, realizando palestras e apresentações em todo o
mundo. Em 1925, esteve na América do Sul, e passou pelo
Brasil. Aqui, declarou a um repórter, por escrito: “O
problema que minha mente formulou foi respondido pelo
luminoso céu do Brasil.”

MEXEUCOMALUZ,MEXEUCOMESPAÇO
ETEMPO

Ao abordarmos a relatividade especial, ou restrita, no


capítulo anterior, vimos como o simples fato de que a luz
tem sempre a mesma velocidade, não importando o estado
de movimento do emissor ou do observador, leva a
implicações extraordinárias. O espaço passa a se contrair
no sentido do movimento, o tempo, a se dilatar para quem
se move mais depressa com relação a outro, e eventos que
são simultâneos para um deixam de ser simultâneos para
outro.

Com a relatividade geral, descobrimos que a gravidade


também tem o poder de influenciar os caminhos de raios
de luz, e assim o faz porque na verdade ela nada mais é
que uma curvatura produzida por qualquer objeto com
matéria (ou energia, já que são faces da mesma moeda) no
espaço-tempo quadridimensional

– aquela coisa que podemos entender abstratamente, mas


não perceber sensorialmente, e ainda assim é o substrato
fundamental do Universo que habitamos. Ou, como
resumiu perfeita e sucintamente o físico americano John
Archibald Wheeler (1911–2008), “o espaço-tempo diz à
matéria como se mover; a matéria diz ao espaço-tempo
como se curvar”.
Lindo. Perfeito. Mas o que essa curva faz à nossa percepção
de tempo? De acordo com as equações de Einstein, quanto
mais intenso é o campo gravitacional, mais devagar o
tempo passa.

Da mesma maneira, o campo gravitacional também altera


as dimensões espaciais, mas seu comportamento exato
não é tão facilmente descritível – e

podemos perceber isso quando pensamos sobre uma


limitação do princípio de equivalência, já conhecida e
reconhecida por Einstein durante a formulação da teoria.

Aceleração envolve contração do espaço no sentido do


movimento, então, usando uma versão descuidada do
princípio de equivalência, poderíamos supor que um campo
gravitacional faria exatamente a mesma coisa. E de fato
ele até faz, mas apenas até onde o princípio de
equivalência se aplica – e sua limitação é justamente o
quanto podemos equiparar um foguete acelerando a um
objeto em repouso sob um campo gravitacional.

Enquanto estávamos, como Einstein, usando elevadores


como cenário dos nossos gedankenexperimenten, não
havia problema. Afinal, eles costumam ser pequenos em
comparação com a distância que guardamos do centro da
Terra, para onde aponta o vetor da força gravitacional.
Agora, imagine que o nosso elevador seja realmente
imenso, tendo um piso plano com o tamanho do diâmetro
da Terra. Colocado sobre a superfície dela, ele só tocaria a
Terra na parte central do piso, e o resto ficaria suspenso no
espaço. Temos aí uma situação em que, dependendo do
lugar do elevador em que você estiver, a força
gravitacional, apontada sempre para o centro da Terra, terá
intensidade e direção diferentes. O princípio da
equivalência só funcionaria exatamente no meio do
elevador, onde a direção de movimento estaria
perfeitamente alinhada com o vetor da força gravitacional.

Essa é uma situação que não seria análoga à de um


foguete puxando um elevador gigante pelo espaço, caso
em que a força inercial seria sempre perpendicular ao piso,
não importando em que lugar do elevador você esteja.

Então, veja que aceleração e gravidade só são


estritamente iguais quando a região em que você as está
medindo é pequena, se comparada à intensidade do
campo gravitacional. Como o tempo é uma dimensão só, é
mais fácil determinar a influência de um campo
gravitacional sobre ele do que sobre o espaço
tridimensional. Com as equações de campo da relatividade
geral, claro, você pode calcular a geometria de forma
detalhada. Mas as contas são complicadas, e cada caso
será um caso. Veremos inclusive, mais adiante,
circunstâncias em que o encurvamento do espaço-tempo
desafia a nossa compreensão (e a própria lógica do
Universo) de um modo que o próprio Einstein, ao formular
sua teoria, jamais havia imaginado.

De todo modo, vale lembrar que, para efeitos práticos, em


nosso cotidiano, as distorções no espaço-tempo produzidas
pela gravidade são tão ridiculamente pequenas que não
precisamos nos preocupar com elas. Nem vale a pena você
dormir no chão para estar um pouquinho mais perto do
campo gravitacional terrestre e assim aproveitar uma
fração de segundo a mais de sono por conta da

dilatação do tempo. Não vai fazer diferença. Esses


fenômenos só se tornam relevantes quando falamos de
campos gravitacionais realmente intensos.

Para que você tenha uma ideia, a Terra, nosso planeta, tem
hoje cerca de 4,54
bilhões de anos. E sabe quanto o centro do planeta, onde a
curvatura do espaço-tempo é mais acentuada, é mais
jovem que a superfície, por conta do efeito de dilatação do
tempo que acontece lá em baixo? Dois anos e meio. É o
que sugerem cálculos feitos por Ulrik Uggerhøj, da
Universidade de Aarhus, na Dinamarca, em 2016, para
ilustrar o efeito da relatividade geral sobre a passagem do
tempo em nosso próprio mundo. Dois e meio em mais de 4
bilhões não é muito, é?

Por outro lado, os efeitos da relatividade geral sobre o


tempo, por mais diminutos que sejam sob uma gravidade
gentil como a terrestre, são importantes na
cronometragem de alta precisão. Saiba que, se Einstein
estivesse errado, você não poderia hoje nem mesmo ligar o
celular para chamar um Uber.

Quer saber por quê? A seguir, vamos ver como as ideias do


físico alemão, por mais etéreas que possam parecer, foram
além de mudar nossa compreensão do Universo. Elas
transformaram a nossa vida e redefiniram o que
costumamos chamar de tecnologia.

REVOLUÇÕES

TECNOLÓGICAS

Einstein era um físico teórico. Mas as revelações que ele


produziu sobre o Universo deram à luz as maiores

inovações tecnológicas da história recente – a começar


pelo Uber e pelo Waze.

Desde seu “ano miraculoso”, em 1905, Einstein figurava no


radar dos grandes físicos de seu
tempo. Mas não era atividade trivial determinar de saída o
quanto seus empreendimentos científicos, completamente
teóricos, iriam influenciar o mundo cotidiano.

Com efeito, suas maiores contribuições partiam de uma


lógica impecável e de matemática sólida, mas eram difíceis
de testar experimentalmente. Mesmo a observação do
eclipse solar de 1919 deixava algumas dúvidas. Embora os
resultados estivessem alinhados com a predição da
relatividade geral, a margem de erro das observações era
grande, e até mesmo Dyson e Eddington, em seu relatório,
indicavam que seria importante repetir o experimento em
futuros eclipses, para confirmar suas conclusões.

Isso deixava apreensivos os membros do comitê da


Academia Real das Ciências da Suécia. Responsáveis por
definir os vencedores anuais do Prêmio Nobel, eles tinham
recebido, por vários anos, nem uma, nem duas, mas
incontáveis recomendações para que a láurea fosse
outorgada a Einstein.

A primeira carta de indicação viria em 1909, pelas mãos do


físico-químico Friedrich Wilhelm Ostwald (1853–1932),
vencedor do Nobel de Química daquele ano. Ele indicava a
importância da relatividade restrita como suficiente para
conferir a Einstein o Nobel de Física no ano seguinte, 1910.
Mas como premiar uma teoria cujos efeitos só são
observáveis quando se atingem velocidades fabulosas,
próximas à da luz? Como ter a convicção de que tudo não
passa de um truque matemático se não havia então
experimento possível para confirmar a teoria? Em 1908,
experimentos com elétrons já sugeriam a correção da
fórmula E=mc2, mas os resultados ainda eram
controversos.

Em seu relatório, o comitê escreveu o seguinte:


Antes de aceitar o princípio da relatividade, em especial,
antes de atribuir a Einstein o Prêmio Nobel, pode-se
presumir que a necessidade de uma maior confirmação é o
motivo pelo qual só agora Einstein foi proposto, se bem
que o princípio em discussão tenha sido anunciado em
1905, quando causou a mais viva agitação.

Com isso, decidiram deixar Einstein para lá e escolheram


outro vencedor.

A indicação seguinte viria em 1912, de novo pelas mãos de


Ostwald. Mas Einstein agora teria também os apoios de
Ernst Pringsheim (1859-1917), Wilhelm Wien (1864-1928) e
Clemens Schaefer (1878-1968), todos físicos alemães. Os
dois últimos sugeriam que o prêmio fosse dividido entre
Einstein e Hendrik Lorentz, pelos desenvolvimentos que
levaram à relatividade restrita.

(Lorentz já havia sido premiado em 1902, também de


forma dividida.) O comitê deixou para lá e escolheu outro
vencedor.

Em 1913, Einstein foi mais uma vez considerado. Os


acadêmicos suecos estavam impressionados com as
missivas que recebiam dos físicos, colocando o alemão no
mesmo patamar de figuras como Copérnico, Newton e
Darwin. A teoria da relatividade parecia cada vez mais ser
algo extremamente importante, mas ainda havia
trepidação – uma das noias históricas da Academia Real é
não dar um tiro n’água e só premiar alguém quando sua
contribuição for incontestável. Por isso, muitos cientistas
brilhantes morrem sem recebê-lo, apesar de merecerem.
(E, mesmo com todo esse cuidado, os responsáveis pelo
Nobel já fizeram algumas bobagens, como conceder o
prêmio de Medicina ao português Egas Moniz pelo bizarro
procedimento da lobotomia para tratamento de doenças
psiquiátricas.)
Com medo, o comitê mais uma vez deixou para lá e
escolheu outro vencedor.

Em 1914, Einstein voltou a ser indicado por múltiplos


cientistas – tanto por seus resultados no estudo da
gravitação quanto por seu conjunto da obra na física
teórica. De acordo com o astrônomo Ronaldo Rogério de
Freitas Mourão (1935–

2014), o relatório interno do comitê “insinuou


superficialmente que seria muito tempo para que uma
última palavra sobre a teoria da relatividade e as outras
contribuições de Einstein fosse dada”. Ou seja, nada de
prêmio para ele, e em 1915 – ironicamente, o ano da maior
realização einsteiniana, com a formulação matemática da
relatividade geral – nem indicações ele recebeu.

Em 1916, foi apenas uma indicação solitária do físico


austríaco Felix Ehrenhaft (1879–1952), apontando os
sucessos de Einstein com o movimento browniano, que
provou a existência dos átomos, e com as teorias restrita e
geral da relatividade. Mas o comitê não encontrou
justificativas para conceder a alguém o Nobel em Física
daquele ano.

Em 1917, Einstein recebeu múltiplas indicações, que


lembravam seus feitos com a relatividade geral (e seu
sucesso com o cálculo da precessão do periélio de
Mercúrio) e suas contribuições à teoria quântica por conta
da explicação do efeito fotoelétrico ao interpretar a luz
como partícula. Mas, como os astrônomos do Observatório
de Monte Wilson, nos EUA, não haviam conseguido
observar uma das predições da teoria – a de que, embora a
velocidade da luz sempre permaneça a mesma, o
comprimento de onda da luz emitida por um objeto seria
distorcido, encurtando-se ou esticando-se, conforme o
movimento do emissor, o chamado efeito Doppler
relativístico –, o comitê julgou que a teoria de Einstein era
carta fora do baralho. E, mais uma vez, escolheu outro para
levar o Nobel de Física daquele ano.

Em 1918, novas indicações para Einstein – algumas delas


em

compartilhamento com Lorentz – pela relatividade restrita.


Há também menções ao movimento browniano. Mas o
comitê decidiu conceder o prêmio a Max Planck, pelo
conceito do quantum.

Em 1919, choveram recomendações para Einstein,


mencionando o movimento browniano, mas o comitê
decidiu que as contribuições do alemão para a mecânica
estatística não eram tão relevantes quanto as dadas para a
relatividade e para a teoria quântica, de modo que seria
mais sábio esperar novas observações com relação ao
efeito Doppler e os resultados das expedições para
observar o eclipse solar de 29 de maio daquele ano. E o
prêmio foi para Johannes Stark (1874–1957), físico alemão
que se tornaria um entusiástico apoiador do nazismo

– e arqui-inimigo da “ciência judia” de Einstein – dali a


alguns anos.

Em 1920, depois dos resultados confirmando a teoria da


relatividade geral, tornava-se cada vez mais difícil para o
Comitê do Nobel ignorar a contribuição de Einstein. Mas,
ainda assim, os acadêmicos suecos preferiram conferir a
outro a láurea. No ano seguinte, a pressão sobre eles
cresceu ainda mais. Arthur Eddington, o astrônomo de
Cambridge que foi o principal impulsionador das
expedições do eclipse de 1919, escreveu à Academia Real
em 1921 e declarou: Einstein está acima de todos os seus
contemporâneos,

como Newton esteve.


As discussões internas foram acaloradas. A despeito do
clamor internacional, o comitê ainda não estava
convencido – o relatório sobre a relatividade preparado por
Allvar Gullstrand (1862–1930), óptico e oftalmologista da
Universidade de Upsalla, na Suécia, sugeria que os efeitos
da relatividade “são em geral tão pequenos que se situam
abaixo do erro experimental” (ou seja, jamais poderiam ser
comprovados). Já o relatório de Svante Arrhenius (1859–
1927), ganhador do Nobel de Química em 1903, se
debruçou sobre o efeito fotoelétrico, mas apontou que o
comitê já havia premiado o quantum apenas três anos
antes, e que a premiação pelo efeito fotoelétrico deveria
ser dada preferencialmente a um físico experimental, não a
um teórico.

Então, mostrando toda a sua relutância em finalmente


consagrar Einstein, o comitê toma a atitude de adiar a
decisão sobre o Nobel de Física em 1921.

Cartas enfurecidas chegavam para a academia. De forma


contundente, Marcel Brillouin (1854–1948), físico e
matemático francês, escreveu: Imagine-se por um
momento qual será a opinião geral daqui a cinquenta anos
se o nome de Einstein não fizer parte das listas dos
homenageados com o Nobel.

Encostado contra a parede, o comitê decidiu então conferir


o prêmio de 1921, atrasado, a Einstein, mas “por suas
contribuições à física teórica e, em particular,

por suas descobertas da lei do efeito fotoelétrico”, e não


pela relatividade.

Essa pequena saga de teimosia acadêmica mostra como a


maior parte das ideias de Einstein estava adiante de seu
tempo. O irônico é como elas vieram bem a calhar para o
nosso tempo. Do próprio efeito fotoelétrico, a interação
entre a luz e os elétrons, nasceria boa parte do que
conhecemos hoje como o mundo moderno.

D A T E L E V I S Ã O À E N E R G I A L I M P A Quase
imediatamente após a descrição do efeito fotoelétrico feita
por Einstein em 1905, começaram a pipocar estudos que
sugeriam a possibilidade de desenvolvimento de um
sistema eletrônico de televisão, por uso de tubos de raios
catódicos. Esses dispositivos são na verdade canhões de
elétrons mantidos a vácuo num tubo. O disparo dessas
partículas na direção de uma tela, por sua vez, produz uma
imagem. (Por isso as tevês antigas eram tão grandes e
desajeitadas, elas precisavam ter um tubo de raios
catódicos atrás da tela.) Isso funcionava bem para gerar
imagens e era algo já explorado experimentalmente desde
meados do século 19, mesmo sem que seu entendimento
fosse completamente dominado. E onde entra o efeito
fotoelétrico?

Ele é o que permite transformar a luz que vem de uma


cena numa imagem codificada por elétrons. Afinal,
recordemos, estamos falando da sensibilidade que certos
materiais têm de emitir elétrons quando atingidos por luz.
Einstein ofereceu, com seus quanta de luz, hoje chamados
de fótons, a explicação correta dessa relação.

Com efeito, diversos inventores ao redor do mundo


estavam usando esse princípio para desenvolver as
primeiras câmeras de TV, e não por acaso alguns deles
estavam na Alemanha. Contudo, o inventor mais
mencionado quando se fala no desenvolvimento de um
sistema completo de televisão é o americano Philo
Farnsworth (1906–1971), que apresentou e patenteou sua
primeira câmera de tubo, baseada no efeito fotoelétrico,
em 1927. Ele a chamava de “dissecador de imagem”. Não
teria funcionado se não tivéssemos uma compreensão
precisa da relação entre luz e elétrons.
Farnsworth ficou particularmente emocionado de ver sua
invenção em ação quando ela permitiu que milhões de
pessoas vissem – ainda que em imagens fantasmagóricas e
de baixa qualidade – a primeira caminhada humana na Lua,
em julho de 1969. Em uma entrevista gravada em 1996, a
esposa de Farnsworth, Elma, declarou: “Estávamos
assistindo e, quando Neil Armstrong pousou na Lua, Phil se
virou para mim e disse, ‘Pem [apelido da esposa], isso fez
tudo valer a pena’. Antes disso, ele

não tinha tanta certeza.”

A velha tecnologia de câmeras de tubo foi superada, mas


não o efeito fotoelétrico que lhe serviu de base. Embora
não usemos mais os velhos

“dissecadores” de Farnsworth para gerar imagens, temos


os CCDs, sigla para charge-coupled devices, que nada mais
são que sofisticados sensores baseados numa forma de
efeito fotoelétrico para transformar a luz que entra na
câmera em sinais digitais que codifiquem a imagem.
Criados na década de 1970, os CCDs inicialmente foram
aplicados à exploração espacial, onde podiam gerar
imagens com mais qualidade que as câmeras de tubo
convencionais, ocupando muito menos espaço. Mas hoje
eles estão em toda parte: a câmera do seu celular é um
CCD. E o efeito fotoelétrico de Einstein, aplicado, está lá.

Outros dispositivos que guardam relação óbvia com o


avanço que valeu ao físico seu Prêmio Nobel são os
sensores de portas automáticas, daquelas que temos nos
shopping centers. Coisa mais simples: um detector de luz
de um lado e uma fonte luminosa (em geral em
infravermelho) do outro. Enquanto a luz chega ao detector,
há uma corrente gerada nele, pelo efeito fotoelétrico. Se
alguma coisa interrompe o sinal de luz – você, por exemplo
–, a corrente é interrompida, e isso serve como sinal para o
mecanismo que abre a porta.

Também funcionam assim os sensores que acionam


automaticamente as luzes

– se eles captarem radiação infravermelha do seu corpo,


produzem uma corrente elétrica, que sinaliza a presença de
alguém e comanda o sistema a acender as luzes.

Fotocopiadoras fizeram uso do efeito fotoelétrico, e os


nossos escâneres atuais não escapam dele. Se você
precisa gerar uma imagem com base em luz de forma
eletrônica (ou seja, se não for usar filme fotográfico), terá
de passar pelo efeito fotoelétrico.

E, com a atual crise energética que enfrentamos, o futuro


da humanidade pode muito bem depender dele. Painéis
fotovoltaicos, que convertem a luz solar em eletricidade, só
funcionam graças ao efeito fotovoltaico – que por sua vez é
basicamente uma versão do efeito fotoelétrico, com a
diferença de que os elétrons não chegam a ser ejetados do
material.

Isso sem falar no fato de que, com sua exploração teórica


da luz como partícula, Einstein deu o impulso inicial à
revolução quântica. Seu desenvolvimento, por sua vez,
seria passo essencial para compreendermos
adequadamente o funcionamento dos semicondutores – a
base de toda a nossa tecnologia eletrônica moderna.
Nossos computadores são todos filhos do quantum.

OENIGMADALUZEAINVENÇÃODOLAS
ER

Enquanto o Comitê Nobel estava ocupado recusando


indicações para que
Einstein recebesse o prêmio, o físico alemão estava
ocupado tentando compreender os mistérios do Universo.

E não houve enigma que mais intrigou Einstein em sua vida


que a natureza da luz.

Isso já se tornou claro, em 1905, quando ele propôs que a


luz podia ser feita de partículas – os quanta de luz, que
hoje chamamos de fótons – e, com isso, explicou o efeito
fotoelétrico. Mas Einstein também tinha enorme apreço
pelo eletromagnetismo de Maxwell, que havia sido
extremamente bem-sucedido no campo experimental,
serviu de base para a sua teoria da relatividade e tratava a
luz como uma onda.

Um dos sonhos do físico alemão era poder costurar as duas


coisas e, em um trabalho concluído em março de 1917, ele
parecia caminhar nessa direção, ao elaborar mais sobre um
estudo curto feito no ano anterior. Ele escreveu: Há pouco
tempo eu obtive uma derivação (...) da fórmula de radiação
de Planck que é baseada na premissa fundamental da
teoria quântica e que faz uso da relação da curva de
Maxwell para a curva de distribuição espectral. Essa
derivação merece consideração não só por causa de sua
simplicidade, mas especialmente porque parece esclarecer
os processos de emissão e absorção de radiação na
matéria, que ainda seguem sob tamanha escuridão para
nós.

Ao longo do trabalho, intitulado “A Teoria Quântica da


Radiação”, Einstein apresenta sua conclusão
surpreendente: sua nova derivação da lei de radiação de
Planck permitia um fenômeno descrito como “emissão
estimulada”. Seria uma maneira de convencer a matéria a
emitir fótons, partículas de luz, com propriedades muito
específicas.
Isso porque, pela teoria quântica, os elétrons, responsáveis
pela emissão dos fótons, só podem mudar seu nível de
energia (sua órbita ao redor dos núcleos atômicos)
segundo degraus fixos – foi isso que permitiu a
compreensão da estrutura

e da estabilidade dos átomos, como vimos no capítulo 2.

Sabemos que, para um elétron ganhar energia e subir de


nível, ele absorve um fóton. Em circunstâncias normais,
cedo ou tarde ele vai reemitir um fóton e descer de nível.
Isso é chamado de emissão espontânea.

Só que, se você submeter o sistema a um campo


eletromagnético externo, o átomo fica muito mais propenso
a fazer essa transição de estados, e vai emitir os fótons
sempre no mesmo nível de energia, equivalente ao degrau
para a descida, e na mesma direção de viagem, ditada pelo
campo eletromagnético. Temos aí emissão dita estimulada
(induzida) e coerente (todos os fótons com a mesma
energia, direção e polarização).

O que Einstein estava descrevendo ali era o princípio do


laser – sigla para light

amplification by stimulated emission of radiation, ou


amplificação de luz pela emissão estimulada de radiação.

Mais uma vez, tudo começa com o físico teórico


descrevendo um efeito interessante baseado em suas
investigações do que é a luz. E terminamos com um
artefato tecnológico capaz de mudar o mundo. Não foi do
dia para a noite. A emissão estimulada foi confirmada
experimentalmente pela primeira vez pelo alemão Rudolf
Ladenburg (1882–1952), em 1928, e só em 1953 o físico
americano Charles Hard Townes (1915–2015) construiu o
primeiro protótipo de laser – na verdade, um maser, porque
ele não emitia luz visível ou infravermelha, e sim micro-
ondas.

Em paralelo, na União Soviética, Nikolay Basov (1922-2001)


e Alexander Prokhorov (1916-2002) desenvolveram os
mesmos princípios e testaram seu maser. O primeiro laser
propriamente dito, envolvendo a emissão de luz visível, foi
construído e operado pelo americano Theodore Maiman
(1927-2007), da Hughes Aircraft Company, em 1960. Ele
usava uma lâmpada de xenônio como fonte de excitação e
um cristal de rubi para gerar luz vermelha pura.

Desde então, a cada dia que passa, torna-se mais difícil


superestimar a importância dos lasers. Com eles, podemos
medir com precisão a distância até a Lua e aviões podem
controlar com exatidão a altitude em que estão voando.
Eles estão no cerne de funcionamento dos nossos
aparelhos de CD, DVD e Blu-ray.

Usados em conjunto com fibras ópticas, permitem a


transmissão ultrarrápida de dados para internet. São
empregados frequentemente em aplicações médicas, como
cirurgias de olho e tratamentos de pele anticâncer.
Permitem o funcionamento dos nossos dispositivos leitores
de códigos de barras nos supermercados. Têm potencial
como armamento e como instrumento de corte de alta
precisão. Produzem incríveis espetáculos de luz. E
continuam a ser usados em laboratórios de física de todo o
mundo pelo mesmo motivo que foram originalmente
criados – prosseguir na aventura de desvendar os mais
íntimos segredos do Universo.

O que nasceu como uma curiosidade teórica na cabeça de


Einstein e, mais tarde, um simples esforço de laboratório
em física básica, converteu-se em uma imensa revolução
tecnológica. O Comitê do Nobel foi facilmente convencido e
deu a Townes, Basov e Prokhorov o prêmio de Física de
1964, apenas quatro anos após a demonstração inaugural
de Maiman.

ARELATIVIDADEEOGPS

Os membros do Comitê do Nobel oscilaram durante uma


década entre achar a relatividade uma curiosidade pouco
relevante e julgá-la fora do alcance de qualquer
experimento, que dirá de qualquer aplicação prática.
Adoraria ver a

cara deles se pudéssemos teletransportá-los ao mundo


moderno. (Aliás, combinando a mecânica quântica com a
teoria da relatividade, talvez possamos um dia – mas esse
é assunto para mais tarde.)

Veja você: a emissão estimulada de Einstein levou aos


masers, e os masers levaram aos primeiros relógios
atômicos, capazes de medir a passagem do tempo com
precisão inacreditável. E não escapou aos militares
americanos nos anos 1970 que a capacidade de medir o
tempo com esse nível de precisão e, ao mesmo tempo,
colocar uma rede de satélites em órbita da Terra viabilizaria
uma tecnologia muito útil que conhecemos hoje pela sigla
GPS – um sistema de posicionamento global.

Desenvolvido pelo Departamento de Defesa dos Estados


Unidos, o projeto previa uma rede de pelo menos 24
satélites em órbitas altas ao redor da Terra.

Sobrevoando o planeta a cerca de 20 mil quilômetros do


solo, a uma velocidade de 14 mil km/h, eles estariam de tal
modo distribuídos que, esteja você onde estiver no nosso
planeta, pelo menos quatro deles estariam visíveis dali, de
forma que você pudesse se comunicar com eles.

Então, por uma técnica chamada trilateração, que envolve


o tempo que o sinal dos diferentes satélites lá em cima
leva para chegar até você (que traduz a distância, uma vez
que o sinal viaja sempre à velocidade da luz), é possível
determinar sua posição exata. Bem, com relógios atômicos
com precisão de 1

nanossegundo, isso não parece um problema.

Ah não? Não seria se Newton estivesse certo, e o tempo


passasse no mesmo ritmo para todos, não importando
onde você estivesse ou a que velocidade estivesse se
deslocando. Mas quem estava certo era Einstein, para o
qual tempo e espaço são relativos. Não adianta nada
perguntar ao satélite que horas são e comparar com o que
o seu relógio está marcando para calcular a distância entre
ele e você se, lá em cima, sob uma gravidade menor que
aqui embaixo, o relógio anda num ritmo diferente.

Aí você pode dizer, ah, mas a diferença prevista pela teoria


da relatividade geral é tão bizarramente pequena... Não
poderíamos simplesmente desprezá-la?

Afinal, cálculos mostram que os relógios em órbita numa


constelação de satélites de GPS se adiantariam apenas 38
microssegundos (milionésimos de segundo) a cada dia com
relação a suas contrapartes na superfície da Terra.

O problema é que o GPS, para funcionar, exige precisões


de tempo da ordem dos nanossegundos, e 38
microssegundos são 38 mil nanossegundos. Além disso, os
efeitos são acumulativos – quanto mais tempo os satélites
passam em órbita, maior a diferença entre seus relógios
atômicos e os que estão em solo.

Isso, na prática, significa que, depois de passados apenas 2


minutos, o sinal do GPS já estaria indicando sua posição
errada, e com o transcorrer de um dia a
diferença entre a posição estimada e a posição real seria
de 10 km. E, a cada dia que passasse, o erro ficaria 10 km
maior.

O único jeito de ter um sistema de GPS que não fique


imprestável depois de 2

minutos (nem muamba paraguaia tem garantia tão curta) é


usar a relatividade geral para calcular as compensações – e
os cálculos têm de ser tão precisos a ponto de não
introduzir novos erros.

Então, vamos lá, entender como isso funciona na prática.


Você tem o satélite lá em cima, viajando a uma velocidade
constante de cerca de 14 mil km/h. A relatividade restrita
nos diz que um objeto viajando mais depressa vê o tempo
passar mais devagar para ele. O físico Neil Ashby (1934- ),
da Universidade do Colorado, foi o responsável pelos
cálculos que fazem o sistema do GPS

funcionar direito, com base na relatividade. Ele calculou


que a velocidade do satélite faria com que o relógio
atômico de bordo se atrasasse em 7

microssegundos por dia.

Mas isso não é tudo. Esse satélite estaria a cerca de 20 mil


km da superfície, e o campo gravitacional terrestre é
menos intenso a essa altura. A relatividade geral diz que
um relógio sob um campo gravitacional mais forte anda
mais devagar que um sob outro mais fraco. Ou seja, lá em
cima, gravidade mais fraca, o relógio anda mais depressa.
Em quanto? As contas indicam que o relógio atômico de
bordo se adianta em 45 microssegundos por dia, em razão
da relatividade geral.

Para termos a precisão restaurada, precisamos levar em


conta os dois efeitos simultaneamente – se o relógio perde
7 microssegundos por um deles e ganha 45

por outro, a somatória é 38 microssegundos de


adiantamento diário.

Como isso se resolve? Os relógios de bordo dos satélites


são programados da Terra para andar 45 microssegundos
mais depressa, já compensando assim os efeitos da
relatividade geral. E cabe aos dispositivos em solo que se
comunicam com a rede em órbita fazer as contas da
relatividade restrita e compensar o atraso que ela gera.
Sim, o seu celular está mastigando cálculos relativísticos
sempre que você abre o Waze.

Por que deixar a relatividade restrita por conta do solo, em


vez de embuti-la no satélite? Bem, lembre-se de que você
pode não estar em repouso na superfície, mas num avião
viajando a mais de 1.000 km/h. Nesse caso, a diferença de
velocidade entre seu dispositivo de GPS e o satélite não
será a mesma, e é importante que ele saiba calcular essa
variação por si mesmo.

Claro, quando o primeiro satélite do sistema GPS foi


lançado, em fevereiro de 1978, os cientistas já não
contavam mais com a palavra de Einstein como única
garantia de que o sistema ia funcionar. Aviões em alta
velocidade já haviam transportado relógios atômicos que
voltaram ao solo atrasados, conforme a

predição da relatividade restrita, e um foguete suborbital


da Nasa levou um relógio atômico a uma altitude de 10 mil
km em junho de 1976 e confirmou que ele se adianta
conforme se afasta do campo gravitacional da Terra,
exatamente como previa a relatividade geral. O
experimento, chamado de Gravity Probe A, demonstrou
lindamente o princípio da equivalência postulado por
Einstein para formular sua teoria.
E é por isso, em essência, que sem a relatividade geral
você não poderia sequer usar seu celular para chamar um
Uber, como eu disse ao final do capítulo anterior. O
aparelho seria incapaz de determinar, com base na
constelação de satélites de GPS, onde você está e avisar
isso ao motorista. Do mesmo modo, o chofer não poderia
registrar sua localização precisa no Waze e encontrar seu
endereço de saída e de chegada para calcular a corrida e
levá-lo até lá. (Isso, claro, não garante que os motoristas
do Uber não se percam por aí, como inúmeros
experimentos já demonstraram; mas a culpa nesse caso,
asseguramos, não é de Einstein.)

Com a relatividade, o físico alemão nos deu o poder sobre o


tempo e o espaço.

Graças a isso, podemos saber com precisão incrível em que


lugar da Terra nós estamos, a qualquer momento, em
questão de segundos. Mas isso é pouco perto do poder
total da teoria. Einstein logo se deu conta de que sua
criação oferece à humanidade a chave para explorar a
própria origem e evolução do Universo. É o que veremos a
seguir.

A ORIGEM DO

UNIVERSO

Como a teoria da relatividade geral de Einstein permitiu à


humanidade sondar a evolução do cosmos, culminando

com uma revelação bombástica sobre o seu nascimento.

Quando Isaac Newton concebeu sua teoria da gravidade,


mesmo com os conhecimentos parcos do século 17 era
possível imaginar que se tratava de um efeito cujas
implicações seriam sentidas por todo o Universo – não por
acaso era a lei da “gravitação universal”.

Mesmo na fórmula newtoniana, a força gravitacional existe


entre dois corpos na proporção inversa do quadrado da
distância entre eles. Ou seja, quanto mais perto os objetos
estão, maior a atração. E, claro, conforme eles se afastam,
a força gravitacional despenca em ritmo acelerado, uma
vez que cai pelo quadrado da distância, e não apenas pela
distância em si. Se você dobra o afastamento, a gravidade
cai por um fator quatro. Se você triplica a distância, a força
gravitacional cai por um fator nove. E assim por diante.

Contudo, essa mesma fórmula indica que a atração


gravitacional jamais atinge valor zero. Você pode estar
falando de uma galáxia separada por bilhões de anos-luz,
do outro lado do Universo – embora sua força gravitacional
sobre nós seja tão fraca, em razão da distância
descomunal, que possamos desprezá-la, ela não é nula.
Existe. E nos puxa para lá, ainda que muito fracamente.

Esse fenômeno incontestável não passou despercebido a


Newton. Se todos os corpos celestes espalhados pelo
Universo se atraem mutuamente, ainda que de forma sutil
por conta da enorme distância que os separa, mais dia,
menos dia essa força gravitacional conjunta fará com que
todos eles se encontrem. O que tornaria o Universo um
lugar verdadeiramente perturbador – o destino de todos os
planetas, de todas as estrelas, de todas as galáxias, seria o
de colidirem uns com os outros, criando uma enorme
maçaroca cósmica.

Newton, profundamente religioso, achava inconcebível que


Deus tivesse criado um Universo assim, fadado ao colapso.
Pressupôs, então, que Ele houvesse organizado o cosmos
de modo a impedir tal tragédia, dispondo os corpos
celestes de maneira que as forças gravitacionais se
anulassem mutuamente. Ou seja, se há uma estrela à
direita do Sol atraindo-o para lá, Deus há de colocar uma
estrela à esquerda dele para que as duas forças se anulem
e o Universo permaneça estável, estático.

E assim Newton deu o problema por resolvido, porque se


Deus fizesse exatamente isso pelo espaço infinito e
estático newtoniano, distribuindo cuidadosamente infinitas
estrelas, galáxias e planetas, infinitas vezes, o Universo
estaria a salvo.

Em 1915, três séculos depois que Newton havia


“encerrado” a questão, Einstein reformulou a teoria da
gravidade, e com ela as noções de espaço e tempo. E aí a
solução newtoniana se mostrou ainda mais precária.

Um dos pilares dessa reformulação foi justamente o efeito


da gravidade do Universo inteiro sobre qualquer de seus
componentes. Einstein evocou o chamado princípio (ou
conjectura) de Mach, formulado de forma imprecisa pelo
físico e filósofo austríaco Ernst Mach (1838-1916), por
quem o alemão tinha enorme admiração. Na prática, ele
serve para explicar o princípio de equivalência de Einstein,
que diz que a massa inercial de um objeto é exatamente
igual à massa gravitacional. (Na prática, você precisa da
mesma força para acelerar um objeto que está em repouso
que a gravidade precisa para acelerar o mesmo objeto em
queda livre.)

Todos os experimentos até hoje dizem que isso é verdade,


mas por quê? Por que massas inerciais e gravitacionais são
idênticas, tornando aceleração e gravidade fenômenos
análogos? Mach sugeriu que isso acontece porque a massa
inercial é simplesmente a somatória de todas as forças
gravitacionais que todos os objetos no Universo inteiro
exercem sobre você.
Podemos realizar um experimento mental para demonstrar
isso. Voltemos ao nosso elevador espacial, no meio do
nada. Ao acelerarmos esse elevador para cima, nós, em
seu interior, nos sentiremos pressionados contra o piso. Por
quê?

Porque nossa massa inercial oferece resistência ao


movimento do elevador – ela estava parada, logo, queria
permanecer parada.

Certo, agora vem a parte realmente irrealizável do


experimento mental.

Imagine que deixamos nosso elevador em repouso em


pleno espaço sideral, mas aceleramos todo o resto do
Universo para baixo com relação a ele. O que acontece?
Também sentiremos a mesma pressão contra o piso,
conforme o centro de gravidade do Universo todo se
desloca para baixo e nos “chama” para lá. Essa é a
conjectura de Mach – ela oferece uma explicação lógica
para o princípio de equivalência e indica por que
aceleração e gravidade, na real, são faces da mesma
moeda.

Ao assentar a teoria da relatividade geral sobre esse


fenômeno, Einstein já sabia que ela teria de ser aplicável
ao Universo inteiro. Mas, diferentemente da versão
newtoniana da gravitação, ela se prestava a descrever a
natureza do espaço e do tempo universais, em vez de
simplesmente postulá-los.

Era uma enorme responsabilidade. E Einstein entrou de


cabeça nela: em fevereiro de 1917, pôs-se a inaugurar a
cosmologia moderna – o estudo da origem, da evolução e
do destino final do Universo –, em um artigo apresentado à
Academia Prussiana de Ciências. O título era
“Considerações cosmológicas na teoria da relatividade
geral”. Segue um trecho:
No presente parágrafo eu devo conduzir o leitor pela

estrada que eu mesmo viajei, uma estrada bem irregular e


tortuosa, porque de outro modo eu não posso esperar que
ele irá ter muito interesse no resultado ao fim da

jornada.

A conclusão a que eu devo chegar é a de que as equações


de campo da gravitação que eu tenho defendido até então
ainda precisam de uma sutil modificação.

Esse caminho tortuoso a que Einstein se referia era o


seguinte: a aplicação das equações de campo da
relatividade levava inevitavelmente a um Universo instável,
em contração ou em expansão. As observações da época,
no entanto, levavam a crer que o Universo era estático.

Para conciliar teoria e observação, Einstein decidiu – com


uma certa angústia
– mudar suas equações, introduzindo artificialmente um
novo termo: λ (lambda), a “constante cosmológica”.

No papel, a constante funcionava como uma força


contrária à gravidade, impedindo que o Universo
desabasse sobre si mesmo. Com ela, Einstein podia usar
sua teoria para descrever um cosmos consistente com o
que ele pessoalmente esperava que fosse – não infinito
como o de Newton, mas finito, e aproximadamente
estático.

Pela primeira vez, alguém ousava dar uma forma ao


cosmos por meio da matemática. Segundo Einstein, a
curvatura geral do espaço-tempo seria positiva, e era
isso que o levava a ser finito.

Os termos são meio complicados, mas não é difícil


entender o que ele estava sugerindo. A relatividade geral
já sugeria que vivíamos num espaço-tempo curvo, certo?
Einstein só foi um passo adiante e sugeriu que essa
curvatura, se calculada para o Universo inteiro, faria com
que ele se fechasse sobre si mesmo, como uma esfera (é
isso que “curvatura positiva” significa).

Não tente imaginar uma esfera em quatro dimensões; dá


dor de cabeça. Mas podemos, a exemplo dos capítulos
anteriores, usar uma analogia com número menor de
dimensões para entender a coisa toda.

Até então, para falar do espaço curvo, estávamos com a


ideia de uma folha elástica. Agora, o que vamos fazer é
imaginar que essa folha elástica, aparentemente plana
quando livre de quaisquer objetos, na verdade tinha uma
suave curvatura, imperceptível, e se estendia muito além
do pedaço que estávamos observando. Ela seria apenas
um pedacinho de uma esfera.
No modelo cosmológico inaugural de Einstein, o Universo
era uma esfera de quatro dimensões, curvada pela
matéria e energia totais do sistema. Dessa maneira, ele
não teria fronteiras, mas ao mesmo tempo seria finito. Se
você fosse sempre em frente no Universo, acabaria
retornando ao ponto de partida, igual um avião dando a
volta ao redor do mundo.

Nas palavras de Einstein:

Essa visão é logicamente consistente, e, do ponto de


vista da teoria da relatividade geral, é o que temos mais

à mão; se, do ponto de vista do conhecimento


astronômico presente, ela é defensável, não discutiremos
aqui.

Isso exigiu um remendo estranho na teoria? Einstein era


o primeiro a admitir: Para chegar a essa visão
consistente, nós confessamente tivemos de introduzir
uma extensão das equações de campo da gravitação que
não são justificadas pelo nosso atual conhecimento da
gravitação.

Ou seja, as observações das estrelas exigiam um


Universo bem-comportado, e a constante cosmológica,
agindo como uma força contrária à gravidade, permitia
que ele fosse assim. De resto, Einstein enfatiza, se ela
tivesse um valor suficientemente baixo, não provocaria
discrepâncias nas predições feitas pela teoria da
relatividade geral em sua forma original, mantendo seus
sucessos no cálculo da precessão do periélio do planeta
Mercúrio e no desvio dos raios de luz pela gravidade do
Sol.

Einstein, com isso, deu o pontapé inicial para


entendermos o Universo em que vivemos. Mas a história
logo ganharia

contornos dramáticos.

OFIMDOUNIVERSOESTÁTICO

A exemplo do que o físico alemão havia feito com física


quântica em 1905, Einstein incendiou a imaginação da
comunidade científica em 1917 com a perspectiva de
usar a relatividade geral como forma de sondar a
natureza e a estrutura do Universo. Quase
imediatamente após a publicação das

“considerações cosmológicas” de Einstein, o astrônomo


holandês Willem de Sitter fez, com base nelas, uma
descrição do espaço-tempo diferente da apresentada
pelo modelo einsteiniano. De Sitter imaginou um
Universo completamente vazio, sem matéria, movido
apenas pela presença da constante cosmológica. Como
seria esse Universo? Ele se expandiria para sempre,
segundo o holandês. (Guarde essa ideia para o próximo
capítulo, vamos precisar dela.)

O físico e matemático russo Alexander Friedmann (1888-


1925) também decidiu brincar com a relatividade geral.
Em 1922, analisando o trabalho de Einstein, ele notou
que o Universo preconizado pelo alemão era apenas
precariamente estático – qualquer mínima perturbação o
levaria ou a um estado de expansão ou de contração –
mesmo com a constante cosmológica devidamente
introduzida nas equações.

Friedmann enviou seus cálculos a Einstein, sugerindo


que, na verdade, o Universo deveria estar em expansão.
Inicialmente o alemão se mostrou cético, mas depois
percebeu que o russo tinha razão – talvez o Universo
pudesse mesmo estar em expansão, mas isso precisaria
ser corroborado por observações

astronômicas.

Seguindo na mesma linha investigativa, Friedmann


sugeriria três possíveis curvaturas para o cosmos – ela
poderia ser positiva, como apontava Einstein, gerando
um Universo fechado sobre si mesmo, mas também
poderia ser negativa, com um cosmos aberto e infinito,
com a forma geométrica de uma sela de cavalo (de novo,
nem tente imaginar isso em quatro dimensões). Entre as
duas, num equilíbrio perfeito, também era admissível um
Universo sem curvatura nenhuma (ou seja, plano) e
infinito – mas igualmente em expansão.
AS TRÊS CURVATURAS POSSÍVEIS PARA O ESPAÇO-
TEMPO NO UNIVERSO: ESFÉRICO

(CURVATURA POSITIVA), PLANO (CURVATURA


ZERO) E HIPERBÓLICO (CURVATURA NEGATIVA).

O jovem e brilhante físico soviético estava certo, mas


morreu precocemente, em 1925, aos 37 anos, e suas
constatações, embora tenham sido publicadas, acabaram
temporariamente esquecidas. Mesmos assim sua
contribuição à cosmologia seria indelével – além de ser o
primeiro a realmente sugerir que o Universo estava em
expansão, ele orientou o doutorado de George Gamow
(1904-1968). Você ouvirá falar dele novamente em
breve. Mas não tão breve.

Em 1927, sem conhecer o trabalho de Friedmann, o


padre e físico belga Georges Lemaître propôs não só que
o Universo devia estar em expansão como adicionou a
essa ideia uma conclusão chocante: um cosmos em
expansão precisa

de um início.

Não é difícil entender de onde saiu a premissa. Se você


tem um Universo que hoje está em expansão, concluirá
que, no passado, ele esteve menos expandido, mais
comprimido. Levando o raciocínio às últimas
consequências, deve ter havido um momento no tempo
em que a compressão era máxima – o cosmos inteiro
estava num único ponto infinitamente quente e denso,
algo que os físicos relativistas chamam hoje de
singularidade. Lemaître ainda não tinha esse linguajar.
Para ele, a singularidade era algo como um “átomo
primordial” ou um

“ovo cósmico”. Nascia a ideia do Big Bang.


Einstein acompanhou de perto todas essas ideias que
desabrochavam de sua teoria, mas se absteve por longos
anos de publicar novos trabalhos a respeito.

Antes mesmo que tudo isso acontecesse, contudo, no


Observatório Lowell, em Flagstaff, no Arizona, o
astrônomo americano Vesto Slipher já estava mostrando
que o Universo, fosse qual fosse sua geometria, tinha
peculiaridades muito estranhas.

Em 1912, ele foi o primeiro a detectar que a luz de


algumas nebulosas sofria um desvio para o vermelho, o
chamado redshift, algo ligado a um fenômeno que
mencionamos brevemente no capítulo anterior, o efeito
Doppler.

Originalmente identificado em 1842 pelo físico austríaco


Christian Doppler (1803-1853) para ondas sonoras, ele é
rotineiramente experimentado por nós quando vemos
uma ambulância passar. Quando ela está se
aproximando, sua sirene escandalosa tem um
determinado tom. E, então, quando ela nos ultrapassa e
começa a se afastar, o tom muda. Uuuuuuóóóoón.

Por que isso acontece? Quando a ambulância está vindo,


as ondas sonoras, propagando-se pelo ar, estão sendo
comprimidas no sentido do movimento, levando o som a
um tom mais agudo; e, quando ela está indo, as mesmas
ondas sonoras se esticam na direção contrária à do
movimento, conduzindo o som da sirene a um tom mais
grave.

Einstein previu que o mesmo fenômeno aconteceria com


as ondas eletromagnéticas, ou seja, a luz, e numa
proporção prevista pela relatividade restrita. Se o objeto
que emitir a luz estiver se movendo na nossa direção, o
comprimento de onda da luz é comprimido, e a luz se
torna mais azulada (que tem comprimento de onda mais
curto no espectro visível). Se, por outro lado, ele estiver
se afastando de nós, o comprimento de onda da luz é
esticado, e a luz se torna mais avermelhada.

A precisão de início não era muito boa, mas Slipher notou


que algumas nebulosas sofriam esse avermelhamento da
luz se comparadas ao espectro do Sol, e isso significava
que elas estavam se afastando de nós a velocidades
apreciáveis. Em compensação, outras, como a Grande
Nebulosa de Andrômeda

– a primeira que ele mediu –, tinham azulamento, sinal


de que estavam se aproximando. O que espantava
nessas medidas não era tanto os desvios, mas o
tamanho deles – muito maiores do que os observados em
estrelas individuais. E, com o passar do tempo e o
aumento do número de nebulosas investigadas, ficou
claro que a imensa maioria estava se afastando – o que
parecia consistente com a ideia de um Universo em
expansão.

HUBBLEEACONFIRMAÇÃODAEXPAN
SÃO

No início dos anos 1920, um astrônomo americano


começava a se destacar por seus trabalhos no
Observatório de Monte Wilson, na Califórnia. Seu nome
era Edwin Hubble (1889-1953).

Entre 1922 e 1923, ele começaria a dar sentido maior à


confusão das medições do avermelhamento, ao
demonstrar conclusivamente que as “nebulosas
espirais”, como eram chamadas na época, eram na
verdade galáxias inteiras, que se localizavam muito além
da nossa Via Láctea.

Até então, a maioria dos astrônomos considerava que a


nossa galáxia era tudo que existia no Universo, e que
todos os objetos que vemos no céu faziam parte dela –
por isso mesmo, a hoje famosa Galáxia de Andrômeda
era conhecida como “Grande Nebulosa de Andrômeda”
nos tempos de Slipher.

Hubble só pôde mudar esse consenso ao encontrar nas


“nebulosas espirais”

certas estrelas classificadas como variáveis cefeidas.


Eram astros marcados pela presença de pulsos regulares
que levavam seu brilho a variar, e o período de pulsação
estava diretamente relacionado à luminosidade. Ou seja,
todas as cefeidas que pulsavam no mesmo ritmo tinham
o mesmo brilho absoluto. Claro, as que estivessem mais
longe teriam um brilho aparente menor, e as que
estivessem mais perto, maior.

Elas serviam, portanto, como velas padrão no Universo –


ao saber o padrão de pulsação e o brilho aparente de
uma variável cefeida, Hubble podia estimar a distância
em que ela estava. E claramente as cefeidas em outras
nebulosas espirais estavam bem mais distantes do que
aquelas localizadas aqui mesmo na Via Láctea. As
distâncias só podiam indicar que as espirais eram, na
realidade, outras Vias Lácteas, num Universo vastamente
maior do que se imaginava até então.

Esse, contudo, era só o começo. Depois disso, Hubble


faria uma comparação entre as distâncias que ele estava
medindo dessas galáxias e o avermelhamento de sua luz,
conforme as observações de Slipher. Surpresa: quanto
mais distante uma galáxia, mais sua luz desviava para o
vermelho, numa relação linear que ficou conhecida mais
tarde como lei de Hubble. O astrônomo publicou sua
descoberta sensacional, feita em parceria com seu
assistente Milton Humason

(1891-1972), nos Proceedings of the National Academy of


Sciences, nos Estados Unidos, em 1929.

O quadro começava a entrar em foco: Lemaître havia


previsto, em seu estudo de 1927, que deveria haver essa
relação entre avermelhamento e distância. E

claramente o desvio para o vermelho das galáxias mais


afastadas não era causado pelo efeito Doppler
tradicional, que envolvia o movimento da fonte de luz.
Isso porque, se fosse esse o caso, teríamos de concluir
que essas galáxias estão se afastando de nós mais
depressa que a própria luz, algo que, como já vimos, é
proibido pela teoria da relatividade.

O que acontecia ali, segundo a teoria, não era um


avermelhamento pelo efeito Doppler, e sim um efeito da
própria expansão do espaço entre nós e a galáxia em
questão, enquanto a luz fazia sua travessia de lá para cá.
Se uma onda eletromagnética cruza o espaço em
expansão, seu próprio comprimento de onda se estica,
levando a um avermelhamento que não tem relação com
a velocidade da fonte.

Em 1931, Hubble e Humason haviam aumentado sua


amostra de galáxias, indo muito mais fundo no espaço, e
determinando a validade da lei de Hubble além de
qualquer dúvida razoável – salvo pelo Universo próximo,
todas as galáxias mais afastadas pareciam estar se
afastando de nós em disparada. E, quanto mais longe
elas estavam, mais rápido avançavam. Em artigo
publicado no Astrophysical Journal, os dois se contiveram
em tirar conclusões além dessa: A contribuição presente
diz respeito à correlação de dados empíricos de
observações. Os autores limitam-se a descrever os
“deslocamentos de velocidade aparente” sem se
aventurar na interpretação e em seu significado
cosmológico. Mais observações são desejáveis e serão
conduzidas, embora seja provável que as características
gerais da relação já estejam rascunhadas quase no limite
dos equipamentos existentes.

Hubble e Humason não queriam dizer com todas as


letras, mas a evidência falava por si mesma: o Universo
estava em expansão.

Era como se o tecido do espaço-tempo fosse um balão


inflável quadridimensional. Como eu não faço ideia de
como seria um balão em quatro dimensões, vamos mais
uma vez lançar mão de nossa pequena trapaça e cortar
uma das dimensões para facilitar o entendimento.
Imagine que as galáxias são lantejoulas, e que você as
colou de forma mais ou menos espaçada numa bexiga
vazia. Então você começa a inflar a bexiga. As galáxias
em si permanecem do mesmo tamanho – as lantejolas
não crescem –, mas o espaço entre elas aumenta em
ritmo exponencial. Se a Terra estiver numa das
lantejoulas, ela verá todas as outras lantejoulas se
afastando, e quanto mais longe uma lantejoula estiver,
mais rápido ela se afasta.
O UNIVERSO EM EXPANSÃO É COMO UM BALÃO
INFLÁVEL. ELE ENCHE E AS

GALÁXIAS SE AFASTAM.

Isso cria a ilusão de que estamos no centro do Universo,


uma vez que tudo parece estar se afastando de nós. Mas
é só uma ilusão. Se você saltar para a galáxia vizinha,
verá a mesma coisa. Mesmo que seja uma galáxia do
outro lado do Universo, sua impressão será a mesma. E
tudo isso concorda com um dos princípios básicos da
relatividade: o de que não há um centro privilegiado para
o Universo; todos os referenciais são igualmente válidos.

Quando Einstein viu esses desenvolvimentos, certamente


bateu com a mão na testa. Em vez de acreditar de saída
no poder de sua teoria da relatividade geral e aceitar que
ela previa a expansão cósmica, ele tinha introduzido a
constante cosmológica para controlá-la. Um erro. Tanto
que, em 1931, Einstein visitou Hubble na Califórnia e,
diante dos resultados, se convenceu de que era hora de
se retratar. Ele declarou, então, ao New York Times: “O
avermelhamento das nebulosas distantes esmagou
minha velha construção como um golpe de martelo.”

A ideia da constante cosmológica estava morta. Mas,


como numa daquelas cenas pós-créditos dos filmes da
Marvel, ela ainda reapareceria dizendo: “Eu voltarei.” (E,
claro, como esse é só um gancho para uma continuação,
retornaremos a esse tema apenas no próximo capítulo.
Você não perde por esperar.)

ESTADOESTACIONÁRIOVERSUSBIG
BANG

O encontro da relatividade geral com as observações


astronômicas indicava além

de qualquer dúvida razoável que o Universo está em


expansão. Mas daí podíamos mesmo concluir, como
Lemaître fez em 1927, que ele teve um início?

Einstein definitivamente achava que não – e a


humanidade só soube que ele tinha essa opinião há
pouco tempo, em 2014, depois que um grupo de
pesquisadores irlandeses e ingleses analisou os arquivos
dos manuscritos do físico, mantidos pela Universidade
Hebraica de Jerusalém.

Em 1931, durante sua estada na Califórnia, Einstein


começou a elaborar um outro modelo cosmológico que
pudesse dar conta da expansão cósmica e ainda assim
preservar algo que ele julgava filosoficamente
fundamental – o Universo devia ser eterno e conservar
sempre a mesma densidade, de forma a não se modificar
com o passar do tempo.
A única forma de costurar tudo era supor que, ao mesmo
tempo em que o Universo se expande, mais matéria é
criada do nada, para manter a densidade constante ao
longo do tempo.

Einstein produziu um manuscrito de quatro páginas com


essa ideia, mas então o abandonou sem publicá-lo. De
acordo com a análise dos cientistas liderados por Cormac
O’Raifeartaigh, do Instituto de Tecnologia de Waterford,
na Irlanda, o alemão descartou a ideia ao encontrar um
erro em seus cálculos que, se corrigido, não produziria o
efeito desejado.

Eles apontam que o modelo poderia ter sido moldado de


forma a funcionar como Einstein desejava se ele
introduzisse um elemento capaz de responder pela
criação espontânea de matéria com a expansão. O físico,
contudo, não deu esse passo e optou por abandonar a
ideia. E faz certo sentido: gato escaldado tem medo de
água fria. Einstein já havia inventado a constante
cosmológica para acochambrar seu modelo do Universo
antes, motivado essencialmente por sua ideologia de
como o cosmos deveria ser. Ele iria repetir a dose 14
anos depois?

Como Jaiminho, o preguiçoso carteiro do seriado Chaves,


ele preferiu evitar a fadiga.

Com isso, a ideia de um Universo em estado estacionário


só apareceria de forma pública e consistente no cenário
da cosmologia em 1948 – 17 anos depois de Einstein
brincar com ela –, pelos trabalhos de Hermann Bondi
(1919-2005), Thomas Gold (1920-2004) e Fred Hoyle
(1915-2001).
Dos três, o crítico mais ferrenho do modelo do Universo
com um marco inicial foi o inglês Fred Hoyle. Ele
considerava esse modelo como nada mais que uma
versão sofisticada de pseudociência, cujo intuito oculto
era o de defender a existência de Deus. Afinal de contas,
um Universo que tem um instante inicial lembra muito
mais os mitos de criação do que um que existiu desde
sempre e existirá para sempre. Também não ajudava a
desfazer essa impressão o fato de um de seus maiores
proponentes ser justamente um padre, o belga Lemaître.

A teoria do estado estacionário criada por Bondi, Gold e


Hoyle conseguia explicar as observações de Hubble sem
conceder à existência de um momento sublime de
criação – algo que pejorativamente Hoyle chamou, em
1949, de Big Bang. O apelido pegou.

Os proponentes do estado estacionário admitiam que


explicar como matéria podia ser criada do nada o tempo
todo não era algo trivial, mas também não era fácil dizer
de onde veio a matéria gerada pela singularidade inicial
do Big Bang.

Então, truco.

Além disso, num primeiro momento, a teoria de Hoyle e


companhia tinha um encaixe até melhor para as
observações astronômicas do que o Big Bang, uma vez
que as primeiras estimativas da constante de Hubble –
número que indica o ritmo de expansão do Universo –
davam uma idade muito pequena para o cosmos, coisa
de 2 bilhões de anos.

Àquela altura, já se sabia que o Sistema Solar era mais


velho que isso – e ele não poderia ser mais velho que o
próprio Universo! Medidas posteriores, mais refinadas,
eliminariam esse conflito de datas, reconciliando a idade
do Sol e de seus planetas com o Big Bang. Mas, na
época, o estado estacionário parecia ter as melhores
cartas na mão.

Bondi, Gold e Hoyle, contudo, não contavam com o


fantasma de Alexander Friedmann puxando o pé deles à
noite. Pois caberia àquele seu aluno de doutorado, o
ucraniano-americano George Gamow, apontar o caminho
para a vitória definitiva do Big Bang.

No fim dos anos 1940, Gamow começou a aplicar o


modelo cosmológico de Friedmann a um princípio do
Universo que fosse incrivelmente denso e quente,
composto somente por radiação e sem matéria. Com seu
colega americano Ralph Alpher (1921-2007), ele calculou
os efeitos que o resfriamento do cosmos em razão da
expansão teria e descobriu que os primeiros momentos
seriam palco de uma intensa conversão de energia em
matéria, explicando o surgimento dos elementos
químicos mais leves do Universo – hidrogênio, hélio e lítio
–, em suas proporções observadas. O resultado foi
publicado em 1948, e o estudo ficou famoso por uma
brincadeira de Gamow: ele convidou seu amigo e físico
nuclear Hans Bethe (1906-2005) a assinar o trabalho,
mesmo sem ter participado dele, só para emparelhar os
autores com as três primeiras letras do alfabeto grego.
Alpher (alfa), Bethe (beta) e Gamow (gama).

O estudo era incapaz de explicar a origem dos demais


elementos químicos, mas Gamow proclamou sucesso ao
declarar que ele era capaz de explicar “99%

do conteúdo do Universo”. Verdade. Mas e o 1%? Fred


Hoyle ofereceu uma ajuda involuntária, ao explicar como
todos os demais elementos químicos seriam forjados, no
coração das estrelas.

A predição mais significativa de Gamow com base na


teoria do Big Bang, contudo, foi originalmente
apresentada dois anos antes, em 1946: ele sugeriu que,
ao começar com um Universo muito denso, quente e
cheio de radiação, ainda existiriam por aí até hoje
partículas de luz provenientes desse período inicial, que
pareceriam vir de todas as direções do espaço – uma
radiação cósmica de fundo.

Diversas estimativas diferentes da temperatura exata


dessa radiação foram feitas ao longo do tempo, por
Gamow e por outros cientistas, mas o mais importante
não era nem a temperatura, e sim a sua própria
existência: em princípio, ela poderia ser detectada, e o
único mecanismo conhecido para produzi-la seria um
estado inicial quente e denso para o Universo. A teoria do
estado estacionário não tinha como explicar algo assim,
caso fosse encontrado.

Em 1965, os radioastrônomos Arno Penzias (1933-) e


Robert Wilson (1936-), trabalhando nos Bell Labs,
detectaram em suas antenas uma interferência
persistente, um ruído do qual não conseguiam de jeito
nenhum se livrar –

acidentalmente, eles haviam encontrado a radiação


cósmica de fundo.

Com temperatura estimada então em 3 Kelvin (ou -270


graus Celsius), ela tinha metade da temperatura que
Gamow tinha previsto, em 1956. Mas o importante é que
ela estava lá, e vinha de todas as direções. Pela
descoberta, Penzias e Wilson ganharam o Prêmio Nobel
em Física de 1978. E marcaram o fim de uma longa
controvérsia: o nosso Universo não só estava em
expansão, como havia mesmo nascido de um Big Bang.

Olhando para trás, é difícil não se emocionar com a


incrível escalada do conhecimento que se produziu
acerca do Universo a partir da relatividade geral.

É verdade que nem sempre Einstein esteve do lado


vencedor durante essas décadas de desenvolvimento da
cosmologia moderna. Mas a última risada ainda estava
por vir, com algo completamente inesperado: a
ressurreição da constante cosmológica.

O ERRO QUE SE REVELOU

UM GRANDE ACERTO

Einstein considerou a ideia da constante cosmológica


como seu maior erro. Mas estava errado: depois da
morte do alemão, ela ressurgiu das cinzas, e hoje nos
ajuda a entender a evolução do Universo e vislumbrar
qual será o seu destino final.

A constante cosmológica era um termo que insistia em


não morrer – para o embaraço de

Einstein, seu criador. O físico George Gamow, que


tivemos o prazer de conhecer no capítulo anterior,
contou em sua autobiografia de uma oportunidade que
teve de discutir questões cosmológicas com Einstein.
“Ele me disse que a introdução do termo cosmológico foi
o maior erro que ele cometeu em sua vida. Mas esse
‘erro’, rejeitado por Einstein, é ainda usado por
cosmólogos, e a constante cosmológica, denotada pela
letra grega λ, mostra sua cabeça feia de novo e de novo
e de novo.”

Para além do brilhantismo, Gamow era conhecido por seu


jeito expressivo, exagerado e brincalhão, de modo que
até hoje historiadores da ciência discutem se Einstein de
fato teria classificado a intervenção que fez na teoria da
relatividade geral em 1917 como o maior erro de sua
carreira.

O certo é que o criador da relatividade geral desde o


início a achava um elemento estranho, que enfeiava sua
teoria, pois era totalmente artificial – não correspondia a
nada do que conhecêssemos na natureza e havia sido
introduzida somente para atender a uma concepção
pessoal de Einstein de como deveria ser o Universo.
Depois de 1931, com a constatação de que o cosmos não
era estático como o alemão desejaria, mas estava de
fato em expansão, Einstein dispensou-a sem qualquer
cerimônia.

Um problema cosmológico essencial, contudo, ainda


permanecia sem resposta.

Como Alexander Friedmann já havia demonstrado na


década de 1920, a teoria permitia três curvaturas
diferentes para o espaço-tempo cósmico. O Universo
poderia ter uma curvatura positiva, o que faria dele uma
esfera em quatro dimensões; uma curvatura negativa,
que daria a ele a forma de uma sela de cavalo; ou ser
totalmente plano, como na boa e velha geometria
euclidiana.

Longe de ser uma questão acadêmica irrelevante, ela era


da maior importância.
Pois, se o Universo fosse positivamente curvo, fechado
sobre si mesmo como uma bola, isso implicava que, em
algum momento do futuro, a expansão seria contida pela
gravidade, e o cosmos passaria a se contrair, até
terminar do mesmo jeito que começou, comprimido num
espaço muito pequeno e ultradenso. Pelo paralelo com o
Big Bang, esse possível destino para o Universo foi
apelidado de Big Crunch – o “grande esmagamento”.

Por outro lado, se a curvatura fosse negativa ou zero, o


destino seria outro – o Universo continuaria a se expandir
para sempre, tornando-se cada vez mais diluído, até que
todas as luzes se apagassem e tivéssemos um imenso
mar sem graça de fótons.

A questão é: em qual desses universos nós de fato


vivemos?

Einstein iniciou o ataque a essa questão em 1932, num


artigo publicado nos Proceedings of the National
Academy of Sciences, dos EUA, em parceria com o
astrônomo holandês Willem de Sitter. Intitulado “A
relação entre a expansão e a densidade média do
Universo”, ele apontava o problema e a semente para
solucioná-lo.

Não há evidência observacional direta para a curvatura,


sendo os únicos dados diretamente observados a
densidade média e a expansão, a segunda das quais
prova que o Universo atual corresponde ao caso não
estático. Fica, portanto, claro que a partir dos dados
diretos de observação não podemos derivar nem o sinal,
nem o valor da curvatura, e surge a questão de se é
possível representar os fatos observados sem sequer
introduzir uma curvatura.
Historicamente, o termo contendo a “constante
cosmológica” λ foi introduzido às equações de campo
para nos permitir abarcar teoricamente a existência de
uma densidade média finita em um Universo estático.

Agora parece que no caso dinâmico esse objetivo pode


ser atingido sem a introdução de λ.

Einstein e De Sitter então chegam ao ponto crucial, em


que, para determinar a curvatura, eles precisam
essencialmente “pesar” o Universo. Se ele tiver uma
quantidade total de matéria suficiente para curvar o
espaço positivamente, ou seja, se sua densidade estiver
acima de um valor crítico, ele no fim das contas
interromperá a expansão e passará a se contrair. Se, por
outro lado, a quantidade total de matéria levar o
Universo a uma densidade abaixo do valor crítico, a
curvatura será negativa e a expansão será eterna. Entre
esses dois casos, há um valor extremamente raro e
delicado, em que a densidade é exatamente o valor
crítico – apenas nessa situação o Universo será plano.

Entenda a noção de “plano” aqui: não estamos dizendo


que ele é um plano bidimensional, achatado. Ele é plano
em todas as dimensões, ou seja, em suas maiores
escalas, o espaço não tem curvatura – e isso vale para
todas as direções.

Partindo disso, eles fazem o primeiro cálculo da


densidade crítica, exigida para que o Universo fosse
plano, e mencionam que o valor “calha de coincidir
exatamente com o limite superior para a densidade
adotado por um de nós”. No caso, era uma estimativa de
De Sitter de quanta massa deveria haver no cosmos.

Eles prosseguem:
A densidade depende das massas presumidas dessas
nebulosas [o termo antigo para “galáxias”, como já
vimos] e da escala de distância, e envolve, sobretudo, a
pressuposição de que toda a massa de matéria no
Universo está concentrada nas nebulosas.

Apesar de admitir a crueza dessa estimativa inicial, o


curto artigo termina num tom otimista: “A curvatura é,
entretanto, essencialmente determinável, e um aumento
na precisão dos dados derivados das observações irá nos
permitir no futuro fixar seu sinal e determinar seu valor.”

O caminho para desvendar o futuro do Universo,


sugeriam Einstein e De Sitter, era tocar para valer o
árduo esforço de “pesar” o Universo inteiro.

Felizmente, a relatividade geral era o instrumento ideal


para isso, uma vez que ela descrevia a ação da
gravidade sobre a matéria. Por exemplo: ao observar
como a massa total de uma galáxia influencia as órbitas
das estrelas que pertencem a ela, seria possível estimar
o valor dessa massa.

Só que aí veio uma surpresa.

AMATÉRIAESCURA

Embora fosse muito difícil enxergar estrelas em outras


galáxias, a não ser que elas fossem exageradamente
brilhantes como as variáveis cefeidas de Hubble ou como
as potentes supernovas (explosões colossais de estrelas
de alta massa), havia um ótimo meio de medir sua
rotação de uma forma geral e assim tentar

“pesá-las” – o efeito Doppler.


Lembra dele? Quando a fonte de luz está se deslocando
na nossa direção, o comprimento de onda é encurtado, e
quando ela está se afastando, ele é esticado.

Assim, se alguém pudesse observar o espectro de partes


diferentes de uma galáxia em rotação, veríamos que a
luz de um lado dela estaria azulada (as estrelas ali estão
vindo) e a do outro lado estaria avermelhada (as estrelas
ali estão indo).

Foi fazendo medições de alta precisão desse efeito que a


astrofísica americana Vera Rubin (1928-2016) notou um
efeito dramático – as regiões mais periféricas dos discos
galácticos giravam mais depressa do que seria esperado.
Era algo tão inesperado que ela passou boa parte das
décadas de 1960 e 1970 colhendo evidências cada vez
mais robustas. Em 1980, ela publicou o estudo definitivo
a respeito, no Astrophysical Journal. Ali, ao apresentar os
padrões de rotação de 21 galáxias de vários raios e
luminosidades, Vera Rubin lançou uma conclusão
estonteante: a maior parte delas precisa conter cinco a
seis vezes mais massa do que era possível ver lá com os
telescópios, na forma de estrelas e gás, para responder
pelos padrões de rotação observados.

É difícil exagerar o choque que a descoberta causou à


física em geral e à cosmologia em particular. Ali estava
uma predição científica de primeira grandeza, viabilizada
pela relatividade: se a teoria está correta, temos de
aceitar que a maior parte da matéria existente em
qualquer galáxia – inclusive na nossa, a Via Láctea – é
simplesmente invisível. Os astrônomos batizaram essa
estranha substância de matéria escura. Mas,
convenhamos, o nome não é muito bom. Ela não é
escura. Transparente e difusa talvez fossem termos
melhores para descrevê-la.
A descoberta de Rubin validou uma série de observações
feitas desde a década

de 1920 – notavelmente pelo astrofísico suíço Fritz


Zwicky (1898-1974), em 1933, ao estudar aglomerados
galácticos – de que o Universo parecia mesmo ter uma
boa quantidade de massa que simplesmente não deixava
sinais nos telescópios.

Desde então, foram se acumulando incontáveis


evidências de que a matéria escura existe mesmo. A
hipótese mais aceita atualmente é de que ela seja feita
por partículas desconhecidas que não interagem com a
luz nem com a matéria convencional (chamada pelos
físicos de bariônica). São descritas pela sigla WIMP
(partículas de matéria fracamente interativas), e a única
coisa apreciável que elas fazem, coletivamente, é
exercer gravidade.

Agora, como fazer para detectar uma partícula que se


recusa a interagir com qualquer instrumento que você
construa? Esse é um grande problema.

Pesquisadores têm desenvolvido desde detectores


diretos – enormes tanques colocados nas profundezas da
Terra na esperança de que alguma partícula de matéria
escura colida exatamente com algum dos átomos em seu
interior e, na marra, produza um sinal da sua existência –
até detectores indiretos – como um colocado na Estação
Espacial Internacional para tentar detectar um excesso
de raios cósmicos resultante da aniquilação de partículas
de matéria escura no espaço profundo.

Uma alternativa seria tentar criar matéria escura em


aceleradores de partículas, como o LHC, o Grande Colisor
de Hádrons, localizado na fronteira entre a França e a
Suíça. Uma vez criadas, as partículas “escuras”
naturalmente fugiriam dos detectores como o diabo da
cruz, mas os físicos poderiam pelo menos detectar o
sumiço de uma pequena parcela de energia do sistema
(obrigado, Einstein, pelo E=mc2!) e concluir que rolou
um lance com a matéria escura por lá.

Até agora, todos os esforços fracassaram. Houve


resultados intrigantes, mas nada conclusivo, o que tem
motivado alguns cientistas até mesmo a questionar a
própria relatividade. Afinal, é com base nela que os
astrônomos estão sugerindo a presença de mais massa
do que enxergamos. Será que, a grandes distâncias,
como nas periferias galácticas e nos aglomerados de
galáxias, a gravidade não é simplesmente mais forte do
que previa a teoria de Einstein, eliminando assim as
discrepâncias?

A maioria dos cientistas, contudo, não está pronta para


se despedir da relatividade, diante do tamanho sucesso
experimental que ela já teve e do fato de que partículas
difíceis de detectar não são exatamente uma novidade.
Estão aí os neutrinos, que só interagem com a matéria
por duas das quatro forças da natureza (a nuclear fraca,
responsável por certos processos de decaimento
radioativo, e a gravidade) e não nos deixam mentir. A
existência deles foi

sugerida em 1930 e a detecção só veio 26 anos depois,


com muito esforço. E

ainda sabemos pouco a respeito deles.

De toda forma, o fenômeno se manifesta como matéria


invisível. E, com base nos cálculos astrofísicos cada vez
mais refinados destinados a “pesar” o Universo e boas
estimativas da constante de Hubble – a taxa de expansão
cósmica –, parecia claro em meados dos anos 1990 que o
cosmos só tinha aproximadamente 20% da densidade
crítica – dos quais apenas a menor parte seria matéria
bariônica; o resto seria matéria escura. Isso sugeria uma
curvatura negativa e uma expansão eterna.

A maior surpresa, entretanto, ainda estava por vir.

ENERGIAESCURA

Como apontado no estudo de Einstein e De Sitter em


1932, calcular a densidade do Universo não dependia só
de “pesá-lo”, mas também de determinar o espaço que
ele ocupa – afinal, densidade nada mais é do que massa
dividida pelo volume.

Ao medir a massa, os astrônomos descobriram a fugidia


matéria escura. E, ao melhorar suas estimativas de
distâncias, acabaram encontrando algo ainda mais
misterioso.

Em seu estudo pioneiro, Edwin Hubble usou as estrelas


variáveis cefeidas como “velas padrão” para determinar
a distância até as galáxias e então comparar com o
avermelhamento da luz. Só que a precisão deixava a
desejar –

tanto que o cálculo inicial de Hubble para a constante


que levou seu nome saiu errado por um fator dez e, por
consequência, dava ao Universo uma idade total muito
pequena – só uns 2 bilhões de anos, totalmente
incompatível com as revelações sobre a idade da própria
Terra.

Com o passar dos anos, a precisão foi aumentando,


conforme os cientistas foram fazendo medições mais
exatas e encontrando velas padrão mais adequadas,
como as supernovas do tipo Ia – detonações que
acontecem em sistemas de duas estrelas, em que uma
delas é um cadáver estelar conhecido como anã branca,
o que restou de um astro de massa comparável à do Sol
que esgotou seu combustível. Por gravidade, esse fóssil
estelar vai roubando matéria da vizinha até atingir massa
crítica e então explodir violentamente.

Como o valor limite para a detonação é sempre o mesmo


(44% maior que a massa do Sol), o brilho das supernovas
Ia é também igual, o que faz delas excelentes referências
para medir a distância das galáxias que as hospedam.

Pois bem. Daí veio a grande surpresa. Num esforço para


refinar a estimativa da constante de Hubble a partir de
supernovas Ia próximas e distantes, o grupo liderado
pelos americanos Adam Riess (1969-) e Brian P. Schmidt
(1967-) fez

uma descoberta inesperada: as supernovas mais


distantes de uma amostra de 50

pareciam estar 10% a 15% mais afastadas do que se


esperaria de um Universo com baixa densidade, bem
abaixo do valor crítico calculado por Einstein e De Sitter,
como parecia ser o caso até então.

Traduzindo: por tudo que se sabia então, os astrônomos


esperavam que a expansão estivesse paulatinamente
sendo freada, como seria o caso se houvesse apenas a
gravidade a exercer força sobre a matéria. Contudo, o
que aquelas supernovas estavam mostrando, ao estarem
mais distantes do que deveriam, é que a expansão do
Universo não estava freando, e sim acelerando, movida
por uma força que age na contramão da gravidade.
Era exatamente isso, sem tirar nem pôr, que Einstein
tinha em mente quando introduziu sua constante
cosmológica – algo para contrabalançar a força
gravitacional. No caso dele, o objetivo era manter o
Universo eternamente estático, algo que evidentemente
estava errado. Mas, na prática, a alteração na teoria da
relatividade geral promovida por seu criador em 1917 só
antecipava uma descoberta que seria feita mais de 80
anos depois. Era o retorno triunfal da constante
cosmológica, agora não mais uma intervenção arbitrária,
mas uma justificada por observações.

As conclusões de Riess e Schmidt foram confirmadas ao


final daquele ano mesmo por um estudo independente
conduzido pelo grupo do americano Saul Perlmutter
(1959-). O Universo estava mesmo em expansão, movido
por algo que os cientistas, de novo por falta de um nome
melhor, decidiram chamar de

“energia escura”. Riess, Schmidt e Perlmutter receberam


o Prêmio Nobel em Física de 2011 por sua descoberta do
Universo em expansão acelerada.

A exemplo da matéria escura, ninguém sabe ainda o que


é a energia escura. A hipótese mais comum entre os
cosmólogos para explicá-la é se apropriar da noção da
mecânica quântica de que nem mesmo o mais perfeito
vazio é realmente vazio – como tudo é probabilidade de
acordo com aquela teoria, mesmo o vácuo, que por
definição é o nada, tem uma chance mínima de ser
alguma coisa. Isso, por sua vez, indica que o vácuo não é
totalmente desprovido de energia. Se a energia escura
for mesmo a própria energia do vácuo, agindo de forma
repulsiva, ela seria totalmente compatível com uma
descrição no formato de constante cosmológica.
Alguns físicos, entretanto, exploram outros conceitos,
como o da chamada

“quintessência”, em que a energia escura seria um


campo inomogêneo, ou seja, que flutuaria no espaço e
no tempo. Se eles estão certos, e uma formulação mais
complexa que a da constante cosmológica será
necessária para descrever o fenômeno, só o futuro dirá.

Seja o que for, o fato objetivo é que a energia escura


completa o inventário de

conteúdo total do Universo. E, adivinhe só, estimativas


feitas levando em consideração a quantidade total de
energia escura sugerida pela aceleração da expansão
indicam que, com ela, a conta fecha num resultado
aparentemente improvável: ao que tudo indica, o
Universo tem exatamente a densidade crítica calculada
por Einstein e De Sitter em 1932!

UMUNIVERSOPLANO

Estudos cada vez mais refinados da radiação cósmica de


fundo indicam que, com toda probabilidade, vivemos
num Universo de curvatura média zero.

A radiação cósmica de fundo, como mencionamos no


capítulo anterior, é uma espécie de “eco” luminoso do
Big Bang. São os primeiros fótons que conseguiram viajar
desimpedidos pelo espaço, conforme o conteúdo do
Universo foi se diluindo, 380 mil anos após seu início
extremamente quente e denso. Uma relíquia do passado
mais remoto do Universo.

Em 2003, um projeto chamado BOOMERanG usou um


balão estratosférico para levar um telescópio a 42 km de
altitude, onde ele iria medir com precisão até então
jamais atingida as pequenas variações de intensidade da
radiação cósmica de fundo, provenientes de flutuações
quânticas impressas no Universo quando ele era um
bebê, em suas primeiras frações de segundo.

Essas medidas puderam confirmar que a geometria do


Universo, ao que tudo indica, é plana. E isso produziu
uma bela evidência independente para a existência da
energia escura. A seguinte: ao medir a curvatura do
cosmos usando a radiação cósmica de fundo, a equipe do
BOOMERanG nos obrigou a aceitar o fato de que a
densidade do Universo está muito próxima do valor
crítico. Para que isso seja verdade, tem de haver algo
além da matéria escura e da matéria bariônica, cuja
soma está bem aquém desse total. A energia escura é a
resposta.

Medidas subsequentes feitas pelos satélites WMAP


(Wilkinson Microwave Anistropy Probe), da Nasa, entre
2001 e 2010, e Planck, da ESA, entre 2009 e 2013,
refinaram ainda mais os mapas do fundo cósmico de
micro-ondas, permitindo estimar com incrível precisão o
balanço geral do Universo.

Combinando os melhores resultados obtidos até aqui,


temos que o cosmos que habitamos nasceu 13,8 bilhões
de anos atrás, é plano, deve se expandir para sempre em
ritmo acelerado e é composto por 4,9% de matéria
bariônica, 26,8%

de matéria escura e 68,3% de energia escura.

Tudo isso é descrito pelo chamado modelo padrão da


cosmologia, conhecido pelo antipático nome ΛCDM, ou
lambda-cold dark matter (por alguma razão passaram a
usar a lambda maiúscula, em vez da minúscula, adotada
por Einstein na formulação inicial). A sigla indica um
modelo de Universo com a energia escura no papel de
constante cosmológica.

Hoje, usando esse modelo, cosmólogos recriam em


simulações de computador a evolução do Universo desde
o Big Bang até o presente com uma desenvoltura tal que
choca: as imagens que a simulação produz são
praticamente indistinguíveis de fotos reais do cosmos
feitas pelo Telescópio Espacial Hubble.

É notável como podemos hoje recontar a história do


Universo inteiro com tamanha riqueza de detalhes. Os
últimos cem anos da cosmologia foram uma montanha-
russa, mas estamos agora chegando a um ponto em que
o quadro começa a ficar cada vez mais claro.

É verdade que há mistérios enormes ainda a serem


resolvidos – mais de 95%

do conteúdo total do cosmos é feito de energia escura e


de matéria escura, coisas que ainda não temos certeza
do que são. Contudo, mesmo que nosso entendimento do
Universo passe por outra revolução como a promovida
por Einstein, é improvável que qualquer descrição futura
do cosmos elimine aspectos fundamentais já
consolidados e compreendidos. As portas que a
relatividade geral abriu, ninguém mais tem como fechar.

E os cientistas enxergam uma beleza intrínseca nos


resultados obtidos até aqui.

Afinal, por que, a despeito de tantas possibilidades, a


densidade do Universo parece ser exatamente o valor
crítico, aquele raro e delicado, que permite ao Universo
ser plano?
Veja só que curioso: o Universo é uma soma de matéria e
energia. Matéria tem sempre um valor positivo, mas
energia pode ter valor positivo ou negativo. Com efeito,
toda a energia potencial gravitacional do cosmos conta
para o lado negativo. E, num Universo com a densidade
crítica, a soma de toda a matéria e toda a energia
positiva e negativa contida nele é exatamente... zero.

Seria isso uma brutal coincidência? Ou é sinal de que o


cosmos nasceu literalmente do nada? Muitos cosmólogos
apostam na segunda hipótese e defendem que o Big
Bang veio de uma flutuação quântica com energia total
zero, do tipo que se esperaria emergir do próprio vácuo,
num espaço-tempo em expansão agressivamente
acelerada.

Também é curioso notar que tanto os instantes iniciais do


Universo (onde só havia radiação, nada de matéria e um
ritmo de expansão alucinante) quanto seu destino final (a
diluição completa, fruto de uma expansão cada vez mais
acelerada) são descritos pela solução cosmológica de De
Sitter apresentada em 1917, aquela para um Universo
livre de matéria, cuja evolução é ditada apenas pela
constante cosmológica.

Outra coincidência? Ou o fim frio, diluído e


aparentemente sem graça do nosso Universo é apenas
um prelúdio da próxima fase? Poderia ele daqui a zilhões
de anos, com mais uma flutuação quântica na hora certa,
dar início ao próximo Big Bang?

Quando nos fazemos perguntas como essa, fica claro não


só o tanto que avançamos na compreensão do Universo,
mas também o quanto é difícil avançar muito mais.
Felizmente, a relatividade geral já nos levou muito longe.
Com ela, investigamos os confins do espaço e do tempo,
a origem e o fim do nosso Universo. E ela não falhou até
agora em nenhum experimento ou observação.

Mas todas as teorias, quando forçadas a seu limite, têm


um ponto de quebra. É

o que vamos ver a seguir, ao mergulharmos nos mais


estranhos corpos celestes do cosmos, onde nem mesmo
a relatividade geral de Einstein ousa penetrar: os buracos
negros.

BURACOS

NEGROS

Como a teoria de Einstein acabou revelando a


possibilidade de objetos astrofísicos que, para qualquer
pessoa sensata, não deveriam existir, mas estão lá.

O ano é 1916. Não bastasse o forte cheiro de queimado,


o ar que envolve um destacamento do

exército alemão na frente de batalha russa é

permeado pela ansiedade. Não que as forças inimigas


estivessem oferecendo grande ameaça à aliança austro-
germânica naquele janeiro. Mas uma guerra é sempre
uma guerra. Ao cair da noite, tentando tirar da cabeça a
presença soturna do ceifeiro da morte, o tenente de
artilharia Karl Schwarzschild brinca com seu novo
passatempo. O matemático judeu-alemão tornado
soldado manipula avidamente as equações da teoria da
relatividade geral, recém-concebidas por seu compatriota
Albert Einstein.
Sem muita dificuldade, ele usa o conjunto de fórmulas
para calcular como a gravidade age em torno das
estrelas. Com a iniciativa, embora não tenha sobrevivido
à guerra para testemunhar, ele se torna o pivô de uma
nova batalha.

Uma que não traria fatalidades, pois não seria travada


com fuzis e canhões, mas com cálculos e observações. E
que perturbaria, e ao mesmo tempo fascinaria, as
mentes de gerações de físicos e astrônomos que viriam
depois dele, se arrastando até os dias de hoje. Nascia a
concepção teórica dos buracos negros.

Schwarzschild queria só demonstrar matematicamente


como a gravidade atuava ao redor e no interior das
estrelas. Ao fazer os cálculos, entretanto, ele descobriu
um incômodo trinco na esmerada vidraça einsteiniana. A
teoria só parecia funcionar para estrelas que tivessem
um raio superior a um determinado valor. Se ele
mantivesse a mesma massa para a estrela, mas
associasse a ela um raio menor do que esse limite, ou
seja, apresentasse um sistema em que muita massa
estivesse concentrada em um espaço muito pequeno,
aumentando absurdamente a densidade do objeto, os
resultados apresentados pela solução de Einstein ao
problema da gravitação simplesmente enlouqueciam.

Os cálculos sugeriam, essencialmente, que, se você


concentrar a matéria radicalmente num espaço muito
pequeno, ela sofrerá um colapso gravitacional
irreversível. Isso a levaria a se concentrar num ponto
infinitamente pequeno e infinitamente denso, enquanto o
espaço-tempo também ganharia uma curvatura infinita
(ou seja, a gravidade tenderia ao infinito). Era a primeira
descrição daquilo que chamamos hoje de buraco negro.
A ideia de um objeto capaz de concentrar a matéria de
forma a criar um campo gravitacional do qual nada
pudesse escapar, nem mesmo a luz, não era exatamente
nova. Em 1783, o filósofo natural britânico John Michell
(1724-1793) já havia levantado essa hipótese, com base
na teoria newtoniana da

gravitação. Outro que aventou a ideia, na mesma época,


foi o francês Pierre-Simon de Laplace. Fazia algum
sentido. Afinal, já se sabia naquela época que a
velocidade da luz era finita, de modo que tudo que era
preciso para imaginar um objeto capaz de capturar a luz
era que ele tivesse um campo gravitacional tão intenso
que a velocidade de escape fosse superior àquela que a
própria luz podia desenvolver no vácuo.

Essas noções acabaram perdendo o sentido no século 19,


quando se consolidou a noção da luz como onda
eletromagnética (algo que, pela física newtoniana, seria
imune a campos gravitacionais), mas elas foram
retomadas, com força total, assim que Einstein
apresentou sua nova solução para a gravitação, a teoria
da relatividade geral.

Os cálculos de Schwarzschild, que apresentavam a noção


de buraco negro, foram apresentados à comunidade
científica com um estrondo. Afinal de contas, sua
descrição era muito mais do que simplesmente um
objeto com gravidade tão forte que nem a luz consegue
escapar. Ele representava tamanha alteração no tecido
do espaço-tempo por conta do buraco negro que, aos
olhos dos cientistas, não poderia ser real – um literal
buraco no tecido do cosmos.

NUM BURACO NEGRO, A CURVATURA É INFINITA. É


COMO SE REALMENTE HOUVESSE

UM BURACO NO ESPAÇO-TEMPO
QUADRIDIMENSIONAL.

Quando Einstein viu as contas de Schwarzchild,


certificou-se de que estavam corretas, mas tratou de
tranquilizar seus colegas, dizendo que tal aberração não
seria possível na natureza. Para fazer do Sol, por
exemplo, um buraco negro, seria necessário comprimir
toda a sua massa a uma esfera com apenas 6 km de
diâmetro. E certamente não haveria como a natureza
produzir algo assim. Ou seja: a primeira abordagem do
problema foi sugerir que nada poderia levar um

objeto astrofísico a atingir um tamanho menor que seu


correspondente raio de Schwarzschild – o raio no qual
uma determinada quantidade de matéria deve ser
espremida para «furar» o tecido do espaço-tempo e criar
um buraco negro.

Mas faltava combinar com o Universo.


ORA,DIREIS,OUVIRESTRELAS

Na época em que a relatividade geral foi formulada,


nosso entendimento sobre o mecanismo de formação e
geração de energia das estrelas ainda era pouco. E foi
necessário desbravar esse mistério para aceitar que
buracos negros são uma possibilidade real. Para isso,
você precisa compreender o que de fato é uma estrela.
Vamos lá.

Como já dissemos dois capítulos atrás, George Gamow


conseguiu mostrar que os momentos iniciais do Big Bang
produziram basicamente dois elementos químicos, com
um tantico de um terceiro: 75% do total era hidrogênio, o
mais leve dos núcleos atômicos, 25% era hélio, o
segundo mais leve, e uma quantidade-traço era de lítio, o
terceiro mais pesado. Conforme o Universo foi se
expandindo e se resfriando, nuvens difusas desses
elementos primordiais se condensaram, pela força da
gravidade, para formar as primeiras estrelas do cosmos.

Uma estrela é basicamente isto: uma bola de gás


hidrogênio, com um pouco de hélio, comprimida pela
ação da gravidade. Só que, conforme a força
gravitacional vai apertando esses astros nascentes, a
pressão e a temperatura em seu núcleo sobem. E, num
determinado ponto desse processo, a milhões de graus
Celsius, surgem as condições para que os átomos de
hidrogênio sejam grudados uns nos outros, produzindo
hélio como resultado. Só que o núcleo atômico resultante
tem menos massa que as partículas separadas que lhe
deram origem, e aí parte dessa energia (calculada, mais
uma vez, pela boa e velha E=mc2) é dissipada como
radiação, emanada do coração da estrela. Essa radiação
é o que faz a estrela brilhar. Mas ela também tem um
papel fundamental, exercendo uma força de dentro para
fora, que compensa a força de fora para dentro que a
gravidade produz. Assim, ao “acender” e iniciar o
processo de fusão nuclear, a estrela se estabiliza em seu
tamanho. Os astrônomos dizem então que ela entrou na
chamada “sequência principal”, que é basicamente o
período de vida estável que ela terá.

O tempo de vida dela dependerá essencialmente da


massa inicial que foi reunida. Mas não se deixe cair na
tentação de pensar que, quanto maior a estrela, mais
tempo ela viverá. Embora astros de alta massa tenham
muito mais hidrogênio para queimar nos processos de
fusão termonuclear, a pressão exercida pela gravidade
também é muito maior, o que faz com que as estrelas

produzam energia num ritmo bem mais acelerado e com


intensidade muito maior.

Em compensação, estrelas de baixa massa têm uma


pressão interna menor, o que faz com que queimem com
mais parcimônia seu hidrogênio. E processos de
convecção (fluxos internos de matéria por conta de
diferenças de temperatura) promovem um constante
reabastecimento do hidrogênio na região do núcleo.

Isso tudo faz com que estrelas de baixa massa vivam


muito mais do que as de alta massa. Enquanto estrelas
azuis, bem maiores que o Sol, vivem menos de 10

milhões de anos, as vermelhas, bem menores que o Sol,


podem viver trilhões de anos. Nosso astro-rei está no
meio do caminho, com seu porte médio, e vive cerca de
10 bilhões de anos, dos quais 4,6 bilhões já se foram.

A questão central aí é: seja qual for o tamanho da sua


estrela, cedo ou tarde o combustível para fusão nuclear
vai acabar. E aí o que acontece? Ela sai da chamada
sequência principal, conforme a força de dentro para fora
que a mantinha estável desaparece, deixando-a ao sabor
da gravidade. O núcleo se contrai e um aumento de
pressão interna nele faz com que ela agora seja capaz de
fundir hélio, mais pesado que o hidrogênio, criando
átomos cada vez maiores.

Esse trabalho extra gera uma pressão para fora que


expande enormemente suas camadas exteriores. Nisso, a
estrela se torna o que os astrônomos chamam de gigante
vermelha. E assim ela viverá por mais algum tempo,
gerando elementos cada vez mais pesados – sódio,
carbono, oxigênio, fósforo e assim por diante,
preenchendo gradualmente uma tabela periódica que,
antes de as estrelas terem surgido, só tinha hidrogênio,
hélio e lítio (os únicos elementos produzidos pelo Big
Bang). Mas uma hora, quando chegamos ao elemento
ferro, a fusão de átomos cada vez mais pesados no
coração da estrela torna-se inviável: seria preciso mais
energia para seguir fundindo-os do que a que seria
gerada por sua fusão. Com sua fonte de energia interna
esgotada, a gigante vermelha vai soprar suas camadas
exteriores e seu núcleo acabará esmagado pela
gravidade, sem dó nem piedade. Imaginava-se que o
único desfecho possível para esse cadáver estelar fosse
tornar-se então uma anã branca – uma massa de matéria
degenerada comprimida pela gravidade e mantida
estável pela chamada pressão de degeneração dos
elétrons, fenômeno previsto pela mecânica quântica que
deriva do fato de que, quando comprimidas, essas
partículas não podem ocupar o mesmo nível de energia.

Esse, contudo, não era o fim da história. Em 1930, então


com apenas 19 anos, o brilhante astrofísico indiano-
americano Subrahmanyan Chandrasekhar (1910-1995),
usando a relatividade restrita, determinou que um corpo
com massa acima de um certo limite, hoje conhecido
como limite de Chandrasekhar (1,4 massa solar), não
permaneceria estável pela pressão de degeneração dos
elétrons. Ou

seja, estaria destinado a um colapso completo sob a


própria gravidade. (Esse processo violento de colapso
seria precedido por uma colossal explosão – uma
supernova. É o mecanismo que, hoje sabemos, produziu
todos os elementos químicos mais pesados que o ferro
encontrados na natureza.) O resultado foi de início
desprezado pela comunidade científica, porque ele
sugeria a inevitabilidade dos buracos negros. Astrofísicos
como Arthur Eddington acreditavam que algum outro
fenômeno, que se tornasse dominante depois que a
pressão de degeneração dos elétrons fosse vencida,
impediria a conversão da estrela num buraco negro. De
fato, acabou-se constatando que, cruzado o limite de
Chandrasekhar, os elétrons eram basicamente afundados
dentro dos prótons, convertendo-os em nêutrons.
Resultado: um cadáver estelar feito totalmente de
nêutrons. Problema resolvido.

O pavor, contudo, voltou a tomar conta da comunidade


astrofísica quando o físico americano J. Robert
Oppenheimer (1904-1967), que depois ficaria famoso por
sua ação como diretor do Projeto Manhattan, responsável
pelo desenvolvimento das primeiras armas atômicas,
calculou que, se a massa do cadáver estelar fosse três
vezes maior do que o Sol, nem mesmo uma estrela de
nêutrons seria estável, e o colapso prosseguiria
desimpedido, levando ao surgimento de um buraco
negro.

Com efeito, nos anos 1960 os astrônomos descobriram


as primeiras estrelas de nêutrons – algumas delas com
um estranho padrão de emissão regular de ondas
eletromagnéticas, que deu a elas o nome de pulsares. E
na década 1970, finalmente, foi encontrado o primeiro
objeto cósmico candidato a buraco negro: o Cygnus X-1.

Ele foi descoberto em 1964. O que os astrônomos


detectaram não era exatamente um astro, mas um ponto
do espaço que emitia copiosas doses de raios X na região
da constelação do Cisne. Observações subsequentes em
1971

mostraram que no local só se via uma estrela


supergigante, incapaz de produzir o fenômeno. Em 1973,
tornou-se consenso de que a estrela, na verdade, era um
sistema binário, e que o segundo objeto ali – o
responsável pelas emissões de raios X – só podia ser um
buraco negro.

O pesadelo de Einstein se tornava realidade.


Imagem NASA, ESA, Martin Kornmesser (ESA/Hubble)

CONCEPÇÃO ARTÍSTICA DE CYGNUS X-1, UMA


ESTRELA GIGANTE SENDO DEVORADA POR UM
BURACO NEGRO. A MATÉRIA SUGADA SE ACUMULA
NUM DISCO AO REDOR

DELE E É ACELERADA A VELOCIDADES PRÓXIMAS À


DA LUZ, EMITINDO COPIOSAS

QUANTIDADES DE RAIOS X.

AGEOMETRIADEUMBURACONEGRO

Resumindo a ópera do segmento anterior: estrelas


nascem da condensação de gás em nebulosas, acendem
e entram na chamada sequência principal. Quando acaba
seu combustível, morrem, e o tipo de morte depende de
sua massa quando termina sua reserva de hidrogênio.
Estrelas como o Sol ou menores encerram sua vida
soprando suavemente suas atmosferas e comprimindo
seus núcleos, mantidos estáveis pela pressão de
degeneração dos elétrons. São anãs brancas.

Se as estrelas são muito maiores do que o Sol, o fim da


vida não é marcado por um suave soprar da atmosfera
exterior, mas por uma explosão violenta, conhecida
como supernova. Nessa hora, a estrela chega a brilhar
mais que todas as outras de sua galáxia juntas. O núcleo,
por sua vez, sofre um colapso. Na melhor das hipóteses,
torna-se uma estrela de nêutrons, que tem um diâmetro
da ordem de uma dezena de quilômetros, mas concentra
massa de dois a três sóis!

Na pior das hipóteses, nada é capaz de conter o colapso


e ela se torna um buraco negro.
De acordo com a relatividade geral, a matéria será toda
comprimida num ponto de volume zero com densidade
infinita. Isso, na prática, quer dizer outra coisa: que não
fazemos ideia do que acontece nesse ponto. Não há
como perscrutar o interior do tal raio de Schwarzschild,
também conhecido como o horizonte de eventos do
buraco negro. Ele pode ser definido basicamente como a

fronteira matemática que separa as coisas que ainda têm


uma esperança de escapar do buraco das que
certamente hão de cair em seu centro, definido, por sua
propriedade de tamanho zero e densidade infinita, como
uma

“singularidade”. Ou seja, cruzou o horizonte de eventos,


já era. Você não volta mais.

Do ponto de vista de quem está fora de um buraco


negro, portanto, e limitado a observar o que está fora do
horizonte de eventos, ele é um objeto extremamente
simples. Apenas três propriedades podem defini-lo: a
rotação, a massa e a carga elétrica. Só. Se dois buracos
negros têm a mesma rotação, a mesma massa e a
mesma carga elétrica, eles são, por definição, gêmeos
idênticos.

Para entender a simplicidade disso, compare com uma


classe mais comum de objetos astrofísicos: os planetas.
Você pode ter um planeta com exatamente a mesma
massa da Terra, o mesmo campo magnético e a mesma
rotação, mas ninguém apostaria que ele será idêntico ao
nosso mundo. Muito pelo contrário.

Há inúmeros fatores que podem diferenciá-lo da Terra,


como a disposição dos continentes, a presença de
oceanos, a composição da atmosfera, o nível de
atividade geológica, e por aí vai.

Não com buracos negros. Eles são básicos. Uma piada


recorrente entre os físicos é dizer que buracos negros
não têm cabelos. Nada pode diferenciar um do outro,
caso as três propriedades citadas há pouco sejam iguais.
Mas, claro, isso não faz deles objetos desinteressantes.
Eles são, possivelmente, os mais fascinantes fenômenos
em todo o Universo – mas isso do lado de dentro. Vamos
agora ver por quê.

MERGULHOSNOBURACONEGRO

Um dos mais fascinantes voos de imaginação propiciados


pela física é especular o que aconteceria se você
tentasse entrar num buraco negro. Mas a primeira coisa
que você deve fazer é escolher bem o buraco. Como
dissemos há pouco, eles têm apenas uns poucos
parâmetros diferentes entre si, mas você deve prestar
especial atenção a um deles: a massa

Buracos negros de massa estelar, ou seja, aqueles que


são resultados do colapso de uma estrela, são uma
péssima pedida. Isso porque o raio de Schwarzschild, que
determina o horizonte de eventos, do buraco negro é
proporcional à massa. Num desses objetos de massa
estelar, ele é tão próximo da singularidade que, antes
mesmo de chegar a ele, as enormes forças sobre sua
espaçonave e seu corpo o destruirão por completo.

Os cientistas chamam isso de espaguetificação, e você


logo vai entender por que o nome é apropriado.
Sabemos, desde Newton, que a intensidade da força

gravitacional é proporcional à massa e inversamente


proporcional ao quadrado da distância. Certo. Num
buraco negro, a massa é tão grande e tão compacta que
há grande variação da intensidade da força gravitacional
mesmo entre pequenas distâncias – digamos, entre os
seus pés e a sua cabeça. Se você está entrando com os
pés primeiro, a gravidade do buraco negro tentará puxar
seus pés com mais força do que o faz com a cabeça e o
resultado, bem, não é dos mais agradáveis. A força
resultante vai basicamente esticar você. E quando digo
esticar, não é como uma coisa engraçadinha de desenho
animado (mesmo que seja “Comichão e Coçadinha”, dos
Simpsons). No fim das contas, o buraco negro de massa
estelar vai transformar você numa fileira de átomos –
num fio de espaguete atômico – antes mesmo que você
chegue ao horizonte de eventos. Há pouca esperança,
portanto, de que sua consciência sobreviva a uma
distância que torne quaisquer efeitos interessantes.

Felizmente, há buracos negros mais amigáveis a uma


excursão. Além dos de massa estelar, sabemos da
existência dos chamados buracos negros supermassivos
(dizem os dicionários de língua portuguesa que o mais
correto seria chamá-los de “supermaciços”, mas os
astrônomos preferem supermassivos, então seguirei com
eles).

Esses gigantes costumam morar no coração de


praticamente todas as galáxias de respeito. A Via Láctea
também tem o seu, identificado pelo nome Sagitário A*,
com massa total de 4 milhões de sóis. Seu diâmetro
estimado – ou seja, o tamanho do horizonte de eventos –
é de 88 milhões de quilômetros. Daria para colocá-lo
confortavelmente entre a Terra e o Sol, e ainda sobraria
quase metade do caminho livre.

Como esses brutamontes cósmicos surgem ainda é fruto


de intensos debates.
Há quem diga que eles se formaram nos primórdios do
Universo, talvez do colapso direto de nuvens de
hidrogênio primevo, e então serviram como sementes
para a estruturação das galáxias em seu redor. E
também há quem defenda que eles começaram
modestos, talvez fruto da detonação das primeiras
supernovas do cosmos, e foram agregando mais e mais
massa pela colisão com outras estrelas e fusão com
outros buracos negros. (Há uma certa predileção por
esse segundo caminho, até porque também existem
evidências de buracos negros de massa intermediária,
com algumas centenas a alguns milhares de sóis, que
parecem residir no interior de enxames de estrelas
conhecidos como aglomerados globulares, e seriam um
perfeito “elo perdido” entre os buracos negros de massa
estelar e os supermassivos.)

Seja como for, está claro que existe uma relação de


dependência entre as galáxias e seus buracos negros
supermassivos – um influi diretamente na evolução do
outro, e vice-versa. Mas o que importa para nós aqui em
nossa

viagem imaginativa é que, com seus horizontes de


eventos mais distantes da singularidade central, eles
permitem que nós nos aproximemos com segurança,
sem sofrer o tal efeito espaguete.

E aí, o que acontece?

Bem, aí entram em ação os efeitos da relatividade geral.


Você, em sua espaçonave bacanuda, não percebe
rigorosamente nada. Incauto, atravessa o horizonte de
eventos e cai no buraco negro como se nada houvesse.
Contudo, um observador externo verá algo bem diferente
e chocante.
Lembra-se de como um campo gravitacional cada vez
mais intenso faz o tempo passar mais e mais devagar?
Pois bem. O relógio da sua espaçonave começa a marcar
o tempo cada vez mais lentamente conforme você se
aproxima do horizonte, se comparado a um relógio mais
distante do buraco negro. Na prática, isso significa que o
dono do relógio mais distante verá você indo cada vez
mais lentamente na direção do buraco negro, até você
parar por completo no horizonte de eventos, como se
tivesse estacionado. Ao mesmo tempo, a gravidade
intensa vai produzir um avermelhamento ( redshift)
gravitacional cada vez maior da luz que é emanada de
sua espaçonave, de forma que ela terá energia cada vez
menor, até se tornar imperceptível. E assim você some
de vista do observador externo, sem que ele jamais veja
você cruzar de fato o horizonte.

Em tese, o tempo congela quando atingimos a fronteira


do horizonte de eventos – é a mesma coisa que acontece
à luz ao viajar na velocidade máxima permitida no
Universo. Ela mesma é incapaz de perceber o tempo.
Mas a pergunta realmente intrigante é: o que há lá
dentro, depois do horizonte?

Seguindo a teoria da relatividade geral e suas equações,


nas formulações mais usuais do problema, só haveria a
singularidade. Em nossa viagem, nós nos
aproximaríamos cada vez mais dela, até que a
espaguetificação acabasse conosco e nossa matéria
dissolvida fosse agregada ao ponto de volume zero e
densidade infinita no fundo “sem fundo” do buraco
negro.

Há, contudo, um problema com essa conclusão. Sabemos


que a relatividade geral é insuficiente para descrever o
ambiente da singularidade. Isso porque, quando as
dimensões são muito pequenas, efeitos quânticos
passam a ser tão relevantes quanto a gravidade para
descrever os fenômenos. E não dispomos de ferramentas
matemáticas para integrar adequadamente nossas duas
teorias-mestras, a relatividade e a mecânica quântica, e
calcular nosso caminho para fora dessa bagunça.

Em suma: os buracos negros são um problema que a


relatividade geral sugere, mas não pode solucionar. E
ninguém pode de fato saber o que rola num buraco
negro. Mas algumas tentativas preliminares de integrar
as duas teorias já conseguiram produzir uma conclusão
surpreendente sobre esses objetos: eles

não são realmente negros.

STEPHENHAWKINGSURFANOHORIZ
ONTEDEEVENTOS

Em 1974, o físico britânico Stephen Hawking (1942-)


publicou um artigo literalmente explosivo na revista
científica Nature. O título: “Explosões de buraco negro?”

Nele, o (hoje famoso, mas então desconhecido)


pesquisador sugeriu que buracos negros, a despeito de
sua capacidade de não deixar nada escapar de sua
gravidade, nem mesmo a luz, emitiam uma forma de
radiação. Com isso, mesmo que levasse zilhões de anos,
um dia eles perderiam toda a energia armazenada em
seu interior e evaporariam.

Isso pode soar bem confuso. Se nada escapa do buraco


negro, como essa radiação pode estar saindo dele? Bem,
ela não está exatamente saindo dele. Está sendo gerada
em sua borda, bem no horizonte de eventos, à custa de
sua própria energia.
É aí que a mecânica quântica entra em cena. Você há de
se recordar do fato de que, segundo essa teoria, nada é
realmente nada, e até mesmo o espaço vazio tem a
probabilidade não nula de ser alguma coisa. Isso faz com
que pares de partículas e antipartículas estejam o tempo
todo pipocando da espuma do vácuo quântico e
desaparecendo em seguida, mantendo a média de
energia zero. Essas partículas são chamadas de virtuais,
justamente por conta dessa existência fugidia e quase
instantânea. Só que, na borda de um buraco negro, o
fenômeno poderia acontecer de modo um pouco
diferente.

Hawking provou que pares de partículas virtuais


formados ali poderiam ser convertidos em partículas
reais, conforme uma delas escapasse para fora do
horizonte de eventos, enquanto a outra fosse capturada
e nunca mais voltasse.

Sem poderem se reunir novamente, elas teriam dois


efeitos notáveis: a partícula que escapasse do buraco
negro pareceria ter sido emitida por ele, e o buraco
negro em si ficaria um cadinho menor, por ter perdido a
energia usada para formar tal partícula. Com o passar de
muito, muito, muito tempo, esse processo poderia levar à
evaporação completa do buraco negro.

A chamada radiação Hawking é um dos fenômenos mais


desconcertantes ligados a esses objetos astrofísicos. A
imensa maioria dos cientistas considera que ela deve
existir mesmo e diversos experimentos que criaram
análogos de buracos negros em laboratório parecem
confirmar as conclusões do físico britânico. Contudo, a
energia total da radiação seria extremamente pequena,
de modo que qualquer esperança de observá-la
diretamente num buraco negro é vã.
Provavelmente por isso, Hawking, apesar de seu
brilhantismo, jamais foi agraciado com um Prêmio Nobel.

(Ainda resta uma esperança, talvez, pela possibilidade de


criar miniburacos negros em aceleradores de partículas,
que se dissipariam em questão de uma fração de
segundo, na forma de radiação Hawking. Mas, até hoje,
nem mesmo o poderoso LHC conseguiu produzir algo que
se assemelhasse a isso e confirmasse a predição.
Provavelmente Hawking, a exemplo de Hubble, terá de
ficar sem seu Nobel mesmo.)

ENTREBURACOSNEGROSEUNIVERS
OS

A essa altura talvez já tenha ocorrido a você que o tema


deste capítulo e dos dois anteriores é, na verdade,
bastante similar. Antes, falávamos do Big Bang, que, ao
menos segundo a relatividade geral, teria começado
numa singularidade. Agora falamos de buracos negros,
que, ao menos segundo a relatividade geral, terminam
numa singularidade. Curiosamente, ambos os fenômenos
– nosso Universo e um buraco negro – têm seus
respectivos horizontes. No caso cosmológico, estamos do
lado de dentro do horizonte, e ele representa o Universo
observável – tudo que está a uma distância tal que a luz
teve tempo de chegar até nós. No caso dos buracos
negros, estamos do lado de fora do horizonte, mas ele
também delimita tudo que podemos ver – o que está
além dele está, literalmente, fora do nosso espaço-
tempo. E o que talvez seja mais chocante: se
estivéssemos do lado de dentro de um buraco negro em
colapso, veríamos o espaço-tempo dele se expandindo,
conforme a curvatura aumenta mais e mais rumo ao
infinito.
Diante dessas coincidências, é perfeitamente legítimo
perguntar: será que estamos dentro de um buraco
negro? Será que o Universo inteiro que habitamos foi
fruto de um buraco negro em colapso em outro universo
que então criou o espaço-tempo que habitamos,
completamente desconectado de seu ponto de origem?

Diversos pesquisadores chegaram a explorar essa ideia.


Stephen Hawking traçou diversos paralelos entre os dois
fenômenos, e o físico americano Lee Smolin (1955-)
chegou a levar a ideia às últimas consequências, ao
propor uma teoria em que universos evoluem, de acordo
com um mecanismo de “seleção natural cosmológica”.
Cada buraco negro produziria dentro de si um Big Bang –

um universo inteiro –, e cada um desses universos teria


um número de

“descendentes” tão grande quanto a quantidade de


buracos negros que ele pudesse gerar – como se os
buracos fossem ovos que ele bota. Isso logo criaria uma
pressão de seleção em que a maioria dos universos seria
exímia fabricante de buracos negros, e isso explicaria as
propriedades que encontramos no nosso –

como qualquer outro universo bem-sucedido na seleção


natural cósmica, ele seria um cosmos otimizado para
produzir buracos negros.

A ideia, claro, é altamente especulativa e, como toda


hipótese envolvendo mais que o nosso Universo,
virtualmente impossível de corroborar por observações.

Por ora, contudo, os astrônomos estão concentrados


numa tarefa mais elementar: enxergar pela primeira vez
um buraco negro diretamente, visualizando seu horizonte
de eventos.
Pois é. Até hoje, quase tudo que sabemos de buracos
negros vem de equações e do estudo da radiação que
seus arredores podem emitir, conforme eles engolem
matéria e formam discos de detritos ao seu redor.
Aceleradas a velocidades relativísticas, essas partículas
emitem quantidades copiosas de raios X e rádio, por
exemplo. Mas ninguém viu a escuridão do próprio
horizonte de eventos de um buraco negro – até agora.

O projeto destinado a tentar realizar esse feito histórico é


o chamado Event Horizon Telescope, um conjunto de
radiotelescópios espalhados pelo mundo para produzir
uma imagem equivalente à que seria obtida se houvesse
uma única antena gigante, do tamanho da separação
máxima entre as antenas do conjunto.

Com ele, os cientistas esperam, entre 2017 e 2018, fazer


uma imagem de Sagitário A*, nosso buraco negro
supermassivo local. Ele está a cerca de 26 mil anos-luz
de distância (perto, em termos cósmicos), no centro da
Via Láctea.

Seria a mais espetacular confirmação dos furos no


espaço-tempo que a relatividade geral, há um século, já
previa.

10

LENTES DE

AUMENTO

CÓSMICAS

Como um efeito previsto por Einstein, então tido só como


curiosidade, tornou-se um instrumento fundamental para
desvendar os segredos do Universo – dos exoplanetas à
expansão do cosmos.

As décadas de 1960 e 1970 viram um despertar do


interesse sobre os buracos negros, como

vimos no capítulo anterior. Por sua vez, esse fascínio


pelos objetos mais densos do Universo, com seus
poderosos campos gravitacionais, levou os cientistas a
relembrar um pequeno trabalho de Einstein, publicado
em 1936, na revista científica americana Science. Seu
título era “Ação similar à de lente por uma estrela pelo
desvio da luz no campo gravitacional”, e estava longe de
ser o escrito mais celebrado do famoso físico. Mas
acabaria tendo importância fundamental para os
modernos estudos dos objetos mais distantes do
Universo.

Einstein começa seu artigo quase confessando seu mais


completo desinteresse, o que chega a ser engraçado:

Algum tempo atrás, R. W. Mandl me fez uma visita e


pediu que eu publicasse os resultados de um pequeno
cálculo que eu havia feito a pedido dele. Essa nota
atende seu desejo.

O físico então se põe a descrever o problema,


imaginando o que aconteceria se uma estrela B, mais
próxima, se colocasse exatamente à frente de uma
estrela A, mais distante, com relação a observadores na
Terra. A exemplo do experimento que primeiro
demonstrou a teoria da relatividade geral, o eclipse solar
de 1919, aqui também veríamos os raios de luz
provenientes da estrela A sendo curvados pelo astro B,
localizado entre nós e A. Só que Einstein demonstrou
que, num alinhamento preciso, a luz de A acabaria sendo
redistribuída na forma de um anel em torno de B, como
se a gravidade agisse como uma lente.

“Segue da lei de desvio que um observador situado


exatamente na extensão da linha central AB perceberá,
em vez de uma estrela pontual A, um círculo luminoso de
raio angular β em torno do centro de B”, escreveu,
explicando logo em seguida o porquê de sua falta de
entusiasmo com o próprio cálculo. “Claro, não há
esperança de observar esse fenômeno diretamente.
Primeiro, muito raramente estaremos perto o suficiente
dessa linha central. Segundo, o ângulo β

desafiará o poder de resolução de nossos instrumentos.”

Se só pudéssemos contar com o efeito gravitacional de


estrelas individuais que se alinhassem perfeitamente, o
pessimismo de Einstein estaria bem fundamentado.
Contudo, o astrônomo suíço-americano Fritz Zwicky logo
percebeu que não seria o caso e, num artigo publicado
no ano seguinte, 1937, apontou que o efeito poderia
permitir que aglomerados de galáxias – imensos
enxames galácticos presos entre si a um centro de
gravidade comum – agissem conjuntamente para
produzir uma lente gravitacional. E não seria uma

coincidência tão grande assim que um aglomerado de


galáxias inteiro estivesse alinhado com qualquer coisa
que estivesse ao fundo.

Ainda assim, Einstein tinha razão numa coisa: não seria


mesmo fácil fazer a detecção do fenômeno. A primeira
descoberta de uma lente gravitacional veio só em 1979,
quando astrônomos usando um telescópio com espelho
de 2,1 metros no Observatório Nacional de Kitt Peak, nos
Estados Unidos, encontraram o que de início pareciam
ser dois objetos muito brilhantes, localizados nas
profundezas do espaço, a 8,7 bilhões de anos-luz da
Terra.

Eram quasares, que durante muito tempo foram um


mistério à parte. Hoje sabemos que eles são os núcleos
ativos de galáxias distantes, que se tornam
extremamente brilhantes e fontes copiosas de rádio por
conta da enorme quantidade de matéria que está sendo
deglutida pelo buraco negro supermassivo que reside em
seu interior.

De toda forma, o que chamou a atenção na descoberta


foi que os dois quasares são virtualmente idênticos – o
que levou os astrônomos a darem a eles o apelido de
Quasar Gêmeo. Mas, curiosamente, entre as imagens dos
dois, e bem mais perto de nós, havia uma galáxia elíptica
gigante, imersa num aglomerado galáctico. Não tardou
para que os pesquisadores percebessem que o Quasar
Gêmeo na verdade era um só, e a imagem dupla era
nada mais que um efeito de lente gravitacional!

Desde então, incontáveis lentes gravitacionais têm sido


detectadas, permitindo que exploremos o Universo de
uma forma que, sem elas, simplesmente não seria
possível.

Logo de saída, só o fato de detectarmos essas lentes


cósmicas já nos dá uma informação importantíssima: a
teoria da relatividade geral opera mesmo a enormes
distâncias, de bilhões de anos-luz. Trata-se de uma
constatação fundamental. Se descobríssemos que ela se
aplica apenas a escalas astronômicas menores, como a
das estrelas mais próximas e do próprio Sistema Solar,
mas falha em distâncias maiores, teríamos de jogar no
lixo todos os nossos modelos cosmológicos sobre a
origem e evolução do Universo. Afinal, a escala não fica
muito maior do que essa.

Além disso, ao observarmos cuidadosamente os efeitos


de lente, podemos deduzir com precisão a quantidade e
a distribuição da matéria no objeto que, com seu campo
gravitacional, está produzindo o efeito. Já discutimos dois
capítulos atrás a importância de “pesar” o Universo e
como essa iniciativa revelou a existência da matéria
escura. As lentes gravitacionais forneceram as melhores
evidências de que elas de fato são uma forma fugidia de
matéria, e não um problema com a teoria.

A vedete, nesse caso em particular, são observações do


chamado Aglomerado

da Bala, que, apesar do nome, consiste em dois


aglomerados de galáxias em processo de colisão, a 3,4
bilhões de anos-luz da Terra. Analisando o padrão de
distribuição de matéria sugerido pelas lentes
gravitacionais, os cientistas concluíram que o impacto
colocou freios à matéria convencional, mas deixou a
matéria escura passar incólume, já que ela praticamente
não interage com nada, fora a gravidade. Resultado:
matéria escura e convencional acabaram bem
separadas, produzindo um padrão de lente que indica a
presença de grande quantidade de massa numa parte do
espaço onde não se vê praticamente nenhuma matéria
comum (“bariônica”, no jargão científico). Dificilmente
uma nova teoria, alternativa à relatividade geral, que
modificasse a ação da gravidade nas maiores escalas
para assim dispensar a existência da matéria escura,
seria capaz de explicar essa observação em particular.
Mesmo que a gravidade fosse mais forte nas escalas
cosmológicas do que sugeriam as previsões de Einstein,
se esse fosse o caso, sua ação devia acompanhar a
distribuição da matéria convencional apenas. Não é o
que vemos nesse caso.

TRÊSTIPOSDELENTES

Hoje, os astrônomos classificam as lentes gravitacionais


em três tipos: forte, fraca e micro.

As fortes são as que produzem as imagens mais


espetaculares – revelando em toda a sua glória os
padrões de anéis e múltiplas imagens descritos por
Einstein.

Elas permitem não só investigar a quantidade de matéria


do objeto que as produz, mas também estudar astros
ainda mais distantes, que dificilmente seriam
observáveis se não houvesse uma lente de aumento
natural a amplificar sua luz.

Diversos estudos diferentes podem ser feitos com as


lentes gravitacionais fortes. Um dos mais interessantes
de que tive notícia foi o realizado pela equipe de Patrick
Kelly, da Universidade da Califórnia em Berkeley. Eles
tiveram a chance de ver um “replay” de uma supernova
que detonou 10 bilhões de anos atrás e já havia
aparecido em uma das múltiplas imagens produzidas
pela lente gravitacional gerada por uma galáxia mais
próxima, mas não em outra.

Modelando a lente gravitacional, eles conseguiram


estimar onde e quando a supernova iria reaparecer. Dito
e feito: conseguiram flagrá-la com o Hubble em 11 de
dezembro de 2015. O astro foi batizado de Refsdal, em
homenagem ao astrônomo norueguês Sjur Refsdal (1935-
2009), que, em 1964, propôs a estratégia para ver
replays de supernovas com lentes gravitacionais.
Outro estudo importante usando lentes fortes foi
publicado em 2017, liderado pelo ganhador do Nobel,
Adam Riess, um dos descobridores da energia escura.

Sua equipe lançou mão de padrões variáveis de brilho de


imagens múltiplas de quasares distantes para calcular,
de forma independente de modelos

cosmológicos, a constante de Hubble – a taxa de


expansão do Universo.

Surpreendentemente, encontraram um valor cerca de


10% acima das melhores estimativas feitas com estudos
da radiação cósmica de fundo. Ou seja, o resultado
parece sugerir que o cosmos está se expandindo um
tantinho mais depressa (e, portanto, seria um cadinho
mais jovem) do que sugere a nossa receita mais aceita
para descrever a evolução do cosmos.

A discrepância, se confirmada (e ainda tem chão pela


frente), pode apontar um caminho para novas revelações
fundamentais na física – talvez a existência de novas
partículas, como aposta Riess, talvez uma pista mais
consistente sobre a natureza da energia escura. Seja
como for, deve abrir caminho para um entendimento
ainda mais refinado e preciso do cosmos.

Acho que você já percebeu o quanto as lentes


gravitacionais fortes são importantes. Mas e as fracas?
Bem, apesar do nome, elas não ficam muito atrás.

As lentes gravitacionais fracas não produzem padrões


tão claros, com arcos, anéis e imagens múltiplas, só
pequenas distorções, que podem ser medidas e
analisadas cuidadosamente para calcular a distribuição
da matéria na região do espaço responsável pela
produção dos efeitos de lente. Mencionei agora há pouco
o Aglomerado da Bala, e sua importância como evidência
da existência de matéria escura. Pois bem, a imagem
dele não releva nenhum efeito de distorção
espalhafatoso. É tudo muito discreto – ou seja, fruto de
lentes gravitacionais fracas. E trata-se do melhor que
temos no momento para nos convencer da existência da
matéria escura.

Por fim, há as microlentes gravitacionais. Essas aí nem


chegam a ser visíveis em imagens. Só podem ser
medidas pela variação de brilho de determinados
objetos. Produzidas por estrelas próximas, essas lentes
se aproximam mais da descrição original de Einstein, em
que um astro da nossa Via Láctea passa à frente de outro
mais distante com relação a nós. E, como o físico alemão
previu, o efeito é diminuto e dificílimo de encontrar e
medir. É extremamente complicado prever em que
momento exatamente estrelas próximas vão ocultar
objetos mais distantes, de modo que o método mais
eficaz para encontrar o fenômeno é procurar “de
baciada”, com pesquisas que rastreiam o céu inteiro em
busca de mudanças súbitas de brilho que resultem de
uma microlente.

Uma vez detectada uma microlente, um alerta é


disparado para toda a comunidade astronômica, de
modo que o maior número de observações do evento
raro possa ser feito. E com fenômenos como esse é
possível, por exemplo, descobrir a presença de planetas
em torno das estrelas causadoras da lente.

A ideia é que, ao passar à frente do astro distante, a


estrela mais próxima faça com que o de fundo fique mais
brilhante, pelo efeito de lente. Contudo, se
houver um planeta ao redor da estrela mais próxima, ele
também produzirá um pequeno e rápido aumento de
brilho, por conta de sua própria gravidade.

Um grande número de descobertas é possível por esse


método, mas ele vem com uma frustração: uma vez que
o alinhamento dos astros se desfaz, os astrônomos
jamais podem estudar o sistema pela mesma técnica
novamente.

De todo modo, está claro que o estudo das lentes


gravitacionais, em suas diversas vertentes, está apenas
começando. Nada mau para um cálculo de verso de
envelope que Einstein só publicou para atender ao
pedido de um amigo.Desde que Galileu apontou sua
luneta para os céus, entre 1609 e 1610, não tínhamos
uma expansão tão grande de horizontes para a pesquisa
astronômica. E o século 21 está só começando. Esse é só
mais um exemplo de como Einstein esteve muito à frente
de seu tempo.

11

ONDAS

GRAVITACIONAIS

Como uma das predições mais sutis de Einstein virou, um


século depois, um dos instrumentos mais poderosos para
o estudo do Universo – talvez permitindo até descobrir o
que existia antes do Big Bang.

As teorias da relatividade – restrita e geral –

permitiram a Albert Einstein e seus colegas fazer


uma série de predições experimentais de difícil teste
sobre a natureza da luz, do espaço, do

tempo e da gravidade. De início, havia forte suspeita de


que esses efeitos seriam tão sutis que jamais poderiam
ser observados. Mas, um a um, eles acabaram
comprovados – graças a novas tecnologias e a métodos
de investigação cada vez mais sofisticados.

Em 1919, a expedição organizada por Dyson e Eddington


fez a primeira dessas demonstrações, ao verificar que a
gravidade do Sol desviava a luz de estrelas distantes
durante um eclipse, na proporção descrita pelas
equações da relatividade. Nos anos 1920 e 1930, vimos
estudos cada vez mais sofisticados do avermelhamento (
redshift) relativístico da luz das galáxias distantes,
confirmando mais uma previsão feita por Einstein com a
teoria e demonstrando que o Universo está em
expansão. Nos anos 1940 já começava a ficar claro que
os buracos negros deviam existir, algo que se confirmou
com evidências observacionais em 1973.

Na década de 1960, aviões transportando relógios


atômicos de precisão confirmaram os efeitos de dilatação
do tempo previstos pela relatividade restrita, e o
princípio de equivalência foi confirmado em 1976 pela
sonda Gravity Probe A, viajando num foguete a até 10
mil km de altitude.

A primeira lente gravitacional foi detectada em 1979, e a


observação de supernovas nos anos 1990 demonstrou
que talvez o “grande erro” de Einstein – a introdução da
constante cosmológica – não fosse um equívoco, afinal.

Em 2004, a Nasa lançou a sonda orbital Gravity Probe B,


com o objetivo de testar predições ainda mais sutis da
relatividade, como o fato de que objetos com massa no
espaço-tempo – como a Terra – podem arrastá-lo
sutilmente ao seu redor, por conta de sua rotação. Os
resultados científicos foram apresentados em 2011, mais
uma vez confirmando de forma dramática a teoria.

Restava, contudo, uma última grande predição a ser


confirmada – uma que, se concretizada, poderia abrir
uma nova janela para a observação e o estudo do
Universo. Estamos falando da detecção direta de ondas
gravitacionais.

VA I - N Ã O - VA I

A previsão de que objetos no espaço-tempo deveriam


produzir marolas nele (do

mesmo modo que, ao atirarmos uma pedra no lago,


vemos a superfície da água ondular em todas as direções
a partir do ponto do impacto) é uma das mais antigas
feitas por Einstein depois da apresentação da
relatividade geral.

Com efeito, no artigo “Integração aproximada das


equações de campo da gravitação”, apresentado em
junho de 1916 à Academia Prussiana de Ciências, o físico
alemão já descrevia uma forma de realizar cálculos de
primeira aproximação (ou seja, sem uma exatidão
arbitrariamente alta) com as complicadas equações e
apresentava algumas das inevitáveis conclusões da
teoria.

Disso derivamos a seguir que os campos gravitacionais


se propagam à velocidade da luz. Subsequentemente a
essa solução geral, vamos investigar as ondas
gravitacionais e como elas se originam.
Ao longo do artigo, Einstein mostra que objetos com
massa poderiam de fato dissipar energia pela emissão de
ondas gravitacionais – uma conclusão que seria
fundamental, mais tarde, para as primeiras tentativas de
confirmar a existência dessas ondas. Naquela época,
contudo, não havia tecnologia para sequer imaginar a
detecção de uma onda gravitacional.

Décadas se passariam nessa situação, sem qualquer


mudança do lado observacional, dando a Einstein a
chance de voltar ao tema, ainda numa abordagem
completamente teórica, em 1936. Trabalhando em
parceria com o físico americano-israelense Nathan Rosen
(1909-1995), o físico chegou à conclusão de que, não, as
ondas gravitacionais não deveriam ser possíveis.

O artigo foi submetido ao periódico americano Physical


Review, que já empregava o método então recente de
“revisão por pares”, em que outros cientistas leem os
artigos e avaliam sua precisão antes de permitir que
sejam publicados. O revisor do trabalho de Einstein e
Rosen, contudo, encontrou um erro e devolveu o
manuscrito com o apontamento. O físico alemão não
estava familiarizado com o procedimento. Ficou furioso
com a “intromissão”. Mas seu assistente, que estava em
contato com o revisor anônimo (o físico e matemático
americano Howard P. Robertson), acabou persuadindo
Einstein de que a crítica estava certa. A dupla, então,
revisou seu artigo, apresentando conclusão
diametralmente oposta: ondas gravitacionais eram,
afinal, possíveis. O rancor de Einstein pelo confronto com
a “revisão por pares” impediu, contudo, que a publicação
fosse feita no Physical Review. Em vez disso, ele e Rosen
escolheram o Journal of the Franklin Institute, e o próprio
resumo do artigo, intitulado
“Sobre ondas gravitacionais” e publicado em janeiro de
1937, dá uma pista das idas e vindas de seus autores
sobre o tema.

A solução rigorosa de ondas gravitacionais cilíndricas é


apresentada. Para a conveniência do leitor, a teoria das
ondas gravitacionais e sua produção, já conhecida em
princípio, é dada na primeira parte do artigo.

Após encontrar relações que lançavam dúvidas sobre a


existência de soluções rigorosas para campos
gravitacionais ondulatórios, investigamos rigorosamente
o caso de ondas gravitacionais cilíndricas. O

desfecho foi que soluções rigorosas existem e que o


problema se reduz às ondas cilíndricas usuais no espaço
euclidiano.

Tirando de lado o palavrório cabeludo de geometria, eles


essencialmente confessam: achávamos de início que não
dava pé, mas acaba que dá. Claro, entre descrever
soluções rigorosas para as ondas gravitacionais e
observá-las, havia uma enorme distância. E a discussão
entre os teóricos sobre a existência ou não das ondas
gravitacionais prosseguiu pelas décadas subsequentes.

Só na década de 1960, alguém teria uma ideia de tentar


realizar uma detecção.

O físico americano Joseph Weber (1919-2000)


desenvolveu um sistema de barras metálicas paralelas
que, em princípio, poderia apontar as pequenas
flutuações no tecido do espaço-tempo geradas pelas
ondas gravitacionais.

Surpreendentemente, o próprio Weber disse ter


detectado sinais consistentes com seus dispositivos ao
longo de vários anos. E era surpreendente mesmo
porque, se os sinais que ele imaginou ter detectado
fossem reais, o Universo seria uma fábrica ubíqua de
ondas gravitacionais, e toda a energia do cosmos seria
dissipada por meio delas em coisa de 50 milhões de
anos. Não fazia o menor sentido.

Adicionalmente, outros experimentadores criaram


dispositivos semelhantes, mas não viam nada do que
Weber dizia detectar. Decerto havia alguma falha
sistêmica que produzia os falsos positivos. As ondas
gravitacionais seguiam como

hipótese não confirmada.

N O M E I O D O C A M I N H O H AV I A U M P U L S
ARBINÁRIO

A astronomia veio ao resgate da física em 1974, quando


Russell Alan Hulse (1950-) e Joseph Hooton Taylor Jr.
(1941-) descobriram o primeiro pulsar binário. Os
pulsares, como já falamos rapidamente dois capítulos
atrás, são estrelas de nêutrons em rápida rotação que,
por conta disso, emitem pulsos regulares de rádio. Ter
dois no mesmo sistema, orbitando um ao redor do outro,
era uma incrível ferramenta para o estudo da gravidade,
pois era possível usar suas pulsações para determinar
com precisão seu movimento orbital. No caso em
questão, apenas a pulsação de um deles era detectável,
mas isso já bastava para calcular a órbita, com base em
atrasos e adiantamentos periódicos no padrão de pulsos.

Uma análise constante desse padrão ao longo de cinco


anos mostrou que o período orbital estava diminuindo –
algo que era exatamente o que previa a relatividade
geral para um sistema daquele tipo. A redução da órbita
seria

resultado direto da dissipação de energia do sistema pela


emissão de ondas gravitacionais.

Era uma evidência indireta, mas ainda assim muito forte,


de sua existência.

Em 1993, a Academia Real de Ciências da Suécia


concedeu a Hulse e Taylor o Prêmio Nobel em Física,
“pela descoberta de um novo tipo de pulsar, uma
descoberta que abriu novas possibilidades para o estudo
da gravitação”. Como se vê, os acadêmicos suecos ainda
não eram capazes de se comprometer especificamente
com a confirmação das ondas gravitacionais – um tema
que já nasceu controverso e se tornou ainda mais
complicado depois das falsas detecções de Joseph Weber.

E M B U S C A D A D E T E C Ç Ã O D I R E T A Nos
anos 1980, impulsionada pela descoberta do pulsar
binário Hulse-Taylor, a comunidade científica americana
começa a se movimentar para a criação de um enorme
detector direto de ondas gravitacionais. Seguindo a trilha
deixada pelo físico americano Kip Thorne (1940-), o
projeto lembra uma versão gigantesca do famoso
interferômetro de Michelson e Morley, que falhou em
detectar o éter luminífero no fim do século 19 e deu
grande impulso ao desenvolvimento da relatividade.

O projeto, chamado LIGO (sigla para Observatório de


Ondas Gravitacionais por Interferômetro de Laser),
patinou durante uma década e meia, até engrenar
finalmente em 1994, com financiamento da Fundação
Nacional de Ciências dos Estados Unidos. Era uma
grande e custosa aposta. Construiriam duas instalações
gêmeas, separadas por uma distância de 3 mil
quilômetros, uma no Estado de Washington, outra no da
Louisiana. O sistema usaria lasers correndo em circuitos
perpendiculares de 4 km, em ida e volta. Qualquer
minúscula variação no comprimento de um dos braços
geraria um padrão de interferência detectável.

A teoria previa que, se essa interferência fosse


provocada por uma onda gravitacional, ela seria
realmente minúscula – estamos falando em algo como
um milésimo do tamanho de um próton.

Em 2002, o sistema estava pronto. Rodadas de


observação foram realizadas até 2010. E nada. Mas a
quantidade de fichas na mesa já estava grande demais
para o grupo do LIGO baixar suas cartas e abandonar o
jogo. Resolveram então realizar uma atualização no
sistema, tornando-o ainda mais sensível. Em 2015,
depois de um investimento de nada modestos US$ 620
milhões, o interferômetro, rebatizado como Advanced
LIGO, voltaria a operar. Uma operação gigantesca,
envolvendo mais de mil cientistas em 16 países –
inclusive no Brasil.

E aí, quase exatamente cem anos após a predição


inaugural de Einstein sobre

as ondas gravitacionais, os cientistas finalmente sairiam


de lá com um straight-flush.

BURACOSNEGROSEMCOLISÃO

Há mais de 1 bilhão de anos, numa parte distante do


Universo, dois buracos negros de porte estelar – mas dos
grandes – espiralaram um na direção do outro e
colidiram. Um deles tinha 29 vezes mais massa que o
Sol; o outro, 36 vezes.
Em sua aproximação final, aceleraram a uma velocidade
enorme e passaram a emitir intensas marolas
gravitacionais pelo espaço-tempo afora, viajando à
velocidade da luz, como predito pela teoria. Terminaram
como um único buraco negro, de 62 massas solares.
Note que estão faltando, nessa conta, três massas
solares – foi exatamente a energia colossal dissipada na
forma de ondas gravitacionais.

Essas ondas encontraram as instalações-gêmeas do LIGO


em 14 de setembro de 2015 – um sinal limpo, perfeito,
completamente consistente com a teoria.

Ainda assim, ressabiados com os falsos positivos do


passado, os pesquisadores passaram bons meses
analisando cuidadosamente a detecção. Depois de todas
as checagens, eles divulgaram a descoberta no dia 11 de
fevereiro de 2016, da forma mais espalhafatosa que um
investimento inicial de US$ 620 milhões poderia
justificar, com publicação simultânea dos resultados no
periódico Physical Review Letters.

Àquela altura, eles tinham razões de sobra para


confiança, pois uma segunda colisão de buracos negros
havia sido detectada pelo observatório em 26 de
dezembro de 2015, dessa vez com objetos menores, com
respectivamente 14 e 8

vezes a massa do Sol.

Com isso, estava definitivamente confirmada uma das


últimas predições remanescentes da teoria da
relatividade geral: de fato, objetos em movimento no
espaço-tempo produzem ondas gravitacionais. Mas o
empolgante nisso tudo, de fato, é a perspectiva que a
detecção das ondas gravitacionais abre para a astrofísica
e a cosmologia do século 21.

Até hoje, os astrônomos têm estudado os objetos


cósmicos baseados fortemente em um único tipo de
sinal: radiação eletromagnética. Começamos com a luz
visível, claro, mas a essa altura nossos instrumentos já
exploram todo o espectro, das micro-ondas aos raios
gama. Cada nova abertura disponível para investigação
gerou surpreendentes descobertas.

As ondas gravitacionais abrem uma nova janela para o


Universo, uma que nos permite estudar objetos
astrofísicos mesmo que eles não emitam nenhuma
radiação eletromagnética detectável. Os buracos negros
são um ótimo exemplo.

Noves fora a radiação Hawking (que provavelmente


nunca será observada no

espaço, embora uma viagem pela história da relatividade


geral nos sugira prudência na hora de dizer a palavra
“nunca”), buracos negros que não estão devorando
matéria são virtualmente invisíveis – exceto pelas ondas
gravitacionais que produzem. Com efeito, a detecção
histórica do LIGO foi a primeira evidência da existência
de pares binários de buracos negros.

Espera-se que detectores como o LIGO possam investigar


fenômenos que hoje são difíceis de observar, como a
colisão de estrelas de nêutrons para formar um buraco
negro, ou mesmo a colisão dos próprios buracos negros.
Se a relatividade geral ensejar alguma correção no
futuro, as pistas podem muito bem vir dos sinais de
ondas gravitacionais.
Mais que isso, o novo campo que se abre oferece o
potencial para que futuros interferômetros espaciais
tenham sensibilidade suficiente para detectar as ondas
gravitacionais geradas pelo próprio Big Bang! Isso nos
fornecerá uma trilha que poderá conduzir a ciência até o
instante exato de nascimento de nosso Universo e até
mesmo vislumbrar o que havia antes dele – se é que
havia algo.

12

MAIS RÁPIDO

QUE A LUZ

Como a teoria da relatividade na verdade não proíbe


deslocamentos a velocidades superiores à da luz –

contanto que você distorça o espaço-tempo

adequadamente para acomodá-los.

Uma das maiores frustrações que entusiastas da


exploração espacial têm com a física moderna é

o limite máximo de velocidade imposto pelo

Universo, revelado de início pela relatividade restrita de


Einstein. Como você há de se lembrar, gastamos uns
bons parágrafos no capítulo 4 para descrever como nada
pode acelerar a uma velocidade superior à da luz, pois
isso exigiria energia infinita para prosseguir acelerando.

Contudo, esse não é um impedimento tão estrito quanto


se poderia imaginar.
Na verdade, as regras desse jogo são fundamentalmente
alteradas quando exploramos todas as consequências da
relatividade geral, mais abrangente.

Claro, a teoria continua sendo sustentada pelos pilares


válidos para sua versão restrita – ou seja, a velocidade
da luz continua sendo um limite máximo para viagens
pelo espaço-tempo. Ninguém que tenha massa pode
atravessar o espaço-tempo mais depressa que a luz, e
esse é um fato definitivo. Sempre que você apostar
corrida com um raio de luz, você estará condenado a
perder.

Mas, calma. A mesma teoria que diz isso também indica


que o espaço e o tempo são maleáveis, flexíveis. Você
pode viajar mais lentamente que a luz, mas o que
acontece se você encurtar o espaço ao longo do seu
trajeto enquanto viaja a uma velocidade inferior à da luz?
Como o espaço foi encurtado, você acaba chegando lá
mais depressa do que a luz levaria se não houvesse a
distorção.

Esse é o segredo para viajar mais depressa que a luz,


sem realmente violar o limite de velocidade imposto pelo
Universo. E não é uma fantasia – é algo que se
materializa na realidade em que vivemos.

Pegue, por exemplo, uma galáxia na borda do Universo


observável. O

horizonte que podemos ver é delimitado justamente pelo


tempo que a luz teve para transitar desde o Big Bang.
Então, se podemos ver essa hipotética galáxia, isso
significa que a luz teve tempo suficiente para chegar até
nós, partindo de sua origem distante mais de 13 bilhões
de anos atrás. Agora, lembre-se: o Universo está em
expansão, o que significa dizer que o próprio espaço que
nos separa dessa galáxia está se esticando. Esse
esticamento é tal que, em algum ponto do futuro, a tal
galáxia estará tão mais longe de nós que a luz dela no
futuro levará mais tempo para chegar até nós do que
levou desde o Big Bang. Ou seja, embora esse objeto
astrofísico em si não esteja viajando pelo espaço a uma
velocidade maior que a da luz, seu afastamento de nós,
por conta do esticamento do espaço, é de fato mais veloz
que a luz.

Um dia, num futuro longínquo (pode colocar trilhões e


trilhões de anos aí na

conta), se o Universo continuar a se expandir como


agora, apenas o sistema galáctico local (provavelmente
já fundido numa imensa e única galáxia) estará dentro do
nosso horizonte observável do cosmos.

Cientistas vivendo nesse futuro teriam, por sua vez,


imensa dificuldade em determinar que viviam num
Universo em expansão, pois não encontrariam galáxias
distantes e avermelhadas, nem uma radiação cósmica de
fundo perceptível.

Eles seriam levados a pensar – como Einstein pensou


antes que todas essas evidências fossem descobertas –
que o Universo era estático e eterno.

É um cenário surpreendente, que ressalta a sorte de


termos surgido relativamente pouco tempo após o Big
Bang – cerca de 13,8 bilhões de anos depois, de acordo
com as estimativas atuais. Fosse muito mais tarde que
isso e poderíamos não ter à nossa disposição
observações suficientes para compreender a natureza do
Universo. (Claro, isso também pode nos levar a pensar
que, se tivéssemos surgido ainda mais cedo, talvez
pudéssemos ter tido acesso a outras observações, hoje já
inviáveis, que revelassem ainda mais detalhes sobre a
evolução cósmica. É possível. Mas não nos prendamos a
isso. Águas de eras cosmológicas passadas não movem
nossos moinhos telescópicos.) Voltando ao tema em
questão: a expansão do Universo demonstra cabalmente
que não há nada proibitivo em realizar travessias mais
rápidas que a luz –

contanto que localmente se respeite o limite de


velocidade. É mais ou menos como estar numa rodovia
que não permita acelerar a mais que 100 km/h. Só que a
própria rodovia, contudo, desliza sobre uma esteira que a
transporta sobre o solo a 90 km/h. Você pode manter seu
veículo a constantes 60 km/h com relação à pista, e
ainda assim avançar tranquilamente a 150 km/h –
portanto, acima do limite de velocidade da rodovia – com
relação ao solo.

A grande questão é: como? Como podemos encurtar o


espaço e com isso viabilizar travessias aparentemente
superluminais, ou seja, mais rápidas que a luz?

As equações da relatividade geral dão uma pista muito


clara. Lembra a definição resumida do físico americano
John Wheeler para a teoria? “O espaço-tempo diz à
matéria como se mover; a matéria diz ao espaço-tempo
como se curvar.”

Em essência, se você distribuir do jeito certo a matéria


(ou a energia, claro, uma vez que são intercambiáveis),
pode conseguir produzir uma curvatura compatível com
uma viagem superluminal.
Na década de 1960, ainda não havia qualquer indício de
que algo desse tipo pudesse ser realizado na prática,
mas foi a premissa adotada pelo escritor Gene
Roddenberry (1921-1991) para a série de TV Jornada nas
Estrelas ( Star Trek).

Ele precisava que sua nave fictícia, a USS Enterprise,


estivesse num sistema planetário diferente a cada
semana. Sabendo que alguns anos-luz separam cada
estrela, o único modo de realizar as travessias no tempo
disponível (e sem causar grandes dilatações temporais)
era imaginar um sistema em que o veículo contraísse o
espaço à frente da nave e o esticasse de volta atrás – a
chamada dobra espacial.

Em 1994, o físico mexicano Miguel Alcubierre (1964-)


publicou um artigo científico no periódico Classical and
Quantum Gravity sugerindo que talvez esse efeito
pudesse ser produzido artificialmente. Ele apresentou
uma solução das equações de Einstein que envolvia um
veículo numa “bolha” de dobra, mantido estável,
enquanto o espaço se comprimia à frente dele e se
expandia atrás. O

resultado final seria uma viagem que, para todos os


efeitos, seria mais rápida que a luz.

Legal, teoricamente possível. Mas praticável? Não hoje. E


talvez jamais seja.

Vejamos o tamanho do enrosco.

Os cálculos iniciais sugeriam que, para criar


artificialmente essa distorção no espaço-tempo, a nave
precisaria dispor de um total de energia maior que a
massa total do Universo observável. Desanimador, não?
Mas fica ainda pior. Alcubierre apontou que seria preciso
ter um tipo exótico de matéria que tivesse energia de
densidade negativa em grandes quantidades, de forma a
produzir a distensão exigida do espaço-tempo.

Até se sabe hoje como gerar quantidades módicas de


energia negativa por meio do chamado efeito Casimir.
Previsto em 1948 pelo físico holandês Hendrik Casimir
(1909-2000), com base na mecânica quântica, ele
descrevia como duas placas metálicas próximas gerariam
uma diferença de pressão fora e dentro do vão entre as
partículas virtuais (aquelas que podem se tornar reais na
borda do buraco negro e virar radiação Hawking,
lembra?), criando um ambiente entre as placas de
energia negativa (considerando a energia normal do
vácuo como valor zero).

O efeito é real e foi observado de forma inequívoca pela


primeira vez em 2007. Mas entre conseguir um tantico
de energia de densidade negativa e o equivalente a toda
a matéria do Universo observável vai uma grande
distância.

Contudo, com o passar dos anos, outros pesquisadores


se debruçaram sobre a trilha aberta por Alcubierre e
conseguiram reduzir a demanda energética. Alguns
cálculos sugeriam a necessidade de algo como a massa
do planeta Júpiter. Menos mal. Mas lembre-se: isso ainda
é muita energia (mais precisamente a massa de Júpiter
multiplicada pelo quadrado da velocidade da luz, como
ensina o E=mc2).

Em 2011, contudo, o físico americano Harold “Sonny”


White, do Centro Espacial Johnson, da Nasa, declarou que
é possível fazer o mesmo serviço,
mudando a configuração do campo de dobra, com
apenas 700 kg de matéria convertidos em energia. Ainda
é um bocado – o equivalente ao consumo total de
energia dos EUA em um ano –, mas já soa menos terrível.
White tem trabalhado desde então em experimentos
para tentar demonstrar que dá para criar uma pequena
dobra espacial em laboratório. Para os testes, ele está
usando um interferômetro de laser. Mas nada conclusivo
saiu de lá até agora, e a imensa maioria da comunidade
científica – incluído aí o próprio Alcubierre – é bem cética
quanto às possibilidades de realmente se colocar em
prática esse método de viagem mais rápida que a luz,
mesmo num futuro longínquo.

Agora, cabe lembrar que, em termos de distorções do


espaço-tempo capazes de produzir travessias
superluminais, a dobra espacial é o método mais suave,
e não o mais radical. A ideia mais louca nasceu mesmo
com Albert Einstein e Nathan Rosen, em 1935.

BURACOSDEMINHOCA

A dupla estava atrás da solução para outro problema –


uma tentativa de conciliar a relatividade geral com a
mecânica quântica, que Einstein acreditava ser uma
teoria incompleta da realidade física. O esforço os levou
ao ato desesperado de tentar descrever partículas como
um fenômeno do espaço-tempo, ou uma ponte ligando
dois espaços paralelos.

Ao ler o artigo de Einstein e Rosen, publicado no Physical


Review, fica clara tanto a motivação dos autores como a
precariedade da solução que eles sugerem.

A despeito de seu grande sucesso em vários campos, a


física teórica presente ainda está longe de fornecer uma
fundação unificada em que o tratamento teórico de todos
os fenômenos poderia ser baseada. Temos uma teoria
relativística geral de fenômenos macroscópicos, que no
entanto até agora foi incapaz de responder pela
estrutura atômica da matéria e pelos efeitos quânticos, e
temos uma teoria quântica, que é capaz de responder
satisfatoriamente por um grande número de fenômenos
atômicos e quânticos, mas que, por sua própria natureza,
é inadequada para o princípio da relatividade. Sob essas
circunstâncias não parece supérfluo levantar a questão
de até que ponto o método da relatividade geral fornece
a possibilidade de responder por fenômenos atômicos. É
para essa possibilidade que desejamos chamar atenção
no presente artigo, a despeito do fato de que não somos
ainda capazes de decidir se essa teoria pode responder
por fenômenos quânticos. A publicação desse método
teórico é de todo modo justificada, em nossa opinião,
porque fornece um procedimento claro, caracterizado por
um mínimo de premissas, sem dificuldades claras de
execução que não sejam de natureza matemática.

Essa descrição geral ficou conhecida como “ponte


Einstein-Rosen”. Ao tentarem explicar com ela o que
percebemos como partículas, os dois criadores do
conceito acabaram abarcando um resultado desenvolvido
pelo físico austríaco Ludwig Flamm (1885-1964), que, já
em 1916, ao comentar sobre a então novíssima
relatividade einsteiniana, apresentava a possibilidade de
soluções das equações de campo da teoria que
permitiam “atalhos” entre pontos diferentes do
espaço-tempo.

Chegou a hora de, mais uma vez, recorrermos à boa e


velha redução de dimensões para visualizar esse troço.
Imagine o nosso Universo como a folha de borracha
bidimensional que nos foi tão útil alguns capítulos atrás.
A essa altura, nós já sabemos que o espaço-tempo pode
ser curvo, de modo que nos concedemos a liberdade de
imaginar essa folha se inclinando sobre si mesma, de
modo que suas duas extremidades opostas fiquem uma
sobre a outra.

A despeito da curvatura, pelo espaço normal, se um raio


de luz fosse disparado de um lado da folha, ele teria de
percorrer toda a sua extensão até chegar ao outro lado.

NUM ESPAÇO CURVO BIDIMENSIONAL, UM RAIO DE


LUZ PRECISA OBEDECER
À GEOMETRIA, MESMO QUE O CAMINHO NÃO
PAREÇA SER O MAIS CURTO PARA QUEM

PERCEBE AS TRÊS DIMENSÕES.

Agora, imagine você se fosse possível produzir uma


distorção acentuada no espaço-tempo, à moda dos
buracos negros, mas que criasse um atalho entre os dois
lados da folha? Essa seria a tal “ponte Einstein-Rosen”,
mais conhecida hoje pelo termo “buraco de minhoca”.
Um raio de luz que entrasse por ele chegaria muito mais
depressa ao outro lado.

UM RAIO DE LUZ PERCORRENDO UM BURACO DE


MINHOCA CHEGARIA BEM MAIS

DEPRESSA QUE UM VIAJANDO “POR FORA”.

A possibilidade, ainda que teórica, de o espaço-tempo


conter atalhos como esse –
capazes de ligar instantaneamente regiões distantes ou
até mesmo, numa hipótese mais arrojada, ligar universos
diferentes – era fascinante demais para ser desprezada
pelos físicos. Embora o trabalho de Einstein e Rosen não
tenha colado como alternativa crível à mecânica
quântica, ele abriu essa nova perspectiva para o espaço-
tempo, e físicos teóricos passaram as décadas seguintes
investigando-a a fundo.

Em 1962, John Wheeler e seu colega Robert Fuller


produziram um trabalho mostrando que uma passagem
dessas, se ligasse duas partes de um mesmo universo,
seria inerentemente instável e nem mesmo uma
partícula de luz seria capaz de atravessá-la antes que o
atalho se fechasse. Foi Wheeler, aliás, quem cunhou o
termo wormhole, traduzido para o português como
buraco de minhoca ou buraco de verme. (O físico
americano realmente tinha talento para dar nome a
objetos relativísticos bizarros; o termo “buraco negro” foi
também ele quem popularizou.)

Em 1988, uma nova reviravolta viria com o físico Kip


Thorne. Ele e seu estudante de doutorado Mike Morris
demonstrariam que, na verdade, havia soluções que
permitiriam buracos de minhoca estáveis e
atravessáveis. Ao fazer isso, eles “redescobriram” um
resultado obscuro obtido em 1973, de forma
independente, por Homer Ellis, nos Estados Unidos, e
Kirill A. Bronnikov, na União Soviética.

A estabilidade dos buracos de minhoca, a exemplo do


que acontece com o

conceito de dobra espacial, exige quantidades


arbitrariamente altas e bem distribuídas de energia
negativa para manter a passagem aberta – o que não é
uma coisa exatamente fácil de se obter e manipular.

Até hoje os físicos teóricos se digladiam com a


possibilidade da existência teórica dos buracos de
minhoca e de suas consequências nada triviais para o
Universo. Contra eles joga o fato de que não conhecemos
nenhum objeto astrofísico capaz de produzir buracos de
minhoca naturalmente (embora alguns cientistas
apostem que estrelas em colapso possam fazer isso, sob
certas circunstâncias). Em favor dos buracos de minhoca,
até hoje não existe um argumento convincente e
definitivo contra a sua existência. E isso, acredite, é
assustador.

Assustador porque, além de os buracos de minhoca


permitirem viagens pelo espaço a velocidades
superluminais, eles também trazem algo muito mais
dramático: a possibilidade de viagens no tempo. E quem
já viu um ou dois filmes de ficção científica sobre
viajantes do tempo sabe muito bem como as coisas
podem ficar confusas e paradoxais nessas horas. Para a
maioria de nós, isso representa só diversão inofensiva.
Para os físicos, contudo, é uma ameaça séria à lógica que
governa o próprio Universo. É o que abordaremos no
próximo capítulo.

13

VIAGENS

NO TEMPO

Como a teoria da relatividade geral comete a temeridade


de não proibir expressamente saltos temporais –
inclusive ao passado.
Como exercício de imaginação, a humanidade vive
viajando no tempo. O estudo da história, da arqueologia,
da antropologia, da paleontologia, da geologia e, em
última instância, da cosmologia são esforços enormes e
ancestrais de vencer as aparentemente intransponíveis
barreiras do tempo e do espaço e, com isso, podermos
pelo menos reconhecer – e compreender – aquilo que já
foi, na esperança de nos permitir prever – ou especular –
sobre o que ainda está por vir.

O tema sempre exerceu enorme fascínio também na


ficção científica. Já citamos, na abertura do capítulo 5,
um trecho presciente do romance A Máquina do Tempo,
de H.G.Wells, que se antecipou a Einstein e Minkowksi na
descrição do tempo como mais uma dimensão do
espaço-tempo. Mas, com a chegada da teoria da
relatividade, o estudo de viagens no tempo tornou-se
realidade, ao menos no campo da matemática. A
terminologia dos cientistas atuais, diga-se, é outra. Eles
preferem chamar a coisa de “curvas temporais
fechadas”, para disfarçar seu real interesse em tamanho
disparate, e não perder financiamento para suas
pesquisas.

Seja como for, compreender a natureza geométrica da


relatividade geral equivale a dizer que não só que
viagens no tempo são possíveis, mas que o impossível,
na verdade, é não viajar pelo tempo. A teoria muda a
relação causal que temos com esse conceito: depois de
Einstein, não é mais o tempo que passa para nós – nós é
que passamos pelo tempo.

Veja: o que estamos fazendo exatamente agora? Você


provavelmente está em repouso, em algum lugar,
segurando este livro (espero que não num ambiente
muito barulhento). Eu, por minha vez, estou neste
momento sentado à frente de uma tela pressionando
teclas que se transformam nas palavras que exprimem
meu raciocínio a você.

(Posso abrir um parêntese meio maluco para comentar


isso? É interessante notar que, do ponto de vista
psicológico, por conta da inexplicável magia da escrita,
tudo isso que mencionei há pouco está acontecendo para
nós ao mesmo tempo; eu estou escrevendo aqui e você
está lendo aí, enquanto passamos exatamente pelas
mesmas palavras. É notável como a escrita nos permite
ignorar a passagem do tempo e, entre outras coisas
fantásticas, travar diálogos com pessoas no passado –
como, por sinal, temos dialogado com Einstein ao longo
de todo este livro. Mas, claro, do ponto de vista
estritamente físico, colocando os eventos num gráfico do
espaço-tempo, decerto eu escrevi o livro bem antes de
você lê-lo. Mas será que foi isso mesmo? Aperte os cintos
aí.) Enquanto eu e você passeamos por esse texto e
estamos parados no espaço,

avançamos de forma inexorável pelo tempo. E agora


avançamos mais dois segundos. E mais um. E mais um.
Somos eternos viajantes do tempo, sempre rumando
para o futuro. O impossível para nós, segundo a
relatividade, é pararmos de viajar no tempo. Para isso,
sugerem as equações, teríamos de viajar à velocidade da
luz – algo que exige energia infinita e, por isso mesmo,
não vai rolar.

Ninguém entende de fato por que estamos sendo


arrastados nessa viagem inercial pelo tempo, sem a
possibilidade de pegarmos outra direção, como podemos
fazer nas três dimensões espaciais. Os físicos debatem
até se existe, de fato, uma direção preferencial para o
fluxo do tempo. Mas o consenso é que essa direção
existe. Temos uma boa evidência disso com base na
segunda lei da termodinâmica. Trata-se de uma lei
empírica que sugere que o Universo sempre tende a um
estado mais desorganizado. Em termos mais técnicos, a
entropia sempre tende a crescer.

É mais ou menos como o meu escritório. Posso gastar


energia para arrumá-lo, mas, se eu deixar para lá por
alguns dias, a tendência é ele ficar cada vez mais
bagunçado – e podemos estimar quanto tempo faz que
ele não é organizado pela quantidade de bagunça que
encontramos. A bagunça sempre aumenta – no meu
escritório e no Universo. Então essa é a direção da seta
do tempo: ela parte de um momento em que a
organização é maior e segue até outro em que a
organização é menor. Se você observar a imagem de um
ovo inteiro, e depois mostram para você uma foto desse
mesmo ovo, só que quebrado, não haverá dúvida sobre
qual foto foi tirada antes. O ovo quebrado
(“desorganizado”) pertence a um momento posterior do
tempo em relação ao ovo intacto.

Ninguém aqui em casa, aliás, acredita que um dia o meu


escritório possa se tornar mais organizado sem alguma
intervenção artificial – e exaustiva. Ele sempre tenderá à
bagunça, até atingir um estado de completa
desorganização.

Nesse ponto a seta do tempo pode até parar de fazer


sentido, já que não haveria estado mais desorganizado
para marcar o momento seguinte. Até esse dia chegar, a
segunda lei da termodinâmica continuará servindo como
uma confirmação evidente de que estamos todos
viajando no tempo, na mesma direção e no mesmo
sentido.
Claro, esse tipo “convencional” de viagem no tempo está
tão incorporado ao nosso dia a dia que nem conta. O que
de fato queremos saber é: seria possível viajar no tempo
mais depressa do que normalmente se viaja? Ou seja,
podemos chegar, digamos, 30 anos no futuro sem ter de
viver 30 anos?

A resposta da relatividade a essa pergunta é um

retumbante “sim!”.

DEVOLTAPARAOFUTURO

Vamos imaginar que, em 1985, você adquire um carro


DeLorean de um cientista maluco endividado de cabelos
brancos. Ele insiste que o automóvel é uma relíquia de
valor inestimável – uma máquina do tempo. E diz que
você pode perfeitamente saltar, digamos, 30 anos no
futuro, chegando a 2015 em apenas três segundos.

Pergunta: isso é possível? Segundo Einstein e a


relatividade restrita, já testada e retestada incontáveis
vezes, claro que sim. Só precisamos que o carro viaje
muito, muito depressa, perto da velocidade da luz. Com
isso, o tempo passará bem mais rápido para quem está
fora do carro do que para quem está dentro.

Assim, enquanto um piscar de olhos transcorreu para


você, 30 anos se passaram para o mundo lá fora.

Chegamos até a apresentar, no capítulo 3, a fórmula que


permite calcular exatamente a velocidade requerida
(minha equação favorita da relatividade restrita,
lembra?). Ei-la novamente:

t’ = t√1 - V2/c2
Refrescando a memória, t’ é o tempo a bordo do
DeLorean, relativo a quem ficou na Terra; t é o tempo da
Terra; V é a velocidade da espaçonave e c é a velocidade
da luz.

Desses aí, sabemos três termos: t, que é 30 anos, t’, que


é 3 segundos (ou, para converter para a mesma unidade,
0,000000095 ano), e c, que é a velocidade da luz.
Queremos calcular V, a velocidade do DeLorean (que vai
aparecer em termos de uma fração de c, portanto a
chamaremos de xc).

Substituindo, sempre dando uma arredondada nos


números cada vez mais cruéis, temos:

0,000000095 = 30√1 - (x2c2/c2) = 30√1 - x2

0,00000000316 = √1 - x2

0,000000003162 = 1 - x2

x2 = 1 - 1,002 × 10-17

x2 = 0,99999999999999999

x = 0,9999999999999999999999999...

Confesso que não fui até a última casa possível na conta,


até porque já vim arredondando ao longo do caminho.
Mas você entendeu o espírito. A velocidade requerida
pelo DeLorean para realizar a travessia para o futuro em
3 segundos é de 99,99999999999...% da velocidade da
luz. Desnecessário dizer que 1,21

gigawatts (a energia que o “capacitor de fluxo” do


DeLorean supostamente exigiria para uma viagem no
tempo) não fará o serviço, de modo que você nem
precisa roubar plutônio de terroristas líbios – algo que,
como sabemos, pode não ser bom para o seu futuro.

O ponto é: não existe impossibilidade física na ideia de


viajar para o futuro.

Muito pelo contrário. Se você levar em conta que


rotineiramente sofre mudanças de velocidade, ainda que
diminutas (digamos, de 60 km/h em um automóvel para
0 lendo este livro em repouso com relação ao solo), você
está sempre sofrendo esses fenômenos de dilatação
temporal – mas numa escala tão pequena que pode ser
desprezada.

Viagens para o futuro não causam grandes problemas


lógicos para o Universo.

A seta do tempo continua andando na mesma direção, as


causas dos eventos sempre antecedem as
consequências, e a entropia da segunda lei da
termodinâmica sempre cresce. A única coisa que muda é
o ritmo com que tudo isso acontece.

Nesse sentido, a relatividade restrita é benigna à nossa


capacidade de estabelecer uma compreensão lógica do
Universo. Até porque, assim como ela nos obriga a
viagens para o futuro, ela nos proíbe de viajar para o
passado.

Seguindo a lógica, se quanto mais nos aproximamos da


velocidade da luz, mais devagar o tempo passa, e
quando atingimos a velocidade da luz o tempo para de
passar, para irmos na direção do passado bastaria
seguirmos acelerando, ultrapassando a velocidade da
luz. Isso, contudo, é proibido pela relatividade restrita.
Então não existe hipótese de você chegar a algum lugar
antes de ter saído.
O problema se complica, contudo, quando saltamos da
relatividade restrita para a relatividade geral. Como
vimos no capítulo anterior, pelo menos em termos
matemáticos ela permite rotas alternativas pelo espaço-
tempo – os tais buracos de minhoca, ou pontes de
Einstein-Rosen. Só que essas estruturas no próprio tecido
do cosmos, se existirem mesmo, permitiriam não só
cobrir distâncias fabulosas mais depressa que a luz como
também abririam as portas para viagens no tempo –
inclusive na direção do passado. E aí as coisas realmente
param de fazer sentido.

DEVOLTAPARAOPASSADO

Sabemos, pela teoria da relatividade geral, que o tempo


passa em ritmos diferentes em lugares diferentes do
Universo, porque o campo gravitacional a que estão
submetidos distorce a passagem do tempo. Por isso aqui
na superfície da Terra, onde o campo gravitacional é mais
intenso, os relógios atômicos (e os convencionais
também) andam mais devagar do que a 20 mil km de
altitude,

onde a gravidade é menos intensa e onde orbitam os


satélites do GPS, ainda que a diferença seja mínima.

Agora imagine que um buraco de minhoca, como os que


descrevemos no capítulo anterior, tenha sido criado há 1
milhão de anos, contados aqui na Terra, por alguma
civilização extraterrestre avançada que eu tenho até
medo de pensar do que seria capaz em termos
tecnológicos. Uma das bocas do buraco de minhoca está,
digamos, nos arredores de Saturno; a outra, na beira de
um buraco negro. (Lá vou eu reciclar exemplos de filmes
de novo. Para quem estiver contando, o anterior foi De
Volta para o Futuro, de Robert Zemeckis, e agora vamos
de Interestelar, de Christopher Nolan.) Lembre-se de que
o tempo passa em ritmos diferentes sob campos
gravitacionais diferentes. A gravidade de Saturno é bem
levinha, se comparada à do buraco negro. O tempo no
sistema saturnino avança praticamente no mesmo ritmo
que aqui na Terra. Mas se a outra ponta estiver
suficientemente perto do horizonte de eventos do buraco
negro, o tempo pode passar imensamente devagar por
lá. Então, nesse 1 milhão de anos que passou desde que
o buraco de minhoca foi criado, lá na ponta do buraco
negro só transcorreram, digamos mil anos. Com um
detalhe: o buraco de minhoca oferece um caminho
alternativo pelo espaço-tempo, em que relógios
posicionados nas duas pontas permanecem
sincronizados entre si. Ou seja, se você pegar a nave
Endurance e mergulhar no buraco de minhoca, quando
chegar lá do outro lado, terá também viajado 999 mil
anos no passado!

Pode-se argumentar que essa é uma forma meio sem


graça – e por outro lado logicamente segura – de viajar
pelo tempo, uma vez que você não pode voltar ao
passado da sua própria região de origem no espaço e
bagunçar por lá as relações de causa e efeito. Afinal, se
você pegar a Endurance e fizer o caminho de volta,
retornará ao “futuro” do Sistema Solar, e não ao passado.

Por outro lado, o físico americano Kip Thorne, de quem já


falamos em capítulos anteriores, levou essa ideia às
últimas consequências em seu livro Black Holes and Time
Warps (Buracos Negros e Deformações do Tempo, sem
edição brasileira), de 1994. Ele propõe um modo de
transformar buracos de minhoca em máquinas do tempo
locais.
Imagine agora – como fez Thorne – a criação de um
buraco de minhoca que ligue a sala da sua casa a uma
espaçonave que está pousada no seu quintal.

Nesse momento, o tempo está passando no mesmo ritmo


nas duas pontas, então tudo tranquilo, tudo favorável.
Mas aí você despacha a espaçonave com uma das bocas
da ponte Einstein-Rosen para as profundezas do espaço a
uma velocidade próxima à da luz. O tempo começa a
passar mais devagar a bordo, e logo há um diferencial.
Enquanto dez anos se passaram na sua sala, dez minutos
transcorreram na espaçonave, que agora resolve fazer o
caminho de volta para a

Terra. Mais dez minutos a bordo, mais uma década na


sua sala.

Você olha para o interior do buraco na sala e constata,


passados 20 minutos, que a nave já pousou de volta no
quintal. Corre então para vê-la, mas, ao abrir a porta da
rua, constata que a nave ainda não chegou. Claro! O
diferencial de tempo! A nave só chegará em duas
décadas!

De volta à sala, você se dá conta de que não precisa


esperar o retorno da espaçonave. Basta você atravessar
o buraco de minhoca e estará a bordo dela, no que, do
seu ponto de vista, será a Terra em 2037. Legal. Você faz
a travessia com confiança e, de lá, abre a escotilha da
sua nave para uma visita ao futuro. Em seu passeio pela
cidade, você decide comprar, sei lá, um almanaque com
todos os resultados esportivos dos últimos 20 anos (a R$
4.000, por conta da inflação de duas décadas, mas
parece um bom investimento). Depois, retorna para casa
e fica feliz em constatar que sua nave ainda está lá,
pousada no quintal. Como esperado, no interior dela, lá
está uma das bocas do buraco de minhoca. Você o
atravessa e está de volta à sua sala de estar, em 2017 –
de volta ao passado! (E

com um guia para ficar milionário com apostas em jogos


esportivos.) É verdade que mesmo essa versão de
máquina do tempo tem suas limitações –

você jamais poderia retornar a um ponto anterior à


própria criação dela. Mas o que ela permite – e isso é
apavorante – é que informações do futuro – digamos, um

almanaque

de

esportes

cheguem

ao

passado,

alterando-o

irremediavelmente.

P A R A D O X O D O AV Ô

Este é, em essência, o principal problema para conciliar


as viagens no tempo para o passado com tudo que
vemos no Universo: o fato de que ele pode inverter
relações de causa e efeito. Para um observador no
espaço-tempo convencional, a causa para o seu
enriquecimento miraculoso – a compra do almanaque –
acontece depois que você consegue ganhar seu primeiro
milhão com ela. Para você, alternativamente, a relação
de causa e efeito é preservada – primeiro você viaja para
o futuro, depois você retorna ao passado. Nesse caso em
particular, as histórias são potencialmente reconciliáveis.
Mas há casos em que não são. Quer ver?

Imagine repetir a mesma história. Cria-se um buraco de


minhoca, uma ponta na sua sala, outra na espaçonave.
Vinte minutos depois, você vê pela passagem na sala
que seu veículo espaço-temporal retornou e está
pousado no seu quintal, todo pimpão. Uma olhada pela
janela da casa, e nada – por lá, a nave só vai retornar em
20 anos. Só que você decide que vai desafiar a lógica do
espaço-tempo e, munido da informação de que a nave
“já pousou” em seu quintal daqui a 20 anos, decide
detonar uma bomba atômica no local (não tente isso em
casa) e

abrir uma cratera profunda onde antes havia o seu


quintal.

Bum! Aí essa nave não pousa mais. Mas, espera um


pouco. Como então terá sido possível a você ter visto a
nave pousada no quintal pelo buraco de minhoca em
primeiro lugar, se você impediu que ela realizasse o
pouso? E, se o pouso foi impedido, então você jamais a
teria visto aterrissada lá, o que não o motivaria a
explodir seu quintal. Alguma coisa, claramente, está fora
da ordem.

Essa é uma versão mais amena do famoso “paradoxo do


avô” – aquele em que você viaja ao passado e previne
que seus avós se conheçam e se apaixonem (ou seus
pais, como aconteceu com Marty McFly em De Volta para
o Futuro). Se isso jamais acontece, afinal, você não
nasceu, de modo que jamais poderia voltar no tempo
para separar seus avós, e por aí vai, num ciclo
interminável e insolúvel.

A relatividade geral, como Kip Thorne demonstrou tão


bem, não proíbe isso (pelo exemplo dele, você não
poderia matar seu avô; mas seu neto poderia voltar para
te matar, caso a máquina do tempo de buraco de
minhoca seja inventada hoje). Mas, convenhamos, a
relatividade geral deveria proibir algo assim. Por essa
razão, muitos cientistas imaginam que exista alguma lei
da natureza, ainda desconhecida, que barre a ocorrência
de episódios como esse, capazes de eliminar a clara
relação entre causa e efeito existente no Universo.

Sintetizando esse pensamento, Stephen Hawking criou o


que ele chama de Conjectura de Proteção Cronológica,
uma suposta lei física que impediria absurdos como o
paradoxo enfrentado por Marty McFly.

Na opinião do físico neozelandês Matt Visser, um dos


maiores pesquisadores de buracos de minhoca da
atualidade, ela faz todo o sentido. Visser descobriu que
uma quantidade bem pequena de matéria exótica, capaz
de ter densidade de energia negativa (como discutimos
no capítulo anterior) já poderia manter uma dessas
passagens abertas. O resultado traz uma perspectiva
otimista para potenciais viajantes no tempo: em se
tratando de uma substância que ninguém nunca viu,
quanto menos você precisar, melhor. Mesmo assim, ele
não acredita que seja fisicamente possível viajar rumo ao
passado e defende que a conjectura de Hawking seja
elevada a um Princípio de Proteção Cronológica.

Game over? Talvez não. Gostem ou não os físicos, há


coisas muito estranhas acontecendo na natureza que nos
fazem pensar a respeito do tema. Sobretudo quando
adentramos no pantanoso terreno da mecânica quântica.
Passamos alguns capítulos longe dele, mas nunca é tarde
demais para retornar. Ou cedo demais, dependendo de
que ponto do tempo você vem.

Vamos em frente.

14

UM NOVO ESTADO

DA MATÉRIA

Como Einstein previu que, ao levar certos elementos a


temperaturas próximas do zero absoluto, efeitos

quânticos produziriam um novo e até então


desconhecido estado da matéria.

Em seu início trepidante, a física quântica teve Einstein


como um de seus maiores defensores.

Como vimos no capítulo 2, o conceito de que a radiação


era emitida em pacotes limitados e indivisíveis de
energia foi criado pelo alemão Max Planck, mas como um
ato desesperado para explicar o espectro dos chamados
corpos negros.

Pressupor a descontinuidade da radiação era um truque


matemático que ajudava a explicar as observações, mas
decerto, na cabeça de Planck, não passava disso –

um truque.

Foi Einstein o primeiro a realmente levar a sério a


materialidade dos quanta e descrever a luz como feita de
partículas – que ele então chamou de quanta de luz, e
hoje nós chamamos de fótons – para explicar o efeito
fotoelétrico. Isso, claro, contradizia tudo que sabíamos
sobre a luz até então. Segundo a teoria eletrodinâmica
clássica, a luz era uma onda eletromagnética, conforme
descrita pelas equações de James Clerk Maxwell, e não
uma partícula, como já defendia no século 17 Isaac
Newton.

Essa dualidade onda-partícula, tornada evidente, causou


certa confusão aos físicos. Durante um bom tempo, eles
achavam que a luz só poderia ser uma coisa ou outra, e
não as duas, e uma das descrições seria apenas um jogo
matemático útil, sem base na realidade.

Enquanto a maioria dos físicos advogava contra a


realidade do quantum, Einstein defendia que a luz
deveria, sim, ser uma partícula, mas que de algum modo
também podia se comportar como onda, seguindo as
equações de Maxwell. Mas ele sabia da precariedade da
ideia. Foi nesse estado de espírito que, em 1924, ele
recebeu uma correspondência de Satyendra Nath Bose
(1894-1974), um físico da Universidade de Dacca, na
Índia, com um artigo científico em anexo.

Nele, Bose descrevia a distribuição estatística dos fótons


e a partir dela derivava a lei de radiação quântica de
Planck sem precisar lançar mão de qualquer referência à
física clássica. Ou seja, sem precisar de Maxwell e de sua
eletrodinâmica. Era uma descrição completamente
independente da luz como fenômeno quântico –
partícula, além de onda. Einstein ficou tão impressionado
com o trabalho, escrito em inglês, que o traduziu
pessoalmente para o alemão e o submeteu, em nome de
Bose, ao periódico Zeitschriff für Physik, onde ele foi
publicado.
Einstein então percebeu que a descrição estatística feita
por Bose seria aplicável a qualquer outra partícula que, a
exemplo do fóton, tivesse spin inteiro.

Pausa para falar de spin, né? É uma das propriedades


básicas de todas as

partículas, sejam elas átomos inteiros, prótons, nêutrons,


elétrons, e por aí vai.

Ela descreve essencialmente a orientação que uma


partícula assume quando exposta a um campo
eletromagnético. Inicialmente pensava-se nessa
propriedade como uma versão miniatura da rotação dos
planetas – seguindo aquele modelo clássico (e errado,
por sinal) do átomo como um sistema solar em
miniatura.

Hoje sabemos que não é bem assim – como aliás, no


mundo quântico, nada é bem assim como somos capazes
de imaginar classicamente.

Enfim, o ponto importante aqui é que algumas partículas


só podiam ter spins que fossem múltiplos inteiros da
constante de Planck, e por isso foram denominadas
genericamente de bósons, em homenagem a Bose. O
fóton é um bóson. O glúon – partícula que transmite a
força nuclear forte, que mantém prótons e nêutrons
grudados uns nos outros no núcleo atômico – é um
bóson. A partícula de Higgs, de que tanto ouvimos falar
recentemente, é um bóson. E até mesmo alguns núcleos
atômicos inteiros, como o do hélio-4, é um bóson.

Em contrapartida, há partículas que só têm spins


fracionados. Entre elas podemos citar os elétrons, os
prótons e nêutrons e seus componentes básicos, os
quarks, e todo núcleo atômico que tiver número ímpar de
partículas. A eles se dá o nome de férmions, porque eles
obedecem à estatística de Fermi-Dirac, em oposição aos
bósons, que obedecem à estatística de Bose-Einstein.

E assim, após esse breve interlúdio sobre spin (e como


ele determina o que é um bóson), retornamos às
consequências importantes descobertas por Einstein ao
generalizar o trabalho de Bose para outras partículas que
não fossem o fóton.

Ele descobriu, e publicou numa série de dois artigos em


1924 e 1925, que, se um grupo de partículas bosônicas
de um gás fosse suficientemente resfriado –

atingindo temperaturas próximas do zero absoluto, que


em tese representa a ausência total de movimento das
partículas –, esse gás produziria um novo estado da
matéria, algo que hoje chamamos de condensado de
Bose-Einstein.

ASFASESDAMATÉRIA

Aprendemos desde cedo na escola os três estados mais


comuns da matéria, aqueles com que nos familiarizamos
no dia a dia: sólido, líquido e gasoso. De uma forma
geral, eles são determinados pela temperatura, que por
sua vez, como já dissemos, é definida como o grau de
agitação das partículas de um material.

Então, num gás, as partículas estão mais agitadas. Ao


serem resfriadas, reduzem seu nível de agitação até
atingirem uma transição de fase, e com isso passarem ao
estado líquido. Seguindo com o resfriamento, elas farão
outra transição, para o estado sólido.

No final do século 19, alguns físicos notaram que a


matéria ainda poderia se apresentar num quarto estado,
mais energético que o gasoso, algo que o físico

americano Irving Langmuir (1881-1957) batizou, em


1928, de plasma. Trata-se de um gás tão quente, tão
quente, tão quente que é quase como se as partículas
tivessem tomado metanfetaminas – não conseguem
parar no lugar, de jeito nenhum. Isso faz com que os
elétrons se desgarrem dos núcleos atômicos e fluam
soltos. É disso, em essência, que são feitos o Sol e as
outras estrelas –

plasmas de hidrogênio e hélio com uma pitada de outros


elementos. Daí é fácil dizer que os plasmas são o estado
mais comum da matéria convencional no Universo.
(Vamos excluir a matéria escura do papo, uma vez que
nem sabemos direito de que se trata no momento ou se
é que existe mesmo, embora tudo pareça sugerir que
sim.)

E nos televisores de plasma tem plasma de verdade. Aí


você pode se perguntar: mas plasma não é muito, muito
quente? É. Mas tenha em mente que a definição diz
respeito à agitação das partículas. Se o seu plasma é
pouco denso –

ou seja, tem poucas partículas em contraste com o


volume que ocupa –, ainda que a energia individual de
cada partícula esteja lá em cima, a soma é pequena a
ponto de seu televisor não correr o risco de derreter.

Bem, temos portanto os estados sólido, líquido, gasoso e


plasma, todos a essa altura bastante conhecidos e cada
um com propriedades atraentes para as mais variadas
aplicações. Mas então Einstein, baseando-se nos cálculos
estatísticos feitos por ele e Bose inspirados na física
quântica, sugeriu um quinto estado.
O condensado de Bose-Einstein, de acordo com os
cálculos, só apareceria se fosse possível resfriar um gás a
uma fração da temperatura zero (medida em Kelvin, a
escala absoluta). Na prática, significa resfriar tanto as
partículas de forma a reduzi-las a seu estado de
excitação quântica mais baixo possível, e com isso
aproximá-las tanto umas das outras que as ondas
correspondentes de cada uma delas começariam a se
influenciar umas às outras, até que todas estivessem
seguindo a mesma onda. Algo como transformar um
agregado de átomos num grupo de partículas uníssonas,
com uma única onda quântica. Ou um só átomo gigante.

Era – e continua sendo – uma ideia muito louca. Mas


tinha poder explicativo.

Em 1938, o físico alemão Fritz London (1900-1954)


sugeriu que a condensação de Bose-Einstein podia
explicar algumas observações, como a superfluidez
descoberta em hélio-4 líquido – o fato de que ele, numa
temperatura suficientemente baixa, fluía com
viscosidade zero, ou seja, sem perda de energia cinética
em seu movimento, como se não houvesse fricção no
líquido. Faltava, contudo, confirmar que o tal condensado
podia mesmo existir.

SETEDÉCADASDEPOIS...

Somente 70 anos após a publicação da ideia original, um


condensado de Bose-

Einstein seria criado e observado em laboratório:


aconteceu pela primeira vez em junho de 1995, na
Universidade do Colorado, nos Estados Unidos, pelas
mãos de Eric A. Cornell (1961-) e Carl E. Wieman (1951-).
Eles usaram átomos de rubídio-87 cuidadosamente
resfriados por um esquema de campos magnéticos de
modo a não permitir, em primeiro lugar, que o gás
formado se liquefizesse e depois se solidificasse, antes
de atingir a temperatura absurdamente baixa – 170

nanokelvins, ou 170 bilionésimos de Kelvin – em que


haveria condensação de Bose-Einstein.

Pouco tempo depois, Wolfgang Ketterle (1957-), no MIT


(Instituto de Tecnologia de Massachusetts) reproduziria o
feito com átomos de sódio-23, usando lasers além de
campos magnéticos para aprisionar o material, e
descreveria diversas das propriedades do condensado
obtido. Por essa realização histórica, ele, Cornell e
Wieman ganharam o Prêmio Nobel de Física de 2001.

Uma escolha quase instantânea em se tratando do


comitê da Academia Real de Ciências da Suécia – seis
anos.

Na ocasião da premiação, tive a oportunidade de


entrevistar Ketterle e perguntar a ele sobre o potencial
daquelas pesquisas. Ele me disse: “A obtenção do
condensado de Bose-Einstein vai ao cerne do estudo dos
átomos – é um meio sem precedentes de controlá-los. E
os átomos são peças que constroem a natureza. Alguns
pesquisadores estão especulando que talvez essas
técnicas possam ser usadas em nanotecnologia, talvez
até em computação quântica. Mais realisticamente, eles
poderiam ser usados para medições de precisão, como
relógios atômicos.”

De fato, o estudo dos condensados tem revelado


propriedades surpreendentes.

Além da superfluidez, ele também abre uma janela para


a melhor compreensão da supercondutividade – a
capacidade que um material pode adquirir de permitir a
passagem de corrente elétrica sem resistência –, que já
tem hoje aplicações práticas importantes. Observações
da dualidade onda-partícula também foram viabilizadas
pelos condensados, assim como a demonstração da
redução da velocidade da luz até valores bem baixos
num meio como esse – quase como congelar a luz no
material.

Imagem CC/NIST/JILA/CU-Boulder/Wikimedia

A VISUALIZAÇÃO DA CRIAÇÃO DE UM CONDENSADO


DE BOSE-EINSTEIN EM

LABORATÓRIO. DA ESQUERDA PARA A DIREITA,


TRÊS PASSOS DO PROCESSO DE

RESFRIAMENTO, ATÉ QUE OS ÁTOMOS SE


CONCENTRAM NA FORMA DO
CONDENSADO, REPRESENTADO COMO O PICO NO
GRÁFICO.

Desde 1995, os estudos com os condensados de Bose-


Einstein seguem avançando em ritmo acelerado e ainda
não dão

sinais de esgotamento.

Já vimos no capítulo 6 como a física de Einstein ajudou a


produzir e moldar a tecnologia do século 20. Está claro
que a influência do físico alemão sobre o
desenvolvimento científico e tecnológico deve avançar
fortemente século 21

adentro.

Curiosamente, a predição da existência dos condensados


foi a última feita por Einstein antes de se revoltar com a
física quântica. Quando Erwin Schrödinger e Werner
Heisenberg demonstraram, entre 1926 e 1927, que a
revolução quântica conduzia a um Universo que não se
escorava numa lógica determinística – muito pelo
contrário, convertia a física mais elementar num
exercício de probabilidades sem certezas pré-
estabelecidas –, Einstein decidiu envidar grandes
esforços para mostrar que a mecânica quântica não
podia ser uma teoria completa e definitiva.

E, quando Einstein entra de cabeça num assunto, mesmo


que seja num esforço de desconstrução, você pode
apostar que algo extremamente interessante vai sair de
lá. É o que veremos a seguir.

15

TELETRANSPORTE
QUÂNTICO

Na tentativa inglória de minar as incertezas da mecânica


quântica, Einstein acabou descobrindo sua natureza

intrinsecamente não local: as partículas não estão nem aí


para o espaço e o tempo.

Uma inversão muito curiosa de papéis aconteceu nos


anos 1920. Desde 1905, Einstein foi um defensor
inabalável da física quântica como uma descrição da
natureza, enquanto o dinamarquês Niels Bohr, junto à
maior parte dos físicos, esperava de algum modo
resgatar a física clássica de ser engolida pelo ralo
quântico. Sua última e heroica tentativa de promover
esse resgate, concebida por ele em parceria com Hendrik
Kramers (1894-1952) e John Slater (1900-1976), foi
apresentada em janeiro de 1924. A teoria BKS, assim
conhecida pelas iniciais de seus três propositores,
tentava ressuscitar a ideia da luz como uma onda
clássica, lançando mão de “osciladores virtuais” para
tentar explicar a aparência quântica da realidade.

A teoria era capaz de explicar a estabilidade do núcleo


atômico mais simples, o hidrogênio, a exemplo do que
Bohr já havia conseguido fazer sem lançar mão dela, e
tinha a virtude desejável de “matar” o fóton, restaurando
a natureza puramente ondulatória da luz. Mas essa
possibilidade era paga com um preço alto: ela sugeria a
possibilidade de que a energia – e com ela o “momento”,
definido pela multiplicação da velocidade pela massa –
não se conservasse de um instante para o outro.

Einstein não concordava de modo algum com essa ideia


e acompanhava com especial atenção experimentos
realizados em Berlim que poderiam tirar a prova entre a
teoria quântica e sua versão amaciada para o gosto
clássico, a BKS. Foi com esse espírito, aliás, que ele
desembarcou no Rio de Janeiro, em 21 de março de
1925.

A viagem fazia parte de um tour que Einstein –


transformado na maior celebridade científica de seu
tempo após a confirmação da relatividade geral, em
1919 – estava conduzindo pela América do Sul. O físico
passou por Argentina e Uruguai e então retornou ao
Brasil para uma série de apresentações. No dia 8 de
maio, foi recebido na sede da Academia Brasileira de
Ciências e ali decidiu surpreender. Registra a ata do
encontro:

O professor Einstein, agradecendo às homenagens que


lhe são prestadas, em vez de um discurso, diz ele,
mostra o seu reconhecimento e o seu apreço à Academia
fazendo uma rápida comunicação sobre os resultados
que, na Alemanha, estão sendo obtidos nos estudos
realizados sobre a natureza da luz, comparando a teoria
ondulatória e a dos quanta.

Provavelmente cansado de falar pela enésima vez sobre


a relatividade, Einstein aproveitou a ocasião para fazer –
longe dos ouvidos dos físicos europeus, é verdade – uma
defesa da realidade do fóton.

A comunicação foi oportunamente utilizada pela


Academia Brasileira de Ciências, que fez dela o primeiro
artigo do primeiro volume de sua revista

científica, em 1926. Nela, Einstein apresenta o problema,


no estado em que ele se encontrava:

Até pouco tempo atrás, acreditava-se que, com a teoria


ondulatória da luz, na sua forma eletromagnética,
tivéssemos adquirido um conhecimento definitivo sobre a
natureza da radiação. No entanto, sabemos, há 25

anos, que essa teoria não permite explicar as


propriedades térmicas e energéticas da radiação, embora
descreva com precisão as propriedades geométricas de
luz (refração, difração, interferência etc.). Uma nova
concepção teórica, a teoria do quantum luminoso,
semelhante à teoria da emissão de Newton, surgiu ao
lado da teoria ondulatória da luz e adquiriu uma posição
firme na ciência pelo seu poder explicativo (explicação
da fórmula da radiação de Planck, dos fenômenos
fotoquímicos, teoria atômica de Bohr). Não se conseguiu,
até hoje, uma síntese lógica da teoria dos quanta e da
teoria ondulatória, apesar de todos os esforços feitos
pelos físicos. É, por essa razão, muito discutida a questão
da realidade dos quanta de luz.

Einstein então passa a descrever a teoria BKS e como ela


se livrava dos fótons, mas apontava que, em Berlim,
Walther Bothe (1891-1957) e Hans Geiger (1882-1945)
estavam realizando experimentos que poderiam
discriminar entre as duas teorias. E termina sua curta
palestra em suspense:

Por ocasião de minha partida da Europa, as experiências


não estavam ainda concluídas. No entanto, os resultados
até agora obtidos parecem mostrar a existência daquela
correlação [prevista pela teoria quântica].

Se essa correlação for verificada de fato, tem-se um novo


argumento de valor em favor da realidade dos quanta de
luz.

Com efeito, os experimentos confirmariam a existência


dos fótons e enterrariam a BKS. Mas dos escombros
dessa teoria mal-sucedida surgiria boa parte da
matemática que seria aplicada na sequência por Werner
Heisenberg, Max Born e Pascual Jordan para desenvolver
a chamada mecânica de matrizes, em 1925. Era uma das
primeiras formulações da mecânica quântica, que trazia
em si mesma uma série de incertezas sobre a realidade.
A teoria sugeria que a luz podia ser onda e podia ser
partícula, e o que determinava qual dos dois se
manifestava era não algo intrínseco a ela, mas o método
que usássemos para estudá-la. Se procurássemos uma
onda, era uma onda que veríamos. Se procurássemos
uma partícula, era uma partícula que veríamos. E, caso
deixássemos a luz em paz, sem interagir com ela, ela
não seria nenhuma das duas coisas, e sim todas as
coisas que ela poderia ser. Simultaneamente.

Era a demolição completa da realidade objetiva: para a


mecânica quântica, é a observação o que define a
realidade, e essa definição segue nada mais que um jogo
aleatório de probabilidades.

ÀPROCURADEUMFURO

Quase instantaneamente, Einstein passou de maior


defensor da física quântica a um de seus críticos mais
ferrenhos. Bohr, por sua vez, fez o caminho inverso e
abraçou as maravilhosas – e espantosas – consequências
da teoria. Revoltado

com os aspectos probabilísticos da física quântica,


Einstein chegou a dizer:

“Deus não joga dados”. Bohr, em contrapartida, teria


lendariamente respondido:

“Einstein, pare de dizer a Deus o que ele tem de fazer


com seus dados”.
Uma empolgante disputa intelectual sobre o futuro da
mecânica quântica passou então a ser tratada pelos dois.
Em 1930, durante a Sexta Conferência Solvay, em
Bruxelas, na Bélgica, Einstein achou que havia
encurralado Bohr. Ele propôs um experimento mental
conhecido como “a caixa de Einstein”. O

objetivo era demonstrar que, com um arranjo inteligente,


seria possível driblar o princípio da incerteza de
Heisenberg.

De acordo com a mecânica quântica, é impossível


determinar, por exemplo, o instante da emissão de uma
partícula e a energia contida nela – não com 100%

de precisão. A precisão numa das medições


necessariamente sacrifica a da outra, como se o Universo
fosse pão-duro na hora de compartilhar seus segredos.
Se você souber o momento da emissão com uma
precisão arbitrária, a energia da partícula será bem
incerta. Inversamente, se você medir a energia com
grande precisão, o momento da emissão será percebido
com grande incerteza. Na mecânica quântica, você não
pode fazer um bolo e comê-lo também.

Mas Einstein queria comer o bolo. Para isso, ele imaginou


uma caixa fechada cheia de fótons, com uma pequena
portinhola que pudéssemos abrir e fechar, em repouso
numa balança de altíssima precisão.

Com um arranjo como esse, poderíamos abrir e fechar a


portinhola extremamente rápido, permitindo que apenas
um fóton escapasse dela. Como sabemos exatamente o
momento em que a portinhola foi aberta, temos uma
precisão arbitrariamente alta para o tempo da emissão. E
a energia? Einstein nos lembra de sua gloriosa
relatividade restrita, que indica que E=mc2. A emissão
de um fóton fará com que a caixa perca energia e, com
isso, massa. A balança então registraria exatamente a
massa perdida, permitindo saber com grande precisão a
energia do fóton. Touché.

O físico belga Léon Rosenfeld (1904-1974), que esteve na


conferência, relembrou o episódio anos mais tarde.

Foi um choque para Bohr (...), que, de início, não podia


pensar numa solução. Pela noite toda ele estava
extremamente agitado, e continuou passando de um
cientista a outro, tentando persuadi-los de que esse não
podia ser o caso, que esse seria o fim da física se
Einstein estivesse correto; mas ele não podia encontrar
nenhum modo de resolver. Nunca esquecerei a imagem
dos dois antagonistas quando eles saíram do clube:
Einstein, com sua figura alta e imponente, caminhava em
tranquilidade, com um sorriso suavemente irônico, e
Bohr, que trotava ao lado dele, cheio de empolgação. A
manhã seguinte viu o triunfo de Bohr.

O dinamarquês usaria o maior feitiço de Einstein contra o


feiticeiro – a relatividade geral. Por uma série de passos
matemáticos, ele mostrou que a incerteza sobre a
posição da caixa em um campo gravitacional se
traduziria

numa perda de precisão na medida de tempo (uma vez


que a passagem do tempo muda dependendo do campo
gravitacional a que um objeto está submetido),
restaurando o que ditava o princípio da incerteza da
mecânica quântica.

Hoje sabemos que esse argumento de Bohr não era lá a


coisa mais sólida do mundo e não resistiria a um
escrutínio mais detalhado (não que Einstein estivesse
certo – o argumento do alemão também era frágil). Mas,
concebido de um dia para o outro, e lançando mão do
principal triunfo intelectual de Einstein, ele foi matador.
Colou perfeitamente, e o físico alemão saiu da
conferência sem comer o bolo. Mas o episódio redobraria
sua determinação de dar uma rasteira definitiva na
mecânica quântica.

Cinco anos depois, em parceria com Nathan Rosen e


Boris Podolsky (1896-1966), Einstein acreditou ter
encontrado uma demonstração conclusiva de que a
mecânica quântica, embora pudesse até não estar
errada, era uma teoria incompleta. Vamos a ela.

AÇÃOFANTASMAGÓRICAADISTÂNCI
A Em 25 de março de 1935, o periódico americano
Physical Review recebeu o seguinte artigo de Einstein,
Podolsky e Rosen: “Pode a descrição mecânico-quântica
da realidade física ser considerada completa?”

O trio imaginou o seguinte processo: dois sistemas


quânticos – digamos, duas partículas – interagem entre si
e então são separados fisicamente, de modo que um não
possa mais influenciar o outro. Essa interação, segundo a
teoria, necessariamente faz com que as propriedades
quânticas de uma das partículas esteja atrelada às da
outra, independentemente de onde elas estejam. Como
de início não observamos nenhuma delas, elas não
sofreram o colapso da função de onda e ainda têm todas
as propriedades possíveis para elas simultaneamente –

algo que a teoria descreve como uma sobreposição de


estados.
E aí vem o choque: se fizermos a medição em um deles,
fazendo colapsar a função de onda, o outro
necessariamente terá de se definir também.

Pense a coisa da seguinte maneira: em vez de partículas


e dois sistemas quânticos em interação, vamos imaginar
um estádio de futebol quântico, com capacidade para
dois – e apenas dois – torcedores. (É, eu sei, meio
pequeno.) Vai rolar um grande clássico nesse estádio:
São Paulo Futebol Quântico contra Sport Quântico
Corinthians Paulista. E tudo que sabemos, quando os dois
felizardos proprietários de ingresso vão a seus lugares na
arquibancada, é que esse não é um jogo de uma única
torcida. Mas os torcedores, como tudo mais nesse grande
evento esportivo, são quânticos. Isso significa que,
enquanto um repórter não for entrevistar um desses
torcedores, eles serão são-paulinos e corintianos ao
mesmo tempo. (Essa metáfora dá uma boa ideia de
como a

mecânica quântica não parece fazer o menor sentido.)


Sabemos, entretanto, que as propriedades dos dois
torcedores estão atreladas pela mecânica quântica – a
regra de que o jogo não era de torcida única. Esse
atrelamento de propriedades é o que os físicos chamam
hoje de emaranhamento.

Ele significa que, no exato instante em que alguém


conversar com um dos torcedores quânticos e for capaz
de determinar para que time ele torce, o outro
automaticamente terá de se definir pelo time oposto.

Esse jogo quântico, porém, não teve transmissão de TV e


não havia repórteres em cena para conversar com os
torcedores. Resultado: a partida terminou, em 3 a 1 para
o São Paulo (com o perdão da paixão clubística deste
autor), e os dois espectadores voltaram para suas casas.
Não houve briga de torcida.

Quando um deles chegou em casa, encontrou sua esposa


e ouviu dela a seguinte pergunta: “E aí, está feliz?” Essa
pergunta automaticamente exige que ele saia da
sobreposição de estados e se defina: sou corintiano, logo
estou triste.

Enquanto isso, o outro torcedor, que ainda estava no


ônibus, a caminho de sua residência, é tomado por uma
felicidade incontida: é são-paulino! E o detalhe que torna
tudo realmente sórdido para Einstein: segundo a
mecânica quântica, não importa a distância que separa
os torcedores. No momento em que um se define, o outro
instantaneamente se define também.

Ora, a relatividade, como bem sabemos, proíbe que


qualquer coisa – seja ela uma nave espacial ou um
simples bit quântico de informação – transite pelas
dimensões de espaço a uma velocidade superior à da luz.
E, no caso quântico, não só a vida de um torcedor afeta o
outro instantaneamente, como isso acontece sem que
um tenha qualquer interação com o outro. É um
problema grave para a causalidade, aquele pequeno
detalhe, discutido um par de capítulos atrás, que parece
proibir viagens pelo tempo na direção do passado.

Quer ver? Imagine que você tenha visto o primeiro


torcedor quântico chegar em casa apenas uma fração de
segundo antes do segundo. A esposa dele faz a pergunta
crucial, e o sujeito descobre que é corintiano. Nisso, ele
define instantaneamente o clube do coração do outro
torcedor. Ocorre que sabemos também que a
simultaneidade de eventos é relativa – depende
essencialmente de quem está observando. Do ponto de
vista do torcedor que acabou virando são-paulino, ele
pode ter ouvido a pergunta primeiro que o outro e ter,
ele, definido a situação de seu rival, e não o inverso. A
relação de causa e efeito é colocada em xeque de
maneira irremediável.

“Não se pode esperar que alguma definição razoável de


realidade permita isso”, escreveram Einstein, Podolsky e
Rosen, ao encerrar a descrição do experimento mental
conhecido como paradoxo EPR. A partir dele, eles
concluem:

Enquanto demonstramos com isso que a função de onda


não fornece uma descrição completa da realidade física,
deixamos em aberto a questão de se existe ou não uma
descrição assim. Nós acreditamos, contudo, que uma
teoria assim é possível.

Em outras palavras, e seguindo em nosso exemplo,


Einstein e seus colegas acreditam que, embora a
mecânica quântica descreva fatos reais, ela não descreve
todos os fatos. Então, realmente, e como diz a teoria, se
um dos nossos torcedores se revelar corintiano, o outro
necessariamente se revelará são-paulino.

Mas não porque eles estivessem numa real sobreposição


de estados, são-paulino-corintiano, até a definição
crucial, mas porque algo dentro deles – explicável ou não
por alguma teoria mais abrangente que a mecânica
quântica – já indicava desde o princípio o que
aconteceria a eles se alguém lhes perguntasse para
quem torciam.

Para Einstein, Podolsky e Rosen, sob a aparente


sobreposição de estados descrita pela mecânica
quântica, sempre houve um são-paulino e um corintiano
enrustidos ali, desde o momento em que eles entraram
no estádio quântico. E, sendo esse o caso, quaisquer
exigências de comunicação instantânea e influência a
distância são dispensadas. E, com isso, o mundo volta a
fazer sentido.

Niels Bohr reagiu imediatamente ao paradoxo EPR,


dizendo que ele se assenta sobre um engano
interpretativo. Na verdade, o que a mecânica quântica
está dizendo é que duas partículas emaranhadas,
independentemente de quão distantes estejam uma da
outra, constituem sempre uma unidade, um único
sistema quântico – e não dois sistemas em interação,
como o trabalho de Einstein e seus colegas supunha. Daí
tiramos a dedução inescapável de que a mecânica
quântica é uma teoria explicitamente “não local” – ou,
dito de uma forma mais franca e menos cifrada, que ela
não está nem aí para em qual lugar do espaço e do
tempo estão as partículas emaranhadas. Se estão
emaranhadas, estão, para a teoria, sempre juntas. De
novo: é como se o espaço que separa duas coisas
simplesmente não existisse.

Até sua morte, em 1955, Einstein se manteve firme na


crença de que isso não fazia sentido. Em seus anos
finais, classificou de forma jocosa o emaranhamento
quântico que ele e seus colegas haviam descoberto
teoricamente como uma

“ação fantasmagórica a distância”, algo que não deveria


existir, pois rompia com a possibilidade de haver um
realismo local.

Ocorre que o emaranhamento é real.


JOHNBELLTENTARESGATAREINSTEI
N

Em 1964, o físico norte-irlandês John Stewart Bell (1928-


1990) determinou-se a investigar a fundo o paradoxo
EPR. Ele, a exemplo de Einstein, não aceitava a ideia de
que a mecânica quântica pudesse ter efeitos não locais,
mas achava

frustrante a noção de que essa fosse apenas uma


proposição filosófica, sem possibilidade de teste
experimental. Como provar que a mecânica quântica era
mesmo incompleta, como sugeria Einstein? Deveria
haver algum experimento que pudesse distinguir entre
as duas interpretações.

Partindo desse pressuposto, Bell chegou a um resultado


notável. Ele descobriu que, se houvesse uma teoria mais
completa, embora fosse impossível distinguir entre essa
nova teoria e a mecânica quântica com a realização de
um único experimento envolvendo o paradoxo EPR, uma
sequência de experimentos repetitivos do mesmo tipo
poderia afinal revelar uma rachadura no edifício
quântico. Bell investigou se a mecânica quântica poderia
ser substituída por uma teoria com “variáveis ocultas
locais” (ou seja, uma teoria envolvendo torcedores
quânticos que, apesar de terem seus destinos
aparentemente interligados, no fundo sabem o tempo
todo se são são-paulinos ou corintianos) e conseguiu
demonstrar matematicamente que qualquer teoria desse
tipo produziria uma predição diferente da que é ofertada
pela mecânica quântica para a distribuição estatística de
muitos resultados de experimentos repetitivos. Ou seja,
Bell mostrou que, embora fosse impossível demonstrar a
incompletude da teoria quântica com uma única partida
de futebol quântico, um campeonato inteiro poderia fazer
o serviço. Esse é seu famoso teorema, que já foi descrito
pelo físico e matemático americano Henry Stapp como “a
descoberta mais profunda desde Copérnico”.

Diante desse resultado, outros pesquisadores


começaram a quebrar a cabeça para organizar o
“campeonato de futebol quântico” – executar essas
sequências de experimentos repetitivos – e ver quem
tinha razão. Levou oito anos, mas, em 1972, um
experimento realizado por Stuart Freedman e John
Clauser confirmou pela primeira vez – para a decepção
de Bell – que a mecânica quântica seguia invencível.
Desde então, diversos experimentos, com os mais
diversos graus de precisão e variações, acompanharam
os relatores, ou seja, confirmaram as predições da
mecânica quântica e a sua natureza indiscutivelmente
não local.

Bell, naturalmente, ficou decepcionado. Numa entrevista,


ele disse: Para mim, é tão razoável presumir que os
fótons nesses experimentos carregam consigo
programas, que foram correlacionados antecipadamente,
dizendo a eles como se comportar. Isso é tão racional
que eu acho que quando Einstein viu isso, e os outros se
recusaram a ver, ele era o homem racional. As outras
pessoas, embora a história as tenha justificado, estavam
apenas enterrando suas cabeças na areia. (...) Então,
para mim, é uma pena que a ideia de Einstein não tenha
funcionado. A coisa razoável simplesmente não funciona.

De fato, a maior surpresa da mecânica quântica é que, a


despeito de ser absurda, ela funciona. E praticamente
desde sua formulação cientistas e pensadores têm se
perguntado: o que ela está tentando nos dizer sobre a
natureza do mundo?
A interpretação mais aceita, formulada por Bohr e
Heisenberg na segunda metade dos anos 1920, é a
chamada interpretação de Copenhagen. Ela abraça sem
medo as incertezas da teoria e sugere que tudo é
probabilidade, até que a função de onda sofra um
colapso e cada unidade quântica defina seu estado. Não
existiria, portanto, uma realidade objetiva.

Outras ideias, contudo, ainda circulam. Uma das mais


intrigantes é a interpretação dos muitos mundos. Ela
restabelece a realidade objetiva, mas a um preço: todas
as probabilidades descritas pela mecânica quântica
necessariamente tornam-se realidade. Então, se uma
partícula está em sobreposição de estados e sofre o
colapso da função de onda, ali criam-se múltiplas
ramificações da realidade – múltiplos universos! –, de
modo que cada um deles abrigue uma das possibilidades
presentes enquanto os estados estavam sobrepostos.
Imagine as consequências disso, se for verdade:
deveriam existir incontáveis universos completos lá fora,
representando todas as probabilidades descritas por
todos os sistemas quânticos. Incontáveis versões de mim
e de você, espalhadas por distintas realidades, algumas
praticamente idênticas a essa e outras radicalmente
diferentes. Caramba, em alguns desses universos eu
posso até mesmo ser corintiano! É de apavorar.

Finalmente, há esforços que tentam trazer alguma coisa


do raciocínio original de Einstein – talvez a mecânica
quântica seja incompleta e existam afinal variáveis
ocultas que digam a partículas como se comportar,
restaurando assim algum tipo de realidade objetiva. O
único pré-requisito para uma teoria assim, de forma que
ela permaneça compatível com os experimentos que se
basearam no teorema de Bell, é que ela abdique de um
realismo local e abrace a não localidade. Ou seja, pode
haver uma realidade objetiva, mas ela não tem nada a
ver com o espaço e o tempo.

Foi nessa linha que seguiu o físico americano David


Bohm (1917-1992), ao formular uma interpretação
baseada numa teoria de variáveis ocultas não local.

Boa parte desse esforço intelectual, por sinal, foi


realizada no Brasil, onde Bohm chegou em 1951, fugindo
da perseguição aos comunistas nos EUA. Obteve
nacionalidade brasileira e, na Universidade de São Paulo,
recebeu financiamento do CNPq (então Conselho
Nacional de Pesquisas, hoje Conselho Nacional de
Desenvolvimento Científico e Tecnológico) para trabalhar
na teoria, publicada em 1952.

Ela tinha forte relação com a noção de onda-piloto,


advogada pelo francês Louis de Broglie nos anos 1920 e
posteriormente abandonada, até ser

“redescoberta”. Sua principal qualidade era a de tornar o


mundo quântico em última instância determinístico,
causal, novamente.

Não temos no momento (e possivelmente jamais


teremos) recursos para tentar

colocar à prova essas (ou quaisquer outras)


interpretações da mecânica quântica.

(Se você tiver aí alguma ideia de como demonstrar que


existem universos paralelos, por exemplo, não deixe de
me contar.)

O fato indisputável, contudo, é que a mecânica quântica


funciona. Ela tem altíssimo poder preditivo (ninguém
conseguiu vê-la escorregar na casca de banana até agora
num experimento, e estamos falando em um século de
pesquisas). Além disso, ela nos revelou algo chocante e
surpreendente sobre a natureza: a não localidade. O
emaranhamento de partículas – descoberto e ao mesmo
tempo rechaçado por Einstein – abre as portas para algo
que soa saído diretamente da ficção científica: o
teletransporte quântico.

BEAMMEUP,SCOTTY

Em 10 de dezembro de 1997, o mundo se transformou


em perplexidade pura com a divulgação de um artigo
científico a ser publicado no dia seguinte na revista
científica Nature. Produzido por um grupo de
pesquisadores liderado por Anton Zeilinger na
Universidade de Innsbruck, na Áustria, ele trazia o
seguinte título: “Teleporte quântico experimental”.

Após o resumo, os autores abriam o texto assim:

O sonho do teletransporte é a capacidade de viajar


simplesmente reaparecendo em algum local distante. Um
objeto a ser teleportado pode ser totalmente
caracterizado por suas propriedades, que em física
clássica podem ser determinadas por medições. Para
fazer uma cópia de um objeto a uma localização distante,
ninguém precisa das partes e peças originais – precisa-se
apenas que se envie a informação escaneada de modo
que ela possa ser usada para reconstruir o objeto. Mas
quão precisamente essa pode ser uma cópia verdadeira
do original? E se essas partes e peças são elétrons,
átomos e moléculas? O que acontece a suas
propriedades quânticas individuais, que de acordo com o
princípio da incerteza de Heisenberg não podem ser
medidas com precisão arbitrária?
Em seguida, Zeilinger e seus colegas revelam de onde
tirar sua ideia para o experimento. Quatro anos antes,
em 1993, Charles Bennett, do departamento de pesquisa
da IBM, Gilles Brassard, da Universidade de Montreal, no
Canadá, e outros quatro colaboradores demonstraram
teoricamente a possibilidade de teleportar o estado
quântico de uma partícula para outra por meio de
emaranhamento. Foi em essência a proposta deles que o
grupo austríaco colocou em prática.

Para entender isso, vamos pedir agora a ajuda de três


amigos: Alice, Bob e Charlie – todos batizados pelo
próprio Zeilinger, como personagens dos exemplos
práticos de teletransporte em seu artigo original. (É
impressionante, por sinal, a quantidade de Alices, Bobs e
Charlies em experimentos quânticos; Heisenberg
definitivamente não explica o caso.)

Suponhamos que Alice tem em sua posse um fóton. Ela


quer teleportar para

seu amigo Bob, que não está por perto, a polarização do


spin desse fóton (ou, usando a metáfora imperfeita já
mencionada um capítulo atrás, a direção do eixo de
rotação da partícula). Charlie vai ajudá-los e, para isso,
ele emaranha dois outros fótons, de forma a atrelar seus
estados quânticos, sem no entanto medi-los. Eles
permanecem sobrepostos, naquela estranha condição de
corintiano-são-paulino simultaneamente.

Bob recebe seu fóton e o guarda, sem medi-lo. Mas Alice


pega o seu e o emaranha com o fóton cuja propriedade
ela deseja teleportar. Em seguida, mede os dois. O
processo de medida leva ao colapso da função de onda
do sistema e à destruição subsequente dos estados
observados. Ou seja, se a partícula que Alice queria
teleportar acaba se revelando são-paulina (e é destruída
no processo de medição), por ela estar emaranhada com
a partícula que recebeu de Charlie, a partícula que veio
dele será naturalmente colapsada como corintiana. Só
que, lembre-se, a partícula que veio de Charlie para Alice
estava também emaranhada com a partícula enviada a
Bob, que agora também tem um estado definido: é são-
paulina, exatamente como a partícula cujo estado Alice
queria teleportar!

Na prática: temos uma partícula que desaparece na


ponta de Alice e uma réplica idêntica que aparece na
ponta de Bob. Com um detalhe sórdido: como já vimos,
pouco importa a distância que separava Alice de Bob. O
teleporte acontece instantaneamente, mais rápido que a
luz.

Certo. Mas isso não está em flagrante desacordo com a


relatividade, segundo a qual nada – nem mesmo
informação – pode ser transmitida mais depressa que a
luz? Zeilinger e seus colegas nos asseguram de que não,
porque a informação transferida instantaneamente – o
estado da partícula – não tem significado prático, a não
ser que exista um canal “convencional” entre Alice e
Bob, esse sim submetido ao limite de velocidade máxima
do Universo.

Isso é necessário porque o emaranhamento, na


realidade, é mais complicado do que apresentamos em
nossos exemplos de futebol quântico. É como se, mais
que o time do coração, as partículas-torcedoras também
pudessem vir com camisas de jogo diferentes. E Bob só
pode ter a certeza de que tem em mãos uma réplica
exata da partícula original de Alice se ela contar a ele
exatamente qual camisa ela viu a partícula vestir antes
de ser desintegrada. Essa informação, que dá sentido
prático ao teleporte quântico, não pode ser transmitida
instantaneamente – fica limitada à velocidade da luz.

Mesmo com essa limitação, vamos combinar que a


possibilidade de realizar teletransporte – de qualquer
coisa, mesmo que um simples estado quântico – é
fascinante. Parece coisa de ficção científica e, não por
acaso, o experimento de Zeilinger recebeu o apelido de
“Beam me up, Scotty!” (“Leve-me para cima, Scotty!”). É
a clássica frase do capitão Kirk quando pedia para ser

teletransportado de volta para a nave na série de TV


Jornada nas Estrelas ( Star Trek).

Em princípio, não há limites para o número de partículas


que poderiam ser teleportadas desse modo. Então, ao
menos em teoria, uma dia talvez fosse possível
transportar um capitão Kirk inteiro da sala de transporte
em órbita até a superfície de um mundo distante. Claro,
teríamos de responder a um problema filosófico muito
evidente: embora fosse idêntico em tudo ao homem que
desapareceu na sala de transporte, o sujeito
rematerializado no planeta é mesmo o capitão Kirk, ou
apenas uma cópia dele? Não responda tão depressa.
Tenha em mente que só a informação das partículas foi
teleportada, mas não as partículas em si. (Talvez o dr.
McCoy tivesse toda razão em não se animar muito com a
tecnologia do teletransporte.)

Noves fora a filosofia sobre o que faz de você você


mesmo, estamos muito longe de tornar o teletransporte
de objetos de grande porte, compostos por zilhões de
partículas individuais, uma realidade palpável. Tanto
Bennett quando Zeilinger apostam que a principal
aplicação potencial do teleporte quântico será a
transferência de informações de um computador para
outro de forma totalmente confidencial. Afinal, só quem
tiver acesso a uma das partículas do par emaranhado
poderá decodificar a informação transmitida. Ainda que
um bisbilhoteiro consiga “escutar” o canal convencional
usado para comunicar a medição original obtida por Alice
para Bob, a informação quântica teleportada em si
estaria 100% protegida.

Mais apaixonante que tudo isso, contudo, é o que o


teleporte quântico e o emaranhamento contam sobre o
Universo. Ao confirmar de forma espetacular a não
localidade descrita pela mecânica quântica, eles colocam
em xeque nossa compreensão mais elementar da
realidade. Incontáveis experimentos com
emaranhamento nos últimos anos demonstraram isso de
forma indelével: não só a “ação fantasmagórica a
distância” já foi demonstrada de forma a confirmar que
ela de fato ocorre instantaneamente – o que equivale a
dizer que ela não “sente”

o espaço –, como também ficou claro que ela igualmente


não respeita as barreiras do tempo. Um experimento
realizado em 2013 por pesquisadores da Universidade
Hebraica de Jerusalém provocou um emaranhamento
entre fótons que jamais coexistiram no Universo – um
emaranhamento através do tempo!

Não é difícil sacar por que isso é um problema para a


nossa compreensão do cosmos. As partículas da
mecânica quântica, que ignoram o espaço e o tempo,
nos fazem pensar que talvez o próprio espaço-tempo, a
entidade fundamental sobre a qual versa a relatividade
geral, seja uma ilusão. Ele certamente é irrelevante se
você for, em vez de uma pessoa, uma partícula. Só que
pessoas são feitas de partículas. Eis o dilema.
Terminamos com duas teorias fundamentais – a
relatividade geral e a mecânica quântica –, ambas
consistentes e testadas experimentalmente com sucesso
até o limite máximo de precisão que conseguimos obter.
E, no entanto, elas nos fornecem conclusões
diametralmente opostas sobre a natureza do cosmos.

Acho – apenas acho – que tem alguma coisa aí no meio


do caminho que não estamos entendendo direito.
Einstein também achava e por isso gastou as últimas três
décadas de sua vida tentando encontrar uma maneira de
reconciliar os dois grandes pilares da física moderna,
ambos erigidos com enorme participação dele, numa
única fundação.

16

A TEORIA

FINAL

Einstein devotou os últimos 30 anos de sua vida à


procura de uma visão elegante e harmônica de todas as
leis da física. E aqui estamos nós, décadas depois, ainda

perseguindo o mesmo sonho.

Muito se fala sobre a religiosidade de Einstein.

Ele não era de modo algum religioso na nossa acepção


mais comum da expressão. A fé que ele seguia, em
essência, era a de que o mundo natural era inteligível e
apreensível pela mente humana – o que, convenhamos, é
de fato algo pelo que se deslumbrar.

Em 1940, ele disse o seguinte:


[A] ciência só pode ser criada por aqueles que estão
completamente imbuídos da aspiração na direção da
verdade e da compreensão. Esse tipo de sentimento,
contudo, emerge da esfera da religião. A isso também
pertence a fé na possibilidade de que os regulamentos
válidos para o mundo da existência sejam racionais, ou
seja, compreensíveis à razão. Eu não posso conceber um
genuíno cientista sem essa fé profunda. A situação pode
ser expressada por uma imagem: a ciência sem religião é
tosca, a religião sem a ciência é cega.

Essa última frase é comumente usada de forma


distorcida para refletir o pensamento de Einstein. Note
que “religião”, no sentido em que ele a emprega, diz
respeito à fé que todos precisamos ter – e que ele sem
dúvida tinha de sobra

– de que devemos buscar a verdade sobre o Universo e


de que ela de fato faz algum sentido.

Com efeito, outra frase famosa de Einstein, mais no


espírito do que ele quis dizer, é: “A coisa mais
incompreensível sobre o mundo é que ele é
compreensível”.

Esse sentimento, que o físico alemão chegou a chamar


de uma “religiosidade cósmica”, nada tem a ver com
nossas noções mais pedestres de religião, em geral
associadas a crenças no sobrenatural ou em divindades,
pensamentos que Einstein classificava como
“superstições infantis”. Para ele, a grande beleza da
ciência estava em buscar uma genuína comunhão e
cumplicidade com o Universo por meio da razão.

E foi essa a motivação dele para passar as últimas três


décadas de sua vida dedicado à busca de algo que hoje
comumente chamamos de “teoria final” –

uma tentativa de reunir todas as leis da física sob um


mesmo guarda-chuva teórico.

UMAUNIFICAÇÃOCLÁSSICA

Havia razões, desde sempre, para desconfiar que a


relatividade geral de Einstein e o eletromagnetismo de
Maxwell fossem teorias “aparentadas”. Afinal de contas,
foi partindo do pressuposto de que a luz – conforme
descrita pela eletrodinâmica clássica – é uma onda que,
de acordo com as equações, sempre viaja à velocidade
da luz que Einstein iniciou a revolução relativística.

Contudo, o físico alemão ficou muito surpreso quando,


em 1919, recebeu um

artigo de seu compatriota Theodor Kaluza (1885-1954).


Nele, o pesquisador realizava basicamente uma
adaptação da relatividade geral, mas supondo não
quatro dimensões, e sim cinco. Por quê? Kaluza descobriu
que um espaço-tempo assim configurado, de forma que
houvesse as três dimensões espaciais tradicionais
(altura, comprimento e largura), uma dimensão para o
tempo, e uma quinta dimensão na forma de um cilindro
que envolvesse as outras dimensões, era possível
derivar, a partir das equações de campo da relatividade
em 5D, não só as versões originais de Einstein em 4D
(representando a gravidade), mas também as equações
de Maxwell do campo eletromagnético!

Ou seja, de algum modo, pressupor a existência de uma


quinta dimensão permitia integrar a gravidade e o
eletromagnetismo num mesmo arcabouço teórico, como
se fossem faces da mesma moeda.
Embora partisse de uma premissa de que Einstein não
gostava – colocar o espaço-tempo tradicional num
cilindro parecia um exercício matemático bizarro, e não
uma descrição da realidade física –, o fato de que as
equações se encaixavam era surpreendente. Em 1921,
ele se ofereceu para submeter o artigo de Kaluza para
publicação e escreveu a seu colega:

Sua teoria é realmente cativante. Deve haver alguma

verdade nela.

Em seguida, Einstein publicou um artigo próprio, em


parceria com Jakob Grommer, em que destaca a
potencial unificação dos campos gravitacional e
eletromagnético como “a mais importante questão da
relatividade geral”.

E em sua palestra por ocasião da conquista do Prêmio


Nobel em Física de 1921, proferida só em 1923, Einstein
nada falou sobre o efeito fotoelétrico e a física quântica –
motivo que levou a Academia Real de Ciências da Suécia
a conceder-lhe a honraria –, preferindo concentrar-se na
relatividade e na questão da unificação com o
eletromagnetismo.

Para completar a base da teoria da relatividade geral, o


campo eletromagnético precisa ainda ser introduzido
nela, o que, de acordo com nossa convicção presente, é
também o material a partir do qual nós devemos
construir as estruturas elementares da matéria.

Ou seja, ele acreditava que o esforço possivelmente


levaria a uma compreensão mais refinada da realidade
que explicasse os fenômenos descritos pela teoria
quântica – referentes ao mundo da matéria em seus
menores componentes – de maneira completamente
clássica.

Só que o que aconteceu foi exatamente o contrário.

OLENTOPARTODOMODELOPADRÃO

A mecânica quântica ganha seus contornos finais em


1927 e permite colocar ordem ao até então impenetrável
mundo das partículas elementares. Com ela foi possível
trazer a eletrodinâmica – a descrição fundamental do
eletromagnetismo

– para o seu lado. O surgimento da chamada


eletrodinâmica quântica, que nasce com o britânico Paul
Dirac (1902-1984), representa uma formulação do
fenômeno que é totalmente compatível com a
relatividade restrita de Einstein e ainda assim descreve a
luz e as partículas eletricamente carregadas de forma
quantizada, ou seja, em unidades discretas de energia.

É o primeiro grande sucesso da teoria quântica de


campos, que veria em 1933

outro salto, com o italiano Enrico Fermi (1901-1954),


quando ele sugere um mecanismo para um fenômeno
conhecido como decaimento beta, em que um nêutron se
transforma em um próton ao emitir um elétron e um
neutrino. Era o início da nossa compreensão das
interações fracas da matéria – e algo tão avançado para
a época que a revista Nature recusou o trabalho de Fermi
“porque continha especulações muito afastadas da
realidade para ser de interesse para o leitor”. (O artigo
acabou publicado na Itália e na Alemanha; a britânica
Nature mais tarde admitiria que a decisão foi um dos
maiores erros editoriais de sua história.)
Nos anos 1960, teóricos mostrariam a possibilidade de
integrar as forças eletromagnética e fraca como faces do
mesmo fenômeno numa teoria eletrofraca.

Por esse sucesso, Mohammad Abdus Salam, Sheldon


Glashow e Steven Weinberg partilharam o Prêmio Nobel
em Física de 1979.

Na mesma época em que a interação eletrofraca era


revelada, o físico americano Murray Gell-Mann (1929-)
apresentava a natureza íntima dos prótons e dos
nêutrons, ao descobrir que eles são formados por trios de
partículas ainda menores, os quarks. Mais tarde isso
serviria de base para a teoria da cromodinâmica
quântica, que finalmente explicava como prótons, de
carga positiva, podiam conviver consigo mesmos e com
nêutrons no interior do núcleo atômico sem se repelirem,
tudo graças a uma força nuclear forte transmitida por
partículas chamadas de glúons. Gell-Mann recebeu o
Nobel em 1969 por suas contribuições.

Os anos 1960 também viram o surgimento da proposta


de um mecanismo teórico que explicava como as
partículas ganhavam suas massas – o chamado
mecanismo de Higgs, com seu bóson correspondente.
Apesar do nome que acabou colando, o inglês Peter
Higgs (1929-) foi apenas um dos cientistas a propô-lo, e
dividiu o Prêmio Nobel em Física de 2013 com o belga
Fraçois Englert (1932-) após a espetacular confirmação
de sua existência pelo LHC, o Grande Colisor de Hádrons,
o acelerador de partículas europeu.

Todos esses esforços combinados levaram ao chamado


Modelo Padrão da
Física de Partículas, que é basicamente um resumão de
tudo que a mecânica quântica nos permitiu compreender
sobre a natureza da matéria e da energia.

Trata-se de um sucesso sem precedentes na história da


física, que pode ser resumido numa tabela.

O leitor há de notar, contudo, que uma das forças da


natureza está dramaticamente ausente: a gravidade.

E M B U S C A D A G R AV I D A D E Q U Â N T I C A
Eis aí a angústia que toma conta dos cientistas: enquanto
todas as forças conhecidas da natureza se submeteram
ao poder descritivo da mecânica quântica, a gravidade
ainda encontra sua descrição mais precisa na
relatividade geral, que é uma teoria clássica.

Para a maioria das coisas que desejamos estudar, isso


não é um grande problema. A gravidade é uma força tão
mais fraca que todo o resto que ela só se manifesta em
grandes escalas, nas quais as relações causais e a
natureza do espaço-tempo são facilmente investigadas.
A mecânica quântica, por sua vez, só revela todas as
suas estranhezas nas pequenas escalas, em que
podemos encontrar partículas individuais que não sabem
nem em que lugar do espaço-tempo estão, nem em que
estado estão, e tudo parece ser um jogo de dados.

O problema é que há algumas circunstâncias em que


patentemente tanto a gravidade quanto a mecânica
quântica têm um papel a cumprir. Estamos falando de
circunstâncias radicais, como o colapso dos buracos
negros ou o próprio Big Bang. Mas quem não quer
entender essas coisas num nível mais profundo, seguindo
a “religiosidade cósmica” de Einstein? É por isso que
muitos cientistas hoje seguem em busca de uma teoria
mais abrangente, capaz de descrever a gravidade em
termos quânticos e trazê-la finalmente para o rebanho do
Modelo Padrão – ou para o que quer que venha depois
dele.

Um passo interessante nessa direção havia sido dado


pouco depois da primeira sugestão de Theodor Kaluza
para integrar a gravidade e o eletromagnetismo
adicionando uma dimensão extra. Em 1926, o sueco
Oskar Klein (1894-1977) tentou converter a teoria
clássica de Kaluza aos princípios quânticos. Eliminou a
ideia da quinta dimensão cilíndrica e sugeriu, em vez
disso, que houvesse uma quinta dimensão enrolada
sobre si mesma, tão pequena que não pudesse ser
notada em nossa vida cotidiana – criando assim a
sensação de que só existem quatro dimensões (três
espaciais, mais o tempo).

A chamada teoria de Kaluza-Klein influenciaria os


esforços de unificação e busca da gravidade quântica nas
décadas seguintes, mas o conceito de múltiplas
dimensões extras atingiria seu auge nos anos 1960,
quando um grupo de cientistas concebeu uma proposta
radical. Nascia a famosa teoria das cordas.

AIDEIACERTAPARAOPROBLEMAERR
ADO

Originalmente, a teoria se prestava a explicar a natureza


dos prótons e dos nêutrons. Ela tentava interpretar as
partículas não como unidades pontuais, mas como
cordas minúsculas, vibrando num espaço-tempo
multidimensional.

Dependendo do padrão vibratório, uma corda poderia se


manifestar como cada uma das partículas que vemos.
Tinha, contudo, um detalhe sórdido: as cordas teriam de
estar vibrando num espaço-tempo de nada menos que
26 dimensões ao todo. Vamos combinar: propor uma
dimensão extra que você não pode observar, como
Kaluza e Klein fizeram, é radical e pode soar como um
truque matemático. Propor mais de 20 já é sacanagem
mesmo.

Por isso ninguém ficou realmente surpreso quando a


teoria fracassou em explicar a natureza das interações
entre quarks e glúons, papel que coube à cromodinâmica
quântica. Contudo, não tardou para que alguns teóricos
nos anos 1980 percebessem que a teoria naturalmente
descrevia uma partícula sem massa de spin 2. Essa era a
configuração esperada do gráviton – a hipotética
partícula portadora da força da gravidade, caso
conseguíssemos criar uma teoria quântica consistente
que a incluísse no rol do Modelo Padrão.

Isso reanimou os cientistas e hoje a teoria das cordas é


tida como um dos caminhos mais promissores para a
busca de uma explicação quântica da gravidade. E uma
boa notícia é que o número de dimensões exigidas
diminuiu: agora os cordistas falam em dez ou no máximo
onze dimensões.

A teoria entusiasma muita gente e tem excelentes


defensores, como os físicos Brian Greene e Michio Kaku.
No entanto, apresenta alguns probleminhas ainda a
superar.

O primeiro é que ela prevê não só como as partículas e


forças do nosso Universo podem ter emergido de um
espaço-tempo multidimensional, mas também descreve
como o nosso Universo poderia ter se desenvolvido de
outros 10.500 modos, gerando outros conjuntos de
partículas, forças e leis físicas. Se você tem uma teoria
que prevê todos os universos possíveis, e não só o seu,
ela está explicando realmente alguma coisa? Para os
entusiastas das cordas, sim. O

fato de ela prever tantos possíveis desfechos sugere que


na verdade vivemos num multiverso, e em algum lugar
dele cada um desses universos se manifesta.

O nosso, em particular, tem leis físicas simpáticas à


existência de criaturas como nós, e por isso só nele, e
não nos outros, nós surgimos para nos perguntar: por
que o nosso Universo tem especificamente essas
propriedades físicas? A pergunta deixa de fazer sentido
no multiverso.

Os críticos acham que isso não é um lampejo, é uma


desculpa esfarrapada.

Uma teoria que explica todos os universos possíveis, e


não o nosso em particular, é um exercício matemático
fútil; não nos ajuda a realmente entender as leis físicas
locais.

Aliás, outro entrave da teoria é a matemática envolvida.


Os cálculos se tornam tão complicados que é difícil
extrair predições a partir dela. E, quando de fato eles
chegam a alguma predição, ela é vaga o suficiente para
esconder os fenômenos numa escala tão absurdamente
pequena que inviabilizam qualquer teste experimental.

Digamos: a teoria de cordas prevê a existência de


dimensões extras enroladas sobre si mesmas, mas, se
experimentos não as encontrarem, os teóricos sempre
podem dizer que elas existem, mas são ainda menores
do que antes se supunha.
Moral da história: a teoria pode muito bem ser
inverificável. Isso a coloca muito mais perto da
metafísica do que da física em si.

Em 2005, o físico italiano Gabriele Veneziano, criador da


versão original da teoria das cordas, esteve no Brasil.
Tive a chance de entrevistá-lo e perguntar como ele se
sentia sobre isso. Ele não teve papas na língua, mas se
manteve esperançoso:

Eu me sinto bem mal. (Risos.) Essa é uma consequência


do fato de que nosso controle presente da teoria de
cordas não é muito bom. Então, no momento, você não
pode fazer predições muito específicas. Claro, não
estamos felizes com isso. Em 1984, quando a revolução
das supercordas apareceu, as pessoas estavam
esperançosas de que em 10, 20 anos elas teriam
resolvido todos esses problemas. Não aconteceu. Por
outro lado, é preciso lembrar que a teoria de cordas, a
nova, tem apenas 20 anos. E levou 40 anos antes que
pudéssemos transformar a teoria quântica, que estava
pronta nos anos 1930, no Modelo Padrão. Então, eu não
ficaria surpreso se, para fazer o ‘Modelo Padrão de
Cordas’, fosse preciso mais 20 anos.

ABUSCACONTINUA

Isso foi em 2005. Doze dos 20 anos cogitados por


Veneziano já se passaram, e nada de um Modelo Padrão
de Cordas que satisfizesse aos físicos. Houve avanços.
Mas não estamos muito mais perto de demonstrar que a
teoria está no caminho certo. Aliás, isso é parte de uma
crise maior na física: sabemos, por conta da matéria
escura e da energia escura, que deve haver descobertas
a se fazer que vão além do Modelo Padrão. Por outro
lado, depois do bóson de Higgs, em 2012, há um temor
de que novos achados estejam bem além de nossas
capacidades experimentais. Sem novas dicas dadas pela
natureza em observações de experimentos, os teóricos
tateiam às cegas em busca de novas ideias, como
astronautas numa caminhada espacial sem um cordão
umbilical que os prenda à nave. É muito fácil se perder
na escuridão do cosmos desse modo.

Enquanto alguns pesquisadores persistem nas cordas,


outros grupos em busca da gravidade quântica já
começam a explorar alternativas. Uma delas é a

chamada gravidade quântica de laços, que tenta


descrever geometricamente a gravidade, em vez de
tratá-la como uma força com uma partícula equivalente.

Isso estaria mais de acordo com a descrição clássica feita


pela relatividade geral, que é essencialmente
geométrica.

É uma ideia mais nova que as cordas, mas ainda assim


os avanços são modestos e, até o momento,
inconclusivos.

De tudo isso, a convicção que nos resta é a de que,


apesar dos incríveis avanços que fizemos durante o
século 20 para compreender as leis fundamentais que
regem o Universo, terminamos essa jornada ainda
bastante distantes de ter um nível de entendimento que
possa ser considerado unívoco, completo e definitivo. O
sonho de Einstein segue não realizado. E nem seria um
disparate a essa altura chamá-lo de utopia.

Talvez o destino de todo empreendimento científico seja


chegar cada vez mais perto de uma descrição exata do
cosmos, progredindo passo a passo, sem jamais contudo
atingir a perfeição. O que nos deixa como consolo apenas
a

“religiosidade cósmica” de Einstein – a convicção de que


a irrefreável vontade humana de aprender mais e a
confiança de que isso é possível seguirá viva e bem nas
próximas gerações. Sempre com muito trabalho pela
frente.

BIBLIOGRAFIA

ARTIGOS

CAMPOS, Richard. Still Shrouded in Mystery: The Photon


in 1925. https://arxiv.org/abs/physics/0401044

EINSTEIN, Albert. On the Movement of Small Particles


Suspended in Stationary Liquids Required by the
Molecular-Kinetic Theory of Heat (tradução em inglês do
original alemão). Annalen der Physik, (ser. 4), 17, 549–
560 (1905).

_______. On a Heuristic Point of View Concerning the


Production and Transformation of Light (tradução em
inglês do original alemão). Annalen der Physik, (ser. 4),
17. 132-148 (1905).

_______. On the Electrodynamics of Moving Bodies


(tradução em inglês do original alemão). Annalen der
Physik, (ser. 4), 17, 891–921 (1905).

_______. Does the Inertia of a Body Depend upon its


Energy Content? (tradução em inglês do original alemão)
Annalen der Physik, (ser. 4), 18, 639–641 (1905).

_______. On the Influence of Gravitation on the


Propagation of Light (tradução em inglês do original
alemão). Annalen der Physik (ser. 4), 35, 898–908 (1911).

_______. The Foundation of the General Theory of


Relativity (tradução em inglês do original alemão).

Annalen der Physik (ser. 4), 49, 769–822 (1916).

_______. Approximative Integration of the Field Equations


of Gravitation (tradução em inglês do original em
alemão). Preussische Akademie der Wissenschaften,
Sitzungsberichte, (part 1), 688–696 (1916).

_______. On the Quantum Theory of Radiation (tradução


em inglês do original alemão). Physikalische Zeitschrift,
18, 121–128 (1917).

_______. Cosmological Considerations in the General


Theory of Relativity (tradução em inglês do original
alemão). Preussische Akademie der Wissenschaften,
Sitzungsberichte, (part 1), 142–152 (1917).

_______. Observações sobre a situação atual da teoria da


luz. Revista da Academia Brasileira de Ciências, v.1, n.1-3
(1926).

_______. Lens-like action of a star by deviation of light in


the gravitational field. Science, 84, 506-507

(1936).

_______. Science and Religion. Science, Philosophy and


Religion, A Symposium. Nova York (1941).

EINSTEIN, Albert, e DE SITTER, Willen. On the relation


between the expansion and the mean density of the
universe. Proceedings of the National Academy of
Sciences, 18, 213–214 (1932).
EINSTEIN, Albert, e ROSEN, Nathan. The particle problem
in the general theory of relativity. Physical Review (ser.
2), 48, 73-77 (1935)

_______. On gravitational waves. Journal of the Franklin


Institute, 223, 43-54 (1937) EINSTEIN, Albert; ROSEN,
Nathan, e PODOLSKY, B. Can quantum-mechanical
description of physical reality be considered complete?
Physical Review (ser. 2), 47, 777-780 (1935) HAWKING,
Stephen. Black hole explosions? Nature, 248, 30-31
(1974).

HUBBLE. Edwin, e HUMASON, Milton L. The Velocity-


Distance Relation among Extra-Galactic Nebulae.
Astrophysical Journal, vol. 74, p.43 (1931).

O’RAIFEARTAIGH, Cormac, et al. Einstein’s steady-state


theory: an abandoned model of the cosmos.

European Physical Journal H, vol. 39, pp. 353-367 (2014).

UGGERHØJ, Ulrik, et al. The young centre of the Earth.


European Journal of Physics, vol. 37, 035602

(2016).

++++++++++++++++++++++++++++++++++

LIVROS

ABBOTT, Edwin Abbott. Flatland: A romance of many


dimensions. Nova York: Penguin Books, 1998.

EINSTEIN, Albert. Notas Autobiográficas. Rio de Janeiro:


Nova Fronteira, 1982.
_______. Como Vejo o Mundo. Rio de Janeiro: Nova
Fronteira, 1981.

GALILEU, Galilei. O Ensaiador. São Paulo: Editora Nova


Cultural, 2004.

GREENE, Brian. O Universo Elegante. São Paulo:


Companhia das Letras, 2001.

HAWKING, Stephen. Buracos Negros. Rio de Janeiro:


Intrínseca, 2017.

LUCRÉCIO. A Natureza das Coisas. Tradução de Antonio


José de Lima Leitão. Typ. de Jorge Ferreira de Mattos.
Lisboa, 1851.

MOURÃO, Ronaldo Rogério de Freitas. Explicando a Teoria


da Relatividade. Rio de Janeiro: Ediouro, 2005.

OVERBYE, Dennis. Einstein Apaixonado. São Paulo:


Editora Globo, 2002.

THORNE, Kip S. Black Holes and Time Warps: Einstein’s


Outrageous Legacy. Nova York: W.W. Norton, 1994.

WELLS, H.G. A Máquina do Tempo. Rio de Janeiro:


Alfaguara, 2010.

ZEILINGER, Anton. A Face Oculta da Natureza. São Paulo:


Editora Globo, 2005.

© 2017, Salvador Nogueira


Edição Alexandre Versignassi

Projeto gráfico e diagramação Flávio Pessoa e


Fernanda Didini Ilustração da capa Evgeny Parfenov

Revisão Alexandre Carvalho

Produção gráfica Anderson C. S. de Faria

Diretora editorial e publisher Alecsandra Zapparoli


Diretor editorial - estilo de vida Sérgio Gwercman
Diretor de redação Alexandre Versignassi

Diretor de arte Fabrício Miranda

N778p Nogueira, Salvador

Para entender de uma vez: Einstein. / Editora Abril. – São


Paulo: Abril, 2017.

312 p; il.; 23 cm.

(Superinteressante, ISBN 978-85-5579-165-9)

1. Biografia - Cientistas. 2. Físico teórico. 3. Física


moderna. I. Título. II. Série.

CDD 925.3

2017

Todos os direitos desta edição

reservados à Editora Abril S.A.

Av. das Nações Unidas, 7221

05425-902 – Pinheiros
São Paulo - SP – Brasil

SOBRE

OAUTOR

Salvador Nogueira é um dos mais renomados


divulgadores de ciência do País.

Colunista da Scientific American Brasil e da Folha de


S.Paulo, também colabora frequentemente com a
SUPERINTERESSANTE. Salvador é conhecido por sua
forma única de explicar conceitos científicos – tão
divertida quanto detalhista, tão apaixonada quanto
racional. Este é seu décimo segundo livro.
Document Outline
Segunda Capa
Em memória
Agradecimentos
INTRODUÇÃO
Bem-vindos à mente de Einstein
CAPÍTULOS
1 A existência dos átomos
2 A realidade do mundo quântico
3 O espaço e o tempo
4 A equação mais famosa do mundo
5 A gravidade
6 Revoluções tecnológicas
7 A origem do Universo
8 O erro que se revelou um grande acerto
9 Buracos negros
10 Lentes de aumento cósmicas
11 Ondas gravitacionais
12 Mais rápido que a luz
13 Viagens no tempo
14 Um novo estado da matéria
15 Teletransporte quântico
16 A teoria final
BIBLIOGRAFIA
Artigos
Livros
Ficha catalográfica
Sobre o autor
Table of Contents
Segunda Capa
Em memória
Agradecimentos
INTRODUÇÃO
Bem-vindos à mente de Einstein
CAPÍTULOS
1 A existência dos átomos
2 A realidade do mundo quântico
3 O espaço e o tempo
4 A equação mais famosa do mundo
5 A gravidade
6 Revoluções tecnológicas
7 A origem do Universo
8 O erro que se revelou um grande acerto
9 Buracos negros
10 Lentes de aumento cósmicas
11 Ondas gravitacionais
12 Mais rápido que a luz
13 Viagens no tempo
14 Um novo estado da matéria
15 Teletransporte quântico
16 A teoria final
BIBLIOGRAFIA
Artigos
Livros
Ficha catalográfica
Sobre o autor

You might also like