You are on page 1of 378

Tytuł oryginału

THE UPRIGHT THINKERS

Copyright © 2015 by Leonard Mlodinow


All rights reserved

Published in the United States by Pantheon Books, a division of Random House LLC, New
York, and in Canada by Random House of Canada,
a division of Penguin Random House, Ltd., Toronto.

Projekt okładki
Kelly Blair

Opracowanie graficzne okładki


Ewa Wójcik

Redaktor serii
Adrian Markowski

Redakcja
Anna Kaniewska

Korekta
Bronisława Dziedzic-Wesołowska

ISBN 978-83-8097-545-3

Warszawa 2016

Wydawca
Prószyński Media Sp. z o.o.
02-697 Warszawa, ul. Rzymowskiego 28
www.proszynski.pl
Dla Simona Mlodinowa
Część I

Wyprostowani i myślący

Najpiękniejszym i największym przeżyciem, jakie może być dane


człowiekowi, jest poczucie tajemniczości. Jest to podstawowa zasada
każdej religii, tak jak i wszystkich poważnych dążeń w nauce i sztuce.
Ten, kto nigdy tego nie doświadczył, wydaje mi się jeśli nie martwy,
to w każdym razie ślepy.
Albert Einstein, Moje credo, 1932
1.

Nasz pęd do wiedzy

Mój ojciec opowiedział mi kiedyś o wychudzonym współwięźniu z obozu


koncentracyjnego w Buchenwaldzie, z wykształcenia matematyku. Można
powiedzieć coś o ludziach na podstawie tego, co przychodzi im na myśl, gdy
słyszą termin „pi”. Dla „matematyka” był to stosunek obwodu koła do jego
średnicy. Gdybym zapytał mojego ojca, który skończył tylko siedem klas,
powiedziałby, że to okrągła skorupka z ciasta wypełniona jabłkami1.
Pewnego dnia, pomimo dzielącej ich przepaści, matematyk dał mojemu ojcu
zagadkę matematyczną do rozwiązania. Ojciec myślał o niej przez kilka dni,
ale nie umiał jej rozwikłać. Kiedy znów zobaczył się z tym współwięźniem,
zapytał go o rozwiązanie. Ten nie odpowiedział i stwierdził, że ojciec musi
sam je odkryć. Jakiś czas później ojciec znów z nim rozmawiał, ale ten
skrywał swój sekret, jak gdyby była to bryła złota. Ojciec próbował stłumić
swoją ciekawość, ale nie potrafił. Pomimo otaczającej go potworności
i śmierci jego obsesją stało się poznanie odpowiedzi. W końcu inny
współwięzień zaoferował mu interes – ujawni rozwiązanie zagadki, jeśli
ojciec odda mu swoją skórkę od chleba. Nie wiem, ile ojciec ważył w tamtym
czasie, ale kiedy siły amerykańskie wyzwoliły obóz, ważył trzydzieści osiem
kilogramów. Jednak potrzeba wiedzy była u niego tak silna, że oddał swój
chleb w zamian za odpowiedź.
Miałem niecałe dwadzieścia lat, kiedy ojciec wspominał ten epizod,
i wywarło to na mnie wielki wpływ. Rodzina ojca zginęła, ich majątek został
skonfiskowany, jego ciało doświadczyło głodu, wyniszczenia i bicia. Naziści
odarli go ze wszystkich rzeczy namacalnych, ale jego pęd do myślenia,
rozumowania i wiedzy przetrwał. Był uwięziony, ale jego umysł mógł
wędrować swobodnie i to czynił. Uświadomiłem sobie, że poszukiwanie
wiedzy jest najbardziej ludzkim ze wszystkich naszych pragnień i że choć
nasze położenie było zupełnie odmienne, moja własna pasja do rozumienia
świata była napędzana tym samym instynktem co u mojego ojca.
Gdy poszedłem do college’u studiować nauki ścisłe i później, ojciec miał
pytać mnie nie tyle o techniczne szczegóły tego, czego się uczyłem, ile o sens
leżący u podstaw – skąd wzięły się teorie, dlaczego mam poczucie, że są
piękne, i co mówią one o ludziach. Ta książka, napisana parę dziesiątków lat
później, jest próbą udzielenia w końcu odpowiedzi na jego pytania.

***

Kilka milionów lat temu my, ludzie, zaczęliśmy stawać prosto, zmieniając
nasze mięśnie i szkielety, tak by pozwoliły nam chodzić w postawie
wyprostowanej, która oswobodziła nasze ręce do badania i manipulowania
przedmiotami wokół nas, pozwalając też omiatać wzrokiem większy niż
wcześniej dystans. Jednak wraz ze wznoszeniem się postawy również nasze
umysły wzniosły się ponad umysły innych zwierząt, pozwalając nam
zgłębiać świat nie tylko wzrokiem, ale również myślą. Stanęliśmy
wyprostowani, ale przede wszystkim zaczęliśmy myśleć.
O wyjątkowości rasy ludzkiej przesądza nasz pęd do wiedzy,
a wyjątkowość naszego gatunku odzwierciedlają sukcesy, jakie osiągnęliśmy
po tysiącleciach wysiłków w odszyfrowywaniu zagadek przyrody. Człowiek
starożytny, któremu dano by kuchenkę mikrofalową, żeby ogrzał mięso tura,
mógłby snuć rozważania, że wewnątrz znajduje się armia ciężko pracujących
bogów wielkości ziarenek grochu, którzy rozpalają miniaturowe ogniska pod
mięsem, a następnie w cudowny sposób znikają, kiedy otwiera się drzwiczki.
Jednak prawda jest równie cudowna – że garść prostych i nienaruszalnych
abstrakcyjnych praw wyjaśnia wszystko, co dzieje się w naszym
Wszechświecie, od działania kuchenki mikrofalowej po cuda natury.
W miarę jak nasze zrozumienie świata ewoluowało, postąpiliśmy od
postrzegania przypływów jako rządzonych przez bóstwa do zrozumienia ich
jako wyniku przyciągania grawitacyjnego Księżyca i przeszliśmy od
myślenia o gwiazdach jako bogach unoszących się w niebiosach do
zidentyfikowania ich jako pieców nuklearnych, wysyłających w naszą stronę
fotony. Dziś rozumiemy wewnętrzne funkcjonowanie Słońca oddalonego
o setki milionów kilometrów i strukturę atomu ponad miliard razy
mniejszego od nas samych. To, że byliśmy w stanie odszyfrować te i inne
zjawiska naturalne, nie jest jedynie cudem. Jest to również pasjonująca
i epicka historia.
Jakiś czas temu przez jeden sezon pracowałem w zespole piszącym
scenariusze serialu telewizyjnego Star Trek: Następne pokolenie.
Na pierwszym spotkaniu, przy stole obsadzonym przez wszystkich
scenarzystów i producentów serialu, rzuciłem pomysł na odcinek, który
wydawał mi się ekscytujący, ponieważ był związany z prawdziwą astrofizyką
wiatru słonecznego. Wszystkie oczy skupiły się na mnie, tym nowym gościu,
fizyku, gdy z entuzjazmem szczegółowo opisywałem swój pomysł i idee
naukowe, które się za nim kryły. Kiedy skończyłem – zajęło mi to mniej niż
minutę – spojrzałem z wielką dumą i zadowoleniem na szefa, mrukliwego
producenta w średnim wieku, który kiedyś był detektywem w wydziale
zabójstw policji nowojorskiej. Ten popatrzył przez chwilę na mnie z dziwnie
nieprzeniknionym wyrazem twarzy, a następnie powiedział z wielkim
naciskiem: „Zamknij się, cholerny jajogłowy!”.
Kiedy zakłopotany dochodziłem do siebie, uświadomiłem sobie, że w tak
zwięzły sposób mówił mi, iż zatrudnili mnie ze względu na moje
umiejętności opowiadania historii, a nie żebym przeprowadzał obszerne
lekcje fizyki gwiazd. Jego uwaga była bardzo trafna i od tego czasu
pozwalałem, żeby kierowała moim pisaniem. (Inna jego zapadająca w pamięć
sugestia: jeśli kiedykolwiek czujesz, że masz zostać zwolniony, wskocz się
ochłodzić do basenu).
Źle podana nauka może być niezmiernie nudna. Jednak historia tego, co
wiemy i jak się tego dowiedzieliśmy, nie jest wcale nudna. Jest ekscytująca.
Pełno w niej odkryć, które są nie mniej zajmujące niż odcinek Star Treka
albo pierwsza podróż na Księżyc, jest zaludniona przez postaci obdarzone
pasją i równie dziwaczne jak te, które znamy ze sztuki, muzyki i literatury,
poszukiwaczy, których nienasycona ciekawość zaprowadziła nasz gatunek
z afrykańskiej sawanny do czasów współczesnych.
Jak tego dokonali? Jak przeszliśmy od gatunku, który ledwie nauczył się
chodzić na dwóch nogach, utrzymując się przy życiu dzięki orzechom,
jagodom i korzonkom, do czasów, w których latamy samolotami, wysyłamy
wiadomości w mgnieniu oka okrążające kulę ziemską i odtwarzamy
w ogromnych laboratoriach warunki panujące w młodym Wszechświecie? To
właśnie tę historię chcę opowiedzieć, ponieważ wiedzieć to zrozumieć swoje
dziedzictwo jako istoty ludzkiej.

***

Stwierdzenie, że świat jest płaski, to komunał. Jeśli jednak odległości


i różnice między krajami skutecznie maleją, różnice między dziś i jutro się
zwiększają. Kiedy około 4 tysięcy lat p.n.e. zbudowano pierwsze miasta,
najszybszym sposobem podróżowania na duże odległości była karawana
wielbłądów o średniej prędkości zaledwie kilku kilometrów na godzinę.
Tysiąc do dwóch tysięcy lat później wynaleziono rydwan, co zwiększyło
prędkość maksymalną do około 32 kilometrów na godzinę2. Dopiero pod
koniec XIX wieku lokomotywa parowa wreszcie pozwoliła na szybsze
podróżowanie, pod koniec stulecia osiągając prędkości do 160 kilometrów na
godzinę. Choć jednak zwiększenie prędkości, z jaką przemierzali świat, z 16
do 160 kilometrów na godzinę zajęło ludziom dwa miliony lat, potrzebowali
tylko dziesięciu, żeby znów pomnożyć ją przez dziesięć, co nastąpiło wraz ze
zbudowaniem samolotu, który mógł latać z prędkością 1600 kilometrów na
godzinę. A w latach osiemdziesiątych XX wieku ludzie podróżowali
z prędkością ponad 27 tysięcy kilometrów na godzinę w statku kosmicznym.
Ewolucja innych technologii wykazuje podobne przyspieszenie. Weźmy
łączność. Pod koniec XIX wieku serwisy wiadomości Reutera wciąż
wykorzystywały gołębie do przenoszenia informacji o cenach akcji między
miastami3. Później, w połowie XIX wieku, powszechnie dostępny stał się
telegraf, a w wieku XX – telefon. Zanim naziemne linie telefoniczne
uzyskały 75 procent udziałów w rynku, minęło osiemdziesiąt jeden lat.
Telefonia komórkowa dokonała tego samego w dwadzieścia osiem lat,
a smartfon w trzynaście. Natomiast ostatnio rozmowy telefoniczne jako
narzędzie komunikacji w dużej mierze zastąpiły najpierw poczta
elektroniczna, a później SMS-y, podczas gdy telefon jest w coraz większym
stopniu używany jako kieszonkowy komputer.
„Dzisiejszy świat – stwierdził ekonomista Kenneth Boulding – tak różni się
od tego, w którym się urodziłem, jak tamten różnił się od świata Juliusza
Cezara”4. Boulding urodził się w 1910 roku, a zmarł w 1993. Zmiany,
których był świadkiem – i wiele innych, które nastąpiły później – były
wytworem nauki i zrodzonych dzięki niej technologii. Tego typu zmiany
wpływają obecnie na ludzkie życie bardziej niż kiedykolwiek wcześniej,
a nasze powodzenie w pracy i społeczeństwie w coraz większym stopniu
opiera się na zdolności zarówno do przyswajania innowacji, jak
i samodzielnego ich tworzenia. Dziś bowiem wymogi coraz bardziej
konkurencyjnego świata sprawiają, że nawet ci, którzy bezpośrednio nie
zajmują się nauką i techniką, stają w obliczu zmian wymagających od nich
innowacyjności. Zrozumienie, jak rodzi się odkrycie, jest więc ważne dla
wszystkich.
Aby zyskać odpowiednią perspektywę na to, gdzie dziś jesteśmy, i by mieć
nadzieję na zrozumienie, dokąd zmierzamy, trzeba wiedzieć, skąd
przychodzimy. Największe tryumfy historii ludzkiej myśli – pismo
i matematyka, filozofia naturalna czy inne nauki – przedstawiane są
zazwyczaj oddzielnie, jak gdyby nie miały ze sobą nic wspólnego. W ten
sposób dostrzegamy drzewa, ale nie las. Takie podejście pomija siłą rzeczy
jedność ludzkiej wiedzy. Na przykład rozwój współczesnej nauki – często
ogłaszany jako dzieło „pojedynczych geniuszy” takich jak Galileusz
i Newton – nie powstał w społecznej czy kulturowej pustce. Ma on swoje
korzenie w podejściu do wiedzy stworzonym przez starożytnych Greków;
wyrósł z wielkich pytań stawianych przez religię; rozwijał się w parze
z nowym podejściem do sztuki; został zabarwiony lekcjami płynącymi
z alchemii; byłby niemożliwy bez postępu społecznego sięgającego od
wielkiego rozwoju uniwersytetów w Europie po takie przyziemne wynalazki
jak systemy pocztowe, które rosły, łącząc sąsiadujące ze sobą miasta
i państwa. Greckie oświecenie, podobnie, wykiełkowało ze zdumiewających
wynalazków intelektualnych Egipcjan i mieszkańców Mezopotamii.
W rezultacie tych wpływów i powiązań wyjaśnienie, jak ludzie doszli do
zrozumienia kosmosu, nie składa się z odizolowanych od siebie obrazków.
Tworzy ono, jak najlepsza powieść, spójną narrację, jednolitą całość, której
części łączą się ze sobą i która rozpoczyna się u zarania ludzkości. W dalszej
części książki proponuję wybiórczą wycieczkę z przewodnikiem po tej
odysei odkryć naukowych.
Nasza podróż zaczyna się wraz z rozwojem współczesnego ludzkiego
umysłu i obejmuje kluczowe epoki i punkty zwrotne, w których przeskakiwał
on do nowych sposobów patrzenia na świat. Po drodze sportretuję również
kilka z fascynujących postaci, których wyjątkowe osobiste zalety i sposoby
myślenia odegrały ważną rolę w tych przełomach.
Jak wiele opowieści, jest to dramat w trzech częściach. Część I, obejmująca
miliony lat, śledzi ewolucję ludzkiego mózgu i jego skłonność do pytania:
„dlaczego?”. Nasze „dlaczego” popychały nas do najwcześniejszych badań
duchowych i doprowadziły w końcu do rozwoju pisma i matematyki oraz
samego pojęcia praw – niezbędnych narzędzi nauki. W końcu przyczyniły się
do stworzenia filozofii pokazującej, że świat materialny działa zgodnie
z porządkiem, który w zasadzie można zrozumieć.
Następną fazą naszej podróży będzie zbadanie narodzin nauk ścisłych. Jest
to historia rewolucjonistów, którzy posiadali dar widzenia świata inaczej niż
reszta ludzi oraz cierpliwość, błyskotliwość i odwagę, by dążyć do czegoś
przez lata, a nawet dekady, których wymaga nieraz rozwinięcie idei. Ci
pionierzy – myśliciele tacy jak Galileusz, Newton, Lavoisier i Darwin –
zmagali się często z doktrynerstwem swoich czasów, tak że ich historie są
w nieunikniony sposób opowieściami o osobistej walce, w której stawką było
niekiedy ich własne życie.
Wreszcie, jak w wielu dobrych opowieściach, nasza historia dokonuje
nieoczekiwanego zwrotu właśnie wtedy, gdy jej bohaterowie mają powód, by
sądzić, że są blisko końca swojej drogi. Gdy bowiem ludzkość dopiero
zaczęła wierzyć, że odszyfrowała wszystkie prawa natury, w osobliwym
zwrocie akcji tacy myśliciele jak Einstein, Bohr i Heisenberg odkryli nową
sferę istnienia, sferę niewidzialną, w której te prawa trzeba było spisać na
nowo. Ten „inny” świat – ze swoimi innoświatowymi prawami – rozgrywa
się w skali zbyt małej, by była namacalna: oto mikrokosmosy atomu,
rządzone prawami fizyki kwantowej. Ich poznanie wywołało ogromne
i wciąż przyspieszające zmiany, a zrozumienie świata kwantowego
umożliwiło nam wynalezienie komputerów, telefonów komórkowych,
telewizji, laserów, Internetu, obrazowania medycznego, mapowania
genetycznego i większości nowych technologii, które zrewolucjonizowały
współczesne życie.
Podczas gdy część I obejmuje miliony lat, a część II setki, część III dotyczy
zaledwie dekad, co odzwierciedla wykładnicze przyspieszenie w akumulacji
ludzkiej wiedzy – oraz świadczy o tym, że dopiero wkraczamy w ten dziwny,
nowy świat.
***

Odyseja ludzkich odkryć rozciąga się na wiele epok, ale powody naszego
dążenia do zrozumienia świata nigdy się nie zmieniają, ponieważ wypływają
z ludzkiej natury. Jeden z tych powodów jest dobrze znany każdemu, kto
pracuje w dziedzinie związanej z innowacjami i odkryciami: trudność ze
zrozumieniem świata albo pomysłów różniących się cokolwiek od świata
i idei, które już znamy.
W latach pięćdziesiątych XX wieku Isaac Asimov, jeden z największych
i najbardziej twórczych pisarzy science fiction wszech czasów, napisał
trylogię Fundacja, serię powieści rozgrywających się za wiele tysięcy lat
w przyszłości. W tych książkach ludzie dojeżdżają codziennie do pracy
w biurach, a kobiety zostają w domu. W ciągu zaledwie kilku dekad ta wizja
odległej przyszłości stała się niemal przeszłością. Wspominam o niej,
ponieważ ilustruje ona niemal powszechne ograniczenie myśli ludzkiej: nasza
kreatywność hamowana jest przez konwencjonalne myślenie, wynikające
z przekonań, których nie jesteśmy w stanie wzruszyć albo o których
zakwestionowaniu nigdy nie myślimy.
Odwrotną stroną trudności ze zrozumieniem zmiany jest kłopot związany
z jej zaakceptowaniem, i jest to kolejny powracający wątek naszej opowieści.
Zmiana może być dla nas, ludzi, przytłaczająca. Zmiana jest wymagająca
wobec naszych umysłów, wyprowadza nas poza naszą strefę komfortu,
wstrząsa nawykami mentalnymi. Wywołuje zamęt i dezorientację. Wymaga,
żebyśmy zarzucili stare sposoby myślenia, a ich zarzucenie nie jest naszym
wyborem, tylko jest nam narzucone. Co więcej, zmiany wynikające z postępu
naukowego często wywracają do góry nogami systemy przekonań, do
których przywiązana jest znaczna liczba ludzi – a od których może również
zależą ich kariery i środki do życia. W rezultacie nowe idee w nauce często
spotykają się z oporem, złością i wyśmiewaniem.
Nauka jest duszą nowoczesnej technologii, korzeniem współczesnej
cywilizacji. Leży u podstaw wielu kwestii politycznych, religijnych
i etycznych naszych czasów, a idee, które stanowią jej fundament,
przekształcają społeczeństwo w coraz szybszym tempie. Jednak tak jak nauka
odgrywa kluczową rolę w kształtowaniu wzorców ludzkiego myślenia, jest
również prawdą, że wzorce ludzkiego myślenia odegrały kluczową rolę
w ukształtowaniu naszych teorii naukowych. Nauka jest bowiem, jak
zauważył Einstein, „tak subiektywnie i psychologicznie uwarunkowana jak
każda inna dziedzina ludzkich przedsięwzięć”5. W swej książce zatem
podejmuję wysiłek opisania rozwoju nauki w tym duchu – jako
intelektualnego, ale też kulturowo zdeterminowanego przedsięwzięcia,
którego idee można najlepiej zrozumieć dzięki zbadaniu osobistych,
psychologicznych, historycznych i społecznych uwarunkowań, jakie je
ukształtowały. Spojrzenie na naukę w ten sposób rzuca światło nie tylko na
samo to przedsięwzięcie, lecz także na naturę kreatywności i innowacji, a
szerzej – na kondycję ludzką.

1 W języku angielskim słowo pi oznaczające liczbę π i słowo pie oznaczające ciasto


(często konkretnie szarlotkę) wymawia się tak samo (przyp. tłum.).

2 Alvin Toffler, Szok przyszłości, wyd. 3, przeł. W. Osiatyński i in., Wydawnictwo


Kurpisz, Przeźmierowo 2007.

3 Chronology: Reuters, from Pigeons to Multimedia Merger, Reuters, 19 lutego 2008 r.,
dostęp 27 października 2014 r., http://www.reuters.com/article/2008/02/19/us-reuters-
thomson-chronology-idUSL1849100620080219.

4 Alvin Toffler, op. cit.

5 Albert Einstein, Einstein’s Essays in Science, Nowy Jork 1934, Wisdom Library,
s. 112.
2.

Ciekawość

Aby zrozumieć pochodzenie nauki, musimy spojrzeć wstecz na początki


samego gatunku ludzkiego. My, ludzie, jesteśmy wyjątkowo obdarzeni
zarówno zdolnością, jak i pragnieniem zrozumienia nas samych i naszego
świata. Jest to największy z darów, który odróżnia nas od innych zwierząt,
i właśnie dlatego to my badamy myszy i świnki morskie, a nie one nas. Silne
pragnienie wiedzy, pęd do rozmyślania i do tworzenia przez tysiąclecia
wytworzyły narzędzia pozwalające nam przetrwać i stworzyć sobie
wyjątkową niszę ekologiczną. Wykorzystując raczej siłę intelektu niż siłę
fizyczną, ukształtowaliśmy nasze środowisko tak, by służyło naszym
potrzebom, zamiast pozwolić, by to ono ukształtowało – albo pokonało – nas.
Przez miliony lat siła i kreatywność naszych umysłów tryumfowała nad
przeszkodami, które stanowiły wyzwanie dla siły i zręczności ciał.
Mój syn Nicolai, gdy był jeszcze mały, lubił chwytać małe jaszczurki
i trzymać je w domu – można to robić, gdy się mieszka w południowej
Kalifornii. Zauważyliśmy, że gdy zbliżamy się do tych zwierząt, najpierw
zastygają w bezruchu, a następnie, gdy się po nie sięga, uciekają. W końcu
wykombinowaliśmy, że jeśli weźmiemy ze sobą duże pudełko, moglibyśmy
nakryć nim jaszczurkę, zanim czmychnie, a następnie wsunąć pod nie
kawałek kartonu, żeby odciąć jej drogę ucieczki. Ja sam, gdy idę ciemną,
opustoszałą ulicą i widzę coś podejrzanego, nie zastygam w bezruchu, tylko
natychmiast przechodzę na drugą stronę. Tak więc można spokojnie założyć,
że jeśli zbliżałyby się dwa gigantyczne drapieżniki skwapliwie się we mnie
wpatrujące i niosące ze sobą ogromne pudło, założyłbym, że stanie się
najgorsze, i natychmiast rzucił do ucieczki. Jednak jaszczurki nie badają
swojego położenia. Działają czysto instynktownie. Ten instynkt niewątpliwie
służył im dobrze przez wiele milionów lat, zanim pojawił się Nicolai
i pudełko, ale tutaj je zawodzi.
My, ludzie, możemy nie być okazami siły, ale posiadamy zdolność do
zastępowania instynktu rozumem i – co najważniejsze dla naszych celów –
do stawiania pytań dotyczących naszego środowiska. Są to warunki wstępne
powstania myślenia naukowego i są one zasadniczymi cechami naszego
gatunku. To właśnie tu rozpoczyna się nasza przygoda: od rozwoju ludzkiego
umysłu z jego wyjątkowymi darami.
Mówiąc o sobie, używamy często słowa „człowiek”, które jednak
w rzeczywistości odnosi się nie tylko do nas – Homo sapiens sapiens – ale do
całego rodzaju nazywanego Homo. Rodzaj ten obejmuje inne gatunki, takie
jak Homo habilis i Homo erectus, choć ci nasi krewniacy wymarli już dawno
temu. W zawodach zwanych ewolucją, eliminujących kolejnych
zawodników, inne gatunki człowiekowatych okazały się nieprzystosowane.
Tylko my z uwagi na siłę naszych umysłów sprostaliśmy (na razie)
wszystkim wyzwaniom.
Nie tak dawno cytowano wypowiedzi pewnego człowieka, wówczas
prezydenta Iranu, który stwierdził, że Żydzi pochodzą od małp i świń.
Zawsze pociesza, gdy fundamentalista z jakiejkolwiek religii wyznaje wiarę
w ewolucję, waham się więc przed skrytykowaniem go, ale w istocie Żydzi –
podobnie jak wszyscy inni ludzie – nie pochodzą ani od małp, ani od świń,
ale od małp człekokształtnych i szczurów, a przynajmniej od stworzeń
przypominających szczury6. Nazywana w literaturze naukowej
Protungulatum donnae nasza prapraprapra-i-tak-dalej-babka – przodek
naczelnych, od których pochodzimy, i wszystkich ssaków takich jak my –
należała, jak się wydaje, do ślicznego gatunku, którego okryci futerkiem
przedstawiciele ważyli nie więcej niż ćwierć kilograma i mieli ogony.
Artystyczna wizja Protungulatum [Maureen A. O’Leary i in., The Placental
Mammal Ancestor and the Post–K-Pg Radiation of Placentals, „Science”, nr 339
(8 lutego 2013 r.), s. 662–667.]

Naukowcy są przekonani, że te niewielkie zwierzątka pojawiły się po raz


pierwszy w środowisku około sześćdziesięciu sześciu milionów lat temu,
niedługo po tym, jak asteroida o średnicy blisko dwudziestu kilometrów
uderzyła w Ziemię. To katastrofalne zderzenie wyrzuciło do atmosfery taką
ilość pyłów, że na długo zablokowały one dostęp do powierzchni Ziemi
promieniowania słonecznego – i wytworzyło wystarczająco dużo gazów
cieplarnianych, żeby temperatura poszybowała w górę, gdy pył w końcu
opadł. Podwójne przekleństwo ciemności i następującego po niej gorąca
zabiło około 75 procent wszystkich gatunków roślin i zwierząt, ale dla nas
było szczęśliwym wydarzeniem: stworzyło niszę ekologiczną, w której
zwierzęta rodzące młode mogły przetrwać i rozwijać się bez obawy pożarcia
przez wygłodniałe dinozaury i inne drapieżniki. Przez kolejne dziesiątki
milionów lat, gdy gatunek za gatunkiem pojawiał się i wymierał, jedna
z gałęzi rodziny Protungulatum wyewoluowała w naszych przodków, małpy
człekokształtne, a także inne małpy, następnie dalej się rozgałęziała, do
naszych najbliższych żyjących krewniaków, szympansów i bonobo
(szympansów karłowatych), a w końcu Ciebie, czytelniku tej książki,
i innych ludzi.
Dziś większość ludzi dobrze się czuje z faktem, że ich prababka miała ogon
i zjadała owady. Posunę się dalej niż do zwykłej akceptacji tego faktu: jestem
podekscytowany i zafascynowany naszą przodkinią i historią naszego
przetrwania i ewolucji kulturowej. Myślę, że fakt, iż nasi praprzodkowie byli
szczurami i małpami człekokształtnymi, jest jednym z najfajniejszych
aspektów dotyczących natury: na naszej zadziwiającej planecie szczur plus
sześćdziesiąt sześć milionów lat wydało naukowców, którzy badają tego
szczura, a tym samym odkrywają własne korzenie. Po drodze stworzyliśmy
kulturę i historię, religię i naukę, a także zastąpiliśmy zbudowane z patyków
gniazdo naszego praprzodka błyszczącymi drapaczami nieba z betonu i stali.
Tempo tego rozwoju intelektualnego rosło niewyobrażalnie. Natura
potrzebowała około sześćdziesięciu milionów lat do wytworzenia „małpy”,
od której pochodzą wszystkie człowiekowate; reszta ewolucji fizycznej
nastąpiła w ciągu kilku milionów lat, nasza ewolucja kulturowa zajęła zaś
zaledwie dziesięć tysięcy lat. To tak, jak gdyby – jak ujął to psycholog Julian
Jaynes – „wszelkie życie ewoluowało do pewnego punktu, a potem obracało
się i eksplodowało w innym kierunku”7.
Mózgi zwierząt ewoluowały z najbardziej podstawowego powodu: żeby
umożliwiać im lepsze poruszanie. Zdolność do poruszania się – do
znajdowania pożywienia i schronienia oraz do uciekania przed wrogiem –
jest, oczywiście, jedną z najbardziej fundamentalnych cech życiowych
zwierząt. Jeśli spojrzymy wstecz na długą drogę ewolucji prowadzącą do
takich zwierząt jak glisty, dżdżownice i małże, zauważymy, że zaczątki
mózgu u nich kontrolowały właśnie ruch, pobudzając właściwe mięśnie we
właściwej kolejności. Sam ruch nie przynosi wiele dobrego bez zdolności do
postrzegania środowiska, a więc nawet proste zwierzęta mają sposób na
wyczuwanie tego, co się wokół nich dzieje – komórki reagujące na bodźce
chemiczne lub fotony światła i wysyłające impulsy elektryczne do nerwów
rządzących kontrolą ruchu. Do pojawienia się Protungulatum donnae te
wrażliwe na związki chemiczne albo światło komórki wyewoluowały
w zmysły węchu i wzroku, a splot nerwów, który kontrolował ruch mięśni,
stał się mózgiem.
Nikt dokładnie nie wie, jak mózgi naszych przodków były zorganizowane
w komponenty funkcjonalne, ale nawet we współczesnym mózgu ludzkim
ponad połowa neuronów przeznaczona jest do kontroli motorycznej i pięciu
zmysłów. Natomiast ta część naszego mózgu, która różni nas od „niższych”
zwierząt, jest stosunkowo mała i pojawiła się późno.
Jedne z pierwszych niemal ludzkich stworzeń przemierzały Ziemię
zaledwie trzy do czterech milionów lat temu8. Nie znaliśmy ich aż do
pewnego upalnego dnia 1974 roku, kiedy to Donald Johanson, antropolog
z Instytutu Pochodzenia Człowieka w Berkeley, natknął się na maleńki
fragment kości przedramienia wystający ze spieczonej ziemi w wyschniętym
parowie w odległym zakątku północnej Etiopii. Johanson i jego studenci
wykopali niebawem więcej kości – kości udowe i żebra, kręgi, nawet część
żuchwy. Łącznie znaleźli niemal połowę szkieletu osobnika płci żeńskiej.
Miała ona kobiecą miednicę, małą czaszkę, krótkie nogi i długie, zwisające
ręce. Nie był to ktoś, kogo chcielibyście zaprosić na bal maturalny, ale ta
licząca 3,2 miliona lat dama uznawana jest za ogniwo łączące nas
z przeszłością, gatunek przejściowy i prawdopodobnie przodka, z którego
wyewoluował cały nasz rodzaj.
Johanson nazwał ten nowy gatunek Australopithecus afarensis, co oznacza
„południowa małpa człekokształtna z Afar” (Afar to region Etiopii, w którym
dokonano odkrycia). Nadał również kościom imię Lucy od piosenki
Beatlesów Lucy in the Sky with Diamonds, którą nadawało obozowe radio,
gdy Johanson i jego zespół świętowali odkrycie. Andy Warhol powiedział, że
każdy będzie miał piętnaście minut sławy, i po milionach lat Lucy w końcu
dostała swoje piętnaście minut. Ściśle mówiąc, jej połowa – drugiej nigdy nie
znaleziono.
Zaskakujące jest to, jak wiele antropolodzy potrafią się dowiedzieć
z połowy szkieletu. Duże zęby Lucy, której szczęki były przystosowane do
kruszenia, sugerują, że jej dieta była wegetariańska i składała się z twardych
korzonków, ziaren i owoców z twardą zewnętrzną okrywą9. Budowa
szkieletu wskazuje, że miała duży brzuch, niezbędny ze względu na znaczną
długość jelit, których potrzebowała, żeby strawić niezbędną do przeżycia
ilość materii roślinnej. Co najważniejsze, budowa jej kręgosłupa i kolan
dowodzi, że chodziła w mniej lub bardziej wyprostowanej postawie10, a kości
innych przedstawicieli jej gatunku, które Johanson i jego współpracownicy
odkryli niedaleko w 2011 roku, pokazały, że stopy miały podobne do ludzi,
z wysklepieniem odpowiednim do chodzenia, w przeciwieństwie do
chwytnych odnóży. Gatunek Lucy ewoluował od życia na drzewach do życia
na ziemi, co umożliwiło jego członkom poszukiwanie pożywienia
w mieszanym środowisku lasu i sawanny oraz wykorzystanie smakołyków
wykopywanych spod ziemi, takich jak bogate w białka korzonki i bulwy. To
właśnie ten styl życia w przekonaniu wielu badaczy zrodził cały rodzaj
Homo.
Wyobraźcie sobie, że mieszkacie w domu, posesję obok zajmuje wasza
matka, a obok niej z kolei jej matka i tak dalej. Nasze ludzkie dziedziczenie
nie jest w rzeczywistości linearne, ale pomijając te komplikacje, ciekawie jest
wyobrazić sobie, że jedziemy taką ulicą, cofając się w czasie i mijając
pokolenia po pokoleniach naszych przodków. Jeśli byłoby to możliwe, trzeba
by przejechać niemal sześć i pół tysiąca kilometrów, żeby dotrzeć do domu
Lucy11, która jako mierząca około metra i ważąca około trzydziestu
kilogramów włochata „kobieta” wyglądałaby bardziej jak szympans niż nasza
krewna. Mniej więcej w połowie drogi mijałoby się dom przodka, którego od
Lucy dzieliłoby sto tysięcy pokoleń12, pierwszy gatunek wystarczająco
podobny do dzisiejszych ludzi – pod względem szkieletu, a jak twierdzą
naukowcy, również umysłu – żeby sklasyfikować go jako należący do
rodzaju Homo. Naukowcy ochrzcili ten gatunek sprzed dwóch milionów lat
Homo habilis, czyli „człowiek zręczny”.
Homo habilis żył na ogromnych sawannach Afryki, w czasie gdy z powodu
zmian klimatu lasy się cofały. Porośnięte trawą równiny nie były łatwym
środowiskiem dla naszego przodka, ponieważ zamieszkiwała je ogromna
liczba przerażających drapieżników. Najmniej niebezpieczne z nich
konkurowały z Homo habilis o obiad; najbardziej niebezpieczne próbowały
zjeść go na obiad. Jedynym sposobem na przetrwanie „człowieka zręcznego”
była pomysłowość – miał nowy, większy mózg, wielkości małego grejpfruta.
Wielkość mózgu Homo habilis w skali sałatki owocowej była mniejsza od
naszego melona, ale dwa razy przekraczała objętość mózgu Lucy (wielkości
pomarańczy13).
Kiedy porównujemy różne gatunki, wiemy z doświadczenia, że istnieje
zazwyczaj przybliżona korelacja między zdolnościami intelektualnymi
i stosunkiem przeciętnej wagi mózgu do wielkości ciała. Dlatego na
podstawie wielkości mózgu możemy wywnioskować, że Homo habilis miał
większe zdolności intelektualne niż Lucy i jej krewniacy. Na szczęście
umiemy oszacować wielkość mózgu i jego kształt u ludzi i innych
naczelnych, nawet gdy te gatunki już dawno wymarły – ponieważ ich mózgi
pasowały dokładnie do czaszek; jeśli tylko dysponujemy czaszką, wystarczy
sporządzić odlew jej wnętrza.
Aby nie wydawało się, że bronię rozmiaru kapelusza jako zastępczego
sposobu mierzenia inteligencji, powinienem dodać zastrzeżenie, że gdy
naukowcy mówią, iż są w stanie szacować inteligencję przez porównywanie
wielkości mózgu, mają na myśli jedynie porównywanie przeciętnej wielkości
mózgu różnych gatunków. Wielkość mózgu różni się znacznie wśród
przedstawicieli jednego gatunku14, ale w ramach jednego gatunku nie jest
związana bezpośrednio z inteligencją. Na przykład mózg współczesnego
człowieka waży przeciętnie około półtora kilograma. Jednak mózg
angielskiego poety lorda Byrona ważył około dwóch i pół kilograma,
francuskiego poety i laureata Nagrody Nobla Anatole’a France’a ledwie
ponad kilogram, a Alberta Einsteina – około 1,35 kilograma. Znamy również
przypadek niejakiego Daniela Lyonsa, który zmarł w 1907 roku w wieku
czterdziestu jeden lat. Miał normalną wagę ciała i normalną inteligencję, ale
kiedy podczas sekcji zważono jego mózg, wskaźnik zatrzymał się na punkcie
skali odpowiadającym zaledwie 680 gramom. Morał z tej historii jest taki, że
w ramach jednego gatunku architektura mózgu – natura połączeń między
neuronami i grupami neuronów – jest znacznie ważniejsza niż jego wielkość.
Mózg Lucy był tylko niewiele większy od mózgu szympansa. Co
ważniejsze, kształt jej czaszki wskazuje, że zwiększona moc mózgu
skoncentrowana była w tych jego obszarach, które odpowiadają za
przetwarzanie sensoryczne, natomiast płaty czołowe, skroniowe
i ciemieniowe – w których ulokowane jest myślenie abstrakcyjne i język –
pozostały stosunkowo nierozwinięte. Lucy stanowiła krok w kierunku
rodzaju Homo, ale jeszcze do niego nie należała. Inaczej niż Homo habilis.
Podobnie jak Lucy „człowiek zręczny” przybierał postawę
wyprostowaną15, uwalniając swoje ręce, tak że mogły przenosić przedmioty,
jednak w przeciwieństwie do niej wykorzystywał tę swobodę do
eksperymentowania ze swoim środowiskiem. I tak się złożyło, że mniej
więcej dwa miliony lat temu jakiś Einstein albo Maria Curie gatunku Homo
habilis, albo – co bardziej prawdopodobne – kilkoro prageniuszy
działających niezależnie od siebie, dokonało pierwszego doniosłego odkrycia
w dziejach ludzkości: jeśli uderzy się kamieniem o kamień pod kątem, można
odłupać ostry odłamek w kształcie noża. Nauka walenia kamieniem nie
wygląda na początek rewolucji społecznej i kulturowej. Z pewnością
wytwarzanie kamiennych odłupków wypada blado w porównaniu
z wynalezieniem żarówki, Internetu albo ciasteczek z wiórkami
czekoladowymi. Jednakże był to nasz pierwszy kroczek do uświadomienia
sobie, że możemy zdobywać wiedzę o przyrodzie i ją przekształcać, żeby
udoskonalać naszą egzystencję, i że możemy polegać na naszych mózgach,
które wyposażają nas w moce dopełniające, a często przekraczające siły
naszych ciał.

Dla stworzenia, które nigdy nie widziało żadnego rodzaju narzędzia, swego
rodzaju wielgachny sztuczny ząb, który można wziąć do ręki i wykorzystać
do cięcia i krajania, jest wynalazkiem rewolucjonizującym życie,
i rzeczywiście pomógł on zmienić sposób życia praludzi. Lucy i jej
pobratymcy byli wegetarianami – badanie mikroskopowe zużycia zębów
Homo habilis i ślady nacięć na kościach znalezionych w pobliżu szkieletów
tego gatunku wskazują, że „człowiek zręczny” używał kamiennych ostrzy do
uzupełnienia diety o mięso16.
Homo habilis (Dzięki uprzejmości Nachosen/Wikimedia Commons)

Wegetariańska dieta Lucy i jej gatunku groziła okresowymi niedoborami


pożywienia roślinnego związanymi z porami roku. Dieta mieszana pomogła
Homo habilis przetrwać te niedobory. A ponieważ mięso zawiera bardziej
skoncentrowane składniki odżywcze niż materia roślinna, mięsożercy
potrzebują znacznie mniejszej ilości pożywienia niż wegetarianie. Co prawda
szpinaku nie trzeba ścigać i ubijać, natomiast zdobycie pożywienia
zwierzęcego może być dość trudne, jeśli nie posiada się śmiercionośnej
broni, której brakowało Homo habilis. W rezultacie „człowiek zręczny”
pozyskiwał większość mięsa z resztek pozostawionych przez drapieżniki,
takie jak tygrysy szablastozębne, które za pomocą potężnych przednich łap
i zębów przypominających rzeźnickie noże zabijały zwierzynę często
znacznie większą, niż były w stanie zjeść. Jednak nawet wygrzebywanie
resztek może być trudne, jeśli – tak jak Homo habilis – trzeba konkurować
z innymi gatunkami. Gdy więc następnym razem zirytuje was czekanie pół
godziny na miejsce w ulubionej restauracji, starajcie się przypomnieć sobie,
że wasi przodkowie, by zdobyć pożywienie, musieli walczyć z włóczącymi
się stadami zawziętych hien.
W walce o zdobycie pożywienia ostre kamienne odłupki „człowieka
zręcznego” miały za zadanie szybciej i łatwiej oddzielić mięso od kości, co
pomagało dotrzymać pola zwierzętom, które urodziły się z analogicznymi
narzędziami17. Gdy zatem tylko te narzędzia się pojawiły, stały się
niezmiernie popularne, a ludzie używali ich przez blisko dwa miliony lat.
W istocie to właśnie liczne, rozrzucone dookoła obrobione kamienie
znalezione przy skamieniałościach Homo habilis zainspirowały nazwę
„człowiek zręczny” nadaną temu gatunkowi przez Louisa Leakeya i jego
współpracowników na początku lat sześćdziesiątych XX wieku. Od tego
czasu kamienne odłupki znajdowano w takiej obfitości na stanowiskach
archeologicznych, że często trzeba było bardzo uważać, żeby się o nie
przypadkiem nie potknąć.

***

Od zaostrzonych kamieni do transplantacji wątroby prowadzi długa droga,


ale umysł Homo habilis – co odzwierciedla wykorzystywanie przez niego
narzędzi – rozwinął się tak, że przekroczył zdolności wszystkich naszych
wymarłych krewnych z rzędu naczelnych. Na przykład nawet po latach
trenowania przez badaczy naczelnych szympansy bonobo nie nabierały
biegłości w używaniu prostych narzędzi kamiennych tego rodzaju, jakie
stosował Homo habilis18. Najnowsze badania z zakresu neuroobrazowania
sugerują, że zdolność do projektowania, planowania i wykorzystywania
narzędzi powstała dzięki ewolucyjnemu rozwojowi wyspecjalizowanej sieci
„używania narzędzi” w lewej półkuli naszego mózgu19. Niestety, znamy
rzadkie przypadki, w których ludzie z uszkodzeniami tej sieci radzą sobie nie
lepiej niż bonobo: potrafią zidentyfikować narzędzie, ale – tak jak ja przed
wypiciem porannej kawy – nie są w stanie sobie wyobrazić, jak użyć nawet
najprostszych, takich jak szczoteczka do zębów albo grzebień20.
Pomimo poprawy mocy poznawczych ten gatunek człowieka sprzed ponad
dwóch milionów lat – Homo habilis – miał wciąż stosunkowo niewielki
mózg i wzrost, długie ręce oraz twarz, która mogłaby się spodobać jedynie
hodowcy zwierząt. Człowiek zręczny był zaledwie cieniem współczesnego
człowieka. Jednak po jego pojawieniu się w niedługim czasie – według
geologicznej skali czasowej – przybyło też kilka innych gatunków Homo.
Najważniejszym z nich – co do którego większość ekspertów jest zgodna, że
to bezpośredni przodek naszego gatunku – był Homo erectus, czyli „człowiek
wyprostowany”, który zasiedlał Afrykę około 1,8 miliona lat temu21.
Pozostałości szkieletów ujawniają, że „człowiek wyprostowany” bardziej
przypominał dzisiejszych ludzi niż „człowiek zręczny”, był nie tylko bardziej
wyprostowany, ale też większy i wyższy – liczył niemal półtora metra
wzrostu przy wyprostowanej postawie – z długimi kończynami i znacznie
większą czaszką, która pozwoliła na rozwinięcie się czołowych, skroniowych
i ciemieniowych płatów mózgu.
Ta nowa, większa czaszka miała konsekwencje dla procesu narodzin. Jedną
z rzeczy, o które nie muszą martwić się producenci samochodów, kiedy
przeprojektowują swoje modele, jest upewnienie się, że nowe hondy
przecisną się przez rurę wydechową starszych hond. Natomiast przyroda
musi się troszczyć o takie sprawy – u Homo erectus zmiana kształtu głowy
wywołała pewne problemy: kobiety Homo erectus musiały być większe od
swoich przodkiń, żeby rodzić dzieci o dużych głowach i większych mózgach.
W rezultacie podczas gdy kobiety Homo habilis były wielkości zaledwie 60
procent swoich męskich odpowiedników, przeciętna kobieta Homo erectus
ważyła 85 procent swojego partnera.
Nowe mózgi były warte poniesionych z uwagi na nie kosztów, ponieważ
„człowiek wyprostowany” stanowił kolejny gwałtowny i wspaniały zwrot
w ludzkiej ewolucji. Widział on świat i podchodził do jego wyzwań
odmiennie niż poprzednicy. W szczególności byli to pierwsi ludzie, którzy
mieli umiejętności wyobrażania i planowania potrzebne do wytwarzania
złożonych narzędzi kamiennych i drewnianych – starannie wykonanych
ręcznych siekier, noży i tasaków, które wymagały innych narzędzi do ich
sporządzenia. Dziś przypisujemy jako zasługę naszym mózgom to, że dały
nam zdolność do stworzenia nauki i techniki, sztuki i literatury, ale ich
zdolność do pojmowania złożonych narzędzi była znacznie ważniejsza – dała
przewagę, która pomogła nam przetrwać.
Dzięki bardzo zaawansowanym narzędziom „człowiek wyprostowany”
mógł polować, a nie tylko grzebać w pozostałościach posiłków drapieżników,
zwiększając udział mięsa w swojej diecie. Gdyby przepisy na cielęcinę we
współczesnych książkach kucharskich zaczynały się od zalecenia: „Upoluj
i ubij cielę”, większość ludzi wybierałaby je z książek w rodzaju Radości
bakłażana. Jednak w historii ewolucji człowieka ta nowa zdolność do
polowania była gigantycznym skokiem naprzód pozwalającym na większą
konsumpcję białka i zmniejszenie zależności od pożywienia roślinnego,
wcześniej niezbędnego do przetrwania. Homo erectus był prawdopodobnie
również pierwszym gatunkiem, który nauczył się, że pocieranie materiałów
o siebie wytwarza ciepło, i odkrył, że dużo ciepła wywołuje ogień. Dzięki
ogniowi „człowiek wyprostowany” mógł zaś zrobić to, do czego nie jest
zdolne żadne inne zwierzę: zachować ciepło w klimacie, w którym inaczej by
nie przeżył.
Wydaje mi się to dość przyjemne, że choć swoje polowanie
przeprowadzam w sklepie mięsnym, a mój pomysł na wykorzystanie
narzędzi polega na wezwaniu stolarza, pochodzę od gości, którzy byli
całkiem biegli w praktycznych sprawach – nawet jeśli mieli wystające czoła
i zęby, które mogły przegryźć porządny kij. Co ważniejsze, nowe osiągnięcia
umysłu pozwoliły Homo erectus wywędrować z Afryki do Europy i Azji
i przetrwać jako gatunkowi znacznie dłużej niż milion lat.

***

Jeśli postępy naszej inteligencji pozwoliły nam wytwarzać skomplikowane


narzędzia łowieckie i rzeźnickie, zrodziły również nową, palącą potrzebę –
związaną z faktem, że duże, szybkie zwierzęta na sawannie najlepiej ściga
grupa myśliwych. Na długo przed powstaniem koszykarskich i piłkarskich
drużyn gwiazd pojawiła się presja ewolucyjna na nasz gatunek, wspierająca
wykształcenie się inteligencji społecznej i umiejętności planowania,
niezbędnych, by łączyć się w grupy i trzymać razem, polując na antylopy
i gazele. Nowy styl życia Homo erectus sprzyjał zatem przetrwaniu tych,
którzy potrafili najlepiej się ze sobą komunikować i planować. Oto kolejny
przykład łączący niektóre współczesne ludzkie cechy z odległą przeszłością
naszych przodków na afrykańskiej sawannie.
Gdzieś pod koniec panowania „człowieka wyprostowanego”,
prawdopodobnie około pół miliona lat temu, Homo erectus wyewoluował
w nową formę, Homo sapiens, o jeszcze większej sile mózgu. Te wczesne
czy też „archaiczne” Homo sapiens wciąż nie były istotami, które
uznalibyśmy za współczesnych ludzi: miały silniej zbudowane ciała oraz
większe i grubsze czaszki, a ich mózgi nadal nie były tak duże jak nasze.
Pod względem anatomii współczesnych ludzi klasyfikuje się jako podgatunek
Homo sapiens, który prawdopodobnie wyłonił się z wczesnych Homo
sapiens dopiero około 200 tysięcy lat p.n.e.
Niewiele brakowało, a to by się nam nie udało: zdumiewające najnowsze
analizy DNA przeprowadzone przez antropologów i genetyków pokazują, że
około 140 tysięcy lat temu katastrofalne zdarzenie – prawdopodobnie
związane ze zmianą klimatu – zdziesiątkowało szeregi ludzi współczesnych,
którzy żyli wówczas w Afryce. W tym okresie cała populacja naszego
podgatunku skurczyła się do zaledwie kilkuset osobników – czyniąc z nas,
jakbyśmy to dziś określili, „gatunek zagrożony”, taki jak goryle górskie albo
walenie błękitne. Izaak Newton, Albert Einstein i wszyscy inni, o których
kiedykolwiek słyszeliście, oraz miliardy nas, którzy zamieszkujemy
współczesny świat, jesteśmy potomkami tych kilku setek, które przetrwały22.
To, że tak niewiele brakowało, było prawdopodobnie wskazówką, że ten
nowy podgatunek o większym mózgu wciąż nie był wystarczająco bystry, by
udało mu się w długiej perspektywie. Wówczas jednak przeszliśmy kolejną
transformację, która dała nam zaskakujące nowe moce umysłowe. Nie
wydaje się, żeby była ona spowodowana zmianą anatomii fizycznej, a nawet
anatomii mózgu. Polegała raczej na zmianie sposobu działania naszego
mózgu. Niezależnie, jak do tego doszło, była to metamorfoza, która
umożliwiła naszemu gatunkowi zrodzenie naukowców, artystów, teologów i,
ogólniej, ludzi, którzy myślą w taki sposób jak my.
Antropologowie nazywają tę ostateczną transformację umysłową rozwojem
„współczesnego zachowania ludzi”. Przez „współczesne zachowanie” nie
rozumieją robienia zakupów czy pochłaniania jednym haustem napojów
alkoholowych podczas oglądania zawodów sportowych, lecz złożone
myślenie symboliczne, tego rodzaju aktywność umysłową, która w końcu
doprowadziła do powstania obecnej kultury. Istnieją pewne kontrowersje co
do tego, kiedy dokładnie nadeszła ta zmiana, ale najpowszechniej
przyjmowana data to około 40 tysięcy lat temu23.
Dziś nazywamy nasz podgatunek Homo sapiens sapiens, czyli „myślący
człowiek myślący”. (Tak się kończy, gdy twój gatunek dostaje taką nazwę,
jaką sam sobie wybierze). Jednak wszystkie zmiany, które doprowadziły do
powstania naszych dużych mózgów, drogo kosztowały. Z perspektywy
konsumpcji energii współczesny mózg ludzki jest drugim w kolejności
najbardziej kosztownym narządem ciała po sercu24.
Zamiast wyposażać w tak kosztowne mózgi, przyroda powinna obdarzyć
nas potężniejszymi mięśniami, które w porównaniu z mózgiem konsumują
tylko jedną dziesiątą kalorii na jednostkę masy. Jednak zdecydowała nie
uczynić z naszego gatunku najbardziej sprawnego fizycznie25. My, ludzie,
nie jesteśmy szczególnie silni, nie jesteśmy też najbardziej zwinni. Nasi
najbliżsi krewni, szympansy i bonobo, wydarły sobie drogę do swojej niszy
ekologicznej dzięki zdolności ciągnięcia z siłą niemal 550 kilogramów
i zębom tak ostrym i mocnym, że przegryzają się z łatwością przez twarde
skorupy. Ja mam problem nawet z popcornem.
Zamiast imponującej masy mięśniowej ludzie mają ponadwymiarową
czaszkę, co sprawia, że w nieefektywny sposób wykorzystujemy energię
z pożywienia – nasze mózgi, które stanowią zaledwie około 2 procent masy
ciała, konsumują około 20 procent przyjętych kalorii. Tak więc podczas gdy
inne zwierzęta są przystosowane do przetrwania w trudnych warunkach
dżungli albo sawanny, my wydajemy się bardziej odpowiedni do siedzenia
w kawiarni i picia mokki. Nie należy jednak nie doceniać siedzenia. Gdy
bowiem siedzimy, myślimy – i zadajemy pytania.
W 1918 roku niemiecki psycholog Wolfgang Köhler opublikował książkę,
której przeznaczeniem było stać się klasyczną pozycją, zatytułowaną
Umysłowość małp. Było to sprawozdanie z eksperymentów, które prowadził
na szympansach, gdy był dyrektorem placówki Pruskiej Akademii Nauk na
Teneryfie na Wyspach Kanaryjskich. Köhler był zainteresowany
zrozumieniem sposobu, w jaki szympansy rozwiązują problemy, na przykład
jak dosięgnąć pożywienia, które zostało umieszczone poza ich zasięgiem.
Eksperymenty badacza ujawniły bardzo wiele zdolności umysłowych, które
dzielimy z innymi naczelnymi. Z jego książki dowiemy się też wiele
o ludzkich talentach, które pomagają skompensować nasze fizyczne
niedostatki.
Jeden z eksperymentów Köhlera był szczególnie wymowny. Badacz
zawiesił pod sufitem banana i zaobserwował, że szympansy nauczyły się
budować podwyższenie ze skrzynek, żeby się na nie wspiąć i dosięgnąć
przysmaku; wydawało się jednak, że bez świadomości związanych z tym sił.
Na przykład czasami próbowały postawić skrzynki na krawędzi albo jeśli na
podłodze ułożono kamienie, tak że skrzynki się przewracały, nie pomyślały
o usunięciu kamieni26.
W rozbudowanej wersji eksperymentu szympansy i ludzkie dzieci w wieku
od trzech do pięciu lat nauczono układać klocki w kształcie litery L, za co
dostawały nagrodę. Następnie ukradkiem zastąpiono oryginały obciążonymi
klockami, które rozsypywały się, gdy szympansy i dzieci próbowały je
składać. Szympansy starały się przez jakiś czas, stosując metodę prób
i błędów, ale nie udawało im się zdobyć nagrody – jednak nie przerywały,
żeby zbadać wywracające się klocki. Ludzkie dzieci również nie były
w stanie wykonać zmienionego zadania (w istocie było ono niewykonalne),
ale nie poddały się ot tak, po prostu. Zbadały klocki, próbując ustalić, gdzie
tkwi problem27. Od najmłodszego wieku my, ludzie, szukamy odpowiedzi;
dążymy do teoretycznego zrozumienia naszego środowiska; zadajemy
pytanie: „dlaczego?”.
Każdy, kto ma doświadczenie z małymi dziećmi, zna ich upodobanie do
pytania dlaczego. W latach dwudziestych XX wieku psycholog Frank
Lorimer oficjalnie to potwierdził: obserwował czteroletniego chłopca przez
cztery dni i zapisał skrupulatnie wszystkie dlaczego, o które dziecko spytało
w tym czasie28. Było ich czterdzieści, w tym takie jak: „Dlaczego garnek na
wodę ma dwa ucha?”, „Dlaczego mamy brwi?” i moje ulubione: „Dlaczego
nie masz brody, mamusiu?”. Ludzkie dzieci na całym świecie zadają
pierwsze pytanie we wczesnym wieku, gdy jeszcze gaworzą i nie mówią
gramatycznie. Akt zadawania pytania jest tak ważny dla naszego gatunku, że
mamy uniwersalny wskaźnik dla niego: wszystkie języki, zarówno tonalne,
jak i nietonalne, stosują proste podniesienie tonu na oznaczenie pytania29.
Pewne tradycje religijne postrzegają zadawanie pytań jako najwyższą formę
zrozumienia, a zarówno w nauce, jak i w przemyśle zdolność do stawiania
właściwych pytań jest prawdopodobnie największym talentem, jaki można
posiadać. Natomiast szympansy i bonobo mogą się nauczyć podstawowych
znaków, żeby komunikować się ze swoimi treserami, a nawet odpowiadać na
pytania, ale nigdy ich nie zadają. Są silne fizycznie, ale nie są myślicielami.

***

Jeśli my, ludzie, rodzimy się z dążeniem do zrozumienia naszego środowiska,


to można również odnieść wrażenie, że rodzimy się z przeczuciem, jak
działają prawa fizyki – a przynajmniej nabywamy je w bardzo wczesnym
wieku. Wydaje się, że w jakiś wrodzony sposób rozumiemy, iż wszystkie
zdarzenia są powodowane przez inne zdarzenia, i że mamy rudymentarną
intuicję dotyczącą praw, które po tysiącleciach wysiłków zostały w końcu
odkryte przez Izaaka Newtona.
W Laboratorium Poznania u Dzieci na Uniwersytecie Illinois naukowcy
poświęcili ostatnie trzydzieści lat na badania intuicji fizycznej niemowląt,
sadzając matki z dziećmi przy małym podium albo stole i obserwując, jak
niemowlęta reagują na wyreżyserowane zdarzenia. Pytanie naukowe, na które
szukano odpowiedzi, brzmiało: Co te dzieci wiedzą o świecie fizycznym
i kiedy się tego dowiedziały? Badacze odkryli, że posiadanie określonych
przeczuć dotyczących działania fizyki wydaje się zasadniczym aspektem
tego, co to znaczy być człowiekiem, nawet w okresie niemowlęcym.
W jednej z serii badań sześciomiesięczne niemowlę posadzono przed
poziomym torem przymocowanym do pochylni30. U podstawy pochylni
badacze umieścili zabawkę na kółkach. Na górze pochylni znajdował się
cylinder. Gdy cylinder został zwolniony, niemowlęta przyglądały się
podekscytowane, jak turla się w dół, uderza w zabawkę i odbija ją, tak że
toczyła się po poziomym torze dobrych kilkadziesiąt centymetrów. Dalej
nastąpiła część eksperymentu, która ekscytowała badaczy: jeśli odtworzą
układ z cylindrem innej wielkości na górze pochylni, czy niemowlęta
przewidzą, że po zderzeniu zabawka odjedzie na odległość proporcjonalną do
wielkości cylindra?
Pierwsze pytanie, jakie przyszło mi do głowy, kiedy usłyszałem o tym
eksperymencie, brzmiało: skąd wiadomo, co niemowlęta przewidują?
Osobiście mam problem ze zrozumieniem, co myślą moje dzieci, a ponieważ
skończyły już dziesięć albo dwadzieścia lat, wszystkie potrafią mówić. Czy
miałem jakikolwiek wgląd w ich intencje, gdy były ograniczone do
uśmiechów, grymasów i ślinienia się? Prawda jest taka, że jeśli wystarczająco
długo zajmujemy się dziećmi, zaczynamy przypisywać im myśli na
podstawie wyrazu ich twarzy, ale trudno potwierdzić naukowo, czy nasze
intuicje są trafne. Jeśli widzisz twarz dziecka zmarszczoną jak śliwka, czy
jest to wywołane bólem spowodowanym wzdęciem, czy rozczarowaniem,
ponieważ w radiu właśnie powiedziano, że notowania akcji spadły o pięć
punktów? Wiem, że mój wyraz twarzy byłby taki sam w obu wypadkach,
a u dzieci wygląd to wszystko, na czym możemy się oprzeć. Kiedy jednak
chodzi o określenie, co dzieci przewidują, psychologowie dysponują
odpowiednim programem. Pokazują dziecku pewien ciąg zdarzeń,
a następnie mierzą, jak długo przygląda się ono scenie. Jeśli zdarzenia nie
rozwijają się w sposób, jakiego się spodziewało, dziecko będzie się
przyglądać, a im bardziej zaskakujące jest to, co się dzieje, tym dłużej to robi.
Eksperyment z pochylnią psychologowie zorganizowali tak, że połowa
niemowląt oglądała drugie zderzenie, w którym cylinder był dwa razy
większy niż wcześniej, natomiast pozostałe – zderzenie, w którym był
mniejszy. Jednak w obu wypadkach sprytni badacze postarali się, by
zabawka w sztuczny sposób odjeżdżała dalej niż przy pierwszym zderzeniu –
do samego końca, w istocie do samego krańca toru. Niemowlęta, które
oglądały, jak większy walec odbijał zabawkę dalej, nie reagowały w żaden
wyjątkowy sposób na to zdarzenie. Natomiast, tak jak oczekiwano, te, które
widziały, jak zabawka odjeżdża dalej po uderzeniu przez mniejszy cylinder,
wpatrywały się w nią przez dłuższy czas, sprawiając wrażenie, jak gdyby
drapały się po głowie, żeby tylko się dowiedzieć, jak to się stało.
Wiedza, że uderzenie przez większy przedmiot sprawi, iż zabawka odjedzie
dalej niż po uderzeniu przez mniejszy przedmiot, nie stawia nas całkiem na
równi z Izaakiem Newtonem, ale jak pokazują te eksperymenty, wydaje się,
że ludzie rzeczywiście posiadają pewne wrodzone zrozumienie świata
fizycznego, wyrafinowane intuicyjne wyczucie środowiska, które uzupełnia
naszą wrodzoną ciekawość i jest u ludzi znacznie bardziej rozwinięte niż
u innych gatunków.
Przez miliony lat nasz gatunek ewoluował i rozwijał się, zyskując coraz
potężniejszy mózg, a my dążyliśmy do dowiedzenia się o świecie, czego
tylko mogliśmy. Rozwój współczesnego umysłu ludzkiego był niezbędny,
jeśli mieliśmy zrozumieć prawa przyrody, ale też sam w sobie dla tego
zadania niewystarczający. Następny rozdział naszej historii będzie
opowieścią o tym, jak zaczęliśmy zadawać pytania o nasze otoczenie i łączyć
się intelektualnie, żeby na nie odpowiedzieć. Będzie to opowieść o rozwoju
ludzkiej kultury.

6 Maureen A. O’Leary et al., The Placental Mammal Ancestor and the Post-K-Pg
Radiation of Placentals, „Science”, nr 339 (8 lutego 2013 r.), s. 662–667.

7 Julian Jaynes, The Origin of Consciousness in the Breakdown of the Bicameral Mind,
Houghton Mifflin, Boston 1976, s. 9.

8 Historia Lucy i jej znaczenie zob. Donald C. Johanson, Lucy’s Legacy, Three Rivers
Press, Nowy Jork 2009. Zob. też Douglas S. Massey, A Brief History of Human Society:
The Origin and Role of Emotion in Social Life, „American Sociological Review” 2002, nr
67, s. 1–29.

9 B.A. Wood, Evolution of Australopithecines, w: The Cambridge Encyclopedia of


Human Evolution, red. Stephen Jones, Robert D. Martin i David R. Pilbeam, Cambridge
University Press, Cambridge 1994, s. 239.

10 Carol V. Ward et al., Complete Fourth Metatarsal and Arches in the Foot of
Australopithecus afarensis, „Science”, nr 331 (11 lutego 2011 r.), s. 750–753.

11 4 × 106 lat = 2 × 105 pokoleń; 2 × 105 domów × 50 metrów szerokości działki dla
każdego domu = 6500 kilometrów.

12 James E. McClellan III, Harold Dorn, Science and Technology in World History, wyd.
2, Johns Hopkins University Press, Baltimore 2006, s. 6–7.

13 Dla tych, którzy wolą precyzję od owoców, powinienem dodać, że mózg Homo
habilis był wielkości połowy naszego.

14 Javier DeFelipe, The Evolution of the Brain, the Human Nature of Cortical Circuits,
and Intellectual Creativity, „Frontiers in Neuroanatomy”, nr 5 (maj 2011), s. 1–17.

15 Stanley H. Ambrose, Paleolothic Technology and Human Evolution, „Science”, nr


291 (2 marca 2001 r.), s. 1748–1753.

16 What Does It Mean to Be Human?, Smithsonian Museum of Natural History, dostęp:


27 października 2014 r., www.humanorigins.si.edu.

17 Johann De Smedt et al., Why the Human Brain Is Not an Enlarged Chimpanzee Brain,
w: Human Characteristics: Evolutionary Perspectives on Human Mind and Kind, red. H.
Høgh-Olesen, J. Tønnesvang i P. Bertelsen, Cambridge Scholars, Newcastle upon Tyne
2009, s. 168–181.

18 Stanley H. Ambrose, Paleolothic Technology and Human Evolution, op. cit., s. 1748–
1753.

19 R. Peeters et al., The Representation of Tool Use in Humans and Monkeys: Common
and Uniquely Human Features, „Journal of Neuroscience”, nr 29 (16 września 2009 r.),
s. 11523–11539; Scott H. Johnson-Frey, The Neural Bases of Complex Tool Use in
Humans, „TRENDS in Cognitive Sciences”, nr 8 (luty 2004), s. 71–78.

20 Richard P. Cooper, Tool Use and Related Errors in Ideational Apraxia: The
Quantitative Simulation of Patient Error Profiles, „Cortex” 2007, nr 43, s. 319; Scott H.
Johnson-Frey, The Neural Bases, op. cit., s. 71–78.

21 Donald C. Johanson, Lucy’s Legacy, op. cit., s. 192–193.

22 Ibidem, s. 267.

23 András Takács-Sánta, The Major Transitions in the History of Human Transformation


of the Biosphere, „Human Ecology Review” 2004, nr 11, s. 51–77. Niektórzy badacze
uważają, że współczesne zachowanie ludzi pojawiło się po raz pierwszy wcześniej
w Afryce, a następnie zostało przeniesione do Europy w „drugim wyjściu z Afryki”. Zob.
na przykład David Lewis-Williams, David Pearce, Inside the Neolithic Mind, Thames and
Hudson, Londyn 2005, s. 18; Donald C. Johanson, Lucy’s Legacy, op. cit., s. 257–262.

24 Robin I.M. Dunbar, Suzanne Shultz, Evolution in the Social Brain, „Science”, nr 317
(7 września 2007 r.), s. 1344–1347.

25 Christopher Boesch, Michael Tomasello, Chimpanzee and Human Cultures, „Current


Anthropology” 1998, nr 39, s. 591–614.

26 Lewis Wolpert, Causal Belief and the Origins of Technology, „Philosophical


Transactions of the Royal Society A” 2003, nr 361, s. 1709–1719.
27 Daniel J. Povinelli, Sarah Dunphy-Lelii, Do Chimpanzees Seek Explanations?
Preliminary Comparative Investigations, „Canadian Journal of Experimental Psychology”
2001, nr 55, s. 185–193.

28 Frank Lorimer, The Growth of Reason, Londyn 1929; K. Paul, cyt. w: Arthur
Koestler, The Act of Creation, Penguin, Londyn 1964, s. 616.

29 Intonation: Selected Readings, red. Dwight L. Bolinger, Penguin, Harmondsworth


1972, s. 314; Alan Cruttenden, Intonation, Cambridge University Press, Cambridge 1986,
s. 169–170.

30 Laura Kotovsky, Renée Baillargeon, The Development of Calibration-Based


Reasoning About Collision Events in Young Infants, „Cognition” 1998, nr 67, s. 313–351.
3.

Kultura

Ci z nas, którzy patrzą w lustro co rano, widzą coś, co niewiele innych


zwierząt kiedykolwiek dostrzegło: siebie samych. Niektórzy uśmiechają się
do swojego odbicia i przesyłają sobie całusa; inni z pośpiechem starają się
ukryć katastrofę pod makijażem albo golą się, żeby nie wydać się
niechlujnymi. Tak czy inaczej w porównaniu ze zwierzętami reakcja ludzi
jest dziwna. Zachowujemy się w taki sposób, ponieważ gdzieś na drodze
ewolucji staliśmy się samoświadomi. Co jeszcze ważniejsze, zaczęliśmy
jasno rozumieć, że twarz, którą widzimy w odbiciu, będzie z upływem czasu
pokrywać się zmarszczkami, pojawią się na niej włosy w kłopotliwych
miejscach, a co najgorsze – kiedyś przestanie istnieć. Patrząc w lustro,
możemy dostrzec pierwsze oznaki tego, co nieuniknione; stykamy się z naszą
śmiertelnością.
Mózg jest naszym mentalnym hardware, a jego zdolności do myślenia
symbolicznego, do kwestionowania i rozumowania były nam konieczne do
przetrwania. Jednakże hardware, gdy się już coś takiego ma, można
wykorzystać na wiele sposobów, a gdy nasza wyobraźnia wykonała
gwałtowny skok naprzód, uświadomienie sobie, że wszyscy umrzemy,
pomogła skierować mózgi ku kwestiom egzystencjalnym, na przykład takim
jak: „Kto rządzi kosmosem?”. Nie jest to pytanie naukowe per se, jednak
droga do pytań takich jak: „Czym jest atom?”, zaczyna się od tego rodzaju
rozmyślań, jak również od tych bardziej osobistych, na przykład: „Kim
jestem?” i „Czy mogę zmienić swoje środowisko, tak żeby mi
odpowiadało?”. To właśnie wtedy, gdy wykroczyliśmy poza nasze zwierzęce
początki i zaczęliśmy się zastanawiać nad takimi rzeczami, poczyniliśmy
krok naprzód jako gatunek, którego znakiem rozpoznawczym jest myślenie
i stawianie pytań.
Zmiana w ludzkich procesach myślowych, która doprowadziła nas do
rozważania takich kwestii, prawdopodobnie dojrzewała przez dziesiątki
tysięcy lat, rozpoczynając się mniej więcej jakieś czterdzieści tysięcy lat
temu lub coś koło tego – kiedy nasz podgatunek zaczął przejawiać to, co
uznajemy za nowoczesne zachowanie człowieka. Jednak dojrzała ona dopiero
około dwunastu tysięcy lat temu, pod koniec ostatniej epoki lodowcowej.
Naukowcy nazywają dwa miliony lat prowadzące do tego okresu paleolitem,
a następne siedem albo osiem tysięcy – neolitem. Nazwy pochodzą od
greckich słów palaio, które oznacza „stary”, neo, które oznacza „nowy”,
i lithos, które oznacza „kamień” – innymi słowy, stara epoka kamienna
(paleolit) i nowa epoka kamienna (neolit), które charakteryzują się
wykorzystaniem narzędzi kamiennych. Choć zmianę, która przeniosła nas ze
starej do nowej epoki kamiennej, nazywamy „rewolucją neolityczną”, nie
chodziło w niej o wykorzystanie narzędzi kamiennych. Chodziło o sposób,
w jaki myślimy, o pytania, które stawiamy, oraz kwestie egzystencjalne,
które uznajemy za istotne.

***

Ludzie paleolityczni często migrowali i, podobnie jak moje nastoletnie


dzieci, podążali za pożywieniem. Kobiety zbierały rośliny, nasiona i jaja,
natomiast mężczyźni na ogół polowali i pozyskiwali resztki pozostawione
przez inne zwierzęta. Nomadzi przemieszczali się okresowo – czy nawet
codziennie – i posiadali niewiele rzeczy, podążali za obfitością darów
przyrody, znosili zsyłane przez nią trudy i żyli zawsze na jej łasce i niełasce.
Mimo wielkości dostępnych terenów, żeby utrzymać zaledwie jedną osobę,
potrzeba było nieco ponad 2,5 kilometra kwadratowego31, tak więc przez
większą część paleolitu ludzie żyli w małych wędrujących grupach, liczących
zazwyczaj mniej niż sto osób. Określenie „rewolucja neolityczna” zostało
ukute w latach dwudziestych XX wieku na opisanie zmiany tego stylu życia
na nowy sposób egzystencji, w którym ludzie zaczęli się osiedlać w małych
wsiach składających się z kilkunastu czy kilkudziesięciu siedzib
i przechodzić od zbierania pożywienia do jego produkcji.
Wraz z tą zmianą nastąpiło przejście do aktywnego kształtowania
środowiska zamiast jedynie reagowania na zachodzące w nim zmiany.
Zamiast prostego życia opartego na wykorzystywaniu darów przyrody ludzie
żyjący w małych osiedlach gromadzili teraz materiały, które w surowej
postaci nie miały samoistnej wartości, a następnie przekształcali je
w przedmioty, które już miały wartość. Na przykład budowali domy
z drewna, cegieł z błota i kamienia; wykuwali narzędzia z występującej
w naturze miedzi metalicznej; wyplatali kosze z gałązek; zwijali włókna
uzyskane z lnu i innych roślin oraz zwierząt w nici, a następnie tkali z tych
nici tkaniny, które były lżejsze, bardziej porowate i łatwiejsze do czyszczenia
niż okrycia zwierzęce, jakie nosili wcześniej; oraz wyrabiali i wypalali garnki
i dzbany z gliny, które można było wykorzystać do gotowania
i przechowywania nadwyżki produktów żywnościowych32.
Na pierwszy rzut oka wynalezienie takich obiektów jak gliniane dzbanki
wydaje się prostą konsekwencją uświadomienia sobie, że trudno jest nosić
wodę w kieszeni. I istotnie, do niedawna wielu archeologów sądziło, że
rewolucja neolityczna była jedynie adaptacją mającą na celu ułatwienie życia.
Zmiana klimatu pod koniec ostatniego zlodowacenia (od dziesięciu do
dwunastu tysięcy lat temu) doprowadziła do wyginięcia wielu dużych
zwierząt i zmieniła trasy migracji innych. To, jak zakładano, ograniczyło
ilość dostępnego pożywienia. Niektórzy badacze przypuszczali również, że
liczba ludzi w końcu wzrosła do takiego punktu, iż myślistwo i zbieractwo
nie mogło już utrzymać populacji; wedle tego poglądu życie osiadłe i rozwój
złożonych narzędzi oraz innych sprzętów był reakcją na nowe okoliczności.
Jednak z tą teorią wiążą się pewne problemy. Przede wszystkim na
kościach i zębach pozostawiły swoje znaki niedożywienie i choroby.
Przeprowadzone w latach osiemdziesiątych XX wieku badania pozostałości
szkieletów z okresu poprzedzającego rewolucję neolityczną nie ujawniły tego
rodzaju uszkodzeń, co sugeruje, że ludzie z tej epoki nie cierpieli na
niedostatek żywności. W istocie pozostałości z okresu paleolitu wskazują, że
pierwsi rolnicy mieli więcej problemów z kręgosłupem, gorsze zęby, większą
anemię i niedobór witamin – oraz umierali młodziej – niż populacje
zbieraczy, które je poprzedzały33. Co więcej, wydaje się, że przejście na
rolnictwo następowało stopniowo, a nie w rezultacie jakiejś powszechnej
katastrofy klimatycznej. Poza tym w wielu z pierwszych osiedli nie ma
żadnych oznak udomowienia roślin albo zwierząt.
Mamy skłonność do myślenia o pierwotnym zbierackim stylu życia
ludności jako ciężkiej walce o przetrwanie, przypominającej reality show,
w którym wygłodniali uczestnicy żyją w dżungli i są zmuszani do jedzenia
skrzydlatych insektów i guana nietoperzy. Czy życie nie byłoby lepsze,
gdyby zbieracze mogli dostać narzędzia i nasiona z marketu budowlanego
i sadzić brukiew? Niekoniecznie, na podstawie bowiem badań nielicznych
ocalałych myśliwych i zbieraczy, którzy przetrwali w nietkniętych,
niezepsutych częściach Australii i Afryki jeszcze w latach sześćdziesiątych
XX wieku, wydaje się, że społeczeństwa nomadyczne sprzed tysięcy lat
mogły żyć w „materialnej obfitości”34.
W typowych warunkach życie nomadyczne polega na czasowym osiedlaniu
się i pozostawaniu na miejscu dopóty, dopóki zasoby żywności w dogodnej
odległości od obozu nie zostaną wyczerpane. Kiedy do tego dochodzi,
zbieracze ruszają dalej. Ponieważ wszystkie przedmioty trzeba przenosić,
ludy nomadyczne cenią niewielkie dobra bardziej niż większe przedmioty,
zadowalają się nielicznymi rzeczami materialnymi i ogólnie mają słabe
poczucie własności i posiadania. Te aspekty kultury nomadycznej sprawiają,
że zachodnim antropologom, którzy po raz pierwszy zaczęli ich badać w XIX
wieku, wydali się oni biedni i pozbawieni dóbr. Jednak nomadzi z reguły nie
stają w obliczu zniechęcającej walki o pożywienie, czy bardziej ogólnie
o przetrwanie. W istocie badania ludów San (nazywanych również
Buszmenami) w Afryce pokazały, że działania związane ze zbieraniem
żywności były wydajniejsze niż praca rolników w Europie przed II wojną
światową35, a rozleglejsze badania nad grupami myśliwych-zbieraczy
trwające od XIX do połowy XX wieku dowodzą, że przeciętny nomada
pracował zaledwie od dwóch do czterech godzin dziennie. Nawet
w spieczonym przez słońce regionie Dobe w Afryce z rocznym poziomem
opadów wynoszącym od piętnastu do dwudziestu pięciu centymetrów
stwierdzono, że zasoby żywności były „zarówno zróżnicowane, jak i obfite”.
Prymitywne rolnictwo, przeciwnie, wymaga wielu godzin wyczerpującej
pracy – rolnicy muszą usuwać kamienie i skały, karczować busz i spulchniać
twardą ziemię prymitywnymi narzędziami.
Tego rodzaju względy sugerują, że stare teorie dotyczące przyczyny
przejścia do osiadłego trybu życia nie pokazują całego problemu. Wielu
badaczy jest obecnie przekonanych, że rewolucja neolityczna nie była przede
wszystkim rewolucją inspirowaną przez względy praktyczne, lecz raczej
rewolucją umysłową i kulturową, wywołaną rozwojem ludzkiej duchowości.
Ten punkt widzenia wspierany jest przez prawdopodobnie najbardziej
zdumiewające odkrycie archeologiczne współczesnych czasów, wyjątkowe
znalezisko sugerujące, że nowe podejście człowieka do przyrody nie
nastąpiło po przyjęciu osiadłego stylu życia, lecz raczej przed nim. Tym
odkryciem jest wielki monument nazywany Göbekli Tepe, co po turecku
oznacza, jak wyglądało ono przed rozpoczęciem wykopalisk: „wybrzuszone
wzgórze”.

***

Göbekli Tepe ulokowane jest na szczycie wzgórza w dzisiejszej prowincji


Urfa w południowo-wschodniej Turcji36. Jest to wspaniała budowla
wzniesiona 11,5 tysiąca lat temu – 7 tysięcy lat przed Wielką Piramidą –
w herkulesowym wysiłku podjętym nie przez neolitycznych osiadłych
rolników, lecz przez myśliwych-zbieraczy, którzy nie porzucili jeszcze
nomadycznego stylu życia. Najbardziej zadziwiające jest jednak to, w jakim
celu piramidę zbudowano. Wydaje się, że poprzedzające hebrajską Biblię
o 10 tysięcy lat Göbekli Tebe było sanktuarium religijnym.
Filary w Göbekli Tepe ułożone były w kręgi o średnicy aż 20 metrów.
Każdy krąg zawierał dodatkowo dwa filary w kształcie litery T w środku,
będące najwyraźniej humanoidalnymi figurami o podłużnych głowach
i długich, wąskich ciałach. Najwyższe z nich wznosiły się na 5,5 metra.
Zbudowanie ich wymagało przetransportowania ciężkich kamieni, niektórych
o wadze aż szesnastu ton. Jednak piramidę ukończono – przed
wynalezieniem metalowych narzędzi, przed wynalezieniem koła i zanim
ludzie nauczyli się udomawiać zwierzęta wykorzystywane jako siła
pociągowa. Co więcej, w przeciwieństwie do budowli religijnych
z późniejszych czasów Göbekli Tepe zbudowano, zanim ludzie zamieszkali
w miastach, które mogły zapewnić duże i centralnie zorganizowane zasoby
siły roboczej. Jak ujął to „National Geographic”, „odkrycie, że myśliwi-
zbieracze zbudowali Göbekli Tepe, było jak dowiedzenie się, że ktoś
zbudował Boeinga 747 w piwnicy za pomocą noża do papieru”.
Pierwszymi naukowcami, którzy natknęli się na ten monument, byli
antropolodzy z Uniwersytetu Chicagowskiego i Uniwersytetu Stambulskiego
prowadzący badania w tym regionie w latach sześćdziesiątych XX wieku.
Dostrzegli oni połamane płyty z wapienia, ale nie zwrócili na nie większej
uwagi w przekonaniu, że są to pozostałości porzuconego cmentarza
bizantyjskiego. Społeczność antropologów uznała to za nudne. Minęły trzy
dekady. Dopiero w 1994 roku miejscowy rolnik natrafił pługiem na koniec
czegoś, co okazało się ogromnym pogrzebanym filarem. Klaus Schmidt,
archeolog pracujący w tym regionie, który przeczytał raport badaczy
z Uniwersytetu Chicagowskiego, postanowił rzucić na to okiem. „W chwili
gdy to ujrzałem, wiedziałem, że mam dwie możliwości – powiedział. –
Zmykać stamtąd i nikomu nic nie mówić albo spędzić resztę życia, pracując
w tym miejscu”37. Wybrał to drugie i pozostał na stanowisku aż do śmierci
w 2014 roku.
Ponieważ Göbekli Tepe poprzedzało wynalezienie pisma, nie ma
rozproszonych świętych tekstów, których odczytanie mogłoby rzucić światło
na rytuały odprawiane w tym miejscu. Wniosek, że było ono miejscem kultu,
opiera się na porównaniach z późniejszymi miejscami i praktykami
religijnymi. Na przykład ryty na filarach w Göbekli Tepe przedstawiają różne
zwierzęta, ale w przeciwieństwie do malowideł jaskiniowych z paleolitu nie
są one podobiznami zwierzyny, na którą polowali ich budowniczowie, ani nie
przedstawiają żadnych wizerunków związanych z myślistwem albo
czynnościami codziennego życia. Ryty ukazują natomiast groźne stworzenia
takie jak lwy, węże, dzikie odyńce, skorpiony i bestie przypominające
szakale z wypukłą klatką piersiową. Sądzi się, że są one symbolami albo
postaciami mitycznymi, zwierzętami, które później kojarzono z kultem.
Dawni ludzie, którzy odwiedzali Göbekli Tepe, musieli sporo w tym celu
poświęcić, ponieważ wzniesiono je dosłownie w środku niczego. Nikt jak
dotąd nie znalazł świadectw, że ktokolwiek kiedykolwiek mieszkał na tym
obszarze – żadnych źródeł wody, żadnych domostw ani palenisk.
Archeolodzy odkryli natomiast kości tysięcy gazel i turów, które – jak się
wydaje – zostały przyniesione jako pożywienie z polowań przeprowadzonych
w odległych miejscach. Udać się do Göbekli Tepe oznaczało odbyć
pielgrzymkę, a dowody wskazują, że przyciągało ono myśliwych-zbieraczy
z odległości nawet stu kilometrów.
Znalezisko to „pokazuje, że zmiany społeczno-kulturowe następują
najpierw, a rolnictwo pojawia się później” – stwierdza archeolog
z Uniwersytetu Stanforda Ian Hodder. Innymi słowy, pojawienie się
grupowych rytuałów religijnych wydaje się ważnym powodem, dla którego
ludzie zaczęli się osiedlać, gdy centra religijne wciągały nomadów w swoje
ścisłe orbity, a w końcu powstawały wsie oparte na wspólnych przekonaniach
i systemach znaczeń38. Göbekli Tepe wzniesiono w epoce, w której tygrysy
szablastozębne39 wciąż przemierzały azjatycki krajobraz, a nasi ostatni
ludzcy krewniacy niebędący Homo sapiens, liczący niecały metr i podobni do
hobbitów Homo floresiensis, którzy polowali i wytwarzali narzędzia,
wyginęli zaledwie stulecie wcześniej. A jednak wydaje się, że jego starożytni
budowniczy przeszli stopniowo od zadawania praktycznych pytań
dotyczących życia do pytań duchowych. „Można zasadnie twierdzić –
oświadcza Hodder – że Göbekli Tepe to prawdziwy początek złożonych
społeczeństw neolitycznych”40.

Ruiny Göbekli Tepe (Dzięki uprzejmości Teomancimit/Wikimedia Commons)

Niektóre zwierzęta rozwiązują proste problemy, by zdobyć pożywienie;


inne używają prostych narzędzi. Jednak jedynym zachowaniem, którego
nigdy nie zaobserwowano, nawet w rudymentarnej postaci, u żadnego innego
zwierzęcia poza człowiekiem, jest dążenie do zrozumienia swojego istnienia.
Tak więc gdy ludzie późnego paleolitu i wczesnego neolitu przenieśli swoją
uwagę z kwestii związanych wyłącznie z przetrwaniem i skierowali ją na
„nieistotne” prawdy dotyczące ich samych i ich otoczenia, był to jeden
z najbardziej znaczących kroków w historii ludzkiego intelektu. Jeśli Göbekli
Tepe jest pierwszą świątynią ludzkości – a przynajmniej pierwszą nam znaną
– to zasługuje na uświęcone miejsce w historii religii, ale zasługuje również
na takie w historii nauki, ponieważ odzwierciedla skok w naszej
egzystencjalnej świadomości, nadejście epoki, w której ludzie zdobyli się na
poważny wysiłek, by udzielić odpowiedzi na wielkie pytania dotyczące
kosmosu.

***

Przyroda potrzebowała milionów lat, żeby wyewoluował ludzki umysł


zdolny do stawiania pytań egzystencjalnych, ale gdy to już się stało, naszemu
gatunkowi tylko maleńką część tego czasu zajęło wytworzenie kultur, które
przekształciły sposób, w jaki żyjemy i myślimy. Ludzie neolityczni zaczęli
osiadać w małych wsiach, a następnie, gdy dzięki ciężkiej pracy zwiększyli
produkcję żywności, w większych, których zaludnienie wzrosło niezmiernie
z zaledwie jednej osoby na 2,5 kilometra kwadratowego do 20 osób na
kilometr kwadratowy41.
Spośród nowych i ogromnych neolitycznych wsi największe wrażenie robi
Çatalhöyük, zbudowana około 7,5 tysiąca lat p.n.e. na równinach środkowej
Turcji, zaledwie kilkaset kilometrów na zachód od Göbekli Tepe42. Analiza
pozostałości roślinnych i zwierzęcych sugeruje, że mieszkańcy polowali na
dzikie bydło, świnie i konie oraz zbierali bulwy, trawy, żołędzie i orzeszki,
a tylko w niewielkim zakresie oddawali się rolnictwu. Jeszcze bardziej
zaskakujące jest to, że narzędzia i sprzęty znalezione w osadzie wskazują, iż
mieszkańcy budowali i utrzymywali własne domostwa oraz uprawiali sztukę.
Wydaje się, że podział pracy w ogóle nie istniał. Nie byłoby to niezwykłe
w małych osiedlach nomadów, ale Çatalhöyük była domem dla nawet ośmiu
tysięcy ludzi – mniej więcej dwóch tysięcy rodzin – z których wszyscy, jak
ujął to jeden z archeologów, zajmowali się sobą i „robili swoje”.

Autor: Derya Kadipasaoglu

Z tego powodu archeologowie nie uznają Çatalhöyük i podobnych


neolitycznych wsi za miasta czy choćby miasteczka. Pierwsze z nich
pojawiły się dopiero kilka tysięcy lat później. Różnica między wsią i miastem
nie polega jedynie na wielkości43. Opiera się na stosunkach społecznych
w ramach populacji, ponieważ te stosunki wywierają wpływ na środki
produkcji i dystrybucję. W miastach istnieje podział pracy, co oznacza, że
jednostki i rodziny mogą polegać na innych, gdy idzie o określone dobra
i usługi. Dzięki centralizacji dystrybucji dóbr i usług, których potrzebują
wszyscy, miasto uwalnia jednostki i rodziny od konieczności robienia
wszystkiego samodzielnie, co z kolei pozwala niektórym z nich na
specjalizację. Na przykład jeśli miasto staje się centrum, w którym nadwyżki
produkcji rolnej zebrane przez rolników mieszkających na otaczających je
terenach wiejskich mogą być dystrybuowane do mieszkańców, ludzie, którzy
w przeciwnym razie skoncentrowani byliby na zbieraniu (albo uprawie)
pożywienia, zyskują swobodę wykonywania zawodów – mogą stać się
rzemieślnikami albo kapłanami. Jednak w Çatalhöyük, mimo że mieszkańcy
żyli w sąsiadujących ze sobą domostwach, artefakty wskazują, iż
poszczególne rodziny prowadziły podobny tryb życia, mniej lub bardziej
niezależnie od siebie.
Jeśli każda rodzina rozszerzona miałaby być samowystarczalna – gdyby nie
można było dostać mięsa u rzeźnika, wezwać hydraulika, żeby naprawił rury,
i wymienić zalanego wodą telefonu w najbliższym Apple Store, udając, że
wcale nie wpadł do toalety – to po co zawracać sobie głowę osiedlaniem się
obok siebie i tworzeniem wsi? Wydaje się, że tym, co wiązało i jednoczyło
mieszkańców osad takich jak Çatalhöyük, było to samo, co przyciągało
neolitycznych ludzi do Göbekli Tepe: początki wspólnej kultury
i podzielanych wierzeń duchowych.
Kontemplacja ludzkiej śmiertelności zaczęła być cechą tych kształtujących
się kultur. Na przykład w Çatalhöyük widzimy dowody istnienia nowej
kultury śmierci i umierania, które różniły się diametralnie od kultury
nomadów. Nomadzi podczas długich wędrówek po wzgórzach i wzdłuż
wzburzonych rzek nie mogli sobie pozwolić na noszenie chorych albo
zniedołężniałych. A więc u plemion nomadycznych powszechne jest
pozostawianie starców, którzy są zbyt słabi, by nadążać za innymi. Osadnicy
z Çatalhöyük i innych zapomnianych wsi na Bliskim Wschodzie
praktykowali coś zupełnie przeciwnego. Ich rozszerzone jednostki rodzinne
często pozostawały w fizycznej bliskości, nie tylko w życiu, ale i po śmierci:
w Çatalhöyük zmarłych chowano pod podłogami domostw44. Niemowlęta
grzebano niekiedy pod progiem przy wejściu do pomieszczenia. Tylko pod
jednym dużym budynkiem zespół prowadzący wykopaliska odkrył
siedemdziesiąt ciał. W niektórych wypadkach rok po pogrzebie mieszkańcy
otwierali grób i nożem odcinali głowę zmarłego, żeby wykorzystać ją do
celów religijnych45.
Jednak choć osadników z Çatalhöyük niepokoiła śmiertelność, mieli oni
również nowe poczucie wartości człowieka. W większości społeczeństw
zbieracko-łowieckich zwierzęta traktuje się z wielkim szacunkiem, jak gdyby
myśliwy i zwierzyna byli partnerami. Myśliwi nie dążą do kontrolowania
swojej zwierzyny, a zamiast tego nawiązują przyjaźń ze zwierzętami, które
oddają życie myśliwym. Tymczasem w Çatalhöyük rysunki na murach
przedstawiają ludzi ścigających i zjadających byki, dziki i niedźwiedzie.
Ludzi nie postrzegano już jako pozostających na partnerskiej stopie ze
zwierzętami, ale jako dominujących nad nimi i wykorzystujących je prawie
tak samo, jak na przykład gałęzie do wyplatania koszyków46.
Ta nowa postawa miała w końcu doprowadzić do udomowienia zwierząt47.
W ciągu kolejnych dwóch tysięcy lat obłaskawiono owce i kozy, a następnie
bydło i świnie. Najpierw uprawiano selektywne myślistwo – polowano
wybiórczo na dzikie stada, tak żeby osiągnąć w nich odpowiednią do potrzeb
równowagę wieku i płci, a ludzie dążyli do ochrony zwierząt przed
drapieżnikami. Jednak z biegiem czasu zaczęli przyjmować na siebie
odpowiedzialność za kolejne aspekty życia zwierząt. Udomowione zwierzęta
nie musiały już troszczyć się o siebie tak jak dawniej, dzięki czemu mogły się
u nich pojawić nowe cechy fizyczne, jak również łagodniejsze zachowania,
mniejsze mózgi i niższa inteligencja. Także rośliny znalazły się pod kontrolą
ludzi – między innymi pszenica, jęczmień, soczewica i groch – stając się
obiektem zabiegów już nie zbieraczy, lecz ogrodników.
Wynalezienie rolnictwa i udomowienie zwierząt katalizowało postępy
w ludzkim rozwoju intelektualnym, co wiązało się z dążeniem do
maksymalizacji wydajności opisanych wyżej przedsięwzięć. Ludzi
motywowało teraz dążenie do poznania i wykorzystania reguł oraz
regularności przyrody. Wiedza o tym, jak zwierzęta się rozmnażają czy jak
wspomóc rosnące rośliny, stała się użyteczna. Takie były początki tego, co
miało stać się nauką, ale wobec braku metody naukowej i jakiegokolwiek
uznania dla zalet logicznego myślenia idee magiczne i religijne mieszały się
z obserwacjami i teoriami empirycznymi, a często je zastępowały, proste
względy praktyczne przeważały nad celem dzisiejszej „czystej” nauki: by
pomóc ludziom rozciągnąć swoją władzę nad działaniami przyrody.
Gdy ludzie zaczęli stawiać nowe pytania dotyczące przyrody, wielka
ekspansja neolitycznych osiedli zapewniła nowy sposób udzielania na nie
odpowiedzi. Poszukiwanie wiedzy nie musiało już być z konieczności
przedsięwzięciem jednostek albo małych grup – teraz można było czerpać
z wkładu wnoszonego przez bardzo wiele umysłów. I tak, choć nowo osiadli
ludzie zarzucili praktykę wspólnych łowów i zbierania pożywienia, połączyli
siły w polowaniu na nowe pomysły i pozyskiwaniu wiedzy.
***

Jako temat doktoratu wybrałem poszukiwanie nowej metody znajdowania


przybliżonych rozwiązań nierozwiązywalnych równań kwantowych, które
opisują zachowanie atomów wodoru w silnym polu magnetycznym na
zewnątrz gwiazd neutronowych. Nie miałem pojęcia, dlaczego wybrałem
właśnie ten problem, a mój promotor najwyraźniej również tego nie wiedział
i szybko przestał się nim interesować. Spędziłem więc cały rok na tworzeniu
różnych nowych technik przybliżeń, które, jak się okazało, jedna po drugiej
rozwiązywały mój problem nie lepiej niż istniejące metody, a tym samym nie
były warte tego, żeby przyznać mi stopień naukowy. Wtedy pewnego dnia
odbyłem ciekawą rozmowę ze stażystą na stypendium podoktorskim, który
miał gabinet po drugiej stronie korytarza. Pracował on nad nowym
podejściem do zrozumienia zachowania cząstek elementarnych zwanych
kwarkami, które występują w trzech „kolorach”. (Termin ten w zastosowaniu
do kwarków nie ma nic wspólnego ze zwykłym rozumieniem „koloru”). Idea
polegała na (matematycznym) wyobrażeniu sobie świata, w którym istnieje
nieskończona liczba kolorów, a nie tylko trzy. Gdy rozmawialiśmy
o kwarkach, które nie miały w ogóle żadnego związku z moją pracą,
wpadłem na nowy pomysł: A co, gdybym rozwiązał mój problem, udając, że
żyjemy nie w świecie o trzech wymiarach, tylko w świecie o nieskończonej
liczbie wymiarów?
Jeśli brzmi to jak dziwaczna idea wzięta z sufitu, to właśnie taka była.
Jednak w miarę jak przebijaliśmy się przez równania, odkryliśmy –
ku naszemu zdziwieniu – że choć nie mogłem rozwiązać mojego problemu
w takiej postaci, w jakiej pojawiał się w realnym świecie, udawało się to, jeśli
przeformułowałem go w świecie o nieskończonej liczbie wymiarów. Gdy już
miałem rozwiązanie, „jedynym”, co musiałem zrobić, żeby obronić doktorat,
było zrozumienie, jak powinna zostać zmodyfikowana odpowiedź, żeby
wytłumaczyć fakt, iż w rzeczywistości żyjemy w przestrzeni trójwymiarowej.
Ta metoda okazała się potężna – mogłem teraz przeprowadzać obliczenia
na odwrocie koperty i otrzymywać wyniki dokładniejsze, niż uzyskiwali inni,
przeprowadzając skomplikowane obliczenia na komputerach. Po roku
bezowocnych wysiłków większość tego, co miało być moją rozprawą
doktorską o „ekspansji 1/N”, powstało w ciągu zaledwie kilku tygodni,
a w następnym roku wraz z kolegą wyprodukowaliśmy serię artykułów
stosującą ten pomysł do innych sytuacji i atomów48. W końcu laureat
Nagrody Nobla w dziedzinie chemii Dudley Herschbach przeczytał o naszej
metodzie w czasopiśmie o ekscytującym tytule „Physics Today”.
Przemianował tę technikę na „skalowanie wymiarów” i zaczął stosować ją
we własnej dziedzinie badań49. W ciągu dekady odbyła się nawet konferencja
w całości poświęcona tej metodzie. Opowiadam tę historię nie dlatego, że
pokazuje ona, iż można wybrać marny problem, zmarnować rok w ślepych
zaułkach, a mimo to dojść do interesującego odkrycia, lecz raczej by dać
ilustrację pokazującą, że ludzkie dążenie do wiedzy i innowacji nie jest
ciągiem odizolowanych indywidualnych wysiłków, tylko przedsięwzięciem
opartym na współpracy, działaniem społecznym, które dla swojego
powodzenia wymaga, by ludzie żyli w osadach, zapewniającym umysłom
otoczenie mnóstwa innych umysłów, z którymi mogą wchodzić w interakcje.
Te inne umysły można odnaleźć zarówno w teraźniejszości, jak
i w przeszłości. Mnożą się mity o tym, jak to osamotnieni geniusze
zrewolucjonizowali nasze rozumienie świata albo dokonali wspaniałych
technicznych wynalazków, ale są one nieodmiennie fikcją. Na przykład,
według legend, James Watt, autor pojęcia konia mechanicznego, od którego
nazwiska pochodzi nazwa jednostki mocy (wat), wpadł ponoć na pomysł
silnika parowego w akcie niespodziewanej inspiracji, gdy przyglądał się, jak
para unosi pokrywkę na imbryku. W rzeczywistości Watt wykoncypował
ideę swojego urządzenia, gdy reperował wcześniejszą wersję wynalazku,
która była już używana od jakichś piętnastu lat, zanim trafiła w jego ręce50.
Podobnie Izaak Newton nie wymyślił fizyki, siedząc samotnie w sadzie
i patrząc, jak spadają jabłka; spędził całe lata na gromadzeniu
skompilowanych przez innych badaczy informacji dotyczących orbit planet.
A gdyby nie zainspirował go podczas przypadkowej wizyty astronom
Edmond Halley (ten od słynnej komety), który zapytał fizyka o intrygujący
go problem matematyczny, Newton nigdy nie napisałby Principiów,
zawierających jego słynne prawa ruchu, które uczyniły go sławnym. Również
Einstein nie mógłby ukończyć swojej teorii względności, gdyby nie bazował
na starych teoriach matematycznych opisujących naturę zakrzywionej
przestrzeni, do których dotarł dzięki pomocy przyjaciela, matematyka
Marcela Grossmanna. Żaden z tych wielkich myślicieli nie zdołałby dokonać
swoich wielkich wynalazków i odkryć w pustce – wszyscy polegali na innych
ludziach i wcześniejszych koncepcjach, wszyscy zostali ukształtowani
i wyposażeni w wiedzę przez kultury, w których byli zanurzeni. Zresztą nie
tylko nauka i technika opierają się na pracy wcześniejszych praktyków:
odnosi się to również do sztuki. T.S. Eliot posunął się nawet do stwierdzenia:
„Niedojrzali poeci imitują, dojrzali poeci kradną […] a dobrzy poeci robią
z tego coś lepszego, a przynajmniej coś innego”51.
„Kulturę” definiuje się jako zachowanie, wiedzę, idee i wartości, których
nabywa się od osób żyjących wokół nas i które są odmienne w różnych
miejscach. My, współcześni ludzie, działamy zgodnie z kulturą, w której
jesteśmy wychowani, a także uzyskujemy znaczną część naszej wiedzy dzięki
niej, co jest prawdą w odniesieniu do naszego gatunku w znacznie większym
stopniu niż w wypadku innych gatunków. W istocie najnowsze badania
sugerują, że ludzie są na równi ewolucyjnie przystosowani do uczenia innych
ludzi52.
Nie jest tak, że inne gatunki nie mają kultury. Na przykład naukowcy
badający różne grupy szympansów odkryli, że tak jak ludzie na całym
świecie z dość dobrym wynikiem identyfikują jako Amerykanina osobę,
która jedzie za granicę, a następnie szuka restauracji serwujących milkshakes
i cheesburgery, tak również dzięki obserwacji grupy szympansów można
zidentyfikować na podstawie samego repertuaru zachowań ich miejsce
pochodzenia53. Ogólnie rzecz biorąc, naukowcy zidentyfikowali trzydzieści
osiem tradycji, które różnią się w zależności od społeczności szympansów.
Szympansy z Kibale w Ugandzie, z Gombe w Nigerii i z Mahale w Tanzanii
ostrzegają się przed ulewą, potrząsając gałęziami i klepiąc w ziemię. Te
z lasu Tai na Wybrzeżu Kości Słoniowej i z Bossou w Gwinei rozbijają
orzechy Coula, kładąc je na kawałku drewna i uderzając w nie płaskim
kamieniem. Donoszono, że inne grupy szympansów kulturowo przekazują,
jak używać roślin leczniczych. We wszystkich tych przykładach aktywność
kulturowa nie jest instynktowna ani nie jest odkrywana na nowo w każdym
pokoleniu, lecz stanowi raczej coś, czego młode uczą się, naśladując matki.
Najlepiej udokumentowany przykład odkrycia i kulturowego przekazu
wiedzy u zwierząt pochodzi z małej wyspy Kojima w Archipelagu
Japońskim54. Na początku lat pięćdziesiątych XX wieku tamtejsi hodowcy
zwierząt dokarmiali makaki, wyrzucając słodkie ziemniaki na plaże. Małpy
robiły, co tylko mogły, żeby otrząsnąć bulwy z piasku przed zjedzeniem.
Pewnego dnia 1953 roku osiemnastomiesięczna samica Imo wpadła na
pomysł, żeby zanieść ziemniak do wody i go umyć. Nie tylko usunęło to
twardy piach, ale sprawiło, że jedzenie stało się bardziej słone i smaczniejsze.
Towarzyszki zabaw Imo niedługo podchwyciły jej sztuczkę. Powoli nauczyły
się jej ich matki, a następnie samce, poza kilkoma starszymi – małpy nie
uczyły jedna drugiej, tylko były oglądane i naśladowane. W ciągu kilku lat
właściwie cała społeczność wytworzyła nawyk mycia pożywienia. Co więcej,
do tego czasu makaki unikały wody, ale teraz zaczęły się w niej bawić. To
zachowanie było przekazywane z pokolenia na pokolenia i utrzymywało się
przez dziesięciolecia. Podobnie jak społeczności ludzi na plaży, makaki
stworzyły własną odrębną kulturę. Z biegiem lat naukowcy znaleźli dowody,
że kultura istnieje w wielu gatunkach – zwierząt tak odmiennych jak orki,
kruki i, oczywiście, naczelne55.
Tym, co nas różni, jest to, że prawdopodobnie ludzie są jedynymi
zwierzętami zdolnymi do rozwijania wiedzy i innowacji dzięki czerpaniu
z doświadczeń przeszłości. Pewnego dnia na przykład zauważyli, że okrągłe
rzeczy się toczą, i wynaleźli koło. W efekcie mamy wozy, koła wodne, bloki
i, oczywiście, ruletkę. Natomiast Imo nie rozwijała wcześniejszej wiedzy
makaków ani też inne makaki nie rozwijały jej wiedzy. My, ludzie,
rozmawiamy ze sobą, uczymy się nawzajem i dążymy do udoskonalenia
starych idei oraz wymieniamy pomysły i inspiracje. Szympansy i inne
zwierzęta tego nie robią. Jak stwierdza archeolog Christopher Henshilwood:
„Szympansy mogą pokazać innym szympansom, jak łowić termity, ale tego
nie udoskonalają, nie mówią: «spróbujmy to zrobić inaczej» – po prostu robią
to samo jeszcze raz i jeszcze raz”56.
Antropolodzy nazywają proces, przez który kultura rozwija się, korzystając
z uprzedniej kultury (ze stosunkowo niewielką stratą), „kulturową
zapadką”57. Kulturowa zapadka stanowi zasadniczą różnicę między
kulturami ludzi i innych zwierząt, jest to mechanizm, który powstaje
w nowych osiadłych społeczeństwach, gdzie pragnienie bycia z innymi
podobnie myślącymi i rozważania wraz z nimi tych samych problemów staje
się pożywką pozwalającą wyrosnąć zaawansowanej wiedzy.
Archeolodzy porównują niekiedy innowacje kulturowe do wirusów58.
Podobnie jak wirusy idee i wiedza wymagają pewnych warunków – w tym
wypadku warunków społecznych – by rozkwitać. Kiedy te warunki istnieją,
jak w dużych populacjach połączonych ze sobą licznymi więziami, jednostki
społeczeństwa mogą zarażać się nawzajem, a kultura – szerzyć się
i ewoluować. Idee, które są użyteczne, a być może po prostu zapewniają
komfort, trwają i wydają następne pokolenie idei.
Współczesne firmy, które zależne są od innowacji, by odnieść sukces,
doskonale zdają sobie z tego sprawę. Google w istocie zrobiło to naukowo,
umieszczając długie, wąskie stoliki w kafeteriach, tak żeby ludzie musieli
siedzieć razem, i tak organizując wydawanie jedzenia, że w każdej kolejce
czeka się od trzech do czterech minut – nie tak długo, by pracownicy się
zirytowali i postanowili zjeść zupkę błyskawiczną, ale wystarczająco długo,
żeby zazwyczaj wpadali na siebie i zaczynali rozmawiać. Albo pomyślmy
o Laboratoriach Bella; od lat trzydziestych do siedemdziesiątych XX wieku
były one najbardziej innowacyjną organizacją na świecie, odpowiedzialną za
wiele kluczowych wynalazków, które sprawiły, że współczesna epoka
cyfrowa stała się możliwa – w tym za tranzystor i laser. W laboratoriach tych
wspólne badania były tak wysoko cenione, że budynki zaprojektowano w ten
sposób, by maksymalizować szansę przypadkowego spotkania, a zadania
jednego z pracowników obejmowały podróżowanie do Europy każdego lata,
by nie zanikł przypadkiem przepływ idei naukowych między Europą
i Stanami Zjednoczonymi59. Dostrzeżono bowiem, że ci, którzy podróżują
w większych grupach i stykają się z innymi intelektualistami, mają większe
szanse wymyślenia innowacji. Jak ujął to genetyk i ewolucjonista Mark
Thomas, jeśli chodzi o nowe, przełomowe pomysły: „Nie chodzi o to, jak
mądry jesteś. Chodzi o to, jak dobrze jesteś połączony z innymi”60.
Wzajemne powiązania są kluczowym mechanizmem w kulturowym kole
zapadkowym i jest to jeden z darów rewolucji neolitycznej.

***

Pewnego wieczoru, niedługo po siedemdziesiątych szóstych urodzinach


mojego ojca, zaraz po kolacji wybraliśmy się na spacer. Następnego dnia
miał iść do szpitala na operację. Chorował od wielu lat, cierpiąc na
połączenie cukrzycy, udaru, ataku serca, a co najgorsze – z jego punktu
widzenia – chroniczną zgagę, co zmuszało go do stosowania diety, która
wykluczała właściwie wszystko, co lubił jeść. Gdy powoli przechadzaliśmy
się o zmierzchu, oparł się na swojej lasce, podniósł oczy z ulicy na niebo
i zauważył, że trudno mu przyjąć, iż może to ostatni raz, gdy widzi gwiazdy.
A następnie zaczął mi opowiadać, co zaprząta jego umysł, gdy on sam stoi
w obliczu możliwości, że jego śmierć może być bliska.
Tu na ziemi, powiedział mi, żyjemy w pełnym zamętu, chaotycznym
wszechświecie. W młodym wieku przyniósł mu on kataklizm Holokaustu,
a w podeszłym – problem z aortą, która wbrew wszelkim zasadom budowy
niebezpiecznie się wybrzuszała. Niebo zawsze wydawało mu się
wszechświatem, który stosuje się do zupełnie odmiennych praw, dziedziną
planet i słońc, które poruszają się spokojnie po swoich odwiecznych orbitach
i wydają się doskonałe i niezniszczalne. Od lat często o tym rozmawialiśmy.
Zazwyczaj następowało to, gdy opisywałem swoje najnowsze przygody
w dziedzinie fizyki, a on pytał mnie, czy naprawdę wierzę, że te atomy,
z których składają się ludzie, podlegają tym samym prawom co atomy
w pozostałej części Wszechświata – nieożywionej i martwej. Niezależnie jak
wiele razy mówiłem, że tak, naprawdę w to wierzę, pozostawał
nieprzekonany.
Zakładałem, że mając w pamięci perspektywę własnej śmierci, będzie
mniej niż kiedykolwiek skłonny do wiary w bezosobowe prawa natury,
będzie natomiast, jak często robią ludzie w takim czasie, myślał
o kochającym Bogu. Mój ojciec rzadko mówił o Bogu, choć bowiem został
wychowany w wierze w tradycyjnego Boga, i chciał ją zachować,
okropieństwa, których był świadkiem, sprawiły, że było to trudne. Jednak
gdy kontemplował gwiazdy w nocy, sądziłem, że może równie dobrze szukać
dla pocieszenia Boga. Zamiast tego powiedział mi coś, co mnie zaskoczyło.
Wyraził nadzieję, że mam rację co do praw fizyki, ponieważ teraz sprawia
mu przyjemność możliwość, że pomimo zamętu ludzkiej kondycji zrobiony
jest z tej samej materii co doskonałe i romantyczne gwiazdy.
My, ludzie, myśleliśmy o takich sprawach przynajmniej od czasu rewolucji
neolitycznej, i wciąż nie znamy odpowiedzi, ale gdy się obudziliśmy, by
w ogóle stawiać te pytania, następnym kamieniem milowym na ludzkiej
drodze do wiedzy miało być stworzenie narzędzi – narzędzi umysłowych –
które pomogą nam na nie odpowiedzieć.
Pierwsze z tych narzędzi nie wyglądają wspaniale. Nie przypominają
w niczym rachunku różniczkowego ani metody naukowej. Są to
fundamentalne prawa myślowego rzemiosła, takie, które są z nami od tak
dawna, że mamy skłonność do zapominania, iż nie zawsze były częścią
naszego umysłowego wyposażenia. Żeby jednak nastąpił postęp, musieliśmy
poczekać na pojawienie się zawodów, które się zajmowały badaniem idei,
a nie dostarczaniem pożywienia; na wynalezienie pisma, tak żeby można
było zachowywać i wymieniać wiedzę; na stworzenie matematyki, która
miała się stać językiem nauki, i wreszcie na wymyślenie pojęcia praw.
Równie epickie oraz innowatorskie na swój sposób jak rewolucja naukowa
z XVII wieku, te postępy nastąpiły nie tyle jako wytwór heroicznych
jednostek snujących wielkie myśli, ile jako stopniowy produkt uboczny życia
w pierwszych prawdziwych miastach.

31 James E. McClellan III, Harold Dorn, Science and Technology in World History, wyd.
2, Johns Hopkins University Press, Baltimore 2006, s. 9–12.

32 Wiele umiejętności istniało również u starszych grup nomadów, ale techniki nie
rozkwitały, ponieważ produkty nie pasowały do wędrownego stylu życia. Zob. ibidem,
s. 20–21.

33 Jacob L. Weisdorf, From Foraging to Farming: Explaining the Neolithic Revolution,


„Journal of Economic Surveys” 2005, nr 19, s. 562–586; Elif Batuman, The Sanctuary,
„New Yorker”, 19 grudnia 2011 r., s. 72–83.

34 Marshall Sahlins, Stone Age Economics, Aldine Atherton, Nowy Jork 1972, s. 1–39.

35 Ibidem, s. 21–22.

36 Andrew Curry, Seeking the Roots of Ritual, „Science”, nr 319 (18 stycznia 2008 r.),
s. 278–280; Andrew Curry, Gobekli Tepe: The World’s First Temple?, „Smithsonian
Magazine”, listopad 2008, dostęp: 7 listopada 2014 r.,
http://www.smithsonianmag.com/history-archaeology/gobekli-tepe.html; Charles C. Mann,
The Birth of Religion, „National Geographic”, czerwiec 2011, s. 34–59; Elif Batuman, The
Sanctuary, op. cit.

37 Elif Batuman, The Sanctuary, op. cit.

38 Michael Balter, Why Settle Down? The Mystery of Communities, „Science”, nr 20


(listopad 1998), s. 1442–1446.

39 Fachowa nazwa to smilodon.

40 Andrew Curry, Gobekli Tepe: The World’s First Temple?, op. cit.

41 James E. McClellan III, Harold Dorn, Science and Technology in World History, op.
cit.

42 Michael Balter, Why Settle Down? The Mystery of Communities, op. cit.

43 Marc Van de Mieroop, Historia starożytnego Bliskiego Wschodu: ok. 3000–323


p.n.e., przeł. M. Komorowska, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2008.
Zob. też Michael Balter, Why Settle Down? The Mystery of Communities, op. cit., s. 1442–
1446.

44 Michael Balter, Why Settle Down? The Mystery of Communities, op. cit., s. 1442–
1446; David Lewis-Williams, David Pearce, Inside the Neolithic Mind, Thames and
Hudson, Londyn 2005, s. 77–78.

45 Ian Hodder, Women and Men at Çatalhöyük, „Scientific American”, styczeń 2004,
s. 81.

46 Ian Hodder, Çatalhöyük in the Context of the Middle Eastern Neolithic, „Annual
Review of Anthropology” 2007, nr 36, s. 105–120.

47 Anil K. Gupta, Origin of Agriculture and Domestication of Plants and Animals


Linked to Early Holocene Climate Amelioration, „Current Science”, nr 87 (10 lipca 2004
r.); Marc Van de Mieroop, Historia starożytnego Bliskiego Wschodu..., op. cit.

48 L.D. Mlodinow, N. Papanicolaou, SO(2,1) Algebra and the Large N Expansion in


Quantum Mechanics, „Annals of Physics” 1980, nr 128, s. 314–334; L.D. Mlodinow, N.
Papanicolaou, Pseudo-Spin Structure and Large N Expansion for a Class of Generalized
Helium Hamiltonians, „Annals of Physics” 1981, nr 131, s. 1–35; Carl Bender, L.D.
Mlodinow, N. Papanicolaou, Semiclassical Perturbation Theory for the Hydrogen Atom in
a Uniform Magnetic Field, „Physical Review A” 1982, nr 25, s. 1305–1314.

49 Jean Durup, On the 1986 Nobel Prize in Chemistry, „Laser Chemistry” 1987, nr 7,
s. 239–259. Zob też D.J. Doren, D.R. Herschbach, Accurate Semiclassical Electronic
Structure from Dimensional Singularities, „Chemical Physics Letters” 1985, nr 118,
s. 115–119; J.G. Loeser, D.R. Herschbach, Dimensional Interpolation of Correlation
Energy for Two-Electron Atoms, „Journal of Physical Chemistry” 1985, nr 89, s. 3444–
3447.

50 Andrew Carnegie, James Watt, Doubleday, Nowy Jork 1933, s. 45–64.

51 T.S. Eliot, The Sacred Wood and Major Early Essays, Dover Publications, Nowy Jork
1997, s. 72. Po raz pierwszy wydane w 1920 roku.

52 Gergely Csibra, György Gergely, Social Learning and Cognition: The Case for
Pedagogy, w: Processes in Brain and Cognitive Development, red. Y. Munakata i M.H.
Johnson, Oxford University Press, Oksford 2006, s. 249–274.

53 Christophe Boesch, From Material to Symbolic Cultures: Culture in Primates, w: The


Oxford Handbook of Culture and Psychology, red. Juan Valsiner, Oxford University Press,
Oksford 2012, s. 677–692. Zob. też Sharon Begley, Culture Club, „Newsweek”, 26 marca
2001 r., s. 48–50.

54 Christophe Boesch, From Material to Symbolic Cultures, op. cit. Zob. też Sharon
Begley, Culture Club, op. cit.; Bennett G. Galef Jr., Tradition in Animals: Field
Observations and Laboratory Analyses, w: Interpretation and Explanation in the Study of
Animal Behavior, red. Marc Bekoff i Dale Jamieson, Westview Press, Oksford 1990.

55 Christophe Boesch, From Material to Symbolic Cultures, op. cit. Zob. też Sharon
Begley, Culture Club, op. cit.

56 Heather Pringle, Jak rodziła się nasza kreatywność, „Świat Nauki”, kwiecień 2013.

57 Michael Tomasello, Kulturowe źródła ludzkiego poznawania, przeł. J. Rączaszek,


Państwowy Instytut Wydawniczy, Warszawa 2002, s. 12, 54–58.

58 Fiona Coward, Matt Grove, Beyond the Tools: Social Innovation and Hominin
Evolution, „PaleoAnthropology” 2011 (numer specjalny), s. 111–129.

59 Jon Gertner, The Idea Factory: Bell Labs and the Great Age of American Knowledge,
Penguin, Nowy Jork 2012, s. 41–42.
60 Heather Pringle, Jak rodziła się nasza kreatywność, op. cit.
4.

Cywilizacja

Jedną z perełek aforyzmów, z których znany jest Izaak Newton, jest jego
spostrzeżenie: „Jeśli widziałem dalej, to dlatego, że stałem na ramionach
gigantów”. Napisał to w liście do Roberta Hooke’a z 1676 roku, mając na
myśli to, że opierał się na dziele Hooke’a (ten stał się później jego zajadłym
wrogiem) i Kartezjusza. Newton z pewnością skorzystał z pomysłów tych,
którzy przyszli przed nim; w istocie wydaje się, że uczynił to nawet,
formułując samo stwierdzenie, że skorzystał z ich pomysłów – w 1621 roku
bowiem Vicar Robert Burton napisał: „Karzeł stojący na ramionach giganta
może widzieć dalej niż sam gigant”; później, w 1651 roku, poeta George
Herbert ujął to tak: „Karzeł stojący na ramionach giganta widzi dalej z nich
dwóch”; a w 1659 roku purytanin William Hicks: „Pigmej na ramionach
giganta może widzieć dalej niż on [gigant] sam”61. Wydaje się, że w XVII
wieku karły i pigmeje wdrapujące się na wielkie bestie były podstawowym
wyobrażeniem dotyczącym dążeń intelektualnych.
Poprzednicy, do których Newton i inni się odnosili, żyli w mniej
lub bardziej odległej przeszłości. Równocześnie o roli, jaką odegrały
pokolenia poprzedzające nas o wiele tysięcy lat, zazwyczaj zapominano.
Jednak choć myślimy o nas samych dziś jako o zaawansowanych, dotarliśmy
do tego miejsca tylko dzięki dogłębnym innowacjom, które pojawiły się, gdy
neolityczne wsie wyewoluowały w pierwsze prawdziwe miasta. Abstrakcyjna
wiedza i techniki umysłowe, które stworzyły te starożytne cywilizacje,
odegrały kluczową rolę w kształtowaniu naszych wyobrażeń
o Wszechświecie – i naszej zdolności do zgłębiania tych idei.

***
Pierwsze miasta nie powstały nagle, jak gdyby nomadzi pewnego dnia
postanowili się osiedlić, a następną rzeczą, jaką poznali, było polowanie
i zbieranie udek kurcząt ułożonych na tackach styropianowych i owiniętych
folią. Przekształcenie wsi w miasta było stopniowym, naturalnym procesem,
który następował, gdy tylko osiadły styl życia się przyjął, przez setki albo
tysiące lat. Ta powolna ewolucja pozostawia pole do interpretacji
w odniesieniu do dokładnego momentu, w którym wieś powinno się uznać za
miasto. Pomimo tego marginesu niepewności skupiska ludzkie nazywane
pierwszymi miastami pojawiły się na Bliskim Wschodzie około czterech
tysięcy lat p.n.e.62.
Prawdopodobnie najważniejszym z tych ośrodków i istotną siłą w trendzie
prowadzącym do urbanizacji było otoczone wielkimi murami miasto Uruk
w dzisiejszym południowo-wschodnim Iraku, w pobliżu Basry63. Choć Bliski
Wschód był regionem, w którym najwcześniej nastąpiła urbanizacja, nie był
to najłatwiejszy teren do życia. Pierwsi osadnicy szli za wodą. Może się to
wydawać mylące z uwagi na to, że większość tego kraju to pustynia. Jednak
choć klimat nie jest sprzyjający, warunki geograficzne zachęcają. W samym
środku tego kraju bowiem znajduje się długa depresja na obszarze, przez
który przepływają rzeki Tygrys i Eufrat oraz ich dopływy, co tworzy bogatą
i płodną równinę. Nazwano ją Mezopotamią, od greckiego określenia
oznaczającego „między rzekami”. Pierwsze osiedla, jakie tam powstały, były
zwykłymi wsiami, o wielkości ograniczonej brzegami rzek. Później, po 7000
roku p.n.e., społeczności rolników nauczyły się kopać kanały i zbiorniki, by
rozszerzyć zasięg rzek, a wraz ze wzrostem podaży żywności urbanizacja
stała się w końcu możliwa.
Nawadnianie nie było łatwe. Nie wiem, czy kiedykolwiek próbowaliście
wykopać rów, ale ja tak – aby położyć wąż do zraszacza trawnika. Pierwsza
część poszła dobrze – ta część, która polegała na zakupieniu szpadla. Później
zaczęły się trudności. Podniosłem wysoko to piękne narzędzie i wbiłem je
w ziemię z taką mocą, że zadrgało, jak gdyby trafiło w wyjątkowo twardy
grunt. W końcu byłem w stanie ukończyć pracę tylko dzięki odwołaniu się do
siły wyższej: gościa, który miał koparkę z silnikiem spalinowym.
W dzisiejszych miastach kopie się bardzo dużo – wielu z nas zatrzymuje się
nawet, żeby się przyjrzeć wykopom. Jednak kanały irygacyjne na
starożytnym Bliskim Wschodzie o długości wielu kilometrów i szerokości
ponad dwudziestu metrów, wykopane za pomocą prostych narzędzi i bez
maszyn, były prawdziwym cudem świata starożytnego.
Doprowadzenie wody do pól oddalonych od naturalnych brzegów rzeki
wymaga wyczerpującej pracy setek albo tysięcy robotników oraz planistów
i nadzorców, którzy nimi kierują. Rolnicy wkładali pracę w ten grupowy
wysiłek z kilku powodów. Jednym z nich był przymus ze strony rządzących,
stojących wyżej w społecznej hierarchii. Innym – to, że przyłączenie się do
wysiłku stanowiło jedyny sposób na nawodnienie własnego gruntu.
Niezależnie od tego, który z tych czynników okazał się istotniejszy, wysiłki
rolników się opłaciły. Nadwyżki żywności i życie osiadłe oznaczały, że
rodziny mogły mieć i wychować więcej dzieci. Liczba urodzin zaczęła
rosnąć, a śmiertelność niemowląt – spadać. Około 4000 roku p.n.e. ludności
przybywało w szybkim tempie. Wsie przeradzały się w miasteczka,
miasteczka stawały się miastami, te zaś się rozrastały.
Uruk, zbudowane tuż na skraju moczarów u krańca Zatoki Perskiej, było
najbogatszym z pierwszych miast. Zaczęło dominować w swoim regionie,
znacznie przewyższając wielkością inne osady. Choć trudno jest oszacować
liczbę mieszkańców starożytnych miast, na podstawie budowli i ich
pozostałości archeologowie ustalili, że Uruk liczyło prawdopodobnie od
pięćdziesięciu do stu tysięcy mieszkańców, co przewyższało
dziesięciokrotnie wielkość Çatalhöyük64. Dzisiaj byłoby niewielkim
miastem, ale wówczas był to prawdziwy Nowy Jork, Londyn, Tokio albo São
Paulo…
Mieszkańcy Uruk orali swoje pola radłem, wyspecjalizowanym i trudnym
w obsłudze narzędziem; pozwala ono na wrzucanie nasion w bruzdę, którą
wyoruje. Osuszali moczary i kopali kanały z setkami kanałów dopływowych.
Na nawodnionej ziemi rosły obficie zboża i sady owocowe, uprawiano
głównie jęczmień, pszenicę i daktyle. Mieszkańcy hodowali owce, osły,
bydło i świnie, łapali ryby i ptactwo na pobliskich moczarach oraz żółwie
w rzekach. Wypasali kozy i wodne bawoły na mleko i pili dużo piwa
produkowanego z jęczmienia. (Testy chemiczne antycznej ceramiki
potwierdziły używanie piwa już pięć tysięcy lat p.n.e.).
Wydarzenia te są dla nas istotne, ponieważ powstanie wyspecjalizowanych
zawodów wymagało nowego podejścia do materiałów, chemikaliów czy
cykli życia i potrzeb roślin i zwierząt65. Produkcja żywności zrodziła
rybaków, rolników, pasterzy i myśliwych. Uprawianie rzemiosła
przekształciło się z zajęcia „na pół etatu” w gospodarstwie domowym
w etatową pracę klasy zawodowców o wyspecjalizowanych umiejętnościach.
Chleb stał się produktem piekarzy, a piwo domeną warzelników66. Powstały
karczmy, a wraz z nimi karczmarze, z których część stanowiły kobiety.
Na podstawie pozostałości warsztatu, w którym – jak się wydaje –
zajmowano się wytapianiem metalu, domyślamy się istnienia hutników.
Również garncarstwo mogło stać się zawodem: pojawienie się tysięcy
prostych garnków zdobionych ornamentem z ukośnych kresek sugeruje, że
były masowym produktem w standardowym wymiarze, jeśli nawet nie
z dyskontu, to ze scentralizowanej fabryki zajmującej się produkcją ceramiki.
Inni wyspecjalizowani robotnicy zajmowali się tkactwem. Zachowane
dzieła z tego okresu przedstawiają tkaczy, a antropolodzy odkryli fragmenty
wełnianych tkanin. Co więcej, szczątki zwierząt pokazują, że mniej więcej
w tym czasie pasterze zaczęli trzymać znacznie więcej owiec niż kóz67.
Ponieważ kozy dają więcej mleka, wzrost liczby owiec w stadach
przypuszczalnie odzwierciedla zwiększone zapotrzebowanie na wełnę.
Również odkopane kości dowodzą, że pasterze ubijali swoje owce
w zaawansowanym wieku, co nie jest dobrym pomysłem, gdy jest się
zainteresowanym mięsem, ale mądre, gdy trzyma się je dla runa.
Wszystkie te wyspecjalizowane zawody były dobrodziejstwem dla
każdego, kto potrzebował piwa, mleka czy garnka, z którego mógłby je pić,
ale stały się też kamieniem milowym w historii ludzkiego postępu, ponieważ
połączone wysiłki nowych specjalistów wygenerowały bezprecedensową
eksplozję wiedzy. Owszem, była to wiedza nabyta wyłącznie w celach
praktycznych, często spleciona z mitem i rytuałem. I, owszem, recepty na
piwo zawierają instrukcję, jak pozyskać łaskawość bogini rządzącej
produkcją i spożywaniem trunku. Nic z tego nie zostałoby opublikowane
w „Nature” – ale było to nasienie, z którego wiedza naukowa, zdobywana dla
niej samej, miała wykiełkować później.

***

Poza powstaniem zawodów, których celem było produkowanie rzeczy, w tym


samym czasie pojawiła się też garstka innych specjalności, które
koncentrowały się nie na pracy fizycznej czy produkcji żywności, czy dóbr
materialnych, lecz wokół aktywności umysłowych.
Mówi się, że odczuwamy większą więź z tymi, którzy wykonują nasz
zawód, niż z członkami niemal wszystkich innych grup. Jestem równie
kiepski w większości praktycznych spraw, jak choćby w kopaniu rowów,
a moim jedynym atutem w świecie pracy jest zdolność do siedzenia
i myślenia przez cały dzień bez zmęczenia, którą to drogą, ku mojemu
wielkiemu szczęściu, byłem w stanie podążać. A więc czuję więź z tymi
starożytnymi handlarzami umysłu. Choć wierzyli w wielu bogów i wiele
przesądów, są moimi ziomkami i ziomkami wszystkich z nas, którzy mają
przywilej zarabiania na życie myśleniem i badaniem.
Nowe „intelektualne” zawody powstały, ponieważ miejski styl życia, który
zakorzenił się w Mezopotamii w tym okresie, wymagał pewnego rodzaju
scentralizowanej organizacji, a to oznacza tworzenie systemów i reguł oraz
gromadzenie i zapisywanie danych.
Urbanizacja wymagała na przykład powstania systemów wymiany oraz ciał
nadzorujących tę wymianę; zwiększona, ale sezonowa produkcja żywności
oznaczała, że trzeba było stworzyć wspólne systemy jej składowania; a fakt,
że rolnicy i ludzie, którzy byli od nich uzależnieni, w przeciwieństwie do
plemion nomadycznych, nie mogli z łatwością porzucić swojej siedziby, gdy
zostali zaatakowani, powodował, że niezbędna stała się milicja albo armia.
W istocie mezopotamskie państwa-miasta były w stanie nieustannej
wyniszczającej walki o ziemię i dostęp do wody.
Istniał również wielki popyt na organizowanie robotników w siłę roboczą
do robót publicznych. Przede wszystkim trzeba było zbudować grube mury
wokół miast, żeby odstraszyć potencjalnych agresorów. Konieczne były też
drogi dla powozów wyposażonych w nowo wynalezione koło, podczas gdy
rolnictwo potrzebowało coraz większych projektów irygacyjnych. I,
oczywiście, samo istnienie nowej centralnej władzy wymagało wzniesienia
odpowiednio dużych budynków, by pomieścić biurokratów.
A wtedy pojawiła się potrzeba policji68. Kiedy populacja osiedli liczona jest
w dziesiątkach albo setkach, wszyscy mogą znać się nawzajem. Gdy jednak
rozrasta się ona do tysięcy, nie jest to już możliwe, a więc ludzie często
znajdują się w sytuacjach, w których wchodzą w interakcje z obcymi, co
zmienia charakter konfliktów międzyludzkich. To, jak się zmienia dynamika
grupowa, gdy grupy się rozrastają, badają antropologowie, psychologowie
i specjaliści od neuronauki, ale na najbardziej podstawowym poziomie łatwo
jest zrozumieć, co się dzieje. Jeśli mam się widywać z kimś przez cały czas,
nawet jeśli go nie lubię, to lepiej będę udawał, że jest inaczej. A udawanie, że
się kogoś lubi, na ogół wyklucza takie rzeczy, jak rozbicie glinianej tabliczki
na jego głowie, by ukraść mu kozę. Jeśli zaś nie znam tej osoby
i spodziewam się, że nasze drogi nigdy więcej się nie przetną, myśl
o smakowitym kozim serze może być zbyt kusząca, by ją przemóc.
W rezultacie konflikty nie pojawią się już tylko wśród rodziny, przyjaciół
albo znajomych, lecz także wśród nieznajomych, a więc muszą zostać
utworzone formalne metody rozwiązywania sporów – siły policyjne – co
rodzi kolejną siłę napędową dla budowy scentralizowanego aparatu
rządowego.
Kim byli władcy tych pierwszych miast na świecie, ludzie, którzy sprawili,
że scentralizowane działania były możliwe? Mezopotamczycy zwracali się do
tych, którzy pośredniczyli między nimi i ich bogami, którzy przewodniczyli
ich obowiązkom i ceremoniom religijnym jako źródłom władzy.
Mieszkańcy Mezopotamii w przeciwieństwie do nas nie przeprowadzali
rozróżnienia między Kościołem i państwem – w Mezopotamii były one
nierozdzielne. Każde miasto było domem boga albo bogini, czyli bóstwa
opiekuńczego. Mieszkańcy każdego miasta wierzyli, że bogowie rządzą ich
egzystencją i że zbudowali miasto jako własne domostwo69. A jeśli miasto
upadało, wierzyli, że dzieje się tak dlatego, iż bogowie ich porzucili. A więc
religia stała się nie tylko systemem wierzeń spajającym społeczeństwo, lecz
także siłą wykonawczą egzekwującą reguły. Co więcej, z uwagi na strach
przed bogami była użytecznym narzędziem uzyskiwania posłuszeństwa.
„Dobra były przyjmowane przez boga miasta i rozdzielane między ludzi –
napisał badacz Bliskiego Wschodu Marc Van de Mieroop. – Świątynia, dom
boga, była centralną instytucją, która sprawiała, że ten system działał. […]
Świątynia ulokowana w mieście była punktem centralnym dla wszystkich”70.
W rezultacie na samych szczytach społeczeństwa Uruk powstała pozycja
kapłana-króla, którego autorytet wynikał z jego roli odgrywanej w świątyni.
Autorytet oznacza władzę, ale żeby działać skutecznie, władcy musieli
gromadzić dane. Na przykład jeśli establishment religijny miał nadzorować
wymianę dóbr i pracy, ściąganie podatków i egzekwowanie umów, musiał
mieć ludzi, którzy mogli gromadzić, przetwarzać i przechowywać informacje
ważne dla tych działań. Dziś myślimy o biurokracji rządowej jak o instytucji
o potencjale intelektualnym porównywalnym z uniwersytecką drużyną
piłkarską, ale to właśnie z tych pierwszych rządowych biurokracji wyłoniła
się wyspecjalizowana klasa intelektualistów. I to właśnie z uwagi na ich
biurokratyczne potrzeby powstały najważniejsze techniki umysłowe, jakie
kiedykolwiek wynaleziono: czytanie, pisanie i arytmetyka.
Dziś postrzegamy te „trzy R”71 jako najbardziej elementarne umiejętności,
techniki, których uczymy się zaraz po wyrośnięciu z pieluch, i to zanim
jeszcze dostaniemy pierwszego smartfona. Wydają się one elementarne tylko
dlatego, że ktoś inny wynalazł je dawno temu i były one od tego czasu
przekazywane przez nauczycieli, którzy zadawali sobie trud, by ich nas
nauczyć. W starożytnej Mezopotamii, gdyby ktokolwiek miał tytuł profesora,
byliby to profesorowie czytania, ręcznego pisania, liczenia i dodawania; i to
oni nauczaliby oraz badali idee, które uchodziły za najbardziej
zaawansowane w ich czasach.

***

Uderzającą różnicą między nami i milionami innych gatunków zwierząt na


Ziemi jest to, że ludzki umysł może wpływać na myśli innego w bardzo
skomplikowany i zniuansowany sposób. Forma kontroli myśli, o której
mówię, następuje za pośrednictwem języka. Inne zwierzęta mogą
sygnalizować sobie nawzajem obawę albo zagrożenie, głód albo
przywiązanie, a w niektórych wypadkach umieją przekazać to również nam,
ale nie mają zdolności uczenia się pojęć abstrakcyjnych ani połączenia więcej
niż kilku słów w sensowny sposób. Szympans potrafi wybrać na polecenie
kartę z obrazkiem pomarańczy, a papuga może nas zanudzać niekończącym
się powtarzaniem: „Polly chce ciasteczko”. Jednak ich zdolność do wyjścia
poza proste prośby, polecenia, ostrzeżenia i wskazania jest właściwie
żadna72.
Kiedy w latach siedemdziesiątych XX wieku naukowcy nauczyli
szympansy znaków języka, żeby zbadać, czy potrafią opanować kryjącą się
pod nimi wrodzoną strukturę gramatyki i składni, językoznawca Noam
Chomsky zauważył: „Jest niemal równie prawdopodobne, że okaże się, iż
małpy mają zdolność językową, jak [że] gdzieś tam jest wyspa, na której żyją
nielotne ptaki, które czekają, żeby istoty ludzkie nauczyły je latać”73. Po
upływie dziesiątków lat wydaje się, że Chomsky miał rację.
Podobnie jak żaden ptak nie wymyślił latania, a pisklęta nie muszą chodzić
do szkoły latania, żeby się tego nauczyć, język wydaje się naturalny dla ludzi
– i tylko dla ludzi. Nasz gatunek musi angażować się w złożone działania
oparte na współpracy, aby przetrwać w dzikiej przyrodzie, a – jak nieustannie
przypominam moim nastoletnim dzieciom – wskazywanie i pochrząkiwanie
nie prowadzi za daleko. W rezultacie tak jak zdolność do przybierania
postawy wyprostowanej albo widzenia, język ewoluował jako adaptacja
biologiczna, wspomagany przez gen, który był obecny w ludzkich
chromosomach od tak dawna, że został nawet zidentyfikowany w antycznym
DNA neandertalczyków.
Ponieważ zdolność do posługiwania się językiem mówionym jest
wrodzona, można się spodziewać, że będzie się powszechnie przejawiać, i
istotnie, wydaje się, że była ona wynajdywana wielokrotnie na całym globie
ziemskim, w każdym zgromadzeniu ludzi, którzy kiedykolwiek żyli razem
jako grupa. W istocie przed rewolucją neolityczną mogło być tyle języków,
ile było plemion. Jednym z powodów takiego przekonania jest to, że przed
rozpoczęciem brytyjskiej kolonizacji Australii pod koniec XVIII wieku
pięćset plemion tubylców, z których każde liczyło średnio pięćset osób,
przemierzało ów kontynent, prowadząc wciąż neolityczny styl życia –
a każde z nich miało własny język74. Jak zauważył Steven Pinker: „Nigdy nie
odkryto niemego plemienia i nie ma dowodów, że jakiś region pełnił funkcję
«kołyski» języka, z której rozprzestrzenił się on na nieposiadające wcześniej
języka grupy”75.
Choć język jest doniosłą cechą definiującą gatunek ludzki, język pisany jest
cechą definiującą ludzkiej cywilizacji i jednym z jej najważniejszych
narzędzi. Mowa umożliwia nam komunikowanie się w obrębie małej grupy,
w naszym bezpośrednim sąsiedztwie; pismo – wymianę pomysłów z ludźmi
oddalonymi od nas zarówno w przestrzeni, jak i w czasie. Zapewnia ono
ogromną akumulację wiedzy, dzięki czemu kultury mogły opierać się na
swojej przeszłości. W ten sposób pismo umożliwiło nam przekroczenie
granic naszej indywidualnej wiedzy i pamięci. Telefon i Internet zmieniły
świat, ale na długo przed ich powstaniem pisanie było pierwszą i najbardziej
rewolucyjną technologią.
Mowa pojawia się w naturalny sposób – nie trzeba jej wynajdywać.
Natomiast pisanie trzeba wynaleźć i istnieje mnóstwo plemion, które nigdy
nie uczyniły tego kroku. Choć traktujemy to jako rzecz oczywistą, pisanie
jest jednym z największych wynalazków wszech czasów i jednym
z najtrudniejszych. Ciężar tego zadania odzwierciedla się w fakcie, że choć
językoznawcy udokumentowali ponad trzy tysiące języków, którymi obecnie
się mówi na całym świecie, tylko około stu z nich zostało zapisanych76. Co
więcej, przez całą ludzką historię pisanie wynajdywano niezależnie tylko
kilka razy, a rozpowszechniło się ono na cały świat głównie dzięki dyfuzji
kulturowej, raczej zapożyczane albo adaptowane z istniejących systemów niż
ponownie kolejny raz wynajdywane.
Panuje przekonanie, że słowo zapisano po raz pierwszy przed 3000 rokiem
p.n.e. w Sumerze w południowej Mezopotamii. Jesteśmy pewni tylko co do
jednego niezależnego wynalezienia systemu pisma w Meksyku przed 900
rokiem p.n.e.77. Poza tym jest możliwe, że systemy egipski (3000 rok p.n.e.)
i chiński (1500 rok p.n.e.) również powstały niezależnie. Wszystkie pisma,
które znamy, wywodzą się z tych kilku wyżej wspomnianych.
W przeciwieństwie do większości ludzi osobiście doświadczyłem próby
„wynalezienia” słowa pisanego, gdy bowiem miałem osiem albo dziewięć lat,
należałem do zuchów, a zastępowy przydzielił mi jako zadanie próbę
stworzenia naszego własnego szyfru. Mogę stwierdzić, że kiedy poddał nasze
prace ocenie, był pod wrażeniem mojej. To, co wyprodukowałem, nie
przypominało wcale prac innych dzieciaków. Po prostu wprowadziły one
niewielkie zmiany do liter alfabetu angielskiego. Natomiast mój system
pisma wyglądał na zupełnie nowy.
Zanim oddał moją pracę, Peters przejrzał ją po raz ostatni. Nie lubił mnie,
i mogę stwierdzić, że szukał dziury w całym, aby znaleźć sposób na
uniknięcie pochwał geniuszu twórczego, który wydawał się leżeć u podstaw
takiego dzieła. „Dobra robota” – wymruczał. Wahał się przed
wypowiedzeniem słowa „dobra”, jak gdyby użycie go w odniesieniu do mnie
oznaczało, że musi oddać wynalazcy tygodniową płacę za prawa autorskie.
A wtedy, kiedy wyciągał w moją stronę kartkę, żebym ją zabrał, nagle cofnął
rękę. „Chodzisz do szkółki niedzielnej, prawda?” – zapytał. Przytaknąłem.
„Czy pismo, które wymyśliłeś, opiera się w jakikolwiek sposób na alfabecie
hebrajskim?”. Nie mogłem kłamać. Tak, tak samo jak inni po prostu wziąłem
alfabet, który znałem, i pozmieniałem litery. Nie było to nic, czego można by
się wstydzić, ale byłem zdruzgotany. Zawsze traktował mnie nie jak dziecko,
tylko jak żydowskie dziecko, a teraz dowiodłem, że miał rację.
Małe zuchowskie przedsięwzięcie mogło się nam wydawać dużym
wyzwaniem, ale mieliśmy jedną zasadniczą przewagę nad tymi, którzy po raz
pierwszy wynaleźli pismo, ponieważ nauczono nas już, jak nasze języki
mówione da się rozłożyć na elementarne dźwięki, oznaczone za pomocą
poszczególnych liter. Nauczono nas również, że pewne podstawowe głoski,
takie jak cz i sz, nie odpowiadają pojedynczym literom i że potrafimy
odróżnić na przykład p i b, co mogłoby być dla nas trudne, gdybyśmy nie
mieli wcześniejszych doświadczeń z żadnym rodzajem systemu pisma.
Można zyskać posmak trudności z tym związanych, jeśli spróbuje się
zidentyfikować podstawowe jednostki dźwięku, który słyszy się, gdy ludzie
mówią w obcym języku. Im słabiej zna się język – na przykład gdy słucha się
chińskiego, a samemu mówi się językiem indoeuropejskim – tym jest to
trudniejsze. Zidentyfikowanie bardzo wielu odrębnych dźwięków okaże się
wielkim wyzwaniem, większym niż rozróżnienie subtelności podobnych do
różnic między p i b. Jednak starożytna cywilizacja sumeryjska w jakiś sposób
przezwyciężyła te wyzwania i stworzyła język pisany.
Kiedy wynalezione zostają nowe technologie, ich początkowe zastosowanie
jest często bardzo odmienne od funkcji, jaką ostatecznie pełnią
w społeczeństwie. Istotnie, ci, którzy pracują w dziedzinach opierających się
na innowacji i wynalazkach, powinni sobie uświadomić, że wynalazcy
nowych technologii – podobnie jak twórcy teorii naukowych, o czym
przekonamy się później – często tak naprawdę nie rozumieją znaczenia tego,
co sami wymyślili.
Jeśli pomyśli się o piśmie jako o technologii – jako o zapisywaniu
wypowiadanych słów w glinie (a później na innych podłożach, takich jak
papier) – porównanie jego ewolucji do rozwoju technologii zapisu dźwięku
wydaje się naturalne. Kiedy Thomas Edison wynalazł tę technikę, nie miał
pojęcia, że ludzie w końcu wykorzystają ją do nagrywania muzyki78. Sądził,
że będzie ona miała niewielką wartość komercyjną, może poza utrwalaniem
tego, co ludzie mówią na łożu śmierci, albo jako biurowy dyktafon. Podobnie
początkowa rola pisma była bardzo odmienna od tej, jaką w końcu zaczęło
odgrywać w społeczeństwie. Na początku pismo wykorzystywano po prostu
do prowadzenia zapisków i sporządzania list, które to zastosowania mają
mniej treści literackiej niż arkusz Excela.

***

Najwcześniejsze pisemne inskrypcje, jakie znamy, zostały uwiecznione na


glinianych tabliczkach znalezionych w kompleksie świątynnym w Uruk.
Wyliczają one takie przedmioty jak worki ziarna i głowy bydła. Inne tabliczki
opisują szczegółowo podział pracy. Na przykład wiemy dzięki nim, że
społeczność religijna w jednej świątyni zatrudniała osiemnastu piekarzy,
trzydziestu jeden warzelników, siedmiu niewolników i kowala79.
Z częściowych przekładów dowiadujemy się również, że pracownicy
dostawali stałe racje takie jak jęczmień, olej i tkaninę i że jeden z zawodów
tytułowano „przywódcą miasta”, a inny „wielkim bydła”. Choć można sobie
wyobrazić wiele powodów, by pisać, to 85 procent zapisanych tabliczek,
które wykopano, dotyczy rachunkowości. Większość pozostałych 15 procent
to tabliczki mające na celu kształcenie przyszłych księgowych80. Istotnie,
było wiele do nauczenia się, ponieważ księgowość była skomplikowana.
Na przykład ludzi, zwierzęta i suszone ryby liczono za pomocą jednego
systemu liczb, a produkty zbożowe, ser i świeże ryby – używając innego81.
Początkowo pismo ograniczało się do tych czysto utylitarnych
przedsięwzięć. Nie było lekkich powieści ani spisanych teorii Wszechświata,
tylko biurokratyczne dokumenty księgowe takie jak rachunki, listy towarów
i znaki osobiste, czyli „sygnatury” przypisane do rzeczy. Wygląda to
przyziemnie, ale miało dogłębne implikacje: bez pisma nie byłoby cywilizacji
miejskiej, ponieważ ludziom brakowałoby zdolności do tworzenia
i utrzymywania skomplikowanych stosunków symbiotycznych, które
definiują charakter życia miejskiego.
W mieście nieustannie dajemy coś innym i coś od innych dostajemy –
kupujemy i sprzedajemy, regulujemy rachunki, wysyłamy i odbieramy,
pożyczamy i oddajemy pożyczkę, płacimy za pracę i dostajemy płacę oraz
składamy i egzekwujemy przyrzeczenia. Gdyby nie było języka pisanego,
wszystkie te wzajemne działania pogrążyłyby się w chaosie i popadły
w konflikt. Wyobraźmy sobie tylko tydzień z naszego życia, w którym żadne
wydarzenie, żadna transakcja – nawet wyniki pracy albo godziny robocze –
nie mogłyby zostać w żaden sposób zapisane. Przypuszczam, że nawet mecz
zawodowej koszykówki nie obyłby się bez sporu, w którym kibice obu stron
twierdziliby, że to ich drużyna zwyciężyła.
Najwcześniejsze systemy pisma były równie prymitywne jak ich cel.
Stosowały zwykłe kreski przedstawiające liczbę przedmiotów, czy to
owoców, zwierząt, czy ludzi. W końcu, aby łatwiej odróżnić, które znaczki
dotyczą owiec, a które ich właścicieli, naturalną rzeczą było wprowadzenie
pewnej złożoności przez rysowanie małych piktogramów obok numerów,
a więc pismo zaczęło wykorzystywać obrazki w roli słów. Badacze
zidentyfikowali znaczenie ponad tysiąca takich wczesnych piktogramów.
Na przykład zarysu głowy krowy używano w znaczeniu „krowa”, trzy
półokręgi ułożone w trójkąt oznaczały „góry”, a trójkąt ze znakiem sromu –
„kobieta”. Istniały również znaki złożone, takie jak oznaczenie niewolnicy –
dosłownie kobiety „znad gór” – złożony ze znaku „kobieta” dodanego do
znaku „góry”82. W końcu piktogramy stosowano również do wyrażania
czasowników i tworzenia zdań. Te na oznaczenie ręki i ust umieszczano więc
obok znaku symbolizującego „brodę”, tworząc piktogram „jeść”83.
Pierwsi skrybowie wydrapywali swoje piktogramy na płaskich tabliczkach
glinianych za pomocą pałeczek. Później symbole wyciskano na glinie za
pomocą trzcinowych rylców, które pozostawiały znaki w kształcie klinów.
Tego rodzaju piktogram nazywany jest pismem klinowym właśnie od tych
zagłębień w kształcie klinów. Tysiące takich glinianych tabliczek wykopano
z ruin Uruk; były to proste listy rzeczy i liczby, pozbawione gramatyki.
Wadą pisma opartego na piktogramach jest to, że z uwagi na ich wielką
liczbę jest ono niezmiernie trudne do przyswojenia. Sama ta złożoność
wymagała powstania nielicznej klasy piśmiennej, należącej do klasy
myślicieli, o których pisałem wcześniej. Ci pierwsi zawodowi uczeni stali się
uprzywilejowaną kastą, która cieszyła się wysokim statusem, wspieranym
przez świątynię albo pałac. Wydaje się, że w Egipcie byli nawet zwolnieni
z podatków.
Pozostałości archeologiczne wskazują, że około 2500 lat p.n.e.
zapotrzebowanie na skrybów doprowadziło do kolejnej wielkiej innowacji:
powstania pierwszych na świecie szkół nazywanych w Mezopotamii
„domami tabliczek”84. Na początku były one związane ze świątyniami, ale
później lokowano je w prywatnych budynkach. Nazwa pochodzi od tabliczek
glinianych, które były chlebem powszednim szkoły – każda z klas
najprawdopodobniej miała półki, na których kładziono tabliczki
do wyschnięcia, piec do ich wypalania i skrzynie, w których je
przechowywano. Ponieważ systemy pisma były wciąż bardzo złożone,
aspirujący skrybowie musieli uczyć się przez wiele lat, żeby zapamiętać
i nauczyć się odtwarzać tysiące zawiłych znaków klinowych. Łatwo nie
docenić znaczenia tego kroku w postępie intelektualnym ludzkości, ale idea,
że społeczeństwo powinno stworzyć zawód poświęcony przekazywaniu
wiedzy i że uczniowie muszą spędzić lata na jej przyswajaniu, była czymś
całkiem nowym – objawieniem dla naszego gatunku.
Z biegiem czasu Sumerowie uprościli swoje pismo, używając go również
do przekazywania bardziej złożonych myśli i idei. Zrozumieli, że mogą
czasami przedstawić świat, który trudno jest reprezentować, przez
dostosowanie symbolu oznaczającego słowo, które brzmi tak samo, ale jest
łatwe do reprezentowania za pomocą znaku klinowego. Na przykład
piktogram na oznaczenie angielskiego słowa „to” mógłby zostać utworzony
z piktogramu dla słowa „two” zmodyfikowanego przy użyciu
niewymawianego znaku nazywanego określnikiem, wskazującego na zmianę
znaczenia. Gdy wynaleźli tę metodę, Sumerowie zaczęli tworzyć symbole
denotujące końcówki gramatyczne, na przykład przez użycie
zmodyfikowanego słowa „unikać” na oznaczenie sufiksu -cja. Odkryli, że
mogą wykorzystać podobną sztuczkę do zapisywania dłuższych słów przy
użyciu krótszych, jak po angielsku można by zapisać słowo „today” za
pomocą symboli dla słów „two” i „day”. Około 2900 lat p.n.e. te innowacje
umożliwiły zredukowanie liczby odrębnych piktogramów w piśmie
sumeryjskim z dwóch tysięcy do około pięciuset.
Gdy pismo stało się narzędziem bardziej elastycznym, łatwiejszym
w użytku i pozwalającym na bardziej skomplikowaną komunikację, domy
tabliczek mogły poszerzyć zakres swoich działań, obejmując kształcenie
w zakresie pisania i arytmetyki, a w końcu wyspecjalizowanego słownictwa
w rodzących się badaniach z zakresu astronomii, geologii, mineralogii,
biologii i medycyny – na początku nie uczono tam zasad rządzących tymi
naukami, tylko listy słów i ich znaczeń85. Szkoły te przekazywały również
swego rodzaju praktyczną filozofię, „mądrości”, które były zaleceniami
dotyczącymi pomyślnego życia zebranymi od starszych miasta. Były one
zdecydowanie dosadne i pragmatyczne, takie jak: „Nie poślubiaj prostytutki”.
Może to jeszcze nie Arystoteles, ale już krok ponad liczenie ziarna i kóz –
takie były początki poszukiwań i instytucji, które miały później doprowadzić
do powstania świata filozofii i początków nauki.
Około 2000 roku p.n.e. pisemna kultura Mezopotamii przeszła ponowną
ewolucję, tym razem tworząc korpus literatury, która dawała wyraz
emocjonalnym komponentom kondycji ludzkiej86. Kamienna tablica z tej
epoki, którą znaleziono na stanowisku archeologicznym oddalonym mniej
więcej tysiąc kilometrów na południe od dzisiejszego Bagdadu, zapisana jest
najstarszym wierszem miłosnym, jaki kiedykolwiek znaleziono. Kapłanka
wyznająca swoją miłość do króla wypowiada słowa opisujące uczucia, które
są równie świeże i zrozumiałe dziś, jak były cztery tysiąclecia temu:

Małżonku, sercu memu drogi,


Cudne jest twoje piękno, jak miód słodkie.
Posiadłeś mnie, pozwól mi stać przed tobą, drżącej,
Małżonku, chcę, byś mnie wprowadził do sypialni;
Małżonku, pozwól mi cię pieścić,
Małżonku, upodobałeś mnie sobie,
Powiedz mej matce – da ci smakołyki, mojemu ojcu – da ci
hojne dary.

W jakiś czas po powstaniu tych wersów pojawiła się kolejna innowacja:


pomysł przedstawiania głosek, które składają się na słowo, a nie rzeczy, które
słowo reprezentuje. Zmieniło to radykalnie naturę pisma, ponieważ symbole
zastępowały teraz raczej sylaby, a nie idee. Było to logiczne następstwo starej
sumeryjskiej sztuczki polegającej na przykład na używaniu słowa „unikać”
zamiast sylaby -cja. Nie wiemy, jak i kiedy dokładnie ten postęp nastąpił, ale
można przypuszczać, że rozwój bardziej ekonomicznego sposobu pisania był
związany z rozkwitem kosmopolitycznego handlu, ponieważ pisemna
korespondencja handlowa i zapiski handlowe w piktogramach musiały być
niewygodne. Tak więc około 1200 roku p.n.e. pojawiło się pismo fenickie –
pierwszy alfabet w historii ludzkości87. To, co wcześniej wymagało
nauczenia się na pamięć setek skomplikowanych symboli, można było teraz
osiągnąć przy wykorzystaniu zaledwie kilkudziesięciu podstawowych
znaków w różnych kombinacjach. Alfabet fenicki miał w końcu zostać
zapożyczony i zaadaptowany do użycia w języku aramejskim, perskim,
hebrajskim i arabskim – a około 800 roku p.n.e. w języku greckim.
A z Grecji rozprzestrzenił się w końcu po całej Europie88.

***

Pierwsze miasta potrzebowały, poza czytaniem i pisaniem, pewnych


postępów w matematyce. Zawsze sądziłem, że matematyka ma specjalne
miejsce w ludzkim sercu. Oczywiście, możecie sobie pomyśleć, tak jak
cholesterol. To prawda, że matematyka ma swoich krytyków i miała ich
przez całą historię. Już w 415 roku n.e. święty Augustyn pisał: „Zachodzi
niebezpieczeństwo […] że matematycy zawarli pakt z diabłem, by zaciemnić
ducha i zamknąć człowieka w granicach piekła”89. Jego wściekłość
wzbudzali prawdopodobnie astrolodzy i numerolodzy – główni użytkownicy
mrocznej sztuki matematycznej w jego czasach. Wydaje mi się, że moje
własne dzieci mówiły podobne rzeczy, nawet jeśli z mniejszą elokwencją,
przy wielu różnych okazjach. Jednak niezależnie od tego, czy się je kocha,
czy nie, matematyka i logiczne myślenie stanowią ważną część ludzkiej
psyche.
Z biegiem stuleci matematyka podzieliła się na wiele różnych dziedzin,
ponieważ tak jak cała nauka, matematyka w dzisiejszym rozumieniu jest
w mniejszym stopniu konkretnym przedsięwzięciem niż podejściem do
wiedzy – metodą rozumowania, w której starannie formułuje się pojęcia
i założenia i wyciąga wnioski przy zastosowaniu rygorystycznej logiki. To
zaś, co zazwyczaj nazywa się „początkami matematyki”, nie jest matematyką
w tym sensie, tak jak sumeryjskie zapiski nie są pisaniem w takim sensie,
w jakim jest nim twórczość Szekspira.
Początki matematyki przypominają to, nad czym moje dzieci i inni
uczniowie ślęczą w szkole podstawowej: zbiór reguł, które można
zastosować, mniej lub bardziej bezmyślnie, do rozwiązywania konkretnego
rodzaju problemów. W pierwszych miastach Mezopotamii problemy te
dotyczyły w przeważającej mierze śledzenia pieniędzy, materiałów i pracy,
arytmetyki wag i miar oraz obliczania procentów prostych i składanych –
tego samego rodzaju przyziemnych spraw, które doprowadziły do powstania
pisma, i mających równie zasadnicze znaczenie dla funkcjonowania
społeczeństwa miejskiego90.
Arytmetyka jest prawdopodobnie najbardziej podstawową gałęzią
matematyki. Nawet ludy prymitywne stosują jakiś system liczenia, choć
mogą nie wychodzić z nim poza pięć palców u ręki. Wydaje się, że również
niemowlęta rodzą się ze zdolnością do określania liczby obiektów w zbiorze,
choć tylko do liczb nie większych niż cztery91. Jednak aby wyjść poza proste
liczenie, które jest zbiorem narzędzi poznawanych niedługo po opuszczeniu
łona matki, musimy opanować dodawanie, odejmowanie, mnożenie
i dzielenie – umiejętności, które rozwijamy stopniowo w okresie
niemowlęcym i wczesnym dzieciństwie.
Pierwsze cywilizacje miejskie wprowadziły formalne i często wymyślne
reguły i metody obliczeń arytmetycznych, a także wynalazły metody
rozwiązywania równań z niewiadomymi, czyli to, co robimy dziś za pomocą
algebry. W porównaniu ze współczesną algebrą ich obliczenia były
w najlepszym razie rudymentarne, jednak stworzyły one recepty, jeśli wolicie
– prawdopodobnie setki recept – na przeprowadzanie skomplikowanych
obliczeń, które obejmowały rozwiązywanie równań kwadratowych
i sześciennych. I wykroczyły poza proste zastosowania handlowe, używając
swoich technik w dziedzinie inżynierii. Na przykład przed wykopaniem
kanału inżynier w Babilonie, regionie w południowej Mezopotamii, obliczał
ilość potrzebnej pracy, szacując objętość piasku, jaką trzeba było usunąć,
i dzieląc ją na ilość piasku, z jaką jeden kopacz mógł sobie poradzić w ciągu
dnia. A przed wzniesieniem budynku babiloński inżynier przeprowadzał
analogiczne obliczenia, by wyznaczyć zakres prac i liczbę cegieł, jakie będą
potrzebne.
Pomimo tych osiągnięć mezopotamska matematyka nie wystarczała pod
ważnym praktycznym względem. Praktyka matematyki jest sztuką, a medium
tej sztuki stanowi język symboliczny. W przeciwieństwie do języka
potocznego symbole i równania matematyczne wyrażają nie tylko idee, lecz
także relacje między ideami. Jeśli więc istnieje niedoceniony bohater
matematyki, to jest nim notacja matematyczna. Dobra notacja sprawia, że
relacje stają się precyzyjne i widoczne, i ułatwia ludzkiemu umysłowi
myślenie o nich; za sprawą złej zaś analiza logiczna jest nieefektywna
i nieporęczna. Matematyka babilońska zaliczała się do tej drugiej kategorii:
wszystkie jej przepisy i obliczenia były formułowane w języku potocznym
tamtych czasów.
Na przykład jedna z babilońskich tabliczek zawiera następujące obliczenia:
„4 to długość, a 5 to przekątna. Jaka jest szerokość? Jej wielkość nie jest
znana. 4 razy 4 to 16. 5 razy 5 to 25. Odejmujesz 16 od 25 i zostaje 9. Co
powinienem wziąć ile razy, żeby dostać 9? 3 razy 3 to 9. 3 to szerokość”.
We współczesnej notacji wszystko zapisalibyśmy w tej postaci: x2 + 42 = 52;
x = √(52 – 42) = √(25 – 16) = √9 = 3. Wielką wadą twierdzeń
matematycznych takich jak pochodzące z tabliczki jest nie tylko brak
zwięzłości, ale fakt, że nie możemy użyć reguł algebry do przeprowadzenia
operacji na równaniach zapisanych prozą.

Ruiny starożytnego Babilonu widziane (Zdjęcie U.S. Navy autorstwa Mate First
Class Arlo K. Abrahamson. Opublikowane przez United States Navy pod
numerem ID 030529-N-5362A-001)

Innowacja w zakresie notacji pojawiła się dopiero w klasycznej epoce


matematyki indyjskiej, począwszy mniej więcej od 500 roku p.n.e. Trudno
przecenić doniosłość tego, co osiągnęli indyjscy matematycy. Zastosowali
dziesiętny system liczbowy i wprowadzili zero jako liczbę, która miała tę
własność, że pomnożenie jakiejkolwiek liczby przez zero daje zero,
natomiast dodanie zera do jakiejkolwiek liczby pozostawia tę liczbę
niezmienioną. Wynaleźli liczby ujemne – do przedstawiania długów, choć,
jak zauważył jeden z matematyków, „ludzie ich nie zaaprobowali”. A co
ważniejsze, zastosowali symbole na oznaczenie niewiadomych. Jednak
pierwsze skróty arytmetyczne – p na oznaczenie „plus” i m na oznaczenie
„minus” – pojawiły się w Europie dopiero w XV wieku, a znak równości
został wynaleziony w 1557 roku, kiedy Robert Recorde z Oksfordu
i Cambridge wybrał symbol, którego nadal dziś używamy, ponieważ miał
poczucie, że nie może być dwóch bardziej podobnych rzeczy niż równoległe
linie (i ponieważ równoległych linii używano już jako ozdobników
typograficznych, tak że drukarze nie musieli odlewać nowych czcionek)92.
Skoncentrowałem się na liczbach, ale myśliciele z pierwszych miast na
świecie poczynili również wielkie postępy w matematyce kształtów – nie
tylko w Mezopotamii, lecz także w Egipcie. Tam życie koncentrowało się
wokół Nilu, który zalewał swoją dolinę na cztery miesiące każdego roku,
pokrywając ziemię żyznym mułem, siejąc jednak przy tym spustoszenie
w wytyczonych granicach gruntów. Każdego roku po wylewie rzeki
urzędnicy musieli określić na nowo granice posiadłości rolników oraz ich
powierzchnię, na podstawie której obliczano podatki93. Ponieważ w grę
wchodziła wysoka stawka, Egipcjanie stworzyli niezawodne, choć nieco
skomplikowane sposoby obliczania powierzchni kwadratów,
równoległoboków, trapezów i kół – jako objętości sześcianów,
równoległościanów, cylindrów i innych figur i brył mających związek ze
spichrzami. Termin „geometria” pochodzi od tych pomiarów ziemi – po
grecku słowo to oznacza „mierzenie ziemi”.
Praktyczna geometria była w Egipcie tak zaawansowana, że w XIII wieku
p.n.e. egipscy inżynierowie byli w stanie wypoziomować piętnastometrowe
belki w piramidach z dokładnością do piętnastu centymetrów94. Jednak
podobnie jak arytmetyka i rudymentarna algebra Babilończyków, geometria
starożytnych Egipcjan ma niewiele wspólnego z tym, co dziś nazywamy
matematyką. Została ona stworzona do praktycznego użytku, a nie do
zaspokajania dążeń do głębszych prawd o świecie. Zanim więc geometria
mogła osiągnąć poziom, którego później wymagał rozwój nauk fizycznych,
należało podnieść jej rangę – z przedsięwzięcia praktycznego do narzędzia
rozważań teoretycznych. Dokonali tego w IV i V wieku p.n.e. Grecy, przede
wszystkim Euklides.
Rozwój arytmetyki, udoskonalenie algebry i geometria miały umożliwić po
upływie stuleci rozwój teoretycznych praw nauki, ale kiedy próbujemy
przedstawić ten łańcuch odkryć, brakuje jednego kroku, który może nie być
oczywisty dla współcześnie żyjących: zanim ktokolwiek mógł snuć
teoretyczne rozważania o konkretnych prawach przyrody, należało wymyślić
samo pojęcie prawa.

***

Wielkie postępy techniki, które mają ogromne konsekwencje, łatwo jest


postrzegać jako rewolucyjne, ale nowe sposoby myślenia, nowe sposoby
podejścia do wiedzy mogą w mniejszym stopniu rzucać się w oczy. Jednym
ze sposobów myślenia, których początki rzadko rozważamy, jest idea
rozumienia przyrody w kategoriach praw.
Dziś traktujemy pojęcie prawa naukowego jako zrozumiałe samo przez się,
ale jak wiele innych wielkich innowacji stało się ono oczywiste dopiero od
jego powstania. Patrzeć na działania przyrody i domyślić się, jak zrobił to
Newton, że dla każdego działania istnieje równe i przeciwnie skierowane
przeciwdziałanie – myśleć nie w kategoriach poszczególnych przypadków,
lecz w kategoriach abstrakcyjnych wzorów zachowania – było ogromnym
postępem w rozwoju ludzkości. Jest to sposób myślenia, który ewoluował
powoli, z biegiem czasu i miał swoje korzenie nie w nauce, lecz
w społeczeństwie.
Termin „prawo” ma dziś wiele różnych znaczeń. Prawa naukowe pozwalają
na sformułowanie opisów, jak zachowują się obiekty fizyczne, ale nie oferują
żadnego wyjaśnienia, dlaczego stosują się one do tych praw. Nie ma żadnych
bodźców do posłuszeństwa względem nich ani kar za ich naruszenie
w odniesieniu do kamieni albo planet. W sferze społecznej i religijnej,
przeciwnie, prawa opisują nie to, jak ludzie rzeczywiście się zachowują, tylko
jak powinni się zachowywać, i dostarczają racji do ich przestrzegania – aby
być dobrymi ludźmi albo uniknąć kary. Terminu „prawo” używa się w obu
znaczeniach, ale dziś te dwa pojęcia mają ze sobą niewiele wspólnego.
Jednak gdy ta idea pojawiła się po raz pierwszy, nie przeprowadzano
rozróżnienia między prawami w sferze ludzkiej i nieożywionej. Wierzono, że
obiekty nieożywione podlegają prawom w taki sam sposób, w jaki ludzie są
rządzeni przez kodeksy religijne i etyczne.
Idea prawa wywodzi się z religii95. Kiedy ludzie w Mezopotamii rozglądali
się wokół siebie, widzieli świat na skraju chaosu, chroniony przed nim
jedynie przez bogów, którzy woleli porządek – choć raczej minimalny
i arbitralnego rodzaju96. Były to bóstwa podobne do ludzi, które działały, tak
jak my to robimy, kierując się emocjami i zachciankami, i nieustannie
wtrącały się w życie śmiertelników. Istnieli bogowie od wszystkiego –
dosłownie tysiące – w tym bóg warzenia piwa, bogowie rolników, skrybów,
kupców i rzemieślników. Istniał bóg piór drobiu. Istnieli bogowie-demony –
jeden wywoływał epidemie, inna bogini nazywana była Unicestwiającą
i zabijała małe dzieci. A każde miasto-państwo miało nie tylko własnego
boga głównego, ale też cały dwór podporządkowanych bogów, którzy
odgrywali role strażników bram, ogrodników, ambasadorów i fryzjerów.
Kult wszystkich tych bogów obejmował akceptację formalnego kodeksu
etycznego. Trudno wyobrazić sobie życie bez ochrony ze strony systemu
prawnego, ale przed powstaniem miast wiodący nomadyczny żywot ludzie
nie mieli sformalizowanych kodeksów praw. Z pewnością wiedzieli, jakie
zachowania będą mile widziane albo potępione przez innych, ale reguły
postępowania nie były ujmowane abstrakcyjnie w takie nakazy jak: „Nie
zabijaj!”. Zachowaniem kierował nie zbiór ogólnych statutów, lecz wzgląd
w każdym konkretnym wypadku na to, co będą myśleć inni, i obawa przed
odpłatą ze strony potężniejszych od siebie.
Jednak bogowie miejskiej Mezopotamii stawiali konkretne wymagania
etyczne, żądając, by ich wierni przestrzegali formalnych reguł,
rozciągających się od: „Pomagaj innym” do „Nie wymiotuj do strumieni”.
Był to pierwszy przykład wyższej mocy przekazującej coś, co moglibyśmy
uznać za sformalizowane prawa97. A ich pogwałcenia nie traktowano lekko –
twierdzono, że sprowadzi ono na sprawcę chorobę albo śmierć, kary
nałożone przez demonicznych bogów noszących takie imiona jak
„Gorączka”, „Żółtaczka” i „Kaszel”.
Bogowie działali również przez ziemskich władców miasta, wywodzących
swój autorytet ze związków z nimi. W okresie pierwszego imperium
babilońskiego, w XVIII wieku p.n.e., powstała mniej lub bardziej
ujednolicona teologiczna teoria przyrody, w której transcendentny bóg
wykładał prawa obejmujące działania zarówno ludzi, jak i tego, co
nazwalibyśmy światem nieożywionym98. Ten zbiór ludzkich praw cywilnych
i karnych nazywany jest Kodeksem Hammurabiego. Jego nazwa pochodzi od
imienia króla panującego w Babilonie, któremu wielki bóg Marduk polecił
„sprawiedliwość w kraju zaprowadzić, aby złych i nikczemnych wytracić”.
Kodeks Hammurabiego został spisany mniej więcej rok przed śmiercią
władcy, w 1750 roku p.n.e. Nie był to zbyt dobry wzór dla praw
demokratycznych: wyższe klasy i członków rodziny królewskiej traktował
łagodnie i udzielał im większych przywilejów, natomiast niewolników można
było kupować i sprzedawać albo zabijać. Jednak kodeks ten rzeczywiście
zawiera reguły sprawiedliwości, wywodzącą się z Tory surową zasadę „oko
za oko”, która miała się pojawić jakieś tysiąc lat później. Nakazywał na
przykład, żeby każdy, kogo przyłapano na kradzieży, został skazany na
śmierć; każdy, kto ukradł coś, gdy pomagał gasić ogień, powinien zostać
wrzucony w ogień; każda „siostra boga” (służebnica świątynna), która
otworzyła karczmę, powinna zostać pogrzebana żywcem; każdy, kto
spowodował powódź, ponieważ był „za leniwy”, żeby utrzymać swoją tamę
w należytym stanie, musiał oddać każdy kłos, który został zniszczony;
a każdy, kto przysięgał na Boga, że został obrabowany, gdy powierzono mu
pieniądze kogoś innego, nie musiał ich oddawać99.
Prawa Kodeksu Hammurabiego zostały wyryte w bloku czarnego bazaltu
wysokim na dwa i pół metra, który najwyraźniej miał zostać wystawiony na
widok publiczny i do którego miano się odwoływać. Blok został odkryty
w 1901 roku i jest obecnie wystawiony w Luwrze. Nie było to, tak jak
piramidy, wielkie fizyczne osiągnięcie, ale raczej monumentalne osiągnięcie
intelektualne, próba położenia zrębów porządku i racjonalności obejmujących
wszystkie stosunki społeczne społeczeństwa babilońskiego – handlowe,
pieniężne, wojskowe, małżeńskie, medyczne, etyczne i tak dalej – do dziś jest
to najwcześniejszy znany przykład władcy ustanawiającego cały korpus praw
dla swojego ludu.
Jak powiedziałem, wierzono, że bóg Marduk panował nie tylko nad ludem,
lecz także nad procesami fizycznymi – narzucał prawa gwiazdom tak samo
jak ludziom. Analogicznie do Kodeksu Hammurabiego twierdzono, że
Marduk stworzył swego rodzaju kodeks, którego miała przestrzegać
przyroda. Prawa owe, rządzące tym, co nazwalibyśmy światem
nieożywionym, stanowiły pierwsze prawa naukowe w tym sensie, że
opisywały działania zjawisk naturalnych100. Nie były jednak prawami
przyrody w nowoczesnym sensie, ponieważ dawały jedynie niejasną
wskazówkę co do tego, jak zachowuje się przyroda; raczej, podobnie jak
Kodeks Hammurabiego, były nakazami i dekretami, których Marduk kazał
przyrodzie przestrzegać.
Idea, że przyroda „jest posłuszna” prawom w takim samym sensie jak
ludzie, miała przetrwać tysiąclecia. Na przykład Anaksymander, jeden
z największych filozofów przyrody starożytnej Grecji, twierdził, że wszystkie
rzeczy powstają z pierwotnej substancji i do niej wracają „zgodnie
z koniecznością: płacą bowiem sobie nawzajem karę i pokutę za
niesprawiedliwość, zgodnie z postanowieniem Czasu”101. Podobnie Heraklit
stwierdził, że „Słońce nie przekroczy swych granic. A jeśli to uczyni, odnajdą
je erynie, służebnice Dike (Sprawiedliwości)”102. W istocie termin
„astronomia” ma swoje źródło w greckim słowie nomos, co oznacza „prawo”
w sensie prawa ludzkiego. Dopiero za czasów Keplera, na początku XVII
wieku, terminu „prawo” zaczęto używać we współczesnym sensie, na
oznaczenie opartego na obserwacji uogólnienia, które opisuje zachowanie
pewnych zjawisk naturalnych, ale nie dąży do przypisania im celu albo
motywu. Jednak nie było to gwałtowne przejście, choć bowiem Kepler pisał
niekiedy o prawach matematycznych, to w równej mierze wierzył, że Bóg
nakazał Wszechświatowi stosowanie się do zasady „geometrycznego
piękna”, i wyjaśniał, że ruchy planet prawdopodobnie powodowane są tym,
iż „umysł” planety postrzega swój kąt i oblicza orbitę103.

***

Historyk Edgar Zilsel, który badał dzieje idei prawa naukowego, napisał, że
„wydaje się, iż człowiek jest skłonny interpretować przyrodę […] na wzór
społeczeństwa”104. Innymi słowy, można odnieść wrażenie, że ludzkie próby
sformułowania praw przyrody wyrastają z naturalnej skłonności do
rozumienia naszej osobistej egzystencji i doświadczeń, a kultura, w której
zostaliśmy wychowani, wpływa na nasze podejście do nauki.
Zilsel dostrzegł, że wszyscy tworzymy mentalne opowieści, żeby opisać
swe życie, że konstruujemy je z tego, czego nas nauczono i czego
doświadczamy, formując wizję tego, kim jesteśmy i jakie jest nasze miejsce
we Wszechświecie. Budujemy więc zbiór praw opisujących nasz osobisty
świat i sens życia. Na przykład prawa, które, jak przed wojną sądził mój
ojciec, rządziły jego życiem, sprawiły, że oczekiwał przyzwoitości od
swojego społeczeństwa, sprawiedliwości od odpowiednich sądów, pewności
zakupu jedzenia na targu – i ochrony od Boga. Taki był jego pogląd na świat
i jego ważności był on równie pewien jak naukowiec, który widzi, że jego
teoria przechodzi pomyślnie każdy sprawdzian.
Jednak choć gwiazdy i planety przyciągają się niezawodnie od miliardów
lat, w świecie ludzkim prawa mogą zostać obalone w ciągu zaledwie kilku
godzin. To właśnie przytrafiło się mojemu ojcu i niezliczonym innym
ludziom we wrześniu 1939 roku. W poprzednich miesiącach ojciec ukończył
kurs krawiecki w Warszawie, kupił dwie nowe niemieckie maszyny do szycia
i wynajął niewielki pokój w sąsiednim mieszkaniu, gdzie otworzył zakład
krawiecki. Wówczas Niemcy najechali Polskę, a 3 września wkroczyli do
jego rodzinnego miasta Częstochowy. Rząd okupacyjny niebawem wydał
serię antysemickich dekretów, które doprowadziły do skonfiskowania
wszystkiego, co miało jakąkolwiek wartość – biżuterii, samochodów,
odbiorników radiowych, mebli, pieniędzy, mieszkań, nawet zabawek dla
dzieci. Żydowskie szkoły zostały zamknięte i zakazane. Dorosłych zmuszono
do noszenia symboli gwiazdy Dawida. Ludzi wyłapywano przypadkowo na
ulicy i zmuszano do wykonywania pracy przymusowej. Do innych strzelano
i zabijano ich wedle widzimisię szaleńca.
To, co zniszczyło fizyczną strukturę świata mojego ojca, w nieodwracalny
sposób zmieniło również umysłowe i emocjonalne rusztowanie, które go
otaczało. I, niestety, Holokaust to historia, która była wiele razy powielana na
różną skalę zarówno wcześniej, jak i później. Jeśli więc nasze ludzkie
doświadczenie wywiera wpływ na to, jak pojmujemy prawa naukowe, nie
jest zaskakujące, że przez większość swojej historii ludzkość miała trudności
z wyobrażeniem sobie, iż świat może być rządzony przez eleganckie,
absolutne regularności, odporne na czyjekolwiek zachcianki, pozbawione
celu i niepodlegające boskiej interwencji.
Nawet dziś, długo po tym, jak Newton stworzył swój monumentalny,
doskonały zbiór praw, wielu ludzi nadal nie wierzy, że takie prawa znajdują
uniwersalne zastosowanie. Jednak stulecia postępu nagrodziły naukowców,
którzy dostrzegli, że prawa fizyki i prawa ludzkie realizują zupełnie
odmienne wzorce.
Dziewięć lat przed śmiercią (zmarł w wieku siedemdziesięciu sześciu lat)
Albert Einstein opisał trwające przez całe jego życie dążenie do zrozumienia
praw Wszechświata w taki sposób: „Przede mną był ten ogromny świat,
który istnieje niezależnie od nas, ludzi, i stoi przed nami niczym olbrzymia,
wieczna zagadka – przynajmniej częściowo dostępny naszym zmysłom
i dociekaniom. Kontemplacja wszechświata kusiła perspektywą wyzwolenia
[…]. Droga do tego raju […] okazała się godna zaufania i nigdy nie
żałowałem tego wyboru”105. Myślę, że w pewien sposób mój ojciec pod
koniec życia znalazł podobne odczucie „wyzwolenia” w tej myśli.
Dla naszego gatunku Uruk było początkiem długiej drogi prowadzącej do
rozwiązania odwiecznej zagadki. Młode cywilizacje Bliskiego Wschodu
położyły podwaliny życia intelektualnego – a następnie dzięki nim dały nam
klasę myślicieli, którzy stworzyli matematykę, pismo i pojęcie prawa.
Następny krok w rozkwicie i dojrzewaniu ludzkiego umysłu postawiono
w Grecji oddalonej od Uruk o ponad półtora tysiąca kilometrów. Wielki
grecki cud zrodził ideę dowodu matematycznego, dyscypliny nauk i filozofię
oraz pojęcie tego, co nazywamy dziś „rozumem” – jakieś dwa tysiące lat
przed Newtonem.

61 Robert Burton, The Anatomy of Melancholy (1621); George Herbert, Jacula


Prudentum (1651); William Hicks, Revelation Revealed (1659); Shnayer Z. Leiman,
Dwarfs on the Shoulders of Giants, „Tradition”, wiosna 1993. Zwrot ten pojawia się
w istocie już w XII wieku.

62 Marc Van de Mieroop, Historia starożytnego Bliskiego Wschodu: ok. 3000–323


p.n.e., przeł. M. Komorowska, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2008.

63 Ibidem.

64 Niektórzy badacze szacują liczbę jego mieszkańców nawet na 200 tysięcy osób. Zob.
np. James E. McClellan III, Harold Dorn, Science and Technology in World History, wyd.
2, Johns Hopkins University Press, Baltimore 2006, s. 33.

65 Marc Van de Mieroop, Historia starożytnego Bliskiego Wschodu..., op. cit.

66 James E. McClellan III, Harold Dorn, Science and Technology in World History, op.
cit., s. 41–42.

67 David W. Anthony, The Horse, the Wheel, and Language: How Bronze-Age Riders
from the Eurasian Steppes Shaped the Modern World, Princeton University Press,
Princeton 2010, s. 61.

68 Marc Van de Mieroop, Historia starożytnego Bliskiego Wschodu..., op. cit.

69 Ibidem.

70 Ibidem.

71 Angielski skrót na oznaczenie „wRiting, Reading, aRithmetic”, czyli czytania, pisania


i arytmetyki (przyp. tłum.).

72 Elizabeth Hess, Nim Chimpsky, Bantam Books, Nowy Jork 2008, s. 240–241.

73 Susana Duncan, Nim Chimpsky and How He Grew, „New York Times”, 3 grudnia
1979 r., s. 84. Zob. też Elizabeth Hess, Nim Chimpsky, op. cit., s. 22.

74 T.K. Derry, Trevor I. Williams, A Short History of Technology, Oxford University


Press, Oksford 1961, s. 214–215.

75 Steven Pinker, The Language Instinct: How the Mind Creates Language, Harper
Perennial, Nowy Jork 1995, s. 26.

76 Georges Jean, Writing: The Story of Alphabets and Scripts, Henry N. Abrams, Nowy
Jork 1992, s. 69.

77 Jared Diamond, Strzelby, zarazki, maszyny. Losy ludzkich społeczeństw, przeł. M.


Konarzewski, Prószyński i S-ka, Warszawa 2008, s. 20, 190. Odnośnie do Nowego Świata
zob. María del Carmen Rodríguez Martinez et al., Oldest Writing in the New World,
„Science”, nr 313 (15 września 2006 r.), s. 1610–1614; John Noble Wilford, Writing May
Be Oldest in Western Hemisphere, „New York Times”, 15 września 2006 r. Opisany został
tam blok z nieznanym dotychczas systemem pisma, ostatnio odkryty w olmeckim
interiorze Veracruz w Meksyku. Stylistyka i inne sposoby datowania bloku lokują go na
początku pierwszego tysiąclecia p.n.e., co czyni zeń najstarsze pismo w Nowym Świecie,
a pewne cechy zdecydowanie przypisują to szczytowe osiągnięcie cywilizacji Olmeków
z Mezoameryki.

78 Patrick Feaster, Speech Acoustics and the Keyboard Telephone: Rethinking Edison’s
Discovery of the Phonograph Principle, „ARSC Journal” 38, nr 1 (wiosna 2007), s. 10–43;
Jared Diamond, Strzelby, zarazki, maszyny, op. cit., s. 215.

79 Georges Jean, Writing: The Story of Alphabets, op. cit., s. 12–13.

80 Marc Van de Mieroop, Historia starożytnego Bliskiego Wschodu..., op. cit.

81 Ibidem; James E. McClellan III, Harold Dorn, Science and Technology in World
History, op. cit., s. 49.

82 Georges Jean, Writing: The Story of Alphabets, op. cit., s. 14.

83 T.K. Derry, Trevor I. Williams, A Short History of Technology, op. cit., s. 215.

84 Stephen Bertman, Handbook to Life in Ancient Mesopotamia, Facts on File, Nowy


Jork 2003, s. 148, 301.

85 James E. McClellan III, Harold Dorn, Science and Technology in World History, op.
cit., s. 47; Albertine Gaur, A History of Writing, Charles Scribner’s Sons, Nowy Jork 1984,
s. 150.

86 Sebnem Arsu, The Oldest Line in the World, „New York Times”, 14 lutego 2006 r.,
s. 1.

87 Andrew Robinson, The Story of Writing, Thames and Hudson, Londyn 1995, s. 162–
167.

88 T.K. Derry, Trevor I. Williams, A Short History of Technology, op. cit., s. 216.

89 św. Augustyn, De Genesi ad litteram (Komentarz słowny do Księgi Rodzaju).


Ukończony w 415 roku n.e.

90 Morris Kline, Mathematics in Western Culture, Oxford University Press, Oksford


1952, s. 11.

91 Ann Wakeley et al., Can Young Infants Add and Subtract?, „Child Development”, nr
71 (listopad–grudzień 2000), s. 1525–1534.

92 Morris Kline, Mathematical Thought from the Ancient to Modern Times, t. 1, Oxford
University Press, Oksford 1972, s. 184–186, 259–260.

93 Ibidem, s. 19–21.

94 Roger Newton, From Clockwork to Crapshoot, Belknap Press of the Harvard


University Press, Cambridge 2007, s. 6.

95 Edgar Zilsel, The Genesis of the Concept of Physical Law, „The Philosophical
Review” 3, nr 51 (maj 1942), s. 247.

96 Robert Wright, Ewolucja Boga, przeł. Z. Łomnicka, Prószyński i S-ka, Warszawa


2010, s. 83–96.

97 Joseph Needham, Human Laws and the Laws of Nature in China and the West, Part I,
„Journal of the History of Ideas”, nr 12 (styczeń 1951), s. 18.

98 Robert Wright, Ewolucja Boga, op. cit., s. 89–91.

99 Code of Hammurabi, c. 1780 BCE, Internet Ancient History Sourcebook, Fordham


University, marzec 1998, dostęp: 27 października 2014 r.,
http://www.fordham.edu/halsall/ancient/hamcode.asp; Code de Hammurabi, Département
des Antiquités orientales du Louvre: la Mésopotamie, dostęp: 27 października 2014 r.,
http://www.louvre.fr/en/oeuvre-notices/law-code-hammurabi-king-babylon; Mary Warner
Marien, William Fleming, Fleming’s Arts and Ideas, Thomson Wadsworth, Belmont 2005,
s. 8.

100 Joseph Needham, Human Laws and the Laws of Nature in China and the West, Part
I, op. cit., s. 3–30.
101 Edgar Zilsel, The Genesis of the Concept of Physical Law, op. cit., s. 249.

102 Ibidem.

103 Ibidem, s. 265–267.

104 Ibidem, s. 279.

105 Albert Einstein, Zapiski autobiograficzne, przeł. J. Bieroń, Znak, Kraków 1996,
s. 12.
5.

Rozum

W 334 roku p.n.e. Aleksander, dwudziestodwuletni król greckiego państwa


Macedonii, przeprowadził armię zahartowanych obywateli-wojowników
przez Hellespont na początku długiej kampanii zmierzającej do podbicia
ogromnego imperium perskiego. Tak się składa, że sam mam
dwudziestodwuletniego syna, którego imię – Alexei – wywodzi się z tego
samego greckiego źródła. Mówi się, że dzieci dorastają teraz szybciej niż
kiedykolwiek wcześniej, ale nie umiem sobie wyobrazić, iż mój Alexei
prowadzi armię zahartowanych greckich obywateli-wojowników do
Mezopotamii, żeby zmierzyć się z imperium perskim. Istnieje kilka
antycznych wyjaśnień, jak młody macedoński król osiągnął zwycięstwo;
większość wiązała to z piciem dużych ilości wina. Niezależnie, jak tego
dokonał, jego długi ciąg podbojów zaprowadził go aż na Przełęcz Chajberską
i jeszcze dalej. Gdy umierał w wieku trzydziestu trzech lat, osiągnął w swoim
krótkim życiu wystarczająco dużo, żeby od tego czasu nazywano go
Aleksandrem Wielkim.
W czasie najazdu Aleksandra na Bliskim Wschodzie było wiele miast
takich jak Uruk, istniejących od tysięcy lat. Aby zyskać odpowiednią
perspektywę, powiedzmy, że gdyby Stany Zjednoczone istniały tak długo jak
Uruk, mielibyśmy teraz mniej więcej sześćsetnego prezydenta.
Spacer po ulicach starożytnych miast podbitych przez Aleksandra musiał
budzić respekt, ponieważ błądziło się wśród potężnych pałaców, ogromnych
ogrodów nawadnianych specjalnymi kanałami i wielkich kamiennych
budowli ozdobionych kolumnami zakończonymi rzeźbami gryfów i byków.
Miasta te zamieszkiwały żywe i złożone społeczeństwa, dalekie od upadku.
Jednak ich kultury pod względem intelektualnym prześcignął świat
greckojęzyczny, który je podbił, a którego uosobieniem był jego młody
przywódca – człowiek, którego wykształcił sam Arystoteles.
Wraz z podbojem Mezopotamii przez Aleksandra poczucie, że wszystko,
co greckie, jest lepsze, szybko rozprzestrzeniło się po całym Bliskim
Wschodzie106. Dzieci, znajdujące się zawsze w awangardzie zmiany
kulturowej, uczyły się języka greckiego, wkuwały na pamięć grecką poezję
i zaczynały ćwiczyć zapasy. Sztuka grecka zyskiwała popularność w Persji.
Berossos, kapłan Babilonu, Sanchuniaton, Fenicjanin, i Józef Flawiusz, Żyd,
spisali dzieje swoich ludów mające pokazać ich zgodność z greckimi ideami.
Nawet podatki zostały zhellenizowane – zaczęto je zapisywać stosunkowo
nowym alfabetem greckim i raczej na papirusie niż na tabliczkach glinianych
pismem klinowym. Jednak najwspanialszy aspekt kultury greckiej, który
Aleksander przyniósł ze sobą, nie miał nic wspólnego ze sztukami ani
z administracją. Było nim to, czego nauczył się bezpośrednio od
Arystotelesa: nowe, racjonalne podejście do walki o poznanie naszego
świata, wspaniały punkt zwrotny w historii ludzkich idei. A sam Arystoteles
opierał się na ideach wypracowanych przez kilka pokoleń naukowców
i filozofów, którzy zaczęli kwestionować stare prawdy dotyczące
Wszechświata.

***

W początkach starożytnej Grecji greckie rozumienie przyrody nie różniło się


znacznie od tego, jak pojmowali ją mieszkańcy Mezopotamii. Niesprzyjającą
pogodę można było wyjaśnić, stwierdzając, że Zeus ma niestrawność, a jeśli
rolnicy zebrali słabe plony, uważano, że to dlatego, iż bogowie są
rozgniewani. Grecy mogli nie mieć mitu o stworzeniu, który głosił, że Ziemia
jest kroplą wykichaną przez boga kataru siennego, ale równie dobrze mogli
weń wierzyć, ponieważ przez tysiąclecia po wynalezieniu pisma korpus
zapisanych ludzkich słów zawierał oszałamiającą obfitość opowieści o tym,
jak powstał świat i jakie siły nim rządziły. Wszystkie łączyło to, że były to
opisy pełnego zamętu Wszechświata stworzonego z pewnego rodzaju
bezkształtnej pustki przez nieodgadnionego boga. Słowo „chaos” wywodzi
się od greckiego terminu oznaczającego nicość, która – jak głoszono – miała
poprzedzać stworzenie Wszechświata.
Jeśli przed stworzeniem świata wszystko było chaosem, to po jego
stworzeniu bogowie greckiej mitologii raczej nie wkładali wiele energii
w wysiłki mające na celu zaprowadzenie w nim porządku. Błyskawice,
burze, susze, powodzie, trzęsienia ziemi, wulkany, plagi robactwa, wypadki,
choroby – wszystko to i wiele innych nieregularnych zrządzeń przyrody
odciskało swoje piętno na ludzkim zdrowiu i życiu. Uważano, że egoistyczni,
zdradzieccy i kapryśni bogowie nieustannie zsyłają na ludzi nieszczęścia
z gniewu albo po prostu z nieuwagi, jak gdyby byli słoniami w składzie
porcelany, w którym to nam przypadł los porcelany. Taka jest prymitywna
teoria kosmosu, która przekazywana była ustnie z pokolenia na pokolenie
w Grecji, zanim została w końcu spisana przez Homera i Hezjoda około 700
roku p.n.e., mniej więcej stulecie po tym, jak pismo w końcu upowszechniło
się w greckiej kulturze. Od tego czasu była to podstawa greckiej edukacji,
stanowiąca przyjętą mądrość pokoleń myślicieli107.
Nam, żyjącym we współczesnym społeczeństwie, beneficjentom długiej
historii ludzkiej myśli, trudno jest zrozumieć, jak przyroda mogła się jawić
starożytnym w taki sposób. Idea struktury i porządku w przyrodzie wydaje
się nam tak oczywista, jak im wydawała się idea, że bogowie wszystko
kontrolują. Dziś nasze codzienne działania są ujmowane ilościowo,
przypisywane do określonych godzin i minut. Nasze ziemie są wymierzone
za pomocą szerokości i długości geograficznej, nasze adresy wyznaczone za
pomocą nazw ulic i numerów domów. Jeśli notowania na giełdzie spadają
o trzy procent, ekspert poda nam wyjaśnienie, takie jak to, że spadek został
wywołany obawami przed inflacją. Co prawda, inny ekspert może
powiedzieć, że został on spowodowany wydarzeniami w Chinach, a trzeci
może wskazać na niezwykłą aktywność plam słonecznych, ale – niezależnie,
czy te wyjaśnienia są trafne czy też nie – oczekujemy, że będą oparte na
zasadzie przyczynowo-skutkowej.
Od naszego świata żądamy przyczynowości i porządku, ponieważ są to
pojęcia zakorzenione w naszej kulturze, w naszej świadomości. Jednak
w przeciwieństwie do nas starożytnym brakowało tradycji matematycznej
i naukowej, a więc pojęciowa rama odniesienia współczesnej nauki – idea
precyzyjnych przewidywań liczbowych, pojęcie powtarzalnych
eksperymentów, które powinny dać takie same wyniki, użycie czasu jako
parametru pozwalającego śledzić rozwój zdarzeń – byłaby dla nich trudna do
zrozumienia i zaakceptowania. Starożytnym wydawało się, że przyrodą
rządzi zamęt, a wiarę w uporządkowane prawa fizyki uznaliby za równie
dziwaczną jak my ich bajki o dzikich i kapryśnych bogach (a być może jak
drogie nam obecnie teorie potraktują historycy badający je za tysiące lat).
Dlaczego przyroda miałaby być przewidywalna, możliwa do wyjaśnienia
w kategoriach pojęć, które mogą zostać odkryte przez ludzki intelekt?
Alberta Einsteina, człowieka, który ponoć nie był zaskoczony odkryciem, że
kontinuum czasoprzestrzenne może być zwinięte w kształt przypominający
solony precel, zadziwił znacznie prostszy fakt, że przyroda jest
uporządkowana. Napisał, że „należałoby się spodziewać chaotycznego
świata, który nie może zostać ujęty w żaden sposób przez umysł”108. A nawet
posunął się do stwierdzenia, że wbrew jego oczekiwaniom „wiecznie
niepojmowalna w świecie jest jego pojmowalność”109.
Bydło nie rozumie sił, które utrzymują je na ziemi, podobnie jak kruki nie
wiedzą nic o aerodynamice, która pozwala im latać. W swoim stwierdzeniu
Einstein wyrażał doniosłą i wyjątkową ludzką obserwację: że porządek rządzi
światem i że reguł rządzących porządkiem przyrody nie trzeba wyjaśniać za
pomocą mitów. Są one poznawalne, a ludzie mają zdolność, wyjątkową
wśród wszystkich stworzeń na Ziemi, odszyfrowywania planu przyrody. Ta
lekcja miała dogłębne implikacje, jeśli bowiem potrafimy odczytać porządek
Wszechświata, to możemy wykorzystać tę wiedzę do zrozumienia naszego
miejsca w nim, i tak manipulować przyrodą, aby wytworzyć produkty
i technologie, które uczynią nasze życie lepszym.
Nowe, racjonalne podejście do przyrody narodziło się w VI stuleciu p.n.e.
wraz z grupą rewolucyjnych myślicieli, żyjących w Wielkiej Grecji na
wybrzeżach Morza Egejskiego, dużej zatoki Morza Śródziemnego, która
oddziela dzisiejszą Grecję od dzisiejszej Turcji. Kilkaset lat przed
Arystotelesem, w tym samym czasie, w którym Budda wprowadzał nową
tradycję filozoficzną w Indiach, a Konfucjusz w Chinach, ci najwcześniejsi
z greckich filozofów przyczynili się do paradygmatycznej zmiany
postrzegania Wszechświata jako uporządkowanego, a nie jako
przypadkowego – jako kosmosu, a nie chaosu. Trudno przecenić, jak bardzo
dogłębna była to zmiana i stopień, w jakim od tego czasu zmieniła ludzką
świadomość.
Obszar, który zrodził tych myślicieli, był magiczną ziemią winnic, sadów
figowych i oliwnych oraz zamożnych, kosmopolitycznych miast110. Miasta
leżały u ujść rzek i w zatokach, które otwierały się na morze, oraz na
krańcach dróg prowadzących w głąb lądu. Według Herodota był to raj
„z całego znanego nam świata najpiękniejszy ze względu na klimat
i temperaturę”111. Nazywano go Jonią.
Grecy założyli wiele miast-państw na terenie obecnej Grecji oraz
w południowej Italii, ale były to jedynie prowincje – centrum greckiej
cywilizacji stanowiła turecka Jonia, położona zaledwie kilkaset kilometrów
na zachód od Göbekli Tepe i Çatalhöyük. A awangardą greckiego oświecenia
miało być miasto Milet ulokowane na wybrzeżu Zatoki Latmijskiej, co
dawało mu dostęp do Morza Egejskiego, a tym samym do Morza
Śródziemnego112.
Według Herodota na przełomie pierwszego tysiąclecia p.n.e. Milet był
skromną osadą zamieszkaną przez Karów, lud pochodzenia minojskiego.
Później, około 1000 roku p.n.e., wojownicy z Aten i ich okolic najechali ten
obszar. W 600 roku p.n.e. Milet stał się swego rodzaju starożytnym Nowym
Jorkiem, ściągając z całej Grecji ubogich, ciężko pracujących uchodźców,
którzy szukali lepszego życia.
Z biegiem stuleci populacja Miletu rozrosła się do stu tysięcy, a miasto
rozwinęło się w centrum wielkiego bogactwa i luksusu, stając się
najbogatszym z jońskich miast, w istocie najbogatszym z całego świata
greckiego. W Morzu Egejskim rybacy łowili okonie morskie, barweny
i małże. Z żyznej ziemi rolnicy zbierali zboże i figi – jedyny owoc znany
Grekom, który mogli przechowywać przez dowolnie długi czas – podczas
gdy sady dostarczały oliwek zarówno do jedzenia, jak i do produkcji oliwy,
służącej w starożytnej Grecji jako masło, mydło i paliwo. Co więcej, dostęp
do morza uczynił z Miletu ważne centrum handlowe. Towary takie jak len,
cyna, żelazo i srebro sprowadzano z dziesiątek kolonii, które obywatele
Miletu założyli aż w Egipcie, gdzie wykwalifikowani rzemieślnicy
wytwarzali ceramikę, meble i delikatne tkaniny wełniane na sprzedaż za
granicę.
Jednak Milet był nie tylko skrzyżowaniem dla wymiany towarów, był
również miejscem dzielenia się pomysłami. W mieście ludzie z rozmaitych
kultur mieszali się ze sobą i rozmawiali, a mieszkańcy Miletu również wiele
podróżowali, dzięki czemu stykali się z wieloma odrębnymi językami
i kulturami. Gdy mieszkańcy Miletu spierali się o cenę solonej ryby, tradycja
spotykała się z inną tradycją, a przesąd konfrontował z innym przesądem, co
rodziło otwarcie na nowe sposoby myślenia i sprzyjało powstawaniu kultury
innowacji – w szczególności najistotniejszej gotowości do kwestionowania
konwencjonalnej mądrości. Co więcej, bogactwo Miletu doprowadziło do
powstania czasu wolnego, a wraz z czasem wolnym pojawiła się swoboda
poświęcenia go na rozważanie problemów naszej egzystencji. Tak więc
dzięki połączeniu tak wielu sprzyjających okoliczności Milet stał się
wyrafinowanym, kosmopolitycznym rajem i centrum nauki, wywołując
„burzę doskonałą” wszystkich czynników niezbędnych do dokonania
rewolucji w myśleniu.
To właśnie w tym środowisku, w Milecie, a później w całej Jonii, wyłoniła
się grupa myślicieli, którzy zaczęli kwestionować religijne i mitologiczne
wyjaśnienia przyrody, przekazywane od tysięcy lat. Byli oni Kopernikami
i Galileuszami swoich czasów, pionierami zarówno filozofii, jak i nauki.
Pierwszym z tych badaczy był, według Arystotelesa, Tales, urodzony około
624 roku p.n.e. O wielu greckich filozofach mówiono, że żyli w biedzie.
Istotnie, jeśli czasy antyczne były pod jakimś względem podobne do
dzisiejszych, to nawet słynny filozof mógł dojść do większego dobrobytu,
znajdując lepszą pracę, taką jak sprzedawanie oliwek przy drodze. Tradycja
głosi jednak, że Tales był wyjątkiem, zręcznym i zamożnym kupcem, który
nie miał żadnych problemów, by sfinansować sobie czas potrzebny na
myślenie i rozważania. Mówi się, że zbił fortunę, monopolizując rynek pras
do oliwek, a następnie dyktując wyśrubowane ceny na oliwę, jak
jednoosobowy OPEC. Twierdzi się również, że był bardzo zaangażowany
w życie polityczne swojego miasta i znał blisko jego tyrana, Trazybulosa.
Tales spożytkowywał swój majątek na podróże. W Egipcie odkrył, że choć
Egipcjanie byli biegli w budowie piramid, brakowało im wiedzy o tym, jak
zmierzyć ich wysokość. Jak jednak widzieliśmy, stworzyli oni nowy zbiór
reguł matematycznych, które wykorzystywali do określania powierzchni pól
dla celów opodatkowania. Tales zaadaptował te egipskie techniki
geometryczne do obliczenia wysokości piramid – a także pokazał, w jaki
sposób za ich pomocą można określić odległość statku na morzu. Sprawiło
to, że stał się dość znany w starożytnym Egipcie.
Kiedy wrócił do Grecji, przywiózł ze sobą egipską matematykę, tłumacząc
jej nazwę na swój język ojczysty. Jednak w ujęciu Talesa geometria nie była
jedynie narzędziem służącym do mierzenia i obliczania – lecz zbiorem
twierdzeń powiązanych ze sobą logiczną dedukcją. To on pierwszy dowodził
prawd geometrycznych, a nie po prostu stwierdzał jako fakty wnioski, które
raczej się sprawdzały113, wielki geometra Euklides zaś miał później
uwzględnić niektóre z twierdzeń Talesa w swoich Elementach. Jednak
niezależnie od tego, jak bardzo imponująca była matematyczna wiedza
Talesa, jego prawdziwy powód do chwały stanowiło podejście do
wyjaśniania zjawisk świata fizycznego.
Przyroda w ujęciu Talesa nie była sprawą mitologii; działała zgodnie
z zasadami nauki, których można było użyć do wyjaśnienia i przewidzenia
wszystkich zjawisk przypisywanych dotychczas interwencji bogów.
Uważano, że był on pierwszą osobą, która zrozumiała przyczynę zaćmienia
Słońca, i pierwszym Grekiem, który głosił, że Księżyc świeci odbitym
światłem słonecznym.
Nawet kiedy się mylił, Tales wykazywał wyjątkową oryginalność myślenia
i idei. Rozważmy podane przez niego wyjaśnienie trzęsień ziemi. W owych
czasach sądzono, że następują one, gdy bóg Posejdon złości się i uderza
w ziemię swoim trójzębem. Natomiast Tales głosił coś, co musiało się
wydawać ekscentrycznym poglądem: że trzęsienia ziemi nie mają nic
wspólnego z bogami. Jego wyjaśnienie co prawda nie przypominało tego, co
usłyszałbym od któregoś z moich kolegów sejsmologów z Caltechu – był on
przekonany, że świat jest półkulą unoszącą się na nieskończonym
przestworze wód i że trzęsienie ziemi następuje, gdy woda chlupocze.
Niemniej analiza Talesa jest przełomowa w swoich implikacjach, ponieważ
próbował on wytłumaczyć trzęsienia ziemi jako konsekwencje procesu
naturalnego, a żeby wesprzeć swój pomysł, wykorzystał argumenty
empiryczne i logiczne. Być może najważniejsze było to, że skoncentrował się
na pytaniu, dlaczego trzęsienia ziemi w ogóle następują.
W 1903 roku poeta Rainer Maria Rilke udzielił pewnemu uczniowi rady,
która pozostaje równie prawdziwa w odniesieniu do nauki, jak do poezji:
„bądź cierpliwy / wobec tego, co Cię dręczy w Twym / sercu, spróbuj
pokochać te pytania [...] a zatem teraz żyj pytaniami”114. Największą
umiejętnością w nauce (a często również w biznesie) jest zdolność do
zadawania właściwych pytań – i Tales w praktyce wynalazł ideę zadawania
pytań naukowych. Wszędzie, gdzie spojrzał, nawet w niebiosach, widział
zjawiska, które prosiły się o wyjaśnienie, a intuicja doprowadziła go do
rozważania zjawisk, które w końcu rzuciły światło na zasadnicze
mechanizmy przyrody. Stawiał pytania nie tylko o trzęsienia ziemi, ale
również o rozmiary i kształt Ziemi, daty równonocy oraz stosunek Ziemi do
Słońca i Księżyca – te same pytania, które dwa tysiące lat później
doprowadziły Izaaka Newtona do wielkiego odkrycia grawitacji i praw ruchu.
W uznaniu dla tego, jak wielkiego zerwania z przeszłością dokonał Tales,
Arystoteles nazywał jego i późniejszych jońskich myślicieli pierwszymi
physikoi, czyli fizykami – do której to grupy mam honor się zaliczać
i do której sam Arystoteles czuł się przynależny. Termin ten pochodzi od
greckiego słowa physis, które znaczy „przyroda”, a Arystoteles wybrał go na
określenie tych, którzy szukają naturalnych wyjaśnień zjawisk,
w przeciwieństwie do theologoi, którzy szukają wyjaśnień nadnaturalnych.
Arystoteles żywił jednak mniejszy podziw dla członków innej radykalnej
grupy: tych, którzy wykorzystywali matematykę jako model przyrody.
Zasługa wprowadzenia tej innowacji przypada myślicielowi z pokolenia po
Talesie, który żył niedaleko od Miletu, na egejskiej wyspie Samos.

***

Niektórzy z nas poświęcają swój czas pracy, próbując zrozumieć, jak


funkcjonuje Wszechświat. Inni nie opanowali algebry. W czasach Talesa
członkowie pierwszej grupy należeli również do tej drugiej, jak bowiem
widzieliśmy, algebra w naszym rozumieniu – i większa część matematyki –
nie została jeszcze wymyślona.
Dzisiejszym naukowcom zrozumienie przyrody bez równań
przypominałoby próbę zrozumienia uczuć partnera, gdy jedynym, co
kiedykolwiek powiedział, byłoby: „Czuję się dobrze”. Matematyka jest
bowiem słownikiem nauki – w ten sposób komunikuje się ideę teoretyczną.
My, naukowcy, możemy nie zawsze dobrze radzić sobie z językiem przy
przekazywaniu naszych wewnętrznych myśli, ale staliśmy się bardzo biegli
w komunikowaniu teorii za pomocą matematyki. Język matematyki
umożliwia nauce dalsze zagłębianie się w teoriach, i to z większą
wnikliwością i precyzją niż za pomocą języka potocznego, ponieważ jest to
język z wbudowanymi regułami rozumowania i logiki, które umożliwiają
rozwijanie znaczenia, pozwalając mu ujawnić się i rozbrzmieć
w nieoczekiwany niekiedy sposób.
Poeci zapisują swoje spostrzeżenia za pomocą języka; fizycy opisują je za
pomocą matematyki. Kiedy poeta kończy wiersz, jego praca jest skończona.
Gdy zaś fizyk zapisuje matematyczny „wiersz”, oznacza to zaledwie
początek pracy. Stosując reguły i twierdzenia matematyki, fizyk musi
następnie nakłonić ten wiersz do ujawnienia nowych lekcji płynących
z przyrody, których jego własny autor mógł sobie nigdy nie wyobrażać.
Równania bowiem nie tylko ucieleśniają idee; ukazują one konsekwencje
tych idei dla każdego, kto jest wystarczająco biegły i wytrwały, żeby je
wydobyć. To właśnie osiąga język matematyki: ułatwia wyrażenie zasad
fizycznych, naświetla związki pomiędzy nimi i kieruje ludzkim
rozumowaniem, które ich dotyczy.
Jednak na początku VI wieku p.n.e. nikt tego nie wiedział. Rodzaj ludzki
nie wpadł jeszcze na to, że matematyka może pomóc zrozumieć, jak działa
przyroda. Dopiero, jak się uważa, Pitagoras (ok. 570 – ok. 490 p.n.e.) –
założyciel greckiej filozofii, twórca terminu „filozofia” i przekleństwo
uczniów na całym świecie, którzy muszą przestać esemesować na tyle długo,
by nauczyć się znaczenia równania a2 + b2 = c2 – pierwszy pomógł nam
wykorzystać matematykę jako język idei naukowych.
Imię Pitagorasa w czasach antycznych nie tylko kojarzone było
z geniuszem, lecz także niosło ze sobą magiczną i religijną otoczkę115.
Postrzegano go tak, jak mógłby być postrzegany Einstein, gdyby był nie
tylko fizykiem, ale też papieżem. Wielu późniejszych autorów przekazało
nam mnóstwo informacji o życiu Pitagorasa i kilka jego biografii, ale od
pierwszych wieków po Chrystusie te opowieści stały się niewiarygodne,
zanieczyszczone przez ukryte motywy religijne i polityczne, które
spowodowały, że ich autorzy zniekształcali jego idee i wyolbrzymiali jego
miejsce w historii.
Jedyne, co wydaje się prawdą, jest to, że Pitagoras dorastał na wyspie
Samos położonej po drugiej stronie zatoki, nad którą leżał Milet. Również
wszyscy jego starożytni biografowie zgadzają się, że w pewnym momencie
między osiemnastym i dwudziestym rokiem życia Pitagoras odwiedził
Talesa, który był wówczas już bardzo stary i zbliżał się do śmierci. Zdając
sobie sprawę, że jego wcześniejsza błyskotliwość znacznie przybladła, Tales
miał przeprosić za osłabiony stan swojego umysłu. Niezależnie jaką lekcję
przekazał mu stary uczony, Pitagoras pozostał pod jej wrażeniem. Wiele lat
później można go było niekiedy zobaczyć siedzącego w domu, jak
wyśpiewuje pieśni pochwalne do swojego nieżyjącego nauczyciela.
Podobnie jak Tales Pitagoras wiele podróżował, prawdopodobnie do
Egiptu, Babilonu i Fenicji. Opuścił Samos w wieku czterdziestu lat, uznając,
że życie na wyspie pod rządami tyrana Polikratesa jest nieznośne, i trafił do
Krotony w dzisiejszych południowych Włoszech. Tam przyciągnął znaczną
liczbę zwolenników. Również tam, jak się twierdzi, doznał objawienia
dotyczącego matematycznego uporządkowania świata fizycznego.
Nikt nie wie, jak po raz pierwszy stworzono język, choć zawsze
wyobrażałem sobie jakiegoś jaskiniowca, który uderza się w palec
i spontanicznie wykrzykuje: Oj!, myśląc sobie jednocześnie: Co to za nowy
sposób wyrażania uczuć, a niedługo potem wszyscy ze sobą rozmawiają.
Początki matematyki jako języka nauki również kryją się w tajemnicy, ale
w tym wypadku mamy chociaż legendę, która je opisuje.
Według tej legendy Pitagoras, gdy przechodził pewnego dnia obok
warsztatu kowala, usłyszał dźwięk młotów i zauważył prawidłowość
w tonach rozbrzmiewających, gdy różne narzędzia uderzały w żelazo. Filozof
wbiegł do kuźni i eksperymentował z młotami, zauważając, że różnice
w tonach nie zależały od siły użytej przez człowieka uderzającego nimi ani
od kształtu młota, tylko od jego wielkości albo – co równoważne – ciężaru.
Pitagoras wrócił do domu i kontynuował eksperymenty już nie na młotach,
lecz na strunach o różnej długości i napięciu. Podobnie jak inni młodzi Grecy
uczył się muzyki, zwłaszcza gry na flecie i lirze. Greckie instrumenty
muzyczne były w tym czasie produktem domysłów, doświadczenia i intuicji.
Jednak uważa się, że dzięki swoim eksperymentom Pitagoras odkrył
matematyczne prawo rządzące instrumentami strunowymi, które można było
wykorzystać do zdefiniowania dokładnej relacji między długością strun
muzycznych a tonami, jakie one wydają.
Dziś opisalibyśmy stosunek pitagorejski, stwierdzając, że częstotliwość
tonu jest odwrotnie proporcjonalna do długości struny. Załóżmy, na przykład,
że struna wydaje pewną nutę, kiedy zostanie szarpnięta. Po przyciśnięciu
struny w połowie długości wyda ona nutę wyższą o oktawę – to znaczy
o dwukrotnie wyższej częstotliwości. Po przyciśnięciu w jednej czwartej
długości ton wzrośnie o kolejną oktawę, do czterokrotności początkowej
częstotliwości.
Czy Pitagoras rzeczywiście odkrył ten związek? Nikt nie wie, w jakim
stopniu legendy o tym uczonym są prawdą. Na przykład prawdopodobnie nie
dowiódł „twierdzenia Pitagorasa”, które jest koszmarem uczniów – panuje
przekonanie, że pierwszy dowiódł go jeden z jego kontynuatorów, ale
formuła ta była już znana od stuleci. Niezależnie od tego, prawdziwy wkład
Pitagorasa polegał nie na wyprowadzeniu jakichkolwiek konkretnych praw,
lecz na upowszechnianiu idei kosmosu, który jest uporządkowany zgodnie ze
stosunkami liczbowymi, a jego wpływ wynikał nie z odkrycia związków
matematycznych w przyrodzie, tylko z ich docenienia. Jak ujął to badacz
epoki klasycznej Carl Huffman, Pitagoras odegrał ważną rolę „z uwagi na
godność, jaką przyznał liczbie, i z uwagi na wydobycie jej z dziedziny handlu
i wskazanie na odpowiedniości między zachowaniem liczb i zachowaniem
rzeczy”116.
Tam, gdzie Tales twierdził, że przyroda stosuje się do uporządkowanych
reguł, Pitagoras poszedł jeszcze dalej, uznawszy, że przyroda stosuje się do
reguł matematycznych. Głosił, że to właśnie matematyczne prawo jest
fundamentalną prawdą o Wszechświecie. Pitagorejczycy wierzyli, że liczba
jest istotą rzeczywistości.
Idee Pitagorasa miały wielki wpływ na późniejszych greckich myślicieli –
szczególnie na Platona – oraz na naukowców i filozofów w całej Europie.
Jednak spośród wszystkich greckich czempionów rozumu, spośród
wszystkich wielkich uczonych, którzy wierzyli, że Wszechświat można
zrozumieć dzięki racjonalnej analizie, największy wpływ wywarł dotychczas,
jeśli chodzi o przyszły rozwój nauki, nie Tales, który wynalazł to podejście,
ani Pitagoras, który wprowadził do niego matematykę, ani nawet nie Platon,
lecz raczej uczeń Platona, który później został nauczycielem Aleksandra
Wielkiego: Arystoteles.

***

Urodzony w Stagirze, mieście w północno-wschodniej Grecji, Arystoteles


(384–322 p.n.e.) był synem osobistego lekarza dziadka Aleksandra
Wielkiego, króla Amynthasa. Wcześnie został osierocony i wysłany do Aten,
żeby studiował w Akademii Platona, miał wtedy siedemnaście lat.
Od Platona słowo „akademia” zaczęło oznaczać miejsce nauk, ale w jego
czasach była to po prostu nazwa ogrodu publicznego na obrzeżach Aten,
który obejmował gaj drzew, gdzie Platon i jego uczniowie lubili się
gromadzić. Arystoteles pozostał tam przez dwanaście lat.
Po śmierci Platona w 347 roku p.n.e. Arystoteles opuścił Akademię i kilka
lat później został nauczycielem Aleksandra. Nie jest jasne, dlaczego król
Filip II wybrał go na wychowawcę swojego syna, ponieważ Arystoteles nie
zyskał jeszcze sławy. Młodemu myślicielowi zaś możliwość nauczania
następcy tronu Macedonii z pewnością musiała się spodobać. Był szczodrze
opłacany i zgarnął wiele innych korzyści, kiedy Aleksander udał się na
podbój Persji i znacznej części pozostałego świata. Jednak kiedy objął tron,
Arystoteles, dobiegający wówczas pięćdziesiątki, wrócił do Aten, gdzie przez
kolejne trzynaście lat stworzył większość dzieł, z których jest znany. Nigdy
więcej nie widział Aleksandra.
Nauka, jaką wykładał Arystoteles, prawdopodobnie nie była identyczna
z tym, czego sam nauczył się od Platona. Arystoteles był prymusem
w Akademii, ale nigdy nie odpowiadał mu nacisk, jaki Platon kładł na
matematykę. On sam skłaniał się ku szczegółowym obserwacjom natury,
a nie abstrakcyjnym prawom – co bardzo odbiega zarówno od nauki w stylu
Platona, jak i od tej, jaką uprawia się dziś.
Kiedy byłem w liceum, uwielbiałem lekcje chemii i fizyki. Widząc moją
pasję, ojciec prosił mnie niekiedy o wyjaśnienie mu, czym zajmują się te
nauki. Pochodził z ubogiej żydowskiej rodziny, która mogła sobie pozwolić
jedynie na wysłanie go do szkoły religijnej, odebrał wykształcenie
skoncentrowane bardziej na teoriach szabatu niż teoriach nauki, a ponieważ
nigdy nie wyszedł poza siódmą klasę, musiałem się sporo napracować.
Rozpocząłem nasze eksploracje od stwierdzenia, że fizyka jest w dużej
mierze badaniem jednej rzeczy: zmiany. Ojciec zastanowił się przez chwilę,
a potem mruknął: „Nic nie wiesz o zmianie. Jesteś za młody i nigdy jej nie
doświadczyłeś”. Zaprotestowałem, że oczywiście doświadczyłem zmiany, ale
odpowiedział jednym z tych starych przysłów jidysz, które brzmią albo
głęboko, albo idiotycznie, w zależności od tego, jaki jest twój poziom
tolerancji dla starych przysłów w jidysz. „Jest zmiana – powiedział – i jest
zmiana”.
Odrzuciłem jego aforyzm w taki sposób, w jaki może to zrobić tylko
nastolatek. W fizyce, odrzekłem, nie ma zmiany i zmiany – jest tylko
ZMIANA. W istocie można powiedzieć, że główny wkład Izaaka Newtona
w stworzenie fizyki takiej, jaką znamy dziś, polegał na wynalezieniu
zunifikowanego matematycznego podejścia, które można było wykorzystać
do opisania wszelkich zmian, niezależnie od ich natury. Fizyka Arystotelesa –
która powstała w Atenach dwa tysiące lat przed Newtonem – ma swoje
korzenie w znacznie bardziej intuicyjnym i mniej matematycznym podejściu
do zrozumienia świata, to właśnie, jak sądziłem, mogło być bardziej
przystępne dla mojego ojca. A więc w nadziei, że znajdę tam coś, co
ułatwiłoby mi wyjaśnienie mu różnych spraw, zacząłem czytać
o Arystotelesowskiej koncepcji zmiany. Po wielu wysiłkach dowiedziałem
się, że choć Arystoteles mówił po grecku i nigdy nie wypowiedział ani słowa
w jidysz, w zasadzie był przekonany, że „Jest zmiana i jest zmiana”.
Arystoteles (po prawej) i Platon (po lewej) przedstawieni na fresku przez Rafaela
(© Web Gallery of Art, autorzy: Emil Krén i Daniel Marx, dzięki uprzejmości
Wikimedia Commons)

W wersji mojego ojca drugie przywołanie słowa „zmiana” brzmiało


złowieszczo i miało oznaczać tego rodzaju gwałtowną zmianę, jakiej
doświadczył, kiedy rozpoczęła się inwazja nazistów. Owo rozróżnienie
między zwykłą, czyli naturalną zmianą, z jednej strony, i gwałtowną zmianą,
z drugiej, jest tym samym, jakie przeprowadzał Arystoteles: był on
przekonany, że wszystkie przekształcenia, jakie obserwuje się w przyrodzie,
można skategoryzować albo jako naturalne, albo jako gwałtowne.
W Arystotelesowskiej teorii świata zmiana naturalna była tym, co miało
swoje źródło w samym obiekcie117. Innymi słowy, przyczyna zmiany
naturalnej tkwi w naturze albo składzie tego obiektu. Na przykład rozważmy
tego rodzaju zmianę, którą nazywamy ruchem – zmianę położenia.
Arystoteles był przekonany, że wszystko złożone jest z różnych połączeń
czterech podstawowych elementów – ziemi, powietrza, ognia i wody –
z których każdy miał wrodzoną tendencję do ruchu. Kamienie spadają na
ziemię, a deszcz spada do oceanu, zdaniem Arystotelesa, ponieważ ziemia
i morze są naturalnymi miejscami spoczynku dla tych substancji. Sprawienie,
że kamień poleci do góry, wymagałoby zewnętrznej interwencji, ale kiedy
kamień spada, podąża za swoją wrodzoną tendencją i wykonuje „normalny”
ruch.
We współczesnej fizyce żadna przyczyna nie jest potrzebna, żeby wyjaśnić,
dlaczego obiekt pozostaje w spoczynku albo porusza się ruchem
jednostajnym ze stałą prędkością w tym samym kierunku. Podobnie w fizyce
Arystotelesa nie było potrzeby wyjaśniać, dlaczego obiekty wykonują ruch
naturalny – dlaczego rzeczy składające się z ziemi i wody spadają, a ogień
i powietrze się unoszą. Ta analiza odzwierciedla to, co widzimy
w otaczającym nas świecie – w którym bąbelki wydostają się na
powierzchnię wody, płomienie wydają się wznosić w powietrze, ciężkie
obiekty spadają z nieba, oceany i morza spoczywają na powierzchni ziemi,
a atmosfera przykrywa to wszystko.
Dla Arystotelesa ruch był tylko jednym z wielu procesów naturalnych
takich jak wzrost, zanik i fermentacja, które wszystkie rządziły się tymi
samymi zasadami. Postrzegał on zmianę naturalną we wszystkich jej
zróżnicowanych formach – spalanie się polana, starzenie się osoby, lot ptaka,
upadek żołędzia – jako wypełnienie wewnętrznego potencjału. Zmiana
naturalna w Arystotelesowskim systemie przekonań jest tym, co wprawia nas
w ruch w codziennym życiu. Jest to tego rodzaju zmiana, jaka nie
wywołałaby zdziwienia, jaką skłonni jesteśmy traktować jako coś
oczywistego.
Jednak czasami naturalny bieg zdarzeń zostaje przerwany, a ruch, czyli
zmiana, jest wymuszony przez coś zewnętrznego. To właśnie dzieje się, gdy
kamień zostanie wyrzucony w powietrze, gdy winogrona zostają zerwane,
kurczęta – zarżnięte do zjedzenia, albo gdy straci się pracę, albo faszyści
zajmą cały kontynent. Tego rodzaju zmiany Arystoteles określał jako
„gwałtowne”.
Gwałtowna zmiana, według Arystotelesa, następuje wtedy, gdy obiekt
zmienia się albo porusza w kierunku, który narusza jego naturę. Filozof dążył
do zrozumienia przyczyny tego rodzaju zmiany i znalazł termin na jej
oznaczenie: nazwał ją „siłą”.
Podobnie jak pojęcie zmiany naturalnej Arystotelesowska doktryna
gwałtownej zmiany odpowiada dobrze temu, co obserwujemy w przyrodzie –
na przykład stała materia gwałtownie opada w dół sama z siebie, ale by
zmusić ją do ruchu w jakimś innym kierunku, na przykład w górę albo na
boki, potrzebna jest siła albo wysiłek.
Arystotelesowska analiza zmiany była godna uwagi, choć bowiem widział
te same zjawiska środowiskowe co inni wielcy myśliciele jego czasów,
w przeciwieństwie do nich zakasał rękawy i przeprowadzał obserwacje
dotyczące zmiany w bezprecedensowy i encyklopedyczny, szczegółowy
sposób – zmiany zarówno w życiu ludzi, jak i w przyrodzie. Próbując odkryć,
co różnego rodzaju zmiany mają ze sobą wspólnego, badał przyczyny
wypadków, dynamikę polityki, ruch wołów ciągnących wielkie ciężary,
wzrost kurzych embrionów, ruch planet, parowanie wody, trawienie jedzenia
przez zwierzęta mające kilka żołądków, topił i palił rozmaite przedmioty.
Przeprowadzał sekcje zwierząt wszelkich gatunków, niekiedy znacznie po
dacie ich przydatności do spożycia, ale jeśli inni mieli zastrzeżenia do
paskudnej woni, on tylko sobie podrwiwał.
Arystoteles zatytułował swoją próbę stworzenia systematycznego
wyjaśnienia zmiany Fizyka – nawiązując tym samym do dziedzictwa Talesa.
Jego fizyka ma szeroki zakres, obejmując zarówno istoty żywe, jak
i nieożywione, oraz zjawiska zachodzące i na niebie, i na Ziemi. Dziś różne
kategorie zmiany, które badał, są przedmiotem całych dziedzin nauki: fizyki,
astronomii, klimatologii, biologii, embriologii, socjologii i tak dalej. Istotnie,
Arystoteles był płodnym autorem – prawdziwą jednoosobową Wikipedią.
Jego osiągnięcia obejmują niektóre z najbardziej wszechstronnych badań,
jakie kiedykolwiek podjęła osoba, u której nie zdiagnozowano zaburzenia
obsesyjno-kompulsyjnego. Ogólnie rzecz ujmując, stworzył – według danych
pochodzących ze starożytności – 170 dzieł naukowych, z których około
jednej trzeciej zachowało się do dziś. Były to Meteorologia, Metafizyka,
Etyka, Polityka, Retoryka, Poetyka, O niebie, O powstawaniu i ginięciu,
O duszy, O pamięci i przypominaniu sobie, O śnie i czuwaniu, O marzeniach
sennych, O wieszczbiarstwie ze snu, O długości i krótkości życia, O młodości
i starości, O częściach zwierząt i tak dalej.
Podczas gdy jego były uczeń Aleksander udał się na podbój Azji,
Arystoteles wrócił do Aten i założył szkołę nazywaną Liceum. Tam podczas
przechadzek po publicznych promenadach albo spacerów po ogrodzie
nauczał swoich uczniów tego, czego sam dowiedział się przez te lata118. Ale
choć Arystoteles był wielkim nauczycielem oraz błyskotliwym i płodnym
obserwatorem przyrody, jego podejście do wiedzy znacznie różniło się od
tego, które dziś nazywamy nauką.

***

Według filozofa Bertranda Russella to Arystoteles pierwszy „pisał jak


profesor […] był zawodowym nauczycielem, a nie natchnionym prorokiem”.
Russell stwierdził, że Arystoteles to Platon „rozwodniony i zmieszany ze
sporą dawką zdrowego rozsądku”119. Istotnie, Arystoteles przypisywał
wielką wartość tej ostatniej cesze. Robi tak większość z nas. To właśnie
powstrzymuje nas przed odpowiadaniem tym gościom z Nigerii, którzy
w mailach obiecują, że jeśli przeleje im się 10 tysięcy dolarów dziś, oni jutro
przeleją nam 100 miliardów. Gdy jednak spogląda się wstecz na idee
Arystotelesa z naszą dzisiejszą wiedzą, można twierdzić, że to właśnie jego
przywiązanie do konwencjonalnych idei uznajemy za największą różnicę
między dzisiejszym podejściem do nauki i podejściem Arystotelesa – oraz za
jedną z największych słabości Arystotelesowskiej fizyki. Choć bowiem
zdrowego rozsądku nie należy ignorować, niekiedy potrzebny jest rozsądek
odmienny od tego zdrowego.
W nauce, aby dokonać postępów, często trzeba odrzucić to, co historyk
Daniel Boorstin nazwał „tyranią zdrowego rozsądku”120. Na przykład zdrowy
rozsądek mówi nam, że jeśli popchnie się obiekt, będzie się on przesuwał,
następnie zwolni i zatrzyma się. Jednak aby dostrzec leżące u podstaw tego
ruchu prawa, trzeba przejrzeć poza to, co oczywiste, tak jak zrobił Newton,
i przewidzieć, jak poruszałby się obiekt w teoretycznym świecie
pozbawionym tarcia. Podobnie aby zrozumieć ostateczny mechanizm tarcia,
należałoby zajrzeć za fasadę świata materialnego, „zobaczyć”, jak obiekty
mogą się składać z niewidzialnych atomów, które to pojęcie zostało
zaproponowane przez Leucypa i Demokryta mniej więcej stulecie wcześniej,
choć Arystoteles go nie przyjmował.
Arystoteles okazywał również wielkie poważanie dla panującej opinii, dla
instytucji i idei swoich czasów. Pisał: „Twierdzimy bowiem, że to, co
wszystkim się wydaje, rzeczywiście też tak się ma”. A wątpiących pouczał:
„Kto zaś zbija to przekonanie, nie zdoła zastąpić go innym, bardziej
wiarogodnym”121. Żywym przykładem polegania na konwencjonalnej
mądrości – i metody, która zniekształcała jego sposób widzenia – jest dość
dręczący argument, że niewolnictwo, które on i większość jego
współobywateli akceptowała, jest nieodłączne od natury świata fizycznego.
Stosując tego rodzaju argument, który dziwnie przypomina jego pisma
z dziedziny fizyki, Arystoteles stwierdzał, że „Czynnik władający
i słuchający występuje wszędzie, gdzie coś składa się z wielu części […]. Jest
to ogólne prawo natury, choć przejawiające się w pierwszym rzędzie u istot
żyjących”122. Z uwagi na ten dualizm, twierdził Arystoteles, istnieją ludzie,
którzy są ze swej natury wolni, i ludzie, którzy są z natury niewolnikami.
Dziś naukowców i innych innowatorów często przedstawia się jako
dziwnych i niekonwencjonalnych. Zakładam, że jest ziarno prawdy w tym
stereotypie. Pewien profesor fizyki, którego znałem, wybierał sobie
codziennie na lunch darmowe przyprawy w kafejce. Majonez dostarczał mu
tłuszczu, keczup robił za warzywa, a słone krakersy zapewniały
węglowodany. Inny mój przyjaciel uwielbiał plasterkowane wędliny, ale nie
znosił chleba, i w restauracji nie miał oporów przed zamówieniem na lunch
samotnego stosu plasterków salami, które zjadał za pomocą noża i widelca,
jak gdyby był to stek.
Konwencjonalne myślenie nie jest dobrą postawą dla naukowców – ani dla
nikogo, kto chce być innowacyjny – a niekiedy ceną, jaką trzeba za to
zapłacić, jest to, jak postrzegają nas inni ludzie. Jednak jak się wielokrotnie
przekonamy, nauka jest naturalnym wrogiem przyjętych z góry przekonań
i autorytetu, nawet autorytetu samego establishmentu naukowego.
Rewolucyjne przełomy bowiem z konieczności wymagają gotowości do
kwestionowania tego, o czym wszyscy inni przekonani są, że jest prawdą, by
zastąpić stare idee nowymi i wiarygodnymi. W istocie, jeśli istnieje jakaś
przeszkoda dla postępu, która wyróżnia się w historii nauki i ludzkiej myśli
w ogóle, to jest nią przesadne przywiązanie do koncepcji z przeszłości –
i z teraźniejszości. Skoro więc zostałem zatrudniony na stanowisku, które
wymaga ode mnie kreatywności, to powinienem się wystrzegać nadmiaru
zdrowego rozsądku, wpisać cechy dziwaka do kolumny z plusami i pilnować,
żeby zasób przypraw przypadkiem się nie wyczerpał.

***

Inną ważną rozbieżnością między podejściem Arystotelesa oraz istotą


współczesnej nauki jest to, że było ono jakościowe, a nie ilościowe.
Dzisiejsza fizyka jest nawet w swojej najprostszej postaci nauczanej w szkole
nauką ilościową. Uczniowie przyswajający sobie tę najbardziej elementarną
wersję fizyki uczą się, że samochód poruszający się z prędkością stu
dwudziestu kilometrów na godzinę w każdej sekundzie przebędzie
33,3 metra. Uczą się, że jeśli upuści się jabłko, jego prędkość będzie wzrastać
o mniej więcej trzydzieści pięć kilometrów na godzinę na każdą sekundę
spadania. Przeprowadzają obliczenia matematyczne takie jak wyliczenie, że
kiedy klapniemy na krzesło, siła działająca na nasz kręgosłup, gdy krzesło
nas zatrzyma, będzie wynosić – przez ułamek sekundy – ponad 450
kilogramów. Fizyka Arystotelesa niczego takiego nie przypominała.
Przeciwnie, głośno wyrzekał on na filozofów, którzy dążyli do zmienienia
filozofii „w matematykę”123.
Każda próba zmienienia filozofii naturalnej na podejście ilościowe w
czasach Arystotelesa była oczywiście blokowana przez stan wiedzy w
starożytnej Grecji. Arystoteles nie miał stopera, żadnego zegarka z
sekundnikiem, nigdy też nie zetknął się z myśleniem o zdarzeniach w
kategoriach ich dokładnego trwania. Również algebra i arytmetyka, które
były potrzebne do manipulowania takimi danymi, nie były bardziej
rozwinięte niż w czasach Talesa. Jak widzieliśmy, plus, minus i znak
równości nie zostały jeszcze wynalezione, podobnie jak nasz system
liczbowy albo pojęcia takie jak „kilometr na godzinę”. Jednak uczeni w XIII
wieku i później poczynili postępy w fizyce ilościowej za pomocą
instrumentów i matematyki, które nie były jakoś szczególnie zaawansowane,
tak więc nie były to jedyne bariery stojące na drodze nauki równań,
pomiarów i przewidywań liczbowych. Ważniejszy okazał się fakt, że
Arystoteles, podobnie jak wszyscy inni, nie był po prostu zainteresowany
opisem ilościowym.
Nawet podczas badania ruchu Arystotelesowska analiza była jedynie
jakościowa. Na przykład filozof miał tylko niejasne zrozumienie, czym jest
prędkość – takie jak „niektóre rzeczy poruszają się dalej niż inne w
podobnym odstępie czasu”. Brzmi to dla nas jak przekaz, jaki możemy
znaleźć w chińskim ciasteczku z wróżbą, ale w czasach Arystotelesa
uznawano je za wystarczająco precyzyjne. A gdy dysponuje się jedynie
jakościowym pojęciem prędkości, można mieć tylko mgliste pojęcie
przyspieszenia, które jest zmianą prędkości w czasie – i którego uczymy się
już w gimnazjum. Z uwagi na te zasadnicze różnice, gdyby ktoś dysponujący
wehikułem czasu udał się w przeszłość i dał Arystotelesowi tekst opisujący
fizykę Newtona, nie miałby on dla niego większego sensu niż książka z
przepisami na makaron z mikrofalówki. Nie tylko nie byłby w stanie
zrozumieć, co Newton rozumiał przez „siłę” albo „przyspieszenie” – nic by
go to nie obchodziło.
Tym, co interesowało Arystotelesa, gdy prowadził swoje wszechstronne
obserwacje, było stwierdzenie, że ruch i inne rodzaje zmiany wydają się
zmierzać do jakiegoś celu. Rozumiał, na przykład, ruch nie jako coś, co się
mierzy, lecz jako zjawisko, którego cel można poznać. Koń ciągnie wóz, żeby
przemieścić go po drodze; koza chodzi, żeby znaleźć pożywienie; mysz
biega, żeby uniknąć pożarcia przez kota; króliki bałamucą królice, żeby
powstało więcej królików.
Arystoteles był przekonany, że Wszechświat jest jednym wielkim
ekosystemem zaprojektowanym tak, by działać w harmonii. Wszędzie, gdzie
spojrzał, dostrzegał cel. Deszcz pada, ponieważ rośliny potrzebują wody, by
rosnąć. Rośliny rosną, żeby zwierzęta mogły je zjeść. Nasiona winorośli
wyrastają w krzewy, a jaja zmieniają się w kurczęta, żeby zrealizować
potencjał, który istnieje w tych nasionach i jajach. Od niepamiętnych czasów
ludzie zawsze próbowali zrozumieć świat przez rzutowanie na niego
własnych doświadczeń. I tak się złożyło, że w starożytnej Grecji znacznie
bardziej naturalne było analizowanie celu zdarzeń w świecie fizycznym niż
próby ich wyjaśniania za pomocą praw matematycznych stworzonych przez
Pitagorasa i jego kontynuatorów.
Tutaj znów dostrzegamy znaczenie w nauce skonkretyzowanych pytań.
Nawet bowiem jeśli Arystoteles przyjąłby pitagorejską koncepcję, że
przyroda posłuszna jest prawom ilościowym, nie zrozumiałby, o co chodzi,
ponieważ po prostu był mniej zainteresowany ilościowymi konkretami tych
praw niż pytaniem, dlaczego przedmioty się do nich stosują. Co zmusza
strunę w instrumencie muzycznym albo spadający kamień do zachowania
liczbowej regularności? Takie były problemy, które zaprzątały Arystotelesa, i
właśnie tu widzimy największą rozbieżność między jego filozofią a
dzisiejszym uprawianiem nauki – podczas gdy Arystoteles dostrzegał to, co
interpretował jako cel w przyrodzie, dzisiejsza nauka nic podobnego nie
dostrzega.
Ta cecha charakterystyczna analiz Arystotelesa – poszukiwanie celu –
miała wielki wpływ na późniejszą myśl ludzką. Przez wieki doceniło go
wielu filozofów chrześcijańskich, ale jednocześnie arystotelesowskie
podejście zahamowało postęp naukowy na niemal dwa tysiące lat, ponieważ
było sprzeczne z podstawową zasadą myślenia naukowego, które dziś
wykorzystujemy w naszych badaniach. Kiedy zderzają się dwie kule
bilardowe, o tym, co się później stanie, decydują prawa pierwszy raz
sformułowane przez Newtona, a nie jakiś wielki, ukryty przed nami cel.
Nauka wyrosła najpierw z fundamentalnego ludzkiego pragnienia poznania
naszego świata i znalezienia w nim sensu, tak więc nie jest zaskakujące, że
tęsknota za celem, która inspirowała Arystotelesa, wciąż dziś budzi oddźwięk
u wielu ludzi. Idea, że „wszystko dzieje się z jakiegoś powodu”, może
uspokajać tych, którzy chcą zrozumieć katastrofę naturalną albo inną
tragedię. Takim ludziom twierdzenie naukowców, że Wszechświat nie jest
kierowany przez żaden wyższy sens ani cel, może wydać się zimne i
bezduszne, podobnie jak sama nauka.
Jednak istnieje inny sposób patrzenia na te sprawy i jest to sposób dobrze
mi znany dzięki mojemu ojcu. Kiedy pojawiała się kwestia celu, ojciec
odwoływał się nie do czegoś, co się jemu przydarzyło, tylko do konkretnego
wydarzenia, którego doświadczyła moja matka, zanim się spotkali, kiedy
miała zaledwie siedemnaście lat. Naziści zajęli jej miasto i jeden z nich, z
nieznanego powodu, rozkazał kilkudziesięciu Żydom, wśród nich mojej
matce, uklęknąć w równym szeregu na śniegu. Następnie przeszedł od
jednego jego końca do drugiego, zatrzymując się co kilka kroków, żeby
strzelić któremuś z jeńców w głowę. Jeśli była to część wielkiego planu Boga
albo natury, mój ojciec nie chciał mieć nic do czynienia z takim Bogiem.
Ludziom takim jak ojciec może przynieść ulgę myśl, że nasze życie,
niezależnie, jak wiele tragedii albo tryumfów zdąży w sobie mieścić, jest
rezultatem takich samych obojętnych praw, które stworzyły wybuchające
gwiazdy, i że – dobre czy złe – są one w ostatecznym rozrachunku darem,
cudem, który w jakiś sposób wynika ze sterylnych równań rządzących
naszym światem.

***

Choć idee Arystotelesa zdominowały myślenie o świecie przyrody do czasów


Newtona, z biegiem lat wielu obserwatorów podnosiło wątpliwości co do
jego teorii. Rozważmy na przykład ideę, że obiekty nieporuszające się swoim
naturalnym ruchem będą się przemieszczać tylko wtedy, gdy działa na nie
siła. Sam Arystoteles zdawał sobie sprawę, że rodzi to pytanie o to, co
napędza strzałę, oszczep czy jakikolwiek inny pocisk po początkowym
pchnięciu. Jego wyjaśnienie głosiło, że z uwagi na fakt, iż przyroda „boi się”
próżni, cząsteczki powietrza poruszają się za pociskiem po początkowym
pchnięciu i popychają go przez całą drogę. Wydaje się, że Japończycy
z powodzeniem zaadaptowali tę ideę do upychania pasażerów w wagonach
tokijskiego metra, ale nawet sam Arystoteles był dość obojętny wobec swojej
teorii. Jej słabość stała się bardziej oczywista niż kiedykolwiek wcześniej,
gdy upowszechnienie dział w XIV wieku sprawiło, że idea cząsteczek
powietrza pędzących za każdym ciężkim pociskiem artyleryjskim, by
popychać je przez całą drogę, zaczęła wydawać się absurdalna.
Równie ważne jest to, że żołnierzy odpalających te działa niewiele
obchodziło to, czy to cząsteczki powietrza, czy też może maleńkie,
niewidzialne nimfy popychają wystrzeliwane przez nich pociski. Chcieli
natomiast wiedzieć, po jakim torze będą się poruszać odpalane przez nich
kule, a w szczególności czy koniec tego toru znajdować się będzie gdzieś
możliwie blisko głowy wroga. Ta rozbieżność stanowi ilustrację
rzeczywistego rozziewu między Arystotelesem i tymi, którzy mieli później
nazywać się naukowcami: kwestie takie jak tor pocisku – jego prędkość
i położenie w różnych momentach – były dla Arystotelesa nieinteresujące.
Ale jeśli chce się stosować prawa fizyki do formułowania przewidywań, to te
kwestie zyskują zasadnicze znaczenie. Tak więc nauki, które później
zastąpiły fizykę Arystotelesa, te, które umożliwiły w końcu – między innymi
– obliczenie toru pocisku armatniego, zajmowały się ilościowymi
szczegółami procesów zachodzących w świecie – mierzeniem sił, prędkości
i wielkości przyspieszenia – a nie celem albo filozoficznymi racjami tych
procesów.
Arystoteles wiedział, że jego fizyka nie jest doskonała. Pisał: „Jeśli przy
bliższym wglądzie w naszą pracę dojdziecie do wniosku, że wkład ten, który
wyrósł ze wspomnianych założeń, w porównaniu z innymi, w długiej tradycji
rozwijającymi się badaniami, wypadł dobrze, wobec tego wam wszystkim
względnie naszym słuchaczom wypada tylko pozostać wyrozumiałymi
w stosunku do braków tej teorii, a za nowe, które w niej tkwi, należy się
szczera wdzięczność”124. Arystoteles daje tu wyraz uczuciom, które
podzielać będzie później większość geniuszy fizyki. Myślimy o nich,
o Newtonach i Einsteinach, jako wszystkowiedzących i pewnych swojej
wiedzy, a nawet aroganckich pod tym względem. Jak jednak zobaczymy,
podobnie jak Arystoteles byli oni niepewni w odniesieniu do wielu rzeczy
i tak jak on mieli świadomość tej niepewności.

***

Arystoteles zmarł w 322 roku p.n.e. w wieku sześćdziesięciu dwóch lat


najwyraźniej z powodu dolegliwości żołądkowych. Rok wcześniej uciekł
z Aten, kiedy ich promacedoński rząd został obalony po śmierci jego
dawnego ucznia Aleksandra. Choć Arystoteles spędził dwanaście lat
w Akademii Platona, zawsze czuł się outsiderem w Atenach. O tym mieście
pisał: „co innego jest odpowiednie dla przybysza niż dla obywatela; trudno
jest tu pozostać”125. Jednak wraz ze śmiercią Aleksandra kwestia, czy
pozostać w Atenach, stała się zasadniczym problemem, ponieważ pojawiły
się mocne resentymenty skierowane przeciwko wszystkim, którzy byli
związani z macedońskim władcą, a Arystoteles zdawał sobie sprawę, że
politycznie umotywowane stracenie Sokratesa stworzyło precedens, według
którego kielich cykuty był silnym argumentem obalającym każdy argument
filozoficzny. Arystoteles, który zawsze był głębokim myślicielem, uznał, że
lepiej jest uciekać, niż ryzykować glorię męczennika. Dla swojej decyzji
podał wzniosłą rację – ustrzec Ateńczyków przed ponownym zgrzeszeniem
„przeciwko filozofii”126 – jednak sama decyzja, podobnie jak podejście
filozofa do życia w ogóle, była bardzo praktyczna.
Po śmierci Arystotelesa jego idee były przekazywane przez kilka pokoleń
uczniów w Liceum i przez innych uczonych, którzy pisali komentarze do
jego dzieł. Zamarły, wraz z całym nauczaniem, w początkowym okresie
średniowiecza, ale w szczytowym okresie Arystoteles zyskał na znaczeniu
wraz z filozofami arabskimi, od których dowiedzieli się o nim późniejsi
uczeni zachodni. Z pewnymi modyfikacjami jego myśl w końcu stała się
oficjalną filozofią Kościoła rzymskokatolickiego. A zatem przez następne
dziewiętnaście stuleci badanie przyrody oznaczało badanie Arystotelesa.
Widzieliśmy, jak nasz gatunek rozwinął zarówno mózg pozwalający mu
stawiać pytania, jak i narzędzia – pismo, matematykę i ideę praw – za
pomocą których zaczął udzielać na nie odpowiedzi. Wraz z Grekami, ucząc
się wykorzystywać rozum do analizowania kosmosu, dotarliśmy do wybrzeży
nowego wspaniałego świata nauki. Był to zaledwie początek większej
przygody.

106 Daniel C. Snell, Life in the Ancient Near East, Yale University Press, New Haven
1997, s. 140–141.

107 A.A. Long, The Scope of Early Greek Philosophy, w: The Cambridge Companion to
Early Greek Philosophy, red. A.A. Long, Cambridge University Press, Cambridge 1999.

108 Albert Einstein do Maurice’a Solovine’a, 30 marca 1952 r., w: Letters to Solovine,
Philosophical Library, New York 1987, s. 117.

109 Albert Einstein, Fizyka a rzeczywistość, w: Pisma filozoficzne, przeł. K.


Napiórkowski, Wydawnictwo IFiS PAN, Warszawa 1999, s. 124.

110 Will Durant, The Life of Greece, Simon and Schuster, Nowy Jork 1939, s. 134–140;
James E. McClellan III, Harold Dorn, Science and Technology in World History, wyd. 2,
Johns Hopkins University Press, Baltimore 2006, s. 56–59.

111 Herodot, Dzieje, przeł. S. Hammer, Czytelnik, Warszawa 2003, s. 73–74 (przyp.
tłum.).

112 Adelaide Glynn Dunham, The History of Miletus: Down to the Anabasis of
Alexander, University of London Press, Londyn 1915.

113 Will Durant, The Life of Greece, op. cit., s. 136–137.


114 Rainer Maria Rilke, Listy do młodego poety, przeł. J. Nowotniak, Czuły
Barbarzyńca, Warszawa 2010.

115 Will Durant, The Life of Greece, op. cit., s. 161–166; Peter Gorman, Pythagoras: A
Life, Routledge and Kegan Paul, Londyn 1979.

116 Carl Huffman, Pythagoras, Stanford Encyclopedia of Philosophy, jesień 2011,


dostęp: 28 października 2014 r., http://plato.stanford.edu/entries/pythagoras.

117 James E. McClellan III, Harold Dorn, Science and Technology, op. cit., s. 73–76.

118 Później uczniów nacierano oliwą. Zawsze sądziłem, że zaproponowanie takiej opcji
byłoby łatwym sposobem na zwiększenie mojej popularności wśród studentów, ale –
niestety – prawdopodobnie przyniosłoby przeciwny skutek ze strony administracji
uniwersyteckiej.

119 Daniel Boorstin, Poszukiwacze. Dzieje ludzkich poszukiwań sensu świata, przeł. M.
Stopa, Książka i Wiedza, Warszawa 2001, s. 72.

120 Daniel Boorstin, Odkrywcy. Dzieje ludzkich odkryć i wynalazków, przeł. M. Stopa,
Grupa Wydawnicza Bertelsmann Media, Warszawa 2001, s. 297.

121 Daniel Boorstin, Poszukiwacze, op. cit., s. 63.

122 Ibidem.

123 Ibidem, s. 64.

124 Zob. George J. Romanes, Aristotle as a Naturalist, „Science”, nr 17 (6 marca 1891


r.), s. 128–133. [Arystoteles, O dowodach sofistycznych, 34, 184 b, w: Arystoteles, Topiki.
O dowodach sofistycznych, przeł. K. Leśniak, Państwowe Wydawnictwo Naukowe,
Warszawa 1978, s. 313 (przyp. tłum.)].

125 Daniel Boorstin, Poszukiwacze, op. cit., s. 64.

126 Aristotle, The Internet Encyclopedia of Philosophy, dostęp: 7 listopada 2014 r.,
http://www.iep.utm.edu.
Część II

Nauki

Dogmaty spokojnej przeszłości są nieadekwatne […] musimy więc


myśleć i działać na nowo.
Abraham Lincoln, doroczne orędzie,
1 grudnia 1862 roku
6.

Nowa droga do rozumu

Miałem niezwykle wzbogacające doświadczenie współpracy przy dwóch


książkach z przyjaciółmi – fizykiem Stephenem Hawkingiem
i przewodnikiem duchowym Deepakiem Choprą. Ich światopoglądy nie
mogłyby się bardziej różnić, gdyby egzystowali w różnych wszechświatach.
Moja wizja życia jest bardzo podobna do wizji Stephena – jest to wizja
naukowca, natomiast zupełnie inna jest u Deepaka i prawdopodobnie właśnie
dlatego wybraliśmy jako tytuł naszej książki Wojna światopoglądów, a nie
Czyż to nie cudowne, jak bardzo się we wszystkim zgadzamy?
Deepak z pasją podchodzi do swoich przekonań, a w czasie, który
spędziliśmy na wspólnych podróżach, zawsze próbował mnie nawrócić
i kwestionował moje podejście do rozumienia świata. Nazywał je
redukcjonistycznym, ponieważ jestem przekonany, że matematyczne prawa
fizyki mogą w ostatecznym rozrachunku wyjaśnić wszystko w przyrodzie –
w tym istoty ludzkie. W szczególności, jak już napisałem, jestem
przekonany, podobnie jak większość dzisiejszych naukowców, że wszystko –
znów, w tym również my – składa się z atomów i cząstek elementarnych
materii, które oddziałują między sobą za pomocą czterech podstawowych sił
natury, i że jeśli zrozumie się, jak to wszystko działa, można – przynajmniej
w ogólnej zasadzie – wyjaśnić wszystko, co się dzieje w świecie. W praktyce
oczywiście nie mamy ani wystarczająco dużo informacji o naszym otoczeniu,
ani odpowiednio potężnego komputera, żeby wykorzystać nasze
fundamentalne teorie do przeanalizowania zjawisk takich jak ludzkie
zachowanie, tak więc pytanie, czy umysł Deepaka jest kierowany przez
prawa fizyki, musi pozostać otwarte.
W zasadzie nie sprzeciwiam się temu, że Deepak charakteryzuje mnie jako
redukcjonistę, ale wzdrygnąłem się, gdy to powiedział, ponieważ sposób,
w jaki to zrobił, sprawił, że poczułem się zakłopotany i zmuszony do obrony,
jak gdyby uduchowiona osoba nie mogła mieć takich przekonań, jakie mam
ja. W istocie na spotkaniach zwolenników Deepaka czasami czuję się jak
ortodoksyjny rabin na zgromadzeniu producentów wieprzowiny. Zawsze
zadawano mi pytania przewodnie takie jak: „Czy twoje równania mówią ci,
czego doświadczam, kiedy patrzę na obraz Vermeera albo słucham symfonii
Beethovena?”. Albo: „Jeśli umysł mojej żony jest naprawdę zarówno
cząstkami, jak i falami, to jak wyjaśnisz jej miłość do mnie?”. Musiałem
przyznać, że nie umiem wyjaśnić jej miłości do niego. Ale znów – nie umiem
wyjaśnić żadnej miłości przy użyciu równań. Dla mnie jest to bezcelowe.
Jako narzędzie do zrozumienia świata fizycznego, nawet jeśli nie naszego
doświadczenia mentalnego (przynajmniej jeszcze nie), zastosowanie równań
matematycznych przyniosło bowiem bezprecedensowe sukcesy.
Być może nie potrafimy przewidzieć pogody na przyszły tydzień, śledząc
ruch każdego atomu i stosując podstawowe zasady fizyki atomowej
i nuklearnej, ale mamy naukę o meteorologii, która wykorzystuje modele
matematyczne wyższego poziomu i nie jest zła w przewidywaniu pogody na
jutro. Podobnie mamy nauki stosowane, które badają ocean, światło
i elektromagnetyzm, własności materiałów, chorób i dziesiątki innych
aspektów codziennego świata w sposób pozwalający nam na wykorzystanie
naszej wiedzy do niezwykłych celów praktycznych, o których nie śniono aż
do ostatnich kilku stuleci. Dziś, przynajmniej wśród naukowców, panuje
niemal powszechna zgoda co do ważności matematycznego podejścia do
świata fizycznego. Jednak potrzeba było bardzo długiego czasu, żeby taki
pogląd przeważył.
Akceptacja nowoczesnej nauki jako systemu metafizycznego opartego na
idei, że przyroda zachowuje się zgodnie z pewnymi regularnościami, została
zapoczątkowana przez Greków; ale nauka osiągnęła swój pierwszy
przekonujący sukces w wykorzystywaniu tych praw dopiero w XVII wieku.
Przejście od idei filozofów takich jak Tales, Pitagoras i Arystoteles do
koncepcji Galileusza i Newtona było ogromnym skokiem. Jednak nie
musiało to zająć dwóch tysięcy lat.

***
Pierwszą wielką przeszkodą na drodze do przyjęcia greckiego dziedzictwa
i oparcia się na nim był podbój Grecji w 146 roku p.n.e. i Mezopotamii w 64
roku p.n.e. przez Rzymian. Powstanie Rzymu zapoczątkowało upadek
zainteresowania filozofią, matematyką i naukami, i stan ten trwał przez
stulecia – nawet wśród greckojęzycznej elity intelektualnej – ponieważ
praktycznie myślący Rzymianie przywiązywali niewielką wagę do tych
dziedzin badań. Uwaga sformułowana przez Cycerona wyraża w elegancki
sposób rzymską pogardę dla rozważań teoretycznych: „Grecy – stwierdził –
niezwykle poważali geometrię; w związku z tym nic nie poczyniło u nich
wspanialszych postępów niż matematyka. My jednak przyjęliśmy jako
granicę tej sztuki jej użyteczność w mierzeniu i liczeniu”127. I istotnie,
w ciągu trwającego mniej więcej dwa tysiące lat istnienia republiki
rzymskiej, a później jej następcy – imperium – Rzymianie przedsięwzięli
ogromne i imponujące projekty inżynieryjne, które były niewątpliwie zależne
od mierzenia i liczenia, ale o ile nam wiadomo, nie wydali żadnego
wybitnego matematyka. Jest to zaskakujący fakt, dowodzący jednocześnie,
jak ważny jest wpływ kultury (lub jego brak) na rozwój matematyki i nauki.
Choć Rzym nie zapewnił sprzyjającego środowiska dla nauki, po upadku
Zachodniego Cesarstwa Rzymskiego w 476 roku n.e. sprawy wyglądały
jeszcze gorzej. Miasta skurczyły się, powstał system feudalny,
chrześcijaństwo zdominowało Europę, centrami życia intelektualnego stały
się wiejskie klasztory, a później szkoły katedralne, co oznaczało, że uczoność
skoncentrowana była na kwestiach religijnych, a badania przyrody uznawano
za błahe albo pozbawione wartości128. W końcu intelektualne dziedzictwo
Greków zostało utracone dla świata zachodniego.
Na szczęście dla nauki w świecie arabskim muzułmańska klasa rządząca
odnalazła wartość w greckim nauczaniu. Nie oznacza to, że dążyli oni do
wiedzy dla niej samej – że ideologia islamska dopuszczała taką postawę
bardziej niż chrześcijańska. Natomiast zamożni arabscy patroni byli chętni do
finansowania przekładów greckich dzieł naukowych na arabski
w przekonaniu, że nauka grecka jest użyteczna. I istotnie, przez sto lat129
średniowieczni islamscy naukowcy poczynili wielkie postępy w praktycznej
optyce, astronomii, matematyce i medycynie, prześcigając Europejczyków,
których własna tradycja intelektualna pogrążona była w drzemce130.
Z kolei w XIII i XIV stuleciu, gdy Europejczycy przebudzili się ze swojego
długiego letargu, naukę w świecie islamskim dotknął regres131. Wydaje się,
że w grę wchodziło kilka czynników. Przede wszystkim konserwatywne siły
religijne narzuciły jeszcze węższe rozumienie praktycznej użyteczności, którą
uznawano za jedyne akceptowalne uzasadnienie badań naukowych. Aby
nauka rozkwitała, społeczeństwo musi również prosperować i oferować
możliwości prywatnego albo rządowego patronatu, ponieważ większość
naukowców nie ma zasobów, by utrzymać się ze swojej pracy na wolnym
rynku. Jednak pod koniec średniowiecza świat arabski stał się celem ataku ze
strony sił zewnętrznych, od Dżyngis-chana po krzyżowców, i był również
targany przez wewnętrzną walkę frakcyjną. Zasoby, które można było kiedyś
przeznaczyć na rozwój sztuki i nauki, zostały obecnie przekierowane na
prowadzenie wojny – i walkę o przetrwanie.
Innym powodem, dla którego uprawianie nauki znalazło się w stagnacji,
było to, że szkoły, które zdominowały znaczący wycinek życia
intelektualnego w świecie arabskim, jej nie ceniły. Były to fundacje
charytatywne – medresy – utrzymywane z datków religijnych, których
fundatorzy i dobroczyńcy traktowali naukę podejrzliwie. W rezultacie
wszelkie kształcenie musiało się koncentrować na religii, z wykluczeniem
filozofii i nauki132. Wszelkie nauczanie podejrzanych przedmiotów znalazło
się więc poza tymi szkołami. Wobec braku wspierających albo skupiających
ich instytucji naukowcy znaleźli się w izolacji od siebie, co stworzyło wielką
barierę dla wyspecjalizowanego nauczania i badań naukowych.
Naukowcy nie mogą działać w intelektualnej próżni, nawet najwięksi
zyskują ogromnie na interakcji z innymi badaczami ze swojej dziedziny.
Brak kontaktów między badaczami w świecie islamskim uniemożliwiał
wymianę idei niezbędną dla postępu. Również bez zbawczych korzyści ze
wzajemnej krytyki trudno było kontrolować mnożenie się teorii, którym
brakowało empirycznego ugruntowania, i trudno było uzyskać krytyczną
masę poparcia dla tych naukowców i filozofów, których poglądy
kwestionowały konwencjonalną mądrość133.
Coś podobnego do tego rodzaju intelektualnego zduszenia nastąpiło
w Chinach, kolejnej wielkiej cywilizacji, która mogła stworzyć nowoczesną
naukę przed Europejczykami134. Istotnie, Chiny miały populację liczącą
około 100 milionów ludzi w dojrzałym średniowieczu (1200–1500), co mniej
więcej dwukrotnie przewyższało populację Europy. Jednak system
edukacyjny w Chinach okazał się, podobnie jak ten w świecie islamskim,
znacznie gorszy od europejskiego, przynajmniej w odniesieniu do nauki. Był
on ściśle kontrolowany i skoncentrowany na nauczaniu literatury
i moralności, podczas gdy na innowacje naukowe i kreatywność zwracano
niewielką uwagę. Ta sytuacja pozostała właściwie niezmieniona od czasów
wczesnej dynastii Ming (ok. 1368 roku) aż do XX wieku. Podobnie jak
w świecie arabskim, osiągnięto jedynie umiarkowane postępy w nauce
(w przeciwieństwie do techniki), a i one nastąpiły wbrew systemowi
edukacyjnemu, a nie dzięki niemu. Myśliciele krytyczni wobec
intelektualnego status quo i próbujący stworzyć i usystematyzować narzędzia
intelektualne niezbędne do popchnięcia życia umysłowego naprzód byli
zniechęcani, podobnie jak zniechęcano do wykorzystywania danych jako
środków rozwoju wiedzy. Również w Indiach hinduski establishment
skoncentrowany na strukturze kastowej kładł nacisk na stabilność za cenę
postępu intelektualnego135. W rezultacie choć świat arabski, Chiny i Indie
wydały wielkich myślicieli w innych dziedzinach, nie wydały naukowców
odpowiadających tym, którzy na Zachodzie mieli stworzyć nowoczesną
naukę.

***

Ożywienie nauki w Europie rozpoczęło się pod koniec XI stulecia, kiedy


benedyktyński mnich Konstantyn Afrykańczyk zaczął przekładać starożytne
greckie traktaty medyczne z arabskiego na łacinę136. Podobnie jak w świecie
arabskim, motywacją do badania greckiej mądrości była jej użyteczność,
a wczesne przekłady rozpaliły apetyty na poznanie innych dzieł praktycznych
z zakresu medycyny i astronomii. Wówczas, w 1085 roku, podczas
chrześcijańskiej rekonkwisty w Hiszpanii całe biblioteki arabskich ksiąg
wpadły w ręce chrześcijan i przez następne dwie dekady wielka liczba z nich
została przetłumaczona, po części dzięki hojnemu finansowaniu przez
zainteresowanych miejscowych biskupów.
Trudno sobie wyobrazić wpływ tych nowo dostępnych dzieł. To tak, jak
gdyby współcześni archeolodzy natknęli się na tabliczki ze starożytnymi
tekstami babilońskimi, przełożyli je i odkryli, że zawierają one
zaawansowane teorie naukowe, znacznie bardziej wyrafinowane niż nasze
własne. W ciągu następnych kilku stuleci sponsorowanie przekładów stało
się symbolem statusu wśród społecznej i handlowej elity renesansu.
W rezultacie odkryta wiedza rozprzestrzeniała się poza Kościół i stała się
swego rodzaju walutą, kolekcjonowaną tak jak bogacze kolekcjonują dziś
dzieła sztuki – i istotnie, bogacze wystawiali na pokaz swoje książki i mapy,
podobnie jak ktoś może dziś wystawiać na pokaz rzeźbę albo obraz. W końcu
nowa wartość przypisywana wiedzy niezależnie od jej wartości utylitarnej
doprowadziła do docenienia na nowo badań naukowych137. Z biegiem czasu
podważyło to posiadanie przez Kościół prawdy „na własność”.
W konkurencji do prawdy przekazywanej przez pisma i tradycję kościelną
pojawiła się teraz rywalizująca prawda: prawda ujawniana przez przyrodę.
Jednak samo tłumaczenie i lektura antycznych greckich dzieł nie powoduje
„rewolucji naukowej”. To powstanie nowej instytucji – uniwersytetu – miało
naprawdę zmienić Europę138. Stał się on siłą napędową rozwoju nauki, jaką
dziś znamy, i miał utrzymać Europę w czołówce nauki przez wiele stuleci,
prowadząc do poczynienia największych przełomów w tym zakresie, jakie
kiedykolwiek widział świat.
Rewolucję w edukacji napędzała rosnąca zamożność i liczne możliwości
kariery dla dobrze wykształconych139. Miasta takie jak Bolonia, Paryż,
Padwa i Oksford zyskały reputację centrów nauczania, a zarówno studenci,
jak i nauczyciele licznie do nich ściągali. Nauczyciele otwierali kursy albo
niezależnie, albo pod auspicjami istniejącej szkoły. W końcu zorganizowali
się w dobrowolne stowarzyszenia wzorowane na gildiach kupieckich. Choć
jednak stowarzyszenia te nazywały się „uniwersytetami”, były na początku
zwykłymi związkami, nie posiadały nieruchomości i nie miały stałej
lokalizacji. Uniwersytety w sensie, w jakim je znamy, pojawiły się kilka
dziesięcioleci później – Bolonia w 1088 roku, Paryż około 1200 roku, Padwa
około 1222 roku i Oksford w 1250 roku. Miano się tam koncentrować na
naukach przyrodniczych, a nie na religii, badacze zaś mieli się gromadzić, by
współpracować ze sobą i intelektualnie wzajemnie się pobudzać140.
Nie oznacza to, że uniwersytet w średniowiecznej Europie był rajem.
Na przykład jeszcze w 1495 roku władze niemieckie widziały potrzebę, by
statut wprost zakazywał każdemu, kto był związany z uniwersytetem,
oblewania nowicjuszy moczem, a choć statut ten już nie obowiązuje, wciąż
wymagam od moich studentów, żeby się do niego stosowali. Profesorowie ze
swojej strony często nie mieli własnych sal wykładowych i byli zmuszeni do
wykładania w zajazdach, kościołach, a nawet domach publicznych. Co
gorsza, byli powszechnie opłacani przez swoich studentów, którzy mogli ich
również zatrudniać i zwalniać. Na uniwersytecie w Bolonii panowała również
inna dziwaczna różnica w stosunku do tego, co jest dziś normą: studenci
karali grzywną swoich profesorów za nieusprawiedliwioną nieobecność albo
spóźnienie, nie mówiąc o nieudzieleniu odpowiedzi na trudne pytania. A jeśli
wykład nie był interesujący albo postępował za wolno lub zbyt szybko,
szydzili i podnosili rwetes. Agresywne skłonności wymknęły się w Lipsku
spod kontroli w takim stopniu, że uniwersytet musiał wydać zarządzenie
zakazujące rzucania w profesorów kamieniami.
Pomimo tych praktycznych trudności europejskie uniwersytety w wielkim
stopniu umożliwiły postęp naukowy; po części z uwagi na sposób, w jaki
gromadziły ludzi, by dzielili się ideami i nad nimi debatowali. Naukowcy
mogą znieść rozpraszających ich studentów, którzy z nich szydzą, a nawet
oblanie od czasu do czasu moczem, ale obejść się bez niekończących się
seminariów akademickich – to nie do pomyślenia. Dziś większość postępów
w nauce wywodzi się z badań uniwersyteckich i tak musi być, ponieważ
właśnie tam trafia lwi udział finansowania badań podstawowych. Jednak
historycznie rzecz biorąc, równie ważna była rola uniwersytetu jako miejsca
gromadzącego umysły.
Rewolucja naukowa, która miała oddalić nas od arystotelizmu, zmieniła
nasze poglądy na przyrodę, a nawet społeczeństwo, i położyła podwaliny pod
to, kim jesteśmy dziś, rozpoczęła się – jak się często twierdzi – wraz
z heliocentryczną teorią Kopernika i osiągnęła swój punkt szczytowy
w fizyce Newtona. Jednak ten obraz jest nadmiernie uproszczony – choć
używam terminu „rewolucja naukowa” jako wygodnego skrótu, naukowcy,
którzy byli w nią zaangażowani, mieli wiele różnych celów i wiele
odmiennych przekonań, i z pewnością nie działali wspólnie, dążąc do
stworzenia nowego systemu myśli. Co jeszcze ważniejsze, zmiany, które
nazywa się „rewolucją naukową”, w rzeczywistości były stopniowe: wielcy
uczeni z lat 1550–1700, którzy wznieśli ową katedrę wiedzy i wśród których
najsłynniejszy był Newton, nie pojawili się znikąd. To średniowieczni
myśliciele z pierwszych uniwersytetów Europy wykonali ciężką pracę
wykopania pod nią fundamentów.
Największe z tych osiągnięć zostało dokonane przez grupę matematyków
z Merton College w Oksfordzie między 1325 i 1359 rokiem. Większość ludzi
zdaje sobie sprawę, przynajmniej niejasno, że to Grecy wymyślili ideę nauki
oraz że nowożytna nauka powstała w czasach Galileusza. Nauka
średniowieczna jednak nie cieszy się dużym uznaniem. A szkoda, ponieważ
średniowieczni uczeni dokonali zaskakujących postępów, mimo że żyli
w epoce, w której ludzie rutynowo oceniali prawdziwość stwierdzeń nie
wedle świadectw empirycznych, tylko wedle tego, jak dobrze wpasowywały
się one w istniejący wcześniej system przekonań opartych na religii –
w kulturze, która była wroga wobec nauki, jaką znamy dziś.
Filozof John Searle pisał o incydencie, który pokazuje zasadniczo
odmienne kategorie, w jakich my i myśliciele średniowieczni postrzegamy
świat. Opowiada o gotyckim kościele w Wenecji nazywanym Madonna del
Orto (Matki Boskiej z Sadu). Początkowo planowano kościół pod
wezwaniem św. Krzysztofa, ale podczas jego budowy znaleziono posąg
Matki Boskiej, który w tajemniczy sposób pojawił się w sadzie przy placu
budowy. Wezwanie zostało zatem zmienione, ponieważ założono, że posąg
spadł z nieba, które to zdarzenie uznano za cud. Wyjaśnienie nadnaturalne
nie budziło wówczas więcej wątpliwości, niż budziłoby dziś ziemskie
wyjaśnienie, jakie zazwyczaj łączymy z takim zdarzeniem. „Nawet jeśli
znaleziono by ją [statuę] w ogrodach Watykanu – pisze Searle – kościelne
autorytety nie twierdziłyby, że ma niebiańskie pochodzenie”141.
O osiągnięciach średniowiecznych naukowców wspomniałem kiedyś na
przyjęciu. Powiedziałem, że byłem pod sporym wrażeniem ich pracy, jeśli
wziąć pod uwagę ówczesną kulturę i trudności, w obliczu których stawali.
My, dzisiejsi naukowcy, narzekamy na „marnowanie” czasu na
wnioskowanie o granty, ale przynajmniej mamy ogrzewane gabinety i nie
musimy łapać kotów na obiad, kiedy produkcja rolnicza naszego miasta
upada142. Nie wspominając już o konieczności uciekania przed czarną
śmiercią, która przyszła w 1347 roku i zabiła połowę ludności.
Na przyjęciu było mnóstwo pracowników akademickich, zatem osoba,
z którą rozmawiałem, nie zareagowała na moje rozważania w taki sposób,
w jaki zareagowałaby większość ludzi – przypominając sobie nagle, że musi
iść dolać sobie wina. Zamiast tego powiedziała z niedowierzaniem:
„Średniowieczni naukowcy? Ależ proszę cię! Operowali pacjentów bez
znieczulenia. Sporządzali napoje lecznicze z soku sałaty, cykuty i żółci
knura. A czy nawet sam wielki Tomasz z Akwinu nie wierzył
w czarownice?”. Tu mnie pokonała. Nie miałem o tym pojęcia. Przyjrzałem
się temu wszystkiemu później i musiałem przyznać rację mojemu rozmówcy.
Jednak pomimo swej najwyraźniej encyklopedycznej wiedzy o pewnych
aspektach średniowiecznej medycyny nie słyszał o powstaniu bardziej
trwałych koncepcji z dziedziny nauk fizycznych, które wydawały mi się tym
bardziej cudowne, im bardziej uświadamiałem sobie stan wiedzy
średniowiecznej na innych polach. Choć muszę przyznać, że nie chciałbym
być leczony przez średniowiecznego lekarza, który przybyłby do dzisiejszego
świata w wehikule czasu, to podtrzymuję moje zdanie w odniesieniu do
postępu, jaki średniowieczni uczeni poczynili w naukach fizycznych.
Biblioteka Merton College w Oksfordzie (Wnętrze Merton College Library z: J.
Wells, The Charm of Oxford, Simpkin, Marshall, Hamilton, Kent & Co., Londyn
1920, dzięki uprzejmości fromoldbooks.org)

Czego dokonali ci zapomniani herosi fizyki? Przede wszystkim spośród


wszystkich rodzajów zmiany rozważanych przez Arystotelesa wybrali
zmianę położenia – to znaczy ruch – jako najbardziej fundamentalną. Była to
głęboka i prorocza obserwacja, ponieważ większość typów zmian, które
obserwujemy, jest charakterystyczna dla biorących w nich udział substancji –
gnicie mięsa, parowanie wody, spadanie liści z drzew. W rezultacie nie
przyniosłyby wiele naukowcom poszukującym uniwersaliów. Prawa ruchu
natomiast są prawami fundamentalnymi, które stosują się do wszelkiej
materii. Istnieje jednak jeszcze jeden powód, dla którego prawa ruchu są
szczególne: na poziomie submikroskopowym stanowią przyczynę wszystkich
zmian makroskopowych, jakich doświadczamy w życiu. Jest tak dlatego, jak
obecnie wiemy – jak spekulowali niektórzy z greckich atomistów – że wiele
rodzajów zmiany, których doświadczamy w codziennym życiu, można
w ostatecznym rozrachunku zrozumieć, analizując prawa ruchu działające na
podstawowych elementach składowych przedmiotów materialnych: atomach
i cząsteczkach.
Choć uczeni z Merton College nie odkryli ogólnych praw ruchu,
przeczuwali, że takie prawa istnieją, i przygotowali grunt dla innych badaczy,
którzy mieli je odkryć stulecia później. W szczególności stworzyli
rudymentarną teorię ruchu, która nie miała nic wspólnego z nauką o innych
typach zmiany – i nic wspólnego z ideą celu.

***

Zadanie, jakiego podjęli się badacze z Merton College, nie było łatwe, jeśli
wziąć pod uwagę, że matematyka potrzebna do nawet najprostszych analiz
ruchu pozostawała wciąż w najlepszym razie prymitywna. Jednak istniała
inna poważna przeszkoda, a przezwyciężenie jej okazało się jeszcze
większym tryumfem niż odniesienie sukcesu za pomocą ubogiej matematyki
z tej epoki, ponieważ była to nie bariera techniczna, lecz ograniczenie
narzucone przez sposób myślenia ludzi o świecie: uczonych z Merton
College, tak jak Arystotelesa, krępował światopogląd, w którym czas
odgrywał głównie jakościową, a nie ilościową rolę.
My, wychowani w kulturze świata rozwiniętego, doświadczamy upływu
czasu w sposób, którego ludzie z wcześniejszych epok by nie uznali. Przez
większą część istnienia ludzkości czas był bardzo elastyczną ramą
odniesienia, która rozciągała się albo kurczyła w całkowicie prywatny
sposób. Nauczenie się myślenia o czasie jako innym niż nieodłącznie
subiektywnym było trudnym i mającym dalekosiężne konsekwencje krokiem
naprzód, równie wielkim postępem dla nauki jak rozwój języka albo
uświadomienie sobie, że świat można zrozumieć za pomocą rozumu.
Na przykład poszukiwanie regularności w czasowym umiejscowieniu
wydarzeń – wyobrażenie sobie, że kamień zawsze potrzebuje jednej sekundy,
żeby spaść o 4,9 metra – było rewolucyjną koncepcją w epoce badaczy
z Merton College. Przede wszystkim nikt nie miał pojęcia, jak mierzyć czas
z jakąkolwiek precyzją, a pojęcie minut i sekund było właściwie nieznane143.
W istocie pierwszy zegar do odliczania godzin o równej długości został
wynaleziony dopiero w latach trzydziestych XIV wieku. Przedtem dzień,
niezależnie jak długi, dzielono na dwanaście równych części, co oznaczało,
że „godzina” mogła być ponad dwa razy dłuższa w czerwcu niż w grudniu
(na przykład w Londynie jej długość zmieniała się z 38 do 82 dzisiejszych
minut). To, że nikogo to nie kłopotało, odzwierciedla fakt, iż ludzie mogli
czynić bardzo niewielki użytek z czegoś innego niż niejasne i jakościowe
pojęcie upływu czasu. W świetle tego idea prędkości – drogi pokonywanej
w jednostce czasu – musiała się wydawać rzeczywiście dziwaczna.
Jeśli wziąć pod uwagę wszystkie przeszkody, wydaje się cudem, że
badaczom z Merton College udało się stworzyć pojęciowe fundamenty
badania ruchu. A jednak posunęli się aż do sformułowania pierwszej
w dziejach ilościowej reguły ruchu, „reguły mertonowskiej”144: Droga
pokonana przez obiekt, który przyspiesza równomiernie od stanu spoczynku,
równa się drodze pokonywanej przez obiekt poruszający się przez taki sam
odstęp czasu z prędkością równą połowie najwyższej prędkości obiektu
przyspieszającego.
Trzeba przyznać, że to skomplikowane. Choć od dawna była mi ona dobrze
znana, kiedy patrzę na nią teraz, muszę przeczytać ją dwa razy, żeby nadążyć
ze zrozumieniem, co głosi. Jednak zawiłość sformułowania tej reguły służy
pewnemu celowi, ilustruje bowiem, o ile łatwiejsze stało się uprawianie
nauki, gdy naukowcy nauczyli się wykorzystywać – i wynajdywać, jeśli było
to konieczne – właściwe równania matematyczne.
W dzisiejszym języku matematyki drogę pokonaną przez obiekt, który
przyspiesza równomiernie od stanu spoczynku, można zapisać jako ½ a · t2.
Druga wartość, droga pokonywana przez obiekt poruszający się przez taki
sam odstęp czasu z prędkością równą połowie najwyższej prędkości obiektu
przyspieszającego, to po prostu ½ (a · t) · t. Tak więc powyższe
sformułowanie reguły mertonowskiej przełożone na wzór matematyczny
zyskuje postać: ½ a · t2 = ½ (a · t) · t. Jest ona nie tylko bardziej zwięzła, ale
też sprawia, że prawdziwość tego twierdzenia staje się natychmiast widoczna,
przynajmniej dla każdego, kto zna prealgebrę.
Jeśli macie to już dawno za sobą, spytajcie szóstoklasistę – zrozumie.
W istocie przeciętny dzisiejszy szóstoklasista zna znacznie lepiej matematykę
niż najbardziej zaawansowany czternastowieczny naukowiec. Czy
analogiczne stwierdzenie będzie prawdziwe w odniesieniu do dzieci
z XXVIII wieku i naukowców z XXI wieku, jest interesującą kwestią.
Z pewnością ludzkie umiejętności w zakresie matematyki od stuleci
nieustannie się rozwijały.
Zaczerpniętym z życia codziennego przykładem tego, co głosi reguła
mertonowska, jest zdanie: Jeśli będziesz równomiernie przyspieszał swoim
samochodem od zera do stu kilometrów na godzinę, przebędziesz taką samą
drogę, jak gdybyś jechał pięćdziesiątką przez cały ten czas. Przypomina to
trochę moją matkę zrzędzącą, że jeżdżę za szybko, ale choć reguła
mertonowska stanowi dziś część zdroworozsądkowej wiedzy, uczeni
z Merton College nie byli w stanie jej dowieść. Jednak reguła ta narobiła
sporego zamieszania w świecie intelektualnym i szybko przeniknęła do
Francji, Włoch i innych części Europy145. Dowód pojawił się niewiele
później po drugiej stronie Kanału, gdzie francuscy uczeni podobni do tych
z Merton College pracowali na Uniwersytecie Paryskim. Jego autorem był
Mikołaj z Oresme (1320–1382), filozof i teolog, który z czasem został
wyniesiony do godności biskupa Lisieux. Aby dojść do swojego dowodu,
Mikołaj z Oresme musiał zrobić to, co fizycy powtarzali przez całą historię:
wynaleźć nową matematykę.
Jeśli matematyka jest językiem fizyki, to brak właściwej matematyki
sprawia, że fizyk nie jest w stanie mówić ani nawet rozumować na dany
temat. Złożona i trudna matematyka, jakiej Einstein potrzebował do
sformułowania ogólnej teorii względności, może być powodem, dla którego
pewnego razu doradził młodej uczennicy: „Nie martw się z powodu swoich
problemów z matematyką: mogę cię zapewnić, że ja mam jeszcze
większe”146. Albo, jak ujął to Galileusz: „nie można jej [księgi przyrody]
zrozumieć, jeśli się najpierw nie nauczy rozumieć języka i odróżniać liter,
jakimi została zapisana. Zapisana zaś została w języku matematyki, a jej
litery to trójkąty, koła i inne figury geometryczne, bez pomocy których
niepodobna pojąć z niej ludzkim umysłem ani słowa; bez nich jest to próżne
błądzenie po mrocznym labiryncie”147.
Rzucając światło na ten mroczny labirynt, Mikołaj z Oresme wynalazł
pewnego rodzaju diagram mający przedstawiać fizykę reguły mertonowskiej.
Choć nie rozumiał swoich diagramów w taki sam sposób, jak rozumiemy je
dziś, można je uważać za pierwsze geometryczne przedstawienie ruchu
fizycznego – a tym samym za pierwszy wykres.
Zawsze wydawało mi się dziwne, że wiele osób wie, kto wynalazł rachunek
różniczkowy, choć mało kto go kiedykolwiek używał, natomiast niewielu
ludzi wie, kto wynalazł wspomniany wykres, choć wszyscy go używają.
Przypuszczam, że jest tak dlatego, iż dziś idea wykresów wydaje się
oczywista. Jednak w czasach średniowiecza pomysł przedstawiania ilości za
pomocą linii i form w przestrzeni był uderzająco oryginalny i rewolucyjny,
może nawet nieco szalony.
Aby pokazać, jakie trudności wiążą się z osiągnięciem choćby prostej
zmiany w sposobie, w jaki ludzie myślą, lubię przypominać historię innego
szalonego wynalazku, o zdecydowanie niematematycznym charakterze:
samoprzylepnych karteczek Post-it do sporządzania notatek, tych małych
kawałków papieru z warstwą kleju wielokrotnego użytku z jednej strony,
która pozwala na łatwe przyklejanie ich do różnych rzeczy. Karteczki Post-it
zostały wymyślone w 1974 roku przez Arta Frya, inżyniera chemika z 3M
Company. Załóżmy jednak, że wtedy ich nie wynaleziono i że dziś
przychodzę do Ciebie, Czytelniku, jako inwestora, z tym pomysłem
i prototypem karteczek do notowania. Z pewnością uznasz ten wynalazek za
żyłę złota i chwycisz okazję, żeby zainwestować, prawda?
Niezależnie jak bardzo dziwne może się to wydać, większość ludzi
prawdopodobnie by tak nie zrobiła, czego dowodzi fakt, że kiedy Fry
zaprezentował swój pomysł specjalistom od marketingu w 3M – firmie
znanej zarówno ze swoich materiałów klejących, jak i innowacji – nie byli
oni entuzjastycznie nastawieni, raczej przekonani, że trudno będzie im
sprzedać coś, co kosztowałoby bardzo dużo w porównaniu z kawałkiem
papieru, który miało zastąpić. Dlaczego nie popędzili po skarb, który
oferował im Fry148? Ponieważ w epoce sprzed karteczek samoprzylepnych
wyobrażenie, że można chcieć przyklejać kawałki papieru pokryte słabym
klejem do różnych rzeczy, przekraczało ludzką wyobraźnię. A więc
wyzwaniem stojącym przed Arthurem Fryem było nie tylko wynalezienie
produktu, ale również zmiana sposobu myślenia ludzi. Jeśli była to żmudna
walka w wypadku karteczek samoprzylepnych, to można sobie wyobrazić
trudności, z jakimi mierzy się ktoś, gdy próbuje zrobić to samo w kontekście,
który naprawdę ma znaczenie.
Na szczęście Mikołaj z Oresme nie potrzebował karteczek
samoprzylepnych do swojego dowodu. Oto jak zinterpretowalibyśmy jego
argumenty. Na początku oznaczmy czas na osi poziomej, a prędkość na osi
pionowej. Załóżmy teraz, że obiekt, który mamy na myśli, startuje w czasie
zero i porusza się przez pewien czas ze stałą prędkością. Ten ruch
przedstawia linia pozioma. Jeśli zacieniuje się obszar pod tą linią, uzyska się
prostokąt. Natomiast stałe przyspieszenie przedstawia linia pod pewnym
kątem, ponieważ gdy rośnie czas, rośnie również prędkość. Jeśli zacieniuje
się obszar pod tą linią, uzyska się trójkąt.

Wykres przedstawiający regułę mertonowską (Autor: Derya Kadipasaoglu)

Obszar pod tymi liniami – zacieniowane obszary – przedstawia prędkość


pomnożoną przez czas, co daje drogę, jaką przebył obiekt. Dzięki
zastosowaniu tej analizy, jeśli wie się, jak obliczać pole powierzchni
prostokątów i trójkątów, łatwo jest dowieść ważności reguły mertonowskiej.
Jednym z powodów, dla których Oresme nie zyskał sławy, na jaką
zasługuje, jest to, że nie opublikował wielu swoich dzieł. W dodatku, choć
wyjaśniłem, jak interpretowalibyśmy jego dzieło dziś, rama pojęciowa, której
w rzeczywistości użył, nie była wcale tak szczegółowa i ilościowa, jak
opisałem, i niezmiernie różniła się od naszego współczesnego rozumienia
relacji między matematyką i ilościowymi wielkościami fizycznymi. To nowe
zrozumienie miało zrodzić się z serii innowacji dotyczących pojęć
przestrzeni, czasu, prędkości i przyspieszenia, które będą stanowić
najważniejszy wkład w naukę wielkiego Galileusza (1564–1642).

***

Choć średniowieczni uczeni na uniwersytetach XIII i XIV stulecia poczynili


postępy w rozwijaniu tradycji racjonalnej i empirycznej metody naukowej,
eksplozywny rozwój europejskiej nauki nie nastąpił natychmiast. Natomiast
to wynalazcy i inżynierowie przekształcili europejskie społeczeństwo
i kulturę w późnym średniowieczu europejskim, okresie pokrywającym się
z pierwszymi zalążkami renesansu, który trwał mniej więcej od XIV do XVII
stulecia.
Ci wczesnorenesansowi wynalazcy stworzyli pierwszą wielką cywilizację,
która nie była zasilana głównie wysiłkiem ludzkich mięśni. Koła wodne,
wiatraki, nowe rodzaje połączeń mechanicznych i inne urządzenia były
tworzone albo udoskonalane i wprowadzane do użycia na wsi. Zasilały
tartaki, młyny i różne inne pomysłowe maszyny. Ich techniczne innowacje
miały niewiele wspólnego z nauką teoretyczną, ale położyły fundamenty pod
późniejsze postępy przez wytworzenie nowego bogactwa, które pomogło
rozbudzić nauczanie i piśmienność, i dzięki promowaniu świadomości, że
zrozumienie przyrody może wspomóc kondycję ludzką149.
Przedsiębiorczy duch wczesnego renesansu doprowadził też do
wynalezienia technologii, która wywarła bezpośredni i znaczny wpływ na
późniejszą naukę, jak również na społeczeństwo w ogóle: prasy drukarskiej.
Choć Chińczycy stworzyli ruchome czcionki stulecia wcześniej – około 1040
roku – były one stosunkowo niepraktyczne z uwagi na używanie
piktogramów w piśmie chińskim, co rodziło potrzebę tworzenia tysięcy
różnych znaków. Jednak pojawienie się w Europie około 1450 roku
mechanicznego druku stosującego ruchome czcionki zmieniło wszystko.
Na przykład w 1483 roku za przygotowanie książki do druku wydawnictwo
Ripolego zażądało trzy razy więcej, niż wziąłby skryba za kopię książki. Po
przygotowaniu zaś Ripoli mógł wydrukować tysiąc albo więcej egzemplarzy,
podczas gdy skryba wytwarzał tylko jeden150. W rezultacie w ciągu zaledwie
kilku dekad wydrukowano więcej książek, niż skrybowie w Europie
wyprodukowali we wszystkich wcześniejszych stuleciach łącznie.
Prasa drukarska wzmocniła powstającą klasę średnią i zrewolucjonizowała
obieg myśli i informacji w całej Europie. Wiedza i informacja nagle stały się
dostępne dla znacznie szerszej grupy obywateli. W ciągu kilku lat
wydrukowane zostały pierwsze teksty matematyczne, a do 1600 roku
opublikowano ich niemal tysiąc151. W dodatku nastąpiła nowa fala
w odzyskiwaniu tekstów antycznych. Co równie ważne, ci, którzy głosili
nowe idee, nagle mieli znacznie większe forum, natomiast ci, którzy – tak jak
naukowcy – odnosili korzyści z drobiazgowego analizowania i rozwijania
idei innych, wkrótce zyskali znacznie większy dostęp do prac swoich
współpracowników.
W rezultacie tych zmian w społeczeństwie europejskim jego establishment
był mniej stały i jednolity niż w świecie islamskim, chińskim albo indyjskim.
Te społeczeństwa stały się sztywne i skupione na wąsko rozumianej
ortodoksji. Natomiast elita europejska była szarpana i rozrywana przez
konkurujące ze sobą interesy miasta i wsi, Kościoła i państwa, papieża
i cesarzy, jak również żądania nowej warstwy inteligencji i rosnący
konsumpcjonizm. W miarę jak społeczeństwo europejskie ewoluowało, jego
sztuki i nauka miały więcej swobody, by się zmieniać, i rzeczywiście się
zmieniały, co zrodziło nowe i bardziej praktyczne zainteresowanie
przyrodą152.
Zarówno w sztukach, jak i w naukach ten nowy nacisk na rzeczywistość
przyrodniczą stał się duszą renesansu. Sam termin „renesans” pochodzi
z francuskiego i oznacza „odrodzenie”, i istotnie, renesans stanowił nowy
początek zarówno w egzystencji fizycznej, jak i w kulturze: rozpoczął się we
Włoszech tuż po tym, jak czarna śmierć zabiła od jednej trzeciej do połowy
ludności Europy, a następnie rozprzestrzeniała się powoli, docierając na
północ Europy dopiero w XVI wieku.
W sztuce renesansowi rzeźbiarze, którzy uczyli się anatomii, i malarze,
którzy uczyli się geometrii, koncentrowali się na tworzeniu wierniejszych niż
wcześniej przedstawień rzeczywistości opartych na uważnej obserwacji.
Ludzkie postacie umieszczano teraz w naturalnym otoczeniu i z anatomiczną
dokładnością, a trójwymiarowość sugerowano dzięki wykorzystaniu
światłocienia i perspektywy linearnej. Postaci przedstawiane przez malarzy
okazywały realistyczne emocje, a ich twarze nie miały już płaskiego wyrazu
z innego świata, jak we wcześniejszej sztuce średniowiecznej. Zarazem
muzycy renesansowi studiowali akustykę, podczas gdy architekci analizowali
szczegółowo harmonijne proporcje budynków. A uczeni zainteresowani
filozofią naturalną – tym, co dziś nazywamy nauką – kładli nacisk na
gromadzenie danych i wyciąganie z nich wniosków, a nie stosowanie czystej
analizy logicznej, stronniczej z uwagi na pragnienie potwierdzenia
światopoglądu religijnego.
Leonardo da Vinci (1452–1519) prawdopodobnie najlepiej uosabia
naukowy i humanistyczny ideał tego okresu, który nie uznawał ostrego
oddzielenia nauki i sztuk pięknych. Naukowiec, inżynier i wynalazca, był
również malarzem, rzeźbiarzem, architektem i muzykiem. We wszystkich
swoich dążeniach Leonardo próbował zrozumieć świat ludzki i świat
przyrody dzięki szczegółowej obserwacji. Jego notatki i studia z zakresu
nauki i inżynierii zajmują ponad dziesięć tysięcy stron, natomiast jako malarz
nie zadowalał się jedynie obserwowaniem pozujących modeli, lecz studiował
anatomię i przeprowadzał sekcje ludzkich ciał. Tam, gdzie wcześniejsi uczeni
postrzegali przyrodę w kategoriach ogólnych cech jakościowych, Leonardo
i jego współcześni wkładali ogromny wysiłek w dostrzeganie doskonałych
elementów porządku przyrody – i kładli mniejszy nacisk na autorytet
zarówno Arystotelesa, jak i Kościoła.
To właśnie w takim klimacie intelektualnym pod koniec renesansu, w 1564
roku, w Pizie przyszedł na świat Galileusz, zaledwie dwa miesiące przed
narodzinami innego tytana, Williama Szekspira. Galileusz był pierwszy
z siedmiorga dzieci Vincenza Galilei, znanego lutnisty i teoretyka muzyki.
Vincenzo pochodził z rodziny szlacheckiej153 – nie tego rodzaju rodziny
szlacheckiej, jaką mamy na myśli dziś, która bierze udział w polowaniu na
lisy i sączy herbatę każdego popołudnia, ale takiej, która musiała
wykorzystywać swoje nazwisko, żeby znaleźć pracę. Vincenzo
prawdopodobnie żałował, że nie jest szlachcicem tego pierwszego rodzaju,
ponieważ kochał lutnie i grał, gdy tylko było to możliwe – chodząc po
mieście, jeżdżąc na koniu, stojąc w oknie i leżąc w łóżku – która to jednak
praktyka przynosiła niewiele żywej gotówki.
W nadziei na ukierunkowanie syna na drogę życiową przynoszącą większe
zyski Vincenzo posłał go na studia medyczne na uniwersytecie w Pizie.
Jednak Galileusz był bardziej zainteresowany matematyką niż medycyną
i zaczął pobierać prywatne lekcje z dzieł Euklidesa i Archimedesa, a nawet
Arystotelesa. Wiele lat później powiedział przyjaciołom, że wolałby
zrezygnować z nauki na uniwersytecie, a zamiast tego zająć się rysowaniem
i malarstwem. Jednak Vincenzo popychał go ku bardziej praktycznym
zajęciom, bazując na odwiecznej ojcowskiej teorii, że warto pójść na pewne
kompromisy, żeby uniknąć życia, w którym obiad oznacza zupę z nasion
konopi i podroby wołowe.
Kiedy Vincenzo dowiedział się, że Galileusz zwrócił się ku matematyce,
a nie medycynie, musiało się wydawać, że wybrał specjalizację
w utrzymywaniu się ze spadku, niezależnie od tego, jak bardzo by on był
niewystarczający. Jednak do tego nie doszło. W końcu Galileusz nie
ukończył ani studiów medycznych, ani matematycznych, ani jakichkolwiek
innych. Porzucił uczelnię i rozpoczął życiową wędrówkę, w której, istotnie,
miało chronicznie brakować mu pieniędzy i często przyszło popadać w długi.
Po porzuceniu uniwersytetu Galileusz utrzymywał się najpierw z udzielania
prywatnych lekcji matematyki. W końcu zwietrzył, że na Uniwersytecie
Bolońskim pojawiło się stanowisko młodszego wykładowcy. Choć miał tylko
dwadzieścia trzy lata, postanowił ubiegać się o nie, utrzymując dla
podniesienia swoich szans, że ma „około dwudziestu sześciu lat”.
Uniwersytet najwyraźniej chciał kogoś, kto ma „około” więcej lat, i zatrudnił
trzydziestojednolatka, który ponadto ukończył studia. Jednak nawet po
upływie stuleci dla każdego, kto kiedykolwiek przegrał rywalizację
o stanowisko akademickie, może być pocieszające, że jest to doświadczenie,
które dzieli z wielkim Galileuszem.
Dwa lata później Galileusz w końcu został profesorem w Pizie. Nauczał
tam swojego ukochanego Euklidesa, a także prowadził kurs astrologii,
mający pomóc studentom medycyny ustalić, kiedy puszczać krew pacjentom.
Tak, człowiek, który uczynił tak wiele dla postępów rewolucji naukowej,
doradzał również aspirującym lekarzom, kiedy pozycja Wodnika sprzyja
przystawianiu pijawek. Dziś astrologia została zdyskredytowana, ale
w epoce, gdy jeszcze nie wiedzieliśmy zbyt wiele o prawach przyrody, idea
ciał niebieskich wywierających wpływ na nasze życie tu na Ziemi wydawała
się rozsądna. W końcu jest to prawda w odniesieniu do Słońca, a także do
Księżyca, o którym od dawna było wiadomo, że ma tajemniczy związek
z pływami morskimi.
Galileusz formułował prognozy astrologiczne zarówno ze względu na
osobiste zainteresowania, jak i dla zysku, pobierając od swoich studentów
dwanaście skudów za wykład. Przy pięciu wykładach rocznie mógł podwoić
swoją pensję wykładowcy wynoszącą sześćdziesiąt skudów, co dawało sumę,
z której mógł się utrzymać, choć z trudnością. Lubił również hazard,
a w epoce, w której nie wiedziano jeszcze za wiele o prawdopodobieństwie,
był nie tylko pionierem w obliczaniu szans, ale też dobrze blefował.
Gdy dobiegał trzydziestki, wysoki i krępy, o silnej budowie i rudawych
włosach, był powszechnie lubiany. Jednak jego zatrudnienie w Pizie nie
trwało długo. Choć na ogół z szacunkiem odnosił się do autorytetów, miał
skłonność do sarkazmu i potrafił być zjadliwy zarówno w stosunku do
swoich intelektualnych adwersarzy, jak i administratorów, którzy
doprowadzali go do furii. W Pizie jego wściekłość budziło to, że uniwersytet
uparcie obstawał, by profesorowie nosili swoje togi akademickie zarówno
w mieście, jak i wtedy, gdy nauczali.
Galileusz, portret namalowany przez flamandzkiego artystę Justusa Sustermansa
w 1636 roku (Dzięki uprzejmości PD-art/Wikimedia Commons)

Galileusz, który lubił pisywać poezje, zemścił się, tworząc zjadliwy wiersz
wyśmiewający władze uniwersyteckie. Jego tematem były szaty – wystąpił
więc przeciwko nim. Jest to, dowodził, źródło oszustwa. Na przykład, bez
ubrania, ogłaszały jego wersy, narzeczona może obejrzeć sobie przyszłego
małżonka i: „Zoczyć, czy nie mały, lubo francuska choroba go nie nęka, [i]
Odprawę dać li zatrzymać, gdy wiadoma jej poręka”. Nie jest to wiersz,
którym można zdobyć sobie względy paryżanki. Również w Pizie nie spotkał
się z ciepłym przyjęciem, a młody Galileusz znów znalazł się na rynku pracy.
Jak się okazało, wyszło mu to tylko na dobre. Szybko dostał stanowisko
niedaleko Wenecji, na uniwersytecie w Padwie, rozpoczynając od 180
skudów na rok, co oznaczało potrojenie jego dotychczasowego uposażenia –
a później miał opisywać pobyt w tym miejscu jako najlepsze osiemnaście lat
swojego życia.
W czasie gdy Galileusz znalazł się w Padwie, fizyka Arystotelesowska154
już go rozczarowała. Dla Arystotelesa nauka polegała na obserwacji
i prowadzeniu rozważań teoretycznych. Galileuszowi brakowało natomiast
zasadniczego kroku, wykorzystania eksperymentów; już wkrótce dzięki
niemu fizyka eksperymentalna dokonała równie wielkich postępów jak jej
część teoretyczna. Uczeni przeprowadzali doświadczenia od stuleci, ale na
ogół wykonywano je, żeby zilustrować koncepcje, które zostały już
zaakceptowane. Dziś natomiast naukowcy podejmują je, żeby dokładnie
przetestować nowe pomysły. Eksperymenty Galileusza lokowały się gdzieś
pomiędzy tymi dwiema możliwościami. Polegały bardziej na eksploracji niż
ilustracji, choć nie były też całkiem rygorystycznymi testami.
Dwa aspekty podejścia Galileusza do eksperymentów są szczególnie
ważne. Po pierwsze, kiedy uzyskał wynik, który go zaskakiwał, nie odrzucał
go – kwestionował natomiast swój pomysł155. Po drugie, jego doświadczenia
miały charakter ilościowy, co w tamtym czasie było dość rewolucyjną ideą.
Eksperymenty Galileusza były bardzo podobne do tych, które można
zobaczyć podczas lekcji fizyki w dzisiejszej szkole średniej, choć oczywiście
jego pracownia różniła się od tego, co znajdziemy w szkole średniej, między
innymi tym, że nie było w niej elektryczności, gazu, wody i wymyślnego
sprzętu – przez „wymyślny sprzęt” rozumiem na przykład zegar.
W rezultacie Galileusz musiał być szesnastowiecznym MacGyverem,
sporządzając skomplikowane urządzenia z renesansowych odpowiedników
taśmy klejącej i rolki po papierze toaletowym. Na przykład by skonstruować
stoper, wywiercił mały otwór w dnie dużej donicy. Kiedy potrzebował
zmierzyć czas zdarzenia, napełniał naczynie wodą, zbierając to, co wyciekło,
i ważąc – waga wody była proporcjonalna do czasu trwania zdarzenia.
Galileusz wykorzystał ten „zegar wodny” do zaatakowania
kontrowersyjnego problemu spadku swobodnego – procesu, w którym obiekt
spada na ziemię. Dla Arystotelesa spadek swobodny był typem ruchu
naturalnego rządzonego przez pewne reguły praktyczne, takie jak: „Jeśli
połowa wagi ciężaru przebywa odległość w danym czasie, jej podwojenie
zajmie do połowy czasu”. Innymi słowy, obiekty spadają ze stałą prędkością,
która jest proporcjonalna do ich ciężaru.
Jeśli się o tym pomyśli, jest to zdroworozsądkowe: kamień spada szybciej
niż pióro. Zatem z uwagi na brak instrumentów pomiarowych albo
rejestrujących i to, jak mało wiedziano o pojęciu przyspieszenia,
Arystotelesowski opis spadku swobodnego musiał się wydawać rozsądny.
Jeśli jednak pomyśli się o tym ponownie, również on sprzeciwia się
zdrowemu rozsądkowi. Jak wskazał jezuita astronom Giovanni Riccioli,
nawet mityczny orzeł, który zabił Ajschylosa, zrzucając mu na głowę żółwia,
wiedział instynktownie, że obiekt zrzucony na głowę wyrządzi większą
krzywdę, jeśli spadnie z większej wysokości – a to implikuje, że obiekty
przyspieszają podczas spadania156. Ze względu na to istniała długa tradycja
przechodzenia od jednego poglądu do drugiego i z powrotem, a różni
badacze z biegiem stuleci wyrażali sceptycyzm co do teorii Arystotelesa.
Galileusz był dobrze zaznajomiony z tymi krytykami i chciał
przeprowadzić własne badania w tej materii. Jednak wiedział, że jego zegar
wodny nie jest wystarczająco precyzyjny, by pozwalać mu na
eksperymentowanie ze spadającymi obiektami, musiał więc znaleźć proces,
który jest wolniejszy, ale ukazuje te same zasady fizyczne. Zabrał się więc do
mierzenia czasu, jakiego potrzebują dokładnie wypolerowane brązowe kulki,
żeby stoczyć się z płaskich powierzchni umieszczonych pod różnymi kątami.
Studiowanie spadku swobodnego przy wykorzystaniu pomiarów
dokonywanych za pomocą kul staczających się po pochylniach przypomina
trochę kupowanie ubrań na podstawie tego, jak wyglądają w Internecie –
zawsze istnieje szansa, że będą one leżały na nas inaczej niż na pięknej
modelce. Pomimo tych niebezpieczeństw takie rozumowanie stanowi sedno
sposobu myślenia współczesnych fizyków. Sztuka projektowania dobrych
eksperymentów polega w dużej mierze na tym, żeby wiedzieć, które aspekty
problemu są ważne i należy je zachować, a które można bezpiecznie
zignorować – i jak zinterpretować wyniki eksperymentów.
W odniesieniu do spadku swobodnego geniusz Galileusza polegał na
zaprojektowaniu eksperymentu ze staczającymi się kulami i na tym, że
pamiętał o dwóch kryteriach. Po pierwsze, musiał spowolnić obiekty
wystarczająco, by mógł je zmierzyć; po drugie, co równie ważne, dążył do
zminimalizowania skutków oporu powietrza i tarcia. Choć tarcie i opór
powietrza stanowią część codziennego doświadczenia, miał poczucie, że
zaciemniają one prostotę fundamentalnych praw rządzących przyrodą.
Kamienie spadają szybciej niż pióra w świecie rzeczywistym, ale leżące
u podstaw tego prawa, podejrzewał Galileusz, dyktują, że w próżni spadałyby
w takim samym tempie. Musimy „uwolnić się od tych trudności – pisał –
a odkrywszy i dowiódłszy twierdzeń w wypadku braku oporu […]
zastosować je [do świata rzeczywistego] […] z takimi ograniczeniami, jak
nauczy nas doświadczenie”157.
Przy małych nachyleniach kule w eksperymencie Galileusza staczały się
dość wolno, a dane były stosunkowo łatwe do zmierzenia. Uczony zauważył,
że przy małych kątach nachylenia odległość pokonywana przez kulę była
zawsze proporcjonalna do kwadratu czasu. Można dowieść matematycznie,
że oznacza to, iż kula zyskiwała prędkość w stałym tempie – to znaczy, że
doznawała stałego przyspieszenia. Co więcej, Galileusz zaobserwował, że
tempo spadania kul nie zależało od tego, jak były one ciężkie.
Uderzające było to, że pozostawało to prawdą, nawet jeśli pochylnia była
nachylona pod coraz większym kątem; nieważne, jaki był kąt nachylenia, bo
odległość pokonana przez kulę była niezależna od jej wagi i proporcjonalna
do kwadratu czasu, jaki zajęło jej toczenie. Jeśli jednak jest to prawda
w odniesieniu do staczania się z płaszczyzny nachylonej pod kątem
czterdziestu, pięćdziesięciu, sześćdziesięciu, nawet siedemdziesięciu albo
osiemdziesięciu stopni, to co z dziewięćdziesięcioma stopniami? A więc teraz
pojawia się bardzo współcześnie wyglądające rozumowanie Galileusza:
stwierdził on, że jego obserwacje kuli staczającej się po pochylni muszą
pozostawać prawdziwe również dla spadku swobodnego, traktowanego jako
odpowiednik „ograniczonego przypadku”, w którym pochylnia jest
nachylona pod kątem dziewięćdziesięciu stopni. Innymi słowy,
hipotetycznie, jeśli zupełnie nachyliłby płaszczyznę staczania się – tak że
stałaby się pionowa, a kula właściwie spadałaby, a nie staczała się – ta wciąż
zwiększałaby prędkość w stałym tempie, co oznaczałoby, że prawo, które
zaobserwował dla pochylni, obowiązuje także dla spadku swobodnego.
W ten sposób Galileusz zastąpił Arystotelesowskie prawo spadku
swobodnego własnym. Arystoteles głosił, że rzeczy spadają z prędkością
proporcjonalną do ich ciężaru, ale Galileusz, postulując wyidealizowany
świat, w którym ujawniają się prawa fundamentalne, doszedł do odmiennego
wniosku: wobec braku oporu stawianego na przykład przez powietrze
wszystkie obiekty spadają z takim samym stałym przyspieszeniem.
***

Jeśli Galileusz miał upodobanie do matematyki, miał również zamiłowanie


do abstrakcji. Rozwinął je do tego stopnia, że czasami lubił przyglądać się
scenom rozgrywającym się wyłącznie w jego własnej wyobraźni.
Nienaukowcy nazywają je fantazjami; naukowcy – eksperymentami
myślowymi, przynajmniej gdy dotyczą one fizyki. Dobrą rzeczą
w odniesieniu do wyobrażania sobie eksperymentów przeprowadzanych
wyłącznie w umyśle jest to, że unika się irytujących problemów związanych
z ustawianiem aparatury, która faktycznie działa, ale nie pomaga zbadać
logicznych konsekwencji pewnych idei. Zatem poza obaleniem
Arystotelesowskiej teorii spadku swobodnego za pomocą swoich
praktycznych eksperymentów z pochylniami Galileusz zastosował również
eksperymenty myślowe, by przyłączyć się do debaty dotyczącej jednej
z najważniejszych krytyk fizyki Arystotelesa, krytyki dotyczącej ruchu
pocisków.
Jak to jest, że po przyłożeniu początkowej siły, kiedy pocisk zostaje
wystrzelony, nadal porusza się naprzód? Arystoteles zgadywał, że może być
to związane z cząsteczkami powietrza, które pędzą za pociskiem i nieustannie
go popychają, ale nawet on – jak widzieliśmy – był dość sceptycznie
nastawiony do tego wyjaśnienia.
Galileusz zaatakował ten problem, wyobrażając sobie statek na morzu
z ludźmi rzucającymi sobie jakiś przedmiot, fruwającymi w nim motylami,
rybą pływającą w akwarium stojącym na stole i wodą kapiącą z butelki.
„Zauważył”, że wszystko to będzie się odbywać w taki sam sposób, kiedy
statek porusza się ruchem jednostajnym, jak i wtedy, gdy pozostaje
w spoczynku. Doszedł do takiego wniosku, ponieważ wszystko, co znajduje
się na statku, porusza się wraz z nim, jego ruch musi się „odcisnąć” na
obiektach, tak że gdy statek się porusza, jego ruch staje się swego rodzaju
punktem odniesienia do wszystkiego, co się na nim znajduje. Czy w taki sam
sposób ruch pocisku nie mógłby się odciskać na pocisku? Czy nie mógłby on
być tym, co sprawia, że kula armatnia leci dalej?
Rozmyślania Galileusza doprowadziły go do najbardziej wnikliwego
wniosku, kolejnego radykalnego zerwania z fizyką Arystotelesa.
Zaprzeczając twierdzeniu antycznego filozofa, że pociski wymagają powodu,
żeby się poruszać – siły – Galileusz ogłosił, że wszystkie obiekty, które
poruszają się ruchem jednostajnym, wykazują tendencję do zachowywania
tego ruchu, tak jak obiekty w spoczynku wykazują tendencję do
pozostawania w spoczynku.
Przez „ruch jednostajny” Galileusz rozumiał ruch po linii prostej i ze stałą
prędkością. Stan „spoczynku” zatem jest po prostu przykładem ruchu
jednostajnego, w którym prędkość wynosi akurat zero. Spostrzeżenie to
zaczęto nazywać prawem bezwładności. Newton zaadaptował je później jako
swoje pierwsze prawo ruchu. Kilka stron dalej po podaniu swojego prawa
dodaje, że to Galileusz je odkrył – rzadki przykład, gdy Newton uznaje
zasługę kogoś innego158.
Prawo bezwładności wyjaśnia problem pocisku, który trapił arystotelików.
Według Galileusza, gdy pocisk został już wystrzelony, będzie pozostawał
w ruchu dopóty, dopóki jakaś inna działająca siła go nie zatrzyma. Podobnie
jak Galileuszowe prawo spadku swobodnego, prawo to stanowi całkowite
zerwanie z Arystotelesem: Galileusz twierdził, że pocisk nie potrzebuje
nieustannego działania siły, żeby pozostawać w ruchu; w fizyce Arystotelesa
ruch utrzymujący się mimo braku siły, czyli „przyczyny”, był niepojęty.
Na podstawie tego, co powiedziałem mu o Galileuszu, mój ojciec, który
lubił porównywać każdą ważną osobę, o jakiej się opowiadało, do jakiejś
postaci z historii żydowskiej, nazwał Galileusza Mojżeszem nauki.
Powiedział to, ponieważ Galileusz wyprowadził naukę z Arystotelesowskiej
pustyni i powiódł ją do ziemi obiecanej. Porównanie to jest szczególnie
trafne, ponieważ tak jak Mojżesz sam Galileusz nie doprowadził jej do ziemi
obiecanej: nigdy nie doszedł aż do zidentyfikowania grawitacji jako siły ani
do odszyfrowania jej matematycznej formy – to musiało poczekać na
Newtona – i wciąż kurczowo trzymał się pewnych przekonań Arystotelesa.
Wierzył na przykład w swego rodzaju „ruch naturalny”, który nie jest
jednostajny [i prostoliniowy], a jednak nie musi być powodowany przez siłę:
ruch po okręgu wokół środka Ziemi. Był najwyraźniej przekonany, że jest to
tego rodzaju ruch naturalny, który pozwala obiektom dogonić Ziemię, gdy ta
się obraca.
Te ostatnie pozostałości systemu Arystotelesa musiały zostać odrzucone,
zanim mogła powstać prawdziwa nauka o ruchu. Z tego rodzaju powodów
jeden z historyków określił Galileuszową koncepcję przyrody jako
„niemożliwy amalgamat nieprzystających do siebie elementów, zrodzony ze
wzajemnie sprzecznych światopoglądów, między którymi był
159
zawieszony” .

***

Wkład Galileusza w fizykę był naprawdę rewolucyjny. Jednak dziś słynie on


przede wszystkim z powodu swojego konfliktu z Kościołem katolickim
wynikającym z jego twierdzenia, sprzecznego z poglądem Arystotelesa
(i Ptolemeusza), że Ziemia nie jest centrum Wszechświata, lecz jedynie
zwykłą planetą, która podobnie jak inne planety krąży wokół Słońca. Idea
heliocentrycznego Wszechświata jest bardzo stara, głosił ją już Arystarch
w III wieku p.n.e., ale jej współczesna wersja jest zasługą Kopernika (1473–
1543)160.
Kopernik był niejednoznacznym rewolucjonistą, który nie chciał
kwestionować metafizyki swoich czasów, lecz jedynie poprawić astronomię
starożytnych Greków: niepokoiło go, że po to, by model Wszechświata
z Ziemią w środku działał, trzeba było wprowadzić wiele skomplikowanych
konstrukcji geometrycznych ad hoc. Jego model natomiast był znacznie
dokładniejszy i prostszy, wręcz elegancki. W duchu renesansu doceniał on
nie tylko jego doniosłość naukową, ale również estetyczną formę. „I mam
wrażenie, że łatwiej się zgodzić na to – napisał – niż łamać sobie rozum na
nieskończonej prawie ilości kół, jak to muszą robić ci, którzy w środku
świata zatrzymali Ziemię”161.
Kopernik napisał po raz pierwszy o swoim modelu w prywatnych zapiskach
w 1514 roku, a później poświęcił całe dekady na przeprowadzenie obserwacji
astronomicznych, które go potwierdziły. Jednak tak jak Darwin kilka stuleci
później swoje idee puszczał w obieg dyskretnie, tylko wśród najbardziej
zaufanych przyjaciół, z obawy przed negatywną reakcją ze strony ludzi
i Kościoła. A nawet jeśli czuł zagrożenie, to wiedział również, że dzięki
właściwemu podejściu politycznemu reakcja Kościoła może zostać
złagodzona, kiedy zaś w końcu opublikował swoje dzieło, zadedykował
księgę papieżowi i umieścił w niej długie wyjaśnienie, dlaczego jego idee nie
są herezją.
Mimo wszystko jest to kwestia sporna, ponieważ Kopernik opublikował
swoją książkę dopiero w 1543 roku, kiedy znajdował się już na łożu śmierci
– niektórzy twierdzą, że nie widział jej ostatecznej wersji wydrukowanej aż
do dnia, w którym zmarł. Jak na ironię, nawet po opublikowaniu dzieła
wzbudziło ono niewielki oddźwięk, zanim późniejsi naukowcy, tacy jak
Galileusz, przyjęli opisane tam spostrzeżenia i zaczęli je rozpowszechniać na
całym świecie.
Choć to nie Galileusz zauważył, że Ziemia nie jest centrum Wszechświata,
wniósł niemal równie ważny wkład – użył lunety (zbudował ją na bazie
pewnej prymitywnej wersji tego urządzenia, którą wynaleziono nieco
wcześniej), by znaleźć zadziwiający i przekonujący dowód na rzecz tego
poglądu.
Wszystko zaczęło się przypadkiem. W 1597 roku Galileusz pisał i wykładał
w Padwie o systemie ptolemejskim, nie dając przy tym żadnych wskazówek,
że ma co do niego jakiekolwiek wątpliwości162. Mniej więcej w tym samym
czasie w Holandii wydarzyło się coś, co przypomina nam, jakie to ważne, by
w nauce być we właściwym miejscu (w Europie) we właściwym czasie
(w tym wypadku kilka dziesięcioleci po Koperniku). To, co miało w końcu
spowodować, że Galileusz zaczął myśleć inaczej, zdarzyło się, gdy dwoje
dzieci, bawiąc się w sklepie rzemieślnika wytwarzającego ciemne okulary,
Hansa Lippersheya, złożyło ze sobą dwie soczewki i spojrzało przez nie na
wiatrowskaz znajdujący się na szczycie kościelnej wieży. Ujrzały coś
wspaniałego. Zgodnie z tym, co Galileusz napisał później, sam Lippershey
spojrzał przez obie soczewki, „jedną wklęsłą, a drugą wypukłą […]
i zauważył niezwykłe zjawisko; i tak wynalazł ten instrument”163. Stworzył
lunetę.
Mamy tendencję do myślenia o rozwoju nauki jako o serii odkryć,
z których każde prowadzi do następnego dzięki wysiłkom jakiegoś
samotnego giganta intelektu mającego jasną i niezwykłą wizję. Jednak wizja
wielkich odkrywców historii intelektualnej jest najczęściej bardziej poplątana
niż prosta, a ich osiągnięcia więcej zawdzięczają przyjaciołom
i współpracownikom – oraz szczęściu – niż opowiadają legendy, a często
sami odkrywcy chcą później przyznać. W tym wypadku luneta Lippersheya
miała powiększenie zaledwie dwa do trzech, a kiedy Galileusz po raz
pierwszy usłyszał o niej kilka lat później, w 1609 roku, nie był pod
wrażeniem. Zainteresował się nią tylko dlatego, że jego przyjaciel Paolo
Sarpi, opisany przez historyka Johna L. Heilbrona jako „śmiały mnich-
polihistor o antyjezuickim nastawieniu”, dostrzegł potencjał w tym
urządzeniu – sądził, że jeśli wynalazek można udoskonalić, mógłby mieć
ważne zastosowania militarne dla Wenecji, miasta, które nie było otoczone
murami i którego przetrwanie zależało od wczesnego wykrycia grożącego
atakiem wroga.
Sarpi zwrócił się o pomoc do Galileusza, który wśród wielu
zróżnicowanych przedsięwzięć mających uzupełnić jego dochody dorabiał
sobie, wytwarzając instrumenty naukowe. Ani Sarpi, ani Galileusz nie mieli
doświadczenia w teorii optyki, ale metodą prób i błędów w ciągu kilku
miesięcy Galileusz zbudował instrument o dziewięciokrotnym powiększeniu.
Podarował go wstrząśniętemu jego możliwościami Senatowi Wenecji
w zamian za dożywotnie przedłużenie zatrudnienia i podwojenie jego
ówczesnego wynagrodzenia do tysiąca skudów. Miał w końcu udoskonalić
swoją lunetę tak, by powiększała trzydziestokrotnie, co stanowiło praktyczną
granicę możliwości tej konstrukcji (płasko-wklęsły okular i płasko-wypukły
obiektyw).
Mniej więcej w grudniu 1609 roku, w którym to czasie Galileusz zbudował
już lunetę o dwunastokrotnym powiększeniu, skierował ją na niebo
i wycelował w największe ciało widoczne na nocnym niebie – w Księżyc. Ta
obserwacja, i inne, które miał poczynić, okazała się najlepszym dotychczas
dowodem, że Kopernik miał rację co do ulokowania Ziemi w kosmosie.
Arystoteles twierdził, że niebiosa tworzą odrębną dziedzinę, zbudowane są
z innej substancji i rządzą się innymi prawami, które sprawiają, że wszystkie
ciała niebieskie poruszają się po okręgach wokół Ziemi. Natomiast Galileusz
zobaczył, że Księżyc, który był „nierówny, chropowaty i pełen dziur
i wzniesień, nie różnił się od powierzchni Ziemi, urozmaicony łańcuchami
gór i głębokimi dolinami”164. Innymi słowy, Księżyc nie wydawał się inną
„dziedziną”. Galileusz dostrzegł również, że Jowisz ma własne księżyce.
Fakt, że krążyły one wokół Jowisza, a nie wokół Ziemi, gwałcił kosmologię
Arystotelesa, wspierając zarazem ideę, że Ziemia nie jest centrum
Wszechświata, lecz jedynie jedną planetą spośród wielu.
Powinienem odnotować, że kiedy piszę, iż Galileusz coś „zobaczył”, nie
mam na myśli tego, że po prostu przyłożył lunetę do oka, skierował ją
gdziekolwiek i napawał oczy widokiem rewolucyjnego nowego zbioru
obrazów, jak gdyby oglądał pokaz w planetarium. Dokładnie na odwrót –
jego obserwacje wymagały długich okresów trudnych i żmudnych wysiłków,
ponieważ musiał wpatrywać się godzinami przez swoje niedoskonałe, źle
oprawione (według dzisiejszych standardów) szkła i wysilać się, żeby
zrozumieć, co dostrzegł. Na przykład kiedy przyglądał się Księżycowi, mógł
„zobaczyć” góry tylko dzięki starannemu wypatrywaniu i interpretacji ruchu
cieni, które rzucały, a takie obserwacje trwały całe tygodnie. Co więcej, mógł
zaobserwować jedynie jedną setną powierzchni naraz, a więc aby stworzyć
złożoną mapę całości, musiał przeprowadzić liczne, skrupulatnie
skoordynowane obserwacje.
Takie trudności pokazują, że w wypadku lunety geniusz Galileusza polegał
nie tyle na udoskonaleniu instrumentu, ile na sposobie, w jaki go stosował.
Na przykład gdy dostrzegał coś, co wydawało się, powiedzmy, górami
księżycowymi, nie ufał po prostu pozorom; badał światło i cienie i stosował
twierdzenie Pitagorasa do oszacowania wysokości gór. Kiedy obserwował
księżyce Jowisza, myślał na początku, że to gwiazdy. Dopiero po
wielokrotnych starannych i drobiazgowych obserwacjach oraz obliczeniach
opierających się na znanych ruchach planet zdał sobie sprawę, że położenia
„gwiazd” względem Jowisza zmieniały się w sposób, który sugerował, że go
okrążają.
Dokonawszy tych odkryć, Galileusz, choć niechętnie wkraczał na obszar
teologii, zapragnął uznania z tego tytułu. Zaczął więc poświęcać więcej
energii na publikowanie swoich obserwacji i prowadzenie krucjaty na rzecz
zastąpienia przyjętej kosmologii Arystotelesa heliocentrycznym systemem
Kopernika. W tym celu w marcu 1610 roku opublikował Gwiezdnego
posłańca, broszurę opisującą cuda, które ujrzał. Natychmiast stała się
bestsellerem, a choć miała zaledwie około sześćdziesięciu stron
(w dzisiejszym formacie), wprawiła w zdumienie świat uczonych, ponieważ
opisywała cudowne, nigdy wcześniej niewidziane szczegóły Księżyca
i planet. Niedługo sława Galileusza rozniosła się po całej Europie i wszyscy
chcieli popatrzeć przez jego lunetę.
We wrześniu tego roku uczony przeniósł się do Florencji, aby objąć
prestiżowe stanowisko „zwierzchnika matematyków uniwersytetu w Pizie
i filozofa wielkiego księcia”. Zachował swoje dotychczasowe
wynagrodzenie, ale nie miał żadnych obowiązków związanych z nauczaniem,
nie musiał nawet mieszkać w Pizie. Ów wielki książę to Cosimo II de Medici
z Toskanii, a mianowanie Galileusza było w równej mierze rezultatem
kampanii mającej na celu pozyskanie względów Medyceuszy, jak jego
wielkich osiągnięć. Nazwał nawet nowo odkryte księżyce Jowisza „planetami
medycejskimi”.
Niedługo po mianowaniu Galileusz ciężko zachorował i pozostawał
przykuty do łóżka przez wiele miesięcy. Jak na ironię, prawdopodobnie
dotknęła go „francuska choroba”, syfilis, którym zaraził się zapewne wskutek
pociągu do weneckich prostytutek. Nawet w chorobie nadal dążył do
przekonania wpływowych myślicieli o ważności swoich odkryć.
A w następnym roku, kiedy odzyskał zdrowie, jego gwiazda wzniosła się tak
wysoko, że został zaproszony do Rzymu, gdzie dawał wykłady o swoim
dziele.
W Rzymie Galileusz poznał kardynała Maffea Barberiniego i został
przyjęty na audiencji w Watykanie przez papieża Pawła V. Była to
tryumfalna podróż pod każdym względem i wydaje się, że uczony w jakiś
sposób złagodził rozbieżności w stosunku do oficjalnej doktryny kościelnej,
tak żeby nie urazić dostojników – być może dlatego większość jego
wykładów skupiała się na obserwacjach, jakie poczynił za pomocą lunety,
bez szerszego omawiania ich implikacji.
Było jednak nieuniknione, że w końcu popadnie w konflikt z Watykanem,
ponieważ Kościół przyjmował pewną wersję arystotelizmu stworzonego
przez Tomasza z Akwinu, która była niezgodna z obserwacjami
i wyjaśnieniami Galileusza; w dodatku, w przeciwieństwie do swojego
dyplomatycznego poprzednika Kopernika, Galileusz potrafił być nieznośnie
arogancki, nawet gdy zasięgał opinii teologów w prawie doktryny kościelnej.
W 1616 roku zatem został wezwany do Rzymu, by bronić się przed różnymi
wysokimi urzędnikami Kościoła.
Wydawało się, że wizyta ta skończyła się remisem – Galileusza nie
potępiono, jego książki nie zostały zakazane, a nawet miał kolejną audiencję
u papieża; jednak władze zakazały mu nauczania, że to Słońce, a nie Ziemia,
jest centrum Wszechświata i że Ziemia krąży wokół Słońca, a nie na
odwrót165. W końcu okazało się, że ten epizod miał przysporzyć mu
ogromnych problemów, ponieważ większość dowodów wykorzystanych
przeciwko Galileuszowi w procesie wytoczonym mu przez inkwizycję
siedemnaście lat później została zaczerpnięta ze spotkań, w czasie których
kościelni oficjele wprost zakazali mu nauczania kopernikanizmu.
Jednak na chwilę napięcie zelżało, zwłaszcza gdy przyjaciel Galileusza
kardynał Barberini został papieżem (jako Urban VIII) w 1623 roku.
W przeciwieństwie do Pawła V Urban miał ogólnie pozytywny pogląd na
naukę, a w pierwszych latach swojego pontyfikatu przyjmował Galileusza na
audiencjach.
Zachęcony przyjaźniejszą atmosferą po wstąpieniu na tron papieski Urbana
VIII Galileusz zaczął pracować nad nową książką, którą ukończył, gdy miał
sześćdziesiąt osiem lat, w 1632 roku. Owoc tej pracy nosił tytuł Dialogo
sopra i due massimi sistemi del mondo (Dialog o dwu najważniejszych
układach świata, ptolemeuszowym i kopernikowym). Jednak ów „dialog” był
niezmiernie jednostronny i Kościół zareagował – mając po temu rację – jak
gdyby książka była zatytułowana „Dlaczego doktryna Kościoła jest błędna,
a papież Urban jest durniem”.
Dialog przybrał postać konwersacji między przyjaciółmi: Simpliciem,
oddanym zwolennikiem Arystotelesa; Sagredem, zajmującym inteligentnie
stanowisko pośrednie; i Alviatim, który wysuwa przekonujące argumenty na
rzecz poglądu kopernikańskiego. Galileusz czuł się spokojny, pisząc tę
książkę, ponieważ powiedział o niej papieżowi, a ten wydawał się ją
aprobować. Jednak zapewnił papieża, że jego celem przy pisaniu będzie
obrona Kościoła i nauki włoskiej przed oskarżeniem, że Watykan zakazał
heliocentryzmu z powodu ignorancji – a aprobata papieża opierała się na
założeniu, że Galileusz przedstawi argumenty intelektualne obu stron, nie
oceniając ich. Jeśli rzeczywiście do tego dążył, marnie mu wyszło. Jak ujął to
jego biograf, John L. Heilbron, Dialog Galileusza „traktował filozofów
głoszących ideę nieruchomej Ziemi jako niższych od ludzi, małostkowych,
głupkowatych, idiotów, wychwalał natomiast zwolenników Kopernika jako
wyższe intelekty”166.
W grę wchodziła jeszcze jedna obraza. Urban chciał, żeby Galileusz
włączył do książki dementi, fragment potwierdzający ważność doktryny
Kościoła; jednak zamiast wypowiedzieć to dementi własnym głosem, jak
prosił papież, Galileusz wygłosił uznanie doktryny Kościoła głosem swojego
bohatera Simplicia, którego Heilbron opisał jako „matołka”. Papież Urban
VIII, który sam nie był matołkiem, poczuł się głęboko urażony.
Kiedy gwiezdny pył opadł, Galileusz został oskarżony o pogwałcenie
edyktu kościelnego z 1616 roku przeciwko nauczaniu kopernikanizmu
i zmuszony do odwołania swoich przekonań. Jego przestępstwo dotyczyło
w równej mierze władzy i kontroli, czyli „własności” prawdy, jak
i szczegółów jego światopoglądu167. Większość tych bowiem, którzy
tworzyli elitę intelektualną Kościoła, uznawała, że pogląd Kopernika był
prawdopodobnie trafny; mieli natomiast obiekcje co do renegata, który
rozpowszechniał ten pogląd i kwestionował doktrynę Kościoła168.
Dwudziestego drugiego czerwca 1633 roku ubrany w biały strój pokutny
uczony ukląkł przed trybunałem, który go przesłuchiwał, i ugiął się przed
żądaniem uznania autorytetu Pisma, deklarując: „Ja, Galileo, syn zmarłego
Vincenza Galilei, Florentczyk, w wieku siedemdziesięciu lat […]
przysięgam, że zawsze wierzyłem, wierzę i z Bożą pomocą będę wierzył we
wszystko to, co głosi, każe i naucza Święty Katolicki i Apostolski Kościół
Rzymski”169.
Jednak mimo zadeklarowania, że zawsze akceptował doktrynę Kościoła,
Galileusz wyznał, że bronił potępionej teorii kopernikańskiej, nawet „gdy
zostało nałożone prawne postanowienie”, które nakazywało mu, jak ujmował
to Kościół, „porzucić fałszywą opinię, że Słońce jest centrum świata i jest
nieruchome, a Ziemia nie jest centrum świata i się porusza […]”.
Naprawdę interesujące jest sformułowanie przyznania się do winy, które
wygłosił: „Napisałem i wydrukowałem książkę – stwierdził – w której
omówiłem tę nową doktrynę, chciaż została już potępiona, i przytoczyłem
argumenty o wielkiej trafności na jej rzecz”. Tak więc nawet gdy ślubował
wierność kościelnej wersji prawdy, wciąż bronił treści swojej książki.
W końcu Galileusz skapitulował, stwierdzając, że „pragnie usunąć
z umysłów Waszych Eminencji i wszystkich wiernych chrześcijan to silne
podejrzenie, słusznie powzięte przeciwko mnie, ze szczerym sercem
i niezachwianą wiarą zatem wyrzekam się, przeklinam i odrzucam
wymienione wyżej błędy i herezje […] i przysięgam, że w przyszłości nigdy
nie wypowiem ani nie stwierdzę, w słowie i w piśmie, czegokolwiek, co
mogłoby dać sposobność do podobnych podejrzeń przeciwko mnie”.
Galileusz nie poniósł ciężkiej kary, jaką inkwizycja wymierzyła wobec
Giordana Bruna, który głosił, że Ziemia krąży wokół Słońca, i za swoją
herezję został spalony na stosie w Rzymie w 1600 roku. Jednak proces
całkiem jasno pokazał stanowisko Kościoła.
Dwa dni później Galileusz został oddany pod pieczę ambasadora Florencji.
Ostatnie lata spędził w łagodnym areszcie domowym w swojej willi
w Arcetri w pobliżu Florencji. Gdy mieszkał w Padwie, spłodził troje dzieci
pozamałżeńskich. Spośród nich córka, z którą był bardzo blisko, zmarła na
zarazę w Niemczech, a druga wyrzekła się go; natomiast jego syn Vincenzo
mieszkał w pobliżu i otoczył go czułą opieką. A choć był więźniem,
uczonemu pozwolono przyjmować gości, nawet heretyków – pod warunkiem
że nie będą matematykami. Jednym z nich był młody angielski poeta John
Milton (który później miał wspomnieć Galileusza i jego lunetę w swoim
poemacie Raj utracony).
Jak na ironię, to właśnie w czasie spędzonym w Arcetri Galileusz spisał
swoje w pełni dopracowane pomysły dotyczące fizyki ruchu w książce, którą
uważał za największe dzieło: Rozprawy i dowody matematyczne dotyczące
dwóch nowych nauk. Książka nie mogła zostać wydana we Włoszech
z powodu zakazu nałożonego przez papieża na jego pisma, przemycono ją
więc do Lejdy i opublikowano w 1638 roku.
Do tego czasu Galileusz podupadł na zdrowiu. W 1637 roku oślepł,
a w następnym zaczął doświadczać otępiających problemów z trawieniem.
„Nic mi nie smakuje – pisał – wino szkodzi na głowę i oczy, woda na ból
w boku […] nie mam apetytu, nic mnie nie pociąga, a gdyby mnie pociągało,
[doktorzy] by tego zakazali”170. Jednak jego umysł wciąż pozostał aktywny,
a ci, którzy widzieli go na krótko przed śmiercią, twierdzili, że – pomimo
zakazu przyjmowania gości tej profesji – niedawno sprawiło mu przyjemność
słuchanie, jak dyskutuje dwóch matematyków. Zmarł w wieku
siedemdziesięciu siedmiu lat w 1642 roku, roku narodzin Newtona,
w obecności swojego syna Vincenza – i, tak, kilku matematyków.
Galileusz chciał, żeby go pochowano obok jego ojca w bazylice Santa
Croce we Florencji. Wielki książę Ferdinando, następca Cosima, planował
nawet zbudować tam dla niego wielki grobowiec, naprzeciwko grobowca
Michała Anioła. Jednak papież Urban VIII ogłosił, że „nie jest dobrze
budować mauzolea [takim ludziom] […] ponieważ dobrych ludzi może to
zgorszyć i uprzedzić w odniesieniu do Świętego Autorytetu”171. Zatem
krewni Galileusza złożyli jego szczątki w komorze wielkości szafki pod
dzwonnicą i odprawili mały pogrzeb, w którym wzięło udział tylko kilku
przyjaciół, krewnych i zwolenników. Mimo to wielu, nawet w samym
Kościele, odczuło stratę. Śmierć uczonego, jak napisał odważnie bibliotekarz
na dworze kardynała Barberiniego w Rzymie, „dotknęła nie tylko Florencję,
ale też cały świat i całe nasze stulecie, które od tego boskiego człowieka
otrzymało większy splendor niż od niemal wszystkich innych zwykłych
filozofów”172.

127 Morris Kline, Mathematical Thought from Ancient to Modern Times, t. 1, Oxford
University Press, Oksford 1972, s. 179.

128 Ibidem, s. 204; John D. Bernal, Nauka w dziejach, przekł. zbior., Państwowe
Wydawnictwo Naukowe, Warszawa 1957, s. 214–218.

129 Morris Kline, Mathematical..., op. cit., s. 211.

130 Średniowiecze trwa od 500 do 1500 roku (w niektórych periodyzacjach do 1600


roku). W każdym razie obejmuje – i w pewnym stopniu pokrywa się – z epoką między
kulturalnymi osiągnięciami imperium rzymskiego a rozkwitem nauki i sztuki w renesansie.
Był to czas, który pewni autorzy dziewiętnastowieczni lekceważyli jako „tysiąc lat bez
kąpieli”.

131 David C. Lindberg, The Beginnings of Western Science: The European Scientific
Tradition in Philosophical, Religious, and Institutional Context, 600 B.C. to A.D. 1450,
University of Chicago Press, Chicago 1992, s. 180–181.

132 Toby E. Huff, The Rise of Early Modern Science: Islam, China, and the West,
Cambridge University Press, Cambridge 1993, s. 74.

133 Ibidem, s. 77, 99. Huff i George Saliba nie zgadzają się co do źródeł i charakteru
nauki islamskiej, zwłaszcza co do roli astronomii, która doprowadziła do owocnej
i pobudzającej dyskusji w tej dziedzinie. Więcej o stanowisku Saliby zob. Islamic Science
and the Making of the European Renaissance, MIT Press, Cambridge 2007.

134 Toby E. Huff, Rise of Early Modern Science, op. cit., s. 276–278.

135 John D. Bernal, Nauka w dziejach, op. cit., s. 187–189.

136 David C. Lindberg, Beginnings of Western Science, op. cit., s. 203–205.


137 J.H. Parry, Age of Reconnaissance: Discovery, Exploration, and Settlement, 1450–
1650, University of California Press, Berkeley 1982, zob. zwł. część 1.

138 Toby E. Huff, Rise of Early Modern Science, op. cit., s. 187.

139 David C. Lindberg, Beginnings of Western Science, op. cit., s. 206–208.

140 Toby E. Huff, Rise of Early Modern Science, op. cit., s. 92.

141 John R. Searle, Umysł, język, społeczeństwo. Filozofia i rzeczywistość, przeł. D.


Cieśla, Wydawnictwo CiS – Wydawnictwo W.A.B., Warszawa 1999, s. 65.

142 Więcej o warunkach życia w XIV wieku zob. Robert S. Gottfried, The Black Death,
Free Press, Nowy Jork 1985, s. 29.

143 Dogłębne i przystępne omówienie historii pojęcia czasu zob. David Landes,
Revolution in Time: Clocks and the Making of the Modern World, Belknap Press of the
Harvard University Press, Cambridge 1983.

144 David C. Lindberg, Beginnings of Western Science, op. cit., s. 303–304.

145 Clifford Truesdell, Essays in the History of Mechanics, Springer-Verlag, Nowy Jork
1968.

146 Albert Einstein w liście datowanym na 7 stycznia 1943 r., cyt. w: Helen Dukas,
Banesh Hoffman, Albert Einstein: The Human Side; New Glimpses from His Archives,
Princeton University Press, Princeton 1979, s. 8.

147 Galileo Galilei, Discoveries and Opinions of Galileo, Doubleday, Nowy Jork 1957,
s. 237–238.

148 Henry Petroski, The Evolution of Useful Things, Knopf, Nowy Jork 1992, s. 84–86.

149 James E. McClellan III, Harold Dorn, Science and Technology in World History,
wyd. 2, Johns Hopkins University Press, Baltimore 2006, s. 180–182.

150 Elizabeth Eisenstein, The Printing Press as an Agent of Change, Cambridge


University Press, Cambridge 1980, s. 46.
151 Louis Karpinski, The History of Arithmetic, Russell and Russell, Nowy Jork 1965,
s. 68–71; Philip Gaskell, A New Introduction to Bibliography, Clarendon Press, Oksford
1972, s. 251–265.

152 John D. Bernal, Nauka w dziejach, op. cit., s. 269–270.

153 Moje omówienie życia Galileusza opiera się przede wszystkim na pracach: John L.
Heilbron, Galileo, Oxford University Press, Oksford 2010; Stillman Drake, Galileo at
Work, University of Chicago Press, Chicago 1978.

154 Uczony mógł doznać wielu rozczarowań. William A. Wallace twierdzi w swojej
pracy Galileo, the Jesuits, and the Medieval Aristotle (Variorum, Burlington 1991), że
Galileusz, przygotowując się do objęcia stanowiska w Pizie, w istocie wykorzystał wiele
swoich notatek z wykładów, których wysłuchiwał u jezuitów w Colegio Romano od 1588
do 1590 roku. Wallace poświęcił temu zagadnieniu również tekst Galileo’s Jesuit
Connections and Their Influence on His Science, w: Jesuit Science and the Republic of
Letters, red. Mordechai Feingold, MIT Press, Cambridge 2002.

155 John D. Bernal, Nauka w dziejach, op. cit., s. 298.

156 G.B. Riccioli, Almagestum novum astronomiam (1652), t. 2, s. 384; Christopher


Graney, Anatomy of a Fall: Giovanni Battista Riccioli and the Story of G, „Physics Today”
(wrzesień 2012), s. 36.

157 Laura Fermi, Gilberto Bernardini, Galileo and the Scientific Revolution, Basic
Books, Nowy Jork 1961, s. 125.

158 Richard Westfall, Force in Newton’s Physics, MacDonald, Nowy Jork 1971, s. 1–4.
W rzeczywistości Jean Buridan, który był nauczycielem Mikołaja z Oresme w Paryżu,
sformułował podobne prawo w ramach stworzonych przez uczonych z Merton College,
choć nie tak jasno jak Galileusz. Zob. John Freely, Before Galileo: The Birth of Modern
Science in Medieval Europe, Overlook Duckworth, Nowy Jork 2012, s. 162–163.

159 Richard Westfall, Force in Newton’s Physics, op. cit., s. 41–42.

160 John D. Bernal, Nauka w dziejach, op. cit., s. 283–285; James E. McClellan III,
Harold Dorn, Science and Technology, op. cit., s. 208–214.
161 Mikołaj Kopernik, O obrotach sfer niebieskich. Księga pierwsza, przeł. M. Brożek,
Państwowe Wydawnictwo Naukowe, Warszawa 1953, s. 70.

162 Miał jednak pewną sympatię dla wersji pomysłów Kopernika, które zostały
rozwinięte przez niemieckiego astronoma (i astrologa) Johannesa Keplera, przede
wszystkim dlatego, że wspierała ona jego ulubioną teorię pływów morskich (które
przypisywał, błędnie, działaniu Słońca). Jednak kiedy Kepler nakłaniał Galileusza, żeby
wypowiedział się w jego obronie, ten odmówił.

163 Daniel Boorstin, Odkrywcy. Dzieje ludzkich odkryć i wynalazków, przeł. M. Stopa,
Grupa Wydawnicza Bertelsmann Media, Warszawa 2001, s. 295.

164 John Freely, Before Galileo, op. cit., s. 272.

165 John L. Heilbron, Galileo, op. cit., s. 217–220; Stillman Drake, Galileo at Work, op.
cit., s. 252–256.

166 John L. Heilbron, Galileo, op. cit., s. 311.

167 Istotnie, choć Galileuszowi zabroniono nauczania kopernikanizmu, pozwolono mu


kontynuować pracę i używać lunety w czasie, gdy przebywał w areszcie domowym.

168 William A. Wallace, Galileo’s Jesuit Connections and Their Influence on His
Science, w: Jesuit Science and the Republic of Letters, red. Mordechai Feingold, MIT
Press, Cambridge 2002, s. 99–112.

169 Károly Simonyi, A Cultural History of Physics, CRC Press, Boca Raton 2012,
s. 198–199.

170 John L. Heilbron, Galileo, op. cit., s. 356.

171 Ibidem.

172 Stillman Drake, Galileo at Work, op. cit., s. 436.


7.

Mechaniczny Wszechświat

Kiedy Galileusz opublikował swoje Rozprawy i dowody matematyczne


dotyczące dwóch nowych nauk, doprowadził ludzką kulturę zaledwie na
obrzeże nowego świata. Izaak Newton poczynił ostatnie wielkie kroki,
kończąc projekt całkiem nowego sposobu myślenia. Po Newtonie nauka
porzuciła arystotelesowski pogląd na przyrodę kierującą się celem i przyjęła
pitagorejski Wszechświat rządzony przez liczby. Teza jońskich filozofów, że
świat można zrozumieć dzięki obserwacji i rozumowaniu, została
przekształcona w wielką metaforę: świat jest podobny do zegara, jego
mechanizm rządzony jest przez prawa liczbowe, które sprawiają, że każdy
aspekt przyrody jest dokładnie przewidywalny, w tym – jak wielu było
przekonanych – interakcje między ludźmi.
W odległej Ameryce ojcowie założyciele przyjęli oprócz teologii
newtonowski sposób myślenia, żeby stwierdzić w Deklaracji niepodległości,
że „prawa natury i jej Bóg” upoważniają lud do samookreślenia politycznego.
We Francji po rewolucji z jej niechęcią wobec nauki Pierre-Simon de
Laplace wzniósł fizykę newtonowską na nowy poziom wyrafinowania
matematycznego, a następnie ogłosił, że stosując teorię Newtona, wyższy
intelekt mógłby „ująć w tej samej formule ruch największych ciał we
Wszechświecie i najmniejszych atomów; nic nie byłoby dla niego niepewne,
a przyszłość, podobnie jak przeszłość, byłaby dostępna dla jego oczu”173.
Dziś wszyscy rozumujemy jak zwolennicy Newtona. Mówimy o sile
charakteru jakiejś osoby i przyspieszeniu w szerzeniu się choroby. Mówimy
o inercji fizycznej, a nawet umysłowej, oraz impecie drużyn sportowych.
Myślenie w takich kategoriach byłoby niemożliwe przed Newtonem;
niemyślenie w takich kategoriach jest niemożliwe dziś. Nawet ci, którzy nic
nie wiedzą o prawach Newtona, mają umysły nasycone jego ideami. Tak
więc badanie dzieła Newtona jest badaniem naszych własnych korzeni.
Ponieważ newtonowska wizja świata jest teraz naszą drugą naturą,
docenienie zadziwiającej błyskotliwości jego prac wymaga wysiłku. Istotnie,
w szkole średniej, kiedy po raz pierwszy zapoznano mnie z „prawami
Newtona”, wydały mi się tak proste, że zastanawiałem się, o co ten cały
szum. Uznałem za dziwne, że tak wiele lat zajęło jednemu z najbardziej
bystrych ludzi w historii nauki stworzenie tego, czego ja, piętnastoletni
chłopiec, mogłem nauczyć się na zaledwie kilku lekcjach. Jak pojęcia tak
łatwo zrozumiałe dla mnie mogły być tak trudne do uchwycenia kilkaset lat
temu?
Wydawało się, że mój ojciec to rozumie. Podczas gdy ja opowiadam swoim
dzieciom historie o wynalazkach, takich jak samoprzylepne karteczki Post-it,
mój ojciec zazwyczaj sięgał po bajki ze swojego dawnego kraju. Kiedy ludzie
patrzyli na świat kilkaset lat temu, powiedział mi, widzieli rzeczywistość
inaczej, niż postrzegamy ją dziś. Opowiedział mi o czasach, gdy jako
nastolatek w Polsce wraz z kilkoma przyjaciółmi ubrali w prześcieradła kozę,
która później przebiegła przez ich rodzinny dom. Wszyscy dorośli myśleli, że
zobaczyli ducha. No dobrze, to była noc żydowskiego święta Purim, a dorośli
byli dość podchmieleni, ale ojciec nie tym tłumaczył ich reakcję – wyjaśnił,
że po prostu zinterpretowali to, co widzieli, w kategoriach kontekstu swoich
przekonań, a pojęcie ducha było jednym z pojęć, których używali i z którymi
dobrze się czuli. Mogę uważać to za ignorancję, dodał, ale to, co Newton
powiedziałby światu o prawach matematycznych Wszechświata,
prawdopodobnie wydawałoby się równie dziwne ludziom z jego czasów, jak
duchy dawnych dorosłych wydawały się mnie. To prawda, nawet jeśli nigdy
nie przeszło się kursu fizyki, jest w nas nieco z ducha Izaaka Newtona.
Jednak gdybyśmy nie zostali wychowani w kulturze newtonowskiej, te
prawa, które są teraz dla wszystkich tak oczywiste, dla większości z nas174
byłyby niezrozumiałe.

***

Opisując własne życie na krótko przed śmiercią, Newton ujął swoje


dokonania w ten sposób: „Nie wiem, jak wyglądam w oczach świata, lecz dla
siebie jestem tylko chłopcem bawiącym się na morskim brzegu,
pochylającym się i znajdującym piękniejszą muszelkę lub kamień gładszy niż
inne, podczas gdy wielki ocean prawdy jest przede mną ciągle zakryty”175.
Każdy z kamyków Newtona mógł stanowić monumentalną karierę dla
uczonych mniej błyskotliwych i płodnych od niego. Poza pracą nad
grawitacją i ruchem wiele lat poświęcił odkryciu tajników optyki i światła,
a także stworzył fizykę, taką, jaką znamy dziś, oraz rachunek różniczkowy.
Kiedy opowiedziałem o tym mojemu ojcu – który nie słyszał o Newtonie,
dopóki nie zacząłem studiować jego dzieł – zmarszczył brwi i odrzekł: „Nie
bądź taki jak on. Trzymaj się jednej dziedziny!”. Na początku zareagowałem
na te uwagi z protekcjonalnością, w jakiej specjalizują się nastolatkowie.
Jednak w istocie mój ojciec mógł mieć rację. Newton zbliżył się
niebezpiecznie do statusu geniusza, który wiele zaczynał, a niczego nie
kończył. Na szczęście, jak zobaczymy, i dziś przypisuje mu się zasługę
przeprowadzenia rewolucji w myśleniu.
Jedyną rzeczą, której Newton nigdy nie zrobił, była zabawa na brzegu
morza. W rzeczywistości, choć skorzystał bardzo na okazjonalnych
spotkaniach z naukowcami z innych miejsc w Wielkiej Brytanii
i z kontynentu – często za pośrednictwem listów – nigdy nie opuścił okolic
małego trójkąta obejmującego jego miejsce urodzenia, Woolsthorpe, jego
uniwersytet, Cambridge, i jego stolicę, Londyn. Nie wydaje się również, żeby
„bawił” się w jakimkolwiek sensie tego słowa, w jakim używa go większość
z nas. W życiu Newtona nie było wielu przyjaciół ani rodziny, z którą byłby
blisko, ani nawet jednej kochanki, ponieważ przynajmniej do ostatnich lat
nakłonienie go do życia towarzyskiego przypominało przekonywanie kotów,
żeby zebrały się, by zagrać w scrabble. Prawdopodobnie najbardziej
wymowna była uwaga jego dalekiego krewnego, Humphreya Newtona, który
pełnił funkcję asystenta uczonego przez pięć lat i stwierdził, że widział
śmiejącego się Newtona tylko raz – gdy ktoś zapytał go, dlaczego ktokolwiek
miałby chcieć studiować Euklidesa.
Newton kierował się czysto bezinteresowną pasją zrozumienia świata, a nie
dążeniem do ulepszenia go dla dobra ludzkości. Zyskał znaczną sławę za
życia, ale nie miał nikogo, żeby się nią dzielić. Osiągnął intelektualny tryumf,
ale nigdy nie poznał miłości. Otrzymał najwyższe wyróżnienia i zaszczyty,
ale spędził większość swojego czasu, tocząc intelektualną walkę. Byłoby
miło stwierdzić, że ten gigant intelektu był empatycznym, miłym
człowiekiem, ale jeśli miał jakiekolwiek takie skłonności, bardzo się postarał,
żeby je stłumić i zaprezentować się światu jako arogancki mizantrop. Był
tego rodzaju człowiekiem, który gdy mówi się, że jest pochmurno,
powiedziałby: „Nie, właściwie to niebo jest błękitne”. Co jeszcze bardziej
irytujące, był tego rodzaju człowiekiem, który potrafiłby tego dowieść. Fizyk
Richard Feynman (1918–1988) przemówił głosem wielu zaabsorbowanych
sobą naukowców, kiedy napisał książkę zatytułowaną A co ciebie obchodzi,
co myślą inni? Newton nigdy nie spisał pamiętników, ale gdyby to zrobił,
prawdopodobnie zatytułowałby je „Mam nadzieję, że naprawdę cię
wkurzyłem” albo może „Nie zawracaj mi głowy, ty dupku”.
Stephen Hawking powiedział mi kiedyś, że w pewnym sensie jest
zadowolony z tego, iż jest sparaliżowany, ponieważ pozwalało mu to
skoncentrować się bardziej intensywnie na pracy. Przypuszczam, że Newton
mógł stwierdzić z tego samego powodu, że życie we własnym świecie
zamiast tracenia czasu na dzielenie się nim z kimkolwiek innym daje
cudowne korzyści. Istotnie, najnowsze badania pokazują, że studenci, którzy
są błyskotliwi w matematyce, mają znacznie większą skłonność do
wybierania kariery naukowej, jeśli nie odznaczają się wielkimi
umiejętnościami werbalnymi176. Od dawna podejrzewałem, że słabe
zdolności towarzyskie również są skorelowane z powodzeniem w nauce.
Z pewnością znałem wielu odnoszących spore sukcesy naukowców, których
uznawano za zbyt dziwnych, żeby znaleźli zatrudnienie gdzie indziej niż na
dużym uniwersytecie badawczym. Jeden z moich kolegów ze studiów nosił
codziennie te same spodnie i koszulkę, choć krążyły plotki, że tak naprawdę
ma ich dwa zestawy, tak żeby ubranie od czasu do czasu mogło trafić do
prania. Inny z moich kolegów, słynny profesor, był tak nieśmiały, że kiedy
rozmawiało się z nim, na ogół odwracał wzrok, mówił bardzo cicho i cofał
się, jeśli zauważył, że stoisz w odległości mniejszej niż metr. To zachowanie
rodziło problemy podczas pogawędek po seminariach, ponieważ trudno było
usłyszeć, co mówi. Przy naszym pierwszym spotkaniu, gdy byłem jeszcze
studentem, popełniłem błąd i podszedłem za blisko, a później naiwnie
posuwałem się za nim, gdy się cofał, tak że mało brakowało, a przewróciłby
się o krzesło.
Nauka jest czymś niezmiernie pięknym, ale choć postępy w niej wymagają
twórczej wymiany myśli i pomysłów, która może nastąpić tylko dzięki
kontaktom z innymi twórczymi umysłami, wymagają również długich godzin
izolacji. Może to stanowić osobliwą korzyść dla tych, którzy nie są zbyt
towarzyscy, a nawet preferują życie w odosobnieniu. Jak napisał Albert
Einstein: „jednym z najmocniejszych motywów prowadzących do sztuki
i nauki jest chęć ucieczki od powszechnego życia z jego bolesną surowością
i beznadziejną pustką […]. Do tego obrazu i jego kształtowania przenosi on
punkt ciężkości swojego życia uczuciowego, by w ten sposób szukać spokoju
i pewności, których nie potrafi znaleźć, obracając się w zbyt wąskim kręgu
zamkniętego koła osobistych przeżyć”177.
Pogarda Newtona dla codziennych dążeń świata pozwalała mu realizować
swoje zainteresowania bez rozpraszania się, ale też doprowadziła go do
zatajania wielu prac naukowych, ponieważ zdecydował się nie publikować
całej masy własnych pism. Na szczęście nie wyrzucił ich – był namiętnym
kolekcjonerem godnym własnego reality show, tylko że zamiast gratów,
starych czasopism i butów, z których właściciel wyrósł, gdy miał siedem lat,
owe „rupiecie” składały się z bazgrołów dotyczących wszystkiego, od
matematyki, fizyki, alchemii, religii i filozofii po rachunki dotyczące każdego
pensa, którego kiedykolwiek wydał, i opisów uczuć do rodziców.
Newton zachował właściwie wszystko, co napisał, nawet karteluszki
z jednorazowymi obliczeniami i stare szkolne notatniki, co umożliwia tym,
którzy chcą w nich kopać, zrozumienie w bezprecedensowym stopniu
ewolucji jego pomysłów. Większość jego papierów naukowych została
w końcu podarowana bibliotece w Cambridge, jego intelektualnym domu.
Inne zaś, liczące w sumie miliony słów, sprzedano w Sotheby’s, a jednym
z licytujących był ekonomista John Maynard Keynes, który kupił większość
pism Newtona poświęconych alchemii.
Biograf Newtona Richard Westfall spędził dwadzieścia lat na studiowaniu
jego życia, dochodząc ostatecznie do wniosku, że postaci tej nie da się
„do końca zredukować do kryteriów, za pomocą których rozumiemy inne
istoty ludzkie”178. Jeśli jednak był obcym, to przynajmniej pozostawił po
sobie dzienniki.

***
Walka Newtona o zrozumienie świata wynikała z niezwykłej ciekawości,
intensywnego dążenia do odkrycia, które wydawało się pochodzić całkowicie
z zewnątrz, jak impuls, który skłonił mojego ojca do wymienienia kawałka
chleba za rozwiązanie zagadki matematycznej. U wielkiego badacza było
jeszcze coś innego, co podtrzymywało ten pęd. Choć jest on czczony jako
wzór naukowej racjonalności, jego badania nad naturą Wszechświata były,
tak jak badania innych wstecz aż do Göbekli Tepe, nierozerwalnie związane
z duchowością i religią. Newton wierzył bowiem, że Bóg objawia się nam
zarówno przez Jego słowo, jak i Jego dzieła, tak że badanie praw
Wszechświata jest badaniem Boga, a zapał do nauki – po prostu formą
gorliwości religijnej179.
Upodobanie Newtona do samotności i długich godzin pracy było,
przynajmniej z punktu widzenia jego intelektualnych osiągnięć, wielkimi
zaletami. Jeśli wycofanie się w sferę umysłu oznaczało dobrodziejstwo dla
nauki, to jego koszt był jednak wielki dla człowieka i wydaje się, że był
związany ze świadomością i bólem z czasów dzieciństwa.
W czasach szkolnych czułem się źle z tym, że niektóre dzieci nie są lubiane
przez rówieśników, zwłaszcza że sam byłem jednym z nich. Jednak Newton
miał znacznie gorzej. Nie lubiła go własna matka. Przyszedł na świat 25
grudnia 1642 roku, jak jeden z tych prezentów świątecznych, których nie
umieściło się na liście. Jego ojciec zmarł kilka miesięcy wcześniej, a matka,
Hannah, musiała uważać, że egzystencja Izaaka okaże się krótkotrwałą
niedogodnością, ponieważ najwyraźniej urodził się przedwcześnie i nie
spodziewano się, że przeżyje. Ponad osiemdziesiąt lat później Newton
powiedział mężowi swojej siostrzenicy, że po urodzeniu był tak wątły, iż
mógł się zmieścić w niewielkim garnku, i tak słaby, że potrzebował podpórki
wokół szyi, by utrzymać głowę w należytej pozycji. Stan noworodka był tak
marny, że dwie kobiety, które wysłano po zakupy do sklepu oddalonego
o kilka kilometrów, nie spieszyły się, pewne, że dziecko umrze, zanim wrócą.
Myliły się jednak. Podpórka pod głowę okazała się wszystkim, co potrzebne
było do utrzymania niemowlęcia przy życiu.
Jeśli Newton nigdy nie dostrzegał, do czego przydają się ludzie w życiu,
być może było tak dlatego, że jego matce nie wydawało się, by on sam na
wiele się przydał. Kiedy miał trzy lata, poślubiła zamożnego proboszcza,
wielebnego Barnabasa Smitha. Prawie dwukrotnie starszy od Hannah Smith
chciał młodą żonę, ale nie młodego pasierba.
Nie mamy pewności, jakiego rodzaju atmosferę rodzinną to wywołało, ale
można bezpiecznie założyć, że istniały pewne napięcia, ponieważ wiele lat
później w notatkach, jakie spisał o swoim dzieciństwie, Izaak wspominał, że
„groziłem mojemu ojcu i matce Smith, że podpalę dom, gdy będą
w środku”180. Nie zdradził, jak rodzice zareagowali na tę groźbę, ale zapiski
pokazują, że został niebawem oddany pod opiekę swojej babki. Z nią
pozostawał w lepszych stosunkach, ale nie oznaczało to za wiele.
Z pewnością nie byli ze sobą blisko – we wszystkich pismach i zapiskach,
jakie pozostawił, nie ma ani jednego czułego wspomnienia o niej. Co jednak
znamienne, nie ma również wspomnień, że chciał podłożyć ogień pod dom.
Kiedy Izaak miał dziesięć lat, wielebny Smith zmarł, i chłopak wrócił na
krótko do domu, gdzie mieszkała teraz trójka małych dzieci z drugiego
małżeństwa matki. Kilka lat po śmierci Smitha Hannah wysłała Izaaka do
purytańskiej szkoły w Grantham, oddalonego o prawie trzynaście kilometrów
od Woolsthorpe. Kiedy się tam uczył, mieszkał w domu aptekarza i chemika
Williama Clarka, który podziwiał i rozbudzał wynalazczość i ciekawość
Newtona. Młody Izaak uczył się ubijać lekarstwa za pomocą moździerza
i tłuczka; mierzył siłę burzy, skacząc z wiatrem i pod wiatr i porównując
długość swoich skoków; zbudował mały wiatrak napędzany przez mysz
biegającą w kołowrotku i czterokołowy wózek, w którym siadał i napędzał
go, obracając korbką. Zbudował również latawiec z przyczepioną do ogona
latarenką, który puszczał nocą, ku przerażeniu sąsiadów.
Choć pozostawał w dobrych stosunkach z Clarkiem, z kolegami z klasy
sprawy miały się zupełnie inaczej. W szkole Newton, odróżniający się od
innych uczniów i wyraźnie górujący nad nimi intelektem, wywoływał takie
same reakcje, jakie budziłby dziś: inne dzieci go nienawidziły. Samotne, ale
intensywnie twórcze życie, jakie prowadził jako chłopiec, przygotowało go
do twórczego, ale dręczącego życia w izolacji, jakie prowadził przez
większość – choć na szczęście nie przez całość – dorosłości.
Gdy Newton zbliżał się do swoich siedemnastych urodzin, matka zabrała
go ze szkoły, zdecydowawszy, by wrócił do domu i zajął się zarządzaniem
rodzinnym majątkiem. Jednak młodzieniec nigdy nie radził sobie dobrze jako
farmer, co dowodzi, że można być geniuszem w obliczaniu orbit planet,
a przy tym całkowitą ofermą, gdy chodzi o uprawę lucerny. Co więcej, nie
obchodziło go to. Kiedy ogrodzenia rozpadały się nienaprawiane, a jego
świnie właziły w zboże, Newton budował koła wodne nad strumieniem albo
po prostu czytał. Jak pisze Westfall, buntował się przeciwko życiu
spędzanemu na „pasaniu owiec i przerzucaniu gnoju”181. Większość fizyków,
których znam, również by się buntowała.
Na szczęście interweniował wuj Newtona i jego dawny nauczyciel szkolny
z Grantham. Dostrzegłszy geniusz Izaaka, w czerwcu 1661 roku wysłał go do
Trinity College w Cambridge. Tam Newton zetknął się z myślą naukową
swoich czasów – tylko po to, by pewnego dnia zbuntować się przeciwko niej
i ją obalić. Służba świętowała jego wyjazd – nie dlatego, że cieszyła się jego
szczęściem, ale dlatego, że zawsze traktował ją surowo. Ich zdaniem jego
osobowość sprawiała, że nie nadawał się do niczego innego poza
uniwersytetem.

***

Cambridge miało pozostać domem Newtona przez ponad trzydzieści pięć lat,
punktem zerowym rewolucji w myśleniu, której w tym czasie dokonał. Choć
tę rewolucję często przedstawia się jako spójny ciąg objawień, walka, jaką
stoczył, by poznać tajemnice Wszechświata, w rzeczywistości bardziej
przypominała wojnę pozycyjną w okopach – jedna wyczerpująca
intelektualna bitwa po drugiej, w której teren zdobywano stopniowo
i wielkim nakładem energii i czasu. Niejeden z pomniejszych geniuszy, albo
ktoś mniej fanatycznie oddany, prawdopodobnie poległby w tej walce.
Na początku warunki życiowe Newtona były ciężkie. Kiedy wyruszał do
Cambridge, matka przeznaczyła na jego utrzymanie zaledwie dziesięć funtów
– choć sama miała roczny dochód ponad siedemset funtów, co pozwalało na
dość wygodne życie. Takie pieniądze sprawiały, że znalazł się na samym
dole hierarchii społecznej na uniwersytecie.
Sizar w rygorystycznej hierarchii Cambridge był to ubogi student, który
dostawał darmowe wyżywienie i naukę, a przy tym dorabiał, obsługując
zamożniejszych kolegów: układając im włosy, czyszcząc buty, przynosząc
chleb i piwo oraz opróżniając ich nocniki. Pozycja sizara byłaby dla Newtona
awansem: był on bowiem kimś, kogo nazywano subsizarem, studentem,
który miał takie same służebne obowiązki jak sizar, ale musiał płacić za
swoje wyżywienie, a także za wykłady, na które uczęszczał. Musiało być mu
trudno przełknąć fakt, że był służącym takich samych chłopców jak ci, którzy
zawsze nękali go w szkole w Grantham. W Cambridge zasmakował, jakie
jest życie „pod schodami”.
W 1661 roku minęło zaledwie dwadzieścia lat od publikacji Rozpraw
i dowodów matematycznych dotyczących dwóch nowych nauk Galileusza;
podobnie inne jego prace nie wywarły jeszcze wielkiego wpływu na program
nauczania w Cambridge. Oznaczało to, że w zamian za swoje posługi i opłaty
Newton był częstowany lekcjami, które obejmowały wszystko, co uczeni
wiedzieli o świecie, o ile ci uczeni byli Arystotelesem: Arystotelesowskiej
kosmologii, Arystotelesowskiej etyki, Arystotelesowskiej logiki,
Arystotelesowskiej filozofii, Arystotelesowskiej fizyki, Arystotelesowskiej
retoryki… Czytał Arystotelesa w oryginale, podobnie jak podręczniki
o Arystotelesie; czytał wszystkie książki przewidziane w programie. Żadnej
z nich nie skończył, ponieważ – tak jak Galileusz – uznał, że argumenty
Arystotelesa nie są przekonujące.
Jednak pisma Arystotelesa stanowiły pierwsze wyrafinowane podejście do
wiedzy, z którym Newton się zetknął, i nawet gdy je odrzucił, nauczył się
dzięki temu ćwiczeniu, jak podchodzić do różnych problemów przyrody
i myśleć o nich w zorganizowany, spójny sposób – i z zapierającym dech
oddaniem. W rzeczywistości Newton, który pozostawał w celibacie, rzadko
oddając się rozrywkom, pracował ciężej niż ktokolwiek, o kim kiedykolwiek
słyszałem, do osiemnastu godzin na dzień, siedem dni w tygodniu. Był to
nawyk, którego miał przestrzegać przez wiele dziesięcioleci.
Lekceważąc wszystkie arystotelesowskie studia składające się na program
nauczania w Cambridge, Newton wyruszył w swoją długą podróż
ku nowemu sposobowi myślenia w 1664 roku. Jego notatki wskazują, że
rozpoczął wtedy własny program studiów, czytając i przyswajając dzieła
wielkich nowożytnych myślicieli europejskich, wśród nich Keplera,
Galileusza i Kartezjusza. Choć nie był szczególnie wybitnym studentem,
udało mu się skończyć uczelnię w 1665 roku i uzyskać tytuł scholara, wraz
z czteroletnim stypendium na dalsze studia.
Wówczas, latem 1665 roku, wybuch straszliwej zarazy dotknął Cambridge
i szkoła została zamknięta, a otwarto ją ponownie dopiero wiosną 1667 roku.
Gdy szkoła była zamknięta, Newton wrócił do domu matki w Woolsthorpe
i kontynuował pracę w samotności. W niektórych omówieniach rok 1666
nazywany jest Newtonowskim annus mirabilis. Według tej tradycji uczony
siedział na rodzinnej farmie, wymyślił rachunek różniczkowy, zrozumiał
prawa ruchu, a gdy ujrzał spadające jabłko, odkrył prawo powszechnego
ciążenia.
To prawda, to nie był zły rok. Ale nie tak to wyglądało. Teoria
powszechnego ciążenia nie była tak prosta, żeby jeden jasny pomysł pozwolił
wszystko zrozumieć – to cały korpus prac stał się podstawą nowej tradycji
naukowej182. Co więcej, ten podręcznikowy obraz Newtona i spadającego
jabłka jest szkodliwy, ponieważ utrwala mit, że fizycy dokonują postępów
dzięki wielkim i nagłym intuicjom, jak ktoś, kto uderzony w głowę zyskuje
nagle zdolność do przepowiadania pogody. W rzeczywistości nawet
w wypadku Newtona postęp wymagał wielu ciosów w głowę oraz wielu lat
obrabiania pomysłów i dochodzenia do prawdziwego zrozumienia ich
potencjału. My, naukowcy, wytrzymujemy bóle głowy wywołane tymi
ciosami, ponieważ – tak jak futboliści – kochamy nasz sport bardziej, niż
nienawidzimy bólu.
Jednym z powodów, dla których większość historyków powątpiewa
w opowieść o cudownym objawieniu, jest to, że owe odkrycia z zakresu
fizyki z okresu zarazy nie nastąpiły w jednym momencie, lecz w ciągu trzech
lat – od 1664 do 1666 roku. Co więcej, nawet Newton nie był jeszcze
zwolennikiem fizyki newtonowskiej. Wciąż myślał o ruchu jednostajnym
jako rodzącym się z czegoś wewnętrznego wobec poruszającego się ciała,
a przez „grawitację” rozumiał pewną wewnętrzną własność wynikającą
z materiału, z którego składa się obiekt, a nie zewnętrznej siły wywieranej
przez Ziemię. Idee, które rozwinął w tym czasie, stanowiły jedynie początek,
początek, który zbił go z tropu i wprawił w zakłopotanie co do wielu zjawisk,
w tym siły, grawitacji i ruchu – wszystkich podstawowych kwestii, które
ostatecznie miały stanowić przedmiot jego wielkiego dzieła, Principia
mathematica.
Mamy całkiem dobre wyobrażenie o tym, co Newton myślał na farmie
w Woolsthorpe, ponieważ – jak to miał w zwyczaju – notował wszystko
w wielkim, w większości niezapisanym notatniku, który odziedziczył po
wielebnym ojczymie. Miał szczęście, że dostał ten notatnik, a w swoich
późniejszych latach dysponował wystarczająco dużą ilością papieru, żeby
zachować miliony słów i równań matematycznych, za pomocą których opisał
swoje dzieło.
Wspominałem o innowacjach takich jak uniwersytety i wykorzystanie
równań matematycznych, jednak są również inne, niedocenione czynniki,
które ułatwiły rewolucję naukową, a które traktujemy jako coś oczywistego,
a wśród nich poczesne miejsce zajmuje rosnąca wówczas dostępność papieru.
Na szczęście dla Newtona pierwsza papiernia w Anglii, która odniosła sukces
komercyjny, została założona w 1588 roku. Co równie ważne, w 1635 roku
usługi Royal Mail stały się dostępne dla ogółu, co umożliwiło
nietowarzyskiemu Newtonowi korespondowanie z innymi naukowcami,
nawet tymi z odległych miejsc. Mimo to w owych czasach papier był wciąż
drogi, zatem notatnik, który nazywał „Zmarnotrawioną Księgą”,
przechowywał jak skarb. W nim znajdują się szczegóły podejścia Newtona
do fizyki ruchu, co daje rzadki wgląd w to, jak rozwijały się idee wielkiego
umysłu.

Wykresy od (a) do (c) przedstawiają ruch jednostajny z prędkością (a) zerową


(spoczynek), (b) małą prędkością i (c) dużą prędkością. Wykres (d) przedstawia
ruch przyspieszony (Autor: Derya Kadipasaoglu)
Wiemy na przykład, że 20 stycznia 1665 roku uczony zaczął wpisywać do
swojej Zmarnotrawionej Księgi obszerne matematyczne – a nie filozoficzne –
badania ruchu. Kluczowe dla tych analiz było stworzenie przez niego
rachunku różniczkowego, nowego rodzaju matematyki zaprojektowanego do
analizy zmiany.
W tradycji Mikołaja z Oresme Newton pojmował zmianę jako nachylenie
krzywej. Na przykład jeśli oznaczy się drogę, jaką przebył obiekt, na osi
pionowej, a na osi poziomej – czas, to nachylenie wykresu przedstawia
prędkość. Linia płaska reprezentuje zatem niezmienione położenie, podczas
gdy linia pod dużym kątem albo krzywa wskazuje, że położenie obiektu
zmieniło się gwałtownie – to znaczy, że porusza się on z dużą prędkością.
Mikołaj z Oresme i inni interpretowali wykresy w bardziej jakościowy
sposób, niż robimy to dziś. Na przykład wykresu drogi względem czasu nie
rozumiano jako przedstawiającego w każdym punkcie odległość przebytą
w czasie wskazywanym przez współrzędną na osi poziomej. Podobnie jak
nachylenia wykresu nie odczytywano jako przedstawiający prędkość obiektu
w każdym momencie. Natomiast dla fizyków przed Newtonem prędkość
oznaczała prędkość średnią – ogólną przebytą drogę podzieloną przez czas,
jaki to zajęło. Były to bardzo ogólne kalkulacje, ponieważ czas, jaki
zazwyczaj uwzględniano w tych obliczeniach, liczony był w godzinach,
dniach czy nawet tygodniach. W istocie nie było możliwości zmierzenia
krótszych jego odcinków z jakąkolwiek precyzją aż do 1670 roku, kiedy to
angielski zegarmistrz William Clement wynalazł zegar wahadłowy,
pozwalający mierzyć czas z dokładnością do sekundy.
Wyjście poza średnie do wartości wykresów i ich nachyleń w każdym
poszczególnym punkcie było objawieniem w analizach Newtona. Zajął się on
problemem, nad którym nie pochylił się nikt wcześniej: Jak określić
chwilową prędkość obiektu, jego prędkość w każdej danej chwili? Jak
podzielić przebytą drogę przez czas, jaki to zajęło, kiedy interwał czasu,
o jaki chodzi, jest właściwie pojedynczym punktem czasowym? Czy ten
problem ma sens? W swojej Zmarnotrawionej Księdze Newton przypuścił
atak na ten problem.
Jeśli Galileusz lubił sobie wyobrażać „ograniczone przypadki”, takie jak
pochylnia, która jest nachylona pod coraz to większym kątem, dopóki nie
zbliży się do pionu, to Newton doprowadził tę ideę do zupełnie nowej
skrajności. Aby określić prędkość chwilową w danym punkcie czasu,
wyobraził sobie najpierw obliczenie prędkości średniej w tradycyjny sposób
w pewnym przedziale czasu obejmującym ów punkt. Następnie wyobraził
sobie coś nowego i abstrakcyjnego: ścieśnianie tego interwału coraz bardziej,
aż w ograniczonym przypadku jego wielkość osiągnie zero.
Innymi słowy, Newton wyobrażał sobie, że można uczynić interwał
czasowy tak małym, że będzie mniejszy niż jakakolwiek skończona liczba –
a jednak większy od zera. Dziś długość takiego interwału nazywamy
„nieskończenie małą”. Jeśli obliczy się średnią prędkość w interwale
czasowym i zacieśni ten interwał do nieskończenie małej wartości, uzyska się
prędkość obiektu w danym momencie, jego prędkość chwilową.
Reguły matematyczne pozwalające na znajdowanie prędkości chwilowej
w danym czasie – czy, bardziej ogólnie rzecz ujmując, nachylenia krzywej
w danym punkcie – stanowią podstawę rachunku różniczkowego. Jeśli atomy
są niepodzielnymi cząstkami, z których składają się związki chemiczne, to
wielkości nieskończenie małe są jak niepodzielne cząstki, z których składa
się przestrzeń i czas.
Za pomocą rachunku różniczkowego Newton wynalazł matematykę
zmiany. W szczególności w odniesieniu do ruchu wprowadził wyrafinowane
rozumienie prędkości chwilowej do kultury, która dopiero niedawno
stworzyła pierwszy w ogóle sposób mierzenia prędkości. Otóż linę
z zawiązanymi węzłami, do której przymocowana była kłoda, wyrzucano za
burtę statku i zliczano liczbę węzłów, jakie wysunęły się za burtę w danym
czasie. Teraz po raz pierwszy miało sens mówienie o prędkości obiektu –
albo zmiany, albo czegokolwiek – w konkretnym momencie.
Dziś rachunek różniczkowy wykorzystuje się do opisania zmiany
wszelkiego rodzaju – sposobu, w jaki powietrze owiewa skrzydła samolotu;
rozrostu populacji i ewolucji systemów pogodowych; wzrostów i spadków na
rynkach akcji; ewolucji reakcji chemicznych. W każdym przedsięwzięciu,
w którym można przedstawić na wykresie ilość, we wszystkich dziedzinach
współczesnej nauki, rachunek różniczkowy jest kluczowym narzędziem183.
Rachunek różniczkowy w końcu pozwolił Newtonowi na odniesienie
wielkości siły przyłożonej do obiektu w danym momencie do zmiany jego
prędkości w tymże momencie. Co więcej, miał pokazać, jak można sumować
te nieskończenie małe zmiany prędkości, żeby wyprowadzić drogę obiektu
jako funkcję czasu. Jednak te prawa i metody miały się pojawić dopiero po
kilku dziesięcioleciach.
W fizyce, podobnie jak w matematyce, Zmarnotrawiona Księga wyszła
poza wszystko, co dotychczas sobie wyobrażano. Na przykład przed
Newtonem zderzenie obiektów traktowano jako swego rodzaju zapasy
między wewnętrznymi konstytucjami tych dwóch obiektów, niczym dwóch
muskularnych gladiatorów rywalizujących o wypchnięcie drugiego poza
arenę. Natomiast w sposobie myślenia Newtona każde ciało jest analizowane
jedynie w kategoriach zewnętrznej przyczyny, która się do niego stosuje – to
znaczy siły.
Pomimo tego postępu w myśleniu w ponad stu aksjomatach dotyczących
tego problemu, jakie znalazły się w jego Zmarnotrawionej Księdze, Newton
przedstawił tylko niedoskonały i zawiły obraz tego, co rozumiał przez „siłę”.
W szczególności nie daje wskazówek, jak kwantyfikować siłę, taką jak ta
wywierana przez przyciąganie Ziemi albo wywoływana przez „zmianę
ruchu” obiektu. Obrazu, który Newton zaczął kreślić w latach spędzonych
w Woolsthorpe, nie udoskonalił przez niemal dwadzieścia lat – i bardzo
różnił się on od iskry potrzebnej do wywołania rewolucji newtonowskiej.

***

Fizyk Jeremy Bernstein opowiada historię o wizycie austriackiego fizyka


Wolfganga Pauliego w Stanach Zjednoczonych w 1958 roku. Pauli
przedstawił swoją teorię słuchaczom na Uniwersytecie Columbia, wśród
których był Niels Bohr, który wydawał się sceptyczny. Pauli przyznał, że na
pierwszy rzut oka jego teoria może się wydawać nieco szalona, ale Bohr
odpowiedział, że nie, problemem było to, że nie była wystarczająco szalona.
W tym momencie Pauli zwrócił się do słuchaczy i wykrzyknął: „Tak, moja
teoria jest wystarczająco szalona!”. Bohr upierał się: „Nie, twoja teoria nie
jest wystarczająco szalona!”. Wkrótce dwóch sławnych fizyków
przechadzało się przed całą salą, krzycząc na siebie jak piątoklasiści184.
Wspominam o tym, żeby pokazać, iż wszyscy fizycy – i wszyscy
innowatorzy – mają więcej błędnych niż trafnych pomysłów, a jeśli są bardzo
dobrzy w tym, co robią, przychodzą im do głowy również szalone pomysły,
które są najlepsze – ale tylko jeśli okażą się trafne, oczywiście. Odróżnienie
tego, co jest trafne, od tego, co nietrafne, nie jest łatwym zadaniem; może
wymagać mnóstwo czasu i wysiłku. Powinniśmy więc mieć trochę sympatii
dla ludzi o niecodziennych pomysłach. W istocie, Newton był jednym z nich:
po tak pomyślnym początku w czasie zarazy następną fazę swojego życia
spędził na formułowaniu błędnych pomysłów, które wielu późniejszych
uczonych studiujących jego dzieło uznawało za szalone.
Wszystko zaczęło się dość dobrze. Wiosną 1667 roku, niedługo po
ponownym otwarciu Cambridge, Newton wrócił do Trinity College. Jesienią
tego roku w Trinity odbyły się wybory185. Wszyscy niekiedy stajemy
w obliczu drobnych sytuacji, które będą miały ogromny wpływ na naszą
przyszłość – wyzwań osobistych, rozmów o pracę, które mogą zmienić nasze
życie, egzaminy wstępne do college’u albo szkoły zawodowej; każde z tych
wydarzeń może mieć wielki wpływ na późniejsze możliwości. Wybory
w Trinity College były dla Newtona tym wszystkim w jednym: ich wynik
miał przesądzić, czy dwudziestoczterolatek będzie mógł pozostać na
uniwersytecie na wyższym stanowisku nazywanym fellow, czy będzie musiał
wrócić do życia wypełnionego wypasaniem owiec i przerzucaniem gnoju.
Jego perspektywy nie rysowały się dobrze, ponieważ w Trinity College nie
organizowano wyborów od trzech lat, a do obsadzenia było tylko dziewięć
stanowisk i znacznie więcej kandydatów, z których wielu miało koneksje
polityczne. Niektórzy chlubili się nawet listami od króla nakazującymi ich
wybór. A jednak wybrano Newtona.
Teraz, kiedy karierę farmera zostawił na dobre za sobą, można by
pomyśleć, że wielki uczony zabrał się do pracy i przystąpił do przerobienia
zanotowanych w Zmarnotrawionej Księdze myśli o rachunku różniczkowym
i ruchu w swe słynne prawa. Nic podobnego. Zamiast tego przez następne
kilka lat Newton dokonał wiele w dwóch bardzo odmiennych dziedzinach –
optyce i matematyce, w szczególności algebrze. To ostatnie bardzo mu się
opłaciło pod tym względem, że niebawem traktowano go jako geniusza
w małej społeczności matematyków z Cambridge. W rezultacie kiedy
wpływowy Isaac Barrow przestał być profesorem matematyki w prestiżowej
katedrze Lucasa – które to stanowisko kilka wieków później miał objąć
Stephen Hawking – skutecznie zaaranżował wybór Newtona na swoje
miejsce186. Wynagrodzenie było wspaniałe, jak na ówczesne standardy:
uniwersytet chciał teraz dać Izaakowi dziesięć razy więcej, niż kiedyś chciała
zapewnić mu matka – sto funtów na rok.
Wysiłki Newtona na polu optyki nie przyniosły podobnych profitów.
Jeszcze w czasach studenckich przeczytał najnowsze dzieła o optyce i świetle
naukowca z Oksfordu Roberta Boyle’a (1627–1691), który był również
pionierem chemii, i Roberta Hooke’a (1635–1703) „zgarbionego i bladego”
człowieka, zarówno świetnego teoretyka, jak i eksperymentatora, czego
dowiódł, pracując jako asystent Boyle’a. Prace
Boyle’a i Hooke’a zainspirowały Newtona, choć nigdy nie przyznał tego
wprost. Już wkrótce nie tylko przeprowadzał obliczenia, lecz także
eksperymentował i szlifował soczewki, udoskonalając teleskop.
Newton postanowił badać światło na kilka różnych sposobów187. Wcisnął
sobie przypominające igłę szydło do oka i naciskał, aż zobaczył białe
i kolorowe kręgi. Czy światło pochodzi z nacisku? Wpatrywał się w słońce
tak długo, jak tylko mógł znieść – tak długo, że doszedł do siebie dopiero
dzień później – i zauważył, że kiedy odwracał od niego wzrok, kolory były
zniekształcone. Czy światło jest rzeczywiste, czy stanowi wytwór wyobraźni?
Aby badać kolor w laboratorium, Newton zrobił dziurę w okiennicy
jedynego okna w swoim gabinecie i przepuścił przez nią promień słoneczny.
Jego białe światło, jak uważali filozofowie, było najczystszego rodzaju, było
to światło, które jest całkowicie pozbawione kolorów. Hooke przepuścił takie
światło przez pryzmaty i zaobserwował, że z pryzmatów wychodzi światło
barwne. Wywnioskował, że przejrzyste substancje takie jak pryzmat
wytwarzają kolor. Newton również przepuścił światło przez pryzmaty
i doszedł do odmiennej konkluzji. Zauważył, że choć rozszczepiają one białe
światło na kolory, to kiedy wpuści się w nie światło kolorowe, kolory
pozostają niezmienione. W końcu doszedł do wniosku, że szkło nie wytwarza
koloru, ale – przez odmienne ugięcie promieni różnych kolorów – rozdziela
białe światło na kolory, które się na nie składają. Białe światło nie jest czyste,
ogłosił Newton, lecz jest mieszaniną.
Takie obserwacje doprowadziły Newtona do teorii koloru i światła, które
wypracował między 1666 i 1670 rokiem. Rezultatem był wniosek –
naukowca rozwścieczyło, gdy Hooke nazwał go hipotezą – że światło składa
się z promieni albo maleńkich „korpuskuł” podobnych do atomów. Wiemy
teraz, że szczegóły teorii Newtona są błędne. To prawda, że idea korpuskuł
światła miała zostać wskrzeszona przez Einsteina kilkaset lat później – dziś
nazywamy je fotonami, ale korpuskuły światła u Einsteina są cząstkami
kwantowymi i nie stosują się do teorii Newtona.
Choć prace Newtona nad teleskopem przyniosły mu sławę, idea korpuskuł
światła spotkała się w jego czasach, podobnie jak to miało być z koncepcją
Einsteina, z wielkim sceptycyzmem. Robert Hooke, którego teoria opisywała
światło jako składające się z fal, przyjął ją wręcz z wrogością. Co więcej,
skarżył się, że eksperymenty, które Newton przedstawiał jako własne,
w istocie były wariacjami jego własnych wcześniejszych doświadczeń.
Lata złego odżywiania i bezsennych nocy strawionych na badaniu optyki
doprowadziły Newtona jedynie do intelektualnej bitwy, która szybko stała się
zażarta i podstępna. Co gorsza, Hooke był zuchwały, mówił, co myśli, bez
ogródek, a odpowiedzi dla młodszego kolegi układał w ciągu kilku godzin,
podczas gdy Newton, drobiazgowy i staranny we wszystkim, miał poczucie,
że w swoje repliki musi włożyć wiele pracy. W jednym wypadku zajęło mu
to całe miesiące.
Poza osobistymi animozjami konflikt uświadomił Newtonowi społeczną
stronę nowej metody naukowej – publiczną dyskusję i spór o idee. Nie
znajdował w tym upodobania. Mając już wcześniej skłonności do izolacji, po
prostu się wycofał.
Znudzony matematyką i rozwścieczony krytyką, z jaką spotkała się jego
optyka, w połowie lat siedemdziesiątych XVII wieku Newton – mający
wówczas niewiele ponad trzydzieści lat, ale już z posiwiałymi i zazwyczaj
nieuczesanymi włosami – właściwie odciął się od całej społeczności
naukowej. Miał pozostać odcięty od niej przez następną dekadę.
Niechęć do konfliktów nie była jedyną przyczyną tej nowej, niemal
zupełnej izolacji: w ciągu kilku wcześniejszych lat, nawet gdy pracował nad
matematyką i optyką, Newton zaczął się zwracać ku dwóm nowym
zainteresowaniom, którym zaczął poświęcać swoje stugodzinne tygodnie
robocze, a do ich omawiania z kimkolwiek wcale się nie spieszył. Były to
bowiem „szalone” programy badawcze, za które od tego czasu tak często był
krytykowany. I istotnie, lokowały się one zdecydowanie poza głównym
nurtem badań naukowych: oto oddawał się matematycznym i tekstowym
analizom Biblii oraz alchemii.
Późniejszym uczonym decyzja Newtona, by poświęcić się pracy nad
teologią i alchemią, często wydawała się niepojęta, jak gdyby nagle przestał
wysyłać artykuły do „Science”, by pisać broszury dla scjentologów. Jednak
te oceny nie uwzględniają prawdziwego zakresu jego nowego zajęcia, wysiłki
w zakresie fizyki, teologii i alchemii scalał bowiem wspólny cel: walka
o poznanie prawdy o świecie. Warto omówić pokrótce te wysiłki – nie
dlatego, że okazały się trafne, ani nie dlatego, że dowodzą one, iż Newton
miał nawroty szaleństwa, lecz dlatego, że rzucają światło na często cienką
granicę oddzielającą badania naukowe, które okazują się owocne, od tych,
które nie przynoszą efektów.
Newton wierzył, że Biblia obiecywała ujawnienie prawdy ludziom
pobożnym, choć pewne jej elementy mogły nie być widoczne w prostym
odczytaniu tekstu. Był również przekonany, że dawni pobożni uczeni, w tym
wspaniali alchemicy, tacy jak wielki szwajcarski fizyk Paracelsus, zdobyli
tajną wiedzę, którą zawarli w swoich dziełach w zaszyfrowanej postaci, żeby
ukryć ją przed niewiernymi. Nawet gdy już wyprowadził swoje prawo
ciążenia, zaczął nawet wierzyć, że Mojżesz, Pitagoras i Platon znali je przed
nim188.
To, że Newton miał zmienić swoje pomysły w matematyczną analizę Biblii,
jest zrozumiałe, jeśli wziąć pod uwagę jego talenty. Jego praca doprowadziła
do tego, co uznał za precyzyjne datowanie stworzenia świata, zbudowania
arki przez Noego i innych wydarzeń biblijnych. Obliczył nawet na podstawie
Pisma, i wielokrotnie poprawiał te obliczenia, przewidywaną datę końca
świata189. Jedno z jego ostatnich przewidywań wskazywało, że świat
zakończy się w pewnym momencie między 2060 i 2344 rokiem. (Nie wiem,
czy okaże się to prawdą, ale – co dziwne – dość dokładnie zgadza się
z pewnymi scenariuszami globalnych zmian klimatycznych).
W dodatku Newton zaczął mieć wątpliwości co do autentyczności wielu
fragmentów i był przekonany, że rozległe oszustwo doprowadziło do
zepsucia dziedzictwa wczesnego Kościoła, by wesprzeć ideę Chrystusa-Boga
– ideę, którą uznawał za bałwochwalczą. Krótko rzecz ujmując, nie wierzył
w Trójcę Świętą, co było dość zabawne, jeśli zauważyć, że był profesorem
w College’u Świętej Trójcy. Właściwie było to nawet niebezpieczne,
ponieważ niemal na pewno straciłby swoje stanowisko, a być może nawet
więcej, gdyby wieść o jego poglądach dotarła do niewłaściwych ludzi.
Jednak gdy poświęcił się reinterpretacji chrześcijaństwa, był bardzo ostrożny
w upublicznieniu swojej pracy – pomimo że dotyczyła religii, a nie była to
jego rewolucyjna praca w zakresie nauki, którą uważał za swoją
najważniejszą działalność.
Inna pasja Newtona z tych lat, alchemia, również pochłaniała mnóstwo
czasu i energii. Naukowiec zajmował się nią przez trzynaście lat, czyli
znacznie dłużej, niż kiedykolwiek poświęcił pracy nad fizyką. Studia te
wymagały również dużych pieniędzy, badacz bowiem urządził laboratorium
alchemiczne i stosowną bibliotekę. Także w tym wypadku błędem byłoby
potraktować jego wysiłki jako nienaukowe, ponieważ – jak wiele innych jego
zajęć – badania te były starannie przeprowadzane, a jeśli wziąć pod uwagę
leżące u ich podstaw przekonania – dobrze przemyślane. I znów Newton
doszedł do wniosków, które trudno jest nam zrozumieć, ponieważ jego
rozumowanie było osadzone w szerszym kontekście, dla nas zupełnie obcym.
Dziś myślimy o alchemikach jako o odzianych w szaty, brodatych
mężczyznach, wyśpiewujących zaklęcia, gdy zmieniają gałkę muszkatołową
w złoto. Istotnie, najwcześniejszym znanym praktykiem alchemii był
Egipcjanin, Bolos z Mendes, który żył około 200 roku p.n.e. i kończył każdy
swój „eksperyment” zaklęciem: „Jedna natura raduje się w drugiej. Jedna
natura niszczy drugą. Jedna natura panuje nad drugą”190. Brzmi to, jak gdyby
wyliczał różne rzeczy, jakie mogą się zdarzyć, gdy dwoje ludzi się pobiera.
Jednak natury, które miał na myśli Bolos, były związkami chemicznymi, a on
istotnie do pewnego stopnia rozumiał reakcje chemiczne. Newton był
przekonany, że w odległej przeszłości uczeni tacy jak Bolos odkryli głębokie
prawdy, które od tego czasu zostały utracone, ale da się je odzyskać dzięki
analizie greckich mitów, które w jego przekonaniu były receptami
alchemicznymi zapisanymi szyfrem.
W swoich badaniach alchemicznych Newton zachowywał skrupulatne
podejście naukowe, wykonując niezliczone staranne eksperymenty
i prowadząc dokładne notatki. Przyszły autor Principiów – często
nazywanych największą książką w historii nauki – spędził lata na
zabazgrywaniu notatników wypełnionych obserwacjami w rodzaju: „Rozłóż
lotnego zielonego lwa w centralnej soli Wenus i przedestyluj. Ten duch jest
zielonym lwem krwi zielonego lwa Wenus, babilońskim smokiem, który
zabije wszystko swoją trucizną, ale pokonany łagodnością Gołębi Diany,
stanie się Więzią Merkurego”191.
Kiedy zacząłem karierę naukową, ubóstwiałem wszystkich zwyczajnych
bohaterów – Newtonów i Einsteinów przeszłości oraz współczesnych
geniuszy takich jak Feynman. Wejście do dziedziny, która wydała wszystkich
tych wielkich, mogło stanowić szaloną presję dla młodego naukowca.
Odczułem tę presję, kiedy po raz pierwszy odebrałem mianowanie z mojego
wydziału w Caltech192. Czułem się jak w noc przed pierwszym dniem
w liceum, kiedy bałem się lekcji gimnastyki, a zwłaszcza wchodzenia pod
prysznic przed wszystkimi tymi chłopcami. W fizyce teoretycznej bowiem
jest się nagim – nie fizycznie, lecz intelektualnie, a inni przyglądają się
i oceniają.
O takim poczuciu braku bezpieczeństwa rzadko się mówi i rzadko się
z niego zwierza, jednak jest ono powszechne. Każdy fizyk musi znaleźć swój
sposób na poradzenie sobie z presją, ale jedno jest pewne – jeśli ma się
odnieść sukces, nie można lękać się pomyłki. Często twierdzi się, że Thomas
Edison udzielał porady: „Aby mieć doskonały pomysł, miej ich wiele”.
I istotnie, każdy innowator częściej trafia w ślepe zaułki niż na wspaniałe
bulwary, tak więc obawa przed obraniem złego kierunku jest gwarancją, że
nigdy nie trafi się w interesujące miejsce. Osobiście bardzo lubiłem
przypominać sobie na wczesnym etapie kariery o wszystkich błędnych
pomysłach i zmarnowanych latach Newtona.
Świadomość, że nawet geniusze tacy jak Newton mogą zejść na manowce,
że ci, którzy niekiedy w błyskotliwy sposób mają słuszność, niekiedy
również się mylą, bardzo dodaje otuchy. Newton mógł zrozumieć, że ciepło
jest rezultatem ruchu maleńkich cząsteczek, z których – jak był przekonany –
zbudowana jest cała materia, ale kiedy sądził, że ma gruźlicę, pił „lekarstwo”
złożone z terpentyny, wody różanej, wosku i oliwy. (Lekarstwo to miało być
również dobre na bóle w piersiach i ugryzienie wściekłego psa). Tak,
wynalazł rachunek różniczkowy, ale sądził również, że rzut poziomy
świątyni króla Salomona w Jerozolimie zawiera matematyczne wskazówki
dotyczące końca świata.
Dlaczego tak bardzo zboczył z kursu? Kiedy zbada się okoliczności, jeden
czynnik wybija się przed inne: izolacja. Tak jak izolacja intelektualna
doprowadziła do rozpowszechnienia złej nauki w średniowiecznym świecie
arabskim, wydaje się, że to samo przeszkadzało Newtonowi, choć jego
samotność była narzucona przez niego samego, ponieważ zachowywał swoje
przekonania dotyczące religii i alchemii dla siebie, nie chcąc ryzykować
śmieszności czy nawet cenzury przez otwarcie dyskusji na intelektualny spór.
Był „dobry Newton” i „zły Newton”, racjonalny i irracjonalny, napisał filozof
z Oksfordu William H. Newton-Smith193. Czy też raczej – Newton pobłądził,
nie poddając swoich pomysłów pod dyskusję i osąd „na forum publicznym”,
które są jedną z najważniejszych „norm instytucji nauki”.
Reagujący alergicznie na krytykę Newton równie mocno wahał się przed
podzieleniem się wynikami rewolucyjnych badań, które w latach zarazy
przeprowadził nad fizyką ruchu. Po piętnastu latach kierowania katedrą
Lucasa idee te wciąż pozostawały nieopublikowanym, nieukończonym
dziełem. W rezultacie w 1684 roku ten maniakalnie ciężko pracujący były
cudowny chłopiec w wieku czterdziestu jeden lat dorobił się jedynie stosu
nieuporządkowanych notatek i rozpraw o alchemii i religii, gabinetu
zaśmieconego nieukończonymi traktatami matematycznymi i poświęconymi
teorii ruchu, która wciąż była pełna zamętu i niekompletna. Newton
przeprowadził szczegółowe badania w wielu dziedzinach, ale nie doszedł do
żadnych mocnych wniosków, pozostawiając idee matematyki i fizyki
w stanie, w którym przypominały przesycony roztwór soli: nabrzmiałe
treścią, ale jeszcze niewykrystalizowane.
Tak przedstawiały się w tym czasie osiągnięcia wielkiego fizyka. Historyk
Richard S. Westfall powiada: „Gdyby Newton zmarł w 1684 roku, a jego
papiery się zachowały, wiedzielibyśmy z nich, że żył geniusz. Jednak zamiast
wysławiać postać, która ukształtowała nowoczesny intelekt, najwyżej
wspominalibyśmy o nim w krótkich akapitach, załamując ręce nad jego
niezdolnością do osiągnięcia naukowego spełnienia”194.
Tego, że taki los nie spotkał Newtona, nie zawdzięczamy wcale jego
świadomej decyzji, by ukończyć i opublikować swoje dzieło. Przeciwnie,
w 1684 roku bieg historii nauki został zmieniony przez niemal przypadkowe
spotkanie, rozmowę z kolegą, która dostarczyła zaledwie pomysłów
i bodźców, tych właśnie zaś Newton potrzebował. Gdyby nie to spotkanie,
historia nauki i dzisiejszy świat byłyby zupełnie inne, i to wcale nie lepsze.

***

Ziarno, które miało wykiełkować w największy postęp nauki, jaki świat


kiedykolwiek widział, wypuściło pędy, gdy nasz bohater spotkał się z kolegą,
który przypadkiem przejeżdżał przez Cambridge w gorącym schyłku lata.
W styczniu tego pamiętnego roku astronom Edmond Halley – ten od
słynnej komety – siedział na posiedzeniu Royal Society w Londynie,
wpływowego towarzystwa naukowego, na którym omawiał palące
zagadnienie dnia ze swoimi dwoma kolegami. Kilkadziesiąt lat wcześniej
dzięki wykorzystaniu danych dotyczących planet, danych
o bezprecedensowej dokładności zgromadzonych przez duńskiego szlachcica
Tychona Brahego (1546–1601), Johannes Kepler sformułował trzy prawa,
które wydawały się opisywać orbity planet. Ogłosił, że orbity planet są
elipsami, a Słońce znajduje się w jednym z ich ognisk, i zidentyfikował
pewne reguły, którym podlegają te orbity – na przykład, że pierwiastek
czasu, jaki zajmuje planecie pełny obieg orbity, jest wprost proporcjonalny
do kwadratu średniej odległości od Słońca. W pewnym sensie jego prawa
były pięknymi i zwięzłymi opisami, jak planety poruszają się w przestrzeni,
ale w innym sensie – prostymi obserwacjami, tezami ad hoc, które nie
dawały żadnej głębszej wiedzy, dlaczego miałyby się one poruszać po
właśnie takich orbitach.
Halley i jego dwóch kolegów podejrzewali, że prawa Keplera
odzwierciedlają jakąś głębszą prawdę. W szczególności przypuszczali, że
wszystkie one byłyby zachowane, jeśli założy się, że Słońce przyciąga do
siebie każdą planetę z siłą, która słabnie proporcjonalnie do kwadratu
odległości tej planety od Słońca, co jest formułą matematyczną nazywaną
„prawem odwrotnych kwadratów”.
To, że siła, która emanuje we wszystkich kierunkach z odległego ciała
takiego jak Słońce, będzie maleć proporcjonalnie do kwadratu odległości od
tego ciała, można wywnioskować z geometrii. Wyobraźmy sobie gigantyczną
sferę, tak wielką, że Słońce wydaje się jedynie kropką w jej centrum.
Wszystkie punkty na powierzchni tej sfery będą się znajdowały w równej
odległości od Słońca, tak że wobec braku jakiegokolwiek powodu, by sądzić
inaczej, można się domyślać, iż fizyczny wpływ Słońca – zasadniczo jego
„pole siłowe” – rozkładałby się równo na powierzchni sfery.
Wyobraźmy sobie teraz sferę, powiedzmy, dwukrotnie większą. Prawa
geometrii mówią nam, że podwojenie promienia sfery prowadzi do
czterokrotnego zwiększenia jej powierzchni, tak że siła przyciągania Słońca
będzie się teraz rozkładać na czterokrotnie większej powierzchni. Zatem
miałoby sens, żeby w każdym danym punkcie na tej większej sferze
przyciąganie Słońca odpowiadało jednej czwartej siły przyciągania na
powierzchni mniejszej sfery. Tak właśnie działa prawo odwróconych
kwadratów: kiedy się oddalasz, siła maleje proporcjonalnie do kwadratu
odległości.
Halley i jego współpracownicy podejrzewali, że za prawami Keplera kryje
się prawo odwróconych kwadratów, ale czy potrafili tego dowieść? Jeden
z nich – Robert Hooke – twierdził, że tak. Drugi, Christopher Wren, który
jest dziś najbardziej znany ze swoich dzieł architektonicznych, ale był
również znanym astronomem, zaoferował Hooke’owi nagrodę w zamian za
dowód. Hooke odmówił. Był znany ze skłonności do sprzeciwiania się, ale
uzasadnienie, jakie podał, było podejrzane: powiedział, że wstrzyma się
z ujawnieniem swojego dowodu, tak żeby inni, którym nie udałoby się
rozwiązać problemu, mogli docenić jego trudność. Być może Hooke
rzeczywiście rozwiązał problem. Być może zaprojektował również sterowiec,
który mógł polecieć na Wenus. W każdym razie nigdy nie przedstawił
dowodu.
Siedem miesięcy po tym spotkaniu Halley, znalazłszy się w Cambridge,
postanowił zajrzeć do osamotnionego profesora Newtona. Podobnie jak
Hooke, Newton stwierdził, że jego prace mogą dowieść przypuszczenia
Halleya. I podobnie jak Hooke, nie przedstawił dowodu. Przekopał się przez
jakieś papiery, ale nie znalazłszy go, obiecał poszukać i wysłać później
Halleyowi. Mijały miesiące, a astronom nic nie dostał. Nie można się nie
zastanawiać, co myślał sobie Halley. Zapytał dwóch doświadczonych,
dorosłych ludzi, czy potrafią rozwiązać problem, i jeden powiedział: „Znam
odpowiedź, ale nie powiem!”, natomiast drugi stwierdził w zasadzie: „Pies
zjadł moją pracę domową”. Tymczasem Wren podtrzymał propozycję
nagrody.
Newton rzeczywiście znalazł dowód, którego szukał, ale kiedy ponownie
go przejrzał, odkrył, że kryje się w nim błąd. Mimo to się nie poddał –
opracował na nowo swoje pomysły i w końcu mu się udało. W listopadzie
tego roku wysłał Halleyowi liczącą dziewięć stron rozprawkę, w której
wykazywał, że wszystkie trzy prawa Keplera były w istocie matematycznymi
konsekwencjami prawa odwróconych kwadratów zastosowanego do
przyciągania. Tę krótką rozprawkę zatytułował De motu corporum in gyrum
(O ruchu ciał po orbicie).
Halley był zachwycony. Rozprawkę Newtona uznał za rewolucyjną
i chciał, żeby Royal Society ją opublikowało. Tymczasem autor się
sprzeciwił: „Zajmuję się teraz tym zagadnieniem – stwierdził – i byłbym rad
poznać jego sedno, zanim opublikuję moje papiery”195. Newton „byłby rad
poznać”? Ponieważ to, co nastąpiło dalej, było herkulesowym wysiłkiem,
który doprowadził do najważniejszego odkrycia intelektualnego, jakiego
kiedykolwiek dokonano, te słowa stanowią jedno z największych
niedopowiedzeń w historii. Newton dotarł „do jego sedna”, dowodząc, że za
zagadnieniem orbit planet kryje się uniwersalna teoria ruchu i siły, która
stosuje się do wszystkich obiektów, zarówno w niebiosach, jak i na Ziemi.
Przez następnych osiemnaście miesięcy Newton nie robił nic poza pracą
nad rozbudowaniem rozprawki, która miała się stać jego największym
dziełem, Principiami. Był maszyną fizyczną. Zawsze gdy zajmował się
jakimś tematem, nie jadł posiłków, a nawet nie spał. Jego kot, jak kiedyś
opowiadano, utuczył się na jedzeniu, które uczony zostawiał nietknięte na
tacy, a dawny współlokator z college’u donosił, że często znajdował
Newtona rano w tym samym miejscu, gdzie zostawił go wieczorem
poprzedniego dnia, wciąż pracującego nad tym samym problemem. Jednak
tym razem Newton popadł w jeszcze większą skrajność. Odciął się
praktycznie od wszystkich kontaktów z ludźmi. Rzadko opuszczał swój
pokój, a przy nielicznych okazjach, kiedy wypuszczał się do jadalni
college’u, często skubnął zaledwie kęs albo dwa i szybko wracał do swojego
mieszkania.
W końcu zamknął drzwi do swojego laboratorium alchemicznego i odłożył
na półkę dociekania teologiczne. Nadal prowadził wykłady, jak wymagano
od niego, ale wydawały się one dziwnie niejasne i trudno było za nimi
podążać. Później odkryto dlaczego: naukowiec po prostu pojawiał się na
kolejnych wykładach i czytał pierwsze szkice Principiów.

***

Newton mógł nie posunąć znacznie naprzód swojej pracy nad siłą i ruchem
po wyborze do Trinity College, ale w latach osiemdziesiątych XVII wieku
był już znacznie bardziej dojrzały naukowo niż w okresie zarazy dwadzieścia
lat wcześniej. Był bardziej doświadczony jako matematyk, sporo dały mu też
studia nad alchemią. Niektórzy historycy są nawet przekonani, że to właśnie
lata poświęcone na studiowanie alchemii pozwoliły mu dokonać
ostatecznego przełomu w fizyce ruchu, dzięki któremu powstały Principia.
Jak na ironię, jednym z katalizatorów przełomu dokonanego przez Newtona
był list, który otrzymał pięć lat wcześniej od Roberta Hooke’a. Pomysł, jaki
wysunął Hooke, głosił, że ruch po orbicie można postrzegać jako sumę
dwóch odmiennych tendencji. Wyobraźmy sobie obiekt (taki jak planeta),
orbitujący po okręgu wokół jakiegoś innego obiektu, który go przyciąga
(takiego jak słońce). Załóżmy, że ciało orbitujące wykazuje tendencję do
poruszania się dalej po linii prostej – to znaczy do tego, by wylecieć z orbity
i wystrzelić prosto przed siebie, jak samochód, którego kierowca nie
zauważył zakrętu w deszczu. To właśnie matematycy nazywają poruszaniem
się po stycznej.
Załóżmy teraz również, że ciało to wykazuje drugą tendencję –
przyciągania do środka orbity. Matematycy nazywają ruch w tym kierunku
ruchem radialnym. Tendencja do poruszania się ruchem radialnym, twierdził
Hooke, może uzupełniać tendencję do poruszania się po stycznej, tak że
łącznie obie dają ruch po orbicie.
Łatwo się domyślić, jaki oddźwięk wywołał u Newtona ten pomysł.
Przypomnijmy, że poprawiając Galileuszowe prawo bezwładności, Newton
zasugerował w swojej Zmarnotrawionej Księdze, iż wszystkie ciała dopóty
wykazują tendencję do kontynuowania ruchu po linii prostej, dopóki nie
zostaną zatrzymane przez jakąś zewnętrzną przyczynę, czyli siłę. W wypadku
orbitującego ciała pierwsza tendencja – wypadnięcie z orbity i poruszanie się
po linii prostej – powstaje w naturalny sposób z tego prawa. Newton zdał
sobie sprawę, że jeśli doda się do tego obrazu siłę, która przyciąga ciała do
centrum orbity, to zapewni się przyczynę ruchu radialnego, która stanowiła
drugi niezbędny składnik Hooke’a.
Jak jednak opisać to matematycznie, a w szczególności jak powiązać
konkretną formułę matematyczną prawa odwróconych kwadratów
i konkretne własności mechaniczne orbit, które odkrył Kepler?
Wyobraźmy sobie podział czasu na maleńkie interwały. W każdym z tych
interwałów o orbitującym obiekcie można myśleć jako poruszającym się
troszeczkę po stycznej, a jednocześnie troszeczkę ruchem radialnym.
Wypadkowa tych dwóch ruchów daje powrót na orbitę, ale w nieco dalszym
punkcie okręgu niż na początku. Powtórzenie tego wiele razy pozostawia
ząbkowaną orbitę podobną do okręgu, którą przedstawiono na rysunku
wyżej.
Jeśli odcinki czasu są wystarczająco małe, droga na takiej orbicie, jaką
przebywa obiekt, może zbliżać się do okręgu tak bardzo, jak tylko można
sobie zażyczyć. Tu właśnie znajduje zastosowanie praca Newtona nad
rachunkiem różniczkowym: jeśli te interwały są nieskończenie małe, droga
z praktycznego punktu widzenia jest okręgiem.

Ruch okrężny ujęty jako złożenie ruchu po stycznej i ruchu radialnego (Autor:
Derya Kadipasaoglu)

Oto opis orbit, jaki pozwoliła stworzyć Newtonowi jego nowa matematyka.
Połączył on obraz, w którym orbitujące ciało porusza się po stycznej
i „spada” radialnie, tworząc ząbkowaną drogę – a następnie wziął
ograniczony przypadek, w którym prostoliniowe wycinki ząbków stają się
nieskończenie małe. To w efekcie wygładza drogę mającą kształt ząbkowanej
tarczy piły w okrąg.
Ruch po orbicie w tym ujęciu jest po prostu ruchem jakiegoś ciała, które
nieustannie jest ściągane z ruchu po stycznej przez siłę przyciągającą
działającą w kierunku jakiegoś środka. Dowodem było praktyczne
zastosowanie tego rozwiązania: stosując prawo odwrotnych kwadratów do
opisania siły dośrodkowej w swoich matematycznych orbitach, Newton
otrzymał trzy prawa Keplera, tak jak prosił Halley.
Wykazanie, że spadek swobodny i ruch po orbicie są przykładami tych
samych praw siły i ruchu, było jednym z największych tryumfów Newtona,
ponieważ raz na zawsze obaliło to twierdzenie Arystotelesa, że niebo
i Ziemia tworzą odrębne dziedziny. Jeśli obserwacje Galileusza pokazywały,
że cechy innych planet są bardzo podobne do cech Ziemi, to dzieło Newtona
wykazywało, że prawa przyrody również stosują się do innych planet i nie
ograniczają się do Ziemi.
Jednak nawet w 1684 roku intuicje Newtona dotyczące grawitacji i ruchu
nie były nagłymi objawieniami, jak sugeruje historia o spadającym jabłku.
Natomiast wydaje się, że doniosła idea, iż grawitacja jest powszechna,
świtała mu stopniowo, gdy pracował nad poprawkami wczesnych szkiców
Principiów196.
Wcześniej, jeśli naukowcy podejrzewali, że planety wywierają siłę
grawitacji, wierzyli, że grawitacja planet wpływa tylko na ich księżyce, ale
nie na inne planety, jak gdyby każda planeta była odrębnym światem dla
samej siebie z własnymi prawami. Istotnie, sam Newton zaczął jedynie od
zbadania, czy przyczyna tego, że rzeczy spadają na Ziemię, może również
wyjaśnić to, że Ziemia przyciąga Księżyc, a nie przyciąganie planet przez
Słońce.
Świadectwem kreatywności Newtona, jego zdolności do niesztampowego
myślenia jest to, że w końcu zaczął kwestionować owo konwencjonalne
myślenie. Napisał do pewnego angielskiego astronoma, prosząc o dane
dotyczące komet z lat 1680 i 1684, jak również orbitalnych prędkości
Jowisza i Saturna, gdy zbliżały się do siebie. Po przeprowadzeniu żmudnych
obliczeń na podstawie bardzo dokładnych danych i porównaniu wyników
przekonał się, że to samo prawo grawitacji stosuje się wszędzie – na Ziemi,
a także między ciałami niebieskimi. Zmienił tekst Principiów, tak żeby to
odzwierciedlał.
Siła praw Newtona nie kryje się wyłącznie w ich rewolucyjnej treści
pojęciowej. Za ich pomocą mógł on również formułować przewidywania
o bezprecedensowej dokładności, a następnie porównywać je z wynikami
eksperymentów. Na przykład wykorzystując dane dotyczące odległości
Księżyca i promienia Ziemi oraz uwzględniając takie drobiazgi jak
zniekształcenie orbity Księżyca spowodowane przyciąganiem Słońca, siłę
odśrodkową wywołaną rotacją Ziemi i zniekształcenie kształtu Ziemi
w porównaniu z idealną sferą, doszedł do wniosku, że na szerokości
geograficznej Paryża ciało upuszczone ze spoczynku powinno spadać
z prędkością piętnastu stóp i jednej ósmej cala197 (4 metrów 59 centymetrów)
w pierwszej sekundzie ruchu. To, jak donosił zawsze drobiazgowy Newton,
zgadzało się z wynikami eksperymentów z większą dokładnością niż jedna
część na trzy tysiące198. Co więcej, starannie powtarzał doświadczenie
z różnymi materiałami – złotem, srebrem, ołowiem, szkłem, piaskiem, solą,
wodą, drewnem i pszenicą. Każde bez wyjątku ciało, brzmiała konkluzja,
niezależnie od jego składu i bez względu na to, czy znajduje się na Ziemi czy
w niebie, przyciąga każde inne ciało, a przyciąganie zawsze podlega temu
samemu prawu.

***

W czasie gdy Newton kończył „poznawanie sedna” tego, co rozpoczął, De


motu corporum in gyrum rozrosło się z dziewięciu stron do trzech tomów –
Principiów, których pełny tytuł brzmi: Philosophiae naturalis principia
mathematica (Matematyczne zasady filozofii naturalnej).
W Principiach Newton nie omawiał już tylko ruchu ciał po orbicie;
przedstawił natomiast szczegółowo ogólną teorię samej siły i ruchu. Jej rdzeń
stanowiły wzajemne związki trzech jakości: siły, pędu (który nazywał ilością
ruchu) i masy.
Widzieliśmy, jak uczony zmagał się, by sformułować swoje prawa.
Przyjrzymy się teraz tym trzem prawom, żeby zobaczyć, co one oznaczają.
Pierwsze było jego udoskonaleniem Galileuszowego prawa bezwładności
z ważnym dodatkiem, że siła jest przyczyną zmiany:

Pierwsze prawo: Każde ciało pozostaje w spoczynku albo porusza się


ruchem jednostajnym prostoliniowym, chyba że jest zmuszone do zmiany
stanu przez działającą siłę.

Newton, podobnie jak Galileusz, identyfikował ruch, w którym ciała


poruszają się po linii prostej ze stałą prędkością, jako naturalny stan rzeczy.
Ponieważ dziś skłonni jesteśmy myśleć w kategoriach newtonowskich,
trudno jest docenić, jak nieintuicyjna była to idea. Jednak większość ruchów,
które obserwujemy w świecie, nie przebiega tak, jak je opisał: rzeczy
przyspieszają, gdy spadają, albo zwalniają, gdy napotykają opór powietrza,
a także poruszają się po krzywej, gdy spadają na Ziemię. Newton
utrzymywał, że wszystkie one są w pewnym sensie ruchami odbiegającymi
od normy, rezultatami niewidzialnych sił takich jak grawitacja albo tarcie.
Jeśli obiekt pozostawiony jest w spokoju, twierdził, będzie poruszał się
ruchem jednostajnym; jeśli jego droga jest zakrzywiona albo jego prędkość
ulega zmianom, to dzieje się tak dlatego, że działa na niego jakaś siła.
To właśnie fakt, że obiekty pozostawione bez ingerencji będą trwały
w swoim ruchu, sprawia, że jesteśmy zdolni do eksplorowania przestrzeni.
Na przykład poruszające się po powierzchni Ziemi ferrari może przyspieszyć
od zera do stu kilometrów na godzinę w mniej niż cztery sekundy, ale musi
się natrudzić, żeby utrzymać tę prędkość z powodu oporu powietrza i tarcia.
Pojazd w otwartej przestrzeni kosmicznej będzie natykał się na zaledwie
jedną błąkającą się cząsteczkę mniej więcej na każde 160 tysięcy kilometrów,
nie musielibyście się więc martwić o tarcie albo opór. Oznacza to, że gdy
wprawi się już pojazd w ruch, będzie on się poruszał po linii prostej i ze stałą
prędkością, nie zwalniając tak jak ferrari. A jeśli silniki będą pracować, może
on przyspieszać, nie tracąc energii z powodu tarcia. Skoro statek kosmiczny
ma już na przykład przyspieszenie takie jak ferrari, i będzie przyspieszał tak
samo przez rok zamiast przez sekundę, to może osiągnąć ponad połowę
prędkości światła.
Istnieją, oczywiście, pewne problemy praktyczne, takie jak waga paliwa,
jakie trzeba by zabrać ze sobą, i efekty względności, którymi zajmiemy się
później. Co także ważne, gdy chce się dotrzeć do gwiazdy, trzeba dobrze
wycelować: systemy gwiezdne są tak rozrzucone, że jeśli skieruje się statek
kosmiczny w losowym kierunku, przebędzie on średnio dłuższą drogę, niż
przebyło światło od Wielkiego Wybuchu, zanim natknie się na inny układ
słoneczny.
Newton nie przewidywał, że będziemy odwiedzać inne planety, ale
stwierdziwszy, że siła wywołuje przyspieszenie, w swoim drugim prawie
skwantyfikował zależność między wielkością siły, masą i przyspieszeniem
(we współczesnych kategoriach „zmiana ruchu” oznacza zmianę pędu, to
znaczy równa się masie pomnożonej przez przyspieszenie):
Drugie prawo: Zmiana ruchu jest proporcjonalna do przyłożonej siły
i następuje w linii prostej, na której ta siła jest przyłożona.

Przypuśćmy, że pchamy wózek z dzieckiem w środku. Prawo to głosi


(pomijamy tarcie!), że jeśli pchnięcie trwające jedną sekundę nadałoby
wózkowi z dzieckiem o masie 34 kilogramów prędkość ośmiu kilometrów na
godzinę, to gdyby w wózku znajdował się ważący 68 kilogramów nastolatek,
trzeba by pchać dwa razy mocniej albo dwa razy dłużej, żeby osiągnąć tę
samą prędkość. Dobrą informacją jest to, że (znów pomijamy tarcie) można
przyspieszyć ważącego 340 ton Jumbo Jeta do ośmiu kilometrów na godzinę,
pchając 10 tysięcy razy mocniej albo 10 tysięcy razy dłużej, co wymaga
jedynie cierpliwości. Jeśli więc potraficie utrzymać swój poziom wysiłku
przez 10 tysięcy sekund, co daje zaledwie dwie godziny i czterdzieści siedem
minut, moglibyście popchnąć całego Jumbo Jeta pełnego pasażerów.
Dziś drugie prawo Newtona zapisujemy jako F = ma – siła równa się masa
razy przyspieszenie – ale zostało ono ujęte w formę równania długo po
śmierci Newtona, niemal sto lat po jego sformułowaniu.
W swoim trzecim prawie Newton stwierdza, że całkowita ilość ruchu we
Wszechświecie nie ulega zmianie. Może on być przenoszony między
obiektami, ale nie może zostać dodany ani odjęty. Całkowita ilość ruchu, jaka
jest tu teraz, była tu, kiedy Wszechświat się zaczął, i pozostanie tak długo,
jak długo będzie istniał.
Ważne, aby zauważyć, że w ujęciu Newtona ilość ruchu w jednym
kierunku dodana do równej ilości ruchu w przeciwnym kierunku daje
całkowitą ilość ruchu równą zeru. Dlatego obiekt dopóty może zostać
przeniesiony ze stanu spoczynku w stan ruchu bez pogwałcenia trzeciego
prawa Newtona, dopóki jego ruch jest równoważony przez zmianę ruchu
innego ciała w przeciwnym kierunku. Newton ujął to następująco:

Trzecie prawo: Każdemu działaniu zawsze odpowiada równe i przeciwne


przeciwdziałanie.

To niewinnie brzmiące zdanie mówi nam, że jeśli kula leci naprzód, to


działo porusza się do tyłu. Jeśli łyżwiarz odpycha się od lodu łyżwą,
przesuwając ją w tył, to będzie się poruszał do przodu. Jeśli kichniecie,
wyrzucając powietrze naprzód ze swoich ust, wasza głowa odskoczy do tyłu
(ze średnim przyspieszeniem, jak mówi nam artykuł opublikowany
w „Spine”199, większym niż przyspieszenie powodowane przez grawitację).
A jeśli statek kosmiczny wyrzuca gorące gazy ze swoich dysz rakietowych,
to będzie przyspieszał do przodu z pędem równym pod względem wielkości,
ale o przeciwnym zwrocie niż pęd gorących gazów, które emituje w próżnię
pustej przestrzeni kosmicznej.
Prawa Newtona ogłoszone w Principiach nie były jedynie abstrakcjami.
Uczony potrafił bowiem podać przekonujący dowód faktu, że zaledwie garść
zasad matematycznych, które ogłosił, można było wykorzystać do
wyjaśnienia niezliczonych zjawisk w realnym świecie. Ich możliwe
zastosowania: Newton pokazał, jak grawitacja wywołuje obserwowane
nieregularności ruchu Księżyca; wyjaśnił pływy morskie; obliczył prędkość
dźwięku w powietrzu; a także wykazał, że precesja równonocy jest efektem
przyciągania grawitacyjnego Księżyca na wybrzuszenie równikowe Ziemi.
Były to zadziwiające osiągnięcia i świat istotnie był zadziwiony. Jednak
pod pewnymi względami jeszcze większe wrażenie robiło to, że Newton
zrozumiał, iż mogą istnieć pewne granice dla zastosowania tych praw
w praktyce. Wiedział na przykład, że choć jego prawa ruchu są na ogół
doskonałymi przybliżeniami tego, co widzimy, że dzieje się wokół nas, to
obowiązują w sensie bezwzględnym tylko w świecie wyidealizowanym,
gdzie nie ma oporu powietrza i tarcia.
Strona tytułowa Principia mathematica Newtona (Dzięki uprzejmości
Zhaladshar/Wikimedia Commons)

O geniuszu Newtona stanowiło w wielkiej mierze to, że podobnie jak


Galileusz dostrzegał niezliczone skomplikowane czynniki, które istnieją
w naszym rzeczywistym środowisku, i umiał je usunąć, żeby ujawnić
eleganckie prawa działające na bardziej zasadniczym poziomie.
Rozważmy spadek swobodny: upuszczane obiekty spadają z taką
prędkością, jaką dyktują prawa Newtona – ale tylko na początku. Później,
jeśli obiekt nie jest upuszczany w próżni, ośrodek, w którym spada, w końcu
powstrzymuje przyspieszenie. Dzieje się tak dlatego, że im szybciej spada
obiekt przez jakiś ośrodek, tym silniejszy opór napotyka – ponieważ
napotyka więcej cząsteczek ośrodka w każdej sekundzie, a także dlatego, że
zderzenia stają się gwałtowniejsze. W końcu gdy spadający obiekt nabiera
prędkości, grawitacja i opór ośrodka równoważą się nawzajem i obiekt nie
nabiera już więcej prędkości.
Tę prędkość maksymalną nazywamy prędkością graniczną. Prędkość
graniczna i czas spadku, jaki zajmuje jej osiągnięcie, zależy od kształtu
i ciężaru obiektu oraz od własności ośrodka, przez który spada obiekt. Tak
więc choć obiekt spadający w próżni będzie zyskiwał na prędkości
35,5 kilometra na godzinę w każdej sekundzie spadania, to kropla deszczu
spadająca przez powietrze przestanie zwiększać prędkość, kiedy osiągnie
około 25 kilometrów na godzinę, dla piłeczki pingpongowej prędkość ta
wynosi 33 kilometry na godzinę, dla piłeczki golfowej 145 kilometrów na
godzinę, a dla kuli kręgielnej ponad 560 kilometrów na godzinę.
Nasza własna prędkość graniczna wynosi około 200 kilometrów na
godzinę, jeśli rozłożymy ręce i nogi, albo około 320 kilometrów na godzinę,
gdy zwiniemy się w małą kulkę. A jeśli skoczy się z bardzo dużej wysokości,
gdzie powietrze jest rozrzedzone, można spadać wystarczająco szybko, żeby
przekroczyć prędkość dźwięku, która wynosi około 1225 kilometrów na
godzinę. Śmiałek z Austrii zrobił właśnie to w 2012 roku – skoczył z balonu
z wysokości 39 kilometrów i osiągnął prędkość 1357,6 kilometra na godzinę
(Amerykanin Alan Eustace skoczył z jeszcze większej wysokości w 2014
roku, ale nie osiągnął tak wielkiej prędkości). Choć Newton nie wiedział
wystarczająco dużo o własnościach powietrza, żeby wyprowadzić takie
prędkości graniczne, w drugim tomie Principiów przedstawił teoretyczny
obraz spadku swobodnego, który opisałem wyżej.
Niedługo przed przyjściem Newtona na świat filozof i naukowiec Francis
Bacon napisał: „W tajniki przyrody […] [zagłębiano się], niewiele
osiągając”200. Kilkadziesiąt lat po śmierci Newtona fizyk i ksiądz Roger
Boscovich zauważył, że – przeciwnie – „jeśli prawo sił byłoby znane, oraz
położenie, prędkość i kierunek wszystkich punktów w każdym danym
momencie”, to możliwe byłoby „przewidzenie wszystkich zjawisk, które
z konieczności z nich wynikają”201. Potężny umysł, który odpowiadał za
zmianę tonu między epokami, należał do Newtona, który podał tak
precyzyjne i dogłębne odpowiedzi na najważniejsze zagadki naukowe swoich
czasów, że przez sto lat możliwe było dokonywanie nowych postępów tylko
w zakresie zagadnień, których on sam nie poruszył.

***

Dziewiętnastego maja 1686 roku Royal Society zgodziło się opublikować


Principia, ale tylko jeśli Halley opłaci koszty druku. Halley nie miał innego
wyjścia, jak tylko się zgodzić, Towarzystwo nie było wydawcą. Już raz
spróbowało robić interesy na tym polu w 1685 roku i sparzyło się, publikując
pozycję pod tytułem Księga ryb, która pomimo ekscytującego tytułu się nie
sprzedała. Zasoby Royal Society były teraz bardzo skromne, Towarzystwo
nie mogło nawet wypłacać dalej Halleyowi pięćdziesięciu funtów rocznie,
które należały mu się jako kanceliście; zamiast tego otrzymywał egzemplarze
Księgi ryb. Tak więc Halley zaakceptował postawione warunki. Książka
miała się ukazać w następnym roku.
Opłacając koszt publikacji, Halley stawał się w zasadzie wydawcą
Newtona. Był również jego nieformalnym redaktorem, sprzedawcą
i popularyzatorem. Wysłał egzemplarze Principiów do wszystkich czołowych
filozofów i naukowców tamtych czasów, a w Wielkiej Brytanii książka
wywołała prawdziwą burzę. Wieść o niej rozeszła się również szybko
w kawiarniach i kręgach intelektualnych w całej Europie. Wkrótce stało się
jasne, że Newton napisał dzieło, które miało zmienić kształt ludzkiej myśli –
najbardziej wpływowe w historii nauki.
Nikt nie był przygotowany na dzieło o takim zakresie i takiej głębi. Trzy
z czołowych opiniotwórczych czasopism europejskich chwaliły je
w recenzjach, jedno stwierdziło, że oferuje ono „najdoskonalszą mechanikę,
jaką można sobie wyobrazić”202. Nawet John Locke, wielki filozof
oświeceniowy, który nie był jednak matematykiem, „zabrał się do zgłębienia
tej księgi”. Wszyscy bowiem dostrzegli, że Newtonowi udało się w końcu
obalić odwieczne imperium jakościowej fizyki Arystotelesa i że jego dzieło
będzie teraz wzorcem tego, jak powinno się uprawiać naukę.
Jeśli pojawiły się negatywne reakcje na Principia, to pochodziły głównie
od tych, którzy skarżyli się, że niektóre z najważniejszych zawartych w nich
idei nie były pomysłami wyłącznie Newtona. Niemiecki filozof i matematyk
Gottfried Wilhelm Leibniz, który niezależnie, choć nieco później wynalazł
rachunek różniczkowy, twierdził, że Newton próbował zagarnąć dla siebie
zasługę. Z pewnością chciał: drażliwy Newton był przekonany, że w danym
czasie może być tylko jeden zdolny do odczytania boskiej wiedzy o Ziemi,
a w jego czasie był nim on sam203. Robert Hooke nazwał Principia
„najważniejszym odkryciem dotyczącym przyrody od stworzenia świata” –
a następnie zaczął gorzko wyrzekać, że Newton skradł mu ważny pomysł
dotyczący praw odwróconych kwadratów. Jego roszczenia miały pewne
uzasadnienie w tym, że istotnie wydaje się, iż zasadnicza idea pochodziła od
Hooke’a, nawet jeśli to Newton opracował ją matematycznie.
Niektórzy oskarżali również Newtona o promowanie nadnaturalnych albo
„tajemnych mocy”, ponieważ siła grawitacji działa na odległość, pozwalając
masywnym ciałom oddziaływać na odległe obiekty przez próżnię przestrzeni
kosmicznej bez żadnego widocznego ośrodka przenoszącego ich wpływ. Ta
ostatnia kwestia była również zagadką dla Einsteina – w szczególności fakt,
że wpływ grawitacji newtonowskiej przenosi się natychmiastowo. Ten aspekt
teorii Newtona gwałcił szczególną teorię względności Einsteina, która
głosiła, że nic nie może przemieszczać się szybciej od prędkości światła.
Einstein poparł swoje deklaracje czynem i stworzył własną teorię grawitacji –
ogólną teorię względności – która zaradziła temu problemowi i zastąpiła
teorię grawitacji Newtona. Jednak ci spośród współczesnych Newtona,
którzy krytykowali ideę grawitacji działającej na odległość, nie mogli
zaoferować alternatywnej teorii i musieli uznać naukową siłę jego
osiągnięcia.
Reakcja Newtona na krytykę była znacznie odmienna od odpowiedzi na
wrogość, z jaką przyjęto jego pracę o optyce na początku lat
siedemdziesiątych XVII wieku204. Wówczas, zahukany przez
Hooke’a i innych, wycofał się ze świata i zerwał większość swoich
kontaktów. Teraz, doprowadziwszy badania do konkluzji i w pełni
rozumiejąc wielkie znaczenie swojego osiągnięcia, stanął do walki. Swoim
krytykom odpowiadał głośnymi i ostrymi kontratakami, które w wypadku
sporu o pierwszeństwo trwały aż do śmierci najpierw Hooke’a, a później
Leibniza – a nawet jeszcze dłużej. Jeśli chodzi o oskarżenie o okultyzm,
Newton odpowiedział za pomocą dementi: „Te zasady uznaję nie za tajemne
Jakości […] lecz za ogólne Prawa Natury […] a ich prawda ujawnia się nam
przez Zjawiska, choć ich Przyczyny mogły jeszcze nie zostać odkryte”205.
Principia zmieniły życie Newtona nie tylko dlatego, że zostały uznane za
kamień milowy w historii intelektualnej, ale dlatego że ściągnęły na niego
uwagę opinii publicznej, a okazało się, że sława mu odpowiada. Stał się
bardziej towarzyski i porzucił na następne dwanaście lat większość swoich
radykalnych wysiłków z zakresu teologii. Ograniczył również prace
z dziedziny alchemii, choć ich nie zakończył.
Zmiany zaczęły się w marcu 1687 roku, niedługo po ukończeniu przez
Newtona jego wielkiego dzieła. Śmielszy obecnie, niż był kiedykolwiek
wcześniej, wziął udział w politycznej bitwie między uniwersytetem
w Cambridge i królem Jakubem II. Król, który próbował zwrócić Anglię
ku rzymskiemu katolicyzmowi, usiłował wywrzeć presję na uniwersytet, by
nadał benedyktyńskiemu mnichowi stopień, nie wymagając od niego
zwykłych egzaminów i przysięgi złożonej Kościołowi Anglii. Uniwersytet
wygrał, a dla Newtona był to punkt zwrotny. Udział w walce uczynił z niego
ważną figurę polityczną w Cambridge, tak że kiedy senat uniwersytecki
zebrał się w 1689 roku, przegłosował wysłanie go do Parlamentu jako
jednego ze swoich przedstawicieli.
Wedle wszelkich doniesień nie dbał wiele o czas, który spędził
w Parlamencie, a mówił o nim, tylko by poskarżyć się na przeciągi. Jednak
pokochał Londyn i rolę obiektu podziwu wielu czołowych intelektualistów
i finansistów, z którymi się zaznajomił. W 1696 roku, spędziwszy trzydzieści
pięć lat w Cambridge, porzucił życie akademickie i przeprowadził się.
Newton przeniósł się z bardzo prestiżowego stanowiska na stosunkowo
pomniejszą posadę biurokratyczną w Londynie: zarządcy mennicy. Jednak
poczuł już ukąszenie Londynu, a będąc wówczas znacznie po pięćdziesiątce,
czuł, że jego intelektualne siły zaczynają słabnąć. Co więcej, sprzykrzyła mu
się pensja akademicka. Kiedyś mogła się wydawać hojna, ale jako zarządca
mennicy dostał dużą podwyżkę, do czterystu funtów. Mógł sobie również
uświadomić, że jako czołowy intelektualista Anglii dzięki odpowiednim
zabiegom politycznym zdołałby awansować na wyższą pozycję przełożonego
mennicy, kiedy pojawiłaby się taka możliwość, i tak właśnie zrobił w 1700
roku. Jego dochody na nowym stanowisku wynosiły średnio 1650 funtów, co
było sumą siedemdziesiąt pięć razy większą niż płaca typowego rzemieślnika
– poziom zarobków, przy którym wcześniejsza pensja w Cambridge istotnie
wyglądała marnie. W rezultacie przez następne dwadzieścia siedem lat
prowadził życie w stylu lepszych kręgów londyńskiej socjety, co mu się
podobało.
Dostał się również na sam szczyt organizacji, która opublikowała jego opus
magnum: w 1703 roku po śmierci Hooke’a został wybrany na
przewodniczącego Royal Society. Wiek i sukces nie sprawiły jednak, że
złagodniał. Rządził Towarzystwem żelazną ręką, a nawet wyrzucał członków
z posiedzeń, jeśli dawali jakiekolwiek oznaki „lekkiego i nieprzystojnego
zachowania”206. Coraz mniej chętnie dzielił się zasługami za którekolwiek ze
swoich odkryć, używając władzy związanej ze stanowiskiem do
ugruntowania własnego pierwszeństwa przez różne mściwe knowania.

Izaak Newton w młodości i w wieku średnim [(lewa) Dzięki uprzejmości Science


Source®, a registered trademark of Photo Researchers, Inc., copyright © 2014
Photo Researchers, Inc. All rights reserved; (prawa) Dzięki uprzejmości English
School/Wikimedia Commons]

***

Dwudziestego trzeciego marca 1726 roku Royal Society zapisało w swoim


rejestrze: „Stanowisko zostało opróżnione z powodu śmierci sir Izaaka
Newtona, nie było posiedzenia w tym dniu”207. Newton zmarł kilka dni
wcześniej w wieku osiemdziesięciu czterech lat.
Śmierci Newtona spodziewano się od pewnego czasu, ponieważ cierpiał na
chroniczne i poważne zapalenie płuc. Męczyło go również wiele innych
chorób, których można było się spodziewać u alchemika – jego włos,
poddany analizie wiele stuleci później, ujawnił poziom ołowiu, arsenu
i antymonu czterokrotnie przekraczający normalny, a rtęci – piętnastokrotnie
wyższy208. Jednak na łożu śmierci zdiagnozowano mu kamień pęcherza. Ból
był potworny.
Los Newtona stanowi zdecydowane przeciwieństwo losu Galileusza.
Z biegiem lat w świetle sukcesów nauki newtonowskiej sprzeciw Kościoła
wobec nowych idei w nauce osłabł wystarczająco, żeby nawet katoliccy
astronomowie we Włoszech zyskali prawo nie tylko do nauczania, ale nawet
do dalszego rozwijania teorii kopernikańskiej209 – oczywiście dopóki
powtarzali, podobnie jak dziś nauczyciele w Kansas mają prawo do
mówienia o ewolucji, że „to tylko teoria”. Tymczasem w Anglii stało się
jasne, że nauka ma potencjał wspierania przemysłu i poprawiania warunków
życia ludzi. Wyewoluowała w spójną kulturę eksperymentu i obliczeń,
wyrastając w przedsięwzięcie, które cieszyło się ogromnym prestiżem,
przynajmniej w wyższych warstwach społeczeństwa. Co więcej,
w późniejszych latach życia Newtona Europa wkroczyła w okres, w którym
sprzeciw wobec autorytetu miał się stać wątkiem kultury europejskiej, czy to
jako opozycja wobec idei antycznych autorytetów takich jak Arystoteles
i Ptolemeusz, czy wobec autorytetu religii i władzy monarszej.
Nic nie stanowi lepszego przykładu odmiennego przyjęcia, jakie zgotowano
Galileuszowi i Newtonowi, niż ich pożegnanie. Podczas gdy temu
pierwszemu pozwolono jedynie na cichy, prywatny pogrzeb i pochówek
w ciemnym rogu kościoła, w którym pragnął spocząć, ciało Newtona złożono
w opactwie westminsterskim, a po pochówku wzniesiono ogromny pomnik
z kamiennym sarkofagiem na piedestale, w którym złożono jego szczątki.
Na sarkofagu wyryto płaskorzeźby kilku chłopców trzymających instrumenty
reprezentujące wielkie odkrycia Newtona, a na grobie znalazła się inskrypcja:

Tu pochowany jest Izaak Newton, Kawaler, który siłą umysłu niemal


boską i zasadami matematycznymi przez niego samego stworzonymi
zbadał bieg i figury planet, drogi komet, pływy morza,
niepodobieństwa w promieniach światła i – czego żaden inny uczony
wcześniej sobie nie wyobrażał – właściwości kolorów w ten sposób
powstałych. Pilny, roztropny, pełen wiary w swoich przedstawieniach
przyrody, starożytności i świętych Pism bronił za pomocą swojej
filozofii majestatu Boga potężnego i dobrego, i wyraził prostotę
Ewangelii w ten sposób. Śmiertelni, radujcie się, że taki istniał i tak
wielką ozdobę ludzkiej rasy stanowił! Urodził się 25 grudnia 1642
roku i zmarł 20 marca 1726 roku210.

Życie Newtona i Galileusza obejmowało razem ponad 160 lat, w ciągu


których byli świadkami większości tego, co nazywane jest rewolucją
naukową – a pod wieloma względami za nią odpowiadali.
W swojej długiej karierze Newton potrafił powiedzieć nam wiele o naszej
planecie i naszym Układzie Słonecznym, używając swoich praw ruchu
i jedynego prawa siły, jakie odkrył – prawa opisującego grawitację.
Natomiast jego ambicje sięgały znacznie dalej niż ta wiedza. Wierzył, że siła
jest ostateczną przyczyną wszelkiej zmiany w przyrodzie, od reakcji
chemicznych po odbijanie światła od zwierciadła. Co więcej, był pewien, że
kiedy w pewnym momencie w przyszłości dorośniemy do zrozumienia sił
przyciągania i odpychania, które działają na małe odległości między
maleńkimi „cząstkami” tworzącymi materię – co było jego wersją starej
koncepcji atomów – jego prawa ruchu wystarczą do wyjaśnienia
wszystkiego, co można zaobserwować we Wszechświecie.
Dziś jest jasne, że Newton był proroczy. Jego wizja, co to znaczy
zrozumieć siły między atomami, była bardzo trafna. Jednak zrozumienie tego
miało nastąpić za kolejne 250 lat. A kiedy nastąpiło, mieliśmy odkryć, że
prawa rządzące atomem nie wpasowują się w ramy fizyki, które
skonstruował. Ujawniły one natomiast nowy świat kryjący się poza
doświadczeniem naszych zmysłów, nową rzeczywistość, którą ludzie mogli
przewidzieć tylko w wyobraźni. Jej architektura jest tak egzotyczna, że
słynne prawa sir Izaaka musiał zastąpić nowy zbiór praw, który Newtonowi
wydawałby się jeszcze bardziej obcy niż fizyka Arystotelesa.

173 Pierre Simon Laplace, Théorie Analytique des Probabilities, Ve. Courcier, Paryż
1812.

174 Aby zrozumieć sir Izaaka Newtona w kontekście wrzenia intelektualnego


w siedemnastowiecznej Anglii, zob. Christopher Hill, The World Turned Upside Down:
Radical Ideas During the English Revolution, Penguin History, Nowy Jork 1984, s. 290–
297.

175 Richard S. Westfall, Never at Rest, Cambridge University Press, Cambridge 1980,
s. 863. Jest to rzetelna biografia Newtona i w związku z tym będę się na niej opierał.

176 Ming-Te Wang et al., Not Lack of Ability but More Choice: Individual and Gender
Differences in Choice of Careers in Science, Technology, Engineering, and Mathematics,
„Psychological Science”, nr 24 (maj 2013), s. 770–775.

177 Albert Einstein, Zasady badań naukowych, w: Pisma filozoficzne, przeł. K.


Napiórkowski, Wydawnictwo IFiS PAN, Warszawa 1999, s. 38–39.

178 Richard S. Westfall, Never at Rest, op. cit., s. ix.

179 W.H. Newton-Smith, Science, Rationality, and Newton, w: Newton’s Dream, red.
Marcia Sweet Stayer, McGill University Press, Montreal 1988, s. 31.

180 Richard S. Westfall, Never at Rest, op. cit., s. 53.

181 Ibidem, s. 65.

182 Ibidem, s. 155.

183 Technicznie rzecz biorąc, rachunek różniczkowy nie nadaje się do analizy wzrostu
populacji i ceny akcji, ponieważ są one wielkościami dyskretnymi, a nie ciągłymi, ale te
systemy często są traktowane jako wielkości w przybliżeniu ciągłe.

184 William H. Cropper, Great Physicists: The Life and Times of Leading Physicists
from Galileo to Hawking, Oxford University Press, Nowy Jork 2004, s. 252.

185 Richard S. Westfall, Never at Rest, op. cit., s. 70–71, 176–179.

186 Richard Westfall, The Life of Isaac Newton, Cambridge University Press, Cambridge
1993, s. 71, 77–81.

187 Zob. rozdział A Private Scholar & Public Servant, w: Footprints of the Lion: Isaac
Newton at Work, Cambridge University Library – Newton Exhibition, dostęp: 28
października 2014 r.,
www.lib.cam.ac.uk/exhibitions/Footprints_of_the_Lion/private_scholar.html.

188 William H. Newton-Smith, Science, Rationality, and Newton, w: Newton’s Dream,


red. Marcia Sweet Stayer, McGill University Press, Montreal 1988, s. 31–33.

189 Richard S. Westfall, Never at Rest, op. cit., s. 321–324, 816–817.

190 Paul Strathern, Mendeleev’s Dream, Berkley Books, Nowy Jork 2000, s. 32.

191 Richard S. Westfall, Never at Rest, op. cit., s. 368.

192 Napisałem wspomnienie o tym okresie mojego życia, zob. Leonard Mlodinow,
Feynman’s Rainbow: A Search for Beauty in Physics and in Life, Vintage, Nowy Jork
2011.

193 William H. Newton-Smith, Science, Rationality, and Newton, op. cit., s. 32–33.

194 Richard S. Westfall, Never at Rest, op. cit., s. 407.

195 Ibidem, s. 405.

196 Richard Westfall, Force in Newton’s Physics, MacDonald, Nowy Jork 1971, s. 463.

197 Mierzone w stopach paryskich, które równają się 1,0568 stopy angielskiej.

198 Richard S. Westfall, Newton and the Fudge Factor, „Science”, nr 179 (23 lutego
1973 r.), s. 751–758.

199 Murray Allen et al., The Accelerations of Daily Living, „Spine” (listopad 1994),
s. 1285–1290.

200 Franciszek Bacon, Novum organum, przeł. J. Wikarjak, Państwowe Wydawnictwo


Naukowe, Warszawa 1955, s. 58.

201 R.J. Boscovich, Theiria Philosophiae Naturalis, Venice 1763, przedruk jako: A
Theory of Natural Philosophy, Open Court Publishing, Chicago 1922, s. 281.

202 Richard S. Westfall, Life of Isaac Newton, op. cit., s. 193.

203 Michael White, Rivals: Conflict as the Fuel of Science, Vintage, Londyn 2002,
s. 40–45.

204 Ibidem.

205 Richard S. Westfall, Never at Rest, op. cit., s. 645.

206 Daniel Boorstin, Odkrywcy. Dzieje ludzkich odkryć i wynalazków, przeł. M. Stopa,
Grupa Wydawnicza Bertelsmann Media, Warszawa 2001, s. 384.

207 Richard S. Westfall, Never at Rest, op. cit., s. 870.

208 John Emsley, The Elements of Murder: A History of Poison, Oxford University
Press, Oksford 2006, s. 14.

209 John L. Heilbron, Galileo, Oxford University Press, Oksford 2010, s. 360.

210 Sir Isaac Newton, Westminster Abbey, dostęp: 28 października 2014 r.,
www.westminster-abbey.org/our-history/people/sir-isaac-newton.
8.

Z czego zrobione są rzeczy

Kiedy byłem nastolatkiem, intrygowały mnie dwa zupełnie odmienne


podejścia do tajemnic Wszechświata. Nieustannie dochodziły bowiem
dziwne plotki o tym, co zrobili fizycy, o dokonanych przez nich odkryciach
kwantowych praw fizyki, które rzekomo głosiły, że mogę znajdować się
w dwóch miejscach jednocześnie. Powątpiewałem, czy takie twierdzenia
mogą zachować prawdziwość w rzeczywistym świecie, a poza nim nie było
zbyt wiele miejsc, w których chciałbym się znaleźć. Jednak słyszałem
również o bardziej przyziemnych sekretach, którymi zajmowali się chemicy,
gwałtownych i niebezpiecznych, które wydawały się mieć niewiele
wspólnego z głównym kluczem do Wszechświata, ale przemawiały do
mojego zamiłowania do przygody i obiecywały dać mi swego rodzaju
władzę, której normalnie dzieci nie posiadają. Niebawem mieszałem amoniak
z roztworem jodyny, chlorek potasu z cukrem oraz pył cynkowy z azotanem
i chlorkiem amoniaku i wysadzałem różne rzeczy. Archimedes powiedział, że
gdyby miał wystarczająco długą dźwignię, poruszyłby świat; ja wierzyłem,
że dzięki odpowiednim domowym chemikaliom mogę go wysadzić. Taka jest
moc, jaką daje zrozumienie substancji, które nas otaczają.
Pierwsi w świecie myśliciele przetarli drogę do tych dwóch rodzajów badań
nad działaniem świata fizycznego. Pytali, co powoduje zmianę; i badali,
z czego składają się rzeczy i jak ich skład określa ich własności. W końcu
Arystoteles zaoferował ogólny plan obu tych kierunków, ale okazało się, że
ścieżki, które wskazał, kończyły się ślepymi zaułkami.
Newton i jego poprzednicy przeszli długą drogę do zrozumienia kwestii
zmiany. Newton próbował również zrozumieć naukę o materii, ale nie zbliżył
się ani trochę do osiągnięcia czegokolwiek w dziedzinie chemii, choć był
wielkim fizykiem. Problem nie polegał na tym, że jego intelekt okazał się
niewystarczający, czy nawet na tym, że poszedł okrężną drogą alchemii,
która w końcu okazała się błędna. Tym, co uniemożliwiało mu dokonanie
wielkich odkryć, było to, że choć chemia, nauka o substancji, ewoluowała
wraz z fizyką, nauką o zmianie, to jest ona nauką o bardzo odmiennym
charakterze. Jest brudniejsza i bardziej skomplikowana, a zgłębianie jej tak,
jakby zgłębiało się zmianę, wymagałoby stworzenia wielu innowacji
technicznych, których większość nie została jeszcze wynaleziona w czasach
Newtona. W rezultacie nie mógł on poczynić postępów w tej dziedzinie,
a chemii brakowało jakiejś wybitnej postaci, która doprowadziłaby tę naukę
(i samą siebie) do wielkości. Rozwijała się ona natomiast bardziej stopniowo,
a światłem sławy musiało się podzielić kilku pionierów.
Historia tego, jak rodzaj ludzki zrozumiał, z czego zrobione są rzeczy, jest
bliska mojemu sercu, ponieważ chemia była moją pierwszą miłością.
Wychowałem się w małym dwupoziomowym mieszkaniu w Chicago, które
miało niewielkie, zatłoczone pokoje, ale za to wielką piwnicę, gdzie
pozostawiony swemu losowi byłem w stanie zbudować własny Disneyland –
skomplikowane laboratorium z półkami pozastawianymi szkłem
laboratoryjnym, proszkami w wielu kolorach i butelkami z najsilniejszymi
kwasami i zasadami.
Niektóre z tych chemikaliów musiałem uzyskać nielegalnie albo dzięki
nieświadomej pomocy rodziców („Gdybym tylko miał galon kwasu solnego,
mógłbym zmyć te kocie siki z betonu”). Niekłopotany, dzięki uciekaniu się
do sztuczek, odkryłem, że studiując chemię, mogłem nauczyć się wyrabiać
zimne ognie, spełniając zarazem wewnętrzną ciekawość co do świata.
I przypuszczam, że podobnie jak Newton również zdałem sobie sprawę, że
ma to wiele zalet w porównaniu z próbami prowadzenia życia towarzyskiego.
Związki chemiczne łatwiej jest zdobyć niż przyjaciół, a kiedy chciałem się
z nimi bawić, nigdy nie mówiły, że muszą zostać w domu, żeby umyć głowę,
albo – mniej uprzejmie – że nie kolegują się z dziwakami. Jednak w końcu,
jak to bywa z wieloma pierwszymi miłościami, rozeszliśmy się z chemią.
Zacząłem flirtować z fizyką. To było wtedy, gdy dowiedziałem się, że różne
obszary nauki nie tylko koncentrują się na odmiennych kwestiach, ale
również mają odmienne kultury.
Różnica między fizyką i chemią stawała się najbardziej widoczna za sprawą
różnych błędów, jakie popełniałem. Dość szybko nauczyłem się, na przykład,
że jeśli moje obliczenia fizyczne w końcu doprowadziły do równania „4 =
28”, nie oznaczało to, że odkryłem jakąś głęboką i wcześniej niedostrzeżoną
prawdę, lecz raczej że zrobiłem błąd. Ale był to błąd nieszkodliwy, pomyłka
istniejąca jedynie na papierze. W fizyce takie gafy prowadzą w niemal
nieunikniony sposób do niegroźnych, choć frustrujących nonsensów
matematycznych. Chemia jest inna. Moje błędy w chemii zazwyczaj
prowadziły do powstania dużej ilości dymu i ognia, a kwas wżerał się
w ciało, zostawiając blizny, które utrzymywały się przez dziesięciolecia.
Mój ojciec scharakteryzował różnice między fizyką i chemią, odnosząc się
do dwóch znanych mu osób, które najbardziej zbliżyły się do ich uprawiania.
„Fizyk” był to człowiek – tak naprawdę matematyk – z obozu
koncentracyjnego, który wyjaśnił mu, jak rozwiązać zagadkę matematyczną
w zamian za chleb. Człowiek, którego nazywał „chemikiem”, był to ktoś,
kogo spotkał w żydowskim podziemiu211, zanim został deportowany do
Buchenwaldu212.
Ojciec należał do grupy planującej sabotaż na torach kolejowych
przechodzących przez jego rodzinne miasto Częstochowę. Chemik
powiedział, że potrafi wykoleić pociąg za pomocą materiałów wybuchowych
umieszczonych w odpowiednim miejscu na torach, ale musiał się wymknąć
z żydowskiego getta, żeby zdobyć kilka surowców, które – jak twierdził –
mógł uzyskać dzięki łapówkom i kradzieży. Wymagało to kilkakrotnego
wyjścia poza getto, ale nie wrócił ze swojej ostatniej misji i słuch o nim
zaginął.
Fizyk, powiedział mi ojciec, był eleganckim i spokojnym człowiekiem,
który chronił się przed okrucieństwami obozu w najlepszy znany mu sposób:
uciekając w świat swojego umysłu. Chemik miał charakter marzyciela
o błędnym wzroku i kowboja i zabierał się do działania, by stawić czoła
chaosowi świata. Taka, stwierdził mój ojciec, jest różnica między chemią
i fizyką.
Jest istotnie prawdą, że w przeciwieństwie do wczesnych fizyków wcześni
chemicy musieli mieć pewien zasób naturalnej odwagi, ponieważ
przypadkowe eksplozje były ryzykiem związanym z ich pracą, podobnie jak
zatrucia, ponieważ często próbowali substancji, by pomóc sobie w ich
identyfikacji. Prawdopodobnie najsłynniejsze z tych wczesnych
eksperymentów zostały przeprowadzone przez szwedzkiego farmaceutę
i chemika Carla Scheele. Scheele przeżył, gdy stał się pierwszym chemikiem,
który wyprodukował silnie żrący i trujący chlor w stanie gazowym, a wręcz
cudem udało mu się dokładnie opisać smak cyjanowodoru, niezmiernie
trującego gazu, i nie zginąć przy tym. Jednak w 1786 roku Scheele zmarł
w wieku czterdziestu trzech lat na chorobę podejrzanie przypominającą ostre
zatrucie rtęcią213.
Na bardziej osobistym poziomie uderzyło mnie to, że różnica między
chemikiem i fizykiem odpowiadała różnicy między moim ojcem i mną. Otóż
po zniknięciu chemika wraz z czterema pozostałymi spiskowcami popchnął
on naprzód swój plan przy użyciu jedynie ręcznych narzędzi – „wszelkiego
rodzaju śrubokrętów”214, jak mi powiedział – zamiast materiałów
wybuchowych, próbując rozkręcić tory kolejowe. Wszystko potoczyło się nie
po ich myśli, gdy jeden z sabotażystów spanikował i zwrócił na siebie uwagę
znajdujących się w pobliżu oficerów SS. W rezultacie jedynie ojciec i jeszcze
jeden sabotażysta umknęli z życiem – kładąc się na torach, dzięki czemu
pozostali niezauważeni, gdy przejeżdżał nad nimi długi pociąg towarowy. Ja
natomiast rzadko kiedy podejmowałem realne działanie o jakimkolwiek
znaczeniu w świecie zewnętrznym, jedynie kalkulowałem konsekwencje za
pomocą równań i papieru.
Różnica między fizyką i chemią odzwierciedla zarówno początki, jak
i kultury obu tych dziedzin. Podczas gdy fizycy zaczęli od teoretycznych
rozważań Talesa, Pitagorasa i Arystotelesa, chemia zrodziła się w kantorkach
kupców i mrocznych norach alchemików. Choć praktyków z obu tych
dziedzin motywowało czyste pragnienie wiedzy, chemia ma również źródła
w podejściu praktycznym – czasami w pragnieniu poprawy życia ludzi,
czasami w chciwości. W chemii jest pewna szlachetność, szlachetność
dążenia do poznania i podboju materii; ale zawsze tkwił w niej również
potencjał wielkiego zysku.

***

Trzy prawa ruchu odkryte przez Newtona były w pewnym sensie proste,
nawet jeśli na bezpośrednie ich dostrzeżenie nie pozwalały mgły tarcia
i oporu powietrza oraz niewidzialna siła grawitacji. Chemia jednak nie rządzi
się prawami analogicznymi do tych trzech uniwersalnych praw. Jest znacznie
bardziej skomplikowana, ponieważ nasz świat oferuje nam oszałamiająco
zróżnicowany wachlarz substancji, a nauka chemii musiała stopniowo
poradzić sobie z nimi wszystkimi.
Pierwszym odkryciem, jakiego miano dokonać, było to, że pewne
substancje – pierwiastki – są podstawowe, podczas gdy inne związki składają
się z kombinacji pierwiastków. Intuicyjnie dostrzegali to już Grecy.
Na przykład według Arystotelesa pierwiastek (który nazywano wówczas
„elementem”) to „jedno z tych ciał, na które można rozłożyć inne ciała,
a którego nie można podzielić na inne”215. Te cztery elementy nazwał:
ziemia, powietrze, woda i ogień.
Jest oczywiste, że wiele substancji składa się z innych substancji. Sól plus
świeża woda daje słoną wodę; żelazo w wodzie wytwarza rdzę; wódka
i wermut dają martini. Z kolei wiele substancji można rozłożyć na składniki,
często przez podgrzanie. Na przykład podgrzany wapień zmienia się
w wapno i gaz, dwutlenek węgla. Cukier po podgrzaniu daje węgiel i wodę.
Jednak tego rodzaju naiwne obserwacje nie prowadzą nas zbyt daleko,
ponieważ nie są opisami tego, co się dzieje, które można uniwersalnie
zastosować. Na przykład jeśli podgrzeje się wodę, zmienia się ona w gaz, ale
w gaz, który pod względem chemicznym nie różni się od cieczy – po prostu
woda przybrała odmienną postać fizyczną. Rtęć po podgrzaniu również nie
rozkłada się na swoje składniki, ale wręcz przeciwnie – łączy się
z niewidzialnym tlenem z powietrza i tworzy związek nazywany tlenkiem.
Mamy również spalanie. Weźmy spalanie drewna. Kiedy drewno się pali,
zmienia się w płomień i popiół, ale błędem byłoby wnioskować, że składa się
z ognia i popiołu. Co więcej, wbrew kategoryzacji Arystotelesa, ogień nie
jest substancją, lecz raczej światłem i ciepłem wytwarzanym, gdy inne
substancje przechodzą reakcję chemiczną. Kiedy drewno się spala, tak
naprawdę wydzielają się niewidoczne gazy – głównie dwutlenek węgla i para
wodna, ale łącznie ponad sto różnych gazów216 – a starożytni nie
dysponowali żadną techniką, która pozwalałaby je zebrać, a tym bardziej
odseparować i zidentyfikować.
Wyzwania tego rodzaju sprawiały, że trudno było rozróżnić, co składa się
z dwóch lub większej liczby substancji, a co jest podstawowe. W rezultacie
tego zamętu wielu starożytnych, tak jak Arystoteles, błędnie identyfikując
wodę, ogień i inne podstawowe elementy, nie zidentyfikowało jako
elementów siedmiu pierwiastków metalicznych – rtęci, miedzi, żelaza,
ołowiu, cyny, złota i srebra – z którymi byli dobrze zaznajomieni.
Podobnie jak narodziny fizyki opierały się na nowych wynalazkach
matematycznych, narodziny prawdziwej chemii musiały poczekać na pewne
wynalazki techniczne – wyposażenie do dokładnego ważenia substancji, do
mierzenia ciepła pochłanianego albo emitowanego przez reakcje, do
określania, czy substancja jest kwasem czy zasadą, do wychwytywania
i usuwania gazów oraz manipulowania nimi oraz do mierzenia temperatury
i ciśnienia. Dopiero dzięki takim wynalazkom w XVII i XVIII wieku
chemicy mogli zacząć rozwikływać splątane wątki swojej wiedzy i tworzyć
płodne sposoby myślenia o reakcjach chemicznych. Świadectwem ludzkiej
wytrwałości jest jednak to, że przed tym postępem technicznym praktykujący
różne zawody, które powstały w starożytnych miastach, zgromadzili wielki
zasób wiedzy z wielu odrębnych dziedzin takich jak farbowanie, wytwarzanie
perfum, produkcja szkła, metalurgia czy balsamowanie.

***

Balsamowanie było pierwsze. W tej dziedzinie początki nauk chemicznych


można wyśledzić aż w Çatalhöyük, choć bowiem jego mieszkańcy nie
balsamowali swoich zmarłych, stworzyli kulturę śmierci i szczególny sposób
dbania o przodków. W czasach starożytnego Egiptu rosnąca troska o los
zmarłego po śmierci doprowadziła do wynalezienia mumifikacji. Wierzono,
że ma ona być kluczem do szczęśliwego życia po śmierci; z pewnością nie
było niezadowolonych klientów, którzy pojawiali się, by stwierdzić, że jest
zupełnie inaczej. Rósł więc popyt na czynniki balsamujące. Zrodził się nowy
przemysł, który dążył do tego, by parafrazując hasło reklamowe firmy
DuPont, zapewnić lepsze rzeczy dla lepszego życia po śmierci dzięki chemii.
Świat zawsze miał swoich marzycieli, a wśród nich te szczęśliwe jednostki,
które zrealizowały swoje marzenie, albo przynajmniej żyły, próbując to
uczynić. Ci należący do ostatniej grupy nie wyróżniają się z konieczności
talentem ani wiedzą, ale w nieunikniony sposób odróżniają się od innych
ciężką pracą. Marzeniem egipskich przedsiębiorców i wynalazców musiało
być bogacenie się dzięki udoskonalaniu procesu balsamowania, ponieważ
inwestowali długie i żmudne godziny pracy w te próby. Z biegiem czasu
metodą prób i błędów egipscy balsamiści w końcu nauczyli się stosować
doskonałą mieszankę soli sodu, żywic, mirry i innych konserwantów, która
z powodzeniem chroniła ciała przed zepsuciem – wszystkie jej składniki
odkryto bez jakiejkolwiek wiedzy czy to o zachodzących procesach
chemicznych, czy o tym, co sprawia, że ciało gnije.
Ponieważ balsamowanie było biznesem, a nie nauką, odkrycia z nim
związane traktowano nie jak teorie starożytnych Einsteinów, lecz raczej jak
recepty Einstein Bros. Bagels217: były ściśle strzeżonymi sekretami. Skoro
zaś zabiegi te łączyły się ze śmiercią i światem zmarłych, o praktykach tej
sztuki zaczęto myśleć jak o czarownikach i magikach. Z biegiem czasu
wyewoluowały inne sekretne zawody, dostarczając wiedzy o minerałach,
olejach, wyciągach z kwiatów, strąkach i korzeniach roślin, szkle i metalach.
W tej protochemii praktykowanej przez kupców tkwiły korzenie tajemniczej
i mistycznej kultury alchemii.
Praktycy w tych dziedzinach zgromadzili obszerny korpus
wyspecjalizowanej, ale nietworzącej spójnej całości wiedzy eksperckiej. Ten
zróżnicowany obszar technicznego know-how zaczął w końcu zastygać jako
zunifikowane pole badań, kiedy Aleksander Wielki założył u ujścia Nilu
swoją egipską stolicę Aleksandrię w 331 roku p.n.e.
Aleksandria była zasobnym miastem z eleganckimi budynkami i alejami
szerokimi na 50 metrów. Kilkadziesiąt lat po jej założeniu grecki król Egiptu
Ptolemeusz II wybudował swój kulturalny klejnot koronny, Muzeum.
Muzeum nie było tak jak dzisiejsze muzea wystawą zabytków, lecz raczej
skupiało ponad stu uczonych i badaczy, którzy otrzymywali stypendia
państwowe oraz darmowe zakwaterowanie i wyżywienie. Związana z nim
była ogromna biblioteka licząca pół miliona zwojów, obserwatorium,
laboratoria do przeprowadzania sekcji, ogrody, zoo i inne instytucje
badawcze. Było to wspaniałe centrum przeznaczone do zgłębiania wiedzy,
żywy, funkcjonujący pomnik ludzkiego dążenia do mądrości. Można je uznać
za pierwszy na świecie instytut badawczy, który miał odegrać rolę podobną
do uniwersytetów w późniejszej Europie, choć – niestety – jego
przeznaczeniem było ulec zniszczeniu przez ogień w III wieku n.e.218.
Aleksandria niebawem stała się mekką kultury, a w ciągu kilku stuleci
najrozleglejszym i największym miastem na świecie. Różne greckie teorie
materii i zmiany spotkały się tam z całym wachlarzem egipskiej ludowej
wiedzy chemicznej. To połączenie idei zmieniło wszystko.
Przez tysiąclecia przed inwazją Greków wiedza Egipcjan o własnościach
substancji była czysto praktyczna, teraz grecka fizyka oferowała ramę
teoretyczną zapewniającą Egipcjanom kontekst dla ich wiedzy.
W szczególności Arystotelesowska teoria materii pozwalała wyjaśnić sposób,
w jaki substancje zmieniają się i wchodzą ze sobą w interakcje. Teoria
Arystotelesa, oczywiście, była błędna, ale zainspirowała bardziej
zunifikowane podejście do nauki o substancji.
Jeden aspekt teorii Arystotelesa wywarł szczególny wpływ: jego idee
dotyczące transformacji substancji. Weźmy proces gotowania. Arystoteles
uważał, że element wody ma dwie zasadnicze jakości: bycie mokrym i bycie
zimnym. Natomiast element powietrza charakteryzował jako suchy i gorący.
Gotowanie jego zdaniem było zatem procesem, w którym element ognia
działa, by zmienić zimno wody w gorąco, a tym samym przekształcić wodę
w powietrze. Egipcjanie, wywęszywszy potencjał zysku w tej koncepcji,
starali się wprowadzić innowacje: jeśli woda może zostać przekształcona
w powietrze, to czy byłoby możliwe przekształcenie jakiegoś gorszego
materiału w złoto? Trochę podobnie jak moja córka Olivia, która gdy
powiedziano jej, że może dostać dolara od zębowej wróżki, jeśli zostawi
swojego mleczaka pod poduszką, natychmiast zapytała: „Ile dostanę za
obcięte paznokcie?”.
Egipcjanie zauważyli, że złoto, podobnie jak podstawowe elementy
Arystotelesa, ma zasadnicze jakości: jest metalem, jest miękkie, jest żółte.
Złoto ma wszystkie te jakości, ale można je odnaleźć w różniących się
kombinacjach w wielu substancjach. Czy można wymyślić sposób na
przenoszenie jakości między substancjami? W szczególności jeśli proces
gotowania pozwala zastosować ogień do zmiany fizycznej właściwości
wody, zmieniając ją w ten sposób w powietrze, być może istniał analogiczny
proces, za pomocą którego można transmutować połączenie metalicznych,
miękkich i żółtych substancji w złoto.
W rezultacie takich rozważań w 200 roku p.n.e. wskazówki dotyczące
rzeczywistej wiedzy chemicznej wymieszały się z ideami zaczerpniętymi
z greckiej filozofii, a stara protochemia balsamowania, metalurgii i innych
praktycznych przedsięwzięć zaowocowała zunifikowanym podejściem do
badania zmiany chemicznej. Tak więc narodziła się dziedzina alchemii,
której podstawowym celem była produkcja złota, a w końcu również
„eliksiru życia”, który miał dawać wieczną młodość.
Historycy spierają się, kiedy dokładnie można mówić o wykiełkowaniu
nauki chemii, ale chemia to nie lucerna, a więc data jej narodzin jest bardziej
kwestią opinii niż precyzyjnie ustalonych faktów. Jednak jest pewne, że
alchemia służyła użytecznym celom, ze sztuk i mistycyzmu tej starożytnej
dziedziny wyrosła zaś współczesna chemia.

***

Pierwszy impuls kierujący czarnoksięstwo alchemii ku metodom nauki


pochodził od jednej z najdziwniejszych postaci w historii ludzkiej myśli.
Urodzony w małej wsi na terenie obecnej Szwajcarii Theophrastus Bombast
von Hohenheim (1493–1541) w wieku dwudziestu jeden lat został wysłany
przez ojca, by studiował metalurgię i alchemię, choć później twierdził, że
uzyskał stopień lekarski – i tą właśnie profesją się zajął. Wciąż jeszcze
niewiele po dwudziestce zmienił imię na Paracelsus, co oznaczało „większy
niż Celsus”, rzymski lekarz z I wieku n.e. Ponieważ dzieła Celsusa były
bardzo popularne w XVI wieku, wraz ze zmianą przydomku Paracelsusowi
udało się zmienić z kogoś, kto nazywał się Bombast, w postać
o bombastycznym imieniu: Paracelsus, która wszem wobec głosiła swoją
pogardę do ówczesnego podejścia do medycyny. Paracelsus demonstrował tę
wzgardę dość obrazowo, kiedy na przykład pewnego lata przyłączył się do
studentów przy tradycyjnym ognisku i rzucił w płomienie wraz z garstką
siarki dzieła medyczne poważanego greckiego lekarza Galena.
Uraza Paracelsusa do Galena była tą samą, jaką wyrażali Galileusz
i Newton wobec Arystotelesa: jego dzieła zostały unieważnione przez
obserwacje i doświadczenia późniejszych praktyków. W szczególności
Paracelsus był przekonany, że konwencjonalna idea, iż choroba powodowana
jest przez brak równowagi tajemniczych fluidów cielesnych nazywanych
humorami, nie wytrzymała testu czasu. Wierzył natomiast głęboko, że
choroby wywołują czynniki zewnętrzne – i że tym przyczynom można
zaradzić przez podanie właściwych leków.
To właśnie poszukiwanie tych „właściwych leków” doprowadziło
Paracelsusa do podjęcia próby przekształcenia alchemii. Dziedzina ta
przyniosła już wiele owoców, takich jak odkrycie nowych substancji – soli
metalicznych, kwasów mineralnych i alkoholu – ale Paracelsus chciał, żeby
porzuciła poszukiwanie złota i skupiła się na ważniejszym celu, jakim było
uzyskanie związków chemicznych, które mają swoje miejsce w laboratorium
ludzkiego ciała i mogą leczyć konkretne choroby. Co równie ważne,
Paracelsus dążył do zreformowania metod alchemicznych, mocno
nieprecyzyjnych i niechlujnych. Będąc w równej mierze dobrym
handlowcem jak naukowcem, wymyślił nową nazwę dla swojej ulepszonej
wersji alchemii. Zastępując arabski przedrostek al (będący rodzajnikiem
określonym) greckim słowem iatro oznaczającym medycynę, stworzył
termin „iatrochemia”. Słowo to jest trudne do wymówienia, co mogło być
przyczyną, dla której niebawem przekształciło się w krótszy termin „chemia”
i stało podstawą dla nazwy tej nauki w większości języków europejskich.
Idee Paracelsusa miały później wpłynąć zarówno na wielkiego Izaaka
Newtona, jak i na jego rywala Leibniza, i pomóc w poprowadzeniu alchemii
ku nowej tożsamości jako naukowej chemii. Jednak choć Paracelsus
prowadził aktywną krucjatę na rzecz swojego nowego podejścia, skuteczność
jego perswazji była ograniczona z uwagi na cechy osobowości uczonego.
Potrafił zachowywać się bardzo obraźliwie – a kiedy piszę „obraźliwie”,
mam na myśli „zachowywał się jak obłąkany”.
Paracelsus nie nosił brody i był zniewieściały, nie interesował się wcale
seksem, ale gdyby na olimpiadzie przyznawano złote medale za pijatyki,
zdobyłby platynowy. Chodził pijany prawie zawsze, a jak stwierdził jeden
z jego współczesnych, „żył jak świnia”. Nie znał subtelności w promowaniu
samego siebie i był skory do wygłaszania stwierdzeń w rodzaju: „Wszystkie
uniwersytety i wszyscy dawni autorzy razem wzięci mają mniej talentu niż
mój osioł”219. Wydawało się, że sprawia mu przyjemność irytowanie
establishmentu, co niekiedy było dla niego celem samym w sobie.
Na przykład kiedy został mianowany wykładowcą na Uniwersytecie
Bazylejskim, na pierwszym wykładzie pojawił się w skórzanym fartuchu
laboratoryjnym zamiast w standardowej todze akademickiej; przemawiał
w szwajcarskiej odmianie niemieckiego zamiast – jak oczekiwano – po
łacinie; a po ogłoszeniu, że ujawni największe tajniki medycyny, odsłonił
nocnik pełen odchodów.
Paracelsus przedstawiony na siedemnastowiecznej kopii zaginionego oryginału
flamandzkiego artysty Quentina Massysa (1466–1529) (Dzięki uprzejmości
Science Source®, a registered trademark of Photo Researchers, Inc., copyright
© 2014 Photo Researchers, Inc. All rights reserved)

Te wybryki przyniosły taki sam efekt, jaki przyniosłyby dziś: zraził do


siebie swoich kolegów lekarzy i wykładowców, ale stał się popularny wśród
wielu studentów. Mimo to gdy przemawiał, ludzie go słuchali, ponieważ
niektóre z jego lekarstw naprawdę działały. Na przykład odkrywszy, że
opiaty znacznie łatwiej rozpuszczają się w alkoholu niż w wodzie, stworzył
oparty na opium roztwór, który nazwał laudanum, a który był bardzo
skuteczny w łagodzeniu bólu.
Jednak w ostatecznym rozrachunku to prawdopodobnie względy
ekonomiczne były najskuteczniejszym czynnikiem rozpowszechniania się
idei Paracelsusa. Obietnica nowych chemicznych lekarstw na choroby
podniosła dochody, status społeczny i popularność aptekarzy, co zrodziło
popyt na wiedzę z tej dziedziny. Powstawały podręczniki i kursy nowego
przedmiotu, a gdy kategorie i techniki alchemii zostały przełożone na nowy
język chemii, stały się bardziej precyzyjne i bardziej ustandaryzowane, tak
jak chciał Paracelsus. Na początku XVII wieku, choć wielu nadal
praktykowało starą alchemię, stworzony przezeń nowy styl alchemii –
chemia – również złapał wiatr w żagle.
Podobnie jak uczeni z Merton College w matematyce, Paracelsus był
postacią okresu przejściowego, pomógł przekształcić swoją dziedzinę
i położyć fundament, na którym budowali późniejsi praktycy. To, w jakiej
mierze stał okrakiem między starym i nowym światem chemii, jasno
pokazuje jego życie: choć był tak krytycznie nastawiony do tradycyjnej
alchemii, sam się nią parał. Przez większość kariery przeprowadzał
eksperymenty mające na celu wytworzenie złota, a raz stwierdził nawet, że
odkrył i wypił eliksir życia, i że jego przeznaczeniem było żyć wiecznie.
Wszelako we wrześniu 1541 roku, gdy przebywał w gospodzie Pod Białym
Koniem w Salzburgu w Austrii, Bóg powiedział „sprawdzam”. Paracelsus
wracał pewnej nocy do gospody ciemną, wąską uliczką i albo nieszczęśliwie
upadł, albo został pobity przez rzezimieszków wynajętych przez
miejscowych lekarzy, których do siebie zraził – zależnie, w którą wersję się
wierzy. Obie jednak prowadzą do takiego samego końca: jego końca.
Paracelsus zmarł od odniesionych obrażeń kilka dni później, w wieku
czterdziestu siedmiu lat. Mówi się, że w chwili śmierci wyglądał na
wyniszczonego i znacznie starszego, niż był w rzeczywistości, z powodu
nocnych ekscesów i ostrego picia. Gdyby przeżył jeszcze półtora roku,
mógłby być świadkiem publikacji wielkiego dzieła Kopernika De
revolutionibus orbium coelestium (O obrotach ciał niebieskich), które często
uznaje się za początek rewolucji naukowej, ruchu, który Paracelsus niemal na
pewno z radością by powitał.

***
Półtora stulecia po śmierci Paracelsusa było, jak się przekonaliśmy, okresem,
w którym pionierzy tacy jak Kepler, Galileusz i Newton na podstawie
wcześniejszych prac stworzyli nowe podejście do astronomii i fizyki.
Z biegiem czasu teorie dotyczące jakościowego kosmosu rządzonego przez
zasady metafizyczne ustąpiły miejsca koncepcji ilościowego i mierzalnego
Wszechświata podlegającego stałym prawom fizyki. Podejście do wiedzy,
które opierało się na autorytecie uczoności i argumentach metafizycznych,
ustąpiło miejsca koncepcji, że powinniśmy poznawać prawa przyrody przez
obserwację i eksperymenty oraz formułować te prawa w języku matematyki.
Podobnie jak w fizyce intelektualnym wyzwaniem, w obliczu którego
stanęły nowe pokolenia chemików, było nie tylko stworzenie
rygorystycznych sposobów myślenia i eksperymentowania, ale także
porzucenie filozofii i koncepcji z przeszłości. Aby zacząć dojrzewać jako
nowa dziedzina nauki, chemia musiała zarówno przyswoić sobie lekcje
płynące od Paracelsusa, jak i zdetronizować prowadzące w ślepe zaułki teorie
Arystotelesa – nie jego teorie ruchu, które obalili Newton i inni fizycy
i matematycy, ale teorie materii.
Zanim rozwiąże się zagadkę-układankę, trzeba zidentyfikować jej
elementy, a w zagadce natury materii tymi elementami są pierwiastki
chemiczne. Dopóki długo ludzie wierzyli, że wszystko składa się z ziemi,
powietrza, ognia i wody – czy jakiegoś analogicznego systemu – dopóty ich
rozumienie ciał materialnych miało opierać się na bajkach, a zdolność do
stworzenia nowej i użytecznej chemii – pozostać sprawą prób i błędów, bez
możliwości osiągnięcia prawdziwego zrozumienia. A więc tak jak działo się
to w nowej atmosferze intelektualnej XVII wieku, gdy Galileusz i Newton
w końcu wyparli Arystotelesa z fizyki i zastąpili jego pomysły teorią opartą
na obserwacjach i eksperymencie, jeden z uczonych, którego prace z zakresu
optyki zainspirowały Newtona, miał wyeliminować koncepcje Arystotelesa
z chemii. Mam na myśli Roberta Boyle’a, syna pierwszego Earla of Cork
w Irlandii220.
Jedną z dróg umożliwiającą poświęcenie się życiu naukowemu jest
uzyskanie stanowiska uniwersyteckiego. Inną jest pochodzenie
z nieprzyzwoicie bogatej rodziny. W przeciwieństwie do profesorów
uniwersyteckich, którzy byli pionierami w fizyce, wielu orędowników młodej
chemii było ludźmi niezależnymi finansowo, którzy w epoce, gdy laboratoria
były nieliczne, mogli sobie pozwolić na sfinansowanie i utrzymanie
własnych pracowni. Robert Boyle był synem earla, który nie był po prostu
bogaty, lecz był prawdopodobnie najbogatszym człowiekiem w Wielkiej
Brytanii.
Niewiele wiadomo o matce Boyle’a poza tym, że wyszła za mąż w wieku
siedemnastu lat i urodziła piętnaścioro dzieci w ciągu następnych dwudziestu
trzech lat, a następnie zmarła na suchoty, co musiało być w tej sytuacji pewną
ulgą. Robert był jej czternastym dzieckiem i siódmym synem. Wydaje się, że
earl lubił płodzić dzieci bardziej, niż je wychowywać, ponieważ każde z nich
niebawem po narodzeniu oddawane było pod opiekę mamek, a później do
szkoły z internatem i college’u albo wysyłane za granicę na naukę
u prywatnych nauczycieli.
Boyle spędził okres, w którym jest się najbardziej podatnym na wpływy,
w Genewie. Gdy miał czternaście lat, zbudziła go pewnej nocy bardzo
gwałtowna burza i wówczas przysiągł, że jeśli przeżyje, poświęci swoje życie
Bogu. Gdyby wszyscy dotrzymywali przysiąg – czy choćby o nich pamiętali
– które złożyli w trudnych chwilach, ten świat byłby lepszy, jednak Boyle
uznał, że jego obowiązuje. Niezależnie, czy to burza była prawdziwą
przyczyną, stał się głęboko religijny i pomimo ogromnego bogactwa
prowadził ascetyczne życie.
Rok po burzy, która odmieniła jego życie, odwiedził Florencję, a było to
w czasie, gdy Galileusz dokonywał żywota na swoim nieodległym wygnaniu.
W jakiś sposób w ręce Boyle’a trafiła książka Galileusza o systemie
kopernikańskim, jego Dialogi o dwóch najważniejszych systemach świata.
Był to szczęśliwy zbieg okoliczności, a zarazem znaczące wydarzenie
w historii idei, ponieważ po przeczytaniu tej książki Boyle, który miał
wówczas piętnaście lat, zakochał się w nauce221.
Nic w świadectwach historycznych nie wyjaśnia, dlaczego wybrał chemię,
ale od czasu nawrócenia poszukiwał sposobu, w jaki mógłby należycie służyć
Bogu, i uznał, że chemia to właśnie to. Podobnie jak Newton i Paracelsus żył
w celibacie i miał obsesję na punkcie swojej pracy, podobnie też jak Newton
wierzył, że walka o zrozumienie tego, jak działa przyroda, prowadzi do
zrozumienia dróg Pana. Jednak w przeciwieństwie do Newtona Boyle chemik
uważał, że nauka jest ważna także dlatego, że można ją wykorzystać do
ulżenia cierpieniom i poprawy życia ludzi.
Boyle w pewnym sensie został naukowcem dlatego, że był filantropem.
Przeprowadził się do Oksfordu w 1656 roku, w wieku 29 lat, i choć
uniwersytet nie oferował jeszcze oficjalnego kształcenia w zakresie chemii,
stworzył tam laboratorium dzięki własnym funduszom i poświęcił się
badaniom nad fascynującą go dziedziną.
Oksford był bastionem rojalistów w czasie angielskiej wojny domowej
i stał się schronieniem dla wielu uchodźców z parlamentarnego Londynu. Nie
wydaje się, żeby Boyle żywił szczególnie silne uczucia do którejkolwiek ze
stron, jednak przyłączył się do grupy zbiegów, którzy spotykali się co
tydzień, żeby omawiać wspólne zainteresowania nowym eksperymentalnym
podejściem do nauki. W 1662 roku, niedługo po restauracji monarchii, Karol
II nadał grupie statut, dzięki czemu przekształciła się ona w Royal Society
(pełna nazwa tej instytucji brzmi: Królewskie Towarzystwo Londyńskie dla
Udoskonalenia Wiedzy Przyrodniczej), które odegrało tak ważną rolę
w karierze Newtona.
Royal Society stało się niebawem forum, na którym wielkie umysły
naukowe tamtych czasów – w tym Newton, Hooke i Halley – gromadziły się,
by się spierać, dyskutować, wzajemnie krytykować swoje idee, a niektóre
z nich wspierać i pilnować, by znalazły drogę do szerszego świata. Motto
Towarzystwa, Nullius in verba, znaczy mniej więcej: „Nigdy nie wierz
nikomu na słowo”, choć ukryta jest w nim myśl: „Nigdy nie wierz słowu
Arystotelesa” – ponieważ wszyscy członkowie Towarzystwa rozumieli, że
dla dokonania postępów kluczowe znaczenie ma wyjście poza światopogląd
arystotelesowski.
Również Boyle przyjął sceptycyzm jako swoje osobiste zawołanie, co
odzwierciedla tytuł jego książki z 1661 roku, The Sceptical Chymist
(Sceptyczny chemik), która była w znacznej mierze atakiem na Arystotelesa.
Boyle bowiem, podobnie jak jego koledzy po fachu, zdał sobie sprawę, że
aby wprowadzić naukową ścisłość do zrozumienia przedmiotu, który go
pociągał, musiał odrzucić znaczną część przeszłości. Korzenie chemii mogły
tkwić w laboratoriach balsamistów, fabrykantów szkła, farbiarzy, metalurgów
i alchemików, a od czasów Paracelsusa również aptekarzy, jednak Boyle
postrzegał ją jako dziedzinę badań wartą studiowania dla niej samej, równie
niezbędną do podstawowego zrozumienia świata naturalnego jak astronomia
i fizyka i równie godną rygorystycznego pod względem intelektualnym
podejścia.
W swojej książce Boyle przedstawił przykład po przykładzie procesy
chemiczne, które pozostawały w sprzeczności z ideami Arystotelesa
dotyczącymi elementów. Omówił na przykład niezmiernie szczegółowo
spalanie drewna na popiół. Kiedy spala się kłodę drewna, zaobserwował,
woda wygotowująca się z końców kłody „z pewnością nie jest elementarną
wodą”, a dym „z pewnością nie jest powietrzem”, lecz raczej, gdy się je
wydestyluje, dają olej i sole222. Stwierdzenie, że ogień zamienia kłodę
w substancje elementarne – ziemię, powietrze i wodę – nie znajdowało
potwierdzenia w skrupulatnych badaniach. Zarazem wydawało się, że innych
substancji, takich jak złota i srebra, nie można zredukować do prostszych
składników, a zatem prawdopodobnie powinno się uznawać je za pierwiastki.
Największym dokonaniem Boyle’a było zaatakowanie idei, że powietrze
jest elementem. Swoją tezę poparł eksperymentami, w których pomagał mu
chorowity młody asystent, student Oksfordu i zagorzały rojalista Robert
Hooke. Biedny Hooke: później miał być ignorowany przez Newtona,
a w wielu sprawozdaniach historycznych przypisuje mu się również nikłe
zasługi w związku z eksperymentami, które przeprowadził z Boyle’em, choć
prawdopodobnie to on zbudował całe wyposażenie i wykonał większość
prac223.
W jednej z serii doświadczeń badali oni oddychanie, próbując zrozumieć,
w jaki sposób płuca oddziałują z powietrzem, kiedy nim oddychamy.
Rozumieli, że musi się tu dziać coś ważnego. W końcu jeśli nie następuje
jakaś interakcja, to całe to oddychanie, jakie wykonujemy, jest albo ogromną
stratą czasu, albo – jak u niektórych – jedynie sposobem na zajęcie płuc
w przerwach między paleniem. Aby to zbadać, przeprowadzili eksperymenty
na myszach i ptakach. Zaobserwowali, że kiedy zwierzęta umieści się
w zamkniętym pojemniku, zaczynają oddychać z wysiłkiem, a w końcu
w ogóle przestają.
Czego dowodzą eksperymenty Boyle’a? Najbardziej oczywistą lekcją, jaka
z nich płynie, jest to, że Robert Boyle nie był człowiekiem, którego
poprosiłbyś o popilnowanie domu pod swoją nieobecność, jeśli masz jakieś
domowe zwierzę. Jednak pokazywały również, że kiedy zwierzęta oddychają,
to albo wchłaniają pewien składnik powietrza, którego wyczerpanie
powoduje śmierć, albo wydzielają pewien gaz, który w wystarczająco
wysokim stężeniu okazuje się śmiertelny. Albo jedno i drugie. Boyle był
przekonany, że w grę wchodzi pierwsza możliwość, ale tak czy inaczej, jego
eksperymenty sugerowały, że powietrze nie jest pierwiastkiem, lecz raczej
składa się z różnych komponentów.
Boyle zbadał również rolę powietrza w spalaniu, wykorzystując znacznie
poprawioną wersję pompy próżniowej (wynalezionej niewiele wcześniej
przez Hooke’a. Zaobserwował, że gdy pompa wypompuje całe powietrze
z zamkniętych pojemników, które zawierają palące się obiekty, płomienie
znikają. Boyle wywnioskował, że w spalaniu, podobnie jak w oddychaniu,
pewna nieznana substancja znajdująca się w powietrzu jest niezbędna do
zachodzenia tego procesu.
Poszukiwanie tożsamości pierwiastków stanowiło sedno pracy Boyle’a.
Wiedział on, że Arystoteles i jego kontynuatorzy mylili się, ale z uwagi na
ograniczone zasoby, jakimi dysponował, mógł tylko w niewielkim stopniu
zastąpić ich idee bardziej trafnymi pomysłami. Jednak to wystarczyło, by
wykazać, że powietrze składa się z różnych gazów składowych, a tym samym
obalić teorie Arystotelesa, podobnie jak było to z obserwacjami Galileusza,
że na Księżycu są góry oraz kratery i że Jowisz ma swoje księżyce. Dzięki
swoim spostrzeżeniom Boyle pomógł uwolnić rodzącą się naukę od
konwencjonalnej mądrości z przeszłości, zastępując ją starannymi
eksperymentami i obserwacją.

***

Jest coś szczególnie wymownego w chemicznych badaniach powietrza.


Poznanie saletry albo tlenków rtęci nie mówi nam nic o nas samych, ale
powietrze daje nam życie. Jednak przed Boyle’em mało kto eksperymentował
z powietrzem. Badanie gazów było bowiem trudne i poważnie ograniczone
przez stan dostępnej techniki. Miało się to zmienić dopiero pod koniec XVIII
wieku, kiedy wynalezienie nowego wyposażenia laboratoryjnego takiego jak
wanienka do zbierania gazów umożliwiło wychwytywanie gazów
wytwarzanych w reakcjach chemicznych224.
Niestety, ponieważ w reakcjach chemicznych często są pochłaniane albo
wydzielane niewidoczne gazy, bez zrozumienia, czym jest stan gazowy,
chemicy dochodzili do niepełnych, a często mylących wniosków co do wielu
ważnych procesów chemicznych – w szczególności spalania. Aby chemia
naprawdę wyszła ze średniowiecza, musiało się to zmienić – należało
zrozumieć naturę ognia.
Stulecie po Boyle’u odkryto w końcu gaz niezbędny do spalania – tlen.
Ironią historii jest to, że człowiekowi, który go odkrył, rozgniewany tłum
spalił dom w 1791 roku. Ludność bowiem zdenerwowało poparcie, jakiego
ów człowiek udzielił rewolucji amerykańskiej i francuskiej. Z tego powodu
Joseph Priestley (1733–1804) opuścił swoją rodzinną Anglię i w 1794 roku
udał się do Ameryki225.
Priestley był unitarianinem oraz słynnym i namiętnym adwokatem swobód
religijnych. Zaczął swoją karierę jako pastor, ale w 1761 roku został
nauczycielem języków nowożytnych w jednej z owych
nonkonformistycznych akademii odgrywających rolę uniwersytetu dla tych,
którzy nie zgadzali się z Kościołem Anglii. Tam wykłady innego nauczyciela
zainspirowały go do napisania historii nowej nauki o elektryczności. Badania
nad tym tematem miały go doprowadzić do przeprowadzenia oryginalnych
eksperymentów.
Silny kontrast między życiem i pochodzeniem Priestleya i Boyle’a znajduje
odzwierciedlenie w kontraście między ich epokami. Boyle zmarł na początku
oświecenia, okresu w historii myśli i kultury Zachodu trwającego mniej
więcej od 1685 do 1815 roku. Priestley natomiast pracował w szczytowym
okresie tej epoki.
Oświecenie było epoką gwałtownej rewolucji dokonującej się zarówno
w nauce, jak i w społeczeństwie. Sam termin, jak ujął to Immanuel Kant,
oznacza „wyjście człowieka z zawinionej przez niego niedojrzałości”226.
Kantowskie motto dla oświecenia było proste: Sapere aude – „Miej odwagę
wiedzieć”. I istotnie, oświecenie wyróżniało się docenianiem postępu nauki,
gorliwością w kwestionowaniu starych dogmatów i zasadą, że rozum
powinien przeważać nad ślepą wiarą i że może przynosić praktyczne korzyści
społeczne.
Co równie ważne, w czasach Boyle’a (i Newtona) nauka była dziedziną
jedynie nielicznej elity myślicieli. Jednak stulecie oświecenia było świadkiem
początków epoki przemysłowej, nieustannego wzrostu klasy średniej
i schyłku panowania arystokracji. W rezultacie w drugiej połowie tego
stulecia nauka stała się przedmiotem zainteresowania stosunkowo dużej
wykształconej grupy ludzi, grupy bardziej zróżnicowanej, obejmującej
przedstawicieli klasy średniej, z których wielu traktowało ją jako sposób na
poprawę swojej pozycji ekonomicznej. Chemia w szczególności skorzystała
z tego poszerzenia bazy praktyków – ludzi takich jak Priestley – oraz
wynalazczego i przedsiębiorczego ducha, który pojawił się wraz z nimi.
Książka Priestleya o elektryczności wyszła w 1767 roku, ale w tym samym
roku zmienił on zainteresowania i zamiast fizyką zaczął zajmować się
chemią, w szczególności gazami. Nie zmienił pola badań, ponieważ miał
jakąś szczególnie rozległą wiedzę o tej nauce, albo dlatego, że zaczął
wierzyć, iż jest to ważniejszy obszar badań. Raczej przeprowadził się
w okolicę browaru, gdzie obfite ilości gazu wydobywały się z drewnianych
kadzi, kiedy ich zawartość ulegała fermentacji, i to wzbudziło jego
ciekawość. W końcu udało mu się schwytać znaczną ilość gazu i po
przeprowadzeniu eksperymentów przypominających doświadczenia
Boyle’a odkrył, że jeśli płonące szczapki drewna umieści się w zamkniętym
pojemniku, który zawiera ów gaz, ogień zgaśnie, natomiast mysz zamknięta
w takim pojemniku niebawem zdechnie. Zauważył również, że jeśli rozpuści
się go w wodzie, gaz tworzy musujący płyn o przyjemnym smaku. Dziś
znamy ten gaz jako dwutlenek węgla. Priestley niechcący wynalazł sposób na
wytwarzanie napojów gazowanych, jednak jako człowiek dysponujący
skromnymi środkami nie skomercjalizował swojego wynalazku. Kilka lat
później zrobił to natomiast Johann Jacob Schweppe, którego firma
produkująca napoje nadal istnieje.
To, że Priestley miał dojść do chemii przez fascynację produktem
ubocznym procesu wytwarzania komercyjnego towaru, bardzo tu pasuje,
ponieważ to właśnie teraz, wraz z nadejściem rewolucji przemysłowej pod
koniec XVIII wieku, widzimy, jak nauka i przemysł pobudzają się nawzajem
do jeszcze większych osiągnięć. Bardzo niewiele rezultatów o bezpośrednim
praktycznym użytku wynikło z wielkich postępów nauki w poprzednim
stuleciu, ale postępy, które zaczęły się pod koniec XVIII wieku, całkowicie
przekształciły codzienne życie. Do bezpośrednich efektów współpracy nauki
i przemysłu należy silnik parowy, postęp w wykorzystaniu siły wody
w fabrykach, rozwój narzędzi i maszyn, a później pojawienie się kolei,
telegrafu i telefonu, elektryczności i żarówki.
Choć w swoich najwcześniejszych stadiach, około 1760 roku, rewolucja
naukowa zależała bardziej od wkładu rzemieślników niż odkryć nowych
zasad naukowych, niemniej jednak pobudzała ona zamożne warstwy
społeczeństwa do sponsorowania nauki jako środka udoskonalenia metod
produkcji towarów. Jednym z bogatych patronów, który wykazywał tego
rodzaju zainteresowanie nauką, był William Petty, Earl of Shelburne. W 1773
roku dał Priestleyowi stanowisko bibliotekarza i nauczyciela swoich dzieci,
ale też zbudował mu laboratorium i pozostawił mnóstwo wolnego czasu na
prowadzenie badań.
Priestley był sprytnym i skrupulatnym eksperymentatorem. W swoim
nowym laboratorium zaczął eksperymentować z tlenkiem rtęci – innymi
słowy, z „rdzą” rtęci. Chemicy w tamtych czasach wiedzieli, że kiedy ogrzeje
się rtęć w celu uzyskania tlenku, pochłania ona coś z powietrza, ale nie
wiedzieli, co to jest. Intrygujące było to, że kiedy tlenek rtęci ogrzewało się
dalej, zmieniał się on z powrotem w rtęć, uwalniając przypuszczalnie to, co
wcześniej pochłonął.
Priestley odkrył, że gaz wydzielany przez tlenek rtęci miał godne uwagi
właściwości. „To powietrze jest wyjątkowej natury – pisał. – Świeca płonie
w nim niezwykle silnym płomieniem […] Aby jednak dopełnić dowodu
wyższej jakości tego powietrza, wsadziłem do niego mysz; i w ilości tego
gazu, w której – gdyby było to zwykłe powietrze – zdechłaby po mniej
więcej kwadransie, żyła […] całą godzinę, i zachowywała się całkiem
żwawo”. Badacz wciągnął do płuc próbkę tego „wyjątkowego” powietrza –
które było, oczywiście, tlenem: „Odczucie w moich płucach nie różniło się
w dostrzegalny sposób od zwykłego powietrza; ale miałem wrażenie, że moje
piersi poruszają się szczególnie lekko i łatwo przez pewien czas po tym”227.
Prawdopodobnie, spekulował, tajemniczy gaz stanie się popularną nową
słabostką dla nieprzyzwoicie bogatych.
Priestley nie zabrał się jednak do sprzedawania tlenu bogaczom, zajął się
jego badaniem. Wprowadził na przykład do niego próbkę ciemnej, skrzepłej
krwi i dostrzegł, że krew stała się jasnoczerwona. Zauważył również, że jeśli
ciemną krew umieści się w małym zamkniętym pojemniku, by wchłonęła
ów gaz z powietrza, to gdy stanie się jasnoczerwona, każde zwierzę
znajdujące się w pojemniku szybko się udusi.
Uznał, że te obserwacje oznaczają, iż nasze płuca oddziałują z powietrzem,
ożywiając krew. Eksperymentował również z miętą i szpinakiem i odkrył, że
rosnące rośliny mogą przywracać powietrzu zdolność do podtrzymywania
zarówno oddychania, jak i ognia – innymi słowy, był pierwszą osobą, która
dostrzegła skutki fotosyntezy.
Choć Priestley dowiedział się wiele o oddziaływaniu tlenu i często twierdzi
się, że był jego odkrywcą, nie zrozumiał jego znaczenia w procesie spalania.
Wyznawał natomiast popularną, ale skomplikowaną teorię z tamtych czasów,
która głosiła, że obiekty spalają się nie dlatego, że wchodzą w reakcję
z czymś z powietrza, ale dlatego, że uwalniają coś, co nazywano
„flogistonem”.
Priestley przeprowadził odkrywcze eksperymenty, ale nie dostrzegł, co
pozwalały one odkryć. To Francuz Antoine Lavoisier (1743–1794) miał
wykonać pracę, która wyjaśniała prawdziwe znaczenie eksperymentów
Priestleya – że oddychanie i spalanie są procesami polegającymi na
absorbowaniu czegoś (tlenu) z powietrza, a nie na uwalnianiu do niego
„flogistonu”228.

***

Mogło wydawać się jałowym marzeniem, że dziedzina, która rozpoczęła się


jako alchemia, wzniesie się do precyzyjnego matematycznego rygoru fizyki
newtonowskiej, ale wielu osiemnastowiecznych chemików wierzyło, że tak
się może stać. Spekulowano nawet, że siły przyciągania między atomami,
z których składają się substancje, mają zasadniczo grawitacyjny charakter
i że można ich użyć do wyjaśnienia właściwości chemicznych. (Dziś wiemy,
że mieli rację, poza tym, że te siły są siłami elektromagnetycznymi). Takie
idee zrodziły się wraz z Newtonem, który twierdził, że istnieją „w przyrodzie
czynniki, które są w stanie sprawić, że poszczególne cząstki ciał [to znaczy,
atomy] łączą się ze sobą za sprawą bardzo silnego przyciągania. A zadaniem
filozofii eksperymentalnej jest ich znalezienie”229. Była to jedna z coraz
poważniejszych bolączek chemii: pytanie, jak dosłownie idee Newtona
można było przenieść z fizyki do innych nauk.
Lavoisier był jednym z tych chemików, na których rewolucja newtonowska
wywarła wielki wpływ. Postrzegał chemię, jaką wówczas uprawiano, jako
dziedzinę „opartą na kilku faktach […] złożoną z zupełnie niespójnych idei
i niedowiedzionych założeń […] nietkniętą przez logikę nauki”230. Jednak
dążył do tego, by chemia naśladowała rygorystyczną ilościową metodologię
fizyki teoretycznej, a nie czysto matematyczne systemy fizyki teoretycznej.
Był to mądry wybór z uwagi na wiedzę i możliwości techniczne tamtych
czasów. W końcu fizyka teoretyczna miała być zdolna do wyjaśnienia chemii
za pomocą swoich równań, ale to stało się dopiero po stworzeniu teorii
kwantowej, a właściwie nawet po skonstruowaniu superszybkich
komputerów cyfrowych.
Podejście Lavoisiera do chemii odzwierciedlało fakt, że kochał zarówno
chemię, jak i fizykę. Mógł w rzeczywistości woleć tę pierwszą, ale ponieważ
wychował się jako syn zamożnego adwokata w Paryżu, w rodzinie, która
mocno zabiegała o swój status i przywileje, zaczął uważać ją za zbyt
dyskusyjną i kontrowersyjną. Choć rodzina, wysoko ceniąca ostrożność
i powściągliwość, wspierała jego ambicje, spodziewano się, że będzie
zarówno zręczny w kontaktach towarzyskich, jak i przedsiębiorczy – jednak
nie były to jego naturalne zalety.
To, że prawdziwą miłością Lavoisiera była nauka, musiało być oczywiste
dla każdego, kto go znał. Miał szalone pomysły i wielkie plany wcielenia ich
w życie. Gdy był jeszcze nastolatkiem, dążył do zbadania wpływu diety na
zdrowie, nie spożywając niczego poza mlekiem przez dość długi okres
i proponując, by zamknięto go w ciemności na sześć tygodni, by zwiększyć
swoją zdolność oceny małych różnic w intensywności światła. (Najwyraźniej
któryś z przyjaciół wyperswadował mu ten pomysł). Ta sama namiętność do
badań naukowych miała odzwierciedlać się przez całe jego życie w ogromnej
zdolności do oddawania się, jak wielu innych pionierów nauki,
wielogodzinnej monotonnej pracy w dążeniu do zrozumienia przedmiotu
swoich badań.
Lavoisier miał szczęście pod tym względem, że pieniądze nigdy nie były
dla niego problemem: gdy jeszcze nie skończył trzydziestki, otrzymał
zaliczkę na poczet przyszłego spadku wartą ponad dziesięć milionów
dolarów w dzisiejszej walucie. Zainwestował je z zyskiem, nabywając
udziały w instytucji nazywanej Towarzystwem Dzierżawców Generalnych.
Dzierżawcy generalnie nie uprawiali szparagów; ściągali określone podatki,
których pobieranie monarchia zdecydowała się wydzierżawić.
Inwestycja poczyniona przez Lavoisiera okazała się praktyczna – wraz z nią
zyskał obowiązek nadzoru nad egzekwowaniem regulacji dotyczących
tytoniu. W zamian dzierżawca płacił mu średnio równowartość dwóch i pół
miliona dolarów na rok za jego udział w zyskach. Lavoisier spożytkował te
pieniądze na zbudowanie najlepszego prywatnego laboratorium na świecie,
które miało być wyposażone w tak wiele szklanych naczyń laboratoryjnych,
że można było sobie wyobrazić, iż równie wiele przyjemności sprawiało mu
oglądanie swoich kolb i zlewek, co ich używanie. Sporo wydawał również na
liczne cele humanitarne.
Lavoisier usłyszał o eksperymentach Priestleya jesienią 1774 roku od niego
samego, gdy ten znalazł się w Paryżu podczas objazdu Europy z lordem
Shelburne w charakterze swego rodzaju przewodnika naukowego. We trzech
wraz z pewnymi luminarzami paryskiej nauki zjedli razem kolację i długo
później rozmawiali.
Kiedy Priestley powiedział Lavoisierowi o pracy, jaką wykonywał,
młodszy uczony natychmiast zdał sobie sprawę, że eksperymenty Priestleya
ze spalaniem miały coś wspólnego z tymi, które on sam przeprowadził nad
rdzewieniem – to go zaskoczyło i zachwyciło. Wyczuł jednak również, że
Priestley ma niewielkie zrozumienie teoretycznych zasad chemii i nie do
końca zdaje sobie sprawę nawet z implikacji własnych eksperymentów. Jego
praca, napisał Lavoisier, była „tkaniną utkaną z eksperymentów, której nie
przerywa żadne rozumowanie”231.
Przodowanie zarówno w teoretycznych, jak i eksperymentalnych aspektach
nauki jest, oczywiście, trudnym zadaniem, i znam niewielu czołowych
naukowców, którzy mogliby się tym poszczycić. Osobiście dość wcześnie
zostałem zidentyfikowany jako obiecujący teoretyk, a więc
w college’u wymagano ode mnie zaliczenia tylko jednego laboratorium
fizycznego. Miałem tam za zadanie zaprojektować i zbudować od podstaw
radio, który to projekt zajął mi cały semestr. W końcu moje radio działało
tylko wtedy, gdy trzymało się je do góry nogami i potrząsało, a nawet wtedy
odbierało tylko jedną stację, bostońską rozgłośnię, która puszczała
dysharmonijną muzykę awangardową. Jestem więc bardzo wdzięczny za
podział pracy w fizyce, podobnie jak większość moich przyjaciół, czy to
teoretyków, czy eksperymentatorów.
Lavoisier był mistrzem zarówno teoretycznych, jak i eksperymentalnych
aspektów chemii. Uznawszy, że Priestley nie dorasta do niego intelektualnie,
podekscytowany możliwością zgłębienia paralel między procesami
rdzewienia i spalania, powtórzył pracę Anglika z rtęcią i jej tlenkiem
wczesnym rankiem następnego dnia. Udoskonalił eksperymenty, mierząc
i ważąc wszystko drobiazgowo. A następnie podał wyjaśnienie odkryć
Priestleya, którego on sam nigdy sobie nie wyobrażał: kiedy rtęć spala się
(tworząc tlenek rtęci), łączy się z gazem, który jest fundamentalnym
elementem przyrody i – jak pokazały jego pomiary – zyskuje na wadze tyle
samo, ile waży gaz, z którym się łączy.
Staranne pomiary przeprowadzone przez Lavoisiera dowodziły również
czegoś innego: kiedy następuje coś odwrotnego – kiedy podgrzewa się tlenek
rtęci, żeby otrzymać rtęć – staje się on lżejszy, przypuszczalnie oddając ten
sam gaz, który pochłonął, i traci na wadze dokładnie tyle, ile przybiera na
wadze rtęć, gdy zmienia się w tlenek rtęci. Choć Priestleyowi przypisuje się
zasługę odkrycia gazu, który został zaabsorbowany i uwolniony w trakcie
tych eksperymentów, to właśnie Lavoisier wyjaśnił jego znaczenie –
i w końcu nadał mu nazwę tlenu232.
Lavoisier wyprowadził później ze swoich obserwacji prawo nauki, prawo
zachowania masy: całkowita masa produktów wytworzonych w reakcji
chemicznej musi być taka sama jak masa początkowych substratów. Był to
prawdopodobnie kamień milowy na drodze od alchemii do współczesnej
chemii: zidentyfikowanie zmiany chemicznej jako łączenia i rekombinacji
pierwiastków.
Związki Lavoisiera z dzierżawą podatków pomogły mu sfinansować ważne
prace naukowe. Okazało się, że działały również na jego zgubę, ponieważ
zwróciły nań uwagę rewolucjonistów, którzy obalili monarchię francuską.
We wszystkich czasach i we wszystkich miejscach poborcy podatków są
równie mile widziani jak chory na gruźlicę, który kaszle. Jednak ci byli
szczególnie znienawidzeni, ponieważ wiele z danin, które ściągali, było
postrzeganych jako irracjonalne i niesprawiedliwe, w szczególności gdy szło
o ich ciężar dla najuboższych.
Lavoisier wedle wszelkich doniesień wykonywał swoje obowiązki rzetelnie
i uczciwie, a także z pewną sympatią dla tych, których one dotyczyły, jednak
rewolucja francuska nie była znana ze zniuansowanych osądów. A Lavoisier
dał rewolucjonistom mnóstwo powodów, żeby go nienawidzili.
Jego najgorszym występkiem był masywny mur z ciężkiego kamienia, do
którego wzniesienia wokół Paryża nakłonił władze, a który kosztował
kilkaset milionów dolarów w dzisiejszej walucie. Nikt nie mógł dostać się do
miasta ani się z niego wydostać inaczej niż przez jedną z bram, w których
pobierano opłaty, patrolowanych przez uzbrojonych strażników. Mierzyli oni
wszystkie towary, jakie wwożono i wywożono, i prowadzili rejestry
wykorzystywane do nakładania podatków. Tak więc – ku rozgoryczeniu
opinii publicznej – Lavoisier swoją skłonność do przeprowadzania
drobiazgowych pomiarów przeniósł z laboratorium do pracy poborcy
podatków.
Kiedy zaczęła się rewolucja, w 1789 roku mur Lavoisiera był pierwszą
budowlą, jaka stała się celem ataku. On sam został aresztowany w 1793 roku
– wraz z innymi dzierżawcami podatków – za rządów terroru i skazany na
śmierć. Poprosił, by opóźnić egzekucję, ponieważ musi ukończyć badania,
nad którymi właśnie pracował. Sędzia miał mu rzekomo odpowiedzieć:
„Republika nie potrzebuje naukowców”233. Być może nie, ale chemia ich
potrzebuje, i na szczęście w ciągu swojego pięćdziesięcioletniego życia
Lavoisier zdążył już zmienić wiele w tej dziedzinie nauki.
Zidentyfikował mianowicie trzydzieści trzy znane substancje jako
pierwiastki. Miał rację co do większości, z wyjątkiem dziesięciu. Stworzył
również standardowy system nazywania związków od pierwiastków, które je
tworzą, zastępując mętny i niezrozumiały język chemii, jaki istniał wcześniej.
Poświęciłem dużo uwagi znaczeniu matematyki jako języka fizyki, ale zdatny
do użytku język ma równie wielkie znaczenie w chemii. Na przykład przed
Lavoisierem popiół hydrargyrum i popiół żywego srebra były nazwami tego
samego związku chemicznego. W jego terminologii zaś ten związek stał się
„tlenkiem rtęci”.
Lavoisier nie doszedł aż do tego, żeby wynaleźć współczesne równania
chemiczne takie jak „2Hg + O2 —› 2HgO”, równanie opisujące wytwarzanie
tlenku rtęci, ale przygotował podwaliny pod ich stworzenie. Jego odkrycia
wywołały rewolucję w chemii i wzbudziły wielki entuzjazm w przemyśle, on
z kolei zaopatrzył przyszłych chemików w nowe substancje, nad którymi
pracowali, i nowe pytania, na które mieli znaleźć odpowiedzi.
W 1789 roku Lavoisier opublikował książkę systematyzującą jego idee:
Elementarny traktat o chemii. Dziś postrzega się tę rozprawę jako pierwszy
nowoczesny podręcznik chemii, wyjaśniający koncepcję, że pierwiastek jest
substancją, której nie można rozłożyć, odrzucający teorię czterech elementów
i istnienie flogistonu, formułujący prawo zachowania masy i przedstawiający
nową racjonalną nomenklaturę. W ciągu jednego pokolenia książka stała się
klasyczną pozycją, źródłem wiedzy i inspiracji dla wielu późniejszych
pionierów. Autor już wówczas nie żył, a jego ciało spoczywało w masowym
grobie.
Lavoisier poświęcił swoje życie w służbie nauki, ale że desperacko pragnął
sławy, bardzo żałował, iż nigdy sam nie wyizolował nowego pierwiastka
(choć domagał się uznania swego udziału w odkryciu tlenu). W końcu
w 1900 roku, sto lat po stwierdzeniu, jakoby Francja nie potrzebowała
naukowców, jego kraj wzniósł mu pomnik z brązu w Paryżu. Podczas
ceremonii odsłonięcia dygnitarze zauważali, że „zasłużył na szacunek” i był
„wielkim dobroczyńcą ludzkości”, ponieważ „stworzył fundamentalne prawa,
które rządzą reakcjami chemicznymi”. Jeden z mówców ogłosił, że pomnik
przedstawia Lavoisiera „w pełnym blasku jego mocy i inteligencji”234.
Brzmiało to jak uznanie, którego łaknął uczony, ale wątpliwe, by ta
ceremonia sprawiła mu przyjemność. Jak się okazało, twarz pomnika nie jest
twarzą naszego bohatera, lecz filozofa i matematyka markiza de Condorcet,
sekretarza Akademii Nauk w ostatnich latach życia Lavoisiera. Rzeźbiarz
Louis-Ernest Barrias (1841–1905) skopiował głowę z rzeźby wykonanej
przez innego artystę i nie zidentyfikował, kogo tak naprawdę przedstawia235.
Wydaje się, że ta rewelacja nie przeszkadzała Francuzom, ponieważ
pozostawili błędną statuę z brązu – pamiątkę człowieka, którego
zgilotynowali, z głową kogoś innego236. W końcu pomnik przetrwał tylko
tyle, ile żył sam Lavoisier. Podobnie jak on w końcu padł ofiarą polityki
wojennej – został zezłomowany podczas okupacji nazistowskiej
i przetopiony na kule237. Przynajmniej idee Lavoisiera okazały się trwałe.
Ukształtowały na nowo dziedzinę chemii.
Pomnik Lavoisiera z głową Condorceta (Dzięki uprzejmości „Popular Science
Monthly”, t. 58/Wikimedia Commons)

***

Często mówi się o „pochodzie nauki”, ale nauka nie posuwa się do przodu
sama; to ludzie sprawiają, że się rozwija, a postęp bardziej przypomina
sztafetę niż marsz. Co więcej, jest to dość dziwna sztafeta, ponieważ ten, kto
przejmuje pałeczkę, często obiera kierunek, którego poprzedni biegacz nie
przewidział i którego by nie zaaprobował. To właśnie się stało, kiedy
następny wielki wizjoner chemii zajął miejsce Lavoisiera po jego
wspaniałym biegu.
Lavoisier wyjaśnił rolę pierwiastków w reakcjach chemicznych i wspierał
ilościowe podejście do ich opisywania. Dziś wiemy, że aby naprawdę
zrozumieć chemię – a w szczególności jeśli chce się ilościowo zrozumieć
reakcje chemiczne – trzeba pojąć, czym jest atom. Natomiast Lavoisier żywił
dla koncepcji atomu jedynie pogardę. Nie chodzi o to, że miał wąskie
horyzonty albo był krótkowzroczny. Raczej sprzeciwiał się idei myślenia
w kategoriach atomów z całkiem praktycznego powodu.
Od czasów Greków uczeni snuli przypuszczenia dotyczące atomów – choć
czasami określali je innym mianem, na przykład „korpuskuł” albo „cząstek
materii”. Jednak ponieważ są one tak małe, przez ponad dwanaście stuleci
nikt nigdy nie pomyślał o tym, w jaki sposób powiązać je z realiami
obserwacji i pomiarów.
Aby zyskać pojęcie, jak małe są atomy, wyobraźmy sobie wypełnienie
wszystkich oceanów świata szklanymi kulkami. A później wyobraźmy sobie
zmniejszenie wszystkich tych kulek do wielkości atomów. Ile miejsca by
wówczas zajęły? Mniej niż łyżeczkę do herbaty. Jaką można mieć nadzieję
na zaobserwowanie skutków oddziaływania czegoś tak maleńkiego?
Jak się okazało, można mieć wiele nadziei – a to cudowne osiągnięcie po
raz pierwszy udało się należącemu do kwakrów nauczycielowi Johnowi
Daltonowi (1766–1844)238. Wielu wielkich naukowców w dziejach było
barwnymi osobami, ale Dalton, syn ubogiego tkacza, nie należał do nich. Był
metodyczny we wszystkim, od nauki do sposobu, w jaki pił herbatę o piątej
każdego popołudnia, a później zjadał o dziewiątej posiłek składający się
z mięsa i ziemniaków.
Książka, z której Dalton jest znany, Nowy system filozofii chemicznej,
stanowi drobiazgowy trzyczęściowy traktat, tym bardziej zadziwiający, że
został napisany przez Daltona wyłącznie w czasie wolnym, podobnie jak
przeprowadzone podczas jego pisania badania. Część pierwsza,
opublikowana w 1810 roku, kiedy miał 44 lata, jest ogromnym dziełem
liczącym 916 stron. Z tych 916 stron zaledwie jeden rozdział liczący tylko
pięć stron przedstawia epokową ideę, z której Dalton jest znany do dziś:
sposób na obliczenie względnych mas atomów na podstawie pomiarów, jakie
można przeprowadzić w laboratorium. Taka właśnie jest siła i potęga idei
w nauce – pięć stron może obalić mylne teorie liczące dwa tysiące lat.
Idea ta przyszła Daltonowi do głowy w okrężny sposób, a choć był to już
wiek XIX, inspirowana była wpływem człowieka urodzonego w połowie
XVII wieku – znów był to teren Izaaka Newtona.
Dalton lubił chodzić na przechadzki, a kiedy był młody, mieszkał
w Cumberland, najbardziej wysuniętej na zachód części Anglii, i interesował
się meteorologią. Był również cudownym dzieckiem, jako nastolatek bowiem
studiował Principia Newtona. Te dwa zainteresowania okazały się
wyjątkowo płodnym połączeniem, ponieważ doprowadziły go do zajęcia się
fizycznymi właściwościami gazów – takich jak wilgotne powietrze wiejskich
okolic Cumberland. Zaintrygowany Newtonowską teorią korpuskuł, która
była w zasadzie starożytną grecką koncepcją atomów uzupełnioną przez
Newtona o idee siły i ruchu, Dalton zaczął podejrzewać, że zróżnicowana
rozpuszczalność gazów jest spowodowana tym, iż ich atomy mają różną
wielkość, a to z kolei doprowadziło go do rozmyślań nad wagami atomów.
Podejście Daltona opierało się na idei, że jeśli dba się o badanie jedynie
czystych związków, to związki te muszą być zawsze złożone ze składników
w takich samych proporcjach. Na przykład istnieją dwa różne tlenki miedzi.
Jeśli zbada się je oddzielnie, to okaże się, że na każdy gram pochłoniętego
tlenu utworzenie jednego z tlenków wymaga czterech gramów miedzi,
a utworzenie drugiego – ośmiu gramów. Oznacza to, że w tym drugim
rodzaju tlenku dwa razy więcej atomów miedzi łączy się z każdym atomem
tlenu.
Załóżmy teraz dla uproszczenia, że w pierwszym wypadku każdy atom
tlenu łączy się z jednym atomem miedzi, natomiast w drugim – z dwoma.
Zatem skoro ów pierwszy tlenek tworzony jest z czterech gramów miedzi na
każdy gram tlenu, można wywnioskować, że atom miedzi jest około czterech
razy cięższy od atomu tlenu. Tak się składa, że to przypuszczenie jest
prawdą, i tego właśnie rodzaju rozumowanie Dalton zastosował do obliczenia
względnych mas atomowych znanych pierwiastków.
Ponieważ obliczył względne masy, musiał od czegoś zacząć, przypisał
zatem najlżejszemu znanemu pierwiastkowi – wodorowi – masę „1”
i obliczył masy wszystkich innych pierwiastków względem niego.
Niestety, założenie, że pierwiastki łączą się w najprostszych możliwych
proporcjach, nie zawsze działało. Na przykład to założenie przypisuje wodzie
raczej wzór HO niż bardziej skomplikowany H2O, który – jak dziś wiemy –
jest prawidłowy. Dlatego kiedy uczony obliczył wagę atomu tlenu względem
atomu wodoru, otrzymał w wyniku połowę tego, co powinno być. Dalton
dobrze zdawał sobie sprawę z niepewności i w odniesieniu do wody uznawał
zarówno HO2, jak i H2O za dobre alternatywne możliwości. Względne masy
byłoby znacznie trudniej odszyfrować, gdyby powszechnie występujące
związki miały wzory takie jak H37O22, ale na szczęście tak nie jest.
Dalton wiedział, że jego szacunki są prowizoryczne i że musi się oprzeć na
danych dotyczących większej liczby związków chemicznych, aby ujawniły
się niespójności, które mogłyby wskazać błędy w przyjętych wzorach. Ta
trudność miała trapić chemików przez kolejne pięćdziesiąt lat, ale to, że
potrzeba było czasu, by opracować szczegóły, nie umniejsza jego wpływu na
tę dziedzinę nauki, ponieważ Daltonowska wersja atomizmu była koncepcją,
która w końcu miała praktyczny sens pod tym względem, że można ją było
odnieść do pomiarów laboratoryjnych. Co więcej, opierając się na pracy
Lavoisiera, Dalton wykorzystał swoje pomysły do stworzenia pierwszego
ilościowego języka chemii – nowego sposobu rozumienia eksperymentów,
które przeprowadzali chemicy, w kategoriach wymiany atomów między
cząsteczkami. Na przykład we współczesnej wersji, by opisać wytworzenie
wody z tlenu i wodoru, chemik (albo uczeń szkoły średniej) zapisałby „2H2 +
O2 —› 2H2O”.
Ten nowy język zrewolucjonizował zdolność chemików do zrozumienia
i prowadzenia rozważań o tym, co obserwowali i mierzyli, gdy
przeprowadzali reakcje chemiczne, a jego pomysły miały od tego czasu
zajmować centralne miejsce w teorii chemii. Dzieło Daltona uczyniło go
sławnym na całym świecie, a choć unikał publicznych zaszczytów,
otrzymywał je, w tym członkostwo w Royal Society, które zostało mu
przyznane pomimo jego gwałtownych sprzeciwów. Kiedy zmarł w 1844
roku, pogrzeb, który wedle jego rozporządzenia miał być skromny,
przyciągnął ponad czterdzieści tysięcy żałobników.
Za sprawą wysiłków Daltona ludzkie myślenie dotyczące natury substancji
dokonało postępu od teorii proponowanych przez antyczną mistyczną myśl
ludową do początków rozumienia materii na poziomie znacznie
wykraczającym poza możliwości naszych zmysłów. Jeśli jednak każdy
pierwiastek wyróżnia się masą swoich atomów, to jak ta własność atomów
wiąże się z cechami chemicznymi i fizycznymi, które obserwujemy? Jest to
następna zmiana w tej sztafecie i w istocie ostatnie z głębokich pytań
o chemię, na które można było udzielić odpowiedzi bez wychodzenia poza
naukę newtonowską. Głębsza wiedza miała się jeszcze pojawić, ale musiała
poczekać na rewolucję kwantową w fizyce.

***

Stephen Hawking, który przeżył dziesiątki lat, mimo że jest sparaliżowany


przez chorobę, która miała go zabić w ciągu zaledwie kilku, powiedział mi
kiedyś, że uważał, iż upór jest jego najlepszą cechą, a ja wierzę, że ma rację.
Choć czasami sprawia to, że trudno jest z nim współpracować, wie, że to
właśnie jego upór zarówno trzyma go przy życiu, jak i daje mu siłę, żeby
kontynuować badania.
Ukończone teorie naukowe mogą wydawać się niemal zrozumiałe same
przez się, gdy już zostały sformułowane, ale walkę o ich stworzenie można
zazwyczaj wygrać tylko dzięki najwyższej wytrwałości. Psycholodzy mówią
o wartości nazywanej „hartem”, która związana jest z wytrwałością i uporem,
ale też z namiętnością, które to cechy często pojawiały się na stronach tej
książki. Nie jest zaskakujące, że psychologowie stwierdzili, iż zdefiniowany
jako „dyspozycja do realizacji długookresowych celów z niesłabnącym
zainteresowaniem i wysiłkiem pomimo upływu czasu”239 hart związany jest
z powodzeniem we wszystkim, od małżeństwa po oddziały komandosów.
Być może właśnie dlatego tak wiele postaci, z którymi spotkaliśmy się już
w tej historii, było nieustępliwych, nawet aroganckich. Taka jest większość
wielkich innowatorów. Muszą tacy być.
Nasz następny pionier, Dymitr Mendelejew (1834–1907)240, rosyjski
chemik znany ze swoich wybuchów wściekłości i napadów szału (i z tego, że
włosy ścinał tylko raz do roku), doskonale pasuje do tego panteonu badaczy
upartych jak osły. Jego osobowość była istotnie tak silna, że żona w końcu
nauczyła się go unikać, zamieszkując w ich wiejskim majątku – chyba że się
tam pojawiał, wówczas zaś zabierała dzieci i wyprowadzała się do
mieszkania w mieście.
Mendelejew, podobnie jak Hawking, był ocaleńcem. Gdy dobiegał
dwudziestki, trafił do szpitala z powodu gruźlicy, ale nie tylko przeżył –
znalazł pobliskie laboratorium i czas rekonwalescencji spędził na
przeprowadzaniu w nim eksperymentów chemicznych. Później, gdy uzyskał
uprawnienia nauczycielskie, rozgniewał urzędnika w ministerstwie edukacji
i w rezultacie został wysłany do szkoły średniej na odległym Krymie. Był to
rok 1855, a kiedy Mendelejew tam przyjechał, odkrył, że szkoła, w której
miał uczyć, nie tylko znajdowała się w strefie działań wojennych, ale też
dawno temu została zamknięta. Niezrażony wrócił do domu, porzucił myśl
o karierze nauczyciela szkoły średniej i przyjął pracę jako Privatdozent –
wykładowca opłacany bezpośrednio przez studentów chodzących na jego
zajęcia – na uniwersytecie w Sankt Petersburgu. W końcu został tam
profesorem.
To, że Mendelejew był chemikiem i że w ogóle uzyskał wykształcenie,
zawdzięczał wyłącznie swojej matce. Urodził się w ubogiej rodzinie na
zachodniej Syberii, w której był najmłodszym spośród czternaściorga albo
siedemnaściorga dzieci – źródła różnią się co do tej kwestii. Słabo radził
sobie w szkole, ale sprawiało mu przyjemność przeprowadzanie
prowizorycznych eksperymentów naukowych. Matka wierzyła w jego
intelekt, a kiedy miał piętnaście lat, po śmierci ojca, wyruszyła z nim w drogę
w poszukiwaniu uniwersytetu, który by go przyjął.
Okazało się, że w podróży tej mieli pokonać ponad dwa tysiące dwieście
kilometrów, z których część przebyli na wozach konnych podwożeni przez
woźniców. W końcu uzyskał małe stypendium w Centralnym Instytucie
Pedagogicznym w Sankt Petersburgu, dzięki pomocy dawnego przyjaciela
jego nieżyjącego ojca. Matka zmarła niedługo potem. Trzydzieści siedem lat
później jej pamięci zadedykował traktat naukowy, cytując – jak to określił –
„święte” słowa na łożu śmierci: „Nie łudź się, upieraj się przy pracy, a nie
przy słowach. Cierpliwie szukaj prawdy boskiej i naukowej”. Mendelejew,
podobnie jak wielu wielkich naukowców przed nim, miał przeżyć swoje
życie zgodnie z tymi słowami.
Dymitr Mendelejew (Dzięki uprzejmości Science Source®, a registered trademark
of Photo Researchers, Inc., copyright © 2014 Photo Researchers, Inc. All rights
reserved)

W pewnym sensie miał szczęście, że urodził się tam, gdzie się urodził.
Właściwie każde wielkie odkrycie i wynalazek powstały z połączenia
ludzkiej wiedzy i szczęśliwych okoliczności. Einstein miał szczęście, że
rozpoczął swoją karierę niedługo po sformułowaniu współczesnej teorii
elektromagnetyzmu, która zakładała, że prędkość światła jest stała – a ta idea
miała się stać esencją jego teorii względności. Steve Jobs miał podobne
szczęście, że zaczął swoją karierę w czasie, gdy technika właśnie osiągała
stadium, w którym mógł powstać użyteczny komputer osobisty. Z kolei
amerykański inwestor pochodzenia armeńskiego i biznesmen Luther Simjian
posiadał wiele patentów, ale na swój najlepszy pomysł wpadł mniej więcej
o dziesięć lat za wcześnie: wymyślił bankomat, który nazwał Bankograph,
w 1960 roku241. Przekonał pewien nowojorski bank do zainstalowania kilku
tych urządzeń, ale ludzie im nie ufali, jedynymi więc osobami, które z nich
korzystały, były prostytutki i hazardziści, którzy nie chcieli stykać się
bezpośrednio z kasjerami. Dziesięć lat później czasy się zmieniły,
a bankomaty odniosły sukces, ale były to maszyny zaprojektowane już przez
kogoś innego.
W przeciwieństwie do Simjiana Mendelejew miał ducha czasów po swojej
stronie. Osiągnął dorosłość w momencie, gdy chemia dojrzała do postępu –
idea, że pierwiastki można zorganizować w rodziny, „wisiała w powietrzu”
w Europie w latach sześćdziesiątych XIX wieku. Dostrzegano, że fluor, chlor
i brom – sklasyfikowane jako „halogeny” przez szwedzkiego chemika Jönsa
Jakoba Berzeliusa w 1842 roku – wydają się ze sobą związane: wszystkie są
silnie żrącymi gazami, które łagodnieją, gdy zostaną połączone z sodem,
tworząc nieszkodliwe kryształki przypominające sól. (Na przykład sól
stołowa to chlorek sodu). Nietrudno było wykryć podobieństwa wśród metali
alkalicznych, takich jak sód, lit i potas. Wszystkie są błyszczące, miękkie
i łatwo wchodzą w reakcje. W istocie wszystkie pierwiastki z rodziny metali
alkalicznych są tak podobne, że jeśli sód w soli stołowej zastąpi się potasem,
otrzymamy związek wystarczająco zbliżony do chlorku sodu, by
wykorzystywać go jako substytut soli.
Chemicy zainspirowani systemem klasyfikacji organizmów biologicznych
Karola Linneusza dążyli do stworzenia własnego rozległego systemu rodzin,
żeby wyjaśnić związki między pierwiastkami. Jednak nie wszystkie
zgrupowania były oczywiste, nie wiedziano również, jak były one powiązane
ze sobą ani jaka własność atomów odpowiadała za podobieństwa w obrębie
rodziny. Te zagadnienia pociągały myślicieli w całej Europie. Do gry włączył
się nawet pewien cukrownik, a przynajmniej zakładowy chemik z rafinerii
cukru. Jednak chociaż garstka myślicieli pukała do drzwi odpowiedzi, tylko
jeden człowiek – Mendelejew – miał się przez nie przedrzeć.
Można sobie pomyśleć, że jeśli idea zorganizowania pierwiastków „wisiała
w powietrzu”, to osoba, której się to udało, zasłużyła na gorące pochwały, ale
niekoniecznie można by ją zaliczyć do grona największych geniuszy – na co
jednak Mendelejew zasługuje. Co stawia go w jednym rzędzie z tytanami
w rodzaju Boyle’a, Daltona i Lavoisiera?
„Układ okresowy”, który stworzył Mendelejew, nie jest chemiczną wersją
przewodnika terenowego dla podglądających ptaki; to raczej chemiczna
wersja praw Newtona, a przynajmniej jest tak bliska tego magicznego
osiągnięcia, jak tylko może być chemia. Nie jest to bowiem prosta tabela
wyliczająca rodziny pierwiastków, ale istna tabliczka magiczna pozwalająca
chemikom zrozumieć i przewidzieć własności każdego pierwiastka, nawet
tych, które jeszcze nie zostały poznane.
Patrząc wstecz, łatwo jest przypisać zasługę za przełom dokonany przez
Mendelejewa temu, że stawiał właściwe pytania we właściwym czasie, oraz
jego etyce pracy, pasji, uporowi i niezmiernej pewności siebie. Jednak jak to
często bywa z odkryciami i wynalazkami – a często też w naszym życiu –
równie ważna jak intelektualne zalety badacza była rola przypadku,
a przynajmniej okoliczności, które przygotowały teren pod tryumf odniesiony
dzięki tym zaletom. Tym razem była to przypadkowa decyzja Mendelejewa,
żeby napisać podręcznik chemii.
Decyzja o opracowaniu podręcznika przypadła na rok 1866, po otrzymaniu
przez trzydziestodwuletniego Mendelejewa mianowania na stanowisko
profesora chemii w Sankt Petersburgu. Sankt Petersburg został zbudowany
półtora stulecia wcześniej przez Piotra Wielkiego i w końcu stawał się
intelektualnym centrum Europy. Tamtejszy uniwersytet był najlepszy
w Rosji, ale Rosja pozostawała daleko za resztą Europy i przeszukując
rosyjską literaturę z zakresu chemii, Mendelejew nie znalazł żadnej
przyzwoitej i aktualnej książki, którą mógłby wykorzystać do nauczania.
Dlatego podjął decyzję, by samodzielnie ją napisać. Ukończenie podręcznika
miało zająć całe lata, a jego przeznaczeniem było zostać przetłumaczonym na
wszystkie ważne języki i stać się podstawą nauczania na uniwersytetach jak
świat długi i szeroki. Powstała książka nieortodoksyjna, pełna anegdot,
niestroniąca od spekulacji i ekscentryczności. Było to dzieło zrodzone
z miłości, a dążenie do tego, by podręcznik był możliwie najlepszy, zmusiło
jego autora do skoncentrowania się na zagadnieniach, które miały
doprowadzić do wielkiego odkrycia.
Pierwszym wyzwaniem, w obliczu którego stanął Mendelejew przy pisaniu
tej książki, była decyzja, jak ją uporządkować. Postanowił omówić
pierwiastki i ich związki w grupach, czyli rodzinach, zdefiniowanych przez
ich własności. Po stosunkowo łatwym zadaniu opisania halogenów i metali
alkalicznych zmierzył się z dylematem, o której grupie napisać w dalszej
kolejności. Czy porządek powinien być arbitralny? A może istnieje jakaś
zasada organizująca, która go podyktuje?
Uczony zmagał się z tym problemem, przekopując rozległą wiedzę
chemiczną w poszukiwaniu wskazówek, jak różne grupy pierwiastków
mogłyby być ze sobą powiązane. Pewnej soboty tak skoncentrował się na
pracy, że pracował przez całą noc i jeszcze rankiem. Do niczego nie doszedł,
ale coś skłoniło go do zapisania nazw pierwiastków z grup tlenowców,
azotowców i halogenów – w sumie dwunastu – na odwrocie jakiejś koperty,
w porządku malejącym według ich masy atomowej.
Nagle dostrzegł uderzającą prawidłowość: lista zaczynała się od azotu,
tlenu i fluoru – najlżejszych pierwiastków w każdej grupie – a następnie
zawierała drugi pod względem ciężkości pierwiastek z każdej grupy i tak
dalej, i tak dalej. Lista ta, innymi słowy, tworzyła powtarzający się, czyli
„okresowy” wzór. Tylko w odniesieniu do dwóch pierwiastków wzór ten nie
występował.
Mendelejew sprawił, że jego odkrycie stało się jeszcze wyraźniej widoczne,
gdy ułożył pierwiastki w każdej grupie w rzędy i zapisał te rzędy jeden nad
drugim, tworząc tabelę. (Dziś zapisujemy je w kolumnach). Czy rzeczywiście
coś w tym było? A jeśli tych dwanaście pierwiastków naprawdę tworzyło
sensowny porządek, to czy pozostałe pięćdziesiąt jeden, jakie wówczas
znano, pasowało do tego schematu?
Mendelejew i jego przyjaciele zwykli grywać w grę karcianą nazywaną
„cierpliwość”, wykładali w niej na stół karty, które należało ułożyć
w określony sposób. Karty tworzyły tabelę, która – jak później wspominał
chemik – wyglądała bardzo podobnie do tabeli dwunastu pierwiastków, jaką
sporządził tego dnia. Postanowił zapisać nazwy i masy atomowe wszystkich
znanych pierwiastków na kartach i spróbować ułożyć je w tabelę, grając w –
jak to teraz nazwał – „chemiczną cierpliwość”. Zaczął przekładać karty,
próbując uporządkować je w sposób, który miałby sens.
Z pomysłem Mendelejewa wiązały się poważne problemy. Po pierwsze, nie
było jasne, do której grupy powinny należeć niektóre pierwiastki. Własności
innych jeszcze dobrze nie rozumiano. Po drugie, panowała niezgoda co do
mas atomowych pewnych pierwiastków, a – jak obecnie wiemy – masy
przypisywane niektórym były błędne. Prawdopodobnie najbardziej
poważnym problemem było zaś to, że niektóre pierwiastki trzeba było
dopiero odkryć, a to sprawiało, że pewne grupy wydawały się pozbawione
ładu.
Wszystkie te problemy powodowały, że zadanie Mendelejewa było trudne,
ale w grę wchodziło też coś innego, coś bardziej subtelnego: nie było
powodu, żeby wierzyć, iż system oparty na masie atomowej powinien
działać, ponieważ nikt w tym czasie nie rozumiał, jaki aspekt chemiczny
atomu odzwierciedla jego masa. (Dziś wiemy, że jest to liczba protonów
i neutronów w jądrze atomu, a wkład neutronów w masę nie jest związany
z własnościami chemicznymi atomu). Zwłaszcza tutaj upór Mendelejewa
wsparł pasję, z jaką realizował on swoją ideę: prowadził badania dalej,
opierając się na samej intuicji i wierze.
Dzieło Mendelejewa pokazuje, bardziej dosłownie niż zazwyczaj, że proces
naukowy jest działaniem polegającym na poskładaniu kawałków układanki.
Ilustruje jednak również ważne różnice, ponieważ w przeciwieństwie do
układanki, którą możecie kupić w sklepie, kawałki w pasjansie Mendelejewa
nie pasowały do siebie. Częścią nauki – i każdej innowacji – jest ignorowanie
niekiedy problemów, które wydają się wskazywać, że nasze podejście nie
może działać, w przekonaniu, iż w końcu znajdzie się sposób na ich obejście
albo te problemy okażą się nieistotne. W tym wypadku dzięki wyjątkowej
błyskotliwości oraz nadzwyczajnej wytrwałości Mendelejew stworzył obraz,
przerabiając niektóre z kawałków układanki, a niektóre fabrykując od nowa.
Z perspektywy czasu łatwo jest scharakteryzować jego osiągnięcie
w heroicznym świetle, jakie – mam nadzieję – udało mi się rzucić. Nawet
jeśli niektóre pomysły wydają się szalone, to jeśli działają, robią z ich
autorów bohaterów. Ale jest też druga strona medalu – ponieważ przez całe
wieki powstało wiele szalonych systemów, które okazały się błędne.
Systemów, które działają, jest w istocie wielokrotnie mniej niż tych, które nie
działają. O tych błędnych szybko się zapomina, godziny, dni i lata pracy,
jakie ci, którzy w nie wierzyli, włożyli w ich stworzenie, zostały ostatecznie
zmarnowane. I często nazywamy tych, którzy je proponowali,
nieudacznikami i pomyleńcami. Jednak bohaterstwo polega na
podejmowaniu ryzyka, a więc prawdziwym bohaterstwem w badaniach –
niezależnie, czy się one udają, czy nie – jest ryzyko, jakie my, naukowcy
i wynalazcy, podejmujemy: te długie godziny i dni, miesiące, a nawet lata
ciężkich intelektualnych zmagań, które mogą, ale wcale nie muszą
doprowadzić do owocnych wniosków albo wytworu.
Mendelejew z pewnością trafił na swój czas. A kiedy pierwiastek nie
wskakiwał na swoje miejsce, tak jak chciał układający, nie przyjmował do
wiadomości, że jego system jest błędny. Zamiast tego upierał się przy swoim
i dochodził do wniosku, że ci, którzy zmierzyli masy atomowe, mylili się –
śmiało więc wykreślał zmierzone masy i wpisywał wartości, które sprawiały,
że pierwiastek pasował do układanki.
Najbardziej radykalne wypowiedzi wygłaszał, gdy w jego tabeli pozostały
gdzieniegdzie puste miejsca – gdy nie znano jeszcze żadnego pierwiastka
o wymaganych własnościach. Zamiast porzucić swoje pomysły, albo jakoś
zmienić zasadę organizującą jego układ, Mendelejew nieugięcie obstawał, że
luki reprezentują nieodkryte jeszcze pierwiastki. Przewidział nawet ich
własności – masę, właściwości fizyczne, to, z jakimi innymi pierwiastkami
będą się łączyć, oraz jakiego rodzaju związki będą tworzyć – a wszystko
tylko na podstawie wyłącznie miejsca, w którym w jego układzie pojawiała
się luka.
Na przykład takie puste miejsce występowało obok glinu. Mendelejew
wypełnił je pierwiastkiem, który nazwał ekaglinem, i przewidział, że kiedy
jakiś chemik w końcu odkryje ekaglin, będzie to lśniący metal, bardzo dobrze
przewodzący ciepło, o niskim punkcie topnienia oraz że jego centymetr
sześcienny powinien ważyć dokładnie 5,9 grama. Kilka lat później francuski
chemik Paul-Émile Lecoq de Boisbaudran odkrył w próbkach rudy
pierwiastek, który idealnie pasował – poza tym, że jego ciężar właściwy
wynosił 4,7 grama na centymetr sześcienny. Mendelejew natychmiast wysłał
mu list, w którym napisał, że jego próbka musi być zanieczyszczona. Lecoq
powtórzył swoje analizy z nową próbką, co do której upewnił się, że bardzo
dokładnie ją oczyszczono. Tym razem waga odpowiadała dokładnie temu, co
przewidział Mendelejew: 5,9 grama na centymetr sześcienny. Lecoq nazwał
odkryty przez siebie pierwiastek galem od łacińskiej nazwy Francji – Galia.
Mendelejew opublikował swoją tabelę w 1869 roku, początkowo w mało
znanym rosyjskim czasopiśmie, a później w szanowanym niemieckim
periodyku, artykuł zaś zatytułowany był O związku własności pierwiastków
z ich masami atomowymi242. Poza galem tabela zawierała puste miejsca dla
innych nieznanych wówczas jeszcze pierwiastków – dziś nazywanych
skandem, germanem i technetem. Technet jest radioaktywny i tak rzadki, że
odkryto go dopiero w 1937 roku, kiedy został zsyntetyzowany w cyklotronie
– akceleratorze cząstek – mniej więcej trzydzieści lat po śmierci
Mendelejewa.
Oryginalny układ okresowy Mendelejewa, który opublikował w 1869 roku (Dzięki
uprzejmości Wikimedia Commons)

Dzisiejszy układ okresowy (Dzięki uprzejmości Wikimedia Commons)


Nagrodę Nobla z chemii przyznano po raz pierwszy w 1901 roku, sześć lat
przed śmiercią wielkiego chemika. Mendelejew nigdy jej nie dostał, co było
jednym z największych błędów w historii nagrody, jego tablica pierwiastków
bowiem była główną zasadą organizującą współczesnej chemii, odkryciem,
które umożliwiło nam opanowanie nauki o materii, oraz zwieńczeniem
dwóch tysięcy lat pracy, która rozpoczęła się w pracowniach balsamistów
i alchemików.
Jednak Mendelejew w końcu został członkiem bardziej elitarnego klubu.
W 1955 roku naukowcy z Berkeley wytworzyli w cyklotronie zaledwie
kilkanaście atomów nowego pierwiastka, a w 1963 roku nazwali go
mendelewem dla uhonorowania wspaniałych osiągnięć rosyjskiego badacza.
Nagrodę Nobla przyznano ponad ośmiuset osobom, ale tylko szesnastu
naukowców doczekało się nazwania pierwiastków od ich nazwiska.
Mendelejew jest jednym z nich, co daje mu miejsce w jego własnym układzie
pierwiastków, gdzie pojawia się jako pierwiastek 101, bardzo blisko einsteina
i kopernika.

211 Joseph Tenenbaum, The Story of a People, Philosophical Library, Nowy Jork 1952,
s. 195.

212 Po raz pierwszy dowiedziałem się, że mój ojciec był w podziemiu, nie od niego, lecz
gdy natknąłem się na jego nazwisko w książce na ten temat, którą znalazłem w bibliotece
uniwersyteckiej. Gdy o nim przeczytałem, zacząłem wypytywać o jego doświadczenia.

213 Paul Strathern, Mendeleev’s Dream, Berkley Books, Nowy Jork 2000, s. 195–198.

214 Z wywiadu z ojcem, który nagrałem na taśmę około 1980 roku. Mam zachowane
wiele godzin tych wywiadów i wykorzystałem je jako źródło opowieści z nim związanych,
które przytaczam w tej książce.

215 J.R. Partington, A Short History of Chemistry, wyd. 3, Macmillan, Londyn 1957,
s. 14.

216 Rick Curkeet, Wood Combustion Basics, EPA Workshop, 2 marca 2011 r., dostęp:
28 października 2014 r., www.epa.gov/burnwise/workshop2011/WoodCombustion-
Curkeet.pdf.
217 Amerykańska sieć kawiarń z kanapkami i ciastkami (przyp. tłum.).

218 Robert Barnes, Cloistered Bookworms in the Chicken-Coop of the Muses: The
Ancient Library of Alexandria, w: The Library at Alexandria: Centre of Learning in the
Ancient World, red. Roy MacLeod, I. B. Tauris, Nowy Jork 2005, s. 73.

219 Henry M. Pachter, Magic into Science: The Story of Paracelsus, Henry Schuman,
Nowy Jork 1951, s. 167.

220 Najlepsza biografia Boyle’a to: Louis Trenchard More, The Life and Works of the
Honorable Robert Boyle, Oxford University Press, Londyn 1944. Zob. też William H.
Brock, The Norton History of Chemistry, W.W. Norton, Nowy Jork 1992, s. 54–74.

221 Louis Trenchard More, The Life and Works of the Honorable Robert Boyle, op. cit.,
s. 45, 48.

222 William H. Brock, The Norton History of Chemistry, op. cit., s. 56–58.

223 John D. Bernal, Nauka w dziejach, przekł. zbior. Państwowe Wydawnictwo


Naukowe, Warszawa 1957, s. 328–329.

224 T.V. Venkateswaran, Discovery of Oxygen: Birth of Modern Chemistry, „Science


Reporter”, nr 48 (kwiecień 2011), s. 34–39.

225 Joseph Priestley, Scientist, Philosopher, and Theologian, red. Isabel Rivers i David
L. Wykes, Oxford University Press, Oksford 2008, s. 33.

226 Charles W.J. Withers, Placing the Enlightenment: Thinking. Geographically About
the Age of Reason, University of Chicago Press, Chicago 2007, s. 2–6.

227 J. Priestley, Observations on Different Kinds of Air, „Philosophical Transactions of


the Royal Society” 1772, t. 62, s. 147–264.

228 O życiu Lavoisiera zob. Arthur Donovan, Antoine Lavoisier, Blackwell, Oksford
1993.

229 Isaac Newton, Opticks, red. Bernard Cohen, Dover, Londyn 1730 – Nowy Jork
1952, s. 394. Newton po raz pierwszy opublikował Opticks w 1704 roku, jednak ostateczny
kształt jego myśli na ten temat przedstawia czwarte wydanie tej pracy, ostatnie poprawione
przez samego autora, które ukazało się w 1730 roku.

230 Arthur Donovan, Antoine Lavoisier, op. cit., s. 47–49.

231 Ibidem, s. 139. Zob. też Paul Strathern, Mendeleev’s Dream, op. cit., s. 225–241.

232 Francuska i angielska nazwa tlenu oxygen oznacza „tworzący kwasy”; Lavoisier ją
wybrał, ponieważ tlen był obecny we wszystkich kwasach, których skład był mu znany.
[Polską nazwę „tlen” zaproponował w pierwszej połowie XIX wieku Jan Oczapowski,
a pochodzi ona od czasownika „tlić” i związana jest z rolą tego pierwiastka w spalaniu
(przyp. tłum.)].

233 Douglas McKie, Antoine Lavoisier, J.J. Lippincott, Filadelfia 1935, s. 297–298.

234 J.E. Gilpin, Lavoisier Statue in Paris, „American Chemical Journal” 1901, nr 25,
s. 435.

235 William D. Williams, Gustavus Hinrichs and the Lavoisier Monument, „Bulletin of
the History of Chemistry” 1999, nr 23, s. 47–49; R. Oesper, Once the Reputed Statue of
Lavoisier, „Journal of Chemistry Education” 1945, nr 22 (październik), okładka; Wiliam
H. Brock, Norton History of Chemistry, op. cit., s. 123–124.

236 Jak na ironię, w 1913 roku donoszono, że naturalnej wielkości marmurowe popiersie
Condorceta, które zostało podarowane Amerykańskiemu Towarzystwu Filozoficznemu
w Filadelfii, nie przedstawia jego, tylko Lavoisiera! Zob. Error in Famous Bust
Undiscovered for 100 Years, „Bulletin of Photography” 1913, nr 13, s. 759; Marco Beretta,
Imaging a Career in Science: The Iconography of Antoine Laurent Lavoisier, Science
Histories Publications, Sagamore Beach 2001, s. 18–24.

237 Joe Jackson, A World on Fire, Viking, Nowy Jork 2007, s. 335; Lavoisier Statue in
Paris, „Nature”, nr 153 (marzec 1944), s. 311.

238 Frank Greenaway, John Dalton and the Atom, Cornell University Press, Ithaca 1966;
William H. Brock, Norton History of Chemistry, op. cit., s. 128–160.

239 A.L. Duckworth et al., Grit: Perseverance and Passion for Long-Term Goals,
„Journal of Personality and Social Psychology” 2007, nr 92, s. 1087–1101; Lauren Eskreis-
Winkler et al., The Grit Effect: Predicting Retention in the Military, the Workplace, School
and Marriage, „Frontiers in Psychology”, nr 5 (luty 2014), s. 1–12.

240 Zob. Paul Strathern, Mendeleev’s Dream, op. cit.; William H. Brock, Norton History
of Chemistry, op. cit., s. 311–354.

241 Kenneth N. Gilpin, Luther Simjian Is Dead; Held More Than 92 Patents, „New
York Times”, 2 listopada 1997 r.; Machine Accepts Bank Deposits, „New York Times”, 12
kwietnia 1961 r., s. 57.

242 Dmitri Mendeleev, Über die Beziehungen der Eigenschaften zu den Atomgewichten
der Elemente, „Zeitschrift für Chemie” 1869, t. 12, s. 405–406.
9.

Świat ożywiony

Choć niektórzy uczeni już od czasów starożytnych przypuszczali, że


przedmioty materialne złożone są z fundamentalnych elementów
składowych, nikt nie zakładał, że podobnie jest z istotami żywymi. Odkrycie
z 1664 roku musiało więc wzbudzić spore zaskoczenie – wtedy to nasz stary
przyjaciel Robert Hooke naostrzył swój kieszonkowy scyzoryk, aż był „ostry
jak brzytwa”, odciął cieniutki plasterek z kawałka korka, obejrzał go pod
swoim mikroskopem domowej roboty i stał się pierwszym człowiekiem,
który zobaczył to, co nazwał „komórkami”243. Wybrał taką nazwę, ponieważ
komórki [po angielsku cells] przypominały mu maleńkie cele przydzielane
mnichom w klasztorach.
Można myśleć o komórkach jako o atomach życia, ale są one bardziej
złożone niż atomy i – co było jeszcze bardziej wstrząsające dla tych, którzy
dostrzegli je pierwsi – same są żywe. Komórka jest rozwibrowaną żywą
fabryką, konsumującą energię i surowce i wytwarzającą z nich wiele różnych
produktów, głównie białek, które pełnią niemal każdą istotną funkcję
biologiczną. Istnienie komórki wymaga sporej wiedzy, choć więc nie mają
one mózgów, „wiedzą” różne rzeczy – na przykład jak wytwarzać białka
i inne materiały, których potrzebujemy, by rosnąć i funkcjonować, i, co być
może najważniejsze, wiedzą, jak się reprodukować.
Najważniejszym wytworem komórki jest kopia jej samej. Dzięki tej
zdolności my, ludzie, zaczynamy się jako pojedyncza komórka, a za sprawą
serii ponad czterdziestu podziałów komórkowych nasz organizm liczy
ostatecznie około trzydziestu bilionów komórek – czyli sto razy więcej, niż
jest gwiazd w Drodze Mlecznej244. To wspaniałe, że suma aktywności
naszych komórek, interakcja całej galaktyki niemyślących jednostek, sumuje
się w całość, którą jesteśmy my. Równie zdumiewające jest wyobrażenie
sobie, że byliśmy w stanie rozwikłać, jak to wszystko działa, niczym
komputery, które niewspomagane przez jakiegokolwiek programistę
analizują same siebie. Oto cud biologii.
Cud ten okazuje się jeszcze większy, kiedy weźmie się pod uwagę, że
znaczna część świata biologii jest dla nas niewidzialna. Jest to poniekąd
spowodowane maleńkimi rozmiarami komórek, a częściowo wspaniałym
zróżnicowaniem życia. Jeśli wykluczy się stworzenia takie jak bakterie
i policzy jedynie organizmy jądrowe, to – jak szacują naukowcy – na naszej
planecie istnieje około dziesięciu milionów gatunków245, z których
odkryliśmy i sklasyfikowaliśmy zaledwie jeden procent. Samych gatunków
mrówek jest przynajmniej 22 tysiące; na każdą osobę żyjącą na Ziemi
przypada od jednego do dziesięciu milionów pojedynczych mrówek.
Wszyscy jesteśmy dobrze zaznajomieni z rozmaitością podwórkowych
owadów, ale łopata dobrej ziemi zawiera więcej rodzajów stworzeń, niż
moglibyśmy kiedykolwiek policzyć – setki, a nawet tysiące gatunków
bezkręgowców, kilka tysięcy mikroskopijnych nicieni i dziesiątki tysięcy
rodzajów bakterii. Życie na Ziemi jest w istocie tak wszechobecne, że
nieustannie trawimy organizmy, których prawdopodobnie z własnej woli
raczej byśmy nie zjedli. Spróbujcie kupić masło orzechowe, które nie zawiera
fragmentów owadów: nie da się. Rząd uznaje, że produkowanie
niezawierającego owadów masła orzechowego jest niewykonalne w praktyce,
tak więc regulacje dopuszczają do dziesięciu ich fragmentów na
trzydziestojednogramową porcję246. Jednocześnie porcja brokułów może
zawierać czterysta fragmentów owadów247.
Wszystko to brzmi nieapetycznie, ale dobrze jest pamiętać, że nawet nasze
własne ciała nie są wolne od obcych form życia – jesteśmy, każdy z nas,
całym ekosystemem żywych istot. Naukowcy zidentyfikowali na przykład
czterdzieści cztery rodzaje (grupy gatunków) mikroskopijnych organizmów,
które żyją na przedramieniu każdego z nas, i przynajmniej 160 gatunków
bakterii, które bytują w ludzkich jelitach248. Między palcami stóp?
Czterdzieści gatunków grzybów. W rzeczywistości jeśli potrudzilibyście się,
by je zsumować, okazałoby się, że w naszych ciałach jest znacznie więcej
komórek mikroorganizmów niż komórek ludzkich.
Każda część naszego ciała tworzy odrębne środowisko, a stworzenia
w waszych wnętrznościach albo między palcami stóp mają więcej wspólnego
z organizmami w tych samych okolicach mojego ciała niż z żyjącymi na
waszych przedramionach. Istnieje nawet ośrodek badawczy Bioróżnorodność
Pępka na Uniwersytecie Stanowym Karoliny Północnej, utworzony w celu
prowadzenia badań nad życiem, które egzystuje w tym ciemnym,
izolowanym zakątku. Krewniacy kleszczy, pająków i skorpionów – te
stworzonka mają mniej niż jedną trzecią milimetra długości i żyją na naszych
twarzach – w torebkach włosowych i gruczołach połączonych z torebkami
włosowymi – przede wszystkim w pobliżu nosa, rzęs i brwi, gdzie wysysają
zawartość naszych soczystych komórek. Ale nie martwcie się – normalnie ich
obecność nie wywołuje żadnych złych skutków, a jeśli jesteście optymistami,
możecie mieć nadzieję, że należycie do połowy dorosłej populacji, która jest
od nich wolna.
Jeśli wziąć pod uwagę złożoność życia, jego zróżnicowanie pod względem
wielkości, kształtu i środowiska bytowania oraz naszą naturalną niechęć do
uwierzenia, że jesteśmy „jedynie” wytworami praw fizyki, to nie jest
zaskakujące, iż biologia w swoim rozwoju jako nauka pozostała w tyle za
fizyką i chemią. Podobnie jak inne nauki, biologia, aby się rozwinąć, musiała
przezwyciężyć naturalną ludzką skłonność do przekonania, że jesteśmy
szczególni i że światem rządzą bóstwa i/lub magia. Także w tym wypadku
oznaczało to przezwyciężenie doktryny Kościoła katolickiego stawiającej
w centrum Boga, jak również teorii Arystotelesa stawiającej w centrum
człowieka.
Arystoteles był entuzjastycznym biologiem – niemal jedna czwarta z jego
zachowanych pism dotyczy tej dyscypliny249. A choć fizyka Arystotelesa
czyniła z naszej Ziemi fizyczne centrum Wszechświata, jego biologia –
bardziej osobowa – wywyższa ludzi, a mężczyzn w szczególności.
Arystoteles był przekonany, iż boska inteligencja zaprojektowała wszystkie
istoty żywe, które różnią się od bytów nieożywionych tym, że mają specjalną
jakość, czyli istotę, która znika albo przestaje istnieć, kiedy żywa istota
umiera. Wśród wszystkich tych projektów życia, twierdził Arystoteles, ludzie
reprezentują punkt najwyższy. Był tak przejęty owym punktem, że kiedy
opisywał cechy charakterystyczne gatunków, które różnią się od
odpowiadających im ludzkich cech charakterystycznych, nazywał je
deformacją. Podobnie postrzegał kobiety jako zdeformowanych mężczyzn.
Erozja tych tradycyjnych, ale fałszywych przekonań przygotowała grunt
pod narodziny współczesnej biologii. Jednym z najważniejszych wczesnych
zwycięstw nad takimi ideami było obalenie zasady biologii Arystotelesa
nazywanej samorództwem, zgodnie z którą istoty żywe miały powstawać
z materii nieożywionej, takiej jak kurz. Mniej więcej w tym samym czasie
nowe urządzenie, jakim był mikroskop, podało w wątpliwość stare sposoby
myślenia, ukazując, że nawet proste istoty żywe mają narządy tak jak my i że
my, podobnie jak rośliny i inne zwierzęta, składamy się z komórek. Jednak
biologia nie mogła zacząć naprawdę dojrzewać jako nauka aż do odkrycia jej
wielkiej zasady organizującej.
Fizyka, która zajmuje się tym, jak obiekty oddziałują ze sobą, ma swoje
prawa ruchu; chemia, która zajmuje się tym, jak pierwiastki i ich związki
oddziałują ze sobą, ma swój układ okresowy. Biologia zajmuje się
sposobami, jak gatunki funkcjonują i oddziałują między sobą, i aby odnieść
sukces, musiała zrozumieć, dlaczego te gatunki mają takie cechy, jakie mają
– musiała zaoferować wyjaśnienie inne niż zdanie, że „Bóg je takimi
stworzył”. To zrozumienie pojawiło się w końcu wraz z darwinowską teorią
ewolucji opartej na selekcji naturalnej.

***

Ludzie obserwowali żywe organizmy na długo przed narodzinami biologii.


Rolnicy, rybacy, lekarze i filozofowie zdobywali wiedzę o zwierzętach
i roślinach żyjących w morzu i na terenach wiejskich. Jednak biologia to coś
więcej niż to, co szczegółowo opisano w katalogach roślin i przewodnikach
terenowych dla podglądających ptaki, ponieważ nauka nie polega na
siedzeniu cicho i opisywaniu świata – ona niekiedy dziko wierzga
i wywrzaskuje pomysły, które wyjaśniają to, co widzimy. Wyjaśnianie zaś
jest znacznie trudniejsze od opisywania. W rezultacie przed powstaniem
metody naukowej biologia, podobnie jak inne nauki, trapiona była plagą
wyjaśnień i pomysłów, które – choć rozsądne – były błędne.
Weźmy żaby w starożytnym Egipcie. Każdej wiosny po zalaniu przez Nil
nadbrzeżnych terenów pozostawał na nich bogaty w składniki odżywcze muł,
gleba, która za sprawą pracowitego trudu rolników miała wkrótce wykarmić
całą ludność. Muliste gleby wydawały jednak jeszcze jeden plon, który nie
pojawiał się na suchszych terenach: żaby. Te hałaśliwe stworzenia pojawiały
się tak niespodziewanie i w tak ogromnej ilości, że wydawało się, iż rodzą się
z samego mułu – i właśnie tak w przekonaniu starożytnych Egipcjan miały
one powstawać.
Teoria Egipcjan nie była wytworem niedbałego rozumowania. Sumienni
obserwatorzy przez większą część historii dochodzili do takiego samego
wniosku. Rzeźnicy zauważali, że czerwie „pojawiają się” na mięsie, rolnicy
znajdowali myszy „pojawiające się” w skrzyniach, w których
przechowywano ziarno. W XVII wieku chemik Jan Baptist van Helmont
posunął się nawet do tego, że podał przepis na stworzenie myszy
z codziennych materiałów: wystarczyło włożyć kilka ziaren pszenicy do
garnka, dodać brudną bieliznę i poczekać dwadzieścia jeden dni. Ta recepta
miała często działać.
Teorią stojącą za mieszanką van Helmonta było samorództwo – proste
organizmy żywe mogą powstawać spontanicznie z pewnego nieożywionego
podłoża. Od czasów starożytnego Egiptu, a prawdopodobnie jeszcze
wcześniej, ludzie wierzyli, że pewnego rodzaju siła życiowa albo energia
istnieje we wszystkich żywych stworzeniach250. Z biegiem czasu produktem
ubocznym takich poglądów stało się przekonanie, że energia życiowa może
w jakiś sposób zostać przelana w materię nieożywioną, tworząc nowe życie,
a kiedy ta doktryna została zsyntetyzowana w spójną teorię przez
Arystotelesa, zyskała szczególny autorytet. Jednak podobnie jak pewne
kluczowe obserwacje i eksperymenty w XVII wieku stanowiły początek
końca fizyki Arystotelesa, również rozwój nauki w tym stuleciu w końcu
sprowadził ostry atak na jego idee z zakresu biologii. Do najbardziej
pamiętnych wyzwań rzuconych biologii Arystotelesa należał test
samorództwa przeprowadzony przez włoskiego fizyka Francesca Rediego
w 1668 roku. Był to jeden z pierwszych naprawdę naukowych
eksperymentów w biologii.
Metoda Rediego była prosta. Przygotował kilka naczyń z dużymi otworami
i umieścił w nich próbki świeżego mięsa węża, ryby i cielęciny. Następnie
niektóre z nich pozostawił otwarte, natomiast inne zamknął za pomocą
przejrzystego materiału przypominającego gazę albo papieru. Postawił
hipotezę, że jeśli samorództwo rzeczywiście następuje, to muchy i czerwie
pojawią się na mięsie we wszystkich trzech próbkach. Jeśli jednak czerwie
rodzą się, jak podejrzewał Redi, z maleńkich niewidocznych jaj składanych
przez muchy, to powinny się znaleźć na mięsie w nieprzykrytych naczyniach,
natomiast nie powinno ich być w naczyniach przykrytych papierem.
Przewidział również, że czerwie pojawią się na gazie przykrywającej
pozostałe naczynia, ponieważ było to miejsce położone najbliżej tego, do
którego mogły dotrzeć głodne muchy. Stało się dokładnie to, co przewidział.
Eksperyment Rediego spotkał się z mieszanym przyjęciem. Niektórym
wydawało się, że obala on koncepcję samorództwa. Inni postanowili go
zignorować albo znaleźć w nim błąd. Wielu prawdopodobnie zaliczało się do
tej drugiej kategorii po prostu dlatego, że mieli skłonność do upierania się
przy swoich wcześniejszych poglądach. W końcu problem ten miał
implikacje teologiczne – niektórzy mieli poczucie, że samorództwo
zachowuje pewną rolę w tworzeniu życia dla Boga. Istniały jednak również
racje naukowe, by wątpić w konkluzje Rediego – na przykład mógł się mylić
w ekstrapolowaniu ważności swojego eksperymentu na inne stworzenia niż
te, które zbadał. Być może dowiódł jedynie, że samorództwo nie występuje
u much.
Zasługą Rediego jest to, że sam zachował otwarty umysł – znalazł nawet
inne przykłady, co do których podejrzewał, że samorództwo rzeczywiście
zachodzi. Ostatecznie problem miał być przedmiotem dyskusji przez kolejne
dwieście lat, dopóki Ludwik Pasteur pod koniec XIX wieku nie zakończył jej
na dobre za pomocą starannie przeprowadzonych eksperymentów, które
dowiodły, że nawet u mikroorganizmów nie ma mowy o samorództwie.
Jednak praca Rediego, choć nie okazała się rozstrzygająca, była piękna.
Wyróżnia się szczególnie, ponieważ każdy mógł przeprowadzić podobny
test, a jednak nikt o tym przed nim nie pomyślał.
Często myśli się o wielkich naukowcach jak o osobach o wyjątkowej
inteligencji, w społeczeństwie zaś, a zwłaszcza w biznesie, mamy skłonność
do unikania ludzi, którzy nie nawiązują dobrze kontaktów z innymi. Ale to
właśnie często ci, którzy różnią się od innych, dostrzegają to, czego nie widzą
inni. Redi był skomplikowanym człowiekiem – naukowcem, ale też
człowiekiem przesądnym, który nacierał się oliwą, żeby ustrzec się przed
zarazą; był fizykiem i przyrodnikiem, ale też poetą, który pisywał klasyczne
wiersze wychwalające toskańskie wina. Jeśli chodzi o samorództwo, tylko
Redi był wystarczająco dziwny, żeby myśleć nieszablonowo, i w epoce,
w której rozumowanie naukowe nie stało się jeszcze banałem, rozumował
i działał tak, jak robią to naukowcy. Dzięki temu nie tylko podał
w wątpliwość błędną teorię, lecz także zakpił z Arystotelesa i nieświadomie
wskazał nowe podejście do udzielania odpowiedzi na pytania biologii.

***

Eksperyment Rediego był w znacznej mierze reakcją na badania


mikroskopowe, które niewiele wcześniej ujawniły, że maleńkie stworzenia są
wystarczająco złożone, żeby mieć narządy reprodukcyjne – przekonanie
bowiem, że „niższe zwierzęta” są zbyt proste, by się reprodukować, było
jednym z argumentów Arystotelesa za samorództwem.
Mikroskop wynaleziono kilka dziesięcioleci wcześniej – mniej więcej
w tym samym czasie co lunetę – choć nikt nie wie na pewno, kto tego
dokonał i gdzie. Wiemy natomiast, że na początku to samo łacińskie słowo
perspicillum stosowano na oznaczenie obu, a Galileusz używał swojego
instrumentu – lunety – do patrzenia zarówno z jednej, jak i drugiej strony.
„Przez tę tubę – powiedział w 1609 roku swojemu gościowi – widziałem
muchy wielkie jak jagnięta”251.
Ujawniając szczegóły sfery przyrody, których starożytni nigdy nie mogli
sobie wyobrazić – ani wyjaśnić za pomocą swoich teorii – mikroskop,
podobnie jak luneta, w końcu pomógł otworzyć umysły badaczy na inne
sposoby myślenia o przedmiotach ich badań, tworząc nić postępu
intelektualnego, który swój punkt szczytowy miał osiągnąć wraz
z Darwinem. Jednak podobnie jak luneta mikroskop również spotkał się
początkowo z ostrym sprzeciwem. Średniowieczni uczeni obawiali się
„złudzeń optycznych” i nie ufali żadnemu urządzeniu, które oddzielało ich od
badanych obiektów. I podczas gdy luneta miała swojego Galileusza, który
szybko stawił czoła krytykom i przysposobił urządzenie, zwolennikom
mikroskopu zdobycie wiarygodności zajęło ponad pół wieku.
Jednym z największych zwolenników mikroskopu był Robert Hooke, który
przeprowadzał swoje studia mikroskopowe na rzecz Royal Society, a tym
samym wniósł wkład w początki biologii, podobnie jak przyczynił się do
rozwoju chemii i fizyki252. W 1663 roku Royal Society przydzieliło mu
zadanie przedstawienia przynajmniej jednej nowej obserwacji na każdym
posiedzeniu. Pomimo słabości oczu, która sprawiała, że wpatrywanie się
przez soczewki przez długi czas było zarówno trudne, jak i bolesne, uczony
sprostał wyzwaniu i przeprowadził długą serię wyjątkowych obserwacji za
pomocą ulepszonych instrumentów, które sam zaprojektował.
W 1665 roku trzydziestoletni Hooke opublikował książkę zatytułowaną
Micrographia, czyli „Małe obrazki”. Była to w pewnym stopniu mieszanina
jego prac i pomysłów z kilku dziedzin nauki, ale publikacja narobiła
zamieszania, ukazując dziwny, nowy mikroświat na pięćdziesięciu siedmiu
zachwycających ilustracjach, które nakreślił sam Hooke. Po raz pierwszy
ukazał ludzkim oczom anatomię pchły, ciało wszy, oko muchy i żądło
pszczoły na całostronicowych ilustracjach, z których część umieszczono
wręcz na rozkładówkach. To, że nawet proste zwierzęta mają części ciała
i narządy, tak jak my, było nie tylko uderzającą rewelacją dla świata, który
nigdy nie widział owada w powiększeniu; było to również sprzeczne
z doktryną Arystotelesa i stanowiło objawienie podobne do dokonanego
przez Galileusza odkrycia, że na Księżycu są góry i doliny, tak samo jak na
Ziemi.
W roku, w którym została opublikowana Micrographia, wielka zaraza,
która miała zabić jedną siódmą londyńczyków, osiągnęła swój szczyt.
W następnym roku Londyn ogarnął Wielki Pożar. Pomimo jednak całego
tego chaosu i cierpień ludzie czytali książkę Hooke’a, która stała się
bestsellerem. Samuel Pepys, słynny diarysta i administrator marynarki,
a później członek Parlamentu, był nią tak pochłonięty, że siedział nad lekturą
do drugiej nad ranem, a później nazwał ją „najbardziej pomysłową książką,
jaką kiedykolwiek przeczytał w życiu”253.
Chociaż Hooke zainspirował nowe pokolenie badaczy, budził również
kpiny wątpiących, którym trudno było zaakceptować jego niekiedy
groteskowe rysunki, oparte na obserwacjach przy wykorzystaniu instrumentu,
jakiemu nie ufali. Najgorszy moment przyszedł, kiedy podczas
przedstawienia będącego satyrą na współczesną naukę autorstwa
angielskiego dramatopisarza Thomasa Shadwella Hooke poczuł się poniżony,
uświadomił sobie bowiem, że eksperymenty, które wyśmiewano na scenie,
były w większości jego własnymi pracami. Zostały zaczerpnięte z jego
ukochanej książki254.
Micrographia Hooke’a (Lister E 7, Pl. XXXIV, Dzięki uprzejmości The Bodleian
Libraries, The University of Oxford)

Człowiekiem, który nigdy nie wątpił w twierdzenia Hooke’a, był


naukowiec amator Antonie van Leeuwenhoek (1632–1723)255. Urodził się
w Delft w Holandii. Jego ojciec wyplatał koszyki, w które pakowano słynną
biało-niebieską porcelanę z Delft, wysyłaną na cały świat; matka pochodziła
z rodziny trudniącej się inną specjalnością miasta – warzeniem piwa.
W wieku szesnastu lat Antonie zaczął pracować jako kasjer i księgowy
u handlarza suknem, a w 1654 roku otworzył własny biznes, sprzedając
tkaniny, wstążki i guziki. Do tego miało wkrótce dojść kolejne, niezwiązane
z tym pierwszym zajęcie: doglądanie i utrzymanie w porządku miejskiego
ratusza w Delft.
Leeuwenhoek nigdy nie studiował, a nawet nie znał łaciny – ówczesnego
języka nauki. A choć miał dożyć ponad dziewięćdziesięciu lat, opuścił
Holandię tylko dwa razy – raz, by odwiedzić Antwerpię w Belgii, i drugi, by
udać się do Anglii. Jednak czytał książki, a tą, która go szczególnie
zainspirowała, był bestseller Hooke’a. Zmienił jego życie.
W przedmowie do swego dzieła Hooke wyjaśnia, jak zbudować proste
mikroskopy. Jako kupiec bławatny Leeuwenhoek prawdopodobnie miał
pewne doświadczenia ze szlifowaniem soczewek, których mógł potrzebować
do sprawdzania próbek tkanin, natomiast po przeczytaniu Micrographii stał
się wręcz fanatycznym szlifierzem soczewek, poświęcając wiele godzin
budowaniu nowych mikroskopów i przeprowadzaniu za ich pomocą
obserwacji.
Na początkowym etapie swoich prac po prostu powtórzył eksperymenty
Hooke’a, ale niebawem go przyćmił. Mikroskopy Anglika były jak na tamte
czasy najdoskonalsze pod względem technicznym i zadziwiały Royal Society
siłą powiększania od dwudziestu do pięćdziesięciu razy. Można więc sobie
jedynie wyobrażać osłupienie, kiedy w 1673 roku sekretarz Towarzystwa,
Henry Oldenburg, otrzymał list informujący go, że niewykształcony stróż
i handlarz suknem z Holandii „wynalazł mikroskop, który przewyższa
wszystkie dotychczas widziane”256. Istotnie, czterdziestoletni Leeuwenhoek
osiągnął powiększenia dziesięć razy większe od tych, które uzyskiwał Hooke.
To raczej lepsze rzemiosło niż lepszy projekt sprawiło, że mikroskopy
Leeuwenhoeka były tak silne. Były w rzeczywistości prostymi przyrządami,
składającymi się z zaledwie jednej soczewki wyszlifowanej z wybranych
kawałków szkła, czy nawet ziaren piasku, i zamontowanej w tabliczkach
wykonanych ze złota i srebra, które niekiedy sam wykonywał z kruszcu.
Każdą próbkę mocował na stałe i budował nowy mikroskop do każdego
badania prawdopodobnie dlatego, że właściwe umieszczenie próbki było
równie trudne jak wykonanie soczewki. Niezależnie, jaki był tego powód, nie
dzielił się nimi z nikim i ogólnie był bardzo skryty, jeśli chodziło o metody,
ponieważ – tak jak Newton – chciał uniknąć „sprzeciwu albo cenzury ze
strony innych”. W ciągu swojego długiego życia wyprodukował ponad
pięćset soczewek, ale do dziś nikt nie wie, jak właściwie je wykonywał.
Kiedy do Anglii dotarły wieści o osiągnięciach Leeuwenhoeka, marynarki
angielska i holenderska ostrzeliwały się nawzajem podczas wojen angielsko-
holenderskich, ale stan wojny z ojczyzną Leeuwenhoeka nie powstrzymał
Oldenburga: zachęcił go do opisania swoich odkryć, co ten uczynił. W swoim
pierwszym liście Leeuwenhoek onieśmielony uwagą słynnego Royal Society
przepraszał, jeśli uczeni dostrzegli niedostatki w jego pracach. Były one,
napisał, „efektem wyłącznie mojego zdanego na siebie impulsu i ciekawości;
poza mną samym bowiem w naszym mieście nie ma filozofów, którzy
praktykują tę sztukę; toteż proszę nie brać mi za złe mojego marnego pióra
i swobody, z jaką przystąpiłem do wyłożenia swych przypadkowych
opinii”257.
„Opinie” Leeuwenhoeka były jeszcze większymi rewelacjami niż
publikacje Hooke’a, tam bowiem, gdzie Hooke widział szczegółowo części
ciała maleńkich insektów, Leeuwenhoek dostrzegł całe stworzenia, które były
za małe, żeby zobaczyć je gołym okiem, całe społeczności organizmów,
których istnienia nikt wcześniej nie podejrzewał, część z nich zaś była tysiąc,
a nawet dziesięć tysięcy razy mniejsza niż najmniejsze zwierzęta
dostrzegalne gołym okiem. Określił je jako „żyjątka”. Dziś nazywamy je
mikroorganizmami.
Jeśli Galileusz rozkoszował się oglądaniem krajobrazu Księżyca
i podglądaniem pierścieni Saturna, Leeuwenhoek czerpał równie wielki
zachwyt z obserwowania przez swoje soczewki świata dziwacznych
i maleńkich stworzeń. W jednym z listów opisał świat istniejący w kropli
wody: „Ujrzałem bardzo wyraźnie te maleńkie węgorze czy robaki, zbite
w kłąb i wijące się bez ustanku […] i cała woda wydawała się żywa […]
i muszę dodać ze swojej strony, że nigdy nie trafił się moim oczom
przyjemniejszy widok niż te tysiące żyjących stworzeń, które ujrzałem
w kropli wody”258.
Jeśli jednak opisy Leeuwenhoeka czasami przedstawiają całe światy
z boskiej perspektywy, to w innych listach pisał o powiększonych
poszczególnych stworzeniach wystarczająco dużo, żeby bardzo szczegółowo
scharakteryzować wiele nowych gatunków. Na przykład jedno ze stworzeń
„wysuwające naprzód dwa małe rogi, które nieustannie się poruszają na
modłę końskich uszu […] [o obłym ciele] zwężającym się nieco aż do
cienkiego końca, na którym to cienkim końcu ma ogon”259. Przez
pięćdziesiąt lat Leeuwenhoek nigdy nie wziął udziału w posiedzeniu Royal
Society, ale napisał setki listów, a większość z nich się zachowała. Oldenburg
zredagował je i przetłumaczył na angielski albo na łacinę, a Royal Society
opublikowało.
Praca Leeuwenhoeka wywołała sensację. Świat był zadziwiony,
dowiadując się, że w każdej kropli wody z kałuży istnieją całe wszechświaty
stworzeń i całe klasy żywych istot ukrytych przed naszymi zmysłami. Co
więcej, kiedy Leeuwenhoek obejrzał przez swoje mikroskopy ludzkie tkanki,
takie jak sperma i naczynia krwionośne, pomógł ujawnić, jak my sami
jesteśmy zbudowani, i że nasza budowa nie jest wyjątkowa, ponieważ mamy
wiele wspólnego z innymi formami życia.
Podobnie jak w wypadku Hooke’a również w odniesieniu do
Leeuwenhoeka podnosiły się głosy wątpiących, którzy byli przekonani, że
wszystko to zmyślił. Stawił im czoła, przedstawiając podpisane świadectwa
od szanowanych naocznych świadków, publicznych notariuszy, a nawet
pastora kongregacji z Delft. Większość naukowców wierzyła mu, a Hooke
był nawet w stanie powtórzyć niektóre z badań przeprowadzonych przez
Leeuwenhoeka. W miarę jak wieść się roznosiła, goście ze wszystkich stron
świata pojawiali się w sklepie Holendra, prosząc o możliwość popatrzenia na
jego maleńkie bestie. Karol II, założyciel i patron Royal Society, poprosił
Hooke’a o pokazanie jednego z eksperymentów, który ten odtworzył, a Piotr
Wielki z Rosji odwiedził Leeuwenhoeka osobiście. Nieźle, jak na gościa,
który prowadził sklep z tkaninami.
W 1680 roku Leeuwenhoek został wybrany in absentia na członka Royal
Society, a swoje prace kontynuował aż do śmierci w wieku
dziewięćdziesięciu jeden lat, jakieś czterdzieści lat później. Żaden
porównywalny łowca mikrobów nie pojawił się na scenie przez kolejnych sto
pięćdziesiąt lat.
Gdy Leeuwenhoek spoczywał już na łożu śmierci, ostatnią rzeczą, jaką
zrobił, było poproszenie przyjaciela, by przetłumaczył jego dwa ostatnie listy
na łacinę i wysłał je do Towarzystwa. Przygotował również podarek dla
niego: czarną pozłacaną skrzynkę wypełnioną jego najlepszymi
mikroskopami, z których części nigdy wcześniej nikomu nie pokazywał. Dziś
jedynie garść tych urządzeń zachowała się w nietkniętym stanie; w 2009 roku
jeden z nich sprzedano na aukcji za 312 tysięcy funtów260.
W swoim długim życiu Leeuwenhoek pomógł stworzyć wiele działów tego,
co miało się stać biologią – mikrobiologię, embriologię, entomologię,
histologię – sprawiło to, że jeden z dwudziestowiecznych biologów nazwał
listy Leeuwenhoeka „najważniejszą serią listów, jakie towarzystwo naukowe
kiedykolwiek otrzymało”261. Co równie ważne – podobnie jak Galileusz
w fizyce, a Lavoisier w chemii – Leeuwenhoek pomógł stworzyć tradycję
naukową w dziedzinie biologii. Jak napisał pastor Nieuwe Kerk w Delft do
Royal Society o śmierci badacza w 1723 roku: „Antonie van Leeuwenhoek
uważał, że to, co jest prawdą w filozofii naturalnej, może zostać owocnie
zbadane za pomocą metody eksperymentalnej przy wsparciu świadectwa
naszych zmysłów; z tego to powodu dzięki pilności i niestrudzonej pracy
wykonał on własnoręcznie najdoskonalsze soczewki, za pomocą których
odkrył wiele sekretów Przyrody, znanych teraz w całym świecie
filozoficznym”262.

***

Jeśli Hooke i Leeuwenhoek byli w pewnym sensie Galileuszami biologii, to


za jej Newtona można uznać Karola Darwina (1809–1882)263. Stosownie do
tego jest pogrzebany zaledwie kilka metrów od Newtona w opactwie
westminsterskim, a wśród osób niosących jego trumnę było dwóch książąt,
earl, a także byli, obecni i przyszli przewodniczący Royal Society. Choć
pogrzeb Darwina w opactwie mógł się niektórym wydać niestosowny,
„byłoby nieszczęściem – powiedział biskup Carlisle w swoim
wspomnieniowym kazaniu – gdyby nastąpiło cokolwiek, co wprowadziłoby
do obiegu nierozsądne wyobrażenie […] że z konieczności istnieje konflikt
między Przyrodą i wiarą w Boga, i nadało mu znaczenie”264. Ten pochówek
był wspaniałym zakończeniem dla człowieka, którego największe osiągnięcie
naukowe spotkało się najpierw z lekceważącym ziewnięciem, a później
przyciągnęło wiele jadu i wywołało poważny sceptycyzm.
Jednym z tych, na których początkowo jego odkrycia nie wywarły
wrażenia, był sam wydawca Darwina, John Murray, który zgodził się
opublikować książkę przedstawiającą ową teorię, ale przyznał jej zrazu
nakład zaledwie 1250 egzemplarzy. Murray miał dobre powody, żeby żywić
obawy, ponieważ ci, którzy widzieli książkę Darwina przed publikacją, nie
byli entuzjastycznie nastawieni. Jeden z pierwszych recenzentów
rekomendował nawet Murrayowi, by nie wydawać jej w ogóle – miała być
„niedoskonałym i stosunkowo wątłym przedstawieniem jego teorii”, jak
napisał. A następnie recenzent sugerował, żeby zamiast tego Darwin napisał
książkę o gołębiach i zawarł w tamtej krótką prezentację swojej teorii.
„Wszyscy interesują się gołębiami – doradził recenzent. – Książka […]
znalazłaby się niebawem na każdym biurku”265. Poradę przekazano
Darwinowi, ale ten ją odrzucił. Nie dlatego, że sam był pewien, iż jego
książka się sprzeda. „Bóg wie, co publiczność sobie pomyśli” – zauważył266.
Darwin nie musiał się martwić. O powstawaniu gatunków drogą
naturalnego doboru, czyli o utrzymywaniu się doskonalszych ras w walce
o byt miało się stać Principiami biologii. Po publikacji 24 listopada 1859
roku wszystkie 1250 egzemplarzy zostało natychmiast rozchwycone przez
chętnych księgarzy i od tego czasu nie było już wznawiane. (Książka jednak
nie wyprzedała się w dniu swojej publikacji, jak głosi legenda). Stanowiło to
satysfakcjonujące potwierdzenie dla człowieka, który miał pasję
i cierpliwość, żeby spędzić dwadzieścia lat na gromadzeniu dowodów
potwierdzających jego idee – a był to wysiłek tak monumentalny, że
przykładowym jego produktem ubocznym była monografia poświęcona
wąsonogom (rodzaj skorupiaków), licząca, bagatelka, 684 strony.
Poprzednicy Darwina pozostawili wiele szczegółowych opisów form życia
od bakterii po ssaki, ale nie mieli pojęcia o bardziej fundamentalnej kwestii –
co sprawia, że gatunki mają określone cechy charakterystyczne. Jak fizycy
przed Newtonem albo chemicy przed powstaniem układu okresowego,
biolodzy przed Darwinem gromadzili dane, ale nie wiedzieli, jak je do siebie
dopasować. Nie mogli tego zrobić, ponieważ przed Darwinem młoda
dziedzina biologii pozostawała w okowach przekonania, że początki
i wzajemne związki między różnymi formami życia są poza zasięgiem nauki
– przekonania, które wyrosło z dosłownej akceptacji biblijnej historii
głoszącej, że Ziemia i wszystkie formy życia zostały stworzone w sześć dni
i że od tego czasu gatunki nie uległy zmianie.
Nie chodzi o to, że nie było myślicieli, którzy rozważali ideę, iż gatunki
ewoluują – byli tacy, już od czasów Greków, a należał do nich dziadek
samego Darwina, Erasmus. Jednak przeddarwinowskie teorie ewolucji były
mętne i nie bardziej naukowe niż doktryna religijna, którą miały zastąpić.
W rezultacie, choć o idei ewolucji mówiono już przed Darwinem, większość,
w tym również naukowcy, przyjmowała, że ludzie znajdują się na szczycie
piramidy bardziej prymitywnych gatunków, których cechy charakterystyczne
były niezmienne i zostały im nadane przez Stwórcę, a w jego myśli nie
możemy nigdy zostać wtajemniczeni.
Darwin to zmienił. Jeśli przed nim istniał las spekulacji o ewolucji, to jego
teoria górowała nad innymi drzewami, stanowiąc wspaniały okaz starannej
nauki. Na każdy argument albo świadectwo, jakich dostarczyli jego
poprzednicy, on oferował setki. Co ważniejsze, odkrył mechanizm stojący za
ewolucją – dobór naturalny – a tym samym sprawił, że teoria ewolucji stała
się sprawdzalna, zyskała więc naukową powagę, co uwolniło biologię od
zależności od Boga i pozwoliło jej stać się prawdziwą nauką opartą, tak jak
fizyka i chemia, na prawach przyrody.

***

Urodzony w swoim domu rodzinnym w Shrewsbury w Anglii 12 lutego 1809


roku Karol był synem Roberta Darwina, miejskiego lekarza, i Susannah
Wedgwood, której ojciec założył firmę produkującą ceramikę pod tą nazwą.
Darwinowie byli zamożną i oświeconą rodziną, ale Karol był marnym
uczniem, który nienawidził szkoły. Później pisał, że pozostały mu złe
wspomnienia związane z koniecznością uczenia się na pamięć i „nie miał
żadnych szczególnych talentów”. Nie doceniał swoich możliwości, chociaż
dostrzegał również, że „był niezmiernie ciekaw faktów i ich znaczenia” oraz
miał „energię umysłu, jak pokazywała energiczna i długotrwała praca nad
tym samym przedmiotem”267. Te ostatnie dwie cechy są istotnie
szczególnymi talentami u naukowca – czy każdego innowatora – i miały
dobrze służyć Darwinowi.
Ciekawość i determinację Darwina dobrze ilustruje incydent, do którego
doszło, kiedy Karol był w college’u w Cambridge, pochłonięty hobby
kolekcjonowania chrząszczy. „Pewnego dnia – napisał – po oddarciu jakiejś
starej kory zobaczyłem dwa rzadkie chrząszcze i schwyciłem jednego z nich
ręką, wówczas dostrzegłem trzeciego, innego rodzaju, na którego stratę nie
mogłem sobie pozwolić, wepchnąłem więc sobie do ust tego, którego
trzymałem w ręku”268. Jedynie z chłopca o takim charakterze mógł rozwinąć
się mężczyzna dość wytrwały, by zapisać 684 strony o wąsonogach (choć
przed ukończeniem książki miał napisać: „nienawidzę wąsonogów jak nikt
inny przede mną”269).
Wiele lat zajęło Karolowi znalezienie swojego powołania. Jego podróż
rozpoczęła się jesienią 1825 roku, kiedy ojciec wysłał go w wieku szesnastu
lat nie do Cambridge, lecz na uniwersytet w Edynburgu – by studiował
medycynę, jak on sam i dziadek Karola. Okazało się to złą decyzją.
Po pierwsze, Karol był wyjątkowo delikatny, a były to czasy, w których
operacjom towarzyszyły często rozpryski krwi i krzyki pacjentów
rozcinanych bez używania środków znieczulających. Co prawda, wrażliwość
nie mogła go powstrzymać wiele lat później przed przeprowadzaniem sekcji
psów i kaczek w poszukiwaniu dowodów wspierających jego teorię ewolucji.
Po drugie, prawdopodobnie dla jego studiów medycznych fatalny okazał się
brak zarówno zainteresowania, jak i motywacji. Jak później pisał, przekonał
się, że ojciec miał mu zostawić wystarczający majątek, pozwalający
„na utrzymanie w pewnym komforcie”, a to oczekiwanie „było dostatecznym
powodem, by powstrzymać wszelkie forsowne wysiłki w celu nauczenia się
medycyny”270. I tak wiosną 1827 roku Karol opuścił Edynburg bez dyplomu.
Cambridge było jego drugim przystankiem. Ojciec wysłał go tam
z pomysłem, że będzie studiować teologię i obierze karierę duchownego.
Tym razem Karol uzyskał dyplom, z dziesiątą pozycją na 178 studentów. Ta
wysoka pozycja zaskoczyła go, ale odzwierciedlała ona prawdopodobnie to,
że naprawdę zainteresował się geologią i historią naturalną – czego dowodzi
kolekcjonowanie chrząszczy, któremu się oddawał. Jednak wciąż wydawało
się, że zmierza ku życiu, w którym nauka pozostanie w najlepszym razie
hobby, podczas gdy jego energie zawodowe poświęcone będą Kościołowi.
Tymczasem gdy Darwin wrócił do domu z podyplomowej wyprawy
geologicznej do północnej Walii, znalazł list zawierający zupełnie inną
ofertę: szansę na opłynięcie świata na pokładzie HMS Beagle pod
dowództwem kapitana Roberta FitzRoya.
List przysłał John Henslow, profesor botaniki z Cambridge. Pomimo
wysokich ocen Darwin nie wyróżniał się w oczach wielu tamtejszych
wykładowców, jednak Henslow dostrzegł w nim potencjał. Kiedyś zauważył:
„Cóż to za facet z tego Darwina, jeśli chodzi o zadawanie pytań”271 – co było
ewidentnie dobrotliwym komplementem, jednak świadczy też o tym, że
zdaniem Henslowa Darwin miał duszę naukowca. Henslow zaprzyjaźnił się
z ciekawym studentem, a kiedy został poproszony, by zarekomendować
młodemu człowiekowi stanowisko przyrodnika podczas podróży HMS
Beagle, polecił właśnie jego.
List Henslowa do Darwina był kulminacją serii nieprawdopodobnych
zdarzeń. Wszystko zaczęło się, gdy poprzedni kapitan HMS Beagle Pringle
Stokes strzelił sobie w głowę, a ponieważ kula nie zabiła go od razu, zmarł
z powodu gangreny. FitzRoy, pierwszy oficer Stokesa, sprowadził okręt do
macierzystego portu, ale nie umknęło jego uwagi, że depresja Stokesa
wywołana była samotnością wieloletniego podróżowania po morzach,
kapitanowi bowiem nie było wolno utrzymywać kontaktów towarzyskich
z załogą. Wuj FitzRoya poderżnął sobie gardło brzytwą kilka lat wcześniej,
a jakieś czterdzieści lat później sam FitzRoy miał pójść za jego przykładem,
tak więc musiał przeczuwać, że los jego kapitana to coś, czego za wszelką
cenę powinien uniknąć. W rezultacie kiedy dwudziestosześcioletniemu
FitzRoyowi zaoferowano możliwość zastąpienia Stokesa, zdecydował, że
potrzebuje towarzystwa. W tym czasie zwyczajem było, że lekarz okrętowy
pełnił również funkcję przyrodnika, ale FitzRoy rozpuścił wieść, że
poszukuje młodego „dżentelmena-przyrodnika” o wysokiej pozycji
społecznej – osoby, która w zasadzie miała pełnić obowiązki jego wynajętego
przyjaciela.
Darwin nie był pierwszą osobą, którą kapitan wybrał w tym celu –
wcześniej zaoferował to stanowisko wielu innym. Gdyby którakolwiek z nich
je przyjęła, Darwin najprawdopodobniej wiódłby spokojne życie na parafii
i nigdy nie stworzyłby teorii ewolucji – tak jak Newton prawdopodobnie
nigdy nie ukończyłby i nie opublikował swojego wielkiego dzieła, gdyby
Halley nie zatrzymał się, żeby się z nim zobaczyć, i nie zapytał go o prawo
odwróconych kwadratów. Niestety, stanowisko proponowane przez FitzRoya
było niepłatne – wynagrodzenie miało pochodzić z późniejszej sprzedaży
okazów zebranych na wybrzeżach mijanych po drodze – a nikt
z zapytywanych nie miał ochoty albo nie był w stanie spędzić całych lat na
morzu, utrzymując się samemu. W rezultacie wybór padł w końcu na
dwudziestodwuletniego Darwina, co oznaczało dla niego propozycję
przeżycia przygody – i uniknięcie rozpoczęcia kariery, która wiązałaby się
z głoszeniem, że Ziemia została stworzona w noc poprzedzającą 23
października 4004 roku przed Chrystusem (jak twierdziły analizy biblijne
opublikowane w XVII wieku). Darwin chwycił okazję. Miała ona zmienić
zarówno jego życie, jak i historię nauki.
Beagle wyruszył w 1831 roku i miał wrócić dopiero w 1836 roku. Nie była
to wygodna podróż. Darwin mieszkał i pracował w maleńkiej kabinie na rufie
statku, w najbardziej kołyszącej się jego części. Dzielił ją z dwoma innymi
załogantami i spał w hamaku rozwieszonym nad stołem z mapami. „Mam
tylko tyle miejsca, by się obrócić”272 – donosił w liście do Henslowa. Nie jest
zaskakujące, że trapiła go choroba morska. A choć nawiązał coś w rodzaju
przyjaźni z FitzRoyem – był jedynym członkiem załogi statku, który
pozostawał w pewnej zażyłości z kapitanem i zazwyczaj jadali razem –
często się kłócili, zwłaszcza o niewolnictwo, którym Darwin pogardzał, ale
które wielokrotnie obserwował w czasie podróży.
Jednak niewygody podróży wynagradzało nieporównywalne z niczym
podniecenie związane z wizytami na lądzie. Podczas takich pobytów Darwin
brał udział w karnawale w Brazylii, oglądał wybuch wulkanu pod Osorno
w Chile, przeżył trzęsienie ziemi i chodził wśród ruin, w które obróciło ono
miasto Concepción; obserwował rewolucje w Montevideo i w Limie. I przez
cały czas kolekcjonował okazy i skamieniałości, pakował je i wysyłał
w skrzyniach do Henslowa do Anglii na przechowanie.
Darwin uznawał później tę podróż za główne wydarzenie formacyjne
swego życia, zarówno z uwagi na piętno, jakie wycisnęła na jego charakterze,
jak i na to, że pozwoliła mu na nowo docenić świat przyrody. Jednak to nie
podczas niej dokonał swoich słynnych odkryć dotyczących ewolucji ani
nawet nie zaczął przyjmować, że ewolucja zachodzi273. W rzeczywistości
zakończył wyprawę tak, jak ją rozpoczął – bez żadnych wątpliwości
dotyczących moralnego autorytetu Biblii.
Natomiast jego plany na przyszłość uległy zmianie. Gdy podróż dobiegła
końca, napisał do kuzyna, który robił karierę w Kościele: „Twojego
położenia zazdrość nie dotyczy; nawet nie próbuję wyobrazić sobie takiej
zbawiennej perspektywy. Dla osoby zdatnej na taki urząd życie duchownego
jest […] godne szacunku i szczęśliwe”274. Pomimo tych zachęcających słów
Darwin uznał, że on sam nie pasuje do takiego życia, i zamiast niego
postanowił znaleźć swoje miejsce w świecie londyńskiej nauki.

***

Po powrocie do Anglii Darwin odkrył, że obserwacje, które opisywał


szczegółowo w swobodnych listach do profesora Henslowa, zyskały pewne
zainteresowanie ze strony naukowców – w szczególności tych, którzy
zajmowali się geologią. Niebawem już wygłaszał wykłady w prestiżowym
Londyńskim Towarzystwie Geologicznym na tematy takie jak „Związek
pewnych zjawisk wulkanicznych, formowania się łańcuchów górskich
i skutki wynurzania się kontynentów”. Zarazem cieszył się niezależnością
finansową dzięki stypendium w wysokości ponad tysiąca funtów
przyznanemu mu przez ojca. Tak się złożyło, że była to taka sama suma, jaką
Newton zarabiał, gdy zaczynał pracę w mennicy, ale w latach trzydziestych
XIX wieku, według British National Archives, stanowiła „tylko”
pięciokrotność płacy rzemieślnika (choć wciąż było to wystarczająco dużo,
żeby kupić dwadzieścia sześć koni albo siedemdziesiąt pięć krów). Te
pieniądze pozwoliły Darwinowi poświęcić czas na przerobienie dziennika
z Beagle na książkę oraz na uporządkowanie licznych okazów zwierząt
i roślin, które zgromadził. To właśnie wysiłek z tym związany miał zmienić
jego poglądy na naturę życia.
Ponieważ Darwin nie przeżył żadnych wielkich objawień dotyczących
biologii podczas swojej podróży, prawdopodobnie spodziewał się, że
drobiazgowe zbadanie okazów, które wysłał do domu, zaowocuje solidnymi,
ale nie rewolucyjnymi pracami. Jednak niebawem pojawiły się sygnały, że
jego badania mogą być bardziej ekscytujące, niż oczekiwał – niektóre ze
swoich okazów dał specjalistom do przeanalizowania, a wiele
z przedstawionych przez nich raportów wprawiło go w osłupienie.
Na przykład pewna grupa skamieniałości sugerowała „prawo następstwa” –
że wymarłe ssaki Ameryki Południowej zostały zastąpione innymi
zwierzętami tego rodzaju. Z kolei doniesienie dotyczące przedrzeźniaczy
z wysp Galapagos informowało go, że żyły tam trzy gatunki, a nie cztery, jak
sądził, i że były one charakterystyczne jedynie dla tych wysp, podobnie jak
ogromne żółwie, które tam występują. (Historia o tym, że zainspirowało go
momentalne olśnienie wynikające z obserwacji dziobów zięb z różnych wysp
z archipelagu Galapagos, jest apokryficzna. Istotnie przywiózł ze sobą okazy
zięb, ale nie miał wykształcenia ornitologicznego, i w rzeczywistości błędnie
zidentyfikował je jako mieszańce zięb, strzyżyków, „grubodziobów”
i krewnych kosów – i nie zostały one nazwane od wysp Galapagos275).
Prawdopodobnie najbardziej zaskakujący z raportów przygotowanych przez
ekspertów dotyczył okazów nandu, czyli południowoamerykańskiego strusia,
którego Darwin i towarzysze ugotowali i zjedli, zanim zdali sobie sprawę
z jego możliwego znaczenia; pozostałości wysłali do Anglii. Okazało się, że
okaz należał do nowego gatunku, który podobnie jak zwykły nandu miał
własny zasadniczy obszar występowania, ale który konkurował również ze
zwykłym nandu w strefie pośredniej. Pozostawało to w sprzeczności
z obiegową wiedzą z tamtych czasów, która głosiła, że każdy gatunek jest
optymalnie przystosowany do swojego konkretnego środowiska, co nie
pozostawia miejsca dla niejednoznacznych obszarów, w których podobne
gatunki konkurują ze sobą.
Gdy napływały te prowokujące do myślenia opracowania, własne
przemyślenia Darwina dotyczące roli Boga w stworzeniu ewoluowały.
Ważny wpływ wywarł na niego Charles Babbage, piastujący dawne
stanowisko Newtona jako profesor matematyki w katedrze Lucasa
w Cambridge i najbardziej znany z tego, że wynalazł komputer mechaniczny.
Babbage zorganizował serię wieczorków z udziałem wolnomyślicieli, a sam
napisał książkę głoszącą, że Bóg działa poprzez prawa fizyki, a nie przez
bezpośrednie nakazy i cuda. Ta idea, która dawała najbardziej obiecującą
podstawę do współistnienia religii i nauki, przemawiała do młodego
Darwina.
Darwin stopniowo przekonywał się, że gatunki nie były niezmiennymi
formami życia zaprojektowanymi przez Boga tak, by pasowały do jakiegoś
wielkiego systemu, lecz raczej w jakiś sposób same się dostosowały, by
pasować do swojej niszy ekologicznej. Latem 1837 roku – rok po tym, jak
Beagle zakończył swoją podróż – Darwin nawrócił się na ideę ewolucji, choć
nadal był odległy od sformułowania własnej teorii.
Niebawem odrzucił pogląd, że ludzie są bytami wyższymi, czy generalnie,
że jakiekolwiek zwierzę jest wyższe od jakiegokolwiek innego;
prawdopodobnie to właśnie był moment, w którym zaczął nabierać
przekonania, że każdy gatunek jest równie cudowny, doskonale lub niemal
doskonale dostosowany do swojego środowiska oraz roli, jaką w nim
odgrywa. Żadne z tych przekonań nie wykluczało, zdaniem Darwina, udziału
Boga – badacz był przekonany, że Bóg zaprojektował prawa rządzące
reprodukcją, pozwalając gatunkom, by zmieniały się, tak jak jest to
potrzebne, dostosowując się do zmian środowiska.
Jeśli Bóg stworzył prawa reprodukcji, które umożliwiają gatunkom
dostosowywanie się do swojego środowiska, to co to są za prawa? Newton
zrozumiał boski plan fizycznego Wszechświata dzięki swoim
matematycznym prawom ruchu; również Darwin więc – przynajmniej
początkowo – szukał mechanizmu ewolucji, sądząc, że wyjaśni on boski plan
dla świata ożywionego.
Podobnie jak Newton Darwin zaczął zapełniać kolejne notatniki swoimi
przemyśleniami i pomysłami. Przeanalizował związki między gatunkami
i skamieniałościami, które zaobserwował podczas podróży; zbadał małpę
wąskonosą, orangutana i małpy z londyńskiego ogrodu zoologicznego,
sporządzając notatki o wyrażanych przez nie uczuciach podobnych do
ludzkich; analizował, jak działają hodowcy gołębi, psów i koni, medytował
nad tym, jak wielką różnorodność cech można uzyskać dzięki ich metodzie
„sztucznej selekcji”, i snuł spekulacje w wielkim stylu o tym, jak ewolucja
wywarła wpływ na kwestie metafizyczne i ludzką psychologię. A później,
mniej więcej we wrześniu 1838 roku, przeczytał głośny esej Prawo ludności
Thomasa R. Malthusa. Naprowadził on go na drogę do ostatecznego odkrycia
procesu, poprzez który następuje ewolucja.
Malthus nie napisał przyjemnej książki. Ubóstwo, jego zdaniem, było
naturalnym i ostatecznym stanem rodzaju ludzkiego, ponieważ wzrost liczby
ludności nieodmiennie prowadzi do konkurowania o żywność i inne zasoby
na drodze przemocy. Z powodu ograniczonej powierzchni ziemi
i ograniczonej produkcji, dowodził, zasoby te mogą rosnąć jedynie
„arytmetycznie”, tak jak ciąg 1, 2, 3, 4, 5 i tak dalej, podczas gdy liczba
ludności rośnie w każdym pokoleniu zgodnie z ciągiem 1, 2, 4, 8, 16 i tak
dalej.
Dziś wiemy, że jedna kałamarnica może wyprodukować trzy tysiące jaj
w jednym sezonie rozrodczym. Gdyby z każdego jaja wyrosła kałamarnica
i rozmnożyła się, w siódmym pokoleniu kałamarnice osiągnęłyby taką
objętość, że mogłyby wypełnić wydrążoną Ziemię; mniej niż trzydzieści
pokoleń wystarczyłoby, żeby same jaja wypełniły obserwowalny
Wszechświat.
Darwin nie miał tak szczegółowych danych i nie był zbyt dobry
z matematyki, ale wiedział wystarczająco dużo, żeby zdać sobie sprawę, że
scenariusz Malthusa się nie zrealizuje. Natomiast, rozumował, z ogromnej
liczby jaj i potomstwa, jakie produkuje przyroda, konkurencja pozwala
przetrwać tylko nielicznym – zazwyczaj tym najlepiej przystosowanym.
Nazwał ten proces „selekcją naturalną”, by podkreślić porównanie ze
sztuczną selekcją stosowaną przez hodowców.
Później w swojej autobiografii opisał, jak doznał olśnienia: „Nagle uderzyło
mnie, że w tych warunkach korzystne wariacje wykazywałyby tendencję do
utrzymywania się, a niekorzystne do zanikania”276. Jednak nowe idee rzadko
kiedy pojawiają się w umyśle odkrywcy tak nagle albo w pełni
sformułowane, a opis przedstawiony przez Darwina wydaje się
zniekształceniem wywołanym szczęściem i upływem czasu. Analiza
notatników, które prowadził w tamtym czasie, ujawnia coś innego: na
początku jedynie przeczuwał ślad idei, i to na kilka lat przed dostrzeżeniem
jej wystarczająco jasno, żeby przelać ją na papier.
Jednym z powodów, dla których idea selekcji naturalnej albo doboru
naturalnego potrzebowała pewnego czasu, by się ukształtować, jest to, że
Darwin dostrzegł, iż odsiew nieprzystosowanych w każdym pokoleniu może
wyostrzyć cechy gatunku, ale nie stworzy nowych gatunków – jednostek,
które są tak niepodobne do oryginalnego gatunku, że nie mogą się już dłużej
krzyżować z jego przedstawicielami, dając płodne potomstwo. Aby tak się
stało, selekcja istniejących cech musi być uzupełniona przez źródło nowych.
Te, doszedł w końcu do wniosku Darwin, powstają przez czysty przypadek.
Na przykład kolor dzioba zeberki timorskiej normalnie zmienia się od
bledszej do silniejszej czerwieni. Dzięki starannemu krzyżowaniu można
stworzyć populację, w której dominuje jeden albo drugi kolor, ale zeberka
timorska z nowym kolorem dzioba – powiedzmy, niebieskim – może się
pojawić tylko wskutek tego, co nazywamy teraz mutacją: przypadkowej
zmiany w strukturze genu, która skutkuje nową, odmienną formą organizmu.
Teraz teoria Darwina mogła w końcu nabrać kształtów. Przypadkowa
wariacja i dobór naturalny tworzą razem osobniki z nowymi cechami, i dają
cechom, które są korzystne, większe szanse na rozprzestrzenianie się
w populacji. Skutkiem jest to, że tak jak hodowcy tworzą zwierzęta i rośliny
z pożądanymi przez nich cechami, również przyroda tworzy gatunki, które są
dobrze przystosowane do swojego środowiska.
Uświadomienie sobie, że przypadek odgrywa tu ważną rolę, był kamieniem
milowym w rozwoju nauki, ponieważ mechanizm, który odkrył Darwin,
sprawia, że trudno jest pogodzić ewolucję z jakąkolwiek bezpośrednią ideą
boskiego zamysłu. Oczywiście, pojęcie ewolucji samo w sobie pozostaje
w sprzeczności z biblijną teorią stworzenia, ale konkretna teoria
sformułowana przez Darwina poszła jeszcze dalej, utrudniając
zracjonalizowanie arystotelesowskiego i tradycyjnego chrześcijańskiego
punktu widzenia głoszącego, że źródłem przebiegu wydarzeń jest raczej cel
niż obojętne prawo fizyczne. Pod tym względem Darwin zrobił dla naszego
rozumienia świata ożywionego to, co Galileusz i Newton zrobili dla świata
nieożywionego: odciął naukę od jej korzeni tkwiących zarówno
w dociekaniach religijnych, jak i antycznej tradycji greckiej.

***

Darwin, podobnie jak Galileusz i Newton, był człowiekiem wierzącym,


a więc jego ewoluująca teoria stawiała go w sprzeczności z systemem
wierzeń. Próbował uniknąć tej sprzeczności, przyjmując zarówno pogląd
teologiczny, jak naukowy, każdy w swoim kontekście, niż usiłując aktywnie
pogodzić je ze sobą. Jednak nie do końca mu się to udawało. W styczniu
1839 roku poślubił swoją kuzynkę, Emmę Wedgwood, żarliwą chrześcijankę,
która była zaniepokojona jego poglądami. „Kiedy umrę – napisał do niej
kiedyś – wiedz, że wiele razy […] nad tym płakałem”277. Pomimo dzielących
ich różnic więź między nimi była silna i przez całe życie pozostali oddaną
sobie parą, mieli dziesięcioro dzieci.
Choć wiele napisano o kwestii pogodzenia ewolucji z chrześcijaństwem, to
śmierć drugiego dziecka Darwinów, Annie, która zmarła wiele lat później
w wieku dziesięciu lat, w równej mierze jak jego praca nad teorią ewolucji,
w końcu pozbawiła Karola wiary w chrześcijaństwo278. Przyczyna śmierci
Annie jest niejasna, ale dziecko pod koniec cierpiało przez ponad tydzień na
wysoką gorączkę i miało poważne problemy z trawieniem. Darwin napisał
później: „Straciliśmy radość naszego domu i pociechę naszej starości –
musiała wiedzieć, jak bardzo ją kochaliśmy; och, oby mogła wiedzieć, jak
głęboko, jak czule wciąż ją kochamy i będziemy zawsze kochać jej
najdroższą, radosną twarz”279.
Annie Darwin (1841–1851) (Dzięki uprzejmości Duncharris/Wikimedia
Commons)

Pierwsze dziecko urodziło się Darwinom w 1839 roku. W tym czasie Karol,
który miał zaledwie trzydzieści lat, zaczął cierpieć na pozbawiającą go sił
i nawracającą tajemniczą chorobę. Przez resztę życia radość, jaką dawała mu
rodzina i praca naukowa, miała być przerywana wybuchami bolesnej
niemocy, która czasami sprawiała, że nie był zdolny do pracy przez wiele
miesięcy z rzędu.
Odczuwane przez niego symptomy nie wskazują na żadną konkretną
chorobę, podobnie jak biblijne plagi: bóle żołądka, wymioty, wzdęcia, bóle
głowy, palpitacje serca, dreszcze, histeryczny płacz, dzwonienie w uszach,
wyczerpanie, niepokój i depresja. Próby leczenia, wśród nich również takie,
po które Darwin sięgnął wbrew swojemu najlepszemu osądowi, były równie
różnorodne: silne nacieranie zimnymi mokrymi ręcznikami, moczenie nóg,
nacieranie lodem, lodowate prysznice, modna przez pewien czas
elektroterapia przy wykorzystaniu pasów wstrząsowych, medycyna
homeopatyczna i standardowy w czasach wiktoriańskich bizmut. Nic nie
działało. A więc człowiek, który między dwudziestką a trzydziestką był
odpornym łowcą przygód, w następnej dekadzie życia stał się słabowitym
i samotniczym inwalidą.
Nowe dziecko, praca i choroba sprawiły, że Darwinowie zaczęli
wycofywać się z życia towarzyskiego, porzucając przyjęcia i dawne kręgi
przyjaciół. Dni Karola stały się spokojne i wypełnione rutyną, podobne do
siebie „jak dwie krople wody”280. W czerwcu 1842 roku ukończył liczące
trzydzieści pięć stron streszczenie swojej teorii ewolucji; we wrześniu tego
samego roku przekonał ojca, żeby pożyczył mu pieniądze na zakup
sześciohektarowego ustronia w Dover w hrabstwie Kent, parafii liczącej
pięciuset mieszkańców, oddalonej o dwadzieścia pięć kilometrów od
Londynu. Darwin nazywał je „najdalszym zakątkiem świata”281. Jego życie
w Dover przypominało życie zamożnego mieszkańca wsi, którym kiedyś
zamierzał zostać, a w lutym 1844 roku wykorzystał wolny czas na
rozbudowanie swojej pracy do rękopisu o objętości 231 stron.
Rękopis Darwina był testamentem naukowym, a nie pracą przeznaczoną do
natychmiastowej publikacji. Powierzył go Emmie z listem, który miała
przeczytać na wypadek jego „nagłej śmierci”, ta zaś mogła niebawem
nastąpić, jak się obawiał z uwagi na swoją chorobę. List informował, że jego
„najuroczystszą i ostatnią prośbą”282 było to, by po jego odejściu rękopis
został upubliczniony. „Jeśli zaakceptuje go choć jeden kompetentny sędzia –
napisał Darwin – zostanie uznany za poważny krok w nauce”283.
Darwin miał dobry powód, żeby nie publikować swoich poglądów za życia.
Zyskał znakomitą reputację w najwyższych kręgach społeczności naukowej,
a było pewne, że jego nowe pomysły ściągną na niego krytykę. Co więcej,
miał wielu przyjaciół wśród duchownych – nie wspominając już o żonie –
którzy popierali kreacjonistyczny status quo.
Powody, by zwlekać z publikacją swoich pomysłów, okazały się zasadne
jesienią tego samego roku, kiedy ukazała się anonimowo284 książka
zatytułowana Ślady naturalnej historii Stworzenia. Książka nie przedstawiała
odrębnej teorii ewolucji, ale splatała ze sobą kilka idei naukowych, w tym
ideę przemiany gatunków, i stała się międzynarodowym bestsellerem. Jednak
establishment religijny zaatakował jej nieznanego autora. Jeden
z recenzentów oskarżył go na przykład o „zatruwanie podstaw nauki
i podkopywanie podstaw religii”285.
Niektórzy członkowie społeczności naukowej nie byli milsi. Naukowcy
nigdy nie owijali w bawełnę. Nawet dziś, gdy łatwo jest się komunikować,
a podróżowanie pozwala na bliższą współpracę i więcej współdziałania niż
kiedykolwiek wcześniej, przedstawienie nowych idei może dać asumpt do
bezpardonowego ataku, poza namiętnością do przedmiotu swoich badań
i swoich pomysłów naukowcy bowiem niekiedy wykazują zapał
w przeciwstawianiu się pracom, które uznają za błędne albo po prostu
nieinteresujące. Gdyby na seminarium badawczym występował gość
opisujący swoją pracę, a jego referat nie okazał się wart uwagi, pewien
słynny fizyk, którego znam, wyjąłby gazetę, otworzył ją i zaczął czytać,
okazując ostentacyjnie znudzenie. Inny, który lubił siadywać z przodu sali,
wstałby w środku referatu, wygłosił swoją negatywną opinię i wyszedł.
Jednak najbardziej interesujące przedstawienie, jakie widziałem, dał jeszcze
inny słynny naukowiec, znany pokoleniom fizyków, ponieważ napisał
standardowy podręcznik dla studentów o elektromagnetyzmie.
Siedząc z przodu sali seminaryjnej, w której stało kilkanaście rzędów
krzeseł, ów profesor podniósł swój styropianowy kubek z kawą nad głowę
i obracał nim lekko w obie strony, tak że wszyscy siedzący za nim – ale nie
zakłopotany mówca stojący przed nim – mogli zobaczyć, że napisał na kubku
wielkimi drukowanymi literami: TEN REFERAT TO BREDNIE! A później,
zabrawszy głos w dyskusji, wstał i wyszedł. Jak na ironię, referat dotyczył
„Spektroskopii cząstek powabnych-antypowabnych”. Choć słowo
„powabny” jest tu terminem technicznym niezwiązanym z jego codziennym
znaczeniem, myślę, że można spokojnie stwierdzić, iż zachowanie tego
profesora nie było „powabne”. Jednak jeśli z takim przyjęciem spotyka się
idea uznana za wątpliwą w dziedzinie tak ezoterycznej jak fizyka kwantowa,
to można sobie wyobrazić brutalność okazywaną wobec „wielkich idei”,
które kwestionują przyjętą mądrość.
Faktem jest, że choć znaczna część sprzeciwu wobec nowych koncepcji w
nauce pochodzi ze strony obrońców religii, istnieje również silna tradycja
sprzeciwu ze strony samych naukowców. Jest zazwyczaj czymś dobrym, gdy
bowiem idea jest błędna, sceptycyzm naukowców chroni daną dziedzinę
nauki przed podążeniem w niewłaściwym kierunku. Co więcej, kiedy pokaże
się prawdziwy dowód, naukowcy szybciej od kogokolwiek innego zmieniają
zdanie i akceptują dziwne nowe koncepcje.
Jednak przyjmowanie zmian jest trudne dla nas wszystkich, a uznani
naukowcy, którzy poświęcili swoją karierę rozwijaniu jednego sposobu
myślenia, reagują niekiedy dość negatywnie na sprzeczny z nim inny sposób
myślenia. W rezultacie zaproponowanie budzącej niepokój nowej teorii
naukowej wiąże się z ryzykiem narażenia jej na zarzuty, że jest niemądra,
błędna albo po prostu nieadekwatna. Nie istnieje zbyt wiele niezawodnych
sposobów na wspieranie innowacji, za to pewnym sposobem ich ograniczania
jest tworzenie klimatu, w którym niebezpiecznie jest kwestionować przyjęte
mądrości. Niemniej taka często jest atmosfera, w której wykluwa się
rewolucyjny postęp.
W związku z ewolucją Darwin miał mnóstwo powodów do obaw, czego
dowodzi na przykład reakcja na Ślady ze strony jego przyjaciela Adama
Sedgwicka, wybitnego profesora z Cambridge, który uczył Karola geologii.
Sedgwick nazwał Ślady „głupią książką”286 i napisał zjadliwą recenzję na
osiemdziesiąt pięć stron. Przygotowując się na takie ataki, Darwin zatem
zgromadził całą górę przekonujących dowodów na poparcie swojej teorii.
Ten wysiłek zajmował go przez następne piętnaście lat, ale w końcu miał stać
się źródłem jego sukcesu.

***

W latach czterdziestych i pięćdziesiątych XIX wieku rodzina Darwina stale


się rozrastała. Jego ojciec zmarł w 1848 roku i zostawił mu w spadku
znaczną sumę, o której syn spekulował przed kilkoma dziesięcioleciami, gdy
studiował medycynę – okazało się, że wyniosła ona około pięćdziesięciu
tysięcy funtów, co odpowiada kilku milionom dzisiejszych dolarów. Mądrze
ją zainwestował i stał się bardzo zamożny, dzięki czemu mógł z łatwością
zatroszczyć się o swoją dużą rodzinę. Jednak nadal trapiły go problemy z
żołądkiem, przez co zaczął jeszcze bardziej stronić od ludzi, a nawet z
powodu choroby nie wziął udziału w pogrzebie ojca.
Przez cały czas Darwin kontynuował pracę nad rozwijaniem swoich idei.
Badał zwierzęta takie jak gołębie – o których powinien napisać, jak
zasugerował mu kiedyś jeden z jego kolegów – i oczywiście wąsonogi, i
przeprowadzał na nich eksperymenty. Wykonywał również doświadczenia z
roślinami. W jednej serii swoich badań sprawdził rozpowszechnioną opinię,
według której nasiona zdolne do wykiełkowania nie mogą dotrzeć do
odległych wysp na oceanie. Zaatakował tę kwestię z wielu stron:
przetestował nasiona roślin ogrodowych, które przez kilka tygodni moczył w
solance (naśladującej wodę morską); szukał nasion na jajach ptaków i w ich
odchodach oraz karmił wypchanymi nasionami wróblami sowę i orła
z londyńskiego ogrodu zoologicznego, a następnie badał ich ekskrementy.
Wszystkie te badania prowadziły do takiego samego wniosku: nasiona,
stwierdził Darwin, są twardsze i bardziej mobilne, niż sądzono.
Innym zagadnieniem, któremu poświęcił wiele czasu, była kwestia
różnorodności: Dlaczego dobór naturalny wytworzył tak wielkie różnice
między gatunkami? Czerpał tu inspirację z ekonomistów swoich czasów,
którzy często pisali o „podziale pracy”. Adam Smith dowiódł, że ludzie są
bardziej produktywni, jeśli się specjalizują, zamiast próbować wytworzyć
różne części składowe danego przedmiotu na własną rękę. Ta idea skłoniła
Darwina do snucia teoretycznych rozważań, że dany obszar ziemi może
utrzymać więcej form życia, jeśli jego mieszkańcy są wysoce
wyspecjalizowani w wykorzystywaniu różnych zasobów naturalnych.
Darwin spodziewał się, że jeśli jego teoria jest prawdziwa, znajdzie więcej
różnych form życia na obszarach, na których panowała intensywna
konkurencja o ograniczone zasoby, i poszukiwał dowodów wspierających tę
koncepcję albo jej zaprzeczających. Takie myślenie było typowe dla jego
nowego podejścia do ewolucji: podczas gdy inni przyrodnicy poszukiwali
dowodów ewolucji w rozwijaniu się z biegiem czasu drzew genealogicznych
łączących skamieniałości z żywymi formami, on poszukiwał ich w rozkładzie
gatunków i związków między nimi w jego własnych czasach.
Aby zbadać te dowody, Darwin musiał odwołać się do innych badaczy. Tak
więc, choć pozostawał w fizycznym odosobnieniu, zwracał się do innych
z prośbą o pomoc i tak jak Newton polegał na korespondencji –
w szczególności na nowym, tanim programie „poczta za pensa”, który
umożliwił mu zbudowanie niespotykanej sieci przyrodników, hodowców
i innych korespondentów, zaopatrujących go w informacje o zmienności
i dziedziczeniu. To podejście oparte na równym traktowaniu świadectw za
i przeciw oraz wielokrotnym sprawdzaniu dowodów pozwoliło Darwinowi
przetestować jego idee na podstawie praktycznych doświadczeń, nie
narażając go przy tym na śmieszność przez ujawnienie jego ostatecznego
celu. Pozwoliło mu również stopniowo wybadać, który z kolegów po fachu
może sympatyzować z jego poglądami – i w końcu podzielić się swoimi
nieortodoksyjnymi pomysłami z tą wybraną grupą.
W 1856 roku Darwin przedstawił ze szczegółami swoją teorię kilku bliskim
przyjaciołom. Wśród nich znajdował się Charles Lyell, czołowy geolog
tamtych czasów, i biolog Thomas H. Huxley, najwybitniejszy na świecie
specjalista od anatomii porównawczej. Jego powiernicy, zwłaszcza Lyell,
zachęcili do publikacji, by nikt go nie uprzedził. Darwin miał wówczas
czterdzieści siedem lat, swoją teorię budował od osiemnastu lat.
W maju 1856 roku zaczął pracować nad czymś, co miało być techniczną
rozprawą adresowaną do kolegów po fachu. Postanowił zatytułować ją
Dobór naturalny. W marcu 1858 roku książka była ukończona w dwóch
trzecich i liczyła już 250 tysięcy słów. W czerwcu zaś Darwin otrzymał
pocztą rękopis z towarzyszącym mu listem od znajomego pracującego na
Dalekim Wschodzie, Alfreda Russela Wallace’a.
Wallace wiedział, że Darwin pracuje nad teorią ewolucji, i miał nadzieję, że
zgodzi się on przekazać Lyellowi rękopis – artykuł, w którym Wallace
naszkicował niezależnie sformułowaną przez siebie teorię doboru
naturalnego. Podobnie jak Darwin w tworzeniu swojej teorii inspirował się
poglądami Malthusa na przeludnienie.
Darwin wpadł w panikę. Wydawało się, że najgorsza możliwość, przed
którą przestrzegali go przyjaciele, miała się ziścić: inny przyrodnik powtórzył
najważniejszy aspekt jego pracy.
Kiedy Newton słyszał, że zgłaszano pretensje do dzieła podobnego do jego
własnego, stawał się niemiły, ale Darwin był zupełnie innym człowiekiem.
Zadręczał się z powodu tej sytuacji i wydawało mu się, że nie ma z niej
dobrego wyjścia. Mógł schować przesłany mu artykuł albo pospieszyć
z opublikowaniem swojego, ale te możliwości były nieetyczne; lub też mógł
pomóc Wallace’owi w jego opublikowaniu i zrzec się zasługi z tytułu dzieła
swojego życia.
Darwin wysłał rękopis do Lyella wraz z listem z 18 czerwca 1858 roku:
Dziś [Wallace] przesłał mi artykuł, który dołączam do listu, i prosił,
żebym przesłał go Panu. Wydaje mi się, że rzecz jest warta
przeczytania. Pańskie słowa, że ktoś mnie uprzedzi, sprawdziły się
z nawiązką. […] Nigdy nie spotkałem się z bardziej zdumiewającym
zbiegiem okoliczności. Gdyby Wallace był w posiadaniu rękopisu
mojego szkicu napisanego w 1842 roku, nie mógłby zrobić lepszego
streszczenia! Nawet w tej chwili jego określenia mogą służyć jako
tytuły moich rozdziałów.
Bardzo proszę o odesłanie jego rękopisu, ponieważ on nie pisze, czy
życzy sobie, żebym go opublikował, lecz ja oczywiście napiszę
i zaproponuję mu wysłanie go do jakiegoś czasopisma. Tak więc
wszystkie moje poglądy – do czegokolwiek by się sprowadzały –
stracą całą swą oryginalność. A jednak moja książka, o ile w ogóle
kiedyś będzie miała jakąś wartość, na tym nie ucierpi, cały bowiem
trud polega na zastosowaniu teorii.
Mam nadzieję, że pochwali Pan szkic Wallace’a, i będę mógł mu
napisać, jaka jest Pańska opinia287.

***

Jak się okazało, klucz do tego, komu przypadnie zasługa stworzenia teorii,
krył się w spostrzeżeniu Darwina, że wartość jego książki polega na
zastosowaniach, które szczegółowo opisał. Wallace nie tylko nie
przeprowadził wyczerpujących badań dowodów przemawiających za
doborem naturalnym, jak zrobił Darwin, ale też nie dokonał szczegółowych
analiz tego, jak zmiana może mieć takie natężenie, żeby zrodzić nowe
gatunki, a nie jedynie nowe „odmiany”, które dziś nazywamy podgatunkami,
co również zrobił Darwin.
Lyell odpowiedział w kompromisowy sposób: wraz z innym bliskim
przyjacielem Darwina, botanikiem Josephem Daltonem Hookerem, mieli
przeczytać na forum prestiżowego Linnean Society w Londynie artykuł
Wallace’a, a także streszczenie pomysłów Darwina, i oba miały zostać
opublikowane jednocześnie w „Proceedings”. Gdy Darwin zaczął dręczyć się
tym planem, trudno było, by stało się to w gorszym momencie. Nie tylko
cierpiał z powodu swoich zwykłych przypadłości, ale też jego stary
przyjaciel, biolog Robert Brown, zmarł niedawno, a jego dziesiąte
i najmłodsze dziecko, zaledwie półtoraroczny Charles Waring, było poważnie
chore na szkarlatynę.
Darwin pozostawił sprawę do rozwiązania Lyellowi i Hookerowi w taki
sposób, jaki uznają za stosowne, a zatem 1 lipca 1858 roku sekretarz Linnean
Society przeczytał teksty Darwina i Wallace’a w obecności ponad trzydziestu
członków. Lektura nie wzbudziła ani wrogości, ani aplauzu, jedynie
kamienne milczenie. W dalszej kolejności czytano sześć innych referatów
naukowych, a na wypadek gdyby ktoś jeszcze nie zasnął po pierwszych
pięciu, na koniec zostawiono długaśny traktat opisujący wegetację w Angoli.
Ani Wallace, ani Darwin nie wzięli udziału w posiedzeniu. Wallace wciąż
przebywał na Dalekim Wschodzie i nie zdawał sobie sprawy z biegu zdarzeń
w Londynie. Kiedy później go o nich poinformowano, z wdzięcznością
przyjął to, że sprawa została rozwiązana sprawiedliwie, a w przyszłych latach
zawsze traktował Darwina z szacunkiem, nawet z przywiązaniem. Darwin
był w tym czasie chory, prawdopodobnie więc i tak nie pojechałby na
posiedzenie, ale jak się okazało, kiedy się ono odbywało, wraz z Emmą
chowali swoje drugie zmarłe dziecko, Charlesa Waringa, na parafialnym
cmentarzu przykościelnym.
Wraz z prezentacją w Linnean Society po dwudziestu latach ciężkiej pracy
nad rozwinięciem swojej teorii i zgromadzeniem przemawiających za nią
dowodów Darwin w końcu ujawnił swoje pomysły opinii publicznej.
Bezpośrednia reakcja była, najdelikatniej rzecz ujmując, rozczarowująca. To,
że wszyscy obecni na posiedzeniu nie dostrzegli znaczenia tego, co zostało
im zaprezentowane, prawdopodobnie najlepiej odzwierciedlają komentarze
przewodniczącego Towarzystwa, Thomasa Bella, który gdy wychodził
z posiedzenia, narzekał – jak to później ujął – że tamten rok „nie odznaczył
się żadnym z tych uderzających odkryć, które natychmiast rewolucjonizują,
by tak rzec, [nasz] dział nauki”288.
Po prezentacji w Linnean Society Darwin działał szybko. W mniej niż rok
opracował na nowo Dobór naturalny w swoje mistrzowskie dzieło
O pochodzeniu gatunków. Była to krótsza książka adresowana do szerokiej
publiczności. Rękopis ukończył w kwietniu 1859 roku. Był wyczerpany i, jak
sam to ujął, „słaby jak dziecko”289.
Zawsze świadom potrzeby podtrzymywania konsensusu na swoją korzyść,
dopilnował, żeby jego wydawca Murray dostarczył bardzo dużo egzemplarzy
autorskich książki, i sam rozesłał je wraz z listami umniejszającymi jego rolę.
Jednak pisząc książkę, w istocie bardzo się starał minimalizować
jakiekolwiek obiekcje teologiczne. Dowodził, że świat rządzony prawami
przyrody jest doskonalszy od tego rządzonego arbitralnymi cudami, ale wciąż
wierzył w odległe bóstwo, a w O pochodzeniu gatunków zrobił wszystko, co
mógł, żeby wywrzeć wrażenie, iż jego teoria nie była krokiem w kierunku
ateizmu. Miał natomiast nadzieję pokazać, że przyroda działa na rzecz
długookresowej korzyści istot żywych, kierując gatunki ku postępowi
w stronę umysłowej i fizycznej „doskonałości” w sposób zgodny z ideą
życzliwego Stwórcy.
„Jest pewna wspaniałość w tym poglądzie, że życie […] – napisał – zostało
pierwotnie tchnięte w kilka form lub w jedną […] podczas gdy planeta
krążyła zgodnie z niezmiennym prawem grawitacji, z tak prostego początku
zaś wyewoluowały i nadal ewoluują nieskończone jego formy najpiękniejsze
i najbardziej cudowne”290.

***

Reakcja na publikację O pochodzeniu gatunków nie była wyciszona.


Na przykład jego dawny mentor, profesor Sedgwick z Cambridge, napisał:
„Przeczytałem Pańską książkę bardziej z bólem niż z przyjemnością […]
a niektóre części przeczytałem z absolutnym smutkiem, ponieważ sądzę, iż są
one całkowicie fałszywe i niezmiernie szkodliwe”291.
Mimo to przedstawiające doskonalszą teorię, lepiej popartą dowodami
i w nieco bardziej sprzyjającym momencie O pochodzeniu gatunków nie
wzbudziło tyle gniewu co Ślady. W ciągu dziesięciu lat debata tocząca się
wśród naukowców w znacznym stopniu się zakończyła, a w chwili śmierci
Darwina, dziesięć lat później, ewolucja była niemal powszechnie
akceptowanym i dominującym wątkiem myśli wiktoriańskiej.
Darwin był już szanowanym naukowcem, ale wraz z publikacją tej książki
stał się postacią publiczną, podobnie jak Newton po opublikowaniu
Principiów. Spadł na niego deszcz dowodów międzynarodowego uznania
i zaszczytów. Otrzymał prestiżowy Medal Copleya od Royal Society;
przyznano mu doktoraty honorowe zarówno Oksfordu, jak i Cambridge;
został odznaczony Orderem Zasługi przez króla Prus; wybrano go na członka
korespondenta zarówno Imperialnej Akademii Nauk w Sankt Petersburgu,
jak i Francuskiej Akademii Nauk; przyznano mu honorowe członkostwo
w Imperialnym Towarzystwie Przyrodników w Moskwie, a także
w Południowoamerykańskim Towarzystwie Misjonarskim Kościoła Anglii.
Wpływ tego uczonego, tak jak Newtona, sięgał daleko poza jego teorie
naukowe, oddziałując na bardzo różne i niezwiązane ze sobą aspekty życia.
Jak napisali pewni historycy: „Darwinizm stał się synonimem naturalizmu,
materializmu albo filozofii ewolucyjnej. Odpowiadał za konkurencję
i kooperację, wyzwolenie i podporządkowanie, postęp i pesymizm, wojnę
i pokój. Polityka darwinowska mogła być liberalna, socjalistyczna albo
konserwatywna, jego religia – ateistyczna albo ortodoksyjna”292.

Darwin w latach trzydziestych, pięćdziesiątych i siedemdziesiątych XIX wieku


(Dzięki uprzejmości Richarda Leakeya i Rogera Lewina/Wikimedia Commons;
Maull and Polyblank/Wikimedia Commons i Robert Ashby Collection/Wikimedia
Commons)

Jednak z perspektywy nauki dzieło Darwina, podobnie jak dzieło Newtona,


było jedynie początkiem. Jego teoria zaproponowała fundamentalną zasadę
rządzącą sposobem, w jaki cechy charakterystyczne gatunków zmieniają się
w czasie w odpowiedzi na presję środowiskową, ale naukowcy jego epoki nie
mieli nadal żadnego pojęcia o tym, jak funkcjonuje dziedziczenie.
Jak na ironię, właśnie gdy dzieło Darwina prezentowane było w Linnean
Society, Gregor Mendel (1822–1884), naukowiec i zakonnik z klasztoru
w Brnie znajdującego się dziś w Czechach, przeprowadzał ośmioletni
program eksperymentów, które miały zasugerować mechanizm
dziedziczenia, przynajmniej w abstrakcyjnym ujęciu293. Mendel
zaproponował, że proste cechy są determinowane przez dwa geny, z których
po jednym wnosi każdy z rodziców. Jednak praca Mendla miała się
upowszechniać powoli, a wieści o niej nigdy nie dotarły do Darwina.
Zrozumienie materialnej realizacji mechanizmu opisanego przez Mendla
wymagało nowych osiągnięć dwudziestowiecznej fizyki, takich jak
wykorzystanie dyfrakcji promieniowania X, mikroskopu elektronowego czy
tranzystorów umożliwiających skonstruowanie komputerów cyfrowych. Te
technologie miały w końcu ujawnić szczegółową strukturę cząsteczek DNA
i genomu oraz pozwoliły prowadzić badania genetyczne na poziomie
molekularnym, umożliwiając w końcu naukowcom zrozumienie
praktycznych aspektów dziedziczenia i ewolucji.
Nawet to jest jednak tylko początkiem. Biologia dąży do zrozumienia życia
na wszystkich jego poziomach, aż do samej struktury komórki i reakcji
biochemicznych w niej zachodzących – atrybutów życia, które są najbardziej
bezpośrednimi skutkami informacji genetycznej, jaką w sobie przenosimy.
Ten wielki cel, nie mniej niż odwrotna inżynieria życia, leży niewątpliwie –
podobnie jak zunifikowana teoria wszystkiego fizyków – w odległej
przyszłości. Niezależnie jednak od tego, jak dobrze zrozumiemy mechanizmy
życia, centralną zasadą organizującą biologii prawdopodobnie zawsze
pozostanie to dziewiętnastowieczne objawienie – teoria ewolucji.
Sam Darwin nie był najlepiej przystosowanym okazem, ale dożył późnego
wieku. W ostatnich latach jego chroniczne problemy ze zdrowiem nieco
zelżały, choć nieustannie był zmęczony. Mimo to pracował aż do samego
końca, publikując swój ostatni artykuł – Tworzenie się próchnicy roślinnej
wskutek działania robaków – w 1881 roku. W tym samym roku zaczął
odczuwać bóle w klatce piersiowej po wysiłku, a podczas świąt Bożego
Narodzenia doznał ataku serca. Wiosną następnego roku, 18 kwietnia, miał
kolejny atak serca i ledwie przywrócono go do przytomności. Mamrotał, że
nie boi się umierać, i kilka godzin później, około czwartej następnego ranka,
zmarł. Miał siedemdziesiąt trzy lata. W jednym ze swoich ostatnich listów
napisanych do Wallace’a stwierdził: „Mam wszystko, co czyni mnie
szczęśliwym i zadowolonym, ale życie stało się bardzo męczące”294.

243 Anthony Serafini, The Epic History of Biology, Perseus, Cambridge 1993, s. 126.

244 E. Bianconi et al., An Estimation of the Number of Cells in the Human Body,
„Annals of Human Biology”, nr 40 (listopad–grudzień 2013), s. 463–471.

245 Lee Sweetlove, Number of Species on Earth Tagged at 8.7 Million, „Nature”, 23
sierpnia 2011 r.

246 The Food Defect Action Levels, Defect Levels Handbook, U.S. Food and Drug
Administration, dostęp: 28 października 2014 r.,
http://www.fda.gov/food/guidanceregulation/guidancedocumentsregulatoryinformation/ucm056174.htm

247 Ibidem.

248 Microbiome: Your Body Houses 10x More Bacteria Than Cells, Discover, b.d.,
dostęp: 28 października 2014 r., http://discovermagazine.com/galleries/zen-
photo/m/microbiome.

249 O dziele Arystotelesa w zakresie biologii zob. Joseph Singer, A History of Biology to
About the Year 1900, Abelard-Schuman, Nowy Jork 1959; Lois Magner, A History of the
Life Sciences, wyd. 3, Marcel Dekker, Nowy Jork 2002.

250 Paulin J. Hountondji, African Philosophy, wyd. 2, Indiana University Press,


Bloomington 1996, s. 16.

251 Daniel Boorstin, Odkrywcy. Dzieje ludzkich odkryć i wynalazków, przeł. M. Stopa,
Grupa Wydawnicza Bertelsmann Media, Warszawa 2001, s. 307.

252 Lois Magner, History of the Life Sciences, op. cit., s. 144.

253 Ruth Moore, The Coil of Life, Knopf, Nowy Jork 1961, s. 77.

254 Tita Chico, Gimcrack’s Legacy: Sex, Wealth, and the Theater of Experimental
Philosophy, „Comparative Drama”, nr 42 (wiosna 2008), s. 29–49.
255 O pracy Leeuwenhoeka nad mikroskopem zob. Ruth Moore, The Coil of Life, op. cit.

256 Daniel Boorstin, Odkrywcy, op. cit., s. 309.

257 Ruth Moore, The Coil of Life, op. cit., s. 79.

258 Daniel Boorstin, Odkrywcy, op. cit., s. 310.

259 Ruth Moore, The Coil of Life, op. cit., s. 81.

260 Adriana Stuijt, World’s First Microscope Auctioned Off for 312,000 Pounds,
„Digital Journal”, 8 kwietnia 2009 r., dostęp: 7 listopada 2014 r.,
http://www.digitaljournal.com/article/270683; Gary J. Laughlin, Editorial: Rare
Leeuwenhoek Bids for History, „The Microscope” 2009, nr 57, s. ii.

261 Ruth Moore, The Coil of Life, op. cit., s. 87

262 Antony van Leeuwenhoek (1632–1723), University of California Museum of


Paleontology, dostęp: 28 października 2014 r.,
http://www.ucmp.berkeley.edu/history/leeuwenhoek.html.

263 W opisie życia Darwina opieram się przede wszystkim na: Ronald W. Clark, The
Survival of Charles Darwin: A Biography of a Man and an Idea, Random House, Nowy
Jork 1984; Adrian Desmond, James Moore i Janet Browne, Charles Darwin, Oxford
University Press, Oksford 2007; Peter J. Bowler, Charles Darwin: The Man and His
Influence, Cambridge University Press, Cambridge 1990.

264 Charles Darwin, Westminster Abbey, dostęp: 28 października 2014 r.,


http://www.westminster-abbey.org/our-history/people/charles-darwin.

265 Ronald L. Clark, Survival of Charles Darwin, op. cit., s. 115.

266 Ibidem, s. 119.

267 Ibidem, s. 15.

268 Ibidem, s. 8.
269 Charles Darwin to W.D. Fox, October 1852, Darwin Correspondence Project, letter
1489, dostęp 28 października 2014 r., http://www.darwinproject.ac.uk/letter/entry-1489.

270 Roland L. Clark, Survival of Charles Darwin, op. cit., s. 10.

271 Ibidem, s. 15.

272 Ibidem, s. 27.

273 Peter J. Bowler, Charles Darwin: The Man, op. cit., s. 50, 53–55.

274 Charles Darwin to W.D. Fox, August 9–12, 1835, Darwin Correspondence Project,
letter 282, dostęp: 28 października 2014 r., http://www.darwinproject.ac.uk/letter/entry-
282.

275 Adrian Desmond, James Moore i Janet Browne, Charles Darwin, op. cit., s. 25, 32–
34.

276 Ibidem, s. 42.

277 Peter J. Bowler, Charles Darwin, op. cit., s. 73.

278 Adrian J. Desmond, Darwin, W.W. Norton, Nowy Jork 1994, s. 375–385.

279 Wspomnienie Karola Darwina o Anne Elizabeth Darwin, The Death of Anne
Elizabeth Darwin, dostęp: 28 października 2014 r., http://www.darwinproject.ac.uk/death-
of-anne-darwin.

280 Adrian Desmond, James Moore i Janet Browne, Charles Darwin, op. cit., s. 44.

281 Ibidem, s. 47.

282 Ibidem, s. 48.

283 Ibidem, s. 49.

284 Jako jej autora oficjalnie przedstawiono Roberta Chambersa, wydawcę popularnych
czasopism z Edynburga, dopiero w 1884 roku, trzynaście lat po jego śmierci, ale Darwin
domyślił się, że to Chambers napisał tę książkę, po spotkaniu z nim w 1847 roku.

285 Anonymous [David Brewster], Review of Vestiges of the Natural History of


Creation, „North British Review”, nr 3 (maj–sierpień 1845), s. 471.

286 Evelleen Richards, ‘Metaphorical Mystifications’: The Romantic Gestation of


Nature in British Biology, w: Romanticism and the Sciences, red. Andrew Cunningham i
Nicholas Ardine, Cambridge University Press, Cambridge 1990, s. 137.

287 Karol Darwin, Listy wybrane, przeł. T. Opalińska, Prószyński i S-ka, Warszawa
1999, s. 282.

288 Adrian J. Desmond, Darwin, op. cit., s. 470.

289 Adrian Desmond, James Moore i Janet Browne, Charles Darwin, op. cit., s. 65.

290 Peter J. Bowler, Charles Darwin, op. cit., s. 124–125.

291 Roland W. Clark, Survival of Charles Darwin, op. cit., s. 138–139.

292 Adrian Desmond, James Moore i Janet Browne, Charles Darwin, op. cit., s. 107.

293 Zob. Lois Magner, History of the Life Sciences, op. cit., s. 376–395.

294 Darwin to Alfred Russel Wallace, July 1881, cyt. w: Peter J. Bowler, Charles
Darwin, op. cit., s. 207.
Część III

Poza zasięgiem ludzkich zmysłów

Najlepszy czas, by żyć, jest wtedy, gdy niemal wszystko, co – jak


sądziliśmy – było nam wiadome, okazało się błędem.
— Tom Stoppard, Arkadia, 1993
10.

Granice ludzkiego doświadczenia

Dwa miliony lat temu ludzie stworzyli pierwszy wielki wynalazek:


nauczyliśmy się zmieniać kamień w narzędzie do cięcia. Był to nasz pierwszy
eksperyment z przymuszaniem przyrody, by służyła naszym potrzebom,
i właściwie żadne odkrycie od tamtego czasu nie stanowiło równie wielkiego
objawienia ani w porównywalnym stopniu nie zmieniło naszego życia.
Natomiast sto lat temu dokonano przełomu, który miał niemal równą siłę
i znaczenie. Podobnie jak użycie kamienia dotyczyło czegoś, co jest obecne
wszędzie, czegoś, co było tuż przed naszymi oczami, choć niewidoczne, od
samego początku czasu. Mam na myśli atom – i dziwne prawa kwantowe,
które nim rządzą.
Teoria atomu jest oczywiście kluczem do zrozumienia chemii, ale wiedza
uzyskana dzięki badaniom świata atomowego zrewolucjonizowała również
fizykę i biologię. Gdy naukowcy zaakceptowali realność atomu i zaczęli
odszyfrowywać działanie rządzących nim praw, dotarli do wielkiej wiedzy,
która przekształciła społeczeństwo, rzucając światło na kwestie sięgające od
fundamentalnych sił i cząstek przyrody po DNA i biochemię życia,
umożliwiając stworzenie nowych technologii, które ukształtowały
współczesny świat.
Mówi się o rewolucji technologicznej, rewolucji komputerowej, rewolucji
informacyjnej i epoce nuklearnej, ale w końcu wszystko to sprowadza się do
jednego: zmiany atomu w narzędzie. Dziś nasza zdolność do manipulowania
atomami jest tym, co umożliwia właściwie wszystko, od telewizji po
światłowody, które przenoszą sygnał telewizyjny, od telefonów po
komputery, od technologii Internetu po maszyny do rezonansu
magnetycznego. Wykorzystujemy nawet naszą wiedzę o atomach do
wytwarzania światła – na przykład żarówki emitują światło, gdy elektrony
w atomach pobudzone przez prąd elektryczny wykonują „przeskoki
kwantowe” na niższe poziomy energetyczne. Dziś nawet najbardziej na pozór
przyziemne z urządzeń – kuchenki, zegarki, termostaty – zawierają
komponenty, których zaprojektowanie i zrozumienie wymaga znajomości
fizyki kwantowej.
Ta wielka rewolucja, która doprowadziła nas do zrozumienia
funkcjonowania atomu i praw kwantowych świata atomowego, datuje się na
początek XX wieku. Już wiele lat wcześniej zauważono, że to, co nazywamy
dziś „fizyką klasyczną” (fizyką opartą na newtonowskich prawach ruchu,
a nie na prawach kwantowych), nie wyjaśnia zjawiska określanego jako
promieniowanie ciała doskonale czarnego, które – jak wiemy – zależy od
kwantowych własności atomu. Ta pojedyncza porażka teorii newtonowskiej
nie została uznana od razu za poważne ostrzeżenie. Sądzono natomiast, że
fizycy w jakiś sposób mylą się, jeśli chodzi o zastosowanie jej do tego
problemu, i że kiedy zrozumieją, jak należy to zrobić, promieniowanie ciała
doskonale czarnego stanie się zrozumiałe w ramach klasycznej teorii. Jednak
w końcu odkryto inne zjawiska atomowe, które również opierały się
wyjaśnieniu za pomocą teorii newtonowskiej, a wreszcie uczeni zdali sobie
sprawę, że muszą obalić znaczną część teorii Newtona, tak samo jak
wcześniejsze pokolenia musiały zdetronizować teorię Arystotelesa.
Rewolucja kwantowa zaszła w burzliwym okresie dwudziestu lat. To, że
dokonała się w ciągu dziesięcioleci, a nie stuleci albo tysiącleci, jest
świadectwem wielkiej liczby naukowców pracujących nad tym problemem,
a nie wskazówką, że nowy sposób myślenia był cokolwiek łatwiejszy do
przyjęcia. W istocie nowa filozofia kryjąca się za teorią kwantową jest wciąż
w pewnych obszarach przedmiotem żywej dyskusji. Obraz świata, który
powstał po tych dwudziestu latach, jest bowiem herezją dla każdego, kto tak
jak Einstein lekceważy rolę przypadku w wywoływaniu zdarzeń albo wierzy
w zwykłe prawa skutku i przyczyny.

***

Drażliwe zagadnienie przyczynowości w kwantowym Wszechświecie


powstało dopiero pod koniec rewolucji kwantowej i zajmiemy się nim
później. Był jednak inny problem, który miał charakter zarówno filozoficzny,
jak i praktyczny, a który pojawiał się od samego początku: atomy były
zdecydowanie za małe, żeby je zobaczyć albo zmierzyć pojedynczo – dopiero
pod koniec XX wieku naukowcy po raz pierwszy „zobaczyli” obraz
cząsteczki295. W rezultacie w XIX wieku wszystkie eksperymenty dotyczące
atomów mogły ujawnić jedynie te zjawiska, które spowodowane były
w najlepszym razie typowym zachowaniem ogromnej liczby tych maleńkich
niewidocznych obiektów. Czy uprawnione było uznawanie
nieobserwowalnych obiektów za rzeczywiste?
Pomimo pracy Daltona dotyczącej atomów niewielu naukowców tak
sądziło. Nawet ci chemicy, którzy stosowali to pojęcie, ponieważ pomagało
im w zrozumieniu zjawisk, jakie mogli obserwować i mierzyć, zazwyczaj
używali go jako hipotezy roboczej: to znaczy przyjmowali, że reakcje
chemiczne przebiegają, jak gdyby były spowodowane przemieszczaniem się
atomów tworzących ich czynniki. Inni sądzili, że atomy są pojęciem
odpowiednim dla filozofii, a nie dla nauki, i dążyli do całkowitego
wyeliminowania tej idei. Jak stwierdził niemiecki chemik Friedrich Wilhelm
Ostwald: są to „hipotetyczne przypuszczania, które nie prowadzą do żadnych
obserwowalnych konkluzji”296.
To wahanie jest zrozumiałe, ponieważ przed stuleciami drogi nauki
i filozofii się rozeszły właśnie z uwagi na dylemat, czy koncepcje dotyczące
przyrody muszą zostać wsparte przez eksperyment i obserwację. Obstając
przy weryfikowalności jako kryterium akceptacji jakichkolwiek hipotez,
naukowcy mogli wyeliminować antyczne spekulacje jako albo
niesprawdzalne, albo – jak podczas sprawdzania wielu teorii Arystotelesa –
błędne. Na ich miejsce pojawiły się prawa matematyczne, które prowadziły
do trafnych przewidywań ilościowych.
Istnienie atomów nie jest bezpośrednio sprawdzalne, ale hipoteza
zakładająca ich istnienie prowadzi do sprawdzalnych praw, a te prawa
okazały się ważne – na przykład pojęcie atomu można było wykorzystać do
wyprowadzenia za pomocą rozumowań matematycznych zależności między
temperaturą i ciśnieniem gazów. Co zatem zrobić z atomem? Było to
metapytanie tej epoki. Odpowiedź nie była jasna, a w rezultacie przez
większą część XIX wieku atom zachował istnienie jako widmowy duch
spoczywający na barkach fizyków, coś nienamacalnego, co szeptało im do
ucha tajemnice przyrody.
Kwestię atomu rozwiązano w końcu w tak zdecydowany sposób, że dziś nie
jest to już w ogóle żadna kwestia: wiemy, że jeśli nauka ma dokonywać
postępów, musi koncentrować się na tym, co pozostaje poza naszym
bezpośrednim doświadczeniem zmysłowym. Na początku XXI wieku nasza
akceptacja dla niewidzialnego świata posunęła się tak daleko, że nikt się nie
wzdragał, kiedy ogłoszono odkrycie słynnej „cząstki Higgsa”, nawet jeśli
nikt nigdy nie widział jej na oczy ani nawet nie zaobserwował namacalnego
rezultatu oddziaływania cząstek Higgsa z jakąś aparaturą, która mogła
uwidocznić je pośrednio – w taki sposób, na przykład, w jaki ekran
fluorescencyjny sprawia, że elektrony są „widoczne”, ponieważ żarzy się,
gdy weń uderzają.
Natomiast dowód, że cząstka Higgsa istnieje, jest dowodem
matematycznym, wyprowadzonym z pewnych identyfikujących ją
numerycznych cech charakterystycznych danych elektronicznych. Te dane
były generowane przez produkty uboczne, takie jak promieniowanie – które
powstało z ponad trzystu bilionów zderzeń proton–proton – i zostały
przeanalizowane statystycznie długo po tym fakcie, dzięki zastosowaniu
niemal dwustu urządzeń obliczeniowych w trzydziestu krajach. To właśnie
dziś mają fizycy na myśli, kiedy mówią: „Widziałem cząstkę Higgsa”.
Kiedy naukowcy „zobaczyli” w podobny sposób cząstki Higgsa i inne
cząstki subatomowe, niepodzielny kiedyś atom zaczął przypominać cały
wszechświat obiektów, miliard miliardów takich wszechświatów w każdej
kropli wody, maleńkich światów nie tylko niewidzialnych dla nas, ale też
oddalonych od bezpośredniej obserwacji przez człowieka o kilka poziomów.
Zapomnijcie zatem o wyjaśnieniu teorii bozonu Higgsa
dziewiętnastowiecznemu fizykowi – mielibyście kłopot z wytłumaczeniem
mu, co macie na myśli, kiedy twierdzicie, że go „widzieliśmy”.
Dzięki uprzejmości Science Museum, London/Wikimedia Commons
Laboratorium fizyczne do badania cząstek elementarnych materii w 1926 roku
i dziś (położenie pierścienia akceleratora mającego prawie dwadzieścia osiem
kilometrów obwodu i umieszczonego kilkadziesiąt metrów pod ziemią zostało
ukazane za pomocą białego okręgu).(Dzięki uprzejmości Maximiliena Brice’a
(CERN)/Wikimedia Commons)

Ten nowy styl obserwacji, oderwany od ludzkiego doświadczenia


zmysłowego, stworzył nowe wymogi dla naukowców. Nauka Newtona
opierała się na tym, co można było dostrzec za pomocą zmysłów,
wspomaganych może przez mikroskop albo teleskop, ale nadal z ludzkim
okiem na jednym ich końcu. Nauka dwudziestowieczna miała poświęcić się
obserwacji, przyjmując jednak znacznie szerszą definicję „widzenia”,
obejmującą pośrednie dowody statystyczne, takie jak te przemawiające za
istnieniem cząstki Higgsa. Z uwagi na tę nową postawę wobec tego, co to
znaczy „widzieć”, dwudziestowieczni fizycy stworzyli obrazy umysłowe
odpowiadające teoriom, które zawierają dziwaczne, awangardowe pojęcia
takie jak kwant, pojęcia, które znacznie wykraczają poza ludzkie
doświadczenie, są natomiast zakorzenione w abstrakcyjnej matematyce.
Nowy sposób uprawiania fizyki odzwierciedla się w nasilającym się
podziale wśród fizyków. Narastająca rola ezoterycznej matematyki
w teoriach fizycznych z jednej strony i coraz większe techniczne
wyrafinowanie eksperymentów z drugiej sprzyjają coraz większemu
rozdzieleniu formalnych specjalizacji fizyki eksperymentalnej i teoretycznej.
W mniej więcej tym samym czasie sztuki wizualne ewoluowały
w porównywalny sposób, powodując rozziew między tradycyjnymi artystami
uprawiającymi sztukę przedstawiającą i pionierami kubizmu oraz abstrakcji,
takimi jak Cézanne, Braque, Picasso i Kandinsky, którzy – podobnie jak
nowi zwolennicy teorii kwantowej – „widzieli” świat na radykalnie nowe
sposoby.
Również w literaturze i muzyce nowy duch kwestionował zastane normy
sztywnej dziewiętnastowiecznej Europy. Strawinski i Schönberg podważyli
założenia zachodniego systemu tonu i rytmu; Joyce i Woolf oraz ich
odpowiednicy na kontynencie eksperymentowali z formami narracyjnymi.
W 1910 roku filozof, psycholog i pedagog John Dewey napisał, że krytyczne
myślenie często „wymaga zgody na przebycie stanu myślowego niepokoju
i zakłopotania”297. Jest to prawda nie tylko w odniesieniu do krytycznego
myślenia, lecz także stosuje się do wysiłków twórczych. Niezależnie od tego,
czy uprawiali naukę, czy sztukę, żadnemu z tych pionierów nie było łatwo.

***

Obraz nauki z początków XX wieku, który właśnie nakreśliłem, został


przedstawiony na zasadzie mądrości po fakcie. Fizycy badający atom pod
koniec XIX wieku nie zdawali sobie sprawy z tego, co nadchodzi. W istocie,
zadziwia, gdy spojrzy się wstecz i zauważy, że mimo iż zegarowa bomba
atomowa tykała u ich drzwi, badacze ci postrzegali swoją dziedzinę jako
mniej lub bardziej ustaloną i doradzali młodym studentom, żeby unikali
fizyki, ponieważ nic ekscytującego nie zostało w niej do zrobienia.
Na przykład dziekan wydziału fizyki na Harvardzie był znany z tego, że
zniechęcał obiecujących studentów, mówiąc im, iż wszystko, co ważne,
zostało już odkryte. Za oceanem dziekan wydziału fizyki na uniwersytecie
w Monachium ostrzegał w 1875 roku, że nie warto jej studiować, ponieważ
„fizyka jest dziedziną wiedzy, która niebawem będzie dziedziną
kompletną”298. Jeśli chodzi o zdolność przewidywania, ta rada przypominała
oświadczenie budowniczych Titanica, że statek jest „niemal tak doskonały,
jak mogą go uczynić ludzkie mózgi”. Fizyka około 1900 roku, tak jak
Titanic, była uznawana za nienaruszalną, a jednak ta jej wersja, którą
uprawiano w tamtej epoce, skazana była na zatonięcie.
Jednym ze studentów, którzy dostali tę oszałamiającą poradę od dziekana
wydziału fizyki z Monachium, był Max Planck (1858–1947)299. Planck,
szczupły, niemal wychudzony młody człowiek, który już w swoich młodych
latach łysiał i nosił okulary, promieniował powagą niewspółgrającą z jego
wiekiem. Urodzony w Kilonii w Niemczech był potomkiem długiej linii
pastorów, uczonych i prawników, i doskonale odpowiadał stereotypowi
dziewiętnastowiecznego fizyka: pilny, obowiązkowy i – jak sam to ujął –
„niemający skłonności do wątpliwych przygód”300. Nie są to słowa, jakich
można by się spodziewać po człowieku, którego prace miały pewnego dnia
obalić fizykę Newtona, ale Planck nie planował wywołania rewolucji.
W istocie przez wiele lat nie popierał nawet ruchu, który zainicjowało jego
własne odkrycie.
Choć nie miał skłonności do przygód, rozpoczął swoją karierę przypadkiem
– zignorował radę dziekana wydziału fizyki i zapisał się na ten kierunek.
Do studiowania fizyki zainspirował go nauczyciel szkoły średniej, który
wpoił mu pasję do „badania harmonii panującej między ścisłością
matematyki i wielością praw przyrody”301, a wierzył w siebie wystarczająco
mocno, żeby realizować swoją pasję. Wiele lat później miał powiedzieć
jednemu ze studentów: „Moją maksymą było zawsze: rozważaj starannie
z góry każdy krok, ale potem, jeśli jesteś przekonany, że możesz wziąć za
niego odpowiedzialność, niech nic cię nie powstrzyma”302. To oświadczenie
nie ma buńczuczności klasycznego sloganu reklamowego firmy Nike „Just
do it” ani śmiałych stwierdzeń, jakie zwykliśmy słyszeć od sportowców, ale
na swój sposób, cichy i konwencjonalny, Planck udzielił głosu tej samej
wewnętrznej sile.
Zdecydowawszy się na fizykę, Planck musiał wybrać temat swojej
rozprawy doktorskiej. I tu znów dokonał śmiałego i krytycznego wyboru.
Wybrał termodynamikę – fizykę ciepła. Był to wówczas dość mętny obszar
fizyki, ale to właśnie on początkowo zainspirował go w szkole średniej,
a Planck znów zdecydował się pójść raczej za swoimi zainteresowaniami niż
pracować nad czymś, co było modne.
W tym czasie garstka naukowców, którzy zaakceptowali atom, zaczynała
rozumieć mechanizm kryjący się za termodynamiką jako statystyczny
rezultat ruchu poszczególnych atomów. Na przykład jeśli w jakimś
momencie mamy do czynienia z chmurą dymu ograniczoną do małego
obszaru, to termodynamika mówi nam, że w późniejszym czasie będzie się
ona raczej rozszerzała, niż koncentrowała. Ten proces definiuje to, co fizycy
nazywają „strzałką czasu” – przyszłość jest kierunkiem w czasie, w którym
dym się rozprasza, natomiast przeszłość jest kierunkiem, w którym się on
koncentruje. Jest to zagadkowe, ponieważ prawa ruchu stosujące się do
każdego poszczególnego atomu w chmurze dymu (i w powietrzu) nie dają
żadnej wskazówki dotyczącej tego, który kierunek czasu jest przyszłością,
a który przeszłością. Jednak zjawisko to można wyjaśnić, stosując analizę
statystyczną atomów: „strzałka czasu” jest widoczna tylko wtedy, kiedy
obserwuje się skumulowany efekt wielu atomów303.
Planck nie lubił argumentów tego rodzaju. Postrzegał atom jako fantazję
i za cel doktoratu postawił sobie wydobycie konkretnych i sprawdzalnych
wyników z zasad termodynamiki bez zakładania pojęcia atomu – w istocie
bez przyjmowania jakichkolwiek założeń dotyczących wewnętrznej struktury
substancji. „Pomimo wielkich sukcesów, jakimi teoria atomu cieszyła się
dotychczas – napisał – w końcu zostanie ona zarzucona na rzecz założenia
o ciągłości materii”304.
Planck z pewnością nie był jasnowidzem. Ostatecznie zarzucona miała
zostać nie teoria atomu, tylko opór wobec niej. W istocie w końcu jego praca
miała być traktowana jako dowód na rzecz, a nie przeciwko istnieniu
atomów.
Ponieważ moje nazwisko trudno jest przeliterować i wymówić, kiedy
zamawiam coś w restauracji, często robię to pod nazwiskiem Maxa Plancka.
Bardzo rzadko to nazwisko jest rozpoznawane, ale pewnego razu, gdy ktoś je
rozpoznał, zapytano mnie, czy jestem spokrewniony z „tym gościem, który
wynalazł teorię kwantową”. Odpowiedziałem: „Ja jestem tym gościem”.
Kelner, który był po dwudziestce, nie uwierzył mi. Powiedział, że jestem za
młody. „Teoria kwantowa została wynaleziona około 1960 roku – stwierdził.
– To było podczas II wojny światowej jako część projektu Manhattan”.
Nie rozmawialiśmy dłużej, ale kwestią, o której miałbym ochotę
pogawędzić, był nie zamęt dotyczący historii, ale raczej niejasność co do
tego, co to znaczy „wynaleźć” teorię w fizyce. Słowo „wynaleźć” oznacza
stworzyć coś, co wcześniej nie istniało. Natomiast odkryć oznacza
uświadomić sobie coś, co wcześniej nie było znane. Można patrzeć na teorię
na oba sposoby – jako struktury matematyczne, które naukowcy wynajdują,
żeby opisać świat, albo jako na sposoby wyrażania praw przyrody, które
istnieją niezależnie od nas i które naukowcy odkrywają.
Po części jest to pytanie metafizyczne: W jakim stopniu powinniśmy
traktować obrazy nakreślone przez nasze teorie jako dosłowną rzeczywistość
(którą odkrywamy), w przeciwieństwie do jedynie modeli (które
wynajdujemy) świata, który równie dobrze mógłby zostać ujęty w modelu
w inny sposób, powiedzmy, przez ludzi (albo obcych) myślących inaczej niż
my. Poza kwestiami filozoficznymi rozróżnienie wynalazku i odkrycia ma
jeszcze inny wymiar, związany z procesem: dokonujemy odkryć dzięki
eksploracjom, a często przypadkiem; wynalazków natomiast dokonujemy
dzięki zaplanowanemu projektowaniu i konstrukcji, a przypadek odgrywa
mniejszą rolę niż metoda prób i błędów.
Z pewnością Einstein, kiedy wystąpił ze swoją teorią względności,
wiedział, do czego się zabiera, można więc nazwać teorię względności
wynalazkiem. Natomiast z teorią kwantową było inaczej. W odniesieniu do
wielu kroków prowadzących do stworzenia teorii kwantowej najczęściej
„odkrycie” albo nawet „natknięcie się” będzie lepszym terminem niż
„wynalezienie”, a tym, na co (wielu) odkrywców się natykało, było często –
jak w wypadku Plancka – dokładnie coś przeciwnego, niż mieli nadzieję
i spodziewali się znaleźć – tak jakby Edison próbował wynaleźć sztuczne
światło, a zamiast niego odkrył sztuczną ciemność. Co więcej, jak przypadło
w udziale Planckowi, niekiedy badacze zupełnie nie rozumieli znaczenia
własnej pracy, a kiedy inni interpretowali ją za nich, wypowiadali się
przeciwko tym interpretacjom.
Planckowi nie udało się przekonująco wesprzeć ani istnienia, ani
nieistnienia atomów w swojej rozprawie doktorskiej z 1879 roku poświęconej
termodynamice. Co gorsza, donikąd go ona nie doprowadziła pod względem
zawodowym. Jego profesorowie z Monachium jej nie zrozumieli; Gustav
Kirchhoff, ekspert w dziedzinie termodynamiki z Berlina, ocenił ją błędnie;
a dwóch innych pionierów tej dziedziny, Hermann von Helmholtz i Rudolf
Clausius, odmówili jej przeczytania. Planck po tym, jak nie dostał żadnej
odpowiedzi na dwa listy, posunął się nawet do tego, że pojechał do Bonn, by
odwiedzić Clausiusa w jego domu, ale profesor go nie przyjął. Niestety, poza
tymi kilkoma fizykami, jeśli chodziło o termodynamikę – jak ujął to jeden
z kolegów Plancka – „nikt […] się nią w ogóle nie interesował”305.
Brak zainteresowania nie zniechęcił Plancka, choć przez następne kilka
ponurych lat mieszkał w domu rodziców i pracował na uniwersytecie jako
nieopłacany wykładowca, zdobywając niewielkie środki na utrzymanie – tak
jak Mendelejew – z opłat wnoszonych bezpośrednio przez studentów, którzy
uczęszczali na jego zajęcia.
Za każdym razem gdy o tym komuś wspominałem, patrzono na mnie
z zaskoczeniem. Z jakichś powodów ludzie spodziewają się, że na przykład
artyści będą tak bardzo kochać swoją sztukę, iż zdobędą się dla niej na
każdego rodzaju poświęcenie, mieszkając na najpodlejszym poddaszu czy
nawet – co najgorsze ze wszystkiego – z rodzicami, by nadal się nią
zajmować; ale ludzie nie postrzegają fizyków jako zdolnych do takiej
namiętności. Jednak na studiach znałem dwóch kolegów, którzy ponieśli
podobną porażkę jak Planck. Jeden z nich próbował niestety popełnić
samobójstwo. Inny przekonał wydział fizyki na Harvardzie, żeby pozwolono
mu pracować przy biurku w zatłoczonym pokoju bez wynagrodzenia. (Rok
później go zatrudniono). Trzeci student, którego nie znałem, został
wyrzucony z uczelni kilka lat wcześniej i od tego czasu przedstawiał swoje
ukochane (i całkowicie błędne) teorie różnym pracownikom wydziału, którzy
je ignorowali, a potem pojawił się pewnego dnia, zdeterminowany, by ich
przekonać – wymachując nożem. Został zatrzymany przez ochronę i nigdy
więcej już się nie pokazał. Popularna tradycja nie przekazuje słynnych
opowieści o samotnych, niedocenionych fizykach odcinających sobie ucho,
ale w ciągu trzech lat spędzonych na studiach w Berkeley zetknąłem się
z trzema historiami, za którymi kryła się namiętność do fizyki.
Planck, podobnie jak mój bezrobotny przyjaciel ze studiów, który
wylądował na Harvardzie, przeprowadził wystarczająco dużo badań podczas
swojego „wolontariatu”, tak że w końcu znalazł płatną pracę. Zajęło mu to
pięć lat. Dzięki wytrwałości, szczęściu i – jak twierdzą niektórzy –
interwencji ojca udało mu się dostać profesurę na uniwersytecie w Kilonii.
Cztery lata potem jego prace uznawano za wystarczająco imponujące, by
został powołany na uniwersytet w Berlinie, gdzie został mianowany pełnym
profesorem w 1892 roku, dzięki czemu dołączył do małej elitarnej kadry
zajmującej się termodynamiką. A był to jedynie początek.

***

W Berlinie pasja badawcza Plancka koncentrowała się bezpośrednio na


zrozumieniu termodynamiki w kontekście, w którym nie trzeba „uciekać się”
do pojęcia atomu – to znaczy w takim, w którym substancje uważa się za
„nieskończenie podzielne”, a nie złożone z dyskretnych elementów
składowych. Pytanie, czy można to zrobić, było – jego zdaniem – najbardziej
palącym pytaniem w całej fizyce, a w świecie akademickim Plancka nie
znalazł się szef, który mógłby mu powiedzieć – w końcu wprost – że jest
inaczej. Na szczęście, ponieważ jego myśl tak bardzo odbiegała od głównego
nurtu fizyki, że latem 1900 roku, zaledwie kilka miesięcy przed ogłoszeniem
swojego przełomowego odkrycia, które miało wstrząsnąć światem, oficjalny
historyk międzynarodowego zjazdu fizyków w Paryżu wyraził opinię, że
poza Planckiem na całym świecie były co najwyżej trzy inne osoby, które
sądziły, iż jest to pytanie warte rozważania. Wydawałoby się, że bardzo mało
zmieniło się w ciągu dwudziestu jeden lat, jakie upłynęły od czasu, gdy
przedłożył swój doktorat.
W nauce, podobnie jak w innych dziedzinach, jest mnóstwo zwykłych ludzi
stawiających zwykłe pytania, i wielu z nich to właśnie wystarczy w życiu.
Natomiast odnoszący największe sukcesy badacze to często ci, którzy zadają
dziwne pytania, pytania, o których nie pomyślano albo które nie zostały
uznane przez innych za interesujące. Ku ich utrapieniu stawiający nietypowe
pytania traktowani będą przez ogół jako dziwni, ekscentryczni, może nawet
szaleni – dopóki nie nadejdzie czas, gdy świat dojrzy w nich geniuszy.
Oczywiście naukowiec, który pyta: „Czy Układ Słoneczny spoczywa na
grzbiecie gigantycznego łosia?”, również będzie oryginalnym myślicielem –
podobnie jak gość wymachujący nożem, o którym wspomniałem wyżej.
Kiedy więc spoglądamy na grupę myślicieli, trzeba być ostrożnym i tu
właśnie tkwi problem: ludzi, których pomysły są tylko dziwaczne, często nie
jest łatwo odróżnić od tych, których pomysły są dziwaczne, ale prawdziwe.
Albo dziwaczne, ale których przeznaczeniem jest doprowadzić, być może po
długim czasie i wielu błędnych krokach, do czegoś prawdziwego. Planck był
oryginalnym myślicielem stawiającym pytania, które nie wydawały się nawet
interesujące jego kolegom po fachu. Jednak miały się one okazać właśnie
tymi, na które klasyczna fizyka nie potrafiła odpowiedzieć.
Chemicy z XVIII wieku odkryli w badaniu gazów swego rodzaju kamień
z Rosetty, klucz, który doprowadził do odszyfrowania ważnych zasad
naukowych. Planck szukał własnego kamienia z Rosetty w promieniowaniu
ciała doskonale czarnego, zjawisku termodynamicznym, które Gustav
Kirchhoff zidentyfikował i nazwał w 1860 roku. Dziś „promieniowanie ciała
doskonale czarnego” jest dobrze znanym terminem wśród fizyków: jest to
forma promieniowania elektromagnetycznego emitowana przez ciało, które
jest dosłownie czarne i utrzymywane w pewnej stałej temperaturze.

Max Planck, około 1930 roku (Dzięki uprzejmości Wikimedia Commons)


„Promieniowanie elektromagnetyczne” brzmi skomplikowanie, nie mówiąc
już, że niebezpiecznie, jak coś, co drony wystrzeliwują nad obozami Al-
Kaidy. Jednak nazwa ta odnosi się do całej rodziny fal energii – na przykład
mikrofal, fal radiowych, światła widzialnego i ultrafioletowego, promieni X
i promieniowania gamma – które, gdy zostaną okiełznane, znajdują wiele
praktycznych zastosowań. Część z nich jest śmiercionośna, ale wszystkie są
częścią świata, którą musimy traktować jako coś oczywistego.
W czasach Kirchhoffa pojęcie promieniowania elektromagnetycznego było
wciąż nowe i tajemnicze. Teoria, która je opisywała – w kontekście praw
newtonowskich – pochodziła od szkockiego fizyka Jamesa Clerka Maxwella.
Maxwell jest dziś wciąż bohaterem fizyki, a na kampusach uniwersyteckich
nierzadko widzi się jego twarz albo równania na koszulkach studentów
fizyki. Powodem całego tego uwielbienia jest to, że w latach sześćdziesiątych
XIX wieku dokonał największej unifikacji w historii fizyki: wyjaśnił siły
elektryczne i magnetyczne jako przejawy tego samego zjawiska, „pola
elektromagnetycznego”, i ujawnił, że światło i inne formy promieniowania są
falami mającymi energię elektromagnetyczną. Dla fizyki wytłumaczenie
głębokich powiązań między różnymi zjawiskami, jak zrobił to Maxwell, jest
jedną z najbardziej ekscytujących rzeczy, jakich można dokonać.
To, że pewnego dnia pojawi się Maxwell, było nadzieją i marzeniem
Newtona, ponieważ Newton wiedział, że jego teoria nie jest kompletna.
Przedstawił on prawa ruchu, wyjaśniające, jak obiekty reagują na siłę, ale
w celu użycia tych praw musiał uzupełnić je oddzielnymi prawami siły,
prawami opisującymi każdą siłę działającą na rozważane obiekty. Newton
przedstawił prawa jednego rodzaju siły – grawitacji – ale wiedział, że muszą
też istnieć rodzaje siły.
W stuleciach po Newtonie dwie inne siły przyrody stopniowo się ujawniły
fizyce: elektryczność i magnetyzm. Tworząc ich ilościową teorię, Maxwell
w pewnym sensie dopełnił program newtonowski (czyli „klasyczny”) –
oprócz praw ruchu Newtona naukowcy mieli teraz teorie wszystkich sił, które
przejawiają się w naszym codziennym życiu. (W XX wieku odkryliśmy dwie
dodatkowe, oddziaływania „silne” i „słabe”, których efekty nie są widoczne
w naszym codziennym życiu, ale które działają na maleńkich obszarach jąder
atomowych).
Wcześniej, stosując prawo grawitacji Newtona wraz z prawami ruchu,
naukowcy mogli opisać tylko zjawiska grawitacyjne, takie jak orbity planet
i trajektorie pocisków artyleryjskich. Teraz, stosując teorię sił elektrycznych
i magnetycznych Maxwella w połączeniu z newtonowskimi prawami ruchu,
fizycy mogli analizować ogromny nowy wachlarz zjawisk takich jak
promieniowanie i jego oddziaływanie z materią. W istocie fizycy uwierzyli,
że wraz z dodaniem teorii Maxwella do swojego arsenału mogą wyjaśnić
w zasadzie każde bez wyjątku zjawisko naturalne, jakie obserwujemy
w świecie – stąd wybujały optymizm fizyki z końca XIX wieku.
Newton napisał, że istnieją „pewne siły, poprzez które cząstki ciała, za
sprawą pewnych nieznanych dotychczas przyczyn, albo są nawzajem
popychane jedna do drugiej i układają się w regularne figury, albo są
nawzajem odpychane od siebie i oddalają się od siebie”306. Te, jak był
przekonany, powodują „ruchy lokalne, których z uwagi na małość
poruszających się cząstek nie można wykryć […] [ale] jeśli ktoś miałby
szczęście odkryć wszystko to, mógłby niemal powiedzieć, że odsłonił całą
naturę ciał”307. To, co fizycy odkryli wraz z elektromagnetyzmem, spełniło
marzenie o zrozumieniu sił, które działają między najmniejszymi cząstkami
ciał – atomami – ale marzenie Newtona, żeby jego teoria stała się w ten
sposób zdolna do wyjaśnienia tych własności obiektów materialnych, nigdy
nie miało stać się rzeczywistością. Dlaczego? Dlatego że choć fizycy odkryli
prawa sił elektrycznych i magnetycznych, kiedy te prawa zostały
zastosowane do atomów, okazało się, że prawa ruchu Newtona nie działają.
Mimo że nikt nie uświadomił sobie tego w owym czasie, niedostatki fizyki
newtonowskiej ujawniły się najwyraźniej właśnie w tym zjawisku, które
Planck postanowił badać: promieniowaniu ciała doskonale czarnego. Gdy
bowiem fizycy zastosowali fizykę newtonowską do obliczenia, ile
promieniowania ciało to powinno wyemitować przy różnych
częstotliwościach, te obliczenia nie tylko okazały się błędne, ale też
prowadziły do absurdalnych wyników: że ciało doskonale czarne będzie
emitować nieskończoną ilość promieniowania o wysokiej częstotliwości.
Gdyby te obliczenia były prawidłowe, to zjawisko promieniowania ciała
doskonale czarnego oznaczałoby, że siedzenie przed ciepłym kominkiem
albo otwarcie drzwiczek gorącej kuchenki wystawiałoby nas nie tylko na
ciepło promieniowania podczerwonego o niskiej częstotliwości albo kojącą
poświatę czerwonego światła o nieco wyższej częstotliwości, lecz także na
niebezpieczne promieniowanie ultrafioletowe, promienie X i promieniowanie
gamma o wysokiej częstotliwości. A żarówka, która dopiero co została wtedy
wynaleziona, okazałaby się nie tyle użytecznym narzędziem służącym do
sztucznego oświetlenia, ile – z powodu promieniowania wynikającego z jej
podwyższonej temperatury pracy – bronią masowego rażenia.
Kiedy Planck zajął się tym tematem, choć wszyscy wiedzieli, że obliczenia
dotyczące ciała doskonale czarnego są błędne, nikt nie wiedział, dlaczego tak
jest. Tymczasem gdy większość fizyków zainteresowanych tym problemem
łamała sobie głowę, kilku skoncentrowało się na spreparowaniu różnych
równań matematycznych ad hoc, by opisać obserwacje pochodzące
z eksperymentów. Te równania dawały dla każdej częstotliwości
intensywność promieniowania emitowanego przez ciało doskonale czarne,
ale były one jedynie opisowe, sporządzone tak, by dawały niezbędne dane;
nie zostały wyprowadzone z teoretycznego zrozumienia problemu. I żadne
z nich nie było dokładne dla wszystkich częstotliwości.
Planck zaczął pracować nad wyzwaniem polegającym na podaniu trafnego
opisu promieniowania emitowanego przez ciała doskonale czarne w 1897
roku. Podobnie jak inni nie podejrzewał, że problem sugeruje, iż coś jest nie
tak z fizyką newtonowską, lecz raczej że opis fizyczny użyty dla materiału
ciała doskonale czarnego musi być zasadniczo wadliwy. Po kilku latach
pracy jednak do niczego nie doszedł.
W końcu postanowił działać na odwrót i tak jak fizycy zajmujący się fizyką
stosowaną po prostu znaleźć równanie, które będzie działać. Skoncentrował
się na dwóch formułach ad hoc – jednej, która była trafnym opisem światła
o niskiej częstotliwości emitowanego, gdy ciało doskonale czarne
promieniuje, i drugiej, odpowiedniej dla wysokich częstotliwości. Po długim
poszukiwaniu metodą prób i błędów udało mu się „zszyć” je ze sobą za
pomocą własnego równania ad hoc, eleganckiego matematycznego
wyrażenia, które wymyślił po prostu, żeby połączyć poprawne cechy obu.
Można pomyśleć, że jeśli spędzi się lata na pracy nad jakimś problemem,
zasługuje się w końcu na ważne odkrycie – takie jak kuchenka mikrofalowa
albo przynajmniej nowy sposób sporządzania popcornu. Wszystkim, do
czego doszedł Planck, było równanie, które, jak się wydawało – z nieznanych
powodów – działało całkiem dobrze, choć jego autor nie miał
wystarczających danych, żeby poddać siłę predykcyjną swojego równania
gruntownemu testowi.
Planck ogłosił swoje równanie 19 października 1900 roku na posiedzeniu
Berlińskiego Towarzystwa Fizycznego. Gdy tylko spotkanie dobiegło końca,
fizyk eksperymentalny Heinrich Rubens udał się do domu i zaczął wstawiać
cyfry, żeby sprawdzić formułę za pomocą własnych rozbudowanych danych.
W osłupienie wprawiło go to, że formuła Plancka była dokładniejsza, niż
miała prawo być.
Rubens był tak podekscytowany, że pracował przez większą część nocy,
starannie przepuszczając przez równanie Plancka różne częstotliwości
i porównując przewidywania z zapisami z własnych obserwacji. Następnego
ranka popędził do domu Plancka i przekazał mu wstrząsającą wieść:
zgodność była nienaturalnie dokładna, i to dla wszystkich częstotliwości. To
musiało coś znaczyć. Jedynym problemem było to, że ani Planck, ani nikt
inny nie wiedział co. Na magię zakrawało, że równanie, za którym
przypuszczalnie kryła się głęboka i tajemnicza zasada, zostało
„wyprowadzone” wyłącznie dzięki zgadywaniu.

***

Planck postanowił pracować nad teorią promieniowania ciała doskonale


czarnego w celu wyjaśnienia go bez odwoływania się do pojęcia atomu.
W pewnym sensie właśnie to zrobił. Ponieważ jednak swoje równanie
wyciągnął z rękawa, wciąż czuł się zmuszony do udzielenia odpowiedzi na
pytanie: Dlaczego ono działa? Sukces musiał być podniecający, ale
towarzysząca mu niewiedza z pewnością była frustrująca.
Planck, który zawsze był cierpliwym naukowcem, zwrócił się –
prawdopodobnie w akcie czystej desperacji – ku badaniom
przeprowadzonym przez wielkiego zwolennika atomu, austriackiego fizyka
Ludwiga Boltzmanna (1844–1906). Boltzmann walczył przez wiele
dziesięcioleci o osiągnięcie czegoś dokładnie przeciwnego niż to, do
udowodnienia czego dążył Planck – że atomy powinno traktować się
poważnie – i w tym dążeniu poczynił znaczne postępy w tworzeniu technik
tego, co dziś nazywa się fizyką statystyczną (choć nie poczynił wielkich
postępów w przekonywaniu ludzi o znaczeniu swojej pracy).
Gotowość Plancka, by zwrócić się – choć niechętnie – ku badaniom
Boltzmanna jest aktem, który warto docenić: oto zwolennik uprawiania fizyki
bez atomu szuka intelektualnego ocalenia w pracy człowieka głoszącego
właśnie tę teorię, której tamten od dawna się sprzeciwiał. Tego rodzaju
otwartość na idee, które pozostają w sprzeczności z własnymi z góry
przyjętymi opiniami, to sposób, w jaki powinno uprawiać się naukę, i jest to
jeden z powodów, dla którego wielki podziw dla Plancka żywił sam Albert
Einstein; ale nie jest to sposób, w jaki zazwyczaj uprawia się naukę. W istocie
nie jest to nawet sposób, w jaki działa większość ludzkich przedsięwzięć.
Na przykład kiedy powstawał Internet, smartfony i inne nowe media, tak jak
fizycy z establishmentu mieli problemy z zaakceptowaniem atomu albo
kwantu, firmy z establishmentu – Blockbuster Video, wytwórnie muzyczne,
główne księgarnie sieciowe, ustabilizowane rynki medialne – opierały się
przyjęciu nowego sposobu życia i nowego sposobu prowadzenia interesów.
Na ich miejsce pojawili się więc młodsi ludzi i młodsze firmy, o większej
elastyczności umysłowej, takie jak Netflix, YouTube i Amazon. To, co sam
Planck miał później powiedzieć o nauce, wydaje się w istocie stosować do
każdej rewolucyjnej nowej idei: „Nowa prawda naukowa nie tryumfuje
dzięki przekonaniu oponentów i sprawieniu, że ujrzą światło, lecz raczej
dlatego, że oponenci w końcu wymierają, a nowe pokolenie wyrasta w tym,
z czym jest dobrze zaznajomione”308.
Czytając prace Boltzmanna, Planck zauważył, że w statystycznym opisie
termodynamiki Austriaka trzeba zastosować matematyczną sztuczkę,
w której energię traktuje się, jak gdyby występowała w dyskretnych porcjach,
tak jak na przykład jajka w przeciwieństwie do mąki, która wydaje się
nieskończenie podzielna. O ile więc można mieć tylko całkowitą liczbę jajek,
na przykład jedno, dwa albo dwieście, o tyle w wypadku mąki możemy
zmierzyć 2,7182818 kilograma albo ilość, jaka nam się spodoba.
Przynajmniej tak wydaje się kucharzowi, ponieważ mąka nie jest
nieskończenie podzielna, lecz raczej składa się z dyskretnych elementów
składowych – maleńkich pojedynczych ziarenek – które można zobaczyć pod
mikroskopem.
Sztuczka Boltzmanna była jedynie zabiegiem obliczeniowym; w końcu
zawsze sprawiał, że wielkość porcji dążyła do zera, co oznaczało, że energia
znów może występować w dowolnej ilości, nie tylko w jednostkach
dyskretnych. Jednak ku swojemu wielkiemu zaskoczeniu Planck odkrył, że
stosując metody Boltzmanna do problemu ciała doskonale czarnego, mógł
wyprowadzić swoją formułę, ale tylko jeśli pominął ten ostatni krok
i pozostawiał energię jako coś, co – tak jak jajka – może występować jedynie
w wielu określonych podstawowych (bardzo maleńkich) porcjach. Kucharz
Planck nazwał tę podstawową porcję energii „kwantem” od łacińskiego
słowa quantum oznaczającego „ile”.
Tak w paru słowach wyglądały początki koncepcji kwantu. Teoria
kwantowa powstała nie z niestrudzonych wysiłków naukowców
doprowadzających jakąś głęboką zasadę do jej logicznych konkluzji albo
z dążenia do odkrycia nowej filozofii fizyki, ale z pracy człowieka, który
przypominał kucharza spoglądającego po raz pierwszy przez mikroskop
i odkrywającego ku swojemu zaskoczeniu, że mąka mimo wszystko
przypomina jajka i składa się z dyskretnych poszczególnych elementów,
może więc być wydzielana jedynie w malutkich porcjach.
Planck odkrył, że wielkość takiej porcji, czyli kwant, jest różna dla różnych
częstotliwości światła – które na przykład w świetle widzialnym odpowiadają
różnym kolorom. W szczególności dostrzegł, że kwant energii świetlnej jest
równy jego częstotliwości pomnożonej przez czynnik proporcjonalności,
który nazwał h i który dziś nazywany jest stałą Plancka. Gdyby zrobił ostatni
krok, który zrobił Boltzmann, przyjmując, że w zasadzie h równa się zeru,
wówczas energię można by traktować jako nieskończenie podzielną. Jednak
nie uczyniwszy tego i określając wartość h przez porównanie swojej formuły
z danymi eksperymentalnymi, Planck ustalił, że – przynajmniej gdy idzie
o promieniowanie ciała doskonale czarnego – energia występuje
w maleńkich, fundamentalnych porcjach i nie może przyjmować dowolnej
wartości.
Co oznaczała jego teoria? Planck nie miał pojęcia. W pewnym sensie
jedynym, co udało mu się zrobić, było stworzenie tajemniczej teorii
wyjaśniającej enigmatyczne przypuszczenia. Mimo wszystko ogłosił swoje
„odkrycie” na posiedzeniu Berlińskiego Towarzystwa Fizycznego w grudniu
1900 roku. Dziś nazywamy to wystąpienie narodzinami teorii kwantowej i,
istotnie, jego nowa teoria miała przynieść mu Nagrodę Nobla w 1918 roku
i w końcu wywrócić do góry nogami całą dziedzinę fizyki. Jednak wówczas
nikt, w tym sam Planck, tego nie wiedział.
Większości fizyków wydawało się, że długie badania Plancka nad
promieniowaniem ciała doskonale czarnego sprawiły jedynie, że jego teoria
była bardziej nieuchwytna i tajemnicza, a co w tym dobrego? Jednak sam
Planck dowiedział się czegoś ważnego ze swoich doświadczeń. W końcu
„zrozumiał” promieniowanie ciała doskonale czarnego przy użyciu obrazka,
na którym doskonale czarny materiał został przedstawiony jako złożony
z maleńkich oscylatorów przypominających sprężynki, będących, jak
w końcu zaczął być przekonany, atomami albo cząsteczkami – tak więc
wreszcie uznał, że atomy są rzeczywiste. Jednak ani on, ani nikt inny w tym
czasie nie zdawał sobie sprawy, że kwanty, które opisał, mogą być
fundamentalną cechą charakterystyczną przyrody.

Ludwig Boltzmann, około 1900 roku (Dzięki uprzejmości The Dibner Library
Portrait Collection – Smithsonian Institution/Wikimedia Commons)

Niektórzy ze współczesnych Plancka sądzili, że w końcu znajdzie się droga


prowadząca do podanego przezeń równania ciała doskonale czarnego, która
nie wymaga przyjęcia koncepcji kwantu. Inni liczyli, że kwant zostanie
w pewnym momencie wyjaśniony nie jako fundamentalna zasada przyrody,
lecz jako wynik jakiejś nieznanej jeszcze cechy charakterystycznej
materiałów, który będzie w pełni zgodny z fizyką, jaką znali – na przykład
jako przyziemna mechaniczna własność wynikająca z wewnętrznej struktury
atomów albo sposobu, w jaki atomy oddziałują ze sobą. A niektórzy fizycy
po prostu odrzucali pracę Plancka jako nonsens, mimo że zgadzali się
z danymi eksperymentalnymi.
Na przykład sir James Jeans, znany fizyk, który pracował nad tym
problemem, ale w przeciwieństwie do niemieckiego kolegi nie był w stanie
wyprowadzić pełnej formuły, atakując Plancka, napisał: „Oczywiście, zdaję
sobie sprawę z tego, że prawo Plancka dobrze zgadza się z eksperymentami
[…] podczas gdy moje własne prawo, uzyskane [z prawa Plancka] przez
podstawienie h = 0, może się z nimi nie zgadzać. Nie zmienia to jednak
mojego przekonania, że wartość h = 0 jest jedyną, którą może ona
przyjąć”309. No tak, te uprzykrzone obserwacje eksperymentalne to taki
kłopot – lepiej je zignorować. Albo, jak napisał Robert Frost w 1914 roku:
„Dlaczego porzucać przekonanie / Jedynie dlatego, że przestało być
prawdziwe”310.
Problem w tym, że poza zirytowaniem Jamesa Jeansa praca Plancka nie
wywołała wiele zamętu. Niezależnie, czy uważano ją za nonsens, czy też
sądzono, że będzie miała przyziemne wyjaśnienie, członkowie społeczności
fizyków nie byli po prostu podekscytowani, tak jak fani na festiwalu
rockowym, na którym na serio egzekwuje się zakaz zażywania narkotyków.
Narkotyki pojawiły się dopiero za jakiś czas. Istotnie, w ciągu następnych
pięciu lat nie przeprowadzono żadnych badań, które popchnęłyby naprzód
koncepcje Plancka – nie zrobił tego ani on sam, ani nikt inny. Stało się to
dopiero w 1905 roku.

***

Stwierdziłem wcześniej, że gdy Planck zaproponował ideę kwantu, nikt nie


zdawał sobie sprawy, iż jest to fundamentalna zasada przyrody. Jednak
niedługo potem do gry włączył się pewien nowy gracz, który miał zająć
bardzo odmienną postawę wobec tej kwestii. Nieznany i niemający stałej
posady akademickiej w czasie gdy Planck ogłosił swoje odkrycie, miał uznać
jego pracę dotyczącą kwantów za głęboką, a nawet niepokojącą. „Czułem się,
jakby grunt usunął mi się spod nóg i nigdzie nie było widać solidnego
fundamentu”311 – napisał później.
Człowiek, który przyswoił pracę Plancka dotyczącą kwantów i pokazał, co
jest ona warta, w kulturze popularnej jest znany nie z tego, lecz z tego, że
w końcu zajął stanowisko przeciwne i podobnie jak Jeans odrzucił ideę
kwantów, mimo iż wiele obserwacji wydawało się wskazywać na jej
prawdziwość. Był nim Albert Einstein (1879–1955).
Kiedy przyjął zaproponowaną przez Plancka ideę kwantu (której później
już się trzymał), miał dwadzieścia pięć lat i nie ukończył jeszcze swojej
rozprawy doktorskiej. Jednak gdy dobiegł pięćdziesiątki, zaczął sprzeciwiać
się temu, co sam wypracował. Powody skłaniające Einsteina do zmiany
zdania co do teorii kwantowej miały w ostatecznym rozrachunku charakter
filozoficzny czy też metafizyczny, a nie naukowy. Idee, które wysunął
w wieku dwudziestu pięciu lat, dotyczyły „jedynie” nowego sposobu
rozumienia światła jako energii składającej się z cząstek kwantowych. Idee
związane z kwantami, które zrodziły się – i które odrzucił – w późniejszych
latach, przeciwnie, odnosiły się do zasadniczo nowego sposobu patrzenia na
rzeczywistość.
Oznacza to, że gdy teoria kwantowa się rozwijała, stało się jasne, że jeśli
ktoś ją przyjmuje, to musi przyjąć również nowy pogląd na to, co to znaczy
istnieć, co to znaczy istnieć w jakimś konkretnym miejscu, a nawet co to
znaczy, że jedno zdarzenie powoduje inne. Nowy kwantowy światopogląd
jeszcze wyraźniej zrywał z naszym intuicyjnym newtonowskim
światopoglądem, niż ten ostatni wywracał celowościową perspektywę
Arystotelesa, a Einstein, gotów przeprowadzić rewizję fizyki, miał odejść do
grobu, nie akceptując radykalnej rewizji metafizyki, która zrodziła się z jego
własnych prac.
W czasie gdy zetknąłem się z teorią kwantową, zaledwie kilkadziesiąt lat
po śmierci Einsteina, oczywiście uczono mnie jej nowoczesnego
sformułowania uzupełnionego wszystkimi radykalnymi ideami, które jemu
się nie podobały. Na moich kursach uniwersyteckich prezentowano je jako
nudne jak flaki z olejem, choć dziwaczne aspekty obecnie w pełni rozwiniętej
i dobrze sprawdzonej teorii. „Kwantowe osobliwości”, o których ludzie
niekiedy mówią – takie jak możliwość, że coś znajduje się w zasadzie
w dwóch miejscach naraz – uznawane były wówczas za dawno ustalone
fakty. Niekiedy prowadziły one do interesujących dyskusji przy drinku, ale
nie było to nic takiego, nad czym my, studenci, ślęczelibyśmy nocami.
Jednak Einstein był jednym z moich herosów, a więc trapiło mnie to, że miał
on pewne problemy z zaakceptowaniem faktów, którym ja dałem dostęp do
swego umysłu bez żadnego sprzeciwu. Wiedziałem, że nie jestem
Einsteinem, czego zatem nie dostrzegałem?
Kiedy zmagałem się z tym problemem, mój ojciec opowiedział mi historię.
Działo się to w przedwojennej Polsce, kiedy wraz z kilkoma przyjaciółmi
natknęli się na leżącego na drodze jelenia, którego musiał przejechać
samochód. W tym czasie z żywnością było krucho, zabrali więc go do domu
i zjedli. Ojciec powiedział mi, że nie widzieli nic złego w zjedzeniu
„rozjechanego” zwierzęcia; ale Amerykanie – tacy jak ja – uznali to za
odrażające, ponieważ wychowano nas w przekonaniu, że jest to odrażające.
Uświadomiłem sobie, że nie trzeba się zajmować głębokimi problemami
kosmosu ani ugruntowanymi przekonaniami moralnymi, żeby natrafić na
idee, z których zaakceptowaniem ludzie mają problemy. Takie idee są
wszędzie, a większość z nich zależy po prostu od faktu, że ludzie mają
skłonność do podtrzymywania przekonania, które zawsze przyjmowali.
Metafizyczne implikacje teorii kwantowej przypominały Einsteinowską
wersję rozjechanego jelenia. Wychowany w wierze w tradycyjne pojęcia
przyczynowości, z niechęcią miał zaakceptować ideę tak dogłębnie odmienną
w swoich implikacjach. Jednak gdyby urodził się osiemdziesiąt lat później
i był moim kolegą z roku, wychowałby się z osobliwościami teorii
kwantowej i prawdopodobnie przyjął je – podobnie jak ja i wszyscy inni
studenci – jako fakty. W tym czasie była to po prostu prawda przyjmowana
przez środowisko intelektualne, choć więc można było dostrzegać nowe
aspekty świata kwantowego mimo braku eksperymentów, które by im
zaprzeczały, nikt nie myślał o zawracaniu z tej drogi.

***

Choć Einstein w końcu miał zwalczyć podstawowe aspekty światopoglądu


newtonowskiego, nigdy nie był konwencjonalnym myślicielem ani kimś, kto
daje nieuzasadnioną wiarę postaciom uznawanym za autorytety. W istocie ta
gotowość do odmiennego myślenia i kwestionowania autorytetów była tak
wyraźna, że wpędzała go w kłopoty, gdy jeszcze jako nastolatka zapisano go
do monachijskiego gimnazjum. W wieku piętnastu lat został poinformowany
przez jednego z nauczycieli, że nigdy nic z niego nie będzie, a następnie
zmuszony czy też „uprzejmie zachęcony” do opuszczenia szkoły, ponieważ
okazywał swoim nauczycielom brak szacunku i uznawano, że ma
niekorzystny wpływ na innych uczniów. Później nazwał gimnazjum
„machiną edukacyjną”, przez co miał na myśli nie to, że wykonuje ono
użyteczną pracę, lecz raczej że wypuszcza z siebie dławiące umysł skażenie.
Szwajcarskie świadectwo szkolne Einsteina z 1896 roku. Skala ocen: od 1 do 6,
przy czym 6 jest najwyższą. (Dzięki uprzejmości władz kantonu Aargau,
Szwajcaria/Wikimedia Commons)

Na szczęście dla fizyki pragnienie zrozumienia Wszechświata przeważyło


u Einsteina nad awersją do formalnego wykształcenia, tak więc po wydaleniu
ze szkoły średniej zdawał do Związkowej Wyższej Szkoły Technicznej
w Zurychu (ETH). Nie zdał egzaminu wstępnego, ale po krótkim pobycie
wyrównawczym w szwajcarskiej szkole średniej został przyjęty do ETH
w 1896 roku. Uczelnię lubił nie bardziej niż gimnazjum, ale udało mu się
ukończyć studia, wkuwając do egzaminów notatki sporządzone przez
kolegów z roku, z którymi się przyjaźnił. Marcel Grossmann, napisał później
Einstein, był „nienagannym studentem, a ja bałaganiarzem i marzycielem. On
rozumiał wszystko i był w dobrych stosunkach z profesorami, ja byłem
pariasem, niezadowolonym i nielubianym”312. Spotkanie z Grossmannem
okazało się szczęśliwym zbiegiem okoliczności nie tylko dla studenckiej
kariery Einsteina: Grossmann został później matematykiem i nauczył
Einsteina egzotycznej geometrii, której ten potrzebował, by ukończyć swoją
teorię względności.
Stopień uzyskany przez Einsteina nie otwierał przed nim łatwej drogi do
sukcesu. W istocie jeden z jego profesorów uniwersyteckich złośliwie
wystawił mu złą opinię. Przynajmniej po części dlatego Einstein nie mógł
znaleźć tradycyjnej pracy po ukończeniu studiów w Zurychu – chciał objąć
stanowisko uniwersyteckie w zakresie fizyki i matematyki – ale zamiast tego
został prywatnym nauczycielem dwóch gimnazjalistów.
Niedługo po objęciu tego stanowiska zasugerował swojemu pracodawcy,
żeby obu chłopców w ogóle zabrać ze szkoły, by uniknąć jej szkodliwego
wpływu. Jego pretensja do systemu edukacyjnego dotyczyła głównie tego, że
w nadzwyczajny sposób koncentrował się na przygotowywaniu uczniów do
sprawdzianów, gasząc w ten sposób wszelką prawdziwą ciekawość
i kreatywność. Jak na ironię, mniej więcej wiek później wraz z programem
No Child Left Behind ogłoszonym przez prezydenta George’a W. Busha
oparty na testach i sprawdzianach program nauczania skoncentrowany na
zdolności do recytowania faktów stał się chlubą amerykańskiej polityki
edukacyjnej. Wszyscy wiedzieli, że Bush nie jest Einsteinem, ale
najwyraźniej, jeśli chodzi o zdolność do przekonywania ludzi do przyjęcia
swojego punktu widzenia, Einstein nie był Bushem: jego pracodawca,
któremu skarżył się na fatalny wpływ gimnazjum, go zwolnił.
O swoich zmaganiach z tamtego czasu napisał Einstein ojciec: „Mój syn
jest głęboko nieszczęśliwy z powodu braku pracy. Z każdym dniem nabiera
coraz silniejszego przekonania, że trafił na boczny tor […] dokucza mu
bardzo świadomość, że jest ciężarem dla nas, ludzi niezamożnych”313. List
został skierowany do lipskiego fizyka Friedricha Wilhelma Ostwalda,
któremu Albert wysłał przedruk swojego pierwszego artykułu, wraz z prośbą
o pracę. Ani syn, ani ojciec nie dostali odpowiedzi. Dziesięć lat później
Ostwald był pierwszym, który wysunął kandydaturę Einsteina do Nagrody
Nobla, ale w 1901 roku nikt nie był pod wystarczająco dużym wrażeniem
jego intelektu, żeby dać mu pracę w jakikolwiek sposób odpowiadającą
zdolnościom.
Życie profesjonalne Einsteina ustabilizowało się w końcu w 1902 roku,
kiedy ojciec Marcela Grossmanna przedstawił go dyrektorowi
szwajcarskiego urzędu patentowego w Bernie, który zaprosił go do zdania
egzaminu pisemnego. Einstein poradził sobie wystarczająco dobrze, by
dyrektor zaproponował mu stanowisko. Praca polegała na czytaniu
skomplikowanych technicznych wniosków patentowych i przekładaniu ich na
język dostatecznie prosty, by jego mniej inteligentni przełożeni mogli je
zrozumieć. Zaczął pracować tam w okresie próbnym w lecie tego roku.
Einstein był najwyraźniej dobry w swojej pracy, choć w 1904 roku, kiedy
starał się o awans z urzędnika patentowego trzeciej klasy na urzędnika
patentowego drugiej klasy, jego wniosek odrzucono. Jednocześnie praca
w zakresie fizyki, choć przynosiła mu satysfakcję, szła nieszczególnie.
Pierwsze dwa artykuły napisane w 1901 i 1902 roku, traktujące o hipotezie
dotyczącej uniwersalnej siły oddziałującej między cząsteczkami, były, jak
sam stwierdził, bezwartościowe314. Po nich napisał kolejne trzy artykuły,
o różnej jakości, które również wywarły niewielki wpływ na świat fizyki.
Potem przyszedł rok, w którym urodził mu się pierwszy syn, ale nie
opublikował ani jednego artykułu o fizyce.
Chroniczne problemy z pieniędzmi i zastój w karierze naukowej musiały
być zniechęcające, ale Einstein lubił swoją pracę, uznając ją za pobudzającą
intelektualnie, stwierdził nawet, że zostawiała mu po powrocie do domu
„osiem godzin próżnowania”, w czasie których może realizować swoją pasję
i myśleć o fizyce. Uzupełniał również swoje badania prowadzone w czasie
wolnym, kradnąc czas w pracy, gdzie pospiesznie chował swoje obliczenia
do szuflady, gdy ktoś się zbliżał. Cała ta praca w końcu opłaciła się
w najbardziej spektakularny sposób: w 1905 roku opublikował trzy odrębne
i rewolucyjne artykuły, które miały zmienić urzędnika patentowego trzeciej
klasy w fizyka pierwszej klasy.
Każdy z tych artykułów był wart Nagrody Nobla, choć tylko jeden z nich
miał mu ją przynieść. Prawdopodobnie można zrozumieć, dlaczego komitet
noblowski wahał się przed wielokrotnym nagrodzeniem tej samej osoby, ale
z biegiem lat stał się niestety znany ze znacznie mniej zrozumiałych
pominięć. Jeśli chodzi o samych fizyków, komitet wielokrotnie popełnił
poważny błąd, pomijając takich naukowców jak Arnold Sommerfeld, Lise
Meitner, Freeman Dyson, George Gamow, Robert Dicke i Jim Peebles315.
Nieprzyznanie nagrody Meitner było szczególnie skandaliczne, ponieważ
przez tysiące lat kobietom niemal powszechnie odmawiano dostępu do
wyższego wykształcenia oraz pracy, która pozwoliłaby im wnieść wkład
w nasze zrozumienie świata. Zaczęło się to zmieniać zaledwie sto lat temu,
a ta zmiana społeczna nadal trwa. Meitner, będąca pionierką zarówno jako
naukowiec, jak i jako kobieta, była dopiero drugą kobietą, która uzyskała
doktorat z fizyki na Uniwersytecie Wiedeńskim. Po studiach przekonała
Maxa Plancka, by pozwolił jej uczyć się u niego, choć wcześniej nigdy nie
pozwolił kobiecie siedzieć na swoich wykładach. W końcu zaczęła
współpracować z młodym berlińskim chemikiem Otto Hahnem. Razem
dokonali wielu przełomowych odkryć, z których najważniejszym było
odkrycie rozszczepienia jądra atomowego. Niestety to właśnie za nie Hahn,
ale bez Meitner, otrzymał Nagrodę Nobla w dziedzinie chemii w 1944
roku316.

***

Jedną z upajających atrakcji fizyki teoretycznej jest możliwość, że nasze


pomysły będą miały wielki wpływ na to, jak myślimy, a nawet jak żyjemy.
Tak, potrzeba całych lat na przyswojenie sobie przedmiotu badań oraz
zrozumienie technik i problemów. I tak, większość naszych pomysłów
okazuje się nonsensowna, a w większości wypadków potrzeba całych
miesięcy, żeby wnieść choćby maleńki wkład w znacznie większy korpus
prac. Z pewnością jeśli zamierza się zostać fizykiem teoretycznym, lepiej być
upartym i wytrwałym, i odczuwać dreszczyk emocji nawet z powodu
mniejszych odkryć, równań, które wydają się w magiczny sposób działać
i zdradzają nam tajemnicę przyrody, którą aż do publikacji znamy tylko my.
Ale zawsze istnieje również inna możliwość: że wymyśli się albo natknie na
ideę tak potężną, że jest czymś znacznie większym niż małym sekretem
przyrody, czymś, co zmienia sposób, w jaki nasi koledzy i koleżanki po fachu
– albo nawet cała ludzkość – postrzegają Wszechświat. Na pomysł tego
rodzaju Einstein wpadł trzykrotnie w ciągu tylko jednego roku pracy
w urzędzie patentowym.
Spośród tych trzech przełomowych teorii najbardziej znana jest teoria
względności. Jego praca w tej dziedzinie zrewolucjonizowała nasze pojęcia
przestrzeni i czasu, pokazując, że są one nierozdzielnie związane ze sobą,
a pomiary tych wielkości nie są bezwzględne, lecz zależą od stanu
obserwatora.
Problemem, który Einstein zamierzał rozwiązać za pomocą teorii
względności, był paradoks, jaki wynikał z teorii elektromagnetyzmu
Maxwella, która zakładała, że wszyscy obserwatorzy, którzy przeprowadzają
pomiary prędkości światła, uzyskają taki sam wynik, niezależnie od ich
własnej względnej prędkości w stosunku do źródła światła.
W duchu Galileusza możemy przeprowadzić prosty eksperyment myślowy,
żeby zrozumieć, dlaczego powyższe stwierdzenie pozostaje w sprzeczności
z naszym codziennym doświadczeniem. Wyobraźmy sobie sprzedawcę
kanapek stojącego na peronie na stacji kolejowej, gdy przelatuje przez nią
pociąg. Piłka (albo jakikolwiek przedmiot materialny) rzucona naprzód przez
pasażera znajdującego się w poruszającym się pociągu będzie poruszała się
dla sprzedawcy szybciej niż piłka, którą on mógłby rzucić w podobny
sposób. Dzieje się tak dlatego, że z punktu widzenia sprzedawcy piłka
w pociągu będzie poruszać się z prędkością, z jaką rzuca ją pasażer, plus
prędkość pociągu. Jednak promień światła wysłany z poruszającego się
pociągu, głosi teoria Maxwella, nie będzie poruszał się szybciej. Będzie
przemieszczał się z taką samą prędkością dla pasażera i dla sprzedawcy. Dla
fizyka, który chce zredukować wszystko do zasady, wymaga to wyjaśnienia.
Jaka zasada odróżnia światło od materii? Przez lata była to kwestia, którą
zajmowali się fizycy, a najpopularniejsze podejście głosiło, że miało to
związek z jeszcze niewykrytym ośrodkiem, przez który rozchodzi się światło.
Jednak Einstein miał inny pogląd. Zdał sobie sprawę, że wyjaśnienie nie
kryło się w jakiejś nieznanej własności rozchodzenia się światła, lecz
w naszym rozumieniu prędkości. Ponieważ prędkość to odległość podzielona
przez czas, rozumował Einstein, stwierdzając, że prędkość światła jest stała,
teoria Maxwella mówi nam, że w pomiarze odległości i czasu nie może być
powszechnego porozumienia. Einstein pokazał, że nie ma uniwersalnych
zegarów ani uniwersalnych linijek, lecz raczej wszystkie takie pomiary zależą
od ruchu obserwatora – w sposób wymagany, by wszyscy obserwatorzy
zmierzyli taką samą prędkość dla światła. To, co każdy z nas obserwuje
i mierzy, nie jest zatem niczym więcej, jak naszym osobistym punktem
widzenia, a nie rzeczywistością, na którą wszyscy mogą się zgodzić. Taka
jest istota szczególnej teorii względności Einsteina.
Teoria względności nie wymaga zastąpienia teorii newtonowskiej, lecz
raczej jej zmodyfikowania: newtonowskie prawa ruchu muszą zostać
zmienione, przeformułowane, żeby wpasować się w nową einsteinowską
ramę czasu i przestrzeni, w której wyniki pomiarów zależą od ruchu
dokonującego pomiaru. Dla obiektów i obserwatorów poruszających się
z relatywnie niewielkimi prędkościami względem siebie teoria Einsteina jest
zasadniczo odpowiedniczką teorii Newtona. Dopiero wtedy, gdy prędkości
zbliżają się do prędkości światła, efekty względności stają się zauważalne.
Ponieważ te nowe skutki względności są widoczne tylko w skrajnych
okolicznościach, mają o wiele mniejsze znaczenie dla codziennego życia niż
teoria kwantowa, wyjaśniająca samą stabilność atomów, które nas tworzą.
Jednak nikt w tym czasie nie znał dalekosiężnych implikacji, jakie miała
mieć teoria kwantowa; zarazem teoria względności była trzęsieniem ziemi
dla społeczności fizyków: światopogląd newtonowski ukształtował naukę na
ponad dwieście lat, a teraz pojawiła się pierwsza rysa na jego strukturze.
Teoria Newtona zakładała, że istnieje obiektywna rzeczywistość. Przestrzeń
i czas tworzyły stałą ramę odniesienia, scenę, na której rozgrywały się
wydarzenia świata. Obserwatorzy mogli patrzeć i niezależnie, gdzie się
znajdowali i jak się poruszali, wszyscy oglądali to samo przedstawienie,
niczym Bóg obserwujący nas wszystkich z zewnątrz. Teoria względności
pozostawała w sprzeczności z tym poglądem. Stwierdzając, że nie ma
jednego przedstawienia – że, jak w codziennym życiu, rzeczywistość, której
doświadczamy, jest osobista i zależy od naszego położenia i ruchu, Einstein
zainicjował burzenie świata newtonowskiego, tak jak Galileusz rozpoczął
pracę nad rozmontowaniem świata Arystotelesa.
Praca Einsteina miała ważne implikacje dla kultury fizyków: ośmieliła całe
ich pokolenia i sprawiła, że łatwiej im było kwestionować stare idee.
Na przykład to właśnie książka o teorii względności, którą Einstein napisał
dla uczniów szkół średnich, zainspirowała Wernera Heisenberga, którego
niebawem poznamy, do zajęcia się fizyką, i to właśnie podejście Einsteina do
względności dało Nielsowi Bohrowi, którego również niebawem poznamy,
odwagę, by wyobrazić sobie, że atom może podlegać prawom radykalnie
odmiennym od tych, które znamy z codziennego życia.
Jak na ironię, spośród wszystkich wielkich fizyków, którzy przyswoili
sobie i zrozumieli teorię względności Einsteina, to właśnie na nim samym
wywarła najmniejsze wrażenie. Jego zdaniem nie był on rzecznikiem
obalenia ważnych aspektów światopoglądu newtonowskiego, lecz jedynie
wprowadzenia pewnych poprawek – poprawek, które miały niewielki wpływ
na większość codziennych obserwacji eksperymentalnych, ale były ważne
z tego względu, że poprawiały błąd w logicznej strukturze teorii. Co więcej,
matematyczne zmiany niezbędne do tego, by teoria Newtona była zgodna
z teorią względności, były dość łatwe do wprowadzenia. A więc podczas gdy
Einstein miał później uznawać teorię kwantową za rozmontowanie fizyki
newtonowskiej, to, jak ujął to fizyk i jego biograf Abraham Pais, „nie uważał,
by teoria względności miała rewolucyjny charakter”317. Uznawał ją za
najmniej ważną spośród artykułów opublikowanych w 1905 roku. Znacznie
głębsze były, jego zdaniem, pozostałe dwa – o atomie i o kwantach.
W swoim tekście o atomie Einstein analizował efekt nazywany ruchami
Browna, odkryty przez starego przyjaciela Darwina, Roberta Browna,
w 1827 roku. „Ruchy” oznaczają tu tajemnicze, losowe meandrowanie
maleńkich drobinek, takich jak ziarenka pyłku kwiatowego zawieszone
w wodzie. Einstein wyjaśnił owe ruchy jako skutek tego, że
submikroskopowe cząsteczki bombardują unoszące się drobinki ze
wszystkich stron i z bardzo dużą częstotliwością. Choć poszczególne
zderzenia są zbyt delikatne, żeby przesunąć drobinkę, Einstein dowiódł za
pomocą statystyki, że wielkość i częstotliwość obserwowanych drgań
drobinki można wyjaśnić tym, iż przy rzadkich okazjach czystym
przypadkiem znacznie więcej cząsteczek uderza drobinkę z jednej strony niż
z pozostałych, wywierając wystarczający nacisk, żeby ją poruszyć.
Artykuł stał się natychmiast sensacją, tak przekonującą, że nawet
zaprzysięgły wróg atomu Friedrich Wilhelm Ostwald zauważył, iż po
przeczytaniu pracy Einsteina przekonał się, że atomy są realne. Natomiast
wielki zwolennik atomu Boltzmann w niewyjaśniony sposób nigdy się nie
dowiedział o pracy Einsteina ani o zmianach w postawach, jakie on wywołał.
Po części z rozpaczy wywołanej recepcją jego własnych pomysłów popełnił
w następnym roku samobójstwo. Było to szczególnie smutne, ponieważ
dzięki artykułowi Einsteina o ruchach Browna i kolejnemu, który napisał
w 1906 roku, fizycy w końcu przekonali się o realności obiektów, których
nigdy nie dotknęli ani nie widzieli – właśnie tej idei, którą Boltzmann głosił
bez większego powodzenia od lat sześćdziesiątych XIX wieku.
W ciągu trzech dziesięcioleci naukowcy dzięki zastosowaniu nowych
równań opisujących atom zyskali możliwość wyjaśniania podstawowych
zasad chemii – w końcu podając wyjaśnienie i dowód idei głoszonych przez
Daltona i Mendelejewa. Zaczęli również pracować nad marzeniem Newtona
o zrozumieniu własności materiałów na podstawie sił, które działają między
tworzącymi je cząstkami, to znaczy atomami. W latach pięćdziesiątych XX
wieku poszli jeszcze dalej, oddając swoją wiedzę o atomie w służbę bardziej
dogłębnego zrozumienia biologii. A w drugiej połowie XX wieku teoria
atomu miała zaowocować rewolucją technologiczną, rewolucją komputerową
i rewolucją informacyjną. To, co zaczęło się jako analiza ruchu pyłku
kwiatowego, rozwinęło się w narzędzie, które ukształtowało współczesny
świat.
Prawa, od których zależą wszystkie te praktyczne przedsięwzięcia,
równania, które opisują własności atomu, nie pochodziły jednak z klasycznej
fizyki Newtona ani nawet z jej poprawionej „relatywistycznej” postaci.
Opisanie atomu miało natomiast wymagać nowych praw przyrody – praw
kwantowych – i to właśnie idea kwantu była przedmiotem innego
rewolucyjnego artykułu Einsteina z 1905 roku.
W tym artykule noszącym tytuł O pewnym heurystycznym punkcie widzenia
na wytwarzanie i przemiany światła przekształcił on pomysły Plancka
w głębokie zasady fizyczne. Einstein zdawał sobie sprawę, że podobnie jak
teoria względności teoria kwantowa była wyzwaniem dla fizyki Newtona.
Jednak w tym momencie teoria kwantowa nie wskazywała, jak wielkie jest to
wyzwanie ani jak kłopotliwe implikacje filozoficzne z niej wynikną, kiedy
zostanie dalej rozwinięta, tak że Einstein nie mógł wiedzieć, co właściwie
zrobił.
Ponieważ „punkt widzenia”, jaki zaprezentował w swoim artykule, wiązał
się z traktowaniem światła raczej jako kwantowej cząstki niż jako fali – jak
opisywała go z wielkim powodzeniem teoria Maxwella – nie spotkał się on
z takim przyjęciem jak pozostałe jego przełomowe prace z 1905 roku.
W istocie zaakceptowanie tych pomysłów zajęło społeczności fizyków ponad
dekadę. Jeśli chodzi o odczucia samego Einsteina dotyczące tej sprawy,
wymownie przedstawia je list, który napisał do przyjaciela w 1905 roku
przed ukazaniem się wszystkich trzech artykułów318. O swoim artykule
o teorii względności stwierdził, że jego część „zainteresuje Cię”.
I rzeczywiście, była to praca, która wywarła największy wpływ na fizykę, i to
właśnie ona w szczególności przyniosła mu Nagrodę Nobla w 1921 roku.

***

Nie było przypadkiem, że Einstein podjął problematykę kwantów tam, gdzie


Planck ją porzucił. Podobnie jak Planck zaczął on swoją karierę od pracy nad
problemami związanymi z rolą atomów w tej zacofanej wówczas dziedzinie,
jaką była termodynamika. Jednak w przeciwieństwie do Plancka był
outsiderem pozbawionym kontaktu z większością współczesnej mu fizyki.
W stosunku do atomu Einstein i Planck mieli przeciwstawne cele, badania
Plancka w ramach jego doktoratu miały bowiem wyeliminować fizykę
atomu, Einstein zaś twierdził, że jego celem, przedstawionym w pierwszym
z artykułów napisanych między 1901 i 1904 rokiem, było „znalezienie
faktów, które świadczyłyby o istnieniu atomów o określonych skończonych
rozmiarach”319. Cel ten osiągnął w końcu dzięki swojej rewolucyjnej analizie
ruchów Browna z 1905 roku.
Choć Einstein pomógł fizykom wreszcie pogodzić się z atomami, w swojej
pracy o idei kwantu Plancka wprowadził nową „podobną do atomowej”
teorię światła, którą fizycy mieli uznać za jeszcze trudniejszą do przełknięcia.
Doszedł do niej po rozważeniu badań Plancka nad promieniowaniem ciała
doskonale czarnego. Nieusatysfakcjonowany analizami poprzednika stworzył
własne narzędzia matematyczne do analizowania tego zjawiska. I choć
doszedł do takiego samego wniosku – że promieniowanie ciała doskonale
czarnego można wyjaśnić tylko za pomocą koncepcji kwantów – jego
wyjaśnienie zawierało kluczową, nawet jeśli na pozór techniczną różnicę:
Planck zakładał, że dyskretny charakter energii, który analizował, był
spowodowany sposobem, w jaki atomy albo cząsteczki w ciele doskonale
czarnym oscylowały podczas emisji promieniowania; Einstein postrzegał ten
dyskretny charakter jako nieodłączną własność samego promieniowania.
Einstein traktował promieniowanie ciała doskonale czarnego jako
świadectwo radykalnie nowej zasady przyrody: że cała energia
elektromagnetyczna występuje w dyskretnych porcjach i że promieniowanie
składa się z cząstek podobnych do atomów światła. To właśnie ta intuicja
sprawiła, że Einstein pierwszy zdał sobie sprawę, iż zasada kwantowa jest
rewolucyjna – jest fundamentalnym aspektem naszego świata, a nie jedynie
sztuczką matematyczną ad hoc zastosowaną w celu wyjaśnienia
promieniowania ciała doskonale czarnego. Nazwał te cząstki promieniowania
„kwantami światła”, a w 1926 roku jego kwantom światła nadano ich
współczesną nazwę: fotony.
Gdyby pozostawił ją w tej postaci, Einsteinowska teoria fotonów byłaby
jedynie alternatywnym modelem sporządzonym, tak jak model Plancka,
w celu wyjaśnienia promieniowania ciała doskonale czarnego. Jeśli jednak
idea fotonu była naprawdę fundamentalna, powinna tłumaczyć naturę zjawisk
innych niż to, dla którego wyjaśnienia została skonstruowana. Einstein
znalazł jedno z nich w zjawisku nazywanym efektem fotoelektrycznym.
Efekt fotoelektryczny jest procesem, w którym światło padające na metal
powoduje emisję elektronów. Te mogą zostać wychwycone jako prąd
elektryczny stosowany w różnych urządzeniach. Technologia ta była ważna
dla powstania telewizji i jest nadal wykorzystywana w takich urządzeniach
jak detektory dymu i czujniki, które powstrzymują drzwi windy przed
zamknięciem się, gdy się przez nie przechodzi. W tym ostatnim zastosowaniu
wiązka światła przechodzi przez otwór drzwi, padając na czujnik
fotoelektryczny po drugiej stronie, który generuje prąd; jeśli wchodzimy do
windy, przerywamy promień, a tym samym zatrzymujemy przepływ prądu,
a producenci wind tak projektują urządzenie, że przerwa w przepływie prądu
sprawia, iż drzwi się otwierają.
To, że światło padające na metal wytwarza prąd elektryczny, odkrył w 1887
roku niemiecki fizyk Heinrich Hertz, który pierwszy celowo wytworzył
i wykrył fale elektromagnetyczne emitowane przez przyspieszone ładunki
elektryczne – to na jego cześć nazwano jednostkę częstotliwości. Jednak
Hertz nie potrafił wyjaśnić efektu fotoelektrycznego, ponieważ nie odkryto
wówczas jeszcze elektronu. To wydarzenie nastąpiło w laboratorium
brytyjskiego fizyka Josepha Johna Thomsona w 1897 roku – trzy lata później
Hertz zmarł w wieku trzydziestu sześciu lat na rzadką chorobę powodującą
zapalenie naczyń krwionośnych.
Istnienie elektronu oferowało proste wyjaśnienie efektu fotoelektrycznego:
kiedy fale energii świetlnej uderzają w metal, pobudzają znajdujące się w nim
elektrony, sprawiając, że wylatują one w przestrzeń i ukazują się jako iskry,
promienie i prądy. Zainspirowani pracą Thomsona fizycy zaczęli badać ten
efekt bardziej szczegółowo. Długie i trudne eksperymenty w końcu jednak
ujawniły cechy efektu fotoelektrycznego, które nie pasowały do tego
teoretycznego obrazu.
Na przykład gdy zwiększy się intensywność promienia świetlnego,
prowadzi to do tego, że więcej elektronów oddawanych jest przez metal, ale
nie ma żadnego wpływu na energię wyrzuconych elektronów. Pozostaje to
w sprzeczności z przewidywaniami klasycznej fizyki, ponieważ
intensywniejsze światło przenosi więcej energii, a więc po jego pochłonięciu
powinno wytworzyć szybsze, mające większą energię elektrony.
Einstein zastanawiał się nad tym problemem przez kilka lat, a potem
w 1905 roku w końcu dostrzegł związek kwantowy: dane można było
wyjaśnić, jeśliby się przyjęło, że promień składa się z fotonów.
Przedstawiony przez Einsteina obraz efektu fotoelektrycznego był
następujący: każdy foton światła, który uderza w metal, przenosi swoją
energię na konkretny elektron. Energia, jaką przenosi każdy foton, jest
proporcjonalna do częstotliwości, czyli koloru światła, a jeśli foton przenosi
wystarczająco dużo energii, uwolni elektron, który swobodnie odleci. Światło
o wyższej częstotliwości składa się z fotonów o wyższej energii. Z kolei jeśli
rośnie tylko intensywność światła (a nie jego częstotliwość), światło będzie
się składać z większej liczby fotonów, ale nieprzenoszących więcej energii.
W rezultacie bardziej intensywne światło spowoduje, że wyemitowanych
zostanie więcej elektronów, ale energia tych elektronów pozostanie
niezmieniona – właśnie to zaobserwowano.
Propozycja, że światło składa się z fotonów – cząstek – pozostawała
w sprzeczności z odnoszącą wielkie sukcesy teorią elektromagnetyzmu
Maxwella, głoszącą, że przenosi się ono jako fale. Einstein zasugerował –
trafnie – że klasyczne „maxwellowskie” falowe właściwości światła mogą
powstać, kiedy przeprowadzamy obserwacje optyczne dotyczące
wypadkowego efektu bardzo dużej liczby fotonów, co zachodzi w zwykłych
warunkach.
Na przykład stuwatowa żarówka emituje mniej więcej miliard fotonów
w każdej jednej miliardowej sekundy. Kwantowa natura światła staje się
natomiast widoczna, gdy pracuje się ze światłem o bardzo niskiej
częstotliwości – albo podczas pewnych zjawisk (takich jak efekt
fotoelektryczny), których mechanizm zależy od dyskretnej natury fotonów.
Spekulacje Einsteina nie wystarczały, by przekonać innych do
zaakceptowania jego radykalnych idei, które spotkały się z wielkim i niemal
powszechnym sceptycyzmem.
Jednym z moich ulubionych komentarzy do pracy Einsteina była
rekomendacja napisana w 1913 roku wspólnie przez Plancka i innych
czołowych fizyków dotycząca wprowadzenia go do prestiżowej Pruskiej
Akademii Nauk: „Podsumowując, można powiedzieć, że trudno byłoby
znaleźć jakiś poważny problem, w które obfituje współczesna fizyka,
a do którego rozwiązania Einstein nie przyczynił się w godny uwagi sposób.
Tego, że czasami mylił się w swych spekulacjach, na przykład wysuwając
hipotezę o kwantowej naturze światła, nie można mu zbytnio wyrzucać, gdyż
jest rzeczą niemożliwą wyprowadzenie naprawdę nowych koncepcji bez
podjęcia pewnego ryzyka, nawet w naukach ścisłych”320.

***

Jak na ironię, to właśnie jeden z początkowych przeciwników teorii fotonu,


Robert Millikan, miał w końcu przeprowadzić dokładne pomiary, które
potwierdziły prawo Einsteina opisujące energię wyrzuconych fotoelektronów
– a w 1923 roku otrzymał Nagrodę Nobla za te wysiłki (jak również za
pomiar ładunku elektronu). Kiedy Einstein odbierał swoją Nagrodę Nobla
w 1921 roku, werdykt głosił po prostu: „Albertowi Einsteinowi, za jego prace
z fizyki teoretycznej, a zwłaszcza za wyjaśnienie zjawiska
fotoelektrycznego”321.
Komitet noblowski zdecydował się uhonorować formułę Einsteina, ale
zignorował rewolucję intelektualną, dzięki której ją uzyskał. Nie wspomniano
o kwantach światła, czyli o wkładzie Einsteina w teorię kwantową. Abraham
Pais pisze, że stwierdzenie to było „historyczną peryfrazą, ale również
wiernie wyrażało opinię środowiska fizyków”322.

Albert Einstein, 1921 rok (Dzięki uprzejmości F. Schmutzer/Wikimedia


Commons)

Wątpliwościom co do fotonu i co do teorii kwantowej w ogóle miano


położyć kres w następnej dekadzie wraz ze stworzeniem formalnej teorii
„mechaniki kwantowej”, która zastąpi Newtonowskie prawa ruchu jako
fundamentalne zasady rządzące tym, jak obiekty się poruszają i reagują na
siły. Kiedy ta teoria w końcu się pojawiła, Einstein uznał jej sukcesy, ale
teraz to właśnie on miał być tym, który sprzeciwiał się teorii kwantowej.
Odmawiając zaakceptowania teorii kwantowej jako ostatniego słowa, nigdy
nie przestał wierzyć, że zostanie ona w końcu zastąpiona jeszcze bardziej
fundamentalną teorią, która przywróci tradycyjne pojęcie przyczyny i skutku.
W 1905 roku opublikował trzy artykuły, z których każdy zmienił bieg fizyki;
przez resztę życia próbował na próżno zrobić to ponownie – odwrócić to, co
zainicjował. W 1951 roku w jednym z ostatnich listów do swojego
przyjaciela Michele Besso Einstein przyznał, że poniósł porażkę. „Całe
pięćdziesiąt lat rozważań – napisał – nie zbliżyło mnie ani trochę do
odpowiedzi na pytanie: czym są kwanty światła?”323.

295 W 2013 roku naukowcy w końcu zdołali posunąć się o krok dalej i „zobaczyć”
reagujące pojedyncze cząsteczki. Zob. Dimas G. de Oteyza et al., Direct Imaging of
Covalent Bond Structure in Single-Molecule Chemical Reactions, „Science”, nr 340 (21
czerwca 2013 r.), s. 1434–1437.

296 Niels Blaedel, Harmony and Unity: The Life of Niels Bohr, Springer Verlag, Nowy
Jork 1988, s. 37.

297 John Dewey, Jak myślimy, przeł. Z. Bastgenówna, Państwowe Wydawnictwo


Naukowe, Warszawa 1988, s. 37–38.

298 Barbara Lovett Cline, The Men Who Made a New Physics, University of Chicago
Press, Chicago 1965, s. 34. Zob. też. John L. Heilbron, The Dilemmas of an Upright Man,
Harvard University Press, Cambridge 1996, s. 10.

299 Większość informacji o Plancku zaczerpnąłem: z John L. Heilbron, Dilemmas of an


Upright Man, op. cit. Zob. też Barbara Lovett Cline, The Men Who Made a New Physics,
op. cit., s. 31–64.

300 John L. Heilbron, Dilemmas of an Upright Man, op. cit., s. 3.

301 Ibidem, s. 10.

302 Ibidem, s. 5.

303 Leonard Mlodinow i Todd A. Brun, Relation Between the Psychological and
Thermodynamic Arrows of Time, „Physical Review” 2014, nr E 89, s. 052102–052110.

304 John L. Heilbron, Dilemmas of an Upright Man, op. cit., s. 14.


305 Ibidem, s. 12; Barbara Lovett Cline, The Men Who Made a New Physics, op. cit.,
s. 36.

306 Richard S. Westfall, Never at Rest, Cambridge University Press, Cambridge 1980,
s. 462.

307 Ibidem.

308 Często błędnie twierdzi się, że Planck miał rzekomo wygłosić bardziej zwięzłą
wersję tego stwierdzenia: „Nauka postępuje o jeden pogrzeb za jednym razem”.
Oryginalny, często błędnie przytaczany cytat brzmi: „Eine neue wissenschaftliche Wahrheit
pflegt sich nicht in der Weise durchzusetzen, daß ihre Gegner überzeugt werden und sich
als belehrt erkl ren, sondern vielmehr dadurch, daß ihre Gegner allm hlich aussterben
und daß die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht
ist”. Pojawił się on w: Wissenschaftliche Selbstbiographie: Mit einem Bildnis und der von
Max von Laue gehaltenen Traueransprache, Johann Ambrosius Barth Verlag, Leipzig
1948, s. 22. Przekład pochodzi z: Max Planck, Scientific Autobiography and Other Papers,
przeł. F. Gaynor, Philosophical Library, Nowy Jork 1949, s. 33–34.

309 John D. McGervey, Introduction to Modern Physics, Academic Press, Nowy Jork
1971, s. 70.

310 Robert Frost, The Black Cottage, w: North of Boston, Henry Holt, Nowy Jork 1914,
s. 54.

311 Albert Einstein, Zapiski autobiograficzne, przeł. J. Bieroń, Znak, Kraków 1996,
s. 30.

312 Carl Sagan, Umysł Broca. Refleksje o nauce, przeł. P. Amsterdamski, Zysk i S-ka,
Poznań 2003, s. 39.

313 Abraham Pais, „Pan Bóg jest wyrafinowany...”. Nauka i życie Alberta Einsteina,
przeł. P. Amsterdamski, Prószyński i S-ka, Warszawa 2001, s. 59.

314 Ibidem, s. 31–32.

315 Sommerfeld był ważnym pionierem fizyki kwantowej; Meitner dokonała wielu
odkryć, w tym rozszczepienia jądra atomowego; Dyson odegrał zasadniczą rolę
w kwantowej teorii elektromagnetyzmu; a Gamow, Dicke i Peebles wyjaśnili i przewidzieli
kosmiczne promieniowanie tła, ale nagroda za to odkrycie trafiła do Arno Penziasa
i Roberta Wilsona, którzy przypadkowo je wykryli i nie mieli pojęcia, co znaleźli.

316 Podobnie jak Mendelejew Meitner została jednak uznana przez Międzynarodową
Unię Chemii Czystej i Stosowanej, która w 1997 roku nazwała pierwiastek 109 meitnerem.
Uczona zmarła w 1968 roku.

317 Ibidem, s. 44.

318 Ibidem, s. 43–44.

319 Ronald Clark, Einstein: The Life and Times, World Publishing, Nowy Jork 1971,
s. 52. [Albert Einstein, Zapiski autobiograficzne, op. cit., s. 31 (przyp. tłum.)].

320 Abraham Pais, „Pan Bóg jest wyrafinowany...”, op. cit., s. 386.

321 Ibidem, s. 389.

322 Ibidem.

323 Jeremy Bernstein, Albert Einstein i granice fizyki, przeł. J. Włodarczyk, Świat
Książki – Bertelsmann Media, Warszawa 2008.
11.

Niewidzialna sfera

Od razu po uzyskaniu doktoratu dostałem pracę jako młodszy wykładowca


w Caltech i zacząłem rozglądać się za kolejnym tematem, nad którym
mógłbym pracować, tak bym nie musiał odchodzić z uniwersytetu
i poszukiwać bardziej lukratywnego stanowiska jako kelner w wydziałowym
klubie. Pewnego popołudnia po seminarium rozmawiałem z fizykiem
Richardem Feynmanem o teorii nazywanej teorią strun. Feynman, wówczas
po sześćdziesiątce, był w tym czasie prawdopodobnie najbardziej
szanowanym na świecie naukowcem wśród swoich kolegów po fachu. Dziś
wielu badaczy (choć z pewnością nie wszyscy) postrzega teorię strun jako
czołową kandydatkę na zunifikowaną teorię wszystkich sił przyrody,
świętego Graala fizyki teoretycznej. W tamtych czasach jednak niewielu
ludzi o niej słyszało, a większości z tych, którzy słyszeli, ona nie obchodziła
– w tym również Feynmana. Zrzędził na nią, gdy zjawił się badacz
z uniwersytetu w Montrealu, który wizytował nasz wydział. „Nie sądzę, że
powinniśmy zniechęcać młodych ludzi do badania nowych teorii tylko
dlatego, że nie są one akceptowane przez establishment fizyczny” –
powiedział do Feynmana324.
Czy Feynman odrzucał teorię strun dlatego, że stanowiła ona tak wielkie
zerwanie z jego wcześniejszym systemem przekonań, że nie był w stanie
dostosować do niej swojego sposobu myślenia? Czy też może doszedłby do
tych samych wniosków co do jej niedostatków, nawet gdyby tak mocno nie
zrywała z wcześniejszymi teoriami? Tego się nie dowiemy, ale Feynman
wyjaśnił naszemu gościowi, że nie odradzał mi pracy nad czymś nowym,
jedynie radził, bym był ostrożny, jeśli bowiem teoria nie zadziała, mogę
w efekcie zmarnować mnóstwo czasu. Gość stwierdził: „Cóż, nad moją teorią
pracowałem przez dwanaście lat” i zaczął opisywać ją straszliwie
szczegółowo. Kiedy skończył, Feynman odwrócił się do mnie i powiedział
w obecności człowieka, który właśnie z dumą opisał swoją pracę: „To
właśnie miałem na myśli, gdy mówiłem o marnowaniu czasu”.
Obrzeża badań spowite są mgłą, a każdy aktywny naukowiec zmuszony jest
marnotrawić swoje wysiłki, podążając nieinteresującymi ścieżkami, które
często kończą się ślepym zaułkiem. Jednak jedną z cech, jakie wyróżniają
odnoszącego sukcesy fizyka, jest talent (albo szczęście) do wybierania
problemów, które okazują się zarazem pouczające i rozwiązywalne.
Porównałem pasję fizyków do pasji artystów, ale zawsze czułem, że artyści
mają wielką przewagę nad fizykami – w sztuce nie ma znaczenia, jak wielu
kolegów i krytyków twierdzi, że twoja praca jest do bani, bo nikt nie może
tego dowieść. W fizyce da się tego dowieść. W fizyce niewielkim
pocieszeniem jest myśl, że miało się „piękny pomysł”, jeśli nie był on trafny.
A więc w fizyce, podobnie jak przy każdej próbie wprowadzenia innowacji,
trzeba zachować trudną do utrzymania równowagę między ostrożnością
w wyborze problemów badawczych, które decydujemy się zgłębiać, a tak
daleko posuniętą ostrożnością, że nigdy nie robi się nic nowego. To dlatego
system stałych etatów dla wykładowców jest tak wartościowy dla nauki –
sprawia, że popełnianie błędów jest bezpieczne, co ma zasadnicze znaczenie
dla wspierania kreatywności.
Z perspektywy czasu wydaje się, że ekscytująca teoria fotonów, kwantów
światła, sformułowana przez Einsteina powinna natychmiast pobudzić
mnóstwo nowych badań nad rodzącą się teorią kwantową. Jednak dla
współczesnych Einsteina, którzy zdobyli już mnóstwo dowodów
przemawiających na rzecz fotonu, ale mieli wiele dobrych powodów, by
zachować sceptycyzm, praca nad fotonem wymagała znacznej skłonności do
intelektualnego awanturnictwa i sporej odwagi.
Nawet młodzi fizycy, zazwyczaj najbardziej pozbawieni zahamowań, gdy
idzie o pracę nad problemem, który może nie zadziałać albo może prowadzić
do śmieszności, fizycy, których pogląd na świat wciąż jeszcze jest plastyczny
i zmienia się regularnie, wybierali jako temat swoich prac doktorskich i po
doktoracie wszystko poza zwariowaną teorią fotonów Einsteina.
Minęło niemal dziesięć lat bez właściwie żadnego postępu. Sam Einstein
skończył trzydziestkę, co jest już starością dla teoretyka-pioniera, i poświęcał
mnóstwo czasu nowej innej rewolucyjnej idei: rozszerzeniu, czy też
uogólnieniu, swojej szczególnej teorii względności z 1905 roku, tak by objęła
również grawitację. (Szczególna teoria względności była modyfikacją
newtonowskich praw ruchu; ogólna teoria względności miała zastąpić
newtonowskie prawo ciążenia, ale wymagała od Einsteina wprowadzenia
zmian w szczególnej teorii względności). Brak zainteresowania teorią fotonu
ze strony Einsteina doprowadził Roberta Millikana do stwierdzenia: „Mimo
[…] na pozór pełnego sukcesu równania Einsteina [dla zjawiska
fotoelektrycznego] teoria fizyczna [fotonu], której symbolicznym wyrazem
miało być to równanie, okazała się do tego stopnia nie do utrzymania, że sam
Einstein, jak uważam, już jej nie podtrzymuje”325.
Millikan się mylił. Einstein nie odrzucił fotonu, lecz skoro jego uwaga była
w tym czasie skoncentrowana na czymś innym, łatwo zrozumieć, dlaczego
Millikan tak sądził. Jednak ani foton, ani pojęcie kwantu, które go zrodziło,
nie były martwe. Przeciwnie, niedługo znalazły się one w centrum uwagi
dzięki Nielsowi Bohrowi (1885–1962), dwudziestokilkuletniemu
młodzieńcowi, który ani nie był wystarczająco ustatkowany, ani dość
doświadczony, by wiedzieć, że nie powinien ryzykować marnowania czasu,
kwestionując idee dotyczące praw rządzących światem.

***

Kiedy Niels Bohr był w wieku licealnym, uczono go, że Grecy wynaleźli
filozofię przyrody i że równania Izaaka Newtona opisujące, jak obiekty
reagują na siłę grawitacji, stanowiły pierwszy wielki krok w kierunku celu
zrozumienia, jak działa świat, ponieważ pozwoliły naukowcom na
dokonywanie precyzyjnych ilościowych przewidywań dotyczących ruchu
spadających i orbitujących obiektów326. Bohra uczono również, że niedługo
przed jego przyjściem na świat do dzieła Newtona dołączyła teoria
Maxwella, opisująca, jak obiekty reagują na siły elektryczne i magnetyczne
i jak je generują – rozwijając światopogląd newtonowski do tego, co jak dziś
wiemy, okazało się jego szczytowym punktem.
Wydawało się, że fizycy w latach formacyjnych młodego Bohra posiadali
teorię zarówno sił, jak i ruchu, obejmującą wszystkie znane oddziaływania
w przyrodzie. Tym, czego Bohr nie wiedział, gdy stulecie dobiegało kresu,
a on wstępował na studia na uniwersytecie w Kopenhadze, było to, że po
ponad dwustu latach coraz większych sukcesów światopogląd newtonowski
miał wkrótce lec w gruzach.
Jak widzieliśmy, wyzwanie dla światopoglądu newtonowskiego pojawiło
się dlatego, że choć początkowo wydawało się, iż nowa teoria Maxwella
może rozszerzyć prawa ruchu Newtona na cały nowy zbiór zjawisk, w końcu
ujawniła, że takie zjawiska jak promieniowanie ciała doskonale czarnego
i efekt fotoelektryczny gwałcą przewidywania fizyki newtonowskiej
(klasycznej). Jednak teoretyczne postępy poczynione przez Einsteina
i Plancka były możliwe tylko dlatego, że wynalazki techniczne umożliwiły
eksperymentatorom zbadanie procesów fizycznych związanych z atomem.
I to właśnie ten zwrot wydarzeń zainspirował Bohra, ponieważ bardzo cenił
badania eksperymentalne – i miał do nich spory talent.
Lata prowadzące do rozprawy doktorskiej Bohra były ekscytujące dla
każdego, kto interesował się fizyką eksperymentalną. W tym czasie postępy
techniczne takie jak skonstruowanie szklanych cylindrów próżniowych
z wbudowanym źródłem elektronów – poprzedników „kineskopów”, które
były ekranami w telewizorach starego typu – doprowadziło do wielu
ważnych, przełomowych odkryć. Na przykład odkrycia przez Wilhelma
Röntgena promieni X (1895), odkrycia przez Thomsona elektronu (1897)
i uświadomienia sobie przez urodzonego w Nowej Zelandii fizyka Ernesta
Rutherforda, że pewne pierwiastki chemiczne, takie jak uran i tor, emitują
tajemnicze emanacje (1899–1903). Rutherford (1891–1937) w rzeczywistości
sklasyfikował nie jeden, lecz trzy rodzaje tajemniczych promieni –
promieniowanie alfa, beta i gamma. Te emanacje, jak przypuszczał, były
produktami ubocznymi powstającymi, gdy jeden pierwiastek spontanicznie
rozpada się, tworząc atomy innego pierwiastka.
Odkrycia Thomsona i Rutherforda były ważne, ponieważ wiązały się
z atomem i jego częściami, których – jak się okazało – nie da się opisać za
pomocą praw Newtona ani nawet stworzonej przez niego ramy pojęciowej.
Ich obserwacje więc, jak sobie w końcu uświadomiono, wymagają zupełnie
nowego podejścia do fizyki.
Jeśli jednak zarówno teoretyczne, jak i eksperymentalne postępy w fizyce
z tamtych czasów były oszałamiające, to początkową reakcją społeczności
fizyków na większość z nich było wzięcie tabletki uspokajającej i udawanie,
że nic się nie stało. Tak więc odrzucano nie tylko kwant Plancka i foton
Einsteina, ale również rewolucyjne eksperymenty.
Przed 1905 rokiem ci, którzy myśleli, że atom jest metafizycznym
nonsensem, traktowali mówienie o elektronach – przypuszczalnych
składnikach atomów – mniej więcej równie poważnie jak ateista mógłby
traktować spór o to, czy Bóg jest mężczyzną czy kobietą. Bardziej
zaskakujący jest fakt, że ci, którzy rzeczywiście wierzyli w atomy, również
nie lubili elektronów – ponieważ elektron był domniemaną „częścią” atomu,
a atom miał być „niepodzielny”. Elektron Thomsona wydawał się tak
dziwaczny, że jeden z wybitnych fizyków powiedział, że gdy usłyszał, co
Thomson twierdzi, pomyślał, iż „stroi sobie żarty”327.
Podobnie sformułowana przez Rutherforda idea, że atom jednego
pierwiastka może rozpaść się na atom innego, została odrzucona, jak gdyby
pochodziła od człowieka, który wyhodował długą brodę i nosił szatę
alchemika. W 1941 roku naukowcy mieli się dowiedzieć, jak zmienić rtęć
w złoto – co było dosłownym spełnieniem marzeń alchemików – przez
bombardowanie tego metalu neutronami w reaktorze nuklearnym328. Jeszcze
w 1903 roku koledzy Rutherforda nie byli wystarczająco awanturniczy, żeby
zaakceptować jego śmiałe tezy dotyczące transmutacji pierwiastków. (Jak na
ironię, byli wystarczająco awanturniczo nastawieni, by bawić się żarzącymi
się radioaktywnymi błyskotkami, które Rutherford im dawał, narażając się
w ten sposób na promieniowanie powstające w procesach, które ich zdaniem
nie zachodziły).
Fala dziwnych artykułów badawczych fizyków zarówno teoretycznych, jak
i eksperymentalnych wielu naukowcom musiała się wydawać podobna do
fizycznego odpowiednika dzisiejszej literatury psychologicznej, w której
badacze regularnie twierdzą, że poczynili zaskakujące odkrycia, takie jak
„Ludzie, którzy jedzą więcej winogron, częściej biorą udział w wypadkach
samochodowych”. W rzeczywistości jednak, mimo że konkluzje
wyprowadzane przez fizyków brzmiały dziwacznie, były poprawne.
I w końcu nagromadzenie świadectw eksperymentalnych wraz
z teoretycznymi argumentami Einsteina zmusiło fizyków do zaakceptowania
atomu i jego części.
Za swoją pracę prowadzącą do odkrycia elektronu Thomson dostał Nagrodę
Nobla z fizyki w 1906 roku, natomiast Rutherford w 1908 roku, ale z chemii,
za odkrycie, do którego dążyli brodaci alchemicy w swoich szatach.
Ernest Rutherford (Dzięki uprzejmości Science Source®, a registered trademark of
Photo Researchers, Inc., copyright © 2014 Photo Researchers, Inc. All rights
reserved.)

Tak zatem wyglądała sytuacja, gdy w 1909 roku Niels Bohr przystąpił do
badań w dziedzinie fizyki. Był tylko pięć lat młodszy od Einsteina, ale
różnica była wystarczająco duża, żeby zaliczać go do nowego pokolenia
wkraczającego do dziedziny, która w końcu zaakceptowała zarówno atom,
jak i elektron – choć nadal nie zaakceptowała fotonu.
Na temat swojej rozprawy doktorskiej Bohr wybrał analizę i krytykę teorii
Thomsona. Kiedy skończył, złożył podanie o stypendium, które mu
przyznano, a które pozwalało pracować w Cambridge, tak że mógł poznawać
opinie wielkiego badacza z pierwszej ręki. Dyskutowanie o pomysłach jest
kluczową cechą nauki, a więc ze strony Bohra zwrócenie się do Thomsona ze
swoją krytyką nie przypominało zbytnio sytuacji, gdy student akademii sztuk
pięknych zwraca się do Picassa, żeby mu powiedzieć, iż twarze na jego
obrazach mają za dużo kątów – niemniej było dość podobne. A z pewnością
Thomson nie okazał się szczególnie chętny do wysłuchania swojego krytyka
na dorobku. Bohr miał tam pozostać niemal rok, ale Thomson nie
przedyskutował z nim jego rozprawy – ani nawet jej nie przeczytał.
Brak uwagi ze strony Thomsona miał się okazać błogosławieństwem, gdy
bowiem Bohr błąkał się po Cambridge, nie mogąc zrealizować swojego planu
współpracy z nim, poznał Rutherforda, który przyjechał jako badacz
wizytujący. Rutherford sam pracował pod kierunkiem Thomsona
w młodości, ale w tamtym czasie był już czołowym fizykiem
eksperymentalnym na świecie i dyrektorem centrum badań nad radiacją na
uniwersytecie w Manchesterze. W przeciwieństwie do Thomsona docenił
pomysły Bohra i zaprosił go do pracy w swoim laboratorium.
Rutherford i Bohr tworzyli dziwną parę. Rutherford był wielkim,
energicznym człowiekiem, silnie zbudowanym i wysokim, z szeroką twarzą
i o grzmiącym głosie, tak głośnym, że niekiedy zakłócał działanie czułego
wyposażenia. Bohr był delikatniejszej natury, znacznie łagodniejszy
w wyglądzie i w zachowaniu, miał piegowate policzki, mówił cichym głosem
i troszeczkę się jąkał. Rutherford miał mocny akcent nowozelandzki, Bohr
mówił słabo po angielsku, który w jego ustał brzmiał jak duński. Rutherford,
kiedy mu się sprzeciwiano, słuchał z zainteresowaniem, ale pozwalał, by
rozmowa zakończyła się bez jego odpowiedzi. Bohr żył dla dyskusji i miał
problemy z kreatywnym myśleniem, jeśli w pokoju nie było drugiej osoby,
która sprzeciwiłaby się jego pomysłom i o nie spierała.
Pobyt u Rutherforda był szczęśliwym zbiegiem okoliczności dla Bohra,
choć bowiem pojechał do Manchesteru z myślą, że będzie prowadził
eksperymenty nad atomem, to po przybyciu pochłonął go teoretyczny model
atomu, który Rutherford stworzył na podstawie własnych doświadczeń. To
właśnie dzięki pracy, jaką wykonał nad „atomem Rutherforda”, Bohr miał
ożywić drzemiącą ideę kwantów i osiągnąć to, do czego nie doprowadziły
prace Einsteina o fotonie: ulokować na stałe ideę kwantów na mapie fizyki.

***

Kiedy Bohr przybył do Manchesteru, Rutherford przeprowadzał


eksperymenty, chcąc ustalić, jak rozłożony jest w atomie ładunek
elektryczny. Zdecydował się badać ten problem, analizując sposób, w jaki
naładowane cząstki są odchylane, gdy są wystrzeliwane jak pociski w atom.
Jako naładowane pociski wybrał cząstki alfa – które sam odkrył i które są,
jak wiemy dziś, po prostu naładowanymi dodatnio jądrami helu.
Rutherford jeszcze nie opracował swojego modelu atomu, ale zakładał, że
atom będzie dość dobrze przystawał do innego modelu, opracowanego przez
Thomsona. Protonów i jądra jeszcze nie znano, a w modelu Thomsona atom
składał się z rozproszonego fluidu dodatniego ładunku, w którym krążyły
wystarczająco małe elektrony, równoważąc ładunek dodatni329. Ponieważ
elektrony ważą bardzo mało, Rutherford spodziewał się, że podobnie jak
szklane kulki znajdujące się na drodze kuli armatniej będą miały bardzo
niewielki wpływ na kierunek ciężkich cząstek alfa. To do zbadania znacznie
cięższego fluidu dodatniego ładunku – i sposobu, w jaki miał być on
rozłożony – dążył badacz.
Aparat Rutherforda był prosty. Strumień cząstek alfa tworzony był
z radioaktywnej substancji takiej jak rad i kierowany na cienki kawałek złotej
folii. Za folią ustawiony był mały ekran. Gdy cząstka alfa przeszła przez
folię, uderzała w ekran, wytwarzając maleńki i bardzo słaby błysk światła.
Siedząc przed ekranem ze szkłem powiększającym, można było z pewnym
wysiłkiem zarejestrować jego położenie i określić stopień, w jakim cząstka
alfa została odchylona przez atomy w folii.
Choć Rutherford był słynny na cały świat, ta praca i środowisko robocze
były przeciwieństwem efektowności. Laboratorium znajdowało się
w wilgotnej, ponurej piwnicy, z gołymi rurami biegnącymi po podłodze
i suficie. Ten wisiał tak nisko, że można było uderzyć się w głowę, a podłoga
była tak nierówna, że łatwiej było potknąć się o rurę, zanim uderzyło się
głową w jedną z tych umieszczonych pod sufitem. Samemu Rutherfordowi
brakowało cierpliwości potrzebnej do przeprowadzania pomiarów, a gdy
próbował raz to zrobić, wytrzymał zaledwie dwie minuty, zaklął
i zrezygnował. Natomiast jego asystent Niemiec Hans Geiger był
„demonem”, świetnie odnajdywał się w tym żmudnym zadaniu. Jak na ironię,
sprawił później, że jego umiejętność stała się bezwartościowa, gdy wynalazł
licznik Geigera.
Rutherford spodziewał się, że większość ciężkich, dodatnio naładowanych
cząstek alfa przejdzie przez folię w przestrzeniach między atomami złota zbyt
daleko od każdego z nich, żeby zostały zauważalnie odchylone. Jednak
niektóre, snuł teoretyczne rozważania, przenikną przez jeden atom albo
większą ich liczbę i w ten sposób zboczą nieco z prostej drogi, odepchnięte
przez rozproszone ładunki dodatnie atomów. Eksperyment ten miał
rzeczywiście wyjaśnić strukturę atomu, ale raczej szczęśliwym trafem niż
w sposób, jaki przewidziano.
Na początku wszystkie dane, które zgromadził Geiger, zgadzały się
z oczekiwaniami Rutherforda i wydawały się zgodne z modelem Thomsona.
Wówczas pewnego dnia 1909 roku Geiger zasugerował, by student Ernest
Marsden przeprowadził „małe badanie” w celu pogłębienia doświadczenia.
Rutherford, który chodził na zajęcia z teorii prawdopodobieństwa na
wydziale matematyki, zdał sobie sprawę, że może istnieć niewielka szansa, iż
kilka z cząsteczek alfa zostało odchylonych pod nieco większym kątem, niż
jego aparat mógł wykryć. Zasugerował więc Geigerowi, żeby Marsden
przeprowadził pewną wersję ich eksperymentu, by przyjrzeć się tej
możliwości.
Marsden zabrał się do pracy nad znalezieniem cząstek odchylonych
mocniej niż te, których Geiger szukał wcześniej – nawet bardzo mocno
odchylonych, co pozostawałoby w sprzeczności z całą „wiedzą” Rutherforda
o strukturze atomu. Zadanie to było, zdaniem Rutherforda, niemal na pewno
ogromną stratą czasu. Innymi słowy, odpowiednim zajęciem dla studenta.
Eksperyment Rutherforda ze złotą folią (Autor: Derya Kadipasaoglu)

Marsden pilnie przypatrywał się, jak cząstki alfa, jedna po drugiej,


przelatują przez folię, jak się spodziewano, bez żadnych poważniejszych
odchyleń. I wtedy wydarzyło się to, co było właściwie niewyobrażalne:
scyntylacja pojawiła się na ekranie detekcyjnym, choć znajdował się on
daleko. W końcu z wielu tysięcy cząstek alfa, które Marsden zaobserwował,
tylko garstka została odchylona pod kątami ostrymi, ale jedna czy dwie
z nich powróciły niemal jak bumerang. To wystarczyło.
Po usłyszeniu tych wieści Rutherford uznał je za „najbardziej
niewiarygodne zdarzenie, jakie przytrafiło mi się w życiu. Było to niemal
równie niewiarygodne, jak gdyby wystrzelić piętnastocalowy pocisk
w kawałek bibułki, a ten odbił się i wracając, trafił w nas”330. Zareagował
w ten sposób, ponieważ jego obliczenia matematyczne mówiły mu, że
w złotej folii musiałoby się znajdować coś niewyobrażalnie małego
i potężnego, żeby spowodować nieczęste, ale silne odchylenia takie jak to.
A więc mimo wszystko Rutherford nie wyjaśnił szczegółów modelu
Thomsona – odkrył natomiast, że ów model jest błędny.
Przed wykonaniem doświadczenia Marsdena projekt wydawał się
dziwaczny, przypominał tego rodzaju działanie, przed którym ostrzegał mnie
Feynman. Jednak stulecie po jego przeprowadzeniu opisany tu eksperyment
był powszechnie chwalony jako błyskotliwy. I istotnie, bez niego
prawdopodobnie nie byłoby „atomu Bohra”, co oznacza, że spójna teoria
kwantu najprawdopodobniej pojawiłaby się – zakładając, że nadal miałaby
się pojawić – wiele lat później. To z kolei wywarłoby wielki wpływ na to, co
nazywamy postępem technicznym. Przede wszystkim opóźniłoby się
zbudowanie bomby atomowej, co oznaczałoby, że bomba nie zostałaby użyta
przeciwko Japonii, dzięki czemu prawdopodobnie ocalałoby wielu
niewinnych japońskich cywilów, ale kosztowałoby to też życie wielu
żołnierzy, poległych podczas inwazji aliantów. Przeszkodziłoby to również
w dokonaniu wielu innych wynalazków, takich jak tranzystor, a tym samym
w zainicjowaniu epoki komputerów. Trudno orzec, jakie dokładnie byłyby
skutki nieprzeprowadzenia tego jednego, na pozór bezcelowego
eksperymentu w sam raz dla studenta, ale można bezpiecznie stwierdzić, że
dzisiejszy świat wyglądałby zupełnie inaczej. A zatem znów dostrzegamy tu,
że dziwaczny zwariowany projekt od innowacyjnej idei, która wszystko
zmienia, dzieli bardzo cienka linia.
W końcu Rutherford nadzorował wiele kolejnych eksperymentów,
w których Geiger i Marsden zaobserwowali ponad milion scyntylacji.
Na podstawie tych danych opracował swoją teorię dotyczącą struktury
atomu, różniącą się od teorii Thomsona tym, że choć wciąż przedstawiała
elektrony jako poruszające się po koncentrycznych orbitach, to ładunek
dodatni nie był już rozproszony, tylko skoncentrowany w maleńkim centrum
atomu. Jednak drogi Geigera i Marsdena miały się niebawem rozejść.
Podczas I wojny światowej walczyli po przeciwnych stronach frontu,
a później wykorzystywali swoją wiedzę po przeciwnych stronach w trakcie II
wojny światowej: gdy Marsden pracował nad nową technologią radaru,
Geiger, zwolennik nazistów, skupiał się na budowaniu niemieckiej bomby
atomowej331.
Model atomu Rutherforda wszyscy poznaliśmy w szkole podstawowej;
zgodnie z nim elektrony poruszają się po orbitach wokół jądra tak jak planety
po orbitach wokół Słońca. Jak wiele koncepcji w nauce, wydaje się to
nieskomplikowane, kiedy zostanie sprowadzone do codziennego wizerunku,
takiego jak model w sali do fizyki, jednak prawdziwa błyskotliwość tej idei
tkwi właśnie w tych „technicznych” komplikacjach, które znikają w procesie
prowadzącym do powstania prostych obrazów. Posiadanie intuicyjnego
obrazu jest pomocne, ale tym, co sprawia, że idea w fizyce żyje, są jej
matematyczne konsekwencje. A więc fizyk musi być nie tylko marzycielem,
ale również technikiem.
Rutherfordowi marzycielowi eksperyment ten mówił, że ogromna
większość masy atomu i cały dodatni ładunek muszą być skoncentrowane
w jego centrum, w niewiarygodnie małej kuleczce naładowanej materii, tak
gęstej, że jej filiżanka ważyłaby sto razy więcej niż Mount Everest332. (To, że
ani ja, ani Wy nie ważymy tyle, jest świadectwem faktu, iż jądro to jedynie
maluteńka kropka w centrum atomu, który poza tym składa się w większości
z pustej przestrzeni). Ten centralny rdzeń atomu miał on nazwać później
„jądrem”.
Rutherford matematyk przedzierał się przez złożone techniczne formuły
matematyczne, żeby się dowiedzieć, czy rzeczywiście – jeśli obraz, który
sobie wymarzył, był prawdziwy – jego eksperyment da właśnie takie
obserwacje, jakie poczynił jego zespół. Większość szybkich, ciężkich cząstek
alfa miała przejść przez złotą folię, mijając maleńkie centra atomów,
a w rezultacie powinny zostać tylko troszkę odchylone. Zarazem nieliczne
cząstki – te, które przeleciały blisko jądra – miały napotkać intensywne pole
siłowe powodujące silne odchylenie. Moc tego pola siłowego musiała
wydawać się Rutherfordowi równie fantastyczna, jak wydają się nam dziś
pola siłowe w filmach science fiction. Ale nawet jeśli nie potrafimy jeszcze
tworzyć takich pól w naszym makroświecie, istnieją one wewnątrz atomu.
Przewidywane odchylenie cząstek alfa w wypadku atomów Thomsona (po lewej)
i Rutherforda (po prawej) (Autor: Derya Kadipasaoglu)

Ważną kwestią, którą Rutherford odkrył, było to, że dodatni ładunek jądra
jest skoncentrowany w jego centrum, a nie rozproszony. Jego obraz
elektronów jako orbitujących wokół jądra jak planety wokół Słońca był
natomiast całkowicie błędny – i Rutherford to wiedział.
Po pierwsze, analogia do Układu Słonecznego pomija oddziaływania
między planetami Układu Słonecznego, i podobnie między różnymi
elektronami w atomie. Te oddziaływania nie są wcale do siebie podobne.
Planety, które mają całkiem sporą masę, ale nie mają wypadkowego ładunku
elektrycznego, oddziałują między sobą przez grawitację; elektrony, które są
naładowane, ale mają małą masę, oddziałują poprzez siłę
elektromagnetyczną. Grawitacja jest skrajnie słabą siłą, tak że przyciąganie,
jakie planety na siebie wywierają, jest tak małe, iż dla wielu praktycznych
celów można je pominąć; natomiast elektrony odpychają się nawzajem
niezmiernie mocną siłą elektromagnetyczną, która szybko rozerwałaby
eleganckie kołowe orbity.
Po drugie, rażącym problemem było to, że zarówno planety, jak i elektrony,
które poruszają się po okręgu, będą emitować fale energii – energii
grawitacyjnej w wypadku planet i energii elektromagnetycznej w wypadku
elektronów. I znów, ponieważ grawitacja jest tak słaba, w ciągu miliardów lat
istnienia naszego Układu Słonecznego planety straciły mniej niż kilka
procent swojej energii. (W istocie ten efekt nie był nawet znany, dopóki nie
przewidziała go teoria grawitacji Einsteina z 1916 roku). Z kolei siła
elektromagnetyczna jest tak potężna, że zgodnie z teorią Maxwella orbitujące
elektrony Rutherforda wypromieniowałyby całą swoją energię i spadły na
jądro w mniej więcej jedną tysiącmilionową sekundy. Innymi słowy, gdyby
model Rutherforda był prawdziwy, Wszechświat, jaki znamy, by nie istniał.
Jeśli miałoby istnieć przewidywanie, o którym pomyślelibyście, że
prawdopodobnie pogrzebie teorię, byłoby to przewidywanie, że Wszechświat
nie istnieje. Dlaczego więc potraktowano je na serio?
Ilustruje to kolejną ważną kwestię w odniesieniu do postępu w fizyce:
większość teorii nie jest teoriami o wielkim zakresie, lecz raczej konkretnymi
modelami mającymi wytłumaczyć konkretną sytuację. Nawet więc jeśli mają
one pewne wady i jesteśmy świadomi, że model zawodzi w niektórych
sytuacjach, wciąż może być użyteczny.
W odniesieniu do koncepcji Rutherforda fizycy, którzy pracowali nad
atomem, docenili to, że jego model dawał poprawne przewidywania
dotyczące jądra i zakładał, że jakiś przyszły eksperyment ujawni zasadnicze
brakujące fakty. Pozwolą one rozwiązać problem, jak elektrony weszły do
tego obrazu i dlaczego atom jest stabilny. Natomiast nie było oczywiste, że
atom wymaga nie jedynie lepszego wyjaśnienia, tylko wyjaśnienia
rewolucyjnego. Blady i skromny Niels Bohr miał odmienne podejście do
rzeczy. Dla młodego Bohra atom Rutherforda i jego sprzeczności były
stogiem siana, w którym kryła się złota igła. I był zdeterminowany, by ją
znaleźć.

***

Bohr postawił sobie pytanie: Jeśli atom nie wysyła fal energii, jak wymaga
teoria klasyczna (przynajmniej według modelu Rutherforda), to czy może się
tak dziać dlatego, że nie podlega on prawom klasycznym? Idąc po tej linii
rozumowania, Bohr sięgnął po pracę Einsteina o efekcie fotoelektrycznym.
Postawił pytanie, co to by znaczyło, gdyby idea kwantu stosowała się
również do atomu. To znaczy, co by było, jeśli atom tak jak kwanty światła
Einsteina mógł mieć tylko określone energie? Ta idea doprowadziła go do
rewizji modelu Rutherforda i stworzenia tego, co miało zostać nazwane
atomem Bohra.
Bohr zgłębiał swój pomysł, koncentrując uwagę na najprostszym atomie,
atomie wodoru, który składa się z pojedynczego elektronu orbitującego
wokół jądra, w tym wypadku pojedynczego protonu. Trudność
przedsięwzięcia ilustruje fakt, że w tym czasie nie było nawet oczywiste, czy
wodór rzeczywiście ma tę najprostszą budowę – Bohr musiał wydedukować,
że ma on tylko jeden elektron, z serii eksperymentów przeprowadzonych
przez Thomsona333.
Fizyka newtonowska przewiduje, że elektron dopóty może okrążać jądro
(które w wypadku wodoru składa się tylko z jednego protonu) w dowolnej
odległości, dopóki jego prędkość i energia mają właściwe wartości, które są
zdeterminowane przez tę odległość. Im mniejsza jest odległość elektronu od
protonu, tym niższa musi być energia atomu. Załóżmy jednak w duchu
Einsteina, że sprzeciwilibyśmy się teorii newtonowskiej, dodając nowe
prawo nakazujące, iż – z nieznanego jeszcze powodu – nie może on mieć
dowolnej energii, lecz raczej jedynie energię o wartości należącej do
pewnego dyskretnego zbioru możliwości. Ponieważ promień orbity
zdeterminowany jest przez energię, to ograniczenie nałożone na dozwolone
wartości energii przełożyłoby się na ograniczenie możliwych promieni, na
których elektrony mogą orbitować. Kiedy przyjmujemy takie założenie,
mówimy, że energia atomu i promienie orbit elektronów są „skwantowane”.
Bohr postulował, że jeśli te własności atomu są skwantowane, to elektron
nie może w ciągły sposób spadać po spirali na jądro, a atom tracić energii
w taki sam sposób, jak przewiduje klasyczna teoria Newtona; zamiast tego
może ją tracić tylko w „porcjach”, gdy elektron przeskakuje z jednej
dozwolonej orbity na drugą. Zgodnie z modelem Bohra, kiedy atom zostaje
pobudzony przez dostarczenie energii – na przykład z fotonu – pochłonięta
energia sprawia, że elektron przeskakuje na jedną z odleglejszych orbit
o wyższej energii. I za każdym razem, gdy następuje przeskok na mniejszą
orbitę o niższej energii, kwant światła – foton – jest emitowany
z częstotliwością odpowiadającą różnicy energii między tymi dwiema
orbitami.
Załóżmy teraz, że – znów z jakiegoś nieznanego jeszcze powodu – istnieje
najniższa dozwolona orbita, orbita o najniższej energii, którą Bohr nazwał
„stanem podstawowym”. W takim razie gdy elektron osiąga ten stan, nie
może już tracić energii, nie spada więc na jądro, jak przewidywał model
Rutherforda. Bohr spodziewał się, że podobny, nawet jeśli bardziej
skomplikowany układ będzie działał dla innych pierwiastków, których atomy
zawierają wiele elektronów: postrzegał kwantyzację jako klucz do stabilności
atomu w modelu Rutherforda – a tym samym całej materii we
Wszechświecie.
Podobnie jak prace Plancka nad promieniowaniem ciała doskonale
czarnego i Einsteinowskie wyjaśnienie efektu fotoelektrycznego, idee Bohra
nie wywodziły się z ogólnej teorii kwantu, lecz raczej były koncepcjami ad
hoc wymyślonymi w celu wyjaśnienia jednego zjawiska – w tym wypadku
stabilności atomu w modelu Rutherforda. Jest świadectwem ludzkiej
pomysłowości, mimo bowiem braku „teorii matki”, która zrodziłaby ten
model, obraz przedstawiony przez Bohra, podobnie jak te Plancka
i Einsteina, był zasadniczo trafny.
Bohr miał później powiedzieć, że rozmyślania o atomie nabrały kształtu
dopiero po przypadkowej rozmowie z przyjacielem w lutym 1913 roku.
Ów przyjaciel przypomniał mu prawa dziedziny nazywanej spektroskopią –
badania światła emitowanego przez pierwiastek w stanie gazowym, który
został „wzbudzony” na przykład przez wyładowanie elektryczne albo
intensywne ciepło. Od dawna wiadomo było, że – z powodów, których nie
rozumiano – w tych sytuacjach każdy gazowy pierwiastek emituje szczególną
grupę fal elektromagnetycznych charakteryzujących się ograniczonym
zbiorem częstotliwości. Te częstotliwości nazywane są liniami spektralnymi
i stanowią swego rodzaju „odcisk palca”, na podstawie którego można
zidentyfikować pierwiastki. Po rozmowie z przyjacielem Bohr zdał sobie
sprawę, że może zastosować swój model atomu, by przewidzieć, jak
powinien wyglądać ów „odcisk palca” wodoru, wiążąc tym samym teorię
z testem danych eksperymentalnych. To oczywiście właśnie ten krok
awansuje ideę w nauce z poziomu obiecującej albo „pięknej” koncepcji do
poziomu poważnej teorii.
Kiedy Bohr ukończył obliczenia, wynik wprawił w osłupienie nawet jego:
różnice w energii między „dozwolonymi orbitami” odpowiadały dokładnie
wszystkim częstotliwościom wielu serii linii spektralnych, które
zaobserwowano. Trudno wyobrazić sobie radość dwudziestosiedmioletniego
badacza, jaką musiał czuć, kiedy uświadomił sobie, że za pomocą swojego
prostego modelu odtworzył wszystkie zawiłe formuły poprzedników
prowadzących obserwacje spektroskopowe i wyjaśnił ich źródło.
Bohr opublikował swoje arcydzieło o atomie w lipcu 1913 roku. Ciężko
pracował na ten tryumf. Od lata 1912 roku do tego inspirującego momentu
w lutym 1913 roku mocował się ze swoimi pomysłami dzień i noc,
poświęcając pracy tyle czasu, że nawet jego pilni koledzy byli zatrwożeni.
Obawiali się wręcz, że może paść z wyczerpania. Jeden incydent mówi
wszystko: ustalił datę ślubu na 1 sierpnia 1912 roku i uroczystość odbyła się
w wyznaczonym terminie, ale Bohr odwołał miesiąc miodowy, który
małżonkowie planowali w malowniczej Norwegii, a ten czas spędził
w pokoju hotelowym w Cambridge, dyktując artykuł o swojej pracy dopiero
co poślubionej żonie.
Nowa teoria Bohra, która była takim miszmaszem, stanowiła jedynie
początek. Na przykład Bohr nazwał dozwolone orbity „stanami
stacjonarnymi”, ponieważ elektrony, nie emitując promieniowania, jak
wymagała teoria klasyczna, zachowywały się, jak gdyby się nie poruszały.
Równocześnie często mówił o „stanie ruchu” elektronów, przedstawiając je
jako krążące wokół jądra po dozwolonych orbitach dopóty, dopóki albo nie
przeskoczą na orbitę o niższej energii, albo nie zostaną wzbudzone przez
docierające z zewnątrz promieniowanie i nie przeskoczą do stanu o wyższej
energii. Wspominam o tym, ponieważ ilustruje to fakt, że Bohr stosował dwa
wzajemnie sprzeczne obrazy. Jest to podejście wielu pionierów w fizyce
teoretycznej – w literaturze mówi się, że nie należy mieszać metafor, ale
w fizyce, jeśli wiemy, że jedna metafora nie jest w pełni odpowiednia,
powszechne jest (ostrożne) domieszanie innej.
W tym wypadku Bohr nie był szczególnie zadowolony z klasycznego
obrazu atomu podobnego do Układu Słonecznego, ale był to jego punkt
wyjścia, a żeby stworzyć swoją nową teorię, zastosował równania fizyki
klasycznej, które dotyczyły promienia i energii orbit elektronów, dodając
nowe idee kwantowe takie jak zasada stanów stacjonarnych, i w ten sposób
stworzył zmodyfikowany obraz.
Model atomu Bohra spotkał się początkowo z mieszanymi reakcjami.
Na uniwersytecie z Monachium wpływowy fizyk Arnold Sommerfeld (1868–
1951) nie tylko natychmiast dostrzegł tu kamień milowy nauki, ale też sam
zaczął pracować nad tym pomysłem, badając zwłaszcza jego związki z teorią
względności. Zarazem Einstein powiedział, że dokonanie Bohra było
„jednym z największych odkryć [w ogóle]”334. Jednak prawdopodobnie
najbardziej wymownie pokazuje, jak bardzo szokujący wydawał się model
atomu Bohra fizykom z jego epoki, inny komentarz wygłoszony przez
Einsteina. Człowiek, który był dość śmiały, by zaproponować nie tylko
istnienie kwantów, lecz także ideę, że przestrzeń, czas i grawitacja są ze sobą
powiązane, powiedział o modelu Bohra, że rozważał podobne pomysły, ale
z uwagi na ich „skrajną nowość” nie miał odwagi, by je opublikować.
To, że ta publikacja wymagała odwagi, odzwierciedlają niektóre inne
reakcje na koncepcję Bohra. Na przykład na uniwersytecie w Getyndze,
czołowej niemieckiej uczelni, panowała – jak wspominał później Bohr –
pełna zgoda, „że cała ta sprawa była jakimś okropnym nonsensem,
graniczącym z oszustwem”. Pewien naukowiec z Getyngi, ekspert
od spektroskopii, tak opisał postawę panującą w tym środowisku: „Było
w najwyższym stopniu godnym pożałowania, że literatura jest
zanieczyszczana takimi marnymi informacjami, zdradzającymi tak wielką
ignorancję”335. Zarazem jeden z wielkich starców brytyjskiej fizyki, lord
Rayleigh, stwierdził, że nie mógł zmusić się do uwierzenia, iż „Przyroda
zachowuje się w taki sposób”336. Jednak dodał – proroczo – że „ludzie
powyżej siedemdziesiątki nie powinni się spieszyć z wyrażaniem opinii
o nowych teoriach”337. Inny czołowy brytyjski fizyk Arthur Eddington
również był mniej entuzjastycznie nastawiony, odrzuciwszy już idee
kwantowe Plancka i Einsteina jako „niemiecki wynalazek”338.
Nawet Rutherford zareagował negatywnie. Po pierwsze, miał niewiele
upodobania do fizyki teoretycznej. Po drugie, tym, co uwierało go w pracy
Bohra – która przecież rewidowała jego własny model atomu – było to, że
duński kolega nie przedstawił żadnego mechanizmu dla elektronu
wykonującego przeskoki między poziomami energetycznymi, które
postulował. Na przykład jeśli elektron, przechodząc na poziom energetyczny
odpowiadający mniejszej orbicie, „przeskakuje” na nową orbitę, a nie
przemieszcza się w sposób ciągły „po spirali” w kierunku środka atomu, to
jakiego rodzaju drogę pokonuje podczas tego „przeskoku” i co nim
powoduje?
Jak się okazało, zastrzeżenia Rutherforda trafiły w samo sedno. Nie tylko
nigdy nie znaleziono takiego mechanizmu, ale gdy teoria kwantowa dojrzała i
stała się ogólną teorią przyrody, miała nakazać, że na takie pytania nie ma
odpowiedzi, a tym samym nie ma dla nich miejsca we współczesnej nauce.
To, co w końcu miało przekonać świat fizyki o poprawności pomysłów
Bohra – a tym samym również wcześniejszych prac Plancka i Einsteina –
pojawiło się w latach 1913–1923339. Stosując swoją teorię do atomów
pierwiastków cięższych od wodoru, Bohr zdał sobie sprawę, że porządkując
pierwiastki według liczby atomowej, a nie masy atomowej, jak zrobił to
Mendelejew, można wyeliminować pewne błędy w układzie okresowym
Mendelejewa.
Masa atomowa określona jest przez liczbę protonów i neutronów w jądrze
atomu. Liczba atomowa, przeciwnie, równa się liczbie protonów, która –
ponieważ atom nie ma ogólnego ładunku elektrycznego – jest liczbą
elektronów, które ten atom zawiera. Atomy z większą liczbą protonów w
jądrze mają na ogół również więcej neutronów, ale nie zawsze, tak że te dwie
miary mogą mieć różne konsekwencje dla porządkowania pierwiastków.
Teoria Bohra pokazała, że liczba atomowa jest właściwym parametrem, na
którym należy oprzeć układ okresowy, ponieważ to protony i elektrony, a nie
neutrony, określają chemiczne własności pierwiastków. Zajęło to ponad
pięćdziesiąt lat, ale dzięki Bohrowi nauka mogła teraz wyjaśnić, dlaczego
tajemniczy układ okresowy Mendelejewa działa.
Wraz z przekształcaniem się idei kwantowych w ogólną strukturę, która
miała zastąpić prawa Newtona, fizycy w końcu zdołali sformułować
równania pozwalające w zasadzie na wyprowadzenie zachowania wszystkich
atomów – choć w większości wypadków wymagało to technologii
superkomputerów. Nikt jednak nie musiał czekać na zbudowanie
superkomputerów, by przetestować pomysły Bohra dotyczące znaczenia
liczby atomowej: tak jak Mendelejew przewidział on własności jeszcze
nieodkrytego pierwiastka – jak na ironię, tego, co do którego Mendelejew się
mylił, ponieważ oparł swój system na masie atomowej.
Pierwiastek ten został odkryty niedługo potem, w 1923 roku i nazwany
hafnem (Hafnia to łacińska nazwa rodzinnego miasta Bohra, Kopenhagi). Po
jego odkryciu żaden fizyk (ani chemik) nie mógł już wątpić w prawdziwość
teorii Bohra340. Pięćdziesiąt lat później nazwisko Bohra miało dołączyć do
nazwiska Mendelejewa w układzie okresowym wraz z nadaniem
pierwiastkowi 107 nazwy bor w 1997 roku. W tym samym roku jego dawny
mentor – a niekiedy krytyk – również został uhonorowany nadaniem
pierwiastkowi 104 nazwy rutherford341.

324 Leonard Mlodinow, Feynman’s Rainbow: A Search for Beauty in Physics and in
Life, Vintage, Nowy Jork 2011, s. 94–95.

325 Abraham Pais, „Pan Bóg jest wyrafinowany...”. Nauka i życie Alberta Einsteina,
przeł. P. Amsterdamski, Prószyński i S-ka, Warszawa 2001, s. 387.

326 Więcej o życiu i działalności naukowej Bohra oraz o jego relacji z Ernestem
Rutherfordem zob.: Niels Blaedel, Harmony and Unity: The Life of Niels Bohr, Springer
Verlag, Nowy Jork 1988, oraz Barbara Lovett Cline, The Men Who Made a New Physics,
University of Chicago Press, Chicago 1965, s. 1–30, 88–126. [Zob. też Abraham Pais, Czas
Nielsa Bohra, przeł. P. Amsterdamski, Prószyński i S-ka, Warszawa 2006 (przyp. tłum.)].

327 Corpuscles to Electrons, American Institute of Physics, dostęp: 28 października


2014 r., http://www.aip.org/history/electron/jjelectr.htm.

328 R. Sherr, K.T. Bainbridge i H.H. Anderson, Transmutation of Mercury by Fast


Neutrons, „Physical Review” 1941, nr 60, s. 473–479.

329 John L. Heilbron i Thomas A. Kuhn, The Genesis of the Bohr Atom, w: Historical
Studies in the Physical Sciences, t. 1, red. Russell McCormmach, Philadelphia 1969,
University of Pennsylvania Press, s. 226.

330 William H. Cropper, Great Physicists: The Life and Times of Leading Physicists
from Galileo to Hawking, Oxford University Press, Oksford 2001, s. 317.

331 Więcej o Geigerze zob.: Jeremy Bernstein, Nuclear Weapons: What You Need to
Know, Cambridge University Press, Cambridge 2008, s. 19–20; Diana Preston, Before the
Fallout: From Marie Curie to Hiroshima, Bloomsbury, Nowy Jork 2009, s. 157–158.

332 Dokładnie byłoby to sto miliardów ton, a Mount Everest waży około miliarda ton.
Zob. Neutron Stars, NASA Mission News, 23 sierpnia 2007 r., dostęp: 27 października
2014 r., http://www.nasa.gov/mission_pages/GLAST/science/neutron_stars_prt.htm.

333 John D. McGervey, Introduction to Modern Physics, Academic Press, Nowy Jork
1971, s. 76.

334 Stanley Jaki, The Relevance of Physics, University of Chicago Press, Chicago 1966,
s. 95.

335 Niels Blaedel, Harmony and Unity, op. cit., s. 60.

336 Stanley Jaki, Relevance of Physics, op. cit., s. 95.

337 Ibidem.

338 Ibidem, s. 96.

339 Niels Blaedel, Harmony and Unity, op. cit., s. 78–80; Jagdish Mehra i Helmut
Rechenberg, The Historical Development of Quantum Theory, t. 1, Springer Verlag, Nowy
Jork 1982, s. 196, 355.

340 Niels Blaedel, Harmony and Unity, op. cit., s. 79–80.

341 Poza Mendelejewem, Bohrem, Rutherfordem i Lise Meitner – o których


wspomniałem wcześniej – jeszcze dwunastu naukowców uhonorowano, nazywając od ich
nazwisk pierwiastki, są to: Wasilij Samarski-Bykowiec (samar), Johan Gadolin (gadolin),
Marie Skłodowska-Curie i Pierre Curie (kiur), Albert Einstein (einstein), Enrico Fermi
(ferm), Alfred Nobel (nobel), Ernest Lawrence (lorens), Glenn T. Seaborg (seaborg),
Wilhelm Röntgen (roentgen), Mikołaj Kopernik (kopernik) i Gieorgij Florow (flerow).
12.

Rewolucja kwantowa

Mimo że wszystkie błyskotliwe i gorliwe umysły skoncentrowały się na


badaniach kwantów i pomimo paru niezwiązanych ze sobą prawd, które
sformułowano lub odkryto przypadkiem, na początku lat dwudziestych XX
wieku nadal nie istniała ogólna teoria kwantu ani nie było żadnej wskazówki,
że jej opracowanie jest w ogóle możliwe. Bohr opracował pewne zasady,
które – jeśli były prawdziwe – wyjaśniały, dlaczego atomy są stabilne, i
tłumaczyły ich linie spektralne, ale dlaczego te zasady są prawdziwe i jak
stosuje się je do analizowania innych układów? Nikt nie wiedział.
Wielu fizyków kwantowych czuło się zniechęconych. Max Born (1882–
1970), przyszły laureat Nagrody Nobla, który miał niebawem wprowadzić
termin „foton”, napisał: „Myślę bez nadziei o teorii kwantowej, próbując
znaleźć receptę na obliczenie helu i innych atomów; ale nie udaje mi się to
[…] Kwanty znajdują się naprawdę w beznadziejnym zamęcie”342. A
Wolfgang Pauli (1900–1958), kolejny przyszły noblista, który miał
zaproponować, a później opracować matematyczną teorię własności
nazywanej spinem, ujął to następująco: „Fizyka pogrążona jest aktualnie w
zamęcie; w każdym razie jest dla mnie zdecydowanie za trudna i żałuję, że
nie jestem komikiem filmowym albo kimś takim, kto nigdy o niej nie
słyszał”343.
Przyroda zadaje nam zagadki i to my musimy je zrozumieć. Jedną z cech
fizyków jest to, że niezmiennie głęboko wierzą, iż te zagadki zawierają
głębokie prawdy. Wierzymy, że przyroda rządzona jest przez ogólne prawa i
nie jest jedynie mieszaniną niezwiązanych ze sobą zjawisk. Pierwsi badacze
zajmujący się kwantami nie wiedzieli, jaka będzie ogólna teoria kwantowa,
ale ufali, że taka teoria powstanie. Świat, który badali, uparcie przeciwstawiał
się wyjaśnieniom, ale wyobrażali sobie, że można go zrozumieć. Marzenia
podtrzymywały ich na duchu. Mieli chwile zwątpienia i rozpaczy, jak my
wszyscy, ale posuwali się naprzód w tej trudnej podróży, która pochłaniała
całe lata ich życia, motywowani wiarą, że na jej końcu czeka ich nagroda w
postaci prawdy. Jak w wypadku każdego bardzo trudnego przedsięwzięcia,
przekonujemy się, że ci, którym się udało, mieli silne przekonanie, ponieważ
ci słabej wiary zrezygnowali, zanim mogło im się udać.
Łatwo zrozumieć desperację takich badaczy jak Born i Pauli, teoria
kwantowa bowiem nie tylko była wyzwaniem sama w sobie, ale też pojawiła
się w trudnych czasach. Większość pionierów fizyki kwantowej pracowała w
Niemczech albo przemieszczała się między Niemcami i instytutem, na
którego utworzenie na uniwersytecie w Kopenhadze w 1921 roku zgromadził
pieniądze Bohr, a więc przypadło im poszukiwanie nowego porządku
naukowego, w czasie gdy porządek społeczny i polityczny wokół nich
pogrążał się w chaosie. W 1922 roku został zamordowany niemiecki minister
spraw zagranicznych. W 1923 roku wartość marki niemieckiej spadła do
jednej bilionowej poziomu przedwojennego i trzeba było pięciuset bilionów
tych „niemieckich dolarów”, żeby kupić kilogram chleba. Jednak nowi fizycy
kwantowi karmili się dążeniem do zrozumienia atomu i – szerzej –
fundamentalnych praw przyrody, które znajdują zastosowanie w tej
maleńkiej skali.
Ich głód zaczął być w końcu zaspokajany w połowie tej dekady.
Następowało to zrywami, począwszy od artykułu opublikowanego w 1925
roku przez dwudziestotrzyletniego Wernera Heisenberga (1901–1976).

***

Urodzony w Würzburgu w Niemczech Heisenberg, syn profesora języków


klasycznych, już w młodym wieku okazywał wyjątkową błyskotliwość – i
równie wyjątkową skłonność do konkurowania344. Ojciec rozbudzał w nim
tego ducha konkurencji, a Heisenberg często staczał walki ze starszym o rok
bratem. Punktem kulminacyjnym krwawego konfliktu był moment, kiedy
pobili się drewnianymi krzesłami, po czym zawarli rozejm, który miał trwać
głównie dlatego, że każdy z nich poszedł własną drogą, obaj opuścili dom i
nie rozmawiali przez resztę życia. W późniejszych latach Heisenberg miał
atakować wyzwania, jakie stawiała mu praca, z takim samym zapałem.
Werner miał zawsze traktować konkurencję jako osobiste wyzwanie. Nie
odznaczał się szczególnym talentem do jazdy na nartach, ale trenował, aż stał
się doskonałym narciarzem. Jednak co najważniejsze, kiedy na studiach
odkrył, że ma talent do arytmetyki, skłoniło go to do większego
zainteresowania matematyką i jej zastosowaniami.
Latem 1920 roku postanowił zrobić doktorat z matematyki. Przyjęcie na
studia wymagało przekonania członka fakultetu, by został jego opiekunem, a
dzięki koneksjom ojca Heisenbergowi udało się spotkać ze znanym
matematykiem Ferdinandem von Lindemannem z uniwersytetu w
Monachium. Jak się okazało, nie była to miła wizyta, na jaką można się
niekiedy umówić dzięki znajomościom, podczas której gość dostałby herbatę
i tort szwarcwaldzki i dowiedział się, że słyszano o jego błyskotliwości
niesamowite historie. Raczej było to bardzo niedobre spotkanie, podczas
którego Lindemann – dwa lata przed emeryturą, częściowo głuchy i niezbyt
zainteresowany studentem pierwszego roku – trzymał na biurku pudla, który
szczekał tak głośno, że ledwie można było usłyszeć Heisenberga. Jednak w
końcu – jak się wydaje – szanse potencjalnego matematyka pogrzebało
naprawdę to, że wspomniał, iż przeczytał książkę o teorii względności
Einsteina napisaną przez matematyka Hermanna Weyla. Dowiedziawszy się,
że młody człowiek zainteresował się książką o fizyce, Lindemann, teoretyk
liczb, nagle zakończył rozmowę stwierdzeniem: „W takim razie jesteś
całkowicie stracony dla matematyki”345.
Lindemann mógł mieć przez to na myśli, że okazywanie zainteresowania
fizyką jest dowodem złego smaku, choć jako fizyk lubię myśleć, że tak
naprawdę chciał powiedzieć, iż skoro Heisenberg zajął się znacznie bardziej
interesującym tematem, nigdy nie będzie miał cierpliwości do matematyki.
W każdym razie arogancja i zamknięcie się na nowe idee Lindemanna
zmieniły bieg historii, gdyby bowiem zachęcił Heisenberga do matematyki,
fizyka straciłaby człowieka, którego idee miały stać się trzonem teorii
kwantowej346.
Po odrzuceniu przez Lindemanna Heisenberg nie widział zbyt wielu
możliwości i postanowił spróbować zdobyć nagrodę pocieszenia, robiąc
doktorat z fizyki pod kierownictwem Arnolda Sommerfelda, wielkiego
zwolennika modelu atomu Bohra, który zresztą wniósł już swój wkład w tę
teorię. Sommerfeld, drobny, łysiejący mężczyzna z wielkimi wąsami,
niemający pudla, był pod wrażeniem, że młody Heisenberg poradził sobie z
książką Weyla. Nie był pod wystarczająco dużym wrażeniem, by wziąć go
pod swoją opiekę, ale dość dużym, by zgodził się być jego tymczasowym
opiekunem. „Może być tak, że coś wiesz; może być tak, że nic nie wiesz –
stwierdził. – Zobaczymy”347.
Heisenberg, oczywiście, naprawdę coś wiedział. Wystarczająco dużo, żeby
ukończyć doktorat pod kierunkiem Sommerfelda w 1923 roku, a w 1924 roku
otrzymać habilitację, pracując pod kierownictwem Borna w Getyndze.
Jednak jego droga do nieśmiertelności zaczęła się naprawdę, gdy odwiedził
Bohra w Kopenhadze jesienią 1924 roku.
Kiedy tam przyjechał, Bohr podejmował błędnie ukierunkowane wysiłki,
by poprawić swój model atomu, a Heisenberg przyłączył się do pracy.
Napisałem „błędnie ukierunkowane” nie tylko dlatego, że te wysiłki się nie
powiodły, ale z uwagi na ich cel: Bohr chciał się pozbyć ze swojego modelu
fotonu, Einsteinowskiego kwantu światła. Wydawałoby się to dziwne, skoro
to właśnie idea kwantu światła zainspirowała Bohra do pomyślenia o tym, że
atom może mieć tylko określone, dyskretne wartości energii. Jednak Bohr,
podobnie jak większość fizyków, nie chciał zaakceptować realności fotonu,
postawił więc sobie pytanie: czy da się stworzyć wariant jego oryginalnego
modelu atomu, który nie zawiera fotonu348 – i wierzył, że tak. Widzieliśmy,
że Bohr potrafił pocić się nad swoimi pomysłami i w końcu odnosić sukces,
ale tym razem miał się pocić i ponieść porażkę.
Kiedy byłem studentem, wraz z przyjaciółmi traktowaliśmy wielu fizyków
jak idoli. Einsteina – za jego hermetyczną logikę i radykalne idee. Feynmana
i brytyjskiego fizyka Paula Diraca (1902–1984) – za wynalezienie na pozór
nielegalnych pojęć matematycznych i zastosowanie ich, by uzyskać
wspaniałe wyniki. (Matematycy mieli później mimo wszystko odkryć sposób
na ich uzasadnienie). A Bohra za jego intuicję. Uważaliśmy ich za herosów,
nadludzkich geniuszy, których myśl była zawsze czysta, a idee niezmiennie
trafne. Nie jest to niczym niezwykłym, jak sądzę – artyści, przedsiębiorcy i
fani sportu potrafią wymienić postaci, które ich zdaniem wyrastają ponad
przeciętność.
W moich studenckich czasach mówiono nam, że intuicja Bohra w
odniesieniu do fizyki kwantowej była tak imponująca, że wydawało się, iż
ma „bezpośrednią linię do Boga”. Jednak podczas gdy opisy początkowego
okresu teorii kwantowej często opowiadają o jego wielkich intuicjach, rzadko
wspominają o licznych błędnych pomysłach. To naturalne, ponieważ z
czasem dobre idee się utrzymują, a złe popadają w zapomnienie. Niestety,
pozostawia nas to z mylnym wrażeniem, że nauka jest prostsza i łatwiejsza –
przynajmniej dla pewnych „geniuszy” – niż jest w rzeczywistości.
Wielki koszykarz Michael Jordan przyznał kiedyś: „Nie trafiłem niemal
dziewięć tysięcy rzutów w mojej karierze. Przegrałem niemal trzy tysiące
meczów. Dwadzieścia sześć razy powierzono mi rzut, od którego zależał
wynik meczu, i nie trafiłem. Raz za razem ponosiłem w życiu porażkę. I
właśnie dlatego ostatecznie odniosłem sukces”349. Powiedział to w
reklamówce Nike, ponieważ usłyszenie, że nawet legenda ponosi porażki i
może je przetrwać, dodaje otuchy. Natomiast dla każdego, kto jest
zaangażowany w dziedzinę związaną z odkryciami albo innowacjami, równie
ważne jest, by dowiedzieć się o błędnych pomysłach Bohra albo
bezowocnych wysiłkach Newtona w dziedzinie alchemii po to, by zrozumieć,
że nasi intelektualni idole miewają błędne pomysły i ponoszą równie wielkie
porażki jak te, które – jak jesteśmy zupełnie świadomi – ponieśliśmy my
sami.
To, że Bohr powinien uważać swój model atomu za zbyt radykalną ideę,
jest interesujące, ale nie zaskakujące, ponieważ nauka, podobnie jak
społeczeństwo, zbudowana jest na pewnych podzielanych ideach i
przekonaniach, a model atomu Bohra do nich nie przystawał. W rezultacie
pionierzy od Galileusza i Newtona po Bohra i Einsteina – i później – stali
jedną nogą w przeszłości, nawet gdy ich wyobraźnia pomagała stworzyć
przyszłość.
Pod tym względem „rewolucjoniści” nauki nie różnią się od myślących
przyszłościowo jednostek w innych dziedzinach. Weźmy na przykład
Abrahama Lincolna, zwolennika zniesienia niewolnictwa na amerykańskim
Południu, który mimo to nie był w stanie pozbyć się swojego
anachronicznego przekonania, że rasy nie będą nigdy żyły ze sobą „w
społecznej i politycznej równości”350. Sam Lincoln zdawał sobie sprawę, że
jego postawę przeciwko niewolnictwu można postrzegać jako niespójną
z tolerancją dla nierówności rasowej. Ale bronił swojej akceptacji dla
wyższości białej rasy, stwierdzając, że uznanie, czy „zgadza się to ze
sprawiedliwością”, nie jest kluczowym problemem, ponieważ wyższość
białych jest „powszechnym uczuciem”, którego, niezależnie, czy jest „dobrze
czy źle ugruntowane, nie da się bezpiecznie pominąć”351. Innymi słowy,
odrzucenie wyższości białej rasy było zbyt radykalnym krokiem nawet dla
niego.
Jeśli zada się ludziom pytanie, dlaczego wierzą w to lub tamto, zazwyczaj
nie będą tak otwarci albo samoświadomi jak Lincoln. Niewielu powie, jak
w zasadzie on to zrobił, że wierzą w coś, ponieważ wszyscy inni w to wierzą.
Albo „ponieważ zawsze w to wierzyłem”, albo „ponieważ zostałem
zindoktrynowany w domu i w szkole, żeby w to wierzyć”. Jak jednak
zauważył Lincoln, jest to często istotny element powodu, dla którego się
wierzy. W społeczeństwie podzielane przekonania tworzą kulturę, a niekiedy
prowadzą do niesprawiedliwości. W społeczeństwie, sztuce i innych
dziedzinach, w których kreatywność i innowacja są ważne, podzielane
przekonania mogą tworzyć bariery mentalne dla postępu. To właśnie dlatego
zmiana często następuje skokowo i to właśnie dlatego Bohr utknął, próbując
zmienić swoją teorię.
Nawet jeśli nowa teoria Bohra była skazana na klęskę, miała jeden bardzo
pomyślny skutek: zmusiła młodego Heisenberga do głębokiego
zastanowienia się nad implikacjami oryginalnej teorii atomu Bohra.
Stopniowo jego analizy zaczęły przybliżać go do radykalnie nowego poglądu
na fizykę: że sensowne, a nawet pożądane, może być porzucenie idei
fizycznego obrazu wewnętrznego funkcjonowania atomu – na przykład ruchu
elektronów po orbicie, który wyobrażamy sobie w umyśle, ale którego
w praktyce nie możemy zaobserwować.
Teoria Bohra, podobnie jak teorie klasycznej fizyki, opierała się na
wartościach matematycznych przypisanych do cech takich jak położenie
i prędkość orbitalna elektronu. W świecie obiektów, który badał Newton –
pocisków, wahadeł, planet – położenie i prędkość można zaobserwować
i zmierzyć. Natomiast eksperymentatorzy w laboratorium nie mogą
zaobserwować, czy elektrony atomu są tu czy tam, ani jak szybko się
poruszają, jeśli naprawdę w ogóle się poruszają. Jeśli klasyczne pojęcia
położenia, prędkości, drogi, orbit i trajektorii nie są obserwowalne na
poziomie atomowym, rozumował Heisenberg, to być może należy zaprzestać
prób stworzenia nauki o atomie – albo o innych układach – która się na nich
opiera. Po co trzymać się tych starych idei? Są one mentalnym balastem,
uznał Heisenberg – tak bardzo w siedemnastowiecznym stylu.
Czy jest możliwe, zadał sobie pytanie Heisenberg, by stworzyć teorię
opartą tylko na danych dotyczących atomów, które można bezpośrednio
zmierzyć, takich jak częstotliwości i amplitudy promieniowania, jakie
emitują atomy?
Rutherford miał zastrzeżenia do modelu atomu Bohra, ponieważ Bohr nie
przedstawił żadnego mechanizmu wyjaśniającego, jak elektrony przeskakują
między poziomami energetycznymi atomu; Heisenberg miał odpowiedzieć na
tę krytykę, nie tyle przedstawiając ten mechanizm, ile stwierdzając, że nie ma
żadnego mechanizmu, żadnej drogi, w odniesieniu do której może być mowa
o elektronach, albo przynajmniej, że samo to pytanie jest spoza dziedziny
fizyki – ponieważ fizyka mierzy światło pochłonięte albo wyemitowane
w takich procesach, ale nie może obserwować owych procesów. Gdy
Heisenberg wrócił do Getyngi wiosną 1925 roku, by pracować jako
wykładowca w instytucie Borna, jego marzeniem – jego celem – stało się
wynalezienie nowego podejścia do fizyki opartego wyłącznie na mierzalnych
danych.
Stworzenie radykalnie nowej nauki, porzucającej newtonowski intuicyjny
opis rzeczywistości i zdezawuowane pojęcia – takie jak położenie i prędkość
– które możemy sobie przedstawić i do których możemy się odnieść, byłoby
śmiałym celem dla każdego, nie tylko dla dwudziestotrzyletniego
Heisenberga. Jednak tak jak Aleksander, który zmienił polityczną mapę
świata w wieku dwudziestu dwóch lat, ten młody uczony miał pokierować
marszem, który zmienił kształt naukowej mapy świata.

***

Teoria, którą Heisenberg stworzył na podstawie tej inspiracji, miała zastąpić


newtonowskie prawa ruchu jako nasza fundamentalna teoria przyrody. Max
Born ochrzci ją „mechaniką kwantową” dla odróżnienia od praw Newtona,
często nazywanych mechaniką newtonowską albo mechaniką klasyczną352.
Jednak teorie fizyczne uprawomocnia trafność formułowanych przez nie
przewidywań, a nie powszechna zgoda czy poczucie smaku, tak że można się
zastanawiać, jak teoria oparta na tak egzotycznych ideach jak idee
Heisenberga mogła „zastąpić” dobrze ugruntowaną teorię Newtona, która
odniosła tak wiele sukcesów.
Odpowiedzią jest to, że choć rama pojęciowa kryjąca się za mechaniką
kwantową znacznie różni się od newtonowskiej, to przewidywania
matematyczne tych teorii zazwyczaj różnią się jedynie dla układów w skali
atomowej albo mniejszej, gdzie prawa Newtona zawodzą. A więc gdy została
już w pełni rozwinięta, mechanika kwantowa miała wyjaśnić dziwne
zachowanie atomu, nie popadając w sprzeczność z dobrze ugruntowanymi
opisami codziennych zjawisk, jakie pozwalała sformułować teoria
newtonowska. Heisenberg i inni badacze pracujący nad stworzeniem teorii
kwantowej wiedzieli, że tak musi być, i stworzyli matematyczną formułę na
wyrażenie idei, która dostarczyła użytecznych testów dla ich rozwijającej się
teorii. Bohr nazwał ją „zasadą odpowiedniości”.
Jak Heisenberg stworzył konkretną teorię z czegoś, co było wówczas
niczym więcej jak filozoficzną preferencją? Jego wyzwaniem było
przełożenie koncepcji, że fizyka powinna opierać się na „wielkościach
obserwowalnych” – wielkościach, które mierzymy – na matematyczną ramę
pojęciową, która, tak jak ta stworzona przez Newtona, mogła zostać
wykorzystana do opisu świata fizycznego. Teoria, którą stworzył, miała
stosować się do każdego układu fizycznego, ale sformułował ją w kontekście
świata atomowego, a jego pierwotnym celem było wyjaśnienie, za pomocą
ogólnej teorii matematycznej, dlaczego zadziałał model atomu stworzony ad
hoc przez Bohra.
Pierwszym krokiem Heisenberga było zidentyfikowanie obserwowalnych
wielkości, które są właściwe dla atomu. Ponieważ w świecie atomowym tym,
co mierzymy, jest częstotliwość światła, które emitują atomy, oraz amplituda,
czyli intensywność tych linii spektralnych, wybrał właśnie te własności.
Następnie zastosował techniki tradycyjnej fizyki matematycznej w celu
wyprowadzenia związków między tradycyjnymi newtonowskimi
„wielkościami obserwowalnymi”, takimi jak położenie i prędkość, a danymi
z linii spektralnych. Chciał wykorzystać ten związek, by zastąpić każdą
wielkość obserwowalną w fizyce newtonowskiej kwantową odpowiedniczką.
Okazało się, że jest to krok, który wymaga zarówno kreatywności, jak
i odwagi, ponieważ wymuszał na Heisenbergu zamienienie położenia i pędu
w nowe i dziwaczne byty matematyczne.
Tego nowego typu zmiennej wymagał fakt, że choć na przykład położenie
definiowane jest przez określenie pojedynczego punktu, to dane spektralne
wymagają odmiennego opisu. Każda z różnych własności światła, które
emitują atomy, takie jak barwa i intensywność, daje nie pojedynczą liczbę,
ale całe ich szeregi. Dane tworzą te szeregi liczb, ponieważ to linia spektralna
odpowiada przeskokowi z dowolnego początkowego stanu atomu do
dowolnego stanu końcowego – dając wartość dla każdej możliwej pary
poziomów energii w modelu Bohra. Jeśli brzmi to skomplikowanie, nie
martwcie się – to jest skomplikowane. W istocie kiedy Heisenberg po raz
pierwszy wysunął ten model, sam nazwał go „bardzo dziwnym”353. Jednak
sednem tego, co zrobił, było wyeliminowanie ze swojej teorii orbit
elektronów, które można zwizualizować, i zastąpienie ich czysto
matematycznymi wartościami.
Ci, którzy pracowali nad teoriami atomu przed Heisenbergiem, tak jak
Rutherford, chcieli odkryć mechanizm kryjący się za procesami atomowymi.
Traktowali oni niedostępną zawartość atomu jako coś rzeczywistego
i próbowali wyprowadzić naturę obserwowalnych linii spektralnych na
podstawie domniemania dotyczącego zachowania tego, co znajduje się
wewnątrz atomu – na przykład orbitujących elektronów. Ich analizy zawsze
zakładały, że składniki atomu będą miały taki sam zasadniczy charakter jak
rzeczy, do których przywykliśmy w codziennym życiu. Dopiero Heisenberg
zaczął myśleć odmiennie i miał odwagę śmiało zadeklarować, że orbity
elektronów znajdują się poza zasięgiem obserwacji, a tym samym są
nierealne i nie ma dla nich miejsca w teorii. Takie miało być podejście
Heisenberga nie tylko do atomu, lecz także do każdego układu fizycznego.
W teorii Heisenberga położenie reprezentowane jest przez nieskończoną macierz,
czyli szeregi liczb, a nie dobrze znane współrzędne przestrzenne.(423: Autor:
Derya Kadipasaoglu)

Obstając przy tego rodzaju analizie, Heisenberg porzucił newtonowski


obraz świata jako układu obiektów materialnych, które mają indywidualne
istnienie i określone własności takie jak prędkość i położenie. Jego teoria,
gdy tylko została udoskonalona, miała natomiast wymagać od nas
zaakceptowania świata opartego na zupełnie innym schemacie pojęciowym,
w którym droga, jaką przebywa obiekt, a nawet jego przeszłość i przyszłość,
nie jest precyzyjnie określona.
Jeśli wziąć pod uwagę, że w dzisiejszym świecie wielu ludzi ma problem
z dostosowaniem się do skutków nowych technologii takich jak esemesy
i media społecznościowe, to można sobie tylko wyobrażać, jaka otwartość
umysłowa była potrzebna, żeby dostosować swoje myślenie do teorii
głoszącej, że elektrony i jądra, z których się składamy, nie mają konkretnego
istnienia. Podejście Heisenberga właśnie tego wymagało. Nie była to tylko
nowego rodzaju fizyka – była to zupełnie nowa koncepcja rzeczywistości. Te
problemy doprowadziły Maxa Borna do zakwestionowania odwiecznego
rozdziału fizyki i filozofii. „Jestem przekonany – napisał – że fizyka
teoretyczna jest właściwie filozofią”354.
Gdy te pomysły zaczęły układać się Heisenbergowi w większą całość,
a jego obliczenia matematyczne posuwały się naprzód, stawał się coraz
bardziej podekscytowany. Równocześnie rozchorował się z powodu tak
poważnego ataku kataru siennego, że musiał opuścić Getyngę i schronić się
na skalistą wyspę na Morzu Północnym, na której mało co rosło. Całą twarz
miał straszliwie opuchniętą. A jednak nadal pracował, dzień i noc, i ukończył
badania mające składać się na jego pierwszy artykuł poświęcony pomysłom,
które postawią fizykę na głowie.
Kiedy wrócił do domu, spisał swoje odkrycia i dał jeden egzemplarz
przyjacielowi – Pauliemu, a drugi Bornowi. W artykule naszkicował
metodologię i zastosował ją do kilku prostych problemów, ale nie mógł
wykorzystać swoich pomysłów do obliczenia czegokolwiek interesującego
z praktycznego punktu widzenia. Jego praca była bardzo surowa, straszliwie
skomplikowana i niezmiernie tajemnicza. Bornowi zmierzenie się z nią
musiało przypominać dłużącą się rozmowę na przyjęciu z przypadkowo
poznaną osobą, rozmowę, która ciągnie się i ciągnie, ale nic z niej nie
wynika. Większość ludzi w obliczu lektury tak trudnego artykułu poddałaby
się po kilku minutach, rzuciła go w kąt i sięgnęła po kieliszek wina.
Natomiast Born się nie poddał. I w końcu był pod tak wielkim wrażeniem
pracy Heisenberga, że natychmiast napisał do Einsteina, by poinformować
go, iż pomysły młodego naukowca były „z pewnością trafne i głębokie”355.
Podobnie jak Bohr i Heisenberg Born inspirował się teorią względności
Einsteina i dostrzegł, że młody uczony koncentrował się na tym, co można
było zmierzyć, podobnie jak Einstein, tworząc teorię względności,
przywiązywał wielką wagę do operacyjnych aspektów tego, jak mierzy się
czas356.
Jednak Einsteinowi teoria Heisenberga się nie spodobała i miał to być ten
punkt w rozwoju teorii kwantowej, w którym drogi Einsteina i kwantu
zaczęły się rozchodzić: nie mógł on zmusić się do przyjęcia teorii
odrzucającej istnienie dobrze zdefiniowanej obiektywnej rzeczywistości,
w której obiekty mają określone własności takie jak położenie i prędkość.
Mógł strawić to, że własności atomu dawało się wyjaśnić za pomocą
prowizorycznej teorii, która nie odwoływała się do orbit atomu. Jednak
fundamentalna teoria głosząca, że takie orbity nie istnieją – o nie, pod tym
nie mógł się podpisać. Jak to ujął później: „Jestem skłonny uważać, że fizycy
nie będą wiecznie zadowoleni […] z pośredniego opisu Rzeczywistości”357.
Sam Heisenberg nie był pewien, co stworzył. Później wspominał pewną
noc, gdy pracując do trzeciej nad ranem i będąc na progu swojego odkrycia,
z ekscytacji nie mógł spać. Jednak opracowując rękopis pierwszego artykułu
prezentującego jego idee, napisał do ojca: „Moje prace w tym momencie nie
idą szczególnie dobrze. Nie jestem zbyt produktywny i nie wiem, czy będzie
z tego kolejny [artykuł]”358.
Tymczasem Born głowił się nad dziwnymi formułami matematycznymi
Heisenberga. Pewnego dnia miał objawienie: widział już gdzieś formuły
podobne do tych zastosowanych przez niego. Szeregi liczb, przypomniał
sobie, to coś, co matematycy nazywają „macierzami”.
Algebra macierzy była wówczas tajemnym i niejasnym przedmiotem,
a Heisenberg najwyraźniej wynalazł ją na nowo. Born poprosił Pauliego, by
pomógł mu przełożyć artykuł Heisenberga na język macierzy
matematycznych (i rozszerzyć ten język, by uwzględnić fakt, że macierze
Heisenberga miały nieskończoną liczbę rzędów i kolumn). Pauli, przyszły
laureat Nobla, był wzburzony359. Oskarżył Borna, że próbuje zrujnować
piękne „idee fizyczne” jego przyjaciela, wprowadzając „zbyteczną
matematykę” oraz „nudne i skomplikowane formalizacje”.
W rzeczywistości język macierzy miał się okazać wielkim uproszczeniem.
Born znalazł sobie innego pomocnika do algebry macierzy, swojego studenta
Pascuala Jordana, i po kilku miesiącach, w listopadzie 1925 roku,
Heisenberg, Born i Jordan złożyli artykuł o kwantowej teorii Heisenberga;
ten moment uznaje się dziś za przełomowy w historii nauki. Niedługo potem
Pauli przetrawił ich pracę i zastosował nową teorię do wyprowadzenia linii
spektralnych wodoru oraz do wykazania, jak wpływa na nie pole elektryczne
i pole magnetyczne, co wcześniej nie było możliwe. Było to pierwsze
praktyczne zastosowanie rodzącej się teorii, która wkrótce miała wysadzić
z siodła mechanikę Newtona.

***

Minęło ponad dwa tysiące lat od powstania idei atomu, ponad dwa stulecia
od wynalezienia przez Newtona mechaniki matematycznej, ponad
dwadzieścia lat od wprowadzenia przez Plancka i Einsteina pojęcia kwantu.
Teoria Heisenberga była w pewnym sensie kulminacją wszystkich
wymienionych wątków myśli naukowej.
Problemem było to, że gdy ją w pełni rozwinięto, wymagała trzydziestu
stron, by wyjaśnić poziomy energetyczne atomu, które teoria Bohra
wyjaśniała w kilku linijkach. Mój zawsze praktyczny ojciec krawiec
powiedziałby na to: „O, i po to musiał studiować przez całe te lata?”.
A jednak teoria Heisenberga była lepsza, ponieważ dawała wyniki bazujące
na głębokich zasadach, a nie na założeniach tworzonych ad hoc, jakie
przyjmował Bohr. Można by pomyśleć, że z tego powodu została
natychmiast przyjęta. Tymczasem większość fizyków nie była bezpośrednio
zaangażowana w poszukiwania teorii kwantu i wydaje się, że myślała
podobnie do mojego ojca. Dla nich to, że potrzebne było trzydzieści stron,
a nie trzy linijki, nie wydawało się krokiem naprzód. Nie byli oni – wśród
nich najbardziej rzucał się w oczy Rutherford – pod wrażeniem i nie byli
zainteresowani tym tematem, a na Heisenberga patrzyli tak, jak patrzy się na
mechanika samochodowego, który mówi, że może rozwiązać problem za
pomocą nowego termostatu, ale lepiej wymienić cały samochód.
Jednak mała grupa znawców teorii kwantowej zareagowała inaczej. Niemal
bez wyjątku byli znokautowani. Istotnie bowiem skomplikowana teoria
Heisenberga wyjaśniała w dogłębny sposób, dlaczego prowizoryczna teoria
atomu wodoru Bohra działała, a także dostarczała pełnego opisu
zaobserwowanych danych.
Werner Heisenberg (po lewej) z Nielsem Bohrem (Zdjęcie Paula Ehrenfesta, Jr.,
dzięki uprzejmości AIP Emilio Segre Visual Archives, Weisskopf Collection)

Dla Bohra w szczególności była to kulminacja poszukiwań, które pomógł


zainicjować. Wiedział, że jego model atomu był tylko prowizorycznym
modelem ad hoc, który należało wyjaśnić w końcu za pomocą bardziej
ogólnej teorii, a to – jak był przekonany – była właśnie ta teoria. „Dzięki
ostatniej pracy Heisenberga – napisał – za jednym zamachem urzeczywistniły
się perspektywy, które […] od dłuższego czasu stanowiły sedno naszych
pragnień”360.
Przez pewien czas fizyka znajdowała się w dziwnym stanie, jak gdyby na
stadionie strzelono zwycięskiego gola w Pucharze Świata, ale tylko garstka
kibiców to zauważyła. Jak na ironię, tym, co w końcu podniosło teorię
kwantową z poziomu koncepcji interesującej jedynie specjalistów do
poziomu teorii uznanej za fundamentalną teorię całej fizyki, było
opublikowanie kilka miesięcy później, w styczniu i lutym 1926 roku, dwóch
artykułów, które razem opisywały kolejną ogólną teorię kwantu przy
zastosowaniu całkiem odmiennych pojęć i metod – na pozór odmienny
pogląd na rzeczywistość.
Ta nowa konkurencyjna teoria opisywała elektrony w atomie jako fale – do
wizualizowania sobie tego pojęcia fizycy byli przyzwyczajeni, choć
z pewnością nie w kontekście elektronów. Co dziwne, pomimo dzielących je
różnic, podobnie jak teoria Heisenberga, wyjaśniała ona model atomu Bohra.
Od czasów starożytnych Greków naukowcy musieli obyć się bez
jakiejkolwiek teorii opisującej atom. Teraz można było odnieść wrażenie, że
mają dwie takie teorie. I wydawały się one niezgodne ze sobą, ponieważ
jedna postrzegała przyrodę jako składającą się z fal materii i energii, a druga
obstawała, że bezcelowe jest postrzeganie przyrody jako składającej się
z czegokolwiek, zalecającej natomiast, byśmy brali pod uwagę jedynie
matematyczne relacje między danymi.
Ta nowa teoria kwantowa była dziełem austriackiego fizyka Erwina
Schrödingera (1887–1961) i tak różniła się stylem od teorii Heisenberga, jak
różnili się od siebie ci dwaj badacze, oraz drogi, jakimi doszli do swoich
przełomowych odkryć. Podczas gdy Heisenberg wykonał swoją pracę, tkwiąc
samotnie na skalistej wysepce z opuchniętymi zatokami, Schrödinger robił to
podczas wakacji bożonarodzeniowych, które spędził z kochanką w alpejskiej
miejscowości wypoczynkowej Arosa. „Swoje wielkie dzieło – stwierdził jego
przyjaciel matematyk – stworzył podczas późnego życiowego porywu
erotycznego”361. Przez „późny” ów matematyk miał na myśli to, że
Schrödinger miał już trzydzieści osiem lat.
Być może ów matematyk miał rację co do zaawansowanego wieku
Schrödingera. Raz za razem widzimy młodych fizyków przyjmujących nowe
idee i starych tęskniących za tradycyjnymi sposobami, jak gdyby z wiekiem
trudniej było akceptować procesy zachodzące w zmieniającym się świecie.
Praca Schrödingera, jak się okazało, jest w istocie kolejnym przykładem tej
tendencji – jak na ironię bowiem motywem, jaki podał dla swojej nowej
teorii, było pragnienie stworzenia teorii kwantowej, która w przeciwieństwie
do teorii Heisenberga wygląda jak konwencjonalna fizyka: Schrödinger
walczył o zachowanie tego, co było dobrze znane, a nie próbował tego obalić.
W przeciwieństwie do młodszego Heisenberga przewidział ruch elektronów
w atomie. I choć jego egzotyczne „fale materii” nie wyposażają bezpośrednio
elektronów we własności newtonowskie, jak u Bohra, to ta nowa „falowa
teoria” kwantu – na początku nikt nie wiedział w ogóle, jak ją interpretować
– pozwalała uniknąć katastrofalnego poglądu na rzeczywistość, którego
wymagała teoria Heisenberga.
Była to alternatywa, którą fizycy docenili. Przed Schrödingerem mechanika
kwantowa powoli zdobywała akceptację. Mało znane rozwiązania
matematyczne zastosowane przez Heisenberga, wymagające nieskończonej
liczby równań macierzowych, wydawały się horrendalnie złożone, a fizycy
czuli się nieswojo z odrzuceniem zmiennych, które mogli zwizualizować, na
rzecz symbolicznych szeregów liczb. Teoria Schrödingera była natomiast
łatwa w użyciu i opierała się na równaniach przypominających te, których
fizycy uczyli się już na studiach w odniesieniu do fal dźwiękowych i fal na
wodzie. Ta metodologia była codziennym chlebem fizyków klasycznych, co
sprawiało, że przejście do fizyki kwantowej wyglądało na stosunkowo łatwe.
Co równie ważne, oferując nowy sposób wizualizowania atomu, nawet jeśli
bez zastosowania newtonowskich pojęć takich jak orbity, Schrödinger
sprawił, że teoria kwantowa była łatwiejsza do przełknięcia – i stanowiła
antytezę tego, do czego dążył Heisenberg.
Nawet Einstein uwielbiał teorię Schrödingera – na początku. Sam rozważał
ideę fal materii i pracował z Austriakiem w przeszłości. „Idea Twojej pracy
wypływa z prawdziwego geniuszu”362 – napisał do Schrödingera w kwietniu
1926 roku. Dziesięć dni później ponownie się zachwycał: „Jestem
przekonany, że poczyniłeś decydujące postępy ze swoim sformułowaniem
warunków kwantowych, tak jak jestem przekonany, że metoda Heisenberga–
Borna jest błędna”363. Na początku maja znów ciepło się wyrażał o pracy
Schrödingera.
Jednak w tym samym miesiącu, w maju 1926 roku Schrödinger rzucił
kolejną bombę: opublikował artykuł pokazujący, że ku jego rozczarowaniu
jego własna teoria i teoria Heisenberga były matematycznie równoważne –
obie były poprawne. Oznaczało to, że choć te dwie teorie stosowały
odmienne ramy pojęciowe – odmienny punkt widzenia, na to co dzieje się
„pod płaszczykiem” przyrody (w istocie Heisenberg nie chciał nawet
zaglądać pod ten płaszczyk) – okazały się one jedynie różnicą języków: obie
teorie mówiły to samo o tym, co obserwujemy.
Aby skomplikować sprawy jeszcze bardziej (albo by uczynić je jeszcze
bardziej interesującymi), dwadzieścia lat później Richard Feynman miał
stworzyć trzecie sformułowanie teorii kwantowej, zupełnie inne pod
względem zastosowanych rozwiązań matematycznych i ramy pojęciowej
zarówno od ujęcia Heisenberga, jak i Schrödingera, ale również będące
matematycznie równoważne wobec tych wcześniejszych teorii – zakładające
te same zasady fizyczne i formułujące identycznie przewidywania.
Wallace Stevens napisał: „Byłem rozdarty między trzema możliwościami /
Jak drzewo / Na którym mieszkają trzy kosy”364, ale sytuacja mogła się
wydawać dziwna, kiedy przełożyło się ją na fizykę. Jeśli w fizyce obowiązuje
jakakolwiek „prawda”, to czy może istnieć więcej niż jedna „poprawna”
teoria? Tak, nawet w fizyce może istnieć wiele sposobów patrzenia na
rzeczy. Jest to w szczególności prawda w odniesieniu do współczesnej fizyki,
w której tego, na co „patrzymy” – atomów, elektronów albo cząstki Higgsa –
nie można dosłownie „zobaczyć”, co sprawia, że czołowi fizycy tworzą
wykorzystywane przez siebie obrazy raczej na podstawie matematyki niż
namacalnej rzeczywistości.
W fizyce jedna osoba może sformułować teorię w kategoriach jednego
zbioru pojęć, podczas gdy inna ujmie teorię tego samego zjawiska
w kategoriach innego zbioru pojęć. Tym, co sprawia, że nie przypomina to
sporów między lewicą i prawicą w polityce, jest to, że w fizyce, aby jakiś
punkt widzenia został uznany za ważny, musi przejść przez test
eksperymentu, a to oznacza, że wzajemnie wymienne teorie muszą prowadzić
do takich samych konkluzji – coś, co rzadko zdarza się w filozofii polityki.
Prowadzi nas to z powrotem do kwestii, czy teorie są odkrywane czy
wynajdywane. Bez wchodzenia w rozważania filozoficzne nad tym, czy
istnieje zewnętrzna obiektywna rzeczywistość, można powiedzieć, że proces
tworzenia teorii kwantowej był procesem odkrycia w tym sensie, że fizycy
natknęli się na wiele jej zasad, gdy badali przyrodę, a zarazem teoria
kwantowa została wynaleziona pod tym względem, że naukowcy
zaprojektowali i stworzyli kilka odmiennych ram pojęciowych, które
pokazywały to samo. Tak jak materia może zachowywać się jak fala albo
cząstka, również – jak się wydaje – teoria, która ją opisuje, ma dwa na pozór
odmienne oblicza.
Kiedy Schrödinger opublikował swój artykuł wykazujący równoważność
jego teorii i teorii Heisenberga, nikt nie znał jeszcze właściwej interpretacji
jego sformułowania. Jednak jego dowód jasno pokazał, że dalsze prace
ujawnią, iż to podejście będzie rodzić takie same problemy filozoficzne jak te
widoczne w wersji teorii kwantowej Heisenberga. Po opublikowaniu tego
artykułu Einstein już nigdy więcej nie wypowiadał się z aprobatą o teorii
kwantowej.
Nawet sam Schrödinger niebawem zwrócił się przeciwko niej. Stwierdził,
że mógłby nie opublikować swojego artykułu, gdyby „był w stanie
przewidzieć wszystkie konsekwencje”365. Stworzył swoją na pozór niewinną
teorię, próbując zastąpić trudną do przełknięcia alternatywę sformułowaną
przez Heisenberga, ale ich równoważność oznaczała, że nie zrozumiał
mogących budzić obiekcje implikacji własnej pracy. W końcu jedynie
podsycił ogień i wprowadził nowe idee kwantowe, których wolałby nie
przyjmować.
W niezwykle emocjonalnym przypisie do swojego artykułu
o równoważności jego teorii i teorii Heisenberga Schrödinger napisał, że
metody Heisenberga „zniechęcały go, by nie rzec – odpychały, ponieważ
wydawały mi się bardzo trudne, a także nie można ich było sobie
zwizualizować”366. Odraza była wzajemna. Po przeczytaniu artykułów,
w których Schrödinger przedstawił swoją teorię, Heisenberg napisał w liście
do Pauliego, że: „Im bardziej zastanawiam się nad fizyczną częścią teorii
Schrödingera, tym bardziej niesmaczna mi się ona wydaje […] to, co
Schrödinger napisał o możliwości zwizualizowania jego teorii, [jest]
bzdurą”367.
Rywalizacja okazała się jednostronna, ponieważ metoda Schrödingera
szybko zyskała przychylność fizyków jako formalizacja i jako sposób
rozwiązywania większości problemów. Liczba fizyków pracujących nad
teorią kwantową szybko rosła, ale liczba tych, którzy stosowali formalizację
Heisenberga, spadała.
Nawet Borna, który pomógł Heisenbergowi stworzyć jego teorię, udało się
pozyskać dla metody Schrödingera, i nawet przyjaciel Heisenberga Pauli
dziwił się, że o wiele łatwiej jest wyprowadzić widmo wodoru, stosując
równanie Schrödingera. Nic z tego nie zadowoliło Heisenberga. Zarazem
Bohr skoncentrował się na lepszym zrozumieniu relacji między obiema
teoriami. W końcu brytyjski fizyk Paul Dirac podał ostateczne wyjaśnienie
głębokiego związku między nimi, a nawet wynalazł własną hybrydową
formalizację – najpowszechniej dziś przyjmowaną – która pozwala zręcznie
przechodzić od jednej do drugiej w zależności od tego, jakie zagadnienia
wchodzą w grę. Do 1960 roku opublikowano ponad sto tysięcy artykułów
opartych na zastosowaniach teorii kwantowej368.

***

Pomimo wszystkich postępów w rozwoju teorii kwantowej podejście


Heisenberga zawsze stanowiło jej rdzeń, ponieważ inspirowało go dążenie do
zniesienia klasycznego obrazu cząstek mających trajektorie albo orbity
w przestrzeni, a w 1927 roku w końcu opublikował artykuł gwarantujący mu
zwycięstwo w tej bitwie. Wykazał w nim raz na zawsze, że niezależnie od
tego, jakiej formalizacji się użyje, istnieje zasada naukowa – którą dziś
nazywamy zasadą nieoznaczoności – wskazująca, że przedstawienie ruchu
w taki sposób, w jaki zrobił to Newton, jest daremne. Choć może się
wydawać, że newtonowskie pojęcie rzeczywistości obowiązuje w skali
makroskopowej, to na bardziej fundamentalnym poziomie atomów
i cząsteczek, które tworzą obiekty makroskopowe, Wszechświat rządzony
jest przez zupełnie odmienny zbiór praw.
Zasada nieoznaczoności ogranicza to, co możemy wiedzieć w każdym
danym momencie o pewnych parach obserwowalnych wielkości, takich jak
położenie i prędkość369. Nie jest to ograniczenie wynikające z techniki
pomiaru albo ograniczenie ludzkiej pomysłowości – jest ono raczej
narzucone przez samą przyrodę. Teoria kwantowa głosi, że obiekty nie mają
sprecyzowanych własności takich jak położenie i prędkość, a co więcej, jeśli
próbuje się je zmierzyć, im bardziej precyzyjnie mierzy się jedną z nich, tym
mniej dokładnie można zmierzyć drugą.
W życiu codziennym z pewnością naprawdę wydaje się nam, że jesteśmy
w stanie zmierzyć położenie i prędkość tak dokładnie, jak chcemy. Wydaje
się to przeczyć zasadzie nieoznaczoności, ale gdy przebrnie się przez
równania teorii kwantowej, odkrywa się, że masy obiektów z życia
codziennego są tak duże, iż zasada nieoznaczoności jest nieistotna z punktu
widzenia zjawisk życia codziennego. To właśnie dlatego fizyka newtonowska
działała dobrze przez tak długi czas – dopiero wtedy, gdy fizycy zaczęli
zajmować się zjawiskami zachodzącymi w skali atomowej, granice tego, co
obiecywała teoria Newtona, stały się widoczne.
Załóżmy na przykład, że elektrony ważą tyle co piłki do gry w piłkę nożną.
Wówczas jeśli ustali się położenie elektronu z dokładnością do milimetra
w każdym kierunku, nadal można zmierzyć jego prędkość z dokładnością
większą niż jedna miliardowamiliardowamiliardowa kilometra na godzinę.
To zdecydowanie wystarcza do dowolnego celu, w jakim możemy
przeprowadzać tego rodzaju obliczenia w codziennym życiu. Jednak
prawdziwy elektron, ponieważ jest znacznie lżejszy od piłki, to zupełnie inna
historia. Jeśli zmierzy się położenie prawdziwego elektronu z dokładnością
odpowiadającą mniej więcej wielkości atomu, to zasada nieoznaczoności
mówi nam, że prędkość tego elektronu jest określona z mniejszą
dokładnością niż plus minus tysiąc kilometrów na godzinę – co daje różnicę
między elektronem pozostającym w spoczynku i poruszającym się
z prędkością samolotu odrzutowego. A więc tutaj Heisenberg dochodzi
swoich praw: sama przyroda zakazuje mimo wszystko tych
nieobserwowalnych orbit atomowych, które określają dokładne tory
elektronów.
Gdy zaczęto lepiej rozumieć teorię kwantową, stało się jasne, że w świecie
kwantowym nie ma pewności, ale jedynie prawdopodobieństwa – nie ma:
„Tak, to się stanie”, tylko: „Oczywiście, każda z tych rzeczy może się
wydarzyć”. W światopoglądzie newtonowskim stan Wszechświata w każdym
danym momencie w przyszłości albo przeszłości postrzegany jest jako
odciśnięty na Wszechświecie w teraźniejszości, a dzięki zastosowaniu praw
Newtona każdy, kto jest wystarczająco inteligentny, może je z teraźniejszości
wyczytać. Gdybyśmy mieli wystarczające dane, moglibyśmy przewidywać
trzęsienia ziemi; gdybyśmy znali wszystkie szczegóły fizyczne dotyczące
pogody, moglibyśmy w zasadzie stwierdzić z pewnością, czy jutro – albo za
sto lat – będzie padać.
Ten newtonowski „determinizm” stanowił rdzeń nauki Newtona: idea, że
jedno zdarzenie jest przyczyną następnego i tak dalej, i że wszystkie je
można przewidzieć za pomocą matematyki. Częścią newtonowskiego
objawienia był wywołujący zawrót głowy rodzaj pewności, która inspirowała
wszystkich od ekonomistów po socjologów, by „chcieć tego, co miała
fizyka”. Jednak teoria kwantowa mówi nam, że w samym jej sednie – na
fundamentalnym poziomie atomów i cząstek, z których złożone jest wszystko
– świat nie jest deterministyczny, że obecny stan Wszechświata nie
determinuje przyszłych (ani przeszłych) wydarzeń, lecz jedynie
prawdopodobieństwo, że jedna z wielu alternatywnych przyszłości nastąpi
(albo w przeszłości nastąpiła). Kosmos, mówi nam teoria kwantowa, jest
podobny do wielkiej gry w bingo. To właśnie w reakcji na te idee Einstein
w liście do Borna sformułował słynne stwierdzenie: „Mimo tak znakomitych
wyników teoria ta nie przybliża nas wcale do tajemnicy Prajedni. Tak czy
owak, jestem głęboko przeświadczony, że Bóg nie gra w kości”370.
Interesujące jest to, że Einstein przywołał koncepcję Boga w tym
stwierdzeniu: „Prajedni”. Nie wierzył on w tradycyjnego osobowego Boga,
na przykład Boga Biblii. Dla Einsteina „Bóg” nie był graczem zajmującym
się intymnymi szczegółami naszego życia, reprezentował natomiast piękno
i logiczną prostotę praw kosmosu. Gdy więc Einstein mówił, że Prajednia nie
gra w kości, miał na myśli to, że nie może zaakceptować roli przypadkowości
w wielkim systemie Przyrody.
Mój ojciec nie był fizykiem ani nie grywał w kości, a gdy żył w Polsce, nie
miał pojęcia o wielkich postępach w fizyce, które dokonywały się zaledwie
kilkaset kilometrów od niego. Kiedy jednak wyjaśniłem mu kwantową
zasadę nieoznaczoności, znacznie łatwiej pogodził się z nią niż Einstein. Dla
mojego ojca dążenie do zrozumienia Wszechświata koncentrowało się nie na
obserwacjach dokonywanych przez teleskopy albo mikroskopy, lecz raczej
na kondycji ludzkiej. Zatem tak jak na podstawie własnego życiowego
doświadczenia rozumiał poczynione przez Arystotelesa rozróżnienie między
naturalną i gwałtowną zmianą, również jego przeszłość sprawiła, że
przypadkowość stanowiąca nieodłączny element teorii kwantowej była dla
niego łatwa do przełknięcia. Opowiedział mi, jak stał w długim szeregu na
miejskim rynku, gdzie naziści spędzili tysiące Żydów. Kiedy zaczęła się
łapanka, ukrył się w latrynie ze zbiegłym przywódcą podziemnego ruchu
oporu, którego ochronę przydzielono mu jako zadanie. Ani on, ani zbieg nie
byli w stanie wytrzymać smrodu i w końcu wyszli z kryjówki. Uciekinier
czmychnął i nikt go już więcej nie widział. Ojciec został zapędzony do
szeregu i stanął blisko jego końca.
Szereg przesuwał się powoli, mógł więc dostrzec, że wszyscy ładowani są
na ciężarówki. Gdy zbliżał się do jego początku, dowodzący akcją oficer SS
zatrzymał ostatnich czterech w szeregu, wśród nich ojca. Potrzebowali trzech
tysięcy Żydów, stwierdził, a w szeregu najwyraźniej było 3004.
Dokądkolwiek ich powieziono, pojechali bez niego. Później odkrył, że trafili
na lokalny cmentarz, gdzie kazano im wykopać masowy grób, a następnie
zostali zastrzeleni i pogrzebani. Ojciec wylosował numer 3004 w śmiertelnej
loterii, w której niemiecka precyzja wzięła górę nad nazistowską
brutalnością. Dla niego był to przykład przypadkowości, której jego umysł
nie mógł pojąć. Losowość teorii kwantowej, przeciwnie, była łatwa do
zrozumienia.
Podobnie jak nasze życie, teoria naukowa może być zbudowana na skale
albo na piasku. Einstein żywił nieograniczoną nadzieję, że w odniesieniu do
świata fizycznego teoria kwantowa okaże się zbudowana na piasku, który to
słaby fundament doprowadzi w długiej perspektywie do jej upadku. Kiedy
pojawiła się zasada nieoznaczoności, zasugerował, że nie jest to
fundamentalna zasada przyrody, lecz raczej ograniczenie mechaniki
kwantowej – wskazówka, że ta teoria nie stoi na pewnym gruncie.
Obiekty naprawdę mają określone wartości dla wielkości takich jak
położenie i prędkość, był przekonany Einstein, ale teoria kwantowa po prostu
nie może sobie z nimi poradzić. Mechanika kwantowa, stwierdził Einstein,
choć odnosi niezaprzeczalne sukcesy, musi być niepełnym ucieleśnieniem
głębszej teorii, która przywraca obiektywną rzeczywistość. Choć niewielu
poza nim podzielało to przekonanie, przez wiele lat była to możliwość, której
nikt nie mógł wyeliminować, a Einstein schodził do grobu, sądząc, że
pewnego dnia znajdą się argumenty na poparcie tej tezy. Jednak w ostatnich
dziesięcioleciach wyrafinowane eksperymenty oparte na pomysłowych
pracach irlandzkiego fizyka teoretycznego Johna Bella (1928–1990)
wyeliminowały tę możliwość. Zasada nieoznaczoności musi pozostać częścią
teorii kwantowej.
„Wyrok Einsteina – zwierzał się Born – był ciężkim ciosem”371. Born wraz
z Heisenbergiem wniósł istotny wkład w probabilistyczną interpretację teorii
kwantowej i miał nadzieję na bardziej pozytywną reakcję. Podziwiał
Einsteina i miał poczucie straty, jak gdyby został porzucony przez
szanowanego lidera. Inni żywili podobne odczucia i byli wręcz poruszeni do
łez, gdy musieli odrzucić idee wielkiego uczonego. Jednak Einstein znalazł
się niebawem właściwie osamotniony w swoim sprzeciwie wobec teorii
kwantowej, gdy – jak to ujął – „samotnie śpiewał swoją starą śpiewkę”,
a jego poszukiwania „komuś z zewnątrz muszą się wydawać dość
dziwaczne”372. W 1949 roku, mniej więcej dwadzieścia lat po pierwszym
liście, w którym odrzucał pracę Borna, i sześć lat przed śmiercią, napisał
znów do niego: „Powszechnie uważa się mnie za swojego rodzaju
skamielinę, oślepłą i ogłuchłą po wszystkich tych latach. Taka rola mnie
jakoś nie razi, ponieważ dobrze odpowiada mojemu temperamentowi”.

***

Teoria kwantowa powstała dzięki koncentracji wielu naukowych


supermózgów w Europie Środkowej, która przebijała albo przynajmniej
dorównywała każdej z konstelacji intelektualnych, na jakie natknęliśmy się
w naszej podróży przez wieki. Innowacje zaczynają się od właściwego
środowiska fizycznego i społecznego, tak że fakt, iż ci, którzy pracują
w odległych krajach, wnoszą niewielki wkład, nie jest przypadkowy:
pobudzani przez postępy techniczne, które ujawniły zalew nowych zjawisk
dotyczących atomów, fizycy teoretyczni, którzy mieli wystarczająco dużo
szczęścia, żeby być częścią tej społeczności w tamtym czasie i miejscu,
wymieniali intuicje i obserwacje dotyczące aspektów Wszechświata
ujawnionych po raz pierwszy w ludzkiej historii. Był to magiczny czas
w Europie, kiedy wybuchy wyobraźni rozświetlały raz za razem niebo, zanim
zaczęła się wyłaniać nowa dziedzina przyrody.
Mechanika kwantowa zrodziła się z potu i geniuszu wielu naukowców
pracujących w małych grupkach krajów, wymieniających idee i stale się
spierających, ale zjednoczonych w swojej pasji i poświęceniu temu samemu
celowi. Zarówno przymierza, jak i konflikty tych wielkich umysłów miały
jednak niebawem zostać zaćmione przez chaos i zdziczenie, które pochłonęły
ich kontynent. Gwiazdy fizyki kwantowej wkrótce rozsypią się po świecie
jak karty do gry przy złym tasowaniu.
Początek końca nastąpił w styczniu 1933 roku, kiedy feldmarszałek Paul
von Hindenburg, prezydent Niemiec, mianował Adolfa Hitlera kanclerzem.
Już następnej nocy w wielkim uniwersyteckim mieście Getyndze – gdzie
Heisenberg, Born i Jordan współpracowali przy tworzeniu mechaniki
kwantowej Heisenberga – umundurowani naziści maszerowali po ulicach,
wymachując pochodniami i swastykami, śpiewając nacjonalistyczne pieśni
i szydząc z Żydów. W ciągu kilku miesięcy naziści przeprowadzili ceremonie
palenia książek w całym kraju i ogłosili oczyszczenie uniwersytetów
z niearyjskich pracowników. Nagle wielu najbardziej poważanych
niemieckich intelektualistów zostało zmuszonych albo do porzucenia swoich
domów, albo – jak mój ojciec krawiec w Polsce, który nie miał takiej
możliwości – do pozostania i stawienia czoła rosnącemu zagrożeniu
nazistowskiemu. Szacuje się, że w ciągu pięciu lat niemal dwa tysiące
czołowych naukowców uciekło albo z powodu swojego pochodzenia, albo
przekonań politycznych.
Twierdzi się jednak, że o rosnącej władzy Hitlera Heisenberg miał rzekomo
powiedzieć z wielką radością: „Teraz mamy przynajmniej porządek,
położono kres niepokojom i mamy rządy silnej ręki w Niemczech, co będzie
z korzyścią dla Europy”373. Od wczesnej młodości był on bowiem
niezadowolony z kierunku, w którym podążało niemieckie społeczeństwo.
Działał w nacjonalistycznej grupie młodzieżowej, która łączyła długie piesze
wędrówki po dzikich ostępach z dyskusjami przy ognisku potępiającymi
moralną dekadencję Niemiec oraz utratę wspólnego celu i tradycji. Jako
naukowiec dążył do tego, by trzymać się z dala od polityki, ale wydaje się, że
widział w Hitlerze człowieka rządzącego twardą ręką, który może przywrócić
Niemcom wielkość sprzed I wojny światowej.
Jednak nowa fizyka, której orędownikiem był Heisenberg i którą istotnie
pomógł stworzyć, musiała rozdrażnić Hitlera. W XIX wieku fizyka
niemiecka zyskała pierwszeństwo i prestiż głównie dzięki gromadzeniu
i analizie danych. Z pewnością formułowano i analizowano hipotezy
matematyczne, ale nie na tym na ogół koncentrowali się fizycy. Z kolei
w pierwszych dekadach XX wieku rozkwitła fizyka teoretyczna jako
dziedzina i, jak widzieliśmy, osiągnęła zadziwiające sukcesy. Naziści
odrzucili ją jako przesadnie spekulatywną i zawiłą matematycznie. Podobnie
jak sztuka „zdegenerowana”, której tak bardzo nienawidzili, postrzegana była
jako wyjątkowo surrealistyczna i abstrakcyjna. Co najgorsze, większość
pracujących nad nią naukowców była pochodzenia żydowskiego (Einstein,
Born, Bohr, Pauli).
Naziści zaczęli nazywać nowe teorie – teorię względności i teorię
kwantową – „żydowską fizyką”. W efekcie były one nie tylko mylne – były
również zdegenerowane, a naziści zakazali nauczania ich na uniwersytetach.
Nawet Heisenberg miał kłopoty, ponieważ pracował nad „żydowską fizyką”
i z żydowskimi fizykami. Te ataki rozgniewały uczonego, który pomimo
wielu ofert z zagranicznych prestiżowych uniwersytetów pozostał
w Niemczech, lojalny wobec swojego rządu, i robił wszystko, czego żądała
III Rzesza.
Heisenberg próbował zaradzić swoim problemom, zwracając się
bezpośrednio do Heinricha Himmlera, zwierzchnika Schutzstaffeln (SS)
i człowieka, który miał odpowiadać za zbudowanie obozów
koncentracyjnych. Jego matka i matka Himmlera znały się od lat
i wykorzystał tę znajomość, żeby przekazać list Himmlerowi. Himmler
odpowiedział intensywnym ośmiomiesięcznym dochodzeniem, które
przyprawiało Heisenberga o koszmary przez następne lata, ale zakończyło się
deklaracją: „Wierzę, że Heisenberg jest przyzwoity, a my nie możemy sobie
pozwolić na uciszenie tego człowieka, który jest stosunkowo młody i może
wykształcić nowe pokolenie”374. Heisenberg zgodził się w zamian wyprzeć
żydowskich twórców żydowskiej fizyki i unikać wymieniania publicznie ich
nazwisk.
Spośród czołowych pionierów fizyki kwantowej Rutherford przebywał
wówczas w Cambridge. Pomógł tam założyć organizację niosącą pomoc
uchodźcom-akademikom i jej przewodniczył. Zmarł w 1937 roku w wieku
sześćdziesięciu trzech lat, w wyniku opóźnienia operacji podwiązania
przepukliny. Dirac, który objął katedrę Lucasa w Cambridge (którą kiedyś
zajmowali Newton i Babbage, a później Hawking), pracował przez pewien
czas nad problemami istotnymi dla brytyjskiego programu zbudowania
bomby atomowej, a później został zaproszony do pracy nad projektem
Manhattan, ale odmówił ze względów etycznych i swoje ostatnie lata spędził
na Uniwersytecie Stanowym Florydy w Tallahassee, gdzie zmarł w 1984
roku w wieku osiemdziesięciu dwóch lat. Pauli, który był profesorem
w Zurychu w tym czasie, podobnie jak Rutherford kierował
międzynarodowym projektem pomocy uchodźcom, ale kiedy wybuchła
wojna, odmówiono mu obywatelstwa szwajcarskiego, uciekł więc do Stanów
Zjednoczonych. Mieszkał tam, kiedy przyznano mu Nagrodę Nobla niedługo
po zakończeniu wojny. W swoich późniejszych latach coraz bardziej
interesował się mistycyzmem i psychologią, zwłaszcza snami, i był
członkiem założycielem Instytutu C.G. Junga w Zurychu. Zmarł w zuryskim
szpitalu w 1958 roku w wieku pięćdziesięciu ośmiu lat na raka trzustki.
Schrödinger, podobnie jak Pauli, był Austriakiem, ale mieszkał w Berlinie,
kiedy Hitler przejął władzę. W odniesieniu do Hitlera, podobnie jak pod tak
wieloma innymi względami, Schrödinger okazał się przeciwieństwem
Heisenberga: był zagorzałym antynazistą i niebawem opuścił Niemcy, żeby
objąć stanowisko w Oksfordzie. Niedługo potem dostał Nagrodę Nobla wraz
z Dirakiem. Heisenberg, który próbował utrzymać niemieckich fizyków
razem, żałował wyjazdu Schrödingera, „ponieważ nie był ani Żydem, ani nie
był zagrożony z innych powodów”375.
Jak się okazało, Schrödinger nie zagrzał miejsca w Oksfordzie. Powstały
tam pewne trudności, ponieważ mieszkał zarówno ze swoją żoną, jak
i kochanką, którą uważał za drugą żonę. Jak napisał jego biograf Walter
Moore, w Oksfordzie „żony uważano za niefortunne żeńskie dodatki […]
Posiadanie jednej było godne ubolewania – posiadanie dwóch było czymś
nieopisanym”376.
Schrödinger osiadł w końcu w Dublinie. Zmarł na gruźlicę w 1961 roku
w wieku siedemdziesięciu trzech lat. Po raz pierwszy nabawił się tej choroby
w 1918 roku, gdy walczył w czasie I wojny światowej, a problemy
z oddychaniem, na które cierpiał od tego czasu, były powodem, dla którego
upodobał sobie uzdrowisko w Arosie, gdzie stworzył swoją wersję teorii
kwantowej.
Einstein i Born mieszkali w Niemczech, kiedy Hitler doszedł do władzy,
i emigracja w odpowiednim momencie była dla nich kwestią życia i śmierci
z uwagi na żydowskie pochodzenie. Einstein, który był wówczas profesorem
w Berlinie, w dniu mianowania Hitlera przypadkowo odwiedzał właśnie
Caltech w Stanach Zjednoczonych. Postanowił nie wracać do Niemiec i jego
noga nigdy więcej tam nie postała. Naziści skonfiskowali jego własność,
spalili dzieła o teorii względności i ogłosili nagrodę w wysokości pięciu
tysięcy dolarów za jego głowę. Nie było to jednak dla niego zaskoczeniem:
gdy wyjeżdżali do Kalifornii, Einstein powiedział żonie, żeby dobrze
przyjrzała się ich domowi. „Nigdy więcej go nie zobaczysz” – powiedział377.
Myślała, że się wygłupia.
Einstein został obywatelem amerykańskim w 1940 roku, ale zachował
również obywatelstwo szwajcarskie. Gdy zmarł w 1955 roku, dwunastu
bliskich przyjaciół zgromadziło się w krematorium, a po krótkiej
uroczystości wspomnieniowej jego ciało zostało skremowane, prochy zaś
rozsypane w nieujawnionym miejscu. Jednak patolog ze szpitala w Princeton
usunął z ciała mózg, który był wielokrotnie badany w kolejnych
dziesięcioleciach. To, co z niego pozostało, znajduje się w Narodowym
Muzeum Zdrowia i Medycyny armii amerykańskiej w Silver Spring w stanie
Maryland378.
Born, któremu zakazano nauczania i który martwił się nieustannym
nękaniem jego dzieci, również natychmiast szukał możliwości opuszczenia
Niemiec. Heisenberg usilnie starał się, by Borna wyłączono spod zakazu
pracy dla nie-Aryjczyków, ale zamiast tego Born dzięki pomocy organizacji
Pauliego wyjechał, by objąć katedrę w Cambridge w lipcu 1933 roku,
a później przeniósł się do Edynburga. Po tym, jak ominęła go Nagroda
Nobla, kiedy w 1932 roku dostał ją Heisenberg – za pracę, którą wykonali
razem – został nią uhonorowany w 1954 roku. Zmarł w 1970 roku. Na jego
nagrobku znajduje się inskrypcja „pq – qp = h/2π” – jedno z najsłynniejszych
równań teorii kwantowej, wyrażenie matematyczne, które miało się stać
podstawą zasady nieoznaczoności Heisenberga, a które Dirac odkrył
niezależnie379.
Bohr, który mieszkał w Danii i kierował tym, co nazywa się dziś Instytutem
Nielsa Bohra, nie był przez pewien czas zagrożony działaniami Hitlera
i pomagał żydowskim uchodźcom znajdować stanowiska w Stanach
Zjednoczonych, Wielkiej Brytanii i Szwecji. Jednak w 1940 roku Hitler
najechał Danię, a jesienią 1943 roku szwedzki ambasador w Kopenhadze
ostrzegł uczonego, że grozi mu natychmiastowe aresztowanie w ramach
planu deportowania wszystkich duńskich Żydów. Tak się złożyło, że miał
zostać aresztowany miesiąc wcześniej, ale naziści mieli poczucie, iż wzbudzi
to mniejszą wściekłość, jeśli poczekają do szczytowego momentu fali
łapanek. Ta zwłoka ocaliła Bohra, który uciekł z żoną do Szwecji.
Następnego dnia spotkał się z królem Gustawem V i przekonał go, żeby
publicznie zaoferował schronienie żydowskim uchodźcom.
Jednak samemu Bohrowi groziło uprowadzenie. W Szwecji roiło się od
niemieckich agentów i choć ulokowano go w sekretnym miejscu, wiedzieli,
że przebywa w Sztokholmie. Niebawem Winston Churchill dał znać
Bohrowi, że Brytyjczycy go ewakuują, i wielki fizyk został zapakowany na
materacu do luku bombowego de Havillanda Mosquito, nieuzbrojonego
i szybkiego bombowca o wysokim pułapie lotu, który mógł uniknąć
niemieckich myśliwców. Po drodze Bohrowi brakowało tlenu, ale przeżył,
wciąż mając na sobie ubranie, które nosił, gdy uciekał z Danii. Rodzina
poszła w jego ślady. Z Anglii Bohr uciekł do Stanów Zjednoczonych, gdzie
został doradcą przy projekcie Manhattan. Po wojnie wrócił do Kopenhagi,
gdzie zmarł w 1962 roku w wieku siedemdziesięciu siedmiu lat.

Pionierzy teorii kwantowej na Piątym Międzynarodowym Kongresie Solvaya


poświęconym elektronom i protonom, Bruksela, 1927 rok. Tylny rząd:
Schrödinger, Dirac (piąty), Born (ósmy), Bohr (dziewiąty). Pierwszy rząd: Planck
(drugi), Einstein (piąty) (Dzięki uprzejmości Benjamina Couprie, Institut
International de Physique de Solvay/Wikimedia Commons)

Spośród wielkich teoretyków zajmujących się kwantami tylko Planck,


Heisenberg i Jordan pozostali w Niemczech. Jordan, podobnie jak wielki
eksperymentator Geiger, był entuzjastycznym nazistą. Został jednym
z członków trzymilionowej niemieckiej armii szturmowców i z dumą nosił
brunatny mundur z oficerkami i opaską ze swastyką380. Próbował
zainteresować partię nazistowską różnymi systemami zaawansowanej broni,
ale – jak na ironię – ze względu na swoje związki z „żydowską fizyką” był
ignorowany. Po wojnie zaangażował się w politykę i zdobył miejsce
w Bundestagu. Zmarł w 1980 roku w wieku siedemdziesięciu siedmiu lat,
jako jedyny spośród pionierów fizyki kwantowej, który nie dostał Nagrody
Nobla.
Planck nie sympatyzował z nazistami, jednak nie zrobił również wiele, żeby
stawić im opór, choćby po cichu. Natomiast podobnie jak u Heisenberga,
jego priorytetem było ocalenie z nauki niemieckiej, co się dało, przy
jednoczesnym przestrzeganiu wszystkich praw i regulacji nazistowskich381.
W maju 1933 roku spotkał się z Hitlerem, by zniechęcić go do prowadzenia
polityki wypędzania Żydów z niemieckich instytucji naukowych, ale
oczywiście spotkanie to niczego nie zmieniło. Wiele lat później najmłodszy
syn uczonego, z którym ojciec był bardzo związany, próbował zmienić partię
nazistowską w znacznie bardziej śmiały sposób – należał do spisku mającego
na celu zamordowanie Hitlera 20 lipca 1944 roku. Aresztowany wraz
z innymi uczestnikami, był torturowany i został stracony przez gestapo. Dla
Plancka było to tragiczne zwieńczenie życia pełnego ciosów. Z pięciorga
dzieci troje stracił w młodym wieku – najstarszy syn zginął podczas I wojny
światowej, a dwie córki zmarły w dzieciństwie. Mówi się jednak, że
egzekucja syna pozbawiła go ostatecznie chęci do życia. Zmarł dwa lata
później w wieku osiemdziesięciu dziewięciu lat.
Stosunek Heisenberga do nazistów, pomimo początkowego entuzjazmu,
z czasem stał się oziębły. Jednak przez cały czas istnienia III Rzeszy
zajmował on wysokie stanowiska naukowe i spełniał swoje obowiązki bez
narzekania. Kiedy Żydów usuwano z uniwersytetów, zrobił, co mógł, żeby
ocalić niemiecką fizykę, ściągając na ich miejsce najlepszych możliwych
zastępców. Nie wstąpił do partii nazistowskiej, ale pozostał na swoim
stanowisku i nigdy nie zerwał z reżimem.
Kiedy w 1939 roku rozpoczął się niemiecki projekt budowy bomby
atomowej, Heisenberg dołączył doń i zaangażował się w prace nad nim
z ogromną energią382. Niebawem ukończył obliczenia, które pokazywały, że
reakcja łańcuchowa rozszczepienia jąder jest możliwa i że czysty uran-235,
rzadki izotop, będzie dobrym materiałem wybuchowym. Kolejną ironią
historii jest to, że początkowe sukcesy wojenne Niemiec mogły doprowadzić
do ich ostatecznej porażki: na początku reżim nie poświęcił wielu zasobów
na prace nad bombą atomową, ponieważ wojna szła tak dobrze, natomiast
kiedy trend się odwrócił, było już za późno – Niemcy zostały pokonane,
zanim były w stanie zbudować broń jądrową.
Po wojnie Heisenberg był przez krótki czas przetrzymywany przez aliantów
wraz z innymi czołowymi naukowcami niemieckimi. Po uwolnieniu wrócił
do pracy nad fundamentalnymi zagadnieniami fizyki, nad odbudowywaniem
nauki niemieckiej i nad odzyskaniem reputacji wśród naukowców spoza
swojej ojczyzny. Zmarł w swoim domu w Monachium 1 lutego 1976 roku,
nigdy nie odzyskawszy pozycji, jaką kiedyś się cieszył.
Mieszany stosunek społeczności fizyków do Heisenberga po wojnie znalazł
prawdopodobnie najlepsze odzwierciedlenie w moim własnym zachowaniu.
Kiedy jako student miałem możliwość wysłuchać w 1973 roku odczytu, jaki
wygłosił na Harvardzie o rozwoju teorii kwantowej, nie mogłem się zmusić,
żeby na niego pójść. Jednak wiele lat później, gdy byłem stypendystą
Fundacji Humboldta w instytucie, w którym był dyrektorem, często
przystawałem przed gabinetem, jaki kiedyś zajmował, i rozmyślałem nad
duchem, który pomógł wynaleźć mechanikę kwantową.

***

Choć teoria kwantowa stworzona przez wielkich pionierów fizyki kwantowej


nie zmieniła opisu znacznej części fizyki świata makroskopowego,
zrewolucjonizowała nasz styl życia, wywołując zmianę równie ogromną jak
rewolucja przemysłowa. Prawa teorii kwantowej leżą u podstaw wszystkich
technologii informacyjnych i komunikacyjnych, które przekształciły
nowoczesne społeczeństwo. Jednak równie ważne jak jej praktyczne
zastosowania jest to, co teoria kwantowa mówi nam o przyrodzie i o nauce.
Tryumf światopoglądu newtonowskiego niósł ze sobą obietnicę, że za
pomocą odpowiednich obliczeń matematycznych rodzaj ludzki może
przewidzieć i wyjaśnić wszystkie zjawiska naturalne, i w ten sposób natchnął
naukowców z wszystkich dziedzin nauki pragnieniem „znewtonizowania”
swoich dyscyplin. Fizyka kwantowa z pierwszej połowy XX wieku
zniweczyła te aspiracje i ujawniła prawdę, która zarazem daje siłę i uczy
głębokiej pokory. Daje siłę, ponieważ teoria kwantowa dowodzi, że możemy
zrozumieć niewidzialny świat leżący poza naszym doświadczeniem
i manipulować nim. A uczy pokory, ponieważ przez tysiąclecia postępy
dokonywane przez naukowców i filozofów sugerowały, że nasza zdolność
rozumienia jest nieskończona, a teraz przyroda, przemawiając za
pośrednictwem wielkich odkryć dokonanych przez fizyków kwantowych,
mówi nam, że istnieją granice tego, co możemy wiedzieć i co możemy
kontrolować. Co więcej, teoria kwantowa przypomina nam, że mogą istnieć
inne niewidzialne światy, że Wszechświat jest miejscem wyjątkowo
tajemniczym i że tuż za horyzontem mogą kryć się kolejne niewytłumaczalne
zjawiska wymagające nowych rewolucji w myśleniu i teorii.
Na stronach tej książki odbyliśmy podróż przez miliony lat, rozpoczynając
od pierwszych gatunków człowiekowatych, które tak bardzo się od nas
różniły zarówno pod względem fizycznym, jak i umysłowym. W tej
obejmującej cztery miliony lat podróży dopiero w ostatnim mgnieniu oka
wkroczyliśmy w obecną epokę i dowiedzieliśmy się, że przyrodą rządzą
prawa, w których jednak kryje się więcej, niż doświadczamy w codziennym
życiu – jest więcej rzeczy na ziemi i w niebie, jak powiedział Hamlet do
Horacego, niż śniło się naszym filozofom.
Nasza wiedza nadal będzie się rozrastać w przewidywalnej przyszłości,
a jeśli wziąć pod uwagę wykładniczy wzrost liczby ludzi uprawiających
naukę, rozsądne wydaje się przekonanie, że następne sto lat przyniesie
równie wielkie postępy w nauce jak ostatnie tysiąc lat. Jeśli jednak czytacie
tę książkę, to wiecie, że ma to większy związek z pytaniami o nasze
otoczenie, jakie ludzie stawiają, niż z kwestiami technicznymi – my, ludzie,
widzimy piękno w przyrodzie i poszukujemy sensu. Nie chcemy jedynie
wiedzieć, jak Wszechświat funkcjonuje – chcemy wiedzieć, jakie jest nasze
w nim miejsce. Chcemy dać kontekst naszemu życiu i naszej skończonej
egzystencji, a także mieć poczucie związku z innymi ludźmi, z ich
radościami i smutkami, oraz z ogromnym kosmosem, w którym te radości
i smutki odgrywają tak maleńką rolę.
Zrozumienie i zaakceptowanie naszego miejsca we Wszechświecie może
być trudne, ale od samego początku było ono jednym z celów tych, którzy
badają przyrodę – od wczesnych Greków, którzy naukę wraz z metafizyką,
etyką i estetyką uznawali za gałąź filozofii, po pionierów w rodzaju
Boyle’a i Newtona, którzy podjęli badania przyrody jako sposób na
zrozumienie natury Boga. Dla mnie osobiście związek między wglądem
w świat fizyczny i wglądem w świat ludzki ujawnił się najbardziej jaskrawo
pewnego dnia, gdy byłem w Vancouver na planie serialu telewizyjnego
MacGyver. Napisałem odcinek, który był filmowany, i instruowałem
rekwizytorów i scenografów, jak wygląda laboratorium do prowadzenia
badań fizycznych w niskich temperaturach. Nagle w samym środku tych
przyziemnych dyskusji o kwestiach telewizyjnych po raz pierwszy zostałem
zmuszony do stawienia czoła faktowi, że my, ludzie, nie stoimy ponad
przyrodą, lecz raczej pojawiamy się i odchodzimy jak kwiaty, jak zięby
Darwina.
Wszystko zaczęło się od tego, że zadzwoniono do mnie na plan z biura
produkcji. W tamtych czasach, jeszcze zanim każdy nastolatek miał komórkę,
telefon na plan był czymś niezwykłym i zazwyczaj odbierałem rozmowy
telefoniczne po wielu godzinach w postaci notatek nabazgranych na
świstkach papieru. Były to wiadomości w rodzaju Leonard: <nieczytelne>
chce, żebyś <nieczytelne>. Powiedział, że to pilne! Zadzwoń do niego do
<nieczytelne>. Tym razem było inaczej. Sam asystent producenta przyniósł
mi telefon.
Moim rozmówcą był lekarz ze szpitala Uniwersytetu Chicagowskiego.
Poinformował mnie, że ojciec miał udar i jest w śpiączce – co było
opóźnionym efektem operacji, którą zrobiono tacie kilka miesięcy wcześniej,
by naprawić mu aortę. Wieczorem byłem w szpitalu i patrzyłem na ojca,
który leżał na wznak z zamkniętymi oczami i wyglądał bardzo spokojnie.
Siedziałem przy nim i gładziłem go po włosach. Wydawał się ciepły i żywy,
jak gdyby spał, jak gdyby mógł się obudzić w każdej chwili, uśmiechnąć się,
że jestem przy nim, wyciągnąć do mnie rękę i zapytać, czy chcę kawałek
żytniego chleba z marynowanym śledziem na śniadanie.
Mówiłem do taty. Powiedziałem mu, że go kocham – tak samo jak wiele lat
później mówiłem to samo moim śpiącym dzieciom. Jednak lekarz podkreślił,
że ojciec nie śpi. Nie mógł mnie usłyszeć, wyjaśnił. Stwierdził, że badanie
mózgu pokazało, iż jest on całkiem martwy. Ciepłe ciało ojca przypominało
na pozór laboratorium fizyczne z MacGyvera – było fasadą, ładnie
wyglądającą z zewnątrz, ale jedynie skorupą, niezdolną do jakiegokolwiek
sensownego funkcjonowania. Lekarz powiedział mi, że ciśnienie krwi będzie
stopniowo maleć, a oddech zwalniać, aż ojciec umrze.
W tej chwili nienawidziłem nauki. Chciałem, żeby się myliła. Kim są
naukowcy i lekarze, którzy przepowiadają nam los istoty ludzkiej? Oddałbym
cokolwiek, oddałbym wszystko, żeby mieć ojca z powrotem, a nawet żeby
mieć go z powrotem tylko na jeden dzień, na godzinę, choćby na minutę, by
powiedzieć mu, że go kochałem, i się z nim pożegnać. Jednak koniec
przyszedł właśnie tak, jak opisał lekarz.
Było to w 1988 roku, a ojciec miał siedemdziesiąt sześć lat. Po jego śmierci
nasza rodzina „odsiedziała sziwę”, co oznacza, że odbyliśmy tradycyjny
siedmiodniowy okres żałoby, w czasie którego modli się trzy razy dziennie
i nie opuszcza domu. Przez całe moje życie siadywałem w naszym salonie
i rozmawiałem z ojcem, ale teraz był już tylko wspomnieniem, i wiedziałem,
że nigdy więcej nie pogadamy. Dzięki podróży intelektualnej, którą odbyła
ludzkość i którą opisałem w tej książce, wiedziałem, że atomy, z których się
składał, nadal istnieją i zawsze będą istnieć; ale wiedziałem też, że choć
atomy jego ciała nie umarły wraz z nim, teraz się rozproszą. Już nigdy więcej
miały nie być zorganizowane w istotę, którą znałem jako własnego ojca,
chyba że jako cień w moim umyśle i umysłach innych, którzy go kochali.
I wiedziałem, że za kilka dziesięcioleci to samo stanie się ze mną.
Ku mojemu zaskoczeniu czuję teraz, że to, czego nauczyłem się dzięki
zmaganiom o zrozumienie świata fizycznego, nie uczyniło mnie nieczułym –
dało mi siłę. Pomogło mi przemóc moje złamane serce i poczuć się mniej
samotnym, ponieważ jestem częścią czegoś większego. Otworzyło mi oczy
na niesamowite piękno naszego istnienia, niezależnie, ile lat zostało nam
dane. Mój ojciec, mimo że nigdy nie miał szansy nawet na to, by pójść do
szkoły średniej, również potrafił docenić naturę świata fizycznego i był jej
bardzo ciekaw. Powiedziałem mu kiedyś, w czasie jednej z tych rozmów,
które prowadziliśmy w salonie za moich młodych lat, że kiedyś napiszę
o tym książkę. W końcu, wiele dziesiątków lat później, jest to właśnie ta
książka.
Mój ojciec tego wieczoru, gdy oświadczył się mojej matce, Nowy Jork 1951.

342 William H. Cropper, Great Physicists: The Life and Times of Leading Physicists
from Galileo to Hawking, Oxford University Press, Oksford 2001, s. 252.

343 Ibidem.

344 Uznaną biografią Heisenberga jest: David C. Cassidy, Uncertainty: The Life and
Times of Werner Heisenberg, W.H. Freeman, Nowy Jork 1992.

345 Ibidem, s. 99–100.

346 Jak na ironię, Lindemann parał się kiedyś bez większych sukcesów fizyką. Został
zapamiętany jako człowiek, który dowiódł, że „kwadratura koła” jest niemożliwa – to
znaczy, że za pomocą tylko linijki i cyrkla nie można skonstruować kwadratu o
powierzchni takiej samej jak dane koło.

347 David C. Cassidy, Uncertainty, op. cit.


348 Olivier Darrigol, From c-Numbers to q-Numbers: The Classical Analogy in the
History of Quantum Theory, University of California Press, Berkeley 1992, s. 218–224,
257, 259; David C. Cassidy, Uncertainty, op. cit., s. 184–190.

349 Failure, reklama telewizyjna, 1997, dostęp: 27 października 2014 r.,


https://www.youtube.com/watch?v=45mMioJ5szc.

350 Lincoln–Douglas Debate at Charleston, Illinois, 18 września 1858 r., dostęp:


7 listopada 2014 r., http://www.nps.gov/liho/historyculture/debate4.htm.

351 Abraham Lincoln, address at Peoria, Illinois, 16 października 1854 r., zob. The
Collected Works of Abraham Lincoln, t. 2, red. Roy P. Basler, Rutgers University Press,
New Brunswick 1953–1955, s. 256, 266.

352 William A. Fedak i Jeffrey J. Prentis, The 1925 Born and Jordan Paper ‘On
Quantum Mechanics’, „American Journal of Physics”, nr 77 (luty 2009), s. 128–139.

353 Niels Blaedel, Harmony and Unity: The Life of Niels Bohr, Springer Verlag, Nowy
Jork 1988, s. 111.

354 Max Born, My Life and Views, Charles Scribner’s Sons, Nowy Jork 1968, s. 48.

355 Mara Beller, Quantum Dialogue: The Making of a Revolution, University of Chicago
Press, Chicago 1999, s. 22.

356 David C. Cassidy, Uncertainty, op. cit., s. 198.

357 Abraham Pais, „Pan Bóg jest wyrafinowany...”. Nauka i życie Alberta Einsteina,
przeł. P. Amsterdamski, Prószyński i S-ka, Warszawa 2001, s. 465.

358 David C. Cassidy, Uncertainty, op. cit., s. 203.

359 Charles P. Enz, No Time to Be Brief, Oxford University Press, Oksford 2010, s. 134.

360 Niels Blaedel, Harmony and Unity, op. cit., s. 111–112.

361 Walter Moore, A Life of Erwin Schrödinger, Cambridge University Press,


Cambridge 1994, s. 138.
362 Ibidem, s. 149.

363 Ibidem.

364 Wallace Stevens, Thirteen Ways of Looking at a Blackbird, w: Collected Poems


(1954), Vintage, Nowy Jork 1982, s. 92.

365 Abraham Pais, „Pan Bóg jest wyrafinowany...”, op. cit., s. 446.

366 David C. Cassidy, Uncertainty, op. cit., s. 215.

367 Ibidem.

368 Walter Moore, Life of Erwin Schrödinger, op. cit., s. 145.

369 Formalnie rzecz biorąc, zasada nieoznaczoności ogranicza wiedzę o położeniu


i pędzie, który równa się masie pomnożonej przez prędkość, ale dla naszych celów to
rozróżnienie jest nieistotne.

370 Albert Einstein to Max Born, December 4, 1926, w: The Born–Einstein Letters, red.
M. Born, Walker, Nowy Jork 1971, s. 90. [Zob. Abraham Pais, „Pan Bóg jest
wyrafinowany...”, op. cit., s. 446 (przyp. tłum.)].

371 Abraham Pais, Pan Bóg jest wyrafinowany, op. cit., s. 446.

372 Ibidem, s. 44.

373 Graham Farmelo, The Strangest Man: The Hidden Life of Paul Dirac, Mystic of the
Atom, Basic Books, Nowy Jork 2009, s. 219–220.

374 David C. Cassidy, Uncertainty, op. cit., s. 393.

375 Ibidem, s. 310.

376 Walter Moore, Life of Erwin Schrödinger, op. cit., s. 213–214.


377 Philipp Frank, Einstein: His Life and Times, Da Capo Press, Cambridge 2002, s. 226.

378 Michael Balter, Einstein’s Brain Was Unusual in Several Respects, Rarely Seen
Photos Show, „Washington Post”, 26 listopada 2012 r.

379 Jestem dumny ze związków mojego doktoratu sięgających postaci Maxa Borna. Ciąg
jest następujący: Born – J. Robert Oppenheimer (został szefem projektu Manhattan) –
Willis Lamb (laureat Nagrody Nobla i jeden z twórców lasera) – Norman Kroll (wniósł
zasadniczy wkład w teorię światła i atomów) – Eyvind Wichmann (mój promotor, ważna
postać w fizyce matematycznej).

380 Graham Farmelo, The Strangest Man, op. cit., s. 219.

381 David C. Cassidy, Uncertainty, op. cit., s. 306.

382 Ibidem, s. 421–429.


Epilog

Jest taka stara łamigłówka o mnichu, który pewnego dnia opuszcza swój
klasztor o świcie i wspina się do świątyni położonej na szczycie wysokiej
góry383. Na górę prowadzi tylko jedna ścieżka, dość wąska i kręta, a mnich
wspina się nią, czasami zwalniając, ponieważ jej fragmenty są dość strome,
ale dociera do świątyni niedługo przed zachodem słońca. Następnego dnia
schodzi ścieżką, znów zaczynając o świcie i docierając do klasztoru
o zachodzie słońca. Pytanie: Czy jest taki punkt na ścieżce, do którego dotrze
w tym samym czasie w obu dniach? Celem nie jest wskazanie go, ale jedynie
odpowiedź, czy taki punkt jest czy go nie ma.
Nie jest to jedna z tych łamigłówek, które opierają się na sztuczce, na
zamaskowanej informacji albo na nowej interpretacji jakiegoś słowa.
Na ścieżce nie ma ołtarza, przy którym mnich modli się każdego dnia
w południe, nic nie musimy wiedzieć o prędkości, z jaką schodzi albo
wchodzi, nie trzeba się domyślić żadnego brakującego szczegółu, żeby
rozwiązać tę zagadkę. Nie jest to również taka łamigłówka, która mówi nam,
że rzeźnik ma metr pięćdziesiąt wzrostu, a później pada pytanie, co waży, na
co odpowiedzią jest „mięso”. Nie, sytuacja w tej zagadce jest całkiem prosta
i istnieje szansa, że zrozumiemy po pierwszym przeczytaniu wszystko, co
trzeba wiedzieć, żeby ustalić, jaka jest odpowiedź.
Pomyślmy o tym przez chwilę, ponieważ powodzenie w rozwiązaniu tej
łamigłówki, jak w wypadku wielu pytań, na które naukowcy próbowali
odpowiedzieć przez wieki, może zależeć od naszej cierpliwości
i wytrwałości. A nawet w jeszcze większym stopniu, jak wiedzą wszyscy
dobrzy naukowcy, będzie zależeć od zdolności do postawienia pytania we
właściwy sposób, do cofnięcia się o krok i spojrzenia na problem pod nieco
odmiennym kątem. Gdy to zrobimy, znalezienie odpowiedzi jest łatwe. To
odkrycie tego kąta patrzenia może być trudne. Właśnie dlatego fizyka
Newtona, układ okresowy Mendelejewa i teoria względności Einsteina
wymagały do ich stworzenia ludzi górujących intelektem i oryginalnością –
a jednak dziś, gdy zostaną należycie wyjaśnione, może je zrozumieć każdy
student fizyki i chemii. I właśnie dlatego to, co wywołuje zamęt w głowie
w jednym pokoleniu, staje się powszechną wiedzą w następnych, co pozwala
naukowcom wspinać się na jeszcze wyższe szczyty.
Aby dojść do rozwiązania łamigłówki z mnichem, zamiast odtwarzać
w umyśle obraz człowieka wspinającego się na górę jednego dnia
i schodzącego następnego, przeprowadźmy eksperyment naukowy
i spróbujmy ująć problem odmiennie. Wyobraźmy sobie, że jest dwóch
mnichów – jeden wchodzi na górę, a drugi schodzi, obaj wyruszają o świcie
tego samego dnia. Oczywiście, miną się po drodze. Miejsce, w którym się
miną, to właśnie to, do którego mnich z zagadki dotrze w tym samym
momencie w obu dniach. Zatem odpowiedź brzmi: „Tak”.
To, że mnich osiągnie konkretny punkt na ścieżce w tym samym czasie,
zarówno wchodząc, jak i schodząc, może wydawać się nieprawdopodobnym
przypadkiem. Jednak gdy tylko uwolni się umysł od historyjki o dwóch
mnichach wchodzących i schodzących tego samego dnia, dostrzeże się, że
nie jest to przypadek – to nieuniknione.
W pewnym sensie postęp ludzkiego rozumienia umożliwiło powodzenie
w rozwiązywaniu tego rodzaju łamigłówek, z których każda została
stworzona przez kogoś zdolnego do patrzenia na świat troszeczkę odmiennie.
Galileusz wyobrażał sobie obiekty spadające w teoretycznym świecie
pozbawionym oporu powietrza. Dalton wyobrażał sobie, jak pierwiastki
mogłyby reagować, tworząc związki chemiczne, jeśli złożone byłyby
z niewidocznych atomów. Heisenberg wyobrażał sobie, że dziedzina atomów
rządzona jest przez dziwaczne prawa, które nie przypominają nic, czego
doświadczamy w codziennym życiu. Jeden kraniec spektrum myślenia
z fantazją określa się mianem „szaleństwa”, a drugi – „wizjonerstwa”. To
dzięki sumiennym wysiłkom długiego szeregu myślicieli, których idee lokują
się w różnych punktach między tymi dwiema skrajnościami, nasze
zrozumienie kosmosu doszło do tego punktu, w którym znajduje się dziś.
Jeśli osiągnąłem mój cel, to poprzednie stronice tej książki pokazały, jak
bardzo doceniam źródła ludzkiej myśli dotyczącej świata fizycznego, tego
rodzaju pytania, jakimi zajmują się ci, którzy go badają, naturę teorii i badań
oraz to, jak kultura i systemy wierzeń wpływają na te badania. Jest to ważne
dla zrozumienia wielu społecznych, profesjonalnych i moralnych zagadnień
naszych czasów. Jednak większość tej książki dotyczyła również tego, jak
myślą naukowcy i inni innowatorzy.
Dwadzieścia pięć stuleci temu Sokrates porównał osobę idącą przez życie
bez krytycznego i systematycznego myślenia do rzemieślnika takiego jak
garncarz, który uprawia swój fach bez przestrzegania odpowiednich
procedur384. Wyrabianie garnków może wydawać się proste, ale takie nie
jest. W czasach Sokratesa wymagało ono wydobycia gliny z kopalni
położonej na południe od Aten, umieszczenia jej na specjalnym kole,
obracania tym kołem z prędkością odpowiednią do średnicy wyrabianego
naczynia, a następnie wyciągnięcia naczynia, odrzucenia niepotrzebnego
nadmiaru materiału, wygładzenia, polania, wysuszenia i dwukrotnego
wypalenia w piecu garncarskim, za każdym razem we właściwej
temperaturze i przy odpowiedniej wilgotności. Błąd w tych wszystkich
procedurach sprawiał, że garnek był niekształtny, pęknięty, odbarwiony albo
po prostu brzydki. Mocne myślenie, wskazywał Sokrates, jest również
rzemiosłem, i to rzemiosłem wartym tego, by je dobrze wykonywać.
W końcu wszyscy znamy ludzi, którzy źle je wykonując, sprawili, że ich
życie jest zdeformowane albo nieudane w inny smutny sposób.
Niewielu z nas bada atomy albo naturę przestrzeni i czasu, ale wszyscy
tworzymy teorie dotyczące świata, w którym żyjemy, i wykorzystujemy te
teorie, by kierowały nami w pracy i zabawie, gdy decydujemy, jak
inwestować, co jeść, by jeść zdrowo, a nawet co czyni nas szczęśliwymi.
Również podobnie jak naukowcy wszyscy musimy być innowacyjni w życiu.
Może to oznaczać wymyślenie, co zrobić na obiad, gdy się ma mało czasu
albo energii, zaimprowizowanie wystąpienia, gdy zgubiły się notatki,
a wszystkie komputery są zepsute – albo coś, co zmienia życie tak jak
wiedza, kiedy pozbyć się mentalnego bagażu przeszłości, a kiedy trzymać się
tradycji, które nas wspierają.
Samo życie, zwłaszcza współczesne, stawia nam intelektualne wyzwania
analogiczne do tych, w obliczu których stają naukowcy, nawet jeśli tak
o sobie nie myślimy. A więc ze wszystkich lekcji, jakie można było
wyciągnąć z tej przygody, prawdopodobnie najważniejsze są te, które
ukazały charakter naukowców odnoszących sukcesy, elastyczne
i niekonwencjonalne myślenie, cierpliwe podejście i brak przywiązania do
tego, w co wierzą inni, umiejętność docenienia zmiany punktu widzenia oraz
przekonanie, że odpowiedzi istnieją i że możemy je znaleźć.

***

W jakim punkcie znajduje się dziś nasze zrozumienie Wszechświata? Wiek


XX był świadkiem wielkich postępów właściwie we wszystkich dziedzinach.
Gdy fizycy rozwiązali zagadkę atomu i wynaleźli teorię kwantową, postępy
te z kolei umożliwiły inne dokonania, tak że tempo odkryć naukowych rosło
w jeszcze bardziej szaleńczym tempie.
Wspomagani przez nowe technologie kwantowe, takie jak mikroskop
elektronowy, laser i komputer, chemicy doszli do zrozumienia natury
wiązania chemicznego oraz roli kształtu cząsteczek w reakcjach
chemicznych. Zarazem gwałtownie rozwinęła się technologia wywoływania
i wykorzystywania tych reakcji. W połowie stulecia świat doznał głębokich
przekształceń. Nieuzależnieni już od substancji występujących w naturze
nauczyliśmy się, jak tworzyć nowe sztuczne materiały od podstaw i jak
zmieniać stare, by wykorzystać je w nowy sposób. Plastiki, nylon, poliester,
stal utwardzana, wulkanizowana guma, rafinowana ropa naftowa, nawozy
sztuczne, środki owadobójcze, środki odkażające, chlorowana woda – tę listę
można jeszcze długo ciągnąć, a w rezultacie tych wszystkich osiągnięć
nastąpił wzrost produkcji żywności, spadła śmiertelność, a długość naszego
życia zwiększyła się w niespotykany dotychczas sposób.
Jednocześnie biolodzy poczynili wielkie postępy w ustalaniu szczegółów
funkcjonowania komórki jako maszyny molekularnej, odszyfrowywaniu, jak
informacja genetyczna przekazywana jest między pokoleniami, i opisywaniu
genetycznego wyposażenia naszego własnego gatunku. Dziś potrafimy
analizować fragmenty DNA uzyskane z płynów fizjologicznych w celu
zidentyfikowania nieznanych czynników zakaźnych. Potrafimy wprowadzać
fragmenty DNA do istniejących organizmów w celu stworzenia nowych.
Potrafimy umieszczać włókna optyczne w mózgach szczurów i kontrolować
je, jak gdyby były robotami. I możemy siedzieć przed komputerem i oglądać,
jak mózgi ludzi tworzą myśli albo doświadczają uczuć. W niektórych
wypadkach potrafimy nawet odczytać ich myśli.
Choć jednak zaszliśmy tak daleko, niemal na pewno błędem byłoby sądzić,
że jesteśmy blisko jakichkolwiek ostatecznych odpowiedzi. Takie
przekonanie byłoby błędem, który popełniano przez całą historię. W czasach
starożytnych Babilończycy mieli pewność, że Ziemia została stworzona
z ciała bogini morskiej Tiamat. Tysiące lat później, gdy Grecy poczynili
niewiarygodne postępy w rozumieniu przyrody, większość była równie
przekonana, że wszystkie obiekty świata ziemskiego składają się z jakiejś
kombinacji ziemi, powietrza, ognia i wody. A po upływie kolejnych dwóch
tysięcy lat zwolennicy Newtona byli przekonani, że wszystko, co nastąpiło
albo nastąpi, od ruchu atomów po orbity planet, można w zasadzie wyjaśnić
i przewidzieć dzięki zastosowaniu jego praw ruchu. Wszystkie te
przeświadczenia wyznawano z głębokim przekonaniem i wszystkie one były
błędne.
Niezależnie od tego, w jakim czasie żyjemy, mamy skłonność, by wierzyć,
że to my właśnie osiągnęliśmy szczyty wiedzy – że choć przekonania tych,
którzy żyli przed nami, były nietrafne, nasze własne odpowiedzi są poprawne
i nigdy nie zostaną zastąpione innymi, jak to się stało u naszych
poprzedników. Naukowcy – nawet ci wielcy – są w nie mniejszym stopniu
skłonni do tego rodzaju pychy niż wszyscy inni. Świadectwem jest
oświadczenie Stephena Hawkinga wygłoszone w latach osiemdziesiątych XX
wieku, że fizycy będą mieli swoją „teorię wszystkiego” do końca tego
stulecia.
Czy znajdujemy się dziś, jak zasugerował kilka dziesięcioleci temu
Hawking, na progu znalezienia odpowiedzi na wszystkie fundamentalne
pytania dotyczące przyrody? Czy też jesteśmy w takim położeniu jak na
przełomie XIX i XX wieku, kiedy teorie, które w naszym przekonaniu są
prawdziwe, zostaną niebawem zastąpione czymś zupełnie innym?
Na horyzoncie nauki pojawiło się więcej niż tylko kilka chmur, które
wskazywałyby, że ten ostatni scenariusz może być prawdopodobny. Biolodzy
wciąż nie wiedzą, jak i kiedy powstało życie na Ziemi i w jakim stopniu
prawdopodobne jest, że powstało na innych planetach podobnych do naszej.
Nie wiedzą, jaką korzyść selekcyjną dało w ewolucji powstanie reprodukcji
płciowej. I, co może najważniejsze ze wszystkiego, nie wiedzą, jak mózg
wytwarza doświadczenia umysłu.
Również chemia ma swoje wielkie pytania bez odpowiedzi, od tajemnicy,
jak cząsteczki wody tworzą wiązania wodorowe ze swoimi sąsiadkami,
stwarzając magiczne własności tego życiodajnego płynu, po pytanie, jak
długie łańcuchy aminokwasów zwijają się, żeby stworzyć precyzyjne,
podobne do spaghetti białka, które mają zasadnicze znaczenie dla życia.
Jednak to w fizyce kryją się potencjalnie najbardziej wybuchowe problemy.
W fizyce pytania otwarte mają potencjał, by zmusić nas do zrewidowania
wszystkiego, co, jak sądzimy, wiemy o najbardziej fundamentalnych
aspektach przyrody.
Na przykład choć stworzyliśmy Model Standardowy sił i materii, który
z dużym powodzeniem unifikuje elektromagnetyzm i dwie siły jądrowe,
niemal nikt nie jest przekonany, że ten model jest do przyjęcia jako ostatnie
słowo w fizyce. Jedną z głównych jego wad jest to, że wyklucza grawitację.
Kolejną jest to, że zawiera wiele dostosowywanych parametrów –
„czynników spreparowanych” – ustalonych na podstawie pomiarów
eksperymentalnych, których jednak nie można wyjaśnić za pomocą jakiejś
ogólniejszej teorii. Wydaje się, że postępy w zakresie teorii strun/M-teorii,
które wydawały się kiedyś nieść obietnicę sprostania obu tym wyzwaniom,
znacznie spowolniły, podając w wątpliwość wielkie nadzieje, jakie wielu
fizyków w nich pokładało.
Jednocześnie podejrzewamy teraz, że Wszechświat, który widzimy nawet
za pomocą najpotężniejszych instrumentów obserwacyjnych, jest zaledwie
maleńkim wycinkiem tego, co gdzieś tam jest, jak gdyby większość tego, co
powstało, była widmowym niby-światem mającym pozostać – przynajmniej
przez jakiś czas – tajemnicą. Bardziej precyzyjnie rzecz ujmując, zwykła
materia i energia świetlna, które wykrywamy naszymi zmysłami
i w laboratoriach, wydaje się stanowić zaledwie 5 procent materii i energii we
Wszechświecie, podczas gdy niewidoczna, nigdy niewykryta forma energii
nazywana „ciemną energią” stanowi – jak się sądzi – resztę.
Fizycy postulują istnienie ciemnej materii, ponieważ podejrzewają, że
materia, którą możemy zobaczyć na niebie, jest przyciągana przez grawitację
o nieznanym pochodzeniu. Równie tajemnicza jest ciemna energia.
Popularność tej idei datuje się od odkrycia w 1998 roku, że rozszerzanie się
Wszechświata nieustannie przyspiesza. To zjawisko można wyjaśnić za
pomocą teorii grawitacji Einsteina – ogólnej teorii względności – dopuszcza
ona bowiem możliwość, że Wszechświat jest wypełniony egzotyczną formą
energii, która wywołuje skutek „antygrawitacji”. Jednak pochodzenie i natura
tej „ciemnej energii” nie zostały jeszcze odkryte.
Czy ciemna materia i ciemna energia okażą się wyjaśnieniami, które
wpasowują się w nasze istniejące teorie – Model Standardowy i teorię
względności Einsteina? Czy też, jak stała Plancka, doprowadzą nas w końcu
do całkowicie odmiennego poglądu na Wszechświat? Czy teoria strun okaże
się prawdziwa, czy też, jeśli nie jest prawdziwa, czy kiedykolwiek odkryjemy
zunifikowaną teorię wszystkich sił przyrody, która będzie wolna od
„czynników spreparowanych”? Nikt nie wie. Spośród wszystkich powodów,
dla których żałuję, że nie będę żył wiecznie, możliwość poznania odpowiedzi
na te pytania znajduje się na samym szczycie mojej listy. Przypuszczam, że
to właśnie czyni ze mnie naukowca.

383 Martin Gardner, Mathematical Games, „Scientific American”, czerwiec 1961,


s. 168–170.

384 Alain de Botton, O pocieszeniach, jakie daje filozofia, przeł. P. Piasecki, Czuły
Barbarzyńca Press, Warszawa 2011.
Podziękowania

Przez wszystkie lata, kiedy przelewałem swoje pomysły na papier, miałem


przywilej korzystania z wiedzy wielu przyjaciół, naukowców zajmujących się
różnymi aspektami nauki i jej historii oraz innych osób, które czytały różne
wersje maszynopisu i przedstawiały jego cenne krytyki. Osoby, którym
jestem szczególnie wdzięczny, to: Ralph Adolphs, Todd Brun, Jed Buchwald,
Peter Graham, Cynthia Harrington, Stephen Hawking, Mark Hillery, Michelle
Jaffe, Tom Lyon, Stanley Oropesa, Alexei Mlodinow, Nicolai Mlodinow,
Olivia Mlodinow, Sandy Perliss, Markus Pössel, Beth Rashbaum, Randy
Rogel, Fred Rose, Pilar Ryan, Erhard Seiler, Michael Shermer i Cynthia
Taylor. Mam również wielki dług wobec mojej agentki i przyjaciółki Susan
Ginsburg za jej wskazówki dotyczące treści tej książki i wszystkich aspektów
procesu wydawniczego oraz – co równie ważne – za bajeczne kolacje obficie
zakrapiane winem, podczas których dostałem wszystkie te wskazówki.
Kolejną osobą, która niezmiernie mi pomogła, był mój cierpliwy redaktor
Edward Kastenmeier, który sformułował cenne krytyki i sugestie w całym
procesie ewolucji tej książki. Jestem również wdzięczny Danowi Frankowi,
Emily Giglieriano i Annie Nichol z Penguin Random House oraz Stacy Testa
z Writer’s House za ich pomoc i porady. I wreszcie winien jestem ogromne
podziękowania innej redaktorce, która była na stanowisku dwadzieścia cztery
godziny na dobę każdego dnia, mojej żonie, Donnie Scott. Niestrudzenie
czytała kolejne wersje maszynopisu, akapit po akapicie, formułując głębokie
i wartościowe sugestie i pomysły, dla większej zachęty często również przy
winie, ale (niemal) nigdy nie okazując zniecierpliwienia. Książka ta rodziła
się w moim umyśle od czasu, gdy jako dziecko zacząłem rozmawiać z ojcem
o nauce. Zawsze był zainteresowany tym, co mam do powiedzenia,
a w zamian oferował mi swoje praktyczne życiowe mądrości. Lubię myśleć,
że gdyby dożył wydania tej książki, doceniłby ją.
ś
Część 1. Wyprostowani i myślący
1. Nasz pęd do wiedzy
2. Ciekawość
3. Kultura
4. Cywilizacja
5. Rozum
Część 2. Nauki
6. Nowa droga do rozumu
7. Mechaniczny Wszechświat
8. Z czego zrobione są rzeczy
9. Świat ożywiony
Część 3. Poza zasięgiem ludzkich zmysłów
10. Granice ludzkiego doświadczenia
11. Niewidzialna sfera
12. Rewolucja kwantowa
Epilog
Podziękowania

You might also like