You are on page 1of 333

Michael Gazzaniga

Instynkt świadomości
Jak z mózgu wyłania się umysł?

Przekład:
Agnieszka Nowak-Młynikowska

Sopot 2020
Carol Tavris, Elliot Aronson

Błądzą wszyscy (ale nie ja)

Dlaczego usprawiedliwiamy głupie poglądy, złe decyzje i szkodliwe

działania

Richard E. Nisbett

Geografia myślenia

Dlaczego ludzie Wschodu i Zachodu myślą inaczej

Wiesław Łukaszewski

Wielkie (i te nieco mniejsze) pytania psychologii

Michael S. Gazzaniga

Istota człowieczeństwa

Co czyni nas wyjątkowymi

Michael S. Gazzaniga

Kto tu rządzi? Ja czy mój mózg?

Neuronauka a istnienie wolnej woli

Simon Baron-Cohen

Teoria zła

O empatii i genezie okrucieństwa

Jonathan Haidt

Prawy umysł

Dlaczego dobrych ludzi dzielą polityka i religia?

Steven Pinker
Piękny styl

Przewodnik człowieka myślącego po sztuce pisania XXI wieku

Walter Mischel

Test Marshmallow

O pożytkach płynących z samokontroli

Richard E. Nisbett

Mindware

Narzędzia skutecznego myślenia

Dan Ariely

Szczera prawda o nieuczciwości

Jak okłamywać wszystkich, a zwłaszcza samych siebie

Thomas Gilovich, Lee Ross

Najmądrzejszy w pokoju

Jakie korzyści możemy czerpać z najważniejszych odkryć psychologii

społecznej

Adam Galinsky, Maurice Schweitzer

Przyjaciel i wróg

Kiedy współpracować, kiedy rywalizować i jak odnosić sukcesy

w jednym i drugim

Dan Ariely

Potęga irracjonalności

Ukryte siły, które wpływają na nasze decyzje

Dan Ariely

Grosz do grosza

Jak wydawać mądrze i jak unikać pułapek finansowych


Tomasz Maruszewski

Gdzie podziewa się nasza pamięć

Od pamięci autobiograficznej do pamięci zbiorowej


PODZIĘKOWANIA
Jedną z  moich ulubionych anegdot jest ta o  młodym śpiewaku –

  wschodzącej gwieździe opery –  który pierwszy raz występuje

w  mediolańskiej La Scali. Po debiutanckim występie publiczność

zaczyna skandować: „An – co – ra”. Młodzieniec uśmiecha się do siebie

i  jeszcze raz śpiewa tę pieśń. Publiczność domaga się kolejnych

czterech czy pięciu bisów, za każdym razem prosząc o  ten sam utwór.

W  końcu śpiewak zwraca się do zgromadzonych: „Chwileczkę, przecież

zaśpiewałem ten utwór już pięć razy. Czego jeszcze chcecie?” Jakiś

mężczyzna zajmujący miejsce na balkonie odkrzykuje: „Będziesz go

śpiewać tak długo, aż wreszcie zaśpiewasz go jak należy”.

Kiedy ukończyłem swoją poprzednią książkę –  swego rodzaju

pamiętnik naukowy opisujący historię moich badań z  udziałem

pacjentów z  rozszczepionym mózgiem –  sądziłem, że nie napiszę już

ani jednej. Praca nad tamtą książką była bardzo przyjemna, ponieważ

pisałem ją z  perspektywy osobistego doświadczenia, okraszając ją

historiami, które nadal są ważną częścią mojego życia. Okazuje się, że

w  tamtej książce tkwiły zaczątki następnej –  tej, którą masz przed

sobą. Jak to ujął jeden z  czytelników: „Teraz, kiedy pańska osobista

historia jest już załatwiona, proszę napisać o  świadomości per se”. To

zupełnie inne zadanie –  takie, które wymaga ciężkiej pracy, nowej

pracy i mnóstwa pomocy.

Jest ktoś, kto pomógł mi w  tym przedsięwzięciu bardziej niż

ktokolwiek inny. To moja siostra, Rebecca –  lekarka, botaniczka oraz

autorka tekstów naukowych i  badaczka na część etatu, a  przy tym

pełnoetatowa miłośniczka życia. Wszystko (i wszyscy), czego się

dotknie, zmienia się w  coś lepszego niż do tej pory. Rebecca zaczęła

pracować ze mną nad różnymi książkami zaraz po poważnej operacji,


jaką przeszedłem w  2006 roku. Pomagała mi w  sprawach

redakcyjnych. Wkrótce zafascynowała się neuronauką i  została moją

asystentką naukową. Jej jasność umysłu, pełne pasji dążenie do

pogłębiania wiedzy na każdy temat i  pogoda ducha wywarły wielki

wpływ na wszystko, co odtąd robiłem. Mam wobec niej ogromny dług

wdzięczności.

Kiedy Bridget Queenan pojawiła się na naszym uniwersytecie, aby

ożywić nasze mózgowe przedsięwzięcie, od razu wiedziałem, że

codzienna monotonia życia akademickiego zmieni się na lepsze. Jej

niewyczerpane poczucie humoru, energia i  inteligencja, połączone

z nadzwyczajnymi umiejętnościami redakcyjnymi, bardzo wzbogaciły tę

pracę. Byli też inni. Zawsze staram się przekształcać prowadzone

przeze mnie seminaria doktoranckie w  zaplecze badawcze wspierające

moje projekty. W  trakcie pierwszego roku studenci wnoszą nowe,

ważne pomysły, w czym zwłaszcza jeden z nich, Evan Layer, okazał się

nadzwyczaj pomocny. W  trakcie drugiego roku nowa grupa studentów

odgrywa rolę krytyków i redaktorów powstających rozdziałów.

Z biegiem lat zgromadziłem niewielką grupę znajomych z  kręgów

zawodowych, którzy czytają kolejne wersje moich książek i wnikliwie je

komentują –  jak prawdziwi przyjaciele, nie szczędząc mi krytyki.

Jestem bardzo wdzięczny Walterowi Sinnot-Armstrongowi, który starał

się utrzymać w  ryzach moją skłonność do rozważań filozoficznych,

Michaelowi Posnerowi, Stevenowi Hillyardowi, Leo Chalupie, Johnowi

Doyle’owi, Marcusowi Raichle’owi i  wielu innym, którzy dołożyli

starań, aby moja opowieść o  mózgu była spójna i  klarowna. Wreszcie,

dziękuję mojej żonie, Charlotte, która każdego dnia pomaga mi

trzymać się właściwej ścieżki. Jej wpływ jest wszechobecny.

Po wszystkich wewnętrznych poprawkach książka trafia do Nowego

Jorku, do wydawcy. To moja pierwsza książka opublikowana przez

wydawnictwo Farras, Straus & Giroux, mam nadzieję, że nie ostatnia.


Redaktorzy Eric Chinski i  Laird Gallagher dodawali mi otuchy

i  dzielili się ze mną krytycznymi spostrzeżeniami w  sposób klarowny

i  przekonujący. Po pierwszej rundzie uznałem ich sugestie redakcyjne

za tak wartościowe, że poprosiłem, aby przeczytali książkę jeszcze raz.

Nie wiedziałem, że obaj mają wykształcenie filozoficzne i że przeczytali

mój tekst z  czymś więcej niż tylko ogólne zainteresowanie. Przeczytali

go ze znajomością rzeczy i  w niezliczonych miejscach pomogli mi

uczynić go jaśniejszym. Wreszcie przyszedł czas na adjustację, którą

wykonała Annie Gottlieb. Każda linijka przeszła przez jej niestrudzony

umysł, zyskując większą precyzję i klarowność. Mam dług wdzięczności

wobec każdej z  tych osób, podobnie jak wszyscy ci, którzy zdecydowali

się przeczytać moją książkę.


Wprowadzenie
Wyobraź  sobie –  jeśli potrafisz –  że jesteś świadomy tylko jednego

momentu: chwili obecnej. Ta chwila istnieje bez przeszłości i  bez

przyszłości. Teraz wyobraź sobie, że życie jest serią takich chwil, przy

czym każda istnieje w  oderwaniu od wszystkich pozostałych,

niepołączona z  nimi subiektywnym czasem. Wyobraź sobie, że na

chwilę zastygasz w  każdym z  tych momentów, które składają się na

zwyczajne życie. Trudno sobie wyobrazić taki scenariusz, nasz umysł

bowiem podróżuje w  czasie –  w tę i  z powrotem –  z niezwykłą

lekkością, niczym baletnica w Dziadku do orzechów. Jedna chwila staje

się punktem wyjścia do następnej planowanej czynności, którą z  kolei

rozważamy tu i  teraz w  odniesieniu do wcześniejszych doświadczeń.

Trudno sobie wyobrazić, aby mogło być inaczej. A  jednak… wystarczy,

że uderzysz się w  głowę w  odpowiedni sposób, a  możesz stać się kimś,

kto nadal będzie rozumiał ideę istnienia przeszłości i  przyszłości, ale

nie będzie umiał umiejscowić siebie we własnej przeszłości ani

przyszłości. Dziwaczne, prawda? Żadnej przeszłości, żadnej przyszłości,

tylko teraźniejszość.

W tej książce zabiorę cię w  podróż po świecie, w  którym trudne do

wyobrażenia zmiany tego, co nazywamy świadomym doświadczeniem,

są na porządku dziennym. Oddział neurologiczny każdego szpitala jest

pełen odchyleń od normalnego, świadomego doświadczenia. Każdy

z  tych przypadków dostarcza nam wiedzy o  tym, jak jest

zorganizowany nasz mózg i  w jaki sposób tworzy naszą bezcenną

świadomość, chwila po chwili. Każdy przykład zakłóceń domaga się

wyjaśnienia. Każdy można wykorzystać do sformułowania spójnej

opowieści o tym, w jaki sposób nasz mózg buduje i wytwarza codzienne

radości świadomego doświadczenia. Dawniej ludzie zadowalali się


opowiadaniem historii o  tych dziwacznych zjawiskach. Dzisiaj, w  XXI

wieku, nie wystarczy po prostu opisać garści intrygujących zaburzeń.

Moim celem w  tej książce jest posunięcie się naprzód w  wyjaśnieniu

problemu świadomości. Postaram się pokazać, w  jaki sposób

organizacja naszego wspaniałego, ewolucyjnie ukształtowanego mózgu

pozwala mu czynić jego czary. Krótko mówiąc, pragnę dociec, w  jaki

sposób materia wytwarza umysł.

Kilka lat temu podczas jednej z  podróży służbowych przechodziłem

odprawę celną na lotnisku Heathrow w  Londynie. W  trakcie kontroli

paszportowej sumienny brytyjski urzędnik służby cywilnej drobiazgowo

wypytał mnie o  nazwisko, działalność zawodową i  powód przyjazdu do

Wielkiej Brytanii. Powiedziałem, że zajmuję się badaniem mózgu i jadę

do Oksfordu na konferencję naukową. Urzędnik zapytał, czy zdaję sobie

sprawę z  odmiennych funkcji półkul mózgowych –  lewej i  prawej.

Odparłem z  niejaką dumą, że nie tylko o  tym słyszałem, lecz także

mam swój udział w  tych odkryciach. Przeglądając mój paszport,

zapytał, czego będzie dotyczyło spotkanie w  Oksfordzie.

Odpowiedziałem z powagą: „Świadomości”.

Urzędnik zamknął paszport i oddał mi go ze słowami: „Czy pomyślał

pan kiedyś o tym, aby się wycofać, dopóki jest pan na szczycie?”

Nie pomyślałem. Niektórzy odznaczają się naturalnym brakiem

ostrożności w  swoim pragnieniu zgłębiania natury ludzkiej.

Sześćdziesięcioletnie doświadczenie w  badaniu umysłu i  mózgu

uczyniło mnie boleśnie świadomym, że my, ludzie, nadal nie rozumiemy

w pełni tego zagadnienia. A jednak w naszej naturze tkwi skłonność do

zastanawiania się nad tym, kim jesteśmy i  co to znaczy być

świadomym. To pytanie nurtuje nas tak bardzo, że jesteśmy gotowi

poświęcić całe życie na poszukiwanie odpowiedzi. Kiedy jednak

próbujemy uchwycić problem świadomości, wydaje się on rozwiewać

niczym mgła. Dlaczego zadanie wyjaśnienia świadomości okazało się


tak trudne? Czy dawne idee, które przetrwały do naszych czasów, nie

pozwalają nam zobaczyć, jak ona powstaje? Czy świadomość jest po

prostu wytworem mózgu? Czy mózg z  jego niezliczonymi neuronami

daje nam świadomość, tak jak zegarek z  jego skomplikowanym

mechanizmem odmierza czas? Zainteresowanie tym tematem ma długą

i bogatą historię, w której przewagę zdobywali na przemian zwolennicy

teorii czysto mechanicznych i pełni nadziei mentaliści. Co zaskakujące,

dwuipółtysiącletnia historia ludzkości nie udzieliła odpowiedzi na te

pytania ani nie nauczyła naszego gatunku, jak sformułować

wyjaśnienie jednostkowego świadomego doświadczenia. Nasze

podstawowe idee wcale się tak bardzo nie zmieniły. Chociaż rozważania

na temat świadomości zapoczątkował Kartezjusz trzysta lat temu, dwa

ogólne i  wzajemnie sprzeczne poglądy –  że umysł albo stanowi

nieodłączną część działania mózgu, albo też działa w  jakiś sposób

niezależnie od niego –  ścierają się od niepamiętnych czasów. Te idee

wciąż nam towarzyszą.

W ostatnich latach świadomość znowu stała się gorącym tematem.

Równocześnie pomimo lawiny nowych danych istnieje bardzo niewiele

ogólnie przyjętych koncepcji dotyczących tego, w  jaki sposób ludzki

mózg wytwarza umysł, a  wraz z  nim –  świadome doświadczenie.

Celem tej książki jest wyjście z  tego kryzysu i  przedstawienie nowej

koncepcji świadomości. Odbędziemy podróż przez wiedzę zgromadzoną

nie tylko na gruncie neurologii, lecz także na gruncie biologii

ewolucyjnej i teoretycznej, nauk technicznych i fizyki oraz, rzecz jasna,

psychologii i  filozofii. Nikt nie powiedział, że te poszukiwania będą

łatwe, ale nasz cel –  zrozumienie, w  jaki sposób natura dokonuje

trudnej sztuki przekształcenia neuronów w  umysł –  jest możliwy do

osiągnięcia. Trzymaj się mocno!

Mówiąc najprościej, uważam, że świadomość jest instynktem. Wiele

organizmów –  nie tylko my, ludzie –  przychodzi z  nim na świat. Oto


czym są instynkty – elementami wrodzonego wyposażenia organizmów.

Istoty żywe cechują się szczególną organizacją, która umożliwia

istnienie życia, a  ostatecznie –  świadomości, mimo że są zbudowane

z  tych samych materiałów, co elementy przyrody nieożywionej.

Instynkty występują u wszystkich organizmów żywych – od bakterii po

ludzi. Wolę przetrwania, seks, odporność (rezyliencję) i  chodzenie

uważa się powszechnie za instynkty, ale to samo można powiedzieć

o  bardziej złożonych zdolnościach, takich jak język czy towarzyskość –

 wszystkie one są instynktami. Ta lista jest bardzo długa, a my, ludzie,

wydajemy się mieć więcej instynktów niż inne gatunki. Instynkt

świadomości jednak ma w  sobie coś szczególnego. Wydaje się tak

niezwykły, że zdaniem wielu ludzi tylko nasz gatunek może się nim

pochwalić. Nawet jeśli tak nie jest, to chcielibyśmy dowiedzieć się o nim

więcej. A  ponieważ wszyscy go mamy, wydaje nam się, że możemy go

poznać i  zrozumieć. Tymczasem, jak się przekonamy, jest to trudno

uchwytny, złożony instynkt, ulokowany w  najbardziej

nieprzeniknionym narządzie na świecie – w mózgu.

Wyraz „jabłko” jest rzeczownikiem; oznacza rzeczywisty, fizyczny

przedmiot. Słowo „demokracja” również jest rzeczownikiem, lecz

opisuje coś, co nieco trudniej zdefiniować –  pewien stan relacji

i  zależności społecznych. Trudno by mi było pokazać fizyczną

rzeczywistość demokracji. A  co z  „instynktem” –  kolejnym

rzeczownikiem? Każda z  tych rzeczy jest czymś definiowalnym –

  przedmiotem lub pojęciem –  kontrolowanym przez nasz mózg. Mamy

mnóstwo takich „cosiów”, ale gdzie się one mieszczą w  mózgu? Czy

niektóre z nich najlepiej przedstawić jako fizyczne struktury w mózgu,

inne zaś –  jako czynności przetwarzania wykonywane przez te

struktury? Jaka jest fizyczna natura instynktu? Czy jest namacalny,

jak jabłko, czy też nieuchwytny, jak demokracja?


Złożone instynkty przypominają demokrację –  są rozpoznawalne,

lecz niełatwo je zlokalizować. Wyłaniają się z  interakcji prostych

instynktów, ale nie są nimi –  podobnie jak skomplikowany zegarek

odmierza czas, ale samego czasu w nim nie znajdziemy. Aby zrozumieć

związek między zegarkiem a  czasem, trzeba opisać zasady działania

mechanizmu zegarowego i  jego architekturę. Nie wystarczy po prostu

wymienić wszystkich sprężynek i  kółek zębatych. To samo można

powiedzieć o  instynkcie świadomości. Nie myśl, że skoro świadomość

jest instynktem, to istnieje odrębna, jednolita sieć mózgowa

wytwarzająca ów niezwykły stan samoświadomości, którym wszyscy

się rozkoszujemy. Nic podobnego. Kiedy uzbrojeni w  swoje idee

odwiedzimy szpitalne oddziały neurologiczne, od razu zauważymy, że

pacjenci cierpiący na demencję –  nawet ciężkie postacie demencji –  są

świadomi. Owi pacjenci z  uszkodzeniami w  wielu obszarach mózgu,

z  zakłóceniami tak poważnymi, że rozłożyłyby na łopatki każdą

maszynę liczącą, pozostają świadomi. W jednej sali szpitalnej za drugą,

z  których każda daje schronienie pacjentom z  ogniskowymi lub

rozproszonymi zmianami w  mózgu, świadomość niestrudzenie pracuje

z cichym warkotem silnika. Po odwiedzeniu tych oddziałów nabierzemy

przekonania, że świadomość wcale nie jest właściwością systemu, lecz

atrybutem lokalnych obwodów mózgowych.

W pierwszej części tej książki dowiemy się, jak natura stała się „tym”

(it) – czymś od nas odrębnym, co można obiektywnie badać i wyjaśnić.

Prześledzimy tę ideę od samego początku, przez Kartezjusza, po czasy

współczesne i  narodziny współczesnej biologii. Co zaskakujące,

większość dzisiejszych koncepcji naukowych nawiązuje do idei

starożytnych Greków i  opiera się na przyjętych przez nich modelach,

które łączą elementy mentalne i fizyczne w jeden system. Współczesna

nauka zaczęła dążyć do tego samego celu, do którego zmierzali greccy


myśliciele – ale, jak dotąd, bez powodzenia. Potrzebne są nowe pomysły,

a ta książka podejmuje wyzwanie.

W części drugiej przedstawię wybrane zasady funkcjonowania

mózgu, które, jak sądzę, powinny wyznaczać kierunek naszej wyprawy

w  głąb tego, jak neurony wytwarzają umysł. Wydaje mi się

zdumiewające, iż metafora „mózgu jako maszyny”, zaproponowana

przez Kartezjusza i  skwapliwie przyjęta przez przeważającą część

współczesnej nauki, skłoniła nas do przekonania, że do spełniania

dużej części funkcji niezbędna jest cała maszyna. Tymczasem każdy

z nas jest konfederacją niezależnych modułów, zorganizowanych w taki

sposób, aby mogły razem pracować. Aby zrozumieć, jak te moduły ze

sobą współpracują, musimy poznać architekturę całego systemu,

nazywaną architekturą warstwową (layering), dobrze znaną części

czytelników –  na przykład informatykom. Na zakończenie odwiedzimy

klinikę neurologiczną, aby przetestować ów model. Odkryjemy, że nasz

modułowy mózg o  architekturze warstwowej zarządza naszą

świadomością… z  każdego miejsca w  swych lokalnych tkankach. Nie

istnieje żaden scentralizowany system, który odpowiadałby za magię

świadomego doświadczenia. Ta magia jest wszędzie i jak się wydaje,

nie można jej stłumić. Nie zdoła tego zrobić nawet choroba mózgu

upośledzająca szeroki zakres funkcji, taka jaka choroba Alzheimera.

W części trzeciej zmierzę się z  dręczącym pytaniem, które tkwi

w  samym sercu problemu umysł–mózg: w  jaki sposób neurony tworzą

umysł? Jak owe gąbczaste wiązki wilgotnej tkanki mogą czynić ciebie

i  mnie istotami mental-nymi? Okazuje się, że nasza wiedza o  świecie

fizycznym jest pełna luk. Badamy jeden poziom organizacji, a  po nim

następny, nie rozumiemy jednak, w jaki sposób te dwa poziomy ze sobą

współpracują. Istnieje dobrze znana luka między życiem a  materią

nieożywioną, między umysłem a  mózgiem, między światem


kwantowym a  naszym światem codziennym. Jak można wypełnić te

luki? Wydaje się, że może nam w tym pomóc fizyka.

Wreszcie, przedstawię swój pogląd na to, w  jaki sposób owe moduły,

warstwy i  luki zapewniają nam to, co nazywamy świadomym

doświadczeniem. Profesor psychologii Richard Aslin powiedział mi

kiedyś, że w  jego odczuciu idea świadomości odnosi się do całej grupy

zmiennych związanych z naszym życiem mentalnym. Używamy pojęcia

„świadomość” jako skrótu ułatwiającego opisanie funkcji wielu

wrodzonych, instynktownych mechanizmów, takich jak język,

spostrzeganie czy emocje. Staje się oczywiste, że również świadomość

należy traktować jako złożony instynkt. Wszyscy przychodzimy na

świat wyposażeni w  całą masę instynktów. Nasze nieprzerwanie

płynące myśli przeskakują bezładnie z tematu na temat. Mamy pewne

odczucia dotyczące jakiejś idei, chwilę później –  idei będącej jej

przeciwieństwem, a  potem kolejno: naszej rodziny, chwilowej

zachcianki, ulubionej melodii, zbliżającego się spotkania, listy

zakupów, irytującego kolegi z  pracy, drużyny Red Sox i  tak dalej…

I tak bez końca, aż wreszcie uczymy się – niemal wbrew swojej naturze

– myśleć w sposób liniowy.

Świadome myślenie liniowe to ciężka praca. Właśnie się nad nim

mozolę. To tak, jakby nasz umysł był garnkiem bulgoczącej wody.

Trudno przewidzieć, który pęcherzyk w  danym momencie wydostanie

się na powierzchnię. Taki pęcherzyk ostatecznie pęka, uwalniając jakąś

myśl, a  zaraz potem jego miejsce zajmują kolejne pęcherzyki.

Powierzchnia wody jest ciągle niespokojna, ożywiona aktywnością –

  niekończącą się aktywnością –  do czasu, gdy pęcherzyki pójdą spać.

Strzałka czasu zszywa to wszystko w  całość, ponieważ każdy bąbelek

pojawia się w  swoim czasie. Pomyśl, że być może –  tylko być może –

  świadomość można rozumieć jako pęcherzyki mózgowe, z  których

każdy ma własny hardware potrzebny do wypełnienia luki i  każdy


czeka na swój moment. Jeśli wydaje ci się to niejasne, przeczytaj tę

książkę i przekonaj się, czy możesz na to spojrzeć w taki sposób. Ciesz

się przy tym swoimi myślami, kiedy będą wypływać –  niczym

pęcherzyki – na powierzchnię twojej świadomości.


Część pierwsza
Przygotowanie do myśli współczesnej
ROZDZIAŁ I
Historia z jej sztywnym, chwiejnym i niemądrym
sposobem myślenia o świadomości
Mów po angielsku! – powiedziało Orlątko. – Nie znam znaczenia nawet połowy tych długich
słów, a co więcej, nie wierzę, żebyś ty je znał![1]
– Lewis Carroll, Przygody Alicji w Krainie Czarów

Zygmunt Freud zmarł w roku, w którym przyszedłem na świat – 1939.

W  owym czasie po świecie krążyło mnóstwo zwariowanych idei na

temat natury ludzkiego życia psychicznego, w  dużej części

wymyślonych przez samego Freuda. Dzisiaj mało kto o  tym pamięta,

ale Freud w  głębi serca był biologiem redukcjonistą. Był gorącym

zwolennikiem poglądu, że mózg wytwarza umysł w  deterministyczny

sposób –  poglądu podzielanego przez wielu współczesnych

neuronaukowców. Dziś wiemy, że duża część jego idei była czystą

fantazją, ale do lat pięćdziesiątych XX wieku były one tak powszechnie

akceptowane, że stanowiły główne źródło, na które powoływali się biegli

psychologowie w spra-wach rozpatrywanych przez amerykańskie sądy.

To za mojego życia –  a nie za życia Freuda –  ludzie dowiedzieli się

najwięcej o  tym, jak ludzki mózg robi swoje sztuczki. Szalone

spekulacje dotyczące sił rządzących naszym życiem psychicznym

ustąpiły miejsca konkretnej wiedzy na temat czynników

molekularnych, komórkowych i  środowiskowych, leżących u  podstaw

naszego istnienia. Prowadzone od siedemdziesięciu pięciu lat badania

dostarczyły nam bogatej wiedzy o  mózgu, a  w niektórych wypadkach

ujawniły podstawowe zasady jego działania. Jestem pewny, że Freud

byłby zachwycony tym nowym światem i  z przyjemnością zaprzągłby

swoją nadzwyczajną wyobraźnię do pracy nad nową nauką o  mózgu.

Jednakże niezgłębione tajemnice, które nurtowały naukowców

wszelkich specjalności w  ubiegłym stuleciu –  i które de facto sięgają

czasów starożytnych Greków –  nadal pozostają nieodkryte. Jak,

u  licha, pozbawiona życia materia staje się budulcem żywych

organizmów? Jak neurony przeistaczają się w  umysł? Jakich słów

należy użyć do opisu interakcji pomiędzy mózgiem i  umysłem? Czy

kiedy ludzkość wreszcie znajdzie odpowiedzi na niektóre z  tych pytań,


będziemy rozczarowani ich treścią? Czy nasze przyszłe rozumienie

„świadomości” okaże się niezbyt satys-fakcjonujące? Czy będzie proste,

a przy tym zimne i surowe?

Przebrnięcie przez historię rozważań nad świadomością wydaje się

zadaniem zniechęcającym. Przede wszystkim roi się w  niej od

skomplikowanych, abstrakcyjnych dzieł filozofów. Nawet John Searle,

jeden z  czołowych współczesnych filozofów świadomości, przyznał:

„Zapewne powinienem czytać więcej pism filozoficznych, niż to robię.

Odnoszę jednak wrażenie, że duża część dzieł filozoficznych

przypomina leczenie kanałowe –  myślisz sobie, że musisz jakoś

[2]
przebrnąć przez to cholerstwo” . Dodajmy do tego pogląd wielkiego

filozofa, Davida Hume’a, który przedstawił mocne argumenty

przemawiające za tym, że na większość pytań zadawanych przez

filozofów nie sposób odpowiedzieć przy użyciu logiki, matematyki

i  czystego rozumu. A  jednak to filozofowie skłonili nas do

zastanawiania się nad umysłem, duszą i  świadomością. Od czasów

starożytnych wywierali ogromny wpływ.

„Świadomość” (consciousness) jest ideą nowożytną. Samo to słowo,

dzisiaj używane w  dziesiątkach kontekstów (Marvin Minsky nazwałby

je „słowem walizką”, ponieważ jest wypełnione rozmaitymi

znaczeniami), zostało wprowadzone –  we współczesnym znaczeniu –

  dopiero w  połowie XVII wieku przez Kartezjusza. Co prawda jego

źródła tkwią w  greckim słowie oida („zobaczyć lub spostrzec, a  zatem

wiedzieć”)  i w  jego łacińskim odpowiedniku scio („wiedzieć”), ale

starożytni nie mieli jasno określonego pojęcia świadomości.

Interesowało ich, jak działa umysł, skąd się biorą myśli, a nawet to, czy

pewną rolę w tych zjawiskach odgrywa jakiś proces czysto fizyczny, lecz

wczesne rozważania na ten temat zakończyły się wnioskiem, że życie

psychiczne jest wytworem niematerialnego ducha. A skoro świadomość


jest ujmowana jako niematerialny duch, trudno zacząć myśleć

o mechanizmach leżących u jej podstaw.

Przez stulecia pojęcie umysłu i  pojęcie duszy pozostawały ze sobą

w burzliwym związku, na przemian to schodząc się, to rozstając. Przez

większą część spisanych dziejów ludzkości idea, że osobista

rzeczywistość psychologiczna jest rzeczą (thing) –  czymś, co można

badać –  właściwie nie istniała. Nasz mózg, nasze struktury myślowe

i  emocje przypuszczalnie się nie zmieniły, więc o  czym my, ludzie,

myśleliśmy? Jak się jednak przekonamy, pojęcie świadomości

gruntownie się zmieniło w ciągu ostatnich dwóch i pół tysiąca lat. Jego

eteryczne początki i  jego obecne znaczenie mają ze sobą niewiele

wspólnego.

Potrzebujemy nowego sposobu myślenia o  tym problemie, a  przy

odrobinie szczęścia ta książka może zaproponować taki nowy początek.

Ale jak to zwykle bywa, dobrze jest spojrzeć wstecz, zanim ruszymy do

przodu.

Początki – sukcesy i pomyłki


Starożytni Egipcjanie i  mieszkańcy Mezopotamii byli przodkami

filozofów świata zachodniego. W ich koncepcji świata przyroda nie była

przeciwnikiem człowieka w  życiowych zmaganiach. Człowiek

i  przyroda jechali na jednym wózku, byli kompanami w  tej samej

opowieści. Człowiek myślał o  świecie przyrody w  takich samych

kategoriach, w  jakich myślał o  sobie i  o innych lu-dziach. Świat

naturalny miał swoje myśli, pragnienia i  emocje –  zupełnie jak istoty

ludzkie. Dlatego królestwa człowieka i  przyrody były nieodróżnialne,

a co za tym idzie – nie trzeba ich było rozumieć w poznawczo odmienne

spo-soby. Zjawiska przyrodnicze wyobrażano sobie tak samo, jak

ludzkie doświadczenia: jako mniej lub bardziej hojne, godne zaufania,


mściwe i  tak dalej. Starożytni z  Bliskiego Wschodu zdawali sobie

sprawę ze związków przyczynowo-skutkowych, ale spekulując na ich

temat, przyjmowali raczej perspektywę „kogoś”, a  nie „czegoś”. Kiedy

wody Nilu wzbierały, działo się tak dlatego, że rzeka tego chciała, a nie

z  powodu opadów deszczu. Nie istniała nauka, która mogłaby

zaoferować inne wyjaśnienie.

Nie można tego jednak powiedzieć o  starożytnych Grekach.

W  odróżnieniu od myślicieli bliskowschodnich, pierwsi greccy

filozofowie nie byli kapłanami wyznaczonymi przez swe społeczności do

rozważania spraw duchowych. Nie byli zawodowymi jasnowidzami. Byli

grupą amatorów majsterkujących w swoich garażach, nieograniczonych

przez dogmaty, ciekawych świata przyrody i  chętnie dzielących się

swoimi myślami. Kiedy zaczęli pytać o  swoje pochodzenie, nie pytali,

kim był ich pierwszy przodek, ale co było pierwszą przyczyną. Była to

ogromna zmiana perspektywy, którą archeolog i  egiptolog Henri

Frankfort nazwał „zapierającą dech w piersiach”:

Ci mężczyźni działali z  niedorzeczną zuchwałością, na podstawie całkowicie

nieudowodnionego założenia. Utrzymywali, że wszechświat jest pojmowalną całością.

Innymi słowy, zakładali, że u  podłoża chaosu naszych spostrzeżeń tkwi jakiś

porządek i  –  co więcej –  że my, ludzie, jesteśmy zdolni do zrozumienia tego

[3]
porządku .

Następnie Frankfort wyjaśnia, w  jaki sposób greccy filozofowie zdołali

wykonać ten skok: „Oto zasadnicza różnica między postawami

człowieka współczesnego a  poglądami starożytnych, dotyczącymi

otaczającego świata: dla człowieka współczesnego, myślącego naukowo,

świat zjawisk to przede wszystkim «Ono» (It); człowiek starożytny –  a

także pierwotny – pojmuje go jako «Ty» (Thou)”.

„Ty” to ktoś mający własne przekonania, myśli i pragnienia, ktoś, kto

robi swoje –  niekoniecznie stały i  przewidywalny. „Ono” zaś jest


obiektem, nie przyjacielem. „Ono” może być powiązane z  innymi

obiektami w  dowolny sposób, jaki wydaje się sensowny. Można przy

tym rozbudowywać i  rozwijać owe powiązania oraz poszukiwać

uniwersalnych praw rządzących zachowaniami i  zdarzeniami

w  przewidywalnych, z  góry określonych warunkach. Poszukiwanie

tożsamości obiektu jest aktywnym procesem, podczas gdy rozumienie

„Ty” jest procesem pasywnym, w  którym najpierw odbieramy

emocjonalnie nacechowane wrażenie. „Ty” jest niepowtarzalne

i  nieprzewidywalne. Można je poznać tylko w  takim stopniu, w  jakim

samo się ujawni. Każde doświadczenie „Ty” jest jednostkowe.

Z  interakcji z  „Ty” można wysnuć pewną opowieść albo mit, ale nie

można na tej podstawie sformułować hipotezy. Przejście od „Ty” do

„Ono” umożliwiło narodziny myślenia naukowego.

Ogromny postęp, jaki się dokonał w  starożytnej Grecji dzięki owej

zmianie perspektywy, stworzył atmosferę, która w  mgnieniu oka

umieściła Arystotelesa w  centrum życia naukowego. Arystoteles

uważał, że zadaniem nauki jest obiektywne wyjaśnianie przyczyn

zjawisk –  odpowiadanie na pytanie „Dlaczego?” –  co zaowocowało jego

doktryną przyczynowości. Sądził, że naukowa wiedza na temat czegoś

(dajmy na to, na temat jakiegoś X) obejmuje wszelkie możliwe

odpowiedzi na pytanie „Dlaczego?”: jeśli X zostało spowodowane przez

Y albo jeśli Y było przynajmniej warunkiem koniecznym wystąpienia X,

to jest to ten rodzaj twierdzeń, który należy do nauki. Arystoteles

wyróżnił cztery kategorie przyczynowości: materialną, formalną,

sprawczą i  celową. Gdybyśmy więc zapytali: „Arystotelesie, dlaczego

ten powóz?”, odpowiedziałby, że przyczyną materialną jest drewno,

przyczyną formalną –  projekt powozu, przyczyną sprawczą –  proces

jego budowy, a przyczyną celową… to, że Arystoteles chciał go mieć.

Według Arystotelesa świat naturalny jest siecią czegoś, co biolog

teoretyczny Robert Rosen nazywa wynikaniami przyczynowymi


(causal entailments): X pociąga za sobą wszystkie swoje Y. Rosen

zwraca uwagę, że zamiarem Arystotelesa było pokazanie, iż żaden

sposób wyjaśniania sam w sobie nie wystarczy do zrozumienia żadnego

z  badanych zjawisk, ponieważ kategorie przyczynowe wzajemnie

z  siebie nie wynikają. Na przykład z  wiedzy o  tym, jak coś zbudować,

nie wynika zrozumienie, jak to coś działa, a  wiedza o  tym, jak coś

działa, nie pociąga za sobą wiedzy na temat tego, jak to zbudować.

Ponadto w ujęciu Arystotelesa nauka była zdeterminowana przez treść

– niezależna od metody zastosowanej do badania danego zjawiska.

Metoda naukowa – taka, jaką się dzisiaj praktykuje – jest systemem

formalnym, w  którym każda hipoteza generuje określone inferencje,

czyli skutki: z  hipotezy wynikają określone skutki. Innymi słowy,

przyczyna poprzedza skutek. To stanowi problem, kiedy zadajemy

pytanie o  Arystotelesową przyczynę celową. Wróćmy do pytania:

„Dlaczego ten powóz, Arystotelesie?” Dlaczego powóz był zaparkowany

przed domem Arystotelesa, chociaż kilka godzin wcześniej stał

w  Akropolis Depot? Arystoteles zobaczył ów powóz (który stanowił

skutek trzech przyczyn: materialnej, formalnej i sprawczej) i zapragnął

go mieć. W  tym wypadku sytuacja się odwróciła i  skutek nastąpił

przed przyczyną. To niedopuszczalne w  Newtonowskim świecie,

w  którym dany stan może wywoływać jedynie stany po nim

następujące. Tak więc Arystotelesowa przyczyna celowa – jako odrębna

kategoria –  była stracona dla nauki. Później się przekonamy, jak

wielkie szkody wyrządziło to biologii.

Arystoteles pragnął między innymi dowiedzieć się więcej o  ludzkim

ciele i  o tym, jak ono działa. Było to duże wyzwanie, ponieważ

w  starożytnej Grecji obowiązywało tabu dotyczące sekcji ludzkich

zwłok. Arystoteles omijał ten problem, przeprowadzając liczne dysekcje

ciał zwierząt. Na podstawie tego, czego się w  ten sposób dowiedział,

opracował system klasyfikacji organizmów, scala naturae (drabinę


bytów) –  stopniowalną, hierarchiczną skalę opartą na rodzaju „duszy”

posiadanej przez poszczególne organizmy. Na samym dole znajdowały

się rośliny, które według Arystotelesa miały duszę wegetatywną,

odpowiedzialną za wzrost i  rozmnażanie. Człowiek, rzecz jasna,

zajmował miejsce na szczycie owej drabiny.

Arystoteles na tym nie poprzestał. Stwierdził, że zwierzęta mają

duszę zmysłową, umożliwiającą poruszanie się, spostrzeganie,

doznania zmysłowe, apetyt i  odczuwanie emocji. Wyłącznie u  ludzi

istnieje dusza rozumna, ukryta w  duszy zmysłowej, która obdarza

nas nadzwyczajnymi mocami rozumu, racjonalnej woli, myślenia

i  refleksji, odróżniając nas od istot znajdujących się niżej na drabinie

bytów. Co szczególnie ważne –  i obrazujące rewolucję w  ludzkim

myśleniu –  źródłem wiedzy, do jakiej dochodzą te moce, nie jest czysta

introspekcja ani meandrowanie mentalne, lecz obserwowanie interakcji

między jednostką a  otaczającym ją światem. „Ono”, czyli obiekt, taki

jak świat wokół nas, można badać i  eksplorować. Zapominamy, że ta

idea, dziś powszechnie przyjęta, jeszcze kilka tysięcy lat temu nie

istniała! Idee, rzecz jasna, mają określone konsekwencje, a  nas, na

szczęście, nadal urzeka idea i potęga obserwacji naukowej.

Arystoteles zrozumiał istotę procesu naukowego, ale jego wnioski

dotyczące tego, skąd się biorą myśli, były całkowicie nietrafne. Gdyby

współczesny student popełnił tego rodzaju błąd, to nie uzyskałby

zaliczenia. Na podstawie zachowań zwierząt i  ludzi Arystoteles

stwierdził, że mogą one spostrzegać świat. Podczas prowadzonych przez

siebie dysekcji zauważył, że niektóre zwierzęta w  ogóle nie mają

widocznego mózgu. Na tej podstawie doszedł do wniosku, że mózg nie

ma większego znaczenia. Pierwszym narządem, jaki pojawiał się

u  badanych przezeń embrionów, było serce, dlatego to w  nim

Arystoteles umiejscowił duszę, która w  wypadku ludzi obejmowała

duszę rozumną. Arystoteles nie miał na myśli duszy w  sensie


duchowym, ponieważ nie sądził, że istnieje ona nadal po śmierci. Miał

na myśli organ, który daje początek wrażeniom zmysłowym i  naszej

wiedzy o  świecie. Uważał, że rozumna dusza, będąca źródłem

ludzkiego intelektu, wymaga pewnych mechanizmów percepcji, a  co za

tym idzie –  potrzebuje ciała z  jego częściami i  narządami. Nie sądził

jednak, że istnieje konkretna część ciała albo organ odpowiedzialny za

myślenie. Arystoteles nigdy nawet nie szepnął słowa „świadomy”,

zadawał jednak pytanie: „Skąd wiemy o  własnych spostrzeżeniach?”

Uczynił pierwszy krok i  skłonił ludzi do myślenia o  fizycznej naturze

naszego gatunku.

Wielkie zmiany zapoczątkowane w Grecji szybko się rozprzestrzeniły.

W  322 roku p.n.e., niedługo po śmierci Arystotelesa, Herofilos

i  Erasistratos, dwaj greccy lekarze mieszkający w  Aleksandrii,

zignorowali tabu dotyczące sekcji ludzkich zwłok i  zaczęli prowadzić

takie badania. Byli pierwszymi, którzy odkryli i opisali układ nerwowy.

Znaleźli również komory –  puste przestrzenie we wnętrzu mózgu.

Herofilos uznał, że właśnie w  komorach musi się mieścić intelekt i  że

[4]
to z  nich życiowe tchnienia (pneuma ) spływają pustymi w  środku

nerwami w dół, do mięśni, aby nimi poruszać. Chociaż Herofilos i Era-

sistratos nie do końca mieli rację, często uważa się ich za pierwszych

neuronaukowców. Jakkolwiek może się to wydawać niewiarygodne,

kultura grecka, która zaprojektowała i  zbudowała Partenon, nie miała

pojęcia o  mózgu, a  kultura egipska, która zaprojektowała i  zbudowała

piramidy, zupełnie nie wiedziała, jak działa mózg.

Historia posuwała się naprzód przez kolejnych czterysta lat – ledwie

mikrosekundę w  czasie ewolucyjnym. Rzym stał się potęgą w  basenie

Morza Śródziemnego i  w jakiś sposób zdołał przyciągnąć znakomitego

lekarza, Claudiusa Galenusa (Galena) z  Pergamonu, greckiego miasta

położonego na wybrzeżu Morza Egejskiego w  dzisiejszej Turcji. Galen

zdobył wykształcenie medyczne jako empirysta, zanurzywszy się


w  naukach Herofilosa i  Erasistratosa w  Aleksandrii, będącej wówczas

pod rządami rzymskimi. W  starożytnej Grecji empiryczna szkoła

praktyki medycznej opierała się na obserwacji zjawisk i  na

doświadczeniu, nie zaś na dogmatycznych tezach. Galen wrócił do

Pergamonu, aby podjąć swoją pierwszą pracę –  lekarza gladiatorów.

Ponieważ Rzymianie, podobnie jak Grecy, nie zezwalali na sekcje

ludzkich zwłok, Galen nigdy żadnej nie przeprowadził. Jego znajomość

anatomii i  chirurgii opierała się na badaniu krwawych szczątków jego

pacjentów oraz na dysekcjach ciał zwierząt, zwłaszcza makaków

berberyjskich. Połączył swoją wiedzę uzyskaną z  pierwszej ręki

z  solidną porcją nauk swoich odległych mentorów, Herofilosa

i  Erasistratosa, i  ze szczyptą teorii Hipokratesa –  według której ciało

zawiera cztery humory –  aby stworzyć nową koncepcję ciała i  jego

maszynerii. Galen zdobył znakomitą reputację. Wkrótce był już

w  drodze do Rzymu, a  jego rosnąca sława zapewniła mu posadę

osobistego lekarza cesarza Marka Aureliusza.

Wkład Galena w  rozwój medycyny jest oszałamiający. On pierwszy

zauważył różnicę między krwią tętniczą a  krwią żylną. Dziś wiemy, że

krew tętnicza jest bogata w  tlen, podczas gdy we krwi żylnej jest go

dużo mniej (nasze tkanki skradły tlen, aby móc oddychać), a różnica ta

jest wykorzystywana w  badaniach mózgu metodą funkcjonalnego

rezonansu magnetycznego (fMRI), będących kamieniem węgielnym

dzisiejszej neuronauki. Galen był pierwszym, który opisał czterodzielne

serce; uaktualnił również wiedzę na temat układu krążenia, układu

oddechowego i  układu nerwowego. Oczywiście nie ustrzegł się pomyłek

anatomicznych –  takich jak splot naczyń krwionośnych, zwany rete

mirabile (siecią dziwną), jego zdaniem umiejscowiony u  podstawy

ludzkiej czaszki, o  czym Galen wnioskował na podstawie sekcji wołów.

Był to poważny błąd, a  zarazem historia przestrzegająca przed


pułapkami wnioskowania indukcyjnego. Jak wykazano wiele lat

później, ludzie wcale nie mają rete mirabile!

Galen rozumiał, że jedzenie i  oddychanie są konieczne do życia,

i  utrzymywał, że ludzki organizm przekształca je w  ciało i  w ducha.

Łącząc myśl Hi-pokratesa, Platona, Sokratesa i  Arystotelesa, Galen

stworzył ideę materialnej, trójdzielnej duszy. Odwołując się do trzech

części duszy, opisanych przez Platona: rozumnej, pobudliwej

i  pożądliwej, przypisał każdej z  nich określoną lokalizację

anatomiczną: siedliskiem duszy rozumnej miał być mózg, duszy

pobudliwej –  serce, a  duszy pożądliwej –  wątroba. Każda z  nich

spełniała odrębną funkcję. Dusza pożądliwa kontrolowała naturalne

popędy ciała, takie jak głód i  pragnienie, instynkt przetrwania

i  przyjemności cielesne. Ożywiała ją substancja zwana pneumą

naturalną. Dusza pobudliwa odpowiadała za emocje i  namiętności

i  była pobudzana przez pneumę życiową, która tworzyła się w  sercu

z  krwi i  powietrza dostarczanego przez płuca. Dusza rozumna

kontrolowała poznanie –  spostrzeżenia, pamięć, podejmowanie decyzji,

myślenie i  świadome działania. Galen nie dokonywał rozróżnienia

między tym, co mentalne, a  tym, co fizyczne. W  jego poglądach można

dostrzec fundamenty takich współczesnych idei, jak świadomość

i  podświadomość, id i  ego, racjonalność i  intuicja. Szczegóły, rzecz

jasna, się różnią, ale podstawowe idee pojawiły się już około 200 roku

naszej ery.

Galen próbował wyjaśnić mechanizm tych procesów. Wyobraził sobie

ożywcze tchnienie, pneumę życiową –  życiodajną siłę, która wnika do

ciała i  zostaje oczyszczona w  rete mirabile. Następnie oczyszczona

pneuma wpływa do komór mózgu, gdzie przeistacza się w  pneumę

psychiczną i  umożliwia poznanie, będące zadaniem duszy rozumnej.

Choć Galen trafnie wskazał organ odpowiedzialny za funkcje

poznawcze, tak naprawdę nie rozumiał jego działa-nia. Umiejscowił


wszystkie te procesy w pustych komorach. To tak, jakby powiedzieć, że

najlepszą częścią słodkiego donuta jest dziura w środku.

Niezależnie od tego jedną z  najważniejszych zasług Galena dla

rozwoju medycyny była idea, że różne narządy spełniają różne funkcje.

Rozróżnienie organów ciała jako urządzeń pełniących odrębne funkcje

było nadzwyczajnym pomysłem. Dzisiaj jednym z celów neuronauki jest

odkrycie, jakie funkcje pełnią poszczególne części mózgu. Z  każdym

kolejnym stuleciem neuronauka coraz dokładniej określa, które

systemy mózgowe wnoszą taki czy inny wkład w  nasze życie

psychiczne. W  prawdziwie redukcjonistycznym stylu Galen nie

dokonywał rozróżnienia między tym, co fizyczne, a  tym, co mentalne,

a jednocześnie nie rezygnował z idei nieśmiertelnej duszy. Od czasu do

czasu –  jak się przekonamy –  błyskotliwi praojcowie współczesnej

neuronauki porzucali swe nadzwyczajne zdolności rozumowania i, deux

ex machina, dorzucali ducha pod koniec swoich analiz.

Przez całe swoje życie Galen był wielkim orędownikiem

bezpośredniej obserwacji i  eksperymentowania, przedkładał je nad

uznane nauki, w  praktyce jednak nie zawsze stosował się do tego, co

sam głosił. Jego epistemologia była głęboko zakorzeniona w odebranym

przezeń wykształceniu filozoficznym, które obejmowało nauki Platona,

Arystotelesa i  stoików. Galen połączył owe idee z  własnymi

obserwacjami, aby stworzyć ogólną teorię medycyny. Za pewnością

byłby skonsternowany, gdyby się dowiedział, jak wielki wpływ wywarł

na medycynę w  ciągu kolejnych trzynastu stuleci. Ustalenia Galena

przez ponad tysiąc lat uważano za prawdę objawioną! Niektóre spośród

jego idei zostały przyjęte jako doktryny przez nowy kościół

chrześcijański. W  Starym Testamencie dusza umierała wraz z  ciałem,

podobnie jak u  Arystotelesa. Tymczasem chrześcijanie mieli inny

pogląd na tę kwestię. Wyobrażali sobie duszę jako nieśmiertelną,

żyjącą również po śmierci ciała –  zgodnie z  sugestią Platona


i  Sokratesa. Choć Galen nie rozróżniał tego, co mentalne, i  tego, co

fizyczne, chrześcijanom spodobała się jego idea, że siedliskiem duszy są

wypełnione powietrzem komory, głęboko ukryte przed pożądliwym,

grzesznym ciałem. Ta idea stała się więc doktryną Kościoła dotyczącą

umiejscowienia nieśmiertelnej, niematerialnej duszy. Doznania

zmysłowe ulokowano w komo-rze przedniej, rozumienie – w środkowej,

a pamięć – w tylnej.

Od czasów pierwszych myślicieli greckich aż do końca okresu

wpływów Galena –  czyli przez siedemnaście stuleci rozwoju ludzkiej

myśli –  próby wyjaśnienia natury ludzkiej egzystencji grzęzły

w  gąszczu niejasności i  nieporozumień. Większość owych rozważań

dotyczyła duszy, nie umysłu –  a już na pewno nie mówiono

o  świadomości. Platon i  Sokrates opowiadali się za trójdzielną,

nieśmiertelną duszą –  po części rozumną, po części pobudliwą, a  po

części pożądliwą. Arystoteles również uważał, że mamy duszę, ale

twierdził, że nie jest ona nieśmiertelna. Pierwsi badacze mózgu

i  anatomii wrócili do idei nieśmiertelności, lecz nie dokonywali

rozróżnienia między pierwiastkiem mentalnym a  fizycznym. Idee

mocno się trzymają, nawet w  obliczu nowych danych naukowych. Jak

się przekonamy, te pierwotne idee nie zniknęły do dziś.

Przygotowanie gruntu dla Kartezjusza i jego dualizmu


umysł–ciało
Dopiero w XVI wieku anatomia Galena została zakwestionowana przez

[5]
młodego anatoma z  Uniwersytetu w  Padwie, Andrzeja Wesaliusza .

Wesaliusz zaczął z  konsternacją drapać się po głowie, kiedy porównał

wyniki przeprowadzonych przez siebie sekcji ludzkich zwłok

z  rysunkami Galena. Na szczęście –  dla samego Wesaliusza i  dla

współczesnej nauki –  w jego czasach nie istniało już tabu zakazujące


przeprowadzania sekcji ludzkich zwłok, a  miejscowy sędzia bez

skrupułów udostępniał mu ciała straconych przestępców. Wesaliusz

zdał sobie sprawę, że Galen nie przeprowadził ani jednej sekcji zwłok

człowieka i że jego anatomia była w dużej części błędna. Młody badacz

nie dysponował najlepszymi narzędziami, jeśli chodzi o  sekcję

ludzkiego mózgu. Kroił go na plasterki od dołu do góry, miażdżąc jego

dolne partie w  miarę, jak posuwał się naprzód, co przypominało

krojenie kulki mozzarelli tępym nożem. Jedno stało się jednak

oczywiste: w  ludzkim mózgu nie ma rete mirabile. Oto nadzwyczaj

ważny aspekt nauki, który poznaliśmy w  ciągu wieków: trzeba zawsze

sprawdzać – nie jeden raz – prawdziwość wcześniejszych twierdzeń.

Kilka lat wcześniej inny anatom, Niccolò Massa z  Uniwersytetu

w  Bolo-nii, odkrył, że komory mózgu nie są wypełnione gazową

pneumą, lecz płynem. A  teraz Wesaliusz wykazał, że nie są one

idealnymi sferami o  mięsistych skle-pieniach, jak opisywał je Galen.

Opisy Galena okazały się błędne pod tak wieloma względami, że

Wesaliusz musiał napisać (a raczej narysować) księgę anatomii od

nowa. Z pomocą uczniów z weneckiego warsztatu Tycjana w 1543 roku

opublikował dzieło zatytułowane De Humani Corporis Fabrica Libri

Septem (O budowie ciała ludzkiego ksiąg siedem), w  którym ukazano

ludzkie szkielety (nagie albo pokryte mięśniami i  naczyniami

krwionośnymi) przechadzające się z  laseczkami pośród włoskich

krajobrazów, niedbale oparte o  kolumny lub o  pnie drzew, a  nawet

zaczytane w  książkach spoczywających na pulpitach. To był wielki hit,

zwłaszcza wśród studentów.

Po obdarciu ze skóry tak wielu ludzkich zwłok Wesaliusz pragnął

zachować własną skórę. Struktura, która rzekomo miała oczyszczać

pneumę życio-wą i  zmieniać ją w  pneumę psychiczną, po prostu nie

istniała. Co jeszcze bardziej niepokojące, komory uznawane za siedlisko

duszy nie były wypełnione powietrzem i  różniły się od tego, jak


opisywał je Kościół. Wesaliusz nie kwestionował swojej wiary ani

własnej nieśmiertelnej duszy, wiedział jednak, że ojcowie Kościoła

z  pewnością by to zrobili, gdyby ośmielił się podważyć ich doktrynę.

Byłoby to przedsięwzięcie nader ryzykowne w  czasach inkwizycji.

Wesaliusz sądził, że to mózg, a  nie komory mózgowia, jest miejscem,

w  którym rozgrywają się sprawy duszy (wrażenia zmysłowe,

rozumienie i  pamięć). Tak czy owak, poszedł po rozum do głowy

i zachował milczenie.

Uczeni podgrzali atmosferę pod koniec XVI wieku, dostarczając

kolejnych obserwacji. W  Padwie Galileusz nie tylko zakwestionował

Arystotelesowską (i biblijną) koncepcję geocentrycznej budowy

wszechświata, lecz także wykorzystał matematykę, pomiary

i  eksperymenty, aby dowieść, że Arystoteles nie miał racji.

W  rezultacie ogłosił, że prawa natury –  prawa rządzące światem

fizycznym –  są prawami matematycznymi, czyli mechanistycznymi.

Oskarżony o  próbę reinterpretacji Biblii, został osądzony przez

inkwizycję rzymską. Zabroniono mu wypowiadania się na temat Słońca

i skazano na areszt domowy.

Tymczasem w  Paryżu kiełkowały nowe idee. Marin Mersenne,

matematyk, teolog, filozof, teoretyk muzyki i  mnich, popierał

Galileusza. Mieszkał w  klasztorze anuncjatek i  w swojej celi często

organizował dyskusje z  udziałem wybitnych myślicieli i  uczonych

z  całej Europy. Z  wieloma innymi prowadził obszerną korespondencję.

Mersenne doszedł do wniosku, że jeśli Kościół ma przetrwać inwazję

nowej nauki i  zarzuty wysuwane przez heretyków, to musi

zaakceptować i  włączyć do swojej nauki pogląd o  mechanistycznej

naturze wszechświata. Bóg z  równą łatwością mógł panować nad

światem rządzącym się ustanowionymi przezeń prawami naturalnymi,

jak nad światem antropocentrycznym. Jeśli się nad tym zastanowić, to


dlaczego Bóg w  swojej wszechmocy nie miałby stworzyć świata, który

działałby automatycznie, bez jego udziału?

W spotkaniach w celi Mersenne’a uczestniczył inny francuski filozof,

matematyk i  duchowny, Pierre Gassendi. Zgadzał się z  poglądem, że

świat jest zbudowany z  atomów –  teorią, która w  kulturze Zachodu

pojawiła się już w  V wieku p.n.e., a  której twórcami byli Leucyp

i  Demokryt. Atomy opisywano jako nie-zniszczalne, niezmienne

i  otoczone próżnią. Uważano, że różne rodzaje atomów mają określoną

wielkość i  specyficzny kształt, a  wszystkie są w  ciągłym ruchu. Atomy

mogą się ze sobą łączyć, a  powstałą w  ten sposób strukturę Gassendi

nazwał molekułą (cząsteczką), przypisując jej specyficzny kształt

i  odmienne właściwości. Wszystkie substancje makroskopowe na

świecie są zbudowane z  różnych atomów. Gassendi nie dostrzegał

w  tym poglądzie ani śladu herezji. Bóg stworzył atomy, podobnie jak

wszystko inne.

Gassendi mylił się jednak, gdy twierdził, że istnieją dwa rodzaje

dusz. Jeden składa się z atomów, jest powiązany z układem nerwowym

i  mózgiem i  potrafi spostrzegać, odczuwać przyjemność i  ból oraz

podejmować decyzje. Gassendi był pewny, że atomy –  w jakiejkolwiek

kombinacji –  nie są zdolne do refleksji na temat samych siebie i  do

spostrzegania czegokolwiek poza informacjami pochodzącymi ze

zmysłów. Doszedł więc do wniosku, że ludzie muszą mieć jeszcze jeden

rodzaj duszy –  duszę racjonalną, która jest niematerialna. Uważał, że

jest ona połączona z  ciałem w  ciągu życia i  że zależy od ciała jako

źródła informacji ze świata zewnętrznego. Po śmierci zaś owa

niematerialna dusza okazuje się nieśmiertelna i ulatuje z ciała.

W tym momencie na scenę wkracza młody René Descartes

(Kartezjusz) –  filozof, matematyk i  racjonalista, który również

uczestniczył w  spotkaniach organizowanych przez Mersenne’a i  całym

sercem popierał ideę, że świat fizyczny jest zbudowany z  cząstek


i  działa jak maszyna. Znany z  ekstrawaganckich strojów, miłośnik

szeleszczącej tafty, piór i szpady, Kartezjusz chętnie przechadzał się po

Paryżu, który miał wówczas swoją wizjonerską wersję przejażdżki

łodzią „It’s a  Small World” w  dzisiejszym parku Disneyland. Były to

wystawione w  ogrodach królewskich automatyczne, hydraulicznie

napędzane figury, które się poruszały, wydawały dźwięki i  grały na

instrumentach muzycznych. Automaty te były wprawiane w ruch przez

nacisk wywierany na płyty chodnikowe przez ludzi spacerujących po

ogrodowych ścieżkach. Warto dodać, że automaty, dziś zwane robotami,

nie były wówczas rzadkością. Większość zwiedzających bez wątpienia

była nimi oczarowana.

Kartezjusz był jednak filozofem, kimś, dla kogo przechadzka po

parku nigdy nie była tylko przechadzką po parku (stąd szeleszcząca

tafta i barwne pióra). Wiedział, że owe przypominające ludzi roboty są

maszynami napędzanymi przez nieożywione siły zewnętrzne. Mimo to

wydawały się wykonywać świadome, celowe ruchy. Kartezjuszowi

przyszło na myśl, że pewne aspekty naszych ciał wydają się bardzo

podobne. Weźmy chociażby odruchy: zewnętrzny bodziec ze środowiska

sprawia, że w  układzie nerwowym dzieje się coś, co skutkuje z  góry

zaprogramowaną reakcją ruchową. Nie musi tym kierować żaden

reżyser. Nie potrzeba do tego duszy. Kartezjusz brał również pod

uwagę możliwość, że reakcja odruchowa nie musi być reakcją

motoryczną. Równie dobrze może być reakcją emocjonalną lub

poznawczą, taką jak wspomnienie. Kiedy już wejdzie się na tę

konkretną ścieżkę myślową, teoretyczny zakres zachowań mogących

powstać na skutek tego rodzaju odruchowych reakcji na zewnętrzne

bodźce staje się nieograniczony. Jest to jednak zależność

deterministyczna: bodziec X zawsze wywoła reakcję Y. Kartezjusz

zaakceptował tę ideę w  stosunku do maszyn i  zwierząt, ale czy była

ona prawdziwa w  odniesieniu do ludzi? Żadnej wolnej woli? Żadnych


świadomych wyborów? Żadnej osobistej odpowiedzialności za własne

czyny? Żadnej moralności ani grzechów? Wszyscy jesteśmy

maszynami? Tego było za wiele.

Cofając się znad bezdennej otchłani egzystencjalnej rozpaczy,

Kartezjusz zaczął tworzyć teorię, która zmieniła bieg historii. Niestety

szkody w  dziedzinie biologii już zostały wyrządzone. Wybitny biolog

teoretyczny Robert Rosen zauważa, że chociaż nikt nie potrafi określić,

czym jest żywy organizm, z  łatwością można powiedzieć, co

przypomina. Według Rosena Kartezjusz rozumiał to na opak:

„Odwrócił zależność między owymi automatami a  organizmami, które

miały je naśladować. Zaobserwował po prostu, że w  odpowiednich

warunkach automaty mogą się wydawać podobne do istot żywych.

Zamiast tego doszedł do wniosku, że samo życie przypomina

[6]
działanie automatów . W  ten sposób narodziła się metafora

maszyny –  chyba najważniejsza siła teoretyczna w  biologii, również

[7]
dzisiaj” . Wraz z  nią narodził się całkowicie deterministyczny świat

wynikający z tej metafory.

Oczywiście twoje ciało mimowolnie szarpnie twoją nogę w  górę, gdy

ktoś stuknie cię w kolano, ale ty sam możesz celowo zrobić to samo. To

dwa zupełnie różne zdarzenia: jedno, w  którym ciało reaguje na

zewnętrzny bodziec, i drugie, według Kartezjusza wywołane przez twój

umysł. Podczas gdy pierwsze zdarzenie można opisać w  kategoriach

mechanicznych, odwołując się do praw fizyki w łańcuchu zdarzeń, który

może sięgać wstecz aż do stworzenia, drugie –  zdaniem Kartezjusza –

  było zaledwie dwuelementowym łańcuchem przyczynowo-skutkowym:

chcesz czegoś, więc to się dzieje. Dlaczego tego chciałeś? Dlatego, że

chciałeś –  nie ma tu niczego fizycznego, co można by zba-dać. Tylko

pragnienie. Coś, co Arystoteles nazwałby przyczyną celową.

Kartezjusz odrzucił myśl, że zdarzenia dobrowolne są odruchem lub

mechanizmem fizycznym, który można opisać w  kategoriach


naukowych. Ostatecznie doszedł do wniosku, że podczas gdy ciałem

rządzą prawa fizyczne, ludzkimi działaniami kieruje autonomiczny

podmiot – rozumna dusza, która nie jest zbudowana z materii, a co za

tym idzie –  jest niefizyczna, niemechaniczna i  nieograniczona przez

prawa natury. Jest czymś z  niczego. Owa dusza jest zdolna do

świadomości, wolnej woli, abstrakcyjnego myślenia, wątpienia

i  moralności. Tę ideę nazywamy dualizmem umysł–ciało. Zgodnie

z  tym poglądem ludzkie ciało stanowi maszynerię fizyczną, a  umysł

składa się z  niefizycznych (niematerialnych) mechanizmów

poznawczych.

Kartezjusz był matematykiem i naukowcem, pragnął więc rozumowo

wyjaśnić prawdziwą naturę bytu. Ponieważ jego metody matematyczne

sprawdzały się w odniesieniu do świata fizycznego (Kartezjusz stworzył

między innymi podstawy geometrii analitycznej i  odkrył prawo

refrakcji), próbował zgłębić prawdziwą naturę człowieka przy użyciu

tych samych racjonalnych metod. Po pierwsze, musiał odrzucić

wszystko, w  co mógłby z  jakiegokolwiek powodu powątpiewać, aby

znaleźć to, co pewne –  fundament, na którym mógłby zbudować swoje

argumenty. Jak się okazało, potrafił znaleźć sposób, aby zwątpić

niemal we wszystko, nawet w  to, że jego matka jest jego matką, że

następnego ranka wzejdzie słońce albo że poprzedniej nocy spał

w swoim łóżku w Paryżu, zamiast, na przykład, włóczyć się po Rzymie.

Mógł nawet zwątpić w  to, że ma ciało. Przecież nasze przekonanie, że

mamy ciało, opiera się na spostrzeżeniach zmysłowych, które bywają

zwodnicze. Jeśli choć raz okazują się błędne, to mogą być błędne przez

cały czas. Było jednak coś, co wiedział na pewno, coś, w  co nie mógł

powątpiewać: wiedział na pewno, że istnieje. Przez sam proces

wątpienia potwierdzał, że jest istotą myślącą. Cogito ergo sum – myślę,

więc jestem.
Teraz, kiedy Kartezjusz nabrał przekonania, że znalazł solidny

fundament, na którym może budować, pragnął wyjaśnić –  raz na

zawsze –  prawdziwą naturę bytu. Chciał to zrobić krok po kroku,

w sposób naukowy. Uznał, że skoro może wątpić, czy ma ciało, to może

również powątpiewać we własne fizyczne istnienie. Podążając tym

tropem, doszedł do wniosku: „Poznałem stąd, że jestem substancją,

której całą istotą lub przyrodą jest jeno myślenie i  która, aby istnieć,

nie potrzebuje żadnego miejsca, ani nie zależy od żadnej rzeczy

materialnej; tak iż to ja, to znaczy dusza, przez którą jestem tym, czym

jestem, jest zupełnie odrębna od ciała, a  nawet jest łatwiejsza do

poznania niż ono, i  że, gdyby nawet ono nie istniało, byłaby i  tak

[8]
wszystkim, czym jest” . Tok jego rozumowania podążał krętą drogą,

a w jego argumentacji – z dzisiejszej perspektywy – nietrudno znaleźć

słabe punkty. Na przykład z  łatwością można zauważyć, że z  faktu, iż

ktoś może zwątpić w  swoje fizyczne istnienie, wcale nie musi wynikać,

że ten ktoś ma rację i  że nie jest obiektem fizycznym, ani też że ciało

nie jest konieczne do myślenia. Była to nader chwiejna podstawa

pierwszego argumentu Kartezjusza, uzasadniającego dualizm umysł–

ciało.

Trzeba jednak pamiętać, że formułując swoje argumenty, Kartezjusz

nie mógł korzystać z  dzisiejszej wiedzy. Jego wnioski i  idee

kształtowały myśl ludzką aż do czasów współczesnych, a  jego dualizm

umysł–ciało – oddzielenie umysłu od ciała i mózgu – od 350 lat trzyma

filozofów w  morderczym uścisku. Współcześni Kartezjusza mieli

jednak kłopot z  jego wnioskami. Wielu spośród jego zwolenników,

[9]
między innymi księżniczka czeska Elżbieta (która prowadziła

obszerną korespondencję z  Kartezjuszem), zastanawiało się, w  jaki

sposób ów niematerialny umysł kontaktuje się z  materialnym ciałem.

W  korespondencji z  Elżbietą Kartezjusz przyznał, że nie potrafi

[10]
udzielić zadowalającej odpowiedzi na to pytanie . Może pocieszyłaby
go wiadomość, że ta kwestia nadal jest przedmiotem dyskusji. Trzeba

przyznać, że Kartezjusz bardzo się starał. Przeszukał mózg i  znalazł

w  nim strukturę, którą uznał za miejsce interakcji umysł–mózg:

szyszynkę. Napisał do Elżbiety: „Myślę, że ten gruczoł jest głównym

siedliskiem duszy i  miejscem, w  którym powstają nasze myśli.

Powodem, z  jakiego tak uważam, jest fakt, że nie mogę znaleźć żadnej

[11]
innej części mózgu, która nie byłaby podwójna” . Trudno oprzeć się

myśli, że Kartezjusz desperacko chwytał się wszelkich sposobów.

Przecież jego poszukiwania polegały na badaniu mózgów cieląt, które –

  jak wcześniej stwierdził –  nie mają niematerialnej duszy, oraz na

studiowaniu rysunków Galena.

W swoich rozważaniach Kartezjusz tylko raz wtrącił słowo

„świadomy” –  w Medytacji trzeciej (paragraf 32). W  ten sposób

wprowadził ten termin do filozofii. Jak wszyscy wykształceni ludzie

tamtych czasów, Kartezjusz pisał po łacinie, więc użył łacińskiego

słowa conscious. Autorzy przekładów na język francuski i angielski nie

byli zbyt precyzyjni ani w  swoich interpretacjach, ani w  użyciu tego

słowa, lecz sięgali po nie tam, gdzie Kartezjusz używał czasowników

„myśleć” i  „wiedzieć” (lub „poznać”). Natychmiast pojawiły się

zastrzeżenia do użycia tego terminu. Kartezjusz zapewne żałował, że

w  ogóle po niego sięgnął, gdyż musiał bez końca wyjaśniać, co miał na

myśli, usiłując rozstrzygnąć, czy świadomość ma charakter refleksyjny

–  czyli jest myśleniem o  myśleniu –  czy też jest myśleniem w  sensie

ogólnym. Kartezjusz używał tego terminu w  odniesieniu do naszej

wiedzy o  tym, co się dzieje w  naszym umyśle, która –  jak twierdził –

  jest niewątpliwa i  nieomylna (do tego wniosku doszedł na drodze

logicznego rozumowania). Jeśli na przykład myślę, że mam najlepszą

winnicę na świecie, to nie mam wątpliwości, że tak właśnie myślę,

a zatem moja wiedza jest niewątpliwa. Ponadto nie mylę się w tym, że

tak właśnie myślę, a  co za tym idzie –  jest to wiedza nieomylna.


Kartezjusz wiedział na pewno, co myśli, a  to oznaczało, że znał swój

umysł lepiej niż swoje ciało. Według Kartezjusza świadomość nie mogła

go oszukać.

Kartezjusz i  francuscy myśliciele dali początek całej dziedzinie

filozoficznej, która od tamtej pory stara się wyjaśnić ideę świadomości

–  pojęcie, które od samego początku nie zostało jasno zdefiniowane.

Przypomina to słynną wypowiedź sędziego amerykańskiego Sądu

Najwyższego, Pottera Stewarta, na temat pornografii: „Nie będę

próbował jej zdefiniować (…) i  chyba nigdy nie zdołam tego zrobić. Ale

kiedy ją widzę, wiem, że to ona”.

***

Opuszczamy siedemnastowieczną Francję, wyposażeni

w  mechanistyczny model wszechświata i  dwa odmienne opisy umysłu.

Przed Kartezjuszem ludzką myśl zdominowało pojęcie duszy –

  materialnej lub niematerialnej. Wydawało się, że świadoma obecność,

jaką my, ludzie, odczuwamy i  jakiej doświadczamy, niemal

uniemożliwia wyobrażenie sobie duszy jako kawałka mięsa. To

zrozumiałe, iż myśl, że po mozołach całego życia wszystko się kończy

w  chwili śmierci, wydaje się trudna do przyjęcia i  nader irytująca.

Arystoteles próbował skierować nas na właściwy tor, stwierdzając bez

ogródek, że dusza umiera wraz ze śmiercią ciała. Mimo to dzisiaj, po

dwóch tysiącach lat gromadzenia wiedzy o  świecie, większość ludzi

nadal nie godzi się z  prostym faktem, że to nasze ciało (i mózg)

decyduje o  tym, kim jesteśmy –  w całej naszej złożoności biologicznej

i kulturowej.

W drodze do teraźniejszości Kartezjusz śmiało oddzielił

nieśmiertelną duszę (a wraz z  nią umysł) od mechanicznego

wszechświata i  mechanicznego ciała. Kiedy umysł i  ciało uznano za

całkowicie odrębne, to umysł stał się najważniejszą zagadką. Uważano,


że jest niematerialny, niewątpliwy, nieomylny i  wieczny. Poprzez

nadanie umysłowi statusu nadprzyrodzonego Kartezjusz uczynił go

niedostępnym badaniom naukowym. Nigdy nie zdołał wyjaśnić, w  jaki

sposób ów niematerialny umysł współpracuje z  materialnym ciałem,

ale jego teoria na ponad dwieście lat zahamowała rozważania nad

fizycznymi aspektami umysłu. Wielu wybitnych myślicieli

współczesnych Kartezjuszowi, takich jak Pierre Gassendi, zgadzało się,

że istnieje niematerialna, rozumna dusza, z  powodu przekonania, że

atomy –  w żadnej kombinacji –  nie byłyby zdolne do refleksji nad

samymi sobą ani do spostrzegania wykraczającego poza informacje

dostarczane przez zmysły. Jakkolwiek dziwaczne i  bezużyteczne

wydawały się te siedemnastowieczne idee w  tamtych czasach, pogląd,

że stany mentalne rzeczywiście istnieją, trzyma się świetnie w  nauce

XXI wieku. Współczesna nauka zastąpiła niematerialny umysł krążący

w  każdym z  nas umysłem umiejscowionym w  mózgu, całkowicie

fizycznym. Wciąż jednak pozostaje pytanie: jak, do licha, to działa?

[1]
Tłum. Maciej Słomczyński.

[2]
Zan Boag, 2014.

[3]
Frankfort i in., 1977.

[4]
Pneuma (tchnienie, duch) –  pojęcie filozoficzne oznaczające

niezwykłą substancję, mieszankę powietrza i  ciepła, ożywiającą ciała

istot żywych (przyp. tłum.).

[5]
Inaczej: Andreasa Vesaliusa (przyp. tłum.).

[6]
Podkreślenie Rosena.

[7]
Rosen, 1991, s. 20.

[8]
Descartes, 1918, tłum. Tadeusz Boy-Żeleński.

[9]
Właśc. Elisabeth Simmern van Pallandt, filozoa

wczesnonowożytna (przyp. tłum.).

[10]
Hatfield, 2014.
[11]
Descartes, 1984.
ROZDZIAŁ II
Początki myślenia empirycznego w lozo i
– Nie myślę… – Więc nie powinnaś się odzywać – powiedział Kapelusznik[1].
– Lewis Carroll, Przygody Alicji w Krainie Czarów

Po drugiej stronie kanału La Manche, daleko od Kartezjusza i  jego

paryskich ziomków, Brytyjczycy również zastanawiali się nad sensem

życia, duszą i  umysłem. Słowo „świadomość” (consciousness) przyjęło

się wśród brytyjskich filozofów. Pięćdziesiąt lat po tym, jak Kartezjusz

użył tego pojęcia w  Medytacjach, John Locke i  Szkot David Hume

rozwinęli je w  swoich dziełach. Filozofowie nie byli osamotnieni w  tym

przedsięwzięciu. Świat medyczny ze swym zainteresowaniem ciałem

i anatomią też zaczął zgłębiać kwestie umysłu i mózgu. Thomas Willis

i  William Petty ciężko pracowali w  Oksfordzie, a  ich odkrycia miały

wywrzeć istotny wpływ na coraz gorętszy spór dotyczący umysłu

i  mózgu. Do pewnego stopnia była to ta sama, dobrze znana historia.

Ówcześni naukowcy byli dziećmi religii. Nowa wiedza naukowa

o  świecie była sprzeczna z  ich żarliwymi, zaszczepionymi

w dzieciństwie przekonaniami religijnymi. Doświadczali tego, co dzisiaj

określa się mianem dysonansu poznawczego –  dyskomfortu

psychicznego, jaki odczuwamy, gdy mamy równocześnie dwa (albo

więcej) sprzeczne przekonania, idee lub wartości. Aby złagodzić ten

dyskomfort, ludzie próbują wyjaśnić lub usprawiedliwić ów konflikt,

albo też zmieniają swoje przekonania. W  czasach, o  których mowa,

prawie wszyscy gorąco pragnęli, aby wiara w  Boga nie stała się ofiarą

odkryć dokonywanych na gruncie nowej nauki. Aby więc pogodzić swoje

myśli na temat umysłu, o którym wiedzieli bardzo niewiele, z myślami


dotyczącymi ciała, o  którym dowiadywali się coraz więcej, naukowcy

zaczęli wysuwać dość niedorzeczne sugestie dotyczące wzajemnych

powiązań między jednym i  drugim. Początkowo neuronaukowcy

tamtych czasów, podobnie jak ówcześni filozofowie, wydawali się

oszołomieni własnym poczuciem świadomości i  swoim nowym

przywiązaniem do obiektywnego myślenia.

Do obfitości nowych idei pojawiających się we Francji i  w Anglii

dołączyła prawdziwa lawina prac niemieckich myślicieli. Od Leibniza

po Kanta, na kontynencie aż huczało od idei dotyczących natury

umysłu. Obserwowanie, jak owe idee się formowały, przekształcały

i  zmieniały, samo w  sobie jest fascy-nujące. Kartezjusz, z  całą swą

błyskotliwością i  pewnością siebie, rzucił myślicielom rękawicę, kiedy

wysunął tezę, że umysł nie jest zbudowany z  tej samej substancji, co

mózg. Ten akt intelektualny okazał się wielkim wyzwaniem dla

wyrafinowanych, dociekliwych umysłów kolejnych dwóch stuleci. Pod

wieloma względami owa długa dyskusja przypominała

wolnoamerykankę, a przy tym miała oszałamiająco wielkie znaczenie.

Niezapisana tablica, ludzkie doświadczenie i początki


neuronauki
W połowie XVII wieku Anglia była uwikłana w krwawą wojnę domową

o  religię i  władzę monarszą. Thomas Hobbes, rojalista i  prawdziwy

polihistor, przyjechał do Paryża z  Londynu, w  którym znalazł się pod

ostrzałem krytyki po opublikowaniu niewielkiej książki na temat

ówczesnej polityki. W  Paryżu otrzymał posadę guwernera

przebywającego na wygnaniu księcia Karola (późniejszego króla Karola

III) i  dość szybko stał się jednym z  gości salonu Mersenne’a. Hobbes,

wykształcony w dziedzinie fizyki, od samego początku wydawał się nie

przejmować niematerialną duszą. Stanowczo odrzucił Kartezjańską


koncepcję duszy, która jego zdaniem była tylko złudzeniem. Rozum –

 jak sądził – nie może być wytworem jakiejś tajemniczej nie-substancji.

Jest raczej zdolnością ciała do utrzymania porządku w mózgu. Hobbes

myślał jak inżynier: zbudować, uruchomić –  i to wszystko. Żadnych

duchów w maszynie.

Hobbes miał pełne ręce roboty –  uczył księcia Karola i  pisał dwie

książki: jedną o  zmyśle wzroku, a  drugą o  ciele i  jego maszynerii.

Potrzebował asystenta i  zatrudnił bystrego angielskiego studenta

medycyny, Williama Petty’ego. Z  jakiegoś powodu Hobbes z  góry

powziął przekonanie, że zmysły wytwarza-ją ciśnienie, które wywołuje

ruch bijącego serca. Młody Petty pomógł mu przestudiować księgi

Wesaliusza, a  Hobbes nie znalazł w  nich dowodów na potwierdzenie

swojej teorii. Mimo to – podobnie jak to czyni wielu innych naukowców

– brnął dalej.

Wraz z  Pettym uczestniczył w  sekcjach zwłok, spodziewając się

zobaczyć nerwy wyrastające z  serca niczym kolce z  ciała jeżowca

i  rozchodzące się we wszystkich kierunkach. Niczego takiego jednak

tam nie było. Kiedy wreszcie to do niego dotarło, Hobbes porzucił swoją

hipotezę. W  nauce, podobnie jak w  życiu, otoczenie społeczne stwarza

okazje do twórczej wymiany myśli. Wolta myślowa Hobbesa wywarła na

Pettym tak wielkie wrażenie, że przejął od swego pracodawcy metodę

wszechstronnego badania danego zagadnienia z  zachowaniem

otwartości umysłu i  elastyczności. Jeśli jego założenia nie zgadzały się

z  obserwacjami, to zmieniał zdanie. Petty wrócił do Anglii

z  materialnym prezentem od Hobbesa (mikroskopem) pod pachą i  z

teoretycznym zapisem w głowie – przekonaniem, że ciało jest zespołem

części, działającym jak maszyna. Największym darem, jaki Petty

otrzymał od Hobbesa, było jednak zrozumienie, jak wielką wartość ma

poszukiwanie odpowiedzi na pytania poprzez obserwację

i eksperymentowanie, nie zaś naginanie obserwacji w taki sposób, aby


pasowały do naszych teorii. Łatwiej powiedzieć niż zrobić. Nikt nie lubi

przyznawać, że nie miał racji.

Petty został wybitnym anatomem. Wkrótce po powrocie do Anglii

podjął pracę w  Oksfordzie. Podobnie jak wcześniej Wesaliusz, mógł

liczyć na stały dopływ zwłok z miejscowych szubienic. Dołączył do niego

inny młody lekarz, Thomas Willis, rojalista i  zagorzały anglikanin.

Z  powodu owych poglądów, niezbyt popularnych w  miejscowych

kręgach, wykształcenie zawodowe Willisa było dość fragmentaryczne.

Petty z  wielkim zapałem zabrał się do uzupełniania tych braków i  w

ciągu pięciu lat uczynił z Willisa wybitnego anatoma, który – podobnie

jak on –  cenił zdobywanie wiedzy na drodze obserwacji

i  eksperymentów. Kiedy ci dwaj przejęli stery, w  Wielkiej Brytanii

zaczęła się rozwijać nowa dyscyplina naukowa –  neuronauka. Wkrótce

nikt nie mógł już ignorować doniosłej roli mózgu w  rozważaniach

o stanach mentalnych, świadomości i – wciąż jeszcze, przynajmniej dla

niektórych – duszy.

Jeden mały krok dla nauki


Potrzeba splotu wielu okoliczności, aby zdobyć znakomitą reputację

naukową, zwłaszcza w  dziedzinie, która jest młoda i  słabo zbadana.

Szczęście sprzyjało Petty’emu i  Willisowi, gdy około roku po

rozpoczęciu pracy przez tego pierwszego do jego gabinetu przyjechała

trumna z  ciałem najświeższej ofiary kata, Anne Greene. Anne została

zgwałcona, a  później skazana na śmierć za zabicie swojego nowo

narodzonego dziecka. Wisiała na stryczku przez całych trzydzieści

minut, a jej przyjaciele – jak było wówczas w zwyczaju – uczepili się jej

ciała, kiedy zawisła na sznurze, wykorzystując swój ciężar, aby

przyśpieszyć jej śmierć. Następnego dnia przed rozpoczęciem sekcji

zwłok gabinet Petty’ego wypełnił się tłumem gapiów.


Odkąd Petty stanął u  steru, sekcje zwłok stały się czymś w  rodzaju

widowiska sportowego. Zanim jednak anatom wszedł do pomieszczenia,

ktoś podniósł wieko trumny i ze środka rozległ się bulgoczący dźwięk –

  niczym w  opowieściach Edgara Allana Poego. W  chwili gdy Petty

i  Willis przekraczali próg prosektorium, jeden z  widzów deptał po

klatce piersiowej Anne Greene. Obaj lekarze próbowali gorączkowo,

rozmaitymi sposobami przywrócić ją do życia i udało im się to w takim

stopniu, że następnego ranka Anne poprosiła o  piwo. Sędziowie chcieli

przeprowadzić powtórną egzekucję, ale dwaj lekarze przekonali ich, że

kobieta w  rzeczywistości poroniła (była dopiero w  czwartym miesiącu

ciąży) i  że dziecko urodziło się martwe. Anne została uniewinniona.

Później urodziła troje dzieci. To spektakularne wydarzenie przyniosło

Petty’emu i  Willisowi sławę i  fortunę. Zapewniło im godną

pozazdroszczenia karierę naukową i  uwolniło ich od konieczności

zabiegania o wsparcie finansowe.

Petty i  Willis pracowali razem przez kolejne cztery lata. Pod okiem

Petty’ego Willis zaczął przeprowadzać sekcje zwłok swoich zmarłych

pacjentów, aby lepiej poznać ludzkie ciało i  zrozumieć, jaki wpływ

wywierają na nie rozmaite choroby, a także – jeśli to możliwe – odkryć

przyczyny chorób. Później Petty wyruszył na pastwiska bardziej

zielone: wędrował jako lekarz wojskowy z  armią Olivera Cromwella po

Irlandii (jeszcze później został znanym ekonomistą, członkiem

Parlamentu oraz członkiem założycielem Towa-rzystwa Królewskiego

w  Londynie). Willis kontynuował ich wspólną pracę. Interesował się

zwłaszcza mózgiem i  opracował techniki sekcyjne, które zapewniły mu

lepszy wgląd w  anatomię tego organu niż ten, jaki mieli jego

poprzednicy. Wraz z  Christopherem Wrenem, który oprócz innych

osiągnięć (był astronomem, chirurgiem i  architektem) zapoczątkował

sztukę wstrzykiwania barwników do żył, Willis sporządził schemat

układu naczyniowego mózgu, wstrzykując atrament i  szafran do


tętnicy szyjnej psa. Był pierwszym, który wyjaśnił funkcję struktury

naczyniowej u podstawy mózgu, nazwanej na jego cześć kołem Willisa.

Willis i  Wren sporządzili razem najdokładniejsze (do tej pory)

rysunki ludzkiego mózgu i  opublikowali je w  książce The Anatomy of

the Brain and Nerves (Anatomia mózgu i  nerwów). Książka sprzedała

się na pniu i  tylko w  pierwszym roku miała cztery dodruki.

Zamieszczone w  niej rysunki anatomiczne nie miały sobie równych

przez ponad dwa stulecia.

Pomimo swej gruntownej wiedzy anatomicznej Willis z uporem trwał

na stanowisku, że istnieją życiowe i  zmysłowe tchnienia, które

utrzymują ciało przy życiu –  ta idea pochodziła z  zamierzchłej

przeszłości i  najwyraźniej wcale nie miała zamiaru odejść

w  zapomnienie. Petty dobrze go jednak wykształcił. Ostatecznie Willis

zmienił zdanie, kiedy jego studenci przekonali go –  za pomocą wielu

sprytnych eksperymentów –  że tchnienia nie odgrywają tu żadnej roli.

Krew przejmowała coś z  powietrza i  dostarczała to do mięśni. Właśnie

to było siłą napędową organizmu. Willis i  jego studenci nie odkryli

pierwiastka chemicznego zwanego tlenem, ale byli bardzo bliscy

prawdy.

Po przeprowadzeniu licznych sekcji ciał zwierząt Willis zauważył

istotne podobieństwa między mózgiem ludzkim i  zwierzęcym. Na

podstawie swoich obserwacji doszedł do wniosku, że dusze ludzi

i  zwierząt są do siebie bardzo podobne, a  różnice między nimi można

zaobserwować tylko w  ciele. Na przykład zwierzęta wyposażone

w  większą opuszkę węchową mają lepszy węch. Willis zauważył, że

u  ludzi kora mózgowa jest dużo większa niż u  innych gatunków,

i  doszedł do wniosku, że to ona jest siedliskiem pamięci, ponieważ

ludzie potrafią zapamiętać dużo więcej. Chociaż ten sposób myślenia

może się wydawać dość siermiężny i  nazbyt uproszczony, wniosek

Willisa nie odbiega daleko od niektórych spośród najbardziej


obiecujących idei współczesnej neuronauki. W  2016 roku norweską

Nagrodę Kavliego w  dziedzinie neuronauki przyznano Michaelowi

Merzenichowi –  badaczowi, który wykazał, że rejony mózgu związane

z określonymi formami aktywności powiększają się w miarę używania.

Przeprowadzane przez Willisa sekcje zwierząt ujawniły jednak

pewien poważny problem. Mimo że ludzie potrafią myśleć zupełnie

inaczej niż inne zwierzęta, ich mózgi wydawały się bardzo podobne pod

względem organizacji. Ponieważ Willis nie znalazł żadnej materialnej

substancji mózgowej, która mogłaby wyjaśnić zaobserwowane różnice,

doszedł do wniosku, że musi istnieć coś innego, co zapewnia ludziom

ich nadzwyczajne zdolności –  rozumna dusza. I  znowu to samo. Willis

nie zdołał fizycznie zlokalizować rozumnego myślenia w  ciele, dlatego

zgodził się z  poglądem Gassendiego, że jest ono nie-materialne, choć

mieści się w  mózgu, tak jak twierdził Kartezjusz. Willis są-dził, że

nerwy odbierają wrażenia ze świata zewnętrznego, a tchnienia życiowe

(pneuma zootikon) przenoszą je do mózgu. Tchnienia podążają drogami

wiodącymi w  głąb mózgu, do centralnego punktu zbornego –  grubej

wiązki nerwów, która łączy dwie półkule mózgu – ciała modzelowatego.

Innymi słowy, kolejny błyskotliwy umysł pomylił się w  najważniejszej

kwestii. To tak, jakby współ-czesny naukowiec zajrzał do wnętrza

komputera, nie dostrzegł tam niczego szczególnego i  na tej podstawie

wywnioskował, że nad płytą główną musi się unosić jakiś

niematerialny duch, dzięki któremu komputer działa.

Dusza jako król, a nie dyrektor generalny


Rojalista Willis widział w  owej rozumnej duszy króla ciała. Jak każdy,

kto stoi na czele wielkiej organizacji, król dysponuje jedynie tymi

informacjami, które są mu przekazywane, i  nie ma bezpośredniej

wiedzy o  świecie zewnętrznym. Te informacje mogą być błędne albo


mogą stać się niedostępne. Mózg jest organem fizycznym, więc może

zachorować (lub też choroba może upośledzić niektóre jego części)

i  przestać dostarczać poprawne informacje, co będzie zakłócać dopływ

informacji do rozumnej duszy. Kiedy mózg jest chory, istnieje ryzyko,

że choroba dotknie też rozumną duszę –  czasami trwale. To było (i

nadal jest) niezwykle ważne spostrzeżenie. Jak można się spodziewać,

na poparcie swoich teorii Willis opisał rozmaite choroby psychiczne,

z jakimi się spotkał u swoich pacjentów.

Willis odgrywa ważną rolę w  naszych poszukiwaniach świadomości,

ponieważ jako jeden z  pierwszych powiązał konkretne uszkodzenia

mózgu z  określonymi deficytami w  dziedzinie zachowań, a  także zdał

sobie sprawę, że poszczególne części mózgu odpowiadają za różne

zadania. W  dziele, w  którym przedstawił owe idee, Two Discourses

Concerning the Soul of Brutes (Dwie rozprawy o duszy zwierząt), opisał

mózg wykonujący autonomicznie rozmaite zadania, i  to nie w  jednym

miejscu, lecz rozproszone po całym jego obszarze. Opisał kanały

komunikacji, choć w  tamtych czasach –  jeszcze przed odkryciem

elektryczności –  wyobrażał sobie przepływające nimi tchnienia

(pneumę), a  nie impulsy elektryczne. Stworzył zaczątki czegoś, co

w  czasach nam współczesnych przeistoczyło się w  neuronaukę

poznawczą –  nowoczesną dyscyplinę naukową, która podjęła próbę

wyjaśnienia świadomego ludzkiego doświadczenia.

Rozkwit Johna Locke’a


Uważa się, że zarówno badania empiryczne Willisa, jak i  jego

rozważania teoretyczne wywarły ogromny wpływ na przyszłego filozofa

Johna Locke’a. On również zaczynał jako lekarz. Kształcił się

w Oksfordzie, tak jak Willis. Jednym z kilku cykli wykładów, na które

postanowił uczęszczać, były wykłady Willisa na temat anatomii.


Później Locke zaprzyjaźnił się z  innym lekarzem, Thomasem

Sydenhamem, który studiował z  Willisem. Wiedza medyczna

Sydenhama w  dużej mierze pochodziła z  rzeczywistego doświadczenia,

a  więc została uzyskana metodą, której Locke zaczął przypisywać

zasadnicze znaczenie.

Po zbadaniu setek pacjentów Sydenham zauważył, że poszczególne

choroby są powiązane z  określonymi, niezmiennymi zespołami

symptomów –  takich samych niezależnie od tego, kim był pacjent:

kowalem z  wioski w  hrabstwie Sussex czy księciem Yorku. Doszedł do

wniosku, że choroby można od siebie odróżnić na podstawie

charakterystycznych zespołów objawów, i  zaczął klasyfikować choroby,

tak jakby były roślinami. Było to rewolucyjne podejście, ponieważ do

tamtej pory nadal dominowały metody diagnostyczne i terapie Galena,

które były dużo bardziej subiektywne. Według Galena każda choroba

była spowodowana przez specyficzną dla danej osoby nierównowagę

humorów, która wymagała indywidualnie dobranej terapii. Tymczasem

Sydenham zapoczątkował coś, co dzisiaj brzmi jak pierwsze pomruki

medycyny opartej na dowodach empirycznych. Wypróbowywał rozmaite

metody leczenia danej choroby na grupie pacjentów oraz oceniał

i  modyfikował stosowane leki według ich skuteczności. Paradoksalnie

pogląd Galena wydaje się spójny z  entuzjazmem, z  jakim współczesna

medycyna odnosi się do spersonalizowanych terapii, podczas gdy

pogląd Sydenhama pozostaje w  zgodzie z  medycyną algorytmiczną,

w  której stosuje się standardowe praktyki i  procedury w  leczeniu

wszystkich pacjentów mających takie same objawy. W rozdziałach 7 i 8

dowiemy się, że w  nauce często spotyka się tego rodzaju rozbieżne

podejścia, co skutkuje zaciekłymi sporami typu „albo–albo”, podczas

gdy w rzeczywistości istnieje co najmniej jedno dodatkowe rozwiązanie.

Są to tak zwane „fałszywe dylematy” –  rodzaj nieformalnego błędu

rozumowania (informal fallacy). Przekonamy się –  co może się wydać


zaskakujące –  że to fizycy tupnęli nogą i  wykazali, iż na ogół żadna

z  odpowiedzi sama w  sobie nie jest wystarczająca. To spostrzeżenie

okaże się przydatne w rozważaniach o tym, jak neurony tworzą ludzki

umysł.

Jak można się było spodziewać po przyszłym filozofie, Locke

bezlitośnie ma-glował Sydenhama w  sprawie jego metod. Czy

naprawdę trzeba znać podstawo-wą przyczynę danej choroby, aby móc

ją leczyć? Czy poznanie owej przyczyny w  ogóle jest możliwe? Podczas

gdy Willis uważał, że przyczyny chorób są poznawalne, i  dążył do ich

ustalenia poprzez przeprowadzanie sekcji zwłok i eksperymenty, Locke

i Sydenham byli innego zdania. Doszli do wniosku, że przyczyny chorób

wykraczają poza ludzkie rozumienie. Jeszcze później Locke nabrał

przekonania, że działanie umysłu oraz istota rzeczy są równie

niezgłębione. Je-go podejście do filozofii przypominało sposób, w  jaki

Sydenham podchodził do chorób: ograniczał się do rozważań o  ideach

opartych na codziennym doświadczeniu. Nic dziwnego, że w  głowie

Locke’a narodziła się idea niezapisanej tablicy –  słynnej tabula rasa,

na której umysł tworzy się wyłącznie poprzez do-świadczenie

i  autorefleksję. Ta myśl stanowi podstawę standardowej teorii

człowieka w  dzisiejszych naukach społecznych: to wychowanie (a nie

geny) ma decydujące znaczenie.

Mimo że zarówno Locke, jak i  Kartezjusz ostatecznie zostali

dualistami, w  wielu sprawach istotnie się różnili. Rozważając kwestię

duszy z  perspektywy psychologicznej, Locke napisał: „Świadomość jest

postrzeżeniem (percepcją) tego, co się odbywa we własnej duszy

[2]
człowieka” . Owa percepcja lub świadomość percepcji jest możliwa –

  wyjaśnia Locke –  dzięki „zmysłowi wewnętrznemu”, który nazwał

„refleksją, bo idee, jakie wywołuje, mogą być otrzymane tylko dzięki

temu, że umysł zwraca się ku sobie samemu przez refleksję nad

[3]
własnymi czynnościami” . Locke posuwa się nawet do stwierdzenia, że
istnienie nieświadomych stanów mentalnych jest niemożliwe: „wszak

[4]
niemożliwe, aby ktoś postrzegał nie postrzegając, że postrzega” .

W przeciwieństwie do Kartezjusza, Locke przeciął połączenie między

duszą a  umysłem (tym, który myśli). Jak zapewne pamiętasz,

Kartezjusz sądził, że dusza i  umysł stanowią jedność: myśli są

głównym atrybutem umysłu, a  żadna substancja nie może istnieć bez

swojego głównego atrybutu. Tak więc umysł myśli przez cały czas,

nawet we śnie, choć wówczas jego myśli od razu są zapominane. Locke

zgadzał się z  poglądem, że umysł w  stanie czuwania nigdy nie

przestaje myśleć, ale na podstawie własnego doświadczenia odrzucał

tezę, że osoba pogrążona we śnie bez marzeń sennych ma jakieś myśli.

Człowiek śpiący wciąż jednak musi mieć duszę. W przeciwnym razie co

by się stało, gdyby umarł we śnie? Dlatego – wnioskował Locke – umysł

(z właściwą mu świadomością) i dusza muszą być odrębne. To proste!

Kartezjusz ograniczał treść świadomości do aktualnych operacji

umysłu. Locke nie nakładał takich ograniczeń. Uważał, że można być

świadomym wcześniejszych operacji i  działań mentalnych. Traktował

świadomość jako swoisty klej, który spaja historię danej osoby

w  jednolite poczucie Ja –  tożsamość osobową. Był zdania, że

świadomość pozwala nam uznawać nasze przeszłe doświadczenia za

własne (należące do nas). Chociaż zgadzał się z  Karte-zjuszem, że

ludzie mają wolną wolę, ominął problem tego, w  jaki sposób materia

mogłaby ją wytwarzać, dodając do całego równania wszechmocnego

Boga i stwierdzenie, że Bóg to sprawił.

Oto więc kilku spośród najmądrzejszych ludzi na świecie próbowało

stworzyć model działania ciała, umysłu i  duszy. Musieli wpasować coś,

co wydawało im się niepodważalną rzeczywistością, w  model, który

odróżniał ludzi od zwierząt, bogów, umysłów i  świadomości. Właśnie

tym zajmują się twórcy modeli, również dzisiaj. Opracowują model,

a  później stopniowo go ulepszają, jak twierdzą, na podstawie nowych


informacji –  do chwili, gdy ów model wydaje się wyjaśniać dany

problem. W tym wypadku model nie trzymał się kupy.

Pod koniec XVII wieku idee dotyczące tego, czym jest świadomość,

były liczne, lecz bardzo zagmatwane. Gromadzono fakty, które pewnego

dnia miały zapewnić przyszłym teoretykom użyteczne ramy, wciąż

jednak brakowało podstawowej, wszechstronnej struktury pojęciowej

wyjaśniającej świadomość. Krótko mówiąc, filozofowie spierali się

o  całą tę ideę, przy czym niektórzy uważali, że filozoficzna koncepcja

świadomości jest niespójna. Trzeba było rozwiniętego nad wiek

szkockiego filozofa Davida Hume’a, który już jako osiemnastolatek był

zniecierpliwiony „niekończącymi się sporami” na gruncie filozofii, aby

idea świadomości znalazła się na prostej drodze ku przyszłości. Hume

uznał filozofię moralności i  filozofię przyrody starożytnych za

„całkowicie hipotetyczną i  uzależnioną w  większej mierze od Inwencji

[5]
niż od Doświadczenia” .

Przygotowanie do współczesnych koncepcji


Hume wdarł się na scenę niczym urodzony obrazoburca, gotowy uciąć

wszelkie dywagacje na temat idealizmu. Pogląd, że umysł jest w  jakiś

sposób nadprzyrodzony  w stosunku do ciała,  uważał za urojenie

i  oczywistą niedorzeczność. Pragnął z  nim skończyć i  stworzyć naukę

wyjaśniającą prawdziwą naturę życia. I  rzeczywiście to zrobił,

zmieniając tor ludzkiego myślenia o  naturze umysłu na kolejne

stulecia.

Hume w  krótkim czasie zdał sobie sprawę, że błędy, które szerzyły

się w  świecie starożytnym –  takie jak formułowanie hipotez opartych

na przypuszczeniach i  twórczej inwencji, a  nie na doświadczeniu

i  obserwacji –  są też rozpowszechnione wśród jego współczesnych. Był

przekonany, że nasza wiedza o  rzeczywistości opiera się na naszym


doświadczeniu i  –  czy to dobrze, czy źle –  na wybranych przez nas

aksjomatach. Aksjomaty (pewniki) to twierdzenia, które wydają się tak

oczywiste lub ugruntowane, że są przyjmowane bez zastrzeżeń jako

coś, czego nie trzeba udowadniać. W pewnym uproszczeniu aksjomat to

założenie lub opinia, których w  zasadzie nie sposób udowodnić. Kiedy

nasza wiedza opiera się na aksjomatach, problem polega na tym, że

nasze wnioski dotyczące rzeczywistości zależą od tego, jakie aksjomaty

wybraliśmy. Jak przestrzega Robert Brown, fizyk z  Uniwersytetu

Duke’a, „nie ma niczego, co byłoby bardziej niebezpieczne i  miało

większą moc w  procesie filozoficznym niż wybór aksjomatów. (…) Nie

ma niczego bardziej bezużytecznego niż toczenie sporu filozoficznego,

religijnego lub społecznego z osobą, której aksjomaty istotnie się różnią

[6]
od naszych” .

Hume doszedł do wniosku, że duża część pytań zadawanych przez

filozofów to tak naprawdę pseudopytania –  pytania, na które nie

można odpowiedzieć, odwołując się do logiki, matematyki i  czystego

rozumu, ponieważ odpowiedzi na nie na pewnym poziomie opierają się

na niemożliwym do udowodnienia przekonaniu, czyli na aksjomacie.

Uważał, że filozofowie powinni przestać marnować cenny czas innych

ludzi, rozpisując się na temat pseudopytań, porzucić swoje aprioryczne

założenia i  powściągnąć spekulacje –  tak jak zrobili to naukowcy.

Powinni odrzucić wszystko, co nie opiera się na faktach lub na

obserwacji, a  więc, między innymi, zrezygnować z  wszelkich odwołań

do sił nadprzyrodzonych. Hume wskazał palcem Kartezjusza

i pozostałych, którzy byli przekonani, że ostatecznie dowiedli słuszności

filozofii dualistycznej na drodze rozumu, matematyki i  logiki. Dziś

stanowisko Hume’a jest dość rozpowszechnione, po części dlatego, że

współcześni filozofowie akademiccy pracują dla nowoczesnych placówek

badawczych –  uniwersytetów –  i na co dzień stykają się

z  eksperymentami naukowymi. Mimo że idee Kartezjańskie nadal są


obecne, większość filozofów i naukowców nie traktuje ich poważnie. Na

początku XVIII wieku atak Hume’a na Kartezjusza był jednak

przełomowy i wymagał wielkiej odwagi.

Wielki plan Hume’a zakładał stworzenie „nauki o  człowieku” –

  wyjaśnienie podstawowych praw rządzących operacjami umysłu

zgodnie z  ówczesną wiedzą na temat świata newtonowskiego, przy

użyciu metody naukowej New-tona. Hume uważał, że zrozumienie

natury ludzkiej, z  jej zdolnościami i  słabościami, pomoże nam lepiej

zrozumieć ludzkie działania w  ogóle i  pozwoli zdać sobie sprawę

z  możliwości i  pułapek, jakie kryją się w  naszych przedsięwzięciach

intelektualnych, między innymi z tego, jakie aspekty naszego myślenia

mogą ograniczać naszą zdolność do zrozumienia samych siebie. De

facto Hume sądził, że jego nauka o  człowieku powinna zająć pierwsze

miejsce wśród dyscyplin naukowych, przed naukami newtonowskimi.

Napisał: „Nawet matematyka, filozofia naturalna i  religia naturalna

w  pewnej mierze zależą od nauki o  człowieku; są one bowiem

przedmiotem ludzkiego poznania i są przedmiotem sądów, które tworzy

człowiek dzięki swym siłom i władzom. Niepodobna orzec, jakie zmiany

i  udoskonalenia moglibyśmy poczynić w  tych naukach, gdybyśmy

gruntownie znali zakres i  moc rozumu ludzkiego i  gdybyśmy mogli

wyjaśnić naturę tych idei, którymi się posługujemy, oraz naturę tych

[7]
operacji, których dokonujemy w  naszych rozumowaniach” . Hume

z  zapałem zabrał się do pracy i  wniósł do bałaganu umysł–mózg nieco

pragmatycznej klarowności. Niektórzy uważają go za ojca nauk

kognitywnych.

Był rok 1734, a  Hume, wówczas dwudziestotrzyletni, studiował

w  dawnej Alma Mater Kartezjusza, Jesuit College de la Flèche

w  Anjou we Francji. W  wolnym czasie napisał klasyczny Traktat

[8]
o  naturze ludzkiej , który następnie uzupełnił, rozwinął, poprawił

i  doprecyzował w  dziele z  1748 roku, zatytułowanym Badania


dotyczące rozumu ludzkiego. Zaczął od podzielenia wszystkich

spostrzeżeń (percepcji) na dwie kategorie: wrażenia (impresje), będące

zewnętrznymi doznaniami zmysłowymi lub wewnętrznymi refleksjami,

takimi jak pragnienia, namiętności czy emocje; oraz idee, których

źródłem jest pamięć lub wyobraźnia. Uważał, że idee powstają poprzez

kopiowanie wrażeń, i  używał słowa „świadomość” (consciousness)

w  odniesieniu do myśli. Zasada kopii –  jak ją nazywamy –  jest

pierwszą zasadą Hume’a w  nauce o  naturze ludzkiej: „(…) wszystkie

nasze proste idee, gdy zjawiają się po raz pierwszy, wywodzą się

z  impresji prostych, które im odpowiadają i  których one są dokładnym

[9]
odbiciem” .

Jak jednak zauważa Hume, nasze idee nie pojawiają się

przypadkowo. Gdyby tak było, nie moglibyśmy myśleć spójnie.

Zaproponował więc zasadę asocjacji (skojarzenia): „Istnieje tajemna

więź (…) między poszczególnymi ideami, która sprawia, że umysł

częściej łączy je ze sobą, tak że jedna, gdy tylko się pojawi, pociąga za

[10]
sobą drugą” . Owe asocjacje zachodzą według trzech zasad:

podobieństwa, styczności w  czasie i  przestrzeni oraz przyczynowości.

Spośród nich to przyczynowość –  wyjaśnia Hume –  pozwala nam wy-

kroczyć poza nasze zmysły: łączy aktualne doświadczenia

z  wcześniejszymi i  pozwala formułować przewidywania dotyczące

przyszłości. Hume dochodzi do wniosku, że „wszystkie rozumowania

[11]
dotyczące faktów zdają się opierać na stosunku przyczyny i skutku” .

Ten wniosek zapowiadał upadek Kartezjańskiego dualizmu.

Według Hume’a przyczynowość zawiera w  sobie trzy główne

elementy składowe: pierwszeństwo w  czasie, bliskość (styczność)

w  przestrzeni oraz konieczne powiązanie. Hume twierdzi, że ideę

pierwszeństwa w  czasie można wyprowadzić z  obserwacji

i  doświadczenia. Jeśli zatem mówimy, że zdarzenie A  było przyczyną

zdarzenia B, to znaczy, że A  nastąpiło przed B. Idea bli-skości


w  przestrzeni również wywodzi się z  obserwacji. Kiedy bowiem

obserwujemy zdarzenie B i  mówimy, że zostało spowodowane przez

zdarzenie A, to oba zdarzenia sąsiadują ze sobą w  przestrzeni. Kiedy

podsmażam czosnek na oliwie, mój dom natychmiast wypełnia się

smakowitym aromatem –  nie dzieje się to dwie godziny później ani

u moich sąsiadów. Podsmażany czosnek i piękny zapach muszą ze sobą

sąsiadować w czasie i przestrzeni, abym mógł wnioskować o przyczynie

i skutku.

Według Hume’a źródłem problemu jest trzeci element: powiązanie

konieczne. Hume sądził, że powiązanie konieczne między przyczyną

a  skutkiem nie jest czymś, co można wyprowadzić z  samych tylko

myśli, ani czymś, co nazywał stosunkiem między ideami –  czymś, co

jest w  oczywisty sposób pewne, a  przy tym możliwe do odkrycia

niezależnie od doświadczenia, na przykład 4 × 3 = 12. Nie, powiązanie

konieczne wymaga doświadczenia. Wyobraź sobie na przykład, że

w  czasie, gdy podsmażam czosnek, dzwoni telefon. Czy na tej

podstawie wnioskuję, że podsmażanie czosnku powoduje dzwonienie

telefonu? Nie. Mój umysł nie wyciągnie z  tego wniosku o  powiązaniu

koniecznym, chyba że telefon zadzwoni za każdym razem, gdy będę

podsmażał czosnek.

Rozważmy inny przykład: ktoś wręcza ci nieznany biały proszek. Nie

masz pojęcia, jaki może być skutek połknięcia pewnej ilości tej

substancji. Choćbyś był geniuszem, będziesz mógł jedynie opisać kolor

proszku, jego konsystencję, zapach i  –  jeśli jesteś dość lekkomyślnym

geniuszem, co brzmi jak oksymoron –  smak. Bez zaobserwowania lub

uprzedniego doświadczenia skutków działania proszku nie będziesz ich

jednak znał i  nie zdołasz ich przewidzieć. Hume uważał ideę

powiązania koniecznego między przyczyną i  skutkiem za ideę, która

tworzy się w  umyśle na podstawie doświadczenia. Nie jest ono cechą

świata zewnętrznego, którą wyprowadzamy z  wrażeń zmysłowych.


Hume twierdził, że kiedy ludzie uznają daną parę zdarzeń za

powiązaną przyczynowo, to zauważają jedynie, że owe dwa zdarzenia

zawsze występują razem: po zdarzeniach podobnych do A  zawsze

następują zdarzenia typu B, ale korelacja to nie to samo, co związek

przyczynowo-skutkowy. Według Hume’a poprzez asocjację (skojarzenie)

impresja jednego zdarzenia niesie ze sobą impresję drugiego, a  jeśli te

dwa zdarzenia wielokrotnie występują razem, to owa asocjacja staje się

nawykowa. Kiedy zatem widzimy zdarzenie A, nawykowo spodziewamy

się zdarzenia B. Gdy podsmażamy czosnek, spodziewamy się

smakowitego zapachu, ponieważ jedno zawsze następuje po drugim, nie

spodziewamy się natomiast, że zadzwoni telefon. W  poglądach Hume’a

odnajdujemy zapowiedź koncepcji Pawłowa i  jego eksperymentów

dotyczących warunkowania. Hume dochodzi do wniosku, że jeśli takie

nawykowe powiązanie dwóch zdarzeń nie jest czymś, co można

zaobserwować za pomocą zmysłów, to jedynym źródłem, jakie możemy

wskazać jako podstawę idei przyczynowości, jest owo kompulsywne

połączenie występujące w naszym mózgu, które generuje poczucie ocze-

kiwania. Właśnie to poczucie jest źródłem idei przyczynowości.

Tak więc na podstawie wielokrotnego doświadczenia wnioskujemy

lub zakładamy siłą nawyku, że w  przyszłości B zawsze będzie

następować po A. W tym miejscu napotykamy pewien problem logiczny.

Rozważmy przykład: od lat jadasz krewetki. Pewnego wieczoru jedziesz

samochodem z  dwuletnim synkiem, aby spotkać się ze swoim ojcem

w  jego domku nad jeziorem. Zatrzymujecie się na przekąskę

w  przydrożnym barze. Zachłannie wgryzasz się w  soczystą krewetkę

i  nagle, w  ciągu zaledwie kilku sekund, twoja krtań się zamyka.

Rozpaczliwie próbujesz złapać oddech i  zdajesz sobie sprawę, że to

reakcja alergiczna. Zamiast doświadczać poobiedniej błogości, trafiasz

do poobiedniego piekła. W  jaki sposób przechodzimy od „Nie mam

problemów z  jedzeniem krewetek” do „Nie będę miał problemów


z  jedzeniem krewetek dzisiejszego wieczoru” –  przewidywanie, które

na ogół się sprawdza, ale w  sporadycznych wypadkach (które eseista

Nassim Taleb określiłby mianem „czarnych łabędzi”) okazuje się

nietrafne? Problem w  tym, że aby sformułować wniosek przyczynowy

dotyczący przyszłości, musimy przyjąć pewne założenie –  że przyszłe

skutki będą takie same, jak dotychczasowe. Każdego dnia wielokrotnie

przyjmujemy to założenie. Jak do niego dochodzimy? Hume wykazał, że

nie robimy tego na drodze logiki czy rozumu, ponieważ logicznie rzecz

biorąc, łatwo sobie wyobrazić, że przyszłe skutki mogą być inne.

Logicznie rzecz biorąc, wiesz, że możesz wyjść z  domu, aby uruchomić

samochód i  –  w odróżnieniu od dnia wczorajszego i  wszystkich

podobnych dni wczorajszych w  ostatnich pięciu latach –  przekonać się,

że po przekręceniu kluczyka w  stacyjce nic się nie dzieje. Hume

dyskredytuje też rozumowanie probabilistyczne (empiryczne), ponieważ

ma ono charakter błędnego koła: z  góry zakłada to, co próbujemy

udowodnić (przyszłe skutki będą takie, jak w przeszłości). Dochodzi do

wniosku, że nasze przekonanie o  stałości świata i  o tym, że przyszłe

skutki będą takie, jak w  przeszłości, musi zostać wywiedzione nie

racjonalnie, lecz psychologicznie – z nawyku opartego na asocjacji.

Była to naprawdę ryzykowna teza i  Hume zdawał sobie z  tego

sprawę. Zakwestionował ideę przyczynowości i  jasno stwierdził, że jest

ona aksjomatem –  założeniem bez szans na udowodnienie. Hume nie

kwestionuje tego, że skutki mają swoje przyczyny, lecz to, skąd się

bierze nasza pewność, że tak jest. W  1754 roku w  liście do Johna

Stewarta, profesora filozofii przyrody na Uniwersytecie w  Edynburgu,

Hume napisał: „Pozwolę sobie jednak powiedzieć, że nigdy nie

wysuwałem niedorzecznej tezy, jakoby jakakolwiek rzecz mogła

powstać bez przyczyny. Utrzymywałem jedynie, że nasze

przeświadczenie o  fałszywości tej tezy nie wynika ani z  intuicji, ani

[12]
z doświadczenia, lecz z jeszcze innego źródła” .
Hume wykazał, że jakkolwiek poruszanie się po świecie bez tego

pewnika byłoby nadzwyczaj trudne, aksjomat przyczyny i  skutku nie

daje się udowodnić za pomocą matematyki, logiki czy rozumu. Hume

podziwiał Newtona, w  tym miejscu jednak zakwestionował filozoficzne

podstawy jego nauki, a  wraz z  nimi –  mechanistyczną pewność

zarówno świata, jak i  umysłu/mózgu. Jak się przekonamy,

zakwestionowanie mechanistycznej pewności zaprowadzi nas w  nader

interesujące rejony – opisane w kolejnych rozdziałach tej książki.

Ja, moje Ja i kto?


Hume miał też co nieco do powiedzenia na temat jaźni, czyli naszej

tożsamości osobowej. Zgromadził te spostrzeżenia na drodze

introspekcji i  doszedł do wniosku, że jaźń (Ja) jest zbiorem percepcji,

lecz nie istnieje żaden podmiot, w  którym owe percepcje się pojawiają:

„Co do mnie, to gdy wnikam najbardziej intymnie w  to, co nazywam

moim ja, to zawsze natykam się na jakąś poszczególną percepcję tę czy

inną, ciepła czy chłodu, światła czy cienia, miłości czy nienawiści,

przykrości czy przyjemności. Nie mogę nigdy uchwycić mego ja bez

jakiejś percepcji i  nie mogę nigdy postrzegać nic innego niż

[13]
percepcję” . Hume przyznaje jednak, iż powinien w  jakiś sposób

wyjaśnić fakt, że on sam ma pewną ideę tożsamości osobowej. Jej

źródeł upatruje w  kojarzeniu percepcji. Według Hume’a Ja jest tylko

wiązką doświadczeń połączonych relacjami przyczynowości

i  podobieństwa, wyłonionych z  niekończącego się strumienia percepcji.

Nasza wyobraźnia łączy je ze sobą, aby dać początek idei tożsamości.

Następnie pamięć rozszerza tę ideę poza aktualne spostrzeżenia i łączy

je z percepcjami z przeszłości.

Innymi słowy, Hume uważał, że nasza idea stałej tożsamości jest

wynikiem naszego sposobu myślenia, w którym zbiór następujących po


sobie i  powiązanych obiektów –  w tym wypadku naszych percepcji –

  jest mylony z  nieprzerwanym i  niezmiennym obiektem o  stałej

tożsamości, takim jak krzesło. Twierdził, że aby „usprawiedliwić przed

sobą samym tę niedorzeczność, często wprowadzamy jako fikcję jakąś

nową i  nieuchwytną dla myśli zasadę, która wiąże te rzeczy w  jedno

i zapobiega temu, iżby nie było między nimi przerwy i zmian. Tak, (…)

uciekamy się do pojęcia duszy, jaźni i substancji, ażeby zamaskować

zmianę. Lecz możemy dalej zauważyć, że tam, gdzie nie wprowadzamy

takiej fikcji, nasza skłonność do tego, żeby mieszać tożsamość

z uwikłaniem w stosunek, tak jest wielka, iż gotowi jesteśmy poza tym

stosunkiem, który wiąże części, wyobrażać sobie jeszcze coś nieznanego

[14]
i tajemniczego, co by je wiązało dodatkowo” . Dzisiaj Hume może zza

grobu ganić wszystkich tych (nader licznych), którzy nadal myślą

o świadomości w takich kategoriach.

Hume pogroził też palcem Kartezjańskiej res cogitans –  „rzeczy,

która myśli”. Był przeciwny idei, że umysł jest rzeczą myślącą. Uważał

go raczej za scenę, na której występuje nasz mózg: „Umysł to teatr

pewnego rodzaju, gdzie liczne percepcje zjawiają się kolejno,

przesuwają się to w  tę, to w  inną stronę, prześlizgują się i  znikają, to

znów mieszają się ze sobą w  nieskończonej ilości różnych postaw

[15]
i  sytuacji” . Hume nie zakładał, że różnorodność doświadczeń

przekłada się na odrębną jedność –  podmiot. Sądził, że jedynym, czego

możemy się dowiedzieć na temat Ja poprzez introspekcję, jest zbiór

percepcji i idei. Nigdy nie uchwycimy umysłu, który je ponoć wymyśla.

Według Hume’a jaźń jest wiązką percepcji bez kogoś, kto by je wiązał,

bez żadnej substancjalnej, trwałej i  niezmiennej esencji. A  skoro nie

istnieje żadne podstawowe Ja, to dualizm substancji okazuje się

fałszywy.

Opuszczamy wiek XVIII z  jego największym filozofem, patrzącym

krzywo zarówno na Kartezjusza, jak i  na Locke’a. A  jednak Hume


również przeoczył coś ważnego –  liczne bezgłośne umysły w  naszym

wnętrzu, które wywierają wpływ na nasze zachowanie. Umysł

podświadomy, który kontroluje każdego z  nas, jest niczym ukryty

szpieg w  naszym domu. Może to przypominać siłę nadprzyrodzoną,

w  rzeczywistości jednak chodzi o  neuronalne procesy przetwarzania,

przebiegające poniżej poziomu świadomości.

Niemcy i narodziny nieświadomego umysłu


Nadeszła kolej Niemców, którzy włączyli się do rozmowy i  poruszyli

temat nieświadomych procesów psychicznych. Na przykład Arthur

Schopenhauer napisał: „Zeitgeist każdej epoki jest niczym przenikliwy

wschodni wiatr, który przewiewa wszystko. Można znaleźć jego ślady

w każdym działaniu, we wszystkim, co zostaje pomyślane lub napisane,

w muzyce i malarstwie, w rozkwicie tej czy innej sztuki. Zostawia ślad

[16]
na wszystkim i na wszystkich” .

Na początku XIX wieku ów przenikliwy wschodni wiatr wiał

z  Niemiec, a  konkretnie –  z ust Arthura Schopenhauera, zatrzymując

żaglowiec Kartezjusza, który uważał, że umysł jest w  pełni dostępny

i  że nic nie jest ukryte przed świadomą refleksją. Schopenhauer był

filozofem, który koncentrował się na motywach jednostki. Doszedł do

wniosku, że nie są one zbyt piękne: tym, co motywuje ludzi, jest ich

wola, nie zaś intelekt, nawet jeśli oni sami stanowczo temu

zaprzeczają. W  publikacji z  1818 roku, Świat jako wola i  przedstawienie,


Schopenhauer napisał: „Człowiek może czynić to, co chce, ale nie może

[17]
chcieć tego, czego chce” . Krótko mówiąc, nasza wola (czyli

podświadoma motywacja) rządzi, a  nasz świadomy intelekt nie zdaje

sobie z  tego sprawy. Schopenhauer wyraził to jasno, kiedy opisał wolę

jako ślepą i  silną, a  intelekt –  jako obdarzony wzrokiem, ale chromy:

„Lecz porównaniem najtrafniejszym [obra-zującym stosunek między


tymi dwoma] jest silny ślepiec, który niesie na ramionach

[18]
kulawego” .

Ujęcie Schopenhauera przeniosło problem świadomości na dużo

większe boisko. Umysł z  jego procesami rozumowymi jest bardzo

przydatny, ale to wola –  to, co nas napędza –  okazuje się decydująca:

„wola (…) wypełnia znowu świadomość życzeniami, uczuciami,

[19]
namiętnościami, troskami” . Dzisiaj podświadome pomruki

świadomości nadal pozostają niezbadane. Zdołaliśmy poczynić tylko

niewielkie postępy w  tej dziedzinie. Do chwili, w  której piszę te słowa,

entuzjaści programu rozwoju sztucznej inteligencji (AI), którego celem

jest programowanie maszyn w  taki sposób, aby myślały jak ludzie,

całkowicie ignorowali ten aspekt życia psychicznego. To dlatego David

Gelernter, jeden z  czołowych informatyków na świecie, uważa, że

program rozwoju sztucznej inteligencji nigdy nie spełni pokładanych

w  nim oczekiwań. Gelernter wyjaśnia: „Jak dotąd twórcy i  badacze AI

nie mają nic do powiedzenia na temat emocji i  fizycznego ciała, więc

pomijają te sprawy milczeniem”. Jego zdaniem ludzki umysł zawiera

nie tylko dane i  myśli, lecz także uczucia. Ponadto każdy umysł jest

wytworem doświadczeń, emocji i  wspomnień danej osoby,

gromadzonych i  przetwarzanych w  ciągu całego życia: „Umysł mieści

się w  konkretnym ciele, a  świadomość jest dziełem całego ciała”.

Używając żargonu komputerowego, dodaje: „Mogę uruchomić daną

aplikację na dowolnym urządzeniu, czy jednak mogę uruchomić umysł

[20]
innej osoby w  twoim mózgu? Oczywiście, że nie” . Wyobraź sobie, że

Shaquille O’Neal i  Danny DeVito zamieniają się mózgami. Danny

pochylałby się w  każdych drzwiach, a  Shaq nie trafiałby do kosza,

chybiając o kilometry.

Wola –  według Schopenhauera –  jest wolą życia, popędem, który

popycha ludzi (i wszystkie zwierzęta) do reprodukcji. Najważniejszym

celem ludzkiego życia jest ostateczny produkt każdej historii miłosnej –


  potomstwo –  ponieważ to on decyduje o  tym, kto wejdzie w  skład

przyszłego pokolenia. Schopenhauer umieścił intelekt na tylnym

siedzeniu. Nie kieruje on naszym zachowaniem ani nie jest

wtajemniczony w  decyzje woli. Jest tylko rzecznikiem po godzinach –

 wymyśla opowieści, aby ex post facto wyjaśnić poczynania woli.

Poprzez detronizację świadomego umysłu Schopenhauer otworzył

puszkę Pandory z  nieświadomością. Opisał nasze wyraźne, świadome

idee jako po-wierzchnię zbiornika z wodą. W głębi znajdują się mgliste

uczucia, spostrzeżenia, intuicje i  doświadczenia, zmieszane z  naszą

osobistą wolą: „Świadomość jest tylko powierzchnią naszego ducha i  –

  podobnie jak w  przypadku ziemi –  nie znamy jej wnętrza, lecz tylko

[21]
powłokę” . Schopenhauer uważał, że nasze prawdziwe myślenie

rzadko przebiega na powierzchni, a co za tym idzie – na ogół nie można

go opisać jako sekwencji jasno sformułowanych sądów.

Schopenhauer zajrzał do świata nieświadomych procesów

psychicznych kilkadziesiąt lat przed tym, nim Freud skradł całe

przedstawienie. Nie była to jednak bynajmniej nowa idea. Przypomnij

sobie Galena i  jego spostrzeżenie, że duża część procesów cielesnych

przebiega bez udziału rozumu –  zwłaszcza te, które utrzymują ciało

przy życiu, takie jak oddychanie, a  także nasze naturalne popędy.

W  XIX wieku jednak ta idea nabrała rozpędu. W  1867 roku, po wielu

latach badania fizjologii oka, niemiecki wyznawca materializmu,

lekarz, fizyk i filozof nauki, Hermann von Helmholtz, wysunął tezę, że

w  percepcji wzrokowej istotną rolę odgrywa nieświadoma inferencja –

  mimowolny, przedrozumowy mechanizm przypominający odruchy:

układ wzrokowy w  mózgu zbiera surowe dane wzrokowe i  skleja je

[22]
w  nadzwyczaj spójny obraz . Był to inny typ przetwarzania niż ten

opisany przez Hume’a w  jego zasadzie kopii, ale i  ta idea nie była

[23]
nowa. Już w XI wieku przedstawił ją arabski uczony Ibn Al Hajsam .
Helmholz był mentorem innego wyznawcy materializmu –  lekarza

i  fizyka Ernsta Brückego. Obaj byli gorącymi zwolennikami idei, że

elementy składowe umysłu mają naturę fizyczną i  że związkami

przyczynowymi między tymi elementami rządzą te same prawa

mechaniczne, co fizyką czy chemią. Żadnych tchnień życiowych,

żadnego mistycyzmu, żadnych duchów. Umysł i  ciało stanowią jedność.

Brücke został profesorem fizjologii na Uniwersytecie Wiedeńskim.

W  przyszłości miał wywrzeć ogromny wpływ na jednego ze swoich

studentów –  Zygmunta Freuda. Czy potrafisz sobie wyobrazić radosne

podekscytowanie cechujące ówczesny klimat naukowy i  intelektualny?

Koniec z  duchami w  systemie! Jest tylko mózg złożony z  rozmaitych

elementów, których duża część działa poza świadomością, a  wszystkie

rządzą się prawami chemii i fizyki.

W 1868 roku holenderskiemu okuliście, Franciscusowi Dondersowi,

przyszła do głowy myśl, która miała wyposażyć badaczy

zainteresowanych zgłębianiem działania umysłu w  nowe narzędzie.

Donders zdał sobie sprawę, że na podstawie pomiarów różnic czasu

reakcji można wnioskować na temat różnic w  zakresie przetwarzania

poznawczego. Zasugerował, że czas, jaki zajmuje badanym rozpoznanie

danego koloru, jest różnicą pomiędzy czasem potrzebnym na

zareagowanie na konkretny kolor a  czasem reakcji na światło. Dzięki

temu pomysłowi psychologowie zdali sobie sprawę, że mogą badać

umysł poprzez pomiar zachowania. W  ten sposób narodziła się

psychologia eksperymentalna. Metoda zaproponowana przez Dondersa

oraz jego przełomowe odkrycia dotyczące zużycia tlenu przez mózg

doprowadziły do wielkiego przełomu w  wyjaśnianiu procesów

poznawczych przy użyciu obrazowania mózgu, zastosowanego po raz

pierwszy ponad sto lat później przez Marcusa Raichlego, Michaela

Posnera oraz ich współpracowników z Uniwersytetu Waszyngtońskiego

w Saint Louis.
Pomruki dotyczące głęboko ukrytego, nieświadomego umysłu można

było też usłyszeć w  Anglii, w  której idea ta była uznawana już w  1867

roku, o  czym świadczą słowa brytyjskiego psychiatry, Henry’ego

Maudsleya: „Przedświadoma aktywność umysłu, jak nazywają ją

niektórzy psychologowie metafizyczni w  Niemczech, oraz nieświadoma

aktywność umysłu, która została stwierdzona ponad wszelką

wątpliwość, to z  całą pewnością fakty, których –  co muszą przyznać

nawet najbardziej zagorzali zwolennicy psychologii introspekcyjnej –

[24]
 nie można wyjaśnić, odwołując się do samoświadomości” . Maudsley

dodaje, że „najważniejszą częścią działania umysłu, głównym procesem,

[25]
od którego zależy myślenie, jest nieświadoma aktywność umysłowa” .

Niedługo potem, w  roku 1878, rozpoczęto wydawanie brytyjskiego

czasopisma naukowego „Brain”. W  kolejnym roku swój artykuł w  tym

czasopiśmie opublikował wszechstronny uczony, Francis Galton. Autor

opisał w  nim wyniki eksperymentu, który przeprowadził na samym

sobie. Galton spoglądał na słowo napisane na kartce i  mierzył –  przy

użyciu stopera –  ile czasu zajęło mu skojarzenie z  tym słowem dwóch

idei, które następnie zapisywał. W  swoim eksperymencie wykorzystał

siedemdziesiąt pięć słów, a  zadanie to wykonał czterokrotnie

w  czterech bardzo różnych miejscach, w  odstępach około miesiąca.

Wyniki bardzo go zaskoczyły. Na podstawie listy siedemdziesięciu

pięciu słów, którą przerobił cztery razy, wygenerował zaledwie 289 idei.

W niemal 25% wypadków dane słowo za każdym razem przywodziło na

myśl te same skojarzenia, a  w 21% prób te same skojarzone słowa

pojawiały się podczas trzech spośród czterech sesji, co oznaczało dużo

mniejszą różnorodność, niż autor się spodziewał. „Drogi naszych

umysłów biegną głęboko wyżłobionymi koleinami” –  zauważył Galton

i sformułował taki oto wniosek:

Chyba największe wrażenie pozostawione przez te eksperymenty dotyczy wielorakiej

pracy, jaką wykonuje nasz umysł w  stanie półświadomości, oraz mocnych przesłanek
do przekonania o  istnieniu jeszcze głębszych warstw operacji mentalnych,

zatopionych całkowicie poniżej poziomu świadomości, które mogą wyjaśniać zjawiska

[26]
psychiczne, jakich w inny sposób nie można wytłumaczyć .

Jednocześnie świadomy umysł wkrótce miał się doczekać własnej

dyscypliny naukowej. W  1874 roku młody niemiecki profesor fizjologii,

Wilhelm Wundt, opublikował pierwszy podręcznik w  dziedzinie

psychologii eksperymentalnej, Grundzüge der physiologischen

Psychologie (Zasady psychologii fizjologicznej), w  któ-rym wytyczył

terytorium tej nowej dyscypliny, obejmujące badania myśli, percepcji

i  uczuć. Wundt interesował się szczególnie analizą świadomości

i  uważał, że właśnie na tym zagadnieniu powinna się koncentrować

psychologia. Opracował metodę badania świadomego doświadczenia

poprzez introspekcję. Miała ona obejmować obiektywną obserwację

własnych uczuć, emocji, pragnień i  myśli. Pięć lat później Wundt

otworzył na Uniwersytecie w  Lipsku pierwsze laboratorium

psychologiczne, zyskując przydomek ojca psychologii

eksperymentalnej. Twierdził, że metodą eksperymentalną można

odkryć przypominające prawa prawidłowości w  zakresie wewnętrznego

ludzkiego doświadczenia. Uważał, że neurofizjologia i  psychologia

badają ten sam proces z  różnych perspektyw –  pierwsza od środka,

a druga od zewnątrz.

Freud, nieświadomy umysł i wielka wolta


Dość rewolucyjna idea nieświadomego umysłu zyskała uznanie dzięki

wkładowi Zygmunta Freuda. Czy to szok wywołany przez teorie

psychoanalityczne Freuda zapewnił im tak wielką popularność?

W każdym razie na początku swojej kariery naukowej Freud porwał się

z  motyką na słońce. W  1895 roku opublikował pracę Projekt naukowej

psychologii, w której opowiedział się za skrajnie materialistyczną ideą,


że każde zdarzenie mentalne jest tożsame ze zdarzeniem

neurologicznym. Stwierdził, że pierwszym krokiem ku psychologii

naukowej jest wskazanie i  dokładne opisanie zdarzeń neuronalnych

związanych z  poszczególnymi zdarzeniami mentalnymi. Była to

wczesna wersja dzisiejszych poszukiwań neuronalnych korelatów

świadomości. Jakby tego było mało, Freud zaproponował kolejny krok –

  „redukcjonizm eliminacyjny”. Uważał, że słownictwo używane do

opisywania stanów mentalnych należy zastąpić nowym słownictwem

neurologicznym. Zamiast więc mówić o swojej zazdrości, powiedziałbyś,

że pole J2 w  twoim mózgu wysyła impulsy z  określoną częstością

i prędkością. Freud uwa-żał, że tego nowego języka powinni używać nie

tylko badacze mózgu, lecz wszyscy ludzie. Wszyscy bez wyjątku. Poezja

byłaby wówczas zupełnie inna, podobnie jak kartki walentynkowe:

„Moje p392J wysyła impulsy o  95% szybciej, kiedy moje pL987T

reaguje na twoją twarz”. Wydaje się, że współrzędne występujące po

słowie „moje” zajmowałyby zbyt dużo miejsca.

Ledwie jednak jego książka, jeszcze ciepła, wyszła z drukarni, Freud

zmienił zdanie –  całkowicie. Jak opisuje Owen Flanagan: „W 1895

roku, tym samym, w  którym ukazał się Projekt, Freud stwierdził, że

«próba fizjologicznego wyjaśnienia procesów psychicznych jest

[27]
bezcelową maskaradą»” . Co więcej, doszedł do wniosku, że

o  zdarzeniach mentalnych należy mówić wyłącznie językiem

psychologii. Żadnego redukcjonizmu. Flanagan upatruje źródeł tego

poglądu w  myśli niemieckiego filozofa, psychologa i  byłego księdza,

Franza Brentano, jednego z  wykładowców Freuda na studiach

medycznych.

Brentano pragnął, aby filozofia i  psychologia były uprawiane

metodami równie rygorystycznymi, jak te stosowane w  naukach

przyrodniczych. Wyróżnił dwa podejścia do psychologii: genetyczne

i  opisowe. Psychologia genetyczna miała badać procesy psychiczne


z  tradycyjnie empirycznej perspektywy trzeciej osoby, podczas gdy

psychologia opisowa, którą czasami nazywał „fenomenologią”,

koncentrowała się na opisywaniu świadomości z  subiektywnej

perspektywy pierwszoosobowej. Brentano zgadzał się z  poglądem

osiemnastowiecznych filozofów, że cała wiedza opiera się na

doświadczeniu, i  twierdził, że psychologia musi wykorzystywać

introspekcję, aby badać empirycznie wewnętrzne doświadczenia

człowieka. Odnajdujemy tutaj korzenie innej definicji pojęcia

„świadomość” –  uzmysławianie sobie i  subiektywne odczuwanie

doświadczenia fenomenologicznego –  do której wrócimy w  następnym

rozdziale.

Brentano utrzymywał, że różnica między zjawiskami mentalnymi

a  zjawiskami fizycznymi polega na tym, iż zjawiska fizyczne są

przedmiotem ze-wnętrznej percepcji, podczas gdy zjawiska mentalne

mają treść i zawsze są „o” czymś; innymi słowy, są ukierunkowane na

jakiś przedmiot. Owego przedmiotu – wyjaśnia Brentano – „nie należy

[28]
tutaj rozumieć jako konkretnej rzeczy” , lecz jako obiekt

semantyczny. Możesz więc pragnąć zobaczyć konia, ale równie dobrze

możesz pragnąć zobaczyć jednorożca, który jest obiektem całkowicie

wyobrażonym. Możesz także pragnąć wybaczenia, które, wyobrażone

lub rzeczywiste, jest obiektem semantycznym, a  nie przedmiotem,

który można położyć na stole. Brentano uważał, że wspomniany fakt

bycia „o czymś” jest główną cechą świadomości, i  opisywał status

obiektów myśli przy użyciu terminu „intencjonalne nieistnienie”. Owen

Flanagan pisze: „Ten pogląd, nazwany później «tezą Brentana»,

implikuje, że żaden język pozbawiony za-sobów pojęciowych, które

pozwoliłyby na uchwycenie istotnej treści stanów mentalnych, na

przykład język fizyki czy neuronauki, nie może trafnie opisać ważnych

[29]
faktów dotyczących zjawisk psychicznych” .
Na podstawie swoich doświadczeń w  pracy z  pacjentami, które

powiązał z  koncepcją procesów nieświadomych, Freud zbudował

systematyczną teorię psychologiczną. Podzielił umysł na trzy poziomy:

świadomość, obejmującą wszystko to, z  czego zdajemy sobie sprawę;

przedświadomość, zawierającą w  sobie zwyczajne wspomnienia,

które można przywołać i  przenieść do świadomości; oraz

nieświadomość – siedlisko uczuć, popędów, wspomnień i myśli, które

znajdują się poza świadomością. Idea, że procesy związane z emocjami,

pragnieniami i  motywacją są niedostępne świadomej refleksji, nie była

nowa. Przed Freudem rozważał ją nie tylko Kartezjusz, lecz także –

  jeszcze wcześniej –  święty Augustyn (w IV wieku) i  święty Tomasz

z Akwinu (w wieku XIII), a po Kartezjuszu – Spinoza i Leibniz. Freud

różnił się od nich przekonaniem, że większość nieświadomych treści

jest niestosowna. Ponadto zgodnie z jego teorią nieświadomość wpływa

na niemal wszystkie nasze myśli, uczucia, motywy, zachowania

i doświadczenia.

Może się wydawać dziwne, że Freud, który propagował ideę

psychologii naukowej, nigdy nie pozwolił, aby jego teorie psychologiczne

zostały zweryfikowane empirycznie na gruncie nowo powstałej

dyscypliny naukowej zwanej psychologią eksperymentalną. Chociaż

niektóre spośród jego tez znalazły potwierdzenie w  analizach

empirycznych –  na przykład dzisiaj rozpowszechniony jest pogląd, że

większość procesów poznawczych przebiega na poziomie nieświadomym

–  jego autorskie teorie psychopatologii nie zdały tego egzaminu i  w

[30]
większości trafiły do kosza .

Darwin rzuca wszystkim wyzwanie


Oprócz stopniowej akceptacji nieświadomych procesów psychicznych

wiek XIX przyniósł narodziny innej ważnej idei, która pojawiła się na
Wyspach Brytyjskich wraz z  publikacją dzieła Karola Darwina

O  powstawaniu gatunków w  roku 1859. Pierwsze wydania

błyskawicznie zniknęły z  półek księgarskich i  w krótkim czasie

wzbudziły międzynarodowe zainteresowanie. W zakończeniu tego tomu

Darwin odżegnał się od dualizmu umysł–ciało, pisząc: „Widzę

w  przyszłości otwierające się pola znacznie ważniejszych badań.

Psychologia oprze się z  pewnością na dobrze sformułowanym już przez

Herberta Spencera zdaniu, że każdą umiejętność i  każdą zdolność

duchową można osiągnąć tylko stopniowo. Wiele światła padnie na

[31]
kwestię pochodzenia człowieka i  jego historię” . Jakkolwiek

początkowo odzywały się głosy dezaprobaty, do czasu publikacji dzieła

O  pochodzeniu człowieka w  1871 roku sformułowana przez Darwina

teoria ewolucji na drodze doboru naturalnego zyskała akceptację

świata naukowego i  dużej części opinii publicznej. W  tej ostatniej

książce po szczegółowym przedstawieniu licznych przykładów ciągłości

atrybutów fizycznych i  psychicznych wspólnych dla zwierząt i  ludzi

Darwin doszedł do wniosku: „Niemniej jednak różnica między umysłem

człowieka i  wyższych zwierząt, mimo że jest wielka, jest różnicą

[32]
stopnia, a  nie rodzaju” . Ani myśląc obdarzyć zwierzęta

nieśmiertelną duszą, Darwin jeszcze raz wypowiedział się przeciwko

dualizmowi umysł–ciało.

Jak się często wspomina, Darwin był nadzwyczaj łagodnym

człowiekiem, który niemal przepraszał za to, że rzucił małpi granat

i  zachwiał przekonaniami wielu ludzi, w  tym również swojej żony.

Książkę O  powstawaniu gatunków zakończył optymistycznym, pełnym

nadziei przesłaniem do tej grupy czytelników:

Tak więc z  walki w  przyrodzie, z  głodu i  śmierci bezpośrednio wynika

najwznioślejsze zjawisko, jakie możemy pojąć, a  mianowicie powstawanie wyższych

form zwierzęcych. Wzniosły zaiste jest to pogląd, że Stwórca natchnął życiem kilka

form lub jedną tylko i  że gdy planeta nasza podlegając ścisłym prawom ciążenia
dokonywała swych obrotów, z  tak prostego początku zdołał się rozwinąć i  wciąż się

jeszcze rozwija nieskończony szereg form najpiękniejszych i  najbardziej godnych

[33]
podziwu .

Darwin uważał, że jego teoria musi także wyjaśniać ludzkie zdolności

psy-chiczne. Ta część teorii spotkała się z  ostrzejszym sprzeciwem.

Kwestionowali ją zarówno tradycyjni dualiści, jak i  zwolennicy

empiryzmu Locke’a i  Hume’a, orędownicy koncepcji ludzkiego mózgu

jako niezapisanej tablicy, przekonani, że cała wiedza pochodzi

z doświadczenia zmysłowego. Te spory na wiele lat zahamowały postęp

w  poszukiwaniach rozwiązania zagadki świadomości. Ostatecznie na

pierwszy plan wysunęło się inne podejście do psychologii, którego

korzenie tkwiły w  zaproponowanych przez Hume’a zasadach

kojarzenia: behawioryzm.

***

Przed końcem XIX wieku wielu filozofów obstawało przy idei, że umysł

musi dysponować swoim fizycznym mózgiem, który w  jakiś sposób

mieści w  sobie wspomnienia i  procesy poznawcze. Niektórzy fizjolodzy

dodawali do tego nerwy rdzeniowe, jeszcze inni twierdzili, że częścią

tego pakietu jest cały organizm.

Locke oddzielił umysł od duszy i obdarzył go racjonalnym myśleniem,

działaniami moralnymi oraz wolną wolą. Umysł stanowi podstawę

świadomości, woli i  osobowości, ale jest zawodny i  może wytwarzać

złudzenia i  błędy, a  jego jedyną walutą są świadome idee. Nic nie

wydostaje się na powierzchnię z  głębin nieświadomości. Locke ominął

problem tego, w  jaki sposób materia może wytwarzać coś takiego, jak

wolna wola, dodając do tego równania wszechmocnego Boga

i  stwierdzenie, że właśnie Bóg to sprawił. Hume wyeliminował

z  równania siły nadprzyrodzone i  próbował stworzyć prawdziwą naukę

o  ludzkim umyśle. Zdawał sobie przy tym sprawę z  niedoskonałości


ludzkiego umysłu i  z tego, że nasze myśli zawsze są ograniczone przez

jego możliwości. Z  tego powodu zakwestionował filozoficzne podstawy

mechaniki Newtona jako sposobu patrzenia na świat, podważając

fundamentalne rozumienie przyczynowości fizycznej.

Schopenhauer uważał, że kierują nami nieświadome motywy

i  intencje, nie zaś świadome myślenie, co czyni go apologetą podejścia

a  posteriori. Helm-holtz wykazał, że nasze systemy percepcyjne nie

tworzą wiernych kopii rzeczywistości, lecz raczej łączą ze sobą

informacje percepcyjne, kierując się domysłami i przypuszczeniami. Aż

wreszcie zjawił się Darwin, który umieścił ludzki mózg na kontinuum

ewolucyjnym i polecił nam, abyśmy nie mieszali do tego Boga i odwołali

się do doboru naturalnego, aby zrozumieć, w  jaki sposób nasz mózg

osiągnął swoją dzisiejszą postać.

Oto więc wkraczamy w  wiek XX, nadal zdezorientowani, nadal

poszukujący odpowiedzi na te same pytania, lecz wyposażeni w  parę

nowych strategii: badanie różnic w zakresie czasu reakcji na konkretne

zadania oraz nową psychologię opisową skoncentrowaną na

subiektywnej perspektywie pierwszej osoby. Następne stulecie miało

się okazać pełne nowych spostrzeżeń, nowych odkryć naukowych

i zupełnie nowych sposobów myślenia o świadomości. Człowiek dokonał

rozszczepienia atomu, rozszyfrował kod DNA, wylądował na Księżycu

i nauczył się obrazować żywy ludzki mózg. Z pewnością sporo się działo

również w dziedzinie wyjaśniania problemu świadomości.

[1]
Tłum. Maciej Słomczyński.

[2]
Locke, 1955, tłum. Bolesław J. Gawecki, s. 136.

[3]
Ibidem, s. 121.

[4]
Ibidem, s. 471.

[5]
Hume, 1846, s. 35.

[6]
Brown, 2003.
[7]
Hume, 1963, tłum. Czesław Znamierowski, s. 5.

[8]
Tytuł oryginalny: A Treatise on Human Nature: Being an Attempt

to Introduce the Experimental Method of Reasoning into Moral Subjects

(Traktat o  naturze ludzkiej będący próbą wprowadzenia

eksperymentalnej metody rozumowania do tematów moralnych; przyp.

tłum.).

[9]
Hume, 1963, tłum. Czesław Znamierowski, s. 16.

[10]
Hume, 1740.

[11]
Hume, 2005, tłum. Dawid Misztal i Tomasz Sieczkowski, s. 25.

[12]
Hume, 2011, s. 187.

[13]
Hume, 1963, tłum. Czesław Znamierowski, s. 327.

[14]
Ibidem, s. 330.

[15]
Ibidem, s. 328.

[16]
Schopenhauer, 2004, s. 223.

[17]
W rzeczywistości autorem tego zdania jest Einstein, który

sparafrazował myśl Schopenhauera zawartą w  publikacji O  wolności

ludzkiej woli (przyp. tłum.).

[18]
Schopenhauer, 1995, tłum. Jan Garewicz, s. 297.

[19]
Ibidem, s. 530.

[20]
King i Von Drehle, 2016.

[21]
Schopenhauer, 1995, tłum. Jan Garewicz, s. 190.

[22]
Von Helmholtz, 1924, t. 3.

[23]
W krajach Zachodu znany jako Alhazen (przyp. tłum.).

[24]
Maudsley, 1867, s. 15.

[25]
Ibidem, 120.

[26]
Galton, 1879.

[27]
Flanagan, 1984, s. 60.

[28]
Brentano, 1995, s. 68.

[29]
Flanagan, 1984, s. 62.
[30]
Westen, 1998, s. 333.

[31]
Darwin, 2001, tłum. Szymon Dickstein, s. 559.

[32]
Darwin, 1959, tłum. Stanisław Panek, s. 80.

[33]
Darwin, 2001, tłum. Szymon Dickstein, s. 560.
ROZDZIAŁ III
Dwudziestowieczne postępy i początki nowego myślenia
Wciąż jednak istnieją ludzie – i ja się do nich zaliczam – którzy twierdzą, że najpraktyczniejsze
i najważniejsze, co trzeba wiedzieć o drugim człowieku, to jego wizja wszechświata. (…) Sporne
jest nie to, czy świat materialny zmienia się za sprawą naszych idei, lecz czy na dłuższą metę
zmienia się za sprawą czegokolwiek innego[1].
– G.K. Chesterton

Na początku XX wieku filozofia umysłu i  mózgu nadal była podzielona

na dwa walczące ze sobą obozy: racjonalistów i empirystów. Pod koniec

ubiegłego stulecia –  jak się przekonamy –  sytuacja nie przedstawiała

się dużo lepiej. To prawie tak, jakby ludzkie mózgi dysponowały

ograniczonym zbiorem idei i  jakby niezależnie od dostępnych danych

naukowych czy aktualnego klimatu intelektualnego zawsze głoszono

jeden z  tych dwóch poglądów. Wróćmy jednak do początków ubiegłego

stulecia. Oto nadszedł czas, aby do dyskusji włączyły się wschodzące

gwiazdy naukowe z  Ameryki. William James był pierwszym, który

uważnie przyjrzał się zagadnieniu świadomości. W  1907 roku wygłosił

na Harvardzie cykl wykładów, który rozpoczął przytoczonym wcześniej

cytatem z  wypowiedzi G.K. Chestertona, stanowiącym eleganckie

podsumowanie wielkiego pytania filozofii, dotyczącego zależności

między umysłem a  mózgiem: czy stan umysłu –  niematerialne

przekonanie, idea – może wpływać na materię, czyli na stan mózgu?

James zgodził się z  Chestertonem, że jest to pytanie wielkiej wagi.

Tematem jego wykładów była nowa metoda filozoficzna –

  pragmatyzm, koncepcja jego przyjaciela, Charlesa Peirce’a, która

wyrosła z dyskusji, jakie obaj toczyli z innymi filozofami i prawnikami

podczas spotkań Klubu Metafizycznego, istniejącego przez krótki czas,


ale nader wpływowego salonu intelektualnego, który Chesterton

i  Peirce założyli w  Cambridge w  stanie Massachusetts w  la-tach

siedemdziesiątych XIX wieku. Pragmatyzm nie wzbudzał wielkiego

zainteresowania do czasu, gdy James rozwinął go i  rozpropagował

dwadzieścia lat później. W  wykładzie pierwszym James zwrócił uwagę

na coś, co było „ukryte na widoku” –  fakt, że filozofowie oraz ich

poglądy filozoficzne ulegają wpływowi ich temperamentu.

Historia filozofii jest w  znacznej mierze historią ścierania się temperamentów

ludzkich. (…) Bez względu na to, jaki temperament miałby filozof profesjonalista,

filozofując, zawsze stara się o  nim zapomnieć. Temperamentu nie uważa się na ogół

za wyjaśnienie, toteż filozof twierdzi, że jego konkluzje wynikają wyłącznie z  racji

obiektywnych. A jednak to właśnie temperament ma nań wpływ znacznie większy niż

przesłanki czysto obiektywne. To temperament tak, a  nie inaczej każe interpretować

nagromadzone świadectwa, podsuwając bardziej sentymentalny lub bardziej trzeźwy

obraz świata. Filozof zdaje się na swój temperament. Pragnąc, by świat był zgodny

z  jego temperamentem, filozof wierzy w  każdy obraz świata, który odpowiada jego

[2]
wymogom .

Na tym właśnie polegała wielka, zuchwała rola Amerykanów. James

podzie-lił amerykańskich filozofów na dwie grupy według ich

temperamentów: „lekkostopych bostończyków” i  „twardzieli z  Gór

Skalistych”. Dostrzegł tę dychotomię temperamentów nie tylko

w  filozofii, lecz także w  literaturze, sztuce, sposobach rządzenia

i  obyczajach. Każda z  tych grup, rzecz jasna, ma bardzo niskie

mniemanie o  drugiej: „Ich wzajemny stosunek bardzo przypomina

stosunek turystów z  Bostonu do mieszkańców takich miejsc, jak

Cripple Creek. Każdy z  przedstawicieli danego typu przekonany jest

o  niższości drugiego, ale pogarda w  tym drugim przypadku miesza się

z  rozbawieniem, podczas gdy w  pierwszym ma w  sobie coś z  lęku”.

James przedstawia krótką charakterystykę tych dwóch grup. Łagodni

bostończycy o  delikatnych stopach cechują się racjonalizmem (kierują


się abstrakcyjnymi, ponadczasowymi zasadami), intelektualizmem,

idealizmem (wierzą, że wszystko zaczyna się w  umyśle), optymizmem,

religijnością, wiarą w  wolną wolę, monizmem (racjonalizm zaczyna się

bowiem od całości i uniwersaliów i prowadzi do jedności wszechrzeczy)

i dogmatyzmem. W głębi duszy Kartezjusz był jednym z nich!

Twardziele z  Gór Skalistych, przeciwnie, są empirystami (miłują

fakty w całej ich rozmaitości), sensualistami, materialistami (wszystko

jest material-ne, nie istnieje żaden niematerialny umysł), pesymistami,

ludźmi niereligijny-mi, fatalistami, zwolennikami pluralizmu (jako

empiryści zaczynają od części i traktują całość jako zbiór owych części)

i sceptykami (czyli są otwarci na dyskusję). Hume był twardzielem!

James zdawał sobie jednak sprawę, że w  większości nie jesteśmy

czystymi przykładami jednego lub drugiego typu:

Większość nas pragnie wszystkiego, co dobre, po obu stronach. Fakty są, rzecz jasna,

czymś dobrym –  dajcie nam więc jak najwięcej faktów. Zasady są czymś dobrym –  a

więc dajcie nam jak najwięcej zasad. Świat bez wątpienia jawi się jako jedność, gdy

spojrzeć nań z jednej perspektywy; i bez wątpienia jest on wielością, gdy spojrzeć nań

z  perspektywy innej. Jest zarówno jednością, jak i  wielością –  niechaj wolno nam

będzie przyjąć coś w  rodzaju pluralistycznego monizmu. Wszystko ulega

nieuchronnemu determinizmowi, my jednak mamy, rzecz jasna, wolną wolę:

prawdziwą filozofią jest więc woluntarystyczny determinizm. Faktu zła cząstkowego

zanegować nie sposób, jednak całość nie może być zła; tak więc praktyczny pesymizm

połączyć można z  metafizycznym optymizmem. I  tak dalej –  przeciętny filozofujący

laik nigdy nie jest radykalny, nigdy nie porządkuje swego systemu, lecz przemieszcza

się z  jednej nieokreślonej, ale wiarygodnej jego części, do następnej, w  zależności od

[3]
pokusy chwili .

Tych jednak, którzy traktują filozofię bardziej poważnie, „drażni

nadmiar niespójności i  wątpliwości w  naszym credo. Nie zaznamy

spokoju naszego intelektualnego sumienia, dopóki będziemy łączyć ze

sobą niewspółmierne składniki z obu kolumn”.


James opisuje więc typowego laika jako człowieka pragnącego

faktów, nauki i religii. Tymczasem oferowano mu „filozofię empiryczną,

w  niedostatecznym stopniu religijną, oraz filozofię religijną, która nie

[4]
jest dość empiryczna” . Potrzebna była praktyczna pomoc, a  nie

oderwana od rzeczywistości filozofia absolutystyczna, aby sprawnie

poruszać się po świecie, którego mieszkańcy interesowali się nauką,

jaką byli bombardowani, a  jednocześnie znajdowali pociechę w  religii

czy w  romantyzmie. James uważał, że metoda pragmatyczna zapewni

ludziom taką pomoc. Metoda ta opiera się na idei, że nasze

przekonania służą nam jako reguły działania. Kiedy więc formułujemy

jakieś przekonanie, stajemy się skłonni do postępowania w  określony

sposób. Aby zrozumieć znaczenie danego przekonania, trzeba po prostu

ustalić, jakie działanie będzie ono za sobą pociągać. Jeśli zaś dwa

odmienne przekonania prowadzą do tego samego działania, to nie

zawracajmy sobie tym głowy:

Metoda pragmatyczna jest głównie metodą rozstrzygnięcia kwestii metafizycznych

w innym razie nierozstrzygalnych. Czy istnieje jeden, czy wiele światów? Czy istnieje

w  nim wolność, czy determinizm? Czy jest on natury materialnej, czy duchowej? Oto

pojęcia, które mogą się doń odnosić albo i  nie; dyskusje wokół owych pojęć nie mają

końca. Metoda pragmatyczna polega w  takich przypadkach na próbie interpretacji

każdego z  tych pojęć poprzez prześledzenie wypływających z  niego praktycznych

konsekwencji. Jaka praktycznie różnica wynikałaby dla kogokolwiek z  tego, że

prawdziwe okazało się raczej to pojęcie, a nie inne? Jeśli nie sposób zauważyć żadnej

takiej różnicy, wówczas powyższe alternatywy oznaczają z  praktycznego punktu

widzenia dokładnie to samo, a  cała dyskusja jest jałowa. W  przypadku zaś każdej

rzeczowej dysputy powinniśmy być w  stanie ukazać jakieś praktyczne różnice,

[5]
płynące stąd, że albo jedna strona sporu ma rację, albo druga .

Chociaż pragmatyzm opiera się na idei, że stan mentalny może być

przyczyną działania, jest on tylko metodą i  jako taki nie faworyzuje

określonych rezultatów. Pozostaje otwarty na rozmaite metody


stosowane na gruncie różnych nauk. Jest jednak metodą, która odrzuca

aprioryczną metafizykę i  niekończące się intelektualistyczne

wyjaśnienia ludzkiego myślenia. Był atrakcyjny dla psychologów

zainteresowanych procesami bodziec–reakcja, zwolenników

zaproponowanej przez Hume’a teorii kojarzenia (asocjacji), którzy

zdominowali nową dyscyplinę naukową, psychologię eksperymentalną,

zapocząt-kowaną przez Wilhelma Wundta, a  następnie rozwiniętą

i  sprowadzoną do Nowego Jorku przez jego studenta,

charyzmatycznego psychologa Edwarda Titchenera. Inną szczególnie

wpływową postacią był Edward Thorndike, który w  swojej

opublikowanej w  1898 roku monografii Animal Intelligence: An Expe-

rimental Study of the Associative Processes in Animals (Inteligencja

zwierząt. Ekspe-rymentalne studium procesów asocjacyjnych

u  zwierząt) sformułował pierwszą ogólną tezę dotyczącą natury

skojarzeń: prawo efektu. Thorndike zauważył, że reakcja, po której

następuje nagroda, utrwala się w  organizmie jako reakcja nawykowa

oraz że taka reakcja zaniknie, jeśli przestanie być nagradzana.

Mechanizm bodziec–reakcja potencjalnie mógł być mechanizmem

utrwalania się coraz bardziej adaptacyjnych reakcji.

Psychologia badająca zależności bodziec–reakcja, nazywana

behawioryzmem, szybko zdominowała badania procesów asocjacyjnych

w  Ameryce. Behawioryści wychodzili z  założenia, że właściwym

przedmiotem zainteresowania psychologii nie jest subiektywne

doświadczenie psychiczne, lecz zachowanie, które należy badać przy

użyciu metod stosowanych w  naukach przy-rodniczych, nie zaś

introspekcji. Uważali, że kiedy weźmie się pod uwagę okre-ślony

bodziec środowiskowy, zachowanie każdego zwierzęcia – w tym również

człowieka –  można wyjaśnić stałą, przypominającą prawo naturalne

skłonnością do reagowania w określony sposób.


Nową dyscyplinę zdominowała niezwykle dynamiczna postać, John

B. Watson. Uważał on, że psychologia może być obiektywna tylko

wtedy, gdy będzie się opierać na obserwowalnym zachowaniu. Odrzucał

wszelkie rozważania na temat procesów psychicznych, które nie

poddają się publicznej obserwacji. Zaglądanie do czarnej skrzynki

mózgu było verboten. Ignorując przedstawioną przez Darwina teorię

wrodzonych procesów psychicznych, Watson stał się orędownikiem

poglądu, że wszyscy ludzie mają jednakowe wyposażenie neuronalne;

umysł jest niezapisaną tablicą, a w każdym dziecku można wykształcić

dowolną umiejętność poprzez uczenie się oparte na bodźcach

i  reakcjach oraz nagradzanie pożądanych zachowań. Wkrótce

większość dziekanów wydziałów psychologii na amerykańskich

uniwersytetach podzielała ów pogląd, lekceważąc tezę Darwina

o  złożoności wbudowanej w  ludzki organizm przez proces doboru

naturalnego i  ewolucję. Behawioryzm królował w  Stanach

Zjednoczonych przez pół wieku, wiele lat pod wodzą swego

największego orędownika, profesora psychologii na Harvardzie, B.F.

Skinnera.

Oczywiście nawet w  czasie, gdy świat akademicki jest zdominowany

przez jakiś wielki nurt, pojawiają się idee stojące wobec niego

w  opozycji. W  okresie dominacji behawioryzmu powstały więc nowe

metody badania procesów umysłowych, które nie tylko stopniowo

przeniknęły do psychologii eksperymentalnej, lecz także stały się

[6]
ważnymi narzędziami badawczymi w  czasach współczesnych .

Rozważania na temat stanów mentalnych i  świadomości były jednak

wykluczone w  Stanach Zjednoczonych aż do wybuchu rewolucji

poznawczej pod wodzą George’a A. Millera z Harvardu i narodzin teorii

mentalizmu autorstwa Rogera W. Sperry’ego z  California Institute of

Technology (Caltech) w połowie ubiegłego stulecia.


Opór Kanadyjczyków i narodziny współczesnej neuronauki
Na szczęście badacze z  Kanady nie ulegli modzie na behawioryzm.

Wybitny montrealski neurochirurg, Wilder Penfield, dokonywał

zdumiewających odkryć, badając pacjentów, którzy cierpieli na napady

padaczkowe możliwe do opanowania wyłącznie poprzez operacyjne

usunięcie fragmentu kory mózgowej będącego ich ogniskiem. Aby

określić położenie ognisk padaczki, Penfield stymulował elektrycznie

części kory mózgowej i obserwował reakcje pacjenta. W trakcie zabiegu

pacjent był przytomny (stosowano jedynie znieczulenie miejscowe),

dzięki czemu mógł informować chirurga, co czuje, a  czego nie czuje.

Penfield sporządził mapy kory czuciowej i  ruchowej, odpowiadające

poszczególnym częściom ciała. Innymi słowy, odwzorował fizyczną

[7]
reprezentację ludzkiego ciała w mózgu . Owa reprezentacja nie miała

jednak normalnych proporcji, lecz była proporcjonalna do stopnia

unerwienia poszczególnych części ciała: im bardziej unerwiona dana

część, tym większy odpowiadający jej obszar mózgu. Penfield wraz ze

swoim bliskim współpracownikiem, fizjologiem Herbertem Jasperem,

zapoczątkował proces wyjaśniania lokalizacji funkcji mózgowych.

Penfield napisał: „Świadomość trwa nadal, niezależnie od tego, jaki

fragment kory mózgowej zostanie usunięty. Z  drugiej strony

świadomość nieuchronnie znika, kiedy funkcje górnej części pnia

[8]
mózgu (międzymózgowia ) są zaburzone na skutek urazu,

podwyższonego ciśnienia, choroby lub miejscowego wyładowania

padaczkowego”. Zaraz jednak zastrzegł: „sugestia, jakoby istniał

kawałek mózgu, w  którym mieści się świadomość, oznaczałaby

przywołanie Kartezjusza i zaoferowanie mu zamiennika szyszynki jako

[9]
siedliska duszy” .

Następnie Penfield wyjaśnia, że chociaż informacje sensoryczne są

przetwarzane przez międzymózgowie, czyli obszary podkorowe,


informacje wędrują w  tę i  z powrotem między strukturami

podkorowymi a  różnymi częściami kory mózgowej: „Tak więc rozmaite

procesy umysłowe mogą zachodzić dzięki połączonej aktywności

międzymózgowia i  kory mózgowej, nie zaś w  samym

[10]
międzymózgowiu” . Autor stwierdza również, że ostatnim procesem

koniecznym do powstania świadomego doświadczenia jest skupienie

uwagi na stanie mentalnym, który je generuje. Przewiduje przy tym, że

ów proces jest jedną z  funkcji międzymózgowia. Z  tych rozważań

możemy wnioskować, że Penfield używa słowa „świadomość” w  dwóch

znaczeniach. Za pierwszym razem mówi o  stanie czuwania

i  przytomności, czyli o  przeciwieństwie śpiączki. W  dwóch kolejnych

wypadkach ma na myśli świadomość w  rozumieniu Kartezjusza, czyli

myślenie, bądź też myślenie o  myśleniu, i  dodaje, że nieodzownym

elementem tak pojętej świadomości jest koncentracja uwagi.

Penfield zaprosił do swojego zespołu psychologa, Donalda Hebba,

który miał badać skutki urazów mózgu u  jego pacjentów oraz wpływ

operacji neurochirurgicznych na funkcjonowanie mózgu. Podobnie jak

większość ludzi, którzy zajmują się badaniem pacjentów z  urazami

mózgu, Hebb doszedł do przekonania, że działanie tego organu

wyjaśnia zachowanie. Chociaż dzisiaj to stwierdzenie może nam się

wydawać oczywiste –  podobnie jak przed wiekami Galenowi –  w roku

1949, w  którym Hebb wydał książkę The Organization of Behavior:

A  Neuropsychological Theory (Organizacja zachowania. Teoria

neuropsy-chologiczna), wielu ludzi pozostawało pod urokiem dualizmu

umysł–ciało. W  czasach, gdy psychologia nadal tkwiła w  żelaznym

uścisku behawioryzmu, Hebb szturmem zdobył świat psychologiczny,

kiedy śmiało wszedł do czarnej skrzynki mózgu, nic sobie nie robiąc

z  zakazów i  ograniczeń narzuconych przez empirystę Hume’a i  przez

behawiorystów. Wysunął tezę, że duża liczba neuronów może się

połączyć w  koalicję, aby stać się odrębną jednostką przetwarzania.


Wzory połączeń między neuronami w  takich jednostkach, które mogą

się zmieniać, tworzą algorytmy (które również mogą się zmieniać wraz

ze zmianą wzorów połączeń) determinujące reakcję mózgu na dany

bodziec. Z  tej idei wywodzi się powiedzenie: „Komórki, które strzelają

razem, łączą się ze sobą”. Zgodnie z  tą teorią proces uczenia się ma

swoją podstawę biologiczną we wzorach łączenia się neuronów. Hebb

zauważył, że mózg pozostaje aktywny przez cały czas, nie tylko wtedy,

gdy jest stymulowany; bodźce z zewnątrz mogą jedynie modyfikować tę

nieprzerwaną aktywność. Koncepcja Hebba wydała się sensowna

badaczom projektującym sztuczne sieci neuronowe i  znalazła

zastosowanie w  programach komputerowych. Poprzez otwarcie czarnej

skrzynki mózgu i  zajrzenie do środka Hebb wykonał również pierwszy

krok, który zapoczątkował rewolucję przeciwko behawioryzmowi.

Rewolucja poznawcza w Ameryce


Żelazny uścisk, w  jakim behawioryzm trzymał amerykańską

psychologię, za-czął się rozluźniać w  latach pięćdziesiątych XX wieku,

kiedy grupa młodych, błyskotliwych badaczy umysłu, takich jak Allen

Newell, Herbert Simon, Noam Chomsky i  George Miller,

zapoczątkowała psychologię poznawczą. Miller na przykład zrobił to, co

powinien zrobić naukowiec, kiedy przedstawi mu się nowe,

przekonujące dowody empiryczne – zmienił zdanie. Miller zajmował się

badaniem mowy i  słyszenia na Harvardzie, kiedy napisał swoją

pierwszą książkę, Language and Communication (Język

i  komunikacja). William James byłby pod wrażeniem szczerej

przedmowy, w  której Miller nie ukrywał swojej stronniczości:

„Przejawiam skrzywienie behawiorystyczne”. W  części poświęconej

psychologii, w  której autor omówił różnice w  zakresie sposobów

używania języka, przedstawiony przezeń probabilistyczny model


doboru słów opierał się na behawiorystycznym mechanizmie uczenia

się poprzez kojarzenie. Tytuł podręcznika, napisanego przez Millera

jedenaście lat później, Psychology: The Science of Mental Life

(Psychologia. Nauka o  życiu mentalnym), świadczył o  całkowitym

odrzuceniu stanowiska, że psychologia powinna badać wyłącznie

zachowanie. Tym, co skłoniło Millera do zmiany zdania, był rozwój

teorii informacji –  wprowadzenie języka programowania IPL–I

(Information Processing Language I), języka komputerowego,

w  którym zastosowano wyniki pierwszych programów rozwoju

sztucznej inteligencji oraz idee geniusza komputerowego, Johna von

Neumanna, dotyczące organizacji neuronalnej. Zgodnie z  koncepcją

Neumanna mózg może działać niczym komputer masowo

[11]
równoległy . Przetwarzanie równoległe oznacza, że kilka programów

może działać równocześnie, w  odróżnieniu od programowania

seryjnego, w  którym w  danym momencie może działać tylko jeden

program.

W oczach Millera ostatnim gwoździem do trumny behawioryzmu

mogło być poznanie błyskotliwego językoznawcy, Noama Chomskiego.

Chomsky zatrząsł posadami świata psychologicznego, kiedy wykazał,

że sekwencyjna przewidywalność mowy opiera się na regułach

gramatycznych, nie zaś proba-bilistycznych. Owe reguły gramatyczne

okazały się szokujące – wrodzone i uni-wersalne. Innymi słowy, istnieją

u wszystkich ludzi i są wbudowane w nasz mózg już w chwili narodzin.

Ot tak, w  jednej chwili, koncepcję niezapisanej tablicy trzeba było

wyrzucić na śmietnik, chociaż wrzeszczała przy tym i  wierzgała,

a niektóre z jej wrzasków słychać jeszcze dzisiaj.

We wrześniu 1956 roku Chomsky opublikował artykuł Three Models

for the Description of Language (Trzy modele opisu języka), w  którym

przedstawił wstępną wersję swoich idei dotyczących teorii

syntaktycznych. Zdobywając szturmem świat językoznawstwa,


Chomsky w  jednej chwili zmienił naukę o  języku. Po lekturze tego

artykułu Miller doszedł do wniosku, że asocjacjonizm –  ulubieniec

behawiorystów, a  w szczególności radykalnego behawiorysty B.  F.

Skinnera –  nie może wyjaśnić procesu uczenia się języka. Jakkolwiek

beha-wioryści wyjaśnili pewne aspekty ludzkich zachowań, w  czarnej

skrzynce mózgu działo się coś jeszcze, czego behawioryści nie umieli

i  nigdy nie zdołają wytłumaczyć. Nadszedł czas, aby podjąć próbę

rozwikłania tej zagadki.

Miller zaczął analizować psychologiczne implikacje teorii

Chomskiego, przy czym jego ostatecznym celem było zrozumienie,

w  jaki sposób mózg i  umysł działają razem jako zintegrowana całość.

W  tamtych czasach Miller odnosił się jednak nieufnie do jednego

z  aspektów życia psychicznego. W  książce Psychology: The Science of

Mental Life napisał, że badanie świadomości trzeba na razie odłożyć na

półkę: „Świadomość jest słowem wyświechtanym przez milion ję-zyków.

W  zależności od wybranej figury retorycznej, jest stanem istnienia,

sub-stancją, procesem, miejscem, epifenomenem, emergentnym

aspektem materii lub jedyną prawdziwą rzeczywistością. Może

należałoby zakazać używania tego słowa na dekadę lub dwie –  do

czasu, gdy zdołamy wymyślić bardziej precyzyjne terminy

w  odniesieniu do licznych znaczeń, jakie dzisiaj zaciemnia wyraz

[12]
«świadomość»” .

Słowo „świadomość”, którego Kartezjusz używał w  znaczeniu myśli,

bądź też myśli na temat myśli, przez wszystkie te lata rozrosło się

i  nabrało dodatkowych znaczeń. Oprócz tych wymienionych przez

Millera pojawiły się inne –  świadomość (consciousness) splotła się

z  pojęciami przytomności (awareness), samoświadomości (self-

awareness), samowiedzy (self-knowledge), dostępu do informacji

i subiektywnego doświadczenia. Podczas gdy większość badaczy poszła

za radą Millera i  odłożyła badanie świadomości na półkę, jedna


nieustraszona grupa tego nie zrobiła. Zamiast tego sporządziła

inwentarz tego, co ówczesna nauka miała do powiedzenia na temat

świadomości.

Poszukiwanie jasności w Watykanie


Podczas gdy Miller próbował trzymać słowo „świadomość” pod kluczem,

Papieska Akademia Nauk (Pontificia Academia Scientiarum) umieściła

je na pierwszym planie podczas tygodniowej sesji naukowej w  1964

roku. Korzenie tego towarzystwa naukowego sięgają Akademii Rysiów,

założonej w  1603 roku przez osiemnastowiecznego rzymskiego księcia

i  przyrodnika, Federica Cesiego, którego wuj był ustosunkowanym

kardynałem. Cesi założył Akademię, aby zgłębiać nauki przyrodnicze

poprzez obserwację, eksperymenty i  rozumowanie indukcyjne. Jako

symbol tych celów w  godle Akademii umieścił bystrookiego rysia.

W 1610 roku przewodniczącym Akademii został Galileusz.

Były to niepewne czasy dla tego rodzaju przedsięwzięć. Akademia nie

prze-trwała przedwczesnej śmierci Cesiego w wieku czterdziestu pięciu

lat. W  1847 roku wskrzesił ją papież Pius IX pod nazwą Papieskiej

Akademii Nowych Ry-siów. Później, po zjednoczeniu Włoch oraz ich

oddzieleniu od Watykanu w  1870 roku, Akademia Nowych Rysiów

podzieliła się na dwie części: Królewską Narodową Akademię Rysiów,

działającą pod flagą włoską, oraz drugą, przyszłą Pa-pieską Akademię

Nauk, zreorganizowaną w  1936 roku przez papieża Piusa XI i  mającą

swoją siedzibę w  Watykanie. Akademia, choć założona przez papieża

i  położona na terenie Ogrodów Watykańskich, prowadzi swoje badania

bez żadnych ograniczeń. Należą do niej naukowcy reprezentujący wiele

krajów i  dyscyplin naukowych, a  jej celem jest „działanie na rzecz

postępu nauk matematycznych, fizycznych i  przyrodniczych oraz

zgłębianie związanych z  nimi zagadnień i  problemów


epistemologicznych”. We wrześniu 1964 roku Papieska Akademia Nauk

zorganizowała tygodniową sesję naukową zatytułowaną „Mózg

i  świadome doświadczenie”, którą miał poprowadzić znany lekarz

i fizjolog, Sir John Eccles.

Eccles był Australijczykiem. Podczas studiów medycznych był nie

tylko zapalonym studentem, lecz także skoczkiem o  tyczce. Lektura

O  pochodzeniu gatunków podczas zajęć z  zoologii zachęciła go do

sięgnięcia do pism filozoficznych –  klasycznych i  współczesnych –

[13]
 poświęconych problemowi umysł––mózg . Ponieważ studia medyczne

nie udzieliły odpowiedzi na jego pytania dotyczące interakcji między

[14]
ciałem i  umysłem, Eccles postanowił zostać neuronaukowcem .

Postanowił także zdobyć stypendium Rhodes Trust na Uniwersytecie

Oksfordzkim i  pracować ze słynnym neuropsychologiem Charlesem

Sherringtonem. Jak postanowił, tak zrobił. W  1925 roku wyruszył na

drugi koniec świata, do Anglii.

Eccles zajął się badaniem mechanizmu neurotransmisji w  synapsie.

Początkowo był przekonany, że jest to przewodzenie elektryczne. W tym

okresie poznał filozofa Karla Poppera, który podkreślał, że siła

hipotezy zależy od nieudanych prób jej sfalsyfikowania na drodze

wnikliwych badań, nie zaś od dowodów wydających się ją potwierdzać,

i  pod jego wpływem postanowił poddać swoją hipotezę rygorystycznym

testom. W  wyniku owych testów zmienił zdanie –  doszedł do wniosku,

że przewodzenie synaptyczne jest procesem chemicznym. Ta wolta

skłoniła jego wieloletniego przyjaciela, Henry’ego Dale’a, do napisania:

„Cóż za niezwykłe nawrócenie! Przywodzi na myśl, prawie

nieuchronnie, Szawła w  drodze do Damaszku, gdy nagle olśniła go

[15]
światłość z  nieba i  łuski spadły mu z  oczu” . Przez następną dekadę

Eccles skupił się na wyjaśnianiu mechanizmów pobudzenia

i  hamowania w  synapsach neuronów ruchowych w  rdzeniu kręgowym,

aby następnie przenieść uwagę na wzgórze, hipokamp i  móżdżek. Rok


przed konferencją zorganizowaną przez Akademię Papieską Eccles

został laureatem Nagrody Nobla w  dziedzinie fizjologii i  medycyny.

Kilka lat wcześniej otrzymał tytuł szlachecki za te same badania.

W  swo-ich czasach był legendą, a  w oczach tych spośród nas, którzy

mieli okazję go poznać, był człowiekiem o  błyskotliwym intelekcie

i  niespożytej energii oraz wybitnym naukowcem. Wychował się

w  rodzinie katolickiej i  był zdeklarowanym dualistą. Pragmatyka

Williama Jamesa zapewne nie zdziwiłby fakt, że to przekonanie

kierowało działaniami Ecclesa, który poświęcił całe życie na

poszukiwanie mechanizmów, poprzez które umysł kontroluje ciało.

W artykule opublikowanym w  1951 roku w  czasopiśmie „Nature”,

zatytułowanym Hypotheses Relating to the Brain–Mind Problem

(Hipotezy dotyczące problemu mózg–umysł), Eccles przekonywał:

„Wielu ludzi nauki w  dualizmie i  interakcji odnajduje najbardziej

zadowalające wstępne postulaty w  naukowym podejściu do problemu

umysłu i  mózgu. W  takim podejściu rodzi się pytanie: jakie hipotezy

naukowe moglibyśmy sformułować, które w  ten czy inny sposób

odnosiłyby się do, jak dotąd nader opornego, problemu zależności

[16]
mózg–umysł?” W  dalszej części artykułu zaproponował taką

hipotezę. Chociaż uważał, że każde doświadczenie percepcyjne jest

wynikiem określonego wzorca pobudzenia neuronalnego, a  pamięć

powstaje na skutek wzrostu efektywności połączeń synaptycznych,

z jakiegoś powodu był zdania, że doświadczenie i pamięć „nie mieszczą

się w  systemie materia–energia”. Zamiast tego wysunął tezę, że

pobudzona kora mózgowa odznacza się „wrażliwością innego rodzaju

niż jakikolwiek instrument fizyczny” oraz że „umysł osiąga połączenie

z  mózgiem za pośrednictwem przestrzennoczasowych pól

oddziaływania, które stają się aktywne dzięki tej wyjątkowej (…)

funkcji pobudzonej kory mózgowej”. No, no! Przecież to czyste wudu,

opisane wyszukanym językiem. Eccles zastąpił Kartezjuszową


szyszynkę tajemniczą wrażliwością pobudzonej kory mózgowej.

Dwieście lat po Kartezjuszu kontynuował kartezjańską tradycję

dualizmu, mimo że spędzał sześćdziesiąt godzin tygodniowo na

badaniu i  rejestrowaniu aktywności neuronów i  choć we wszystkich

innych sprawach był gorliwym wyznawcą determinizmu. To po prostu

niepojęte.

Jednym z  zadań Ecclesa jako gospodarza wspomnianej tygodniowej

sesji naukowej było dobranie pozostałych uczestników i  opublikowanie

ich dyskusji, co zaowocowało przełomową książką Brain and Conscious

Experience (Mózg a  świadome doświadczenie). Jedyna tendencyjność,

jaką można było zarzucić Ecclesowi, polegała na zaproszeniu na

konferencję nieproporcjonalnie dużej liczby fizjologów, trzeba jednak

dodać, że wybrani przezeń naukowcy na ogół nie ograniczali się do

jednej dziedziny. Ecclesowi udało się zgromadzić czołowych

przedstawicieli wielu dyscyplin naukowych, takich jak

neuropsychologia, neuroanatomia, psychologia, farmakologia,

patologia, biopsychologia, neurochirurgia, chemia, nauki

o  komunikacji, cybernetyka, biofizyka i  nauki o  zachowaniu zwierząt.

Akademia, z  przyświecającym jej celem pogłębiania wiedzy

w  dziedzinie fizyki, matematyki i  nauk przyrodniczych, narzuciła

jedno ograniczenie: żadnych filozofów. Eccles nie był z tego zadowolony,

ale wśród zaproszonych naukowców byli –  jak to ujął jeden

z  recenzentów –  „filozofowie amatorzy niepośledniej klasy”. Ten sam

recenzent doszedł do wniosku, że „jako tom traktujący o  postępie

naszej wiedzy o  korze mózgowej książka [Brain and Conscious

[17]
Experience] wydaje się nie mieć sobie równych” .

Przed rozpoczęciem sesji jej uczestnicy otrzymali krótkie

wprowadzenie przygotowane przez Akademię, w  którym świadomość

(consciousness) opisano jako „psychofizjologiczne pojęcie zdolności

percepcyjnej, przytomnego spostrzegania i  zdolności do adekwatnego


działania i  reagowania”. Jak to ujął Roger Sperry –  mój mentor

i  przyszły laureat Nagrody Nobla –  kiedy po zakończeniu sesji wrócił

do Caltech: „Papież powiedział: «Mózg jest wasz, ale umysł –  nasz»”.

Dyskusje podzielono luźno na trzy grupy odpowiadające trzem

aspektom świadomości: percepcji, działaniu i woli.

Jeden z  uczestników spotkania, zoolog William Thorpe, rozwinął tę

myśl:

Termin „świadomość”, pomimo niezliczonych odcieni znaczeniowych, obejmuje –  jak

sądzę – trzy podstawowe elementy. Po pierwsze, wewnętrzną świadomość odczuwania

–  coś, co można by nazwać „posiadaniem wewnętrznej percepcji”. Po drugie,

świadomość siebie, własnego istnienia. Po trzecie, świadomość zawiera w  sobie

doświadczenie jedności. Innymi słowy, implikuje, wprawdzie dość niejasno, połączenie

wszystkich wrażeń, myśli i  uczuć, które składają się na świadome jestestwo danej

[18]
osoby, tworząc jedną całość .

Omawiając zdarzenia mózgowe w  powiązaniu ze świadomym

doświadczeniem, Eccles zadał pytanie: „W jaki sposób specyficzny

przestrzennoczasowy wzorzec aktywności neuronalnej w  korze

[19]
mózgowej może wywoływać określone doświadczenie sensoryczne?”

To pytanie, jak dotąd, pozostało bez odpowiedzi.

Podczas lektury tego tomu musiałem się uśmiechnąć, kiedy się

przekonałem, jak ogromne wrażenie wywarło wystąpienie Rogera

Sperry’ego, dotyczące prowadzonych przez nas badań z  udziałem

[20]
pacjentów z  rozszczepionym mózgiem , które w  owym czasie były

jeszcze w  powijakach. W  pisemnym streszczeniu Sperry stwierdził:

„Wszystko, co dotąd zobaczyliśmy, wskazuje na to, że ów zabieg

pozostawił pacjentów z  dwoma odrębnymi umysłami –  dwiema

[21]
osobnymi sferami świadomości” . Ożywiona dyskusja po wykładzie

Sperry’ego świadczy o  tym, jak fascynujące były nasze odkrycia i  jak

wielkie zainteresowanie wzbudziło jego wystąpienie. Mówił


Watykanowi i  swoim kolegom naukowcom, że umysł można podzielić

na dwa umysły jednym cięciem skalpela.

Sperry był wówczas w trakcie procesu zmiany zdania – po części pod

wpływem badań pacjentów z  rozszczepionym mózgiem –

  i  modyfikowania swojego stanowiska dotyczącego funkcji mózgu.

Odwracał się od materializmu i  redukcjonizmu (pojmowanych tak, jak

je wtedy rozumiano) i  zaczął się określać mianem „mentalisty”.

Wcześniej, w  tym samym roku, w  trakcie pracy nad adresowanym do

szerszej publiczności wykładem na temat ewolucji mózgu, był

zszokowany własnym wnioskiem, że „emergentne zdolności mentalne

muszą, jak podpowiada logika, sprawować odgórną kontrolę nad

[22]
zdarzeniami elektrofizjologicznymi w  aktywności mózgu” . W  owym

czasie idea, że stan mentalny mógłby wywierać wpływ na stan mózgu,

była czystą herezją w  świe-cie neuronauki –  i w  dużym stopniu nadal

nią jest. Doszedłem do podobnego wniosku i  ponownie przedstawiłem

ideę odgórnego wpływu przyczynowego procesów psychicznych w  2009

roku, podczas wykładów imienia Gifforda w  Edynburgu, aby jeszcze

raz się przekonać, że determiniści wszelkiej maści nie są na nią

szczególnie otwarci. Zgodnie z  głównym założeniem zarówno

behawioryzmu, jak i  materializmu obiektywny fizyczny proces

mózgowy jest sam w  sobie kompletną siecią przyczynową bodziec–

reakcja – nie otrzymuje danych z żadnych świadomych czy mentalnych

źródeł i  wcale ich nie potrzebuje. Pod wieloma względami książka,

którą masz przed sobą, jest nową próbą zmierzenia się z  tym

problemem.

Podczas konferencji watykańskiej Sperry przedstawił złagodzoną

wersję swojego w  coraz większym stopniu mentalistycznego

stanowiska, stwierdzając pod koniec swego wystąpienia, że

„świadomość może mieć realną wartość operacyjną; jest czymś więcej

niż tylko odcieniem znaczeniowym, produktem ubocznym,


epifenomenem, czy też metafizyczną paralelą obiektywnego

[23]
procesu” . W  innym miejscu sparafrazował tę myśl, opisując ją jako

„pogląd, że świadomość może mieć zastosowanie operacyjne

[24]
i przyczynowe” .

Eccles, zdeklarowany materialista, powiedział: „Jestem gotów

przyznać, że jako neurofizjolodzy po prostu nie znajdujemy

zastosowania dla świadomości w  naszych próbach wyjaśnienia, jak

[25]
działa układ nerwowy” . Przyznał również: „Rzecz jasna, nie wierzę

w  tę opowieść; równocześnie jednak nie po-trafię na nią logicznie

[26]
odpowiedzieć” . Eccles pozostał przy stanowisku dualistycznym.

Po zakończeniu tygodniowych dyskusji streszczenie konferencji

przekazano psychologowi z  MIT, Hansowi-Lukasowi Teuberowi,

jednemu z  pionierów neuropsychologii. Teuber był znany

z  błyskotliwych podsumowań konferencji i  sesji naukowych, które

[27]
okraszał finezyjnymi wyrazami aprobaty lub zdumienia . Wskazał,

w  których sprawach uczestnicy byli zgodni, a  w któ-rych się nie

zgadzali, i  odnotował luki w  zgromadzonej wiedzy. W  ten sposób

zwięźle podsumował ówczesny stan omawianej dziedziny –  tak jak

tylko on to potrafi. Pozostali zgodzili się, że całkiem nieźle rozumieją

korowe przetwarzanie informacji czuciowych i  wzrokowych i  że gdyby

dysponowali równie dużą wiedzą na temat czynności motorycznych,

zapamiętywania i  przytomności (awareness) –  jakiej nie posiadali –  to

byliby dużo bardziej zaawansowani w  rozumieniu świadomego

doświadczania. Teuber ubolewał: „Wszelkie możliwe różnice zdań

ujawniały się wtedy, gdy próbowaliśmy opisać systemy lub

mechanizmy, które mogły być nieodzowne dla świadomości. Nie byliśmy

nawet całkiem pewni (…), jak moglibyśmy zdecydować, czemu służy

[28]
świadomość” .

Teuber, człowiek poważny i  zaangażowany, wspierał mnie

w  pierwszych latach mojej pracy naukowej. Pamiętam jego wizytę


w  Santa Barbara pod koniec lat sześćdziesiątych. W  trakcie przyjęcia,

które moja żona i  ja wydaliśmy na jego cześć w  naszym domu

w  Mission Canyon, nagle mrugnął do mnie i  powiedział, że chciałby

zamienić ze mną kilka słów na osobności. Weszliśmy do sypialni,

a  wtedy Teuber wyjął z  teczki maszynopis, który wysłałem do

czasopisma „Neuropsychologia”, i  zaczął go czytać z  czerwonym

długopisem w  dłoni. Byłem zdumiony, lecz wdzięczny za uwagę, jaką

mi poświęcił. Kiedy skończyliśmy, zerwał się i  zawołał: „Wróćmy na

przyjęcie!” Najwyraźniej powiedziałem coś sensownego, gdyż nieco

później Teuber zaprosił mnie, abym dołączył do nowo założonego

Międzynarodowego Sympozjum Neuropsychologicznego (International

Neuropsychological Symposium) –  wspaniałej organizacji, która

spotyka się co roku w  różnych miastach świata. Mam przyjemność

ucze-stniczyć w tych spotkaniach od dwudziestu lat.

Konferencja watykańska, rzecz jasna, nie rozwiązała problemu

umysł––ciało. Różnice zdań, jakie się wówczas ujawniły,

zapoczątkowały jednak liczne spory i  dyskusje na gruncie biologii

i  filozofii, które toczą się do dziś. Na stole pojawiła się dobrze znana

lista możliwych rozwiązań, przy czym Eccles trzymał się mocno

Kartezjańskiej idei dwóch substancji –  poglądu, że umysł i  ciało są

odrębnymi bytami –  chociaż nie udało mu się znaleźć dowodów

empirycznych, które by ją potwierdzały. Większość uczestników

skłaniała się ku materialistycznemu poglądowi, że umysł (świadomość)

jest wytwarzany przez materię, ale pytanie, jak to się dzieje, jak

zawsze, pozostało bez odpowiedzi.

Konferencja watykańska była punktem zwrotnym dla Sperry’ego.

Idea, że stany mentalne mogą oddziaływać przyczynowo na stany

mózgu, stała się jego pasją naukową –  ze wszystkimi jej implikacjami.

Psychiatra uczestniczący w konferencji, Hans Schaefer z Uniwersytetu

w  Heidelbergu, przychylił się do tej teorii, opierając się na swoim


przekonaniu o skuteczności psychoanalizy. Teorie ewolucyjne pozwoliły

materialistycznym koncepcjom świadomości przyjąć dwie postacie:

emergentyzmu i  panpsychizmu. Ten pierwszy głosi, że świadomość

wyłania się z  nieświadomej materii, kiedy owa materia osiągnie

pewien poziom złożoności lub organizacji. Sperry wyraźnie skłaniał się

w tę stronę. Ten drugi – panpsychizm – eliminuje cały problem poprzez

założenie, że wszelka materia ma subiektywną świadomość, jakkolwiek

istnieje szeroki zakres typów owej świadomości. Co za tym idzie – idee

emergencji i  złożoności są niepotrzebne do wyjaśnienia świadomości.

Świadomość jest pierwotną cechą wszystkiego, od kamieni, przez

mrówki, po nas, ludzi.

Po powrocie z konferencji Sperry nadal dopracowywał swoje poglądy.

Z  mentalistycznej szafy wyszedł rok później, podczas wykładu, który

wygłosił w  swojej Alma Mater –  na Uniwersytecie w  Chicago. „Oto

przyłączam się do opozycji, do liczącej w  przybliżeniu 0,1 procenta

mniejszości mentalistów, i  opowiadam się za hipotetycznym modelem

mózgu, w  którym świadomości i  siłom mentalnym przyznaje się

[29]
należną im rolę jako ważnym elementom łańcucha kontroli” .

Następnie wyjaśnił swój sposób rozumowania: „Po pierwsze, uważamy,

że zjawiska świadome lub mentalne są dynamicznymi, emergentnymi,

tworzącymi pewne wzory (konfiguracyjnymi) właściwościami żywego

mózgu w  działaniu. Jest to pogląd akceptowany przez wielu

naukowców, nie wyłączając niektórych bezkompromisowych badaczy

mózgu. Po drugie, nasza argumentacja posuwa się o  decydujący krok

dalej. Twierdzimy mianowicie, że owe emergentne, konfiguracyjne

właściwości mózgu mają przyczynową moc kontroli –  podobnie jak

w  innych miejscach we wszechświecie. Oto więc mamy rozwiązanie

odwiecznej zagadki świadomości”. Sperry uważał, że świadome

doświadczenie jest nieredukowalną (nie można go rozłożyć na części),

dynamiczną (zmienia się w  odpowiedzi na aktywność neuronalną)


i  emergentną (jest czymś więcej niż suma procesów, które je

wytwarzają) właściwością aktywności mózgu, która nie może istnieć

odrębnie od mózgu. Odrzucając wszelkie formy dualizmu, podkreślił:

„Ów termin [«siły mentalne»] pasuje do zjawisk związanych

z  subiektywnym doświadczeniem, ale nie implikuje żadnych

bezcielesnych sił nadprzyrodzonych niezależnych od mechanizmu

mózgowego. Siły mentalne, w  tym rozumieniu, są nierozerwalnie

[30]
związane ze strukturą mózgu i  z jego funkcjonalną organizacją” .

W tym systemie nie ma żadnych duchów.

Na początku lat siedemdziesiątych XX wieku ta idea zdobywała

pewne (choć ograniczone) uznanie, co przyczyniło się do narastania

odczuć przeciwnych behawioryzmowi. Obrazy umysłowe, idee

i  wewnętrzne uczucia wróciły do gry, a  nawet mogły odgrywać rolę

przyczynową w  wyjaśnieniach zjawisk. Rozpoczęła się „rewolucja

poznawcza”, która trwa do dzisiaj.

Współcześni lozofowie pokazują, na co ich stać


Tymczasem filozofowie spierali się o  teorie uwzględniające

materialistyczną koncepcję mózgu. Po przejściu na emeryturę w  1975

roku Eccles porzucił laboratorium i  zaczął współpracować z  wybitnym

filozofem Karlem Popperem. Zgodzili się z Kartezjuszem, że mózg musi

być podatny na wpływ czynników niefizycznych, aby aktywność

[31]
psychiczna mogła być efektywna , innymi słowy –  aby myśli mogły

oddziaływać na stan mózgu. Eccles próbował sformułować możliwe do

przetestowania hipotezy, ale bez powodzenia. Ostatecznie zadowolił się

modelem interakcji umysł–mózg bez żadnych dowodów empirycznych

i  bez hipotezy, którą można by przetestować. Podczas gdy

zaproponowana przezeń forma dualizmu nie znalazła zbyt wielu fanów,


jasnym płomieniem rozbłysnął inny rodzaj dualizmu –  płomieniem

podsycanym przez trzepoczące skrzydła nietoperzy.

Znany filozof z  Uniwersytetu Nowojorskiego, Thomas Nagel, w  1974

roku opublikował głośny artykuł zatytułowany Jak to jest być

nietoperzem? (How Is It Like to Be a  Bat?), a  wraz z  nim wyznaczył

linię argumentacji, którą można wyrazić pytaniem: „Ale jak można

wyjaśnić doświadczenie czerwieni?” Dowodząc, że świadomość ma

charakter subiektywny (podobnie jak to czynił Franz Brentano), Nagel

stwierdza, że „organizm ma jednak świadome stany mentalne wtedy

i  tylko wtedy, gdy jest coś takiego, jak bycie tym organizmem –  coś, co

[32]
jest jakby dla tego organizmu” . Wyrażenie „jak to jest” (how is it

like) nie oznacza tutaj „przypominać” czy „być podobnym do czegoś”

(resemble), jak w py-taniu: „Jak to jest jeździć na łyżwach?” (What is ice

skating like?). Odnosi się raczej do subiektywnego, jakościowego

odczucia związanego z  danym doświadczeniem –  do tego, jak odczuwa

je sam podmiot: „Jak to jest jeździć na łyżwach –  dla ciebie?” (na

przykład: czy to ekscytujące?). Nagel nazwał to „subiektywnym

charakterem doznań”. Określa się to również mianem „świadomości

fenomenologicznej”, a  także –  choć Nagel o  tym nie wspomina –

 terminem qualia.

Według Nagela istnieje określony sposób odczuwania danego

doświadczenia przez podmiot tego doświadczenia, podobnie jak istnieje

określony sposób odczuwania bycia stworzeniem tego, a  nie innego

gatunku, subiektywny charakter stanu mentalnego zaś może być

zrozumiany tylko przez ten konkretny podmiot. Ta idea była jak (w

sensie „przypominała”) talerz spaghetti carbonara podany głodnemu

futboliście – została łapczywie pochłonięta przez filozofów, którzy – jak

twierdzi filozof Peter Hacker –  pragnęli wybawienia od „redukcyjnego

[33]
fizykalizmu czy bezdusznego funkcjonalizmu” . Dla niektórych

wyjściem ewakuacyjnym stała się idea, że nauka jest obiektywna,


a  świadomość –  subiektywna. Te dwie nigdy się nie spotkają, a  jeśli

nawet, to stanie się to na gruncie jakiejś nowej, dotąd nieopisanej

fizyki lub dzięki nowym, dziś jeszcze nieznanym fundamentalnym

[34]
prawom (jest to obecne stanowisko Nagela) .

Filozof Daniel Dennett zasłynął krytyką pytania Nagela. Uważa on,

że Nagel nie chce wiedzieć, jak by to było być nietoperzem. Chce raczej

obiektywnie wiedzieć, jakie jest –  subiektywnie –  to doświadczenie:

„Nie wystarczyłoby mu doświadczenie nałożenia nietoperzowego kasku

–  specjalnego czepka z  ele-ktrodami, które wywoływałyby w  mózgu

nietoperzowe doznania, a  co za tym idzie –  pozwoliłyby mu

doświadczyć «nietoperzowości». W  ten sposób dowiedziałby się tylko,

jak by to było być nietoperzem dla samego Nagela. Co więc by go

zadowoliło? Nie jest pewny, czy istnieje coś takiego, i  właśnie to go

martwi. Obawia się, że idea «doświadczania» (having experience)

[35]
wykracza poza sferę tego, co obiektywne” .

Wykracza poza sferę nauki. Oto – zdaniem wielu – niemożliwa do

zasypania przepaść między sferą subiektywną a  obiektywną. Nowy

dualizm.

Dennett radzi sobie z  tym problemem, przecząc jego istnieniu.

Ubolewa, iż jednym z  problemów z  wyjaśnieniem świadomości jest

fakt, że wszyscy uważamy siebie za ekspertów w  dziedzinie

świadomości i  mamy na jej temat ugruntowane przekonania tylko

dlatego, że jej doświadczyliśmy. Ten problem –  dodaje –  nie dotyka

badaczy wzroku. Chociaż większość nas widzi, nie uważamy siebie za

ekspertów w  dziedzinie widzenia. Zdaniem Dennetta świadomość jest

wynikiem kilku sztuczek: nasze subiektywne doświadczenie jest

złudzeniem, nader przekonującym, na które nabieramy się za każdym

razem, nawet jeśli nam wyjaśniono, jak to się fizycznie dzieje, podobnie

jak nabieramy się na niektóre złudzenia wzrokowe, mimo że wiemy, jak

powstają.
Filozof Owen Flanagan również się nie zgadza z  poglądem

o  istnieniu niemożliwej do zasypania przepaści. Pisze: „Łatwo

wytłumaczyć, dlaczego niektórych zdarzeń mózgowych doświadczasz

tylko subiektywnie. Jedynie ty bowiem jesteś odpowiednio podłączony

[36]
do swojego układu nerwowego, aby doświadczać własnych doznań” .

Brzmi to sensownie. O  co więc tyle szumu? Choć większość

współczesnych filozofów jest gotowa zgodzić się z  poglądem, że każde

zdarzenie i  doświadczenie mentalne jest określonym zdarzeniem

fizycznym, wielu jednak nie akceptuje wniosku, że opis na poziomie

neuronalnym w  pełni oddaje istotę danego zdarzenia czy

doświadczenia mentalnego. Według Flanagana nie ma niczego

tajemniczego w  fakcie, że świadome stany mentalne mają aspekt

fenomenalny. Wszystko to stanowi część kodowania.

U progu współczesnej ery zagadka była więc nadal nierozwiązana.

Chociaż neuronauka wyjaśniła, jak działają odruchy, w  jaki sposób

neurony komunikują się ze sobą oraz jak dziedziczone są cechy (i nie

tylko), wciąż nie mieliśmy pojęcia, w  jaki sposób mózg wytwarza to, co

nazywamy fenomenalnym świadomym doświadczeniem. W  nauce

o  interakcji umysł–mózg nie nastąpił żaden einsteinowski moment

przełomowy. Choć psychologowie poznawczy mogli badać zawartość

czarnej skrzynki, młodym naukowcom doradzono, by temat

świadomości zostawili w spokoju.

Francis Crick do współczesnej nauki: nie ma nic złego w


badaniu świadomości
Dwadzieścia lat po tym, jak George Miller odłożył świadomość na bok

na dekadę lub dwie, nie kto inny, jak nieustraszony, nadzwyczaj

inteligentny, twórczy i powodowany ciekawością Francis Crick wkroczył

do akcji i  zdjął świadomość z  półki. Tak, właśnie ten Francis Crick.


Cricka od wczesnej młodości interesowały dwie niewiadome:

pochodzenie życia i  zagadka świadomości. Po trzydziestu latach

poświęconych na zgłębianie pierwszej niewiadomej kusiło go, aby zająć

się drugą. I  oto w  1976 roku, w  wieku, bagatela, sześćdziesięciu lat,

gdy większość ludzi niecierpliwie wyczekuje przejścia na emeryturę,

Crick spa-kował walizki, opuścił Cambridge i  wyruszył do Salk

Institute w  San Diego, aby rozpocząć drugą karierę naukową –  w

dziedzinie neuronauki.

Tak się złożyło, że odwiedziłem Salk Institute wkrótce po przybyciu

Cri-cka. Zostałem wprowadzony do jego wspaniałego gabinetu

z  widokiem na morze. Zastałem Cricka, który właśnie zaczynał swą

podróż w  głąb neuronauki, w  otoczeniu innych utalentowanych

badaczy. Nie miałem pojęcia, jak włączyć się do rozmowy, więc zadałem

pytanie: „Jak należy myśleć o  ramach czasowych właściwych dla

procesów molekularnych i  jak one się mają do ram czasowych

występujących w  aktywności neuronalnej? Każdy poziom ma własną

historię. W  jaki sposób są one ze sobą powiązane?” Odniosłem

wrażenie, że Crickowi spodobało się moje pytanie, a  kilka miesięcy

później, ośmielony tym pierwszym spotkaniem, zaprosiłem go na

kameralną sesję naukową dotyczącą pamięci, którą zorganizowałem na

wyspie Moorea. Bez wahania przyjął zaproszenie. Crick zawsze

denerwował się i  niecierpliwił, kiedy słyszał o  status quo jakiegoś

zagadnienia naukowego. Cenił dobry eksperyment, zawsze jednak

dążył do zrozumienia, co oznacza dana obserwacja w  szerszym

kontekście. Nie inaczej było podczas tamtego spotkania. Bez przerwy

wkładał kij w  mrowisko. Wydawało się, że właśnie jego było potrzeba,

aby popchnąć badania świadomości naprzód, poza ustalone, klasyczne

stanowiska.

Crick zaczął od prowadzenia zajęć z  neuroanatomii i  lektury prac

naukowych z  dziedziny neurofizjologii i  neurofizyki. W  1979 roku,


kilka lat po tym, jak zaangażował się w to przedsięwzięcie, poproszono

go o  napisanie artykułu do czasopisma „Scientific American” –  do

numeru poświęconego najnowszym badaniom mózgu. Jego zadaniem

było „przedstawienie kilku ogólnych uwag na temat tego, jak ta

dziedzina jest odbierana przez osobę z  zewnątrz”. Crick stwierdził, że

nie podoba mu się typowe dla behawiorystów i  funkcjonalistów

traktowanie mózgu jako czarnej skrzynki. Przecież tak naprawdę

chodzi o  to, co się dzieje w  środku owej czarnej skrzynki. „Problem

z modelem czarnej skrzynki polega na tym, że jeśli ta skrzynka nie jest

ze swej natury nadzwyczaj prosta, to w  krótkim czasie osiąga się

stadium, w  którym kilka konkurencyjnych teorii równie dobrze

[37]
wyjaśnia zaobserwowane wyniki” . A  przecież nikt nie sądził, że

czarna skrzynka jest prosta.

Crick zauważył również, że naukowcy zajmujący się badaniem mózgu

są nadmiernie izolowani w  swoich wąskich subdyscyplinach. Powinni

się stać mniej zaściankowi, a  bardziej kosmopolityczni –  w sensie

naukowym –  poprzez zaangażowanie się w  dyskusje

interdyscyplinarne. Psychologowie powinni zrozumieć strukturę

i  funkcje mózgu, podobnie jak anatomowie powinni mieć pojęcie

o  psychologii i  fizjologii. Oczywiście jego uogólnione oceny były

[38]
krzywdzące dla dziesiątków, a  nawet setek kognitywistów

i  początkujących neuronaukowców poznawczych, takich jak niżej

[39]
podpisany , którzy już wcześniej zaczęli się zmagać z  problemem

świadomości. Ale to Crick, z  jego wyjątkową, szczególną pozycją,

uzmysłowił przedstawicielom tej dziedziny nauki, że badanie fizycznych

podstaw świadomości jest zadaniem wielkiej wagi.

Wszyscy potrzebowali odrobiny psychologii oraz szczypty fizyki

i  chemii, a  Crick uważał, że nowo powstała teoria komunikacji wydaje

się obiecująca jako narzędzie teoretyczne, dlatego warto się z  nią

zapoznać. Nadrzędna teoria mogła powstać dopiero po uwzględnieniu


wszystkich aspektów i  poziomów aktywności mózgu i  ludzkich

zachowań. Znajomość tylko jednego aspektu nie pozwalała na

uzyskanie całościowego wyjaśnienia.

Jedna z sugestii Cricka była szczególnie trudna. Otóż twierdził on, że

należy zmienić przekonanie ludzi o trafności ich introspekcji, ponieważ

[40]
„introspekcja oszukuje nas na każdym poziomie” . Jako przykład

takiego oszustwa podawał plamkę ślepą, którą mamy w  każdym oku.

Crick zrugał też ówczesnych filozofów –  choć, jak można zakładać,

Dennetta nie było na tej liście – za ignorowanie takich zjawisk:

Nie każdy zdaje sobie sprawę, że ma plamkę ślepą, chociaż łatwo wykazać jej

istnienie. Co niezwykłe, nie widzimy dziury w  polu naszego widzenia. Dzieje się tak

po części dlatego, że nie potrafimy wykryć krawędzi owej dziury, a  po części dlatego,

że nasz mózg wypełnia ją informacjami wzrokowymi zaczerpniętymi z  najbliższego

sąsiedztwa. Nasza zdolność do oszukiwania samych siebie w  sprawie działania

naszego mózgu jest prawie nieograniczona, głównie dlatego, że to, o  czym możemy

opowiedzieć, stanowi zaledwie drobny ułamek tego, co się dzieje w  naszej głowie. To

dlatego duża część filozofii pozostaje jałowa od ponad 2000 lat i  nadal taka będzie,

dopóki filozofowie nie nauczą się odczytywać języka przetwarzania informacji.

Nie znaczy to jednak, że należy całkowicie zarzucić badanie ludzkich procesów

mentalnych, co próbowali uczynić behawioryści. Byłoby to równoznaczne

z  zaniechaniem jednego z  najważniejszych atrybutów tego, co próbujemy badać. Nie

zmienia to faktu, że danych pochodzących z introspekcji nigdy nie należy przyjmować

[41]
za dobrą monetę. Trzeba je wyjaśniać w kategoriach innych niż one same .

Crick konkluduje:

Wyższy układ nerwowy wydaje się niezwykle przemyślną kombinacją precyzyjnych

połączeń i sieci asocjacyjnych. (…) Sieć dzieli się na wiele małych podsieci, przy czym

niektóre działają równolegle, inne zaś są zorganizowane sekwencyjnie. Co więcej,

podział na podsieci odzwierciedla zarówno strukturę świata –  zewnętrznego

[42]
i wewnętrznego – jak i relację, jaka nas z nim łączy .
Crick był w głębi serca teoretykiem, obdarzonym szczególnym talentem

do asymilowania idei i  wyników badań eksperymentalnych

pochodzących z  rozmaitych dyscyplin, mieszania ich ze sobą,

a  następnie formułowania nowych teorii i  projektowania nowych

eksperymentów. Przejrzyście opisał głębokie problemy związane

z  próbą zrozumienia świadomego doświadczenia. Miał bezcenną

umiejętność, o  której pisał William James: „Sztuka bycia mądrym jest

sztuką trafnego wyboru tego, co należy pominąć”. Crick bez wątpienia

był mądry.

Niedługo potem Crick połączył siły z  pomysłowym, obdarzonym

błyskotliwym umysłem i  niespożytą energią neuronaukowcem,

Christofem Kochem z  Caltech. Postanowili zająć się świadomością

poprzez badanie układu wzrokowego ssaków –  tematu, który już

wcześniej przyniósł wielką obfitość danych eksperymentalnych. Chcieli

się dowiedzieć jak najwięcej na temat pierwszych etapów

przetwarzania informacji wzrokowych, które docierają do kory

wzrokowej. Ich ostatecznym celem było odkrycie neuronalnych

korelatów świadomości (NKŚ) –  najmniejszego zbioru zdarzeń

i  mechanizmów neuronalnych, który wystarcza do wystąpienia

[43]
swoistego świadomego perceptu (spostrzeżenia) . Koch wyjaśnia:

„Musi występować bezpośredni związek między zdarzeniem

mentalnym a  jego korelatami neuronalnymi. Mówiąc inaczej, każda

zmiana stanu subiektywnego musi wiązać się ze zmianą stanu

neuronalnego. Ale niekoniecznie odwrotnie –  dwa różne stany

[44]
neuronalne mogą być nieodróżnialne mentalnie” . Wszystko to

wydaje się nadzwyczaj jasne i  sensowne, co jest zaletą rzadko

spotykaną w badaniach świadomości.

Przed rozpoczęciem swoich poszukiwań Crick i  Koch przyjęli dwa

założenia dotyczące świadomości. Po pierwsze, w  danym momencie

niektóre aktywne procesy neuronalne korelują ze świadomością, a inne


nie. Badacze pytają: na czym polegają różnice między nimi? Drugie

założenie, nazwane przez nich „wstępnym”, brzmi: „U podłoża

wszystkich aspektów świadomości (odczuwania zapachu, bólu,

widzenia, samoświadomości (…) itd.) jest jeden, a  może kilka

[45]
wspólnych mechanizmów” . Gdyby udało im się wyjaśnić jeden

aspekt, byliby na dobrej drodze do zrozumienia wszystkich. Badacze

postanowili odłożyć niektóre rozważania na później, aby nie tracić

czasu na spory na ich temat. Omijając problem umysł–ciało,

stwierdzili, że naukowe badanie świadomości nie wymaga jej

zdefiniowania. W  ten sposób uniknęli zagrożeń związanych

z przedwczesną definicją.

Crick i  Koch nie tylko nie przyjęli jasnej definicji świadomości, lecz

także postanowili –  konsekwentnie –  być równie mało konkretni

w  kwestii jej funkcji i  odłożyli na bok pytanie: po co jest świadomość?

Założyli również, że u  niektórych gatunków ssaków wyższych

występują pewne cechy świadomości, lecz niekoniecznie wszystkie.

Mogą więc u  nich istnieć główne cechy świadomości pomimo braku

zdolności do posługiwania się mową. Jakkolwiek pewien stopień

świadomości może występować również u  niższych zwierząt, badacze

postanowili (przynajmniej na razie) nie zajmować się tym

zagadnieniem. Ponadto założyli, że samoświadomość jest

autoreferencyjnym aspektem świadomości, i  ją też odłożyli na bok. To

samo uczynili z  wolą i  intencjonalnością, a  także ze stanami

hipnotycznymi i marzeniami sennymi. Wreszcie, odłożyli na bok qualia

–  subiektywny charakter doświadczenia, odczuwanie czerwieni –  w

przekonaniu, że kiedy wyjaśnią, w jaki sposób widzimy czerwień, może

uda im się przekonująco dowieść, że wszystkie nasze czerwienie

w istocie są takie same.

Crick i  Koch zdawali sobie sprawę, że neuronalne korelaty

świadomości nie rozwiążą zagadki świadomości. Wkładem, jaki


odkrycie neuronalnych korelatów świadomych i  nieświadomych

procesów przetwarzania może wnieść w  empiryczne badania

świadomości, jest zawężenie specyfikacji modeli wiarygodnych

z perspektywy neurobiologicznej. Można żywić nadzieję, że wyjaśnienie

neuronalnych korelatów świadomości doprowadzi do przełomu

w pracach nad teorią świadomości, podobnie jak zrozumienie struktury

DNA okazało się przełomowe dla wyjaśnienia transmisji genetycznej.

Zrozumienie architektury cząsteczki DNA i  stworzenie jej

trójwymiarowego modelu dostarczyło cennych wskazówek dotyczących

tego, jak owa cząsteczka dzieli się i  powiela, które okazały się spójne

z  dziedziczeniem Mendlowskim. Pierwsze odkryte NKŚ będą ważnym

krokiem ku sformułowaniu teorii świadomości, ale same w  sobie nie

wyjaśnią związków między aktywnością neuronalną a  świadomością.

Tym zajmują się modele, a te szybko zaczęły się pojawiać.

Crick otworzył bramę –  znowu można było badać świadomość.

W  ciągu poprzednich dwudziestu lat położono fundamenty, zbudowane

ze stosów danych empirycznych dotyczących mechanizmów mózgowych.

Rozpoczęto atak empiryczny przy wsparciu nieustannie

powiększającego się arsenału nowych metod, które dzisiaj obejmują nie

tylko rejestrowanie, lecz także kontrolowanie wyładowań pojedynczych

neuronów (cel, o  którym marzył Crick, a  który później osiągnięto

dzięki optogenetyce), oraz rozmaite techniki obrazowania mózgu

i  wszelkie metody przetwarzania danych, jakie zapewniają nam

współczesne komputery. Ci, którzy wzięli pod rozwagę przestrogę

Cricka, że „danych pochodzących z  introspekcji nigdy nie należy

przyjmować za dobrą monetę. Trzeba je wyjaśniać w  kategoriach

innych niż one same”, odkryli kłopotliwe bogactwo nieświadomych

procesów przetwarzania w  mózgu. Modele neurobiologiczne, które

próbowały wyjaśnić związki między aktywnością neuronalną

a świadomością przy użyciu elementów obliczeniowych, informacyjnych


i  neurodynamicznych, zaczęły się pojawiać niczym psotne myśli

w  głowie ma-łego łobuziaka. Te modele różnią się pod względem

poziomu abstrakcji –  o czym będzie mowa w  rozdziale piątym –  i choć

niektóre z  nich mają pewne cechy wspólne, żaden nie wyjaśnia

wszystkich aspektów świadomości; żaden też, jak dotąd, nie zdobył

powszechnego uznania.

W kolejnych rozdziałach przedstawię nową ideę i  ramy teoretyczne,

w  jakich można rozważać problem świadomości. Uczynię to

z nieśmiałością i pokorą. Próba dodania czegoś do opowieści stworzonej

przez wspomniany panteon naukowców i  myślicieli jest, delikatnie

mówiąc, onieśmielająca. Dziś mamy jednak dostęp do ogromnych

zasobów szybko przybywającej nowej wiedzy, co –  przy odrobinie

szczęścia –  pozwoli nam spojrzeć z  nowej perspektywy na to, jak mózg

czyni swoje czary. Wyobrażenie Kartezjusza i  innych dawnych

myślicieli, że umysł w  jakiś sposób unosi się na powierzchni mózgu,

a  także idee nowych zwolenników modeli mechanistycznych, że

świadomość jest monolityczną rzeczą wytwarzaną przez jeden

mechanizm lub jedną sieć, okazały się po prostu błędne. Spróbuję

wykazać, że świadomość nie jest rzeczą. „Świadomość” jest słowem,

którego używamy do opisu subiektywnego odczuwania pewnej liczby

instynktów i/lub wspomnień rozgrywających się w  czasie w  danym

organizmie. To dlatego „świadomość” jest słowem opisującym –  w

przybliżeniu –  jak działa złożony żywy organizm. Aby zaś zrozumieć,

jak działają złożone organizmy, musimy się dowiedzieć, jak są

zorganizowane części ich mózgów, by wytwarzać świadome

doświadczenie. Właśnie tym się teraz zajmiemy.

[1]
Tłum. Jaga Rydzewska.

[2]
James, 2004, tłum. Michał Filipczuk, s. 10.

[3]
Ibidem, s. 13.
[4]
Ibidem, s. 14.

[5]
Ibidem, s. 26.

[6]
Posner, 1978.

[7]
Obecność lub nieobecność owych reprezentacji jest źródłem

opisanego później zjawiska kończyny fantomowej (obecność

reprezentacji pod nieobecność samej kończyny) oraz zaburzenia

tożsamości i  integralności ciała (body identity integrity disorder –

 BIID; brak reprezentacji kończyny pomimo obecności kończyny, którą

pacjent spostrzega jako obcą i którą pragnie amputować).

[8]
Międzymózgowie obejmuje nadwzgórze, wzgórze, podwzgórze,

niskowzgórze i trzecią komorę mózgu.

[9]
Penfield, 1966, s. 234.

[10]
Ibidem, s. 235.

[11]
Komputer masowo równoległy (massively parallel computer) –

  komputer złożony z  wielkiej liczby połączonych ze sobą procesorów,

zdolny do jednoczesnego przetwarzania wielu zadań (przyp. tłum.).

[12]
Miller, 1962, s. 25.

[13]
Curtis i Andersen, 2001.

[14]
Popper i Eccles, 1977.

[15]
Dale, 1954.

[16]
Eccles, 1951.

[17]
Walsh, 1967.

[18]
Thorpe, s. 44.

[19]
Eccles, 1965, s. 326.

[20]
Chodzi o  badania pacjentów, u  których chirurgicznie rozdzielono

półkule mózgowe poprzez przecięcie spoidła wielkiego (przyp. tłum.).

[21]
Sperry, 1965, s. 299.

[22]
Sperry, 1980, s. 96.

[23]
Sperry, 1965, s. 308.
[24]
Ibidem, s. 248.

[25]
Eccles, 1965, s. 250.

[26]
Ibidem, s. 248.

[27]
Gross, 1994.

[28]
Eccles, 1965, s. 582.

[29]
Sperry, 1966.

[30]
Sperry, 1970.

[31]
MacKay, 1987.

[32]
Nagel, 1997, tłum. Adam Romaniuk, s. 204.

[33]
Hacker, 2012.

[34]
Nagel, 2000.

[35]
Hofstadter i Dennett, 1981, 2000, s. 409.

[36]
Flanagan, 2002, s. 87.

[37]
Crick, 1979.

[38]
Posner i Rothbart, 1992.

[39]
Gazzaniga, 1970.

[40]
Crick, 1979.

[41]
Ibidem.

[42]
Ibidem.

[43]
Crick i Koch, 1990.

[44]
Koch, 2008, tłum. Grzegorz Hess, s. 30.

[45]
Ibidem, s. 29.
Część druga
System zyczny
ROZDZIAŁ IV
Mózg budowany moduł po module
Bo widzisz, u nas trzeba biec z całą szybkością, na jaką ty w ogóle możesz się zdobyć, ażeby
pozostać w tym samym miejscu. A gdybyś się chciała gdzie indziej dostać, musisz biec
przynajmniej dwa razy szybciej[1].
– Lewis Carroll, Po drugiej stronie lustra

Nasze mózgi wyglądają na równie rozklekotane, jak zaprojektowane

przez Franka Gehry’ego Muzeum Guggenheima w  Bilbao. Jak jednak

często podkreśla Gehry, budynek muzeum nie przecieka. Działa jak

należy! Gehry jest geniuszem architektury, który rozszerzył nasze

wyobrażenie na temat struktur fizycznych pełniących funkcje

użytkowe. Nasz mózg również jest strukturą fizyczną, która pełni

funkcje użytkowe. Jest pewna metoda w  tym szaleństwie chaotycznej,

chybotliwej konstrukcji, której drobne fragmenty rozumiemy, lecz

większości nie pojmujemy ani w  ząb. Pomimo badań prowadzonych od

stuleci nikt w  pełni nie rozumie, w  jaki sposób skomplikowane

kłębowisko tkanki biologicznej w  naszej głowie wytwarza

doświadczenia naszego życia codziennego. W  każdej chwili w  naszym

mózgu przebiegają gazyliony procesów elektrycznych, chemicznych

i hormonalnych, a jednak doświadczamy tego wszystkiego jako spójnej,

płynnie postępującej całości. Jak to możliwe? Jak jest zorganizowany

nasz mózg, aby wytwarzać świadome doświadczenie jedności?

Wszystko ma swoją podstawową strukturę. Fizycy sprowadzają

prawdę do poziomu kwantowego (o którym będzie mowa w  rozdziale

siódmym). Nieustannie rozkładamy rzeczy na części, aby się

dowiedzieć, jak działają. Rzeczy bowiem składają się z części, podobnie

jak nasze ciała i  mózgi. W  tym sensie można powiedzieć, że jesteśmy

zbudowani z  modułów –  części składowych, które wchodzą ze sobą

w  interakcje, aby wytworzyć całą, działającą jedność, którą badamy.

Musimy się dowiedzieć, jakie to części, i  nie tylko zrozumieć, jak one

się ze sobą łączą, lecz także wyjaśnić ich wzajemne interakcje.

Nie ulega wątpliwości, że części naszego mózgu w  jakiś sposób ze

sobą współpracują, aby generować nasze stany mentalne i zachowania.

Na pierwszy rzut oka logiczne wydaje się przypuszczenie, że nasz mózg


działa jako jedna całość, aby wytwarzać pojedyncze świadome

doświadczenie. Nawet laureat Na-grody Nobla, Charles Sherrington,

[2]
w  początkach XX wieku opisał mózg jako „zaczarowane krosno” , co

sugeruje, że układ nerwowy działa spójnie, aby utkać mistyczny umysł.

Ówcześni neurolodzy mogliby mu poradzić, by wybrał się na obchód po

oddziałach szpitalnych. Ich kliniki pełne były pacjentów z  urazami

mózgu, a  z obserwacji tych pacjentów wyłaniała się zupełnie inna

opowieść.

Paradoksalnie, mimo że każdy z  nas czuje się jedną, niepodzielną

całością (co wydaje się intuicyjnie potwierdzać trafność

zaproponowanej przez Sherringtona metafory krosna), liczne dowody

empiryczne wskazują, że nasz mózg nie działa w  sposób holistyczny.

Tak naprawdę nasza niepodzielna świadomość jest wytworem tysięcy

stosunkowo niezależnych jednostek przetwarzania, czy też, mówiąc

prościej, modułów. Moduły to wyspecjalizowane, często ograniczone

miejscowo (lokalne) sieci neuronów, pełniące określone funkcje.

Neuronaukowiec, fizyk i  filozof Donald MacKay zauważył kiedyś, że

łatwiej zrozumieć, jak działa dana rzecz, jeśli nie działa prawidłowo.

Z  doświadczenia na gruncie nauk fizycznych wiedział, że inżynierowie

mogą łatwiej dociec, jak działa, dajmy na to, telewizor, kiedy obraz na

[3]
ekranie migoce, niż wówczas, gdy urządzenie działa sprawnie .

Podobnie badanie zepsutych mózgów pozwala lepiej zrozumieć, jak

działają te niezepsute.

Najbardziej przekonujących dowodów empirycznych przemawiających

za modułową architekturą mózgu dostarczają badania pacjentów

z  uszkodzeniami tego organu. Kiedy zmiana jest ograniczona

miejscowo – występuje w ściśle określonym obszarze mózgu – dochodzi

do upośledzenia niektórych zdolności poznawczych, ponieważ sieć

neuronów odpowiedzialna za daną zdolność przestaje działać, podczas

gdy inne pozostają nietknięte i  nadal pracują bez zarzutu. Szczególnie


interesujące u  pacjentów ze zmianami w  mózgu wydaje się to, że

niezależnie od wszelkich występujących u  nich nie-prawidłowości

wszyscy wydają się całkowicie świadomi. Gdyby świadome

doświadczenie zależało od sprawnego działania całego mózgu, to nie

powinno tak być. Fakt, że moduły są wszechobecne, ma doniosłe

znaczenie dla mojej tezy, ważne jest zatem, abyśmy zrozumieli, jak

bardzo modułowy jest nasz mózg.

Brakujące moduły, ale mózg nadal działa


Weźmy dowolny płat mózgu i  rozważmy przykład ludzi, którzy doznali

udaru. Na przykład pacjenci z  uszkodzeniem prawego płata

ciemieniowego często cierpią na zaburzenie zwane zespołem

pomijania stronnego (spatial hemi-neglect). W  zależności od

rozmiaru i  lokalizacji uszkodzenia pacjenci z  zespołem pomijania

stronnego mogą się zachowywać tak, jakby część lub całość lewej strony

ich świata –  w niektórych wypadkach włącznie z  lewą stroną ich ciała

–  wcale nie istniała! Mogą na przykład nie zjadać jedzenia z  lewej

strony talerza, nie golić lewej strony twarzy lub nie nakładać na nią

makijażu, nie rysować lewej strony zegara, nie czytać tekstu po lewej

stronie książki i nie zdawać sobie sprawy z obecności przedmiotów lub

osób w  lewej połowie pokoju. Niektórzy zaprzeczają, że ich lewa ręka

lub noga należy do nich, i nie używają tych kończyn, gdy próbują wstać

z łóżka – mimo że nie są sparaliżowani. Niektórzy pacjenci mogą nawet

pomijać lewą stronę przestrzeni w  swoich wyobrażeniach

[4]
i  wspomnieniach . Fakt, że owe deficyty różnią się zależnie od

wielkości i  umiejscowienia zmian, sugeruje, że uszkodzenia

przerywające określone obwody neuronalne skutkują upośledzeniem

różnych procesów składowych. Mapowanie czynnościowej


neuroanatomii tych zmian dostarczyło mocnych dowodów empirycznych

[5]
na poparcie tej tezy .

A teraz niespodzianka: jakkolwiek zespół pomijania stronnego może

wystąpić na skutek utraty układów czuciowych lub motorycznych,

pewna jego wersja może się pojawić również wtedy, gdy wszystkie

systemy czuciowe i motoryczne działają sprawnie. Chodzi tu o zjawisko

zwane wygaszaniem (extinction). W tym wypadku każda półkula sama

wydaje się działać prawidłowo, ale zaczyna zawodzić, gdy musi

pracować równocześnie z  drugą połową mózgu. Informacje

z  pomijanego pola mogą być jednak wykorzystywane na poziomie

[6]
nieświadomym . To oznacza, że te informacje nadal tam są, ale

pacjent nie jest ich świadomy. Oto jak to się dzieje. Kiedy pacjentom

z  zespołem pomijania lewostronnego pokazuje się bodźce wzrokowe

w  ich prawym i  lewym polu widzenia jednocześnie, mówią, że widzą

tylko bodziec po prawej stronie. Kiedy jednak pokazuje im się tylko

bodziec wzrokowy po stronie lewej, odbierany przez to samo miejsce na

siatkówce, co poprzednio, ów bodziec jest spostrzegany prawidłowo.

Innymi słowy, gdy zdrowa strona nie konkuruje ze stroną pomijaną, ta

druga jest zauważana i  pojawia się w  świadomości. Najdziwniejszy

wydaje się fakt, że ci pacjenci zaprzeczają, jakoby cokolwiek było nie

w  porządku. Są nieświadomi utraty tych obwodów i  wynikających

z tego problemów.

Wydaje się zatem, że ich autobiograficzne Ja jest zbudowane

wyłącznie z tego, czego są świadomi. A to, czego są świadomi, zależy od

dwóch czynni-ków. Po pierwsze, nie mogą być świadomi istnienia

obwodów, które nie działają. To tak, jakby dany obwód nigdy nie

istniał, a  świadomość tego, za co odpo-wiadał, znikła razem z  nim. Po

drugie, występuje swoista konkurencja w  zakresie przetwarzania

informacji. Przetwarzanie odbywające się w  niektórych obwodach

przedostaje się do świadomości, podczas gdy procesom przebiegającym


w  innych obwodach to się nie udaje. Krótko mówiąc, świadome

doświadczenie wydaje się powiązane z  przetwarzaniem, które ma

charakter lokalny, a  co za tym idzie –  wytwarza ściśle określoną

zdolność, przy czym takie przetwarzanie może przegrać w  konkurencji

z  przetwarzaniem przebiegającym w  innych modułach i  nigdy nie

przedostać się do świadomości. Ten fakt ma zdumiewające implikacje.

Niektórzy pacjenci nie są świadomi części ciała, które

w  rzeczywistości mają, lecz moim ulubionym zaburzeniem klinicznym

[7]
jest „syndrom trzeciego człowieka” (third man) , polegający na tym, że

dana osoba odczuwa obecność kogoś, kogo tak naprawdę przy niej nie

ma. Chodzi tu o  tak zwane „odczucie obecności” (feeling of presence –

 FoP) – wrażenie, że w danym miejscu znajduje się ktoś jeszcze, często

tuż obok. Jest ono tak silne, że ludzie oglądają się przez ramię albo

częstują nieistniejącą osobę jedzeniem. To nie to samo, co sytuacja,

w  której podążamy ciemną aleją i  z rosnącym przerażeniem

wyobrażamy sobie, że ktoś za nami idzie. W  wypadku FoP odczucie

czyjejś obecności pojawia się niespodziewanie. To zjawisko często

występuje wśród alpinistów oraz innych osób doświadczających

wyczerpania fizycznego w skrajnie trudnych warunkach.

W książce Naga Góra Reinhold Messner, przez wielu uważany za

największego alpinistę wszech czasów (był pierwszym, który

w  pojedynkę zdobył Mount Everest; nawiasem mówiąc, nigdy nie

wspomaga się tlenem), opisał, co się wydarzyło w  1970 roku, podczas

jego pierwszej poważnej wyprawy wspinaczkowej w  Himalajach, kiedy

wspinał się ze swoim bratem, Güntherem: „Nagle obok mnie pojawia

się trzeci alpinista. Schodzi z  nami w  dół. Trochę na prawo ode mnie.

Podejrzewam, że jest oddalony ode mnie o  kilka kroków, akurat poza

zasięgiem wzroku. Nie mogę więc zobaczyć jego postaci, nie odwracając

się od mojego obszaru koncentracji, ale jestem przekonany, że jest

z  nami ktoś trzeci. Czuję jego obecność, nie potrzebuję na to


[8]
dowodów” . Nie trzeba być jednak wyczerpanym alpinistą, aby

doświadczyć takiej obecności. Niemal połowie wdów i  wdowców

[9]
zdarzyło się odczuwać obecność zmarłego współmałżonka . Takie

zjawiska bywają zaczątkiem opowieści o  zjawach, duchach i  boskich

interwencjach.

Nic podobnego – twierdzi szwajcarski neurolog i neuropsycholog Olaf

Blanke, który zetknął się z  omawianym zjawiskiem zupełnie

niespodziewanie. Wywołał je poprzez elektryczną stymulację kory

skroniowej i  ciemieniowej mózgu pacjenta w  poszukiwaniu ogniska

[10]
napadu padaczkowego . Blanke badał również grupę pacjentów

uskarżających się na syndrom FoP. Odkrył, że uszkodzenia w  obrębie

kory czołowo-ciemieniowej są powiązane z  tym zjawiskiem, przy czym

występują po przeciwnej stronie ciała niż wyczuwana obecność innej

[11]
osoby . Jego zdaniem to umiejscowienie sugerowało, że zakłócenia

przetwarzania informacji czucioworuchowych oraz integracji

polisensorycznej mogą być odpowiedzialne za badane zjawisko. Chociaż

jesteśmy świadomi swojego umiejscowienia w  przestrzeni, nie zdajemy

sobie sprawy z  rozmaitych procesów (przetwarzania informacji

wzrokowych, słuchowych, dotykowych, proprioceptywnych, ruchowych

i  tak dalej), które prawidłowo zintegrowane, zapewniają nam owo

poczucie umiejscowienia. Jeśli przetwarzanie jest zaburzone, to mogą

się pojawić błędy i  nasz mózg będzie niewłaściwie interpretował nasze

położenie w  przestrzeni. Blanke i  jego współpracownicy wykazali, że

jeden z  takich błędów przejawia się w  postaci FoP. Niedawno

w pomysłowy sposób wywołali zjawisko FoP u zdrowych osób badanych

poprzez zakłócenie ich procesów przetwarzania bodźców sensorycznych

[12]
za pomocą robotycznej ręki .

Gdy wykonujemy jakiś ruch, spodziewamy się wystąpienia jego

skutków w  określonym czasie i  miejscu. Drapiesz się w  plecy i  w tym

samym czasie spodziewasz się określonego wrażenia zmysłowego w  tej


części ciała. Kiedy to wrażenie jest zgodne z  twoimi oczekiwaniami –

 pojawia się w spodziewanym miejscu i czasie – twój mózg interpretuje

je jako wywołane przez ciebie samego. Jeśli natomiast występuje

niezgodność –  jeśli sygnały są przestrzennie i  czasowo niezgodne

z  twoim dotykiem –  to uznajesz, że źródłem wrażenia jest jakiś inny

podmiot. Teraz wyobraź sobie, że masz zasłonięte oczy. Stoisz

z  ramionami wyciągniętymi przed siebie, z  opuszką palca

w  przypominającym naparstek otworze w  obudowie robota, który

przesyła sygnały do robotycznej ręki znajdującej się za twoimi plecami.

Ruchy twojego palca kontrolują ruchy robotycznej ręki, która głaszcze

cię po plecach, gdy poruszasz palcem. Czasami twój palec napotyka

opór odpowiadający sile, z  jaką naciska; w  innych wypadkach

odczuwany opór jest przypadkowy, nieskorelowany z  tym, co robisz.

Jeśli doznanie zmysłowe na twoich plecach będzie zsynchronizowane

z twoim ruchem, to mimo że stoisz z rękami wyciągniętymi do przodu,

twój mózg wytworzy złudzenie: będziesz miał wrażenie, że twoje ciało

przesunęło się do przodu, a  ty dotykasz swoich pleców własnym

palcem. Jeśli natomiast wrażenie dotykowe nie będzie

zsynchronizowane z  twoim ruchem, jeśli pojawi się z  sekundowym

opóźnieniem, to twój mózg upichci coś innego. Spostrzegane położenie

własnego ciała w  przestrzeni (self-location) przesunie się

w  przeciwnym kierunku, w  tył od opuszki twojego palca, i  będziesz

miał poczucie, jakby coś innego niż ty sam dotykało twoich pleców. Jeśli

w  dodatku kierując robotyczną ręką, nie czujesz oporu pod opuszką

palca, to ów niesynchroniczny dotyk wytworzy w  tobie poczucie, że

jakaś inna osoba, stojąca za tobą, dotyka twoich pleców! Za pomocą

dobrze kontrolowanych stymulacji cielesnych Blanke wykazał, że

konflikty sensomotoryczne (czyli sygnały przestrzennie i  czasowo

niezgodne z  fizycznym autodotykiem) wystarczają, aby wywołać FoP


u  zdrowych ochotników. Takie konflikty generowano poprzez

manipulowanie różnymi lokalnymi sieciami neuronalnymi – modułami.

Gdyby mózg działał jako jedna całość –  „zaczarowane krosno” –  to

usunięcie fragmentów mózgu lub stymulowanie nieprawidłowego

przetwarzania w  niektórych obwodach albo wyłączyłoby cały system,

albo też spowodowałoby dysfunkcje we wszystkich dziedzinach

przetwarzania. Tymczasem wielu ludzi może prowadzić względnie

normalne życie, nawet jeśli utracili fragmenty mózgu, bądź też zostały

one uszkodzone. Uszkodzenie ograniczonych miejscowo obszarów

mózgu prawie zawsze wiąże się z  upośledzeniem niektórych (lecz nie

wszystkich) sfer poznawczych. Na przykład jedną z dobrze rozwiniętych

sfer poznawczych u  ludzi jest język. Dwa główne obszary mózgu

wchodzące w skład ośrodka mowy to pole Broki i pole Wernickego.

Pole (ośrodek) Broki odgrywa ważną rolę w produkcji mowy, podczas

gdy pole Wernickego odpowiada za rozumienie języka pisanego

i  mówionego oraz pomaga nam organizować słowa i  zdania

w  zrozumiały sposób. Ośrodek Broki odpowiada w  szczególności za

artykułowanie słów –  koordynowanie mięśni warg, ust i  języka,

abyśmy mogli poprawnie wymawiać słowa –  podczas gdy pole

Wernickego układa wyrazy w  zrozumiałym porządku, zanim jeszcze

otworzymy usta, aby je wypowiedzieć. Ludzie z  uszkodzonym

ośrodkiem Broki mają trudności w  mówieniu –  mówią z  wysiłkiem,

zacinają się, ale słowa, które udaje im się wykrztusić, są ułożone

w  zrozumiałym porządku (na przykład „Mózgi… modu… łowe”), choć

ich wypowiedzi mogą być niepoprawne gramatycznie. Pacjenci

z  uszkodzeniem ośrodka Broki zdają sobie sprawę ze swoich błędów

i  szybko się frustrują. W  odróżnieniu od nich, osoby z  uszkodzeniem

ośrodka Wernickego mają problem głównie z  rozumieniem. Ich

wypowiedzi odznaczają się prawidłową prozodią i  są poprawne

gramatycznie, ale to, co mówią, jest pozbawione sensu. To pokazuje, że


każdy z  tych obszarów ma inne zadanie. Jeśli dany obszar jest

uszkodzony, to nie może prawidłowo spełniać swojej funkcji. A  to

jednoznacznie przemawia za hiperspecyficzną modułowością mózgu.

Dlaczego w  toku ewolucji mózgi stały się modułowe? Kiedyś

słyszałem, jak dyrektor generalny koncernu Coca-Cola opowiadał

o  jego strukturze korporacyjnej. Wraz ze wzrostem firmy zarządzający

zdali sobie sprawę, że posiadanie jednej, centralnej fabryki, która

wytwarza wszystkie produkty, a  następnie wysyła je w  świat, to

rozwiązanie kosztowne i  nieefektywne. Krótko mówiąc, czyste

szaleństwo. Transport, koszty opakowań, koszty podróży związanych

z  organizacją spotkań zespołu zarządzającego w  centrali firmy i  tak

dalej –  to wszystko nie miało sensu. Nie ulegało wątpliwości, że

należało podzielić świat na regiony, zbudować fabrykę w  każdym

regionie i  dystrybuować produkty lokalnie. Centralne planowanie

przeszło do historii, nadszedł czas zarządzania lokalnego. To samo

można powiedzieć o  mózgu –  takie rozwiązanie jest tań-sze i  bardziej

efektywne.

Ewolucja a większy mózg


W przeszłości panowało przekonanie, że zwierzęta wyposażone w mózg

większy, niż można by się spodziewać, zważywszy na rozmiary ich

ciała, odznaczają się wyższą inteligencją i  większymi zdolnościami.

Ludzie –  jak sądzono –  mają nieproporcjonalnie duży mózg (w

stosunku do wielkości ciała), co wyjaśnia wielką rozmaitość naszych

zdolności i  nadzwyczajną inteligencję. W  tej teorii jednak od początku

tkwił pewien problem. Otóż neandertalczycy mieli większy mózg niż

my, ludzie współcześni, a  jednak nie wytrzymali konkurencji, gdy

przedstawiciele Homo sapiens pojawili się na scenie. Moje badania

ujawniły jeszcze inny drażliwy problem. Po zabiegu rozdzielenia półkul


mózgowych osamotniona lewa półkula (połowa mózgu) jest niemal

równie inteligentna, jak cały zdrowy mózg. Większe nie zawsze znaczy

lepsze. O co tutaj chodzi?

Suzana Herculano-Houzel i  jej współpracownicy, uzbrojeni w  nową

technikę określania liczby neuronów i  komórek innych niż neurony

w  ludzkim mózgu, porównali te dane u  różnych gatunków. Odkryli, że

plotki o  naszym wielkim mózgu są bardzo przesadzone! Ludzki mózg

wcale nie jest wyjątkowy pod względem wielkości. To zwyczajny,

proporcjonalnie powiększony mózg naczelnych. Jakkolwiek ludzki mózg

jest dużo większy i  zawiera o  wiele więcej neuronów, stosunek liczby

[13]
neuronów do wielkości mózgu jest taki sam u ludzi i u szympansów .

Badacze dokonali jeszcze innego fascynującego odkrycia: otóż często

wspominany w literaturze stosunek liczby komórek glejowych do liczby

neuronów, 10:1, rzucany jakby od niechcenia, bez podawania źródeł,

okazał się całkowicie błędny. W rzeczywistości ludzki mózg zawiera nie

więcej niż 50% komórek glejowych, podobnie jak mózgi innych

naczelnych. Obalając kolejny mit, Herculano-Houzel sugeruje, że ów

zawyżony stosunek liczby komórek glejowych do liczby neuronów, 10:1,

mógł leżeć u podstaw fałszywego poglądu, że wykorzystujemy zaledwie

[14]
10% swojego mózgu .

W porównaniu z  mózgami innych ssaków ludzki mózg ma jednak

dwa atuty. Po pierwsze, jest zbudowany według tych samych,

nadzwyczaj ekonomicznych i  oszczędzających przestrzeń reguł

skalowania, co mózgi innych naczelnych, przy czym spośród owych

ekonomicznie skonstruowanych mózgów naczelnych nasz jest

największy, a  co za tym idzie –  zawiera największą liczbę neuronów.

Wielkości mózgu nie można jednak pochopnie traktować jako

wskaźnika liczby neuronów, gdy porównuje się inne gatunki

z  naczelnymi. Na przykład wśród gryzoni mózg szczura jest większy

niż mózg myszy, ale nie tylko dlatego, że zawiera więcej neuronów.
U  gryzoni wraz ze wzrostem liczby neuronów wzrasta również ich

wielkość. Innymi słowy, pojedynczy neuron szczura zajmuje więcej

miejsca niż pojedynczy neuron myszy. Przypomina to różnicę pod

względem wielkości między makaronem capellini a  spaghetti.

Tymczasem u  naczelnych, gdy porównuje się małpy i  ludzi, obserwuje

się wzrost liczby neuronów, ale ich wielkość pozostaje taka sama.

W rezultacie u naczelnych większy mózg oznacza większy wzrost netto

liczby neuronów w  stosunku do objętości niż u  gryzoni. Gdybyśmy

wzięli mózg szczura i  powiększyli go do roz-miarów ludzkiego mózgu,

to ów szczur miałby siedem razy mniej neuronów niż człowiek, po

prostu dlatego, że każdy z  jego neuronów zajmowałby więcej miejsca.

Zwiększanie rozmiarów mózgu to ryzykowne przedsięwzięcie, ponieważ

– jak się wydaje – u różnych rzędów ssaków (naczelnych, gryzoni i tak

dalej) obowiązują różne reguły, jeśli chodzi o jego powiększanie.

W ten sposób wracamy do kwestii modułów. Gdyby w miarę wzrostu

liczby neuronów w  ludzkim mózgu każdy neuron łączył się ze

wszystkimi pozostałymi, to liczba aksonów (akson to ten element

neuronu, który przypomina przewód elektryczny) rosłaby wykładniczo.

Nasz mózg byłby gigantyczny –  jego średnica wynosiłaby dwa

[15]
kilometry , a  jego zapotrzebowanie na energię byłoby tak wielkie, że

nawet gdybyśmy byli karmieni przymusowo niczym gęsi tuluskie, to nie

[16]
zdołalibyśmy utrzymać go w  ruchu . W  rzeczywistości nasz mózg

stanowi około 2% masy całego ciała i  pochłania mniej więcej 20%

naszej energii. Mózg zużywa tak dużo energii, bo jest potężnym

układem elektrycznym, który działa bez chwili wytchnienia, niczym

klimatyzator w  Phoenix w  lipcu. Inny problem polegałby na tym, że

aksony takiego mózgu byłyby tak długie, iż prędkość przetwarzania

spadłaby na łeb, na szyję.

Neuronaukowiec Georg Striedter bada, w  jaki sposób i  dlaczego

w  toku ewolucji mózgu pojawiły się różnice międzygatunkowe. Jego


zdaniem istnieją pewne prawa, które determinują sieć połączeń

[17] [18]
neuronalnych w  miarę, jak mózg się powiększa . Po pierwsze,

liczba neuronów, z  jakimi łączy się przeciętna komórka nerwowa, nie

zmienia się wraz ze wzrostem wielkości mózgu. Bezwzględna liczba

połączeń neuronalnych pozostaje taka sama, dzięki czemu

powiększający się mózg jest tańszy w  utrzymaniu, biorąc pod uwagę

jego zapotrzebowanie na energię i  przestrzeń. Oznacza to jednak, że

w  miarę, jak mózg się powiększa, łączliwość neuronalna maleje, co

przekłada się na bardziej niezależne, lokalne przetwarzanie.

Drugie prawo głosi, że długość połączeń maleje. W  rezultacie

większość neuronów łączy się z  neuronami położonymi w  pobliżu.

Krótkie połączenia zużywają mniej energii i  mniej miejsca oraz

potrzebują mniej czasu na przesy-łanie sygnałów, a  co za tym idzie –

  komunikacja między owymi lokalnymi neuronami jest sprawna

i  wydajna. Tak więc w  miarę jak mózg się powiększa, następuje

reorganizacja połączeń neuronalnych i  zmienia się architektura

strukturalna mózgu. Powstaje struktura złożona ze skupisk dobrze

połączonych neuronów –  swego rodzaju neuronalnych społeczności

lokalnych.

Taka organizacja pozwala owym odrębnym skupiskom

wyspecjalizować się w  określonych funkcjach. W  ten sposób powstaje

moduł. Chociaż większość neuronów w  obrębie danego modułu tworzy

połączenia wewnątrzmodułowe, nieliczne łączą się z  neuronami

w sąsiednich modułach, co umożliwia powstanie obwodu neuronalnego.

Obwód neuronalny powstaje wtedy, gdy jakiś moduł odbiera

informacje, modyfikuje je i  przesyła do innego modułu, w  którym

ulegają one dalszej modyfikacji. Mimo że większość modułów jest słabo

połączona z  innymi modułami, owe skąpe połączenia pozwalają na

powstawanie grup sąsiadujących ze sobą modułów odpowiedzialnych za

bardziej złożone przetwarzanie. Więcej na ten temat dowiemy się


w  następnym rozdziale, poświęconym warstwowej architekturze

mózgu.

Niektóre moduły są zorganizowane hierarchicznie –  są zbudowane

[19]
z  submodułów, które z  kolei składają się z  sub-submodułów . Duża

liczba niezależnie działających modułów rodzi potrzebę sprawnej

komunikacji i  koordynacji, co doprowadza nas do trzeciej zasady: nie

wszystkie połączenia ulegają skróceniu. Niektóre długie połączenia

zostają zachowane i  pełnią funkcję dróg na skróty między odległymi

ośrodkami.

Te prawa dotyczące połączeń neuronalnych w mózgu generują coś, co

nazywamy architekturą „małego świata” (small world). Ten rodzaj

architektury jest znany z  tego, że umożliwia wysoki stopień

modułowości, a przy tym połączenie dwóch losowo wybranych modułów

wymaga niewielu kroków. Architekturę małego świata odnajdujemy

w  wielu złożonych systemach, takich jak sieć energetyczna

w  zachodniej części Stanów Zjednoczonych oraz sieci społeczne. Liczne

badania potwierdziły, że mózg jest zorganizowany w  skupiska –  lub

[20]
moduły – funkcjonalnie połączonych obszarów .

Zalety mózgu modułowego


Przyglądając się temu modelowi, można dostrzec wiele powodów,

z  jakich mózg modułowy ma przewagę nad mózgiem działającym jako

jedna całość. Po pierwsze, mózg modułowy zużywa mniej energii.

Ponieważ jest podzielony na niezależne jednostki, tylko obszary

w obrębie danego modułu muszą być aktywne, aby mózg mógł wykonać

konkretne zadanie. Gdybyśmy do każdej czynności potrzebowali całego

mózgu, to mózgowy rachunek za energię elektryczną nie mieściłby się

w głowie. Podobnie jest latem w Phoenix. Jeżeli nocą klimatyzacja jest

włączona tylko w  twojej sypialni, to płacisz mniej, niż gdyby działała


w  całym domu. Czy jednak nasz mózg –  pomimo oszczędności energii

dzięki budowie modułowej –  naprawdę jest tak energooszczędny, skoro

do jego zasilania potrzeba jednej piątej naszej diety?

Nasz mózg okazuje się dość wydajny, mimo że jest prawdziwym

energożercą. Neurony przewodzą impulsy elektryczne poprzez aksony

i dendryty – przewody mózgu. Mimo że okablowanie neuronalne działa

inaczej niż system przewodów w  nowoczesnych urządzeniach

elektrycznych, zasadnicza idea jest taka sama: prąd elektryczny

przenosi informacje z  jednego miejsca do drugiego, a  ten proces

wymaga energii. Im większą odległość pokonuje prąd elektryczny, tym

więcej energii zużywa. Ponadto im grubszy akson, tym większy opór

elektryczny, a  co za tym idzie –  tym więcej energii potrzeba, aby go

pokonać. Dzięki pracy w  obrębie lokalnych modułów mózg oszczędza

energię poprzez działanie na niewielkie odległości, przy użyciu cienkich

przewodów i  przy krótkim czasie przewodzenia informacji

przepływających między modułami. Zważywszy na dynamikę systemów

neuronalnych, sześćdziesięcioprocentowy udział włókien

przewodzących (wire fraction; udział aksonów w  całej objętości

substancji szarej) jest przewidywaną wartością optymalną, jeśli

zminimalizuje się długość połączeń, a  co za tym idzie –  opóźnień

w  przewodzeniu. Wiele struktur mózgowych składa się z  systemów

[21]
przewodów zbliżonych do owej wartości optymalnej . Gdyby mózg

działał jako jedna całość, to każdy jego obszar zawierałby podobną

liczbę połączeń do komunikacji na krótkie i długie dystanse, a większe

odległości oznaczają więcej przewodów i w konsekwencji wyższe koszty.

Mózg modułowy obniża koszty poprzez utrzymywanie niższego

stosunku objętości przewodów do objętości substancji szarej, równego

3/5 (wspomniany wcześniej sześćdziesięcioprocentowy udział włókien

przewodzących), a  w ten sposób ogranicza liczbę linii elektrycznych


dalekiego zasięgu. Reasumując, wydaje się, że dzięki działaniu

modułowemu mózg maksymalizuje swoją wydajność energetyczną.

Mózg modułowy pracuje bardziej wydajnie, ponieważ jego liczne

moduły mogą równocześnie przetwarzać specjalistyczne informacje.

Dużo łatwiej jest chodzić, mówić i żuć gumę w tym samym czasie, jeśli

liczne układy modułowe pracują niezależnie od siebie, niż gdyby jeden

system próbował skoordynować wszystkie te działania. Ponadto, gdyby

nasz mózg działał jako jedna całość, to musiałby być majstrem od

wszystkiego, aby dobrze wykonywać wszystkie codzienne zadania.

Model, w  którym wyspecjalizowane moduły odpowiadają za jasno

określone zadania, wydaje się dużo bardziej racjonalny. Specjalizacja

jest wszechobecna w  złożonych systemach. Na przykład gospodarka

kwitnie, gdy najlepsi rolnicy uprawiają ziemię, najlepsi pedagodzy

uczą, a  najlepsi menedżerowie zarządzają. Kiepscy menedżerowie

mogą doprowadzić firmę do ruiny, kiepscy rolnicy mogą zbankrutować,

a  kiepscy nauczyciele –  no cóż, każdy z  nas spotkał przynajmniej

jednego na swojej drodze i  dobrze zna przykre konsekwencje. Kiedy

ludzie zajmują się konkretną pracą, nie zawracając sobie głowy innymi

zajęciami niezbędnymi do utrzymania gospodarki, stają się ekspertami.

Eksperci wytwarzają dobra bardziej efektywnie. Kiedy pracują

równocześnie, osiągają lepsze wyniki gospodarcze, niż gdyby każdy

próbował zajmować się wszystkim po trochu. Racjonalne wydaje się

zatem przypuszczenie, że w toku ewolucji nasz mózg stał się modułowy,

aby efektywnie przetwarzać rozmaite typy informacji w  tym samym

czasie.

Co najważniejsze, mózg modułowy umożliwia również szybszą

ewolucję układu i  jego adaptację do zmieniającego się środowiska.

Ponieważ jeden moduł może się zmienić lub powielić niezależnie od

pozostałych, nie istnieje ryzyko, że w  toku tego procesu dojdzie do

zmiany lub utraty innych, dobrze przystosowanych modułów. Innymi


słowy, dalsza ewolucja jednej części nie zagraża innym, sprawnie

działającym elementom systemu.

Nawet jeśli usuniemy z  tego równania ewolucję, to i  tak modułowa

budowa mózgu jest pomocna w  zdobywaniu nowych umiejętności.

Badacze odkryli, że architektura konkretnych sieci zmienia się w  toku

[22]
przyswajania nowej umiejętności ruchowej . Jakkolwiek

doskonalenie wielu umiejętności zajmuje sporo czasu, możemy uczyć

się nowych umiejętności poprzez doświadczenie. Gdyby cały mózg

zmieniał sposób swojego działania za każdym razem, gdy zdobywamy

nową umiejętność, to stracilibyśmy biegłość w  tych, które już mamy.

Dodatkowe korzyści płynące z modułowej architektury mózgu są takie,

że zapewnia ona oszczędność energii, kiedy brakuje zasobów,

umożliwia wyspecjalizowane, równoległe przetwarzanie poznawcze,

gdy czas jest ograniczony, ułatwia modyfikację funkcji mózgu, kiedy

pojawiają się nowe naciski związane z  przetrwaniem, oraz pozwala

nam zdobywać rozmaite nowe umiejętności. Jeśli się nad tym

zastanowić, to czy mózg mógłby być zorganizowany w  jakiś inny

sposób?

Przejście na modułowość
Ludzki mózg nie jest ani jedynym mózgiem o  budowie modułowej, ani

też jedynym modułowym systemem biologicznym. Mózgi robaków,

much i  kotów również są modułowe, podobnie jak sieci naczyniowe,

sieci interakcji białek, sieci regulujące ekspresję genów, sieci

[23]
metaboliczne, a  nawet ludzkie sieci społeczne . Jak wyewoluowała

owa modułowość? Jakie naciski selekcyjne doprowadzają do powstania

systemu modułowego? To pytanie nurtowało trójkę informatyków,

którzy, starannie je rozważywszy, postanowili przetestować hipotezę


Striedtera, że modułowość jest produktem ubocznym nacisku na

[24]
minimalizowanie kosztów połączeń .

Koszty budowy i  utrzymania sieci obejmują koszty utworzenia

i utrzymania połączeń oraz energii potrzebnej do przesyłania sygnałów

wzdłuż połączeń neuronalnych, a  także koszty opóźnień

w  przewodzeniu sygnałów. Im więcej połączeń oraz im są dłuższe, tym

[25]
więcej kosztuje budowa i  utrzymanie sieci . Ponadto dodanie

kolejnych połączeń lub wydłużenie ścieżki przewodzenia może wydłużyć

ważne czasy reakcji, co nie sprzyja przetrwaniu w  konkurencyj-nym

środowisku, gdy drapieżnik zaczyna się ślinić na twój widok, obnaża

kły i wyciąga pazury.

Informatycy Jeff Clune, Jean Baptiste Mouret i  Hod Lipson zrobili

to, co zwykle robią specjaliści w  dziedzinie nauk komputerowych:

[26]
zaprojektowali symulacje komputerowe . Wykorzystali dobrze

zbadane sieci, które odbierały informacje czuciowe i  generowały

określone wyniki. Owe wyniki zależały od tego, jak dobrze działała

dana sieć, napotkawszy problemy środowiskowe. Badacze

przeprowadzili symulację procesu ewolucji, obejmującego dwadzieścia

pięć pokoleń, wpisując w  nią bezpośrednie naciski selekcyjne albo na

samą maksymalizację wydajności, albo też na maksymalizację

wydajności oraz minimalizację kosztów połączeń. Voilá! Po dodaniu

minimalizacji kosztu połączeń –  zarówno w  niezmiennym, jak i  w

zmieniającym się środowisku –  od razu zaczęły się pojawiać moduły,

natomiast wtedy, kiedy nie uwzględniono minimalizacji kosztów, nic

takiego się nie wydarzyło. A  gdy badacze przyjrzeli się najbardziej

wydajnym spośród ukształtowanych ewolucyjnie sieci, okazało się, że są

to sieci modułowe. Odkryli przy tym, że im niższe były koszty, tym

wyższy był ostateczny stopień modułowości. Te sieci ewoluowały

również dużo szybciej –  w wyraźnie mniejszej liczbie pokoleń –

 niezależnie od tego, czy działo się to w stabilnym, czy w zmieniającym


się środowisku. Opisane symulacje eksperymentalne dostarczają

mocnych dowodów na to, że naciski selekcyjne na maksymalizowanie

wydajności sieci i  minimalizowanie kosztów połączeń skutkują

powstaniem sieci, które są w  większym stopniu modułowe

i ewoluowalne – zdolne do ewolucyjnego rozwoju.

Teraz już wiemy, że systemy modułowe mają wiele zalet, ale jak to

robią? W  jaki sposób tysiące niezależnych, lokalnych modułów działają

wspólnie, aby koordynować nasze myśli i  zachowania i  ostatecznie

wytwarzać nasze świadome doświadczenie?

Połączenia modułowe
Mimo że moduły odznaczają się dużą liczbą połączeń wewnętrznych,

aby dobrze sobie radzić z wyspecjalizowanymi funkcjami, wiemy już, że

są także luźno połączone z  innymi modułami. Komunikacja między

modułami jest niezbędna do koordynowania złożonych zachowań. Na

przykład ośrodki Broki i  Wernickego spełniają własne

wyspecjalizowane funkcje językowe, ale muszą też porozumiewać się ze

sobą. Ośrodek Wernickego musi zorganizować fonemy i  słowa

w  składne zdania, aby ośrodek Broki mógł pokierować twoimi war-

gami, ustami i  językiem, żeby wyartykułowały poprawną sekwencję

dźwięków. Te dwa pola językowe są gęsto połączone pęczkiem

łukowatym –  wiązką włókien nerwowych biegnących między nimi jak

autostrada. Twój mózg minimalizuje takie kosztowne, duże sieci

komunikacyjne poprzez zmniejszenie liczby połączeń między modułami

odpowiadającymi za odmienne typy funkcji poznawczych. Nie ma

potrzeby aktywizować ośrodków Broki i  Wernickego, kiedy wąchasz

różę, chyba że zabierasz się do wygłoszenia sonetu sławiącego jej

piękno albo rozprawy o  hodowcach, którzy krzyżują róże, kierując się

wyglądem, a  nie zapachem. Moduły mózgowe komunikują się ze sobą,


przy czym między modułami pełniącymi pokrewne funkcje poznawcze

istnieje niewspółmiernie więcej połączeń niż między modułami

uczestniczącymi w zupełnie różnych procesach.

Mózgi ludzi i zwierząt – na czym polega różnica?


Nawet przy zastosowaniu bardzo różnych metod i  technik analizy

danych większość badań wykazuje, że moduły –  zarówno

w  strukturalnych, jak i  funkcjonalnych sieciach mózgowych –

  występują u  wszystkich gatunków i  mają dużo wspólnych

[27]
właściwości . Warto poświęcić chwilę na zrozumienie różnicy między

siecią strukturalną a  siecią funkcjonalną. Termin „struktura” odnosi

się po prostu do anatomii fizycznej danej sieci: ile jest w niej neuronów,

jak są ułożone, jaki mają kształt i  tak dalej. Sieć funkcjonalna spełnia

określoną funkcję – może na przykład odpowiadać za mówienie albo za

rozumienie języ-ka. Co istotne, struktura danej sieci nie ujawnia jej

funkcji –  i na odwrót. Może nam dawać pewne wskazówki, ale to

wszystko. Na przykład możesz przyjrzeć się drzewu i  zobaczyć jego

strukturę, ale w  ten sposób nie dowiesz się niczego na temat funkcji

liści. Badania zwierząt –  od bezkręgowców po ssaki –  wykazały, że ich

moduły neuronalne, podobnie jak ludzkie, odznaczają się dużą liczbą

połączeń wewnętrznych i  są położone blisko siebie, aby ograniczyć

zużycie energii. Co interesujące, sieć neuronalna przezroczystego

nicienia o  nazwie Caenorhabditis elegans (organizmu mającego

kilkaset dobrze przebadanych neuronów) również działa modułowo,

choć jest on jedną z  najmniejszych istot wyposażonych w  układ

[28]
nerwowy . U  wszystkich gatunków modułowość okazuje się

efektywna i  niezbędna do skutecznego funkcjonowania i  ewolucyjnego

rozwoju w konkurencyjnym środowisku.


Naturalne wydaje się założenie, że skoro mózgi modułowe występują

zarówno u  zwierząt, jak i  u ludzi, to i  u jednych, i  u drugich muszą

mieć pewne wspólne aspekty poznawcze, między innymi świadomość.

Niestety, chociaż Thomas Nagel bardzo by tego pragnął, współczesna

technologia nie pozwala nam zrozumieć, jak różne organizmy

doświadczają świata. Często trudno nam zrozumieć nawet własną

percepcję świata. Najlepsze, co możemy zrobić, aby empirycznie

zrozumieć doświadczenia innych –  zarówno zwierząt, jak i  ludzi –  to

wykorzystać miary zachowań i aktywności mózgu.

Trudno się dziwić, że kojarzymy świadome doświadczenie ze

złożonymi umiejętnościami poznawczymi typowymi dla nas, ludzi.

Pochopnie wnioskujemy, że aby zwierzę mogło być świadome, musi

mieć podobne umiejętności. Swobodnie przypisujemy zdolność do

doświadczania świadomości rozmaitym obiektom –  od szczeniaków,

przez roboty, po (w moim wypadku) plymoutha coupe z 1949 roku.

Jedno z  podejść do poszukiwania sygnałów pierwotnych stanów

świadomych u  innych zwierząt polega na poszukiwaniu oznak

używania narzędzi. Używanie narzędzi jest jednym z  zachowań

uważanych za wskaźnik złożo-ności poznawczej. Okazuje się, że takie

oznaki można spotkać we wszystkich zakątkach królestwa zwierząt. Na

przykład ptaki z  rodziny krukowatych (wrony, kruki, sójki, sroki,

gawrony, orzechówki) posługują się narzędziami, aby wydobywać

pożywienie z  trudno dostępnych miejsc –  w sposób podobny do tego,

[29]
w  jaki szympansy tworzą i  wykorzystują narzędzia . Japońskie

wrony w  mieście Sendai wykorzystują samochody do rozbijania

orzechów. Zrzucają swoje przysmaki na przejście dla pieszych, czekają,

aż orzechy zostaną rozłupane przez przejeżdżające auta i  zbierają je

z jezdni dopiero wtedy, gdy zapali się czerwone światło. Wrony z Nowej

Kaledonii to prawdziwe geniuszki: wytwarzają dwa rodzaje narzędzi

i  używają ich w  różny sposób do różnych zadań. Zabierają je ze sobą,


gdy wyruszają na poszukiwanie jedzenia, podobnie jak wędkarz niesie

swoją wędkę. Potrafią też rozwiązywać problemy „metanarzędziowe”,

kiedy muszą użyć jednego narzędzia, aby uzyskać inne, potrzebne do

[30]
zdobycia jedzenia . Wrony z  różnych rejonów używają odmiennych

[31]
narzędzi, co wskazuje na zmienność i  transmisję kulturową , lecz

nawet wrony wychowywane w  niewoli też mogą sobie przyswoić

podstawowe umiejętności posługiwania się narzędziami z  patyków –

[32]
  bez udziału społecznego uczenia się . Choć najprawdopodobniej

oznacza to, że wrony są świadome –  w tym sensie, że są żywe i  bystre

i  doświadczają „tu i  teraz” –  czy można z  tego wnioskować, że są

świadome swoich umiejętności? Z  pewnością są wyposażone

w  wyspecjalizowane moduły, których nie mają inne ptaki, ale czy to

czyni je samoświadomymi? Autorzy licznych badań ich zachowania,

umiejętności i  procesów uczenia się nie ośmielili się zmierzyć z  tym

pytaniem. A co z szympansami?

U szympansów żyjących na wolności od dawna obserwowano

wykorzystywanie narzędzi, przede wszystkim patyków do wygarniania

mrówek i miodu, a także liści do nabierania wody. Podobnie jak wrony,

szympansy z różnych rejonów geograficznych używają różnych narzędzi

w  różnych celach, co wskazuje na zmienność kulturową i  transmisję

społeczną posługiwania się narzędziami. Kiedy jednak szympans

przyswaja sobie dane zachowanie związane z  używaniem narzędzi,

staje się ono nawykiem, a zwierzę nie zastępuje go ulepszoną techniką,

jeśli taka została odkryta i  jest używana przez innych członków

[33]
grupy . Z  drugiej strony u  szympansów, które żyją z  ludźmi,

zaobserwowano zdolność do rozwiązywania łamigłówek i  znajdowania

rozwiązań złożonych problemów. Na przykład szympansy, które

zobaczyły banan wiszący pod sufitem, poza ich zasięgiem, układały

skrzynki jedną na drugiej, aby zbudować prowizoryczną drabinę

[34]
i  dosięgnąć smakowitego owocu . Czy lista szympansich sztuczek –
  choć długa i  imponująca –  czyni te zwierzęta świadomymi w  tym

samym znaczeniu, w  jakim świadomi są ludzie? Wydaje się, że jest to

źle postawione pytanie. Należy raczej zapytać: „Czy nasze świadome

doświadczenie zawiera podobną treść, jak doświadczenie szympansa?”

Próbując dociec, co oznaczają wszystkie te badania z  udziałem

zwierząt, autorzy wielu badań porównywali myślenie szympansów

z  myśleniem małych dzieci. W  prostym zadaniu ze wskazaniem

ukrytego przedmiotu –  w którym jakiś pożądany przedmiot zostaje

umieszczony poza zasięgiem wzroku badanego, a  badacz wskazuje

palcem miejsce jego ukrycia – szympansy są zdezorientowane, podczas

gdy ludzkie dzieci radzą sobie doskonale już w  wieku czternastu

[35]
miesięcy . Z  drugiej strony, kiedy szympansy lub dzieci obserwują

jakieś zachowanie, jedne i  drugie potrafią je naśladować, nawet jeśli

nigdy wcześniej nie robiły niczego podobnego. Dzieci jednak naśladują

wszystkie pokazane czynności –  nawet te niepotrzebne do osiągnięcia

celu (nagrody) –  szympansy zaś naśladują tylko te niezbędne. Jak

zasugerowano, świadczy to o  tym, że dzieci naśladują zachowania

kompulsywnie, podczas gdy szympansy robią to, aby osiągnąć

określony cel. Jeśli szympans nie otrzyma nagrody (lub kary), to

wyuczone zachowanie na ogół nie będzie powtarzane. Tymczasem

dzieci naśladują zachowania niezależnie od tego, czy spotyka je za to

nagroda, czy kara, co sugeruje, że ludzkie dzieci mają skłonność do

[36]
uczenia się nowych zachowań dla samego uczenia się . Byłaby to

ogromna różnica między człowiekiem a  resztą królestwa zwierząt.

Wciąż jednak wydaje się, że u  szympansów dzieje się dużo więcej niż

u  krukowatych. Czy dodatkowy hardware pod ich czaszką umożliwia

świadome doświadczenie, czy tylko zmienia jego treść?

Ludzie przewyższają inne zwierzęta pod względem zdolności do

uczenia się i  rozwiązywania abstrakcyjnych problemów. Wymyślili

technologie, które są bardziej zaawansowane i  użyteczne niż


jakiekolwiek narzędzie stworzone przez zwierzęta. Inżynierowie

i  naukowcy skonstruowali komputery, samoloty, drapacze chmur,

rakiety, które mogą nas zabrać na Księżyc… można wymieniać bez

końca. Do dokonywania wynalazków potrzebujemy jednak tylko

niewielkiej części populacji. Poprzez naśladowanie i  uczenie się

użyteczne przedmioty i odkrycia rozprzestrzeniają się lotem błyskawicy

i  stają się elementem naszej codzienności. Jak zauważył utalentowany

psycholog, David Premack, ludzkość ma „nielicznych wybrańców”,

którzy potrafią tworzyć wspaniałe technologie, takie jak panowanie

nad ogniem, koło, rolnictwo, elektryczność, telefony komórkowe,

internet czy ziemniaki faszerowane boczkiem i  serem. W  żadnym

innym gatunku nie ma ani jednego osobnika, który mógłby się

[37]
pochwalić tak wspaniałymi dokonaniami . Czy owa nadzwyczajna

zdolność do uczenia się, rozwiązywania problemów i  dokonywania

wynalazków jest tym, dzięki czemu możemy być świadomi? Musi

istnieć jakiś hardware –  specjalne moduły umożliwiające te wyjątkowe

zdolności. Czy to one są kluczem do naszego doświadczania

i rozumienia świata?

Cała ta idea, że istnieje jakiś magiczny eliksir, który wytwarza

ludzką świadomość, wydaje mi się chybiona. Widok wszystkich

wspaniałych rzeczy, jakie potrafi zrobić szympans, popycha nasz umysł

do działania. Przyznajemy więc tym zwierzętom wyjątkowy status –

  prawo wstępu do naszego klubu istot świa-domych. Czynimy to

z  radością. Potrzeba było jednak człowieka, który odkrył i  opisał życie

psychiczne szympansów, abyśmy mogli zadać pytanie: „Co one o  tym

wszystkim myślą? My mamy pewną teorię dotyczącą szympansów, ale

czy one mają teorię na nasz temat?”

Premack wraz ze swoim studentem, Guyem Woodruffem, był

pierwszym, który postanowił sprawdzić, czy inne zwierzęta mają

[38]
„teorię umysłu” . Posiadanie teorii umysłu oznacza, że jednostka
przypisuje sobie i  innym rozmaite stany mentalne, takie jak cele,

intencje, wiedza, przekonania, wątpliwości, udawanie, lubienie i  tak

dalej. Premack i  Woodruff, którzy ukuli ten termin, użyli słowa

„teoria”, ponieważ takich stanów u  innych nie można bezpośrednio

zaobserwować. Można ich dociec na drodze wnioskowania. Ludzie

zakładają, że inni mają umysł i  że ich stany mentalne kierują ich

działaniami. Dzisiaj, prawie czterdzieści lat po przedstawieniu tej idei,

kurz wciąż jeszcze nie opadł, wydaje się jednak, że choć niektóre

zwierzęta w  pewnym stopniu mają teorię umysłu, u  żadnego gatunku

nie jest ona tak rozwinięta, jak u  nas, ludzi. Josep Call, Michael

Tomasello oraz ich współpracownicy poświęcili długie lata na badanie

tego zagadnienia. Szympansy w  pewnym stopniu rozumieją, że inni

mają swoje cele i  intencje oraz własne spostrzeżenia i  wiedzę, ale

pomimo licznych prób udowodnienia, że jest inaczej, wydają się nie

[39]
rozumieć, że inni mogą mieć fałszywe przekonania –  nie zdają

[40]
egzaminu, z  którym radzą sobie dwuipółletnie dzieci . Niedawno

jednak Call i  Tomasello wraz z  Christopherem Krupeneye’em

otrzymali wyniki, z  których można wnioskować, iż trzy gatunki małp

człekokształtnych mają pewną ukrytą wiedzę, że inni miewają błędne

przekonania. Dotąd jednak nie udało się wykazać, że na podstawie tej

[41]
wiedzy dokonują jawnych wyborów zachowania . Stopień, w  jakim

teoria umysłu u  małp człekokształtnych jest podobna do tej

występującej u ludzi, pozostaje nieznany.

Ostatnio psy znalazły się w  czołówce zwierzęcych konkursów IQ,

w  których bierze się pod uwagę inteligencję społeczną. Chaser, słynny

owczarek border collie należący do emerytowanego profesora

psychologii Johna Pilleya, zna ponad tysiąc słów, rozumie składnię

[42]
i  potrafi wywnioskować, co oznaczają nowe wyrazy . Kiedy mu

powiesz, aby przyniósł dax (słowo, którego nigdy wcześniej nie słyszał),

Chaser przejrzy swój stos zabawek i  przyniesie tę, któ-rej nigdy


wcześniej nie widział. Psy umieją także wyciągać wnioski dotyczące

ukrytego jedzenia oraz innych schowanych przedmiotów na podstawie

sygna-łów społecznych, takich jak wskazanie palcem (szympansy tego

nie potrafią). Według Michaela Tomasello wymaga to rozumienia

dwóch poziomów intencji: co i  dlaczego. Pies musi zrozumieć, po

pierwsze, że osoba wskazująca chce zwrócić jego uwagę na to, co

wskazuje, a  po drugie,  dlaczego tego oczekuje: czy przekazuje mu

pomocne informacje na temat położenia danego przedmiotu, czy też

[43]
sama chce go dostać? Jakkolwiek szympansy często podążają za

gestem wskazywania, nie rozumieją, że schowano tam jedzenie.

Wydają się nie pojmować drugiego poziomu intencji: dlaczego. W ciągu

ostatnich dwunastu lat imponująca zdolność psów do wykorzystywania

sygnałów komunikacyjnych wysyłanych przez ludzi wzbudziła

zainteresowanie części badaczy zajmujących się teorią umysłu i chociaż

wstępne wyniki wskazują, że psy w  pewnym stopniu mają teorię

[44]
umysłu , trzeba przeprowadzić dużo więcej badań.

Mimo że miłośnicy psów przyjmują te odkrycia z  wielkim

entuzjazmem, należy pamiętać, że psy nie przejawiają podobnej

elastyczności w  sferach pozaspołecznych. Są niewolnikami swoich

szczególnych zainteresowań, a  raczej szczególnych zdolności. Kiedy

pokazuje się im sygnały niespołeczne –  takie jak jedzenie ukryte pod

uniesioną lub płasko leżącą pokrywą – nie potrafią rozwiązać problemu

(który dla szympansa byłby dziecinnie łatwy). Podobnie nie rozumieją,

że powinny chwycić sznurek, do którego przywiązano jedzenie, a  nie

ten, który nie jest przymocowany do smakołyku, co szympansy

[45]
zauważają w  mgnieniu oka . Szczególne zdolności poznawcze psów

sugerują, że mają one konkretne, odmienne niż u  innych zwierząt

moduły, które wyewoluowały w  odpowiedzi na inne naciski

środowiskowe. Treść ich świadomego doświadczenia jest inna niż


u  nas, ludzi, a  także inna niż u  szympansów, chociaż jej część bez

wątpienia jest wspólna dla wszystkich wspomnianych gatunków.

Reasumując, wydaje się, że próby znalezienia poznawczego warunku

koniecznego powstania świadomego doświadczenia są skazane na

niepowodze-nie. Odrobina tego i  owego nie wystarczy, aby zrozumieć,

co tak naprawdę musi zrobić mózg, żeby wytworzyć świadome

doświadczenie. Mózg nie zdradzi nam ochoczo, na czym polega ta

sztuczka –  jeśli to rzeczywiście sztuczka. Jak zapewne pamiętasz, nie

doświadczamy świadomie plamki ślepej w  polu naszego widzenia,

chociaż ona istnieje. Nasz układ wzrokowy wykonuje sztuczkę

z  udziałem świadomości. Według większości ludzi jednak świadome

doświadczenie nie jest sztuczką, ale czymś bardzo prawdziwym,

kontrolowanym przez jakąś część mózgu albo przez układ mózgowy.

Poszukiwania trwają. Skoro u  ludzi występuje zaawansowane

przetwarzanie poznawcze, które umożliwia tworzenie i  używanie

nowych technologii oraz wyciąganie wniosków na temat przekonań

i  pragnień innych, to czy ludzki mózg ma coś, czego brakuje

zwierzętom?

W przeprowadzonym niedawno badaniu porównawczym przyjrzano

się objętości neuropilu (pilśni nerwowej) w  różnych częściach mózgów

[46]
ludzi i  szympansów . Neuropil obejmuje obszary zbudowane

z  połączeń neuronalnych: mieszaninę aksonów, dendrytów, synaps

i  jeszcze innych elementów. Kora przed-czołowa –  obszar mózgu, który

u ludzi odpowiada za podejmowanie decyzji, rozwiązywanie problemów,

atrybucję stanów mentalnych oraz planowanie w  czasie –  zawiera

procentowo więcej neuropilu niż u  szympansów, a  dendryty w  tym

[47]
obszarze mają więcej kolców , poprzez które łączą się z  innymi

neuronami, niż dendryty w  innych częściach mózgu. To odkrycie

anatomiczne sugeruje, że wzory połączeń między neuronami kory

przedczołowej mogą się przyczyniać do odmienności ludzkiego mózgu.


Co interesujące, krukowate mają większe przodomózgowie niż

większość innych ptaków – zwłaszcza obszary uważane za odpowiednik

[48]
kory przedczołowej u  ssaków . Jak się jednak przekonamy, ten

sposób myślenia może wprawdzie wyjaśnić wzrost zdolności, ale nie

przybliży nas do zrozumienia, jak powstaje świadomość. Powrót do

założenia, że istnieje jakaś szczególna substancja albo szczególny

obszar mózgu, który zapewnia nam świadome doświadczenie, donikąd

nas nie zaprowadzi.

Gdzie jest świadomość?


Musimy zmienić podejście, uwolnić się od idei jednej wyjątkowej

substancji, szczególnego miejsca czy nadzwyczajnej „rzeczy”.

Powinniśmy raczej pomyśleć o  zbiorze w  dużym stopniu niezależnych

modułów i o tym, w jaki sposób ich organizacja daje początek naszemu

nieprzerwanemu świadomemu doświadczeniu. Jako badacze ludzkiego

poznania bywamy nadmiernie przywiązani do idei, że świadomość jest

zjawiskiem odrębnym od pozostałych procesów psychicznych.

Tymczasem powinniśmy raczej traktować świadomość jako nieodłączny

aspekt wielu spośród naszych funkcji poznawczych. Kiedy tracimy

jakąś funkcję, tracimy tę część świadomości, która jej towarzyszy, lecz

nie tracimy całej świadomości.

Pierwszych danych wskazujących na to, że świadomość nie jest

związana z  jedną, konkretną siecią neuronalną, dostarczyły moje

badania z  udziałem pacjentów z  rozszczepionym mózgiem. Jakkolwiek

w  obrębie każdej z  półkul mózgowych istnieje więcej połączeń

neuronalnych niż między półkulami, pomiędzy dwiema połówkami

mózgu przebiegają masywne połączenia. Okazuje się, że przecięcie tych

połączeń ma niewielki wpływ na poczucie świadomego doświadczenia.

Lewa półkula nadal mówi i  myśli, jakby nic się stało, mimo że już nie
ma dostępu do połowy kory mózgowej. Co jeszcze bardziej istotne,

rozdzielenie półkul mózgowych skutkuje natychmiastowym

powstaniem drugiego –  również niezależnego –  świadomego systemu.

Odtąd prawa część mózgu pracuje, nie zważając na lewą, wyposażona

we własne zdolności, pragnienia, cele, spostrzeżenia i  uczucia. Jedna

sieć, rozszczepiona na dwie, przeistacza się w  dwa świadome systemy.

Jak więc ktokolwiek mógłby sądzić, że świadomość jest wytworem

jednej, konkretnej sieci? Potrzebujemy nowego pomysłu, aby poradzić

sobie z tym odkryciem.

Zastanówmy się nad świadomym doświadczeniem pacjenta, który

budzi się po operacji rozszczepienia mózgu. Żadna z jego półkul nie ma

pojęcia o  polu widzenia drugiej półkuli. Lewa połowa mózgu nie widzi

lewej strony świata, a  prawa –  prawej. Mimo to lewa –  mówiąca –

  półkula mózgu nie uskarża się na częściową utratę widzenia.

Przeciwnie – ów pacjent powie nam, że po operacji nie zauważa żadnej

różnicy. Jak to możliwe, skoro połowa jego pola widzenia zniknęła?

Podobnie jak pacjent z  zespołem pomijania stronnego, mówiąca lewa

półkula nigdy nie narzeka, że straciła połowę pola widzenia. Moduły

odpowiedzialne za zgłoszenie tej straty znajdują się w  prawej półkuli

i  już nie mogą się komunikować z  lewą. Lewa półkula nie odczuwa ich

braku ani nie jest świadoma, że kiedykolwiek istniały. Również

wspomnienia życia z  utraconą częścią pola widzenia znikają z  lewej

półkuli. Odtąd świadome doświadczenie lewego pola widzenia jest

udziałem wyłącznie prawej półkuli i  znika bez śladu z  doświadczenia

lewej. Co nam to mówi na temat świadomości?

Teraz, kiedy już odstąpiliśmy od idei jednego świadomego modułu,

możemy zacząć się zastanawiać, czym tak naprawdę jest świadomość.

Wiemy, że lokalne uszkodzenia mózgu mogą skutkować rozmaitymi

specyficznymi zaburzeniami poznawczymi. Tacy pacjenci jednak są

nadal świadomi świata wokół nich. Pacjent z  ciężkim zespołem


pomijania stronnego nie zdaje sobie sprawy z  istnienia lewej połowy

przestrzeni, ale wciąż jest świadomy prawej strony.

A jeśli za świadome doświadczenie odpowiada każdy z  modułów?

Jeśli stracimy jakiś moduł na skutek urazu lub udaru, to świadomość

towarzysząca temu modułowi również zniknie. Pacjenci cierpiący na

zespół pomijania stronnego są nieświadomi połowy świata, ponieważ

moduł, który przetwarza informacje na ten temat, przestaje działać.

Podobnie brak prawidłowej integracji modułów odpowiedzialnych za

określanie położenia własnego ciała w  przestrzeni wywiera istotny

wpływ na świadome doświadczenie i  skutkuje poczuciem, że ktoś się

czai tuż za nami. Rozważmy też przykład ludzi cierpiących na chorobę

Urbacha–Wiethego, która uszkadza ciało migdałowate. Ci pacjenci

przestają odczuwać strach. Jedna z  takich pacjentek od ponad

dwudziestu lat jest poddawana rozmaitym badaniom, a  mimo to nie

zdaje sobie sprawy ze swojego deficytu i  często znajduje się

[49]
w  niebezpiecznych sytuacjach . Wydaje się, że za sprawą braku

świadomego doświadczenia strachu kobieta nie unika takich sytuacji.

Idea, że świadomość jest własnością poszczególnych modułów, a  nie

jednej, całościowej sieci, w  jaką byłby wyposażony dany gatunek, może

wyjaśniać rozmaitość typów świadomości występujących u  różnych

gatunków. Zwierzęta nie są pozbawionymi świadomości zombie, ale to,

czego każde z  nich jest świadome, zależy od posiadanych przez nie

modułów oraz od tego, jak te moduły są ze sobą połączone. My, ludzie,

możemy się cieszyć bogactwem świadomego doświadczenia dzięki

rozmaitości modułów, w  jakie jesteśmy wyposażeni. Wydaje się przy

tym, że mamy dobrze rozwinięte moduły integrujące, co pozwala nam

łączyć informacje z  różnych modułów w  abstrakcyjne myśli. Niełatwo

rozszyfrować, w  jaki sposób u  ludzi powstaje świadomość, ale ujęcie

świadomości jako jednego z  aspektów wielu działających modułów

może nas naprowadzić na rozwiązanie tej zagadki.


Jeżeli jednak świadomość jest aspektem wielu różnych dziedzin

poznawczych, jak to się dzieje, że ludzie z  nienaruszonym spoidłem

wielkim w  każdym momencie doświadczają świata jako jednej całości,

a  nie zbioru przypadkowo złożonych kawałków? Aby to zrozumieć,

możemy ująć przetwarzanie mózgowe w  kategoriach konkurencji.

Poziom aktywności elektrycznej modułów zmienia się z  chwili na

chwilę, co oznacza, że ich wkład w  nasze świadome doświadczenie

również się zmienia. W  proponowanym ujęciu najbardziej aktywny

moduł wygrywa rywalizację o  udział w  świadomości a jego

przetwarzanie staje się doświadczeniem świata, „stanem” jednostki

w  danym momencie. Wyobraź sobie, że jesteś na plaży i  obserwujesz

egzotycznego ptaka unoszącego się w powietrzu. W tym momencie owa

przyjemność wzrokowa, zachwycający widok ptaka i  jego barwnych

piór, wygrywa rywalizację o  świadome doświadczenie. W  następnej

chwili w tej konkurencji wygrywa krzyk innego ptaka, a zaraz potem –

  przypływ zaciekawienia, więc odwracasz głowę, aby zlokalizować

źródło tego dźwięku. Nagle na pierwszy plan wysuwa się gwał-towne

ukłucie bólu w  stopie, które sprawia, że spoglądasz w  dół i  widzisz

kraba zaciskającego szczypce na twoim palcu. W  każdej chwili twoim

świadomym doświadczeniem jest ten aspekt poznawczy, który jest

najbardziej wyrazisty w  środowisku zewnętrznym i  wewnętrznym –

  niczym skrzypiące koło. Wszystkie te konkurujące ze sobą procesy

poznawcze są realizowane przez różne moduły. Jak to wszystko działa?

Uważam, że to, co nazywamy „świadomością”, jest odczuciem

stanowiącym tło dla aktualnego zdarzenia mentalnego lub instynktu,

bądź też powiązanym z  tym zdarzeniem lub instynktem. Najłatwiej to

zrozumieć poprzez przyjrzenie się popularnemu modelowi architektury

inżynieryjnej, zwanemu architekturą warstwową (layering), który

pozwala złożonym systemom na sprawne, zintegrowane działanie –  od

atomów i  cząsteczek, przez komórki i  ob-wody, po zdolności poznawcze


i percepcyjne. Jeżeli mózg rzeczywiście składa się z różnych warstw (w

rozumieniu inżynierii), to informacje z  poziomu mikro mogą być

integrowane w  coraz wyższych warstwach, do czasu, gdy każda

modułowa jednostka sama wygeneruje świadomość. Architektura

warstwowa umożliwia powstawanie nowych poziomów funkcjonowania

z  elementów działających na niższym poziomie, które same nie

mogłyby wytworzyć owego „wyższego” doświadczenia. Nadeszła pora,

aby dowiedzieć się więcej na temat uwarstwienia i  cudów, jakie wnosi

ono w naszą wiedzę o architekturze mózgu. Jesteśmy na dobrej drodze

do zrozumienia, że świadomość nie jest „rzeczą”, lecz wynikiem procesu

osadzonego w  pewnej architekturze, podobnie jak demokracja nie jest

rzeczą, lecz rezultatem pewnego procesu.

[1]
Tłum. Robert Stiller.

[2]
Sherrington, 2009.

[3]
Gazzaniga, 1993.

[4]
Bisiach i Luzzatti, 1978.

[5]
Vuilleumier, 2013.

[6]
Volpe, Ledoux i Gazzaniga, 1979.

[7]
Ernest Shackleton pierwszy opisał odczucie czyjejś obecności. On

i  jego dwaj towarzysze byli w  stanie skrajnego wyczerpania

i  deprywacji fizycznej po przepłynięciu 680 mil przez najbardziej

wzburzone morza świata w  przeciekającej łodzi ratunkowej z  nader

skąpymi zapasami jedzenia i  wody. Był to końcowy etap heroicznej

misji sprowadzenia pomocy dla załogi statku Shackletona, uwięzionej

na wyspie u  wybrzeży Antarktydy. Shackleton i  jego towarzysze

musieli się przedrzeć –  tak szybko, jak to możliwe –  przez dwa

niezaznaczone na mapach, pokryte śniegiem łańcuchy górskie na

wyspie Georgia Południowa, wyposażeni jedynie w  czekan

i  czternastometrową linę. Podczas tej wędrówki Shackleton opisał


swoje odczucie, że towarzyszy im ktoś jeszcze –  czwarty czło-wiek.

Później T.S. Eliot wspomniał o  owym odczuciu czyjejś obecności

w wierszu Jałowa ziemia, ale określił je mianem „tego trzeciego” – i ta

nazwa się przyjęła (J. Geiger, The Third Man Factor: Surviving the

Impossible. New York: Weinstein Books, 2009).

[8]
Messner, 2016, tłum. Anna Wziątek, s. 208.

[9]
Dewi Rees, 1971, s. 37.

[10]
Arzy i in., 2006, s. 287.

[11]
Blanke i in., 2014.

[12]
Ibidem.

[13]
Azevedo i in., 2009.

[14]
Herculano-Houzel, 2009, s. 31.

[15]
Nelson i Bower, 1990.

[16]
Clarke i Sokoloff, 1999.

[17]
Ang. connectivity; w  literaturze polskojęzycznej używa się

również terminu „łączliwość” (przyp. tłum.).

[18]
Striedter, 2005.

[19]
Meunier, Lambiotte i Bullmore, 2010, s. 200.

[20]
Ibidem.

[21]
Chklovskii, Schikorski i Stevens, 2002.

[22]
Bassett i in., 2011; Bassett i in., 2013.

[23]
Sporns i Betzel, 2016.

[24]
Striedter, 2005, s. 248.

[25]
Chen, Hall i  Chklovskii, 2006; Cherniak i  in., 2004; Ahn, Jeong

i Kim, 2006.

[26]
Clune, Mouret i Lipson, 2013.

[27]
Carruthers, 2006.

[28]
Sporns i Betzel, 2016.

[29]
Clayton i Emery, 2005.
[30]
Taylor i in., 2010.

[31]
Holzhaider, Hunt i Gray, 2010.

[32]
Hunt, Lambert i Gray, 2007.

[33]
Whiten i in., 2009.

[34]
Köhler, 1950.

[35]
Liebal i in., 2009.

[36]
Premack, 2010.

[37]
Carruthers, 2006.

[38]
Premack i Woodruff, 1978.

[39]
Call i Tomasello, 2008.

[40]
He, Bolz i Baillargeon, 2007.

[41]
Krupeneye i in., 2016.

[42]
Pilley i Reid, 2013.

[43]
Kirchofer i in., 2012.

[44]
Maginnity i Grace, 2014.

[45]
Hare i Tomasello, 2005.

[46]
Spocter i in., 2012.

[47]
Kolce dendrytyczne –  niewielkie wyrostki znajdujące się na

niektórych dendrytach, wspomagające przekazywanie sygnałów (przyp.

tłum.).

[48]
Mehlhorn i in., 2010.

[49]
Feinstein i in., 2011.
ROZDZIAŁ V
Początki rozumienia architektury mózgu
W architekturze jest wiele wspaniałości, które są niewidoczne dla niewprawnego oka.
– Frank Gehry

Wyobraź sobie, że jesteś utalentowanym młodym naukowcem, w  co

gorąco wierzą twoi rodzice. W  prezencie gwiazdkowym dają ci więc

stary budzik i  mówią: „W porządku, mądralo, rozłóż go na części,

a  potem złóż z  powrotem, a  w trakcie pracy powiedz nam, jak on

działa”. To byłoby dość proste. Budzik składa się z  niewielkiej liczby

części –  kółek, przekładni i  sprężyn –  które poruszają się razem

w  określonym układzie, aby wytworzyć pewną funkcję, przy czym

wszyscy wiemy, jaka to funkcja. Twoje zadanie byłoby dużo trudniejsze,

gdybyś nie miał pojęcia, o  jaką funkcję chodzi, i  gdybyś miał do

dyspozycji jedynie garść części.

Dla tych, którzy badają ludzki mózg, problem polega na ustaleniu,

w  jaki sposób 89 miliardów neuronów łączy się ze sobą, abyśmy my,

ludzie, mogli się chlubić nadzwyczajnymi umiejętnościami

poznawczymi. Mózgi są rozcinane, barwione, szturchane, mapowane

i  podsłuchiwane. Starannie zebrano masę danych, wnikliwie

przebadano niezliczonych pacjentów z  urazami mózgu

i  przeanalizowano mentalne dokonania wyjątkowych jednostek –  w

poszukiwaniu zdumiewającej magii, którą staramy się zrozumieć. Raz

do roku dwadzieścia sześć tysięcy badaczy mózgu spotyka się na

konferencji Towarzystwa Neuronaukowego, aby wymienić się swoimi

danymi i  swoimi myślami. Mimo to naukowcy wciąż poszukują ram,

w  jakich moglibyśmy umieścić całą tę wiedzę. Dlaczego to takie


trudne? Co im umyka? Z  pewnością istnieje jakiś inny wymiar tego

problemu, który trzeba uwzględnić. W  połowie XX wieku biolog

teoretyczny Robert Rosen wskazał swojej córce jeden z  możliwych

dylematów: „Ludzkie ciało całkowicie wymienia materię, z  której jest

zbudo-wane, mniej więcej co osiem tygodni –  poprzez metabolizm,

replikację i  procesy naprawcze. Mimo to nadal jesteś sobą –  ze swoimi

wspomnieniami, osobowością (…). Jeśli nauka będzie się upierać przy

badaniu cząstek, to będzie je ścigać po całym organizmie, tracąc przy

[1]
tym z oczu sam organizm” .

Słowa Rosena sugerują, że organizacja musi być niezależna od

cząstek materialnych, które składają się na żywy system. Elementy

strukturalne i  funkcja mózgu to jeszcze nie wszystko. Potrzebny jest

trzeci –  często pomijany –  element, aby połączyć strukturę systemu

z  jego funkcją. Tym, czego brakuje, jest sposób, w  jaki części systemu

są zorganizowane, skutki interakcji między częściami oraz relacje

z  czasem i  środowiskiem. Nicolas Rashevsky, fizyk i  matematyk

teoretyczny z  Uniwersytetu w  Chicago, nazwał to podejście biologią

re-lacyjną. Te idee przeniknęły do elektrotechniki i biologii systemów,

ale pozo-stają nieznane większości biologów molekularnych

i  neuronaukowców lub są przez nich ignorowane, mimo że od

ostrzeżenia Rosena upłynęło już pięćdzie-siąt lat.

Ja sam zostałem wprowadzony w  ów odmienny sposób myślenia

o  organizacji mózgu przez Johna Doyle’a, który prowadził zajęcia

dotyczące kontroli i  układów dynamicznych, elektrotechniki

i  bioinżynierii w  Caltech. Oto pierwsza lekcja, jaką otrzymałem od

doktora Doyle’a: wiedza na temat części składowych nie zaprowadzi cię

daleko. W  szkole znajdują się miejsca przeznaczone do czytania

i  jedzenia, do mycia rąk i  przechowywania różnych rzeczy. To samo

można powiedzieć o  domu. A  jednak szkoła i  dom nie są tym samym.

Spełniają różne funkcje, a  przepływ ludzi przez nie jest zupełnie inny.
Węgiersko-brytyjski polihistor Michael Polanyi wyjaśnił, że „maszyna

jako całość działa pod kontrolą dwóch odrębnych zasad. Wyższa

spośród nich, zasada projektu maszyny, wykorzystuje niższą,

odnoszącą się do procesów fizyczno-chemicznych, na których opiera się

[2]
działanie maszyny” . Projekt maszyny w  jakiś sposób ogranicza

naturę, aby zaprząc ją do konkretnego zadania. Na przykład twój

ekspres do kawy jest zbudowany ze zmyślnie zaprojektowanych części,

dopasowanych w  sposób umożliwiający przyrządzenie filiżanki kawy.

Polanyi nazywa te ograniczenia nałożeniem warunków brzegowych

na prawa fizyki i  chemii. Dowodzi, że organizmy są systemami, które

współdzielą tę cechę z maszynami: „Organizm – podobnie jak maszyna

– okazuje się systemem, który działa zgodnie z dwiema zasadami: jego

struktura służy jako warunek brzegowy i  zaprzęga do pracy procesy

fizyczno-chemiczne, poprzez które organizm spełnia swoje funkcje.

[3]
Można więc powiedzieć, że jest to system pod podwójną kontrolą” .

Projekt, o  którym mówi Polanyi, to architektura organizmu. Ma ona

decydujące znaczenie dla zrozumienia złożonego systemu umysł–mózg.

To spostrzeżenie jest niezwykle ważne.

Architektura złożoności
Doyle jest mistrzem w  dociekaniu, w  jaki sposób złożone systemy –

  takie jak boeing 777 albo ludzki mózg, oba zbudowane z  wielu

wzajemnie powiązanych, współdziałających części –  mogą pracować

sprawnie, szybko i  bezpiecznie, zamiast wybuchnąć, nagle się zawiesić

albo zatrzymać się z  piskiem opon. Nie powinno nas dziwić, że słowo

„złożoność”, podobnie jak „świadomość”, nie ma jednej, powszechnie

przyjętej definicji. Dla naszych celów możemy się skupić na trzech

wymiarach złożoności w  systemie. System jest złożony, jeśli obejmuje

liczne lub zróżnicowane (a) elementy, (b) wzajemne powiązania i inter-


akcje oraz (c) zachowania będące wynikiem jego działania –  niektóre

przewidywalne, inne nie. Współczesne systemy skonstruowane przez

człowieka zaczęły się odznaczać niemal biologicznym poziomem

[4]
złożoności . Na przykład boeing 777, jak szacuje Doyle, zawiera

w  sobie 150  000 modułów podsystemowych, zorganizowanych

w  złożone sieci i  systemy kontroli, w  tym około 1000 komputerów,

które sterują lotem. Chociaż elementy zaawansowanych systemów

technologicznych i systemów biologicznych o wysokim poziomie rozwoju

ewolucyjnego bez wątpienia istotnie się różnią, wykazują pewne

[5]
podobieństwa pod względem architektury organizacyjnej .

Termin „architektura” zwykle przywodzi na myśl opartą na wiedzy

naukowej sztukę projektowania budynków oraz innych konstrukcji,

takich jak mosty i  autostrady, ich styl architektoniczny (barok, art

nouveau) oraz metodę ich budowy (ubita ziemia, stal i  szkło). Może

przychodzą nam do głowy Brunelleschi albo Palladio. Architektura

oznacza jednak również złożoną strukturę czegoś. To coś nie musi być

budynkiem i  może, ale nie musi być obiektem fizycznym. Może to być

struktura dowodzenia w  rządzie, ścieżki w  internecie albo sieci

neuronalne w  mózgu. Na podstawowym poziomie istotą architektury

jest „projekt w  obrębie wyznaczonych granic”. Oto warunki brzegowe

Michaela Polanyiego –  ograniczenia narzucone przez jakąś

[6]
wszechstronną, restrykcyjną siłę . W  wypadku budynku oznacza to

pracę w  granicach wyznaczonych przez materiały (słoma, glina,

drewno, cegły, kamień, stal), miejsce budowy (rejony znane z  częstych

pożarów, powodzi, trzęsień ziemi albo huraganów; teren płaski czy

stromy; tropiki czy tundra), funkcję budynku (dom, budynek opery czy

stacja benzynowa) oraz, rzecz jasna, życzenia właścicieli (przyczyna

celowa w  ujęciu Arystotelesa) i  tak dalej. W  wypadku naszego mózgu

i  układu nerwowego ograniczenia architektoniczne obejmują koszty

energii, wielkość i prędkość przetwarzania.


Cechą wspólną złożonych systemów biologicznych i  technicznych jest

wysoce zorganizowana architektura. Innymi słowy, elementy systemu

są ułożone w  ściśle określony sposób, zapewniający funkcjonalność

[7]
i/lub krzepkość . Rozważmy prosty przykład. Włókna bawełny

w  elemencie garderoby odznaczają się wysoce zorganizowaną

architekturą, co zapewnia tkaninie bawełnianej funkcjonalność –

[8]
  sprawia, że nadaje się ona do produkcji ubrań . Jest krzepka –

  odporna na codzienne użytkowanie. W  wyniku przypadkowego

splątania takich samych włókien bawełny powstanie natomiast papier,

który nie będzie równie odporny na podobne traktowanie.

Podobieństwo architektury w  zorga-nizowanych, złożonych systemach

wskazuje na wspólne, uniwersalne wymagania. Te systemy zostały

zaprojektowane w  sposób zapewniający „efektywność, zdolność do

[9]
adaptacji i ewolucyjnego rozwoju oraz krzepkość” .

Krzepkie, złożone, wrażliwe


Zrozumienie, że zwierzęta –  duże i  małe –  pod względem sposobu

zaprojektowania niewiele się różnią od twojego BMW czy pickupa,

pozwala nam myśleć jaśniej o  tym, jak tkanka biologiczna wykonuje

swoją pracę. Doyle i  jego współpracownik David Alderson twierdzą, że

złożoność wysoce zorganizowanych systemów nie jest przypadkowa,

lecz wynika ze strategii projektowania (stworzonych przez człowieka

lub ukształtowanych ewolucyjnie), które zapewniają krzepkość, czy też

– jak powiedziałby Darwin – dostosowanie.

Oto jak Doyle i  Alderson definiują krzepkość: „[Własność] [systemu]

[10]
jest [krzepka], jeśli jest [odporna] na [zbiór perturbacji] . Nawiasy

oznaczają, że każdy z  tych terminów wymaga doprecyzowania.

Wybierzmy łatwy do zrozumienia złożony system –  ubranie –  aby

zilustrować pojęcie krzepkości. Wy-obraź sobie, że wybierasz się na


wycieczkę, aby zobaczyć zorzę polarną. Właśnie się pakujesz. To będzie

na dalekiej Północy, w  środku zimy, a  ty nie chcesz zmarznąć. Odzież

[system] puchowa [własność] wydaje się krzepka, gdy wybierasz się

w  mroźne rejony, ponieważ zapewni ci ciepło pomimo spadku

temperatury. Jeżeli jednak spadnie rzęsisty deszcz [perturbacja, która

nie została wcześniej określona] i  twoja kurtka nasiąknie wodą, to

puch nie zapewni ci ciepła. Odzież puchowa jest (stosunkowo) odporna

na niskie temperatury, ale nie jest odporna na wilgoć. Jest krzepka

w  jednych warunkach, lecz nieodporna (wrażliwa) w  innych. Jeśli

natomiast wybierzesz cechę „wyszczuplająca” jako pożądaną [własność]

i  „przybranie na wadze” jako [perturbację], to będziesz paradować

w  bardziej skąpym odzieniu i  wyglądać szczupło podczas śnieżycy

(krzepkość w reakcji na przybranie wagi), ale twoje ubranie nie będzie

[11]
odporne na perturbację spadku temperatury .

Każda cecha, która dodaje systemowi krzepkości, chroni go przed

jakimś wewnętrznym lub zewnętrznym zagrożeniem. Ponadto każdy

krok ku krzepkości czyni system bardziej złożonym. Niestety żadna

dodana cecha nie jest krzepka we wszystkich okolicznościach. Każda

dodaje do systemu własną piętę achillesową –  podatność na nowe,

nieprzewidziane zagrożenie. Kiedy owa słabość zostaje odkryta, trzeba

dodać kolejną cechę, która będzie jej przeciwdziałać. Wraz z  nową

cechą pojawia się jednak kolejna wrażliwość, przed którą należy się

zabezpieczyć. Każde zabezpieczenie zwiększa złożoność systemu, co

wymaga dalszego wzrostu złożoności.

Twoje wybory i kompromisy dotyczące własności (cech) nieuchronnie

sprawią, że twój system będzie krzepki w reakcji na jedne perturbacje,

lecz wrażliwy na inne. Cechy „krzepkie, a  jednak wrażliwe” są

charakterystyczne dla wysoce rozwiniętych, złożonych systemów. Ideę

krzepkości, której zawsze towarzyszy wrażliwość, napotykamy na


każdym kroku. Jeden z  moich ulubionych przykładów biologicznych

pochodzi z badań rozwoju mózgu.

Nie ulega wątpliwości, że połączenia neuronalne są ważne dla

prawidłowego funkcjonowania mózgu. Neurony zlokalizowane

w  jednym miejscu muszą być połączone z  innym miejscem w  mózgu,

aby możliwa była jak najlepsza koordynacja aktywności, niezbędna do

wygenerowania zachowania. Ewolucja, jak się wydaje, dobrze o  to

zadbała poprzez zapewnienie ogromnej nadprodukcji neuronów

w  trakcie rozwoju. Zamiast więc wysłać do struktury B odpowiednią

liczbę neuronów, struktura A wysyła ich o wiele za dużo, aby zapewnić

krzepkość. Matka natura znalazła sposób na pozbycie się

nadliczbowych neuronów poprzez proces zwany przycinaniem. Przy

prawidłowym dopływie informacji ze środowiska niepotrzebne neurony

wymierają, dzięki czemu pod koniec okresu rozwoju te dwie struktury

są połączone odpowiednią liczbą neuronów. Tu jednak, rzecz jasna,

pojawia się nieodłączna słabość. Przycinanie często bywa nadmierne.

Wyniki coraz większej liczby badań wskazują, że błędy rozwojowe

[12] [13]
w  zakresie przycinania prowadzą do autyzmu i  schizofrenii .

Cecha „krzepkie, ale wrażliwe” jest wszechobecna, a  pojęcie to jest

nieodzowne dla zrozumienia organizacji mózgu.

Uniwersalna strategia projektowania


Według Doyle’a nie ulega wątpliwości, że architektura większości

systemów biologicznych jest architekturą warstwową. Co za tym idzie –

 każda próba zrozumienia świadomego doświadczenia musi się opierać

na rzetelnej wiedzy o  warstwowej organizacji mózgu. Badacze, którzy

przywykli do posługiwania się modelami poznawczymi, początkowo

mogą nie dostrzegać różnicy między „poziomami” a  „warstwami”.

W  wypadku poziomów procesy przebiegają sekwencyjnie (albo też, jak


powiedzieliby elektrotechnicy, „seryjnie”), natomiast w  architekturze

warstwowej przetwarzanie odbywa się równolegle. W  procesie

przetwarzania na kolejnych poziomach wszystkie kroki są wykonywane

jeden po drugim, niczym w sztafecie z pałeczką. Jeden poziom musi się

zakończyć, aby kolejny mógł się rozpocząć. W  wypadku przetwarzania

warstwowego wszyscy biegacze mogą wystartować równocześnie

i  pobiec w  różne miejsca. Ta zmiana architektury pociąga za sobą

wielkie różnice.

Architektura warstwowa jest główną strategią projektowania,

zapewniającą krzepkość i  funkcjonalność zarówno zorganizowanym

systemom technicznym, jak i  systemom biologicznym. Jest prosta,

konieczna, potężna i  nadzwyczaj korzystna. Na przykład dobrze

zaprojektowane systemy –  zarówno techniczne, takie jak boeing 777,

jak i biologiczne, takie jak ludzki mózg – działają w taki sposób, że ich

użytkownicy są w  dużej mierze nieświadomi wszystkich ukrytych

[14]
złożoności . Wsiadamy do samolotu, odchylamy oparcie fotela

i  wyjmujemy książkę albo zamawiamy drinka. Nie myślimy o  150

tysiącach modułów ani o tym, co one robią. Piloci też o nich nie myślą.

Nawet nie wiemy o  istnieniu 150 tysięcy modułów. A  jeśli pominąłeś

poprzedni rozdział, to może nawet nie wiesz, czym jest moduł. Podobnie

większość ludzi nie poświęca zbyt dużo uwagi swojemu mózgowi, chyba

że coś zaczyna w  nim szwankować. Złożoność naszego warstwowego

mózgu jest tak dobrze ukryta, że po upływie dwóch i  pół tysiąca lat

nadal staramy się ją zrozumieć. Zarówno w  boeingu 777, jak i  w

naszym mózgu architektura systemu ukrywa jego złożoność. Czym

w takim razie jest architektura warstwowa?

Celem inżyniera jest zaprojektowanie i zbudowanie czegoś, co będzie

działać sprawnie, efektywnie i  niezawodnie. To niełatwe, kiedy

[15]
budujesz pergolę nad swoim tarasem, a co dopiero wtedy, gdy chodzi

o  budynek Opery w  Sydney. W  wypadku takiego przedsięwzięcia nie


tylko części budynku muszą do siebie pasować, aby całość działała

sprawnie, efektywnie i  niezawodnie. To samo można powiedzieć

o  inżynierach, którzy muszą pracować razem, aby stworzyć taki

budynek. Jedna osoba nie zaprojektuje wszystkich jego aspektów. Je-

żeli jednak zastosuje się niewłaściwą strategię projektowania do

organizacji pracy inżynierów, to może się sprawdzić przysłowie: „Gdzie

kucharek sześć, tam nie ma co jeść”.

De facto inżynierowie, którzy projektują złożone systemy, sami

stanowią złożony system i  są zorganizowani w  podobny sposób.

Rozważmy różne strategie projektowania boeinga 777 i  jego działania.

Jedna strategia polega na tym, że aby zaprojektować daną część

samolotu, każdy inżynier musi rozumieć zadania wszystkich

pozostałych. A  kiedy wszystkie części są już zaprojektowane, każdy

komponent musi polegać na wszystkich pozostałych, aby działać

prawidłowo. Innymi słowy, wszystko musi być zintegrowane seryjnie.

To oznacza, że inżynier odpowiedzialny za projektowanie siedzeń

musiałby wiedzieć wszystko o  silnikach, sile nośnej i  sile oporu, szkle

okiennym, ukła-dach doładowujących i  tak dalej i  w pełni zintegrować

funkcję siedzeń ze wszystkimi tymi aspektami. Budowa takiego

samolotu nie tylko trwałaby dłużej, byłaby bardziej kosztowna

i  wymagała większej liczby ekspertów w  wielu dziedzinach, lecz także

byłaby bardziej podatna na błędy. Niedający się złożyć fotel nie tylko

byłby irytujący, lecz także mógłby sprawić, że samolot runąłby w dół.

Lepszą strategią jest niezależne projektowanie niezależnie

działających elementów (warstw lub modułów). Projektanci dysponują

jedynie wiedzą, która jest im potrzebna. Wszystkie pozostałe

informacje są przed nimi ukryte. W  świecie inżynierii nazywa się to

abstrakcją (abstraction) –  usuwaniem niepotrzebnych detali (więcej

abstrakcji = mniej detali). Pojęcie „warstwy abstrakcji” odnosi się do

tego, które informacje są dostępne, a które ukryte. Warstwy abstrakcji


nie zawsze wymagają hierarchii czy zasadniczo odmiennych

komponentów. Atlas świata ma wiele warstw abstrakcji –  wszystkie

w  tym samym formacie. Na pierwszej stronie znajduje się mapa

świata. Zobaczysz na niej podpisane oceany i  kontynenty, największe

rzeki i  łańcuchy górskie. Większość informacji została jednak

pominięta: nie ma krajów, miast, dróg, strumieni ani wzgórz.

Przewracasz stronę i  oto masz przed sobą następną warstwę

abstrakcji: kontynent z  zaznaczonymi krajami, stolicami, rzekami

i  górami. Na kolejnej stronie znajdziesz bardziej szczegółową mapę

jednego kraju, na której zaznaczono główne drogi i  mniejsze miasta.

Na każdym poziomie abstrakcji widzisz więcej szczegółów niż na

poprzednim –  mniej informacji jest ukrytych. Większa liczba

informacji nie zawsze jednak jest lepsza. Jeśli interesuje cię jedynie

względna wielkość poszczególnych oceanów, to nie musisz wiedzieć, że

istnieje ścieżka między Roussillion a Fontaine de Vaucluse.

W złożonym systemie informacje nie są jednak wyłącznie ukryte.

Każda warstwa przybiera zupełnie inną formę. Aby możliwy był

przepływ między warstwami, niezbędne informacje muszą zostać

zwirtualizowane, czyli wyabstrahowane do konkretnej warstwy.

Dlatego w  wypadku boeinga 777 inżynier odpowiedzialny za

zaprojektowanie siedzeń otrzymuje tylko te informacje, które są

potrzebne do skonstruowania siedzeń: zbiór standardowych wymiarów,

które pozwalają na elastyczność w  projektowaniu siedzeń,

a  jednocześnie ograniczają ten proces w  taki sposób, aby wszystkie

siedzenia pasowały do siebie we wszystkich boeingach 777. Nie dostaje

informacji na temat aerody-namiki, paliwa, a  nawet całkowitej liczby

foteli w  samolocie. Zauważyłem też, iż projektanci foteli lotniczych

najwyraźniej nie dysponują informacją, że niektórzy ludzie mają

powyżej 180 centymetrów wzrostu.


Siedzenia stają się wymiennymi modułami. Działanie fotela nie

wpływa na zdolność samolotu do latania. Dlatego inżynier projektujący

siedzenia wie o  samolocie więcej niż ty czy ja, ale mniej niż

inżynierowie odpowiedzialni za zaprojektowanie kadłuba samolotu.

Natomiast inżynierowie odpowiedzialni za turbiny samolotu nie muszą

wiedzieć niczego o  projektowaniu siedzeń, ale mają mnóstwo innej

wiedzy.

Matka natura doszła do tego bardzo dawno temu i  stosuje tę samą

strategię u  ewolucyjnie ukształtowanych organizmów. W  toku ewolucji

rozmaite układy w  twoim mózgu rozwinęły się w  taki sposób, aby

działać niezależnie od siebie. Na przykład układ słuchowy pracuje

niezależnie od układu węchowego. Nie otrzymuje informacji

o zapachach i nie potrzebuje takiej wiedzy, aby przetwarzać informacje

dźwiękowe. Możesz stracić zmysł powonienia i  nadał słyszeć bzyczenie

pszczół.

W architekturze warstwowej każda warstwa w  systemie działa

niezależnie od pozostałych, ponieważ każda ma własny protokół –

  zbiór reguł, które określają dozwolone interfejsy lub interakcje

zarówno w  obrębie poszczególnych warstw, jak i  pomiędzy nimi.

Wróćmy do inżyniera projektujące-go siedzenia w  samolocie. Tworząc

projekt fotela, może on robić, co mu się żywnie podoba, pod warunkiem,

że będzie się trzymać standardowych wymiarów –  protokołu

obowiązującego w  warstwie siedzeń. Protokół obowiązujący w  danej

warstwie ogranicza, lecz pozwala na elastyczność w  obrębie

narzuconych ograniczeń.

Każda warstwa w  stosie warstw przetwarza informacje wyjściowe

otrzymane od warstwy położonej bezpośrednio pod nią –  zgodnie ze

swoim protokołem –  i przekazuje wynik swojej pracy warstwie leżącej

nad nią i/lub przesyła je z  powrotem do warstwy znajdującej się

poniżej. Warstwa leżąca powyżej robi to samo, zgodnie z  własnym


protokołem, który może być podobny lub zupełnie inny, a  następnie

przekazuje wyniki przetwarzania kolejnym warstwom. Żadna z warstw

nie wie, jakie dane otrzymała jej poprzedniczka ani jakim procesom

przetwarzania je poddała. Ta wiedza jest niepotrzebna, dlatego

pozostaje ukryta (wyabstrahowana). Protokoły pozwalają każdej

warstwie interpretować tylko informacje otrzymane od sąsiednich

warstw. Informacje stanowiące wynik przetwarzania w danej warstwie

mogą zostać przesłane w  górę albo w  dół. Tkwi w  tym pewien haczyk:

po utworzeniu architektury warstwowej informacje nie mogą pomijać

warstw. Tak więc warstwa szósta nie może zinterpretować wyniku

pracy warstwy czwartej, ponieważ nie ma protokołu niezbędnego do

rozszyfrowania tych danych. Dlatego niezbędna jest pośrednicząca

warstwa piąta. Zadaniem każdej warstwy jest obsługiwanie tej leżącej

[16]
nad nią, przy jednoczesnym ukrywaniu procesów niższej warstwy .

Oto prosty przykład warstw i protokołów. Wyobraź sobie, że jesteś na

przyjęciu, na które zaproszono gości z  różnych krajów. Chcesz

porozmawiać z  pewną Chinką, która, jak sądzisz, zna twoją siostrę.

Mówisz tylko po angielsku, ale twoja partnerka zna angielski

i  francuski. Chinka, z  którą chcesz porozmawiać, zna wyłącznie język

mandaryński, ale jej mąż mówi po mandaryńsku i  po francusku.

Każda z wymienionych osób staje się warstwą w stosie tłumaczeń, przy

czym każda warstwa używa własnego protokołu, aby przekształcić

informacje na wejściu w informacje wyjściowe. Ty masz protokół języka

angielskiego i  przekazujesz wiadomość po angielsku swojej partnerce.

Ona używa swoich protokołów języków angielskiego i francuskiego, aby

przetworzyć informacje wejściowe w  języku angielskim na przekaz

wyjściowy po francusku i  wysłać wynik tego przetwarzania do

następnej warstwy –  męża Chinki, który poza protokołem języka

francuskiego ma również protokół mandaryńskiego. W  końcu mąż

przekazuje wiadomość po mandaryńsku swojej żo-nie. Ona może


wysłać informacje zwrotnie do ciebie –  kolejno przez wszystkie

warstwy, z  których każda musi je przetworzyć przy użyciu

odpowiednich protokołów i przekazać następnej warstwie. Z pewnością

nie zdołasz stworzyć własnej warstwy „angielski–mandaryński”

w ciągu jednego przyjęcia.

Możesz jednak, rzecz jasna, stworzyć protokół angielsko-

mandaryński, jeśli tak postanowisz. Mnóstwo ludzi tego dokonało.

Nazywamy to uczeniem się języków obcych. Potrafisz to zrobić,

podobnie jak maszyny. Informatycy wyko-rzystują architekturę

warstwową od lat, zwłaszcza w  świecie sztucznej inte-ligencji. Rodney

Brooks, pomysłowy profesor informatyki w  MIT, wymyślił typ

architektury zwany architekturą subsumpcyjną (subsumption

[17]
architecture) , któ-ry na wiele lat zdominował dziedzinę robotyki.

[18]
W tym wypadku słownik okazuje się niezbyt pomocny , ale sama

idea jest dość prosta. W systemie – takim jak człowiek, komputer, robot

czy biblioteka –  jest przechowywana pewna wiedza. Napływają nowe

informacje, które powiększają łączną wiedzę systemu. Byłoby najlepiej,

gdyby te informacje były „subsumowane”, czyli wchłaniane przez

dotychczasową wiedzę, nie powodując przy tym zakłóceń. Właśnie

takiej architektury potrzebuje robot.

Brooks dobrze wiedział, że roboty nie zdają testu subsumowania

nowych in-formacji, ponieważ dwadzieścia lat temu, kiedy przedstawił

tę ideę, roboty odmawiały posłuszeństwa, gdy napotykały piankę

Marshmallow albo jakiś inny przedmiot, którego nie uwzględniono

w  ich oprogramowaniu jako czegoś, czego należy unikać. Nie potrafiły

się przystosować do zmiennego środowiska. Gdyby natomiast taki robot

miał architekturę subsumpcyjną, to mógłby się stopniowo zmieniać

poprzez dodawanie nowych warstw do dotychczasowych –  kolejno,

jedna po drugiej. Każda dodana warstwa mogłaby wywrzeć pewien

wpływ na niższe warstwy i  w ten sposób zostałaby wchłonięta –


  zsubsumowana –  przez nadrzędną architekturę. Jak to podsumował

Harold Pashler w  publikacji Encyclopedia of the Mind (Encyklopedia

umysłu): „Najważniejsza idea jest taka, że system jako całość nie

konstruuje zintegrowanych reprezentacji świata. Sygnały sensoryczne

na każdym poziomie są przetwarzane inaczej, aby zapewnić

stosunkowo bezpośrednie i  specyficzne dla poszczegòlnych zachowań

połączenia między danymi zmysłowymi a  sygnałami motorycznymi

potrzebnymi do kontrolowania aktuatorów [modułów wykonawczych]

[19]
robota” . To oznacza, że w  całym robocie rozmieszczone są

wyspecjalizowane systemy, które precyzyjnie zarządzają napotykanymi

przezeń codziennymi wyzwaniami. Są szybkie, efektywne i  użyteczne.

Nie istnieje żaden centralny system, który zmieniałby wzorzec reakcji

robota, aby sprostać każdemu nowemu wyzwaniu. Zamiast tego zostaje

dodana konkretna instrukcja specyficzna dla danego wyzwania.

Z  biegiem czasu inżynierowie dodawali coraz więcej instrukcji, aby

robot umiał sobie radzić z  coraz większą liczbą perturbacji

w  środowisku. Nie istnieje jeden duży system, który próbowałby

rozwiązać wszystkie problemy, lecz dodawane są nowe warstwy,

w  miarę jak pojawiają się kolejne wyzwania. Wydaje się, że wszystkie

te moduły razem tworzą architekturę warstwową. Moduł może być

warstwą sam w  sobie, bądź też może być częścią warstwy zbudowanej

z  grupy modułów. Kiedy mówiliśmy o  modułach integrujących (pod

koniec rozdziału czwartego), chodziło o  moduły przetwarzające, które

tworzą warstwę położoną wysoko w stosie warstw. Ta warstwa odbiera

informacje od poprzedniej warstwy, a  następnie przetwarza je zgodnie

z  własnym protokołem, aby wytworzyć coś bardziej złożonego, może

nawet teorię umysłu albo samoświadomość.

Architektura warstwowa zapewnia elastyczność. Aktualizowanie

systemu warstwowego jest proste, ponieważ zmiany muszą wystąpić

tylko w  jednej warstwie, bez potrzeby modyfikowania pozostałych.


A  kiedy pojawiają się nieprawidłowości, można zidentyfikować źródło

problemu. Nie trzeba naprawiać ani wyrzucać na śmietnik całego

systemu, tylko warstwę lub te jej części, które nie działają jak należy.

Wróćmy do przykładu ubrania. Jeśli twoja koszula się rozedrze, to

możesz wymienić ją na inną, ale nie musisz zmieniać spodni.

W  wypadku mózgu wymiana części nie jest równie łatwa, ale nie

stracisz całego systemu, jeśli coś pójdzie nie tak.

Uwarstwienie w ujęciu neuronaukowym


Największą zaletą architektury warstwowej jest to, że rozwiązuje ona

problem użytkownika złożonych systemów poprzez ukrycie informacji.

W  twoim iPhonie górną warstwę określa się mianem warstwy

aplikacji. Dzięki niej nie musimy wiedzieć ani rozumieć, jak działają

pozostałe warstwy systemu. Zapewne nie chciałbyś rozszyfrowywać

protokołu alokacji pamięci twojego iPhone’a za każdym razem, kiedy

chcesz wysłać wiadomość grupową albo zrobić zdjęcie. Podobnie

powinniśmy dziękować swoim szczęśliwym gwiazdom, że nie musimy

rozumieć, jak działa mózg, aby móc go używać. Nie wiemy, w  jaki

sposób nasz obiad przekształca się w  energię –  po prostu go zjadamy

i  ruszamy w  drogę. To samo można powiedzieć o  naszym życiu

psychicznym. Nie mamy zielonego pojęcia, jak coś robimy. Dotknij

palcem swojego nosa. Czy wiesz, jak to się stało? Informacje o tym, jak

to się robi –  w jaki sposób generowane są sygnały neuronalne

przesyłane do twoich mięśni –  znajdują się poza twoją wiedzą

i  świadomością. Podobnie jak pilot boeinga 777 obsługuje program

komputerowy, aby pilotować samolot, każdy z  nas obsługuje swój

umysł, warstwę aplikacji w  umyśle, aby generować działania –  czyli

zachowanie. Czy jednak prawdziwe mózgi rzeczywiście mają


architekturę warstwową? A  może to tylko formalizm, dla którego tak

naprawdę nie ma miejsca w rzeczywistych systemach biologicznych?

Wymyślenie nowego ujęcia lub nowej idei zwykle skutkuje

odkryciem, że inni naukowcy wpadli na podobny pomysł, czasami wiele

lat wcześniej. Ile jeszcze razy musimy się przekonać, że ludzkie idee są

właśnie tym –  ideami, któ-re w  historii przychodziły do głowy wielu

ludziom? W  naszym wypadku trzeba wrócić do Tony’ego Prescotta,

Petera Redgrave’a i  Kevina Gurneya z  Uniwersytetu w  Sheffield.

Wszyscy trzej są obeznani z  neuronauką, robotyką i  informatyką –

  dyscyplinami, które wykorzystują z  nieustającą pomysłowością.

[20]
W  nowatorskim artykule naukowym dotyczącym uwarstwienia ,

napisanym niemal dwadzieścia lat temu, skierowali nas ku miejscu,

w  którym znajdujemy się dzisiaj. Ta podróż zaczyna się od Johna

Hughlingsa Jacksona, wybitnego dziewiętnastowiecznego neurologa

brytyjskiego. Jackson bez wątpienia był znakomitym lekarzem, jak

moglibyśmy powiedzieć –  pierwszorzędnym dżokejem. Niestety, gdy

przychodziło do pisania, ów doskonały jeździec dosiadał

trzeciorzędnego konia. Jego teksty są niemal zupełnie niezrozumiałe.

Na szczęście kilku dżokejów dosiadających pierwszorzędne

wierzchowce uczyniło jego prace zrozumiałymi dla reszty świata.

Darwin zainspirował świat naukowy i  medyczny, a  Jackson był

zagorzałym zwolennikiem jego idei. Mózg, powstały na drodze doboru

naturalnego, jest maszyną sensomotoryczną, a  każdy gatunek ma

własny zestaw ewolucyjnie ukształtowanych zdolności. U  ludzi wyżej

położone warstwy są najbardziej biegłe w  koordynowaniu zachowania,

ale podstawowe zdolności są wbudowane zarówno w  wyższe, jak i  w

niższe warstwy mózgu. Na przykład kot albo szczur, któremu usunięto

korę mózgową, nadal może przejawiać rozmaite zachowania

motywowane, takie jak chodzenie, iskanie, jedzenie i  picie. Bez


wyższych warstw mózgu zanikają jednak zachowania bardziej złożone.

Jak to ujęli Prescott i jego współpracownicy z Sheffield:

[Jackson] podzielił układ nerwowy na ośrodki niższe, środkowe i  wyższe i  stwierdził,

że ta sekwencja odzwierciedla postęp od „najbardziej zorganizowanych” (najbardziej

sztywnych) do „najmniej zorganizowanych” (w najwięk-szym stopniu poddających się

modyfikacjom), od „najbardziej automatycznych” do „najmniej automatycznych” oraz

od „najbardziej odruchowych” do „najmniej odruchowych”. Temu rozwojowi

towarzyszy wzrost kompetencji poprzez coś, co dziś można rozumieć jako

behawioralną dekompozycję –  ośrodki wyższe zajmują się taką samą koordynacją

[21]
sensomotoryczną, jak te niższe, choć czynią to bardziej pośrednio .

Jackson od razu dostrzegł implikacje swojej warstwowej koncepcji

i  doszedł do wniosku, że musi istnieć zjawisko, które nazwał

dysocjacją (Jackson wprowadził ten termin do  neurologii), polegające

na tym, że określone uszkodzenia mózgu powinny skutkować

określonymi deficytami w  sferze zachowania. Jeśli usuniemy górne

warstwy, to tylko te dolne będą mogły reagować –  na swym

ograniczonym poziomie zdolności, tak jak to opisano u  pozbawionych

kory mózgowej szczurów.

Ewoluowalne systemy warstwowe


Wszystkie te przełomowe idee, rzecz jasna, pociągnęły za sobą pytanie,

czy w toku ewolucji mózg rozwija się w sposób warstwowy. Czy kolejne

obszary mózgu są dodawane powoli, lecz konsekwentnie, i czy znajduje

to potwierdzenie w  wynikach badań prowadzonych na gruncie

anatomii porównawczej? Rzeczywiście tak jest, a pierwsze skrzypce gra

tutaj Prescott, który przedstawia długą, skomplikowaną i  fascynującą

historię: ewolucja współczesnego układu nerwowego kręgowców

rozpoczęła się ponad 400 milionów lat temu, od podstawowego planu

obejmującego rdzeń kręgowy, tyłomózgowie, śródmózgowie


i  przodomózgowie. Z  upływem tysiącleci do przodomózgowia dołączały

moduły i  warstwy, które wnosiły ze sobą nowe funkcje, a  nie tylko

rozwijały dotychczasowe. Kiedy na przykład kończyny stały się bardziej

zdolne do manipulowania przedmiotami, potrzebna była nowa

przestrzeń neuronalna na kolejne warstwy modułowe, które miały

zapewnić kontrolę nad owymi nowymi obwodowymi manipulatorami,

nazywanymi palcami. Te nowe szlaki neuronalne są obecne

u kręgowców wyposażonych w palce, ale nie występują u tych, które ich

nie mają. Zgodnie z  przewidywaniami Jacksona uszkodzenia

przodomózgowia upośledzają działanie zbioru modułów

odpowiedzialnych za motorykę precyzyjną dłoni, lecz nie zakłócają

pracy modułów kontrolujących bardziej podstawową motorykę całej

ręki.

Zdolność do ewolucyjnego rozwoju przynosi korzyści każdej populacji

zwierząt i stanowi podstawę adaptacji do nowych wyzwań. Definiuje się

ją jako zdolność organizmu do generowania dziedzicznej zmienności

[22]
fenotypowej (wariantów obserwowalnych cech) . Jeśli jakaś cecha

zostaje wyselekcjonowana przez dobór naturalny, to będzie przekazana

następnemu pokoleniu. Dobrze znanym przykładem z Wysp Galapagos

[23]
jest zmienność wielkości dzioba u  zięb Darwina . Jedno z  pytań,

jakie pociągnęła za sobą Darwinowska teoria selekcjonowania

dziedzicznej zmienności, brzmiało: skąd się bierze cała ta zmienność

i jak jest generowana? Najczęściej podawany powód – że jej źródłem są

głównie przypadkowe mutacje genów –  częściowo odpowiada na to

pytanie, ale nie stanowi ostatecznego rozwiązania zagadki. Biolodzy od

lat łamią sobie nad tym głowę.

W tym momencie na scenę wkraczają biolog z  Harvardu, Marc

[24]
Kirschner, i jego współpracownik z Berkeley, John Gerhart . Ci dwaj

badacze zastanawiali się, czy współczesne organizmy są wyposażone

w  mechanizmy komórkowe i  rozwojowe odznaczające się cechą


nazywaną ewoluowalnością. Czy przejawiają zdolność do

generowania dziedzicznej zmienności fenotypowej? I  czy sama

ewoluowalność, jako cecha, ulega presji selekcyjnej? Innymi słowy, czy

systemy biologiczne generujące więcej wariantów fenotypowych, które

mogą być przekazywane potomstwu, częściej wygrywają

w ewolucyjnym wyścigu zbrojeń?

W świecie zwierząt istnieje wielka różnorodność w  zakresie kształtu

ciała, organizacji tkanek, rozwoju i fizjologii. Równocześnie spora część

podstawowych procesów, takich jak szlaki biochemiczne i  ścieżki

sygnalizacji komórkowej, a  także obwody regulujące ekspresję genów,

jest taka sama u  wszystkich gatunków. My, zwierzęta, współdzielimy

niektóre podstawowe procesy z  roślinami, grzybami i  śluzowcami –  na

przykład używamy tych samych enzymów do regulacji podziału

komórkowego. Inne procesy podstawowe – metabolizm i replikacja – są

wspólne dla nas i dla wszystkich innych form życia, nawet dla bakterii.

Dlaczego? Dlatego, że wiele sekwencji genomowych jest wspólnych dla

wszystkich organizmów. Według części biologów te podstawowe procesy

ograniczają ewolucję, ale Kirschner i  Gerhart się z  tym nie zgadzają.

W  istocie są przeciwnego zdania. Uważają, że powodem, z  jakiego

mamy tak wiele wspól-nych procesów podstawowych, z  jakiego procesy

te trwają od 530 milionów lat i  z jakiego odniosły sukces ewolucyjny,

jest fakt, że owe procesy nie tylko zapewniały organizmom elastyczność

–  zamiast ją ograniczać –  lecz także umożliwiały przekazywanie

korzystnych zmian (wariantów cech) potomstwu. Elastyczność

zapewniana przez te podstawowe procesy wiązała się ze zmiennością

fenotypową procesów wrażliwych na zmiany środowiskowe. Owe

podstawowe procesy były więc ograniczeniem, które zapewniało

ewolucyjną elastyczność w niepewnym środowisku.

Jeśli to wszystko przypomina ci protokoły w  architekturze

warstwowej –  „ograniczenia, które odograniczają” –  to masz rację.


Doyle i  Alderson ubolewają, że większość biologów nie docenia roli,

jaką architektura warstwowa odgrywa w generowaniu zmienności. Być

może architektura warstwowa, wszechobecna w  systemach

biologicznych, wyewoluowała dlatego, że jej zdolność do wytwarzania

zmienności w  wytyczonych granicach okazała się krzepka w  starciu

z  konkurencją i  została wyselekcjonowana przez dobór naturalny:

warstwowość albo śmierć!

Więzy, które uwalniają


Rozpoznanie architektury warstwowej to jedno, ale zrozumienie, jak

warstwy się ze sobą porozumiewają, to zupełnie inna sprawa. Wielką

różnorodność informacji, które docierają do danej warstwy, trzeba

przetworzyć i  przekonwertować do postaci możliwej do

zinterpretowania przez następną warstwę. Największe ograniczenia

struktury warstwowej tkwią w  procesach łączących poszczególne

[25]
warstwy . Tę cechę architektury warstwowej obrazuje elegancka

muszka albo klepsydra, przy czym protokół jest ograniczającym

węzłem pośrodku, a informacje wejściowe i wyjściowe rozchodzą się na

boki. W  naszym wcześniejszym przykładzie projektanta foteli

w  samolocie protokół opracowany dla warstwy foteli –  zbiór ściśle

określonych wymiarów –  był węzłem pośrodku muszki. Tym, co

docierało do protokołu (danymi wejściowymi), były rozmaite materiały

konstrukcyjne, kształty, kolory i  tym podobne. Wynikiem jego

działania mogła być wielka różnorodność foteli z  rozmaitych

materiałów, o różnych kształtach i kolorach, ale wszystkie one musiały

być zgodne z  wymiarami określonymi w  protokole i  spełniać

przewidzianą w  nim funkcję. System jest więc ograniczony, ale także

[26]
odograniczony (to zupełnie nowe, wy-myślone słowo) . Określona

liczba informacji wejściowych może zostać przekształcona w  różne


rodzaje wyników, ponieważ istnieje wiele sposobów, w  jakie można

wykonać zadanie danej warstwy. Tylko pomyśl, to prawie magia. Kie-

dy patrzymy na odpowiednio uwarstwionego robota, wydaje się niemal,

że ów naszpikowany przewodami układ wyposażony w  zbiór

zaprogramowanych reakcji naprawdę myśli w  emocjonalny, ludzki

[27]
sposób .

Fakt, że protokół danej warstwy zarówno ogranicza, jak

i  odogranicza system, ma decydujące znaczenie. Chciałbym to dobitnie

podkreślić, dlatego podam jeszcze jeden przykład. Pomyśl o  swoim

warstwowym ubiorze i  całym zakresie możliwości dostępnych dla

poszczególnych warstw. Na przykład warstwa „ciepło” (z

ograniczającym protokołem: „musi utrzymywać ciepło”) dysponuje

rozmaitymi rodzajami części garderoby jako danymi wejściowymi

i  wieloma możliwymi wynikami (strojami). Może to być peleryna

z  niedźwiedziej skóry i  wełniane spodnie, płaszcz z  wełny merynosa,

kaszmirowy sweter i  spodnie z  owczej skóry albo poliestrowa kurtka

z polaru z kamizelką z norek i piankowymi spodniami do nurkowania.

Ubrania mogą być zapinane na zamek albo wciągane przez głowę,

a  cały strój może być jednoczęściowy albo składać się z  góry i  dołu.

Może mieć golf i  ściągacze przy rękawach i  nogawkach albo nie. Może

być dowolnego koloru i  w dowolnym rozmiarze. Chociaż w  warstwie

„ciepło” obowiązuje protokół, który ją ogranicza (ubranie „musi

utrzymywać ciepło”), ów protokół zarazem pod wieloma względami ją

odogranicza, co zapewnia ogromną rozmaitość możliwych rozwiązań.

Mówiąc językiem Darwina, mamy wybór spośród zmienności. Widzimy,

że dzięki tej elastyczności warstwa „ciepło” rozwinęła się ewolucyjnie –

  od peleryny ze zwierzęcej skóry do polarowej kurtki z  kapturem,

w  kolorze fuksji, zapinanej na zamek, w  rozmiarze L. Z  kieszeniami.

Ten przykład ilustruje chyba najważniejszą cechę architektury

warstwowej. Otóż umożliwia ona zmiany w  długiej perspektywie


czasowej –  od strojów Freda i  Wilmy Flinstone’ów do garnituru

Armaniego i sukni Valentino.

Pomimo swojej elastyczności architektura warstwowa nie jest

pozbawiona wad. Weźmy zaproponowane wcześniej kombinacje ciepłych

ubrań i dodajmy wymaganie, że strój musi być „modny”. To trudniejszy

problem. Im bardziej szczegółowy protokół, tym większe ograniczenia.

Pod tym względem jednolity system, który nie działa warstwowo,

będzie bardziej efektywny, ponieważ nie ma osobnych protokołów dla

każdej ze swoich funkcji. Powtórzmy: protokół to zbiór reguł, które

określają dozwolone interfejsy lub interakcje zarówno w  obrębie

poszczególnych warstw, jak i  między nimi. Łatwiej byłoby

zaprojektować jeden kombinezon z  jakiegoś drogiego materiału, który

byłby ciepły, nieprzemakalny i  wygodny –  niezawodny strój na każdą

okazję, lekki i  elastyczny. Mieściłby się w  twojej podręcznej torbie

i  można byłoby go włożyć w  mgnieniu oka. Mógłby cię nawet

wyszczuplać i  być bardzo modny! Do końca życia potrzebowałbyś tylko

tego jednego ubrania. Wspaniale!

Jednolita struktura nie jest jednak rozwiązaniem idealnym

w wypadku złożonego systemu, ponieważ w takim wypadku wystarczy

mała awaria i  cały układ przestaje działać, a  jego modernizacje są

trudne do przeprowadzenia. Roz-dzierasz paznokciem nogawkę

idealnego kombinezonu i  cały strój się pruje. W  wypadku uszkodzenia

systemu warstwowego przynajmniej masz jakieś części zapasowe,

a  naprawa lub wymiana uszkodzonego elementu jest tańsza

i  łatwiejsza. A  jeśli pojawi się materiał o  lepszych parametrach

oddychalności? Musiałbyś wyrzucić na śmietnik cały kombinezon

i  sprawić sobie nowy, aby wykorzystać tę nową możliwość, co byłoby

kosztowne. Utrzymanie całościo-wego systemu pochłania więcej czasu,

energii i  zasobów. Nawet jeśli taki system działałby bardziej

efektywnie, ceną za to byłyby wyższe koszty i  mniejsza krzepkość


(odporność). Ponieważ każda warstwa może spełniać szeroki zakres

funkcji, system jako całość jest bardziej elastyczny, co zapewnia mu

wielką przewagę w  zmieniającym się środowisku. Taki model wydaje

się idealny w  sensie ewolucyjnym, ponieważ ogranicza liczbę słabych

punktów w  systemie, a  przy tym zapewnia ogromne możliwości

dywersyfikacji. Takie systemy łatwiej się przystosowują do

zmieniającego się w  czasie środowiska. Reasumując, architektura

warstwowa jest idealna w  wypadku złożonych systemów, ponieważ

łatwo ją naprawić, a przy tym jest mniej kosztowna, bardziej

elastyczna i w większym stopniu ewoluowalna.

Złożone systemy warstwowe nie są jednak odporne na błędy

w  protokołach. Kiedy system ulega awarii, jest atakowany, lub nawet

zostaje przejęty, może to skutkować błędami, czasem katastrofalnymi.

Jeśli na przykład szwy twoich wełnianych spodni sprują się z  powodu

błędu protokołu w  warstwie „szycie”, to spodnie nie będą się nadawały

do użytku. Równie dobrze mógłbyś nosić hawajską spódnicę z  trawy.

Jeśli w  systemie biologicznym, jakim jest twoje ciało, dojdzie do

przejęcia protokołów układu odpornościowego, to możesz zapaść na

chorobę autoimmunologiczną. Złożone systemy zawierają wiele

komponentów i warstw podsystemów, co może skutkować interakcjami,

które nader trudno przewidzieć. Na przykład drobna usterka jednego

elementu, niewywierająca istotnego wpływu na jego miejscowe

działanie, może się spotęgować w  interakcji z  innymi elementami

i zakłócić pracę całego systemu. Taka nieprzewidziana interakcja może

[28]
doprowadzić do awarii systemu .

Uszkodzenia protokołów mogą zagrozić nawet najbardziej

krzepkiemu systemowi, ale korzyść polega na tym, że w  takim

systemie jest niewiele ważnych miejsc narażonych na atak. Co jeszcze

ważniejsze, system może być zdolny do dalszego działania pomimo


swoich deficytów, podczas gdy w  jednolitym systemie atak na jeden

komponent może zagrozić działaniu całości.

Dlaczego nie możemy po prostu usunąć tych błędów z  systemu?

Pozbyć się słabych punktów? Problem polega na tym, że nowe strategie,

które rozwiązują jeden problem, nieuchronnie pociągają za sobą nowe

słabości, którym trzeba za-radzić. Ewolucja naszego złożonego mózgu

i  ciała z  pierwotnego chemicznego bulionu oraz ewolucja boeinga 777

z kamiennych grotów i roweru Orville’a Wrigh-ta są wynikiem wyścigu

zbrojeń polegającego na dodawaniu kolejnych warstw krzepkich cech

mających przeciwdziałać słabościom. Przypomina to Królową Kier

z  powieści Po drugiej stronie lustra, która biegnie coraz szybciej

i  szybciej, aby pozostać w  tym samym miejscu. Czy więc jesteśmy

skazani na zgubę? Jedną ze strategii zabezpieczających jest

wprowadzenie redundancji do systemu.

Wiele dróg prowadzi do mózgu


Protokół danej warstwy ogranicza wyniki jej działania poprzez

zawężenie zakresu możliwości, ale nie dyktuje, które z  dostępnych

możliwości staną się wynikami. Ograniczenia, które odograniczają, nie

są tożsame z  przyczynowością. Ograniczenie może zmniejszać liczbę

możliwych wyników, ale nie jest przyczyną określonego wyniku. Kiedy

ubierasz się na przyjęcie, twoja kreacja będzie ograniczona przez wybór

ubrań w  twojej szafie (i prawdopodobnie przez twoje przekonania na

temat tego, jak wypada się ubrać na przyjęcie), ale to ograniczenie nie

każe ci włożyć konkretnego stroju. Nadal masz mnóstwo możliwości do

wyboru. Zawarte w  protokole ograniczenia, które odograniczają, nie

narzucają wyniku. Przyjęcie założenia, że tak się dzieje, może być

źródłem problemu u  ludzi, którzy nie zdają sobie sprawy, że mają do

czynienia z  protokołami w  architekturze warstwowej. Może im się


wydawać, że na podstawie obserwowanego zachowania potrafią

przewidzieć wzorzec aktywności neuronalnej, czyli „stan mózgowy”,

który wywołał to zachowanie. Błędność tego sposobu myślenia

[29]
wykazały prace znakomitej neurobiolożki Eve Marder , która bada

jelita homarów.

Marder badała „warstwę trawienną” homara, analizując skurcze jego

jelita. Wyizolowała i  zbadała każdy neuron i  każdą synapsę –  aż do

poziomu efektów neuroprzekaźników –  uczestniczące w  ruchach jelita

homara. Podobnie jak twoja garderoba zawiera miliard możliwych

strojów (jeśli uwzględni się wszy-stkie, nawet najbardziej dziwaczne

kombinacje, takie jak skarpetki nałożone na dłonie i  spódnica

naciągnięta na wranglery), w maleńkim jelicie homara Marder odkryła

dwa miliony możliwych kombinacji sieciowych. Ale podobnie jak

w wypadku twoich strojów, ograniczenia zawarte w protokole zawężają

zakres możliwych wyników –  tylko niewielki ich ułamek rzeczywiście

się sprawdza. Nie nosisz bokserek na spodniach ani kurtki pod

elegancką sukienką, chociaż mógłbyś to robić. Tak jak w  wypadku

twoich strojów, niewielki ułamek miliarda czy niewielki ułamek dwóch

milionów to nadal mnóstwo możliwości. W  badaniach Marder od

jednego do dwóch procent możliwych kombinacji okazało się naprawdę

działać, co oznacza, że w  każdym momencie od 100  000 do 200  000

ustawień owej garstki neuronów będzie skutkować tym samym

zachowaniem. Jak widać, istnieje wiele sposobów, w  jakie można

wykonać zadanie warstwy ruchów jelita, podobnie jak istnieje wiele

sposobów, w jakie można wykonać zadanie skompletowania stroju. Jest

to przykład wielorakiej realizowalności (multiple realizability) –

  idei, że jeśli chodzi o  aktywność neuronów, to wiele dróg prowadzi do

tego samego celu. Innymi słowy, ta sama właściwość mentalna, ten

sam stan lub to samo zdarzenie mogą być zrealizowane przez różne

wzorce aktywności neuronalnej. Może się wydawać, że to


marnotrawstwo czasu ewolucyjnego i energii biochemicznej. Oznacza to

jednak, że jeśli jeden szlak zostanie przerwany, to inny może przejąć

pałeczkę.

Systemy warstwowe minimalizują koszty zasobów dzięki zdolnym do

adaptacji komponentom mogącym służyć wielorakim celom. Na

przykład w  warstwie biochemicznej mózgu występuje wiele białek

pełniących wielorakie funkcje zwią-zane ze szlakami sygnałowymi

i  pętlami sprzężenia zwrotnego, które regulują działanie systemu

[30]
w różnych warstwach . System oszczędza energię, ponieważ nie musi

tworzyć wielu niepowtarzalnych komponentów dla każdej warstwy

z osobna.

Obniżeniu kosztów służy również kontrola uszkodzeń, jaką zapewnia

przetwarzanie równoległe. Na przykład u  organizmów

wielokomórkowych istnieje warstwa komórkowa, w  której procesy

metaboliczne przebiegają na poziomie pojedynczych, niezależnie

działających komórek, oraz warstwa tkankowa, zbudowana z  owych

komórek działających wspólnie, wykonujących zadania tkanek zgodnie

z  protokołem tkankowym. Każda komórka w  warstwie komórkowej

realizuje własne protokoły, które mogą być takie same, jak protokoły

innych komórek w  obrębie danej tkanki, ale każda z  nich pracuje

niezależnie od pozostałych. Kiedy jakaś komórka zostaje uszkodzona,

potrzebne są zasoby do naprawienia tej jednej komórki, nie zaś całej

tkanki. Ponadto jeśli ja-kaś komórka zostanie nieodwracalnie

zniszczona, bez możliwości naprawy, to cała tkanka prawdopodobnie

nadal będzie sprawna, ponieważ nieobecność jednej, niezależnie

działającej komórki na ogół nie ma istotnego znaczenia. Działanie

całego systemu jednak –  podobnie jak w  innych systemach

warstwowych –  może być zagrożone w  wypadku awarii jednego

z  podstawowych komponentów przekazujących informacje z  jednej

warstwy do drugiej. W  tkance biologicznej uszkodzenie białek, które


łączą ze sobą komórki, może uniemożliwić przekazywanie informacji

z  warstwy pojedynczych komórek do warstwy tkankowej, a  co za tym

idzie – cały system może się wyłączyć. Choć niedoskonała, architektura

warstwowa systemów biologicznych jest korzystna, ponieważ

minimalizuje liczbę punktów w  systemie, których zaatakowanie

mogłoby doprowadzić do katastrofalnych zniszczeń, a  także ogranicza

skutki ataków na inne punkty.

Według Kirschnera i  Gerharta cechy odznaczające się największą

elastycznością utorowały drogę organizmom o  wyższym stopniu

złożoności, ponieważ bardziej dynamiczne systemy na ogół są mniej

narażone na zabójcze mutacje. Populacje organizmów są zdolne do

ewolucyjnego rozwoju dzięki zmienności fenotypowej, która wynika

z  architektury warstwowej. Ewoluowalność systemów warstwowych

mogła się więc ogromnie przyczynić do sukcesu w walce o przetrwanie.

Od chromosomów do świadomości
Zaczynamy stąpać po cienkim lodzie. Co prawda już wiadomo, że

złożone systemy biologiczne mają architekturę warstwową, ale

wszystkie role poszczególnych warstw, ich funkcje i  dynamika nie są

jeszcze znane. Niektóre systemy, na przykład bakterie, rozumiemy

lepiej niż inne, takie jak – owszem, zgadłeś – ludzki mózg. W systemie

biologicznym warstwy, które Doyle nazywa strukturalnymi –

  warstwy ewolucyjnie najstarsze –  są podstawą systemu, zbudowaną

z cząstek subatomowych, atomów i cząsteczek, przy czym każda z tych

warstw ma własne protokoły. Spośród innych warstw można wy-mienić

tę zawierającą protokoły, które opisują interakcje wewnątrz- i  mię-

dzycząsteczkowe; inną, której protokół może generować dynamiczne

interakcje – innymi słowy, warstwy, które wywołują zmianę lub postęp;

a  także warstwy kontrolne, których protokoły wykorzystują informacje


zwrotne do modyfikowania reakcji systemu. Protokoły kontrolne

kierują zachowaniem systemu w  obliczu rozmaitych perturbacji

wewnętrznych i  zewnętrznych. Wiemy przy tym, że systemy kontrolne

w  dojrzewającym ludzkim mózgu potrzebują więcej czasu niż wiele

innych systemów, aby osiągnąć pełną sprawność. Jeśli nie jesteś

przekonany, to sprawdź, jak działają perturbacje na nastolatka.

Kontroluj się!
Kontrola wprowadza do systemu porządek i  precyzję, zapobiegając

przypadkowym reakcjom. Wyobraź sobie, co by było, gdyby nasze

neurony strzelały bez ładu i  składu –  nie moglibyśmy trafić widelcem

do ust, nie mówiąc już o  chodzeniu po linie. Systemy kontrolne mogą

być nastawione na kontrolę optymalną, która optymalizuje działanie

w  przeciętnych sytuacjach, neutralnych pod względem ryzyka, lub na

kontrolę odporną (krzepką), która uwzględnia poziom ryzyka

i  optymalizuje działanie w  sytuacjach krytycznych –  w wypadku

najgorszych możliwych scenariuszy (worst-case-scenarios). Systemy

kontroli optymalnej –  jak sama nazwa wskazuje –  są najlepszą

odpowiedzią na konkretne wyzwanie. Mogą być jednak wrażliwe na

[31]
inne rodzaje niepewności . Dlatego we współczesnych systemach

technicznych stosuje się przede wszystkim kontrolę odporną (w

normalnych okolicznościach ukrytą i  ujawnianą tylko przez zdarzenia,

które na ogół nie występują, takie jak awarie, utrata sterowności i tym

[32]
podobne) . Boeing 777 potrafi bez trudu przelecieć przez burzę

z  piorunami, ponieważ jego systemy kontroli zostały zaprojektowane

w  sposób zapewniający odporność na trudne warunki pogodowe, a  nie

zoptymalizowane przy spokojnym, bezchmurnym niebie.

Według większości neuronaukowców nasz mózg jest wyposażony

w  systemy kontroli optymalnej, chociaż neuronaukowiec, inżynier


i  lekarz Daniel Wolpert oraz jego współpracownicy nie zgadzają się

z tym poglądem. Uważają, że to kontrola odporna najlepiej wyjaśnia

[33]
kontrolę ruchową u  człowieka . Systemy kontroli odpornej mają

[34]
sztywne limity dotyczące krzepkości (odporności) i  efektywności

i  muszą poszukiwać kompromisów między nimi: szybkość czy

dokładność; szybkość czy elastyczność; elastyczność czy wydajność;

szybkość czy niskie koszty. Owe kompromisy są dobrze

udokumentowane we wszelkiego rodzaju świadomych i  nieświadomych

procesach przetwarzania.

Według Wolperta kontrola ruchowa jest rzeczą najważniejszą. Jako

przedstawiciel rodu zdeklarowanych szowinistów ruchowych, Wolpert

chlubi się przodkami, do których należą Sir Charles Sherrington, autor

słów: „Celem życia jest działanie, nie myślenie”, oraz Roger Sperry,

który zachęcał nas, abyśmy „widzieli mózg obiektywnie, taki, jaki jest –

[35]
  mianowicie jako mechanizm kierujący aktywnością ruchową” .

Wszak to poprzez działanie, a nie myślenie, jedzenie trafia na stół, a w

łonie matki, niczym ciasto w piekarniku, zaczyna wzrastać nowe życie.

Działanie pozwalało naszym przodkom przetrwać i  wydać na świat

potomstwo. Wolpert – jak się wydaje, obecny lider tej grupy – twierdzi,

że jedynym powodem, z jakiego mamy mózg, jest ten, abyśmy mogli się

[36]
poruszać w  przystosowawczy sposób . Zanim się oburzysz, pomyśl

o tym, że serce jest mięśniem, bez którego ruchów nie moglibyśmy żyć.

Ruch pozwala nam zdobywać jedzenie, przeżuwać je i  trawić. Bez

jedzenia nasz mózg nie mógłby działać i  bez wątpienia nie mógłby

kreować twórczych aspektów życia – literatury, muzyki i sztuki – które

pozostałyby uwięzione w  mózgu, gdybyśmy nie mogli wydobyć ich na

światło dzienne poprzez ruchy ciała: mowę, pismo, gesty czy ekspresję

mimiczną. Powinniśmy rozważyć tę ideę wraz z  nową perspektywą,

jaką nam ona daje. Jeśli nasz mózg wyewoluował jako system kontroli

ruchów ciała, to myślenie, planowanie, zapamiętywanie, używanie


zmysłów i  tym podobne są po prostu narzędziami, złożonościami

dodanymi w  architekturze warstwowej, które ukształtowały się

ewolucyjnie, aby zwiększyć krzepkość kontroli motorycznej

w  zmieniającym się, niepewnym środowisku. To samo można

powiedzieć o uczeniu się i myśleniu. Jak zawsze, te nowsze ewolucyjnie

warstwy przynoszą ze sobą własne słabości i wrażliwe punkty.

Jeśli niespodziewanie dotkniesz gorącego palnika, to twoją reakcją

będzie automatyczny odruch: cofniesz palec, zanim świadomie

poczujesz ból. To przykład kontroli ze sprzężeniem zwrotnym na

poziomie obwodowego układu nerwowego. Szybkie, grube, otoczone

warstwą izolacyjną (a przez to kosztowne) neurony rdzenia kręgowego

natychmiast inicjują reakcję wycofania od bolesnego bodźca, bez

pomocy świadomego mózgu. Ten odruch jest automatyczny, szybki,

kosztowny energetycznie i  ukryty przed świadomością, a  przy tym

nieelastyczny. Błyskawicznie cofasz rękę jednym płynnym ruchem.

Twoja dłoń nigdy nie oddala się powoli, unosząc się w  powietrzu

niczym motyl. Po krótkiej chwili jednak włączają się powolne, cienkie,

wyspecjalizowane nerwy, które wytwarzają świadomą myśl na temat

źródła całego zamieszania: „Och! Boli mnie palec”. Co się dzieje potem?

Powolne świadome procesy poznawcze generują różne reakcje, które

pozwolą ci złagodzić ból – teraz i w przyszłości. Możesz włożyć palec do

ust lub do miski z  zimną wodą albo posmarować go chłodzącym żelem

aloesowym. Planujesz, że już nigdy nie dotkniesz gorącego palnika.

Procesy poznawcze są dokładne, elastyczne i  tanie energetycznie, lecz

powolne. Zdarza się, że mamy wystarczająco dużo czasu, ale

w  sytuacjach nacechowanych niepewnością powolność może być

zabójcza.

Możemy traktować uczenie się i  poznanie jako wyrafinowane

warstwy kontrolne, które ukształtowały się ewolucyjnie, aby zapewnić

odporność na przyszłe perturbacje poprzez planowanie na wypadek


pojawienia się bodźca, który jeszcze nie wystąpił. Częściowo

wykorzystują one przy tym informacje zwrotne pochodzące

z  wcześniejszych doświadczeń z  podobnymi bodźcami (pamięć), ale

takie sprzężenie zwrotne może prowadzić do czegoś więcej niż tylko

korygowanie danych wejściowych. Z  biegiem czasu może wprowadzać

zmiany w protokole danej warstwy, co nazywamy uczeniem się.

Ludzie, zwierzęta i niektóre inne organizmy potrafią się przygotować

na przyszłe zdarzenia poprzez rozmaite mechanizmy uczenia się. Jeśli

zwierzę napotka jedzenie o  paskudnym smaku, to nauczy się unikać

tego bodźca w przyszłości. Wiemy, że wystąpiło uczenie się, kiedy taka

sama informacja wejściowa („Gorące! Nie dotykaj!”) z  biegiem czasu

wywołuje u  organizmu inną reakcję (wynik na wyjściu). Protokół:

„Zjadaj ptaki”, zmienił się w: „Zjadaj ptaki z wyjątkiem wron”, albo też:

„Badaj przedmioty dotykiem”, zmieniło się w: „Badaj dotykiem

przedmioty z wyjątkiem kuchenek”.

Jakkolwiek przychodzimy na świat wyposażeni w pewne zachowania

automatyczne, takie jak instynktowny odruch bólowy, niektóre

automatyczne zachowania są wyuczone. Uczenie się może przenieść

niektóre zachowania z  wyrafinowanej, lecz powolnej warstwy

świadomej kontroli do szybkiej, automatycznej warstwy nieświadomej.

Na przykład, kiedy ćwiczysz zamach golfowy, przewidujesz –  na

podstawie wspomnień wcześniejszych zamachów –  gdzie wyląduje

piłka. Psiakrew! Korygujesz swój zamach i  próbujesz znowu, tym

razem z  nieco większą werwą. Uderzenie jest dobre na długość, ale

trochę niecelne. W  porządku, musisz lepiej wykończyć uderzenie. Po

wystarczającej liczbie prób piłka prawie za każdym razem ląduje we

właściwym miejscu (jeśli nie występują perturbacje zewnętrzne, takie

jak podmuchy wiatru albo przyjaciel, który opowiada świetny dowcip

akurat wtedy, gdy wykonujesz zamach, albo też perturbacje

wewnętrzne, takie jak pragnienie, naciągnięty mięsień lub


przypadkowa myśl o… hmm… o  czymkolwiek). Już nie musisz myśleć

o  kontrolowaniu wszystkich swoich ruchów. Stają się one

automatyczne.

Odporność na przyszłe perturbacje wiąże się również z planowaniem

na wypadek zdarzeń, których nigdy wcześniej nie przeżyliśmy. W  tym

celu wykorzystujemy modele wewnętrzne do symulowania przyszłości.

Przypominamy sobie wcześniejsze zdarzenia i  łączymy owe

wspomnienia w  rozmaite sposoby, aby stworzyć różne plany

dopasowane do możliwych przyszłych okoliczności. Tak więc protokół

symulowania planów w  owej wyrafinowanej warstwie kontrolnej jest

ograniczeniem, które odogranicza. To samo zrobiłeś, kiedy

analizowałeś –  zgodnie z  zasadami odwrotnej inżynierii –  swoją

garderobę na polarną wycieczkę. Najpierw przewidywałeś, co możesz

napotkać na dalekiej Północy, i  dokonałeś symulacji swoich przyszłych

odczuć na podstawie wspomnień tego, czego doświadczyłeś

w  podobnych sytuacjach. Przypomniałeś sobie, że istniała rozbieżność

między tym, jak chciałeś się czuć, a  tym, jak naprawdę się czułeś. Aby

to skorygować, uczyniłeś swój ubiór bardziej odpornym na zimno

i  wilgoć. W  miarę gromadzenia doświadczeń i  związanych z  nimi

wspomnień protokół planowania uzyskuje coraz więcej informacji,

które może kompilować w  szerszy zakres przyszłych scenariuszy. Im

więcej doświadczeń, tym więcej możliwości potrafi przewidzieć twój

mózg.

Zastosowanie idei uwarstwienia do oszałamiająco złożonego systemu

bio-logicznego, takiego jak ty czy ja, tak naprawdę oznacza przyjęcie

pewnego punktu widzenia, sposobu myślenia o  tym, jak ów

sentymentalny biologiczny twór może działać. Dzięki rozłożeniu całości

na komunikujące się ze sobą warstwy inżynier uzyskuje ramy,

w  których może się zastanawiać, jak zbudować mózg. Chociaż dotąd

nikt nawet nie zbliżył się do tego celu, ta nowa perspektywa


podpowiada neuronaukowcom, którzy z  mozołem badają pojedyncze

neurony albo niewielkie obwody neuronalne, jak mogą myśleć

o  wynikach swoich badań. Wskazuje, w  jaki sposób złożony system,

pełen niezliczonych części lokalnych, może być zorganizowany z  myślą

o realizacji wielkich zadań, takich jak zaprojektowanie budynku opery.

[1]
Rosen, 1970.

[2]
Polanyi, 1968, s. 1308.

[3]
Ibidem.

[4]
Csete i Doyle, 2002.

[5]
Doyle i Csete, 2011.

[6]
Polanyi, 1968.

[7]
Robustness –  krzepkość, odporność, solidność; pojęcie używane

m.in. w  teorii systemów. W  literaturze polskojęzycznej w  tym

kontekście na ogół używa się terminu „krzepkość” (np. krzepkość

systemu, krzepkość cech itp.), dlatego zdecydowałam się na wybór tego

odpowiednika (przyp. tłum.).

[8]
Doyle i Csete, 2011.

[9]
Alderson i Doyle, 2010, s. 840.

[10]
Ibidem.

[11]
Doyle i Csete, 2011.

[12]
Wegiel i in., 2010.

[13]
Sekar i in., 2016.

[14]
Alderson i Doyle, 2010.

[15]
Jeden z  moich znajomych, który to przeczytał, zauważył: „Co to

jest pergola? To termin, którego my, faceci z nowojorskiego Lower East

Side, nigdy w  życiu nie słyszeliśmy”. Pozwolę ci sprawdzić znaczenie

tego słowa w  Wikipedii –  podobnie jak zrobił to mój znajomy.

Znajdziesz tam również fotografię.

[16]
Chiang i in., 2007.
[17]
W literaturze polskojęzycznej często używa się również terminu

„architektura Brooksa”.

[18]
Według słownika American Heritage College Dictionary termin

„subsumpcja” (subsumption) oznacza „akt subsumowania”, „coś, co jest

subsumowane” albo „przesłankę mniejszą sylogizmu”, przy czym

sylogizm to „forma rozumowania dedukcyjnego złożona z  przesłanki

większej, przesłanki mniejszej i wniosku”.

[19]
Pashler, 2013, s. 465.

[20]
Prescott, Redgrave i Gurney, 1999.

[21]
Ibidem, s. 101.

[22]
Kirschner i Gerhart, 1998.

[23]
Boag i Grant, 1981.

[24]
Gerhart i Kirschner, 2007.

[25]
Alderson i Doyle, 2010.

[26]
Doyle i Csete, 2011.

[27]
Ibidem.

[28]
Johnson, 2006.

[29]
Marder, 2011.

[30]
Friedlander i in., 2015.

[31]
Doyle, 1978.

[32]
Alderson i Doyle, 2010.

[33]
Nagengast, Braun i Wolpert, 2010.

[34]
Chandra, Buzi i Doyle, 2011.

[35]
Sperry, 1952.

[36]
Posłuchaj, jak to robi na stronie:

https://www.ted.com/talks/daniel_wolpert_the_real_reason_for_brain?

language=en.
ROZDZIAŁ VI
Dziadek ma demencję, ale jest świadomy
Nieważne, jaka piękna jest twoja teoria.
Nieważne, jaki jesteś mądry (…).
Jeśli twoja teoria nie zgadza się z eksperymentem, to jest błędna.
– Richard Feynman

Świadomość jest odporna i  trudno ją zdławić. Przekonałem się o  tym,

kiedy miałem szczęście spędzić kilka lat na szpitalnych oddziałach

neurologicznych. Po wielu badaniach i  rozmowach z  pacjentami,

u  których doszło do uszkodzenia różnych części mózgu, stało się dla

mnie jasne, że świadomość to nadzwyczaj twarda sztuka. Pewna forma

świadomości utrzymuje się do samego końca, z wyjątkiem sytuacji, gdy

pacjent jest w  śpiączce lub w  stanie wegetatywnym spowodowanym

przez rozlegle uszkodzenie kory mózgowej, które zaburza działanie

całego mózgu. Takie uszkodzenia mogą być następstwem braku kasku

na głowie, kiedy był on najbardziej potrzebny, zakrzepu lub rozerwania

i  krwawienia z  tętnicy mózgowej, operacyjnego usunięcia

niebezpiecznie usytuowanego guza, bądź też przedawkowania

narkotyków. W  innych wypadkach może się zmienić osobowość,

niektóre umiejętności mogą zostać bezpowrotnie utracone,

a  wyobrażenia danej osoby o  otaczającym świecie (jej osobista

rzeczywistość) mogą być zupełnie inne niż dawniej, ale jej świadomość

nadal będzie widoczna. Znalezienie świadomości w  mózgu bez

wątpienia jest świętym Graalem nauki, ale wierz mi, gdyby naprawdę

tam była, do tej pory z pewnością by ją znaleziono.

Uczeni od dwóch tysiącleci pragną znaleźć źródło, tę jedną jedyną

rzecz –  esencję duchową, gruczoł w  okolicy czołowej, nieśmiertelną


duszę, obszar mózgu –  odpowiedzialną za takie zjawiska, jak język,

pamięć, uwaga i  świa-domość. Chociaż nikt tak naprawdę nie wie, jak

wszystkie te zdolności –  tak bardzo nam drogie –  w istocie działają,

wiemy, które części mózgu odpowiadają za język, pamięć i  uwagę.

Kiedy jednak próbujemy wskazać obszary mózgu odpowiedzialne za

świadomość, zaczynamy paplać bez ładu i  składu i  czujemy się

sfrustrowani, ponieważ wydaje się, że takie miejsce nie istnieje.

Obserwacje z  oddziałów neurologicznych mówią nam, że warto

pomyśleć o tym problemie inaczej.

Często słyszymy, że pewne uszkodzenia pnia mózgu wywierają

niszczycielski wpływ na świadomość –  wpływ tak potężny, że ludzie

[1]
zapadają w śpiączkę i w wielu wypadkach nigdy się z niej nie budzą .

Ale to zupełnie inna sprawa. Gdyby twój samochód był odłączony od

akumulatora, to nigdy nie zobaczyłbyś go w  akcji. Nie mógłbyś go

uruchomić, aby się przekonać, co potrafi. Podobnie przedstawia się

sprawa z  uszkodzeniami pnia mózgu –  lwia część mózgu nigdy się nie

włącza. W  skrajnych wypadkach nie ma niczego, co można by

obserwować, nie ma też żadnej wiedzy na temat świadomości, jaką

można by uzyskać poprzez badanie takich pacjentów.

Teraz jednak, uzbrojeni w  koncepcję modułów i  warstw, możemy się

zmierzyć z  trudnym problemem świadomości, która utrzymuje się

pomimo rozmaitych, nawet najpoważniejszych urazów. Musimy się

dowiedzieć, jak zachowuje się większość ludzi, kiedy mózg nie działa

prawidłowo. Musimy zrozumieć, dlaczego świadomość nie przestaje

istnieć.

Ogólnie rzecz biorąc, przyczyn jej trwania można upatrywać

w  wielości modułów, które nie przestają współtworzyć naszego

codziennego doświadczenia pomimo urazu lub innych dysfunkcji.

Wielomodułowe mózgi mają na podorędziu ogromną liczbę dróg

wiodących do świadomego doświadczenia. Jeśli jedna z  nich zostanie


zniszczona, to inna może doprowadzić do celu. Aby nasza świadomość

zniknęła, wszystkie moduły wiodące do świadomości musiałyby się

wyłączyć. Dopóki tak się nie stanie, nieuszkodzone moduły będą prze-

kazywać informacje z  jednej warstwy do drugiej, aby wywołać

subiektywne poczucie doświadczania świata. Treść tego świadomego

doświadczenia może bardzo się różnić od normalnej, ale świadomość

pozostanie. W  klinice neuropsychologii zobaczymy, jak rozmaite ataki

na mózg wpływają na świadomość, co da nam pewne pojęcie o sposobie,

w  jaki nasz mózg jest zorganizowany. Okazuje się, że niekończące się

fluktuacje naszego życia poznawczego, za które odpowiada kora

mózgowa, unoszą się na morzu stanów emocjonalnych, które są

nieustannie modyfikowane przez podkorowe części naszego mózgu.

Wizyta w klinice
Pierwszy pacjent, którego spotykamy, mógłby być czyimś dziadkiem.

Dziadek przyjaźnie ściska moją dłoń, ale nie bardzo wie, kim jestem.

Nie pamięta, że spotkał mnie przed kilkoma dniami. Cierpi na

najczęstszą postać demencji (otępienia) –  chorobę Alzheimera, która

wiąże się z  produkcją i  gromadzeniem się w  mózgu białka o  nazwie

beta-amyloid. To oznacza, że u  tego pacjenta występują poważne

uszkodzenia neuronalne we wszystkich częściach mózgu. Amyloid jest

uważany za przyczynę choroby Alzheimera od mniej więcej dwudziestu

lat, ostatnio jednak pojawiły się dowody empiryczne przemawiające

[2]
przeciwko tej hipotezie i  zaczęto rozważać inne wyjaśnienia .

W każdym razie choroba ta skutkuje powolną degeneracją mózgu, a ów

proces rozpoczyna się od utraty neuronów węchomózgowia (kory

śródwęchowej) i  hipokampa, co skutkuje utratą pamięci krótkotrwałej.

Choroba Alzheimera może być tak wyniszczająca, że całkowicie zmieni

osobowość dziadka. Z  osoby serdecznej i  pełnej życia stanie się on


apatycznym cieniem dawnego siebie. Chociaż mnie nie poznaje,

pozostaje świadomy konwenansów społecznych, więc ściska moją dłoń.

Może utracić kontakt z  rzeczywistością, ale nadal będzie czuł strach,

gdy poczuje się zagubiony i  zdezorientowany, i  gniew w  reakcji na

frustrację. Świadome doświadczenie świata zapewniają mu obwody

neuronalne, które jeszcze nie przestały działać, a  wraz z  utratą

kolejnych funkcji to doświadcze-nie staje się coraz bardziej

ograniczone. Treść tego świadomego doświadczenia zapewne jest

dziwaczna, zupełnie inna niż u  ludzi mających zdrowy mózg i  niż

u  niego samego w  przeszłości. W  rezultacie pojawiają się dziwaczne

zachowania.

Owa apatyczna wersja niegdyś jowialnego dziadka może na przykład

wciąż opisywać siebie jako „duszę towarzystwa”. Opiekunowie

i  członkowie rodziny często przypisują niespójną tożsamość pacjenta

dezorientującej naturze choroby Alzheimera. Kiedy jednak bliscy

opisują jego osobowość sprzed zachorowania, okazuje się ona

uderzająco podobna do sposobu, w  jaki pacjent opisuje siebie w  stanie

[3]
choroby . To sugeruje, że fałszywe przekonania dziadka na temat jego

obecnych cech osobowości prawdopodobnie wynikają z  niezdolności do

uaktualnienia owych przekonań. Na skutek demencji dziadek ma

przestarzały obraz własnej osoby. Dopóki jego serce nie przestanie bić,

świadomość dziadka –  choć upstrzona zmienionymi treściami –

 przetrwa masakrę jego degenerującego się mózgu.

Następnym pacjentem, którego odwiedzimy, jest pan B., który ma

zupełnie inny problem. Wierzy, że interesuje się nim FBI, które śledzi

go bez wytchnienia, dniem i nocą. To jeszcze nie wszystko. Agenci FBI

filmują jego życie i transmitują je publicznie jako Mr B. Show. Pan B.,

bardzo tym zaniepokojony –  co w  pełni zrozumiałe –  stara się unikać

krępujących sytuacji poprzez odpowiednie dostosowanie swojego

zachowania. Wkłada kąpielówki przed każdym wejściem pod prysznic.


Zawsze przebiera się pod kołdrą. Unika sytuacji towarzyskich,

ponieważ wie, że każdy, kogo spotyka, tak naprawdę jest aktorem,

który próbuje dodać nieco dramatyzmu, aby zwiększyć atrakcyjność

programu. Niemal nie sposób sobie wyobrazić, jak by to było żyć

w  świecie pana B. A  jednak, jeśli go wnikliwie przeanalizować,

przypadek pana B. jest przykładem sytuacji, w  której całkowicie

racjonalna i  normalna kora mózgowa próbuje nadać sens anomaliom

występującym w innej części mózgu – w obszarach podkorowych.

Pan B. cierpi na chroniczną schizofrenię. Do czynników ryzyka

wystąpienia tej choroby należą podatność genetyczna oraz interakcje

między genami a  środowiskiem. Czynniki środowiskowe, które

zwiększają ryzyko, obejmują dorastanie na obszarze

[4]
zurbanizowanym , bycie imigrantem, zwłaszcza w  połączeniu

z  izolacją społeczną –  na przykład wtedy, gdy w  okolicy mieszka

[5]
niewiele osób należących do tej samej grupy –  oraz używanie konopi

[6]
indyjskich . Niezależnie od tego, ile dowodów przedstawimy, aby

obalić fałszywe przekonania pana B., pozostanie on głęboko

przeświadczony, że nieustannie oglądają go miliony ludzi. Jednym

z  najważniejszych objawów schizofrenii jest przypisywanie pewnym

bodźcom – pod nieobecność urojeń uważanym za nieistotne – wielkiego

[7]
osobistego znaczenia . Tak więc mężczyzna, który spogląda znad

gazety, celowo cię obserwuje, a  kamień leżący na drodze został tam

umieszczony specjalnie, aby zrobić ci krzywdę. Ta zmiana wyrazistości

–  czyli tego, co wydaje się ważne i  przyciąga uwagę danej osoby –  jest

tak typową cechą schizofrenii, że coraz częściej odzywają się głosy, iż

należy odstąpić od nazwy „schizofrenia” i  sklasyfikować to zaburzenie

[8]
jako „zespół zaburzenia wyrazistości” (salience syndrom) .

Informacje sensoryczne stają się bardziej wyraziste, kiedy

wzbudzane przez nie impulsy neuronalne są wzmacniane bardziej niż

inne, co przyciąga do nich uwagę. Shitij Kapur, psychiatra,


neuronaukowiec i  wykładowca w  londyńskim King’s College, dokonuje

rozróżnienia między halucynacjami i  urojeniami: „Halucynacje

odzwierciedlają bezpośrednie doświadczenie anormalnej wyrazistości

reprezentacji wewnętrznych”, podczas gdy urojenia (fałszywe

przekonania) są wynikiem „wysiłku poznawczego, jaki pacjent

podejmuje, aby nadać sens owym anormalnie wyrazistym

[9]
doświadczeniom” . W  mózgu ilość neuroprzekaźnika o  nazwie

dopamina wpływa na proces nadawania i  ekspresji wyrazistości.

W  ostrym stanie psychotycznym schizofrenia jest powiązana ze

wzmożoną syntezą i  zwiększonym uwalnianiem dopaminy, a  także

z  wyższym spoczynkowym stężeniem tego neuroprzekaźnika

[10]
w  szczelinach synaptycznych . Kapur sugeruje, że w  psychozie

dochodzi do zaburzenia regulacji dopaminy, co skutkuje nieprawidłową

aktywnością układu dopaminergicznego, a  co za tym idzie –

  anormalnym przypisywaniem wyrazistości motywacyjnej obiektom,

[11]
ludziom i  działaniom . Wyniki badań potwierdzają słuszność tego

twierdzenia. Na skutek zmienionej wyrazistości bodźców

sensorycznych treść świadomego doświadczenia jest bardzo różna od

tej, jaka byłaby w  nim zawarta w  normalnych okolicznościach, ale to

właśnie ta osobliwa treść stanowi rzeczywistość pana B. i  jest źródłem

doświadczeń, którym jego procesy poznawcze muszą nadać sens. Kiedy

weźmie się pod uwagę treść świadomego doświadczenia pana B. – jego

halucynacje –  to jego urojenia nie wydają się już tak dziwaczne, lecz

okazują się możliwymi – choć mało prawdopodobnymi – wyjaśnieniami

tego, czego doświadcza. W  tym świetle zachowania wynikające ze

sformułowanych przez pana B. wniosków poznawczych wydają się nieco

bardziej racjonalne. Wreszcie, pomimo opisanych zakłóceń

w  funkcjonowaniu mózgu pan B. pozostaje świadomy i  zdaje sobie

sprawę ze swojej egzystencji.


Chodzący bez świadomości
Dziwaczne zachowania mogą być także wytworem zupełnie zdrowego,

sprawnie działającego mózgu, jeśli tylko jego część jest rozbudzona.

W  warstwowym mózgu wiele czynności odbywa się równocześnie i  jest

koordynowanych synchronicznie. Co się jednak dzieje, gdy

synchronizacja zawodzi –  kiedy każda warstwa działa, lecz wypada

z  rytmu? Odwiedzimy teraz pana A. i  będzie to chyba najbardziej

niepokojąca z naszych wizyt.

Pana A., którego bliscy opisywali jako człowieka kochającego

i oddanego rodzinie, pewnej nocy obudziło szczekanie jego psa i dziwne

głosy. Zbiegł schodami na parter, gdzie spotkał kilku policjantów

[12]
z  pistoletami w  dłoniach . Oszołomiony i  zdezorientowany, został

skuty kajdankami i  wepchnięty na tylne siedzenie radiowozu. Siedział

tam, drżąc ze strachu, i  próbował ocenić sytuację, przysłuchując się

rozmowom ratowników za szybą. Dowiedział się, że jego żona została

ciężko ranna, i  domyślał się, że policjanci ścigają człowieka, który to

zrobił. Dopiero później dowiedział się, że już znaleźli sprawcę i  że był

nim on sam.

W panice pan A. pamiętał tylko, że zasnął w  swoim łóżku kilka

godzin wcześniej. Policja wyjaśniła tragiczny przebieg zdarzeń. Pan A.

brutalnie zamordował swoją żonę podczas –  jak później ustalono –

 epizodu lunatykowania. W trakcie tego epizodu wstał z łóżka i poszedł

naprawić filtr basenowy, o  co żona poprosiła go przy kolacji.

Najwyraźniej jego żona obudziła się i zeszła na dół, aby nakłonić go, by

wrócił do łóżka. Nagłe zakłócenie koncentracji na naprawie urządzenia

wywołało u  niego wybuch agresji. Dźgnął żonę nożem czterdzieści pięć

razy, zaniósł narzędzia do garażu, a  kiedy wrócił i  zastał ją nadal

żywą, wepchnął ją do basenu, w  którym utonęła. Po wszystkim wrócił

do łóżka. Sąsiad, który usłyszał szczekanie i  krzyki, zajrzał przez płot


i  zobaczył, jak sprawiający wrażenie oszołomionego pan A. spycha

jakieś ciało do basenu. Ten sąsiad zadzwonił po policję.

Idea, że ktoś mógł zabić żonę, którą kochał, podczas epizodu

lunatykowania, wydaje się niepojęta. A  jednak, zważywszy na brak

motywu, niepodjęcie próby ukrycia ciała lub narzędzia zbrodni oraz

fakt, że mężczyzna nie pamiętał całego zdarzenia, ława przysięgłych

orzekła, że działania pana A. były mimowolne i  odbyły się poza jego

świadomością. Jeśli to prawda, to co tak naprawdę działo się w umyśle

i mózgu pana A. w trakcie tych okropnych scen?

Lunatykowanie (somnambulizm) jest jedną z  parasomnii –

  dziwnych zachowań występujących podczas snu. W  toku wieloletnich

badań badacze – na podstawie analizy zarejestrowanych fal mózgowych

–  wyróżnili dwie główne fazy snu: fazę, w  której występują szybkie

ruchy gałek ocznych (REM –  rapid eye movement), oraz fazę

charakteryzującą się wolnymi ruchami gałek ocznych (NREM –  non-

rapid eye movement). Lunatykowanie zwykle występuje po nagłym

i niecałkowitym spontanicznym wybudzeniu ze snu NREM, który trwa

przez pierwszych kilka godzin po zaśnięciu. Śpiący staje się wówczas

zdolny do samodzielnego poruszania się. Próby obudzenia osoby

lunatykującej są daremne, a  nawet mogą być niebezpieczne, ponieważ

taka osoba może się poczuć zagrożona przez kontakt fizyczny

i  zareagować agresywnie. W  normalnych okolicznościach sen NREM

przechodzi w sen REM, podczas którego obniża się napięcie mięśniowe,

co uniemożliwia aktywność ruchową. Większość epizodów

somnambulizmu jest stosunkowo nieszkodliwa. Zazwyczaj wszystko

kończy się zabawną historią opowiadaną przez świadka, często

rozpoczynającą się od słów: „Nie uwierzysz, co wyprawiałeś zeszłej

nocy!” Jeśli jesteś lunatykiem, to rzeczywiście w  to nie wierzysz,

ponieważ w twojej pamięci nie ma ani śladu twoich nocnych wybryków.


Większość zachowań związanych z  parasomnią wydaje się

irracjonalna i  wzbudza zaniepokojenie obserwatorów. Osoba

lunatykująca może zacząć odkurzać mieszkanie albo zamiatać

podwórko w  środku nocy, nie zważając na otoczenie. W  rzadkich

wypadkach lunatycy podejmują bardzo złożone i  potencjalnie

niebezpieczne czynności, takie jak koszenie trawnika, naprawa

motocykla albo prowadzenie samochodu. Złożoność takich zachowań

sprawia, iż bardzo trudno uwierzyć, że osoba lunatykująca jest

nieświadoma tego, co robi. Takie złożone zachowania sporadycznie

przeradzają się w  przemoc. Z  prawnego punktu widzenia decydujące

znaczenie ma to, czy dane zachowanie było umyślne, co podsyca

dyskusję na temat tego, czy osoby lunatykujące są świadome podczas

swych somnambulicznych działań.

[13]
Jaśniejszy obraz tego, co się dzieje w  mózgu w  fazie NREM ,

[14] [15]
w  trakcie lunatykowania i  podczas wybudzeń z  dezorientacją,

otrzymano dzięki technikom neuroobrazowania i  EEG. Wydaje się, że

mózg jest wówczas na wpół obudzony, na wpół śpiący: móżdżek i  pień

mózgu są aktywne, podczas gdy kresomózgowie (cerebrum) i  kora

mózgowa przejawiają minimalną aktywność. Szlaki neuronalne

odpowiedzialne za kontrolę złożonych zachowań ruchowych

i  generowanie emocji nadal działają, podczas gdy te biegnące do płata

czołowego, którego zadania obejmują planowanie, uwagę, formułowanie

sądów, rozpoznawanie mimicznych wyrazów emocji i  regulację

emocjonalną, są wyłączone. Lunatycy nie pamiętają swoich eskapad,

ponieważ części kory uczestniczące w  przetwarzaniu bodźców

sensorycznych i  tworzeniu nowych wspomnień ucinają sobie drzemkę,

chwilowo wyłączone i  odłączone, nie dostarczają więc żadnych

informacji do strumienia świadomości.

Prawdopodobnie pan A. doświadczał świadomie pewnych aspektów

całego epizodu, ale zupełnie inaczej, niż doświadczałoby tej sytuacji


jego rozbudzone Ja. Zważywszy na warstwową architekturę mózgu,

możemy przypuszczać, że niektóre współtworzące świadomość moduły

niższego szczebla były aktywne, co pozwoliło mu sprawnie się

przemieszczać, koordynować wykonywane ruchy i  odczuwać emocje,

podczas gdy inne –  moduły wyższego szczebla –  pozostały uśpione, co

sprawiło, że mężczyzna nie mógł zrozumieć sytuacji, rozpoznać swojej

żony, usłyszeć jej krzyków ani zapamiętać całego zdarzenia. W  całym

systemie pewne obszary były odizolowane i wyłączone, a tylko niektóre

moduły wnosiły swój wkład w  zachowanie pana A. i  jego świadome

doświadczenie. Niestety jego kora mózgowa była uśpiona. Szczelnie

zamknięta, nie wnosiła niczego. Kiedy pan A. został wyrwany ze snu,

owe nieaktywne moduły przebudziły się i  zdały sobie sprawę

z  koszmarnej rzeczywistości. Podczas tego potwornego zdarzenia

rozbudzone obszary jego nieuszkodzonego mózgu, uwolnione od

hamującego działania modułów kontroli poznawczej, zlokalizowanych

w  uśpionej korze mózgowej, wygenerowały zachowanie, które bardzo

się różniło od zwyczajnego zachowania tego na co dzień empatycznego,

łagodnego człowieka. Fakt, że owe działania były całkowicie sprzeczne

z  cechami osobowości pana A., skłonił przysięgłych do wydania

werdyktu „niewinny”.

Nieruchomy, lecz świadomy


Jednym z  najbardziej koszmarnych uszkodzeń mózgu jest zniszczenie

brzusznej części mostu w pniu mózgu. Utrata tych neuronów, łączących

móżdżek z  korą mózgową, sprawia, że dana osoba nie może się

poruszać, ale pozostaje w  pełni świadoma. To właśnie przytrafiło się

Jeanowi-Dominique’owi Bauby’emu, redaktorowi naczelnemu

miesięcznika „Elle”, kiedy w  wieku czterdziestu trzech lat doznał

udaru mózgu. Gdy po kilku tygodniach wybudził się ze śpiączki,


w  pełni świadomy, bez żadnych ubytków poznawczych, nie mógł

[16]
poruszać żadną częścią ciała z  wyjątkiem lewej powieki . Oznaczało

to, że nie mógł też mówić, a  co za tym idzie –  nie mógł nikomu

powiedzieć, że jest świadomy. Musiał za-czekać, aż ktoś zauważy, że

pacjent wydaje się celowo mrugać powieką. Ten stan określa się

mianem zespołu zamknięcia. Chorzy, którzy mają szczęście –  jeśli

można to tak nazwać –  mogą umyślnie mrugać albo wodzić oczami,

chociaż są to ruchy niewielkie i męczące. W ten sposób komunikują się

z  otoczeniem. Ci, którzy nie mają tyle szczęścia, nie mogą robić nawet

tego.

W wielu wypadkach upływają miesiące albo lata, zanim osoba

opiekują-ca się chorym odkrywa, że jest on przytomny i świadomy – że

znosi zabiegi medyczne bez znieczulenia i  słyszy rozmowy dotyczące

jego losu, nie mogąc w nich uczestniczyć. Kiedy zdano sobie sprawę, że

Bauby jest świadomy, wyko-rzystał on swoją zdolność do mrugania

powieką. Napisał książkę, w  której opisał swoje świadome przeżycia

z  okresu, gdy leżał sparaliżowany. Leżąc nie-ruchomo, formułował

i zapamiętywał zdania. Następnie jego sekretarka przez cztery godziny

dziennie cierpliwie siedziała przy łóżku chorego i recytowała francuski

alfabet –  uporządkowany według częstości występowania

poszczególnych liter –  a Bauby mrugał za każdym razem, gdy usłyszał

właściwą literę. Dwieście tysięcy mrugnięć później powstała książka

Skafander i  motyl. W  prologu, wypowiadając się w  trzeciej osobie,

autor opisuje stan, w  którym się znalazł po odzyskaniu przytomności:

„Pacjent (…) jest sparaliżowany od stóp do głów, zamknięty wewnątrz

siebie samego, z  nietkniętym umysłem i  mrugającą lewą powieką jako

[17]
jedynym środkiem komunikacji ze światem zewnę-trznym” . Opisuje

uczucie sztywności i zdolność do odczuwania bólu, a jednak dalej pisze:

Skafander mniej ugniata i duch może ulecieć jak motyl. Tyle jest do zrobienia. Można

podróżować w  przestrzeni lub w  czasie, w  stronę Ziemi Ognistej albo na dwór króla
Midasa.

Można złożyć ukochanej wizytę, przytulić się i  pogłaskać jeszcze uśpioną twarz.

Można budować zamki w  Hiszpanii, wyruszyć po Złote Runo, odkrywać Atlantydę,

[18]
snuć wspomnienia z dzieciństwa lub marzenia dorosłych .

Bauby jest przykładem niewyczerpanych ludzkich zdolności

przystosowawczych. De facto nadzwyczajna zdolność do adaptacji

wydaje się rozpowszechniona w  tej grupie pacjentów, o  czym świadczy

fakt, że 75% nigdy nie miało myśli samobójczych albo miewa je bardzo

[19]
rzadko . Pomimo tak druzgocącego uszkodzenia mózgu świadomość

nadal trwa, wraz z  całą paletą uczuć dotyczących zarówno obecnych,

jak i wcześniejszych doświadczeń.

Kiedy moduły i  warstwy ulegają zniszczeniu lub działają

nieprawidłowo, mogą się pojawić dziwaczne zachowania. Od rozległych

uszkodzeń i  zaniku kory mózgowej w  chorobie Alzheimera po

konkretne zaburzenia związane z  uszkodzeniem pnia mózgu zaczyna

się wyłaniać pewien obraz: trzeba dogłębnie zrozumieć zarówno to, co

się dzieje w  korze mózgowej, jak i  procesy przebiegające w  obszarach

podkorowych, aby pojąć nieustannie się zmieniające momenty

świadomego doświadczenia. Czy to możliwe, że wszystkie te ulotne

świadome myśli pojawiają się na fundamencie zbudowanym z  kilku

stanów emocjonalnych, które nadają owym myślom subiektywne

zabarwienie? Czy to możliwe, że wszystko to doskonale pasuje do

warstwowej architektury mózgu, w  której w  ewolucyjnie starszy układ

mózgowy –  nadal przygotowany do wysyłania organizmowi sygnałów

„uciekaj albo walcz”, „szukaj partnera” bądź „jedz” –  działa poza

bezpośrednią kontrolą warstw poznawczych? Czy model architektury

warstwowej dostarczy nam środków niezbędnych do zrozumienia, jak

jesteśmy zorganizowani, aby świadomie doświadczać świata?


Podkorowy silnik odczuć emocjonalnych
Od dawna panuje przekonanie, że kora mózgowa odpowiada za

wszystkie formy świadomości i  że bez niej bylibyśmy nie tylko

nieświadomi, lecz także niezdolni do świadomości na jakimkolwiek

poziomie. Innymi słowy, bylibyśmy pozbawionymi świadomości istotami

[20]
w  stanie wegetatywnym . Kora może być jednak tylko zbiorem

rozszerzeń (aplikacji) wzmacniających świadome przeżycia. Oczywiście

wyposaża nas w  kilka dynamicznych zestawów umiejętności

mentalnych –  takich, które mogą się zmieniać i  są nieprzerwanie

aktywne –  ale może nie odgrywać decydującej roli w  generowaniu

naszego naturalnego, subiektywnego doświadczenia. Pod pokrywą kory

znajdują się sieci podkorowe, które są nieodzowne do utrzymania

świadomości. Uszkodzenie owych struktur podkorowych może

skutkować śpiączką, w której człowiek (lub zwierzę) przestaje reagować

[21]
na bodźce i  wydaje się nieprzytomny (nieświadomy) . Nawet

całkowicie sprawna kora mózgowa nie uchroni nas od zniszczeń

spowodowanych przez niektóre rodzaje uszkodzeń podkorowych.

Wytyczenie granicy między stanem świadomym a  nieświadomym do

tej pory było zadaniem w  dużej mierze semantycznym. Termin

„świadomość” jest pozbawiony obiektywizmu, ponieważ trudno

zdefiniować subiektywne odczucie egzystencji. To główny powód,

z  jakiego definicyjne cechy świadomości są przedmiotem gorących

dyskusji. Kiedy jednak przekraczamy próg szpitala, rozpoznanie

stanów świadomych staje się sprawą najwyższej wagi. Do tej chwili to

już nie tylko problem semantyczny, lecz także kwestia moralna.

Niepodawanie leków przeciwbólowych pacjentowi, który wydaje się

nieprzytomny, choć tak naprawdę jest świadomy, oznacza skazanie go

na męczarnie. Pomimo niejednoznaczności tego terminu istnieją

przekonujące dowody empiryczne przemawiające za tym, że kora


mózgowa nie jest niezbędna do wywołania pewnych form świadomości.

Systemy podkorowe –  jak się wydaje –  są wystarczająco kompetentne,

aby wytworzyć w nas subiektywne poczucie istnienia.

Takie dowody napływają z  klinik pediatrycznych. Niektóre dzieci

przychodzą na świat z  anencefalią (bezmózgowiem) –  całkowitym

brakiem kory mózgowej spowodowanym przez czynniki genetyczne lub

rozwojowe –  bądź hydranencefalią –  wadą polegającą na tym, że

u  płodu rozwija się minimalna ilość kory, często na skutek urazu lub

choroby w  okresie płodowym. Neuronaukowiec Björn Merker

zainteresował się strukturami podkorowymi już na początku swojej

kariery naukowej. Sfrustrowany ograniczonym zasobem informacji

i niewielką liczbą studiów przypadków dzieci z hydranencefalią Merker

dołączył do międzynarodowej grupy internetowej zrzeszającej rodziców

i  opiekunów tych dzieci, aby dowiedzieć się więcej o  nich samych i  ich

chorobie. Poznał osobiście kilka rodzin i  spędził z  nimi tydzień

w Disneylandzie. W ciągu tego tygodnia zaobserwował, że dzieci „są nie

tylko przytomne –  w stanie czuwania –  lecz także przejawiają

responsywność na otoczenie w  postaci reakcji emocjonalnych lub

orientacyjnych na zdarzenia środowiskowe. (…) Okazują zadowolenie

poprzez uśmiech lub głośny śmiech, awersję zaś przez «marudzenie»,

wyginanie się w  łuk oraz płacz (o różnym natężeniu), a  ich twarze

ożywiają się, wyrażając te stany emocjonalne. Znana dziecku osoba

dorosła może wykorzystać tę responsywność do budowania sekwencji

zabaw, w  których dziecko w  przewidywalny sposób przechodzi od

uśmiechu, przez chichotanie i  głośny śmiech, po wyrazy wielkiego

[22]
radosnego podniecenia” . Pomimo braku kory mózgowej i związanych

z nią możliwości poznawczych te dzieci odczuwały emocje, doświadczały

subiektywnych przeżyć i  były świadome. Nikt omyłkowo nie wziąłby

żadnego z  nich za dziecko mające korę mózgową, ale te dzieci


z  pewnością są świadome, a  ich reakcje emocjonalne na bodźce są

adekwatne.

Z biegiem lat Merker doszedł do wniosku, że to śródmózgowie

odpowiada za podstawową zdolność do świadomego subiektywnego

doświadczenia. Kora, rzecz jasna, rozwija treść tego doświadczenia, ale

źródła samej zdolności tkwią w  strukturach śródmózgowia. Ten fakt

pociąga za sobą oczywiste implikacje etyczne. Merker zwraca uwagę, że

rodzice często spotykają się ze zdziwieniem lekarzy i  pielęgniarek,

kiedy proszą o środki przeciwbólowe dla tych dzieci przed inwazyjnymi

zabiegami.

Główny argument przeciwko tezie, że dzieci z  takimi wadami

doświadcza-ją świata poprzez struktury podkorowe, opiera się na

fakcie, że u  prawie wszystkich jakaś część kory mózgowej ocalała.

Mimo że owe, nader ograniczone, nietknięte obszary korowe (których

sprawność budzi wątpliwości) bardzo się różnią u  poszczególnych

dzieci, zachowanie wszystkich małych pacjentów jest dość podobne,

a  przy tym nie odpowiada symetrycznie temu, które tkanki są obecne

w  mózgu dziecka. I  tak, na przykład, chociaż kora słuchowa rzadko

zostaje zachowana, większość tych dzieci słyszy, podczas gdy wzrok na

ogół jest upośledzony, mimo że pewna część kory wzrokowej często jest

obecna w mózgu dziecka.

Teoria Merkera znajduje potwierdzenie w  wynikach badań życia

emocjonalnego zwierząt. Amerykański neuronaukowiec estońskiego

pochodzenia, Jaak Panksepp, przez pół wieku badał emocje u zwierząt.

Wyróżnił dwa rodzaje świadomości: ewolucyjnie starszą świadomość

afektywną (świadomość prostych odczuć emocjonalnych) i  stosunkowo

nową świadomość poznawczą (która pozwala nam myśleć o  tych

odczuciach). Podczas jednego z  wykładów opowiedział o  praktycznym

zadaniu laboratoryjnym, z  którym musieli się zmierzyć jego studenci

na zakończenie kursu. Każdy student dostawał do badania dwa


szczury. Jeden szczur był pozbawiony kory; miał tylko struktury

podkorowe. Drugiego poddano pozorowanej operacji, czyli wykonano

zabieg, ale tak naprawdę nie usunięto nawet kawałka jego mózgu.

Studenci mieli badać swoje pary szczurów przez dwie godziny, dając im

do wykonania rozmaite zadania, o  których uczyli się na zajęciach. Po

upływie wyznaczonego czasu musieli zgadnąć, który szczur stracił całą

korę mózgową, i  uzasadnić swój wybór. Dwanaście spośród szesnastu

osób uznało szczury, którym usunięto korę mózgową, za zwierzęta

normalne neurologicznie!

Tym, co studenci obserwowali u badanych szczurów, były zachowania

motywowane, takie jak poszukiwanie jedzenia, kojarzenie się w  pary,

walka lub ucieczka w  reakcji na atak oraz mocowanie się z  innymi

[23]
szczurami dla zabawy . W  oczach studentów obserwowane

zachowania były wystarczająco szczurze, aby uznać te zwierzęta za

normalne. Jeśli kora jest jedyną częścią mózgu odpowiedzialną za

świadomość, to po usunięciu kory szczury nie powinny reagować na

inne figlarne szczury, ani też na nic innego. A  jednak usunięcie kory

mózgowej nie pozbawiło ich podstawowych kompetencji i  reakcji, co

oznacza, że mechanizmy umiejscowione w  górnej części pnia mózgu

wystarczyły do utrzymania wielu zachowań tych zwierząt, nie

wyłączając omówionych wcześniej odczuć emocjonalnych

i motywacyjnych.

Uczucia powiązane ze świadomością


Badania szczurów, którym usunięto korę mózgową, oraz dzieci

cierpiących na hydranencelofalię sugerują, że struktury podkorowe

potrafią przekształcić surowe dane neuronalne na wejściu w  coś

przypominającego podstawowe odczucia emocjonalne. Obszary

podkorowe mają własną dynamikę, pojawiły się wcześnie w  toku


ewolucji i  są homologiczne pod względem anatomicznym,

[24]
neurochemicznym i  funkcjonalnym u  wszystkich badanych ssaków .

Panksepp doszedł do wniosku, że obszary mózgu odpowiedzialne za

wytwarzanie emocji są wspólne dla nas, ludzi, i  dla innych zwierząt

oraz że owe obszary były faworyzowane przez dobór naturalny ze

względu na ich zdolność do zwiększania szans na przetrwanie. Jak to

się dzieje? Otóż emocje pełnią funkcję wewnętrznego systemu nagród

i  kar, który informuje zwierzę, jak dobrze sobie ono radzi w  walce

o  przetrwanie. Pozytywne odczucia emocjonalne są dla zwierzęcia

zachętą, podczas gdy uczucia negatywne, w  zależności od ich siły,

wskazują na zagrożenia różnego stopnia –  od sytuacji niepewnej po

prawdziwą katastrofę. Te wewnętrzne odczucia pozwalają więc ocenić

środowisko zewnętrzne i  są potężną siłą kierującą zachowaniem

pomimo ich względnej prostoty na poziomie świadomości.

Badacze z  Caltech, David Anderson i  Ralph Adolphs, zgadzają się

[25]
z  Pankseppem . Uważają, że emocja jest nieświadomym stanem

ośrodkowego układu nerwowego, wywołanym przez określony bodziec –

  zewnętrzny, taki jak drapieżnik, albo wewnętrzny, taki jak

wspomnienie drapieżnika. Kiedy obwód neuronalny kodujący ten stan

zostaje zaktywizowany, uruchamia kilka równoległych procesów, które

wytwarzają reakcję behawioralną, uczucia, zmiany poznawcze i reakcje

somatyczne, takie jak przyśpieszone bicie serca i  suchość w  ustach.

Aby odczuwać, nie potrzebujemy procesów poznawczych ani ich

sprawozdania o naszych odczuciach.

Panskepp wymienił siedem pierwotnych odczuć emocjonalnych

i  motywacyjnych, które wydają się wspólne dla świadomości zwierząt

i  ludzi, zarówno na poziomie zachowań, jak i  na poziomie

neuronalnym. Są to poszukiwanie, strach, wściekłość, żądza,

troskliwość, żal i  przyjemność płynąca z  zabawy. Te uczucia, które

w  dużej mierze można przypisać funkcjom podkorowego układu


limbicznego, skłaniają zwierzęta do zachowań sprzyjających

znajdowaniu pożywienia, schronienia i  partnerów; unikaniu szkód

i urazów; zapewnianiu ochrony sobie i osobnikom spokrewnionym; oraz

budowaniu relacji z  bliskimi. Jeśli pojmujemy świadomość jako

subiektywne odczucie dotyczące rzeczywistości, to musimy uznać

emocje za podstawowy element świadomości.

Panksepp doszedł do wniosku, że odczucia emocjonalne były

narzędziem tak skutecznym i  ważnym dla przetrwania, iż zostały

zakodowane w  genomie (w podstawowej formie) i  zachowały się

u  wszystkich ssaków, a  dopiero później w  toku ewolucji zostały

pozłocone warstwą mechanizmów uczenia się i  procesów poznawczych

wyższego rzędu, zlokalizowanych w  dodanym do mózgu rozszerzeniu –

[26]
 korze mózgowej . Jeśli te odczucia istniały jeszcze przed powstaniem

tkanek korowych, to szczególny system połączeń w  sieciach

podkorowych musi zawierać w  sobie wszystko, co jest potrzebne do

generowania uczuć towarzyszących świadomemu doświadczeniu. Być

może dzięki wnikliwemu poznaniu warstwowego systemu sieci

podkorowych zdołamy lepiej zrozumieć najbardziej pierwotną formę

świadomości. Odczucia emocjonalne i  motywacyjne oraz zachowania,

jakie wywołują one u  zwierząt, mogą nas dużo nauczyć na temat tego,

w  jaki sposób systemy modułowe sprzyjają powstawaniu świadomości,

a  może również wskazać te aspekty ludzkiej świadomości, które są

[27]
charakterystyczne wyłącznie dla naszego gatunku .

Joseph LeDoux z  Uniwersytetu Nowojorskiego, który skrupulatnie

bada coś, co uprzednio nazywał „obwodami strachu”, a  co dzisiaj

określa mianem „obwodów zagrożenia”, jest innego zdania. Wysuwa

dwa główne zastrzeżenia. Po pierwsze, wciąż nie istnieje uzgodniona

definicja emocji; po drugie, niektórzy kwestionują pogląd, że istnieją

uniwersalne emocje podstawowe. Jak więc możemy z  przekonaniem

odróżnić emocje od innych stanów psychicznych albo porównać emocje


między gatunkami? LeDoux pisze: „Najkrótsza odpowiedź brzmi: tylko

udajemy. Wiedza introspekcyjna pochodząca z  osobistych

subiektywnych doświadczeń podpowiada nam, że niektóre stany

mentalne są skojarzone z  określonym «uczuciem», a  inne nie”. To

skłania LeDoux do powątpiewania w  słuszność twierdzeń, że podobne

[28]
zachowania u  zwierząt wskazują na podobieństwo doświadczeń .

Z  jego perspektywy kora mózgowa jest nieodzowna do powstania

odczuć afektywnych. LeDoux uważa, że obwody podkorowe generują

zachowania emocjonalne i  reakcje fizjologiczne, ale tylko pośrednio

uczestniczą w  wytwarzaniu subiektywnych odczuć. Jego zdaniem

powstanie subiektywnych odczuć wymaga dodatkowego kroku

poznawczego, który jest zadaniem wyższych obwodów korowych,

odpowiedzialnych za odczytywanie i  interpretowanie zachowań

emocjonalnych. LeDoux nie jest odosobniony w  swoim poglądzie.

Większość badaczy emocji uniosłaby kciuk na znak poparcia dla

podobnych teorii odczytywania poznawczego. LeDoux sugeruje, że

świadome uczucia są procesem dwustopniowym i  powstają wtedy, gdy

dana reakcja fizjologiczna zostaje odczytana przez części kory

przedczołowej, które wspierają pamięć roboczą.

Zaciekły spór o  emocje trwa w  najlepsze, a  my możemy przyglądać

mu się z boku, ponieważ warstwowa architektura mózgu pasuje do obu

scenariuszy. Istotne jest to, że zarówno struktury podkorowe, jak i kora

mózgowa wnoszą swój wkład w  świadome doświadczenie. Z  jednej

perspektywy dzieci z  hydranencefalią mają odczucia emocjonalne,

które wydają się takie same, jak u  dzieci z  nienaruszoną korą

mózgową. Ponieważ zachowują się podobnie, jesteśmy skłonni

przypisać im pełnię świadomego doświadczenia i  me-

tasamoświadomości (świadomości, że są świadome). Czy jednak

naprawdę są samoświadome? Bez kory mózgowej i  jej nieodzownych

funkcji poznawczych te dzieci nie mogą wiedzieć, że są samoświadome.


Abyśmy mogli w  pełni zdawać sobie sprawę ze swojego świadomego

doświadczenia, potrzebujemy obu sprawnie działających warstw.

Świadomość ulepszona przez korę


Czy kora mózgowa jest przereklamowana, skoro obwody podkorowe

zawierają niezbędne składniki świadomości? Mais non! Rzecz w  tym,

że nie powinniśmy bagatelizować obszarów podkorowych. Dzięki

zrozumieniu wkładu przetwarzania podkorowego w świadomość łatwiej

pojmiemy, dlaczego tak trudno pozbyć się tego nieprzerwanego

odczuwania uczuć. Kora mózgowa bez wątpienia dostarcza treści

świadomości, zważywszy na współwystępowanie uszkodzeń tej części

mózgu z określonymi zmianami zachowania. Na czym dokładnie polega

rola kory mózgowej w wytwarzaniu świadomości? Kora zwiększa liczbę

sposobów, w  jakie możemy doświadczać świata, co zapewnia ogromną

rozmaitość możliwych świadomych doświadczeń i reakcji.

Szczególny rodzaj kory, który występuje u danego gatunku, zapewnia

mu wyjątkową, specyficzną dla niego treść świadomego doświadczenia.

U  ludzi częścią owej treści jest język. Tylko my, ludzie, wymyśliliśmy

sprytne małe symbole, które –  w określonej kombinacji –  mogą

przekazać innej osobie konkretną reprezentację umysłową jakiejś

abstrakcyjnej idei. Jesteśmy nie tylko zdolni do nauczenia się języka,

[29]
lecz także biologicznie przygotowani do jego przyswojenia . Jak

pamiętasz z  rozdziału czwartego, my, ludzie, mamy w  mózgu całe

obszary zajmujące się różnymi aspektami uczenia się, rozumienia

i wytwarzania języka. Podczas kolejnej wizyty w klinice neurologicznej

przekonamy się, że uszkodzenie jednego obszaru może pozbawić nas

zdolności do rozumienia słów przy zachowaniu zdolności do

generowania poprawnych gramatycznie, nonsensownych zdań

o  poprawnej intonacji i  prozodii. Uszkodzenia w  innym obszarze


sprawią, że nie przestaniemy rozumieć zdań, lecz będziemy niezdolni

do ich budowania. Zmiany w  jeszcze innym miejscu uczynią cię

niezdolnym do wypowiadania rzeczowników, mimo że nadal będziesz je

rozpoznawał i  rozumiał. Każde takie uszkodzenie będzie skutkowało

innym świadomym doświadczeniem, ale żadne z  nich nie zniszczy

samej świadomości.

Język wzbogaca nasze świadome doświadczenie, ale bez niego nadal

bylibyśmy świadomi, choć duża część naszych doświadczeń byłaby

wyraźnie inna niż teraz. Rozważmy życie francuskiego dzikiego

dziecka, Victora z Aveyron, uwiecznionego w filmie François Truffauta

z  1970 roku, zatytułowanego Dzikie dziecko. Odnaleziony w  wieku

dwunastu lat Victor spędził dzieciństwo sam w puszczy. Przez cały ten

czas nie miał kontaktu z  językiem i  nie nauczył się mówić. Bez

wątpienia był świadomy i  miał świadome doświadczenia, ale ich treść

była inna, niż gdyby Victor umiał mówić. Kiedy funkcja jednego

modułu z jakiegoś powodu się nie rozwija, pozostałe moduły wkraczają

do akcji, aby zapewnić nam inne doświadczenia.

Nie ustają dyskusje dotyczące tego, czy główną siłą napędową

[30]
świadomości są struktury podkorowe , czy też najważniejszą rolę

[31]
w  jej powstawaniu odgrywa kora mózgowa . Jeśli się jednak

zastanowić nad sposobem funkcjonowania mózgu, to wydaje się

prawdopodobne, że nie istnieje ściśle określona hierarchia modułów,

która pozwalałaby świadomości przejawiać się w  ten czy inny sposób.

Poszczególne moduły działają w  dużym stopniu niezależnie od siebie,

a  treść naszego świadomego doświadczenia może nie przypominać

dobrze zorganizowanej kolejki procesów przetwarzania modułowego,

lecz być wynikiem swoistej rywalizacji: w  danym momencie niektóre

procesy przetwarzania opanowują pejzaż twojej świadomości, a  inne

nie. W  tym ujęciu zarówno moduły podkorowe, jak i  korowe mogą

generować świadome doświadczenie, które wcale nie musi wymagać


interwencji „niższych” lub „wyższych” systemów poznawczych. Wielka

liczba modułów wytwarzających świadomość po prostu dywersyfikuje

twoje świadome portfolio. Aby lepiej zilustrować tę myśl, spróbujmy

usunąć świadomość przy użyciu że-laznego pręta.

Jeden z  najbardziej fascynujących i  najsłynniejszych urazów mózgu

w  dziejach ludzkości powstał na skutek eksplozji podczas budowy linii

kolejowej. W wyniku wybuchu rozgrzany do czerwoności metalowy pręt

przebił czaszkę i  prawy płat czołowy robotnika kolejowego Phineasa

Gage’a. Co zaskakujące, Phineas, jak się wydawało, ani na chwilę nie

stracił przytomności! Osobiście wolałbym przyjąć słynny cios widmo,

którym Muhammad Ali znokautował Sonny’ego Listona, niż dać sobie

przedziurawić czaszkę metalowym prętem, najwyraźniej jednak cios

Alego bardziej skutecznie wyłączył świadomość (przynajmniej

chwilowo). Ale podczas gdy Sonny przyszedł do siebie po ciosie Alego,

u  Phineasa Gage’a doszło do natychmiastowego, trwałego uszkodzenia

mózgu. Pomimo utraty połowy płata czołowego Phineas mógł jednak

funkcjonować podobnie, jak przed wypadkiem. Tyle że jego sposób

bycia diametralnie się zmienił. Phineas, dawniej odpowiedzialny

i  uprzejmy, przeistoczył się w  człowieka wulgarnego i  nieokazującego

[32]
innym szacunku . Stał się mniej uważny i  troskliwy w  stosunku do

innych, ale nie był ani odrobinę mniej świadomy. Jego zakres

możliwych świadomych doświadczeń trochę się zawęził, co wiązało się

z  faktem, że jego dawne życzliwe nastawienie do współpracowników

zastąpiły doświadczenia nacechowane nadmiernym pobudzeniem

i agresją. Phineas Gage cierpiał na coś, co dzisiaj nazywamy zespołem

czołowym –  zaburzenie związane z  utratą wszystkich funkcji lewego

płata czołowego. Ludzie, u  których doszło do uszkodzenia płata

[33]
czołowego, na ogół mają problemy z  regulacją emocjonalną . Źródeł

owej utraty kontroli nad emocjami można upatrywać w  fakcie, że

moduły podkorowe częściej wygrywają w  rywa-lizacji o  prymat


w  kształtowaniu świadomego doświadczenia za sprawą słabszej

konkurencji ze strony regulujących tkanek płata czołowego.

Niezależnie od podstawowej przyczyny utraty kontroli emocjonalnej

u  pacjentów z  zespołem płata czołowego, jeden fakt pozostaje

niezmienny we wszystkich przypadkach: osoba cierpiąca na to

zaburzenie nadal jest świadoma.

Można wskazać ogromną liczbę przypadków uszkodzeń mózgu,

z  których wyłania się podobny obraz: zniszczenie lub dysfunkcja

w  obszarze X powoduje zmianę zachowania Y, ale świadomość prawie

zawsze pozostaje nienaruszona. Mózg modułowy czyni świadomość

nadzwyczaj odporną za sprawą wielości dróg, które mogą prowadzić do

świadomej chwili. Tylko mózg zorganizowany w  taki sposób może

wyjaśnić te fakty obserwowane na gruncie neurologii. Utrata modułów

powoduje ubytek określonych funkcji, ale umysł nadal wytwarza

nieprzerwany strumień świadomości, tak jakby nic się nie zmieniło.

Jedynym, co się zmienia, jest treść owego strumienia. Ten fakt nie

tylko dowodzi, że mózg działa modułowo, lecz także sugeruje, że każdy

z  niezależnych modułów może generować wyjątkową, niepowtarzalną

formę świadomości.

Wszechobecność świadomości
Podczas odwiedzin w  klinice neurologicznej dowiedzieliśmy się, że

ciężkie uszkodzenia mózgu, umiejscowione w  różnych jego częściach,

nie wyłączają świadomości. Pewne treści świadomego doświadczenia

mogą zostać utracone, ale sama świadomość pozostaje. Można z  tego

wnioskować, że nie istnieje jeden centralny obwód korowy

wytwarzający świadomość. Może ją generować każda część kory przy

wsparciu przetwarzania podkorowego, a  przetwarzanie podkorowe

może samodzielnie wytwarzać ograniczony rodzaj świadomych


doświadczeń. Wydaje się więc, że to przetwarzanie w  lokalnych

obwodach modułowych dostarcza treści świadomego doświadczenia.

Chociaż systemy modułowe są w  dużej mierze niezależne,

komunikacja między modułami pomaga w  koordynowaniu przepływu

świadomości. Dzięki tej komunikacji każdy moduł jest informowany na

bieżąco o  najnowszych zdarzeniach osobistych. Podobnie jak

telewizyjny serwis informacyjny powiadamia obywateli o  tym, co się

dzieje na świecie, połączenia między modułami koordynują przepływ

informacji, tak aby wszystkie moduły mogły zgodnie działać.

Zauważamy to dopiero wtedy, gdy komunikacja jest spóźniona

i  niewystarczająca. Szelest za drzwiami w  środku nocy może

uruchomić podkorową reakcję „uciekaj albo walcz”. Chwytasz telefon

i  dzwonisz na policję, aby w  następnej chwili –  po włączeniu się

procesów poznawczych –  zdać sobie sprawę, że to tylko szop buszujący

(który to już raz?) w  twoim śmietniku. Możesz podziękować swojemu

układowi limbicznemu za to, że błyskawicznie przygotował cię na

potencjalnie niebezpieczną sytuację, tyle tylko, że tym razem nie ma

żadnego niebezpieczeństwa, lecz jedynie bałagan, który trzeba będzie

posprzątać następnego ranka.

Nieprzerwane wzajemne oddziaływania między procesami

poznawczymi a  uczuciami, czyli między modułami zlokalizowanymi

w  korze mózgowej a  modułami podkorowymi, generują to, co

nazywamy świadomością. Oczywiście fala silnych emocji wywołuje

w  nas zupełnie inne odczucia niż abstrakcyjna myśl, ale każda

świadoma forma jest doświadczeniem, które zapewnia nam

niepowtarzalną percepcję rzeczywistości. Wzorzec, według którego

wszystkie te formy pojawiają się i  znikają z  pola świadomości, buduje

naszą osobistą historię życia. Ogromną rozmaitość świadomych form

i  wszechobecność świadomości w  mózgu najlepiej wyjaśnia modułowa

architektura mózgu. Największym wyzwaniem wydaje się zrozumienie,


w  jaki sposób setki, a  nawet tysiące modułów osadzonych

w  architekturze warstwowej –  przy czym każda warstwa może

wytworzyć pewną formę świadomości –  w każdym momencie

zapewniają nam pojedyncze, jednolite doświadczenie świata, które

z  upływem czasu wydaje się płynnie przechodzić w  następne

doświadczenie. Najważniejszą ideą –  jak się przekonamy w  rozdziale

dziewiątym –  jest czas. To niekończąca się sekwencja, w  której

poszczególne moduły kolejno otrzymują swoje pięć minut.

Jak to działa? Wkrótce się tym zajmiemy, najpierw jednak musimy

się uporać z  oczywistym problemem, o  którym niewiele się mówi.

Niezależnie od tego, jaki model wybierzemy, aby wyjaśnić, jak mózg

przekształca aktywność neuronalną w  zdarzenia mentalne, musimy

spróbować zrozumieć przepaść między tymi dwoma zjawiskami –  z

których jedno jest obiektywne (neuronalne), a  drugie subiektywne

(mentalne) –  i czy przerzucenie mostu nad tą przepaścią w  ogóle jest

możliwe. Bez względu na to, czy twoim zdaniem u  podstaw tego, co

nazywamy stanami świadomymi, leżą moduły lokalne, czy też

centralne obwody mózgowe, musisz się zmierzyć z  tą rozbieżnością.

Niektórzy mają poczucie, że to niewykonalne.

Aby ugryźć ten zasadniczy problem, będziemy musieli przyjrzeć się

temu, nad czym matematycy i  fizycy zastanawiają się od 150 lat.

Przecież to oni wymyślili chyba najważniejsze idee w dziejach ludzkości

–  teorię względności i  teorię kwantową. W  swoich rozważaniach

zbliżyli się do granicy ludzkich możliwości i  borykali się

z  fenomenalnymi niewiadomymi. Owoce ich dociekań zostały niemal

całkowicie zignorowane przez biologów, psychologów i neuronaukowców

i uznane za nieistotne dla problemu świadomości. Myślę, że wyniki ich

rozważań mogą się okazać pomocne, ponieważ tym, co pozostało

niedocenione w  dorobku matematyki i  fizyki, jest idea

komplementarności, zgodnie z  którą jedno zjawisko może mieć dwa


odmienne opisy i  dwie rzeczywistości. Czy ta idea może nam pomóc

w  zasypaniu głębokiej przepaści między umysłem a  mózgiem? Czy

może nam pomóc w  zrozumieniu luki eksplanacyjnej pomiędzy

rzeczywistością świata fizycznego –  materialnego mózgu zbudowanego

z  substancji chemicznych podlegających prawom fizyki –  a

rzeczywistością na pozór niematerialnego subiektywnego

doświadczenia? Myślę, że tak. Zanim więc wybiegniemy zbyt daleko

naprzód, zapoznajmy się z teorią fizyczną, w której może się kryć klucz

do rozwiązania.

[1]
Procesy nieodzowne dla świadomości mają swój początek

w  ewolucyjnie najstarszej części mózgu –  w pniu mózgu. Głównym

zadaniem pnia mózgu jest homeostatyczna regulacja ciała i  mózgu.

Sprawia, że twoje serce bije, płuca oddychają, a  jelita trawią.

Wystarczy odłączyć pień mózgu u dowolnego ssaka, a jego ciało umrze.

Z  pnia mózgu neurony rozchodzą się w  wielu kierunkach. Te

nieodzowne dla świadomości są połączone z  jądrami śródblaszkowymi

wzgórza, które mieści się pomiędzy śródmózgowiem a korą mózgową.

[2]
Drachman, 2014.

[3]
Klein, Cosmides i Costabile, 2003.

[4]
Cantor-Graae i Selten, 2005.

[5]
Veling i in., 2008.

[6]
Moore i in., 2007; Murray i in., 2007.

[7]
Schneider, 1959.

[8]
Os i Kapur, 2009; Os, 2009.

[9]
Kapur, 2003.

[10]
Laruelle, 1998; Guilin, Abi-Dargham i Laruelle, 2007.

[11]
Kapur, 2003.

[12]
Cartwright, 2004.
[13]
Maquet i  in., 1997; Braun i  in., 1997; Andersson i  in., 1998;

Kaufmann i in., 2006.

[14]
Bassetti i in., 2000.

[15]
Terzaghi i in., 2000.

[16]
Laureys i in., 2005.

[17]
Bauby, 2008, tłum. Krzysztof Rutkowski, s. 8.

[18]
Ibidem, s. 8–9.

[19]
Ghorbel, 2002.

[20]
Cranford, 1988.

[21]
Laureys, Gosseries i Tononi (red.), 2016.

[22]
Merker, 2007.

[23]
Panksepp i in., 1994.

[24]
Panksepp, 2005.

[25]
Anderson i Adolphs, 2014.

[26]
Panksepp, Fuchs i Iacobucci, 2011; Panksepp, 2010.

[27]
Panksepp i Panksepp, 2000.

[28]
LeDoux, 2012.

[29]
Pinker, 1994.

[30]
Panksepp, 2005.

[31]
Baars, 1988.

[32]
Haas, 2001.

[33]
Paradiso i in., 1999.
Część trzecia
Nadchodzi świadomość
ROZDZIAŁ VII
Idea komplementarności – prezent od zyki
Ci, którzy nie są zszokowani, kiedy pierwszy raz spotykają się z teorią kwan-tową, z pewnością jej
nie zrozumieli.
– Niels Bohr
[1]
W 1868 roku fizyk, alpinista, pedagog i  profesor Royal Institution ,

John Tyndall, wygłosił wykład dla sekcji matematycznofizycznej

Brytyjskiego Stowarzyszenia na rzecz Rozwoju Nauki. Przedstawił

w nim pewien dylemat:

Przejście od fizyki mózgu do odpowiadających jej faktów świadomości wydaje się nie

do pomyślenia. Przy założeniu, że określona myśl i konkretne zdarzenie molekularne

w mózgu występują równocześnie, nie posiadamy organu intelektualnego, ani choćby

zalążka takiego organu, który pozwoliłby nam przejść – w procesie rozumowania – od

jednego do drugiego. (…) „Jak owe procesy fizyczne są powiązane z  faktami

świadomości?” Przepaść między tymi dwiema klasami zjawisk pozostaje

[2]
intelektualnie nie do pokonania .

Oto minęło 150 lat, a  my nadal nie dotarliśmy tak daleko, jak byśmy

pragnęli. Rozumiemy – w pewnym stopniu – wyładowania elektryczne,

grupowanie się i  przepływ cząsteczek, a  czasem nawet odpowiadające

im stany mózgu, zwłaszcza w  badaniach dotyczących widzenia.

W odróżnieniu od Tyndalla jednak, myślę, że mamy organ, który może

sprostać temu zadaniu. Musimy tylko zastosować odpowiednie idee do

problemu ustalenia, w  jaki sposób umysł wyłania się z  mózgu. Jak

powinniśmy myśleć o  kłopotliwej przepaści między naszą biologią

a umysłem?

Powszechnie uważa się, że owa przepaść stanowi problem. Zaledwie

dwadzieścia pięć lat temu filozof Joseph Levine nazwał ją luką

eksplanacyjną, a następnie opisał w książce Purple Haze (Purpurowa

mgła):

Twierdzę, że nie mamy pojęcia, w  jaki sposób przedmiot fizyczny mógłby stanowić

podmiot doświadczenia, który przeżywa stany o  różnym charakterze jakościowym (a

nie tylko tworzy ich reprezentacje). Kiedy patrzę na swoje czerwone pudełko na

dyskietki, mam doznanie wzrokowe o czerwonym charakterze. Światło o szczególnym

składzie odbija się od pudełka i  stymuluje moją siatkówkę w  określony sposób.

Stymulacja siatkówki wysyła kolejne impulsy wzdłuż nerwu wzrokowego, aby


ostatecznie wywołać rozmaite zdarzenia neuronalne w korze wzrokowej. Gdzie w tym

wszystkim można dostrzec zdarzenia wyjaśniające moje doświadczenie czerwieni?

Wydaje się, że nie ma zauważalnego związku między opisem fizycznym

a  charakterystyką mentalną, a  co za tym idzie –  nie sposób wyjaśnić tego drugiego

[3]
w kategoriach pierwszego .

Levine pozostawia nas z  niezasypaną przepaścią między fizycznym

poziomem neuronów wchodzących ze sobą w  interakcje a  mglistym

poziomem świadomego doświadczenia. Możemy na przykład wyjaśnić,

że przyczyną bólu jest aktywność włókien C w  układzie nerwowym

oraz dlaczego istnieje odstęp czasowy między reakcją wycofania od

źródła bólu a  pojawieniem się odczucia bólu, ale wyjaśnienie tego

związku przyczynowego nie dostarcza nam żadnej wiedzy na temat

samego odczucia bólu jako subiektywnego doświadczenia.

Obecny status problemu umysł–ciało opiera się na dwóch

wiarygodnie brzmiących, choć na pierwszy rzut oka niemożliwych do

pogodzenia poglądach: (1) pewna forma materializmu lub fizykalizmu

jest zgodna z  prawdą; (2) fizykalizm nie może wyjaśnić świadomości

fenomenalnej, subiektywnych odczuć ani qualiów. Jeśli wybierasz

pogląd pierwszy, to jesteś materialistą; jeśli drugi –  to jesteś dualistą.

Tymczasem Levine odrzuca wszelką ostrożność i  wybiera oba

twierdzenia. Jest materialistą, a  jednocześnie uważa, że faktów

fenomenalnych nie można wywieść z  faktów fizycznych. Czy może on

zjeść ciastko i  mieć ciastko? Większość filozofów i  neuronaukowców

powiedziałaby, że to niemożliwe, więc jak on to robi?

Levine porzuca intuicyjne przekonanie, że stany mentalne (te będące

na ustach wszystkich doświadczenia jakościowe) są różne od stanów

fizycznych. Na przykład opóźnienie w  odczuwaniu bólu jest faktem

fenomenalnym wyjaśnianym przez fakt fizyczny. To jednak nie

interesuje Levine’a. Jakkolwiek zgadza się on z  poglądem, że

aktywność neuronów jest przyczyną doświadczeń fenomenalnych i  że


świadomość tak naprawdę musi być zjawiskiem fizycznym, twierdzi

też: „Istnieją dwa wzajemnie powiązane aspekty świadomego

doświadczenia, które nie poddają się eksplanacyjnej redukcji do tego,

co fizyczne: subiektywność i  charakter jakościowy”. Jeśli nie możemy

zasypać tej przepaści poprzez wyjaśnienie, w  jaki sposób aktywność

neuronów równa się doświadczeniu bólu, to –  wnioskuje Levine –

 „terminy po obu stronach znaku równości muszą reprezentować różne

[4]
zjawiska” . Co zaskakujące, brzmi to tak, jakby Levine uciekł się do

pewnej formy dualizmu.

Kilka lat później Levine wyjaśnił jednak, że nie wierzy w  istnienie

rzeczywistej przepaści –  nicości pomiędzy neuronami a  subiektywnym

doświadczeniem. Zwracał tylko uwagę, że nie wiemy, jak moglibyśmy

wypełnić tę lukę. Oczywiście, kiedy się nad tym zastanowić, luki można

spotkać na każdym kroku w  historii nauki, na ogół jednak ujmuje się

je jako luki w  wiedzy. Levine sądził, że ostatecznie to samo można

powiedzieć o luce między umysłem a mózgiem. Używając wyszukanych

terminów filozoficznych, można powiedzieć, że Levine uważał, iż jest to

problem epistemologiczny, a  nie metafizyczny. Spostrzegał to jako lukę

w  aktualnej wiedzy o  tym, jak należy wyjaśniać takie kwestie.

W takim ujęciu, rzecz jasna, Levine bezsprzecznie miał rację.

Jeszcze bardziej stanowczy pogląd wyraził australijski filozof David

Chalmers, który zgadza się, że istnieje „luka eksplanacyjna”, i  jest

nieugiętym zwolennikiem tezy drugiej: fizykalizm nie może wyjaśnić

świadomości fenomenalnej, subiektywnych odczuć ani qualiów. To

czyni go dualistą, chociaż sam Chalmers powiedziałby, że jest dualistą

naturalistycznym. Zgadza się on z  poglądem, że stany mentalne są

wywoływane przez system fizyczny w mózgu (to część naturalistyczna),

ale zarazem jest przekonany, że stany mentalne są zasadniczo odrębne

[5]
od układów fizycznych i  nie mogą być do nich zredukowane . To

stanowisko niezwykłe u  współczesnego filozofa, ale nie wśród osób


niebędących filozofami. Większość ludzi żyjących dzisiaj na ziemi to

dualiści!

A jednak w  1879 roku Tyndall napisał, ujmując nieco inaczej myśl,

którą wyraził w  wykładzie inauguracyjnym po objęciu stanowiska

prezesa Brytyjskiego Stowarzyszenia na rzecz Rozwoju Nauki,

i  uprzedzając nasze rozważania o  pochodzeniu życia w  dalszej części

tego rozdziału: „Jako człowiek wie-rzący w  ciągłość natury, nie mogę

raptownie porzucić tego przekonania tam, gdzie nasze mikroskopy

przestają być użyteczne. W  tym miejscu wizja umysłu autorytatywnie

uzupełnia to, co widzi oko. Z  intelektualnej konieczności przekraczam

granicę dowodów eksperymentalnych i  dostrzegam w  tej «materii» (…)

[6]
obietnicę i  potęgę całego ziemskiego życia” . William James był tego

samego zdania. Stwierdził:

W wielu obszarach nauki potrzeba ciągłości okazała się mieć prawdziwie proroczą

moc. Powinniśmy więc wypróbować każdy sposób wyjaśnienia genezy świadomości,

tak aby nie wydawała się ona nagłym wtargnięciem do wszechświata zupełnie nowej,

[7]
dotąd nieistniejącej natury .

W innym miejscu napisał:

Poglądem, któremu jako ewolucjoniści powinniśmy pozostać wierni, jest ten, że

wszystkie nowe formy istnienia, które pojawiają się na ziemi, tak naprawdę nie są

niczym innym, jak tylko wynikiem redystrybucji pierwotnych, niezmiennych

materiałów. Te same atomy, które, chaotycznie rozproszone, w  przeszłości tworzyły

mgławicę, dzisiaj – ciasno upakowane i chwilowo zastygłe w dziwacznych pozycjach –

  tworzą nasz mózg. „Ewolucja” mózgu, właściwie rozumiana, byłaby po prostu

wyjaśnieniem, w  jaki sposób owe atomy stały się tak upakowane i  zastygłe. W  tej

opowieści żadne nowe natury, żadne czynniki, które nie byłyby obecne od samego

[8]
początku, nie są wprowadzane na późniejszym etapie .

Wydaje się, że w  ciągu ostatnich kilkudziesięciu lat większość nas

zapomniała, iż ludzka świadomość wyewoluowała stopniowo ze swoich


prekursorów. Nie wskoczyła w  pełni ukształtowana do mózgu

pierwszego Homo jakiegoś tam. James zauważa: „Jeśli ewolucja ma

działać płynnie, to świadomość w  jakimś kształcie musiała być obecna

[9]
już na samym początku wszystkiego” . Tak, trzeba sięgnąć aż tak

daleko wstecz. Jeśli chcemy zrozumieć przepaść pomiędzy umysłem

a  mózgiem, to musimy wniknąć głęboko w  inne wielkie pytania, na

przykład: jak to możliwe, że życie powstało z materii nieoży-wionej?

W trakcie podróży w  tym rozdziale odkryjemy, że aby pojąć różnicę

pomię-dzy materią ożywioną a  nieożywioną, trzeba zrozumieć

nieodłączną dwoistość wszystkich istot zdolnych do ewolucji –  fakt, że

cała materia ożywiona może występować równocześnie w  dwóch

odmiennych stanach. Jak się przekonamy, fizyka i  biosemiotyka mogą

nam podpowiedzieć, jak wypełnić lukę między układami ożywionymi

a  nieożywionymi, nie uciekając się przy tym do duchów w  systemie.

Wnikliwe spostrzeżenia poczynione na gruncie tych dyscyplin

sugerują, jak można myśleć o  takich lukach w  ogóle i  jak podejść do

wypełnienia tej konkretnej luki, a  także oferują nam mapę drogową,

dzięki której neuronaukowcy będą mogli poradzić sobie z  luką umysł–

mózg, osadzoną w  architekturze warstwowej, przy użyciu protokołów

opisujących interfejsy między warstwami. Zacznijmy jednak od fizyki.

Początki zyki i przywiązanie do determinizmu


Ta opowieść zaczyna się od Isaaca Newtona i  spektakularnych

początków klasycznej fizyki w  XVII wieku. To ten rodzaj fizyki, który

większości nas sprawiał poważne trudności w  szkole. Okazuje się, że

historia z  jabłkiem jest prawdziwa. Sam Newton opowiedział ją

swojemu biografowi, Williamowi Stukeleyowi, wspominając pewne

popołudnie w roku 1666, kiedy to siedząc pod drzewem, rozmyślał:


Dlaczego jabłko zawsze spada prostopadle do ziemi? (…) Dlaczego nie leci w bok albo

w  górę, ale zawsze w  kierunku środka ziemi? Z  pewnością dzieje się tak dlatego, że

ziemia je przyciąga. W  materii musi istnieć jakaś siła przyciągania, a  suma siły

przyciągania ziemi musi tkwić w  jej środku, nie zaś po bokach. To dlatego jabłko

spada pionowo –  w kierunku centrum ziemi. Skoro więc materia przyciąga materię,

z  pewnością czyni to proporcjonalnie do swojej masy. Dlatego zarówno jabłko

[10]
przyciąga ziemię, jak i ziemia przyciąga jabłko .

Mąż siostrzenicy Newtona, John Conduitt, opowiedział o  tym, jak

Newton zastanawiał się nad tym, czy owa siła może wykraczać poza

Ziemię: „Dlaczego nie miałaby sięgać Księżyca –  powiedział sobie –  a

jeśli tak, to musiałoby to wpływać na jego ruch i, być może, utrzymywać

go na orbicie. Zaraz też zaczął obliczać, jaki skutek pociągnęłoby za

[11]
sobą to założenie” . W  obliczeniach nie miał sobie równych. Newton

przekształcił wyniki eksperymentów Galileusza, dotyczących

„ziemskiego” ruchu ciał, w  równania algebraiczne, dzisiaj zwane

prawami ruchu (lub zasadami dynamiki) Newtona. Galileusz wykazał,

że ciała utrzymują stałą prędkość i  tor ruchu, jeśli nie działa na nie

żadna siła; że ciała wykazują naturalny opór na zmiany ruchu,

nazywany bezwładnością; oraz że tarcie jest siłą. To ostatnie odkrycie

zostało ujęte w  trzecim prawie Newtona: każdej akcji towarzyszy

reakcja równa jej pod względem wartości i  przeciwnie zwrócona.

Rozmyślania Newtona na temat jabłek i  jego rozmaite obliczenia do-

prowadziły go do sformułowania prawa powszechnego ciążenia oraz do

uświa-domienia sobie, że ziemskie prawa ruchu, które zapisał

w  postaci algebraicz-nej, opisują też spostrzeżenia Johannesa Keplera

dotyczące ruchu planet. Kawał dobrej roboty!

Później Newton doznał wielkiego olśnienia. Dopiero co sformułował

zbiór stałych, poznawalnych zależności matematycznych, które

opisywały, bagatela, działanie wszystkich ciał fizycznych we

wszechświecie –  od kul do gry w  bule po planety. Te prawa są


uniwersalne, nieubłagane. Są odrębne od niego samego –  obserwatora

Newtona – od Keplera i od wszystkich innych. Wszechświat i wszystkie

zawarte w nim systemy działają zgodnie z tymi prawami, dotyczą-cymi

przestrzeni, czasu, materii i  energii, niezależnie od obecności lub

nieobecności obserwatorów. Kiedy w  lesie przewraca się drzewo i  nikt

tego nie obserwuje, powstają jednak fale dźwiękowe. To, czy ktoś je

słyszy, jest zupełnie inną sprawą. Jak się wkrótce przekonamy, to

rozróżnienie ilustruje sedno naszego problemu związanego z  genezą

życia.

Newton wzbudził coś więcej niż tylko zainteresowanie naukowe.

Uważano, że skoro jego prawa są uniwersalne, to teoretycznie, jeśli

znane są warunki początkowe, każde działanie w świecie fizycznym jest

możliwe do przewidzenia. Oznacza to, że wszystkie działania są

zdeterminowane – nawet twoje działania, ponieważ jesteś tylko jednym

z  obiektów fizycznych we wszechświecie. Wstaw do równania

odpowiednie warunki początkowe, a  dowiesz się, co się wydarzy

w  przyszłości –  nie wyłączając tego, co będziesz robić po pracy

w  następny czwartek. Ten sposób rozumowania pomija jednak

nadzwyczaj istotną kwestię. Jak się wkrótce przekonamy, podstawienie

konkretnej wartości w  miejsce warunków początkowych to

subiektywny wybór eksperymentatora, a  ten subiektywny wybór jest

wilkiem (problemem) w owczej skórze. To nie takie proste.

Prawa Newtona wydają się podważać istnienie wolnej woli, a  tym

samym –  odpowiedzialności za własne czyny. Determinizm najpierw

zawładnął wyobraźnią fizyków, a  wkrótce potem wielu innych uległo

jego wpływowi. Mimo że świat potrzebował trochę czasu, aby

przywyknąć do zaproponowanej przez Newtona wizji rzeczywistości,

jego prawa wydawały się trafnie opisywać większość obserwacji świata

fizycznego, a  w ciągu kolejnych dwustu lat głęboko zakorzeniły się

w  nauce. Wkrótce jednak fizyka newtonowska musiała się zmierzyć


z  nowym wyzwaniem, związanym z  pewnym wynalazkiem –  silnikiem

parowym. Pierwszy komercyjny silnik został opatentowany w  1698

roku przez Thomasa Savery’ego, inżyniera wojskowego, i  służył do

wypompowywania wody z  zalanych kopalni. Pomimo stopniowych

ulepszeń konstrukcji silników parowych inżynierom nie udawało się

rozwiązać istotnego problemu: ilość wykonywanej przez nie pracy była

bardzo mała w  porównaniu z  ilością drewna, jakie trzeba było spalić,

aby tę pracę wykonać.

Pierwsze silniki były nadzwyczaj mało wydajne, ponieważ dochodziło

do rozproszenia lub utraty zbyt dużej części energii. W  całkowicie

zdeterminowanym świecie przedstawionym przez Newtona wydawało

się to pozbawione sensu, dlatego fizycy teoretyczni musieli zmierzyć się

z  problemem zaginionej energii. Niebawem pojawiła się nowa

dyscyplina naukowa, termodynamika, a  wraz z  nią –  zmiana teorii

o naturze świata. Istotną rolę odgrywają tu zależ-ności między ciepłem

i temperaturą a energią i pracą. Kiedy to wszystko zostało gruntownie

przemyślane, fizyka zmieniła się na zawsze, a  zdeterminowany

newtonowski świat zaczął wyglądać nieco inaczej.

Rozwój mechaniki kwantowej i statystycznego ujęcia


przyczynowości
Problem z  silnikiem parowym w  krótkim czasie zaowocował

powstaniem pierwszych dwóch praw (zasad) termodynamiki. Pierwsze

brzmi: energia wewnętrzna izolowanego układu jest stała. Prawo to jest

w  istocie powtórzeniem zasady zachowania energii, która głosi, że

energia może przechodzić z  jednej formy w  inną, ale nie może powstać

z  niczego, nie można też jej zniszczyć. Jest to w  pełni zgodne

z deterministyczną wizją świata zaproponowaną przez New-tona, ale to


twierdzenie było zarazem bardzo ograniczone, gdyż odnosiło się

wyłącznie do układów izolowanych.

Przy drugiej zasadzie termodynamiki sprawy stają się bardziej

interesują-ce, ale i  trudniejsze. Dotyczy ona czegoś, co nazywamy

entropią. Zgodnie z  tą zasadą ciepło nie może spontanicznie

przemieścić się z  miejsca o  niższej temperaturze do miejsca

o  temperaturze wyższej. Nadal pamiętam moment, gdy usiłowałem

pojąć tę ideę. To był mroźny zimowy dzień w  Dartmouth, a  ja witałem

w  progu swojego gabinetu pewnego fizyka, który przyszedł na

umówione spotkanie. Właśnie przeszedł przez uniwersytecki Kampus

Zielony, a ów spacer po odsłoniętym terenie niemal zamroził jego ciepłą

kurtkę. Z  uśmiechem zauważyłem, że za każdym razem, gdy ktoś

wchodzi do mojego gabinetu, jego ubranie wnosi do środka przenikliwy

chłód, a  mnie robi się zimno. Mój gość spojrzał na mnie i  powiedział:

„Wyjaśnijmy to w  kategoriach fizyki. Zimno wcale się na pana nie

przenosi. To ciepło pańskiego ciała przenosi się na mnie, a  ponieważ

opuszcza pańskie ciało, robi się panu zimniej”. Przypomniał mi, że

druga zasada termodynamiki może być bardzo użyteczna –  nawet

w  zrozumieniu tego, czego doświadczamy w  życiu codziennym –  i

dodał, że powinniśmy zatrudnić jeszcze jednego fizyka teoretycznego.

Termin „entropia” został wprowadzony przez dziewiętnastowiecznego

niemieckiego fizyka, Rudolfa Clausiusa, który używał go w odniesieniu

do „ciepła odpadowego”. To miara ilości energii termicznej, której nie

można wyko-rzystać do pracy. Zimna kurtka fizyka zwiększyła mój

stan entropii, a  co za tym idzie –  zmniejszyła się ilość dostępnej

[12]
energii, dzięki której mógłbym utrzymać ciepło . Druga zasada

termodynamiki sprawiła, że obraz zaczął się rozmazywać. Krótko

mówiąc, w  wypadku kurtek i  silników parowych wymiana ciepła jest

nieodwracalna. Była to zaskakująca wiadomość dla fizyków

o  newtonowskich poglądach, którzy wierzyli w  zdeterminowany świat.


Nagle czas przestał być odwracalny –  strzałka czasu biegła tylko

w  jedną stronę. Wywołało to sprzeczność między termodynamiką

a  powszechnymi prawami Newtona, które głosiły, że właściwie

wszystko jest odwracalne. To przełomowe odkrycie powoli przenikało do

innych obszarów ludzkiej myśli –  jak się przekonamy, nawet do

rozważań o architekturze warstwowej, a także o tym, w jakich ramach

należy ująć problem luki pomiędzy mózgiem a umysłem.

Co osobliwe, w  połowie XIX wieku teoria atomistyczna –  zgodnie

z  którą materia jest zbudowana z  atomów –  była przyjęta i  stosowana

przez chemików, lecz nadal budziła spory wśród fizyków. Jednym

z  fizyków, którzy łamali sobie nad nią głowę, był Austriak Ludwig

Boltzmann, znany jako twórca teorii kinetycznej, w której opisał gaz

jako substancję zbudowaną z  dużej liczby atomów lub cząsteczek

będących w  ciągłym ruchu i  zderzających się zarówno ze sobą

nawzajem, jak i ze ściankami pojemnika, co powoduje ich przypadkowe,

chaotyczne ruchy. Boltzmann przekształcił siedemnastowieczne idee

Gassendiego w  twardą naukę, dziś określaną mianem mechaniki

statystycznej. Po uwzględnieniu rodzajów cząsteczek oraz ich położenia

teoria kinetyczna wyjaśniała makroskopowe właściwości gazów:

ciśnienie, temperaturę, objętość, lepkość i przewodnictwo cieplne.

Ogromny wkład Boltzmanna polegał na dalszym zdefiniowaniu

nieuporządkowania układu (entropii) jako zbiorowego wyniku

wszystkich ruchów cząsteczkowych. Utrzymywał on, że skoro wszystkie

te atomy przemieszczają się i zderzają ze sobą na chybił trafił, to druga

zasada jest prawdziwa jedynie w  sensie statystycznym, nie zaś

w  dosłownym znaczeniu deterministycznym. Innymi słowy, to, czy

przemieści się konkretna cząstka, pozostawało niewiadome. Za sprawą

wyziębionej kurtki cały mój system stawał się bardziej

nieuporządkowany. Jak to ujął Michael Corleone: „To nic osobistego. To

czysty biznes”.
Boltzmann wywołał poważne zamieszanie wśród fizyków, którzy

nadal uważali wszechświat za całkowicie deterministyczny i  rządzący

się prawami New-tona. Byli głęboko przekonani, że nie jest to

wszechświat statystyczny, w  którym w  najlepszym razie można

sformułować pewne hipotezy lub przewidywa-nia. W  konsekwencji

teoria Boltzmanna była nieustannie atakowana. Te napaści wzbudziły

w  nim tak głęboką frustrację i  depresję, że w  1906, podczas wakacji,

które spędzał z  rodziną pod Triestem, popełnił samobójstwo. Wkrótce

potem jego teorię uznano za bezsprzecznie prawdziwą.

Prawa statystyczne do dzisiaj wprawiają fizyków w  konsternację.

Z  jednej strony zasady Newtona są symetryczne w  odniesieniu do

czasu, a  co za tym idzie –  odwracalne. W  zdeterminowanym świecie

opisanym przez Newtona wszystko, co postępuje naprzód, może się

także cofnąć. Z  pewnością nie można tego powiedzieć o  prawach

statystycznych. Jak coś, co zdarza się tylko z  pewnym

prawdopodobieństwem, a  nie na pewno, może być odwracalne? Nie

może i na pierwszy rzut oka te dwa sposoby opisywania rzeczywistości

wydają się sprzeczne. Potrzebny był nowy sposób myślenia, aby

poradzić sobie z  tą dwoistością. Fizycy potrzebowali dużo czasu, aby

zaakceptować teorię atomistyczną, lecz kiedy już ją przyjęli, zaczęli

z zapałem ją stosować i wytężali umysły, rozważając idee, które odkrył

przed nimi ów nowy świat. Już w  1897 roku angielski fizyk, Joseph

John Thomson, odkrył pierwszą cząstkę subatomową: elektron.

Thomson był zarówno wybitnym fizykiem, jak i  wspaniałym

nauczycielem. Nie tylko on sam otrzymał tytuł szlachecki i  Nagrodę

Nobla za swoje badania. Laureatami Nagrody Nobla zostało również

ośmiu jego asystentów naukowych, a  także jego syn. Do tej grupy

należał Niels Bohr, który ostatecznie przedstawił ideę

komplementarności. Nie wybiegajmy jednak za daleko do przodu.


Trzeba było odrobiny perswazji, aby ten nowy świat został

zaakceptowany.

Max Planck, niemiecki fizyk teoretyczny, miał obsesję na punkcie

entropii i  drugiej zasady termodynamiki. Początkowo wierzył w  jej

bezwzględną trafność, a  nie w  rozmytą wersję statystyczną, za

którą opowiadał się Boltzmann. Jako zwolennik mechaniki

newtonowskiej, Planck zdawał sobie jednak sprawę, że entropia

stanowi istotny problem, ponieważ w  koncepcji wzrastającej entropii

czaiła się drażliwa kwestia nieodwracalności. De facto Planck akcepto-

wał ideę nieodwracalności, ale pragnął przedstawić rygorystyczne

wyprowadzenie zasady entropii, które mogłoby uzasadnić jej

nieodwracalność za pomocą klasycznych praw. Podobnie jak większość

fizyków, marzył o  jednej teorii fizycznej, która wyjaśniałaby wszystko.

A przecież, jak dobrze wiemy, stare idee trzymają się mocno.

Okazja pojawiła się w  1894 roku, kiedy Planckowi powierzono

zadanie specjalne –  zoptymalizowanie żarówek, tak by dawały więcej

światła, zużywając przy tym mniej energii. W  tym celu musiał się

zmierzyć z problemem promieniowania ciała doskonale czarnego.

Aby zrozumieć, co to takiego, podejdź do ogniska. Jeśli włożysz

metalowy rożen do pieczenia kiełbasek w  płomienie, to po jakimś

czasie jego końcówka rozgrzeje się do czerwoności. Jeśli rozgrzeje się

jeszcze bardziej, to z  czerwonej stanie się żółta, biała, a  w końcu

niebieska. W  miarę jak wnętrze rożna staje się coraz gorętsze, jego

powierzchnia zaczyna emitować promieniowanie elektromagnetyczne

w  postaci światła, nazywane promieniowaniem cieplnym (lub

termicznym). Im gorętsze wnętrze (im większa energia), tym mniejsza

długość fali emitowanego światła (i tym większa częstotliwość) –  stąd

zmiana koloru. Fizycy szybko wyobrazili sobie wyidealizowane ciało

fizyczne o „doskonałej” zdolności do emitowania i pochłaniania światła,


które nierozgrzane, byłoby czarne, gdyż padające na nie światło byłoby

w całości pochłaniane.

To hipotetyczne ciało nosi nazwę ciała doskonale czarnego,

a emitowane przez nie promieniowanie elektromagnetyczne nazywamy

promieniowaniem ciała doskonale czarnego. Nikomu nie udało się

przewidzieć ilości promieniowania ani częstotliwości, z  jaką takie ciało

emitowałoby promieniowanie, przy użyciu klasycznych praw fizyki.

Prawa Newtona sprawdzały się przy niższych częstotliwościach światła

(barwa czerwona), ale w miarę jak częstotliwość rosła, formułowane na

ich podstawie przewidywania okazywały się błędne. Po kilku

nieudanych próbach zastosowania praw klasycznej fizyki Planck

niechętnie zwrócił się ku statystycznej koncepcji entropii. Kiedy

wprowadził ideę „elementów energii” i  uznał, że energia jest

„wielkością dyskretną złożoną z  pewnej liczby skończonych równych

[13]
części” , udało mu się stworzyć równanie, które trafnie przewidywało

promieniowanie ciała doskonale czarnego.

Ani Planck, ani nikt inny w  tamtych czasach nie zdawał sobie

sprawy, że jego prawo opiera się na pewnej innowacji teoretycznej –

  zasadniczej zmianie sposobu widzenia świata. Był to pierwszy wypad

do świata kwantów. Odkrycie Plancka oznaczało też, że nie istnieje

jeden, podstawowy zbiór praw fizycznych ani jeden model

wszechświata. Niektórzy powiedzieliby, że był to ostatni gwóźdź do

trumny Newtonowskiej wiary w zdeterminowany świat.

Co interesujące, sam Planck był mile zaskoczony trafnością swojego

prawa promieniowania i uznał, że wprowadzenie kwantów energii było

–  jak to ujął –  „czysto formalnym założeniem, nad którym specjalnie

[14]
się nie zastanawiał” . Tym, na co przypadkowo wpadł Planck –

  teoretyczną nowością, której w  pełni nie pojmował, lecz którą

wykorzystał jako sztuczkę matematyczną –  była idea, że obiekty

mikroskopowe zachowują się inaczej niż obiekty


makroskopowe. Och! Planck niechcący wyjął cegłę, na której opierał

się fundament jego największego marzenia –  aby jedno wyjaśnienie

mogło opisać wszystko. Odkrycie kwantowego świata nie tylko zmieniło

nasze rozumienie wszech-świata, lecz także uczyniło oczywistym, że

istnieją dwie warstwy rzeczywisto-ści, przy czym każda ma własny

język i sposób działania. Tak jak w innych złożonych systemach, każda

warstwa ma własny protokół: na poziomie atomowym obowiązują

prawa statystyczne, podczas gdy duże obiekty działają w  spo-sób

opisany przez Newtona. Epistemolodzy, którzy nie znali koncepcji

architektury warstwowej, powariowali. W  szeregach poszukiwaczy

odpowiedzi na pytanie „Jak poznajemy rzeczywistość?” zapanował

wielki chaos. Jedno wyjaśnienie wszystkiego okazało się nieosiągalne.

Wydawało się, że istnieją dwa rodzaje wyjaśnień zachowania materii,

wzajemnie się dopełniające (komplementarne).

Fizycy napotkali tę nową ideę, gdy zrozumieli, że światło może się

zachowywać jak strumień cząstek albo jak fala elektromagnetyczna.

Materia ma naturę komplementarną, dwoistą. Fizycy przez

kilkadziesiąt lat odrzucali tę ideę, lecz w  końcu uznali ją za

prawdziwą. Niedawno badacze zarejestrowali niewiarygodny obraz

niewielkiej grupy fotonów wykazujących naturę falową oraz –

[15]
  równocześnie –  innej grupy, zachowującej się jak cząstki . Mimo że

idea komplementarności jest powszechnie przyjęta we współczesnej

fizyce, niewielu uważa ją za możliwą podstawę myślenia o  luce

eksplanacyjnej pomiędzy umysłem a  mózgiem. Moim zdaniem

powinniśmy ją uznać za taką pod-stawę. Najpierw jednak przyjrzyjmy

się, w  jaki sposób fizyka zaakceptowała tę –  na pierwszy rzut oka

niepojętą – rzeczywistość. Po tym, jak została zaakceptowana w fizyce,

idea komplementarności może się okazać kluczem do myślenia

o biologii, a w szczególności o luce między umysłem a mózgiem.


Idea komplementarności
Po uzyskaniu dyplomu nauczyciela fizyki i  matematyki w  1901 roku

dwudziestodwuletni Albert Einstein został obywatelem Szwajcarii

i  zaczął szukać pracy. Żadna placówka oświatowa nie chciała go

zatrudnić. Wreszcie zaczepił się w  biurze patentowym w  Bernie na

stanowisku „specjalisty technicznego trzeciej kategorii”, a po godzinach

udzielał korepetycji. W  czasie wolnym dzielił się swoimi pomysłami

z  grupką kolegów z  klubu dyskusyjnego o  nazwie Akademia

Olimpijska.

W roku 1905, uważanym za jego annus mirabilis –  rok cudów –

  Einstein, teraz już dwudziestosześcioletni, przeniósł fizykę do innego

wszechświata poprzez przedstawienie czterech wielkich idei. Stworzył

kwantową teorię światła, która głosi, że energia wiązki światła

występuje w  niewielkich pakietach (nazwanych później fotonami) i  że

wymiana energii może się odbywać wyłącznie w  maleńkich,

dyskretnych (nieciągłych) porcjach. Ów „pakiet energii” nie był jedynie

sztuczką matematyczną, jaką zastosował Planck, aby uzyskać dobre

równanie. Do tamtej pory spierano się o  to, czy światło jest falą, czy

zbiorem maleńkich cząstek. Uznanie światła za falę wyjaśniało

rozmaite obserwacje, takie jak załamanie (refrakcja) i  ugięcie

(dyfrakcja), interferencja i  polaryzacja. Nie tłumaczyło jednak efektu

fotoelektrycznego: kiedy światło pada na metaliczną powierzchnię, z tej

powierzchni mogą być wybijane elektrony (w tym wypadku zwane

fotoelektronami).

Początkowo fizycy nie widzieli w tym problemu. Na podstawie falowej

teorii światła przypuszczali, że im większa intensywność światła (to

znaczy, im większa amplituda fali), z  tym większą energią elektrony

będą wybijane z  metalu. Okazuje się jednak, że w  rzeczywistości jest

zupełnie inaczej. Energia emitowanych elektronów jest niezależna od


intensywności światła: jasne i  przyćmione światło wyrzuca elektrony

z  metalowej powierzchni z  taką samą energią przy zachowaniu stałej

częstotliwości fali. Jak nieoczekiwanie ustalono, to wzrost

częstotliwości fali zwiększa energię, z  jaką elektrony są wybijane

z  powierzchni. To nie ma sensu, jeżeli światło jest falą. To tak, jakby

powiedzieć, że piłka plażowa uderzona przez wielką falę oceaniczną

odleci z  taką samą energią, jak piłka popchnięta przez drobną

zmarszczkę na powierzchni wody. Einstein zdawał sobie sprawę, że

obserwowane efekty można wyjaśnić, tylko uznając, że światło jest

zbudowane z  cząstek, które wchodzą w  interakcje z  elektronami na

powierzchni metalu. W  tym modelu światło składa się z  kwantów

(później nazwanych fotonami), które wchodzą w  interakcje

z  elektronami metalu. Każdy foton ma własną energię. Wzrost

intensywności światła zwiększał liczbę fotonów w  jednostce czasu, ale

ilość energii w  przeliczeniu na foton pozostawała taka sama. Kilka

miesięcy później Einstein dodał kolejne osiągnięcie do swego „złotego

roku” –  wykazał, że światło można również traktować jako falę.

Światło naprawdę istniało w dwóch rzeczywistościach.

Einstein niepowstrzymanie parł do przodu. Przedstawił również

dowody empiryczne potwierdzające istnienie atomu i  w ten sposób

rozstrzygnął spór na ten temat. Opowiedział się za stosowaniem fizyki

statystycznej. Wreszcie, położył wisienkę na torcie, formułując teorię

2
względności i  słynne równanie E = mc . Upłynęło trochę czasu, zanim

świat fizyki przekonał się do wszystkich tych idei –  Einstein nie od

razu zdobył powszechne uznanie. Jedynym natychmiastowym

skutkiem jego wysiłków był awans w  biurze patentowym na

„specjalistę technicznego drugiej kategorii”.

Kiedy fizycy w  końcu doszli do ładu z  teorią atomistyczną i  dogonili

chemików, wkrótce zdali sobie sprawę, że cząstki subatomowe, atomy

i  cząsteczki –  wszystkie te submikroskopowe, uniwersalne klocki,


z  których zbudowane jest wszystko we wszechświecie –  nie zachowują

się zgodnie z prawami New-tona, lecz zupełnie je lekceważą. Dymiącym

pistoletem stanowiącym dowód ich winy był fakt, że gdy krążące po

orbicie elektrony tracą energię, nie spadają na jądro atomu –  jak

przewidują zasady Newtona – ale pozostają na orbicie. Jak to możliwe?

W latach 1925–1926 teorię kwantową rozwinęła grupa fizyków

z  Uniwer-sytetu w  Getyndze, do której należał Werner Heisenberg.

Często odwiedzali oni instytut Nielsa Bohra w  Kopenhadze

w poszukiwaniu wyjaśnienia trzech wielkich zagadek: promieniowania

ciała doskonale czarnego, efektu elektromagnetycznego i  stabilności

elektronów na orbicie. Fizycy – czy im się to podobało, czy nie (a wielu

z nich, nie wyłączając Plancka i Einsteina, wcale się to nie podobało) –

  zostali wyrzuceni z  deterministycznego newtonowskiego świata, owej

warstwy fizycznej, którą wszyscy zamieszkujemy i  którą możemy

zobaczyć i  dotknąć, świata, w  którym istnieje jedno uniwersalne

wyjaśnienie wszystkiego, i  wrzuceni do niższej warstwy –  ukrytego,

niezgodnego z  intui-cją, statystycznego, nieoznaczonego świata

mechaniki kwantowej. Wypadli ze świata czarno-białych odpowiedzi

i  trafili do świata szarości –  do warstwy, w  której obowiązuje zupełnie

inny, równolegle istniejący protokół.

Rozważmy na przykład odbicie światła. Kiedy fotony padają na szkło,

4% odbija się od jego powierzchni, podczas gdy reszta zostaje

pochłonięta. Co decyduje o  tym, które fotony zostaną odbite? Po latach

badań prowadzonych przy użyciu rozmaitych technik wydaje się, że

odpowiedź brzmi: przypadek. To przypadek decyduje o  tym, czy dany

foton zostanie odbity, czy pochłonięty. Richard Feynman zapytał: „Czy

jesteśmy więc skazani na koszmar, w  którym fizyka nie sprowadza się

do wspaniałych przewidywań, lecz do prawdopodobieństw? Owszem,

tak to dzisiaj wygląda, (…) pomimo faktu, że filozofowie powiedzieli:

«W nauce jest wymogiem koniecznym, aby dokładnie powtórzony


eksperyment przyniósł takie same wyniki, jak te otrzymane za

pierwszym razem». Nic podobnego. W  jednym na 25 powtórzeń

otrzymujemy wyższe wartości, czasami zaś niższe. (…) To

[16]
nieprzewidywalne, zupełnie przypadkowe. (…) Tak właśnie jest” .

Świat pełen niepewności. Ówcześni fizycy otwarcie nim pogardzali.

Nawet Einstein, który otworzył drzwi do tego niepewnego świata,

pragnął je zatrzasnąć. Miał poważne wątpliwości dotyczące implikacji

tych od-kryć dla zdeterminowanego (jak uważano) wszechświata i  dla

przyczynowości, co skłoniło go do wypowiedzenia słynnego zdania: „Bóg

nie gra w  kości”. Tak, jeśli fizycy chcieli być dobrymi naukowcami, to

musieli porzucić swoje przyjęte z  góry idee i  podążyć za wynikami

swoich badań – dokądkolwiek mia-łyby ich zawieść.

Kiedy zastanawiasz się nad zwariowanym światem kwantowym,

pamiętaj, że światem, który zamieszkujemy, jest świat makro, rządzący

się prawami fizyki newtonowskiej. Zdrowy rozsądek, czyli fizyka

potoczna, oparta na makroświecie, na nic nam się nie przyda w świecie

kwantowym. Nie przypomina on niczego, czego dotąd doświadczyliśmy.

Swoje intuicje zostaw więc w  domu. Do niczego ci się nie przydadzą,

a  tylko będą przeszkadzać. Feynman w  zabawny sposób przygotował

grupę studentów fizyki do wykładu na temat zachowania obiektów

w świecie kwantowym za pomocą takiego oto wprowadzenia:

Twoje doświadczenie ze wszystkim, co dotychczas widziałeś, jest nieadekwatne.

Niekompletne. Zachowanie obiektów w  bardzo małej skali jest po prostu inne. One

nie zachowują się tylko jak cząstki. Nie zachowują się tylko jak fale. (…) [Elektrony]

zachowują się w sposób niepodobny do niczego, co dotąd widziałeś. Mamy przy tym co

najmniej jedno ułatwienie: pod tym względem elektrony zachowują się tak samo, jak

fotony. Jedne i  drugie są stuknięte, ale w  taki sam sposób. Zrozumienie ich

zachowania wymaga dużej wyobraźni, gdyż próbujemy opisać coś, co różni się od

wszystkiego, co dotąd poznaliśmy. (…) to coś abstrakcyjnego w tym sensie, że nie jest

[17]
bliskie doświadczeniu .
Feynman dodaje, że jeśli pragniemy poznać naturę prawa fizycznego, to

musimy koniecznie rozmawiać o  tym konkretnym aspekcie, „ponieważ

charakteryzuje on wszystkie cząstki występujące w przyrodzie”.

Submikroskopowy świat kwantowy jest przed nami ukryty. To

oznacza, że aby czegoś się o  nim dowiedzieć, musimy wejść z  nim

w  interakcję umożliwiającą dokonywanie pomiarów. W  tym celu

musimy użyć jakiegoś narzędzia z  makroświata –  narzędzia

zbudowanego z  atomów, te zaś mogą wchodzić w  zakłócające reakcje

z  cząstkami, których zachowanie próbujemy zmierzyć i  które dotąd po

prostu robiły swoje. Takie zakłócenie zmienia dynamikę w porówna-niu

z sytuacją sprzed pomiaru. Krótko mówiąc, wyglądało na to, że istnieje

nieunikniony błąd pomiaru. Okazało się, że badanie tego świata jest

trudne i wymaga nowego sposobu myślenia.

Wróćmy jednak do głównego tematu. Zgodnie z  odkryciem Einsteina

światło zachowuje się zarówno jak fala, jak i  jak zbiór cząstek. Kilka

lat później okazało się, że to samo można powiedzieć o  materii –

  elektrony też mają własności korpuskularne i  falowe. Fizycy szybko

zaakceptowali ideę, że to, co w  makroświecie spostrzegamy jako coś

ciągłego (a nie jako miliardy osobnych atomów), na przykład stół

w  jadalni, jest tylko symulowanym procesem uśredniania,

przebiegającym w  czymś, co matematyk, fizyk i  polihistor John von

Neumann nazwał później „światem, który w  rzeczywistości ze swej

natury jest nieciągły”. Neumann dodał: „Owa symulacja polega na tym,

że człowiek spostrzega sumę wielu miliardów elementarnych procesów

równocześnie, tak aby wyrównujące prawo wielkich liczb całkowicie

[18]
zatarło naturę poszczególnych procesów” . „Wyrównujące prawo

wielkich liczb” oznacza, że ruchy wszystkich tych cząstek wzajemnie się

znoszą i  stół pozostaje w  jednym miejscu, zamiast przesuwać się po

podłodze. Kiedy jednak widzimy nieruchomy stół – jako stały, jednolity


obiekt –  jest to złudzenie, symboliczna reprezentacja stworzona przez

nasz mózg, która pozwala nam dobrze funkcjonować w świecie.

Austriacki fizyk znany z  eksperymentu myślowego z  kotem

w  pojemniku, Erwin Schrödinger, również pragnął ocalić

deterministyczny świat przyczyny i skutku. Sformułował coś, co później

nazwano równaniem Schrödingera – „prawo” opisujące zachowanie fali

w ujęciu mechaniki kwantowej oraz jego dynamiczne zmiany w czasie.

To „prawo”, odwracalne i  deterministyczne, nie może opisać stanu

całego systemu, nie bierze bowiem pod uwagę korpuskularnej natury

elektronu –  kwestii, której Schrödinger starał się uniknąć. Jego prawo

nie może określić, w  którym miejscu na swojej orbicie znajdzie się

elektron w danym momencie. Można tylko sformułować przewidywanie

–  opar-te na prawdopodobieństwie –  dotyczące położenia elektronu

w danej chwili, czyli jego stanu kwantowego.

Aby poznać rzeczywistą lokalizację elektronu, trzeba dokonać

pomiaru. Tu właśnie zaczynają się problemy twardogłowych

deterministów. Kiedy dokonujemy pomiaru, dochodzi do zapadnięcia

(kolapsu) stanu kwantowego, co oznacza, że wszystkie inne stany,

w  jakich mógł się znajdować ów elektron (nazywane superpozycjami),

zostały sprowadzone do jednego stanu. Wszystkie inne możliwości

zostały wyeliminowane. Pomiar, rzecz jasna, był nieodwracalny

i  ograniczył badany układ poprzez spowodowanie kolapsu. W  ciągu

kolejnych paru lat fizycy zdali sobie sprawę, że ani klasyczne pojęcie

„cząstki”, ani model „fali” nie może w pełni opisać zachowania obiektów

w  skali kwantowej w  żadnym momencie. Jak dowcipnie zauważył

Feynman: „One nie zachowują się ani jak fala, ani jak cząstka;

[19]
zachowują się kwantowo-mechanicznie” .

Z pomocą w  rozwiązaniu tego problemu pośpieszył Niels Bohr,

duński ekspert od elektronów i  laureat Nagrody Nobla. Po paru

tygodniach samotnego przemierzania szlaków narciarskich w Norwegii


i  rozmyślania o  dwoistej naturze elektronów i  fotonów wrócił do domu

ze sformułowaną zasadą komplementarności, której przykładem

jest dualizm fala–cząstka. Zgodnie z tą zasadą obiekty kwantowe mają

komplementarne (dopełniające się) własności, których nie można

zmierzyć, a  co za tym idzie –  poznać, w  tym samym momencie. Jak to

opisał Jim Baggott w książce Teoria kwantowa:

[Bohr] zdał (…) sobie sprawę, że relacja nieoznaczoności położenie–pęd i energia–czas

tak naprawdę są manifestacjami komplementarności klasycznych pojęć cząstki i  fali.

Zachowania o  charakterze cząstkowym czy falowym są nieodłącznie związane

z  poddawanymi eksperymentom układami kwantowymi i  wybierając eksperyment –

  wybierając cząstkowe bądź falowe lustro –  wprowadzamy nieuniknioną niepewność

własności, które mierzymy. Niepewność nie pojawia się na skutek „niezgrabności”

naszych pomiarów, jak sugerował Heisenberg, ale raczej dlatego, że nasz wybór

aparatu pomiarowego wymusza na układzie kwantowym zachowanie się w  sposób

[20]
odpowiadający cząstce, a nie fali, bądź odwrotnie .

Powtórzmy: w  danym momencie można zmierzyć albo położenie, albo

pęd elektronu, ale nie jedno i  drugie –  podobnie jak nie można

zmierzyć równocześnie jego własności falowych i  korpuskularnych.

Kiedy dokonujemy chwilowego pomiaru położenia elektronu

w  wybranym momencie, de facto pozostaje on w  jednym miejscu, bez

ruchu, a  co za tym idzie –  traci swą drugą naturę ciała obdarzonego

pędem. W  tym momencie pomiar pędu nie jest zatem możliwy. Można

jedynie zasugerować jego wartość z  pewnym prawdopodobieństwem –

  ale nie z  pewnością. Komplementarność pojawia się w  systemie wraz

z  próbą zmierzenia jednej z  dopełniających się własności. Istnieją dwa

sposoby opisu tego samego układu, przy czym żadnego z  nich nie

można zredukować do drugiego.

Bohr pracował nad swoją teorią przez wiele miesięcy. Pierwszy raz

przedstawił ją podczas wykładu w  Como w  1927 roku grupie

znamienitych fizyków biorących udział w  kongresie zorganizowanym


dla upamiętnienia setnej rocznicy śmierci Alessandra Volty. Einstein,

który w  tym kongresie nie uczestniczył, usłyszał o  tej teorii miesiąc

później, kiedy Bohr przedstawił ją ponownie w  Brukseli. Einsteinowi

nie podobała się idea podwójnego opisu i  niepewności. Między nim

a  Bohrem wywiązał się spór, który trwał przez wiele lat. Einstein

wymyślał scenariusz mający obronić teorię kwantową, a  Bohr

w odpowiedzi przedstawiał argument zgodny z teorią kwantową, który

go podważał. Od tamtej pory wysunięto już wiele argumentów

i  przeprowadzono liczne eksperymenty, aby poprzeć stanowisko

[21]
Einsteina w tym sporze – bez powodzenia. Jakkolwiek niepopularna

wśród naukowców o  inklinacjach deterministycznych, zaproponowana

przez Bohra wersja komplementarności pozostaje niepokonana.

U podstaw tego sporu tkwią pytania o  to, czym jest obiektywizm

i czym się zajmuje fizyka. Robert Rosen wyjaśnił, o co tutaj chodzi:

Fizyka stara się ograniczyć do „spraw obiektywnych”. Dlatego zakłada sztywny

rozdział między tym, co jest obiektywne i  jako takie znajduje się na jej terytorium,

a  tym, co nieobiektywne. Jej opinie na temat tego, co znajduje się poza owym

terytorium, są podzielone. Niektórzy uważają, że wszystko, co pozostaje poza jego

granicami, jest tam wyłącznie z  powodu możliwych do usunięcia, przejściowych

problemów technicznych. Innymi słowy, wszystko, co pozostaje na zewnątrz, może

zostać „zredukowane” do tego, co już jest w  środku. Według innych ów podział jest

[22]
bezwzględny i ostateczny .

Bohr należał do tej drugiej grupy i  uważał, że to, czy spostrzegamy

światło jako cząstkę, czy jako falę, nie tkwi w  naturze światła, lecz

zależy od tego, jak je mierzymy i  obserwujemy. Zarówno światło, jak

i  przyrząd pomiarowy są częścią układu. Według Bohra świat

klasyczny jest po prostu za mały, aby jego prawa mogły opisać całą

materialną rzeczywistość. Wszechświat wraz ze wszystkim, co się

w  nim mieści, jest dużo bardziej skomplikowany i  wymaga czegoś

więcej niż tylko jedna warstwa z  protokołem złożonym z  praw fizyki


klasycznej. Rosen zauważa, że Bohr zmienił samo pojęcie

obiektywności –  z od-noszącego się wyłącznie do tego, co tkwi

w  naturze materialnego układu, w  do-tyczące tego, co stanowi

nieodłączną część pary układ–obserwator. Einstein nie potrafił tego

zaakceptować i  związał swoje losy z  fizyką klasyczną, która ignoruje

samą procedurę pomiaru i  uznaje, że jego wynik odzwierciedla cechy

światła. Według Einsteina zjawisko jest obiektywne tylko wtedy, gdy

nie zależy od tego, w  jaki sposób je mierzymy i  obserwujemy. Rosen

konkluduje: „Einstein wierzył, że istnieje taka wiedza, immanentnie

zawarta w  danej rzeczy i  niezależna od sposobu, w  jaki została

uzyskana. Bohr uważał ten pogląd za «klasyczny», niezgodny

z  kwantowym modelem rzeczywistości, który zawsze wymaga

określenia kontekstu i  zawsze zawiera niepodzielną wiedzę na temat

[23]
tego kontekstu” .

Sformułowana przez Bohra zasada komplementarności nie jest

jedynie interesującym elementem jego sporu naukowego z Einsteinem.

Przekonamy się, że ma ona decydujące znaczenie dla zrozumienia luki

pomiędzy umysłem a mózgiem.

[1]
Royal Institution (właśc. The Royal Institution of Great Britain) –

  brytyjskie stowarzyszenie naukowo-edukacyjne, założone w  1799

roku, zajmujące się popularyzacją nauki oraz prowadzeniem badań

naukowych (przyp. tłum.).

[2]
Tyndall, 1871, s. 119.

[3]
Levine, 2001, s. 6.

[4]
Ibidem, s. 87.

[5]
Chalmers, 1995.

[6]
Tyndall, 1879.

[7]
James, 1890, s. 97.

[8]
Ibidem, s. 95.
[9]
Ibidem.

[10]
Stukeley, 2010.

[11]
  http://www.newtonproject.sussex.ac.uk/catalogue/record/THEM0

0167.

[12]
Clausius, 1867.

[13]
Planck, 1901, s. 553.

[14]
Kragh, 2000, s. 31.

[15]
Piazza i in., 2015.

[16]
Feynman, 1979.

[17]
Feynman, 1964.

[18]
Von Neumann, 1955.

[19]
Feynman, 1964.

[20]
Baggott, 2013, tłum. Joanna i Adam Skalscy, s. 132.

[21]
Ibidem.

[22]
Rosen, 1996, s. 203.

[23]
Ibidem.
ROZDZIAŁ VIII
Od materii nieożywionej do ożywionej, od neuronów do
umysłu
Na początku nieba i ziemi nie było symboli. Symbole wyszły z łona materii.
– Laozi
Ważny etap w rozwoju ludzkiej myśli zostanie osiągnięty wtedy, gdy to, co fizjologiczne, i to, co
psychiczne, to, co obiektywne, i to, co subiektywne, połączy się w jedno.
– Iwan Pawłow

W dążeniu do głębszego zrozumienia materii fizycy natknęli się na

komplementarność –  ideę, że wszelka materia może istnieć

równocześnie w  dwóch stanach. Zaakceptowanie tej dwoistości

przesunęło granice fizyki, ale to nie wszystko. Trzeba było nowego

sposobu myślenia –  wyjścia poza wyobrażenia oparte na naszych

doświadczeniach zjawisk naturalnych – aby zrozumieć świat naturalny.

Dziś nowego sposobu myślenia i  nadzwyczajnej wyobraźni potrzebują

ci, którzy badają dualizm umysł–mózg. Potrzebujemy kogoś, kto potrafi

wyjść poza liczące dwa i  pół tysiąca lat schematy, pełne intuicyjnych

przekonań i  obiegowych mądrości. Potrzebujemy kogoś, kto zmagał się

z  zawirowaniami współczesnej fizyki i  kto docenia wagę

komplementarności. Kogoś, kto uważa, że kilka ostatnich tysiącleci

zostało zmarnowanych przez filozofów poszukujących odpowiedzi

w  niewłaściwym miejscu –  w ewolucyjnie zaawansowanym ludzkim

mózgu. Potrzebujemy kogoś takiego, jak Howard Pattee –  fizyk

wykształcony na Uniwersytecie Stanforda, który zajął się biologią

teoretyczną w  trakcie swej oszałamiającej kariery naukowej na

Uniwersytecie Stanu Nowy Jork w  Binghamton. Pattee, bystry

obserwator ludzkiej myśli, uważa, że filozofowie zabierali się do


problemu luki pomiędzy umysłem a  mózgiem od niewłaściwego końca

[1]
ewolucji . W  ciągu swojego życia Pattee doszedł do zdumiewającego

wniosku: dualizm jest konieczną i nieodłączną własnością każdej istoty

zdolnej do ewolucji.

Howard Pattee nie zawraca sobie głowy luką pomiędzy materialnym

mózgiem a  niematerialnym umysłem. Sięga dużo głębiej. Pierwotna

luka –  prawdziwe źródło problemu –  istniała na długo przed

powstaniem mózgu. Matką wszystkich luk jest ta pomiędzy materią

nieożywioną a materią ożywioną. Za-sadniczy problem sięga początków

życia na Ziemi. Nie powinniśmy skupiać się wyłącznie na różnicy

między fizycznym mózgiem a eterycznym umysłem. Musimy zrozumieć

różnicę między konglomeratem materii, który wytwarza obiekt

nieożywiony, a  takim, z  którego powstaje istota żywa. Luka pomiędzy

tym, co żywe, a  tym, co nieożywione, leży u  podstaw przepaści między

umysłem a  mózgiem i  stanowi ramy, w  których możemy się zmierzyć

z problemem umysł–ciało.

Potrzeba trochę czasu, aby przyzwyczaić się do idei Patteego,

a  ponadto jego teza niesie ze sobą ważną przestrogę: jeśli chcemy

zrozumieć ideę świadomości, czegoś w  pełni uformowanego

w  ukształtowanych ewolucyjnie układach ożywionych, to najpierw

musimy zrozumieć, co sprawia, że układ ożywiony jest żywy i zdolny do

ewolucji. Co takiego się wydarzyło, co rozdzieliło całą materię na dwie

części: ożywioną i  nieożywioną? Większość nas zastanawia się nad

problemem „życia powstającego z  materii” przez kilka sekund,

a  następnie porzuca go jako nazbyt trudny i  wraca do swoich

codziennych spraw, aby poszturchiwać i mierzyć to, co ma akurat przed

sobą. Większość, ale nie Pattee. Kwestia początków życia

zafascynowała go już wtedy, gdy był nastolatkiem i  pierwszy raz

zamoczył palce w wodach nauki – w szkole z internatem pod koniec lat

trzydziestych XX wieku. Jego wychowawca i  nauczyciel przedmiotów


ścisłych, Paul Luther Karl Gross, dał mu pewną książkę do

przeczytania podczas letnich wakacji. Nie była to typowa lekka

wakacyjna lektura, lecz dzieło The Grammar of Science (Gramatyka

nauki; wydana pierwszy raz w  1892 roku) autorstwa Karla Pearsona,

znakomitego matematyka i statystyka.

Pattee zastanawiał się, dlaczego podarowano mu nieaktualną –  jak

się wyda-wało –  książkę, napisaną jeszcze przed powstaniem teorii

kwantowej. W  rozdziale Związek biologii z  fizyką znalazł jednak

pytanie, które miało go inspirować przez dziesięciolecia: „Jak możemy

odróżnić materię ożywioną od nie-ożywionej, skoro jedną i  drugą

[2]
opisujemy w  kategoriach ruchu nieorganicznych cząstek?” Pattee

dostrzegł logikę tego pytania, ale zauważył także, że przywołanie tych

samych praw do opisu materii ożywionej i  nieożywionej nie jest

wystarczająco dobrym wyjaśnieniem. Tak naprawdę to niczego nie

wyjaśniało. W tej historii musiało kryć się coś więcej.

Ból głowy mechaniki kwantowej


Pattee miał szczęście, że trafił mu się tak wyjątkowy wychowawca.

Doktor Gross pobudzał swoich uczniów do myślenia, zabierając ich na

ważne wydarzenia naukowe, takie jak wieczorne wykłady noblisty

Linusa Paulinga w  Caltech. Pewnego wieczoru Pattee usłyszał, jak

Pauling opisuje słynny paradoks kota Schrödingera – ideę, że kot może

być równocześnie żywy i martwy. Oto on: pewien kot zostaje zamknięty

w  stalowej komorze wraz z  odrobiną substancji radioaktywnej oraz

licznikiem Geigera, służącym do pomiaru promieniowania

emitowanego przez tę substancję. Ze względu na szybkość rozpadu

promieniotwórczego tej substancji istnieje pięćdziesięcioprocentowa

szansa na to, że w ciągu godziny ani jeden atom nie ulegnie rozpadowi.

Oczywiście zachodzi również pięćdziesięcioprocentowe


prawdopodobieństwo tego, że któryś atom się rozpadnie, a  jeśli tak się

stanie, to w  cylindrze licznika Geigera nastąpi wyładowanie.

W  wymyślonej przez Schrödingera instalacji wyładowanie w  liczniku

Geigera uwolni młotek, który rozbije butelkę z kwasem pruskim, a ten

zabije kota. Dzięki tej skomplikowanej konstrukcji otrzymujemy

scenariusz, w którym istnieje pięćdziesięcioprocentowa szansa na to, że

po upływie godziny kot będzie nadal żył, i  takie samo

pięćdziesięcioprocentowe prawdopodobieństwo tego, że będzie martwy.

To dziwne, ale zupełnie oczywiste. Tymczasem w mechanice kwantowej

tego zjawiska nie wyrażono by w  kategoriach prawdopodobieństwa

dwóch wyników, lecz jako coś, co nazywamy funkcją Ψ (psi) –  opis

całego stanu kwantowego tego układu. W  wypadku funkcji psi

nieszczęsnego kota Schrödingera żywy kot i  martwy kot byłyby

rozmazane na wykresie w  równych proporcjach! Pattee słuchał

oszołomiony. Jak to możliwe, że mechanika kwantowa, teoria, która

z  taką mocą wyjaśniała całą chemię i  większość fizyki, stworzyła coś

tak niedorzecznego, jak problem kota Schrödingera? Tamtego wieczoru

Pattee wyruszył w  trwającą przez całe życie podróż w  poszukiwaniu

rozwiązania tego dylematu.

Zagadkę, nad którą głowił się młody Pattee, określa się mianem

proble-mu pomiaru. W  rozdziale siódmym była mowa o  tym, że

układ kwantowy ma połączone w  pary, komplementarne własności,

których nie można mierzyć równocześnie. Pomiar stwarza dodatkowe

problemy na poziomie kwantowym –  z trzech powodów. Po pierwsze,

dokonanie pomiaru wymaga obecności obserwatora –  podmiotu

odrębnego od obiektu, który jest mierzony. Po drugie, procesem

pomiaru (który jest nieodwracalny) nie rządzą klasyczne prawa fizyki.

Po trzecie, niektóre aspekty pomiaru są arbitralne –  obserwator

wybiera, kiedy, gdzie i  co zmierzyć oraz przy użyciu jakich symboli

(które same w  sobie są arbitralne) przedstawić wyniki pomiaru.


Pomiar jest procesem selektywnym, w  którym pomija się większość

aspektów mierzonego zjawiska. Powiedzmy, że chcę opisać ciebie. Jaki

pomiar powinienem wybrać, aby dobrze cię przedstawić? Decyduję się

na masę ciała. Dokonam jednego pomiaru wagi i przez całe twoje życie

będę cię opisywać przy użyciu otrzymanej wartości. Kiedy powinienem

dokonać tego pomiaru? W niemowlęctwie? Kiedy osiągniesz dorosłość –

  w wieku dwudziestu, trzydziestu pięciu, a  może sześćdziesięciu lat?

Dzień przed Świętem Dziękczynienia? Który pomiar będzie najbardziej

repre-zentatywny? Czy sama waga jest dobrą miarą tego, jaki jesteś?

A może lepiej zmierzyć wagę i wzrost równocześnie? Sam pomiar może

być dokładny i  obiek-tywny, ale proces pomiaru ma charakter

subiektywny.

Proces mierzenia jest arbitralny, co oznacza, że nie można go opisać

przy użyciu obiektywnych praw – ani kwantowych, ani klasycznych. To

problem całej fizyki, a  nie tylko jej odmiany kwantowej. Aby

sformułować przewidywania dotyczące przyszłego stanu danego

układu, fizyk musi poznać jego warunki początkowe. Jak to zrobić?

Poprzez zmierzenie warunków początkowych tego układu. Ów pomiar

jest jednak arbitralny, a  dokonując go, fizyk ingeruje w  warunki

początkowe. Determiniści często ignorują subiektywność pomiaru

początkowego, gdy zakładają, że świat jest całkowicie przewidywalny.

Od tego problemu nie ma jednak ucieczki. Niezależnie od tego, jak

bardzo się starasz być obiektywnym obserwatorem, przez sam fakt

dokonywania pomiaru wprowadzasz do układu element

subiektywizmu. Problem pomiaru zadaje fizyce potężny cios, ale może

się okazać właśnie tym, czego potrzebuje neuronauka.

Schnitt a geneza życia


Fizycy określają ów nieunikniony rozdział podmiotu (tego, kto mierzy)

od przedmiotu (tego, co jest mierzone) mianem die Schnitt –  cięcie.

(Cóż za wspaniałe słowo!) Pattee nazywa „ten nieunikniony rozdział

konceptualny między poznającym a  poznawanym, lub też między

symbolicznym zapisem zdarzenia a  samym zdarzeniem, rozcięciem

[3]
epistemicznym” . Mamy świat działań, któ-ry istnieje po stronie

obserwatora, wraz ze sporządzonym przezeń zapisem danego

zdarzenia. Istnieje również odrębny świat działań, po stronie samego

zdarzenia. Wydaje się to zagmatwane, pomyśl jednak o  luce

eksplanacyjnej pomiędzy twoim subiektywnym doświadczeniem

jakiegoś zdarzenia (cudownie się bawiłem, pływając w  oceanie)

a samym zdarzeniem (ktoś poszedł popływać w oceanie). Możesz także

pomyśleć o  luce eksplanacyjnej pomiędzy subiektywnym

doświadczeniem (to świetna zabawa) a tym, co się dzieje w mózgu (nie-

które neurony były aktywne, kiedy ten ktoś pływał w  oceanie).

Wszystko to są warianty komplementarności podmiot–przedmiot, jaką

obserwuje się w  fizyce. A  teraz najlepsze: kto powinien mierzyć

zdarzenia? Czy do zbadania różnicy między subiektywnym

doświadczeniem danej osoby a  obiektywną rzeczywistością

potrzebujemy naukowca? A kto zmierzy naukowca?

Pattee zwraca uwagę, że ani teoria klasyczna, ani kwantowa nie

podaje formalnej definicji podmiotu –  obserwatora, który decyduje

o  tym, co jest mierzo-ne. Fizyka nie mówi nam więc, gdzie wykonać

[4]
rozcięcie epistemiczne . Do pomiaru kwantowego nie potrzeba jednak

fizyka obserwatora. Pattee uważa, że takich pomiarów mogą

dokonywać również inne podmioty. Tę funkcję mogą na przykład pełnić

enzymy (takie jak polimerazy DNA), które mogłyby przeprowadzać

[5]
pomiary kwantowe w  trakcie procesu replikacji komórki . Nie

potrzeba do tego ludzkiego obserwatora.


Niedorzeczność problemu kota Schrödingera, z  którą nawet

nastoletni Pattee nie chciał mieć nic wspólnego, nie tkwiła w  samym

kocie ani w  liczniku Gei-gera, ale w  ludziach przeprowadzających ten

dziwaczny eksperyment. W  tym eksperymencie myślowym kot jest

opisany jako funkcja falowa psi –  równo-cześnie martwy i  żywy. Taka

sytuacja utrzymuje się do chwili, gdy otwieramy pudełko i dokonujemy

pomiaru, czyli obserwujemy, czy kot jest żywy, czy martwy –  ale nie

jedno i  drugie równocześnie. Wynik ingerencji związanej z  po-miarem

(otwarcia pudełka) wydaje się natychmiastowy i  nieodwracalny,

a fizyczna reprezentacja tego wyniku (żywego kota lub martwego kota)

jest arbi-tralna. Ale jak to możliwe, skoro – jak zakładamy – wszystkie

zdarzenia na poziomie mikroskopowym przebiegają zgodnie

z  odwracalnymi, dynamicznymi prawami kwantowymi (na przykład

równaniem Schrödingera)? Pattee zauważa, że tym, co uniemożliwiło

poznanie stanu kota Schrödingera przed jego za-obserwowaniem, był

nieodpowiedni model pomiaru. Wyjaśnia: „To przekona-nie, że ludzka

świadomość wywołała kolaps owej funkcji falowej, doprowadziło do

[6]
powstania paradoksu kota Schrödingera” . Tak naprawdę Schrödinger

napisał scenariusz eksperymentu z  kotem w  pudełku, aby zilustrować

niedorzeczność tej idei. Miał nadzieję wykazać, że superpozycja

kwantowa nie występuje w  wypadku dużych obiektów, takich jak koty

(a także psy czy ty albo ja, jeśli już o tym mowa).

Schrödinger sobie z nas zażartował. Próbował pokazać, że w naszym

rozumowaniu czegoś brakuje. Pattee zrozumiał jego intencje (już

w  szkole średniej) i  postanowił zmierzyć się z  tym problemem. Gdzie

należy umiejscowić rozcięcie, lukę, die Schnitt? Zafascynowany

pochodzeniem życia, zdał sobie sprawę, że ludzka świadomość jest

warstwą położoną o  wiele za wysoko w  architekturze wszystkich

żywych organizmów, aby rozcięcie epistemiczne mogło przebiegać

między obserwatorem a  tym, co obserwowane –  pomiędzy


subiektywnym doświadczeniem a  samym zdarzeniem. Niezliczone

warstwy dzielą cząstki subatomowe od ludzkiego mózgu. Mnóstwo

warstw dzieli cząstki subatomowe od mózgów w  ogóle (mózgu kota,

myszy, muchy czy robaka). Umiej-scowienie głównego rozcięcia

epistemicznego tak wysoko doprowadziło do nonsensu kota

Schrödingera, traktowanego jako układ kwantowy. Pattee niczego nie

owijał w  bawełnę: „Przyjąłem pogląd, że pytanie o  to, co stanowi

obserwa-cję w  mechanice kwantowej, musi się pojawić na długo przed

tym, nim dotrzemy do złożoności mózgu. De facto uważam (…), że luka

pomiędzy zachowaniem kwantowym a  klasycznym jest nieodłączną

[7]
częścią podziału na materię nieożywioną i ożywioną” .

No proszę. Według Patteego owa luka jest wynikiem procesu

odpowiada-jącego pomiarowi kwantowemu, który rozpoczął się wraz

z  autoreplikacją od momentu powstania życia i  w którym pojedyncza

[8]
komórka pełni funkcję najprostszego podmiotu . Rozcięcie

epistemiczne, rozdział między podmiotem a  przedmiotem, luka

pomiędzy umysłem a  materią –  wszystkie one wywodzą się z  tego

pierwotnego rozcięcia w  początkach życia. Przepaść między

subiektywnym doświadczeniem a  obiektywną aktywnością neuronalną

nie powsta-ła wraz z  pojawieniem się mózgu. Istniała już wtedy, gdy

rozpoczęło się życie pierwszej komórki. Komplementarne tryby

działania –  dwa poziomy opisu –  są nieodłączną częścią samego życia,

istniały u  jego zarania, zostały zachowane przez ewolucję i  nadal są

nieodzowne do tego, by odróżnić subiektywne doświadczenie od samego

zdarzenia. To zadziwiająca idea.

Życie w symbolach – von Neumann wskazuje drogę


Materia ożywiona wydaje się czymś zupełnie innym niż materia

nieożywiona, choć obie są zbudowane z  takich samych elementów.


Dlaczego materia ożywiona różni się od nieożywionej? Czy po prostu

oszukuje, w  jakiś sposób naruszając prawa fizyki, które –  jak

zdołaliśmy dociec –  rządzą materią nieoży-wioną? Według Patteego

tym, co odróżnia materię ożywioną od nieożywionej, jest zdolność do

replikacji i  do ewoluowania w  czasie. Czego zatem potrzeba, aby

materia mogła się powielać i ewoluować?

John von Neumann był pochodzącym z  Węgier geniuszem

matematycznym i  elektryzującym bon vivantem. Jego osiągnięcia

intelektualne były równie wielkie, jak jego apetyt na życie. Urodził się

w  arystokratycznej rodzinie żydowskiej w  Budapeszcie, ale tuż przed

śmiercią otrzymał ostatnie namaszczenie od katolickiego księdza. Jak

[9]
żartobliwie wyjaśniał, przyjął zakład Pascala . Wcześniej zaś

przeniósł się do Instytutu Studiów Zaawansowanych w  Princeton,

gdzie, jak powiadano, doprowadzał Einsteina do szału, odtwarzając na

cały regulator niemiecką muzykę marszową na swoim gramofonie.

W tamtych czasach panował klimat wielkiego ożywienia

intelektualnego. W  1943 roku w  Dublinie Schrödinger wygłosił swój

historyczny wykład, zatytułowany „Czym jest życie”, w  którym

przedstawił tezę, że pewien „zakodowany scenariusz” jest zapisany

w  mechanizmach molekularnych żywej komórki. Pod koniec lat

czterdziestych XX wieku również von Neumann postanowił zmierzyć

się z  zagadką życia. W  tym celu przeprowadził pewien eksperyment

myślowy. Czym jest życie? Hmm, co robią istoty żywe? Jedna

z  odpowiedzi brzmi: rozmnażają się. Życie wytwarza jeszcze więcej

życia. Logika podpowiadała mu jednak, że „to, co się naprawdę dzieje,

jest o  stopień lepsze niż tylko autoreprodukcja, gdyż organizmy –  jak

się wydaje –  z biegiem czasu stawały się coraz bardziej

[10]
skomplikowane” .

Życie zajmowało się czymś więcej niż tylko wytwarzanie następnego

życia. Mogło się stawać coraz bardziej złożone – mogło ewoluować. Von
Neumanna w  coraz większym stopniu interesowało to, czego –

  logicznie rzecz biorąc –  wymagałaby zdolna do ewolucji,

autonomiczna, autoreplikująca się maszyna (automat), gdyby

umieszczono ją w  środowisku, z  którym mogłaby wchodzić

w  interakcje. Logiczny tok myślenia przywiódł go do wniosku, że taki

automat potrzebuje opisu, w  jaki sposób ma się skopiować, a  także

opisu tego, jak skopiować ten opis, aby móc go przekazać kolejnemu,

nowo powstałemu automatowi. Oryginalny automat potrzebował też

mechanizmu umożliwiającego budowanie i  kopiowanie. Potrzebował

informacji i  konstrukcji. To wszystko odnosiło się jednak tylko do

replikacji. Von Neumann uznał, że trzeba coś dodać, aby automat mógł

się rozwijać ewolucyjnie – zwiększać stopień swojej złożo-ności. Doszedł

do wniosku, że potrzebny jest symboliczny samoopis, genotyp,

struktura fizyczna niezależna od struktury opisywanej, czyli od

fenotypu. Powiązanie symbolicznego opisu z  tym, czego on dotyczy,

wymagałoby pewnego kodu. Teraz automat von Neumanna byłby

zdolny do ewolucji. Za chwilę zrozumiemy dlaczego.

Okazało się, że von Neumann trafił w sedno. Trafnie przewidział, jak

replikują się komórki, zanim opisali to Watson i  Crick. Od samego

początku, u  zarania życia, na poziomie pojedynczej cząsteczki, jeszcze

zanim matka natura stworzyła DNA, zdolna do ewolucji autoreplikacja

zależała od dwóch czyn-ników: (1) od zapisywania i  odczytywania

dziedzicznych rekordów (zapisów), które istniały w  formie

symbolicznej, oraz (2) od wyraźnego rozróżnienia między opisem

a  procesem konstrukcji. Po przeprowadzeniu tego niewielkiego

eksperymentu myślowego von Neumann zostawił swoje zadanie

wykonane tylko w  połowie. Pominął warunki fizyczne niezbędne do

realizacji zaproponowanego przezeń modelu. Tymczasem na scenę

wkroczył Pattee, zacierając ręce, i podjął to wyzwanie.


Fizyka symboli – Pattee prze naprzód
Na ogół myślimy o  symbolach jako czymś abstrakcyjnym, a  nie czymś,

czym zajmuje się fizyka. Jako naukowcy jesteśmy jednak bytami

fizycznymi poszukującymi fizycznych dowodów zgodnych z  zasadami

i  prawami fizyki. Musi istnieć fizyczna manifestacja symboli von

Neumanna. To, co Pattee nazywa fizyką symboli, stwarza pewne

problemy. Pierwszy problem tkwi w  zapisywa-niu i  odczytywaniu

dziedzicznych rekordów –  w opisie informacyjnym. Opis obejmuje

proces rejestrowania (utrwalania), a  jak pamiętamy z  poprzedniego

podrozdziału, każdy rekord (zapis) jest nieodwracalnym pomiarem,

który wymaga podmiotu mierzącego. Pattee zdał sobie sprawę, że opis

informacyjny w  początkach życia napotyka problem pomiaru, znany

z  mechaniki kwantowej. Pomiary są subiektywne, co oznacza, że nie

można ich opisać za pomocą obiektywnych praw – ani kwantowych, ani

klasycznych. Każde żywe stworze-nie, które rejestruje informacje,

wprowadza do układu pewną formę subiektywizmu.

Drugim problemem jest zależność między genotypem a  fenotypem.

Weźmy na przykład DNA: genotyp to sekwencja DNA, która zawiera

instrukcje dla żywego organizmu. Fenotyp to obserwowalne cechy

organizmu –  jego anatomia, biochemia, fizjologia i  zachowanie.

Genotyp wchodzi w  interakcję ze środowiskiem, aby wytworzyć

fenotyp. Rozważmy to na przykładzie sytuacji z  życia codziennego:

wyobraźmy sobie projekt domu jako genotyp, a  prawdziwy dom –  jako

fenotyp. Procesem konstrukcji fenotypu jest budowa domu na

podstawie projektu jako informacji na temat tego, co zrobić i  w jaki

sposób. Fenotyp jest powiązany z  genotypem, który go opisuje, ale

istnieje ogromna fizyczna różnica pomiędzy genotypem i  fenotypem,

a  nawet procesem konstrukcji fenotypu. Po pierwsze, genotyp nie jest

dynamiczny. To statyczna, jednowymiarowa sekwencja symboli


(symbolami DNA są nukleotydy), która nie ma żadnych ograniczeń

energetycznych ani czasowych. Podobnie jak projekt czy plan, może

leżeć i  czekać przez wiele lat, o  czym wiedzą wszyscy, którzy oglądali

serial CSI. Genotyp dyktuje, co należy zbudować –  na przykład

milutkiego psa –  ale samo DNA ani trochę nie przypomina milutkiego

psa z  wyglądu ani zachowania. Tymczasem fenotyp (milutki pies) jest

dynamiczny i zużywa energię, zwłaszcza jeśli jest to border collie.

Proces konstrukcji fenotypu również jest powiązany z  genotypem.

Podobnie jak projekt domu ogranicza budowniczego, nie pozwalając mu

dobudować fikuśnych wieżyczek, genotyp ogranicza liczbę ogonów, jaką

będzie miał nasz milutki pies. Jak to wszystko jest powiązane? Jaka

jest zależność między projektem, domem oraz –  pomiędzy jednym

a  drugim –  wylewaniem betonu i  wbijaniem gwoździ? Dziedziczne

zapisy zawierają nie tylko informacje na temat tego, co zbudować, lecz

także informacje określające, jak to zrobić. Informacje „co” i  „jak”

zostały w  jakiś sposób zarejestrowane w  postaci symbolicznej. Istnieje

luka pomiędzy subiektywnie zarejestrowanym symbolem (genotypem)

a  procesem konstrukcji fenotypu i  samym fenotypem. Aby proces

budowy mógł się rozpocząć, trzeba przełożyć symbole na ich znaczenie.

W  architekturze warstwowej byłby to protokół między dwiema

warstwami. Pattee uważa, że właśnie z  interfejsu kontrolnego między

tymi dwiema warstwami powstało rozcięcie epistemiczne. W  wypadku

DNA mostem łączącym genotyp z  fenotypem jest kod genetyczny.

W  wypadku projektu domu takim mostem jest wykonawca budowlany,

który przekłada projekt na język zrozumiały dla pracujących na

budowie robotników.

Pattee rozszerzył logikę von Neumanna, wysuwając tezę, że same

symbole, które tworzą instrukcję (dziedziczny zapis), muszą mieć

pewną strukturę materialną i  że owa struktura w  trakcie procesu

konstrukcji fenotypu (budo-wy nowego automatu) ogranicza ten proces


w  sposób zgodny z  prawami New-tona. Nie ma w  tym żadnych

magicznych sztuczek. Te symbole są rzeczywistymi fizycznymi

strukturami –  łańcuchem nukleotydów, które rządzą się klasycznymi

prawami fizyki.

A teraz najlepsze: symbol – niezależnie od tego, czy jest to sekwencja

nukleotydów w  DNA, sekwencja znaków w  alfabecie Morse’a, czy też

sekwencja symulacji mentalnych – zawsze jest arbitralny. Arbitralność

symboli łatwo zrozumieć na przykładzie nieustannie się zmieniającego

świata slangu. Na przykład „siano”, „kabona” i  „hajs” to popularne,

choć arbitralnie wybrane symbole pieniędzy. Każdy język ma własny

zbiór symboli, jak zauważył komik Steve Martin, gdy ostrzegał

wszystkich wybierających się do Paryża: „Chapeau znaczy kapelusz,

[11]
oeuf znaczy jajko. Ci Francuzi na każdą rzecz mają inne słowo” .

Problem w  tym, że u  Newtona nic nie jest arbitralne. Gdyby

nieelastyczne prawa Newtona rządziły symbolami, to wszyscy ludzie –

  na całym świecie –  używaliby tego samego słowa jako reprezentacji

pojęcia pieniędzy, za każdym razem i  po wieczne czasy. Niefortunnie

dla Newtona istnieją niezliczone symbole, które można wybrać jako

nośnik informacji. Każdy ma inne właściwości, inne zalety i  wady,

a  ponieważ symbole są odrębne od tego, co reprezentują, nie ma tutaj

relacji „jeden do jednego”.

Możesz się nie zgodzić z twierdzeniem, że DNA jest arbitralny w taki

sam sposób, jak język, i  stwierdzić, że przecież istnieją ograniczenia

fizjochemiczne. Wybór symbolu nie odbywa się jednak zgodnie

z  prawami fizyki, lecz według pewnej reguły: „Wybierz symbol, który

niesie ze sobą informacje najbardziej użyteczne dla danego układu

i  najbardziej rzetelne (stabilne)”. Jak się wkrótce przekonamy,

elementy składowe samego DNA zostały wyselekcjonowane spośród

grupy konkurentów, ponieważ skuteczniej ograniczały funkcję układu,

do którego DNA należy. A  jeśli informacje są stabilne, to można je


przekazywać. Obecne komponenty DNA są czymś, co Pattee określa

mianem „zastygłych przypadków”. Dzisiejszy symbol odzwierciedla

historię swoich udanych wersji –  w różnych okresach (niezależnie od

czasu) –  nie zaś historię swych najnowszych działań. Wracając do

pieniędzy, jeśli zaledwie kilka osób nazywa je „baśkami”, to ów symbol

nie jest stabilny, a  co za tym idzie –  nie będzie wybrany

i przekazywany dalej.

To trochę zagmatwane, ponieważ w  świecie społecznym słowa

„reguły” i  „prawa” (lub „zasady”) często są używane zamiennie. Na

przykład reguły dotyczące ruchu drogowego bywają nazywane

prawami. Pattee wyjaśnia, że w  przyrodzie istnieje zasadnicza

[12]
i  niezwykle ważna różnica między prawami a  regułami . Prawa są

bezwzględne i  nieuniknione. Nie możemy zmienić ani obejść praw

natury. Prawa natury decydują o  tym, że samochód pozostanie

w  ruchu do czasu, gdy zatrzyma go siła o  takiej samej wartości i  o

przeciwnym zwrocie lub gdy skończy mu się energia. Ponadto prawa są

uniwersalne –  obowiązują w  każdym czasie i  miejscu. Prawa ruchu

obowiązują niezależnie od tego, czy jesteśmy w  Szkocji, czy

w Hiszpanii.

Tymczasem reguły są arbitralne i  można je zmieniać. Na Wyspach

Bry-tyjskich obowiązuje reguła jazdy po lewej stronie drogi. W Europie

kontynentalnej reguła jest inna: jeździ się po prawej stronie.

Egzekwowanie reguł zależy od pewnej struktury lub od zewnętrznej

siły ograniczającej. W  tym wypadku taką strukturą jest policja,

karząca mandatami tych, którzy łamią regułę, jeżdżąc po niewłaściwej

stronie. Reguły są lokalne, co oznacza, że mogą istnieć tylko w miejscu

i  czasie, w  którym obecne są fizyczne struktury zdolne do ich

egzekwowania. Jeśli mieszkasz w samym środku australijskiego buszu,

to ty decydujesz. Możesz jeździć po dowolnej stronie drogi. Nie ma

żadnej struktury, która by cię ograniczała. Reguły są lokalne, a  przy


tym można je zmieniać i  łamać. Symbol rządzony określoną regułą

zostaje wybrany ze zbioru konkurencyjnych symboli, ponieważ lepiej

niż inne ogranicza funkcję układu, do którego należy, co skutkuje

powstaniem bardziej udanego fenotypu. Selekcja jest elastyczna, prawa

Newtona –  nie. W  swojej roli informacyjnej symbole nie są zależne od

praw fizycznych, które rządzą energią, czasem i  tempem zmian. Nie

respektują praw Newtona. Nie przestrzegają praw, lecz postępują

zgodnie z regułami. To oznacza, że symbole nie są na stałe związane ze

swoimi znaczeniami.

Symbole prowadzą podwójne życie, z  dwoma komplementarnymi

sposobami opisu, zależnymi od zadania, jakie wykonują. W  jednym

życiu symbole są zbudowane ze składników fizycznych (DNA składa się

z  wodoru, tlenu, węgla, azotu i  fosforanów), które respektują prawa

Newtona i  ograniczają proces konstrukcji poprzez jego fizyczną

strukturę. W  drugim życiu –  jako nośniki informacji –  symbole nic

sobie nie robią z  tych praw. Podwójne życie symboli do tej pory było

w  dużej mierze ignorowane. Badacze zainteresowani przetwarzaniem

informacji lekceważą obiektywny aspekt materialny –  fizyczną

manifestację symbolu. Biolodzy molekularni i  determiniści,

zainteresowani wyłącznie stroną materialną, ignorują subiektywny

aspekt symboliczny. Ograniczając się tylko do jednego aspektu, ani

jedni, ani drudzy nie badają pełnej, komplementarnej natury symboli.

Wielka szkoda. Co gorsza, jest to absurd nau-kowy, ponieważ –  jak

wspomniałem wcześniej –  aby autoreprodukująca się, zdolna do

ewolucji forma życia mogła istnieć, symbole fizyczne muszą odgry-wać

obie role. Pattee twierdzi, że każda z  nich z  osobna jest

niewystarczająca. Zignorowanie jednej ze stron skutkuje utratą całego

połączenia. Pattee stwierdza śmiało: „Właśnie to naturalne połączenie

symbolu z  materią odróżnia życie od nieożywionych układów

[13]
fizycznych” .
Kod genetyczny jest prawdziwym kodem
Aby lepiej zrozumieć połączenie symbolu z materią oraz jego implikacje

dla naszych dociekań, przyjrzyjmy się bliżej DNA, który jest

najlepszym przykładem struktury symbol–materia w  układzie

ożywionym. Najpierw jednak potrzebujemy krótkiego wprowadzenia do

biosemiotyki, aby pojąć rolę symboli w  układach ożywionych. Naszym

przewodnikiem będzie Marcello Barbieri, biolog teoretyczny

z Uniwersytetu w Ferrarze.

Semiotyka jest nauką o  znakach (czyli symbolach) oraz ich

znaczeniu. Jej podstawowym założeniem jest idea, że znak – z definicji

– zawsze jest po-wiązany z jakimś znaczeniem. Jak pokazał nam Steve

Martin (i jego problemy w  Paryżu), nie istnieje deterministyczny

związek między znakiem a  jego znaczeniem. Jajko jest jajkiem,

niezależnie od tego, czy znajduje się w  Stanach Zjednoczonych, czy we

Francji, ale możemy je nazywać rozmaicie. Rzeczywisty obiekt jest

odrębny od swojej reprezentacji symbolicznej (dźwięku „jajko” albo

„oeuf”) i  od naszego rozumienia tego symbolu. Barbieri zauważa, że

związek między znakiem i jego znaczeniem powstaje za sprawą kodu –

  konwencjonalnego zbioru reguł, które ustanawiają relację

odpowiedniości pomiędzy znakami a  ich znaczeniem. Ów kod jest

wytworem pewnego podmiotu –  twórcy kodu (codemaker). Układ

semiotyczny powstaje z  chwilą, gdy codemaker tworzy kod. Tak więc –

  jak zauważa Barbieri –  „układ semiotyczny jest triadą obejmującą

znaki, znaczenia i  kod, przy czym wszystkie trzy są wytworem tego

[14]
samego podmiotu – tego samego twórcy kodu” .

Biosemiotyka jest nauką o znakach i kodach w układach ożywionych.

U  podstaw tej dyscypliny leży pogląd, że „istnienie kodu genetycznego

[15]
implikuje, iż każda komórka jest układem semiotycznym” . Według

Barbieriego współczesna biologia nie przyjęła tego podstawowego


założenia biosemiotyki, ponieważ w  samym sercu biologii są trzy idee

niezgodne z  tym założeniem. Pierwszą z  nich jest wyobrażenie żywej

komórki jako komputera. W tej metaforze geny (informacje biologiczne)

są spostrzegane jako oprogramowanie (software), a białka – jako sprzęt

(hardware). Komputery mają swoje kody, ale nie są układami

semiotycznymi, ponieważ ich kody są tworzone poza systemem, przez

zewnętrznego twórcę kodów, a  jak dowiedzieliśmy się nieco wcześniej,

układ semiotyczny zawiera w  sobie twórcę kodu. Podobnie, zgodnie

z  koncepcją komórki jako komputera, kod genetyczny został

opracowany przez twórcę spoza systemu –  przez dobór naturalny.

W  takim ujęciu istoty żywe nie są układami semiotycznymi, a  „kod

genetyczny” to tylko metafora.

Drugą kwestią sporną pomiędzy współczesną biologią

a  biosemiotyką jest fizykalizm –  idea, że wszystko można sprowadzić

do wielkości fizycznych. Biolodzy chcą, aby wszystkie obiekty (DNA,

cząsteczki, komórki, organizmy) przestrzegały praw rządzących ich

zachowaniem. Tymczasem kod semiotyczny zawiera w  sobie ów

niedeterministyczny, chwiejny aspekt reguł, nie zaś deterministycznych

praw fizycznych, które nierozerwalnie wiązałyby symbole z  ich

znaczeniem. Trzecim źródłem niezgody jest przekonanie (lub jego

brak), że wszystkie innowacje biologiczne są wynikiem doboru

naturalnego.

Barbieri twierdzi, że biolodzy pomijają kwestię o  zasadniczym

znaczeniu, kiedy przyjmują te podstawowe założenia, a  mianowicie

lekceważą pochodzenie życia. Ewolucja na drodze doboru naturalnego

wymaga kopiowania zapisów genetycznych i  budowania

(syntetyzowania) białek, ale te procesy również musiały się od czegoś

zacząć. Barbieri zwraca uwagę, że geny i  białka w  układach

ożywionych wyraźnie się różnią od wszystkich innych cząsteczek,

przede wszystkim dlatego, że powstają w zupełnie inny sposób.


Strukturę cząsteczek w  świecie nieorganicznym –  świecie

przedmiotów, takich jak komputery czy kamienie –  determinują

wiązania, które tworzą się spontanicznie pomiędzy ich atomami. Te

wiązania z  kolei są zdeterminowane przez czynniki wewnętrzne –

  cechy chemiczne i  fizyczne właściwe dla atomów. Szczęśliwy,

deterministyczny świat.

Sytuacja wygląda inaczej w  układach ożywionych. Geny to

skomplikowane łańcuchy nukleotydów, a  białka –  skomplikowane

łańcuchy aminokwasów. Te łańcuchy nie tworzą się spontanicznie

w  żywej komórce. To nie miłość od pierwszego wejrzenia przyciąga do

siebie ich elementy z  nieodpartą chemiczną mocą. W  tym procesie

bierze udział cała grupa cząsteczek, odrębny system złożony z  kwasu

rybonukleinowego (RNA) i łączników białkowych. Barbieri zauważa, że

ten fakt ma ważne implikacje dotyczące genezy życia.

Pierwotne „cząsteczki wiążące” (bondmakers) –  wczesne prekursory

systemu RNA, które łączą ze sobą nukleotydy –  powstały na długo

przed pojawieniem się pierwszych komórek, podobnie jak cząsteczki

wiążące, zdolne do łączenia nukleotydów według pewnego wzoru – czyli

„cząsteczki kopiujące” (copymakers). Cząsteczki wiążące i  kopiujące

powstały poprzez przypadkowe sortowanie cząsteczek. Pojawienie się

cząsteczek kopiujących było tym, co uruchomiło proces ewolucji. Dobór

naturalny powołał do istnienia żywe stworzenia, ale cząsteczki

niezbędne do ewolucji –  cząsteczki wiążące i  kopiujące –  istniały

jeszcze przed powstaniem życia.

Barbieri wyjaśnia, że „dobór naturalny jest długofalowym efektem

kopiowania molekularnego i  stanowiłby jedyny mechanizm ewolucji,

[16]
gdyby kopiowanie było jedynym mechanizmem życia” . Ale nie jest.

Geny mogą być matrycą dla samych siebie i samodzielnie się kopiować,

ale białka tego nie potrafią. Nie można wytworzyć białek poprzez

skopiowanie innych białek. Haczyk tkwi w  tym, że tylko te cząsteczki,


które potrafią się powielać, mogą być dziedziczone, dlatego informacje

na temat tego, jak wytwarzać białka, musiały pochodzić od genów.

Barbieri zauważa, że wyróżniającą cechą pierwszych wytwórców białek

„była zdolność do zapewnienia ścisłej odpowiedniości między genami

a  białkami, ponieważ bez niej nie byłoby specyficzności bio-logicznej,

a  bez specyficzności nie byłoby dziedziczności ani reprodukcji. Życie –

  takie, jakie znamy –  nie istniałoby bez ścisłej odpowiedniości między

[17]
genami a  białkami” . Owa ścisła odpowiedniość, o  której mówi

Barbieri, to kod. Kod musiał się pojawić pierwszy na tej scenie, przed

uruchomieniem procesu doboru naturalnego.

W tym miejscu napotykamy kwestię interesującą z  naszego punktu

widzenia: gdyby wspomniana odpowiedniość nie była kodem, lecz – jak

początkowo zakładano –  zjawiskiem zdeterminowanym przez

[18]
stereochemię , to byłaby automatyczna, a  co za tym idzie –

  deterministyczna. W  rzeczywistości jednak mechanizm wygląda

inaczej, co zaskoczyło biologów. Mostem pomiędzy genami

a  kodowanymi przez nie sekwencjami aminokwasów, które tworzą

białka, są cząsteczki transportowego RNA (tRNA). Mają one dwa

odrębne miejsca rozpoznawania –  jedno rozpoznaje określony kodon

(grupę trzech nukleo-tydów), a  drugie –  aminokwas. W  ten sposób

cząsteczka tRNA łączy odpowiedni kodon z aminokwasem. Można sobie

wyobrazić automatyczną odpowiedniość pomiędzy kodonem

a  określonym aminokwasem, gdyby jedno miejsce rozpoznawania

fizycznie determinowało, co ma się przyłączyć do dru-giego, ale tak nie

jest. Te dwa miejsca są od siebie niezależne i  fizycznie oddzielone.

Barbieri zauważa: „Nie istnieje konieczny związek pomiędzy kodonami

i  aminokwasami, a  odpowiedniość między nimi może wynikać jedynie

z  konwencjonalnych reguł. Krótko mówiąc, tylko prawdziwy kod może

zagwarantować specyficzność biologiczną, co oznacza, że kodu


genetycznego nie można lekceważyć, traktując go jako zwykłą metaforę

językową”.

Autor pozostawia nas z  konkluzją: „Komórka jest prawdziwym

układem semiotycznym, ponieważ zawiera w sobie wszystkie niezbędne

cechy takiego systemu: znaki, znaczenia i  kod –  wszystkie stworzone

[19]
przez tego samego twórcę kodów” .

Dysponujemy świeżutkimi, jeszcze ciepłymi dowodami

empirycznymi, które przemawiają za takim układem biochemicznym

i  zaprzeczają podstawowym koncepcjom współczesnej biologii.

Niedawno naukowcy odkryli, że głowonogi (rodzina zwierząt, do której

należy ośmiornica) potrafią edytować –  rekodować –  swój RNA.

Cząsteczki RNA mają przywilej ustalania kodów z DNA (w części RNA,

która rozpoznaje sekwencję trzech nukleotydów w  kodonie DNA),

a  także z  białkami (w części RNA, która rozpoznaje aminokwas).

Edytowanie RNA umożliwia budowanie nowych białek, mimo że

sekwencja symboli w  DNA pozostaje niezmieniona. Skutkuje to

zburzeniem odpowiedniości jeden do jednego pomiędzy genem

a  białkiem. Dzięki rekodowaniu jeden gen ośmiornicy może wytworzyć

[20]
różne typy białek z  tej samej sekwencji DNA . To ważne odkrycie –

  dowód przeciwko trzem koncepcjom skłaniającym biologię do

odrzucenia idei układów semiotycznych w  świecie ożywionym. Układ

może zmieniać swój kod. Układ ma wewnętrznego twórcę kodów, który

mo-że wytwarzać innowacje biologiczne –  nowe białka –  ale nie na

drodze doboru naturalnego. Ilustruje to arbitralność połączenia

symbolu z jego znaczeniem w układzie ożywionym.

Jeśli symbole w  układach ożywionych są arbitralne, a  RNA jest

twórcą kodów, to skąd tak wielkie zainteresowanie DNA? Dlaczego to

DNA od setek milionów lat ma monopol na symbolikę cząsteczkową?

W  swym aspekcie fizycznym DNA jest nadzwyczaj stabilny

strukturalnie –  w odróżnieniu od RNA. To dlatego DNA od początku


ewolucji pozostaje strukturą symboliczną z  wyboru. Ale choć DNA

w  naszych komórkach i  w komórkach innych żywych organizmów jest

dzisiaj bardzo stabilny, wcale taki nie był u  zarania życia. Na skutek

losowego tasowania i sortowania cząsteczek w toku nieodwracalnego

i  probabilistycznego procesu doboru naturalnego powstały

cząsteczki przypominające zasady azotowe nukleotydów. Poprzez

dalsze tasowanie udane komponenty i  sekwencje DNA przetrwały

i powielały się w procesie replikacji.

Co jednak mamy na myśli, kiedy mówimy „udane” w  odniesieniu do

DNA? DNA jest zbudowany z  czterech nukleotydów. Geny to łańcuchy

określonych kombinacji nukleotydów, pełniące funkcję symbolicznego

opisu lub przepisu na budowanie białek. Co czyni sekwencję DNA

udaną – zapewnia jej sukces? Czy przez sukces rozumiemy utrzymanie

stabilności fizycznej przez całe życie organizmu? A  może chodzi

o  sukces w  rzetelnym kodowaniu informacji, co umożliwia udaną

replikację organizmu? Mamy na myśli jedno i  drugie. Z  jednej strony

DNA to dziedziczna struktura pamięciowa, która ogranicza proces

budowy DNA, respektuje prawa Newtona i  pozostaje

termodynamicznie stabilna w  środowisku wodnym wewnątrz komórki

dzięki właściwościom zasad azotowych swoich nukleotydów. Z  drugiej

strony zaś –  w trybie informacyjnym, subiektywnym –  DNA

przestrzega reguł, a nie praw fizyki. Sekwencje zasad, którym udało się

przetrwać, zostały wyselekcjonowane przez ewolucję według zasady:

wybierz informacje najbardziej rzetelne i  najbardziej użyteczne dla

przetrwania i  reprodukcji organizmu. Nukleotydy, które tworzą DNA

i  niosą w  sobie informacje w  symbolicznej formie, zostały

wyselekcjonowane i  choć są arbitralne, utrzymały się w  stabilnej

postaci przez proces ewolucji, ponieważ wykonywały i  nadal wykonują

świetną robotę –  w odróżnieniu od profesorów na amerykańskich


uniwersytetach, którzy mogą spocząć na laurach, kiedy już zdobędą

tenure – dożywotnią posadę z gwarancją zatrudnienia.

W trakcie replikacji nukleotydy są odczytywane i  przekładane na

liniowe łańcuchy aminokwasów (które tworzą enzymy i  białka) w  toku

procesów przebiegających według określonych reguł. Zbiór takich reguł

nazywamy kodem genetycznym. DNA zawiera sekwencję, ale ów kod

jest realizowany przez cząsteczki RNA. Określone sekwencje DNA,

nazywane kodonami, zbudowane z  trzech nukleotydów, symbolizują

określone sekwencje aminokwasów. Nie ma tu żadnej wieloznaczności,

ale nie jest też tak, że jednemu aminokwasowi zawsze odpowiada tylko

jeden kodon. Na przykład sześć kodonów symbolizuje aminokwas

o  nazwie arginina, ale tylko jeden symbolizuje tryptofan. Elementy

składowe sekwencji DNA (symbol) nie przypominają przy tym

sekwencji aminokwasów (jego znaczenia), podobnie jak słowa

symbolizujące składniki w  przepisie kulinarnym nie przypominają

samych tych składników.

Kiedy sekwencja DNA została już przetłumaczona na łańcuch

aminokwasów, następuje (tymczasowy) koniec instruktażowego

działania DNA. Nie jest to jednak koniec ograniczeń, jakie ów łańcuch

symboli nałożył na materialną strukturę aminokwasów. Po

zbudowaniu łańcucha aminokwasów (pamiętaj, że aminokwasy nie

łączą się ze sobą spontanicznie) zwija się, tworząc słabe wiązania

chemiczne między cząsteczkami, które działają niczym słabe magnesy.

To, jakie wiązania powstają i  jak się zwija łańcuch aminokwasów,

zależy od miejsca zajmowanego przez poszczególne aminokwasy,

o  czym decyduje symboliczny opis. W  tym momencie sprawy się

komplikują. Kiedy aminokwasy znajdą się na swoich miejscach,

tworzące się wiązania są zdeterminowane przez prawa fizyki. Niektóre

aminokwasy unikają wody, inne ją uwielbiają; niektóre aminokwasy

trzymają się razem, czasem kurczowo. Interakcja łańcucha


aminokwasów ze środowiskiem zwija ten łańcuch w  trójwymiarową

[21]
strukturę –  białko . Zwijanie jest tym, co przekształca

przestrzegającą reguł, liniową, jednowymiarową sekwencję

aminokwasów w  strukturę respektującą prawa, trójwymiarową,

dynamiczną i funkcjonalną (białko).

Białka, rzecz jasna, działają zgodnie z  prawami przyczynowymi

fizyki i chemii. Jednakże to arbitralne, symboliczne informacje zawarte

w  sekwencji DNA są tym, co determinuje zarówno strukturę

materialną, jak i  funkcję biochemiczną białek. Imponujące! DNA jest

prastarym przykładem informacji symbolicznych (sekwencji

nukleotydów) kontrolujących materialne funkcje (działanie enzymów)

za pośrednictwem opartego na regułach kodu, który –  jak trafnie

przewidział von Neumann –  musi istnieć w  automatach zdolnych do

ewolucji i  autoreprodukcji. Chwileczkę, a  co wytwarzało białka? DNA

zawierał informacje, które były dekodowane, aby zbudować białko, ale

co uruchamiało ten proces? Odpowiedź brzmi: białko. Aby cały proces

replikacji mógł się za-cząć, nici DNA musiały zostać rozerwane przez

odpowiedni enzym (białko). Mamy tu do czynienia z  dobrze znanym

problemem: co było pierwsze –  jajko czy kura? Bez enzymów

katalizujących, które rozrywają nici DNA, ten ostatni jest tylko

nieaktywną informacją, której nie można powielić, przepisać ani

przetłumaczyć, ale bez DNA nie byłoby enzymów katalizujących. Oto

komplementarność Bohra –  dwie komplementarne części, dwa sposoby

opisu tworzące jeden system.

W swoim eksperymencie myślowym dotyczącym autoreplikacji von

Neumann napisał, że uniknął „najbardziej intrygującego,

ekscytującego i ważnego pytania o to, dlaczego cząsteczki lub agregaty

(skupiska) rzeczywiście występujące w  naturze (…) są tym, czym są –

  dlaczego w  niektórych wypadkach są zasadniczo bardzo dużymi

[22]
cząsteczkami, a  dużymi agregatami w  innych” . Pattee zasugerował,
że to wielkość cząsteczek łączy ze sobą świat kwantowy i  fizyczny:

„Enzymy są dość małe, aby wykorzystać koherencję kwantową do

osiągnięcia ogromnej mocy katalitycznej, od której zależy życie,

a  jednocześnie wystarczająco duże, aby osiągnąć wysoki poziom

specyficzności i arbitralności w wytwarzaniu obiektów dekoherentnych,

[23]
które mogą funkcjonować jak struktury klasyczne” . Koherencja

kwantowa oznacza w  uproszczeniu, że cząstki subatomowe

synchronizują się, aby współpracować w  wytwarzaniu produktów

dekoherentnych –  cząstek, które nie mają własności kwantowych. Jak

zauważa Pattee, nowe badania potwierdzają słuszność jego tezy, że

[24]
enzymy wymagają efektów kwantowych oraz że życie byłoby

[25]
niemożliwe w  świecie wyłącznie kwantowym . Potrzebne są obie:

warstwa kwantowa i klasyczna warstwa fizyczna.

Wąż zjadający własny ogon – domknięcie semiotyczne


Von Neumann powiedział jasno, że jego automat musiałby się powielać.

Autoreplikacja, czyli powielanie samych siebie, wymaga określenia

[26]
granic siebie –  self . Do zbudowania siebie potrzebne są elementy

realizujące opis, przekład (translację) i  proces konstrukcji. Aby

zbudować następnego siebie, trzeba opisać, przetłumaczyć

i  skonstruować elementy, które opisują, przekładają i  konstruują. Ta

autoreferencyjna pętla nie jest wyłącznie utrapieniem, lecz stanowi

domknięcie logiczne, które de facto definiuje self.

Warunki fizyczne konieczne do uzyskania owej wyjątkowej

współzależności między symbolem, materią i  funkcją Pattee nazywa

domknięciem semiotycznym. Podkreśla, że aby to domknięcie mogło

się fizycznie dokonać, instrukcje symboliczne muszą mieć określoną

strukturę fizyczną. W  układzie nie może być żadnego ducha,

a  struktura fizyczna musi ograniczać wszystkie dynamiczne procesy


konstrukcji, przebiegające zgodnie z  prawami Newtona. Zamknięcie

pętli semiotycznej –  fizyczne związanie cząsteczek –  jest tym, co

określa granice self (podmiotu) w  autoreplikacji. Żadne przypadkowe,

krążące wokół struktury nie zostają włączone do tego procesu – granice

zostały z  góry ustalone. Nie znaczy to, że komórka jest w  jakiś sposób

samoświadoma. Nie można jednak mówić o  braku samoświadomości

bez self. Pierwsze kroki muszą prowadzić ku wyodrębnionemu self

o  wyraźnie zaznaczonych granicach. Kolejne cele tej podróży –

  samoświadomość (świadomość siebie), samokontrola,

samodoświadczanie i  zaabsorbowanie sobą –  znajdują się na dalszych

jej etapach.

Domknięcie semiotyczne musi być obecne we wszystkich komórkach,

któ-re powielają same siebie. Oczywiście w toku procesów ewolucyjnych

self staje się coraz bardzie złożone, ale nawet komórka idzie za radą

Brudnego Harry’ego i  „zna swoje ograniczenia”. Niezależnie od tego,

jakie złożone procesy fizyczne domykają pętlę symbol–materia,

stanowią one most przerzucony nad tym, co fizycy nazywają Schnitt –

 luką eksplanacyjną, przepaścią między podmiotem a przedmiotem. Są

protokołem między warstwą kwantową a  warstwą newtonowską.

Procesy domykające pętlę symbol–materia łączą dwa sposoby opisu,

przerzucając most nad przepaścią, która powstała u  zarania życia.

Można z  tego wnioskować, że lukę pomiędzy subiektywnym

świadomym doświadczeniem a  obiektywną aktywnością neuronalną –

  dwoma sposobami opisu –  może wypełnić podobny zbiór procesów.

Wydaje się nawet możliwe, że owe procesy przebiegają wewnątrz

komórek.

Kapitulacja i rozejm
W pierwszych latach fizyki kwantowej Niels Bohr przedstawił zasadę

komplementarności jako białą flagę –  próbę wyjaśnienia dwoistej

natury światła (dualizmu falowo-korpuskularnego). Zasada

komplementarności akceptuje zarówno obiektywne prawa

przyczynowe, jak i  subiektywne reguły pomiaru, przypisując im

fundamentalne znaczenie dla wyjaśnienia tego zjawiska. Bohr

podkreślał, że chociaż dwa sposoby opisu są konieczne, to jednak nie

odpowiadają dwoistości obserwowanego systemu. Sam system był

jednolity. Był jednym i drugim równocześnie – tak jak medal ze swymi

dwiema stronami.

Właśnie to sprawia, że tak trudno pojąć tę ideę, nawet jeśli

w  pewnym stopniu ją rozumiemy. Jak powiedział Richard Feynman:

„Myślę, że można z  pewnością powiedzieć, iż nikt nie rozumie

mechaniki kwantowej”. Bohr porównał to do rozróżnienia między

podmiotem a  przedmiotem i  rozszerzył tę analogię na umysł i  materię

w  swoim wykładzie w  Como w  1927 roku: „Mam nadzieję (…), że ideę

komplementarności można zastosować do opisania tej sytuacji, która

wykazuje daleko idące podobieństwo do ogólnej trudności

w  formowaniu ludzkich idei, niezbędnej do dokonania rozróżnienia

[27]
między podmiotem a przedmiotem” .

Pattee poczyna sobie jeszcze śmielej. Dostrzega coś więcej niż tylko

analogię. Traktuje komplementarność jako konieczność

epistemologiczną, która pojawiła się u  zarania życia i  rozciąga się na

wszystkie ewolucyjnie ukształtowane poziomy. Krótko mówiąc, nie

chodzi tylko o  rozróżnienie między podmiotem a  przedmiotem, lecz

także o  „pozornie paradoksalne połączenie dwóch sposobów

[28]
poznawania” . Ów paradoks wśród filozofów i  naukowców wywołuje

dualistyczne zamieszanie od ładnych kilku tysięcy lat. Jeśli nadal będą

do niego podchodzić tak, jak do tej pory, to nie przestaną się kłócić

przez kilka kolejnych tysiącleci. Tych dwóch sposobów badania świata


i  dwóch ujawnionych przez nie zjawisk nie opisuje ten sam zbiór praw

fizycznych. Pattee zauważa kpiąco, że sposób obiektywny przywiódł

„redukcjonistów do przekonania, iż życie nie jest niczym więcej niż

tylko zwyczajną fizyką. Rzeczywiście tak jest, jeśli nie chcemy wziąć

pod uwagę subiektywnych problemów pomiaru i opisu. (…) Tymczasem

z  zasady komplementarności wynika, że przy użyciu tylko jednego,

obiektywnego sposobu opisu nawet fizyki nie można zredukować do

[29]
tego aspektu!”

Podobnie jak naukowcy i filozofowie musieli pogodzić się z faktem, że

Ziemia nie jest płaska, my będziemy musieli zaakceptować zasadę

komplementarności w odniesieniu do umysłu i mózgu. Ta zasada nadal

jest kontrowersyjna, ponieważ kłóci się z przekonaniem, że najlepszym

wyjaśnieniem jest zawsze jedno (pojedyncze) wyjaśnienie. To błędne

przekonanie zostało jednak obalone sto lat temu, wraz z  odkryciem

świata kwantowego. Mikroświat rządzi się innymi prawami niż świat

w skali makro. Te dwa światy mieszczą się w innych warstwach opisu,

a żadnego z nich nie można zredukować do tego drugiego.

Ci, którzy podpisują się pod złotym standardem jednego wyjaśnienia,

ignorują realia fizyki. Pattee ubolewa, że „akceptacja

[komplementarności] w  mechanice kwantowej nastąpiła tylko dlatego,

[30]
że wszystkie inne interpretacje okazały się błędne” . W  jego słowach

pobrzmiewa echo słynnego powiedzenia Sherlocka Holmesa: „Skoro

wyeliminujesz rzeczy niemożliwe, to to, co pozostanie, chociaż

[31]
nieprawdopodobne, musi być prawdą” . Pattee zastanawia się, czy

włączenie komplementarności do teorii biologicznych i  społecznych

nastąpi w  podobnych męczarniach. Jak kiedyś zażartował Richard

Feynman, „jeśli to ci się nie podoba, przenieś się gdzieś indziej. (…) Do

innego wszechświata, w  którym reguły są prostsze, a  filozofia jest

[32]
bardziej przyjemna, łatwiej-sza psychologicznie” . Fakt, że ta idea ci

się nie podoba, nie znaczy, że nie jest prawdziwa.


Podsumowanie
Materia ożywiona różni się od nieożywionej, ponieważ obrała zupełnie

inny kurs. Materia nieożywiona respektuje prawa fizyczne. Życie od

samego początku związało swój los z regułami, kodami i arbitralnością

informacji symbolicznej. Rozróżnienie między informacją symboliczną

a  materią oraz niezależność jednej i  drugiej umożliwiły swobodną,

otwartą ewolucję, która zaowocowała powstaniem życia takiego, jakie

znamy. Informacje na temat wcześniejszych zakończonych sukcesem

zdarzeń są przechowywane w  postaci zapisów (rekordów) złożonych

z  symboli. Te zapisy same w  sobie stanowią pomiary i  są z  natury

probabilistyczne. A  jednak materialna konstrukcja życia w  świecie

fizycznym zależy od owych arbitralnych, probabilistycznych symboli.

Nieodłączna arbitralność symboli i pomiarów dodaje życiu pikanterii –

  wprowadza element nieprzewidywalności –  i łączy się

z przewidywalnym zestawem praw fizycznych, co sprawia, że z biegiem

czasu życie staje się równocześnie coraz bardziej uporządkowane

i coraz bardziej złożone.

Rozróżnienie między podmiotem a  przedmiotem nie jest wyłącznie

interesującą osobliwością. Jego źródła na poziomie fizyki tkwią

w  rozróżnieniu między probabilistyczną naturą symbolicznych

pomiarów a  pewnością materialnych praw. Późniejszym przykładem

tego rozróżnienia jest różnica między genotypem, czyli sekwencją

nukleotydów  –  symboli, które tworzą DNA orga-nizmu, a  fenotypem –

  jego rzeczywistą strukturą fizyczną, określoną przez te symbole. Ów

podział wędruje z  nami przez kolejne warstwy ewolucyjne, aby

ostatecznie przybrać postać rozróżnienia między umysłem a mózgiem.

Przez ostatnie dwa i  pół tysiąca lat rozważania na temat myślenia

i  świadomości koncentrowały się na ludzkim mózgu, a  ostatnio –  na

w  pełni rozwiniętym ewolucyjnie ludzkim mózgu. Nie przyniosło to


postępów w  pracach nad wypełnieniem luki eksplanacyjnej. Pora

przyjrzeć się bliżej wskazanej przez Howarda Patteego luce pomiędzy

materią ożywioną a  materią nieożywioną. Jeśli ustalimy, jak udało się

ją wypełnić –  w jaki sposób życie osiągnęło domknięcie semiotyczne –

  to może zdołamy zrozumieć, jak wypełnić lukę eksplanacyjną

pomiędzy umysłem a  mózgiem. Tę ideę popiera nawet William James!

James, który posunął się do rozważenia czegoś, co nazwał teorią

polizoizmu: „Każda komórka mózgu ma własną świadomość, o  której

inne ko-mórki nic nie wiedzą, a  wszystkie indywidualne świadomości

[33]
są wobec siebie «ejektywne»” . W  pojedynczej komórce przebiega

bardzo prosty pierwotny proces, który łączy subiektywne self

z  obiektywną mechaniką. Domknięcie semiotyczne, które łączy brzegi

przepaści pomiędzy materią ożywioną i  nieożywioną, jest obecne we

wszystkich komórkach. Kiedy zdamy sobie sprawę z  tego faktu

i  spróbujemy zrozumieć związane z  nim procesy, to będziemy mogli

spojrzeć na świadomość z  innej perspektywy i  zacząć jej szukać

w  innych miejscach. Nie chcę przez to powiedzieć, że pojedyncze

komórki są świadome. Sugeruję tylko, że może w  nich przebiegać

pewien rodzaj przetwarzania, który jest konieczny do powstania

świadomego doświadczenia lub podobny do procesów skutkujących

powstaniem takiego doświadczenia.

Luka eksplanacyjna zabiła nam ćwieka, ponieważ subiektywne

doświadczenia umysłu nie dają się zredukować do aktywności

neuronalnej mózgu. Wydaje się, że są to dwie nieredukowalne,

komplementarne właściwości jednego systemu. Wiemy, że niezależnie

od tego, jak obszerną wiedzę zgromadzą obiektywni obserwatorzy

zewnętrzni na temat struktury mózgu, jego funkcji, aktywności

i  wyładowań neuronalnych, subiektywne doświadczenie owych

wyładowań bardzo się różni od takich zewnętrznych obserwacji.

Szczegółowe informacje na temat aktywności neuronów, ani nawet fakt,


że istnieją jakieś „strzelające” neurony, nie wchodzą w  skład intuicji

i  doświadczeń podmiotu. Obiektywne mechanizmy percepcji, myślenia

i  tym podobnych nie są dostępne osobie, która spostrzega i  myśli. Jak

pamiętamy z  rozdziału dotyczącego architektury warstwowej, takie

szczegóły nie są tej osobie potrzebne, więc zostają ukryte przed jej

wzrokiem. Ponadto funkcji neuronów nie można wyprowadzić z  ich

struktury, podobnie jak struktury neuronów nie można wyprowadzić

z  ich funkcji. Nawet najbardziej gruntowna wiedza dotycząca jednego

z  tych aspektów nie powie nam ani słowa na temat drugiego aspektu.

Są to dwie odrębne, nieredukowalne warstwy mające odmienne

protokoły. Pattee uważa, że stanowi to nieodłączną część zasady

komplementarności i  że jeden model nie może wyjaśnić równocześnie

obiektywnej struktury i subiektywnej funkcji. Rozcięcie epistemiczne –

  luka między podmiotem a  przedmiotem –  żyje i  ma się dobrze na

poziomie ludzkiego mózgu. Pattee uważa, że „nasze modele żywych

organizmów nigdy nie wyeliminują rozróżnienia między self

a  wszechświatem, ponieważ życie zaczęło się od tego podziału,

[34]
a ewolucja nie może się bez niego obyć” .

Nie powinno nas zatem dziwić, że dwa komplementarne sposoby

zacho-wania, dwa poziomy opisu, nieustannie pojawiają się w  naszym

myśleniu. Roz-różnienie między podmiotem a przedmiotem jest obecne

we wszystkich wielkich sporach filozoficznych: losowość–

przewidywalność, doświadczenie–obserwacja, jednostka–grupa, geny–

wychowanie oraz umysł–mózg. Patte uznaje te dwa komplementarne

tryby za nieuniknione i  konieczne we wszelkich wyjaśnieniach

łączących subiektywne i  obiektywne modele doświadczenia. Te dwa

modele tkwią w naturze samego życia, były obecne od samego początku

i  zostały zachowane przez ewolucję. Pattee pisze: „To powszechna

i  nieredukowalna komplementarność. Z  jednego modelu nie można

wyprowadzić drugiego. Żadnego z  nich nie można też zredukować do


tego drugiego. Podobnie jak szczegółowy obiektywny model przyrządu

pomiarowego nie może wygenerować subiektywnego pomiaru,

szczegółowy obiektywny model materialnego mózgu nie wytworzy

[35]
subiektywnej myśli” .

Zignorowanie jednej strony owej luki skutkuje utratą połączenia

między jej dwoma brzegami. Połączenie obu stron wymaga uznania

dwoistej, komplementarnej natury symboli. Takie połączenie będzie

w sobie zawierać mechanizmy opisywane przez fizykę, może się jednak

okazać, że wyjaśnienie nie będzie miłe i przyjemne ani psychologicznie

zadowalające dla nikogo –  ani dla deterministów, ani dla tych, którzy

wierzą w  duchy. Podobnie jak mechanika kwantowa, może się okazać

czymś, czego nikt tak naprawdę nie rozumie –  czymś, co wykracza

daleko poza nasze intuicje i wyobrażenia. Feynman prze-strzegał: „Nie

możemy powiedzieć naturze, jaka ma być. To już wiemy. Za każdym

razem, kiedy zgadujemy, jaka ona jest, a  potem idziemy i  dokonujemy

pomiarów, natura okazuje się mądrzejsza. Zawsze przewyższa nas

bogactwem wyobraźni i  znajduje lepsze sposoby, które nam nawet nie

[36]
przyszły do głowy” .

[1]
Pattee, 2008.

[2]
Pattee i Rączaszek-Leonardi, 2012.

[3]
Ibidem, s. 8.

[4]
Pattee, 2008.

[5]
Pattee, 1966.

[6]
Pattee i Rączaszek-Leonardi, 2010, s. 10.

[7]
Pattee, 1972.

[8]
Pattee, 1966.

[9]
Pascal interesował się teorią prawdopodobieństwa. Istota jego

zakładu dotyczy tego, jaki poziom ryzyka jest do przyjęcia, jeśli

konsekwencje pomyłki będą bardzo dotkliwe. Czy warto narażać się na


poważne konsekwencje niewiary w  istnienie Boga, jeśli

w rzeczywistości Bóg istnieje?

[10]
Von Neumann, 1966; Schrödinger, 1988.

[11]
Steve Martin, https://www.youtube.com/watch?v=q_8amMzGAx4.

[12]
Pattee, 1978.

[13]
Pattee, 1982.

[14]
Barbieri, 2008, s. 579.

[15]
Ibidem, s. 597.

[16]
Ibidem.

[17]
Ibidem, s. 580.

[18]
Stereochemia –  dział chemii zajmujący się badaniem

trójwymiarowej struktury cząsteczek (przyp. tłum.).

[19]
Ibidem, s. 596.

[20]
Liscovitch-Brauer i in., 2017.

[21]
Anfinsen, 1981.

[22]
Von Neumann, 1966, s. 72.

[23]
Pattee i Rączaszek-Leonardi, 2012, s. 13.

[24]
Allemann i Scrutton, 2009.

[25]
Chakrabarty i Prashant, 2007.

[26]
W polskiej literaturze psychologicznej angielskie słowo self

tłumaczy się zwykle jako „ja” lub „jaźń”. Ponieważ jednak

w  niniejszych rozważaniach chodzi o  pojęcie bardziej podstawowe –

  wyodrębniony podmiot mogący podejmować działania wobec samego

siebie – postanowiłam zachować angielski termin self (przyp. tłum.).

[27]
Bohr, 1928, s. 580.

[28]
Pattee, 1978, s. 144.

[29]
Ibidem, s. 149.

[30]
Ibidem, s. 153.

[31]
Tłum. Krystyna Jurasz-Dąmbska.
[32]
Feynman, wykład Douglas Robb Memorial.

[33]
James, 1890, s. 117.

[34]
Pattee i Rączaszek-Leonardi, 2012, s. 28.

[35]
Ibidem, s. 11.

[36]
Feynman, wykład Robb Memorial.
ROZDZIAŁ IX
Bulgocące strumienie a indywidualna świadomość
Byłoby bardzo miło, gdyby dla odmiany coś miało sens.
– Alicja w Przygodach Alicji w Krainie Czarów Lewisa Carrolla

Wszyscy doświadczamy stanu zwanego świadomością –  świadomości

naszych nieprzerwanie płynących myśli, pragnień, emocji i  uczuć

dotyczących świata, innych ludzi i  nas samych. Świadomość jest nie

tylko wszechobecna, lecz także osobista. Świadomość definiuje

i wyznacza granice. Określa doświadczenie życia. Świadome Ja wydaje

się dominować nad fizycznym mózgiem i  nad wszystkimi jego

warstwami i  modułami. Wydaje się, że bez niego bylibyśmy tylko

automatami –  podobnymi do tych, które Kartezjusz obserwował

w  paryskich ogrodach. Maszynami. Jak więc mogłoby wyglądać

wyjaśnienie świadomości?

Jak się zapewne domyślasz, elementami układanki, które –  jak

sądzę –  mogą nas naprowadzić na nowy sposób myślenia o  naturze

świadomego doświadczenia, są zagadnienia, które omówiliśmy

w  poprzednich rozdziałach: moduły, warstwy, zasada

komplementarności i  domknięcie poznawcze Howarda Pat-teego. Te

pojęcia pomogą nam zrozumieć, że obwody neuronalne to struktury

prowadzące podwójne życie –  przenoszą symboliczne informacje, które

przestrzegają arbitralnych reguł, a  przy tym mają materialną

strukturę, która podlega prawom fizyki. Te dwie perspektywy,

połączone, opowiadają nam historię o  mózgu. Jest on organem

misternie skonstruowanym przez dobór naturalny, zorganizowanym

w  lokalne moduły, które funkcjonują w  architekturze warstwowej


w taki sposób, że w większości wypadków jeden zbiór modułów nie wie,

co robią wszystkie pozostałe. To opowieść o grupie małych, pracowitych

obwodów neuronalnych, które działają w  spójnej organizacji, aby

wytworzyć większą funkcję, podobnie jak obywatele –  każdy na miarę

swoich możliwości –  pracują w  dużej mierze osobno, aby stworzyć

społeczeństwo. Klucz do wyjaśnienia tej tajemnicy musi zawierać

w sobie rozumienie, w jaki sposób owe pracowite części wyrażają siebie

– sekunda po sekundzie.

Jeżeli luki, moduły i  warstwy mają nam pomóc w  zrozumieniu,

w  jaki sposób mózg wytwarza umysł, to muszą też wyjaśniać pewne

niezmienne fakty dotyczące mózgu. Rozważ przez chwilę jeden taki

fakt i  jego konsekwencje dla twojego poczucia samego siebie (poczucia

Ja). Neurochirurg może rozdzielić dwie półkule twojego mózgu i  w ten

sposób stworzyć dwa umysły w twojej głowie – dwa umysły, które będą

miały różną zawartość treściową, lecz takie same impulsy emocjonalne

i  uczucia. Pamiętaj też, że choć uszkodzenie mózgu może spowodować

określone deficyty, całkowite wyeliminowanie świadomości okazuje się

prawie niemożliwe. Wreszcie, jakkolwiek świadome doświadczenie

wydaje się jednolitą całością, tak naprawdę powstaje poprzez

zsynchronizowane działanie wielu systemów pracujących równolegle,

z  których każdy wypluwa wyniki swoich procesów przetwarzania. Tak

więc, mimo że świadomość wydaje się spójnym, płynnie zmontowanym

filmem, tak naprawdę jest strumieniem pojedynczych ujęć, które

wydobywają się na powierzchnię niczym bąbelki w  garnku z  wrzącą

wodą, połączone poprzez fakt następowania po sobie w  czasie.

Świadomość nieustannie się zmienia, niczym płynący strumień. Jak to

ujął William James: „Żaden stan miniony nie może powrócić i  być taki

[1]
sam, jak w przeszłości” . Pozwól, że przygotuję grunt pod tę ideę.

Świadomie różne świadome półkule


W tym celu muszę powrócić do pierwszej obserwacji naukowej w moim

życiu. Dotyczyła ona przypadku W.J. –  mężczyzny, który miał tak

ciężkie napady padaczkowe, że mógł normalnie funkcjonować zaledwie

dwa dni w tygodniu. Młody neurochirurg, Joseph Bogen, na podstawie

swoich szeroko zakrojonych badań doszedł do wniosku, że pacjentowi

mógłby pomóc rzadko wykonywany zabieg chirurgiczny, polegający na

przecięciu grubej wiązki nerwów, która łączy półkule mózgu.

Dwadzieścia lat wcześniej taką operację przeprowadzono u  pewnej

liczby pacjentów w Rochester w stanie Nowy Jork, aby zapanować nad

ciężkimi postaciami padaczki. Zabieg skutecznie powstrzymał napady

albo radykalnie zmniejszył ich częstość. Co zaskakujące, po tym, jak

ich mózg przecięto na pół, wszyscy ci pacjenci twierdzili, że czują się

dobrze, a  jedyną zauważoną przez nich różnicą był brak napadów

padaczkowych.

W. J. był weteranem wojennym, który w swoim życiu stoczył niejedną

bitwę. Rozważył szanse i  zagrożenia związane z  tą potyczką i  zgodził

się na operację. Jako młody doktorant opracowałem testy, które miały

zostać przeprowadzone po zabiegu rozszczepienia mózgu, aby

sprawdzić, w  jaki sposób (jeśli w  ogóle) wpłynął on na funkcjonowanie

mózgu pacjenta. Spodziewano się, że badania nie wykażą żadnych

skutków, ponieważ nie stwierdzono ich u  pacjentów z  Rochester. W.J.

był ciepłym, życzliwym człowiekiem, a  dwie półkule jego mózgu

wydawały się pracować razem bez przeszkód, chociaż po zabiegu już nie

mogły bezpośrednio się ze sobą komunikować. Jedna z  nich mówiła,

a  druga nie. Zważywszy na organizację połączeń nerwowych w  mózgu,

lewa półkula –  ta mówiąca –  widziała świat wizualny na prawo od

punktu fiksacji, a  półkula prawa –  niepotrafiąca mówić –  widziała

wszystkie informacje wzrokowe na lewo od tego punktu. Biorąc pod

uwagę stan pacjenta po zabiegu chirurgicznym, zastanawiałem się:

gdybym błysnął światłem po prawej stronie, to czy W.J. powiedziałby,


że widział błysk? Światło powinno trafić do lewej półkuli, która jest

obdarzona mową, więc to zadanie powinno być łatwe. I  rzeczywiście

było – W.J. bez wahania powiedział, że widział światło.

Nieco później błysnąłem takim samym światłem po lewej stronie,

żeby się przekonać, czy tym razem coś powie. Nie zrobił tego.

Zapytałem go, czy coś widział, a on odpowiedział stanowczo: „Nie”. Czy

po tej stronie był ślepy? A  może ów prosty impuls świetlny nie został

przekazany tej połówce mózgu, która umiała mówić? Czy najwyraźniej

niema prawa półkula wiedziała, że widziała błysk światła? Czy była

świadoma? O co w tym wszystkim chodziło?

W dalszej części tamtej sesji badawczej stało się jasne, że prawa

półkula zauważyła światło, ponieważ z łatwością i precyzją wskazała je

za pomocą lewej ręki W.J. Była to pierwsza obserwacja świadcząca

o  tym, że nie tylko mózg pacjenta został podzielony, lecz także jego

umysł –  ziarenko, które zapoczątkowało prowadzone przez

sześćdziesiąt lat badania dotyczące natury umysłu i  jego podstaw

fizycznych. Był to również test, który przyniósł najbardziej

zdumiewające spośród wszystkich spostrzeżeń. Lewej, mówiącej półkuli

wcale nie brakowało prawej – i vice versa. Żadna z  półkul nie tylko nie

tęskniła za tą drugą, lecz nawet nie pamiętała drugiej połówki mózgu

ani pełnionych przez nią funkcji, tak jakby druga półkula nigdy nie

istniała. Sądzę, że to zjawisko jest najważniejszym faktem, jaki muszą

brać pod uwagę badacze umysłu i mózgu.

Jak to możliwe, że lewa połowa mózgu nie uskarża się na fakt, iż nie

jest już świadoma tego, co znajduje się po lewej stronie świata?

Wyobraź sobie, że twój mózg został rozdzielony. Następnego ranka

budzisz się na szpitalnym łóżku, a  kiedy twoja lekarka prowadząca

wchodzi do pokoju, żeby sprawdzić, jak się czujesz, widzisz tylko lewą

połowę jej twarzy. Czy nie sądzisz, że z  pewnością byś zauważył brak

prawej strony? Okazuje się, że nie. Tak naprawdę lewa strona twojego
mózgu nie byłaby świadoma faktu, że istnieje jakaś lewa strona świata.

A  teraz najdziwniejsze: to, co powiedziałem, zabrzmiało tak, jakby tą

nową, rozszczepioną wersją ciebie była po prostu twoja lewa półkula,

ale to nieprawda. Jesteś też swoją prawą półkulą. Nowi „ty” mają dwa

umysły z  dwiema zupełnie odrębnymi zbiorami informacji

percepcyjnych i  poznawczych. Rzecz w  tym, że tylko jeden z  tych

umysłów umie mówić. Drugi początkowo nie umie. Być może po wielu

latach nauczy się wypowiadać kilka słów.

Jeszcze bardziej szalony wydaje się fakt, że w pierwszych miesiącach

po operacji, zanim półkule przyzwyczają się do życia w  jednym ciele,

można między nimi zaobserwować swego rodzaju przeciąganie liny. Na

przykład pacjent ma wykonać proste zadanie, polegające na ułożeniu

niewielkiego zbioru kolorowych klocków w  taki sposób, aby odtworzyć

wzór pokazany na karcie. Prawa półkula odpowiada za koordynację

wzrokowo-ruchową, która czyni to zadanie dziecinnie prostym dla lewej

ręki. Lewa półkula natomiast nie ma kompetencji potrzebnych do jego

wykonania. Gdy pacjent z  niedawno rozszczepionym mózgiem próbuje

je wykonać, lewa ręka od razu rozwiązuje tę łamigłówkę. Kiedy jednak

taką próbę podejmuje prawa ręka, lewa zaczyna jej przeszkadzać –

  usiłuje się wtrącić i  sama wykonać to zadanie. W  jednym z  takich

badań musieliśmy poprosić, aby pacjent usiadł na próbującej się

szarogęsić lewej dłoni, aby prawa mogła się zmierzyć z  tym zadaniem,

którego zresztą nie udało jej się wykonać. Przerastało ono możliwości

lewej półkuli.

Gdy komunikacja między półkulami mózgu zostaje zerwana, każda

z nich jest nieświadoma wiedzy, jaką dysponuje druga półkula, i każda

działa niezależnie od tej drugiej na podstawie informacji, jakie do niej

docierają. Obie strony mózgu próbują wykonać zadanie niezależnie od

siebie, co skutkuje przeciąganiem liny. To proste zadanie pokazuje, że

jednolita świadomość tak naprawdę jest iluzją. Gdyby świadomość


powstawała tylko w  jednym miejscu, to pacjenci z  rozszczepionym

mózgiem nie mogliby mieć dwóch równoczesnych doświadczeń.

Za chwilę zrobi się jeszcze ciekawiej. Wszyscy widzieliśmy krótkie

filmy przedstawiające pewne proste złudzenie: jedna kulka pozornie

uderza w  drugą, a  wtedy ta, która rzekomo została uderzona, zaczyna

się poruszać. W  żargonie psychologicznym nazywamy to efektem

wystrzelenia lub efektem Mi-chotte’a –  od nazwiska belgijskiego

psychologa Alberta Michotte’a, który wymyślił to złudzenie, aby

zbadać, jak ludzie spostrzegają przyczynowość i  jak o  niej wnioskują.

Ponieważ w  rzeczywistości pierwsza kulka zatrzymywała się tuż obok

drugiej, wcale w  nią nie uderzając, tak naprawdę nie było żadnego

zdarzenia fizycznego powodującego ruch drugiej kulki. Wszyscy jednak

spostrzegamy to doświadczenie inaczej: kulka A  uderzyła w  kulkę B,

a  wtedy kulka B wystartowała. Koniec, kropka. Wystąpił związek

przyczynowo-skutkowy!

Jak spostrzegają to proste zadanie pacjenci z  rozszczepionym

mózgiem? Czy lewa półkula mózgu, z jej odmianą świadomości, widzi je

tak samo, jak mogłaby je widzieć prawa półkula? Eksperymenty, które

miały to wyjaśnić, zapoczątkował Matthew Roser, student z  Nowej

Zelandii, który później trafił do mojego laboratorium w  Dartmouth

[2]
College, a dzisiaj pracuje na Uniwersytecie Plymouth w Anglii . Matt,

niezwykle utalentowany naukowiec, wraz z  grupą współpracowników

badał, w  jaki sposób każda połówka mózgu –  działająca w  pojedynkę

i odłączona od drugiej – widziała pozornie zderzające się kulki. Wyniki

okazały się zdumiewające. Prawa półkula od razu rozgryzła to

złudzenie, a  lewa –  nie. Wykazał to drugi eksperyment, w  którym

odrobinę zwiększono odległość między kulkami w  chwili rzekomego

zderzenia lub nieznacznie wydłużono czas, po jakim druga kulka się

poruszyła. Lewa półkula mózgu –  ta, która wykonuje ciężką pracę

poznawczą –  nie przejrzała tego złudzenia w  żadnych warunkach. Co


interesujące, lewa połowa mózgu dostrzega zależności, których jego

prawa część –  jak się wydaje –  nie może po-jąć. W  omawianych

badaniach to lewa półkula radziła sobie z  zadaniem wymagającym

logicznego wnioskowania, podczas gdy prawa część mózgu nie była do

tego zdolna. Krótko mówiąc, bezpośrednia percepcja zależności

przyczynowych była czymś, z  czym prawa półkula nie miała większych

trudności, ale zdolność do wnioskowania o  przyczynowości

znajdowała się wyłącznie w repertuarze lewej półkuli.

Jeśli się zastanowić, w  jaki sposób normalnie połączony mózg

spostrzega te dwa rodzaje zadań, to nagle staje się jasne, że gdy badany

widzi złudzenie z  dwiema kulkami, to jego prawa półkula dysponuje

wyposażeniem neuronalnym niezbędnym do jego zrozumienia. Kiedy

natomiast zadanie wymaga logicznego wnioskowania, to lewa półkula

przetwarza informacje. Tak więc w  normalnie połączonym mózgu

w  momencie A, gdy prawa półkula widzi test z  wystrzeloną kulką,

mówi: „Hej, kulka A  właśnie uderzyła w  kulkę B”, ale w  momencie B,

kiedy patrzy na zadanie wymagające logicznego wnioskowania, to lewa

półkula – a nie prawa – potrafi je zrozumieć. To trochę tak, jak w grze

[3]
zręcznościowej „Polowanie na krety” . Zdajemy sobie sprawę

z  przetworzonej informacji –  jesteśmy jej świadomi –  gdy nagle się

pojawia, po tym jak została przetworzona w  danej półkuli. Czy jednak

dzieje się tak dlatego, że każdy proces neuronalny uruchamia „sieć

uświadamiającą” (która musiałaby się znajdować w każdej półkuli), czy

raczej dlatego, że każdy proces sam w sobie ma neuronalną zdolność do

tego, by pojawiać się w świadomości?

Bąbelki
Przychylam się do tej drugiej odpowiedzi. Rozważania na ten temat

nasunęły mi metaforę bulgocącej wody jako ilustracji tego, w  jaki


sposób tworzy się nasza świadomość. Świadomość nie jest wytworem

specjalnej sieci, dzięki której wszystkie zdarzenia mentalne mogłyby

stać się świadome. Zamiast tego każde zdarzenie mentalne jest

przetwarzane przez moduły mózgowe, które potrafią czynić nas

świadomymi wyników naszych procesów przetwarzania. Owe wyniki

wypływają ku górze z rozmaitych modułów, niczym bąbelki we wrzącej

wodzie. Bąbelek po bąbelku –  każdy rezultat przetwarzania w  danym

module lub w  grupie modułów unosi się i  na krótką chwilę wyskakuje

na powierzchnię, lecz zaraz jego miejsce zajmują inne pęcherzyki,

będące w  ciągłym, dynamicznym ruchu. Te minieksplozje

przetwarzania następują jedna po drugiej, połączone bezszwowo przez

czas (ta metafora jest ograniczona do bąbelków wypływających na

powierzchnię w  tempie co najmniej dwunastu klatek na sekundę;

możesz też sobie wyobrazić animowaną książeczkę typu flipbook,

w  której im szybciej przewracamy strony, tym bardziej płynne wydają

się ruchy postaci).

Charles Sherrington, nestor współczesnej neuronauki, wyraził

podobną myśl, gdy zauważył:

W jakim stopniu umysł jest zbiorem quasi-niezależnych umysłów percepcyjnych,

zintegrowanych psychicznie w  dużej mierze przez zbieżność czasową doświadczeń?

Osobne rezerwy mózgu subpercepcyjnego i  percepcyjnego mogą wyjaśniać, dlaczego

niektóre uszkodzenia mózgu pociągają za sobą tak niewielkie deficyty umysłowe. (…)

[4]
Zwykła równoczesność może być ważnym łącznikiem .

Trudno nam pojąć ideę, że każdy pęcherzyk ma własną zdolność do

wywołania poczucia świadomości. Ta myśl kłóci się z  naszymi

intuicyjnymi przekonaniami o  holistycznej naturze naszej osobistej

świadomości. Co umyka nam i  naszym intuicjom? Umyka nam

złudzenie –  część, w  której niedostrzeganiu my, ludzie (z naszym

potężnym lewopółkulowym mechanizmem wnioskującym), jesteśmy


prawdziwymi mistrzami. Tak naprawdę nie umyka nam określone

złudzenie, lecz fakt, że nasza nieprzerwanie płynąca świadomość sama

jest iluzją. W  rzeczywistości jest ona złożona z  bąbelków poznawczych

połączonych z  podkorowymi bąbelkami emocjonalnymi, zszytych przez

nasz mózg w czasie.

Wstęp do bąbelków
Istnieje klasyczne spostrzeżenie, które brzmi wiarygodnie we

wszystkich obszarach biologii. Dotyczy ono tego, czy organizmy uczą się

i  czerpią wiedzę ze środowiska, czy też ich reakcjami na bodźce

środowiskowe zawiadują systemy od początku wbudowane w organizm.

Spór „selekcja czy uczenie się” (selection versus instruction) toczy się od

lat, przy czym szczególne zainteresowanie wzbudza na gruncie

immunologii. W  najprostszym ujęciu, gdy jakieś ciało obce wnika do

organizmu i  wywołuje reakcję odpornościową, to czy przeciwciała

tworzą się tu i  teraz wokół ciała obcego, a  następnie się namnażają

(uczenie się)? A może przeciwciała istniały już wcześniej, a czas reakcji

odpornościowej to czas potrzebny na znalezienie odpowiedniego,

gotowego przeciwciała (selekcja) i  na popchnięcie go do działania?

W  poprzednim stuleciu biolodzy dowiedzieli się, że poprawna jest ta

druga odpowiedź, a  ich odkrycie pokazuje, jak dużo dostajemy

w  pakiecie –  jako część standardowego wyposażenia naszego ciała

i mózgu.

Duński immunolog Niels Jerne w  1967 roku wysunął tezę, która

w  tamtych czasach wydawała się szokująca: to, co jest prawdą

w  odniesieniu do układu odpornościowego, przypuszczalnie jest też

prawdziwe w  odniesieniu do móz-gu. Zasugerował, że gotowe obwody

mózgowe są wybierane przez środowisko i  wykorzystywane w  sytuacji,

[5]
którą my uznajemy za sytuację uczenia się . W tym naturalistycznym
ujęciu uczenie się to po prostu czas, jaki zajmuje mózgowi przeszukanie

gazylionów obwodów i  znalezienie tego, który najlepiej sobie poradzi

z danym wyzwaniem.

Chociaż spór na ten temat nie ustaje, nikt nie ma wątpliwości, że

istnieją obwody neuronalne przeznaczone do konkretnych zadań,

stanowiące część standardowego wyposażenia naszego mózgu. Na

przykład już sześciomiesię-czne niemowlęta wykazują zdolność do

[6]
wyciągania wniosków o  zależnościach przyczynowych ,

a przetwarzanie w obwodach podkorowych staje się doskonale widoczne

już wtedy, gdy noworodek donośnym krzykiem domaga się swojego

pierwszego posiłku. Wróćmy do metafory bąbelków: bąbelki są

wynikiem przetwarzania w tych obwodach, które nieustannie pozostają

w grze, aby radzić sobie z niezliczonymi wyzwaniami w środowisku. Są

to procesy zarówno korowe, jak i  podkorowe. Zanim przejdziemy do

bąbelków podkorowych, przyjrzyjmy się jeszcze jednemu pouczającemu

eksperymentowi.

Zwariowane nietoperze
[7]
Niesławne pytanie Thomasa Nagela: „Jak to jest być nietoperzem?” ,

nurtowało ludzi o  zacięciu filozoficznym przez czterdzieści lat. Tak

naprawdę pytanie powinno brzmieć: „Jakie bąbelki ma nietoperz?”

Innymi słowy: jakie treści zawiera świadomość nietoperza? Zapewne

nigdy nie uda nam się w  pełni doświadczyć świadomości nietoperza,

ale możemy się przyjrzeć treściom zawartym w  osamotnionej półkuli

ludzkiego mózgu. Mózg jest pełen bąbelków, a  kiedy zostaje

rozszczepiony, każda połówka ma własny zbiór pęcherzyków

wypływających na powierzchnię. Skoro – jak już wiemy – każda połowa

mózgu ma własne, niepowtarzalne bąbelki, to czy może być tak, że

każda półkula kryje w  sobie inny rodzaj zbiorczego świadomego


doświadcze-nia? Aby się tego dowiedzieć, najpierw zastanówmy się nad

bąbelkami, których nie mamy. Ja na przykład mogę ci powiedzieć, że

brakuje mi pęcherzyka matematyki abstrakcyjnej. Dlatego czuję się

sfrustrowany, gdy podczas wykła-dów pojawiają się równania. Chociaż

bardzo bym chciał, nie wiem, jak to jest rozumieć matematykę

abstrakcyjną, ale mógłbym się założyć, że to byłoby wspaniałe!

Rebecca Saxe z  MIT przeprowadziła kilka interesujących badań

i  odkryła, że w  prawej półkuli ludzkiego mózgu znajdują się obwody,

które wydają się wyspecjalizowane w  rozpoznawaniu intencji innych

[8]
ludzi . Kiedy wchodzimy w  interakcje z  innymi, nieustannie

i  odruchowo oceniamy ich stan psychiczny oraz intencje kryjące się za

każdym ich działaniem. Robimy to niemal automatycznie. Wydaje się,

że dzieci z  autyzmem w  dużej mierze są pozbawione tej umiejętności,

a  w rezultacie interakcje społeczne sprawiają im wielką trudność. Jak

wspomniałem wcześniej, w  oficjalnym języku psychologii nazywamy to

teorią umysłu. Przy użyciu nowoczesnych technik neuroobrazowania

Saxe znalazła w  prawej półkuli mózgu obszar odpowiedzialny za tę

umiejętność. Jak łatwo się domyślić, to odkrycie rodzi nowe pytania,

sugeruje bowiem, że u  pacjentów z  rozszczepionym mózgiem lewa

półkula może nie mieć dostępu do modułu, który wzbogaca nasze

procesy poznawcze o teorię umysłu. Jak działałaby lewa połowa mózgu,

gdyby nie miała dostępu do tej zdolności?

Michael Miller, mój dawny student, a  obecnie kolega, oraz Walter

Sinnott--Armstrong, wybitny filozof, połączyli siły, aby zbadać

implikacje odkrycia Saxe dla pacjentów po zabiegu rozszczepienia

[9]
mózgu . Chcieli się dowiedzieć, czy jedna, odseparowana półkula może

oceniać kwestie moralne inaczej niż druga. Wyniki otrzymane przez

Saxe sugerują, że u  osoby z  rozszczepionym mózgiem jedna półkula

(prawa) jest wyposażona w  moduł oceniający stany mentalne oraz

intencje innych, podczas gdy druga (lewa) go nie ma. Czy po


rozdzieleniu lewa półkula będzie działać inaczej z  powodu utraty

dostępu do tego modułu?

Filozofowie moralności lubią rozważać dylematy moralne jako

kwestie natury deontologicznej lub utylitarnej. W przełożeniu na język

potoczny: „Czy ten dylemat należy rozstrzygnąć poprzez rozważenie, co

jest z  natury właściwe, jaki jest nasz obowiązek moralny, czy też

rozwiązanie powinno zmierzać do maksymalizacji dobra ogółu?”

Istnieje wiele sposobów sformułowania tej dychotomii i wiele sposobów,

w  jakie można odkryć, czy danej osobie bliższe jest podejście

deontologiczne, czy utylitarne. W  serii pomysłowych badań pacjentom

opowiadano historyjki, w  których bohater zrobił coś złego, chociaż

skutki jego postępku okazały się nieszkodliwe. Jeśli sekretarka chce

zabić swojego szefa i dodaje truciznę do jego kawy, ale tak naprawdę –

  o czym kobieta nie wie –  jest to zwykły cukier, więc szef wypija kawę

i  nadal czuje się świetnie, to czy jej postępowanie było dopuszczalne?

Były też inne historyjki, w  których bohater zrobił coś, co wydawało się

niewinne, ale okazało się tragiczne w  skutkach dla innej osoby: jeśli

sekretarka jest przekonana, że wsypuje cukier do kawy szefa, ale tak

naprawdę jest to trucizna pozostawiona tam przypadkowo przez

chemika, więc po wypiciu kawy mężczyzna pada bez życia, to czy

działanie kobiety było dopuszczalne? Po wysłuchaniu historyjek pacjent

miał po prostu ocenić, czy postępowanie bohatera było „dopuszczalne”,

czy „zabronione”.

Jak łatwo się domyślić, większość ludzi ocenia działanie w  złych

zamiarach jako zabronione, niezależnie od tego, jaki był jego skutek.

W  tym sensie większość ludzi przyjmuje perspektywę deontologiczną.

Podobnie większość badanych ocenia działanie osoby, która nie miała

złych zamiarów, jako dopuszczalne (choć nie zawsze), nawet jeśli

czasami takie niewinne postępowanie prowadzi do tragedii. Pacjenci

z  rozszczepionym mózgiem zachowują się zupełnie inaczej. Wydawało


się, że ich lewa, mówiąca półkula początkowo udzielała odpowiedzi

utylitarnej na wszystkie historyjki. Tak więc, jeśli bohater historyjki

działał w złych zamiarach, ale nikomu nie stało się nic złego, to badani

oceniali jego zachowanie jako dopuszczalne. Jeśli natomiast bohater

nie miał złych zamiarów, ale jego działanie komuś zaszkodziło, to

oceniano je jako zabronione. Zważywszy na to, jak oczywiste były

historyjki wykorzystane w  tym badaniu, otrzymane wyniki były

zdumiewające. O  co tutaj chodzi? Od-łączona lewa półkula nie potrafi

wziąć pod uwagę zamiarów bohatera historyjki –  zachowuje się tak,

jakby nie miała teorii umysłu.

Zaraz potem wielu pacjentów próbowało spontanicznie wytłumaczyć,

dlaczego wybrało odpowiedź utylitarną, a  nie rozwiązanie

deontologiczne. Badani wydawali się wyczuwać, że z ich odpowiedziami

coś jest nie w porządku, i często racjonalizowali swoje oceny bez żadnej

zachęty. Pamiętaj –  lewa półkula ma swojego interpretatora, moduł,

który stara się wyjaśnić zarówno zachowanie, które na jej oczach

wydobywa się z  ciała, jak i  odczuwane przez siebie emocje. Nie

zapominaj, że reakcja emocjonalna doświadczana przez jedną połowę

mózgu jest odczuwana przez obie półkule. Jeśli tę emocję wywołało

doświadczenie prawej półkuli, to lewa nie wie, dlaczego ją odczuwa, ale

mimo to próbuje ją wyjaśnić. Kiedy więc prawa połowa mózgu słyszała

odpowiedź lewej półkuli (pomimo ograniczonych zdolności językowych

prawa półkula potrafi co nieco zrozumieć), była równie zszokowana, jak

my, co wywoływało reakcję emocjonalną niepasującą do tego, co lewa

półkula uważała za sensowną odpowiedź. Groziło to poważnym

konfliktem, nic dziwnego zatem, że specjalny moduł w  lewej półkuli

(moduł interpretujący, zawsze gotowy wyjaśnić zachowanie

wygenerowane przez milczącą, odłączoną prawą półkulę) wkraczał do

akcji i  próbował wytłumaczyć, co się dzieje. Na przykład w  jednej

z  historyjek kelnerka podała klientowi ziarna sezamu w  błędnym


przekonaniu, że spowodują u  niego niebezpieczną reakcję alergiczną.

Pacjent J.W. ocenił postępowanie kelnerki jako dopuszczalne. Po chwili

spontanicznie dodał: „Ziarenka sezamu są takie malutkie. Nikomu nie

mogą zrobić krzywdy”.

W mojej metaforze bąbelek jest wynikiem przetwarzania w  module

lub grupie modułów w  architekturze warstwowej. Specjalny moduł,

który ocenia intencje innych ludzi, u  pacjentów z  rozszczepionym

mózgiem jest odłączony i  odizolowany od obdarzonej mową lewej

półkuli. W  konsekwencji wynik przebiegających w  nim procesów

przetwarzania nie wypływa na powierzchnię, aby przyłączyć się do

walki o  dominację w  lewopółkulowym procesie podejmowania decyzji.

Nie może być częścią tego bulgocącego procesu, jeśli nie znajduje się –

  fizycznie –  w lewej półkuli, wśród pęcherzyków mających dostęp do

języka i  mowy. Dlatego, co niesamowite, brakuje wiedzy o  zamiarach

drugiej osoby. Tymczasem bąbelki będące wynikiem przetwarzania

emocjonalnego w  śródmózgowiu docierają do obu półkul. Dopiero

wtedy, gdy prawa półkula słyszy odpowiedź lewej, co wywołuje reakcję

emocjonalną odczuwaną przez obie połowy mózgu, lewa półkula

dostrzega, że coś się nie zgadza. To uruchamia proces uzasadnienia.

Warto dodać, że lewa półkula przechowuje wspomnienia z  całego życia

dotyczące norm moralnych obowiązujących w  kulturze, w  której

dorastała, i może je wykorzystać do sformułowania wyjaśnienia.

Odkrywamy, że subtelnościami naszego życia psychicznego

zawiadują określone moduły w  naszym mózgu. Powtórzmy: lewa

półkula, która korzysta z  modułów umożliwiających abstrakcyjne

myślenie, kodowanie werbalne i  wiele innych funkcji, nie ma modułu

odpowiedzialnego za ocenę intencji innych ludzi. Wykazuje jednak

nadzwyczajną zdolność do wnioskowania. Jeśli skutek jest pozytywny,

to wnioskuje, że środki do jego osiągnięcia również były bez zarzutu. Co

za tym idzie –  jeśli skutek jest dobry, to działanie, które do niego


doprowadziło, było dopuszczalne. Jeżeli zaś skutek jest zły, to działanie

było niedopuszczalne. To, co najlepsze dla większości, jest w porządku.

Najbardziej niesamowitym, niemal surrealistycznym aspektem tych

badań jest możliwość, że jeśli brakuje odpowiedniego modułu

odpowiedzialnego za myślenie o innych, to dana osoba nie jest w stanie

się tego nauczyć.

Jak to jest być prawą półkulą?


Co by było, gdybyś nagle stracił lewą półkulę mózgu? Jakie byłoby

twoje świadome doświadczenie? Pamiętaj, że ty sam nie zauważyłbyś

żadnej różnicy, ponieważ nie odczuwałbyś braku modułów lewej

półkuli. Naprawdę. Na skutek utraty ośrodka mowy twoje zdolności

porozumiewania się i  rozumienia gwałtownie by się pogorszyły. Prawa

półkula radziłaby sobie z  nader ograniczonym zakresem słownictwa

i  rozumienia. Jednym z  najważniejszych czynników wpływających na

zmianę twoich doświadczeń byłaby jednak utrata zdolności do

wyciągania wniosków. Nieustannie używasz tej prawopółkulowej

umiejętności, a  jej brak skutkowałby zupełnie innym doświadczaniem

świata. Co prawda wiedziałbyś, że inni mają intencje, przekonania

i  pragnienia, i  próbowałbyś zgadnąć, jakie one są, ale nie potrafiłbyś

wnioskować o  przyczynach i  skutkach. Nie mógłbyś wywnioskować,

dlaczego druga osoba się złości albo ma takie, a nie inne przekonanie.

Duża część twoich interakcji społecznych kończyłaby się

nieporozumieniami i  frustracją obu stron. W  dodatku utrata zdolności

do wnioskowania nie ograniczałaby się do świata społecznego. W ogóle

nie umiałbyś wnioskować o  związkach przyczynowych. Nie tylko nie

mógłbyś się domyślić, że twoja sąsiadka jest wściekła, ponieważ

zostawiłeś otwartą bramę i  jej pies wybiegł na ulicę, lecz także nie

potrafiłbyś wywnioskować, iż pies uciekł dlatego, że brama była


otwarta. Nie rozumiałbyś także, że twój samochód nie chce zapalić,

ponieważ zostawiłeś włączone radio.

Chociaż miałbyś dobrą orientację w  przestrzeni, nie rozumiałbyś

przyczyn i  skutków opisanych przez fizykę. Nie umiałbyś wyciągać

wniosków na temat niewidocznych czynników przyczynowych –  ani

grawitacyjnych, ani duchowych. Na przykład nie wywnioskowałbyś, że

kulka poruszyła się z  powodu siły, jaka została jej przekazana, gdy

uderzyła w  nią inna kulka. Ze względu na brak umiejętności

wnioskowania jednak lepiej byś sobie radził przy stole do gry w  Las

Vegas. Obstawiałbyś dowolne liczby, nie doszukując się związków

przyczynowoskutkowych między przegraną a  wygraną –  innych niż

czysty przypadek. Żadnych szczęśliwych krawatów, skarpetek czy

gestów. Nie wymyślałbyś niestworzonych historii o  tym, dlaczego

zrobiłeś to czy tamto albo dlaczego poczułeś się tak, a nie inaczej – nie

z powodu braku umiejętności językowych, ale dlatego, że nie potrafiłbyś

wnioskować o  przyczynach i  skutkach. Nie był-byś hipokrytą i  nie

racjonalizowałbyś swoich działań. Nie doszukiwałbyś się ukrytych

znaczeń, lecz rozumiałbyś wszystko dosłownie. Nie pojmowałbyś

metafor ani abstrakcyjnych idei. Bez umiejętności wnioskowania byłbyś

wolny od uprzedzeń, ale niezdolność do wnioskowania o  przyczynach

i skutkach utrudniałaby ci uczenie się. To, jakie procesy przetwarzania

bulgotałyby w  twoich rozdzielonych półkulach mózgowych,

determinowałoby treść ich świadomego doświadczenia.

Uczucia
Wszyscy doświadczyliśmy pragnienia powrotu do ulubionego miejsca

na ziemi –  miejsca, które kiedyś nas zachwyciło i  które wspominamy

z  tak wielkim sentymentem, że odczuwamy nieodpartą potrzebę, aby

tam wrócić i  odtworzyć magię tamtych chwil. Kiedy jednak wracamy


i  ponownie odwiedzamy to miejsce, nic nie jest takie samo. Uczucia są

inne. To nie znaczy, że są dobre albo złe – są po prostu inne.

Moja żona i  ja niedawno odwiedziliśmy po latach Ravello, miejsce,

które w  przeszłości wydało nam się magiczne. Miasteczko nie utraciło

swego naturalnego piękna. Nadal miało swoją historię i  kulturę,

a  przede wszystkim –  swoich mieszkańców. A  jednak odbieraliśmy je

inaczej. Wydawało się nie pasować do naszych uczuć osadzonych we

wcześniejszym doświadczeniu. Czy zawiodła nas pamięć, czy też

inaczej odczuwaliśmy życie w  ogóle i  czy te zmienione uczucia

zabarwiły nasze aktualne doświadczenie?

Nasze zdroworozsądkowe wyobrażenie na temat doświadczeń

z  przeszłości jest takie, że każde takie doświadczenie ma pewne

zabarwienie uczuciowe, specyficzne dla danego wydarzenia. Konkretne

uczucie jest związane z  rzeczy-wistym doświadczeniem, więc

spodziewamy się, że uda nam się przywołać to uczucie, gdy odtworzymy

połączone z  nim doświadczenie. Czułeś się radosny i  podekscytowany,

kiedy spędzałeś wakacje w  miejscu X; jeśli tam wrócisz, to znowu

odczujesz radość i podekscytowanie. Może dlatego ludzie kupują współ-

dzielone mieszkania wakacyjne. Pierwszy pobyt był cudowny, ale

następny… i następny? Powtarzamy dane zdarzenie i spodziewamy się,

że wraz z  nim automatycznie pojawi się pierwotne uczucie. Ja jednak

twierdzę, że tak nie bę-dzie. Powinniśmy spojrzeć na to inaczej.

Magiczna chwila, która zachwyciła nas w  przeszłości, jest

przechowywana w  postaci informacji o  dawnym zdarzeniu. Zostaje

umieszczona w pamięci w sposób, którego nadal nie rozumiemy, ale są

to informacje symboliczne, suche i formalne, podobnie jak DNA – inny

przykład informacji symbolicznych –  i tak jak DNA, mają pewną

strukturę fizyczną. W owej strukturze informacyjnej może być zawarty

fakt, że zapamiętane zdarzenie wiązało się z  pozytywnymi uczuciami,

ale same uczucia nie są przechowywane –  jedynie informacja o  nich.


Kiedy bąbelek wspomnienia wypływa na powierzchnię, towarzyszą mu

pęcherzyki, z  których uwalniają się nasze obecne uczucia dotyczące

zdarzenia z  przeszłości. Uczucia pochodzą z  innego układu, mającego

własne pęcherzyki (wyniki przetwarzania) –  odrębnego od systemu

pamięci. Krótko mówiąc, odłączenie wymiaru emocjonalnego pokazuje,

że różne systemy zbiegają się w  czasie, aby wytworzyć uczucie

odnoszące się do danego wspomnienia. Można to porównać z  muzyką

towarzyszącą dramatycznej scenie filmowej. Muzyka i  obraz są

odrębne, ale kiedy je połączymy, ścieżka dźwiękowa dodaje filmowi

emocji. W  miarę jak bąbelki szybko przepływają jeden po drugim,

powstaje złudzenie, że nasze uczucie jest związane z  zapamiętanym

zdarzeniem.

Mamy zatem bąbelki wspomnień i  bąbelki uczuć. Kiedy myślimy

o chwili z przeszłości, nasze uczucia dotyczące tej chwili tak naprawdę

nie pochodzą z  przeszłości, lecz są naszymi obecnymi uczuciami,

nałożonymi na moment zapisany w  pamięci. Zazwyczaj one też są

pozytywne, ale same te uczucia nie są przyśrubowane do dawnych

wspomnień. Staje się to bardziej oczywiste, kiedy dzisiejsze uczucia są

przeciwieństwem tych z  przeszłości. Wyobraź sobie na przykład, że

wspominasz tę chwilę, gdy poznałeś wyniki egzaminu, który oblałeś na

studiach. Pamięć ci podpowiada, że czułeś się wtedy okropnie, prawda?

Załóżmy jednak, że po oblaniu egzaminu pomaszerowałeś do gabinetu

wykładowcy i  poprosiłeś o  pomoc, dzięki czemu zainteresowałeś się tą

tematyką, co z  kolei zapoczątkowało twoją karierę w  tej dziedzinie.

Kiedy spoglądasz wstecz na to zdarzenie –  otrzymanie oceny

niedostatecznej z  egzaminu –  dzisiejszy ty wie, co z  tego wynikło,

i  może o  tym myśleć tylko pozytywnie. Intelektualnie pamiętasz, że

wtedy czułeś się źle, ale nie potrafisz wskrzesić tych uczuć. Bardziej

odporne na zmianę perspektywy wydają się uczucia wstydu

i  zażenowania. Może nadal oblewasz się rumieńcem na wspomnienie


dawnej gafy towarzyskiej. Być może jednak tylko się śmiejesz i  z

niedowierzaniem kręcisz głową na myśl o  tym, co wprawiało

w  zakłopotanie młodszego (nastoletniego) ciebie –  kiedy chowałeś się

na tylnym siedzeniu w  kinie dla zmotoryzowanych, żeby nikt cię nie

zobaczył z  rodzicami. Naprawdę to robiłem? Teraz już się nie

rumienisz, a jeśli nawet, to z zupełnie innego powodu.

Moduły, które wytwarzają uczucia, różnią się od tych, które

odpowiadają za myśli, pamięć czy decyzje. To, co czujemy w  danej

chwili, w  trakcie jakiegoś zdarzenia, staje się aspektem wspomnienia,

wymiarem, informacją, którą możemy opatrzyć etykietą, zakodować

neuronalnie i przechować w pamięci.

Samo uczucie pochodzi jednak od innego, zupełnie niezależnego

dostawcy w  mózgu. W  czasie ponownych odwiedzin w  danym miejscu

jego ustawienia neurologiczne mogą być inne niż za pierwszym razem.

W  obu wypadkach właśnie owe ustawienia neurologiczne decydowały

o  twoich uczuciach dotyczących każdej z  wizyt. Za pierwszym razem

istotną rolę odgrywało wyzwanie związane z  podróżą w  nieznane,

ciekawość, żądza przygód, często młodość, może też adrenalina. Za

drugim razem wracasz na dobrze znany teren, starszy i  bogatszy

w  doświadczenie życiowe. Tym razem wyzwanie nie jest równie eks-

cytujące, a twoja ciekawość nie sięga zenitu. Wiesz mniej więcej, czego

się spo-dziewać, a  w twoich żyłach krąży mniej adrenaliny. Czujesz się

inaczej –  niekoniecznie lepiej lub gorzej, po prostu inaczej. Dzieje się

tak nie tylko wtedy, gdy wracamy do miejsc z  przeszłości, lecz także

wtedy, gdy próbujemy odtworzyć inne doświadczenia. Dobrze opisał to

Neil Young: „Wciąż staram się być taki, jak dawniej, ale nie mam już

dwudziestu lat. (…) Nie jestem pewny, czy umiałbym odtworzyć to

uczucie. To ma coś wspólnego z tym, ile wtedy miałem lat, co się działo

na świecie, co właśnie zrobiłem i co chciałem zrobić, z kim mieszkałem,

[10]
kim byli moi przyjaciele i jaka była pogoda” .
Sentio ergo sum
Kilkanaście lat temu Steven Pinker zauważył: „Coś w  problemie

świadomości sprawia, że ludzie, jak Biała Królowa w  Co Alicja

widziała po drugiej stronie lustra, wierzą w  sześć niemożliwych rzeczy

przed śniadaniem. Czy większość zwierząt rzeczywiście może być

nieświadoma –  somnambulicy, zombi, automaty? Alboż pies nie ma

[11]
zmysłów, uczuć, namiętności? Jeśli go kłujesz, czyż nie czuje bólu?”

Jaak Panksepp zgodził się z  Pinkerem, że zaprzeczanie tym faktom

oznacza wiarę w rzeczy niemożliwe, i obwinił Kartezjusza, który – jego

zdaniem – posunął się za daleko, odmawiając zwierzętom świadomości.

Co więcej, uważał, że Kartezjusz oszczędziłby nam wszystkim mnóstwa

kłopotów, gdyby na zadane przez siebie pytanie: „Czym jest ten «ja»,

którego znam?”, odpowiedział po prostu: „Czuję, więc jestem”,

i  pozostawił poznanie poza równaniem opisującym subiektywne

doświadczenie. Panksepp zgodziłby się z  Patteem, że od czasów

Kartezjusza prawie wszyscy przyglądali się zbyt wysokim partiom

drzewa ewolucyjnego w  poszukiwaniu sposobów, w  jakie układy

[12]
neuronalne wytwarzają subiektywne doświadczenie afektywne .

Panksepp wysunął tezę, że subiektywne doświadczenie afektywne

powstało wtedy, gdy ewolucyjnie stary system emocji połączył się

z  pierwotną wersją neuronalnej mapy ciała, która oddziela self od

[13]
świata zewnętrznego . Aby stworzyć taką mapę, trzeba tylko nanieść

informacje czuciowe z wnętrza organizmu i z jego otoczenia na arkusze

neuronów w  mózgu. Przekonywał, że do powstania subiektywnego

doświadczenia konieczne są dwa elementy: informacje o  wewnętrznych

i  zewnętrznych stanach podmiotu (zapisane symbolicznie) oraz

konstrukcja zintegrowanej symulacji neuronalnej podmiotu

w  przestrzeni –  naprędce sklecony, niestaranny model, zbudowany

z wyładowań neuronów. Informacja i konstrukcja – komplementarność,


jaką widzieliśmy wcześniej w  DNA. Wyższe poznanie, czy też wiedza,

że masz jakieś Ja –  self (czy-li samoświadomość), nie jest częścią

oryginalnego przepisu. Aby poruszać się w  środowisku bezpiecznie

i  efektywnie, jeść, kiedy czujesz głód, i  tak dalej, nie musisz wiedzieć,

że jesteś samoświadomy, ale musisz znać granice swojego ciała

w  przestrzeni, która je otacza. Gdybyś ich nie znał, nieustannie wpa-

dałbyś na rozmaite przedmioty i  na każdym kroku dokonywałbyś

błędnych ocen –  na przykład dotyczących tego, czy zmieścisz się

w  przytulnym legowisku albo czy zdołasz przeskoczyć z  kamienia na

kamień. Potrzebujesz także motywacji, by działać w sposób sprzyjający

przetrwaniu i  reprodukcji. Innymi słowy, nie potrzebujesz, aby

pęcherzyki unoszące się z  zaawansowanej ewolucyjnie kory mózgowej

były świadome subiektywnego doświadczenia. Kartezjusz potrzebował

tylko sygnałów ze struktur podkorowych, aby czuć, że jest sobą (Ja) –

 nie musiał o tym myśleć.

W istocie nawet owad potrzebuje informacji o  swoim ciele

w  przestrzeni, aby poruszać się bezpiecznie i  efektywnie. Ja sam

zostałem wyprowadzony w  pole przez niejedną muchę, kiedy biegałem

i  bezskutecznie machałem packą. Biolog Andrew Barron i  filozof

neuronauki Colin Klein –  obaj z  australijskiego Uniwersytetu

Macquarie –  zaczęli badać świat owadzich mózgów i  odkryli, że

struktury zwane kompleksem centralnym spełniają funkcje podobne

do tych pełnionych przez śródmózgowie u  kręgowców –  generują

„jednolity model przestrzenny stanu i  położenia owada

[14]
w środowisku” . Innymi słowy, funkcje, które lokalizują te stworzenia

w  przestrzeni, są obecne w  mózgach karaluchów i  świerszczy,

szarańczy i  motyli, muszek owocówek i  pszczół miodnych –  podobnie

jak w  śródmózgowiu kręgowców. Krótko mówiąc, zadanie

uporządkowania niezliczonych systemów potrzebnych do wykonania

danego działania jest szeroko rozpowszechnioną cechą biologiczną


organizmów złożonych. Występuje i u owadów, i u nas, ludzi. Zgadzając

się z  Pankseppem i  Merkerem, Barron i  Klein konkludują: „Ta

zintegrowana, egocentryczna reprezentacja świata z  perspektywy

zwierzęcia wystarczy do powstania subiektywnego doświadczenia”.

Uważają też, że opisana świadomość własnego ciała w  przestrzeni

wystarcza badanym przez nich owadom, co oznacza, że one też mają

pewną formę subiektywnego doświadczenia, które występowało

u  wspólnego przodka kręgowców i  bezkręgowców w  czasach eksplozji

kambryjskiej, około 550 milionów lat temu.

Barron i  Klein nie są odosobnieni. Neurobiolodzy Nicholas

Strausfeld z  Uniwersytetu Stanu Arizona i  Frank Hirth

z  londyńskiego King’s College zapuścili się na własny konar drzewa

ewolucyjnego. Przeprowadzili wszechstronną analizę cech

anatomicznych, rozwojowych, behawioralnych i  genetycznych jąder

podstawnych u  kręgowców i  porównali je z  cechami kompleksu

centralnego stawonogów (których gałąź stanowią owady). Znaleźli tak

wiele podobieństw, iż doszli do wniosku, że obwody neuronalne

kompleksu centralnego stawonogów i  jąder podstawnych kręgowców

[15]
mają wspólne pochodzenie . De facto jedne i  drugie wywodzą się

z  konserwowanego ewolucyjnie (niezmiennego) programu

genetycznego. Oznacza to, że obwody niezbędne do wyboru zachowań

powstały bardzo wcześnie w  toku ewolucji. Już wspólny przodek

kręgowców i  stawonogów chodził po świecie z  takim obwodem,

a  bąbelki przetworzonych informacji na temat jego położenia i  wrażeń

czuciowych wypływały na powierzchnię, aby kierować jego działaniami.

Strausfeld i  Hirth zasugerowali nawet, że jego wyposażenie mózgowe

było wystarczające, aby umożliwić doświadczenie fenomenalne. Chociaż

mogli się posunąć za daleko, ich prace pokazują, jak głęboko

zakorzenione ewolucyjnie mogą być podstawowe mechanizmy, które

odkrywamy u  ludzi. Oto piękno badań ewolucyjnych i  porównawczych.


Aspekty naszego życia psychicznego, które uznajemy za niepowtarzalne

wytwory ludzkiego mózgu, w  rzeczywistości istnieją od niepamiętnych

czasów, a ludzki mózg tylko je dopracował.

Metodyczne czy chaotyczne bąbelki?


Nasze świadome doświadczenie jest ciągłym, nieprzerwanie płynącym

strumieniem myśli i  wrażeń. Jak to możliwe, zważywszy na wszystkie

te bąbelki walczące o  pierwszeństwo? Czy pęcherzyki pękają jak

popadnie, czy są raczej produktem systemu dynamicznej kontroli? Czy

istnieje warstwa kontrolna, która daje przyzwolenie jednym bąbelkom,

a odrzuca inne?

Procesy przetwarzania w  danym module są kontrolowane między

innymi przez informacje wejściowe, jakie do niego trafiają. Wyobraź

sobie, że wgryzasz się w  truflę z  gorzkiej czekolady. Żaden nerw

aferentny (wstępujący) –  czyli nerw przewodzący impulsy do mózgu –

  nie zostaje zaktywizowany przez receptory smaku wykrywające

słodycz, więc nie wyczuwasz niczego słodkiego i  żadne informacje

o  słodkim smaku nie są przetwarzane. Zamiast tego aktywizują się

receptory wykrywające gorycz, a  twoje usta wypełnia gorzki smak.

Przetwarzane są informacje na temat goryczy. Jeśli chwilę potem

włożysz do ust wyglądającą tak samo truflę z  mlecznej czekolady, to

włączy się moduł przetwarzający informacje o  słodyczy i  zacznie

błyskawicznie wtłaczać słodkie bąbelki do twojej świadomości,

z  ogromną przewagą pokonując gorycz w  tej rywalizacji. Gorzki smak

staje się odległym wspomnieniem, ta chwila należy do słodyczy –  do

czasu, gdy pojawi się następny bąbelek. Nie potrzeba do tego żadnych

procesów poznawczych. Słodki sygnał zwyciężył w  bąbelkowym

festiwalu. Czy otrzymał dodatkową pomoc?


Pewien rodzaj selektywnego wzmacniania sygnałów zaobserwowano

[16] [17]
u  róż-nych gatunków zwierząt –  od krabów , przez ptaki , po

[18]
naczelne – co wskazuje, że tę zdolność dzielimy z  naszym ostatnim

wspólnym przodkiem, który żył na ziemi około 550 milionów lat temu.

Najwcześniejszym przejawem owej zdolności do kontroli danych była

pierwotna forma uwagi –  proces pomocny w  radzeniu sobie z  masą

informacji czuciowych zasypujących komórki odpowiedzialne za

eksplorowanie środowiska. Proces wzmacniania sygnałów pojawił się

na wczesnym etapie ewolucji, aby pomóc organizmom w  ustaleniu,

które spośród bombardujących je bodźców mogą być szczególnie ważne

dla przetrwania (lepiej traktować priorytetowo informacje dotyczące

zbliżającego się zagrożenia, posiłku lub potencjalnego partnera niż

inne bodźce), i  zachował się u  wszystkich form życia wywodzących się

od tego pradawnego organizmu.

Steven Wiederman i  David O’Carroll z  Uniwersytetu w  Adelajdzie

w  Australii odkryli, że w  mózgu współczesnych ważek istnieje

pojedynczy neuron wzrokowy, który wybiera jeden konkretny cel

przypominający ofiarę i  koncentruje się na nim, całkowicie ignorując

[19]
inny bodziec . To odkrycie jest inte-resujące nie tylko dlatego, iż

pokazuje, że u  ważek istnieje pewna forma konkurencyjnej selekcji,

niezbędna w  procesie uwagi wzrokowej, lecz także dlate-go, że ów

proces selektywnej uwagi jest realizowany przez pojedynczą komórkę.

U  kręgowców selektywne wzmacnianie sygnałów rozwinęło się

ewolucyjnie w  coś, co dziś nazywamy uwagą –  skomplikowany

mechanizm, który kontroluje napływające dane, a  co za tym idzie –

  nasz umysł. Możemy więc być po-chłonięci oglądaniem trzymającego

w  napięciu filmu, ale wystarczy jeden dźwięk alarmu

przeciwpożarowego, a  nasz system kontroli danych natychmiast

wzmocni ów piskliwy sygnał i  oderwie nasz umysł od filmu, aby

popchnąć go do działania.
Choć selektywne wzmacnianie sygnałów ma pewną kontrolę nad

naszym umysłem, również nasz umysł w  pewnym stopniu kontroluje

uwagę. Chcę przez to powiedzieć, że uwaga ma dwa komponenty:

oddolny i  odgórny. Jeśli umówiłeś się na randkę w  ciemno

z  dziewczyną, którą masz rozpoznać po wpiętej we włosy czerwonej

róży, to twoje oczy będą lustrować otoczenie, koncentrując się przede

wszystkim na włosach. Jest to uwaga odgórna („góra–dół”), którą

kieruje twój plan rozpoznania nieznajomej dziewczyny. Uwaga oddolna

(„dół–góra”) nie zaprowadzi nas daleko w  grze o  przetrwanie.

Organizmy, u  których rozwinęła się uwaga odgórna, miały przewagę,

więc ten rodzaj uwagi stał się obowiązkowy. Jest on wysoce rozwinięty

zarówno u ptaków, jak i u ssaków, których wspólny przodek chodził po

ziemi około 350 milionów lat temu, tak więc owa zdolność liczy sobie co

najmniej tyle lat, lecz jest ewolucyjnie młodsza niż uwaga oddolna. Jest

aplikacją dodaną – nową warstwą.

I tym razem Pattee udziela nam użytecznej wskazówki, w  jaki

sposób taka warstwa mogła powstać w toku ewolucji. Zawodność jednej

warstwy jest podstawowym czynnikiem lub warunkiem sprzyjającym

powstaniu nowej:

Kiedy jakiś system nie ma reprezentacji czy opisu, aby poradzić sobie z  konkretną

sytuacją, powstaje –  jak można to ująć –  próżnia kompetencyjna, bądź też próżnia

decyzyjna. Nazwałbym to swego rodzaju niestabilnością –  kiedy trzeba podjąć jakąś

decyzję, ale nie istnieje procedura decyzyjna. Pojawia się niejasność, a  drobne

przyczyny mogą prowadzić do poważnych skutków. Wywołuje to kryzys w  systemie,

[20]
a wtedy może powstać nowe zachowanie .

Tak więc w  miarę jak systemy stawały się coraz bardziej złożone,

potrzebna była warstwa kontrolna, pomocna w  radzeniu sobie

z  natłokiem niezależnych bodźców i  wynikających z  nich zachowań.

Chociaż wzmacnianie bodźców jest świetnym rozwiązaniem, potrzebna


była warstwa kontrolna, aby jakoś skoordynować skrzeczenie

wszystkich modułów.

Słynna awaria warstwy kontrolnej


Jak pamiętasz z  wcześniejszych rozważań, ludzie z  uszkodzeniami

prawego płata ciemieniowego mogą ignorować (pomijać) lewą stronę

pola widzenia, nawet w  wyobraźni i  we wspomnieniach. To zjawisko

[21]
odkrył znakomity włoski neuropsycholog Edoardo Bisiach , który

prosił pacjentów, aby opisali z  pa-mięci Piazza del Duomo

w  Mediolanie z  dwóch perspektyw. To piękny plac

z  charakterystycznymi budynkami po każdej stronie i  wielką katedrą

na końcu. Każdy mediolańczyk potrafi bez trudu go sobie wyobrazić.

Kiedy badanych poproszono, aby opisali katedrę, tak jakby stali

przodem do niej i  patrzyli prosto na jej frontową ścianę, robili to

z  łatwością, ale opisywali jedynie budynki wznoszące się po prawej

(północnej) stronie placu. Pomijali opis budynków po stronie lewej

(południowej). Następnie Bisiach poprosił badanych, aby w  wyobraźni

obrócili się o  180 stopni i  opisali plac z  perspektywy osoby stojącej na

schodach katedry. Tym razem ci sami pacjenci z  łatwością opisywali

budynki wznoszące się na prawo od katedry (po stronie południowej),

lecz nie wspomnieli ani słowem o  tych po lewej stronie (północnej) –

 tych samych, które opisali parę minut wcześniej, gdy wyobrażali sobie,

że stoją na placu zwróceni w przeciwnym kierunku!

Ten spektakularny przykład kliniczny ujawnia istnienie dwóch

zupełnie odrębnych zestawów modułów. Nie ulega wątpliwości, że

moduły odpowiedzialne za tworzenie obrazów w  umyśle pozostają

nienaruszone, a  wszystkie potrzebne informacje są dostępne, ale te

moduły są kontrolowane przez dodatkowy moduł, oceniający, z  której

strony przestrzeni ów obraz zostanie przedstawiony. Ten moduł nie


działa jak należy. Wiele lat później neurolog Denise Barbut i  ja

mieliśmy okazję zbadać przypadek pacjenta z podobnym uszkodzeniem

prawego płata ciemieniowego w  New York Hospital i  otrzymaliśmy

[22]
wyniki zgodne z ustaleniami Bisiacha .

Świadomość wzbogacona przez ewolucję


Jeśli chodzi o  świadomość, to wydaje się, iż zapomnieliśmy, że nasz

mózg ewo-luował poprzez stopniowe zwiększanie stopnia złożoności.

W toku ewolucji moduły i warstwy były stopniowo rozbudowywane, aby

radzić sobie z  kolejnymi perturbacjami, a  wraz z  nimi zmieniała się

i  poszerzała zawartość treściowa naszego świadomego doświadczenia.

Każda warstwa ma własne, niezależne reguły przetwarzania

i  przekazuje swoje dzieło –  swój bąbelek przetwarzania –  kolejnej

warstwie. Podczas gdy przetwarzanie w  obrębie danego modułu –

  przebiegające z  warstwy do warstwy –  może mieć charakter seryjny

(sekwencyjny), moduły pracują równolegle, a  bąbelki przetwarzania

wydobywają się z  każdego z  nich, zmierzając ku ostatecznemu

uświadomieniu.

W analogii bąbelkowej wyniki przetwarzania z  różnych modułów co

chwila wpadają do naszej świadomości. Można przypuszczać, że dany

pęcherzyk zostaje umieszczony w  centrum uwagi przez warstwę

kontrolną, której proto-kół składa się z  arbitralnych reguł –  reguł,

które zostały wyselekcjonowane, ponieważ zapewniały świadome treści

zawierające najbardziej rzetelne i  trafne informacje, przydatne

w  napotkanej sytuacji. Kiedy pojawia się lepsza, bardziej niezawodna

reguła, protokół może się zmienić. Rozważmy na przykład bąbelek

przekonań, który pojawia się w  świadomości. Załóżmy, że jesteś

przekonany, iż tłuszcze nasycone są niezdrowe i  tuczące. Uważasz, że

należy zastąpić spoży-wane w  ten sposób kalorie węglowodanami.


Wierzysz w  to, ponieważ słyszałeś tę opinię od specjalistów

w  dziedzinie zdrowia publicznego, dietetyków i  swojego lekarza. Kiedy

robisz zakupy spożywcze, na powierzchnię wypływają bą-belki, które

każą ci się trzymać z  daleka od tłuszczów nasyconych. Później jednak

dokonujesz pewnego spostrzeżenia. Twoje doświadczenie nie

potwierdza opinii specjalistów. Im więcej tłuszczu eliminujesz z  diety

i  zastępujesz węglowodanami, tym bardziej przybierasz na wadze.

Jeszcze później czytasz opasłe tomisko, którego autor przeanalizował

i  ocenił wszystkie badania będące podstawą opinii specjalistów. Jego

analiza wykazała, że większość tych badań nie spełniała standardów

rzetelnych praktyk naukowych, a  niewielka ich część, która spełniała

te standardy, nie potwierdziła słuszności wspomnianych twierdzeń. De

[23]
facto jej wyniki pokazują, że jest odwrotnie . To cię przekonuje.

Kupujesz masło i  śmietanę i  zjadasz je z  przyjemnością. Tracisz na

wadze. W  sklepie spożywczym to bąbelki śmietany wysuwają się na

czoło. Pojawiła się lepsza i  bardziej wiarygodna reguła, więc protokół

się zmienił. No i twoja kawa jest teraz dużo lepsza!

Co istotne, luki, moduły i  warstwy mogą nam pomóc w  zrozumieniu

za-chowań, jakie obserwujemy u  ludzi z  uszkodzeniami mózgu. Jeśli

tracimy tkankę nerwową, która przetwarza określone aspekty

informacji, to te informacje wypadają z  naszego repertuaru bąbelków

i przestają wypełniać treścią nasze świadome doświadczenie. Podobnie

dzieje się w  sytuacji, gdy prawa półkula zostaje oddzielona od lewej –

 odtąd żadna półkula nie może liczyć na to, że bąbelki z drugiej połowy

mózgu pojawią się i wzbogacą jej świadome doświadczenie, co skutkuje

zubożeniem świadomego doświadczenia jednej i drugiej półkuli.

[1]
James, 1890, s. 149.

[2]
Roser i in., 2005, s. 591.
[3]
Popularna gra zręcznościowa, w  której trzeba jak najszybciej

uderzać młotkiem krety wychylające się z norek (przyp. tłum.).

[4]
Sherrington, 2009, s. 375.

[5]
Jerne, 1967, s. 200–205.

[6]
Leslie i Keeble, 1987.

[7]
Nagel, 1974.

[8]
Young i Saxe, 2009.

[9]
Miller i in., 2010.

[10]
Film dokumentalny o  Neilu Youngu, część 2, dostęp: 27 sierpnia

2016, http://www.youtube.com/watch?v=Lslh6hC9EVQ.

[11]
Pinker, 2002, tłum. Małgorzata Koraszewska, s. 147.

[12]
Panksepp i Biven, 2012.

[13]
Panksepp, 1998.

[14]
Barron i Klein, 2016.

[15]
Strausfeld i Hirth, 2013.

[16]
Barlow i Fraioli, 1978.

[17]
Mysore i Knudsen, 2013.

[18]
Beck i Kastner, 2009.

[19]
Wiederman i O’Carroll, 2013.

[20]
Buckley i Peat, 2009, s. 134.

[21]
Bisiach i Luzzatti, 1978.

[22]
Barbut i Gazzaniga, 1987.

[23]
Taubes, 2007.
ROZDZIAŁ X
Świadomość jest instynktem
To, co dla jednego człowieka jest „magią”,
dla innego jest inżynierią.
– Robert A. Heinlein

W młodości, w  czasach, gdy zaczynałem studia doktoranckie

w  Caltech, zaprzyjaźniłem się z  filozofem polityki, Willmoorem

Kendallem. Kendall był prawdziwym rebeliantem, tak nieznośnym, że

władze Yale słono mu zapłaciły, aby skłonić go do odejścia. Kendall

podważył wszystkie niekwestionowane założenia dotyczące prawie

wszystkiego, po czym wyruszył na zachód. Zachód nie był dla niego

nieznanym lądem, ponieważ Kendall urodził się w  miejscowości

Konawa w  stanie Oklahoma, w  rodzinie niewidomego pastora. Po

odejściu z  Yale osiadł w  niewielkiej szkole jezuickiej w  Dallas. Miał

niepohamowany apetyt na życie i  odznaczał się niezachwianą

pewnością siebie. W  dniu, w  którym prezydent Kennedy został

zastrzelony w  Dallas, odebrałem telefon od Kendalla. Oświadczył:

„Nigdy wcześniej nie byłem na lunchu, na którym przemawiał

prezydent Stanów Zjednoczonych. Powinienem był wiedzieć, że coś się

stanie”.

Kendall nieustannie kwestionował mój sposób myślenia, ponieważ

uważał mnie za ofiarę zdziczałego współczesnego redukcjonizmu.

Byłem i  do dziś pozostaję zwolennikiem idei, że mechanizmy fizyczne

mogą wyjaśnić i  pewnego dnia wyjaśnią niemal wszystko. Kiedy

filozofowie zaczynają analizować podstawy ludzkiego myślenia,

naukowcy prowadzący badania laboratoryjne na ogół przewracają

oczami. Kendall spierał się z  kimś, kto nie był gotowy do głębokich
dyskusji i  tak naprawdę ledwie zdawał sobie sprawę z  istnienia

pewnych problemów. Ponieważ regularnie użyczałem mu swojego

mieszkania, kiedy odwiedzał Pasadenę, postanowił mi się odwdzięczyć

poprzez poszerzenie moich horyzontów. Polecił mi lekturę klasycznej

książki Michaela Polanyiego Personal Knowledge (Wiedza osobista),

która wyrosła z  wykładów imienia Gifforda, wygłoszonych przez

Polanyiego w  1951 roku. Przeczytałem ją. Od tamtej pory ta książka

tkwi w  zakamarkach mojego umysłu i  w zakamarkach mojej

biblioteczki, przemierzając ze mną Amerykę.

Polanyi –  jak opowiadał mi Kendall –  był prawdziwym omnibusem.

W  1916 roku służył jako lekarz na froncie serbskim. Podczas urlopu

zdrowotnego na-pisał swoją pracę doktorską w  dziedzinie chemii.

Chociaż kierował katedrą chemii fizycznej na Uniwersytecie

w  Manchesterze, jego szerokie zainteresowania, obejmujące ekonomię,

politykę i  filozofię, skłoniły władze tej uczelni do stworzenia specjalnie

dla niego katedry nauk społecznych. „Wiesz –  dodał Kendall –  Polanyi

codziennie odpowiada na korespondencję w  dwunastu językach”. Jako

jeden z  wielkich umysłów tamtych czasów, Polanyi, choć na stałe

mieszkał i  pracował w  Anglii, regularnie wygłaszał wykłady na

Uniwersytecie w Chicago. Lektura jego książki uzmysłowiła mi pewien

drażliwy problem: wiedza na temat części nie zawsze podpowiada nam,

jak może wyglądać całość. Dzieje się coś jeszcze, coś, co nam umyka.

Myślę, że to spostrzeżenie dało po-czątek czemuś, co nazywam

chicagowską szkołą myślenia –  szczególnemu spojrzeniu na procesy

mózgowe.

Fakt, że coś nam umykało, był następstwem metafory maszyny, która

cieszyła się popularnością od czasów Kartezjusza i  którą biolodzy

przyjęli bez zastrzeżeń. Naukowcy z  Chicago zdali sobie sprawę, że

tradycyjne, deterministyczne porównanie istot żywych do maszyn

całkowicie odwraca faktyczny stan rzeczy. Mózgi nie są podobne do


maszyn –  to maszyny przypominają mózgi, ale czegoś w  nich brakuje.

Polanyi zwrócił uwagę, że ludzie wyewoluowali na drodze doboru

naturalnego, podczas gdy maszyny są dziełem ludzi. Istnieją tylko jako

wytwór zaawansowanej ewolucyjnie materii ożywionej i  są produktem

końcowym ewolucji, nie zaś jej początkiem.

Szkoła chicagowska dała również początek idei, że powstanie życia

było uzależnione od dwóch komplementarnych sposobów opisu, a  nie

tylko od opisu oferowanego przez klasyczną fizykę, który doskonale się

sprawdza w  odniesieniu do maszyn. Oto jak podsumował to Pattee:

„Życie nie mogłoby istnieć, gdyby opierało się na takich klasycznych

opisach lub zależało od realizacji własnych wewnętrznych procesów

[1]
zapisu w  ten klasyczny sposób” . Była to kontynuacja myśli Rosena,

który już wcześniej narobił zamieszania, zadając pytanie: „Dlaczego nie

mogłoby być tak, że «uniwersalia» fizyki mają zastosowanie tylko do

niewielkiej i  szczególnej (choć niezmiernie ważnej) klasy układów

materialnych –  klasy, do której organizmy żywe nie mogą należeć,

ponieważ stanowią kategorię o zbyt wysokim poziomie ogólności? Może

[2]
to fizyka jest szczegółem, a biologia ogółem, a nie na odwrót?”

Walka z  czystym redukcjonizmem zaczęła się od Polanyiego

i  profesora Uniwersytetu w  Chicago, Nicolasa Rashevskiego, który był

nieoczekiwanym wojownikiem w kampanii przeciwko redukcjonizmowi.

Początkowo Rashevsky postanowił zmierzyć się z  problemem

wyjaśnienia matematycznych podstaw zjawisk biologicznych w  ogóle,

po tym jak poczuł się urażony na pewnym przyjęciu, gdy jeden z gości –

  biolog –  powiedział mu, że nikt nie wie, jak dzielą się komórki, i  że

nikt nie może się tego dowiedzieć, ponieważ jest to problem biologiczny,

wykraczający poza zakres fizyki. Po przeprowadzeniu ogromnej liczby

badań w  latach trzydziestych i  czterdziestych XX wieku Rashevsky

zaczął się niepokoić. Jak to opisał Rosen, jego ówczesny student:

„[Rashevsky] zadał sobie pytanie: «Czym jest życie?», i  podszedł do


niego z  perspektywy równie redukcjonistycznej, jak każdy ze

współczesnych biologów molekularnych. Problem w  tym, że kiedy zajął

się poszczególnymi funkcjami organizmu i  próbował wyjaśnić te

aspekty za pomocą odrębnych modeli i  układów formalnych, stracił

[3]
z oczu same organizmy i nie potrafił ich odnaleźć” . Zdał sobie sprawę,

że „żadnego zbioru odrębnych opisów (czyli modeli) organizmów,

choćby najbardziej obszernych i  szczegółowych, nie można skleić

w całość, aby oddać istotę samego organizmu. (…) Osiągnięcie tego celu

[4]
wymaga znalezienia nowej zasady” . Rashevsky nazwał

przedsięwzięcie poszukiwania takiej nowej zasady biologią

relacyjną. Mój mentor, Roger Sperry, który kształcił się na

Uniwersytecie w  Chicago, zaangażował się w  te poszukiwania. Owe

idee –  o czym już się przekonaliśmy –  wywarły też silny wpływ na

Howarda Patteego, któremu przypisuje się zasługę przeniesienia tego

sposobu rozumowania do czasów dzisiejszych.

Z wczesnych doświadczeń chicagowskich płynęło niepokojące

przesłanie: istnieje coś jeszcze, co trzeba wziąć pod uwagę, kiedy

myślimy o żywym orga-nizmie. Myślenie mechanistyczne jest poprawne

i  pozwala nam dowiedzieć się wszystkiego na temat części –  warstw

automatycznych procesów, które toczą się niestrudzenie w  każdym

organizmie, aby mógł istnieć. Jest jednak coś więcej, jakiś inny

czynnik, który trzeba zrozumieć, i nie chodzi tu o tajem-niczego ducha

w  systemie. To sam system, sam organizm może regulować niższe

warstwy, których jest wytworem. Oto odpowiedź na pytanie: „Czym jest

życie?”

Według Rosena nauka zawsze podstawia jakiś substytut (model) pod

to, co jest przedmiotem jej badań. Dysponując takim substytutem,

naukowcy mogą użyć wszelkich metod redukcjonistycznej nauki

i  dowiedzieć się, jak działają poszczególne części. Zakładają przy tym,

że ów substytut może zastąpić rzeczywiste zjawisko. Kiedy jednak po


przebadaniu substytutu próbują odnieść swoje ustalenia do

interesującego ich zjawiska, często im się nie udaje. Na przykład

badanie trzustki na szalce pod mikroskopem albo w probówce to jedno.

Możemy się z  niego dowiedzieć, jak działa ten narząd na poziomie

lokalnym. Dopóki jednak nie zbadamy go w  całości, w  połączeniu

z resztą ciała, nie zrozumiemy jego rzeczywistej funkcji ani tego, w jaki

sposób współpracuje z  innym, odległym systemem –  w tym wypadku

z  fragmentem jelita –  i jak jest przez niego regulowany. Fakt, że

funkcje trzustki i  jelita są ze sobą splecione, wyszedł na jaw dopiero

wtedy, gdy chirurdzy zaczęli przeprowadzać zabiegi założenia opaski

żołądkowej w celu leczenia otyłości i zaobserwowali, jak cukrzyca znika

niemal z  dnia na dzień. Dla neuronauki takim substytutem, który

zastępował mózg, była „maszyna”. Myśląc o  mózgu jako maszynie,

nieuchronnie przeoczyli całą ideę komplementarności i  jej wkład

w nasze rozumienie tego, jak ludzki mózg robi swoje sztuczki.

Sperry ujął to inaczej. Kiedy zasugerował, że nasze zdolności

mentalne są rzeczywistymi bytami i  stanowią część łańcucha

przyczynowego zdarzeń, które prowadzą do zachowań, redukcjoniści

wpadli w szał – o czym dowiedzieliśmy się w rozdziale trzecim. Sperry

nie uważał jednak zdarzeń mentalnych, takich jak myśli, za zdarzenia

niefizyczne albo duchy w  systemie, lecz za produkt konfiguracyjnych

własności obwodów neuronalnych tkwiących u  ich podłoża. Te obwody

mają zarówno strukturę fizyczną, jak i  strukturę symboliczną.

Kontrolują to, co konstruują –  zdarzenie mentalne. To opisane przez

Patteego fizyczne symbole kontrolujące proces konstrukcji. Krótko

mówiąc, w  ujęciu Sperry’ego sam organizm odgrywał istotną rolę

w swoim przeznaczeniu. Z tej perspektywy nawet kompletna wiedza na

temat obecnego stanu twojego mózgu – jego warunków początkowych –

 nie pozwoliłaby ci przewidzieć, w jaki sposób przyszłe stany mentalne

mogą odgórnie wpływać na oddolne procesy przetwarzania. Owe


warunki początkowe nie powiedzą nam, co, gdzie i  z kim zjesz na

kolację za rok od najbliższego czwartku. Choćbyś nawet wiedział

wszystko o  stanie mózgu nowo narodzonego dziecka, nie pozwoli ci to

przewidzieć, co będzie ono robiło we wtorkowe popołudnie czterdzieści

pięć lat później – wbrew temu, w co wierzą najbardziej zdeterminowani

spośród deterministów. De facto tak skrajny determinizm wydaje się

równie niemądry, jak przekonanie ujawnione przez paradoks kota

Schrödingera.

Co nas czeka
W przedstawionej w zarysie historii ludzkiej myśli i badań dotyczących

problemu świadomości mogliśmy dostrzec wiele niejednoznaczności.

Dopiero od czasów Kartezjusza i narodzin idei, że „mózg jest maszyną,

którą można zrozumieć poprzez rozłożenie jej na części” (a ta idea stała

się warunkiem sine qua non naukowego podejścia do wszystkiego),

zapanowała niewzruszona wiara w  redukcjonizm, który pozostaje ideą

dominującą we współczesnej neuronauce. Szkoła chicagowska –  jak

zwykłem ją nazywać –  osłabiła tę dominację i  wskazała drogę do

innego ujęcia, które uwzględnia ewolucyjną naturę organizmu oraz

fakt, że maszyny są produktem ludzkich mózgów, a  nie na odwrót

(nasze mózgi nie są wytworem maszyn). W  materii ożywionej jest coś,

co ją wyróżnia. Mówiąc wprost, jest to fakt, że materia ożywiona nie

jest ślepo posłuszna klasycznym prawom fizyki, lecz zawiera w  sobie

wrodzony element arbitralności, którą jej nadają fizyczne, lecz

arbitralne informacje symboliczne mieszkające po słonecznej stronie

die Schnitt.

Kiedy pierwsze wyniki badań pacjentów z  rozszczepionym mózgiem

stały się znane, pojawiło się odwieczne pytanie: co nam to mówi na

temat świadomości? Jak zażartował znany psycholog eksperymentalny


William Estes, kiedy zostałem mu przedstawiony jako odkrywca

zjawiska rozszczepienia mózgu: „Świetnie, teraz mamy już dwie rzeczy,

których nie rozumiemy”. Była to zagadka, która nie dawała mi spokoju,

podobnie jak spostrzeżenie Polanyiego, że lista części nie mówi nam,

jak działa całość. Obie rzeczywistości –  lista czę-ści oraz to, jak owe

części działają razem, aby wytworzyć daną funkcję –  wymagają

bardziej złożonego wyjaśnienia, jakie światło rzucają te fakty na

problem świadomości.

W ciągu ostatnich trzydziestu lat zainwestowano miliardy dolarów

w badania roli różnych obszarów mózgu oraz ich wzajemnych połączeń.

Lokalizacja nie przyniesie nam jednak kompleksowego wyjaśnienia

świadomości, chociaż współczesne badania mózgu pokazują, że

konkretne struktury anatomiczne w  mózgu są powiązane z  różnymi

zdolnościami psychicznymi. Te badania po-większają ogromny zbiór

znanych faktów na temat mózgu, ale nie mogą wyjaśnić procesów

przebiegających w  mózgu, których owocem jest (między innymi)

świadomość. Podejście struktura–funkcja dostarcza nam głębokiej

wiedzy na temat tego, jak mózg szufladkuje swoje niezliczone

specjalizacje, ale nie wy-jaśnia, w jaki sposób reakcje elektrochemiczne

są przekształcane w  doświadczenia życiowe. Przekonaliśmy się, że

struktura i  funkcja to własności komplementarne –  jedna nie mówi

nam niczego o  drugiej. Jeśli nie masz pojęcia, jaką funkcję pełnią

neurony, to nie dowiesz się tego, przyglądając się jednemu z  nich.

I  odwrotnie –  znajomość funkcji neuronu nie sprawi, że będziesz

wiedzieć, jak on wygląda. Bez uprzedniej wiedzy nie sposób wywieść

funkcji neuronów z  ich struktury, ani też struktury z  funkcji. Są to

dwie odrębne, nieredukowalne warstwy mające odmienne protokoły.

Przedsięwzięcie dowiedzenia się jak najwięcej o  częściach

składowych mózgu trzeba rozszerzyć o  badanie architektury

neuronalnej. Samo poszukiwanie struktury wytwarzającej świadomość


– co próbowali zrobić Kartezjusz i jego liczni poprzednicy – nie pozwoli

nam znaleźć świętego Graala, ponieważ świadomość jest nieodłączną

właściwością całego mózgu. Utrata dużych partii kory mózgowej nie

wyłącza świadomości, lecz tylko zmienia jej zawartość treściową.

Świadomość nie jest poszufladkowana w  mózgu, jak wiele innych

zdolności mentalnych, takich jak produkcja mowy czy przetwarzanie

wzrokowe, ale jest ważnym elementem wszystkich tych zdolności. Jak

wyjaśniłem wcześniej, najbardziej przekonujących dowodów

przemawiających za niejednolitą naturą świadomości dostarczają nam

umysły pacjentów z  rozszczepionym mózgiem. Gdy komunikacja

między półkulami zostaje zerwana, każda połowa mózgu ma własne

świadome doświadczenie.

Jakkolwiek idea, że nasza świadomość pochodzi z wielu niezależnych

źródeł, jest sprzeczna z  intuicją, wydaje się, że właśnie tak jest

zaprojektowany ludzki mózg. Kiedy już w  pełni to pojmiemy,

prawdziwym wyzwaniem będzie zrozumienie, jak zasady architektury

mózgu pozwalają świadomości powstawać w  taki właśnie sposób. Oto

przyszłe wyzwanie nauki o mózgu.

Ostatnie słowo
Kiedy rozpoczynałem pracę nad tą książką, nie przypuszczałem, że

w mojej głowie pojawią się niektóre spośród myśli, jakie przedstawiłem

na jej stronach. Przez cały czas nurtowało mnie pytanie: czy

świadomość naprawdę jest instynktem?

W swojej dziś już klasycznej książce The Language Instinct (Język

jako instynkt) Steven Pinker wysłał do społeczności naukowej ważny

sygnał alarmowy: jak to możliwe, że mózgi i  umysły stanowią

wyposażenie biologiczne, a  jednocześnie są modyfikowane przez

doświadczenie? Autor przedstawił użyteczne ramy, w  których można


się zastanawiać nad ograniczeniami procesów uczenia się i rzeczywistą

naturą części składowych umysłu powstałych na drodze doboru

naturalnego. Zauważył też błyskotliwie, że ujęcie ludzkich cech

wyższego rzędu (takich jak język) jako instynktów wydaje się szo-

kujące.

Wrzucenie zjawiska świadomości na listę instynktów –  razem ze

złością, nieśmiałością, lubieniem, zazdrością, rywalizacją,

towarzyskością i  tym podobnymi –  jest równie dezorientujące.

Instynkty, jak wszyscy wiemy, ewoluują stopniowo, zapewniając nam

lepsze dostosowanie do środowiska. Dodanie świadomości do listy

instynktów sugeruje, że ta cenna ludzka właściwość, któ-ra jest nam

wszystkim bardzo droga, w  rzeczywistości nie jest nadzwyczajnym

elementem specjalnego wyposażenia naszego gatunku, którym

zostaliśmy cudownie obdarzeni. Jeśli przyjmiemy, że świadomość jest

instynktem, to wrzucimy ją do ogromnego świata biologicznego, z  jego

historią, bogactwem, różnorodnością i  ciągłością. Skąd się ona wzięła?

Jak wyewoluowała? Czy inne gatunki (i jakie) mają pewne jej cechy?

Zatrzymajmy się na chwilę, aby zadać podstawowe pytanie: czym jest

instynkt? Ludzie rzucają tym pojęciem niczym konfetti na paradzie

karnawałowej. Lista instynktów z  każdym rokiem się wydłuża. Można

niemal pomyśleć, że gdybyśmy zdjęli pokrywę czaszki, to

zobaczylibyśmy pęk opatrzonych etykietami przewodów, z  których

każdy reprezentowałby jeden z  instynktów będących na ustach

wszystkich. Istotnie, mózg powinien być kłębowiskiem przewodów

połączonych w taki sposób, aby mogły wykonywać swoje zadania. Jeżeli

jednak poprosimy neuronaukowca, aby pokazał nam sieć neuronalną

odpowiadającą konkretnemu instynktowi, takiemu jak instynkt

rywalizacji czy towarzyskości, to okaże się, że taka wiedza nie istnieje

–  a w  każdym razie jeszcze nie. Czy wobec tego nazywanie pewnych

zjawisk instynktami może być pomocne?


Kiedy czujemy się zagubieni pośród definicji i  znaczeń w  obszarze

umysł––mózg, zawsze możemy się zwrócić do Williama Jamesa. Przed

ponad 125 laty James napisał przełomowy artykuł, zatytułowany po

prostu: Czym jest instynkt? Nie zwlekał ze zdefiniowaniem tego pojęcia:

Instynkt definiuje się zwykle jako zdolność do działania w  sposób prowadzą-cy do

osiągnięcia określonych celów bez przewidywania tych celów i  bez uprzedniego

wyuczenia się właściwego postępowania. (…) [Instynkty] są funkcjonalnymi

korelatami struktury. Obecności danego narządu niemal zawsze towarzyszy

wrodzona predyspozycja do jego używania. „Ptak ma specjalny gruczoł wydzielający

tłuszcz. Instynktownie wie, jak wycisnąć z niego tłustą wydzielinę i jak ją nałożyć na

[5]
pióra” .

Ta definicja, choć wydaje się prosta, jest przemyślnie dualistyczna.

Instynkt, aby działać, potrzebuje struktury fizycznej. Używanie owej

struktury fizycznej wymaga jednak pewnej predyspozycji, która

najwyraźniej pojawia się za darmo. Znalezienie fizycznych korelatów

fizycznego aparatu danego instynktu jest możliwe, ale jak możemy się

dowiedzieć, w jaki sposób zaczyna on być używany? Czy to się dzieje ot

tak, po prostu? Hmm, to niezbyt naukowa odpowiedź. Czy ptak zaczyna

od odruchu naciskania gruczołu kuprowego, a później, z biegiem czasu,

uczy się, że dzięki temu wszystko działa lepiej? Gdyby nie było tego

gruczołu, to bez wątpienia nie byłoby wydzieliny tłuszczowej, a  ptak

nie miałby okazji nauczyć się go używać, aby lepiej latać. Widzimy

tutaj ślepą pętlę, w  której dobór naturalny i  doświadczenie wspólnie

kształtują coś, co nazwalibyśmy instynktem.

Zachowanie ptaków to jedno, ale czy naprawdę podobnie można

opisać poznanie i świadomość u nas, ludzi? James oferuje wyjaśnienie,

jak to wszystko może działać:

Jedna złożona instynktowna czynność może się odbywać poprzez sukcesywne

wzbudzanie impulsów. (…) Głodny lew zaczyna więc poszukiwać ofiary pod

wpływem rozbudzonej wyobraźni połączonej z  pożądaniem; zaczyna tropić ofiarę,


kiedy jego oczy, uszy lub nozdrza wykryją jej obecność w pewnej odległości; rzuca się

na nią, kiedy jego łup zaniepokojony ucieka lub gdy odległość jest wystarczająco mała;

wreszcie przechodzi do rozszarpywania i  pożerania pod wpływem odczuwanego

kontaktu ofiary z  jego kłami i  pazurami. Poszukiwanie, tropienie, rzucanie się na

ofiarę i  jej pożeranie wymagają odmiennych rodzajów pracy mięśni, z  których żaden

[6]
nie może być wywołany przez bodziec odpowiadający innemu .

Kiedy dzisiaj przyglądam się ideom Jamesa, rozpoznaję schemat

pasujący do idei modułów i  warstw. James wydaje się sugerować, że

strukturalne aspekty instynktów są wbudowanymi modułami

osadzonymi w architekturze warstwowej. Każdy instynkt może działać

niezależnie, aby kierować prostymi zachowaniami, ale instynkty

pracują także razem –  jako konfederacja. W  wypadku bardziej

złożonych czynności pojedyncze instynkty mogą tworzyć

skoordynowane sekwencje, a  wtedy sprawiają wrażenie instynktów

wyższego rzędu. Lawina takich sekwencji jest tym, co nazywamy

świadomością. Według Jamesa dynamika konkurencyjna, która

uczestniczy w  budowaniu sekwencji podstawowych instynktów, może

generować to, co wydaje nam się złożonym zachowaniem będącym

przejawem złożonego stanu wewnętrznego. Autor dodaje nawet opis

tego, czego doświadcza zwierzę, gdy kieruje się instynktem: „Każdy

impuls i  każdy krok podyktowany przez instynkt świeci własnym,

wystarczającym światłem i  w danej chwili wydaje się jedyną właściwą

rzeczą, którą można zrobić. Zwierzę wykonuje to działanie wyłącznie

dla niego samego”. Brzmi to tak, jakby strzałka czasu połączyła wielką

liczbę bąbelków w  coś w  rodzaju tego, co nazywamy świadomym

doświadczeniem.

Na dynamikę tego procesu –  na to, który bąbelek wypływa na

powierzchnię i  w którym momencie –  bez wątpienia swój wpływ

wywiera doświadczenie i  proces uczenia się. Doświadczenie, uczenie

się i  świadomość muszą być jednak izomorficzne –  zdolne do działania


w obrębie tego samego systemu. Kiedy myślimy o tym zjawisku w taki

sposób, świadome doświadczenie jawi się nam takie, jakie naprawdę

jest –  jako sztuczka matki natury. Dzięki ujęciu świa-domości jako

ewolucyjnie ukształtowanego instynktu (lub całej sekwencji

instynktów) wiemy, gdzie szukać odpowiedzi na pytanie, w  jaki sposób

świadomość wyłoniła się z  bezdusznej materii nieożywionej. To ujęcie

pozwala nam zdać sobie sprawę, że każdy aspekt świadomego

doświadczenia jest rozwi-nięciem innych instynktów, w  jakie my,

ludzie, jesteśmy wyposażeni, oraz że mechanizmy i  zdolności związane

z  tymi instynktami generują subiektywny (odczuwany) stan

świadomego doświadczenia. W  ostatnich latach biolodzy

najrozmaitszych specjalności połączyli siły, aby wyodrębnić dwadzieścia

dziewięć sieci neuronalnych w  mózgu muchy, z  których każda

kontroluje okre-ślone zachowanie. Te pojedyncze zachowania mogą się

elastycznie łączyć w  bar-dziej złożone układy. Tak, możemy czerpać

wiedzę o  świadomości od muszki owocówki! Rozpoczęło się

[7]
poszukiwanie zrozumienia fizycznego wymiaru instynktów .

Wielu ludzi sprzeciwia się jednak używaniu takich pojęć, jak

instynkt, do opisu fenomenalnego świadomego doświadczenia. Według

nich ta definicja odbiera człowiekowi jego wyjątkowy status

w  królestwie zwierząt, wynikający z  przekonania, że tylko my, ludzie,

jesteśmy moralnie odpowiedzialni za swoje czyny. Ludzie mogą

wybierać, jak będą postępować, a  co za tym idzie –  mogą zdecydować,

że zachowają się właściwie. Jeżeli świadomość jest instynktem –

 przekonują przeciwnicy tego ujęcia – to ludzie muszą być automatami,

bezmyślnymi zombi. Odkładając na bok fizyczną rzeczywistość

mechaniki kwantowej i  cięć (die Schnitt) wraz z  ich wyzwalającym

funkcjonowaniem symbolicznym, możemy jednak wykazać, iż

zaakceptowanie idei, że złożony byt, taki jak mózg–ciało–umysł, ma

możliwy do poznania mechanizm, nie skazuje nas na tak


deterministyczne i  ponure poglądy. Sam James wypowiedział się na

temat tego ogólnego problemu:

Tutaj od razu zbieramy dobre owoce prostej, fizjologicznej koncepcji instynktu. Jeśli

jest to zwyczajny impuls wywołujący ruch ( excitomotor) za sprawą łuku odruchowego

istniejącego już wcześniej w ośrodkach nerwowych danego stworzenia, to, rzecz jasna,

musi działać zgodnie z  prawami, jakie rządzą wszystkimi podobnymi ruchami

odruchowymi. Jedno z  takich praw głosi, że aktywność łuków odruchowych jest

„hamowana” przez inne procesy przebiegające w  tym samym czasie. Nie ma

znaczenia, czy dany łuk jest w  pełni zorganizowany w  chwili narodzin, dojrzewa

samoistnie później, czy też powstaje na skutek nabytego nawyku –  w każdym

wypadku musi próbować swoich sił z innymi łukami i czasem odnosi sukces, a innym

razem ponosi porażkę. (…) Mistyczna koncepcja instynktu uczyniłaby go

niezmiennym. Koncepcja fizjologiczna natomiast wymagałaby, aby od czasu do czasu

przejawiał pewne nieregularności u  każdego zwierzęcia, u  którego występuje duża

liczba odrębnych instynktów, a  ten sam bodziec może trafić do kilku spośród nich.

I  rzeczywiście, u  wszystkich zwierząt wyższych obserwuje się wielką obfitość takich

[8]
nieregularności .

To tylko niewielka część rozważań Jamesa, a  przyswojenie idei

instynktów wymaga sporo czasu. Zachęcam cię do lektury jego

artykułu, abyś mógł docenić jego jasny tok myślenia, zrozumiały sposób

pisania i  niewzruszony pragmatyzm w  podejściu do tych trudnych

zagadnień. James wskazuje nam drogę w  przód, nie przyjmując

żałosnej karykatury człowieka robota ślepo posłusznego reakcjom

odruchowym. Według niego złożony stan behawioralny może powstać

poprzez zmianę kombinacji prostych, niezależnych modułów, podobnie

jak kombinacja wielu drobnych ruchów tworzy złożone zachowanie

skoczka o  tyczce, kiedy przelatuje nad poprzeczką. Działając razem

w  skoordynowany sposób, nawet proste systemy mogą skłonić

obserwatora do przekonania o  istnieniu innych sił. James jasno

przedstawia swoje stanowisko: „Moim pierwszym aktem wolnej woli

będzie wiara w  wolną wolę”. Ta deklaracja jest zgodna z  ideą, że


przekonania, idee i  myśli mogą być częścią systemu mentalnego.

Symboliczne reprezentacje w  tym systemie, z  ich elastycznością

i  arbitralnością, są ściśle powiązane z  fizycznymi mechanizmami

w  mózgu. Nie ma potrzeby wpadać w  desperację –  stany mentalne

mogą odgórnie wpływać na działania fizyczne!

Elastyczność moich osobistych reprezentacji symbolicznych była dla

mnie źródłem radości i zdziwienia, a nie rozpaczy, w trakcie pracy nad

tą książką. Najbardziej zaskoczył mnie fakt, że nabrałem przekonania,

iż my, ludzie, nigdy nie zbudujemy maszyny, która potrafiłaby

naśladować indywidualną ludzką świadomość. Nieożywione, oparte na

układach krzemowych maszyny działają w  jeden sposób, a  oparte na

związkach węgla systemy ożywione –  w zupełnie inny. Te pierwsze

wykonują zbiór deterministycznych instrukcji, natomiast te drugie

działają poprzez symbole, a  ich zachowanie zawiera w  sobie

nieodłączny element niepewności.

To ujęcie prowadzi do przekonania, że nasze próby odtworzenia

ludzkiej inteligencji i  świadomości w  maszynach –  co od początku jest

celem prac nad sztuczną inteligencją –  są skazane na niepowodzenie.

Jeśli układy ożywione działają na zasadzie komplementarności –  idei,

że strona fizyczna ma swoje odzwierciedlenie w  arbitralnej stronie

symbolicznej, która używa symboli będących wynikiem doboru

naturalnego –  to czysto deterministyczne modele życia zawsze będą

niewystarczające. W modelu sztucznej inteligencji wspomnienie danego

zdarzenia znajduje się w  jednym miejscu i  można je usunąć jednym

przyciśnięciem klawisza. Tymczasem w  warstwowym, symbolicznym

układzie ożywionym każdy aspekt danego mechanizmu można

zamienić na inny symbol, o ile wszystkie będą dobrze odgrywały swoją

rolę. To możliwe, ponieważ pozwala na to samo życie, a  nawet więcej:

właśnie tego wymaga – komplemen-tarności.


Kto przeistoczy wszystkie te idee w  naukę? Jak będzie wyglądać

neuronauka przyszłości? Myślę, że w  poszukiwanie wiarygodnych

odpowiedzi muszą się zaangażować neuroinżynierowie z  ich

umiejętnością dociekania głęboko ukrytych zasad projektowania

badanych obiektów. Taka rewolucja dopiero się zaczyna, ale

perspektywa, jaką nam oferuje, wydaje się jasna. Architektura

warstwowa, która umożliwia dodawanie kolejnych warstw, stanowi

ramy teoretyczne dla wyjaśnienia, w  jaki sposób mózgi stawały się

coraz bardziej złożone w  procesie doboru naturalnego, a  jednocześnie

zachowywały podstawowe cechy, które zapewniały im sukces. Jednym

z  wyzwań będzie ustalenie, czym zajmują się poszczególne warstwy

przetwarzania. Jeszcze większym wyzwaniem wydaje się

rozszyfrowanie protokołów, które pozwalają jednej warstwie

interpretować wyniki przetwarzania w  warstwach sąsiednich. Będzie

się to wiązało z  przekroczeniem die Schnitt –  luki espistemicznej

pomiędzy subiektywnym doświadczeniem a  obiektywnym

przetwarzaniem, która istnieje od czasu powstania pierwszej żywej

komórki. Zrozumienie, jak fizyczna strona tej luki (neurony)

współpracuje ze stroną symboliczną (wymiarami mentalnymi)

osiągniemy przy użyciu języka komplementarności.

Wreszcie, musimy zdać sobie sprawę, że świadomość jest instynktem.

Świadomość to część życia organizmów. Nie musimy się uczyć, jak ją

wytwarzać ani jak jej używać. Podczas niedawnej podróży do

Charleston moja żona i  ja przemierzaliśmy wiejskie okolice

w  poszukiwaniu starego dobrego smażonego kurczaka z  chlebem

kukurydzianym. W  końcu znaleźliśmy mały bar przydrożny

i  złożyliśmy zamówienie. Gdy kelnerka odchodziła od naszego stolika,

poprosiłem: „Ach, i  proszę dodać do zamówienia porcję kaszy

kukurydzianej”. Kelnerka odwróciła się do mnie i  odparła

z  uśmiechem: „Skarbie, kasza jest wli-czona, podajemy ją do każdego


dania”. Kasza jest wliczona, podobnie jak to, co nazywamy

świadomością. W obu wypadkach mamy wielkie szczęście.

[1]
Pattee, 1971.

[2]
Rosen, 1996, s. 13.

[3]
Ibidem, s. 111.

[4]
Ibidem, s. 112.

[5]
James, 1887, s. 355.

[6]
Ibidem, s. 356.

[7]
Vogelstein i in., 2014.

[8]
James, 1887, s. 359.
BIBLIOGRAFIA
Ahn, Y. Y., Jeong, H., Kim, B. J. (2006). Writing cost in the

organization of Biolo-gical Neuronal Network. Physica A: Statistical

Mechanics and Its Applications, 367, 531–537.

Alderson, D. L., Doyle, J. C. (2010). Contrasting views of complexity

and their implications for networkcentric infrastructures. IEEE

Transactions on Systems, Man and Cybernetics – Part A: Systems

and Humans, 40, 839–852.

Allemann, R. K., Scrutton, N. S. (red.). (2009). Quantum Tunneling in

enzyme catalyzed reactions. Cambridge, UK: Royal Society of

Chemistry Publishing.

Anderson, D. J., Adolphs, R. (2014). A framework for studying

emotions across species. Cell, 157, 187–200.

Andersson, J. L. R., i in. (1998). Brain networks affected by

synchronized sleep visualized by positron emission tomography.

Journal of Cerebral Blood Flow and Metabolism, 18, 701–715.

Anfinsen, C. B. (1973). Principles that govern the folding of protein

chains. Science, 181.

Arzy, S., i in. (2006). Induction of an illusory shadow person. Nature,

443.

Azevedo, F. A. C., i in. (2009). Equal numbers of neuronal and

nonneuronal cells make the human brain an isometrically scaledup

primate brain. Journal of Comparative Neurology, 513, 532–541.

Baars, B. J. (1998). A cognitive theory of consciousness. Cambridge,

UK: Cambridge University Press.

Baggott, J. (2011). The quantum story: A history in 40 moments.

Oxford: Oxford University Press.


Baggott, J. (2013). Teoria kwantowa. Odkrycia, które zmieniły świat.

Warszawa: Pró-szyński Media.

Barbieri, M. (2008). Biosemiotics: A new understanding of life.

Naturwissenschaften, 95.

Barbut, D., Gazzaniga, M. S. (1987). Disturbances in conceptual space

involving language and speech. Brain, 110, 1487–1496.

Barlow Jr, R. B., Fraioli, A. J. (1978). Inhibition in the limulus lateral

eye in situ. Journal of General Physiology, 71, 699–720.

Barron, A. R., Klein, C. (2016). What insects can tell us about the

origins of consciousness. PNAS, 113, 4900–4908.

Bassett, D. S., i in. (2011). Dynamic reconfiguration of human brain

networks during learning. Proceedings of the National Academy of

Sciences (PNAS), 108, 7641––7646.

Bassett, D. S., i in. (2013). Robust detection of dynamic community

structure in networks. Chaos: An Interdisciplinary Journal of

Nonlinear Science, 23.

Bassetti, C., i in. (2000). SPECT during sleepwalking. The Lancet, 356,

484–485.

Bauby, J. D. (1997). The diving bell and the butterfly: A memoir of life

in death. New York: Alfred A. Knopf.

Bauby, J. D. (2008). Skafander i motyl. Gdańsk: Wydawnictwo

słowo/obraz terytoria.

Beck, D. M., Kastner, S. (2009). Top-down and bottomup mechanisms

in biasing competition in the human brain. Vision Research, 49,

1154–1165.

Bisiach, E., Luzzatti, C. (1978). Unilateral neglect of representational

space. Cortex, 14, 129–133.

Blanke, O., i in. (2014). Neurological and robot – controlled induction of

an appa-rition. Current Biology, 24.


Boag, P. T., Grant, P. R. (1981). Intense natural selection in a

population of Darwin’s finches (Geospizinae) in the Galápagos.

Science, 214, 82–85.

Boag, Z. (2014). Searle: It upsets me when I read the nonsense written

by my contemporaries. New Philosopher, 2, 25 stycznia.

(http://www.newphilosopher.com/articles/john-searle-it-upsets-me-

when-i-read-the-nonsense-written-by--my-contemporaries/).

Bohr, N. (1928). The Quantum Postulate and the recent development of

Atomic Theory. Nature, 121.

Braun, A. R. (1997). Regional cerebral blood flow throughout the

15
sleepwake cycle: An H2 O PET Study. Brain, 120, 1173–1197.

Brentano, F. (1874). Psychology from an empirical standpoint. W: O.

Kraus (red.). (1995). International library of philosophy, tłum. L. L.

McAlister, A. C. Rancurello, D. B. Terrell. London, New York:

Routledge.

(http://14.139.206.50:8080/jspui/bitstream/1/1432/1/Brentano,%20Fr

anz%20%20Psychology%20from

%20an%20Empirical%20Standpoint.pdf).

Brown, R. G. (2003). Philosophy is bullshit: David Hume. W: Axioms as

the basis for all understanding.

(https://www.phy.duke.edu/~rgb/Beowulf/axioms/axioms/node4.html [

dostęp: 10.02.2016]).

Buckley, P., Peat, F. D. (2009). Glimpsing reality: Ideas in physics and

the link to biology. New York: Routledge.

Call, J., Tomasello, M. (2008). Does the chimpanzee have a theory of

mind? 30 years later. Trends in Cognitive Sciences, 12, 187–192.

Cantor-Graae, E., Selten, J. P. (2005). Schizophrenia and migration: A

metaanalysis and review. American Journal of Psychiatry, 162, 12–

24.
Carruthers, P. (2006). The architecture of the mind: Massive

modularity and the flexibility of thought. Oxford, UK: Oxford

University Press.

Cartwright, R. (2004). Sleepwalking violence: A sleep disorder, a legal

dilemma, and a psychological challenge. American Journal of

Psychiatry, 161, 1149–1158.

Chakrabarty, I., Prashant. (2007). Non existence of quantum

mechanical self replicating machine. (arXiv:quant-ph/0510221v6).

Chalmers, D. J. (1995). Facing up to the problem of consciousness.

Journal of Consciousness Studies, 2, 200–219.

Chandra, F. A., Buzi, G., Doyle, J .C. (2011). Glycolytic oscillations and

limits on robust efficiency. Science, 333, 187–192.

Chen, B. L., Hall, D. H., Chklovskii, D. B. (2006). Wiring optimization

can relate neuronal structure and function. PNAS, 103, 4723–4728.

Cherniak, C., i in. (2004). Global optimization of cerebral cortex layout.

PNAS, 101, 1081–1086.

Chiang, M., i in. (2007). Layering as optimization decomposition: A

Mathematical Theory of Network Architectures. Proceedings of the

IEEE, 95, 255–312.

Chklovskii, D. B., Schikorski, T., Stevens, C. F. (2002). Wiring

optimization in cortical circuits. Neuron, 34, 341–347.

Clarke, D. D., Sokoloff, L. (1999). Circulation and energy metabolism of

the brain. W: G. J. Siegel i in. (red.), Basic Neurochemistry:

Molecular, Cellular and Medical Aspects. Philadelphia: Lippincott-

Raven, 637–670.

Clausius, R. (1867). The Mechanical Theory of Heat – with its

applications to the steamengine and to the physical properties of

bodies. London: John van Voorst.

Clayton, N., Emery, N. (2005). Corvid cognition. Current Biology, 15.


Clune, J., Mouret, J. B., Lipson, H. (2013). The evolutionary origins of

modularity. Proceedings of the Royal Society of London B: Biological

Sciences, 280.

Conduitt, J. (1727–1728). Draft account of Newton’s life at Cambridge.

Cambridge, UK: King’s College.

(http://www.newtonproject.sussex.ac.uk/catalogue/record/THEM0016

7 [dostęp: 26.06.2016]).

Cranford, R. E. (1988). The persistent vegetative state: The medical

reality (Getting the facts straight). The Hastings Center Report, 18,

27–32.

Crick, F. H. (1979). Thinking about the brain. Scientific American, 241,

219–232.

Crick, F., Koch, C. (1990). Towards a neurobiological theory of

consciousness. Semi-nars in the Neurosciences, 2, 263–275.

Csete, M. E., Doyle, J. C. (2002). Reverse engineering of biological

complexity. Science, 295, 1664–1669.

Curtis, D. R., Andersen, P. (2001). Sir John Carew Eccles, A. C. 27

January 1903 –– 2 May 1997. Biographical memoirs of fellows of the

Royal Society, 47, 160–187.

(https://www.science.org.au/fellowship/fellows/biographical-

memoirs/john-carew-eccles-1903-1997#2).

Dale, H. H. (1954). The beginnings and the prospects of neurohumoral

transmission. Pharmacological Reviews, 6, 7–13.

Darwin, C. (1860). The origin of species by means of natural selection,

or the preservation of favoured races in the struggle for life, New York:

D. Appleton.

Darwin, C. (1874). The descent of man and selection in relation to sex.

W: R. Hutchins, M. J. Adler, W. Brockway (red.). (1952). Great books

of the western world, t. 49: Darwin. Chicago: Encyclopaedia

Britannica.
Darwin, C. (1959). O pochodzeniu człowieka. Warszawa: Państwowe

Wydawnictwo Rolnicze i Leśne.

Darwin, C. (2001). O powstawaniu gatunków drogą doboru

naturalnego. Warszawa: De Agostini Polska.

Descartes, R. (1637). Discourse on method. W: R. Hutchins, M. J.

Adler, W. Brockway (red.). (1952). Great Books of the Western World,

t. 31: Descartes/Spinoza. Chicago: Encyclopaedia Britannica.

Descartes, R. (1918). Rozprawa o metodzie dobrego powodowania

swoim rozumem i szukania prawdy w naukach. Kraków: G.

Gebethner, Warszawa: Gebethner i Wolff; Poznań: M. Niemierkiewicz

(źródło: Wolne Lektury, Fundacja Nowoczesna

Polska,  https://wolnelektury.pl/media/book/pdf/rozprawa-o-

metodzie.pdf).

Descartes, R. (1984). The philosophical writings of Descartes, t. 3: The

correspondence, red. J. Cottingham, R. Stoothoff, D. Murdoch, A.

Kenny. Cambridge: Cambridge University Press.

Doyle, J. C. (1978). Guaranteed margins for LQG regulators. IEEE

Transactions on Automatic Control, 23, 756–757.

Doyle, J. C., Csete, M. (2011). Architecture, constraints, and behavior.

PNAS, 108(3).

Drachman, D. A. (2014). The Amyloid Hypothesis, time to move on:

Amyloid is the downstream result, not cause, of Alzheimer’s disease.

Alzheimer’s and Dementia, 10, 372–380.

Eccles, J. C. (1952). Hypotheses relating to the brainmind problem.

Nature, 168, 53–57.

Eccles, J. C. (1966). Brain and conscious experience. New York:

Springer-Verlag.

Eccles, J. C. (1966). Conscious experience and memory. W: Brain and

conscious experience. New York: Springer-Verlag.


Feinstein, J. S., i in. (2011). The human amygdala and the induction

and experience of fear. Current Biology, 21, 34–38.

Feynman, R. (1964). Messenger lecture: “The Quantum view of

physical nature”. Cornell University, 1964.

(https://www.youtube.com/watch?v=x5RQ3QF9GGI  [dostęp:

03.10.2016]).

Flanagan, O. (1984). The science of the mind. Cambridge, Mass: MIT

Press.

Flanagan, O. (2002). The problem of the soul: Two visions of mind and

how to reconcile them. New York: Basic Books.

Frankfort, H., i in. (1977). The intellectual adventure of ancient man:

An essay of speculative thought in the ancient Near East. Chicago:

University of Chicago Press.

Freiherr, J., i in. (2013). Intranasal insulin as a treatment for

Alzheimer’s Disease: A review of basic research and clinical

evidence. CNS Drugs, 27, 505–514.

Friedlander, T., i in. (2015). Evolution of bowtie architectures in

biology. PLoS Computational Biology, 11.

Galton, F. (1879). Psychometric experiments. Brain, 21, 49–62.

Gazzaniga, M. S. (1970). The bisected brain. New York: Appleton

Century Crofts.

Gazzaniga, M. (1993). Brain mechanisms and conscious experience.

Experimental and theoretical studies of consciousness. CIBA

Foundation Symposium, 174. Chichester, UK: John Wiley and Sons,

247–262.

Gerhart, J., Kirschner, M. (2007). The Theory of Facilitated Variation.

PNAS, 104(1) 8582–8589.

Ghorbel, S. (2002). Statut fonctionnel et qualité de vie chez le lockedin

syndrome a domi-cile. DEA Motricité Humaine et Handicap. Saint-


Etienne, Montpellier, France: La-boratory of Biostatistics,

Epidemiology and Clinical Research, Université Jean Monnet.

Gross, C. G. (1994). Hans-Lukas Teuber: A tribute. Cerebral Cortex, 4,

451–454.

Guillin, O., Abi-Dargham, A., Laruelle, M. (2007). Neurobiology of

dopamine in schizophrenia. International Review of Neurobiology, 78,

1–39.

Haas, L. F. (2001). Phineas Gage and the science of brain localisation.

Journal of Neurology, Neurosurgery, and Psychiatry, 71.

Hacker, P. M. S. (2012). The sad and sorry history of consciousness:

Being, among other things, a challenge to the ‘consciousness-studies

community’. Royal Institute of Philosophy Supplement, 70, 149–168.

Hare, B., Tomasello, M. (2005). Human-like social skills in dogs?

Trends in cognitive sciences, 9, 439–444.

Hatfield, G. (2014). René Descartes. W: Stanford Encyclopedia of

Philosophy Archive.

(http://plato.stanford.edu/archives/fall2015/entries/descartes/).

He, Z., Bolz, M., Baillargeon, R. (March 2007). Understanding of false

belief in 2.5-year--olds in a violation-of-expectation test (paper

presented at the Biennial Meeting of the Society for Research in

Child Development). Boston.

Herculano-Houzel, S. (2009). The human brain in numbers: A linearly

scaledup primate brain. Frontiers in Human Neuroscience, 3.

Hofstadter, D. R., Dennett, D. C. (2000). The mind’s I: Fantasies and

reflections on self and soul. New York: Basic Books.

Holzhaider, J. C., Hunt, G .R., Gray, R. D. (2010). Social learning in

New Caledonian crows. Learning and Behavior, 38, 206–219.

Hume, D. (1734). A letter to a physician. W: J. H. Burton (red.). (1846).

Life and Correspondence of David Hume (35). Edinburgh: William

Tait.
Hume, D. (1739). A treatise of human nature: Being an attempt to

introduce the experimental method of reasoning into moral subjects, t.

1: Of the understanding. London: John Noon.

(http://www.davidhume.org/texts/thn.html).

Hume, D. (1740). An abstract of a book lately published, entituled a

treatise of human nature, &c. London: C. Borbet.

(http://www.davidhume.org/texts/abs.html).

Hume, D. (1748). An enquiry concerning human understanding. W: R.

Hutchins, M. J. Adler, W. Brockway (red.). (1952). Great Books of the

Western World, t. 35: Locke/Berkeley/Hume. Chicago: Encyclopaedia

Britannica.

Hume, D. (1963). Traktat o naturze ludzkiej. T. 1: O rozumie.

Warszawa: Państwowe Wydawnictwo Naukowe.

Hume, D. (2005). Badania dotyczące rozumu ludzkiego. Kraków:

Wydawnictwo Zielona Sowa.

Hume, D. to John Stewart (1754), letter 91. W: J. Y. T. Greig (red.).

(1932/2011). The letters of David Hume, t. 1: 1727–1765. Oxford, New

York: Oxford University Press.

Hunt, G. R., Lambert, C., Gray, R.D. (2007). Cognitive requirements

for tool use by New Caledonian crows (Corvus moneduloides). New

Zealand Journal of Zoo-logy, 34.

James, W. (1887). What is an instinct? Scribner’s Magazine, 1.

James, W. (1890). The principles of psychology. W: R. Hutchins, M. J.

Adler, W. Brockway (red.). (1952). Great Books of the Western World,

t. 53: William James. Chicago: Encyclopaedia Britannica.

James, W. (2004). Pragmatyzm. Nowe imię paru starych stylów

myślenia. Kraków: Wydawnictwo Zielona Sowa.

Jense, J., i in. (2008). The formation of abnormal associations in

schizophrenia: Neural and behavioral evidence.

Neuropsychopharmacology, 33, 473–479.


Jerne, N. K. (1967). Antibodies and learning: Selection versus

instruction. W: G. C. Quarton, T. Melnechuk, F. O. Schmitt (red.),

The Neurosciences: A Study Program (s. 200–205). New York:

Rockefeller University Press.

Johnson, C. W. (2006). What are emergent properties and how do they

affect the engineering of complex systems? Reliability Engineering

and System Safety, 91, 1475–1481.

Kahneman, D. (2012). Pułapki myślenia. O myśleniu szybkim i wolnym.

Poznań: Media Rodzina.

Kapur, S. (2003). Psychosis as a state of aberrant salience: A

framework linking biology, phenomenology, and pharmacology in

schizophrenia. American Journal of Psychiatry, 160, 13–23.

Kaufmann, C. (2006). Brain activation and hypothalamic functional

connectivity during human nonrapid eye movement sleep: An

EEG/fMRI Study. Brain, 129, 655–667.

King, C., Von Drehle, D. (2016). Encounters with the arch-genius,

David Gelernter. Time, February 25.

(http://time.com/4236974/encounters-with-the-archgenius/).

Kirchhofer, K. C., i in. (2012). Dogs (Canis familiaris), but not

chimpanzees (Pan troglodytes), understand imperative pointing.

PloS One, 7.

Kirschner, M., Gerhart, J. (1998). Evolvability. PNAS, 95, 8420–8427.

Klein, S .B., Cosmides, L., Costabile, K. A. (2003). Preserved

knowledge of self in a case of Alzheimer’s Dementia. Social

Cognition, 21, 157–165.

Koch, C. (2008). Neurobiologia na tropie świadomości. Warszawa:

Wydawnictwo Uni-wersytetu Warszawskiego.

Köhler, W. (1925). The mentality of apes. London: Kegan Paul, Trench,

Trübner and Company.


Krabbendam, L., van Os, J. (2005). Schizophrenia and urbanicity: A

major environmental influence – conditional on genetic risk.

Schizophrenia Bulletin, 31, 795–799.

Kragh, H. (2000). Max Planck: The reluctant revolutionary, Physics

World, 13.

Krupenye, C., i in. (2016). Great apes anticipate that other individuals

will act according to false beliefs. Science, 354, 110–114.

Laruelle, M. (1998). Imaging dopamine transmission in schizophrenia:

A review and meta-analysis. Quarterly Journal of Nuclear Medicine,

42, 211–221.

Laureys, S., i in. (2005). The Locked-in Syndrome: What is it like to be

conscious but paralyzed and voiceless? Progress in Brain Research,

150, 495–511.

Laureys, S., Gosseries, O., Tononi, G. (red.). (2016). The neurology of

consciousness: Cognitive neuroscience and neuropathology.

Amsterdam: Academic Press.

LeDoux, J. (2012). Rethinking the emotional brain. Neuron, 73, 653–

676.

Leslie, A. M., Keeble, S. (1987). Do six-month-old infants perceive

causality? Cognition, 25, 265–288.

Levine, J. (2001). Purple Haze: The puzzle of consciousness. Oxford:

Oxford University Press, 6.

Liebal, K., i in. (2009). Infants use shared experience to interpret

pointing gestures. Developmental Science, 12, 264–271.

Liscovitch-Braue, N. (2017). Trade-off between transcriptome plasticity

and genome evolution in cephalopods. Cell, 169, 191–202.

Locke, J. (1955). Rozważania dotyczące rozumu ludzkiego. T. 2.

Warszawa: Państwowe Wydawnictwo Naukowe.

Locke, J. (1894). An essay concerning human understanding. W: R.

Hutchins, M. J. Adler, W. Brockway (red.). (1952). Great books of the


western world, t. 35: Locke/Berkeley/Hume. Chicago: Encyclopaedia

Britannica.

MacKay, D. M. (1987). Brain science and the Soul. W: R. L. Gregory

(red.), The Oxford companion to the mind (s. 724–725). Oxford:

Oxford University Press.

Maginnity, M. E., Grace, R. C. (2014). Visual perspective taking by

dogs (Canis familiaris) in a guesserknower task: Evidence for a

canine theory of mind? Animal Cognition.

Maquet, P., i in. (1997). Functional neuroanatomy of human slow wave

sleep. The Journal of Neuroscience, 17, 2807–2812.

Marder, E. (2011). Variability, compensation and modulation in

neurons and circuits. PNAS, 108(3).

Martin, S. (https://www.youtube.com/watch?v=q_8amMzGAx4).

Maudsley, H. (1967). The physiology and pathology of mind. New York:

D. Appleton and Company.

(https://archive.org/stream/physiologypathol00maudiala

#page/14/mode/2up/search/unconscious+mental+activity).

Mehlhor, J., i in. (2010). Tool-making New Caledonian crows have large

associative brain areas. Brain, Behavior and Evolution, 75, 63–70.

Merker, B. (2007). Consciousness without a cerebral cortex: A

challenge for neuroscience and medicine. Behavioral and Brain

Sciences, 30, 63–81.

Messner, R. (2004). Naga góra. Nanga Parbat – brat, śmierć i

samotność. Wrocław: Wydawnictwo Dolnośląskie.

Meunier, D., Lambiotte, R., Bullmore, E. T. (2010). Modular

hierarchically modular organization of brain networks. Frontiers in

Neuroscience, 4.

Miller, G. A. (1962). Psychology: The science of mental life. New York:

Harper and Row.


Miller, M. B., i in. (2010). Abnormal moral reasoning in complete and

partial callosotomy patients. Neuropsychologia, 48, 2215–2220.

Moor, T. H. M. (2007). Cannabis use and risk of psychotic or affective

mental health outcomes: A systematic review. The Lancet, 370, 319–

328.

Murray, R. M. (2007). Cannabis, the mind and society: The hash

realities. Nature Reviews Neuroscience, 8, 885–895.

Mysore, S. P., Knudsen, E. I. (2013). A shared inhibitory circuit for

both exogenous and endogenous control of stimulus selection. Nature

Neuroscience, 16, 473–478.

Nagel, T. (1974). What is it like to be a bat? Philosophical Review, 83,

435–450.

Nagel, T. (1997). Pytania ostateczne. Warszawa: Fundacja Aletheia.


Nagel, T. (2000). The psychophysical nexus. W: P. Boghossian, Ch.

Peacocke (red.), New essays on the a priori (s. 432–471). Oxford:

Oxford University Press.

Nagengast, A. J., Braun, D. A., Wolpert, D. M. (2010). Risk-sensitive

optimal feedback control accounts for sensorimotor behavior under

uncertainty. PLoS Computational Biology, 6.

Neil Young documentary, part 2. (https://www.youtube.com/watch?

v=Lslh6hG9EVQ [dostęp: 27.08.2016]).

Nelson, M. E., Bower, J. M. (1990). Brain maps and parallel computers.

Trends in Neurosciences, 13, 403–408.

Panksep, J., i in. (1994). Effects of neonatal decortication on the social

play of juvenile rats. Physiology and Behavior, 56, 429–443.

Panksepp, J. (1998). The periconscious substrates of consciousness:

Affective states and the evolutionary origins of the SELF. Journal of

Consciousness Studies, 5, 566–582.

Panksepp, J. (2005). Affective consciousness: Core emotional feelings in

animals and humans. Consciousness and Cognition, 14, 30–80.


Panksepp, J. (2010). Affective neuroscience of the emotional

brainmind: Evolutionary perspectives and implications for

understanding depression. Dialogues in Clinical Neuroscience, 12,

533–545.

Panksepp, J., Biven, L. (2012). The archaeology of mind:

Neuroevolutionary origins of human emotions. New York: W.W.

Norton and Company

Panksepp, J., Fuchs, T., Iacobucci, P. (2011). The basic neuroscience of

emotional experiences in mammals: The case of subcortical FEAR

circuitry and implications for clinical anxiety. Applied Animal

Behaviour Science, 129, 1–17.

Panksepp, J., Panksepp, B. (2000). The seven sins of evolutionary

psychology. Evolution and Cognition, 6, 108–131.

Paradis, S., i in. (1999). Frontal lobe syndrome reassessed: Comparison

of patients with lateral or medial frontal brain damage. Journal of

Neurology, Neurosurgery and Psychiatry, 67, 664–667.

Pashler, H. (2013). Encyclopedia of the mind (t. 1). Thousand Oaks,

Calif: Sage Publi-cations.

Pattee, H. H. (1971). Can life explain quantum mechanics? W: T.

Bastin (red.), Quantum Theory and Beyond: Essays and Discussions

Arising from a Colloquium (s. 307–319). Cambridge, UK: Cambridge

University Press.

Pattee, H. H. (1972). Physical problems of decisionmaking constraints.

Laws, language and life, 70; przedruk z International Journal of

Neuroscience, 3, 69–79.

Pattee, H. H. (1978). The complementarity principle in biological and

social structures. Journal of Social Biology Structures, 1.

Pattee, H. H. (1982). Cell psychology: An evolutionary approach to the

symbol--matter problem. Laws, language and life, 170; przedruk z

Cognition and Brain Theory, 5.


Pattee, H. H. (2008). Physical and functional conditions for symbols,

codes, and languages. Biosemiotics, 1.

Pattee, H. H. (2012). The physical basis of coding and reliability in

biological evolution. W: H. H. Pattee, J. Rączaszek-Leonardi, Laws,

language and life: Howard Pattee’s classic papers on the physics of

symbols with contemporary commentary. Dordrecht, The

Netherlands: Springer.

Pattee, H. H., Rączaszek-Leonardi, J. (2012). Laws, language and life:

Howard Pattee’s classic papers on the physics of symbols with

contemporary commentary. Dordrecht, The Netherlands: Springer.

Penfield, W. (1966). Speech, perception and the uncommitted cortex. W:

J. C. Eccles (red.), Brain and conscious experience (s. 234). New York:

Springer-Verlag.

Piazza, L., i in. (2015). Simultaneous observation of the quantization

and the interference pattern of a plasmonic near-field. Nature

Communications, 6.

Pilley, J. W. (2013). Border collie comprehends sentences containing a

prepositional object, verb, and direct object. Learning and

Motivation, 44, 229–240.

Pilley, J. W., Reid, A. K. (2011). Border collie comprehends object

names as verbal referents. Behavioural Processes, 86, 184–195.

Pinker, S. (1994). The language instinct: How the mind creates

language. New York: William Morrow.

Pinker, S. (2002). Jak działa umysł. Warszawa: Książka i Wiedza.

Planck, M. (1901). On the law of distribution of energy in the normal

spectrum. Annalen der Physik, 4.


Polanyi, M. (1968). Life’s irreducible structure. Science, 160.

Popper, K. R., Eccles, J. C. (1977). The self and its brain: An argument

for interactionism. erlin: Springer-Verlag.


Posner, M. I. (1978). Chronometric explorations of mind. Hillsdale, NJ:

Lawrence Erl-baum Associates.

Posner, M. I., Rothbart, M. K. (1992). Attentional mechanisms and

conscious experience. W: A.D. Milner, M. D. Rugg (red.), The

neuropsychology of conscious experience (s. 97–117). London:

Academic Press.

Premack, D. (2010). Why humans are unique: Three theories.

Perspectives on Psychological Science, 5, 22–32.

Premack, D., Woodruff, G. (1978). Does the chimpanzee have a theory

of mind? Behavioral and Brain Sciences, 1, 515–526.

Prescott, T. J., Redgrave, P., Gurney, K. (1999). Layered control

architectures in robots and vertebrates. Adaptive Behavior, 7, 99–

127.

Rees, W. D. (1971). The hallucinations of widowhood. British Medical

Journal, 4.

Roiser, J. P., i in. (2009). Do patients with schizophrenia exhibit

aberrant salience? Psychological Medicine, 39, 199–209.

Roser, M. E., i in. (2005). Dissociating processes supporting causal

perception and causal inference in the brain. Neuropsychology, 19.

Rosen, R. (1970). Dynamical System Theory in biology. New York:

Wiley.

Rosen, R. (1991). Life itself: A comprehensive inquiry into the nature,

origin, and fabrication of life. New York: Columbia University Press.

Rosen, R. (1996). On the limitations of scientific knowledge. W: J .L.

Casti, A. Karlqvist (red.), Boundaries and Barriers: On the Limits to

Scientific Knowledge (s. 199–214). Reading, Mass: Perseus Books.

Schneider, K. (1959). Clinical psychopathology. New York: Grune and

Stratton.

Schopenhauer, A. (1818). The world as will and representation, tłum.

E. F. J. Payne, t. II. New York: Dover.


(https://digitalseance.files.wordpress.com/2010/07/32288614-

schopenhauer-the-world-as-will-and-representation-v2.pdf).

Schopenhauer, A. (1851/2004). Essays and aphorisms, tłum. R. J.

Hollingdale. London: Penguin Group.

Schopenhauer, A. (1995). Świat jako wola i przedstawienie, t. 2.

Warszawa: Wydaw-nictwo Naukowe PWN.

Schrödinger, E. (1944/2012). What is Life? The Physical Aspect of the

Living Cell. Cambridge, UK: Cambridge University Press.

Schrödinger, E. (1988). Czym jest życie? Fizyczne aspekty żywej komórki.

Warszawa: Prószyński i S-ka.

Sekar, A., i in. (2016). Schizophrenia risk from complex variation of

complement component 4. Nature, 530, 177–183.

Sherrington, C. S. (1940/2009). Man on his nature: The Gifford


Lectures, 1937–1938. Cambridge, UK: Cambridge University Press.
Sperry, R. W. (1952). Neurology and the mindbrain problem. American

Scientist, 40, 291–312.

Sperry, R. W. (1966). Brain bisection and mechanisms of consciousness.

W: J. C. Eccles (red.), Brain and conscious experience. New York:

Springer-Verlag.

Sperry, R. W. (1966). Mind, brain, and humanist values. Bulletin of the

Atomic Scien-tists, 22, 2–6.


Sperry, R. W. (1970). Perception in the absence of the neocortical

commissures. W: D. A. Hamburg, K. H. Pribram, A. J. Stunkard

(red.), Perception and its disorders (t. 48, s. 123–128). Baltimore:

Williams and Wilkins.

Sperry, R. W. (1980). Mind–brain interaction: mentalism, yes; dualism,

no. Neuroscience, 5.

Spocter, M. A., i in. (2012). Neuropil distribution in the cerebral cortex

differs between humans and chimpanzees. Journal of Comparative

Neurology, 520.
Sporns, O., Betzel, R. F. (2016). Modular brain networks. Annual

Review of Psycholo-gy, 67, 613–640.

Strausfeld, N. J., Hirth, F. (2013). Deep homology of arthropod central

complex and vertebrate basal ganglia. Science, 340, 157–161.

Striedter, G. F. (2005). Principles of brain evolution. Sunderland, Mass:

Sinauer Associates.

Stukeley, W. (1752/2010). Memoirs of Sir Isaac Newton’s life

(manuskrypt/faksy-mile). (http://ttp.royalsociety.org/ttp/ttp.html?

id=1807da00-909a-4abf-b9c1-0279a08e4bf2&type=book [dostęp:

26.06.2016]).

Taubes, G. (2007). Good calories, bad calories: Fats, carbs, and the

controversial science of diet and health. New York: Anchor Books.

Taylor, A. H., i in. (2010). Complex cognition and behavioural

innovation in New Caledonian crows. Proceedings of the Royal

Society of London B: Biological Sciences, 277, 2637–2643.

Terzaghi, M., i in. (2009). Evidence of dissociated arousal states during

NREM parasomnia from an intracerebral neurophysiological study.

Sleep, 32, 409–412.

Thorpe, W. H. (1966). Ethology and consciousness. W: J. C. Eccles

(red.), Brain and conscious experience. New York: Springer-Verlag.

Tyndall, J. (1871). Fragments of science for unscientific people: A series

of detached essays, lectures, and reviews, vol. 1. New York: D.

Appleton and Company.

Tyndall, J. (1879). Fragments of science for unscientific people: A series

of detached essays, lectures, and reviews, vol. 2. New York: D.

Appleton and Company.

(http://www.gutenberg.org/files/24527/24527-h/24527-

h.htm#Toc158391647).

van Os, J. (2009). ‘Salience Syndrome’ replaces ‘Schizophrenia’ in

DSM-V and ICD-11: Psychiatry’s evidencebased entry into the 21st


century? Acta Psychia-trica Scandinavica, 120, 363–372.

van Os, J., Kapur, S. (2009). Schizophrenia. The Lancet, 374, 635–645.

Veling, W., i in. (2008). Ethnic density of neighborhoods and incidence

of psychotic disorders among immigrants. American Journal of

Psychiatry, 165, 66–73.

Vogelstein, J. T. (2014). Discovery of brainwide neuralbehavioral maps

via multiscale unsurpervised structure learning. Science, 344, 386–

392.

Volpe, B. E., Ledoux, J. E., Gazzaniga, M. (1979). Information

processing of visual stimuli in an ‘extinguished’ field. Nature, 282,

722–724.

von Helmholtz, H. (1924/2005). Treatise on physiological optics (t. 3).

New York: Dover Publication.

von Neumann, J. (1955). Mathematical foundations of quantum

mechanics. Princeton, NJ: Princeton University Press.

von Neumann, J. (1966). Theory of selfreproducing automata. Urbana,

Ill: University of Illinois Press.

Vuilleumier, P. (2013). Mapping the functional neuroanatomy of spatial

neglect and human parietal lobe functions: Progress and challenges.

Annals of the New York Academy of Sciences, 1296, 50–74.

Waddington, C. H. (red.). (1966). Towards a Theoretical Biology, 1,

Prolegomena, Proceedings of an international union of biological

sciences symposium (s. 33–54). Bellagio, Italy. Edinburgh:

Edinburgh University Press.

Walsh, E. G. (1967). [Recenzja]. Brain and conscious experience: Study

week September  28 to October  4, 1964 of the pontificia academia

scientiarum. New York: Springer-Verlag. Quarterly Journal of

Experimental Physiology and Cognate Medical Sciences, 52, 330.

Wegiel, J., i in. (2010). The neuropathology of autism: defects of

neurogenesis and neuronal migration, and dysplastic changes. Acta


Neuropathologica, 119, 755–770.

Westen, D. (1998). The scientific legacy of Sigmund Freud: Toward a

psychodynamically informed psychological science. Psychological

Bulletin, 124.

Whiten, A., i in. (2009). Emulation, imitation, overimitation and the

scope of culture for child and chimpanzee. Philosophical

Transactions of the Royal Society of London B: Biological Sciences,

364.

Wiederman, S. D., O’Carroll, D. C. (2013). Selective attention in an

insect visual neuron. Current Biology, 23, 156–161.

Wolpert, D. (2011). The real reason for brains.

(https://www.ted.com/talks/da-

niel_wolpert_the_real_reason_for_brains?language=en).

Yong-Yeol, A., Jeong, Beom Jun, K. (2006). Wiring cost in the

organization of a biological neuronal network. Physica A: Statistical

Mechanics and Its Applications, 367, 531–537.

Young, L., Saxe, R. (2009). Innocent intentions: A correlation between

forgiveness for accidental harm and neural activity.

Neuropsychologia, 47.
Tytuł oryginału: The consciousness Instinct

Copyright © 2018 by Michael S. Gazzaniga

All rights reserved.

Copyright © 2013, 2020 for the Polish edition by Wydawnictwo Smak Słowa

Copyright © for the Polish translation by Agnieszka Nowak-Młynikowska

Wszystkie prawa zastrzeżone. Książka ani żadna jej część nie może być publikowana

ani powielana w formie elektronicznej oraz mechanicznej bez zgody wydawnictwa

Smak Słowa.

Edytor: Anna Świtajska

Redakcja i korekta: Małgorzata Jaworska

Opracowanie graficzne i skład: Intergraf Gdańsk

Okładka i strony tytułowe: Agnieszka Karmolińska

ISBN 978-83-66420-07-6

Wskazówki dla bibliotekarzy:

1/ neuropsychologia 2/ neuronauka 3/ medycyna 4/ psychologia społeczna

Smak Słowa

ul. Boh. Monte Cassino 6A

81-805 Sopot

www.smakslowa.pl

Szukaj nas także na:

Konwersja do ePub:

Bartosz Oczko

e-mail: bartoczko@gmail.com
Spis treści

PODZIĘKOWANIA

Wprowadzenie

Część pierwsza

Przygotowanie do myśli współczesnej

ROZDZIAŁ 1

Historia z jej sztywnym, chwiejnym i niemądrym sposobem

myślenia o świadomości

Początki – sukcesy i pomyłki

Przygotowanie gruntu dla Kartezjusza i jego dualizmu umysł–

ciało

ROZDZIAŁ 2

Początki myślenia empirycznego w filozofii

Niezapisana tablica, ludzkie doświadczenie i początki

neuronauki

Jeden mały krok dla nauki

Dusza jako król, a nie dyrektor generalny

Rozkwit Johna Locke’a

Przygotowanie do współczesnych koncepcji

Ja, moje Ja i kto?

Niemcy i narodziny nieświadomego umysłu

Freud, nieświadomy umysł i wielka wolta

Darwin rzuca wszystkim wyzwanie

ROZDZIAŁ 3

Dwudziestowieczne postępy i początki nowego myślenia

Rewolucja poznawcza w Ameryce

Poszukiwanie jasności w Watykanie

Współcześni filozofowie pokazują, na co ich stać


Francis Crick do współczesnej nauki: nie ma nic złego w

badaniu świadomości

Część druga

System fizyczny

ROZDZIAŁ 4

Mózg budowany moduł po module

Brakujące moduły, ale mózg nadal działa

Ewolucja a większy mózg

Zalety mózgu modułowego

Przejście na modułowość

Połączenia modułowe

Mózgi ludzi i zwierząt – na czym polega różnica?

Gdzie jest świadomość?

ROZDZIAŁ 5

Początki rozumienia architektury mózgu

Architektura złożoności

Uniwersalna strategia projektowania

Uwarstwienie w ujęciu neuronaukowym

Ewoluowalne systemy warstwowe

Więzy, które uwalniają

Wiele dróg prowadzi do mózgu

Od chromosomów do świadomości

Kontroluj się!

ROZDZIAŁ 6

Dziadek ma demencję, ale jest świadomy

Wizyta w klinice

Chodzący bez świadomości

Nieruchomy, lecz świadomy

Podkorowy silnik odczuć emocjonalnych

Uczucia powiązane ze świadomością


Świadomość ulepszona przez korę

Wszechobecność świadomości

Część trzecia

Nadchodzi świadomość

ROZDZIAŁ 7

Idea komplementarności – prezent od fizyki

Początki fizyki i przywiązanie do determinizmu

Rozwój mechaniki kwantowej i statystycznego ujęcia

przyczynowości

Idea komplementarności

ROZDZIAŁ 8

Od materii nieożywionej do ożywionej, od neuronów do umysłu

Ból głowy mechaniki kwantowej

Schnitt a geneza życia

Życie w symbolach – von Neumann wskazuje drogę

Fizyka symboli – Pattee prze naprzód

Kod genetyczny jest prawdziwym kodem

Wąż zjadający własny ogon – domknięcie semiotyczne

Kapitulacja i rozejm

Podsumowanie

ROZDZIAŁ 9

Bulgocące strumienie a indywidualna świadomość

Świadomie różne świadome półkule

Bąbelki

Wstęp do bąbelków

Zwariowane nietoperze

Jak to jest być prawą półkulą?

Uczucia

Sentio ergo sum

Metodyczne czy chaotyczne bąbelki?


Słynna awaria warstwy kontrolnej

Świadomość wzbogacona przez ewolucję

ROZDZIAŁ 10

Świadomość jest instynktem

Co nas czeka

Ostatnie słowo

BIBLIOGRAFIA

You might also like