You are on page 1of 264

Spis treści

WPROWADZENIE

MIT NUMER 1
MIT NUMER 2
MIT NUMER 3
MIT NUMER 4
MIT NUMER 5
MIT NUMER 6
MIT NUMER 7
MIT NUMER 8
MIT NUMER 9
MIT NUMER 10
MIT NUMER 11
MIT NUMER 12
MIT NUMER 13
MIT NUMER 14
MIT NUMER 15
MIT NUMER 15,5
MIT NUMER 16
MIT NUMER 17
MIT NUMER 18
MIT NUMER 19
MIT NUMER 20

JAK BRONIĆ SIĘ PRZED MÓZGOBREDNIAMI


PRZYPISY
Tytuł oryginału: Hirnrissig. Die 20,5 größten Neuromythen – und wie unser Gehirn
wirklich tickt

Przekład: Urszula Szymanderska


Redaktor prowadząca: Maria Zalasa
Redakcja: Dariusz Rossowski
Korekta: Katarzyna Nawrocka

Projekt okładki i stron tytułowych: Joanna Wasilewska/KATAKANASTA


Ilustracje: Angela Kirschbaum

Copyright © 2014 Carl Hanser Verlag GmbH & Co. KG, München
Copyright for Polish edition and translation © Wydawnictwo JK, 2018

ISBN 978-83-7229-765-5
Wydanie I, Łódź 2018

Wydawca: JK
ul. Krokusowa 3,
92-101 Łódź
tel. 42 676 49 69 tel. 42 676 49 69
fax 42 676 49 29
www.wydawnictwofeeria.pl

Konwersję do wersji elektronicznej wykonano w systemie Zecer.


WPROWADZENIE
Mózgobrednie

Kochany Mózgu!
Ta książka jest specjalnie dla Ciebie. Bo z całego serca Ci współczuję.
Jesteś niezwykłym narządem: choć dziwacznie uformowany i nieco
śluzowaty, stanowisz przecież koronę stworzenia – i to Ty dyktujesz naszym
ciałom, co mają robić. Od kiedy tylko nauczyliśmy się myśleć, nasze myśli
kręcą się wokół Ciebie. Doskonale wiemy, jak jesteś dla nas ważny. To Ty
wznosisz subtelne konstrukcje intelektualne, tworzysz dzieła sztuki
i literatury, komponujesz i fantazjujesz.
A my jak Ci się odwdzięczamy? Jakby samym sobie na przekór,
opowiadamy na Twój temat najrozmaitsze półprawdy, bajeczki i bzdury.
Masz pełne prawo uznać, że jesteś najbardziej legendarnym narządem
w ludzkim ciele – nie ma drugiego takiego narządu, na którego temat
krążyłoby tyle pogłosek i mitów.
Jednak prawda jest też taka, że aż się prosisz o spekulacje na swój temat.
Czemu? Bo decydujesz o wszystkim, co się z nami dzieje. To Ty
odpowiadasz i za nagłą, niepohamowaną chętkę na budyń, i za miłosne męki,
za spokojną lekturę niedzielnej gazety i za ekscytację na kolejce górskiej.
W Tobie kiełkuje nasza empatia i zdolność do wspólnego działania. Ty
uczyniłeś z nas komunikacyjnych tytanów, którzy jednocześnie esemesują,
telefonują i piszą mejle – a zarazem geniuszy kreatywności, którzy wynaleźli
niezbędny do tego wszystkiego smartfon. Za to wszystko gorąco Ci w tym
miejscu dziękuję. Za rzadko doceniamy to, jak dużo i w jaki sposób dla nas
robisz.
A właśnie dlatego, że nie do końca rozumiemy Twoje rzeczywiste
działanie, mamy czelność twierdzić, jakoby tylko krok dzielił nas od
poznania Twoich najgłębszych sekretów, skoro dobraliśmy się do Ciebie za
pomocą wymyślnej aparatury, dzięki której chwalimy się bezczelnie, że
możemy obserwować Cię przy pracy i odczytywać Twoje myśli.
Wynajdujemy rozmaite chwytliwe metafory, które mają objaśniać Twój tryb
funkcjonowania. Czymże zgodnie z nimi nie jesteś?! Perfekcyjną maszyną
obliczeniową, zbudowaną z szeregu modułów i ośrodków; podzieloną na
dwie półkule: prawą artystyczną i lewą logiczną; złożoną z miliardów
szarych komórek, które wykonują całą robotę. Komputerem o praktycznie
nieograniczonej pamięci (choć rzekomo wykorzystujesz do pracy zaledwie
10 procent swojej mocy). Albo wreszcie mięśniem, który można trenować za
pomocą zdrowej diety i rozrywek umysłowych.
Sam wiesz najlepiej, co z tego wszystkiego jest zgodne z prawdą: prawie
nic. Wygadujemy na twój temat rzeczy, które nie mają wiele wspólnego
z rzeczywistością. A przychodzi nam to bez trudu, bo im mniej o Tobie
wiemy, tym łatwiej możemy bezkarnie twierdzić to czy tamto. Problemy
mają ci, którzy próbują udowodnić, że wykorzystujesz więcej niż 10 procent
swej mocy albo że za kreatywne myślenie odpowiada nie tylko prawa, lecz
także lewa półkula.
Szkoda, że tak to wygląda, bo Ty sam jesteś bardziej fascynujący niż
wszystkie pogłoski czy legendy na Twój temat. Nie zasłużyłeś sobie na to, by
tonąć w morzu plotek i pomówień Po pierwsze, już przez sam szacunek do
Ciebie nie należałoby zasypywać Cię neurobzdurnymi rewelacjami wszelkiej
maści. Po drugie, udało nam się już przecież zgromadzić całkiem sporo
ugruntowanej wiedzy o Tobie, a w każdym razie dostatecznie dużo, by nie
pleść andronów. Skończmy więc z takimi mitami jak brainfood, multitasking
czy hormony szczęścia – rozprawimy się z tymi historyjkami!
Dziś modnie jest opatrzyć wszystko przedrostkiem „neuro-” (występuje on
nawet w ukutych przeze mnie neurobzdurach, będących odpowiednikiem
tytułowych mózgobredni). Co gorsza, Drogi Mózgu, nie poprzestajemy na
wyjaśnianiu, w jaki sposób łączysz poszczególne komórki w spójną sieć albo
jak przesyłasz impulsy tam i z powrotem (co rzeczywiście jest fascynujące).
Mierzymy znacznie wyżej: chcemy odczytać myśli, pokonać choroby, złamać
„kody neuronalne”, dowiedzieć się, w jaki sposób z impulsów nerwowych
rodzi się świadomość i jak można na nią wpływać.
Dlatego też za ciężkie pieniądze budujemy maszyny, które mają
podglądać, jak myślisz. A potem, napawając się dumą z fantastycznych
osiągnięć nowoczesnej neurobiologii, chybiamy celu i próbujemy objaśniać
za jej pomocą wszystko, dosłownie wszystko, wymyślając takie cuda jak
neuroetyka, neuroekonomia, neurokomunikacja czy co tam jeszcze. Przy tej
okazji rzeczowe ustalenia nauki łatwo mieszają się z popularyzatorskimi
zapędami do uproszczeń. Jesteśmy pod tak wielkim wrażeniem – w istocie
nikłych – postępów naszej wiedzy, że dajemy hurraoptymistyczne nagłówki
w gazetach, by nawet najbardziej banalne odkrycia prezentować jako
„przełomy w badaniach nad świadomością”, bo dzięki temu łatwiej się
sprzedadzą.
Muszę Ci się tu do czegoś przyznać: sam zostałem neurobiologiem, bo
uznałem, że jesteś niebywale fascynujący. I ja sądziłem, że można w Tobie
znaleźć odpowiedzi na najbardziej podstawowe pytania dręczące ludzkość –
gdy zrozumiemy, jak działasz, pojmiemy też pewnego dnia, w jaki sposób
i czemu w ogóle ludzie myślą. Na szczęście szybko się zorientowałem, że to
nie takie proste. Jesteś o wiele bardziej złożony, ale też dużo ciekawszy, niż
wynikałoby z plotek i mitów na twój temat.
Toteż neurobiologia to naprawdę ciężki kawałek chleba. Dokonanie
jakiegoś odkrycia wymaga zwykle wielkich nakładów pracy, a modele
wyjaśniające Twoje działanie bywają ogromnie skomplikowane. Stwarza to
dysonans, bo w dzisiejszych czasach wszystko musi być łatwe i szybkie.
Dlatego na przykład jednej z licznych sieci komórek nerwowych, które
uczestniczą w przetwarzaniu pozytywnych emocji, bez namysłu nadajemy
miano „ośrodka szczęścia”. Albo ponieważ nie wiemy dokładnie, w jaki
sposób generujesz myśli, stwierdzamy beztrosko, że działasz tak jak
komputer, mający twardy dysk, pamięć roboczą i procesor – a to dlatego, że
takie urządzenie dobrze znamy z codziennego życia.
Wracając do rzeczy, Kochany Mózgu, właśnie z wielkiej sympatii do
Ciebie tak gruntownie Cię studiuję, analizuję i badam. Współczuję Ci, gdy
słyszę na Twój temat różne opowieści dziwnej treści. I doszedłem do
wniosku, że pora z tym skończyć. To prawda, że i ja próbuję w tym miejscu
podczepić się pod „neurotrendy” – ale nie po to, by z pomocą odkryć
neurobiologii tworzyć nowe legendy. Tym niech się zajmują inni. Uważam,
że przede wszystkim trzeba gruntownie oczyścić przedpole, dlatego
wypowiadam wojnę najpopularniejszym mitom i neurobzdurnym
mózgobredniom. Oczywiście będę się w tym odwoływał do zdobyczy
neurobiologii, tej jakże przydatnej i fascynującej dziedziny nauki.
Aby jak najlepiej Ci się przysłużyć, nie będę się porywać na zbyt wiele.
Zajmę się po prostu rozmaitymi pogłoskami na Twój temat, wykazując krok
po kroku, co jest w nich zgodne z prawdą, a co nie. Niektóre z nich są
całkowicie błędne i wzięte z sufitu, co do innych można jednak uznać – przy
sporej dawce dobrej woli – że przybliżają nas nieco do prawdy. W końcu jej
ziarno tkwi w niejednej bajce, trzeba tylko usunąć nadmiar ozdobników
i dodatków (z pewnością wiesz, o czym mówię; sam świetnie się przecież
bawisz, upiększając i naginając nasze wspomnienia, tak by fakty
prezentowały się w lepszym świetle).
Na dodatek, aby wykazać, jak bardzo jesteś złożony, wcale nie trzeba
używać skomplikowanej, hermetycznej terminologii. Oczywiście
neurobiologia to nie igraszka. Mimo to warto objaśniać skomplikowane
procesy w taki sposób, by dla każdego stawały się zrozumiałe. Gdybym po
kolei zreferował tu zestaw rozpraw naukowych, nie byłoby z tego żadnego
pożytku. Dlatego zamierzam zwalczać mózgobrednie ich własną bronią:
przystępnym językiem, chwytliwymi porównaniami, obrazowymi
metaforami – tyle że zgodnie z naukową wiedzą. Jestem Ci to po prostu
winny.
A zatem, neurobzdury, czas na ostateczne starcie – neurobiologia
kontratakuje.
MIT NUMER 1

Neurobiolodzy potrafią czytać


w myślach

Panie i Panowie, proszę o uwagę! Nazywam się Henning Beck i potrafię


odczytać wasze myśli! Jestem przecież neurobiologiem. A neurobiolodzy, jak
wiadomo, mają do dyspozycji super-hiper-nowoczesne metody, pozwalające
obserwować mózg bezpośrednio przy pracy. Po prostu wsuwamy ludzi do
takiego czy innego „skanera mózgu” (np. do tuby rezonansu magnetycznego)
i czytamy, co też się w ich mózgu dzieje.
Gdybym zaczął w ten sposób, z całą pewnością udałoby mi się przykuć
waszą uwagę. Jednocześnie nie bylibyście chyba zbytnio zaskoczeni.
Ostatecznie hasło: „Naukowcy odczytują ludzkie myśli” regularnie gości na
okładkach czasopism. Na przykład w P.M.-Magazin pojawił się na początku
roku 2013 następujący tytuł1: Wiem, o czym myślisz – jak sztuka czytania
w myślach przekształciła się z cyrkowej sztuczki w gorący temat
neurobiologii. Z kolei gazeta Handelsblatt głosiła już w 2011 roku, co
następuje: Skany mózgu – postępy w odczytywaniu ludzkich myśli2.
Możliwość odczytywania myśli budzi ogromną fascynację. I nic dziwnego,
to przecież jedno z najstarszych marzeń ludzkości. Któż nie chciałby
wiedzieć, o czym właściwie myśli przy śniadaniu partner lub partnerka
podczas smarowania bułeczki dżemem?
Do czytania w myślach potrzebne są dwie rzeczy: myślący mózg i coś, co
pozwoli te myśli odczytać. Co do pierwszej rzeczy nie można narzekać na
brak obiektów, a to dlatego, że (co być może zaskoczy niektórych
czytelników) mózgi myślą cały czas. Bez chwili przerwy. I jakkolwiek
dziwaczne i mętne mogłyby się nam wydawać tweety rozmaitych celebrytów,
również ich mózgi są przez cały czas aktywne – nawet jeśli sens tej
aktywności pozostaje niekiedy zagadką.
Komórki nerwowe nie przerywają pracy ani na chwilę, nieustannie
wymieniając pomiędzy sobą impulsy. W gruncie rzeczy myślenie, czyli
aktywność mózgu, jest niezbędnym warunkiem naszego życia. Mamy wybór:
myślenie albo śmierć (mózgu).

Pomiar myśli

Jednak oprócz myślącego mózgu potrzebna jest jeszcze odpowiednia


procedura pomiaru. Takie pomiary są z reguły bardzo skomplikowane
i drogie. Żeby zaś wszem wobec obwieścić, iż nie jest to bułka z masłem,
nadaje się im trudne do spamiętania nazwy w stylu „funkcjonalne
obrazowanie metodą rezonansu magnetycznego” albo
„elektroencefalografia”. Brzmi mądrze. Na dodatek wykorzystywane
w powyższych badaniach urządzenia wyglądają jak żywcem wzięte
z futurystycznych filmów. Trudno się dziwić, że neurobiologia cieszy się
sławą odlotowej dziedziny.
Podstawowe pytanie brzmi: czy my, neurobiolodzy, superbohaterowie
nauki współczesnej, rzeczywiście rejestrujemy za pomocą naszego sprzętu,
o czym właśnie myśli dany mózg?
Odpowiedź brzmi: —–. Spokojnie, to jeszcze nie koniec. Główny problem
z czytaniem myśli polega na tym, że są one ulotne. Ostatecznie myśli to
przecież impulsy elektryczne wymieniane pomiędzy komórkami nerwowymi.
Same te impulsy są bardzo słabe, co nie dziwi, bo przecież komórka też jest
filigranowa. Dlatego pola elektryczne, które generuje i przesyła wzdłuż
swych włókien nerwowych, jest niezwykle trudno zmierzyć. Najbardziej
bezpośredni pomiar polegałby na tym, by na błonie komórkowej neuronu
umieścić elektrody i za ich pomocą odczytywać przesyłane impulsy. Brzmi to
świetnie, bo dzięki temu badacz jest, można powiedzieć, on-line i śledzi
w czasie rzeczywistym wszystko, co przekazuje komórka nerwowa.
Przypomina to trochę podsłuchiwanie czyichś rozmów telefonicznych (co,
jak wszyscy dziś wiedzą, nie jest specjalnie trudne).
W odniesieniu do nielicznych neuronów metoda ta mogłaby się sprawdzić,
jednak, jak wiadomo, komórek nerwowych w mózgu jest naprawdę sporo, to
znaczy około 80 miliardów. To sprawia, że wyniki takich pomiarów byłyby
niejasne i mało czytelne. Oczywiście, można by skoncentrować się wyłącznie
na wybranych komórkach (lub grupach komórek), ale i w takim wypadku
trzeba najpierw otworzyć czaszkę i przekroić mózg, żeby zainstalować
elektrody. Okazało się, że niełatwo znaleźć ochotników do takich badań
(chociaż warto zaznaczyć, że taką metodą można się posługiwać w trakcie
operacji mózgu).

O czym śpiewa mózg


Nieco bardziej wyrafinowana, a zarazem mniej kłopotliwa metoda polega na
„podsłuchiwaniu” całych grup komórek nerwowych. Odpowiednią procedurę
nazywamy elektroencefalografią (EEG), co można przetłumaczyć jako
elektryczny (elektro-) zapis (-grafia) mózgu (-encefalo-). Opiera się ona na
tym, że podczas generowania impulsu pojedyncze komórki nerwowe
wytwarzają słabe pole elektryczne. Skoro tuż obok siebie znajdują się tysiące
lub nawet miliony komórek, pole to może stać się na tyle silne, że daje się je
zmierzyć na zewnątrz głowy przez pokrywę czaszki. W tym celu do głowy
przykłada się zestaw niewielkich elektrod. Niewątpliwym plusem jest to, że
badacz śledzi na bieżąco, kiedy komórki przesyłają do siebie impulsy.
Problem w tym, że w zasadzie nie da się dokładnie określić, gdzie cała ta
aktywność zachodzi. Można to porównać do sytuacji na stadionie. Wyraźnie
słychać rozmaite śpiewy kibiców, z grubsza można też określić kierunek,
z którego dobiegają, ale o wiele trudniej jest dokładnie stwierdzić, kto, co
i gdzie śpiewa (mimo że repertuar kibiców z reguły nie jest specjalnie
skomplikowany). Po to by odczytać myśli, trzeba dowiedzieć się nie tylko, że
badany człowiek myśli, ale i gdzie w jego mózgu przebiega ten proces!
Dopiero po namierzeniu miejsca, z którego dochodzą impulsy elektryczne,
można oddzielić od siebie rozmaite wzorce myślowe.

Twoje barwne portrety

Najpopularniejszym badaniem służącym do tego celu jest funkcjonalne


obrazowanie metodą rezonansu magnetycznego (fMRI) czy krócej rezonans
funkcjonalny. Wiele osób wyobraża to sobie tak, że gdy badanego wsuwa się
do specjalnej „rury”, urządzenie po prostu odczytuje aktywność mózgu.
W końcu nazywa się je często skanerem mózgu. W gruncie rzeczy, cóż za
przykra niespodzianka, fMRI jest nieco bardziej skomplikowane, chociaż
dwa najważniejsze elementy stosowanego w tym celu urządzenia są
naprawdę proste – to radio i magnes. Ze względu na ten drugi element
koniecznie zdejmijcie ulubionego roleksa, zanim podejdziecie do skanera.
Magnesy zastosowane w rezonansie są tak silne – ponad sto tysięcy razy
silniejsze niż ziemskie pole magnetyczne – że zegarek zmieniłby się
w wyjątkowo kosztowny pocisk i pozabijał nie dość czujnych laborantów.
Tak potężne pole magnetyczne jest konieczne, by zapewnić odpowiednią
jakość obrazu (na marginesie, właśnie ono sprawia, że aparat tak nieznośnie
hałasuje). Ale w jaki sposób powstają te piękne, kolorowe obrazy, które
można podziwiać w czasopismach?
Za pomocą fMRI wykrywa się to, czego w mózgu jest najwięcej. Muszę tu
rozczarować moich czytelników: nie chodzi mi o głębokie refleksje, tylko
o wodę. A dokładniej o atomy cząsteczek wody. Mają one bowiem
właściwości magnetyczne; można powiedzieć, że zachowują się jak
miniaturowe magnesiki. Jeśli podda się je działaniu bardzo silnego pola
magnetycznego, zawarte w nich atomy wodoru ułożą się odpowiednio do
jego kierunku. Trzeba tu jednak uczciwie zaznaczyć, że atomy wodoru nie
cechują się przesadną gorliwością i tylko jeden atom na milion w ogóle
wykazuje chęć współpracy, układając się w odpowiednią stronę. Ale
ponieważ już w sześcianiku tkanki mózgowej o rozmiarach kostki do gry
znajduje się blisko 40 tryliardów (1021) atomów wodoru w cząsteczkach
wody, w zupełności to wystarcza.
Cały dowcip polega na tym, że w zależności od położenia atomy wodoru
inaczej oddziałują ze skierowanymi na nie falami radiowymi. Ów radiowy
impuls jest bardzo krótki, tak że w ogóle go nie rejestrujemy, jednak atomy
wodoru w polu magnetycznym reagują na niego, wpadając w rezonans – stąd
nazwa metody badawczej.
W stanie rezonansu atomy nie pozostają zbyt długo. Szybko ponownie
ustawiają się zgodnie z liniami pola magnetycznego. Przy tej okazji wysyłają
zaś sygnał elektryczny i właśnie ten sygnał prezentuje się inaczej
w zależności od tego, czy atomy wodoru umiejscowione są w tkance
miękkiej, zasobnej w tłuszcz, czy może w twardszej i bardziej zbitej. Różnice
te można wykorzystać do uwidocznienia znajdujących się w mózgu struktur.
Podczas skanowania mierzy się zachodzące w mózgu procesy warstwa po
warstwie, a na koniec składa pojedyncze zdjęcia w całościowy obraz. Dlatego
urządzenie to nazywa się niekiedy tomografem, co można przetłumaczyć
jako „zapisywacz przekrojów”.
Wszystko to bardzo pięknie, wciąż jednak nie dowiadujemy się konkretnie,
w którym miejscu mózg jest aktywny w danej chwili. Do tego celu
wykorzystuje się kolejne zjawisko: rejestrowany sygnał zmienia się zależnie
od tego, jak silnie ukrwiony jest określony rejon mózgu. Jeśli więc zrobimy
wiele zdjęć jedno po drugim, możemy stwierdzić, w których rejonach mózgu
ukrwienie wzrasta (lub spada), a tym samym które są bardziej (lub mniej)
aktywne. W ten pośredni sposób poznajemy wzorzec aktywności mózgu;
możemy stwierdzić, gdzie w danym momencie szczególnie dużo się dzieje,
czyli gdzie coś „jest myślane”.
Techniki tego rodzaju zalicza się do badań obrazowych. Znacznie różnią
się one jednak na przykład od zdjęcia rentgenowskiego, na którym po prostu
widać, co się gdzie znajduje (powiedzmy, gdzie kość osadzona jest w tkance
miękkiej). Tomografię przeprowadza się przez wykonanie licznych
pomiarów. Dane te są następnie poddawane obróbce – filtrowaniu
i sortowaniu – aż w końcu na ich podstawie komputer może sztucznie
wygenerować obraz ukrwienia mózgu w danym momencie.

Mózgowy wykrywacz kłamstw


Rezonans funkcjonalny jest zatem niezwykle czaso- i pracochłonny, pozwala
jednak osiągnąć naprawdę zdumiewające rezultaty. Można na przykład z 80-
procentową dokładnością ustalić, która z dwóch myśli pojawiła się właśnie
w głowie badanego – oczywiście, o ile w tym czasie grzecznie leży on
w tubie skanera. A jeśli jeszcze bardziej podrasuje się obróbkę danych,
można nawet stwierdzić, na który z tysiąca różnych obrazków badany
właśnie patrzy3. Metodę tę można wreszcie wykorzystać jako wykrywacz
kłamstw (wprawdzie wciąż niedoskonały)4. W tym celu mierzy się
aktywność mózgu (dokładniej, aktywność przepływu krwi) u badanych,
którzy raz mówią prawdę, a raz ewidentnie kłamią. Na podstawie różnicy obu
pomiarów można ustalić, jaka dodatkowa aktywność mózgu jest konieczna
do „wyprodukowania” kłamstwa (obecnie w nauce wychodzi się z założenia,
że do zatajenia prawdy potrzebna jest dodatkowa praca myślowa).
Obserwując ową „nadwyżkę”, można z niemal stuprocentową pewnością
ocenić, czy uczestnicy badania, wygłaszający następnie dowolne treści,
trzymają się prawdy czy też zmyślają. Żeby jednak uspokoić notorycznych
bajerantów, dodam, że działa to tylko wówczas, gdy wcześniej uczestnicy
poddadzą się wspomnianej kalibracji pomiaru. Na dodatek pomiary
wymagają nadzwyczajnej precyzji; nawet najdrobniejsze zakłócenia mogą
sprawić, że wszystkie skany mózgu będą się nadawać tylko do kosza –
wystarczy, że uczestnik pstryknie podczas badania palcami.

Myśli wciąż pozostają na wolności

„Hurra! – można by w tym momencie zakrzyknąć – więc już niedługo


będziemy w stanie odczytywać marzenia, wspomnienia i całe sekwencje
myślowe!” Niestety (a może na szczęście) daleko nam do tego. Nawet
najbardziej zaawansowane skany nie przedstawiają bowiem rzeczywistych
procesów zachodzących w mózgu.
Nie powinno nas to dziwić, jeśli pamiętamy, że w badaniu w gruncie
rzeczy nie mierzy się wprost żadnych myśli. Bo myśl to tak naprawdę
wzorzec, w jakim aktywowana jest sieć komórek nerwowych. Można
powiedzieć, że powstająca myśl jest absolutnym arcydziełem komunikacji,
stanowi bowiem łączny wzorzec aktywności wielu milionów komórek
nerwowych. Wzorzec ten zmienia się niezwykle szybko, ponieważ neurony
mogą generować nowe sygnały nawet 500 razy na sekundę. Do
wychwytywania takich zmian rezonans jest nieprzystosowany, ponieważ
w badaniu tym mierzy się tylko i wyłącznie wzorzec ukrwienia, a zatem
ustala, które rejony mózgu są lepiej zaopatrzone w krew, a które gorzej.
Wyjściowe założenie brzmi rozsądnie: tam, gdzie przebiega intensywna
praca myślowa, potrzeba energii, dlatego w tym obszarze rośnie ukrwienie.
Taka metoda badawcza ma jednak dwie bardzo istotne wady.
Po pierwsze, nie jest bezpośrednia. Wracając na chwilę do naszej metafory
stadionowej, to trochę tak, jakby na podstawie sprzedaży napojów i kiełbasek
w poszczególnych sektorach próbować wnioskować, w którym miejscu na
trybunach panowała największa euforia. Tam, gdzie na zakończenie wala się
najwięcej śmieci, prawdopodobnie sporo się też działo. Wniosek taki może
nawet niekiedy okazać się trafny, wciąż jednak nie mamy pojęcia, który kibic
co wykrzykiwał, zagrzewając swoją drużynę do boju. Potrafimy ustalić tylko
to, gdzie mniej więcej to robił.
Po drugie, procedura pomiarowa jest dość powolna. O wiele za wolna jak
na tempo impulsów nerwowych, śmigających w zawrotnym tempie.
Przeciętny impuls w mózgu mknie z prędkością blisko 400 kilometrów na
godzinę. Natomiast na zrobienie pojedynczego obrazu techniką fMRI
potrzeba prawie dwóch sekund. W tym czasie w mózgu może się całkiem
sporo wydarzyć. Twarze i obrazy mózg rozpoznaje już po kilku tysięcznych
sekundy. Nadzieja, że tak kulawą metodą uda się odczytać ludzkie myśli, jest
więc, delikatnie mówiąc, na wyrost. Równie dobrze można by stanąć przy
torze Formuły 1 i pstrykać co dwie sekundy zdjęcie. W ten sposób uda się
może uzyskać szereg artystycznie rozmytych fotografii, ale samych
samochodów raczej nie będzie dobrze widać.

Pomyśl o Florianie

Z metodą fMRI wiąże się jeszcze jeden, zasadniczy problem: co prawda


pozwala ona całkiem nieźle określić, w jakich obszarach mózgu potrzeba
szczególnie dużo energii do przeprowadzenia określonych procesów
myślowych, jednak sama treść myśli pozostaje w znacznym stopniu ukryta.
Żeby móc oszacować, o czym właśnie myśli umieszczony w tubie skanera
człowiek, trzeba dokonać kalibracji sprzętu. W tym celu stosuje się pewną
sztuczkę: w ogóle nie mierzy się tego, co ktoś myśli, tylko różnice pomiędzy
poszczególnymi myślami. Brzmi to trochę mętnie, jednak znacznie upraszcza
pomiar. Wyobraźcie sobie na przykład, że pragniecie się dowiedzieć, czy
badany myśli akurat o Florianie Silbereisenie 1. A po co niby komu taka
informacja? Dobre pytanie, jednak hipotetycznie przyjmijmy, że o to właśnie
nam chodzi. Wsuwamy zatem badanego do tuby tomografu i na początek
pokazujemy mu obrazek kontrolny (pozbawiony treści, np. białą
powierzchnię), mierząc przy tym „aktywność” (czyli wzorzec przepływu
krwi) w mózgu. Następnie przedstawiamy mu fotografię naszego jodłującego
prezentera. W czasie gdy badany próbuje dojść do siebie po doznanym szoku,
ponownie mierzymy przepływ krwi. I właśnie ową różnicę pomiędzy
wynikami obu pomiarów definiujemy teraz jako specyficzny „wzorzec
myślowy Floriana Silbereisena” w mózgu badanego.
Na tym przykładzie widać jednak, że z „prawdziwym” czytaniem myśli nie
ma to nic wspólnego. Nie da się bowiem z całą pewnością stwierdzić, czy
człowiek rzeczywiście pomyślał o Silbereisenie (a nie na przykład o jakiejś
dziarskiej pioseneczce w stylu Floriana). Za pomocą rezonansu
funkcjonalnego można więc wprawdzie oddzielić od siebie poszczególne
myśli w mózgu, ale uwaga: różnice pomiędzy nimi są naprawdę bardzo,
bardzo niewielkie. Tu ciut więcej krwi, ówdzie odrobinkę mniej, rozbieżności
są niemal niedostrzegalne.
Co zatem zrobić w sytuacji, kiedy chcemy pokazać właśnie owe różnice,
tak małe, że naprawdę trudno je zauważyć? Trzeba je pokolorować, żeby
stały się bardziej widoczne! Dlatego właśnie skany mózgu w czasopismach
prezentują się tak efektownie. Można by niemal pomyśleć, że to migawki na
żywo, ukazujące szarą masę mózgu, w której co chwila coś „migoce” na
czerwono akurat tam, gdzie w danej chwili więcej się dzieje. Nic podobnego:
w rzeczywistości mózg nie miga ani nie błyska. Wyniki pomiarów po prostu
sztucznie zabarwiono, dzięki czemu powstaje wrażenie, że w danej chwili
określony rejon mózgu „odpala”, podczas gdy tuż obok aktywność jest
zerowa. To kompletna bzdura, bo w gruncie rzeczy pracują wszystkie
fragmenty mózgu, również te, które na zdjęciu wydają się szare. Gdyby
jednak nie wprowadzić kontrastowych barw, nic nie byłoby widać.

Zestandaryzowany mózg

Zadanie utrudnia nam dodatkowo jeszcze jedna kwestia: ludzkie mózgi,


podobnie jak wszystkie inne produkty pochodzenia naturalnego, podlegają
wahaniom biologicznym. Ich praca jest dynamiczna do tego stopnia, że jeden
i ten sam mózg trzeba poddawać wielokrotnym pomiarom, żeby móc odsiać
„szum tła”, czyli stałą, niezależną od konkretnych uwarunkowań pracę
myślową. Jednak i na tym nie koniec. Aby w ogóle uzyskać reprezentatywny
sygnał, neurobiolodzy niekiedy zestawiają ze sobą skany pochodzące
z mózgów różnych osób. Kiedy więc następnym razem będziecie patrzeć na
wielobarwny skan mózgu, pamiętajcie, czym on w istocie jest: obrobionym
komputerowo obrazkiem, przedstawiającym nie tyle mózg określonej osoby,
co statystyczne uśrednienie informacji z wielu różnych mózgów, na dodatek
sztucznie upiększone rozmaitymi kolorami, tak by można było coś na nim
dostrzec.
Dlatego, gdy w jakimś programie popularnonaukowym natkniecie się na
kolejne doniesienie w stylu Neuromarketing: wgląd w mózg klienta5,
zachowajcie zdrowy sceptycyzm. Wokół owego rzekomego czytania myśli
rozwinął się już cały przemysł. Hollywoodzkie filmy dopracowuje się,
pokazując badanym wersje próbne i mierząc jednocześnie za pomocą fMRI
aktywność ich mózgów6 (ku zaskoczeniu wszystkich okazało się, że filmy
trójwymiarowe pobudzają mózg w inny sposób niż dwuwymiarowe, kto by
przypuszczał?!). Za pomocą skanów mózgu usiłowano też ustalić, czemu
coca-cola cieszy się większym powodzeniem niż pepsi, choć oba napoje
smakują praktycznie tak samo7, albo dlaczego mężczyźni wolą sportowe
samochody od kombi8. Bądźcie jednak ostrożni, gdy rozmaici eksperci
zaczną wam objaśniać, co dzieje się w waszych głowach, gdy buszujecie po
sklepowych alejkach i wpada wam w oko logo takiej czy innej firmy.
Badania, które stanowią podstawę do tak śmiałych sądów, przeprowadzane są
w raczej mało naturalnych warunkach: ich uczestnicy leżą w urządzeniu
wartym milion euro, z głową zamocowaną w cewce, odizolowani od
zewnętrznych dźwięków, z surowym przykazaniem, żeby nawet nie drgnąć.
Nie wiem jak wy, ale ja codzienne zakupy robię inaczej.

Voxel populi
I wreszcie jest jeszcze jeden powód, dla którego wspomnianą metodą nie da
się „odczytać” myśli: jest ona mianowicie zbyt toporna. Podczas pomiarów
fMRI pojawiają się nieprawdopodobne ilości danych i bynajmniej nie
wszystkie da się przedstawić na błyskawicznie powstającym obrazku.
Dlatego trzeba podjąć decyzję, jak duży obszar mózgu zamierzamy badać.
Najczęściej obserwuje się przepływ krwi w maleńkich jednostkach objętości,
zwanych wokselami (to zabawna zbitka słów „wolumen”, czyli objętość,
i „piksel”). Jeden woksel ma w przybliżeniu wielkość główki od szpilki.
Podczas badania mierzy się zmiany przepływu krwi w kilku tysiącach
wokseli i na tej podstawie konstruuje obraz aktywności mózgu. Tyle że
tkanka mózgowa jest wprost usiana komórkami nerwowymi, w związku
z czym w jednym wokselu może znajdować się nawet 500 tysięcy neuronów,
wykształcających 5 miliardów połączeń.
Zatem, jeśli na potrzeby wygenerowania obrazka zestawimy ze sobą 5
tysięcy wokseli, w ich obrębie znajdzie się tym samym 5 bilionów połączeń,
z których każde może być słabsze lub silniejsze. Powtarzam: 5 bilionów
połączeń modulowanych i poddawanych zmianom przez neuroprzekaźniki.
I wreszcie, dokonując pomiarów co dwie sekundy, nie mierzymy
bezpośrednio impulsów elektrycznych przesyłanych pomiędzy komórkami
nerwowymi, a zaledwie sprawdzamy, gdzie dopływa więcej krwi! Dziesiątki
bilionów rozmaitych oddziaływań pomiędzy komórkami nerwowymi
w badanym obszarze nie są w naszym rachunku w ogóle uwzględnione.
Życzę powodzenia przy próbie odczytywania myśli taką metodą…

Czym naprawdę zajmują się neurobiolodzy

W ten sposób dotarliśmy do sedna: otóż nie, my, neurobiolodzy, nie jesteśmy
w stanie odczytywać ludzkich myśli. Niemniej to, czym naprawdę się
zajmujemy, podglądając mózg przy pracy, jest równie pasjonujące:
mierzymy, gdzie zmienia się przepływ krwi, a tym samym zużycie energii
w mózgu. Dzięki temu można ustalić, w którym miejscu w mózgu przebiega
szczególnie intensywna praca myślowa, a dzięki temu dowiedzieć się, w jaki
sposób mózg dzieli sobie ową pracę. To z kolei ułatwia nam zrozumienie
sposobów funkcjonowania mózgu, o czym będzie jeszcze mowa w kolejnych
rozdziałach. Jednak treść myśli pozostaje całkowicie ukryta. Oby na zawsze.

1. Florian Silbereisen to niemiecki piosenkarz, prezenter i celebryta (przyp. tłum.). [wróć]


MIT NUMER 2

Nasze prymitywne zachowania to


sprawka gadziego mózgu

Do czego właściwie potrzebny jest nam mózg? Pytanie brzmi banalnie, na


szczęście – przynajmniej w ujęciu popularnym – znajdziemy na nie kilka
jasnych i prostych odpowiedzi. Gdy nasze działanie staje się szczególnie
„prymitywne”, to znak, że włączył się pień mózgu. Zgodnie z tym poglądem
miałby on odpowiadać za niskie pobudki, tępe wegetowanie, oglądanie RTL-
2 itp. To jakby neurobiologiczna siedziba wzorców zachowań wywodzących
się jeszcze z epoki kamienia, które miałyby walczyć o prymat z tym, co
podpowiada nam światły rozum.
Żeby jeszcze bardziej uprościć sprawę, pień mózgu określa się chętnie
mianem „mózgu gadziego” – czegoś w rodzaju ewolucyjnego reliktu, który
od milionów lat trwa niezmiennie w tej samej postaci, a jego jedynym
zadaniem jest zakłócanie pracy naszego wspaniałego mózgu, ilekroć mógłby
wymyśleć coś sensownego. Bez względu na to, czy chodzi o mężczyzn
oglądających mecz piłkarski czy kobiety kupujące sobie buty (uwaga,
stereotypy; już niedługo powiemy więcej na ten temat!), ich racjonalne
kresomózgowie nie ma najmniejszych szans, bo w takich sytuacjach górę
bierze mózg gadzi. Tak samo dzieje się w przypadku reakcji instynktownych
(walka lub ucieczka), samczych popisów i prężenia muskułów czy damskich
fochów i kaprysów – po prostu włącza się gadzi mózg. Kresomózgowie nie
ma wtedy nic do gadania, a my, chcąc, nie chcąc, zachowujemy się jak nasi
przodkowie z epoki kamiennej.
Jak widać, nie wszystko, co mózgowe, cieszy się równie dobrą prasą.
Z podobnym problemem boryka się móżdżek. Jak to w ogóle brzmi:
„móżdżek” – pomniejszy mózg, jakiś upośledzony biedaczek. A skoro tak, to
gdzie w takim razie znajduje się ten wielki, wspaniały mózg, który kręci
całym interesem i odpowiada za nasze duchowe wzloty? Oto i on: to
kresomózgowie, choć oprócz niego w anatomii pojawiają się jeszcze jakieś
dwa inne „mózgowia”: między- i śródmózgowie, które (jak wskazują nazwy)
leżą gdzieś pomiędzy tym wszystkim.
Jeśli dobrze liczę, w ludzkiej, w pełni ukształtowanej czaszce znalazłoby
się w ten sposób przynajmniej pięć takich czy innych struktur mózgowych.
Co za beznadziejny bałagan! Stwarza on oczywiście doskonały grunt dla
rozmaitych mitów i nieporozumień. A ponieważ w kolejnych rozdziałach
cały czas będziemy mówić o mózgu jako o zwartej całości, uznałem za
stosowne na wstępie przedstawić kilka anatomicznych szczegółów, by
uniknąć zamieszania z tymi wszystkimi „mózgowiami”.

Krokodyl w twojej głowie

Jedno z takich nieporozumień zaczyna się już od określenia „prymitywny”.


Nie ma ono nic wspólnego z cofnięciem się w rozwoju do poziomu naszych
najdawniejszych przodków, a jest w tym przypadku po prostu
specjalistycznym terminem z zakresu biologii ewolucyjnej. Nie oznacza on
„prostacki” czy „zacofany”, lecz tylko i wyłącznie „pierwszy”, „pierwotny”.
W odniesieniu do tworów, które wyewoluowały później z takich właśnie
pierwotnych form, naukowcy, nieco myląco, posługują się terminem „wyżej
rozwinięte” lub „bardziej złożone”. Przykład: pierwszy ręcznik, położony nad
brzegiem basenu dla zaznaczenia naszego miejsca, będzie „prymitywny”,
natomiast drugi, ułożony na nim stanowi klasyczny przykład „wyższego
(nomen omen) poziomu”.
W przypadku mózgu „prymitywny” nie znaczy zatem „toporny” czy
„zacofany”. Chodzi wyłącznie o to, że istnienia podobnych struktur
mózgowych można się domyślać już u naszych ewolucyjnie starszych
poprzedników. Gady pojawiły się na długo przed ssakami i również radziły
sobie z życiem w świecie dzięki mózgom. Mózg bowiem to bardzo
praktyczny wynalazek, który pozwala na szybkie reakcje fizyczne, takie jak
przemieszczanie się w przestrzeni, orientacja w otoczeniu i sterowanie pracą
złożonych narządów, na przykład serca czy płuc. W nawiązaniu do tej
ewolucyjnie „starej” części w naszej głowie rozmaici samozwańczy
mózgoznawcy ukuli na określenie tego rejonu termin „mózg gadzi”, co
całkowicie wypacza całościowy obraz mózgu.
W poważnej nauce terminu „mózg gadzi” używa się wyłącznie przy okazji
żartów z rozmaitych „ezoterycznych psychologów” i „trenerów mentalnych”.
Nie jest to natomiast termin anatomiczny. W chwili, gdy uaktywnia się nasz
„mózg gadzi”, wcale nie myślimy jak krokodyl. Mianem tym określa się
w istocie zbiór różnych rejonów mózgu, które nie tylko komunikują się ze
sobą w złożony (bynajmniej nie prymitywny) sposób, ale też sprawują
kontrolę nad niezbędnymi dla życia czynnościami organizmu. Najlepiej więc
w ogóle dać sobie spokój z całym tym gadzim mózgiem, a zapamiętać
poprawne anatomicznie, a jednocześnie jasne określenie: pień mózgu.
W pierwszej chwili może wygląda to na czepianie się słówek, ale w ten
sposób znacznie łatwiej będzie zapamiętać, jaki jest rzeczywisty sens tej
struktury.

Pień mózgu, czyli dozorca i nadzorca w jednym

Gdy schodzę do piwnicy, od razu rzucają mi się w oczy dwie rzeczy. Po


pierwsze, znów muszę zrobić porządki. Po drugie, właśnie tutaj znajdują się
wszystkie ważne dla całego budynku instalacje: przewody elektryczne
wnikające z zewnątrz, skrzynki z bezpiecznikami, rury wodociągowe –
wszystko to, co zawadzałoby nam w mieszkaniach. W mózgu rzecz
przedstawia się podobnie, ponieważ ważne „okablowanie” łączące nas ze
światem zewnętrznym znajduje się właśnie w pniu. Niestety, przynajmniej na
pierwszy rzut oka, zdaje się tu panować równy bałagan jak w mojej piwnicy.
W rzeczywistości pień mózgu cechuje bardzo precyzyjna organizacja, ale
żeby ją docenić, trzeba odbyć studia anatomiczne.
Żadnych wątpliwości nie wzbudza natomiast funkcja tej struktury: pień
mózgu łączy rdzeń kręgowy z pozostałą częścią mózgu. Zanim włókna
nerwowe z całego ciała dostąpią zaszczytu przekazania informacji do
kresomózgowia, trzeba je najpierw skomasować. Podobnie jak w skrzynce
z bezpiecznikami u nas w domu połączenia te mają zasadnicze znaczenie dla
funkcjonowania całości. W pniu mózgu sprawowana jest kontrola nad
czynnościami, które wykonujemy zupełnie odruchowo, takimi jak
oddychanie czy przełykanie, a także nad ruchami oczu czy zachowywaniem
równowagi.
Dlatego mam szczerą nadzieję, że wszyscy moi czytelnicy ani na chwilę
nie przestają „myśleć” pniem mózgu, bo właśnie tutaj odbywa się sterowanie
wieloma najważniejszymi funkcjami naszego ciała. Czy może, przez wzgląd
na zaawansowanie ewolucyjne i rozwój duchowy, wolelibyście zrezygnować
z posługiwania się tym „prymitywnym” tworem? Życzę powodzenia, tyle że
niestety nie zdołacie wtedy poruszyć żadnym mięśniem, uwięzieni czy wręcz
żywcem pogrzebani we własnym ciele. Nie jest to pociągająca wizja.
Wszystko, co trafia do mózgu jako informacja od narządów zmysłów
w ciele lub, odwrotnie, jest przesyłane z mózgu do ciała w postaci impulsu
ruchu, musi przejść przez pień. Tyle że w tym pierwszym przypadku
niekiedy kończy swoją wędrówkę w pniu, bo zostaje tam natychmiast
przetworzone w instynktowną reakcję.
To jednak nie wszystko. Pień mózgu stanowi nie tylko główny zwornik
najważniejszych szlaków nerwowych, ale bierze też udział w wytwarzaniu
płynu mózgowo-rdzeniowego. Nasz mózg jest ze wszystkich stron otoczony
takim wodnistym płynem, w którym bezpiecznie sobie pływa, nie ocierając
się o pokrywę czaszki i nie narażając się na wstrząśnienie, gdy energicznie
zarzucamy włosami. Komórki wytwarzające ów płyn leżą tuż przy pniu
mózgu, pełni on więc rolę nie tylko elektryka, ale i przy okazji hydraulika. Po
prostu dozorca idealny.

Mózgowy kalafior

Przyszedł czas na najważniejszą informację: pień stanowi integralną część


mózgu, a nie oddzielny obszar, względnie łodygę, na której osadzony jest
niezależny od niej mózg. Tak samo jak międzymózgowie, kresomózgowie
i móżdżek, także pień jest częścią większej całości. Jeśli lubicie obrazowe
porównania, możecie wyobrazić sobie mózg jako kalafiora z wieloma
niewielkimi uwypukleniami, doskonale ze sobą połączonymi.
Poszczególne części mózgu (różyczki naszego kalafiora) można rzecz
jasna obserwować osobno, ale nie posunie nas to zanadto w rozumieniu, jak
naprawdę działa mózg. Zwłaszcza że, jak się przekonamy w kolejnych
rozdziałach, mózg zawsze funkcjonuje jako sieć, a nie luźne zbiorowisko
poszczególnych modułów. To, że rozmaitym uwypukleniom
(w embrionalnym rozwoju mózgu mówi się o „pęcherzykach”) nadano
odrębne nazwy, nie oznacza, że są to samodzielne struktury. Mamy w głowie
tylko jeden mózg, ale jest to twór tak bardzo złożony anatomicznie, że ze
względów poglądowych trzeba go jakoś podzielić i ta wielość nazw może
czasem zwodzić.
Dlatego czym prędzej zapomnijcie o odrębnych „mózgach”, które miałyby
ze sobą rywalizować. Rozumne kresomózgowie kontra sterowany popędami
pień mózgu to kompletna bzdura. Nasz mózg ma przed sobą jedno naczelne
zadanie: umożliwić nam życie, i to jak najlepsze. W tym celu wszystkie jego
rejony współdziałają ze sobą, dzieląc się zadaniami (przyjrzymy się temu
bliżej w kolejnym rozdziale), a ich współpraca układa się nad wyraz
harmonijnie. W dzisiejszych czasach to doprawdy rzadkie zjawisko.
I jeszcze jedno: skoro już mowa o popędach i instynktach, należałoby ich
szukać nie w pniu mózgu, ale raczej w międzymózgowiu i kresomózgowiu.
W istocie bowiem praktycznie nie da się rozdzielić obszarów „instynktu”
i „rozumu”. Często dokładnie te same rejony mózgu są aktywne zarówno
w racjonalnych działaniach, jak i w zachowaniach wynikłych z popędów.

Międzymózgowie, czyli główny sekretariat

O ile śródmózgowie pełni wbrew nazwie raczej niezbyt prestiżową funkcję


(stanowiąc po prostu zwrotnicę pnia mózgu), o tyle z międzymózgowiem
rzecz przedstawia się całkiem inaczej. Obszar ten leży pomiędzy obiema
półkulami kresomózgowia, bezpośrednio nad pniem mózgu. Znajduje się tam
nie przypadkiem, bo właśnie w międzymózgowiu filtrowane są wszystkie
pochodzące od zmysłów bodźce i zapada decyzja, co z tego ma dotrzeć do
kresomózgowia. Trochę jak w sekretariacie, gdzie wstępnie rozpatruje się
wszelkie podania i dopiero w razie potrzeby kieruje je do dyrektora. Z tego
powodu wielu informacji pochodzących od narządów zmysłów nie
przetwarzamy świadomie.
Prosty przykład: czy macie właśnie buty na nogach? Prawdopodobnie aż
do tej chwili kwestia ta w ogóle nie zaprzątała wam głowy. Międzymózgowie
uznało tę informację za zbyt mało istotną, by kierować te sygnały do
kresomózgowia i naszej świadomości. Skoro jednak takie pytanie padło,
kresomózgowie zleca międzymózgowiu, by „przepuścić” dochodzące ze stóp
wrażenia dotykowe i uciskowe. Te zmysłowe bodźce są następnie
przetwarzane w kresomózgowiu, a wy uświadamiacie sobie, że czytaliście te
słowa, będąc na bosaka albo może w solidnych trzewikach. Takie filtrowanie
informacji dotyczy wszystkich zmysłów oprócz węchu, który ma
bezpośrednie połączenie z kresomózgowiem. Dlatego ewentualna informacja
o tym, że stopy nie pachną fiołkami, dociera do nas natychmiast, gdy tylko
zdejmiemy buty.
Ale międzymózgowie to nie tylko czujny sekretarz mózgu. Jego rolą jest
również utrzymanie w równowadze rozmaitych ważnych procesów i funkcji,
takich jak temperatura ciała, gospodarka wodna, poczucie głodu i sytości,
wydzielanie rozmaitych płynów ustrojowych i hormonów – wszystkim tym
zawiaduje właśnie międzymózgowie. W tym celu dokonuje ono
bezustannych pomiarów odpowiednich parametrów organizmu i w razie
potrzeby interweniuje. Jeżeli na przykład wzrasta objętość krwi, to
prawdopodobnie jest w niej dużo wody. Wniosek: czas na siusiu. Spada
poziom cukru? To znak, że należy szukać pożywienia, dlatego robimy się
głodni. Zresztą głód to wcale nie taka prosta sprawa; z jednej strony
pobudzane jest kresomózgowie, by człowiek wyruszył na poszukiwanie
czegoś jadalnego, z drugiej strony już w tym momencie międzymózgowie
uruchamia wydzielanie soków trawiennych i pobudza żołądek (burczy nam
w brzuchu). Widać z tego, że nawet najbardziej przyziemne potrzeby
podlegają centralnemu sterowaniu. I to nie przez odrębne struktury, tylko
w drodze współpracy rozmaitych rejonów jednego i tego samego narządu.

Kresomózgowie – szef szefów?

Wokół pnia mózgu i międzymózgowia majestatycznie rozrasta się nasz


rzekomy pan i władca: kresomózgowie. Dokładniej mówiąc, jest to kora
mózgu – tylko ją bowiem można dostrzec, gdy patrzy się na mózg
z zewnątrz. Kora ta ma od dwóch do pięciu milimetrów grubości, składa się
z ciasno upakowanych ciał komórek nerwowych i istotnie stanowi ostatni
krzyk nowoczesności w dziedzinie ewolucji. U ludzi jest ona wyjątkowo
silnie rozwinięta, mocno pobrużdżona i pofałdowana, dzięki czemu
w czaszce mieści się szczególnie dużo neuronów. Właśnie dlatego
zyskaliśmy to, z czego jesteśmy tak dumni: świadomość, pamięć, mowę czy
uczucia.
Większość komórek nerwowych w naszym mózgu leży zatem
w cieniutkiej warstwie kory. Jednak bodaj jeszcze ważniejsze jest to, co
znajduje się pod ową warstwą i zajmuje pozostałą część kresomózgowia. To
włókna nerwowe, które łączą ze sobą neurony9. W gruncie rzeczy więc na
kresomózgowie składają się przede wszystkim rozmaite wtyczki,
rozgałęziacze i kable.
Liczne fałdy kory mózgowej mają jeszcze jedną zaletę. Ułatwiają
badaczom mózgu podzielenie jej na części, a mianowicie na cztery płaty,
odgraniczone szczególnie wyraźnymi bruzdami i zakrętami. Największą
sławą cieszy się płat czołowy, w którym ma się jakoby mieścić zasadniczy
aspekt całego aparatu myślowego człowieka, czyli nasza świadomość.
Oznaczałoby to, że wreszcie udało się zidentyfikować siedzibę rozumu
i intelektu: to kawałek gąbczastej, przesiąkniętej krwią tkanki mózgowej
wielkości kiwi, niemal w stu procentach złożony z wody i tłuszczu. Drogi
rozumie, witaj w domu!
Jednak nawet na tym skrawku nasza świadomość wcale nie zawsze jest
panią sytuacji. Tak naprawdę bowiem wszystko, co tak chętnie przypisuje się
(nieistniejącemu) „mózgowi gadziemu” (czyli niskie popędy, instynkty, silne
emocje), rodzi się właśnie w rejonie ukrytym głęboko w kresomózgowiu,
a mianowicie w układzie limbicznym. Sama nazwa wskazuje, że nawet
neurobiolodzy nie do końca wiedzą, z czym mamy tu do czynienia. Słowo
„układ” brzmi niezbyt precyzyjnie, a na dodatek jest on „limbiczny”, czyli
„brzeżny” (bo „obrzeża” międzymózgowie). I rzeczywiście wciąż nie
jesteśmy pewni, co właściwie zalicza się do układu limbicznego, ale tak
nieprecyzyjny termin pozwala przynajmniej nie popełnić błędu.
Z całą pewnością wiadomo jednak, że do układu tego należy szczególny
obszar, zwany ciałem migdałowatym. Odgrywa ono ważną rolę
w kształtowaniu naszej pamięci oraz w sterowaniu emocjami. Ciało
migdałowate dokonuje nieustannych porównań, zestawiając nasze
wspomnienia i doświadczenia z bieżącymi wrażeniami. Dopiero wskutek
tego porównania powstają emocje. Weźmy na przykład wstręt. Zachodzące
przy tej okazji procesy neuronalne mózg zna już od urodzenia: mdłości,
pocenie się czy stan podwyższonej gotowości w całym organizmie. Ale
o tym, co nas brzydzi, decyduje ciało migdałowate, porównując konkretny
obraz (np. sera pleśniowego) z dotychczasowymi doświadczeniami
i nabytymi wzorcami zachowania. Dlatego właśnie ser pleśniowy u jednych
wzbudza poczucie wstrętu, a u innych nie. Zdolność odczuwania wstrętu jako
elementarnej emocji jest wrodzona, jednak to, co nas brzydzi, jest już kwestią
bagażu kulturowego.
Ciało migdałowate ma związek nie tylko z uczuciem wstrętu. Tropy do
niego prowadzą zawsze wtedy, gdy coś nas złości, smuci albo cieszy. Jednak
i tu obowiązuje ta sama zasada co zwykle: absolutnie nie jest tak, jakoby
ciało migdałowate stanowiło jedyny ośrodek uczuć, jak to można od czasu do
czasu usłyszeć. Owszem, przyczynia się ono do powstawania uczuć, ale
dopiero wówczas, gdy połączy się ze sobą informacje płynące
z kresomózgowia, części międzymózgowia oraz z innych rejonów układu
limbicznego.
Pora się zatem pożegnać z wizją kresomózgowia jako siedliska czystego
rozumu. „Stroszenie piórek” i głupawe zachowania godowe podczas
przepychanki na Oktoberfeście nie powstają w izolacji w prymitywnym
i archaicznym „gadzim mózgu”, lecz tam, gdzie stworzona została także Oda
do radości – w kresomózgowiu z życzliwą pomocą wszystkich pozostałych
obszarów mózgu.

Móżdżek: małe jest piękne (i ważne!)

Oprócz pnia mózgu oraz między- i kresomózgowia istnieje jeszcze jeden


rejon mózgu, pozostający chyba najbardziej w cieniu. To położony w rejonie
karku móżdżek. Często zapomina się o rzeczywistej potędze tego
anatomicznego majstersztyku. Choć wszystkie rejony mózgu są ze sobą
doskonale skomunikowane, właśnie móżdżek jest pod tym względem
prawdziwym mistrzem. O ile bowiem komórki nerwowe w korze
kresomózgowia pozostają w kontakcie średnio z 10 tysiącami innych
komórek, o tyle neurony w móżdżku mogą połączyć się nawet ze 100
tysiącami swoich pobratymców. Na dodatek powierzchnia móżdżku jest
pofałdowana jeszcze silniej niż kresomózgowia, a jego wewnętrzna
architektura jest zorganizowana jeszcze precyzyjniej, w stopniu
zakrawającym wręcz na pedanterię.
Wszystko dlatego, że móżdżek naprawdę ma co robić. Przez cały czas
mierzy położenie naszych mięśni i kończyn, porównuje je z impulsami ruchu
płynącymi z kresomózgowia, wylicza ewentualne niespójności, dołącza nowe
informacje i koryguje wzorce ruchowe. Krótko mówiąc, dba o to, żebyśmy
nie wykopyrtnęli się na równej drodze.
Z pozoru zadanie to przedstawia się łatwiej niż w rzeczywistości. Wielkie
i nieco ociężałe kresomózgowie ze swoimi zgrubieniami i bruzdami nie jest
w stanie wytrzymać wymaganego tempa, by przetworzyć na czas tak
ogromną ilość informacji. Dlatego decyduje się na „outsourcing”, zlecając
całą związaną z tym mozolną pracę obliczeniową móżdżkowi. Dzięki temu
ma więcej czasu na to, co w życiu naprawdę ważne.
Jak jednak widać, również w tym przypadku nie ma mowy o rywalizacji.
Jest to po prostu przemyślany podział pracy, który umożliwia osiąganie jak
najlepszych wyników.

Podstawą jest praca zespołowa

Jak najprędzej zapomnijcie więc o „gadzim mózgu”, który u mężczyzn


rzekomo uruchamia się podczas kibicowania piłkarzom, a u kobiet przy
kupowaniu torebek. Nie ma też w mózgu obszarów, które pozostają ze sobą
w stanie wojny (np. rejon „rozumny” kontra obszar niskich popędów). Mózg
należy wyobrażać sobie raczej jako świetnie zgraną drużynę (i to bez
selekcjonera!), w której poszczególni gracze nic nie znaczą bez całej reszty.
Gdy jednak wymieniamy kresomózgowie, układ limbiczny, móżdżek,
międzymózgowie i tak dalej, łatwo można odnieść wrażenie, jakoby
w mózgu wykształciły się wyspecjalizowane obszary, współdziałające ze
sobą na zasadzie odrębnych modułów. W ten sposób docieramy do kolejnego
neurologicznego mitu, z którym zamierzam się rozprawić w następnym
rozdziale.
MIT NUMER 3

Mózg składa się z modułów

Nasz „narząd myślowy” stanowi prawdziwe wyzwanie nie tylko dla


biologów. Jest też ulubionym obiektem badań psychologów, filozofów
i innych humanistów. Nic dziwnego, że w historii myśli ludzkiej aż roi się od
efektownych porównań i metafor, które mają tłumaczyć jego
funkcjonowanie. Greccy filozofowie porównywali go do gruczołu
wydzielającego cielesne soki, dwieście lat temu opisywano go jako maszynę,
dziś chętnie posługujemy się analogiami do supernowoczesnych
komputerów.
Ludzie kochają wszystko szufladkować. Postępują tak też w przypadku
mózgu, chcąc choć trochę uporządkować wiedzę. Niemniej słowo „szufladki”
brzmi w odniesieniu do mózgu jakoś na nie czasie, natomiast gdy mówi się
o „modułach”, od razu robi się nowocześniej. Mózg w tym ujęciu miałby
stanowić zestaw klocków, czyli właśnie owych modułów.
Koncepcja przedstawia się prosto i przejrzyście: precyzyjnie oddzielone od
siebie moduły są uruchamiane na potrzeby konkretnych zadań. Mamy moduł
strachu, moduł miłości, wiary, agresji i nie wiadomo czego jeszcze. Wiosną
2013 roku nawet szacowny Der Spiegel ochrzcił rejon mózgu uczestniczący
w rozpoznawaniu liczb szumnym mianem „ośrodka matematycznego”10.
Chyba każdy słyszał też o ośrodkach wzroku, słuchu czy mowy. Pewne
rejony w mózgu zdają się sprawować pieczę nad pamięcią i w całości
odpowiadają za przetwarzanie wrażeń węchowych. Niektóre z owych
modułów miałyby niemal status osobnych narządów, skoro mówimy na
przykład o „ośrodku strachu” (ciało migdałowate) czy „strażniku pamięci”
(hipokamp).
Wszystko to sprawia wrażenie, jakoby mózg był wyposażony, niczym
smartfon, w stosowne aplikacje na różne okazje. Wystarczy odpalić właściwy
moduł i można się szybko uporać z dowolnym problemem. Ale czy tak jest
naprawdę? Czy rzeczywiście mózg to po prostu superzaawansowany
smartfon?

Pokaż mi swoją czaszkę, a powiem ci, kim jesteś

Jak zawsze w takich przypadkach, warto się zastanowić, skąd w ogóle wzięły
się te analogie. Jednym z najdziwaczniejszych źródeł była pewna szczególna
metoda analizy ludzkiej czaszki (mówić o nauce byłoby tu pewną przesadą),
zwana frenologią. W XVIII- wiecznej Europie spopularyzował ją bardzo
wówczas ceniony Franz Joseph Gall, który twierdził, jakoby na podstawie
wypukłości czaszki dało się odczytać charakter człowieka (proszę zwrócić
uwagę, że już wtedy była moda na „neurobiologów”). Zgodnie z tą teorią, im
częściej używa się określonego rejonu mózgu, tym większy się on staje, aż
wreszcie w danym miejscu w czaszce tworzy się niewielka wypukłość.
A zatem z samego wyglądu czaszki można wyczytać, gdzie znajduje się
określony mózgowy moduł. Pomyślicie może, że to kompletna bzdura, ale
przecież i dzisiaj można kupić pocztówki, na których ludzka głowa
podzielona jest na niewielkie partie, a do każdej z nich przyporządkowany
jest inny wycinek naszego charakteru. Wszystko poukładane jak
w pudełeczku, na przykład moduł przyjaźni ulokowany jest za prawym
uchem. Osobiście bardzo mnie to cieszy, bo mam w tym miejscu niewielką
wypukłość.
Oczywiście nie stoi za tym poważna wiedza naukowa, jednak ujęcia tego
typu odpowiadają elementarnej ludzkiej potrzebie, by wszystko ładnie
posegregować i uporządkować. Podejście takie nie zawsze jest złe, a niekiedy
bywa nawet pomocne, na przykład w próbach poznania mózgu pod
względem anatomicznym. Tym bardziej, że w porównaniu do innych
narządów mózg nie tak łatwo odkrywa przed nami swoje tajemnice.
W przypadku serca całkiem łatwo jest się zorientować, że płyn musi
przepływać przez wszystkie cztery jego części. Również płuco ma budowę
dobrze dopasowaną do pobierania powietrza. Natomiast mózgowi trzeba się
naprawdę bardzo dokładnie przyjrzeć, żeby rozpoznać jego detale, a co
gorsza, wcale nie oznacza to, że zrozumiemy, do czego służą. Gąbczasta
tkanka tworząca mózg jest, jak już wiemy, bardzo splątana, a do odczytania
myśli nie wystarczy rozpoznanie układu paru komórek nerwowych.

Zgooglować mózg

Muszę powiedzieć, że wprost uwielbiam mapy. Pod tym względem jestem


taki sam jak mój dziadek, który całymi godzinami potrafił studiować świat,
przesiadując nad mapami. Ja jestem odrobinę bardziej nowoczesny
i poruszam się po kuli ziemskiej wirtualnie – za pomocą map, które nie tylko
pokazują mi, co gdzie leży, ale też co się tam dzieje i na przykład jakie jest
w danym miejscu natężenie ruchu. To fantastyczna zabawa, choć pożera
mnóstwo czasu.
Oczywiście od dawna starano się również sporządzić mapę mózgu, dzieląc
go na fragmenty. Łatwo się domyślić, że taka praca szybko przekształca się
w żmudne dopasowywanie puzzli. Szczególnie wytrwałym „układaczem” był
niemiecki anatom Korbinian Brodmann. Uzbrojony zaledwie w tradycyjny
mikroskop optyczny, już ponad sto lat temu podjął pierwszą próbę
sporządzenia mapy ludzkiego mózgu. Skupił się na subtelnych różnicach
w układzie komórek nerwowych, a konkretnie na tym, jak układając się jedna
na drugiej, tworzą one warstwy i odrębne rejony. Na tej podstawie podzielił
korę kresomózgowia na 52 pola (łac. areae), przy czym w kwestii
nazewnictwa nie wykazał się szczególną fantazją, bo po prostu kolejno je
ponumerował. W ten sposób powstała mapa przypominająca te, których
używał mój dziadek: zaznaczono na niej, co i gdzie się znajduje. To jednak
wciąż za mało, by wyjaśnić, co się tam dzieje.
Mapę taką należałoby uzupełnić o informacje na temat sposobu
funkcjonowania mózgu, tak jak mapy Google’a pokazują bieżące natężenie
ruchu. Pierwszych wskazówek w tej kwestii dostarczyły urazy mózgu,
powstałe bądź to w wyniku wypadków, bądź operacji mózgu. Nierzadko
okazywało się, że uszkodzenie w konkretnym miejscu pociąga za sobą ściśle
określone skutki. Jeśli na przykład urazowi uległa przednia część pola
Brodmanna o numerze 22, pojawiały się problemy z rozumieniem mowy;
pacjenci przestawali rozpoznawać słowa lub nie byli już w stanie sensownie
ich przyporządkować. Mimo to sami byli w stanie nie tylko „produkować”
słowa, ale też bezbłędnie je wymawiać. Wniosek? W polu 22 musi
znajdować się „ośrodek rozpoznawania mowy”. Dziś nosi on nazwę ośrodka
Wernickego. Analogiczny ośrodek odpowiedzialny za generowanie mowy
nazywany jest ośrodkiem Broki i znajduje się w polu Brodmanna numer 45.
Może się to wydawać niewiarygodne, ale mapa mózgu Brodmanna,
opublikowana po raz pierwszy w 1909 roku, jest wykorzystywana do dzisiaj.
Pozwala ona się zorientować w układzie mózgu, na przykład część ośrodka
wzroku znajduje się w polu numer 17. Bardzo praktycznie, od razu wiadomo,
gdzie należy szukać w mózgu danej funkcji.
Czeka nas jednak kilka niespodzianek. Zawiedzeni będą na przykład
poszukiwacze pola opatrzonego pechowym numerem trzynastym, bo takiego
u ludzi nie ma. Z kolei wszyscy, którzy oglądali Dzień Niepodległości,
świetnie wiedzą, czym jest area fifty-one: to tajna baza amerykańskich sił
powietrznych w miejscu, w którym rozbił się statek kosmitów (czemu rząd
amerykański oczywiście zaprzeczył). Czy to nie zastanawiające, że
i w ludzkim mózgu brak pola numer 51? Podejrzane… Żeby jednak nie
tworzyć kolejnych teorii spiskowych, wyjaśnię, że Brodmann opisał te pola
u małp, a ponieważ nie pasowały do ludzkiej anatomii, po prostu je pominął.
Starczy tych żarcików. Pora na krótkie podsumowanie: nie każdy mit na
temat mózgu jest kompletną bzdurą, w większości przypadków kryje się
w nich ziarno prawdy. Z taką sytuacją mamy właśnie do czynienia tutaj, bo
dla pewnych funkcji istotnie wykształciły się w mózgu moduły o ściśle
określonych zadaniach. Jest to więc prawda, ale niestety nie cała…

Zalety koncepcji modułowej

Pomysł podziału na moduły okazuje się niekiedy całkiem przydatny, co


szczególnie jasno widać (nomen omen) w przypadku wzroku. Włókna
nerwowe siatkówki (łącznie jest ich około miliona) prowadzą najpierw do
tylnej części mózgu (czy też, żeby wyrazić się bardziej fachowo, do części
potylicznej), a mianowicie do pierwszorzędowej kory wzrokowej. W tym
miejscu dostarczana przez oko informacja wzrokowa jest rozkładana na
czynniki pierwsze, a każdą częścią składową zajmuje się odrębna grupka
komórek nerwowych: jedne rozpoznają kolor, inne kierunek czy
umiejscowienie w przestrzeni. Wokół nich położone są drugo-
i trzeciorzędowa kora wzrokowa, odpowiedzialne za rozpoznawanie
konturów, kształtów i kontrastów. Łącznie wyróżniamy ponad trzydzieści
rejonów, z których każdy specjalizuje się w określonym zadaniu.
Zatem docierająca od oka informacja, z początku niezbyt precyzyjna („coś
twardego i żółtawego na ciemnym tle”), jest z czasem przekształcana we
wzór bardziej złożony („dziwaczne uzębienie”), aż wreszcie przetwarza się ją
w obraz, który pozostaje w naszej głowie („A to znów jakiś polityk szczerzy
się do kamery w oczekiwaniu na oklaski”).
Jak widać, w tym konkretnym przypadku koncepcja modułowa doskonale
się sprawdza. Wynika to z faktu, że układ nerwowy zastosował tu prostą
zasadę: wszystko ładnie ze sobą zestawić i zespolić, ale pod żadnym pozorem
nie mieszać! W końcu podczas przetwarzania bodźców zmysłowych właśnie
o to chodzi, by procedura była sprawdzona, godna zaufania i powtarzalna.
W trakcie długoletniej pracy nad własnym rozwojem mózg odkrył, wedle
jakich prawideł najlepiej będzie przetwarzać obrazy. Stosownie do nich
wykształciły się w nim więc rozmaite wyspecjalizowane ośrodki.
Tyle tylko że uczeni pragnęliby także zbadać zachodzące w mózgu procesy
o większym stopniu złożoności niż rozpoznawanie obrazów czy mowy (choć
i te wcale nie są proste). Co zrobić choćby z emocjami, odczuciami czy
cechami charakteru, z myśleniem koncepcyjnym, inteligencją
i kreatywnością? Czy i je także można umiejscowić w określonym module?
Odpowiedź brzmi: nie. Wrócimy do tego za chwilę.

Moduł na każdą okazję


Przed każdym neurobiologiem pojawia się jeden podstawowy problem: ma
do czynienia z ukrytym pod grubą pokrywą czaszki oślizłym kawałkiem
tkanki, zwanym mózgiem, w którym zachodzą rozmaite procesy myślowe.
Co może zrobić, żeby dowiedzieć się, co się tam w środku odbywa? Może
wsunąć badanego (zwykle ochotnika) do skanera mózgu i skłonić do
aktywności umysłowej. W tym celu demonstruje mu na przykład zdjęcie
ukochanej osoby, mierząc przy tym przepływ krwi w mózgu. Później trzeba
już tylko uwidocznić zjawisko na barwnym obrazku, by zorientować się,
który rejon mózgu wykazał zwiększoną aktywność, i wszystko jasne – to
musi być ośrodek miłości!
Mogłoby się wydawać, że dzięki tej metodzie da się upiec dwie pieczenie
na jednym ogniu: po pierwsze, dowiedzieć się, gdzie mózg przejawia
zwiększoną aktywność, po drugie, jaką funkcję pełni ten rejon. Wyposażeni
w taką metodę, śmiało możemy przystąpić do identyfikowania zadań
określonych partii mózgu. Tajemnicze dotąd struktury nagle wyjawiają swoje
sekrety: gdy zawodowi pianiści improwizują, aktywizuje się u nich zakręt
potyliczny środkowy z tyłu głowy11; jądro półleżące uruchamia się podczas
podejmowania ryzykownych decyzji finansowych12 (niestety, badania na ten
temat przeprowadzono w 2008 roku, ciut za późno, by zapobiec kryzysowi).
Iluż kryzysów międzyludzkich dałoby się uniknąć, gdyby się z góry
wiedziało, że prawy podspoidłowy zakręt obręczy powinien być mniej
aktywny w początkach miłosnej fascynacji, jeśli z czasem ma się także
ułożyć zwykłe codzienne życie pary13? Ale w sumie i tak najważniejsza jest
aktywność zlokalizowanego z boku głowy przedniego zakrętu kory obręczy,
bo wówczas z większym optymizmem patrzymy w przyszłość14.
Najwyraźniej w mózgu znajduje się odpowiedni fragment na każdą okazję,
uruchamiający się w określonych okolicznościach. Wystarczy dodać tylko
parę mądrze brzmiących naukowych nazw i już mamy „moduł mózgu”.
Super. Szkoda tylko, że to bzdura.

Pokusa kolorowych obrazków

Wszystko to brzmi bardzo interesująco, ale jak już wiemy z rozdziału 1,


badanie skanerem mózgu ma kilka zasadniczych wad: jest niedokładne,
powolne i pośrednie. Żeby w ogóle wygenerować jakiś obraz, trzeba z góry
przyjąć pewne założenia i wykonać mnóstwo obliczeń. Na domiar złego
rezultaty prowokują do wyciągania pochopnych wniosków, ponieważ gotowy
obrazek prezentuje się zawsze bardzo przekonująco: szara masa mózgu
intensywnie rozbłyskuje w kilku miejscach kolorami! Jednak bez względu na
to, jak kusząca byłaby teza o wyspecjalizowanych modułach mózgowych,
trzeba ją uznać za zdecydowanie przedwczesną. Nie można przyjmować, że
jakiś rejon pełni w mózgu określoną funkcję, tylko dlatego, że na ekranie
został wybarwiony na jaskrawy kolor.
Oto przykład: pewnemu obszarowi w mózgu przypisano na podstawie
takich skanów istotną rolę w generowaniu strachu, wstrętu i w ogóle
rozmaitych negatywnych uczuć. To znane nam już z poprzedniego rozdziału
ciało migdałowate (na marginesie zwróćcie uwagę, że niekiedy
neurobiolodzy wykazują się sporą nazewniczą fantazją; nie wszyscy
upraszczają sobie życie jak Brodmann, ograniczając się do nadawania
bezdusznych numerków od 1 do 52).
Z czasem wykazano jednak, że ciało migdałowate uaktywnia się nie tylko
przy okazji emocji negatywnych, ale także wówczas, gdy spodziewamy się
nagrody pieniężnej15, słuchamy dramatycznie brzmiącej muzyki16 a nawet
gdy oglądamy zdjęcia uśmiechniętych ludzi17. Choć na obrazie fMRI widać,
że ciało migdałowate jest w danej chwili lepiej ukrwione, nie oznacza to
jeszcze, że w tym samym czasie uruchamia się w mózgu konkretna funkcja.
Ciało migdałowate może bowiem stanowić „ośrodek strachu”, ale równie
dobrze bywa niekiedy „ośrodkiem oczekiwanej radości”.

Weekendowy kurs neuronauki

Wyposażeni w powyższą wiedzę, możecie sami błyskawicznie


przedzierzgnąć się w neurobiologów i zostać gwiazdą najbliższej imprezy (co
ja sam bardzo lubię robić). Podajcie się więc za specjalistę, poszpanujcie
trochę fachowymi terminami (choćby w tej książce znajdziecie dość
informacji, by skutecznie blefować). A gdyby ktoś przypadkiem zapytał, czy
jesteście w stanie podać jakieś dowody albo na przykład określić, jaki rejon
mózgu jest u niego aktywny właśnie w tej chwili, odpowiedzcie: „Hm, gdy
tak ci się przyglądam… cóż, rzecz jasna przednia część kory zakrętu
obręczy”. Co najlepsze, nie jest to właściwie blef, bo taka odpowiedź
sprawdza się niemal w każdym przypadku. Wspomniany rejon mózgu, jak
sama nazwa wskazuje, leży w przedniej części kory, otaczającej głębiej
położone rejony mózgu, takie jak obręcz. Aktywizuje się on niemal zawsze
wtedy, gdy w grę wchodzą emocje – a kiedy one w grę nie wchodzą? Można
co prawda wykazać, że u amerykańskich demokratów jest on większy niż
u republikanów18, lecz stwierdzono również, że pobudza się, gdy osobom
uzależnionym od gier online pokaże się obrazy z ich ulubionej gry19. Nie
udało mi się ustalić, czy pomiędzy tymi dwoma odkryciami zachodzi jakiś
związek.
Krótko mówiąc, przednia część kory zakrętu obręczy uaktywnia się
zawsze, kiedy pojawiają się jakiekolwiek emocje. Z kolei jeśli wasz
rozmówca z namysłem marszczy czoło, możecie równie autorytatywnie
stwierdzić, że właśnie uaktywniła się jego kora przedczołowa. To kolejny
pewniak, bo praktycznie zawsze, gdy w trakcie czuwania skupiamy się na
czymś, włącza się kora przedczołowa.
Wynika z tego jasno, że badania rezonansem funkcjonalnym dostarczają
bardzo interesujących wskazówek, gdy chcemy z grubsza zorientować się,
jak kształtuje się aktywność mózgu, ale… to właściwie tyle. Określony rejon
mózgu (choćby miał nie wiadomo jak skomplikowaną nazwę) może
uaktywnić się podczas danego zadania, lecz absolutnie nie musi to oznaczać,
że zachodzi związek przyczynowo-skutkowy pomiędzy jego pracą a tylko
tym zadaniem.
Aby uzyskać wiarygodne rezultaty w takich badaniach, trzeba przecież
najpierw odfiltrować szum tła, czyli nieustanną aktywność mózgu, która
występuje tak czy owak. Po ostatecznej obróbce wygląda to więc, jakby
w mózgu uaktywniał się tylko jeden obszar, tymczasem nieprzerwana praca
trwa we wszystkich jego częściach.

Moduł boskości

Naprawdę dziwnie robi się wtedy, gdy złożone procesy zachodzące w mózgu
próbuje się redukować do aktywności nielicznych jego rejonów. Niektórzy
badacze twierdzą na przykład, że w płacie skroniowym odkryli ni mniej, ni
więcej tylko „moduł boskości”20 albo „neuronalne korelaty długotrwałej
intensywnej miłości romantycznej”21 (to tytuł pewnej publikacji naukowej).
Problem z interpretacją wyników fMRI polega na tym, że tak naprawdę
każdy rejon mózgu wchodzi w skład gęstej i doskonale skomunikowanej
sieci. Wyobraźmy sobie, że znajdujecie się w tubie skanera mózgu i patrzycie
na zdjęcie ubóstwianej nad życie osoby. Co będzie się przy tej okazji działo?
Zaczniecie wspominać wspólnie przeżyte wydarzenia? Przyjdzie wam do
głowy jej (jego) głos? Dokładnie obejrzycie fotografię, zanim w ogóle
zorientujecie się, że to zdjęcie ukochanego (ukochanej)? Przyjdzie wam na
myśl wasza ulubiona piosenka? Jakiś zapach? A może wszystko to stanie się
naraz – w każdym przypadku angażując inny rejon mózgu. Cóż więc
przyjdzie nam z tego, że na skanie uwidoczni się aktywny obszar podczas
patrzenia na zdjęcie, czyli obszar, do którego w danym momencie dopływa
więcej krwi? Raczej niewiele, dopóki nie będziemy w stanie rozdzielić
poszczególnych zachodzących w mózgu procesów.
Oczywiście w mózgu pracują wyspecjalizowane moduły, które na przykład
analizują napływające od narządów zmysłów informacje po ich uprzednim
rozłożeniu na czynniki pierwsze. Inne moduły z kolei składają te informacje
z powrotem do kupy, formując w ten sposób całościowy obraz. Istnieją też
w mózgu obszary, które rzeczywiście koncentrują się na przetwarzaniu
konkretnych emocji (np. ciało migdałowate) albo porządkują proces
przyswajania nowych informacji (jak hipokamp). Błędem, którego należy się
jednak za wszelką cenę wystrzegać, jest rozpatrywanie poszczególnych
rejonów mózgu oddzielnie, postrzeganie ich jako niemal odrębnych
narządów w obrębie mózgowej struktury. Zasada ta dotyczy w szczególności
takich abstrakcyjnych konstruktów jak charakter czy osobowość człowieka.
Nie są one umiejscowione w żadnym konkretnym rejonie mózgu, a stanowią
raczej sposób, w jaki funkcjonuje cały mózg.
Nie dajcie się więc zwieść pozornie jednoznacznym skanom,
prezentującym mózg „optymistyczny”, „radosny”, „zakochany” czy „głęboko
religijny”. W poprzednim rozdziale znajdziecie pod dostatkiem argumentów
pozwalających krytycznie odnieść się do wyników tej metody badawczej.
Teraz wiecie też, dlaczego nie ma sensu poszukiwać w mózgu „modułu”,
w którym kryje się źródło miłości czy nienawiści.
Wniosek: wyspecjalizowane moduły w mózgu istnieją – ale wyłącznie na
potrzeby najprostszych operacji obliczeniowych, a ponadto nigdy nie pracują
oddzielnie, lecz zawsze jako część ogólnej sieci. Im bardziej
skomplikowanym zjawiskiem mózg się zajmuje, tym więcej elementów sieci
podlega pobudzeniu. Jak z tego wynika, mózg to znacznie więcej niż
najnowocześniejszy smartfon wyposażony w stosowne aplikacje na każdą
okazję.
MIT NUMER 4

Na lewo logika, na prawo sztuka.


Półkule mózgu myślą inaczej

Ostatnio trafiłem w Internecie na rewelacyjną stronę: Right-brained? Left-


brained? Take the brain test! Super, pomyślałem, nareszcie się dowiem,
którą półkulę mózgu wykorzystuję w większym stopniu. To przecież
naprawdę istotna informacja i sporo o mnie mówi. Pilnie posortowałem
szereg figur oraz odpowiedziałem na parę pytań, na przykład o to, w jaki
sposób składam dłonie. Na koniec otrzymałem wynik: w 62 procentach
jestem prawopółkulowcem.
I co teraz?
Mit na temat prawo- i lewopółkulowości zakorzenił się w powszechnej
świadomości wyjątkowo mocno. A to dlatego, że tak wiele wyjaśnia za
jednym zamachem. Dlaczego matematycy myślą w sposób logiczny
i analityczny (lepiej działa u nich lewa półkula mózgu), dlaczego muzycy
i malarze są tak kreatywni (korzystają przede wszystkim z prawej półkuli)
albo dlaczego niektórzy ludzie tak dobrze potrafią wczuć się w sytuację
innych (bo lepiej funkcjonuje u nich „empatyczna prawa półkula”)?
I jeszcze jedno: na sprzedawaniu takich informacji można naprawdę nieźle
zarobić. Nic dziwnego, że jesteśmy dosłownie zalewani poradnikami
i samouczkami wszelkiej maści, względnie stosownymi aplikacjami na
smartfon. Niektórzy z nas (jak naiwny autor niniejszej książki) dają się nawet
na to nabrać i rozwiązują testy w Internecie, pomagające ustalić, z której
półkuli mózgu korzystają w większym stopniu. Wyspecjalizowani „trenerzy”
przyciągają tłumy chętnych na warsztaty na temat lepszego wykorzystywania
lewej lub prawej półkuli albo odpowiedniego zharmonizowania pracy ich
obu, tak by w efekcie lepiej spożytkować cały potencjał mózgu.
Można wręcz odnieść wrażenie, jakby w każdej głowie znajdowały się
dwa odrębne mózgi: jeden logiczny, analityczny, skupiony na szczegółach
i drugi kreatywny, intuicyjny, ogarniający całość. Rzecz tylko w tym, żeby
nauczyć się świadomie korzystać z możliwości obu półkul. Albo chociaż
zrobić zabawny teścik i „naukowo” ustalić, czy jest się lewo- czy
prawopółkulowcem.

Dwa mózgi w jednej głowie

Jeśli ktoś właśnie doszedł do wniosku, że całe to gadanie o półkulach jest


kompletną bzdurą – mam dla niego niespodziankę! Naprawdę mamy pod
czaszką dwie różne półkule mózgu i, choć brzmi to dziwnie, rzeczywiście
pełnią one odmienne funkcje, przynajmniej w pewnej mierze.
Na początek trzeba zaznaczyć, że niemal wszystko w naszym układzie
nerwowym pojawia się parami (dla szczególnie dociekliwych czytelników
dodaję, że z wyjątkiem szyszynki, uczestniczącej w regulowaniu rytmu snu
i czuwania, która występuje tylko w jednym egzemplarzu). Również mózg
wyraźnie podzielony jest na dwie półkule przez głęboką podłużną bruzdę.
Błędne byłoby też założenie, że obie części są idealnie symetryczne.
W rzeczywistości półkule dopasowują się do siebie w trakcie kolejnych lat
wspólnego życia z sobą i w niektórych miejscach zmieniają kształt. Na
przykład ośrodek mowy znajduje się bardzo często w lewej półkuli (u osób
praworęcznych aż w 96 procentach przypadków), dlatego odpowiedni rejon
mózgu jest po tej stronie nieco większy niż po drugiej.
Co ciekawe, każda półkula zawiaduje naprzeciwległą stroną ciała.
A zatem, za ruchy lewej ręki odpowiada prawa półkula. To samo dotyczy
wrażeń zmysłowych: to lewa półkula rozpoznaje wrażenia dotykowe
napływające z prawej ręki. Widać tu jedną z podstawowych zasad
uporządkowania układu nerwowego: włókna ruchowe i czuciowe krzyżują
się w mózgu w pewnym punkcie. Na pewno nie dzieje się to wszystko bez
powodu – ale jaki to powód, tego nikt, łącznie z neurobiologami, na razie nie
wie.
Płynie z tego ogólny wniosek, że także półkule mózgowe nie pracują
oddzielnie, każda na własny rachunek. Zanim zaczniecie szukać
w poradnikach informacji, jak „lepiej połączyć półkule mózgowe”, mogę was
z czystym sumieniem uspokoić: one już są połączone, i to całkiem nieźle, za
sprawą tzw. spoidła wielkiego, zwanego też ciałem modzelowatym. Jest to
gruby pęk włókien pośrodku mózgu, swego rodzaju sztywne łącze, w którym
przebiegają nerwy łączące obie półkule. Jego zawartość jest upakowana
naprawdę ciasno; w nie większym od kciuka spoidle mieści się ćwierć
miliarda włókien nerwowych. To dość, by zapewnić obu półkulom doskonałą
wzajemną komunikację.

Dwie świadomości w jednym mózgu


Co się zatem stanie, jeśli przetniemy spoidło i w ten sposób oddzielimy od
siebie obie półkule? Można by się spodziewać, że nastąpi całkowita
katastrofa, istne pomieszanie z poplątaniem. Ostatecznie spoidło służy nie
tylko do tego, by „sklejać” mózg, ale jest absolutnie niezbędne dla
zachodzącej w nim komunikacji.
Zdarzają się jednak sytuacje, w których przecięcie spoidła stanowi
mniejsze zło – na przykład u pacjentów z uporczywą padaczką, u których
niektóre rejony mózgu wpadają w nadaktywność, rozchodzącą się na cały
mózg. Aby zapobiec temu, już w latach sześćdziesiątych Roger Sperry
i Michael Gazzaniga dokonywali u pacjentów przecięcia spoidła wielkiego.
I jaki był skutek? Otóż nie dochodziło do radykalnego zmniejszenia
możliwości mózgu, za to następowało wyraźne wyciszenie objawów
choroby.
Jednak naprawdę ciekawie zrobiło się, gdy zbadano, czy takie „rozdzielone
mózgi” funkcjonują w inny sposób. Dzięki przemyślnie dobranym
eksperymentom Sperry i Gazzaniga wykazali, że lewa i prawa półkula mózgu
pełnią po części odmienne funkcje.
Gdy badanym pacjentom prezentowano określony przedmiot (np. gumową
kaczuszkę) w prawym polu widzenia, za jego rozpoznanie odpowiadała lewa
połowa mózgu. Ponieważ u większości ludzi właśnie tam mieszczą się ważne
ośrodki mowy, nic dziwnego, że pacjent potrafił prawidłowo nazwać
prezentowany przedmiot („To gumowa kaczuszka”). Inaczej działo się, gdy
kaczka pojawiała się w lewym polu widzenia, a więc informacja ta była
w mózgu przetwarzana w prawej półkuli. Nie ma tam ośrodków mowy, więc
pacjenci nie potrafili nazwać przedmiotu, niemniej byli w stanie wyciągnąć
do niego lewą rękę, którą – jak już wiemy – zawiaduje prawa półkula.
Już samo to brzmi wystarczająco dziwnie. Prawdziwą grozę wzbudziły
jednak kolejne eksperymenty, których wyniki pokazały, że półkule mózgu
u zoperowanych pacjentów mogą znaleźć się ze sobą w bezpośrednim
konflikcie. Pewien pacjent próbował na przykład zakładać spodnie, używając
do tego prawej ręki, a jego lewa ręka usiłowała mu w tym przeszkodzić. Albo
próbował szarpnąć lewą ręką własną żonę, ale prawa ręka mu na to nie
pozwalała22.
Powyższe badania po raz pierwszy wykazały, że istotnie w każdej z półkul
informacje są przetwarzane w inny sposób. Było to fascynujące odkrycie dla
neurobiolologów – a także łakomy kąsek dla masowej wyobraźni (odrębne
półkule mózgu; ludzie rejestrują obecność przedmiotów, ale nie potrafią ich
nazwać; podświadome sprzeczne działania), jakby w naszych głowach było
kilka różnych osobowości. To idealna pożywka dla pseudonaukowych
interpretacji! Dlaczegóżby nie upchnąć różnych złożonych cech
psychicznych w odrębnych półkulach? Skoro prawa strona faktycznie lepiej
rozpoznaje całościowe wzory i odpowiada za zdolność rysowania, czemu nie
uznać, że za naszą kreatywność w pełni odpowiada właśnie prawa półkula?
W konsekwencji wyłania się taka oto koncepcja: z jednej strony mamy
dominującą, logiczną i posługującą się mową lewą półkulę, a z drugiej
zahukaną bidulkę – cóż z tego, że empatyczną i zdolną do dokonywania
syntez na wielką skalę, skoro bez możliwości przebicia?

Walczyk kreatywny

Po wykonaniu pewnych badań poświęconych tej koncepcji poważna


neurobiologia dała sobie jednak spokój z takimi banialukami. I choć
nowoczesne obrazowanie mózgu metodą fMRI ma swoje minusy (myślę, że
dość już o tym napisałem w poprzednich rozdziałach), w tej kwestii jest ono
naprawdę przydatne.
Idealnie sprawdza się mianowicie w przypadku niezwykle popularnego
mitu, jakoby prawa półkula miała być kreatywna, lewa zaś logiczna
i analityczna. To kompletna bzdura! Dajcie więc sobie spokój z poradnikami,
w których pojawia się taka teza, a jednocześnie obietnica, że dzięki jakimś
sprytnym sztuczkom będziecie mogli „pobudzić” prawą półkulę i w efekcie
myśleć bardziej twórczo i dokonywać olśniewających syntez.
Neurobiolodzy badają naprawdę wszystko. Zajęli się na przykład tym, jak
wygląda aktywność mózgu, gdy ludzie, wykazując się kreatywnością,
wyobrażają sobie, że płyną w tańcu po parkiecie. Tu duża niespodzianka:
okazało się, że wielką różnicę sprawia, czy wyobrażamy sobie klasycznego
walca czy raczej swobodną improwizację. Na podstawie aktywności mózgu
badanych można było stwierdzić dwie rzeczy. Po pierwsze, walczyk
aktywizuje mniejszą powierzchnię mózgu niż taniec improwizowany (słówko
do miłośników balów karnawałowych w Operze Wiedeńskiej: nie martwcie
się, wasz mózg nie jest może w trakcie tańca szczególnie kreatywny, ale za to
tym bardziej skupiony na precyzyjnym wykonaniu określonej sekwencji
ruchów – i zestresowany). Po drugie, poświęconych tej koncepcji taniec
w stylu wolnym, czyli ruchowa improwizacja, w równym stopniu angażuje
obie półkule23.
To samo można też często stwierdzić podczas przeprowadzanych
w laboratorium testów kreatywności – nie tylko przy okazji tańców, ale także
wówczas, gdy prosi się badanych na przykład o znalezienie jak największej
liczby zastosowań dla cegły. W zależności od zadania w mózgu pobudzane
są najrozmaitsze rejony: raz po prawej, raz po lewej stronie, czasem te,
którym podlegają uczucia (jak ciało migdałowate), innym razem te, które
sterują ruchem (jak móżdżek). Wszystko zależy od tego, na czym konkretnie
polega zadanie; w końcu improwizacja taneczna znacznie różni się od testu
językowego, choć w obu przypadkach potrzebna jest kreatywność. Wydaje
się jednak, że nie istnieje jakiś konkretny obszar w mózgu, który
w szczególnym stopniu miałby odpowiadać za kreatywność jako taką24. Ani
w prawej, ani w lewej półkuli. Właściwie zawsze aktywna jest tylko
wspominana już kora przedczołowa (znajdująca się z przodu, tuż za czołem),
co zresztą nie dziwi, bo odpowiada ona za świadomą koncentrację uwagi,
a gdy chcemy twórczo rozwiązać jakieś zadanie, musimy się przecież skupić.
Widać tu jasno, skąd wzięło się całe nieporozumienie z lewo-
i prawopółkulowością: ludzie mają skłonność do przesady i łączenia tego, co
niekoniecznie się ze sobą wiąże. Samo to, że za określone funkcje w mózgu
odpowiada w przeważającej mierze jedna jego strona, nie oznacza jeszcze, że
można w ten sposób wyjaśniać tak złożone zjawiska jak cechy psychiczne.
Owszem, ośrodki mowy znajdują się najczęściej po lewej stronie, lecz to
w prawej półkuli nadajemy słowom odpowiednie brzmienie i intonację.
Zatem obie półkule zawsze pracują wspólnie i dopiero razem tworzą
sprawnie funkcjonującą całość.
Dotyczy to również myślenia matematycznego, które tak chętnie
przypisuje się lewej półkuli. I w tym przypadku okazuje się, że nie chodzi
o to, by po prostu „odpalić” jakiś konkretny rejon mózgu i w efekcie
przełączyć się na „tryb matematyczny”. Za pomocą rezonansu
funkcjonalnego można wykazać, że zadania matematyczne są tym sprawniej
rozwiązywane, im intensywniej zachodzi komunikacja między półkulami.
Wzmożona aktywność jednej połowy mózgu (choćby i lewej, rzekomo
logiczno-matematycznej) nie wystarczy jeszcze do logicznych wzlotów25.
Jak widać, nici ze zgrabnego podziału typu „na prawo sztuka, na lewo
matematyka”.

Półkule mózgu – stare, dobre małżeństwo

Wierutną bzdurą jest również teoria, jakoby poszczególni ludzie używali do


myślenia przede wszystkim lewej bądź prawej półkuli, a więc zaliczali się do
„lewo-” lub „prawopółkulowców”. U tysięcy badanych sprawdzano,
w którym miejscu w mózgu wykonuje się określone zadania, i okazało się, że
istnieją tylko nieliczne sieci połączeń, które są rzeczywiście szczególnie
silnie wykształcone po jednej stronie (tak jak ośrodek Broki odpowiedzialny
za generowanie mowy). Zdecydowaną większość zadań rozwiązuje się
w rozproszonych, wzajemnie oddalonych partiach mózgu w obu półkulach26.
Nie ma więc lewo- i prawopółkulowców, podobnie jak nie ma przodo-
i tyłomózgowców. Ważne jest bowiem nie tylko to, by pobudzać dwa
odrębne „moduły” w mózgu, ale też by wymieniać informacje pomiędzy
rozmaitymi jego obszarami – właśnie poprzez wspomniane spoidło wielkie,
które łączy obie półkule.
Niekiedy można się spotkać z metaforą „starego, dobrego małżeństwa”,
mającą wyjaśnić, w jaki sposób półkule mózgu dogadują się ze sobą.
Z biegiem lat miałyby się one, niczym szczęśliwi małżonkowie, podzielić
zadaniami. Przy podejmowaniu decyzji jedno byłoby bardziej impulsywne
i bezpośrednie, a drugie, dajmy na to, analityczne i logiczne. W ten sposób
partnerzy by się uzupełniali i tworzyli harmonijne stadło. Finalny rezultat
powstawałby zatem z połączenia obu punktów widzenia i tak długo dopóki
nie szwankowałaby wewnętrzna komunikacja, mielibyśmy do czynienia ze
zgranym zespołem.
Jednak mózg nie działa w taki sposób. Co prawda każda półkula ma swoją
domenę pod względem przetwarzania informacji (językowych bądź
przestrzennych), ale dopóki nie przetnie się spoidła, stanowią one zawsze
części tej samej sieci. Informacje docierają do mózgu jednocześnie, następnie
są oddzielnie przetwarzane, później zaś są zawsze ponownie ze sobą
zestawiane. Na koniec dochodzi do symultanicznego łącznego pobudzenia (to
właśnie nazywamy „myślą”) i wygenerowania określonego działania. Nie jest
więc tak jak w przypadku małżeństwa, gdzie każde z partnerów najpierw
zastanawia się nad czymś samodzielnie, a następnie przedstawia swoje racje
(albo ciska w furii talerzami, po czym jakoś dochodzi do porozumienia
z drugą stroną) i zawsze zachowuje w jakiejś mierze odrębne zdanie.
W mózgu wszystko to odbywa się jednocześnie, w trakcie nieustającej
wymiany sygnałów pomiędzy częściami tego samego narządu.

Po co nam to wszystko?

W tym miejscu można by zadać całkiem zasadne pytanie: Czemu właściwie


to wszystko służy? Dlaczego mózg podzielony jest na dwie półkule,
połączone zaledwie wąskim paskiem włókien nerwowych? Ostatecznie nawet
250 milionów nerwów do wymiany informacji to nie tak wiele, skoro łączną
liczbę połączeń nerwowych szacuje się na wiele biliardów. Gdyby zechcieć
rozbudować wymianę pomiędzy półkulami do tego stopnia, by umożliwić im
stuprocentową komunikację, samo spoidło rozrosłoby się niemal do
rozmiarów „trzeciej półkuli”.
Tyle tylko że gdy rozpatrujemy sprawę z ewolucyjnego punktu widzenia,
nie ma sensu stawiać pytań „dlaczego?” i „po co?”. Spoidło wielkie „przebiło
się”, bo nie było akurat lepszego rozwiązania. Kropka. Niemniej to dobrze,
że mózg jest zbudowany równie symetrycznie jak reszta naszego ciała Z całą
pewnością żadnemu z czytelników nie umknął uwadze fakt, że każdy z nas
ma lewą i prawą stronę siebie. Prawdopodobnie sterowanie każdą z tych
stron za pomocą jednej, wybranej półkuli przebiega po prostu sprawniej.
Precyzyjna motoryka, obróbka ulotnych wrażeń zmysłowych – wszystko to
wymaga od mózgu intensywnych obliczeń. Dobrze więc, że można
wykonywać tę pracę dwuwątkowo, choć oczywiście w ścisłej współpracy.
Pozwala to wydatnie przyspieszyć tempo obliczeń, odpada bowiem mozolna
wymiana informacji w całym mózgu. A jeśli coś mimo wszystko trzeba
uzgodnić z drugą połową ciała, w zupełności wystarczy tych kilkaset
milionów połączeń z drugą półkulą.
Sieci neuronalne pracują tym wydajniej, im ciaśniej są „upchnięte”. Być
może właśnie dlatego ośrodki mowy (obszary Broki i Wernickego)
usytuowane są przede wszystkim w jednej półkuli. Niekoniecznie zresztą
w lewej, u 30 procent osób leworęcznych ośrodki te nie znajdują się po lewej
stronie. Ale zawsze leżą tuż obok siebie, na niewielkiej przestrzeni. W ten
sposób zasoby mózgu są skoncentrowane i nie marnuje się czasu na
niepotrzebną komunikację z bardziej oddalonymi rejonami.
Zatem z biegiem czasu wykształciły się w mózgu niewielkie sieci
połączeń, obszary, które szczególnie dobrze wykonują określone zadania.
Z założenia dotyczy to jednak tylko elementarnych operacji obliczeniowych,
natomiast bardziej skomplikowane zjawiska, takie jak myśli, powstają
dopiero w wyniku pracy zespołowej. A ponieważ mózg składa się z dwóch
półkul, również i te wyspecjalizowane obszary rozłożone są po obu stronach.
Absolutnie nie oznacza to jednak, jakoby jedna z półkul miała być „lepsza”
albo wręcz dominowała nad drugą. Sam fakt, że język mówiony najczęściej,
choć nie zawsze, generowany jest po lewej stronie, nie znaczy jeszcze, że
w procesie mowy prawa półkula nie ma zupełnie nic do powiedzenia. Nie jest
też tak, że obie półkule nieustannie toczą ze sobą walkę o prymat.
Przeciwnie, żyją w pełnej zgodzie i fantastycznie się dogadują.
Dlatego zapomnijcie o bredniach na temat lewo- i prawopółkulowców.
Zakonotujcie sobie za to w głowie (po prawej lub lewej stronie, wszystko
jedno), że istotnie w mózgu istnieją elementarne sieci przetwarzania danych
określonego typu, zwykle zlokalizowane po jednej ze stron, ale nasz mózg
stanowi zawsze jedną całość – a jego półkule to nie dwie strony medalu, to
po prostu jeden i ten sam medal.
MIT NUMER 5

Im większy mózg, tym lepiej

Wyobraźcie sobie, że macie wybór: możecie dostać wielki, masywny mózg


o nadzwyczaj wysokiej liczbie neuronów i wadze, dajmy na to, 2,5 kilograma
– albo mniejszą, lżejszą, zgrabną wersję kilogramową, ze zdecydowanie
skromniejszą liczbą komórek nerwowych. Na co się zdecydujecie? Jeśli
zależy wam na ponadprzeciętnych możliwościach intelektualnych, wasz
wybór padnie zapewne na pierwszy wariant. Wiadomo przecież, że duży
może więcej.
Wielkie mózgi cieszą się odpowiednio wielką sławą. Żeby w czyjejś
głowie mogły rodzić się wiekopomne idee, musi być tam przecież trochę
miejsca. Krótko mówiąc, im większy mózg, tym większe będą jego
możliwości. Ostatecznie silnik V16 z pojemnością skokową 8000 cm³ ma
większą moc niż trzycylindrowy o pojemności 1000 cm³. Jakże łatwo może
w tej sytuacji wypsnąć się zdanie: „Cóż, mężczyźni lepiej liczą i nic
dziwnego, mają przecież większe mózgi!”. (Na temat mitu, jakoby męskie
i kobiece mózgi zasadniczo się różniły, już wkrótce powiemy nieco więcej.
Obiecuję kilka niespodzianek!)
Potrzeba, by wszystko mierzyć i porównywać, jest głęboko ludzka – i dla
mózgu nie czynimy tu żadnego wyjątku. Jednak czy rzeczywiście na
podstawie wielkości mózgu można wnioskować, jak przedstawiają się jego
zdolności obliczeniowe? A może trzeba też wziąć pod uwagę inne kwestie,
na przykład jak duże są jego poszczególne partie (a nie cały mózg)? Albo jak
gęsta jest sieć tworzących go neuronów?

Ryjówka – bystrzak nad bystrzaki?

Tymczasem zrobimy sobie chwilę przerwy i zajmiemy się biologią (chociaż


właściwie zajmujemy się nią przecież cały czas…). Przyjrzymy się
mianowicie, jak przedstawia się kwestia rozmiarów mózgu w królestwie
zwierząt. Czy – przynajmniej w ogólności – słuszne jest założenie, że duże
mózgi wiążą się z wyższą inteligencją?
Ludzki mózg waży przeciętnie 1245 gramów u kobiet i 1375 gramów
u mężczyzn. To całkiem nieźle, biorąc pod uwagę, że człowiek nie jest
bynajmniej olbrzymem, waży średnio około 70 kilogramów. Naturalnie
ludzki mózg nie jest największym w świecie ożywionym. Pod tym względem
niekwestionowanym zwycięzcą jest – uwaga, uwaga! – kaszalot
spermacetowy, wdzięczny kanciastogłowy zwierzaczek z mózgiem ważącym
około 7,8 kilograma. Mózg nie tylko zapewnia inteligencję i kreatywność, ale
odwala też zwykłą, codzienną robotę, na przykład steruje ruchami albo
przetwarza wrażenia zmysłowe. A że u kaszalota do sterowania jest całkiem
sporo, nic dziwnego, że i jego mózg zyskał pokaźną wagę. Jednak nawet jeśli
kaszaloty, czy ogólniej walenie, uchodzą za inteligentne (co, swoją drogą,
wcale nie tak łatwo zmierzyć u stworzeń żyjących w otwartym oceanie
i ważących 50 ton), to ich mózgownice są mniej rozwinięte niż u ludzi. Jak
widać, absolutna wielkość bynajmniej nie jest decydująca.
Trzeba uwzględnić także ogólną masę ciała. Warto byłoby zaznaczyć to
już na wstępie do poprzedniego akapitu, bo męskie mózgi nie są
automatycznie inteligentniejsze od kobiecych tylko dlatego, że przeciętnie są
trochę większe. Przecież ciało mężczyzny też jest zwykle masywniejsze od
ciała kobiety – a im więcej ciała, tym więcej potrzeba mózgu. Jak zatem
przedstawiałaby się sytuacja, gdybyśmy przeanalizowali wagę mózgu
w stosunku do masy ciała?
Otóż w wyścigu o tytuł mistrza intelektu kaszalot zdecydowanie odpada.
Ale i człowiek, u którego masa mózgu równa jest 2 procentom łącznej masy
ciała, też wcale nie jest liderem. Na samym szczycie listy znajduje się
bowiem… ryjówka.
Kto by przypuszczał? Jej mózg stanowi aż 4 procent masy ciała! Mimo to
będę się upierał, że pod względem inteligencji przewyższamy ryjówki. Na
marginesie warto dodać, iż zgodnie z aktualną hipotezą naukową w tej
kwestii niewielkie ssaki (na przykład nietoperze) mają stosunkowo duże
mózgi dlatego, że w procesie ewolucji ich ciało kurczyło się szybciej niż
mózg27. Mielibyśmy tu zatem do czynienia nie tyle z przyspieszonym
rozwojem mózgu, ile raczej ze spowolnionym karłowaceniem. Dajmy
ryjówkom jeszcze parę milionów lat, a ich mózgi staną się równie niewielkie
co ich intelekt.
Wielkość absolutna – nie. Wielkość względna – nie. Wygląda na to, że nic
nie tłumaczy w zadowalający sposób, czemu jako gatunek jesteśmy tak
inteligentni. Dla naukowców jest to sytuacja trudna do przyjęcia. Co najlepiej
zrobić, gdy kolejne pomiary nie dają pożądanych rezultatów? Zmieniać
kryteria, aż w końcu coś zacznie się zgadzać. Dlatego wymyślono parametr
nazwany uroczo współczynnikiem encefalizacji. Każe on, tak jak poprzednio,
analizować masę mózgu na tle łącznej masy ciała – ale tylko u zwierząt
o porównywalnej wielkości. Całkiem sprytne. W ten sposób bierze się pod
uwagę nie tylko to, że w toku ewolucji wielkość mózgu rośnie wraz ze
wzrostem rozmiarów, ale i to, że proces ten niekoniecznie postępuje
w jednakowym tempie. Przykład: szympans jest podobnej wielkości co
człowiek, jednak jego mózg jest 3,5 razy mniejszy. Wniosek: jesteśmy
inteligentniejsi od małp.
To bardzo miło, tylko co właściwie z tego wynika? Czy w tej sytuacji
można uznać, że wielkość mózgu jednak mówi nam coś na temat
inteligencji? I co dałoby nam wzajemne porównanie różnych ludzkich
mózgów?

Mózg Einsteina

U niektórych ludzi mózgi odznaczają się doprawdy imponującą masą. Taki


Jonathan Swift, autor Podróży Guliwera, dźwigał pod czaszką blisko dwa
kilogramy masy mózgowej. Tymczasem mózg Alberta Einsteina ważył
zaledwie 1250 gramów (o dobre 100 gramów mniej niż przeciętna).
Najwyraźniej na podstawie samej masy trudno wnioskować o sprawności
intelektualnej.
Oczywiście analiza wyjątkowych przypadków w medycynie nie zawsze
posuwa nas do przodu. Mózg Einsteina jest tu wyśmienitym przykładem:
z braku nowoczesnych metod badań obrazowych całe zastępy uczonych
usiłowały już wiele dziesięcioleci temu na różne sposoby mierzyć mózg
Einsteina, opisywać jego strukturę i liczyć neurony. Zgodnie z ich
ustaleniami półkule mózgu miały się świetnie ze sobą komunikować,
ponieważ spoidło wielkie było nadzwyczaj rozwinięte; większą powierzchnię
miała też zajmować kora przedczołowa (obszar w okolicach czoła, który jest
współodpowiedzialny za skupienie i koncentrację)28. W ten sposób można
dowieść praktycznie każdej tezy, bo skoro przyjęliśmy założenie, że „duże
jest lepsze”, logicznym wnioskiem będzie, że wszystko, co ma większe
rozmiary, będzie też sprawniej działać. Z sensowną nauką ma to niewiele
wspólnego, łatwo może jednak dać podstawy do rozwoju kolejnej
neurobzdury.
Podstawowy problem przedstawia się następująco: badamy jeden mózg
jednego (niewątpliwego) geniusza. Nie dysponujemy odpowiednio dużą
grupą porównawczą (nie mamy 20 kolejnych Einsteinów i ich mózgów),
dzięki której można by statystycznie potwierdzić wyniki. Może być tak, że
wszystko, co na trafiamy, to tylko indywidualne zmiany w mózgu
niemłodego już mężczyzny, które nie mają absolutnie nic wspólnego z jego
geniuszem. A w ogóle próba wyczytania czegoś z fotografii
przedstawiających mózg marynujący się w formalinie przez długie
dziesięciolecia, w sześćdziesiąt lat po śmierci Einsteina – to może i dobry
pomysł na chwytliwy nagłówek, ale prawdziwą nauką to nie jest.
Zostawmy więc na chwilę na boku szczególne, indywidualne przypadki.
Choć można na ich podstawie pokazać, że zależność pomiędzy inteligencją
a wielkością mózgu nie jest oczywista, gwoli ścisłości muszę dodać, że
statystycznie da się wykazać pewne związki pomiędzy tymi dwoma
czynnikami. Ogólna tendencja istotnie jest taka, że inteligencja rośnie wraz
ze zwiększaniem się łącznej wielkości mózgu29. W szczególności dotyczy to
rozrostu określonych obszarów, co do których przypuszcza się, że mają
związek z koncentracją uwagi, takich jak wspomniana już kora
przedczołowa30.
Można więc uznać, że istnieje pewien statystyczny związek, wskazujący
na to, iż nieco bardziej rozrośnięte obszary mózgu funkcjonują lepiej,
niejasna jednak jest przyczyna tej zależności. Co było pierwsze: nieco
większy twór mózgowy, który pozwolił inteligentniej rozwiązać dane zadanie
– czy może inteligentnie rozwiązane zadanie stanowiło bodziec stymulujący
rozwój (a w efekcie również rozrost) mózgu?

Granica miednicy

Być może macie właśnie pod ręką taki czy inny supernowoczesny smartfon.
Te ustrojstwa potrafią dosłownie wszystko: dzwonią, wysyłają mejle, surfują
w Internecie, wydają śmieszne odgłosy przypominające puszczanie bąków
i robią wiele innych pożytecznych rzeczy. Smartfon jest bardzo niewielki,
a mimo to zdecydowanie szybszy i sprawniejszy niż wielkie komputery
sprzed lat; superkomputery NASA, za pomocą których kontrolowano
przebieg misji Apollo, miały prędkość obliczeniową zbliżoną do 1 MHz,
czyli tysiąc razy mniej niż dzisiejszy telefon komórkowy.
Jak widać, istnieje przynajmniej kilka sposobów zwiększenia mocy
obliczeniowej. Można po prostu sukcesywnie powiększać sprzęt – albo
spowodować wydajniejszą pracę systemu za pomocą nowej technologii. Tyle
tylko że „nowe technologie” w ewolucji gatunku pojawiają się znacznie
wolniej niż w przypadku kolejnych generacji iPhonów. Z reguły zajmuje to
dobrych kilka tysięcy lat. Mimo to w pewnym momencie konieczne stało się
„zoptymalizowanie” wewnętrznej struktury mózgu, istnieje bowiem
naturalna górna granica rozmiarów ludzkiego mózgu. Wyznacza ją szerokość
kobiecej miednicy.
Na pewnym etapie rozwoju wszystkie mózgi muszą przecież przecisnąć się
przez kanał rodny matki. By zatem zwiększyć wielkość mózgu, a tym samym
jego moc obliczeniową, trzeba było zdecydować się na jedną z dwóch
możliwości: albo wydatnie poszerzyć kobiecą miednicę (dajmy na to, do
średnicy 2 metrów) – albo obejść ten problem i sprytniej ustrukturyzować
mózg w jego dotychczasowym rozmiarze.
Na szczęście, zwłaszcza dla pań, wygrało to drugie rozwiązanie. Właśnie
dlatego nasz mózg jest tak dziwacznie pofałdowany i pobrużdżony.
Decydującym czynnikiem w jego pracy jest bowiem nie sama masa mózgu,
ale sposób, w jaki owa masa się rozkłada. Komórki nerwowe potrzebują
dostępu do substancji odżywczych, a zatem do naczyń krwionośnych, dlatego
muszą znajdować się na powierzchni. Natomiast włókna nerwowe można
było „zesłać” w głąb dalszych warstw mózgowych, ponieważ nie są one
w takim stopniu zależne od bieżących dostaw pokarmu.
Z pewnością znacie ten problem, jeśli zdarzyło wam się kiedyś znaleźć na
zatłoczonym festynie. W pewnym momencie nabieracie ochoty na ociekającą
tłuszczem kiełbaskę z rusztu i postanawiacie za wszelką cenę przecisnąć się
przez tłum do najbliższego stoiska. Niestety, komórki nerwowe nie mogą tak
łatwo zmienić miejsca pobytu, dlatego też wszystkie leżą na powierzchni
tkanki mózgowej, dzięki czemu mają natychmiastowy dostęp do
zapewnianych przez krew dostaw cukru. To trochę tak, jakby na festynie
wszystkie budy z kiełbaskami stały rzędem po jednej stronie, a po drugiej
stronie tuż przed nimi stał rząd ludzi.
Opisując to naukowo, chodzi o zwiększenie powierzchni. A to udaje się
najlepiej, gdy tkanka mózgowa pomarszczy się, pofałduje. Dlatego właśnie
mózg pełen jest głębokich bruzd (określanych łacińskim terminem sulci)
i zakrętów (tu z kolei stosuje się greckie słowo gyri, które łatwo zapamiętać,
bo znany wszystkim gyros to właśnie mięso pieczone na kręcącym się
rożnie). Dzięki temu trikowi mózg może zwiększyć swoją powierzchnię do
2500 cm2, mimo że sam jest wielkości zaledwie orzecha kokosowego
(o powierzchni około 500 cm2).
Łatwo się już domyślić, że im większa powierzchnia, tym więcej komórek
nerwowych można na niej upchnąć, a naturalnie w toku ewolucji pojawiło się
dążenie do tego, by lokować w mózgu jak najwięcej neuronów. To logiczne:
więcej komórek może więcej policzyć. Nie wolno też jednak przesadzić z ich
wielością, wtedy bowiem prędzej czy później zderzymy się z kolejnym
problemem.

Mózgowe autostrady

Gdy byłem ostatnio w Los Angeles, uderzyła mnie jedna rzecz: cała
aglomeracja ma mniej więcej taką wielkość jak Badenia-Wirtembergia – i nie
ma tam sensownie zorganizowanej kolei miejskiej. Przedostanie się z jednego
krańca miasta na drugi może zająć cały dzień, a korków jest tyle, że nawet
siedząc w wypasionym amerykańskim pick-upie, można się porządnie
wkurzyć.
Jasno widać tu problem, z którym zmaga się również mózg, gdy staje się
zbyt duży: na wymianę informacji pomiędzy znacznie oddalonymi rejonami
marnuje się wiele czasu i energii. Tymczasem szybkość i gęstość sieci
połączeń jest sprawą zasadniczą dla właściwego funkcjonowania wysoko
rozwiniętego mózgu.
Właśnie z tego powodu mózg wykształcił sobie kilka wyspecjalizowanych
modułów do szybkiego przeprowadzania obliczeń dotyczących konkretnych
spraw. W poprzednim rozdziale się była już mowa o tym, że niekiedy bardzo
praktycznie jest umieścić określone „ośrodki obliczeniowe” w jednej półkuli,
co ogranicza czasochłonne przeliczanie wszystkiego w całym mózgu
(ponadto przesyłanie informacji z jednej półkuli do drugiej kosztuje sporo
energii). Konieczne jest więc zachowanie równowagi pomiędzy tendencją do
rozrastania się mózgu a skłonnością do tworzenia zwartej, „kompaktowej”
formy. Wielki mózg z ogromną liczbą neuronów to wspaniała sprawa, ale
tylko pod warunkiem, że neurony te są sprawnie ze sobą połączone. Z kolei
o dobre połączenia łatwiej, gdy mózg jest bardziej zwarty, dlatego też obie te
tendencje (wielki mózg z mnóstwem komórek nerwowych oraz mniejszy,
bardziej zwarty, z gęstą siatką połączeń) nieustannie ścierają się ze sobą, by
w efekcie doprowadzić do wykształcenia optymalnego rozwiązania.
Z tego względu współczesnych neurobiologów nie interesuje już tak
bardzo ważenie mózgów geniuszy i pracowite zliczanie ich komórek
nerwowych. O wiele ważniejsze jest to, jak owe komórki są ze sobą
połączone. Nowoczesne metody badań pozwalają uwidocznić główne włókna
nerwowe w mózgu i zorientować się, jak wygląda jego „infrastruktura
komunikacyjna”.
To trochę tak, jakby patrzeć na mapę dróg (bez miast): już tylko na
podstawie sieci połączeń można się zorientować, które rejony są dobrze ze
sobą skomunikowane, a zatem najprawdopodobniej szczególnie ważne.
Centralna metropolia (powiedzmy, Frankfurt) ma bardzo gęstą sieć ulic.
Podobnie dowolny „moduł mózgu” (na przykład fragment kory wzrokowej)
jest bardzo dobrze skomunikowany wewnętrznie. O tym zaś, że Frankfurt
pełni również ważną rolę ponadregionalnego węzła, można wnioskować na
tej podstawie, że prowadzi z niego wiele dróg do innych miast i rozchodzą
się one w różnych kierunkach. Na tej samej zasadzie również w mózgu
znajdziemy węzłowe punkty, w których połączenia nerwowe zbiegają się
i łączą.
Zbadanie wzorców połączeń włókien nerwowych przyniosło bardzo
ciekawe rezultaty. Okazało się, że osoby inteligentne (to znaczy takie, które
lepiej wypadają w testach na inteligencję) dysponują bardziej rozbudowaną
siatką połączeń wewnątrz mózgu31. Innymi słowy, ich „autostrady
informacyjne” są nie tylko szczególnie duże i mają dobrą przepustowość, ale
także łączą ze sobą właściwe ośrodki. Liczy się więc nie tylko ilość i rozmiar,
ale też układy i znajomości – jak to w życiu.
Sieci lokalne w mózgu

Jak widać, coraz mniej nam zostaje z początkowego założenia „duży mózg =
duża moc obliczeniowa”. Można się też spotkać z sądem, że choć mózg jest
wypchany wielką liczbą komórek nerwowych, to gdyby udało się wcisnąć ich
jeszcze trochę, wzrosłaby jego wydajność.
To oczywiście bzdura, ponieważ mózg odznacza się fantastyczną
(i w gruncie rzeczy bardzo prostą) konstrukcją, której założeń należy
bezwzględnie przestrzegać. Nie jest tak, że komórki nerwowe po prostu leżą
sobie w tkance mózgu tu czy tam. W tak ważnej dla inteligentnego myślenia
korze są one zawsze ciasno ułożone w sześciu warstwach bezpośrednio pod
powierzchnią.
Dzięki temu szybko otrzymują substancje odżywcze z krwi, a jednocześnie
nie wchodzą sobie nawzajem w paradę. Ponadto komórki, które sąsiadują ze
sobą w ramach tych warstw, są zebrane w niewielkie grupki, zwane
kolumnami neuronalnymi, bo istotnie ich układy przypominają małe
kolumienki. Neurony tworzące poszczególne kolumny wyjątkowo dobrze
komunikują się ze sobą, dzięki czemu mogą szybko przeprowadzać drobne
obliczenia. A gdy następnie połączy się kolejne kolumny, powstaje naprawdę
sprawnie funkcjonująca sieć.
Taki układ ma ogromną zaletę: mózg nie musi w nieskończoność
zwiększać swoich rozmiarów, by rosła jego moc obliczeniowa. Może
spokojnie pozostać kompaktowy, a liczyć przy tym szybko i sprawnie, przy
okazji oszczędzając sobie wydatkowania energii na zwiększanie własnej
masy.
Wróćmy do naszych porównań drogowych. Nie chodzi przecież o to, by
teren opleść gęstą siecią dróg, licząc na to, że ruch miejski jakoś się do tego
dostosuje. Takie rozwiązanie nic nie da, a wprost przeciwnie: przy licznych
skrzyżowaniach niezbędne staną się w końcu światła i ronda, co spowolni
ruch pojazdów. Czasem, gdy do celu prowadzi wiele dróg, trudno się w ogóle
zorientować, którą trasą przejedziemy szybciej, bo już za najbliższym rogiem
może czaić się kolejny korek. Czysty obłęd, czujemy się bezradni
i w rezultacie włączamy GPS.
Na początek należy zadbać o komunikację w samych metropoliach.
Następnie można ocenić, które trasy trzeba rozbudować, a które można sobie
darować. Czy rozsądniej będzie poszerzyć na przykład drogę szybkiego
ruchu pomiędzy Frankfurtem a Kolonią – czy raczej z Frankfurtu do jakiejś
zapadłej dziury na Średniogórzu Niemieckim.
Jeśli mądrze zaprojektuje się sieć połączeń, można później zaoszczędzić
sporo nerwów i paliwa. Im lepsze są połączenia pomiędzy najważniejszymi
punktami węzłowymi, tym szybciej i łatwiej można się dostać na miejsce,
bez objazdów i uciążliwego kręcenia. Inteligentny mózg również stara się
działać w trybie możliwie energooszczędnym. Choć może to zabrzmieć
paradoksalnie, mózgi ludzi inteligentnych często zużywają mniej energii na
rozwiązywanie skomplikowanych zadań niż te mniej inteligentne32. A to
dlatego, że mają szczególnie wydajną infrastrukturę, informacje kursują po
krótszych i bezpośrednich trasach, dzięki czemu szybko są przetwarzane
przez rozmaite komórki nerwowe.
Naturalnie obszary mózgu są ze sobą znacznie lepiej połączone, niż
kiedykolwiek będą nasze miasta. W idealnym przypadku powstaje w ten
sposób samodzielny i samowystarczalny system, który dysponuje zarówno
doskonałą siecią połączeń lokalnych, jak i superszybkimi połączeniami
ponadregionalnymi.W nauce rozwiązanie takie określa się mianem „sieci
małego świata” i właśnie w ten sposób wyobrażamy sobie obecnie
architekturę mózgu. Mamy tu lokalne klastry, czyli zgrupowania komórek
nerwowych, które ściśle ze sobą współpracują (to wspomniane kolumny)
i tworzą regionalne ośrodki (np. część ośrodka wzroku). Odległości
pomiędzy tymi węzłowymi punktami są z założenia niewielkie. Dzięki temu,
mimo że z każdego węzła wychodzą tylko nieliczne połączenia, w sumie
wszystkie te punkty dzieli od siebie zaledwie kilka etapów pośrednich. To
trochę tak jak w znanej hipotezie z lat sześćdziesiątych amerykańskiego
psychologa Stanleya Milgrama o nazwie „świat jest mały”, według której
wszystkich ludzi na świecie dzieli zaledwie sześć stopni oddalenia, a zatem,
dzięki zaledwie kilku osobom pośredniczącym mogą one nawiązać ze sobą
kontakt.
Plus takiego modelu: mały nakład, duży zysk. Duża moc obliczeniowa
zależy tu od płynnej wymiany informacji w sieci, a nie od wielkości samej
sieci. W zaledwie kilku ruchach można w ten sposób aktywować niemal cały
mózg – i to nie w dowolnym miejscu, ale właśnie w tym obszarze, który
potrzebny jest w konkretnym zadaniu.

Mniej znaczy więcej

Z ewolucyjnego punktu widzenia do pewnego momentu rzeczywiście opłaca


się inwestować w przyrost masy mózgu i zwiększanie liczby neuronów.
Jednak po osiągnięciu optimum ewentualna większa „moc obliczeniowa”
zależy już raczej od jakości siatki połączeń.
Supermózg jest bowiem nie tylko po prostu duży i wypełniony po brzegi
neuronami, ale też bardzo precyzyjnie podzielony i zarazem sprytnie
połączony. Zwiększa też swoją powierzchnię, a nie objętość. Tworzy
niewielkie ośrodki obliczeniowe, które w zaledwie kilku ruchach potrafią
skomunikować się z innymi ośrodkami. W efekcie dochodzi do całościowego
pobudzenia mózgu, co z kolei odpowiada za nasze rozwinięte zdolności
kognitywne (inteligencję i kreatywność).
Czas więc pożegnać się z teorią, że duży może więcej. Dotyczy to zresztą
nie tylko samej objętości mózgu, ale też liczby jego komórek nerwowych.
Z kolejnego rozdziału dowiecie się dlaczego.
MIT NUMER 6

Alkohol i strzelanie główką zabija szare


komórki

Już choćby po lekturze poprzednich pięciu rozdziałów niewątpliwie


zauważyliście, że mózg to naprawdę fantastyczny instrument. Przebudowuje
się i rozbudowuje, dostosowując wewnętrzne połączenia, oraz naturalnie
przetwarza informacje, przy czym tak długo majstruje przy swojej sieci
połączeń, aż osiągnie nie tylko szybkość, ale i wysoką jakość. Wręcz nasuwa
się wniosek, że mózg cały czas rośnie i ochoczo się rozwija, a dzięki
świeżym neuronom i nowym połączeniom nieustannie ma wszystko pod
kontrolą.
I oto nagle koszmarna nowina: dowiadujemy się, że komórki nerwowe
przez cały czas obumierają, bezpowrotnie ginąc – jak gdyby mózg podlegał
ciągłej degeneracji, od samego początku zmierzając ku nieuchronnemu
wyniszczeniu. Gdy neurony raz przepadną, nie da się ich odzyskać. W końcu,
na stare lata, mózg jest już tylko kompletną ruiną.
Mnożą się scenariusze jak z horroru. Co krok to kolejne śmiertelne
zagrożenie dla naszych neuronów. Odbicie piłki główką – i diabli biorą tysiąc
neuronów. Dwa litrowe kufle piwa – 2000 komórek na straty. Zarwana noc –
5000 bezpowrotnie zniszczonych komórek. Całe życie to jedno wielkie
obumieranie neuronów. Gdyby choć dało się tego uniknąć…
Czy mózg rzeczywiście jest tkanką skazaną od samego początku na
powolne umieranie, która w pełnym rozkwicie znajduje się tylko przez
moment po narodzinach, a potem z dnia na dzień marnieje? Czy neurony
naprawdę obumierają raz na zawsze i nie są zastępowane nowymi? I ile
strzałów główką można bezpiecznie wykonać w ciągu dnia?

Narodziny komórki nerwowej

Zacznijmy od neuronów. Jak można wyobrażać sobie udane, spełnione życie


komórki nerwowej? Jak każda komórka, również neuron pewnego dnia
przychodzi na świat. Jednak nie dzieje się to bynajmniej ot tak. Jest to proces
dobrze przemyślany i przygotowany. Komórki nerwowe wykształcają się
z komórek macierzystych, znajdujących się w tkance embrionalnej zwanej
ektodermą, czyli dosłownie „skórą zewnętrzną”. Jak można przypuszczać na
podstawie tej nazwy, z tych właśnie komórek macierzystych tworzą się
w przyszłości komórki skóry, a także nasze zęby oraz układ nerwowy.
Właściwie więc nasz mózg to po prostu wysoko wyspecjalizowana odmiana
skóry.
Mózgu nie da się zbudować przez jedną noc. Dlatego też ludzki zarodek
bardzo wcześnie zabiera się do pracy. Już około trzech tygodni po
zapłodnieniu komórki macierzyste w ektodermie formują wklęsłą, rurkowatą
strukturę, zwaną cewą nerwową. Z tej właśnie cewy rozwija się cały układ
nerwowy: mózg, rdzeń kręgowy, wszystkie komórki i włókna nerwowe.
Tyle że neurony to nie po prostu jakieś tam komórki. Można je raczej
porównać do nader cennych nieruchomości. O ile w przypadku na przykład
komórek krwi nie ma w gruncie rzeczy większego znaczenia, gdzie dokładnie
się znajdą (dopóki pozostają w krwiobiegu), o tyle neurony muszą trafić
w ściśle określone miejsce, w którym następnie spędzą resztę życia.
Podobnie jak w przypadku wszystkich nieruchomości, również i tutaj
najważniejsze są trzy kwestie: lokalizacja, lokalizacja oraz lokalizacja.
Komórki nerwowe należy osadzić we właściwym miejscu, tak by ostatecznie
mogły wykształcić sześciowarstwową kolumnową strukturę w korze mózgu
(por. rozdział 5 na temat wielkości mózgu).
Niektórzy ludzie uważają, że duże znaczenie dla ich dalszych losów ma
data narodzin. Ja na przykład jestem Strzelcem i ani trochę nie wierzę w takie
rzeczy, bo Strzelce są z natury sceptyczne. Ale w przypadku neuronów
trudno o trafniejszy opis: dla ich przyszłego życia (a więc dla ich miejsca
i funkcji w mózgu) dzień narodzin ma absolutnie kluczowe znaczenie.
Wszystkie komórki nerwowe, które tego samego dnia powstały w cewie
z komórek macierzystych, będą w przyszłości dzielić ten sam los i znajdą się
w tym samym miejscu w wykształconym mózgu. Młodziutki neuron nie
pozostaje bowiem długo w bezruchu; podobnie jak marzący o swobodzie
nastolatek, pryska z domu i wyrywa się w szeroki świat, a konkretnie na
powierzchnię tkanki, gdzie mości sobie miejsce do życia. Komórki, które
powstały później, muszą przepchnąć się przez warstwę wcześniejszych
neuronów i zająć miejsce wyżej. Sześciowarstwowa struktura, z której składa
się nasza kora mózgowa, tworzy się więc właśnie w ten sposób: od środka na
zewnątrz.
I na tym właściwie można zakończyć opowieść. Gdy neurony dotrą do
miejsca przeznaczenia, będą tam już tkwić przez resztę życia. Owszem,
tworzą wypustki i łączą się z innymi komórkami, ale nie ma już mowy
o żadnym rozmnażaniu. W nauce określa się je mianem komórek
postmitotycznych, czyli takich, które mają już za sobą fazę podziału (mitozy)
i teraz zajmują się tylko ważniejszymi rzeczami niż rozmnażanie, na przykład
przetwarzaniem informacji. Na tle innych komórek neurony sprawiają więc
wrażenie komputerowych nerdów: ambitnych, pracowitych
i niezainteresowanych seksem.
Zatem to prawda: neuron zmierza w życiu tylko do jednego celu – do tego,
by umrzeć. Cóż, rzeczywiście nie jest to zbyt optymistyczna perspektywa.

Mózgowe przedszkole

W związku z tym komórki nerwowe w korze mózgowej giną bezpowrotnie.


Przychodzimy na świat z niemal wszystkimi neuronami w komplecie i od
tego momentu jest już tylko gorzej. Od chwili narodzin mózg zaczyna
obumierać.
Ale czy cały? Otóż nie, bo dwa niewielkie rejony nie ustają w wysiłkach,
by oprzeć się wszechobecnemu rozkładowi. O jednym była już mowa. To
ukryty głęboko pod korą mózgową hipokamp, który zajmuje się
przetwarzaniem nowych informacji i zaprowadzaniem porządku w pamięci.
Drugi obszar to tak zwana strefa podkomorowa, określana też skrótem SVZ
(od angielskiego subventricular zone). Jak sama nazwa wskazuje, znajduje
się ona bezpośrednio pod komorą, a konkretnie układem komorowym, czyli
wypełnioną płynem pustą przestrzenią w mózgu. Nowo utworzone komórki
nerwowe wędrują właśnie wzdłuż owego rejonu do przedniego obszaru
mózgu, kierując się na szlak, którego nie można przegapić: do opuszki
węchowej. Ostatecznie trafiają w rejon nosa, gdzie wspierają inne komórki
nerwowe w rozpoznawaniu zapachów.
Ma to głęboki sens, bo zapachów jest niebywale dużo (według
najnowszych badań więcej niż bilion33). Wszystkie pozostałe zmysły są
w jakiś sposób ograniczone: nie jesteśmy w stanie rozpoznawać
„nieskończenie” wielu kolorów, a tylko zaledwie około ośmiu milionów,
choć w tej kwestii dane nieco się różnią (można się zastanawiać, czy w tej
sytuacji jest w ogóle sens kupować ekran, wyświetlający 16,7 miliona
kolorów, ale to już inna sprawa). Słyszymy niespełna pięćset tysięcy
dźwięków i rozróżniamy zaledwie pięć podstawowych smaków.
W porównaniu z tym liczba zapachów jest niemal nieskończona. Każda
mieszanina cząsteczek organicznych stanowi potencjalny zapach, po to więc
by je rozróżnić, potrzeba z jednej strony wielu zróżnicowanych komórek
zmysłowych, a z drugiej sprawnego systemu połączeń w mózgu. Możliwe
zatem, że nowo wykształcone komórki nerwowe mają przyczyniać się do
tego, by nieustannie zwiększać naszą wrażliwość na zapachy34.
W przypadku hipokampu sytuacja wygląda nieco inaczej. Oczywiście
również tutaj nowo wykształcone neurony są niezbędne do lepszego
przetwarzania informacji i do złożonych procesów, takich jak uczenie się,
jednak na czym dokładnie polega owo wsparcie ze strony nowych komórek,
nikt jeszcze dokładnie nie wie35. Choć prawdą jest, że hipokamp ściśle wiąże
się z wykształcaniem pamięci, nie należy wyciągać pochopnego wniosku, że
uczenie się ma bezpośredni związek z tworzeniem nowych komórek
nerwowych na zasadzie „nowa informacja – nowa komórka”. To nieprawda.
Przeciwnie, mechanizmy rządzące uczeniem się są znacznie bardziej
finezyjne. Już niedługo do tego dojdziemy, zainteresowanych odsyłam do
rozdziałów Wytrenowany mózg jest mądrzejszy i Uczymy się w zgodzie
z własnym typem.

Wypijmy za neurony!
Istnieją zatem w mózgu obszary, w których komórki nerwowe wciąż
powstają niezależnie od wieku. Tam właśnie, w tak zwanych niszach
komórek macierzystych, znajdują się komórki prekursorowe, wytwarzające
nowe neurony. Jednak skala tej „produkcji” jest ograniczona; ocenia się ją na
nieco powyżej tysiąc komórek nerwowych w hipokampie dziennie. Nie jest
to zbyt wiele w porównaniu z trzydziestoma milionami neuronów, które już
tam są. Z kolei w korze, która stanowi połowę objętości mózgu, nie powstają
żadne nowe komórki nerwowe (choć pokornie trzeba by tu dodać
zastrzeżenie: przynajmniej wedle aktualnego stanu wiedzy na ten temat).
Obecne tam neurony mogą tylko i wyłącznie umrzeć.
Ale nie upadajmy na duchu! Nawet jeśli z badań wynika, że każdego dnia
tracimy około 85 tysięcy komórek nerwowych w korze36, nie oznacza to, że
nasze życie sprowadza się do postępującego zidiocenia. W mózgu są miliardy
neuronów, wobec czego tracimy nieznaczny ułamek ich wszystkich. Ponadto
uważny czytelnik poprzedniego rozdziału wie, że sama liczba komórek nie
jest tak istotna jak to, w jaki sposób łączą się ze sobą. Mozolne komórkowe
rachunki pozostawmy więc ludziom nękanym przez kompleks niższości.
Dajcie sobie też spokój ze zliczaniem neuronów obumierających pod
wpływem wypijanego alkoholu. Nie istnieją poważne naukowe badania, na
podstawie których można by dokładnie ocenić, ile komórek nerwowych
tracimy wskutek przebalowanej nocy. Jeszcze jedno: to, że następnego ranka
boli nas głowa, nie jest efektem rzezi dokonanej na niewinnych neuronach,
tylko rezultatem niedostatku elektrolitów w związku z zaburzeniem
przemiany materii. Aby pozbyć się kaca, należy dużo pić i zjeść coś słonego.
Inna rzecz, że (co chyba nikogo specjalnie nie zaskoczy) alkohol nie
wpływa zbyt korzystnie na funkcjonowanie mózgu. Jego małe, rozpuszczalne
w tłuszczach cząsteczki bez przeszkód przenikają do mózgu, gdzie zaburzają
procesy biochemiczne w komórkach nerwowych. Kieliszek wina z pewnością
nie spowoduje masowego wymierania neuronów, jednak długoterminowe
badania tkanki nerwowej wykazują, że nieumiarkowane spożywanie alkoholu
powoduje na dłuższą metę uszkodzenia struktur mózgu. Nie tylko szybciej
obumierają komórki nerwowe (szczególnie w rejonach, w których kontrolują
świadomą koncentrację37), ale zaburzone zostaje też tworzenie nowych
neuronów w hipokampie38. Oznacza to, że wieloletnie nadmierne spożywanie
alkoholu może zaburzać zdolność zapamiętywania i świadomej kontroli
również w momencie, gdy dana osoba jest całkowicie trzeźwa.
Wbrew temu, co można niekiedy usłyszeć, takie ekscesy jak zataczanie się,
utrata kontroli nad własnym zachowaniem, śpiewanie na całe gardło czy
urwanie się filmu (co zwłaszcza na tle wcześniejszych występów bywa
niekiedy nie najgorszym rozwiązaniem) nie są bynajmniej spowodowane
obumieraniem komórek nerwowych. To prawda, że alkohol szybko
i bezpośrednio wpływa na metabolizm oraz na uwalnianie
neuroprzekaźników w mózgu, jednak w większości przypadków są to
zjawiska przejściowe. Zagrożenie dla życia neuronów pojawia się dopiero
przy intensywnym spożywaniu alkoholu przez dłuższy czas. Wówczas
istotnie staje się on zabójcą szarych komórek – i wtedy robi się naprawdę
kiepsko.

Główką w neuron?

Być może wy też zastanawialiście się kiedyś, czy mętne wypowiedzi piłkarzy
zaraz po zejściu z boiska nie wynikają przypadkiem z tego, że przez
dziewięćdziesiąt minut wykonali zbyt wiele podań głową i po prostu wytłukli
sobie trochę szarych komórek. Takie wyjaśnienie brzmi całkiem
przekonująco. Czy też jest to raczej kwestia inteligencji konkretnego
zawodnika (i tego, że po ciężkim meczu piłkarz ma po prostu prawo być
zmęczony)?
Naukowcy uwielbiają wszystko dokładnie mierzyć, zbadano więc też
oczywiście, jak podania głową wpływają na struktury mózgowe piłkarzy.
Proszę bardzo: przy co najmniej 885 odbiciach głową rocznie przez ponad
dwadzieścia lat pogarsza się sieć połączeń w bocznym i tylnym obszarze
kory mózgowej. A naprawdę fatalnie robi się, jeśli piłkarz wykonuje ponad
1800 podań głową w ciągu roku, bo wtedy dodatkowo znacząco spada
zdolność zapamiętywania39. Czyli to jednak prawda: piłka nożna ogłupia.
Może jednak wstrzymajmy się jeszcze przez chwilę z ostatecznymi
wnioskami. Jest różnica, czy badamy efekty długoterminowe, czy
bezpośrednie szkodliwe następstwa. Od jednego podania głową nikt jeszcze
nie zgłupiał, a gdybym to ja po wyczerpującej grze miał odpowiadać
jakiemuś reporterowi na kąśliwe pytania, też na pewno miałbym problemy,
choćbym ani razu nie strzelał z główki. A żeby już całkiem uspokoić
wszystkich piłkarzy amatorów: jak się wydaje, stwierdzone efekty podań
głową są odwracalne. W każdym razie nie ma żadnej różnicy w pracy mózgu
pomiędzy byłymi zawodowymi piłkarzami a ludźmi, którzy nigdy nie grali
w piłkę40 – dlatego dbałość o utrzymanie mózgu w dobrej formie nie nadaje
się na wymówkę dla lenistwa, choć może rozczaruje to wielbicieli
wylegiwania się na kanapie. Przeciwnie, w badaniach na zwierzętach
stwierdzono, że po wypiciu alkoholu szczury regenerują się szybciej
i wytwarzają w hipokampach nowe neurony, o ile uprawiają sport41, nawet
niezbyt intensywnie. Zasada ta dotyczy zarówno gryzoni, jak i ludzi.

Żyj i pozwól umrzeć

Istnieją choroby mózgu, szczególnie u ludzi w starszym wieku, których


przyczyną jest właśnie niekontrolowane obumieranie neuronów.
W przypadku drżączki poraźnej, szerzej znanej jako choroba Parkinsona, do
rozwoju niepokojących objawów wystarcza śmierć zaledwie stu tysięcy
neuronów, a zatem utrata stosunkowo nielicznych komórek nerwowych może
pociągnąć za sobą poważne konsekwencje. Bardzo istotne jest bowiem
miejsce, w którym do niej dochodzi. W ważnych „punktach
komunikacyjnych” nawet niewielki ubytek może mieć dramatyczne
następstwa (na przykład zażywanie ecstasy prowadzi do trwałego
i nieodwracalnego uszkodzenia neuronów w tzw. jądrach szwu, czego
efektem są ciężkie depresje). Czy w takiej sytuacji nie byłoby lepiej, gdyby
mózg, podobnie jak niemal wszystkie pozostałe narządy, dysponował
własnym „eliksirem młodości”, czyli komórkami macierzystymi,
wytwarzającymi wciąż nowy materiał komórkowy?
Odpowiedź na to pytanie może się wydać paradoksalna. Po to, żeby mózg
w ogóle mógł funkcjonować, komórki nerwowe muszą całkiem obumierać,
a nie podlegać wymianie! Absolutnie najważniejsza w mózgu jest bowiem
jego struktura, czyli przebieg siatki wzajemnych połączeń. W tej sieci
zmagazynowane są wszystkie informacje, nasze wspomnienia i myśli, a także
umiejętność przetwarzania bodźców zmysłowych i generowania impulsów
ruchu. Struktura połączeń jest najcenniejszym skarbem naszego mózgu,
dlatego trzeba dbać o zachowanie jej stabilności.
Co ciekawe, szczegóły owej struktury powstają bez żadnego
wcześniejszego planu: po prostu rozwijają się w trakcie naszego życia,
w zależności od sytuacji. Oczywiście, ramowa budowa hipokampu czy
móżdżku jest z góry ustalona, decydujące jednak są właśnie połączenia
między poszczególnymi komórkami nerwowymi – te zaś są dynamiczne
i elastyczne.
Wyobraźmy sobie, co by się stało, gdyby co kilka miesięcy lub lat mózg
podlegał całkowitej odnowie. Skoro nie ma ustalonego „projektu
architektonicznego”, skąd nowe komórki miałyby wiedzieć, które z połączeń,
pracowicie rozwijanych i pielęgnowanych przez lata, warto teraz odtworzyć?
To trochę tak, jakby w dużym mieście wyburzyć za jednym zamachem całe
dzielnice, a następnie próbować je odbudować, nie mając ich planu, po prostu
tak, jak w danej chwili wydaje się zasadne. Efekt? Chaos, rozgardiasz, jeden
wielki kociokwik.
Fakt, że to właśnie struktura sieci neuronalnej decyduje o tym, jak działa
mózg, daje jej jedną olbrzymią zaletę: trwałość. A to dlatego, że nie opiera
się na działaniu wybranych komórek nerwowych (choć takie szczególnie
ważne komórki bez wątpienia istnieją, wystarczy pomyśleć o neuronach
kontrolujących ruch, które obumierają w chorobie Parkinsona), tylko na
łącznej mocy całej sieci. Ostatecznie Internetu jako całości też nie dałoby się
tak łatwo wyłączyć. Nawet gdy pada jakiś ważny serwer, informacje są
kierowane inną drogą przez najbliższy dostępny.
Nie w tym więc rzecz, by zachować jak najwięcej komórek nerwowych,
ale by skupić się na tych ważnych – one zaś są niemal nie do zdarcia
i wytrzymują naprawdę długo. Natomiast komórki już nieprzydatne mózg
systematycznie usuwa i jest to konieczne, by rosła sprawność systemu.
Nowe nie zawsze jest lepsze. Większość komórek nerwowych w waszych
mózgach liczy sobie już tyle lat, co wy, a wciąż funkcjonuje pierwszorzędnie.
Najlepszy dowód, że właśnie dobrnęliście do końca szóstego już rozdziału tej
książki (i, mam nadzieję, dowiedzieliście się czegoś przy okazji).
MIT NUMER 7

Mózgi mężczyzn i kobiet myślą inaczej

Omawiane dotychczas mity były stosunkowo niegroźne. Prawa i lewa


półkula, umierające neurony, gadzie mózgi – wszystko to ciekawe, ale
z pewnością nie stanowi tematu tak gorących sporów jak osławiona płeć
mózgu. Ta kwestia jest zaś tak stara jak ludzkość: Czy kobiety myślą inaczej
niż mężczyźni? Czy ich mózgi wykazują anatomiczne różnice? I przede
wszystkim, która płeć ma „lepszy” mózg?
Muszę przyznać, że temat jest grząski. Łatwo trafić tu na celownik obu
stron. W żadnej innej sprawie badania naukowe nie są tak lekkomyślnie
wykorzystywane do podtrzymywania stereotypów. Co gorsza, podparte takim
czy innym neurobiologicznym cytatem komunały dotyczące płci zyskują
niemal status pewników. Kobiety mają zdolności językowe i potrafią lepiej
wczuwać się w położenie innych, bo ich półkule mózgowe są ze sobą lepiej
skomunikowane42. Mężczyznom raczej brak talentów językowych, za to są
lepsi w matematyce i myśleniu przestrzennym. „Odkrycie neurobiologów:
kobiece mózgi rzeczywiście działają inaczej” – obwieszczał nagłówek w Die
Welt pod koniec 2013 roku43. W Spieglu to samo: „Sieć połączeń w męskich
i żeńskich mózgach jest zupełnie inna”44.
Mit o mózgach „kobiecych” i „męskich” jest modelowym przykładem
tego, jak w ogóle tworzą się takie legendy. Mamy tu wszystkie niezbędne
składniki: badania naukowe wykazujące różnice pomiędzy mózgami
mężczyzn i kobiet, gorący temat, na który każdy ma coś do powiedzenia,
mnóstwo półprawd, uogólnień i stereotypów i wreszcie (co wcale nie
najmniej ważne) pierwszorzędną okazją, by cały ten miszmasz, złożony
z odkryć nauki, stereotypów i osobistych zapatrywań, korzystnie sprzedać
(w prasie albo nawet przed kamerą). Niektórzy autorzy sądzą wręcz, że ich
książka byłaby niekompletna bez rozdziału o męskich i damskich mózgach –
to straszne, jak dosłownie wszyscy usiłują się podczepić pod ten trend.
Dlatego, zanim przystąpię do pisania, muszę zebrać w sobie całą odwagę.
Mam świadomość, że jakakolwiek nieprzemyślana uwaga na kolejnych
stronach może obrócić się przeciwko mnie i posłużyć do umacniania
skostniałych sądów na temat płci mózgu. Postaram się więc podejść do
tematu z należytą ostrożnością i taktem, możliwie jak najdelikatniej – krótko
mówiąc, spróbuję się z nim obchodzić jak z neurobiologicznym jajkiem.

Anatomia różnicowa

Mózgi kobiet i mężczyzn są różne! To neurobiologiczny fakt, koniec kropka.


Polityczna poprawność nic tu nie zmieni, podobnie jak często podnoszona
kwestia wpływu odmiennego wychowywania dziewcząt i chłopców na
rozwój ich mózgu. Natura zawsze postawi na swoim, a różnice pomiędzy
mózgami mężczyzn i kobiet można zmierzyć. Oto garść przykładów.
Kobiety mają większy hipokamp, a mężczyźni większe ciało
migdałowate45. Mężczyźni mają większe mózgi (o czym była już mowa
w rozdziale 5), natomiast u kobiet kora mózgowa jest grubsza46 i silniej
pofałdowana47. Różne są też siatki połączeń: u kobiet lepiej połączone są
półkule kresomózgowia (lepiej to znaczy za pomocą większej liczby
włókien), natomiast u mężczyzn zwarte siatki połączeń powstają raczej
w obrębie jednej półkuli. Odwrotnie przedstawia się sytuacja w móżdżku –
tam właśnie u mężczyzn półkule są lepiej połączone48.
Powyższe stwierdzenia to woda na młyn wszystkich, którzy poszukują
„twardych” argumentów dla uzasadnienia stereotypowego podziału ról
płciowych. A na tym wcale nie koniec, albowiem głównego sprawcę tych
różnic można (pozornie) bardzo łatwo znaleźć: to testosteron, czyli męski
hormon płciowy! Z początku wszystkie mózgi są żeńskie, jednak już
pomiędzy 8. a 24. tygodniem ciąży męski płód zaczyna wytwarzać
testosteron i jego mózg kształtuje się „po męsku”. Właśnie dzięki tym
„ustawieniom początkowym” już roczne dzieci zachowują się tak, jak można
by od nich oczekiwać: chłopcy do zabawy wybierają samochodziki,
a dziewczynki lalki (na marginesie, zaobserwowano, że kolor zabawek nie
ma znaczenia)49. Dzieje się to zupełnie niezależnie od ewentualnego wpływu
najbliższego otoczenia, bo podobną sytuację zaobserwowano u młodych
makaków królewskich (od roku do 5 lat): samce lubią to, co się toczy, samice
chętnie bawią się miękkimi przytulankami50.
Raz ustanowione, dalsze drogi rozwoju wydają się jasne: w testach kobiety
wykazują większą niż mężczyźni „płynność językową” , na przykład potrafią
znaleźć szczególnie wiele słów zaczynających się na tę samą literę51. Z kolei
mężczyźni osiągają lepsze wyniki w testach wyobraźni przestrzennej
(polegających na przykład na tym, by w myślach obracać wybrany obiekt).
Można by uznać, że to jednoznaczne dowody na wyraźny podział płciowy
mózgów. Już w życiu płodowym testosteron formuje męskie mózgi
i wychowanie nic tu nie może zmienić. Różnice płciowe są trwale zapisane
na mózgowym „twardym dysku”. Z jednej strony rozwinięty ośrodek wzroku
u mężczyzn, umożliwiający lepszą orientację przestrzenną52, a z drugiej
lepsze połączenie półkul mózgu u kobiet tworzą naukowe podwaliny sądu, że
mężczyźni potrafią parkować, a kobiety są gadatliwe.
Tak przedstawiają się „neurobiologiczne” argumenty dyskutantów, którzy
pragną badaniami naukowymi podeprzeć stereotypy na temat płci.
Tymczasem to zwykłe bredzenie, a rzeczywistość jest o wiele ciekawsza.

Pułapka nadinterpretacji

Problem z większością badań na temat mózgów kobiecych i męskich polega


na tym, że można je wykorzystać do snucia uproszczonych, obrazowych
wyjaśnień, przy okazji dokonując różnych „upiększeń” i zniekształceń53.
A skoro ma być jasno i dobitnie, trzeba stwierdzić, że „kobiece mózgi są
połączone lepiej niż męskie”, stąd zaś już niedaleka droga, by uznać, że
kobiety myślą bardziej „całościowo”, natomiast panowie są w dosłownym
sensie bardziej ograniczeni. Jest tylko jedno małe „ale”: tak naprawdę nie
mamy pojęcia, co rzeczywiście oznaczają stwierdzone różnice anatomiczne
w budowie mózgu.
Być może rzeczywiście jest tak, że męskie mózgi skłaniają się bardziej do
wzmożonego tworzenia lokalnych zgrupowań neuronów, natomiast u kobiet
sieci neuronalne są bardziej rozległe. Jak dotąd jednak wykazano to
przekonująco zaledwie w jednym badaniu naukowym, co więcej różnica ta
występowała dopiero u osób dorosłych. Ponadto nie wiemy, co miałoby
z tego wynikać.
Jakkolwiek więc kuszące wydawałoby się wydawanie sądów na temat
funkcji różnych złożonych struktur w naszym mózgu na podstawie samej
tylko ich wielkości, z biologicznego punktu widzenia jest to niedopuszczalne
uproszczenie. Była już o tym mowa w poprzednich rozdziałach: rozmiar to
nie wszystko, a do tego określone rejony mózgu mają nie jedno, lecz wiele
zadań. Weźmy na przykład ciało migdałowate (ośrodek w układzie
limbicznym, współodpowiedzialny za generowanie emocji): owszem,
u mężczyzn jest większe, nie oznacza to jednak, że mężczyźni są
automatycznie bardziej emocjonalni niż kobiety. Ważna jest też wewnętrzna
struktura tego tworu, jego osadzenie wśród pozostałych elementów układu
limbicznego, stopień wrażliwości komórek nerwowych na substancje
przekaźnikowe itd.

Praktyka czyni mistrza (i niweluje różnice)

Doskonałym przykładem nadinterpretacji w analizie różnic płciowych jest


kwestia rzekomo lepszego myślenia przestrzennego mężczyzn. Istotnie w tak
zwanych testach rotacji mentalnej mężczyźni statystycznie wypadają lepiej
od kobiet. Podkreślam: „statystycznie”, bo trzeba pamiętać, że tego rodzaju
stwierdzenia odnoszą się do grup, nie jednostek. Jednak nawet te statystyczne
różnice są najczęściej niewielkie, ponadto większe rozbieżności zachodzą
w obrębie jednej grupy niż pomiędzy grupami. Innymi słowy, jest niezwykle
prawdopodobne, że pod względem zdolności kognitywnych dwóch mężczyzn
będzie różnić się od siebie bardziej niż mężczyzna od kobiety.
Co więcej, „typowe” dla płci różnice zanikają, jeśli testy rotacyjne
wykonuje się dostatecznie długo (od dwóch do trzech tygodni). Nawet jeśli
mężczyźni trenują obracanie przedmiotów w wyobraźni tak samo
intensywnie co kobiety, panie nadrabiają początkowe zapóźnienie i pod
koniec osiągają równie dobre wyniki co panowie54. I jeszcze jedno:
u piętnastolatków nie da się w ogóle stwierdzić różnic podczas obracania
wyimaginowanych brył; chłopcy wypadają lepiej tylko przy figurach
dwuwymiarowych (chyba że dziewczyny poćwiczą, wtedy stają się równie
dobre)55.
Ktoś mógłby w tym momencie powiedzieć: „Dobra, ale obracanie
w wyobraźni kostki w sterylnym laboratorium nie ma zbyt wiele wspólnego
z prawdziwym życiem” – i byłby to bardzo celny argument. W testach na
inteligencję zwykle ocenia się tylko pewne cząstkowe umiejętności
(przestrzenne, językowe, logiczne i tak dalej), które następnie sumuje się, by
uzyskać ostateczny wynik. Stwierdzono przy tym, że statystycznie mężczyźni
nie są inteligentniejsi od kobiet. Trzeba jednak zaznaczyć, że wśród panów
jest więcej „odchyleń od normy”, zarówno w górę, jak i w dół. W męskiej
grupie częściej znajdziemy osobników superinteligentnych, ale też
kompletnych tumanów. W ten sposób równowaga zostaje zachowana.

Orientacja na targu

Co się stanie, jeśli zdolność orientacji przestrzennej postanowimy zbadać nie


w laboratorium, a w świecie rzeczywistym? W pewnym ciekawym
eksperymencie badano zachowania mężczyzn i kobiet podczas zakupów na
targu (uczestnicy obu płci robili tam sprawunki z podobną częstotliwością).
Pod pretekstem oceny poszczególnych stoisk mieli krążyć po całym terenie
i zorientować się, co się na nim dzieje. Na koniec pytano ich zaś o to, gdzie
można znaleźć określone warzywa i inne produkty spożywcze. Proszę
bardzo: kobiety lepiej niż mężczyźni potrafiły sobie przypomnieć, gdzie były
ogórki, a gdzie pomidory56. Przy okazji zaobserwowano inną ciekawą
zależność: zarówno kobiety, jak i mężczyźni lepiej pamiętali umiejscowienie
stoisk, w których sprzedawano produkty wysokokaloryczne – łatwiej byłoby
im odnaleźć miód i oliwę niż śliwki czy brzoskwinie. Stawia to
w uprzywilejowanej sytuacji właścicieli straganów z fast foodem, co nie
wydaje mi się zbyt sprawiedliwe. Co mają począć poszkodowani sprzedawcy
owoców i zdrowej żywności? Może przynajmniej ustawić w widocznym
miejscu kilka butelek oliwy – chociaż trochę wyrówna to ich kaloryczne
szanse i pozwoli przynajmniej na jakiś czas zapaść w pamięć klientów.
Oczywiście zabrakło tu eksperymentu kontrolnego: być może rezultat
badań byłby inny, gdyby uczestników wysłano nie na targ spożywczy, tylko
do sklepu z materiałami budowlanymi i na zakończenie kazano odszukać
śruby i podkładki do połączeń kołnierzowych. Cała sprawa w tym, że na
wykorzystanie naszych zdolności kognitywnych (takich jak wyobraźnia
przestrzenna i orientacja) w dużej mierze wpływają otoczenie i sytuacja.
Można by pewnie podać wiele powodów, dla których w powyższym
eksperymencie to kobiety wykazały się lepszą orientacją (może na przykład
to raczej panie kupują produkty spożywcze, a może osobiście znały
określonych sprzedawców), jasne jest jednak także, że uogólnione
stwierdzenia w stylu „mężczyźni mają lepszą orientację przestrzenną” nie
wyczerpują tematu. Decydujące znaczenie ma bowiem to, że mózgi są
w stanie dostosować się do najrozmaitszych sytuacji, a konkretne zadania
stawiane przed nami przez codzienne życie zacierają te minimalne różnice,
które stwierdza się w laboratorium podczas badania męskiej i kobiecej
wyobraźni przestrzennej.

Pułapka „odwieczności”

W dyskusji na temat płci często bagatelizuje się jedną kwestię: nigdy


(podkreślam: nigdy) nie mamy do czynienia z takim zjawiskiem jak
„statystyczny” mózg, który funkcjonowałby niezmiennie tylko w jeden
sposób („męski” lub „kobiecy”). Mózgi dostosowują się do bieżących
potrzeb – również w poprzek podziałów płciowych. Dlatego też, jak to już
opisałem powyżej, różnice w testach rotacji mentalnej mogą zniknąć w toku
ćwiczeń. Często jednak dzieje się też odwrotnie: sami wyznaczamy określone
role dla każdej z płci i w ten sposób tworzymy samospełniające się
proroctwo. W nauce określa się to mianem zagrożenia stereotypem. Jeśli
będzie się mówić dziewczynkom, że są gorsze z matematyki, w późniejszym
teście z tego przedmiotu istotnie wypadną gorzej57 (na marginesie warto tu
dodać, że na chłopców w ogóle mniej wpływa presja społeczna tego typu),
choć pomiędzy dziewczętami a chłopcami nie ma istotnych statystycznie
różnic pod względem zdolności matematyczno-logicznych.
Szczególna ostrożność wskazana jest, gdy określony podział ról
uzasadniany jest ewolucyjnie, a na zakończenie łączony z rzekomo
„naukowymi” argumentami w stylu: „Już w epoce kamiennej kobiety
siedziały w obozowisku, zajmowały się dziećmi i dużo ze sobą rozmawiały,
dlatego ich mózgi są lepiej dostosowane do komunikacji i wykazują większe
zdolności językowe”. Takimi pseudoargumentami odwołującymi się do
prawideł ewolucji można uzasadnić praktycznie wszystko, zwłaszcza że
nadzwyczaj trudno byłoby sprawdzić, jak rzeczywiście przedstawiała się
struktura społeczna pięćdziesiąt tysięcy lat temu. W każdym razie
z neurobiologicznego punktu widzenia nie da się obronić tezy, jakoby
kobiety były bardziej komunikatywne od mężczyzn. Przynajmniej jeśli
chodzi o przetwarzanie mowy, mózgi mężczyzn i kobiet nie różnią się
między sobą. Zarówno w jednym, jak i drugim przypadku obydwie półkule
są podobnie zaangażowane w proces powstawania mowy, nie istnieje także
nic takiego jak „kobiecy ośrodek mowy” ze szczególnie dobrze rozwiniętą
siecią połączeń58. Do lamusa można też odłożyć przekonanie, że kobiety
mówią więcej niż mężczyźni. Przedstawiciele obu płci mówią równie dużo,
wypowiadając około 16 tysięcy słów dziennie59 (jeśli zastanawiacie się, jak
to mierzyć, odpowiadam: za pomocą niewielkich rejestratorów dźwięku,
włączających się automatycznie przy mówieniu).

Wszystkie drogi prowadzą do…

Nasze wyobrażenia na temat działania mózgu opierają się często na skrajnych


uproszczeniach. Przyznaję, że niekiedy to konieczne, żeby w ogóle jakoś
połapać się w zagmatwanym gąszczu neuronów. Jedno z takich błędnych
uproszczeń prowadzi nas jednak do tego, by przypisywać zbyt duże
znaczenie różnicom pomiędzy mózgami kobiet i mężczyzn.
Ile to jest 5 + 5? Większość czytelników zapewne powie słusznie, że 10,
bo w tym przypadku jest tylko jedno prawidłowe rozwiązanie. Wiele osób
wyobraża sobie, że na tej samej zasadzie działa mózg: określona struktura
wewnętrzna pozwala na jeden sposób myślenia. Ale tak nie jest. Spróbujmy
przeformułować nasze pytanie: Ile rozwiązań ma następujące równanie: x + y
= 10? Odpowiedź: nieskończenie wiele (przynajmniej jeśli uwzględnimy nie
tylko liczby całkowite)! Mózg rozumuje na podobnej zasadzie. Nie jest tak,
że istnieje jeden konkretny sposób rozwiązania zadania, tylko wiele różnych.
Zatem samo to, że dwa mózgi różnią się budową, oznacza tylko jedno: że
różnią się budową. Nic więcej! Mimo to mogą równie sprawnie rozwiązywać
te same zadania.
I właśnie to stwierdzono, porównując męskie i żeńskie mózgi. Gdy badano
kobiety i mężczyzn osiągających równie dobre wyniki w testach na
wyobraźnię przestrzenną, zaobserwowano, przede wszystkim u starszych
uczestników i uczestniczek, wzmożoną aktywność innych rejonów mózgu
(na wszelki wypadek raz jeszcze przypominam: nawet w takich sytuacjach
zawsze pracuje cały mózg, nie tylko jedna część). Mężczyźni przetwarzali
informację raczej w lewej półkuli, kobiety w obydwu60. Ostateczny rezultat
(obrócenie w wyobraźni danego przedmiotu) był jednak identyczny. Podobne
wyniki uzyskano także, gdy badano, jak pracują męskie i kobiece mózgi
podczas układania rymowanek; również w tym przypadku u kobiet
pobudzenie sieci występowało na większej powierzchni61, jednak
przedstawiciele obu płci równie dobrze dobierali rymy. Zatem kobiety
i mężczyźni istotnie myślą inaczej, jednak różnymi drogami docierają często
do tego samego celu.
Oznacza to, że odnalezienie różnic pomiędzy mózgami przedstawicieli
odrębnych płci nie daje prawa do wyrokowania o funkcjach tych mózgów.
Mózgi cały czas się uczą, dopasowują swoją strukturę do napływających
bodźców i dopiero w ten sposób stają się tym, czym są ostatecznie.
Rzeczywiście już niedługo po urodzeniu można zaobserwować różnice
w zachowaniu przedstawicieli obu płci, jednak sam fakt, że małe małpki płci
męskiej z upodobaniem bawią się samochodzikami, nie skazuje nas jeszcze
na stereotypy w myśleniu. Przy okazji warto dodać, że aktualna hipoteza
wyjaśnia owo zachowanie tym, iż w trakcie rozwoju dziecka testosteron
wpływa między innymi na przetwarzanie obrazów w mózgu. A zatem
plastikowe autko nie jest samo w sobie „męską” zabawką, a po prostu czymś,
co daje się łatwo poruszać i dlatego jest szczególnie interesujące dla
„męskiego mózgu”62.
Nie można negować faktycznie istniejących różnic pomiędzy mózgami
kobiet i mężczyzn, jednak równie mało sensu ma uzasadnianie społecznego
podziału ról strukturą tychże mózgów. Pamiętajmy, że działa to też w drugą
stronę: określone funkcje mózgu warunkują pewne zachowania,
a w konsekwencji kształtują się społeczne struktury, które z kolei oddziałują
na mózg. Mózg jest narządem tak plastycznym, że z biegiem czasu coraz
lepiej orientuje się w tych strukturach. Jego wewnętrzna architektura
dostosowuje się do otoczenia. Nieustające sprzężenie zwrotne pomiędzy
mózgiem a otoczeniem powoduje, że struktura mózgu stanowi zarówno
odzwierciedlenie warunków środowiskowych, jak i przyczynę zachowania.

Mózg jest niewinny

Z powyższego rozdziału warto zapamiętać trzy sprawy. Po pierwsze,


mężczyźni gadają równie dużo, co kobiety. Po drugie, kobiety potrafią
równie dobrze parkować (myśleć przestrzennie), jeśli trochę poćwiczą (i nie
dadzą sobie wmówić, że jest inaczej; przypominam o „zagrożeniu
stereotypem”). Po trzecie, wewnętrzna budowa mózgu nie dostarcza
argumentów do uzasadniania stereotypów płciowych.
Nie ma więc sensu ani udawanie, że żadnych różnic nie ma, ani trzymanie
się stereotypowych podziałów ról. Nasze mózgi są bardziej elastyczne, niż
mogłoby się w pierwszej chwili wydawać. Oczywiście mężczyźni i kobiety
się różnią (nie wątpię, że sami zdołaliście to zauważyć) i różnice te nie
omijają także ich mózgu. Jednak próba wykorzystania owych anatomicznych
odmienności do uzasadniania stereotypowych przekonań na temat płci to
myślowa pułapka. Bo w gruncie rzeczy różnice te mówią nam coś o wiele
ciekawszego: stanowią biologiczny dowód na to, że wszystkie drogi
prowadzą do Rzymu.
Odmienne role, które przypisujemy kobietom i mężczyznom, nie są
prostym wynikiem takich czy innych połączeń neuronalnych, lecz rezultatem
interakcji społecznej. Oczywiście kierunek nadaje tu sama biologia (człowiek
przyjmuje tożsamość płciową i czuje się kobietą lub mężczyzną), ale tego, co
się stanie dalej (czy hołdujemy modelowi patriarchalnemu, czy
zakładającemu równouprawnienie płci), nie da się ani wytłumaczyć, ani
uzasadnić budową mózgu.
PS Na zakończenie pozwolę sobie jeszcze wbić biochemiczną szpilę
wyznawcom teorii o testosteronie, którzy otaczają go nieomal kultem jako
„hormon męskości” i chętnie wypowiadają się na temat „zachowań
testosteronowych”. Otóż hormon ten istotnie wnika do mózgu i zmienia
w nim pracę komórek. Jednak [w znacznej mierze] staje się zdolny do
aktywności biologicznej dopiero wtedy, gdy w tkance mózgowej zostaje
przekształcony… w estrogen. Tym zatem, co tak naprawdę czyni mężczyznę
mężczyzną, jest żeński hormon płciowy, który odpowiada na przykład za
owulację. Czyż to nie chichot biologii?
MIT NUMER 8

Wykorzystujemy zaledwie 10 procent


możliwości mózgu

Przejdziemy teraz do mojego ulubionego mitu na temat mózgu. Gdybym


miał przyznawać medale za popularność, ten z pewnością zdobyłby złoto.
Z pewnością i wam zdarzyło się go kiedyś słyszeć: podobno wykorzystujemy
zaledwie 10 procent naszego mózgu. Innymi słowy, cały czas pozostaje nam
do dyspozycji aż 90 procent, które tylko czeka, byśmy wreszcie zechcieli je
uruchomić. Spróbujcie to sobie wyobrazić: za jednym zamachem
moglibyśmy aż dziesięciokrotnie zwiększyć swoje możliwości intelektualne!
Zafascynowanym tymi wyliczeniami czytelnikom chciałem przedstawić
jakieś twarde fakty. Zacząłem więc szukać źródeł tej tajemniczej legendy.
Skoro powtarza ją tyle osób, musi być w niej ziarno prawdy, jakaś naukowa
podstawa – myślałem. Po miesiącach wyczerpujących poszukiwań muszę
jednak stwierdzić, co następuje: nic z tego. Nie istnieje ani jedno wiarygodne
źródło, nie ma żadnych doniesień naukowych czy choćby jakiegoś
nawiedzonego badacza, który potrafiłby wyjaśnić, skąd w ogóle wzięła się ta
koncepcja. Zamiast tego natrafiłem na stos poradników, obiecujących, że
pomogą rozwinąć w pełni potencjał mózgu i bez problemu przeskoczyć
barierę nieszczęsnych 10 procent.
Już w tym momencie widać pierwszy powód, dla którego mit ten wciąż ma
się tak dobrze: ktoś po prostu puścił kiedyś w świat taką plotkę! A że mózg
sam nie jest w stanie się bronić, każdy może na jego temat głosić, co mu się
żywnie podoba. W końcu nie tak łatwo sprawdzić, ile procent masy
mózgowej rzeczywiście wykorzystujemy. Potrzeba do tego nowoczesnej
aparatury i gruntownej wiedzy neurobiologicznej, a zaledwie kilka dekad
temu nie dysponowaliśmy jeszcze ani jednym, ani drugim. Cóż było więc
prostszego niż puścić w obieg kolejną legendę, zwłaszcza że mózg jest tak
wdzięcznym do tego obiektem?
Ponadto koncepcja 10 procent jest zrozumiała i naprawdę fascynująca.
Każdy coś tam słyszał o podświadomości, zetknął się więc z poglądem, że
w naszym mózgu dzieją się rzeczy, o których nie mamy zielonego pojęcia.
Czy w takiej sytuacji nie wydaje się logiczne, że do racjonalnego myślenia
wykorzystujemy zaledwie ułamek możliwości mózgu? Wrażenie to zdają się
potwierdzać także codzienne doświadczenia. Gdy ostatnio tak się
nieszczęśliwie złożyło, że zasiedziałem się przed popołudniowymi
programami w telewizji, miałem szczerą nadzieję, że uczestnicy oglądanego
przeze mnie pseudodokumentalnego tasiemca naprawdę wykorzystują nie
więcej niż 10 procent możliwości swoich mózgów.

Myślowy szum tła

Co na ten temat mówi neurobiologia? W kontekście tytułu niniejszej książki


odpowiedź raczej nie zaskoczy czytelników: to kompletna bzdura! Wierutne
brednie! W tym akurat micie nie ma ani krzty prawdy i można to wykazać
choćby za pomocą metod obrazowania mózgu.
Ponieważ do czytania tej książki wykorzystujecie z całą pewnością więcej
niż 10 procent mózgu, bez trudu przypomnicie sobie mit numer 1:
Neurobiolodzy potrafią czytać w myślach. Była tam mowa o rozmaitych
technikach pozwalających podejrzeć mózg przy pracy. Wszystkie te metody
pokazują, że mózg jest aktywny przez cały czas i nigdy, ani przez moment
nie jest tak, że 90 procent wałkoni się bezczynnie.
Mamy do dyspozycji funkcjonalny rezonans magnetyczny, czyli „skaner
mózgu”. Jak już wiemy, w badaniu tym sprawdza się przepływ krwi, dzięki
czemu można z grubsza wnioskować, które obszary są w danej chwili
szczególnie aktywne. Gdy przyglądamy się powstałym na monitorze
obrazom, widać zwykle, że pewne rejony lśnią żywą czerwienią, reszta
natomiast pozostaje szara i nieciekawa. Na pozór to ewidentne potwierdzenie
zasady 10 procent. Trzeba jednak pamiętać, że oglądane przez nas obrazy
zostały przetworzone cyfrowo w taki sposób, by można było dostrzec
minimalne zmiany ukrwienia, są to więc, jak mawiają informatycy, „obrazy
różnicy”. Tak naprawdę w całym mózgu nieustannie wre praca. Ukrwienie
zmienia się ciągle we wszystkich jego rejonach, a każdy z nich (złożony
z milionów komórek nerwowych) bez przerwy dostosowuje swoją aktywność
do bieżącej sytuacji. Wszystko to jest tak pogmatwane, że trzeba używać
skomplikowanych programów komputerowych, by w tym rozgardiaszu
wychwycić jakiś dający się rozpoznać sygnał. Ponadto ów szum tła (ciągła
aktywność sieci komórek nerwowych) nie ogranicza się do jednego obszaru.
Przez cały czas aktywne są wszystkie obszary mózgu, istotnie przyczyniając
się do naszego myślenia i odczuwania.
Aplauz neuronów

Również badanie elektroencefalograficzne (EEG) dowodzi, że w mózgu bez


ustanku trwa gorączkowa praca. W tym przypadku, zamiast pośrednią
metodą badać aktywność określonych grup neuronów na podstawie zmian
przepływu krwi, badanym zakłada się na głowę zabawny czepek z wszytymi
elektrodami. Elektrody te rejestrują pola elektryczne, powstające podczas
wysyłania impulsów przez neurony. Przy tej okazji dzieją się ciekawe rzeczy.
Okazuje się mianowicie, że neurony to istoty niezwykle towarzyskie. Dlatego
nigdy nie wysyłają sygnałów samotnie, tylko umawiają się i przesyłają je
jednocześnie, czyli synchronizują swoją pracę. A nam w to graj, bo
powstające w ten sposób pola elektryczne są wystarczająco silne, by mierzyć
je z zewnątrz.
Słyszy się często, że za pomocą EEG można „odczytać prądy mózgowe”.
Brzmi to dosyć groźnie, ale nie jest do końca prawdą. W rzeczywistości
bowiem technika ta pozwala tylko uwidocznić zmienność pól elektrycznych,
pokazać, jak raz słabną, a raz przybierają na sile. I teraz niespodzianka: otóż
wspomniane pola elektryczne (oraz ich wahania) wytwarzane są przez cały
czas. Bez względu na to, w którym punkcie głowy dokonujemy pomiarów,
bez względu na to, która jest godzina, czy akurat śpimy albo jemy lód na
patyku, grupki komórek nerwowych niezmiennie wysyłają impulsy, które
razem tworzą pola elektryczne. Podstawowa zasada interpretacji wyniku
brzmi: im wolniejsze zmiany pola, tym mniej skupiona jest uwaga. Na
przykład w głębokim śnie pole zmienia się trzykrotnie w ciągu sekundy.
Natomiast gdy w skupieniu przyswajacie sobie nowe informacje (czyli –
mam nadzieję – właśnie w tej chwili), pola potrafią zmienić się nawet do 70
razy w ciągu sekundy. Nigdy jednak nie zanikają całkowicie.
Grupy neuronów są zatem aktywne bez chwili przerwy i umawiają się na
wspólne wysyłanie impulsów. Co ciekawe, nikt nie wie, dlaczego tak się
dzieje – ani też, na jakich dokładnie zasadach odbywa się ta współpraca. To
całkiem inaczej niż w przypadku chóru, gdzie każdy nuci sobie pod nosem
melodię, i dopiero gdy dyrygent zestroi ze sobą fale dźwiękowe wszystkich
wykonawców, z szumu tła powstaje śpiew. W mózgu nie ma przecież
dyrygenta. Nie jest on zresztą neuronom do niczego potrzebny, bo komórki
nerwowe po prostu nie potrafią się powstrzymać od wysyłania impulsów.
Nawet gdy wyhodujemy kolonię takich komórek in vitro, już po kilku
tygodniach przystąpią do generowania impulsów. Zrobią to całkiem
spontanicznie, bez żadnego odgórnego nakazu. W mózgu zaś, gdzie wiele
komórek nerwowych znajduje się tuż obok siebie, dochodzi przy tym do
synchronizacji ich pracy. Najtrafniejsze porównanie to chyba klaszcząca
widownia. Gdy wiele osób bije brawo jednocześnie, z początku aplauz
wypada dość chaotycznie i przypadkowo, tworząc coś w rodzaju „klaskania
tła”. Jeżeli jednak brawa trwają dostatecznie długo, często stają się rytmiczne
i zsynchronizowane – zupełnie spontanicznie, bez udziału wodzireja.
Podobnie dzieje się w mózgu. Nawet gdy nie zastanawiamy się nad czymś
świadomie, cały czas trwa „aplauz neuronów”, mentalny szum tła.

W pałacu olśnienia

Nietrudno sobie wyobrazić, że skoro w mózgu przez cały czas toczą się
rozmaite prace, w których biorą czynny udział wszystkie komórki, to zużycie
energii musi być tam całkiem spore. Zapewne obiła wam się o uszy inna
pogłoska, zgodnie z którą mózg zużywa 20 procent łącznej energii
wytwarzanej przez człowieka w stanie spoczynku, mimo że masa mózgu
stanowi zaledwie 2 procent masy całego ciała. I wiecie co? Choć brzmi to
nieprawdopodobnie, jest akurat prawdą!
Ciągłe generowanie impulsów nerwowych i wydzielanie substancji
przekaźnikowych to naprawdę wyczerpujące i pracochłonne zajęcie. Nasze
pozostałe narządy nie są aż tak ambitne i od czasu do czasu robią sobie
przerwę – dlatego na przykład mięśnie czy jelita są obficie zaopatrywane
w substancje odżywcze dopiero wtedy, gdy mają coś do roboty. W mózgu
sytuacja wygląda inaczej. Zużycie energii jest tu właściwie stałe, dopływ
krwi też zmienia się bardzo nieznacznie, niezależnie od tego, czy akurat
czytacie tę książkę czy może przypomina wam się ona we śnie.
W tym momencie można sobie zadać pytanie, po co to wszystko. Czemu
mózg nie może (cały lub przynajmniej w jakiejś części) po prostu się
wyłączyć od czasu do czasu? Powstał przecież w rezultacie milionów lat
ewolucyjnej selekcji. Jasne jest, że w takim razie na pewno nie obciążałby się
zbędnym balastem 90 procent niewykorzystywanej masy – ale dlaczego musi
od razu popadać w drugą skrajność i nieustannie zużywać aż tyle energii?
Nie wątpię, że jesteście oszczędni oraz dbacie o środowisko, dlatego
w domu zapalacie światło tylko tam, gdzie jest coś do zrobienia. Zakładając
więc, że macie dwupoziomowy apartament, złożony z 10 pomieszczeń
(czego wam szczerze życzę!), ale siedzicie akurat w kuchni, wykorzystujecie
właśnie 10 procent „potencjału oświetleniowego” swojego domu. Na
podobnej zasadzie wiele osób wyobraża sobie pracę mózgu. Jest naturalne, że
należy mądrze gospodarować zasobami i zapalać światło tylko tam, gdzie
rzeczywiście jest potrzebne.
Jednak w mózgu jest inaczej. Żeby pozostać przy naszym porównaniu,
mózg to nie przestronny apartament, tylko gigantyczny pałac, rozjarzony
przez cały czas jak choinka. Niemal we wszystkich pomieszczeniach ciągle
pali się światło, bo też niemal wszędzie toczy się praca. Wiąże się to z tym,
że działanie mózgu opiera się na zasadzie fundamentalnie różnej od tego, co
znamy z własnych doświadczeń zawodowych.
Praca mózgu a wyrzucanie butów

Intensywnie używane przedmioty w pewnym momencie nadają się już tylko


na śmietnik, bo po prostu się zużywają. Aby rzeczy służyły nam jak
najdłużej, trzeba z nich, po pierwsze, rozsądnie korzystać, a po drugie, często
je naprawiać. Jeśli chodzi na przykład o parę butów, należy ją jak najrzadziej
nosić, wtedy przez długi czas będzie dobrze się prezentować i w pełni
nadawać do użytku. Tymczasem w mózgu sprawa ma się z goła inaczej.
Moja siostra jest dumną posiadaczką całej kolekcji mniej i bardziej
efektownego obuwia. Załóżmy, że ma pięćdziesiąt par. Część tych butów
nosi częściej, inne stosunkowo rzadko. Gdyby postanowiła uporządkować
swoją kolekcję na podobnej zasadzie, jak organizują to komórki nerwowe
w mózgu, na początek musiałaby sprawdzić, w których butach chodzi
najczęściej – i właśnie tę parę ciągle nosić i ulepszać, zaopatrując ją w nowy
typ obcasów czy udoskonalone podeszwy. Buty, które wprawdzie pięknie
wyglądają, ale niemal nigdy nie trafiają na stopę, należałoby zaś najpierw
zidentyfikować i odłożyć, a następnie w jakimś momencie wyrzucić. Żeby
bowiem but zasłużył sobie na miejsce w kolekcji, musi być używany. W ten
sposób siostra zredukowałaby liczbę butów do, powiedzmy, dziesięciu par,
które nosiłaby cały czas. Ani jeden but nie stałby po prostu w szafce,
czekając na lepsze czasy. Można tę sytuację skomentować tak: o ile przed
przystąpieniem do selekcji siostra wykorzystywała swoją kolekcję w 20
procentach, po zakończeniu selekcji udział ten wzrósłby do 100 procent.
Od czasu do czasu siostra sprawia sobie nową parę butów. Przyjmijmy
roboczo, że dzieje się to stosunkowo rzadko (choć to śmiałe założenie,
spytajcie ją sami). Nowa para musi jednak być w częstym użyciu, by
właścicielka się jej nie pozbyła. Może się nawet zdarzyć, że jedna z nowych
par będzie noszona częściej niż któraś z wcześniej nabytych. Wówczas to
tamtą należałoby usunąć, by nowa mogła zająć jej miejsce. Oprócz tego
liczba i rodzaj butów, jakie ma moja siostra, nie byłyby nigdy ustalone
z góry, lecz uzależnione od miejsca pobytu i trybu życia. A że siostra
najczęściej przebywa w Australii, w jej szafie znalazłoby się przede
wszystkim lekkie obuwie letnie. Zmieniłoby się to jednak, gdyby postanowiła
wrócić do Europy Środkowej, gdzie często siąpi. Wówczas zostałaby jedna
para szczególnie fajnych japonek, reszta natomiast musiałaby ustąpić bardziej
solidnym butom. Krótko mówiąc, jej kolekcja dynamicznie dostosowywałaby
się do miejsca pobytu i w zależności od otoczenia i potrzeb mogłaby się
zwiększać lub zmniejszać.
Nie chcę oczywiście stawiać mózgu na równi z butami i przyczyniać się
w ten sposób do stworzenia kolejnego neurologicznego mitu. Podkreślam
więc: podstawowe zadanie mózgu nie polega na wybieraniu butów.
Powyższy przykład pozwala mi jednak zobrazować naczelną zasadę, która
w obu przypadkach jest bardzo podobna, tyle że w mózgu nie ma butów,
a synapsy (połączenia pomiędzy komórkami nerwowymi) oraz – to bardzo
ważna różnica! – nie ma nikogo, kto zajmowałby się usuwaniem owych
połączeń i samych komórek nerwowych, bo te ostatnie biorą sprawy w swoje
ręce. Jednak zasada jest podobna: neurony i ich synapsy muszą być używane,
inaczej obumierają. Na dodatek często aktywowane synapsy są
rozbudowywane i ulepszane. Dzięki temu następnym razem są lepiej
przygotowane do spełnienia swego zadania.

Nieustanne neuronalne sprzątanie

Zaraz po narodzinach dysponujemy pewną nadwyżką połączeń


synaptycznych. Oznacza to, że komórki nerwowe są ze sobą połączone aż
nazbyt gęsto. Większość z tych kontaktów nie jest jednak do niczego
potrzebna i można je określić mianem zaśmiecających dodatków. Dlatego
w ciągu pierwszych lat życia aż do okresu dojrzewania są one konsekwentnie
redukowane63. Pozostają tylko te połączenia, z których rzeczywiście często
się korzysta. I podobnie jak ścieżynka staje się coraz szersza i lepiej
wydeptana, im częściej się nią chodzi, tak połączenia synaptyczne w miarę
użytkowania robią się coraz bardziej wydajne i stabilne. Komórki nerwowe
opracowały bowiem przemyślną metodę nieustannego „podrasowywania”
synaps. Jeżeli dana synapsa jest pobudzana szczególnie silnie, komórka
przystępuje do wytwarzania cząsteczek strukturalnych, które sprawiają, że
synapsa się powiększa i staje bardziej wydajna. Zwiększa się też ilość
magazynowanych w niej substancji przekaźnikowych i rośnie synteza białek
usprawniających ich wydzielanie. Krótko mówiąc, każdy silny impuls
nerwowy stanowi dla komórki sygnał, by wzmocnić daną synapsę. Natomiast
nieużywane kontakty stają się stopniowo coraz słabsze, aż w końcu
obumierają.
Wspomniana redukcja kontaktów odbywa się na wielką skalę – w ciągu
pierwszych dwudziestu lat życia zanika blisko połowa pierwotnych połączeń
pomiędzy komórkami nerwowymi. Na początku naszego życia obumiera też
wielka ilość neuronów. Pozostaje tylko to, co się sprawdziło i podlegało
częstej aktywacji. I tak będzie już do końca życia. Co prawda z czasem sam
proces przebiega znacznie wolniej niż w pierwszych dwóch dekadach, jednak
synapsy muszą nieustannie dowodzić swojej przydatności, by zagrzać
miejsce w mózgu. W ten sposób eliminowany jest niepotrzebny balast
(podobnie jak nieużywane buty z szafy). Komórkę nerwową sporo przecież
kosztuje utrzymywanie sprawnej synapsy z zapasem substancji
przekaźnikowych. Jak więc widać, mózg ma swoje sposoby na oszczędzanie
energii.
W tym miejscu chciałbym jeszcze raz podkreślić podstawową zasadę
funkcjonowania mózgu, mianowicie zdolność do samoorganizowania się. Nie
ma w nim nikogo, kto usuwałby zbędne komórki nerwowe i ich połączenia
(tak jak robi to rzeźbiarz, wykuwając posąg, albo moja siostra, wyrzucając
buty). Zadanie to komórki wykonują same. Każdy bodziec powoduje, że się
wzmacniają i wydajniej generują i przewodzą impulsy. Mają nawet
możliwość trwałego tworzenia nowych synaps, o ile wraz z upływem czasu
staje się to uzasadnione.
O tym jednak, który bodziec jest ważny, a który nie, każdy z was decyduje
na własną rękę. Bo to wy, moi drodzy czytelnicy, nieustannie dostarczacie
swoim mózgom informacje i bodźce zmysłowe, przetwarzane następnie
w sieci neuronów. Dzięki temu połączenia są na bieżąco modyfikowane
i w zależności od potrzeb wzmacniane lub osłabiane. A zatem wasz obecny
mózg stanowi produkt wszystkich informacji, jakie kiedykolwiek do was
dotarły. Jest przez to tworem absolutnie wyjątkowym i niepowtarzalnym.

Use it or lose it!

Wyraźnie widać więc, dlaczego mózg zawsze pracuje pełną parą. Żadna jego
część nie pozostaje niewykorzystana. Gdyby była, te nieużywane sieci
komórek nerwowych i ich synapsy – słynne 90 procent – dawno już
zostałyby wyeliminowane. Działa tu zasada „wykorzystaj lub wyrzuć”,
bardziej znana zapewne w angielskim brzmieniu use it or lose it. Owa
eliminacja nie oznacza jednak nic złego. Przeciwnie, właśnie dzięki niej
mózg pracuje coraz wydajniej. Nie marnuje energii na niepotrzebne
uruchamianie dużych sieci, tylko skupia się na ważnych obliczeniach.
To, co obserwujemy w fMRI i EEG, czyli nieustająca aktywność dużych
zgrupowań komórek nerwowych, stanowi rezultat wieloletniego procesu
selekcji, który zdołały przejść tylko najlepsze i najbardziej przydatne neurony
i ich punkty kontaktowe.
A co najlepsze, im częściej korzystamy z danych synaps, tym lepiej one
działają. Każde kolejne użycie stanowi bowiem dla komórki bodziec, by dalej
rozbudowywać lub umacniać dane połączenie. Dlatego przy intensywnie
używanych synapsach wciąż się coś poprawia i reperuje. Natomiast synapsy
nieużywane powoli zanikają. W rezultacie pozostają tylko te, z których
rzeczywiście często się korzysta.

100 procent to wcale nie wszystko

Mam nadzieję, że nie zasmuciłem was tym, że tak naprawdę wykorzystujemy


znacząco więcej niż 10 procent mózgu. W legendzie tej kryje się
optymistyczna wizja, że za pomocą jakichś sprytnych sztuczek będzie można
„eksploatować” mózg lepiej i wszechstronniej niż do tej pory. Dlatego na
zakończenie chciałbym dodać kilka słów dla otuchy (jakkolwiek
paradoksalnie by zabrzmiały): mimo że wasz mózg już w tej chwili
wykorzystuje 100 procent możliwości, może pracować jeszcze lepiej.
A to dlatego, że mózg ma niebywałą wręcz zdolność adaptacji i potrafi
wciąż zwiększać własne „moce produkcyjne”. Wbrew pozorom
stuprocentowe wykorzystanie nie oznacza wcale, że dotarł on już do granicy
własnych możliwości. Jest odwrotnie: właśnie dzięki temu, że mózg pracuje
pełną parą, może przyswajać kolejne informacje. W pewnym momencie
może bowiem zmienić strukturę sieci neuronalnej i zbudować nowe
połączenia, co stanowi podstawowy warunek uczenia się. W żadnym razie
nie jest tak, że mózg ma do dyspozycji określoną pojemność (coś w rodzaju
powierzchni magazynowej lub miejsca na twardym dysku) i stopniowo coraz
bardziej się zapełnia, aż w pewnym momencie nie pomieści już nic więcej.
„Magazyn” mózgu ma zawsze taką wielkość, jaka akurat jest potrzebna:
może stać się większy i lepiej zorganizowany, jeśli się więcej uczymy, lub
zmniejszyć się, gdy przestajemy go używać. Tak jak kolekcja butów mojej
siostry będzie w Australii wyglądać inaczej niż w Niemczech, tak i w tym
przypadku wszystko zależy od otoczenia, w jakim mózg się aktualnie
znajduje. O szczegółach jego wewnętrznej architektury przesądzają bodźce
i wrażenia, pracowicie wyłuskiwane przez niego z otaczającej rzeczywistości.
One też decydują, na ile „mądry” będzie jego właściciel.
To naprawdę zdumiewająca metoda budowania. Dlatego poświęcam jej
kolejny rozdział: Wytrenowany mózg jest mądrzejszy.
MIT NUMER 9

Wytrenowany mózg jest mądrzejszy

Bardzo chciałbym mieć „supermózg”. Mógłbym w kwadrans nauczyć się na


pamięć wszystkich numerów telefonicznych, jakie mam w komórce, albo
Króla olch Goethego, albo zapamiętać nazwiska wszystkich uczestników
Tańca z gwiazdami czy cokolwiek innego…
Nadzwyczajna moc mózgu, fantastyczna inteligencja, zdumiewająca
pamięć – to byłoby coś. Ale skoro takie prezenty dostajemy od dobrych
wróżek tylko przy narodzinach, pozostaje nam później nad nimi pracować,
względnie „trenować”. Brzmi to bardzo sportowo i dobrze, bo mózg
powinien być wysportowany: tak samo jak mięsień, który rozwija się, jeśli
podda się go odpowiedniemu treningowi.
Jeśli czytaliście uważnie do tej pory (a bardzo na to liczę), wiecie już, że to
słuszna myśl. Mózg dostosowuje się przecież do napływających z otoczenia
bodźców, zmienia swoją strukturę, przebudowuje połączenia pomiędzy
komórkami nerwowymi. Nic nie jest dane raz na zawsze, a mózg za każdym
razem jest tak sprawny, jak tego w danym momencie wymagamy. Dalej
zatem, nie pozwólmy szarym komórkom zardzewieć! Uwaga, neurony: do
biegu, gotowi, start!
Systematyczne trenowanie mózgu, tak by stawał się coraz sprawniejszy
i doskonalszy, to nadzwyczaj kusząca wizja. Nic dziwnego, że rozwinęła się
już cała „branża treningowa”, obiecująca zwiększenie jego wydajności za
sprawą indywidualnie dobranych ćwiczeń. Hasło „trening mózgu” ma moc
magicznego zaklęcia, co krok natykamy się więc na kolejne programy
komputerowe i broszury z łamigłówkami, które mają nam pomóc zwiększyć
zdolność koncentracji, wyostrzyć wyobraźnię przestrzenną, podnieść tempo
pracy, krótko mówiąc, wyszlifować inteligencję. Rewelacja!
Ale na tym nie koniec. Nie dość, że dzięki odpowiednio dobranym
ćwiczeniom podrasujemy swój mózg, to jeszcze będziemy się przy tym
bawić! Wyraźnie mówią o tym stosowne naukowe czasopisma. „Jogging
mózgu: – frajda z uczenia się” – takim tytułem Apotheken Umschau w 2005
roku narobił mi apetytu na trening mózgu64. Lekko, łatwo i przyjemnie
wprowadzę swój mózg na wyższe obroty – świat może być taki piękny!
Wystarczy zagrać w sympatyczną komputerową gierkę i zaraz potem cieszyć
się sprawniejszym mózgiem. Któż zdołałby się oprzeć pokusie?
Moda na „mózgowy jogging” liczy już sobie z górą dziesięć lat. Ale jej
owoce wciąż sprzedają się jak świeże bułeczki. Książki, czasopisma, kursy
dla dorosłych, programy komputerowe (od Lumosity po Dr. Kawashimę)…
Powstały całe firmy wyspecjalizowane w „spersonalizowanym treningu
mózgu”, które oferują odpowiednie programy i aplikacje. A żeby nadać temu
wszystkiemu odrobinę „naukowego” poloru (nie chodzi przecież o to, żeby
po prostu załadować na komórkę aplikację bez naukowo potwierdzonych
korzyści), cytuje się na chybił-trafił wyniki takich czy innych badań, mające
dowieść, że jogging mózgu istotnie zwiększa ogólne możliwości
intelektualne. Do tego jeszcze kilka zdjęć mądrze wyglądających posiadaczy
tytułów naukowych w białych kitlach na stronie głównej i od razu całość
wygląda o wiele poważniej. W końcu skoro mają z tym coś wspólnego
neurobiolodzy, nie może to być przecież kompletna ściema.
Czy rzeczywiście taki trening rozwija pamięć, inteligencję, kreatywność
i ogólnie możliwości mózgu? Czy naprawdę słuszne jest założenie, że kiedy
posortujemy obrazki warzyw i owoców na monitorze komputera, to potem
nigdy nie zapomnimy już, co mieliśmy kupić? A może to tylko
marketingowe sztuczki producentów aplikacji?

Mózg skacze wzwyż

Zasadność metafory „joggingu mózgu” można doskonale ocenić, analizując,


jak przebiega prawdziwy trening sportowy. Wyobraźcie sobie, że macie
trenować przeskakiwanie poprzeczki umieszczonej na wysokości 1,40 m.
Wybieramy więc nie jogging, tylko skok wzwyż. Jak najlepiej się do tego
zabrać? Nie mając żadnej specjalistycznej wiedzy na ten temat, spróbujecie
być może po prostu ćwiczyć do skutku przeskakiwanie nad poprzeczką. Nie
rozbieg, nie technikę, nie koordynację ruchów – skoro trzeba przeskoczyć, to
na tym się koncentrujecie.
Pojawia się jednak pytanie, czy cokolwiek zyskamy, jeśli będziemy przez
cały czas tylko podskakiwać. Może należałoby też poćwiczyć przenoszenie
ciała nad poprzeczką, że o rozbiegu nie wspomnę? Po zakończeniu takiego
niekonwencjonalnego treningu z całą pewnością poprawiłaby się wasza
skoczność, jednak nie oznacza to jeszcze, że odnosilibyście sukcesy
w autentycznym skoku wzwyż.
Tymczasem właśnie taki trening fundujecie sobie podczas „joggingu
mózgu”. Oczywiście poszczególne ćwiczenia dają zajęcie mózgowi
i w pewnym sensie go usprawniają – ale tylko w bardzo ograniczonym
zakresie. Tak samo jak podczas podskakiwania w miejscu trenuje się
zaledwie część umiejętności potrzebnych do skoku wzwyż, tak izolowane
ćwiczenia mózgu rozwijają tylko ułamek kompetencji intelektualnych.
Tymczasem inteligencja i kreatywność zwiększają się właśnie wskutek
jednoczesnego wykorzystywania wielu różnych umiejętności. Dlatego mądry
trening mózgu oznacza więcej niż łączenie słów w pary czy wstawianie cyfr
w odpowiednie miejsce.
Współczesna neurobiologia nie stawia pytania o to, czy jogging mózgu
w ogóle coś nam daje. Oczywiście, że daje: zwiększa zdolność radzenia sobie
z typem zadań, które akurat rozwiązujemy. Kluczowe pytanie dotyczy
możliwości przenoszenia tych efektów na inne sfery życia. Naukowo nazywa
się to zjawiskami „bliskiego i dalekiego transferu”. Ten pierwszy oznacza, że
skoro jesteśmy w stanie wykonać skok wzwyż z miejsca, to poradzimy sobie
także z wskoczeniem na skrzynię. Ten drugi znaczy w tym przypadku, że za
sprawą odbytego treningu skoku z miejsca lepiej będą nam wychodzić skoki
wzwyż, w dal i może jeszcze narciarskie.
Właśnie tego rodzaju obietnicami kusi nas często branża „treningu
mózgu”. Za pomocą „naukowo opracowanych gier” można „ćwiczyć
koncentrację i zdolność zapamiętywania” (to mniej więcej obiecuje
popularny program Lumosity) albo „stymulować mózg i utrzymać go
w młodzieńczej formie” (to z kolei mówi pewien japoński doktor w imieniu
Nintendo®). Zapowiedzi są szumne: można poprawić ogólną sprawność
mózgu albo przynajmniej rozwinąć określone umiejętności i zdolności (np.
kreatywność lub pamięć). Podstawowe pytanie, które pojawia się przy okazji
naukowych badań nad „joggingiem mózgu”, brzmi jednak tak: czy trening za
pomocą programu komputerowego istotnie przekłada się na ogólną
sprawność intelektualną? Czy da się zaobserwować efekt dalekiego transferu,
czy też wszystko to jest po prostu mentalnym „skokiem wzwyż z miejsca”?

Testowanie sprawności mózgu

Stosunkowo łatwo można zmierzyć efekt bliskiego transferu. Podczas


testowania skuteczności komercyjnych programów do trenowania mózgu
okazało się, że istotnie rozwijają one te umiejętności, które się regularnie
ćwiczy65. Dobrze widać to na przykładzie testów sprawdzających pamięć
roboczą, podczas których należy na pewien czas zapamiętać określone
kombinacje cyfr i (lub) symboli. Im częściej badani trenowali tę umiejętność,
tym lepiej zapamiętywali nie tylko wspomniane kombinacje, ale także inne
obiekty w podobnie sformułowanych zadaniach. Kto by pomyślał?! Mózg
rzeczywiście potrafi dostosować się do nowych zadań. Trudno to jednak
nazwać przełomowym odkryciem.
Stosunkowo często obserwowano też dwa efekty bliskiego transferu:
osoby uprawiające trening mózgu często pracowały szybciej, donosiły też, że
lepiej i efektywniej myślą. W obu przypadkach zyskujemy potwierdzenie, że
w wąsko zakreślonych granicach trening mózgu rzeczywiście działa. Gdy
często wykonujemy określone zadanie, zyskujemy wiedzę, jak najlepiej się je
rozwiązuje, i opracowujemy stosowną strategię. Jeżeli każdego dnia
szeregujemy pięćset figur według wzoru, w pewnym momencie orientujemy
się, gdzie kryje się haczyk. Jednak nie oznacza to wcale, że nasz mózg zyskał
nagle większą moc. Gdyby kierowca Formuły 1 poznał skrót na trasie
wyścigu, dotarłby szybciej do celu, ale silnik samochodu przecież by się
przez to nie zmienił. Podniesienie sprawności dotyczy tylko bardzo podobnie
sformułowanych zadań. Ostatecznie nasz kierowca zna skrót jedynie na
konkretnej trasie, a nie w dowolnym rajdzie.
Nie można też nie doceniać innego efektu treningu mózgu: podnosi on
motywację. Skoro wiem, że właśnie odbyłem „najskuteczniejszy
komputerowy trening mózgu, oparty na najnowszych odkryciach
naukowych”, rosnę we własnych oczach i czuję się pewniej. Na tle grupy
kontrolnej wypadam lepiej już choćby z tego względu, że pragnę sobie
udowodnić skuteczność treningu. Inaczej po co byłoby się tak męczyć!
Ten efekt również można zmierzyć w sposób naukowy. Uczestnicy, którzy
mają za sobą „trening mózgu”, są bardziej zmotywowani. Dlatego nie tylko
wypadają lepiej w trenowanych wcześniej zadaniach, ale również podobne
ćwiczenia wykonują sprawniej niż członkowie grupy kontrolnej, którzy
wcześniej nie ćwiczyli mózgu66. Po prostu bardziej wierzą w siebie
i zabierają się także za trudniejsze zadania, przy których pozostali składają
broń. Na pierwszy rzut oka zdaje się to potwierdzać efekt dalekiego transferu,
w gruncie rzeczy jednak „wytrenowani” uczestnicy badań mają po prostu
większą motywację. Zwiększona sprawność intelektualna wynika z efektu
placebo, który wystarcza do zniekształcenia rezultatów badań. Rzeczywistej
poprawy funkcji mózgowych nie udaje się jednak stwierdzić.

Cała prawda o treningach mózgu

Oczywiście w poważnych badaniach naukowych uwzględnia się takie


czynniki i nie próbuje porównywać jabłek z pomarańczami (a więc
uczestników wytrenowanych i niewytrenowanych). Przedmiotem szeroko
zakrojonych badań (z udziałem ponad jedenastu tysięcy uczestników)67 stały
się więc osoby mające za sobą zróżnicowane tematycznie treningi mózgu.
W przypadku jednej grupy był to na przykład trening koncentracji,
a w przypadku drugiej – logicznego myślenia i wnioskowania. Obie grupy
przechodziły trening mózgu niezależnie od siebie, jednak gdy na zakończenie
przed uczestnikami każdej z nich postawiono zupełnie nowe i odmienne
w treści zadanie (np. grę pamięciową), okazało się, że członkowie każdej
z grup radzili sobie z nim równie dobrze, względnie równie źle; nie było
żadnej różnicy pomiędzy osobami trenującymi w zupełnie odmienny sposób!
Jak gdyby badani przez cały czas treningu podskakiwali w miejscu i nie byli
w stanie przemieścić się nad poprzeczką, a tylko powtarzali wyuczony
podskok (czyli rozwiązywali takie zadania, jakie konkretnie trenowali,
natomiast nie stali się bardziej inteligentni w sensie ogólnym).
Nawet gdy na potrzeby badań naukowych nieco rozszerzymy pojęcie
treningu mózgu, nie da się stwierdzić efektów dalekiego transferu. Badani,
którzy grali na komputerze w gry strategiczne i – jak pokazano – poprawili
swoją zdolność koncentracji, wcale nie wypadali lepiej w testach na
koncentrację, które nie miały nic wspólnego z grą68. Nie jest więc tak, że jeśli
najpierw ładnie posortujemy na ekranie owoce i warzywa, wstawiając je
w stosowne ramki, to potem lepiej poradzimy sobie na zakupach.
Na tym nie koniec. W żadnych niezależnych badaniach (podkreślam tu
słowo „niezależne”, bo wiele eksperymentów finansują producenci
programów do „joggingu mózgu”) nie udało się ani razu stwierdzić efektu
dalekiego transferu. Nie będziemy zatem lepiej, bardziej twórczo pisać
tekstów tylko dlatego, że każdego ranka rozwiążemy krzyżówkę. Choć
oczywiście krzyżówki też mają swoje plusy: pewnego dnia będziecie mogli
stwierdzić bez chwili namysłu, że „kontrowersyjny włoski polityk znany
z gwałtownych wystąpień” na 10 liter to Berlusconi. Ale do czego wam to
potrzebne? Nie mam pojęcia.

Sucha zaprawa dla mózgu

Pojawia się zatem pytanie, czy jest w ogóle możliwe, by za pomocą prostych
ćwiczeń poprawić złożone zdolności kognitywne. Gdy zastanowimy się nad
tym, w jaki sposób pracuje mózg, łatwo mogą nasunąć się wątpliwości.
Ostatecznie inteligencja i kreatywność rozwijają się nie pod wpływem suchej
zaprawy, lecz praktycznych zastosowań. Nie ma więc sensu siedzieć
w Starbucksie z laptopem i łączyć słowa w pary według wzorca.
Porozmawiajcie lepiej z siedzącymi obok ludźmi, a ośrodek mowy więcej na
tym skorzysta.
Może przynajmniej zdolność logicznego myślenia poprawia się pod
wpływem częstego rozwiązywania sudoku? Nie ulega wątpliwości, że
sudoku wymaga odpowiedniego zestawiania informacji i wyciągania
(logicznych) wniosków, na dodatek może dawać sporą frajdę. Tyle że za
sprawą takiego „treningu” wasz mózg nie stanie się niestety mistrzem logiki.
A to dlatego, że mózg jest nieprawdopodobnym leniem i robi tylko to, co
absolutnie konieczne. Szybko się zorientuje, jak najlepiej rozwiązywać
sudoku, czyli odkryje optymalny sposób radzenia sobie z danym typem
zadania. Z biegiem czasu będzie w stanie robić to coraz szybciej, bo pozna
„drogę na skróty” i stojące za owymi skrótami wzorce myślowe; krótko
mówiąc, podniesie swoje możliwości w zakresie logiki kombinatorycznej.
Jeśli jednak w waszym zbiorze łamigłówek oprócz sudoku znajdzie się też
zadanie z logiki kulturowej – dajmy na to: „Który serial telewizyjny nie
pasuje do reszty: Chirurdzy, Dwóch i pół czy Leśniczówka Falkenau?
(odpowiedź: Leśniczówka Falkenau, bo to skarbnica niemieckiego
dziedzictwa kulturowego) – to mimo waszych wyszlifowanych za sprawą
sudoku kompetencji logicznych jesteście całkowicie bezradni, bo cały trening
ani na jotę nie przybliża was do prawidłowej odpowiedzi.
Na tym właśnie polega problem wielu ćwiczeń mających „rozruszać
mózg”: obiecują złote góry, a tymczasem pozwalają trenować tylko bardzo
konkretne i często do niczego nieprzydatne umiejętności (przynajmniej ja nie
mam pojęcia, do czego ktoś miałby potrzebować sudoku). Po co jednak mózg
miałby włączać te informacje w rozbudowaną sieć połączeń, skoro do
rozwiązania konkretnego testu trzeba zaledwie uszeregować czterdzieści
liczb? Do tego celu wystarczy przecież kilka podstawowych działań
matematycznych i po sprawie! Żeby poprawić ogólne zdolności kognitywne
mózgu, należałoby zastosować znacznie szerszą stymulację.
Wróćmy na chwilę do naszego skoku wzwyż. Naturalnie trenowanie
poszczególnych umiejętności osobno nie jest pozbawione sensu. Ćwiczenie
odbicia ze stania na pewno wam się przyda. Można też osobno trenować
szybkość albo rozciągać mięśnie, by gładko zeskoczyć na materac. W końcu
jednak wszystkie te umiejętności trzeba zintegrować w jeden wzorzec
ruchowy. Na tej samej zasadzie można „trenować” za pomocą programów do
joggingu mózgu i na przykład uczyć się zachowywania koncentracji pod
presją czasu. Jeśli jednak umiejętność ta pozostanie odosobniona, ćwiczenia
nie będą miały sensu. Można by je traktować jako sportową suchą zaprawę,
którą następnie włącza się do całości – tyle że tego właśnie się w tych
ćwiczeniach nie robi!

Mięsień mózgowy

Skoro – proponując analogię ze skokiem wzwyż – sam poniekąd odwołałem


się do mitu, że „mózg jest jak mięsień”, chciałbym teraz z całą stanowczością
podkreślić, że mózg bynajmniej mięśniem nie jest! Choć rzeczywiście
istnieje między nimi wiele podobieństw.
Istotnie zarówno mózg, jak i mięsień można wytrenować. Ta zasada
sprawdza się zresztą w całym organizmie: kość rośnie odpowiednio do sił,
które na nią oddziałują, i w ten sposób zyskuje stabilność. Skóra brązowieje
na słońcu i dzięki temu lepiej znosi szkodliwe promieniowanie UV.
Intensywnie użytkowane mięśnie rosną i zwiększają siłę. Natomiast mózgi…
No właśnie, co tak naprawdę dzieje się z mózgami? Zwiększa się ich
wielkość? Masa? Jeszcze coś innego?
Mózg, tak samo jak mięśnie, dostosowuje się do wymagań. W przypadku
mięśni oznacza to nieustającą walkę z groźbą zaniku, bo nieużywany mięsień
coraz bardziej marnieje. Każdy, kto musiał przez sześć tygodni nosić gips, po
czym ujrzał sflaczałą tkankę, zwaną niegdyś muskułem, wie, o czym mówię.
Z drugiej strony w konsekwencji częstego używania komórki mięśniowe
dostają sygnał do wzrostu. Dlatego mięśnie powiększają się wskutek
treningu.
Również mózg reaguje na zewnętrzne bodźce. Obszar w lewej półkuli,
w którym znajdują się ośrodki mowy, jest grubszy niż analogiczny obszar
w półkuli prawej. Można wykazać, że intensywny ośmiotygodniowy trening
pamięci (codziennie około 30 minut) prowadzi do powiększenia określonych
rejonów mózgu, przede wszystkim w obszarze czołowym, gdzie zawsze coś
się dzieje, gdy intensywnie myślimy69.
Ale uwaga: szczególnie w ostatnim czasie mnożą się doniesienia, że tym,
co zwiększa się w danym obszarze, nie jest po prostu masa komórek. Z całą
pewnością przy okazji pobudzania mózgu nie kiełkują też nowe komórki
nerwowe, bo, jak już wiemy, nowych neuronów w mózgu powstaje bardzo
mało. Również koncepcja, jakoby pod wpływem treningu tworzyły się
w mózgu „nowe fałdy i zakręty”, to kompletna bzdura. Architektura mózgu
w swych podstawowych zarysach nie zmienia się praktycznie w ogóle. Co
innego, jeśli mówimy o drobniutkich detalach sieci, czyli okablowaniu
komórek nerwowych; tu istotnie można nierzadko zauważyć pogrubienie
owych połączeń.
Podsumowując, owszem, mózg potrafi dostosowywać swoją strukturę do
bieżących zadań, jednak – inaczej niż w przypadku mięśni – nie odbywa się
to na zasadzie: im więcej powtórzeń, tym lepiej. O wiele istotniejsze jest,
w jaki sposób ukształtują się kontakty (synapsy) pomiędzy neuronami. Jak
już wiemy z poprzedniego rozdziału, owo dostosowywanie przebiega bez
żadnych „odgórnych instrukcji”, na zasadzie sprzężenia zwrotnego: to, co jest
często używane, ulega wzmocnieniu i następnym razem działa lepiej,
natomiast kontakty nieużywane podlegają z czasem eliminacji i dzięki temu
sieć staje się bardziej wydajna.
W ten sposób cała infrastruktura mózgu podlega nieustannym
ulepszeniom. Krok po kroku jest on w stanie coraz lepiej rozwiązywać
określone zadania – nie dlatego, że zwiększyła się masa komórkowa albo że
ogólnie przybyło synaps, tylko dlatego, że te ostatnie zostały w przemyślny
sposób przebudowane i dostosowane do nowych wyzwań. Czegoś takiego nie
jest w stanie dokonać byle mięsień, który tylko rośnie, ot tak, żeby lepiej
wyglądać w lustrze, co z kolei jest nieosiągalne dla mózgu, który na pierwszy
rzut oka prezentuje się (wybacz, Drogi Mózgu) dość paskudnie, a na dodatek
jest schowany pod pokrywą czaszki o grubości siedmiu milimetrów. Jego
maestria – zdolność do precyzyjnej przebudowy sieci neuronalnej – kryje się
w szczegółach.
Skoro dla rozwiązywania rozmaitych zadań kluczowe znaczenie ma, by
informacje przetwarzała cała sieć, trudno się dziwić, że taka czy inna gra na
komputerze zbyt wiele mózgowi nie da. Takie zadania pobudzają o wiele za
małe obszary w skupisku nerwów oraz trenują funkcje mózgu w oderwaniu
od siebie. W ten sposób nie ma mowy o efektach dalekiego transferu
i doskonaleniu ogólnych możliwości intelektualnych. Całkowicie
zignorowano tu bowiem sposób funkcjonowania mózgu, czyli to, że
równoczesne pobudzenie wielu obszarów w nowy sposób znacznie silniej
i trwalej wpływa na strukturę sieci neuronalnej niż jedna czy druga gierka na
pamięć.
Wniosek: dajcie sobie spokój z bajeczkami o „treningu mózgu”. Jeśli
chcecie mieć sprawniejszy mózg, postarajcie się o to w prawdziwym życiu
(a nie przed ekranem komputera). Spotykajcie się ze znajomymi, uprawiajcie
sport, rozmawiajcie, gotujcie, grajcie na instrumentach muzycznych,
podróżujcie – wszystko to rozwinie mózg znacznie bardziej niż dowolny
„spersonalizowany program treningu mózgu na bazie najnowszych odkryć
naukowych”. Takie ćwiczenia mogą stanowić miłą rozrywkę, ale
niekoniecznie przyczynią się do rozwoju inteligencji.
MIT NUMER 10

Uczymy się w zgodzie z własnym typem

Jako autor niniejszej książki cieszyłbym się niezmiernie, gdyby moi


szanowni czytelnicy nie zapominali natychmiast tego, co przed chwilą
przeczytali. W końcu nie po to zadałem sobie tyle trudu, żeby wszystko, co
piszę, lądowało potem gdzieś na boku. A i wy oczekujecie zapewne, że coś
wam przyniesie ta lektura, skoro zainwestowaliście w nią czas i pieniądze.
W jaki zatem sposób najlepiej przyswajać zawartość czytanej książki?
Wiele osób, które liznęły już trochę wiedzy na ten temat, odpowie:
„Wszystko zależy od indywidualnego typu uczenia się”. Na przykład
wzrokowcom wystarcza cicha lektura, słuchowcy zaś woleliby zapewne, by
odczytać im tę książkę na głos. A może za najlepsze uznalibyście
rozwiązanie dwa w jednym: w trakcie wykładu mógłbym wam objaśnić treść
i jednocześnie zaprezentować efektowne ilustracje. Każdy ma indywidualne
upodobania, jeśli chodzi o uczenie się: ktoś woli obrazki, ktoś tekst czytany
lub pisany, niektórzy lubią wszystko notować, a inni uczą się przy muzyce.
Teoria o typach uczenia się zdobyła popularność nie tylko w szkołach czy
na popularnych kursach, ale także wśród psychologów. Zgodnie z jej
założeniami każdy ma swój indywidualny styl uczenia się, preferowany kanał
informacyjny, poprzez który najlepiej przyswaja wiedzę. Szczególnie znana
jest wspomniana już wyżej koncepcja „kanałów zmysłowych”: ktoś jest
typem wizualnym (wzrokowcy), ktoś audytywnym (słuchowcy), a jeszcze
ktoś inny haptyczno-motorycznym (dotykowcy, czyli typ „chwileczkę, muszę
to zanotować”). Wyróżnia się też typ komunikacyjny, czyli osoby, które,
żeby przyswajać informacje, muszą o nich opowiedzieć własnymi słowami.
Na pierwszy rzut oka wydaje się to całkiem logiczne, przecież takie
rozróżnienia można spotkać nawet w testach na inteligencję: niektórzy
odznaczają się wyższą „inteligencją wizualną” i potrafią w mgnieniu oka
obracać w myślach bryły, inni z kolei są uzdolnieni językowo i z łatwością
żonglują słowami. Czy w tej sytuacji nie narzuca się wręcz przypuszczenie,
że każdy z owych „typów” w inny sposób przyswaja wiedzę?
A skoro tak, to czemu nie ułatwić sobie życia i na przykład nie ulepszyć
metod uczenia się słówek? Na początek trzeba określić własny typ uczenia
się (jak najłatwiej jest mi się uczyć: patrząc na słówka, słuchając ich,
zapisując czy powtarzając na głos?). Gdy już to ustalimy, pozostaje tylko
wykorzystać powyższą wiedzę i świadomie zastosować podczas
zapamiętywania. Nic nam przecież nie przyjdzie z tego, że sto razy
zapiszemy jakieś słówko, jeśli najlepiej uczymy się, słuchając. Dzięki
świadomości tego można zaoszczędzić mnóstwo czasu.
Taka koncepcja ma aż trzy zalety. Po pierwsze, świetnie wpisuje się
w naszą potrzebę bycia kimś wyjątkowym. Nie jestem już tępakiem, który
nie łapie koniugacji czasowników nieregularnych w starożytnej grece, tylko
„łączonym typem audio-haptycznym”, który, co zrozumiałe, potrzebuje
odpowiedniej metody nauczania. Po drugie, sugeruje, że wcale nietrudno
poprawić swoje wyniki w nauce – wystarczy określić swój typ, a następnie
konsekwentnie wdrożyć odpowiednie ćwiczenia. Po trzecie wreszcie,
zapewnia nam idealną wymówkę: gdy nauka nam nie idzie, można
podejrzewać, że dobrano nieodpowiednią metodę, bo my sami „uczymy się
po prostu trochę inaczej”.
Na podziale na typy można ponadto całkiem nieźle zarobić. Mnożą się
kursy, na których „uczy się, jak się uczyć”. Bez kłopotu kupicie książki,
wyjaśniające, jak najlepiej przygotować się do kolejnego egzaminu –
oczywiście z uwzględnieniem waszego indywidualnego typu uczenia się.
I wreszcie, odpowiednie programy komputerowe czy aplikacje na smartfon
pozwolą raz dwa określić, w czym kryje się tajemnica naszego stylu uczenia
się.
Mam więc nadzieję, że zdążyliście się już dowiedzieć, jaki typ uczenia się
reprezentujecie. Dzięki temu jest szansa, że to, co przeczytacie na kolejnych
stronach, nie uleci wam tak szybko z pamięci.

Co z tymi typami?

Zanim zaczniemy, mam do was jedną prośbę: spróbujcie oduczyć się tego, co
już wiecie. A mianowicie, że coś takiego jak typy uczenia się w ogóle
istnieje.
Jak dotąd nie udało się tego potwierdzić w żadnym naukowym
eksperymencie. Przeciwnie, wyniki nauki w najmniejszym stopniu nie
zależały od tego, czy badani przetwarzali informacje zgodnie ze swym
rzekomo preferowanym „stylem uczenia się” czy też tego nie robili.
Uczestnicy badania (w teorii przedstawiciele różnych typów) w każdej
sytuacji uczyli się równie dobrze. Nie miało znaczenia, czy przy tej okazji
otrzymywali więcej pomocy wizualnych czy akustycznych70. Nie grało też
roli, czy informacje przedstawiano w formie obrazów czy dźwięków.
W każdym przypadku obrazy lepiej zapadały w pamięć, także u „typów
audytywnych”71.
Cała koncepcja typów uczenia się to jedno wielkie samooszukiwanie się –
tyle na ten temat mówi nauka72. Statystycznie w badaniach nie udało się
stwierdzić odrębnych typów uczenia się ani ich od siebie odgraniczyć. Na
uwagę zasługuje natomiast coś innego (i można to wykazać w pomiarach):
ludzie chętnie sami wpadają w pułapkę „typologii”. Załóżmy, że ktoś uważa
się za wzrokowca. To wstęp do samospełniającego się proroctwa: skoro dana
osoba sądzi, że lepiej przyswaja wiedzę w postaci obrazów, dostosowuje do
tego swoją strategię uczenia się. Mózg zauważa takie rzeczy, nie jest przecież
głupi, dlatego konsekwentnie rozwija swoją, i tak całkiem niezłą, zdolność
kotwiczenia informacji w formie obrazów. Z czasem ktoś taki istotnie staje
się wzrokowcem, po prostu dlatego, że tego się po sobie spodziewał i ćwiczył
stosowne kompetencje.
Zaraz, zaraz! – mógłby zawołać tu niejeden z czytelników. – Skąd w takim
razie ewidentne różnice w sposobach przyswajania wiedzy na przykład
u uczniów? Przecież naprawdę są tacy, którzy koniecznie muszą sobie różne
rzeczy notować, a inni wolą podyskutować o tym w grupie. Spróbujmy zatem
dokładniej przyjrzeć się temu, jak przebiega w mózgu proces uczenia się.

Wpływowe neurony

Uczenie się stanowi dla mózgu zadanie nadzwyczajnej wagi. I – wierzcie lub
nie – mózg wprost uwielbia się uczyć, nawet jeśli ankiety przeprowadzane
wśród ósmoklasistów w dowolnej części Niemiec skłaniają do przeciwnych
wniosków. Gdyby mózg nie czerpał z nauki tak ogromnej przyjemności,
nigdy nie wykroczylibyśmy poza poziom wrzaskliwego niemowlaka. Choć
raczej tego nie pamiętamy, uczenie się sprawiało nam w tym okresie
nieprawdopodobną wręcz frajdę – a już niedługo stanie się jasne dlaczego.
Uczenie się oznacza nabywanie nowych wzorców zachowań lub nowych
informacji. Dane te nie są jednak magazynowane w mózgu niczym na
twardym dysku komputera. Informacja w mózgu zapisywana jest
w szczegółach architektury sieci neuronalnej. Prosty przykład: macie przed
sobą pyszny sernik. Fantastycznie pachnie i ma apetyczny złoty kolor. W tym
momencie sieć neuronowa w mózgu podlega aktywacji na specyficzny,
sernikowy sposób, w czym uczestniczą obszary przetwarzające zapachy,
obrazy, emocje, smaki i wspomnienia. Dopiero wszystkie te pobudzenia
składają się na łączną aktywność sieci komórek nerwowych. Owo „iskrzenie”
w sieci neuronalnej to sernik w całej krasie.
Gdy natrafiamy na nową informację, sieć neuronów podlega po raz
pierwszy aktywacji w ściśle określony sposób. Gdy informacja znika – tak
jak sernik w naszym brzuchu – przepada też wzorzec pobudzenia. Szkoda, bo
przecież chcielibyśmy zapamiętać daną informację. „Zapamiętać” oznacza
w tym kontekście sprawić, by można było ponownie wywołać dany wzorzec
aktywacji, i to znacznie łatwiej niż poprzednio. W tym celu sieć adaptuje się
do danej stymulacji, ponieważ jest plastyczna: połączenia pomiędzy
komórkami nerwowymi rejestrują, w jakiej sytuacji są używane. Mam
nadzieję, że wasza pamięć działa bez zarzutu i przypominacie sobie rozdział
8. Była tam mowa o tym, że wykorzystywane synapsy się rozbudowuje,
nieużywane zaś obumierają. Właśnie tak się dzieje, gdy do sieci trafia nowa
informacja, pobudzając ją w charakterystyczny dla siebie sposób. Dzięki
temu sieć kształtuje się na obraz swojego otoczenia.
U podłoża tego zjawiska leży proces biologiczny, zwany regułą Hebba (od
nazwiska amerykańskiego biologa Donalda Hebba, który sformułował ją
w 1949 roku; przez lata została ona potwierdzona w licznych
eksperymentach). Znamy go z codziennego życia: jeśli chcemy utrzymać
z kimś więź, musimy o to zadbać, inaczej kontakt się urwie. Identycznie
dzieje się w układzie nerwowym. Gdy jakaś komórka nerwowa jest cały czas
pobudzana przez inną, połączenie pomiędzy nimi trwale się poprawia, tak że
późniejsze aktywowanie go nie nastręcza trudności. Ta zasada biochemiczna
nazywana jest długotrwałym wzmocnieniem synaptycznym. Termin mówi
sam za siebie: gdy neurony często się pobudzają, pobudzenie to z czasem się
wzmacnia. Innymi słowy, przy okazji kolejnej stymulacji poprawia się
przewodzenie sygnału, a pobudzenie jest silniejsze niż wcześniej. Jest to
możliwe, ponieważ w takiej sytuacji neurony uruchamiają procesy wzrostu
i rozbudowują swoje kontakty, czyli synapsy. Podobnie jak poprawia się
przepustowość drogi, budując dodatkowe dwa pasy ruchu, tak przepływ
informacji podlega w ten sposób strukturalnym ulepszeniom.
Przeciwieństwem długotrwałego wzmocnienia jest długotrwałe osłabienie.
Nie chodzi tu o stan, w którym przez dłuższy czas czujemy się zmęczeni,
tylko o ważną zasadę przebudowywania sieci neuronalnej. Nieużywanym
synapsom brakuje stymulacji, czyli ciągłej zachęty do wzrostu i umacniania
struktur. W konsekwencji na dłuższą metę synapsy te zanikają, a dalsze
przekazywanie sygnałów ulega depresji, czyli dosłownie z łaciny: osłabieniu.
To wszystko może wydawać się nieco skomplikowane, dlatego powtórzmy
w skrócie: informacja (którą pragniemy przyswoić) trafia do sieci
neuronalnej, co powoduje charakterystyczną aktywację tej sieci (każda
informacja pozostawia w sieci swoiste „aktywacyjne linie papilarne”).
Stosownie do tego komórki nerwowe dostosowują swoje połączenia (to, co
się przydało, zostaje udoskonalone, to, co było bezużyteczne, ginie).
Następnym razem wzorzec aktywacji łatwiej jest odtworzyć – sieć się
nauczyła.
To bardzo ważna zasada, a często bywa mylnie interpretowana. Nie chodzi
bowiem o to, by budować nowe neurony, nowe synapsy, nowe połączenia.
Owszem, to też się dzieje, a określone obszary mózgu rosną wskutek
częstego treningu (na przykład ośrodki mowy powiększają się z biegiem lat,
w miarę ich użytkowania). Jednak co najmniej równie ważna jest eliminacja
zbędnych połączeń. Dopiero gdy sieć zyskuje konieczną plastyczność,
zdolność dynamicznego dopasowywania się do nowych bodźców
i informacji, może też uczyć się nowych rzeczy. Im więcej pojawia się
możliwości dokonywania zmian w sieci i usprawniania jej wewnętrznej
architektury, tym lepsze i wydajniejsze staje się przetwarzanie informacji. Jak
w życiu: póki nie uprzątniemy rupieci, wciąż będą nam zawadzać.
Nieużywane synapsy także zawadzają, zużywają energię i utrudniają
przepływ informacji. A zatem do kosza z nimi, bo niekiedy „mniej” znaczy
„więcej”.
Szczególnie w pierwszych latach życia człowieka owo obumieranie synaps
(specjaliści używają tu angielskiego słowa pruning, dosłownie „przycinanie”,
jak drzewek w sadzie) odbywa się na ogromną skalę. Skądinąd właśnie
dlatego nie jesteśmy w stanie przypomnieć sobie własnych narodzin. Po
prostu w tamtym czasie nasz mózg był aż nadto plastyczny, bez pardonu
usuwał mnóstwo zbędnych synaps i neuronów, przy okazji eliminując
wspomnienia. Na początek mózg musi wytworzyć podstawowe zwrotnice
i zachowuje raczej wzorce myślowe (procedury umożliwiające myślenie) niż
konkretne wspomnienia. Sądzę, że to słuszna decyzja. Ja w każdym razie
chętnie obejdę się bez obrazów pokrwawionej sali porodowej i twarzy
rodziców zaszokowanych moim widokiem.

Nasz mózgowy mądrala


Przedstawiona powyżej metoda przebiegu nauki w mózgu po raz kolejny
pokazuje, że najlepiej jest stymulować sieć na możliwie dużo rozmaitych
sposobów. Im szerszy jest „ślad aktywności”, wywołany w sieci przez daną
informację, tym łatwiej będzie można ponownie sieć aktywować (czyli
przywołać tę informację). Wróćmy do sernika. Załóżmy, że wasz pierwszy
kontakt z tym kulinarnym arcydziełem nastąpił w babcinej kuchni. Wasze
nozdrza wypełnił zapach świeżego ciasta, w ustach czuliście jego smak,
patrzyliście na złotobrązową skorupkę na wierzchu, słyszeliście, jak nóż
trzeszczy na przypieczonym brzegu i czuliście na języku i podniebieniu
konsystencję ciasta. Wtedy babcia powiedziała: „I jak tam, smakuje ci mój
serniczek?”. Informacja, że ten obiekt pożądania to właśnie babciny sernik,
nigdy już nie wyleciała wam z głowy.
Tak doniosłe wydarzenie dosłownie „wypala się” w naszej pamięci,
ponieważ wzorzec aktywacyjny jest wielostronny i odporny. Rzadko tak
bywa niestety przy nauce łacińskich słówek – wzorzec aktywacyjny jest tu
znacznie słabszy, no i słówka nie pachną tak apetycznie. Tym intensywniej
więc trzeba je wkuwać, by połączenia pomiędzy komórkami mogły się
dostosować.
W procesie tym pomaga nam hipokamp, rodzaj znanej z komputera
„pamięci operacyjnej”, który potrafi szybko łączyć nowe informacje. Żeby
mogły one jednak zostać trwale zmagazynowane w kresomózgowiu,
hipokamp co chwila wyciąga tymczasowo przechowywane informacje
i z dumą mu je prezentuje. Jako przemądrzały bufon hipokamp bez ustanku
drażni swoją ekspercką wiedzą kresomózgowie, które w gruncie rzeczy
raczej opieszale przyswaja nowe informacje. W związku z tym hipokamp
przez cały czas na nowo pobudza obszary kresomózgowia i sprawia, że raz
po raz powstają wzorce aktywacyjne. Komórki nerwowe mają tak dużo
okazji, by dostosować swoje połączenia, właśnie dlatego, że są stymulowane
nie jeden raz, a wielokrotnie. Można to sobie wyobrazić tak, że hipokamp
bombarduje kresomózgowie informacją i tą metodą mu ją wpaja. Gdy
bowiem raz się tam zakotwiczą (w postaci sprawnych połączeń w sieci
neuronalnej), nie ulecą już z głowy tak szybko.

Jak uczyć się mądrze

Zatem mózg wykorzystuje do myślenia całą sieć, a uczy się w ten sposób, że
przekształca filigranową architekturę połączeń pomiędzy komórkami
nerwowymi. Przetwarzanie informacji zachodzi w wielu obszarach, dlatego
aktywowanie tylko jednego kanału informacyjnego nie da nam zbyt wiele.
Pomysł z „typami uczenia się” może i wygląda fajnie, stanowi jednak tylko
trik pedagogiczny, a zarazem niedopuszczalne uproszczenie rzeczywistych
procesów zachodzących w mózgu. Nic nam nie da zakuwanie słówek
wyłącznie w zgodzie z „indywidualnym stylem uczenia się”. Nie odpowiada
to bowiem fundamentalnej zasadzie, zgodnie z którą mózg przyswaja wiedzę.
Pojawia się też niebezpieczeństwo, że całkowicie zdamy się na jeden „kanał
informacyjny”, zamiast pobudzać jak najwięcej zmysłów naraz.
A przypominam, że im szerszy, im bardziej wielostronny jest wzorzec
aktywacyjny, tym lepiej zakotwiczy się on w mózgu i tym łatwiej będzie go
później przywołać. Zjawisko to wykorzystują na przykład rozmaite
rymowanki i historyjki, ułatwiające zapamiętywanie. Dzięki nim w mózgu
dochodzi do kojarzenia oddalonych informacji, wzorzec aktywacji sieci
rozszerza się, a zatem – co logiczne – łatwiej go można przywołać.
Nie polegajcie więc za bardzo na tym, że jesteście „typem wizualnym”, bo
wszyscy jesteśmy w pierwszej kolejności typem „wszystkoidalnym”.
Starajcie się za to łączyć ze sobą rozmaite kanały: czytajcie, powtarzajcie na
głos, zapisujcie, rysujcie, przedstawiajcie zdobytą wiedzę innym. Nie istnieje
jedna najlepsza metoda uczenia się, bo o sukcesie przesądza właśnie ich
kombinacja.
Równie ważne jak mądre przyswajanie informacji jest ich przetwarzanie.
Tu można wyróżnić jeden szczególnie istotny czynnik – sen (wrócimy
jeszcze do tego). Badania wyraźnie dowodzą, że brak snu upośledza
tworzenie wspomnień. Zasada ta działa także w drugą stronę: następnego
ranka łatwiej będzie nam przypomnieć sobie to, co pobieżnie przeczytaliśmy
jeszcze raz tuż przed snem. To taki myślowy „cukierek do poduszki”.
Za taki stan rzeczy odpowiada prawdopodobnie hipokamp, który nocą
dokonuje szczególnie licznych zmian połączeń i jeszcze raz intensywnie
pobudza kresomózgowie. W rozdziale 6 wspominałem też o tym, że właśnie
w hipokampie mogą tworzyć się nowe neurony – a zarówno ich wzrost, jak
i wykształcanie się nowych połączeń zachodzą przede wszystkim podczas
snu.
Z powyższych wywodów warto zapamiętać przede wszystkim to, że
najlepiej uczymy się wtedy, gdy stymulujemy mózg na wiele różnych
sposobów i dokonujemy częstych powtórek. Wówczas sieć może skutecznie
dopasować się do nowych informacji. Nie ma sensu zawracać sobie głowy
mitem o typach uczenia się. Przede wszystkim nie bierze on pod uwagę tego,
że ludzki mózg stanowi prawdziwy ewolucyjny majstersztyk w zakresie
przetwarzania informacji, dlatego stosowanie takiej czy innej prostej
sztuczki, by usprawnić jego pracę, zakrawa na kpinę. Poza tym kurczowe
trzymanie się koncepcji o typach uczenia się może łatwo doprowadzić do
nadmiernego skupienia na jednym, wybranym „kanale”, a tego mózg
zdecydowanie nie lubi.
MIT NUMER 11

Całą robotę wykonują małe szare


komórki

W tytułowym stwierdzeniu zgadza się tylko jedno: rzeczywiście chodzi


o komórki. Cała reszta nie jest już tak bliska prawdy i wymaga krótkiego
wykładu na temat biologii komórki, czego bardzo chętnie się podejmę,
w końcu nie przypadkiem zdecydowałem się poświęcić właśnie tej
dziedzinie.
Na przykładzie tego mitu znów dobrze widać, jak szybko może
upowszechnić się dowolne głupstwo tylko dlatego, że ładnie brzmi. „Małe
szare komórki” to zgrabne, sympatyczne określenie, ale też trochę
upupiające, jeśli weźmiemy pod uwagę, ile tak naprawdę dzieje się w mózgu.
A drugi człon: „wykonują całą robotę” jest słuszny, jeśli założymy, że mózg
zajmuje się tylko myśleniem. Tymczasem to nieprawda, bo sprawą równie
ważną jak przepływ informacji jest zapewnienie neuronom komfortowych
warunków pracy. Bez tego wsparcia nie poradzą sobie z myśleniem. Dajmy
więc spokój tym uproszczeniom i półprawdom i przyjrzyjmy się życiu
komórek w naszym mózgu.

Wielkość

Na pierwszy rzut oka komórki nerwowe są rzeczywiście małe. No dobrze, ale


które komórki takie nie są? Żeby w ogóle móc się im przyjrzeć, potrzebny
jest mikroskop o przynajmniej 200-krotnym powiększeniu. Zatem tak, to
prawda, w pewnym sensie można powiedzieć, że komórki nerwowe też są
małe, zwłaszcza jeśli rozważamy wielkość samego ciała komórki nerwowej,
czyli tak zwanego neurocytu. Ten jest rzeczywiście drobniutki, mierzy
przeciętnie około 10 mikrometrów. Piłeczka tenisowa jest pięć tysięcy razy
większa.
W takim maleństwie mieszczą się wszystkie najważniejsze elementy
neuronu, w tym zwłaszcza jądro komórkowe (wraz z zawartą w nim
informacją genetyczną), ale też inne ważne części składowe komórki,
odpowiedzialne za jej metabolizm energetyczny, wytwarzanie białek
i podział. Dziesięć mikrometrów na to wszystko to naprawdę niezbyt wiele.
Komórki wątroby albo tkanki łącznej mogą bez trudu osiągać dwukrotnie
większe średnice. A już prawdziwym gigantem wśród komórek jest komórka
jajowa – blisko dziesięć razy większa od ciała komórki nerwowej
i dwadzieścia od komórkowego jądra plemnika. W tym momencie nie ma już
chyba żadnych wątpliwości, kto tak naprawdę decyduje o zapłodnieniu.
Jednak koncentrując się wyłącznie na jądrze komórki nerwowej, pomijamy
to, co najlepsze: jej nieprawdopodobnie długie wypustki, zwane neurytami.
W celu nawiązania kontaktu z innymi komórkami, neurony wypuszczają
jedno, bardzo długie włókno nerwowe, zwane aksonem (od greckiego słowa,
oznaczającego oś). To coś w rodzaju anteny nadawczej, poprzez którą neuron
wysyła swoją informację do innych komórek. Ale przecież musi też wiedzieć,
co się dzieje wokół niego, dlatego wykształca również wiele małych „antenek
odbiorczych”, zwanych dendrytami (to słowo także pochodzi z greki
i oznacza drzewo). Poprzez dendryty do danej komórki nerwowej podłączone
są inne neurony; tutaj dokuje większość synaps.
Jeśli ktoś wyobraził sobie teraz, że komórka jak szalona wypuszcza aksony
na lewo i prawo, by nawiązać łączność z jak największą ilością neuronów,
muszę go rozczarować. Wszystkie neurony bez wyjątku wykształcają tylko
po jednym aksonie. Tym kanałem płyną wszelkie informacje od neuronu, co
ma dla niego pewną nader istotną zaletę: musi tylko raz wygenerować impuls
nerwowy, który następnie jest wysyłany właśnie przez ów jeden jedyny
akson. Gwoli ścisłości muszę jednak dodać, że akson później się rozdziela
i może tworzyć wiele tysięcy synaps z innymi komórkami. Bo, jak już
wiemy, komórki nerwowe to prawdziwi mistrzowie komunikacji. Potrafią
porozumiewać się jednocześnie nawet ze stu tysiącami innych komórek –
i przy tym wszystkie uważnie słuchają się nawzajem. Chciałbym zobaczyć
coś takiego podczas wykładu na uniwersytecie (a przecież siedzi tam
zaledwie kilkuset studentów).
Za sprawą aksonów komórki nerwowe osiągają naprawdę imponującą
długość, co sprawia, że w gruncie rzeczy są największymi komórkami
w całym organizmie. Dość pomyśleć o neuronach przewodzących impulsy
ruchowe z rdzenia kręgowego do palców stóp; mają blisko metr długości.
Gdyby proporcjonalnie długi „pęd” wypuściła piłeczka tenisowa, miałby
grubość ołówka i ciągnął się przez pięć kilometrów.
Wniosek: owszem, komórki nerwowe zajmują niezbyt duży obszar
w otoczeniu jądra, ale mają bardzo długie wypustki. Nie można ich więc
nazywać małymi, skoro przechodzą przez całe ciało. Niektóre szczególnie
długie neurony w rdzeniu kręgowym zaliczają się do największych komórek
człowieka.

Barwa

To doskonałe pytanie: jakiego koloru jest właściwie nasz mózg? Jeśli


spojrzymy na niego po otwarciu czaszki, będzie można o nim powiedzieć
wszystko, tylko nie to, że jest szary. To podbiegła krwią, biaława breja
złożona z białka i tłuszczu. Na dodatek – jak gdyby ktoś na siłę wcisnął tę
masę do głowy – wszystko poprzecinane jest grubymi zwojami i bruzdami,
co sprawia, że na pierwszy rzut oka mózg przedstawia się po prostu
szkaradnie. W najmniejszym stopniu nie przypomina szlachetnego „siedliska
świadomości”, władającego nami łaskawie w powściągliwie szarym,
schludnym, uładzonym środowisku. Jeśli już, to świadomość rozsiadła się
w masie oślizgłej galarety – wygląda to, jakby ktoś wcisnął do puszki
kuchenną gąbkę. Nic dziwnego, że do straszenia ludzi na Halloween
sprzedaje się plastikowe mózgi. To naprawdę nie jest narząd, którego urodą
można by się chwalić.
Ale choć na pierwszy rzut oka mózg istotnie nie prezentuje się zbyt
efektownie, po bliższej inspekcji okazuje się prawdziwym cackiem.
Uważnemu obserwatorowi objawia całe swoje piękno. Żaden inny narząd nie
jest choćby w przybliżeniu tak złożony i pedantycznie uporządkowany. Mózg
nie jest po prostu szczelnie wypchany komórkami nerwowymi – wszystkie
twory charakteryzuje idealny porządek. Niestety, żeby to dostrzec, trzeba
uważnej obserwacji pod mikroskopem, bo tak maleńkie komórki łatwo
przeoczyć. Niemniej niektóre wzorce można zauważyć nawet gołym okiem.
Gdy przekroi się mózg w poprzek i spojrzy na niego „od frontu”, widać dwa
zróżnicowane kolorystycznie obszary: zewnętrzną ciemną obwódkę w korze
kresomózgowia i jaśniejszy fragment w środku. Żeby ułatwić życie
studentom medycyny, warstwę korową nazwano substancją (istotą) szarą,
a tkankę leżącą głębiej – substancją (istotą) białą.
Jak już pisałem, neuron można podzielić na dwie części: neurocyt, czyli
ciało komórki nerwowej, i rozległy obszar włókien nerwowych (długi akson,
który rozdziela się i tworzy punkty kontaktowe). W szarej substancji
kresomózgowia znajdują się przede wszystkim neurocyty – upakowane tak
ciasno, że tkanka wydaje się ciemniejsza. Natomiast w substancji białej
przebiegają liczne włókna nerwowe, otoczone bogatymi w tłuszcze
osłonkami, które nadają tej partii tkanki jaśniejszą barwę. Same neurony
znajdują się więc zarówno w substancji szarej, jak i białej i nie mają jednej,
standardowej barwy. To, że substancja szara jest ciemniejsza, wynika po
prostu z faktu, że komórki nerwowe są w niej ciaśniej upchnięte. Same
neurony są jednak właściwie pozbawione koloru. Podczas obserwowania
kultur komórkowych wyhodowanych w laboratorium trzeba bardzo wytężać
wzrok, bo neurony są niemal przezroczyste.
Istnieje jednak w mózgu jeden wyjątek, mianowicie tak zwana substantia
nigra, czyli istota czarna. Czarna dlatego, że w tym właśnie miejscu
określone neurony wytwarzają ciemny barwnik, zwany melaniną. Czemu to
robią, nie wiadomo. Ale w końcu mózg nie musi się przejmować estetyką
swoich bebechów tylko po to, żeby robić wrażenie na grupce anatomów.
Dokładnie wiadomo natomiast, jaki skutek ma obumieranie owych czarnych
neuronów – stanowi przyczynę choroby Parkinsona, bo komórki te
odgrywają ważną rolę w koordynacji ruchów.
Wniosek: komórki nerwowe są bezbarwne, a szarawą tkankę tworzą tylko
wówczas, gdy są bardzo ciasno ułożone obok siebie. Na zakończenie dodam
jeszcze, że owszem, niektóre mózgi wydają się szarawe, ale to dlatego, że
przez lata pluskały się w słojach wypełnionych konserwującą cieczą. Nie jest
to ich stan naturalny, bo normalnie mózg jest jasny i krwisty.
Wszystkie komórki mózgu

Neurony uważają się za najważniejsze i najlepsze. Mają ku temu podstawy.


To rzeczywiście odlotowe „cybertwory”, które zestawiają informacje,
dokonują skomplikowanych obliczeń i w efekcie odpowiadają za
powstawanie błyskotliwych myśli. Jeśli poszukacie w Internecie grafiki pod
hasłem „sieć neuronów”, zobaczycie głównie jedno: kolorowe neurony
(oczywiście, jak już teraz wiecie, wybarwione sztucznie) wymieniają impulsy
nerwowe ze swoimi kolegami. W sieci tej wciąż coś błyska i migoce, wokół
zaś rozciąga się wielka, pusta przestrzeń.
Zaraz, zaraz, nasza mózgownica miałaby być w większości pusta?
Owszem, patrząc na co poniektórych, można odnieść takie wrażenie,
naturalnie jednak taka wizja to kolejna bzdura, która na dodatek sprzyja
szerzeniu się innego mitu, jakoby mózg składał się wyłącznie z komórek
nerwowych i ich połączeń oraz ziejących między nimi kosmicznych pustek.
Sama komórka nerwowa nie potrafi zbyt dużo. Umie odebrać różne
impulsy nerwowe oraz wygenerować jeden własny – i to by było na tyle.
Innymi słowy, neurony pochłonięte są wyłącznie ciągłym nawiązywaniem
kontaktów i wymianą informacji z innymi komórkami. A gdy robi się to
bardzo intensywnie, nie zostaje zbyt wiele czasu na inne zajęcia. Jedzenie,
sprzątanie, higiena osobista – wszystko to leży odłogiem, dość spojrzeć na
przyklejonych do smartfonów nastolatków.
Ponieważ jednak neurony nie mogą sobie pozwolić na to, by całkiem
zdziczeć albo paść z głodu, postarały się o wsparcie. Otrzymują je od
komórek pomocniczych, które dbają o ich komfort pracy. Dlatego neurony
nigdy nie występują samotnie, lecz zawsze w otoczeniu owych pomocników,
wypełniających całą przestrzeń w mózgu. Neurobiolog oczywiście niechętnie
posługuje się terminem „komórki pomocnicze” (byłoby to zbyt proste) i woli
mówić o komórkach glejowych. Od razu brzmi bardziej uczenie, ale to
specjalistyczne słówko oznacza tyle, że komórki podporowe tkwią między
neuronami niczym lepki kit (od greckiego słowa glia – klej).
Zatem komórki glejowe to pomocnicy komórek nerwowych. Pomoc ta
zaczyna się już od najważniejszej kwestii: zaopatrzenia w żywność –
przemiany materii73. A komórki nerwowe potrzebują naprawdę dużo energii.
I podobnie jak nastoletni cybergracz nie przerwie pojedynku na konsoli, tylko
zamówi pizzę, tak neurony nie ruszają się z miejsca, tylko łaskawie
pozwalają, by dostarczano im papu. Zadanie to biorą na siebie astrocyty
(nazwa pochodzi od ich charakterystycznego kształtu, przypominającego
gwiazdę). Co prawda i one nie są szczególnie ruchliwe, ale odznaczają się
inną umiejętnością: potrafią pobierać z krwiobiegu cukier, magazynować go,
na pół trawić, a następnie zaopatrywać neurony w ten półprodukt przemiany
materii. Właśnie on jest ostatecznie wykorzystywany przez komórki
nerwowe do zaspokojenia ich potrzeb energetycznych. Zasadniczo można
więc powiedzieć, że cieszące się tak wspaniałą sławą i jakże ważne neurony
odżywiają się właściwie resztkami skapującymi im ze stołu astrocytów. To
się dopiero nazywa dobra komitywa!
Ale rola astrocytów się na tym nie kończy. Za pomocą długich,
gwiaździście rozchodzących się wypustek wnikają w głąb splotu komórek
nerwowych i w ten sposób mają kontakt ze wszystkimi neuronami. Dzięki
temu mogą regulować gospodarkę elektrolitową, co jest niezbędne do
właściwego przewodzenia impulsów nerwowych. Usuwają odpady
z przemiany materii (metabolity) i rozkładają wydzielone substancje
przekaźnikowe, regulując w ten sposób przewodzenie impulsów. Tworzą też
niemal nieprzenikalną zaporę pomiędzy wyjątkowo wrażliwą tkanką
nerwową a krwiobiegiem. Jest to tak zwana bariera krew–mózg, która izoluje
go od mieszaniny najrozmaitszych substancji znajdujących się we krwi.
Dzięki temu wrażliwy układ komórek nerwowych jest chroniony przed
zewnętrznymi oddziaływaniami i niemal hermetycznie zabezpieczony przed
dostępem ewentualnych intruzów. Astrocyty wypełniają całą przestrzeń
w mózgu i nieustannie kontrolują obecność ważnych produktów przemiany
materii. Krótko mówiąc, wykonują całą brudną robotę, na którą szkoda
byłoby cennego czasu neuronów.
Ale i na tym nie koniec. Badania prowadzone w ostatnim czasie coraz
wyraźniej wskazują, że astrocyty mogą aktywnie oddziaływać na
przetwarzanie informacji. Okazuje się, że również one reagują na stymulację
elektryczną i zmieniają swój potencjał chemiczny74. Oznacza to, że
odpowiadają na zewnętrzne bodźce, wprawdzie nie tak czule jak neurony,
jednak wystarczająco, by odegnać wyobrażenie, jakoby stanowiły wyłącznie
nudny wypełniacz pomiędzy błyskotliwymi komórkami nerwowymi. Dopiero
razem oba rodzaje komórek tworzą zgrany zespół.

Szajka z glejowego wzgórza

Jednak astrocyty to nie jedyne komórki glejowe wspierające pracę neuronów.


Weźmy choćby włókna nerwowe: sprawne przewodzenie impulsów byłoby
niemożliwe bez izolacji. Nawet najzwyklejszy kabel elektryczny jest
zaopatrzony w gumową osłonkę. Jest ona bardzo przydatna, bo dzięki temu
można go dotknąć, nie ryzykując porażenia prądem, a na dodatek można
zebrać wiele przewodów w jednej wiązce.
To ostatnie okazuje się bardzo ważne także dla mózgu, bo w czaszce nie
ma zbyt dużo miejsca i trzeba je jak najlepiej wykorzystywać. Do
komasowania włókien nerwowych, a przy okazji usprawnienia przewodzenia
impulsów przyczyniają się tak zwane oligodendrocyty75. Ta niezbyt łatwa
nazwa (od greckiego słowa oznaczającego „małe drzewko”) odnosi się do
kształtu tych komórek pomocniczych: tworzą one krótkie wypustki niczym
gałązki drzewa. Wypustki te owijają się wokół włókna lub grupy włókien
nerwowych i tworzą grubą osłonkę, zbudowaną z białek i tłuszczów. Nie
robią tego jednak na całej długości, tylko odcinkowo, pozostawiając
niewielkie odstępy pomiędzy kolejnymi partiami osłonki. Sprawa jest
zastanawiająca; w końcu znany nam dobrze kabel elektryczny jest porządnie
izolowany, a nie usiany dziurami jak ser szwajcarski. W przypadku włókien
nerwowych taka fragmentaryczna izolacja stanowi jednak olbrzymią zaletę,
bo pozwala znacznie przyspieszyć przewodzenie impulsów.
Kiedy impuls wędruje wzdłuż włókna nerwowego, generuje pole
elektryczne. Wprawdzie słabiutkie, ale dostatecznie silne, by starczyło na
„skok” od jednej luki w izolacji do drugiej. Teraz tam pole ulega
wzmocnieniu, dzięki czemu może trafić do kolejnej przerwy. W efekcie
impuls nie wędruje powoli wzdłuż całego włókna, tylko przeskakuje od
jednej luki w izolacji do następnej – i to naprawdę błyskawicznie,
z prędkością ponad 400 kilometrów na godzinę. Bez tak ukształtowanej
izolacji wlókłby się wzdłuż włókna w tempie 10 kilometrów na godzinę.
Również w tym przypadku kluczem do sukcesu jest praca zespołowa. Bez
wsparcia ze strony komórek glejowych neurony w żadnym razie nie
zdołałyby tak gładko wymieniać informacji. A szybkie ich przekazywanie
jest kwestią absolutnie kluczową. Spróbujcie załadować stronę internetową
przy użyciu modemu – zwariować można! W mózgu, jak łatwo się domyślić,
też jest dość nerwowo, tutaj jednak włókna – nomen omen – nerwowe są
przez cały czas zaopatrywane i chronione przez komórki glejowe. O ich roli
można się przekonać na przykładzie takich chorób jak stwardnienie rozsiane
(nazwa pochodzi od tego, że tkanka nerwowa w wielu miejscach
bliznowacieje i twardnieje). Ta choroba neurologiczna powoduje
obumieranie izolujących komórek glejowych wokół włókien nerwowych,
włącznie z zaniknięciem ochronnej otoczki. Okazuje się, że bez izolacji nie
ma mowy o dalszym przewodzeniu impulsów nerwowych, i nerwy ulegają
zwyrodnieniu. Ponadto obumierające komórki glejowe przyciągają komórki
odpornościowe, które wywołują lokalny stan zapalny, prowadząc do dalszych
uszkodzeń w tkance nerwowej. Niestety do dziś nie wiadomo, jak dochodzi
do tej choroby i co tak naprawdę za nią odpowiada: obumierające komórki
glejowe, nadreaktywne komórki odpornościowe, a być może też same
komórki nerwowe. Neurobiolodzy mają przed sobą jeszcze dużo pracy.

Mózgowa grupa uderzeniowa

Z ostatniego akapitu wynika, że w tkance nerwowej występują również


komórki odpornościowe, które dbają o zachowanie porządku. Muszą one
jednak działać bardzo ostrożnie, bo układ nerwowy jest nader wrażliwy
i raczej nie nadaje się do tego, by na jego terenie staczać wielkie bitwy
z zarazkami. Specjalistami w tych warunkach są komórki glejowe zwane
mikroglejem76. Jak wskazuje sama nazwa, są maleńkie – i nie bez powodu,
ponieważ na co dzień kryją się w mózgu, pilnując, by nikt niepowołany nie
zdołał się przedrzeć do tej strefy pod specjalnym nadzorem. Ściśle biorąc, nie
są to właściwe komórki glejowe, ponieważ pochodzą ze szpiku kostnego
(a nie z tkanki mózgowej, jak pozostałe komórki glejowe). Są to komórki
układu odpornościowego, podobne do białych ciałek krwi, jednak zostały
specjalnie skaptowane przez mózg, niczym najemnicy do zadań specjalnych.
Komórki mikrogleju pełnią rolę dozorcy i ochroniarza w jednym.
Uprzątają resztki obumarłych komórek i pomagają utrzymać mózg
w czystości. Wykonują swoje obowiązki bezszelestnie i prowadzą ciche,
spokojne życie wśród wielu innych komórek – do momentu wszakże, gdy
mózg zostaje zaatakowany. Wówczas zaś pokazują swoje prawdziwe oblicze.
Mikroglej stanowi oddział szybkiego reagowania i uaktywnia się, gdy tylko
do mózgu trafią intruzi (na przykład bakterie). W takiej sytuacji komórki te
sprawnie przemieszczają się w tkance mózgowej, rozmnażając się przy tym,
po czym przeobrażają się w agresywnych wojowników, zasypujących
nieprzyjaciela substancjami odpowiedzialnymi za rozwój stanu zapalnego.
Tym razem nie postępują już delikatnie, bo taka chemiczna bomba jest
równie szkodliwa dla komórek nerwowych, jak dla samych zarazków.
Dlatego zdarza się, że przy okazji takiej reakcji zapalnej dochodzi do
uszkodzenia splotu nerwowego (tak jak w stwardnieniu rozsianym). Mimo to
komórki mikrogleju są nam absolutnie niezbędne. Bez takich ochroniarzy
neurony byłyby całkowicie bezbronne wobec potencjalnych intruzów.

Prawdziwi bohaterowie

Jak widać, nawet gdybyśmy powiedzieli, że „całą robotę w mózgu wykonują


duże bezbarwne komórki”, też minęlibyśmy się z prawdą, a to dlatego, że
lwią część tej pracy przejmują komórki glejowe, wspierające neurony w ich
zadaniach. Zresztą również same komórki glejowe doczekały się mitu na
swój temat: można się niekiedy spotkać z poglądem, jakoby było ich
w mózgu dziesięciokrotnie więcej niż właściwych komórek nerwowych. Ale
to nieprawda. Jednych i drugich jest mniej więcej tyle samo, choć zapewne
glejowych jest nieznacznie więcej.
Wniosek: mózg funkcjonuje dzięki pracy zespołowej. Bez komórek
glejowych nic by z tego nie wyszło. Neurony to wysokiej klasy fachowcy od
impulsów nerwowych, potrzebują jednak zaufanej ekipy, która zadba
o aprowizację, bezpieczeństwo i izolację włókien. Jednocześnie komórki
glejowe to znacznie więcej niż nudny wypełniacz przestrzeni między
zaawansowanymi neuronami. Warto zapamiętać, że bezinteresownie się dla
nich poświęcają, a mimo to prawie nikt o nich nie słyszał. Aż do tej chwili.
MIT NUMER 12

Endorfiny dają kopa

Tak, to prawda! Możecie sobie zaznaczyć na marginesie, że ten akurat „mit”


jest prawdziwy: endorfiny rzeczywiście dają kopa. Ci, którym ta informacja
wystarcza, niech spokojnie przeskoczą do następnego rozdziału. Jeśli zaś ktoś
pragnie wiedzieć, jak naprawdę przedstawia się kwestia endorfinowego
oszołomienia, może się nielicho zadziwić, czytając kolejne strony.
Endorfiny cieszą się rewelacyjną opinią: są powszechnie uważane za
„hormony szczęścia” w naszym organizmie. Gdy ktoś jest w dobrym
nastroju, zaraz twierdzi, że ma we krwi mnóstwo endorfin. Endorfiny kojarzą
się nam z błogostanem, żeby nie powiedzieć z byciem na haju.
I już na tym etapie zaczynają się nieporozumienia. Czegoś takiego jak
„hormony szczęścia” nie ma i być nie może, a i endorfiny wcale nie zostały
stworzone po to, by nas uszczęśliwiać. Jako naukowiec czuję się
w obowiązku rozprawić z krążącymi półprawdami na temat euforii
i endorfin. A zatem jak dokładnie przedstawia się kwestia „hormonów
szczęścia”? W jaki sposób działają? I co w ogóle dzieje się w organizmie,
gdy jesteśmy w siódmym niebie?

Na początku był narkotyk

Endorfiny, jak wynika z nazwy, to „morfiny endogenne” – czyli takie, które


organizm wytwarza samodzielnie. Często terminy naukowe są bardzo
precyzyjne, tutaj jednak mamy kompletne pudło, bo tak naprawdę endorfiny
bynajmniej nie są wewnątrzpochodną morfiną. O tym, że jest to całkowicie
nietrafiony neologizm, najłatwiej się przekonać, analizując, w jaki sposób
doszło do odkrycia endorfin (a nie było to wcale tak dawno).
Na długo zanim ktokolwiek dowiedział się o istnieniu endorfin, ludzie
podejmowali eksperymenty z odurzaniem się opiatami (między innymi
morfiną). Nie jest to zresztą specjalnie trudne: wystarczy naciąć torebki
nasienne maku lekarskiego, rozsmarować wyciekający z nich lepki sok na
chlebie i zjeść. Właśnie w tym soku, zwanym opium (od łacińskiego słowa,
oznaczającego „sok makowy”), znajduje się pod dostatkiem roślinnych
substancji psychoaktywnych (czyli wpływających na aktywność mózgu).
Jedną z najważniejszych jest właśnie morfina, nazwana tak od imienia
greckiego boga snu Morfeusza. Rzeczywiście morfina oszołamia
i rozleniwia, ale o zaśnięciu po niej nie ma nawet co myśleć.
Przez całe tysiąclecia ludzie z lubością odurzali się opium, choć nie mieli
pojęcia o mechanizmie jego działania. Inna rzecz, że chyba niezbyt się tym
przejmowali. Dopiero w latach siedemdziesiątych XX wieku odkryto, że
morfina działa dzięki temu, że wiąże się w mózgu oraz rdzeniu kręgowym
z tak zwanymi receptorami opioidowymi. Receptory pełnią funkcję
pośredników pomiędzy daną substancją a komórką. Gdy cząsteczka
sygnałowa łączy się z receptorem na komórce, komórka w odpowiedni
sposób reaguje. I, jak zobaczymy już wkrótce, receptory są w tym układzie
o wiele ważniejsze niż substancje, które się z nimi łączą.
W przypadku receptorów opioidowych trudno jednak nie zadać sobie
jednego pytania: po co, na miłość boską, wykształcił się w mózgu receptor,
uaktywniany przez opiaty? Trudno przypuszczać, żeby natura w swej
mądrości przewidziała, iż pewnego dnia zechcemy zlizywać sok z torebek
nasiennych maku.

Wewnętrzny kop

Wkrótce później odkryto grupę wytwarzanych przez ludzki organizm


substancji, które także wiążą się ze wspomnianymi receptorami morfiny.
Właśnie z uwagi na podobne do morfiny działanie nadano im nazwę
endorfin, choć pod względem strukturalnym nie mają one z morfiną nic
wspólnego. Na wszelki wypadek powtórzę wielkimi literami: nie, w naszym
organizmie nie wytwarzamy morfiny! Cząsteczka endorfiny jest około
dwunastu razy większa od cząsteczki morfiny (a około dwustu razy większa
od cząsteczki wody) i z wyjątkiem jednego drobnego odcinka wygląda
zupełnie inaczej. Jednak właśnie za sprawą tego niewielkiego fragmentu
endorfina łączy się z odpowiednim receptorem, a cząsteczka morfiny działa
na nas tylko i wyłącznie dlatego, że naśladuje dokładnie tę część cząsteczki
endorfiny. Istnieją cztery różne rodzaje cząsteczek endorfin, kiedy jednak
mówimy o „endorfinach”, najczęściej mamy na myśli beta-endorfinę –
produkt białkowy, zbudowany z 31 aminokwasów, najwyższej klasy
substancję przekaźnikową do zadań specjalnych, która bynajmniej nie
występuje w całym organizmie.
Pora na kolejne sprostowanie: podstawowym zadaniem endorfin nie jest
wprawianie nas w euforię. Ich najważniejszą rolą jest uśmierzanie bólu. Są
one wydzielane w rdzeniu kręgowym i działają jak środki znieczulające:
utrudniają przewodzenie impulsów bólowych, a tym samym tłumią
doznawanie bólu. Jest to szczególnie ważne w sytuacjach, w których
wymagany jest duży wysiłek fizyczny. Być może mieliście okazję
zaobserwować to na własnej skórze: w stresie słabiej odczuwamy ból i często
dopiero po fakcie stwierdzamy, że na przykład się skaleczyliśmy. Kobiety
tylko dlatego są w stanie przebrnąć przez poród, że dzięki endorfinom
czasowo zwiększają swoją odporność na ból. Znane są też przypadki kolarzy,
którzy całymi godzinami pedałowali z połamanymi kręgami, ponieważ ich
organizm stłumił ból. Właśnie na takie okazje przeznaczone są endorfiny.
Na tym jednak nie koniec. Oprócz swej głównej funkcji, czyli uśmierzania
bólu, endorfiny hamują aktywność jelit (dlatego terapii opiatami często
towarzyszą zatwardzenia) oraz uczestniczą w regulowaniu ciepłoty ciała
i uczucia głodu. Substancje te bywają też niekiedy wydzielane do
krwiobiegu, gdzie oddziałują na białe ciałka krwi (stanowiące, przypomnę,
element układu odpornościowego) i pobudzają je do pracy. Nie jest to więc
w żadnym razie wytwarzany przez nasz organizm narkotyk – jakaś
„endogenna morfina”, która ma po prostu wprowadzać nas w błogostan.
Endorfiny są przede wszystkim ważnymi substancjami modulującymi niemal
wszystkie czynności organizmu i mogą nawet działać jak hormony, przez
krwiobieg.
Ale choćby we krwi znalazło się mnóstwo endorfin, wciąż nie ma to
jeszcze związku ze stanem euforii. Żeby do niego doszło, musiałyby one
trafić do mózgu. Nie są jednak w stanie sforsować bariery krew–mózg, bo są
na to o wiele za duże (w odróżnieniu od małej cząsteczki morfiny, która
prześlizguje się tam bez problemu). Jeśli zatem ktoś mówi, że ma „mnóstwo
endorfin we krwi”, to wspaniale, tyle że zapewne cierpi na potężne
zatwardzenie. Z euforią nie ma to nic wspólnego.
W tym miejscu jeszcze jedno małe dopowiedzenie: nie ma czegoś takiego
jak „hormony szczęścia”. Wydzielane do krwiobiegu hormony nie działają
bowiem jako substancje przekaźnikowe w mózgu. Ale, jak się już za chwilę
przekonamy, nawet określenie typu „uszczęśliwiająca substancja
przekaźnikowa” nie odzwierciedla prawdziwej natury endorfin.

Ośrodek szczęścia w mózgu

Podsumujmy: żeby endorfiny powodowały euforię, muszą trafić do mózgu.


Na dodatek często słyszy się, jakoby w mózgu istniały „ośrodki
zadowolenia”, czyli rejony, których pobudzenie dostarcza nam poczucia
intensywnej radości. I teraz uwaga: to jak najbardziej prawda, w mózgu
rzeczywiście istnieje coś takiego jak ośrodek szczęścia.
Odkryto go w latach pięćdziesiątych podczas badania rytmu snu
u szczurów za pomocą wszczepionych w ich mózgi elektrod. Zwierzęta miały
możliwość samodzielnego stymulowania tych elektrod. Okazało się, że gdy
pobudzały w ten sposób określony rejon mózgu, z lubością się tej czynności
oddawały. Zresztą to stwierdzenie nie w pełni oddaje sytuację, bo szczury
pobudzały się za pomocą elektrod kilka tysięcy razy na godzinę. Jedzenie?
Nieważne. Picie? Niekoniecznie. Atrakcyjna samiczka tuż obok? Diabła tam,
grunt, żeby co sekundę aktywować elektrodę. Eksperyment
z elektrodopingiem doprowadzono aż do smutnego finału. Badanym
szczurom całkowicie zobojętniało wszystko i zastymulowały się na śmierć.
Dzisiaj wiemy, że przynajmniej umierały szczęśliwe… Obszarem, który tak
chętnie podrażniały, był właśnie ośrodek szczęścia.
Jeśli ktoś uzna, że nazwa „ośrodek szczęścia” brzmi zbyt zwyczajnie
i wolałby się popisać erudycją, może mówić o mezolimbicznym szlaku
dopaminergicznym (mnie się to jednak nie uśmiecha i pozostanę przy
ośrodku szczęścia; mam nadzieję, że nie będziecie temu przeciwni).
U człowieka znajduje się on pośrodku układu limbicznego (stąd mezo-
limbiczny). W rozdziale 2, na temat mózgu gadziego, była już o tym mowa.
Układ limbiczny to skomplikowany i trudny do opisania obszar, bo nikt tak
dokładnie nie wie, co się do niego zalicza. Z całą pewnością należy do niego
jednak wspominany już hipokamp oraz uczuciowe ciało migdałowate,
a oprócz tego nieprzejrzysta plątanina szlaków nerwowych, której do dziś nie
udało się w pełni poznać. W układzie limbicznym ma się w każdym razie
mieścić siedlisko wszystkich niskich popędów, a ponadto tu właśnie
przetwarzane są wspomnienia i emocje, podobnie jak subtelne doznania
zmysłowe. Bez wątpienia jest to doskonałe miejsce na ośrodek szczęścia.
Szefem owego ośrodka jest jądro półleżące. Jako substancji sygnałowej do
kontaktu pomiędzy swymi neuronami jądro to używa niemal wyłącznie
dopaminy, dlatego właśnie dopaminę można określić mianem
„pranarkotyku”. Gdy uaktywni się jądro półleżące, nie ma wyjścia: wpadamy
w stan określany mianem euforii, haju czy kopa. Tak potężny ośrodek uczuć
musi naturalnie podlegać kontroli. Dlatego neurony dopaminergiczne są
nieustannie hamowane przez inne komórki nerwowe. W rezultacie ośrodek
szczęścia zachowuje wprawdzie cały czas gotowość do „odpalenia” kolejnej
salwy, ale na razie jest nieodbezpieczony. W momencie jednak, gdy
zwolniona zostanie blokada nałożona na neurony dopaminergiczne, nagłe
wydzielenie dopaminy wprawia nas w euforię.
W tej sytuacji nie trzeba już chyba tłumaczyć, dlaczego niemal wszystkie
narkotyki oddziałują właśnie na układ dopaminergiczny w jądrze półleżącym.
Nikotyna bezpośrednio pobudza neurony dopaminergiczne i zwiększa
wydzielanie dopaminy. Z kolei kokaina blokuje powrót uwolnionej dopaminy
do neuronu (zwany jej wychwytem zwrotnym), dzięki czemu dłużej działa
ona na receptory. Amfetamina na dłuższy czas wyłącza blokadę neuronów
dopaminergicznych, „odbezpieczając” w ten sposób ośrodek szczęścia.
Również opiaty i endorfiny majstrują przy zabezpieczeniach neuronów
dopaminergicznych, powodując zwolnienie blokady, a bez niej wytwarzające
dopaminę komórki nerwowe są przez cały czas aktywne. Fantastycznie –
myśli sobie mózg – przecież właśnie to daje mi frajdę! Prawdą jest zatem, że
endorfiny wprawiają nas w euforię. Jednak nie bezpośrednio, a okrężną
drogą. Tak naprawdę karty w tej grze rozdaje dopamina. Endorfiny pełnią tu
zaledwie funkcję podwykonawców dbających o to, by organizm miał do
dyspozycji więcej dopaminy, którą mógłby się odurzyć.

Biegnij, neuronie, biegnij!

Czy zetknęliście się kiedyś z rozpowszechnionymi wśród sportowców


opowieściami o legendarnym zjawisku, zwanym euforią biegacza?
Uprawiając wysiłek wytrzymałościowy, ludzie po pewnym czasie podobno
doznają pod jego wpływem stanu zbliżonego do odurzenia, przestają
odczuwać ból i w euforii biją kolejne rekordy. Rzekomo odpowiada za to
wyrzut endorfin, które dają nam potężnego kopa, przyczyniając się do tego,
że biegniemy coraz dalej. Prawda to czy kolejna bajeczka?
Jak już wiemy, po to by przez pewien czas intensywnie odczuwać
zadowolenie, nie wystarczy wstrzyknąć do krwi trochę endorfin, bo przecież
euforia rodzi się w mózgu. Dlatego przez długi czas powątpiewano, czy
endorfiny mają w ogóle jakikolwiek związek z takim sportowym
oszołomieniem, bo bardzo trudno zmierzyć, czy w ogóle – a jeśli tak, to
gdzie i dokładnie kiedy – są one wydzielane w mózgu żywego człowieka.
Przed kilku laty jednak po raz pierwszy udało się wykazać, że pod wpływem
wysiłku fizycznego istotnie uaktywnia się w mózgu układ endorfinergiczny.
Po dwóch godzinach przyjemnego truchtania dochodzi do obsadzenia
receptorów opioidowych w mózgu, co skutkuje ogarniającym nas uczuciem
radości77. Euforia w trakcie biegu i po nim jest tym większa, w im większym
stopniu doszło do zajęcia receptorów. „Euforię biegacza” można więc
dokładnie zmierzyć – i na samej podstawie aktywowania receptorów
w mózgu ustalić, w jak dobrym nastroju jest dana osoba.
Aktualnie w neurobiologii przyjęta jest hipoteza, że nasz układ
endorfinergiczny odgrywa dużą rolę w zachęcaniu nas do ruchu. Bo, patrząc
obiektywnie, bieganie nie jest szczególnie przyjemne. Robią się pęcherze
i zakwasy, bolą stawy, kręci się w głowie ze zmęczenia… Nie, „przyjemne”
to zdecydowanie nie to słowo. Tyle że dla utrzymania przy życiu gatunku
ludzkiego było bardzo ważne, żeby dużo się ruszać w celu zdobycia
pożywienia. A bez układu nagrody, który z jednej strony uśmierza ból,
a z drugiej zapewnia dobry nastrój, raczej nikomu nie chciałoby się pałętać
godzinami po lesie, żeby zebrać garść jagód. Euforia biegacza stanowiłaby
więc swego rodzaju pozostałość ewolucyjną, która motywuje nas do ruchu.
Zdaje się jednak, że w toku ewolucji ludzkości ów pęd do sportu nieco osłabł
– samo to, że na terapii odwykowej często zakazuje się uzależnionym
uprawiania sportu (żeby nie przerzucili się na „używkę zastępczą”),
pokazuje, iż termin „uzależniony od sportu” nie wziął się znikąd.

Nauka w trybie turbo

No dobrze, ale właściwie do czego więcej ma nam służyć ośrodek szczęścia?


To oczywiście świetnie, że nasz własny organizm może wprawić nas
w euforię, ale z pewnością nie po to wykształciła się w mózgu złożona
struktura, żebyśmy mogli się szprycować. Zadajmy więc naiwne pytanie: jaki
właściwie jest sens szczęścia?
Nie jestem filozofem, dlatego odpowiedź w tych kategoriach pozostawiam
innym ekspertom. Istnieje za to neurobiologiczne uzasadnienie istnienia
silnej i bezpośredniej, choć ulotnej formy szczęścia: uczenie się. To nauka
stanowi biologiczny cel szczęścia. Kto by przypuszczał?
Generalnie istnieją dwie możliwości, by nauczyć się nowych rzeczy.
Można po wielokroć mozolnie powtarzać nową informację, aż utrwali się
w sieci nerwowej jako odpowiedni wzorzec aktywacyjny (por. mit 10.
Uczymy się w zgodzie z własnym typem). Na szczególne okazje przewidziany
jest jednak szybszy wariant, właśnie z wykorzystaniem ośrodka szczęścia.
Pozytywne emocje nie tylko pomagają nam lepiej zapamiętywać różne
rzeczy, ale też motywują do tego, by je powtarzać. Z tego punktu widzenia
odczuwanie szczęścia to nic innego jak dopalacz usprawniający naukę.
Nasz ośrodek szczęścia (jądro półleżące i cały szlak dopaminergiczny)
uruchamia się zawsze wtedy, gdy coś nieoczekiwanego przyjemnie nas
zaskoczy: bułeczka z wyjątkowo pysznym dżemem o poranku, wygrana FC
Köln z Bayernem, nowy numer Świerszczyka w kiosku – wszystko to
sprawia nam frajdę i działa motywująco, o ile przychodzi nieoczekiwanie.
Z zasady bowiem mózg jest nieustannie zajęty dokonywaniem porównań.
Czy rzeczywistość odpowiada moim oczekiwaniom? Jeśli tak – nuuuda. Jeśli
nie (a na dodatek niespodzianka jest przyjemna) – wspaniale, trzeba to
powtórzyć! W tym celu zaś, żebyśmy nie zapomnieli, jakie konkretnie
działanie doprowadziło do przyjemnej niespodzianki, wydzielana jest
dopamina, która wprawia nas w dobry nastrój i motywuje do powtórzenia
danej czynności. Coś w rodzaju nauki na skróty.
Wszystko, co nowe, nieoczekiwane i jednocześnie przyjemne, ulega zatem
wzmocnieniu za sprawą dopaminy w jądrze półleżącym. Niespodzianka to
najlepsza motywacja do nauki, my zaś jesteśmy zawsze żądni nowinek.
Ciekawość, zainteresowanie nieznanym to nic innego jak najbardziej
pierwotna forma poszukiwania dopaminowego kopa. Dla mózgu jest bowiem
niezwykle istotne, by wciąż zajmowały go nowe informacje, bodźce
zmysłowe, doświadczenia czy ruchy. Tylko wtedy, gdy mózg ma co
przetwarzać, sieci neuronalne mogą się przekształcać, co ma tak wielkie
znaczenie dla tworzenia sprawnej infrastruktury w układzie nerwowym (była
już o tym mowa w kilku poprzednich rozdziałach).
Poznawanie nowych rzeczy sprawia więc mózgowi niesamowitą frajdę.
Niestety rzadziej dotyczy to treści przekazywanych na lekcjach w szkole,
a częściej najnowszych plotek o gwiazdach w Gali czy na przykład
chwytliwych mitów na temat mózgu. To, że i wy zapewne nabraliście się na
jeden czy drugi mit tego rodzaju, również zawdzięczacie własnemu
ośrodkowi szczęścia. W pewnym sensie wasz mózg po prostu was wykiwał
właśnie dlatego, że tak lubi niespodzianki – nieważne, czy zgodne z prawdą,
czy nie.

Jak rodzi się szczęście

Czas na podsumowanie. Tak, to prawda, że endorfiny wprawiają nas


w euforię. Sprawa nie jest jednak tak prosta, bo ani nie są one „hormonami
szczęścia”, ani nie działają samodzielnie, tylko wspomagają działanie
neuronów dopaminergicznych w ośrodku szczęścia w mózgu.
I jeszcze jedna ważna kwestia: żadna substancja przekaźnikowa nie
decyduje samodzielnie o tym, co dzieje się w komórce (czy w jakimś innym
miejscu). Owszem, dopamina daje nam kopa – ale tylko wówczas, gdy
połączy się ze ściśle określonymi receptorami w ściśle określonym rejonie
mózgu. W innych jego obszarach jest wykorzystywana na przykład do
kontrolowania ruchów ciała albo zwiększania koncentracji. O ostatecznym
efekcie decyduje zawsze receptor.
Tak samo jest w przypadku endorfin. Gdy łączą się z receptorem
w ośrodku szczęścia, przepełnia nas radość. Jednak mogą się też związać
z receptorami o przeciwstawnej funkcji i powodować, że dopada nas chandra
(zwana uczenie dysforią jako przeciwieństwo euforii)78. Oznacza to, że
równie dobrze endorfiny mogą nas unieszczęśliwiać. W ogóle dajcie sobie
spokój z mówieniem o „uszczęśliwiających substancjach”, bo
z biologicznego punktu widzenia nie ma ono sensu. W gruncie rzeczy nie
istnieją „pobudzające” lub „hamujące” substancje przekaźnikowe.
Neuroprzekaźnik to neuroprzekaźnik, koniec i kropka. Powtórzę jeszcze raz:
o tym, jak ostatecznie zadziała, zawsze decyduje receptor, z którym się
zwiąże.
To trochę tak jak przy lekturze tej książki. Każdy czytelnik jest poniekąd
receptorem wydrukowanych liter – bo w gruncie rzeczy to przecież tylko
czarne znaczki na białym tle, pozbawione znaczenia. Dopiero wy, czytając
i rozumiejąc tekst, nadajecie im sens. Tyle że każdy odczytuje ten sam tekst
nieco inaczej – podobnie jak w mózgu jest wiele różnych receptorów.
Dlatego też każdy wyciągnie z lektury inne wnioski. Jednym być może
spodoba się popularyzatorska pasja autora (bardzo by mnie to ucieszyło), inni
mimo najlepszej woli nie będą w stanie dopatrzyć się w czytanych zdaniach
istotnego sensu (tych proszę o odrobinę cierpliwości, następny rozdział
powinien wam to zrekompensować!) – ja jednak nie mam na to żadnego
wpływu. Na tej samej zasadzie cząsteczka endorfiny czy dopaminy nie ma
wpływu na to, co się stanie, gdy dotrze do jakiejś komórki. Rezultatem może
być radość, smutek albo uniesienie ręki, o tym jednak zdecyduje dopiero
receptor.
Wniosek: endorfiny nas rzeczywiście uszczęśliwiają – ale nie
samodzielnie, a tylko jako wsparcie dla układu dopaminergicznego w jądrze
półleżącym. Wiecie już też, jaki jest sens szczęścia: uczyć się nowych rzeczy,
pod warunkiem że te nowości na dodatek pozytywnie was zaskoczą. I mam
nadzieję, że właśnie ten rezultat udało mi się osiągnąć w niniejszym
rozdziale. Dzięki temu możecie w dobrym nastroju przejść do lektury
następnego.
MIT NUMER 13

Podczas snu mózg robi sobie przerwę

Za pół godziny północ, a ja wciąż biedzę się nad tym rozdziałem. Redaktor
naciska, książkę trzeba oddać do druku. Dlatego ślęczę dalej, zwłaszcza że
chodzi przecież o zupełnie wyjątkowe i tajemnicze zjawisko: sen. To
fascynujący temat – a mimo to czuję, jak mój mózg powoli poddaje się
zmęczeniu. Jak gdyby rzeczywiście potrzebował zrobić sobie przerwę i się
zregenerować, by rano zacząć nowy dzień w pełnej gotowości do działania.
Gdy jesteśmy zmęczeni, często czujemy, że mózg jest wyciśnięty jak
cytryna. Wygląda to tak, jakby za długo pracował na pełnych obrotach i teraz
musiał odnowić rezerwę energii – stąd potrzeba snu. Ale czy tak jest
rzeczywiście? Czy mózg podczas snu odrywa się od wyczerpującej pracy
prowadzonej za dnia? Dlaczego w ogóle śpimy? Co dzieje się w mózgu,
kiedy coś się nam śni? Czy rzeczywiście sny mówią coś o naszej
„podświadomości”?
Trzecie oko a uczucie zmęczenia

Zacznijmy od bardzo rozpowszechnionego, lecz błędnego założenia. Otóż nie


jest tak, że mózg jest nocą „skonany”, bo tak się natyrał w ciągu dnia, że po
prostu nie daje już rady. Spanie to proces o wiele bardziej skomplikowany
niż po prostu chwilowe zawieszenie funkcjonowania mózgu (nawet jeśli
czasem tak to właśnie odczuwamy). Mózg wyłącza się w sposób całkowicie
kontrolowany albo, ściślej mówiąc, przełącza się na tryb nocny, bo
całkowicie nigdy się nie wyłącza.
Z całą pewnością słyszeliście, że każdy z nas ma w sobie wewnętrzny
zegar, kontrolujący rytm snu i czuwania. Nie jest to dokładnie zgodne
z prawdą, bo w rzeczywistości takich zegarów jest kilka; kontrolują się
nawzajem i w ten sposób ustalają nasz indywidualny rytm. W sumie to
zrozumiałe: żeby przełączyć w stan snu tak skomplikowane urządzenie jak
ludzki mózg, nie wystarczy po prostu odłączyć prąd w centrali. W proces
zasypiania angażuje się wiele obszarów mózgu; niemal wszędzie istnieją
grupki neuronów podlegających rytmowi dobowemu, które przygotowują do
zaśnięcia swój nieduży „rewir”. Jak członkowie nocnej straży oznajmiają
jeden drugiemu, że przyszła już pora na sen. Jednak w mózgu nie każdy
może robić, co mu się podoba, więc istnieje też centralny czasomierz: swego
rodzaju zegar główny w międzymózgowiu.
Macie może w domu zegar regulowany sygnałem radiowym, który
pokazuje superdokładny czas? Po to, by zegary tego typu chodziły
punktualnie, synchronizuje się je z zegarem atomowym, od którego poprzez
nadajnik otrzymują na bieżąco aktualny sygnał czasowy. Podobny proces
zachodzi w układzie nerwowym. W naszej głowie też działa taka centralna
stacja nadawcza – w jądrze nadskrzyżowaniowym – nadająca nadrzędny rytm
wszystkim pozostałym zegarom w mózgu. Trzeba tu jednak przyznać, że pod
względem precyzji fizycy biją nas na głowę. Zegar atomowy „myli się”
o jedną sekundę na trzy miliony lat. W biologii traktujemy dokładność
znacznie swobodniej: gdy jest ciemno, należy iść spać, a kiedy się rozwidni,
pora wstawać. Do codziennego funkcjonowania taki stopień precyzji
w zupełności wystarczy.
No dobrze, a jak się to przedstawia u osób niewidomych lub
u nieszczęśników zamkniętych przez ciekawskich naukowców
w laboratorium, w którym światło pali się przez cały czas? Odpowiedź jest
zaskakująca: otóż nasz centralny metronom ma wypracowany własny, 25-
godzinny rytm, dzięki czemu dzienny rytm aktywności człowieka
dostosowuje się mniej więcej do dobowego. Ale ze względu na tę
niedokładność (25 godzin to przecież więcej niż doba), rytm ten nosi
w biologii nazwę „okołodobowego” (wspominałem już, że dla nas, biologów,
superdokładny czas nie ma wielkiego znaczenia; ważne, by zgadzał się
w zarysach).
Po to, by nasz wewnętrzny zegar całkiem nie rozminął się z rytmem dnia
i nocy, centralny metronom musi go ciągle synchronizować z rzeczywistym
rytmem dobowym. Dlatego został bardzo praktycznie umiejscowiony
bezpośrednio nad tzw. skrzyżowaniem wzrokowym, czyli miejscem
krzyżowania się włókien nerwu wzrokowego (stąd nazwa „jądro
nadskrzyżowaniowe”). W zupełnie dosłownym sensie pełni tam rolę naszego
trzeciego oka, mając bezpośredni kontakt ze światłoczułymi receptorami
siatkówki, które na bieżąco rejestrują natężenie światła. Dzięki temu
wewnętrzny zegar „wie”, czy na zewnątrz jest jasno czy ciemno,
i dopasowuje do tego swój rytm. Informację tę przekazuje ostatecznie do
innych obszarów mózgu, które dzięki temu mogą dostosować do niego swój
własny rytm.
Coraz ciszej grająca orkiestra

Rytmem naszej dziennej aktywności steruje zatem centralny zegar


w międzymózgowiu. Jednak konkretnie za zasypianie odpowiada inna
struktura w mózgu, zwana tworem siatkowatym.
Z pewnością zdarzyło wam się uczestniczyć w zabawach, na których przez
cały czas skocznie przygrywał zespół muzyczny, zagrzewając gości do tańca.
Dzięki temu wszyscy pozostają w imprezowym nastroju, jakby muzycy
poddawali im rytm. Kiedy zaś grajkowie zaczynają się zbierać, jest to zwykle
dyskretna sugestia, że przyjęcie zbliża się do końca. Podobnie można
wyobrazić sobie funkcję tworu siatkowatego. Jest to dosyć skomplikowana
struktura, położona w miejscu, gdzie mózg przechodzi w rdzeń kręgowy
(czyli w pniu mózgu). Znajdujące się tam neurony wysyłają ciągły strumień
impulsów do mózgu: to właśnie nasza orkiestra, która dba o to, by
kresomózgowie zachowywało czujność i było „na chodzie”.
W pewnym momencie jednak nadająca rytm orkiestra dostaje dyskretny
sygnał od centralnego zegara, że pora kończyć zabawę. W efekcie stopniowo
słabnie strumień pobudzających impulsów, które twór siatkowaty wysyła do
kresomózgowia. Gdy w pewnym momencie ten dopływ ustanie, do
kresomózgowia dociera, że już po balu. Nie oznacza to oczywiście, że mózg
przestaje pracować, tracimy natomiast zdolność świadomej koncentracji.
Brzmi to dosyć niepokojąco, chodzi jednak tylko o to, by mózg mógł
wreszcie zająć się ważniejszymi rzeczami niż gapienie się w telewizor albo
pisanie popularyzatorskich książek o wpół do pierwszej w nocy. Pora na
gruntowne porządki.

Nocne sprzątanie mózgu


W ciągu dnia mózg jest tak zajęty przetwarzaniem mnóstwa nowych
informacji i bodźców zmysłowych, że nie ma nawet mowy o tym, by usuwał
z siebie zbędne produkty przemiany materii. Dlatego wielkie porządki
zaplanowane są na noc. Mikroskopijne przestrzenie pomiędzy neuronami
ulegają poszerzeniu, tak by komórki glejowe (czyli, przypominam, komórki
pomocnicze w mózgu) mogły przepłukać tkankę nerwową przy użyciu płynu
mózgowego-rdzeniowego. Pozwala to usunąć nagromadzone w ciągu dnia
odpady, które blokowałyby prawidłowy metabolizm w mózgu79.
Wróćmy na chwilę do naszego przyjęcia: panuje szampańska atmosfera,
gra muzyka, goście tańczą, jedzą, piją, krótko mówiąc, świetnie się bawią. To
kiepski moment na wejście z wiadrem i mopem – nie przysporzylibyście
sobie tym przyjaciół. Lepiej poczekać, aż imprezowa euforia opadnie
i wszyscy rozejdą się do domów. Co prawda aż nadto będzie wówczas widać
skalę dokonanego spustoszenia, ale przynajmniej nikt nam nie przeszkodzi
w sprzątaniu.
Mózg również potrzebuje oderwać się od nieustającego bombardowania
bodźcami zmysłowymi, żeby wreszcie zająć się higieną osobistą. A trzeba
wiedzieć, że jest prawdziwym czyścioszkiem. To prawdopodobnie jeden
z powodów, dla których tracimy nocą świadomość – dzięki temu nie
gromadzą się dalsze produkty przemiany materii i mózg ma swoją chwilę
przerwy. Czy znaczy to jednak, że rzeczywiście wypoczywa podczas snu?

Mózg też potrzebuje wolnego

Sen to właściwie trochę głupi wymysł: leżymy bezbronni, stanowiąc łatwy


łup dla ewentualnych wrogów; marnujemy blisko jedną trzecią życia na to,
by regularnie wyłączać świadomość i wałkonić się przez parę godzin. (Co
prawda, niektórzy robią tak, nawet gdy nie śpią…) Przecież zamiast trwonić
czas na sen, można by go wykorzystać ze znacznie większym pożytkiem:
poszukać czegoś do jedzenia, zostać pięknym i bogatym albo przynajmniej
zatroszczyć się o posiadanie potomstwa. Każde z tych działań ma głęboki
sens z ewolucyjnego punktu widzenia. Tymczasem sen na pierwszy rzut oka
sprawia wrażenie gigantycznej pomyłki. I na tej podstawie można
podejrzewać, że służy on czemuś więcej niż tylko „przerwie
konserwacyjnej”, o której była mowa przed chwilą.
Rzeczywiście czas snu mózg wykorzystuje na bardzo rozmaite aktywności.
Trochę tak jak niejeden czytelnik tej książki: po męczącym tygodniu
w weekend można nie tylko wypucować samochód i przyciąć żywopłot, ale
też obejrzeć mecz albo wybrać się do sklepu w poszukiwaniu nowej
wiertarki. Gdy nie trzeba iść do pracy, jest wreszcie czas na to, co w życiu
ważne!
Podobnie jak typowy weekend dzieli się na etapy (zwiększona aktywność
w sobotę, więcej relaksu w niedzielę), tak i sen można podzielić na kilka faz.
Łącznie wyróżniamy cztery stadia mniej lub bardziej czujnego snu:
w stadium pierwszym śpi się bardzo lekko i łatwo można się obudzić,
natomiast w stadium czwartym śpimy naprawdę głębokim snem
sprawiedliwego. Dla uproszczenia podzielono sen na fazy REM (okres 1)
i NREM („nie-REM”, czyli okresy 2, 3, 4).
REM to skrót od rapid eye movement (szybkie ruchy gałki ocznej), bo
w tej fazie strzelamy w różne strony oczami 1–4 razy na sekundę. Dodajmy,
że gałki oczne to jedyne, co się wtedy w ciele porusza, bo we śnie jesteśmy
jak sparaliżowani, mięśnie szkieletowe są całkowicie zwiotczałe. Sen REM
bywa także nazywany fazą marzeń sennych, ponieważ sny są wówczas
szczególnie żywe i wyraziste. Co prawda śnimy także w innych fazach, ale
nasze wspomnienia z nich są bardziej abstrakcyjne i mniej nacechowane
emocjonalnie.
Zaraz po zaśnięciu zapadamy w sen głęboki (fazę NREM), pozostając
w nim około godziny, by następnie cofnąć się do okresu 1 (czyli fazy REM),
po czym znów zapaść w sen głęboki. Cały ten cykl powtarza się 4–5 razy
w ciągu jednej nocy. Mózg układa cykle snu zgodnie z zasadą „najpierw
praca, potem przyjemność”, dlatego zaczynamy od tego, co absolutnie
niezbędne do przeżycia, czyli od snu głębokiego. Pod koniec tej fazy sen
staje się stopniowo coraz lżejszy, pojawia się też więcej marzeń sennych.
Takie rozwiązanie daje gwarancję, że zawsze dostatecznie skorzystamy
z podstawowego snu, czyli trzech pierwszych cykli snu głębokiego. Koniec
końców, biologicznie niezbędne są nam zatem zaledwie cztery godziny snu.
Zarwaną noc da się szybko wyrównać jednorazowym spaniem – w tym celu
organizm po prostu intensyfikuje fazy głębokiego snu i, można powiedzieć,
śpi wydajniej. W drugą stronę to niestety nie działa – często praktykowana
drzemka w dzień po to, by przygotować się na długą aktywność w nocy, nic
nie daje. Mózg nie potrafi gromadzić snu na zapas.
Trzeba podkreślić, że w żadnej z faz mózg nie jest „wyłączony” i nie
zawiesza całkowicie działalności. Neurony pracują przez cały czas
i synchronizują swoją aktywność – choć owa synchronizacja przebiega
różnie, w zależności od głębokości snu. Widać to wyraźnie w badaniu EEG,
czyli podczas mierzenia „prądów mózgowych”. W fazie REM prądy te nie
różnią się zbytnio od tego, co dzieje się na jawie. Gdybyśmy nie mieli
zamkniętych oczu, właściwie nie dałoby się stwierdzić większej różnicy (stąd
fazę tę określa się też niekiedy mianem snu paradoksalnego). Natomiast
w fazach głębszego snu neurony przestrajają się na „fale długie”, czyli prądy
mózgowe spowalniają. Ale uwaga, nie oznacza to wcale, że komórki
nerwowe stają się mniej aktywne. Przeciwnie, dopiero podczas głębokiego
snu zabierają się do naprawdę wytężonej pracy.
Nauka przez sen

Wiemy już, że w czasie snu mózg przechodzi przez rozmaite stadia


aktywności, ale czemu to wszystko służy? Aktualnie przyjmuje się, że
właśnie to przemienne występowanie faz snu lżejszego i głębszego ma
bardzo istotne znaczenie dla funkcji snu w ogóle. Nie ulega wątpliwości, że
sen odgrywa decydującą rolę dla właściwego działania pamięci. W każdym
razie w warunkach jego niedoboru o wiele trudniej jest nam cokolwiek trwale
zapamiętywać80. To logiczne, nie można przecież dopuścić do tego, by wciąż
zalewały nas nowe dane – w pewnym momencie trzeba odciąć dopływ
bodźców i „przejrzeć” zgromadzony materiał. Tak jak podczas pracowitego
dnia w biurze: wciąż dzwonią telefony, przychodzą nowe mejle, listy czy
pocztówki z dalekich krajów; jeśli będziemy bez ustanku przerzucać się od
jednego do drugiego, na pewno nie uda nam się z tym wszystkim uporać.
Mózg także potrzebuje takiego „bezbodźcowego” okresu, w którym będzie
mógł spokojnie przejrzeć zdobyte informacje, a następnie je zapisać (o ile
okażą się tego warte).
Zgodnie z jednym z popularnych mitów na temat snu, nocą jeszcze raz
odtwarzamy sobie to, co przytrafiło nam się w dzień i w ten sposób
utrwalamy zdobyte doświadczenia. Tak miałyby też powstawać sny –
z połączenia bieżących wrażeń ze starszymi wspomnieniami. Krótko
mówiąc, nasze sny to w istocie rezultat tworzenia wspomnień.
W rzeczywistości jednak w budowaniu wspomnień ważną rolę odgrywa nie
tylko faza REM (nazywana, jak pamiętamy, fazą marzeń sennych), ale
naprzemienne występowanie poszczególnych stadiów snu głębokiego
i płytkiego. Dzięki temu, że mózg dzieli sen na rozmaite okresy, zyskuje
możliwość precyzyjnego pobudzania w każdym z nich określonych
obszarów, tak by zapisać treści pamięciowe.
W fazie snu głębokiego aktywny jest przede wszystkim hipokamp, który
jeszcze raz wyciska z siebie całą zgromadzoną za dnia wiedzę faktograficzną
i prezentuje ją kresomózgowiu. A nie jest tego mało. Raczej aż tak dużo, że
kresomózgowie nawet podczas snu musi zrobić sobie przerwę i uruchamia
fazę REM. W ten sposób hamuje aktywność hipokampu i pobudza własne
sieci neuronalne, które dzięki temu mają możliwość dostosować się do
nowych informacji. Po krótkiej przerwie kresomózgowie jest gotowe na
kolejną partię świeżych informacji, dlatego ponownie zapada w głęboki sen
i pozwala, by hipokamp znów przystąpił do prezentacji. Jak widać, nawet we
śnie mózg ani przez chwilę nie ma świętego spokoju.

Potęga marzeń sennych

Co wam się śniło ostatniej nocy? Jeśli odpowiecie, że nic, niestety nie będzie
to prawidłowa odpowiedź, ponieważ wszyscy śnimy każdej nocy. A jeśli
w najdrobniejszych szczegółach przypominacie sobie barwny sen o tym, jak
tańczyliście walca z białym niedźwiedziem na ukwieconej łące, to też
padacie ofiarą złudzenia. To bowiem, co uważacie za sen, jest tylko
wspomnieniem o nim, powstałym już na jawie. Z zasady nigdy nie budzimy
się w trakcie marzenia sennego, a dopiero po nim – i dopiero wówczas
świadomość stara się zrekonstruować blednące z każdą chwilą wspomnienie.
Ale czy rzeczywiście taki mieliśmy sen czy może dodaliśmy później to i owo
– tego nigdy nie jesteśmy w stanie stwierdzić z całkowitą pewnością.
Szczególnie wyraziste i przesycone emocjami sny mamy w fazie REM.
Przypuszcza się, że mózg przetwarza i w ten sposób zapisuje wówczas przede
wszystkim emocje i sekwencje ruchowe. Być może jest to jeden z powodów,
dla których w tej fazie jesteśmy jak sparaliżowani, leżymy w łóżku niezdolni
poruszyć żadnym mięśniem – gdybyśmy w podnieceniu wywołanym snem
zaczęli (nie budząc się) dziarsko hasać, mogłoby się to źle skończyć. Jako
ciekawostkę dodam, że lunatycy, a więc ludzie wędrujący we śnie, śnią dosyć
rzadko. Ich spacery przypadają na fazy snu raczej pozbawione marzeń
sennych, nie cechuje ich też bynajmniej „lunatyczna pewność” kroku.
Lunatycy stąpają raczej ostrożnie i niepewnie, a gdy się zbudzą, zwykle są
zdezorientowani i chcą wrócić do łóżka. Cóż, są ludzie, którzy w takim stanie
spędzają większość życia…
Warto tu dodać, że sny nie są też wyrazem podświadomości, która nocą
wreszcie przerywa tamy i zdradza nasze najskrytsze pragnienia. To raczej
przypadkowo przywoływane wspomnienia i doświadczenia, które
ewentualnie mogą pasować do bieżących informacji z danego dnia. Bo nawet
jeśli w fazie głębokiego snu hipokamp pobudza sieci neuronalne
w kresomózgowiu za pomocą nowych treści, to w następującej po niej fazie
REM mogą też uruchomić się znane już wzorce aktywacyjne (czyli starsze
myśli) i zostać dołączone do snu. Właśnie dlatego w naszych snach pojawiają
się nie tylko bieżące wydarzenia z danego dnia, ale także „podobne” do nich
sytuacje z przeszłości. Następuje więc jednoczesna aktywacja neuronów na
dużej powierzchni, a kresomózgowie podejmuje zadanie, za które jesteśmy
mu winni głęboką wdzięczność: z całej tej góry informacji ma utworzyć
stabilne wspomnienia. Kieruje się przy tym bardzo prostą zasadą: to, co
często wywoływane jest jako wspomnienie, najwyraźniej jest ważne, a zatem
należy to jeszcze skuteczniej zapisać jako wzorzec aktywacyjny sieci
neuronów. Interpretacja snów jest zatem zupełnie zbyteczna, bo
kresomózgowie załatwia dobór treści automatycznie.
Wiele osób sądzi, że w trakcie snu czas biegnie znacznie szybciej niż
w rzeczywistości. Istotnie, za jednym zamachem śnimy nie dłużej niż 30
minut, jednak gdy w laboratorium snu budzono badanych po określonym
czasie, zwykle potrafili prawidłowo ocenić, jak długo śnili. Oznacza to, że
najczęściej śnimy w czasie rzeczywistym. Na dodatek potrafimy na bieżąco
wkomponowywać w sen bodźce zewnętrzne. Jeśli na przykład zostaniemy
lekko spryskani wodą w fazie marzeń sennych, bardzo możliwe, że przyśni
się nam mżawka.
Znaczenie i funkcja marzeń sennych wciąż są przedmiotem naukowego
sporu. Na dodatek wydaje się, że ich charakter zmienia się w ciągu nocy:
z początku sny są w znacznej mierze „faktograficzne” i odnoszą się głównie
do wydarzeń minionego dnia. Pod koniec stają się nasycone emocjami
i uwzględniają też odleglejsze wspomnienia. Owa nocna praca z emocjami
jest bardzo istotna, bo jak wszyscy wiemy z własnego doświadczenia, po
dobrze przespanej nocy wiele rzeczy jawi się nam w innym świetle, często
bardziej pozytywnie. Być może za sprawą snu negatywne emocje są
poddawane odpowiedniej obróbce i dzięki temu można je łatwiej
„poukładać”. To też jeden z powodów, dla których horrory w telewizji
zawsze nadawane są późnym wieczorem: tuż po przebudzeniu jesteśmy
zwykle na tyle sprawni w radzeniu sobie ze złymi emocjami, że znacznie
trudniej byłoby nas przestraszyć81. W końcu nie przeraża nas nawet widok
własnej, poszarzałej z niewyspania twarzy w lustrze. Jak widać, kolejną
funkcją snu jest też chronić nas przed nami samymi.

Miłych snów!

Sen w żadnym razie nie jest więc niekontrolowanym zawieszeniem funkcji


mózgowych. Po pierwsze, jest jak najbardziej kontrolowany, a po drugie, ma
swoje istotne znaczenie biologiczne. Ponadto mózg nigdy nie wyłącza się
całkowicie, a tylko wykorzystuje ów szczególny, „bezbodźcowy” stan, jakim
jest spanie, do przeprowadzenia porządków i przejrzenia swych zasobów
informacyjnych. W pewnym sensie zasadne jest więc stwierdzenie, że
podczas snu mózg robi sobie przerwę – trzeba jednak pamiętać, że to
prawdziwy kujon i na przerwach wcale nie przestaje się uczyć.
Uczciwie muszę tu jednak dodać, że nawet wyposażeni w superdrogą
aparaturę neurobiolodzy wciąż nie są w stanie w pełni wyjaśnić, co dokładnie
dzieje się podczas snu z naszą świadomością. Nie jest na przykład jasne, co
i w jaki sposób steruje zmianami stanu świadomości pomiędzy snem a jawą.
Niektórzy ludzie nawet podczas snu zdają sobie sprawę z tego, że śnią.
Całkiem niegłupio, bo w ten sposób można bez przeszkód wypróbować
wszystko to, na co nie poważylibyśmy się w realnym życiu. Wciąż jednak nie
wiadomo, jak powstają takie „świadome sny” (określane też skrótem LD, od
angielskiego lucid dream) i co mówią na temat istoty naszej świadomości.
Ale stąd właśnie bierze się nadzieja, że w toku badań nad snem uda się
odkryć jedną z największych tajemnic mózgu: jak powstaje świadomość.
Przedmiotem intensywnych naukowych dyskusji i badań są też teorie na
temat powstawania pamięci (naprzemienne występowanie snu głębokiego
i fazy marzeń sennych) czy wreszcie zjawisko samooczyszczania się mózgu
w trakcie snu, które, dodajmy, zostało odkryte dopiero niedawno. Również
koncepcja przepracowywania uczuć w fazie głębokiego snu pozostaje
dyskusyjna, gdyż zdarza się, iż przeżycia ze snu nasilają wstrząsające lub
traumatyczne wspomnienie82. Sen w dalszym ciągu pozostaje więc
zjawiskiem tajemniczym – mam jednak nadzieję, że od tej chwili mniej
obciążonym mitami i półprawdami.
Jedno jest udowodnione ponad wszelką wątpliwość: sen jest niezbędny do
życia i bardzo zdrowy. Dlatego zamierzam się teraz w końcu położyć bez
względu, co powie na to mój redaktor. Gdy się wyśpię, zabiorę się rano do
kolejnego rozdziału. Dobranoc.
MIT NUMER 14

Brainfood – przez żołądek do mózgu

Gdy byłem na studiach, mama często mi powtarzała: „Synku, zjedz trochę


mieszanki studenckiej, to dobrze robi na mózg. Ma dużo ważnych kwasów
tłuszczowych i minerałów, dzięki którym będzie ci się lepiej myślało!” Całe
tygodnie przed sesją żywiłem się więc zestawami rozmaitych orzechów
w nadziei, że stanę się od tego mądrzejszy. Cóż – faktycznie tak się stało
i w związku z tym musiałem wytłumaczyć mamie, że z tą mieszanką
studencką to nie do końca prawda. Prawdziwy pech, że studiowałem akurat
biochemię.
Na dobrą sprawę odżywianie można by uznać za czynność naprawdę
nieskomplikowaną: jemy i pijemy, gdy jesteśmy głodni i spragnieni, i tyle.
Ale oczywiście w dzisiejszych czasach na temat ewentualnych rozkoszy
podniebienia wypada wiedzieć znacznie więcej. Przyjmowanie pokarmów
urosło do rangi odrębnej dziedziny nauki. Każdy przecież chce żywić się
„prawidłowo”, dlatego mamy na rynku całe mnóstwo produktów,
pozwalających wybrać coś odpowiedniego na każdą okazję: żywność dla
sportowców, dla niemowląt, dla kobiet w ciąży, dla wegetarian, dla seniorów,
dla singli z kuchenką mikrofalową i, oczywiście, także dla mózgu. To
w sumie logiczne, bo któż nie chciałby pobudzić własnych neuronów za
pomocą batonika z musli?
W konsekwencji zrodziło się modne pojęcie brainfood, czyli żywności dla
mózgu. Za jego pomocą reklamuje się rozmaite produkty i ich cenne
składniki jako doskonałe paliwo dla mózgu. Bo przecież na pracę mózgu
wpływa wszystko: czekolada uszczęśliwia, orzechy i czarne jagody dobrze
robią na inteligencję, margaryna z dodatkiem kwasów omega-3 to
wyśmienity smar dla mózgu, a cukier stanowi pierwszorzędny olej
napędowy. Na temat żywności dla mózgu mówi się bardzo dużo, ale niestety
pełno w tych wypowiedziach półprawd albo i kompletnych nonsensów.
Najwyższy czas z tym skończyć, dlatego powiemy teraz trochę o zasadach,
na jakich mózg zaopatruje się w substancje odżywcze. Zna on naprawdę
wiele sztuczek, by zawsze dobrać się do najlepszych kąsków i żeby nigdy,
przenigdy nie zabrakło mu paliwa.

Cegiełki mądrości

Spytajmy naiwnie: czy rzeczywiście to, co jemy, wpływa na inteligencję, jak


usiłuje nam to wmówić branża spożywcza? Biorąc pod uwagę ton, w jakim
pisałem wcześniej, odpowiedź może się wydać zaskakująca: naturalnie, że
tak. Nie ulega wątpliwości, że bez odpowiedniego budulca dla mózgu z całą
pewnością nie stalibyśmy się tak bystrzy, jak jesteśmy obecnie.
Wszystko zaczęło się jakiś milion lat temu, gdy nasi przodkowie nie
ściągali sobie jeszcze najnowszych przepisów na iPada, tylko w walce
o przetrwanie zbierali ważne produkty spożywcze: owoce i korzonki. Od
czasu do czasu trafiało się też może trochę mięsa, ale w stanie surowym
trudno było je przeżuć i strawić. Dlatego ważnym krokiem naprzód, zapewne
w ogóle najważniejszym, było opanowanie sztuki rozniecania ognia.
W efekcie umiarkowanie rozumni ludzie pierwotni przeobrazili się
ostatecznie w dzisiejszych gigantów intelektu. Nagle okazało się, że mięso,
ciężkostrawne na surowo, może być przysmakiem, a doskonale smakuje też
upieczona na patyku ryba. Tak przyrządzone produkty nie tylko miały lepszy
smak, ale przede wszystkim ujawniły się jako nieznane wcześniej źródło
ważnych składników pokarmowych: wysokowartościowego tłuszczu i białka.
Przypomnijmy, że ludzki mózg, nie licząc wody (której zawiera do 80
procent), zbudowany jest właściwie tylko z tych dwóch składników. Wiemy
już, dlaczego tak się dzieje: wszystko przez grubą warstwę izolacyjną,
otulającą włókna nerwowe, która ma decydujące znaczenie dla przewodzenia
impulsów nerwowych. Dopiero gdy człowiek był w stanie zgromadzić pod
dostatkiem budulca na potrzeby owej izolacji, mógł rozwinąć
charakterystyczną dla nas sieć połączeń neuronalnych. Co ciekawe, widać to
również na przykładzie czaszek naszych przodków sprzed około trzydziestu
tysięcy pokoleń: zmniejszenie wielkości szczęk i zębów szło w parze
z powiększaniem czaszki. Nic dziwnego – kruche, upieczone mięso rozpływa
się w ustach i nie wymaga mozolnego żucia, a na dodatek zawiera pod
dostatkiem budulca niezbędnego do stworzenia bardziej złożonego mózgu
i wykształcenia solidnej izolacji włókien nerwowych. Właśnie te dwa
czynniki zaprowadziły gatunek ludzki na sam szczyt, odróżniając go od
innych stworzeń. Tak rozbudowana izolacja włókien to jedno ze źródeł
naszej inteligencji; nie mają jej ani małpy, ani delfiny.
Również współcześnie okres powstawania osłonek włókien nerwowych
stanowi krytyczną fazę w rozwoju człowieka. Niedożywione niemowlęta nie
są w stanie w późniejszych latach wyrównać niedoborów białka i tłuszczu, co
negatywnie oddziałuje na ich rozwój intelektualny. Proces wykształcania się
wspomnianej izolacji rozciąga się przy tym na długie lata i dobiega końca
dopiero po okresie dojrzewania. Nie ma się więc co zamartwiać, że młodzi
ludzie okupują bary z burgerami i napychają się śmieciowym jedzeniem –
trochę tego białka i tłuszczu zostanie także w ich mózgach. Choć oczywiście
w zdrowym żywieniu chodzi o coś znacznie więcej.
Z powyższego warto zapamiętać, że od samego wcinania ziaren i owoców
człowiek jako gatunek najprawdopodobniej nie stałby się przesadnie
inteligentny. Pamiętajcie więc, drodzy wegetarianie, że jesteście tacy mądrzy
tylko dlatego, iż wasi przodkowie zaczęli pałaszować ryby i mięso.

Wampir w twojej głowie

Odżywianie mózgu to naprawdę ważna sprawa. A ponieważ w mózgu, jak


w bodaj żadnym innym narządzie, liczy się każdy najdrobniejszy element
konstrukcyjny, trzeba go zaopatrywać w starannie dobrany budulec. I to
przez cały czas!
W codziennym życiu kwestię zaopatrzenia można rozwiązać na kilka
sposobów – na przykład raz na kilka dni pójść do supermarketu i zrobić
zakupy na cały tydzień. To bardzo praktyczne, bo oszczędzamy sobie w ten
sposób stresu i na dodatek mamy niemal zawsze pełną lodówkę. Jednak
mózg postępuje inaczej. Na tę okoliczność lepiej będzie wyobrazić sobie
lodówkę studenta politechniki. Nie ma w niej praktycznie nic, żadnych
zapasów, wszystko jest kupowane i zużywane na bieżąco. Podobnie z dnia na
dzień żyje mózg, ledwie wiążąc koniec z końcem, a potrzebne substancje
odżywcze pobiera bezpośrednio z krwi.
Rozwiązanie takie ma swoje zalety, bo dzięki temu mózg nie potrzebuje
miejsca na przechowywanie zapasów. Z drugiej strony oznacza jednak, że
mózg jest całkowicie uzależniony od sprawnej logistyki. Wszystko, co
niezbędne, musi być dostarczone idealnie na czas i do tego w odpowiedniej
ilości. Dlatego w organizmie obowiązują bardzo jasne wytyczne: bez
względu na to, co się dzieje, mózg ma zawsze pierwszeństwo. Za karmienie
mózgu odpowiedzialne są wspominane już komórki pomocnicze astrocyty,
dostarczające pożywienie do neuronów. Są one wyposażone w specjalne
cząsteczki transportujące, które wychwytują z krwiobiegu ważne substancje
odżywcze (nie tylko cukier, ale także aminokwasy), zanim inne narządy
w ogóle zdążą się do nich dobrać. Tak jak na posezonowych wyprzedażach:
pierwsi klienci biorą najlepsze towary. Dzięki temu mózg zawsze dostaje to,
co jest mu potrzebne.
Powyższa zasada ma ogromne znaczenie, bo pozwala chronić mózg
w razie niedoborów pokarmowych. Można powiedzieć, że na tle innych
narządów mózg jawi się jako swego rodzaju wampir, który – zanim sam
padnie ofiarą głodu – wysysa substancje odżywcze z całego organizmu.
Gdyby było inaczej, w okresach prawdziwego głodu ludziom pierwotnym
udałoby się może utrzymać masę mięśniową, ale co przyjdzie z sześciopaku
na brzuchu, skoro mózg padłby z niedożywienia? Raczej niewiele (choć
odwiedzając dzisiaj dowolną siłownię, można zadać sobie pytanie, czy
u niektórych cała energia rzeczywiście nie wędruje do mięśni…).
W tym momencie nasuwa się jeszcze jeden wniosek: w warunkach
stosowania zrównoważonej diety jest praktycznie niemożliwe, by mózg był
źle odżywiony – a to dlatego, że sam weźmie sobie wszystko, czego mu
trzeba, jeszcze zanim zrobią to pozostałe narządy. Dlatego zasadniczo nie ma
potrzeby, by specjalnie z myślą o mózgu inwestować w brainfood, ponieważ
u ludzi dorosłych zjawisko niedożywienia mózgu nie występuje właściwie
nigdy.

Mózg i jego ochroniarze


No dobrze, nawet jeśli nie trzeba wyrównywać niedoborów, może jednak
warto dodatkowo zjeść czasem coś zdrowego, żeby usprawnić działanie
mózgu?
Przypomnijmy zatem raz jeszcze, że nie wszystko, co zjadamy, w ogóle
trafia do mózgu. Była już mowa o tym, że stanowi on „strefę pod specjalnym
nadzorem”, niemal hermetycznie odgrodzoną barierą krew–mózg. Po raz
kolejny spotykamy tu astrocyty, które tworzą ochronny mur wokół naczyń
krwionośnych i decydują o tym, co może się dostać do mózgu, a co nie.
Niczym bramkarze przed drogim klubem nocnym pozwalają wejść do środka
tylko wybranym cząsteczkom. I, podobnie jak w prawdziwym życiu, mali
i agresywni nie są zbyt mile widziani, dlatego cukry i aminokwasy poddaje
się drobiazgowej weryfikacji, zanim będą mogły przedostać się do tkanki
nerwowej. Łatwiej mają śliskie typy, takie jak tłuszcze, które bez problemu
mogą przeniknąć przez (zbudowaną również z tłuszczów) warstwę ochronną.
Nic dziwnego, że wszystkie narkotyki doskonale rozpuszczają się
w tłuszczach – dzięki temu ich cząsteczki mogą dosłownie zalać mózg
w ciągu niecałych trzydziestu sekund.
Często nie docenia się roli bariery krew–mózg, tymczasem jej istnienie jest
zasadniczym argumentem podważającym niektóre teorie na temat
„dożywiania mózgu”. Czekolada nas uszczęśliwia, ponieważ zawiera
serotoninę („hormon szczęścia”). Czyżby tak właśnie było? Nic podobnego,
bo ani serotonina, ani żaden z jej prekursorów nie przedostanie się tak łatwo
do mózgu. Od chińskich potraw boli nas głowa, bo doprawia się je
glutaminianem sodu (w naukowej literaturze można się spotkać z terminem
„syndrom chińskiej restauracji”). Tak? Nieprawda, bo w przypadku takich
związków jak glutaminian, który jest ważną substancją przekaźnikową,
dostęp do mózgu podlega bardzo ścisłej kontroli. Po zjedzeniu dużej ilości
mięsa czujemy się zmęczeni (w USA określają ten stan mianem turkey
tiredness, dosłownie „zmęczenie indykiem”), bo był w nim tryptofan.
Kolejna bzdura – po obfitym posiłku zawsze odczuwamy znużenie,
niezależnie od tego, co zjedliśmy.
Jeszcze jedno: nawet jeśli rzekomo aktywny składnik przedostanie się do
mózgu, musi trafić właśnie tam, gdzie wywoła wskazywane działanie. Jest to
podstawowa zasada farmakokinetyki. To trudne słowo oznacza tyle, że
działanie danej substancji zależy od podania jej w odpowiednim miejscu
i czasie. Na przykład pasta do zębów zadziała tylko, jeśli rozsmarujemy ją na
zębach, a jako krem do stóp okaże się raczej nieskuteczna. Jeśli zatem
najemy się czarnych jagód, bogatych w bioaktywne antocyjany (które mają
dobrze wpływać na mózg), muszą one najpierw dostać się tam, gdzie mają
zadziałać, czyli do komórek nerwowych. A nie jest to dla nich łatwe zadanie.
Zapamiętajcie zatem, że z faktu dostarczenia do organizmu określonych
substancji odżywczych, nawet w dużych ilościach, nie wynika jeszcze, że
trafią one do mózgu. Mózg sam pobiera wszystkie niezbędne substancje
budulcowe i odżywcze (siłą, jeśli trzeba), – a jednocześnie ogranicza dostęp
do siebie. Z tego względu bardzo trudno jest podkręcić metabolizm mózgowy
z zewnątrz, wcinając taki czy inny brainfood – dlatego że w absolutnej
większości przypadków mózg i tak jest doskonale odżywiony.

Byle nie jeść głupio

Niemniej mózg, podobnie jak cały organizm, jest oczywiście zdany na


dostarczane z zewnątrz substancje odżywcze, a ponadto źle znosi błędy
żywieniowe. Potrzebuje nienasyconych kwasów tłuszczowych do budowy
błon komórkowych neuronów i warstwy izolującej włókna nerwowe. Nasz
organizm nie jest też w stanie sam wytwarzać niektórych aminokwasów
(takich jak tryptofan i fenyloalanina), musi je więc pobierać z zewnątrz –
dlatego tak ważne w diecie jest białko. Do tego minerały zawarte w wodzie,
trochę witamin i to wystarczy, żeby mózg działał. Jeśli chodzi o cukier,
w razie potrzeby organizm potrafi go wyprodukować samodzielnie (o ile ma
do dyspozycji odpowiednią ilość białka).
Jednak próby dodatkowego dożywiania mózgu owymi ważnymi
substancjami – na zasadzie „skoro aminokwasy są tak istotne dla tworzenia
substancji przekaźnikowych, to wrąbię ich jeszcze trochę” – nie mają
najmniejszego sensu. Niektórzy jedzą na przykład banany, bo zawierają dużo
tryptofanu, a ten ma usprawniać działanie mózgu. To prawda, że tryptofan
jest prekursorem serotoniny (substancji przekaźnikowej, odgrywającej ważną
rolę w regulowaniu stanów emocjonalnych i przetwarzaniu wrażeń
zmysłowych). Co się jednak stanie, jeśli zaczniemy nagle pochłaniać
tryptofan w hurtowych ilościach? Staniemy się weseli jak szczygiełki albo
będziemy postrzegać wszystko w jaskrawych barwach? Nie, bo nadmiaru
tryptofanu mózg po prostu do siebie nie wpuści.
Niezależnie od tego, jak intensywnie będziemy dokarmiać mózg
produktami, mającymi usprawniać jego pracę, on i tak wybierze sobie tylko
to, czego w danej chwili potrzebuje. Pamiętajmy: mózg zawsze gotuje ściśle
według przepisu, nie modyfikuje receptury w zależności od tego, co akurat
ma pod ręką. A to dlatego, że kluczową sprawą jest, by cały czas dobrze
funkcjonował, czyli nie uzależniał się od przejściowych nadwyżek lub
niedoborów pokarmowych.

Neurożywność

Fakt, że mózg ściśle kontroluje własną dietę i jest w dużej mierze chroniony
przed wpływami zewnętrznymi, nie wyklucza jednak tego, że niektóre
produkty mogą wpływać na jego pracę. Najlepszym przykładem są narkotyki
i inne substancje psychoaktywne, takie jak kofeina. Neurobiolodzy na
wyprzódki badają obecnie najróżniejsze składniki pokarmowe, które
mogłyby wywierać wpływ na mózg. Nie jest to jednak proste, bo zwłaszcza
w przypadku pożywienia w grę wchodzi bardzo wiele czynników. Możemy
oczywiście dolać do herbaty wyciągu z miłorzębu – ale przecież zawiera on
setki substancji o bardzo zróżnicowanym działaniu. Zresztą być może
(kwestia ta jest obecnie przedmiotem szczególnie intensywnych badań) za
korzystny wpływ na mózg odpowiada właśnie owo połączenie, jednoczesne
działanie wielu różnych substancji.
Dlatego też w naukowej literaturze na temat „diety dla mózgu” znajduje
się przede wszystkim hipotezy i wezwania do kolejnych badań. Obecnie
wydaje się jednak, że dwie klasy substancji naprawdę pozytywnie oddziałują
na mózg.
Są to, po pierwsze, cieszące się doskonałą sławą kwasy tłuszczowe omega-
3. Uważa się je za pierwszorzędny „smar dla mózgu”, który zapewnia
odpowiednią elastyczność błonom komórkowym. Cząsteczki takiego tłuszczu
przenikają bez problemu przez barierę krew–mózg i łatwo docierają do
samego mózgu. Wydaje się, że spożywanie wysokich dawek tranu
(zasobnego w kwasy tłuszczowe omega-3) przez ponad sześć miesięcy
poprawia połączenia pomiędzy neuronami w mózgu83, choć jak dotąd nie
udało się potwierdzić, czy w efekcie stajemy się bardziej inteligentni. Coraz
więcej wskazuje jednak na to, że kwasy omega-3 nie tylko spowalniają utratę
z wiekiem zdolności poznawczych84, ale ogólnie sprzyjają wytwarzaniu
neuronów w hipokampie85. Wciąż jednak nie wiadomo dokładnie, dlaczego
tak się dzieje – czy tran oddziałuje tylko na błony komórkowe, czy może
sprzyja także wydzielaniu czynników wzrostu.
Kolejną grupą substancji, z którymi neurobiolodzy wiążą duże nadzieje
w kontekście wspomagania pracy mózgu, są polifenole. Zaliczają się do nich
najrozmaitsze cząsteczki, które można znaleźć w kakao (flawonoidy),
jagodach (antocyjany), curry (kurkumina), liściach miłorzębu (kwercetyna)
czy wreszcie w czerwonym winie (resweratrol). Ciągle jednak nie wiadomo
dokładnie, czy rzeczywiście polifenole w ogóle wpływają na mózg, a jeśli
tak, to w jaki sposób. Naukowcy spierają się, czy poprawiają one ukrwienie
mózgu czy może pobudzają wydzielanie czynników wzrostu.
Neurobiolodzy analizują dosłownie wszystko – najchętniej czekoladę,
może dlatego, że nie brakuje im ochotników do takich badań. A dlaczego
czekolada poprawia nasze samopoczucie? Wiemy już, że nie chodzi o to, że
zawiera serotoninę, natomiast obecne w niej flawonoidy mogłyby
rzeczywiście dawać taki efekt. Gdy badanym przez miesiąc serwowano napój
czekoladowy o wyjątkowo wysokiej zawartości flawonoidów, stwierdzono,
że po upływie tego czasu byli spokojniejsi i bardziej zrelaksowani niż
członkowie grupy kontrolnej, którzy pili czekoladę pozbawioną
flawonoidów. Natomiast ich możliwości intelektualne wcale się od tego nie
zwiększyły86. Tyle tylko, że aby dostarczyć organizmowi podobnych ilości
flawonoidów, należałoby spożywać czekoladę w ogromnych ilościach: około
trzech kilogramów mlecznej czekolady dziennie. Czy po miesiącu takiej diety
rzeczywiście czulibyśmy się szczęśliwsi? Wskazania na wadze raczej nie
dawałyby powodów do radości.
Obecnie szczególnie intensywnie rozważa się wpływ polifenoli na
działanie mózgu. Problem w tym, że wiele badań jest prowadzonych na
zwierzętach – a co nam z wiedzy, że szczur karmiony antocyjanami
z czarnych jagód sprawniej odnajdował drogę w labiryncie87? Czy w związku
z tym mogę zaoszczędzić sobie kosztów nawigacji samochodowej, biorąc
w podróż zamiast niej torebkę jagód? Z pewnością neurobiologia wkrótce
znajdzie odpowiedź i na to pytanie.
Również popularny ekstrakt z miłorzębu jest, zdaje się, mocno
przereklamowany. Miłorząb, po łacinie Gingko biloba, raczej nie
powstrzymuje stopniowej utraty sprawności umysłowej w chorobie
Alzheimera88 ani nie podwyższa możliwości intelektualnych u zdrowych
badanych89. Pytanie, czy w tej sytuacji zażywanie pigułek z miłorzębem ma
sens, pozostawiam do indywidualnego rozstrzygnięcia każdemu
z czytelników. Na razie wiadomo tylko tyle, że póki nie poznamy dokładnie
działania miłorzębu, trzeba prowadzić dalsze badania.

Smacznego!

Wniosek: jedzenie to jednak nie lekarstwo. Jeśli lubicie, możecie oczywiście


opijać się herbatką z miłorzębu albo garściami zajadać tran w kapsułkach.
Jednak nie jest tak, że automatycznie przybędzie wam od tego inteligencji.
Większość najnowszych badań (choć często bywają one ze sobą tak
sprzeczne) sugeruje raczej, że tran czy polifenole wpływają w ograniczonym
zakresie na spowolnienie procesów starzenia. Oczywiście dobre i takie
oddziaływanie, wciąż jednak nie jest to brainfood, który przemieniałby nas
w tytanów intelektu. Zachowajcie więc czujność, gdy ktoś próbuje wam
wcisnąć „najlepsze pożywienie dla mózgu”. Przyswajanie zdecydowanej
większości składników z produktów spożywczych jest ściśle kontrolowane
przez mózg i nie mamy na to większego wpływu. Śmieszne są zwłaszcza
doniesienia o tym, jakoby to przyprawy miały stanowić źródło Bóg wie jak
cennych składników. Ich stężenie jest często tak niskie, że musielibyście
doprawiać potrawy całymi kilogramami curry czy estragonu, żeby w ogóle
mogły zadziałać (na dodatek musiałyby one jeszcze przecież pokonać barierę
krew–mózg). Dlatego spokojnie możecie przyjąć, że o ile odżywiacie się
w sposób dostatecznie urozmaicony, mózg i tak wyłowi sobie co lepsze kąski
i na pewno będzie zaopatrzony jak należy. O tym, co w waszej diecie
rzeczywiście stanowi brainfood, a co nie, decyduje tylko i wyłącznie wasz
mózg.
MIT NUMER 15

Mózg liczy jak najlepszy komputer

Ludzki mózg to – a i tak wyrażam się dość powściągliwie – prawdziwe


arcydzieło, biologiczny majstersztyk, ukoronowanie wszystkich
dotychczasowych systemów informatycznych, najlepsze, czemu dane było
powstać w toku ewolucji. Jest tylko odrobinę większy od dojrzałego mango,
a mimo to umożliwia nam absolutnie błyskotliwe osiągnięcia cybernetyczne.
Żaden robot na świecie nie zdoła przepychać się przez tłum na Oktoberfeście,
uśmiechając się przy tym do wszystkich wokół i zajadając watę cukrową,
a na dodatek ani razu się nie przewrócić. Żaden robot nie zdoła też uznać
takich czynności za przyjemne. A to dlatego, że emocje są zjawiskiem na
wskroś „mózgowym” i nie da się ich symulować.
W związku z tym nierzadko można usłyszeć, że mózg to perfekcyjna
maszyna licząca, narząd myślowy dopracowany w najdrobniejszych
szczegółach, sprawniejszy od każdego superkomputera. Mózg objawia
bowiem swoją prawdziwą potęgę właśnie tam, gdzie kończą się możliwości
komputerów. Malowanie obrazów, tworzenie poezji, słuchanie
z przyjemnością Justina Biebera – na takie pomysły może wpaść tylko ludzki
mózg.
Jak to możliwe, że owo maleństwo dysponuje tak nieprawdopodobną mocą
obliczeniową? Jak dotąd choćby przybliżona imitacja zachodzących w mózgu
procesów nie udała się w żadnym komputerze, a przecież wykorzystywane
do tych celów maszyny zajmują nieraz całe piętra budynków. Wygląda więc
na to, że mózg istotnie stanowi nadzwyczaj sprawny komputer, który
rozumuje wyjątkowo szybko i precyzyjnie.
Porównanie mózgu do komputera jest obecnie najpopularniejszą mózgową
analogią – a przy tym najbardziej sugestywną. Bo przecież tak samo jak
mózg również komputer przetwarza informacje (kwestia tego, jak to
dokładnie robi, jest dla przeciętnego zjadacza chleba zagadnieniem równie
skomplikowanym jak tematyka neurobiologiczna). Gromadzi dane, sortuje je,
podmienia, a na dodatek daje do nich łatwy dostęp. To ostatnie akurat
odróżnia go od mózgu – w rozdziale 1 była mowa o tym, czemu z „odczytem
danych” z mózgu jest tyle problemów. Jak widać więc, pomiędzy mózgami
a komputerami istnieją także różnice. Wróćmy jednak do podobieństw. Jakim
cudem mózg jest o tyle wydajniejszy od superkomputera? W jaki w ogóle
sposób mózg dokonuje „obliczeń”?

Mózgowy komputer

Gdy porównujemy mózg i komputer, rzuca się w oczy przede wszystkim to,
że ten pierwszy nie jest bynajmniej tak sprawny ani perfekcyjny, jak
zwykliśmy sądzić. Przeciwnie, w porównaniu z mocą obliczeniową
komputera mózg nadaje się praktycznie na złom. Zacznijmy od prędkości
obliczeniowej: nowoczesny telefon komórkowy, nie wspominając nawet
o komputerach, wykonuje ponad miliard operacji na sekundę. Tymczasem
komórka nerwowa w mózgu generuje w tym samym czasie maksymalnie
pięćset nowych impulsów, co oznacza, że „działa” dwa miliony razy wolniej.
Do tego trzeba pamiętać, że w swoich obliczeniach neuron często popełnia
błędy, ponieważ procesy biologiczne nigdy nie odznaczają się taką precyzją
jak fizyczne. Utrzymanie w dobrym stanie synaps, wydzielanie substancji
przekaźnikowych, cała złożona biochemia komórki – na każdym z tych
etapów nietrudno o błąd, co powoduje ograniczoną dokładność. Z grubsza
licząc, neuron myli się miliard razy częściej niż układ scalony. Jak widać,
mówienie o „perfekcyjnym” mózgu to naprawdę spora przesada.
Mózg popełnia jeden błąd za drugim, komórki nerwowe liczą powoli
i niedokładnie – fakt, że to wszystko jakoś funkcjonuje, graniczy niemal
z cudem. Dzieje się tak dlatego, że mózg działa na zupełnie innych zasadach
niż komputer. Dlatego czym prędzej zapomnijcie o komputerowych
porównaniach! Wszystkie one są błędne i bagatelizują prawdziwą naturę
procesów zachodzących w naszej sieci neuronalnej. Mózg wcale nie
potrzebuje liczyć tak szybko i dokładnie jak komputer, zna bowiem mnóstwo
skrótów i sztuczek, które pozwalają mu zaoszczędzić mozolnych obliczeń,
a dzięki temu znacznie szybciej docierać do celu.

Program do rozpoznawania twarzy

W przypadku komputerów problemy pojawiają się już przy najprostszych


obliczeniach. Choćby zadanie rozpoznania twarzy – jakkolwiek proste
mogłoby się nam wydawać, dla komputera to po prostu gigantyczne
wyzwanie. My nie mamy z tym kłopotu: wielki nos, szeroki uśmiech,
falujące loki – aha, to musi być Thomas Gottschalk. I, co jeszcze bardziej
zdumiewające, wystarczyło, że wymieniłem to nazwisko, by w mózgach
w ułamku sekundy pojawił się obraz twarzy ulubionego prezentera kolejnych
pokoleń Niemców. Skoro neuron rzeczywiście liczy tak powoli (wykonując
raptem kilkaset operacji na sekundę), to w tak krótkim czasie był w stanie
wykonać może kilkadziesiąt działań. Tymczasem komputer do rozwiązania
identycznego zadania potrzebuje kilkuset tysięcy operacji.
Co robi komputer w takim przypadku? Jego praca opiera się na
programach. Program zaś to z góry ustalona sekwencja obliczeniowa,
wykorzystywana do rozwiązania konkretnego zadania. Program do
rozpoznawania twarzy rozkłada obrazek na części składowe, a następnie
próbuje rozpoznać cechy i elementy charakterystyczne, które uprzednio
zdefiniowano jako przydatne do tego celu, takie jak: odstęp pomiędzy
brwiami oraz wymiary, symetria i proporcje poszczególnych części twarzy.
Po zgromadzeniu wszystkich powyższych danych porównuje je ze znanymi
już twarzami, aż wreszcie wszystko dopasowuje i w ten sposób „rozpoznaje”
osobę. Cały proces odbywa się krok po kroku, na dodatek zgodnie
z ustalonymi wcześniej procedurami, czyli algorytmami.
Algorytmy to procedury dokonywania obliczeń, które następnie zostają
połączone w sekwencję obliczeniową (program). Wyposażony w takie
procedury komputer może przystąpić do analizowania poszczególnych
informacji składających się na obraz, a potem zestawić je ze sobą
i przeanalizować. Działania te trzeba jednak wykonywać po kolei, jedno po
drugim. Ponieważ dla komputera rozpoznanie twarzy Thomasa Gottschalka
nie jest prostym zadaniem, potrzebuje w tym celu przeprowadzić tysiące
operacji. W takiej sytuacji wielkimi zaletami są umiejętność błyskawicznego
liczenia i bezbłędność. Jeśli pomylimy się na wstępie, w rezultacie
zostaniemy z niczym. Drobny błąd początkowy będzie się multiplikował
w kolejnych operacjach – tak jak wtedy, gdy rozwiązując równanie, zrobimy
czeski błąd w zapisie liczb. Choćbyśmy wszystkie kolejne działania
przeprowadzili poprawnie, rezultat i tak będzie błędny. Innymi słowy,
z małej chmury duży deszcz.
Na takie ryzyko mózg oczywiście nie może sobie pozwolić. Właśnie
dlatego „oblicza” w zupełnie inny sposób, a mianowicie wykorzystując sieć.
To naprawdę wyjątkowa metoda, wymagająca wyjątkowych rozwiązań.

Mózg – arcymistrz skrótu

Wykorzystywanie sieci do obliczeń zapewnia mózgowi zdecydowaną


przewagę nad pojedynczym komputerem. Wróćmy na moment do
rozpoznawania twarzy. Od komórek zmysłowych mózg otrzymuje komplet
bodźców optycznych, składających się na obraz twarzy. Są one przesyłane
w formie impulsów nerwowych od oka do ośrodków wzroku w korze
mózgowej. W rezultacie pobudzane są tamtejsze komórki nerwowe, które
z kolei generują nowe impulsy. Impulsy te przekazywane są następnie do
wszystkich połączonych z daną komórką neuronów. Tam zabawa zaczyna się
od początku: wytwarzany jest nowy impuls, który wędruje jeszcze dalej.
W tym właściwie tkwi cały sekret pracy mózgu. W gruncie rzeczy nie potrafi
on nic więcej.
Dowcip polega na tym, że przekierowywanie impulsów do kolejnych
neuronów owocuje powstaniem charakterystycznego wzorca aktywności
sieci. I właśnie ten wzorzec, czyli sposób pobudzenia sieci w ściśle
określonym momencie, jest tym, co nazywamy „informacją” względnie
„myślą”. Obraz Thomasa Gottschalka pobudza sieć neuronową na swój
specyficzny sposób i to ta aktywacja w tej konkretnej chwili stanowi
wizerunek prezentera.
Do tego, w odróżnieniu od komputera, przetwarzanie obrazów w mózgu
przebiega równolegle, bo wiele neuronów można aktywować w tym samym
czasie. Informacja w postaci obrazu nie jest więc przetwarzana krok po
kroku. Można raczej powiedzieć, że generowany jest wzorzec, rozchodzący
się następnie do wielu grup neuronów. W ten sposób mózg oszczędza sobie
uciążliwej pracy obliczeniowej, która z jednej strony zwiększałaby ryzyko
popełnienia błędu, a z drugiej po prostu zajmowałaby zbyt dużo czasu (trzeba
przecież pamiętać, że w porównaniu z komputerem mózg jest ślamazarą).
Zatem pojedyncza operacja, czyli przesłanie impulsu nerwowego
z jednego neuronu do drugiego, przeprowadzana jest wprawdzie powoli,
jednak w sieci już po kilku takich ruchach aktywowana jest wielka liczba
komórek nerwowych. Przeciętnie każdy neuron w kresomózgowiu jest
połączony z dziesięcioma tysiącami innych, zatem zaledwie po
kilkudziesięciu operacjach aktywne są miliony neuronów. Cóż za genialna
droga na skróty! Zamiast mozolnie przeprowadzać jedną operację po drugiej,
można po prostu podzielić się pracą. Takiemu wyzwaniu komputer nie jest
w stanie sprostać.
I jeszcze jedno: gdy tyle komórek pracuje jednocześnie, trudno mówić
o bardzo precyzyjnej obróbce informacji. Najważniejsze, żeby końcowy
produkt, czyli wzorzec aktywacyjny sieci, wyszedł mniej więcej jak należy.
To, że jakiś neuron będzie bardziej aktywny, a kilka innych mniej, nie robi
specjalnej różnicy, skoro do osiągnięcia rezultatu przyczyniają się miliony
czy nawet miliardy komórek.
Żeby zrozumieć, co mam na myśli, wystarczy pójść na mecz. Gdy
trzydzieści tysięcy kibiców zaczyna śpiewać, efekt brzmi zaskakująco
harmonijnie. „Zaskakująco”, bo śmiem wątpić, czy każdy z nich z osobna
jest wybitnym wokalistą. Ale im jest ich więcej, tym mniejsze znaczenie ma
jakość występu poszczególnych osób. Ktoś śpiewa za głośno, ktoś za szybko,
ktoś trochę fałszuje, ale to nieistotne, skoro wokół są tysiące innych. Zamiast
idealnej precyzji mamy połączone wysiłki odpowiednio dużej grupy, która
dopasowuje się do siebie nawzajem.

Matematyka komórkowa
Dlatego też, choć mózg nie jest komputerem, mimo wszystko świetnie daje
sobie radę z obliczeniami. Trzeba tu jednak po raz kolejny podkreślić, że
komórki nerwowe są leniwe i nie robią nic innego, jak tylko „dodają”
i „odejmują”. Wszystkie wzniosłe myśli, do jakich zdolna okazała się
ludzkość, spokojnie powstały bez dzielenia, mnożenia czy całkowania
wielomianów – przykro mi, drodzy matematycy.
Każda komórka nerwowa jest w zasadzie czymś w rodzaju kieszonkowego
kalkulatora. Co prawda, w gruncie rzeczy nie potrafi zbyt wiele, ograniczając
się do odbierania impulsów i wysyłania jednego nowego, jednak właśnie
w tym okresie przejściowym pomiędzy odbieraniem a wysyłaniem odbywa
się w układzie nerwowym ważna praca obliczeniowa. Bo owe impulsy nie
powstają ot tak, przypadkowo. Po to, by nasz leniwy neuron przemógł się
i zechciał wysłać sygnał, musi być on dostatecznie silny.
Nowe impulsy docierają do neuronów poprzez synapsy, czyli punkty
kontaktowe. Synapsy te mogą jednak działać nie tylko pobudzająco, ale
i hamująco, w zależności od substancji przekaźnikowej i receptora. Komórka
nerwowa sumuje wszystkie docierające do niej impulsy – silniejsze i słabsze,
pobudzające i hamujące. Znaczenie ma też miejsce, do którego dany impuls
dociera. Jeśli synapsy leżą blisko siebie, mogą łatwiej pobudzić komórkę
nerwową niż wtedy, gdy są znacznie od siebie oddalone.
Co ważne, nadchodzące impulsy neuron odbiera za pomocą „anten
odbiorczych”, czyli dendrytów, wyrastających z ciała komórkowego niczym
liczne drobne gałązki. Nowy impuls jest natomiast generowany tylko
w „antenie nadawczej”, czyli w aksonie. Nowe impulsy wysyłane są przez
komórkę tylko wówczas, gdy „na wejściu” do aksonu przekroczona zostanie
pewna wartość progowa. Wszystkie impulsy, które w danej chwili dotarły do
komórki, nakładają się na siebie. Neuron zaczyna je więc sumować: 5000
impulsów silnie pobudzających, 2000 lekko pobudzających, 1500 silnie
hamujących. Hm, czy to dosyć, żeby wygenerować własny impuls? To, co
w komputerze nazywamy jednostką arytmetyczno-logiczną, w komórce
nerwowej znajduje się dokładnie tam, gdzie zaczyna się akson, na tzw.
wzgórku aksonowym. Tu gromadzone są wszystkie docierające impulsy i tu
dochodzi ewentualnie do wygenerowania nowego impulsu na zasadzie: jeśli
pobudzenie będzie dostateczne, wtedy zdecyduję się odpalić.
W pierwszej chwili może to sprawiać wrażenie czysto arytmetycznych
wyliczeń. Trzeba jednak pamiętać, że o ile komputer posługuje się wyłącznie
zerami i jedynkami, układ nerwowy ma do dyspozycji cały zestaw „Małego
biochemika”, wykorzystuje więc najrozmaitsze substancje przekaźnikowe,
które mogą być wydzielane w synapsach. Synapsy nie są po prostu
„włączane” albo „wyłączane” – ich aktywność podlega bardzo precyzyjnej
regulacji. Tak jak za pomocą ściemniacza można ustawić natężenie
oświetlenia odpowiednio do potrzeb, tak synapsy można pobudzić leciutko
albo odpalić z całą mocą.
Jeszcze jedno: poszczególne synapsy mogą też wpływać na działanie
innych synaps. Synapsa hamująca może na przykład zadokować do synapsy
pobudzającej i w ten sposób „przykręcić” jej aktywność. Dzięki temu
wielokrotnie zwiększa się możliwość interakcji pomiędzy neuronami, a cały
system żyje i co chwila się zmienia. W takim starciu komputer nie ma szans,
bo w układzie scalonym są jedynie dwie możliwości: prąd albo płynie, albo
nie.
Ostateczny rezultat jest następujący: gdy tylko impulsy nerwowe
przemieszczą się z jednego neuronu do drugiego, są tam zestawiane z innymi
impulsami. Nowy impuls rodzi się właśnie z kombinacji wszystkich
dotychczasowych – a już w pojedynczej komórce może ich być kilka tysięcy.
Im bardziej rozległa jest aktywacja sieci, tym większym ulega zmianom
i przetworzeniom. Na początku mieliśmy więc po prostu sygnały elektryczne
nadchodzące od komórek zmysłowych w oku – ostatecznie otrzymujemy
gotowy obraz, łączny efekt pobudzenia wielu różnych obszarów sieci. Krótko
mówiąc, mózg nie ma procesora przetwarzającego dane. Cały mózg jest
jednym wielkim procesorem.

Żywa maszyna

Skąd neurony wiedzą, gdzie i jakie synapsy powinny wytwarzać i jakich


substancji przekaźnikowych w nich używać?
Otóż wcale tego nie wiedzą! Mózg bowiem nie jest zbudowany według
jakiegokolwiek planu. Naturalnie podstawowe struktury anatomiczne są
zakodowane genetycznie (u wszystkich ludzi hipokamp wygląda podobnie),
ale jeśli chodzi o szczegóły, każdy mózg jest inny – w odróżnieniu od
komputerów. Zanim powstanie komputer, jego konstruktor zastanawia się,
jak ma on później wyglądać. Podobnie programy komputerowe pisze się
z myślą o konkretnych zadaniach. Tymczasem mózg sam konstruuje się na
bieżąco, w trakcie pracy, nie wiedząc, co z tego wyniknie. W konsekwencji
nigdy nie jest doskonały ani „gotowy”. To tak jak na wielkiej budowie,
trwającej latami – wciąż coś się tam poprawia i przerabia. Przy czym
w mózgu jest to efekt zamierzony, nie tak jak w przypadku niektórych lotnisk
czy dworców. Chodzi o to, by mózg zawsze był gotów na kolejne wyzwanie.
Gdyby w pewnym momencie „skończyć” tę budowę, nie nauczyłby się już
niczego nowego.
Zapomnijcie więc o gazetowych mądrościach w stylu „Nasz mózg wciąż
tkwi w epoce kamiennej, a jego konstrukcja nie odpowiada potrzebom
dzisiejszych czasów”. Konstrukcja mózgu nie odpowiada potrzebom żadnych
konkretnych czasów. Sytuacja jest znacznie korzystniejsza: mózg nieustannie
dostosowuje się do docierających bodźców, czyli jest plastyczny. W ten
sposób przez cały czas stanowi „ostatni krzyk techniki”, nie potrzebuje
żadnych ulepszeń czy aktualizacji. Komputer, który kupiłem dziesięć lat
temu, dziś nadaje się wyłącznie do żartów, ale mózg nigdy się nie
dezaktualizuje.

Syzyfowy narząd

Zarówno w afrykańskim buszu trzydzieści tysięcy lat temu, jak


i w średniowieczu czy obecnie mózg był i jest najlepszym narzędziem do
radzenia sobie z życiem w zastanych warunkach. Program komputerowy
może robić tylko to, do czego został zaprojektowany (a niekiedy nawet i to
mu nie wychodzi). Postawiony przed całkowicie nowym zadaniem, komputer
może tylko stać jak kołek i ewentualnie tępo mrugać. Oczywiście ludziom też
się to zdarza, jednak ich mózgi samodzielnie dostosowują się do
napływających z otoczenia bodźców i równie samodzielnie dokonują
niezbędnych poprawek.
Jednocześnie to właśnie stanowi główną przyczynę częstych pomyłek
naszego mózgu. Skoro dopiero uczy się on, jak przetwarzać dane informacje,
trudno się dziwić, że za pierwszym razem właściwie nigdy mu się to nie
udaje. Mózg musi być aktywny, przez cały czas użytkowany, żeby mógł się
nieustannie doskonalić. Z każdym docierającym do niego bodźcem dokonuje
modyfikacji w infrastrukturze swej sieci, tak by następnym razem można
było ów bodziec przetworzyć jeszcze sprawniej. A gdy już się dobrze
dostosuje do określonego bodźca i odpowiednio wyreguluje sieć, może
nadejść kolejny bodziec, który będzie wymagał równie subtelnych zmian
w nieco innym kierunku. Dlatego mózg, niczym Syzyf, wciąż się trudzi, by
jak najlepiej dostosować sieć do docierających bodźców – ale całkowitego
sukcesu, czyli stanu, który można by nazwać optymalnym, nie osiąga nigdy.
Wbrew pozorom nie jest to jednak wada, tylko warunek dalszej nauki
i wpadania na nowe pomysły. Początkowy błąd to cena, jaką trzeba zapłacić
za ostateczny sukces. Zastanówmy się na przykład nad mową. To przecież
niezmiernie skomplikowana umiejętność, wymagająca nie tylko
precyzyjnego dostrojenia pracy wielu mięśni i rytmu oddechu, lecz także
przyswojenia sobie fundamentalnej koncepcji słów jako nośników treści.
Nawet ludzki mózg (choćby najsprawniejszy na świecie) potrzebuje długich
lat, by sobie z tym poradzić. Niemowlęta z początku gaworzą coś bez sensu,
z czasem jednak ich sieci neuronalne coraz lepiej wychwytują wzorce mowy
i odpowiednio się dostosowują. Przez blisko dwa lata dziecko popełnia
niemal wyłącznie błędy, aż w końcu wypowiada pierwsze słowa: „Mamo, jak
będę duży, chcę być bankierem inwestycyjnym”. Cóż to za chwila!

Neurokomputery przyszłości

Jak widać, komputery potrafią wykonywać obliczenia zdecydowanie lepiej,


dokładniej i szybciej niż nasze mózgi. Ale też nie mają innego wyboru, bo
bez sprawnego i bezbłędnego liczenia oprogramowanie w ogóle by nie
działało. Porównywanie funkcjonowania mózgu do komputera nie ma zatem
większego sensu. Obecnie podejmuje się raczej próby w odwrotnym
kierunku, dążąc do skonstruowania komputera, który działałby tak jak mózg.
Już dziś można rozwiązywać skomplikowane zadania za pomocą
„sztucznych sieci neuronowych”, pracujących na podobnych zasadach jak
prawdziwa, biologiczna sieć neuronalna. Informacje są rozdzielane
i przetwarzane równolegle, a sieć sama dostosowuje się do napływających
bodźców, zmieniając połączenia pomiędzy jednostkami obliczeniowymi (na
marginesie, w podobny sposób funkcjonują też najnowocześniejsze programy
do rozpoznawania twarzy).
Szeroko zakrojone projekty badawcze mają nas pewnego dnia
doprowadzić do tego, by komputer był w stanie naśladować mózg.
W nadziei, że moc obliczeniowa używanych przy tym superkomputerów
będzie wciąż wzrastać, Unia Europejska zamierza do 2023 roku przeznaczyć
miliard euro na Human Brain Project. Dzięki temu komputery mają
dorównać temu, co mózg bez najmniejszych trudności potrafi już teraz:
kierować przeciskaniem się człowieka między stoiskami na festynie z watą
cukrową trzymaną w ręku – i jednocześnie myśleć o tym, co właśnie robi. Już
w tej chwili życzę komputerom przyszłości, by miały przy tej okazji
mnóstwo frajdy!
MIT NUMER 15,5

Mózg może w nieskończoność


gromadzić dane

Niektóre omawiane tu mity zyskały już niemal status prawd absolutnych,


inne dopiero powoli umacniają swoją pozycję. Jeśli wyjdziemy z założenia,
że mózg działa w podobny sposób jak komputer, logicznym następstwem
będzie wyobrażenie sobie, że musimy mieć w głowach miejsce do
zapisywania i przechowywania informacji. Jednak wiemy już, że mózg jest
znacznie doskonalszym tworem niż komputer, nie cofamy się więc przed
jego idealizacją i w mgnieniu oka powstaje nowy mit: pojemność mózgu
miałaby być praktycznie nieograniczona, mózg jest tak złożony, że
teoretycznie może zmagazynować niemal nieskończone zasoby danych,
a w każdym razie o wiele więcej niż obecnie.
Jak wiadomo, miłe złego początki… Dlatego zanim ten pseudonaukowy
pogląd zdąży się na dobre rozprzestrzenić, spróbuję niniejszym zdusić go
w zarodku. Będzie to w pewnej mierze kontynuacja poprzedniego rozdziału,
coś w rodzaju „mitu 15,5”.
Jak w rzeczywistości przedstawia się kwestia „powierzchni magazynowej”
w mózgu? Jak wiele informacji jesteśmy w stanie zapamiętać? Czy mózg to
naprawdę cudowna „karta pamięci”, która nigdy się nie zapełnia? To dobra
okazja, by wyjaśnić, że mózg gromadzi informacje zupełnie inaczej niż
komputer, a mianowicie nie zapisuje ich na jakimś twardym dysku.

Czym jest informacja w głowie

W poprzednim rozdziale była mowa o tym, w jaki sposób mózg dokonuje


obliczeń. Nie przy użyciu algorytmów, krok po kroku, tylko pracując
równolegle w ramach sieci. Trudno o większą różnicę. To, co łącznie
określamy mianem komputera, dzieli się na sprzęt (hardware, np. elementy
półprzewodnikowe w układzie scalonym) i oprogramowanie (software).
W mózgu wygląda to inaczej, ponieważ – uwaga, dochodzimy do sedna! –
w przypadku mózgu sprzęt i oprogramowanie stanowią jedność. Całkiem
możliwe, że to najważniejsze zdanie w całej mojej książce. Jeśli więc
zechcecie coś zapamiętać z tej lektury, bardzo proszę zapamiętajcie właśnie
to, że w mózgu nie ma różnicy pomiędzy działającymi „programami”
a „platformą sprzętową”, która pozwala na ich realizację.
Co to oznacza w praktyce? Otóż w komputerze istnieje jednostka
obliczeniowa (procesor), która zajmuje się obróbką danych. Dane to
elektronicznie zapisane znaki, najczęściej ciąg zer i jedynek. Na przykład
słowo „bzdura” zapisywane jest jako 00100010 01100010 01111010
01100100 01110101 01110010 01100001 00100010 i wymaga 64 bitów
pamięci. Żeby można było owe cyfry odnaleźć, trzeba je umieścić
w określonym miejscu, a więc nadać im adres. W tym celu istnieje
w komputerze twardy dysk z ograniczoną ilością miejsca. Gdy się zapełni,
nie da się już zapisać ani jednego zdjęcia rozkosznych kotków czy piesków
więcej.
W mózgu natomiast sprzęt i oprogramowanie tworzą jedność, dotyczy to
więc także danych i ich adresów. Jeszcze jedna sprawa: same dane nie mają
dla komputera żadnego sensu. Po to, by stały się informacją, trzeba je dopiero
zinterpretować. Ciąg cyfr 46244 może oznaczać kod pocztowy Bottrop-
Kirchhellen 1 albo liczbę zatrudnionych tam informatyków.
Komputer jednak nie ma zielonego pojęcia, o co chodzi. Również pod tym
względem mózg się od niego różni. „Zapisujemy” dane (jak na przykład ciągi
cyfr) tylko wtedy, gdy coś się dla nas pod nimi kryje.
Wszystko – dane, ich adresy oraz informacje – stanowi zatem jedność, bo
jest zapisane w wewnętrznej architekturze sieci neuronalnej. Architektura ta,
czyli wzorzec połączeń, pokazuje, jak sieć może być aktywowana. I ten
wzorzec aktywacji jest myślą, uświadomioną informacją. Dlatego też
w mózgu nie ma czegoś w rodzaju twardego dysku, osobnego miejsca do
zapisywania danych (podobnie jak nie ma procesora). Cały mózg, cała sieć
neuronalna zapisuje informacje w ten sposób, że dostosowuje punkty
kontaktowe neuronów tak, by następnym razem łatwiej wygenerować
odpowiedni wzorzec ich aktywacji (czyli określoną informację).

Pojemność mózgu – nieograniczona czy


ograniczona?

Informacja stanowi więc sposób, w jaki sieć neuronalna jest aktywna w danej
chwili. No dobrze, a ile może być sposobów pobudzenia takiej sieci? Mózg
nie ma przecież nieskończonej wielkości, zatem i możliwości zapisywania
danych muszą być chyba ograniczone, prawda? Czy jednak nie?
Aktualnie naukowcy przyjmują, że w mózgu dorosłego człowieka znajduje
się około 80 miliardów komórek nerwowych. Każda komórka jest średnio
połączona z 10 tysiącami innymi. Razem daje nam to 800 bilionów połączeń.
Dla uproszczenia przyjmijmy, że połączenie oznacza tylko jedno z dwojga:
„włączenie” lub „wyłączenie” neuronu. Gdyby tak było, otrzymalibyśmy
liczbę równą – lepiej się czegoś przytrzymajcie! – 10 do potęgi 24 miliardy!
Na tyle sposobów można w danym momencie uaktywnić komórki nerwowe.
Już samo to jest niewyobrażalne, tymczasem realnie możliwości
aktywowania poszczególnych synaps jest o wiele więcej – w zaokrągleniu 10
do potęgi 241 bilionów. To liczba, która ma 241 bilionów zer. Dla
porównania, żeby przedstawić stan zadłużenia Berlina, nie potrzeba nawet
głupich 11 zer. Za to, żeby zapisać zera wchodzące w skład 10 do potęgi 241
bilionów, trzeba by wypełnić nimi 625 milionów takich książek jak ta.
Jest to liczba tak gigantyczna, że nie mam zielonego pojęcia, jak mógłbym
ją wam przybliżyć. Nawet wielkości astronomiczne to w tym kontekście po
prostu pikuś. Liczbę gwiazd w całym wszechświecie szacuje się na 10 do
potęgi 24, liczbę zaś atomów na Ziemi na 10 do potęgi 50. Przyznacie, że
w porównaniu z możliwymi sposobami pobudzenia mózgu to tyle, co nic.
Tym bardziej, że połączenia w sieci neuronalnej, czyli synapsy, nie podlegają
tylko prostemu „włączaniu” lub „wyłączaniu”, lecz mogą być pobudzane
z różną siłą oraz oddziaływać na siebie nawzajem. Raz wydzielanych jest
więcej substancji przekaźnikowych, innym razem mniej. To dodatkowo
zwielokrotnia nam możliwość tworzenia odrębnych wzorców.
Mam więc dla was złą nowinę: niestety, to prawda, że liczba potencjalnych
stanów aktywności mózgu jest teoretycznie ograniczona – ale jest i dobra
wiadomość: choć ograniczona, liczba ta jest tak wielka, że jesteście w stanie
zapamiętać więcej danych niż istnieje atomów w Układzie Słonecznym.
Innymi słowy, nie ma wymówki, żeby wciąż zapominać, kiedy wypada
rocznica ślubu.

Rozgałęziona sieć to lepsza sieć

Po tych teoretycznych rozważaniach przejdźmy do praktyki. Co to wszystko


oznacza konkretnie? Nie jest przecież tak, że każdy stan aktywności sieci
neuronalnej stanowi całkowicie odrębną informację.
Załóżmy, że właśnie przypominacie sobie mamę. Dajmy na to, że
w związku z tym 120 milionów neuronów jednocześnie stara się właśnie
wygenerować wzorzec, znany wam jako obraz matki. Jedna komórka w tę
czy w tamtą stronę nie ma w tej sytuacji większego znaczenia. I właśnie to
sprawia, że system ten jest wyjątkowo odporny. Żeby wymazać obraz matki
z pamięci, nie wystarczy uszkodzić kilka komórek. Po to, by odebrać wam
możliwość odtworzenia wzorca aktywacyjnego pt. „mama”, trzeba by było
dokonać zmian we wszystkich połączeniach pomiędzy tymi komórkami.
Wiąże się z tym jeszcze jedna kwestia. Otóż informacje mogą się na siebie
nakładać. Wzorzec aktywacyjny „mama” może częściowo pokrywać się
z wzorcem aktywacyjnym „tata” (i z całą pewnością tak właśnie jest).
Dlatego informacje w mózgu zawsze występują w ramach większej sieci
informacyjnej. Nie jest tak jak w komputerze, gdzie poszczególne informacje
leżą schludnie poukładane jedne obok drugich, tylko znajdują się w sieci,
gdzie są splecione z wieloma innymi informacjami. Nie istnieje więc żadne
ustalone miejsce, w którym składujemy wspomnienia, żaden „dysk”, jest
tylko i wyłącznie szeroko rozgałęziona sieć, która to wszystko zapisuje.
W komputerze przedstawia się to zupełnie inaczej. Gdy w pewnym
momencie twardy dysk się zapełni, trzeba coś usunąć, by zrobić miejsce na
nowe dane. W mózgu niczego się nie wyrzuca, tylko wciąż coś dodaje, aż
połączenia w sieci odrobinkę się dostosują. W pewnych okolicznościach
może to oczywiście oznaczać, że wcześniejsza informacja nie będzie już tak
trwale zapisana, bo sieć mogła przebudować się w niekorzystny dla owej
informacji sposób. Wciąż jednak nie oznacza to, że na dobre usunęliśmy ją
z pamięci.
Taka metoda pracy sprawia, że nie ma najmniejszego sensu oceniać
„pojemności pamięci” mózgu: czy jest to 100 terabajtów, 100 pentabajtów
czy może 100 eksabajtów? Sens poznawczy takich określeń jest żaden, bo
mózg zawsze dostosowuje swoją „pojemność” do zapotrzebowania. Ponadto
informacja w mózgu jest definiowana inaczej niż w komputerze. W jaki
sposób mielibyśmy wyrazić obraz matki – jej wygląd, głos, zapach, uczucia,
które w nas budzi – za pomocą bitów i bajtów? Natomiast przy użyciu
wzorców w sieci jest to jak najbardziej możliwe. Na dodatek wzorce te
można dowolnie modulować dzięki całkowicie analogowym sygnałom,
a mianowicie substancjom przekaźnikowym.
Bez żalu porzućcie więc wizje mózgowego „twardego dysku”.
Z biologicznego punktu widzenia nie ma żadnego sensu wyobrażenie, że
coraz bardziej zapełniamy mózg informacjami, aż w pewnym momencie
dochodzimy do granicy. Ponieważ „mózgowy dysk” jest w pewnym sensie
zawsze zapełniony (była już mowa o tym, że w mózgu nie istnieją żadne
rezerwy, czekające na ewentualne wykorzystanie; to mit 8: Wykorzystujemy
zaledwie 10 procent możliwości mózgu). Po prostu z każdą kolejną
informacją pojemność mózgu odrobinę się zwiększa, tak by znalazło się
miejsce i na to coś nowego. Dysk dynamicznie dostosowuje swoją pojemność
do wielkości danych. Z drugiej strony wraz z rosnącą liczbą informacji
proces ten staje się coraz bardziej skomplikowany. Dlatego mimo wszystko
pojemność mózgu jest ograniczona również w sensie praktycznym.
Samolubne informacje

Każda napływająca informacja dostosowuje sieć do swoich potrzeb.


Postępuje przy tym całkowicie samolubnie, nie licząc się w ogóle
z pozostałymi informacjami. A jeśli tak, to jest jasne, że musi istnieć nie
tylko teoretyczna, ale i praktyczna górna granica „pojemności” mózgu.
Oznacza to bowiem, że każda nowa informacja odrobinę wymazuje starą.
Zgromadzone wcześniej informacje nie ulatują nam z pamięci nagle, tylko są
nieustannie wypierane przez nowe. Można powiedzieć, że z czasem blakną,
o ile nie zostały trwale zakotwiczone w strukturze sieci (w postaci bardzo
stabilnych synaps) lub nie są aktywowane w kolejnych powtórkach.
Trzeba także zauważyć, że wraz z rosnącą liczbą napływających informacji
zapisywanie ich w sieci w postaci odrębnych, samodzielnych wzorców
aktywacyjnych staje się dla mózgu coraz bardziej kłopotliwe. Każdy nowy
wzorzec nakłada się na już istniejące. Bardzo trudno jest oddzielać je od
siebie, a jednocześnie płynnie sięgać po ten, który akurat jest potrzebny,
i trwa to coraz dłużej.
Mimo całej nieprawdopodobnej elastyczności mózgu można go więc
w pewnym momencie „zamulić” takim zalewem informacji, że jego
wydajność znacząco spadnie. Niedawno przeprowadzono symulację takiego
teoretycznego modelu przy użyciu sztucznej sieci neuronowej. Rzeczywiście
im więcej informacji musiała przetwarzać sztuczna sieć, tym więcej czasu
było jej na to potrzebne90. Powód był prosty: w pewnym momencie sieć
stawała się zbyt złożona i traciła czytelność. Wszystkie połączenia w sieci
reprezentują przecież dotychczas zgromadzone informacje, z których każda
pozostawiła swój charakterystyczny „odcisk palca”. Z czasem zbiera się
bardzo wiele takich wzorców połączeń, które zaczynają się na siebie
nakładać, nie wymazując się nawzajem do końca. W pewnym momencie
równoległych operacji trzeba przeprowadzać tak wiele, że nawet dla mózgu
to za dużo. Po przekroczeniu określonego punktu mózg byłby może jeszcze
w stanie przyswajać kolejne informacje, nie miałoby to jednak sensu, gdyż
zaszkodziłoby wielu innym wzorcom połączeń i uniemożliwiło wydajną
pracę. Trzeba zatem również w praktyce wyznaczyć górną granicę
pojemności „dysku”.
Z tego względu mózg bardzo pilnuje, by nie utonąć w zalewie informacji,
i wypracował w tym celu kilka sprytnych mechanizmów.

Sito pamięci

Po to, by mózg, wciąż zasypywany przez nowe informacje, nie „zakopał się”
w nich na dobre, trzeba bezlitośnie odsiewać wszystko, co nieprzydatne.
Informacja zostaje zakotwiczona w postaci charakterystycznego wzorca
pobudzenia sieci tylko i wyłącznie pod warunkiem, że jest istotna. A istnieje
tylko jedno kryterium, wedle którego mózg ocenia, co jest ważne, a co nie:
jak często dana informacja się powtarza. Gdy raz usłyszymy jakieś słówko,
szybko uleci nam z pamięci. Po dziesięciu powtórzeniach będzie już trochę
lepiej. Ale dopiero po kilku tysiącach powtórek dane słowo zostanie
rzeczywiście trwale zapisane w sieci.
Dlatego mózg potrzebuje odźwiernego, który weźmie na siebie wstępną
„ocenę” informacji. Ma on przesiewać dane, przepuszczając tylko to, co
rzeczywiście jest tego warte, a zatrzymując i wyrzucając wszystkie
informacyjne śmiecie. Właśnie tę rolę pełni hipokamp, o którym była już
nieraz mowa.
Hipokamp w mózgu przypomina nieco pamięć roboczą w komputerze.
Właśnie tam wszystko, co przydarza nam się w ciągu dnia, pozostawia swój
wzorzec aktywacji. Na dłuższą metę informacje są zapisywane jednak
w rozmaitych obszarach mózgu, przede wszystkim w korze kresomózgowia.
Trafiają tam jednak tylko pod warunkiem, że hipokamp dostatecznie często
aktywuje owe wzorce, prezentując je w ten sposób kresomózgowiu. Kora, jak
już wspominałem, jest dość oporna, ale po kilku tysiącach powtórek nawet
kresomózgowie godzi się z tym, by daną informację zapisać, a wówczas
przekazuje ów wzorzec aktywności z hipokampu do własnej sieci91.
Z drugiej strony to, co hipokamp uznał za niezbyt istotne (i w konsekwencji
rzadko aktywował dany wzorzec), w ogóle nie dociera do kresomózgowia.
Zatem to hipokamp decyduje, czy dana informacja jest ważna czy nie. Tak
jak o popularności na YouTubie rozstrzyga liczba kliknięć, tak informacja
w sieci nabiera znaczenia wówczas, gdy jest często aktywowana. Dzięki temu
coraz mocniej osadza się w jej wewnętrznej strukturze i w rezultacie z trudem
można ją stamtąd usunąć.

Ograniczenia mózgu

O wiele ważniejsze od zapisania jak największej liczby danych jest zatem


selekcjonowanie i pozbywanie się możliwie wielu zbędnych informacji, by
nie doszło do przeciążenia systemu. Mózg broni się przed nadmierną ilością
aktywacji, które mogłyby tylko zakłócać jego pracę. To ważne, gdyż nawet
sieć z tak astronomiczną liczbą możliwych połączeń trzeba mądrze
wykorzystywać, inaczej stanie się zbyt zagmatwana i nieprzejrzysta. Dopiero
dzięki temu jest w stanie efektywnie zapamiętywać informacje.
À propos zapamiętywania, z powyższego rozdziału warto zachować
w pamięci przede wszystkim trzy kwestie. Po pierwsze, w mózgu nie
występuje podział na sprzęt i oprogramowanie. Po drugie, mózgowy „dysk”
jest dynamiczny i zawsze ma taką pojemność, jaka akurat jest potrzebna. Po
trzecie, informacje w mózgu diametralnie różnią się od informacji
w komputerze. Stanowią tu one wzorce aktywności, które na dodatek łatwo
mogą się na siebie nakładać. Informacja „Mmm, smaczne” jest przecież
jednocześnie elementem sieci „kiełbaska z rusztu” i „rolada z indyka”.
Dlatego też z taką łatwością przeskakujemy od jednej myśli do drugiej
i łatwo się rozpraszamy. Jak zobaczymy w kolejnym rozdziale, pociąga to za
sobą bardzo ważkie konsekwencje.

1. Bottrop-Kirchhellen jest dzielnicą miasta Bottrop w Nadrenii Północnej-Westfalii, w której


mieści się Movie Park Deutschland, rodzaj niemieckiego Disneylandu i Hollywood
w jednym, bo oprócz parku rozrywki znajdują się tam studia filmowe. Dlatego informacja
o licznych zatrudnionych tam informatykach nie musi być wcale taka absurdalna (przyp.
tłum.). [wróć]
MIT NUMER 16

Multitasking? – Proszę bardzo!

Jestem pełen podziwu dla mojej babci. Co wieczór zasiada w wygodnym


fotelu, by oglądać nieśmiertelną trylogię o Sissi, pogryzać ciasteczka
i kartować kolorowy magazyn Neue Welt. To aż trzy różne czynności naraz,
nie uwzględniając siadania. Jak widać, wielozadaniowość (określana też
zapożyczonym z angielskiego słówkiem „multitasking”) jest całkowicie
możliwa – i najwyraźniej nie taka trudna. Tymczasem ja po ciężkim dniu
bywam niekiedy tak zmęczony, że nawet czynność zasypiania wydaje mi się
zbyt wyczerpująca.
Robienie wielu rzeczy w tym samym czasie jest w modzie i chyba nigdy
nie było też tak ważne jak dzisiaj. Nie da się żyć bez sprawdzania na bieżąco
mejli, telefonowania, esemesowania i jednoczesnego słuchania muzyki,
a wszystko to w trakcie przepychania się do wyjścia w zatłoczonym
autobusie. Jesteśmy nieustannie atakowani tyloma informacjami, że aby
w ogóle jakoś to przetrwać, wciąż musimy dokonywać wyborów. Oddzwonić
czy czekać na telefon? Kupować, trzymać, sprzedawać? Kebab, hamburger,
pizza? I to wszystko w tym samym momencie!
Multitasking stał się w naszym świecie jedną z podstawowych
„umiejętności miękkich”. Kandydaci ubiegający się o pracę podkreślają, że
mają podzielną uwagę, a wielozadaniowość to dla nich bułka z masłem.
W gruncie rzeczy taka deklaracja to strzał do własnej bramki, jak
przekonamy się już wkrótce. W czasach, gdy nieustannie coś nas rozprasza,
komórka wibruje, a na ekranie wciąż pojawiają się powiadomienia o nowych
wpisach na Facebooku, musimy cały czas dzielić uwagę pomiędzy wiele
rzeczy. To zaś wymaga nie lada wprawy.
Ze swojej strony liczę na waszą koncentrację w trakcie lektury. Jeśli
naprawdę uważaliście, informacje z poprzedniego rozdziału zapisały się
w waszych mózgach w postaci wzorców aktywacyjnych. Wiecie już zatem,
że mózg z natury rzeczy funkcjonuje „wielozadaniowo”, czyli przeprowadza
operacje w sieci równolegle. Informacje są osobno przetwarzane, a następnie
łączone przez rozmaite skupiska komórek nerwowych. Dzięki temu możemy
jednocześnie słuchać, patrzeć, wąchać, odczuwać smak i na dodatek mieć
świadome refleksje na ten temat. Łatwo byłoby wyciągnąć z tego pochopny
wniosek, że skoro tak, to sprawa jest przesądzona: multitasking jest nie tylko
możliwy, ale też nieustannie uprawiany przez nasz mózg.
Czy jest tak w rzeczywistości? Czy istotnie jesteśmy w stanie świadomie
zajmować się kilkoma sprawami naraz? Co dzieje się w naszym mózgu, gdy
działamy w trybie wielozadaniowym? I czym w ogóle jest koncentracja
uwagi?

Brama do świadomości
Zanim napływające bodźce trafią do obróbki w kresomózgowiu, muszą
najpierw minąć naszego „bramkarza świadomości”. Tę odpowiedzialną
funkcję pełni międzymózgowie, które dokonuje błyskawicznej oceny, czy
dana rzecz wymaga skupionej uwagi. Jeśli tak, należy ją przesłać do płata
czołowego. Ale może jest to proste, standardowe zadanie? W takim razie
trzeba je wysłać do tych części kresomózgowia, które potrafią działać
również bez udziału świadomości (np. do płata potylicznego w przypadku
bodźców wzrokowych).
Z doświadczenia wiemy, że szybko się nudzimy, gdy nie dzieje się nic
nowego. Prawdziwym mistrzem w tym zakresie jest jednak nasze
międzymózgowie, które już po kilku sekundach traci ochotę, by przepuszczać
bodziec do świadomości, o ile ten się nie zmienia. Innymi słowy, po to
byśmy mogli utrzymać skupioną uwagę, musimy cały czas stykać się
z nowościami. Dopuszczenie do świadomości i obdarowanie uwagą stanowią
bowiem najwyższe zaszczyty, jakich bodziec może dostąpić.
Zatem istotnie wielozadaniowość nie jest dla mózgu niczym
nadzwyczajnym. Liczne informacje trafiają do podświadomości, gdzie są
przetwarzane bez naszego świadomego udziału. Przez większą część czasu
wykonujemy mnóstwo zadań „na autopilocie”, mózg bowiem rozpoznał
wzorzec działania, po który należy sięgnąć w danym przypadku,
i automatycznie go wdraża.
Jadąc na rowerze, nie zastanawiamy się nad każdym kolejnym ruchem
stopy, co więcej jesteśmy przy tym w stanie prowadzić rozmowę. Gdy mózg
raz nauczy się, jakie wzorce aktywności powinien uruchamiać w warunkach
standardowych, robi to później bez zastanowienia. Sprawa zmienia się
dopiero wówczas, gdy sytuacja staje się niestandardowa – wtedy musimy
uświadomić sobie, co konkretnie robimy. I w zasadzie dopiero takie
równoległe, świadome wykonywanie odrębnych zadań, z których każde ma
inny cel, można by nazwać „prawdziwą” wielozadaniowością.

Mózg lubi porządek

Tyle że taki prawdziwy multitasking nie jest prostą sprawą. Koncentracja


uwagi jest dla mózgu wyjątkowym i cennym dobrem, a pieczę nad nią
sprawuje obszar, który właśnie u gatunku ludzkiego jest szczególnie dobrze
wykształcony. Znajduje się on w przedniej części płata czołowego, stąd
specjaliści określają go mianem kory przedczołowej. Często używa się też
w tym kontekście określenia „pamięć robocza”, jednak choćby po lekturze
poprzednich rozdziałów powinniście już wiedzieć, że w przypadku mózgu
lepiej darować sobie takie komputerowe analogie.
W korze przedczołowej nic się nie zapisuje, tylko zbiega się tam to, co
w danej chwili istotne. Dzięki temu wzorce aktywności z różnych rejonów
mózgu mogą skomasować się tam w jeden nowy wzorzec. Zatem świadome
przeżycie rodzi się tuż za naszym czołem. Ale uwaga! Płat czołowy nie jest
nadrzędną jednostką kierowniczą w mózgu, w której powstaje świadomość.
Co prawda steruje on koncentracją, jednak świadomość to coś znacznie
więcej. Pojawia się ona wskutek pobudzenia wielu różnych obszarów mózgu
i ich jednoczesnego wzajemnego oddziaływania.
Uczeni wciąż spierają się na temat tego, czym w istocie jest świadomość.
Obecnie przyjmuje się, że każda myśl (każdy wzorzec aktywacyjny) staje się
świadomy, jeśli tylko jest dostatecznie często przesyłany tam i z powrotem
pomiędzy rozmaitymi rejonami mózgu a korą przedczołową. Ale tego, jak
powstaje z tego świadome przeżycie, nie potrafimy (jeszcze) wyjaśnić.
Kora przedczołowa nie jest zatem „modułem świadomości”, jak często się
twierdzi, tylko platformą, na której dochodzi do zestawiania i łączenia myśli
w nowych konfiguracjach. To trochę tak jak na moim biurku: jednocześnie
leżą na nim książki wzięte z regału, listy ze skrzynki pocztowej, gazety
z kiosku, rozmaite papiery i zapiski. Biurko jest więc miejscem, na którym
łączą się informacje z różnych źródeł i powstaje ta książka. Gdy skończę,
wszystko to zostanie usunięte, a biurko będzie gotowe do kolejnego zadania.
Żebym mógł ocenić daną informację i ewentualnie połączyć ją z innymi,
musi ona jednak leżeć przez pewien czas na biurku. Zajmuję się przez kilka
godzin fachowym periodykiem, po czym odkładam go na półkę. Na
przejrzenie książki potrzebuję jeszcze więcej czasu. Różne kartki z notatkami
zalegają na biurku chyba całe wieki, jak właśnie dostrzegam.
Na biurku naszego mózgu, czyli w korze przedczołowej, wszystko to
odbywa się znacznie szybciej. Wystarczy, że nadesłana z odległego rejonu
mózgu informacja zsynchronizuje się z korą przedczołową na jedną dziesiątą
sekundy (lub dłużej), a już trafia do naszej świadomości.
Różnica w porównaniu z moim biurkiem polega na tym, że do kory
przedczołowej trafiają tylko kopie informacji. Gdy na przykład w naszej
świadomości pojawia się jakiś obraz, oznacza to, że odpowiedni wzorzec
aktywacyjny jest wciąż w mózgowych ośrodkach wzroku, a do płata
czołowego kierowany jest w postaci odbicia. Na koniec powstaje rozległy
wzorzec aktywacyjny, który rozprzestrzenia się w całym mózgu. Ogromną
zaletą tego rozwiązania jest to, że na przykład informację w postaci obrazu
mogą przetwarzać wyspecjalizowane rejony w ośrodku wzroku, podczas gdy
jednocześnie jest ona świadomie obrabiana w korze przedczołowej. Oto
przykład idealnej synchronizacji!

Mario Götze kontra Kawaler do wzięcia

Każdy, kto ma biurko, wie, że zapełnia się ono zdecydowanie zbyt szybko.
Z tym samym problemem zmaga się też kora przedczołowa. Jeśli nie chcemy
utonąć w piętrzących się papierach, musimy cały czas uprzątać to, czego
w danej chwili nie potrzebujemy. Z tym akurat kora przedczołowa nie ma
żadnego problemu: wystarczy chwilowo przerwać połączenie z obszarem
mózgu, z którego dociera dana informacja, i już określony wzorzec znika ze
świadomości. Można powiedzieć: co z płata czołowego, to z myśli (ale nie
z mózgu w ogóle, bo podświadomie dalej zajmujemy się przetwarzaniem tej
informacji).
Oznacza to, że kora przedczołowa nie pozwala nam na świadome
zajmowanie się kilkoma sprawami jednocześnie (ostatecznie mamy przecież
tylko jedną świadomość). Prawdziwy multitasking jest dla nas zatem
nieosiągalny. Tym, co w gruncie rzeczy robimy w rzekomym trybie
wielozadaniowym, jest błyskawiczne przerzucanie się od jednego zadania do
innego.
O tym, że nie jest to najlepsza taktyka, można przekonać się podczas
wieczoru spędzanego przed telewizorem. Często zdarza się, że najciekawsze
programy emitowane są w tym samym czasie – Liga Mistrzów i, dajmy na to,
Kawaler do wzięcia. Zaczynam więc oglądać mecz, ale gra toczy się ospale.
Moja świadomość nie dostaje żadnych nowych impulsów, więc zmieniam
kanał. Po kilku minutach najgłupszej „rozrywki”, jaką można znaleźć
w prywatnej telewizji, mam już serdecznie dość, przełączam znowu kanał
i okazuje się, że przegapiłem pierwszą bramkę, cholera! Tym razem
zostawiam więc mecz na dłużej, w związku z czym znów przełączam się za
późno i nie wiem, komu kawaler wręczył różę. Diabli by to wzięli. Jak widać,
przy oglądaniu telewizji „wielokanałowość” jest nieosiągalna. Nasza uwaga
też sobie z tym nie radzi. Kora przedczołowa nie jest w stanie efektywnie
przełączać się, by wykonywać kilka zadań równie dobrze. W rezultacie spada
wydajność – właśnie dlatego, że zawsze przegapiamy najważniejszy moment.
Z punktu widzenia pracy mózgu znacznie lepiej jest ustalić hierarchię
priorytetów, a nie zajmować się wieloma sprawami naraz. Jeśli bowiem
w świadomości dwa wzorce aktywacyjne zaczną się nakładać na siebie,
ucierpi precyzja wykonania. Trochę tak jak wtedy, gdy w jednym pokoju leci
piosenka z radia, a w drugim dudni na cały regulator wieża – muzyka nakłada
się na siebie. Jeśli stoimy w korytarzu, dokładnie pomiędzy źródłami
dźwięku, nie będziemy słyszeć dwóch piosenek jednocześnie, tylko
niezrozumiałą kakofonię.

Ukryty multitasking

Nasza świadomość nie jest zatem stworzona do tego, by wykonywać kilka


zadań równolegle. Zamiast tego błyskawicznie przerzuca się od jednej
czynności do drugiej. Jednak takie przełączanie nie jest proste, bo stwarza
podwójne obciążenie. Po pierwsze, trzeba dodatkowo wytężyć uwagę, by
skierować ją na nowy cel. Po drugie, trzeba oderwać ją od zadania
dotychczasowego. Można powiedzieć, że dokonujemy przeskoku z jednego
wzorca w korze przedczołowej do innego. I robimy to niezwykle chętnie. To
bowiem, że w normalnych warunkach skupiamy uwagę na jednym zadaniu,
nie oznacza, że mózg tylko nim się zajmuje.
Oto prosty przykład: stoisz na przyjęciu i bierzesz udział w ożywionej
rozmowie. Wokół jest wiele innych osób, jednak nie poświęcasz zbyt wiele
uwagi ich wypowiedziom. Na pozór zupełnie nie dociera do ciebie, o czym
jest mowa tuż obok. A jednak, gdy ni z tego, ni z owego ktoś z pobliskiej
grupki wymienia twoje nazwisko, natychmiast skupiasz się na toczącej się po
sąsiedzku rozmowie, chociaż pozornie w ogóle nie zwracałeś na nią uwagi.
Dzieje się tak dlatego, że choć nie jesteśmy tego świadomi, mózg cały czas
rejestruje i przetwarza rozmowę toczącą się obok nas, i w pewnym momencie
uznaje, że jest na tyle istotna, by przerzucić ją do świadomości. Wniosek:
przez cały czas działamy w trybie wielozadaniowym, tyle że nie zdajemy
sobie z tego sprawy. Natomiast świadomą uwagę w zdecydowanej
większości wypadków można skupić wyłącznie na jednym celu.

Pułapka „podzielnej uwagi”

Jeśli chodzi o aktywne i świadome przełączanie się z jednego zadania na


inne, problemy pojawiają się już przy dwóch czynnościach, chociaż z dwoma
kora przedczołowa jeszcze jako tako sobie radzi. W specjalnych badaniach
nad dwuzadaniowością okazało się, że kora przedczołowa dzieli sobie
w takiej sytuacji pracę: prawa część zajmuje się jednym zadaniem, a lewa
drugim92, można bowiem utrzymać dwa rozmaite wzorce aktywności
w dwóch różnych obszarach. Potocznie mówimy, że mamy coś „z tyłu
głowy” – jak się okazuje, mamy to w istocie „z boku głowy”, czyli w drugiej
połowie mózgu. Dla kory przedczołowej jest to zapewne duże udogodnienie.
Może szybko przełączać się od jednej aktywności do drugiej, nie musząc za
każdym razem mozolnie „wczytywać” informacji napływających z reszty
mózgu, by rozwiązywać nowe zadanie.
Jest jednak małe „ale”. Zasada ta sprawdza się tylko w naprawdę prostych
zadaniach, z którymi w codziennym życiu rzadko mamy do czynienia
(badanych proszono o zapamiętanie ciągów liter i jednoczesne rejestrowanie,
czy są to litery małe czy wielkie). Tak czy owak powyżej dwóch zadań
zaczynają się schody. Kiedy dorzucano badanym trzecie zadanie (na przykład
zapamiętywanie koloru liter), jedno z nich systematycznie im umykało.
Oznacza to, że najwydajniej pracujemy wówczas, gdy zajmujemy się tylko
jedną sprawą w danym czasie. Każdy dodatkowy problem wymagający
skupienia uwagi źle wpływa na naszą efektywność.
„Podzielność uwagi” kosztuje – cierpi na niej nie tylko tempo, ale
i precyzja wykonywania zadań. Gdy badanych proszono, by w symulatorze
jazdy nie tylko odnaleźli drogę do celu, ale także zapamiętali litery lub cyfry
umieszczone na poboczu, okazało się, że znacznie częściej przejeżdżali
właściwy zjazd niż ci, którzy koncentrowali się wyłącznie na prowadzeniu
auta93. A już zupełnie fatalnie robiło się, gdy mieli jeszcze rozmawiać przez
komórkę (mimo użycia zestawu głośnomówiącego). W takiej sytuacji mózg
ewidentnie traci zdolność analizowania i oceny kolejnych informacji. Bez
względu na to, czy chodziło o zauważanie bawiących się dzieci czy o liczenie
tablic reklamowych wzdłuż szosy, badani nie radzili sobie z tym, gdyż
pochłaniało ich prowadzenia samochodu i rozmowa przez telefon94. W takich
warunkach szybkość reakcji i spostrzegawczość kierowcy odpowiadają
reakcjom człowieka mającego 0,8 promila alkoholu we krwi. Dlatego zakaz
prowadzenia rozmów telefonicznych za kółkiem naprawdę ma swoje
uzasadnienie.

Złudzenia wielozadaniowca

Multitasking, zwłaszcza stosowany często i na większą skalę, nie jest zatem


czymś, czym powinniśmy się specjalnie chwalić. Po pierwsze, prawdziwa
wielozadaniowość jest z biologicznego punktu widzenia po prostu
niemożliwa. Po drugie, to, co za nią uznajemy (szybkie przerzucanie się
z jednego zadania na inne), nie prowadzi do uzyskiwania optymalnych
rezultatów. Po trzecie wreszcie, ludzie, którzy sami uważają się za mistrzów
w tej dziedzinie, okazują się szczególnie niezdolni do przeskakiwania
pomiędzy zadaniami. Przeprowadzono badania, w których uczestników
proszono właśnie o takie przerzucanie się od zadań arytmetycznych do
zapamiętywania liter. Stwierdzono, że osoby, które uznawały się za speców
od wielozadaniowości (na przykład dlatego, że często prowadziły rozmowy
przez komórkę, jednocześnie jedząc hotdoga), wypadły gorzej niż ci, którzy
oceniali własną podzielność uwagi jako przeciętną95. Badania nad
koncentracją wykazały też, że samozwańczy mistrzowie multitaskingu słabiej
potrafili się koncentrować, łatwiej się rozpraszali i wolniej wykonywali
zadania wymagające przerzucania uwagi w porównaniu ze skromniej
oceniającymi się uczestnikami eksperymentów96. Krótko mówiąc, ci, którzy
chełpią się własną zdolnością do robienia wielu rzeczy naraz, sami się
oszukują, a przy tym nieustannie rozpraszają się podczas pracy.
Inna rzecz, że nie jest jasne, czy u domniemanych wielozadaniowców
zdolność koncentrowania się i przełączania pomiędzy rozmaitymi zadaniami
ucierpiała dopiero wskutek intensywnego multitaskingu. Może już wcześniej
mieli z tym kłopoty i właśnie dlatego często ulegali pokusom stwarzanym
przez telefon komórkowy czy laptop, co w rezultacie kazało im uznać się za
zdolnych do robienia kilku rzeczy naraz. Bez względu na to, jak jest, radzę
z całego serca: nigdy nie chwalcie się wybitną podzielnością uwagi, bo
obróci się to przeciwko wam.
Przy okazji warto tu rozprawić się z innym popularnym poglądem, jakoby
kobiety lepiej radziły sobie z wielozadaniowością niż mężczyźni. Nie tylko
przeczy temu zdecydowana większość badań naukowych (kobiety równie źle
jak mężczyźni radzą sobie z przerzucaniem się od jednego zadania do
innego)97, ale przede wszystkim, zwłaszcza w świetle niniejszego rozdziału,
nie chciałbym nikogo obrazić, nazywając go „wytrawnym
wielozadaniowcem”. Bo multitasking to złudzenie – na dodatek
niebezpieczne. Jeśli chcecie racjonalnie wykorzystywać możliwości
własnego mózgu, dawajcie mu zadania jedno po drugim. Ciągłe rozpraszanie
uwagi, na pozór tak kuszące, przynosi więcej szkody niż pożytku.
A teraz na sekundkę was przeproszę, bo muszę szybko sprawdzić kilka
mejli.
MIT NUMER 17

Neurony lustrzane tłumaczą zachowania


społeczne

Uprawianie neurobiologii nie wiąże się z koniecznością przywdziewania


białego fartucha i badania komórek pod mikroskopem w sterylnym
laboratorium. Z neurobiologią mamy do czynienia przez cały czas. Ostatnio
na przykład jechałem rano kolejką wraz z tłumem zmęczonych ludzi,
zdążających do pracy czy na uczelnię. Sam też nie zdążyłem się jeszcze
całkiem przebudzić. No i stało się: ktoś zaczął ziewać. Wystarczyło tylko
rzucić okiem, jak wykrzywia buzię (zasłoniwszy ją wcześniej dłonią),
szeroko otwiera usta, wciąga głęboko powietrze i mruży oczy, żeby samemu
się „zarazić” ziewaniem. Dosłownie po kilku sekundach zaczęli ziewać
również inni pasażerowie. Niektórzy robili to całkiem otwarcie, inni
próbowali się maskować, ale mojemu wyszkolonemu oku badacza nie
umknie żaden szczegół. Ziewanie jest zaraźliwe, nawet jeśli ten, kto zaczyna,
tylko udaje, że ziewa. Możecie to sprawdzić przy najbliższej okazji.
Jaki ma to związek z moją dziedziną? Otóż każdy, kto choć odrobinę
orientuje się w tej kwestii, wie, że taka „zaraźliwość” ziewania jest sprawką
neuronów lustrzanych – wyspecjalizowanych komórek nerwowych, które
pozwalają nam postawić się w położeniu innych ludzi i wczuwać się w ich
działania. Neurony te w pewnym sensie „odzwierciedlają” zachowania
innych osób w naszych własnych mózgach, stanowiąc biologiczny fundament
zdolności empatii.
Neurony lustrzane to rzeczywiście ostatni krzyk mody, i to nie tylko
w neurobiologii (odkryto je naprawdę niedawno, dopiero w latach
dziewięćdziesiątych), lecz także w psychologii i naukach społecznych.
Niedzielni „neuronaukowcy” i wszelkiej maści trenerzy mentalni objaśniają
za ich pomocą praktycznie wszystko: dlaczego kibice piłki nożnej ubierają
się jednakowo („odbijają” innych kibiców); dlaczego ten czy ów odnosi takie
sukcesy w uwodzeniu płci przeciwnej (bo stanowi doskonałe „zwierciadło”
dla pani swego serca); dlaczego wzdrygamy się i „odczuwamy” ból, gdy
dziesięć metrów od nas ktoś spada z roweru i szoruje po asfalcie (bo neurony
lustrzane wywołują w nas uczucie „identycznego” bólu); dlaczego płaczemy,
oglądając zakończenie Titanica (bo statek tonie).
Krótko mówiąc, neurony lustrzane służą za dyżurne wyjaśnienie dowolnej
sprawy, która jest akurat na topie w psychologii popularnej. Empatia,
współodczuwanie, współpraca – nareszcie możemy je jakoś biologicznie
uzasadnić. Wiadomo już, „skąd wiemy, co inni myślą i czują” albo „dlaczego
czuję to, co ty” (tak przynajmniej wynika z tytułów książek na ten temat),
a także dlaczego obcy współpasażerowie w pociągu zarażają nas ziewaniem.
Można odnieść wrażenie, że neurony lustrzane kontrolują dosłownie
wszystko.
Mały chwyt dla makaka, wielki skok dla ludzkości

Nasza wiedza na temat neuronów lustrzanych jest stosunkowo świeżej daty.


Nieco ponad dwadzieścia lat temu zespół włoskich naukowców z Parmy,
prowadzący pod kierunkiem Giacoma Rizzolattiego badania nad mózgami
makaków królewskich (rezusów), odkrył zachodzące w nich zdumiewające
zjawiska. Planowany przez małpę ruch powodował uruchomienie
niezbędnego w tym celu programu w jej mózgu (ściślej, w korze ruchowej),
a potem przesłanie go do mięśni, które miały ów ruch wykonać (dodajmy, że
wykonać wyjątkowo sprawnie, bo makaki są prawdziwymi mistrzami
w chwytaniu i łuskaniu orzechów). Rejestracja pobudzenia poszczególnych
neuronów w korze ruchowej pozwalała wykazać, kiedy i w którym miejscu
mózgu wyzwalany jest dany impuls ruchowy, gdy małpa sięga po orzech.
Oczywiście na razie nie odkryto tu żadnej rewelacji. Jednak ku zdumieniu
badaczy okazało się, że niektóre z owych neuronów (zasadniczo
odpowiedzialne wyłącznie za generowanie impulsów ruchowych)
uaktywniały się także wtedy, gdy makak tylko przyglądał się, jak inny
osobnik (do ich grona zaliczamy w tym przypadku także ludzi) sięgał po
orzech. Bez względu na to, czy łapę po orzech wyciągała sama małpa czy
robił to eksperymentator, w obu przypadkach uaktywniały się te same
neurony. Tak jakby makak przez samą obserwację zrozumiałej dla siebie
czynności generował w mózgu „wirtualny impuls ruchu”.
W rezultacie owym komórkom nerwowym nadano nazwę neuronów
lustrzanych, bo w pewnym sensie odzwierciedlają one cudze działania,
odtwarzając je w naszym mózgu98. Cóż za fantastyczna wiadomość! Skoro
wspomniane neurony odbijają w nas działania innych osób, to znaczy, że
możemy postawić się w ich położeniu i zrozumieć ich zachowania, patrząc na
świat z ich perspektywy. Pewien żądny sławy neurobiolog (niejaki Vilayanur
Ramachandran) z miejsca przechrzcił je na „neurony Gandhiego”99, komórki
współodczuwania, stanowiące fundament ludzkiego społeczeństwa.
Chwila, chwila…. Tak naprawdę nasza dzisiejsza wiedza na temat tych
fascynujących komórek jest dużo bardziej zróżnicowana i nie zasługuje na to,
by traktować ją jako neurobiologiczny wytrych do wyjaśniania wszelkich
zjawisk społecznych. Przyjrzyjmy się więc przede wszystkim temu, co jak do
tej pory rzeczywiście wiemy na temat owych neuronów.

Grupa mieszanego pochodzenia

Określenie „neurony lustrzane” nasuwa przypuszczenie, że chodzi tu


o wyraźnie wydzieloną i zlokalizowaną w jednym miejscu grupę komórek
nerwowych, których głównym zadaniem jest wirtualne powtarzanie
(odzwierciedlanie) w naszych mózgach cudzych ruchów. Tymczasem nie.
Neurony lustrzane to „z urodzenia” zwykłe komórki nerwowe, których
zadaniem jest wyzwalanie impulsów ruchu. Uruchamiają się one jednak także
pod wpływem obserwacji działania podobnego do tego, w którym same
zwykle aktywnie uczestniczą. Krótko mówiąc, komórka, która zwykle
generuje wzorzec ruchowy „sięgnij-po-orzech”, uaktywnia się także wtedy,
gdy dowie się, że po orzech sięga ktoś inny.
Neurobiolodzy poznali rozmaite typy neuronów lustrzanych100. Dla
niektórych komórek nie ma znaczenia, czy małpa widzi dany ruch
w rzeczywistości czy też na filmie. Inne reagują także wtedy, gdy używane są
narzędzia (na przykład ktoś sięga po orzech za pomocą szczypiec), albo
uruchamiają się już pod wpływem samego dźwięku (małpa słyszy, jak
rozłupywana jest skorupa orzecha). Dla aktywowania neuronów lustrzanych
mają też znaczenie inne czynniki, na przykład to, jak daleko małpa siedzi od
widzianego orzecha, pod jakim kątem go obserwuje, czy część działań
wykonywana jest w ukryciu lub wreszcie jak duża jest nagroda (smakołyk),
którą ostatecznie dostaje.
Wiemy też z całą pewnością, czym lustrzane neurony nie są. Otóż nie są
zwykłymi lusterkami, osadzonymi w ośrodku ruchowym mózgu, które po
prostu odbijają wszystko, co dzieje się przed nimi. Na ich działanie wpływają
rozmaite inne rejony mózgu (choćby docierające z nich informacje na temat
odległości i perspektywy). Dopiero po uwzględnieniu owych informacji
neurony lustrzane odpowiednio dostosowują swoją aktywność. Innymi
słowy, za sprawą neuronów lustrzanych w żadnym razie nie stajemy się
bezwolnymi automatami, które natychmiast małpują każdy dostrzeżony ruch.
Komórki te to zaledwie elementy składowe w złożonym procesie
rozpoznawania i rozumienia działań.

Człowiek w zwierciadle własnych neuronów

O neuronach lustrzanych wiemy już całkiem sporo. Jednak większość


posiadanych przez nas informacji dotyczy mózgów małp. Nie posuwa nas to
zanadto w wyjaśnianiu roli, jaką odgrywają owe komórki u rozradowanych
kibiców albo całujących się par. Niestety, trudno jest przeprowadzać
bezpośrednie pomiary w komórkach nerwowych ludzkich mózgów.
Odpowiednia procedura jest, co prawda, całkowicie bezbolesna (w mózgu nie
ma receptorów bólu, lepiej więc mieć się na baczności, bo ktoś może
spokojnie wyciąć nam kawałek mózgu, a nic nie poczujemy…). Tyle że mało
kto dobrowolnie zgodzi się na otwarcie czaszki tylko po to, by napalony
badacz mógł mierzyć aktywność poszczególnych neuronów za pomocą
przyczepionych drutów.
Dlatego w większości badań nad neuronami lustrzanymi u ludzi trzeba się
posiłkować takimi metodami jak rezonans funkcjonalny (fMRI). O ich
ograniczeniach była już mowa na początku tej książki: są to metody wolne,
niedokładne i pośrednie. Nie da się w ten sposób zmierzyć szybko
zmieniającej się aktywności poszczególnych komórek. Można jednak
przynajmniej z grubsza wydzielić obszary o, jak to się ładnie określa,
„właściwościach lustrzanych”101, czyli takie, w których pobudzenie następuje
zarówno podczas wykonywania danej czynności, jak i samego jej
obserwowania.
Przy tej okazji stwierdzono, że w mózgu jest całkiem sporo rejonów
zdolnych do symulowania zewnętrznych działań. Oznacza to, że wzorce
aktywności odpowiadające tym, które wyzwalane są podczas własnego
działania, uruchamiają się w nich także podczas całkowicie biernej
obserwacji. Wśród tych obszarów znalazły się nie tylko partie kory ruchowej
(jak można było zakładać na podstawie badań nad małpami), lecz także partie
ośrodka wzroku, móżdżku, a nawet układu limbicznego. Ten ostatni
odgrywa, jak wiemy, znaczącą rolę w powstawaniu uczuć, jak dotąd jednak
w żadnych badaniach nie udało się jasno wykazać, że mamy tam oddzielne
neurony lustrzane, które uruchamiają się, gdy wczuwamy się w położenie
innych. Nie ma więc w mózgu czegoś takiego jak „ośrodek empatii”.
W rzadkich przypadkach zdarza się jednak, że jesteśmy w stanie uzyskać
dostęp do poszczególnych komórek w ludzkim mózgu i zmierzyć ich
indywidualną aktywność. Tak dzieje się na przykład u osób chorych na
padaczkę, u których otwiera się czaszkę na potrzeby operacji. Przy takiej
okazji stwierdzono, że niektóre neurony uaktywniały się nie tylko wówczas,
gdy pacjent sam się uśmiechał, ale i wtedy, gdy rozpoznawał uśmiechniętą
twarz102.
Z drugiej strony, w przywoływanym eksperymencie można było zbadać
zaledwie 1177 komórek nerwowych w jednym, bardzo ograniczonym rejonie
mózgu, co gorsza, właściwościami lustrzanymi odznaczało się niespełna 8
procent z nich. Jesteśmy więc równie blisko dokładnego zrozumienia
działania całych obszarów mózgu, jak Niemcy zdobycia mistrzostwa świata
w krykiecie. Mimo to eksperyment okazał się bardzo interesujący, dowiódł
bowiem, że neurony lustrzane faktycznie występują również w ludzkim
mózgu. Ich rola pozostaje jednak kwestią wysoce sporną.
Jak widać, już samo wykazanie obecności neuronów lustrzanych w mózgu
człowieka jest dostatecznie skomplikowanym zadaniem. A próba
zredukowania złożonych uczuć, takich jak współczucie czy troska, do
aktywności pojedynczych komórek nerwowych kompletnie chybia celu.
W zrozumienie działań innych ludzi zaangażowane są raczej rozbudowane
grupy komórek i całe sieci. Nie wystarczy w tym celu włączyć po kilka
neuronów lustrzanych tu i tam; konieczna jest współpraca wielu różnych
rejonów mózgu. Widać to wyraźnie w próbie „odczytania” uczuć. Gdy płacze
ktoś nam bliski, sami mamy ochotę się rozpłakać. Jednak nie dlatego, że
nasze neurony po prostu odzwierciedlają płacz. Dużą rolę odgrywa również
kontekst sytuacyjny, a także nasz własny stan emocjonalny. Na początek
trzeba w ogóle stwierdzić fakt, że ktoś płacze, i odpowiednio to zjawisko
zaklasyfikować (może na przykład płacze z radości?), co z kolei wymaga
wykonania przez mózg kolejnych operacji i porównań z zasobem naszych
doświadczeń. Nie ma więc mowy o prostym mechanizmie „skoro ty płaczesz,
to ja też”. Inaczej szlochalibyśmy wraz z każdą płaczącą przy nas osobą
(nieważne, czy byłaby to matka czy nasz doradca finansowy).
Lustereczko powiedz, proszę,

co też w mózgu swoim noszę

Jedynym udowodnionym naukowo i potwierdzonym w licznych badaniach


faktem jest występowanie u makaków komórek nerwowych uaktywniających
się nie tylko podczas samodzielnego generowania impulsu ruchu, ale także
wówczas, gdy inny osobnik wykonuje taki ruch. Od tego miejsca zaczynają
się rozmaite interpretacje i spekulacje na temat znaczenia, jakie istnienie
owych neuronów ma dla funkcjonowania mózgu.
Może być tak (podkreślam tryb przypuszczenia), że neurony lustrzane
służą do przyspieszania nauki prostych czynności. Przykład: karmiony
łyżeczką niemowlak widzi, że mama otwiera buzię, dlatego robi to samo
i w rezultacie łatwiej może się dobrać do pysznej papki z marchewki.
Obserwacja jest sprzężona z działaniem, dzięki temu dziecko może bez trudu
przyswoić wzorzec ruchowy.
O krok dalej idzie model wyboru działania103. Zgodnie z nim neurony
lustrzane miałyby służyć do tego (znów podkreślam, że to tylko hipoteza!),
by porównywać obserwowaną czynność z możliwym działaniem własnym.
Widzimy, że ktoś sięga po orzech, i rekapitulujemy (symulujemy,
odzwierciedlamy) ów wzorzec ruchowy w swojej głowie, następnie zaś
możemy go wdrożyć, o ile uznamy to za stosowne, albo odrzucić.
Oznaczałoby to, że neurony lustrzane symulują w mózgu „wirtualną
rzeczywistość”, która później, po skonfrontowaniu jej z naszymi
doświadczeniami, emocjami i wrażeniami zmysłowymi, może zaowocować
podjęciem określonego działania.
Niestety, w popularnym ujęciu zadanie neuronów lustrzanych sprowadza
się często wyłącznie do „wczuwania się w innych”. Mielibyśmy zatem
symulować we własnych mózgach działania innych osób i w ten sposób
uzyskiwać znacznie intensywniejsze (bo bezpośrednie) doznanie owych
czynności. Innymi słowy, moglibyśmy bezpośrednio współodczuwać
z innymi ludźmi. A jak wiadomo, radość dzielona z kimś to radość podwójna.
Jednak tak radykalny pogląd jest trudny do obrony z naukowego punktu
widzenia. Na przykład niektórzy pacjenci po udarze mają zniszczone rejony
odpowiadające za generowanie mowy (wraz z tamtejszymi neuronami
lustrzanymi), a mimo to wciąż dobrze rozumieją, co się do nich mówi. Zatem
teoria, że neurony lustrzane są konieczne do tego, żebyśmy mogli wczuwać
się w działania innych i je rozumieć, jest zbyt powierzchowna104.
Obecnie (podkreślam to słowo, bo w nauce sprawy przybierają często
całkiem inny obrót wskutek nowych badań) odrzucono prosty model, zgodnie
z którym neurony lustrzane pomagają nam wczuwać się w innych ludzi.
Stwierdzono bowiem, że komórki te nie tylko odzwierciedlają proste wzorce
ruchowe, ale uwzględniają przy tym cały kontekst działania. Wzorzec ruchu
w mózgu makaka generowany jest nie tylko wtedy, gdy małpa widzi czyjś
ruch (na przykład sięganie po orzech), ale również wtedy, gdy ostatnia część
ruchu (kontakt łapy lub dłoni z orzechem) zostanie przed nią ukryta105.
Wynikałoby z tego, że neurony lustrzane koncentrują się nie tyle na samym
działaniu, które mają odzwierciedlić, ile na jego zasadniczym celu (sięgnięcie
po orzech). Takiej sztuki nie są zaś w stanie dokonać same – potrzebne jest
do tego wsparcie ze strony innych rejonów mózgu, w których następuje
interpretacja działań.
Nie ma więc mowy o prostym automatyzmie, sugerowanym przez
metaforę lustra: widzimy jakiś ruch i niewolniczo odtwarzamy go we
własnym mózgu. Z całą pewnością neurony lustrzane nie działają w ten
sposób. Może więc byłoby lepiej w ogóle unikać słowa „lustrzane”, które, jak
widać, może wprowadzać w błąd. Znacznie trafniejsze byłyby „neurony
symulacyjne”, bo takie sformułowanie jasno dawałoby do zrozumienia, że
owe komórki nie są po prostu biernymi lusterkami, odbijającymi wszystko,
co się przed nimi postawi.

Czy to jest miłość, czy wspólne ziewanie?


Nie zaczynajcie więc i wy tłumaczyć nagle wszystkiego za pomocą
neuronów lustrzanych. Teoria, jakoby u człowieka miały one w ogóle
związek z współodczuwaniem, jest wysoce kontrowersyjna. Na razie żaden
badacz nie zdołał dowieść, że potrafimy w jakikolwiek sposób
„odzwierciedlać” uczucia naszych bliźnich we własnych mózgach.
Trzeba też pamiętać, że niemal wszystko, czego dowiedzieliśmy się na
temat neuronów lustrzanych, dotyczy makaków. Wyniki tych badań są
spektakularne, nie wolno jednak dokonywać nadinterpretacji, polegającej na
prostym przeniesieniu ich na ludzi. Mieliśmy już raz do czynienia z tym, że
budzące wielkie zainteresowanie badania neurobiologiczne zaowocowały
powstaniem całkowicie błędnej teorii, opartej właśnie na nadinterpretacji.
Mówię o badaniach nad pacjentami z „podzielonym mózgiem”
i wywodzącym się stąd mitem o prawo- i lewopółkulowości (por. rozdział 4).
Dobrze byłoby tego uniknąć w przypadku neuronów lustrzanych.
A w takim razie jak to jest z tym ziewaniem? Może przynajmniej
w przypadku tak prostych zachowań naśladowczych neurony lustrzane
odgrywają jakąś rolę? To niewykluczone, ale z całą pewnością nie działają
samodzielnie. Można wykazać, że rejony mózgu, którym przypisuje się
aktywność lustrzaną, są czynne także podczas ziewania106. Jednakże owe
rejony (dla dociekliwych: znajdują się one w 9 polu Brodmanna; jest to
głównie prawy zakręt czołowy dolny) ściśle współpracują z innymi (na
przykład z wielokrotnie wspominaną już korą przedczołową). Nie mamy
jednak pojęcia, co to konkretnie oznacza, bo wciąż za mało wiemy
o rzeczywistym znaczeniu i funkcji neuronów lustrzanych.
W każdym razie ziewanie z całą pewnością nie jest prostym
naśladownictwem; wymaga ogólniejszej oceny drugiej osoby, a więc
wyższych zdolności kognitywnych. Im mniej czujemy się z nią związani, tym
mniejsza szansa, że też zaczniemy ziewać, ponieważ o stopniu
rozprzestrzenienia się takiej „infekcji” decyduje więź emocjonalna107.
Oczywiście sugerowałoby to, że skoro współpasażerowie porannej kolejki
łatwiej zarażają się waszym ziewaniem niż członkowie rodziny, zapewne są
wam bliżsi, niż byliście skłonni przypuszczać. Ale może po prostu i oni byli
zmęczeni i niedospani? Bo słyszałem, że to też odgrywa w ziewaniu pewną
rolę. Całkiem bez udziału neuronów lustrzanych.
MIT NUMER 18

Inteligencja jest wrodzona

Zamierzam teraz wkroczyć na polityczne pole minowe. Jestem oczywiście


neurobiologiem, nie politykiem, jednak w dyskusji budzącej
w społeczeństwie takie emocje może przydać się rzeczowa opinia naukowca.
Inaczej grozi nam zalew populistycznych pseudoargumentów z obu stron.
A chodzi o naprawdę delikatną kwestię, mianowicie o to, w jakim stopniu
nasza inteligencja zależy od czynników genetycznych 1.
Temat jest wyjątkowo drażliwy i bardzo łatwo można znaleźć się
pomiędzy młotem a kowadłem. Ujmując rzecz w telegraficznym skrócie:
jedni twierdzą, że inteligencja zależy głównie od wpływu otoczenia, zatem
większe znaczenie dla naszych ostatecznych osiągnięć intelektualnych mają
wychowanie i edukacja niż same geny. Inni z kolei uzasadniają różnice
w poziomie inteligencji przede wszystkim czynnikami genetycznymi;
inteligentni rodzice często mają też inteligentne dzieci i żadna szkoła tego nie
zmieni.
Wszelka dyskusja jest tym trudniejsza, że rozmaite argumenty bywają
często nadużywane do doraźnych celów politycznych. „Inteligencja jest
dziedziczna w 60 procentach!” – mówi się często, nie rozumiejąc, co to
dokładnie oznacza. Stwierdzenie takie pada w kontekście wskazywania na
coraz liczniejsze mniej błyskotliwe grupy społeczne, które mają na dłuższą
metę doprowadzać do ogłupienia całego społeczeństwa. Z drugiej strony
słychać lamenty, że robimy się coraz głupsi przez wpływ pożałowania
godnych „nowych mediów”, które sprawiają, że poziom inteligencji spada na
łeb, na szyję. Jednym słowem, inteligencja jest z każdej strony zagrożona.
Argumenty genetyczne i środowiskowe są wyciągane na przemian niczym
królik z kapelusza po to, by za pomocą efekciarskich tez szermujący nimi
człowiek zwrócił na siebie uwagę (albo po prostu lepiej sprzedać własną
książkę). Dlatego chciałbym w tym miejscu zaprezentować zwięzłe
i wyważone naukowe wyjaśnienie kwestii dziedziczenia inteligencji.
W miarę możliwości bez kontrowersji, co nie znaczy, że nieciekawie.

Grząski teren

Problem pojawia się wraz z samym wprowadzeniem terminu „inteligencja”.


Nie jest wcale tak prosty i jasny, jak mogłoby się wydawać. Ileż zresztą
mamy tych inteligencji: emocjonalną, społeczną, językową, muzyczną,
przestrzenną, matematyczną, podobno nawet sportową i kulturową. W sumie
to bardzo egalitarne podejście, bo dzięki temu wszyscy (i dzieci, i dorośli)
jesteśmy na swój sposób utalentowani. Jeżeli ktoś ma wrażenie, że pozostaje
nieco w tyle za innymi, powinien po prostu sumienniej poszukać w sobie
odpowiedniego typu inteligencji.
Sami naukowcy, którzy zawsze dążą przecież do uściślania definicji, mają
z tym pojęciem spory problem. Chętnie przywoływany jest cytat:
„Inteligencja jest tym, co mierzą testy inteligencji”108. Pochodzi on z 1923
roku, a jego autorem jest amerykański psycholog Edwin Boring. Sens tej
wypowiedzi bywa wypaczany, bo Boringowi nie chodziło o to, że pojęcie
inteligencji można interpretować najzupełniej dowolnie. Sam dodawał w tym
samym tekście, że inteligencja „poddaje się pomiarom” i można ją zbadać za
pomocą dokładnie opracowanego testu. Problem tylko w tym, by ustalić
jednolite procedury pomiarowe. To zaś nie jest wcale proste.
Pod koniec lat dziewięćdziesiątych 52 wiodących naukowców zdołało się
zgodzić zaledwie co do tego, że inteligencja to „bardzo ogólna zdolność,
która obejmuje między innymi umiejętność wydawania sądów, planowania,
rozwiązywania zadań, myślenia abstrakcyjnego, rozumienia złożonych
koncepcji, szybkiego przyswajania wiedzy oraz uczenia się na podstawie
doświadczeń”109. Hm, chyba trudno byłoby wyrazić się bardziej ogólnikowo.
Tak czy owak inteligencja najwyraźniej obejmuje rozmaite aspekty
naszych procesów myślowych, które bada się za pomocą sprytnie
opracowanego testu. Zazwyczaj w ramach takiego testu ocenia się określone
składowe zdolności kognitywnych, takie jak wnioskowanie, wyobraźnia
przestrzenna, pamięć, tempo pracy czy umiejętności językowe. Oznacza to
także, że wydzielanie rozmaitych, całkowicie odrębnych „inteligencji”
(emocjonalnej, społecznej, cielesnej, duchowej i jakiej tam jeszcze) to może
dobry sposób na podbicie sprzedaży książek na ich temat, naukowo nie da się
ich jednak zbadać ani w ogóle utrzymać tezy o ich istnieniu. Jeśli chcemy
analizować inteligencję z punktu widzenia neurobiologii, musimy ograniczyć
się wyłącznie do zdolności kognitywnych, takich jak rozpoznawanie
wzorców, wyobraźnia przestrzenna czy pamięć. Można powiedzieć, że
inteligencja to miara tego, w jakim stopniu umiemy zastosować te
umiejętności do rozwiązywania zadań.
W poszukiwaniu czynnika g

Wyobraźcie sobie, że w ramach testu na inteligencję macie rozwiązać jakieś


zadanie językowe. Powiedzmy, że chodzi o odnalezienie nazwiska
niepasującego do trzech pozostałych (na przykład Mick Jagger, Jimi Hendrix,
Michael Jackson, Ludwig van Beethoven). Dlaczego ktoś uzyskał w tym
zadaniu wynik powyżej przeciętnej? Bo podobają mu się zadania tego typu?
Bo generalnie lepiej rozwiązuje zadania językowe niż matematyczne? Bo
ogólnie jest bardziej inteligentny? A może dlatego, że rozwiązywał już wiele
podobnych łamigłówek i wyćwiczył stosowne umiejętności? Wszystko naraz
– tyle może na ten temat powiedzieć nauka110. Ten, kto uważnie przeczytał
rozdział 3 (Mózg składa się z modułów), zapewne pamięta, że w mózgu
rzeczywiście istnieją wyspecjalizowane ośrodki, które koncentrują się na
określonych zadaniach (np. ośrodki mowy). Z kolei przy okazji mitu 9 była
mowa o tym, że jogging mózgu nic nie daje pod względem poprawy
ogólnych zdolności intelektualnych, choć jak najbardziej pozwala wyćwiczyć
konkretne umiejętności. Bezsprzecznie więc częste ćwiczenia i wprawa
w rozwiązywaniu testów na inteligencję mają pewien wpływ na ich wynik,
choć nie należy go przeceniać.
Zdecydowanie najważniejsze jest jednak to, w jaki sposób działa sieć
w mózgu (właśnie dlatego powtarzam to do znudzenia niemal w każdym
rozdziale). Potwierdzają to testy na inteligencję, w których zaobserwowano
pewną zaskakującą prawidłowość. Można by sądzić, że ktoś, kto dobrze
poradził sobie ze słowną wykreślanką, wcale niekoniecznie osiągnie
ponadprzeciętny wynik przy okazji obracania sześcianu w wyobraźni.
Tymczasem u inteligentnych osób tak to właśnie wygląda. W pomiarach
stwierdza się u nich związek, korelację, pomiędzy rozmaitymi aspektami
inteligencji (matematyczną, językową, wyobraźnią przestrzenną itp.). Zatem
inteligencję można by postrzegać jako nadrzędną zdolność mózgu,
umożliwiającą sprawne radzenie sobie z rozmaitymi zadaniami. Wspomnianą
korelację między poszczególnymi składowymi inteligencji (np. pomiędzy
zdolnościami matematycznymi i językowymi) mierzy się za pomocą tzw.
czynnika g. W nauce przyjęto go obecnie za miarę inteligencji ogólnej,
pozwalającą uzyskać wiarygodne i powtarzalne wyniki w różnych testach,
o ile są dostatecznie rozbudowane (nie dotyczy to więc rozwiązywanych na
chybcika zadań z pierwszej lepszej strony internetowej).
Jak widać, na inteligencję składa się wiele cząstkowych aspektów, które
podczas testu z reguły bada się osobno. Na zakończenie trzeba złożyć razem
poszczególne wyniki, by uzyskać łączny rezultat, czyli wartość IQ. I tu
pojawia się kolejny problem, bo bardzo łatwo dochodzi przy tej okazji do
nieporozumień.

Inteligencję zyskujemy dzięki innym

Że tak prosto z mostu zapytam: jaki wynik uzyskacie, rozwiązując w tej


chwili test na inteligencję? Ponieważ uważam moich czytelników za osoby
ponadprzeciętnie inteligentne (odrobina pochlebstwa nigdy nie zaszkodzi),
zakładam, że wasze IQ wyniesie być może około 130.
No dobrze, a co by było, gdybyście ten sam test zrobili dziesięć czy
dwadzieścia lat temu? Nawet gdybyście udzielili identycznych odpowiedzi,
mogłoby się okazać, że wynik byłby inny. A to dlatego, że o wartości IQ
rozstrzyga nie tylko rozwiązanie testu przez daną osobę, ale także rezultaty
pozostałych uczestników takiego badania. Dopiero po zestawieniu waszego
wyniku z wynikami innych uczestników testu uzyskuje się iloraz inteligencji
(ang. inteligence quotient, stąd skrót IQ). Oznacza to, że za naprawdę
inteligentnych możemy uznać się dopiero wówczas, gdy wypadniemy lepiej
od pozostałych osób, rozwiązujących ten sam test.
Innymi słowy, IQ nie jest wartością absolutną, którą można znaleźć
w „stanie wolnym”, a następnie łatwo zmierzyć. Jeśli stanę w lesie obok
drzewa, mogę wyjąć miarkę, zmierzyć obwód pnia i oznajmić, że „drzewo
ma 130 centymetrów w obwodzie”. Natomiast jeśli stanę koło ciebie
i poproszę o wykonanie testu na inteligencję, nie będę w stanie od razu
stwierdzić, że twój iloraz inteligencji wynosi 130. Muszę się najpierw
dowiedzieć, jak w tym samym teście wypadali inni, ponieważ IQ to wartość
względna.
Po to więc, by można było wypowiedzieć się na temat czyjejś sprawności
intelektualnej, trzeba przebadać odpowiednio dużą (mówiąc fachowo:
statystycznie wiarygodną) grupę osób, prosząc je o rozwiązanie identycznego
testu. Niezależnie od bezwzględnej wartości rezultatów poszczególnych
uczestników ustala się, że średni uzyskany przez wszystkich wynik
odpowiada ilorazowi IQ = 100. Jeśli zatem wasz wynik wyniesie 130, nie
oznacza to automatycznie, że jesteście bardzo inteligentni w kategoriach
bezwzględnych, a jedynie inteligentniejsi niż 97,5 procent pozostałych
badanych, czyli 97,5 procent populacji statystycznej.
To trochę tak jak w piłce nożnej. Nie ma czegoś takiego jak bezwzględnie
dobra drużyna. Można stwierdzić jedynie, że jest lepsza niż jej przeciwnicy.
Nawet jeśli Bayern pięćdziesiąt razy z rzędu wygra w rozgrywkach
Bundesligi, nie jest to automatycznie równoznaczne z tym, że to obiektywnie
dobra drużyna. Są po prostu lepsi od reszty ligi. A przecież mogłoby być tak,
że to pozostali grają kompletnie beznadziejnie. W takiej sytuacji, żeby
wygrać, nie trzeba wcale samemu być dobrym, a tylko trochę mniej złym.
O wszystkim przesądzają zatem rezultaty populacji statystycznej, z którą
porównujemy własne wyniki. Dla obywatela Niemiec narzucającym się
punktem odniesienia jest ogół społeczeństwa niemieckiego. Co ciekawe,
poziom inteligencji w tej grupie porównawczej najwyraźniej się zmienia. Od
lat trzydziestych XX wieku poziom inteligencji społeczeństw w krajach
zachodnich wzrasta o 3–6 punktów na dekadę. Oznacza to, że jeśli dziś
uzyskacie w teście wynik równy 130, to w latach sześćdziesiątych byłby to
odpowiednik około 150 (zakładając, że udzielilibyście tyle samo poprawnych
odpowiedzi).
Tendencja ta zyskała miano efektu Flynna na cześć amerykańskiego
badacza inteligencji Jamesa Flynna111. Choć w ostatnich latach trend ten
uległ osłabieniu, jego przyczyny wciąż nie są jasne. Poprawa warunków
żywieniowych i zdrowotnych w całym społeczeństwie, bardziej intensywna
edukacja, lepiej wykształceni rodzice, interaktywne media – naukowcy nie są
zgodni co do decydującego czynnika.

Inteligencja bliźniąt

Skoro, jak dowodzi efekt Flynna, poziom inteligencji zauważalnie wzrósł


w ciągu kilku dekad, to jak w ogóle można brać pod uwagę czynniki
genetyczne? Przecież po to, by trwale zmienić materiał genetyczny w toku
ewolucji, tak by różnice stały się zauważalne w obrębie populacji,
w przypadku gatunku ludzkiego trzeba całych tysięcy, jeśli nie setek tysięcy
lat.
Zresztą jak duży może być wpływ materiału genetycznego na naszą
inteligencję? Przecież DNA, czyli nośnik materiału genetycznego w każdej
komórce, koduje raptem 750 megabajtów danych. To za mało, by wyjaśnić
niebywałą złożoność ludzkiego mózgu i jego ogromne możliwości.
W celu naukowego potwierdzenia wpływu materiału genetycznego na
inteligencję prowadzi się przede wszystkim badania nad bliźniętami.
Założenie jest proste: jeśli bliźnięta jednojajowe („klony”, identyczne pod
względem genetycznym) dorastają w całkowicie odmiennym otoczeniu,
wszelkie wspólne cechy (np. związane z inteligencją) muszą być
uwarunkowane genetycznie. Natomiast różnice byłyby w takiej sytuacji
spowodowane wyłącznie odmiennymi warunkami środowiskowymi.
I rzeczywiście, przy tej okazji stwierdzono, że u osób dorosłych za 70
procent inteligencji odpowiadają kwestie dziedziczne112. Szokujące, można
by pomyśleć. To znaczy, że geny rzeczywiście decydują o wszystkim. Czyli
Sarrazin i spółka mają jednak rację.

Jak to jest z tą dziedzicznością?

Stop, stop! Zanim zaczniecie wyciągać pochopne wnioski, chciałbym


wyjaśnić, co w ogóle oznacza termin „dziedziczność” w odniesieniu do
inteligencji. Nie chodzi o to, że za 70 procent naszej inteligencji odpowiadają
geny. Czyli skoro czyjeś IQ równa się 100, to 70 punktów dały mu geny, a 30
punktów – otoczenie. To kompletna bzdura.
Dziedziczność należy rozumieć raczej jako miarę tego, na ile czynniki
genetyczne przyczynią się do wykształcenia różnic pomiędzy dwiema
osobami. Natomiast kwestii udziału genów w inteligencji jednostki w ogóle
nie da się ustalić naukowo, bo, jak już wiemy, inteligencja nie jest wartością
definiowaną w kategoriach absolutnych, tylko względnych.
Sens powyższego jest trochę zawiły, dlatego gwoli wyjaśnienia spróbujmy
przeprowadzić eksperyment myślowy. Wyobraźcie sobie, że dwóch zupełnie
obcych ludzi (nie rodzeństwo, tym bardziej nie bliźnięta) dorasta
w absolutnie identycznych warunkach. Nie jest to, co prawda, możliwe do
zrealizowania w praktyce, ale nie zmienia to faktu, że w takiej sytuacji
wszelkie różnice inteligencji pomiędzy tymi dwiema osobami musiałyby być
uwarunkowane genetycznie, bo czynniki środowiskowe (rodzina, przyjaciele,
wszelkie bodźce zmysłowe) były w obu przypadkach identyczne. Gdyby
więc osoba A uzyskała w teście na inteligencję wynik o 10 wyższy niż osoba
B, wówczas za ową różnicę w 100 procentach odpowiadałyby geny,
dziedziczność inteligencji wynosi więc tu blisko 100 procent.
Jednak o tym, jaki był udział genów w wykształcaniu się samej
inteligencji, nic nie możemy powiedzieć, bo przecież czynniki środowiskowe
były tak czy owak obecne. Nie wiemy zatem, jak rozwija się indywidualny
iloraz inteligencji – i co więcej, nie jesteśmy w stanie tego zbadać
w poprawny metodologicznie sposób. Wniosek: dajcie sobie spokój
z prostymi hasłami typu: „Inteligencja jest w 70 procentach uwarunkowana
genetycznie”. Poprawne naukowo stwierdzenie brzmiałoby raczej tak: „Za
różnicę w inteligencji pomiędzy dwiema osobami należącymi do tej samej
populacji statystycznej odpowiadają w 70 procentach geny”. Ale takie
sformułowanie trudniej sprzedać i nie nadaje się na okładkę książki.
Z naukowego punktu widzenia nie ma cienia wątpliwości, że inteligencja
jest w dużym stopniu dziedziczna. Jednak w tym przypadku określenie
„dziedziczna” nie oznacza „z góry wyznaczona”, a jedynie wskazuje miarę
tego, z jakiego powodu wykształcają się różnice pomiędzy ludźmi.
Naturalnie, geny mają wpływ na inteligencję – ale nawet dziedziczone przez
nas geny nie dyktują nam nieodwołalnie całego przyszłego losu.

Genetyczna książka kucharska

Geny to swego rodzaju „instrukcje montażu”, które komórka może


wykorzystać do łączenia elementów budujących białka, czyli aminokwasów.
Geny, nanizane na łańcuch DNA, tworzą materiał genetyczny w jądrze
każdej komórki, i można porównać je do zbioru przepisów w książce
kucharskiej. Na ich podstawie komórka jest w stanie skonstruować niemal
wszystko, czego potrzebuje: cząsteczki strukturalne do kotwiczenia synaps,
enzymy do wytwarzania substancji przekaźnikowych albo proteiny
wspomagające wydzielanie tychże substancji. Łatwo jest uznać, że
o wszystkim, co dzieje się w komórce (a również w całym mózgu) decydują
geny. Tak jednak nie jest.
W mojej kuchni mam całą półkę z książkami kucharskimi. Są przepisy na
makarony, zupy, sałatki, gdzieś tam znajdzie się nawet książka kucharska dla
studentów. Z niektórych korzystam częściej, dlatego stoją z przodu, żebym
miał je zawsze pod ręką. Do innych prawie nie zaglądam, leżą więc upchnięte
gdzieś z tyłu. Ale o tym, co ostatecznie będzie na obiad, decyduję nie tylko
ja. Gdy z wizytą przyjeżdża moja siostra, z reguły jemy makaron.
A ponieważ zdarza się to często, książka z przepisami na makaron stoi na
samym przodzie.
Z genami jest bardzo podobnie. Również tutaj ważne jest, czy jest do nich
dobry dostęp, tak by mogły zostać łatwo odczytane w komórce. Na czym
polega dobry dostęp do genu? Otóż łańcuch DNA (który w każdej komórce
z osobna mierzy około 2 metrów) nie powinien być nadto splątany i zwinięty,
najlepiej, by gen znajdował się swobodnie na wierzchu – dzięki temu
mechanizm odczytujący go w komórce będzie mógł go łatwo rozpoznać. Na
dodatek podobnie jak w mojej kuchni to otoczenie (w osobie mojej siostry)
decyduje, co będzie na obiad, tak w przypadku materiału genetycznego
środowisko może wpływać na aktywność poszczególnych genów.
Innymi słowy, ostateczny rezultat (czyli zapiekanka z makaronu,
względnie ludzka inteligencja) nie zależy tylko od jakości przepisu (czyli od
genów). Równie istotne są przecież użyte składniki. Włoskie wyroby to coś
innego niż niemiecki makaron jajeczny, nic dziwnego więc, że danie będzie
smakować inaczej, jeśli wykorzystamy świeżutkie wstążki czy świderki,
które dopiero co przyleciały z Palermo. W przypadku inteligencji, czyli
sprawności intelektualnej, nie wiemy nawet tego, jakie składniki są potrzebne
do jej przyrządzenia, nie mówiąc już o tym, jak długo i w jaki sposób należy
je „gotować”. Owszem, zdolność do wytwarzania określonych białek może
być dziedziczna. Jednak poszukiwania „genu inteligencji” czy choćby grupy
genów odgrywających dużą rolę w jej rozwoju nie mają sensu. A to dlatego,
że równie duże znaczenie jak geny i wytwarzane dzięki nim proteiny ma to,
gdzie, kiedy i w jaki sposób doszło do współdziałania owych protein.
Powyższe kwestie stanowią przedmiot badań nowej dziedziny wiedzy,
zwanej epigenetyką, która zajmuje się właśnie wzajemnymi relacjami
pomiędzy genami a wpływami zewnętrznymi. Badania epigenetyczne
pokazują, dlaczego ostre oddzielanie kwestii genetycznych od czynników
środowiskowych jest pozbawione sensu.
Podsumowując, w odniesieniu do wykształcania się inteligencji trzeba
zawsze pamiętać, że geny i środowisko wzajemnie na siebie oddziałują.
Komórka reaguje na zewnętrzne bodźce, a niektóre geny mogą być położone
wyjątkowo dogodnie, dzięki czemu łatwiej jest je odczytać. Z drugiej strony
pewne geny mogą być „wyłączone” przez to, że zostaną ukryte głęboko
w splątanym łańcuchu DNA. Dlatego nawet formułka „geny + środowisko =
inteligencja” byłaby zbytnim uproszczeniem, gdyż te dwa czynniki nie
występują niezależnie, tylko dynamicznie na siebie wpływają.

Pozorna dyskusja

Uwzględniwszy wszystko, o czym była mowa powyżej, widać, że bardzo


nieraz zażarte dyskusje toczone w mediach na temat inteligencji
i dziedziczenia nie mają zbyt wiele sensu. Choć nie ulega wątpliwości, że za
powstawanie różnic w inteligencji odpowiadają w dużej mierze czynniki
genetyczne, nie oznacza to jeszcze, że w pełni wiemy, jak rozwija się
inteligentny mózg i od czego ów rozwój zależy. W ostatecznym rozrachunku
żadna ze stron nie ma racji, bo ani same geny, ani samo środowisko nie
stanowią kluczowego czynnika w rozwoju inteligencji. Do niczego nie
dojdziemy, rozpatrując każdy z tych czynników z osobna, ponieważ wchodzą
one ze sobą w interakcję. Aktywność genów może zależeć od otoczenia,
podobnie jak geny mogą oddziaływać na otoczenie.
Iloraz inteligencji można naukowo zmierzyć – trzeba jednak pamiętać, że
taki wynik nie jest wartością absolutną; ma sens tylko w porównaniu
z wynikami innych uczestników testu. Jest to wartość uwarunkowana
statystycznie, co sprawia, że można ją rozumieć tylko w określonym
kontekście. Tym bardziej jestem szczęśliwy, że udało wam się dobrnąć do
końca również tego rozdziału. Oznacza to, że jesteście dostatecznie
inteligentni, by chłodnym okiem spojrzeć na najbardziej nawet
skomplikowane mity na temat inteligencji. Z takich czytelników można być
naprawdę dumnym.

1. Rozdział ten jest po części polemiką z tezami książki niemieckiego ekonomisty i byłego
polityka SPD (wykluczonego z partii po wybuchu związanego z nią skandalu) Thila
Sarrazina pt. Deutschland schafft sich ab: wie wir unser Land aufs Spiel setzen (Niemcy –
państwo w stanie likwidacji. Jak narażamy własny kraj na ryzyko). Jest ona poświęcona
migrantom z krajów islamskich, którzy zdaniem autora rozbijają społeczeństwo niemieckie,
tworząc państwo w państwie. Sarrazin wielokrotnie wypowiada się tam też na temat
dziedziczności inteligencji (przyp. tłum.). [wróć]
MIT NUMER 19

Czego Jaś się nie nauczy, tego Jan nie


będzie umiał

Gdy ostatnio wałęsałem się po ulicach Mannheim, widziałem zdumiewające


zjawisko: dwójka siedmiolatków z prawdziwą wirtuozerią stukała w ekrany
swoich telefonów komórkowych, śląc z prędkością światła dziesiątki
wiadomości. Niedługo potem natrafiłem na odwrotną scenkę: mój ojciec
niezgrabnymi puknięciami wściekle atakował ekran swojego smartfonu. Nie
umiem sobie wyobrazić bardziej przekonującego dowodu na to, że z wiekiem
tracimy zdolność do przyswajania sobie nowości.
Powszechnie panuje przekonanie, że wraz z upływem lat coraz trudniej
przychodzi nam opanowywanie nowych umiejętności. Tytułowe przysłowie
– „czego Jaś się nie nauczy, tego Jan nie będzie umiał” – nie pozostawia
w tej kwestii złudzeń. Strzeżcie się więc, młodzi, by pod żadnym pozorem
nie przegapić krytycznego momentu, kiedy jeszcze możecie nauczyć się
francuskiego, gry na saksofonie albo rzucania młotem. Jeśli się spóźnicie,
potem tylko z największym trudem będziecie mogli nadrobić to, co
zaniedbaliście w latach młodzieńczych.
W tym kontekście pojawia się pojęcie „okna czasowego”, które obrazowo
wyraża istnienie krótkiego okresu, w jakim można przyswajać sobie
określone umiejętności. Dziecięcy mózg (rzekomo chłonny jak gąbka) może
nauczyć się praktycznie wszystkiego, gdy zaś okno czasowe się zatrzaśnie –
jest po zawodach, dorosły praktycznie nie ma szans, żeby nadgonić
zaległości.
Nie jest to zbyt krzepiąca perspektywa. Ale ile w niej prawdy? Czy starsi
rzeczywiście nie są już zdolni do nauki, dzieci zaś uczą się wszystkiego jak
najęte? Czy rzeczywiście w przypadku uczenia się istnieje coś takiego jak
„okno czasowe”, a jeśli tak, to na ile szczelnie jest zatrzaśnięte, gdy się
zamknie? Czy jest nadzieja, że mój tata nauczy się – nie wiadomo po co –
sprawnie odświeżać swój status na Facebooku?

Mówienie – proste jak konstrukcja cepa?

Gdy tylko dziecięcy mózg wychynie na świat, natychmiast rzuca się w wir
pracy. Jeszcze przed chwilą znajdował się w matczynym brzuchu,
bezpiecznie odseparowany od otoczenia, gdzie ewentualnie docierały do
niego tylko czerwonawe bodźce świetlne i przytłumione pomruki – i oto
nagle ze wszystkich stron atakują go dźwięki, obrazy, zapachy, smaki
i wrażenia dotykowe. W takich okolicznościach mózg musi zachować
kontrolę nad sytuacją i oddzielić rzeczy ważne od nieistotnych. Zanim
bowiem w dorosłym wieku zechcemy rozszerzać swoje horyzonty myślowe,
trzeba je najpierw choćby z grubsza wytyczyć. Właśnie tym zajmuje się
mózg w pierwszych miesiącach życia człowieka i rzeczywiście okres ten ma
decydujące znaczenie dla jego dalszego rozwoju.
W początkach życia mózg jest istotnie wyjątkowo chłonny, a to dlatego, że
nie obciążają go jeszcze informacje zgromadzone z biegiem lat. Komórki
nerwowe są ze sobą połączone aż nazbyt dobrze, dzięki czemu mogą
wykształcać wyjątkowo liczne wzorce aktywacyjne i szybko dostosowywać
się do napływających bodźców. W ten sposób zmienia się wewnętrzna
budowa sieci zależnie od tego, jakie bodźce są przetwarzane (proces ten jest
tak ważny, że trąbię o nim chyba w każdym rozdziale). Ale w pierwszych
latach życia zachodzi przy okazji również inny, niezwykle ważny proces:
wiele z połączeń pomiędzy neuronami ulega eliminacji. Takie przycinanie
nieprawdopodobnie zwiększa wydajność sieci neuronalnej, bo pozwala
usunąć to, co okazało się bezużyteczne. Obumieranie części połączeń
pomiędzy neuronami zapewnia sieci plastyczność i właśnie dzięki temu
możemy się tak efektywnie uczyć w młodych latach.
Szczególnie dobrze widać to na przykładzie rozwoju mowy. Odbywa się to
kompletnie na wariata – proszę sobie wyobrazić, że bez zeszytów,
podręczników, klasówek i wysoko wykwalifikowanych nauczycieli mózg jest
w stanie opanować dowolny język (a niekiedy nawet dwa), i to kompletnie
bez „obcego” akcentu. A przecież zadanie polega nie tylko na tym, by po
prostu wyuczyć się kolejnego języka, ale także by stworzyć niezbędną do
tego infrastrukturę, nauczyć się w ogóle rozpoznawać i przetwarzać wzorce
językowe. Krótko mówiąc, zanim pojęcie „cep” zacznie dla nas cokolwiek
znaczyć i będziemy je mogli przełożyć na inny język, mózg musi najpierw
zrozumieć, czym w ogóle jest słowo.
Na początek mózg uczy się więc rozróżniać głoski. Bo choć na świecie jest
wiele tysięcy języków, to głosek, z których się one składają, jest zaledwie
około siedemdziesięciu. Przez pierwsze sześć miesięcy niemowlęta nie
rozróżniają poszczególnych „cegiełek” budujących mowę i z założenia są
w stanie opanować dowolny język. Stan taki trwa jednak krótko. Słysząc
często, jak rodzice mówią do niego w określonym języku, już
ośmiomiesięczny maluch rozpoznaje przede wszystkim głoski tego właśnie
języka, który tym samym staje się dla niego ojczysty113. Głoski
charakterystyczne dla innych języków, czyli pozostałe „cegiełki akustyczne”,
pojawiają się znacznie rzadziej, dlatego niemowlak słabiej na nie reaguje.
Wychwytywanie wzorców językowych, rozpoznawanie głosek, nauka
samodzielnego mówienia – wszystko to odbywa się zupełnie automatycznie,
bez konieczności uprzedniego trenowania tych umiejętności. Zdolność mowy
jest wrodzona i wcielana w życie najszybciej jak to możliwe. Jednak
najwyraźniej tylko raz w życiu mamy szansę opanować język ojczysty (choć
mogą to być dwa lub trzy języki naraz). Nie jest w pełni jasne, kiedy ów
okres się kończy, jednak najpóźniej po zakończeniu dojrzewania mózg
inaczej przetwarza nowy język niż mowę ojczystą. Uwidacznia się to nawet
w badaniach obrazowych – na potrzeby języka obcego aktywowane są
w mózgu dodatkowe rejony, których użycie nie jest konieczne w przypadku
języka ojczystego114. To trochę tak, jakby na potrzeby przetwarzania
kolejnego języka ośrodki mowy ściągały dodatkowe posiłki.

Niewinność młodego mózgu

Wszystko to nie oznacza oczywiście, że po przekroczeniu pewnego wieku nie


można już nauczyć się mówić bez akcentu w nowym języku. Ale gdy
jesteśmy starsi, uczymy się obcego języka zupełnie inaczej niż noworodek,
który najpierw musi od zera i chaotycznie wypracować sobie koncepcję
mowy. Sieć neuronalna niemowlęcia gotowa jest przetwarzać dowolny
wzorzec na całkowicie równych prawach. Jednak w miarę jak dziecko rośnie,
coraz częściej styka się z jednakowymi wzorcami językowymi (słowa,
tempo, intonacja). Nic dziwnego, że pewne wzorce pojawiają się w mózgu
częściej i zmieniają budowę sieci w ten sposób, by mogła jak najlepiej
właśnie te wzorce przetwarzać. Można powiedzieć, że stopniowo mózg „traci
niewinność” i zaczyna preferować pewne informacje kosztem innych.
Właśnie z tego względu język ojczysty będzie w mózgu zawsze przetwarzany
inaczej niż obcy, którego zaczniemy się uczyć w wieku na przykład
dwudziestu lat.
Innym pięknym przykładem na to, jak z biegiem czasu mózg uczy się
koncentrować na określonych wzorcach, jest rozpoznawanie twarzy.
Niemowlęta nie dostrzegają różnicy pomiędzy człowiekiem a małpą. Dopiero
od mniej więcej szóstego miesiąca życia poświęcają ludzkiej twarzy
wyraźnie więcej uwagi niż małpiej. Dlatego też, gdy jesteśmy dorośli,
wszystkie szympansy wydają się nam identyczne. Ale na tym wcale nie
koniec: z biegiem lat uczymy się dostrzegać subtelne różnice rysów przede
wszystkim we własnym kręgu kulturowym. To z kolei sprawia, że my mamy
problemy z zaobserwowaniem różnic w wyglądzie Koreańczyków czy
Chińczyków, a dla Japończyków wszyscy przybysze z Europy Środkowej
wyglądają tak samo. Jednak, jak wie każdy, kto przez dłuższy czas przebywał
za granicą, rozpoznawania twarzy można się nauczyć. Po pewnym czasie
buzie, które z początku wydawały się identyczne, rozróżniamy równie dobrze
jak twarze osób w kraju naszego pochodzenia.
Powyższe przykłady dowodzą przede wszystkim jednego: oczywiście
w rozwoju mózgu istnieją okresy krytyczne (zwane też wrażliwymi),
w których uczymy się rozpoznawać i szybko przetwarzać określone wzorce
(słuchowe bądź wzrokowe). Jednak tylko w naprawdę rzadkich przypadkach
(jednym z nich jest opanowanie podstawowych umiejętności związanych
z mową) mamy po temu okazję jeden jedyny raz w życiu. Zapomnijcie więc
o wprowadzającym w błąd pojęciu „krytycznego okna czasowego”, które po
jakimś czasie zamyka się na dobre. W rzeczywistości takie okna domykają
się bardzo nieszczelnie, a na dodatek mają tylko pojedyncze szyby – wciąż
od nich „ciągnie”, co oznacza, że nowe informacje przedostają się do środka,
dzięki czemu również dorosły mózg jest w stanie opanować nowy język czy
sekwencje ruchowe. Nawet jeśli Jaś się czegoś nie nauczył, nie znaczy to
jeszcze, że wszystko przepadło. Jan musi tylko zabrać się do nauki w inny
sposób niż Jasio.

Zmiany w czasie

Prawdą jest jednak również, że mózg zmienia się z wiekiem – i to


niekoniecznie na korzyść. Z biegiem lat maleje masa mózgu115, a także liczba
połączeń pomiędzy jego obszarami116. Na dodatek, jak się wydaje, starsze
mózgi przetwarzają informacje inaczej niż mózgi młodych osób. W trakcie
badań nad aktywnością mózgu osób starszych (co dla naukowca oznacza
zwykle wiek powyżej 65. roku życia) stwierdzono, że do rozwiązywania
zadań wykorzystywane były rejony mózgu, które u młodych
(dwudziestoletnich) badanych nie były specjalnie aktywne. W przypadku
zadań pamięciowych (na przykład zapamiętywania słów) u osób starszych
w większym stopniu aktywne były obszary kory przedczołowej, natomiast
młodsi badani radzili sobie z nimi, wykorzystując przede wszystkim rejony
położone z tyłu mózgu117. Zjawisko to ochrzczono, niezbyt może zgrabnie,
„przesunięciem tył-przód związanym z wiekiem” (PASA, posterior-anterior
shift in aging).
Tego rodzaju badania prowadzi się najczęściej metodą fMRI, o której była
mowa na początku książki. Problem jest ten sam co zwykle: nie wiemy, co
dokładnie oznaczają uzyskane tą techniką obrazy aktywności mózgu.
Obecnie uznaje się, że obejmujące większą powierzchnię pobudzenie
obserwowane w mózgach starszych osób stanowi rodzaj kompensacji.
Z wiekiem spada wydajność i tempo przetwarzania informacji, dlatego aby
osiągnąć zbliżone do wcześniejszych rezultaty, mózg musi nawet przy
prostych zadaniach angażować więcej rejonów. Natomiast ludzie młodzi są
w stanie szybciej i bardziej efektywnie rozwiązywać te same zadania
w obrębie mniejszych sieci118.

Różne drogi do celu

Jednak to, że starszy mózg przetwarza nawet proste zadania w rozległych


obszarach, wcale nie musi być wadą. Załóżmy, że macie przez pewien czas
zachować w pamięci słowa, które w ramach badania wyświetlane są co 2
sekundy przez pół minuty. Można się do tego zabrać na dwa sposoby.
Pierwsza strategia polega na zapamiętywaniu słów „samych w sobie”
poprzez zachowanie w mózgu odpowiedniego wzorca aktywacyjnego. Jest to
dosyć wyczerpujące, w tym celu bowiem kora przedczołowa musi jak
najdłużej utrzymywać dane słowa w świadomości. Im jesteśmy młodsi, tym
lepiej dajemy sobie z tym radę.
Ale można postąpić inaczej. Im bogatsze mamy słownictwo, tym łatwiej
nam powiązać dane słowo ze wspomnieniami albo z innymi słowami. W ten
sposób poszerzamy wzorzec aktywacyjny, który uruchamia dane słowo
w naszym mózgu (warto tu dodać, że na tej samej zasadzie oparte są rozmaite
metody mnemotechniczne, wykorzystywane przez mistrzów
zapamiętywania). Skoro pamiętasz, że z pierwszą wielką miłością całowałeś
się na ławce w parku, nie będziesz mieć problemu z zapamiętaniem podczas
testu słowa „ławka”.
Do tego samego celu (zapamiętania słów) można dojść dwiema różnymi
drogami. Daje się to zresztą zmierzyć, o tym bowiem, jak dobrze człowiek
wypada w powyższym teście, decyduje przede wszystkim zakres jego
słownictwa, a wiek odgrywa rolę drugorzędną119. Zgromadzone w toku życia
doświadczenie może w pewnym stopniu kompensować większą szybkość
i sprawność młodości.
Ponadto nie wolno lekceważyć tego, że w ogóle mózg uczy się bardzo
sprawnie, niezależnie od wieku. Gdy zachodzi taka potrzeba (na przykład
trzeba ćwiczyć konkretnie zapamiętywanie słów), mózg po prostu sięga po
„młodzieńcze” wzorce aktywacyjne i jak się okazuje, wcale nie musi
angażować dodatkowych rejonów do tak prostych zadań120. Plastyczność
i zdolność dostosowywania się zachowuje do końca życia.

Nauka w starszym wieku

W ostatnich latach neurobiologia odkryła zupełnie nową populację badawczą,


mianowicie zdrowych seniorów. Zwykle badacze skupiali się na związanych
z wiekiem zmianach zwyrodnieniowych, takich jak otępienie, choroby
Alzheimera czy Parkinsona itd. To bez wątpienia ważne i ciekawe pole
badawcze (a na dodatek taki wybór zwiększa szanse otrzymania grantu na
dany projekt), jednak równie interesujące są badania mające pokazać, w jaki
sposób w ogóle działa sprawny mózg u osób w starszym wieku.
Przy tej okazji stwierdzono interesujący fakt. Przez długie lata zakładano,
że wraz z wiekiem mózg podlega nieodwracalnej degeneracji i właściwie nie
jest w stanie nauczyć się niczego nowego. Okazało się, że to nieprawda.
Naturalnie, nie jest tak, że wystarczy, by osiemdziesięcioletni mózg zmierzył
się z kilkoma zadaniami pamięciowymi i natychmiast cudownie odmłodnieje.
Jednak ludzki mózg po raz kolejny zaskoczył uczonych swoją elastycznością.
W całkiem dorosłym wieku można opanować złożone sekwencje ruchów, na
przykład żonglowanie. Osobom po pięćdziesiątce wystarczały trzy miesiące
treningów, by nauczyć się płynnej żonglerki trzema piłkami.
U dwudziestolatka mogłoby to przebiegać nieco szybciej, jednak rezultat
byłby identyczny.
I jeszcze jedna ciekawa sprawa: wskutek takiego treningu w mózgach
starszych badanych dochodziło do zmian strukturalnych. Zwiększała się masa
hipokampu (specjalisty od pamięci) oraz kory w ośrodku wzroku, nieco
powiększał się także układ nagrody (przypominam: jądro półleżące)121.
Starszego mózgu nie należy więc sobie w żadnym razie wyobrażać jako
rudery, która tylko czeka na wyburzenie. Jest w stanie rozwijać się równie
dobrze jak mózg młodzieńczy – może nie tak szybko i sprawnie, ale ku
równej radości jego posiadacza.
To, że mózgi osób w starszym wieku zachowują zdolność do zmian
strukturalnych, widać też na przykładzie posługiwania się mową. Jak się
wydaje, w najlepszej sytuacji są ludzie posługujący się kilkoma językami. Na
przykład u dwujęzycznych siedemdziesięciolatków lepiej niż
u jednojęzycznych połączone były przednie i tylne rejony mózgu, a także
obie półkule122. Gęstość włókien nerwowych była większa, dzięki czemu
prawdopodobnie poszczególne rejony mózgu mogły efektywniej ze sobą
współpracować. Choć wyniki takich badań trudno jest bezpośrednio
przełożyć na codzienne życie, wygląda na to, że mózgi osób posługujących
się dwoma językami pozostają również w starszym wieku bardziej sprawne
i lepiej radzą sobie z testami na koncentrację i szybkość reakcji123.

Jaś i Jan

Pod żadnym pozorem nie należy więc lekceważyć możliwości dojrzałej sieci
neuronalnej. Jest już ona oczywiście posunięta w latach, jednak spowolnienie
tempa przetwarzania informacji rekompensuje często nadzwyczaj rozległą
siecią połączeń. Zdolność do wprowadzania zmian zachowuje aż do bardzo
późnego wieku i do końca dostosowuje się do każdego nowego bodźca.
Jasne jest więc, że czego Jaś się nie nauczy, tego Jan mimo wszystko
nauczyć się może. Potrwa to niekiedy nieco dłużej, generalnie jednak nie ma
żadnych przeszkód, by w starszym wieku opanować nowy język lub grę na
instrumencie muzycznym równie dobrze jak w młodości, nie zważając na
żadne „okna czasowe”.
Uczciwie trzeba wszak dodać, że jeśli w wieku lat sześćdziesięciu
podejmiemy naukę gry na skrzypcach, nie mamy szans na wirtuozerię.
Również język ojczysty (jeden, dwa albo trzy) można opanować tylko raz
w życiu, o czym była mowa. Natomiast sporo frajdy możemy mieć przy tym
tak czy owak. Jak zawsze obowiązuje tu też zasada, że im rozleglejszy będzie
wzorzec aktywacyjny w mózgu, tym trwalej zapadnie nam w pamięć –
odsyłam do rozdziału o joggingu mózgu.
Jasne jest także, że o ile co do zasady Jan jak najbardziej może przyswajać
nowe informacje, o tyle robi to w zupełnie inny sposób niż Jaś. Szczególnie
w pierwszych latach życia mózg jest wyjątkowo ciekawski i przetwarza nowe
informacje bez żadnych oporów. Nowe słowo? Nowy ruch? Spróbujmy, nie
ma przecież nic do stracenia. Z czasem zaś również mózg robi się coraz
starszy i każda nowa informacja (nowy wzorzec aktywacyjny) konkuruje
z tym, co jest już zapisane w architekturze sieci. Ponieważ każdą
napływającą informację trzeba dołączyć do istniejącej struktury, najpierw
sprawdza się, czy będzie to zasadne. Dlatego starsi zabierają się do
rozwiązywania zadań inaczej niż młodzi, nie tak „naiwnie” i z większą dozą
zastrzeżeń. Mają przecież sieć neuronalną przystosowywaną przez lata
nieustannego treningu do tego, by za pomocą posiadanej wiedzy
i doświadczenia szybko klasyfikować informacje i łączyć z rozmaitymi
obszarami w mózgu. Na tej podstawie w bardziej wyważony sposób oceniają,
czego opłaca im się uczyć, a czego nie.
Dlatego, jeśli macie ochotę spróbować czegoś nowego, nie wahajcie się
ani chwili bez względu na to, ile macie lat. Mózg jest plastyczny i zawsze
dynamicznie dostosowuje się do nowych bodźców. Ubytek masy mózgowej
związany z wiekiem nie jest żadną wymówką. Tym bardziej, że gorzej to
brzmi niż się w istocie przedstawia, bo (w przypadku procesu zdrowego
starzenia się, bez otępienia czy podobnych schorzeń) ubytek ów jest
rekompensowany przez sprawność sieci, która przez lata była wciąż
udoskonalana.
Przyszło mi doświadczyć tego na własnej skórze, bo tata opanował sztukę
obsługi smartfonu. W związku z tym nie tylko wciąż fotografuje śniadania,
obiady, kolacje czy słodkie chmurki na niebie, ale jeszcze wrzuca to
wszystko na Facebooka. Jednak jako neurobiolog zdaję sobie sprawę, że jego
bogate doświadczenie życiowe (reprezentowane w postaci złożonej sieci
neuronalnej) szybko podpowie mu, by porzucił ten nowy, irytujący zwyczaj.
Przynajmniej taką mam nadzieję.
MIT NUMER 20

Neurobiologia rozwikła zagadkę ludzkiej


świadomości

No cóż, mogę mieć tylko nadzieję, że tak się właśnie stanie. W końcu
z pełnym przekonaniem postanowiłem zostać neurobiologiem i również teraz
wciąż jestem zdania, że to pasjonująca nauka. Obiecuje ona naprawdę sporo.
Chodzi przecież, ni mniej, ni więcej, a o rozszyfrowanie ostatniej wielkiej
zagadki ludzkości, może najważniejszej ze wszystkich: czym jest ludzki
duch? Albo inaczej: jak powstaje świadomość?
To dopiero jest pytanie! Świadomość stoi u źródeł wszelkiej wiedzy. Skąd
wziął się wszechświat, jak powstało życie, kto wygra konkurs Eurowizji –
gdyby nie ludzka świadomość, nikt nie byłby w stanie postawić takich pytań
ani udzielać na nie odpowiedzi. Spróbujcie spytać mrówkę (która według
wszelkiego prawdopodobieństwa nie ma świadomości) – guzik ją to
wszystko obchodzi.
Nic dziwnego, że ta właśnie kwestia od tysiącleci zaprzątała umysły
filozofów i psychologów. Daremnie jednak łamali sobie nad nią głowę, bo
odpowiedź stała się możliwa dopiero teraz – mamy wreszcie odpowiednie
możliwości techniczne! Kosztowne skanery mózgu, wyrafinowane metody
biochemiczne, imponujące trójwymiarowe animacje, przedstawiające mózgi
„w trakcie pracy” – wszystko to pozwala wreszcie naświetlić problem
świadomości od zupełnie nowej strony. Uwaga, nadciąga neurobiologia –
i obiecuje złamać kod neuronalny!
Dodajmy też, że neurobiologia nie ogranicza się przecież do samej tylko
biologii. Neurobiolodzy są dziś wszechobecni, bo nic w naszym życiu nie
dzieje się bez udziału mózgu. A któż lepiej od badacza mózgu mógłby
objaśnić, co tkwi w naszych głowach? Dlatego, gdzie nie spojrzeć, rozwijają
się nowe „neurospecjalności”: neuromarketing, neuroekonomia,
neurosocjologia, neuroetyka, neuroteologia, neuroretoryka i neurofinanse. Tę
listę można ciągnąć bez końca, bo jasne jest jedno: wystarczy dodać
przedrostek „neuro-”, by nie tylko znaleźć się w centrum zainteresowania, ale
też podkreślić, że dana dyscyplina opiera się na solidnych podstawach
naukowych. Teoretycznie.
Co rzeczywiście kryje się za tymi wszystkimi szumnymi obietnicami? Czy
naprawdę już wkrótce pojmiemy ludzką świadomość? Czy w dzisiejszych
czasach potrzebujemy jeszcze w ogóle „filozofii świadomości” albo
psychologów, zgłębiających tajemnice umysłu? Czy wszystkie te zagadki
wyjaśni już niedługo neurobiologia?

Czym jest neurobiologia

Neurobiologia należy obecnie do najmodniejszych nauk przyrodniczych.


W samym tylko roku 2013 ukazało się ponad osiemdziesiąt tysięcy publikacji
na tematy związane z mózgiem. Nawet najbardziej pracowity badacz, choćby
dodatkowo wspierany przez armię praktykantów i asystentów (która przecież
rzadko mu towarzyszy…), nie zdoła w tej sytuacji być z tym wszystkim na
bieżąco. Podobnie jest zresztą podczas dorocznego kongresu Society for
Neuroscience. Próba osobistego zapoznania się w ciągu pięciu dni
z piętnastoma tysiącami rozmaitych, często przełomowych doniesień
naukowych skończyłaby się niewątpliwie zagotowaniem mózgu. Tyle
dobrego, że co dwa lata kongres odbywa się w kalifornijskim San Diego; tam
nawet zalew specjalistycznych informacji nie popsuje radości z pobytu.
Jednak neurobiologia, wydająca się jednorodną dziedziną, jest w gruncie
rzeczy połączeniem najrozmaitszych dyscyplin. Nie sądźcie, że istnieje ktoś
taki jak „neurobiolog od wszystkiego”, każdy bowiem bada coś innego
zależnie od konkretnej działki, którą się zajmuje. Doskonale widać to na
przykładzie tworzenia kolorowego obrazka z rezonansu funkcjonalnego,
który ma ukazywać „mózg w trakcie pracy”.
Samo urządzenie, czyli „skaner mózgu”, obsługuje radiolog, psycholog
opracowuje eksperymenty, a do ostatecznej obróbki obrazów często
niezbędni są informatycy. Nie można też zapominać o praktykantach
i asystentach, którzy wykonują nużące prace laboratoryjne, sortują
tasiemcowe wyniki i parzą kawę. W końcu o tym, co rzeczywiście widać na
przygotowanych obrazkach, rozstrzygnąć mogą tylko neurobiolodzy,
wyposażeni w wiedzę anatomiczną, do spółki z psychologami. Innymi słowy,
w przeprowadzenie neurobiologicznego eksperymentu zaangażowana jest
cała grupa ekspertów.
Neurobiologia to praca zespołowa: neurofizjolodzy badają własności
elektryczne neuronów, histolodzy – strukturę tkanki, neuroanatomowie –
budowę mózgu. Biolodzy komórkowi zajmują się mechanizmami
funkcjonowania komórek nerwowych i glejowych, biolodzy molekularni –
wzajemnym oddziaływaniem białek w komórce, a genetycy – programami
genetycznymi służącymi za punkt wyjścia do tego wszystkiego. Informatycy
przeprowadzają symulacje sieci neuronalnych, kognitywiści badają
przetwarzanie informacji przez mózg i wreszcie lekarze neurolodzy starają
się zrozumieć i leczyć zmiany chorobowe zachodzące w układzie nerwowym.
Na koniec trzydzieści tysięcy takich specjalistów zbiera się na tygodniowej
konferencji i wymienia wynikami badań. Równie trudno się w tym połapać
jak w funkcjonowaniu samego mózgu.
Nie istnieje więc coś takiego jak „specjalność: neurobiolog”. To podobny
nonsens jak „specjalność: muzyk” albo „specjalność: sportowiec”. Nikt
w pojedynkę nie jest w stanie przebadać i zrozumieć mózgu we wszystkich
jego aspektach. Jeszcze kilkaset lat temu mogli istnieć tacy uniwersalni
uczeni jak Leonardo da Vinci, którzy w mniejszym czy większym stopniu
byli w stanie zajmować się osobiście wszystkimi dziedzinami ówczesnej
wiedzy. Te czasy minęły. Nie wyobrażajcie sobie, że pewnego dnia jakiś
neurobiolog stanie przed dziennikarzami i powie: „Dziś odkryłem, w jaki
sposób mózg wytwarza świadomość”. Równie dobrze moglibyście wymagać
od trenera Hannover 96, by jego drużyna równocześnie zdobyła mistrzostwo
we wszystkich europejskich ligach.
Podobnie nie spodziewajcie się zbyt wiele po samych badaniach mózgu.
Decydujące znaczenie ma bowiem to, co dzieje się na pograniczu z innymi
dziedzinami wiedzy. W żadnym wypadku nie jest tak, że neuronauki są
ważniejsze albo wartościowsze od pozostałych dyscyplin. Po prostu analizują
rozmaite kwestie z innego punktu widzenia, a rezultaty ich badań należy
poddawać równie krytycznej ocenie jak w przypadku wszystkich pozostałych
nauk. W tej książce starałem się to wyraźnie pokazać w niejednym miejscu.
Czym jest ludzki duch

Pisząc wszystko powyższe, zapewne już nie raz i nie dwa odarłem was ze
złudzeń (taki był zresztą mój zamysł). Nie mogę się więc teraz cofnąć przed
ostatecznym ciosem: otóż nawet neuronauka ma swoje ograniczenia. Kto by
pomyślał!? A jednak – widać to zwłaszcza wtedy, gdy jej odkrycia traktuje
się instrumentalnie, do wyjaśniania najtrudniejszych kwestii filozoficznych.
Oczywiście neurobiolodzy chcą zrozumieć mózg – ale samodzielnie nie
zdołają wyjaśnić takich kwestii, jak samoświadomość, ludzki duch czy wolna
wola. Obecnie badaczy mózgu postrzega się często jako uniwersalnych
ekspertów, którzy już wkrótce rozwikłają ostatnie tajemnice, jakie skrywa
przed nami umysł człowieka. Niestety, nimi nie są. Widać to wyraźnie, gdy
przyjrzymy się bliżej dwóm szczególnie popularnym tematom badawczym,
które skłaniają do zasięgania opinii neurobiologów: kwestii świadomości
i zagadnieniu wolnej woli.
Jeśli chodzi o świadomość, to rozpoznać ją można właściwie bardzo łatwo:
pytamy kogoś o coś, a jeżeli nam odpowiada, to znaczy, że jest świadomy.
Eksperymenty mogłyby być bajecznie proste! Taka definicja nie wygląda
może na wielkie odkrycie, ale nawet za pomocą fMRI („skanera mózgu”)
albo EEG (odczytywania „prądów mózgowych”) nie dowiemy się dużo
więcej. Stwierdzamy na przykład, że gdy grupy komórek nerwowych
umawiają się na wspólne działanie i około 20 razy na sekundę generują nowe
pole elektryczne (specjalista mówi w tym przypadku o falach beta), jest to
znak, że mózg jest przytomny i świadomy. Jeśli dołączy do tego jeszcze
aktywność w korze przedczołowej, wszystko staje się jasne: znaleźliśmy
neurobiologiczny korelat świadomości, mózg jest właśnie czujny jak ważka
i zajmuje się na przykład lekturą książki o sobie samym.
Jednak samo to, że wiemy, jakie rejony mózgu były w danym momencie
szczególnie aktywne (bo przecież reszta mózgu też nie jest w tym czasie
wyłączona, tylko pilnie dalej pracuje), nie oznacza jeszcze, że
zrozumieliśmy, czym jest świadomość. To samo można powiedzieć
o emocjach, pamięci czy choćby kontrolowaniu ruchów. Przy okazji każdego
z tych procesów daje się w mózgu stwierdzić określony rodzaj aktywności,
jednak wiedza ta nie przybliża nas specjalnie do szczegółowego poznania ich
istoty.
Wyjaśnijmy to na przykładzie. Wyobraźcie sobie, że staracie się
wytłumaczyć niewidomemu, czym jest kolor niebieski. Możecie podać mu
dowolne informacje na temat tej barwy (długość fali równa 467 nanometrów,
natężenie oświetlenia w granicach 500 luksów i tak dalej), przywołać dla
porównania wszystkie możliwe niebieskie obiekty (niebo, morze, odmrożone
palce u stóp), a mimo to nigdy nie zdołacie przekazać mu, jak to jest widzieć
niebieską barwę. Brakuje bowiem jakości subiektywnego doświadczenia,
odczucia „niebieskości”. W filozofii kwestię tę nazywa się problemem
qualiów – i sama neurobiologia z całą pewnością go nie rozwiąże (jeśli
w ogóle można go rozwiązać). Tak samo bowiem jak nie możemy
uprzytomnić niewidomemu, czym jest niebieskość (choć będzie miał na ten
temat wszystkie możliwe informacje), tak za pomocą mózgowych skanów
nie zrozumiemy, w jaki sposób z aktywnych ośrodków w mózgu powstaje
świadomość.
Oczywiście istnieje wiele modeli, mających wyjaśnić relacje pomiędzy
świadomością („duchem”) a mózgiem. Nie ma jednak praktycznie żadnej
możliwości, by potwierdzić je doświadczalnie. Jak zresztą można by w ogóle
badać coś tak niematerialnego jak subiektywne odczucie (albo „ducha” czy
„duszę”)? Tymczasem neurobiologia jest nauką empiryczną, opartą na
eksperymentach. Nie nadaje się więc do tego, by udzielać odpowiedzi na
pytania filozoficzne, takie jak to o istotę ludzkiego ducha. Możemy
powiedzieć, że do świadomego przeżywania niezbędna jest aktywność kory
przedczołowej i przedniego zakrętu kory obręczy, nie wiemy jednak, w jaki
sposób z tej aktywności rodzi się świadomość ani czy może sama ta
aktywność już jest świadomością.
Ponadto pytanie o ludzką świadomość nie jest wyłącznie kwestią
z dziedziny nauk przyrodniczych. Nauki humanistyczne też mają na ten temat
co nieco do powiedzenia, a z kolei takie dyscypliny jak informatyka potrafią
znacznie lepiej objaśnić, w jaki sposób przetwarzane są informacje w sieci
i czy taka sieć (biologiczna lub sztuczna) może wyłonić z siebie świadomość.
Rzecz jasna neurobiologia może dostarczyć biologicznych podstaw,
umożliwiających przeniesienie takich odkryć na ludzki mózg, jednak
samodzielnie nie zdoła całkowicie wyjaśnić wszystkich zagadek ludzkiego
mózgu. Dopiero w połączeniu z innymi naukami uda jej się, być może,
dotrzeć do jądra świadomości.

Czym jest wolna wola

W ścisłym związku z pytaniem o istotę ludzkiej świadomości pozostaje też


kwestia wolnej woli. Na pozór całkowicie logiczne wydaje się, że skoro
wszystkie procesy zachodzące w naszych głowach mają naturę biologiczną,
to podlegają prawom biologii, a tym samym są z góry określone. Wniosek
z tego, że o żadnej wolnej woli nie może być mowy, a gdyby (teoretycznie)
udało nam się dokładnie poznać cały ludzki mózg, moglibyśmy też dokładnie
przewidzieć, jak będzie się on zachowywał.
Dla poparcia takiej tezy przywołuje się często eksperyment
przeprowadzony w roku 1983 przez Benjamina Libeta w San Francisco124.
Uczony ten wykonał następujący test: badani siadali przed przyciskiem, który
mogli nacisnąć w dowolnym momencie. Przed ich oczami obracała się
wskazówka specjalnego zegara, która w ciągu trzech sekund zataczała pełne
koło. Uczestnicy mieli zapamiętać, w jakim położeniu znajdowała się
w momencie, gdy podejmowali świadomą decyzję naciśnięcia guzika.
Rezultat był zdumiewający: gdy przeanalizowano prądy mózgowe badanych,
okazało się, że już na pół sekundy wcześniej, zanim podjęli świadomą
decyzję, zapis EEG pozwalał stwierdzić, że zdecydują się nacisnąć guzik
(było to widoczne na podstawie charakterystycznego wzorca prądów
mózgowych, zwanego potencjałem gotowości).
Pora zatem rozstać się z koncepcją wolnej woli, bo nasza świadomość
z trudem tylko podąża za decyzjami, które podejmujemy podświadomie.
Najwyraźniej chcemy tego, co robimy (a nie odwrotnie). Zanim świadomie
zdobędziemy się na to, by obejrzeć Modę na sukces, nasz mózg dawno podjął
już decyzję za nas. Krótko mówiąc, neurobiologia odziera nas ze złudzeń
i pokazuje, czym w istocie jesteśmy: bezwolnymi automatami biologicznymi.
Jednak czy to wytłumaczenie sprawdzi się w codziennym życiu? Możecie
oczywiście spróbować zwalić szefa z nóg ciosem podbródkowym,
a następnie oznajmić, że działanie to wygenerował wasz system wzgórzowo-
korowy do spółki z korą oczodołowo-czołową i nie mieliście nad nim żadnej
kontroli. Byłby to interesujący eksperyment socjologiczno-neurobiologiczny,
życzę powodzenia.
Jednak wnioski, jakie wyciągnięto z eksperymentu Libeta (jakoby wolna
wola była złudzeniem), okazały się zdecydowanie przedwczesne. W ostatnich
latach zdołano bowiem wykazać, że sam potencjał gotowości nic nie mówi
o tym, jakie działanie zostanie wykonane. Kiedy bowiem badani mieli do
wyboru dwa przyciski i tuż przed wykonaniem ruchu wskazywano im za
pomocą bodźca świetlnego, który z nich mają nacisnąć, potencjał gotowości
pojawiał się, zanim otrzymali ową wskazówkę125. Oznacza to, że potencjał
gotowości nie determinuje rodzaju działania, a tylko stanowi coś w rodzaju
bloków startowych: mózg znajduje się w stanie pobudzenia, dzięki czemu
może szybko podjąć decyzję. Dalej nie wiemy jednak, ani jaka to będzie
decyzja, ani w jaki sposób dochodzi do jej podjęcia.
Na tym przykładzie po raz kolejny widać, jak łatwo o nadinterpretację, gdy
naukowe eksperymenty traktuje się instrumentalnie i próbuje wykorzystywać
do wyjaśniania złożonych kwestii filozoficznych (takich jak wolność woli).
W gruncie rzeczy jesteśmy równie daleko od rozwiązania zagadki wolnej
woli, jak i od poznania istoty świadomości – nie wiemy konkretnie, jak
formują się złożone decyzje dotyczące działań, zanim staną się one
świadome. Nie mówimy tu przecież o prostych odruchach, które łatwo
wyjaśnić z neurobiologicznego punktu widzenia, tylko o kwestiach
wymagających od mózgu najwyższej formy kontroli kognitywnej. Na
przykład, co dziś obejrzymy: Modę na sukces czy Grę o tron?
Również w tej kwestii neurobiologia jest zdana na współpracę z innymi
naukami. Nie musimy wyrzucać do kosza całego prawa karnego tylko
dlatego, że zachodzące w nas procesy mentalne mają zapewne podłoże
biologiczne. Filozofia uporała się z tym już dawno temu: o ile nasze decyzje
nie były przypadkowe ani nie podlegały wewnętrznej lub zewnętrznej presji,
my zaś możemy opisać samych siebie jako sprawców czynu, wszystko jest
w porządku. Z całą pewnością nasza sieć neuronalna może w pewien sposób
generować decyzje, jednak nawet gdybyśmy mieli na ten temat szczegółową
wiedzę, nic nie zmieniłoby to w strukturze społecznej. Bo społeczeństwo to
więcej niż tylko prosta implementacja najnowszych odkryć
neurobiologicznych.

Granice neuronauk

W tej chwili neurobiologia wciąż ma znaczne trudności z pomiarem


złożonych procesów mentalnych (takich jak świadomość). Częściowo dzieje
się tak pewnie dlatego, że stosowane w tym celu metody nadal nie są
dostatecznie dopracowane. To jednak, co udaje się zmierzyć, można tym
lepiej sprzedać w mediach. Któż nie chciałby zobaczyć migawki w stylu „Co
się dzieje w męskim mózgu przy oglądaniu Top Model”? Tyle że wartość
informacyjna takich doniesień jest raczej niska – tu bardziej aktywny taki czy
inny „ośrodek”, ówdzie kilka grup niepobudzonych neuronów. Wszystko to
za mało, by odczytać myśli czy „odkodować” stan mentalny człowieka.
Dlatego neurobiologia zupełnie nie nadaje się do tego, by wyjaśniać,
dlaczego wierzymy w Boga albo czemu ktoś popełnił przestępstwo. Zresztą
sami neurobiolodzy nie mają takich ambicji (przynajmniej większość z nich).
Jeszcze w podstawówce nauczyłem się pewnej prostej zasady: na
sprawdzianie trzeba zaczynać od rozwiązywania prostych zadań, dzięki
czemu uzyskujemy większość punktów, a jednocześnie torujemy sobie drogę
do zajęcia się w końcu tym, co trudne. W ten sam sposób powinni
postępować przedstawiciele neuronauk – w pierwszej kolejności wyjaśniać
sprawy podstawowe (nie mniej fascynujące), które dobrze poddają się
badaniom eksperymentalnym.
Zapomnijcie więc o takich wynalazkach jak neuroteologia czy neuroetyka.
W żadnym razie nie posunęliśmy się tak daleko, by szkicowe i często bardzo
toporne wyniki naszych badań wykorzystywać do tłumaczenia złożonych
struktur społecznych. Naturalnie odkrycia neurobiologii poszerzają naszą
wiedzę i pozwalają lepiej rozumieć, w jaki sposób funkcjonuje mózg (a także
w jaki sposób nie funkcjonuje – w poprzednich rozdziałach znajdziecie na to
pod dostatkiem przykładów). Jednak sytuacja zaczyna się robić absurdalna,
a nawet groźna, gdy odkrycia neurobiologii poddaje się daleko idącej
nadinterpretacji i wykorzystuje w mediach do tego, by głosić istnienie
„ośrodka boskości”, uzasadniać rzekome różnice pomiędzy kobietami
a mężczyznami czy wręcz postulować reformę prawa karnego.
Neurobiologia jest naprawdę super. Sam jestem do dziś w pełni
przekonany, że dobrze wybrałem swój zawód. Ale nie trzeba zajmować się
od razu wyjaśnianiem tajemnicy świadomości, by nie nudzić się przy
neurobiologicznych eksperymentach.
Dobrze wiemy już, jak neurony komunikują się pomiędzy sobą i na jakich
zasadach zmieniają swoją strukturę. Znamy mechanizmy, zgodnie z którymi
przetwarzane są informacje zmysłowe i przekazywane impulsy ruchu.
Wiemy też, jak rozwija się mózg i znamy procesy, zachodzące w nim przy
okazji niektórych chorób neurologicznych.
Oczywiście dla przyszłych badaczy pozostaje jeszcze mnóstwo do
odkrycia. Wciąż nie wiadomo na przykład, jak dokładnie dochodzi do
powstania choroby Alzheimera czy stwardnienia rozsianego. Ani też tego, jak
działa układ limbiczny czy w jaki dokładnie sposób przebiega współpraca
neuronów i komórek glejowych. Wiele kwestii dopiero powoli zaczynamy
rozumieć, na przykład rolę kory przedczołowej w procesach skupiania uwagi
i snu czy rolę móżdżku w koordynacji ruchów. Nic dziwnego, że
specjalistyczne publikacje z zakresu neuronauk często kończą się trafnym,
choć enigmatycznym stwierdzeniem: „Dużo już zbadaliśmy, ale wciąż
znajdujemy się na początku drogi”, bo tak to właśnie wygląda. Mamy tu
przecież do zgryzienia najtwardszy orzech, jaki kiedykolwiek pojawił się
w naturze.
Jednak pomimo ograniczeń naszej wiedzy z całą pewnością wystarcza ona,
by skutecznie rozprawić się z rozmaitymi bajeczkami, półprawdami
i zwykłymi nonsensami powtarzanymi na temat mózgu. Mam nadzieję, że
w niniejszej książce udało mi się rozbroić najpowszechniej krążące
mózgobrednie. Nasz mózg naprawdę zasługuje na to, by wreszcie uwolnić go
od wszelakich bzdur na jego temat.
JAK BRONIĆ SIĘ PRZED
MÓZGOBREDNIAMI

Uff… zdrowo się napracowałem, próbując ukazać mózg we właściwym


świetle i uwolnić go od rozmaitych bajeczek, które się na jego temat
opowiada. Neuromity naprawdę niełatwo wyrwać z korzeniami, odnoszę
jednak wrażenie, że blisko 21 z nich dostało to, na co zasłużyło. Mam przy
tym obawy graniczące z pewnością, że następna bajka na temat mózgu już się
czai za rogiem, by kolejnymi półprawdami zmącić nasz, chwilowo klarowny,
obraz pracy mózgu. Nie możecie do tego dopuścić! Walczcie z tym! Poniższe
rady dadzą wam do ręki oręż, który pozwoli wam zmierzyć się z kolejnymi
mózgobredniami.
Zamiast bezkrytycznie wierzyć w następną rewelację, postawcie sobie
następujące pytania:

Jaką formę ma wyjaśnienie działania mózgu?

Większość neuromitów ma wspólną cechę, którą łatwo rozpoznać na


pierwszy rzut oka: są wyjątkowo przystępne i łatwo zapadają w pamięć (na
przykład „wykorzystujemy tylko 10 procent mózgu”). Żeby taka historyjka
mogła się utrzymać w obiegu i na dodatek szerzyć w mediach, nie może być
zbyt skomplikowana.
Sęk w tym, że przesadnie uproszczone i obrazowe modele czy porównania
rzadko odpowiadają rzeczywistości. Sposób funkcjonowania mózgu jest
bowiem absolutnie wyjątkowy. Nie działa on tak jak komputer, nie ma
procesora ani twardego dysku, nie jest też niczym w rodzaju „aparatu do
myślenia” czy „maszyny świadomości”.
Również koncepcja sieci, choć tak kusząca, zwodzi nas na manowce.
Nasuwa na myśl porównania z Internetem, a przecież mózg przetwarza
informacje na zupełnie innych zasadach. Dlatego gdy sam wprowadzałem
w tej książce jakiekolwiek porównania, mające lepiej zobrazować działanie
mózgu, starałem się zawsze podkreślać, że to tylko przybliżenia
i uproszczenia. Tego by tylko brakowało, żebym sam przy okazji tworzył
kolejne mity…
Generalnie w ocenie potencjalnej neurobzdury warto się kierować zasadą,
że im prostsze jest wyjaśnienie, tym bardziej podejrzane. Gdy następnym
razem traficie na wyjątkowo chwytliwą i zapadającą w pamięć metaforę,
lepiej zastanówcie się dwa razy. Sądy w stylu „prawa półkula mózgu jest
twórcza, a lewa logiczna” nigdy nie zdobyłyby popularności, gdyby je
poddano krytycznej analizie.

Skąd pochodzą informacje?

Gdy poznajecie nowe informacje na temat mózgu, zwróćcie uwagę na źródło


ich pochodzenia. Wyniki poważnych naukowych badań publikowane są
w specjalistycznych czasopismach (tzw. peer reviewed journals). Na takich
łamach nie można zamieszczać byle czego, przed publikacją każdy artykuł
jest tam bowiem oceniany przez niezależnych recenzentów. Często sugerują
oni autorom przeprowadzenie dalszych eksperymentów, kwestionują
końcowe wnioski, a nawet postulują zmianę założeń badawczych. Recenzje
takie wykonuje się często anonimowo, tak by przedmiotem oceny były same
badania. Dopiero po przejściu całej tej procedury kontrolnej prowadzonej
przez różnych ekspertów wyniki badań są dopuszczane do publikacji. Nie
oznacza to oczywiście, że nie trafiają się tam błędy albo wręcz umyślne
przekłamania. Taki model jest jednak najlepszy, jeśli zależy nam na możliwie
obiektywnej ocenie.
Aby ocenić jakość badania, niekiedy wystarczy rzucić okiem na tytuł
pisma. Niektóre periodyki stosują bardzo restrykcyjne zasady, jeśli chodzi
o przyjmowanie tekstów do druku, wychodząc z założenia, że skoro firmują
je własną marką, to teksty muszą być dobre. W przypadku nauk
przyrodniczych takie prestiżowe tytuły to na przykład Science” i „Nature.
Miarą znaczenia czasopisma jest tzw. wskaźnik cytowań (ang. impact factor)
– im wyższy, tym lepiej. Zgodnie z nazwą wskazuje on, jak często artykuły
z danego pisma są cytowane w innych artykułach. Im częściej będą się do
określonego pisma odnosić inni naukowcy, tym większą rangę przypisuje mu
się w nauce (choć oczywiście dalej nie gwarantuje to, że artykuł jest
miarodajny; zdarza się niekiedy, że często cytowane są również piramidalne
bzdury).
Zasadę doboru źródeł najlepiej wyjaśnić na prostym przykładzie. Jeśli
zamierzam dowiedzieć się czegoś o koniach, mogę sięgnąć po jedno z dwóch
czasopism: Wendy albo Lissy 1. Ale o Wendy więcej się mówi, czyli wyższy
jest jego „wskaźnik cytowań”. Uważny czytelnik zorientuje się jednak w lot,
że ani Wendy ani Lissy nie znajdują się wśród peer review journals. Niezbyt
się więc nadają do tego, by je cytować w naukowej pracy i na tej podstawie
konstruować argumenty. Dlatego w spisie źródeł na kolejnych stronach nie
znajdziecie niestety odsyłaczy do żadnego z tych czasopism.

W jaki sposób prowadzono badania?

W prasie można znaleźć wiele informacji popartych wynikami badań.


Oczywiście to lepiej, niż gdyby zamieszczano tam po prostu nie wiadomo
czyje prywatne opinie, jednak nie każde badanie naukowe jest automatycznie
wartościowe – naukowcy też są przecież tylko ludźmi. Dlatego warto
przyjrzeć się bliżej samemu badaniu.
Uczeni powinni być obiektywni, jednak w zachowaniu bezstronności
często przeszkadzają własne oczekiwania typu: „Pragnę wykazać
w pomiarach to i to, więc najlepiej, żeby wyszedł właśnie taki wynik”. Jest to
błąd poznawczy, zwany efektem potwierdzenia lub strategią konfirmacyjną –
w naszym wypadku chodzi o to, że zarówno pomiary, jak i sam projekt
eksperymentu mogą być zabarwione podświadomym nastawieniem badacza.
Często dzieje się to niechcący, bez złej woli, bo jest to bardzo podstępny
błąd myślowy, którego ofiarą padamy wszyscy, również w codziennym
życiu. Jeśli dobry przyjaciel zaproponuje kawałek ciasta, mówiąc, że upiekła
je jego mama, przystąpimy do degustacji z innym nastawieniem niż
wówczas, gdy widzieliśmy, jak kupował je po obniżonej cenie
w supermarkecie. Wywrze to wpływ na „pomiar” i w rezultacie ciasto będzie
rzeczywiście smakować inaczej, niż gdybyśmy próbowali go bez
wcześniejszej wiedzy o nim.
Najlepszą metodą, by się tego ustrzec, są badania „kontrolowane placebo”
z „podwójnie ślepą próbą”. Ten pierwszy termin znaczy, że badanych dzieli
się na dwie grupy, z których jedna otrzymuje tylko pozorną stymulację.
Wyjaśnijmy to na przykładzie o typach uczenia się: jedna grupa rozwiązuje
na ekranie konkretne zagadki obrazkowe, druga (czyli właśnie grupa
kontrolna placebo) ma tylko przyjrzeć się ciągowi obrazków bez ich
sortowania według zaleceń joggingu mózgu. Dzięki temu unika się sytuacji,
w której na wyniki testu wpływa sama atmosfera przeprowadzania badania
(to, że wchodzi się do laboratorium, dostaje odpowiednie instrukcje,
a następnie wykonuje polecone czynności). „Podwójnie ślepa próba” polega
zaś na tym, że ani uczestnicy testu, ani prowadzący go eksperymentatorzy nie
wiedzą, kto z badanych otrzymał placebo. Jest to sposób na
zminimalizowanie efektu potwierdzenia po stronie badaczy.
Trzeba też pamiętać, że jedna publikacja naukowa nie czyni jeszcze
wiosny. Badanie rośnie w siłę dopiero wówczas, gdy zostaje z sukcesem
potwierdzone przez innych uczonych. Dlatego szczególnie interesujące są
tzw. metaanalizy, w których dokonuje się przeglądu wielu przeprowadzonych
do tej pory eksperymentów na dany temat i porównuje ich wyniki. Pozwala
to też powiększyć grupę badanych. Łatwo jest zapakować do „skanera
mózgu” pięć osób. Ale ocenić efekt joggingu mózgu dla 11 tysięcy osób? –
na to trzeba już nieco więcej pracy i czasu, za to wynik jest znacznie bardziej
wymowny.
Ogólnie więc miejcie się na baczności, gdy traficie na kolejne odkrycie,
omówione w dziale naukowym popularnej gazety. Dopiero gdy dany
eksperyment został wielokrotnie powtórzony, zyskuje statystyczną
wiarygodność.

Kto za tym wszystkim stoi?

Niekiedy mózgobrednie szerzą się po prostu dlatego, że są chwytliwe i łatwo


zapadają w pamięć – ale zdarza się też, że ktoś celowo przyczynia się do ich
rozpowszechniania. Firmy, którym zależy na sprzedaży własnych produktów
– czy będą to programy komputerowe ułatwiające naukę, czy kolejne
„superwarzywa” odżywiające mózg – często powołują się na wyniki badań
naukowych, potwierdzające pożądane działanie danego produktu. To
niebezpieczne, bo prawdziwa nauka jest niezależna i dopuszcza też
prezentację niewygodnych wyników. W każdym razie zawsze należy
szczególnie krytycznie przyglądać się badaniom sponsorowanym przez
określoną firmę.
Ale nawet jeśli badacz nie jest wspierany przez producenta, zawsze może
ulegać pokusie publikowania wyników badań budzących żywe
zainteresowanie (po raz kolejny kłania się strategia konfirmacyjna). Dlatego
na przykład można znaleźć bardzo wiele specjalistycznych artykułów na
temat różnic pomiędzy męskimi i kobiecymi mózgami, natomiast bardzo
mało takich, których tematem są podobieństwa pomiędzy nimi. Nie dlatego,
że takich podobieństw brak, tylko dlatego, że każdy chce zaprezentować
wyniki swoich badań w prestiżowym naukowym czasopiśmie. Tymczasem
nawet na redakcji Nature większe wrażenie zrobią badania dowodzące różnic
pomiędzy mózgami niż wykazujące, że wszystkie mózgi pracują tak samo.
Uważajcie więc, by nie stracić orientacji w natłoku doniesień naukowych,
i zastanawiajcie się, czy ktoś może mieć interes w opublikowaniu danego
tekstu. Pierwszym sygnałem, który powinien skłaniać do ostrożności, są
wyjątkowo spektakularne tezy albo informacje o produktach, które artykuł
pomaga sprzedać.

Czy naprawdę zawsze musi chodzić o mózg?

Neurobiologia jest piękną dyscypliną, niekiedy niemal na granicy sztuk


pięknych. Przyznaję, że również na mnie wielkie wrażenie robią obrazy
kolorowych mózgów i zagmatwanych szlaków nerwowych. Nie można
jednak pozwolić, by podziw odebrał nam zdrowy sceptycyzm. Z tego tylko,
że coś zostało pięknie zilustrowane, nie wynika jeszcze, że samo odkrycie
jest doniosłe.
Niestety, większość ludzi szczególnie chętnie daje wiarę efektownym
ilustracjom. W sumie nie ma w tym nic dziwnego, bo przecież mózg też
myśli nie za pomocą słów i liczb, a obrazów i wzorców. Jak wiadomo, obraz
mówi więcej niż tysiąc słów, doskonale nadaje się więc do tego, by nie tylko
przykuwać uwagę, ale też sugerować wiarygodność. Dlatego pod wielkim
nagłówkiem o kolejnym przełomowym odkryciu w badaniach
neurobiologicznych z całą pewnością znajdzie się obrazek pięknie
pokolorowanego mózgu. I od razu skłonni jesteśmy myśleć, że istotnie musi
to być bardzo ważne i odkrywcze, w końcu za tymi imponującymi kolorami
kryją się precyzyjne pomiary. Jednak nie dajcie się zwieść, bo w takich
przypadkach często działa zasada, że jeśli nie masz nic do pokazania,
przynajmniej pokaż to w kolorze. Niestety, rzeczywistość rozmija się z tym,
co naiwnie obiecujemy sobie, patrząc na kolorowe obrazki.
Zadajcie też sobie pytanie, czy rzeczywiście wszystko trzeba wyjaśniać
przez odwołania do badań nad mózgiem. Neuronauka sprawia wrażenie
dziedziny tak nowoczesnej i zaawansowanej technicznie, że próbuje się za jej
pomocą uzasadniać niemal każdą bzdurę. Tymczasem nie zawsze jest to
dyscyplina, która może pomóc w zrozumieniu rozpatrywanego zjawiska.
Wyniki badań naukowych prezentują się często bardzo przekonująco, ale
naprawdę nie wszystko trzeba badać metodą pomiarów pracy mózgu. Sposób
wychowywania dzieci, pytania o sens religii w czasach „neurorewolucji” albo
o to, czym jest świadomość – są to kwestie, których neurobiolodzy sami nie
rozwiążą. Dlatego warto nieco powściągnąć entuzjazm, z jakim odnosimy się
do potencjału neurobiologii.
Nie oznacza to wszakże, że sam mózg ma się nam zacząć wydawać mniej
interesujący. Z własnego doświadczenia mogę powiedzieć, że nawet
najbardziej krytyczne spojrzenie na postępy neuronauki ani na jotę nie
zmieniło mojej opinii na temat mózgu. Wciąż uważam, że to najciekawszy
i najbardziej odjazdowy narząd, jakim dysponujemy.

1. Autor żartobliwie odwołuje się tu do dwóch popularnych w Niemczech pisemek dla dzieci
(przyp. tłum.). [wróć]
PRZYPISY

Rzecz jasna nie wymyśliłem sam wszystkiego tego, co powyżej opisałem. Do


obalenia wielu neuromitów wystarcza podstawowa wiedza podręcznikowa.
Dla tych zaś, którzy chcieliby się dowiedzieć więcej, zamieszczam poniżej
spis naukowych artykułów źródłowych i poglądowych, a także linki do stron
internetowych, na których można znaleźć przykłady szerzenia opisanych
w książce mitów.

1. www.pm-magazin.de/r/mensch/ich-wei%C3%9F-
2. http://www.handelsblatt.com/technologie/forschung-
3. Kay KN et al. (2008) Identifying natural images from human brain activity, Nature,
452 (7185): 352–5
4. Rusconi E, Mitchener-Nissen T (2013) Prospects of functional magnetic resonance
imaging as lie detector, Front Hum Neurosci., 7: 594
5. http://www.daserste.de/information/wissen-kultur/w-wie-
6. http://www.fastcompany.com/1731055/rise-neurocinema-
7. McClure SM et al. (2004) Neural correlates of behavioral preference for culturally
familiar drinks, Neuron, 44 (2): 379–87
8. http://www.welt.de/print-welt/article424459/Hirn
9. Terminy „komórka nerwowa” i „neuron” są równoznaczne.
10. http://www.spiegel.de/wissenschaft/mensch/mathe-zentrum-
11. Bengtsson SL et al. (2007) Cortical regions involved in the generation of musical
structures during improvisation in pianists , J Cogn Neurosci, 19 (5): 830–42
12. Knutson B et al. (2008) Nucleus accumbens activation mediates the influence of
reward cues on financial risk taking , Neuroreport, 19 (5): 509–13
13. Xu X et al. (2012) Regional brain activity during early-stage intense romantic love
predicted relationship outcomes after 40 months: an fMRI assessment, Neurosci
Lett, 526 (1): 33–8
14. Sharot T et al. (2007) Neural mechanisms mediating optimism bias, Nature, 450
(7166): 102–5
15. Hommer DW et al. (2003) Amygdalar recruitment during anticipation of monetary
rewards: an event-related fMRI study, Ann N Y Acad Sci, 985: 476–8
16. Lehne M et al. (2013) Tension-related activity in the orbitofrontal cortex and
amygdala: an fMRI study with music , Soc Cogn Affect Neurosci, doi 10.1093
17. Cunningham WA, Kirkland T (2013) The joyful, yet balanced, amygdala:
moderated responses to positive but not negative stimuli in trait happiness , Soc
Cogn Affect Neurosci, doi 10.1093
18. Schreiber D et al. (2013) Red brain, blue brain: evaluative processes differ in
Democrats and Republicans, PLoS One, 8 (2): e52970
19. Ko CH et al. (2009) Brain activities associated with gaming urge of online gaming
addiction, J Psychiatr Res, 43 (7): 739–47
20. St-Pierre LS, Persinger MA (2006) Experimental facilitation of the sensed presence
is predicted by the specific patterns of the applied magnetic fields, not by
suggestibility: re-analyses of 19 experiments, Int J Neurosci, 116 (9): 1079–96
21. Acevedo BP, Aron A, Fisher HE, Brown LL (2012) Neural correlates of long-term
intense romantic love, Soc Cogn Affect Neurosci, 7 (2): 145–59
22. Joseph R (1988) Dual mental functioning in a split-brain patient, J Clin Psychol, 44
(5): 770–9
23. Fink A et al. (2009) Brain correlates underlying creative thinking: EEG alpha
activity in professional vs. novice dancers , Neuroimage, 46 (3): 854–62
24. Dietrich A, Kanso R (2010) A review of EEG, ERP, and neuroimaging studies of
creativity and insight, Psychol Bull, 136 (5): 822–48
25. Singh H, W O’Boyle M (2004) Interhemispheric interaction during global-local
processing in mathematically gifted adolescents, average-ability youth, and college
students , Neuropsychology, 18 (2): 371–7
26. Nielsen JA et al. (2013) An evaluation of the left-brain vs. right-brain hypothesis
with resting state functional connectivity magnetic resonance imaging, PLoS One, 8
(8): e71275
27. Smaers JB et al. (2012) Comparative analyses of evolutionary rates reveal different
pathways to encephalization in bats, carnivorans, and primates, Proc Natl Acad Sci
U S A, 109 (44): 18006–11
28. Falk D et al. (2013) The cerebral cortex of Albert Einstein: a description and
preliminary analysis of unpublished photographs, Brain, 136 (Pt 4): 1304–27
29. McDaniel MA (2005) Big-brained people are smarter: A meta-analysis of the
relationship between in vivo brain volume and intelligence , Intelligence, 33: 337–
346
30. Narr KL et al. (2007) Relationships between IQ and regional cortical gray matter
thickness in healthy adults , Cereb Cortex, 17 (9): 2163–71
31. Navas-Sánchez FJ et al. (2013) White matter microstructure correlates of
mathematical giftedness and intelligence quotient, Hum Brain Mapp, doi: 10.1002/
hbm.22355
32. Haier RJ et al. (1988) Cortical glucose metabolic rate correlates of abstract
reasoning and attention studied with positron emission tomography, Intelligence,
12, 199–217
33. Bushdid C et al. (2014) Humans can discriminate more than 1 trillion olfactory
stimuli, Science, 343 (6177): 1370–2
34. Whitman MC, Greer CA (2009) Adult neurogenesis and the olfactory system, Prog
Neurobiol, 89 (2): 162–75
35. Deng W et al. (2010) New neurons and new memories: how does adult hippocampal
neurogenesis affect learning and memory? , Nat Rev Neurosci, 11 (5): 339–50
36. Pakkenberg B et al. (2003) Aging and the human neocortex, Exp Gerontol, 38 (1–
2): 95–9
37. Crews FT, Boettiger CA (2009) Impulsivity, frontal lobes and risk for addiction,
Pharmacol Biochem Behav, 93: 237–47
38. Nixon K, Crews FT (2002) Binge ethanol exposure decreases neurogenesis in adult
rat hippocampus, J Neurochem, 83: 1087–93
39. Lipton ML et al. (2013) Soccer heading is associated with white matter
microstructural and cognitive abnormalities , Radiology, 268 (3): 850–7
40. Vann Jones SA et al. (2014) Heading in football, longterm cognitive decline and
dementia: evidence from screening retired professional footballers, Br J Sports
Med, 48 (2): 159–61
41. Maynard ME, Leasure JL (2013) Exercise enhances hippocampal recovery
following binge ethanol exposure, PLoS One, 8 (9): e76644
42. http://www.theatlantic.com/health/archive/2013/12/
43. http://www.welt.de/wissenschaft/article122479662/Das-
44. http://www.spiegel.de/wissenschaft/medizin/hirn
45. Goldstein JM et al. (2001) Normal sexual dimorphism of the adult human brain
assessed by in vivo magnetic resonance imaging , Cereb Cortex, 11 (6): 490–7
46. Luders E et al. (2006) Gender effects on cortical thickness and the influence of
scaling, Hum Brain Mapp, 27 (4): 314–24
47. Luders E et al. (2004) Gender differences in cortical complexity, Nat Neurosci, 7
(8): 799–800
48. Ingalhalikar M et al. (2014) Sex differences in the structural connectome of the
human brain ., PNAS, 111 (2): 823–8
49. Jadva V et al. (2010) Infants’ preferences for toys, colors, and shapes: sex
differences and similarities, Arch Sex Behav, 39 (6): 1261–73
50. Hassett JM et al. (2008) Sex differences in rhesus monkey toy preferences parallel
those of children, Horm Behav, 54 (3): 359–64
51. Gauthier CT et al. (2009) Sex and performance level effects on brain activation
during a verbal fluency task: a functional magnetic resonance imaging study,
Cortex, 45 (2): 164–76
52. Amunts K et al. (2007) Gender-specific left-right asymmetries in human visual
cortex, J Neurosci, 27 (6): 1356–64
53. Eliot L (2011) The trouble with sex differences , Neuron, 72 (6): 895–8
54. Moreau D (2013) Differentiating two-from three-dimensional mental rotation
training effects, Q J Exp Psychol, 66 (7): 1399–413
55. Neubauer AC et al. (2010) Two- vs. three-dimensional presentation of mental
rotation tasks: Sex differences and effects of training on performance and brain
activation, Intelligence, 38 (5): 529–39
56. New J et al. (2007) Spatial adaptations for plant foraging: women excel and
calories count, Proc Biol Sci, 274 (1626): 2679–84
57. Marx DM et al. (2013) No doubt about it: when doubtful role models undermine
men’s and women’s math performance under threat , J Soc Psychol, 153 (5): 542–
59
58. Sommer IE et al. (2008) Sex differences in handedness, asymmetry of the planum
temporale and functional language lateralization , Brain Res, 1206: 76–88
59. Mehl MR et al. (2007) Are women really more talkative than men?, Science, 317
(5834): 82
60. Clements-Stephens AM et al. (2009) Developmental sex differences in basic
visuospatial processing: differences in strategy use?, Neurosci Lett, 449 (3): 155–60
61. Shaywitz BA et al. (1995) Sex differences in the functional organization of the brain
for language, Nature, 373 (6515): 607–9
62. Alexander GM (2003) An evolutionary perspective of sex- typed toy preferences:
pink, blue, and the brain, Arch Sex Behav, 32 (1): 7–14
63. Selemon LD (2013) A role for synaptic plasticity in the adolescent development of
executive function, Transl Psychiatry, 3: e238
64. http://www.apotheken-umschau.de/Gehirnjogging
65. Brehmer Y et al. (2012) Working-memory training in younger and older adults:
training gains, transfer, and maintenance , Front Hum Neurosci, 6: 63
66. Shipstead Z et al. (2012) Is working memory training effective?, Psychol Bull, 138
(4): 628–54
67. Owen AM et al. (2010) Putting brain training to the test , Nature, 465 (7299): 775–
8
68. Lee H et al. (2012) Performance gains from directed training do not transfer to
untrained tasks, Acta Psychol (Amst), 139 (1): 146–58
69. Engvig A et al. (2012) Memory training impacts short-term changes in aging white
matter: a longitudinal diffusion tensor imaging study, Hum Brain Mapp, 33 (10):
2390–406
70. Massa LJ, Mayer RE (2006) Testing the ATI hypothesis: Should multimedia
instruction accommodate verbalizer-visualizer cognitive style?, Learning and
Individual Differences, 6 (14): 321–35
71. Constantinidou F, Baker S (2002) Stimulus modality and verbal learning
performance in normal aging , Brain Lang, 82 (3): 296–311
72. Pashler H et al. (2008) Learning styles concepts and evidence., Psychological
science in the public interest , 9 (3): 105–19
73. Bélanger M et al. (2011) Brain energy metabolism: focus on astrocyte-neuron
metabolic cooperation, Cell Metab, 14 (6): 724–38
74. Ghosh A et al. (2013) Somatotopic astrocytic activity in the somatosensory cortex,
Glia, 61 (4): 601–10
75. Nave KA (2010) Myelination and support of axonal integrity by glia, Nature, 468
(7321): 244–52
76. Schwartz M et al. (2013) How do immune cells support and shape the brain in
health, disease, and aging?, J Neurosci, 33 (45): 17587–96
77. Boecker H et al. (2008) The runner’s high: opioidergic mechanisms in the human
brain, Cereb Cortex, 18 (11): 2523–31
78. Bruijnzeel AW (2009) kappa-Opioid receptor signaling and brain reward function,
Brain Res Rev, 62 (1): 127–46
79. Xie L et al. (2013) Sleep drives metabolite clearance from the adult brain, Science,
342 (6156): 373–7
80. Diekelmann S, Born J (2010) The memory function of sleep, Nat Rev Neurosci, 11
(2): 114–26
81. van der Helm E et al. (2011) REM sleep depotentiates amygdala activity to previous
emotional experiences, Curr Biol, 21 (23): 2029–32
82. Baran B et al. (2012) Processing of emotional reactivity and emotional memory
over sleep, J Neurosci, 32 (3): 1035–42
83. Witte AV et al. (2013) Long-Chain Omega-3 Fatty Acids Improve Brain Function
and Structure in Older Adults, Cereb Cortex, doi: 10.1093/cercor/bht163
84. van Gelder BM et al. (2007) Fish consumption, n-3 fatty acids, and subsequent 5-y
cognitive decline in elderly men: the Zutphen Elderly Study, Am J Clin Nutr, 85 (4):
1142–7
85. Denis I et al. (2013) Omega-3 fatty acids and brain resistance to ageing and stress:
body of evidence and possible mechanisms , Ageing Res Rev, 12 (2): 579–94
86. Pase MP et al. (2013) Cocoa polyphenols enhance positive mood states but not
cognitive performance: a randomized, placebo-controlled trial, J Psychopharmacol,
27 (5): 451–8
87. Rendeiro C et al. (2013) Dietary levels of pure flavonoids improve spatial memory
performance and increase hippocampal brain-derived neurotrophic factor, PLoS
One, 8 (5): e63535
88. Vellas B et al. (2012) Long-term use of standardised Ginkgo biloba extract for the
prevention of Alzheimer’s disease (GuidAge): a randomised placebo-controlled
trial, Lancet Neurol, 11 (10): 851–9
89. Laws KR et al. (2012) Is Ginkgo biloba a cognitive enhancer in healthy
individuals? A meta-analysis, Hum Psychopharmacol, 27 (6): 527–33
90. Ramscar M et al. (2014) The myth of cognitive decline: non-linear dynamics of
lifelong learning, Top Cogn Sci, 6 (1): 5–42
91. Frankland PW, Bontempi B (2005) The organization of recent and remote
memories, Nat Rev Neurosci, 6 (2): 119–30
92. Charron S, Koechlin E (2010) Divided representation of concurrent goals in the
human frontal lobes, Science, 328 (5976): 360–3
93. Watson JM, Strayer DL (2010) Supertaskers: Profiles in extraordinary multitasking
ability, Psychon Bull Rev, 17 (4): 479–85
94. Strayer DL, Drews FA (2007) Cell-Phone-Induced Driver Distraction, Current
Directions in Psychological Science , Psychol Sci, 16: 128–31
95. Sanbonmatsu DM et al. (2013) Who multi-tasks and why? Multi-tasking ability,
perceived multi-tasking ability, impulsivity, and sensation seeking , PLoS One, 8
(1): e54402
96. Ophir E et al. (2009) Cognitive control in media multitaskers , Proc Natl Acad Sci
USA, 106 (37): 15583–7
97. Strayer DL et al. (2013) Gender invariance in multitasking: a comment on Mäntylä,
Psychol Sci, 24 (5): 809–10
98. Rizzolatti G, Sinigaglia C (2010) The functional role of the parieto-frontal mirror
circuit: interpretations and misinterpretations, Nat Rev Neurosci, 11 (4): 264–74
99. http://www.ted.com/talks/vs_ramachandran_the_
100. Kilner JM, Lemon RN (2013) What we know currently about mirror neurons, Curr
Biol, 23 (23): R1057–62
101. Molenberghs P et al. (2012) Brain regions with mirror properties: a meta-analysis
of 125 human fMRI studies, Neurosci Biobehav Rev, 36 (1): 341–9
102. Mukamel R et al. (2010) Single-neuron responses in humans during execution and
observation of actions, Curr Biol, 20 (8): 750–6
103. Hickok G, Hauser M (2010) (Mis)understanding mirror neurons , Curr Biol, 20
(14): R593–4
104. Hickok G (2009) Eight problems for the mirror neuron theory of action
understanding in monkeys and humans, J Cogn Neurosci, 21 (7): 1229–43
105. Umiltà MA et al. (2001) I know what you are doing: A neurophysiological study,
Neuron, 31 (1): 155–65
106. Haker H et al. (2013) Mirror neuron activity during contagious yawning–an fMRI
study, Brain Imaging Behav, 7 (1): 28–34
107. Norscia I, Palagi E (2011) Yawn contagion and empathy in Homo sapiens, PLoS
One, 6 (12): e28472
108. Boring EG (1923) Intelligence as the Tests Test It , New Republic, 36: 35–7
109. Gottfredson LS (1997) Mainstream science on intelligence: An editorial with 52
signatories, history, and bibliography, Intelligence, 24 (1): 13–23
110. Deary IJ et al. (2010) The neuroscience of human intelligence differences, Nat Rev
Neurosci, 11 (3): 201–11
111. Hiscock M (2007) The Flynn effect and its relevance to neuropsychology, J Clin
Exp Neuropsychol, 29 (5): 514–29
112. Deary IJ et al. (2009) Genetic foundations of human intelligence, Hum Genet, 126
(1): 215–32
113. Kuhl PK (2004) Early language acquisition: cracking the speech code, Nat Rev
Neurosci, 5 (11): 831–43
114. Perani D, Abutalebi J (2005) The neural basis of first and second language
processing, Curr Opin Neurobiol, 15 (2): 202–6
115. Fjell AM et al. (2009) High consistency of regional cortical thinning in aging
across multiple samples, Cereb Cortex, 19 (9): 2001–12
116. Sullivan EV, Pfefferbaum A (2006) Diffusion tensor imaging and aging, Neurosci
Biobehav Rev, 30 (6): 749–61
117. Davis SW et al. (2008) Que PASA? The posterior-anterior shift in aging, Cereb
Cortex, 18 (5): 1201–9
118. Grady C (2012) The cognitive neuroscience of ageing , Nat Rev Neurosci, 13 (7):
491–505
119. Rast P (2011) Verbal knowledge, working memory, and processing speed as
predictors of verbal learning in older adults , Dev Psychol, 47 (5): 1490–8
120. Degen C, Schröder J (2014) Training-induced cerebral changes in the elderly ,
Restor Neurol Neurosci, 32 (1): 213–21
121. Boyke J et al. (2008) Training-induced brain structure changes in the elderly, J
Neurosci, 28 (28): 7031–5
122. Luk G et al. (2011) Lifelong bilingualism maintains white matter integrity in older
adults, J Neurosci, 31 (46): 16808–13
123. Kroll JF, Bialystok E (2010) Understanding the Consequences of Bilingualism for
Language Processing and Cognition , J Cogn Psychol, 25 (5)
124. Libet B et al. (1983) Time of conscious intention to act in relation to onset of
cerebral activity (readiness-potential). The unconscious initiation of a freely
voluntary act, Brain, 106 (3): 623–42
125. Herrmann CS et al. (2008) Analysis of a choice-reaction task yields a new
interpretation of Libet’s experiments, Int J Psychophysiol, 67 (2): 151–7

You might also like