You are on page 1of 198

Stanisław Lem

Tajemnica Chińskiego
Pokoju

1
Jerzy Jarzębski
Rozum ewolucji i ewolucja rozumu

Tytuł mego szkicu jest oczywiście ukłonem w stronę autora książki, który
opublikował kiedyś pasjonujący esej Etyka technologii i technologia etyki. Jest widać
coś w myśli Stanisława Lema, co prowokuje takie stające łatwo na głowie formuły.
Jego najnowsze eseje, publikowane w „PC Magazine”, złożyły się niepostrzeżenie w
tom ważki nie tylko z racji czysto fizycznej objętości. Zrazu zdawały się jedynie
aneksem dopisywanym do powstałej przed z górą trzydziestu laty Summa
Technologiae, aneksem, w którym autor rad prezentował się czytelnikowi jako
fortunny prorok dalszego rozwoju ludzkiej wiedzy i technicznych sprawności. Tak też
było: Summa zdaje się dziś dziełem, które — zamyślane jako proroctwo
długodystansowe i śmiałe aż do obrazoburstwa — znalazło się po trzech dekadach w
samym centrum najbardziej aktualnej naukowej i konstruktorskiej praktyki. Na starcie
Lemowych rozważań dzisiejszych jest zatem (dość triumfalnie brzmiące) zestawienie
dawnych pomysłów i rachub z dzisiejszym stanem zaawansowania wiedzy. Ale gdyby
się na tym kończyło, Tajemnica chińskiego pokoju nie byłaby książką tak pasjonującą.
Rzecz w tym, że wraz z upływem lat i ewolucją nauki sytuacja autora prognoz
zdecydowanie się zmieniła. W roku 1964, kiedy ukazywało się pierwsze wydanie
„Sumy”, Lem był przede wszystkim wziętym pisarzem science–fiction i autorem
esejów popularyzujących wiedzę ścisłą, który, ni stąd, ni zowąd, dokonał niejako fuzji
tych gatunków, zaglądając daleko w przewidywaną przyszłość technologii. Ten skok
w przyszłość na tle ówczesnego stanu wiedzy wyglądał na rojenie jeśli nie zupełnie
dowolne, to przynajmniej obarczone nadmiernym w oczach współczesnych gustem do
fantazjowania i sztukowania rzeczywistości nieuleczalnym wishful thinking.
Książki tamtej — choć czytano ją chyba z większą powagą i uwagą niż autor chce
dziś pamiętać — nie przymierzano tak bezpośrednio do „stanu badań” i bieżących
odkryć. Była pustą matrycą do wypełnienia, projektem w przeważającej mierze
abstrakcyjnym, któremu wolno skrywać w sobie różne na pozór szalone pomysły.
Dziś — gdy tak wiele przewidywań Lema się sprawdziło, a uczeni z Niemiec czy
USA przyznają wręcz, że korzystają z jego inspiracji — autor „Sumy” czuje na sobie
ciężar daleko większej niż wprzódy odpowiedzialności. Tym ona poważniejsza, że
twierdzenia Lema weryfikuje życie i z dnia na dzień realizowane produkty takiej czy
innej (genowej, informatycznej) inżynierii. Pierwsza i zasadnicza różnica pomiędzy
„Sumą” a Tajemnicą chińskiego pokoju polega więc na tym, że sądy pierwszej
formułowano we względnie pustej przestrzeni hipotez i modeli, podczas gdy sądy
drugiej wygłaszane są wśród zgiełku powstającego nieuchronnie w centrum
powszechnego zainteresowania, wobec sprawozdań z badań eksperymentalnych, a
nawet sygnałów z rynku, na którym żyć poczynają ocierające się wcześniej o
fantastykę pomysły.
Jak to wpływa na dyskurs samego Lema? Powiedzmy najpierw, że coraz większą
rolę odgrywa w nim wątek etyczny. W Summa Technologiae frapowało ujęcie
technologii jako bytu w jakiejś mierze samoistnego, rozwijającego się niezależnie od
człowieczej woli, choć w oparciu o substrat, jaki dlań tworzą ludzkie dążenia do
poznania i opanowania świata. Technologia ewoluowała podług tej wizji na
podobieństwo genetycznego kodu, a zatem nie poddając się łatwo moralnym osądom.
W Tajemnicy chińskiego pokoju projekt technologii przyszłej, będący wcześniej
abstrakcją, staje się nagle treścią codziennego życia jednostek i społeczeństw, a sama
2
technologia wchodzi w skomplikowaną rzeczywistość końca wieku, pojawia się w
domach przeciętnych ludzi w postaci Internetu, produktów inżynierii genetycznej,
prymitywnych jeszcze urządzeń „fantomatyzujących” itd. A zatem to, co w ujęciu
generalnym stanowi zjawisko „obiektywne” i nieuchronne niczym prawo przyrody —
w kontekście praktyczno–życiowym wzbudzać może silne negatywne emocje. Trudno
i darmo: ludzie ze swoich wynalazków robią zazwyczaj zły użytek; zamiast dążyć do
realizacji najwyższych ideałów, narzędziami wysoce zaawansowanej techniki
posługują się w celu zaspokojenia prymitywnych popędów. Można nad tym biadać,
piętnować etc, ale nic zapewne z tego nie wyniknie. Człowiek jest bowiem istotą
ufundowaną na dziwacznej antynomii — i ten aspekt jego natury stanie się dla Lema
odskocznią do bardzo skomplikowanych i rozbudowanych roztrząsań.
Punkt wyjścia tych rozważań to próba porównania intelektu ludzkiego i
maszynowej „sztucznej inteligencji”. Tytuł pierwszego rozdziału książki sygnalizuje,
że natchnieniem dla autora był osiemnastowieczny traktat La Mettrie’go Człowiek
maszyna. Ale w wersji Lema zamiast równoważności mamy koniunkcję: człowiek nie
jest maszyną; istnieje obok niej i na zupełnie innych zasadach. Człowiek nie jest też
spójną całością: rozdziera go nieuleczalny dualizm, swoista nieuzgadnialność
materialnego substratu i rodzącego się w nim myślenia, wciąż nie w pełni znanego
ciała i może jeszcze bardziej niepochwytnej świadomości. Mamy więc co najmniej
trzy niezbyt dobrze przystające do siebie elementy: człowieka jako niezmiernie
złożony produkt biologicznej ewolucji, człowieka jako myślącą, uwikłaną w kulturę
świadomość, która w sposób nie do końca zrozumiały i poznany rodzi się z procesów
zachodzących w biologicznym ciele — i wreszcie produkt technologii: maszynę, która
może wykonywać operacje natury intelektualnej w sposób przez konstruktorów
zaprojektowany i w zgodzie ze swym mechanicznym, funkcjonalnym schematem.
Rozważania Lema poświęcone są przede wszystkim poznawczym kłopotom, które
pojawiają się w momencie, gdy zechcemy owe trzy elementy do siebie wzajem
sprowadzić, tłumaczyć jeden poprzez drugi, względnie imitować w jednym procesy,
które w drugim zachodzą. Te kłopoty są natury trojakiej: filozoficznej, naukowej i
praktyczno–inżynierskiej.
Filozof pyta, co to znaczy, że w mózgu powstaje ludzka, jednostkowa świadomość,
i czy istnieje ona w ten sam sposób, w jaki istnieje jej materialne podłoże, czy jakoś
zupełnie inaczej. To jest zresztą dylemat, jaki zadał filozofii nowożytnej jeszcze
Kartezjusz i choć Lem światopoglądowo bliższy jest zapewne materialiście i moniście
La Mettrie’mu, to przecie wywiedzenie bezpośrednie procesów psychicznych z
przebiegu prądów elektrycznych w korze mózgowej przekracza zarówno jego, jak i
czyjekolwiek dzisiaj możliwości. Monizm materialistyczny — owszem, ale
pozbawiony właściwego encyklopedystom i tylu ich następcom optymizmu
poznawczego ponad stan posiadanej wiedzy. I ze świadomością, iż materia może
porządkować się w nieprzenikliwe wzajem ontologiczne poziomy lub całe ich
hierarchie. Ta ostatnia hipoteza silniej zresztą dała o sobie znać w Lema beletrystyce.
Nie koniec tu zdziwień filozofa: silnie zakorzeniony w myśli europejskiej schemat
neoplatoński, podług którego duch ludzki stoi nieporównanie wyżej na drabinie bytów
od prymitywnego ciała, ulega tu znamiennemu odwróceniu: to właśnie ciało —
produkt doskonalącego się genetycznego kodu — objawia zawrotną komplikację i
„mądrość”, do której daleko jeszcze raczkującemu umysłowi jednostki ludzkiej. Jeśli
coś tu zdumiewa, to raczej masywna dysproporcja pomiędzy wyrafinowaniem
biologicznych urządzeń, które sterują każdym życiem, a niezmierzonym mozołem,
jakiego trzeba, by na tym podłożu zrodziła się jakoś tam, kulawo, rozumiejąca świat i

3
siebie samą świadomość. Przychodzi tu wciąż odruchowo na myśl Lemowy
Elektrybałt z Cyberiady, który — przyjąwszy postać góry elektronicznych urządzeń
nafaszerowanych całą mądrością wieków — umiał zrazu tylko wykrztusić, że „życie
jest straszne”. Czy rozum jest zatem koroną Stworzenia, czy ubocznym,
niedoskonałym produktem ewolucji genetycznego kodu — oto pytanie raczej dla
filozofa niż dla uczonego. I — choć Lem pośrednio wciąż je zadaje — nie widzę na
nie definitywnej odpowiedzi.
Do sfery zmartwień uczonego należy z kolei rozstrzygnięcie problemu, czy
maszyna „myśli” — tyle że nieco prościej i bardziej prymitywnie od człowieka — czy
na odwrót: jej czynności są zupełnie innej natury i nawet wielokrotnie spotęgowane
przez rozwój techniki komputerowej pozostaną czymś całkowicie do myśli ludzkiej
niepodobnym. To bodaj centralny problem książki, stawiany wciąż od nowa w
rozmaitych kontekstach. Odpowiedź brzmi ostrożniej niż przed laty: to prawda, że
maszyny są już coraz bliżej sytuacji, w której człowiekowi z najwyższym trudem
przyjdzie złamanie sławetnego „testu Turinga”, tzn. ustalenie, że nie z innym
człowiekiem rozmawia, lecz z mechanizmem. Nie wygląda jednak, aby dało się w
przewidywalnej przyszłości skonstruować sztuczną inteligencję dysponującą
świadomością, poczuciem ,ja” i aktami podmiotowej woli. Komputer — choć w
niektórych zakresach „myśli” nieporównanie od człowieka sprawniej, w innych wciąż
mu ustępuje i zwiększanie mocy obliczeniowej tego rozziewu nie zlikwiduje, chodzi
bowiem o różnicę natury jakościowej, ufundowaną w dodatku na daleko posuniętej
odmienności materialnego podłoża myślowych operacji.
Autor Cyberiady przyzwyczaił nas do żartobliwych wydziwiań nad czysto
materialną niedoskonałością istot „rozlewnych, miękkich, ciastowatych i wodnistych”
w zestawieniu z perfekcją metalowo–krystalicznych robotów, które samo tworzywo
zda się predestynować do przyjmowania w siebie elektrycznej inteligencji. Włóżmy to
między bajki: to właśnie w środowiskach wodnych roztworów czy zawiesin —
powiada dziś Lem — procesy przetwarzania informacji zachodzą najbardziej
efektywnie. A zatem biologiczne ciało człowieka nie jest wcale — jako siedziba myśli
— „gorsze” od mikroprocesorów: działa po prostu inaczej, a konstruktorzy nadal
powinni uczyć się od natury.
Możemy tu spytać, po co właściwie człowiekowi te zapasy z oporem tworzywa, po
co namiętne pragnienie skonstruowania inteligencji antropomorficznej, czemu nie
poprzestanie na komputerze jako maszynie wspomagającej tylko uczonych swą mocą
obliczeniową? Można rzec, iż uzasadnienie tych starań jest co najmniej dwojakiego
typu: pierwsze jest natury filozoficznej — to po prostu badanie granic ludzkich
możliwości, próba wydarcia Bogu kolejnych prerogatyw i ustanowienie w oparciu o
to jakiegoś nowego obrazu świata. Starania konstruktorów sztucznej inteligencji stoją
więc całkiem blisko wysiłków, jakie genetycy poświęcają ostatecznemu rozłamaniu
kodu dziedziczności i uzyskaniu nieograniczonego wpływu na kształtowanie nowych
biologicznych istot. Jedni i drudzy majstrują przy czymś, co w dotychczasowej
kulturze zwykło się uważać za domenę Demiurga, a zatem wyniki ich działań
wpływać mogą bezpośrednio na ludzkie wierzenia i światopoglądy. Wiedza tutaj
zdobywana nie jest zbyt radosna, ciąży bowiem na niej nieuchronnie lęk przed
konsekwencjami nowych odkryć, przed podważeniem etycznego porządku ludzkiej
cywilizacji. Uczniowie czarnoksiężnika posuwają się jednak dalej — bo już nie
można się cofnąć!
Ale pomyliłby się ktoś sądzący, że mamy tu do czynienia wyłącznie z zabójczym
automatyzmem odkrywania „wszystkiego, co jest do odkrycia”. W gruncie rzeczy

4
sztuczna inteligencja staje się czymś upragnionym tam, gdzie w tempie wykładniczym
rośnie góra głupiej, nieważnej, nieistotnej informacji — niczym Himalaje
zalewających nas odpadków. Jednym z leitmotivów eseistyki Lema w ostatnich latach
jest dezaprobata dla informacji nie selekcjonowanej, atakującej nas poprzez
komputerowe sieci i anektującej umysły. Ludzkość widziana z tej perspektywy
przypomina zbójcę Gębona z Cyberiady, osiodłanego przez „demona drugiego
rodzaju”, produkującego bez wytchnienia sterty komunikatów sensownych tylko
językowo, choć doskonale bezużytecznych. Byłażby więc komputerowa inteligencja
antidotum na rozplenioną po całym świecie komputerową głupotę? Odpowiedź musi
być sceptyczna, nie wiemy bowiem ani — czy uda się maszynie nadać cechy intelektu
ludzkiego (co oznaczałoby w terminach potocznych „mądrość” zamiast obliczeniowej
sprawności), ani — czy ów maszynowy intelekt zechce człowiekowi służyć tak, jak
on to przewidział. Można jedynie sądzić, że dalsze prace w tym obszarze nauki
odbywać się będą — bo akurat wszystkie poznawcze zdobycze, jakie na tym
przyczółku są do osiągnięcia, zasadniczo wpływają na nasz obraz świata i rozumienie
sensu ludzkiej egzystencji.
W Tajemnicy chińskiego pokoju ani trochę mniej mamy więc tajemnic niż we
wcześniejszej Summa Technologiae. Rozwiązanie jednej zagadki rodzi bowiem
natychmiast nowe — taki już los każdego prawdziwego dociekania w świecie nauki.
Książka, którą trzymamy w ręku, potwierdza jednak w całej rozciągłości te intuicje
Lema, które podpowiadały mu przed laty zajęcie się z jednej strony cybernetyką,
informatyką, konstruowaniem „sztucznego myślenia”, a z drugiej — genetyką i teorią
ewolucji. Rzeczywiście w tych dziedzinach dokonał się bodaj największy, najbardziej
spektakularny skok ludzkiej wiedzy — i one też przyniosły nam zagadki najbardziej
pasjonujące i najbliżej związane z pytaniem podstawowym — o kondycję człowieka i
Wszechświata, ich naturę i wzajemne relacje.
Cóż się zmieniło w podejściu Lema do tych problemów na przestrzeni ostatnich
trzech dekad? Dostrzegam przede wszystkim jedno: autor „Sumy”, który uprzednio
kreślił niemal nieograniczone wizje rozwoju ludzkiej technologii — dziś mówi o tym
z nieporównanie większą ostrożnością. Na to miejsce pojawiła się u niego fascynacja
mechanizmami ewolucji naturalnej, podziw dla perfekcji jej rozwiązań, dla finezji
biochemicznych reakcji stojących u podstaw życia. Nie jest to zapewne rewolucja
światopoglądowa: Lem pozostaje wciąż w gruncie rzeczy pisarzem zapatrzonym w
historię, w jej przebieg i prawidłowości. W każdej niemal spośród napisanych przezeń
książek znajdziemy dowody na jego głębokie zainteresowanie dla rozmaitego rodzaju
procesów ewolucyjnych, które nakładają się na siebie, interferują, odbijają się w sobie
wzajem. Oto w samej rzeczy teren, na którym nie może spełnić się nigdy
proklamowany przez Fukuyamę „koniec historii”, tzn. kres myślenia o czasie w
kategoriach „postępu”, „ewolucji”, „zmierzania do celu”. Taką koncepcję czasu
organizuje wpierw wizja ewolucji naturalnej, jako sfery postępu obiektywnego i
mierzalnego, choć zapewne nie nakierowanego na żadne — poza reprodukcją
genetycznego kodu — zwierzchnie cele. Teleologię wprowadza tu myślenie ludzkie
— zawsze skierowane naprzód, ku abstrakcji jakichś stanów przyszłych,
upragnionych lub budzących lęk. W Lema wizji historycznego czasu dostrzegam
obydwa te bieguny, tzn. widzenie przemian zachodzących w świecie raz
pesymistycznie — jako bezkierunkowego dryfu wiodącego ku nieznanym
katastrofom, innym razem bardziej optymistycznie — jako procesu w pewnej mierze
przewidywalnego, nad którym człowiek w coraz większej mierze panuje. W ostatnich
latach wszelako pierwsza z tych dwu wizji zdaje się u Lema przeważać.

5
W Summa Technologiae, książce z zasady optymistycznej, choć niełatwej
miejscami do zaakceptowania z punktu widzenia tradycyjnych wartości humanizmu,
ewolucja biologiczna znajdowała stosunkowo prędko przedłużenie w ewolucji
cywilizacji technicznej, czy wręcz na koniec — w samodzielnym rozwoju
wyzwolonego z uwikłania w biologię rozumu. Dziś Lem przerzuca w dalszą
przyszłość datę „prześcignięcia natury” przez sztuczne twory techniki, może też coraz
silniej wątpi, czy ewolucja na tych polach da się przedstawić w postaci
jednoliniowego wykresu, tzn. po prostu — czy maszynowa inteligencja będzie
kiedykolwiek i w jakimkolwiek sensie „kontynuacją” rozumu ludzkiego. Podobnie
ostrożne wypowiedzi formułuje na temat szans wspomagania biologicznych mózgów
przez tzw. brain chips, co stanowi dość chytry sposób na ominięcie dualizmu
myślenia „maszynowego” i biologicznego.
Czy oznacza to całkowite wycofanie się z optymistycznych idei ożywiających
Summa Technologiae? Niekoniecznie. Po prostu od nieco abstrakcyjnych,
wybiegających w przyszłość projektów nowej technologii Lem przeszedł do
praktycznych roztrząsań nad możliwościami zastosowań swoich własnych idei. Cóż
dziwnego, że pierwsze, z czym się spotkał, to opór tworzywa? Obok tego normalnego
oporu stawianego przez materię świata jest jednak jeszcze inny opór, który pokonać
niełatwo: to opór stawiany przez ludzi. Nowe technologie nie tyle zresztą odrzucane
są przez konserwatywne jednostki, co właśnie akceptowane — wątpliwości budzi
dopiero użytek, jaki z nich robi współczesna nam cywilizacja. Można więc
przeprowadzać krytykę działającej ślepo ewolucji naturalnej — ale ona wybroni się
zawsze zawrotnym mistrzostwem swych rozwiązań, można krytykować
niedoskonałość technologii — ta jednak rozwija się szybciej niż kiedykolwiek w
dziejach, nadrabiając szybko opóźnienia i ucząc się na błędach. Najgorzej w tym
zestawieniu wypada ludzki intelekt, a szczególnie ten (nie)rozum zbiorowy, którym
kierują się społeczeństwa, narody, środowiska konsumentów itd.
O ile więc milczącym założeniem Summa Technologiae zdawało się być
przeświadczenie, iż kultura ludzka rozwijać się będzie w przyszłości w miarę
harmonijnie, tzn. że społeczeństwa będą umiały wchłonąć nowe odkrycia technologii
z pożytkiem dla siebie, o tyle Tajemnica chińskiego pokoju to sprawozdanie ze świata
rzeczywistego, takiego, w którym technologiczne innowacje pojawiają się wśród ludzi
nie przygotowanych na ich przyjęcie, powodując okaleczenie psychiki jednostek i
trudne do przewidzenia zmiany w organizacji życia zbiorowego.
Czy ludzkość sobie z tym poradzi? Załóżmy ostrożnie, że tak. Jeśli coś budzi w
książce Lema nadzieję, to niesłychane możliwości tkwiące w biologicznej naturze
człowieka, a także godna podziwu dalekowzroczność ewolucyjnych rozwiązań, które
radziły sobie dotychczas tylekroć z radykalnymi zmianami środowiska i trybu życia
istot projektowanych przez genetyczny kod. Może więc raz jeszcze cierpliwa biologia
zniesie to, co jej gotuje skłonny do aberracji intelekt i jego wykwit — technologia?
Może też kultura — działająca na dłuższą metę na podobieństwo biologicznych
homeostatów — zdoła wchłonąć innowacje i odzyskać na powrót równowagę? Z
punktu widzenia uwikłanego w aktualność dyskursu Lema jeszcze tego nie widać.
Autor książki daje nam w zamian wgląd w takie konsekwencje ludzkiego poznania i
technologii, które powodują rozjątrzenie do białości najbardziej zasadniczych kwestii
naukowych, ontologicznych i etycznych. Myślenie wraz z Lemem i na jego
warunkach nie obiecuje zatem ukojenia egzystencjalnych i poznawczych niepokojów,
jest jednak myśleniem „dla dorosłych”, tzn. nie ukrywającym kłopotów, nie
tuszującym antynomii i nie obiecującym żadnej świetlanej przyszłości. Zapewne tylko

6
tak godzi się dzisiaj mówić o perspektywach technologicznych piekieł i rajów.

7
Człowiek i maszyna

1
Człowiek–maszyna to było dzieło francuskiego filozofa–materialisty La Mettrie,
napisane w połowie XVIII wieku. Nie ulega wątpliwości, że zarówno zwolenników,
jak przeciwników podobnie skrajnego rozpoznania ludzkiej natury znaleźlibyśmy i
dziś. Innymi słowy, mówiąc bardziej współcześnie, spór zostałby dopiero wtedy
rozstrzygnięty, gdybyśmy potrafili zbudować maszynę równoważną człowiekowi. Ale
co to znaczy „równoważną” człowiekowi? Nasze podobieństwo do innych żywych
stworzeń właśnie w sferze cielesnej jest niewątpliwe: człowiek to przecież żyworodny
ssak, opatrzony narządami, które się w bardzo skromnym stopniu różnią od narządów
i od całościowej fizjologii innych ssaków: różni nas od nich wszystkich umysł, a więc
mózg.

2
Jak łatwo może się domyślić Czytelnik, tymi nieco zamglonymi słowami zbliżam
się do całkowicie już współczesnego pytania, które postawił około pół wieku temu
angielski matematyk Alan Turing: czy możliwe jest skonstruowanie takiego
„automatu skończonego” (komputery są takimi automatami jako jedna z gałęzi
informatycznego drzewa, wyrosłego z ziarna cybernetyki), którego nie dałoby się w
rozmowie odróżnić od człowieka? Niezliczone razy uczestniczyłem, głównie w byłym
Związku Sowieckim, w latach sześćdziesiątych, właśnie w takich dyskusjach i
zażartych sporach, w których problem ów usiłowano rozgryźć. Jak wiadomo,
programy (software) zdolne prowadzić pewne typy rozmów z człowiekiem już
istnieją. Jednakowoż każdy taki program, który symuluje rozumnego rozmówcę,
można prędzej czy później „zdemaskować”. Sposobem najprostszym, na który (nie
wiem czemu) jakoś nikt albo omal nikt nie wpadł, byłoby opowiedzenie
niewiadomemu dyskutantowi dowolnej historyjki, np. anegdoty, dowcipu i żądanie,
ażeby opowiedziane po chwili własnymi słowami powtórzył. Maszyna najłatwiej
jeszcze powtórzy wszystko literalnie: normalny człowiek dlatego nie jest w
odtwarzaniu narracji precyzyjny, ponieważ nie tyle TEKST złożony ze słów
zapamiętuje, ile SENSY, a to znaczy, że opowiedziane rozumie. I oto stajemy przed
rzeczywistym dylematem: czy i w jaki sposób moglibyśmy przekonać się o tym, że
maszyna „komputer” rozumie cokolwiek — podobnie jak człowiek? Należy zważyć
wstępnie, że „rozumienie czegokolwiek” posiada swoje liczne poziomy i rodzaje. Pies
w pewnym sensie „rozumie”, do czego bierze się jego pan, gdy widzi, jak ów pakuje
walizki: ponieważ już to widział i „wie”, że szykuje się jakaś podróż. Ale nawet
mucha „wie”, co grozi jej od klapki, którą wymachuje zniecierpliwiony jej
natręctwem ten, komu ona przeszkadza. Sposobu, w jaki różne rodzaje „wiedzy”
różnią się od siebie w równie odmiennych sytuacjach, nie da się prościej wyjaśnić,
aniżeli odwołując się do „instynktów”, których ekstremalnym reprezentantem będzie
instynkt samozachowawczy i tutaj od razu trafiamy w sedno rzeczy. Mianowicie
żaden najdoskonalej grający w szachy albo tłumaczący teksty naukowe, albo
informujący o chorobach, ba, stawiający ich rozpoznania wedle wyników badań
komputer nie będzie próbował uniknięcia ciosu młotkiem czy kilofem, żaden bowiem
nie wykaże „instynktu samozachowawczego”, dookoła którego są „obudowane”
8
wszystkie typy wszelkich żywych stworzeń (z wyjątkiem roślin). To bowiem, co nie
próbowało ani pożreć, ani uniknąć pożarcia, w toku miliardoletnich ewolucyjnych
procesów zginęło; i tylko skutecznie zjadający albo skutecznie umykający ostali się
przy życiu.

3
Co prawda, jakąś postać „instynktu samozachowawczego” dałoby się komputerowi
wprawić: jednakowoż podobny zabieg nie przybliża nas do rozstrzygnięcia dylematu.
Douglas Hofstadter w swojej grubej, zabawnej i ciekawej książce Metamagical
Themes opisuje przygodę, kiedy to miał odróżnić człowieka od maszyny, przy czym
na końcu okazało się, że rozmawiał z kilkoma studentami, TAK odpowiadającymi na
jego indagację, ażeby zbić go z pantałyku. Jakoż kiedy już myślał, że z komputerem
rozmawia, rzeczywistość mu objawiono. Więc jakże? W postaci najbardziej
prymitywnej sprawa tak się przedstawia, jak ją opisałem w Summa Technologiae
ponad trzydzieści lat temu. Napisałem, że można dokonywać kolejnych a zarazem
doskonalonych robót konstruktorskich (dziś bym rzekł „programowań”), zastępując
komputery „zdemaskowane” odmianami doskonalszymi w symulacji, a może
doszłoby się do takiego modelu, którego już od człowieka w rozhoworach odróżnić
nie sposób.

4
Między innymi nawet na powtarzanie opowiedzianego znalazłby się wytrych.
Mianowicie maszyny segregujące (np.) artykuły naukowe są tak programowane, ażeby
rozdzielać teksty wedle „słów–kluczy”. Jeżeli częstość występowania słów takich jak
„osocze krwi”, albo „hemofilia”, albo „błona komórkowa” pewien próg przekroczy,
tekst najpewniej należy do stref medycyny, a może (szerzej) biologii. Jeżeli w nim się
„kwarki” czy „nuklidy” pojawiają — wiadomo, dokąd go przytroczyć. Więc
postępując tym zrazu bardzo prymitywnym i nic „nie rozumiejącym” sposobem,
można poduczać maszynę, ażeby odpowiedziała i żeby repetycja podanego jej tekstu
była „szkieletowo” — gramatycznie, leksykograficznie i stylistycznie nawet bliska
opowiedzianemu, ale żeby jednak nie pokrywała się z opowiedzianym co do słowa.
Więc i tu można uczynić maszynę zręcznym „oszustem”, udającym żywego
dyskutanta i na tym etapie zjawia się problem następny.

5
Mianowicie nie musimy zajmować się wyłącznie zagadkowym interlokutorem:
możemy pytać o to, JAKI CZŁOWIEK maszynę testuje. Albowiem największy pijak i
tuman nie będzie równie sprawnym ekspertem dyferencjacyjnym, co człowiek z
dyplomem wyższej uczelni — czy literat albo jakiś nadzwyczajny geniusz.

6
Zresztą zadanie postawione przez Turinga mocno się odmieniło wskutek tego, że
właściwie dzisiaj o możliwościach fakultatywnych komputera wiemy więcej aniżeli o

9
tym, w jaki sposób nasz mózg działa. Moim zdaniem, opartym nie tyle na lekturach z
zakresu neurofizjologii, ile na własnym doświadczeniu introspekcyjnym, mózg jest
złożony z dużej liczby podzespołów, połączonych między sobą dla współpracy w
sposób, który zarówno ma służyć optymalizowaniu wyników
informacjoprzetwórczych, jak zarazem odzwierciedla niebywale długą historyczną
(ewolucyjną) drogę, jaką mózg przeszedł w tysięcznych generacjach zwierząt, a na
ostatku hominidów, zaś już u mety u nas. Niejaką zależność świadomości (boję się
tego terminu) od stanu mózgu poznaje człowiek starzejący się bardziej wyraziście
aniżeli człowiek młody, o umyśle w pełni sprawnym. Zdarza się mianowicie takiemu
starzejącemu się, jak ja, że np. zapomni imię dobrze mu znanego uczonego,
powiedzmy Prigogine’a albo Plancka. Wysiłek przypomnienia sobie (czegokolwiek)
jest prawie nie do zrelacjonowania. Na ogół zresztą okazuje się daremny, ale
widocznie jałowo pracująca „świadomość” uruchamia jednak jakieś mechanizmy z
wydziału information retrieval, bo prawie zawsze, prędzej czy później, czasem po
parunastu sekundach, czasem nazajutrz, poszukiwany termin (tu: imię) „wypływa” z
odmętu niepamięci. Jak został odszukany — nie mam pojęcia i na razie nikt mi tego
wyjaśnić nie będzie w stanie. W każdym razie widać stąd jedną stronę zawodności
władania zasobem informacji zmagazynowanej w umyśle, a z drugiej strony człowiek
zajęty mocno umysłową pracą (albo sklerotyk) dużo czasu trawi i marnuje na
poszukiwanie okularów, gazety, książki, listu — ponieważ odkładanie, chowanie,
pozostawianie „gdziesik” zachodzi POZA obrębem zapamiętywanych czynności,
które świadomość POWINNA włożyć przynajmniej do przegródki „pamięci
krótkotrwałej”. A te nieświadomie i bezpamiętnie dokonywane czynności bywają
nieraz „sensowne” i koherentne, tj. nie musi iść zaraz o chowanie skarpetek w
lodówce czy lodów w szufladzie. Bywa to jednak dość — jak powiadamy —
„bezmyślne”, podobnie jak behawior epileptyka, zapadającego na tak zwane petit mai,
co oznacza momentalne, krótkie „wyłączenie” świadomości, przy czym ono MOŻE
zostać przez obecnych obserwatorów dostrzeżone albo i nie, gdyż czasem „lukę
świadomości” zapełnia czynność przez chwilę automatycznie kontynuowana. Tak
zatem zamiast się do rozszyfrowania „istoty świadomości” przybliżyć, ażeby (między
innymi) podejść do kwestii jej symulowania, znajdujemy na tej drodze nowe
przeszkody. Wykrycie zaś podzielności mózgu dzięki przecinaniu Corpus callosum,
wielkiego spoidła, łączącego dwustu milionami włókien neuronowych obie półkule
mózgu, oraz spowodowane tym zabiegiem niejakie „rozszczepienie” umysłu na
prawie niezależną parę „umysłów”, rzecz w ostatnich latach dziwnie skomplikowało.
Nie wiadomo (znów) czy i dlaczego mózg mamy dwudzielny, czy wynikło to na
skutek powstałej przed wieloma milionami lat dwudzielnej symetrii ciał wszystkich
tych zwierząt, co nas poprzedziły (czyli mamy do czynienia ze schedą bardzo starych
„ewolucyjnych rozwiązań”, wleczonych przez wieki wieków), czy też raczej ze
współpracą układów neuronowych, mózg tworzących, która to współpraca i dziś jest
optymalna. Ja bym się jednak opowiadał za wersją pierwszego wytłumaczenia, ale
nijakiego dowodu na jej prawdziwość przytoczyć nie potrafię.

7
Zdaje mi się, że krętą ścieżyną wywodu doprowadziłem problem do zwiększonego
zmętnienia. Wydaje mi się mianowicie, iż test Turinga, w tak znacznej mierze zależny
od akceleracji i sprawności hardware i software staje się coraz mniej pewnym
dyferencjatorem Człowieka i Maszyny. Przy tym zachodzi pytanie, bardziej może
10
zajmujące filozofów aniżeli ekspertów–informatyków: na jakie licho jest nam
właściwie potrzebna maszyna, tak znakomicie symulująca człowieka, że w jej
zachowaniu językowym od człowieka nieodróżnialna? Przecież jest oczywiste, że
ewolucja komputerów wraz z ewolucją programów od umysłowości naszej nie tylko i
nie po prostu się ODDALA, ale jednocześnie wkracza, i to na rosnącą skalę, w
obszary umysłowi człowieka w ogóle niedostępne. To, czego ani digitalnie, ani
intuicyjnie, rozumiejąco w przestrzeni konstruktorstwa imaginacyjnego sami nie
potrafimy symulować, komputery potrafią. Mózg nasz, dzięki historii swojego
powstania, odziedziczył i rozwinął życie afektywne, te wszystkie rodzaje ujemnych i
dodatnich emocji, stresów, uczuć, uciech, cierpień, smutków, radości, rozkoszy,
boleści, które „bezświadomemu bytowaniu” komputerów pozostają totalnie obce, bez
których komputer obejść się MUSI, bez których — jak twierdzi neurofizjolog —
nigdy komputer naśladować człowieka w jego bytowaniu świadomym nie będzie w
stanie.

Co do tego, że teraz tak jest, oczywiście, zgoda. Czy tak będzie zawsze — nie
wiem, i to z kilku powodów, z których nie wszystkie zapewne uda mi się tutaj
wyłuszczyć. Strefa oddziaływania psychiki naszej na procesy toczące się w naszym
organizmie jest bez wątpienia ogromna i nie wiadomo, gdzie przebiegają nasze
granice. Wiemy już na przykład, że nawet tkanka, nad którą ciało ludzkie władzy nie
ma, „tkanka zbuntowana”, anarchistyczna, więc nowotworowa wprawdzie SAMA
nie podlega wpływowi mózgu, ale obrona przed nią organizmu od stanu, w jakim
znajduje się umysł chorego, wyraźnie zależy. Zdeprymowani stawiają ciałem opór
słabszy aniżeli ci, co żyć chcą, potrafią chcieć i tym samym opór stawiają znaczny
zagrożeniu śmiertelnemu. W depresji umysłu natomiast wszystkie funkcje ciała
więdną i słabną, a w pobudzeniu się potęgują: stąd pochodzi krąg schorzeń
cyklofrenicznych (więc typowa dla tego kręgu naprzemienność depresji i pobudzania
maniakalnego). I to o tyle nie jest ze wszystkim od rzeczy, że program, pozwalający
komputerowi symulować inną chorobę umysłową — paranoję mianowicie — został
stworzony już dość dawno temu. Poza życiem uczuciowym, którego „potrzeba” jest
dla nas w jakiś trudno wytłumaczalny sposób oczywista, jesteśmy poddanymi władzy
Morfeusza: trzecią część życia przebywamy, czy jak ktoś by chciał, „marnujemy”, we
śnie. Na pytanie: PO CO jest nam sen, a w szczególności „czemu służy” senne
marzenie, nie ma jedynej wyraźnej odpowiedzi do dzisiaj i dlatego właśnie (ponieważ
pada odpowiedzi różnych wiele) NIC pewnego w kwestii owej nie wiadomo. Bez snu
człowiek obejść się przez czas nieco dłuższy od tygodnia właściwie nie może.
Natomiast komputery nie śnią i „potrzeby” takiej nie zdają się okazywać. Cóż i to
znaczy?

9
Zdaje mi się — chcę się wypowiadać z przezorną ostrożnością — że zdany
pozytywnie test Turinga — rozumiem przezeń nierozróżnialność człowieka od
maszyny w najdłuższym nawet „egzaminie” — nie wyjaśni wcale, czy maszyna ma
świadomość, czy nie. Kwestię tę zresztą (rzekło się) roztrząsałem jak umiałem przed

11
trzydziestu laty w nazwanej wstępnie książce i uznałem wtedy, że do symulacji
zachowania językowego, czyli do naśladowania rozumnego interlokutora, można by
zbliżać się stopniowo, kolejnymi aproksymacjami, po każdej przegranej „partii”
dokonując usprawnień i programu, i maszyny, aż w ten sposób (może i bardzo
niepraktyczny) doszłoby się do skonstruowania jakiegoś molocha elektronicznego,
który nie tylko osoby z kręgu służby domowej, ale i maturzystów, a nawet profesorów
uniwersytetu omami udawanym człowieczeństwem. Czy jednak z tej doskonałej
sztuki wynikłoby jakieś poniżenie dla naszej, ludzkiej istoty? To jest już kwestia
wybiegająca poza ostatnią granicę ocen konstruktorstwa.

10
Niedawno czytało się i w codziennej prasie o pierwszym „romansie” jakoby
stworzonym przez komputer. Było to bardzo kulawe i niezbyt sensowne
przedsięwzięcie, ponieważ na pewno komputer „nic nie rozumiał”, rzeczywisty autor
dawał mu po prostu możliwość wyszukiwania „właściwej deskrypcji” pewnych
stanów bohaterki — było to na dobrą sprawę przedsięwzięcie, mające na celu profit,
ponieważ wielu ludzi zechce nabyć powieść, której autorem „jest komputer”. Ale też
rzec trzeba, że komputery wprzęga się do sfery „porno”, gdyż są po temu odpowiednie
programy, pokazujące to, na czym znawcy zależy. Lecz owo wprzęganie wysokich
umiejętności technologicznych, świetnych owoców nauki, do prac niskich, głupich,
prymitywnych, brutalnych i wstrętnych stanowi jedno z większych rozczarowań,
typowych dla schyłku dwudziestego wieku, które szczególnie wstrętnym sposobem
wykoleiły moje dawne prognozy: jak gdyby światłe moce zostały zmuszone do
wleczenia ciemnych chętek i żądz, których mieszkaniem jest także człowiek.

11
Nie wszcząłem rzeczy od testu Turinga, ażeby go tak czy owak po swojemu
rozstrzygnąć. Bawiąc się w prognozowanie, rzec można, że w przyszłości łatwiej
będzie komputerowi naśladować człowieka aniżeli człowiekowi — komputer.
Kosmologiczna symulacja, w swoim czasie opublikowana przez „Scientific
American”, pokazująca, jak będzie „wyglądał” Wszechświat za sto miliardów lat,
JEŻELI jego łączna masa nie wystarczy, aby go „zamknąć”, więc będzie się
rozszerzał, a.: wszystkie ognie gwiazdowe wypalą ze szczętem swoje atomowe
zasoby, była imponującą demonstracją tego dalekosiężnego rygoru komputacyjnego i
zarazem symulacyjnego, którego nam albo nie dostaje, albo który wymagałby pracy
setek matematyków przez setki lat. Ale już na naszym horyzoncie pojawia się szansa,
moim zdaniem, oryginalniejsza od odpowiedzi na test Turinga. Mianowicie symulacje
komputerowe procesów ewolucyjnych odbywają się na razie wyłącznie „we wnętrzu”
maszyn i olbrzymi rozziew przepaścisty między światem realnym a światem
cyfrowym (między „ciałem i duchem”, „materią i informacją”) pozostaje nadal
otwarty, lecz mogą rozpocząć jego zapełnianie nowe twory, które są konstrukcyjnie i
informacyjnie zarazem „wyhodowanymi” prototypami małych, pseudożywych
(chociaż martwych, chociaż nafaszerowanych tylko elektroniką) „stworzonek”,
służących na razie zabawie rozmaitych „nanologów”, inżynieryjskich dziwaków, ale
które mogą dać w przyszłości początek takiej ewolucji, która by samoistnie
wystartować do biegu nie mogła. Byłaby to „ewolucja quasi–mechaniczna”, czy może

12
informatyczno–elektroniczna raczej, a nawet molekularno–kwantowa, jak powiadam,
przez ludzi wszczęta i przez ludzi kierowana i sterowana, ale zdolna na którymś
etapie do „przejęcia pałeczki”, czyli do okazania „inicjatywy samorodnej”, danej
wzmagającą się suwerennością i powstającymi trendami specjalizacyjnymi. DO
CZEGO by taka ewolucja służyć miała? To pytanie trochę za wcześnie postawione;
ponieważ i pytanie, postawione braciom Montgolfierom, „do czego służyć może”
papierowy balon, unoszony przez ogień nagrzanym powietrzem, nie doprowadziłoby
podówczas do odpowiedzi, że do lotów z kontynentu na kontynent. Inny, nie
istniejący kontynent MOŻE zostać dzięki bardzo ludzkim pasjom konstruktorskim w
przyszłości odkryty — i nie wiadomo, wiele nam przyniesie jego zawłaszczenie
korzyści… ale i klęski. W powieści Fiasko dałem o nich co nieco do zrozumienia…
ale tym jednostronnym, bo militarnym sposobem, który, niestety, dowodzi
agresywnej, skażonej natury naszego gatunku…

12
Historia informatyki, rozszerzonej na najpierwsze początki „przetwarzania danych”
aż po współczesność antropocentryczną i wyprowadzona z tej współczesności aż po
horyzont przyszłych możliwych dokonań czy samoziszczeń, ta historia, obejmująca
biogenezę, która trzy miliardy lat trwała i zrodziła świat wielokomórkowców, z
którego przez gałąź hominidów wyszedł Człowiek, otóż owa olbrzymia, bo już
mierzalna w geologicznej skali całość, jeżeli byśmy stłoczyli ją gwałtownie do
orzeczenia o kształcie aforyzmu, tak oto by się przedstawiała.
Data processing poczęło się w najprostszych pierwocinach samoorganizacji, czyli
życia, a zatem w skali molekularnych autoreplikatorów; z nich powstał kod
genetyczny, który przeinaczał się przez miliardy lat, aż zdobył tę potencję
prospektywnych wzmocnień rozrostowych, co zrodziła i ameby, i dinozaury, i nas, a
my z kolei, już w makroskali, najpierw WPROWADZAMY data processing do
komputerowych wnętrzności, gdzie oczyszczona z brzemienia cielesnego informacja z
informacją krzyżuje się i informacją żywi w przyspieszeniu, jakiego nigdy by życie
„samo” nie doścignęło. A gdy ten etap „autonomii informatycznego ewoluowania”
opuści komputery, bo wcieli się w wytworzone w ich rozwojowym projektowaniu
technobionty, czyli jednostki wprawdzie podług metryki martwo zrodzone, ale podług
aktywności funkcjonalnej ,jak gdyby żywe”, i to „żywe w akceleracji”, ta olbrzymia
panorama przeszłości, teraźniejszości i przyszłości okaże się spójnym logicznie
systemem, w którym mikrożycie poczęło makrożycie, które poczęło
„zuniwersalizowane pożycie” — od molekuł przez organizmy do nieznanych nam
jeszcze, i nawet własnej nazwy dziś nie noszących „technobiontów”. Jeżeli tak myśleć
i tak patrzeć, można uznać, że ten ciąg rozwojowy, z człowiekiem nie jako metą ale
jako cezurą panewolucji, zdoła wyjść w Kosmos, do którego — jak już pouczyły nas
zaczątki astronautyki — cieleśnie, ale i zmysłowo, i psychicznie bardzo marnie
jesteśmy zdatni, ponieważ zbyt trwale odcisnęły się w człowieku oznaki, atrybuty i
ograniczenia spowodowane jego tylko ziemskim, tylko hominidalnym, tylko
lokalnym, podsłonecznym powstaniem. Wizja ta nie jest prognozą, lecz niczym
więcej, jak prognozy obecnie jeszcze fantastyczną możliwością. Prawdopodobieństwo
ziszczenia musi być skromne, lecz każde zaranie późniejszych, dojrzałych szczytowań
takie musi być zawsze. Można jednak na powyższy obraz spojrzeć również jako na
tragifarsę, co się zdarzyła albo raczej może zdarzyć Rozumowi człowieka, który uznał
siebie za najświetniejszą Stałą Kosmiczną, chociaż okaże się tylko preludium do
13
następnej, transantropicznej fazy „informacyjnego zdobywania Wszechświata”. W
takim ujęciu zdobywa owa projektowana całość posmak szydliwy, jeżeli byśmy mieli
uznać za porażkę akt deuniwersalizacji, czyli zdetronizowania naszego, śmiertelnego
Rozumu…

14
„Bariera informacyjna?’

1
W książce Summa Technologiae, liczącej sobie dobrych trzydzieści lat,
wprowadziłem metaforyczne pojęcie „bomby megabitowej” oraz „bariery
informacyjnej”. Kluczem do zasobów poznania jest, pisałem, informacja. Gwałtowny
wzrost liczby uczonych od Rewolucji Przemysłowej wywołało znane zjawisko: ilość
informacji, jaką może przesłać określonym jej kanałem, jest ograniczona. Nauka jest
takim kanałem, łączącym cywilizację ze światem pozaludzkim i ludzkim. Wzrost
liczby uczonych oznacza zwiększenie przepustowości tego kanału. Lecz proces ten,
jak każdy wzrost wykładniczy, nie może biec przez czas dowolnie długi: kiedy
zabraknie kandydatów na uczonych, eksplozja „bomby megabitowej” uderzy w
„barierę informacyjną”.

2
Czy w tym obrazie zmieniło się coś po trzydziestu latach? Najpierw chcę
zauważyć, że próby ustalenia granicznej mocy obliczeniowej „ostatecznej generacji”
komputerów, czyli wykrycia — w dziedzinie informatyki — odpowiednika znanej w
fizyce granicznej szybkości, jaką się przypisuje światłu, były podejmowane
kilkakrotnie, lecz wyniki oszacowań poważnie się od siebie różniły.
Biorąc pod uwagę wielkości właściwe fizyce, więc właśnie szybkość światła i
relację nieoznaczoności ze stałą Plancka, obliczono, że najsprawniejszy komputer,
który zdoła przetwarzać dane z najwyższą osiągalną szybkością, będzie kostką
(sześcianem) o krawędzi mierzącej trzy centymetry. Wszelako niedopowiedzianą w
założeniach przesłanką był wyłącznie szeregowo–krokowy, iteracyjny sposób
wykonywania działań, taki, jakim się w najprostszej postaci odznacza automat
Turinga, który może zajmować tylko jeden z dwu stanów: zero lub jedynkę. Jakoż
każde działanie każdego komputera tego krokowego (szeregowego) typu można
wykonać owym najprostszym automatem Turinga, tyle, że to, co jakiś Cray wykona w
ułamku sekundy, automatowi Turinga zajmie eony czasu.
Lecz rychło spostrzeżono, ze można również konstruować komputery z
równoległymi programami, aczkolwiek ich programowanie i funkcjonowanie stanowi
serie bardzo trudnych do rozwiązania problemów. Dowód na to, ze takie komputery
są konstruowalne, nosimy w czaszce: mózg bowiem głównie, chociaż nie tylko dzięki
swej budowie — jest swoistym rodzajem odpowiednika komputera paralelnego,
złożonego z dwu wielkich podzespołów (półkul), a w nich z kolei też panuje bardzo
dziwna dla człowieka jako konstruktora „strategia alokacji” podzespołów niższych
rzędów.
Dla neurofizjologów był to prawdziwy chaos, złożony z samych zagadek, a objawy
wypadania poszczególnych funkcji, np. przy afazji, amnezji, aleksji itd., potrafili ci
badacze wykrywać, ale nie umieli ich przyczynowo i czynnościowo wyjaśnić. Zresztą
bardzo wielu tych i podobnych zjawisk nadal w naszym mózgu nie pojmujemy jak
należy. Mózg może pobierać informację z szybkością od 0,1 do 1 bita na sekundę,
natomiast dzisiaj potok nowej informacji dociera doń z szybkością leżącą między
trzema a dwudziestoma bitami na sekundę.
Całość ludzkiej wiedzy ulega podwojeniu z grubsza co pięć lat, przy czym ów czas
15
podwojenia stale się zmniejsza. Na przełomie XIX i XX wieku okres ów wynosił
około 50 lat. Codziennie publikuje się na świecie 7000 artykułów, drukuje się ponad
300 milionów gazet, a książek 250 000, aparatów zaś radiowych i telewizorów już jest
ponad 640 milionów. Ponieważ dane te pochodzą sprzed czterech lat, niechybnie są
już zaniżone, zwłaszcza wskutek gwałtownego przyboru wiedzy w dziedzinie
telewizji satelitarnej.
Ilość już zgromadzonej przez ludzkość informacji ma wynosić 1014 bitów i do
roku dwutysięcznego ulegnie podwojeniu. Niewątpliwie informacyjna chłonność
mózgu już uległa wyczerpaniu: poza nauką objawy tej „informacyjnej astenii” można
dostrzec znacznie łatwiej aniżeli w samej nauce, zwłaszcza jeżeli jej obszar
ograniczymy do nauk ścisłych. Otacza je „halo” w postaci pseudo– i auasinauk,
cieszących się wszędzie znaczną popularnością, ponieważ z reguły chodzi o „wiedzę”
wprawdzie bezwartościową i fałszywą (astrologię, znachorstwo, sekciarskie
dziwactwa typu „Christian Science” i wszystkie „psychotroniki”, jak telepatia,
telekineza, „wiedze tajemne”, wiadomości o „talerzach latających” lub „tajemnicach
piramid” etc), ale mile prostą, kuszącą obietnicami wyjaśnienia ludzkiego losu, sensu
istnienia itd., itp.
Ja tu jednak ograniczam się do terenu nauk ścisłych, w który także zresztą
wtargnęła już dawno powódź mętnych fałszerstw, nie tylko szkodliwych, ale
podważających status społeczny nauki; oszustwo w nauce zdarza się bowiem coraz
częściej, a sprzyja mu aktualna wciąż reguła publish or perish. Wiele czynników
współpracuje więc na rzecz wzmagania powodzi informacyjnej. Natomiast
wspomniana wyżej sfera pozanaukowa ulega informacyjnym samoograniczeniom,
które z porównawczego zamierzenia łatwo może spostrzec widz dysponujący
satelitarnym odbiornikiem: pod względem odmienności fabularnej, prawie wszystkie
nadajniki światowe niezwykle skromnie się od siebie różnią, co znaczy po prostu, że
programy odległych od siebie państw, krajów i językowych obszarów nieomal
pokrywają się treściowo.
Nie jest to ani świadome zapewne „odchudzanie telewizyjnej diety”, ani
plagiatowość: po prostu publiczność, ulegająca przesytowi, woli oglądać warianty
fabuł znanych już, i stąd wciąż kolejne wersje jakichś Tarzanów, Trzech
Muszkieterów, a w USA — walk z Indianami, wojny secesyjnej, w Europie zaś —
ostatniej wojny światowej. Informacyjna alergia w zakresie wizualnym jest
szczególnie natarczywa, innowacji obawiają się w stacjach nadających gorzej niż
ognia, natomiast cenią innowacyjne pozory. Oczywiście nie bawię się tu w krytyka,
ponieważ nie wartościuję i tym samym nie deprecjonuję programów, co skądinąd
byłoby łatwizną, lecz staram się tylko obniżyć głębszą, czysto percepcyjną przyczynę
faktu znanego telewidzowi z doświadczenia, którego istota w dziwacznym
podobieństwie mnóstwa rzekomo całkiem odmiennych, osobno tworzonych
programów: mianowicie trudno zazwyczaj zorientować się, jeśli wyłączyć fonię, czy
oglądamy obraz emitowany w Turcji, Wielkiej Brytanii, Holandii, Szwecji, Danii,
Hiszpanii itd., bo zewsząd płynie do naszej anteny omalże ta sama kaszka manna z
pieprzem.

3
Przed informacyjną powodzią ratuje się więc przeciętny człowiek zarówno
redukcją ulewy bitów, jak i eliminacją tych, co nie są jakoś „konieczne” dla
umysłowej absorpcji. W życiu codziennym polega to na wzmożonym etnocentryzmie
16
mediów, na „narastającej gruboskórności” względem treści, które mogą szokować lub
ranić uczuciowo, lecz w nauce tego rodzaju wstrzemięźliwości nie są dopuszczalne.
Stąd narastająca waga posiłków, jakie przynosi tam informatyka dywizjami
komputerów. Jak każde zjawisko nowe, chociaż właściwie już nie nowe literalnie,
komputeryzacja stała się niezbędną i jednocześnie nowe kłopoty przynoszącą strefą
życia: w krajach, w których komputeryzacja stawia dopiero pierwsze kroczki (do
których de facto należy i Polska) kłopotów i dylematów jeszcze nie posmakowano.
Pierwszy z brzegu przykład wyjaśni, w czym może tkwić sęk. W powieści SF Powrót
z gwiazd, w roku 1960, wprowadziłem do akcji „kalstery” jako małe urządzenia,
zastępujące obrót i obieg pieniężny. Oczywiście nie ma miejsca w powieści dla
opisywania infrastruktury tego „wynalazku”! Ale obecnie już pisze się w periodykach
(np. amerykańskich) o smart cards, opartych na tejże zasadzie. Pieniędzy może nie
być w obrocie w ogóle, płacenie czekami też może się stać przeszłością, każdy
bowiem ma w banku konto, a w portfelu smart card, płacąc zaś podaje się tę kartę
kasjerowi, który wkładają do kasy, połączonej z bankiem; komputer przekazuje zaś
bankowemu komputerowi, wiele należy odjąć jednostek monetarnych z konta; to też
odbywa się drogą płatnik (czyli jego komputer) — bank — opłacany (czyli jego
„kalster”).
Otóż to bardzo dobre — pod warunkiem, że się do naszego konta nikt nie dobierze
jakimś „wytrychem elektronicznym”; a jak wiadomo, dawno powstała już i computer
crime, i „hackerzy”, którzy potrafili dobrać się nawet do najbardziej chronionych
komputerów różnych Sztabów Generalnych. Gotówkę można zakopać, schować w
skarbcu, ale bankowe komputery będą na pewno wystawione na liczne ataki
przewodowe lub bezprzewodowe. Zjawisko „wirusów” z kolei jest już nam tak znane,
że nie warto się tą „ciemną” stroną żywota informatycznego zajmować.

4
Do przebicia „bariery informacyjnej” w nauce mogą posłużyć, z jednej strony, sieci
komputerowe, które by miały się mniej więcej do siebie tak, jak neurony w mózgu (a
każdy neuron, jak wiemy, jest połączony pośrednio lub wprost z dziesiątkami tysięcy
innych, toteż skrótowo powiadać, że mózg liczy sobie 12 albo 14 miliardów
neuronów jest właściwie czymś na kształt nieporozumienia, ponieważ idzie o liczbę
połączeń, a nie jednostek pracujących na zasadzie flip—flop tylko), a z drugiej
komputery giganty, które na razie reprezentować może mój „Golem XIV” z opowieści
pod tymże tytułem.
Tutaj winienem być może wyjaśnić, skąd mi się tam wzięła i na czym może
polegać koncepcja ponadgolemowych wzrostów „terabajtowej potęgi”,
poprzedzielanych wzdłuż biegu tego wzrostu „strefami milczenia”. Otóż nie jest to w
tym sensie „czysta fantazja”, ponieważ z dawien dawna obrałem sobie za gwiazdę
przewodnią, czy raczej za przewodnią konstelację — naturalną ewolucję życia na
Ziemi. Zjawiskiem może najcharakterystyczniejszym był w niej taki typ powstawania
pokolejnego gatunku roślin i zwierząt, który odznaczał się nieciągłym (dyskretnym)
wzrostem złożoności. Jakoż najpierw powstały pierwociny życia, o których nam nic
nie wiadomo poza tym, że w przeciągu trzech miliardów lat (co najmniej, nie
najwyżej) utworzyły kod genetyczny z jego zdumiewającą uniwersalnością kreacyjną;
z niego powstały algi zdolne do fotosyntezy, potem bakterie, pierwotniaki, flora
morska, potem ryby, płazy, gady, a wreszcie ssaki, które zwieńczyło powstanie
hominidów z człowiekiem na czele. Między gatunkami zaś zieją bardzo istotne
17
rozziewy: jakkolwiek istniały formy przejściowe między, powiedzmy, gadem a
ptakiem, albo rybą a płazem, nie zostało z nich nic: te odosobnienia gatunków, jako
„strefy specjacyjnego milczenia” uznałem za dostatecznie ważkie, ażeby je
„przenieść” w obszar kolejnych kulminacji rozumów, wyzwalających się z
pierwotnych, fizjologią i anatomią danych zadań, które spełniać musi centralny
system nerwowy każdej żywej istoty (o ile jest to istota zwierzęca).

5
Oczywiście koncept najpotężniejszego konstruowalnego komputera jako „kostki” o
krawędzi trzycentymetrowej należy odrzucić. Czy jednak budowanie coraz to
większych komputerów będzie drogą lepszą od tworzenia sieci na podobieństwo
mózgowych — neuronowych — tylko przyszłość może ukazać. Aktualnie porównanie
mózgu z komputerem ostatniej generacji wygląda następująco. Mózg jest dobitnie
równoległym, wieloprocesorowym systemem, złożonym z jakichś 14 miliardów
neuronów, tworzących trójwymiarową strukturę, w której każdy neuron ma do 30000
połączeń z innymi neuronami.
Jeśli każde łącze wykonuje tylko jedną operację w czasie sekundy, to mózg byłby
teoretycznie w stanie wykonać w tym samym czasie dziesięć bilionów operacji. Flip–
flop neurona trwa milisekundy. Złożone zadania w rodzaju rozpoznania i rozumienia
języka wykonuje mózg w czasie rzędu sekundy, gdyż wymagają kilku obliczeniowych
operacji, natomiast komputerowi trzeba na analogiczne wykonanie zadania miliona
elementarnych kroków.
Ponieważ neuron nie może przekazać drugiemu neuronowi jakichkolwiek
złożonych symboli, będąc „prostym” urządzeniem typu flip–flop, sprawność mózgu
zależy od wielkiej liczby wzajemnych między–neuronowych łączy. Dzięki temu łatwo
posługujemy się językiem lub językami, natomiast w umyśle przemnożyć dwie
wielocyfrowe liczby to już problem, z którym nie każdy się sprawi. Fenomen
niesłychanie biegłych rachmistrzów, którzy poza tym mogą być nawet debilami, jest
mi tu osobną zagadką, ponieważ świadczy o istnieniu rozmaitych podzespołów,
zdolnych nawet — czy właśnie wtedy — do sprawniejszego działania, kiedy
przeciętnie normalne inne zespoły są uszkodzone! (Mózg, ogólnie już mówiąc,
znacznie łatwiej znosi uszkodzenia aniżeli komputer).
Dzisiejsze superkomputery działają (jak twierdzi ekspert) na poziomie rozwoju
pięcioletniego dziecka (chodzi jednak o sprawność pozaafektywną). Wydaje się raczej
paradoksalną sytuacja, w której dla symulowania (modelowania) mózgu w czasie
realnym potrzebne byłyby tysiące komputerów najwyższej mocy obliczeniowej,
natomiast dla modelowania obliczeń arytmetycznych byłyby niezbędne miliardy
ludzi…
Elementarna operacja neuronu trwa (jak się rzekło) około 1 milisekundy, natomiast
komputer może wykonać ją w czasie nanosekundy, czyli pracuje o sześć rzędów
wielkości szybciej. Niemniej człowiek wchodząc do kawiarni rozpoznaje twarz
szukanego znajomego w ułamku sekundy, a komputer potrzebowałby na to samo
kilku minut…

6
Sprawą bodajże kluczową dla naszej (czyli ludzkiej) przyszłości wydaje się

18
odpowiedź na pytanie, czy i jak może powstać kreacyjna potencja informacyjna
komputerów, w rozumieniu kreacji autentycznej: rozwiązanie dowolnie trudnego
zadania matematycznego nie ma z twórczością, o jakiej myślę, wiele wspólnego,
ponieważ odpowiedź w postaci rozwiązania „potajemnie tkwi” już w matematycznej
strukturze postawionego zadania. Pozwolę sobie wrócić do książki, którą
zacytowałem na wstępie. Pisałem w niej, że przejście od wyczerpujących się źródeł
energii do nowych — od sił mięśni, zwierząt, wiatru, wody do węgla, ropy naftowej, a
od nich z kolei do atomowych — wymaga uprzedniego zdobywania informacji.
Dopiero kiedy (dzięki metodzie trial and error) ilość tej informacji przekroczy
pewien „punkt krytyczny”, oparta na niej nowa technologia odmyka nam nowe
obszary energii i działania. Gdyby (pisałem) zasoby paliw (węgla, ropy, gazu) uległy
wyczerpaniu np. u schyłku XIX wieku, wątpliwe jest, czy uruchomilibyśmy w
połowie XX wieku energię atomową, ponieważ jej wyzwolenie wymagało ogromnych
mocy, instalowanych najpierw laboratoryjnie, a potem w skali przemysłowej. I tak
jednak (pisałem wtedy) ludzkość (dziś nawet) wcale nie jest gotowa przejść na
wyłączne eksploatowanie energii atomów…
Ogłoszona zaś przez Fleischmana i Ponsa cold fusion, zimna fuzja deuteru w hel,
została szybko zdyskredytowana jako pomyłka, aczkolwiek ostatnio Japończycy
(głównie) wzięli się do eksperymentów tej sfery od nowa, tak że właściwie „nic
pewnego nie wiadomo”. Mówię o tym w kontekście informatyki dlatego, ponieważ
możemy już wprawdzie wymodelować, tj. symulować na komputerze wygląd
Kosmosu za sto miliardów lat (to już robiono), przy ustaleniu oczywiście takich
startowych parametrów, które odpowiadają współczesnej wiedzy kosmologicznej,
natomiast nie możemy wykrzesać z symulacji nowin niespodziewanych — dlatego
niespodziewanych, ponieważ brak ich śladu w danych wejściowych (startowych). Oto
przykład, który być może niejednego Czytelnika zaskoczy.

7
Bolesław Prus ustami jednej z postaci Lalki, profesora Geista, powiedział:

Mamy trzy sześciany tej samej wielkości i z tego samego materiału, które jednak są
nierównej wagi. A dlaczego? Gdyż w pełnym sześcianie jest najwięcej cząstek stali, w
pustym mniej, a w drucianym najmniej. Wyobraź więc sobie, że udało mi się zamiast
p e ł n y c h c z ą s t e k budować k l a t k o w a t e c z ą s t k i c i a ł , a zrozumiesz
tajemnicę wynalazku…

A teraz z artykułu w naukowej kolumnie tygodnika „Der Spiegel” (nie cytuję prasy
naukowej, ponieważ zależy mi na zwięzłości):

Uczeni oczekują ‘zupełnie nowej chemii’, spodziewając się jej po klatkowatych


kulkach węgla, zwanych fullerenami. Po raz pierwszy powstały w laboratoriach
niemieckich, a liczba ich możliwych zastosowań — to legion.

I dalej:

Fullereny, nazwane tak wedle kopułowych struktur samonośnych Richarda Fullera w


architekturze, to puste kuleczki, utworzone z sześćdziesięciu atomów węgla, połączonych
wzajem tak, jak spojone są ze sobą pięciokąty, tworzące piłkę futbolową. Można ich użyć
jako konstrukcyjnych elementów w statkach kosmicznych, ponieważ nienaruszone
19
odskakują od stalowej płyty, gdy je wystrzelić w nią z prędkością 27 000 km/h…

Japończycy syntetyzują już fullereny cylindryczne, wypełniane atomami ołowiu, i


wyciągali z nich druty o grubości kilku atomów zaledwie… W prasie amerykańskiej
piszą o buckminsterfullerens, do których udało się wtłoczyć atomy neonu albo helu…
itd. To tylko początek. I cóż tu rzec o fantazji Bolesława Prusa? Urzeczywistniła się
po stuletnim interwale…
Sprawą banalną jest to, że nikt owej zbieżności nie dostrzegł, ponieważ — sądzę
— sam Prus nie bardzo wierzył w jej ziszczenie (ale nie mam pewności w tej mierze;
nie wiem, czemu zamierzał wokół swego — Geista — wynalazku napisać powieść
„Sława” i pomysłu zaniechał). W zasadzie budowle klatkowe (z atomów węgla np.)
były do teoretycznego zaprezentowania, nie wiadomo było tylko, jak dokonać syntezy
(niezbędne są wysokie temperatury i ciśnienia). Ale to już są informacje, które
koniecznie muszą współistnieć z parametrami atomów w założeniu wyjściowym…
Jak dotąd, komputer potencji kreacyjnej wykazać nie może: myślę jednak, że nie
czyniąc jeszcze wynalazców i uczonych bezrobotnymi, na polu innym — produkcji
przemysłowej — już rozpoczął inwazję, która obradza groźbą masowego bezrobocia.

8
Norbert Wiener, odkrywca cybernetyki, w książce Kumam Use of Human Beings
pół wieku temu przepowiadał właśnie bezrobocie wywołane rozszerzającą się,
masową automatyzacją coraz większej liczby procesów wytwórczych. Któż nie
widział w TV jednej z wielu japońskich wytwórni samochodów, jako trasy, po której
bokach kotłują się jak szalone emaliowane (zwykle na żółto) wielkie roboty, pod
nieobecność człowieka składające, spawające, ześrubowujące elementy karoserii,
motorów, sprzęgieł — te bezludne fabryki już powstają i przez to bezrobocie staje się
(twierdzą niektórzy ekonomiści czy inżynierowie) zjawiskiem nieodwracalnie
postępującym i niebezpiecznym społecznie, ponieważ praca automatów–robotów jest
tańsza od ludzkiej i bywa dokładniejsza, ponieważ roboty te, których światowa armia
przekroczyła już trzysta tysięcy, nie potrzebują ani jadła, ani zapłaty, ani odpoczynku,
ani urlopów, ani zasiłków, ani ubezpieczenia socjalnego na starość („na starość” idą
roboty jako wraki do złomowisk).
Nie zagraża nam „bunt robotów”, ich kuratela, którą tylekroć nas straszono.
Zagraża nam po prostu bezkrwawy konflikt, cały w tym, że płody naszego rozumu i
naszej cywilizacji uczynią ludzi pracy po prostu zbędnymi: jeżeli nie dzisiaj jeszcze,
nie jest to dostateczną pociechą, ponieważ koszt takich inwestycji będzie malał, i do
nich, sądzić można, będzie należał wiek dwudziesty pierwszy. Wygląda więc na to, że
na początku życia było istotnie słowo — KODU GENETYCZNEGO, a na dalekim
odcinku przyszłości słowo to zrodzi informację, która zrodzi bezmyślnie doskonałych
pracowników z martwej materii…
…Ale co się wtedy stanie z nami — oto pytanie, na które odpowiedzieć dzisiaj nie
potrafię.

20
Fantomatyka

1
W „Wiedzy i Życiu” z czerwca 1991 r. po raz pierwszy opublikowałem artykuł,
zestawiający przepowiadaną przeze mnie przed trzydziestu laty „fantomatykę” z
realizowaną obecnie techniką iluzji, nazwaną Virtual Reality. Przyznaję jednak, że
dopuściłem się w „Wiedzy i Życiu” pewnego uproszczenia, bądź raczej pominięcia
sprawy centralnej: albowiem to, co teraz w wielu państwach staje się już częścią
przemysłu rozrywkowego jako „wirtualna rzeczywistość”, zrównałem z tym, com był
prognozował w 1963 roku. Popełniłem więc grzech tryumfalizmu, ponieważ moja
„fantomatyka” ma się tak do technik Virtual Reality jak może się mieć najnowszy
model Mercedesa do parowego trójkołowca, skonstruowanego w 1769 roku przez
inżyniera N. J. Cugnota: pojazd ów miał wprawdzie uciągnąć armatę, ale wsławił się
maksymalną chyżością 9 km/h. Tyle podobieństwa między nowoczesnym autem a
starocia Cugnota, że jedno i drugie porusza się bez koni, siłą motoru tłokowego, i
właściwie to wszystko.
Virtual Reality obecnie jest jeszcze w powijakach, ale największą może słabością
teraźniejszego jej, wstępnego wcielenia, jest prawie zupełna niedostateczność
czynnika, który miałem i mam za główny w skutecznym utworzeniu ułudy iluzyjnej
rzeczywistości: chodzi o kiepskie sprzężenie zwrotne pomiędzy poddawanym
sfantomatyzowaniu człowiekiem a dostarczającym jego zmysłom wrażeń
komputerem. Zresztą — proszę mi tu pozwolić na używanie nazwy „fantomatyka”,
„fantomatyczna maszyna” lub krócej „fantomat”, przymiotnika „fantomatyczny”,
czasownika „sfantomatyzować” (kogoś — czymś jako informacją dla jego zmysłów),
a wszystko nie przez ambicje futurologiczne, miłość własną etc, ale dla wygody po
prostu, ponieważ z tą Virtual Reality powstaje przy każdej deskrypcji kłopot. Ponadto
wymyśliłem wtedy „fantomatologię” jako teorię fantomatyzacji, co nie jest bodaj
wyzbyte sensu, ponieważ mamy do czynienia — obecnie — z pewną techniką w
stanie embrionalnym, w fazie wczesnej (jaką w porównaniu moim był parowy traktor
Cugnota), ja natomiast w książce Summa Technologiae starałem się sobie wyobrazić
sytuację technologicznie osiągniętej PERFEKCJI z takim funkcjonowaniem
sprzężenia zwrotnego (między człowiekiem a fantomatem), że prawie już żadną miarą
nie podobna by odróżnić „rzeczywistości realnej” od „fikcyjnej”, powstałej dzięki
dwu nie nazbyt odległym od siebie ziszczeniom filozoficznych tez, mianowicie
berkeleyowskiego ESSE EST PERCIPI (być, to być postrzeganym), oraz (angielskiego
również i filozoficznego) nihil est in intellectu quod non prius fuerit in sensu (nic nie
ma takiego w umyśle, czego uprzednio w zmysłach nie było).

2
Otóż, ażeby w główną różnicę wejść od razu sztychem, nie ma jeszcze tak dobrze,
ponieważ komputer winien być dla optymizacji złudnej tak sprzężony z człowiekiem,
żeby właściwie reagował na każdą reakcję człowieka. Już mniejsza nawet o to, żem
projektował bezpośrednie wprowadzenie informacji w organy zmysłów (np.
elektrodami), że wszystkie nasze zmysły miałyby zostać „oszukiwane systematycznie”
jako „przełączane” ze świata realnego na świat, utkany z deszczu sygnałów idących
21
od fantomatu. Mniejsza o to, powiadam, czy można by stosować „hełmy”, data
gloues, itp.: najważniejsza jest MOC OBLICZENIOWA fantomatu, pozwalająca w
czasie realnym z najwyższą synchroniczną precyzją reagować na każdy ruch
człowieka. Powiedzmy, pisałem ongiś, że otacza go iluzyjna komnata czy wnętrze
jakiejś świątyni: przy każdym ruchu głowy i oczu postrzegać winien oczywiście to
właśnie, co by postrzegał, znajdując się w otoczeniu autentycznym: tym samym
komputer musi odpowiadać błyskawicznie na każdą zmianę zachowania ludzkiego,
ponieważ jeśli nie potrafi, to powstaje sytuacja tak zwanej „Circaramy”, bez
zwrotnych adekwatnych zmian potoku bodźców dozmysłowych, i iluzja ukazuje
swoje niedostatki. Ponieważ zaś w ogóle jako quasi–futurolog nie uwzględniłem
sprawy kosztów, największą mocą obliczeniową dysponujące obecnie komputery
(Cray np., ale są już nowsze) kosztują jak diabli, przemysł rozrywkowy, inwestujący
już wielomilionowe kwoty w „fantomatyczne igraszki” stara się stwarzać dla klientów
takie sytuacje, w których człowiek ma możliwie niewielką swobodę zmiany w swej
sytuacji percepcyjnej. Gdy jedziemy pociągiem i patrzymy przez okno, na zachodzące
w polu widzenia zmiany mamy wpływ tym mniejszy, im bliżej wagonu zjawiska
obserwujemy natomiast dalsze plany aż po horyzont nie zmieniają się od naszych
reakcji, ale zależą prawie że wyłącznie od ruchu (szybkości) pociągu. To samo np. w
czasie nocnej jazdy, jeżeli będziemy patrzeć nie na drogę i jej pobocza, ale na księżyc:
zdaje się nieruchomo tkwić na niebie, jakby wisząc stale nad pojazdem, i żadne
poruszenia ciała, głowy, oczu jego lokalizacji nie zmieniają. A kiedy człowiek szybuje
w powietrzu, przytroczony do lotni, także nie jego ruchy, ale widziane z góry dalekie
rozpościerające się krajobrazy decydująco wpływają na to, co postrzega.
Toteż właśnie „sytuacja lotni” została już wykorzystana. Klient–pacjent zostaje
ułożony na swego rodzaju płachcie i zawieszonego na niej krępują uprzężą (wiele
lotni ma w samej rzeczy rodzaj worka, do którego pakuje się „zbędne” w szybowaniu,
unieruchomione nogi), po czym na głowę nakłada się hełm, aby widział, co by widział
lecąc, wentylator puszczony owiewa go, powiększając złudzenie lotu, i to właściwie
wszystko.
Jednak przyznać należy, że uproszczenie sytuacji i prawie całkowite wyrugowanie
wpływów aktywności ludzkiej na to, co postrzegane (czyli maksymalna redukcja
oddziaływań sprzężenia zwrotnego) burzy doskonałość iluzji. Jeżeli „lecący” spojrzy
szybko w górę, odwracając głowę, może nie ujrzy w porę ani nieba ani chmur ani
płatów nośnych lotni, ponieważ komputer nie nadąży z reakcjami: oszukano MU
wszystkie zmysły, ale sprawność „oszustwa” nie jest już technicznie–informacyjnie
taka, że umie sobie poradzić. Jak wiadomo tym, co się interesowali technicznym
uzbrojeniem informatycznym zaplecza filmu „Jurassic Park”, sześć minut pędu
długonogich gadów (jakby struthiomimów, gatunku środkowo–mezozoicznego)
kosztowało chyba ponad miesiąc pracy programistów, a przecież nie było tam ani
śladu sprzężenia zwrotnego, toż bohaterowie filmu żadnych gadów wszak nie widzą i
uciekają „przed nikim” — a wrażenie, że gady mkną obok nich, to efekt trików
montażowych, a nie „ogólnej fantomatyzacji”. Wszelako zestawienie czasów —
miesiąc pracy dla złudy parominutowej — wyjaśnia (używano dla filmu
najpotężniejszych komputerów dzisiejszych) i uświadamia, na jak wczesnym
początku drogi musi się również cała technika fantomatyzacji znajdować obecnie.

3
Ponieważ książkę, zawierającą prognozy technik iluzji (jest ich więcej — odsyłam
22
do książki Summa Technologiae, nieosiągalnej zresztą na rynku księgarskim) pisałem
w epoce sprzed lotów kosmicznych ludzi, nie tknąłem kwestii najbardziej może
karkołomnej. To, żeby człowiekowi roić, jakoby zerwał z gałęzi jabłko, można, lecz
już zjeść jabłka rojonego mu się nie uda, chyba że tu coś nowego dla zębów, dla jamy
ustnej i dla kubków smakowych języka wymyślimy. Natomiast brak ciążenia
właściwie nie może być z jako–taką sprawnością symulowany i dlatego bardzo łatwo
rozpoznać, oglądając film o locie kosmicznym, czy to autentyk, czy blaga. Ludziom
się całkowicie zmienia motoryka ciał, a wszystkie przedmioty nie umocowane
zachowują się bez grawitacji w sposób szokująco odmienny od ziemskiego sposobu.
Na symulację tego ani wizualnie, ani percepcyjnie sposobu nie znamy. (Na razie
zresztą cierpią od tego ludzie filmu). A już tak zwanego proprioceptywnego
(głębokiego) czucia mięśniowego oszukać się nie da: albo trzeba wprowadzić
człowieka na orbitę rzeczywiście, albo spasować. Podobnych utrudnień na drodze ku
ideałom fantomatyzacyjnym jest zresztą wiele i na razie w pełni sprawna może tu stać
się jedynie fantastyka zwana „naukową”, bo słowem opisać da się wszystko.

4
Szczególnie atrakcyjna może wszakże stać się fantomatyka dla i ludzi
upośledzonych (jak chorzy, zmuszeni przebywać w łóżku, jak ci, których porażenia
rdzeniowe przywiązały do wózków czy foteli na kołach, a w przyszłości nawet dla
niewidomych, kiedy będzie można drażnić specyficznie i wprost ośrodek mózgowy
wzroku w „szczelinie ostrogi” — fissura calcarina), umożliwiając im nawet
iluzoryczną aktywność cielesną, w postaci pływania, jazdy na nartach, i innych
rodzajów sportu. Można sobie wyobrazić przemianę (naturalnie iluzoryczną) każdego
amatora tenisa w Borysa Beckera czy Lendla, a niewiasty w Martinę Navratilową.
Jednak w tym celu nie wystarczy już wpływanie na zmysły wzroku i na dotyk dłoni —
staje się potrzebny kostium z wszytymi elektrodami, przypominający elastyczną
odzież płetwonurków i dopiero tak otulony wraz z głową może podlegać doskonalącej
się iluzji pobytu tam, gdzie naprawdę go nie ma, dotykania obiektów, które w istocie
nie istnieją poza potokami informatycznymi rodem z fantomatu, obserwowania scen,
zjawisk, istot, jakie sobie zamarzy, włącznie z aniołami, demonami, dinozaurami
(gdyby ktoś na to miał ochotę), wszelako kwestia dotyku prowadzi nas do tematu
uznawanego za szczególnie drażliwy.
W prognozie sprzed lat trzydziestu ograniczyłem się do przeżyć erotycznych
zarazem wyszukanych i dość skromnych (klient rodzaju męskiego łaknąłby chociaż
pocałunku słynnej gwiazdy filmowej czy jakiejś królowej, co by się zrobić dało
niechybnie). Obecnie obyczajowość cywilizacji permisyjnej doprowadza do
skrajności, którą jest domaganie się odpowiedzi na pytanie, „czy możliwy jest seks z
komputerem”, a jakiś autor, wysiliwszy imaginację, powiada, że można być homarem
nawet w kopulacji z homarzycą! Przed laty ograniczyłem się do skromniejszego
wcielenia, mianowicie krokodyla, i to poza sferą jego ciągot miłosnych. Lecz bardziej
serio, poza wszelką pruderią zresztą, wypada odpowiedzieć, że nawet seks słonia ze
słonicą, czy z boginią Wenus, byłby w zasadzie możliwy po wdzianiu odpowiednio
skrojonego kostiumu i zarazem po utworzeniu właściwego programu dla dostatecznie
mocą obliczeniową dysponującego komputera. Jeżeli kogoś wizja taka razi, może
starczy rzec, że układanie takich programów będzie niechybnie kosztowne aż do
czasu, też leżącego w sferze potencjalnych ziszczeń, kiedy programy będą powstawały
„same” pod władzą programów–rodzicieli, człowiek natomiast zdoła się ograniczyć
23
wtedy do wydawania programom–rodzicom odpowiednich rozkazów z odpowiednimi
ograniczeniami (tj. podając warunki treściowe, brzegowe i graniczne w dostosowaniu
do ludzkiej fizjologii i anatomii). Szczególne problemy powstać bowiem mogą gdyby
ktoś chciał (dziwaków nie brak na tym świecie) zostać np. ogoniastą małpą, bo
CZYM właściwie miałby się posłużyć, ażeby poruszać fantomatycznym ogonem…?
Jeżeli już dotarliśmy do fantomatycznego seksu, dodać wypada, iż w gruncie
rzeczy chodzi o nieustającą dotychczas technologię osobliwej onanii i na tego, kto by
TAKI fantomat przezwał onanizatorem ze sprzężeniem zwrotnym i z fikcją
„kochanka” albo „kochanki” gniewać się nie należy, ponieważ sęk będzie w tym, że
taka nazwa nie jest przezwiskiem, ale pochodzącym spoza obrębu fantomatyzacji
zwyczajnym NAZWANIEM realnego stanu rzeczy.
Bardziej cenne pozaseksualnie i pozarozrywkowo czynności, które mogą podlegać
fantomatologii, to różne rodzaje treningu, od bokserskiego, a szerzej sportowego po
umiejętności lekarza, a zwłaszcza chirurgów, dzięki szansie dokonywania fikcyjnych
operacji na fikcyjnych pacjentach, ale też trening kierowców od bobslejowych do
samochodowych i do lotników. Zresztą i pływackie zawody można będzie symulować
odpowiednimi programami, przy czym same bodźce adresowane do zmysłów i do
proprioceptorów okażą się zapewne niedostateczne, ponieważ rozmaite siły (pozorne,
jak wyniki bezwładności w stylu sił Coriolisa, oraz opory, jakie stawia np. woda
pływakowi lub powietrze przy swobodnym spadaniu) trzeba będzie pewno wzmacniać
dodatkowo sterowaniem mikroszkieletów, wszytych w kostiumy z elektrodami. W
jakiej mierze takie „doprawienie” informatycznej ułudy okaże się wskazane, rzec na
razie trudno. Mianowicie człowiek jest przede wszystkim WZROKOWCEM, a
doświadczył tego każdy, kto zaznał wizualnych obrazów ruchomych Circaramy. Nie
wiem, czy jakaś jest w Polsce: doświadczyłem jej we Wiedniu. Ekran stanowi niejako
ściany studni, otaczające widza ze wszystkich stron; zalecają oglądanie
wyświetlonego wokół filmu na stojąco, gdyż powiększa to efekt ułudy i kiedy obraz
ukazuje np. koszący lot nad wąwozami czy nad miastem, może nabawić
autentycznego zawrotu głowy, chociaż umieszczone w naszym błędniku otolity
żadnych przecież wpływów sił odśrodkowych ani przyspieszeń nie doświadczają:
złudzenie, wywołane czysto wizualnie, dominuje nad innymi sygnałami zmysłów.
Przez to właśnie sprawa proporcji lub dysproporcji pomiędzy tym, co jako część
naszego sensorium impulsom fantomatu podlega, a tym, co pozostaje poza ich
zasięgiem, może być przede wszystkim w eksperymentach ustalona.
Bardzo zresztą możliwe, że odemkną się i takie sfery iluzji, których nie nazwałem,
ani nawet o nich nie wspomniałem, ponieważ świat przeżywany zmysłami jest
zbudowany z bodźców, jak się już rzekło w obu cytowanych tezach filozofów, i to, co
można imitować, stanie się przeżyciem w granicy już nie odróżnialnym od
autentyczności. Czy to będzie schodziło na złe, nie tak znów trudno orzec, ponieważ
NIE MA chyba takiej dziedziny żywota, której dzięki środkom techniki (a szerzej —
wiedzy naukowej, technicznej, chemicznej) nie dałoby się wywichnąć w nadużycie.
Człowiek stwarza narzędzia niekoniecznie z zabójczymi intencjami, ale do takich
zamierzeń narzędzia zazwyczaj łatwo dają się dostosować. Warto sobie (już
całkowicie poza sferą fantomatologii) uzmysłowić, jak obojnacze, janusowe,
ambiwalentne oblicze ma „postęp”. Gdyby nie było udoskonalanych w medycynie
przetaczań krwi, to by ludzie operowani oraz ludzie cierpiący na hemofilię umierali
beznadziejnie dość często, lecz obecnie wielkie skandale wstrząsają ochroną zdrowia
w najświetniej rozwiniętych (jak Niemcy czy Francja) krajach dlatego, ponieważ
przetaczana z konserw krew okazuje się nieraz zakażona wirusem AIDS i tym samym

24
akt ratunku przed wykrwawieniem obraca się w wyrok na parę lat odroczonej śmierci.
Przynajmniej dopóki nie zostanie wykryty sposób skutecznej terapii antywirusowej.
Lecz gotówem założyć się, że powstawać będą, a nawet już powstają nowe formy
„progresu” i z nimi nierozerwalnie zrośnięte nowe formy zagrożeń: taki bowiem jest
świat, w jakim żyjemy, i przecież ryzykuje ten, kto spada z samolotem.

5
Czy trzeba dopowiedzieć, że postęp i jego przekleństwa pozostają zarezerwowane
przede wszystkim dla mieszkańców państw, stanowiących cywilizacyjną czołówkę
świata? Że ubodzy i głodujący nie mogą zaznać mąk przesytu, znudzenia,
zobojętnienia, rozpasania wreszcie, że nawet to, co dla mnóstwa ludzi na Ziemi łatwo
jest dostępne, jak telewizja, także satelitarna, uczy agresji nawet małe dzieci, zaś o
zdziczeniu maluchów powiadamia nas prasa bogatych krajów? I bieda ma zatem
swoje plusy!
Nie zamierzam wszakże tutaj moralizować: uwagi moje są raczej refleksją,
poświęconą przede wszystkim nowym obszarom przeżyć, jakimi potrafi obdarzyć nas
cywilizacja, w której wszystko ulega jednocześnie ułatwieniu i potencjalnemu
zagrożeniu ludzkich wartości, wraz z życiem. Takiej obojnaczości żadna już
innowacja techniczna z żywotów ziemskich na pewno nie wypleni. W powieści Wizja
lokalna zarysowałem cywilizację innoplanetarną, której mieszkańcy są doskonale
zabezpieczeni tak zwaną tam „etykosferą” przed każdą formą agresji, przed każdą
trucizną, kulą, gwałtem, ażeby dojść do konkluzji, że stają się więźniami technicznie
przyrządzonego i nieznośnego przez to raju, który ostatecznie okazuje się najbardziej
komfortowym z możliwych piekieł…

6
Zza grzbietu XXI wieku wychyla się tymczasem ni to fatamorgana, ni to widmo
biotechnik molekularnych. Human Genome Project, już w pełnym biegu, ma nam dać
w ręce dzięki pozyskaniu CAŁEJ informacji o genomie człowieka (niezbyt)
rozumnego szansę sterowania ewolucją naszego własnego gatunku. Tym samym
informacyjna wszechmoc zjawia się jako nieznana w dziejach naszych zupełnie
nieprzewidywalna ze sto lat temu groźba: poświęciłem jej ongiś jedną z „podróży”
Ijona Tichego, przybrawszy rzecz, czyli temat autoewolucyjny, w szaty błazeńskiej
groteski, ponieważ serio pisząc, zostałbym choćby i wbrew woli zmuszony być
piewcą Nowej Apokalipsy. A to dlatego, ponieważ przekonałem się w ciągu
czterdziestu lat uprawiania zawodu pisarza z predykcyjnymi pretensjami o tym, że
cokolwiek przyprawiałem jednostronnym optymizmem, rzeczywistość biegu dziejów
doprawiła okrucieństwem bez miary; tak że postęp stawał się niejako w zarodku —
nadzieją lepszego bytu, a w istocie — dzięki rozwojowi, żywionemu wiedzą —
nowym nieszczęściem. Okropna rzecz, pisać o tym, ale przecież radioaktywnie zatruty
Ocean Lodowaty, całe dziedzictwo nuklearne posowieckich „tajnych miast”, całe
mnóstwo ginących gatunków fauny i flory oznacza stopniowe przeciążenie biosfery,
powodowane przez człowieka, powoduje biedy, na które już nam żadna ułuda
informacyjnie wywołana ratunku nie przyniesie: albowiem jak byt nasz był osadzony
na jawie i w jawę wkorzeniony, tak musi być też i w przyszłości. Nigdy nie byłem
przeciwnikiem naukowego postępu, ani tak zwanym „technokratą”: ale starałem się

25
zachować najpierw umiar, a potem i odnaleźć właściwy szlak dla myśli wzdłuż owej
wąskiej grani, po której ziemska cywilizacja porusza się w niewiadomą przyszłość,
łudzona mirażami nie tylko informacyjnie zaklinanej nadziei, że nie runiemy w
otchłanie, ziejące po obu stronach tej przepaściście zawieszonej nad Kosmosem
drogi…

26
Eksformacja

1
Eksformacja — nie ma takiego terminu. Jest mi jednak potrzebny dla skrótowego
ukazania różnicy pomiędzy dotychczasowym zakresem znaczenia EKSPLOZJI
INFORMACJI. „Eksplozja” pochodzi od łacińskiego EXPLODO, oznaczającego
(mniej więcej) odrzucenie. W samej rzeczy chodzi o wybuch, który rozpręża i tym
samym od– czy też rozrzuca materiał (wybuchowy, ale tutaj to omal masło maślane),
tak że substancja, zdolna do takiej przemiany chemicznej, w ułamkach sekund
rozprzestrzenia się (gwałtownie), ażeby zająć przestrzeń wiele tysięcy razy większą od
jej pierwotnej, niewybuchłej postaci. „Informacja”: słowo to również jest pochodzenia
łacińskiego i oznacza „formowanie”, „tworzenie” (np. jakiegoś wizerunku, obrazu).
Pojęcie informacji zrobiło w XX wieku znaczną karierę i stało się substratem i
kierunkowskazem powstających i rosnących w potęgę technologii. Informacja jednak,
można by sądzić, nie wybucha, a zarazem eksplozja nie tworzy niczego, lecz przecież
raczej niszczy. Otóż tak wcale nie jest w naturze: panuje w niej, powiedziałbym,
właśnie przeciwieństwo destrukcji, tyle, żeśmy przywykli nazywać ów proces zgoła
inaczej i umieściliśmy go poza rozdziałami wiedzy, traktującym— o ludzkich
technologiach, mianowicie tam, gdzie technologie jeszcze (a może tylko prawie
jeszcze) nie dotarły: w biologii mianowicie. o Eksplozje najbardziej typowe,
konieczne i najbardziej podtrzymujące, jako umożliwiające życie, zachodzą wokół
nas wszędzie i — co niby dziwniejsze — w nas samych, a gdyby ktoś chciał uściślić
rzecz, w żeńskiej odmianie gatunku homo. Jajeczko kobiece ma około 0,1 mm
średnicy, tyle mniej więcej co przeciętna, najmniejsza komórka dorosłego organizmu,
i w ciągu kilku miesięcy „wybucha” w organizm, który już po przyjściu na świat w
tempie coraz wolniejszym sterowany i regulowany wewnętrznie „wybuch”
kontynuuje, ażeby osiągnąć objętość mniej więcej dziewięć bilionów razy większą od
startowej (jajeczka zapłodnionego). Jak już wiemy najpewniej, cały plan organizmu,
czyli efekt tej konstrukcyjno–wybuchowej ekspansji, mieści się gotowy w jądrze
jajeczka i dla powodów, o jakich tutaj mówić nie mogę (bo by nam wywód
rozsadziły), podobny, choć nie całkiem taki sam „budowlany projekt” mieści się w
główce męskiego plemnika, która poza tym, że ów plan zawiera, jest „zapalnikiem”
bioeksplozji (którą byłbym gotów zwać „eksformacją”, ponieważ chodzi o
skomputeryzowane biochemicznie INSTRUKCJE pewnej budowy). Ponadto należy
zwrócić uwagę na osobliwy fakt, stanowiący największą różnicę między naszymi
technologiami wszelkiej konstrukcji (np. aut, komputerów) i wszelkiej budowy (np.
mostów, domów) a technologią, jakiej używa życie, dopracowawszy się jej w czasie
ostatnich trzech (prawie że czterech) miliardów istnienia planety Ziemi.

3
Eksformacją biotechnologiczna, zwana w biologii ontogenezą, a prościej rozwojem
płodowym, zachodzi niby to znacznie wolniej aniżeli zwyczajna detonacja naszych
materiałów wybuchowych, ale jeśli już pominąć nawet przeciwstawny niszczeniu
efekt embriogenezy, boć ona stwarza, a nie niszczy, przecież w porównaniu czysto
pomiarowym zjawiska rozplemu żywych organizmów wedle proporcjonalności nie
ustępują błyskawicznym eksplozjom różnych dynamitów, ponieważ objętość końcowa
27
od początkowej jest dla materiałów wybuchowych najwyżej miliony razy większa,
lecz dla nas i innych rozmnażających się od jajeczka żywych stworzeń większa jest
BILIONY razy. Ta stanowi wszak milionkrotną różnicę na korzyść życia: jeżeliby
zatem uwzględnić odmienność stanu początkowego od końcowego, w procesach życia
konstruowanie zachodzi nie mniej „wybuchowo” niż w technice rozmaitych typów
„wysadzania w powietrze”. Jest to dla nas może jeszcze nie całkiem doniosłe i
powyższe zestawienia mogą patrzeć na z lekka naciągane: byłoby to istotnie błahą
odmiennością używanego tu i tam języka opisów, rzecz jednak w tym, że my ową
eksformacyjną technologię życia będziemy umieli w przyszłości przejąć i zastosować
dla nie tylko biologicznych celów.

4
Mianowicie różnica między konstruowaniem technika–inżyniera i budowaniem
organizmu nie ogranicza się do powyższej dyferencji. Najbardziej istotna różnica nie
spoczywa tam, gdzie obserwujemy raz wybuch chaotyczny, entropię gwałtownie
powiększający, a raz „wybuch” rodzicielski, sterowany z niedościgłą dla nas precyzją,
który entropię, zawartą w płodzie, kosztem jej wzrostów gdzie indziej pomniejsza.
Najważniejsza dla inżynierii różnica spoczywa w tym, że w naszych technologiach
zawsze do czynienia mamy z materiałem i narzędziem, z tym, co jest obrabiane, i tym,
co obrabia, z budulcem i budowniczym, z operowanym i operatorem, z pojazdem i
kierowcą, z tworzywem i instrumentem, ale tej zasadniczej dwoistości zjawiska życia
nie znają. Żywe „samo siebie buduje”, samo kształtuje, samo steruje, samo reguluje,
samo stwarza, stąd też moja dla skrótowości (a nie ze słowotwórczej pasji) wzięta i
zaproponowana „eksformacja” jako zdumiewające zjawisko „projektowania
potomków”, „konstruowania dzieci”, których projektanci–konstruktorzy może nawet
nie chcą, i nie wiedzą nigdy, jaka z permutacji i z kombinatoryki ich genów wyniknie
składanka jako niemowlę… To jest najdziwniejsze i to będzie pewno dla przejęcia
inżynieryjnego najbardziej trudne…

5
Prawie na pewno nie było aż tak, jak wyobrażał sobie Marks, że to praca stworzyła
człowieka, jego powstanie z hominidów, ale na pewno prototypem dowolnego
narzędzia naszej ery była ręka. Bez uwolnienia wyprostnej ręki od funkcji
wspierających, czyli bez naszej dwunożności i wyprostnej postawy, byłoby z
powstaniem manufaktury (czyli rękodzieła) i automatyki współczesnej bardzo
niedobrze. Eolit, czyli posługiwanie się kamieniem nieobrobionym, paleolit, czyli
długie wieki technologii łupania i ociosywania minerałów, początek neolitu i tak dalej
byłyby niemożliwe bez pozostającego w mocy do dzisiejszych dni podziału na to, co
obrabia, i na to, co jest obrabiane. Oczywiście — tam gdzie wkracza w obszar
naszych potrzeb mniej albo bardziej „zdomestykowane” życie, podział traci (ale tylko
częściowo) zasadność. Rolnik wszak nie obmyśla budowy ziaren, z jakich mu zboże
wyrośnie, ale narzędzi do uprawy roli też potrzebuje; i to samo mamy w każdej
hodowli, żywca na przykład (w hodowli zwierząt domowych, np. psów, to samo).
Jednakowoż to jest alfabet, o którym nie warto mówić, kiedy patrzymy w przyszłość.
W moich opowiadaniach SF z ziaren zasadzonych powstają (bo wyrastają)
magnetowidy czy meble, ale tak dobrze być jednak nie może: nie wiemy w jakich

28
postaciach nastąpi zjednoczenie narzędzia–obrabiarki i materiału obrabianego, ale
skoro życie ziemskie potrafiło tej sztuki dopiąć, nie widzę żadnych niepokonywalnych
przeszkód na drodze, wzdłuż której i my, może już w XXI wieku, podobne
technologie nauczymy się szybko wdrażać w życie. Nie trzeba od razu myśleć zbyt
fantastycznie: o worku siemienia, który polany czymkolwiek wrasta w glebę, ażeby z
niej wyrosło lśniące auto. Idzie jednak o rzecz zasadniczo poważną, o tę mianowicie,
że koszty produkcji będą może nie aż tak zerowe prawie, jak koszty wzrostu
chwastów czy trawy, ale jednak okażą się niesamowicie skromne w zestawieniu ze
współczesnymi. A ponieważ nie wiemy ani jaką drogą, ani jakimi metodami ta
największa z rewolucji naukowo–technicznych się ziści, podobnie jak do dziś nie
wiemy, jak się przed miliardami lat na Ziemi urzeczywistniła (czyli jak życie
powstało, mówiąc po prostu), nie należy zbyt pochopnie wybiegać w przyszłość
nieznaną, ale brzemienną tym, co jest do odkrycia i/albo wynalezienia, ponieważ nie
będzie to ani rzetelne odkrycie, ani niesłychany nigdzie wynalazek. Przecież życie
ziemskie „wymyśliło” ową technologię tak dawno i tak powszechnie i z takim
sukcesem ją realizuje (przy okazji nas samych wykonawszy), więc nie należy
umieszczać tej metody inżynieryjnej pomiędzy bajkami. (Dlatego takie gwiazdy
przewodnie przyświecały mi w latach 1962–3–4, kiedy pisałem książkę pt. Summa
Technologiae). Dopisałem się w niej nawet „czystej hodowli informacji”, czyli takiej
hodowli, która by już w życiu wcale służyć nie miała, lecz która by nam jako plon
dostarczała teorii naukowych: ale to temat trudny, szeroki i całkiem osobny.

6
Trzynaście lat temu ówczesna Polska Akademia Nauk zwróciła się do mnie o
prognozę rozwoju biologii i napisałem ją, wziąwszy za granicę okolę roku 2060,
ponieważ było to (z grubsza) podwojenie okresu, odkąd Crick z Watsonem wykryli
kod dziedziczności DNA, uniwersalny klucz–projekt wszystkiego, co żywe na Ziemi.
Prognoza nie ujrzała światła w Polsce, przyszły bowiem burzliwe czasy (pierwszej)
Solidarności wraz z ich wojennym efektem. Opublikowałem ową prognozę (może i
głupio, na pewno nawet) w Niemczech, w pewnej antologii SF i przekonałem się o
tym, co później i gdzie indziej tamże ogłosiłem, że mianowicie jeżeli ktoś pragnie
ukryć przed całym światem jakąś informację (tu: prognozę) tak, żeby zginęła w
sposób doskonały ze wszystkich oczu, to nie do kas pancernych, nie do lochów, nie
pod szyfry, nie przez zakopanie o północy na cmentarzu trzeba ją ukryć: wystarczy
opublikować ją w milionowym choćby nakładzie jako Science Fiction, to i diabeł nie
pozna się na niej i w ten sposób najznakomitszy zostanie ukryta. Tam więc właśnie
napisałem mniej więcej to, co tu powyżej streściłem (było to bardziej fachowo
wyrażone, bo pisałem z myślą o fachowych adresatach), a ponadto dodałem, że
wywodzić się pocznie z przeciętnej inżynieryjnie czy i biotechnicznie biologii
zarówno domena cisbiologiczna jak trans–biologiczna. Miało to zaś oznaczać tyle:
najpierw posiądziemy elementarze wiedzy, przeciętnej, czy ściągniętej po prostu z
obszaru życia, i dopiero później, jak sądziłem, zapewne po roku 2060, przejdziemy w
obszar „transbiologiczny”. Różnice widziałem zaś, aby to najprościej wysłowić, tak
oto: cis–biologia inżynieryjna jest tym, co po swojemu na użytek prokreacji czyni po
prostu życie (stąd się np. wywodzić może mikrochemiczne konstruktorstwo wszelkich
leków tak skierowanych w przyczyny schorzeń, jak pocisk w cel: dzisiaj na taką drogę
wkroczyły wielkie koncerny, zwłaszcza w USA, jak GEN–TECH np., i jest ich już
wiele, choć efekty na razie skromne). Trans–biologią natomiast pozwoliłem sobie
29
nazwać techniki produkcyjne, już nic a nic z procesami życia nie mające wspólnego
wprost poza tym, że wywodliwe będą z metod, jakimi pracuje życie, tj. jakich używa
dla tworzenia genomów, dla ustalania określonych gatunków roślin i zwierząt (czemu
by dziś odpowiadało ustalenie projektowo–montażowe gatunków aparatów
telewizyjnych i samochodów), dla obdarzania tych gatunków zdolnościami
samonaprawczymi w razie uszkodzeń (tj. potencją samoleczniczą, jak bliznowacenie
ran na przykład), i tak dalej. Jednym słowem sugerowałem, że się najpierw wewnątrz
domeny biologicznej konstrukcyjnie rozgościmy, a potem i poza nią, douczeni
należycie, jako najwyższej klasy „plagiatorzy”, wkroczymy (stąd właśnie mi się
wzięły owe „cis” i „trans” jako dodatki określające). Taka kolejność prac kreacyjnych
wyglądała na prawdopodobną z powodu do zaprezentowania.

7
Sądzę, że bystry Czytelnik orientuje się, czemu w piśmie, poświęconym szeroko
rozumianej praktyce informatycznej wspominam o powyższym temacie: przecież
idzie o zawłaszczanie najcenniejszej i najbardziej wyrafinowanej INFORMACJI
(eksformacją na użytek tego tekstu nazwanej), jaką można sobie w ogóle wystawić, a
można, ponieważ ona w ziemskiej biosferze powszechnie istnieje i od miliardoleci
funkcjonuje. Wszelako dodałem podział następujący. Jak się dzisiaj w nauce
powszechnie uważa, co najmniej dwuzakresową sprawność wykazuje proces życia. Po
pierwsze tę, że sam powstał, na ogół bowiem nie sądzi się, że jakowiś życzliwi
praastronauci przywieźli na Ziemię zarodki życia i na niej zasadzili. A zatem (to po
wtóre) okazało się, że życie, samoistnie na Ziemi, w jej oceanach zrazu pieniące się,
wylazło po milionoleciach na kontynenty, przekształciło atmosferę, tlenem ją dla
przyszłych zwierząt uzdatniając, i olbrzymim drzewem ewolucyjnym
gatunkotwórczości zapełniło otulinę planety tak, że jest do dziś na jakieś 10
kilometrów (albo więcej nieco) gruba (gdy mierzyć od dna oceanów pod spodnią
część stratosfery, do której czasem ptaki mogą podlatywać). Otóż ta dwuskładnikowa
potencja, właściwa życiu, NIE musi wcale być przez inżynierię człowieka skopiowana
czy przejęta, ponieważ wprawdzie „życie inaczej konstruować nie mogło” (przecież
jakby SAMO nie zdołało powstać, to by także niczego „w dalszym ciągu” stworzyć
nie potrafiło, boż nie byłoby KOMU cokolwiek organizować w ustroje), natomiast
my, ludzie, możemy porzucić założenie, iż zaczekamy „aż samo coś powstanie, a
potem dzięki samopowstaniu nauczy się, „co dalej z tym robić”. Otóż my naszemu
tworzywu biotechnicznemu nie będziemy musieli aż takiej dubeltowej umiejętności
wprawić, albowiem tworzywo nie musi „samo” powstać: MY możemy je po swojemu
syntetyzować i obdarzyć zdolnością rozwijania się w kierunku DLA NAS
KORZYSTNYM. Mchy, porosty, dinozaury nie DLA NAS wszak powstały,
natomiast jako władcy bioinżynierii będziemy zainteresowani w produkcji tego, co
NAM tak posłuży, jak np. dziś nabiał. A zatem, już bardziej abstrakcyjnie: zbiór
wszystkich możliwych budowlanych „elementów”, które mogą zostać zaopatrzone
uzdolnieniem dalszego rozwoju i swoistego projektowo (jak w jajku)
zaprogramowanego budowania jest najprawdopodobniej większy od zbioru takich
„elementów”, które mogą zarówno (po pierwsze) bez wszelkiej z zewnątrz
skierowanej inżynieryjnej pomocy, jakową zaródź utworzyć, a następnie, po wtóre, z
tej zarodzi wywieść ewolucję tworów w rodzaju flory i fauny. Drugie zadanie samo
ma powstać i samo to powstałe obdarzyć uniwersalną potencją sprawczą, rozprężną
prospektywnie w obszarach mórz i lądów planety. Jest ono niechybnie
30
TRUDNIEJSZE aniżeli tamto pierwsze, ażeby tylko to syntetyzować, co by
(wprawdzie samo do powstania niezdolne) posiadło sprawcze moce rozmaite.
Na prostym przykładzie można rzecz unaocznić. Koni nie produkujemy i
produkować z pierwiastków nie umiemy. Natomiast jakieś „prakonie” były przodkami
koni w ich obecnej rozmaitości. Zegary, w przeciwieństwie do koni, same narodzić się
oczywiście nie mogły (mam na myśli zegary „sztuczne”, które umieszczamy na
wieżach ratuszowych bądź też na przegubach rąk, a nie „naturalne” w rodzaju drgań
atomowych czy obrotów planet). Myśmy więc zegar wymyślili, skonstruowali, a od
najpierwszych poszły „radiacje ewolucyjne”, a nawet „specjacje” czyli
gatunkotwórczość zegarowa, albowiem zadanie (pomiar czasu) jest wspólne dla
klepsydry z piaskiem i dla kwarcowego zegarka, ale budową, każdy to wszak przyzna,
różnią się nie mniej, niż komar od konia. Tak zatem: na Ziemi powstało tylko to
oczywiście, co powstać mogło SAMO: bez interwencji zewnętrznej, jako produkty
startowe ewolucji naturalnej, i zapewne mnogość rozmaitych a niezbędnych dla
narodzin życia warunków, które spełnione być muszą (inaczej życie się nie narodzi)
jest daleko większa aniżeli liczba warunków, jakie spełniać musi to, co samo by nie
powstało, ale co my zdołamy pchnąć na drogi dalszej specjalizacji nam potrzebnej.
Zresztą cały zbiór naszych technologii od wytopu metali po konstrukcję
wahadłowców to nic innego przecież, jak „popychanie” i „nadawanie rozpędu”
pewnym technikom, w powiciu bardzo elementarnym, zawodnym, wysoce
awaryjnym, a postęp techniczny (między innymi) zmniejsza zawodność, a zwiększa
pęki parametrów sprawności NAM potrzebnych. Chodzi więc o olbrzymią rzekę
procesów nie ze wszystkim nowych, ale takich, które umożliwi przejęcie talentów
życia po to, ażeby budować podobnie jak życie, ale już jakieś „pozażywe” twory.
Pierwszym „pozażywym”, jaki mi na myśl przychodzi tutaj, może być KOMPUTER i
potrafilibyśmy już wyrysować — poczynając od liczydeł — całe ogromne ewolucyjne
drzewo coraz sprawniejszych komputerów, które — wszystkie — pracują
informacjoprzetwórczo, mniej więcej tak, jak informacjoprzetwórczo pracowała i
pracuje naturalna ewolucja. Ona robiła swoje „dla siebie”, a komputery robią coś
podobnego ale wyłącznie „dla nas”. Jednym słowem, postulowałem potencjalne
istnienie dwóch zbiorów „urządzeń”, co by można też jak w logice narysować:
większy krąg obejmuje to, co nie powstaje samo, ale co raz powstałe potrafi się
„rozmnażać” i coś zadanego „konstruować”; a mniejszy krąg wewnątrz tamtego
większego „potrafi” zarówno sam powstać (przy sprzyjających warunkach
naturalnych, oczywiście), a ponadto zdoła uruchomić jakąś ewolucję: na Ziemi
biologiczną z DNA, z białkami, ale gdzie indziej może odmienną…
Ot i wszystko, co można wymyślić na temat sprawstwa konstrukcyjnego, NIE
odwołując się (to warunek konieczny i nieprzekraczalny) do żadnych sił witalnych, do
żadnych praastronautów, do żadnych czarodziejskich mocy, albo do zielonych
ludzików…

8
W zakończeniu powrócę do dnia dzisiejszego. Ostatnimi czasy pisało się wiele o
zagrożeniach pochodzących z inżynierii genetycznej, z Human Genome Project, z
klonacji. Ta ostatnia zwłaszcza dorobiła się gromów padających też z Watykanu. Otóż
żadnej klonacji dwaj uczeni amerykańscy nie wykonali. Klonacja byłoby to
wzięcie z organizmu żywego komórki i wyhodowanie z niej (jak z zapłodnionego
jajeczka) bliźniaczego organizmu. Oni natomiast uczynili tylko to, co teraz możliwe.
31
Brali ludzkie jajeczko, omyłkowo zapłodnione niejednym plemnikiem lecz dwoma
(co takie jajeczka zawsze skazuje na krótki wstępny „rozruch” podziałowy i zgon, bo
nic dalej powstać na skutek dubeltowej inseminacji nie może — na pewno). Następnie
zaś (co już robi się np. u bydła z jego jajeczkami) rozpuścili odpowiednim enzymem
tak zwaną ŻONA PELLUCIDA, która otulała już na dwoje podzielone jajeczko. Kiedy
tych dwu komórek, w jakie pierwsze jajeczko się podzieliło, już nic nie spaja, każda z
nich zaczyna osobną drogę rozwojową (ale tak czy owak rychło ginie —
przypominam o zgubnym błędzie „pseudopoczęcia”, co był na początku). To i
wszystko. W moich oczach było to nie żadne klonowanie, lecz tylko sprawdzenie
wiedzy nie doświadczonej jeszcze, że niczym się rozwój jajka ludzkiego po
zapłodnieniu nie różni od rozwoju jajeczek wszelkich innych zwierząt.
To się może podobać komuś albo nie, lecz na temat niezbitych faktów nie można
się sensownie spierać. Oczywiście, informacyjna zawartość, a tym samym
prospektywna potencja (tak by rzekł stary Driesch) inna jest u ludzkiego, inna zaś u
krowiego jajeczka, ale tego — dlaboga — nikt nie neguje. Czy było konieczne takie
eksperymentowanie — tu można być zdań rozmaitych! Lilienthal, latając na swoim
szybowcu, sto lat temu kark skręcił. Czy to było potrzebne? Blanchard wcześniej miał
z balonami niemiłe przygody. Czy to było potrzebne? Widzę pierwsze kroki — a
raczej pełzanie — w stronę, w której kryje się to, co wyżej usiłowałem opisać z
trudem, typowym dla długoterminowej prognozy, ponieważ zjawisk przewidywanych
a nieznanych NIE MA na razie, to i terminów, czyli języka ich deskrypcji brak. Były i
będą małe kroczki w tę stronę, i jeśli cokolwiek wiem o poznaniu ludzkim, wiem, że
nic go na tej drodze — czy ku dobru, czy ku złu — żadnymi admonicjami, żadnymi
kondemnacjami, żadnymi ustawami nie powstrzyma.
Taki jest już nasz los „faustowski”, ale w ocenę człowieka nieubłaganie
zmierzającego w przyszłość tutaj się wdać nie zamierzam, ponieważ nie wartościuję,
pochwał ani potępień nie ciskam, lecz wyłącznie referuję to, co w łonie przyszłości
skryte. Oczywiście, różne rządy mogą wydawać ustawy z mocą zakazów, jak 160 lat
temu miał przed poruszającym się z prędkością piechura pociągiem iść strażnik,
machający czerwoną flagą, a jakby pociąg zdołał mknąć 40 km/h, to by (jak głoszono)
pasażerowie co do jednego zwariowali. Jakoś zakaz ustawowy padł, i jeżeli ludzie i
dziś (jak w Kijowie wobec końca świata”) wariują, jest to całkiem osobną historią…

32
33
Fantomatyka (II)

1
O przyszłości fantomatyki, o jej istotnych odmianach można by napisać jeszcze
wiele poza tym, com już w poprzedniej edycji „PC Magazine” omawiał. Ostatnim
czasem (piszę w grudniu 93) ukazało się w Niemczech kilka prac, poświęconych
wykazaniu mego antycypującego prekursorstwa w powyższej problematyce (nie mają
te prace nic wspólnego z SF, por. np. „Zukunftsstudien herausgegeben vom Institut
zur Technologiebewertung”, Berlin 1993, autor Bernd Flessner, artykuł pt.
„Archaologie in Cyberspace, Anmerkungen zu Stanisław Lems Phantomatik”). Autor
cytuje przy tym pierwsze, najstarsze wydanie mej „Sumy Technologicznej” z roku 64,
książki zatem, którą pisałem w latach 62–63 — ukazała się z rocznym opóźnieniem,
skromnym nakładem Wydawnictwa Literackiego i żadnego echa ani u nas, ani poza
naszymi granicami nie wzbudziła. Jedynym recenzentem stał się wtedy w
„Twórczości” Leszek Kołakowski, który moją (i inne też antycypacje lemowskie)
„fantomatykę” uznał za niemożliwą raczej w ziszczeniu, a znów, gdym po trzydziestu
latach w artykule, umieszczonym we „Wiedzy i Życiu”, powołał się na tamtą
publikację i moją, i jego, dość gniewnie odparł w liście do „Wiedzy i Życia”, że
przecież tak zwana „fantomatyka” czy też „Wirtualna Rzeczywistość” to nic więcej
nad iluzją, a z tego, że się człowiek poddaje iluzji nie wynika, jakoby pomiędzy jawą
a iluzyjną fikcją nie był w stanie dokonać rozróżnienia! Iluzja zatem — można by
dodać — żadnej innowacji w ontologię nie wnosi, gdyż ostateczność autentycznej
rzeczywistości w niczym przez technologie „cyberspace” nie może zostać naruszona:
wszak ten, kto uda się do „fantomatu”, wie, że będzie w nim przeżywał zamówione
fikcje, i ta świadomość nie może go opuścić. Czy będzie miał fantomatyczny romans
z królową angielską (w jej iluzyjnej młodości), czy otrzyma z rąk króla szwedzkiego
Nagrodę Nobla za dokonania, jakich na jawie nie dokonał, on o tym, że nie dokonał,
będzie wiedział doskonale.

2
Jakoż teza biskupa Berkeleya (esse est percipi) mogłaby się wbrew
antyiluzjonistycznej diatrybie Kołakowskiego ziścić dopiero na bardzo
zaawansowanym etapie dalszego rozwoju „fantomatyki”. Co do również
przywoływanej przeze mnie hipotezy: nihil est in intellectu, quod non prius fuerit in
sensu, tj. niczego nie ma w umyśle takiego, czego uprzednio w zmysłach nie było, jest
to hipoteza wysoce kontrowersyjna. Pozwolę sobie niżej przedstawić to na
konkretnym materiale. Otóż trzeba przyznać, com zresztą był już zrobił, że
„fantomatyka w pieluszkach”, tj. dzisiejsza, choć niejako na wyrost prostytuowana
(wg zamierzeń osiągnięcia „zaraz” tzw. „seksu z komputerem”), wskutek
niedoskonałości swojej, aż prymitywnej, czysto technicznej nawet, nie może
rywalizować z pełnią intensywnego odczuwania jawy jako przeżywanej
rzeczywistości ostatecznej. Toż nakładają ci, kliencie fantomatu, istne „uprzęże”
elektroniczne, Eyephones, Datagloves itp., i jak koń w szorach, ściśnięty popręgiem, z
pętlicą na podogoniu, z wędzidłem w pysku, powodowanym cuglami (jak ty —
impulsami komputera) nie możesz nie wiedzieć, że jesteś pod władzą (uprzęży —
koń, a fantomatu — człowiek).
34
3
Otóż na 225 stronie prawydania „Sumy Technologicznej”, w podrozdziale tam
otwartym, dokonałem podziału, dziś jakby nie istniejącego, fantomatyki na obwodową
i centralną. Zacytuję: „Fantomatyka obwodowa — to wprowadzenie człowieka w
świat przeżyć, których nieautentyczności wykryć nie można”. Można jednak wykryć
drugą odmianę, nie obwodową (czyli nie na okolę zmysłów ludzkich działającą
wirtualną rzeczywistość), lecz taką, którą trzeba nazwać „centralną”: albowiem
oddziałuje nie za pośrednictwem przesyłowym sensorium, lecz wprost: na mózg. Jak
dotychczas, nie wiadomo, jak można by to czynić bez naruszenia kostnej i oponowej
osłony mózgu. Tylko podczas dokonanej dla celów zabiegu chirurgicznego trepanacji
czaszki powtarzano drażnienie określonych miejsc obnażonej wtedy kory mózgowej,
co u operowanego wywoływało przeżycia, zakodowane w jego pamięci. (Np. przy
drażnieniu kory skroniowej słyszał — bez cudzysłowu, boż był pewien że „naprawdę
słyszy” — jakąś arię operową, jeszcze na dodatek „czuł”, że jej w operze słucha). To
jednak, co mogło zostać wywołane drażnieniem mózgu podczas operacji, tak samo
było nieprzewidywalne, jak nieprzewidywalna jest treść tego, co będziemy śnili w
czasie nadchodzącej nocy — przed zaśnięciem. Otóż do fantomatyki „centralnej”,
czyli tak doskonałej, aby dorównała poczuciem „ostatecznego przeżywania
nieusuwalnej rzeczywistości”, można przecież podchodzić i dochodzić stopniowo, a
zatem, skoro wstępne etapy fantomatyki obwodowej o tyle mamy z głowy, że już
odpowiednie aparatury skomputeryzowane na świecie istnieją i działają, wypada
uczynić krok czy skok naprzód w głąb przyszłości, jako następny. Pisałem co prawda
w gumie” roku 64, że rozmaite rytuały, hipnozy, sugestie, misteria, potrafiły z dawien
dawna wprowadzać grupy ludzi w stan przyćmionego (lub nie) zwężenia
świadomości, co mogło się kojarzyć z orgiastycznym nawet rozpasaniem. Ponadto
jako „prefantomatyczne” nazwałem przed 30 łaty skutki użycia narkotyków jak
meskalina, psylocybina, haszysz, LSD, i podobnych. Sam, w jednym z tekstów, które
zapisały moje zwierzenia, przedstawiłem przeżycia doznane przeze mnie po
(eksperymentalnym, pod kontrolą psychiatryczną) zażyciu 1 miligrama oczyszczonej
psylocybiny (wyciągu z halogenicznego grzybka Psilocybe). Otóż ja bym tu — na
użytek wywodu — podzielił tak na dwoje narkotyki, że z jednej strony mamy
substancje jak alkohol, psylocybina, a z drugiej takie, jak derywat lyserginowy,
albowiem stany halucynacji po zażyciu pierwszych zasadniczo nie odmieniają
świadomości człowieka, iż on zażył coś, co wprowadziło go w świat iluzji
widziadłowych, natomiast zażycie preparatów, jak LSD, może taką świadomość
unicestwić, tj. zatrzeć całkowicie. W tym tkwi niebezpieczeństwo, bo bywało, że po
zażyciu LSD człowiek pewien, iż jest „przenikliwy” dla wszystkiego, po prostu
wchodził pod nadjeżdżające auto i na miejscu mógł ponieść śmierć, gdyż brakło mu
wtedy poczucia zagrożenia, nieobecnego w jego (przytrutym) umyśle. Ale
powiedziane jest mi tylko wstępem do krótkiego rozważenia dwu problemów: po
pierwsze, czy i jakie mogą się okazać w przyszłości szansę „instrumentalnego
pogrążenia człowieka w przestworze fantomatyki centralnej” — czyli poprzez
oddziaływanie na jego mózg bez użycia jakichkolwiek środków chemicznych —
narkotyków (oraz działań typu hipnozy, narzuconej przez „osoby trzecie”). Po wtóre,
czy już teraz w normalnym stanie ciała i ducha przebywający człowiek może
przeżywać jakieś — chociażby zaczątkowe — odpowiedniki „pogrążenia się w
centralnie sfantomatyzowanej — iluzorycznej, lecz nie odróżnialnej od jawy — więc
35
w fikcyjnej realności”.

4
Obecnie żadnych zasadniczo metod oddziaływania na mózg zamknięty w czaszce
nie znamy, tj. nie znamy takich, które powodują procesami świadomościowymi
sterująco. Co prawda, istnieją już całe grupy stosowanych (nie tylko dla celów
terapeutycznych, dlaboga) leków, które tak wpływają na przetwarzanie informacji we
śnie, ze na dołączanych do opakowania lekarstw kartkach wyjaśniających
powiedziane jest, iż dany lek działa np. tak, że po zażyciu „występują u leczonego sny
koszmarne”, albo że sny są charakteryzowane osobliwą intensyfikacją barw, kolorów
i że są „bogate w żywą fabułę”. Niemniej, ani nie może nikt mieć a priori pewności,
że mu się koszmary przyśnią, ani że, po zażyciu tych drugich preparatów, będzie
doznawał śnienia żywo kolorowego. Nawiasem wolno dodać, iż człowiek, który by
wynalazł (syntetyzował) preparaty nie będące narkotykami, lecz umożliwiające
„sterowanie chemicznie pobudzoną treścią wybranego snu”, w krótkim czasie
dorobiłby się miliardów. W gruncie bowiem, jeżeli trzeźwo patrzeć na „bilans życia”
każdego człowieka, jedną trzecią czasu tego życia „marnujemy” śniąc i śpiąc, a na
treść tego, co śnimy, właściwie prawie żadnego wpływu nie mając (stąd moje
określenie czasu snu jako „marnowanego”, w sposób konieczny zresztą, choć
powody, dla jakich jesteśmy zmuszeni spać, są nam, tj. psychologii, wiedzy
medycznej, tak nieznane, że tu niczego prócz bezliku niesprawdzalnych hipotez „po
co śpimy” nie ma). Wykorzystanie nienarkotyczne, czyli nie wywołujące zależności
(jak np. środki grupy heroinowej, morfinowej, opium, itp.), nie prowadzące w
przyspieszeniu do śmierci, lub w inny sposób nie powodujące zniewolenia
charakteropatycznego umysłowości, nie istnieje. Zawsze idzie zresztą o chemikalia,
do organizmu jakoś (zastrzykami, jak heroinę, albo doustnie — tak zażywałem
psylocybinę) wprowadzone. Sprawa w tym, aby niczego nie łykać i nie zatruwać się,
lecz tylko stwarzać ułudę, doskonale zrównywaną zjawą.

5
Ależ oczywiście: ułudy takie są udziałem wszystkich właściwie ludzi na tym
świecie i tak było od zawsze. Mam na myśli sen, w którym nie jesteśmy pogrążeni w
„nicości” (tzw. „sen kamienny”), lecz w którym przeżywamy to, co po polsku zwie się
„marzeniem sennym”, a po niemiecku zróżnicowanie jest tak samo bardziej dobitne,
jak w angielskim czy w francuskim języku (Traum, dream, reve, to jest „marzenie
senne”, a Schlaf, sleep, sommeil, to sen). Jakkolwiek pojawiają się psychologicznemu
treningowi jakoby podległe metody, mające śpiącemu umożliwić „kierowanie tym, co
śni”, chociaż w jakimś stopniu niewielki wpływ na śnioną fabułę może przeżywać
sporo ludzi — indywidualne różnice są — przecież wszystko to jest skromne w
zestawieniu z „rzeczywistością śnienia”. Pozwolę sobie zademonstrować to na
własnym przykładzie: na tym po prostu, co mi się ostatnio śniło.

6
Należy jednak rzec pierwej, po co w ogóle takimi kwestiami mamy się zajmować.
Otóż, primo, my nie wiemy, po co musimy spać i śnić, ale wiemy, że komputerom
36
naszej generacji nic a nic się nie śni, i że jest im sen nie tylko zbyteczny, ale, gdyby
ktoś taką pseudośnioną software zaprogramował, też zupełnie by nie było wiadome,
po co komputer ma to w ramie przetwarzania danych (data processing) czynić.
Zupełnie inaczej wyglądałaby sytuacja, gdyby komputer, który „spędził dłuższy czas
w stanie bezsenności” pracował „gorzej” od takiego, co się „był wyspał” — właśnie
całkiem, jak człowiek. Różnica i tu, między naszym mózgiem a „mózgiem
elektronowym” (jak zwano komputery pierwszej generacji Eniaków, tj. gdy
raczkowały), może okaże się jednym z kluczy (czy wytrychów) pokazujących,
dlaczego ewolucja naturalnego mózgu coraz bardziej odmienna okazuje się od
inźynieryjno–informatycznej, bo konstrukcyjnej i programotwórczej ewolucji
kolejnych generacji komputerów. Dodam tylko (może tylko i nie od rzeczy), iż
Marvin Minsky, jeden z ojców AI czyli „sztucznej inteligencji”, uznawanej przez
jednych za nieosiągalną mrzonkę, a przez zwolenników Minsky’ego za cel, prawie
rychło osiągalny, głosił, iż tzw. „zagadka świadomości człowieka” żadną zagadką w
istocie nie jest. Uważał mianowicie, że świadomość to jest kontrolna instancja
wyższego (najwyższego) rzędu, która nie zajmuje się poszczególnymi częściami
bodźczych strumieni zmysłowych, lecz która baczy na to, jaka całość ze spływania
się wszystkich sygnałów dosyłowych (do mózgu) powstaje.
Niby wynikałoby stąd, że jak już taką instancję najwyższej kontroli i integracji
wprowadzimy jako „metaprogram” do programów, to komputer owładnie
świadomością (ale jakoś nie ma tak dobrze). Dlaczego to jest uliczka konstrukcyjna i
dla hardware i dla software — dla obecnych dróg powstania kolejnych generacji
komputerów — powiem może kiedy indziej, aby nie rozsadziło mi to roztrząsanie
przewodniej linii w wywodzie. Więc jako curiosum zacytowałem powtarzaną przez
Minsky’ego hipotezę.

7
Po dłuższym mozole docieram wreszcie do demonstracji dwu moich snów
wypełnionych treścią śnioną. W jednym śniło mi się, że jestem młodym, dopiero co
wyświęconym księdzem i że podczas mszy mam wygłosić (w kościele oczywiście)
kazanie, i odczuwałem potworną tremę, czy będę mówił do rzeczy i jak należy.
W zestawieniu z moją rzeczywistością i życiorysem było to zaiste dziwne, bo i nie
wierzący jestem i nigdy „nie śniło mi się” wstąpienie do seminarium duchownego i
nigdy żadnych kazań rzecz jasna nie wygłaszałem ani wygłaszać nie zamierzałem.
Tak tedy treść snu jest wprost na antypodach mojej drogi życiowej, toteż przyczyn
które by tę treść spowodowały, domyślić się nie potrafię. Potrafię natomiast
wspomnieć różne, całkiem jakoby realistyczne elementy tego snu (jak wyglądało
wnętrze kościoła, którego w tej postaci nigdy nie widziałem, jacy ludzie znajdowali
się w pierwszych szeregach owego wnętrza — nikt tam nie był spośród osób mi
znanych itd.).
Otóż poza tym, co powiedziałem, najzupełniej „oczywiste” i „nieodmienne” było
w tamtym śnie odczucie, że jestem księdzem, że jestem dopiero na początku tej
życiowej drogi, że czynności, które mam wykonać, są naturalną i konieczną moją
obligacją, itd. Jednym słowem, „czułem” „za sobą” taką przeszłość, jakiej nigdy na
jawie ani w sposób szczątkowy nie przeżywałem.
Drugi sen zdaje się bardziej „realistyczny”. Oto jestem studentem wyższej uczelni i
pędzę do niej po jakichś wakacjach, w obawie, że się spóźnię na wykład, pierwszy w
tym roku. Przybiegam prosto do uczelnianego gmachu, nie mając nawet czasu, żeby
37
pierwej udać się do bursy, w której dzielę pokój z jakimś „Jurkiem”, którego we śnie
od dawna znam, wiem we śnie, że mam w kieszeni klucz do wspólnego pokoju, nie
pozostawiony przez pomyłkę u janitora, lecz jakoś w „innym” pośpiechu włożony do
kieszeni (mogę go wyczuć przez materiał ubrania), wpadam do wielkiego audytorium,
witam się z dobrze mi znanymi kolegami (na jawie żaden z nich mi się po
przebudzeniu nie skojarzy), proszą bym usiadł w pierwszym rzędzie, ale wolę usiąść
obok znajomego w drugim na skraju i — naraz — widzę „Jurka”, zrywam się ażeby
go przeprosić za ów nieszczęsny klucz, on jednak nie ma mi tego za złe, tu wszakże
rozlega się szmer głosów znamionujący, że już zbliża się wykładowca — profesor,
więc dostrzegając, iż nie zdjąłem płaszcza, rzucam się ku szaragom w takiej konfuzji,
że budzę się gwałtownie, jakby mnie ktoś wykatapultował ze snu na jawę, a
pierwszym moim odczuciem jest zdumienie: jak mogłem brać ów sen, tak różny od
realności, za najpewniejszą jawę moją…
Znowu mamy, poza akcją oraz bardzo realistycznym uszczegółowieniem snu,
powstałą w nim, całkowicie w życiu obcą mi przeszłość osobistą. Istotnie przed wielu
laty studiowałem, ale takich kolegów nie miałem, nigdy podobnej uczelni nie
widziałem, w żadnej bursie nigdym nie mieszkał, itd., itp. Co więc wspólne jest obu
opisanym skrótowo snom, to przeszłość śniącego, fikcyjnie dorobiona i dopasowana.
Nie to, co miało dopiero nastąpić, boż to z już wyśnionej sytuacji wynikało (jako
ksiądz — winienem był oczywiście wygłosić w należytej chwili kazanie, a jako
student — zjawić się w audytorium i czekać na profesora). Natomiast poczucie tego,
co było mojego wyśnionego życiorysu przeszłością, powstało i niejako towarzyszyło
mi wewnątrz snu za każdym razem z taką samą pewnością i zwykłością, z jaką na
jawie potrafiłbym wspominać moją przeszłość rzeczywistą.
Otóż fantomatyka centralna dopiero wtedy może się okazać niejako „ostateczną
instancją” przeżywania świadomości bytu, kiedy zdoła zaopatrzyć
fantomatyzowanego człowieka nie tylko w aktualną, powiedzmy wybraną przezeń „z
katalogu” iluzyjną realność, ale ponadto doklei do tej iluzji przeszłość, w
nieodróżnialny sposób udającą, iż była to przeszłość jedyna w życiorysie, tak
prawdziwa, że bardziej autentycznej być w niej nie może.

8
Tak zatem sen zdaje się sugerować, treściami śnionymi, iż nawet sam mózg bez
„zewnętrznego udziału jakiegokolwiek” potrafi generować fabuły „zmyślone”, zaś ich
iluzoryczność można dopiero rozpoznać po przebudzeniu. Tak zatem w zaczątku
każdy z nas, jak „wirtualną buławę” nosi w tornistrze żołnierz, nosi w sobie
prospektywną potencję przeżywania, iż jest, iż był tym, kim nie jest i nie był, i już to
sugeruje pryncypialną (na razie) możliwość powstania nienarkotycznej „fantomatyki
centralnej”.
Może warto na marginesie tego szkicu dodać, że są środki nasenne (gromady
barbituratów), które udaremniają mózgowi pracę typu „sennego marzenia”, a to
zachodzi nie bez szkody dla mózgu, zwłaszcza przy dłuższym zażywaniu takich
hypnotików, a także są środki innej grupy, które nie naruszają zdolności przeżywania
marzeń sennych, lecz niekiedy nawet ją nasilają (w kierunku już wspomnianych snów
barwnych i/albo koszmarnych).

38
9
O tym, po co jest sen, jak wspomniałem, pojęcia nie mamy, a hipotezy sugerujące,
jakoby sam fakt dobowej zmiany dnia i nocy, światła i mroku, miał być generatorem
przystosowawczym snu (jak okres zimy mógł być czynnikiem istotnie zniewalającym
pewne zwierzęta do zapadania w sen zimowy), takie hipotezy nie dają się ani
porządnie umotywować, ani poddać zabiegowi falsyfikacyjnemu. Nie wiemy
zwłaszcza, czemu ten, kto przez wiele dni i nocy nie może spać (to było stosowane
nawet jako tortura np. w więzieniach KGB), podlega halucynacjom i stanom
pomrocznym. Tak, to jest kauzalnie wciąż niezrozumiałe.
O patologicznych stanach i ich pograniczu, utrudniającym odróżnienie snu od
jawy, zamilczę, boż by i to mi rozsadziło ten wywód szkicowy. W każdym razie
można uskromniająco rzec tyle: fantomatyka obwodowa, działająca na mózg w
„doraźnej teraźniejszości”, nie jest już wymysłem dziwacznym Lema, lecz
rzeczywistością, w którą wielkie koncerny (SEGA na przykład) inwestują całkiem
realne, wielomilionowe kwoty dolarowe.
Natomiast możliwość fantomatyki centralnej na razie wciąż jest tylko szansą na
przyszłość, ponieważ — o paradoksie — o budowie czynnościowej mózgu w ludzkiej
czaszce wiemy nieporównanie mniej, aniżeli o budowie czynnościowej komputera
każdej, skoro przez nas wyprodukowanej i programowanej generacji.
Dodam na koniec, że różnicy pomiędzy językami zasadniczo „bezkontekstowymi”
programowania komputerów i językami kontekstowo uwikłanymi w znaczenia (w
semantykę) potrafimy się doszukać, ale chyba dopiero zaopatrzenie komputerów
(pracujących nie iteracyjnie, nie krokowo zatem i nie szeregowo, ale poliparalelnie,
równolegle) w ogrom pamięci uaktywnianej kontekstowo pozwoli rozziewy, otwarte
między „mózgiem żywym” a „protezą cyfrową” — jaką jest komputer —
zredukować: może aż dozerowo…

10
Powyższy tekst, w którym dane z psychologii snu „pomieszane” są z wtrętami
„komputerologicznymi” napisałem rozmyślnie dlatego, ponieważ osoby typu
„hackerów” popadają łatwo w nowy typ monomanii, więc już, przez swoje nadmierne
zafascynowanie architekturą hardware i software, zamiast pogłębiać pojmowanie
procesów psychiki, a tym samym i kreacyjnych, i językowo „rozumiejących”,
powierzają poruszanie się budownictwa programów mocom obliczeniowym brute
force. Gdyby istotnie wystarczyło miliony razy przyspieszyć data processing w
układach, jakich prarodzicem była maszyna Turinga, to byśmy już posiadali
komputery albo dorównujące, albo przewyższające ilorazami inteligencji ludzi, ale nie
ma tak dobrze ani tak łatwo.
Komputer, który będzie mógł, a nawet musiał spać i śnić, a potem nam treść tego,
co wyśnił, opowiedzieć bez blagi i sztukmistrzostwa programistów, stanie na drodze
rywalizacji z człowiekiem. Wypowiedzianym przez pewnego francuskiego
dominikanina słowom (w roku 1948), że po powstaniu cybernetyki Wienera zjawiło
się widmo maszyny, zdolnej pokonać zadania, jakie stawia rządzenie całym
państwem, a nawet całym światem — może dla dobra, a nie dla zła ludzi — tym
słowom wtedy nikt poważniejszej uwagi nie poświęcił.
Lecz chaos postkomunistyczny czasu teraźniejszego pokazuje, że maszyna taka,

39
którą negatywnie oceniałem przed trzydziestu laty, w nazwanej już SUMIE, dziś by
się w tym skotłowanym świecie zapewne przydała… Może okazałoby się to nawet
łatwiejsze od skonstruowania maszyny „zaopatrzonej w świadomość”, ale to raczej
już temat dla osobnej rozprawki.

PS. Kto by chciał sprawdzić to, com tu powiedział, na materiale znacznie


rozleglejszym, może sięgnąć do I wydania Summa Technologiae, WL Kraków 1964,
ale to niełatwe, bo miało tylko 3000 nakładu i ja sam już nigdzie go dopaść nie mogę
(poza jedynym egzemplarzem w moim wzorniku).

40
Tertium comparationis

1
Tytuł powyższy w obu wydaniach książeczki p. Jędraszki Łacina na co dzień
znaczy „trzecia rzecz, służąca za miarę porównania dwu innym”. Ja też właśnie tak
sądziłem — aż przeczytałem w Kopalińskiego „Słowniku wyrazów obcych i zwrotów
obcojęzycznych”, że te same słowa łacińskie znaczą: „podstawa porównania,
przedmiot (stan rzeczy), posiadający cechy wspólne dwóch porównywanych ze sobą
przedmiotów (stanów rzeczy)”. To jednak nie jest to samo. Optuję za definicją
Kopalińskiego, ponieważ jest mi potrzebna do szkicu, mającego wskazać propozycję
tyleż ważną, co jakoś nie urzeczywistnioną: mianowicie nurt filozofii, zogniskowany
na (postulowanych) podobieństwach i (faktycznych) różnicach komputera (jako
„automatu skończonego”) i mózgu człowieka.
Te automaty z kolei zahaczają o teorię funkcji rekurencyjnych oraz algorytmów i
już przez to są uwikłane w sławny dowód Goedla, ale rozwinięcie takiej genealogii
komputerów w obrębie prostego jak niniejszy szkicu po prostu się nie da wykonać.
Zarazem brak nazwanej dopiero co filozoficznej perspektywy zamyka cały rozwój
komputerów i teorii takiej informacji, która im jest podległa, w swego rodzaju — nie
waham się użyć może nazbyt silnego sformułowania — getcie techniczno–
obliczeniowym. Można by przypuścić atak na moją kategoryczność, powołując się na
obfitą literaturę, od książek znawcy computer science, jakim jest Joseph Weizenbaum,
po jeszcze bardziej znane diatryby Dreyfusów (być może ukazały się też po polsku).
Rzecz jednak cała w tym, że książki tego rodzaju są albo, jak wymienione, mniej
lub bardziej umocnioną argumentami „ogólną teorią niemożliwości dorównania przez
komputer mózgowi”, albo też są, jak nie wymienione przeze mnie książki,
pochodzące z obozu „fideistów komputerowych”, próbami dowodzenia, iż, owszem,
Artificial Intelligence (powiedzmy, jednego z „ojców”, Marvina Minsky’ego) jest
osiągalna i tym samym wnet się nam objawi w realizacjach technicznych. Są wreszcie
autorzy jak Douglas Hofstadter, którzy znajdują się — dziełami — w niejakim
rozkroku: znajdują zarówno olbrzymie trudności do pokonania na drodze wiodącej
ku AI, jak i zarazem wierzą w zasadniczą pokonywalność tych wszystkich przeszkód
(tylko nie wiadomo, jak i kiedy).

2
Mnie tu jednak ani nie chodzi o rozstrzyganie kwestii urzeczywistnienia „sztucznej
inteligencji” w maszynie, ani o zajmowanie się tą kwestią w pierwszej kolejności.
Chodzi mi o to, co tytuł zapowiada. Potrzebna jest taka „filozofia stosowania
komputerów”, która wykracza poza spór o różnice i podobieństwa do mózgu
ludzkiego, albowiem w tym odniesieniu mózg figuruje jako ultymatywne wcielenie
rozumu, jako urządzenie najbardziej złożone w całym Kosmosie i tym samym jakoby
tak uniwersalne, że ma zostać uznane za wzorzec wręcz znakomity i nieprześcigalny,
coś jak dla przedwojennych młodych ludzi prezentował ów „metr wzorcowy”
umieszczony jako palladowo–platynowa sztaba (o przekroju X) w Sevres pod

41
Paryżem. To już nie jest dziś ultymatywny wzorzec pomiarowy długości, a choć
żadnego poza– czy ponadludzkiego mózgu nie znamy, ci właśnie, co się posługują
komputerami i obsługują je jako programiści, powinni wykroczyć poza
konstruktorskie etalony dla bardziej oderwanej i przez to mającej bardziej „meta–”
charakter refleksji: ażeby poprzez widomy, choć nie rozgryziony naukowo model
biologicznego mózgu dostrzec przyszłe, a co najmniej możliwe fazy rozwojowe
komputerystyki. Prawie wszyscy znani mi eksperci tak intensywnie wdali się w
rozstrząsanie „być albo nie być” Artificial Intelligence, że wprost oślepli na sprawę
chyba najbardziej zasadniczą, mianowicie na pytanie o to, czy mózg człowieka w
ogóle zasługuje na miano wzorca „rozumu”, inteligencji, i tym samym czy może być
„całkiem inaczej” z tym mózgiem.
Ja, pozwalając sobie jeszcze (ostatni raz) w tym szkicu na łacinę, powiem, że
moim zdaniem sed tamen potest esse totaliter aliter. Mianowicie co najmniej dwa
rodzaje cech dają się w żywym i działającym po swojemu mózgu człowieka
rozdzielić: te, co są śladami i dziedzictwem jego bardzo długiej drogi rozwojowo–
ewolucyjnej (nie tylko, dlaboga, w toku antropogenezy: mózg bowiem, jak powiem,
jest znacznie starszą paleontologicznie „składanką”) oraz te cechy, które stanowią
jego osobliwą wyłączność aktualnie, jako już typowo człowieczy nabytek, ten, który
nas wyprowadził poza drzewo rozgałęzionych obficie wariacji hominidów i tym
samym zrodził homo sapiens sapiens. Zrazu tu dodam, co kiedyś napisałem pewnemu
filozofowi niemieckiemu w związku z M. Heideggerem, a mianowicie uznałem za
największy błąd Heideggera nie jego po wojnie światowej ostro krytykowaną
przynależność (także powinowactwo jego filozofii) do partii hitlerowskiej, lecz to, iż
był filozofem nienawidzącym technologicznego rozwoju naszej cywilizacji i
wyobrażał sobie, że jakikolwiek nawrót do przedtechnologicznej kultury jest
kierunkiem realnie możliwym. Napisałem wtedy memu korespondentowi, że z chwilą,
kiedy powstawał wiele milionów lat temu Australopithecus, Homo robustus, a zaraz
potem Homo habilis na południu Afryki, już wówczas był na powolne, lecz podległe
historycznej akceleracji wynajdywanie technologii (poczynając od eolitu i paleolitu)
skazany całą biologią swoją, ponieważ razem z uwolnieniem kończyn górnych od
wspierania chodu, a mózgu od typowo animalnej i tym samym wyłącznie
przeżyciowej sprawności w czasie dlań teraźniejszym, innej drogi (poza wymarciem
gatunku) już nie było.
Tym samym uznałem, że technologia stała się jakieś trzy — lub dwa i pół miliona
lat temu taką samą niepozbywalną własnością człowieka, jaką stało się cztery miliardy
lat temu stałą kosmiczno–planetarną krzepnięcie powłok ogniowej kuli, jaką wtedy
stanowiła planeta Ziemia. Tym samym na technologię można się z takim samym
kiepskim sensem gniewać i technologii zapierać oraz jej rozwojowi wyrzuty robić, w
jakim można prawa termodynamiki nienawidzieć albo mieć cokolwiek za złe
grawitacji. Zjawiska podobne do praw Natury można w jakiejś mierze oswajać,
domestykować, zaprzęgać do naszych prac i spraw. Natomiast wypisywanie
przeciwko nim diatryby, czyli branie ich za złe, niesie za sobą tyleż sensu, co karne
biczowanie morza za to, że jakiemuś tyranowi pochłonęło okręty. To nie jest ani
racjonalne, ani godne miana filozofii, nieoderwanej w dowolny sposób od
fundamentu, jaki nasz byt stanowi.

3
Powiedzmy, że tak jest, ale co to może mieć wspólnego z postulowaną przeze mnie
42
filozofią, jako dyskursem poza strefą sporów „pro–AI” i „kontra–AI”? Otóż należy
powiedzieć wstępnie, co następuje.
Po pierwsze, do częściowego wysforowania się komputera przed mózg już doszło,
i nie należy tego mieszać z jakąkolwiek „antropologizacją” komputerów, niby że
jeszcze parę kroków technicznie dalszych, a poczną się zachowywać po ludzku.
Pozwolę sobie przytoczyć to, co pisałem dobrze ponad ćwierć wieku temu w „Sumie
Technologicznej”.

Powstaną i będą się rozrastać ośrodki maszynowe, zarządzające produkcją, obrotem


towarowym, dystrybucją, a również badaniami (koordynacja wysiłków uczonych, wsparta
w fazie wczesnej przez maszyny — tj. komputery — pomocnicze). Czy możliwe będą
między nimi sytuacje konfliktowe? Jak najbardziej możliwe. Zachodzić będą konflikty w
płaszczyźnie decyzji inwestycyjnych, badawczych, energetycznych, bo wszak trzeba
będzie określać prymat rozmaitych działań (…) Trzeba będzie konflikty takie rozstrzygać.
Oczywiście, powiadamy szybko, to będą robili ludzie. Bardzo dobrze. Otóż decyzje będą
dotyczyły problemów ogromnej złożoności i ludzie — kontrolerzy Koordynatora
(komputerowego, S.L.) będą musieli, aby rozeznać się w przedstawionym im morzu
matematycznym, uciec się do pomocy innych maszyn, mianowicie optymalizujących
decyzje. (…) Czy możliwe jest, że maszyny kontrolerów, dublujące pracę maszyn
kontynentalnych, dadzą odmienne wyniki? I to jest zupełnie możliwe, ponieważ maszyna
(w toku pracy, S.L.) staje się jakoś „stronnicza”. Wiadomo, że człowiek nie może nie być
jakoś stronniczy: dlaczego jednak ma być stronniczą maszyna (komputer)? Stronniczość
nie musi wynikać z predylekcji (co do wartości), wynika z nadawania rozmaitej wagi
kolidującym z sobą członom alternatyw. (Ponieważ maszyny takie, będąc układami
probabilistycznymi, nie działają tożsamościowo). Sytuacja staje się bardziej przejrzysta,
jeśli wyrazimy ją w języku gier. Maszyna jest jakby graczem, prowadzącym rozgrywkę
przeciwko pewnej „koalicji”, na którą składa się olbrzymia ilość rozmaitych zgrupowań
produkcyjnych, rynkowych a także transportowych, usługowych itp.

Dłuższy ten wywód zamyka następujące twierdzenie. Wygląda rzecz tak: albo
komputery nie umieją uwzględnić większej ilości zmiennych od człowieka, a wtedy
nie warto w ogóle ich budować, albo umieją, a wtedy człowiek nie może się sam
rozeznać w rezultatach, czyli podjąć niezależnej od komputera decyzji… Człowiek
nie może już zrobić nic innego, niż stać się gońcem, który przenosi taśmę
informacyjną od komputera decydenta do komputera kontrolnego. Jeśli rezultaty
komputerów nie są jednakowe, człowiek nie może uczynić nic innego, niż wybrać,
rzucając monetą: Z „najwyższego nadzorcy” staje się mechanizmem losowym
wyboru!
A więc znów, i to tylko przy komputerach zarządzających, mamy sytuację, kiedy
stają się one „bystrzejsze” od człowieka. Dalej zaś napisałem, że „dziś” (tj. w roku
65) obchodzimy się w ogóle bez takich komputerów w gospodarce i menedżerskim
zarządzaniu. Lecz obecnie (1994) już sieci komputerowe wsuwają swoje „macki” w
takie dziedziny. A ponadto obecnie już okazało się, że są dziedziny matematyki i
matematycznej fizyki, w których wynikom pracy komputerów, dysponujących
znacznymi mocami obliczeniowymi, każdy matematyk czy fizyk zawierzyć musi,
ponieważ pracy tej żaden człowiek nawet w ciągu całego życia nie jest w stanie
skontrolować. A jeżeli w tych dziedzinach, logicznie jakby całkiem ścisłych, zespół
aksjomatów wyjściowych nie pokrywa się idealnie z innym zespołem, kiedy prace
toczą się w rozmaitych ośrodkach badawczych, to nic prócz „superkomputerów”
sprawdzających nie da się wymyślić a takie „superkomputery” nie są przecież Bożym
sądem, lecz kolejnym krokiem rozwoju komputerystyki, więc otwiera się nam otchłań
43
jako regressus ad infinitum…

4
Ale to wszystko, com rzekł, dotyczyło wyłącznie stosunku komputerów do ludzi i
ich prac. Po wtóre, założeniem i tematem jednocześnie owej postulowanej tu
zaczątkowo „filozofii tertium comparationis” musi stać się ludzki mózg, który,
wbrew niejakim pozorom, jest w swej budowie i funkcjach bez porównania gorzej
rozpoznany od komputerów, bo je wszak sami budujemy i użytkujemy. Natomiast
mózgi użytkujemy, rzecz jasna, aleśmy ich bynajmniej nie zbudowali.
Pozwolę więc sobie w sposób wręcz stenograficzny wyliczyć niektóre,
„pozakomputerowe” własności naszego mózgu. Mózg składa się z jeszcze nie
przeliczonej, ale wielkiej liczby podzespołów, przy czym podzespoły te zasadniczo
„winny” współdziałać, ale bywa, że są antagonistami i nawzajem sobie przeszkadzają.
To dość łatwo można rozpoznać w wielu zjawiskach. Np. można uszkodzić sobie
proces przypominania jakiejś, dajmy na to, deklamacji, jeżeli skupimy na nim zbyt
mocno świadomą uwagę — natomiast jeżeli z takiego ogniskowania uwagi
zrezygnujemy, automatyzm deklamacji jako (to przykład) nienagannego
wyrecytowania tekstu przebiegnie gładko. (To zresztą stanowi lejtmotyw żartu o
postawionym stonodze pytaniu, jak ona organizuje ruchy tylu nóg, a stonogę — od
zamyślenia nad tym pytaniem — poraża bezruch). Albo też łatwo dostrzec inne
antagonizmy „wewnątrzmózgowe”: kiedy rachujemy biegle i zaczynamy wątpić w
sprawność tej biegłości, powtórzenia często okazują się obarczone znaczniejszymi
błędami: nie należy więc, zdawałoby się, koncentrować się za mocno… A także z
badań (z lat pięćdziesiątych jeszcze) wynikało, iż człowiek poddany hipnozie może
przypomnieć sobie wydarzenia sprzed wielu lat, których przy pełnej świadomości
przywołać reminiscencją nie jest w stanie.
Są więc jak gdyby rozmaitej „głębokości” czynnościowe pokłady funkcji mózgu, a
ich penetracja bywa świadomości, jako nasilonej uwadze, wprost niedostępna.
Również język nasz, każda jego odmiana, właśnie dzięki temu, że swoją składnią,
leksykografią i frazeologią oraz idiomatyką wymija zapadnie i zdradzieckie pułapki,
których obecność w każdym równoważnym arytmetyce systemie wykrył wielki
Goedel, bywa zawodny, gdy prowadzimy dyskursy oparte na argumentach różnej
sprawdzalności i mocy. Język jest bowiem i naszą siłą, i zawodną słabością: dlatego
nauki ścisłe „wycofują się” w obszary matematyzacji, gdzie jednak czyha na nie
Goedlowska pułapka… Zaś lokalizacja mózgowa ośrodków, zawiadujących mową
rozumianą, mową od kołyski wyuczoną, mową (językiem) drugiego, tj. po
dzieciństwie wyuczonego rzędu, mową pisaną, czytaniem itp., wszystkie te
czynnościowe zarodki językowe mózgu u nowo narodzonego wprawdzie są
biologicznie prawie że tożsame (niezależnie od tego, czy jest to dziecko chińskie, czy
polskie), ale stanowią nie rozpoznaną zagadkę. Nie jest bowiem ani tak, że języka się
nie dziedziczy, ani tak, że się go dziedziczy: człowiek dziedziczy tylko „pogotowie
funkcjonalne”, zdolne do rychłego przystosowania do środowiska językowego, w
jakim się urodził. (To by się komputerom niechybnie przydało: ich bezkontekstowa
sztywność musi kiedyś ulec zasadniczej „przeróbce” w stronę antropologiczną…).

44
Szczególnym dowodem na wielkość podzespołów, z jakich się mózg składa, mogą
być zarówno pewne zjawiska jawy, jak i marzenia senne. Świadomość śniącego może
postrzegać zjawiska snu jako najdziwniejsze zaskoczenia, których antycypować nie
jest w stanie, jakby naprawdę pochodziły spoza obrębu jego umysłu. Sen „śni się
sobie” w sposób jakże często nieprzewidywalny i zaskakujący, zwłaszcza jako
koszmar: oznacza to, że w zawężone pole świadomości śniącego wątki, które się
rozwijają, zostają wprowadzone z takich pod–agregatów mózgu (ukoncentrowane
takimi podzespołami mózgowymi), o których treści (zawartości fabularyzacyjnej) nic
śpiącemu nie wiadomo.
To znów jeszcze jeden dowód na rzecz tezy o przyczynach, sprawiających, że
podzielność naszej świadomości uwagi jest nikła. Bardzo trudno mianowicie mieć w
polu świadomości więcej niż kilka (ponoć najwyżej sześć) problemów. Jeżeli zaś
zaprezentować by najsłabszą z licznych potencji mózgu, będzie nią mformation
retrieual, nieszczęście, zdarzające się nawet osobom pilnym, a właśnie
egzaminowanym, sprowadza się do tego, że afekty towarzyszące (jako „nerwowe
emocje” pytanego) wyhamowują umiejętność szybkiego „wydobycia” z magazynów
pamięci tego, czego egzaminator żąda (nie mam tu na myśli tych, którzy udają się na
egzamin po prostu nie przygotowani).
Także zjawiska lęku, paniki, a szerzej emocje, mogą porażać intelektualne
sprawności. Największym zaś problemem człowieka są nie rozpoznawane „wsobnie”
rozmiary indywidualnego ilorazu inteligencji oraz sprawności kreacyjnych (które bez
wątpienia są co najmniej w dużej części genotypowo, dziedzicznie zatem,
zaprogramowane, czyli uwarunkowane). Wariancja wewnątrzgatunkowa jest u
człowieka największa: boż im gatunek zwierząt na drabinie postępów ewolucyjnych
niższy, tym mniej różnic „umysłowych”. Wszystkie muchy mają tyle samo zadanych
instynktem umiejętności przetwarzania informacji (muchy nigdy nie nauczą się tego,
że przez szyby przelecieć nie można), a także „genialny szympans” (a są takie, zdolne
do uczenia się pierwocin języka graficznego) różni się daleko mniej od szympansa
głupiego, aniżeli różnił się Newton od durnia. Zarazem tu natykamy się na odmienną
zagadkę: oto nie wiemy, dlaczego ewolucja ludzkiego mózgu, jako wzrostu jego
potencjałów umysłowych, rozpocząwszy się ponad milion lat temu i osiągnąwszy
wyjątkowe w naturalnej ewolucji przyspieszenie, przecież zatrzymała się jakieś sto do
dwustu tysięcy lat przed naszą erą! Tym samym wszystkie rasy mają mózgi
praktycznie biorąc takie same i różnice najwyżej mogą dotyczyć dystrybucji genów w
genomach, tych mianowicie, które łącznie decydują o potencjalnie osiągalnej
inteligencji (min. idzie o prastary spór nature or nurture, tj. czy dziedziczność, czy
raczej środowisko głównie warunkuje poziom umysłowy: wahadło tego sporu dziś
wskazuje na oba czynniki, z pewną przewagą dziedziczności, ale różnice,
wykrywalne tylko statystycznie, są między rasami małe. Gdyby okazały się większe,
powstałby jeszcze jeden zbiór przyczyn dla niewolnictwa, szowinizmów,
nacjonalizmów, rasizmów itp.).
Ale dlaczego „rozpędzony we wzroście ewolucyjnym” mózg „stanął”, nie wiemy.
Trudno za przyczynę uznać względną ciasnotę żeńskiego kanału porodowego, choć
obwód główki noworodka jest w jego organizmie największy. Tu skrywa się zatem
nierozwikłana zagadka mózgu, prawdopodobnie raczej biologicznej aniżeli
informatycznej natury.

45
Nie zamierzam wkroczyć w dziedzinę psychopatologii z jej psychozami
dziedzicznymi i nabywanymi, ani w strefę fobii, psychopatii, wystarczy chyba w tym
miejscu rzec, że stabilność czynnościowa ludzkich mózgów jest dość chwiejna i to też
może okazało się hamulcem dalszych wzrostów. Dzwonowa krzywa Gaussa,
pokazująca dystrybucję normalną ilorazów inteligencji (najwięcej uśrednionych —
120IQ — najmniej „jeszcze nie anormalnego” minimum fizjologicznego, a na
schodzącym prawym ramieniu — najmniej ilorazów powyżej 130–150IQ) nie zdaje w
ogóle sprawy z wpływu na „oddestylowany” testami IQ, jaki wywierają: charakter,
momenty wolicjonalne („napęd” i „popędy”), życie afektywne, główny kierunek
uzdolnień (jeśli istnieje) itd.
Życie emocjonalne dziedziczymy po najstarszych kręgowcach (zapewne ponad pół
miliarda lat trwał rozwój tego żywota), więc jest od życia umysłowego nieporównanie
starsze. Nic do tego komputerom, a zarazem nie wiemy, czy to „dla nich” raczej
wada, czy raczej zaleta. To samo i z dość zagadkową wciąż intuicją.

7
Trzeba jednak naruszyć granicę, oddzielającą w jednym miejscu / normę od
patologii: mam na myśli miejsce, w którym sadowi się odmiana tak zwanych
genialnych idiotów. Są to wysoce niepełnosprawni umysłowo, niesamowicie biegli
rachmistrze, zdolni konkurować z kalkulatorami elektronicznymi, są to też
niesamowici „zapamiętywacze” raz przejrzanego długiego tekstu (chociaż nie mogą
konkurować z megabajtową pamięcią komputerową), są to głupkowaci, odznaczający
się bardzo obszernym poliglotyzmem (z nadzwyczajną łatwością przyswajają sobie
mnóstwo obcych języków, tyle, że nic rozsądnego w żadnym nie wymyślą), itd.
Przypuszczam, że u tych wszystkich „odmieńców” zachodzi jednoczesna atrofia
zbioru normalnych podzespołów mózgu oraz „uwolnienie” pewnej grupy takich
podzespołów (językowych, obliczeniowych, wzrokowych pamięci) od działania
innych (normalnych), które, jak się już rzekło, poziom zwątpień mogą uszkadzająco
wzmocnić.

8
Są psychologowie, uważający funkcje mózgu człowieka za swego rodzaju
„graniówkę”, za poruszanie się wzdłuż dość wąskiej ścieżki normalności przeciętnej,
przy czym po obu stronach zieją przepaście: z jednej strony nadmiernej sztywności, a
z drugiej nadmiernego uchaotycznienia zamierzeń i myśli, więc zagrażać może
człowiekowi albo raczej zastyganie w stereotypach, albo raczej zamęt prawie
bezkierunkowej anarchii.
Oczywiście schemat to gruby i przez to już uproszczony. Lecz warto mieć
wszystkie te cechy na uwadze, gdy się poszukuje tertium comparationis, bo wtedy
łatwiej pojąć, jak mało sensu zawiera chęć „powtórzenia mózgu” w maszynie. Co
biologiczne, należy się biologii ewolucyjnej, a co obliczeniowe — mocom
obliczeniowym komputerów. Lecz ponadto należy wspomnieć, że mózg po lobotomii
(z odciętymi płatami czołowymi, warunkującymi „strategie życiowe”) może przecież
działać prawie że (z pozoru) normalnie. Spróbujcie za to działania komputera,
któremu odpiłowano sporą część hardware…
Wynika ta fundamentalna różnica i stąd, że mózg nasz zawiera pokłady pradawnej

46
przeszłości: że jest w nim „coś” z płaza sprzed milionów lat i gada, i hominidów.
Rozum zaś powstaje wtedy, gdy staje się tak przystosowawczo potrzebny, że
odmiennym wyjściem z alternatywy jest już zagłada gatunkowa: a gatunków, które
uległy zagładzie, były miliony na Ziemi…
„Wyścig” mózgów z komputerami odbywa się na razie jako potęgowanie
pojemności „martwych” pamięci oraz przyspieszanie obliczeń: to stwarza rosnące
moce obliczeniowe. Czy innowacyjne posiłki przybędą, zapożyczane u mózgów
biologicznych (i tym samym ewolucja komputerów zbliży się do naturalnej), czy też
na odwrót, nożyce rozewrą się jeszcze bardziej niż dziś, i „posiłki” okażą się „całkiem
nie biologicznie dane”, nieludzkie — na razie zawyrokować trudno.

9
Od ludzi, a nie od komputerów, będzie zależało, kiedy nazwane posiłki dokonają
inwazji w strefę strategii decyzyjnej w gospodarce i może w polityce nawet.
Tendencje takie nasilają się pewno w świecie coraz bardziej przeludnionym,
„rozregulowanym”, w którym bezsilnie patrzymy na szaleństwa ludobójcze i na
głosicieli ludobójczych programów jako panaceum na chaos. Gdym pisał Summa
Technologiae, największy błąd popełniłem, zakładając jako postać umownego
bohatera tej książki racjonalnego człowieka — Konstruktora, a nie agresora,
zaślepionego szowinizmem i rozkoszującego się topieniem każdej innowacji
technologicznej w umysłowym ubóstwie wszechdeprawacji. Nie przewidziałem tego,
czego przewidzieć nie chciałem. Czy jednak wolno było mieć prawo do takiej
stronności — oto jest pytanie.

47
48
Herezje

1
Do mojej książki, napisanej przed 32 laty, nazwanej Summa Technologiae,
włożyłem rozdział, zatytułowany „Szaleństwo z metodą”, w którym powiedziałem:

Wyobraźmy sobie szalonego krawca, który szyje wszelkie możliwe ubrania. Nie wie
on nic o ludziach, ptakach czy roślinach. Nie ciekawi go świat; nie bada go. Szyje ubrania.
Nie wie, dla kogo. Nie myśli o tym. Niektóre są kuliste, bez żadnych otworów; innym
wszywa rury, które nazywa „rękawami” lub „nogawkami”. Liczba ich jest dowolna.
Ubrania składają się z rozmaitej liczby części, krawiec dba tylko o jedno: pragnie być
konsekwentny. Jego ubrania są symetryczne lub asymetryczne, wielkie i małe, rozciągliwe
i raz na zawsze unieruchomione. Gdy przystępuje do sporządzenia nowego, przyjmuje
określone założenia. Nie zawsze są takie same. Ale postępuje dokładnie w myśl raz
powziętych założeń i pragnie, aby nie wynikła z nich sprzeczność. Jeśli przyszyje raz
„nogawki”, nie odcina ich potem; nie rozpruwa tego, co zszyte; zawsze to muszą być
„ubrania” a nie pęki na oślep pozszywanych szmat. Gotowe „ubrania” odnosi do
ogromnego składu. Gdybyśmy tam mogli wejść, przekonalibyśmy się, że niektóre pasują
na ośmiornicę, a inne na drzewa, albo na motyle, albo na ludzi. Odkrylibyśmy „ubrania”
dla centaura i dla jednorożca oraz dla istot, jakich NIKT dotychczas nie wymyślił.
Olbrzymia większość ubrań nie znalazłaby żadnego zastosowania. Każdy przyzna, że
syzyfowe prace owego krawca są czystym szaleństwem.
Tak jak on, działa matematyka. Buduje ona struktury, ale nie wiadomo, czyje. Modele
doskonałe (to jest doskonale ścisłe), lecz matematyk nie wie, czego to są modele. Nie
interesuje go to. Robi to, co robi, ponieważ taka działalność okazała się możliwa.
Zapewne, matematyk używa, zwłaszcza przy ustalaniu wstępnych założeń, słów, które
znamy z języka potocznego. Mówi on np. o kulach albo liniach prostych, albo o punktach.
Ale nie rozumie przez owe terminy znajomych nam rzeczy. Powłoka jego kuli może nie
mieć grubości, a punkt rozmiarów. Przestrzeń jego konstrukcji nie jest naszą przestrzenią,
ponieważ może mieć dowolną ilość wymiarów. Matematyk zna nie tylko nieskończoności
i pozaskończoności, ale także ujemne prawdopodobieństwa. Jeżeli coś może się stać na
pewno, prawdopodobieństwo równa się jedności. Jeżeli wcale nie może się stać, równa się
zeru. Okazuje się, ze coś może się mniej aniżeli nie–stać. (…)
Matematyka ma zastosowania praktyczne. Istnieje punkt widzenia, który tę jej
przydatność tłumaczy dość prosto. Otóż sama natura ma być w swej istocie
„matematyczna”. Sądzili tak James Jeans i Artur Eddington, a myślę, że i Einsteinowi nie
był ten pogląd zupełnie obcy. Wynika to z jego powiedzenia: Raffiniert ist der Herrgott,
aber boshaft ist er nicht. Zawiłość natury — tak rozumiem to zdanie — można odgadnąć
dzięki pochwyceniu jej w sidła prawidłowości matematycznych. (…) Fizycy od XVI
wieku przetrząsają „składy pustych struktur”, które tworzy matematyka. Rachunek
macierzy był „strukturą pustą”, dopóki Heisenberg nie znalazł „kawałka świata”, do
którego ta pusta konstrukcja pasowała. Fizyka roi się od takich przykładów.
Procedura fizyki matematycznej i zarazem matematyki stosowanej jest taka:
twierdzenie empiryczne zastępuje się matematycznym (to jest pewnym symbolom
matematycznym przyporządkowuje się liczne znaczenia, w rodzaju „masy”, „energii”
itp.), uzyskane wyrażenie przekształca się zgodnie z regułami matematyki (to jest owa
formalna, czysto dedukcyjna część postępowania), a końcowy rezultat przez ponowne
podstawienie znaczeń materialnych zmienia się w twierdzenie empiryczne. To nowe
twierdzenie może być przepowiednią przyszłego stanu zjawiska lub może też wyrażać
pewne ogólne równości, czyli prawa fizyki.(…)
Matematyka mówi (tj. stara się mówić) o świecie więcej, niż wolno o nim powiedzieć.

49
Co aktualnie sprawia nauce sporo kłopotów. (…) Może kiedyś zostaną przezwyciężone.
Ale wtedy tylko współczesna mechanika kwantowa zostanie uznana za przestarzałą.
Rachunek macierzy nie zestarzeje się nigdy. Systemy empiryczne tracą bowiem
aktualność, matematyczne nie tracą jej nigdy. Ich pustka jest ich nieśmiertelnością”.

2
Koniec cytatu. Przepraszam za dłużyznę, lecz okazała się nieuchronna. Już wtedy,
pisząc ów rozdział, myślałem, że to nie sama Natura jest matematyczna, czyli
Stwórca, jak tego chcieli Jeans czy Eddington, BYŁ matematykiem. Przypuszczałem,
że matematyka nie tkwi w Naturze, i nie dlatego ją w niej wykrywamy. Myślałem, że
tkwi raczej w oku uczonego, ale tak wyraźnie nie ważyłem się tego powiedzieć,
ponieważ była to myśl całkowicie sprzeczna z powszechnym przekonaniem lepszych
ode mnie naukowców. Zresztą i za to, co zacytowałem, dostało mi się od nich
upomnienie, ponieważ przeczuwali w tym cień herezji. Otóż teraz, po tylu latach,
koncepcja, która „odmatematyzowuje” Naturę i „matematyzuje” myślowe procesy
człowieka, narobiła szumu i już wolno ją głosić. Podczas kiedy, jak piszą nowożytni
kacerze w nauce, matematyczność Natury, podlegająca naszym procedurom
formalnym, stanowi jak gdyby „głęboką Tajemnicę”, zadziwiająca zbieżność „tego,
jaki Kosmos jest” i tego, Jak dokładnym odbiciem Kosmosu może być matematyka”,
okazuje się naszym ludzkim błędem. Najpierw Bruno Augenstein (z Rand Institute w
Kalifornii) „postawił ów problem na głowie”. Fizycy, orzekł, potrafią znaleźć
odpowiednik każdej matematycznej koncepcji w realnym świecie. Sieci,
odpowiedziałbym, nie stwarzają ryb. W zależności od tego, jak wielkie są oka sieci,
złowieniu ulegają określone ryby — a więc sieć, jak matematyka, znajduje się po
naszej stronie, nie po „stronie Natury”.
Powiedzmy, że tak jest. Czy to znowu takie ważne? Ależ byłoby to odkrycie,
wstrząsające w fundamentach uchwytywaniem przez Człowieka wszelkich zjawisk,
komprymowanych w prawa Natury. Augenstein nie tylko zwraca uwagę na to, że
przecież równania Bernarda Riemanna, pochodzące z XIX wieku, utworzyły (jako
alternatywa „płaskiej geometrii Euklidesa”) szkielet teorii Einsteina. Może bardziej
dziwne jest to, że w roku 1924 dwaj polscy matematycy, Stefan Banach i Alfred
Tarski, ogłosili w piśmie „Fundamenta Mathematica” tak zwany Teoremat Banacha–
Tarskiego, który stanowi osobliwe odgałęzienie teorii mnogości, zwane
„dekompozycją”. Udowodnili matematycznie, że możliwe jest takie porozcinanie
przedmiotu A o dowolnym rozmiarze skończonym i dowolnym kształcie na M części,
które bez żadnej zmiany mogą być złożone w obiekt B, również dowolnego kształtu i
skończonych rozmiarów. Niby banalne, ale jakby nazbyt uogólnione Lecz jeśli
zastosować teoremat do pełnych kul okazuje się, że można kulę pociąć na pięć części
tak, że dwie z nich dadzą się złożyć w nową kulę, a pozostałe trzy części w drugą
kulę; to zaczyna się znawcom kojarzyć ze współczesną fizyką cząstek elementarnych!

3
Mianowicie znów Augenstein pokazał, iż prawidłowości rządzące zachowaniem
takich zbiorów i podzbiorów (bo to wszystko jest swoistą odnogą teorii mnogości) są
formalnie tożsame z prawami opisującymi zachowanie kwarków i gluonów w tym
modelu chromodynamiki kwantowej, który został przez fizyków rozwinięty w latach

50
siedemdziesiątych…
Więc jakże — czyżby Banach i Tarski, nie wiedząc sami, co robią (coś jak mój
„szalony krawiec”) niechcący, z wyprzedzeniem półwiekowym, wykryli prawa
chromodynamiki kwantowej — kiedy jej śladów nie było? To już by stanowiło dość
niesamowitą zagadkę, której rozwiązanie, niestety, okazać się może poznawczym
rozczarowaniem myśli ludzkiej na największą wyobrażalną skalę…
Z jednej strony jest tak: „magiczny sposób”, w jaki proton, wstrzelony w metalowy
cel, wytwarza rój nowych protonów wylatujących z tego metalu, identycznych z
„oryginałem”, precyzyjnie odpowiada opisanemu przez teoremat Banacha–Tarskiego
cięciu kul i składaniu kawałków w pary następnych kul. Lecz tu przychodzi
wątpliwość. O ile w ogóle „realne” są nasze modele — te wszystkie kwarki, gluony
— czy to są tylko modele naszych wyobrażeń o mikroświecie, zrodzone
matematycznie, czy „sama prawda świata”?
Andrew Pickering w Anglii twierdzi, że — mając do dyspozycji dowolny, byle
spójny, zbiór danych eksperymentalnych — fizycy potrafią zawsze wytworzyć modele
pokazujące, jak świat funkcjonuje, ale te modele są zawsze odzwierciedleniem kultury
(stanu nauki) ich czasu.

Nie jest problemem — powiada w jednej z prac — że uczony tworzy obrazy czy opisy
świata, uznawane za zrozumiale, ponieważ wspomagają go zasoby kulturowe jego epoki;
ponieważ zaś został wytrenowany w produkowaniu abstrakcji matematycznych, abstrakcje
te są mu tworzywem obrazów świata i nie jest to wcale bardziej dziwne od zamiłowania
etnicznych społeczności do ich ojczystego języka.

Tak więc powstaje tutaj wyraźny sprzeciw względem postulowanego od dawna


obiektywizmu poznania: wedle tej herezji poznajemy świat przez szkła, które wkłada
nam na nos i przed oczy chwila historyczna, już nagromadzony na przykład — w
fizyce — arsenał struktur matematycznych, natomiast świat „sam w sobie” pozostaje
nadal poza bezpośrednim dostępem naszej domyślności jako intuicji hipotezotwórczej
i wcielonej w doświadczenie empirii.

4
Bardzo nieśmiało o takim stanie rzeczy napomykając, mówiłem kilkakrotnie o tym,
że matematyka nie jest dla nas, poza tą „szczeliną bytu”, do której zaadaptowały się
wszystkie nasze zmysły, niczym więcej aniżeli biała laska dla niewidomego. Więc jak
on, laską postukując przed sobą, tworzy w swoim umyśle na poły widmowe,
niewyraźne uformowanie otoczenia podług echa, tak i my, jako fizycy, poprzez
zasłonę matematyki tylko staramy się dostrzec to, co „tam”, w świecie, jest
„ostatecznie prawdziwe”. Tym samym szykuje się w powyższej herezji kolejne
trzęsienie epistemologii w filozofii, ja zaś, ponieważ dostałem po palcach już za
mojego „szalonego krawca”, „wychylić się” bardziej nie śmiałem.
Jednym słowem, znajdujemy się jak gdyby w sytuacji czytelników bajek, które co
prawda do świata się odnoszą i natchnienie kształtujące ze świata czerpią, lecz
fotografiami świata bezpośrednimi nie są, gdyż poza strefą doświadczeń zmysłowych
ludzkiego sensorium być podobne nie mogą. Sądzimy już, że wiemy, co zachodzi
wewnątrz atomu, lecz docieramy jeno do analogii, które są jakąś wypadkową naszego
treningu kulturowego (tj. historycznego momentu) oraz przeświadczenia, że jak jakiś
sonar odbieramy echo od realnie i jednoznacznie istniejących zjawisk czy „rzeczy”.

51
To też miałoby nam pośrednio tłumaczyć, czemu nasza logika zostaje narażona na
okropny szwank już wobec klasycznych zachowań interferencji elektronów, które
urągają „zdrowemu rozsądkowi”, ponieważ nasze „albo tak” (albo tą drogą) —
„albo owak” (tamtą drogą) elektron, który jest sobie raz cząstką, a raz falą, to nasze
albo–albo unieważnia.

5
Ale jednak nie jest, moim już zdaniem, aż tak źle, jak by to mogło wynikać z
powyższego wywodu, przetkanego dość gęsto cytatami. Zdawałoby się, że kwestia
poruszona wyżej, jako należąca do epistemologii — czyli teorii poznania — i dająca
niejako wsparcie „idealizmowi”, do strefy zainteresowań tych, którzy się zajmują
przetwarzaniem danych, a więc „robią w informacji”, w ogóle nie należy, ale tak
wcale nie jest. Mianowicie od pół wieku mniej więcej toczy się w obrębie
problematyki „innych niż ziemski Rozumów” spór nie tylko o to, czy te inne Rozumy
w ogóle istnieją: lecz o to, czy my bylibyśmy w stanie posłany przez Nie sygnał,
wieść, jak szyfr rozłamać, jako informację na „ludzkie” przetłumaczyć i tym samym
zrozumieć. Kiedy w roku 1971 w Biurakanie odbyło się sympozjum amerykańsko–
sowieckie, poświęcone problematyce Komunikacji z Pozaziemskimi Cywilizacjami
(CETI), do książki, zawierającej protokoły dyskusji, dołączyli Rosjanie i mój referat.
Postulowałem w nim, samotnie, utworzenie „autofuturologicznej” komórki w
organizacji CETI, która miałaby za zadanie rozważać, jak się będzie cała
problematyka CETI zmieniała, jeżeli nie zostaną dostrzeżone i tym samym odebrane
żadne, nawet śladowe rodzaje sygnalizacji bądź przekazów z Kosmosu na przestrzeni
20, 30, 40 itd. lat? Obecnie, kiedy minęło od biurakańskiej konferencji prawie
ćwierćwiecze, zwiększyła się liczba opinii, że „nikogo nie ma nigdzie”, to i
nasłuchiwać za wielkie pieniądze (drogą radioteleskopową np.) nie warto. Mniej
nieco pesymistycznie (jakoby) nastrojeni naukowcy z kolei głoszą, że i gdzieś ktoś
sobie jest, a nawet może być, że jest inteligentny, co więcej, być może ma w głowie
więcej oleju od ludzi (to nie wydaje mi się w najmniejszym stopniu fikcyjne,
zwłaszcza gdy popatrzeć na tok zajść u progu XX wieku na całej Ziemi); niemniej
jednak, nieuchronne musi być dość gwałtowne rozchodzenie się pęków
cywilizacyjnych trajektorii w czasie i przestrzeni: mówiąc po prostu, „nauka” może w
każdej cywilizacji rozwijać się inaczej niż u nas, może mieć charakter tak bardzo
odmienny od nauki ziemskiej, może być tym samym w takiej mierze nieprzekładalna
na żaden typ artykulacji sygnalizacyjno–przesyłowej, że jeśliby nawet na nasze głowy
spadał deszcz sygnałów, nie będziemy w stanie w ogóle odróżnić go od chaotycznego
szumu Wszechświata.
Tego rodzaju stanowiska są obecnie w modzie, np. mam na biurku pochodzący
sprzed kilku lat sążnisty elaborat E. Regisa Jra z Cambridge University, który ową
dyskoherencję, nieprzekładalność wzajemną nauk głosi i powierzchownemu
czytelnikowi może się nawet wydać, że pierwsza część mego eseju „Herezje” zdaje
się nieść wersji „nieprzekładalnej różnorodności innocywilizacyjnych nauk” dość
silne poparcie.

6
Mnie się to wydaje zupełnym nieporozumieniem. Może nie wyobrażamy sobie

52
chwytanych w sieci i sidła matematyczne gluonów, kwarków czy jakowychś
grawitonów Jak należy”: z tym zgoda. Niemniej żadnym złudzeniem naszym nie jest
ani łańcuchowa reakcja nuklidów ciężkich, jak uran, pluton czy tor, ani tym bardziej
reakcje typu reakcji Bethego, zachodzące w gwiazdach i bombach wodorowych (tj.
termonuklearne).
Tylko zupełnie zwyczajny wariat, a nie mój „szalony krawiec”, utrzymywać by
śmiał, że Czarnobyl, że energia atomowa, że komputery, że ewolucja naturalna są to
jakieś nasze niewyraźne złudzenia! Jednym słowem, naukę poznaje się i nauka
sprawdza się w zastosowaniach, tj. w rzeczywistości, a nie tylko, jak np. filozofia z jej
mnóstwem rozgałęzień, na papierze, na który spływa z łysiejących głów. A skoro
przynajmniej ta różnica między myślą i realnością istnieje, uczony Mr Regis, który tej
skutecznie (choć nieraz z koszmarnymi efektami) stosowanej nauce uwagi nie
poświęcił, jest w grubym błędzie.
Może nie ma żadnych kwarków, może gluony są wymysłem matematyczno–
fizycznym, może fizyka XXI czy XXII wieku będzie już odmienna od współczesnej,
może nazwy jak „chromodynamika” ulegną zatarciu, zresztą wiemy, że nazwy tego
typu są czystą umownością, skoro żadnej „barwy” żadne kwarki mieć „naprawdę” nie
mogą. Niemniej nauka sprawdza się w tym dobru i w tym złu, które bez względu na
interpretację sposobu dochodzenia jej skuteczności poznajemy, jak medycyna
sprawdza się w skuteczności terapeutycznej, a to już nie mogą być przecież żadne
podległe momentowi historycznemu iluzje i fatamorgany. Jakąś cząstkę, jakąś
odrobinę, jakąś aproksymację „tego, jaki jest świat” poznajemy.
Co się natomiast tyczy epistemicznej detronizacji, która zagraża matematycznemu
podejściu fizyki, czyli rezygnacji z pewności, że każde ostatnie słowo teoretyczne
fizyki równa się już finalnemu dotarciu do Prawdy, nie tylko można, ale koniecznie
należy w to wątpić. Uczeni na całkowite oddanie, na pielęgnowanie takiego
relatywizmu jako nadawania przejściowego charakteru ich odkryciom i Noblami
nagradzanym teoriom nie mogą sobie pozwolić. Zresztą w tym są podobni do każdego
twórcy, który, myląc się, mniema, bo chce wierzyć, że to, co stworzył, jest wieczne, a
przynajmniej wśród ludzi dotrwa do końca świata.
Tak dobrze nigdzie nie jest: zaiste, jak powiedział starożytny filozof, godzi się,
ażeby to, co śmiertelni tworzą, było samo również śmiertelne. Rozum ludzki, taki
wyciągam wniosek z destylatu historii nauk, jest na planecie pierwszy, ale czy w
Kosmosie też pierwszy być może, bardzo wątpię. To już by nie tyle o nas, ile o
Wszechświecie bardzo źle świadczyło! Zresztą obecnie, w okresie niewątpliwej
dekadencji kultury masowej, w czasie, kiedy coraz wyższe, coraz świetniejsze
technologie informacyjnego przesyłu okrążają glob lub zawisłszy stacjonarnymi
transponderami satelitów nad jego powierzchnią, służą powielaniu i emitowaniu coraz
niższych, coraz brutalniej szych, coraz krwawszych, morderczych obrazów
ludobójstwa, obecnie, powtórzę, lepiej byłoby, ażeby żadna wysoka obca cywilizacja
się nam nie mogła przypatrywać.
Nie mamy się czym chwalić: powstaliśmy jako kanibale i swego rodzaju
wypaczony, bo nie zajęty samojedztwem kanibal się w człowieku ostał. Ale to już jest
zupełnie inna, znacznie bardziej ponura sprawa, która nie jest w najmniejszej mierze
herezją, ponieważ stanowi zadanie, które nam pozostawił Joseph Conrad, orzekłszy,
iż piszący „winien wymierzać sprawiedliwość widzialnemu światu”. To znaczy
światu ludzkiemu: a reszta jest spowitym w matematykę i przez to dla profanów
niedostępnym milczeniem nauki.

53
Postscriptum. Zjawiskiem historycznym, w które nie mogłem się tu zagłębić, jest
postępująca, na przestrzeni wieku coraz jawniejsza porażka tych ujęć teoretycznych
rodem z matematyki, które, cechując się maksymalną prostotą — także estetyczną,
wykwintem (elegancją) kategorycznego „jest tak a tak”, nie tylko satysfakcjonowały
fizyków XIX stulecia, ale upewniły ich w (błędnym) mniemaniu, że skoro się już w
jednorodne sieci determinizmu matematycznego „schwytało cały świat”, fizykom
wieku XX zagrozi bezrobocie… Tym samym dalszy rozwój wiedzy równał się
rozchwiewaniu zeszłowiecznej pewności, nie tylko i nie po prostu poprzez odkrycia
indeterminizmów: „wszystko” okazało się bardziej złożone, bardziej podległe
„przypadkowi”, bardziej warunkowane wielościami przyczyn, niż się w zaraniu nauk
zdawało.
Jak się w roku 1963 spodziewałem, komputery przyszły z walną pomocą nauce,
umożliwiając dokonywanie — prócz obliczeń algorytmicznych — również symulacji
procesów nie podległych matematycznym rozstrzygnięciom „frontalnie” (jak np.
problem trzech grawitujących ciał, a z niego poszły nowe koncepcje astrofizyczne,
które strzaskały nam model słonecznego systemu jako doskonale w milionoleciach,
równomiernie funkcjonującego „planetarnego zegara”: takiego prostego ładu nie ma
w astronomii).
Teoria, a raczej teorie chaosu i katastrof, wspierane pracą komputerów, rozsadziły
nam łatwiej podległe rozumowi i wyobraźni, jednoznacznie zarysowane obrazy
makro— i mikroświata. W głąb zagęszczających się dżungli formalnych, w których
powstają dziwaczne krajobrazy fraktalne i pokrewne im twory, szukające swoich
„obiektów–celów” w świecie, wejść tu nie mogę. Mogę tylko zauważyć, że nie należy
z jednej skrajności — prostoty — wyjść, ażeby popaść w przeciwstawną skrajność —
niedocieczonych złożoności!
To znaczy, że musimy wprawdzie posługiwać się komputerami, lecz nie
powinniśmy bezkrytycznie akceptować wyników ich działania, ponieważ łatwo stają
się one wytwórcami chaosów, złożonych tylko z komponentów zdeterminowanych
(skąd myśl, że „naprawdę chaotyczny chaos nie istnieje w ogóle”), takie zaś np.
fraktale Mandelbrota są produkowane przez wyjściowo proste równania, lecz nie
należy bezapelacyjnie podlegać ich urzeczeniom. One powstają wedle warunków
początkowych, zadawanych programami, a to, ze zadany program rozwija się bardziej
zaskakująco, bujniej, niżby sądził autor–programista, nie musi oznaczać, że te fraktale
i te chaosy „są w Naturze wszędzie”, że one już „schwytały świat” w najgęstszą z
konstruowalnych sieci formalizmów.
Stanowisko sceptyka opłacić może się lepiej: matematyka bowiem (i pokrewne jej
symulacje) rzeczywiście może jak zbyt osobliwie upleciona sieć łowić nie tylko
wieloryby czy płotki światowego oceanu, ale także głupstwa — i tym samym wodzić
na manowce. Pisali już o tym uczeni, jak J. Weizenbaum, zadomowiony w computer
science.
Są to przestrogi przed fascynacją „komputeryzmem” — już na czasie…

54
Hodowla informacji

1
Pomysł, zawarty w powyższym tytule, nawiedził mnie pod koniec lat
pięćdziesiątych, a po raz pierwszy został tak nazwany i zaprezentowany w książce
Summa Technologiae, wydanej w roku 1964. Był wtedy i długo jeszcze pozostał
mieszkańcem mojej wyobraźni, toteż pisać o nim śmiałem raczej w mojej Science
Fiction; i tak fragment rozważań opublikowanych już w roku 1971 w Dziennikach
gwiazdowych Ijona Tichego opiewa:

Koszmarne wizje, jakie roztaczają nieraz futurologowie o świecie przyszłości,


zatrutym spalinami, zadymionym, ugrzęzłym w barierze energetycznej, termicznej itp., są
bowiem nonsensem: w postindustrialnej fazie rozwoju powstaje INŻYNIERIA
BIOTYCZNA, likwidująca problemy tego typu. Opanowanie zjawisk życia pozwala
produkować syntetyczne plemniki, które zasadzasz w byle czym, skrapiasz garścią wody i
wnet wyrasta z nich potrzebny obiekt. O to, skąd taki plemnik bierze wiadomości i energię
dla radio— czy szafogenezy, nie trzeba się troszczyć — tak samo, jak nie interesujemy się
tym, skąd ziarno chwastu czerpie siłę i wiedzę dla wzejścia.

Koniec cytatu. Był to czas, w którym moja „hodowla informacji” wciąż przebywała
w krainie czystej fantazji, toteż inaczej niż w maskownicy groteski, w śmieszącym
przebraniu, nie mogłem jej ukazać. W całej dziedzinie przetwarzania danych, czyli we
wszystkich gałęziach rozwoju komputerów i ich kolejnych generacji panowała
niepodzielnie żelazna zasada top–down, czyli z „góry na dół”: na płatkach
silikonowych ryto coraz mniejsze obwody i w głównej mierze chyżość logicznych
przełączeń, a tym samym moc obliczeniowa, była uzależniona od stopnia
mikrominiaturyzacyjnego procederu.
Tak jest do dziś. Mnie natomiast od początku już, sprzed wielu lat, świtała
koncepcja odwrotna: bottom–up, czyli „z dołu w górę” — dlatego, ponieważ w taki
właśnie sposób działa technologia życia. Nic nie może być wszak mniejsze i bardziej
„kompaktowo” zmagazynowane aniżeli informacja drzemiąca biernie w genach,
zredukowana do z cząsteczek złożonej, bliskiej atomowej skali, „konstrukcji”
nukleotydowej, która zawiera w sobie „czujniki”, gotowe tę informację rozprężnie
obrócić w procedury budowlane, choćby w byle zarodniku, w plemniku, w jajeczku.

2
Ogólnie zaś można rzec, że technologie nasze są sprawne zasadniczo w skali
makro. Tłumaczę z mego eseju napisanego po niemiecku w książce Vergangenheit
der Zukunft, ogłoszonej w wydawnictwie Insel w roku 1992, a prezentującej takie
moje prognozy, które już nasz czas począł realizować.

Już R. Feynman w roku 1959 — pisałem — wyobrażał sobie serię maszyn, które
byłyby w stanie produkować coraz mniejsze „potomstwo”. Granicę takiego ciągu
musiałyby tworzyć maszyny zbudowane z samych molekuł. Istotnie, nie wiedząc nic o
idei Feynmana, wpadłem na nią, zajmując się po prostu teoretyczną biologią. Zasada
bioewolucji nie polega jednak na budowaniu „coraz mniejszych maszyn” (Feynman), lecz
odwrotnie, na budowaniu coraz większego z małego, albowiem proces życiowy

55
wykształca z pojedynczych łańcuchów atomowych za pośrednictwem ich samoorganizacji
molekularne replikatory, które z kolei w toku embriogenezy wyrastają w dojrzałe
organizmy, a wszak początkiem ich była zawsze jednokomórkowa substancja dziedziczna!
Moja „hodowla informacji” miałaby przebiegać nie pomiędzy „mikro” i
„makromaszynami”, lecz pomiędzy molekularnymi nośnikami informacji o rozmaitym
ładzie i różnej wielkości (ale zawsze zrazu na poziomie porównywalnym z poziomem
atomowym). Ewolucja w całości może być rozpatrywana jako gigantyczny proces
„uczenia się”, samoorganizacja zaś nie jest „samouczeniem się”, lecz selektywnym
zbieraniem i łączeniem informacyjnych fragmentów.
Podczas jednak, kiedy (wciąż cytuję siebie, tłumacząc z mego niemieckiego eseju)
budowlany plan organizmu dojrzewa z genów, czyli „rozkazodawców zdolnych do
uaktywnienia”, aż zakończy się budowa organizmu, moja „hodowla informacji” miała
doprowadzić do tworzenia „zautomatyzowanego samotwórcy naukowych teorii” dzięki
temu, żeby niezmienniki środowiskowe (w ich wybiórczo wykrytej informacji) winny się
niejako wykrystalizować w „teorię” jak gdyby z pseudogenów złożoną. Tak zatem drzewo
ewolucji widziałem jako rozgałęziony wzrost „ksobny”, „egoistyczny”, ponieważ w nim
tylko to może przetrwać i to się rozrasta, co dzięki adaptacji do środowiska przeżywa, w
mojej „hodowli informacji” natomiast miało być „na odwrót” — bo środowisko winno by
informacyjnie skoncentrować swoje niezmienniki w coraz ściślej upakowanej wiedzy —
więc w modelu teoretycznym pomysł ten nie wydawał mi się tak szalony, na jaki zdawał
się wyglądać. Przecież informacyjna zawartość jednej ludzkiej komórki rozrodczej
odpowiada zawartości encyklopedii!
Ponieważ jednak dojrzały organizm zawiera jeszcze więcej informacji, powstaje
pytanie, skądże on tę dodatkową informację może pobrać? Otóż pobierają w trakcie
wzrostu „z samego siebie” (z wzajemnej interakcji organów ciała) i ze środowiska, co
przypomina „efekt Münchausena”, który sam siebie wyciągnął za włosy z bagna. Jest tak,
ponieważ embrion nie pobiera byle informacji, lecz absorbuje taką, która przydatna mu
jest do dalszego dojrzewania. Więc można by wyobrazić sobie odwrotność takiego
przebiegu: jako molekuły, które „odżywiają się” istotną informacją, pobieraną z otoczenia
i w ten sposób „bez profesorów uniwersytetu” projektują teorie…
Nieco zbliżone, jakkolwiek o wiele skromniejsze koncepcje były omawiane ostatnimi
laty w fachowej literaturze jako tak zwana „nanotechnologia”. Nie ma ona jednak nic
wspólnego z teorią czy praktyką poznania, a zatem z budowaniem teorii. Szło o to, aby
nanokomputery (w skrócie zwane Nands) sterowały mikromaszynkami, które wnikałyby
w celach leczniczych do ludzkiego organizmu. Było to raczej bliskie „bystrom” jako
„wirusom ratunkowym”, które opisałem w powieści Wizja Lokalna. A. K. Dewdney w
roku 1988 pisał w „Scientific American”: „oczywiście, teraz jest to wszystko marzeniem
sennym — teraz. Znajdujemy się obecnie na progu wniknięcia w obszar «nano»„.

Koniec tłumaczenia z niemieckiego.

3
Ja sam w jakiś czas po ukazaniu się pierwszego wydania Summa Technologiae
uległem zwątpieniu, czy moja „hodowla informacji” nie jest zwidem, którego
urzeczywistnienie będzie po wieki wieków niemożliwością. Jakoś nigdy nie wzbudził
ten pomysł żadnego echa, ani krytycznego, ani prześmiewczego, ani pochwalnego:
jakbym, zamiast książkę opublikować, wyrzucił jej maszynopis do studni.
Zjawisko przemilczania pomysłów nazbyt przedwczesnych, zbyt odległych od
wiedzy zastanej, funkcjonującej w przystosowaniu już przemysłowym, jak cały —
olbrzymi wszak — przemysł komputerowy z jego niewzruszoną regułą „od większego
do mniejszego”, czyli TOP–DOWN, to zjawisko jest właściwe wszystkim epokom i

56
wszystkim nazbyt zuchwałym, zrodzonym samotnie ideom. Pewnie z tego powodu w
następnym wydaniu Summa Technologiae „hodowlę informacji” sam poddałem
surowej krytyce, choćby dlatego, ponieważ było tak, jakby jej nikt ani w kraju, ani za
granicą w ogóle nie dostrzegł.
Trzeba powiedzieć, że zarówno od „nanotechnologii”, jak i od odwrócenia zasady
TOP–DOWN w BOTTOM–UP jesteśmy wciąż jeszcze daleko, niemniej już się takim
odwróceniem — chociażby zaczątkowo — uczeni zajęli. Świadczy o tym obszerny
artykuł w „New Scientist” z 19 lutego 1994 r., zatytułowany „Molekuły, które same
siebie budują” (Molecules that build themselves). Jakoż w podtytule jest powiedziane:
„Natura wspiera się na takich złożonych molekułach jak DNA, aby mogły się
zmontować”. Chemicy pobierają dziś od biologii lekcje, które mogą doprowadzić nas
do nowej generacji microchips.
Tyle jako zapowiedź. Zaś w artykule, którego ani przytoczyć, ani szeroko
streszczać tutaj nie zamierzam, ukazana jest przynajmniej zasada, jawnie
spokrewniająca się ze wstępem do mojej „hodowli informacji”. Przyznam, że się tak
rychłego ziszczenia zaczątków pomysłu sprzed trzydziestu kilku lat nie
spodziewałem: wypada zasługę przypisać najpierw niesamowitemu wręcz
przyspieszeniu poznawczej działalności nauki, która (nie na ostatku) uległa
akceleracji, ponieważ, jak już obliczono, dzisiaj żyje i pracuje więcej uczonych aniżeli
w całym czasie minionym do teraźniejszości.

4
Cóż więc takiego wykryli chemicy, co może zapowiedzieć „pseudobiologiczne
przetwarzanie danych”, i tym samym sprowadzić je do poziomu bodaj w Naturze
najniższego, bo wszak poniżej atomów i ich związków panuje już domena kwantowa,
w której, jak się nam obecnie wydaje, nie będzie można poszukiwać podłoża jeszcze
dalszej mikrominiaturyzacji: tam bowiem panuje zasada nieoznaczoności
Heisenberga, nie dające się z nukleonów wyosobnić — bez użycia kosmogonicznej
energii — zagadkowe kwarki, fale są cząsteczkami, a cząsteczki falami… ale znów
głowy nie dałbym obciąć sobie za to, że się tam data processing czyli przetwarzanie
danych nie zdoła przedostać w nadchodzącym wieku.

5
Pierwsze elementy, pierwsze wykryte cegiełki molekularnego budownictwa „z
dołu w górę” są, jak to zazwyczaj bywa w początkach, raczej dosyć proste. Prawie jak
klocki budowlane LEGO… ale nie ze wszystkim. Na razie poznano dwie klasy
molekuł: tak zwane „katenany” i „rotaksany”. Catena to po łacinie łańcuch, a po
angielsku concatenation to łańcuchowe połączenie ogniw. Tak też wyglądają związki
pierwszej grupy: one są jakby kółkami wzajemnie sprzężonymi. Natomiast
„rotaksany” wirują, rotują wokół osi połączenia (nie mechanicznego naturalnie, lecz
fizykochemicznego) dwu grup molekularnych: jakby ktoś naciągnął obrączkę na
ciężarek zakończony dwiema kulami. Należy tutaj sobie generalnie uprzytomnić, że
niesamowicie precyzyjne budownictwo biologiczne zachodzi właściwie zawsze w
fazie ciekłej. To już nie jest faza stała znanej solid state electronics. Faza ciekła, faza
roztworów, koloidów, stwarza zupełnie nowe warunki, nie tylko mechanice ciał
stałych i elektrodynamice „makro”, ale również silikonowej technice nie znane:

57
mówiąc w grubym uproszczeniu, chips są jak tabliczki, a my jak dzieci — rysikami
grawerujemy obwody i „bramki” na silikonie; tutaj — w fazie ciekłej — wszystko to
już staje się przeszłością, niby żaglowce i balony w erze odrzutowców.
W USA syntezowano już trójwymiarowe struktury, przypominające pęcherzyki
zawarte w komórkach biologicznych. A u Harvarda tworzą molekularne pokrycia
powierzchniowe, co daje odpowiedniki dwuwymiarowych kryształów organicznych.
Z kolei dopiero dalsze rozbudowywanie rotaksanów pozwala zrozumieć, dlaczego
właściwie „matryca dziedziczności”, jaką jest spirala nukleotydowa, ma kształt
spiralnych „schodów”. Jak twierdzą zagorzali entuzjaści fizykochemii, katenany i
rotaksany są niejako prekursorami molekularnych przekaźników. Nietrudno już
tworzyć takie molekularne „aparaty”, które potrafią wyrażać dwójkową, czyli
„binarną” logikę, fundament całej digitalnej rewolucji kresu naszego stulecia.
Proszę zwrócić szczególną uwagę na słowo „wyrażać”. Wprawdzie jeszcze logika
ta, sama, jako izolat, żadnej treści nie zawiera, lecz można z takich elementów — a
raczej będzie można — budować układy większe. Co się szybkości przełączeń tyczy,
też nie należy ulegać zmartwieniom. Rotaksany wirują około 300 000 razy na
sekundę, a ważą około 3000 daltonów. Jako molekularne systemy pamięci, czyli
informacyjne „składy”, są też odpowiednio znikome, 5 nanometrów przy
maksymalnym rozciągnięciu…

6
A więc z jednej strony zarysowały się szansę budowy biokomputerów, opartych na
molekularnej zasadzie bottom–up, z drugiej zaś jeszcze może więcej nawet obiecujące
budownictwo molekularne, które zdoła wreszcie zapełnić ów tyleż ogromny, co
zagadkowy rozziew pomiędzy wszystkimi możliwymi tworami materii martwej a
materią ożywioną. W samej rzeczy bowiem do dziś żadnego ciągłego przejścia
między nimi nie ma i dlatego w niedawnej jeszcze przeszłości filozofowie postulowali
istnienie jakowejś vis vitalis, entelechii, zagadkowych bytów ponadmaterialnych, nie
redukowalnych ani do fizyki ani do chemii, owych „embriogenetycznych promieni”
Gurwitcha, owych „pól organizacji wzrostów”, które miały na poły niedostrzegalnie
być czymś, co może tchnąć aktywność nie porównaną z niczym w żywe organizmy i
tkanki.
Ten rozziew będzie oczywiście zapełniany stopniowo i powoli, jego zaś
ekstrapolacyjnym towarzyszem stanie się „filozofia przyszłości”. Ukuć ten termin
pomógł mi niemiecki filozof z Essen B. Grafrath, który wykłada pierwiastki jakiejś
„lemologii” w oparciu o dyskursywne tytuły moje, takie jak Golem XIV, na
tamtejszym uniwersytecie, ponieważ wyjawił przekonywająco, że właściwie nie
uprawiam „futurologii” takiej, jaka stała się modna ze dwadzieścia parę lat temu,
albowiem żadnych konkretnych „wynalazków” nie próbuję przewidywać, a jeśli to, co
pisałem, patrzyło na „prognozę”, to jedynie w takim sensie, w jakim Bacon przed 400
laty wyraził przeświadczenie, że samojezdne machiny człowieka zejdą w głębiny
mórz, będą się poruszały po lądach i opanują powietrze.
Ta „filozofia przyszłości” miałaby stanowić jakby roztrząsania poznawcze,
perspektywy ontologiczne oraz osądy etyczno–moralne takich prac Człowieka, jakich
nie ma, lecz ku jakim wiedzie już z końcem XX wieku tak zwana niezmożona
„składowa faustyczna” ludzkiej natury. Rzecz mianowicie w tym, że tworzymy to, co
Naturę naśladuje, chociaż często inaczej niż Natura działa (auto nie jest wszak
plagiatem czworonoga ani samolot — orła) oraz to, co kiedyś Naturę prześcignie, z
58
fenomenów Natury wyszedłszy, jak wykatapultowane z procy, i tym samym jeszcze
drastyczniej aniżeli dziś objawi się obosieczność ludzkiego „postępu”, który jest w
awersach Dobrem, a w Rewersach — jednocześnie — zagrażającym nam i sobie
Złem. (Dziwnie to przypomina słowa Pisma o „Pożywaniu owoców z Drzewa
Wiadomości”, słowa szatana eritis sicut Deus scientes bonum et malum…).
Jak dotąd, projekcje mojej wyobraźni unosiły się jak gdyby w próżni fantazmatów
zamknięte w poszczególne rozdziały książek (jak Summa T.). Teraz poczynają z mgły
informacji wyłaniać się pierwsze stopnie schodów, wiodących ku owym zuchwale i
przedwcześnie pomyślanym szansom, w których może nawet więcej kryje się
zagrożenia naszego gatunku aniżeli tryumfu: ale skoro już wiemy, że „postęp” jest
autokataliczny, że technologia także jako biotechnika stanowi „zmienną niezależną”
dziejów cywilizacji — wszystkie próby jej zatrzymania, wyhamowania, będą wniwecz
obrócone.
Czas nasz, przejściowy, po upadku imperium sowieckiego, jest bez wątpienia
chaosem, w którym czai się niejedno niebezpieczeństwo. Możliwe, że czas ten
spowoduje spowolnienie prac poznawczych nauki: wiemy przecież, że uległa ona
nieomal strzaskaniu w byłym ZSRR, a mniej wiadomo o głosach przerażenia,
dobiegających z naukowych środowisk w USA. Mianowicie, w obliczu zniknięcia
największego przeciwnika, Kongres i zwolennicy stanowisk „konserwatywnych”
domagają się znacznego okrojenia budżetu federalnego i budżetów stanowych, które
w czasie wyścigu zbrojeń (zimnej wojny) maksymalnie finansowały także badania
podstawowe. Byłoby to zjawiskiem o posmaku wielkiego zagrożenia. Ani Japonia, ani
niektóre z „tygrysów azjatyckich”, czyli obszary, w których zimna kalkulacja trwa
nadal, nie zdecydują się na podobne redukcje (w sferze „R and D”, Research and
Deuelopment) i wtedy może dojść do przemieszczenia centrów „naukonośnych” z
jednych połaci globu na inne kontynenty.
Nauka jednak nie postrada, ponieważ tak czy owak będzie się rozwijała nadal, a z
jej historii dowiedzieliśmy się już, że okres pojawiania się zdatnych do
szerokofrontowego wdrażania nowych technologii, nowych źródeł energii, nowych
narzędzi i programów działania, poprzedzać musi zawsze okres przygotowawczy,
właśnie badań podstawowych, które zdolne są do zaowocowania, sposobem z góry nie
dającym się ani dokładnie zaprojektować, ani nawet przewidzieć, w rezultatach
korzystnych bądź fatalnych dla ludzkości. Bezrobocie jako skutek
wszechautomatyzacji może być plagą XXI wieku, a myśleć o tym należy już teraz.
(Norbert Wiener przed półwieczem pisał o nim w Human Use of Human Beings).
Molekuły pseudobiologiczne (ponieważ przy uszkodzeniach samonaprawcze),
molekuły zdolne do pomnożeń (replikacji) staną się czymś więcej niż prostym
małpowaniem oddzielnych organicznych funkcji, plagiatem ze zjawisk życia. Są
zwiastunami przewrotów, być może przewartościowaniami, znacznie
przewyższających wpływ rozszczepienia nukleonów na ludzkie bytowanie. Zresztą
żaden patos przy rozmyślaniu nad „filozofią przyszłości” nie jest potrzebny.
Najwyżej mógłbym wyrazić żal, że nie w kraju, nie w Polsce przewidywania moje,
ubrane po części w kostiumy i pokazane w scenerii Science Fiction, zrozumiane
zostały, ocenione i uznane za brzemienne w prawdę — w prawdę przyszłości po
prostu. Ale to, co powiada porzekadło Nemo propheta in patria sua nie zostało
wczoraj wymyślone i w gruncie rzeczy powtarza tylko pewien bardzo stary stereotyp,
przeciw któremu brak lekarstwa. Wszak musiałem tutaj tłumaczyć moje teksty z
niemieckiego!
Nauka w Polsce znajduje się w fatalnym stanie i nic nie rokuje terapii, która by ten

59
stan zapaści uleczyła. Ale to już jest tematem do następnych roztrząsań: aura
polityczna sprzyja na razie naszemu cofaniu się i prawdziwie niebezpiecznym
wybuchom sarmatyzacyjnego sobkostwa…

7
Ażeby nie zakończyć pesymistyczną uwagą, pozwolę sobie przytoczyć ostatnie
słowa, jakimi zamknąłem przed laty Summa Technologiae:

Z dwudziestu liter aminokwasowych zbudowała Natura język „w stanie czystym”,


który wyraża — za nieznacznym przestawieniem sylab nukleotydowych — fagi, wirusy,
bakterie, tyranozaury, termity, kolibry, lasy i narody — jeśli ma tylko do dyspozycji czas
dostateczny. Język ten akceptuje nie tylko warunki dna oceanów i szczytów górskich, ale
kwantowość światła, termodynamikę, elektrochemię, echolokację, hydrostatykę i Bóg wie,
co jeszcze, a czego my na razie nie wiemy. Czyni to tylko „praktycznie”, ponieważ
sprawiając wszystko, niczego nie rozumie, lecz o ile sprawniejsza jest ta bezrozumność od
naszej mądrości. Doprawdy, warto się nauczyć takiego języka, który stwarza filozofów —
gdy nasz — filozofie.

A w 1980 roku na zaproszenie Polskiej Akademii Nauk napisałem prognozę


rozwoju biotechnologii do roku 2060, która utonęła w rzece historii — ponieważ
rozpędził ją wybuch naszej „Solidarności”, przez co nigdy nie została ta prognoza
opublikowana. Pisałem w niej o przejęciu „języka Natury — języka genów — od
bioewolucji” i o tym, jak rozumiem hasło „doścignąć i prześcignąć Naturę”.
Ale to już jest rzecz na inną rozprawę i okazję…

60
Wirusy maszyn, zwierząt i ludzi

1
„Wirus” oznacza dosłownie jad”. Poprzednikiem plagi wirusowej, zagrażającej
komputerom, była zaprogramowana przez A. K. Dewndeya w roku 1984 gra „Core
Wars”. Jej fatalne potomstwo jako możliwość dostrzegli dopiero czytelnicy
Dewndeya. Pamiętam jak po raz pierwszy w piśmie „New Yorker” czytałem o
Computer Crime: w tym czasie o wirusach komputerowych nie było jeszcze mowy.
Wirusy można od siekiery podzielić na trzy klasy:
I. Programy, które „zakażają” inne programy, modyfikując je tak, aby „zarażone”
zawierały kopię wirusa. Jednak właściwie wirus programem w ścisłym znaczeniu nie
jest, gdyż samodzielnie jako soft—ware niczego nie może zdziałać. Może być raczej
„doczepką” albo „parazytem” programu. Taki wirus może być uznany za coś w
rodzaju dodanej do programu sekwencji.
II. „Robaki”. Są to rzeczywiste programy, które mogą się samodzielnie przenosić
od komputera do komputera, więc się „rozmnażają” mając „cykle życiowe”
przypominające „robaki” w rodzaju ludzkiego albo zwierzęcego tasiemca.
Programów, które obsiadły, nie zmieniają w podobnym sensie, jak tasiemiec nie
zmienia człowieka.
III. „Konie trojańskie”. To również są samodzielne programy, które co prawda nie
muszą się rozmnażać. Udają rzetelne programy, służące właścicielowi komputera,
lecz w toku aktywności, kiedy funkcjonują pozornie wedle zamiaru obsługi, „w
zapleczu” zachodzą całkiem skrycie inne procesy. Sięgają one do wykrywania,
magazynowania, przekazywania haseł kodowych aż po likwidowanie danych lub
całego dysku. Można je też uznać za „trojańskie konie”, zawsze połączone z
udawanym programem.
Generalnie biorąc, problem wirusów komputerowych jest jedną z niezliczonych
odmianą „wynalazczości destrukcyjnej”, która jest interesowna (i w tym niejako
przedustawnie dana biologii, ponieważ wszystkie organizmy, czy złożone, czy proste,
są „ksobne” i niczego poza tym nie robią, co ich przeżywaniu na jakiś koszt cudzy lub
własny nie służy), albo bezinteresowna. Trawa nie jest na ogół destrukcyjna, wirus
mozaiki tytoniowej jest niszczycielem, podobnie naturalnie, jak groźny wirus zapaści
odpornościowej, powodujący AIDS. O tym, jak on powstał i skąd w toku
„informacyjnej ewolucji” powstały wirusy dla nas zabójcze, chcę mówić nieco dalej:
już teraz wszakże wolno rzec, że im w ich genezie żadnej „okrutnej intencji” nie
można przypisać. Gdzie człowieka nie ma, nie ma też żadnej intencji, rozumianej jako
taka chęć, z której można by zrezygnować: intencja bez świadomego jej
zaakceptowania w przyrodzie nie istnieje. Działania instynktów (pająka, skorpiona) są
bezintencyjne, ponieważ instynkty sprawiają, że tak a nie inaczej organizmy
zachowywać się muszą. Piszę o tym dlatego, że z grubsza wirusy maszyn (komputery
są maszynami przetwarzającymi informacje, tak jak silniki maszynami
przetwarzającymi energię) można rozdzielić na takie, które komuś do czegoś służą,
pozwalają wkraść się do atakowanego systemu informacyjnego, ukraść dane którymi
można jakoś po zawładnięciu sobie wygodzie, itd.), i na takie (Michał Anioł), które
oprócz tego, ze w oznaczonym dniu czy godzinie zniszczą informację zakodowaną w
maszynach, niczemu nie posłużą i niczego nie zrobią. Wirusy, które mają zadania
niszczycielskie wyłącznie, są, rzecz jasna, efektem takiej pomysłowości człowieka,
61
która zamiast tworzyć, przedostaje się (stara się przedostać) przez każdą obronę i ma
za cel tylko destrukcję. Jest to bardzo niemiłe, że ten abstrakcyjnie poczęty ablegier
naszej wynalazczości ma (mniej wyrafinowane lecz bardziej brutalne) korzenie w
atrakcyjności dla nas ZŁA po prostu. O czym się nie mówi, albo zapomina.
Marzeniem „hackera” może być i atomowa wojna światowa, wywołana dzięki jego
umiejętności wtargnięcia do najlepiej zastrzeżonego systemu jakichś sztabów
generalnych.

2
Wirusy żywych organizmów powstają zawsze w toku ewolucji naturalnej,
podobnie zresztą jak wszystkie żywe ustroje, zarówno pasożytujące, jak żyjące nie
takjawnie „na cudzy koszt”. Nie mają one własnej przemiany materii. Zmuszają
komórki gospodarza do wytwarzania niezbędnych wirusowi związków
molekularnych, powodując śmierć lub uszkodzenie całych tkankowych zespołów, z
kolei rozprzestrzeniają się w organizmie, a zwykle przenoszą się różnymi drogami na
organizmy podobne. (Wynika z tego wirusowa choroba, epidemia, a w przypadku
AIDS — pandemia obecna). Wirusy uważa się za ogniwo pośrednie między materią
martwą i żywą, gdyż z jednej strony potrafią się — dzięki „zniewoleniu” gospodarzy
— rozmnażać, a wyosobnione można z drugiej strony krystalizować (nie wszystkie
tak prosto, jak wirus mozaiki tytoniowej). (Istnieją też wirusy bakterii, tak zwane fagi
beta na przykład).

3
Dochodzę do kwestii, na której mi zależało. Dwa są istotne podobieństwa
pomiędzy wirusami organizmów i komputerów. Dwudzielność wirusa oraz tak zwany
„okres latencji”. Wirus składa się z otoczki proteinowej i wewnątrz umieszczonej
„substancji dziedzicznej”. Jego molekularne „czujniki” zewnętrzne stwierdzają
należyty kontakt z obiektem do zainfekowania. Nić kwasów nukleinowych zostaje
przy udanym „zakotwieniu” wstrzyknięta do komórki gospodarza i następnie wirus
traci swoją identyczność jako mały system samodzielny. Wnika bowiem w procesy
komórkowe, najczęściej jądrowe (DNA) gospodarza, by je dla siebie wykorzystywać.
Latencja to okres utajnienia infekcji. Wirus musi najpierw uruchomić etap aktywnej
inwazji wewnętrznej, z grubsza sprowadzalny do tego, że przerzuca on tak i tyle
zwrotnic molekularnych aparatu komórki atakowanej, aż podległszy mu, będzie ona
już producentem elementów budowy wirusa, który wtargnął: kończy się to w granicy
rozpadem i śmiercią komórki gospodarza, a rzut potomnych wirusów atakuje dalsze
tkanki ustroju. Natomiast etapy ewolucji wirusów komputerowych może cechować
albo specjalizacja, albo na odwrót, swego rodzaju uniwersalizacja, czyli albo się one
coraz skuteczniej mogą zmagać z obroną (ponieważ istnieją wszak specjalne
antywirusowe programy), albo mogą być „zaraźliwe” dla szerszej gamy różnych
programów. Zasadniczo jednak idzie zawsze o te wszystkie dziś na rynku obecne
komputery, które potrafią imitować najprostszy system, jakim jest maszyna Turinga, a
to znaczy, że wszystko zasadza się na pracy krokowej. Od słowa łacińskiego
ITERATIO, powtórzenie, powstanie kolejnego kroku, bierze się pojęcie pracy
ITERACYJNEJ. Otóż wirusy dzisiaj jeszcze skutecznie do programów
projektowanych dla paralelnie pracujących komputerów brać się nie mogą z tej

62
trywialnej przyczyny, że te komputery w większej mierze są marzeniem aniżeli
rzeczywistością. Mózg (każdy, nie tylko człowieka) działa wedle reguły
wypowiedzianej przez Johna von Neumanna: układ PEWNY (oporny na awarie)
zbudowany z elementów NIEPEWNYCH (awariom podległych). W równoległym
komputerze POWINNA właśnie obficie rozdrzewiona sieć połączeń pomiędzy
poszczególnymi „bramkami” umożliwiać likwidowanie lokalnych awarii, gdyż jeśli
jedna droga zostanie zamknięta, zwykle jakąś inną, okólną, sygnał pobiegnie.
Natomiast dziś tak sprawna antyawaryjność antywirusowa jeszcze nie została
szerokim frontem osiągnięta.
Przepraszam jednak za dygresję, by powrócić do zagadek wirusów pasożytujących
na życiu, zwłaszcza zaś do wirusa AIDS. (Nawiasem mówiąc, uważam za skandal, że
w USA, we Francji, w Rosji ukuto w miejscowych językach terminy dla tego wirusa:
SIDA, SPID, a u nas albo posługujemy się angielskim HIV, albo mówi się o AIDS, co
sensu stricto jest głupstwem, gdyż AIDS oznacza Acąuired Immunodeficiency
Syndrome, czyli agonalną, ostatnią fazę przegranej walki ustroju z wirusem, a nie
samego wirusa).

4
Nasuwające się zewnętrznemu obserwatorowi podobieństwo „wyścigu zbrojeń”
pomiędzy wirusami i organizmami jest po części złudzeniem, wywołanym naturalną
naszą skłonnością do antropomorfizacji zachowań wszystkiego, co żywe. Chodzi i o
to, że specjalizacja programów wirusowych oraz antywirusowych w informatyce
oznacza wzrosty sprawności, wywołane doskonaleniami (więc mamy „ochronne
szczepienie”, instalowane w systemie, które ma zastępować każde odchylenie od
pożądanej funkcji, mamy desinfectantia, które usuwają czy likwidują rozpoznanego
wirusa, mamy „kwarantannę”, czyli czas odczekany dla wykrycia, czy wirus się nie
zaktywizuje — co prawda wirus może mieć wbudowany czujnik kalendarzowo–
zegarowy o długoterminowym zasięgu). Stąd „kwarantanna” nie jest zabezpieczeniem
pewnym.

5
A jak to jest właściwie z tą problematyką, przeniesioną w obszar żywych
organizmów? Tu trzeba rozdzielić przynajmniej dwie dziedziny.
I. W latach pięćdziesiątych do walki z królikami, które, rozmnożywszy się,
niszczyły w Australii pastwiska owiec, wprowadzono myksowirusy wywołujące
śmiertelne schorzenie królików. W rezultacie 90% królików wymarło, ale sukces
okazał się krótkotrwały, ponieważ już w latach sześćdziesiątych populacja królików
całkowicie się odtworzyła. Mianowicie króliki, co przeżyły, stały się na myksomatozę
niewrażliwe. Jest wysoce prawdopodobne, że podobny przebieg miałaby pandemia
ludzkości, atakowanej przez HIV. Lecz trudno, abyśmy się pogodzili z widmem
śmierci 90% populacji Ziemi, po czym pozostałe 10% nie umierałoby już na AIDS…
Ogólna zaś zasada jest taka: młode tj. ewolucyjnie wcześnie powstałe pasożyty są
wysoce zjadliwe. Ich zjadliwość (wirulencja) niesie zgubę atakowanym ofiarom, lecz
im zagraża także, bo gdyby wszystkie ofiary zginęły, to pasożyty wraz z nimi również
znikłyby całkowicie. Toteż z biegiem czasu ustanawia się dynamiczna równowaga
między pasożytami i gospodarzami w ewolucji, i „stare” pasożyty „dają żyć” swoim

63
gospodarzom we własnym „interesie”. Rzecz jasna, taki wynik „gry o przeżywanie”
nie wynika z „rachuby”, do której nie są ani bakterie czy wirusy, ani owce czy małpy
zdolne: wynika ta równowaga z faktu, że przeżywa ten, kto się zachowuje z
POMIARKOWANIEM, chociaż nie ma „głowy do rozmyślania nad zachowawczą
strategią”. Kamyki żwiru najbardziej zbliżone do kształtu kulistego podążają w rzece
najdalej nie dlatego, że są najbystrzejsze, ale dlatego, że zasięg żwiru zależy od oporu
stawianego przez podłoże. Zjawiska takie zdają się naiwnemu sugerować, że jakiś
„Ktoś” jednak taktykę obmyślił. Z wirusem HIV jest tak: jest to jeden z bardzo wielu
przedstawicieli klasy retro uirinae (bez własnego DNA), a tą klasą do odkrycia genów
nowotworowych (onkogenów) i wirusa HIV nie interesowali się wirusologowie,
mając „ważniejsze tematy” do badań. Na nauce dziś mści się bowiem lawinowy
wzrost „tematów”, o którym jako o grożącej „bombie megabitowej” pisałem w
„Sumie T.” przed 33 laty.
II. Gdzie drwa rąbią, tam wióry lecą. Wszystkie wirusy są odpryskami genomów
roślin i zwierząt, odpryskami, „wiórami”, które dzięki doborowi naturalnemu i
selekcji uzyskały względną suwerenność, umożliwiającą im przeżywanie dzięki temu,
że albo przeżywają jako „niewinni pasażerowie na gapę” zwierzęcych gatunków (lub
roślinnych), albo stają się tak czy inaczej chorobotwórcze. Więc podobnie było i z
groźnym dzisiaj wirusem HIV. Wspólny przodek wirusa HIV powstał zapewne u
końca KREDY, czyli około 70 milionów lat temu, gdy podział klasy ssaków na żyjące
dziś rzędy jeszcze nie nastąpił. Linia, wiodąca wprost do HIV, oddzieliła się, kiedy
przodkowie małp szerokonosych przemieścili się na kontynent
południowoamerykański (z końcem eocenu). Wirusy tak długo z małpami
współistniały, że obecnie już nie powodują im żadnych przypadłości. Takim to
sposobem koewolucja, trwająca wiele milionów lat, powoduje „pokojowe
współżycie” prapasożyta i pragospodarza. Lecz dopiero gdzieś w naszym lub
poprzednim stuleciu doszło do zarażeń wirusami małp — człowieka w Afryce:
prawdopodobnie w związku z polowaniem na małpy. To spowodowało
skomplikowane pasaże typu „małpy–człowiek–małpy”, aż doszło do czysto
miejscowych schorzeń, ale ponieważ wczesna śmiertelność była w Afryce wysoka i
bez udziału HIV, nie zostały te wirusy dawniej dostrzeżone. Dopiero połowa XX
wieku spowodowała nagłe i masowe zwiększenie migracji na kuli ziemskiej: wirusy
dostały się do Haiti i do USA oraz na resztę planety. Otóż to, czym najbardziej
zaskoczyły medycynę, był okres ich latencji, który, jak wiemy już, może przekraczać i
10 lat utajnienia. Dlaczego? Przypisywanie tym wirusom jakiejś diabolicznej strategii,
która udaremnia wczesne rozpoznania i powoduje niemal 97–99 procentową
śmiertelność, jest naszym złudzeniem. Po prostu przypisujemy wirusom umiejętności,
warunkowane wręcz teorią gier i jej taktykami, podczas kiedy rozwiązanie zagadki
jest banalnie proste. Wręcz trywialne. HIV jako retrowirus dysponuje tylko
rybonukleidami (RNA) i podług tej matrycy odtwarza typowe nukleotydy DNA, które
dopiero umożliwiają mu dalsze rozmnażanie, i w tym sęk, ponieważ precyzja
RETRO, tj. przekładu „odwrotnego” z RNA na DNA nie jest dobra, a nawet odznacza
się wysoką błędnością. Jeden błąd przypada na 1700 nukleotydów, a to jest naprawdę
dużo. Przez to w szczepach łatwo powstają bardzo wirulentne odmiany, które
powodują śmierć nosicieli i dzięki latencji ułatwiają zarażenie nowych ofiar.
Cóż takiego powoduje z kolei wysoką wirulencję? I tu działa po prostu duża
zawodność regulacji genowej zachowania wirusa… Ten wirus ma trzy geny — tat,
rev i nef; dwa pierwsze regulują jego ekspresję, tj. po prostu sterują kolejnymi
krokami jego rozwoju (w komórce zarażonej). Natomiast nef jest to hamulec tamtych

64
dwu genów: negative expression factor. To on powoduje „represję ekspresji”, czyli to,
co my jesteśmy skłonni nazwać „trwaniem w długim przyczajeniu”. Gen nef znajduje
się na końcu (terminale) nici RNA. Dopóki ów „hamulec” działa normalnie,
przedwirusów (wirionów) jest mało, wykryć ciał odpornościowych we krwi już
zarażonego nie można, infekcja bywa nazywana „milczącą” lub „skrytą”. „Normalne”
szczepy wirusa, zaopatrzone w nef jako „hamulec”, nie powodują zapaści
odpornościowej, nie prowadzą do AIDS. Ponieważ jednak, jak się rzekło, zbyt
„prymitywna” jest precyzja replikacyjna wirusa, po pewnym czasie powstające
losowo błędy prowadzą wreszcie do uszkodzenia (mutacyjnego) „hamulca”.
Pozbawione „hamulca” wirusy zaczynają się gwałtownie mnożyć, powstaje
pozytywna serokonwersja (tj. we krwi łatwo można wykryć wirusy), i ofiara „jedzie”
już prosto w AIDS, czyli w stronę agonii. Okres skrytej infekcji można wyznaczyć
dość podobnie, jak czas oczekiwania na serię „czerwone wygrywa” w Monte Carlo,
czy na realizację określonego stanu (szlem w brydżu, trzy szóstki w rzutach trzema
kośćmi itp.). Okres „milczącej infekcji” wynosi dla HIV1 4–14 lat, dla HIV2 do 24
lat…
Innymi słowy, zamiast „przebiegłej techniki zaczajenia” mamy po prostu przed
sobą efekt regulatywnej ułomności, spowodowanej dość skomplikowaną, niejako
okrężną drogą, którą przebył w ewolucji naturalnej praprzodek wirusa HIV. Nie jest
on „zbyt wyrafinowany”, lecz niejako na odwrót — nazbyt „prosty”: „gubiąc”
hamulce ekspresji, na łeb na szyję się rozmnaża, ginie z ofiarami, ale pozostają
szczepy jeszcze „nie zdefektowane”. Biorąc rzeczy czysto teoretycznie, „należałoby
czekać”, aż dojdzie do takiej dynamicznej równowagi między ludźmi i wirusami, do
jakiej w Australii doszło między królikami i wirusami myksomatozy… co
oznaczałoby jednak spustoszenie planety daleko gorsze od powodowanego przez
wszystkie epidemie średniowiecza z „czarną śmiercią” na czele. Cóż należy więc
uczynić, aby powstrzymać ów pochód śmierci? To jest wciąż nie rozwiązane zadanie,
kwestia, która wymagałaby osobnego rozstrząsania. Mnie szło zaś tutaj jedynie o
demonstrację (nie bez uproszczeń) różnicy (przy faktycznych podobieństwach)
pomiędzy zachowaniem wirusów komputerowych człowieka (złośliwego, dodajmy) i
wirusów Natury…

65
Czy przejmiemy technologię życia?

1
Powtórzę to, co napisałem przed trzydziestu laty w zakończeniu „Sumy
Technologicznej”: „Z dwudziestu liter aminokwasowych zbudowała Natura język w
stanie czystym, który wyraża — za nieznacznym przestawieniem sylab
nukleotydowych — fagi, wirusy, bakterie, tyranozaury, termity, kolibry, lasy i narody
— jeśli ma tylko do dyspozycji czas dostateczny. Język ten, doskonale ateoretyczny,
antycypuje nie tylko warunki dna oceanów i szczytów górskich, ale kwantowość
światła, termodynamikę, elektrochemię, echolokację, hydrostatykę i Bóg wie, co
jeszcze, a czego my na razie nie wiemy. Czyni to tylko «praktycznie», ponieważ
sprawiając wszystko, niczego nie rozumie; lecz o ile sprawniejsza jest jego
bezrozumność od naszej mądrości. Czyni to zawodnie, jest rozrzutnym szafarzem
twierdzeń syntetycznych o własnościach światła, bo zna jego statystyczną naturę i
zgodnie z nią właśnie działa: nie przywiązuje wagi do «twierdzeń pojedynczych» —
liczy się dlań całość miliardoletniej wypowiedzi. Doprawdy, warto nauczyć się
takiego języka, który stwarza filozofów, gdy nasz — tylko «filozofie»„.

2
Namolnie utwierdzałem w nazwanej książce — a potem i w innych — zachętę,
nakaz przejęcia przez człowieka tej biotechnologii, która i jego samego stworzyła.
Ukazywałem wyższość „sprawczego języka Przyrody” nad wszelkimi odmianami
technologii, jakieśmy sami wynaleźli i po kolei w dziejach cywilizacji uruchomili i
wdrożyli. (Z coraz jawniej fatalnymi skutkami, albowiem nasze technologie dają
„rykoszetowe” efekty uboczne, które podgryzają tę biosferyczną gałąź, na której życie
prowadzimy). Różnic między biotechnologią i naszą technologią (we wszystkich
odmianach) jest sporo. Najważniejsza może sprowadzać się do tego, iż my działamy z
reguły metodą TOP–DOWN, a biotechnologia metodą BOTTOM–UP. My mianowicie
— to najwyraźniej widać przy produkcji hardware i software komputerów —
budujemy z pewnych „calizn” materiałowych, a ponieważ większa jest kompresja
logicznych jednostek na „chipie”, sprzyjająca zwiększeniu chyżości operacyjnej (i tym
samym całościowej mocy obliczeniowej), tym lepiej więc miniatury żujemy i mikro–
miniaturyzujemy „chipy”. Zawsze jednak działamy „z góry” (makroskopowej) w
„dół” (mikroskopowy), coraz mniejsze rysując obwody i układy scalone. Nie
dochodzimy wciąż do ostatecznego celu, jakim byłoby chwytanie jakowąś „pincetą”
(może chemiczną) poszczególnych molekuł, ażeby z nich „chipy” czy obwody
najmniejsze skonstruować, natomiast ewolucja naturalna działa „odwrotną drogą”,
konstruuje bowiem BOTTOM–UP. Najpierw „uczyła się”, czyli trenowała
prymitywne jeszcze pierwociny kodu genetycznego poprzez trzy miliardy lat od
zakrzepnięcia ostatniej wówczas powierzchni protoplanetarnej Ziemi. I dopiero
nadawszy dzięki trylionom „prób i błędów” wzmożoną uniwersalność kodowi
dziedziczności, wywiodła z niego proste jeszcze zespoły komórkowe, potem zaś
większe, zdolne do bytowania replikacyjnego w wodach, na lądzie i na koniec w
powietrzu.

66
3
Jeżeliście już sto razy słyszeli, pozwólcie mi cofnąć się jeszcze raz dla
umożliwienia rozbiegu. Otóż chodzi o to, że druga równoległa odmienność
biotechniki od naszej techniki w tym, że my działamy, używając narzędzi (które mogą
być albo kierowane przez człowieka, albo — dziś — przez automaty, jak komputery),
czyli zawsze mamy do czynienia z jakimś rodzajem obrabiarki i jakimś obrabianym
materiałem (we wszelkiej produkcji, z wyjątkiem prostych zapożyczeń pradawnych
od biologii: to np. produkcja, stosująca procesy fermentacji sera, win, piwa albo po
prostu długotrwałe zabiegi hodowlane, co nam z jakichś potomków szakali wywiodły
ogromną gamę różnych psów). Natomiast w biologicznej ewolucji zawsze życie
poczyna się od jednej komórki i z niej wyrastają rozmaitymi szlakami płodowymi
dojrzałe organizmy. I tutaj dopiero pragnę wszcząć rozważanie na temat zacytowany
we wstępie. Czy przejęcie technologii życia jest możliwe? To, po pierwsze. Po
drugie: czy można, kiedy przejęłoby się tę technologię, wykroczyć z niej dalej: to
znaczy z „cisbiologicznej” fazy („cis” — „tutaj”) przejść do fazy „transbiologicznej”,
to znaczy już tam, gdzie tylko metoda pozostanie plagiatem, odbitką, inspiracją
taktyczną, wyuczoną na procedurach biologicznych, a zastosowana będzie do jakichś
dziś nawet nazwy nie mających stworów, obiektów, układów, systemów, które
niejako dzięki „życiu poza życiem” uruchomimy? Byłyby to już takie „technobionty”,
o jakich poprzednio w „PC Magazine” (ale tylko ogólnikowo całkiem) wspominałem.

4
Odpowiedzi na oba pytania powyższe udzielić nie jest łatwo. Ponieważ jednak od
czasu, kiedy ten postulat wyartykułowałem, minęło trzydzieści lat, zakumulowane w
nich obszary wiedzy napawają optymizmem. Nie spodziewałem się mianowicie,
pisząc Summa Technologiae, że dożyję choć okrucha zniszczeń wyrażonych w niej
zapowiedzi — nadziei. Zarazem okazało się jednak, że już to, co ma stanowić dla nas
wzorzec, w pierwszej fazie jest daleko bardziej skomplikowane aniżeli się podówczas
sądziło w nauce. Im większe postępy robi biologia molekularna, a szczególnie
genetyka (z narodzonymi w niej niemowlęcymi zaczątkami inżynierii genetycznej),
tym lepiej orientujemy się, jak niesamowicie, dziwacznie i chciałoby się rzec —
nieludzko (tj. nie w zgodzie z jakimkolwiek typem inżynieryjnego i budowlanego
myślenia ludzi) skonstruowany jest i działa kod dziedziczności. Po części wynika to
stąd, że on musiał „sam siebie skonstruować”, ponieważ żadnego Budowniczego–
Inżyniera nad oceanami Praziemi rysującego plany nie było przecież. W efekcie
powstało to, co jest nie tylko i nie po prostu „piekielnie skomplikowane”, ale to, co
jest po części przynajmniej „obciążone zbędnymi komplikacjami”. Zbędnymi w tym
co najmniej sensie, że kod „wlecze z sobą” pradawne pierwociny własne, niejako
szczątki tego, co stanowiło odpady „prób i błędów”, a co by można było wyobrazić
sobie (w straszliwej, naiwnej symplifikacji) jako, powiedzmy, nowożytny
aerodynamiczny elektrowóz pociągu, zdolnego rozwijać 400 km/h wyposażony w
komin całkiem nieużyteczny, a pochodzący z epoki parowozów. Albo
samonawodzącą się na cel rakietę z zupełnie zbędnym jakimś „celownikiem” na
grzbiecie, też pamiętającym czas, kiedy człowiek musiał celować „osobiście”. Tym
„balastem wleczonym przez kod” jest najpierw rodzaj „nukleotydowego śmiecia”.
Jest to też coś takiego, czym byłyby — powiedzmy — w książce niezbyt starannej

67
korekcie poddawanej i mimo to najzupełniej czytelnej — marginalne kleksy, albo
trafiające się w poszczególnych wersach znaki jak A, /, +, * itd. Czytać to by można
przeskakując owe niepotrzebne „naddatki”, i w ten sposób właśnie zachowują się
komórkowe systemy „czytnikowe”, jak RNA, jak rybosomy itp. Balast jest wleczony
nie wiedzieć od jak dawna, w różnych gałęziach specjalnych drzewa ewolucji, tj. w
różnych gatunkach zwierząt jest „powklejana” bardzo niejednakowa ilość takich
„śmieci — pasażerów na gapę”. To (ale nie tylko to) dało mi asumpt do uznania kodu
za taki wehikuł przekazu miliardoletniego w bioewolucji, o który tej ewolucji idzie,
ponieważ kolejne organizmy w takim ujęciu są „tylko” kolejnymi przekaźnikami,
jakby podstacjami, jakby „listonoszami” wiecznie (mimo zmienności) przesyłanego z
generacji do generacji nukleotydowego kodu. Ale to jest nawias. W dwa lata po tym
moim pomyśle opracował go (niezależnie ode mnie) biolog angielski Dawkins (The
Selfish Gene, „Gen–samolub”, to była książka, w której się owemu problemowi —
„co ważniejsze w bioewolucji” — poświęcił).

5
Kod jest to taki: „podręcznik budownictwa”, który sam siebie odczytuje i według
odczytywanego stopniowo planu sam siebie buduje. Powstały różne zawiłe
„wyboczenia” tej samosprawczej lektury, np. jako metamorfozy owadów w cyklach
,jajeczko — larwa — poczwarka — owad dorosły” i podobne: te „labiryntowo–
slalomowe” ruchy powodowane kodem insektów wynikły z potrzeby zastosowania
wielu manewrów dla przeżywania gatunków po prostu, a kiedy się jakiś cykl
manewrów sprawdził, utrwalony został na wiele milionoleci, por. np. mrówki,
pszczoły, osy, żuki itd. — owadów jest około miliona gatunków). „Podręcznik”,
zwany genomem, spisany jest nukloetydami, „zaledwie czterema literami”;
stanowiącymi cały alfabet biologicznej techniki. Są to zasady kwasów nukleinowych,
ale w niniejszym szkicu nawet nie zamierzam wejść w ich chemię, jak nie trzeba
wchodzić w chemię atramentów używanych w komputerowych drukarkach. Ważne
jest to, że genom zbudowany z tych czterech „liter” tak się składa, iż mamy w nim
dwa kody: jest to kod złożony z genów strukturalnych, sprawiających dzięki
„tłumaczeniu” powstawanie określonych białek, oraz kod typograficzny, który działa
po to, ażeby geny strukturalne były od siebie pooddzielane jakby „znakami
przystankowymi” (jak w druku).

6
Na pytanie, po kiego licha w magazynie poświęconym komputerom pisze się o
kodzie genetycznym, odpowiedź brzmi: ponieważ w informatyce mamy urządzenia
służące przetwarzaniu danych, czyli urządzenia przekształcające i przerabiające
informację wprowadzaną w informację wyprowadzaną, przetwornikami zaś mogą być
zupełnie inne obiekty, od lamp katodowych przez półprzewodniki do agregatów
molekularnych. Zawsze jednak wprowadzamy informację i uzyskujemy informację
(czyli ona „wchodzi” przez jakiś input i „wychodzi” przez jakiś output). Natomiast
informacja jest w biologii umieszczana na takich nośnikach, które tę informację
przerabiają w coś, co jest organizmem, np. palmy, słonia albo cioci Frani.
Samosprawczość, w której już jest zawarta przyszła samoreproduktywność (palma
dzięki kokosom, słoń dzięki słonicy i słoniątkom, ciocia dzięki wujkowi w dziatkach

68
będą się „replikować”) wymaga, ze względu na warunki własnego powstania i trwania
w miliardach lat, tak bardzo zawiłej budowy, jaką pomału możemy rozpoznawać, oraz
systemów tłumaczących genom na pochodne białka, enzymy, aż powstanie z tego —
dzięki niedawno wykrytym morfogenom — cały organizm. Niby jest to podobne
trochę do języka, ale bardziej pod niejakimi względami do partytury symfonii, w
której współgra moc instrumentów jednocześnie. Pomyłki są możliwe jak fałsz w
odgrywaniu symfonii i jako potknięcia, wyboczenia rozwojów embrionalnych, co
powoduje zwykle powstawanie rozmaitych monstrositates. Zajmuje się nimi
teratologia, którą tutaj się zajmować nie będziemy.

7
Gdyby litery–nukleotydy wypisywać tak, aby na stronie znalazło się ich 1000, to
cały genom wymagałby tysiąca tomów, przy czym każdy liczyłby sobie tysiąc stronic.
(Ten przykład z grubsza odpowiada przeliterowaniu genomu myszy). Jak widać,
genom jest to rodzaj samosprawczej fizykochemicznie encyklopedii, działa zaś w
fazie ciekłej, ponieważ takie warunki panują w komórkach. To jest dla inżynierii,
która by pragnęła przejąć ową technologię, dosyć radykalna nowość.
Bodaj że pierwszy krok na drodze wiodącej ku spełnieniu wstępnego postulatu
mojego, czyli przejęcia biotechnologii życia przez nas, uczynił Douglas Hofstadter w
grubej księdze pt. Metamagical Themes, gdzie miedzy innymi zajął się roztrząsaniem
ciekawej kwestii, czy kod dziedziczności, a jest on jedyny, czyli zawsze z tych
samych liter wedle tej samej „składni” chemicznej i „gramatyki” zbudowany dla
wszelkiego Życia na Ziemi, jest jedynym kodem możliwym, czy raczej jest on
arbitralny. To znaczy, czy inny kod, z innych „liter” zbudowany, mógłby podobnie
funkcjonować, a to znów znaczyłoby, iż powstał po prostu dzięki temu, że taki, jaki i
nas stwarza, mógł na Ziemi powstać „najprawdopodobniej”, ale gdzie indziej
mogłoby go zastąpić „coś” składniowo i chemicznie innego. A także, dodaję od
siebie, jeżeli okazałby się arbitralny, „poniekąd przypadkowy”, to inżynier
genomowiec mógłby zacząć przejęcie metod kodu od innych „liter”. Powinienem tu
dodać, iż Hofstadterowi nie przyświecała ani idea budownictwa cis–biologicznego
(sens terminu podałem wyżej) ani a fortiori trans — czyli poza biologicznego —
wedle metody kodu. Inaczej mówiąc, jego pozycja badawcza była bardziej
akademicka, teoretyczna (bo chciał się dowiedzieć, czy kod, który tutaj życie
stworzył, dałoby się zastąpić innym kodem, np. już nie pobudowanym z nukleotydów
jako zasad kwasów nukleinowych, albo może tylko takich samych zasad, ale wziętych
z innych nukleinowych kwasów, których jest moc, lecz ich Ewolucja Jakoś” nie
użyła). Natomiast moja pozycja jest bardziej zuchwałą transgresją kodu: chciałbym
wiedzieć, czy można tego kodu używać jako podręcznika i jako nauczyciela, by
skonstruować (nie wiadomo na razie jak) inny kod biologiczny, zdolny do produkcji
innego życia niż nasze, a dalej jeszcze, czy można wreszcie dojść do takiej
„biotycznej technocywilizacji”, którą w Science Fiction opisałem z nalotem
żartobliwym jako sytuację, w której sadzimy „ziarna techniczne”, polewamy garścią
wody i „wyrasta magnetowid”. Należy wprawdzie zastrzec się, że żadne auta ani
żadne magnetowidy do współczesnych podobne nigdy z żadnego technonasienia nie
wyrosną, zarazem jednak warto mieć na uwadze i to, iż nawet mysz, nie mówiąc o
przemądrym człowieku, jest parę milionów razy bardziej złożonym „urządzeniem” od
każdego auta czy niechby i komputera, niechby i Craya, ponieważ informacyjna
zawartość zarówno genotypu, jak i fenotypu myszy jest znacznie bardziej
69
skomplikowana i bogatsza niż każdy twór ludzkiej techniki (dowolnej). Niestety:
nawet zwyczajna mucha jest pod wieloma względami sprawniejsza od
superkomputera, aczkolwiek nie umie ani w szachy grać, ani się niczego dla jej
genomu nowego nie nauczy. Tu zauważmy nawiasowo przed zwięzłym wejściem w
temat główny, jak to mogło być, iż cała współczesna medycyna, cała farmaceutyczna
chemia, cała domena syntezy antybiotyków ostatnim czasem pokonana została przez
tyle bakteryjnych szczepów, które dzięki masowemu stosowaniu najnowszych leków
uzyskały pełną odporność. I oto wracają w czarnej krasie zagrożeń choroby, o których
sądziliśmy, żeśmy się z nimi (dzięki antybiotykom) uporali: dyfteryt, gruźlica, nie
mówiąc już o wirusowych, jak straszliwy AIDS. Odpowiedź brzmi może i zbyt
ogólnikowo: bakterie, bytujące na Ziemi od kilku miliardów lat, uzyskały dzięki
takiemu treningowi w bardzo „ciężkich planetarnie” czasach taką uniwersalność
mutacyjną, że dają radę każdym nowym bakteriobójczym preparatom, płacąc cenę,
jaką jest masowe wymieranie nieprzystosowanych: gdy 98% bakterii ginie, pozostaje
na „placu boju” 2% opornych i te w mig rozmnażają się od nowa. Czy się zaradzić
temu nie da dzięki stereochemii syntez, to osobne, trudne zagadnienie, nie na dzień
dzisiejszy, toteż po drodze trzeba je pozostawić bez klarownej repliki.

8
Porządnie streścić całego wywodu Hofstadtera tutaj się nie da: jest zbyt obszerny,
zbyt „techniczny”, a co więcej, aczkolwiek autor ten dotarł do pożądanego QED
(Quod erat demonstrandum, że niby kod zmienić można by, czyli istniejący jest
arbitralny), przychodzi jednak dodać, co mu korespondenci z USA i z Europy donieśli
jako fachowcy, że oczywiście kod DNA nie jest „czysto arbitralny”, czyli tak
przypadkowy, jak dajmy na to główna wygrana w totolotka, ponieważ na początku
niechybnie powstały „chemiczne pierwociny — projekty kodów” i dzięki doborowi
naturalnemu „wygrał” najsprawniejszy — a zatem właśnie nasz: natomiast to, co
wygrywa na loterii, żadnej wyższości w toku rozgrywki jako rywalizacji nie wykazuje
przecież.

9
Cóż więc należy rzec? Tyle: kod DNA składa się z genów, każdy zaś gen jest to
„kawałek DNA” (dezoksynukleotydowej nici), który koduje „coś bardzo
konkretnego”. Może to być swoiste białko, może to być białko–katalizator, może to
być regulator wzrostu, „projekt organu” i tak dalej. Zasadniczo kod DNA jest
matrycą, która zostaje przez generację przekazana następnej generacji, matrycą mniej
więcej tak zastygłą, jak wydrukowana książka (albo może lepiej: jak skład drukarski
w drukarni). Natomiast ażeby z tej matrycy wynikło to, co będzie organizmem,
konieczne są systemy „gońców” (mRNA — niech tajemniczy skrót tu nam
wystarczy), systemy bardziej lokalnych „drukarek” (coś jak „New York Herald
Tribune”, który jest wprawdzie roden ze swej jedynej redakcji — „genomu”, ale który
drukuje się symultanicznie w Paryżu, w Hadze, itd. na świecie), oraz systemy z tego
zespołu „translacji” na koniec powstające. Żeby wszystko było bardziej zawiłe,
informacji zawiera dorastający płód więcej niż zapłodniona komórka (jajowa),
ponieważ embriogeneza jest tak chytrze poskładana i urządzona, że to, co jako części
organizmu powstaje w toku płodowego rozwoju, oddziałując wzajemnie na siebie,

70
„dopasowując się”, sterowane sąsiedztwami, hormonami, represorami genowymi,
uzyskuje lokalne porcje dalszej informacji. Coś jakby się po drodze trafiało na kolejne
drogowskazy. A jest w tym taka dziwna rzecz, iż w komórce pływają sobie molekuły,
które instruują aminokwasy. Czy te molekuły–instruktorzy znają kod DNA? Nie, one
tylko kierują do rybosomów. Aha! A kto instruuje rybosomy? Syntetazy. A czy
syntetazy znają kod DNA? Nie, one tylko przystawiają pewne molekuły do
aminokwasów. Zdaje się, że w komórce „nikt nie zna kodu DNA”: żadna
„przekaźnikowa stacja translacyjna z osobna”. Ale to dlatego, ponieważ dopiero
wszystko razem zebrane jak należy „zna kod DNA”, tj. „wie, co z genomu wyniknie”.
Nie jest inaczej z partyturą przecież: żaden kawałek partytury „nie zna symfonii”.
Różnica w tym, że genomowa symfonia „gra siebie sama” — bez dyrygenta i
orkiestry, albowiem jest i partyturą (kod) i wykonawcami („translatorzy i syntetazy w
komórce”).

10
Nie do mety dochodzimy nareszcie w pocie czoła, ale do tego stanu niechybnie
przejściowego, jaki dziś osiągnąć jeszcze można. Otóż poszczególny gen składa się
zazwyczaj z wielu, wielu tysięcy par nukleotydowych; na razie w światowej akcji
Human Genome Project dało się odczytać dopiero fragmenty ludzkiego genomu z
rozdzielczością niezbyt dużą: prace trwają długo, bo są żmudne i dotąd szły
prowadzone ręcznie, ale włącza się już komputery… Przyspieszenie dekodowania
będzie na początek mniej więcej dziesięciokrotne. Oczywiście odczytać Księgi
spisane przez Naturę to jedna, mimo wszystko łatwiejsza część zadania, które
postawiłem i uparcie stawiam dalej („dogonić i przegonić Przyrodę”). Nieporównanie
trudniejsze zadanie leży przed nami, jako „pisanie nowych Ksiąg–Kodów” metodą od
Przyrody przejętą, ponieważ z niej wyczytaną i dzięki niej wyuczoną. Dodam tylko
jeden szczegół bardzo zasadniczy i osobliwy na pierwszy rzut oka. Oto całość
przekazu dziedzicznego małpy, słonia, krowy, żyrafy, wieloryba, człowieka znajduje
się w każdej poszczególnej komórce ich ciał. Aby zaś ten całościowy przekaz nie
został uruchomiony naraz (co byłoby katastrofą życia), wszystkie geny kodu z
wyjątkiem tego, co lokalnie niezbędne, są za pomocą rozmaitego rodzaju depresorów
wyhamowane do zera. (A jeżeli część hamulców „puści”, powstaje nowotworzenie
lub hiperplazja, albo inne typy dewiacji od normy). A dlaczego jest tak, jakby ktoś
budował dom lub kościół z takich niezwykłych cegieł, że w każdej poszczególnej
cegle budulca zawarty jest projekt całej przyszłej budowli? Myślę, że jest to po prostu
efekt faktycznego przebiegu ewolucji, której trudno było — albo się nie „opłacało” —
wyrzucać „zbędny balast całościowego projektu”. Wyhamowanie niepotrzebnych
planów i projektów architektonicznych okazało się w miliardoletniej praktyce dziejów
życia po prostu łatwiejsze Tak myślę, dowodu na to nie mając.
A na pytanie, czy przyszły budowniczy „płodowlany” będzie grzeszył równą
nadmiarowością w swoich konstrukcjach, odpowiedzi udzielić nie mogę, ponieważ jej
nie znam.

71
Komputeryzacja mózgu

1
Pierwszą moją niebeletrystyczną książkę, Dialogi, napisałem w latach 1954–55,
nie widząc wtedy — wciąż za czasów stalinizmu — możliwości jej opublikowania.
Udało się to w okresie „odwilży”, w roku 1957, i wtedy ta pozycja, wydana przez
Wydawnictwo Literackie w Krakowie nakładem 3000, ukazała się na rynku książki, a
tak była dziwacznie odstrzelona od wszystkiego, co się na świecie wtedy w ogóle w
druku pojawiało — wszak nie istniał podówczas nawet ślad jakiejś futurologii, a
słowo „komputer” jeszcze się w językach nie zadomowiło — że Kazimierz Mikulski,
mając za zadanie wykonać projekt okładki, namalował na obwolucie drabinę i dwa
pantofle. Książka, dzieło młodzieńca, jakim ongiś byłem, oprócz zaszyfrowanej
dzięki „przełożeniu na terminologię cybernetyczną” prawidłowości i
nieprawidłowości funkcjonowania „realnego socjalizmu” jako systemu totalitarnego,
zawierała, jak donosi karta wstępna, wiele osobliwych, poruszonych w niej tematów.
Są tam wymienione między innymi rozważania „o zmartwychwstaniu atomowym”,
o teorii niemożności, o filozoficznych korzyściach ludożerstwa, o psychoanalizie
cybernetycznej, o osobowości sieci elektrycznych, o konstruowaniu geniuszów, o
maszynach do rządzenia, jako też „o życiu wiecznym w skrzyni”. Nawet mi do głowy
nie przychodziło, że którykolwiek z tak fantazmatycznie brzmiących tematów z
domeny skrajnie aż niesamowitych pomysłów przejdzie na agendę uczonych
seminariów w Europie i poza nią. Tak się wszakże po części już stało i dlatego
ośmieliłem się otworzyć nie rozcięte dotąd kartki Dialogów tam, gdzie mówi się, ale
językiem sprzed lat czterdziestu, o pierwszych krokach wiodących do komputeryzacji
mózgu. Od razu dodam, że impulsem skłaniającym mnie do napisania niniejszego
tekstu stało się zaproszenie, jakie otrzymałem od „Akademie zum dritten Jahrtausend”
z siedzibą w Monachium, na sesję naukową, poświęconą problematyce zatytułowanej
tak oto: BRAIN–CHIPS. Unsaubere Schnittstellen Mensch–Maschine, czyli Chipy
mózgowe. Nieczyste styki cięć Człowiek–Maszyna. W dalszej części listu wyjaśnia się,
że chodzi o „podłączanie” „chipów” do mózgu tak na peryferii (zmysłów), jak w
samym mózgu, czyli wówczas o utworzenie interface pomiędzy mózgiem (albo też
jego częścią) a czymś w rodzaju podelementu w postaci „chipu” komputerowego.
Wśród zaproszonych naukowców, także spoza Niemiec, zarówno neurologów, jak i
cybernetyków, i ja się znalazłem. Ponieważ nie zamierzam w tych obradach
uczestniczyć, pewna pani doktor, przybywszy do mnie z Niemiec, wyjawiła mi, że
przyczyną zaproszenia mnie do udziału w owej imprezie stały się właśnie Dialogi,
które mój frankfurcki wydawca też wydał był w serii moich „Dzieł” dobrych kilka lat
temu.
Odkurzywszy więc pierwszy egzemplarz krajowego wydania, ośmielam się tu
zacytować fragmenty dawnych zuchwałych koncepcji, skoro sam fakt ich poważnego
omawiania w gronie fachowców zdaje się tę jakże dawno napisaną książkę
przywoływać do życia i tym samym po trosze chronić od zapomnienia.

2
Na stronie 162 nazwanego wydania pierwszego pisałem w związku z projektem
utworzenia protezy mózgowej z materiału cybernetycznego, co następuje:
72
Doświadczenie pierwsze — to zespolenia (chirurgiczne na przykład) nerwów
obwodowych dwu osobników. Można je przeprowadzić na niższych zwierzętach już dziś.
W ten sposób otwiera się możliwość, by jeden człowiek mógł uzyskiwać informację, to
jest odczuwać to, czego doznają narządy zmysłowe drugiego człowieka. Byłoby więc
możliwe, żeby jeden człowiek patrzył oczami drugiego, mianowicie po zespoleniu
obwodowej części jego nerwów wzrokowych z dośrodkową częścią nerwów drugiego.
Doświadczenie drugie, daleko trudniejsze w realizacji, to zabieg, mający na celu
zespolenie dróg nerwowych obu mózgów, a to za pośrednictwem pewnych przewodników
bądź to natury „biologicznej” (mostki żywych włókien nerwowych), bądź też innych
urządzeń, które, połączone z drogą nerwową jednego mózgu, odbierają płynące nią
bodźce i przekazują je analogicznej drodze nerwowej drugiego mózgu.

W tym miejscu fikcyjny współrozmówca (bo Dialogi są właśnie rozmowami


pewnego „Filonousa” z niejakim „Hylasem”) wyraża zasadnicze zastrzeżenie co do
szans owej operacji. Utrzymuje, że efektem połączenia neuronowych szlaków dwu
mózgów byłoby powstanie całkowitego zamętu, pomieszania, chaosu i nic więcej, a
Filonous przyznaje mu w tym rację. Powiada że:

określone bodźce mają konkretne znaczenie tylko w obrębie danej sieci (neuronowej) i
do tego tylko dla ich „adresatów”, tj. innych części tej sieci, do których są skierowane.
Proste wprowadzenie serii bodźców z jednego mózgu do drugiego da więc zapewne tylko
jakiś chaos, „psychiczną kakofonię”. To jedna z największych trudności na drodze
czynnościowego zespalania mózgów. Jednakże mózg potrafi znieść zabieg daleko cięższy
od wprowadzania weń obcej mu funkcjonalnie grupy bodźców. Można na nim dokonywać
bardzo ciężkich i brutalnych zabiegów aż do wycinania całych płatów kory, a nawet
jednej półkuli mózgowej włącznie, a mimo to operacje takie nie pociągają za sobą
nieodwracalnego rozpadu funkcji psychicznych, gdyż ich zdolność do restytucji nawet w
częściowo tylko zachowanej sieci jest ogromna. Dlatego eksperymenty wspomnianego
przeze mnie rodzaju będą niechybnie przez długi czas ostrożne i nieśmiałe — będzie się
ich dokonywać na zwierzętach.

Nie widzę zbyt wiele sensu w cytowaniu dalszych rzeczy całymi stronicami, skoro
tyle miejsca jej w Dialogach poświęciłem. Jakoż i dziś nie ma innej poza czysto
spekulatywną (na takiej jak nazwana konferencji) szansą „łączenia dwu mózgów w
nieznaną wypadkową jedność”. Zresztą dziś jestem od propagowania takiej
„unifikacji” nawet znacznie jeszcze dalej, niż kiedym o niej za młodu pisał. Niemniej,
uprzedzając dalsze fragmenty tegoż tekstu, które chciałbym zacytować, muszę dodać,
że jednak sporo dokonań w omawianej dziedzinie, zwanej dziś neurobioniką i
eksperymentalną neurologią, zaszło.
Po pierwsze, już doszło do konkretnych, chociaż w wynikach niepewnych
sukcesów w strefach obwodowych naszych zmysłów. Już można dokonywać
implantowania elektrod w „ślimaku” (cochlea) u ludzi głuchych dlatego, ponieważ ich
ucho wewnętrzne oraz środkowe (przynajmniej po części) uległo (chorobowemu)
uszkodzeniu bądź nawet radykalnemu zniszczeniu. Trzeba tylko warunku zachowania
czynnego jeszcze nerwu słuchowego (VIII mózgowy, N. acusticus). Pierwsze
implantaty bywały przed kilkunastu laty po krótkim okresie skutecznej aktywności
przez ustrój odrzucane. Obecnie jest z tym o wiele lepiej, ale w uszczegółowienia
operacyjnych metod wejść tu nie zamierzam.
Drugim, daleko bardziej ambitnym projektem jest uczynienie niewidomych
widzącymi, a więc coś, co nie tak znów dawno musiało patrzeć na cud.

73
Wypróbowywanych technik jest kilka, także w zależności od tego, na jakim odcinku
informacyjnej drogi siatkówka — ciałka czworacze (thalamus) — kora mózgowa w
potylicznej „szczelinie ostrogi” (fissura calcarina) — doszło do rozerwania łączności.
Przez bezpośrednie drażnienie tej kory od strony potylicy, także poprzez czaszkę,
uzyskiwać można efekt pojawiania się w polu świadomego odczuwania wizualnego
świetlnych punkcików („fosfenów”), a nawet udało się grupować te świetlne punkty
(odpowiednia część kory na każdy impuls reaguje percypowaniem „światła”), stąd
wrażenie, że temu, kto dostał w zęby lub po głowie, „świeczki stanęły w oczach”, i to
prawie we wszystkich językach jest w nietożsamej postaci powtarzane (u Francuzów
nie wiedzieć czemu mówi się, że zobaczył poturbowany „trzydzieści sześć” świec
płonących), te świetlne punkty fosfenowe udało się dzięki drażnieniu kory
odpowiednimi konfiguracjami igłowych elektrod układać w kształty liter.
Oczywiście, od czegoś takiego do umożliwienia ślepcowi lektury zwykłego druku
jest bardzo daleko jeszcze. Stąd próby, aby przy zachowanym przebiegu nerwów
wzrokowych wewnątrz mózgu oraz poprzez ich skrzyżowanie (chiasma opticum)
jakoś wesprzeć, a nawet zastąpić wyścielającą dno oka siatkówką. Idzie to jednak
bardzo nieskoro, ze względu na biomolekularną subtelność jej budowy. Nie wejdę
tedy w fizjoanatomię wzroku już głębiej, ponieważ chciałem tylko zauważyć, że to, co
było niejako najskromniejszym ruchem w kierunku wyznaczonym przez Dialogi
przed czterdziestu laty, przynajmniej w obszarze kilku ważnych zmysłów, znajduje
już efektywne ziszczenie i pokrycie w dokonaniach protetycznej medycyny.
Natomiast o złączeniu nie nerwów, ale np. całego ukrytego w kanale kręgosłupa
rdzenia kręgowego, jeżeli ulegnie (a ulega niestety) rozerwaniu, mowy jeszcze do dziś
nie ma.
Są tylko próby, bardzo nieskuteczne, ponieważ ilość nerwowych, i to
różnopochodnych włókien w rdzeniu jest olbrzymia. Jak wiadomo, przerwanie
ciągłości tego rdzenia powoduje paraliż całkowity i skazuje na życie na fotelu z
kółkami, ponieważ poniżej miejsca przerwania łączności taktylnej, motorycznej i
proprioceptycznej powstaje zupełna niemoc. Czyli paraliż. A zatem nawet rdzenia
rozerwanego na razie żadnym sposobem złączyć czy „skleić” nie potrafimy. Niemniej
i na tym etapie myśl moja się ongiś nie zatrzymała.

3
Wypada ustalić, iż mózg jest systemem zarówno zamkniętym, jak zwartym, ale nie
tak, jak dowolny typ istniejącego dzisiaj komputera. Mianowicie z powodów
oczywistych dla każdego, kto chociażby po łebkach zapoznał się z „metodyką”
działania naturalnej ewolucji darwinowskiej, wszystkie jej żywe twory Jako rośliny w
małej mierze, ale jako zwierzęta w pełni, są właściwie od narodzin do śmierci
„skazane wyłącznie na siebie”, tj. na siły życiowo–regeneracyjne jedynie własnego
ustroju. Wprawdzie pewnym jaszczurkom chwytanym za ogon — ogon ów odpada,
umożliwiając ucieczkę i odrośnięcie (czyli regenerację) ogona, ale ani noga konia, ani
małpy, ani człowieka odrosnąć nie może. Czy nigdy nie będzie można regeneracji w
tak wielkim zakresie uruchomić — nie wiemy na pewno, ponieważ każda komórka
każdego organizmu zawiera pełną informację o całkowitej budowie, także w zakresie
czynnościowym danego ustroju, a jedynie geny, które lokalnie nie wytwarzają ani
narządu (oka, nerki, nogi), ani dowolnej innej tkanki, są trwale zablokowane i
odblokować ich nie umiemy. (Nie mogę wdać się tu w rozważanie sytuacji, w której
zachodzi jednak odblokowanie potencji nielokalne, bo w ten sposób każda komórka
74
traci zarazem swoją miejscową funkcję ustrojową i zyskując „nieśmiertelność” —
poprzez zniszczenie hamulca, zwanego telomerazą — staje się nowotworem
niepodległym zarządowi całoustrojowemu; gdy uzyskana „nieśmiertelność” jest
„pełna”, to powstaje malignizacja złośliwa, czyli rak, komórki jego z krwią i limfą
dostają się gdzie popadnie i rozmnażają się — to efekt ich „nieśmiertelności” bez
ograniczeń — na koniec zabijają organizm). Dlatego i od strony neoplazmatycznych
„odhamowań czynnościowych” jest każda regeneracja przez plazmę dziedziczną nie
przygotowana (z góry, jak u jaszczurki) bardzo niebezpiecznym eksperymentem.

4
Z kolei tu wszakże trzeba sobie uświadomić, że jeżeli odetniemy piłą albo młotem
roztrzaskamy porządną część najlepszego dziś komputera, o żadnej restytucji jego
czynności, o żadnej „regeneracji” mowy nawet nie będzie. Nawet i „rany
komputerów” nie chcą się „goić” i tu widzimy w zasadzie wyższość budownictwa
biologicznego nad inżynierią komputerową. Ale czas wrócić do fantazji z dawnych
lat, skoro uczone gremia już chcą temat taki na serio omawiać. Dodam jeszcze, że
określone rodzaje drażnienia (obnażonej, najlepiej dzięki trepanacji czaszki) kory
mózgowej dają całkowicie koherentne efekty percepcyjne: drażniony mózg reaguje
np. taką ewokacją konkretnego wspomnienia, że operowany „czuje się” np. w teatrze,
że „widzi” jakąś scenę i że „słyszy” jakieś na niej toczone rozmowy. Inna rzecz, iż
doadresowo dobrać się do określonych pamięcią zafiksowanych w mózgu zdarzeń
nie umiemy. Wymyślono dla długotrwałej pamięci uczone nazwy, ale w sprawie
lokalizacji takich pamięciowych śladów wciąż się jeszcze toczą między specjalistami
spory.
Ta zatem, aby najkrócej ująć rzecz, także z czysto rzeczowej przyczyny: naszej
ignorancji w kwestii funkcjonowania mózgu, świadomości, potrzeby snu, marzeń
sennych itd., wszelkie „podłączanie chipów” w mózgową substancję dzisiaj
uważałbym za całkowicie przedwczesne. Nie mówiąc już nawet o zasadniczych
zastrzeżeniach natury moralnej, ponieważ efekt takich eksperymentów na człowieku
miałby, jak uważam, słusznie penalizacyjną, kryminalną konsekwencję. Zaś zwierzę,
także szympans np., nic nam o przeżyciach po implantacji „chipów” wyjawić nie
będzie w stanie. Owszem obwodowe implantaty już zwierzęta otrzymują, ale to dla
badania ich zachowania i życiowych funkcji na swobodzie. To osobna strefa, której tu
nie tknę.

5
Aby zakończyć, sięgnę raz jeszcze do Dialogów i po cytaty z zamieszczonego w
nich największego mojego zuchwalstwa, które nosiło nazwę „Przeszczepienia
procesów psychicznych człowieka na protezę mózgową”. W zakresie pamięci
komputerów jest to procedura całkiem banalna, wręcz trywialna, skoro cały ładunek
czy to dysku „twardego” czy dyskietki dowolnie można przenosić, powielać w
dowolnej liczbie egzemplarzy, a ponadto mały komputer potrafi imitować, tyle że z
określonym spowolnieniem, czynności większego (jak wiadomo, maszyna Turinga
potrafi na taśmie papierowej przetworzyć jako data processor każdy algorytm
obliczalny, każdą rekurencyjną funkcję). O takich „przenosinach pełnej informacji”
wprost z mózgu do mózgu mowy nie ma. (Nie myślę naturalnie o sposobach,

75
używanych przez ludzi, toż rozmawiając, pisząc, drukując, fotografując i pokazując
fotografie, a także dotykając się itd., nic innego nie robimy, jak tylko zajęci jesteśmy
przekazywaniem właściwej informacji kanałem lingwistycznym, wizualnym, a nawet
zapachowym i, jak kto już chce koniecznie, erotycznym).

6
Cóż jednak z „przeszczepem mózgowym”? Filonous powiadał, że

w zasadzie ów proces polega na podłączeniu do żywego mózgu — tj. do sieci


neuronowej — sieci innego typu, sieci elektrycznej (bądź elektrochemicznej). Oczywiście
pierwej ludzie muszą nauczyć się konstruować takie sieci o złożoności rzędu 10
miliardów elementów czynnościowych, tj. rzędu złożoności mózgu, a to dzięki „ogólnej
teorii sieci z wewnętrznym sprzężeniem zwrotnym”, która będzie do tego nieodzowna.
Samo przeszczepienie zaś musiałoby składać się ze znacznej liczby następujących po
sobie etapów…

Już przed czterdziestu laty przez powściągliwość pisałem:

Nie będę przedstawiał rezultatów takiego zabiegu dokładnie, ponieważ trudno go sobie
wyobrazić. Gdy idzie o problem tak doniosły, nadmierna ostrożność nie może stanowić
wady. Chodzi o to, aby „osobowość” sieci nie została naruszona. Dlatego właściwe będzie
stopniowe, kolejne podłączanie do sieci neuronowej coraz to nowych sekcji protezy po to,
ażeby sieć elektroniczna nie została niejako przez żywy mózg „funkcjonalnie wchłonięta”,
zasymilowana czynnościowo. Z czasem doprowadzimy do tego, a to jest właśnie naszym
celem, że dołączana sieć przejmie znaczną część ogółu procesów psychicznych. Gdy to
nastąpi, przejdziemy do dalszej części zabiegu, to jest do równie powolnej i stopniowej
redukcji sieci neuronowej. Nie będziemy jej likwidowali, lecz tylko będziemy ją
odłączali podobnie, jak się to robi np. przy lobotomii, przez odcięcie włókien, łączących
płat czołowy z resztą mózgu. (…) Nasza jednostka funkcjonalna, jaką stanowi
kombinowana sieć neuronowo–elektryczna, będzie działać bez większych zakłóceń, przy
czym strona elektryczna będzie przejmowała wciąż z wolna niknące funkcje strony
neuronowej. Gdy w końcu zostanie wyrugowana sieć neuronowa, a pełne obciążenie
procesami psychicznymi przypadnie sieci protezy, będziemy mieli osobowość człowieka
całkowicie przemieszczoną w głąb protezy. Sieć jej zawrze wszystkie procesy psychiczne,
a więc pełny ładunek pamięci, swoiste systemy preferencji, prawidła obiegu bodźców itp.
(…) Zajdzie „elektroniczny przeszczep” żywej świadomości na „martwą” protezę. Ten
przeszczep może istnieć dowolnie długo (…) Oto perspektywa „żywota wiecznego” w
obrębie „protezy mózgowej” (…).

Koniec cytatów. Potem dopiero biegnie długa dyskusja, pełna zastrzeżeń


etycznych, neurochirurgicznych itp. Tu musiałbym zainteresowanych skierować do
Dialogów moich oraz do Pokoju na ziemi. W tej drugiej książce nikt pewno nie
rozpozna obficie wymienianej literatury naukowej (z zakresu kaliotomii, tj. rozcięcia
wielkiego spoidła, 200 milionami włókien łączącego obie nasze mózgowe półkule)
jako bibliografii autentycznej (korzystałem z niej w Institute for Advanced Study). A
mianowicie wiele lat po napisaniu Dialogów doszło do wykrycia efektów takiego
rozcięcia mózgu „na dwoje”, przez co w jednej czaszce pojawiają się dwie
„osobowości” (ta półkula, w której brak ośrodka mowy, pozostaje niema, lecz można
jej obecność wykryć). A zatem na drodze do powstania nowego interface mózgu z
„kompatybilną” siecią niby–neuronową postawiono pierwsze kroki.

76
O sieciach neuronowych w 1954 roku mówiło się abstrakcyjnie niemal jak o
„obcowaniu świętych”, a dziś są książki o takim tytule (por. np. u nas wydane Sieci
neuronowe Ryszarda Tadeusiewicza, Warszawa 1993). Jest tam też bibliografia
światowa przedmiotu Jednym słowem, to, com wymyślał naiwnie, o tyle wynurzyło
się z nicości, że naukowcy urządzają na ten temat sympozja i konferencje, i to mnie
skłoniło do powyższego szkicu.

77
Pułapka technologiczna

1
Proponuję następującą definicję pułapki technologicznej: jest to socjalno–bytowy
rezultat upowszechnionego wdrożenia takich operacji technogennych, który w fazie
zarodkowej był niedostrzegalny, społecznie źle lub w ogóle nieprzewidywalny, w
fazie rozpędu już nieodwracalny, obracający domniemywane korzyści swego
upowszechnienia w jedno— albo wielopostaciową katastrofę, coraz jawniej
rozpoznawaną i coraz trudniej powstrzymywaną przez tych również możnych
decydentów, którym swe proliferacyjne rozmiary i swoje przemożne szkodnictwo
„zawdzięcza”.

2
Za prototyp modelowy „pułapki technologicznej” mogą tu zostać jedynie
przykładowo jako „szkolne pomoce” nazwane:
A) Wyzwolenie energii nuklearnej: wprawdzie dokonane w toku drugiej wojny
światowej jako broni masowej zagłady (skutkiem mylnego przypuszczenia, że strona
amerykańska znajduje się w sytuacji przymusowego wyścigu nuklearnego dozbrojenia
ze stroną nazistowską), lecz po wojnie, kiedy została ludobójcza wydajność bomb
nuklidowych wykazana, powstały liczne ośrodki uprzemysłowienia tej energii
„pokojowe”, jako źródła jej niemal wiekuistego, bezpiecznego i nieszkodliwego
środowiskowo użycia.
Wprawdzie energetyka atomowa wciąż się (choć w pewnym spowolnieniu)
globalnie rozwija (i poszerza), zagrożenia w biosferze jako skutki jej narastają,
zamiast maleć (czego spodziewano się po kollapsie Sowietów i mającym dzięki
niemu nastąpić powstaniu „nowego pokojowego” Porządku Świata).
Niebezpieczeństwo zjawia się u końca XX wieku co najmniej dwojako: w postaci
przynajmniej częściowego „zastąpienia” wymiany ciosów nadoceanicznych (za
pomocą Intercontinental Ballistic Missiles kolejnych doskonalonych generacji,
ukrytych w silosach opancerzonych) na wymianę możliwych (choć jeszcze nie
dokonanych) transferów za pomocą International Luggage Missiles, w skrócie ILM,
jako „walizkowo–bagażowych” bomb nuklidowych, których zdatne do użycia i do
przemytu okazy bywały już demonstrowane w światowych sieciach telewizyjnych.
„Rozdrapywanie” arsenału nuklidowego — głównie plutonowego — jako schedy
posowieckiej, przemyt odłamków, wysiłki państw mniejszych uruchomienia własnej
produkcji plutonu itp., mnożąc się, powiększają w sposób praktycznie bardzo trudno
obliczalny ale potęgujący prawdopodobieństwo eskalacji „rozproszonej” — w
przeciwieństwie do „eskalacji scentralizowanej” czasu „zimnej wojny” obu
supermocarstw, które liczyły się głównie, bo strategicznie na tym polu konkurowały o
przewagę w overkill strategy.
Jak wynika z powiedzianego, redaktorzy „Bulletin of Atomie Scientist” pospieszyli
się raczej pochopnie, kiedy wskazówki zegara nuklearnej Apokalipsy na okładkach
swego czasopisma cofnęli znacznie od „godziny dwunastej” po kollapsie ZSRR.
Prawdopodobieństwo, narastające nieodwracalnie, tym samym zbliża się, bez względu
na wartość zaczątkową, do jedności. Mówiąc prosto, pierwsze ciosy, jako być może
zamachy albo inspirowane przez pewne państwa, albo jako zamachy jakichkolwiek
78
grup terrorystycznych, nastąpią w przyszłości: mogą je oczywiście poprzedzić
rozmaite formy gróźb, szantażów, wymuszeń, o celach politycznych lub jedynie
materialnych. W każdym razie zasadniczy schemat pojęcia „pułapki technologicznej”
daje się w powyższym przebiegu etapów dobrze rozpoznać: po etapie wczesnego
rozpoznania teoretycznego, po fazie krótkotrwałej wojennej euforii zwycięskiej
(dzięki klęsce Japonii w II wojnie światowej), po etapie wyścigu nuklidowego dwu
supermocarstw, przychodzi etap „dyspersji zagrożenia”, który może z dowolnie
lokalnego konfliktu uczynić lont dla III wojny światowej. Wycofać się z
niebezpieczeństwa, poprzez
I) radykalny odwrót poszczególnych państw od energetyki jądrowej,
II) „radykalne” zawarcia antyproliferacyjnych umów antynuklearnych,
III) „radykalną kontrolę” dzięki działalności odpowiednich służb ONZ (Energii
Atomowej)
— NIE MOŻNA. Przykładów dostarcza lektura bezliku codziennych gazet. „Klub
atomowych państw” ulega poszerzeniu w sposób dość ciągły. Nie wchodzę tu w samo
sedno sprawy (w zagrożenie biosfery, ludzkości, masy dziedzicznej zwierząt, roślin z
człowiekiem na czele etc), ponieważ powyższe miało mi jedynie zilustrować na
konkretnym przypadku możliwe rozmiary, jako moc destrukcyjną, możliwe efekty i
niewątpliwą już nieodwracalność wstępnie wymienionego pojęcia „pułapki
technologicznej”. Z uwagi na to, że tylko o przykład chodzi, w samą problematykę
(jak i czy można pokojowe użycie energii jądrowej minimalizować itd.) wejść tutaj
nie zamierzam.
B) W bardziej jednoznaczny, ponieważ „antymilitarny” i „nie–polemologiczny”; to
jest nie tykający konfliktów powstających między ludźmi i ludźmi sposób pokazuje
„pułapkę technologiczną” na zupełnie odmiennym obszarze front starcia między
mikroorganizmami i człowiekiem, to jest aktualny u progu III tysiąclecia stan w
medycynie. Po pierwszym, jakoby definitywnie zwycięskim, etapie stosowania
antybiotyków przeciw chorobotwórczym mikroorganizmom, powstał rozpoznawany
jako fatalny — stan przewagi tych właśnie pasożytów, ponieważ ich szczepy (tak
liczne, że nie do wyliczenia tutaj) zdobyły dzięki swym metabolicznym
mechanizmom mutacyjnym odporność na ponad sto obecnie znanych farmakopei
antybiotyków. Zarazem dzięki „podwyższaniu poprzeczki” jako zabiegów,
stosowanych przy użyciu całej gamy antybiotyków, wirulencja (zjadliwość) zarazków
wzrosła. Ponadto grupa ich życiowo niesamodzielna, mianowicie wirusów, a już
osobliwie retrowirusów (Human Immunodeficiency Acąuired Virus) zwanych też
częściowo „powolnymi wirusami” (ze względu na wyjątkowo długotrwałą latencję,
okres „uśpienia” w zarażonym już organizmie, po angielsku slow viruses, dormant
viruses, etc.) wyszła niejako na czoło frontu submikroorganizmów zagrażających
ludzkiemu zdrowiu i życiu. Szczególnie HIV oraz HIV 2 wykazują stuprocentową
śmiertelność: trzeba jednak dodać, że bezpośredniej demonstracji modelowej pojęcia
„pułapki technologicznej” źle służą wirusy, albowiem antybiotyki ich praktycznie z
areny starć nie rugowały. Tak zatem zaproponowałem powyżej jedynie dwa o tyle
podobne do siebie modele „technologicznej pułapki”, że triumfalizm budzące
odkrycia po ich masowym wdrożeniu ukazują już, zamiast fenomenalny podziw
budzącego awersu, ponury i zagrażający nam wszystkim rewers. Cechą zarazem
szczególnie doniosłą, wyjątkowo ważną i istotną jest przy tym dla każdej pułapki
technologicznej to, że ma ona charakter procesu NIEODWRACALNEGO. Nie można
przecież ani „wycofać się” z efektu stosowania antybiotyków, przez niemożliwe w
praktyce „zapędzanie” chorobotwórczych zarazków w stronę „zmniejszonej

79
przedantybiotykowo wirulencji”, ani też nie można „zamknąć w butelce”, czyli
zawrócić do nikąd, raz wyzwolonej energii nuklearnej.

3
To, co było, co zaszło, co się stało, stanowi określone rozdziały rozwoju
technologii (czy też biotechnologii), nas zaś będzie tu szczególnie zajmował problem
bez wątpienia dyskusyjny, czy mianowicie MOŻNA rozpoznawać „otwarte” już, bądź
też „otwierające się” przed nami, albo wreszcie „czyhające w przyszłości” takie
pułapki technologiczne, których postrzeżenie dopomogłoby albo do ich uniknięcia,
albo pewnego poskromienia, albo co najmniej do upowszechnionego uświadomienia
niebezpieczeństw, zanim się dostaniemy pod ich władztwo. Oczywiście o jakiejś
„generalnej teorii antycypowania wszechmożliwych pułapek technologicznych” nie
może być rozsądnie mowy. Mówiąc zrazu dosyć ogólnikowo, cząstką definicji takiej
„pułapki” jest ta właśnie jej cecha, że, podobnie jak prymitywne wszak łapki na
myszy czy jakieś owady–szkodniki, zagrożenia w nich obecnego i zatajonego nie
pokazują tym, co przed nimi stają. Inaczej i zwięźlej: te pułapki albo zrazu przed
wkroczeniem w ich działanie wyglądają obiecująco, albo co najmniej „niewinnie”.
Byłoby, dodajmy nawiasowo, pewną przesadą jako zbytnim rozciąganiem
opisywanego tu w działaniu pojęcia uznanie np. motoryzacji (samochodowej) za taką
pułapkę, jaką stała się technologia jądrowa: z motoryzacji bowiem — chociaż z
wielką biedą — wycofać się jako–tako (znacznymi kosztami i niewiadomymi
technikami), w zasadzie MOŻNA.

4
Pułapkę można zademonstrować przykładowo na modelu fikcyjnym, w
rzeczywistości nie istniejącym, którym może być (dajmy na to) tak zwana
„etykosfera”, to jest efekt „przedłużenia” nieelastycznej bariery praw Natury (takich
jak grawitacja) na domenę zachowań istot rozumnych, przez „przymusową i
nieperswazyjną” etyfikację całego ich życiowego środowiska. Nikt tam, jak w Wizji
lokalnej mego autorstwa, nikomu nic złego wyrządzić nie jest w stanie, lecz tak
korzystny awers tylko instrumentalnie przez „wirusy DOBRA” realizowany, ma
fatalny rewers „niewidzialnego uwięzienia” wszystkich i wszystkiego w „kokonach
wirusowych”. Po dokładniejsze opisy obu stron rzeczy muszę tu odesłać do książki. Z
uwagi zaś na bezustannie i nieodwracalnie narastające poczucie
ubezwłasnowolnienia, wywołanej tym frustracji, bezskutecznie nasilającej się
tendencji agresji — nie do wyładowania w jakichkolwiek aktach pozamentalnych —
powrót do „Natury” (czyli do ery przedetyfikacyjnej) zagrażałby jakąś szaloną, może
ludobójczą, wszechgwałtownością. Należy jednak dodać prędko, że i bez „ładowania
akumulatorów mózgowych agresywnością” dzięki jakimś „wirusom zniewalającym
do nie czynienia bliźnim co samemu niemiłe”, postrzegamy obecnie zwłaszcza w
czołówce ludzkości bogatej, owej „permisyjnej”, sekularyzującej się, opitej swobodą,
wzrosty przestępczości, komercjalizację seksu, narkotyków, rozpad rodziny,
wprzęganie wszelkich nowin technicznych w sferę udogodnień życiowych o posmaku
łatwizny, także w życiu politycznym (jużeśmy bliscy wychwalania, a nie tylko
negowania uciech praktykowanego ludobójstwa, kazirodztwa, gwałtów masowych,
„torturystyki” i podobnych fenomenów zwyrodnieniowych, najfałszywiej w świecie

80
kwalifikowanych kalumniatorsko jako „objawy zezwierzęcenia”). Człowiek to brzmi
już jak obelga, nic w tym „dumnego” u schyłku stulecia. Ale wracam do rzeczy.

5
W szeroko reklamowanej, awizowanej z entuzjazmem, w zaczątkach już
realizowanej AUTOSTRADZIE INFORMATYCZNEJ (rodem z USA, czyli
Information Highway, Information Autobahn itp.) upatruję kolejny obszar
zawłaszczeń wieku informatycznego, który stanie się terenem inwazji przestępczości
źle lub wcale nie prognozowanej w XXI wieku. Będzie to tym samym kolejny teren
zaminowany „technologicznymi pułapkami”, a czy możliwe okaże się jakieś
wymanewrowanie z jego zagrożeń, jakiś odwrót, ratujący przed informatycznie
amplifikowaną zbrodnią, występkiem, wymuszeniem, „kradzieżą cennych
wiadomości”, złośliwym natręctwem wszechobecnym, nieznanymi nam postaciami
pornomanii, pornoklazji, przemiany biosfery w socjosferę z pornosferą itd., itp., —
tego się przepowiedzieć nie da, ponieważ wszystkie szansę Zła są silnie uzależnione
od parametrów faktycznego funkcjonowania owego pierścienia satelitów–
komputerów, biorących glob nasz w swój niewidzialny uchwyt. Sprawy tego, jak
bardzo liczne, jak bardzo nowymi możliwościami akcji obdarzone zostaną całe sfory
neowirusów w tej „autostradzie”, jeszcze nie można określić. Zresztą kurczowe
trzymanie się — niemowlęcej w gruncie rzeczy — fazy computer crime,
lokalizowanej w grupach mniej lub bardziej przestępczo działających „hackerów”,
świadczy przede wszystkim o inercji naszego myślenia. Ekstrapolacja liniowa
prowadzi do naiwnej w gruncie rzeczy wizji „superhackerów”, ślących całe watahy
„superwirusów” w sieć, ażeby z jej pomocą wkradać się do sztabów generalnych, do
skarbców państwowych, do banków i diabli wiedzą do jakich jeszcze ośrodków, zaś
samorośli „futurologowie” upajać nas chcą wizjami zdalnie opiekującej się chorymi
(lub choćby tylko samotnymi) medycyny, na koniec rozpowszechniającej się już
FANTOMATYKI (ma ona rozmaitymi wariantami wirtualnego wszędobylstwa, tj.
turystyki, elektronicznej onanii, zapośredniczanej przez fantomy zmarłych a słynnych
ongiś kobiet, które nie będą nawet musiały być urodziwe jak jakaś Marylin Monroe,
ponieważ inaczej ale także pociągająca wydaje się może kohabitacja z królową
brytyjską, informatycznie na dodatek odmłodzoną, a choćby z żoną sąsiada —
ewentualnie ,jemu na złość” — o takich ewentualnościach pisałem przed trzydziestu
laty czy to serio tj. dyskursywnie, czy to w groteskach). Lecz, powtarzam, to jest
mimo wszystko ekstrapolacja po liniach najmniejszego oporu i najsłabszej wyobraźni.
Jeżeli komputery, odpowiednio wyposażone na orbitach niskich dla uzyskania lepszej
rozdzielczości wprost wizualnej, będą mogły obserwować (więc i śledzić) każdy
pojazd jakby jedną krwinkę w rzece krwi, każdego człowieka, każdą transakcję, każde
włamanie, a zatem też likwidować każdą formę prywatności i coraz cenniejszego
samotnictwa, pojawi się w życiu zbiorowości nowa jakość, której skutków psycho– i
socjologicznych nie można łatwo przewidywać. Niezależnie zaś od poszczególnych
grup kontroli, osłon (filtrowania przeciwwirusowego, powiedzmy), nacisku, grup
osiadłych oczywiście na ziemi, ale działających już poprzez sieć czy ten pierścień
„ponadziemskiej autostrady”, mogą powstawać w samym owym pierścieniu, niejako
w gigantycznie opasującej nasz glob dżdżownicy–gąsienicy o tysiącu węzłów
nerwowych, nie tylko zakłócenia raczej niepożądane, nie tylko awarie rodzące chaos
(nie ma technologii bezawaryjnej poza Naturą, i nawet eksplozje Supernowych są
„awariami gwiazd” jedynie z naszego subiektywnego punktu widzenia), ale także
81
możliwy jest jako całkowicie nieprzewidywalny rykoszet czy efekt swoisty DRYF,
który by miał za odpowiednik służący unaocznieniu tego, co mam na myśli, kolosalne
skutki przyrostów masy, powodujące takie katastrofy we wszelkim transporcie, jakich
człowiek urobiony antropogenezą dla chodzenia na dwu nogach nie potrafiłby sobie w
ogóle wyobrazić jeszcze ze sto lat temu.
Masa zwykłego auta może już przy niezbyt wielkiej szybkości powodować skutki
kataklizmatyczne przy zderzeniach masowych, w warunkach zwykłej mgły na
autostradzie, zaś masa statku daje już rezultaty przeraźliwie wykraczające poza ramy
imaginacji. A z kolei powstawanie „masy informacyjnej” może wprawić ją w „dryf’,
czyli nieoczekiwane schodzenie z pasma zaprogramowanych zadań czysto biernych,
czyli podległych wyłącznie woli ziemskich i ludzkich rozkazodawców. Zresztą ci
rozkazodawcy już obecnie np. w USA na łamach tamtejszej prasy coraz doniosłej
brzmiącą irytację wyrażają dlatego, ponieważ pragnąc skorzystać z łączności dla
komunikowania się z innymi ludźmi albo prywatnie albo instytucjonalnie, z reguły
trafiają na czysto martwą, od elektronicznego Annasza do cybernetycznego Kajfasza
odtrącającą ich automatykę grzeczności programowanej komputerowo i dotarcie do
człowieka autentycznego JUŻ w tych wyłącznie ziemskich warunkach staje się takim
problemem, który niejednego przyprawia o nerwicę, zasadniczo odmienną i w
przyczynie i w objawie od nerwicy dysponenta zwyczajnego telefonu na polskiej
niezautomatyzowanej ziemi.
Cóż dopiero, kiedy w terabajtową sieć dostaną się podłączeni do niej milionami —
ludzie, poprzez ich przyszłe supermikrolaptopy. Kiedy komputery będą z
komputerami gaworzyły, ciałem stanie się niewinna fantastyka, jaką szkicowałem w
„Literaturze bitycznej” mojej Wielkości urojonej. Tak zatem nadciągający pono wiek
informatyczny niesie w swoich świetlnie zorganizowanych wnętrznościach, w
odwłokach komputerowych, zupełnie nieznane nam plagi, na które warto w
przezornym oczekiwaniu dlatego zwrócić uwagę, ponieważ z reguły (najzupełniej
bezwzględnej, wprost żelaznej) oczekiwania wizjonerskich progresistów
technokratyki, rozmaitych Blanchardów, Edisonów, Ciołkowskich, rzeczywistość
wprawdzie ziszcza, ale postawiwszy je dokładnie z jakąś niepojętą złośliwością na
głowie. Do góry nogami.
Nie wiem dobrze czemu ci, co pierwsi marzyli po Dedalu z Ikarem o locie w
przestworzu powietrznym wierzyli w łączność takiego lotu z doskonaleniem
ludzkości, dlaczego tacy Ciołkowscy myśleli całkiem podobnie o zjednoczeniu
pokojowym ludzkości dzięki zwycięstwu Człowieka nad ziemskim ciążeniem (jako
rozerwaniu grawitacyjnych okowów), czemu zatem ci, co nam szykują pierścienny
obieg informacji z szybkością światła również wszelkich perfekcji oczekują po
realizacji tego (raczej kosztownego) projektu. Inaczej mówiąc, bliżej prawdy być
może domyślam się, że tacy udoskonalacze naszego losu w wymiarach technicznych
(techne) oddają się tyleż lubej, co fałszywej nadziei na istnienie czynnika
INSTRUMENTALNEGO, który Naturę ludzką poprawi i okaże się wprost
Błogosławieństwem jakiegoś niewymownie miłego stanu. Rzeczywistość tym
rojeniom każdorazowo i kategorycznie przeczy, czyniąc z lotnictwa narzędzie
masowej zagłady, z astronautyki interkontynentalne samosterowne pociski
wszechmordu i wszechdestrukcji, z zawłaszczonych terenów przetwarzania informacji
obszar masowych kradzieży, włamań, nadużyć oraz namiastkę narkotyków
odurzających bezgranicznie i bezkarnie. Naturam expellas furca, tamen usąue
recurret: tak trzeba widzieć również ową polepszoną przesyłowo superłączność XXI
wieku, i myśleć o niejako rozwierającej swoją niewidzialną otchłań kolejnej, może

82
sprawniejszej od dawnych, PUŁAPCE TECHNOLOGICZNEJ.

PS. Rzecz jasna, pułapka biotechnologiczna, zapowiadana jako „inżynieria


genetyczna” rodem z „biotechnik molekularnych”, wywodliwych z Ewolucji
Naturalnej czyli „technogenezy Życia”, jest bodajże jeszcze bardziej
nieprzewidywalna, niewymierna, niedocieczona w niesamowitości efektów, w ich
groźnej dla wszystkiego co żywe, więc i dla nas, wypadkowej, ale ta pułapka
„biotechniczna” wymaga osobnego omówienia, jeszcze bardziej niepewnego i
mgliście zarysowanego, aniżeli otwarte przez nas informatyczne wnyki jakowejś
samoorganizacji, której kamienie brukowe być może nadadzą się do wymoszczenia
także i ziemskiego piekła.

83
Języki i kody

1
Mówić o języku trzeba posługując się oczywiście językiem, który z tego powodu
staje się metajęzykiem („metajęzyk” w odniesieniu do języka „elementarnego
poziomu” to tyle, co „metamatematyka” w odniesieniu do matematyki: znajduje się o
jeden stopień w hierarchii wyżej, lecz ponieważ kwestia jest złożona, zajmę się nią
potem). Jednakowoż żadnej innej metody operacyjnej nie znamy i mieć nie możemy.
Z tego powodu, a zarazem przez to, że całość naszego umysłowego życia osadzona
jest na ludzkiej umiejętności językowej, nie dającej się jednoznacznie ani
sformalizować, ani definicyjnie „rozgryźć”, poniższe uwagi muszą z konieczności
stanowić uproszczenia. Dodam jeszcze, że podstawę mojego podejścia do fenomenów
nazwanych w tytule stanowią prace rosyjskiego matematyka–probabilisty W.
Nalimowa, z jego książką Probabilistyczny model języka (Warszawa 1974) na czele.
Zarazem za niedostateczność moich refleksji tylko ja ponoszę odpowiedzialność —
tym bardziej, że się z zespołem koncepcji Nalimowa nie ze wszystkim zgadzam.

2
Można by tak powiedzieć: każdy język jest TEŻ kodem, ale nie każdy kod jest
językiem. W tym ujęciu różnica sprowadza się do zjawiska następującego: kod
stanowi poziom sygnalizacji informacyjnej najniższy, czyli taki, w którym zbiorowi
znaków (alfabetowi) przyporządkowany jest jedno–jednoznacznie inny alfabet (np.
alfabet znakowy Morse’a jest kodem przyporządkowanym alfabetowi naszego pisma).
„Najdziwniejszym” kodem jest kod biologiczny; czyli kod, jakim przekazywana jest
znieruchomiała w danym okresie całość genetycznej informacji z pokolenia (gatunku)
na pokolenie następne. O kodzie genetycznym powiem kilka słów nieco niżej: pierwej
należy bowiem sprezentować skalę albo lepiej „widmo” (spektrum) wszystkich
języków, jakie potrafimy rozróżnić.

3
Jeden kres owej skali zajmują języki „twarde”, a na przeciwnym krańcu znajdują
się języki „miękkie”. „Twardy” jest język zasadniczo bezkontekstowy, czyli taki,
który jak typowe języki programowania automatów skończonych (potocznie:
komputerów), stanowi zespół komend (zwany software), powodujący przekształcenie
danych (data processing) dzięki wykonywaniu komend — „rozkazów” przez
hardware komputera. Chociaż to dygresja, warto zauważyć już tutaj, że w mózgu, w
przeciwieństwie do komputera, nie jest łatwo odróżnić hardware od software. Można
najwyżej rzec, iż mózg noworodka jest wprawdzie przedprogramowany (w sensie
software) dziedzicznie, ale bardzo „słabo”, wysoce ogólnikowo, tak że określone jego
części (podzespoły) różnią się dzięki specjalizacji neuronowej efektami, czyli
reakcjami na bodźce dosyłowe: noworodek „widzi”, ponieważ jego kora wzrokowa w
płacie potylicznym („szczeliny ostrogi” mózgu) JUŻ jest tak właśnie
zaprogramowana; słyszy, ponieważ skroniowe ośrodki jego mózgu są JUŻ nastrojone
na słyszenie (ale nie znaczy to bynajmniej, iżby noworodek postrzegał widzenie jak

84
człowiek dorosły albo słyszał jak on). Albowiem programowanie mózgu zachodzi z
upływem dorastania i życia, które jest pobieraniem nauk, czyli
„doprogramowywaniem” neuronowej hardware. Lecz, powtórzę, mózg nowo
narodzonego NIE jest „białą kartą”, ani mózg największego mędrca NIE jest „do
końca definitywnie zaprogramowany”. Różnica, zachodząca tu między mózgami
żywymi i maszynami typu automatów skończonych, stanowi bodaj największą
przeszkodę do pokonania dla wszystkich usiłujących stworzyć AI, tj. sztuczną
inteligencję. Lecz… była to dygresja.

4
Prawdopodobnie największym we współczesności nieporozumie niem, które
zrodziło zarówno angielską filozofię lingwistyczną, jak odmienną od niej jawnie
filozofię fenomenologiczną, wraz z późnymi naroślami owej filozofii (Heidegger,
Derrida, le Man, Lyotard et alii) była przyczyna ukryta przed rozumiejącym
spojrzeniem tych myślicieli: mam na uwadze, mianowicie, słynny dowód Goedla,
który dla NASZYCH potrzeb tutaj wystarczy przywołać tylko na poły metaforycznie,
a w pełni skrótowo. Żaden system dostatecznie bogaty, razem ze swoim alfabetem i
swoją gramatyką (czyli ze swymi zbiorami skończonymi znaków i reguł ich
przekształcania) NIE JEST PEŁNY. Znaczy to, że dla każdego takiego systemu
(należy do niego matematyka, a w swej słynnej pierwszej pracy powołał się Goedel na
russellowskie Principia Mathematica jako również podległe nieusuwalnej zasadzie
niepełności) można wykrywać zdania (twierdzenia) prawdziwe, których prawdziwości
nie da się dowieść wewnątrz owego systemu JEGO sposobami (wywodliwymi zeń
regułami transformacyjnymi).
Języki przeciwnego kodom krańca skali, „miękkie”, odznaczają się silnym
polimorfizmem semantycznym (semantyka jest nauką o znaczeniu, semiotyka zaś
nauką o znakach). Oznacza to poliinterpretacyjność, czyli wielo–, a zarazem
różnowykładalność znaczeń językowych, już to dawanych poszczególnymi słowami
(układanymi z elementów alfabetu), już to idiomami. Chodzi o to, że języki „miękkie”
potrafią wymijać otchłań wykrytą przez Goedla. Mianowicie jest tak, że aby
udowodnić prawdziwość twierdzenia zawartego w pewnym (nazwijmy go
„zerowym”) systemie znakowym — twierdzenia, którego NIE da się zgodnie z
dowodem Goedla wewnątrz tego systemu zweryfikować — MUSIMY wzbić się na
następny poziom systemu i tam dopiero zdołamy rozwiązać zadanie. Takie przenosiny
z jednego poziomu, ustanawiające logikosemantyczne hierarchie języków, można w
uproszczeniu pokazać w ten sposób: mówiąc „widzę krzesło”, powiadam wprawdzie
w odniesieniu do poziomu generalizacji, że widzę mebel, ale nie można rzec „widzę
krzesło i widzę mebel”. Brzmiałoby to dziwacznie. Jednakowoż język jest nam dany
tak, że tysięcy owych „przenosin” różnopoziomowych nie uświadamiamy sobie (poza
logikami, skłopotanymi paradoksami np. typu samozwrotności — selfreflexivity).
„Najmiększe” języki są albo pełne wewnętrznych sprzeczności (jak język Zen),
albo stanowią twory abstrakcyjnego malarstwa, ponieważ można w nich wprawdzie
wykryć elementy znakowe, ale samo wykrycie i „odczytywanie” zachodzi
subiektywnie, a nie, jak w wypadku mowy — INTERSUBIEKTYWNIE.

85
„Normalny” język etniczny, którym się posługujemy, radzi więc sobie z
goedlowskim szkopułem, nie dbając o „huśtawki” poziomów logikosemantycznych.
Wynika to z miejsca, jakie zajmuje na naszej skali; jest to pasmo pośrodkowe: język
właśnie tam się sadowi, jako dostatecznie twardy „kodowo”, ażeby porozumiewanie
się było możliwe, i zarazem jest dostatecznie „miękki”, żeby można było pojmować
jego teksty z rozmaitymi odchyleniami. To ratuje przed upadkiem w „otchłań
Goedla”. Powiedziałem „otchłań”, ponieważ w języku, wyzbytym bogactwa
wielowykładalności, różnoznaczności, uzależnień sensów od kontekstów, czyli w
języku „monomorficznym” (w którym każde słowo oznaczałoby jedną jedyną rzecz)
panowałby straszliwy nadmiar liczbowy, istna babilońska encyklopedia: takim
językiem nie można by się posługiwać. Każda bowiem próba definitywnego
„domknięcia” systemów znakowo niepełnych prowadzi — do regressus ad infinitum.
Język nasz zatem właśnie przez to, że jest w odbiorach co nieco „rozmyty”, że im
teksty dłuższe, tym więcej powstaje wokół nich zróżnicowanej odbiorczo „aureoli”,
nie wkracza w pułapki Goedla, albowiem przeciwstawia im swoją giętkość,
elastyczność, czyli jednym słowem, ponieważ jest metaforyczny i potrafi ad hoc
metafory tworzyć. Jak język to robi? Gdy powiem: „mężczyzna patrzy na kobietę
poprzez hormon androsteronowy”, każdy, kto wie, że to jest męski hormon,
warunkujący u samców orientację seksualną, pojmie mnie, choć literalnie to nonsens,
gdyż hormon nie ma oprawki ani szkieł. Metafory o rozmaitej amplitudzie znaczenia
znajdziemy wszędzie: także w języku fizyki teoretycznej, kosmologii, biologii
ewolucyjnej, wreszcie i matematyki. Matematyzacyjny trend nauk ścisłych to skutek
ciągłego wysiłku REDUKOWANIA nadmiarów językowej metaforyczności. Gdy jej
zbyt wiele, język zatrąca o poezję, a wreszcie staje się tak samo nieprzydatny jako
narzędzie komunikacji, jak właśnie obrazy malarzy abstrakcjonistów. Ponieważ
„odczytać” takie obrazy można bardzo rozmaicie, a każdy widz może je po swojemu
pojmować (nie wiedząc zresztą, że w jego doznaniu estetycznym współzachodzi też
obecność prób dostrzeżenia w nim pewnego „komunikatu”), nie ma zgody nawet
wśród znawców co się tyczy znaczenia obrazu, natomiast obrazy naturalistów w
istocie znakowymi systemami „miękkimi” nie są. Są one raczej swego rodzaju
całościowymi symbolami (ale w tę dość sporną kwestię głębiej tu wejść nie mogę).
Ten, kto posługuje się normalnym językiem etnicznym, otrzymuje niejako „za
darmo”, dopóty, dopóki uczy się posługiwania owym językiem, strategię wymijania
goedlowskich zapaści. Rozmaitość, ilość, jakość metafor w języku potocznym bywa
na ogół mniejsza aniżeli w literaturze; najwięcej metafor, oznaczających „prawie
dowolną rozciągliwość”, rozszerzalność subiektywną, podatność wielowykładalną
znaczeń spotykamy w poezji. I tak, jeżeli utwór zaczyna się słowami (u Leśmiana, w
Panu Błyszczyńskim) „Ogród śnił się”, to JUŻ mamy do czynienia z
poliinterpretacyjną metaforą, a kto zgody na przeciwdosłowność tak elementarnego
predykatu nie da, ten się na czytelnika poezji (Leśmianowskiej) nie nadaje. Miałby zaś
na „zerowym” poziomie języka słuszność, ponieważ „ogrody się SOBIE nie śnią”,
jako iż śnić nie mogą. „Barwność” elokwencji jest w istotnym stopniu uzależniona od
oryginalnego produkowania ad hoc pojmowanych przez odbiorcę metafor, i to takich,
które są „świeże”. (Wychwalani dziś autorzy, jak Buczkowski i Parnicki, „dosalali”
swe teksty takimi nadmiarami metaforyczności, że powstawały przez to teksty bardzo
silnie przeciwstawiające się rozumieniom ujednoznacznionym: przeciętny czytelnik
nie życzy sobie, ażeby go tekstem autor wodził na wertepy, manowce, w labirynty,
które skądinąd w oku wytrawnego „metaforofila” mogą stać się właśnie klejnotami
prozy). Ale powróćmy do naszej skali i wywodliwych z niej wniosków.

86
6
Zupełnie osobne, niezwykłe miejsce zajmuje na tej skali kod biologiczny, który
wytworzyła ewolucja naturalnie. Tutaj warto mu się chociażby z grubsza przypatrzyć.
Kod genetyczny nie jest jeszcze PRZEKAZEM: jest tylko alfabetem i gramatyką
(podobnie jak język programowania, jeden z wielu powstałych). Komórka używa
czteroliterowego języka (kodu) kwasów nukleinowych, aby przełożyć tekst–genom —
na dwudziestoliterowy język białek. (Przypominam, że KOD poznajemy wtedy, gdy
jeden znakowy system sztywno zostaje przyporządkowany innemu, jak np. gdy —
poza Morsem — mamy do czynienia z sygnalizacją stosowaną w służbach morskich
flagami, albo kiedy kodem jest szyfr; szyfr mianowicie jest kodem, który przełożyć na
język etniczny potrafi tylko ten, kto dysponuje KLUCZEM służącym do
dekodowania). Molekuła białkowa jest tekstem zbudowanym z dwudziestu liter
wtórnego alfabetu — aminokwasów, tożsamych w całej przyrodzie żywej.
(„Wynalazek” okazał się TAK trudny, że kod genetyczny jest JEDYNY dla
wszystkich roślin i zwierząt — byłych, istniejących i przyszłych — w toku
czteromiliardoletniej ewolucji życia na Ziemi).
Genom jest zasadniczo „zastygły” i „znieruchomiały”, toteż stanowi podstawową
matrycę dziedzicznego przekazu. Nukleinowy kod, zbudowany z zasad kwasów
nukleinowych (nukleotydów) jest troisty (tryplet). Cztery nukleotydy, brane osobno,
mogą kodować tylko cztery aminokwasy. Brane po dwa, też nie wystarczą: określają
tylko 16 aminokwasów. Natomiast tryplety dają już 64 kombinacje, i to jest już
nadmiarowe. Tym samym powiadamy, że redundantna (nadmiarowa) jest struktura
tego kodu. Większość aminokwasów może być kodowana nie jednym tylko trypletem,
niektóre zaś nawet sześcioma. Ponadto trzy tryplety nie kodują żadnych kwasów
aminowych, są to bowiem znaki przestankowe kodu. Odkąd wykryto tak zwaną junk
DNA, czyli po polsku „nukleotydowe śmiecie”, w każdym genomie, zapanowało
zrazu przeświadczenie, iż kod, w samej rzeczy, stanowi od wieków wehikuł, jakim
posługują się te „śmieci” kodowe niby pasażerowie na gapę. Tak drastyczna odmowa
tym „pasażerom” wszelkiej wagi, wszelkiego znaczenia w procesie dziedziczności
wydawała mi się od dawna dość podejrzana, tym bardziej iż zaledwie KILKA procent
genów (jest ich około 100 000 u człowieka) uznano za kodony strukturalnie
wyznaczające powstawanie (budowę) aminokwasowych białek, tych cegiełek każdego
organizmu. Jednak ostatnio już słychać o ewolucyjnej ROLI junk DNA, chociaż
jeszcze z pewnością funkcji tych „śmieci” nie udało się ustalić. Zdaje się, że
tożsamość, wielopowtarzalność określonych sekwencji, takich Jakoby nic w
dziedziczności nie wyznaczających” fragmentów kodu, ich nieustępliwa obecność,
świadczy o tym, że podlegają selekcyjnemu ciśnieniu i że tym samym służą jakimś
funkcjom. Zdaje się, że te rzekomo „bezsensowne” nukleotydy wpływają na geny
strukturalne, warunkując natężenie ich ekspresji, że mają funkcje podtrzymujące ład
genomu itd. Nie wchodzę w tę dygresję dalej. Jest o tyle fascynująca, iż dotąd
uważało się, że trzy miliardy nukleotydów genomu zasługują na uwagę TYLKO w
obrębie „strukturalnej mniejszości, kodującej konkretne białka”. (A przecież są serie
tych „głuchych i niemych” nukleotydów liczące niezmiennie uporządkowane szeregi
po 280 elementów).

87
7
Wróćmy wszakże do języka etnicznego. Już w latach pięćdziesiątych usiłował
Noam Chomsky matematyzować formalnie podstawy języka i poszukiwał tak zwanej
generującej gramatyki, właściwej WSZYSTKIM językom ludzi (a jest ich około 4000
na Ziemi; niektóre praktycznie już martwe). Rozróżniał przy tym powierzchowną i
głęboką strukturę języka, jednakowoż aczkolwiek jego gramatyki potrafią generować
systemy tekstów i wzbudziły nadzieję, że przejście od nich do algorytmicznych
języków tłumaczenia maszynowego okaże się w zasięgu urzeczywistnienia, prace te
utknęły na mieliznach: maszynowe przekłady są wciąż wysoce niedoskonałe. Jeżeli
zaś przyjrzeć się problematyce dokładniej i bliżej, można dowieść, że literalnie
przekłady jedno–jednoznaczne z języka (etnicznego) na inny język są przy zakładanej
w pełni pojemności sensowej niemożliwe. Raczej mówić wypada o tym, że ten, kto
tłumaczy, zajmuje się INTERPRETACJĄ tekstu jednego języka za pomocą języka
drugiego. W matematyce, której metaforyczność, zwłaszcza w matematyce czystej,
jest silnie zredukowana, dwaj niezależni matematycy, mający rozwiązać to samo
zadanie, łatwo i nieraz uzyskują tożsamy trop dowodowy, natomiast praktycznie jest
niemożliwością powstanie dwu niezależnie przetłumaczonych (np. na polski) tekstów
HAMLETA w taki sposób, ażeby pokrywały się co do joty. Obrazowo
(METAFORYCZNIE) mówiąc, oryginał stanowi centralny PUNKT pewnej tarczy
strzeleckiej, poszczególne zaś przekłady są trafieniami tylko asymptotycznie zdolnymi
zbliżać się do owego centrum: pokryć się z nim w 100% nie mogą. Pozwolę tu sobie
wskazać przykład całkowitej nieprzekładalności z polskiego na francuski, wielce
współczesny. W utworze S. Mrożka pewien „Zygmuś” powiada: „Ślimak jest to
stworzonko, utrzymujące się przy pomocy wystawiania rogów, w zamian za co
otrzymuje pewną ilość sera, z której wyrabia pierogi”. Otóż można przełożyć to
zdanie na francuski literalnie, ale nie będzie ono w ogóle miało typowego dla Polaka
aspektu humorystycznego, po prostu dlatego, że Francuzom obcy jest dziecinny
wierszyk („ślimak, ślimak, wystaw rogi, dam ci sera na pierogi”). TO zdanie jest
jakby „głęboką warstwą” semantycznego odniesienia Mrożkowego żartu, tej głębszej
wartości semantycznej (napięcie, wywołujące uśmiech, zachodzi międzywarstwowo)
nawet genialny tłumacz na obcy język nie przełoży. Poezję zaś można od siekiery (to
metafora) rozdzielić na przekładalną i nieprzekładalną. Jakkolwiek zjawisko
przekładu lepszego od walorów oryginału zachodzi czasem, jest jednak nad wyraz
rzadkie. Tak zatem, rozszerzając pole naszych dociekań i roztrząsań na znaczny zbiór
konkretnych translacyjnych dylematów i przykładów, doszlibyśmy na koniec do
zrozumienia, dlaczego takie ubóstwo i taka ułomność panują wciąż w dziedzinie
komputerowego przekładania językowych tekstów. W nauce jest ona mniejsza aniżeli
w obszarze beletrystyki, przekłady zaś poezji są orzechem jeszcze trudniejszym dla
maszyn do rozgryzienia.

8
Dystrybucja znaczeń poszczególnych słów, idiomów, zwrotów, O fraz konkretnego
języka znajduje bardzo rozmaitą reprezentację u różnych ludzi należących do
tożsamego kręgu językowego. (Jeżeli TEMU zdaniu przyjrzeć się pod kątem srogiego
polowania na metafory, dostrzeżemy, że „krąg” może mieć wiele różnych znaczeń,
podobnie jak „dystrybucja”). Ogólnie wolno rzec, iż synonimy właściwie nie

88
oznaczają TEGO SAMEGO denotatu, ponieważ są uwarunkowane w granicach
znaczeń swoich KONTEKSTAMI, w jakich występują. Ale to była jedynie „uwaga po
drodze”. Otóż główną w dziele Nalimowa sprawą „probabilistycznego modelu
języka” nie zajmowałem się tutaj, ponieważ będąc wprawdzie godna uwagi, kwestia
ta wymaga dłuższego potraktowania, z naczelnym wprowadzaniem tak zwanej
formuły (statystycznej) Bayesa. Uwagi moje miały ograniczyć się do pokazania, że
metaforyczność etnicznego języka może być zarówno Z POŻYTKIEM używana, jak i
ZE SZKODĄ dla komunikacji nadużywana. Poezja jest dziedziną pokrywającą się
częściowo z filozofią pewnego typu, z filozofią (na przykład) egzystencjalnej
rozpaczy, z właściwościami języka, ojczystego dla filozofa (Heidegger, ale i Hegel
godni są tu wymienienia). Powstają zarazem pewne sofizmatyczne pretensjonalności
autorów, jak Heidegger, który uważał swoją filozofię za prostą (niemal) kontynuację
starogreckiej. Język jego jest tak „przemetaforyzowany”, że niedostatek
dyspozycyjnej przenośni w germanizmach skłaniał Heideggera do tworzenia
neologizmów, najlepiej pojmowalnych przez osoby niemieckojęzyczne; z
tłumaczeniem Heideggera mieli przez to kłopoty np. Francuzi, a nie lepszy Derrida
też ponaciągał niektóre leksykograficzne ścięgna i stawy francuszczyźnie. Nad nim
więc z kolei polscy tłumacze musieli się biedzić.
Ponieważ w niniejszych uwagach powstrzymałem się do tej pory od wypowiedzeń
sądów wartościowych i jawnie deprecjacyjnych, dodam, iż zdaniem moim, każdy
tekst w sytuacji rozpowszechniającej się dziś tendencji GLOBALIZACYJNEJ jest
tym bardziej wart „eksportowania”, czyli akceptowania rozumiejącego poza
granicami danego językowego obszaru, im bardziej skutecznie można go przełożyć.
Tak w nowej poezji, jak w skrajnie fenomenologicznej filozofii o przekłady bardzo
trudno. Ale czy to oryginał tekstu zwartego, a zarazem głębokiego semantycznie, czy
jego trafny przekład stawiają podobne wymagania czytelnikowi: bywa, iż musi on
dysponować zaiste encyklopedycznymi informacjami ORAZ rozwiniętą maksymalnie
strefą emocjonalnego odbioru po to, ażeby czytając dany tekst „z głębią”, zrozumieć
„optymalnie”. Najłatwiej (niestety) ową metaforyczną „głębię” można falsyfikująco
imitować zwyczajną mętnością, hipostatyczną frazeologią, od jakiej się — zwłaszcza
u wiernych naśladowców i uczniów Derridy — wprost roi. To samo dotyczy też
zarówno szałów współczesnej plastyki, jak współczesnej poezji, której trudne
zarozumialstwa służą nieraz po prostu epatowaniu (nielicznych już) odbiorców.
Należy zarazem uświadomić sobie, że zarówno muzyczne utwory, jak nawet tańce
opatrzone określoną kolejnością figur mogą być rozpatrywane jako szczególnie
„miękkie” języki. Dotyczy to nawet mody, jej zmian (są to zmiany semiotyczne) oraz
JEJ BRAKU, który też może się przecież stać modą. Np. zmiany polegające na
zdejmowaniu odzieży znaczą W SEKWENCJI STRIPTIZU to, co przypomina
aluzyjnie pewną introdukcję (jak uwertura w muzyce). Na koniec można dodać, że
nazbyt „twardy” język, „obrąbany” z metaforycznej giętkości, jest odchyleniem od
normy lingwistycznej, zbytnia zaś „miękkość” prowadzić może nawet do schizofrenii:
wkracza ona bowiem w świat takich „metafor”, których prócz samego schizofrenika
już nikt nie zrozumie.
9 Co wynika z powyższych, aż nadto lapidarnych spostrzeżeń? Wynika z nich
uniwersalność języka dla wszystkich umysłowych czynności ludzkich. Bez języka nie
byłoby samoświadomości ani mnóstwa typowych dla nas poczynań i zajęć, wraz z
dziedziną sztuki. Najsłabiej podlega lingwistycznym wpływom aktywność czysto
mięśniowa, niejako „nasza scheda zwierzęca”, ponieważ zwierzętom jest obcy język:
mogą się posługiwać wyłącznie prostą sygnalizacją (jak pszczoły lub ptaki). Pod

89
koniec wieku doszedł do głosu atawizm, paradoksalnie amplifikowany przez media
wizualne (telewizję zwłaszcza). W niej bowiem lwią część programowego czasu
zajmują na całym świecie te czynności człowieka, które podlegają nie tyle mózgowi,
ile móżdżkowi (Cerebellum). Czy będzie to sport we wszystkich odmianach —
zawody jeździeckie czy atletyczne, czy boks, czy tenis, czy piłka nożna, czy konkursy
tańca, czy pokazy muskulatury kulturystów, czy gimnastyka, czy akrobacja — czy
sztuki prestidigitatorskie, czy karate, wszystkie one tworzą zbiór podległy mocno
regulacji, synchronizacji i kontroli móżdżkowej, ze względu na olbrzymią ilość stopni
swobody, jaką jest obdarzone ciało człowieka. Tylko w TEJ sferze funkcjonalnej
zwierzęta dorównują nam, albowiem wszystkie wyższe (jak ssaki) mają móżdżek.
Koordynacją dynamiki i kinematyki ciała foka ani małpa człowiekowi nie ustępują.
Można by poważyć się tedy na konstatację, iż nasilona „bezjęzykowość”
widowiskowa w mediach stanowi swego rodzaju odwrót od najwyższych czynności
ośrodkowego układu nerwowego, od „nowej kory mózgowej” — neocortex. Czy jest
to wypadkowa nasilonej już obecnie demograficznej eksplozji oraz krzyżowania się
rosnącej permisyjności z technologiami „ułatwionych maksymalnie spełnień i
pożądań”, twierdzić nie śmiem. W każdym razie ów trend, w którym mimo woli
maszynom przekazujemy nawet rosnący cywilizacyjnie trud MYŚLENIA, daje do
myślenia… oto ostatni, podobny do przestrogi, na poły metaforyczny wniosek z tych
fragmentarycznych uwag.

90
Labirynty informacji

1
Dopiero niedawno dowiedziałem się, że zaczątek Internetu, jako sieci
komputerowej bezośrodkowej, czyli takim sposobem rozgałęzionej, że nie posiada
ona żadnego „centrum”, wymyślili fachowcy Pentagonu jakieś dwadzieścia lat temu.
Chodziło im podówczas o utworzenie takiej informacyjnej łączności globalnej, której
nie zdoła zniszczyć atomowymi ciosami przeciwnik. Przeciwnikiem były oczywiście
Sowiety. Zresztą gdyby nie doszło do militarnie oraz strategicznie inicjatywnego
poczęcia, Internet niechybnie i tak by powstał i zaczął się niezmożenie rozrastać,
ponieważ od dawna już stawało się oczywiste, że żaden komputer z osobna,
chociażby największy, nie zdoła w swojej pamięci zawrzeć tego, co gromadzi
ludzkość jako informację we wszystkich jej odmianach. Zaczęło się zatem od
łączności telefonicznej, od modemów, od więzi łączących uniwersytety czy inne
ośrodki badawcze, obecnie zaś niezbędnie intratne wydają się wielkim korporacjom
zarysy mającej dopiero powstać „światowej autostrady informacyjnej”, Information
Highway. Zarazem nadchodzący wiek poczyna się jawić jako „Stulecie Informacji”: a
jednocześnie stają się coraz jawniej dostrzegalne zarówno ogromne korzyści, jak
występne zagrożenia, powstające dzięki czy też wokół tego globalnego „krótkiego
spięcia” wszechporozumień wszystkich ze wszystkimi. Można już przecież czytać o
„wirtualnych bibliotekach”, o „wirtualnych ośrodkach leczniczych”, o Cyberspace
służącym rozrywkom tak samo sprawnie, jak naukowcom, studentom, wreszcie takim
nowszym „podróżnikom”, którzy radzi by, nie ruszając się z domu, zwiedzać
amerykański rezerwat Yellowstone, pustynię Gobi czy piramidy egipskie.
Jednym słowem, kluczowym w każdej gałęzi globalnych łączy komputerowych jest
INFORMATION RETRIEVAL. Ma on — jako wykrycie możliwie pewnej, sprawnej i
rychłej drogi do informacji, której Ktoś poszukuje, dwa oblicza co najmniej:
albowiem poszukuje potrzebnej mu — z powodów ekonomicznych, poznawczych czy
jakichkolwiek innych — informacji zarówno ten, komu ona legalnie i zacnie posłuży,
jak i ten, co chce się do jej sedna wkraść, ażeby podsłuchać, podpatrzyć, zawłaszczyć,
jednym słowem, stając się nowożytną odmianą złoczyńcy, ocierającego się o
computer crime. Internetowi, który już istnieje i rozrasta się z roku na rok z
eksponencjalną szybkością (powiadają, że obecnie dostępna w sieci informacja
przekroczyła już pojemność 2300 kompletów Wielkiej Encyklopedii Brytyjskiej),
poświęcona została prawie tak chyżo jak on powiększająca się literatura (którą
również można, rzecz oczywista, poznać, poczytać, dzięki Sieci). Tu nawiasem
dodam, że najbardziej brak nam obecnie porządnych odpowiedników polskich
terminów, w Stanach Zjednoczonych ukutych już dla roju innowacji, jako czynności
prawnych i bezprawnych, jako metod „ataku” mającego przedzierać się do
zawarowanych komputerowymi kodami, hasłami, odzewami „informacyjnych
skarbów” na przykład banków czy konsorcjów — i jako metod obrony, które stają się
filtrami informacji. Jedno i drugie wikła się silnie w tę oczywistą i elementarną
sprawę, że ani „węzły” sieci, to jest komputery (są ich już nie setki tysięcy, lecz
miliony) i nie „oka sieci”, a zatem ich połączenia, nic nie rozumieją, chociaż
potencjalnie „wszystko wiedzą”. Nie można więc traktować sieci (czy tej istniejącej,
Internetu, czy też tej mającej dopiero powstać z Internetu jak z zarodka) jako
Globalnego Mędrca, Czarodzieja i Spełniającego życzenia Dżinna. Ten nibydżinn

91
wszystko wprawdzie „wie”, ale, skoro nic nie rozumie z tego, co w sobie zawiera,
należy przemyślnymi sposobami ułatwiać użytkownikom sieci docieranie do takich
połaci wiedzy lub rozrywki (na przykład), jakich poszukują. Jest chyba dość jasne, że
wraz z przyborem użytkowników, ośrodków typu „interakcyjnych wideotechnik”,
bibliotek wirtualnych, wreszcie właściwych „generatorów informacji innowacyjnej”,
to znaczy po prostu ludzi–twórców (w każdej dowolnej sferze i dziedzinie — sztuki
czy nauki, czy rozrywki), zarazem rośnie przybór dróg, jakimi informacja poszukująca
mknie, ażeby dopaść poszukiwanej.

2
W latach 1972–1979 napisałem powieść Wizja Lokalna i w niej nie bez
rozbawienia znajduję taki oto, przydługi fragment, który w związku z powiedzianym
pozwolę sobie zacytować.

Dowiedziałem się, że w XXII wieku popadła Luzania w okropny kryzys, wywołany


samozaćmieniem nauki. Najpierw coraz częściej było wiadomo, ze badane zjawisko na
pewno już ktoś kiedyś dokładnie przebadał, nie wiadomo było tylko, gdzie tych badań
szukać. Specjalizacja naukowa rozdrabniała się w postępie geometrycznym i główną
przypadłością komputerów, a budowano już megatonowe, stało się tak zwane chroniczne
zaparcie informacyjne. Obliczono, że za jakieś pięćdziesiąt lat nie będzie już żadnych
innych komputerów uniwersyteckich jak tylko tropicielskie, czyli poszukujące w
mikrozespołach i przemyślnicach całej planety, GDZIE, w jakim zaułku, w której pamięci
maszynowej tkwi wiadomość o tym, co jest kluczowe dla prowadzonych badań.
Nadrabiając wiekowe zaległości, w szalonym tempie rozwijała się IGNORANTYKA,
czyli wiedza o aktualnej niewiedzy, dyscyplina do niedawna pogardzana aż do zupełnego
zignorowania (ignorowaniem niewiedzy zajmowała się gałąź pokrewna, mianowicie
IGNORANTYSTYKA). A przecież porządnie wiedzieć, czego się nie wie, to już
dowiedzieć się niejednego o wiedzy przyszłej, i od tej strony zrastała się ta gałąź z
futurologią. Drogiści mierzyli długość drogi, jaką poszukiwawczy impuls musiał
przemierzyć, ażeby dopaść szukanej informacji, a była już taka, że przeciętnie wypadało
czekać na cenne znalezisko pół roku, aczkolwiek ten impuls poruszał się z chyżością
światła. Jeśliby szlak labiryntowych tropień wewnątrz zawłaszczonych dóbr wiedzy miał
się przedłużać nadal w obecnym tempie, to następnemu pokoleniu fachowców przyszłoby
czekać po 15 do 16 lat, nim świetlnie gnająca sfora sygnałów–odnajdywaczy zdoła im
zgromadzić pełną bibliografię do zamierzonego przedsięwzięcia. Ale, jak mówił u nas
Einstein, nikt nie drapie, jeśli go nie swędzi, powstała więc domena najpierw ekspertów
szukanistyki, a potem tak zwanych inspertów, bo potrzeba powołała do bytu teorię
odkryć zakrytych, czyli zaćmionych innymi odkryciami. Tak powstała Ariadnologia
Ogólna (General Ariadnology) i rozpoczęła się Era Wypraw w Głąb Nauki. Tych właśnie,
co je planowali, zwą inspertami. Pomogło to trochę, ale na krótko, bo insperci, też
przecie uczeni, chwycili się teorii inspertyzy z działami labiryntyki, labiryntystyki (a
one są tak różne jak statyka i statystyka), labiryntografii okólnej i krótkozwartej, jako
też labiryntolabiryntyki Ta ostatnia to ariadnistyka pozakosmiczna, podobno
dziedzina wielce ciekawa, traktuje bowiem istniejący Wszechświat jako rodzaj małego
regału czy półeczki w olbrzymiej bibliotece, która nie może wprawdzie istnieć realnie,
lecz nie ma to poważnego znaczenia, teoretyków nie mogą bowiem interesować banalne,
bo fizyczne granice, które świat nakłada na insplorację, czyli Pierwsze Wgłobienie
Samożercze Poznania. A to, ponieważ ta straszliwa ariadnistyka przewidywała
nieskończoną ilość następnych takich wgłobień (poszukiwanie danych, poszukiwanie
danych o poszukiwaniu danych i tak dalej aż do zbiorów mocy pozaskończonej
Continuum).

92
Koniec przydługiego cytatu…
Należy, jak myślę, wykroczyć poza tę z literackofantastycznego zamysłu
potęgowaną, więc karykaturalną po trosze bufonadę, ażeby zastanowić się nad
problemem, który jak niewidzialny duch (na razie) unosi się nad całą kwestią
globalnej sieci informacyjnej, która pozwolić by miała użytkownikom, czy to osobom
fizycznym, czy prawnym, czy rządom, czy Interpolom, czy badaczom, czy politykom,
dzieciom, matkom, podróżnikom, duchownym i tak dalej, i tak dalej — docierać do
informacji przez nich szukanej. Tym „duchem”, o jakim wspomniałem właśnie, jest
pytanie może krytyczne, mianowicie o to, czy gdyby Sieć, jakiś Super–Internet,
posiadała zdolność ROZUMIENIA Wszechinformacji, ułatwiłoby to dostępy do
wiadomości poszukiwanych? Teraz bowiem — jak się rzekło — żadna komputerowa
zespólnia, chociażby miała być i milion razy rozleglejsza od dotąd powstałej, nic a nic
nie rozumie, akurat jak jakaś biblioteka, która przecież, jako księgozbiór, też sama z
siebie niczego nie może pojmować. Skoro się jednak postawiło takie pytanie, trzeba
sobie uświadomić, że tym samym wkroczyło się już nie tylko w obszar komputerom
(dowolnej mocy obliczeniowej) wciąż niedostępny, mianowicie semantyki, tj.
ZNACZENIA, które wprowadza w swoje precyzujące każdy sens obszary (desygnacji,
denotacji i konotacji), ale, i to już staje się dramatem, wkracza się w kwestię taką oto:
czy istnieją „informacyjne śmiecie”, które z Internetów dowolnej struktury trzeba by
wymiatać, czy też nie istnieją?
Odpowiedź, niestety, musi być obciążona relatywizmem. Co dla jednego
użytkownika będzie śmieciem, to dla innego stanowi informację ze wszech miar
pożywną, strawną i nawet może niezbędną. Dajmy na to, że chodzi o naukowca, który
zajmuje się zbieraniem danych o falsyfikatach prac naukowych, falsyfikatach,
dodajmy, jakich dziś pełno i o jakich rzeczywiście piszą już książki (mam u siebie
trzy właśnie takie tytuły). Czy podręcznik zawierający spis metod, którymi można się
„włamywać” do sieci, korzystać ze szkodą osób lub instytucji trzecich z „cudzej”
informacji, jest „śmieciem”? Jeszcze inaczej: czy w ogóle dopuszczalna może być
myśl o utworzeniu „cenzorów” w samej sieci? Ależ to już jest, dlaboga, pytanie o
zeszłoroczny śnieg. Przecież „cenzorujące filtry” już od dawna istnieją i funkcjonują,
tylko ich nikt „cenzorami” ani „wartownikami” nie zwie. Mianowicie okradane
informacyjnie instytucje (a pewno i osoby) instalują tak zwane firewalls, więc niby
„przeciwpożarowe ściany”, które filtrują informację wchodzącą, natomiast swobodnie
przepuszczają wychodzącą z lokalnego źródła. Więc zarodniki cenzury sieć już
zawiera. A co się „śmiecia” tyczy, od dawna, bo od samego zarania cybernetyki było
wiadomo, że to, co jest dla jednego człowieka „szumem” (głuszącym informację), dla
innego, np. inżyniera–informatyka, badającego noise leuel w kanale przekazującym
informację, JEST właśnie przezeń poszukiwaną i mierzoną informacją. Jednym
słowem: potrzebne stają się zwrotnice albo może jakowiś zawiadowcy zwrotnic,
zdolni do kierowania informacyjnych strumieni podług ich nadrzędnie ustalić się
dającej treści do odpowiednich adresów, tak ażeby fachowiec zajmujący się anatomią
nie musiał oglądać obrazów pornograficznych, a matematyk–statystyk nie był skazany
na wymiatanie ze swego komputera ciągów liczbowych stanowiących spisy
milionowych rezultatów ciągnień jakiegoś totalizatora. Tego rodzaju zwrotnice będą
się stawały coraz bardziej potrzebne w miarę rozszerzania się i samej sieci, i liczby jej
użytkowników.

93
3
Muszę przyznać, że w publikacjach amerykańskich, które jak dotąd czytałem,
poświęconych globalnej sieci informacyjnej, zdziwiła mnie swego rodzaju
żywiołowość zarówno rozwoju owej sieci, jak i podejścia do niej informatyków.
Przede wszystkim zdają się wszyscy zakładać jako samozrozumiałą oczywistość, że
język angielski jest językiem globalnym i problem dostępności „wirtualnych
bibliotek” (powiedzmy) dla jakichś Japończyków czy innojęzycznych mieszkańców
Ziemi w ogólnie nie istnieje (tymczasem wiadomo dobrze, że komputerowa
sprawność w zakresie tłumaczeń z języka na język była i pozostaje niska). Ponadto
zmartwienia Amerykanów mają bardzo partykularny, niejako doraźny charakter:
biznesmeni np. kłopoczą się tym, iż transakcje przeprowadzać za pośrednictwem sieci
jest wprawdzie bardzo łatwo, lecz brak im płatniczej pewności, czyli po prostu
mówiąc, można na tych szlakach bardzo łatwo zostać oszukanym, a ochronić przed
nadużyciami potrafią jedynie firewalls oraz inne umowne, szyfropodobne bariery,
które notabene w końcu można przebić, albowiem nadzwyczaj trudno jest zawsze
uzyskać bezpieczeństwo stuprocentowe: co jeden człowiek jako doskonały zamek czy
szyfr wykoncypuje, to inny tak lub inaczej przechytrzy. Natomiast (już po trzecie) nie
wiadomo, w jaki sposób należałoby ustawiać na drogach sieci „tamy” dla
naukowców, łaknących informacji w zakresie tematów opracowywanych przez
tysięczne rzesze innych ludzi na całym świecie. W obszarze tematów tak popularnych
jak, powiedzmy, problematyka wirusa AIDS albo aspektów energetycznych,
ekologicznych i last but not least medycznych energii atomowej powstała już istna
powódź, prawdziwy informacyjny potop. To, że kłopoty konkretnego badacza —
autora prac wynikają nie z braku dostatecznego rozeznania w światowej literaturze,
ale, na odwrót, z nadmiaru, którym gotów zasypać go należycie skierowany w sieć
Internetu komputer, problemu przecież nie likwiduje. Wiedzieć za mało jest tak samo
źle, jak wiedzieć „za wiele”. Przede wszystkim dlatego po prostu, ponieważ można —
chociaż nie aż w sposób nieograniczony — powiększać przepustowość kanałów sieci
dzięki światłowodom (np.), natomiast nasza, ludzka przepustowość informacyjna jest
akurat taka sama, jak mniej więcej 100 000 lat temu, kiedy powstał nasz gatunek w
toku milionoletniej antropogenezy. Jednym słowem, na drodze rozwojowej sieci
spotykamy się już i potykamy się o tylko częściowo przewidywalne przeszkody,
natomiast takie, co może wynikną w niedalekiej przyszłości, są niełatwe do
prognozowania. Nie powiem już nic w kwestii właściwie trywialnej: oto bynajmniej
nie wszystkie istotne, doniosłe publikacje są szybko wprowadzane do pamięci
komputerów, obsługujących sieć, i przez to wyniki badań skądinąd żywotnie ważnych
dla danego zadania (AIDS np.), pozostając poza dostępnością, dzięki sieci niejako
przestają dla ogółu określonych specjalistów istnieć.

4
W całym powyższym ledwie dotkniętym kompleksie zagadnień, rozpościerających
się w sieci i wokół sieci, pominąłem rozdział osobny, niestety, pokaźnie już
rozwinięty, rozdział, o którym nic nigdy w przeszłości nie pisałem, kiedy bywałem
zajęty próbami prognostycznego rozpoznawania przyszłych osiągnięć ludzkich.
Niechybnie moją ślepotę w zakresie, o którym chcę rzec kilka słów, spowodował mój
nadmierny, sprzeczny z naturą ludzką, racjonalizm. Mam na myśli osobliwą

94
satysfakcję, zaangażowaną w działania, których celem jest destrukcja bezinteresowna,
czyli takie zło, które złoczyńcy nie przynosi najmniejszego nawet materialnego
pożytku. Być może, jest tak po prostu, że dla tych, co niczego pozytywnego tworzyć
nie umieją, niszczenie stanowi namiastkę twórczości. Zjawisko to w dziejach nawet
starożytnych było obecne zawsze, ale w elektronicznej epoce objawiło się w nowych
postaciach i z nową skutecznością. Powiedzmy, jako wirusy komputerowe, które
niczemu prócz psucia programów nie służą (nie mam na myśli takich wytrychów —
wirusów, dzięki którym hacker może uzyskać jakąkolwiek, np. finansową korzyść).
Należy sądzić, wedle tego, co JUŻ zachodzi, że Cyberspace staje się właśnie domeną
niszczycielskich zabaw nie tylko niewinnego typu „hulaj dusza”. Widocznie miło jest
obsypywać ludzi (nie tylko kobiety) nachalnymi, obraźliwymi informacjami
bezinteresownie („interes” ma widać elektroniczny sadysta). Trudności
zidentyfikowania sprawców zwiększają ilość tego obrzydliwego procederu. Znane
nam już fałszywe alarmy, powiadamiające o rzekomym podłożeniu bomb w
miejscach publicznych, uzyskują teraz nową amplifikację. Podobne też przykrości
najrozmaitszego rodzaju czekają już w powiciu, każdy zaś rozgłos, nadany masowymi
mediami (drogą radia czy telewizji), również przyczyni się do quasi–epidemicznego
rozszerzania się tej „zarazy informacyjnego szkodnictwa”. Czy sam źle postępuję,
poświęcając tej kwestii uwagę? Nie myślę, żeby tak było. Powtarzające się już w
naszym stuleciu ludobójstwa wskazują na, niestety, dodatnią korelację wiążącą postęp
cywilizacyjny z postępem zagrożeń. Liczby faktów są tak wielkie, że wykluczają więź
jednego trendu z drugim tylko przypadkową. Tak zatem wszedłszy w nasze życie
społeczne i prywatne, komputery, zanim jeszcze jęły tworzyć w połączeniach kształtu
sieci globalne krótkie zwarcia komunikacyjne, ukazały swoją typową dla wszystkich
tworów technologii obusieczność. Ich korzystnemu awersowi towarzyszy ich może
niekiedy aż fatalny rewers. Czas, w którym chłopcy o zręcznych palcach potrafili,
przechytrzywszy wszystkie obronne „mury”, wślizgiwać się do centrali sztabów
generalnych, więc do central końca świata w mroku nuklearnej zimy, ten czas jeszcze
ze wszystkim nie minął. Może tak ponurymi akcentami nie godzi się kończyć uwag
pisanych na marginesie Internetu, który jest przecież tylko dziecięciem w
powijakach. Lecz problem ma inny jeszcze aspekt, o którym warto pamiętać.

5
Przez rzeczników globalnej sieci komputerowej jest często zachwalana sytuacja
niedalekiej przyszłości, w której człowiek, siedząc w domu, może mieć dostęp do
wszystkich bibliotek świata, także wideobibliotek, może oddawać się intensywnej
wymianie myśli z bezlikiem ludzi dzięki udoskonalonej E–mail, elektronicznej
poczcie, może oglądać dzieła sztuki, obrazy mistrzów i może przez siebie na ekranie
swego komputera koncypowane rysunki czy obrazy słać na wszystkie strony świata,
może uprawiać intensywną działalność gospodarczą, kupując i sprzedając jakieś
papiery wartościowe, akcje, może uwodzić urocze osoby przeciwnej płci lub też być
przez nie uwodzonym i może czasem nie być nawet pewny, czy ma do czynienia z
erotycznymi fantomami, czy też z osobami z krwi i kości, może oglądać dalekie kraje,
ich pejzaże… i tak dalej, może wszystko bez najmniejszego ryzyka (ewentualnie
wyjąwszy finansowe)… lecz przecież wciąż pozostaje w samotności i to, co
przeżywa, jest wynikiem ogromnego rozpostarcia i planetarnego aż przedłużenia i
rozprzestrzenienia jego sensorium, tj. całości jego zmysłów. A jeżeli tak jest, to mogę
tylko powiedzieć, iż za żadne skarby świata z tak doszczęśliwionym człowiekiem,
95
mającym tak wspaniałe i tak iluzoryczne zarazem szansę spełniania wszelkich życzeń,
nigdy bym nie był gotów się zamienić. Zapewne, więź elektroniczną „ze wszystkimi i
wszystkim” trudno przyjdzie nazwać po prostu oszustwem technicznie
udoskonalonym… ale tam, gdzie w przyszłości doszłoby do zamiany prawdziwej
natury na doskonałą jej namiastkę, gdzie zacznie już znikać różnica pomiędzy tym, co
naturalne, i tym, co sztuczne, w wypchanej elektroniką, pełną czarów, samotności
może będzie się, kto wie, czaił już jako łaknienie autentyczności, jako głód
prawdziwego ryzyka i rzeczywistych zmagań z przeciwnościami życia — depresyjny
obłęd.
Tak fatalnie ten kierunek rozwojowy pewno się nie zakończy, ale o jego
fakultatywnej mecie warto już i dzisiaj pomyśleć chociaż przez chwilę.

96
Brain chips
Pod naciskiem perswazji i próśb organizatorów
pierwszego sympozjum Akademii Trzeciego Tysiąclecia”
zgodziłem się wziąć udział w krytycznym roztrząsaniu
problematyki tzw. BRAIN CHIPS. Mam nadzieję, ze ta
praca może zainteresować tych, którzy, zajęci
zagadnieniami komputerowego kręgu, wejdą dzięki
poniższemu tekstowi w problematykę kiełkującej już
bezpośredniej współpracy elementów mózgu z
elementami komputerowymi.
SL

Wprowadzenie
1
Powyższy temat dyskusyjny ma zgrupować osoby, zaproszone do udziału w
konferencji, organizowanej przez usadowioną w Monachium „Akademię Trzeciego
Tysiąclecia”. Po pokonaniu oporów zdecydowałem się napisać dla tej konferencji
przyczynek. Najpierw pragnę wyjaśnić, że prawdopodobnym powodem
zainteresowania organizatorów konferencji moją wypowiedzią było to, iż w dwu
książkach nie beletrystycznych, a mianowicie w Dialogach, pisanych we wczesnych
latach pięćdziesiątych oraz w Summa Technologiae, powstałej we wczesnych latach
sześćdziesiątych, opublikowałem zuchwałe, bardzo daleko wysforowane w możliwą
(według ówczesnego mniemania) przyszłość opisy nawet brutalnych interwencji w
normalne funkcje ludzkiego mózgu. Granic tych interwencji dotykałem w Dialogach,
pisząc o dającej się wyobrazić szansie przemieszczania (stopniowego) całościowych
funkcji mózgu w obręb „protezy” zamyślanej jako sui generis sieć cybernetyczna,
czyli informacjoprzetwórcza. Tym samym miałoby iść o jakąś postać „przesadzenia”
pełnej czynnościowo–morfologicznej struktury mózgu w obręb artefaktu. To zaś
miało umożliwić kontynuację nawet pośmiertną osobowego, świadomego i tym
samym człowieczego trwania (w jednym z podtytułów Dialogów nazywałem tę
możliwość „życiem wiecznym w skrzyni”).
Stroną techniczną problemu się praktycznie podówczas nie zajmowałem, podobnie
jak, a fortiori, przemilczałem aspekty etyczno–prawne takiego przedsięwzięcia, które
zawsze przecież zawiera w sobie niemałe zagrożenie awariami i uszkodzeniami
nieodwracalnymi. Gdybym te ostatnie próbował uwzględnić, lapidarnie przyszłoby
uznać, że zarówno „instygatorzy”, jak „perpetratorzy” takich operacji po ich
ogłoszeniu zostaliby objęci penalizacją i osadzeni w więzieniach za najcięższe
uszkodzenia ciała. To samo mniej więcej dotyczy też fragmentów zawartych w
Summa Technologiae, gdzie między innymi mówi się o rełatywizacji pojęcia
osobowości człowieka, i gdzie sprawą tą, poszerzoną o dalsze roztrząsania, zajęty jest
rozdział pt. „Cerebromatyka”. Mogę tu bez frywolnej intencji zauważyć, że
ewentualne, powiedzmy, dokonane „przesadzenie” świadomości osoby X w obręb
elektro— (lub chemoelektro–, albo biochemoelektro–) protezy mogłoby też być
uznane za MORD (wzgl. zabójstwo) z następowym „zastąpieniem” ofiary jej
„symulatem” (nawet, dajmy na to, doskonałym). Z kolei, kiedy już się na trakcie
takiego rozumowania znajdujemy, w jego przedłużeniu o charakterze prawno–
fikcjonalnym, można uznać, że argumentem obrony oskarżonego o nazwany czyn
97
byłoby twierdzenie, ustalające TOŻSAMOŚĆ „osoby sprotezowanej” (jako jej
normalnie czynnego umysłu) z osobą, która (może) po tej operacji albo życie utraciła,
albo co najmniej na skutek tejże operacji objawia znaczne objawy wypadowe funkcji
mózgu. Ponieważ zarazem w pierwszym rozdziale Dialogów usiłowałem udowodnić,
że „powtórzenie” człowieka poprzez jego idealnie dokładne skopiowanie (złożenie
molekularne) z atomów rodzi paradoksy, wskazujące na daremność próby
„rezurekcji” (tj. że symulowany i zmartwychwstający z atomów — recreatio ex
atomis modo nonalgorythmico — jest kopią, a nie oryginałem), i tym samym jeżeli
kopiowany ginie, to „nic nie może mieć” z tego, iż kopia go doskonale zastępuje;
ponieważ, powtarzam, logiki tego mojego twierdzenia nikomu zbić się nie udało,
oskarżenie operatora mogłoby na tym moim dowodzie się opierać. W tym mianowicie
sensie, iż jeżeli żyje dwóch jednojajowych bliźniaków, wychowanych tak, że są bliscy
tożsamości, a dalej, jeden z nich zostanie zabity, to nie można zgodnie z logiką i
zdrowym rozsądkiem utrzymywać, iż ten drugi pozostały przy życiu tamtego w pełni
zastępuje, czyli że w ogóle o żadnym przestępstwie nie ma mowy, a zatem morderca
za swój szkaradny czyn nie może być osądzony…

2
Rozwodzę się nad tymi dawnymi pismami moimi, ponieważ mogły wprawdzie dać
asumpt do aktualnej propozycji uczestnictwa w wymienionej sesji „Akademii
Trzeciego Tysiąclecia”, zarazem jednak muszę złożyć tu dodatkowe wyjaśnienie.
Mianowicie przed czterdziestu laty, kiedy pisałem nazwane książki, sama cybernetyka
wraz z teorią informacji tkwiła w pieluszkach, i tak oddalone w przyszłość
ekstrapolacjami, procesami sądowymi ani zastrzeżeniami etycznymi nie pachniały:
stanowiły dla czytelników fantazję, która, podobnie jak marzenia senne, na zgodność
z uznawanym porządkiem moralnym i regułami prawa badana być sensownie nie
może. Toteż ani za sny, ani za moje (skrótowo tu przytoczone) hipotezy, nikt
kryminalnie nie może być ścigany. Sytuacja jednak po niespełna półwieczu bardzo
poważnie się zmieniła w zakresie frontów biologii jako biotechnik „w fazie
wstępnego rozpoznania DLA natarcia” TAKŻE na ludzki organizm. Zuchwałe i czcze
rojenia poczynają tworzyć dotąd niedotknięty przez człowieka przyczółek DZIAŁAŃ
możliwych realnie, a nie tylko pomyśleć się in abstracto dających. Przez to sytuacja,
uwikłana w moje stare teksty, ulega odmiennemu rozważeniu i ewentualnym
korektom. Im to zamierzam właśnie poświęcić nieco uwagi.

Wstęp
1
Choć publikując oba nazwane tytuły byłem ignorowany, nie byłem osamotniony w
tym sensie, że podzielałem optymizm poznawczy, inwestowany w cybernetykę, gdy
computer science znajdowała się w powijakach, a rozróżnienie dziś fundamentalne
między hardware i software ledwie się rodziło. Nadzieje rychłego wykrycia
„królewskiej drogi” do sztucznej inteligencji nie sprawdziły się. Różnice między
ewolucją mózgów istot żywych i „mózgów elektronowych” nie tylko są wyraźne, ale
ich drogi wyraźnie się rozchodzą. Czy jednak nie zejdą się na powrót: i tak można
rozumieć nazwę konferencji monachijskiej.
Rzecz w tym, że jesteśmy ostatnimi reliktami Natury w coraz bardziej

98
„usztucznianym” środowisku i tworzone przez nas techniczne narzędzia obracają się
przeciw nam nie tylko jako bronie, lecz jako pomocnicy: istnieją już np. gałęzie
matematyki, które bez wsparcia komputerowego nie mogłyby powstać. Współpracy
jednak wdrożonych w obszar cywilizacji komputerów oraz ich sieci, włącznie z
projektowaną „autostradą informacyjną” (o której w innym miejscu pisałem ze
sporym sceptycyzmem), a ponadto eksponencjalny rozrost cyberspace, o którym jako
o „fantomologii” i „fantomatyce” miałem możliwość pisać w Summa Technologiae
— wszystko to jeszcze NIE jest właściwym przedprożem inwazji martwych
procesorów informatycznych w nasz mózg.

2
Zaznaczę, że dostrzegam dwie rozmaite drogi wniknięcia owoców technologii w
mózg: mogą się, jak dwa zbieżne nurty, połączyć w przyszłości, na razie jednak
powstaje realnie ten, który jako pierwszy wymienię:
I. Droga działań chemicznych resp. biochemicznych. Pierwociny takich substancji
są bardzo „szerokoadresowe”, to znaczy aktywują i/albo odmieniają czynność
zarówno tych ośrodków mózgu, których przesterowania CHCEMY, jak i tych, które
ulegają trafieniom dzięki efektom ubocznym. Na tym polega ich
„szerokoadresowość”. Zaczyna się dopiero „zwężanie”, czyli fokalizacja adresów: tę
już rozrosłą dziedzinę muszę tu pominąć, skoro mam mówić o „chipach” dla mózgu,
a nie np. o aminach i hormonach, celnie wymierzanych (niektóre mają zdobyć
umiejętność PRZEKSZTAŁCANIA osobowości i charakteru człowieka, więc tym
samym przypominają elementy mej „PSYWILIZACJI” psychemicznej z
fantastycznego Kongresu futurologicznego). Droga chemiczna góruje o tyle, że winna
być odwracalna w efektach: związki molekularne na ogół mają niezbyt długi okres
aktywnego działania i ulegają w organizmie metabolicznemu rozkładowi. (Rzadko
mogą jednak, jak LSD, wywoływać psychozy).
II. Zająć nas ma wszakże droga łączy „mózg — artefakt niechemiczny”, jako
procesor lub przetwornik informacji, włączony w obwody neuronowe mózgu.
(Możliwe są też biochipy, o których już piszą, choć ich nie ma). Chemiczne związki
działają raczej analogowo, chipy winny być raczej cyfrowe (digitalne). Już von
Neumann uważał, że zarzucić należy informacyjną metodę czysto kombinatoryczną,
logiczną, rekurencyjną, algorytmicznie nieposzlakowaną, której generalizacją
abstrakcyjną jest ogólna teoria skończonych automatów (finite automata), zaś jej
„pierwotniakiem”, „komórką wyjściową”, jej zarodkiem staje się najprostsza maszyna
Turinga. Natomiast już wtedy (McKay np.) sugerowana droga sieci neuronowych — o
niej TEŻ w Dialogach pisałem — zdawała się rokować poważniejsze nadzieje, nie
utykające w praktycznie źle drożnej głębi logicznej (operacji iteracyjnych — nawet
przy dowolnym ich przyspieszaniu aż do granic wyznaczonych prawami fizyki —
kwantowej — i szybkością światła). Niestety, to jest droga bardzo „niewygodna”
matematycznie i tym samym „wyboista” dla ewentualnych programistów (i
konstruktorów hardware).

3
Szczęściem w nieszczęściu — powyższym — zdaje się to, że na razie nie mamy
żadnych czekających wdrożenia „chipów” domózgowych, więc tym samym
99
znajdujemy się z grubsza w sytuacji Leonarda da Vinci, który nam w swoim dziele
pozostawił rysunki „helikopterów” z pionowo „wkręcającymi się” w atmosferę
śrubami, lecz od tego konceptu do realnego śmigłowca droga okazała się bardzo
długa! Co prawda COŚ z pomysłu Leonarda pozostało dla instruktorów i
montażystów… ale nawet TEGO w odniesieniu do BRAINCHIPS nie potrafimy być
teraz pewni.
I tu mogę tylko na zakończenie wstępu rzec: na moim biurku leży popularny tom
Rona White z 1993 roku How Computer Works (polska edycja: Jak pracuje komputer,
PWN 1994 — przyp. red.) i cała rzecz w tym, że wiadomo nam dobrze JAK komputer
działa, bośmy go sami zbudowali, więc przy odpowiednim treningu zdołamy go
złożyć i rozłożyć, a ponadto, znalazłszy inny komputer albo „pośrednik”
kompatybilności, zdołamy część lub nawet całość informacji hardware i software
przemieścić bez uszczerbku — ewentualnie nawet razem z wirusami wyjściowego
komputera — do drugiego egzemplarza. W tym sensie komputery są „nieśmiertelne”,
„kopiowalne”; jedyności „personalnej”, „osobowościowej” NIE mają, a jak kto chce,
niech orzeka, że tym samym tylko „wszystko wiedzą” (tj. zawierają na podorędziu
ładunki informacji użytkowalnej), ale „nic nie rozumieją” z tego, co zawierają,
(aczkolwiek są programy, poczynając jeszcze od „Elizy” Josepha Weizenbauma,
udające nieźle rozmówcę ludzkiego). Tym samym wieu już, że w zasadzie test
Turinga może zostać przez komputer o dostatecznej obliczeniowej mocy „złamany”, a
ludzki rozmówca oszukany (gdy uzna, że rozmawia z człowiekiem), a przy tym jest to
relatywizm DWUZAKRESOWY: zależy zarówno od sprawności komputera–
programu — jak od inteligencji człowieka–rozmówcy. I jak w wyścigu programów
szachowych w końcu brute force zwycięży i Kasparowa „nic nie rozumiejąc”, tak test
Turinga będzie złamany. Z czego na dobre czy na złe dla interwencji chipów w mózg
NIC niestety — na szczęście? — nie wynika.

100
Wejście w mózg

1
Z jednej strony wiemy już o czynnościowej postaci naszego mózgu bardzo dużo,
ale z drugiej bardzo mało. Naprawdę dość wiedzy posiądzie ten, kto — rozłożywszy
komputer — w oparciu o znajomość teorii informacji oraz inżynierii informatycznej
będzie umiał taki, albo podobny czynnościowo komputer, zbudować. Przynajmniej
jako model, zdolny do funkcjonowania. Natomiast nie ma mowy o tym, aby najtęższy
zespół neuroekspertów mógł pouczyć jakichkolwiek konstruktorów, żeby sporządzili
model mózgu, np. tak że jeden podzespół skonstruuje z elementów przewodnikowych
pień mózgu, inny podwzgórze (hypothalamus), następny thalamus (wzgórze), z kolei
system limbiczny, aż na koniec dwa równoległe zespoły wybudują dwa zdolne do
komunikacji w poziomie (przez pseudo–corpus callosum, wielkie spoidło) nadrzędne
agregaty, jako dwie półkule wierzchnie mózgu, z ich wielowarstwową substancją
szarą (korą starą i nową, paleo– et neocortex) oraz olbrzymią masą krótkich i długich
połączeń międzyneuronowych.
Co prawda, jeśliby się taki niewykonalny dzisiaj projekt dało nawet zrealizować,
niechybnie powstałaby potrzeba dołączenia do tej budowli modelu ciała, ponieważ
bez stałego dopływu i odpływu impulsów — do mózgu z cielesnego sensorium oraz z
ciała do mózgu — otrzymalibyśmy twór kaleki. Ale to i tak dziś utopia: w tym sensie
właśnie o mózgu wiemy niewiele. To mało, że dzięki mnóstwu zabiegów poznaliśmy
jego podstawowe czynności, ulokowane na rozmaitych „piętrach”. To zresztą jest
wynikiem składankowej pracy ewolucji, która potrafi przysposabiać i dopasowywać w
danym ciągu filogenetycznym nawpółpowstające struktury do nawpółpozostałych z
epok minionych: ta wiedza jest dla informatycznej inżynierii inwazyjnej
„cerebromatyków” wciąż niedostateczna. Rozrzut lokalizacyjny na różnych „piętrach”
mózgowia stanowi, nie tylko w moich oczach, wynik tej typowo ewolucyjnej pracy
milionoletniej, która robi co może przede wszystkim drobnymi krokami, a kiedy
rozpędzi się jak w eksponencjalnym rzucie antropogenezy, zwieńczonym
świadomością, staromózgowie, a raczej jego rozmaite podkłady, tworzą system
przeciwstawnych regulatorów, system wielokonfliktowy, utrzymywany w zawiłym
balansie, równoważny z taką (daną mu antagonizmami międzyśrodkowymi)
chwiejnością, że żaden inny gatunek poza człowiekiem nie jest na patologiczne
odchylenia pracy układu nerwowego narażony w równym stopniu!
Napraszałoby się więc z tego już powodu wdrażanie interwencji równoważących,
lecz nawet jeśli poniechamy sprzeciwy rodem z etyki, ryzyko efektów musi pozostać
ogromne. Mamy nadmiar sprzecznych wzajem hipotez o tym, jak mózg działa, co to
jest świadomość, czemu służy sen, czemu selekcja naturalna na rozumność zdaje się
tak słabo działać (pewien wielki polski artysta mówił, że intelektualnie bliżej od
chłopa do krowy, niż od chłopa do niego: jest to złośliwa przesada, ale problem
rozrzutu dystrybucji inteligencji pozostaje, tak jak wszystkie problemy, z jakimi
borykają się psychiatrzy, psychologowie i neurologowie: a to profesjonalne rozbicie
ODZWIERCIEDLA ignorancję w sprawach mózgu TAKŻE).

2
Ja wiem, że mówię to, co każdy specjalista — od wiejskiego lekarza poczynając —
101
uzna za alfabet ze szkoły powszechnej, ale warto uprzytomnić sobie, ile może
wskórać genialny buszmen, kiedy weźmie się ALBO do naprawy auta
zdefektowanego, ALBO do „perfekcjonowania” auta całkowicie sprawnego. Jak
zaznaczyłem, etycznymi aspektami dylematu nie chcę się zajmować, to byłaby sprawa
dla prawników. Chodzi tylko o to, ażeby odpowiedzieć na kilka prostych pytań, jakie
wymienię:
1. PO CO mamy nacinać mózg (wszak mają powstać Schnittstellen i to na dobitkę
unsaubere, „nieczyste”), mam nadzieję, że nie w sensie użycia zamiast skalpeli i
elektrod — skrobaczki kuchennej do ziemniaków?
2. JAK — GDZIE — mamy dokonać tej inwazji w obręb żywego mózgu? O to,
KTO operatorów do tego upoważni, nie pytam; sprawy na żadne wokandy nie
wnoszę; lobo — resp. lobektomię praktykowano lata temu, niemniej brutalne było
wszak i dziś praktykowanie u epileptyków (jacksonowskich, ale nie wyłącznie)
kallotomii, tj. rozcinanie wielkiego spoidła (Corpus callosum), łączącego obie
półkule.
3. CZEGO możemy się spodziewać (jaką nadzieję żywić potrafimy) przy
ewentualnym podłączeniu nie wiadomo JAK skonstruowanych chips do mózgu?
4. Czy powstawać może coś na kształt NAPRAWY, tj. zastępstwa
„maszynowego” funkcji (syndromów) podległych awariom (na skutek tumorów, ran,
ubytków, niedomogi spowodowanej dziedzicznie jak zespół Wilsona albo Downa
powiedzmy, jak kretynizm itp.).
5. Czy wydaje się możliwe odtworzenie przewodnictwa w obszarze rdzenia
kręgowego (post ąuadriplegiam dajmy na to)?
6. Czy — choć to już TU nie należy do rzeczy — możliwe byłoby jakoweś
odbudowanie potencji REGENERACYJNEJ? (myślę, powiem od razu, że jeżeli
TAK, to albo na drodze technik genowych, albo — wobec ustroju urodzonego, a
nawet dojrzałego — biochemiczną interwencją).
7. Czy nanotechnologia może mieć TU swój udział PO STRONIE „maszynowej”?
(Chirurgia mózgu już ma podobny udział w postaci „robotów”).
8. Podsumowując: CZEGO MY POD AUSPICJAMI NAZWY SYMPOZJUM W
OGÓLE CHCEMY? (Aby nie znaleźć się w koleinie, wyżłobionej przez dra
Mengele).

3
Ponieważ dygresja MOŻE zostać uznana w tak labiryntowym temacie za
dopuszczalną: Uważam dowód Goedla (o niezupełności bogatych systemów
formalnych) za stałą kosmiczną, mniej więcej tak, jak ładunek elektronu. Dlatego
wszelkie „bogate” przekazy informacji –językowej — są wsparte na „mętnej logice
semantycznej”, (tj. żaden język nie może być sformalizowany bezkontekstowo tak
ostro, jak każdy język programowania komputerów). Ta fuzzy logic powoduje
powstanie fuzzy sets znaczeń, uwarunkowanych kontekstowo i konsytuacyjnie, oraz
konotacyjnie uwikłanych. Dokładniej o tym w: N. Nalimow, Probabilistyczny model
języka, przeł. I. Kustrzeba, PWN, Warszawa 1976.
Pierwociny języka, jak przypuszczam, dopracowując się semantycznej składni i
różnowarstwowych zakresów desygnacyjnych, były „ciągnikami” rozwoju mózgu w
jego rozwoju, gdy w ewolucji dotarł do poziomu mózgu wielkich antropoidów

102
(dowód na to mógłby powstać dzięki (n–tej) generacji komputerów, zdolnej już
symulować ewolucyjny przebieg gatunku, w którym dochodzi do
ONTOGENETYCZNIE kształtowanych neuronowych nośników czynnościowych
języka. Rzecz w tym, że język etniczny jest tylko „powierzchniowym” przekaźnikiem
wielowykładalnej (w sensach) informacji, ponieważ pod jego „powierzchnią”
zachodzą przebiegi języka „wewnętrznego” (myślanego w milczeniu), jeszcze
„uświadamianego”, a „głębiej” zachodzą procesy już pozaświadome, ale też językowi
służące, jak np. zespoły pogotowia werbalnego, zespoły motywacyjne, zespoły
teleologii, tj. celowania mową w sensy upatrzone jako nadrzędne itp.
Jednym słowem język, jakim posługujemy się, to ledwie wierzchołek góry lodowej
służących mu procesów, a ponieważ powstawał sukcesywnie, dzięki takim mutacjom,
które dalsze postępy UDROŻNIAŁY, czyli umożliwiały w życiu płodowym, w toku
dorastania i dojrzewania, tą drogą wzwyż dochodzi do rozbłysku świadomości. Ona
nie może być „tylko językowa” — jest zawsze bogatsza od mowy, ale wokół nie
narosła — przynajmniej u człowieka. Otóż do budowy mózgu ma się to tak, że
postępy w sprawności wewnątrz– i zewnątrzjęzykowej były decydująco uzależnione:
A) od typowej — krokowej — taktyki ewolucyjnej
B) od tej głębi logicznej przekształceń embrionalnych w produkt finalny (ciało z
mózgiem), która to taktyka JESZCZE potrafi wykorzystać (udźwignąć od poczęcia do
porodu) cały potencjał genomowego planu budowlanego organizmu.
Ta droga antropogenezy NIE była optymalnie prosta, lecz raczej „slalomowa” i
dlatego mózg jest siedzibą niedostatecznie koordynowanych napędów i hamowań;
tylko nam, ignorantom, mózg wydaje się urządzeniem znakomitym! Zastój (a nawet
regres masy mózgowej w ostatnim okresie holocenu) upatruję w tym, że doszło do
ugrzęźnięcia ciągów kolejnych przekształceń — (od jajowej komórki, jedności, po 10
bilionów komórek organizmu) — w nieuchronnie narastającym zbiorze błędów. Ilość
kolejnych sterujących budową płodową przekształceń NIE może być dowolnie wielka,
bo orzeczenie von Neumanna („układ pewny z niepewnych elementów”) jest jedynie
idealizującą aproksymacją stanu realnego. Układ nie jest do końca pewny; ilość
kroków nie może być dowolnie wielka także przez to, że mózg nasz powstawał
poprzez rozrosty nowszych neurotworów na pokładach neurotworów gatunków
pradawnych. TYM SAMYM JUŻ nie prezentuje ani konstrukcyjnego OPTIMUM, ani
konstrukcyjnej OSZCZĘDNOŚCI: jest redundantny także samozagrażalnie!

4
Mózg tak jest przystosowany, byśmy mogli przeżywać w niszach t ekologicznych
sprzed miliona lat — toteż nie ma co się gniewać na to, że zbudowana przez takie
mózgi cywilizacja ich nosicielom JUŻ ZAGRAŻA. Raczej dziwne jest, że mógł tak
długo wytrzymać konkurencję z własnymi technotworami i fantazmatami — mity,
wiary, przesądy etc. — i jest dziwne, żeśmy akurat przyszli na świat, gdy ten maraton
zmierza ku niewiadomemu finiszowi.
W ewolucji antropogenetycznej widać też nieźle składową statystyczną. Części
organizmu są raczej źle wymienne (por. kłopoty przy transplantacji organów), a o
kłopotach przy ewentualnej transplantacji fragmentów mózgu na razie (poza
parkinsonizmem) ani myśleć. Natomiast w ludzkich technologiach króluje
wymienność prawie doskonała części wszystkich technoagregatów. Ewolucja operuje
po prostu bardziej rozrzutną strategią, hamowaną przez nieuchronną powolność zmian
adaptacyjnych, I TO MUSI stać się jednym z kłopotów przy wdrażaniu BRAIN
103
CHIPS. Mianowicie: co by „pasowało” do jednego mózgu, może zawieść przy
każdym innym (medycyna z farmakologią o indywidualnych odmianach działania
tożsamych leków i zabiegów już dobrze wiedzą).
Tak zatem mózg jest i zbudowany z nietożsamych u różnych ludzi zespołów
(funkcjonalny schemat Mercedesa jest tożsamy ze schematem Fiata, ale „to nie to
samo”), i zespoły takie, częściowo współpracując, częściowo natomiast ze sobą
kolidując, dają moc efektów: od patologicznych do „genializujących” (notabene tak
zwani geniusze często wykazują „poboczne” objawy patologii: np. dysleksję).
Zmiany działania mózgu może człowiek SAM dostrzegać, może też ich nie
zauważać (nie tylko w psychiatrii i w toku starzenia się). A więc instrumentalne
ingerencje w mózg mogą zachodzić poza uświadamialną wiedzą tak operowanych, jak
operujących. Tereny dyskoordynacji umysłu są różne i liczne — np. używkami i
narkotykami oprócz skaz dziedzicznych i urazów.
Ubytki masy mózgowej są dzięki „plastyczności mózgu” częściowo podległe
restytucji i/albo rehabilitacyjnemu pokonaniu. Lecz są ubytki nieogniskowe, których
skutki trudno rozpoznawać. (Odcinanie płatów czołowych, już zarzucone, uchodziło
jednak za rodzaj „terapii”). Bywa i tak, że wypadanie jednych zespołów mózgowych
„uwalnia”, podwyższa sprawność, innych (por. genialnych rachmistrzów–debilów,
objawy patologiczne fenomenalnej pamięci ejdetycznej, objawy rozszczepienne,
uznawane ongiś za „dowody na rzecz spirytyzmu” i demonologii). Mózg JEST
terenem prac wielokolizyjnych, nadmiar koncentracji na zadaniu może utrudniać
rozwiązanie podobnie jak niedostatek. To wszystko wskazuje, że uniwersalnej
technologii dla BRAIN CHIPS raczej NIE będzie.
A przecież hasłem naczelnym w doktrynie Hipokratesa wciąż winno być primum
non nocere…

104
Brain chips II

1
Polem działania ma być zatem mózg. Należy więc rozpatrzyć pierwej to pole, nie
pod kątem jego własnych tylko (autonomicznych, danych ewolucją) funkcji, lecz z
perspektywy wtargnięć w mózg pozaorganicznych. Potrzebne będą wprowadzające w
rzecz precyzacje. A mianowicie: dopóki nie powstaną bio–chips, zdolne się
czynnościowo zrównać z zespołami żywych neuronów, a zatem mogące zastępować
neurony (wraz z ich łącznościowym okolem) uszkodzone lub zniszczone, będą
istniały takie obszary mózgu, których naruszyć nie można i nie wolno. Na przykład
kora wzrokowa (w szczelinie ostrogi, fissura calcarina). Co prawda już tutaj
natykamy się na kłopot, z którym musimy zderzać się niemalże w każdej okolicy
mózgu. Oto człowiek ze zniszczoną korą wzrokową w jednym, ważniejszym sensie
jest ślepy całkowicie, tj. nic nie widzi, a w innym jednak ,jakoś” widzi: skoro potrafi
wymijać przeszkody lub chwycić rzuconą w jego stronę piłkę. Wynika to po prostu z
wielowarstwowej budowy mózgu: bodźce do najwyższych ośrodków projekcyjnych
nie docierające, docierają do najniższych, uczestniczących wprawdzie w
uświadamianym widzeniu, ale samoistnie „widzącej świadomości” nie tworzących. Z
tego kłopotu wpadamy od razu w następny, ponieważ normalne widzenie nie jest na
najwyższym korowym poziomie funkcją samej szczeliny ostrogi: musi w nim
uczestniczyć okolica brzeżna obu półkul mózgu, w przeciwnym razie człowiek
„widzi” tylko chaos barwnych plam i nierozróżnialnych kształtów. A zatem całość
obu stref żadną technogenną protezą („chipem”) nie może być zastąpiona. Mogłaby
bowiem powstać przy najdoskonalszej próbie paradoksalna sytuacja: sztuczne
neurony zdołają wprawdzie naśladować wyładowania elektryczne autentycznych (po
ich podłączeniu do neuronowych przewodników, „aksonów”, po — założonym w
eksperymencie — odtworzeniu całej aferentacji), ale ten, kogo tak oporządzimy, nic
nie będzie widział. (Takie jest przynajmniej moje zdanie).

2
Podobnych regionów jest w mózgu więcej. Żyjemy w czasach, w których
instrumentalne postępy z reguły wyprzedzają prawo stanowione (legislację). Powstaje
vacuum iuris, a zarazem — nullum crimen sine legę. Niemniej legislacja musi
nadążać za postępem, i tak np. było z prawem kosmicznym. Co do mózgu, reguła noli
tangere będzie niechybnie obowiązywała w odniesieniu do tych jego części, których
naruszenie (niekoniecznie aż poprzez podłączenie do „chipów”) będzie powodowało
istotne zmiany osobowości. O paradoksach, powstających, niestety, STOPNIOWO w
tej dziedzinie, pisałem min. w Summa Technologiae, gdzie pokazałem, jak zmiany
osobowości przechodzić mogą w mord — gdy jedna osobowość „znika”, zastąpiona
(choć w tym samym mózgu i w nienaruszonej nawet czaszce) przez inną, nowo
utworzoną.

3
Naturalnie, w czasach, w których ludobójstwo staje się zjawiskiem i masowym, i

105
banalnym, w których „telekracje” przyzwyczają nas i do niego, i do bezsilności
wszelkich prób ratunku, powyższe zasady, reguły prawa — wcale przestrzegane być
NIE muszą… W jakimś totalitarnym państwie „przyrządzanie” obywateli do
standaryzowanego typu osobowości może nawet być przez władzę zezwolone i
zarządzone. Jednakowoż kontynuacja takiej „socjologii makabrycznej” nie leży w
moich dalszych zamiarach: powiedziane ma jedynie wskazywać, na jak zaminowane
tereny wkraczamy nawet z najzacniejszymi intencjami, gdy wkraczamy
instrumentalnie w mózg. Istnieje co prawda osłabiające nasz impet aktywności
uboczne wyjście: najprawdopodobniej ono zostanie wykorzystane. Brain chips będzie
wszak można użyć dla badania ich efektów i sprawności na wyższych ssakach,
najpierw na małpach. Tu przychodzą na myśl rezus i szympans. (O badaczach,
których przeciwnicy takiej wiwisekcyjnej drogi pozabijają, przemilczę). — O tym,
czy „cyborgizowany częściowo” szympans widzi — można się przekonać wedle jego
zachowania, o tym jednak, co on przeżywa, co czuje, niewiele się od niego dowiemy.
Aby zaś operacje z użyciem bio–chips lepiej się powiodły, tj. aby do odrzucenia
biotransplantów nie doszło, można użyć jako zwierząt podległych operacjom
egzemplarzy transgenicznych. Prawdopodobnie już rychło powstaną tak podchowane
transgenicznie świnie, które dzięki wszczepieniu im genów człowieka nie tylko na
kiełbasy się nadadzą, ale i na dostarczycielki serc dla ludzi. Więc koncept
transgeniczności dla operacji mózgowych ma już wstępnie podległy precedens.

4
Wszystkich regionów mózgu, w jakich obręb wstęp zostanie zakazany przez
ustawodawców w jako tako cywilizowanych krajach, nie wymienię, choć jest ich
wiele, zapewne więcej nawet może, niż umiałbym wyliczyć. Post factum, po
pojawieniu się uszkodzeń nienaprawialnych, prawo będzie się musiało uporać z ich
konsekwencjami; ten tor prognostyki do mego zadania jednak nie należy. Trzeba
lojalnie dodać, że kiedy zadaje się masowo śmierć i wykonuje „operacje na mózgu”
kulami, granatami i mnóstwem innych środków bojowych na wojnie albo przy
„niewojennym ludobójstwie”, nikt się z prawodawców efektywnie nie troszczy o
wprowadzanie spraw takich na wokandę, a więc nie wiadomo, czy drogą jakiejś
komputero–kratycznej tyranii nie wejdzie w końcu ludzkość na drogi opatrzone
przeze mnie zakazem wkraczania. Oczywiście, intencje aktywistów interwencji
technogennych w mózg mogą też wynikać ze złotej zacności.

5
Powiedziane było jednak tylko wprowadzeniem w sam temat z innej niż uprzednio
strony. Sporządźmy z kolei schemat, który ma uwidocznić z grubsza całość zadań.
Do mózgu prowadzą drogi aferentne i wybiegają zeń eferentne. Są to drogi
zmysłów (nerwów mózgowych — jak optyczny, słuchowy itd.), drogi wiodące
rdzeniem kręgowym do całego ciała — ale nie ma żadnych naturalnie utworzonych
„wejść bocznych”, wiodących do mózgu wprost. Zapewne dlatego widnieją w nazwie
sympozjum słowa „nieczyste cięcia”, unsaubere Schnittstellen. Tak mi się
przynajmniej wydaje. Ja bym je nazwał raczej włamaniami (Einbrüche). Wtargnięcia,
niezbędne dla utworzenia pozanaturalnej interface wprost w mózgu, zdają się
zakładać jako konieczność trepanację czaszki. Może uda się zabiegi chirurgiczne o

106
podobnej brutalności obejść, jeżeli będzie można (dzięki nanotechnologii) używać
radykalnie zminiaturyzowanych, cieńszych od włosa, powiedzmy, lecz odpowiednio
gibkich i sprężystych niby–sond i wprowadzać je od strony podpotylicznej w okolicy
foramen occipitale magnum, czyli po prostu owego wielkiego otworu czaszki, przez
który wydostaje się z niej rdzeń kręgowy (anatomiczną precyzację pomijam). Tak
więc, w sumie mamy dwa rodzaje dróg domózgowych w stanie naturalnym —
zmysłową, łączącą informacyjnie z otoczeniem, oraz rdzeniową, łączącą ze światem
zarówno informacyjnie jak motorycznie (efektorycznie). Drogę trzecią, sztuczną,
torować ma technologia informacyjnie natchniona w postaci BRAIN CHIPS.

6
O protetyzacji peryferii zmysłów nie będę nic mówił, bo to nie należy do rzeczy,
chociaż są zmysły (wzroku np.), które anatomicznie można traktować jako części
mózgu (siatkówka). Wszak implanty słuchowe zastępujące zniszczone ucho
środkowe, a nawet wewnętrzne, już istnieją, to zaś, co już istnieje, zajmować nas nie
powinno. Natomiast czas najwyższy zająć się stroną pozamózgową protez
informatycznych: pierwsze pytanie, jakie należy postawić, brzmi tak oto: czy lepiej
posłużą nam chipy cyfrowe (digitalne) czy raczej analogowe? Czy sprawniejsze będą
typowe procesory istniejącej (w rozwoju) generacji komputerów już wdrożonych
milionami w cywilizację, czy raczej procesory o architektonice SIECI
NEURONOWYCH? Sieci neuronowe, pomyślane jeszcze przez badaczy lat
pięćdziesiątych, jak McCulloch i wielu innych, zostały poniechane, ponieważ
prototypy (Perceptron Rosenblatta, powiedzmy) rozczarowały jako potencjalna
zaródź doskonalszych sieci, lecz okazuje się, co sobie zresztą myślałem i o czym
pisałem przed czterdziestu laty: ich prospektywny potencjał jeszcze pokaże swoją
prawdziwie świetną wydajność. To nie tylko z typowej dla niej „ciasnoty” warunków
brzegowych działania ewolucja naturalna tą, sieci, drogą właśnie ruszyła.

7
Powiadają, ze intelektualna praca mózgu odbywa się przede wszystkim w korze.
Nie jestem tego pewny, ale dajmy na to, że tak jest. Kora zawiera co najmniej 1010
komórek nerwowych i l012 glejowych. Do czego służą glejowe, dotychczas — poza
hipotezami — nie wiadomo na pewno. Prawdopodobnie nie ograniczają się do
pełnienia czysto podporowych funkcji typu tkanki łącznej. Trudno by raczej przyszło
zgodzić się z ewentualnością, że są po to, aby i w mózgu powstawać mogły
nowotwory, a to ponieważ komórki glejowe mogą się rozmnażać, co stanowi
predyspozycję powstawania tumorów, natomiast komórki nerwowe nie rozmnażają
się (nie dzielą się) w toku życia osobniczego. Mózg ludzki statystycznie nie zawiera
więcej niż 1,4 razy więcej komórek od mózgu szympansa: a jedynie ilość białych
włókien (czyli sieć połączeń) jest daleko silniej u człowieka rozwinięta i przez to
głównie mózg nasz jest znacznie od małpiego większy. Szybkość pracy mózgu można
uważać za 10 operacji razy 1010 synaps na sekundę, ponieważ każdy neuron może
mieć setki i setki połączeń z innymi. Najszybszy w roku 1993 komputer wykonywał
1010 operacji na sekundę. A zatem jednak mimo wszystko konstrukcje sieciowe czeka
znakomita przyszłość, ponieważ są paralelne. Niełatwo wyliczyć wszystkie już
doświadczone zastosowania sieci neuronowych. Spektrum zastosowań sięga od

107
giełdowych prognoz i medycznych badań po zastosowania w biologii i one zdają się
najbardziej kompatybilne z pracą mózgu.

8
Tu jednak przychodzi (niestety) wygłosić kolejne ostrzeżenie. Mianowicie dla
„myślenia inżynieryjnego” ludzi mózg człowieka zbudowany jest „antyinżynieryjnie”.
Nie budujemy domów, w których każda z osobna wzięta cegła zawiera plan CAŁEJ
BUDOWLI, a tak jest właśnie zbudowany KAŻDY wielokomórkowy organizm.
Zabezpieczenia udźwigu i wytrzymałości konstrukcji poddanych naciskom i
zjawiskom rezonansowym są wprawdzie stosowane — redundancja jest w całej
inżynieryjnej sferze niezbędna, jako rezerwy mocy, sprawności itd. — ale nie tak, jak
w mózgu. Zdumiewające są wyniki badań nad lateralizacją działania obu wielkich
półkul. Już nawet nie poświęcę uwagi hipotezom, wedle których lewa półkula pracuje
„raczej szeregowo”, a prawa „raczej równolegle”, bo to są raczej ogólnikową
mętnością swoją uwodzące w błąd pomysły. Na myśli mam zaskakującą
ZNIKOMOŚĆ skutków, wywieranych na normalne zachowanie operowanego,
któremu przecięto (mniejsza o to, dla jakich chorobowych powodów) wielkie spoidło,
tj. ok. dwustu milionów białych przewodników neuronowych. Tylko specjalne
badania mogą wykryć powstałe objawy wypadowe! To zdaje się skrzepiać aktywność
neurochirurgów, mających leczyć operacjami takiej skali, ale to też winno dać sporo
do myślenia projektantom brain chips. Może się stać mianowicie tak, że mózg
zoperowany, z podłączoną doń protezą digitalną albo analogową, po jakimś czasie
zacznie pełnić typowy normalny nadzór i typowe sterowanie procesami behawioru, a
jak przy tym wykluczyć, że on by sobie dał tak samo dobrze radę i bez wetknięcia
weń komputerowej protezy? Może ta proteza akurat tyle potrafiła wskórać, albo i
mniej, aniżeli ów drąg żelazny, który w wypadku znanej w literaturze osoby (z
ubiegłego wieku) przebił orbitę oka, przebił czaszkę, zniszczył zwoje sub— i
supraorbitalne, a ten człowiek, choć ofiara równie przeraźliwego urazu, prawda, że ze
zmienionym usposobieniem, okazał się właściwie dość normalny. Jeżeli wbite weń
żelazne drągi mózg może „wytrzymać”, to czego mamy oczekiwać po
mikroskopijnych artefaktach, podłączonych jakoby do sieci neuronowych mózgu? W
strefach projekcyjnych wzroku, więc pewno też słuchu, węchu itp., nie należy raczej
nic robić, jak się już orzekło. A więc dlatego GDZIE można by chipy wprowadzać,
ażeby cokolwiek zyskać, lecz ani utracić, ani nie zdobyć efektów POZORNYCH?
Przecież EEG nie powie nam wiele! Przecież wiadomo, że można się sporo rzeczy
dowiedzieć z elektroencefalogramu epileptyka, ale EEG nie da nam wskazówek w
diagnozie umysłowo chorego schizofrenika lub paranoika. Przecież, co jeszcze
gorsze, EEG normalnych ludzi „ociężałych fizjologicznie”, tj. z IQ około 80–90, nie
różni się zasadniczo od EEG mózgu najlepszych matematyków. Ogólnie mówiąc,
zawodowo kreacyjnej wydajności człowieka ani z EEG, ani z PET, ani z badań
tomograficznych magnetycznych spinów nie wyczytamy. Różnice są, naturalnie, ale
dla nas wciąż jeszcze nieczytelne! W takiej sytuacji nadzieja, że chip dla mózgu to nie
będzie PLACEBO, może okazać się fatamorganą.

9
W tym już miejscu przychodzi czas na moje usprawiedliwienia. Kiedy Bacon

108
starszy mówił, że pojawią się machiny chodzące po dnie mórz, po ziemi, latające —
400 lat temu — o tym, JAK one będą w sensie technicznym budowane, nie rzekł ni
słowa i miał rozsądną słuszność, że się na ogólniku w przepowiedni zatrzymał, a
przepowiednia się nam ziściła. Więc siparva licet componere magnis, kiedy pisałem
w latach pięćdziesiątych i sześćdziesiątych o paradoksach duplikacji człowieka, o
relatywizacji pojęcia osobowości itp., także nie zajmowałem się techniczną i
medyczną stroną rzeczy, lecz frapowały mnie konsekwencje natury ontologicznej
raczej: coś w rodzaju filozofii stosowanej przyszłości, a nie prognozy czysto
techniczne. Dlatego nie widzę jawnej sprzeczności między starymi moimi
roztrząsaniami a sytuacją obecną, ponieważ o locie na Księżyc można było mówić
jeszcze w epoce balonów, chociaż żadnym balonem na Księżyc nikt nie doleci, a
myśmy jednak się tam pojawili… A poza tym, na drodze w mózg trzeciej, wtargnięć,
włamań, dostrzegam kolej na alternatywę. Można mianowicie kształtować częściowo,
a nawet całościowo mózg, pod żadne paragrafy jakichkolwiek kodeksów prawa
stanowionego ani na włos nie podpadając, i można to uczynić z kolosalnym ryzykiem
w indywidualnych przypadkach:
A) Bez żadnego ryzyka robi się to, kopulując i poczynając dziecko. Mikser
genowy, uruchomiony przy każdym poczęciu, daje efekt w postaci płodu, a potem
noworodka, dość silnie zdeterminowanego rezultatami „gry łączących się w jedność
genów”. Te „rzuty” kolejne dają prawie nieprzewidywalne rezultaty jako ludzi,
ponieważ okazuje się, że geny jakiegoś krewnego linii bocznej, pradziadka, babki, i
tak dalej znienacka „wyrzucają” na świat jakiegoś Beethovena albo Einsteina. Mamy
do czynienia z Monte Carlo, z genową ruletą, i najłatwiej jest dziś jeszcze wykrywać
geny szkodliwe aż po letalne, natomiast „genów genialności” nikt nie wykryje,
albowiem potencję tak prospektywną prawdopodobnie przynosi cały genom, a
przynajmniej bezlik nukleotydów z ich stu miliardów pracujących w toku
embriogenezy, a potem pod wpływem środowiska (bo z Einsteina urodzonego w
paleolicie ludzkość nie zyskałaby wiele pożytku). My jednak, powoli tworząc w
ramach Human Genome Project mapę naszego genomu, znajdziemy się na bardzo
niebezpiecznym progu selekcjonowania genów i tym samym, tu muszę posłużyć się
bardzo krótkim zwarciem dalszych kroków, dojdziemy szansy PROJEKTOWANIA
mózgu bez potrzeby inwazji operacyjnej jakichkolwiek chipów. Osobiście optuję na
rzecz tej drogi, jako mimo wszystko mniej groźnej od „włamań w mózg”, albowiem
dla inwazyjnych zabiegów przesłanką nieodzowną wydaje mi się budowa modelu
mózgu.
B) Budowa modelu mózgu jako układu ukształtowanego z elementów zasadniczo
martwych, więc z pseudoneuronów, pseudoglejowych komórek jest dzisiaj
niemożliwa, ale dzisiaj nie jest też możliwe wyhamowanie natahstycznej prężności
mas ludzkich wziewnymi związkami chemicznymi. Myślę, że tak jedno, jak drugie,
stanie się możliwe w przyszłości, oraz że te wielkie sukcesy przyniosą nam, jak to
zawsze bywało w historii, bodajże tyle samo zysków tryumfalnych, ile nie znanych
jeszcze, nader kłopotliwych, a nawet groźnych dylematów. O czym trzeba rzec słów
kilka, ponieważ „wypróbowanie” efektywności brain chips na MODELU mózgu nie
jest tak samo bezproblemowe, jak wypróbowanie ratowniczej konstrukcji samochodu
przez zdruzgotanie go w pędzie o twardą przeszkodę. Dlaczego to nie jest ani to
samo, ani problem nie ma posmaku pozaetycznego i pozaprawnego przy założonej
technogenności „pseudomózgu”, wyjawić może nieuługi namysł.
C) Technologia brain–chips będzie miała niechybnie zarówno zwolenników, jak
przeciwników. Środki, jakich ci ostatni będą się imali, by W zarodku tę technologię

109
zastopować, okażą się nie tyle zależne od sprawności „bojowej” albo „perswazyjnej”
(ataku i obrony), ile po prostu od powstałych w toku doświadczeń szkód i sukcesów.
Przenoszenie (oparte na nadziei homologii) efektów uzyskanych ze zwierząt na
człowieka będzie znacznym ryzykiem i wstępne powstanie uszkodzeń może programy
w trakcie ich wdrażania zastopować. Ponieważ zaś takie modele niebiologiczne
mózgu, jakie zapewne da się skonstruować w ciągu najbliższych dekad, będą siłą
rzeczy dość znacznymi (albo i bardzo znacznymi) uproszczeniami budowy realnego
mózgu, otworzy się pole sporów i utarczek nie tylko słownych. Okoliczności, jakie
można by przywołać na rzecz brain chips, te np., które towarzyszyły i umożliwiały
pierwsze transplantacje SERCA u ludzi, były wyjątkowe, ponieważ przeszczepiano
serce człowiekowi niemal in articulo mortis: rokowanie było przecież praktycznie
beznadziejne quoad vitam — TYLKO transplantacja mogła uratować, a wiadomo też,
JAK skończyły się wszystkie próby zastąpienia serca biologicznego artefaktem
mechanicznym! NA TAKIE fakty będą się powoływali przeciwnicy zabiegu, tworzący
m.in. lobbies (grupy nacisku) w rządach i parlamentach, a tego nie można
zlekceważyć. Prace, kontynuowane pod zawisłym mieczem Damoklesowym
penalizacji, nie mogą się toczyć w korzystnych dla sukcesu warunkach. Uważałbym
za rzecz niepoważną wymyślanie na papierze możliwych brain chips, możliwych
interfaces, możliwych aproksymacji kompatybilności artefaktów procesorowych z
określonymi podzespołami mózgu, dopóki nie będzie można pozyskać choćby części
opinii publicznej, polityków, ustawodawców dla tego przełomowego w dziejach homo
sapiens procederu! To nie jest przecież domena fantazji czy fantastyki! Można by
replikować, że przecież podczas medycznie wskazanych operacji na otwartym mózgu
ludzkim były dokonywane eksperymenty (drażnienia np.), ale wykroczenie poza te
względnie skromne próby w kierunku brain chips to przejście od operacji ratujących
życie do operacji wyzbytych rzetelnego usprawiedliwienia. Jeżeliby zaś miało się
porównywać stosowanie protezopodobnych brain chips u poszkodowanych z
wypadowymi funkcjami i nie podległych rehabilitacji klinicznie stosowanej (mam
na myśli prace neurologów w rodzaju Lurii), to sukces z góry nie może być ani
gwarantowany, ani jako prawdopodobny nazwany. Nie sprawność techniczna, lecz
sytuacja w OKOLU takich zabiegów zadecyduje o ich wdrożeniu w życie i ich
rozmiarach funkcjonalnych.

110
Brain chips III

1
Wedle moich przekonań, sprawa BRAIN CHIPS stanowi jedną, i do tego podrzędną
odnogę działań, które ogarnia następujący schemat:
Podług powyższego schematu, oddziaływania możliwe na mózg ludzki albo go
„łudzą”, albo nim współsterują, albo go rzeczywiście przekształcają. BRAIN CHIPS
mogą wedle takiej taksonomii podlegać nietożsamym sferom oddziaływań, w
zależności od ich umiejscowienia oraz charakterystyk działania. Mózg ponadto można
w jego WŁASNEJ strukturze przekształcać albo
A) operacjami dokonywanymi na genomie post conceptionem,
B) na embrionie w toku rozwoju płodowego (wewnątrzmacicznie)
C) na mózgu noworodka i/albo organizmu dorastającego. Oddziaływania typu
fantomatyki obwodowej są zasadniczo ODWRACALNE (dość odłączyć
„fantomatyzator” od zmysłów).
Oddziaływania fantomatyki centralnej (instrumentalne lub chemiczne na mózg)
mogą być także nieodwracalne w skutkach.
Oddziaływania cyborgizacyjne (cerebromatyka) muszą być zasadniczo
nieodwracalne, albowiem tak samo jak naturalna ewolucja odwracane być nie mogą.
Zmianom w rosnącym stopniu ulega nie tylko mózg, ale i genom, sterujący TAKŻE
jego ukształtowaniem. Im wcześniej zachodzi w ontogenezie interwencja, tym
większa możliwość reorganizacji dogłębnej mózgu. Dziecko po zniszczeniu lewej
półkuli może dojść wysokiego stopnia rehabilitacji: mową posteruje pozostała prawa
półkula. U dorosłego przejście, także za pomocą BRAIN CHIPS, ku analogicznej
rekompensacji wydaje się bardziej nieprawdopodobne.
Rzecz biorąc czysto teoretycznie, nie widać żadnego „zakazu czynnościowego”,
który by uniemożliwiał mnogą implantację większej ilości CHIPÓW niż jeden.
Wstąpienie na tę drogę oznaczałoby już stopniowe zastępowanie mózgu naturalnego
elektroniczną (resp. biotechniczną) protezą. Jakkolwiek bodaj o wieki jesteśmy od tej
możliwości oddaleni, trudno uznać ją za analog podróżowania z dowolną szybkością
nadświetlną lub wyprawy w przeszłość dla uśmiercenia krewnych linii wstępującej
(ulubione tematy SF).
Pozostaje jeszcze parę interesujących zagadnień, jakim poświęcę nieco uwagi.

2
W 1990 roku Rowman and Littlefield Publishers Inc. opublikowali pracę Nicholasa
Reschera (przełożoną też na niemiecki) pt. Useful Inheritance. Euolutionary Aspects
of the Theory of Knowledge. (Tytuł w niemieckiej wersji zdradza z treści więcej
Warum sind wir nicht klüger?, tj. Czemu ewolucja nie ukształtowała nas
mądrzejszymi?)
Autor twierdzi, że przymieszka głupoty jest korzyścią ewolucyjną, ponieważ
zbytnia mądrość nie potrzebuje tak bardzo socjalnych uwarunkowań i powiązań, jak
mądrość ograniczona. Uważam stanowisko autora za jednocześnie słuszne i
niesłuszne, ponieważ samo pojęcie mądrości, czy też (jak w oryginale) naszego
111
poznawczego potencjału jest bardzo silnie rozmyte i może być nader rozmaicie
wykładane. (Inteligencja to nie rozsądek, chytrość to nie rozum, mądrość to nie tylko
sprawność w przeżywaniu oraz w aktywnym oddziaływaniu na środowisko życiowe).
Więź socjalna była dla powstania języka artykułowanego, z jego semantyką, składnią,
idiomatyką KONIECZNA. Lecz jednocześnie szeroki rozrzut ilorazów inteligencji
sprzyja przy „dodatnim rezonansie socjalnym” postępom sprawności cywilizacyjnych
(aż po samozagrażalność zbiorową wedle francuskiego porzekadła les extremes se
touchent). Osobnej wykładni zatrzymania się ewolucji mózgu u człowieka na etapie
(w holocenie) homo sapiens sapiens dostarczyć może ponadto narastające
statystycznie, w korelacji z wzrostami mózgu, zagrożenie rozpadowe („nadmiar
komplikacji” może powodować określone odchylenia od przeciętnej normy
ZARÓWNO DODATNIE (aż po genialność i wynalazczość), jak UJEMNE (podległe
psychiatrii i psychopatologii). Tak więc optimum selekcyjne zachodzi wtedy, gdy
grupowo iloraz inteligencji (IQ) jest istotnie umiarkowanie wysoki, lecz jednostki z
prawego schodzącego ramienia dzwonowej krzywej IQ Gaussa są TAKŻE
zbiorowości potrzebne. (Osobniki z lewej gałęzi, schodzącej na podnormalność, zdają
się być KOSZTEM STATYSTYCZNEJ DYSTRYBUCJI GENOMOWEJ i stanowić
mogą BALAST ewolucyjnie „do zniesienia” — wedle powstałych grupowo NORM
ponad– i pozabiologicznych: znaczy to, że albo się „skały tarpejskiej” używa albo —
wedle obyczajowości lokalnie — NIE). Cała ta sprawa, której oczywiście szerzej tu
ani referować, ani dyskutować nie mogę, jest o tyle do rzeczy, że warto zadać pytanie,
czy drogą instrumentalną — operacyjnego implantowania w mózg BRAIN CHIPS —
można się w ogóle spodziewać podwyższenia IQ, a bodajże nawet osobniczej
„mądrości”.
(Na ogół inteligencję uważa się za zbiór sprawności TRANSFERU tak uzdolnień
nabytych, jak wyuczonych, BEZ nadzoru moralno–etycznego, natomiast „mądrość”
może i powinna łączyć inteligencję z altruizmem normy nie tylko nawet gatunkowej,
ale ponadto sprzyjającej życiu pozaczłowieczemu).

3
Skłonny jestem odpowiedzieć na postawione pytanie negatywnie, z pewnym
zastrzeżeniem. Mianowicie wewnątrz nadzwyczajnej mnogości osobniczych
(ludzkich) zróżnicowań umysłowych można wykrywać frakcję takich osobników,
którzy jednocześnie dysponują określonymi uzdolnieniami nadprzeciętnymi ORAZ
zahamowaniami natury lękowo–nerwicowej albo ponadto ujawniać typowe syndromy
„równoczesnej, a nie współwykonywalnej liczby uzdolnień” (miał to wykrywać w
USA Multiple Aptitude Test, ale nie jestem pewny, czy stanowił dobre sito dla
należytego odsiewu takich ludzi). Tu też hamulcami mogą być niedostatki napędu,
umiejscowione neurologicznie w płatach czołowych. Jest to naturalnie uproszczenie,
ponieważ „napęd” mają też aktywni durnie. Na ogół spotyka się ich tam, gdzie
mądrość wkroczyć NIE chce (np. w polityce). Trudno sobie jednak wyobrazić łatwe
sprotezowanie mózgu zdolnego „indolenta” nerwicowego lub zbyt nieśmiałego albo
depresyjnie hamowanego, likwidując te czynniki przeszkadzające — za pomocą
nawet serii brain chips ponieważ już teza o tylko frontalno–czołowej lokalizacji
napędów jest wysoce wątpliwa, wręcz nieprawdziwa: napędy, spokrewnione z
popędami, mają charakter parametrów wypadkowych działania NIE TYLKO
korowych ośrodków. (Oczywiście, banałem i to złośliwym byłoby przypisanie
niedostatecznej mądrości i samemu autorowi nazwanej pracy).
112
4
Filogenetyczna genealogia człowieka, czyli antropogeneza, zaskakuje niezwykłą
długością w czasie „periodu inkubacyjnego” rozumności: w całym przebiegu swoim
krzywa antropogenetyczna przypomina krzywą logistyczną Verhulsta–Pearla z bardzo
długim początkiem i bardzo gwałtowną eksponencjalnością wzrostów w czasie,
zakończoną w holocenie „saturacją”, jako ustanowionym już badawczo tożsamym
prawie ustatecznieniem średniej sprawności mózgowej dla WSZYSTKICH RAS
ziemskich (możliwe są drobne odchylenia dystrybucji inteligencji, zwłaszcza u
wyjątkowo długo w izolacji bytujących grup, ale o znacznym osłabieniu przeciętnych
IQ nie ma mowy).

5
Początek człowiekowatych (hominoidea) odlicza się rozmaicie, można np. od
przedmałpy, jako wspólnego przodka małp i człowieka (były dwie odmiany: homo
sapiens neanderthalensis i my, homo sapiens sapiens): tym przodkiem wspólnym
byłby np. prokonsul. (Są i inne hipotezy, lecz monofiletyczność bodaj już zwyciężyła
— ale jak powiada się, prawda rzeczowa zwycięża wtedy, kiedy wymrą jej
przeciwnicy). Otóż zastanawiało, że homo erectus, a zwłaszcza homo habilis, rozwijał
się w sposób typowo ewolucyjny, czyli z etapu na etap przechodził w czasie dla
ewolucji umiarkowanie biegnącej typowym. Natomiast potem człowiek, już
biologicznie z nami tożsamy, nadzwyczaj długo ograniczał się do statycznego trwania
w protokulturze oryniackiej czy aszelskiej: za czym nastąpił „skok” w człowieka
biologicznie już całkiem współczesnego dopiero 40 000 lat temu, a świadectwem
„skoku” być mają pierwsze odkryte artefakty, służące pierwocinom Sztuki Zdobniczej
i Odtwarzającej, ale można przecież uznawać, że nie każda grupa praludzi zajmowała
się (bytując w jaskiniach) malowaniem scen łowieckich i innych na ich skalnych
ścianach. Protokulturowe twory mogły być nie w kamieniu i nie w trwałych kostnych
elementach ryte czy rzeźbione. Tu w ogóle przejawia się typowa dla nas tendencja do
MONOKAUZALIZMU, który działając redukcyjnie, ma nam za jednym zamachem
jakieś „wszystko” wyjaśnić. Jak to z człowiekiem bywało i jak to pozostało, antytezą
monokauzalizmu staje się rozkład przyczyn na empirycznie doświadczane lub
ponadempirycznie powymyślane „stada przyczyn”. Widać to tak w historii wiar
religijnych (od animizmu, czyli politeizmu „uziemianego” po monoteizm, który znów,
jak niektórzy głoszą, wykazuje — w katolicyzmie np. — tendencję
ąuasipoliteistyczną, ale w strukturach hierarchicznych z aniołami, archaniołami,
szatanami, ze świętymi itd.) jak w historii nauki, w której powstawały jako mieszańce
empirii i inwencji hipotezotwórczej różne flogistony, pola biogenetyczne, vis vitalis,
promieniowania mitogenetyczne (Gurwitch) itp., usuwane na ogół na rzecz zjawisk
wieloczynnikowych. Trudno właściwie uznać za całkowicie racjonalne modne dziś w
fizyce poszukiwanie GUT, Wielkiej Unifikującej Teorii „wszystkiego”. W każdym
razie pod względem czysto biologicznym już kilkaset tysięcy lat temu człowiek
zdawał się posiadać mózg „gotowy” do wyuczenia się języka, toteż „drzewo
lingwogenezy”, mające ponad 4000 gałęzi, powstawało zapewne w tym samym mniej
więcej czasie. Dlaczego jednak instrumentalizacja kulturopochodna nie dokonała
wraz z biologicznym rozwojem skoku, nie wiadomo. Tu zapewne kryją się przyczyny,

113
dla których stanęliśmy w postępach neuralizacji. Nie jest mianowicie możliwe
znacznie przewyższające typową średnią ewolucyjną powstawanie gatunkowych a
zatem genotypowych RADIACJI. Powstawanie nowej odmiany gatunku, nowej w tym
rozumieniu, że już niezdolnej do płodnego krzyżowania się z poprzednią, wymaga
nawet przy maksymalizacji ewolucyjnego tempa zmian okresu dłuższego aniżeli 60,
80, a bodaj i 100 000 lat. To, zwłaszcza kiedy zachodzić mają zmiany o rozmiarach,
powstałych pomiędzy skrajnymi reprezentantami naczelnych (Primates), więc też
Hominidae a homo sapiens sapiens. Pozorna rozbieżność mych uwag z głównym
tematem sympozjum „Akademii III Tysiąclecia” bierze się stąd, że pytanie o szansę
włączania procesorów w mózg z grubsza przypominają pytanie o „najlepszy plaster na
uraz cielesny”. W zależności bowiem od postaci urazu nie można lapidarnie nazwać
Jedynego panaceum w postaci plasterka”. Mózg, będąc systemem zarazem zwartym
jako w sobie zamkniętym i stratyfikacyjnie hierarchicznym, jako zespoleniem
ewolucyjnych decyzji sprzed setek milionów lat (może i dawniej trzeba sięgać aniżeli
aż po theropoda), bywał dotąd u człowieka poddawany zarówno lokalnemu
drażnieniu słabym prądem elektrycznym, jak głębokim okaleczeniem przy operacji
tumorów oraz przy epilepsji — bodaj najcięższemu zabiegowi kallotomii i okazywał
poza uszkodzeniami ośrodków fokalizowanych mocno (centra Broca, Wernicke, kora
w fissura calcarina i podobne) nad wyraz wielką plastyczność, która notabene jest
jednym z dobitnych wyróżników nawet względnie prymitywnych (jak perceptron)
sieci neuronowych! Niemniej, względy, o których się rozpisałem, wymagają w
kolejności chronologicznej postępowania prowadzącego od doświadczeń na wyższych
ssakach (małpach, szczególnie transgenicznych) poprzez próby wprowadzania w
mózg w określonych miejscach takich sekwencji impulsów, jakie z tychże miejsc
uprzednio przy innych stanach mózgowych zostały pobrane, czyli utrwalane zapisem
co najmniej elektrycznym, a dalej przez rozwój sieci neuronowych, umożliwiających
już niejakie porównania z poszczególnymi sprawnościami mózgowia, aż po pierwsze
próbne podłączenia procesorów, zabezpieczających jakoś (sprzężeniami zwrotnymi?)
mózg od nieodwracalnych uszkodzeń. Notabene uszkodzenia mogą mieć
najrozmaitszy charakter, np. mogą stwarzać „fałszywą pamięć zajść, co nie zaszły”, a
nawet mogą przyczyniać się do występujących (też bezingerencyjnie)
osobowościowych, rozszczepiennych syndromów (którym i spirytyści zawdzięczali
wiele „tajemniczych” objawów, np. z zakresu tak zwanego Zungenreden, zespołu
Wilsona, równoczesnego prowadzenia rozmowy i pisania nie związanego z nią tekstu
przez tę samą osobę–”medium” eta). Nie są to urazy bezistotne, tym bardziej więc
należy się pracom nad brain chips powściągliwość, że na pytanie, jakie digitalne
procesory lub ich wiązki nadają się już na brain chips”, odpowiedź brzmi, „ŻADNE z
istniejących”. Podobnie brzmi też odpowiedź na pytanie, „czy wielowarstwowe
autoasocjacyjne, zdolne do uczenia się neuronowe sieci na brain chips się nadają”.
Żadne aktualnie — i do godnych prób droga wiedzie daleka. Ta droga stoi jednak
otworem. Na zakończenie kilka spostrzeżeń, które dla eksperta będą raczej banałami:
I. Pamięć jest holograficznie „rozsiana” po mózgu i próby jej ostrzejszego
lokalizowania poza węchomózgowiem zawiodły, podobnie jak swego czasu burzliwie
modne nadzieje na „ładowanie mózgu wiedzą” dzięki spożywaniu określonych
substancji („zjedz profesora, to zostaniesz profesorem”).
II. Prospektywna potencja rozumowa mózgu jest w zamkniętym, ale dość szerokim
zakresie predeterminowana dziedzicznie; ulega od urodzenia poszerzaniu przez
kontakty z innymi ludźmi, których nieobecność powoduje zamieranie potencjalnych
tylko (jak językowa np.) sprawności. Podobnie jak selekcją hodowlaną można dotrzeć

114
do wywiedzionych z danego gatunku homozygotów, tak i z mózgów danej grupy
osobników o silnie zbliżonej budowie mózgu można wywieść optymalnie
wykształconych i rozumnych; frakcja graniczna jednak ruszyć się z miejsca żadnymi
BRAIN CHIPS — w moim mniemaniu — nie da;
III. Rozmaitym odmianom pamięci, także, a może zwłaszcza asocjacyjnej, jako
„przechowywacze” i jako systemy bodźcotwórcze mogą się one okazać przydatne.
Czy mogłyby udrożnić „zatarte szlaki” wspominania, jako selektory i amplifikatory —
Information retrieval — powiedzieć nie potrafię;
IV. W lecznictwie neurologicznym mogą brain chips odegrać poważną rolę, w
psychiatrycznym raczej mniejszą; trudno uznać, by ludzie z frakcji normalnych
uśrednień gotowi byli poddawać się wszczepianiu procesorowych implantatów.
V. Co się tyczy zaś samych procesorów jako brain chips, myślę, że powstanie
bardzo wiele ich odmian, podzielonych na dwa zasadniczo różne zbiory: na taki, który
będzie zasilany przez mózg, jakiemu „służy”, oraz przez opatrzone zasilającym
źródłem zewnętrznym. Możliwe też jest powstanie interfaces, jako przekaźnikowo–
przetwornikowych ogniw, które będą dostarczały pobranej z mózgu mniej lub bardziej
nielokalnie informacji proceduralnej osobnym zespołom maszynowym (także
komputerom). Stąd wiedzie już droga do POMIJANIA ciała jako zespołu efektorów
wprost do urządzeń sterujących maszynami, innymi komputerami, innymi mózgami,
wreszcie innymi ciałami i „pseudociałami”: dzięki tej rewolucyjnej ewolucji
znajdziemy się wreszcie tam, gdzie i głupstwo, i występek mogą królować: w Science
Fiction.

BRAIN CHIPS IV ADDENDUM

Niejako margines zagadnienia stanowić może zastosowanie sensorów i/albo


procesorów lub neuroczytników jako narzędzi MONITOROWANIA już to funkcji
tylko samego mózgu, już to całego organizmu (ALE POPRZEZ MÓZG).
Monitorowanie organizmu, w jego podstawowych funkcjach, może zostać tak
ograniczone legislacyjnie, by orientacja pobierana z monitora NIE mogła naruszać
sfery intymnej prywatności monitorowanego. To znaczy, że nie tylko z kory, ale z
pnia mózgu, ze śródmózgowia, systemu limbicznego, z wzgórza (thalamus) i
podwzgórza sensory pobierałyby, np. igłowo albo metodą (nie istniejącą na razie)
doglejowego podłączenia, informację o potokach neuroimpulsów, z kolei
przekładanych (w sensie translacji) na aferentne i eferentne bodźce, jakimi mózgowie
steruje ustrojem bezpośrednio lub w upośrednieniu przez system autonomiczny
(można też naturalnie odbierać informację wprost od plexus solaris, od pewnych
części rdzenia eta). Kody, jakimi mózgowie się posługuje, są jednak nie tylko
umieszczane na nośnikach jonowo–elektrycznych, ale zarazem pracują analogowo
przez wpływy hormonowe. Ogólniej mówiąc, znaczne ilości parametrów oraz
zmiennych zależnych od stanów podukładów (organów) ciała (np. samo tylko
monitorowanie składu, pH, KRWI) wymagałoby zapewne prowadzenia w sposób
ciągły (jak na klinice) dzięki aparaturze także nadawczej, aby monitorowany nie był
przykuty żadnymi przewodami do monitora, prezentującego wyniki już przełożone na
kod, ekspertowym programom nadzoru niezbędny dla czuwania nad stanem
organizmu czy tylko mózgu. (Można wtedy np. prognozować zbliżający się atak
epileptyczny).
O tym wszystkim jedynie wspominam, ponieważ szersze potraktowanie rzeczy
obecną strategię medycyny, interwencyjno–losową, zamieniłoby na kontynuowaną

115
bezustannie i zdalnie. Byłby to więc już nie przełom, dotyczący brain chips, ale
metoda komputerowego–medycznego zastosowania zdalnej OPIEKI LEKARSKIEJ
nad populacją (czy bardziej prawdopodobnie nad jej cząstką nie hospitalizowaną).
Można by w razie potrzeby hospitalizować przy odbiorze diagnostycznie ważkich
sygnałów. To wykracza mi jednak za temat. Nie chciałbym też zajmować się
komparatystyką naszego tematu, brain chips, z wizją, widoczną w Brave New World
A. Huxleya (czy innych literatów).

116
Moc obliczeniowa życia

1
Wstępnie muszę powiedzieć, że nie jestem dostatecznie kompetentny dla choćby
szkicowego ukazania „horyzontu ewolucji komputerów molekularnych”, które zdają
się dziś stanowić niedobrze jeszcze rozpoznaną, ale fundamentalną bazę procesów
ŻYCIA. Bieda tej mojej niekompetencji w pewnym stopniu ulega wszakże
pomniejszeniu przez fakt, że na razie NIKT tak daleko nie jest w stanie
ekstrapolować, czyli sięgnąć po owe majaczące nam tylko w oddali czasu molekuły,
utworzone z typowych dla kodu dziedziczności nukleotydów, molekuły, powtórzę dla
zwiększenia wyrazistości, stanowiące „naturalnie powstałe mikromaszyny Turinga”.

2
Pierwsze informacje o tym, że były sensowne moje mgławicowe intuicje,
wskazujące na KOD genetyczny, jako na przyszłego uniwersalnego projektanta, a
zarazem rachmistrza sterującego życiowymi procesami, znaleźć można w
amerykańskim periodyku fachowym „Science” (tom 266 z 11 listopada 94 roku).
Ksera artykułów, demonstrujących zawartą potencjalnie w łańcuszkach
nukleotydowych moc obliczeniową, moc, która o bodajże dziesięć porządków
przewyższa moc obliczeniową najnowocześniejszych komputerów (jakich używamy i
jakie budujemy), pracujących szeregowo, przysłano mi z USA. Uczynił to życzliwy
czytelnik, ponieważ dostrzegł, jak mi napisał, niejakie pokrewieństwo moich intuicji,
zawartych w książeczce Wielkość urojona, a dotyczących właśnie potencjałów
sprawczych kodu dziedzicznego, z pierwszymi wynikami prac, w których fragmenty
kodu — oligonukleotydowe sekwencje, złożone z ok. 20 polimerów — okazały się
zdolne praktycznie pokonać, tj. rozwiązać takie zadanie z zakresu teorii grafów
Hamiltonowych, które dla „normalnego” komputera okazuje się bardzo czasochłonne.
W TEN problem, który rozwiązały w fazie płynnej oligonukleotydy, wejść tutaj
dokładnie z dwu powodów nie zamierzam: po pierwsze, ponieważ na teorii grafów
znam się bardzo kiepsko, a po wtóre, ponieważ zadanie, nukleotydowym szturmem
rozwiązane, nie ma praktycznie nic wspólnego z przebiegiem procesów ewolucyjnych
(biologicznych): rozwiązanie to ukazuje tylko, że w owym środowisku półpłynnym,
jakie stanowić mogą kropelki protoplazmy z kodem dziedzicznym, nimi sterującym,
ukryte są takie moce obliczeniowe, o jakich dotychczas nie mieliśmy bladego pojęcia.

3
W dwu słowach warto może jednak wyjaśnić przynajmniej, o jakie zadania szło.
Autorem pracy Molecular Computation of Solutions to Combinatorial Problem jest
Leonard M. Adelman. W zasadzie chodzi o problem odnalezienia takiej drogi, która
przechodzi przez każdy wierzchołek określonego grafu tylko jeden raz, a w praktyce
bywał ten z dawien dawna znany problem rozpatrywany jako zadanie komiwojażera,
który ma odwiedzać po kolei cały szereg miejscowości i chodzi o to, ażeby żadnej nie
pominął na swojej drodze i żeby zarazem droga ta okazała się jak najkrótsza
(oszczędna). Problem, który dla małej liczby „miejscowości” nie przedstawia

117
specjalnego kłopotu także dla normalnego komputera, przy wzroście liczby tych
miejscowości–punktów (wierzchołków grafów) zaczyna rosnąć wykładniczo. Jeżeli
mikrosekunda jest potrzebna dla rozwiązania zadania o dziesięciu punktach, to 3,9 x
1011 wieków trzeba czekać na rozwiązanie dla STU punktów. (Nie liczyłem —
zastrzegam się — lecz polegam w całości na artykule On the Path to Computation
with DNA Davida K. Gifforda, umieszczonym w nazwanym już numerze „Science”).
Otóż ten przeraźliwy problem oligonukleotydowe sekwencje potrafią rozwiązać
dzięki temu w czasie ani trochę nie tak „nieludzkim”, ponieważ działają „szerokim
frontem”. Inaczej to samo mówiąc, tych łańcuszków molekularnych jest (musi być)
bardzo wiele, a i w przyrodzie ich nie brak: przecież np. najprostsze bakterie, więc już
organizmy, działają w ilościach rzędu miliardów i bilionów. Inaczej mówiąc, problem
zostaje pokonany metodą brute force i zarazem metodą paralelną, ponieważ zadanie
zostaje zaatakowane przez wszystkie oligonukleotydowe łańcuszki, a rozwiązaniem
może się okazać tylko jedna ich sekwencja. Jednak ten problem, w którym
matematyka rzuca w bój hamiltoniany, NIE jest główną osią mojej tu wyrażonej
nadziei, że TAKIE metody obliczeniowe leżą u podstawy życia. Chodzi tylko o to, że
została niejako „zerwana zasłona” z pozornie „chaotycznej gry” nukleotydowej, za
którą czai się potęga obliczeniowa, i odkrycie to rzuca jeszcze niezbyt jasne, ale
dające już do myślenia światło na te trzy miliardy lat Ziemi, podczas których życie na
niej było wyłącznie życiem organizmów najprostszych, a potem bakterii.

4
W pierwszej połowie naszego stulecia modne bywało obliczanie „całkowitego
nieprawdopodobieństwa”, jakim miałoby być powstanie życia (biogeneza) w toku
procesów chaotyczno–losowych. W połowie wieku zaś modne były ponadto dysputy
darwinistów–ewolucjonistów z kreacjonistami–sceptykami, którzy domagali się od
pierwszych, aby wytłumaczyli ewolucyjne powstawanie gatunków, organów,
zachowań zwierzęcych itp. Oczywiście, ewolucjoniści, także biologowie pierwszej
wody, jakim np. był J. B. S. Haldane, chętny do drobnych utarczek, na ogół
przegrywali. Rzecz w tym, że umysł ludzki, choćby to był umysł supermądrego
darwinisty, nie jest w stanie wyobrazić sobie i wysłowić w sposób podległy naocznej
weryfikacji takich procesów, które przebiegały przez tysiące milionów lat, a choćby
„tylko” lat miliony.

5
Mając szczególną słabość do dywagacji, wspomnę tutaj, że kiedy osiem lat temu
uzyskałem możliwość rozmawiania z noblistą Manfredem Eigenem, kiedy
zapoznałem się też z jego teorią „hypercyklów” mających stanowić osnowę
powstawania zjawisk życia, przez pewien czas chodziłem mile uspokojony myślą, że
biogeneza znalazła wreszcie swe naukowe wytłumaczenie. Potem dopiero naszły
mnie takie oto wątpliwości: hypercykle, jako też cały piękny schemat pracy
ewolucyjnej opartych na ich replikacji procesów elementarnej ewolucji (tej, o której
powiada prawy darwinista survival of the fittest), są bardzo ładnym urządzeniem, ale
to przecież nie jest coś, co mogło postać „spadłszy z nieba”. Inaczej mówiąc: pytanie
o początek życia zostało hipotezą hypercykli niejako przesunięte w nadal ciemną
przeszłość, w której coś te hypercykliczne reakcje, kręcące się dzięki stałemu

118
dopływowi energii w kółko, powołało do istnienia… i tutaj nadal nic nie wiemy.

6
Także praca, o jakiej pisałem wyżej, Adelmana, nie wyjaśnia bezpośrednio niczego
co do biogenezy. Natomiast zaczyna świtać rozumowanie, które pozwolę sobie bardzo
skrótowo przedstawić. Typowy komputer klasy desktop wykonuje co najmniej 106
operacji na sekundę. Najszybsze komputery potrafią wykonać 1012 operacji na
sekundę. Jeżeli powiązanie (Anglicy piszą concatenation) dwu molekuł DNA uznamy
za jedną operację (elementarną) i jeżeli około połowy oligonukleotydów liczy ich 4 x
1014, to właśnie 1014 operacji zostaje wykonanych, gdyż każdy nukleotyd „działa na
własną odpowiedzialność”. To właśnie jest frontalny atak brute force, który łatwo
można powiększyć do 1020 operacji: nie mówię wcale, że TAK właśnie pracuje
aparatura kodu dziedzicznego, która jest niezrównanie bardziej skomplikowana (i w
której pracy uczestniczą rozmaite dodatkowe pomoce enzymatyczne, a wszak mój
stary słownik genetyki liczy sobie 600 stron, choć w nim brak jednego słowa o
mocach obliczeniowych, potencjalnie obecnych w kodzie). Prezentuję jedynie rząd
przeraźliwych zgoła wielkości tych mocy, które powstają z chwilą, kiedy się
nukleotydy już pojawiają i pracują zorientowane dla rozwiązania określonego
problemu.

7
Rzecz jasna, kluczem do następnych wrót, czyli sposobem na postawienie
kolejnego, kto wie czy nie decydującego kroku, będzie pytanie o to, skąd biorą się
zadania, jakie zostają nukleotydom postawione w Naturze? Hamiltoniany i grafy nie
mają przecież bezpośrednio z procesami życiowymi NIC wspólnego. Jest mniej
więcej tak, jakbyśmy pokazali potęgę drzemiącą w pewnym urządzeniu
obliczeniowym, i to w takim „urządzeniu”, które w niczym komputera naszej
produkcji nie przypomina. Biochemik powiada: hydroliza jednej molekuły
trójfosforanu adenozyny daje tyle energii, że jeden dżul starczy na 2 x 1019 operacji.
Jest to wydajność zdumiewająca, jeżeli zważyć, że drugie prawo termodynamiki
pozwala na teoretyczne maksimum 34x 1019 operacji na 1 dżula (przy 300° Kelvina).
Najlepsze nasze komputery natomiast potrafią wykonać najwyżej 109 operacji na 1
dżula. Jak widać, procesy, jakimi żywią się energetycznie „urządzenia” nukleotydowe,
są niezrównanie bardziej wydajne od naszych technicznych wytworów. Na daleką
metę można by zatem uznać, że moje próby zawarte w Summa Technologiae,
przekonywania i zapewniania, iż przejmiemy potęgę Natury NIE przez imitację
ośrodkowych układów nerwowych, NIE przez budowę „sztucznych mózgów”, ale
poprzez owładnięcie mocami ukrytymi w genomach, były wcale sensowne. Być może,
iż, jak pisze Adelman, jedna molekuła DNA może równać się „momentalnej”
(instantaneous) deskrypcji maszyny Turinga i że stojące do naszej dyspozycji enzymy
i protokody mogą zostać zastosowane do uruchomienia TAKICH „MASZYN”.
Badania zmierzające w tym kierunku mogą doprowadzić do rozwoju enzymów,
zdolnych do wykonywania prac syntezy projektowej; będzie to era manipulowania
makromolekularni, o której pisałem w 1980 roku w „Prognozie rozwoju biologii do
roku 2060” — dla Polskiej Akademii Nauk. Ostatecznie — pisze Adelman — „można
sobie wyobrazić powstanie uniwersalnego czynnościowo komputera, utworzonego z

119
niczego więcej ponad jedną makromolekułę, podłączoną do zespołu enzymów
(podobnych do rybosomów), które będą na tę makromolekułę ‘należycie’
oddziaływały”.

8
Wyznaję, że kiedy czytam takie rzeczy w piśmie nie roszczącym sobie, dalipan,
najmniejszej pretensji do Science Fiction, i kiedy patrzę w przeszłość na to, co
wypisywałem i co bywało uznane za utopijne bajeczki, odczuwam nie tyle nawet
satysfakcję, ile zdumienie pełne niepokoju. Jedną rzeczą jest bowiem powiadać, że
hen tam, kiedyś, „za grzbietami stuleci” coś zostanie stworzone, że jakieś Moce
ulegną wyzwoleniu i zawłaszczeniu przez ludzi, a zarazem uspokajać się wiarą w
polepszalność ludzkiej natury (w toku „postępów cywilizacyjnych), a inną rzeczą
całkiem jest dożyć takich, jak cytowane, publikacji, i widzieć, że już za progiem
nadciągającego XXI wieku rozpoczną się inwazje ogromnych kapitałów, masywnych
inwestycji, rynkowych walk i szaleństw w bitwach o te „biokomputery”, o jakich ja
tak niefrasobliwie ku mizernemu zainteresowaniu odbiorczemu pisywałem, nie
słysząc przy tym najmniejszego odzewu (poza śmiechem).

9
Ażeby mnie jeszcze lepiej dobić (czy uwieńczyć?), grudniowy numer „Scientific
American” zawiera artykuł o powstającej projektowej inżynierii genetycznej, która
miałaby stworzyć nowy front walki z drobnoustrojami chorobotwórczymi. O tym
jednak już nie chcę tu i teraz pisać. Myślą raczej wrócę w najbardziej zamierzchłą
przeszłość, w której najprostsze, jeszcze nie komórkowe, raczej bakteryjne życie
wegetowało i kotłowało się na powierzchni naszej planety. Czy możemy
kiedykolwiek zrekonstruować symulacyjnie procesy tej miary i takiej skali? W
zasadzie wydaje mi się to do pewnego stopnia możliwe. Pytanie, na które nie
próbowałem dotąd znaleźć choćby i niepewnej odpowiedzi: CO stawia mocom
obliczeniowym, powstającym w toku genezy kodu nukleotydowego, ZADANIA? —
to pytanie jest zarazem pozornie proste i niezwykle zawiłe. Oczywiście, musiało być
tak, że zadanie „narodziło się samo”, w tym sensie elementarnym, iż „molekularne
komputery” tylko wówczas mogły po prostu przetrwać, jeżeli były tak zorientowane
procesualnie, że potrafiły same siebie kontynuować. A to dlatego, ponieważ tam,
gdzie powstał ten moloch, te armie molekularne, utworzone z trylionów
uporządkowanych nukleinowych kwasów, równocześnie w temperaturze Praziemi
działał chaos ruchów Browna: tam wciąż trwały ataki atomowego bezładu, dyktowane
przez II zasadę termodynamiki, tam się musiały toczyć bitwy ze wzrostem entropii. A
to, co przegrywało te starcia, przestawało istnieć. I tym samym zaczynamy już
rozumieć, jak to może być, że bakterie po czasie stosunkowo krótkich tryumfów
medycyny, bombardującej je antybiotykami, uzyskują odporność. Zadanie jest dla
tych drobnoustrojów wciąż takie samo, jak przed czterema miliardami lat: należy
przeżyć! „Należy” już w tym sensie, w jakim „należy” się spodziewać trafiania Ziemi
upadkiem meteorów czy też czekać na zmiany klimatu, ponieważ zarówno biogeneza
była zjawiskiem uwarunkowanym PROBABILISTYCZNIE, jak probabilizmy
wyznaczają też częstość kosmicznych zajść w rodzaju zderzenia z meteorem czy
wejścia w epokę lodowcową. Był czas, w którym teoria prawdopodobieństwa

120
uchodziła za ubogiego krewnego, wręcz za podrzutka, który przez badaczy
hazardowych gier został matematyce niecnie podłożony. Otóż dziś jest już
probabilistyka w pełni honorów i dowiadujemy się po trosze, jaką rolę jej właściwa
dzielność odegrała przy stworzeniu życia na Ziemi… i nadała temu życiu w jego
najprostszych formach bakteryjnych taką sprawność, która z każdej wynalezionej
medycznie opresji wyjdzie cało… co zmusi nas do toczenia z chorobami następnych
bitew.

10
Przy tym wszystkim, kiedy już roztacza się przed nami niepospolicie zaskakująca
panorama przyszłych prac, tych, które niemal maniakalnie opatrzyłem hasłem
„dogonić i przegonić Naturę w jej sprawnościach”, trzeba też zważyć, że prosta
rzetelność i rzeczowość nadal musi nas obowiązywać, a to znaczy, iż obawy, jakie w
„Sumie Technologicznej” (w przypisach do niej) wyraziłem, pozostają w mocy.
Mianowicie zastanawiałem się tam nad tym, czy i w jaki sposób ludzie będą w stanie
znaleźć drogę na niesamowite wręcz, pierwsze w ich dziejach, niesłychane SKRÓTY
ku realizacji wymienionego hasła.
Jeżeli bowiem sprawa miałaby się tak, że przed trzema miliardami lat powstało
życie, a potem przez trzy miliardy samo powtarzało się w permutacjach i
rekombinacjach, nie zmieniając własnej postaci, to jak właściwie mogło potem —
znienacka bodajże — dojść do „kambryjskiego skoku”, który rozplenił życie,
powiększając je wielokomórkowo, który zasiedlił oceany, a potem lądy, skąd
„molekularnie rozczłonkowany moloch nukleotydowego kodu” wynalazł, w jaki
sposób on stworzył sobie dalsze zadania, polegające na samokomplikacji życia, na
jego rozszerzaniu się na gatunki, skąd wziął się zarazem ów trend akceleracji,
przyspieszenia, dzięki któremu raz powstałe organizmy zajęły się gorączkową
produkcją nowych gatunków? A jednocześnie wiemy, że z tych gatunków roślin i
zwierząt, które powstały w przeszłości, 99% wyginęło, i tylko nadzwyczajna
prężność… znów trzeba rzec po prostu: OBLICZENIOWA, rekombinująca,
rekombinacyjna, z nukleotydowych cegiełek umiała wykrzesać dalsze miriady
następnych gatunków, całe fontanny specjacji… Czy to wszystko było też „po prostu
efektywnością największej okołosłonecznie loterii trafów” — czy może być, że nic,
oprócz Przypadku, chytrze skomplikowanego w kształt łańcuchów Markowskich i
pół–Markowskich, nie działało jako ta siła, która na schyłku holocenu wyrzuciła na
powierzchnię południowej Afryki przedmałpy razem z przedludźmi… i wchodząc w
okrutnie dziesiątkujące sita doboru naturalnego, tamte gatunki ulegały jeden po
drugim zagładzie, aż pozostały tylko dwa konary: na jednym usadowiły się małpy, a
na drugim — my: ludzie, Homo sapiens. Najbezwzględniejszy — niestety — pasożyt
biosfery.
To nie podlega już dziś zakwestionowaniu: być może zdołamy opanować moce
obliczeniowe molekularnego komputera ŻYCIA i on dopomoże nam w przeżyciu
cywilizacji… albo też sami zrujnujemy tę szansę, ponieważ okaże się, że i tę
skradzioną prometejską moc Natury sami przeciw sobie obrócimy… w walce, którą
tylko bakterie na koniec zdołają przeżyć.

121
Ewolucja jako paralelny komputer

1
W poprzednim artykule (Moc obliczeniowa życia) przedstawiłem w skrótowym
uproszczeniu metodę polegającą na zastosowaniu łańcuchów nukleotydowych
(krótkich, tj. oligonukleotydowych) do rozwiązywania takich matematycznych zadań
(w pokazanym przypadku: z zakresu teorii grafów i wyszukiwania najkrótszej drogi
prowadzącej przez ich wierzchołki), które od zwykłego komputera wymagać mogą
(dla dużej liczby wierzchołków–punktów) olbrzymiego czasu obliczeniowego. Ta
niespodziewanie (przez Adelmana) wykryta moc obliczeniowa powstaje dzięki temu,
że do „ataku” na postawione zadanie zostaje rzucona znaczna liczba
oligonukleotydowych odcinków, rozmnażanych przez polimerazy: w efekcie powstaje
ogromna liczba równocześnie parających się zadaniem jednostek, a na końcu
uzyskujemy taką, która rozwiązanie zadania zawiera (której struktura JEST
rozwiązaniem zadania). Ze względu na to, że zadania, jakie Adelman stawiał
nukleotydom, bezpośrednio do obszaru biologii NIE należą, że stanowią raczej
odgałęzienie dość trudnej matematycznej teorii funkcji rekurencyjnych (nie wprost,
ale nie mogę tutaj wejść w uszczegółowienia), uznałem owo zjawisko użycia
bruteforce w faz!e roztworu (niejako w postaci „płynnego komputera równoległego”)
za MODEL, który się nam wprost do przystawiania czy do przeniesienia w głąb
procesów biogenezy NIE nadaje. Niemniej jednak, JUŻ obecnie można, aczkolwiek
nie bez ryzyka, spróbować wstępnie przybliżonego rozumowania, które przynajmniej
w postaci na razie jeszcze dość mglistej, ale za to zdającej się kryć w sobie
„rozwiązanie zagadki ewolucyjnej”, pokaże, co, jak i dlaczego zaszło na Ziemi, zanim
eksplodowała kambryjska radiacja wielokomórkowców, po wielomiliardoletnim
zastoju życia. Albowiem istotnie najwcześniejsze pierwociny życia lokalizuje się dziś
przed trzema i pół — czterema miliardami lat, po czym owo życie, ograniczone do
protobakterii przez czas tak potwornej, geologicznej miary, ledwie osiemset milionów
lat temu „wybuchło” kambryjską ewolucją, oznaczającą wstępne zawłaszczenie
oceanów, a potem i kontynentów, życiem na dwoje rozdzielonym: na rośliny i na
zwierzęta.

2
Wyglądałoby na to, że sam początek życia jest nam nadal nie znany. Nieodzownym
„minimum” były na pewno jakoś powstałe replikatory, czyli takie zespolenia molekuł
organicznych w fazach roztworów, które zdobyły umiejętność samopowielania się.
Replikacja bowiem w biologii to właśnie tyle, co powstawanie żywych ustrojów
potomnych z ustrojów rodzicielskich. Więc ten warunek, replikacji, czyli
rozmnażania, musiał zostać wstępnie spełniony i na pytanie, jak to nastąpiło, nie
mamy żadnej podległej empirycznym doświadczeniom (symulacyjnym choćby)
odpowiedzi. Musimy zatem przyjąć tę najwcześniejszą postać życia jako daną,
niekwestionowalnie, moje zaś dalsze wywody ograniczą się do zasugerowania,
dlaczego życie w swej ledwie powstałej postaci „niczego prócz siebie samego” nie
potrafiło stworzyć.

122
3
Tutaj pozwolę sobie na dywagację, która nas wprawdzie do biologicznej
problematyki bezpośrednio nie zbliży, ale przynajmniej o tyle da do myślenia, że
pokaże, jak wiele tworów uważanych przez nas za wyłączne wynalazki, czy też za
wyłącznie przez ludzi wysnute konsekwencje odkryć naukowych, powstawało miliony
lat przed pojawieniem się człowieka na Ziemi. Mianowicie kiedy powstały pierwsze
generacje reaktorów atomowych pracujących na bazie rozszczepienia (pod wpływem
neutronów) uranu (U 235), panowało przeświadczenie, że na naszej planecie PRZED
uruchomieniem pierwszej reakcji łańcuchowej rozpadu jąder takich „naturalnych
reaktorów” być nie mogło. Dopiero nieco później wykryto właśnie taki siłami Natury
utworzony w Afryce „reaktor”, który bez wątpienia pracował, nagrzewając
radioaktywnie środowisko przez setki tysięcy lat (obecnie jest już radioaktywnie
„martwy”). Przywołany ten przykład pokazuje, jak ostrożni winniśmy być, biorąc się
do twierdzenia, iżeśmy cokolwiek, czy to „stosy atomowe”, czy „komputery”,
wymyślili i skonstruowali sami jako pierwsi na świecie.

4
Z grubsza, ale niestety jedynie z grubsza, wiadomo, że pierwotna atmosfera Ziemi
była beztlenowa, że było w niej dużo dwutlenku węgla, metanu, i że życie narodziło
się najprawdopodobniej (tak się DZISIAJ sądzi) w gorących źródłach, ponieważ
byłoby rzeczą w najwyższym stopniu — aż do niemożliwości — nieprawdopodobną,
ażeby ledwie powstałe życie jako powiązane w rodzaj „hypercykli” (model pochodzi
od Manfreda Eigena) molekuły było zdolne już w zaraniu przyswajać sobie energię
słoneczną. Jak wiadomo, dzięki chlorofilowi potrafią to rośliny, potrafiły to zrazu
przed roślinami sine algi, lecz ten proces, wychwytywania kwantów słonecznej
radiacji, jest tak subtelnie skonstruowany, że — jak myślę — już bardziej
prawdopodobne okazałoby się odkrycie na powierzchni jakiegoś martwego globu, np.
Marsa, samochodu, który Jakoś sam się wykrystalizował ze złoży rudy żelaznej”.
Inaczej mówiąc to samo, fotosynteza na początku biogenezy wynaleziona być nie
mogła. Przecież życie wedle naszej ułomnej i pełnej ślepych plam wiedzy
„wykonstruowało się samo”, toteż wstępne jego etapy musiały być pozbawione tego
wyrafinowania, jakim w fotosyntezie posługują się rośliny. Ale i ta uwaga jest tylko
częściowo poboczna, o tyle zaś do rzeczy mi posłuży, że wskazuje pośrednio, iż
powstanie biogenetycznego preludium nie mogło nastąpić „za jednym zamachem” i to
od razu w formach procesualnych, które równają się życiu, jakie nas otacza i jakie w
nas samych ujawnia swoją ekspresję.

5
Słońce miało na początku — czy raczej u progu biogenezy — moc promienistą
około 10 do 20% mniejszą niż obecnie, a tym samym Ziemia musiała być Jakoś”
dogrzewana, w przeciwnym bowiem razie skułyby ją potężne lodowcowe pancerze.
Co tę Ziemię sprzed czterech miliardów lat podgrzewało poza światłem słonecznym,
na pewno nie wiadomo, gdyż i tutaj wrą obecnie spory, w których hipotezy ścierają się
z alternatywnymi hipotezami, ja wszelako zmuszony jestem przyjąć po prostu, że
Jakoś” jednak powierzchnia już oskorupiałej planety, już tak ostygłej, że powstawały
123
na niej wielkie zbiorniki wód (oceany), była utrzymywana w temperaturze
umożliwiającej prolog biogenetyczny. To znaczy wtedy musiały powstać pierwsze
replikatory: czy one repetowały swe generacje kolejne dzięki jakiemuś ówczesnemu
poprzednikowi KODU NUKLEOTYDOWEGO, czy też tylko dzięki jakiejś na tyle
uproszczonej jego samorodnej postaci, że replikacje w ogóle się okazały możliwe —
nadal nie wiadomo. Uważam za wskazane podkreślać rozmiary naszej uczonej
ignorancji, ażeby nie wyglądało na to, że ja tu od jednego zamachu zamierzam
wyjaśnić „wszystko”. Jest jedna rzecz, do której mamy już dostęp dzięki odkryciu
obliczeniowych mocy, potencjalnie drzemiących w nukleotydach: mianowicie w tym,
że oligonukleotydy Adelmana działają NICZYM równoległy komputer, czy też może
RACZEJ jako olbrzymia liczba (zbiór może i trylionowej mocy) poszczególnych
molekularnych „nanokomputerów”, z których KAŻDY pracuje „na własną rękę”, i w
tym, że one skierowane zostają na tor PODOBNEGO zadania, kryje się rozwiązanie
zagadki ich późnego ewolucyjnego sukcesu.

6
Należy też koniecznie dodać, jaka była główna i pierwsza różnica między tymi
molekularnymi autoreplikatorami a naszymi komputerami, albowiem różnica ta nie
dotyczy ani materiału, ani nawet programów–algorytmów: cała rzecz w tym, że
naszym komputerom MY narzucamy zadania, programując je w taki sposób, ażeby
uzyskać wynik NAM potrzebny. Natomiast te „prakomputery”, ich biliony
porozmnażane na powierzchni Ziemi, a może najpierw tylko w głębinie gorących
term, gejzerów, wód ocieplanych wulkanicznie, ŻADNEGO PROGRAMU nie miały.
Toż im nikt żadnego programu nie mógł narzucić i jedynym „programem” dla nich
był po prostu fakt oczywisty: przetrwać mogły jedynie takie protoustroje, które
potrafiły — przez podział — dać początek generacjom następnym, a te potomne
generacje mało co różniły się od swych bakteryjnych protoplastów (proszę zważyć, że
ja nie wiem, czy tamte formy „prażycia” wolno z dobrym sensem zwać „bakteriami”
czy protokariontami, czy jak jeszcze, ale po prostu jakiejś nazwy muszę dla nich
używać).

7
Tak zatem „na początku były mikromołekularne samopowiełające się komputery–
replikatory”. Ani chybi olbrzymia ich większość musiała sczeznąć, ponieważ sztuka
replikacji znajdowała się dopiero w zarodku. Ponadto nie mamy też najbledszego
pojęcia, czy to prażycie powstało mono— czy raczej polifiletycznie, tj. czy „udało
się” Naturze zrodzić tylko jeden „standardowy” typ przedbakterii, czy też może było
tych typów więcej i może one nawzajem ze sobą o przeżycie musiały konkurować.
Fakt, iż obecnie wszystkie związki biochemiczne życia są wyłącznie łewoskrętne,
zdaje się sugerować, że zrazu (ale też nie na pewno) powstało „życie prawoskrętne” i
„łewoskrętne”, i że zwyciężyło w owej konkurencji z przyczyn nie całkiem losowych
(ale tu w tę odnogę problemu nie mogę dalej wejść) życie łewoskrętne. W każdym
razie można „wedle zdrowego rozsądku” mniemać, iż replikatory biogenetyczne
działały zrazu dość kiepsko w tym sensie, że lwia część ich potomnego produktu
„była na nic”, czyli nie przeżywała. I tym samym już w owym najwcześniejszym
okresie gilotyną oddzielającą sprawność przeżywania od niesprawności była po prostu

124
zagłada, bo co nie potrafiło się rozmnażać tak, aby spełnić minimum warunków
adaptacji do środowiska i do innych praustrojów, musiało zginąć. To wydaje się
raczej samozrozumiałe.

8
Tutaj napotykamy, jak mi się zdaje, dość tajemniczy szkopuł, powodujący, że życia
„w retorcie” sami wciąż stworzyć (syntetyzować) nie potrafimy. Szkopuł widzę w
owych MILIARDACH LAT bezustannych replikacji, jako nieustającego bytowania
form wyłącznie najbardziej elementarnych, najprostszych i zarazem takich, że one nie
dysponowały wtedy JESZCZE najsłabszą nawet potencją kreacyjną taką, która
wykraczała poza ich „rozplemowe egzystencjalne minimum”. Jest to — zdaje się —
dość fatalne, jako potwierdzenie moich obaw, wypowiedzianych w Summa
Technologiae przed trzydziestu kilku laty, że mianowicie gigantyczny czas latencji
życia, potworny po prostu, nie dający się żadną miarą ogarnąć wyobraźnią ludzką,
MUSIAŁ upłynąć, zanim z prażycia przedbakteryjnego zdołało wyrosnąć całe
linneuszowe drzewo gatunków. Już z ustalonych dzięki sfossyfilizowanym szczątkom
protokodów paleontologicznych wiemy, że TEMPO kolejnych kreacji kolejnych
typów, rzędów, gatunków stawało się coraz szybsze, ponieważ najdłużej trwał okres
„przygotowawczy”: terminatorka miliardoletnia życia na Ziemi, ale jak raz „silnik
kreacyjny zaskoczył”, tempo powstawania coraz to innych gatunków rosło, aż
maksimum chyżości zdobyło ledwie koło miliona lat temu: gdy wydało człowieka
rozumnego.

9
Pozostaje jednak nadal sporo niewiadomych w powyższym obrazie. Wolno w nim
już dostrzec straszliwe ciężkie roboty tej brute force, która przez lysiące milionów lat
na ślepo nie mogła uruchomić własnych potencjałów poza minimalnym zadaniem
PRZEZYWANIA. Samo przeżycie było wtedy dziełem tak trudnym i tak
ryzykownym, że jak wiemy, ze wszystkich odmian życia, jakie pojawiły się na Ziemi
kiedykolwiek, 99% uległo zagładzie. O zagładzie gadów, które panowały przez 120
milionów lat na naszej planecie wiemy szczególnie wiele; po pierwsze, ponieważ były
to często kolosy, mające olbrzymie rozmiary, więc ogromne szkielety, i jako pierwsze
ich właśnie resztki uległy przed wiekiem odkryciu w pracach wykopaliskowych. Po
wtóre, ponieważ ich zagłada nastąpiła w sposób dość spektakularny,
najprawdopodobniej wskutek interwencji kosmicznej, lecz coraz wyraźniej
dowiadujemy się, że podobnych katastrof życie na Ziemi doznało więcej, zarówno
wskutek „interwencji geologiczno–wulkanicznych”, jak klimatyczno–lodowcowych,
itd.

10
Winniśmy jednak wrócić do owej prastarej przeszłości, w której trwało
miliardoletnie „milczenie kreacyjne”. Co miało, co mogło zakończyć je i przerwać,
doprowadziwszy do erupcji kambryjskiej, owego powstałego „naraz” (tj. „ledwie” w
ciągu milionów lat) wybuchu życia postępującego, czyli do startu „progresji
ewolucyjnej”? Należy sobie dobrze zdać sprawę z tego, że właściwie jest pewien fakt
125
dla nas współczesnych tak oczywisty, iż na dobrą sprawę w ogólnie go nie
dostrzegamy. Mianowicie uważam całe gadanie, typowe wśród biologów, o formach
„prymitywnych” całych ustrojów czy ich poszczególnych narządów za efekt
dziwacznej pomyłki. Jak można w ogóle uznać np., że owady, istniejące na Ziemi od
trzystu milionów lat i nieporównanie mniej wrażliwe na wielkie dozy radioaktywności
od ssaków, z człowiekiem na czele, są „bardziej prymitywne” od naczelnych właśnie,
razem z człowiekiem liczących sobie jakieś 10— 12 milionów lat bytowania
ziemskiego? A jeżeli przypatrzymy się tym drobnoustrojom, które są wszędzie, i
wokół nas, i w nas samych, czyż nie powinno nas zastanowić to ich przetrwanie
wszystkich epok, wszystkich miliardoleci; nie powiem, że w postaci nie zmienionej.
Niestety, właśnie drobnoustroje, właśnie najczęściej dla nas chorobotwórcze,
dysponują taką „mocą obliczeniową” typu biochemiczno–molekularnego, że
potrafimy naszymi najdoskonalszymi lekami syntetycznymi i antybiotykami tworzyć
tylko szczerby we frontach atakujących nas bakterii… które po niedługim (bardzo
niedługim) czasie uzyskują oporność na wszystkie nasze medykamenty, na całą tę
farmakologicznie i medycznie kierowaną w nie artylerię. Cóż to zjawisko oznacza?
Oznacza ono tyle, że właśnie bakterie, te „formy prymitywne”, dysponują, nie jako
jednostki, nie jako gromady, ale jako gatunki, taką potencją kreacyjną, która, jak już
można domyślić się, osadzona jest w mocy obliczeniowej potencjalnie gotowej
zaktywizować się przy zagrożeniu. Pojawiają się takie permutacje i takie
rekombinacje ich genowego przekazu, które nadają im oporność. Gdzieżby można
sobie wyobrazić, żeby tak zwane „wyższe” zwierzęta i człowiek potrafiły wytworzyć
sobie oporność na jakieś gazy trujące, albo na radioaktywność… Wolno sądzić, że
przyjdzie nauce z wielką ostrożnością stosować pojęcia „postępu” i „prymitywizmu”
rozwiązań w dziedzinie życia…

11
Pisząc przed szesnastu laty pierwszy wykład fikcyjnego superkomputera mojego,
GOLEMA, włożyłem w jego metalowe usta takie oświadczenie:
1. W ewolucji „BUDOWANE JEST MNIEJ DOSKONAŁE OD BUDUJĄCEGO”.
Nie miałem wtedy poza intuicją żadnych podstaw dla umotywowania tej tezy; jak
dalej mówił Golem, w tych słowach „tkwi (…) odwrócenie wszystkich waszych
wyobrażeń o nieprześcignionym mistrzostwie sprawczyni rodzajów. Wiara w postęp,
idący epokami wzwyż, ku perfekcji, ściganej z rosnącą wprawą, w postęp życia,
utrwalony w całym drzewie Ewolucji, jest od jej teorii starsza. (…) Oświadczyłem:
Budowane jest mniej doskonałe od budującego. Dosyć aforystyczne powiedzenie.
Nadajmy mu postać bardziej rzeczową: W EWOLUCJI DZIAŁA UJEMNY
GRADIENT PERFEKCJI USTROJOWYCH ROZWIĄZAŃ. To wszystko”.
Dalej cytować Golema nie będę. Powiem tylko, że intuicja moja wydaje się dziś,
po tylu latach, bardziej zasadna niż wówczas, gdy wyraziłem ją w postaci fikcyjnego
mędrca komputerowego. Chodzi o to — tak to można teraz przedstawić — że ponad
półtora wieku trwała walka lamarkizmu z darwinizmem, czyli tezy, jakoby ewolucja
wynikała z dziedziczenia cech nabywanych przez organizmy — z tezą, że wynika ona
wyłącznie z mutacji genów, które obciosuje (sprawdza przeżywalnościowo) dobór
naturalny. Otóż teraz już nie ja i nie Golem, lecz autorzy prac o „obliczeniowej mocy
życia” mówią, że możliwe jest współzachodzenie procesu losowego (czyli zmian
genetycznych, powodowanych mutacjami poszczególnych genów), z określonym
nakierowaniem strumienia takich zmian: nie ma ani miejsca na jakoweś nabywanie
126
cech, co się dziedziczą, ani na całkowicie ślepy rozrzut najzupełniej przypadkowych
mutacji. NA RAZIE ową „trzecią” drogę wolno nazwać jedynie tak: losowość nie
wyklucza nakierowania strumieni potomnych ustrojów. Rozwiązania
GENOTYPOWO „dobre” ujawniają niejako tendencję własnych kontynuacji na
poziomie elementarnym–genowym. Nie zachodzi ani „czysta losowość”, ani „czyste
kierowanie”. ORTOEWOLUCJA (np. konia) nie jest ani wynikiem dziedziczenia
cech nabytych, ani ślepych mutacji: są struktury genotypowego przekazu, które
ulegają niejako uprzywilejowaniu, tak jak głaz puszczony z pochyłości zaczyna
wskutek inercji toczyć się dalej i dalej. Ze znaczną emfazą można by rzec zatem, że
sama „perfekcja rozwiązań” określonego gatunkotwórczego zadania nadaje dalszym
aproksymacjom „coraz precyzyjniejszego” rozwiązywania KIERUNEK. Dla różnych
gatunków wygląda to bardzo rozmaicie: inaczej dla słoniowatych, inaczej dla
naczelnych, ponieważ „po drodze” powstają formy „aproksymujące” rozwiązanie
finalne; a gdy do niego proces ewolucyjny dotrze, staje: dlatego Homo sapiens sapiens
praktycznie już ewoluować przestał. Zaznaczam lojalnie, że to nie jest ani pewnik, ani
udokumentowana porządnie hipoteza. Ale w każdym razie tkwi w tym wszystkim, co
dotąd powiedziałem, szansa nowego spojrzenia na proces ewolucji naturalnej roślin i
zwierząt jako na ogromną CAŁOŚĆ. „Brutalna siła” życia na elementarnym poziomie
replikatorów potrzebowała straszliwych eonów czasu, ażeby dotrzeć do fazy, w której
wykroczenie poza prostą replikację stało się w ogóle możliwe. Proces, który nastąpił,
był oczywiście błądzeniem (i o tym mówił mój Golem, nazwawszy Ewolucję
„błądzeniem błędu”). Jednakowoż — gdy z nowszej strony patrzeć na ten sam proces
— widzimy, że razem z „elementarnością” najpierwszych ustrojów (drobnoustrojów)
w toku postępującej specjalizacji zatracie ulega pierwotna UNIWERSALNOŚĆ. Jak z
niemowlęcia może powstać scholastyk, kominiarz, lekarz, robotnik, profesor,
kierowca, mnich, dyktator, krawiec, tak z bakterii — GDYBY katastrofa,
spowodowana interwencją Kosmosu albo naszą wojną jądrową zgładziła całość
wyższych form życia — mogłoby powstać, mogłoby odrodzić się w następnej
ewolucji następne bogactwo żywych form organicznych. Oczywiście, na pewno nie
byłoby ani tożsame, ani podobne do tego ich zbioru, który ułożyła ewolucja dotąd w
drzewo linneuszowe! Ale szansa ta potencjalnie znajduje się skryta w uniwersalizmie
życia, właśnie w jego biochemicznej „nukleotydowej mocy obliczeniowej”. I to
świadczy o stratach, jakie życiu przynosi każdy kierunek specjalizacji gatunkowej, to
powoduje, że utraciliśmy zdolności regeneracyjne (jaszczurce ogon odrośnie,
człowiekowi nie odrośnie utracona noga czy ręka). Zresztą kto by się bliżej
zainteresował pierwotną postacią całej tej diatryby skierowanej przeciwko „postępowi
ewolucyjnemu” życia, kto by chciał dojrzeć rewers „postępu” — nie aż jeremiadę —
niechaj poszuka (ale to niełatwe) książki pt. Golem XIV: wydanej w 1981 roku przez
krakowskie Wydawnictwo Literackie. Skąd mi się wzięła taka zuchwałość, która
pierwsze oznaki weryfikacji znajduje już dziś, to znaczy PRZED końcem stulecia —
nie wiem. Ale myślę, że jeżeli nawet myliłem się, to — jak świadczą listy, które
otrzymuję z USA — nie ze wszystkim.

PODSUMOWANIE

Należy sobie uświadomić, że przywołanie równolegle pracującego komputera jako


modelu ewolucji naturalnej jest tylko aktualnie napraszającym się obrazem. Można
uznać, że powstaje komputer „bardzo dziwny”, jako taki, który nie ma żadnego
programu poza takim programem, iżby jego optymalną szansą stało się po prostu

127
PRZETRWANIE. Dlaczego jednak replikacje (bez których nie wyszłaby ewolucja
poza swój protobakteryjny prolog) są konieczne? Dlatego, ponieważ „mikrożycie”
powstaje tam, gdzie podlega atakom chaosu molekularnego (np. ruchów Browna),
więc MUSI powstać jakaś postać TRWALE opierająca się tym chaosom, strącającym
w martwotę, i to jest możliwe tylko, gdy pojawia się właśnie replikacja: co się
bowiem nie będzie sprawnie replikowało, aby przeciwstawiać się atakom bezładu
(gradientowi wzrostów entropii), to ginie, tj. wypada z „gry o przeżycie”. Jednak
samopowstanie replikatorów jest tylko koniecznym, ale nie dostatecznym dla dalszych
postępów życia warunkiem ewolucji. Toczy się — tak można też modelować proces
— GRA przeciwko „bankowi”, którym jest po prostu całość ziemskiej martwej
Natury. Ona „pochłania” niedobrze rozmnażające się życie. (Gra o sumie niezerowej,
bo Natura „wygrywając”, czyli unicestwiając życie, „nic z tego nie ma” — wygraną
jest przeżywanie, przegraną — zguba). Replikować się, by przetrwać — ten program–
minimum powstaje gdzieś we frontach „trylionowych prac komputera molekularnego
w fazie roztworu” — w tych frontach toczą się „bitwy” bez wsparć, oddzielnie,
dlatego mówimy o PARALELIZMIE ich przebiegów. A skąd się biorą „nadwyżki”
kreacyjnej potencji, z których powstawać zaczynają eukarionty, algi, rośliny,
zwierzęta, aż ulegają „utrwaleniu” w poszczególnych gałęziach „krzaczasto pnącego
się” drzewa ewolucyjnego, przy czym każda gałąź to jest pewien utrwalający się
paradygmat (wzorzec — pattern) określonego TYPU, a z raz powstałego paradygmatu
dalsza gra „wyciąga” wszystkie możliwe transformacyjnie i rekombinacyjnie
konsekwencje USTROJOWO–GATUNKOWE? Otóż ten potencjał musiał
najwidoczniej powstać losowo, czyli tak, że to, co NIE „wygrało prospektywnej
potencji” ewolucyjnego postępu, pozostawało JAK bakterie — nadal bakteriami, i
tylko to, co „wpadło na konstrukcyjny koncept” wyższych samoorganizacyjnych
kroków, rozwinęło się w te „pędy”, jakimi są bezkręgowce, kręgowce itp. Regresy
odbywały się wtedy również, bo bakterie albo przeżywają, albo giną, natomiast ssak
lądowy przez „regresję” może np. wrócić do oceanu jako (powiedzmy) foka czy
delfin. Generalnie jednak specjalizacja prowadzi wzwyż, lecz zarazem likwiduje
szansę maksymalnej odmiany paradygmatu. Jak życie „gra w ryby”, to już nie może
„zagrać zarazem’” w owady, a jak gra w owady, to nie może „grać w ssaki”. To
znaczy, że „komputer życia” sam sobie wynajduje kolejne programy (w radiacjach
specjacyjnych), a jeżeli w pewnych rozgałęzieniach przegrywa (gady przegrały wszak
65 min lat temu), inna gałąź paradygmatyczna podejmuje kontynuację GRY O
PRZEZYWANIE. Wszelako programy — rzędy, typy, gatunki — powstają ślepo. Ale
pozyskują rosnącą orientację dzięki specjalizacjom: — więcej dziś nie wiemy.

128
Model ewolucji

1
W poprzednim artykule (Ewolucja jako paralelny komputer) sugerowałem próbę
przyrównania ewolucji życia do powstania takich najprostszych replikatorów, które
można by uznać za „minimalne komputery równoległe”, zdolne wyłącznie do zrazu
błędnego, a z upływem czasu, dzięki doborowi naturalnemu, do coraz mniej
podległego błędom procesu reprodukcji samych siebie. O tym, czy takie podejście
może w ogóle mieć jakiś sens, a jeszcze — dobry sens, pragnę porozmawiać obecnie.

2
W trzydziestych latach naszego kończącego się stulecia dość modne bywały
dysputy ewolucjonistów spod znaku Darwina z kreacjonistami, którzy
niewyobrażalność powstania życia, organizmów, roślin, zwierząt z ich nad wszelki
wyraz złożoną i precyzyjną dynamicznie budową uznawali za kryterium w pełni
dostateczne, ażeby naturalną ewolucję, wyzbytą zewnętrznych sił sprawczych, więc
„pomocników”, a nawet „kreatorów”, czy to naturalnych czy transcendentnych,
uważali za niemożliwość. Znajdowali jednak przeciwników w takich dyskursach i nie
brakło wśród owych dzielnych darwinistów albo neodarwinistów uczonych
najwyższej — wedle ówczesnego „rankingu” — klasy (np. J. B. S. Haldane). Z reguły
żadnej ze stron nie udawało się w najmniejszej nawet mierze nadszczerbić poglądów
strony przeciwnej — i uważałem wtedy, czytając takie książki (bo owe dyskusje
zamykano w książkach), że trud, jaki brali na siebie ewolucjoniści, był nieposilny,
aczkolwiek zasadniczo zawsze stałem po ich stronie. Moje mniemanie o daremności
diatryb, wymierzanych przeciw ewolucjonizmowi, dałoby się wyrazić całkiem prosto.
Jak teraz wiemy, życie powstało około 4 miliardów lat temu, z tym że powstawanie
KODU genetycznego, jedynej matrycy uniwersalnej dla wszystkiego, co żyjąc
rozmnażać się umie, trwało dobry (pierwszy) miliard lat. W samej zaś rzeczy jest dziś,
tj. w 1995 roku, w którym te słowa piszę, tak że najlepsze naukowe hipotezy potrafią
rozświetlić przebieg wczesnych faz ewolucji (jako dobry przykład wymienić mogę np.
Manfreda Eigena Stufen zum Leben, Piper, 1987), wszelako zagadka, w moim
przeświadczeniu najciemniejsza, rozświetlona nie została. Rzecz w tym, że M. Eigen
(jak inni ewolucjoniści) potrafi dość dokładnie ukazać bieg procesualny ewolucji
najprostszych organizmów (a w uproszczeniach, warunkowanych niedostateczną
mocą obliczeniową i pamięcią dziś najsprawniejszych komputerów ten bieg można
też symulować) — lecz założeniem wyjściowym dla nikogo z nich nie jest „ZERO
ŻYCIA”, lecz stan, w którym co najmniej jakiś „protokod” typu DNA JUŻ działa,
choć nader omylnie (czyli replikuje kiepsko, przez co wydajność jego jest zrazu niska,
ALE już POTRAFI REPLIKOWAĆ). Tymczasem najbardziej zagadkowe pozostaje
to, co się działo w PIERWSZYM MILIARDZIE LAT EWOLUCJI NATURALNEJ:
kiedy ten protokod dopiero zaczynał powstawać dzięki jakimś miliardowym czy
bilionowym próbom i błędom, chociaż zarazem wiemy, że gdyby to miało zajść drogą
CZYSTO losową, to czekalibyśmy na skrzesanie DNA, więc i życia, całą
wieczność…

129
3
Innymi słowy, chcę powiedzieć, że to, co jest dla umysłu ludzkiego
niewyobrażalne przez ogrom złożoności, rozłożonej w czasie rzędu wieluset tysięcy
wieków, JEST niewyobrażalne i dlatego ewolucjoniści i ich przeciwnicy niejako z
góry byli zdani — pierwsi, na porażkę, drudzy, na odwołania do sił czy przyczyn na
pewno nie należących do korpusu empirycznie rozumianej nauki. Nie potrafię
przesądzić kwestii, czy jakieś symulacje w jakichś przyszłych superkomputerach, 103
albo 109 razy przewyższające generacje obecnie najlepsze, problemowi podołają
symulacyjnie. Osobiście w to wątpię — dlatego, że jak zostało wykazane, ewolucja
należy do zbioru procesów stochastycznych, czyli uwarunkowanych probabilistycznie,
a nieco dokładniej do tak zwanych procesów Markowa, a raczej pół–markowskich: w
typowym procesie Markowa każdy osiągnięty stan z pewnym prawdopodobieństwem
warunkuje stan (krok) następny: ale łańcuch tych kroków żadnej wstecz sięgającej
pamięci nie ma, natomiast półmarkowski łańcuch ma pamięć, ale dość „słabą”, dość
„rozmytą”, nie sięgającą głęboko w przeszłość. Sam KOD jest przy tym jakby
rodzajem alfabetu i w TYM sensie już ma nieco półmarkowską „pamięć”, że przecież
z żadnego naboru liter poskładanych w zdanie nie można, opierając się na statystyce
ich dystrybucji (ALE NIE NA ZNACZENIU ZDANIA), zrekonstruować takiego
zdania, któreto bieżące poprzedziło, a jednak wiemy, że poprzednie zdanie było
napisane tym samym literowym alfabetem, że nie stanowiło zbioru haczyków, kresek
byle jakich itp. i w tym dopatrujemy się owej słabej pamięci (tożsamości liter, tak jak
tożsamości nukleotydów, możemy dopatrywać się w każdej generacji organizmów,
która teraźniejszą poprzedziła). Niemniej o tym, jak powstał „alfabet kodu” i jak on
sobie „przyporządkował” rozmaite „aparatury pomocnicze” (mRNA, itd. — nie chcę
wchodzić tu w dżunglę nomenklatury biologiczno–genetycznej, ażeby obrazu nie
zaciemnić) — nie wiemy właściwie nadal nic. Mętne i rozbieżne domysły nie są
wiedzą i zastąpić wiedzy nie mogą. Toteż i tego zarazem nie wiemy, czy kod się
poskładał z takim a priori nikłym prawdopodobieństwem sukcesu, jakie równałoby
się kolejnym stu wygranym pierwszej nagrody przez grającego w loterii liczbowej,
czy na odwrót, jakieś nam nie znane „musy” wywodliwe z Praw Natury „pchały”
proces ku organizacji kodu. Sądząc wedle rozmiarów czasu, w jakim kod się wylągł,
prawdopodobieństwo jego powstania znaczne być NIE mogło, ale to, czego nie
wiemy, nie powinno być z lekkiej ręki i zbytniej naiwności przesądzane.

4
Zanim powrócę do pytania o przydatność modelową komputera równoległego jako
bazy wyjściowej ewolucji najprostszych organizmów, zaczerpnę z innej beczki, ale
zapewniam, że do kwestii patronującej tym słowom wrócimy. Z dawien dawna
człowiek, konstytuując krok po kroku swoją wiedzę o wszystkim, co nie jest mu dane
wprost i łatwo naocznie, w elementarnym jak krzesanie ognia doświadczeniu
codziennym, poszukiwał MODELI dla zjawisk, które też chciał opanować, to znaczy
zrozumieć ich strukturę i ich budowę. I od tych modeli zwykle zaczynał precyzacje
uzyskiwanej wiedzy. A więc jak już wiedział, że istnieją atomy, przyrównał je do
niepodzielnych kulek niczym piłeczki jakieś, potem zaś, wkraczając eksperymentami
głębiej w atom, widział się zmuszony nieco skomplikować wyjściowy model i sięgnął
po układ słoneczny, tak że na tym następnym etapie atom przypominał już jądro–

130
słońce, wokół którego krążyły jak planety elektrony. Potem samo centralne „ciało
słoneczne” okazało się złożone z cząstek naładowanych elektrycznie i neutralnych,
potem przyszło przywołać jako dodatkowy model FALE, aż powstały z tego fale
eteru; potem się pokazało, że nie ma żadnego „eteru” i fale stały się konstruktami
bardziej, by tak rzec, matematycznego pochodzenia: stały się wszak fałami
prawdopodobieństwa, potem Einstein usiłował jeszcze ratować determinizm i bronić
go, ale nie zwyciężył, zjawiła się porządnie nienaoczna, zrodzona w szkole
kopenhaskiej KOMPLEMENTARNOŚĆ, a potem cząstki „elementarne” przestawały
być po trosze elementarne — i obecnie koncept, że cząstek różnych może być
nieskończenie wiele w zależności od warunków energetycznych okolą, już żadną
herezją nie jest. Ja tu naturalnie nie fizykę chcę upraszczająco wykładać, a tylko
ukazać, jak zawsze poszukujemy modeli, co są najpierw „możliwie naoczne”,
możliwie pojmowalne dla naszych zmysłów, a potem rzeczywistość krokami
nieubłaganych doświadczeń zmusza nas do rezygnacji z tych modeli i u końca (na
razie, boż fizyka nie wypowiedziała ostatniego słowa, którego mym zdaniem nie ma
w ogóle) mamy eksperyment Einsteina–Podolskiego–Rosena, którego sprowadzić do
jakiejkolwiek na modelach naocznościowych demonstrowalnej zrozumiałości
bezmatematycznej już się nie da na pewno. Droga jest ta sama zawsze, od prostoty,
której szukamy w Naturze: Einstein zawarł to poszukiwanie w słowach Raffiniert ist
der Herrgott, aber boshaft ist Er nicht, czyli God is sophisticated but he is not
malicious razem z jego Der Herrgott würfelt nicht aż do Hawkinga, który replikował,
że owszem, Bóg gra w kości i nie daje nam zajrzeć do zawierającego je kubka. Należy
się obawiać, że Hawking ma przeciw Einsteinowi słuszność. Niemniej jest na ogół
tak, że ZMIANY MODELI z prostszych na mniej proste — jakoś nas do „istoty
rzeczy” po trochu przybliżają. I właściwie myśmy poza koncepcją upodobnienia kodu
DNA do literowego alfabetu pism naszych niczego porządniejszego nie wymyślili i
nie znaleźli, odkąd Watson i Crick odkryli spiralę DNA.

5
Teraz mogę już powrócić do rzeczy, na jakiej mi zależało. Nie twierdzę
oczywiście, jakoby powstałe przed trzema miliardami lat praorganizmy zdolne do
jakiej–takiej autoreplikacji BYŁY po prostu równoległym komputerem. Różnice były
już w tym zaraniu olbrzymie. Nasze komputery są digitalne (te zwyciężyły
analogowe), szeregowe, albo równoległe, lecz z tymi ostatnimi największy kłopot
mają ci, co chcą układać dla nich programy. Bodajże w USA w Denver zbudowano
superport lotniczy, z podziemnymi tunelami do przesyłania, sortowania i adresowania
bagaży pasażerów, a jeden superprogram miał to wszystko razem bezbłędnie robić, po
czym okazało się, że szwankuje, bo gdzieś tkwią w programie przez omylnych
programistów pochowane złe szlaki i szamotali się z tym programem, zmuszeni do
prastarej metody ręcznego działania przy sortowaniu bagaży itd. (tam szło i o
rezerwacje biletów i moc innych usług). Programy szeregowo (iteracyjnie) pracujące
nie mają łatwo dającej się wkomponować sprawności autokorekcyjnej. Natomiast
naturalna ewolucja działa inaczej. Po pierwsze, kontrolnych instancji jest w niej wiele
(zwykła jest redundancja kontroli). Po wtóre, nie są jej programy ani digitalne, ani
analogowe, lecz „mieszane” jako współwspierające się i nazwać by można je
„CHEMODIGITALNYMI”, bo „chemo” oznacza właśnie analogowość (hormonową,
seretoninową, acetylocholinową i tam dalej aż po kres najnowszej edycji
Abderhaldena), a „digitalna” dotyczy przede wszystkim elektrycznej
131
(elektrochemicznej właściwie) transmisji sygnałów w ustroju. Tak samo zresztą
hardware nie jest do porządnego oddzielenia od software w ustroju i nie należy
sądzić, Boże uchowaj, że się ewolucja wpakowała tu w jakiś bałagan mieszanych
porządków, ale wolno mniemać, że prawdą jest to, co przed 33 laty w „Sumie
Technologicznej” w głuche wszędy uszy kładłem: ewolucja jest INŻYNIERYJNIE od
nas nieporównanie sprawniejsza i MY OD NIEJ uczyć się powinniśmy. Nauki te już
się obecnie zresztą wszczęły.

6
Ale i te najprostsze organizmy sprzed trzech miliardów lat, powielające same
siebie z niską jeszcze wydajnością wskutek kiepskiej sprawności PRAKODU, nie
były dosłownie „równoległym komputerem”. Podobieństwo w najlepszym razie może
jest takie, jak między atomem — malutkim systemem słoneczno–planetarnym a
atomem dnia dzisiejszej fizyki z kwarkami, barionami i leptonami. Każdy praustrój
był jakby nanokomputerem szykującym się do samopowielenia dzięki energii
przepływu w jego środowisku życiowym i tym samym stanowił jakby malutki
prototyp „maszyny Turinga”, pracującej powoli (żadna maszyna Turinga inaczej, tj.
szybciej, iterować nie może), a dopiero ich planetarne zbiory, o mocy może i
trylionów, pozwoliły niektórym uzyskać („dobór naturalny”, „selekcja”) dość losowo
sprawność lepszą, no i TE zaczynały się lepiej rozmnażać i przeżywały, i to
„minimum sprawności przeżywalnościowej” stanowiło właśnie (może i lichy) model
równoległe pracującego komputera: odbywały się jakby wyścigi na przeżycie… i to
już stanowi cały, główny sens mego przyrównania praustrój owej bazy życia na
planecie do równoległego komputera chemodigitalnego. W poszczególnych niciach
nukleotydowych dochodziło do przeróżnych rekombinacji i znów nie należy, a raczej
nie wolno, pomyśleć sobie, że w niedługi czas z tego nieustającego tasowania
elementów, z których poskładały się replikatory, powstała ekspansywna potencja
kreacyjna. Trzeba było tasowania „praprogramów replikacyjnych” przez dalsze dwa,
dwa i pół miliarda lat aż do kambru: ten nasz „paralelny komputer”, który tak dziwnie
różnił się od budowanych przez nas, że nikt dlań programu nie ułożył, tylko on sam
go sobie sprawił DLATEGO, ZE WSZYSTKO, CO NIE WYGRAŁO W TEN
SPOSÓB, ZGINĘŁO I ŚLADU PO TAMTYCH, WYRZUCONYCH Z GRY
PRZEGRANYCH nie pozostało. A nie pozostało tym bardziej, że te praustroje, co
przeżyły, mogły się szczątkami „nieudaczników–konkurentów” pożywić jako materią
organiczną, i to strawną.

7
Bardzo byłoby ciekawe i warte wyśledzenia dowiedzieć się, w jakiż to sposób, z
jakim prawdopodobieństwem, ta już okrzepła na elementarnym poziomie wegetacji
„autoreplikatornia” wezbrała kreacyjnym potencjałem, dzięki któremu doszło do
kambryjskiej eksplozji życia — przypominam, że około 800 000 000 lat temu. Tak
głoszą znawcy, aleja, dyletant, sądzę, że nie było nagłego skoku (skok, który TRWA
pół miliarda lat, za „nagły” uznany być raczej nie może) — a tylko najpierw, tj. przez
milionolecia, powstawały takie lokalne „ekspansje” ku wielokomórkowości, które
sczezły, ponieważ wkraczały w ślepe rozwojowe uliczki, wyzbyte wszelkiego
przedłużenia jako dalszej prospektywnej potencji stawiania dalszych kroków

132
ewolucyjnych „w górę”, aż w holocenie pojawił się Człowiek…
TEGO, JAK tam było, moim zdaniem, nigdy się nie dowiemy. To jest mniej więcej
takie zadanie, które obrazowo postaram się unaocznić. Miliony ludzi grają w ruletę.
Pół promila wygrywa (reszta traci i kończy w biedzie). Z tego pół promila tworzy się
następny szereg graczy: z nich wygrywa powiedzmy 90 000. Z tych wygrywa TRZECI
raz z kolei 14, a po raz czwarty jeden i pan ów zwie się Homo sapiens sapiens.
Przegranych nie widać i nie słychać, widać tylko tego, co wygrał, chociażby był on
nawet pełen zakusów na własne życie i usiłował wysadzić w powietrze to Monte
Carlo, w którym zdobył fortunę (a przy okazji wykończyć samego siebie). Taki obraz
ludzkości POZWALA naszkicować dzisiaj paleobiologia ewolucyjna… A ponieważ
procesu działającego — jak markowski — wstecz nie można zrekonstruować (on nie
dysponuje bowiem pamięcią o własnych stanach wcześniejszych), to nawet mając
komputery obliczeniowej mocy tryliony razy większej od Supercraya, możemy
najwyżej wytyczyć wstecz wiele różnych szlaków, które BY mogły do końcowej
wygranej doprowadzić, ale ustalić, KTÓRYM ewolucja poruszała się, aby wejść w
finisz antropogenezy, ustalić jednoznacznie nie da się nigdy. Takie jest moje zdanie,
skrzepione matematyką współczesnej teorii prawdopodobieństwa, w jej wielu
ramionach kombinatorycznych, stochastycznych i last but not least w domenie gier,
spokrewnionej z teoriami szlaków skanowania ergodycznego. Zapewne: mogę się
mylić, ale wtedy okazałoby się, że nie ja jeden popełniłem błąd, lecz że całą potężnie
rozgałęzioną probabilistykę razem z teoriami chaosu, fraktali itd. trzeba będzie
zastąpić czymś takim, o czym nikt nie ma dzisiaj zielonego pojęcia.

8
Pozostaje mi odpowiedź na pytanie właściwie nader elementarne: po kiego licha
wyskoczyłem z tym równoległym komputerem jako bazą protokodu i prażycia?
Oczywiście nie tylko dlatego, a nawet bynajmniej nie dlatego, że piszę do magazynu
poświęconego „twardym i miękkim” rzeczom komputerowym. Myślałem po prostu,
że zmiana modelu wyjściowego, zmiana, która zdaje się przynajmniej NIE zakazana,
zmiana, na którą wprowadziły mnie prace uczonych, jak Adelman, dowodzące jak
wielkie są skryte nawet w oligonukleotydowych niciach moce obliczeniowe, pozwala
spojrzeć — albo raczej: POZWOLI spojrzeć — na zagadkę biogenezy ziemskiej z
nowej, innej strony. Nawiasem mówiąc, myślę sobie, że ze względu na okropny tłok
ludzki, więc naukowy, więc konceptualny, jaki nam dziś Ziemię obrasta, pomysł mój
przestanie być wyłącznie moim pomysłem, a ci, którzy się do niego na dobre wezmą,
tak samo nie będą mieli najbledszego pojęcia, ze ich jakiś podkrakowski prekursor
troszkę wyprzedził, jak ci, co dziś, fiksując na punkcie CYBERSPACE, pojęcia nie
mają, żem o niej właśnie książkę pisał we wczesnych latach sześćdziesiątych. Zresztą
już wiem, że doganiany jestem w predykcjach także na innych polach: mam nawet na
to dowody i nie sądzę, aby coś niewłaściwego było w ukazaniu ich jako papierów
uwierzytelniających niejaką sensowność mych antycypacyjnych, dawnych wysiłków.
Więc chyba następnym razem napiszę o „sztucznych Uniwersach” zaludnionych przez
symulaty „ludzi”; bo już nie ja i nie tylko w SF tą kwestią się zająłem… dość dawno
temu.

133
134
135
Zagadki

1
Miesięcznik „Znak” poprosił mnie o wzięcie udziału w ankiecie, poświęconej AI,
sztucznej inteligencji, tak, abym udzielił odpowiedzi na trzy pytania: 1. Co jeszcze
będą potrafiły „inteligentne maszyny” w przyszłości? 2. Czy rozwój techniczny, np.
zwiększenie zakresu prac, powoduje konsekwencje natury egzystencjalnej, etycznej,
emocjonalnej? Jeśli tak, to jakie? 3. Co przeszkadza maszynom myśleć i działać jak
ludzie? W pierwszej chwili pomyślałem, że odpowiedzi, jakich mam udzielić, w
objętości 2–3 strony, to mniej więcej tyle, co replika na pytanie, postawione na progu
naszego stulecia, „co będzie można zrobić jeszcze z atomami”, „czy rozwój
techniczny prac nad atomami spowoduje konsekwencje natury egzystencjalnej,
etycznej, emocjonalnej, a jeśli tak, to jakie?” oraz „co przeszkadza atomom objawić
potencje prospektywne, które uznajemy za przeszkody?” Nie wydaje mi się wcale,
żeby zestawienie obu tych triad było zupełnym głupstwem. Nie mówiąc już o tym, że
problematykę AI ogarnia dzisiaj literatura, której nie pomieści byle uniwersytecka
biblioteka, a zarazem jest na pewno niemożliwością, żeby jakiś człowiek studiujący
zagadnienia AI zdołał całość prac, jakie ten temat wywołał, w ciągu życia przeczytać.
Już prędzej przeczytałby od pierwszej do ostatniej strony Wielką Encyklopedię
Brytyjską. Zdecydowałem się jednak odpowiedzieć bardzo zwięźle, czyli
apodyktycznie, ponieważ nie ze wszystkim jest prawdziwe porzekadło Rzymian Si
tacuisses, philosophus mansisses. Czyli, że ten, kto nie otworzy ust, godny będzie
miana filozofa (bo milcząc nim pozostaje). W naszych zwłaszcza czasach
powszechnego zgiełku, wrzawy, potopu informacyjnego ten, kto rozsądnie zachowuje
milczenie, nie filozofem się staje, lecz po prostu nikim. Odpowiedziałem więc, że
maszyny będą mogły „wszystko”, czego nie zakazują Prawa Natury — prawa
podstawowe, stanowiące zrąb naszej współczesnej i przyszłej wiedzy, że KAŻDA
technologia, czy mająca, czy też nie mająca nic wspólnego z konstruowaniem AI,
powoduje konsekwencje natury egzystencjalnej, etycznej, emocjonalnej, i że dopóki
technologia nowa nie okrzepnie i nie zostanie wszechcywilizacyjnie wdrożona,
skuteczna predykcja jej efektów (mniej więcej odpowiadająca terminowi
TECHNOLOGY ASSESSMENT Amerykanów) możliwa nie jest. I wreszcie, po
trzecie, że maszynom przeszkadza myśleć i działać jak ludzie to, że ani budową, ani
funkcjonowaniem nie są z ludźmi (z ludzkimi mózgami) homologiczne. Jest całkiem
inaczej, albowiem ewolucja maszyn (komputerów), o których potocznie mówią, że
zmechanizowały przynajmniej część naszych myślowych procedur, oddala się od
trendu, którym antropogeneza naturalnej ewolucji doprowadziła do tego, że
stanowimy wszyscy bardzo do siebie podobne egzemplarze gatunku homo sapiens
sapiens.

2
Rzecz oczywista, zdawałem sobie, odpowiadając w powyższy sposób, sprawę z
tego, że moje odpowiedzi w istocie rzeczy są UNIKAMI, jako że stanowią dość
banalne, aby nie rzec aż trywialne skróty pewnych oczywistości. Potem jednak
uznałem, że odpowiedzieć na 2–3 stronach bardziej kompetentnie i rzeczowo jest
rzeczą, podobnie jak we wzmiankowanym temacie „atomów”, zupełnie niemożliwą.
136
Jak dotąd, obóz myślicieli i ekspertów, zajętych zagadnieniem AI, dzieli się na dwa
wielkie odłamy przeciwstawne.” jedni sądzą, że AI „da się osiągnąć”, inni natomiast,
że to jest niemożliwe. Przytem w powszechnym poważaniu znajduje się sławny test
Turinga, który w postaci zredukowanej do najważniejszego sedna domaga się, żeby
człowiek jako Egzaminator, prowadząc na dowolne tematy rozmowę z nieznanym mu
interlokutorem, definitywnie określił, czy wymianę informacji prowadzi z drugim
człowiekiem, czy z maszyną. Tutaj od razu wpadamy w swego rodzaju fuzzy set,
„zbiór rozmyty” (ja takiego polskiego tłumaczenia terminu fuzzy set nie lubię, ale już
się w narzeczu fachowców krajowych przyjęło), ponieważ wynik egzaminu
niewątpliwie zależy od kompetencji OBU stron. Już są teraz programy, które znaczną
ilość potencjalnych rozmówców ludzkich potrafią skutecznie omamić (nawet taki w
istocie prymitywny program jak ELIZA profesora Josepha Weizenbauma oszukał jego
sekretarkę). Umiejętności nie tylko w zakresie inteligencji ogólnej (mierzone
powiedzmy, testami Bineta dla ustalenia rozmiarów IQ, ilorazu inteligencji na
gaussowskiej krzywej normalnego rozkładu inteligencji w populacji LUDZI), ale
jeszcze ponadto w obszarze, jakim się eksperci od komputerów, programów i last but
not least AI zajmują, potrzebne są tu jako WIEDZA SPECJALISTYCZNA. Można to
dość grubo przyrównać do sytuacji, w jakiej osoba, wybrana na „egzaminatora”, ma
rozstrzygnąć, czy pewien inny człowiek (inni ludzie) rozmawiając ze sobą i
zachowując się tak jak się ludzie zachowują w konkretnych sytuacjach życiowych, to
jest AKTOR grający rolę nie swej osoby, ale jakiejś fikcyjnej, czy też jest to człowiek,
który nikogo nie udaje, ale po prostu jest samym sobą. Niewątpliwie można w
znacznej mierze przesądzić wynik takiego testu, jeżeli „rozjemcą–sędzią” będzie
osobnik bardzo dobrze wprowadzony w schematy i fabuły utworów scenicznych,
filmowych i teatralnych. Ja nie myślę tu naturalnie o filmach, w których Gajusz
Juliusz Cezar rozmawia z Brutusem po angielsku.

3
Cała powyższa gadanina była mi potrzebna dla wprowadzenia w sprawę
najbardziej istotną. Mianowicie milczące (prawie zawsze) założenie przeprowadzania
testu Turinga brzmi tak mniej więcej: ludzie nie są wszyscy jednakowo inteligentni,
ale jeśli z nie wymagających wyjaśnienia powodów wyłączymy z grona
Egzaminatorów debilów czy innych głupców, to właściwie KAŻDY normalny
człowiek dysponuje takim zasobem wiedzy i tak zwanej „performatywności
językowej”, żeby mógł z programem maszynowym typu AI prowadzić rozmowę,
zwieńczoną „zdemaskowaniem” maszyny, czyli ustaleniem jej „nieludzkiego
charakteru”. To już teraz zaczyna być co nieco wątpliwe. Przytem wyścig na polu
przemysłu komputerowego, który doprowadził ostatnio do tego, że mamy już
procesory typu P 6, które potrafią prześcignąć Pentium, dokonując dwu miliardów
operacji elementarnych na sekundę, wcale nie musi prowadzić nas do przybliżenia
momentu, w którym program oparty na takiej hardware pokona symulacją
KAŻDEGO człowieka. To jest jeszcze z kilku powodów dość daleko przed nami, a
fakt, że nawet Kasparow dostał od maszyny mata, niczego w naszym temacie (AI) nie
przesądza, ponieważ brute force NIE może być skutecznie zastosowana do
naśladowania językowego zachowania normalnej ludzkiej jednostki. Maszyny
niewątpliwie JUŻ nas prześcignęły na wielu polach. Dobry program diagnostyczno–
terapeutyczny, który dysponuje pełnym dziś zbiorem wyników badań „dodatkowych”,
potrafi prześcignąć w celności rozpoznawania przypadłości chorobowych ORAZ
137
ustalenia ich terapii większość lekarzy. To nie jest teza gołosłownie postawiona:
Amerykanie, kochający się w badaniach statystycznych na dużych liczebnie grupach
relewantnych (czyli reprezentatywnych dla ogółu ludzi chorych i zdrowych) wykazali,
że maszyny wykonują ekspertyzy typu medycznego nie gorzej niż dobrzy klinicyści.
Powstały też już próby wprowadzenia maszyn na wokandy jako sędziów itp. Pole tych
działań bezustannie się rozszerza, i ogólnie wolno rzec tylko tyle: cokolwiek z naszej
wiedzy (dziś wynosi ona globalnie około 1015 bitów i ulegnie podwojeniu do roku
2000) da się zalgorytmizować, zbudować na kształt wielodendrytowego drzewa
decyzyjnych alternatyw, cokolwiek nie zawiera sporej ilości antynomii (sprzeczności
logikosemantycznych) — W ZASADZIE może zostać przetworzone w program dla
maszyny, która nie tylko należy do kategorii automatów skończonych, ale ponadto
dysponuje taką mocą obliczeniową, żeby na wynik jej procedury (lekarskiej,
geologicznej, sądowej, astrofizycznej) nie trzeba było czekać 200 lat (co by nastąpiło,
gdyby użyć najprostszej maszyny Turinga…). Jednym słowem jest tak, że choćbyśmy
moc obliczeniową potęgowali w systemach iteracyjnych, jednokrokowych, jakie
dominują dziś na światowym rynku komputerowym, możemy w najlepszym razie
stworzyć rudymenty, makiety „inteligentnego rozmówcy”, ale dorównać mu się tą
drogą nie da. (Byleby miał być, powtarzam, naprawdę inteligentny i rozumny, a jedno
nie jest tym samym, co drugie). Nawiasowo warto dodać, że programy i takich
maszyn można aproksymacyjnie przybliżać do prototypu, który by wygrywał w
licznych pojedynkach Turingowego typu z przeciętnymi rozmówcami, JEŻELI
program będzie uwzględniał kilka własności każdego języka ludzi. Naczelną
własnością jest A) polimorfizm semantyczny, czyli to, że znaczenia słów są oparte na
pojęciach, które się układają w całe gamy różnych sensów, ustalonych kontekstowo,
konsytuacyjnie, konotacyjnie i denotacyjnie — nawet jeżeli nie desygnacyjnie; B)
probabilizm w obrębie logiki wypowiedzi, który udaremnia odwoływanie się do
tertium non datur, czyli że niby zawsze jest ALBO TAK — ALBO NIE. Probabilizm
ten wprowadza nas w nowe logiki nie tylko dwuwartościowe (typu prawda–fałsz), ale
i fuzzy sets i nawet zezwala na używanie oksymoronicznych antynomii. Jeżeli bowiem
— najlepiej użyć przykładu trywialnego, ale prostego — ktoś powie: „Ładna
dziewczyna, ale wciąż się puszcza”, a ktoś odpowie „ładna, ale absolutnie
nieprzystępna”, a to ponieważ po orzeczeniu przyszła negacja, niby to „nic nie
wiadomo”, lecz na ogół większość ludzi poczuje jakieś ślady zwątpienia w doskonałą
niewinność dziewczęcia. Po prostu „tak jesteśmy umysłowo urządzeni” i maszyna,
która miałaby człowieka naśladować, TEŻ musiałaby analogicznie szwankować pod
względem logiki wypowiedzi, musiałaby mieć trudności z „pamięciowym”
wykonywaniem dłuższych obliczeń (choćby prostych arytmetycznie), musiałaby też
popełniać błędy, ponieważ my się właśnie w taki sposób zachowujemy w normie.

4
Każdy, kto przeczytał Probabilistyczny model języka znanego matematyka–
probabilisty Nalimowa, zostanie przez autora przekonany, że maszynie ŁATWIEJ
wygrać test Turinga (w rozmowie z człowiekiem), aniżeli dokonać
pełnowartościowego tłumaczenia tekstu niebanalnego i nienaukowego (np.
filozoficznego, literackiego, a jeszcze może wiersza) z języka na język. A to,
ponieważ gdy patrzeć na tłumaczenia DOBRE przez szkła logicznej semantyki,
widać, że o dosłowności jedno–jednoznacznej nigdy nie ma mowy. Nalimow
twierdzi, a ja za nim, że tłumaczenie jest zawsze interpretacją sensów pojęciowych,
138
stojących ZA poszczególnymi zdaniami tego, co zostało wysłowione w jednym
języku, na to, co ma stanowić odpowiednik w języku innym. To jest właściwie
oczywiste, ponieważ wiemy, że w tym samym języku każdy może się jako tako
porozumieć z innym, tak samo władającym tym językiem (oczywiście nie w tym
rzecz, żeby szło o topologię czy algebrę), natomiast biegła znajomość dwu języków
jest wprawdzie warunkiem dla sprawnego tłumaczenia KONIECZNYM, ale nie jest
warunkiem wystarczającym, nie każdy taki człek zdoła ujawnić sprawność jako
tłumacz — nawet prozy (od źle przełożonych dzieł literatura światowa wprost się roi).

5
Ale i to nie wszystko: to zaledwie prolegomena AL Chodzi o to, że moim
przynajmniej zdaniem osobowość i inteligencja to są sprawności potencjalnie
ROZŁĄCZNE. Możliwy jest rozum bezosobowy i taki próbowałem pokazać w
książce Golem XIV. Sęk mianowicie w tym, że Jaźń” czyli mniej więcej to, co kryje
się za zaimkiem JA, wcale nie jest przecież jakąś jednością (powiadają dla
unaocznienia: nie jest tak, żeby w mózgu naszym mieszkał maleńki człowieczek,
dzierżący cugle naszych wolicjonalnych sprawności, i żeby on się NAZYWAŁ „JA”).
Małe dzieci mówią zwykle o sobie w trzeciej osobie (mały Jaś nie mówi „Ja chcę
banana”, ale raczej „Jaś chce banana”). Świadomość konstruuje osobowość
samonazywającą się JA nie bez mozołu, a w licznych schorzeniach umysłowych typu
psychiatrycznego ORAZ neurologicznego przy uszkodzeniach ośrodkowego układu
nerwowego owo „JA” ulega dziwnym przemianom. Może się powielać
(rozszczepienia osobowości: multipersonality syndrome), co dawniej wykładano w
kręgach spirytystycznych bardzo tajemniczo. Profesor Max Dessoir w latach
trzydziestych opisywał osoby, które, prowadząc z kimś rozmowę zupełnie normalnie,
JEDNOCZEŚNIE potrafiły wypisywać teksty z tą rozmową nic a nic nie mające
wspólnego: osoba taka mniemała, ze jej ręką włada jakiś „spiryt”, powiedzmy —
duch. Możliwe jest też poczucie, że „jaźń” nie znajduje się wewnątrz ciała (głowy),
ale gdzieś „obok”. Możliwe są stany hiponoiczne, hipobuliczne (o nich pisał m.in.
twórca typologii antropologicznej E. Kretschmer) a wniosek z tego w sumie taki:
jeżeli maszyna jakiejś przyszłej generacji będzie dysponowała programem
symulującym inteligencję, to ona powinna też ewentualnie okazać się PODATNA na
dewiacje powyższego typu. Zresztą już znany jest od dość dawna jako PARRY w
USA program tak dobrze imitujący paranoika, że psychiatrzy czystej wody
kwalifikowali go jako „zwykłego chorego na zespół paranoidalny”. Z tego znów
wniosek, że nienormalność ludzką można łatwiej symulować, aniżeli normalność i,
obawiam się, ludzką głupotę (nie jest znów bardzo rzadkim zjawiskiem) łatwiej od
wysokiej inteligencji. DLATEGO w Cyberspace tak trudno dziś spotkać się z
ukształtowanym przez komputer inteligentnym rozmówcą. Zresztą i o tym pisałem w
rozdziale „Fantomologia” „Sumy” w 63 roku.

6
Prace nad AI trwają już około pół wieku i rezultaty pozostają nad wyraz skromne.
Jak wykazują badania amerykańskie, nasz mózg jest układem wielomodułowym, czyli
tworzą go stosunkowo niezależne podzespoły, i tak na przykład mogą one zarówno
dobrze współpracować, jak kolidować czynnościowo. Dlatego powstają pozorne

139
paradoksy: debil może być rachmistrzem konkurującym z elektronicznym liczydłem,
przynajmniej w zakresie arytmetyki, może też ktoś fenomenalnie zapamiętywać w
sposób „fotograficzny” całe stronice tekstu. Zresztą wiadomo, że funkcje, wdrożone
pod kontrolą świadomości, opuszczając ją i obracając się w automatyzmy, bywają
sprawniejsze czynnościowo (co najkrócej wykłada anegdota o stonodze, zapytanej, jak
to jest, że WIE jak poruszać tyloma nogami w ordynku, a ona, zastanowiwszy się, już
kroku zrobić nie może). Tak jest naprawdę, kontrola świadomości skierowana na
pewne automatyzmy, np. recytację poematu, może ją zakłócić, a nawet zastopować. A
z kolei mowy dziecko uczy się bez wprowadzania w gramatykę języka otoczenia, i
wtedy, między drugim i czwartym rokiem może doskonale wyuczyć się dwu, także i
trzech języków „bez nauki”, od zanurzenia we wielojęzykowym środowisku.
Natomiast lokalizacja języków, jakich uczymy się później, jest całkiem odmienna
(„inne moduły” muszą przejść trening i wprowadzenie w składnię, leksykę itp).
Dlatego ktoś, kto podległ uszkodzeniu ośrodków mowy ojczystej, może czasem
porozumiewać się wyłącznie językiem późno wyuczonym, i to takim, którym dość
słabo władał. Z dziećmi, odizolowanymi od środowiska językowego, po jakimś 5–8
roku jest bieda, bo nauczyć się wprawnie „automatyzmów mowy” już nie są zdolne.
Znaczy to, ze mózg jest w znacznej mierze po narodzinach preformowany na tyle, że
dysponuje gotowością zyskania językowej wprawy, a potem mechanizmy neuralne
„czekające” na to ulegają jak gdyby atrofii. Jednym słowem, im lepiej, choć wciąż
mizernie poznajemy mózg, tym jawniejsze stają się różnice względem takich
automatów skończonych, jakimi są komputery WSZYSTKICH generacji. Zagadka
mózgu tkwi w tym, że jego modularność może być zarówno siłą inteligencji ogólnej,
jak jej słabością. W mózgu może trwać potencja, niejako ziarno, i geniuszu i talentu,
zaś dewiacje współpracy modułów mogą być podłożem obłędu. Tunele „ku AI” bić
więc trzeba i od strony technik naszej komputerowej wiedzy, i od strony
neurofizjologii mózgu. Na pisanie o tym, jak mogłyby działać komputery „mieszane”
budulcowo, czyli biotechniczne, w przyszłości, już miejsca mi teraz nie staje.
Prawdopodobniejsze wydaje mi się uruchomienie bezosobowego rozumu niż
inteligencji, zdającej test Turinga na celująco poprzez imitację językowej sprawności
ludzkiej. Zostaliśmy urobieni przez ewolucję, która „wymusza” sprawności
przeżywaniu służące, a nie rozpoznawaniu czy to wewnętrznej dynamiki mózgu, czy
funkcjonowania naszego ciała w jego wnętrzu. Dlatego o galaktykach możemy dziś
więcej się dowiedzieć niż o tym, co „mamy w głowie”, i stąd też tyle zamętu w
filozofiach, wspartych na introspekcji filozofów, bo o błąd tu bardzo łatwo. Nie
wiemy nic o tych „Atlasach” podkorowych, które nie tylko świadomość wspierają, ale
wręcz ją współtworzą i tym samym są agregatami, łącznie pracującymi „na rzecz”
inteligencji, zaś jakość ich współpracy jest kształtowana i przez kanał dziedziczenia
(genami) i przez kanał kultury życiowego środowiska. Komputery mogą być łączone
(jak teraz) w sieciach różnych Internetów, ale choćby połączyć ich miliardy, z tego
mrowia łączy inteligencji wykrzesać się nie da. Inaczej mówiąc: różnice między
mózgiem a komputerami mającymi go dzięki programom naśladować jak były
olbrzymie w epoce Eniaka, takie zostały po dziś. Ale dla przyszłych generacji maszyn
przetwarzających informację wynika z tego akurat tyle, co wynika z niepodobieństwa
ptaka do odrzutowca, albo nawet odrzutowca do „ornitopterów”. Jak wiadomo, i na
Księżyc dolecieliśmy, ale ornitopterów konkurujących z orłem czy samolotem nie ma
w naszym technologicznym rynsztunku. Nie należy więc ani zarzekać się, że AI jest
Już, tuż” przed nami, ani, że jej nie będzie nigdy. Zresztą środowisko cywilizacyjne
samo wciąż „doładowuje się” informacyjnie, tak że człowiek coraz gorzej orientuje

140
się w tych informacją żywionych i poruszanych urządzeniach, które mu służą, które
eksperci dlań skonstruowali… i tym samym wydali na pastwę także destrukcyjnych,
złoczynnych aktów ludzkiej woli.

141
Tajemnica chińskiego pokoju

1
John Searle wzniecił książką Minds, Brains and Programs zawartą zrazu w The
Behauioral and Brain Science, tom III, Cambridge University Press, wydaną w 1980
roku (a więc 15 lat temu), istny popłoch, czy jeśli ktoś woli łagodniejsze określenie,
pełną kontrowersji burzę w środowiskach amerykańskich badaczy Artificial
Intelligence. Ja, zamierzając tu wziąć na stół operacyjny clous jego tekstu — nazwa
odpowiada tytułowi tego eseju — nie przytoczę ok. 28 replik i diatryb, jakimi
środowisko AI w USA usiłowało „unicestwić” wnioski, które wg Searle’a wypływają
z jego książki. Nie chciałbym też szczególnie zrobić wrażenia, jakobym był
mądrzejszy od wszystkich badaczy tego grona na wszystkich (bez mała)
uniwersyteckich ośrodkach, lecz amicus Ploto, sed magis amica veritas. Jeśli
ktokolwiek ujrzy możliwość obalenia mego sekcyjnego wywodu na rzecz Searle’a,
będę zarazem mocno zdziwiony i dosyć zadowolony, ponieważ nie jest wcale rzeczą
wygodną górować nad masą mędrców.
Przechodzę ad rem. Searle chciał dowieść, że możliwe jest doskonałe
naśladowanie ROZUMIENIA tekstu, którego w samej rzeczy człowiek, mający ów
tekst złożyć, w ogóle ani trochę nie rozumie. Uczynił to w pomyślanym
doświadczeniu, które dla większej pewności pojęcia sprawy PRZEZE MNIE dwa razy
czytałem: raz w oryginalnym dziele D. R. Hofstadtera i D. Dennetta The Minds I, a
drugi w dobrym przekładzie niemieckim Einsicht ins Ich (Klett–Cotta Verlag 1981).

2
Rzecz wygląda tak oto. Searle, znający angielski, ale chińskiego za nic, jest
zamknięty w pokoju i dostaje kolejno TRZY paczki kartek, zapisanych znakami
chińskiego pisma. Znaki te w jego oczach NICZYM nie różnią się od steku
najzupełniej dowolnych gryzmołów. Dostawszy paczkę pierwszą, otrzymuje po
angielsku napisane instrukcje, jak ma drugie znaki z drugiej paczki przyporządkować
do znaków paczki pierwszej. Dostaje nareszcie trzecią paczkę stronic, z symbolami
również chińskimi i z angielską instrukcją, która mu umożliwia określone
przyporządkowanie znaków trzeciej kartki do dwu pierwszych. Searle nie wie wcale,
że ten, kto mu dał wszystko, zwie pierwszą paczkę „pismem” (Script, Schrift), drugą
— „Opowieścią”, a trzecią „pytaniami” dotyczącymi tej opowieści. Postępując czysto
formalnie, czyli przypasowując jedne znaki do drugich i do trzecich, uzyskuje już sam
zapis, którego TAKŻE w ogóle nie rozumie. Jednakowoż dla osób chiński język i
pismo znających do pokoju dostała się opowieść, a z pokoju wydostały się sensowne
odpowiedzi na pytania dotyczące treści tejże opowieści, wszystko sensowne i składne;
CHOCIAŻ manipulujący znakami–kartkami człek NIC z chińskiego pisma nie
rozumie i nic nie zna. Z czego ma wynikać, że manipulator w pokoju działa jak
komputerowa hardware, instrukcje zaś angielskie stanowią PROGRAM (software) i
już z tego widać, że można sensownie odpowiadać na chińskie pytania odniesione do
chińskiej opowieści, w ogóle chińskiego nie rozumiejąc, i to ma być model działania
komputera.
Hofstadter, który w ślad za Searlem w swej książce dokładnie „eksperyment” z
chińskim pokojem rekapituluje, opatrzył go zarówno własnymi zastrzeżeniami, jak i
142
streszczeniem najistotniejszych kontrargumentów (przeciw zrównaniu układu „pokój
plus człek plus instrukcje” z komputerową hardware, instrukcji angielskiej z
programem, tj. software), jakie przysłały najwybitniejsze zespoły pracowników
badających szansę AI m. in. z uniwersytetów: Berkeley („systemowa” odpowiedź:
człek sam nic nie rozumie, ale on plus instrukcje plus pokój „rozumie chiński”), z
Yale (odpowiedź obrazuje zajście w stylu „robota”), Massachusetts Institute of
Technology z pomocą Berkeley (replika oparta na symulacji mózgu), Stanford
(kombinowana replika), Yale (próba redukcji ad absurdum: skąd wiadomo, że są
jacyś INNI, co chiński rozumieją? — Z ich zachowania, bo do mózgu nikt im zajrzeć
nie może, więc behawioralnie „pokój” jest równoważny „Chińczykowi”), znów
Berkeley itd. Mnożenie replik byłoby nużące. Hofstadter usiłuje obalić „dowód”
Searle’a ukazany jego „myślowym eksperymentem”, podkreślając, że jak zręczny
prestydigitator kamufluje Searle rzeczywiste trudności, raz, gdyż samo zestawienie
setek i setek symboli chińskich trwałoby może miesiące (po mojemu to nie jest
kontrargument, tylko unik), a raz, podkreślając stronę „sinologiczną”. To jest bardziej
sensowne, ponieważ TYLKO ten, kto NIC o chińszczyźnie nie wie, mimo woli
zakłada, że ona jest językiem budowanym z odrębnych „znaków–klocków”, które ani
deklinacji, ani koniugacji, ani idiomatyki nie posiadają. Ponieważ ja z „pokojem
chińskim” w żaden spór, w żadną dyskusję wejść nie zamierzam, pozwolę sobie
przełożyć cały ten myślowy eksperyment na inny, daleko prostszy, który „tajemnicę”
nieźle zdemaskuje.

3
Bierzemy tak zwany puzzle, który jako składna całość ukazuje jakiś naturalistyczny
obraz albo jakąś fotografię. To może być kopia Rycerza Rembrandta, albo fotografia
wieży Eiffla, wszystko jedno, CO tam widać, byle naturalistyczna oczywistość obrazu
była DANA. Następnie ten obraz rozcina się na takie małe, pokrętne fintifluszki–
kawałki, z jakich zazwyczaj takie igraszki (puzzle) się składają, bacząc wyłącznie na
to, żeby się formą każdy kawałek różnił od każdego na tyle, ażeby ich nie dało się
dopasować w składną całość, zamieniając elementy błędnie miejscami. Na koniec
odwracamy obraz i potrząsamy pudłem, w którym leżą te kawałeczki, aby porządnieje
wymieszać. Potem przychodzi nasz eksperymentator, widzi same „lewe strony” tych
kartonowych kawałeczków i ma z nich złożyć całość taką, ażeby każdy znalazł się
tam, gdzie pasuje. Będzie to nieco pracochłonne, ale możliwe, skoro zamiany miejsc
zostały udaremnione kształtem indywidualnie nadanym tym kawałkom. Jeżeli teraz
odwrócimy całość obrazem do góry, to oczywiście zobaczymy obraz Rembrandta,
Ledę z łabędziem czy też wieżę Eiffla, mimo że ten, kto składał kawałki, nie miał
najbledszego pojęcia o tym, że składa nie bezsensowne kształty w całość obrazu, ale
że odtwarza pewien bardzo wyrazisty, jednoznaczny OBRAZ. Przecież to jest
całkowicie oczywiste i żadnej dodatkowej informacji w ogóle nie wymaga. Zamiast
obrazu może tam się równie dobrze znajdować napis w polskim, w albańskim,
chińskim czy jakimkolwiek innym z istniejących na tej planecie 5000 języków: może
tam pojawić się napis „Kto rano wstaje, temu Pan Bóg daje”, albo „Chłop żywemu nie
przepuści”, albo Ich weiss nicht, was soli es bedeuten, dass ich so traurig bin (Heine,
Lorelei) itd. Wszystko jedno, co się pokaże po odwróceniu lewej strony poskładanych
należycie kawałków na stronę właściwą, tj. „prawą”, ale przecież ewidentne jest, że
ten, kto składał, jak „program komputera”, NIC nie wiedział, czyli nie miał pojęcia,
czyli ani na włos nie rozumiał, CO ukaże się na odwrocie, a nawet nie miał
143
wyobrażenia o tym, ŻE tam się jakakolwiek koherentna całość znacząca pojawi. Czy
to jest argument przeciw mniemaniu, iż komputer mógłby jednak rozumieć podobnie
jak człowiek, co on robi, wykonując kolejne kroki nadane instrukcją? Moim zdaniem,
ma to tyle wspólnego z „obaleniem” tezy o AI, co teza, iż z kremowych ciastek można
ułożyć napis, negujący szansę wybuchu Etny. Jedno za grosz nie ma nic wspólnego z
drugim.

4
Do ataku na Searle’owy eksperyment z chińskim pokojem można by się
oczywiście wziąć inaczej, tj. zamiast przenosić rzecz na ten puzzle, np. postulować,
żeby język i pismo chińskie porzucić na rzecz greki albo hebrajskiego czy arabskiego,
albo łaciny itd. bez końca. Wtedy dopiero im bardziej ten język okaże się chociaż
odrobinę podobny do naszego (powiedzmy rumuński, bo ma alfabet łaciński, albo
cyrylica, bo jest derywatem greki), tym jawniej będzie widać, że PYTANIA
odniesione do OPOWIEŚCI w dość silny sposób te odpowiedzi determinują i gdyby
ktoś (Searle) jednak nadal upierał się przy chińszczyźnie, również mam na niego
sposób. Przy pomocy sinologa, biegle znającego chiński, do pakietu „pytań” dołączę
specyficzne: np. opowieść dotyczy znanej bajki z 1001 nocy o Sezamie i skarbach
Sezamu. Pytanie brzmi: jak to może być, że na głos wypowiedzianych słów „Sezamie,
otwórz się” skała się otwiera? Odpowiedzi mogą być różnie dorzeczne. A) Skała się
otwiera, ponieważ opowieść jest BAJKĄ, w której mogą zachodzić zdarzenia, jakie w
zwyczajnej realności już nie mogą zajść. B) Skała się otwiera, ponieważ jest makietą,
zbudowaną w Hollywood w celu nakręcenia odcinka serialu pt. „Opowieści z tysiąca i
jednej nocy”. C) albo: skała jest tworzywem plastikowym, poruszanym ukrytym
motorem elektrycznym, głos zaś aktywizuje specjalne akustyczne czujniki”. I tak dalej
do końca świata. Moim zdaniem odpowiedź PIERWSZA, udzielona w porządku
genologicznym, czyli odwołująca się do naczelnego dla gatunku bajek paradygmatu
(dopuszczalnych „czarów i cudów”), jako NIE–techniczna, jest najbardziej sensowna,
ale skąd wiedzieć, czy ona znajdzie się wśród możliwych do ułożenia „chińskich
replik” w „pokoju”?

5
Możliwe jest też zresztą, żeby wśród pytań znalazły się takie, które „zdemaskują
zasadnicze NIEROZUMIENIE” wszystkich tekstów przez „chiński pokój”, co o tyle
widzę jako dozwolone, ponieważ Johnowi Searle i jego respondentom dziwacznie (w
mych oczach) wydawało się, że tak zwana strong AI, czyli hipoteza możliwości
pokonania testu Turinga przez maszynę, zostaje w ramach „tajemnicy chińskiego
pokoju” załatwiona negatywnie: maszyna, jaką udaje pokój, nic nie rozumie, a mimo
to odpowiada na pytania tak, jakby je rozumiała.
Klucz do TEJ sprawy tkwi w „pakiecie pytań”. Powiedzmy, że bajka do
opowiedzenia po chińsku jest bajką o Lampie Aladyna. Pytania brzmią: „Czy lampa
była elektryczna, na baterie?”, „Czy lampa była naftowa i napełniona naftą, tj. zdolna
dzięki knotowi i zapałkom do zapalenia i dania światła?” Jeżeli są takie pytania, które
A PRIORI wykluczamy jako kierujące na manowce, to o żadnej analogii z testem
Turinga mowy nawet nie ma. Obecnie jako skrótowy, autentyczny i oczywisty
przykład zastosuję argumentum ad hominem, przy czym ten człowiek, to ja. Jestem

144
już bardzo przygłuchy, bez aparatów wetkniętych w oboje uszu prawie nic nie
rozumiem (skoro nie słyszę) z tego, co się do mnie mówi. Jeżeli w piekarni, w której
kupuję pieczywo, obcy człek, rozpoznawszy mnie, bo mnie w telewizji widział,
zwróci się do mnie, ja nie mogę przez wzgląd na całokształt sytuacji sięgać do
guzików płaszcza, potem do kieszeni po pudełko z protezami słuchowymi, lecz
usiłuję z tego, co on mówi do mnie, uchwycić chociaż jedno–dwa słowa. To zwykle
się udaje, a jak nie, to on powtórzy albo powie coś głośniej i nakieruje mnie na
rozmyty, ale może i generalny sens swojej wypowiedzi. Nieporozumienia w
rozmowach z głuchymi często się naturalnie zdarzają, ale nikt wtedy, nawet gdy
nieporozumienie jest 100%, nie sądzi, że mówi do manekina albo do robota z takim
komputerem w czaszce, który „tylko czysto formalnie działa”. Czysto formalnie
działał ten, kto składał tablicę w obraz (puzzle), ten, kto składa niepojęte symbole
chińskie, ale gdy on omyli się, to Chińczyk uzna raczej, że to tylko omyłka, a nie 100–
procentowy brak wszelkiego rozumienia. Zresztą na ogół jest tak, że sens dla
rozumienia współwyznacza konsytuacja i nie myślę, żeby pytający w piekarni pytał
mnie o liczbę gwiazd w mgławicy Andromedy albo o najlepszy przepis na
sporządzenie piernika z migdałami. A ponieważ pytania są „ściskane kierunkowo”
przez tekst opowieści, są zarazem dawane przedustawnie, czyli są probabilistycznie
predeterminowane w obrębie takiego fuzzy set, takiego rozmytego zbioru, który
posiada strzałkę kierunkową orientującą go już a priori w Jakie takie rozumienie”.
Natomiast mąk i zawiłości, wysypanych przed Searlem przez wszystkich mędrców z
uniwersytetów nie jestem w stanie pojąć w ogóle. Niechże Searle, zamiast opisywać
myślowe eksperymenty, miażdżące rzekomy mit o rozumnych komputerach, da się
zamknąć w pokoju, niech mu tam wsuną ten „skrypt” i tę opowieść, ograniczoną
nader skromnie do wersów „Wlazł kotek na płotek i mruga, krótka to piosenka nie
długa” i niech spytają (po chińsku, na kartkach) o rodzaj plota, o rasę kota, o to, czy
jak kot mruga, to ma jakieś specjalne znaczenie, czy raczej mruga ot tak sobie, a po
polsku tylko dla rymu. I niech Searle odpowie jako tako dorzecznie. Ogólnikowe testy
tego rodzaju, nie chwalący się, mogę produkować furami i absolutnie nic z nich nie
wynika. Jak wiadomo, w późnej swej książce o przyszłości opisał Wells przyszłe
wojny powietrzne, w których sterowne balony miałyby rozpruwać sterówce wroga
ostrogami, nie przymierzając jak wojenne fregaty czyniły to ongiś wrażym statkom.
Czy dochodzi teraz do wrogich starć sił powietrznych w czasie wojny? Oczywiście
tak. Czy PO Wellsie powstały wielkie, lżejsze od powietrza machiny latające?
Naturalnie, to były (głównie niemieckie) Zeppeliny. Czy wrogie rozpruwały sobie
ostrogami powłoki? Nigdy, a na pytanie „czemu nie” już się w podobnie lakoniczny
sposób odpowiedzieć nie da. Ludzie parający się AI na razie dowiedzieli się, że trzeba
dla gry w pytania i odpowiedzi stwarzać porządne RAMY (frames) sytuacyjne, ale
wiadomo też z doświadczeń dnia powszedniego, że można pytać kucharkę o to, jak
zasmażkę robi, ale się raczej nie należy spodziewać jej sensownej odpowiedzi na
pytanie, dlaczego w tłokowych silnikach spalinowych nowszych modeli aut nie ma
dwu zaworów (ssania i wydechu), tylko cztery albo chociażby trzy. Nie powie nic, bo
pojęcia nie ma, co z „rozumieniem” albo i „nierozumieniem” gramatyki, idiomatyki,
składni języka nie ma nic wspólnego. Żeby rozumieć wypowiedź, należy uchwycić jej
sens i jej zakres znaczeniowy i last but not least jej desygnatywną orientacją
specyficzną.
Chiński pokój Searle’a, podobnie jak mój puzzle, niczego nie przesądza, niczego
nie klaruje, niczego nie predeterminuje, niczego nie „załatwia” raz na zawsze.
Dodam, co po trosze należy do rzeczy, że w wyróżnionym miejscu mej biblioteki

145
znajduje się pochodząca z roku 1924 książka niemieckiego DOKTORA (ale nie
medycyny), który matematycznie, chemicznie i fizycznie udowodnił w niej zupełną
niemożliwość lotów kosmicznych, a nawet uzyskania przez rakietę napędu zdolnego
pokonać grawitację, żeby mogła wejść na orbitę okołoziemską. Jest to bardzo ładny
dowód „przeprowadzony ściśle formalnymi środkami”. Warto o nim pamiętać
adwersarzom Sztucznej Inteligencji. Głównym zarzutem przeciw memu sprowadzeniu
„tajemnicy chińskiego pokoju” do składanki typu puzzle byłoby nadmierne
uproszczenie sprawy. Teraz ją więc skomplikuję. Nie obraz znajduje się na awersie
puzzle’a, lecz te wersy Otella, które mówią, jak zadusił on Desdemonę. Składający
kawałeczki nic o tym nie wie. Dostaje dwie paczki innych kawałków jako „pytania” i
jako „odpowiedzi na pytania”. Wszystkie widzi tylko jako porozsypywane bezładnie
fragmenciki tektury i ma złożyć z nich całości dzięki temu, że ich ząbki, wcięcia i
wycięcia pasują do siebie w sposób jedno–jednoznaczny. Po odwróceniu owych
trzech składanek widać, ze pytania brzmiały „Dlaczego Otello dusi Desdemonę?” oraz
„Czy miał po temu jakąkolwiek rację?”, odpowiedzi zaś, odpowiednio „Dusi ją z
zazdrości” oraz „Został wprowadzony w błąd przez Jagona”. Całość tekstu, pytań i
odpowiedzi, ma być złożona z wyrazów ANGIELSKICH, zaś składający jest
Chińczykiem, który ani słowa po angielsku nie zna, a jednak, dzięki czysto
formalnemu postępowaniu (układaniu łamigłówki) uzyskuje zborny tekst, zborne
pytania i adekwatne na nie odpowiedzi. Uprzednio Searle zamącił co nieco w głowach
tym, którym swój eksperyment opisał, bo to „chińszczyzna” itp. Teraz widać, że
istotnie możliwe jest przy postępowaniu czysto formalnym (też składa się kawałki
wedle ich FORMY, a nie ich sensu) dokonanie eksperymentu. Wszelako jednocześnie
widać, tym razem już bardzo wyraźnie, że Chińczyk w „angielskim pokoju” istotnie
NIC nie rozumie. Więc KTO rozumie teksty w OBU wypadkach, Searle’a i moim?
Oczywiście ten, kto cały eksperyment — tak pierwszy, jak drugi — wymyślił, ułożył i
zaprogramował. „Rozumienie” nie znajduje się w żadnym pokoju, ani w tym
„chińskim” z Anglikiem, ani w tym „angielskim” z Chińczykiem, programy zaś w
obu wypadkach tym się od siebie różnią, że jeden raz przypasowuje się znaki jednego
chińskiego pisma FORMALNIE do znaków innego chińskiego pisma, w moim zaś
dopasowuje się FORMALNIE kształty wycinków tektury. Różnica jest bezistotna, bo
istotne jest wyłącznie postępowanie układającego, który tu i tam nic nie rozumie z
tekstu i nie jest ważne, czy widzi tekst, ale nie rozumie go, nie znając chińskiego, czy
raczej tekstu nie widzi (Chińczyk), ponieważ jakby go widział, TOBY TEŻ NIE
ZROZUMIAŁ, skoro ma zespalać formy, a nie symbole. Eksperyment, mówiąc
krótko, wyprowadza nas w pole, przy czym Hofstadter w swej książce TEŻ tak
uważa, ale niepotrzebnie wyjaśnienia skomplikował. Nie w tym sęk, że chińskie
pismo do chińskiego pisma byłoby nieporównanie trudniej dopasować (litery PISANE
mogą się dla ignoranta różnić jak graficznie bardzo odmienne litery łacińskie — czy
„f jest tożsame formalnie z „F”?), ale w tym sęk, że robota jest zawsze asemantycznie
formalna. Tak zatem „rozumienie” w samych testach nie uczestniczy w ogóle i a
fortiori nie ma mowy o obecnej „świadomości”. Czy inteligencja sztuczna jest
możliwa, pokaże przyszłość. Z omawianą reductio ad absurdum ta przyszłość NIE
MA NIC WSPÓLNEGO.

146
Hodowla informacji?

1
Koncept widoczny w tytule naszedł mnie we wczesnych latach sześćdziesiątych,
kiedy zabierałem się do pisania „Sumy Technologicznej” i w związku z tym
zagłębiałem się w literaturze poświęconej Darwinowskiej ewolucji naturalnej. To, że
sama ewolucja stanowiła osobliwy rodzaj „hodowli informacji”, usytuowanej w
genach jako matrycach–projektach rozwoju drzewa Linneuszowego, nieraz jako
orzeczenie, sprowadzające ewolucję do jej „sedna” czy „siły napędowej”, po jakimś
czasie obróciło mi się w głowie właśnie w niejaką „odwrotność” znaczenia. Podczas
kiedy, mianowicie, w ewolucji przetrwać może tylko to, co (jako organizmy
określonego gatunku) PRZEZYWA (w „walce o byt”, która ani trochę krwawą walką
być nie musi), pomyślałem, że gdyby udało się zamiast reguły „przeżywa najlepiej
przystosowane do otoczenia” na jej miejsce wprowadzić regułę „przeżywa to, co
najdokładniej WYRAŻA otoczenie”, znaleźlibyśmy się na progu takiej automatyzacji
procesów poznania (epistemy), jakiej procesy, trwające cztery miliardy lat, powołały
do istnienia całą biosferę z człowiekiem na czele. Koncept ów zafrapował mnie tak,
żem ową „hodowlę informacji” wprowadził do podówczas pisanej Summa
Technologiae na prawach osobnego rozdziału. Ale potem, gdy przyszło do
wznowienia tej książki, opadły mnie rozmaite wątpliwości co do szansy
urzeczywistnienia takiej „hodowli” i tym wątpliwościom dałem wyraz w wydaniu
następnym. Jakoż, trzeba wyznać, nie wszystko, co się da pomyśleć jako przyszłe
osiągnięcie, może zostać ziszczone nawet w dali nadchodzących wieków, a to i
tysiącleci. Wprawdzie ewolucja naturalna, jako „hodowla informacji o budowaniu
żywych ustrojów”, wszczęła się i działa bez wątpienia, ma ona taki czynnik
napędowy, osadzony w niej od samego początku, z którego bezgraniczną
kategorycznością NIC innego równać się nie może. Wszak przetrwać i tym samym
przeżyć może to tylko, co nie ginie; gilotyną, usuwającą każdą niedostateczność
organizacji objawów życia, jest śmierć — a jeszcze wiemy dziś, ze mniej więcej 99%
wszystkich gatunków, spłodzonych w miliardoleciach przez ewolucję, uległo
nieodwracalnej zgubie. Te hekatomby poświadczają „bezwzględność” doboru jako
selekcji: co przeżyć nie ma siły, zginąć musi. Jaki jednak czynnik mógłby podobną
sprawność napędową uruchomić w tej wymyślonej przeze mnie „hodowli informacji”,
której byśmy mieli zawdzięczać — niechby w nader odległej przyszłości —
owocowanie o postaci odkryć, wynalazków czy teorii o charakterze empirycznym?
To, co potrafiła wykształtować ewolucja Darwinowska, powstawało setkami tysięcy
lat pod bezwzględnym naporem warunków otoczenia i międzygatunkowej
konkurencji. Cóż by jednak miało zastąpić ten napór w celu zdobycia aktywnej mocy
poznawczej?
Sytuacja nie jest dziś taka sama jak przed trzydziestu kilku laty. Już wówczas
powstałe komputery rozpleniły się, rozrosły, jednocześnie ich „gatunkowa
specjalizacja” biegła równolegle z rozmnażaniem języków programowania. Ostatnim
czasem z komputerów — izolowanych jednostek wyrastać poczęły liczne połączenia
w postaci sieci, które bez wątpienia w latach nadchodzących będą coraz gęściej
oplatać planetę. Jakkolwiek jednak przebiegi informacyjnych ładunków ulegają i
przyspieszeniu, i powieleniu, mowy nie ma wciąż o tym, ażeby w takiej jakiejś
„imitacji sieci nerwowej”, która globalnie się rozrasta, mogła zabłysnąć suwerenność

147
czegoś na kształt świadomości. Inaczej mówiąc to samo, komputery nie są neuronami
ani ich odpowiednikami, łącza sieci nie są aksonami czy dendrytami: to wszystko raz
wzięte trwa w absolutnej bierności, w milczeniu i w podległości ludziom, którzy do
poszczególnych jednostek komputerowych, a przez nie w głąb sieci wprowadzają
programy i sterują nimi wedle ludzkiego życzenia i założenia. A zatem to nie jest
prowadząca ku jakiejkolwiek formie „hodowla informacji”, nieprawdaż? Owszem,
każdy użytkownik sieci byłby fatalnie zaskoczony i niepomiernie zadziwiony, gdyby
się okazało, że światowa sieć sama bez działania aktywnych nadawców–ludzi „ma mu
cokolwiek do zakomunikowania”. To pomysł może dobry dla Fantastyki (Science
Fiction), ale każdy, kto otarł się nieznacznie nawet o informatykę i dynamikę
informacjoprzetwórczą sieci, dobrze wie, że się do niego sieć „nie odezwie”, „nie
zbuntuje”, że się „nie usuwerenni” w żaden sposób: ani w ten, jaki moglibyśmy sobie
wyobrazić, ani w taki, który znajduje się poza granicami naszej wyobraźni. A zatem,
jeszcze raz: czy koncept „hodowli informacji” należy pochować na tym zwalisku
rupieci, na którym spoczęły rozmaite flogistony?

2
Powiedziałbym, ze spieszyć się z takim pochówkiem nie należy Owszem, główny
kierunek rozwojowy informatycznych technologii DZISIAJ nie zmierza, nie celuje w
żadną postać „automatyzacji poznania” jako utworzenia „procesorów
epistemicznych’”, które by cokolwiek zdołały wykoncypować „z własnej inicjatywy”
albo pod naporem „badawczego programu poznawczego”. Nie należy bynajmniej
uważać pomocy, jakiej w bardzo szerokim zakresie udziela komputer i
komputeryzacja poszczególnym gałęziom wiedzy, za „poznawczy przyczółek
informatyczny”, ponieważ to wszystko, czego nam mogą dostarczyć komputery,
dzięki ich mocom obliczeniowym i dzięki digitalnej czy analogowej metodzie
symulacji procesów Natury (toż można dziś symulować przyszłość kosmosu oddaloną
od nas, powiedzmy, o miliardy lat — przy założeniu, że podstawy kosmologii dnia
teraźniejszego są ZASADNE), wynika jako procesy, których dane my, ludzie,
wprowadzamy do programów, i tym samym od jakości danych wejściowych, od
programów, od skuteczności ich rozbiegu, od teorii panujących nad tym wszystkim,
które MY SAMI, a nie komputery, wytworzyliśmy przecież, zależy efektywność
uzyskiwanych rozwiązań czy jako symulatów określonego stanu, czy jako wyniku
takiej „imitologicznej” (jak pisałem w 1963 roku) a teraz — symulacyjnej pracy–gry,
w której powstaje np. projekt nowego samolotu, budowli, rakiety, systemu
napędowego, broni, molekularnych związków, genów dziedziczności itp. A zatem
komputery to nasze narzędzia, a przecież od narzędzi nie oczekujemy twórczego
owocowania — gdzież miałoby tu powstać miejsce dla jakowejś „hodowli
informacji”, w której żniwa oznaczałyby zyskanie takiej wiedzy o dowolnych
zjawiskach świata czy realnego, czy tylko budowanego matematycznie, której nie
oczekiwaliśmy: można to bodaj wyrazić lepiej. Mianowicie tak, że komputery
dowolnej mocy to są twory zrodzone przez otoczenie, złożone z LUDZI,
projektantów, von Neumannów, Turingów, Shannonów. To otoczenie utworzyło
komputery, to ludzie otoczenia zawiadują nimi także w ich architekturze (hardware) i
programowaniu procesualnym (software), więc w pewnym sensie jest na odwrót
aniżeli w naturalnej ewolucji! W niej bowiem najpierw powstały pierwociny życia na
Ziemi ledwie stygnącej, w atmosferze jeszcze beztlenowej i olbrzymim pospólnym
trudem tych pierwocin życia uległo otoczenie powierzchni Ziemi, jej wód i jej
148
atmosfery, przekształceniu takiemu, że około osiemset milionów lat temu, w kambrze,
doszło do prawdziwej erupcji rozmnożonej gatunków. Więc życie wpłynęło na
otoczenie, uczyniło je systemem rozmaitych NISZ, natomiast z komputerami było na
odwrót: ani „same się nie rozmnożyły”, ani żadna iskra „własnej MOTYWACJI
postępowania” się w nich nie wylęgła. Tak powoli i wyraźnie staram się pokazać tę
fundamentalną różnicę, ponieważ nie brak dziś ochoty do upodobniania mózgów do
komputerów, sieci (typu np. Internetu) do sieci neuronowych powstałych w
organizmach i tak dalej. Otóż widać, że jak dotąd — nie tędy droga do „hodowli
informacji”.

3
A którędy? Myślę, że do wejścia na taką drogę jeszcze jest bardzo daleko i inaczej
aniżeli za pośrednictwem zuchwalstwa wyobraźni prospektywnej potencji dalszego
rozwoju, dalszej ewolucji „sztucznego myślenia” ukazać nie można. Myślę, że te
procesory mogą pojawić się w takiej oto kolejności. Najpierw będzie tak, jak już jest:
wprowadzamy w komputerową przestrzeń określone SYMULATY (rakiety, galaktyki,
wirusa) i staramy się dotrzeć, za pośrednictwem PRZETWARZANIA DANYCH
przez komputer, do efektu, na jakim NAM zależy (zrozumiałe, i nie będę się nad tym
rozwodził, że jedną rzeczą będzie poszukiwanie optymalizacji technologicznej
budowy rakiet, a całkiem inną poszukiwanie takich „miejsc” wirusa, które
moglibyśmy terapeutycznie zaatakować).
Jeżeli jednak symulaty „urządzeń” tak rozmaitych jak rakieta, wirus, genom,
system gwiazdowy możemy wprowadzać w przestrzeń procesualną komputerów, to
wydaje się możliwe przyszłe wprowadzanie w nią „urządzeń” coraz bardziej
skomplikowanych… aż na koniec będziemy w komputerach „umieszczali” zawiązki
innych komputerów i ewolucja komputerów będzie się w nich samych (potomnych w
rodzicielskich) rozwijała. Co prawda nie jest teraz łatwo wyobrazić sobie taką
„ewolucję” w sposób konkretny. Po pierwsze, cyberspace przy całym olbrzymim,
ogólnoświatowym i reklamowym rozgłosie, jest (prawdę mówiąc) wciąż w
powijakach, w fazie zalążkowej. Po wtóre, właśnie ze względu na swoisty
prymitywizm tej fazy, programowanie fikcyjnego fragmentu rzeczywistego świata
(nie od razu zaprogramowanie „symulowanego Einsteina”, ale choćby tylko stada
galopujących dinozaurów), które będzie w realnym czasie trwało kilka minut,
wymaga wielotygodniowej, żmudnej roboty programistów. To jest tak, jakbyśmy
chcieli, widząc pierwszy samolot braci Wright, od razu wyobrazić sobie jakiś super
jumbo, przewożący tysiąc pasażerów z kontynentu na kontynent… ale powiększenie i
przyśpieszenie „rozwoju” najniechybniej nastąpi w domenie komputerów, tak jak
nastąpiło w domenie lotnictwa. Siły należy mierzyć na zamiary.

4
„Zanurzenie” projektowych komputerów w cyberspace musi zakładać także
powstanie „wokół nich” — również symulowanego „otoczenia” czy, jeśli wolicie,
„środowiska”. W przeciwnym razie nie wiadomo byłoby skąd, jak i dlaczego
„zawiązkowy komputer” symulowany miałby pozyskać niejaką „motywację”
(„PYCH”), ażeby jął się przekształcać w „potomka” bardziej od samego siebie
błyszczącego sprawnościami! Myślę, że tu może okazać się niezbędna strategia

149
pożyczona u naturalnej ewolucji, a sęk jej tkwi w tym, że ewolucja działa
MASOWO–STATYSTYCZNIE; ponieważ tak działać MUSI. Mus ten wynika z
„okrucieństwa” selekcji i doboru (Jak się nie dostosujesz, jeśli się nie udoskonalisz, to
zginiesz”).
Dlatego panuje taki — w całej przyrodzie ożywionej — zdawałoby się,
marnotrawczy nadmiar przede wszystkim w sferze ROZRODU. Miliardy jajeczek,
miliardy pyłków, miliardy plemników, miliardy wymoczków, miliardy i tryliony —
ponieważ 99% ginie, nie rozpocząwszy procesu embrionalnego czy wzrostu rośliny z
nasienia, a jednak dąb ostatecznie rozrasta się jako gigant, ponieważ jego rodzic tak
szczodrze sypać musiał i rozsiewać żołędzie. Więc TĘ metodę, szczodrego nadmiaru,
którą spotkaliśmy już tam, gdzie programy komputerowe gry w szachy wzięły się „za
bary” z ludźmi — arcymistrzami światowej klasy — tę metodę zapewne przyjdzie
zastosować z cyberspace. A po to, by mogła ona rozpocząć swoje zmagania, musi
dyspozycyjna, dostępna przestrzeń dla symulacji uzyskać odpowiednie rozmiary
kombinatoryczne, logiczne i matematyczne („Pojemność” dla brute force).

5
Już pisałem kiedyś o tym, że w myśli zachowuję się podobnie jak szympans w
eksperymentach psychologa Koehlera: znajduje się w pomieszczeniu, w którym u
sufitu wisi banan, a dookoła są porozrzucane dosyć chaotycznie różne puste skrzynki,
i szympans, jeśli nie jest zbyt głupi, na koniec znajduje rozwiązanie: ustawia skrzynki
na skrzynkach, wdrapuje się na najwyższą i w taki sposób dosięga banana.
Oczywiście samo przemieszczenie projektowej roboty informatycznej z realnej
przestrzeni, w której programują software i zajmują się architekturą procesów inni
specjaliści, w głąb przestrzeni dziś zwanej cyberspace, nie jest jeszcze uwerturą
„hodowli informacji”. Jest najwyżej przemieszczaniem pewnej części roboty
umysłowej ludzi w obszar pseudoumysłowej roboty maszyn. (Zauważmy, że ze
..sztuczną inteligencją” cały ten kierunek bardzo niewiele, jeśli w ogóle cokolwiek,
ma wspólnego). Co dalej? Tutaj już mogę zauważyć, ze podobnie jak szympans
Koehlera, zacząłem ustawiać jedne skrzynki–hipotezy na innych, ale droga ku
pułapowi, na którym przenośnia sadowi mi „hodowlę informacji” wciąż jest jeszcze
daleka. Informacja, użytkowalna jako empirycznie czy choćby tylko logicznie
sporządzone „zrozumienie” pewnego zjawiska, procesu, „rzeczy”, musi zarówno
powstać, chyba w ciżbie mniej lub bardziej niedokształconych, „poronionych”,
potworkowatych „projektów”, jak też ulec takiemu odsianiu, które odpowiadałoby
SELEKCJI na „maksymalną żywotność” w ewolucji naturalnej. Jak zabrać się do
takiego odsiewu — oto pytanie, które jednym zamachem przenosi nas w
najtrudniejszą może strefę naukoznawstwa, w tę, w której gości metanauka z
metateoriami, tam, gdzie rozważa się, jak powstają, jak rozwijają się i jak umierają
teorie naukowe. Już wiemy, dzięki Popperowi, że teorię można obalić w starciu z
przekreślającym ją doświadczeniem, ale nie można jej sprawdzić (zweryfikować) tak,
żeby się nam nie naruszona, niepokalana i „wieczna” ostała jako sama prawda. Więc i
po „hodowli informacji poznawczej” nie będzie się można, jak przypuszczam,
spodziewać jakiejś zupełnie pewnej niezawodności. Prawdopodobnie i ona wesprze
jedynie człowieka: jeszcze jedna innowacyjna pomocnica, w późnej epoce rozwoju
(czy aż samorozwoju, nie wiem) komputerów. A zatem jest — już mówiąc całkiem
ogólnie — tak, że „informacji” jako „czystego destylatu” być nie może. Informacja
zawsze powstaje, krystalizuje się i odsiana jako bardzo podobna do prawdy, zostaje
150
osadzona na nośnikach: są nimi geny u istot żywych, są dyski w komputerach, są
stronice książek, są konfiguracje synaptycznie powiązanych sieci neuronowych (np. w
mózgu). Co prawda, akurat w mózgu mogą też osadzać się jako „memy” (Dawkinsa)
niezliczone brednie, bzdury, głupstwa. Ale to rzecz osobna.

6
Z prostej przyzwoitości (czy z uczciwości) winienem się przyznać, że obraz
przyszłej „hodowli informacji” oczyszczonej, rzecz jasna, z pomyłek i głupstw,
pozostaje bardziej aniżeli nieostry: właściwie nie potrafiłem i nie potrafię orzec, jaki
ma powstać stosunek tej „hodowli” do realnego świata. To znaczy: pierwszy impuls
badawczy, jak dotąd widzę, pochodzi jednak nie z wnętrza cyberspace rodzącego
programy i komputery (następnych rzutów), lecz od opiekunów tego zamkniętego
elektronicznie „świata” imaginującego sobie wysoce koherentne, powikłane ale i
uporządkowane „całości” jakoweś Czyli apelować trzeba i tu znów wciąż do
człowieka jako badacza: jego ciekawość, jego zainteresowania stwarzają tę
MOTYWACJĘ, której także i samoorganizującemu się „pseudomyśleniu
maszynowemu” i na tym etapie wciąż jeszcze brakuje. Aby wyrazić to nieco inaczej:
staram się iść niewielkimi krokami w przyszłość. Na pewno kroki te są dziś mniejsze
niż tamte, stawiane ponad trzydzieści lat temu. Wtedy koncept „hodowli informacji”,
który nawinął mi się jako sui generis inwersja strategii Darwinowskiej ewolucji,
opublikowałem śmiało, ponieważ byłem prawie pewien, że NICZEGO, o czym w
tamtej książce (w „Sumie Technologicznej”) pisałem, nie dożyję. To zaś, że mi się
„fantomatyka” jęła ziszczać u schyłku życia jako „wirtualna rzeczywistość”, to, że
moje zuchwalstwa, ukazujące nadzieje i zagrożenia INŻYNIERII GENETYCZNEJ
również weszły na łamy codziennych gazet, nie tylko nie przydało mi odwagi, ale
wprost przeciwnie, zdumiało, onieśmieliło i uczyniło bardziej ostrożnym w każdej
próbie prognozowania dlatego, ponieważ użytek, jaki ludzie robią z tych osiągnięć,
które przestają być fantazmatami i widmami, jako zakrzepłe w rzeczywistość
dzisiejszego czasu, ten użytek zdaje mi się coraz bardziej podszywany
prymitywizmem taniej rozrywki i rodzonego czy to komercjalizacją, czy dążeniem do
władzy — ZŁA.

151
152
153
Sztuczna nieinteligencja

1
Nie wiem sam, czemu motywem powtarzającym się w moich tekstach Science
Fiction i futorologicznych już od bardzo dawna stały się owady. Mówiąc dokładniej,
nie tyle owady jako stworzenia biologicznie żywe, lecz ich swoiste repliki czy
odpowiedniki sztuczne, konstruowane dla bardzo rozmaitych celów i obdarzane
przeze mnie bardzo rozmaitymi postaciami. W powieści Niezwyciężony pojawiają się
jako „czarny deszcz” czy „czarna chmura” i choć w pojedynkę są mikroskopijne,
łącząc się potrafią wytwarzać olbrzymie energie, którymi przezwyciężają wszystkie
środki bojowe ziemskiego krążownika. Ale to jedynie przykład: nieraz bywało tak, że
pewien koncept, zrazu wymyślony przeze mnie i wprowadzony w fabułę utworu S–F,
potem wprowadzałem do tekstów dyskursywnych, które można by zwać „na poły
fantastycznymi”, a „na poły prognostycznymi”. I tak w 1982 roku napisałem jako
składową część „Biblioteki XXI wieku” utwór pt. Weapon Systems of the XXI
Century, i w tym udającym prognozę tekście natykamy się na następujący opis, który
dosłownie zacytuję (wg polskiego wydania, Wydawnictwo Literackie, Kraków 1986,
bo tekst powstał pierwej jako niemiecki dla Niemców).

2
(…) wielkogabarytowe bronie, jako transportery piechoty, jednostki artyleryjskie,
rakietowe, ciągniki, czołgi ziemne i podwodne, wciąż drożały. Ta ostatnia faza pancernej
gigantomanii militarnej załamała się w połowie stulecia i przeszła w fazę przyśpieszonej
mikrominiaturyzacji pod znakiem sztucznej NIEINTELIGENCJI. Około roku 2040
zapanowało w kręgach informatyków, cyfroników i innych ekspertów zdumienie, jak ich
poprzednicy mogli być przez długi czas tak zaślepieni, per fas et nefas oraz przez brute
force usiłując stworzyć sztuczną inteligencję. Przecież dla olbrzymiej większości zadań,
jakie wykonują ludzie, na 97,8% stanowisk pracy zarówno fizycznej, jak umysłowej,
inteligencja nie jest w ogóle potrzebna. A co jest potrzebne? Dobra orientacja, rutyna,
zręczność, biegłość i zmyślność. Wszystkie te właściwości objawiają owady. Osa z
gatunku Sphex wyszukuje sobie konika polnego, wstrzykuje mu w ganglion nerwowy
truciznę, która go paraliżuje, lecz nie zabija, następnie wykopuje w piasku odpowiednią
norkę, kładzie obok niej swoją ofiarę, wchodzi do norki, aby zbadać, czy jest należycie
przygotowana, a w szczególności, czy nie ma w niej wilgoci albo mrówek, wciąga
świerszcza do środka, umieszcza w nim swe jajko i odlatuje, aby kontynuować ten
proceder, dzięki któremu wykluta z jajeczka gąsienica osy może aż do przemiany w
poczwarkę żywić się świeżym mięsem świerszcza. Osa wykazuje tym samym doskonałą
orientację w wyborze ofiary oraz w zabiegu narkotyczno–chirurgicznym, który winna na
ofierze wykonać, rutynę w sporządzaniu pomieszczenia dla świerszcza, biegłość w
sprawdzaniu, czy to pomieszczenie odpowiada warunkom rozwojowym jej potomstwa,
oraz zmyślność, bez której cała ta seria działań nie mogłaby zostać urzeczywistniona. Osa,
być może, posiada dostateczną ilość nerwowych tkanek, żeby tak samo sprawnie kierować
na przykład samochodem ciężarowym wzdłuż długiej trasy wiodącej z portu do miasta
docelowego, albo żeby sterować transkontynentalną rakietą, a jedynie węzły nerwowe osy
zostały przez naturalną ewolucję zaprogramowane do zupełnie innych celów. Zajmując
się, całkiem niepotrzebnie, daremnymi próbami naśladowania w komputerach funkcji
mózgu ludzkiego, kolejne generacje informatyków oraz profesorów wiedzy komputerowej
(professors of computer science) pomijały z uporczywością godną lepszej sprawy

154
urządzenia od mózgu m i l i o n r a z y p r o s t s z e , a zarazem nadzwyczaj małe i
działające z nadzwyczaj wysoką niezawodnością. Nie ARTIFICIAL INTELLIGENCE; lecz
ARTIFICIAL INSTINCT należało symulować i programować w pierwszej kolejności,
ponieważ instynkty powstały prawie m i l i a r d lat wcześniej od inteligencji, w czym
jasny dowód na to, że są ł a t w i e j s z e do skonstruowania. Wziąwszy się za neurologię
oraz anatomię neuralną zupełnie bezmózgich owadów, specjaliści środka XXI wieku w
niezbyt długim czasie dopięli wspaniałych rezultatów. Ich poprzednicy byli prawdziwie
zaślepieni, skoro nawet nie zważali na to, że owady w rodzaju pszczół, jakoby stworzenia
nader prymitywne, posiadają przecież własny i to dziedziczny j ę z y k , którym sygnalizują
sobie w ulu robotnice miejsca nowo odkrytego pożytku, podając jednocześnie owym
sygnalizacyjno–gestykulacyjno–pantomimicznym językiem: kierunek drogi, czas
niezbędny dla jej pokonania, a nawet względną ilość znalezionego pokarmu. Oczywiście
nie szło o to, żeby powtarzać w martwych elementach typu CHIPS albo CORN osy,
muchy, pająki albo pszczoły, lecz jedynie o ich neuralną anatomię z wbudowanymi
seriami pożądanych zachowań, skierowanych na pożądany i upatrzony cel. W ten sposób
doszło do rewolucji naukowo–technicznej…
Gdy intelektronika wytworzyła już mikrokalkulatory, które były tak małe, że
konkurowały skutecznie wielkością z brzusznymi węzłami komarów i szerszeni, wciąż
jeszcze większość zapaleńców spod znaku ARTIFICIAL INTELLIGENCE komponowała
programy, umożliwiające komputerom prowadzenie głupawych rozmów z niezbyt
rozgarniętymi ludźmi, a najsilniejsze obliczeniowo mamuty i gigantozaury komputerowe
biły już nawet mistrzów szachowych nie dlatego, ze były od nich inteligentniejsze, lecz
tylko dlatego, ponieważ przetwarzały dane miliard razy szybciej na sekundę od Einsteina.

Powyższy cytat wyjąłem z tekstu, który prognozą zupełnie poważną nie był, skoro
kierował całą problematykę „sztucznego instynktu” w stronę jej takich zastosowań
militarnych w nadchodzącym stuleciu, które zastąpią „żywe siły bojowe”.

3
Lecz oto mam przed sobą artykuł o „żywych maszynach” nazwanych
BIOMORFAMI, artykuł napisany przez naukowców z laboratorium w Los Alamos
dla rosyjskiej „Prirody” (numer z kwietnia 1995). Autorom tym, którzy w samej
rzeczy konstruują liczne, insektopodobne, opatrzone „instynktem” biomorfy–
mikroroboty, wydaje się, że oni na tę koncepcję wpadli pierwsi. Cóż robić? Cytat
otwierający niniejszy artykuł wskazuje, że automatyzację instynktów i ich
inkorporację w pseudoowady wymyśliłem trzynaście lat temu. Rzecz jasna, nie
dysponowałem ani komputerami, ani żadnymi pseudoneuronami, ani laboratoriami,
ani zespołem współpracowników: inaczej aniżeli na papierze niczego stworzyć nie
byłem w stanie.
W każdym razie mogę powiedzieć, że właściwie omyliłem się jedynie, przewidując
budowę mikrorobotów opatrzonych „instynktami” DOPIERO gdzieś w połowie XXI
wieku: tymczasem pierwsze kroki postawione zostały już teraz.
Biomorfy (skrót pochodzi od BlOlogical MORPHology) istnieją już w sporej ilości
wariantów — chciałoby się rzec „gatunków” eksperymentalnych. Konstrukcja
prototypów obejmuje trzy części: część mechaniczną, która odpowiada
„perypatetycznemu” układowi kończyn (owada), i są to zazwyczaj „nogi” o
niewielkiej ilości stopni swobody (jak u owadów stawonogów: nie są one na ogół
złożone z elementów giętkich, poza bardzo swoistymi wyjątkami w przyrodzie
żywej). Nogi te zachowują się — mówiąc w uproszczeniu — jak niezależne
zawieszenie łazika: samodzielnie przystosowują swą dynamikę i do terenu, i do
155
położenia nóg pozostałych.
„Neuronowe jądro” odpowiada węzłom nerwowym owadów. „Nogi” są
zaopatrzone w czujniki wewnętrzne i zewnętrzne (zewnętrzne odpowiadają zmysłom
taktylnym, wewnętrzne są odpowiednikami proprioceptorów, które powiadamiają
ośrodek sterujący — u człowieka byłby to mózg — o położeniu ciała względem
kończyn i kończyn względem ciała, dzięki ustalaniu pomiarowego napięcia i ułożenia
poszczególnych grup mięśniowych).
Wzrok i słuch są u najprostszych biomorfów całkiem zbędne. Wtedy ograniczamy
się do sensorów kontaktu i dystansu (u wielu owadów będą to czułki — „wąsy”).
Spójny obraz w trakcie poruszania się, odpowiadający rzeźbie terenu, powstaje dzięki
sprzężeniu zwrotnemu wszystkich obrotowych momentów kończyn (co reguluje
poszczególne napędy) i tak powstaje możliwie najprostszy „obraz zewnętrznego
świata”, synchronizujący sygnały dla silniczków, poruszających nogami.
Wiadomo dzięki teorii układów dynamicznych, że podzespołów maszyny o
charakterystyce nieliniowej zbyt mocno powiązywać ze sobą NIE należy, jeżeli całość
ma okazywać zachowanie o cechach samoorganizacji. Maszyny z Los Alamos z
punktu widzenia układowej całości zachowują się jak słabo sprzężone równoległe
komputery. Dzięki temu można uszkodzić do 80% takiego biomorfa, który mimo to
nadal będzie się usiłował poruszać (co ma odpowiedniki w zachowaniu i budowie
rzeczywistych owadów)!

4
Dotychczas eksperymentowano dwoma podejściami dla przedstawienia w
maszynie świata zewnętrznego. W jednym wariancie obrazu tego świata nie ma w
ogóle: maszyna taka nie obrazuje otoczenia, lecz może się poruszać jak cybernetyczny
„żółw”: od przeszkody do przeszkody — losowo. Przy innym podejściu obraz ulega
zaprogramowaniu, maszyna posiada go w znacznym uszczegółowieniu (mapy), ale
wówczas łatwo o wejście w ślepą uliczkę czy o awarię, jeżeli otoczenie, jako
program, rozmija się z rzeczywistością. Tymczasem behawior biomorfów ukazuje
wiele cech, które jesteśmy gotowi przypisywać nie tylko „zmyślności”, ale nawet
rozumności. Autorzy tych prac podkreślają, że „reguły przeżywania” biomorfów nie
mają nic wspólnego z tak zwanymi „prawami robotyki” Izaaka Asimova („Po
pierwsze, broń człowieka, po drugie, słuchaj człowieka, po trzecie — wykazuj
samozachowawczość”). Jak piszą autorzy: „to dobre dla fantastyki, ale nie dla
maszyn, które winny «przeżywa滄. W Los Alamos ułożono odmienny program
trójkowy: maszyna winna, po pierwsze, „walczyć o byt” (analogia z główną regułą
ewolucji Darwinowskiej), po wtóre, powinna zdobywać więcej energii niż wydatkuje,
i po trzecie — maszyna musi poruszać się samodzielnie.
Pokrótce chodzi o wektory RUCHU, ZDOBYWANIA ENERGII I OBRONY.
Długość każdego z wektorów odpowiada jego potencjałowi działania w danej
dziedzinie.
Amerykańska praca jest dość obszerna. Nie wchodząc w szczegóły techniczne i
sprawy programowania, ograniczę się do wyliczenia niektórych z już zbudowanych
biomorfów: są to turbot, beamant, walkmansolar (żywi się słoneczną energią)
skoczek, triped (trójnóg), biped (dwunóg), spider (pająk), horse (koń), rouer itd.
Powstało ich łącznie już kilkadziesiąt.
Istnieją także biomorfy żyjące „społecznie”. Autorzy podają, ze u końca 1993 roku
w ich „Parku jurajskich robotów” żyło 40 robotów dwunastu różnych gatunków,
156
żywionych słoneczną energią. Można było obserwować łączenie się w grupy, walki,
zbiorowe zmagania z osobnikami szczególnie „agresywnymi”, powstanie hierarchii
dominacji przy poborze energii, lecz nie było śladów działania pospólnego
(zespołowego).
Jednakowoż kooperację uważa się za krok konieczny, osiągalny i wskazany.
Projektowane są „maszyny mikronowe”, kolonie mikronowych maszyn, i wreszcie
„nanomaszyny”, które działałyby wewnątrz komórek żywych organizmów. Niezwykłe
wydaje się to, że ilość elementów neuronowych może być bardzo mała: niekiedy
wystarczą DWA. Okazuje się nawet, że zmniejszenie ilości neuronów w jądrze” może
powiększać wielość zachowań i sprzyja „przeżywaniu”…

5
Całą kreacyjną problematykę tak otwartego i tak nowego obszaru mogę tu
oczywiście tylko zasygnalizować. To, że właśnie taki, nowy, kierunek prac w zakresie
„nierozumnej inteligencji” (albowiem można by przekornie i tym sposobem nazywać
nową orientację prac nad samodzielnymi i samodziałającymi maszynami)
przewidywałem od dawna, wskazuje po prostu na swego rodzaju powszechne
zaślepienie przekonaniem, iż nic nie może być ważniejsze w informatyce
konstrukcyjnej od wyścigu z ludzkim mózgiem. Ponieważ jednak ani rowery nie są
budowane na „wzór strusia”, ani samoloty na wzór ptaków (jako ornitoptery, nad
którymi potrudzono się daremnie w XIX wieku), ani nie udało się wymodelować
rumaka jakimkolwiek „pedypulatorem”, wydawało mi się, że chęć powtórzenia w
materiale elektronicznym mózgu ludzkiego z jego życiem emocjonalnym, z jego
świadomością i podświadomością była zawsze trochę „na wyrost”, a trochę wynikała
z naszego zbyt dobrego mniemania o mózgu ludzkim: że niby nic nie może być ani
INACZEJ rozumne, ani BARDZIEJ rozumne, ani „zmyślnie bezrozumne”, że nikt nie
może w żadnej dziedzinie równać się z człowiekiem ani modelować choćby
niektórych z jego funkcji. Naturalnie nie sądzę, żeby „sztuczny instynkt” miał być
pokrewny mojej „hodowli informacji”‘, o której tu już pisałem. Są to dziedziny
niejako równoległe. Najważniejszym zagadnieniem wydawało mi się zawsze może i
ogólnikowe z konieczności (wywołanej aktualną ignorancją) przewidywanie i
DOSTRZEŻENIE takich obszarów innowacyjnego działania twórczego, które leży
przed nami, które mamy przed nosem (skoro i mucha na nim siada), ale którego nie
jesteśmy w stanie dostrzec. Przekonany jestem, że mikroroboty i ich potomstwo okaże
się obszarem fascynujących dokonań i wielozakresowej specjalizacji. Także, jak
pisałem już, w dziedzinie militarnej. Tam jednak zapuszczałbym się dzisiaj
niechętnie, ponieważ zagrożenia, już niefantastyczne niestety, wychodzą zza grzbietu
nadchodzących lat szybciej, aniżeli możemy się obecnie spodziewać.

6
Na koniec dodam taką uwagę ogólną i ostrzegawczą. Wkraczając na drogę, a
dokładniej mówiąc — zrazu tylko na ścieżkę nowych technologicznych rozwiązań,
stajemy, nie wiedząc o tym z góry, oko w oko z zagrożeniami, o jakich się
prekursorom nawet nie śniło. Dżin energii atomowej, wyzwolony z nukleonów, nie
daje się już na powrót wepchnąć do pierwotnego schronienia. Od robotyki makro– czy
mikrowymiarowej też możemy oczekiwać wielu nieznanych nam usług, ale także

157
wielu nie doświadczonych jeszcze plag.

7
Trzeźwiącemu uskromnieniu tej mojej „owadziej” prognozy, która się zaczęła
urzeczywistniać, winny posłużyć następujące uwagi. Po pierwsze, owady, jak
wszystko, co się składa na żywą przyrodę, nie służą niczemu (chociaż mogą być, jak
np. pszczoły, przez nas wykorzystywane). Lecz najogólniej biorąc, żywe stworzenia
nie mają żadnego celu bytowania poza Darwinowskim: przeżywaniem
najsprawniejszych. Otóż i biomorfy nie są przydatne teraz do czegokolwiek: i one —
to „maszyny do niczego prócz trwania”. Po wtóre, owady rozmnażają się i dzięki
temu utorowały swoją bogatą w gatunki ewolucyjną koleinę. Rzecz jasna, aby się
rozmnażać, trzeba dysponować swoiście zorientowaną złożonością budowy, która
właśnie wśród owadów objawia nadzwyczajną różnorodność jako wieloetapowość
życia (od jajeczka, gąsienicy, poczwarki, przez różne środowiska i metamorfozy, do
dojrzałej postaci, zdolnej do rozplemu). Po biomorfach trudno by czegoś
analogicznego oczekiwać. Najprostszym ich zadaniem mogłaby być walka połączona
z autodestrukcją i dlatego jej poświęciłem tekst, zacytowany na wstępie. Lecz
„motywację”, jako sito selekcyjnie sterujące programem bytowania, możemy w
zasadzie wcielić w programy przyszłych biomorfów, a to oznaczałoby, mówiąc
bardzo skrótowo i poniekąd metaforycznie, „wykroczenie ze wzorca owadów” w
kierunku, jakiego dzisiaj nie potrafimy się jeszcze domyślić, podobnie jak żaden
umysł pozaziemski nie potrafiłby się w erze mezozoicznej „domyślić” współczesnego
człowieka — homo sapiens. Nie było wtedy żadnych przesłanek i żadnych wzorców
jako kierunkowskazów dla takiej prognozy i to samo przychodzi orzec w kwestii
biomorfów. Być może, powstaną formy latające, formy, którymi będzie się mogła
inżynieria entomologiczna posługiwać dla celów, jakich nie znamy, gdyż nie powstały
jeszcze. To, że człowiek nie jest „maszyną do niczego”, skoro wynalazł zasadę
prometejską i faustyczną, pochodzi stąd, że opuściliśmy państwo naturalnej ewolucji i
dzięki rozumowi musimy żyć i przeżywać „na własny rachunek”.
Jest jeszcze dość drobna kwestia warunkująca pytanie, skąd wziął mi się
paradygmat owada jako projektowego przewodnika i dlaczego tylokrotnie do niego
powracałem? Ale na to pytanie nie znam odpowiedzi. Zdaje mi się, że jestem
ostrożniejszy w oczekiwaniach skierowanych ku technologii biomorfów od
naukowców amerykańskich: gdy oni JUŻ mówili o „rozumności”, dającej się
biomorficznej drodze rozwojowej przypisać — ja pozostaję przy „instynkcie”, który
może jednak okazywać w działaniu POZORY nie byle jakiej rozumności. Różnica
między inteligencją i instynktem w tym, że inteligencja może się sami programować i
przeprogramować: instynktom nie jest to dane.

158
159
160
Sztuczny intelekt jako eksperymentalna filozofia
I
1
Dla jasności należy stwierdzić, że nie istnieje ani sztuczny intelekt ani
eksperymentalna filozofia — istnieją jedynie pierwociny, zapowiedzi i wczesne
związki obu. Stanu tego nie zmienia zalew tytułowy prac i książek, zwących się
teoriami i praktycznym zastosowaniem bytów, zwanych HARDWARE i SOFTWARE,
JAKO poszczególnych mniej lub bardziej uniwersalnych reprezentantów (albo
partykularnych tylko modeli) SZTUCZNEGO INTELEKTU (Artificial Intelligence).
Kiedy nawet embriona AI nie było, Simon i Newell nazwali swój program „GPS”:
General Problem Soluer. Takich nazw „na wyrost” rozsądek każe unikać, bo czyż
może przyjść cokolwiek świetniejszego i bardziej uniwersalnego, aniżeli „Ogólny
Rozstrzygacz Wszystkich Problemów”? Nie było go i nadal go nie ma. To samo
można też rzec o eksperymentalnej filozofii, na uwadze mając i to, że to
dwuwyrażenie pachnie oksymoronicznie, ponieważ filozofia „nie zna granic”, czyli
nie tam się kończy, gdzie zaczyna się postawiony przez Karla Poppera mur
falsyfikacji eksperymentalnej. Filozofia wykracza poza wywrotność w
doświadczeniach (empirycznych, nie mentalnych), i to wykracza w najróżniejszych
kierunkach zarówno jako ontologia, nauka o bycie (istnieniu), jak jako epistemologia
(nauka o źródłach prawomocności poznania).

2
Już w tym miejscu winienem wyraźnie oświadczyć, że nie uważam nie tylko
„rozumu ludzkiego” za sprawność kosmicznie jedyną, konieczną i naczelną, ale też
nie uważam całego zbioru szkół filozoficznych Ziemi za wyczerpujący „potencjalny
zbiór możliwych filozofii”. Uważam, że jako istoty rozumne jesteśmy podzbiorem
zbioru takich istot w Kosmosie i to samo naszych filozoficznych systemów dotyczy. Z
powyższym ograniczeniem inaczej aniżeli apodyktycznie dyskutować się nie da. Na
Ziemi istnieje wiele wiar religijnych, podobnie uwikłanych w światopoglądowe
orientacje jak filozofie. Istnieje natomiast jedna tylko nauka ścisła w rozumieniu
przyrodoznawczym i w odróżnieniu od nauk humanistycznych, wewnątrz których
principium falsificationis experimentalis przeważnie zastosować się nie daje. Dla
ścisłości warto dodać, że rozmiary niewywrotnej lub coraz słabiej wywrotnej
dyscypliny przyrodoznawczej są różne. W zależności od punktu widzenia ewolucja
Darwinowska jest albo nie jest w doświadczeniu wywrotna, a fortiori dotyczy to
antropogenezy, lingwogenezy i (powtarzam się) biogenezy. Na pytanie, czy
wyosobniony i umieszczony w fizycznej próżni GENOM (jako „plecionka
nukleotydowa DNA”) pozwala, czy nie pozwala w tym stanie izolacji wprowadzić ze
swej fizykochemicznej struktury GATUNEK ŻYWY, z którego została pobrana, nie
znamy zupełnie pewnej odpowiedzi: ani TAK, ani NIE. Niepewność ta MOŻE zostać
usunięta przez dalsze postępy nauki, chociaż o pewności, że będzie albo tak, albo
owak, mówić dziś trudno.

161
3
Zawłaszczaniu nowego obszaru wiedzy, czyli wkraczaniu w białą plamę naszego
dotychczasowego poznania, towarzyszy przeważnie dość naiwny optymizm, na ogół
problemy przed nami upraszczający i poniekąd redukcyjny. Skłonność do
redukcjonizmu jest jedną z podstawowych cech poznającego umysłu ludzkiego,
naiwnie mówiąc, ponieważ CHCEMY, żeby było tak, jak Einstein orzekał: Raffiniert
ist der Herrgott, aber boshaft ist Er nicht. Nadzieja ta często sprawdzać się jednak nie
chce.

4
Ze względu jednak na ów współczynnik poznania początki badań, którym
zaświtała perspektywa SZTUCZNEGO INTELEKTU jako Ducha w Maszynie, który
posiada Rozum, były pełne optymizmu. Rychło okazało się, że jest niewczesny, a nie
tylko przedwczesny.

5
Zmyślność jest to umiejętność przetwarzania zmysłowych danych,
maksymalizująca szansę przeżywania osobników i ich potomstwa. Rozum jest, jak
sądzę, nabudowaną na tamtej umiejętności animalnej sprawnością, uzdolniąjącą do
wykraczania poza granice minimalnego survival of the fittest: albowiem wykraczamy
poza dane zmysłowe i ich zwierzęcą interpretację, która u człowieka zrodziła
kauzalizm. Kauzalizm był niejako narzucany światu „gdzie się dało” np. jako
animizm: między tańcem o deszcz i opadami deszczu też MIAŁ istnieć stosunek
przyczyny do skutku i ten dynamiczny schemat, pozostając w wielu wiarach
religijnych, z reguły wykracza w skutkach poza świat (w jakiś zaświat, albo w jakąś
metempsychozę lub jeszcze gdzie indziej, tam gdzie np. raki zimują). W XVIII wieku
skrytykował D. Hume „heurystykę kauzalizmu” jako „prawo dostatecznego
uzasadnienia”, o logicznej mocy. Heurystyka ta — sądzono — nie wynika z
doświadczenia. Było tu rozwinięcie poglądów Locke’a, który nie uznawał istnienia
wiedzy a priori. Natomiast Kant sądził, że syntetyczne sądy a priori są możliwe (jako
wrodzone nam). Spór szedł zatem o to, czy nihil est in intellectu, quod prius non
fuerit in sensu czy nie. Moim zdaniem, nie trzeba się koniecznie zajmować teoriami
sztucznego intelektu, lecz raczej porównawczą neurofizjologią zwierząt i ludzi, oraz
ich behawiorem w konsytuacyjnie zbliżonych lub tożsamych środowiskach (niszach),
żeby dostrzec, w jakiej mierze „rozumność” ludzka czy nieludzka jest przez
zewnętrzny świat (także w sensie imprinting) współwarunkowana, ograniczana
(„niemożliwościami”) a zatem kształtowana. Oczywiście Hume, odrzucający zasadę
kauzalizmu jako pojęcia logicznego, miał słuszność. Zresztą XX–wieczną fizyką
wyszliśmy już w pewnym węższym sensie „poza rozum”, ponieważ WIEMY, ALE
NIE ROZUMIEMY np. mechaniki kwantowej, efektów tunelowych w mikroświecie,
oraz „zamiany miejscami” czasu i przestrzeni pod powierzchnią zdarzeń Czarnych
Dziur w Megaświecie.

162
6
W latach dziewięćdziesiątych pojawiły się dwa dość odmienne podejścia do
pytania o strukturę programów komputerowych, zdolnych rozumieć naturalny język.
Jedno podejście opiera się na koncepcjach filozofii lingwistycznej, drugie podejście
pochodzi z hermeneutyki. Zasadnicza idea filozofii lingwistycznej — to analiza
znaczenia słowa drogą jego rozłożenia na elementarne składniki sensu —
„semantyczne”, przy użyciu rachunku logicznego dla wyjawienia znaczenia.
Natomiast hermeneutyk widzi w każdym słowie potencjalną nieskończoność
znaczeń, aktualne zaś znaczenie uzyskuje słowo w konkretnym kontekście. Ten
kontekst likwiduje ową „nieskończoność”. W. Nalimow podchodził nieco podobnie
do rzeczy, wprowadziwszy w swej książce Probabilistyczny model języka formułę
Bayesa, która określa najpierw prawdopodobieństwo OCZEKIWANIA informacji
(słowa), a potem wybiera dla niego z całej rozciągłości „wieloznaczeniowego widma
semantycznego” właściwe sensowne miejsce — dzięki KONTEKSTOWI. Ten
probabilistyczny punkt widzenia uważam za bardzo ważny, ponieważ nasze
„urządzenie do przetwarzania danych”, tj. mózg, działa podobnie. Chyba w tym
miejscu należy utworzyć przerwę filozoficzną dla ustalenia, jak mało i mimo to jak
wiele zarazem wiemy obecnie o pracy naszego mózgu. Ponieważ aktywność
elektryczna i elektrochemiczna stanowi tylko jedną z „fasetek” całości mózgowych
procesów, nie należy sądzić, że model mózgu „z samych elektrycznych, digitalnych
bramek” utworzony, będzie mógł się równać z żywym mózgiem. Nie powiadam, że to
niemożliwe, ale bardzo trudne: niebiologiczne neurony nie potrafią się zachowywać
ani rozwojowo, ani czynnościowo tak, jak biologiczne — których dendryty i aksony
mogą niczym korzonki roślin poruszać się w mózgowiu i nie dam sobie obciąć głowy
za pewność, że one NIE są współorientowane przez jakieś powstające w mózgu
„IZOSEMY”, tj. że one nie są kierowane w swych mających na celu połączenia
ruchach tak, żeby sensy powstawały i/albo się umacniały. Bardzo wiele można się tu
nauczyć dzięki patologicznym objawom, jakie badają neurolog i psycholog. Okazuje
się bowiem, że mózg nasz jest zbudowany „wielokomórkowo”, wieloagregatowo,
modniej — wielomodułowo i że poszczególne moduły dysponują względną
suwerennością. Dzięki temu człowiek o uszkodzonym module barwności tego, co
widzi, poczyna widzieć wszystko jak na czarnobiałym filmie, aktywność zaś
recepcyjna wszystkiego, co postrzegamy, ŻEBY ZROZUMIEĆ, jest gwarantowana
doświadczeniami ZIEMSKIEGO środowiska. Dlatego przed pierwszym lądowaniem
na Księżycu obawiano się w USA, że krajobraz księżycowy może się okazać
„niezrozumiale nieczytelny” dla ludzkiego oka i odpowiednie eksperymenty
wykazywały, że tak może być w pewnych warunkach. Hermeneutyka — zwłaszcza
Heideggerowska — absolutyzuje język, jednocześnie (słusznie) podkreślając, że to,
CO język tworzy, to, CZYM on jest w swoich seansach PODTRZYMYWANY i
wypowiedziowo sterowany, odbywa się POZA świadomością: to niewiedza o naszej
lingwistycznej dynamice generującej. Złożoność mózgu jest oczywiście konsekwencją
struktury genotypowej, lecz zdumiewające nas fakty, w jaki sposób olbrzymia ilość
charakterystycznych drobiazgów ludzkiego behawioru (jak np. sposób trzymania
głowy albo charakter pisma) mogą się dziedziczyć, skoro genowy kanał przekazu
dziedzicznego jest przecież dla takiej masy odtworzeń zbyt wąski. Tłumaczymy dziś,
odwołując się do tego, że wprawdzie płód w okresie „maksymalnego tempa rozwoju”
wytwarza z zawiązków 250 000 neuronów na minutę, to jednak kierowanie ich
strumieniami odbywa się sumarycznie, całościowo i łącznie. Nie może być tak, żeby
163
„każdy neuron za rączkę był prowadzony, gdzie się należy” — to byłoby wykluczone i
my jako modelarze mózgu nie uporamy się z tym zjawiskiem ograniczeni do układów
dowolnej wprawdzie kompleksowości, ALE ZAWSZE DIGITALNYCH, martwych
biologicznie.

7
Podejście hermeneutyczne, które wywodzi się z jednego ramienia współczesnej
filozofii, „wpisuje”, wprowadza słowa w podzbiory uniwersalnych schematów
wyjaśniających. Co prawda tutaj natykamy się już na wielką dziedzinę sporów,
ponieważ wcale nie jest tak, żebyśmy słowami myśleli. Nie myślimy też koniecznie
zdaniami. Myślenie w pewnym zamkniętym (jako fuzzy set) zbiorze możliwości
potrafimy już wymodelować tak, że to się pojawia na „wejściach”, zdobywa sensowny
respons na „wyjściach” — innymi słowy mówiąc to samo, test Turinga już może
zostać „złamany” przez odpowiedni komputer, w dialogu na odpowiedni temat z
odpowiednio dobranym partnerem–człowiekiem. (Gorzej, gdy „rozmawiają” DWA
KOMPUTERY ze sobą: ich ubóstwo „intelektualne” wyjawia się wtedy jawnie i
szybko). „Schematy wyjaśniające” zwą frames w anglosaskich instytutach; chodzi o
pewne wycinki świata, które koniecznie muszą być wyeksplikowane w programie (tj.
opisane explicite). Trzyletnie dziecko już posiada taką „wiedzę skrytą” przed nim
samym, że owe „schematy” są mu zbędne. To jak z językiem ojczystym, którym
włada się, nie znając gramatyki — i z wyuczonym obcym, którego nauka jest żmudna.
A JAK TO JEST zrobione w mózgu, nie wiemy. Wiemy tylko, że i tu do głosu
przychodzi mózgowa wielomodułowość.

8
Obecnie słychać, że wszystkie języki ziemskie, a jest ich grubo ponad 4000,
pochodzą od jednego wspólnego, jakim się 12 000 lat temu praludzie porozumiewali,
a nazwano go NOSTRATIC. Wskazują, jak w wielu językach „prasłowa” pochodzą
od tych kończyn czy ich części, które były w szczególnym użyciu: „Pięść” — pięć
(palców), Faust — fünf, Fist — Five, itp.). A zarazem możemy stwierdzić, jaki
wpływ na powstający język wywierały czynniki fizyczne, np. ziemska grawitacja.
To, co się ciążeniu PRZECIWSTAWIA, jest „dążeniem wzwyż”, „wzniosłością”,
„wyniesieniem”, „podźwignięciem”, „wzlotem”, „wysokością”, natomiast to, co
grawitacji ulega, to „upadek”, „poniżenie”, „staczanie się”, „runięcie”, „uniżoność”:
słowa te, wraz z bezlikiem innych, na pokładzie statku kosmicznego przy braku
ciążenia tracą swój sens, podobnie jak „w górę”, „w dół” itp. Poświadcza to nasze
lingwistyczne (i rozumieniowe)… uzależnienie od powstania i życia na powierzchni
planety. Ciążenia nie trzeba uczyć się z Newtonowskiej fizyki: odruchowo uczy się
jego wszechpanowania każde dziecko, jak każde zwierzę. Takie elementy właśnie
składają się na ogrom „skrytej wiedzy”, którą wchłaniamy żyjąc, nawet jeżeliby
żyjący NIE znalazłszy się wewnątrz ludzkiej społeczności, nie nauczył się żadnego
języka.

9
Zmuszony byłem — i nadal jestem — do omawiania spraw straszliwie rozległych i
164
zawiłych sposobem straszliwie krótkim, prymitywnie upraszczającym. Gdybym miał
tylko wymienić nazwy książek czy prac poświęconych „rozumieniu”, „filozofii
eksperymentalnej” i „sztucznemu intelektowi”, zabrałoby to godziny czasu. Nie ma
ani do sztucznego intelektu, ani do filozofii eksperymentalnej jednej drogi. Jeżeli
nawet uskromnimy się i uznamy, że jesteśmy gatunkiem naczelnym NA NASZEJ
PLANECIE, że jako istoty społeczne utworzyliśmy język, przez własności owej
planety współukształtowany, że w osi przewodniej wszelkich naszych sposobów
myślenia, TAKŻE NIEJĘZYKOWYCH świadomie, także w mowie wewnętrznej nie
wyrażanych, PRZECIE uczestniczą w sposób dla nas niewyczuwalny procesy
pozaświadome, te dynamiczne dźwigary i kształtowniki myśli TAKŻE twórczej, to
zadanie, jakie postawiliśmy sobie — wyprowadzenie „ducha” z człowieka w maszynę
— nie stanie się przez to łatwiejsze. Jedyne, czego już teraz można by się domyślać,
dotyczy nieuniwersalności ludzkiego intelektu w całej Metagalaktyce. Co się tyczy
twórcy intelektu zainstalowanego w mózgu — nukleotydowych łańcuchów genowej
dziedziczności — i tu nie możemy być pewni, że inny rodzaj kodu, inny typ życia,
inny wykwit rozumności jest niemożliwy. Z uwagi na TEN brak danych również
trudno by sobie wyobrazić, ażeby przyszłe modelarstwo zwrócone w stronę inżynierii
ducha w maszynach (o ile i MY jesteśmy maszynami, tyle że żywymi i
probabilistycznymi) udzielić nam mogło wyrazistych odpowiedzi na pytanie o
wyjątkowość czy na odwrót powszechność ziemskiego rodzaju myślenia i rozumnego
działania. Sądzę jednak, że nawet i to nie jest kategorycznie w przyszłości na zawsze
niemożliwe.

10
Rzeczą nie do ominięcia będzie też sprawa tych odmian filozofii, wiary i
światopoglądów, które powstały poza pierścieniem medyteranu, w Azji, ponieważ
tylko tam — w strefach myślenia nieempirycznego podług kanonów naszych nauk
ścisłych — powstały systemy logiki odmienne od naszego pierwotnego i jego
nieuniwersalnością wywołanych logik pochodnych.
Ale ja, który zabieram głos w tylu dziedzinach, w jakich czułem się niepewny, nie
mogę nic powiedzieć o pozaeuropejskich filozofiach, chociaż słyszę i czytam, że one
potrafią wnieść swój wkład w dziedzinie ducha w maszynie. Jest w każdym razie
rzeczą zastanawiającą, dlaczego całe podwójne, roślinno–zwierzęce państwo życia
podtrzymywane jest przez jeden jedyny kod nukleotydowy DNA — natomiast
gatunek, który jako wąska gałąź wychodzi z prymatów i zaludnił cały glob, w
komunikacji językowej rozpadł się lingwistycznie na tysiące i tysiące rozgałęzień.
Wynika to najpewniej z konieczności sztywnego i (praktycznie mówiąc)
bezkontekstowego RYGORU w sferze przekazów generacyjnych — w ewolucji — a
zarazem z nadzwyczajnej plastyczności, wciąż nas zdumiewającej, funkcji mózgu.
Wszystkie moje wyobrażenia o tożsamości dziewięćdziesięciokilkaprocentowej
jednojajowych bliźniaków rozbija przypadek dwóch braci: jeden z nich pozostaje
zupełnie normalny, gdy drugi zapada na schizofrenię, a ta JEST spowodowana
patologicznymi zmianami komunikacji i informacyjnej pracy mózgu.
Jest inny przypadek: chłopiec, któremu na skutek nowotworu trzeba było w całości
usunąć w wieku 6 lat lewą półkulę mózgu, u którego funkcje nie tylko psychiczne,
razem z motoryką i mową, restytuowały się prawie w 99%. Ten regeneracyjno–
odtwórczy potencjał musi zdumiewać tak samo psychologów, jak filozofów i
„inżynierów dusz ludzkich”.
165
11
Zbliżając się do zakończenia tych luźnych uwag, pragnę do J. nich dodać jeszcze
kilka słów. Otóż wydaje mi się, że aczkolwiek na eksperymentalne kroki jeszcze o
wiele za wcześnie, zarazem można uzmysłowić sobie następny problem: czy
inżynieria genetyczna w stadium względem współczesnego potężnie zaawansowanym
rozpozna GRANICE tej wariacyjności budowlano–czynnościowej mózgu, które
wyznaczone są przez dane wyjściowe ludzkich genomów? (Mówiąc w języku
metafor: na pewno MODELE czegokolwiek, co może zostać zbudowane z cegiełek
dziecięcej gry LEGO — w Legolandzie — stanowią zbiór zamknięty i skończony: czy
TO SAMO dotyczy też prospektywnych potencji prac inżynierii cerebromatycznej?)
Obecnie mówi się (to kwestia osobna) już o biomorfach, jako wcielonych
konstruktorsko w mikromaszynki instynktach, reprezentujących „pseudoowady”.
Jak wiadomo, jednym z głównych hamulców rozwoju owadów „wzwyż” konarów
drzewa Linneuszowego jest ich energetyczna bieda. (Wchodzi tu sprawa tchawek i
kilka innych, jak pancerze chitynowe, czyli egzoszkielety). Czy będzie możliwe
konstruowanie takich pseudoowadów, które potrafiłyby łączyć się, aby powiększać
zespołową „rozumność”? Owady nie „poszły tą drogą, gdyż nie była im potrzebna.
(„Nikt się nie drapie, jeśli go nie swędzi” — powiedział Einstein i wynikałoby z tego,
że swędzi nas „świat cały okrutnie”). Jeżeli tak jest, jeżeli nie zniszczymy się agresją i
demograficznym wybuchem, „dodrapiemy się” sztucznego intelektu, który zdoła nam
zaprezentować własny pogląd na świat, na człowieka — i to będzie jego filozofia
eksperymentalna…
II
1
Starałem się nie być stronny w powyższym szkicu, ukazującym obecny stan badań
niejako z wielkiej oddali, lecz oczywiście bezstronność nie jest możliwa, skoro
contradictio in adiecto tytułu ją zdradza. Jeżeli ma być AI drogą ku eksperymentalnej
filozofii, to tym samym pada opcja na rzecz empiryzmu. W starej książce Summa
Technologiae niejako na skrajny wyrost umieściłem wprawdzie rozdział „Wierzenia
elektromózgów”, który to temat tak przed 33 laty, jak dziś pozostaje czczą
zapowiedzią bez śladu spełnień. JEŻELI jednak podstawowe funkcje poznawcze
zdołamy skrzesać w maszynach, pojawienie się w nich informacji o charakterze
„metafizycznym”, „transcendentnym” będzie nieuchronne jako kwestia czasu,
niezbędnego dla powstania takiej generacji maszyn, która dosięgnie nieznanych nam a
priori postaci fideizmu: nie powiadam, że tak być musi, a tylko, że tak być może.

2
Rewelacje hermeneutyki (np. Heideggerowskiej) DZISIAJ przewyższają to, co
stawać się poczyna żmudnym mozołem informatyków programistów, ale sytuacja się
odwróci. Jak kiedyś pisałem, cokolwiek myślimy, jest daleko prostsze od substratu
tego myślenia. Będziemy oczywiście piąć się ku AI „PO” naszym języku naturalnym.
Jest nieprzypadkowe podobieństwo kodu. dziedziczności do języka, chociaż ja
uważałbym raczej za bardziej istotne podobieństwo do partytury symfonicznej na
wielką orkiestrę (komórka jest jeszcze o wiele większą „orkiestrą”). Metafor nie
166
powinniśmy się obawiać, jest to bowiem jedna z najskuteczniejszych broni, ratujących
nam wypowiedzi językowe przed każdym regressus ad infinitum, który wykrył
Goedel. Języki naturalne dają sobie radę z nieusuwalnym defektem goedlowskim,
ponieważ ich niejednoznaczność, rozmycie konotacyjno–denotacyjne oraz
kontyngencje tekstowe pozwalają im neutralizować sprzeczności nie tylko „miękkie”
(semantyczne), ale i „twarde” (logiczne). Stąd można w pewnym przedziale sensów
mówić o tym, że istnieje odwrotna proporcjonalność pomiędzy długością tekstu a jego
zawartością „rozumieniową”. Dlatego ten sam beletrystyczny tekst może być skrajnie
różnie rozumiany (i przez to też oceniany), a granice tej wariacyjności są uzależnione
od zbioru różnorodnych cech (od osobowości lektora po chwilę historyczną), co
niejako samoczynnie tłumaczy nam, dlaczego przekłady maszynowe (tak samo jak
dokonywane przez ludzi) nie są jedno–jednoznaczne, lecz stanowić muszą
INTERPRETACJE tekstu tłumaczonego przy jego „przekładzie” na język
tłumaczenia. Dlatego też miał (ale cząstkową) słuszność Paul Feyerabend ze swoim
hasłem Anything goes przy uruchamianiu postępów naszej wiedzy.

3
Nie wiemy, w jakim stopniu jest filozofia uzależniona od funkcjonalnej organizacji
naszego mózgu. Czy pewna klasa mózgów naprawdę jest zdolna raczej skłaniać się ku
empirii? Czy Kretschmer miał ze swoją kategorycznością szczyptę słuszności?
Czy może powstać „pozaludzki rozum”? Jako twór inżynierii genetycznej, jako
twór innej ewolucji, jako twór konstruktywizmu? Jak można pojąć tę pozaludzkość?
Chyba w tym, co jako informacyjny produkt takiego mózgu okaże się niepojęte dla
całego zbioru mózgów ludzkich. Ale bełkot szaleńca tak samo będzie
niepojmowalny? A więc? Sama wewnątrzgatunkowa wariacyjność jest olbrzymia. Nie
ma tak dobrze, żeby każdy człowiek doszkolony w pełni rozumiał Heideggera czy
Plotyna! Jeżeli filozofowie są wyselekcjonowaną dla „rozumienia filozofii” grupą
mózgów, to nie wszyscy ludzie są równi sobie intelektem, ale czy filozofowie „idą”
na czele? Poważnie w to wątpię, ponieważ i w filozofii (jak w każdej nauce) można
oszukiwać. Rozwój AI nie musi być ekwifinalny z rozwojem biologicznego OUN.
Możliwości stanowią ocean, a my nie mamy porządnego kompasu ani mapy.

167
Rozum i sieć

1
Połączenia, oplatające glob i zdające się prowadzić ku „zjednoczonemu stuleciu
informatycznemu”, te, które wykluwały się jako Internet i podobne łącza, wzbudziły
najpierw wiele entuzjazmu Pana naszych czasów: kapitału w licznych konsorcjach,
centralach rządowo–militarnych, sztabach i last but not least w ośrodkach
badawczych nauki (uniwersytetach na przykład). Zarazem wyglądało na to, i tak to
głosili „prorocy sieci”, że ekonomia zostanie przez sieci zawłaszczona. Błyskawiczne
połączenia miały stworzyć z kuli ziemskiej swego rodzaju jedność (nie dzisiaj jeszcze,
rozumie się), banki, giełdy miały uzyskać możliwość dokonywania transakcji w
okamgnieniu i tym sposobem otwierały się jak gdyby wrota na XXI wiek.

2
Rychło dostrzeżono wszakże co najmniej dwa szkopuły w tej informacyjnej
globalizacji przekazów. Po pierwsze, sieć razem z swoimi węzłami komputerowymi,
a są ich na Ziemi dziesiątki milionów, stanowi system całkowicie bierny i „martwy”,
mniej więcej jak, mówiąc w dużym uproszczeniu, światowe torowiska kolejowe (w
których dworce są niejako uproszczonymi mocno „komputerami” tego systemu). Sana
sieć nie może nic wymyślić, tak samo jak sam system kolejnictwa nie układa
rozkładów jazdy ani nie gwarantuje wysokiej bezawaryjności, jeżeli nie będzie
wsparty innymi, „pozatorowiskowymi” czynnikami. Po drugie, i potąd już
porównanie z siecią kolejową NIE sięga, do Internetu, do komputerów poprzez ich
łącza (albo dzięki dyskietkom, tak czy inaczej „zarażonym” programowaniem, przez
użytkownika komputerów NIEpożądanym i może szkodliwym) można się włamywać
i niejako hasłem tego zagrożenia jest termin WIRUSY. Oto już dziś toczą się na
świecie działania zaczepno–odporne pomiędzy wirusami (twierdzą, że co najmniej
kilkanaście nowych wirusów powstaje codziennie dzięki pilnemu autorstwu
hackerów) i programami antywirusowymi. Rzecz jasna, już doszło do takiej eskalacji
w ogniu tych cichych bitew, ze możliwe jest pojawienie się takiego programu
antywirusowego, który oczyszcza wprawdzie komputery z jednych wirusów, ale
potajemnie niejako wprowadza do nich inne; ze pojawiają się wirusy bardzo
mutabilne (jak wirus biologiczny AIDS, nie przymierzając), które przez „oka sieci”
przedostają się, udając, iż „żadnymi wirusami nie są”. Pojawia się na horyzoncie tych
nasilonych już porządnie zmagań ofensywy z defensywą pytanie, czy chodzi o gry
finitystyczne (z jakowymś końcem, oznaczającym wygraną lub przegraną jednej ze
stron), czy też walka będzie „nieskończona”, bo musi trwać bez widoków na
jednostronne zwycięstwo.

3
Ja się tutaj nie zamierzam zajmować kwestią, po co układa się programy wirusowe
i co się chce za ich pomocą uzyskać. Cele mogą być bardzo różne i całkowicie
rozbieżne: na przykład od „drobnych kantów” dla wyprowadzenia na manowce jakiejś
izolowanej bankowej transakcji, aż po nowo otwierającą się cyberprzestrzeń walk

168
czysto militarnych, czyli bezkrwawych wtargnięć, omamów, fałszywek, oszustw,
wirusowego rażenia całych sieci łączności wroga albo nagle, albo dopiero na dany
sygnał, który zresztą wcale „nadany” być nie musi, wystarczy, aby tkwił zatajony w
sieci przeciwnika, ukryty na przykład w nąjniewinniejszym, długotrwałym
synoptycznym programie z własnym „zegarem”, który uruchomi go w krytycznej fazie
informacyjnego starcia. W silnym związku z powyższym stoi oczywiście dość
drastyczne pytanie, czy cała ta nowożytna koncepcja informacyjna, sieci i jej
globalizacji, niesie z sobą więcej zła aniżeli dobra. Zależy (odpowiedź) dla kogo…
Część motywacji autorów programów wirusowych najoczywiściej jest rzeczowa, daje
się ona wyjaśniać czysto materialnym oczekiwaniem jakichś zysków (np.
finansowych), jakiejś przewagi (gospodarczej, administracyjnej, militarnej), ale druga
część, jak poucza nas o tym zwykła statystyka computer crime, niczemu nie służy w
sensie zdobyczy jakiejkolwiek, ale po prostu stanowić ma „wygraną” hackera (czysta
satysfakcja z tytułu uzyskania władzy destrukcyjnej albo możliwości zgłębienia
skrytych danych, jakichkolwiek tajemnic „przeciwnika”).

4
Obecnie oprócz zwykłych firewalls (murów ogniowych), używa się już
wielokrotnie zaszyfrowanych wejść (input) do komputerów, ale teoria szyfrów i ich
rozłamywania powiada, iż szyfr stuprocentowo pewny to jest taki NOWY, dotychczas
nie znany szyfr, którego się powtórnie NIE będzie używać. Samo ponowne użycie
szyfru kolosalnie wzmaga prawdopodobieństwo jego „rozłamywalności”, a
nieustające tworzenie coraz to nowych „szyfrowych zapór” jest oczywiście raczej
żmudne i wymaga ciągłego POZASIECIOWEGO porozumiewania się nadawców z
adresatami. Można sensownie zauważyć, że większość treści przekazywanych siecią
NIE ma charakteru tajemnic zgoła niesłychanych i ewentualne podsłuchanie tych
treści nieszczęściem być nie musi. Tu jednak wchodzi nam w paradę inny czynnik,
osobny, mianowicie autorskiego COPYRIGHT. Utwory muzyczne, libretta, teksty
językowe czy to z zakresu sztuki, czy nauki mogą być łatwo przechwytywane i
wówczas wykrycie, KTO nadał, nie musi stanowić problemu, natomiast na pytanie o
to, KTO nieprawnie przejął i może wykorzysta, odpowiedzi udzielić można nie
zawsze i z wielkim kłopotem, proporcjonalnym z grubsza do ilości użytkowników
sieci (jeżeli zgubię portmonetkę w prawie pustym parku, odnalezienie będzie
łatwiejsze, niż jeśli to nastąpi na olbrzymim, zatłoczonym dworcu kolejowym).

5
Jak wynika (co prawda nie wprost) z powiedzianego, bodajże naczelną cechą
gwarantującą sprawność i rzetelność sieci jako układu, któremu powierzamy
informację do przekazania, jest UCZCIWOŚĆ wszystkich użytkowników. Przecież
wystarczy, ażeby na wspomnianym dworcu było kilku złodziei, a już szansę
odnalezienia zagubionej rzeczy spadają na łeb na szyję. Otóż gwarantowania
uczciwości użytkowników sieć nie jest w stanie zapewnić. Jest z nią całkiem jak z
zamkiem u drzwi: zamki można mnożyć, ale nie ma takiej ilości najbardziej
wyrafinowanych zamków, która zapewni stuprocentowe bezpieczeństwo przed
włamaniem. Ten cały proces, ataku i obrony, dopiero trwa i rodzi się niejako na
naszych oczach, a powstawanie agencji czy ośrodków, wyspecjalizowanych w

169
układaniu i sprzedaży antywirusowych programów, żywo przypomina wzrost ilości
agencji detektywistycznych czy ochroniarskich, kiedy się przestępczość wzmaga.
„Wojna informatyczna”, na razie raczej przenośna niż literalnie militarna, trwa i
będzie trwać, a jej dalsze koleje trudno dziś przewidywać. Jest tu skryte
niebezpieczeństwo gorsze od mniej lub bardziej lokalnej straty jakiejś firmy czy
banku: oto sama reguła gwarancji autorstwa, tj. COPYRIGHT, staje się coraz łatwiej
podważalna i niektórzy głoszą, iż to właśnie może zdecydować o załamaniu się
jednego z własnościowych filarów kapitalizmu, bo kapitalizm zasadza się wszak na
własności, na prawie do posiadania wyłącznego (wyłącznym posiadaczem nie musi
być osoba prywatna, może być np. cały sztab generalny jakiejś armii), a rynek z jego
prawami podaży i popytu może tylko dzięki temu działać, że NIE wszyscy są
posiadaczami „wszystkiego”. Za komunizmu państwo miało „wszystko”, lud de facto
nie miał nic i tak też doprowadziło to do zapaści ustroju.

6
Do tej pory o braku inteligencji sieci i jej komputerowych węzłów nie padło ani
jedno słowo. Narzekania, rozlegające się tu i tam, że sobie badawcze ośrodki,
uniwersytety jakieś, przekazują obrazy pornograficzne i to jeszcze z zakresu
zakazywanych NAWET tam, gdzie panuje „permisywność” (przyzwolenie), na
przykład z zakresu pedofilii, nie są istotnym procentem całego zespołu treści
mknących korytami Internetu, ale są niewątpliwie budzącym odrazę skandalem. Sieć
nie ma centrum, nie ma ośrodka, nikt nie kontroluje treści przez nią płynących i TO na
pewno jest problemem, który dopiero ulegnie wzmocnieniu w miarę
rozprzestrzeniania się sieci. Najprostszym w zasadzie sposobem czy urządzeniem
kontrolnym wbudowanym w sieć byłby jakowyś odpowiednik inteligencji, czyli po
prostu ROZUMU. (Żeby cenzurować, trzeba rozumieć). Jednakowoż z chwilą, kiedy
padło ostatnie słowo, „zaczynają się schody”. O inteligencję poza umysłem żywym
toczą się batalie od półwiecza, ale oprócz paru prymitywnych programów plus brute
force rosnącej chyżości iteracyjnej, a jeszcze mglistych nadziei, pokładanych niejako
„na wyrost” w równoległych komputerach, co i jak zdobędziemy w XXI wieku, wciąż
nie wiadomo. O tym, aby można za pomocą jakiegoś pseudorozumu odfiltrowywać,
powiedzmy dla przykładu, treści pornograficzne, nie ma mowy, treści te bowiem
silnie uzależnione są od kontekstów i konsytuacji (naga rodząca kobieta to nie jest
przecież „pornografia”, to może być raczej ilustracja wzięta z podręcznika
położnictwa).
Zresztą pornografię, jako mało ważny aspekt dylematów związanych z siecią,
można porzucić. Obecnie ilość ośrodków badawczych i ilość zespołów uczonych
rośnie prawie wykładniczo i to, KTO pierwszy ogłosi jakieś nowe odkrycie, ma
pierwszorzędne znaczenie nie tylko dla komitetu Nagród Nobla, ale też dla przemysłu
(farmaceutycznego dajmy na to) i dla najszerszej publiczności. (Długo trwało w
„przedsieciowej epoce” zmaganie czy zatarg między profesorem Luc Montagner z
Instytutu Pasteura w Paryżu i Amerykaninem Robertem Galio o PRYMAT wykrycia
wirusa AIDS: były po obu stronach zaangażowane instancje rządowe, nie są to więc
byle majaki)
Aby przyspieszać publikacje naukowe, używa się tak zwanych „preprintów”, które
w epoce niemowlęctwa sieci TEŻ stają się już zbyt pomału i leniwie działającymi
posłańcami. Ponadto, jeżeli sieć miałaby być połączona w jedną wielką „pajęczynę”
za pomocą „kollaterali”, ilość przekazywanych informacji stanie się molochem czy
170
lawiną trudną do właściwego adresowania BEZ udziału rozumu (działają tu jego
niedoskonałe, statystycznie pracujące namiastki jako „filary”). Z drugiej czy też
trzeciej strony, JEŻELIBY sieci uzyskały potencjał intelektualny, nastąpiłoby
przyspieszenie realizacji tego, co opisałem w książkach jako taki stan, że środowisko
cywilizacyjne staje się inteligentniejsze od ludzi, żyjących w tej cywilizacji. Kuratela
sieci nad ludźmi nie jest czymś, co nas może pociągać. Wszystko daje się też
przenieść w inne dziedziny, np. patentowanie wynalazków, marek firmowych,
nowych wyrobów itp. Jednym słowem, wraz z siecią pojawia się tyleż bodaj
pozytywów, co negatywów, a ich łączne zbilansowanie nie może się powieść łatwo.

7
Odpowiednio, a fortiori spotęgowane dylematy pojawiają się, kiedy
„cyberprzestrzeń” przestanie być tylko rojeniem i rozrywką oraz tematem dla Science
Fiction. Jednym słowem — bardzo trudno dające się rozgryźć dylematy przynosi nam
postęp technologiczny…

8
Narodzinom nowych gałęzi technologii towarzyszy z jednej strony chór sceptyków,
a z drugiej entuzjastów, i fale te dopiero po pewnym czasie opadają. Sądzę, że w
procesach rozprzestrzeniania się sieci najpóźniej, jeśli w ogóle, pojawi się jako
współpracujący w niej czynnik — ROZUM bądź jego namiastka (zwana „sztuczną
inteligencją”). Gdyby zaś do tego miało dojść, nastąpi niechybnie nasilenie starć
konfliktowych (jako walka o to, kto będzie dysponował „większym sprytem
informatycznym”, powiedzmy). Natomiast musi dojść do wielozakresowego
rozgałęziania się sieci jako zespołów specjalistycznych: czego innego będzie
oczekiwała medycyna, a czegoś innego — fizyka teoretyczna; a najmniej pożądanym
zjawiskiem byłby, dziś dobrze widoczny na światowych rynkach książki,
„informatyczny potop”: sytuacja kiedy źródeł, prac, wiadomości jest zbyt wiele i
wymagana staje się jakaś forma odsiewu, która po prostu ułatwia życie zarówno
„nadawcom”, jak „odbiorcom” kolejnych treści.
Od początku pojawienia się zapowiedzi Internetu odnosiłem wrażenie nieco
dziwacznej jego przedwczesności. Całe zjawisko mieści się wszak pod pojęciem
łączności, a ta, jeżeli w ogóle sprawna, to o tyle, o ile ważkie są przesyłane przez
łącza treści. Z tego, że można milion razy szybciej przekazać treść nowej książki lub
listu na drugą półkulę, nie wynika nic więcej niż z tego, że od mieszania łyżeczką
herbata nie zrobi się słodsza. Potrzeba nam pewnych nowych cywilizacyjnych treści, a
to znaczy przewodnich wartości w różnych dziedzinach życia, i sama sieć nic tu bez
treściowego „wsparcia i wsadów” udoskonalająco tworzyć nie zdoła. Jak sobie
wyobrażałem kolejność „bardziej właściwą” pojawienia się koordynatorów
globalnego działania ludzkiego z ich łącznością na tym miejscu, dlatego nie opowiem,
ponieważ sprawie tej poświęciłem sporo miejsca w napisanej w 1963 roku „Sumie
Technologicznej”.

9
Najwyżej mogę dodać, że dzięki sieci ORAZ projektowanej, a nie ziszczonej na
171
razie interakcyjnej telewizji będziemy mogli stać się świadkami (widzami) zjawisk
równie nieoczekiwanych, jak na przykład przekształcanie się obrazów reklamowych
w telewizji w ich złośliwe i to rozmyślne przeciwieństwo (dosyć wszak, żeby hacker
po totalnej digitalizacji programów wtargnął w program reklamujący na przykład
proszek do prania i „poprawił” go tak, aby wszystkie plamy na białych koszulkach czy
majtkach dziecinnych uległy nieusuwalnemu utrwaleniu, albo też spożycie
reklamowanej zupy wywołało u biesiadników skutki wręcz fatalne natychmiast).
Takie „przeróbki” programów JUŻ obecnie są najzupełniej możliwe, a tylko
analogowy sposób kodowania obrazu i treści udaremnia na razie tego rodzaju
„zabawę”. (Oraz brak sprzężeń zwrotnych widza–odbiorcy z nadajnikiem).

10
W świecie, rozszarpywanym tyloma antagonizmami i konfliktami jak nasz, każdy
nowy czynnik technologiczny, jakkolwiek miałby zostać zaprzężony do rydwanu
wspaniałej cywilizacji, prędzej czy później zostaje obrócony w narzędzie bojowe —
w broń. To się już staje również z komputerową siecią łączności. Pewien paradoks,
towarzyszący owemu zjawisku, sprowadza się do prostej refleksji, że temu, kto
komputerów nie ma, wirusy komputerowe niestraszne, zaś temu, kto się do sieci
Internetu (czy Euronetu) nie podłączy, niegroźne również wszelkie falsyfikaty,
rozmyślnie poprzestawiane programy: jednym słowem, także i technologiczne
zapóźnienie cywilizacyjne ma swoje dodatnie strony… Należy sobie uzmysłowić, że
obecnie, kilka lat przed końcem XX stulecia, rozwojowy poziom sieci wraz z
umiejętnościami użytkowania jej mniej więcej znajdzie się tam, gdzie, mutatis
mutandis, znajdowało się lotnictwo, kiedy pierwsze zeppeliny wzbijały się w
powietrze. Przyszłość dopiero ukaże, czy globalizacja łączności, wyzbyta niestety
globalnej współpracy państw i narodów, przyniesie więcej pożytku aniżeli szkody.

172
Informacja o informacji

1
Ja się już niegdyś głowiłem, poszukując klarownej odpowiedzi na to pytanie:
gdzieś koło roku 1963, gdym pisał „Sumę Technologiczną” i poszukiwałem
odpowiedzi nie tyle na własną rękę (na własny pomyślunek), ile u specjalistów, którzy
temu „odkryciu” dziwacznemu nadali rozgłos i wzięli je w matematyczno–fizyczne
karby. Było ich wielu i całkowitej zgody między nimi nie było: jedni starali się
niejako wszelkie rodzaje informacji scalić, inni natomiast na odwrót wręcz — jak tort
czy jak bibliotekę dzielili ją na domeny (informacja strukturalna, semantyczna itd.).
W głąb sporów ówczesnych wdawać się nie zamierzam. Faktem jest przede
wszystkim, ze się z informacją (z pojęciem informacji) zrobiło coś mniej więcej
takiego, jak z pojęciem grawitacji. Nie wiadomo być może do końca, co to jest, ale
wiadomo, jak się z tym można obchodzić. Ja bym nazwał tę przemianę w niejakim
uproszczeniu uprzemysłowieniem nowego pojęcia. My już o tym, jak można się
„obchodzić” z grawitacją, jak ją mierzyć, gdzie jej szukać, całkiem nieźle wiemy,
chociaż „istoty grawitacji” ujawniać nie można, ponieważ próby zaczynające się od
naiwnego „przyciągania ciał”, a wybiegające w Einsteinowskie zakrzywienia
przestrzeni przez masy (notabene ataki na ogólną teorię relatywistyczną nie ustały) nie
pozwalają nam wcale dotrzeć do jakowejś „istoty ciążenia”. Zresztą przyjęło się w
naukach ścisłych twierdzenie, że one ukazać mogą, co z czym i jak, nie pozwalając
poszukiwać odpowiedzi na pytania o „istotę” czegokolwiek. Mniejsza jednak tutaj o
kłopoty terminologicznego naukoznawstwa. Faktem jest, ze na pytanie, gdzie jest
informacja i jakie ma własności, można odrzec, że jest wszędzie i że może mieć
dowolne własności, niekoniecznie zgodne z prawami Natury (semantyczna informacja
o czarownicy, zamieniającej rycerzy w kamienie NIE da się uzgodnić z żadną wersją
poprawnego fizykalnie predykatu lub ich koniunkcji), ale nigdy „samodzielnie”, to
znaczy, że nie można pokazać „oczyszczonej z przymieszek” (a raczej z nośników)
informacji w probówce, podobnie jak nie można pokazać w ten sposób oddziaływania
mas na czasoprzestrzeń, ani nawet miłości. Ciążenie JEST objawem grawitacji, a
miłość JEST sui generis postacią „przyciągania ciał” (męskich i damskich,
powiedzmy). Ale wyosobnić się informacja nie daje.
To zuchwałe twierdzenie wymaga niewielkiego wywodu.
Jak powszechnie wiadomo, teraz się informację przetwarza, przesyła, lokuje (na
dyskietkach np.), wiadomo, co to są komputery, które bez wprowadzonych
programów TEŻ są informacją, ale niejako zakrzepłą w hardware i przystosowaną do
tego, ażeby przetwarzać informację wprowadzoną, czyli software. To wie każde
dziecko, i pewno ze względu na to mało kto zastanawia się nad tym, czy w ogóle
istnieje coś na kształt informacji „nieoswojonej”, w maszyny nie wprowadzonej,
„wolnej”: można uznać, że tak jest, ale postawić granicę, gdzie się „kończy” sfera
informacji, łatwo nie jest. Nie jestem nawet ze wszystkim pewien, czy takie
ograniczenie jest możliwe, a to by oznaczało dość horrendalne orzeczenie, że
informacją jest WSZYSTKO. Powiedzmy: nie tylko, ale i to, czy nie tylko, zupełnie
pewne nie jest.

173
Głównym zajęciem ludzkości od jej powstania było przetwarzanie informacji w
głowach, dzięki wpływaniu informacji z otoczenia do tych głów i wypróbowywanie,
co z tą mózgowo ewentualnie przekształconą informacją można począć. Techniki
nasze powstały z ewolucji informacyjnej, ale cała biosfera, całe życie na Ziemi (teraz
już okazało się, że ono sięga i istnieje wiele kilometrów pod powierzchnią ziemi: tam,
gdzie nie ma np. tlenu, ale to nie jest tutaj do rzeczy), to też ewolucja informacji,
przebiegająca w gatunkach i rządzona prawidłowościami doboru naturalnego i
selekcji (mutacje są niezbędne w tych procesach, ale to nie więcej niż duże czy małe
korekty jakiegoś manuskryptu). Osobliwością informacji aktywnej biologicznie jest
naturalnie to, że ona, usadowiona na biologicznych nośnikach (nukleotydach, ale teraz
bodajże nie wyłącznie, już pojawiają się jakieś beznukleotydowe „priony”), stanowi
taki dziwny alfabet, który „sam siebie wynalazł”, „sam siebie składa w zdania —
chromosomy i genomy”, a co najważniejsze, sam siebie tak buduje w organizm, jakby
leżące odłogiem kupy piasku i cegieł umiały „same z siebie” zbudować dom. W
przypadku domu potrzebna jest bowiem dodatkowa pomoc informacyjna architektów
i murarzy, dysponujących informacją, jak i co z czym zlepić i poskładać. Za każdym
razem widzimy, że w szeregu zdań mamy „informację”, bez której NIC. Czy to jednak
nie jest dziwaczne i dowolne poszerzenie jej sensu? Ale przecież zapowiadają nam
XXI wiek jako „informatyczny”, przecież już dobrze wiadomo, że jeśli człowiekowi
poprzez zmysły (= poprzez odbiorniki informacji) „wtłaczać” do głowy i do ciała
„sztuczną” informację z komputera (który kiedyś nazwałem „fantomatem”), to w
granicy możliwe już jest całkowite zastąpienie „realnie otaczającego ludzi świata”
światem całkowicie usztucznionym, który „w istocie” zbudowany jest z odpowiednich
impulsów elektronicznych… zaraz! A z czego zbudowany jest świat, którego
doświadczamy bez jakiejkolwiek, urządzonej technicznie maszynerii? To, co
widzimy, powstaje tak, że fotony wpadając do oczu podrażniają siatkówkę, która
poprzez nerwy wzrokowe „drażni” wyższe ośrodki mózgowe, aż dojdzie do tego, że
„widzimy”, a jeżeli wskutek jakichś zmian oko pocznie zniekształcać widzenie,
okulista z optykiem skorygują wady i wtedy informacja wizualna, jaką postrzegamy,
będzie akurat taka sama jak u INNYCH LUDZI. Ale nic więcej, ponieważ mucha,
stonoga, szarańcza, ślimak „widzą” otoczenie całkiem inaczej aniżeli ludzie. A co do
słuchu, to fale akustyczne… itd., itp. A jeżeli astronauta cierpi na chorobę
lokomocyjną, wymiotuje, nie może na orbicie pracować, to dlatego, ponieważ
informacja, jakiej dostarcza mu błędnik z ucha wewnętrznego SPRZECIWIA się
informacji, jaką on widzi i postrzega. Powstaje „konflikt informacyjny”, coś jakby
szef sztabu generalnego otrzymał równocześnie informację, że wróg ucieka i że wróg
naciera. Więc dzięki zmysłom postrzegamy świat; wiemy już, że zmysły te można
„oszukiwać” obwodowo („wirtualną rzeczywistością”) albo i centralnie (powiedzmy
— halucynogenami). Czy wobec takich roztrząsań możemy jeszcze wskazać na coś,
co się nijak ma do informacji? Ból brzucha, zwłaszcza po zjedzeniu czegoś, jest co
prawda „mglistą, ale dolegliwą” informacją o tym, że nie jest dobrze z naszym
trawieniem. Być może jednak ktoś zauważy, że istnieją szkopuły przeciwstawiające
się moim rozważaniom. Leżeć między nogami dziewczyny, jak powiada Hamlet do
Ofelii (która jakoby nie dosłyszy), jest miłe. Co znaczy „miłe” w kategoriach
informacyjnych? Ano znaczy, iż Ewolucja, pragnąc „zachęcić” nas do gatunkowej
kontynuacji („rozkazodawcami” są geny), czynności, zmierzające do utworzenia
zarodka, uczyniła przyjemnymi, natomiast zniechęciła nas (nie tylko powonieniem)
do woni śmierci: rozkładu ciał organicznych. Ale co to znaczy, że informacja może
być „przyjemna” albo „nieprzyjemna”? Proces emocjonalnych korelatów sygnalizacji

174
informacyjnej zaczął się bardzo dawno, grubo przed początkiem powstania człowieka.
Uczucia są informacją, której odbiór bywa nieodłącznie związany z jej
DOZNAWANIEM. Komputer, jak wiadomo, nie doznaje niczego i „jest mu wszystko
jedno” czy (jak czytamy] w Internecie zamiast naukowych prac przekazuje
pornograficzne obrazy. W każdym razie odmienność taka świadczy jedynie o tym, że
nie tylko nie wszystkie rodzaje informacji nie są sobie równe, ale i o tym, że
nadawaniu i odbiorowi informacji u żywych istot (ale TYLKO u żywych istot) mogą
towarzyszyć doznania, rozmaicie akcentowane emocjonalnie.

3
O informacji nadawanej i odbieranej można zatem mówić dokładnie zawsze, kiedy
chodzi o istoty żywe (świat roślin również do nich należy). Ale jak to jest z
informacją, kiedy „nikogo nie ma”? Pytanie o to, jak „wygląda” drzewo i czy niebo
jest niebieskie, gdy na nie nikt nie patrzy, dręczyło filozofów już w starożytności.
Obecnie pewne sprawy się po trosze wyjaśniły. Informację mianowicie można
przetwarzać, znane jest nam jej powiązanie z energią, lecz energię można jedynie
przekształcać (choćby i w masę), ale zniszczyć jej nie można. Informację natomiast
można zniszczyć, gdyż jest ona pewną organizacją, pewnym rodzajem ładu czy
ładów, a kiedy „cokolwiek” wpada w głąb „czarnej dziury” astrofizyków, informacja
tego „cokolwiek” ulega nieodwracalnemu unicestwieniu, ponieważ pod
„powierzchnią zdarzeń” czarnej dziury grawitacja, rosnąca ku środkowi, wszelką
organizację, wszelki ład wraz z tym, jaki panuje wewnątrz atomów, miażdży i
unicestwia, a co się dzieje w samym centrum czarnej dziury nie wiadomo i astrofizycy
w tej kwestii są bardzo sprzecznych zdań. Faktem jest, iżeśmy nareszcie wykryli w
Kosmosie miejsca, w których nie ma ani informacji do postrzegania, ani „latentnie”
spoczywającej (np. jako list rozbitka we flaszce na dnie morza). Kosmos będąc „pełen
informacji”, jednocześnie jest w tej nie–substancjonalnej sprawie „dziurawy”.

4
Co nas współczesnych może pytanie o informację w ogóle obchodzić? Czy ten, kto
produkuje lub kupuje rolls–royce’a musi się zajmować teorią ciała stałego i
mechaniką kwantową, chociaż obie są „zaangażowane” w produkcję auta i jego
używanie? Powiedziałbym, że lepiej, kiedy człowiek rozmyśla nad tym, czym się
zajmuje, aniżeli kiedy komputer to dla niego mniej więcej tyle, co (prosty) aparat,
który małpa może tak obsługiwać, ażeby z niego banany wylatywały. Obecnie — i to
jest jedna z istotniejszych spraw, do których krętą dróżką mojego rozumowania
chciałbym dotrzeć — otóż obecnie produkcja, a raczej przetwarzanie i
magazynowanie informacji przez ludzi (rzędu, jak szacują, 1014 albo do piętnastej
bitów) na Ziemi dawno już przekroczyło indywidualną „przepustowość” umysłu jako
kanału przetwarzającego informację. Obecnie mamy już sytuację POTOPU
informacyjnego i jeżeli ktoś obojętnie oglądał w telewizji start kolejnej rakiety
ARIANE, która wprowadziła na orbitę taki transponder, że może on nadawać
dodatkowo 120 telewizyjnych programów, to ja do tych obojętnych nie należę. Nie
jest miło wiedzieć, że wprawdzie potencjalnie stojąca do dyspozycji za naciśnięciem
guzika lawina wielości informacyjnej może się na nas obruszyć, ale jej nie zdołamy
strawić i skonsumować tak samo, jak nie może jeden człowiek zjeść tego, co w danym

175
dniu oferują naraz wszystkie restauracje, chociażby był ze wszystkimi połączony
Internetem…
Czytam o profesorach, którzy otrzymują dziennie po kilkadziesiąt listów z poczty
elektronicznej — E–Mail. Ciekawym, kiedy oni spożywają jakieś posiłki i czy mają
czas na sen. Zresztą przez sieci przepływają tysiące tysięcy informacji, ale ta część,
która jest skierowana do banków, do giełd, do brokerów, itd., będzie odebrana przez
ludzkie zespoły, a nie przez osamotnione jednostki. Przepustowość informacyjna
jednego człowieka dzisiaj jest akurat taka sama, jak przed 100–80 000 lat, jak w
eolicie, i jest rzeczą właściwie zdumiewającą, że ludzie, wystawieni na takie
informacyjne ulewy, na ogół dają sobie z nimi radę. Częściowo wynika to stąd, że
potrafią przychodzącą informację selekcjonować, z drugiej strony ja, który nie
otrzymuję więcej, aniżeli 3–6 numerów pism naukowych tygodniowo, uważam się już
za przeciążonego informacyjnie, ponieważ często czytam zaległe pisma z pewnym
opóźnieniem. Rozpoznawanie jakości informacji, nie przyjmowanie całkowite do
wiadomości informacji bezistotnej, reklamowej, drugorzędnej, po prostu zbędnej
człowiekowi, jest koniecznym warunkiem „utrzymania się na powierzchni”
wzbierającego informacyjnego potopu. I tu leży właśnie pies pogrzebany: gdyby
można było skonstruować informatyczne selektory, zdolne do niejakiego rozumienia
tekstów, sytuacja od razu by się poprawiła i wiadomość o oczekiwanym
wprowadzeniu na orbity setek nowych transponderów nie ciskałaby człowieka w
panikę (zamiast której obiecują nam entuzjastyczne przyjemności). Nie na ostatku
należy wreszcie wyraźnie powiedzieć to: za publicznie przekazywaną, emitowaną
informacją, z reguły stoi kapitał. Mniejsza o to, czy pochodzi od koncernów, czy z
„grantów”, jakimi stoją placówki naukowe. Gdzie Kapitał zysku nie wywęszy, tam
inwestycji nie będzie i DLATEGO nie jestem ze wszystkim pewny, czy ostoje
kapitalizmu jako relacje popytu i podaży rynkowej, zapowiadające komuś tam zysk,
utrzymają swoje zwierzchnictwo w XXI wieku.
(Oczywiście i to, com właśnie zauważył, też jest informacją, o posmaku,
powiedzmy, futurologicznym.)
Informacja nie może w skali światowej bezkarnie i nieselekcyjnie po prostu
przybywać: wyścigi producentów i wynalazców procesorów, które i Pentium
pozostawiły już w tyle, nie mogą trwać wiecznie, gdyż wyglądałoby to na
asymptotycznie zorientowany trend, abyśmy się stali zbiorowością wszechwiedzącą,
czyli Bitowym Panem Bogiem. Do tego nie może nigdy dojść po prostu przez to, że
łącznościowo, informatycznie jesteśmy ograniczeni tak samo jak homo robustus, a
może tylko homo neanderthalensis, który, jak wiadomo, miał mózg większy
przeciętnie od mózgu człowieka współczesnego. Zresztą ogromna większość ludzi
pragnie, ażeby informacja nie tyle powiadamiała ich, ile, aby stawała się rozrywką,
zabawką i grą niczym gry komputerowe. Neil Postman ponad 10 lat temu napisał
książkę obecnie jeszcze bardziej aktualną aniżeli w czasie jej publikacji (Amusing
Ourselues to Death). Informacją żyjemy, ale możemy też w niej utonąć, jeżeli jakaś
inteligencja, bodaj sztuczna, z pomocą nie przyjdzie…

5
W świecie, rozpatrywanym pod kątem informacyjnym, panuje pewna
charakterystyczna osobliwość, mianowicie „fałszerstwo informacji”. Zaczynając od
fatamorgany, od powielania obrazu słońc przez kryształki obłocznego lodu, poprzez
„kanały na Marsie” po „grawitacyjne soczewki” w Kosmosie, Natura (oczywiście
176
bezintencjonalnie) dokonuje pewnych „manipulacji”, które byśmy w ludzkim świecie
nazwali oszustwem (fatamorgana ukazuje oazę, której nie ma, itp.). Z kolei w świecie
ożywionym roi się wprost od „oszustwa” i „fałszerstwa”, tylko myje zwiemy inaczej:
chodzi o barwy ochronne, o mimikry, naśladowanie wyglądem stworzeń groźnych,
jadowitych przez bezbronne — i to naturalnie nie wynika z zamiaru „oszustwa”, lecz
po prostu z selekcji i mutacji ewolucyjnej. Tak zatem owo zjawisko nie jest tylko w
świecie ludzi spotykane. Inna poważniejsza rzecz, kiedy się przed nami otwiera
gigantyczny potencjalnie przestwór informacji przez nas przekazywanej,
przetwarzanej, fabrykowanej. Nawet uczone osoby, zajęte przewidywaniem
socjalnych skutków masowego wdrażania sieci łączności elektronicznej nie zdawały
sobie sprawy (jako eksperci od technology assessment) z tego, jakim żerem stanie się i
cyberprzestrzeń i Internet czy Euronet dla oszustów, hackerów, malwersantów
wszelkiej maści, bo nie tylko sekretnie słane wieści można przejmować, operacje
bankowe zakłócać na korzyść zakłócającego lub jego „klienta”, fałszować
wiadomości (prototypem prymitywnym niech nam będzie afera z Hrabiego Monte
Christo, gdzie przekupiony telegrafista — obsługujący ówczesne „wiatraki machające
ramionami” — przesyła fałszywe wiadomości, które rujnują w Paryżu majątki). Cóż
dopiero, kiedy programem można program zastąpić, zwalczyć, zniszczyć
„sabotażystami” w postaci wirusów (czyli specyficznych mikroprogramów),
całkowicie pomieszać prawdę z fałszem; pierwsze ofiary i oszustwa już się pojawiają.
Czytało się nawet, że te wielkie konsorcja, które w sieci zainwestowały miliardy,
nie kwapią się z ujawnianiem strat, jakie z tytułu owych oszukaństw już poniosły,
ponieważ inwestorów–akcjonariuszy albo się nie powiadamia o każdej kolejnej
aferze, albo się uspokaja zapewnieniami, że „przeciekom” i inwazjom w programy i
treści położą kres dodatkowe elektroniczne zabezpieczenia (tak zwane firewalls na
przykład). Otóż, aczkolwiek się na programowaniu nie znam i specjalistą w
problemach sieci nie jestem, na podstawie ogólnej znajomości historii po prostu
wiem, że „walka miecza z tarczą” to nie jest konflikt, zawężony do sfery militarnej.
Ludzie ludzi oszukiwali i okradali wszędzie, na świetne zamki są jako sposoby
świetne wytrychy i nie inaczej, należy mniemać, będzie w Imperium Informaticum: to
jest po prostu zgodne z biegiem rzeczy! Jeżeli zaś pewne sieciowe szlaki, „wrota”
można zabezpieczyć w 100 procentach, to prohibitywne okażą się koszty
zabezpieczeń. Informacja bez fałszerstw jest niestety fikcją…

177
Kwantowy komputer?

1
Jak powiada fachowiec, w ciągu ostatnich pięćdziesięciu lat co dwa lata komputery
stawały się coraz szybsze, zaś ich elementy coraz mniejsze. Jednakowoż nie ulega
wątpliwości, że trend ów musi mieć swój kres: kresem tym wydawała się zrazu
struktura materii w skali najmniejszej, czyli tam, gdzie cząstka JEST falą, zaś fala
JEST cząstką i gdzie rządzi Heisenbergowska relacja nieoznaczoności. Jak mówił
Niels Bohr, człowiek, który dogłębnie studiuje mechanikę kwantową, a nie doznaje
zawrotu głowy, nie ogarnia jej prawidłowości w sposób rzeczywiście właściwy,
ponieważ te kwantowe prawidłowości przeczą „zdrowemu rozsądkowi” naszemu, są
kontrintuicyjne i najwyraźniej gwałcą podstawowy kanon przyczynowości
(kauzalizmu). Aby od razu wejść w to piekło paradoksu należy zważyć, że nie tylko
na papierze i teoretycznie, ale w eksperymentach, od których jako wykrywalnych
faktów po prostu nie mamy już donikąd żadnego odwołania, nie jest tak, jak
utrzymywali niektórzy fizycy–optymiści (Bohm na przykład), że pęd i położenie
swoje ma elektron TAKŻE przed jakimkolwiek pomiarem, a tylko my obojga aż do
dokonania nie znamy (niby: nie wiadomo, czy i gdzie czarny kot znajduje się w
ciemnym pokoju, lecz on tam albo gdzieś jest, albo go nie ma). Tymczasem okazało
się, że tak nie jest. Jakkolwiek obraża to nasze intuicje, elektron może być zarazem „i
tu, i tam”, dopóki go nie poddamy doświadczalnie pomiarowi. To też nie jest jeszcze
najgorsze, albowiem jest też tak, że jako cząstka, która JEST falą, elektron może
interferować z innym elektronem, a co fatalniejsze, może też oddziaływać sam na
siebie i powstaje wtedy to, co fizyka kwantowa zwie „superpozycją”. Ja tu nie
zamierzam iść dalej w głąb niesamowitego świata kwantów, lecz powiedziałem to
tylko, co w skromnej mierze pozwoli na prezentację powstającej już perspektywy
zbudowania komputera kwantowego. Wydaje się (z rozsądnej ostrożności powiadam
„wydaje się”, a nie „wiem na pewno”), iż to już byłby kres zarówno
mikrominiaturyzacji, jak przyspieszania czynności logicznych komputerów, ponieważ
docieramy tą drogą do ostatecznych granic materii. Myślałem ongiś, że granica
zostanie osiągnięta, kiedy atomy, tworzące określone związki chemiczne, będą
funkcjonowały jako „ostateczne”, tj. najbardziej elementarne „bramki logiczne”, ale
się pomyliłem, skoro już można obecnie poszczególne jednostki (bity) informacji
umieszczać w elektronach okrążających jądro (np. wodoru): tym samym „schodzi się”
jeszcze dalej czy niżej. Reguła postępowania w przypadku jednego atomu, jednego
elektronu jest względnie prosta. Podobnie jak bity są nierozdzielnymi,
nieczłonkowalnymi cegiełkami informacji (jeden bit to akurat tyle co 0 lub 1, czyli
TAK albo NIE), podobnie też elektron okrążający jądro atomu może albo znajdować
się na orbicie o najmniejszej energii, którą nazwiemy umownie zerową, albo może
pozyskawszy właściwą porcję energii (jaką mu przyniesie foton) przeskoczyć na
orbitę wyższą. Będzie nam ona jedynką. Foton pochodzi z urządzenia, które wytwarza
promieniowanie laserowe i dzięki niemu potrafimy już dokonać nader prostej
operacji: jeżeli elektronu na orbicie „spoczynkowej” nie wzmocnimy energetycznie,
to jest tak, jakby miał zapisane ZERO. Jeżeli trafimy go fotonem (nie byle jakim),
pozyska energię taką, by wskoczyć na wyższą orbitę i w atomie „jest zapisane” TAK,
czyli jedynka. Ponadto, idąc dalej, należy jeszcze uwzględnić inne, zresztą nieliczne,
ale do rachowania logicznego niezbędne warianty („i”: czyli koniunkcję, „kopiuj”,

178
czyli przekaż itp.). Dopóki mamy jeden atom, widać, że jego „moc obliczeniowa” jest
skrajnie mała, jest nędzna, ale można działać na zespoły atomów i sytuacja staje się
wtedy zarówno znacznie zawilsza, jak daleko mniej trywialna: powstaje komputer
kwantowy, w którym stany energetyczne elektronów tworzą zapisy, zaś fotony
(laserowe) mogą owe zapisy przekształcać wedle odpowiedniego programu. Sprawa
jest też bardziej skomplikowana z kilku powodów, z których wymienię choćby dwa
najistotniejsze: ze względu na możliwość powstania superpozycji — czyli
„wsiadania” elektronowej fali na siebie samą, oraz, co gorsze, ze względu na to, że
trwałość powstających zapisów, czyli trwałość ulokowanej na kwantowym poziomie
pamięci (bez której wszak w ogóle nic komputer począć nie może) jest bardzo labilna.
Obecnie rekordem są takie okresy tej trwałości, które ogarniają kilka godzin. Zresztą
ekranowanie takich kwantowych komputerów od zakłóceń, wywołujących błędy, to
osobny, bardzo mocno kwestionowany przez wielu problem. Niby świta tam
komputer najmniejszych rozmiarów i najwyższej szybkości, ale rychło spodziewać się
go nie należy, nawet gdyby był konstruowalny, co zresztą jest zaprzeczane przez
fizyków–sceptyków. W październikowym numerze „Scientific American” widnieje
rycina pokazująca, JAK kryształ zwykłej soli mógłby dokonywać operacji logicznych
za pośrednictwem „łączy kwantowych” tak, że ów komputer byłby w stanie
symulować dowolny inny system kwantowy i to z nieprześcignioną szybkością…. To
na papierze, ale w rzeczywistości wciąż mamy do czynienia z bardzo skromnymi
zespołami atomów, elektronów i tym samym kwantów.
W tym kontekście pojawia się pytanie, czy jest możliwe, jak utrzymywał w swej
ostatniej książce znany fizyk R. Penrose, iż świadomość DE FACTO jest ulokowana
w mózgu właśnie na kwantowym poziomie. Już nie wchodząc w krytykę tej koncepcji
„od strony” fizyki, bo wszak żadnych laserowo kreowanych fotonów w mózgu nie
ma, wyrażę moją subiektywną, aczkolwiek silną intuicję, tj. moje przeświadczenie, że
nic nam dla wyjaśnienia fenomenu świadomości kwantowy poziom nie przyniesie.
Zważyć należy, iż znękani poszukiwaniem lokalizacji świadomości myśliciele
przeprowadzali ją jak mogli — od szyszynki do kory mózgowej, od kory mózgowej
do podkorowych układów (np. śródmózgowia i systemu limbicznego itd.). I niejako
prawdopodobne z tych „przeprowadzek” nie wynikło. Jak niejednokrotnie pisywałem,
nawet maszyna (komputer), zdolna zdać „egzamin”, to jest test Turinga, pewności, iż
ma ona świadomość, dostarczyć nam nie może, albowiem ekwifinalne stany „wyjść” i
„wejść” (input and output) nie pozwalają na ustalanie, że wewnątrz maszyny panują
procesy tożsame z procesami, powodującymi powstawanie świadomości w mózgu
ludzkim. Jednym słowem, przeprowadzki z poziomu (neuronowego dajmy na to) na
paziom atomowy czy choćby i kwantowy, żadnej dodatkowej wiedzy o powstawaniu i
lokalizacji świadomości nam nie dostarczają, a jedynie takie przemieszczanie
świadomości wyjaśnia, że uczeni starają się ją „gdzieś upchnąć”.

2
Produkowane obecnie — wracam do komputerów — procesory jeszcze nie są
kresem drogi, ponieważ doskonałość litograficznego utrwalania „bramek logicznych”
na „chipach” może się jeszcze powieść. Tu właśnie natrafiamy na taki oto paradoks:
kiedy miniaturyzacja dosięga już atomowych rozmiarów, razem z nią pojawia się jako
bardzo poważny czynnik, hamujący dalszy pochód, indeterminizm: relacja
Heisenberga itp. Otóż cała „chytrość” generalnej koncepcji komputera kwantowego
tkwi w tym, co Niemcy zwą aus einer Not eine Tugend machen, czyli jak
179
przekształcić kłopot w zysk (cnotę). I rzeczywiście, właśnie elektronowe superpozycje
i ich falowe własności okazałyby się zbawienne, GDYBY udało się kwantowe, na
(ogólnikowo tu jedynie opisanej) zasadzie komputery budować, uczyniwszy je
A) trwałymi spichlerzami pamięci oraz
B) niewrażliwymi na idące z otoczenia wpływy zakłócające. Dozy fotonowe, czyli
regulowanie strumieni fotonów, musiałoby bowiem być niesamowicie dla nas
dzisiejszych precyzyjnie utrzymywane w spektrum energetycznym, gdyż zarówno
foton „za słaby”, jak „zbyt silny” wprowadza nam od razu w operacje logiczne błąd, a
usuwanie błędów z komputera kwantowego to na razie „pieśń przyszłości”.

3
Jest jeszcze jeden, osobny szkopuł wiszący nad tym całym dziewiczym dotąd
obszarem „Kwantowych operacji komputerowych”, a mianowicie niechybny fakt, że
jeżeli się pojawią kwantowe komputery, to zaraz się też narodzą i rozmnożą
„kwantowi hackerzy”. Jakby można było sobie z nimi poradzić, nikt nie ma na razie
bladego pojęcia. Czynnikiem sprawczym nie jest osobliwa zła wola czy spaczona
intencja, ale po prostu natura ludzka. Już tacy nieprzyjemni dla bliźnich jesteśmy, że
jeżeli można włamywać się, to się włamujemy, skoro można fałszować, to fałszujemy,
to kradniemy, niszczymy nawet, jeżeli niszczącemu żadnego zysku to nie przynosi.

4
Tak zatem nieobecność, czy też nierychliwe pojawienie się na rynku
informatycznym kwantowych komputerów może nas wprawdzie zainteresować, jako
najdalsza perspektywa postępu technologicznego w tej dziedzinie, postępu opartego
wprost na mechanice kwantowej, ale, jak dotąd, z owej perspektywy wynika dla nas
może więcej nawet „LEPIEJ NIE”, aniżeli „TO WYBORNIE”, ponieważ dostateczną
ilość różnorodnych kłopotów mamy JUŻ z konwencjonalnymi komputerami i z ich
sieciowymi łączami. Inna rzecz, że kwantowa rewolucja bez wątpienia pociągnęłaby
za sobą akty doskonalące tak trwałość pamięci na tym poziomie, jak zarazem
zmniejszenie wrażliwości na perturbacje. Osobiście jestem dość umiarkowanym
optymistą, co by w praktyce oznaczało, że kwantowe komputery mogą się okazać
osobliwie przydatne w naukach ścisłych (analizy czynnikowe w matematyce czy też
symulowanie nieznanych nam całkowicie stanów, jakie może przybierać materia),
natomiast globalne sieci razem z giełdami, bankami itp., będą nadal obsługiwane
przez takie komputery, które wprawdzie mikrominiaturyzujemy i wprawiamy do
akceleracji działań, ALE wszystkim wspólna zasada się nie zmienia. Jest to wciąż
różnica elektrycznego ładunku w bramkach logicznych i tak było w kolosalnie
nadmiarowym ENIACU, jak w CRAYU (który również już do rekordzistów nie
należy). Ale naturalnie mogę się tu mylić, ponieważ nie jest tak, żeśmy z fizykami na
czele zjedli wszystkie mądrości w zakresie mechaniki kwantowej. Kosmos jest tak
osobliwie utworzony, że tai w sobie zbiory tajemnic bez dna, my zaś dokopujemy się
z wolna do coraz to głębszych ich pokładów. Już wiadomo, że jeżeli dwie kwantowe
fale w superpozycji zachowują się jak jedna fala (a nazywamy to sprzężenie
koherencją), to, jeżeli nastąpi dekoherencja, znów mamy do czynienia z dwiema
falami. Albert Einstein nie chciał się pogodzić z całą domeną kwantowej
nieokreśloności. Typowe dla niej stany gwałcą wszelką klasyczną intuicję o

180
przyczynowym oddziaływaniu. Jeżeli zmierzy się jeden BIT (reprezentowany przez
elektron w superpozycji), to drugi „sam jakoś” ustala TEŻ swoją wartość (fizyczną i
logiczną). Nie zachodzi przy tym oddziaływanie pomiaru pierwszego na drugi
PRZYCZYNOWE. Już wiemy, że elektrony mogą być jeden tu, drugi zaś na Jowiszu.
Jak długo nie mierzymy, to panuje „niejasność” czyli nieokreśloność, a jeżeli
zmierzymy jeden, to drugi „musi” się tak zachować, żeby jego nieokreśloność TEŻ
znikła (zazwyczaj robi się wspierające to zjawisko eksperymenty na spolaryzowanych
fotonach, albowiem one jak elektrony też są i nie są FALAMI). Jednym słowem,
kroczymy tutaj w krainę, aby tak rzec, sprzeczną z regułami kauzalizmu, a zatem
naszego myślenia, ukształtowanego przez prosty fakt, iż żyjemy w makroświecie, w
którym efekty falowe większych „kawałków” materii są niepostrzegalne. Jeżeli
elektronowo umiejscowionych bitów kwantowych mamy więcej, to pojawiają się tak
okropnie i tak przeciwintuicyjnie powstałe stany, że nie wiem, jakby można o nich
bez matematyki w ogóle coś sensownego powiedzieć. Jednak widać spoza owych
niejasności przynajmniej to, że w obszarach kwantowych jest jeszcze bardzo dużo do
zrobienia i do wykrycia. Nikt się nie myli obecnie tak, jak ci, którzy sądzą, iż nauki
ścisłe zbliżają się do swego „finiszu”, do kresu i następne pokolenia uczonych nie
będą już miały nic do roboty. Może warto zauważyć, że o uczonych, a już szczególnie
o fizyków dwudziestowiecznych martwili się pod koniec dziewiętnastego wieku
ówcześni uczeni dokładnie tak samo, byli bowiem przekonani, że ,już prawie
wszystko, co można poznać, zostało poznane”. Było, rzecz jasna, całkiem inaczej i nie
należy także idei kwantowych operacji logicznych umieszczać po stronie nigdy nie
urzeczywistnialnych bajek, nie wiadomo, jak z tymi komputerami ostatecznymi
będzie, a nawet nie wiadomo, czy poziom kwantowych operacji to już jest „ostateczna
ostateczność”…

5
Na zakończenie pragnę zwrócić uwagę na to, że te postępy w szybkości i
uniwersalności także symulacyjnej, jakich się po kwantowych rachmistrzach można
by spodziewać, mają się nijak do zagadnienia świadomości i idąc w tamtym kierunku
niczego się (moim zdaniem naturalnie) o świadomości nie dowiemy. Ta kwestia w
kwantową budowę materii, jak myślę, uwikłana nie jest. Tu więcej można się będzie
spodziewać od AL (Artificial Life), od „sztucznego życia” oraz od biochemii.
Powiedziane zresztą w niczym nie narusza mojej omylności.

181
Algorytmy genowe

1
Istnieją zbiory problemów, których w praktyce przy pomocy zwykłego komputera,
chociażby największej mocy obliczeniowej, nie da się pokonać. Do najprostszych,
takich, na których rzecz o zastosowaniu algorytmów genowych zwykle się tłumaczy,
względnie od nich zaczyna, należy tak zwany problem podróżującego komiwojażera,
który ma pewną ilość miast kolejno odwiedzić i to drogą najkrótszą. Przy dziesięciu
miastach trzeba komputerowi około pięć sekund dla rozwiązania, lecz dla dwudziestki
potrzeba mu już około 100 000 lat, ponieważ jest to tak zwany NP–problem
(niewielomianowy, po angielsku nonpolynomial), i rozwiązanie wymaga N! kroków.
Niezbędny dla rozwiązania problemu z grupy „P” czas rośnie wraz z rozmiarami
samego problemu mniej więcej w tym samym tempie (10 jednostek czasu dla 10
elementów problemu itd.). Natomiast problemy w rodzaju „NP” rosną w czasie, jak
się powiedziało wyżej, w silni i rychło przyszłoby czekać u komputera MILIONY lat
na rozwiązanie. Te gorsze „NP” problemy nazywają matematycy „twardymi”: jakoż
przy największej mocy obliczeniowej komputer problemu się praktycznie nie ima, bo
żadna tu brute force, jak w dawniejszych zwłaszcza algorytmach gry w szachy, nic nie
pomoże. Na scenę wchodzą wszakże wówczas nowsze algorytmy zwane genowymi
stąd, że podobnych używa Matka Natura w sferze biologii i ewolucji biologicznej.
Sensu stricto atąueproprio nie są to algorytmy z klasycznymi tożsame, jako że nie
stanowią recepty na jedyne optymalne rozwiązanie takie, że już odeń lepszego być nie
może. Są to raczej nie tożsame, ale silne aproksymacje rozwiązania optymalnego. Jak
takie algorytmy funkcjonują, nie jest ze wszystkim łatwo przedstawić, ponieważ
zasadniczo, a to zwłaszcza dla prawdziwie „twardych” NP–problemów, obraz tej gry
wykracza poza granice ludzkiej wyobraźni. Można jednak dokonać swego rodzaju
redukcji takiego obrazu i to, dodaję od razu, na różne sposoby. Coś podobnego się
dzieje, kiedy kształty wielowymiarowej przestrzeni dla uzyskania niejakiej naoczności
rzutujemy w przestrzeń o mniejszej ilości wymiarów. Manfred Eigen zobrazował ten
elementarny ruch ewolucyjny genowych zespołów na modelu, jakim mu był tak
zwany „pejzaż walorowy” (Wertlandschaft — Stufen zum Leben, Piper 1987).
„Pejzaż” wygląda jak zasiana pagórkowatymi wzniesieniami równina, zaś
„pseudoorganizmy”, które walczą o przeżycie wedle reguł naturalnej selekcji,
okrążając ich wierzchołki, mogą od niższych przeskakiwać ku wyższym. Na czym też
ich „postęp biologiczny” jako survival of the fittest polega. Te, co tak podążyć nie
mogą, zatracają się, ponieważ proces zachodzi podczas ich replikacji, a jeżeli
replikacja źle się uda, następuje coś, co silnie przypomina przejście fazowe (jak gdy
np. woda ścina się w lód, albo NA ODWRÓT: zachodzi zmiana stanu).
Tutaj wątek przejmowany od Manfreda Eigena urywam, a wspomniałem o nim
przede wszystkim po to, by ukazać, jaką drogą idzie i posuwa się naprzód myśl
badawcza w naszych czasach, żeby jakoś procesy życiowe doboru i selekcji
wymodelować, ponieważ „w oryginale” zbyt zawiłym ukazać ich na razie nie umiemy
(„organizmy” krążące nad pejzażem walorowym Eigena są nawet względem bakterii
czy i najprostszych wirusów nader prymitywnymi modelami, ALE ZASADY ICH
DYNAMIKI można już rozpoznać i na modelu).

182
2
Dla rozwiązywania atoli problemów „NP”, czyli tych, co się wielomianowo ukąsić
ani rozgryźć NIE dają, eksperci inny sporządzili „pejzaż”. „Pejzaż” (landscape)
istotnie jest jakby przejęty od Eigena, ale w odwróceniu, bo gdzie u Eigena pagórki,
tutaj są doliny. Są „walorowe”, chociaż wartości, jakie przypisuje się głębinie tych
„dolin”, radykalnie odmienne są od walorów Eigena. U niego idzie o takie
parametryczne wartości, które należą się SAMYM „pseudoorganizmom” i zależą od
typologii ich funkcjonowania, więc można by je pseudobiologicznymi nazywać.
Natomiast dla pokonania problemów, takich jak wspomniane już podróżowanie
komiwojażera po najkrótszej drodze między miastami (albo dla stwierdzenia, jaką
ilość samolotów na określonej ilości lotnisk trzeba trzymać w pogotowiu dla
minimalizacji strat, spowodowanych dowolnym czynnikiem, który jakąś część
samolotów do startu gotowych zatrzyma na ziemi; ilość takich zadań może być
rozmaicie wielka) głębokość „doliny” ustanowiona jest ceną (kosztem) do zapłacenia
jako do pokrycia wydatków związanych z podróżami (czy z utrzymywaniem
samolotów w gotowości startowej: jak widać, te „landszafty genowe” przy swojej
stereometrycznej tożsamości mogą służyć do rozwiązywania całkiem rozmaitych
zadań). Im głębsza dolina, tym MNIEJSZY koszt (uwaga: między kosztem a „głębią”
zachodzi zależność odwrotna!). Szuka się tedy dolinki najgłębszej, bo ona minimum
kosztorysowe wyznaczy i to właśnie jest owocem zastosowania quasi–genowego
algorytmu dla rozwiązania problemu poszukiwań, które, prowadzone na ślepo, czy to
poprzez bezpośrednie („ludzkie”) działania, czy poprzez brute force komputera, trwać
by mogły miliony lat. W jakiego rodzaju relacji to, cośmy tu pokrótce zaprezentowali,
stoi do realnych „problemów algorytmicznie genowych” w biologii (w biologicznej
ewolucji), nie wiadomo porządnie, co widać chociażby stąd, że stanowiska genetyków
„prawdziwych”, tj. osadzonych na terenie biologicznym, zasadniczo się wzajemnie
różnią. Trzeba rzec, że zagadki na tym polu ukryte są potężne. Używając
zainspirowanych przez myśl ewolucyjną Darwina i innych też technik, D. Applegate z
laboratoriów Bella w zeszłym roku uzyskał rekord w poszukiwaniu optymalnej drogi
dla komiwojażera na drodze między 7397 miastami: to genetycznie natchnione
szukanie trwało 3,5 roku, lecz działanie na oślep (brute force) wymagałoby
prześledzenia 102547 dróg, co by trwało dłużej aniżeli ISTNIENIE
WSZECHŚWIATA!

3
Tak zarodkowo i zwięźle przedstawiony koncept „genowych algorytmów” zdaje
się ukrywać w sobie jakiś potężny paradoks, któregośmy dotychczas rozłupać nie
mogli. Najpierw, zacznę lekko, okazuje się, że te algorytmy w samej rzeczy już i
przez to są podobne do pracujących w żywej materii, że „absolutnych” czy też
„ostatecznych” wyników dać nie potrafią. W praktyce ekonomicznej nie jest to żadne
nieszczęście, albowiem rozwiązania aproksymujące optimum czy minimum w
granicach 95 procent uzyskiwać można — i to już jest nader korzystne. Ze strony zaś
biologicznej patrząc widzimy, że takie algorytmy zapewne życie ewoluujące
napędzają, ponieważ i w nim „absolutnie doskonałych” ewolucyjnych rozwiązań
nigdy z reguły nie ma. Są tylko doraźne sukcesy i bardziej jeszcze doraźne klęski.
Po wtóre, ostatnio wykryto grupy „komenderujące” bagażem genowym każdego

183
gatunku. Nazwane są „HOX” i jest ich od jednego HOX do pięciu, a może i do ośmiu.
To one dyrygują rozwojem tak, żeby się ustaliło, gdzie ma się z jajeczka
zapłodnionego rozwinąć głowa, gdzie tułów, gdzie kończyny i JAKIE. Niektórzy
biologowie mówią nawet o tym, że jakoby można, działając energicznie na HOX–y —
cofać ewolucyjne rozwiązania nam współczesnych gatunków w przeszłość sprzed
200, a nawet 400 milionów lat. Na razie praktyczne doświadczenia były skromne, ale
poczekajmy z orzekaniem skromności jeszcze jakąś dekadę.
Dziwne wszakże wydaje się to, że wyobrażenia, jakie zyskujemy dzięki utworzeniu
„landszaftów walorowych” dla NP–problemów wydają się sprzeczać i zderzać z
wyobrażeniami, jakie zawdzięczamy HOX–om. A to jest tak, że HOX każdy trwale
ustanawia architektonikę ustrojową wedle normy gatunkowej, zaś zaburzenia
wewnątrz HOX–u (to nie jest gen, ale niejako mały lokalny sztab generalny)
powodują najcięższe, letalne defekty (dwugłowość i inne potworniactwa u ludzi, ale
nie tylko u człowieka). Prawdopodobnie jest tak, że sprawność w chyżości rozwiązań
nadmierna NIE była korzyścią ewolucyjną i niejako została wyhamowana na rzecz
„wielkich symfonicznych koncertów” pod batutą serii HOX–ów: dzięki czemu i my
mogliśmy po około 800 milionach lat ewolucji wielokomórkowców (po tak zwanej
erupcji kambryjskiej) powstać i zaludnić Ziemię, a czy na dobre, czy na złe, to się
dopiero okaże w XXI wieku.

4
Sprawność algorytmów genetycznych jest innowacją zdumiewa jącą, mnie może,
który od kilkudziesięciu lat namawiałem głuchy świat do nauki w Pani Ewolucji,
mniej chyba aniżeli matematyków i programistów z biologami na czele.
Satysfakcje ekonomiczne, radujące Wielki Kapitał, uważam przy tym za zjawisko
mikroskopijne w obliczu nowego, dopiero powstającego spojrzenia na procesy
ewolucyjne, które ujawniając nam poczynają teraz zadziwiającą swoją potencję i nie
mniej zastanawiający rygoryzm. Geny są bowiem niejako alfabetem, a z nich
budowane ustroje stanowią konstrukcje, rozmaite architektonicznie funkcjonujące, z
bodajże jednym stałym parametrem — śmierci, bez której rozwój nie byłby w ogóle
możliwy jako postęp (przynajmniej jako ten postęp, który usiłujemy dostrzec w
rozpiętości, oddzielającej jednokomórkowce jak PARAMECIUM CAUDATUM
EHRENBERG do HOMO SAPIENS SAPIENS).
Z alfabetu bowiem można zarówno najsrożej częstochowskie rymy złożyć, jak
równe szekspirowskim dramaty i tragedie. Już nieodwracalnie chyba znaleźliśmy się
na tej drodze, i tym samym przybliża się dzień, w którym opanujemy już nie
peregrynacyjną geometrię komiwojażerów i nie zagadnienia ekonomizacji towarzystw
lotniczych, ale umiejętność budowy żywych ustrojów. Co z tą umiejętnością zdoła
uczynić człowiek — należy takie pytanie pozostawić w zawieszeniu przy wszystkich
obawach, jakie nasuwają się, kiedy pragniemy znaleźć na nie odpowiedź.

5
Nie należy co prawda uważać, że problemy typu „NP” rozłamywalne przy pomocy
algorytmów genowych to są już WSZYSTKIE w gruncie rzeczy problemy, z jakimi
można się jeszcze spotkać. Istnieją, naturalnie, i takie zadania, jakich algebrą genową,
genowymi algorytmami dobrać się do celu nie sposób. Ale też nikt nie powinien

184
sądzić, żeśmy, już dzięki powyżej naszkicowanym odkryciom, zjedli wszystkie
rozumy i że tym samym już wszystkie trudności teoretyczno–praktyczne na
przyszłych drogach naszych będziemy potrafili pokonać. Uważam też odkrycia
zawdzięczane genetyce tak samo, jak wykrycie genów dyrygenckich (HOX) za
najważniejsze kroki, jakie zostały postawione na terenie biologii w dwudziestym
wieku. Użyteczność pozabiologiczną technologii ukształtowanych przez życie zawsze
uważałem za sprawność SUI GENERIS, i dlatego w głuszy lat sześćdziesiątych
pisałem nadaremnie o tym, jak wielkie korzyści (i jak okropne zagrożenia) zostaną
naszym łupem, kiedy wykroczymy z dziedziny życia, używając podpatrzonych u życia
instrumentów i strategii, w ludzki świat. Myślałem i o tym, że efekty powstałe przez
to okażą się może i nieludzkie, ale zanadto nie przestrzegałem, kojony tym, że czy
dobro, czy zło wieściłem, nikt mnie nie słuchał. Co jest zresztą i naturalną koleją
rzeczy i sprawą o nieszczególnie istotnym znaczeniu.

185
Zmyślne roboty

1
Ogromna ilość różnospecjalistycznych teoretyków i praktyków na Ziemi pracuje
ostatnim czasem nad tym odgałęzieniem Sztucznej Inteligencji, któremu można
przypisać sui generis podobieństwo do ludzkiej umysłowości, a mówiąc z ostrożności
szerzej, do umysłowości zwierzęcej.

2
Na czym to podobieństwo ma polegać? Problem daje się rozwarstwić na część
„architektoniczną” (np. na to, czy i jakie sieci neuronopodobne należałoby
skonstruować, jakie procesory etc.) i na część teoretyczną o wyraźnym posmaku
filozoficznym. Zajmę się tutaj tym drugim, bo sprawa architektoniki budulca
pseudoumysłu jest tak samo podrzędna, jak sprawa zawarta w pytaniu, czy określony
pojazd terenowy ma się poruszać raczej na gąsienicach, czy na jakimś specjalnym
rodzaju kół, jak się poruszały bezgąsienicowe pojazdy księżycowe zarówno
amerykańskie jak i sowiecki.

3
Skoncentrowane i zredukowane do zasadniczego rdzenia „pytanie filozoficzne”
sprowadza się do kwestii, w jaki sposób wprawić „umysłowi robota” tendencję
WOLICJONALNĄ. Najdoskonalszy program szachowy w najszybszym obecnie
komputerze żadnej wolicjonalnej komponenty nie zawiera. Zawiera on mniej więcej
takie „dążenie do przedustawnego (prestabilizowanego) celu”, jak metalowa kula,
którą burzy się mury, jakie chcemy zrujnować, albo jak pocisk wystrzelony z armaty.
Program niejako zastępuje chęć dotarcia do zadanego z góry celu, zaś różnica między
granatem w ruchu a kolejnym ciągiem szachowym zasadza się na tym, że granat „po
drodze do celu” na utrudniające mu przeszkody nie natrafia (to jest „nie powinien”
natrafić wedle wiedzy artylerzystów, która na pewno „znajduje się poza granatami i
armatami”), natomiast drogę do celu (jakim jest dany przeciwnikowi MAT) utrudnia
programowi tenże przeciwnik swoimi ciągami, które dotarcie programu do „dania
mata” powinny całkowicie udaremnić.

4
Naśladowanie aktów wolicjonalnych, czyli „chcenia” czegokol wiek jest
oczywiście możliwe, ale też jest to czysta imitacja, nic wspólnego z autentycznym
aktem woli nie mająca. Jeżeli np. program ma biegle imitować akty wolicjonalne,
programista powinien przewidzieć, jakie możliwe przeszkody program napotka i w
jaki sposób ma im „stawić czoło”. Takich możliwych przeszkód może być wiele albo
i bardzo wiele. Na kolejne pytanie, czy trzeba „wszystkie dające się przewidywać”
przeszkody explicite przedprogramować (czyli przewidzieć ich cały zbiór zamknięty z
góry) można odpowiedzieć, że tak być nie musi. Ewolucja naturalna nie działa tak,
żeby „programy” działające w żywych stworzeniach potrafiły uporać się z
186
„wszystkimi możliwymi przeszkodami”. Wiadomo np., że choć muchy od setek lat
potrafią — bo TAK są zaprogramowane — wywinąć się żywo spod packi na muchy
— nie potrafią „rozgryźć” zagadki SZKŁA (szyby). Ze względu na ich tryb życia
zdolność much do „pobierania nauk” (czyli wytwarzania indywiduowych odruchów
warunkowych) jest w stosunku do pszczół bardzo mała, ponieważ pszczoły
opanowały nawet Język sygnalizacyjny”, jako że był im potrzebny w sztuce
przeżywania (survival of the fittest). TEJ sztuki, która nie pochodzi od z zewnątrz
działającego PROGRAMISTY, ale po prostu jest rezultatem długich serii działania
doboru naturalnego, żadne konstruowane przez ludzi roboty jeszcze nie posiadły.
Imitacje „woli przeżywania” możemy mnożyć, uczone traktaty o funkcjonowaniu
quasi–wolicjonalnym pisać, coraz to zawilsze pseudoneuronowe sieci konstruować,
ale nie potrafimy zejść do poziomu molekularnego, na którym już wirusy a dalej
bakterie umieją tak „przetasowywać” swoje genomy, ażeby umknąć lub
przezwyciężyć niweczące je działanie leków (antybiotyków na przykład). Co zwykle
zachodzi przez neutralizację zgubnego (dla mikroorganizmów) działania
biochemicznego leku albo przez taką zmianę struktury antygenowej drobnoustroju, że
lek „nie może go odnaleźć”. Używam poniekąd metaforycznych określeń, gdyż
inaczej musiałbym wypisywać długie i skomplikowane rozważania fizykalne,
chemiczne czy biochemiczne, których wolę poniechać, albowiem idzie mi tylko o to,
że pierwociny „chęci”, zalążki aktów wolicjonalnych można już znaleźć w najbardziej
prostych organizmach żywych.

5
Trzeba sobie dobrze uświadomić, że w dziedzinie, w którą wkroczyliśmy, żadne
zawiłe wykręty nic nie pomogą. Ruch wskazówek zegara może być powodowany
sprężyną, elektromotorkiem, wagami — w tym ostatnim przypadku zegar w swym
miarowym chodzie jest zdany na ziemską grawitację, i tam, gdzie, jak na orbicie, jej
nie ma, już by iść nie mógł. W każdym takim wypadku ruch jest wektorowo
zorientowany „z góry”, to jest przez zegarmistrzów–konstruktorów. Nam chodzi
natomiast o to, ażeby „elektryczny mózg”, komputerowy „umysł” (czy jak go nazwać)
robota miał na oku, celował psychicznie, przewidywał CELE, ku którym wyruszy
aczkolwiek my o jego decyzjach poszczególnych, tworzących sensowną całość z góry
nie będziemy wiedzieć, jak z góry nie wiemy jakie decyzje będzie podejmował
polarnik w swym marszu do bieguna albo na Mount Everest. Inaczej mówiąc, chodzi
o postępującą, adaptacyjnie skuteczną suwerenizację robota: w ostatniej fazie
doskonalenia aktów wolicjonalnych może będzie on człowiekowi równy…

6
Panuje wcale rozpowszechnione pośród ekspertów przeświadczenie, że miliardy
lat, które wykształciły wreszcie kambryjską eksplozję gatunków, a więc i
wielopostaciowy, różnokształtny survival ofthe fittest, może „na przełaj” zastąpić
rozum ludzki. Że jak się porządnie namyślimy i niezbędne teoretyczne nauki
pobierzemy, to rychło otoczą nas roboty dysponujące „wolą”, które będziemy mogli
„namówić” i wyuczyć ścigania NAM potrzebnych celów. Jednak taka ewentualność
nie do wykluczenia musi i to uwzględnić, że takie roboty będą mogły chybiać celów
im wskazanych nie jak źle wycelowany pocisk, ale jak niegrzeczne dziecko albo jak

187
wypiastowany przez nas szkodnik. Że obdarzone wolicjonalną suwerennością roboty
mogą się nam sprzeciwiać: nie myślę tu o ulubionej przez prymitywizm magicznego
myślenia „rebelii” robotów przeciw człowiekowi. Myślę tylko o tym, że jak się ilość
stopni swobody działania powiększa, to już „samo dobro” nie zostaje zachowane, bo
może się w swobodzie niejakie „zło” wykształcić. W naturalnej ewolucji widać i to aż
nadto dobrze i ta refleksja może nas co nieco zahamować w intencji obdarzenia
robotów „wolną wolą”.

7
Padło właśnie słowo „intencjonalność”. Oznacza ono właśnie określone
nakierowanie ku temu, co „intencja” życzy sobie wskazać. Nie chodzi tylko czy też
prawie że wcale o intencję w rozumieniu fenomenologii, jako pewnego nurtu filozofii.
Chodzi tylko o to, że komputery nasze żadnego śladu intencjonalności nie wykazują i
warto się może zastanowić nad tym, jakby tu bezimitacyjnie i niepokrętnie
intencjonalność z nich wykrzesać?

8
Jedynym znanym nam ze świata sposobem na to jest ewolucja naturalna, która to,
co żywe, a niedostatecznie intencją życia napędzane, bez „litości” gładzi, a to, co
intencję życia zręczniej realizuje, ocala na jakiś czas (w normie — czas rozpłodu po
prostu). Największym kłopotem dla teoretyków i praktyków konstruktorstwa jest
niestety to, że eony czasu, niezbędne naturalnej ewolucji, czyli miliardy, a co najmniej
miliony lat są przeszkodą, której nie weźmiemy. Wszystko mym zdaniem zależy od
tego, czy jest jakaś metoda, jakaś strategia przyspieszonego uzyskiwania
wolicjonalności, intencjonalności, czyli po prostu CHCENIA czegokolwiek. Człowiek
w obu odmianach płci posiada pewne dążenia wbudowane, jak libido, jak głód,
pragnienie itd., ale ponadto dysponuje rozmaitymi typami nadmiarowości
(redundance), które sięgają od krzesania w krzemieniu tłuków i bijaków po
budowanie zamków z cegły albo z zapałek i last but not least kosmiczne loty.

9
Żeby wolicjonalność jakakolwiek mogła rozpocząć funkcjonowanie, niezbędny jest
dla niej „obraz świata”, czy tylko środowiska choćby. Dziecko musi się pierwej
dowiedzieć, że Księżyca rączką zdjąć z nieba się nie da ażeby ono po kilkudziesięciu
latach mogło uczestniczyć w programie Apollo.

10
Pseudomodele czynnej wolicjonalności, a zatem „chcenia”, można konstruować i
tak, że się wprowadza do programu losowy generator, przez co nie będziemy potrafili
przewidzieć przyszłych stanów i ewentualnie funkcji „robota”, ale nikt tego nie chce.
Nikt nie chce tego poza loterią czy lottem. Pewna pani skarżyła się psychiatrze na
syna, opowiadając, że zjadł on cały tort, przeznaczony na Święta i zgwałcił kucharkę:
czy nie jest to, pytała, dowodem jego szaleństwa? Nie — odparł lekarz. Gdyby pani

188
syn zjadł kucharkę i zgwałcił tort, można by na to patrzeć inaczej. To jest skrótowo
niezły przykład działania „losowego generatora”, który ma nam udawać działalność
wolicjonalną. Ona musi być wyposażona w jakiś sens. U bakterii czy pchły, czy słonia
będzie to sens przeżywalnościowy, u człowieka, jak się rzekło, ilość jako tako
sensownych postępków jest daleko większa, wiemy wszakże aż nadto dobrze
(niestety), że ludzie zdolni są do tego, by chcieć rzeczy dla nich szkodliwe, szalone
oraz nawet zabójcze. Nie wyobrażam sobie, żeby robot mógł posiąść bezkresną omal
wolicjonalność, żeby mógł posiąść artificial intelligence, będąc wyzbytym silnych
ograniczeń — jak ludzie. My przecież jesteśmy „w pętach” prawa stanowionego,
praw moralnych, także danych tradycją oraz wychowaniem, które nakłada na nas
bezlik powściągów, bo gdyby ich nie było, w samej rzeczy nie byłoby oporów ani
zahamowań chęci pożerania czy gwałcenia.

11
Wracam uporczywie do pytania, w jakiż to sposób moglibyśmy wyposażyć roboty
w „chcenia”, obwarowane określonymi zakazami oraz nakierowującymi orientacjami.
To bardzo trudny problem i pomysł Isaaka Asimova zawarty w jego trzech prawach
„robotyki” jest najczystszą nierealizowalną utopią. I po wyrzuceniu za burtę rozważań
wszelkiej utopii będziemy musieć stawiać czoło rozlicznym antynomiom
praktycznego życia, ponieważ istnieją rozmaite osiągalne cele, różnorodnie obciążone
aksjologicznie, a zarazem NIEWSPÓŁOSIĄGALNE i wtedy zwyczajny człowiek
głowę (jak to się mówi) traci albo też, by głowy ze wszystkim nie stracić, będzie
rzucał monetą, wypatrując orła lub reszki. Prościej mówiąc, on wtedy zdaje się na
całkowicie zewnętrzny wobec niego i zupełnie od niego w rezultacie niezawisły
mechanizm losowy. Ale gdyby roboty przyodziane w prawnicze togi zasiadały w
jakowymś trybunale, mając rozważyć nasze sprawy konfliktowe, nie bylibyśmy
zachwyceni, gdyby ich wyroki zależały od czysto losowych mechanizmów.

12
Pisałem już dawno temu o tym, że są sytuacje, w których sui generis
wolicjonalność pojawia się albo się nie pojawia w zależności od tego, jakiego języka
opisu użyjemy. Gdy bowiem wirus zbliża się do żywej komórki, zachodzi
fizykochemiczne i biochemiczne przyciąganie, opis uzyskujemy czysto
pozawolicjonałny, o tym czy wirus w ogóle CHCE zabić komórkę, czy nie — mowy
nie będzie. Ale wirus atakuje komórkę, dokonuje inwazji w jej wnętrze, udaje, że jest
takim samym zespołem genów jak genom komórki, przekształca się — koń trojański i
oczajdusza — w wirion i oto mamy już na scenie mikrodramat wolicjonalności albo
chociaż jej zalążek.

13
Akty woli naszej zawsze skierowane są ku przyszłości. Tu właśnie, w tym miejscu,
pojawia się kolejny szkopuł dla konstruktorów robotów, albowiem żaden komputer
nie jest skierowany ku przyszłości. Po to, żeby się zdawało, iż przecież jest, program
do gry w szachy zawiera bogatą w warianty ewaluację „stanów” szachownicy, a
tabelaryczne wartości, przypisane z GÓRY rozmaitym ciągom wedle ich dalszej
189
konsekwencji w grze, czynią następne ruchy szachowe komputera jako tako
zrozumiałymi i przez to quasi–wolicjonalnymi. Ale choć mówią nam, że możliwych
szachowych partii podobno jest 10”, przecież chodzi o ilość skończoną. Gdybyśmy
mieli wysłać „maszynę planetarną” na Tytana (księżyc Saturna), musielibyśmy
pierwej sporządzić tabelaryczny zestrój tego, co może maszyna (robot) na Tytanie
zastać i napotkać. Ale jeżeli okaże się (dziś rzecz całkowicie nieprawdopodobna), że
są tam jakoweś Istoty lub Pseudoistoty, nie zdołamy zapewnić robotowi sensowności
wolicjonalnej posunięć na obcym globie. O czym nie da się mówić, zauważył już
Wittgenstein, o tym należy milczeć. We wzmiankowany wyżej „spis rzeczy” dla
robota trudno się bawić, ponieważ może być tak, że sed tamen potest esse totaliter
aliter. Ale czy to znaczy, że w głąb sytuacji nieprzewidywalnych koniecznie trzeba
posyłać LUDZI? Posyłać można, ale gwarancji sukcesu i to nie daje, ponieważ i
człowiek nie jest doskonałym wcieleniem takiej intencjonalności, która wszystko
pojmie i takiej wolicjonalności, która wyłącznie optymalne działania będzie na
nieznanym gruncie wykonywać. A zatem, jak widzimy, STOPNIOWE jest wyłanianie
się „skutecznej wolicjonalności” i dlatego uczony, który, nie potrafiąc rozgryźć
kolejnej zagadki Natury, pada na kolana i prosi Pana Boga o pomoc, albo wyjawia, że
sens zagadki jeno Pan Bóg zna, sprzeniewierza się (ten uczony) metodzie naukowej,
chociaż może być bardzo religijną osobą. Sęk w tym, że z chwilą apelacji do Pana
Boga lub do jakiejkolwiek innej transcendencji, cedujemy NASZE PROBLEMY na
Kogoś lub Coś, rezygnując z własnej poznawczej suwerenności. Także robot–
maszyna planetarna, który by nam oświadczył, że jeden Pan Bóg wie, co gdzieś Tam
może być, przez co on, robot, czuje się od ekspedycyjnego ryzyka doskonale
zwolniony, nie będzie ani z konstruktorskiego, ani też z epistemologicznego punktu
widzenia cokolwiek wart. Roboty, odwołujące się do P. Boga, byłoby zresztą aż nadto
łatwo budować…

14
W poruszonym tutaj temacie kryją się też liczne dalsze zagadki, np. wbrew
pozorom nie mamy pojęcia, do czego potrzebne są wolicjonalności EMOCJE (a są
jakoś potrzebne). Do czego potrzebne są intuicje (też bardzo potrzebne). Do czego sny
potrzebne (to samo rzec trzeba) itp. Symulowanie digitalne (czy nie) zbyt wielu rzeczy
nam nie wyjaśnia ze względu na typową dlań linearność monodigitalną (numeryczną).
Jeszcześmy nie zjedli wszystkich rozumów — z własnym rozumem włącznie.

15
Przypatrując się naszym własnym, ludzkim postępkom, łatwo dostrzeżemy, jakie
zjawiska rodzi to, co zowie się roztargnieniem. Oto wezwany do telefonu odkładam
książkę, a powróciwszy, nie mogę jej znaleźć, jak się bowiem po mękach
poszukiwawczych okazuje, „machinalnie” wstawiłem ów tom sam do biblioteki.
„Machinalnie” znaczy tu nie co innego, jak „nieświadomie”. Ponieważ świadomość
wetknięcia książki w szereg innych na regale nie „zauważyła”, i pamięć tego nie
zanotowała, zdany jestem na stratę czasu, wywołaną szukaniem. I tak nam pojawiają
się niestety kolejne „byty”, mianowicie „świadomość” i „pamięć”. „Zmyślny robot”
musi tedy dysponować jednym i drugim. Na nic pamięć bez świadomości et vice
versa. Nieszczęście wzbiera i ominąć go nie można. Robot wyposażony w analogi

190
zmysłów dostrzeże akt wkładania książki do biblioteki i zapamięta go: czy znaczy to
jednak, że dysponuje on świadomością i pamięcią tak jak my? Wątpię raczej. Nam
jest dana ograniczona dość silnie podzielność uwagi. Robot może być tutaj bardziej
wielozakresowy: w to nie wątpię, ale cóż ma to ze świadomością wspólnego? Kiedy
spoczywam nieruchomo, np. w łóżku przed zaśnięciem, całościowo z położenia ciała
zdaję sobie sprawę, mogę jednak ponadto „wysyłać” moją przedsenną świadomość —
np. do dowolnej nogi, do rąk, do ucha i wiem, że każdy normalny człek również to
potrafi. Jak by miał taką czysto psychiczną aktywność naśladować robot i jak
moglibyśmy się o owym „wysyłaniu na przeszpiegi” świadomości robota dowiedzieć?
Możemy śledzić impulsy w odpowiednich pseudo–nerwach robota: to jasne. Ale czy
za nimi trwa czuwająca świadomość? Już coraz mniej ludzi–ekspertów pozostaje
wiernych testowi Turinga, a kiedy robot czy komputer NIC NIE MÓWI, rzecz staje
się jeszcze gorsza. Tak zatem różne pięknie ponazywane systemy, wypełnione po
brzegi świadomością i akuratnie wszystko pamiętające, zaopatrzone doskonale w
wolicjonalność, w imaginację sprawną intencjonalnie, w mowność, w emocje
sprzężone z myśleniem i myślenie sprzężone z intuicją — to wszystko są rzeczy nie
tyle nawet wielce istotne, ile niezbędne po temu ażeby otoczył nas lud, złożony z
robotów, które będą nas pilnie słuchać, ale w przeciwieństwie do ludzi absolutnie nic
złego nam nie zrobią i nie zostaną przez bezlik mężów stanu poddane wojskowemu
poborowi, aby wyruszyć na wroga. Na razie robotów takich nie ma, a gdyby się
pojawiły, byłyby jak sądzę diablo kosztowne — ludzie są o wiele tańsi, bo ich tyle
wszędzie. Te roboty, które są zmyślne, posłuszne i dobre, jakoś patrzą mi bardziej na
wcielenia marzeń konstruktorskich o ANIOŁACH stróżach aniżeli o ludziach. Myślę,
że na powierzchni małych planet (jak Mars) pojawią się w XXI wieku tak nazwane
przeze mnie maszyny planetarne i że będą dysponowały bogatymi nadmiarowością
programami, górniczymi np., także na Księżycu się pojawią, ale o niczym
interesującym porozmawiać się z nimi raczej nie da. Zresztą z mnóstwem
autentycznych ludzi nie ma o czym mówić: to powinno sceptyka, jak ja, co nieco
pocieszyć.

191
Symulowanie kultury

1
Obecnie modne stało się „symulowanie komputerowe wszystkiego”: od losów
Wszechświata za sto miliardów lat po symulowanie wirusowej ewolucji. Nie dziwota
więc, że wydawnictwo skądinąd pierwszorzędnego uniwersytetu w USA, MIT PRESS
wzięło się do redagowania i publikowania serii dzieł, poświęconych symulacji
kultury. Już dziwniejsze to, iż uznając mnie (Bóg wie czemu) za „znawcę” przysłał mi
ów MIT PRESS pracę p. N. Gesslera z prośbą ojej zrecenzowanie. Ponieważ autor ów
już mi uprzednio i bezpośrednio przysłał skrót swej pracy, obracającej się wokół
symulowania (digitalnego) kultury i ponieważ uznałem pomysł za niewykonalny, to
samo wydawnictwu MIT PRESS odpisałem.

2
Ograniczyłem się jednak w mej odpowiedzi do kategorycznego uznania projektu za
nieurzeczywistnialny, a wysłowiłem to sposobem, który mógł redakcję oficyny urazić.
Toteż chodziło za mną poczucie, iż gołosłowne uznanie symulacyjnego projektu za
czystą fikcję jest niewystarczające. Trzeba mianowicie choć skrótowo powiedzieć,
DLACZEGO Kultury ani jej powstawania, jej „emergencji” symulować się nie da.
Niniejsza próba ma być tedy poświęcona niejakiemu wykazywaniu „niemożności”
przedsięwzięcia. Najpierw należy oczywiście orzec, CO to jest kultura i skąd się
wzięła, a raczej wzięły, gdy jest to bukiet rozchodzących się dróg, przy czem jedne
kultury powstawszy albo przechodziły w inne postaci, albo wymierały i zanikały.
Kulturolodzy z grona antropologów, kultury badających, do dzisiaj natrafiają w
pracach swoich na zamierzchłe szczątki kultur, częściowo z nie rozszyfrowanymi
znakami nie istniejących już na Ziemi rodzajów PISMA. Ogólnikowo o kulturze
kilkadziesiąt lat temu pisałem w zakończeniu Fantastyki i futurologii i zacytuję
stamtąd siebie, albowiem upływ czasu i napływ nowszych roztrząsań w niczym moich
poglądów nie odmienił. A zatem wypada od cytatu zacząć.

3
„Człowiek nie jest zwierzęciem, które wpadło na pomysł kulturalizacji. Nie jest też
bitwą popędowego staromózgowia z płaszczem nowomózgowej kory, jak chce tego
Artur Koestler. Nie jest „nagą małpą z dużym mózgiem” (Desmond Morris),
ponieważ nie jest to zwierzę z jakowymś dodatkiem. Wręcz przeciwnie: człowiek jest
jako zwierzę niedostateczny. Istotą człowieka jest kultura — nie dlatego, że tak się
pięknoduchom podoba. Słowa te oznaczają, że skutkiem antropogenezy było odjęcie
człowiekowi dziedziczonych, zadanych ewolucyjnie z góry form zachowania.
Zwierzęta dysponują odruchowością, utrzymującą w ryzach wewnątrzgatunkową
agresję, a też hamującą rozrodczość samoczynnie u początków każdego
populacyjnego wybuchu. Wędrówkami ptaków czy szarańczy powodują mechanizmy
hormonowo–dziedziczne. Mrowisko, ul, rafa koralowa są to agregacje w
milionoleciach dostrojone do samoczynnej równowagi. Socjalizacja zwierząt też
podlega sterowaniu dziedzicznemu. Otóż tego rodzaju automatyzmów człowiek jest

192
pozbawiony po prostu. Skoro proces ewolucyjny usunął zeń takie wewnętrzne musy
działania, człowiek był na stworzenie kultury swoją biologią skazany.
Człowiek jest zwierzęciem niedostatecznym: znaczy to, że nie może wrócić do
stanu zwierzęcego. Dzieci, wyrosłe poza środowiskiem ludzkim są przez to właśnie
okaleczone głęboko także w swej biologii: nie wykształca się w nich ani gatunkowa
norma inteligencji, ani mowa, ani wyższa uczuciowość. Są one kalekami, a nie
zwierzętami. Także ludobójstwo jest formą kultury. Nie istnieje w przyrodzie
„zoocyd” jako odpowiednik genocydu. Nie ma więc w biologii człowieka danych, z
których można by wyprowadzić jednoznacznie jego powinności. Nie uświadamiając
sobie tego stanu rzeczy, społeczeństwa działając żywiołowo wytworzyły instytucje
kultury, jakkolwiek służące tym własnościom jako rama, jako opoka, a nieraz jako
łoże Prokrusta. Ludzka biologia jest NIEDOSTATECZNA, by mogła określić
zachowania człowieka „właściwe”. Tę niedookreśloność kultura dopełnia wartościami
nieredukowalnymi do „nagiego przeżywania”. Człowiek wytworzył instytucje, czyli
uzewnętrznione struktury wartości i celów, które przekraczają jednostkę i pokolenia.
Paradoks człowieczeństwa polega na tym, że biologiczna niedookreśloność zmusza
człowieka do stworzenia kultury — a ta kultura, powstawszy, niezwłocznie zaczyna
wartościować ludzką biologię.
Jedne części ciała umieszcza na skali ocen wyżej, a inne niżej; jednym funkcjom
przydaje godności, a innym ją odejmuje. Nie ma kultury, która by… przyjęła
człowieka do wiadomości jako danego w niedookreśleniu, które musi być dopełnione.
Każda kultura urabia i uzupełnia człowieka, lecz nie podług stanu faktycznego, ona
bowiem nie przyznaje się do własnych postanowień w repertuarze tej ich dowolności,
jaką odkrywa dopiero antropologia, kiedy bada cały zbiór kultur, powstałych w
dziejach… Uzupełniając siebie, czyli własną naturę przemieszczając w kierunku
charakterystycznym dla danej kultury, człowiek staje się dłużnikiem jej ideału,
niedoskonale wypłacalnym. Człowiek spogląda na siebie z ustalonego kulturowo
kierunku: widzi więc siebie z dystansu religijnego i z perspektywy obyczajowej. A
więc jako istotę podporządkowaną gradientom aksjologicznym. On sam te gradienty
zmyślił sobie, bo jakieś wynaleźć musiał: a teraz one go urabiają, już zgodnie z
logiką, właściwą ich strukturze, a nie strukturze popędów.”

4
Ten przydługi cytat wydał mi się wskazany, ponieważ wyjaśnia przynajmniej
zaczątkowo, dlaczego powstawania kultury nie można symulować. Dopowiedzmyż,
co jeszcze dodać trzeba. Otóż jest tak (ja tutaj tylko pewną stałą (constans)
stwierdzam, ale nie trapię się wynajdywaniem przyczyn, z których ona się bierze), jest
więc tak, że kulturę inicjuje powstawanie narzędzi, w eolicie odnajdywanych, w
paleolicie już krzesanych, a wokół nich jak zarazem działań, do których one służą,
zaczyna od razu powstawać „opar” niematerialności. W odniesieniu do narzędzi
dostrzec jego śladów archeolog nie może, gdyż „opar” ów znika wraz ze śmiercią
tamtych praludzi. Widoczny pozostaje najpierw w GROBACH, do których u zwłok
kładziono broń, żywność, ażeby zmarły mógł, nie wiedzieć jak, byt swój kontynuować
pośmiertnie. Innej eksplikacji tego wyposażenia zmarłych nie znamy i wymyślić jej
nie umiemy. Groby najdawniejsze JAKO ludzkie powstawały już kilkadziesiąt tysięcy
lat temu, choć dokładniejszą datę trudno ustalić, a obecnie sądzi się, że jakieś 15–20
000 lat temu powstał prajęzyk, który się wrychle w toku wędrówki praludzi po całym
(omal) globie rozszczepił na języki „miejscowe”. Tu już kryje się jedna z zagadek, bo
193
nim mowa powstała, trudno uznać, iżby w niemocie przedmownej powstały
jakiekolwiek wierzenia. Ale tu wyrasta już przed nami las hipotez, w który nie
wkroczymy, gdyż przed powstaniem nie tyle mowy, ile PISMA, nie podobna uznać,
że ulotne wierzenia „metafizyczne” pozostawić mogły jakieś ślady. Nieco śladów po
dziś dzień (menhiry np.) zachowało się, aliści nie są one w skali antropogenezy znów
tak bardzo dawne. Tutaj dalsze badania archeologów sporo jeszcze rzec nam będą
mogły.

5
Zatem stan rzeczy był taki, użyjemy naocznego i naiwnego MODELU, że była
sobie rzeczywistość zmysłami wprost dostrzegalna jak jakaś rzeka albo wulkan a „nad
nią” albo „wokół niej” praludzie „dorabiali” sobie „opar metafizyczny”, który z
upływem czasu miał wszędzie skłonność do przetwarzania się w to, co
„SAKRALNE”. Najpierw był pono animizm i każdy zdrój, każdy wulkan miał
swojego „ducha” czy bożka (ale w bożków przemieniały się „opary” protokulturowej
metafizyki bardzo wolno, mniej więcej jak sztuka ludowa, która powstawszy w
tysiącleciach, ZASTYGA), a potem jęły skupiać się opary tak, że z nich politeizm, a
na koniec i monoteizm powstał. Można, rzecz oczywista, być jednego z dwu
mniemań: albo „platońskiego”, orzekającego, że transcendencja (po mojemu tu —
„opary”) zawsze istniała, jeno ludzie do niej nie dorośli; i dopiero kiedy dorośli
scilicet „zmądrzeli”, aż naumieli się postrzegać „sakralność”, wykryli to, co było,
kiedy ich samych nie było na świecie. ALBO też można uznać, iż ludzie niczego nie
odkryli sakralnego, jeno to sobie wymyślili, a chociaż wiar były i są setki, podział
pokazany we wszystkich podobnie funkcjonował: na SACRUM i na PROFANUM.
Odmienności wywoływane były raczej lokalnie powstawaniem tabuizacji,
rozróżnianiem walorowym i nakazowym płci, pejsów itp. Ale dwójpodział zasadniczo
był wszędzie.

6
Z tym jest trochę jak z matematyką: jedni sądzą, że światy matematyczne
odkrywamy, bo one przedustawnie istniały, a tylko matematyków jako ich odkrywców
JESZCZE nie było, i to jest pogląd platoników. Inni, np. szkoła konstruktywistów,
głosi i uważa, że matematykę my sami, ludzie, wznosimy i budujemy. Ja tu w spór na
temat, kto ma rację w matematyce i w transcendencji, wejść bynajmniej nie
zamierzam, nie iżbym zdania własnego nie miał, ale dlatego, gdyż sprawa sama jest
od mojego zdania całkiem niezawisła. Czy Transcendencja była dana przedustawnie,
czy wymyślona została — to NIE jest mi niezbędne jako rozstrzygnięcie racji
którejkolwiek ze stron, abym zapewnił, że symulować emergencji ludzkiej kultury nie
jesteśmy w stanie. Jakże by można ów „dwójpodział” włożyć do programu
komputerowego? Przecież nawet to, co tylko indywidualno–wolicjonalne czy
intencjonalne, symulować się skutecznie nie daje. Komputer nie chce „nic” i nie
umiemy sprawić tego, aby „programowo” sam coś mógł zapragnąć, podążyć,
zechcieć. Oczywiście IMITACJE „chcenia” można wyprodukować, ale to tyle co
uznanie, iż autentyczna żywa baba i drewniana baba ruska to jedno i to samo…

194
7
Chodzi w szczególności o niepodległe dziś rozgryzieniu zagadkowe zjawisko: czy
KAŻDA kosmiczna kultura jest na bifurkację (profanum–sacrum) skazana, czy też to
lokalnie ziemski fenomen? Może wynikał stąd, że już praczłowiek uległej zgody na
śmiertelność swoją dać nie chciał, a może stąd, że TAK szła w swoich tempach
naturalna ewolucja: tutaj — jako antropogeneza i z samego „chodu” tej antropogenezy
wynikła nie dająca się systematycznie pozamykać w „pramaterializmach” właściwość
wszelkich narzędzi, a może też konieczny dla pokonania gödlowskiej zasadzki i
przepaści wielo–symboliczny charakter KAŻDEGO języka ludzi niejako popychał ku
„uwierzytelnieniu oparów metafizyki”. Jak było „naprawdę” i CZY jedynie szło o
monofiletyczną przyczynę, czy raczej splot ich i zestrój, NIE WIEMY, a jakże można
symulować to, o czym nie wiemy nic, zielonego pojęcia nie mamy i tym samym
potrafilibyśmy w największym zapale najwyżej sporządzić jakiś „emergencyjno–
kulturowy” odpowiednik teatru marionetek, udającego ruchy i życia dzięki
powodowaniu niteczkami Z ZEWNĄTRZ. To nie ma dobrego scjentyficznego sensu,
to dowolność urągająca metodzie naukowej, bo można coś tam symulować, ale dojść
tego, czyśmy SAMI włożyli już kulturę zalążkową do protokulturowego garnka, czy
też raczej ona wynikła nam „bo inaczej nie można” — tego się nie da poddać testowi
na wywrotność Popperową, w eksperymencie, i ktoś dysponujący innym niż my
programem uzyska inny rezultat. To jak z symulacją komputerową duchów, strzyg,
demonów, tamtego świata: jak kto sobie pościele, tak się i wyśpi. Nie należy
zastępować przy pomocy nauce mogących służyć przyrządów doświadczenia w sensie
Poppera. Nie należy zatem symulować kultury.

8
Jak jest rzeczą zupełnie pewną, że człowiek w średniowieczu nie mógł wyzwolić
energii atomowej, tak jest rzeczą całkiem pewną, iż nie można wziąć się do
symulowania kultury, nie władając skutecznym programem symulowania
lingwogenezy. Nie chodzi naturalnie o użycie jakiegokolwiek już istniejącego
systemu znaków, zdolnych do reprodukcji sensów desygnacyjnych, sposobnych do
segmentacji syntaktycznej, do znaczenia wybiórczo konotacyjnego i denotacyjnego.
Chodzi o to, że przedjęzykowa faza już u zwierząt zaznacza się jako „mgły
pojęciowe”, a język jest niejako ich kondensatem, ich skropleniem, ich odtwórczym
derywatem. Jak psychologom wiadomo już dobrze, indywiduowe życie psychiczne
jest od języka ZAWSZE bogatsze, co znaczy, że dyferencjacji stanów
świadomościowych umysłu nie można w pełni adekwatnie oddać w językowej
postaci. Zawsze coś niewypowiedzianego i niedopowiedzianego pozostaje takiego w
naszym życiu psychicznym, iż tego się najwyżej jakoś domyślić można, a to zachodzi
dzięki temu, że nasze aparatury mózgowe są wcale do siebie podobne, i już z tego
powodu łatwiej nam i bezmownie pojąć innego człowieka aniżeli żyrafę lub mątwę:
rzecz bowiem nie tylko w tym, że nasz mózg zawiera miliardy połączeń, a centralny
system nerwowy mątwy jest względnie ubogi (ale jej wystarczy dla przeżywania).

9
Fenomenologia filozoficzna nic tu pomóc nie może. Chodzi o to, że
195
przedjęzykowy stan psychosocjalny przechodzi w językowy „sposobami” nam
całkowicie nieznanymi. Oczywiście zaraz znajdą się tacy gorliwcy, którzy
elementarną sygnalizacyjność quasi–języka gestów (szympansów np.), uznają już za
wyborną pożywkę kultury więc i jej symulacji, tym bardziej, że systemowe, stadne
zachowania można (i to się robi nagminnie) utożsamiać z kulturowymi. Ale wtedy nie
tylko delfiny i małpy, nie tylko hamadryas, nie tylko gołębie i bociany zachowują się
„kulturowo”, bo przecie widać ich godowe tańce. Jak się ma otwarty worek, to byle
co, więc wszystko można doń wsypać. Kultura człowieka, we wszystkich swych
odmianach tak synchronicznych, jak diachronicznych, JEST w końcu jakimś
derywatem biologii człowieka, bo jakbyśmy latali niczym aniołowie, to by ta
fizjoanatomiczna odmienność w kulturach się jakoś zapewne odcisnęła. A gdybyśmy
pod wodą żyli niczym orki, to też zmiany by to w naszą kulturotwórczość
wprowadziło. Skoro jednak jesteśmy zbudowani i funkcjonujemy tak, jak „każdy
widzi”, to antropogenetycznie zmienna wytwórczość kulturowa (nasza) od języka
zależy (gdyż język jest przewodnikiem wielu mózgowych procesów), a w jakiejś
mierze od naszej wzrokowej specjalizacji pomałpiej: byliśmy bowiem wzrokowcami
grubo przedtem, nim staliśmy się rozmówcami…

10
Nie twierdzę, jakoby bezjęzykowo i pozajęzykowo symulować emergencji, czyli
wynikania kultury nie dało się wcale. Chcę ostrożniej rzec, że fastryga językowa
byłaby przydatna, byle jako ułatwienie w programie nie szedł ścieg nazbyt dużymi
odstępami. Ogólny zaś obraz, jaki daje mi wysiłek doprowadzenia zamiaru do
naoczności, jest taki: mamy pierwej zbiór zwierząt określonych gatunkowo, zdolnych
do ponadsygnalizacyjnej łączności. Zbiór ten dysponuje nadmiarową ilością stopni
swobody zachowania, które nie jest en masse samozagrażalne. Żyje ten zbiór w
jakichś niszach, do których jest przeżywalnościowo zaadaptowany. I teraz winny
kiełkować w nim zakazy i nakazy; jedna część zachowań popędowych musi ulegać
niewrodzonemu 100% hamowaniu i pobudzaniu, inna część MOŻE służyć
przeżywalności ILUZORYCZNIE, jak to było np. u Azteków, którzy serca żywej
młodzieży wyrywali z piersi, ażeby nieboskłon się nie zawalił. Czynności ofiarnicze,
brzydziej mówiąc wynikające z mniemania, iż bóstwa patronujące światu są
korumpowalne (przekupne), to właściwie przekonanie jest powszechnie uniwersalne
dla wszystkich bodajże wiar, i tylko w poszczególnych przybiera rozmaitą
merytorycznie i liturgicznie postać. Każda wiara ma coś, więcej albo mniej, do
orzekania w domenie etyki i moralności, ale nie każda wiara obiecuje korzyści
transcendentalne z zachowań z nią zgodnych jako chwalebnych. Jak by to, a jeszcze
więcej funkcji, można było symulować W POWSTAWANIU KULTURY, pojęcia nie
mam, a czytając traktaty Amerykanów, naiwności ich kapitalistyczno–kursowo–
rynkowego pragmatyzmu, bijącego pokłony komputerom, nadziwić się nie mogę. Nie
o to mi idzie, że zamiary ich są niewykonalne jako kawał kontynentu empirycznego
dotąd nie zawłaszczony, jedynie o to, że biorą się do wykonania oceanu z miętowej
herbaty i sądzą, że „symulując emergencję kultury” będą empirię naukowo
kontynuować i utwierdzać. Jest to szkodliwa dziecinnada, zwłaszcza w tym naszym
kończącym się stuleciu pomieszania języków, rozumów, głów, godne Piotrusia Pana
latanie na desce do prasowania jako supersamolocie XXI wieku. Jak widać, niestety,
przybór głupoty jest uniwersalny i w tym wieku wcale zahamowany nie został.
Powiedziałbym raczej, że metastazy w bliską przyszłość optymizmu poznawczego
196
zadowoleniem napawać nie mogą.

197
To jest książka o granicach między Człowiekiem i Maszyną
To jest książka o tajemnicach mózgu ludzkiego
To jest książka o próbach tchnięcia Ducha w Maszynę
To jest książka o zadziwiających przygodach ewolucji naturalnej
To jest książka o języku, jakim, przemawia genetyczny kod życia
To jest książka o tym, jak liczą maszyny, a jak — twory natury

198

You might also like